CRM Datenqualität: Analyse & Verbesserung von Kundendaten

Jeder spricht vom Einsatz von künstlicher Intelligenz und den großen Vorteilen für Kunden und Unternehmen gleichermaßen. Doch in Realität kommt meist ein Schreckgespenst dazwischen: Die Datenqualität.

Viele Jahre wurden Daten zwar gespeichert, aber nicht weiter erörtert ob sie auch von hoher Qualität sind und wie sie in Zukunft genutzt werden können. Und diese Altlast holt nun viele Unternehmen ein. 

Warum ist Datenqualität bei Kundendaten wichtig?

Es gibt eine Reihe von Gründen, weshalb eine hohe Datenqualität von Kundendaten im CRM angestrebt werden sollte:

  • Die Kundenbeziehung leidet, wenn inkohärente oder einfach falsche Daten beim Kunden ankommen.
  • Ein hoher Pflegeaufwand interner Systeme entsteht, wenn Kundendaten über Systeme hinweg nicht identisch sind.
  • Viele strategische und Umsatz generierende Maßnahmen wie Marketing können ins Leere laufen, wenn die Daten nicht verlässlich sind

In Summe ist Datenqualität bei Kundendaten so wichtig, da sie eine der zentralen Datenquellen jedes Unternehmens darstellen. Diese Daten tragen nicht nur zu korrekter Abwicklung von Bestellungen bei, sondern auch zur Wahrnehmung und dem Erfolg des gesamten Unternehmens.

CRM: Die Quelle für alle Kundendaten?

In einer idealen Welt wären alle Kundendaten zentral in einem Customer-Relationship-Management (CRM) System gespeichert. Leider sieht die Realität anders aus. Kundendaten sind meist weit verstreut über viele Systeme.

Das E-Commerce-System für Bestelldaten, das Service-System für Kundenanfragen, das Logistik-System für Lieferungen, das Newsletter-System, Survey-Systeme und vieles mehr. In jedem gibt es Daten von Kunden. Und sehr selten sind diese Daten zwischen den Systemen abgestimmt und einfach identifizierbar. Die Folge? Noch mehr Chaos in der Kundenstammdatenhaltung.

Ansätze zur Verbesserung der Datenqualität

Im Prinzip gibt es zwei Ansätze, um die Datenqualität im CRM und anderen Systemen mit Kundendaten zu verbessern. Der eine ist ein groß angelegtes Data Governance Programm, das darauf abzielt, dass in jedem System und über Systeme hinweg die korrekten Daten von Anfang an enthalten sind. Ein großer Aufwand, aber auch eine kontinuierlich verlässliche Basis.

Die Alternative, vor allem als Orientierung und durch den geringen Aufwand attraktive Option ist eine Ad-Hoc Datenqualitätsanalyse. Hierzu werden vorhandene Kundendaten auf ihre Qualität geprüft und diese Erkenntnisse zu einer Korrektur eingesetzt.

Analyse der Datenqualität im CRM & Korrektur

Ein guter Start in die Verbesserung der Kundendatenqualität ist eine Ad-Hoc Analyse. Hierzu werden Kundendaten aus einem System (CRM, Service, E-Commerce, Newsletter,..) extrahiert und die verschiedenen Metriken (z.B. E-Mail-Adresse, Titel, Unternehmen, Geschlecht, etc) auf ihre Qualität untersucht.

Folgende Datenqualitätskriterien werden dabei üblicherweise analysiert:

  • Completeness: Wie vollständig ist eine Metrik, wie viele Werte fehlen? 
  • Datenvalidität: Welche Datentypen beinhaltet eine Metrik? Passt das zur Erwartung?
  • Dubletten: Gibt es identische oder fast-identische Einträge?
  • Redundanz: Gibt es Metriken, die sehr ähnliche Inhalte widerspiegeln und ggf. entfernt werden können?
  • Ausreisser: Gibt es ungewöhnlich hohe, lange oder seltene Einträge?

Damit hat man einen guten ersten Einblick über den Stand der Datenqualität. Diese Information muss dann in die qualitative Diskussion genommen werden. Sind die Ausreisser real oder falsche Inhalte? Macht es Sinn, dass Metriken teilweise wenige Inhalte haben? Sind Redundanzen sinnvoll oder können sie abgeschafft werden?

Hat man diese Information verarbeitet, können die Datenquellen korrigiert werden. Gleichzeitig gilt es, am Input zu arbeiten, um diesen auf die nächste Qualitätsstufe zu heben. Als solches kann dieses iterative Analyse-Korrektur-Spiel sehr erfolgreich eingesetzt werden, um mit sehr wenig Aufwand eine hohe Qualität zu erreichen.

Etablierung des “First time right”-Prinzips

Während eine Ad-Hoc Analyse der Datenqualität mit Sicherheit bei sehr vielen Unternehmen bereits einen sehr großen Hebel darstellt, ist dies langfristig nur ein Kampf gegen die Symptome.

Daher muss man, um langfristig eine hohe Datenqualität zu gewährleisten, an der Quelle ansetzen. Man muss mittels eines umfassend angelegten Programms für jede Datenquelle einen Verantwortlichen ermitteln und ein entsprechendes Data Governance Programm aufsetzen.

Das Ziel hierbei ist üblicherweise das “First Time Right”-Prinzip. Dieses definiert, dass die Daten bereits bei der Eingabe im Detail (technisch) kontrolliert werden müssen, damit keine schlechten oder falschen Daten erst in die Syteme gelangen.

Dass groß angelegte Data Governance Programme für große Unternehmen unabdingbar sind ist selbstverständlich. Kleinere und mittlere Unternehmen tun jedoch ein gutes daran, mit einer Ad-Hoc Datenqualitätsanalyse von Kundendaten zu starten, statt sich in einem zu großen Projekt zu verlieren.

Datenqualitätsanalyse von Kundendaten bei Kobold AI

Um Unternehmen einen einfachen Einstieg in die Verbesserung ihrer Kundendatenqualität zu ermöglichen, haben wir ein Produkt entwickelt, das vollautomatisch viele Qualitätsmetriken überprüft und analysiert. Keine Integration oder Beratung notwendig, sondern schnell und einfach Ergebnisse zur Datenqualität bekommen.