Veröffentlicht am

Der AI Chasm: Vom KI-Prototyp zum Produkt

Viele Unternehmen begeben sich langsam auf den Weg zur Data Driven Company indem sie datenbasierte Anwendungsfälle als Prototypen umsetzen. Doch dann begegnen sie einem Problem, das sich “AI Chasm” nennt: der Skalierung von dieser innovativen Arbeit in einen operativen, umfassenden, selbstverständlichen Prozess. Das Thema rund um den AI Chasm beschäftigt sich also mit dem Thema wie man von datenbasierten Prototypen zu datenbasierten Produkten kommt – und wir stellen vor welche Hebel es gibt, diese Kluft zu überbrücken.

Inhaltsverzeichnis

Was ist der AI Chasm und wieso ist er für Unternehmen wichtig?

Der AI Chasm bezeichnet die Herausforderung von Unternehmen, von KI-Prototypen zu operationalen Produkten zu kommen.
Der AI Chasm bezeichnet die Herausforderung von Unternehmen, von KI-Prototypen zu operationalen Produkten zu kommen.

Unter “AI Chasm” versteht man die Herausforderung, künstliche Intelligenz von Prototypen in ein Standardwerkzeug eines Unternehmens zu heben. So befinden sich viele Organisationen im Bereich der KI momentan in der “Ausprobier”-Phase, stehen aber vor der Herausforderung, dieses datenbasierte Arbeiten in skalierbare Produkte und Services zu heben.

Dass künstliche Intelligenz, auf Englisch “Artificial Intelligence”, inzwischen zu einem der wichtigsten Digitalisierungsthemen avanciert, ist kein Geheimnis. Daher beschäftigt sich so ziemlich jedes Unternehmen mit dem Potential ihrer Daten und den Effekt von Machine Learning Algorithmen. Manche stellen eigene Data Scientists ein, andere untersuchen das Thema mittels externer Unterstützung. Egal welcher Weg: In jedem Unternehmen ziehen langsam Prototypen und Proof of Concepts ihre Runden, um die Vorteile von künstlicher Intelligenz zu vermitteln.

Meist ist es noch eher eine Spielerei oder ein Projekt, das nach der Testphase nicht weiter verfolgt wird. Aber immer öfter wird der Nutzen von Machine Learning sichtbar und dann steht sich eine einfache Frage: Wie kann dieses Vorgehen skaliert werden? Ob ein einzelner Anwendungsfall oder gleich das gesamte Thema “Data Science”: Es ist ein immenser Unterschied zwischen einem zusammengebauten Prototypen der lokal auf einem MacBook läuft und einem operationalen, dem Unternehmen Gewinn bringenden, Produkt.

Diese Kluft zwischen “etwas probiert” und “etwas im Unternehmen operationalisiert” nennt sich “AI Chasm” oder zu Deutsch “Kluft der KI”. 

Die drei Aspekte des AI Chasm

Worin liegt die Schwierigkeit, die Hürde vom Prototypen zu Produkten zu überwinden? Wir sehen primär drei Faktoren, die gelöst werden müssen, bevor man den AI Chasm im Unternehmen überwinden kann.

Die Lösungen zur Überbrückung des AI Chasm liegen im Enablement, der Datenkultur und einer Erfolgsmessung.
Die Lösungen zur Überbrückung des AI Chasm liegen im Enablement, der Datenkultur und einer Erfolgsmessung.

Das Enablement: Die Fähigkeit, datenbasierte Produkte umzusetzen und am Laufen zu halten

Als der wohl fundamentalste Aspekt zur Überbrückung des AI Chasm kann das Enablement – also die grundlegende Fähigkeit zu datenbasierten Arbeiten gesehen werden. Hierbei gibt es mehrere Aspekte zu beachten. Im Zentrum der Fähigkeit steht selbstverständlich die Data Science Expertise. Dieses Wissen ist der eine singuläre Faktor an dem Erfolg oder Misserfolg eines datenbasierten Produkts gemessen werden kann. Nur wer tiefgehendes Verständnis für Anwendungsfälle sowie Algorithmen hat, kann AI als nachhaltiges Werkzeug im Unternehmen verankern.

Während der Faktor Expertise sich vor allem auf die sogenannte Vorbereitung der Umsetzung bzw. auf die erfolgreiche Umsetzung bezieht, helfen die besten Data Science Experten wenig, wenn dann das daraus entstehende Produkt nicht in die IT Systemlandschaft integriert werden kann. Hierzu ist es notwendig eine Big Data Infrastruktur aufzusetzen, zu etablieren, zu standardisieren und zu managen. Besonders im Zentrum sind hierbei Data Architects und Data Engineers welche gemeinsam mit Enterprise Architects oder Solution Architects die Daten-Infrastruktur einrichten und das Deployment (also die Operationalisierung von z.B. Machine Learning code) ermöglichen. 

Dieser Gedanke ist oft in den Köpfen von Chief Data Officers oder äquivalenten Rollen vorhanden. Der nächste Schritt geht jedoch oft schon unter. Denn nebst Infrastruktur und fachlicher Expertise zur Bearbeitung von Data Science Use Cases braucht man auch Personal das nach dem Deployment das Monitoring und die Maintenance übernimmt. Diese Aufgabe wird normalerweise in den sogenannten DevOps-Abteilungen übernommen. Da diese allerdings oft keine explizite Kenntnisse im Bereich des Machine Learning Model Deployments haben, entsteht sukzessive ein neuer Bereich der sich ML-Ops oder Data Ops nennt. Die Experten dieses Bereichs sind nicht nur imstande Infrastruktur aufzusetzen, sondern auch in der Lage die Verfügbarkeit der Modelle und vor allem auch deren Leistungsfähigkeit zu überwachen. Die Experten des Bereichs ML-Ops beschäftigen sich daher auch mit dem sogenannten “Concept Drift”. Der Concept Drift beschreibt das Problem, dass mit zunehmender Zeit ein trainiertes und operationalisiertes Machine Learning Modell nicht mehr zu genüge die Realität abbilden kann. Dies hat zur Folge dass die Vorhersagen schlechter werden, und daher muss das Modell oder eben ein neues trainiert werden. 

Es gibt noch wesentlich mehr Enablement Themen die in die Kategorie der “Fähigkeit” zu datenbasierten Arbeiten fallen. Die drei genanntenAspekte  sind jedoch mitunter die am schwerwiegendsten um den AI Chasm zu überbrücken. Andere wichtige Themen sind zum Beispiel die Data Governance, Budgetverantwortung, organisatorische Etablierung des Bereichs Daten und vieles mehr.

Die Kultur: Der Wille und die Bereitschaft datenbasiert zu arbeiten 

Hat man die grundlegenden Probleme des Enablements gelöst und die Fähigkeit zum datenbasierten Arbeiten geschaffen, bleibt jedoch noch eine weitere umfassende Herausforderung um den AI Chasm zu überwinden. Der sogenannte Wille bzw. die Kultur. Eine umfassende Datenkultur ist Voraussetzung um aus dem Elfenbeinturm der technologischen Innovation auszubrechen und ein weitreichendes Verständnis einerseits, aber auch eine umfassende Akzeptanz von datenbasierten Produkten im Unternehmen andererseits zu schaffen. 

Eine Datenkultur zu etablieren ist oft sogar schwieriger und auch relevanter für eine erfolgreiche Überwindung des AI Chasm als ein umfassendes Enablement. Ein schönes Zitat in diesem Zusammenhang ist “Culture eats strategy for breakfast”. Denn nur wenn die Kultur es erlaubt, im Optimalfall sogar begünstigt, können strategische Themen auch umgesetzt werden. Die “Brechstange” führt selten zum Erfolg, sondern schafft oft Widerstand.

Warum ist also eine weitreichende Datenkultur wichtig und was beinhaltet sie? Generell gibt es zwei Teile einer nachhaltigen Kultur zum datenbasierten Arbeit. Erstens muss das Wissen ob die Methodik, das Vorgehen, die Vor- und Nachteile und dem Potential von Data Science als umfassendes Thema etabliert und verbreitet werden. Dies schafft ein Verständnis, das über populärwissenschaftliche Information hinausgeht und bildet die Basis für den zweiten Teil. Dieser ist die umfassende Akzeptanz von datenbasierten Produkten und deren Effekten. Denn nur wenn im Unternehmen eine wohlwollende Einstellung gegenüber dem Thema Big Data und A.I. vorherrscht, ist es möglich die Vorzüge aufzuzeigen und den Effizienzgewinn auch zu operationalisieren. Angst muss genommen und Lust auf Innovation geschürt werden. Dann hat man die Möglichkeit, datenbasiertes Arbeiten zum Erfolg zu führen.

Der Erfolg: Wie kann Erfolg von datenbasierter Arbeit gemessen und als Feedback genutzt werden?

Der dritte Aspekt um den AI Chasm zu überbrücken ist die Schaffung, Dokumentation und das Rückspielen von Erfolg. Das Prinzip ist sehr einfach: Schafft man es, Erfolg messbar zu machen und diesen quantifizierten Erfolg ins Unternehmen zurück zu spielen, hat man eine direkte positive Rückkopplung auf sowohl die Bereitschaft zum Enablement als auch eine Förderung der Datenkultur.

Egal ob Vorstand, Management oder Team: Es sollte immer die Frage nach dem “Wieso” und dem “Was bringt es uns” gestellt werden. Und diese Fragen gilt es zu beantworten. Nebst strategischer Wichtigkeit und auch Zukunftsfähigkeit gibt es aber auch eher greifbare Möglichkeiten wie die Definition von KPIs, das Messen des Erfolgs von Data Science Use Cases und die Promotion von der erfolgreichen Umsetzung der Anwendungsfälle im Unternehmen.

Nebst Kultur und Enablement ist der AI Chasm immer eins: Eine Frage des Erfolgs. Und das schlagendste Argument für die meisten Menschen ist nach wie vor greifbarer, einfach und schnell verständlicher Erfolg. Somit gilt es, kontinuierlich nach Wegen zu suchen, diesen Erfolg messbar zu machen. Denn dann sehen viele Kollegen auch den Nutzwert sehr praktisch statt nur theoretisch und lassen sich eher überzeugen, den Weg zur Data Driven Company mitzugehen.

Die Rolle des AI Chasm in der Data Driven Company

Zusammen genommen ist der AI Chasm ein sehr wichtiger Maturitätsschritt für jedes Unternehmen das sich zur Data Driven Company entwickeln möchte. Die Fähigkeit, mehr als nur Prototypen und kleine Projekte durchzuführen ist die Basis für das umfassende, holistische operative Arbeiten mit Daten das den Kern einer Data Driven Company ausmacht. Daher sehen wir die Aspekte, die bei der Überbrückung von datenbasierten Proof of Concepts zu datenbasierten Produkten helfen losgelöst vom AI Chasm und als zentrale Elemente in jedem Unternehmen. Es gilt nicht, nur Ad-Hoc Enablement, Kultur und Erfolgsmessung zu betreiben, sondern vielmehr müssen dies Kernwerte sein, auf die sich nebst den eigentlichen Use Cases konzentriert wird.

Veröffentlicht am

Der wahre Wert von Daten

Eine Person zählt Dollar-Scheine

Daten sind das neue Öl oder auch das neue Gold im 21. Jahrhundert. Die Aktien von Technologieunternehmen wie Google oder Facebook, die Daten als Grundlage haben übertreffen sich jedes Jahr. Jedem ist klar: Daten sind etwas wert. Aber was ist genau der Wert von Daten und wie kann man ihn einsetzen?

Was ist der wahre Wert von Daten?

Wenn jemand im wirtschaftlichen Kontext von Wert spricht, ist meist monetärer Wert gemeint. “Was ist der ROI? Können wir das verkaufen?” hallt es durch die Flure und Slack-Channel der deutschen Unternehmen. 

Doch Wert hat wesentlich mehr Interpretationen als diesen einen sehr einfachen. Dazu muss man klar darlegen, dass Daten keine klassische Ressource sind, die “umgesetzt” werden muss. Daten haben einen offensichtlichen, einen potentiellen und einen langfristigen Wert.

Der offensichtliche Wert von Daten

Der offensichtliche ist der, den viele direkt erkennen: Besitzt man Daten, die einzigartig oder sehr branchenspezifisch sind, sind diese viel wert. Als Beispiel können die StreetView-Daten von Google, die Sozialdaten von Facebook oder auch IoT-Daten von Industrieunternehmen gesehen werden. Auch Unternehmen, die sich auf Datenakquise und -erhebung konzentrieren, fallen in diese Kategorie.

Solche Daten haben einen offensichtlichen Wert, da sie entweder einen direkten Wettbewerbsvorteil generieren oder weil sie als Produkt verkauft werden können. Folglich sind derartige Daten die, die sich am nähesten direkt an der Idee eines “ROIs” befinden.

Der potentielle Wert von Daten

Eine andere Art von Wert weisen Daten aus, die nicht in dieser offensichtlichen Kategorie auftreten. Die Kategorie ist mit Absicht etwas vage ausgedrückt; denn so ziemlich alle Daten, die ein Unternehmen besitzt, haben einen potentiellen Wert. Oft gilt es nur, mittels sehr expliziter Entwicklung von Anwendungsfällen und analytischer Auswertung (z.B. mittels Machine Learning) diesen Wert zu heben.

Als Beispiele für diese Art von Datenwert gelten Kundendaten, Service-Daten, Webanalytics, Marketingdaten und vieles mehr. Im Prinzip alle Daten, die durch Kunden, Lieferanten, Partner, Systeme, Prozesse oder Produkte generiert werden, haben das Potential einen eindeutigen Wert auszuweisen. Dies ist auch im Merkmal “Big Data Value” zu finden, das neue Maßstäbe für Daten im 21. Jahrhundert setzt.

Das wichtige bei dieser Kategorie ist, dass der potentielle Wert abhängig ist vom eigenen Unternehmen. Wenn manche Daten für das eine Unternehmen von sehr hohem Wert sind, können die genau gleichen Daten für ein anderes Unternehmen vollkommen irrelevant sein.

Um jedoch diesen potentiellen Wert zu identifizieren, gilt es, eine starke Stakeholder-Zentrierung zu etablieren und mit fundamentaler Expertise aus dem Bereich Data Science zu kombinieren. Nur wenn man versteht für wen man es macht und wie man es machen kann, kann man identifizieren, wie wertvoll Daten in diesem Prozess sein können.

Der langfristige Wert von Daten

Oft höre ich Menschen sagen “Ich möchte nicht blind alles speichern”. Das Problem ist: Für gute Vorhersagen mittels künstlicher Intelligenz braucht man oft viele historische Daten. Dem entgegen steht, dass Speicherplatz heute sehr günstig ist und daher kaum der limitierende Faktor ist.

Das Argument das ich hier darstelle ist, dass man es sehr häufig bereut, Daten nicht gesammelt zu haben; selten jedoch, dass man sie gespeichert hat. Dies alles selbstverständlich unter dem Dach von rechtlichen Vorgaben wie der DSGVO. Oft genug jedoch entwickelt man spät Ideen, wie man Daten einsetzen kann; hat sich aber nicht die Mühe gemacht, die entsprechenden Daten (z.B. als Rohexport in einem Data Lake) zu persistieren.

Natürlich ist es ein Pseudo-Totschlagargument zu sagen “irgendwann werden wir diese Daten noch brauchen”. Hat man jedoch einen gut strukturierte Prozesse bezüglich Data Governance, einen Datenkatalog und einen funktionierenden Data Lake zur Verfügung, kostet es kaum Mehraufwand Daten zusätzlich zu speichern. Daher ist Aufwand/potentieller Ertrag klar positiv.

Sind Daten nur gut, wenn sie monetären Wert haben?

Ein Mann hält eine leuchtende Glühbirne
Daten sind der Treiber für Innovation und müssen als Zukunftsinvest behandelt werden.

Wir haben verschiedene Kategorien von Wert für Daten kennengelernt. Bleibt noch immer die Frage: Muss die Auswertung von Daten bzw. die Daten selbst einen monetären Ertrag bilden?

Ganz einfach gesagt muss ein Unternehmen langfristig rentabel sein, um weiter zu existieren. Jedoch gilt es vor allem beim Aufbau von neuen Kompetenzen wie Datennutzung auch in die Zukunft zu investieren und zu experimentieren. 

Mehr noch; selbst wenn wir keinen genauen ROI für Daten oder deren Einsatz definieren können, gilt es dennoch, den Effekt auf das Unternehmen und dessen Kunden mit Bezug auf Loyalität, Customer Experience und Konvertierung darzustellen.

Ein einfaches Dashboard, das unseren Sales-Mitarbeitern empfiehlt welche Artikel ein Kunde braucht, ein neues Produktfeature das durch Datenanalyse entstanden ist oder die Vorhersage von Mitarbeiter-Zufriedenheit: Oft ist es schwierig, einen monetären Wert dahinter zu stellen, selbst wenn der Effekt offensichtlich ist.

Um es kurz zu machen: Ein Unternehmen ist generell auf einen gewissen Profit angewiesen. Viele langfristige, prozessuale oder transformative Themen allerdings befinden sich noch im Umbruch und können nicht direkt mit Geldwert quantifiziert werden. Daher sind alle Daten wertvoll, nicht nur diejenigen mit offensichtlichen monetären Wert.

Wie kann man den Wert von Daten quantifizieren?

Die dargestellte Argumentationskette wird vielen Top-Management Mitgliedern nicht genügen. Eine Wette auf ein zukünftiges Potential abzuschließen ist möglich, aber eben nicht verlässlich. Daher wird man gegebenenfalls darauf bestehen, den Wert von Daten zu quantifizieren, ohne die dafür notwendige Erfahrung zu besitzen.

Daher gilt es, Indikatoren für einen hohen Datenwert und ein hohes Potential festzulegen. Dazu zählen zum Beispiel:

  • Einzigartigkeit der Daten
  • Potentielle Anwendungsfälle
  • Verfügbarkeit und Zugriff auf die Daten
  • Aktualität der Daten
  • Auswirkung auf Kundenbeziehung
  • Menge und Historie der Daten
  • Strategische Bedeutung der Daten
  • Auflösung (Granularität) der Daten
  • Interessierte Fachbereiche

Ergänzt mit individuellen Metriken erlaubt dies, zumindest die unternehmensinterne Frage der Priorisierung von Datenquellen zu beantworten. Weiterhin zielt es darauf ab, die Daten als das zu betrachten, was sie sind: Ein Zukunftsinvest.

Fazit: Daten sind weit mehr wert als nur Geld

Zusammengefasst kann man sehr einfach sehen, dass Daten weit mehr Wert haben als oberflächlich erkennbar. Es gibt hunderte von Anwendungsfällen für Datenanalysen; wichtig ist nur, sich klar dafür zu entscheiden, Daten als Mehrwert zu betrachten.

Eine Quantifizierung mittels Metriken kann als etablierter Prozess helfen, allen Beteiligten zu verstehen zu geben, weshalb die Daten von Wert sind. Insgesamt sollte die Frage allerdings nicht lauten “Was ist der ROI?”, sondern vielmehr “Was ist der Mehrwert?”, so man über den Wert von Daten spricht.

Veröffentlicht am

Gehalt von Data Scientist, Data Analyst und Data Engineer

Was verdienen eigentlich Data Analysts, Data Scientists und Data Engineers? Wir stellen die Gehälter der verschiedenen Daten-Rollen vor, definieren Einflussfaktoren und geben aber auch klare Richtwerte an, womit man in den jeweiligen Positionen rechnen kann. Dabei unterscheiden wir einerseits zwischen Senioritätslevel (z.B. Junior, Senior, Lead, Chief Data Scientist) und andererseits je nach Ort (Deutschland, München, Hamburg, Berlin) um eine möglichst Präzise Schätzung abzugeben, mit welchem Gehalt ein Data Analyst, Data Scientist oder Data Engineer rechnen kann.

Inhaltsverzeichnis

Die Rolle des Gehalts für Data Analyst, Scientist und Engineer

Niemand redet sonderlich gerne, aber es ist immer ein Thema: Das Gehalt. Da Geld doch meist einen zentralen Wert im Leben einnimmt, haben viele das Bedürfnis sich beim Thema Gehalt nicht unter Wert zu verkaufen. Sicherlich ist es richtig, mit einer selbstlosen Art an seine Arbeit zu gehen und zu argumentieren, dass die Arbeit Spaß machen soll – dies ist auch absolut fundamental. Dennoch heisst dies nicht, dass man nicht seinen Fähigkeiten entsprechend bezahlt werden soll. Vor allem in konservativen Unternehmen oder für Quereinsteiger ist es oft undurchsichtig, wie viel man verdienen sollte – oder kann. Daher ist es nur richtig zu versuchen, seinen eigenen “Wert” im Vergleich zu ermitteln. 

Doch bei vielen neuen Rollen ist der Vergleich gar nicht so einfach. Schließlich gibt es bisher kaum “Chief Data Engineers” oder ähnliche Rollen in Deutschland, die als Richtwert gelten können. Um dieses Wissen jedoch möglichst vereinfacht zur Verfügung zu stellen, haben wir in diesem Artikel mehrere Quellen zum Thema Gehalt im Bereich Data Science und darüber hinaus zusammengetragen, mit unserem eigenen Wissen angereicht und zur Diskussion gestellt. 

Dass diese Liste eine Sammlung von Schätz- und Näherungswerten darstellt sollte klar sein. Das Ziel ist auch nicht, diese Website auszudrucken und in die nächste Gehaltsverhandlung zu nehmen. Viel wichtiger ist, dass man ungefähr versteht welche (finanziellen) Entwicklungsmöglichkeiten die Arbeit im Bereich mit Daten bietet und man einen Ansatz hat, sich selbst einzuschätzen.

Einflussfaktoren auf das Gehalt 

Bevor wir zu den harten Zahlen zum Thema Gehalt kommen, möchten wir noch kurz einige der wichtigsten Einflussfaktoren vorstellen. Diese müssen beachtet werden, wenn man sich an den Vergleich vom eigenen Gehalt mit Stellenausschreibungen und/oder Kollegen macht. Denn das Gehalt kann innerhalb der gleichen Position sehr stark variieren – und darauf sollte man vorbereitet sein.

Seniorität als Faktor beim Gehalt

Die Seniorität oder zumindest die Fachexpertise spielt bekanntermaßen den größten Faktor in der Höhe des Gehalts. Wir versuchen hierbei in unserem Artikel auf verschieden Fachlevel einzugehen, genauer:

  • Junior / Einstiegsgehalt: Diese Rolle hat noch keine oder kaum Berufserfahrung (0 – 2 Jahre) gesammelt und kommt meist direkt von der Uni oder als Quereinsteiger aus einem anderen Fachbereich.
  • Mid-Level: Der “Data Engineer” oder “Data Scientist” ohne Abstufung ist meist ein berufserfahrener (1 – 5 Jahre) Mitarbeiter, der als Junior eingestiegen ist, als Quereinsteiger bereits ausreichend Berufserfahrung gesammelt hat oder in der Uni im Master sehr relevante Erfahrung sammeln konnte. Auch fachfremde Uni-Absolventen mit Promotion sind häufig am Anfang in dieser Kategorie zu finden.
  • Senior: Nach mehreren Jahren Berufserfahrung in der Rolle (3 – 8 Jahre), einer passenden Promotion oder anderen Gründen für sehr guten “Fit” auf die Rolle sind Mitarbeiter in der Senior-Rolle verankert. Sie haben höhere Expertise, mehr Erfahrung und oft auch zumindest eine fachliche Weisungsbefugnis. 
  • Lead / Chief: Während die “Lead”-Rolle noch sehr fachlich verankert ist und die fachliche Teamführung betitelt, ist die “Chief”-Rolle bereits eher strategisch angelegt. Beide Rollen zeugen von fachlicher Exzellenz und (Teil-)Verantwortung für ihr jeweiliges Themengebiet.

Details zum Gehalt und dem Unterschied der Seniorität in den jeweiligen Rollen (Data Scientist, Data Engineer…) finden sich im jeweiligen Abschnitt.

Ort als Einflussfaktor auf das Gehalt

Der Arbeitsort spielt eine erhebliche Rolle bei der Höhe des Gehalts. Die Unterschiede im Gehalt zwischen einer Großstadt mit hohen Lebenshaltungskosten (z.B. München, Hamburg, Frankfurt) und anderen Orten beträgt bis zu X%. Daher ist es nicht verwunderlich, dass man in Gehaltsgesprächen manchmal über die Höhe des Angebots verwundert ist – sowohl im Positiven, als auch im Negativen.

Generell empfehlen wir, den Ort als Fixum definitiv mit ihn das angepeilte Gehalt einzubeziehen. Gibt es die Möglichkeit in Aussenstellen zu arbeiten, die bei niedrigeren Lebenshaltungskosten verankert sind, sollte man dies selbstverständlich auch in Betracht ziehen. 

Unternehmensgröße als Einfluss auf das Gehalt

Studien zeigen, dass umso größer das Unternehmen, umso höher auch das Gehalt ist. Dies macht absolut Sinn, denn etablierte (DAX-)Konzerne haben einen ganz anderen Ressourcenpool aus dem sie ziehen können als ein Startup oder eine frisch gegründete 5-Mann-Agentur.

Dabei empfehlen wir sich vorher zu informieren ob das Unternehmen – vor allem wenn es ein Konzern ist – gegebenenfalls in einem Gewerkschaftsvertrag steckt. Somit kann zumindest für Einstiegspositionen relativ gut bestimmt werden, wie das zukünftige Gehalt aussieht.

Die Branche bestimmt das Gehalt

Ein weiterer Faktor bei der Höhe des Gehalts im Datenbereich ist die Branche des Unternehmens. Die FANGs (Facebook-Amazon-Netflix-Google) dieser Welt haben aus ihrem Bedürfnis, die besten Data Engineers und Data Scientists zu rekrutieren, selbstverständlich eine ganz anderen Bezug zur Entlohnung als ein mittelständischer Industriebetrieb. 

Folglich sollte man sehr genau darauf achten in welcher Branche man tätig werden möchte und auch kann. Bei Technologiekonzernen ist man oft einer von sehr vielen (gut bezahlten) Mitarbeitern im Bereich Data Science, bei kleineren Unternehmen in der Industrie sticht vielleicht das Gehalt nicht so durch, aber man hat mehr Veränderungsmöglichkeiten.

Personalverantwortung als Faktor in der Höhe des Gehalts

Selbstverständlich spielt auch der Faktor, ob man eine Fachkraft ohne Personalverantwortung oder eben eine Führungskraftposition einnimmt eine große Rolle. Die gleiche Position – zum Beispiel Senior Data Scientist – kann mit Personalverantwortung kommen und eher strategisch aufgebaut sein oder eben sehr operativ und praktisch. 

Work-Life-Balance und andere Faktoren beim Gehalt im Data Science Bereich

Als letzten Faktor möchten wir noch die Work-Life-Balance und andere Einflüsse auf das Gesamtpaket inklusive Gehalt aufführen. Diese Faktoren sind selbstverständlich hochindividuell, sollten jedoch immer als Gesamtpaket betrachtet werden. Das Gehalt ist wichtig – ja. Aber auch die Anzahl an geleisteten Stunden, die Möglichkeit zum Homeoffice oder mobilen Arbeiten kann einen großen Stellenwert einnehmen.

Daher empfehlen wir immer, nicht nur das Gehalt als einzige Metrik bei der Evaluierung neuer Stellen zu nehmen, sondern eben das Gesamtpaket. Dies gilt es dann auch im Gespräch zu schnüren oder bei Jahresgesprächen gegebenenfalls neu festzulegen.

Informationsquellen für die gelisteten Gehälter

Um möglichst repräsentative Aussagen zum Gehalt des Data Engineers, Data Scientists und Data Analysts zu machen, stützen wir uns in diesem Artikel auf mehrere Quellen. Zum einen nutzen wir einfach Webportale die für jeden zugänglich sind und sich auf das Thema Gehalt und Gehaltsvergleich spezialisiert haben. Als zweites extrahieren wir Informationen – falls vorhanden – von Jobbören und Jobportalen. Drittens nutzen wir soziale Netzwerke wie LinkedIn und XING, um dort die Gehaltsspannen auszulesen. Und als viertes runden wir diese gesammelten Zahlen mit unserer persönlichen Erfahrung im Recruiting im Bereich Data Science ab, vervollständigen nicht vorhandene Daten und deuten auch an, wie sich die Gehälter im Bereich Data Science entwickeln werden. Für einen Detailüberblick der gesammelten Gehälter, siehe den Abschnitt “Datengrundlage” am Ende des Artikels.

Aufgaben und Gehalt eines Data Analysts

Als Data Analyst, auf Deutsch auch Datenanalyst, nutzt man Daten um Information zu extrahieren. Data Analysts beschäftigen sich daher vor allem mit der Aufbereitung, deskriptiven Analyse und Visualisierung von Daten.

Um diese Daten nicht an den Bedürfnissen der Stakeholder vorbei zu analysieren, arbeitet ein Data Analyst sehr eng mit dem Business, also Domänenexperten, zusammen. Entweder ist er hierzu selbst im entsprechenden Fachbereich tätig oder er bildet im Optimalfall ein Tandem mit mit dem Fachexperten. Mittels Workshops und iterativen Vorgehen schafft er es somit, seine Analysen, Reports und Dashboards möglichst passgenau auf die Herausforderungen im Unternehmen anzupassen.

Die Tools die ein Data Analyst dabei einsetzt sind sehr vielfältig und je nach Seniorität auch sehr technisch. Von klassischer Visualisierungssoftware wie PowerBI oder Tableau über Analyseprogramme wie Excel oder SPSS liegt die Stärke von erfahrenen Data Analysts vor allem in der Beherrschung von SQL, um direkt aus Datenbanken die notwendigen Daten zu extrahieren. 

Aber auch die Verwendung von Programmierbasierten Analysen wie R oder python oder die Erstellung von rudimentären Machine Learning Modellen kann in das Aufgabengebiet eines Data Analysts fallen – obwohl das eher der Schwerpunkt von der Rolle des Data Scientists ist.

Nachfolgend unsere gesammelten Daten zum Gehalt eines (Senior) Data Analysts:

Gehalt eines Data Analysts nach Seniorität

SenioritätGehaltSpanne
Junior Data Analyst35.000€20.000€ – 45.000€
Data Analyst45.000€38.000€ – 53.000€
Senior Data Analyst55.000€50.000€ – 75.000€
Lead Data Analyst, Principal Data Analyst66.000€60.000€ – 90.000€
Chief Data Analyst??
Gehalt eines Data Analysts nach Seniorität

Gehalt eines Data Analysts nach Ort

OrtGehalt
Durchschnitt Deutschland45.000€
München50.000€
Hamburg46.000€
Berlin44.000€
Gehalt eines Data Analysts nach Ort

Besonderheiten bei Lead Data Analysts und Chief Data Analysts

Um ehrlich zu sein sind mir bisher keine Chief Data Analysts begegnet. Normalerweise steigert sich die Rolle durch den geringeren technisch-fachlichen Fokus dann nicht mehr durch Titel, sondern eher mittels strategischer Verantwortung. Daher ist eher ein “Head of Data Analytics” oder “Head of Business Intelligence” zu finden, als Chief Data Analysts. Analytics als solches ist meist auch einer anderen Einheit – zum Beispiel IT oder Controlling – unterstellt, weshalb ein Chief selten seine Daseinsberechtigung findet, sondern die Analytics-Abteilung eher einem CIO oder CDO unterstellt ist.

Gehaltsentwicklung im Bereich Data Analytics

Durch die Normalisierung von Datenanalyse und immer zugänglicheren Datenquellen, Analysemethoden und Tools ist die Entwicklung des Gehalts von Data Analysts relativ konstant. Einerseits steigt der Bedarf, allerdings drängen auch sehr viele Menschen in diesen Beruf, da er wesentlich weniger fachliche Expertise als ein Data Scientist oder Data Engineer benötigt und somit viel zugänglicher ist.

In den zukünftigen Jahren ist zu erwarten, dass Data Analytics als solches oft als “Self Service” etabliert wird. Dazu wird nachhaltige, einfach zugängliche und standardisierte Infrastruktur geschaffen, mit der sich auch Domänenexperten an den Daten bedienen können. Daher ist gegebenenfalls sogar zu erwarten, dass die Anzahl an reinen Data Analysts abnimmt und eher Mischformen aus Domänenexpertise und Datenanalyseexpertise der Standard werden.

Der Data Scientist – Aufgaben und Gehalt

Der Data Scientist, zu Deutsch Datenwissenschaftler, ist mitunter die begehrteste Rolle im Zuge der digitalen Transformation und vor allem auf dem Weg zur Data Driven Company. Er wird als Wundermittel rund um die Themen Big Data, Advanced Analytics, Machine Learning und datenbasierte Innovation gesehen.

Folglich kann die Rolle des Data Scientists sehr stark variieren. Vom Generalisten, der auch die Aufgaben von Data Analyst und Data Engineer mit übernimmt, bis zum Spezialisten der sich auf künstliche Intelligenz (z.B. Neuronale Netze und Deep Learning) konzentriert kann es viele Ausprägungen des Datenwissenschaftlers geben. Doch eins haben sie gemeinsam: Sie benötigen eine weitreichende Kombination zwischen Business-Expertise, Statistik-Wissen und Programmier-Kenntnissen. Nur dann kann Data Science fruchten: Als Schnittstelle zwischen kundenzentrierten Business-Problemen und der Auswertung und dem Einsatz von Daten als Lösung.

Technologisch arbeiten Data Scientists vor allem mit Tools aus dem Bereich Big Data Analytics und Programmiersprachen wie python und R, um Daten auszuwerten. Auch die Nutzung von Cloud Computing wie Microsoft Azure, AWS oder Google Cloud und Data Lakes gehören in den Werkzeugkasten. Die Aufgaben sind also nicht zu knapp – deshalb ist das Gehalt für einen Data Scientist auch im oberen Feld angesiedelt. 

Für weitere Informationen zu den Aufgaben und Skills eines Data Scientists, besucht unseren Artikel “Data Scientist: Beschreibung, Aufgaben, Tools und Gehalt”.

Nachfolgend unsere gesammelten Daten zum Gehalt eines (Senior) Data Scientists:

Gehalt eines Data Scientists nach Seniorität

SenioritätGehaltSpanne
Junior Data Scientist40.000€35.000€ – 45.000€
Data Scientist53.000€40.000€ – 65.000€
Senior Data Scientist70.000€55.000€ – 100.000€
Lead Data Scientist, Principal Data Scientist80.000€65.000€ – 115.000€
Chief Data Scientist95.000€?
Gehalt eines Data Scientists nach Seniorität

Gehalt eines Data Scientists nach Ort

OrtGehalt
Durchschnitt Deutschland53.000€
München60.000€
Hamburg54.000€
Berlin51.000€
Das Gehalt eines Data Scientists nach Ort

Besonderheiten bei Lead Data Scientists und Chief Data Scientists

Data Scientists sind von den dargestellten Rollen tatsächlich diejenige, die sich am stärksten in “Lead” und “Chief” Positionen aufgliedern. Dabei ist bei Lead Data Scientists die Funktion noch sehr klar und deutlich technisch geprägt, während ein “Chief Data Scientist” eher strategisch agiert.

Auch wenn sie die häufigste der Lead-Rollen darstellen, ist auch für die Data Scientists kaum Information vorhanden bzgl. der Gehälter in dem Bereich, da sie massiv von den genannten Einflussfaktoren wie Ort, Unternehmensgröße, Fachgebiet, Personalverantwortung etc. beeinflusst werden.

Gehaltsentwicklung im Bereich Data Science

Dadurch, dass der Markt erkannt hat, dass es viel zu wenig Data Scientists gibt um dem Hype gerecht zu werden, produzieren Universitäten und Websites inzwischen viel Nachwuchs. Doch dieser Nachwuchs kann nicht direkt die Anforderungen von Unternehmen erfüllen, da die mangelnde praktische Erfahrung mit dem Thema – sowohl strategisch als auch operativ – einen fundamentalen Unterschied darstellt. Daher ist die Gehaltsentwicklung im Bereich der Einsteigsgehälter von (Junior) Data Scientists als abnehmen, die im Bereich der erfahrenen Data Scientists als massiv ansteigend zu betrachten.

Der Data Engineer – Aufgaben und Gehalt

Der Data Engineer hat zur Aufgabe, Dateninfrastruktur aufzusetzen, zu betreiben und Data Pipelines um Daten zu transferieren zu erstellen. Folglich ist er fundamental wichtig im ersten Schritt zum Aufbau einer Data Driven Company: Die Akquise, Konsolidierung und Bereitstellung von Daten fällt in sein Aufgabengebiet.

Da viele Unternehmen gerade merken, dass die Bereitstellung von Daten einer ihrer Schwachpunkte ist, sind Data Engineers momentan auch sehr gefragt. Vor allem Senior Data Engineers, die bereits weitreichende Erfahrung mit Cloudsystemen, Data Pipelines, Data Lakes, ETL-Tools etc sammeln konnten, spüren diesen Bedarf auch sehr deutlich im Gehalt.

Über den Entwicklungsverlauf eines Data Engineers kann man sagen, dass er üblicherweise entweder nahe am Solution Architect (z.B. Beherrschung eines ETL-Tools) oder am Softwareentwickler (z.B. manuelles erstellen von Tools) startet. Mit zunehmender Erfahrung kommen beim Senior Data Engineer dann schließlich auch Kenntnisse in Cloud-Technologie, Big Data Infrastruktur oder dem Aufbau einer IT-Architektur zusammen.

Für weitere Information zu den Aufgaben des Data Engineers, besucht unseren Artikel “Data Engineer: Beschreibung, Aufgaben, Tools und Gehalt”. 

Nachfolgend unsere gesammelten Daten zum Gehalt eines (Senior) Data Engineers:

Gehalt eines Data Engineers nach Seniorität

SenioritätGehaltSpanne
Junior Data Engineer45.000€30.000€ – 60.000€
Data Engineer55.000€45.000€ – 70.000€
Senior Data Engineer65.000€55.000€ – 100.000€
Lead Data Engineer, Principal Data Engineer80.000€?
Chief Data Engineer100.000€?
Das Gehalt eines Data Engineers nach Seniorität

Gehalt eines Data Engineers nach Ort

OrtGehalt
Durchschnitt Deutschland62.000€
München65.000€
Hamburg62.000€
Berlin60.000€
Das Gehalt eines Data Engineers nach Ort

Besonderheiten bei Lead Data Engineers und Chief Data Engineers

Ab der Erfahrungsstufe “Lead Data Engineer” wird es sehr schnell schwammig, vor allem an Informationen die man im Internet findet. Zudem treffen die oben genannten Einflussfaktoren sehr stark zu, das heisst ob man Personalverantwortung hat und in welcher Unternehmensgröße man arbeitet.

Wenige Unternehmen haben einen Chief Data Engineer auf der Gehaltsliste. Dies liegt vor allem daran, dass eine sehr hohe kritische Masse erreicht werden muss, um einen “Chief” zu besetzen. Zudem übernimmt diese Rolle üblicherweise der Chief Data Officer oder Head of Data Engineering.

Gehaltsentwicklung im Bereich Data Engineering

Wie bereits erwähnt entwickeln sich die Gehälter im Bereich Data Engineering positiv. Viele Unternehmen stellen fest, dass sie Dateningenieure benötigen, um überhaupt datengetrieben zu arbeiten – aber an erfahrenen Personen mangelt es. Entsprechend sind bereits Einstiegsgehälter für Data Engineers sehr hoch. 

Ein weiterer Faktor ist, dass zwar massenhaft Softwareanbieter auf den Markt drängen, um solche Prozesse zu automatisieren, aber einerseits sind sie noch meist weit von einer Vollautomatisierung entfernt und zweitens müssen diese Tools auch eingesetzt und bedient werden – was wiederum eine Aufgabe des Data Engineers ist.

Der Vergleich des Gehalts von Data Analyst, Data Scientist und Data Engineer

Zusammenfassend sind alle dargestellten Gehälter in der gleichen Branche, jedoch mit unterschiedlichem Fokus in der Wertschöpfungskette von Daten. Die nicht unerheblichen Gehaltsunterschiede vor allem zwischen Data Analysten und Data Scientists ist oft ein Anstoß zur Diskussion. So verdienen Data Scientists im Schnitt gerne über alle Senioritätslevel vom Einstiegsgehalt bis zum Manager ca. 20% mehr als Data Analysts.

Aber auch Data Engineers sind schwer gefragt. So haben sie ein noch stärkeres Potential zum Wachstum als Data Scientists, weil der Aufbau der Dateninfrastruktur momentan ein sehr stark fokussiertes Thema ist. Zudem ist die fachliche Expertise – der Aufbau von Big Data Infrastruktur, Data Pipelines, Cloud Infrastruktur und mehr – sehr anspruchsvoll. 

Ist der Unterschied gerechtfertigt?

Sind diese Unterschiede im Gehalt zwischen Data Analyst, Data Scientist und Data Engineer gerechtfertigt? Darauf gibt es wie üblich eine Bandbreite an Antworten. Wir betrachten gerne mehr als nur einen Faktor wenn wir das Gehalt betrachten. Zum Beispiel muss ein guter Senior Data Scientist eine umfangreiche Kombination an Business-Wissen, statistischer Expertise und hohen Programmierkenntnissen mit in die Rolle bringen, um ein solches Gehaltslevel zu erreichen. Diese Vielzahl an notwendigen Skills ist nicht einfach zu bekommen, geschweige denn einfach zu erlernen.

Nebst dem notwendigen Skillset finden sich auch die gesamtgesellschaftliche Entwicklung und der Ausbildungsrückstand im Gehalt wieder: Während Rollen wie der Data Analyst inzwischen gut abgedeckt ist, sind der Scientist und Engineer noch nicht in einem Reifegrad, die mit der Entwicklung der Unternehmen mithalten können. Zwar gibt es nach und nach immer mehr Onlinekurse und Studiengänge die diese Lücke zu füllen versuchen, aber es ist ein immenser Unterschied zwischen einem Junior Data Scientist und Senior Data Scientist was Erfahrung und somit Effekt betrifft.

Kurzum: Wir denken, dass die Unterschiede im Jahr 2020 definitiv noch gerechtfertigt sind, aber mit den kommenden Jahren werden auch Data Scientists und Data Engineers eine Demokratisierung erfahren, so dass sie besser verfügbar sind und somit die Gehälter entsprechend langfristig sich an den Markt anpassen.

Die Rolle vom Gehalt in einer Data Driven Company

Was bedeuten nun die Gehälter der Rollen Data Analyst, Data Scientist und Data Engineer für die Data Driven Company? Alle drei Rollen sind relativ zentral in den operativen Analytics und Advanced Analytics Bereichen einer Data Driven Company und sollten daher auch im Fokus von Recruiting und Retainment stehen. Die Personalknappheit, der geringe Erfahrungsstand der meisten Data Rollen und die hohen Kosten schlagen natürlich vor allem bei Unternehmen zu Buche, die sich im Aufbau ihrer Datenexpertise befinden.

Doch gilt es auch hier wie in vielen Themen langfristig zu denken: Die Arbeit mit Daten wird uns in den nächsten Jahrzehnten begleiten, deshalb müssen sich Unternehmen vorbereiten den AI Chasm zu überbrücken und datenbasierte Arbeit als Teil ihrer Organisation zu sehen. 

Zusammen genommen lohnt es sich also, lieber jetzt zu investieren um fähiges Personal zu rekrutieren und die Grundsteine für nachhaltige Arbeit im Bereich Data zu legen, statt zu zögern und langfristig viel höhere Kosten durch fehlende Insights, Legacy Systeme, schlechte Datenqualität und mangelnde Innovation zu zahlen. 

Datengrundlage

PlattformTitelOrtGehalt (Spanne)
LinkedInData AnalystMünchen50k (31 – 69k)
IndeedData AnalystMünchen58,5k (28 – 99k)
XINGData AnalystHamburg52,5k (42 – 73,5k)
LinkedInData AnalystDeutschland48k (32.5 – 65k)
XINGData AnalystDeutschland52,5k (38 – 75k)
IndeedData AnalystDeutschland58k (18 – 98k)
LinkedInData AnalystBerlin43k (30 – 58,5k)
XINGData AnalystBerlin51k (40,5 – 71k)
IndeedData AnalystBerlin53,5k (25 – 91k)
XINGData AnalystBayern54k (43 – 75k)
LinkedInData EngineerMünchen60k (45 – 70k)
IndeedData EngineerMünchen72,5k (35 – 123k)
LinkedInData EngineerDeutschland55k (40 – 70k)
IndeedData EngineerDeutschland73k (30 – 134k)
LinkedInData EngineerBerlin55k (34,5 – 75k)
IndeedData EngineerBerlin77,5k (34 – 138k)
LinkedInData ScientistMünchen62k (50 – 90k)
gehalt.deData ScientistMünchen(55 – 86k)
IndeedData ScientistMünchen71k (35 – 120k)
LinkedInData ScientistHamburg60k (45 – 75k)
XINGData ScientistHamburg68k (51,5 – 89k)
gehalt.deData ScientistHamburg(48 – 75,5k)
LinkedInData ScientistDeutschland60k (45 – 80k)
XINGData ScientistDeutschland68k (44,5 – 91k)
gehalt.deData ScientistDeutschland(45,5 – 71k)
IndeedData ScientistDeutschland80k (28 – 157k)
LinkedInData ScientistBerlin56k (42 – 75k)
XINGData ScientistBerlin65,5k (48,5 – 87k)
gehalt.deData ScientistBerlin(43 – 67k)
IndeedData ScientistBerlin54,5k (20 – 104k)
XINGData ScientistBayern70k (52,5 – 91k)
IndeedJunior Data ScientistDeutschland45k (23 – 74k)
XINGLead Data AnalystDeutschland58k (48 – 71k)
XINGLead Data ScientistDeutschland76,5k (57 – 91k)
LinkedInSenior Data AnalystDeutschland63,5k (45 – 90k)
LinkedInSenior Data EngineerDeutschland71k (60 – 88k)
LinkedInSenior Data ScientistDeutschland71k (57 – 88,5k)
IndeedSenior Data ScientistDeutschland76k (32 – 138k)
Die Gehälter von Data Analyst, Data Scientist, Data Engineer im Vergleich (Abrufdatum 13.08.2020)
Veröffentlicht am

Was hat Data Science eigentlich für ein Problem?

Jeder will es, kaum einer kann die Erfolgsgeschichten zu Tisch bringen. Und selbst jene Erfolge über die gesprochen wird, sind hart erkämpft. Was ist also das Problem mit Data Science, dass es so schwierig ist?

Um es kurz zu fassen: Es gibt nicht das eine Problem. Es sind eher mehrere Problemkategorien, die man betrachten muss um zu verstehen, warum Data Science Projekte so oft fehlschlagen. Dass die Schwierigkeit so breit ausgelegt ist hat zum Hintergrund, dass Daten aus allen Bereichen kommen und in alle Bereiche strahlen. Daher sind sie auch derart umfassend wie kaum ein anderer Bereich. Mehr noch: Die Problemkategorien von Data Science sind auch nicht durch die Nutzung von Daten entstanden, sondern waren schon vorher da und werden durch den Versuch, Daten als effektives Werkzeug im Unternehmen einzusetzen, nur sichtbar gemacht.

Legacy: Die Anderen sind schuld!

Starten wir mit etwas einfachem, was gleichermaßen selbstverständlich ist: Die Legacy. Als “Legacy” bezeichnet man Dinge, vor allem IT-Systeme, Organisationen oder Prozesse, die vor vielen Jahren etabliert wurden und inzwischen Probleme verursacht, die man vorher nicht (genügend) mitbedacht hat. Im einfachsten Fall ist dies zum Beispiel ein altes CRM (Customer Relationship Management System, also Kundenverwaltungsprogramm), in das man keine Social Media Accounts einpflegen kann. In schlimmeren Fällen sind es jedoch Systeme die mit der aufkommenden Datenmenge durch falsche Technologien oder schlechte Programmierung nicht mehr Schritt halten können. Während ersteres eher ein Luxusproblem darstellt (“Ich kann meinen Kunden kein Facebook zu zuordnen”), ist zweiteres betriebsgefährdend.

Was hat dieses sehr bekannte Problem mit Data Science zu tun? Nun, IT-Systeme waren in der Vergangenheit in den seltensten Fällen dafür gedacht, große Datenmengen zu produzieren, zu speichern und einfach und effektiv zur Weiterverarbeitung zur Verfügung zu stellen. Dies startet bei den Datenbanksystemen und reicht über Schemas bis zum Fehlen von Schnittstellen. Möchte man nun die Daten des Systems extrahieren um sie zu analysieren stößt man sehr schnell an Grenzen – ob nun gar keine API, unmögliche Datenmodelle oder sehr hoher Aufwand, sie automatisiert abzuziehen. 

Folgendermaßen trägt die IT-Landschaft dazu bei, dass Datenauswertungsinitiativen schnell scheitern oder nur mit sehr hohem Aufwand umgesetzt werden können. Der Aufwand, der einem entgegen wirkt um starten zu können wirkt daher oft in keinem Verhältnis zu dem Potential. Besonders, wenn man nur von Anwendungsfall zu Anwendungsfall denkt, statt strategisch langfristig zu agieren.

Mitten im digitalen Wandeln; digitalisierung ist noch nicht abgeschlossen, Datenrevolution

Datenqualität und -menge: Es reicht einfach nicht

Doch selbst wenn man Zugang zu den Systemen hat, heisst dies noch lange nicht, dass die vorliegenden Daten nutzbar sind. Die gesamte Thematik Datenqualität spielt eine große Rolle. Ob nun von einer mangelnden Verknüpfbarkeit von Datenquellen (“Unique Identifier”) oder schlechten Inhalten (Completeness, Correctness,..) geprägt: Sehr viele Unternehmen und vor allem auch frische Data Science Absolventen unterschätzen, was es heisst, mit realen Daten zu arbeiten. 

Besonders spannend wir diese Aufgabe immer dann, wenn Nutzer- oder Mitarbeiter-generierter Inhalt vorliegt. Kaum jemand “an der Front” kümmert sich üblicherweise darum, die Daten dann auch weiter zu nutzen. Attribute werden querbeet erfasst, Felder gar nicht oder mit einer Bandbreite an Platzhaltern gefüllt oder die IT hat allen Beteiligten das Leben einfach gemacht, indem sie keine Datentypenüberprüfung eingebaut hat. 

Alles führt zu einem Problem: Wir haben Daten, aber wir dürfen erst einmal einen sehr großen Aufwand betreiben, diese zu verknüpfen, säubern und aufzubereiten. Während bei einem Data Warehouse dies oft noch mitgedacht wurde, stösst Data Science eben in die Welt der Daten vor, die bisher kaum Beachtung findet: unstrukturierte, von Menschen generierte Daten. Und schnell erkennt man, dass man erst seit wenigen Jahren daran denkt, die erfassten Daten auch als Mehrwert nutzen zu wollen.

Ein weiterer Aspekt wenn man vorliegende Daten betrachtet ist ganz einfach die Menge und deren Granularität. Viele Unternehmen denken sie hätten “Big Data”, wenn sie eine Excel-Liste von 1000 Einträgen vorweisen können. Oder weil sie Google Analytics angeschlossen haben. Noch besser ist der Fall, wenn man aus Kostengründen bisher nur aggregierte Daten gespeichert hat. 

In keinem der Fälle liegen wirklich viele Daten vor. So mögen diese für grundständige Analyticsvorhaben genügen, aber für tiefergehende, auf Machine Learning basierte Data Mining Vorhaben eignen sich solche Datensätze sehr selten. Folglich muss man oft auch die Wahrnehmung korrigieren, was viele Daten sind, was besondere Datensätze (mit Wert!) sind und dass man doch in vielen Fällen erst einmal drei Schritte zurück machen und Daten erheben muss, bevor man sinnvolle Anwendungsfälle umsetzen kann.

Expertise – wirklich erfahrene Mitarbeiter

Während obige beiden Probleme meist erst im Versuch der Umsetzung von Data Science Projekten auftreten, gibt es schon vorab ein großes Problem: Erfahrung. Seit Daten das neue Öl sind und der Data Scientist der sexisiest Job im 21. Jahrhundert ist, hat der Run auf die Rolle begonnen. Die Online-Bootcamps von fragwürdiger Natur bilden tausende von jungen Menschen auf den immergleichen Datensätzen aus, Datenwissenschaft ist als Bachelor-Studiengang im Kommen und jeder, der einmal ein Modell trainiert hat, kennt sich plötzlich mit Artificial Intelligence aus.

Leider merkt man diesen “Goldrush” auch sehr schnell in Qualität und Weitblick der verfügbaren Mitarbeiter. Unzählige Stellen als Data Scientist und Data Engineer werden besetzt, aber ebenso unzählige Stellen bleiben unbesetzt. Der Grund ist simpel: Wer keine reale Erfahrung hat, bringt in ein Unternehmen sehr viel weniger ein, als jemand der bereits einige Jahre den gesamten Data Science Prozess durchlebt hat. Daher ist es oft nicht eine Frage ob es genug Absolventen für eine Rolle gibt, sondern vielmehr ob es genügend qualifizierte Bewerber gibt. 

Ich bin inzwischen der festen Überzeugung, dass der Aufbau eines Data Science Teams “von unten”, also über Juniors, kaum möglich ist. Viele Unternehmen stellen Pro Forma (um CEO und Board zu beglücken) ein paar “Data Scientists” ein und lassen sie arbeiten. Mit dem Erfolg, dass sie gar nicht arbeiten können und falls sie es doch tun, laufen sie in die immer gleichen Probleme: Systeme, Daten, Zugriffe, Qualität, Modellqualität, Operationalisierung, Concept Drift, etc. Der harte Weg des Selbststudiums ist toll – aber mehr Wert bringt, wer sich bereits zu bewegen weiß. Und diese Mitarbeiter kosten viel Geld, weil sie es sind die rar sind. Was wiederum Commitment des Managements benötigt – bevor diesem klar ist, was der Effekt ist. Ein klassisches Henne-Ei-Problem.

Identifikation und Bewertung von Anwendungsfällen: Wo liegt der Wert?

Nehmen wir an, wir hätten super Daten vorliegen und ein Team, das bereits Erfahrung in einem anderen Unternehmen sammeln konnte. Der CEO klatscht die Beispiele von Uber und Facebook auf den Tisch und wartet auf Ergebnisse. Das Problem ist nur, dass wir in einem mittelständischen Industrieunternehmen arbeiten und nicht im Silicon Valley. 

Das Problem “Und nun?” kommt nicht nur bei frischen Absolventen oder KMUs vor. Selbst sehr erfahrene, technisch versierte und algorithmisch exzellente Mitarbeiter haben oft Schwierigkeiten, Anwendungsfälle zu identifizieren die a) Nicht den 100 Standard Use Cases entsprechen b) nicht 5 Jahre Forschungsaufwand bedeuten und c) auch wirklich für das eigene Unternehmen einen Wert bringen und nicht bei einem anderen wunderbar funktionieren würden. 

Diese Kategorie ist nicht so einfach zu lösen. Viele Unternehmen lassen sich von anderen Unternehmen inspirieren – ob nun Startup, Unicorn oder Beratung. Dies sind aber nur Impulse und lösen nicht langfristig die Frage: Wie können wir Wert aus unseren Daten schaffen? Dass ich diese Frage als eigene Kategorie aufwerfe und somit sehr zentral in den Blick stelle hat natürlich einen Hintergrund: Ich bin der Ansicht, dass dieses Thema nach Anwendungsfällen ähnlich einer Produktentwicklung etabliert werden muss. 

Wenn datenbasierte Anwendungsfälle – egal ob nun als eigenes Produkt, Service oder als Unterstützung für vorhandene Produkte und Services – einen ähnlichen Stellenwert bekommen wie das Produkt an sich, schafft man es, Ansätze früh zu erfassen, evaluieren und entsprechend zu priorisieren. Die Kreativität kann spielen, Domänenexperten validieren (kundenzentriert) die Ideen und eine Priorisierung erlaubt eine Fokussierung. Nur wenn alle diese Teilaspekte mit eingeschlossen werden, schafft man es auch wirklich, aus den Daten Wert zu generieren.

Datenkultur: Nur wer es lebt, kann es vertreten

Abschließend ein Thema, das alle anderen zusammen bringt: Die Kultur. Manager sind gut darin, fabelhafte Strategien zu erstellen oder erstellen zu lassen, diese zu proklamieren und dann.. andere Dinge zu tun. Was danach passiert? Genau das, weshalb die deutsche Digitalisierung dort steht wo sie steht: Nichts. Besonders passend finde ich hierbei ein Zitat von Peter Drucker:

Culture eats strategy for breakfast

– Peter Drucker

Es ist ganz einfach: Nur weil man eine (Daten-)Strategie ausarbeitet, wird diese noch lange nicht verfolgt. Wenige Mitarbeiter prüfen kontinuierlich ob ihre Arbeit in die Strategie einzahlt und justieren ihre Tätigkeiten entsprechend. Stattdessen tun sie, was am besten in ihrem eigenen Interesse ist oder – was sie gewohnt sind. 

Was heisst das für uns? Nun, wenn wir als Ziel haben, unser Unternehmen durch den Wert von Daten gewinnen zu lassen, ist der umfassende Kleber der alles zusammenhält eine integrierte Datenkultur. Diese wird etabliert und gefördert durch (interne) Marketingmaßnahmen, Wissenstransfers und Trainings, Aufklärung, aber auch die proaktive Botschaft, dass Daten uns neue Wege eröffnet. Und dies ist ein ganz klares, unmissverständliches Management-Commitment. Kombiniert man diese Tätigkeiten – Verständnis, Akzeptanz und kontinuierliche Etablierung von Data Science im Alltag – hat man gute Chancen, dass sich das Unternehmen in eine Data Driven Company transformiert, die eine starke Datenkultur verkörpert.

Das Beste zum Schluss: Nebst all den operativen Problemen ist Data Science so schwierig, da es wohl das erste Mal ist, dass ein Unternehmen kontinuierlich über alle Bereiche hinweg zusammenarbeiten muss, um Erfolge zu erzielen. Die Zeit, in der eine Abteilung als Königreich seine eigenen Erfolge erzielen und feiern kann, geht mit einer holistischen, datenbasierten Arbeit zu Ende. 

Bisher konnten Arbeiten innerhalb einer Domäne erledigt werden (zum Beispiel Dashboards im Marketing) oder zumindest relativ einfach an die Querfunktionen übergeben werden (z.B. Evaluierung neuer IT-Systeme). 

Mit dem Einsatz von Data Science benötigt es die Domänenexperten zur Identifikation von Anwendungsfällen, die Techies aus der IT und die Fachexperten aus dem Datenbereich im konstanten Austausch, um Use Cases, Datenauswertung und Technologie zusammen zu bringen. Die Verantwortung diffundiert und nur durch eine starke Zusammenarbeit gelingt es, zur Data Driven Company zu werden. Und die Kombination von diesen vielen Stärken ist die Chance, aber eben auch die Herausforderung im Bereich Data Science.

Veröffentlicht am

KI in der Hotellerie: Wie Hotels mit Daten Erfolg haben

Eine Hand die die Tür zu einem Hotelzimmer öffnet

Viele Hotels hinken in der Digitalisierung hinterher. Dabei gibt es viele Beispiele, wie durch Digitalisierung und datenbasiertes Arbeiten Vorteile im Hotellerie Sektor geschaffen werden kann. Das wichtigste dabei: Reale Probleme lösen und Mehrwert schaffen.

Inhaltsverzeichnis

Wieso wird künstliche Intelligenz in der Hotellerie eingesetzt?

Durch künstliche Intelligenz können große Datenmengen schnell und einfach verarbeitet und Muster abgeleitet werden. In der Hotellerie, die teils mehrere hunderte Buchungen pro Tag bedient, lohnt sich der Einsatz von KI deshalb besonders.

Aber was ist KI eigentlich? Generell meint man damit alle Algorithmen, die menschliches Verhalten simulieren. Ob regelbasiert (Wenn das, tu das) oder maschinelles Lernen (z.B. Neuronale Netze): Diese Systeme haben gemein, dass sie versuchen eine Aufgabe mit dem Einsatz von Daten möglichst optimal zu lösen (spezialisierte KI).

Vorteile des Einsatzes von KI in der Hotellerie sind unter anderem:

  • Automatisierung: Wiederholbare Vorgänge automatisiert abwickeln.
  • Mustererkennung: Unbekannte Muster identifizieren, abstrahieren und wiederholbar machen.
  • Personalisierung: Für jeden Gast, Lieferanten und Partner ein individuelles Erlebnis, Angebot oder Inhalt schaffen.
  • Vorhersagen: Heute wissen, was (wahrscheinlich) die nächsten Wochen und Monate passiert, um operativ zu planen.

Zusammen schafft künstliche Intelligenz massiven Mehrwert im Hospitality-Bereich: Schnell, effizient, günstig und personalisiert Aufgaben zu erledigen. Dabei ist es egal ob komplexe Algorithmen oder große Datenmengen – das Ziel muss sein, konkrete Probleme zu lösen, damit sich die Mitarbeiter um wichtigere Themen kümmern können.

Beispiele für den Einsatz von KI in Hotels

  • Vorhersage Besucherzahl: Wenn man frühzeitig weiß, wie viele Besucher ein Hotel erwartet, kann man sich darauf einstellen. Mitarbeiter einplanen, Verbrauchsartikel ordern und im Restaurant planen sind nur ein paar operativer Ansätze, wie die Vorhersage von Buchungen effizienter arbeiten lässt. 
  • Dynamic Pricing: Vor allem von Flugbuchungsseiten bekannt, ist es auch in der Hotellerie und angebundenen Buchungsseiten sehr verbreitet. Ein dynamischer Preis, der sich auf aufkommendes Interesse (einer Person aber auch über alle Interessenten), Meta-Faktoren (von wo wird gebucht) als auch Verhaltensfaktoren (wie oft wird die Seite besucht) beruft, um möglichst hohe Margen zu erwirtschaften.
  • Chatbots: Rund um die Uhr verfügbar und unterstützt bei 90% der Anfrage – der automatische Helfer auf der Webseite. Inzwischen weit verbreitet helfen Chatbots sich auf komplizierte Fälle zu konzentrieren und ständigen Service anzubieten.
  • Utility usage: Wie viel Wasser, Strom, Müll, Handtücher werden verbraucht werden? Durch Prognose von Materialeinsatz können Verbräuche besser geplant werden.
  • Trend identification: Identifikation von Mustern, welche Vorlieben Gäste haben ist wichtig, um entsprechend planen zu können. Ob bei Zusatzbuchungen oder dem Frühstückskonsum: Trends frühzeitig zu erkennen führt zu mehr Umsatz und besserem Einkauf. 
  • Review Sentiment: Hotelbewertungen, E-Mails an den Empfang oder ein Kommentar auf Social Media sind nur ein paar Wege, wie Gäste Feedback hinterlassen. Diese Reviews auf ihren (emotionalen) Inhalt zu analysieren erlaubt die Sentiment Analyse. Der Vorteil? Wissen, wie zufrieden Gäste sind und auf negative Einträge schnell und effektiv zu reagieren.
  • Upsell: Viele Hotels bieten nicht nur ein Zimmer an sondern einige zusätzliche Services. Durch Information über Gastdaten (Herkunft, Anzahl Gäste, Dauer Aufenthalt,..) und Verhaltensdaten (Nachfragen, E-Mails, Buchung von Leistungen) können weitere Services personalisiert angeboten werden – ähnlich wie Produktempfehlungen im E-Commerce.
  • Data Driven Personas: Vor allem in strategischer Ausrichtung oder Entwicklung neuer Marketingmethoden lohnt sich eine allgemeinere Analyse der Kundenbasis. Durch den Einsatz von Daten können datenbasierte Personas generiert werden, die Gäste gruppiert und deren Ähnlichkeiten herausstellt, um ein besseres Verständnis der Bedürfnisse zu entwickeln.
  • Roboter: Als letztes Beispiel für den Einsatz von KI setzen inzwischen manche Unternehmen Roboter ein. Zum Beispiel Motel One in München nutzt einen Humanoiden Roboter als automatisierten Concierge ein, der Probleme löst und Sehenswürdigkeiten erklären kann.

Künstliche Intelligenz für Hotels von Kobold AI

Während der Einsatz von künstlicher Intelligenz sehr aufwendig und kostenintensiv wirkt, muss das nicht sein. Unserer Plattform Kobold AI hat zum Ziel, KI für Nicht-Experten zugänglich zu machen. Wir bieten KI-Produkte die einfach online bestellt und mit eigenen Daten angereichert werden können. 

Mehr Infos in unserem Info-Video zum Thema Self-Service KI-Produkte:

Häufige Fragen (FAQ)

Brauche ich große Datenmengen?

Nein. Während sehr komplexe Modelle häufig sehr große Datenmengen (Big Data) benötigen, adaptieren die von Kobold AI eingesetzten Algorithmen zur Menge der Daten. Daher können auch kleine und mittelgroße Datenmengen effektiv eingesetzt werden.

Wie teuer ist der Einsatz von KI?

Üblicherweise kostet ein Prototypen-Projekt mit einer Agentur oder Beratung zwischen 15.000€ und 50.000€. Eine KI die live Probleme bearbeitet kostet dann nochmal ein vielfaches davon.

Deshalb haben wir Kobold AI entwickelt. Auch Hotels mit sehr geringem Budget (zwischen 100€ und 500€) können unsere KI-Produkte einsetzen.

Ersetzt KI Concierges und andere Mitarbeiter?

Nein! Während manche Aufgaben immer mehr durch Robotik und künstliche Intelligenz unterstützt werden, bleibt das wichtigste Feld in menschlicher Hand: Ein tolles Erlebnis. Und dies ist auf fähige, begeisterte Mitarbeiter zurück zu führen.

Lohnt sich der Einsatz nur für große Ketten?

Nein! Wie erörtert können auch einzelne, familiengeführte Hotels von den Vorteilen von KI profitieren. Unabhängig von Menge und Vielfalt der Daten gibt es viele Einsatzzwecke, wie aus Daten Mehrwert generiert werden kann.

Wie kann ein Hotel mit dem Einsatz von Ki starten?

Hier einige Anwendungsfälle, die direkt durch Kobold AI umgesetzt werden können:

Veröffentlicht am

Kundenzentrierung in Data Science: Warum sie so wichtig ist

Menschen in einem Workshop

Kundenzentrierung oder datenbasiertes Arbeiten: Oft wird qualitatives Arbeiten als Gegenspieler zu quantitativen Analysen gestellt. Doch schließen sich diese beiden Bereiche gegenseitig wirklich aus? Oder gibt es doch Möglichkeiten zur Kooperation?

Kunden und Daten: Gegenspieler oder Mitstreiter?

Emotionen oder Fakten? Bauchgefühl oder Daten? Qualitativ oder quantitativ? In Unternehmen findet man üblicherweise eine der beiden Strategien: Entweder “Customer Centricity” oder “Data Driven”. Auf der einen Seite steht das Verständnis von Kunden, die Emotionale Intelligenz, das “reinfühlen”. Auf der anderen Seite die harten Zahlen, die Fakten, die Analysen.

Doch müssen die beiden Aspekte Gegenspieler sein? Gibt es nur ein Entweder Oder? Wir sind der Ansicht, dass beide Bereiche – Qualitative und Quantitative Analysen – sich hervorragend ergänzen und somit eher als Mitstreiter denn als Kontrahenten gesehen werden sollten.

Während quantitative, datenbasierte Analysen eine gute Argumentationsgrundlage liefern und mit Sicherheit eine Verlässlichkeit für Entscheidungen bilden, können qualitative Analysen und Interviews den Erkenntnissen noch eine Schicht der “Menschlichkeit” verpassen. Im Optimalfall schafft man es, durch nutzerzentrierte Forschung Dinge zu erfassen, die man nicht durch Daten quantifizieren kann. 

Daher sehen wir, obgleich wir uns hier primär mit den Methoden und Vorteilen von Data Science und einer Data Driven Company beschäftigen, Nutzerzentrierung, Qualitative Research und viele UX-Methoden als sehr wichtige Teilhaber im Prozess, besser für Kunden und Mitarbeiter da zu sein.

Vorteile von Kundenzentrierung im Bereich Data Science

Wir haben es bereits angeschnitten: Data Science als Methode kann sehr stark von Kundenzentrierung profitieren. Hier einige Hauptpunkte, weshalb die Datenwissenschaft mehr Customer Centricity zulassen muss:

  • Mit den Stakeholdern, Nutzern und Kunden: Nur wenn man versucht die Bedürfnisse der Menschen zu verstehen, werden Lösungen für ihre Probleme entwickelt.
  • Förderung der Kultur: Der Einsatz von Daten ist noch immer eine Elfenbeinturm-Schicht in vielen Unternehmen. Genau das Gegenteil muss geschehen: Die Datennutzung muss zur Normalität in der Data Driven Company werden. Und dies geschieht nur, wenn sich möglichst viele Personen verstanden, abgeholt und integriert fühlen.
  • Nicht Technologie ist der Trumpf, sondern die Lösung für ein Problem: Data Scientists stürzen sich gern auf die neuesten Technologien, Systeme und Algorithmen. Doch oft bedeutet dies einen erheblichen Aufwand – der durch sauberes Kundenverständnis vermieden oder reduziert werden kann.
  • Der Wert wird hinten generiert: Generell gilt es zu realisieren, dass das beste technische Produkt keinen Wert generiert, wenn es nicht eingesetzt wird. Daher ist es zentral, “desirable” Produkte zu produzieren, sowohl physisch als auch digital. Nur dann kann man als Unternehmen davon profitieren.

Empfehlungen für Chief Data Officers und Data Scientists

Handgemalte Wireframes für eine Mobile App
Der Einsatz von qualitativen Methoden in Data Science bietet viele Vorteile

Was heisst das konkret, wenn man die Rolle als Chief Data Officer (CDO) oder Data Scientist inne hat? Die Empfehlungen sind klar: Es gilt, das Silo-Denken aufzubrechen und zu prüfen, welche anderen Methoden (z.B. qualitativer Natur) in welchem Prozess (z.B. Definition eines POCs) welchen Effekt haben könnten. Es gilt nicht nur offen für andere Herangehensweisen zu zeigen, sondern diese Offenheit offensiv voran zu treiben und zu fördern.

Im besten Fall werden Datenprodukte somit nicht mehr nur von Daten-Fachexperten (“Nerds”) entwickelt, sondern es bildet sich – ganz gemäß agiler, startup-artiger Arbeitsweise – ein interdisziplinäres Team, das alle Aspekte vom Kunden bis zur technischen Umsetzung und Operationalisierung abdeckt.

Ein Beispiel für das Zusammenspiel von Daten und Kundenzentrierung: Data-Driven Personas

Ein Beispiel wie Kundenverständnis und Daten zusammenspielen können sind Data-Driven Personas. Indem man Kundendaten nutzt, um Verhaltensgruppen zu identifizieren, können schnell und einfach Mehrwerte durch strategische Entscheidungen und Personalisierungen generiert werden. Mehr Infos in unserem KI-Produkte Data-Driven Personas:

Data Driven Customer Centricity: Die Zukunft für Unternehmen?

Zusammenfassend bleibt die Frage: Ist Kombination von qualitativen und quantitativen Methoden, also Data Driven Customer Centricity, die Zukunft für Unternehmen? Während wir den massiven Mehrwert von Daten für die Kundenzentrierung sehen, argumentieren wir auch, dass es mehr Applikationen für den Einsatz von Daten gibt (z.B. Produktdesign, Prozessoptimierung, neue Geschäftsmodelle), als nur das übergreifende Thema Customer Centricity. Von daher sehen wir nach wie vor das Argument, dass ein Unternehmen auf allen Ebenen und in allen Prozessen Daten einsetzen muss, um in Zukunft zu bestehen. Die Kundenzentrierung ist einer davon – aber nicht der einzige.

Veröffentlicht am

Datenkultur: Warum sie wichtig ist und wie man sie fördert

Mehrere Personen deuten auf ein Blatt mit Datenanalysen

Buzzwords rund um die Nutzung von Daten geben sich fast jährlich die Klinke der Digitalen Transformation in die Hand. Doch was haben Big Data Analytics, Data Science, Machine Learning und künstliche Intelligenz gemeinsam? Sie alle sind einzelne Ansätze für eine viel umfassendere Lösung: Die Kultur einer Data Driven Company. In diesem Artikel möchten wir die Wichtigkeit einer holistischen Datenkultur darstellen und erörtern, wie man sie etabliert und fördert.

Inhaltsverzeichnis

Big Data Analytics, Data Science, Machine Learning, künstliche Intelligenz – die Lösungen für die Probleme von heute?

Buzzwords kommen und gehen. Während der Begriff “Big Data” vor wenigen Jahren noch die absolute Spitze in der Innovation von datenbasierten Arbeiten war, räumt “Data Science” inzwischen das Feld von hinten auf. Doch egal welcher Begriff gerade im Trend ist, die Quintessenz ist einfach abzuleiten: Unternehmen müssen und Unternehmen wollen mit Daten arbeiten.

Die Frage die sich dabei eher stellt ist: Was ist das wichtigste auf dem Weg zur Data Driven Company? Ist es der Data Scientist, der Machine Learning Algorithmen im Unternehmen verankert? Ist es die Big Data Analytics Plattform, die vollautomatisierte Kundenbetreuung in Echtzeit übernimmt? Oder ist es das Data Governance Council, das erst einmal den Keller der Daten aufräumt, dokumentiert und dann strukturiert zur weiteren Verarbeitung bereit stellt?

Ich bin der Ansicht, dass all dies einfache – wenn auch umfangreiche – Herausforderungen sind. Data Scientists kann man trainieren, Infrastruktur einkaufen und ein paar Leute einstellen um Data Governance zu verankern. Doch was nicht so einfach zu etablieren ist, ist das wichtigste an der Data Driven Company: Die Datenkultur.

Die Datenkultur ist die Basis für datenbasiertes Arbeiten

Warum ist eine fest integrierte und gemeinsam gelebte Datenkultur so wichtig? Gemäß der Bedürfnispyramide eines datenbasierten Unternehmen ist die Kultur die Basis für alle datenbasierten Arbeiten. Wir sehen drei Hauptgründe für die Wichtigkeit einer umfassender Datenkultur:

Datenkultur fördert Akzeptanz

Ob nun im Management oder an vorderster Front am Band: Nur wenn datenbasierte Lösungen akzeptiert werden, können sie auch Mehrwert generieren. Dabei gilt es zu vorderst, Angst zu nehmen. Angst, dass die eigene Position in Gefahr ist. Angst, dass die Maschine besser ist. Angst, dass man sich nicht auf die Ergebnisse und Anweisungen der Algorithmen verlassen kann.

Diese Angst kann nur durch Wissen gelöst werden. Nur wenn jedes Zahnrad im Unternehmen weiß, weshalb Dinge geschehen, wie sie geschehen und was die Auswirkungen davon sind, können die datenbasierten Lösungen akzeptiert werden. Daher ist die Akzeptanz von Daten, Algorithmen und das Wissen um deren Möglichkeiten zentral für jede Data Driven Company.

Datenkultur finanziert und fördert

Während wir bei der Akzeptanz bereits bei ausgespielten Lösungen sind, gilt es im Schritt zuvor noch überhaupt Lösungen zu erarbeiten. Und wie in jedem Unternehmen gibt es unzählige Baustellen, die Aufmerksamkeit verlangen. Daher hat es das Management oft nicht einfach: Wofür die begrenzten Ressourcen einsetzen

Bei einer etablierten Datenkultur ist die Hemmschwelle in Themen zu investieren, die datenbasiertes Arbeiten betreffen, niedriger. Ob nun grundlegende Arbeit wie Data Governance oder Innovation mittels Machine Learning: Wenn man um die Effekte und Zukunftsträchtigkeit von Data Science und verwandten Themen weiß, hat man sie mehr im Fokus.

Das wichtigste: Der eigene Beitrag ist eine Frage der Kultur

Während die beiden vorherigen Punkte noch passiv oder steuernd sind, ist die wichtigste Auswirkung einer kohärenten Datenkultur dass man auch datenbasiert denkt. Die besten und wichtigsten Use Cases für den Einsatz von Daten – ob nun künstliche Intelligenz, Automatisierung oder einfach Daten-Bereitstellung – werden üblicherweise von den Betroffenen Personen identifiziert. 

Folglich ist es von erheblicher Wichtigkeit, dass jede Person im Unternehmen aktiv nach Möglichen Einsatzzwecken für Daten sucht, statt darauf zu warten, dass diese Anwendungsfälle von Außen geliefert werden. Wer den Schmerz in seiner täglichen Arbeit spürt, weiß oft um den besten Hebel um diesen zu lindern. Daher muss die Datenkultur dort ankommen, wo die Dinge passieren.


Wie kann man eine Datenkultur im Unternehmen etablieren und fördern?

Dass eine umfassende Datenkultur von Vorteil ist, dürfte ersichtlich sein. Doch wie kann man eine Datenkultur etablieren und langfristig fördern? Hier stellen wir drei Ansatzpunkte vor, um diese Herausforderungen anzugehen:

Akzeptanz durch Wissen, Wissen durch Bildung

Wie bereits angerissen ist Akzeptanz am besten durch Wissen zu fördern. Und eine breit angelegte Wissensvermittlung auf mehr als populärwissenschaftlichen Niveau bedeutet ein Verstehen der Methoden, Optionen und Effekt von datenbasierter Arbeit. Der “Excel Kurs in 2020” hat zum Ziel, eine möglichst breite Basis innerhalb des Unternehmens dem Einsatz von Daten, Automatisierung, Datenanalyse, Datenvisualisierung, Data Science und vielem mehr näher zu bringen. 

Um diesen Schritt zu gehen gibt es viele Ansatzpunkte, die individuell auf jedes Unternehmen zugeschnitten werden müssen. Aber grundsätzlich gilt es Kurse, Webinare und/oder Data Translators, Citizen Data Scientist, Data Ambassadors, Data Consultants oder ähnliche Rollen zu etablieren, um eine möglichst breite Abdeckung zu gewährleisten.

Leuchttürme als greifbare Beispiele und Inspiration

Während Wissen im ersten Schritt immer noch primär theoretischer Natur ist, muss man die Erfolge von datenbasierter Arbeit auch greifbar machen. Durch Leuchtturm-Projekte und vor allem deren breiten Kommunikation vermittelt man die Möglichkeiten und inspiriert, dass alle Mitarbeitenden nach Anwendungsfällen in ihrem Bereich suchen.

Zudem gelten erfolgreiche Projekte als Multiplikatoren: Weiss man erst um das Potential in anderen Bereichen, ist man auch sehr viel schneller bereit datenbasierte Lösungen im eigenen Bereich zu fordern, fördern und akzeptieren.

Die Vision vom Management definiert und vermittelt

Der letzte Ansatz bildet auch den Rückschluss auf die Basis der Data Driven Company. Nebst Kultur ist der Executive Support, oder vielmehr der Executive Buy-In das wichtigste um Daten nachhaltig und langfristig im Unternehmen zu verankern. Das Management muss sich geschlossen und ganzheitlich auf eine Vision, eine Datenstrategie, einigen und diese auch kontinuierlich nach außen repräsentieren. 

Hierbei gilt es nicht nur über eine Datenvision zu sprechen, sondern eben auch durch Budget-Allokation, strategische Entscheidungen und generelle Unterstützung das Thema fokussiert und auch deutlich für alle Mitarbeiter sichtbar zu verfolgen. Nur wenn die Veränderung von oben angestossen, aber gleichzeitig kontinuierlich gefördert wird, gibt es die Möglichkeit eine unternehmensweise Datenkultur zu etablieren.

Die Rolle von Datenkultur in der Data Driven Company

Zusammengefasst haben wir dargestellt, dass eine nachhaltige, umfassende Datenkultur fundamental für die Transformation zur Data Driven Company ist. Nur mit einer Datenkultur die allgemein akzeptiert ist, werden datenbasierte Projekte nicht nur integriert, sondern sogar in allen Bereichen des Unternehmens angestoßen. Dies erfordert einen umfassenden Informationsaufbau, greifbare Erfolgsprojekte und einen tiefgehenden und kontinuierlichen Commit seitens des Managements. Doch ist die Datenkultur im Unternehmen etabliert und das Potential und die Vorzüge von datenbasierter Arbeit bekannt, erleichtert dies alle nachfolgenden Prozesse, Projekte und Operationalisierungen in der Data Driven Company.

Veröffentlicht am

Daten sind das neue Öl – Herkunft des Zitats und der Stand heute

Oft hört man das Zitat “Data is the new oil”, auf Deutsch “Daten sind das neue Öl” im Zusammenhang von Big Data, Machine Learning und dem Technologie-Hype rund um Data Science. Der Ursprung des Zitats ist ein Artikel des Economist in 2017 und lautet im Original “The world’s most valuable resource is no longer oil, but data”. Doch wieso werden Daten und Öl in dem Artikel und vielen folgenden gleichgestellt? 

Der Ursprung des Zitats “Data is the new oil”

Sind Daten wirklich das neue Öl?
Sind Daten wirklich das neue Öl?

In der Veröffentlichung geht es vor allem um die dominierenden Firmen im Digitalmarkt Google, Facebook, Amazon, Apple und Microsoft. Gemeinsam seien sie der unanfechtbare Standard in der Welt der Technologie und diese Vorherrschaft ruft Kartellrechtler auf den Plan. Der Vergleich der gezogen wird ist das Verfahren rund um Standard Oil, welches im frühen 20. Jahrhundert vom Supreme Court der vereinigten Staaten als illegales Monopol definiert und in 34 kleinere Unternehmen zerbrochen wurde.

Doch wieso sieht der Autor des Artikels, Kiran Bhageshpur, die Technologie-Giganten auf dem gleichen Weg wie Rockefeller’s Standard Oil in 1911? Die Argumentation lautet, dass die Kontrolle über die Generation von Daten (z.B. Social Media, Suchdaten, Einkaufsverhalten) einen sich selbst-verstärkenden Vorteil sichert: Wenn man als erstes weiß, was passiert, kann man am schnellsten darauf reagieren und sich einen unlauteren Wettbewerbsvorteil sichern.

Ob dieser Wettbewerbsvorteil nun staatlich aufgelöst werden soll oder nicht, dieses Urteil maßt sich der Artikel nicht an. Wofür Kiran jedoch argumentiert ist: Kartellbeobachter müssen “Daten” als Unternehmensgegenstand mit in ihre Überlegungen mit einbeziehen, um ein adäquates Urteil über Monopolbewegungen fällen zu können. Weiterhin argumentiert er für eine Verschiebung des Machtgefälles weg von den Unternehmen als Besitzer der Daten hin zum Produzenten der Daten – also den Menschen, die diese Daten erzeugen.

Daten sind das neue Öl – das Zitat fünf Jahre später

Während der ursprüngliche Artikel also “data is the new oil” als Vergleich zu früheren Monopolen nutzt, hat sich diese Wahrnehmung des Zitats inzwischen sehr stark geändert. In 2022 wird das Zitat und die Gleichstellung von Öl und Daten als Ressource eher auf die Wertigkeit der Daten, also das Potential von Big Data mittels künstlicher Intelligenz, Machine Learning und Data Science

Das interessante an der Metapher ist, dass man sie ebenso für den Prozess der Datennutzung an sich anführen kann. Auch Daten müssen – wie Öl – aufwendig im Unternehmen geortet, erschlossen und gefördert werden, bevor sie einer weiteren Verarbeitung zugeführt werden können. Auch der Begriff der “Pipeline” kommt im Feld des Data Engineerings, also dem übermitteln, konsolidieren und speichern von Daten oft vor. 

Dass Daten ebenso wie Öl dann erst verfeinert, verarbeitet werden müssen deckt sich mit dem heutigen Bild einer Data Driven Company. Zu guter letzt deckt das Bild auch den Einsatzzweck ein: Ohne Öl hätte es keine industrielle Revolution gegeben, da sie alle Maschinen am Laufen hielt. Ähnlich der Einsatz von Daten: Inzwischen gibt es hunderte von Anwendungsbeispielen, wie Daten eingesetzt werden können.

Daher hat sich das Zitat in den letzten Jahren von einem kritischen Artikel zum Kartellrecht zu einer positiven Metapher gewandelt: Daten sind wie Öl der Rohstoff der Zukunft und werden einen ebensolchen Einfluss auf die Welt haben.

Unsere Meinung zu Öl als Metapher zum Stand von Daten

Der Prozess der Ölförderung gleicht sehr stark dem von Data Science

Die Metapher trifft vieles wohl noch mehr als der Autor in 2017 aussagen wollte. Nebst dem Problem der Machtkonzentration und dem Wert der Daten haben wir bereits die Idee aufgezeigt, dass auch die Förderung, Transport und Verfeinerung von Daten sehr nah am “Data is the new oil”-Prinzip liegen.

Doch gerne führen wir die Metapher noch weiter. Wenn eine Öl-Pipeline leckt ist das ähnlich wie ein Datenleck: Die Ressource tritt aus und das betroffene Unternehmen muss sich viel Kritik gefallen lassen. Auch die Abhängigkeit vom Öl findet sich schnell wieder: Viele der Tech-Giganten sind nicht nur data-driven sondern data-based, was dazu führt, dass ohne Daten eine erhebliche Einbusse stattfinden würde. 

Als Ganzes ist “Daten sind das neue Öl” also eine schöne Metapher für den momentanen Status der Datennutzung und Potentialbetrachtung. Davon abgesehen sehen wir allerdings, dass Daten sowohl Gefahren als auch Möglichkeiten bieten, die bei einer physischen Ressourcen wie Öl nicht möglich sind. 

Vom Datenleck als Verbreitung persönlicher (Verhaltens-)Daten über Hyperpersonalisierung (der Mensch in einer Bubble) als Gefahren bis hin zur Vollautomatisierung vieler Prozesse und ein neues, persönliches Alltagserlebnis mittels virtueller Assistenten und autonomer Geräte als Potential gibt es sicherlich eine Vielzahl an Unterschieden zwischen Daten und dem Rohstoff Öl. 

Eins haben die beiden Assets jedoch gemein: Sie bergen umfangreiches Potenzial, was viele Unternehmen heben möchten und daher ist es unumgänglich, sich auf den Weg zur Data Driven Company zu machen.

Veröffentlicht am

Top 5 Vorteile beim Einsatz von künstlicher Intelligenz

Ein Arm der einen Daumen hoch zeigt beim Post-It mit der Aufschrift "Profit".

Immer mehr Unternehmen sammeln Erfahrung mit dem Einsatz von KI. Die wichtige Frage ist: Wie kann künstliche Intelligenz nachhaltig erfolgreich sein? Wir geben einen Überblick über die Top 5 Beispiele für den Vorteil von KI und was dabei zu beachten ist.

Was ist künstliche Intelligenz?

Künstliche Intelligenz ist das Vorgehen, mittels Algorithmen (Computerprogramme) menschliches Verhalten zu imitieren. Dabei spielt es keine Rolle wie dieses Verhalten nachgeahmt wird, wichtiger ist eine hohe Qualität der Lösung der vorliegenden Aufgabe.

Hier einige einfache Beispiele für den Einsatz von künstlicher Intelligenz:

  • Empfehlungssysteme: Im E-Commerce-Shop, als Info-Post oder beim Bank-Berater sind Empfehlungssysteme im Einsatz. Das Ziel ist immer, möglichst individuell Empfehlungen zu Produkten oder Services zu geben. Dazu werden Stammdaten (zum Beispiel Produkteigenschaften) oder auch Verhaltensdaten (zum Beispiel das Verhalten anderer Kunden) eingesetzt. Klar erklärtes Ziel ist eine Erhöhung des Umsatzes durch gut personalisierte Angebote.
  • Vorhersagen: Die Vorhersage von Daten, vor allem von KPIs (Key Performance Indicators, auf Deutsch Kennzahlen) hilft in vielen Bereichen. Sein Unternehmen besser planen zu können, weil man weiß was als nächstes passiert; oder schnell und einfach Unregelmäßigkeiten zu identifizieren macht einen effizienter, nachhaltiger und verringert das Risiko. Als Beispiele gelten die Vorhersage von Bedarf oder die Prognose ob ein Angebot angenommen werden wird.
  • Kundenverständnis: Ganz zentral für viele Marketing- und Salesprozesse ist ein genaues Bild von Kunden. Um dieses Kundenverständnis zu fördern, werden viele Algorithmen eingesetzt. Kundensegmente und -gruppen erkennen, Vorhersagen zur Kundenabwanderung, personalisierte Inhalte und Produkte sind nur ein paar Beispiele wie KI in diesem Bereich hilft.
  • Ausreißererkennung: Wenn sich Dinge nicht verhalten wie sie sollten, kann dies ein Hinweis auf schlechte Prozesse, Betrugsversuche oder schlechte Datenqualität sein. Die Ausreißererkennung hat genau dies zum Ziel: Hinweise geben, wenn etwas sehr unerwartet ist und somit die zu prüfende Menge an Informationen massiv zu reduzieren. Im Banking, bei Bestellungen oder vielen IT-Systemen kommen solche Algorithmen zum Einsatz.

Kurz gesagt ist das Ziel von KI, mittels Programmen menschliche Leistung nachzuahmen oder zu übertreffen. Dieses Vorhaben kann regelbasiert, aber auch basierend auf künstlichen neuronalen Netzen erfolgen. Das wichtige ist, zu verstehen, welche Vorteile durch den Einsatz von KI entstehen.

Welche Vorteile hat der Einsatz von künstlicher Intelligenz?

Im Folgenden listen wir die Top 5 Vorteile beim Einsatz von KI in Unternehmen.

Automatisierung

Der wohl grundlegende Vorteil von KI ist, dass man Aufgaben automatisiert abwickeln kann. Es benötigt keine Menschen mehr, die Dinge manuell erledigen oder auch nur ein Programm anstoßen, sondern die Algorithmen können 24/7 arbeiten. Die Vorteile ist selbsterklärend: Effektivität und Output rund um die Uhr mit sehr geringen Unterhaltskosten. Sofortige Erledigung von Aufgaben und Lieferung der Ergebnisse. Kundenbetreuung ohne Wartezeit. Und vieles mehr.

Unbekannte Muster erkennen

Ein weitreichender Vorteil von KI ist, dass sie nicht auf qualitativem, also persönlich-emotionalen Empfinden beruht. Das heisst, immer wenn Menschen mit einer bestimmten Idee oder sogar Vorurteilen an die Nutzung von Daten gehen, wird es oft zur selbst-erfüllenden Prophezeiung und genau diese Muster werden dann identifiziert.

Anders so beim Einsatz von künstlicher Intelligenz und vor allem dem maschinellen Lernen. Dem Menschen unbekannte – und auch unerwartete – Muster werden identifiziert und eingesetzt. Dabei spielt es keine Rolle ob diese in der eigenen Welt bisher vorkommen; die reine Grundlage sind die Daten.

Skalierung

Bisher ist die Anzahl an Menschen noch endlich. Somit auch die Kapazität, Arbeit zu leisten. Vor allem im Bereich von hochqualifizierten Arbeitskräften merkt man inzwischen Mangel.

Auf Software basierte Lösungen haben diese Limitation nicht. In Kombination mit Cloud-Infrastruktur können Algorithmen nahezu unendlich viel Arbeit leisten – und genauso schnell wieder zurückfahren. Kein Training, keine Wartezeiten, kaum Kosten. Einfach nur beliebige Skalierung, basierend auf KI.

Objektivität

Eng verbunden mit der Erkennung von unbekannten Mustern verzichtet KI auch auf subjektive Beurteilung von Sachständen und Fällen. Zum Beispiel die Bewertung welche Produkte einem Kunden empfehlen werden sollen berufen sich nicht auf Erfahrung und Emotionen, sondern auf die Grundwahrheit und die erkannten Muster. Somit können einerseits viel objektivere Urteile gefällt werden, auf der anderen Seite werden allerdings gegebenenfalls auch Nuancen von persönlichen Bewertungen verloren.

Unter dem Strich erlaubt es KI ohne persönliche Bewertungen objektive Aussagen zu Grundwahrheiten zu treffen – ohne Bias, Meinung oder Emotionen.

Kostenreduktion

Neben der Innovation neuer Muster und der Vorteile ständiger optimaler Verfügbarkeit hat der Einsatz von künstlicher Intelligenz unter dem Strich vor allem einen Vorteil, den sich viele Unternehmen zu Nutze machen: Die Kostenreduktion. 

Selbstverständlich benötigt die Entwicklung von KI-Anwendungen und der Betrieb von Infrastruktur Ressourcen, aber in den meisten Fällen klafft das Kostenverhältnis zwischen manueller und automatisierte Arbeit schnell auseinander. KI kann somit nicht nur genauer, schneller und objektiver arbeiten, sondern tut dies auch noch zu geringeren Kosten.

Wie kann man KI einfach einsetzen?

Die Vorteile klingen überzeugend. Doch setzen nur die wenigsten Unternehmen bisher künstliche Intelligenz breit ein. Die Gründe sind einfach: Wenig Wissen, erwarteter hohe Kosten und wenig Fachexperten verhindern, dass sich der Einsatz breit etabliert.

Um KI auch für Nicht-Experten zugänglich zu machen haben wir Kobold AI gegründet. Wir bieten Self-Service KI-Produkte an, die mit einem Klick bestellt werden können. Daten hochladen und die Ergebnisse direkt geliefert bekommen. Um die Mehrwerte klar verständlich darzustellen haben wir den Hintergrund und die Ergebnisse klar beschrieben. Vielleicht ist auch etwas für dich dabei?

Veröffentlicht am

KI in der Praxis: Beispiele und Herausforderungen

Künstliche Intelligenz in der Praxis

Künstliche Intelligenz (KI) ist eine der vielversprechendsten Methoden der Datenverarbeitung. Die Idee ist, dass man mittels KI menschliches Verhalten simulieren oder sogar übertreffen kann. Doch der Einstieg fällt oft schwer. Eine der häufigsten Fragen ist, wie man künstliche Intelligenz in der Praxis einsetzen kann. Wir zeigen Beispiele, aber auch die Herausforderungen denen man sich als Unternehmen stellen muss.

Welche Beispiele gibt es für den praktischen Einsatz von künstlicher Intelligenz?

KI ist überall. Hier ein paar Beispiele, wie Daten und Algorithmen uns in der Praxis begegnen:

Produktempfehlungen

Eines der einfachsten, aber auch verständlichsten Beispiele für den Einsatz von KI in der Praxis ist das Feld der Empfehlungssysteme. Die meisten kennen es von E-Commerce Shops mit “Kunden kauften auch”-Bereichen. Diese Auswertung – welchem Kunden welche Produkte angeboten werden – kann sehr komplex werden. Der Vorteil ist massiv: Man versucht durch historische Käufe sich wiederholende Muster zu erkennen (z.B. jemand der einen Sandkasten gekauft hat, kauft auch immer Spielsand dazu) und dann zu steuern (Anzeige Sand beim Sandkasten). Das Ziel ist klar mehr Umsatz, aber auch eine höhere Kundenzufriedenheit.

Biometrische Erkennung

Bei fast jedem Menschen inzwischen im Alltag verankert und somit ein sehr praktisches Beispiel ist die biometrische Erkennung. Ob Gesicht (z.B. Laptop) oder Finger (z.B. Handy), es werden im Hintergrund immer komplexe Auswertungsmechanismen der künstlichen Intelligenz eingesetzt, um ein möglichst zuverlässiges, aber auch möglichst genaues Matching sicher zu stellen.

Vorhersagen von KPIs

Vor allem für Unternehmen in der Praxis relevant ist zu wissen, wie sich wichtige Kennzahlen (Key Performance Indicators, KPIs) entwickeln. Ob Umsatz, Demand, Service-Fälle, Lieferungen oder ähnliches: Mittels künstlicher Intelligenz und maschinellen Lernen können statistische Vorhersagen getroffen werden, wie eine wahrscheinliche Zukunft aussieht. Dies erlaubt einfachere operative Steuerung und Führung.

Spracherkennung und Übersetzungen

Das ganze Feld der natürlichen Sprachverarbeitung (“Natural Language Processing”, NLP) beschäftigt sich mit dem Erkennen von Sprache (Speech recognition), die Translation in Text (Speech-to-Text) und weiteren Verarbeitung (z.B. Übersetzungen, Text-zu-Sprache, automatische Korrektur). Im Hintergrund sind eine Vielzahl an Algorithmen der künstlichen Intelligenz im Einsatz, die verschiedene Aufgaben erledigen.

Hotel- und Flugbuchungen

Viele Webseiten mit einem limitierten Angebot (z.B. Sitzplätze oder Hotelzimmer) möchten bei hohem Bedarf die Preise anheben und bei niedrigem Bedarf die Preise attraktiv machen. Dies manuell oder statisch zu machen ist nicht einfach. Daher setzen sie adaptive künstliche Intelligenz ein, die vollautomatisch die Preise je Besucher anpasst. Wie lange jemand auf der Webseite war, wie oft er ein Zimmer aufgerufen hat, von welchem Standort er sich einhält, welche Art von Gerät (Handy, Laptop, Tablet,..) er nutzt und vieles mehr fließt in die Berechnung ein.

Welche Herausforderungen stellen sich Unternehmen KI in der Praxis einzusetzen?

Der Mehrwert vom Einsatz von Daten und künstlicher Intelligenz ist offensichtlich. Doch sind die wenigsten Unternehmen so weit, KI in der Breite einzusetzen. Warum ist es so schwer, KI in der Praxis einzusetzen?

Wenig Wissen

Das Hauptproblem was Unternehmen daran hindert KI praktisch einzusetzen ist zu geringes Wissen. Von Beispielen über Anwendungsfälle, nötige Daten, Auswertungen bis zum klar definierten Mehrwert gibt es wenig Information und Erfahrung bei den meisten Unternehmen. 

Das fehlende Wissen mündet darin, dass wenig ausprobiert werden kann; folglich wird wenig Erfahrung gesammelt. Diese mangelnde Erfahrung hingegen schürt wieder das mangelnde Wissen, weshalb viele (vor allem kleine und mittelständische) Unternehmen auf dem gleichen Stand bleiben.

Wenig (erfahrene) Datenexperten

Ein Lösungsansatz für die mangelnde Erfahrung mit dem Thema KI in der Praxis ist die Anstellung von Datenexperten. Ob Data Scientist oder Analyt; oft ist die Idee, ein eigenes Experten-Team aufzubauen keine schlechte.

Doch die Realität ist häufig nicht gleich der Idee. Datenexperten, vor allem solche mit Erfahrung, sind heute sehr rar. Und falls sie vorhanden sind, sind sie sehr teuer. Mehr noch: Meist brauchen sie eine lange Zeit, um sinnvolle und vor allem auch Mehrwert schaffende Anwendungsfälle in einem Unternehmen zu identifizieren und umzusetzen.

Alles in allem ist die eigene Data Science Unit eine gute Idee für langfristiges Investment; aber heute leider von vielen Unternehmen nicht einfach zu realisieren. Und falls sie existiert, ist sie meist hoffnungslos überlastet.

Hohe Kosten

Egal wo man anfängt, meist sind die erwarteten hohen Kosten die größte Herausforderung auf dem Weg zum praktischen Einsatz von KI. Mit eigenen Datenexperten oder externer Agentur: unter fünfstelligen Summen ist meist nicht einmal eine Idee realisiert. 

Kein Wunder: Durch die Seltenheit von fähigen Personal und der nachhaltig hohen Nachfrage sind die vorhandenen Beratungen und Experten sehr hohe Preise gewöhnt. Und nicht nur das: Viele Projekte brauchen Zeit und werden unnötig lange gezogen, was die Kosten nur weiter erhöht.

Kurz gesagt ist es meist keine direkt nachhaltige Investition, sich Wissen einzukaufen oder Datenexperten einzustellen. Zu hohe Nachfrage bestimmt den Preis; geringe Erfahrung erhöht die Kosten.

Wie schafft man den praktischen Einsatz von KI?

Wie löst man also diese Probleme, um KI einfach und schnell in der Praxis einzusetzen und Erfahrung zu sammeln? Zwei Wege haben wir bereits skizziert: Man kann entweder externe Partner (z.B. Agenturen, Beratungen) einsetzen oder ein eigenes Team aufbauen. Beide Lösungsansätze sind jedoch mit hohen Kosten und langen Projektlaufzeiten verbunden. Deshalb haben wir bei einen dritten Weg entwickelt: Self-Service KI-Produkte.

Kobold AI: Die Plattform für Self-Service KI-Produkte für Nicht-Experten

Durch Self-Service KI-Produkte erlaubt es unsere Plattform Kobold AI Nicht-Experten KI direkt und ohne Vorwissen einzusetzen. Eine große Auswahl an möglichen Anwendungsfälllen werden erklärt, die erwarteten Daten definiert und das Ergebnis der KI-Anwendung dargestellt. Dann braucht es nur einen Klick, um die Bestellung auszulösen. Die Daten werden einfach bereit gestellt und die Ergebnisse kommen automatisch via E-Mail.

Praktische KI-Anwendungen kennenlernen

Wer mehr zu künstlicher Intelligenz in der Praxis erfahren möchte, kann mit folgenden Produkten in die Welt der Advanced Analytics schnuppern:

Veröffentlicht am

Umsatzprognose erstellen: Der Weg für eine genaue Vorhersage

Die Vorhersage von Umsatz durch KI

Kein Unternehmen schafft es, ohne Umsatz zu leben. Während man im operativen sich vor allem auf momentanen oder historischen Umsatz konzentriert, benötigt man für strategische Themen die Prognose von zukünftigen Umsatz. Doch dass das nicht immer ganz einfachste und wie künstliche Intelligenz bessere Umsatzprognosen erstellen kann, zeigen wir in diesem Artikel. 

Wofür braucht man Umsatzvorhersagen?

Allen Unternehmen ist bekannt, wie viel Umsatz sie gemacht haben. Schon alleine aus Gründen der Finanzbuchhaltung werden Produktbestellungen und Serviceleistungen sauber dokumentiert. Ohne Umsatz ginge es auch nicht: schließlich muss die Kostenseite (z.B. Gehälter, Waren, Büro, Strom) des Unternehmens bedient werden.

Doch die historische Betrachtung von Umsatz reicht oft nicht. Besonders für planerische und strategische Themen möchte man gerne wissen wie sich der Umsatz in Zukunft entwickeln wird. Weiß man, mit welchem Umsatz voraussichtlich zu rechnen ist, können Entscheidungen besser getroffen werden. Vor allem auch größere Investitionen sollten darauf ausgelegt werden, statt rein auf Bauchgefühl (“Das Jahr bisher lief doch gut”) zu basieren. 

Beispiele für den Einsatz von Umsatzvorhersagen

  • Recruiting: ist abzuschätzen wie viele Einnahmen erwirtschaftet werden, vereinfacht dies die Entscheidung ob man neue Mitarbeiter einstellen kann und sollte. Bei guten Prognosen hat man mehr Finanzen dafür verfügbar, benötigt aber voraussichtlich mehr Manpower um es abzuwickeln. 
  • Strategische Entscheidungen: Ob neue Maschinen, die Entwicklung eines neuen Geschäftsfelds oder Expansion in andere Länder: es gibt viele Themen, die von einer verlässlichen umsatzvorhersage profitieren.
  • Marketing: Entwickelt sich der Umsatz nicht wie erwartet, gibt es eine Reihe sm Gegenmaßnahmen.  Eine davon ist: Mehr (Performance) Marketing. Also eine ganz klare Messung des Erfolgs um weitere Maßnahmen zu steuern.
  • Einkauf: Weiß man, welcher Umsatz bzw. Absatz sich für eine Kategorie oder ein Produkt abzeichnet, ist der Einkauf froh um frühe Information. Schließlich hängt die gesamte Supply Chain von sauberer, zuverlässiger Planung ab.
  • Produktentwicklung: Die Lebenszyklus von manchen Produkten sind nicht klar. Hat man nun Umsatzprognosen, kann man die Information nutzen, um passende Produkte zu entwickeln – sowohl welche Art, als auch zu welchem Zeitpunkt. Eine Glaskugel zum besseren Product-Market-Fit sozusagen.

Dies sind nur ein paar Beispiele wie eine genaue Umsatzvorhersage zu einem großen Vorteil in der Unternehmenssteuerung werden kann. Bleibt die frage: wie schafft man genaue Prognosen?

Klassische Methoden zur Prognose von Umsatz 

Das Thema Umsatzvorhersagen ist selbstverständlich nicht neu. Seit hunderten von Jahren schätzen die Menschen die zukünftige Entwicklung von Ereignissen ab. Und seit dutzenden nutzen sie dazu mathematische Methoden. Hier ein paar Beispiele für klassische Methoden der Umsatzprognose: 

Qualitative Schätzungen 

Geschäftsleitung und der Vertrieb schätzen. Bauchgefühl und Erfahrung müssen herhalten, um qualitative Schätzungen abzugeben, wie viel Umsatz erwartet wird. 

Während diese Methode sehr veraltet klingt, ist sie in manchen Situationen tatsächlich noch im Einsatz. Vor allem bei neuen Unternehmen, Produkten, Märkten oder anderen Schätzungen ohne historische Daten kommen qualitative Schätzungen zum Einsatz.

Zahlen aus letztem Jahr

Vermutlich die häufigste Methode ist die Nutzung der Zahlen des Vorjahres. Diese historie ist verlässlich und wird einfach auf das aktuelle Jahr umgemünzt. Als einfache datenbasierte Methode ist diese auch besser als rein qualitative Methoden und bildet auch schwierigere Muster wie Saisonalität teilweise ab. 

Lineare Hochrechnung

Als erste Methode aus dem Bereich Data Science bzw. Advanced Analytics wird üblicherweise eine Lineare hochrechnung, meist in Form einer linearen Regression eingesetzt. Dabei werden die Daten der letzten Monate eingesetzt, um ein Modell zur Vorhersage der nächsten Monate abzuleiten.

Gefahren klassischer Umsatzprognosen

Während viele der klassischen Methoden zur Umsatzschätzung etabliert sind ergeben sich jedoch je nach Situation massive probleme:

  • Generelle Trends: einige Methoden betrachten die Prognose unter der leistung des letzten Jahres oder vergangenen Erfahrungen. Dabei werden aber generelle positive oder negative Trends im Umsatz vernachlässigt. Wenn ein Mensch manche Umsätze großzügig als gleich zusammen gruppieren würde, sehen Algorithmen hingegen feine Nuance nach oben oder unten und weisen diese aus.
  • Einfluss von Werktagen: Ob ein Unternehmen B2B oder B2C ist, merkt man meist durch einen einfachen Blick auf den Umsatz über Wochentage. Wie viele Sonntage ein Monat hat, hat somit oft einen großen Einfluss auf den zu erwartenden Umsatz. 
  • Saisonalität: die saisonalität der eigenen Produktpalette hat oft einen erheblichen Einfluss auf den Umsatz. Die meisten Unternehmen sind sich auch der saisonalität bewusst, aber es wird vor allem bei Mehrfachsaisonalitäten (z.b. Gartengeräte mit Höhen im Frühling und Herbst) sehr schwer, eies in eine Prognose mit ein zu beziehen.
  • Geringe Datenlage: Letztlich können einige Methoden und Algorithmen nicht gut mit einer geringen Datenlage umgehen. Lineare Vorhersagen werden durch schlechte Daten zum Teil derart verzerrt, dass die Ergebnisse unbrauchbar werden. Dies ist eher eine Gefahr in der Vorhersage, als eine Hilfe.

Zusammengefasst ist es oft einfach die zu hohe Anzahl an Freiheitsgraden die eine verlässliche Vorhersage von Umsatz mit klassischen Methoden verhindert. Doch es gibt eine Lösung, die viele dieser Umstände in Betracht ziehen kann, um verlässliche Prognosen zu erstellen: künstliche Intelligenz. 

Künstliche Intelligenz für bessere Umsatzvorhersagen 

Die moderne Methode um verlässliche Vorhersagen von Umsatz zu generieren ist der Einsatz von künstlicher Intelligenz. Speziell Zeitreihenanalysen sind geschaffen für Umsatzprognosen von hoher Qualität. Zeitreihenanalysen zerlegen historische Umsatzdaten in verschiedene Bestandteile (Dekomposition):

  • Trend: Die generelle Entwicklung des Umsatzes, zum Beispiel steigend oder fallend
  • Saisonalität: Sich wiederholende Muster, zum Beispiel Winter-/Sommerprodukte
  • Zykluskomponente: Wellenförmige Schwankungen, zum Beispiel durch Konjunkturschwankungen
  • Rauschen: Sonstige Ausreisser oder Abweichungen nach oben oder unten

Während generelle Zeitreihenanalysen formell eher der Statistik zugeordnet werden, können diese auch modifiziert durch Methoden der künstlichen Intelligenz erweitert werden. 

Durch den Einsatz von neuronalen Netzen zum Beispiel können weitere Inputfaktoren wie Feiertage, Wochentage oder anderes zuverlässig mit einbezogen werden. Zudem können diese Methoden mit weit weniger Daten nachhaltige Ergebnisse produzieren als die klassische Statistik.

Generell gilt jedoch, dass Zeitreihenanalysen genauer, einfacher und flexibler Muster erkennen und replizieren können als herkömmliche Methoden zur Umsatzvorhersage.

Umsatzprognose mit Kobold AI

Statistik, künstliche Intelligenz, maschinelles Lernen, neuronale Netze. Wem das zu kompliziert klingt, aber dennoch die hohe Qualität von moderner Umsatzprognose möchte, kann sich das Angebot von Kobold AI zu Nutze machen.

Kobold AI ist eine Plattform für Self-Service KI-Produkte. Durch eine einfache Onlinebestellung können auch Nicht-Experten den Mehrwert von künstlicher Intelligenz einsetzen.

Unter anderem bieten wir eine ausführliche Umsatzanalyse und Vorhersage an, die einfach online ausgewählt und umgesetzt werden kann. Details gibt es in unserem Onlineshop: 

Häufige Fragen zur Vorhersage von Umsatz (FAQ)

Wie zuverlässig sind Umsatzvorhersagen?

Keine Methode wird jemals 100% genau den Umsatz vorhersagen können. Doch umso mehr Daten vorhanden sind, umso höher die Chance sehr nah am realen Wert zu sein. Zudem geben viele Methoden, unter anderem auch die Umsatzvorhersage von Kobold AI, auch “Zielkorridiere” als Spannweiten der Vorhersage an.

Hat Corona einen Einfluss auf Umsatzprognosen?

Absolut! Spezielle, nie dagewesene Ereignisse wie Corona haben einen besonderen, negativen Einfluss auf die Qualität von Prognosen und Vorhersagen. Doch inzwischen haben sich diese besonderen Ausreißer wieder normalisiert und die Vorhersage wird wieder verlässlicher.

Was ist der Unterschied zwischen einer Umsatzprognose und Umsatzentwicklung?

Die Umsatzprognose blickt in die Zukunft, während die Umsatzentwicklung meist nach hinten gerichtet ist (z.B. “Wachstum letztes Jahr”) und gröber (Jahresbasis) formuliert ist.

Welche Umsatzsteigerung ist realistisch?

Dies ist absolut individuell je nach Industrie und tausend anderer Faktoren. Generell ist allerdings ein kontinuierliches Wachstum über 20% kaum schaffbar, auch nicht für moderne Startups.

Kann man Umsatzvorhersagen auch mit Excel machen?

Ja, zum Beispiel durch die RGP() Funktion kann eine lineare Regression berechnet werden. Die Gefahren der klassischen Methoden bleiben bestehen.

Veröffentlicht am

Optimale Segmentierung von Bestandskunden durch KI

Kundensegmentierung durch KI

Seine Bestandskunden optimal zu bedienen ist eine große Herausforderung in vielen Unternehmen. Eine der häufigsten Initiativen ist eine Segment-basierte Strategie und Personalisierung. Doch wie kann man am besten Bestandskundensegmente generieren? Wir zeigen verschiedene Möglichkeiten und wie künstliche Intelligenz unterstützen kann.

Welche Vorteile hat man durch die Segmentierung seiner Bestandskunden?

Mehreren Studien zufolge ist die Neukundenakquise bis zu sieben Mal so teuer wie die Bindung von Bestandskunden. Daher macht es Sinn, sich um seine vorhandenen Kunden zu kümmern. Um diese Aufgabe zu vereinfachen, möchte man oft Segmente aus dem gesamten Kundenstamm bilden. Die Vorteile für dieses Vorgehen liegen auf der Hand:

  • Gruppenbasierte Personalisierung: Angebote, Services, Kontakt durch Kundenbetreuer, bestimmte Produkte – alles nur Beispiele für eine mögliche Personalisierung für jedes Segment. 
  • Steuerung von Außendienst und Service: Unterschiedliche Segmente haben unterschiedliche Bedürfnisse im Bezug auf Kontakt mit Mitarbeitern, egal ob Außendienst oder Service. Durch Segmentierung ist diese Unterscheidung einfach möglich.
  • Newsletter Marketing: Der klassische Newsletter an alle Abonennten hat ausgedient! Individuelle Newsletter für jedes Segment erhöhen die Konvertierung und Click-Through-Raten (CTR) und somit den Umsatz.
  • Priorisierung: Manche Segmente sind entweder strategisch oder operativ wichtig (z.B. durch hohen Umsatz). Die Erkenntnis welche diese sind erlaubt klare Priorisierung um diese Segmente optimal zu bedienen.
  • Besseres Kundenverständnis: Einer der wohl wichtigsten Gründe ist, dass man mittels Segmenten den gesamten Bestandskundenstamm in verdauliche Gruppen einteilen kann. Dies erlaubt einen differenzierten Blick auf die Kunden. Das Verständnis, welche Bedürfnisse die Kunden haben und wie sie am besten bedient werden, wird durch Segmente stark unterstützt.

Welche herkömmlichen Arten der Kundensegmentierung gibt es?

Kundensegmentierung ist keine neue Idee. Daher gibt es eine Reihe an Methoden, von denen wir die häufigsten hier vorstellen. 

ABC-Analyse

Die klassische ABC-Analyse sortiert Kunden in drei Kategorien: Top-Kunden (Kategorie “A”) bis Rest-Kunden (Kategorie “C”). ABC-Analysen basieren auf vielen verschiedenen Attributen, wie zum Beispiel Industrie, Geographie, Haupt-Produktkategorie, Gesamtumsatz und ähnliches. Da die ABC-Analyse nur auf einem Faktor beruht, wird sie auch “eindimensionale Segmentierung” genannt.

Zweidimensionale Segmentierungen auf Umsatz

Während die ABC-Analyse nur ein Attribute zur Segmentierung einbezieht, gibt es weitere Verfahren die zwei oder mehr Faktoren mit einbezieht. Zwei Beispiele für diese Art von Segmentierung sind die Recency Frequency Monetary Methode oder der Customer Lifetime Value. In beiden Fällen werden der Umsatz je Bestellung, Anzahl an Bestellungen oder Gesamtumsatz mit einbezogen. 

Das Verhalten im Zentrum: Aktivitätssegmentierung

Für viele moderne digitale Plattformen ist hingegen eine hohe Aktivität zentral (“Stickiness”). Oft bildet diese Information auch die Basis für die Definition von “gesunden” Kunden (“Health Score”); also hohe Aktivität mit vielen Bereichen bedeutet eine gute Nutzung der Tools. Aktivität eignet sich somit für diese Unternehmen als optimale Segmentierung von bestehenden Kunden.

Das Problem mit Standard-Methoden

Während herkömmliche Methoden zur Bestandskundensegmentierung sehr einfach zu implementieren sind, genügen sie oft den Anforderungen nicht. Eindimensionale Segmentierung lässt oft viele wichtige andere Muster außer acht; Segmentierung auf Basis von Umsätzen vergisst gerne die weiteren Kundenfaktoren.

Weiter werden Grenzen (z.B. für ABC-Segmentierung) oft manuell-qualitativ festgelegt und sind innerhalb kürzester Zeit wieder veraltet. Als solche sind sie nur sehr bedingt zuverlässig. 

Kurz gesagt sind Standard-Methoden zur Segmentierung schnell und einfach implementiert, verlieren sich aber in der Volatilität und Komplexität der wechselnden Bedürfnisse der Bestandskunden.

Bestandskundensegmentierung durch künstliche Intelligenz

Doch es gibt Ansätze, um auch diese komplexen Segmente zu erfassen. Durch die Unterstützung von künstlicher Intelligenz können sehr unterschiedliche, flexible Segmente aus den Bestandskunden extrahiert werden. Diese lösen die Probleme der herkömmlichen Analysen und erlauben somit ein noch besseres Kundenverständnis.

Segmentierung durch Clustering

Der Algorithmus der sich am besten für die Gruppierung von Bestandskunden eignet ist das so genannte Clustering. Clustering nutzt Daten, um Muster zu erkennen und ähnliche Einträge zusammen zu fassen.

Clustering: Gruppen von ähnlichen Daten durch maschinelles Lernen
Clustering: Gruppen von ähnlichen Daten durch maschinelles Lernen

Im Falle der Bestandskundensegmentierung bedeutet dies, dass mittels Clustering sich ähnliche Kunden identifiziert und zu einem Cluster – also einem Segment – zusammengefügt werden. Dieser Cluster bildet dann eine Einheit, mit der man wie in den herkömmlichen Methoden weiterarbeiten kann.

Das besondere ist, dass man im Gegensatz zu herkömmlichen Methoden weder die Grenzen noch die relevanten Attribute vorab definiert. Diese Segmentierungsrichtlinien werden flexibel vom Algorithmus selbst festgelegt. So kann es vorkommen, dass für das menschliche Auge relevante Attribute (z.B. Umsatz, Aktivität, Geographie) für die KI-Methode vollkommen irrelevant sind.

Clustering ist ein Algorithmus des unüberwachten Maschinellen Lernens. Als solcher beruht er rein auf selbst erkannten Mustern und Regelmäßigkeiten innerhalb des Datensatzes und wird nicht von Menschen “angelernt”. Das Ergebnis hängt jedoch sehr stark von den Inputdaten ab – denn nur was der KI vorgelegt wird, kann evaluiert werden.

Häufige Datenquellen für das Clustering

Es gibt eine ganze Reihe an Datenquellen für die Kundensegmentierung mittels Clustering, zum Beispiel:

  • Kundenstammdaten-System: Meist ein CRM, aber manchmal auch im E-Commerce-Shop oder anderen Systemen hinterlegt bilden die Stammdaten der Kunden eine der wichtigsten Datenquellen.
  • Transaktionsdaten: Das ERP, der Onlineshop oder andere Systeme die Transaktionen aufzeichnen sind fundamental um das Verhalten der Bestandskunden in die Segmentierung einzubeziehen. Art, Häufigkeit und monetäre Werte der Transaktionen bilden meist die Grundlage für eine Analyse.
  • Supportdaten: Daten über den Kontakt zum Support sind eine weitere wichtige Informationsquelle. Aussendienst, Service-Mitarbeiter oder Ticket-System sind dabei nur einige Beispiele, die weiter das Verhalten der Bestandskunden quantifizieren.

Dies sind jedoch nur einige Beispiele, woher die Daten für eine nachhaltige Segmentierung stammen können. Im Prinzip gilt jedes System oder jede Datenbank mit kundenrelevanten Daten als Quelle und kann für eine optimale Kundensegmentierung eingesetzt werden.

Kundensegmentierung in der Praxis: Data-Driven Personas

So viel zur Theorie. Ein Beispiel für die praktische Umsetzung von KI-basierter Kundensegmentierung sind Data-Driven Personas. 

Eine Persona ist die steckbriefartige Darstellung einer Kundengruppe. Üblicherweise werden Personas durch die Kombination von Expertenwissen (z.B. Vertrieb) und Umfragen (z.B. Marktforschung) erstellt. 

Was ist eine Persona?
Was ist eine Persona?

Doch das ist auch genau eine der Schwachstellen: Herkömmliche Personas bilden kein reales Verhalten ab, sondern qualitative Meinungen. Zudem sind sie schnell veraltet, da sich der Markt und somit die Kundenbedürfnisse schnell ändern.

Zum Einsatz kommt die Kundensegmentierung mittels KI. Indem man Clustering auf die Daten der Bestandskunden anwendet, können Gruppen identifiziert und zusammengefasst werden. Diese entstandenen Cluster können anhand ihrer Daten beschrieben werden und formen dadurch datenbasierte, also Data-Driven Personas.

Die Vorteile der Data-Driven Personas sind vielfältig. Die wichtigsten Vorteile sind:

  • Basierend auf realen Daten und daher auf realem Verhalten statt auf qualitativen Meinungen
  • Die Kunden können durch den geringen Aufwand schnell und einfach neu segmentiert werden
  • Da sie auf realen Bestandskunden basieren, können die Ergebnisse (v.a. die Segmente selbst) direkt wieder in die Systeme eingepflegt und verwendet werden (z.B. durch personalisierte Newsletter)
  • Man kann sehr gut steuern, welche Attribute wichtig sind für die Personas – bei Marketing-Personas nutzt man andere Daten als bei Service-Personas

Zusammen genommen kann hier in einem sehr praktischen Beispiel gezeigt werden, wie künstliche Intelligenz schnell und einfach Mehrwert liefert. Die geschickte Kombination von Kundenzentrierung und Daten erlaubt neue Ansätze, die vorher nicht möglich waren.

Data-Driven Personas: Mehr Wissen durch den Einsatz von Daten
Data-Driven Personas: Mehr Wissen durch den Einsatz von Daten

Der nächste Schritt: Anwendung der identifizierten Segmente

Wenn man Segmente identifiziert hat, gilt es noch diese auch gewinnbringend einzusetzen. Hier einige Beispiele, wie dieser nächste Schritt gelingt:

  • Einsatz in Marketing-Maßnahme: Personalisierte Marketing-Aktionen, Coupons, Newsletter oder AdWords können helfen Bestandskunden zu binden oder neue Kunden zu akquirieren.
  • Einsatz in strategischer Planung: Entscheidungen für strategische Themen und Projekte können nun auf realen Kundengruppen basiert werden und/oder in Betracht ziehen, welche Kundengruppen noch NICHT vorhanden sind.
  • Einsatz in Produktentwicklung: Wenn wir wissen, was unsere Bestandskunden bevorzugen, können wir entweder unsere Produktpalette in die gleiche Richtung weiter entwickeln oder eben darüber hinaus ausweiten
  • Einsatz im Service: Unterschiedliche Personas haben unterschiedliche Bedürfnisse. Durch den Einsatz im Service und Außendienst können diese Bedürfnisse individuell abgedeckt werden.

Data-Driven Personas für die Segmentierung von Bestandskunden mit Kobold AI

Wem die Bestandskundensegmentierung durch KI nach zu viel Aufwand klingt, dem können wir diese Ängste nehmen. Es gibt zwar die Möglichkeit dafür eine Agentur zu beauftragen oder eigene Data Scientists einzustellen, aber Kobold AI bietet einen viel einfacheren und effektiveren Weg: Self-Service KI-Produkte.

Unser Produkt “Data-Driven Personas” geht den beschriebenen Weg zur optimalen Segmentierung von Bestandskunden. Durch unsere Plattform kann jeder Nutzer ohne Vorwissen diesen Anwendungsfall umsetzen. Einfach eigene Daten hochladen und Ergebnisse direkt bekommen.
Für Details geht’s hier lang:

Veröffentlicht am

100+ Beispiele für KI & Machine Learning Use Cases

Big Data und Machine Learning Beispiele

Oft fehlt es an Beispielen wie Künstliche Intelligenz, Data Science, Big Data oder Machine Learning als praktische Anwendungsfälle umgesetzt werden können. Daher haben wir eine Liste an Use Cases für den Bereich KI und Machine Learning zusammengestellt, die wir kontinuierlich erweitern.

Beispiele für Künstliche Intelligenz und ML im Alltag

  1. Text prediction: Inzwischen fließt die Vorhersage von Satzbausteinen in vielen Bereichen ein. Speziell im Bereich E-Mail oder Mobiltelefone ist es inzwischen Standard.
  2. Virtual Assistants: Siri, Alexa & Co basieren auf Natürlicher Sprachverarbeitung und lernen durch ihre Benutzung. Die Datenmengen müssen schnell transferiert und mittels Machine Learning verarbeitet werden.
  3. Face Recogniton: Extraktion und Erkennung von Gesichtern mittels Bildverarbeiting und Klassifikation. Genutzt im staatlichen Kontext, aber auch als Sicherheitsmaßnahme.
  4. Avatar generation: Erstellung von lebensechten Avataren aufgrund von Bildmaterial, ohne dass diese Person existiert. Dieses Vorgehen ist bereits fortgeschritten im Bereich Bilder und in starker Entwicklung im Bereich Video.
  5. Crime prediction: Vorhersage von Verbrechen Anhand von vergangenen Taten, Bevölkerung, Saison und anderen Faktoren. Erlaubt verstärkte Präsenz im identifizierten Gebiet zur identifizierten Zeit.
  6. Deep fakes: Anhand von vorhandenem Video oder Audiomaterial wird ein Generatives, also produzierendes Neuronales Netz trainiert, das ähnliches Material produziert. Somit kann man lebensechte Videos erstellen, die jedoch Fake sind. Dieses Beispiel ist momentan eines der größten aktuellen ethischen Probleme im Bereich Machine Learning. 
  7. Automated devices: Staubsauger und Rasenmäher sind erst der Anfang. Immer mehr autonome Roboter werden unsere Häuser bevölkern und benötigen dafür eine Vielzahl an Machine Learning und Cognitive Computing Algorithmen.
  8. Recipe refinement: Automatische Erkennung von Vorschlägen zur Verbesserung / Veränderung von Rezepten (z.B. durch Kommentare) und entsprechende Anpassung. 
  9. Ähnliche Restaurants: Anhand von Lage, Preis und Speisekarte können automatisch ähnliche Restaurants gefunden und empfohlen werden. Einsatz von Assoziationsanalyse, Collaborative Filtering oder Classification.
  10. Erkennung von Pflanzen: Anhand eines Fotos von Blättern oder Blüten wird die Art einer Pflanze erkannt und Information ausgespielt. Optimalerweise in Kombination mit Pflegetipps und gängigen Schädlingsbekämpfungen.
  11. Verkehrssteuerung: Mittels Predictive Analytics und Machine Learning werden Verkehrsflüsse vorhergesagt und anhand realer Entwicklungen zum Beispiel durch Ampelanlagen oder zusätzliche Spuren gesteuert. Ziel ist ein höherer Durchfluss und Vermeidung von Staus und somit Vermeidung von Umweltbelastung.

Allgemeine Use Cases für Unternehmen

Big Data und Machine Learning Beispiele in Unternehmen
Big Data und Machine Learning Beispiele in Unternehmen
  1. Sales Forecasting: Die Vorhersage von Umsatzzahlen ist einer der ersten Use Cases die in Unternehmen umgesetzt wird. Doch ist es auf der anderen Seite einer der schwierigsten: Saisonalität, geringe Datenlage, hoch volatile Faktoren – alles Aspekte, die die Qualität der Modelle negativ beeinflusst. Umsetzung meist mittels Time Series Analysis.
  2. Automatic E-Mail Classification: Klassifizierung und Vorsortierung von E-Mails durch zuweisen eines Empfängers oder einer Kategorie. Vor allem im Kundensupport ein großer Effizienzfaktor, indem es manuelle Arbeit auflöst, Fehler vermeidet und eine hohe Geschwindigkeit garantiert.
  3. Process Mining: Durch Timestamps bestimmter Prozessschritte kann ein konkretes Bild des realen Prozessablaufs gezeichnet werden. Diese Information kann dann im dem Plan-Prozess verglichen werden oder mittels AI auf Verbesserungspotentiale untersucht werden.
  4. Satellitenbildauswertung: Mittels Verarbeitung von Satellitenbildern können Veränderungen in der Landschaft, wie beispielsweise Waldrodungen, Verkehrsaufkommen oder der Fortschritt in Bauvorhaben beobachtet werden.
  5. Master Data Quality analysis: Nebst deskriptive Auswertung der Qualität von Stammdaten kann auch eine A.I. basierte Identifikation von Einträgen mit schlechter Qualität etabliert werden. Dies erlaubt bessere Datenhaltung und Korrektur von Fehlern.
  6. IT infrastructure usage: Ob zur Optimierung der Systemlandschaft oder in Vorbereitung zur Umstellung von Systemen, durch Logging und ML können Abhängigkeiten zwischen Systemen und deren Nutzung dargestellt werden.
  7. Data source combination: Meist sind Informationen zu einem Produkt oder Service auf viele Systeme verteilt und selten gibt es einen eindeutigen identifier über alle Quellen. Durch flexibles (fuzzy) matching können diese Datenquellen kombiniert werden und somit holistische Analysen zu einer Entität durchgeführt werden. 

Industrie 4.0 (Manufacturing)

Big Data und Machine Learning Beispiele in Industrie 4.0
Big Data und Machine Learning Beispiele in Industrie 4.0
  1. Predictive Maintenance für Industrie 4.0: Die Vorhersage einer notwendigen Wartung von Maschinen bevor sie stoppen. Ziel ist es, Schaden, Reparatur und somit Geld- und Zeitverlust zu vermeiden, gleichermaßen aber im Gegensatz zu geplanter Wartung unnötige Downtime zu vermeiden.
  2. Automated end of line testing / Quality assurance: Durch die Kombination von MES und ERP Daten können Classifier trainiert werden, die eine automatisierte Qualitätskontrolle nach Produktion durchführen. Diese kann Bild-, Sound-, Sensoren- oder rein datenbasiert erfolgen.
  3. Demand forecasting: ähnlich wie Sales forecasting,  jedoch mit stärkerem Fokus auf die Supply Chain. Orchestrierung von Warenflüssen um aufkommenden Bedarf abzudecken.
  4. Digital Twin: Das digitale Abbild eines realen Produkts oder eines Kunden ist eine große Herausforderung. Hat man diesen Schritt jedoch geschafft, erlaubt es für eine Vielzahl an Analysen von Produktsicherung über Nutzverhalten bis zur Effizienzoptimierung.
  5. Robotic Process Automatisation (RPA): Mittels RPAs kann man repetitive Aufgaben automatisieren und ablaufen lassen. Sowohl auf Software- als auch Hardwarebasis.
  6. “Lights out”-Factory: Ähnlich dem vollautomatisierten Warehouse sind vollautomatische Produktionen in der Lage, in vielen Bereichen Ressourcen und somit Kosten zu sparen.
  7. Employee hot spots: Mittels Bewegungstracking können Hotspots in einer Produktionsanlage identifiziert werden. Dies liefert Ansatzpunkte für die Optimierung von Laufwegen, Führung von Materialwägen oder einfach die innenarchitektonische Verbesserung.

Internet of Things (IoT) / vernetzte Geräte

Big Data und Machine Learning Beispiele in IoT
Big Data und Machine Learning Beispiele in IoT
  1. Predictive Maintenance for products: Die Erstellung einer “Abnutzung” von Produkten, um Wartungen, Reparaturen oder Ersatzteile zu empfehlen. Nutzt Daten über den Einsatz des Produkts und das Nutzerverhalten.
  2. Obstacle detection: Bewegt sich ein Produkt wie zum Beispiel ein Auto, ein Rasenmäher oder ein Staubsauger durch eine unbekannte Umgebung, gilt es, Hindernisse möglichst frühzeitig zu erkennen und zu beachten. 
  3. Vorhersage von Produkteinsatz: Viele Produkte haben verschiedene Modi, die für verschiedene Zwecke eingesetzt werden, wie zum Beispiel Sparmodus oder High Performance. Mittels Assoziationsanalyse oder ähnlicher Algorithmen kann der nächste Einsatzzweck vorhergesagt und somit eine Empfehlung für den passenden Modus gegeben werden.
  4. Product usage profile: Mittels Mustererkennung können Elektronikgeräte sich auf ihren Einsatz vorbereiten. Zum Beispiel ein Kühlschrank kann sich runterkühlen, ein Backofen vorheizen oder eine Heizung anlaufen.
  5. Environmental impact analysis: Ob Auto, Haushaltsgeräte oder andere Ressourcen belastende Maschinen – durch die Art, Dauer und Umgebung des Einsatzes kann deren Auswirkung auf die Umwelt bestimmt werden.
  6. UI-Optimierung: Mittels Verhaltensanalyse und Stammdaten kann ein optimales UI für verschiedene Segmente innerhalb einer Zielgruppe ausgespielt werden. 
  7. Product tracking: Mittels RFID oder QR Codes wird der Standort von Devices festgestellt, indem die Kunden dadurch einen Benefit (z.B. verlängerte Garantielaufzeit) erlangen. Hilft vor allem Unternehmen die sich im B2B2C-Markt befinden, die Kunden ihrer Kunden kennenzulernen.
  8. Wearables: Durch die erhöhte Etablierung von Wearables / Smart Accessories wird es zu einer Schwemme an Daten direkt vom Kunden kommen. Besonders interessant für die Analyse von Lebensgewohnheiten, Verhalten und persönlicher Befindlichkeit.

Banking, Insurance & Finance

Big Data und Machine Learning Beispiele in Banking und Finance
  1. Fraud detection: Hohe Buchungen, ungewöhnliche Aktivitäten zum Monatsende oder das Ausbleiben von erwarteten Aktionen – es gibt viele Hinweise, Betrugsversuche zu detektieren und zu stoppen. Der Einsatz von Big Data ermöglicht hierzu eine effiziente Überprüfung.
  2. Kreditwürdigkeit / Loan Risk: Anstatt auf Regeln oder Scoringsysteme bei der Kreditvergabe zu vertrauen, werden immer mehr Banken zu Machine Learning Methoden übergehen, um eine Bandbreite an variablen Faktoren mit einzubeziehen. 
  3. Credit Card Churn: Wann erwarten wir, dass Kunden ihre Kreditkarte kündigen? Analyse und Vorhersage.
  4. Loan recommendation: Anhand des Konsum- und Sparverhaltens vorhersagen, wann und ob ein Kunde einen Kredit beabsichtigt. Möglich für Übergangskredite in kleinen Umfängen oder größeren Krediten zum Beispiel zum Hauskauf.
  5. Hauswertevaluation: A.I. basierte Bewertung eines Grundstücks oder Hauses. Gegenstandswert oder Lebensdauer auf dem markt.
  6. Versicherungsanspruchanomalien: Erkennung und Markierung von Anomalien beim Einreichen von Versicherungsansprüchen. Indikation der Wahrscheinlichkeit, dass der Versicherungsanspruch nicht korrekt ist.
  7. Banknotenvalidierung: Identifikation von gefälschten Banknoten, potentiell direkt am Schalter oder Geldautomat bei Ein- oder Ausgaben.
  8. Auto-Trader: Automatisiertes auf AI (oft Reinforcement Learning) basiertes Trading. Eine Art heiliger Gral ist selbstverständlich die Vorhersage von Marktbewegungen und entsprechendes Auslösen von Aktionen wie der Verkauf von Anteilen.
  9. Automatisiertes Rating: Unternehmen basierend auf einer Vielzahl an Faktoren in eine Ratingkategorie einordnen. Kann sowohl auf unsupervised Learning (z.B. Clustering) als auch Klassifikation (z.B. Neuronale Netze) basieren.
  10. Debt Collection: Kategorisierung von Schuldnern und entsprechende Wahrscheinlichkeit der Rückzahlung. Handlungsempfehlungen und entsprechende ROIs.

B2B, Einzelhandel (Retail) & E-Commerce

Big Data und Machine Learning Beispiele in Retail und E-Commerce
Big Data und Machine Learning Beispiele in Retail und E-Commerce
  1. Offer acceptance prediction: Wenn man ein Angebot erstellt, gibt es meist einige Parameter die man variieren kann (z.B. Preis, Lieferkonditionen) und fixe Parameter (z.B. Größe, Art des Unternehmens). Nutzt man beide Arten von Daten, kann man versuchen, eine Angebotsannahmewahrscheinlichkeit vorherzusagen.
  2. Customer Churn: Wiederkehrende Kunden haben meist einen immens hohen Lifetime Value, sind also sehr rentabel. Zu detektieren wann (bestimmte Segmente) der Kunden aufhören beim Unternehmen zu kaufen, erlaubt es, Gegenmaßnahmen zu ergreifen).
  3. Weather Prediction: Okay, Wettervorhersage ist eine schwierige Aufgabe, so man sich einige Wochen in der Zukunft befindet. Am gleichen Tag hingegen sind Vorhersagen gut möglich – und der Faktor Wetter hat vor allem bei diversifizierten Unternehmen einen hohen Einfluss auf den Absatz. Somit können Maßnahmen, wie beispielsweise das beworbene Produktsortiment im E-Commerce automatisiert angepasst werden.
  4. Product recognition & suggestion: E-Commerce Shops verlassen sich inzwischen nicht mehr nur auf ihre Textsuche, sondern bieten auch bildbasierte Suchen an. Dies geschieht durch Objekterkennung auf den übermittelten Bildern, um danach ein passendes Produkt aus dem eigenen Sortiment zu empfehlen. Besonders interessant ist dies im Fashion-Umfeld, bei dem Farbe, Muster oder Schnitt eine große Rolle spielen.
  5. Product Recommendation: Eines der größten Themen im E-Commerce sind (personalisierte) Produktempfehlungen, sowohl auf Frontseiten, Listerseiten als auch Produktdetailseiten. Hierzu kommen eine ganze Reihe an Vorhersage- und Empfehlungsalgorithmen zum Einsatz, die das Ziel haben, eine möglichst passende Empfehlung zu geben.
  6. Product Placement: Neben der personalisierten Empfehlung gibt es auch die Herausforderung im (Online-)Retail, passende Produkte gemeinsam zu platzieren. Assoziationsanalysen erlauben genau zu bestimmen, welche Produkte oft gemeinsam gekauft werden und somit eine prozessuale Nähe haben.
  7. Dynamic Pricing: Nicht nur diskrete Angebot- und Nachfrageinformationen bestimmen den Preis, sondern real-time dynamische, optimalerweise sogar personalisierte Metriken anhand des Verhaltens legen den Preiskorridor fest. Ein speziell spannender Anwendungsfall für Reinforcement Learning.
  8. Real time store behavior tracking: Wie bewegen sich Kunden durch ein Geschäft, was zieht sie an und wie sieht die customer journey aus? Alles mess- und analysierbar, um besser zu verstehen, was Kunden antreibt.
  9. Shopping Behavior Analysis: Ein klassisches Beispiel. Durch Kombination von verschiedenen Datenquellen und Analysemethoden kann das Kaufverhalten von Individueen oder Gruppen besser verstanden und folgend in Produktentwicklung, Einkaufsprozesse, Lmnenausstattung etc pp integriert werden. 

Healthcare, Sports & Fitness

Big Data und Machine Learning Beispiele in Sport und Gesundheit
Big Data und Machine Learning Beispiele in Sport und Gesundheit
  1. Individuelle Einstellung von Fitnessgeräten: Personalisierte Sitz- und Gewichtseinstellung mittels gespeicherter Daten, Kombination aus verschiedenen Datenquellen (Gewicht, Leistung, Essen..) und Vorhersage von Übungsart, -intensität und -dauer.
  2. Medikamenteneinnahme: Vorhersage von Wahrscheinlichkeiten, ob Patienten ihre Medikamente einnehmen anhand demografischen Faktoren, Medikationsdauer und -art und Krankheitsgeschichte.. Erlaubt die direkte Etablierung von Maßnahmen um eine Einnahme zu gewährleisten.
  3. (Brust-)Krebserkennung: Radiologen haben die Aufgabe, auf Röntgenbildern zu entscheiden, ob ein Krebs vorliegt oder nicht. Dies kann mittels Bilderkennung und Machine Learning unterstützt oder sogar ersetzt werden.
  4. Drug creation: Erstellung von Medikamenten basierend auf Artificial Intelligence. 
  5. Team composition: Vorhersage des besten Teams für den Gegner. Berücksichtigung von individuellen Stärken und Teamsynergien.
  6. Trading & Drafting Prediction: Vorhersage von Leistung von Sportlern im Teamsport um Entscheidungen beim Spielerhandel zu unterstützen.
  7. Verletzungsvorhersage & -prävention: Vorhersage von Verletzungen und entsprechende Gegenmaßnahmen. 
  8. Gesundheitsüberwachung: Durch Smart Devices, zum Beispiel Fitnessarmbänder, wird es immer einfacher sein, dass Patienten wieder schneller Zuhause und aktiv sind. Um Gefahren vorzubeugen, können diese IoT devices mit AI angereichert werden, um proaktiv bei Veränderung des Zustandes zu reagieren.
  9. Patient prioritisation: Mittels Patientendaten und historischer Krankheitsverläufe kann die Patientenversorgung priorisiert werden. Ziel ist eine Senkung der Mortalitätsrate und Verringerung der Auslastung.

Marketing & Sales

Big Data und Machine Learning Beispiele im Marketing
Big Data und Machine Learning Beispiele im Marketing
  1. Demand Forecasting: Mittels einer Kombination von Webscraping und Predictive Analytics kann man versuchen, seinen Demand vorherzusagen. Besonders hilfreich um Promotionen und Produktion zu steuern.
  2. Customer Clustering: Um Marketingmaßnahmen zu personalisieren, wird Unsupervised Learning eingesetzt, um Kunden auf Basis ihrer Stammdaten und ihrem Verhalten in ähnliche Gruppen zusammenzufassen. 
  3. Service Recommendation: Bietet man einen Service in verschiedenen Ausprägungen an, macht es Sinn, immer den passenden für einen neuen Kunden auszuwählen. Recommendation und Assoziationsanalysen ermöglichen dies.
  4. Sentiment Analysis: Das klassischste aller Beispiele im Bereich Natural Language Processing. Durch Sentimentanalyse kann Text auf die darunterliegende Emotion – positiv, neutral oder negativ – untersucht werden. Dies erlaubt es, zum Beispiel in Social Media Daten oder anderen Textquellen Einblicke in die Gefühle der Kunden zu bekommen.
  5. Automatisierte Kommentare: Um eine Interaktion zwischen Organisation und dessen Kunden zu gewährleisten, können Bots entwickelt werden, die versuchen auf Fragen oder Kommentare auf Drittplattformen adäquat mit Links oder Antworten zu reagieren.
  6. Social Alerting: Überwachung von sozialen Medien um bei Ausschlägen (positiv oder negativ) eine automatische Nachricht zu bekommen. Besonders effektiv für “viral” oder “shitposts”.
  7. Marketing campaign success: Messen, analysieren und Prediktion des Erfolgs von Marketingkampagnen wie Werbung, Promotion oder ähnlichem.
  8. Corporate Communication Analysis: Während obige NLP use cases vor allem auf Kundentext eingehen, kann man auch die unternehmenseigene Aussenkommunikation evaluieren. Vor allem schnell zu generierende Texte wie bei Twitter, Amazon oder YouTube, aber auch statische Texte wie Presseberichte lassen sich auf Sentiment, SEO und andere sprachliche Aspekte analysieren.
  9. Influencer Detection: Analyse von Stichwörtern im Themenbereich um Influencer zu identifizieren und ggf. eine Zusammenarbeit zu etablieren. Einsatz eines Crawlers und Natural Language Processing um die Datenmengen sauber erfassen zu können.
  10. Channel value: Messung des Werts aller Kanäle mittels Entwicklung von KPIs und entsprechender Datenakquise. Auswertung im Bezug auf verschiedene Kundengruppen, zukünftige Entwicklung und Potential.
  11. Channel consistency: Überprüfung der Konsistenz von Nachrichten und eingesetztem Bild- / Video- / Audiomaterial über alle Kanäle. Identifikation von Ausreißern oder veraltetem Material, um ein homogenes Bild der Außendarstellung zu erwirken – falls gewünscht.
  12. Data-driven Customer Journey: Identifikation von Datenquellen um eine Customer Journey zu quantifizieren, entsprechende Analyse und optimalerweise Vorhersage des nächsten Schritts für alle Leads. Dadurch werden Ansatzpunkte zur positiven Beeinflussung geschaffen.

Produkte, Forschung und Produktentwicklung 

Big Data und Machine Learning Beispiele in der Produktentwicklung
Big Data und Machine Learning Beispiele in der Produktentwicklung
  1. Backlog clustering: Welche Features sind als nächstes zu entwickeln? Mittels Messung und Analyse erlaubt es, den größten impact im Backlog zu identifizieren.
  2. Topic modeling: Analyse von Texten erlaubt es, bestimmte Themengebiete zu extrahieren, um die sich die Gespräche drehen. Dies kann als Basis genutzt werden, um produktspezifisches Feedback zu erhalten oder neue Richtungen für Entwicklung zu definieren.
  3. Customer review analysis: Eine weitere Variante von Text Mining. Indem man Reviews von Plattformen wie Amazon oder Google analysiert, kann man die generelle Meinung der Kunden, als auch Aspekt-basierte Verbesserungsvorschläge zu den eigenen Produkten extrahieren.
  4. Launch success: Vorhersage des Erfolgs (binär) eines Produkts und gegebenenfalls von initialen Verkaufszahlen. 
  5. Life Cycle Prediction: Prädiktion des Lebenszyklus eines Produkts. Von Launch über Reife bis zur Degeneration. Erlaubt entsprechende Planung von Kampagnen und Produktionsplanung.
  6. Generative Design: Mittels neuronaler Netze können Produktbilder generiert werden, ohne einen Designer hinzuzuziehen. Besonders spannend bei schnelllebigen Produkte oder als Inspiration für die Fachexpertise aus der Designabteilung.
  7. Trend Analysis: Monitoring von relevanten Kanälen (Nachrichten, Social Media, Reviews..) und Ableitung von Markttrends. Identifikation von aufsteigenden Begriffen in Zusammenhang mit dem eigenen Themenbereich und folgende Strategieanpassung.
  8. Competitor Monitoring: Konsolidierung einer Bandbreite an Datenquellen zur Überwachung der Aktivitäten von Mitbewerbern. Auswertung mittels NLP, Text Mining und Data Mining, um zu identifizieren wohin sich einerseits der Markt, andererseits spezifische Konkurrenten hin entwickeln.

HR, Employees & Education

Big Data und Machine Learning Beispiele in HR und Bildung
Big Data und Machine Learning Beispiele in HR und Bildung
  1. Employee Churn: Vorhersage des Austritts von Mitarbeitern mittels Klassifikation. Trainingsdaten sind meist Stammdaten (Alter, Geschlecht, Bildung, ..) und Verhaltensdaten (Zeiterfassung, Softwarenutzung, Fortbildung, ..). Erlaubt aktive Maßnahmen um Mitarbeiter zu halten und Aufwand durch Neubesetzung von Stellen zu vermeiden.
  2. Personalisierte (Fort-)Bildung: Durch Prädiktion oder Collaboratives Filtering können Programme und Kurse ausgewählt werden, die passend zum Mitarbeiter sind.
  3. Team selection: & composition Anhand von Erfolgsmetriken abhängig der Aufgabe, kann dasam besten passende Team für ein Projekt ausgewählt werden. 
  4. Workforce planning: Wie viele Mitarbeiter wann wie lange an welchem Ort benötigt werden, kann durch Kombination verschiedener Machine Learning Algorithmen bestimmt werden.
  5. Student performance: Prediktion des Erfolgs von Studenten. Wahrscheinlichkeit, Kurse zu bestehen oder Vorhersage der Endnote. Ggf. Selektion von passenden unterstützenden Maßnahmen.
  6. “Voice of the employee”: Textverarbeitung von Feedback und Kommentaren von Mitarbeitern erlaubt es, sowohl Sprachfärbung als auch Themen zu identifizieren, um diese eingehender kollektiv zu betrachten.

Logistik, Warehousing & Supply Chain

Big Data und Machine Learning Beispiele in Logistik und Supply Chain
Big Data und Machine Learning Beispiele in Logistik und Supply Chain
  1. Delivery routing: Ein klassisches Thema, mit Unterstützung von AI jedoch eine sehr effizientere Herangehensweise, da sie auch andere Faktoren wie Verkehrsaufkommen oder Priorität einfach mit einbeziehen kann.
  2. Logistics tracking: Ein sinnvolles Vorgehen für interne Effizienzanalysen einerseits, für das Kundenerlebnis andererseits. Generiert sehr große Datenmengen, die in real-time verarbeitet werden müssen.
  3. Stock level alerts: Vorhersage von durch veränderten Bedarf geänderte Anforderung auf die Lagerhaltung. Alarme und Benachrichtigung, so kritische Veränderungen detektiert werden.
  4. Retail replenishment: Durch den Einsatz von Verteilungsalgorithmen ist es möglich, vollautomatisiert auf Anforderungen des Einzelhandels mittels der Orchestrierung von Verteilzentren zu reagieren. Dies kann sich in rollenden Daten (Ramp-Up über den Tagesverlauf) oder Peaks (Ausverkauf) wiederspiegeln.
  5. Fully automated Warehouse: Mittels automatisierter Wegfindung und Bildverarbeitung / Machine Vision (z.B. Barcodes, Umgebung, Lauflinien) können autonom agierende Roboter sowohl Picking als auch Packaging übernehmen. 
  6. Peak hour prediction: Vorhersage von Arbeitsaufkommen und entsprechende Verteilung auf pre-Aufkommenszeit. Alternativ entsprechendes Workforce Management, um Peaks abzufangen.

Kundendienst, Service & Support

Big Data und Machine Learning Beispiele im Kundendienst und Service
Big Data und Machine Learning Beispiele im Kundendienst und Service
  1. Replacement part recognition: Bilderkennung und-klassifizierung erlaubt es, Kunden bei ihrer Suche nach Ersatzteilen direkt passende Produkte vorzuschlagen. Interessant für B2C und B2B gleichermaßen.
  2. Chatbots: Ob B2B oder B2C – Chatbots sind seit einigen Jahren eine der besten Methoden um den Kundensupport zu entlasten und seinen Kunden rund um die Uhr mit Lösungen und Informationen zur Verfügung zu stehen.
  3. Incoming call classification: Kategorisierung von Anrufern und deren Anliegen auf entsprechende Kundenserviceteams oder Support Level.
  4. Automated ticket answering: Aus Antworten von Service Mitarbeitern werden automatisiert Antworten vorformuliert und ggf. auf Standardokumentationen wie FAQs verwiesen.
  5. Reparaturkostenvorschlag: Basierend auf bisherigen Daten zur Annahme von Reparaturvorschlägen und deren Effizienz können automatisiert Reparaturkostenvorschläge entwickelt werden.
  6. Saisonale Vorhersagen für Servicebedarf: In vielen Unternehmen gibt es saisonale Schwankungen bei der Nutzung ihrer Produkte (Sport, Heimwerker, Garten). Diese Information kann man einfließen lassen, um entsprechende Kapazitäten in Supportfunktionen vorzubereiten.
  7. Serviceanfragen als Produktentwicklung: Durch Textanalyse von Serviceanfragen können wichtige Themen und negative Aspekte an Produkten und Services erkannt und somit verbessert werden. 
  8. Vorhersage von Servicetechnikerbedarf: Prädiktion von Bedarf um Technikereinsatz zu planen. Berücksichtigung von Absatz, Haltbarkeit, Saison, Wetter und vieles mehr. 

Kilian