Beiträge

Interview: Wirtschaftlichkeitsbetrachtung von Data Science Anwendungen im eCommerce und Handel

Interview mit Herrn Nicolas March von der REWE Group/REWE Digital GmbH über die Wirtschaftlichkeitsbetrachtung von Data Science Anwendungen im eCommerce und Handel. 

Herr Dr. Nicolas March ist Head of Analytics bei der REWE Digital – einem Unternehmen der REWE Group. Der promovierte Betriebswirt beschäftigt sich seit über 15 Jahren mit Business Intelligence und Advanced Analytics in unterschiedlichen Branchen, wie Handel, Telekommunikation und verarbeitender Industrie. Vor seiner Zeit bei REWE digital war er IT Consultant in der Digital Division der Accenture GmbH.

Herr March, in welchem Verhältnis stehen Big Data, Data Science, Machine Learning und Künstliche Intelligenz Ihrer Erfahrung und Ansicht nach untereinander?

Zunächst sind das keine überschneidungsfreien Begriffe oder Bereiche. So sind sehr häufig Data Science Anwendungen der analytische Kern in einem Big Data Produkt, beispielsweise ein Empfehlungsalgorithmus in einem Webshop. Die Big Data Technologien ermöglichen einerseits das Handling der extremen Datenmengen aus Web- und Kassensystemen, andererseits geben sie den technologischen Rahmen für die Integration der Auswertungsmethoden vor. Das kann eine einfache Heuristik sein oder z. B. eine Methode des maschinellen Lernens, mit deren Hilfe man Erkenntnisse aus den Daten extrahiert. Ist der Grad des selbständigen Erkenntnisgewinns und der automatisierten Verwendung durch die technische Methode sehr hoch, kann man aus meiner Sicht von einem Verfahren der „künstlichen Intelligenz“ sprechen. Da dies häufig durch Verwendung von Deep Learning Algorithmen bzw. mit neuronalen Netzen umgesetzt wird, werden diese Methoden auch häufig mit KI gleichgestellt.

Wer ist in Ihrer Branche denn der Hauptantreiber der Datennutzung? Geht dieser Drang eher von der Geschäftsführung aus oder von den Fachabteilungen?

Im LEH hat man erkannt, dass der Kunde ein möglichst auf seine Bedürfnisse abgestimmtes Einkaufserlebnis verlangt. Das geht mit einer zunehmenden Digitalisierung des Einkaufsprozesses im stationären Handel als auch mit der Bereitstellung von Online-Liefer- und Abholservices einher, bei denen der Kunde über Website und Mobile-App die Ware bestellen kann. Das dann – im Rahmen der gesetzlichen Vorgaben – die anfallenden Daten z. B. für die Personalisierung im Marketing oder eine effiziente Produktentwicklung nutzbar gemacht werden kann, versteht sich von selbst. Daneben ist den Entscheidern aber auch bewusst, dass man durch die Digitalisierung insbesondere auf Basis von Data Science Anwendungen bestehende Prozesse optimieren kann und muss, um wettbewerbsfähig zu bleiben.

Bei der Gründung von REWE digital hat man diese Ziele von Anfang an ausgelobt, so dass datengestütztes Arbeiten und Entscheiden ein grundsätzliches Leitprinzip darstellt. Dieser Fokus ist also in der DNA des Unternehmens verankert und wird sowohl von den Mitarbeitern der Fachabteilungen als auch der Geschäftsführung gelebt und eingefordert. Aber natürlich ist die Intensität dieser Leitlinie in den Fachabteilungen durchaus unterschiedlich ausgeprägt.

Wie gewährleisten Sie eine angemessene ROI-Einschätzung (Return-on-Investment)? Und wie stellen Sie sicher, dass die Produktentwicklung diesen ROI-Gedanken beibehält?

Bei REWE digital ist die Analytics Abteilung in den Produktentwicklungs- und Portfolio-Prozess eingebunden – und zwar von Beginn an. Das gilt nicht nur für viele Big Data Produkte mit einem analytischen Kern, bei denen wir ohnehin an Bord sind, sondern für beinahe alle Initiativen. In einer agilen Produktentwicklung soll möglichst jeder die Möglichkeit haben, Ideen und Initiativen einzubringen, die das Business vorantreiben. Der Vielzahl an aufkommenden Ideen stehen jedoch häufig begrenzte Ressourcen gegenüber. Um diese bewerten und ressourcenschonend umzusetzen, liefern unsere Analytiker zu jeder Initiative bzw. Idee das unterstützende Zahlenwerk. Beispielsweise erstellen wir Vorabanalysen zur Bestimmung, ob die Grundannahmen einer Initiative richtig sind und sich ggf. bereits in den vorhandenen Daten auch wiederfinden. Zudem helfen wir den Product Ownern auch während der Initiative, in dem wir einfache Anpassungen oder den MVP durch A/B- und Hypothesentests frühzeitig auf Werthaltigkeit überprüfen. Auch nach dem Go-Live wird mit unserer Hilfe geprüft, ob die gesetzten Ziele erreicht wurden. Mit diesen Analysen und A/B-Tests vor, während und nach der Entwicklung helfen wir dem CPO (Chief Product Owner), ein fundiertes Portfolio zusammenzustellen, Erkenntnisse für zukünftige Initiativen zu gewinnen und den ROI seiner Maßnahmen zu sichern. Dafür ist die Produktentwicklung dankbar und nimmt unseren Support gerne in Anspruch.

Welche Anwendungsfälle sehen Sie zurzeit als die wichtigsten im Kontext der Datennutzung? Und welche Themen hätten durchaus noch ein paar Jahre Zeit?

Natürlich sind weiterhin viele Analytics Themen auf die Kundenanalyse ausgerichtet und dienen insbesondere dem Marketing und der Produktentwicklung z. B. im Rahmen der Personalisierung. Den traditionellen Unternehmen ist aber bewusst geworden, dass Analytics eine Querschnittsfunktion ist, die in vielen Bereichen große Potentiale freisetzen kann. Das Thema „Supply Chain Analytics“ verspricht ein riesiges Potential, da mit Big Data und Data Science noch viele kostenintensive Prozesse optimiert werden können. Im Handel sind das beispielsweise Anwendungsfälle, wie die optimale Kapazitäts- und Warenbestellprognose mit Big Data Technologien zur Vermeidung von Abschriften und Stock-out. Aber auch kleinere Prozesse, wie die Standzeitenschätzung von Lieferfahrern helfen, den Personaleinsatz zu optimieren.

Ein weiteres Gebiet, das aus meiner Sicht in allen mir bekannten Unternehmen ein noch großes Entwicklungspotential verspricht, ist „People Analytics“ –  gerade weil die Investition in den Faktor „menschliche Arbeitskraft“ häufig einer der größten Kostenpositionen darstellt. Daher rückt auch in den HR Abteilungen das datengetriebene, analytische Arbeiten mehr und mehr in den Fokus. Anwendungsfälle, wie die Erfolgsanalyse von Recruiting-Kampagnen oder die Prognose von Mitarbeiter-Churn kann für Arbeitgeber ein Wettbewerbsvorteil im hart umkämpften Arbeitsmarkt sein. Zu bedenken ist dabei immer, dass dieses Thema in den HR-Abteilungen aufgrund der personenbezogenen Daten zu Recht mit großer Sensibilität und Vorsicht angefasst wird. People Analytics bedeutet für mich aber nicht die Überwachung des einzelnen Arbeitnehmers, sondern vielmehr die Möglichkeit, seine Arbeitsumgebung durch Analyse anonymisierter Daten optimal auf ihn anzupassen und dadurch seine Zufriedenheit in beiderseitigem Interesse zu erhöhen.

Wenn ich darüber nachdenke, welche Themen im Online-Lebensmittelhandel noch Zeit haben, dann sind das wahrscheinlich Künstliche Intelligenz in der Robotics oder der Warendistribution. Es ist sicherlich hoch spannend, wenn in der Zukunft Pick&Place Roboter auch die Tüten packen und Lieferfahrzeuge beladen könnten.  In unserer Branche denken bestimmt auch viele über die autonome Auslieferung nach. Allerdings ist die Komplexität dieser Anwendungsfälle sehr hoch und es wird bis zu deren wirtschaftlichem Einsatz ohne die Einbindung menschlicher Arbeitskraft sicher noch dauern.

Wie setzt sich Ihr Team zusammen? Unterscheiden Sie strikt zwischen Data Engineer und Data Scientist?

Unsere Data Scientists arbeiten eng mit Data Engineers zusammen. Ich habe noch selbst viele Datenquellen erschlossen und deren Transformation vorgenommen, bevor mit der Erstellung komplexer Modelle begonnen wurde. Da die Infrastrukturlandschaft aber vielseitiger und komplexer geworden ist und sich nicht mehr nur auf eine Hand voll relationaler Datenbanksysteme oder weniger Message Services beschränkt, sind erfahrene Data Engineers für deren Nutzbarmachung unerlässlich. Data Engineers müssen wissen, wie sie unterschiedliche Quellsysteme in die Analyseumgebungen integrieren und auch häufig die Fachlichkeit in den Daten verstehen. Es kann vorkommen, dass dabei auch mit Rechenmethoden und Frameworks bereits Daten voraggregiert werden oder in KPIs überführt werden. Die Modellierung zur Entwicklung eines Produkts oder eines analytischen Prozesses ist bei uns aber weiterhin eher der Job des Data Scientists.

Wie schaffen Sie die Integration von Analysten und Data Scientists sowie Software Entwicklern für die Produktentwicklung?

Unser Team an Data Scientists wird grob in zwei Bereichen eingesetzt. Zum einen entwickeln sie prototypische Modelle zur Verbesserung von Prozessen in den Fachabteilungen. Geht es zum anderen von Beginn an um die Erstellung eines Softwareprodukts mit einem analytischen Kern – wie eine Empfehlungsmodul im Webshop -, ist der Data Scientist ein Teil des agilen Entwicklungsteams und bringt die analytische Kompetenz mit ein. Unsere Data Scientists arbeiten dann im Tagesgeschäft als vollwertiges Mitglied im SCRUM-Modus in einem der Big Data oder Plattform-Teams mit. Diese Integration hat für beide Seiten große Vorteile. Die Developer haben stets einen Analytiker im Team der die Datenlage, Anforderungen und Prozesse des Business sehr genau kennt und dieses Wissen mit in das Team einbringt. Andererseits versteht der Data Scientist den Softwareentwicklungsprozess und bekommt mit, wie beispielsweise technische Limits ein konzeptionelles Modell ggf. nicht unterstützen. Durch Rotation und Wechsel zwischen diesen Einsatzszenarien wollen wir sicherstellen, dass die Data Scientists sehr vielseitig einsetzbar sind und gleichzeitig ihre Methodenkompetenz stets ausbauen können.

Letzter Aufruf: Wir suchen noch genau einen Volunteer für den Data Leader Days 2018

Die Data Leader Days sind das Entscheider-Event für die Datenwirtschaft. Die Fachkonferenz hat sich seit Gründung im Jahr 2016 als eines der exklusivsten Events rund um die Themen Big Data und künstliche Intelligenz etabliert. In diesem Jahr werden die Data Leader Days erstmalig auf zwei Tage mit unterschiedlichen Schwerpunkten erweitert:

14. November 2018: Commercial & Finance Data

15. November 2018: Industrial & Automotive Data

Für alle Studenten mit Bezug zum Data Science: Wir bieten Euch Kontakte zu vielen potenziellen Arbeitgebern sowie viel Wissenswertes über Big Data und KI in der Unternehmenspraxis:

Sei Volunteer für die Data Leader Days 2018 in Berlin: www.dataleaderdays.com. Schreibe mir hier via Xing.com oder direkt an linhchi.nguyen@datanomiq.de

Interview: Dem Wettbewerb voraus mit Künstlicher Intelligenz

Interview mit Benjamin Aunkofer, Chief Data Scientist bei DATANOMIQ Applied Data Science, über die Anwendungen, die KI schon heute übernehmen kann und was bis 2020 auf deutsche Unternehmen zukommt.

Benjamin Aunkofer ist Chief Data Scientist bei DATANOMIQ und befasst sich mit Data Science und Machine Learning im Kontext von Business Analytics. Er ist in der Praxis und in der Lehre tätig. Neben dem täglichen Beratungsgeschäft arbeitet Herr Aunkofer mit seinem Team an einer Artificial Intelligence Enterprise Integration, einer universellen Plattform für KI im Unternehmen.

Möchten Sie Herrn Aunkofer persönlich kennenlernen? Treffen Sie ihn persönlich an einem der beiden Data Leader Days 2018 (www.dataleaderdays.com).

1. Herr Aunkofer, Künstliche Intelligenz scheint das Buzzword für 2018 zu sein. Alles nur Hype?

Big Data war das Buzzword der vergangenen Jahre und war – trotz mittlerweile etablierter Tools wie SAP Hana, Hadoop und weitere – betriebswirtschaftlich zum Scheitern verurteilt. Denn Big Data ist ein passiver Begriff und löst keinesfalls auf einfache Art und Weise alltägliche Probleme in den Unternehmen. Soweit liegen Kritiker richtig.

Dabei wird völlig verkannt, dass Big Data die Vorstufe für den eigentlichen Problemlöser ist, der gemeinhin als Künstliche Intelligenz (KI) bezeichnet wird. KI ist ein Buzzword, dessen langfristiger Erfolg und Aktivismus selbst von skeptischen Experten nicht infrage gestellt wird. Daten-Ingenieure sprechen im Kontext von KI hier aktuell bevorzugt von Deep Learning; wissenschaftlich betrachtet ein Teilgebiet der KI. Da die meisten Leser mit dem Begriff „KI“ wohl eher Hollywood-Bilder im Kopf haben, versuche ich begrifflich bei „Deep Lerning“ zu bleiben. Ich entschuldige mich aber im Voraus dafür, dass ich dann doch wieder selbst von KI sprechen werde, damit dann aber im Kern Deep Learning meine.

2. Was kann Deep Learning denn schon heute im Jahr 2018?

Deep Learning Algorithmen laufen bereits heute in Nischen-Anwendungen produktiv, beispielsweise im Bereich der Chatbots oder bei der Suche nach Informationen als Suchmaschine. Sie übernehmen ferner das Rating für die Kreditwürdigkeit und sperren Finanzkonten, wenn sie erlernte Betrugsmuster erkennen. Im Handel findet Deep Learning bei bestimmten Pionieren die optimalen Einkaufsparameter sowie den besten Verkaufspreis, zumindest für ausgewählte Produktgruppen.

Getrieben wird Deep Learning insbesondere durch prestigeträchtige Vorhaben wie das autonome Fahren, dabei werden die vielfältigen Anwendungen im Geschäftsbereich oft vergessen.

3. Wo liegen die Grenzen von Deep Learning?

Und Big Data ist das Futter für Deep Learning. Daraus resultiert auch die Grenze des Möglichen, denn für strategische Entscheidungen eignet sich KI bestenfalls für das Vorbereitung einer Datengrundlage, aus denen menschliche Entscheider eine Strategie entwickeln. KI wird zumindest in dieser Dekade nur auf operativer Ebene Entscheidungen treffen können, insbesondere in der Disposition, Instandhaltung, Logistik und für den Handel auch im Vertrieb – anfänglich jeweils vor allem als Assistenzsystem für die Menschen.

Sicherlich gibt es immer auch eher frustrierende Erfahrung mit Deep Learning. Es gibt immer noch etliche Bugs in Bilderkennungssoftware und auch Chatbots oder Assistenzsystem wie Alexa, Cortana oder Siri sind nicht ohne Frustpotenzial, da alles noch nicht reibungslos funktioniert. Vor zwei Jahrzehnten waren Touchscreens oder internetfähige mobile Endgeräte nicht frustfrei nutzbar, heute jedoch aus unserem Alltag nicht mehr wegzudenken. Ähnlich wird sich das auch mit künstlicher Intelligenz verhalten.

Genau wie das autonome Fahren mit Assistenzsystemen beginnt, wird auch im Unternehmen immer mehr die KI das Steuer übernehmen.

4. Was wird sich hinsichtlich KI bis 2020 tun? Wie wird sich der Markt wandeln?

Derzeit stehen wir erst am Anfang der Möglichkeiten, die Künstliche Intelligenz uns bietet. Das Markt-Wachstum für KI-Systeme und auch die Anwendungen erfolgt exponentiell. Entsprechend wird sich auch die Arbeitsweise für KI-Entwickler ändern müssen. Mit etablierten Deep Learning Frameworks, die mehrheitlich aus dem Silicon Valley stammen, zeichnet sich der Trend ab, der für die Zukunft noch weiter professionalisiert werden wird: KI-Frameworks werden Enterprise-fähig und Distributionen dieser Plattformen werden es ermöglichen, dass KI-Anwendungen als universelle Kernintelligenz für das operative Geschäft für fast alle Unternehmen binnen weniger Monate implementierbar sein werden.

Wir können bis 2020 also mit einer Alexa oder Cortana für das Unternehmen rechnen, die Unternehmensprozesse optimiert, Risiken berichtet und alle alltäglichen Fragen des Geschäftsführers beantwortet – in menschlich-verbal formulierten Sätzen.

Der Einsatz von Künstlicher Intelligenz zur Auswertung von Geschäfts- oder Maschinendaten ist auch das Leit-Thema der zweitägigen Data Leader Days 2018 in Berlin. Am 14. November 2018 sprechen renommierte Data Leader über Anwendungsfälle, Erfolge und Chancen mit Geschäfts- und Finanzdaten. Der 15. November 2018 konzentriert sich auf Automotive- und Maschinendaten mit hochrangigen Anwendern aus der produzierenden Industrie und der Automobilzuliefererindustrie. Seien Sie dabei und nutzen Sie die Chance, sich mit führenden KI-Anwendern auszutauschen.

Interview mit Dr. Christina Bender von Villeroy & Boch

Interview mit Dr. Christina Bender über die Digitalisierung und Data Science in einem 270-jährigem Familienunternehmen.

Dr. Christina Bender ist Senior Digital Strategist mit Schwerpunkt auf Data Science bei der Villeroy & Boch AG. Sie ist Diplom-Finanzökonomin und promovierte Mathematikerin. Als „Quant“ bei der UniCredit und Unternehmensberaterin bei der d‑fine GmbH sammelte sie bereits langjährige Erfahrung in der Konzeption und Umsetzung interdisziplinärer Digitalisierungs- und Prozessthemen in diversen Branchen. Als letzte Herausforderung im „echten“ Beraterleben hat sie bei d-fine als Prokuristin den Geschäftsbereich „Digitalisierung im Gesundheitswesen“ mit aufgebaut.

Data Science Blog: Frau Dr. Bender, womit genau befassen Sie sich als Digital Strategist? Und wie passt Data Science in dieses Konzept?

Zunächst war es die Aufgabe eine digitale Roadmap zu entwickeln und zwar abgestimmt auf ein Traditionsunternehmen, das sich in den letzten 270 Jahren ständig durch Innovation verändert hat. Als Beispiel, V&B hatte einen erfolgreichen „Merger“ vollzogen, da gab es das Wort „M&A“ noch gar nicht.

Ein erster Schritt war es dabei Themen zu sammeln und ein Vorgehen zu entwickeln, diese zu verstehen, zu priorisieren und sie dann stets als Ziel im Blick umzusetzen. Die meisten der Themen haben immer mit Daten und damit häufig mit Data Science zu tun. Das geht von Fragestellungen z.B. im Vertrieb, die durch einen Bericht im ERP-System abbildbar sind, bis hin zu komplexen Fragen der Bild­er­kennungstechnologie in der Produktion oder im Customer Relationship Management.

Um weiterhin die wirklich wichtigen Themen zu finden, ist es entscheidend die Chancen und Risiken der Digitalisierung und den Wert der richtigen Daten weit in die Fläche des Unternehmens zu tragen. Dieser Aufbau interner Kompetenzen durch uns als Digital Unit schafft Vertrauen und ist neben dem Vorantreiben konkreter Anwendungsfälle essentieller Bestandteil für eine erfolgreiche Digitalisierung.

Data Science Blog: An was für Anwendungsfällen arbeiten Sie konkret? Und wohin geht die Reise langfristig?

Derzeit arbeiten wir sowohl an kleineren Fragestellungen als auch an ca. vier größeren Projekten. Letztere sollen pain points gemeinsam mit den Fachexperten lösen und dadurch zu Leuchtturm­projekten werden, um eben Vertrauen zu schaffen. Dafür müssen wir ein “Henne-Ei”-Problem lösen. Oft sind die richtigen Daten für die Fragestellung noch nicht erfasst und/oder einige Menschen involviert, die eben erst durch ihnen nahestehende Leuchtturmprojekte überzeugt werden müssten. Daher arbeiten wir für eine erfolgreiche Umsetzung mit im täglichen Geschäft involvierten Fachexperten und erfahrenen Data Scientists mit gewissem Fach-Know-How, die uns einen gewissen Vertrauensvorsprung geben.

Das dauert seine Zeit, insbesondere weil wir stark agil vorgehen, um uns nicht zu verheddern. D.h. oft sieht eine Fragestellung am Anfang leicht aus und ist dann schlicht weg nicht realisierbar. Das muss man dann akzeptieren und eben auf die nächst priorisierte Fragestellung setzen. “Keramik ist halt anders als die Autoindustrie.” Über genaue Use Cases möchte ich daher noch nicht sprechen. Wir sind auf einem guten Weg.

Langfristig wünsche ich mir persönlich, dass Werte aus Daten – insbesondere bessere Ent­schei­dun­gen durch Wissen aus Daten – möglichst selbständig durch Business-Experten geschaffen werden und dies durch ein schlagkräftiges zentrales Team ermöglicht wird. D.h. das Team sorgt für eine entsprechen­de stets aktuell für Data Science geeignete Infrastruktur und steht bei komplexen Fragestellungen zur Verfügung.

Data Science Blog: Welche Algorithmen und Tools verwenden Sie für Ihre Anwendungsfälle?

Wir arbeiten auch mit Methoden im Bereich „Deep Learning“, zum Beispiel für die Bilderkennung. Allerdings gerade um die Erwartungshaltung im Unternehmen nicht zu hoch zu hängen, schauen wir immer wofür sich diese Methodik eignet und wo sie nicht unsere eigentliche Frage beantworten kann (siehe unten) oder schlicht weg nicht genügend Daten verfügbar sind. Insbesondere, wenn wir die eigentlich Ursache eines Problems finden und darauf reagieren wollen, ist es schlecht, wenn sich die Ursache „tief“ im Algorithmus versteckt. Dafür eignet sich z.B. eine logistische Regression, sofern gut parametrisiert und mit gut aufbereiteten Daten befüttert, häufig deutlich besser.

Wir nutzen kostenpflichtige Software und Open Source. Wunsch wäre, möglichst jedem im Unternehmen die richtige Anwendung zur Verfügung zu stellen, damit sie oder er leicht selbst die richtige Exploration erstellen kann, um die richtige Entscheidung zu treffen. Für den Data Scientist mag das ein anderes Tool sein als für den Fachexperten im Geschäftsbereich.

Data Science Blog: Daten werden von vielen Unternehmen, vermutlich gerade von traditionsreichen Familienunternehmen, hinsichtlich ihres Wertes unterschätzt. Wie könnten solche Unternehmen Daten besser bewerten?

Unternehmen müssen sich genau überlegen, was die für sie richtigen Fragen sind. Aus welchen Daten oder deren Verknüpfung kann ich Wissen generieren, dass diese für mich relevante Fragen (überhaupt) beantwortet werden können, um mit vertretbarem Aufwand nachhaltig Mehrwerte zu generieren. Natürlich sind die schlimmsten „pain points“ immer am schwierigsten, sonst hätte sie vermutlich jemand vor mir gelöst. Dies wird stets begleitet, warum mit den schon gesammelten Daten noch kein Mehrwert generiert wurde und somit ggf. begründet warum kein (Zeit-)Budget frei gegeben wird, um weitere (dann hoffentlich die richtigen) Daten zu sammeln.

Als erstes ist es m.E. daher wichtig dem Entscheidungsträger klar zu machen, dass es keine Maschine gibt in die ggf. wahllos gesammelte Daten reingeworfen werden und die „KI“ spuckt dann die richtigen Antworten auf die richtigen nie gestellten Fragen heraus. Denn gäbe es diese Art künstlicher Intelligenz, wäre der Erfinder wohl längst der reichste Mensch der Welt.

Nein, dafür wird menschliche Intelligenz gebraucht und Freiraum für die Mitarbeiterinnen und Mitarbeiter, die richtigen Fragen und Antworten zu suchen und auch auf diesem Weg manchmal kurzfristig zu scheitern. Kurz gesagt, braucht es eine Datenstrategie, um alle, Vorstand und Mitarbeiterinnen und Mitarbeiter, auf diesen Weg mitzunehmen.

Data Science Blog: Wie erstellen Unternehmen eine Datenstrategie?

Unternehmensleiter wollen Ergebnisse sehen und verstehen oft nicht gleich, warum sie Geld in Daten investieren sollen, wenn erst mittel- bis langfristig ein Mehrwert herausspringt. Die alleinige Drohkulisse, wenn nicht jetzt, dann eben in 10 Jahren ohne uns, hilft da oft nur bedingt oder ist gar kontraproduktiv.

Wichtig ist es daher, alle an einen Tisch zu holen und gemeinsam eine Unternehmensvision und Ziele zu diskutieren, zu begreifen und zu vereinbaren, dass Daten dafür ein Faktor sind (oder ggf. vorerst auch nicht). Noch wichtiger ist der Weg dahin, die Datenstrategie, nämlich wie aus Daten langfristig nachhaltige Mehrwerte gehoben werden.

Um eine Datenstrategie zu erstellen, braucht es eine gewisse Mindestausstattung einerseits an dafür zumindest zum Teil freigestellten Experten aus dem Business und anderseits Datenexperten, die mit diesen Experten reden können. Sie müssen nach erfolgreicher Zielbildung einen minimalen Werkzeug­kasten aus KnowHow und Technologie schaffen, der es erst ermöglicht Leuchtturmprojekte erfolgreich umzusetzen. Diese Leuchtturmprojekte dienen als erste erfolgreiche Beispielwege. Damit fällt es auch leichter den Werkzeugkasten als Grundlage zur Lösung größerer pain points weiter auszubauen. In Zeiten, wo halbwegs kommunikative Data Scientists mit Businessverständnis Mangelware sind, ist dies manchmal nur mit externer Unterstützung möglich. Doch Obacht, wichtig ist ein interner Koordinator, der alle Zügel in Händen behält, damit nicht viele richtige Antworten auf irrelevante nicht gestellte Fragen gegeben werden. Denn dann geht anfängliche Akzeptanz leicht verloren.


Dr. Christina Bender präsentiert am 15. November 2018, dem zweiten Tag der Data Leader Days 2018, über die „Tradition und digitale Innovation bei einem Keramikhersteller – warum Deep Learning nicht immer das Allheilmittel ist“.