Confluent ist Sponsor der Data Leader Days 2019 in Berlin

Wir begrüßen Confluent als Sponsor für die Data Leader Days 2019

Die meisten Organisationen stehen vor einer Flut an Daten, die aus neuen Applikationen, neuen Geschäftsmöglichkeiten, dem Internet of Things und vielem mehr stammen. Die ideale Architektur, die sich die meisten vorstellen, ist ein sauberes, optimiertes System, das es ermöglicht, aus all diesen Daten Kapital zu schlagen. Jedes Byte an Daten erzählt eine Geschichte, die eine nicht zu unterschätzende Bedeutung für Ihre nächsten Schritte hat. In einem datenbasierten Unternehmen ist die Art und Weise, wie Daten weitervermittelt werden, genauso wichtig wie die Daten selbst. Je höher die Geschwindigkeit und Flexibilität bei der Datenübertragung ist, umso wertvoller sind auch die Daten an sich. 60% der Fortune 100 setzen zur Umsetzung hier bereits auf die Streaming-Lösung Apache Kafka.

Confluent, gegründet von den Entwicklern der Open-Source-Lösung Apache Kafka®, bietet die führende Streaming-Plattform, welche es Unternehmen ermöglicht, den Wert ihrer Daten zu maximieren. Die Plattform von Confluent erlaubt es, Daten aus isolierten Systemen in eine Echtzeit-Datenpipeline zu übertragen, wo sofort darauf reagiert werden kann.

Heute konzentriert sich Confluent auf die Weiterentwicklung einer Streaming-Plattform sowohl on-premise als auch in der Cloud, die es anderen Unternehmen ermöglicht, schnell und einfach auf Echtzeit-Streams mit Unternehmensdaten zuzugreifen. Zu den Kunden von Confluent zählen Unternehmen wie ING, Target, Audi, LinkedIn, BOSCH, Deutsche Bahn oder Nordea.

 


Die diesjährigen Data Leader Days finden am 13. & 14. November 2019 direkt an der Spree in Berlin zum fünften Mal statt. Im Fokus stehen Use Cases, Live Demos, Panels, Interviews und Erfahrungsberichte zu Data Science, Künstliche Intelligenz, Data Engineering & Architecture, Data Visualization sowie Agile Development, Blockchain und Data Security.

Ihr persönlicher Ansprechpartner auf den Data Leader Days 2019:

Benjamin Bohne

benjamin@confluent.io

Mehr Informationen finden Sie auch unter confluent.io.

 

Interview: Industrie 4.0 – Wie geht’s weiter?

Interview mit Herrn Thomas Hösle von ELABO

Digitalisierung in der Industrie gilt nun als ein altes Thema. Welchen Blickwinkel haben Sie heute noch auf die sogenannte Industrie 4.0.

Das Besondere an Industrie 4.0 ist ja, dass der in 2011 geprägte Begriff nicht beschreibt, was schon geschehen ist – im Gegensatz zu den Vorgängerbegrifflichkeiten ! – sondern was noch umgesetzt werden soll.

Den Kern von Industrie 4.0 bilden aus meiner Sicht unverändert die technologischen Elemente wie Digitalisierung, Connectivity und Automatisierung. Mit deren Hilfe soll einerseits die operative Exzellenz in Industrieunternehmen gesteigert werden, andererseits sollen auch neue, digitale Geschäftsmodelle entstehen, getreu dem Motto „Uber yourself or you will be kodaked“.

Inzwischen sind Industrie 4.0-Anwendungen – insbesondere zur Steigerung der Effizienz und Qualität sowie zur Erhöhung der Arbeitsflexibilität – salonfähig und auch umgesetzt geworden, ohne aber bereits ein Endstadium erreicht zu haben. Wo es aus meiner Sicht noch deutlichen Nachholbedarf gibt, ist bei der Nutzung der Digitalisierung für neue Geschäftsmodelle, insbesondere bei datengetriebenen Geschäftsmodellen.

Inwieweit spielen die entstehenden Daten eine Rolle in ihren Wertschöpfungsketten? Wie werden diese in ihren Systemen genutzt? Und was wird zukünftig möglich werden?

Wir sind ein typisches Beispiel für einen zweigeteilten Ansatz. Als Anwender mit überwiegend individuellen und manuellen Tätigkeiten in der Kleinserie mit hoher Varianz stehen wir bei der Erfassung bzw. Nutzung von Daten in unserer eigenen Wertschöpfungskette erst an zarten Anfängen.

Mit unserer Fabriksoftware „ELUTION“ hingegen ermöglichen wir unseren Kunden die aktive Nutzung von Daten dank der Module „Smart Data“ (automatisierte Erfassung und Archivierung prozessbezogener Daten) sowie „Analyzer Tool“. Mit letzterem erhalten die Anwender eine transparente Dokumentation aller erfassten Wertschöpfungsschritte (z.B. in einer Montage), um darauf aufbauend – entweder mit menschlicher oder künstlicher Intelligenz – Optimierungen hinsichtlich Produktivität, Qualität und Kosten unter Vermeidung von Verschwendung (Lean-Prinzipien) zu veranlassen.

Im Sinne des PDCA-Kreislauf können dann die Umsetzungsergebnisse überprüft und gegebenfalls nachgeschärft werden.

Gehen Industrie 4.0 und Künstliche Intelligenz also doch Hand in Hand?

Wenn man unter Industrie 4.0 auch versteht, dass durch den Einsatz von Sensoren (Cyberphysische Systeme) systematisch relevante Daten gesammelt werden zur Verbesserung der operativen Exzellenz, dann ist dieser Schritt wie beim Eiskunstlauf der Pflichtteil. Die Kür besteht darin, über geeignete Algorithmen – sprich KI – diese Daten in Wissen zu transformieren, um Prozesse zu optimieren, Qualität zu erhöhen und Kosten zu reduzieren. Somit geht also Industrie 4.0. Hand in Hand mit der Künstlichen Intelligenz, die als nützliches Tool in der großen Werkzeugkiste der digitalen Transformation fungiert.

Was sind aktuell die wichtigsten Use-Cases die genau jetzt und noch im Jahr 2020 eine markante Rolle spielen werden?

Die wichtigsten Use-Cases bestehen aus unserer Sicht in einem Zweiklang. Es geht zum einen darum, deutlich früher und besser über potentielle Störfälle informiert zu werden. Hierzu dienen predictive und prescriptive-Lösungen, wo KI-Anwendungen einen hohen Nutzenbeitrag leisten. Zum anderen geht es aber auch darum, die time-to-repair im Störfall zu minimieren. Dank digitaler Störungsmanagement Werkzeuge können die Ausfallzeiten von Maschinen und Anlagen deutlich reduziert werden, ohne auf das Erfahrungswissen einzelner Mitarbeiter angewiesen zu sein. Über eine digitale Lebensakte der Maschinen und Anlagen werden relevante Daten systematisch archiviert und stehen dezentral für jeden Mitarbeiter zur Verfügung, um Störfälle rasch und effizient zu beheben.


Thomas Hösle präsentiert am 14. November 2019, dem zweiten Tag der Data Leader Days 2019, über „Systematische Datengenerierung auf dem Shopfloor“.

Tickets für die Konferenz finden Sie auf der offiziellen Startseite, unter www.dataleaderdays.com.

Machine Learning in the Semiconductor Industry

Interview mit Herrn Dr. Harald Kuhn von Infineon Technologies AG

Herr Dr. Harald Kuhn ist Director bei der Infineon Technologies AG.  Er leitet das Department „Automation and Equipment Technology“, welches kurz AET genannt wird. Auf mehr als 20 Jahre Erfahrung in der Entwicklung sowie der Halbleiterherstellung in den Bereichen Frontend, Backend und Test kann der gebürtige Würzburger nunmehr zurückblicken. Nach seinem Studium der Werkstoffwissenschaften bekleidete Harald Kuhn verschiedene Positionen im Management bei Infineon/Siemens. In seiner aktuellen Rolle ist er verantwortlich für BE Automatisierung sowie auch für das Design und den Bau von differenzierenden Anlagen. Er gilt heute als einer der Pioniere unter den Führungskräften für den Einsatz von Deep Learning.

Herr Dr. Kuhn, beschreiben Sie uns doch einmal kurz Ihren Aufgabenbereich.

Mein Department ist für die zwei großen Bereiche „Sonderanlagen“ und „Automatisierung“ bei Infineon verantwortlich. Diese Bereiche ergänzen sich sehr gut in den Kompetenzen, Methoden, Aufgabenstellungen und Innovationen. Durch die weltweite Verankerung an den Standorten kennen wir die jeweiligen Anforderungen. Das hilft uns Standards als auch Innovationen gezielt und flächendeckend implementieren zu können. 

Vor welchen Herausforderungen stehen Sie bei der Produktion von Halbleitern? Wie kann „Machine Learning“ zur Bewältigung dieser Herausforderungen beitragen?

Gesamt geht es darum die Produktivität und Qualität nachhaltig zu steigern. Dies kann nur gelingen, wenn wir unsere Produktionsanlagen die mit neuster Sensorik ausgestattet sind engmaschiger überwachen. Gleichzeitig müssen wir mit den erzeugten Daten treffsichere real-time Aussagen über den Zustand unserer Maschinen und Produkte machen können. Dazu benötigen wir ML-Algorithmen die steuernd eingreifen können, um den hohen Anforderungen der Produktion hinsichtlich Qualität und Durchsatz gerecht zu werden.

Welche Technologien und Methoden kommen dabei zum Einsatz?

Wir arbeiten mit der gesamten Bandbreite von unsupervised und supervised Methoden der künstlichen Intelligenz. Gerade die hohe Variabilität in unseren Prozessen und Produkten fordert schnelle und übergreifende Lösungen.  Damit so ein breites Spektrum unserer Produktion abgedeckt werden kann, setzen wir einen besonderen Fokus auf die unsupervised Methodiken und das Transfer-Learning. Dabei ist es uns auch wichtig, dass der Erkenntnisgewinn einzelner Methoden aufeinander aufbauen kann, um so die Entwicklung unserer Methoden zu beschleunigen. Natürlich benötigen wir dazu auch die entsprechenden Technologien, um die Algorithmen in der Produktion nutzen zu können.  Hierfür ist ein modularer Aufbau unserer Machine-Learning-Ansätze und die zuverlässige sowie schnelle Verarbeitung großer Datenmengen unerlässlich. Wir setzen dabei auf Technologien wie beispielsweise Hadoop. 

Mit welcher Erfolgsquote werden bei Ihnen Machine Learning Projekte umgesetzt? Woran scheitern Projekte und was sind Faktoren für den Erfolg?

Die Herausforderung ist die Umsetzung vom Use-Case zur produktiven Implementierung und somit zum Harvesting. Hierbei ist es wichtig von Beginn an die produktive Anwendung, den möglichen Benefit als auch eine Gesamtbetrachtung der Produktionskette im Blick zu haben. Der Fokus auf dem Transfer-Leraning kommt auch hier wieder zum Tragen, sodass wir uns bei jeder Entwicklung fragen, wie eine breite Anwendung dafür aussehen und wie zukünftige Use-Cases davon profitieren könnten. Herausforderungen sind im Allgemeinen die Datenqualität und Durchgängigkeit. Erfolgsfaktor ist Motivation und ein Team aus Anwender und AI-Experten als auch Management Guidance.

Wie sind Deep Learning Projekte organisatorisch umgesetzt? Zentralisieren Sie in einer Abteilung oder verteilen Sie Know-How integrativ in einer Abteilung?

Wir haben bewusst keine dedizierte AI-Abteilung bei Infineon, sondern AI-Teams in unterschiedlichen Abteilungen und Verantwortungsbereichen. Die DL-Experten arbeiten abteilungsübergreifend in einem Team zusammen und tauschen sich aus. So erreichen wir sowohl eine schnelle Lernkurve, als auch die Breite im Unternehmen. Beim Rollout wird die jeweilige aufnehmende Abteilung frühzeitig involviert, so dass aus einem push ein pull wird. 

Die Geister scheiden sich bei der Frage, ob die Automatisierung im produzierenden Gewerbe ein gesamtwirtschaftlicher und gesellschaftlicher Vor- oder Nachteil ist. Wie ist Ihre Meinung dazu und welche Rolle wird Data Science in der Zukunft spielen?

Automatisierung eröffnet uns die Möglichkeit in Europa und Deutschland Produktionen für den Weltmarkt attraktiv zu gestalten. Wichtig ist aber eine sachliche Bewertung vom Aufwand/Benefit, um jeweils den richtigen / vernünftigen Grad der Automatisierung umzusetzen. Aus meiner Sicht ist Automatisierung und Digitalisierung ein wichtiger integraler Bestandteil für den Wirtschaftsstandort Deutschland. Aus diesem Grund wünsche ich mir mehr Kooperationen aus unterschiedlichen Unternehmen/Bereichen um Automatisierung/Digitalisierung als Vorteil nutzen zu können.
Data Science wird dabei einen wichtigen Eckpfeiler darstellen, da wir so tiefe Informationen über die Produktion erhalten und die Automatisierungsbemühungen gezielt lenken können.

 


Dr. Harald Kuhn präsentiert am 14. November 2019, dem zweiten Tag der Data Leader Days 2019, über „Machine Learning in the Semiconductor Industry“.

Tickets für die Konferenz finden Sie auf der offiziellen Startseite, unter www.dataleaderdays.com.

App Launch – GET YOUR CONGRESS APPLICATION

GET YOUR CONGRESS APPLICATION

Die Data Leader Days beginnen in wenigen Wochen und wir freuen uns auf eine spannende Veranstaltung mit Ihnen.
Laden Sie unsere Connected Industry App herunter und bestimmen Sie mit, welches Thema bei der PANEL DISCUSSION in unserer Expertenrunde den Abschluss der Veranstaltung abrundet.
Die Auswahl bestehender Themen lautet:

  1. Deployment von Machine Learning Modellen, was ist dafür erprobte Praxis?
  2. Data Engineer oder Data Scientist? Wen brauchen Unternehmen heute mehr?
  3. KI beherrscht die operativen Prozesse. Wird KI bald auch die Strategie festlegen?
Weitere tolle Features der App

Interview: Was sind die Erfolgsfaktoren für die künstliche Intelligenz?

Interview mit Herrn Dr. Sönke Iwersen von der HRS Group

Herr Dr. Sönke Iwersen ist Director des Bereiches Central BI bei der HRS Group. Nach der Promotion in Statistik an der Universität Osnabrück bekleidete Herr Dr. Iwersen verschiedene Führungspositionen im Bereich Business Intelligence & Business Development  bei namhaften Firmen.

Herr Dr. Iwersen, welcher Weg hat Sie in die Business Intelligence geführt und welche Rolle spielt die künstliche Intelligenz (KI) dabei?

Das Thema Intelligenz aus Daten begleitet mich mein gesamtes Berufsleben. Zuerst war es BI mit den Themen Datawarehousing, Reporting & Analytics. Durch die Technologieentwicklung der letzten Jahre haben wir heute deutlich mehr Möglichkeiten, aus Daten Insights zu erzeugen. Diese Möglichkeiten, zusammengefast unter „ML & KI“ werden dem Themen Datenintelligenz den nächsten Schub nach vorne geben. Wir können jetzt mehr Datenvolumen in kürzerer Zeit verarbeiten und damit mehr Business Value erzeugen. Heute baut man Datenprodukte mit ML&KI-Methoden, da diese Produkte direkt Business Value erzeugen. 

Glauben Sie der Hype rund um die künstliche Intelligenz (KI) könnte abflachen? Wie weit sind wir hier wirklich und worin sehen Sie die Grenzen von KI?

Das Thema KI wird, wie jeder Hype, später abflachen und realistisch eingeordnet werden. Wir sprechen hier technisch von Konzepten, die 20 Jahre alt sind. Jetzt sind sie vielfach anwendbar und werden ihren Platz im Bereich Datenintelligenz finden bzw. haben ihn teilweise schon gefunden.
Aber Vieles ist beim Begriff KI heute noch falsch zugeordnet. Wir haben eine Trennung in Machine Learning-Themen, wo wir im Kern diese Methoden als „Rechenknechte“ nutzen. Ein kleinerer Bereich der KI wird die Algorithmik (z. B. Deep-Learning-Modelle) nutzen, um spezielle Use Cases zu ermöglichen und/oder zu optimieren. Aktuell wird aber an der Oberfläche gerne alles in den Topf der KI geworfen. Da müssen wir in Zukunft genauer definieren, worum es gerade geht.

Die Grenzen sind heute noch nicht klar zu erkennen. Die KI hat heute Einzug gehalten in die Industrien der Logistik & Transport, Banken, Automobilbranche & Travel. Dort werden KI-Themen genutzt, um Prozess-Effizienzen zu heben. Darüber hinaus kommen wertstiftende Ergebnisse aus intelligenten Datenprozessen, indem Datenprodukte genutzt werden, die KI beinhalten. Vieles davon ist aber noch im Laboratorium und sucht noch nach Marktreife für sich. Im laufenden Betrieb reden wir hier von Microservices/APIs, die auf Realtime skalieren können.

Die Grenze ist hier eindeutig die Anwendung durch den Menschen. Vieles klingt gut, erweist sich in der Entwicklung und im Testen aber nicht als stabile Lösung. Dadurch ist der Analyse-Spezialist gefragt, der diese KI-Themen steuert. 

Werden Business Intelligence und Artificial Intelligence voneinander getrennt bleiben oder zusammenwachsen?

Aus meiner Sicht haben wir auf Basis einer zentralen Datenschicht pro Unternehmen beide Streams. Das BI wird den Bereich Reporting & Analytics abdecken. Hier werden regelmäßige Aktualisierungen in einem Reporting oder in einer Analyse geliefert werden.
Der Bereich ML/KI generiert Datenprodukte, die als Module/Services funktionieren und damit anderen Anforderungen entsprechen. Das Datenprodukt muss damit schnell, flexibel & skalierbar sein und hat damit eine andere Funktionsweise als Reporting und Analytics-Lösungen.
Ich sehe dies in vielen Unternehmen als Antwort auf die Frage, wie man mit ML&KI umgeht. Beide Bereiche erfüllen wichtige Businesszwecke und bestehen damit auch beide nebeneinander. Die Herausforderung liegt darin, dass die richtige zentrale Datenbasis besteht. 

Was sind Ihre Erfolgsfaktoren dabei? Woran können solche Projekte scheitern?

Für ML/AI-Projekte braucht es drei Schritte, die ich gehe:

  1. Gibt es den Use Case samt Daten? 🡪 Nicht die richtigen Daten =  kein Case!
  2. Generieren wir Business Value?
  3. Benötigen wir diesen Case wirklich als ML/KI Case? 

Wenn dies alles richtig definiert ist, haben wir ein ML/KI-Projekt.

Erfolgsfaktoren hierfür sind folgenden Themen: richtige Skills, korrekt aufgesetztes Projektteam, Technologieansatz ist vorab definiert, erfolgreicher POC bzw. MVP (Minimum Viable Product) existiert.

Scheitern können diese KI-Projekte, wenn KI-Themen mit zu viel Druck erzeugt werden müssen. Diese Projekte benötigen aktuell noch mehr Trainings-/Kontrollschleifen, bevor sie stabil laufen. Wenn dies nicht sorgfältig zu Ende geführt wird, bleiben die Daten-Produkte in der Entwicklung hängen und erreichen keine Akzeptanz der anderen Geschäftsbereiche (zu viel Black-Box). Darin weichen diese Projekte von normalen Datenprojekten ab.

Ansonsten ist der Faktor Skills entscheidend. Zentrale Frage bei KI-projekten wird stets sein: Wer ist der Owner des KI-Algorithmus im laufenden Betrieb, um im Fehlerfall eingreifen zu können?
Ist dies unzureichend definiert, ist ein Einsatz unmöglich, da das System im Fehlerfall kippt, weil niemand die Skills hat, den KI-Algorithmus zu reparieren. 

Wie gewährleisten Sie eine realistische Erfolgsbewertung und im Endeffekt eine angemessene ROI-Einschätzung (Return-on-Investment)?

Bei uns erzeugt die Relation aus Use Case & Business Value ausreichend Transparenz, um den ROI angemessen zu bestimmen. Wir fokussieren uns in der Scopingphase ausreichend auf diesen Punkt.

Arbeiten Sie bei der Umsetzung von Projekten mit dem HRS Innovation Hub zusammen? Falls ja, wer ist der Initiator von Projekten?

Wir arbeiten global mit allen entsprechenden Entwicklungsteams zusammen. Die Impulse kommen aktuell aus dem Business/Senior Management zu uns, um hier den notwendigen Business Value zu erzeugen. Die Umsetzung startet in den Intelligence Teams, um dann als gemeinsam aufgesetztes Projektteam aus Business/Intelligence/ Produktentwicklung weiterzulaufen.

 


 

Dr. Sönke Iwersen präsentiert am 13. November 2019, dem ersten Tag der Data Leader Days 2019, über „ML/AI gets normal: How to make it successful“.

Tickets für die Konferenz finden Sie auf der offiziellen Startseite, unter www.dataleaderdays.com.

Interview: Daten – Chancen und Herausforderungen für eventim

Fred Türling ist Senior Vice President Information Science bei der CTS Eventim AG. Schwerpunkte seiner 20-jährigen analytischen Arbeit liegen in den Fachgebieten Social Media und Web Analytics, Targeting und Kampagnen Management, Business Intelligence und Data Warehousing für die Branchen Medien, Handel sowie Internet- und Telekommunikations-Services. Zuvor war Türling in leitenden Positionen bei United Internet Media, SHS VIVEON, AOL, Otto und Siemens tätig.

 

Insbesondere Geschäftsmodelle mit vielen Teilnehmern, wie das Ticketing im Live Entertainment, gelten als besonders potent hinsichtlich der Datennutzung. Können Sie das bestätigen?

Eventim verkauft pro Jahr über 250 Millionen Eintrittskarten zu 850.000 Events in 21 Märkten. Wir nutzen unseren Datenschatz zum einen für die personalisierte Ansprache unserer B2C Kunden, insbesondere in der Empfehlung relevanter Events. Zum anderen testen wir die Datennutzung auch in der Event-Planung und -Advertisment für unser Promoter-Netzwerk EVENTIM LIVE, das mehr als 25 Veranstalter umfasst.

In Deutschland wird genauer auf die Speicherung von Daten geschaut und auch sehen die Menschen hierzulande die Speicherung ihrer Daten kritischer als in anderen Ländern. Stört diese Tatsache Sie bei der Geschäftsentwicklung?
Mit der DSGVO und der EU-Privacy Verordnung hat der Gesetzgeber klare Rahmenbedingungen geschaffen, um für den Verbraucher eine hohe Transparenz und Kontrolle über Datennutzung zu etablieren. Richtig angewandt behindern diese die Datennutzung für Unternehmen nicht, insbesondere, wenn der Kunde den Mehrwert der darauf aufsetzenden Services erklärt bekommt.

Bei welchen kaufmännischen Herausforderungen wird Ihnen Data Science und KI helfen können?
Wie beschrieben sehen wir attraktive Nutzungsmöglichkeiten im Marketing und im Produkt Management – erfolgreiche Use Cases müssen aber in der Regel solide entwickelt, getestet und vielfach in mehreren Stufen optimiert werden.

Stand heute: Was sind Ihre Top-Anwendungsfälle für Predictive Analytics? Welche Methoden und Technologien nutzen Sie dafür?

Für unsere Recommendation Engine nutzen wir eine Überlagerung mehrerer algorithmischer Ansätze u.a. z.B. Random Forest – wir testen aber regelmäßig weitere Modelling Verfahren. In einigen Scoring Aufgaben haben wir auch recht einfache logistische Regressionen im Einsatz.

 


Fred Türling präsentiert am 13. November 2019, dem ersten Tag der Data Leader Days 2019, über „Event Recommendation in der Customer Journey zum Live Entertainment“.

Tickets für die Konferenz finden Sie auf der offiziellen Startseite, unter www.dataleaderdays.com.

Interview: Data Culture eats Data Strategy for breakfast

Interview mit Herrn Dr. Stefan Kühn von TOM TAILOR

Dr. Stefan Kühn ist Head of Data & Intelligence bei der TOM TAILOR Group und beschäftigt sich seit vielen Jahren mit Data Science, Machine Learning und AI. Nach der Promotion in angewandter Mathematik am Max-Planck-Institut für Mathematik in Leipzig war er in verschiedenen Fach- und Führungspositionen für die codecentric AG, Zalando und XING tätig.

 

Herr Dr. Kühn, was hat Ihre Leidenschaft für Daten geweckt und was hat Sie dazu bewegt diesen Job auszuüben?

Am Anfang stand sicherlich die Möglichkeit, komplexe Algorithmen auf echte Daten anwenden und dadurch relevante Informationen gewinnen und echte Probleme lösen zu können, die auf klassischem Wege nicht oder nicht gut gelöst werden konnten. Die Möglichkeiten der etablierten und auch neueren Machine- und Deep-Learning-Verfahren, eine Fragestellung auf intelligente Art und Weise zu modellieren, zu strukturieren und dann schrittweise zu lösen, sind aus Sicht eines Wissenschaftlers einfach faszinierend. Doch um tatsächlich in der echten Welt etwas zu verändern, reichen Prototypen nicht aus. Das Productionizing intelligenter Algorithmen ist eine Teamaufgabe, und die meisten Firmen sind ja bereits mit der Digitalisierung mehr als genügend gefordert, sodass in den seltensten Fällen eine tragfähige Data Strategy existiert. Und so bin ich über die fachliche Faszination der Algorithmen zur deutlich schwierigeren und breiteren Aufgabe der organisatorischen Entwicklung und Umsetzung einer guten Data Strategy gekommen. Aber Vorsicht, Data Culture eats Data Strategy for breakfast, deswegen darf man den nötigen Kulturwandel niemals außer Acht lassen.

 

Gibt es eine Datenstrategie in Ihrer Firma, um Daten in einen betriebswirtschaftlichen Mehrwert zu verwandeln? Welche Abteilungen werden dabei mit einbezogen?

Ja. Ohne nachhaltige Datenstrategie würde die Arbeit meiner Abteilung gar keinen nachhaltigen Einfluss auf Tom Tailor nehmen können. Unser Ansatz sieht vor, nach und nach und vor allem möglichst früh alle Abteilungen mit einzuziehen. Natürlich sind einige Abteilungen „näher dran“, wie etwa der bereits sehr gut aufgestellte E-Commerce-Bereich, aber auch alle anderen Abteilungen – Einzel- und Großhandel, aber auch unser Einkauf und natürlich Abteilungen aus dem Operations-Bereich wie unser Supply Chain Team können von unserer Zuarbeit profitieren, genauso wie das Data&Intelligence-Team durch Kooperation mit den Fachabteilungen nur gewinnen kann. In einem ersten Schritt entwickeln wir eine zentrale Datenplattform, über die dann im zweiten Schritt maßgeschneiderte Datenprodukte und Data Services für alle Stakeholder bereitgestellt werden. Wir arbeiten hierbei mit einem zentralen Expertenteam, welches sehr eng in die fachlichen Abläufe eingebunden ist über direkt in den Fachabteilungen integrierte Datenexperten.

 

Artificial Intelligence (AI) birgt großes Potential, aber nur wenn der User sich auch die Ergebnisse von AI zunutze macht und diese umsetzt. Welche Hemmnisse haben interne User Ihrer Meinung nach und wie versuchen Sie diese zu beseitigen?

Bei uns ist die interne Akzeptanz für Datenprodukte bereits sehr hoch, da in vielen Bereichen seit langem mit Daten gearbeitet wird. Die größten Herausforderungen sehen wir momentan in der Integration der heterogenen Datenquellen und der anschließenden Validierung der Daten und der darauf basierenden Datenprodukte, im einfachsten Falle etwa einem Standard-Report. Hier müssen natürlich zunächst alle bisherigen Ergebnisse reproduziert werden können, damit wir den nächsten Schritt gehen und in die Zukunft schauen können – etwa mit Langzeit-Forecastings und selbstlernenden Systemen. Die Akzeptanz der von uns eingesetzten neuen Tools ist dagegen überhaupt kein Problem, da diese Tools in Bezug auf Usability und Self-Service einfach sehr gut und intuitiv nutzbar sind, so dass wir mit sehr geringem Schulungsaufwand bereits eine sehr hohe Userakzeptanz erreichen.

 

Welche Algorithmen und Tools verwenden Sie für Ihre Anwendungsfälle?

Unser Tooling würde ich in verschiedene Bereiche aufteilen. Als Visualisierungs- und Self-Service-Tool für die Fachabteilungen setzen wir Tableau ein – dies ist vor allem in Hinblick auf die Bereitstellung von Daten und Services und die Akzeptanz der Fachbereiche unser wichtigstes Tool. Die von uns genutzten grundlegenden Infrastrukturkomponenten liefert die AWS  – aus Datensicht wären das im Wesentlichen S3, Redshift, EC2, EMR etc. Für das Data Engineering und Processing verwenden wir Python, Scala und Spark, je nach Use Case. Im Machine-Learning-Bereich verwenden wir unter anderem Jupyter Hub, wo die Data Scientists Prototypen in R- oder Python-Notebooks entwickeln und neue Ideen testen können. Die Algorithmen sind sehr unterschiedlich, wir verwenden Forecasting-Algorithmen wie prophet, aber auch relativ einfach a-priori-Algorithmen oder CLV-Modelle. Eines meiner Lieblingsgebiete sind z.B. Clustering-Verfahren bzw. Unsupervised Learning generell. 

 

Es gibt immer mehr Studiengänge zur Erlangung eines Hochschulabschlusses des Data Scientist. Wie beurteilen Sie die Qualität der Ausbildung junger Absolventen?

Das lässt sich meiner Meinung nach so pauschal gar nicht beantworten. Ich bin mir auch nicht so sicher, ob ein Master in Data Science wirklich einem Master in Bioinformatik, Physik oder Mathematik vorzuziehen ist. In meinen Augen fehlt vielen Data Scientists, die mit „nacktem“ Methodenwissen mit einem Master in Data Science von der Uni kommen, die Erfahrung mit einer Problemdomäne, einem Anwendungsfeld in der echten Welt. Die geschickte Modellierung der Vorgänge in der echten Welt und die intelligente Auswertung der Daten in Bezug auf dieses Modell sind in meinen Augen die beiden Kernkompetenzen, die das Berufsfeld Data Science ausmachen. Die reine Anwendung von vorinstallierten Algorithmen auf vorstrukturierte Daten ohne Verständnis der diese Daten generierenden Prozesse und der Evolution der Algorithmen ist in meinen Augen nicht zielführend, lässt sich allerdings relativ leicht lehren und prüfen.


Dr. Stefan Kühn präsentiert am 13. November 2019, dem ersten Tag der Data Leader Days 2019, über „ Talk Data to me – from Data Science to Business Science“.

Tickets für die Konferenz finden Sie auf der offiziellen Startseite, unter www.dataleaderdays.com.