Mobilität in der digitalen Welt – Herr Dr. Wiegels von FREE NOW berichtet

 Interview mit Herrn Dr. Tim Wiegels von FREE NOW

Tim Wiegels leitet seit August 2018 als Head of DATA die Bereiche Analytics, Data Engineering, Data Science und Marketing Intelligence bei FREE NOW (ehemals mytaxi). In dieser Funktion erarbeitet und steuert Tim die DATA-Strategie und sorgt für ein verstärktes Data-Driven Mindset in allen Bereichen. Zuvor arbeitete Tim als Director Data and Marketing bei der HitFox Gruppe und verantwortete dieselben Bereiche auch bei der Tochterfirma Heartbeat Labs. Weitere Stationen als Data Scientist, Product Owner, Team Lead für Business Intelligence Controlling, Tracking und Reporting, sowie Business Analytics beinhalten Goodgame Studios und XING. Sein Studium und seine Promotion in Bioinformatik schloss Tim erfolgreich an der Universität Hamburg und am Europäischen Molekularbiologischen Laboratorium (EMBL) ab.

Mit FREE NOW haben Sie eine traditionelle Branche aufgebrochen und digitalisiert. Welche Schwierigkeiten hatten Sie dabei am Anfang mit Data Engineering, also beim Daten erfassen und speichern?

Grundlegend gibt es bei der Erfassung der Daten keine großen Unterschiede zwischen Apps, die eher traditionelle Branchen bedienen und z.B. Apps für Mobile Gaming. Die eigentliche Problematik wird bereits in der Entwicklung der Apps behandelt, also z.B. ein DSGVO-konformes Tracking der Standorte von Fahrer und Passagier, um hier das bestmögliche Matching zu gewährleisten. Wenn diese Funktionen richtig implementiert sind, ist es wichtig bei allen Teams, die an der Entwicklung beteiligt sind (also Product, Tech und Marketing / Operations), ein starkes Data-Driven Mindset zu etablieren und Klarheit zu schaffen, dass dieser weitere Arbeitsschritt der Datenerfassung kein Overhead, sondern ein essentieller Bestandteil der Entwicklungsarbeit ist. Sobald sich hier alle Beteiligten bewusst sind, dass diese Prozesse geschäftsentscheidend sind, steht einem reibungslosen Ablauf nichts im Weg.

Was sind aktuell Ihre wichtigsten Anwendungen für Data Science? Welche Technologien und Methoden setzen Sie dabei ein?

Bei FREE NOW nutzen wir Data Science und Machine Learning für viele verschiedene Anwendungsfälle. Angefangen beim Vorschlagen der Zieladresse für den Passagier über eine Vorhersage des Fahrpreises einer Taxifahrt (basierend auf dem jeweiligen Taxitarif, Fahrtzeit und Distanz), diverser Methoden um Angebot und Nachfrage vorherzusagen (wieder, um ein besseres und schnelleres Matching zu gewährleisten) bis hin zu einer Vielzahl von Automatisierungen um manuelle Arbeit zu vermeiden und Kapazitäten besser zu nutzen sowie Vorhersagemechanismen zum Nutzerverhalten und Geschäftskennzahlen. Wir nutzen hier eine Vielzahl von Standardmethoden und Tools der Data Science (z.B. Python, Jupyter Notebooks, etc.).

Mit der Nutzung von Daten wird das Thema Datenschutz und -sicherheit immer relevanter. Wie stellen Sie hier den Schutz sicher ohne gleichfalls den Kundennutzen und die Kundenzufriedenheit zu gefährden?

Als europaweit-agierendes Unternehmenist Datensicherheit für uns sehr wichtig und Bestandteil all unserer Systeme. Die Erfassung und Verarbeitung von Daten (insbesondere bei Nutzung von Drittanbietern) ist komplett DSGVO-konform. Natürlich stellt uns das vor diverse Probleme, angefangen von der Nutzung unserer Daten im Marketing bis hin zur Vermittlung zwischen Fahrer und Passagier. Wir haben daher unsere allgemeine Analyse und interne Nutzung von Daten komplett auf anonymisierte Daten umgestellt und in allen Datenbanken den Zugriff auf persönliche Daten stark eingeschränkt. Für Features die die Verarbeitung von persönlichen Daten erfordern, um den Kundennutzen zu steigern (z.B. der Vorschlag der Zieladresse), arbeiten wir sehr eng mit unserem Data Protection Officer zusammen, um Datensicherheit stets zu gewährleisten und die jeweiligen Anwendungsfälle allen Kunden transparent zu machen.

Was wird Ihrer Meinung nach für 2020 und 2021 die neuen Trends stellen? Was könnte sich dabei im Workflow eines Data Scientists ändern?

Data Science wird sich meiner Meinung nach viel mehr in die Richtung von Plattformen entwickeln. Aktuell sind viele Lösungen und Implementationen noch stark auf den jeweiligen Anwendungsfall angepasst und stellen daher oft Insellösungen dar die nicht unendlich (oft sogar nur sehr limitiert) skalierbar sind. Die Entwicklung von Machine Learning Pipelines und Nutzung von AI-Plattformen (z.B. Angebote von Partnern wie Amazon, Google oder Adobe) wird dabei in Zukunft stärker in den Vordergrund treten. Dies wird in zwei Schritten passieren, wobei der erste die Nutzung im Prototyping sein wird, um viele Datensets schneller zu bootstrappen und viele verschiedene algorithmische Methoden zu testen, um das beste Modell für eine spätere, jedoch noch individuelle Implementation in Product, etc. zu finden. Der zweite Schritt wird eine komplette Implementation jener Plattformen direkt in die Live-Produkte sein. Hierfür muss natürlich ein perfektes Monitoring, Trennung von Development / Staging und Live-Environments und Implementation von Backup-Lösungen gegeben sein, damit die Data Science-Methoden und -Plattformen nicht in Bottlenecks oder Gefährdung eines kontinuierlichen Betriebs resultieren.

In der täglichen Arbeit eines Data Scientists wird – und muss – sich in Zukunft auch eine viel stärkere Vernetzung der Entwicklungsarbeit mit dem Produktmanagement finden. Ein essentieller Bestandteil der Applikation von Data Science in jeder Fachrichtung ist das Verständnis und die Transparenz der Methoden. Dies erfordert einen kontinuierlichen Austausch zwischen Data Scientists und den Stakeholdern, um ein starkes Alignment zu schaffen und ein Auseinanderdriften zwischen Verständnis der Entwickler und Erwartungen und Bedürfnisse von Nutzern zu vermeiden. Dies wird in vielen Firmen schon über die Position von Produktmanagern oder Product Ownern für Data Science abgedeckt. Ich halte es  jedoch für absolut notwendig, dass jeder Data Scientist dieses Mindset verfolgt.

 


Dr. Tim Wiegels (FREENOW) präsentiert am 13. November 2019, dem ersten Tag der Data Leader Days 2019, über „Data-driven Marketing for mobile apps in three easy steps.

Transforming Logistics with AI – Selected Applications at DB Schenker

Interview mit Herrn Dr. Joachim Weise von DB Schenker

Herr Dr. Joachim Weise ist Senior Vice President für den Bereich Global Data Strategy and Analytics bei DB Schenker. Er studierte Wirtschaftsingenieurwesen an der TU Berlin, Production Management an der Chalmers University of Technology in Göteborg und promovierte im Innovationsmanagement an der TU Berlin. 

 

Was ist Ihr Aufgabenbereich als Senior Vice President Gobal Data Strategy and Analytics bei DB Schenker.

Seit Gründung 2016 leite ich den Bereich Global Data Strategy & Analytics (GDSA), eine von drei direkt unter dem CDO/CIO angesiedelten Digitalisierungseinheiten bei DB Schenker. Wir entwickeln und verfolgen eine unternehmensweite und zukunftsorientierte Datenstrategie, entwickeln und implementieren datengetriebene Geschäftsmodelle und generieren prozessrelevantes Wissen im Rahmen von Analytik- und Optimierungsprojekten. Unser Team besteht aus Business Consultants, Data Scientists, Operations Research Specialists und Big Data Engineers – größtenteils völlig neue Jobprofile für die Logistik. Hierbei kommen moderne Verfahren aus den Bereichen Machine Learning bzw. künstliche Intelligenz zum Einsatz, beispielsweise statistische Methoden, Verfahren der Mustererkennung, Simulationen und Optimierungsverfahren. Als Querschnittsfunktion setzen wir auf agile, abteilungsübergreifende Initiativen, die sich – ähnlich wie in einem Start-up – kurzfristig umsetzen lassen, um so Erfolge schnell nachzuweisen. 

Sind gute Data Scientists Ihrer Erfahrung nach tendenziell eher Beratertypen oder introvertierte Nerds?

Die Frage ist so einfach nicht zu beantworten. Ein guter Data Scientist sollte in meinen Augen nicht nur ein talentierter Mathematiker oder Informatiker sein, er sollte auch unternehmerische Fähigkeiten besitzen, eine schnelle Auffassungsgabe gemixt mit einem guten Verständnis von Geschäftsprozessen. Denn letztendlich ist der Erfolg einer unternehmensweiten Implementierung und Anwendung unserer Algorithmen davon abhängig, dass unsere Lösungen den Geschäftseinheiten einen Mehrwert bieten. Um die Anschlussfähigkeit meiner Abteilung mit dem Kerngeschäft sicherzustellen haben wir ja zusätzlich auch ein eigenes Team von „Business Consultants Data“ aufgebaut.

Logistikunternehmen erkennen immer mehr das Potential von Daten und entwickeln Strategien zur optimalen Nutzung. Wie sehen Sie den Reifegrad der Datennutzung in der Logistik und wo sehen Sie Ihr Unternehmen verglichen mit Wettbewerbern?

 Gerade in der Logistik ist die Anzahl der täglich generierten Daten in den letzten Jahren exponentiell gestiegen. Das Datenvolumen hat sich vertausendfacht, das stellt unsere doch sehr traditionelle Branche vor immer größere Herausforderungen, bietet allerdings gleichzeitig enormes Optimierungs- und Effizienzsteigerungspotential, was wir unbedingt nutzen wollen. Allerdings gehen große Datenmengen selten mit einer guten Datenqualität einher. Vor diesem Hintergrund wird die strukturierte Sammlung und Auswertung der generierten Daten immer wichtiger. Das Potential ist hoch! Neben der Schaffung technischer Grundvoraussetzungen ist insbesondere eine noch stärkere Sensibilisierung im operativen Geschäft für die immense Bedeutung von Datenqualität unverzichtbar. 

Als einer der größten Logistikdienstleister der Welt, verarbeiten wir bei DB Schenker bereits große Datenmengen aus verschiedensten internen und externen Quellen, beispielsweise Verkehrs- oder Wetterdaten, für komplexe Datenanalysen zur Aufkommensprognose, Netzwerkoptimierung, Predictive Pricing, Warehouse Analytics oder Kundenanalysen. 

Die Konkurrenz schläft aber auch nicht. Es tauchen völlig neue Player auf der Spielfläche auf, wie beispielsweise Amazon, die ursprünglich als Onlinebuchhändler gestartet sind und mit Amazon Logistics mittlerweile einen eigenen Speditionsdienst haben. Aber auch kleine Startups revolutionieren die Logistik gezielt mit digitalen, datenbasierten Geschäftsmodellen, und genau daran wollen wir auch anknüpfen. Wir nutzen das Potential, die aktuelle Dynamik und den Start-up-Spirit, um DB Schenker zu einem datengetriebenen Unternehmen zu transformieren und so auch zukünftig branchenführend zu bleiben.  

Welche Methoden und Tools aus dem Bereich AI finden bei Ihnen Anwendung und können Sie abschätzen, welche in Zukunft immer mehr an Bedeutung gewinnen werden?

Auf der einen Seite setzen wir gängige Methoden aus den Bereichen Statistik und Machine Learning an, wie zum Beispiel Zeitreihenanalysen, Ensemble Methoden oder Deep Learning. Auf der anderen Seite spielen in der Logistik natürlich Methoden aus dem Bereich Operations Research / Mathematische Optimierung eine große Rolle. Wir vereinen beide Kompetenzbereiche in einem Team und integrieren die Ansätze soweit möglich.

Praktische Beispiele sind u.a. die Echtzeitoptimierung bei der Disposition von Ladungsverkehren im Landverkehr, die Erstellung von Sendungsprognosen oder die Mustererkennung in großen Mengen von Sendungsdaten zur effektiveren Steuerung des operativen Geschäfts. Aber auch an der Kundenschnittstelle werden zunehmend Methoden der künstlichen Intelligenz eingesetzt, z.B. um die Kundenbindung zu erhöhen oder die Preisbildung zu optimieren.

Langfristiges Ziel ist es, entlang der gesamten Wertschöpfungskette immer mehr auf intelligente Unterstützung von Geschäftsentscheidungen durch künstliche Intelligenz zu setzen. Die Verfügbarkeit von qualitätsgesicherten Daten in Echtzeit wird dabei zur Grundvoraussetzung für intelligente, selbstlernde AI-Lösungen. 

Wo liegen die Grenzen von AI aus Ihrer Sicht?

Nach meinem Empfinden sind wir aktuell noch weit entfernt von einer „Artificial General Intelligence (AGI)“ – also einer künstlichen Intelligenz, die ähnlich wie ein Mensch ein breites Feld von Entscheidungssituationen bewältigen und dabei auch den Kontext von unscharfen Informationen und Situationen verarbeiten kann. 

Wenn wir die Entwicklung von AI auf ein Menschenleben übertragen, sind wir wohl aktuell noch auf der Entwicklungsstufe eines Kleinkinds. Neben derzeit viel diskutierten ethischen Grenzen spielen auch technische Limitierungen eine große Rolle. Fähigkeiten und Qualität eines AI-Systems hängen oft stark vom konkreten Use Case ab und auch ein Deep Learning System kann nur so gut sein wie die Daten, mit denen es trainiert wird. Wie bereits zuvor erwähnt, ist gerade der Aspekt der Datenqualität eine unserer größten Herausforderungen. Und das gilt sicher nicht nur für die Logistik. 

Dennoch sind wir sicher, dass Logistik zu den Branchen gehört, in der künstliche Intelligenz und die allgemeiner die Digitalisierung von Geschäftsmodellen zu den stärksten Veränderungen führen wird. Diese Veränderung wollen wir aktiv mitgestalten!


Dr. Joachim Weise (DB Schenker) präsentiert am 14. November 2019, dem zweiten Tag der Data Leader Days 2019, über „Transforming Logistics with AI – Selected Applications at DB Schenker.

Tickets für die Konferenz finden Sie auf der offiziellen Startseite, unter www.dataleaderdays.com.

Spannende Einblicke in die Arbeit vom Telekom Innovation Lab

Interview mit Frau Claudia Pohlink von den Telekom Innovation Laboratories

Claudia Pohlink ist Head of Artificial Intelligence/Machine Learning bei den Telekom Innovation Laboratories (T-Labs). Sie verfügt über einen Hintergrund in Data Science, Data Management und Innovation Management und verbindet Business- und Data Science-Aspekte von Analytics und Künstlicher Intelligenz (KI) nahtlos. Seit 2017 gehört Künstliche Intelligenz zu den drei Kernthemen der T-Labs. Seither zählt die Forschungs- und Entwicklungs-Einheit zu den aktivsten KI-Playern in Berlin.

Frau Pohlink, welche täglichen Verantwortlichkeiten haben Sie als Head of Artificial Intelligence / Machine Learning? Was macht Ihnen am meisten Freude? Und was hin und wieder Bauchschmerzen?

Mein Team und ich konzentrieren uns auf drei strategische Felder: Netzwerke-, Quantum und Cyber Security. 

Bei ersterem beschäftigen wir uns mit der Optimierung der Kommunikationsnetzwerke. So haben wir zusammen mit Benocs, einem  Startup der Telekom, sichtbar gemacht, wie die Netzwerk-Last verteilt ist. Durch die Verarbeitung historischer Daten können nun wir Dank Machine Learning vorhersagen, wo die Last auftritt und wie sie zukünftig verteilt sein könnte. Das hilft uns beim Aufbau der Netze. 

Bei Quantum KI wollen wir die Geschwindigkeit oder der Qualität der maschinellen Lernprozesse verbessern. Dazu werden rechenintensive Routinen auf einem Quantenrechner ausgeführt. 

Im Bereich Cyber Security wollen wir  unbewusste oder bewusste Risiken von KI-Algorithmen  erkennen und minimieren. Ein wichtiges Stichwort hierbei lautet „Bias“, also Daten, die Vorurteile zementieren. Darüber hinaus beschäftigen wir uns mit der Abwehr möglicher feindlicher Angriffe (Adversarial Attacks).

Am besten gefällt mir an meiner Arbeit der Blick in die Zukunft: die vielen Möglichkeiten, die noch vor uns liegen und nicht erforscht sind. Teil dieser rasanten Entwicklung zu sein, ist unglaublich spannend. Es ist wichtig, dass wir frühzeitig die richtigen Themen identifizieren und hierzu Kompetenzen aufbauen, und dass wir im Rahmen unserer ethischen Verhaltensrichtlinien für den Umgang mit KI auch immer den größeren gesellschaftlichen Rahmen im Blick behalten. Das wird schnell sehr komplex.

Künstliche Intelligenz und Machine Learning ist in aller Munde. Doch was ist da eigentlich der Unterschied?

Künstliche Intelligenz ist ein sehr komplexer Begriff. Oft ist damit der Teilbereich des Machine Learnings gemeint.

Ziel der Forschung zur Künstlichen Intelligenz ganz allgemein ist es, mithilfe der Wissenschaft intelligentes Verhalten in Maschinen zu ermöglichen. Uns ist wichtig dabei zu betonen, dass KI Menschen in ihrem Alltag unterstützen und nicht ersetzen soll. Ein Großteil der Anwendungen, die wir heute als KI bezeichnen, basiert auf Mathematik und Statistik aus dem 18. und 19. Jahrhundert. Die ersten Aufzeichnungen zur Regressionsanalyse zum Beispiel, einer Vorhersagemethode für Werte, stammen aus dem Jahre 1760.

Machine Learning ist eine Methode, mit der große Mengen an Daten analysiert und aus ihnen verschiedenes Wissen „künstlich“ generiert und gelernt wird. Erst neuere technische Entwicklungen bezüglich der Speicherung und schnellen Verarbeitung großer Datenmengen haben diesen Sprung der KI-Entwicklung möglich gemacht. Beim Machine Learning werden zum Beispiel Gruppen gebildet, Bilder erkannt oder Muster identifiziert. Eine KI ist z.B. in der Lage, nach einem Lernprozess auf Fotos Katzen von Hunden zu unterscheiden.

Mit welchen Herausforderungen haben Sie in der Telekommunikation zu kämpfen und wie helfen Ihnen dabei Machine Learning Algorithmen?

In der Deutschen Telekom nutzen wir KI inzwischen z.B. bei Chatbots, bei der schnelleren Beantwortung von Kundenanfragen sowie der Planung und Steuerung unserer Netzwerke oder zur Unterstützung beim Glasfaserausbau.

Für die Telekom ist die Vertrauenswürdigkeit von KI-Anwendungen von großer Bedeutung. Eine Basis sind die unsere selbst-bindenden Leitlinien für die Entwicklung und den Einsatz von KI. In Zukunft werden technische Verfahren zur Prüfung von KI auf Robustheit, Sicherheit, Einhaltung der Privatsphäre und Diskriminierungsfreiheit ein zentraler Baustein für die Akzeptanz von KI durch die Kunden und Bürger sein.

Wie ist Ihr Team organisiert? Zentral oder dezentral? Und wo liegt – rein organisatorisch gesehen – der größte Knackpunkt für die Sicherstellung des Projekterfolges?

Wir forschen nicht fernab, sondern versuchen, mit Startups und Forschungseinrichtungen konkrete Lösungen für die Kundenprobleme zu erarbeiten und diese Innovationskraft sofort in den Konzern hineinzubringen. Da haben wir sehr viel in den letzten zehn bis 15 Jahren gelernt. Das ist auch harte Arbeit. Die Arbeit in einem Lab, also einer Einheit für Forschung und Entwicklung (Research & Development) mit ihren Trendscouting-Aktivitäten hat einen großen Anteil daran, Themen zu identifizieren und so zu transformieren, dass sie zur Telekom passen und von den Abteilungen der Telekom übernommen werden. Dafür müssen die internen Teams von Anfang an eingebunden sein und die Entwicklungen mitsteuern können. Das ist eine Gratwanderung.


Claudia Pohlink präsentiert am 13. November 2019, dem ersten Tag der Data Leader Days 2019, über „Before you dream of AI do your homework.

Tickets für die Konferenz finden Sie auf der offiziellen Startseite, unter www.dataleaderdays.com.

Interview mit Herrn Dr. Florian Wilken von Telefónica

Interview mit Herrn Dr. Florian Wilken von Telefónica

Dr. Florian Wilken ist Leiter der Abteilung Analytical Models & Foresight bei Telefónica Deutschland. Nach  dem Physik-Studium und einer Promotion in Wirtschaftswissenschaften war er zunächst bei der Boston Consulting Group tätig. Nach seinem Wechsel  übernahm er Verantwortung in verschiedenen Positionen bei Telefónica in den Bereichen Strategie und Innovation.

Welche Themen verantworten Sie bei der Telefónica? Und wie würden Sie “Digital” von “Data” abgrenzen?

Als Analytical Models & Foresight-Team sind wir Teil des Digital & Data Competence Centers bei Telefónica Deutschland. Wir unterstützen die Telefónica Fachbereiche mit analytischen Modellen, die wir unter Nutzung neuester Data-Science-Methoden entwickeln. Dadurch ermöglichen wir datengetriebene Entscheidungen und Prozesse, beispielsweise im Marketing-, Vertriebs- und Netzwerk-Umfeld.

Bei Telefónica verfügen wir als führender Telekommunikationsanbieter über eine Vielzahl von Daten. Diese sind der Rohstoff, auf dessen Grundlage wir als Unternehmen digital arbeiten. Zum Beispiel, indem wir aus den Daten Erkenntnisse ableiten und diese für die Optimierung unserer Produkte und Prozesse nutzen. 

Letztendlich ermöglichen wir so, dass unsere Kunden die Errungenschaften der Digitalisierung jederzeit und an jedem Ort nutzen können.

Welche Anwendungsfälle und Ideen im Kontext der Nutzung von Daten beschäftigen Sie im Moment konkret? Was sind Ihre derzeitigen Top-Anwendungsfälle?

Wir decken ein breites Spektrum an analytischen Anwendungsfällen für fast alle Fachbereiche bei Telefónica Deutschland ab. 

Beispielsweise analysieren wir die sozialen Medien, um besser und schneller zu verstehen, was unsere Kunden über unsere Produkte und das Unternehmen im öffentlichen Raum sagen. So können wir kurzfristig auf Bedürfnisse und Kritik reagieren.

Bei der Wartung unseres Telekommunikationsnetzes nutzen wir künstliche Intelligenz, um Störungen zu vermeiden bzw. die Behebung zu optimieren. So bewerten wir Störungen in erster Linie nach den Auswirkungen auf die Kunden und sagen beispielsweise wiederkehrende Störungen präzise vorher. Dadurch reduzieren wir die Einschränkungen für unsere Kunden und verbessern die Kundenzufriedenheit.

Mit den Kolleginnen und Kollegen im Marketing setzen wir das Marketing Performance Management Modell ein, um wesentliche Einflussfaktoren auf unser Neukundengeschäft zu identifizieren und zu bewerten. Dies ermöglicht die Optimierung unserer Marketingaktivitäten.

Was sind aus Ihrer Erfahrung die wichtigsten Erfolgsfaktoren dabei? Woran scheitern solche Projekte gerne – und wie kann man dagegen steuern?

Zentraler Erfolgsfaktor ist eine große und vor allem gute Datenbasis. Außerdem braucht man exzellente Data Analysten und Data Scientists, die über umfassendes  Wissen und im besten Fall über langjährige Erfahrung verfügen. 

Zudem ist eine enge Zusammenarbeit mit dem jeweiligen Fachbereich sowie eine offene Unternehmenskultur und Herangehensweise wichtig – die Mitarbeiter müssen experimentieren dürfen. 

Welche Möglichkeiten haben denn Mitarbeiter bei Telefónica selbst mit Daten zu arbeiten? Und was ist Ihre Rolle dabei?

Wir stellen im Unternehmen das Analytical Insights Center als zentralen Self-Service zur Verfügung: So können die Kollegen in den Fachbereichen eigenständig datengetrieben Arbeiten. Inhaltlich konzentrieren wir uns als Team dann stärker auf komplexe Analysen und neue Modelle.

Über das Analytical Insights Center kann jeder Mitarbeiter – im Rahmen der entsprechenden Datenschutz-Regelungen – auf Daten und Analysen zugreifen. So können Mitarbeiter Unternehmens-, Markt- und Wettbewerbsdaten für ihre tägliche Arbeit nutzen. Das ist die Voraussetzung für ein besseres Kundenverständnis, optimierte Services, neue Produkte und schnelle Entscheidungen.

Teil des AIC ist auch die Digital Data Analytics Plattform. Diese ermöglicht es Mitarbeitern, die vor allem analytisch arbeiten, Informationen selbstständig zu verknüpfen, eigene Analysen zu erstellen und eigene Dateninformationen einzuspeisen.


Dr. Florian Wilken präsentiert am 13. November 2019, dem ersten Tag der Data Leader Days 2019, über „Marketing Performance Management: Ein Treibermodell zur optimierten Steuerung der o2 Marketing Aktivitäten.

Tickets für die Konferenz finden Sie auf der offiziellen Startseite, unter www.dataleaderdays.com.

Interview: Industrie 4.0 – Wie geht’s weiter?

Interview mit Herrn Thomas Hösle von ELABO

Digitalisierung in der Industrie gilt nun als ein altes Thema. Welchen Blickwinkel haben Sie heute noch auf die sogenannte Industrie 4.0.

Das Besondere an Industrie 4.0 ist ja, dass der in 2011 geprägte Begriff nicht beschreibt, was schon geschehen ist – im Gegensatz zu den Vorgängerbegrifflichkeiten ! – sondern was noch umgesetzt werden soll.

Den Kern von Industrie 4.0 bilden aus meiner Sicht unverändert die technologischen Elemente wie Digitalisierung, Connectivity und Automatisierung. Mit deren Hilfe soll einerseits die operative Exzellenz in Industrieunternehmen gesteigert werden, andererseits sollen auch neue, digitale Geschäftsmodelle entstehen, getreu dem Motto „Uber yourself or you will be kodaked“.

Inzwischen sind Industrie 4.0-Anwendungen – insbesondere zur Steigerung der Effizienz und Qualität sowie zur Erhöhung der Arbeitsflexibilität – salonfähig und auch umgesetzt geworden, ohne aber bereits ein Endstadium erreicht zu haben. Wo es aus meiner Sicht noch deutlichen Nachholbedarf gibt, ist bei der Nutzung der Digitalisierung für neue Geschäftsmodelle, insbesondere bei datengetriebenen Geschäftsmodellen.

Inwieweit spielen die entstehenden Daten eine Rolle in ihren Wertschöpfungsketten? Wie werden diese in ihren Systemen genutzt? Und was wird zukünftig möglich werden?

Wir sind ein typisches Beispiel für einen zweigeteilten Ansatz. Als Anwender mit überwiegend individuellen und manuellen Tätigkeiten in der Kleinserie mit hoher Varianz stehen wir bei der Erfassung bzw. Nutzung von Daten in unserer eigenen Wertschöpfungskette erst an zarten Anfängen.

Mit unserer Fabriksoftware „ELUTION“ hingegen ermöglichen wir unseren Kunden die aktive Nutzung von Daten dank der Module „Smart Data“ (automatisierte Erfassung und Archivierung prozessbezogener Daten) sowie „Analyzer Tool“. Mit letzterem erhalten die Anwender eine transparente Dokumentation aller erfassten Wertschöpfungsschritte (z.B. in einer Montage), um darauf aufbauend – entweder mit menschlicher oder künstlicher Intelligenz – Optimierungen hinsichtlich Produktivität, Qualität und Kosten unter Vermeidung von Verschwendung (Lean-Prinzipien) zu veranlassen.

Im Sinne des PDCA-Kreislauf können dann die Umsetzungsergebnisse überprüft und gegebenfalls nachgeschärft werden.

Gehen Industrie 4.0 und Künstliche Intelligenz also doch Hand in Hand?

Wenn man unter Industrie 4.0 auch versteht, dass durch den Einsatz von Sensoren (Cyberphysische Systeme) systematisch relevante Daten gesammelt werden zur Verbesserung der operativen Exzellenz, dann ist dieser Schritt wie beim Eiskunstlauf der Pflichtteil. Die Kür besteht darin, über geeignete Algorithmen – sprich KI – diese Daten in Wissen zu transformieren, um Prozesse zu optimieren, Qualität zu erhöhen und Kosten zu reduzieren. Somit geht also Industrie 4.0. Hand in Hand mit der Künstlichen Intelligenz, die als nützliches Tool in der großen Werkzeugkiste der digitalen Transformation fungiert.

Was sind aktuell die wichtigsten Use-Cases die genau jetzt und noch im Jahr 2020 eine markante Rolle spielen werden?

Die wichtigsten Use-Cases bestehen aus unserer Sicht in einem Zweiklang. Es geht zum einen darum, deutlich früher und besser über potentielle Störfälle informiert zu werden. Hierzu dienen predictive und prescriptive-Lösungen, wo KI-Anwendungen einen hohen Nutzenbeitrag leisten. Zum anderen geht es aber auch darum, die time-to-repair im Störfall zu minimieren. Dank digitaler Störungsmanagement Werkzeuge können die Ausfallzeiten von Maschinen und Anlagen deutlich reduziert werden, ohne auf das Erfahrungswissen einzelner Mitarbeiter angewiesen zu sein. Über eine digitale Lebensakte der Maschinen und Anlagen werden relevante Daten systematisch archiviert und stehen dezentral für jeden Mitarbeiter zur Verfügung, um Störfälle rasch und effizient zu beheben.


Thomas Hösle präsentiert am 14. November 2019, dem zweiten Tag der Data Leader Days 2019, über „Systematische Datengenerierung auf dem Shopfloor“.

Tickets für die Konferenz finden Sie auf der offiziellen Startseite, unter www.dataleaderdays.com.

Machine Learning in the Semiconductor Industry

Interview mit Herrn Dr. Harald Kuhn von Infineon Technologies AG

Herr Dr. Harald Kuhn ist Director bei der Infineon Technologies AG.  Er leitet das Department „Automation and Equipment Technology“, welches kurz AET genannt wird. Auf mehr als 20 Jahre Erfahrung in der Entwicklung sowie der Halbleiterherstellung in den Bereichen Frontend, Backend und Test kann der gebürtige Würzburger nunmehr zurückblicken. Nach seinem Studium der Werkstoffwissenschaften bekleidete Harald Kuhn verschiedene Positionen im Management bei Infineon/Siemens. In seiner aktuellen Rolle ist er verantwortlich für BE Automatisierung sowie auch für das Design und den Bau von differenzierenden Anlagen. Er gilt heute als einer der Pioniere unter den Führungskräften für den Einsatz von Deep Learning.

Herr Dr. Kuhn, beschreiben Sie uns doch einmal kurz Ihren Aufgabenbereich.

Mein Department ist für die zwei großen Bereiche „Sonderanlagen“ und „Automatisierung“ bei Infineon verantwortlich. Diese Bereiche ergänzen sich sehr gut in den Kompetenzen, Methoden, Aufgabenstellungen und Innovationen. Durch die weltweite Verankerung an den Standorten kennen wir die jeweiligen Anforderungen. Das hilft uns Standards als auch Innovationen gezielt und flächendeckend implementieren zu können. 

Vor welchen Herausforderungen stehen Sie bei der Produktion von Halbleitern? Wie kann „Machine Learning“ zur Bewältigung dieser Herausforderungen beitragen?

Gesamt geht es darum die Produktivität und Qualität nachhaltig zu steigern. Dies kann nur gelingen, wenn wir unsere Produktionsanlagen die mit neuster Sensorik ausgestattet sind engmaschiger überwachen. Gleichzeitig müssen wir mit den erzeugten Daten treffsichere real-time Aussagen über den Zustand unserer Maschinen und Produkte machen können. Dazu benötigen wir ML-Algorithmen die steuernd eingreifen können, um den hohen Anforderungen der Produktion hinsichtlich Qualität und Durchsatz gerecht zu werden.

Welche Technologien und Methoden kommen dabei zum Einsatz?

Wir arbeiten mit der gesamten Bandbreite von unsupervised und supervised Methoden der künstlichen Intelligenz. Gerade die hohe Variabilität in unseren Prozessen und Produkten fordert schnelle und übergreifende Lösungen.  Damit so ein breites Spektrum unserer Produktion abgedeckt werden kann, setzen wir einen besonderen Fokus auf die unsupervised Methodiken und das Transfer-Learning. Dabei ist es uns auch wichtig, dass der Erkenntnisgewinn einzelner Methoden aufeinander aufbauen kann, um so die Entwicklung unserer Methoden zu beschleunigen. Natürlich benötigen wir dazu auch die entsprechenden Technologien, um die Algorithmen in der Produktion nutzen zu können.  Hierfür ist ein modularer Aufbau unserer Machine-Learning-Ansätze und die zuverlässige sowie schnelle Verarbeitung großer Datenmengen unerlässlich. Wir setzen dabei auf Technologien wie beispielsweise Hadoop. 

Mit welcher Erfolgsquote werden bei Ihnen Machine Learning Projekte umgesetzt? Woran scheitern Projekte und was sind Faktoren für den Erfolg?

Die Herausforderung ist die Umsetzung vom Use-Case zur produktiven Implementierung und somit zum Harvesting. Hierbei ist es wichtig von Beginn an die produktive Anwendung, den möglichen Benefit als auch eine Gesamtbetrachtung der Produktionskette im Blick zu haben. Der Fokus auf dem Transfer-Leraning kommt auch hier wieder zum Tragen, sodass wir uns bei jeder Entwicklung fragen, wie eine breite Anwendung dafür aussehen und wie zukünftige Use-Cases davon profitieren könnten. Herausforderungen sind im Allgemeinen die Datenqualität und Durchgängigkeit. Erfolgsfaktor ist Motivation und ein Team aus Anwender und AI-Experten als auch Management Guidance.

Wie sind Deep Learning Projekte organisatorisch umgesetzt? Zentralisieren Sie in einer Abteilung oder verteilen Sie Know-How integrativ in einer Abteilung?

Wir haben bewusst keine dedizierte AI-Abteilung bei Infineon, sondern AI-Teams in unterschiedlichen Abteilungen und Verantwortungsbereichen. Die DL-Experten arbeiten abteilungsübergreifend in einem Team zusammen und tauschen sich aus. So erreichen wir sowohl eine schnelle Lernkurve, als auch die Breite im Unternehmen. Beim Rollout wird die jeweilige aufnehmende Abteilung frühzeitig involviert, so dass aus einem push ein pull wird. 

Die Geister scheiden sich bei der Frage, ob die Automatisierung im produzierenden Gewerbe ein gesamtwirtschaftlicher und gesellschaftlicher Vor- oder Nachteil ist. Wie ist Ihre Meinung dazu und welche Rolle wird Data Science in der Zukunft spielen?

Automatisierung eröffnet uns die Möglichkeit in Europa und Deutschland Produktionen für den Weltmarkt attraktiv zu gestalten. Wichtig ist aber eine sachliche Bewertung vom Aufwand/Benefit, um jeweils den richtigen / vernünftigen Grad der Automatisierung umzusetzen. Aus meiner Sicht ist Automatisierung und Digitalisierung ein wichtiger integraler Bestandteil für den Wirtschaftsstandort Deutschland. Aus diesem Grund wünsche ich mir mehr Kooperationen aus unterschiedlichen Unternehmen/Bereichen um Automatisierung/Digitalisierung als Vorteil nutzen zu können.
Data Science wird dabei einen wichtigen Eckpfeiler darstellen, da wir so tiefe Informationen über die Produktion erhalten und die Automatisierungsbemühungen gezielt lenken können.

 


Dr. Harald Kuhn präsentiert am 14. November 2019, dem zweiten Tag der Data Leader Days 2019, über „Machine Learning in the Semiconductor Industry“.

Tickets für die Konferenz finden Sie auf der offiziellen Startseite, unter www.dataleaderdays.com.

Interview: Was sind die Erfolgsfaktoren für die künstliche Intelligenz?

Interview mit Herrn Dr. Sönke Iwersen von der HRS Group

Herr Dr. Sönke Iwersen ist Director des Bereiches Central BI bei der HRS Group. Nach der Promotion in Statistik an der Universität Osnabrück bekleidete Herr Dr. Iwersen verschiedene Führungspositionen im Bereich Business Intelligence & Business Development  bei namhaften Firmen.

Herr Dr. Iwersen, welcher Weg hat Sie in die Business Intelligence geführt und welche Rolle spielt die künstliche Intelligenz (KI) dabei?

Das Thema Intelligenz aus Daten begleitet mich mein gesamtes Berufsleben. Zuerst war es BI mit den Themen Datawarehousing, Reporting & Analytics. Durch die Technologieentwicklung der letzten Jahre haben wir heute deutlich mehr Möglichkeiten, aus Daten Insights zu erzeugen. Diese Möglichkeiten, zusammengefast unter „ML & KI“ werden dem Themen Datenintelligenz den nächsten Schub nach vorne geben. Wir können jetzt mehr Datenvolumen in kürzerer Zeit verarbeiten und damit mehr Business Value erzeugen. Heute baut man Datenprodukte mit ML&KI-Methoden, da diese Produkte direkt Business Value erzeugen. 

Glauben Sie der Hype rund um die künstliche Intelligenz (KI) könnte abflachen? Wie weit sind wir hier wirklich und worin sehen Sie die Grenzen von KI?

Das Thema KI wird, wie jeder Hype, später abflachen und realistisch eingeordnet werden. Wir sprechen hier technisch von Konzepten, die 20 Jahre alt sind. Jetzt sind sie vielfach anwendbar und werden ihren Platz im Bereich Datenintelligenz finden bzw. haben ihn teilweise schon gefunden.
Aber Vieles ist beim Begriff KI heute noch falsch zugeordnet. Wir haben eine Trennung in Machine Learning-Themen, wo wir im Kern diese Methoden als „Rechenknechte“ nutzen. Ein kleinerer Bereich der KI wird die Algorithmik (z. B. Deep-Learning-Modelle) nutzen, um spezielle Use Cases zu ermöglichen und/oder zu optimieren. Aktuell wird aber an der Oberfläche gerne alles in den Topf der KI geworfen. Da müssen wir in Zukunft genauer definieren, worum es gerade geht.

Die Grenzen sind heute noch nicht klar zu erkennen. Die KI hat heute Einzug gehalten in die Industrien der Logistik & Transport, Banken, Automobilbranche & Travel. Dort werden KI-Themen genutzt, um Prozess-Effizienzen zu heben. Darüber hinaus kommen wertstiftende Ergebnisse aus intelligenten Datenprozessen, indem Datenprodukte genutzt werden, die KI beinhalten. Vieles davon ist aber noch im Laboratorium und sucht noch nach Marktreife für sich. Im laufenden Betrieb reden wir hier von Microservices/APIs, die auf Realtime skalieren können.

Die Grenze ist hier eindeutig die Anwendung durch den Menschen. Vieles klingt gut, erweist sich in der Entwicklung und im Testen aber nicht als stabile Lösung. Dadurch ist der Analyse-Spezialist gefragt, der diese KI-Themen steuert. 

Werden Business Intelligence und Artificial Intelligence voneinander getrennt bleiben oder zusammenwachsen?

Aus meiner Sicht haben wir auf Basis einer zentralen Datenschicht pro Unternehmen beide Streams. Das BI wird den Bereich Reporting & Analytics abdecken. Hier werden regelmäßige Aktualisierungen in einem Reporting oder in einer Analyse geliefert werden.
Der Bereich ML/KI generiert Datenprodukte, die als Module/Services funktionieren und damit anderen Anforderungen entsprechen. Das Datenprodukt muss damit schnell, flexibel & skalierbar sein und hat damit eine andere Funktionsweise als Reporting und Analytics-Lösungen.
Ich sehe dies in vielen Unternehmen als Antwort auf die Frage, wie man mit ML&KI umgeht. Beide Bereiche erfüllen wichtige Businesszwecke und bestehen damit auch beide nebeneinander. Die Herausforderung liegt darin, dass die richtige zentrale Datenbasis besteht. 

Was sind Ihre Erfolgsfaktoren dabei? Woran können solche Projekte scheitern?

Für ML/AI-Projekte braucht es drei Schritte, die ich gehe:

  1. Gibt es den Use Case samt Daten? 🡪 Nicht die richtigen Daten =  kein Case!
  2. Generieren wir Business Value?
  3. Benötigen wir diesen Case wirklich als ML/KI Case? 

Wenn dies alles richtig definiert ist, haben wir ein ML/KI-Projekt.

Erfolgsfaktoren hierfür sind folgenden Themen: richtige Skills, korrekt aufgesetztes Projektteam, Technologieansatz ist vorab definiert, erfolgreicher POC bzw. MVP (Minimum Viable Product) existiert.

Scheitern können diese KI-Projekte, wenn KI-Themen mit zu viel Druck erzeugt werden müssen. Diese Projekte benötigen aktuell noch mehr Trainings-/Kontrollschleifen, bevor sie stabil laufen. Wenn dies nicht sorgfältig zu Ende geführt wird, bleiben die Daten-Produkte in der Entwicklung hängen und erreichen keine Akzeptanz der anderen Geschäftsbereiche (zu viel Black-Box). Darin weichen diese Projekte von normalen Datenprojekten ab.

Ansonsten ist der Faktor Skills entscheidend. Zentrale Frage bei KI-projekten wird stets sein: Wer ist der Owner des KI-Algorithmus im laufenden Betrieb, um im Fehlerfall eingreifen zu können?
Ist dies unzureichend definiert, ist ein Einsatz unmöglich, da das System im Fehlerfall kippt, weil niemand die Skills hat, den KI-Algorithmus zu reparieren. 

Wie gewährleisten Sie eine realistische Erfolgsbewertung und im Endeffekt eine angemessene ROI-Einschätzung (Return-on-Investment)?

Bei uns erzeugt die Relation aus Use Case & Business Value ausreichend Transparenz, um den ROI angemessen zu bestimmen. Wir fokussieren uns in der Scopingphase ausreichend auf diesen Punkt.

Arbeiten Sie bei der Umsetzung von Projekten mit dem HRS Innovation Hub zusammen? Falls ja, wer ist der Initiator von Projekten?

Wir arbeiten global mit allen entsprechenden Entwicklungsteams zusammen. Die Impulse kommen aktuell aus dem Business/Senior Management zu uns, um hier den notwendigen Business Value zu erzeugen. Die Umsetzung startet in den Intelligence Teams, um dann als gemeinsam aufgesetztes Projektteam aus Business/Intelligence/ Produktentwicklung weiterzulaufen.

 


 

Dr. Sönke Iwersen präsentiert am 13. November 2019, dem ersten Tag der Data Leader Days 2019, über „ML/AI gets normal: How to make it successful“.

Tickets für die Konferenz finden Sie auf der offiziellen Startseite, unter www.dataleaderdays.com.

Interview: Daten – Chancen und Herausforderungen für eventim

Fred Türling ist Senior Vice President Information Science bei der CTS Eventim AG. Schwerpunkte seiner 20-jährigen analytischen Arbeit liegen in den Fachgebieten Social Media und Web Analytics, Targeting und Kampagnen Management, Business Intelligence und Data Warehousing für die Branchen Medien, Handel sowie Internet- und Telekommunikations-Services. Zuvor war Türling in leitenden Positionen bei United Internet Media, SHS VIVEON, AOL, Otto und Siemens tätig.

 

Insbesondere Geschäftsmodelle mit vielen Teilnehmern, wie das Ticketing im Live Entertainment, gelten als besonders potent hinsichtlich der Datennutzung. Können Sie das bestätigen?

Eventim verkauft pro Jahr über 250 Millionen Eintrittskarten zu 850.000 Events in 21 Märkten. Wir nutzen unseren Datenschatz zum einen für die personalisierte Ansprache unserer B2C Kunden, insbesondere in der Empfehlung relevanter Events. Zum anderen testen wir die Datennutzung auch in der Event-Planung und -Advertisment für unser Promoter-Netzwerk EVENTIM LIVE, das mehr als 25 Veranstalter umfasst.

In Deutschland wird genauer auf die Speicherung von Daten geschaut und auch sehen die Menschen hierzulande die Speicherung ihrer Daten kritischer als in anderen Ländern. Stört diese Tatsache Sie bei der Geschäftsentwicklung?
Mit der DSGVO und der EU-Privacy Verordnung hat der Gesetzgeber klare Rahmenbedingungen geschaffen, um für den Verbraucher eine hohe Transparenz und Kontrolle über Datennutzung zu etablieren. Richtig angewandt behindern diese die Datennutzung für Unternehmen nicht, insbesondere, wenn der Kunde den Mehrwert der darauf aufsetzenden Services erklärt bekommt.

Bei welchen kaufmännischen Herausforderungen wird Ihnen Data Science und KI helfen können?
Wie beschrieben sehen wir attraktive Nutzungsmöglichkeiten im Marketing und im Produkt Management – erfolgreiche Use Cases müssen aber in der Regel solide entwickelt, getestet und vielfach in mehreren Stufen optimiert werden.

Stand heute: Was sind Ihre Top-Anwendungsfälle für Predictive Analytics? Welche Methoden und Technologien nutzen Sie dafür?

Für unsere Recommendation Engine nutzen wir eine Überlagerung mehrerer algorithmischer Ansätze u.a. z.B. Random Forest – wir testen aber regelmäßig weitere Modelling Verfahren. In einigen Scoring Aufgaben haben wir auch recht einfache logistische Regressionen im Einsatz.

 


Fred Türling präsentiert am 13. November 2019, dem ersten Tag der Data Leader Days 2019, über „Event Recommendation in der Customer Journey zum Live Entertainment“.

Tickets für die Konferenz finden Sie auf der offiziellen Startseite, unter www.dataleaderdays.com.

Interview: Data Culture eats Data Strategy for breakfast

Interview mit Herrn Dr. Stefan Kühn von TOM TAILOR

Dr. Stefan Kühn ist Head of Data & Intelligence bei der TOM TAILOR Group und beschäftigt sich seit vielen Jahren mit Data Science, Machine Learning und AI. Nach der Promotion in angewandter Mathematik am Max-Planck-Institut für Mathematik in Leipzig war er in verschiedenen Fach- und Führungspositionen für die codecentric AG, Zalando und XING tätig.

 

Herr Dr. Kühn, was hat Ihre Leidenschaft für Daten geweckt und was hat Sie dazu bewegt diesen Job auszuüben?

Am Anfang stand sicherlich die Möglichkeit, komplexe Algorithmen auf echte Daten anwenden und dadurch relevante Informationen gewinnen und echte Probleme lösen zu können, die auf klassischem Wege nicht oder nicht gut gelöst werden konnten. Die Möglichkeiten der etablierten und auch neueren Machine- und Deep-Learning-Verfahren, eine Fragestellung auf intelligente Art und Weise zu modellieren, zu strukturieren und dann schrittweise zu lösen, sind aus Sicht eines Wissenschaftlers einfach faszinierend. Doch um tatsächlich in der echten Welt etwas zu verändern, reichen Prototypen nicht aus. Das Productionizing intelligenter Algorithmen ist eine Teamaufgabe, und die meisten Firmen sind ja bereits mit der Digitalisierung mehr als genügend gefordert, sodass in den seltensten Fällen eine tragfähige Data Strategy existiert. Und so bin ich über die fachliche Faszination der Algorithmen zur deutlich schwierigeren und breiteren Aufgabe der organisatorischen Entwicklung und Umsetzung einer guten Data Strategy gekommen. Aber Vorsicht, Data Culture eats Data Strategy for breakfast, deswegen darf man den nötigen Kulturwandel niemals außer Acht lassen.

 

Gibt es eine Datenstrategie in Ihrer Firma, um Daten in einen betriebswirtschaftlichen Mehrwert zu verwandeln? Welche Abteilungen werden dabei mit einbezogen?

Ja. Ohne nachhaltige Datenstrategie würde die Arbeit meiner Abteilung gar keinen nachhaltigen Einfluss auf Tom Tailor nehmen können. Unser Ansatz sieht vor, nach und nach und vor allem möglichst früh alle Abteilungen mit einzuziehen. Natürlich sind einige Abteilungen „näher dran“, wie etwa der bereits sehr gut aufgestellte E-Commerce-Bereich, aber auch alle anderen Abteilungen – Einzel- und Großhandel, aber auch unser Einkauf und natürlich Abteilungen aus dem Operations-Bereich wie unser Supply Chain Team können von unserer Zuarbeit profitieren, genauso wie das Data&Intelligence-Team durch Kooperation mit den Fachabteilungen nur gewinnen kann. In einem ersten Schritt entwickeln wir eine zentrale Datenplattform, über die dann im zweiten Schritt maßgeschneiderte Datenprodukte und Data Services für alle Stakeholder bereitgestellt werden. Wir arbeiten hierbei mit einem zentralen Expertenteam, welches sehr eng in die fachlichen Abläufe eingebunden ist über direkt in den Fachabteilungen integrierte Datenexperten.

 

Artificial Intelligence (AI) birgt großes Potential, aber nur wenn der User sich auch die Ergebnisse von AI zunutze macht und diese umsetzt. Welche Hemmnisse haben interne User Ihrer Meinung nach und wie versuchen Sie diese zu beseitigen?

Bei uns ist die interne Akzeptanz für Datenprodukte bereits sehr hoch, da in vielen Bereichen seit langem mit Daten gearbeitet wird. Die größten Herausforderungen sehen wir momentan in der Integration der heterogenen Datenquellen und der anschließenden Validierung der Daten und der darauf basierenden Datenprodukte, im einfachsten Falle etwa einem Standard-Report. Hier müssen natürlich zunächst alle bisherigen Ergebnisse reproduziert werden können, damit wir den nächsten Schritt gehen und in die Zukunft schauen können – etwa mit Langzeit-Forecastings und selbstlernenden Systemen. Die Akzeptanz der von uns eingesetzten neuen Tools ist dagegen überhaupt kein Problem, da diese Tools in Bezug auf Usability und Self-Service einfach sehr gut und intuitiv nutzbar sind, so dass wir mit sehr geringem Schulungsaufwand bereits eine sehr hohe Userakzeptanz erreichen.

 

Welche Algorithmen und Tools verwenden Sie für Ihre Anwendungsfälle?

Unser Tooling würde ich in verschiedene Bereiche aufteilen. Als Visualisierungs- und Self-Service-Tool für die Fachabteilungen setzen wir Tableau ein – dies ist vor allem in Hinblick auf die Bereitstellung von Daten und Services und die Akzeptanz der Fachbereiche unser wichtigstes Tool. Die von uns genutzten grundlegenden Infrastrukturkomponenten liefert die AWS  – aus Datensicht wären das im Wesentlichen S3, Redshift, EC2, EMR etc. Für das Data Engineering und Processing verwenden wir Python, Scala und Spark, je nach Use Case. Im Machine-Learning-Bereich verwenden wir unter anderem Jupyter Hub, wo die Data Scientists Prototypen in R- oder Python-Notebooks entwickeln und neue Ideen testen können. Die Algorithmen sind sehr unterschiedlich, wir verwenden Forecasting-Algorithmen wie prophet, aber auch relativ einfach a-priori-Algorithmen oder CLV-Modelle. Eines meiner Lieblingsgebiete sind z.B. Clustering-Verfahren bzw. Unsupervised Learning generell. 

 

Es gibt immer mehr Studiengänge zur Erlangung eines Hochschulabschlusses des Data Scientist. Wie beurteilen Sie die Qualität der Ausbildung junger Absolventen?

Das lässt sich meiner Meinung nach so pauschal gar nicht beantworten. Ich bin mir auch nicht so sicher, ob ein Master in Data Science wirklich einem Master in Bioinformatik, Physik oder Mathematik vorzuziehen ist. In meinen Augen fehlt vielen Data Scientists, die mit „nacktem“ Methodenwissen mit einem Master in Data Science von der Uni kommen, die Erfahrung mit einer Problemdomäne, einem Anwendungsfeld in der echten Welt. Die geschickte Modellierung der Vorgänge in der echten Welt und die intelligente Auswertung der Daten in Bezug auf dieses Modell sind in meinen Augen die beiden Kernkompetenzen, die das Berufsfeld Data Science ausmachen. Die reine Anwendung von vorinstallierten Algorithmen auf vorstrukturierte Daten ohne Verständnis der diese Daten generierenden Prozesse und der Evolution der Algorithmen ist in meinen Augen nicht zielführend, lässt sich allerdings relativ leicht lehren und prüfen.


Dr. Stefan Kühn präsentiert am 13. November 2019, dem ersten Tag der Data Leader Days 2019, über „ Talk Data to me – from Data Science to Business Science“.

Tickets für die Konferenz finden Sie auf der offiziellen Startseite, unter www.dataleaderdays.com.

Interview: Artificial Intelligence at Schwarz IT

Artificial Intelligence at SIT: A perspective of an expert

Andrey Sharapov is a data scientist and data engineer at Schwarz IT. He is currently working on various projects related to machine learning and data product development. Previously, he spent 2 years at Xaxis where he helps to develop a campaign optimization tool for GroupM agencies, then at TeamViewer, where he led data science initiatives and developed a tool for customer analytics. Andrey is interested in „explainable AI“ and is passionate about making machine learning accessible to the general public.

What are your main topics as a data scientist at SIT? Which use cases are you currently working on?

I have very wide responsibilities. Primarily, I am working on machine learning bases product that helps promotion managers to make better decisions. This involves algorithm development, system architecture, the industrialization of the product, etc. Additionally, I work together with the infrastructure team to bring new technology that can be used for Data Product development. 

What algorithms and tools are you using?

We heavily use Python and Machine learning algorithms available for it such as ones in sklearn. We also use Keras for some problems. Also, Hadoop, Spark, and Kubernetes are a part of our technology stack.

Not always things are working out: according to your experience how high is the level of success for data projects and which success factors are the most relevant?

We try to make all our projects succeed. The major challenges are the scaling and robustification of the software we write for all countries. Very hard to make everyone happy. Another major challenge is communication with final users. These people rarely become a part of the product feature establishment.

The retail sector is considered an industrial section with a high potential for data science and AI, would you agree with this statement? What else do you think will be relevant in 2020/2021?

Retail has a high potential for AI. For us, the major challenge is product industrialization.


Dr. Andrey Sharapov präsentiert am 13. November 2019, dem ersten Tag der Data Leader Days 2019, über „ Building a bridge between business & data science using Explainable AI“.

Tickets für die Konferenz finden Sie auf der offiziellen Startseite, unter www.dataleaderdays.com.