Beiträge

Mobilität in der digitalen Welt – Herr Dr. Wiegels von FREE NOW berichtet

 Interview mit Herrn Dr. Tim Wiegels von FREE NOW

Tim Wiegels leitet seit August 2018 als Head of DATA die Bereiche Analytics, Data Engineering, Data Science und Marketing Intelligence bei FREE NOW (ehemals mytaxi). In dieser Funktion erarbeitet und steuert Tim die DATA-Strategie und sorgt für ein verstärktes Data-Driven Mindset in allen Bereichen. Zuvor arbeitete Tim als Director Data and Marketing bei der HitFox Gruppe und verantwortete dieselben Bereiche auch bei der Tochterfirma Heartbeat Labs. Weitere Stationen als Data Scientist, Product Owner, Team Lead für Business Intelligence Controlling, Tracking und Reporting, sowie Business Analytics beinhalten Goodgame Studios und XING. Sein Studium und seine Promotion in Bioinformatik schloss Tim erfolgreich an der Universität Hamburg und am Europäischen Molekularbiologischen Laboratorium (EMBL) ab.

Mit FREE NOW haben Sie eine traditionelle Branche aufgebrochen und digitalisiert. Welche Schwierigkeiten hatten Sie dabei am Anfang mit Data Engineering, also beim Daten erfassen und speichern?

Grundlegend gibt es bei der Erfassung der Daten keine großen Unterschiede zwischen Apps, die eher traditionelle Branchen bedienen und z.B. Apps für Mobile Gaming. Die eigentliche Problematik wird bereits in der Entwicklung der Apps behandelt, also z.B. ein DSGVO-konformes Tracking der Standorte von Fahrer und Passagier, um hier das bestmögliche Matching zu gewährleisten. Wenn diese Funktionen richtig implementiert sind, ist es wichtig bei allen Teams, die an der Entwicklung beteiligt sind (also Product, Tech und Marketing / Operations), ein starkes Data-Driven Mindset zu etablieren und Klarheit zu schaffen, dass dieser weitere Arbeitsschritt der Datenerfassung kein Overhead, sondern ein essentieller Bestandteil der Entwicklungsarbeit ist. Sobald sich hier alle Beteiligten bewusst sind, dass diese Prozesse geschäftsentscheidend sind, steht einem reibungslosen Ablauf nichts im Weg.

Was sind aktuell Ihre wichtigsten Anwendungen für Data Science? Welche Technologien und Methoden setzen Sie dabei ein?

Bei FREE NOW nutzen wir Data Science und Machine Learning für viele verschiedene Anwendungsfälle. Angefangen beim Vorschlagen der Zieladresse für den Passagier über eine Vorhersage des Fahrpreises einer Taxifahrt (basierend auf dem jeweiligen Taxitarif, Fahrtzeit und Distanz), diverser Methoden um Angebot und Nachfrage vorherzusagen (wieder, um ein besseres und schnelleres Matching zu gewährleisten) bis hin zu einer Vielzahl von Automatisierungen um manuelle Arbeit zu vermeiden und Kapazitäten besser zu nutzen sowie Vorhersagemechanismen zum Nutzerverhalten und Geschäftskennzahlen. Wir nutzen hier eine Vielzahl von Standardmethoden und Tools der Data Science (z.B. Python, Jupyter Notebooks, etc.).

Mit der Nutzung von Daten wird das Thema Datenschutz und -sicherheit immer relevanter. Wie stellen Sie hier den Schutz sicher ohne gleichfalls den Kundennutzen und die Kundenzufriedenheit zu gefährden?

Als europaweit-agierendes Unternehmenist Datensicherheit für uns sehr wichtig und Bestandteil all unserer Systeme. Die Erfassung und Verarbeitung von Daten (insbesondere bei Nutzung von Drittanbietern) ist komplett DSGVO-konform. Natürlich stellt uns das vor diverse Probleme, angefangen von der Nutzung unserer Daten im Marketing bis hin zur Vermittlung zwischen Fahrer und Passagier. Wir haben daher unsere allgemeine Analyse und interne Nutzung von Daten komplett auf anonymisierte Daten umgestellt und in allen Datenbanken den Zugriff auf persönliche Daten stark eingeschränkt. Für Features die die Verarbeitung von persönlichen Daten erfordern, um den Kundennutzen zu steigern (z.B. der Vorschlag der Zieladresse), arbeiten wir sehr eng mit unserem Data Protection Officer zusammen, um Datensicherheit stets zu gewährleisten und die jeweiligen Anwendungsfälle allen Kunden transparent zu machen.

Was wird Ihrer Meinung nach für 2020 und 2021 die neuen Trends stellen? Was könnte sich dabei im Workflow eines Data Scientists ändern?

Data Science wird sich meiner Meinung nach viel mehr in die Richtung von Plattformen entwickeln. Aktuell sind viele Lösungen und Implementationen noch stark auf den jeweiligen Anwendungsfall angepasst und stellen daher oft Insellösungen dar die nicht unendlich (oft sogar nur sehr limitiert) skalierbar sind. Die Entwicklung von Machine Learning Pipelines und Nutzung von AI-Plattformen (z.B. Angebote von Partnern wie Amazon, Google oder Adobe) wird dabei in Zukunft stärker in den Vordergrund treten. Dies wird in zwei Schritten passieren, wobei der erste die Nutzung im Prototyping sein wird, um viele Datensets schneller zu bootstrappen und viele verschiedene algorithmische Methoden zu testen, um das beste Modell für eine spätere, jedoch noch individuelle Implementation in Product, etc. zu finden. Der zweite Schritt wird eine komplette Implementation jener Plattformen direkt in die Live-Produkte sein. Hierfür muss natürlich ein perfektes Monitoring, Trennung von Development / Staging und Live-Environments und Implementation von Backup-Lösungen gegeben sein, damit die Data Science-Methoden und -Plattformen nicht in Bottlenecks oder Gefährdung eines kontinuierlichen Betriebs resultieren.

In der täglichen Arbeit eines Data Scientists wird – und muss – sich in Zukunft auch eine viel stärkere Vernetzung der Entwicklungsarbeit mit dem Produktmanagement finden. Ein essentieller Bestandteil der Applikation von Data Science in jeder Fachrichtung ist das Verständnis und die Transparenz der Methoden. Dies erfordert einen kontinuierlichen Austausch zwischen Data Scientists und den Stakeholdern, um ein starkes Alignment zu schaffen und ein Auseinanderdriften zwischen Verständnis der Entwickler und Erwartungen und Bedürfnisse von Nutzern zu vermeiden. Dies wird in vielen Firmen schon über die Position von Produktmanagern oder Product Ownern für Data Science abgedeckt. Ich halte es  jedoch für absolut notwendig, dass jeder Data Scientist dieses Mindset verfolgt.

 


Dr. Tim Wiegels (FREENOW) präsentiert am 13. November 2019, dem ersten Tag der Data Leader Days 2019, über „Data-driven Marketing for mobile apps in three easy steps.

Transforming Logistics with AI – Selected Applications at DB Schenker

Interview mit Herrn Dr. Joachim Weise von DB Schenker

Herr Dr. Joachim Weise ist Senior Vice President für den Bereich Global Data Strategy and Analytics bei DB Schenker. Er studierte Wirtschaftsingenieurwesen an der TU Berlin, Production Management an der Chalmers University of Technology in Göteborg und promovierte im Innovationsmanagement an der TU Berlin. 

 

Was ist Ihr Aufgabenbereich als Senior Vice President Gobal Data Strategy and Analytics bei DB Schenker.

Seit Gründung 2016 leite ich den Bereich Global Data Strategy & Analytics (GDSA), eine von drei direkt unter dem CDO/CIO angesiedelten Digitalisierungseinheiten bei DB Schenker. Wir entwickeln und verfolgen eine unternehmensweite und zukunftsorientierte Datenstrategie, entwickeln und implementieren datengetriebene Geschäftsmodelle und generieren prozessrelevantes Wissen im Rahmen von Analytik- und Optimierungsprojekten. Unser Team besteht aus Business Consultants, Data Scientists, Operations Research Specialists und Big Data Engineers – größtenteils völlig neue Jobprofile für die Logistik. Hierbei kommen moderne Verfahren aus den Bereichen Machine Learning bzw. künstliche Intelligenz zum Einsatz, beispielsweise statistische Methoden, Verfahren der Mustererkennung, Simulationen und Optimierungsverfahren. Als Querschnittsfunktion setzen wir auf agile, abteilungsübergreifende Initiativen, die sich – ähnlich wie in einem Start-up – kurzfristig umsetzen lassen, um so Erfolge schnell nachzuweisen. 

Sind gute Data Scientists Ihrer Erfahrung nach tendenziell eher Beratertypen oder introvertierte Nerds?

Die Frage ist so einfach nicht zu beantworten. Ein guter Data Scientist sollte in meinen Augen nicht nur ein talentierter Mathematiker oder Informatiker sein, er sollte auch unternehmerische Fähigkeiten besitzen, eine schnelle Auffassungsgabe gemixt mit einem guten Verständnis von Geschäftsprozessen. Denn letztendlich ist der Erfolg einer unternehmensweiten Implementierung und Anwendung unserer Algorithmen davon abhängig, dass unsere Lösungen den Geschäftseinheiten einen Mehrwert bieten. Um die Anschlussfähigkeit meiner Abteilung mit dem Kerngeschäft sicherzustellen haben wir ja zusätzlich auch ein eigenes Team von „Business Consultants Data“ aufgebaut.

Logistikunternehmen erkennen immer mehr das Potential von Daten und entwickeln Strategien zur optimalen Nutzung. Wie sehen Sie den Reifegrad der Datennutzung in der Logistik und wo sehen Sie Ihr Unternehmen verglichen mit Wettbewerbern?

 Gerade in der Logistik ist die Anzahl der täglich generierten Daten in den letzten Jahren exponentiell gestiegen. Das Datenvolumen hat sich vertausendfacht, das stellt unsere doch sehr traditionelle Branche vor immer größere Herausforderungen, bietet allerdings gleichzeitig enormes Optimierungs- und Effizienzsteigerungspotential, was wir unbedingt nutzen wollen. Allerdings gehen große Datenmengen selten mit einer guten Datenqualität einher. Vor diesem Hintergrund wird die strukturierte Sammlung und Auswertung der generierten Daten immer wichtiger. Das Potential ist hoch! Neben der Schaffung technischer Grundvoraussetzungen ist insbesondere eine noch stärkere Sensibilisierung im operativen Geschäft für die immense Bedeutung von Datenqualität unverzichtbar. 

Als einer der größten Logistikdienstleister der Welt, verarbeiten wir bei DB Schenker bereits große Datenmengen aus verschiedensten internen und externen Quellen, beispielsweise Verkehrs- oder Wetterdaten, für komplexe Datenanalysen zur Aufkommensprognose, Netzwerkoptimierung, Predictive Pricing, Warehouse Analytics oder Kundenanalysen. 

Die Konkurrenz schläft aber auch nicht. Es tauchen völlig neue Player auf der Spielfläche auf, wie beispielsweise Amazon, die ursprünglich als Onlinebuchhändler gestartet sind und mit Amazon Logistics mittlerweile einen eigenen Speditionsdienst haben. Aber auch kleine Startups revolutionieren die Logistik gezielt mit digitalen, datenbasierten Geschäftsmodellen, und genau daran wollen wir auch anknüpfen. Wir nutzen das Potential, die aktuelle Dynamik und den Start-up-Spirit, um DB Schenker zu einem datengetriebenen Unternehmen zu transformieren und so auch zukünftig branchenführend zu bleiben.  

Welche Methoden und Tools aus dem Bereich AI finden bei Ihnen Anwendung und können Sie abschätzen, welche in Zukunft immer mehr an Bedeutung gewinnen werden?

Auf der einen Seite setzen wir gängige Methoden aus den Bereichen Statistik und Machine Learning an, wie zum Beispiel Zeitreihenanalysen, Ensemble Methoden oder Deep Learning. Auf der anderen Seite spielen in der Logistik natürlich Methoden aus dem Bereich Operations Research / Mathematische Optimierung eine große Rolle. Wir vereinen beide Kompetenzbereiche in einem Team und integrieren die Ansätze soweit möglich.

Praktische Beispiele sind u.a. die Echtzeitoptimierung bei der Disposition von Ladungsverkehren im Landverkehr, die Erstellung von Sendungsprognosen oder die Mustererkennung in großen Mengen von Sendungsdaten zur effektiveren Steuerung des operativen Geschäfts. Aber auch an der Kundenschnittstelle werden zunehmend Methoden der künstlichen Intelligenz eingesetzt, z.B. um die Kundenbindung zu erhöhen oder die Preisbildung zu optimieren.

Langfristiges Ziel ist es, entlang der gesamten Wertschöpfungskette immer mehr auf intelligente Unterstützung von Geschäftsentscheidungen durch künstliche Intelligenz zu setzen. Die Verfügbarkeit von qualitätsgesicherten Daten in Echtzeit wird dabei zur Grundvoraussetzung für intelligente, selbstlernde AI-Lösungen. 

Wo liegen die Grenzen von AI aus Ihrer Sicht?

Nach meinem Empfinden sind wir aktuell noch weit entfernt von einer „Artificial General Intelligence (AGI)“ – also einer künstlichen Intelligenz, die ähnlich wie ein Mensch ein breites Feld von Entscheidungssituationen bewältigen und dabei auch den Kontext von unscharfen Informationen und Situationen verarbeiten kann. 

Wenn wir die Entwicklung von AI auf ein Menschenleben übertragen, sind wir wohl aktuell noch auf der Entwicklungsstufe eines Kleinkinds. Neben derzeit viel diskutierten ethischen Grenzen spielen auch technische Limitierungen eine große Rolle. Fähigkeiten und Qualität eines AI-Systems hängen oft stark vom konkreten Use Case ab und auch ein Deep Learning System kann nur so gut sein wie die Daten, mit denen es trainiert wird. Wie bereits zuvor erwähnt, ist gerade der Aspekt der Datenqualität eine unserer größten Herausforderungen. Und das gilt sicher nicht nur für die Logistik. 

Dennoch sind wir sicher, dass Logistik zu den Branchen gehört, in der künstliche Intelligenz und die allgemeiner die Digitalisierung von Geschäftsmodellen zu den stärksten Veränderungen führen wird. Diese Veränderung wollen wir aktiv mitgestalten!


Dr. Joachim Weise (DB Schenker) präsentiert am 14. November 2019, dem zweiten Tag der Data Leader Days 2019, über „Transforming Logistics with AI – Selected Applications at DB Schenker.

Tickets für die Konferenz finden Sie auf der offiziellen Startseite, unter www.dataleaderdays.com.

Interview mit Herrn Dr. Florian Wilken von Telefónica

Interview mit Herrn Dr. Florian Wilken von Telefónica

Dr. Florian Wilken ist Leiter der Abteilung Analytical Models & Foresight bei Telefónica Deutschland. Nach  dem Physik-Studium und einer Promotion in Wirtschaftswissenschaften war er zunächst bei der Boston Consulting Group tätig. Nach seinem Wechsel  übernahm er Verantwortung in verschiedenen Positionen bei Telefónica in den Bereichen Strategie und Innovation.

Welche Themen verantworten Sie bei der Telefónica? Und wie würden Sie “Digital” von “Data” abgrenzen?

Als Analytical Models & Foresight-Team sind wir Teil des Digital & Data Competence Centers bei Telefónica Deutschland. Wir unterstützen die Telefónica Fachbereiche mit analytischen Modellen, die wir unter Nutzung neuester Data-Science-Methoden entwickeln. Dadurch ermöglichen wir datengetriebene Entscheidungen und Prozesse, beispielsweise im Marketing-, Vertriebs- und Netzwerk-Umfeld.

Bei Telefónica verfügen wir als führender Telekommunikationsanbieter über eine Vielzahl von Daten. Diese sind der Rohstoff, auf dessen Grundlage wir als Unternehmen digital arbeiten. Zum Beispiel, indem wir aus den Daten Erkenntnisse ableiten und diese für die Optimierung unserer Produkte und Prozesse nutzen. 

Letztendlich ermöglichen wir so, dass unsere Kunden die Errungenschaften der Digitalisierung jederzeit und an jedem Ort nutzen können.

Welche Anwendungsfälle und Ideen im Kontext der Nutzung von Daten beschäftigen Sie im Moment konkret? Was sind Ihre derzeitigen Top-Anwendungsfälle?

Wir decken ein breites Spektrum an analytischen Anwendungsfällen für fast alle Fachbereiche bei Telefónica Deutschland ab. 

Beispielsweise analysieren wir die sozialen Medien, um besser und schneller zu verstehen, was unsere Kunden über unsere Produkte und das Unternehmen im öffentlichen Raum sagen. So können wir kurzfristig auf Bedürfnisse und Kritik reagieren.

Bei der Wartung unseres Telekommunikationsnetzes nutzen wir künstliche Intelligenz, um Störungen zu vermeiden bzw. die Behebung zu optimieren. So bewerten wir Störungen in erster Linie nach den Auswirkungen auf die Kunden und sagen beispielsweise wiederkehrende Störungen präzise vorher. Dadurch reduzieren wir die Einschränkungen für unsere Kunden und verbessern die Kundenzufriedenheit.

Mit den Kolleginnen und Kollegen im Marketing setzen wir das Marketing Performance Management Modell ein, um wesentliche Einflussfaktoren auf unser Neukundengeschäft zu identifizieren und zu bewerten. Dies ermöglicht die Optimierung unserer Marketingaktivitäten.

Was sind aus Ihrer Erfahrung die wichtigsten Erfolgsfaktoren dabei? Woran scheitern solche Projekte gerne – und wie kann man dagegen steuern?

Zentraler Erfolgsfaktor ist eine große und vor allem gute Datenbasis. Außerdem braucht man exzellente Data Analysten und Data Scientists, die über umfassendes  Wissen und im besten Fall über langjährige Erfahrung verfügen. 

Zudem ist eine enge Zusammenarbeit mit dem jeweiligen Fachbereich sowie eine offene Unternehmenskultur und Herangehensweise wichtig – die Mitarbeiter müssen experimentieren dürfen. 

Welche Möglichkeiten haben denn Mitarbeiter bei Telefónica selbst mit Daten zu arbeiten? Und was ist Ihre Rolle dabei?

Wir stellen im Unternehmen das Analytical Insights Center als zentralen Self-Service zur Verfügung: So können die Kollegen in den Fachbereichen eigenständig datengetrieben Arbeiten. Inhaltlich konzentrieren wir uns als Team dann stärker auf komplexe Analysen und neue Modelle.

Über das Analytical Insights Center kann jeder Mitarbeiter – im Rahmen der entsprechenden Datenschutz-Regelungen – auf Daten und Analysen zugreifen. So können Mitarbeiter Unternehmens-, Markt- und Wettbewerbsdaten für ihre tägliche Arbeit nutzen. Das ist die Voraussetzung für ein besseres Kundenverständnis, optimierte Services, neue Produkte und schnelle Entscheidungen.

Teil des AIC ist auch die Digital Data Analytics Plattform. Diese ermöglicht es Mitarbeitern, die vor allem analytisch arbeiten, Informationen selbstständig zu verknüpfen, eigene Analysen zu erstellen und eigene Dateninformationen einzuspeisen.


Dr. Florian Wilken präsentiert am 13. November 2019, dem ersten Tag der Data Leader Days 2019, über „Marketing Performance Management: Ein Treibermodell zur optimierten Steuerung der o2 Marketing Aktivitäten.

Tickets für die Konferenz finden Sie auf der offiziellen Startseite, unter www.dataleaderdays.com.

Interview: Data Culture eats Data Strategy for breakfast

Interview mit Herrn Dr. Stefan Kühn von TOM TAILOR

Dr. Stefan Kühn ist Head of Data & Intelligence bei der TOM TAILOR Group und beschäftigt sich seit vielen Jahren mit Data Science, Machine Learning und AI. Nach der Promotion in angewandter Mathematik am Max-Planck-Institut für Mathematik in Leipzig war er in verschiedenen Fach- und Führungspositionen für die codecentric AG, Zalando und XING tätig.

 

Herr Dr. Kühn, was hat Ihre Leidenschaft für Daten geweckt und was hat Sie dazu bewegt diesen Job auszuüben?

Am Anfang stand sicherlich die Möglichkeit, komplexe Algorithmen auf echte Daten anwenden und dadurch relevante Informationen gewinnen und echte Probleme lösen zu können, die auf klassischem Wege nicht oder nicht gut gelöst werden konnten. Die Möglichkeiten der etablierten und auch neueren Machine- und Deep-Learning-Verfahren, eine Fragestellung auf intelligente Art und Weise zu modellieren, zu strukturieren und dann schrittweise zu lösen, sind aus Sicht eines Wissenschaftlers einfach faszinierend. Doch um tatsächlich in der echten Welt etwas zu verändern, reichen Prototypen nicht aus. Das Productionizing intelligenter Algorithmen ist eine Teamaufgabe, und die meisten Firmen sind ja bereits mit der Digitalisierung mehr als genügend gefordert, sodass in den seltensten Fällen eine tragfähige Data Strategy existiert. Und so bin ich über die fachliche Faszination der Algorithmen zur deutlich schwierigeren und breiteren Aufgabe der organisatorischen Entwicklung und Umsetzung einer guten Data Strategy gekommen. Aber Vorsicht, Data Culture eats Data Strategy for breakfast, deswegen darf man den nötigen Kulturwandel niemals außer Acht lassen.

 

Gibt es eine Datenstrategie in Ihrer Firma, um Daten in einen betriebswirtschaftlichen Mehrwert zu verwandeln? Welche Abteilungen werden dabei mit einbezogen?

Ja. Ohne nachhaltige Datenstrategie würde die Arbeit meiner Abteilung gar keinen nachhaltigen Einfluss auf Tom Tailor nehmen können. Unser Ansatz sieht vor, nach und nach und vor allem möglichst früh alle Abteilungen mit einzuziehen. Natürlich sind einige Abteilungen „näher dran“, wie etwa der bereits sehr gut aufgestellte E-Commerce-Bereich, aber auch alle anderen Abteilungen – Einzel- und Großhandel, aber auch unser Einkauf und natürlich Abteilungen aus dem Operations-Bereich wie unser Supply Chain Team können von unserer Zuarbeit profitieren, genauso wie das Data&Intelligence-Team durch Kooperation mit den Fachabteilungen nur gewinnen kann. In einem ersten Schritt entwickeln wir eine zentrale Datenplattform, über die dann im zweiten Schritt maßgeschneiderte Datenprodukte und Data Services für alle Stakeholder bereitgestellt werden. Wir arbeiten hierbei mit einem zentralen Expertenteam, welches sehr eng in die fachlichen Abläufe eingebunden ist über direkt in den Fachabteilungen integrierte Datenexperten.

 

Artificial Intelligence (AI) birgt großes Potential, aber nur wenn der User sich auch die Ergebnisse von AI zunutze macht und diese umsetzt. Welche Hemmnisse haben interne User Ihrer Meinung nach und wie versuchen Sie diese zu beseitigen?

Bei uns ist die interne Akzeptanz für Datenprodukte bereits sehr hoch, da in vielen Bereichen seit langem mit Daten gearbeitet wird. Die größten Herausforderungen sehen wir momentan in der Integration der heterogenen Datenquellen und der anschließenden Validierung der Daten und der darauf basierenden Datenprodukte, im einfachsten Falle etwa einem Standard-Report. Hier müssen natürlich zunächst alle bisherigen Ergebnisse reproduziert werden können, damit wir den nächsten Schritt gehen und in die Zukunft schauen können – etwa mit Langzeit-Forecastings und selbstlernenden Systemen. Die Akzeptanz der von uns eingesetzten neuen Tools ist dagegen überhaupt kein Problem, da diese Tools in Bezug auf Usability und Self-Service einfach sehr gut und intuitiv nutzbar sind, so dass wir mit sehr geringem Schulungsaufwand bereits eine sehr hohe Userakzeptanz erreichen.

 

Welche Algorithmen und Tools verwenden Sie für Ihre Anwendungsfälle?

Unser Tooling würde ich in verschiedene Bereiche aufteilen. Als Visualisierungs- und Self-Service-Tool für die Fachabteilungen setzen wir Tableau ein – dies ist vor allem in Hinblick auf die Bereitstellung von Daten und Services und die Akzeptanz der Fachbereiche unser wichtigstes Tool. Die von uns genutzten grundlegenden Infrastrukturkomponenten liefert die AWS  – aus Datensicht wären das im Wesentlichen S3, Redshift, EC2, EMR etc. Für das Data Engineering und Processing verwenden wir Python, Scala und Spark, je nach Use Case. Im Machine-Learning-Bereich verwenden wir unter anderem Jupyter Hub, wo die Data Scientists Prototypen in R- oder Python-Notebooks entwickeln und neue Ideen testen können. Die Algorithmen sind sehr unterschiedlich, wir verwenden Forecasting-Algorithmen wie prophet, aber auch relativ einfach a-priori-Algorithmen oder CLV-Modelle. Eines meiner Lieblingsgebiete sind z.B. Clustering-Verfahren bzw. Unsupervised Learning generell. 

 

Es gibt immer mehr Studiengänge zur Erlangung eines Hochschulabschlusses des Data Scientist. Wie beurteilen Sie die Qualität der Ausbildung junger Absolventen?

Das lässt sich meiner Meinung nach so pauschal gar nicht beantworten. Ich bin mir auch nicht so sicher, ob ein Master in Data Science wirklich einem Master in Bioinformatik, Physik oder Mathematik vorzuziehen ist. In meinen Augen fehlt vielen Data Scientists, die mit „nacktem“ Methodenwissen mit einem Master in Data Science von der Uni kommen, die Erfahrung mit einer Problemdomäne, einem Anwendungsfeld in der echten Welt. Die geschickte Modellierung der Vorgänge in der echten Welt und die intelligente Auswertung der Daten in Bezug auf dieses Modell sind in meinen Augen die beiden Kernkompetenzen, die das Berufsfeld Data Science ausmachen. Die reine Anwendung von vorinstallierten Algorithmen auf vorstrukturierte Daten ohne Verständnis der diese Daten generierenden Prozesse und der Evolution der Algorithmen ist in meinen Augen nicht zielführend, lässt sich allerdings relativ leicht lehren und prüfen.


Dr. Stefan Kühn präsentiert am 13. November 2019, dem ersten Tag der Data Leader Days 2019, über „ Talk Data to me – from Data Science to Business Science“.

Tickets für die Konferenz finden Sie auf der offiziellen Startseite, unter www.dataleaderdays.com.

Interview: Artificial Intelligence at Schwarz IT

Artificial Intelligence at SIT: A perspective of an expert

Andrey Sharapov is a data scientist and data engineer at Schwarz IT. He is currently working on various projects related to machine learning and data product development. Previously, he spent 2 years at Xaxis where he helps to develop a campaign optimization tool for GroupM agencies, then at TeamViewer, where he led data science initiatives and developed a tool for customer analytics. Andrey is interested in „explainable AI“ and is passionate about making machine learning accessible to the general public.

What are your main topics as a data scientist at SIT? Which use cases are you currently working on?

I have very wide responsibilities. Primarily, I am working on machine learning bases product that helps promotion managers to make better decisions. This involves algorithm development, system architecture, the industrialization of the product, etc. Additionally, I work together with the infrastructure team to bring new technology that can be used for Data Product development. 

What algorithms and tools are you using?

We heavily use Python and Machine learning algorithms available for it such as ones in sklearn. We also use Keras for some problems. Also, Hadoop, Spark, and Kubernetes are a part of our technology stack.

Not always things are working out: according to your experience how high is the level of success for data projects and which success factors are the most relevant?

We try to make all our projects succeed. The major challenges are the scaling and robustification of the software we write for all countries. Very hard to make everyone happy. Another major challenge is communication with final users. These people rarely become a part of the product feature establishment.

The retail sector is considered an industrial section with a high potential for data science and AI, would you agree with this statement? What else do you think will be relevant in 2020/2021?

Retail has a high potential for AI. For us, the major challenge is product industrialization.


Dr. Andrey Sharapov präsentiert am 13. November 2019, dem ersten Tag der Data Leader Days 2019, über „ Building a bridge between business & data science using Explainable AI“.

Tickets für die Konferenz finden Sie auf der offiziellen Startseite, unter www.dataleaderdays.com.

Interview: Erfolgreiche Daten und Analytics Projekte @EnBW

Interview mit Herrn Dr. Frank Säuberlich von der EnBW Energie Baden-Württemberg AG zum Thema Internet of (Wind)Turbines – erfolgreiche Daten und Analytics Projekte.

Herr Dr. Frank Säuberlich ist Chief Data Officer bei der EnBW. Er studierte Wirtschaftsmathematik am Karlsruher Institut für Technologie, an welchem er auch seinen Doktor in Ökonomie erlangte. Seinen Start in der Privatwirtschaft als Senior Technical Consultant Data Mining bei SAS Germany folgte eine Anstellung als Practice Manager und später als Regional Manager bei Urban Science. Vor seinem Antritt als CDO bei EnBW leitete Herr Dr. Frank Säuberlich verschiedene Data Science Teams bei Teradata.

1. Die Energiebranche muss sich einem nie zuvor gesehenen Wandel unterziehen. Welche Rolle spielt für Sie Data Science, um diesen Wandel mitzugestalten bzw. sich den Herausforderungen besser zu stellen?

Wir sehen vielfältige Anwendungsfelder in der Energiebranche, um aus Daten Mehrwerte zu generieren. Dabei machen wir keinen Unterschied, ob am Ende einfache BI Auswertungen oder ein komplexer KI Algorithmus zum Einsatz kommt. Wir starten immer mit der Frage „wie können wir mithilfe von Daten unser Geschäft verbessern?“ Und wir diskutieren von Beginn an, wie analytische Ergebnisse für solche Fragestellungen im täglichen Arbeiten so eingesetzt werden, damit die Verbesserungspotenziale auch tatsächlich erreicht werden können. 

Erst danach sollte über Technologie oder analytische Algorithmen diskutiert werden.

2. Wie hoch ist die Akzeptanz bei internen Anwendern von Business Intelligence Lösungen & Data Science Ansätzen? Gab es Initiativen, um diese zu erhöhen?

Eine zentrale Aufgabe meiner Rolle als Chief Data Officer bei der EnBW ist es das generelle Verständnis, dass Daten wie ein werthaltiges Asset zu behandeln sind, zu erhöhen. Dazu gehört eine bessere Transparenz bezüglich vorhandener Daten und darauf basierter Anwendungen aber auch bessere Möglichkeiten, um Daten über Bereichsgrenzen hinweg teilen zu können. 

Manche Teile des Konzerns sind hier schon weit und haben bereits eigene Teams etabliert, deren Aufgabe es ist Datenqualität und Transparenz sicherzustellen.

Die Durchdringung des Konzerns mit diesem „Mindset“ wird uns aber die nächsten Jahre weiter beschäftigen.

3. Data Analyst, Data Scientist und Data Engineer können eher dezentral positioniert oder komplett in eine Business Intelligence/Data Science Abteilung zusammengefasst werden. Wie haben Sie sich aufgestellt und welche Gründe waren dafür ausschlaggebend?

Wir haben uns hier für eine hybride Organisation dieser Ressourcen entschieden. Wir haben ein zentrales Daten-Team, das Data-Analytics Projekte für verschiedene Bereiche von der Use Case Identifizierung über die Pilotierung bis hin zum operativen Betrieb betreuen kann.

Dieses zentrale Team ist auch für den Aufbau der Analytics Community innerhalb des Konzernes zuständig, damit lokale Teams, die es in einigen Bereichen gibt, sich innerhalb der Community austauschen können 

Grundsätzlich ist es aber unser Ziel, die generellen Fähigkeiten, mehr mit Daten zu arbeiten und daraus Mehrwerte für den eigenen Bereich zu erzielen, so breit wie möglich ins Unternehmen zu bringen.

4. Mit Big Data ging in einigen Branchen ein Paradigmenwechsel einher. Welche Herausforderungen in Bezug auf Technik und Mensch bringt Big Data mit sich, sowohl bei EnBW als auch bezogen auf den Markt.

Wir sehen diese Paradigmenwechsel durchaus und versuchen das angesprochene neue „Mindset“, Daten als werthaltiges Asset zu begreifen, auf verschiedene Weise im Unternehmen zu kommunizieren.

Am besten funktioniert dies, wenn wir es an tatsächlichen geschäftsrelevanten Fragestellungen beweisen. Wichtig ist dabei, von Beginn an die eigentlichen Endanwender mit einzubeziehen, und die analytischen Lösungen tatsächlich auf die Bedürfnisse deren täglicher Arbeit abzustimmen. Dies schafft ein größeres Verständnis für diese Lösungen bei den Kollegen und Ängste oder Vorbehalte gegenüber neuen Technologien können dadurch erheblich vermindert werden.

5. In welchen Bereichen nutzt Ihr Unternehmen das Potential von Big Data Analytics bereits und was sind interessante Erfahrungen in der erfolgreichen Durchführung solcher Projekte?

Wir haben bereits in vielen Bereichen Erfahrung mit Big Data Analytics Projekten gesammelt. Beispiele hierfür sind Prognosen und Handelsalgorithmen im Energy Trading, Zustandsprognosen für Verteilnetze sowie Zustandsüberwachung von Erzeugungsanlagen. 

Der überwiegende Teil unserer Lösungen wird dabei bereits operativ als Service betrieben. Teilweise befinden sich Lösungen aber noch im Prototypen-Zustand. Zahlreiche Initiativen werden derzeit noch validiert, von denen es gegebenenfalls nicht alle bis zum operativen Einsatz schaffen werden.

Eine wichtige Erfahrung in diesem Kontext ist, dass sich Big Data Analytics Projekte nicht mit einem vorgegebenen klaren Ergebnis nach Wasserfall abarbeiten lassen.

 


Dr. Frank Säuberlich präsentiert am 14. November 2019, dem zweiten Tag der Data Leader Days 2019, über „Internet of (Wind)Turbines – erfolgreiche Daten und Analytics Projekte @EnBW“.

Tickets für die Konferenz finden Sie auf der offiziellen Startseite, unter www.dataleaderdays.com.

 

 

Grußwort des Bundesministers für Verkehr und digitale Infrastruktur

Wir schaffen eine neue Datenpolitik

Grußwort des Bundesministers für Verkehr und digitale Infrastruktur
für das Programmheft zu den Data Leader Days

Wenn es um Daten geht, heißt es häufig ganz selbstverständlich, sie seien der Rohstoff der Digitalisierung. Doch genau genommen ist das Bild schief. Anders als Erdöl oder Metalle sind Daten nicht von der Natur gemacht, sondern von Computern und letztlich vom Menschen. Wir müssen sie also nicht als gottgegeben hinnehmen. Erdöl ist da – und wir bestimmen, wie es genutzt und verteilt wird. Bei Daten können wir nicht nur bestimmen, wie sie genutzt werden, sondern auch: wie sie entstehen. Damit haben wir den Schlüssel in der Hand, sie eindeutig zu regeln und nach unseren Vorstellungen zu formen.

Klar ist: Daten sind die Grundlage jeder digitalen Innovation. Sie sind die Riesenchance auf mehr Lebensqualität und Wohlstand. Gleichzeitig ist es aber eine große Herausforderung, ihre Verwendung zu regeln.

Die Mobilität ist dafür ein Paradebeispiel. Jeder moderne Serienwagen ist ein rollender Computer, sammelt innerhalb von acht Stunden vier Terabyte an Daten – und weiß damit alles über Routen, Hindernisse, Unfälle, Kurvenkrümmungen und Witterung. Das ist gut, weil es mehr Verkehrssicherheit, weniger Emissionen und damit mehr Lebensqualität bringt. Diese Potenziale wollen wir heben – und dabei die Persönlichkeitsrechte unserer Bürger mit den Interessen der Unternehmen in Einklang bringen. Mein Haus hat dafür einige wichtige Schritte eingeleitet. Wir haben eine Studie zur Eigentumsordnung von Mobilitätsdaten veröffentlicht und damit eine nationale Diskussion zu Verfügungs- und Zugangsrechten zu Mobilitätsdaten angestoßen. Diese Diskussion hat gezeigt, dass die Erarbeitung technischer Konzepte für den Zugang zu Mobilitätsdaten immer mehr an Bedeutung gewinnt. Diese sollen den Datenzugang verbessern und damit Dateninnovation ermöglichen. Gleichzeitig helfen sie aber auch, Transparenz zu schaffen und die Datensouveränität zu wahren. Gemeinsam mit dem Innen- und Justizministerium haben wir eine Datenethikkommission ins Leben gerufen, die der Bundesregierung und dem Parlament innerhalb eines Jahres einen Entwicklungsrahmen für Datenpolitik, den Umgang mit Algorithmen, künstlicher Intelligenz und digitalen Innovationen vorschlagen soll.

Die Data Leader Days sind auf diesem Weg ein wichtiger Impulsgeber. Ich wünsche den Teilnehmerinnen und Teilnehmern einen spannenden und anregenden Austausch!

Ihr

Andreas Scheuer MdB
Bundesminister für Verkehr und digitale Infrastruktur

Data Leader Days: Die Spitzenmanager der Datenwirtschaft live und direkt

Am 13./14. November 2019 finden in Berlin die fünften Data Leader Days statt. Kommen Sie direkt mit den Spitzenkräften der Datenwirtschaft in Kontakt und freuen Sie sich auf die besten Use-Cases, Live-Demos und Panels rund um Data und AI. Die Data Leader Days sind das erste Management-Forum für die Datenwirtschaft im deutschsprachigen Raum und senden regelmäßig wichtige Praxisimpulse aus. Eine der Besonderheiten liegt in der besonderen Auswahl der Speaker und der familiären Atmosphäre. Die Referenten gehören zu den führenden Data-Managern von Konzernen und bekannten Start-Ups, die die Digitalisierung maßgeblich prägen. Im Fokus stehen dabei Use Cases, Live Demos, Panels, Interviews und Erfahrungsberichte zu Data Science, Künstliche Intelligenz, Data Engineering & Architecture, Data Visualization sowie auch Agile Development, Blockchain und Data Security.

#Private Stream: Einzigartiges Know-How-Sharing im engen Kreis

In einem zusätzlichen Private Stream können sich die Teilnehmer zudem erstmals im engeren Kreis mit den Speakern austauschen, um Partner zu finden und individuelle Impulse für eigene Dateninitiativen aus erster Hand zu gewinnen. Nicht die Masse an Vorträgen, sondern die Pole Position der Speaker und die Vielzahl an Take Aways stehen bei den Data Leader Days im Vordergrund. Mit diesem Konzept ist das Event seit Gründung im Jahr 2016 permanent gewachsen und findet mittlerweile an zwei Tagen mit unterschiedlichen Schwerpunkten statt:

#Aufbruchstimmung im Berliner Spreespeicher

Die Data Leader Days stehen unter dem Zeichen von Aufbruch und familiärer Atmosphäre fernab des betrieblichen Alltags. Passend dazu wurde der Spreespeicher mit seinem alten Mauerwerk und großzügigen Loft-Fenster mit einem einen bezaubernden Blick auf die Spree angemietet.

#Programmvorschau

Mit dabei sind die Chief Data Officer, SVP, Geschäftsführer und Heads of Digital Transformation von Deutsche Bank, Claas, EnBW, eventim, L’Oréal, Lidl, HRS, Signify und viele mehr.

#Data Leader Days App

Zahlreiche Features unserer Data Leader Days App für Smartphones und Tablets (iOS od. Android) sorgen für eine wegweisende Conference Experience: Die Anmeldung nehmen Sie bitte direkt unter www.dataleaderdays.com vor.