Präsentationen der Data Leader Days 2019
Kontaktieren Sie Herrn Dr. Florian Wilken für weitere Informationen.
Sie können alle freigegeben Präsentation herunterladen.
Haben Sie noch Fragen? Kontaktieren Sie uns gerne.
Kontaktieren Sie Herrn Dr. Florian Wilken für weitere Informationen.
Sie können alle freigegeben Präsentation herunterladen.
Haben Sie noch Fragen? Kontaktieren Sie uns gerne.
Berlin, November 2019: Die fünften Data Leader Days am 13./14. November 2019 im Berliner Spreespeicher haben erneut Entscheider aus unterschiedlichsten Branchen versammelt und wichtige Impulse rund um Data Science und KI ausgesendet. Spitzenkräfte aus der Business- und Digitalwelt erlebten zwei volle Tage mit seltenen Praxiseinblicken, spannenden Use Cases und einer hochkarätigen Panel Diskussion. Organisiert wurde die Konferenz von DATANOMIQ und Connected Industry.
Der erste Tag stand als Auftakt ganz unter dem Zeichen von Retail, Finance und Telecommunications Data: Besondere Highlights waren hier die Vorträge von Dr. Shivaji Dasgupta, Head of Data Architecture and Smart Analytics, der die Nutzung von Künstlicher Intelligenz im Banking beleuchtete sowie Peter Grebarsche, Head of Digital Strategy von L’Oréal mit seiner Präsentation „Our Journey to become the #1 Beauty Tech Company“. Im Fokus des zweiten Tages standen Automotive, Machine und Energy Data. Hier konnten die Digital- und Datenspitzen von DB Schenker, EnBW, Signify, Bosch und Infineon anhand von Live Demos und Use Cases die Themen Data Science & Machine Learning, Data Engineering sowie Data Visualization vorstellen.
Auch im kommenden Jahr werden wir die aktuellsten Entwicklungen mit den führenden Köpfen diskutieren. Wir freuen uns darauf, Sie wieder auf den Data Leader Days in Berlin begrüßen zu dürfen!
Impressionen der Data Leader Days 2019 finden Sie in der Galerie.
Seit 1995 unterstützt DextraData Unternehmen mit vielfältigen IT-Lösungen im Rechenzentrumsumfeld. Weitreichende Expertise im technologischen Bereich, umfassende Consulting-Erfahrung und eminentes Know-how machen das IT-Beratungshaus zum idealen Partner für Firmen, die sich den Herausforderungen der digitalen Transformation stellen.
DextraData hat den Weg vom klassischen Systemhaus mit Fokus auf Data-Center-Beratung und Implementierung zum Software-Anbieter für moderne 3rd-Platform-Applikationen vollzogen. Als ISV entwickelt DextraData innovative Lösungen, die Transparenz schaffen, Prozesse optimieren sowie Entscheidungshilfen und Mehrwerte für das Business liefern. Ein Erfolgsfaktor liegt in der agilen Software-Entwicklung, die das Customizing von Lösungen fokussiert, die sich an den individuellen Anforderungen des Klienten orientieren. Die agile Methode schafft Flexibilität, schnelle Ergebnisse, transparente Kosten und sorgt für hohe Kundenzufriedenheit.
Mit dem CIO Cockpit hat das Unternehmen ein Tool für IT-Verantwortliche auf den Markt gebracht, das Daten unterschiedlicher Systeme zusammenträgt und aufbereitet. Es unterstützt IT-Verantwortliche mit relevanten Informationen bei Entscheidungen, erleichtert das Reporting sowie die Ressourcen- und Budgetplanung. Die Verknüpfung technischer und kaufmännischer Daten ermöglicht Rückschlüsse auf die Business-Kosten und sorgt für Transparenz.
Mit den Bereichen IT-Consulting & Services, Modern Work & Process Automation und Business Consulting & Analytics unterstützt DextraData bei der Planung und Realisierung von IT-Projekten bis hin zur Übernahme der Verantwortung für den Regelbetrieb.
Die diesjährigen Data Leader Days finden am 13. & 14. November 2019 direkt an der Spree in Berlin zum fünften Mal statt. Im Fokus stehen Use Cases, Live Demos, Panels, Interviews und Erfahrungsberichte zu Data Science, Künstliche Intelligenz, Data Engineering & Architecture, Data Visualization sowie Agile Development, Blockchain und Data Security.
Ihr persönlicher Ansprechpartner auf den Data Leader Days 2019:
Thomas Ulrich
Mehr Informationen finden Sie auch unter https://www.dextradata.com/.
Tim Wiegels leitet seit August 2018 als Head of DATA die Bereiche Analytics, Data Engineering, Data Science und Marketing Intelligence bei FREE NOW (ehemals mytaxi). In dieser Funktion erarbeitet und steuert Tim die DATA-Strategie und sorgt für ein verstärktes Data-Driven Mindset in allen Bereichen. Zuvor arbeitete Tim als Director Data and Marketing bei der HitFox Gruppe und verantwortete dieselben Bereiche auch bei der Tochterfirma Heartbeat Labs. Weitere Stationen als Data Scientist, Product Owner, Team Lead für Business Intelligence Controlling, Tracking und Reporting, sowie Business Analytics beinhalten Goodgame Studios und XING. Sein Studium und seine Promotion in Bioinformatik schloss Tim erfolgreich an der Universität Hamburg und am Europäischen Molekularbiologischen Laboratorium (EMBL) ab.
Mit FREE NOW haben Sie eine traditionelle Branche aufgebrochen und digitalisiert. Welche Schwierigkeiten hatten Sie dabei am Anfang mit Data Engineering, also beim Daten erfassen und speichern?
Grundlegend gibt es bei der Erfassung der Daten keine großen Unterschiede zwischen Apps, die eher traditionelle Branchen bedienen und z.B. Apps für Mobile Gaming. Die eigentliche Problematik wird bereits in der Entwicklung der Apps behandelt, also z.B. ein DSGVO-konformes Tracking der Standorte von Fahrer und Passagier, um hier das bestmögliche Matching zu gewährleisten. Wenn diese Funktionen richtig implementiert sind, ist es wichtig bei allen Teams, die an der Entwicklung beteiligt sind (also Product, Tech und Marketing / Operations), ein starkes Data-Driven Mindset zu etablieren und Klarheit zu schaffen, dass dieser weitere Arbeitsschritt der Datenerfassung kein Overhead, sondern ein essentieller Bestandteil der Entwicklungsarbeit ist. Sobald sich hier alle Beteiligten bewusst sind, dass diese Prozesse geschäftsentscheidend sind, steht einem reibungslosen Ablauf nichts im Weg.
Was sind aktuell Ihre wichtigsten Anwendungen für Data Science? Welche Technologien und Methoden setzen Sie dabei ein?
Bei FREE NOW nutzen wir Data Science und Machine Learning für viele verschiedene Anwendungsfälle. Angefangen beim Vorschlagen der Zieladresse für den Passagier über eine Vorhersage des Fahrpreises einer Taxifahrt (basierend auf dem jeweiligen Taxitarif, Fahrtzeit und Distanz), diverser Methoden um Angebot und Nachfrage vorherzusagen (wieder, um ein besseres und schnelleres Matching zu gewährleisten) bis hin zu einer Vielzahl von Automatisierungen um manuelle Arbeit zu vermeiden und Kapazitäten besser zu nutzen sowie Vorhersagemechanismen zum Nutzerverhalten und Geschäftskennzahlen. Wir nutzen hier eine Vielzahl von Standardmethoden und Tools der Data Science (z.B. Python, Jupyter Notebooks, etc.).
Mit der Nutzung von Daten wird das Thema Datenschutz und -sicherheit immer relevanter. Wie stellen Sie hier den Schutz sicher ohne gleichfalls den Kundennutzen und die Kundenzufriedenheit zu gefährden?
Als europaweit-agierendes Unternehmenist Datensicherheit für uns sehr wichtig und Bestandteil all unserer Systeme. Die Erfassung und Verarbeitung von Daten (insbesondere bei Nutzung von Drittanbietern) ist komplett DSGVO-konform. Natürlich stellt uns das vor diverse Probleme, angefangen von der Nutzung unserer Daten im Marketing bis hin zur Vermittlung zwischen Fahrer und Passagier. Wir haben daher unsere allgemeine Analyse und interne Nutzung von Daten komplett auf anonymisierte Daten umgestellt und in allen Datenbanken den Zugriff auf persönliche Daten stark eingeschränkt. Für Features die die Verarbeitung von persönlichen Daten erfordern, um den Kundennutzen zu steigern (z.B. der Vorschlag der Zieladresse), arbeiten wir sehr eng mit unserem Data Protection Officer zusammen, um Datensicherheit stets zu gewährleisten und die jeweiligen Anwendungsfälle allen Kunden transparent zu machen.
Was wird Ihrer Meinung nach für 2020 und 2021 die neuen Trends stellen? Was könnte sich dabei im Workflow eines Data Scientists ändern?
Data Science wird sich meiner Meinung nach viel mehr in die Richtung von Plattformen entwickeln. Aktuell sind viele Lösungen und Implementationen noch stark auf den jeweiligen Anwendungsfall angepasst und stellen daher oft Insellösungen dar die nicht unendlich (oft sogar nur sehr limitiert) skalierbar sind. Die Entwicklung von Machine Learning Pipelines und Nutzung von AI-Plattformen (z.B. Angebote von Partnern wie Amazon, Google oder Adobe) wird dabei in Zukunft stärker in den Vordergrund treten. Dies wird in zwei Schritten passieren, wobei der erste die Nutzung im Prototyping sein wird, um viele Datensets schneller zu bootstrappen und viele verschiedene algorithmische Methoden zu testen, um das beste Modell für eine spätere, jedoch noch individuelle Implementation in Product, etc. zu finden. Der zweite Schritt wird eine komplette Implementation jener Plattformen direkt in die Live-Produkte sein. Hierfür muss natürlich ein perfektes Monitoring, Trennung von Development / Staging und Live-Environments und Implementation von Backup-Lösungen gegeben sein, damit die Data Science-Methoden und -Plattformen nicht in Bottlenecks oder Gefährdung eines kontinuierlichen Betriebs resultieren.
In der täglichen Arbeit eines Data Scientists wird – und muss – sich in Zukunft auch eine viel stärkere Vernetzung der Entwicklungsarbeit mit dem Produktmanagement finden. Ein essentieller Bestandteil der Applikation von Data Science in jeder Fachrichtung ist das Verständnis und die Transparenz der Methoden. Dies erfordert einen kontinuierlichen Austausch zwischen Data Scientists und den Stakeholdern, um ein starkes Alignment zu schaffen und ein Auseinanderdriften zwischen Verständnis der Entwickler und Erwartungen und Bedürfnisse von Nutzern zu vermeiden. Dies wird in vielen Firmen schon über die Position von Produktmanagern oder Product Ownern für Data Science abgedeckt. Ich halte es jedoch für absolut notwendig, dass jeder Data Scientist dieses Mindset verfolgt.
Dr. Tim Wiegels (FREENOW) präsentiert am 13. November 2019, dem ersten Tag der Data Leader Days 2019, über „Data-driven Marketing for mobile apps in three easy steps“.
Herr Dr. Joachim Weise ist Senior Vice President für den Bereich Global Data Strategy and Analytics bei DB Schenker. Er studierte Wirtschaftsingenieurwesen an der TU Berlin, Production Management an der Chalmers University of Technology in Göteborg und promovierte im Innovationsmanagement an der TU Berlin.
Was ist Ihr Aufgabenbereich als Senior Vice President Gobal Data Strategy and Analytics bei DB Schenker.
Seit Gründung 2016 leite ich den Bereich Global Data Strategy & Analytics (GDSA), eine von drei direkt unter dem CDO/CIO angesiedelten Digitalisierungseinheiten bei DB Schenker. Wir entwickeln und verfolgen eine unternehmensweite und zukunftsorientierte Datenstrategie, entwickeln und implementieren datengetriebene Geschäftsmodelle und generieren prozessrelevantes Wissen im Rahmen von Analytik- und Optimierungsprojekten. Unser Team besteht aus Business Consultants, Data Scientists, Operations Research Specialists und Big Data Engineers – größtenteils völlig neue Jobprofile für die Logistik. Hierbei kommen moderne Verfahren aus den Bereichen Machine Learning bzw. künstliche Intelligenz zum Einsatz, beispielsweise statistische Methoden, Verfahren der Mustererkennung, Simulationen und Optimierungsverfahren. Als Querschnittsfunktion setzen wir auf agile, abteilungsübergreifende Initiativen, die sich – ähnlich wie in einem Start-up – kurzfristig umsetzen lassen, um so Erfolge schnell nachzuweisen.
Sind gute Data Scientists Ihrer Erfahrung nach tendenziell eher Beratertypen oder introvertierte Nerds?
Die Frage ist so einfach nicht zu beantworten. Ein guter Data Scientist sollte in meinen Augen nicht nur ein talentierter Mathematiker oder Informatiker sein, er sollte auch unternehmerische Fähigkeiten besitzen, eine schnelle Auffassungsgabe gemixt mit einem guten Verständnis von Geschäftsprozessen. Denn letztendlich ist der Erfolg einer unternehmensweiten Implementierung und Anwendung unserer Algorithmen davon abhängig, dass unsere Lösungen den Geschäftseinheiten einen Mehrwert bieten. Um die Anschlussfähigkeit meiner Abteilung mit dem Kerngeschäft sicherzustellen haben wir ja zusätzlich auch ein eigenes Team von „Business Consultants Data“ aufgebaut.
Logistikunternehmen erkennen immer mehr das Potential von Daten und entwickeln Strategien zur optimalen Nutzung. Wie sehen Sie den Reifegrad der Datennutzung in der Logistik und wo sehen Sie Ihr Unternehmen verglichen mit Wettbewerbern?
Gerade in der Logistik ist die Anzahl der täglich generierten Daten in den letzten Jahren exponentiell gestiegen. Das Datenvolumen hat sich vertausendfacht, das stellt unsere doch sehr traditionelle Branche vor immer größere Herausforderungen, bietet allerdings gleichzeitig enormes Optimierungs- und Effizienzsteigerungspotential, was wir unbedingt nutzen wollen. Allerdings gehen große Datenmengen selten mit einer guten Datenqualität einher. Vor diesem Hintergrund wird die strukturierte Sammlung und Auswertung der generierten Daten immer wichtiger. Das Potential ist hoch! Neben der Schaffung technischer Grundvoraussetzungen ist insbesondere eine noch stärkere Sensibilisierung im operativen Geschäft für die immense Bedeutung von Datenqualität unverzichtbar.
Als einer der größten Logistikdienstleister der Welt, verarbeiten wir bei DB Schenker bereits große Datenmengen aus verschiedensten internen und externen Quellen, beispielsweise Verkehrs- oder Wetterdaten, für komplexe Datenanalysen zur Aufkommensprognose, Netzwerkoptimierung, Predictive Pricing, Warehouse Analytics oder Kundenanalysen.
Die Konkurrenz schläft aber auch nicht. Es tauchen völlig neue Player auf der Spielfläche auf, wie beispielsweise Amazon, die ursprünglich als Onlinebuchhändler gestartet sind und mit Amazon Logistics mittlerweile einen eigenen Speditionsdienst haben. Aber auch kleine Startups revolutionieren die Logistik gezielt mit digitalen, datenbasierten Geschäftsmodellen, und genau daran wollen wir auch anknüpfen. Wir nutzen das Potential, die aktuelle Dynamik und den Start-up-Spirit, um DB Schenker zu einem datengetriebenen Unternehmen zu transformieren und so auch zukünftig branchenführend zu bleiben.
Welche Methoden und Tools aus dem Bereich AI finden bei Ihnen Anwendung und können Sie abschätzen, welche in Zukunft immer mehr an Bedeutung gewinnen werden?
Auf der einen Seite setzen wir gängige Methoden aus den Bereichen Statistik und Machine Learning an, wie zum Beispiel Zeitreihenanalysen, Ensemble Methoden oder Deep Learning. Auf der anderen Seite spielen in der Logistik natürlich Methoden aus dem Bereich Operations Research / Mathematische Optimierung eine große Rolle. Wir vereinen beide Kompetenzbereiche in einem Team und integrieren die Ansätze soweit möglich.
Praktische Beispiele sind u.a. die Echtzeitoptimierung bei der Disposition von Ladungsverkehren im Landverkehr, die Erstellung von Sendungsprognosen oder die Mustererkennung in großen Mengen von Sendungsdaten zur effektiveren Steuerung des operativen Geschäfts. Aber auch an der Kundenschnittstelle werden zunehmend Methoden der künstlichen Intelligenz eingesetzt, z.B. um die Kundenbindung zu erhöhen oder die Preisbildung zu optimieren.
Langfristiges Ziel ist es, entlang der gesamten Wertschöpfungskette immer mehr auf intelligente Unterstützung von Geschäftsentscheidungen durch künstliche Intelligenz zu setzen. Die Verfügbarkeit von qualitätsgesicherten Daten in Echtzeit wird dabei zur Grundvoraussetzung für intelligente, selbstlernde AI-Lösungen.
Wo liegen die Grenzen von AI aus Ihrer Sicht?
Nach meinem Empfinden sind wir aktuell noch weit entfernt von einer „Artificial General Intelligence (AGI)“ – also einer künstlichen Intelligenz, die ähnlich wie ein Mensch ein breites Feld von Entscheidungssituationen bewältigen und dabei auch den Kontext von unscharfen Informationen und Situationen verarbeiten kann.
Wenn wir die Entwicklung von AI auf ein Menschenleben übertragen, sind wir wohl aktuell noch auf der Entwicklungsstufe eines Kleinkinds. Neben derzeit viel diskutierten ethischen Grenzen spielen auch technische Limitierungen eine große Rolle. Fähigkeiten und Qualität eines AI-Systems hängen oft stark vom konkreten Use Case ab und auch ein Deep Learning System kann nur so gut sein wie die Daten, mit denen es trainiert wird. Wie bereits zuvor erwähnt, ist gerade der Aspekt der Datenqualität eine unserer größten Herausforderungen. Und das gilt sicher nicht nur für die Logistik.
Dennoch sind wir sicher, dass Logistik zu den Branchen gehört, in der künstliche Intelligenz und die allgemeiner die Digitalisierung von Geschäftsmodellen zu den stärksten Veränderungen führen wird. Diese Veränderung wollen wir aktiv mitgestalten!
Dr. Joachim Weise (DB Schenker) präsentiert am 14. November 2019, dem zweiten Tag der Data Leader Days 2019, über „Transforming Logistics with AI – Selected Applications at DB Schenker“.
Tickets für die Konferenz finden Sie auf der offiziellen Startseite, unter www.dataleaderdays.com.
Claudia Pohlink ist Head of Artificial Intelligence/Machine Learning bei den Telekom Innovation Laboratories (T-Labs). Sie verfügt über einen Hintergrund in Data Science, Data Management und Innovation Management und verbindet Business- und Data Science-Aspekte von Analytics und Künstlicher Intelligenz (KI) nahtlos. Seit 2017 gehört Künstliche Intelligenz zu den drei Kernthemen der T-Labs. Seither zählt die Forschungs- und Entwicklungs-Einheit zu den aktivsten KI-Playern in Berlin.
Frau Pohlink, welche täglichen Verantwortlichkeiten haben Sie als Head of Artificial Intelligence / Machine Learning? Was macht Ihnen am meisten Freude? Und was hin und wieder Bauchschmerzen?
Mein Team und ich konzentrieren uns auf drei strategische Felder: Netzwerke-, Quantum und Cyber Security.
Bei ersterem beschäftigen wir uns mit der Optimierung der Kommunikationsnetzwerke. So haben wir zusammen mit Benocs, einem Startup der Telekom, sichtbar gemacht, wie die Netzwerk-Last verteilt ist. Durch die Verarbeitung historischer Daten können nun wir Dank Machine Learning vorhersagen, wo die Last auftritt und wie sie zukünftig verteilt sein könnte. Das hilft uns beim Aufbau der Netze.
Bei Quantum KI wollen wir die Geschwindigkeit oder der Qualität der maschinellen Lernprozesse verbessern. Dazu werden rechenintensive Routinen auf einem Quantenrechner ausgeführt.
Im Bereich Cyber Security wollen wir unbewusste oder bewusste Risiken von KI-Algorithmen erkennen und minimieren. Ein wichtiges Stichwort hierbei lautet „Bias“, also Daten, die Vorurteile zementieren. Darüber hinaus beschäftigen wir uns mit der Abwehr möglicher feindlicher Angriffe (Adversarial Attacks).
Am besten gefällt mir an meiner Arbeit der Blick in die Zukunft: die vielen Möglichkeiten, die noch vor uns liegen und nicht erforscht sind. Teil dieser rasanten Entwicklung zu sein, ist unglaublich spannend. Es ist wichtig, dass wir frühzeitig die richtigen Themen identifizieren und hierzu Kompetenzen aufbauen, und dass wir im Rahmen unserer ethischen Verhaltensrichtlinien für den Umgang mit KI auch immer den größeren gesellschaftlichen Rahmen im Blick behalten. Das wird schnell sehr komplex.
Künstliche Intelligenz und Machine Learning ist in aller Munde. Doch was ist da eigentlich der Unterschied?
Künstliche Intelligenz ist ein sehr komplexer Begriff. Oft ist damit der Teilbereich des Machine Learnings gemeint.
Ziel der Forschung zur Künstlichen Intelligenz ganz allgemein ist es, mithilfe der Wissenschaft intelligentes Verhalten in Maschinen zu ermöglichen. Uns ist wichtig dabei zu betonen, dass KI Menschen in ihrem Alltag unterstützen und nicht ersetzen soll. Ein Großteil der Anwendungen, die wir heute als KI bezeichnen, basiert auf Mathematik und Statistik aus dem 18. und 19. Jahrhundert. Die ersten Aufzeichnungen zur Regressionsanalyse zum Beispiel, einer Vorhersagemethode für Werte, stammen aus dem Jahre 1760.
Machine Learning ist eine Methode, mit der große Mengen an Daten analysiert und aus ihnen verschiedenes Wissen „künstlich“ generiert und gelernt wird. Erst neuere technische Entwicklungen bezüglich der Speicherung und schnellen Verarbeitung großer Datenmengen haben diesen Sprung der KI-Entwicklung möglich gemacht. Beim Machine Learning werden zum Beispiel Gruppen gebildet, Bilder erkannt oder Muster identifiziert. Eine KI ist z.B. in der Lage, nach einem Lernprozess auf Fotos Katzen von Hunden zu unterscheiden.
Mit welchen Herausforderungen haben Sie in der Telekommunikation zu kämpfen und wie helfen Ihnen dabei Machine Learning Algorithmen?
In der Deutschen Telekom nutzen wir KI inzwischen z.B. bei Chatbots, bei der schnelleren Beantwortung von Kundenanfragen sowie der Planung und Steuerung unserer Netzwerke oder zur Unterstützung beim Glasfaserausbau.
Für die Telekom ist die Vertrauenswürdigkeit von KI-Anwendungen von großer Bedeutung. Eine Basis sind die unsere selbst-bindenden Leitlinien für die Entwicklung und den Einsatz von KI. In Zukunft werden technische Verfahren zur Prüfung von KI auf Robustheit, Sicherheit, Einhaltung der Privatsphäre und Diskriminierungsfreiheit ein zentraler Baustein für die Akzeptanz von KI durch die Kunden und Bürger sein.
Wie ist Ihr Team organisiert? Zentral oder dezentral? Und wo liegt – rein organisatorisch gesehen – der größte Knackpunkt für die Sicherstellung des Projekterfolges?
Wir forschen nicht fernab, sondern versuchen, mit Startups und Forschungseinrichtungen konkrete Lösungen für die Kundenprobleme zu erarbeiten und diese Innovationskraft sofort in den Konzern hineinzubringen. Da haben wir sehr viel in den letzten zehn bis 15 Jahren gelernt. Das ist auch harte Arbeit. Die Arbeit in einem Lab, also einer Einheit für Forschung und Entwicklung (Research & Development) mit ihren Trendscouting-Aktivitäten hat einen großen Anteil daran, Themen zu identifizieren und so zu transformieren, dass sie zur Telekom passen und von den Abteilungen der Telekom übernommen werden. Dafür müssen die internen Teams von Anfang an eingebunden sein und die Entwicklungen mitsteuern können. Das ist eine Gratwanderung.
Claudia Pohlink präsentiert am 13. November 2019, dem ersten Tag der Data Leader Days 2019, über „Before you dream of AI do your homework“.
Tickets für die Konferenz finden Sie auf der offiziellen Startseite, unter www.dataleaderdays.com.
Dr. Florian Wilken ist Leiter der Abteilung Analytical Models & Foresight bei Telefónica Deutschland. Nach dem Physik-Studium und einer Promotion in Wirtschaftswissenschaften war er zunächst bei der Boston Consulting Group tätig. Nach seinem Wechsel übernahm er Verantwortung in verschiedenen Positionen bei Telefónica in den Bereichen Strategie und Innovation.
Welche Themen verantworten Sie bei der Telefónica? Und wie würden Sie “Digital” von “Data” abgrenzen?
Als Analytical Models & Foresight-Team sind wir Teil des Digital & Data Competence Centers bei Telefónica Deutschland. Wir unterstützen die Telefónica Fachbereiche mit analytischen Modellen, die wir unter Nutzung neuester Data-Science-Methoden entwickeln. Dadurch ermöglichen wir datengetriebene Entscheidungen und Prozesse, beispielsweise im Marketing-, Vertriebs- und Netzwerk-Umfeld.
Bei Telefónica verfügen wir als führender Telekommunikationsanbieter über eine Vielzahl von Daten. Diese sind der Rohstoff, auf dessen Grundlage wir als Unternehmen digital arbeiten. Zum Beispiel, indem wir aus den Daten Erkenntnisse ableiten und diese für die Optimierung unserer Produkte und Prozesse nutzen.
Letztendlich ermöglichen wir so, dass unsere Kunden die Errungenschaften der Digitalisierung jederzeit und an jedem Ort nutzen können.
Welche Anwendungsfälle und Ideen im Kontext der Nutzung von Daten beschäftigen Sie im Moment konkret? Was sind Ihre derzeitigen Top-Anwendungsfälle?
Wir decken ein breites Spektrum an analytischen Anwendungsfällen für fast alle Fachbereiche bei Telefónica Deutschland ab.
Beispielsweise analysieren wir die sozialen Medien, um besser und schneller zu verstehen, was unsere Kunden über unsere Produkte und das Unternehmen im öffentlichen Raum sagen. So können wir kurzfristig auf Bedürfnisse und Kritik reagieren.
Bei der Wartung unseres Telekommunikationsnetzes nutzen wir künstliche Intelligenz, um Störungen zu vermeiden bzw. die Behebung zu optimieren. So bewerten wir Störungen in erster Linie nach den Auswirkungen auf die Kunden und sagen beispielsweise wiederkehrende Störungen präzise vorher. Dadurch reduzieren wir die Einschränkungen für unsere Kunden und verbessern die Kundenzufriedenheit.
Mit den Kolleginnen und Kollegen im Marketing setzen wir das Marketing Performance Management Modell ein, um wesentliche Einflussfaktoren auf unser Neukundengeschäft zu identifizieren und zu bewerten. Dies ermöglicht die Optimierung unserer Marketingaktivitäten.
Was sind aus Ihrer Erfahrung die wichtigsten Erfolgsfaktoren dabei? Woran scheitern solche Projekte gerne – und wie kann man dagegen steuern?
Zentraler Erfolgsfaktor ist eine große und vor allem gute Datenbasis. Außerdem braucht man exzellente Data Analysten und Data Scientists, die über umfassendes Wissen und im besten Fall über langjährige Erfahrung verfügen.
Zudem ist eine enge Zusammenarbeit mit dem jeweiligen Fachbereich sowie eine offene Unternehmenskultur und Herangehensweise wichtig – die Mitarbeiter müssen experimentieren dürfen.
Welche Möglichkeiten haben denn Mitarbeiter bei Telefónica selbst mit Daten zu arbeiten? Und was ist Ihre Rolle dabei?
Wir stellen im Unternehmen das Analytical Insights Center als zentralen Self-Service zur Verfügung: So können die Kollegen in den Fachbereichen eigenständig datengetrieben Arbeiten. Inhaltlich konzentrieren wir uns als Team dann stärker auf komplexe Analysen und neue Modelle.
Über das Analytical Insights Center kann jeder Mitarbeiter – im Rahmen der entsprechenden Datenschutz-Regelungen – auf Daten und Analysen zugreifen. So können Mitarbeiter Unternehmens-, Markt- und Wettbewerbsdaten für ihre tägliche Arbeit nutzen. Das ist die Voraussetzung für ein besseres Kundenverständnis, optimierte Services, neue Produkte und schnelle Entscheidungen.
Teil des AIC ist auch die Digital Data Analytics Plattform. Diese ermöglicht es Mitarbeitern, die vor allem analytisch arbeiten, Informationen selbstständig zu verknüpfen, eigene Analysen zu erstellen und eigene Dateninformationen einzuspeisen.
Dr. Florian Wilken präsentiert am 13. November 2019, dem ersten Tag der Data Leader Days 2019, über „Marketing Performance Management: Ein Treibermodell zur optimierten Steuerung der o2 Marketing Aktivitäten“.
Tickets für die Konferenz finden Sie auf der offiziellen Startseite, unter www.dataleaderdays.com.
Folgende Themen stehen zur Auswahl:
1. Deployment von Machine Learning Modellen, was ist dafür erprobte Praxis?
2. Data Engineer oder Data Scientist? Wen brauchen Unternehmen heute mehr?
3. KI beherrscht die operativen Prozesse. Wird KI bald auch die Strategie festlegen?
Schreiben Sie mir eine E-Mail an benjamin.aunkofer@connected-industry.com.
Herzliche Grüße
Ihr Benjamin Aunkofer, Chief Data Scientist und Organisator der Data Leader Days.