Beiträge

Mobilität in der digitalen Welt – Herr Dr. Wiegels von FREE NOW berichtet

 Interview mit Herrn Dr. Tim Wiegels von FREE NOW

Tim Wiegels leitet seit August 2018 als Head of DATA die Bereiche Analytics, Data Engineering, Data Science und Marketing Intelligence bei FREE NOW (ehemals mytaxi). In dieser Funktion erarbeitet und steuert Tim die DATA-Strategie und sorgt für ein verstärktes Data-Driven Mindset in allen Bereichen. Zuvor arbeitete Tim als Director Data and Marketing bei der HitFox Gruppe und verantwortete dieselben Bereiche auch bei der Tochterfirma Heartbeat Labs. Weitere Stationen als Data Scientist, Product Owner, Team Lead für Business Intelligence Controlling, Tracking und Reporting, sowie Business Analytics beinhalten Goodgame Studios und XING. Sein Studium und seine Promotion in Bioinformatik schloss Tim erfolgreich an der Universität Hamburg und am Europäischen Molekularbiologischen Laboratorium (EMBL) ab.

Mit FREE NOW haben Sie eine traditionelle Branche aufgebrochen und digitalisiert. Welche Schwierigkeiten hatten Sie dabei am Anfang mit Data Engineering, also beim Daten erfassen und speichern?

Grundlegend gibt es bei der Erfassung der Daten keine großen Unterschiede zwischen Apps, die eher traditionelle Branchen bedienen und z.B. Apps für Mobile Gaming. Die eigentliche Problematik wird bereits in der Entwicklung der Apps behandelt, also z.B. ein DSGVO-konformes Tracking der Standorte von Fahrer und Passagier, um hier das bestmögliche Matching zu gewährleisten. Wenn diese Funktionen richtig implementiert sind, ist es wichtig bei allen Teams, die an der Entwicklung beteiligt sind (also Product, Tech und Marketing / Operations), ein starkes Data-Driven Mindset zu etablieren und Klarheit zu schaffen, dass dieser weitere Arbeitsschritt der Datenerfassung kein Overhead, sondern ein essentieller Bestandteil der Entwicklungsarbeit ist. Sobald sich hier alle Beteiligten bewusst sind, dass diese Prozesse geschäftsentscheidend sind, steht einem reibungslosen Ablauf nichts im Weg.

Was sind aktuell Ihre wichtigsten Anwendungen für Data Science? Welche Technologien und Methoden setzen Sie dabei ein?

Bei FREE NOW nutzen wir Data Science und Machine Learning für viele verschiedene Anwendungsfälle. Angefangen beim Vorschlagen der Zieladresse für den Passagier über eine Vorhersage des Fahrpreises einer Taxifahrt (basierend auf dem jeweiligen Taxitarif, Fahrtzeit und Distanz), diverser Methoden um Angebot und Nachfrage vorherzusagen (wieder, um ein besseres und schnelleres Matching zu gewährleisten) bis hin zu einer Vielzahl von Automatisierungen um manuelle Arbeit zu vermeiden und Kapazitäten besser zu nutzen sowie Vorhersagemechanismen zum Nutzerverhalten und Geschäftskennzahlen. Wir nutzen hier eine Vielzahl von Standardmethoden und Tools der Data Science (z.B. Python, Jupyter Notebooks, etc.).

Mit der Nutzung von Daten wird das Thema Datenschutz und -sicherheit immer relevanter. Wie stellen Sie hier den Schutz sicher ohne gleichfalls den Kundennutzen und die Kundenzufriedenheit zu gefährden?

Als europaweit-agierendes Unternehmenist Datensicherheit für uns sehr wichtig und Bestandteil all unserer Systeme. Die Erfassung und Verarbeitung von Daten (insbesondere bei Nutzung von Drittanbietern) ist komplett DSGVO-konform. Natürlich stellt uns das vor diverse Probleme, angefangen von der Nutzung unserer Daten im Marketing bis hin zur Vermittlung zwischen Fahrer und Passagier. Wir haben daher unsere allgemeine Analyse und interne Nutzung von Daten komplett auf anonymisierte Daten umgestellt und in allen Datenbanken den Zugriff auf persönliche Daten stark eingeschränkt. Für Features die die Verarbeitung von persönlichen Daten erfordern, um den Kundennutzen zu steigern (z.B. der Vorschlag der Zieladresse), arbeiten wir sehr eng mit unserem Data Protection Officer zusammen, um Datensicherheit stets zu gewährleisten und die jeweiligen Anwendungsfälle allen Kunden transparent zu machen.

Was wird Ihrer Meinung nach für 2020 und 2021 die neuen Trends stellen? Was könnte sich dabei im Workflow eines Data Scientists ändern?

Data Science wird sich meiner Meinung nach viel mehr in die Richtung von Plattformen entwickeln. Aktuell sind viele Lösungen und Implementationen noch stark auf den jeweiligen Anwendungsfall angepasst und stellen daher oft Insellösungen dar die nicht unendlich (oft sogar nur sehr limitiert) skalierbar sind. Die Entwicklung von Machine Learning Pipelines und Nutzung von AI-Plattformen (z.B. Angebote von Partnern wie Amazon, Google oder Adobe) wird dabei in Zukunft stärker in den Vordergrund treten. Dies wird in zwei Schritten passieren, wobei der erste die Nutzung im Prototyping sein wird, um viele Datensets schneller zu bootstrappen und viele verschiedene algorithmische Methoden zu testen, um das beste Modell für eine spätere, jedoch noch individuelle Implementation in Product, etc. zu finden. Der zweite Schritt wird eine komplette Implementation jener Plattformen direkt in die Live-Produkte sein. Hierfür muss natürlich ein perfektes Monitoring, Trennung von Development / Staging und Live-Environments und Implementation von Backup-Lösungen gegeben sein, damit die Data Science-Methoden und -Plattformen nicht in Bottlenecks oder Gefährdung eines kontinuierlichen Betriebs resultieren.

In der täglichen Arbeit eines Data Scientists wird – und muss – sich in Zukunft auch eine viel stärkere Vernetzung der Entwicklungsarbeit mit dem Produktmanagement finden. Ein essentieller Bestandteil der Applikation von Data Science in jeder Fachrichtung ist das Verständnis und die Transparenz der Methoden. Dies erfordert einen kontinuierlichen Austausch zwischen Data Scientists und den Stakeholdern, um ein starkes Alignment zu schaffen und ein Auseinanderdriften zwischen Verständnis der Entwickler und Erwartungen und Bedürfnisse von Nutzern zu vermeiden. Dies wird in vielen Firmen schon über die Position von Produktmanagern oder Product Ownern für Data Science abgedeckt. Ich halte es  jedoch für absolut notwendig, dass jeder Data Scientist dieses Mindset verfolgt.

 


Dr. Tim Wiegels (FREENOW) präsentiert am 13. November 2019, dem ersten Tag der Data Leader Days 2019, über „Data-driven Marketing for mobile apps in three easy steps.

Transforming Logistics with AI – Selected Applications at DB Schenker

Interview mit Herrn Dr. Joachim Weise von DB Schenker

Herr Dr. Joachim Weise ist Senior Vice President für den Bereich Global Data Strategy and Analytics bei DB Schenker. Er studierte Wirtschaftsingenieurwesen an der TU Berlin, Production Management an der Chalmers University of Technology in Göteborg und promovierte im Innovationsmanagement an der TU Berlin. 

 

Was ist Ihr Aufgabenbereich als Senior Vice President Gobal Data Strategy and Analytics bei DB Schenker.

Seit Gründung 2016 leite ich den Bereich Global Data Strategy & Analytics (GDSA), eine von drei direkt unter dem CDO/CIO angesiedelten Digitalisierungseinheiten bei DB Schenker. Wir entwickeln und verfolgen eine unternehmensweite und zukunftsorientierte Datenstrategie, entwickeln und implementieren datengetriebene Geschäftsmodelle und generieren prozessrelevantes Wissen im Rahmen von Analytik- und Optimierungsprojekten. Unser Team besteht aus Business Consultants, Data Scientists, Operations Research Specialists und Big Data Engineers – größtenteils völlig neue Jobprofile für die Logistik. Hierbei kommen moderne Verfahren aus den Bereichen Machine Learning bzw. künstliche Intelligenz zum Einsatz, beispielsweise statistische Methoden, Verfahren der Mustererkennung, Simulationen und Optimierungsverfahren. Als Querschnittsfunktion setzen wir auf agile, abteilungsübergreifende Initiativen, die sich – ähnlich wie in einem Start-up – kurzfristig umsetzen lassen, um so Erfolge schnell nachzuweisen. 

Sind gute Data Scientists Ihrer Erfahrung nach tendenziell eher Beratertypen oder introvertierte Nerds?

Die Frage ist so einfach nicht zu beantworten. Ein guter Data Scientist sollte in meinen Augen nicht nur ein talentierter Mathematiker oder Informatiker sein, er sollte auch unternehmerische Fähigkeiten besitzen, eine schnelle Auffassungsgabe gemixt mit einem guten Verständnis von Geschäftsprozessen. Denn letztendlich ist der Erfolg einer unternehmensweiten Implementierung und Anwendung unserer Algorithmen davon abhängig, dass unsere Lösungen den Geschäftseinheiten einen Mehrwert bieten. Um die Anschlussfähigkeit meiner Abteilung mit dem Kerngeschäft sicherzustellen haben wir ja zusätzlich auch ein eigenes Team von „Business Consultants Data“ aufgebaut.

Logistikunternehmen erkennen immer mehr das Potential von Daten und entwickeln Strategien zur optimalen Nutzung. Wie sehen Sie den Reifegrad der Datennutzung in der Logistik und wo sehen Sie Ihr Unternehmen verglichen mit Wettbewerbern?

 Gerade in der Logistik ist die Anzahl der täglich generierten Daten in den letzten Jahren exponentiell gestiegen. Das Datenvolumen hat sich vertausendfacht, das stellt unsere doch sehr traditionelle Branche vor immer größere Herausforderungen, bietet allerdings gleichzeitig enormes Optimierungs- und Effizienzsteigerungspotential, was wir unbedingt nutzen wollen. Allerdings gehen große Datenmengen selten mit einer guten Datenqualität einher. Vor diesem Hintergrund wird die strukturierte Sammlung und Auswertung der generierten Daten immer wichtiger. Das Potential ist hoch! Neben der Schaffung technischer Grundvoraussetzungen ist insbesondere eine noch stärkere Sensibilisierung im operativen Geschäft für die immense Bedeutung von Datenqualität unverzichtbar. 

Als einer der größten Logistikdienstleister der Welt, verarbeiten wir bei DB Schenker bereits große Datenmengen aus verschiedensten internen und externen Quellen, beispielsweise Verkehrs- oder Wetterdaten, für komplexe Datenanalysen zur Aufkommensprognose, Netzwerkoptimierung, Predictive Pricing, Warehouse Analytics oder Kundenanalysen. 

Die Konkurrenz schläft aber auch nicht. Es tauchen völlig neue Player auf der Spielfläche auf, wie beispielsweise Amazon, die ursprünglich als Onlinebuchhändler gestartet sind und mit Amazon Logistics mittlerweile einen eigenen Speditionsdienst haben. Aber auch kleine Startups revolutionieren die Logistik gezielt mit digitalen, datenbasierten Geschäftsmodellen, und genau daran wollen wir auch anknüpfen. Wir nutzen das Potential, die aktuelle Dynamik und den Start-up-Spirit, um DB Schenker zu einem datengetriebenen Unternehmen zu transformieren und so auch zukünftig branchenführend zu bleiben.  

Welche Methoden und Tools aus dem Bereich AI finden bei Ihnen Anwendung und können Sie abschätzen, welche in Zukunft immer mehr an Bedeutung gewinnen werden?

Auf der einen Seite setzen wir gängige Methoden aus den Bereichen Statistik und Machine Learning an, wie zum Beispiel Zeitreihenanalysen, Ensemble Methoden oder Deep Learning. Auf der anderen Seite spielen in der Logistik natürlich Methoden aus dem Bereich Operations Research / Mathematische Optimierung eine große Rolle. Wir vereinen beide Kompetenzbereiche in einem Team und integrieren die Ansätze soweit möglich.

Praktische Beispiele sind u.a. die Echtzeitoptimierung bei der Disposition von Ladungsverkehren im Landverkehr, die Erstellung von Sendungsprognosen oder die Mustererkennung in großen Mengen von Sendungsdaten zur effektiveren Steuerung des operativen Geschäfts. Aber auch an der Kundenschnittstelle werden zunehmend Methoden der künstlichen Intelligenz eingesetzt, z.B. um die Kundenbindung zu erhöhen oder die Preisbildung zu optimieren.

Langfristiges Ziel ist es, entlang der gesamten Wertschöpfungskette immer mehr auf intelligente Unterstützung von Geschäftsentscheidungen durch künstliche Intelligenz zu setzen. Die Verfügbarkeit von qualitätsgesicherten Daten in Echtzeit wird dabei zur Grundvoraussetzung für intelligente, selbstlernde AI-Lösungen. 

Wo liegen die Grenzen von AI aus Ihrer Sicht?

Nach meinem Empfinden sind wir aktuell noch weit entfernt von einer „Artificial General Intelligence (AGI)“ – also einer künstlichen Intelligenz, die ähnlich wie ein Mensch ein breites Feld von Entscheidungssituationen bewältigen und dabei auch den Kontext von unscharfen Informationen und Situationen verarbeiten kann. 

Wenn wir die Entwicklung von AI auf ein Menschenleben übertragen, sind wir wohl aktuell noch auf der Entwicklungsstufe eines Kleinkinds. Neben derzeit viel diskutierten ethischen Grenzen spielen auch technische Limitierungen eine große Rolle. Fähigkeiten und Qualität eines AI-Systems hängen oft stark vom konkreten Use Case ab und auch ein Deep Learning System kann nur so gut sein wie die Daten, mit denen es trainiert wird. Wie bereits zuvor erwähnt, ist gerade der Aspekt der Datenqualität eine unserer größten Herausforderungen. Und das gilt sicher nicht nur für die Logistik. 

Dennoch sind wir sicher, dass Logistik zu den Branchen gehört, in der künstliche Intelligenz und die allgemeiner die Digitalisierung von Geschäftsmodellen zu den stärksten Veränderungen führen wird. Diese Veränderung wollen wir aktiv mitgestalten!


Dr. Joachim Weise (DB Schenker) präsentiert am 14. November 2019, dem zweiten Tag der Data Leader Days 2019, über „Transforming Logistics with AI – Selected Applications at DB Schenker.

Tickets für die Konferenz finden Sie auf der offiziellen Startseite, unter www.dataleaderdays.com.

Spannende Einblicke in die Arbeit vom Telekom Innovation Lab

Interview mit Frau Claudia Pohlink von den Telekom Innovation Laboratories

Claudia Pohlink ist Head of Artificial Intelligence/Machine Learning bei den Telekom Innovation Laboratories (T-Labs). Sie verfügt über einen Hintergrund in Data Science, Data Management und Innovation Management und verbindet Business- und Data Science-Aspekte von Analytics und Künstlicher Intelligenz (KI) nahtlos. Seit 2017 gehört Künstliche Intelligenz zu den drei Kernthemen der T-Labs. Seither zählt die Forschungs- und Entwicklungs-Einheit zu den aktivsten KI-Playern in Berlin.

Frau Pohlink, welche täglichen Verantwortlichkeiten haben Sie als Head of Artificial Intelligence / Machine Learning? Was macht Ihnen am meisten Freude? Und was hin und wieder Bauchschmerzen?

Mein Team und ich konzentrieren uns auf drei strategische Felder: Netzwerke-, Quantum und Cyber Security. 

Bei ersterem beschäftigen wir uns mit der Optimierung der Kommunikationsnetzwerke. So haben wir zusammen mit Benocs, einem  Startup der Telekom, sichtbar gemacht, wie die Netzwerk-Last verteilt ist. Durch die Verarbeitung historischer Daten können nun wir Dank Machine Learning vorhersagen, wo die Last auftritt und wie sie zukünftig verteilt sein könnte. Das hilft uns beim Aufbau der Netze. 

Bei Quantum KI wollen wir die Geschwindigkeit oder der Qualität der maschinellen Lernprozesse verbessern. Dazu werden rechenintensive Routinen auf einem Quantenrechner ausgeführt. 

Im Bereich Cyber Security wollen wir  unbewusste oder bewusste Risiken von KI-Algorithmen  erkennen und minimieren. Ein wichtiges Stichwort hierbei lautet „Bias“, also Daten, die Vorurteile zementieren. Darüber hinaus beschäftigen wir uns mit der Abwehr möglicher feindlicher Angriffe (Adversarial Attacks).

Am besten gefällt mir an meiner Arbeit der Blick in die Zukunft: die vielen Möglichkeiten, die noch vor uns liegen und nicht erforscht sind. Teil dieser rasanten Entwicklung zu sein, ist unglaublich spannend. Es ist wichtig, dass wir frühzeitig die richtigen Themen identifizieren und hierzu Kompetenzen aufbauen, und dass wir im Rahmen unserer ethischen Verhaltensrichtlinien für den Umgang mit KI auch immer den größeren gesellschaftlichen Rahmen im Blick behalten. Das wird schnell sehr komplex.

Künstliche Intelligenz und Machine Learning ist in aller Munde. Doch was ist da eigentlich der Unterschied?

Künstliche Intelligenz ist ein sehr komplexer Begriff. Oft ist damit der Teilbereich des Machine Learnings gemeint.

Ziel der Forschung zur Künstlichen Intelligenz ganz allgemein ist es, mithilfe der Wissenschaft intelligentes Verhalten in Maschinen zu ermöglichen. Uns ist wichtig dabei zu betonen, dass KI Menschen in ihrem Alltag unterstützen und nicht ersetzen soll. Ein Großteil der Anwendungen, die wir heute als KI bezeichnen, basiert auf Mathematik und Statistik aus dem 18. und 19. Jahrhundert. Die ersten Aufzeichnungen zur Regressionsanalyse zum Beispiel, einer Vorhersagemethode für Werte, stammen aus dem Jahre 1760.

Machine Learning ist eine Methode, mit der große Mengen an Daten analysiert und aus ihnen verschiedenes Wissen „künstlich“ generiert und gelernt wird. Erst neuere technische Entwicklungen bezüglich der Speicherung und schnellen Verarbeitung großer Datenmengen haben diesen Sprung der KI-Entwicklung möglich gemacht. Beim Machine Learning werden zum Beispiel Gruppen gebildet, Bilder erkannt oder Muster identifiziert. Eine KI ist z.B. in der Lage, nach einem Lernprozess auf Fotos Katzen von Hunden zu unterscheiden.

Mit welchen Herausforderungen haben Sie in der Telekommunikation zu kämpfen und wie helfen Ihnen dabei Machine Learning Algorithmen?

In der Deutschen Telekom nutzen wir KI inzwischen z.B. bei Chatbots, bei der schnelleren Beantwortung von Kundenanfragen sowie der Planung und Steuerung unserer Netzwerke oder zur Unterstützung beim Glasfaserausbau.

Für die Telekom ist die Vertrauenswürdigkeit von KI-Anwendungen von großer Bedeutung. Eine Basis sind die unsere selbst-bindenden Leitlinien für die Entwicklung und den Einsatz von KI. In Zukunft werden technische Verfahren zur Prüfung von KI auf Robustheit, Sicherheit, Einhaltung der Privatsphäre und Diskriminierungsfreiheit ein zentraler Baustein für die Akzeptanz von KI durch die Kunden und Bürger sein.

Wie ist Ihr Team organisiert? Zentral oder dezentral? Und wo liegt – rein organisatorisch gesehen – der größte Knackpunkt für die Sicherstellung des Projekterfolges?

Wir forschen nicht fernab, sondern versuchen, mit Startups und Forschungseinrichtungen konkrete Lösungen für die Kundenprobleme zu erarbeiten und diese Innovationskraft sofort in den Konzern hineinzubringen. Da haben wir sehr viel in den letzten zehn bis 15 Jahren gelernt. Das ist auch harte Arbeit. Die Arbeit in einem Lab, also einer Einheit für Forschung und Entwicklung (Research & Development) mit ihren Trendscouting-Aktivitäten hat einen großen Anteil daran, Themen zu identifizieren und so zu transformieren, dass sie zur Telekom passen und von den Abteilungen der Telekom übernommen werden. Dafür müssen die internen Teams von Anfang an eingebunden sein und die Entwicklungen mitsteuern können. Das ist eine Gratwanderung.


Claudia Pohlink präsentiert am 13. November 2019, dem ersten Tag der Data Leader Days 2019, über „Before you dream of AI do your homework.

Tickets für die Konferenz finden Sie auf der offiziellen Startseite, unter www.dataleaderdays.com.

Interview mit Herrn Dr. Florian Wilken von Telefónica

Interview mit Herrn Dr. Florian Wilken von Telefónica

Dr. Florian Wilken ist Leiter der Abteilung Analytical Models & Foresight bei Telefónica Deutschland. Nach  dem Physik-Studium und einer Promotion in Wirtschaftswissenschaften war er zunächst bei der Boston Consulting Group tätig. Nach seinem Wechsel  übernahm er Verantwortung in verschiedenen Positionen bei Telefónica in den Bereichen Strategie und Innovation.

Welche Themen verantworten Sie bei der Telefónica? Und wie würden Sie “Digital” von “Data” abgrenzen?

Als Analytical Models & Foresight-Team sind wir Teil des Digital & Data Competence Centers bei Telefónica Deutschland. Wir unterstützen die Telefónica Fachbereiche mit analytischen Modellen, die wir unter Nutzung neuester Data-Science-Methoden entwickeln. Dadurch ermöglichen wir datengetriebene Entscheidungen und Prozesse, beispielsweise im Marketing-, Vertriebs- und Netzwerk-Umfeld.

Bei Telefónica verfügen wir als führender Telekommunikationsanbieter über eine Vielzahl von Daten. Diese sind der Rohstoff, auf dessen Grundlage wir als Unternehmen digital arbeiten. Zum Beispiel, indem wir aus den Daten Erkenntnisse ableiten und diese für die Optimierung unserer Produkte und Prozesse nutzen. 

Letztendlich ermöglichen wir so, dass unsere Kunden die Errungenschaften der Digitalisierung jederzeit und an jedem Ort nutzen können.

Welche Anwendungsfälle und Ideen im Kontext der Nutzung von Daten beschäftigen Sie im Moment konkret? Was sind Ihre derzeitigen Top-Anwendungsfälle?

Wir decken ein breites Spektrum an analytischen Anwendungsfällen für fast alle Fachbereiche bei Telefónica Deutschland ab. 

Beispielsweise analysieren wir die sozialen Medien, um besser und schneller zu verstehen, was unsere Kunden über unsere Produkte und das Unternehmen im öffentlichen Raum sagen. So können wir kurzfristig auf Bedürfnisse und Kritik reagieren.

Bei der Wartung unseres Telekommunikationsnetzes nutzen wir künstliche Intelligenz, um Störungen zu vermeiden bzw. die Behebung zu optimieren. So bewerten wir Störungen in erster Linie nach den Auswirkungen auf die Kunden und sagen beispielsweise wiederkehrende Störungen präzise vorher. Dadurch reduzieren wir die Einschränkungen für unsere Kunden und verbessern die Kundenzufriedenheit.

Mit den Kolleginnen und Kollegen im Marketing setzen wir das Marketing Performance Management Modell ein, um wesentliche Einflussfaktoren auf unser Neukundengeschäft zu identifizieren und zu bewerten. Dies ermöglicht die Optimierung unserer Marketingaktivitäten.

Was sind aus Ihrer Erfahrung die wichtigsten Erfolgsfaktoren dabei? Woran scheitern solche Projekte gerne – und wie kann man dagegen steuern?

Zentraler Erfolgsfaktor ist eine große und vor allem gute Datenbasis. Außerdem braucht man exzellente Data Analysten und Data Scientists, die über umfassendes  Wissen und im besten Fall über langjährige Erfahrung verfügen. 

Zudem ist eine enge Zusammenarbeit mit dem jeweiligen Fachbereich sowie eine offene Unternehmenskultur und Herangehensweise wichtig – die Mitarbeiter müssen experimentieren dürfen. 

Welche Möglichkeiten haben denn Mitarbeiter bei Telefónica selbst mit Daten zu arbeiten? Und was ist Ihre Rolle dabei?

Wir stellen im Unternehmen das Analytical Insights Center als zentralen Self-Service zur Verfügung: So können die Kollegen in den Fachbereichen eigenständig datengetrieben Arbeiten. Inhaltlich konzentrieren wir uns als Team dann stärker auf komplexe Analysen und neue Modelle.

Über das Analytical Insights Center kann jeder Mitarbeiter – im Rahmen der entsprechenden Datenschutz-Regelungen – auf Daten und Analysen zugreifen. So können Mitarbeiter Unternehmens-, Markt- und Wettbewerbsdaten für ihre tägliche Arbeit nutzen. Das ist die Voraussetzung für ein besseres Kundenverständnis, optimierte Services, neue Produkte und schnelle Entscheidungen.

Teil des AIC ist auch die Digital Data Analytics Plattform. Diese ermöglicht es Mitarbeitern, die vor allem analytisch arbeiten, Informationen selbstständig zu verknüpfen, eigene Analysen zu erstellen und eigene Dateninformationen einzuspeisen.


Dr. Florian Wilken präsentiert am 13. November 2019, dem ersten Tag der Data Leader Days 2019, über „Marketing Performance Management: Ein Treibermodell zur optimierten Steuerung der o2 Marketing Aktivitäten.

Tickets für die Konferenz finden Sie auf der offiziellen Startseite, unter www.dataleaderdays.com.

Interview: Industrie 4.0 – Wie geht’s weiter?

Interview mit Herrn Thomas Hösle von ELABO

Digitalisierung in der Industrie gilt nun als ein altes Thema. Welchen Blickwinkel haben Sie heute noch auf die sogenannte Industrie 4.0.

Das Besondere an Industrie 4.0 ist ja, dass der in 2011 geprägte Begriff nicht beschreibt, was schon geschehen ist – im Gegensatz zu den Vorgängerbegrifflichkeiten ! – sondern was noch umgesetzt werden soll.

Den Kern von Industrie 4.0 bilden aus meiner Sicht unverändert die technologischen Elemente wie Digitalisierung, Connectivity und Automatisierung. Mit deren Hilfe soll einerseits die operative Exzellenz in Industrieunternehmen gesteigert werden, andererseits sollen auch neue, digitale Geschäftsmodelle entstehen, getreu dem Motto „Uber yourself or you will be kodaked“.

Inzwischen sind Industrie 4.0-Anwendungen – insbesondere zur Steigerung der Effizienz und Qualität sowie zur Erhöhung der Arbeitsflexibilität – salonfähig und auch umgesetzt geworden, ohne aber bereits ein Endstadium erreicht zu haben. Wo es aus meiner Sicht noch deutlichen Nachholbedarf gibt, ist bei der Nutzung der Digitalisierung für neue Geschäftsmodelle, insbesondere bei datengetriebenen Geschäftsmodellen.

Inwieweit spielen die entstehenden Daten eine Rolle in ihren Wertschöpfungsketten? Wie werden diese in ihren Systemen genutzt? Und was wird zukünftig möglich werden?

Wir sind ein typisches Beispiel für einen zweigeteilten Ansatz. Als Anwender mit überwiegend individuellen und manuellen Tätigkeiten in der Kleinserie mit hoher Varianz stehen wir bei der Erfassung bzw. Nutzung von Daten in unserer eigenen Wertschöpfungskette erst an zarten Anfängen.

Mit unserer Fabriksoftware „ELUTION“ hingegen ermöglichen wir unseren Kunden die aktive Nutzung von Daten dank der Module „Smart Data“ (automatisierte Erfassung und Archivierung prozessbezogener Daten) sowie „Analyzer Tool“. Mit letzterem erhalten die Anwender eine transparente Dokumentation aller erfassten Wertschöpfungsschritte (z.B. in einer Montage), um darauf aufbauend – entweder mit menschlicher oder künstlicher Intelligenz – Optimierungen hinsichtlich Produktivität, Qualität und Kosten unter Vermeidung von Verschwendung (Lean-Prinzipien) zu veranlassen.

Im Sinne des PDCA-Kreislauf können dann die Umsetzungsergebnisse überprüft und gegebenfalls nachgeschärft werden.

Gehen Industrie 4.0 und Künstliche Intelligenz also doch Hand in Hand?

Wenn man unter Industrie 4.0 auch versteht, dass durch den Einsatz von Sensoren (Cyberphysische Systeme) systematisch relevante Daten gesammelt werden zur Verbesserung der operativen Exzellenz, dann ist dieser Schritt wie beim Eiskunstlauf der Pflichtteil. Die Kür besteht darin, über geeignete Algorithmen – sprich KI – diese Daten in Wissen zu transformieren, um Prozesse zu optimieren, Qualität zu erhöhen und Kosten zu reduzieren. Somit geht also Industrie 4.0. Hand in Hand mit der Künstlichen Intelligenz, die als nützliches Tool in der großen Werkzeugkiste der digitalen Transformation fungiert.

Was sind aktuell die wichtigsten Use-Cases die genau jetzt und noch im Jahr 2020 eine markante Rolle spielen werden?

Die wichtigsten Use-Cases bestehen aus unserer Sicht in einem Zweiklang. Es geht zum einen darum, deutlich früher und besser über potentielle Störfälle informiert zu werden. Hierzu dienen predictive und prescriptive-Lösungen, wo KI-Anwendungen einen hohen Nutzenbeitrag leisten. Zum anderen geht es aber auch darum, die time-to-repair im Störfall zu minimieren. Dank digitaler Störungsmanagement Werkzeuge können die Ausfallzeiten von Maschinen und Anlagen deutlich reduziert werden, ohne auf das Erfahrungswissen einzelner Mitarbeiter angewiesen zu sein. Über eine digitale Lebensakte der Maschinen und Anlagen werden relevante Daten systematisch archiviert und stehen dezentral für jeden Mitarbeiter zur Verfügung, um Störfälle rasch und effizient zu beheben.


Thomas Hösle präsentiert am 14. November 2019, dem zweiten Tag der Data Leader Days 2019, über „Systematische Datengenerierung auf dem Shopfloor“.

Tickets für die Konferenz finden Sie auf der offiziellen Startseite, unter www.dataleaderdays.com.

Interview: Daten – Chancen und Herausforderungen für eventim

Fred Türling ist Senior Vice President Information Science bei der CTS Eventim AG. Schwerpunkte seiner 20-jährigen analytischen Arbeit liegen in den Fachgebieten Social Media und Web Analytics, Targeting und Kampagnen Management, Business Intelligence und Data Warehousing für die Branchen Medien, Handel sowie Internet- und Telekommunikations-Services. Zuvor war Türling in leitenden Positionen bei United Internet Media, SHS VIVEON, AOL, Otto und Siemens tätig.

 

Insbesondere Geschäftsmodelle mit vielen Teilnehmern, wie das Ticketing im Live Entertainment, gelten als besonders potent hinsichtlich der Datennutzung. Können Sie das bestätigen?

Eventim verkauft pro Jahr über 250 Millionen Eintrittskarten zu 850.000 Events in 21 Märkten. Wir nutzen unseren Datenschatz zum einen für die personalisierte Ansprache unserer B2C Kunden, insbesondere in der Empfehlung relevanter Events. Zum anderen testen wir die Datennutzung auch in der Event-Planung und -Advertisment für unser Promoter-Netzwerk EVENTIM LIVE, das mehr als 25 Veranstalter umfasst.

In Deutschland wird genauer auf die Speicherung von Daten geschaut und auch sehen die Menschen hierzulande die Speicherung ihrer Daten kritischer als in anderen Ländern. Stört diese Tatsache Sie bei der Geschäftsentwicklung?
Mit der DSGVO und der EU-Privacy Verordnung hat der Gesetzgeber klare Rahmenbedingungen geschaffen, um für den Verbraucher eine hohe Transparenz und Kontrolle über Datennutzung zu etablieren. Richtig angewandt behindern diese die Datennutzung für Unternehmen nicht, insbesondere, wenn der Kunde den Mehrwert der darauf aufsetzenden Services erklärt bekommt.

Bei welchen kaufmännischen Herausforderungen wird Ihnen Data Science und KI helfen können?
Wie beschrieben sehen wir attraktive Nutzungsmöglichkeiten im Marketing und im Produkt Management – erfolgreiche Use Cases müssen aber in der Regel solide entwickelt, getestet und vielfach in mehreren Stufen optimiert werden.

Stand heute: Was sind Ihre Top-Anwendungsfälle für Predictive Analytics? Welche Methoden und Technologien nutzen Sie dafür?

Für unsere Recommendation Engine nutzen wir eine Überlagerung mehrerer algorithmischer Ansätze u.a. z.B. Random Forest – wir testen aber regelmäßig weitere Modelling Verfahren. In einigen Scoring Aufgaben haben wir auch recht einfache logistische Regressionen im Einsatz.

 


Fred Türling präsentiert am 13. November 2019, dem ersten Tag der Data Leader Days 2019, über „Event Recommendation in der Customer Journey zum Live Entertainment“.

Tickets für die Konferenz finden Sie auf der offiziellen Startseite, unter www.dataleaderdays.com.

Interview: Data Culture eats Data Strategy for breakfast

Interview mit Herrn Dr. Stefan Kühn von TOM TAILOR

Dr. Stefan Kühn ist Head of Data & Intelligence bei der TOM TAILOR Group und beschäftigt sich seit vielen Jahren mit Data Science, Machine Learning und AI. Nach der Promotion in angewandter Mathematik am Max-Planck-Institut für Mathematik in Leipzig war er in verschiedenen Fach- und Führungspositionen für die codecentric AG, Zalando und XING tätig.

 

Herr Dr. Kühn, was hat Ihre Leidenschaft für Daten geweckt und was hat Sie dazu bewegt diesen Job auszuüben?

Am Anfang stand sicherlich die Möglichkeit, komplexe Algorithmen auf echte Daten anwenden und dadurch relevante Informationen gewinnen und echte Probleme lösen zu können, die auf klassischem Wege nicht oder nicht gut gelöst werden konnten. Die Möglichkeiten der etablierten und auch neueren Machine- und Deep-Learning-Verfahren, eine Fragestellung auf intelligente Art und Weise zu modellieren, zu strukturieren und dann schrittweise zu lösen, sind aus Sicht eines Wissenschaftlers einfach faszinierend. Doch um tatsächlich in der echten Welt etwas zu verändern, reichen Prototypen nicht aus. Das Productionizing intelligenter Algorithmen ist eine Teamaufgabe, und die meisten Firmen sind ja bereits mit der Digitalisierung mehr als genügend gefordert, sodass in den seltensten Fällen eine tragfähige Data Strategy existiert. Und so bin ich über die fachliche Faszination der Algorithmen zur deutlich schwierigeren und breiteren Aufgabe der organisatorischen Entwicklung und Umsetzung einer guten Data Strategy gekommen. Aber Vorsicht, Data Culture eats Data Strategy for breakfast, deswegen darf man den nötigen Kulturwandel niemals außer Acht lassen.

 

Gibt es eine Datenstrategie in Ihrer Firma, um Daten in einen betriebswirtschaftlichen Mehrwert zu verwandeln? Welche Abteilungen werden dabei mit einbezogen?

Ja. Ohne nachhaltige Datenstrategie würde die Arbeit meiner Abteilung gar keinen nachhaltigen Einfluss auf Tom Tailor nehmen können. Unser Ansatz sieht vor, nach und nach und vor allem möglichst früh alle Abteilungen mit einzuziehen. Natürlich sind einige Abteilungen „näher dran“, wie etwa der bereits sehr gut aufgestellte E-Commerce-Bereich, aber auch alle anderen Abteilungen – Einzel- und Großhandel, aber auch unser Einkauf und natürlich Abteilungen aus dem Operations-Bereich wie unser Supply Chain Team können von unserer Zuarbeit profitieren, genauso wie das Data&Intelligence-Team durch Kooperation mit den Fachabteilungen nur gewinnen kann. In einem ersten Schritt entwickeln wir eine zentrale Datenplattform, über die dann im zweiten Schritt maßgeschneiderte Datenprodukte und Data Services für alle Stakeholder bereitgestellt werden. Wir arbeiten hierbei mit einem zentralen Expertenteam, welches sehr eng in die fachlichen Abläufe eingebunden ist über direkt in den Fachabteilungen integrierte Datenexperten.

 

Artificial Intelligence (AI) birgt großes Potential, aber nur wenn der User sich auch die Ergebnisse von AI zunutze macht und diese umsetzt. Welche Hemmnisse haben interne User Ihrer Meinung nach und wie versuchen Sie diese zu beseitigen?

Bei uns ist die interne Akzeptanz für Datenprodukte bereits sehr hoch, da in vielen Bereichen seit langem mit Daten gearbeitet wird. Die größten Herausforderungen sehen wir momentan in der Integration der heterogenen Datenquellen und der anschließenden Validierung der Daten und der darauf basierenden Datenprodukte, im einfachsten Falle etwa einem Standard-Report. Hier müssen natürlich zunächst alle bisherigen Ergebnisse reproduziert werden können, damit wir den nächsten Schritt gehen und in die Zukunft schauen können – etwa mit Langzeit-Forecastings und selbstlernenden Systemen. Die Akzeptanz der von uns eingesetzten neuen Tools ist dagegen überhaupt kein Problem, da diese Tools in Bezug auf Usability und Self-Service einfach sehr gut und intuitiv nutzbar sind, so dass wir mit sehr geringem Schulungsaufwand bereits eine sehr hohe Userakzeptanz erreichen.

 

Welche Algorithmen und Tools verwenden Sie für Ihre Anwendungsfälle?

Unser Tooling würde ich in verschiedene Bereiche aufteilen. Als Visualisierungs- und Self-Service-Tool für die Fachabteilungen setzen wir Tableau ein – dies ist vor allem in Hinblick auf die Bereitstellung von Daten und Services und die Akzeptanz der Fachbereiche unser wichtigstes Tool. Die von uns genutzten grundlegenden Infrastrukturkomponenten liefert die AWS  – aus Datensicht wären das im Wesentlichen S3, Redshift, EC2, EMR etc. Für das Data Engineering und Processing verwenden wir Python, Scala und Spark, je nach Use Case. Im Machine-Learning-Bereich verwenden wir unter anderem Jupyter Hub, wo die Data Scientists Prototypen in R- oder Python-Notebooks entwickeln und neue Ideen testen können. Die Algorithmen sind sehr unterschiedlich, wir verwenden Forecasting-Algorithmen wie prophet, aber auch relativ einfach a-priori-Algorithmen oder CLV-Modelle. Eines meiner Lieblingsgebiete sind z.B. Clustering-Verfahren bzw. Unsupervised Learning generell. 

 

Es gibt immer mehr Studiengänge zur Erlangung eines Hochschulabschlusses des Data Scientist. Wie beurteilen Sie die Qualität der Ausbildung junger Absolventen?

Das lässt sich meiner Meinung nach so pauschal gar nicht beantworten. Ich bin mir auch nicht so sicher, ob ein Master in Data Science wirklich einem Master in Bioinformatik, Physik oder Mathematik vorzuziehen ist. In meinen Augen fehlt vielen Data Scientists, die mit „nacktem“ Methodenwissen mit einem Master in Data Science von der Uni kommen, die Erfahrung mit einer Problemdomäne, einem Anwendungsfeld in der echten Welt. Die geschickte Modellierung der Vorgänge in der echten Welt und die intelligente Auswertung der Daten in Bezug auf dieses Modell sind in meinen Augen die beiden Kernkompetenzen, die das Berufsfeld Data Science ausmachen. Die reine Anwendung von vorinstallierten Algorithmen auf vorstrukturierte Daten ohne Verständnis der diese Daten generierenden Prozesse und der Evolution der Algorithmen ist in meinen Augen nicht zielführend, lässt sich allerdings relativ leicht lehren und prüfen.


Dr. Stefan Kühn präsentiert am 13. November 2019, dem ersten Tag der Data Leader Days 2019, über „ Talk Data to me – from Data Science to Business Science“.

Tickets für die Konferenz finden Sie auf der offiziellen Startseite, unter www.dataleaderdays.com.

Interview: Artificial Intelligence at Schwarz IT

Artificial Intelligence at SIT: A perspective of an expert

Andrey Sharapov is a data scientist and data engineer at Schwarz IT. He is currently working on various projects related to machine learning and data product development. Previously, he spent 2 years at Xaxis where he helps to develop a campaign optimization tool for GroupM agencies, then at TeamViewer, where he led data science initiatives and developed a tool for customer analytics. Andrey is interested in „explainable AI“ and is passionate about making machine learning accessible to the general public.

What are your main topics as a data scientist at SIT? Which use cases are you currently working on?

I have very wide responsibilities. Primarily, I am working on machine learning bases product that helps promotion managers to make better decisions. This involves algorithm development, system architecture, the industrialization of the product, etc. Additionally, I work together with the infrastructure team to bring new technology that can be used for Data Product development. 

What algorithms and tools are you using?

We heavily use Python and Machine learning algorithms available for it such as ones in sklearn. We also use Keras for some problems. Also, Hadoop, Spark, and Kubernetes are a part of our technology stack.

Not always things are working out: according to your experience how high is the level of success for data projects and which success factors are the most relevant?

We try to make all our projects succeed. The major challenges are the scaling and robustification of the software we write for all countries. Very hard to make everyone happy. Another major challenge is communication with final users. These people rarely become a part of the product feature establishment.

The retail sector is considered an industrial section with a high potential for data science and AI, would you agree with this statement? What else do you think will be relevant in 2020/2021?

Retail has a high potential for AI. For us, the major challenge is product industrialization.


Dr. Andrey Sharapov präsentiert am 13. November 2019, dem ersten Tag der Data Leader Days 2019, über „ Building a bridge between business & data science using Explainable AI“.

Tickets für die Konferenz finden Sie auf der offiziellen Startseite, unter www.dataleaderdays.com.

Interview: IoT Lösung zur Übertragung großer Datenmengen

Herr Mike Bischoff ist Chief Digital Officer bei der Signify GmbH (ehemals Philips Lighting GmbH). Er studierte Wirtschaftswissenschaften in Bremen und war dann anschließend über 10 Jahre als CIO in der IT- und Getränkebranche tätig. Seit ca. sechs Jahren ist er bei Signify/Philips Lighting im Marketing bzw. seit 1. Januar 2019 im Vorstand des DACH Marktes als CDO tätig.

 

Inwiefern wird Ihrer Meinung nach die Li-Fi Technik die IoT Welt verändern? In welchen Bereichen und/oder ganzen Branchen wird Li-Fi sich gegenüber etablierten Techniken durchsetzen?

Im Jahre 2022 werden wir weltweit bereits über 50 Mrd. IoT Devices haben, die kontinuierlich mit dem Internet verbunden sind und über angebundene Sensoren gigantische Datenmengen sammeln und übertragen. Über 40.000 Petabytes an Daten werden bereits ab 2020 monatlich übermittelt. Die Nachfrage steigt weiter stetig an, aber das Angebot – Breitbandinternet über Radiofrequenzwellen wie WiFi – kann nicht mehr ausgeweitet werden. Das Radiospektrum ist irgendwann voll ausgelastet. Das Problem bemerken wir schon heute in stark frequentierten Mobilfunknetzen, wie z.B. in Fußballstadien. Die alternative Frequenz über die LiFi kommuniziert ist in der Hinsicht ein Vorteil, weil die bisherige Funkkommunikation inzwischen Ausmaße angenommen hat, die vergleichbar sind mit verstauten Autobahnen. Wir nutzen mit LiFi praktisch eine alternative Autobahn, die uns hohe Performance und Stabilität bietet. Wir benötigen also eine neue Technologie die Daten nicht mehr über Radiofrequenzen, sondern über Lichtwellen Daten überträgt, um den ständig wachsenden Bedarf zu bedienen. Die Vorteile Daten über Licht zu übertragen sehen wir z.B. in Hochsicherheitsbereichen, Industry 4.0, Machine-To-Machine Kommunikationen oder auch in Bereichen in denen Radiofrequenzwellen störend oder gefährlich sein können. Da Licht nicht durch Wände geht, ist es unmöglich, dass sich jemand unbefugt in ein Netz einhacken kann, der nicht im gleichen Raum sitzt. Auch wird die Verbindung in dem Moment unterbrochen, wenn das Licht ausgeschaltet wird. So hat man volle Kontrolle. Zudem ist die Bandbreite bei der Übertragung von Daten über Lichtwellen bis zu 1000-mal größer als bei Radiofrequenzwellen.

 

Welche Herausforderungen sehen Sie bezogen auf Mensch und Technik um die Li-Fi Technologie als festen Bestandteil von IoT Lösungen zu etablieren?

Eine Herausforderung stellt heute noch die Kompatibilität der Endgeräte der Nutzer dar. Zwar können wir bei allen Geräten mit USB Anschluss ganz einfach und unkompliziert einen Zugangsschlüssel über die USB Schnittstelle zuführen. Damit die LiFi Technologie aber als fester Bestandteil von IoT Lösungen zu etablieren ist, müssten diese Infrarot-Transceiver in den Endgeräten direkt implementiert werden. Man kann das, glaube ich, ganz gut mit der Frühphase von Wi-Fi vergleichen: Am Anfang benötigten alle Wi-Fi Nutzer noch einen USB-Stick oder USB-Dongle, um sich mit einem WiFi-Netzwerk verbinden zu können. Mittlerweile ist die Empfangstechnologie standardmäßig in allen smarten Geräten (PCs, Smartphones, TVs & Co.) integriert. Das ist auch unser Ziel um LiFi massenmarkttauglich zu machen.

 

Welche wesentlichen Fähigkeiten muss ein Data Scientist Ihrer Meinung nach mitbringen, welche ihn von dem klassischen ITler unterscheiden? Wie würden Sie einen Berufseinsteiger das Berufsbild des Data Scientists erklären?

In unserer Markt-Organisation haben wir bislang noch keine Data Scientists beschäftigt. Meine Vorstellung der Persönlichkeit eines Data Scientists kann allerdings nicht die reine „klassische Ausprägung“ von Fähigkeiten wie technischen, analytischen und logischen Denken sein. Die Kombination aus mathematischen Fähigkeiten, unternehmerischen Denken und Kommunikationsstärke sind aus meiner Sicht für diesen Beruf die wichtigsten Eigenschaften. Das heißt der Transfer von Datenanalysen zu Hypothesen und zu praktischen Geschäftsentscheidungen ist der entscheidende Erfolgsfaktor. Eine herausragende Fähigkeit ist es dann, wenn er/sie eine komplexe Thematik/Hypothese in einen überzeugenden Elevator Pitch für das Management umwandeln kann. Aber letztendlich hängt es davon ab, dass wir als Unternehmen genauestens definieren, was wir von einem Data Scientist erwarten. Wenn man den Luxus hat, über ein Team von Data Scientists zu verfügen, müssen nicht alle Persönlichkeitsanforderungen in einer Person gebündelt sein, aber dann braucht es hier natürlich eine gesunde Teamstruktur und Kommunikation, d.h. die richtige Mischung aus intro-/extrovertierten und aktiven/reaktiven Persönlichkeiten.

In welchen Anwendungsfeldern arbeiten Data Scientists in Ihrem Haus hauptsächlich? 

Data Scientists sind aktuell bei uns nur in den globalen Business Groups, aber noch nicht in den Märkten wie DACH tätig. In den Business Groups fokussieren sich die Data Scientists derzeit auf die riesigen Datenmengen, die durch unsere IoT-Lösungen in Smart Cities, Buildings und Manufacturing gewonnen werden. Alle unsere Leuchten werden bald nur noch connected sein und werden mit vielfältigsten Sensoren ausgerüstet, die Temperaturen, Lichtintensität, Geräusche, Wetterdaten, etc. auswerten können. Hier kommt den Data Scientists eine wichtige Rolle zu, darauf basierend die richtigen Business Modelle mit Mehrwerten für unsere Kunden zu entwickeln. In den Vertriebsorganisation sehe ich Anwendungsfälle für Data Scientists insbesondere im Marketing und hier im Bereich „intelligent/dynamic Pricing“.

Wie würden Sie den folgenden Satz vervollständigen?

Meine ehemalige Position als Marketing Director befähigt mich… die entscheidenden Kriterien „Markt“, „Produkte & Systeme“ sowie „Customer Experience“ in der Definition und Umsetzung der Digital Transformation Agenda einfließen zu lassen. Natürlich hat mir die Rolle auch die wichtige Vernetzung zu globalen und lokalen Stakeholdern, wichtigen Kunden und Marktpartnern sowie zur Belegschaft gebracht, die mir bei der Umsetzung der digitalen Agenda sehr nützlich sind.


Mike Bischoff präsentiert am 14. November 2019, dem zweiten Tag der Data Leader Days 2019, über „LiFi – Drahtlose Übertragung großer Datenmengen über sichtbares Licht für die IoT-Lösungen der Zukunft“.

Tickets für die Konferenz finden Sie auf der offiziellen Startseite, unter www.dataleaderdays.com.

Interview mit Dr. Dirk Haft von Wittenstein SE

Interview mit Dr. Dirk Haft, Vorstand bei WITTENSTEIN SE

Dr. Dirk Haft ist seit dem 1. April 2016 einer von vier Vorstandsmitgliedern bei der WITTENSTEIN AG. Zusammen mit Dr. Khaled Karraï hat er das Unternehmen attocube systems AG gegründet – Technologieführer für anspruchsvollste Antriebs- und Messtechnik im Nanometerbereich. Er wird neben seiner neuen Aufgabe im Vorstand der WITTENSTEN AG die attocube systems AG als Aufsichtsratsvor-sitzender weiterhin prägen und begleiten. 

1.Können Sie uns einen groben Einblick in Ihre Innovationsfabrik geben?

Die Innovationsfabrik an unserem Hauptstandort ist die Klammer eines traditionellen Maschinenbauers, der ursprünglich von der Getriebetechnologie kommt, um in die moderne Mechatronik und Cybertronik vorzustoßen.

Dahinter verbirgt sich ein hochmodernes Gebäude – in dessen hinteren Teil die Produktion angesiedelt und im vorderen Teil die Projektleiter sowie der Vertrieb und andere Fachbereiche angesiedelt sind. Für die innovativen/mechatronischen Bereiche haben wir ein Innovationlab, ein Digitalisierungscenter sowie einen Querdenkerraum – also Räumlichkeiten zum Denken und modernste Arbeitsstrukturen, die sich sehr gut für Projekte eignen, die Innovation und Digitalisierung beinhalten. Aktuell laufen dort rund hundert Projekte – teils Kundenprojekte, interne Innovationsprojekte und Digitalisierungsprojekte.

2. Was sind für Sie die wichtigsten Erfolgsfaktoren bei Digitalprojekten?

Gute Leute und nah am Markt sein. Ich sehe dies ähnlich, als ein neues Produkt für einen Kunden zu entwickeln.

3. Worauf können sich die Teilnehmer der Data Leader Days bei Ihrer Keynote zum Thema WITTENSTEINs smarte Roadmap – Digitale Produkte & Data Driven Services am 15.11.2018 freuen?

Industrie 4.0 ist das Zielbild, bei dem sich das Werkstück durch die Werkhalle seinen Weg sucht und alles digital vernetzt ist. Da tun wir uns gegenwärtig noch ein wenig schwer, was schade ist, denn würden wir alles durchdigitalisiert haben, hätten wir am Ende rund 30% mehr eine deutlich höhere Produktivität. Wir fokussieren uns derzeit darauf, unsere Produkte für den Kunden digital zu machen. So wird beispielhaft das Getriebe mit einem Sensor versehen, so dass wir Temperatur, Schwingungen bzw. Resonanzen, Ölstand und Metallpartikel im Öl messen können und dann Themen wie Condition Monitoring bei unseren Komponenten als funktionale Bestandteile mitgeben können. Der Maschinenbauer, der es einbaut, kann diese Daten verwenden und am Ende der Betreiber daraus Nutzen ziehen. Es geht also darum, Motoren, Getriebe und alle Komponenten, die wir bauen, zunächst intelligent zu machen, um diese Intelligenz an die Maschinen und Umgebung weitergeben zu können. Hier sind wir mit hoher Geschwindigkeit unterwegs. Dies beinhaltet auch, die Mitarbeiter über unser Digitalisierungscenter hinaus mitzunehmen und aufzuklären, dass sie später diese Daten nutzen können. Darauf und auf weitere Themen unserer smarten Roadmap dürfen sich die Teilnehmer freuen.

Dr. Dirk Haft präsentierte am 15. November 2018, dem zweiten Tag der Data Leader Days 2018, über „Keynote: WITTENSTEINs smarte Roadmap – Digitale Produkte & Data Driven Services“.