Interview mit Dr. Dirk Haft von Wittenstein SE

Interview mit Dr. Dirk Haft, Vorstand bei WITTENSTEIN SE

Dr. Dirk Haft ist seit dem 1. April 2016 einer von vier Vorstandsmitgliedern bei der WITTENSTEIN AG. Zusammen mit Dr. Khaled Karraï hat er das Unternehmen attocube systems AG gegründet – Technologieführer für anspruchsvollste Antriebs- und Messtechnik im Nanometerbereich. Er wird neben seiner neuen Aufgabe im Vorstand der WITTENSTEN AG die attocube systems AG als Aufsichtsratsvor-sitzender weiterhin prägen und begleiten. 

1.Können Sie uns einen groben Einblick in Ihre Innovationsfabrik geben?

Die Innovationsfabrik an unserem Hauptstandort ist die Klammer eines traditionellen Maschinenbauers, der ursprünglich von der Getriebetechnologie kommt, um in die moderne Mechatronik und Cybertronik vorzustoßen.

Dahinter verbirgt sich ein hochmodernes Gebäude – in dessen hinteren Teil die Produktion angesiedelt und im vorderen Teil die Projektleiter sowie der Vertrieb und andere Fachbereiche angesiedelt sind. Für die innovativen/mechatronischen Bereiche haben wir ein Innovationlab, ein Digitalisierungscenter sowie einen Querdenkerraum – also Räumlichkeiten zum Denken und modernste Arbeitsstrukturen, die sich sehr gut für Projekte eignen, die Innovation und Digitalisierung beinhalten. Aktuell laufen dort rund hundert Projekte – teils Kundenprojekte, interne Innovationsprojekte und Digitalisierungsprojekte.

2. Was sind für Sie die wichtigsten Erfolgsfaktoren bei Digitalprojekten?

Gute Leute und nah am Markt sein. Ich sehe dies ähnlich, als ein neues Produkt für einen Kunden zu entwickeln.

3. Worauf können sich die Teilnehmer der Data Leader Days bei Ihrer Keynote zum Thema WITTENSTEINs smarte Roadmap – Digitale Produkte & Data Driven Services am 15.11.2018 freuen?

Industrie 4.0 ist das Zielbild, bei dem sich das Werkstück durch die Werkhalle seinen Weg sucht und alles digital vernetzt ist. Da tun wir uns gegenwärtig noch ein wenig schwer, was schade ist, denn würden wir alles durchdigitalisiert haben, hätten wir am Ende rund 30% mehr eine deutlich höhere Produktivität. Wir fokussieren uns derzeit darauf, unsere Produkte für den Kunden digital zu machen. So wird beispielhaft das Getriebe mit einem Sensor versehen, so dass wir Temperatur, Schwingungen bzw. Resonanzen, Ölstand und Metallpartikel im Öl messen können und dann Themen wie Condition Monitoring bei unseren Komponenten als funktionale Bestandteile mitgeben können. Der Maschinenbauer, der es einbaut, kann diese Daten verwenden und am Ende der Betreiber daraus Nutzen ziehen. Es geht also darum, Motoren, Getriebe und alle Komponenten, die wir bauen, zunächst intelligent zu machen, um diese Intelligenz an die Maschinen und Umgebung weitergeben zu können. Hier sind wir mit hoher Geschwindigkeit unterwegs. Dies beinhaltet auch, die Mitarbeiter über unser Digitalisierungscenter hinaus mitzunehmen und aufzuklären, dass sie später diese Daten nutzen können. Darauf und auf weitere Themen unserer smarten Roadmap dürfen sich die Teilnehmer freuen.

Dr. Dirk Haft präsentierte am 15. November 2018, dem zweiten Tag der Data Leader Days 2018, über „Keynote: WITTENSTEINs smarte Roadmap – Digitale Produkte & Data Driven Services“.

Interview: Wirtschaftlichkeitsbetrachtung von Data Science Anwendungen im eCommerce und Handel

Interview mit Herrn Nicolas March von der REWE Group/REWE Digital GmbH über die Wirtschaftlichkeitsbetrachtung von Data Science Anwendungen im eCommerce und Handel. 

Herr Dr. Nicolas March ist Head of Analytics bei der REWE Digital – einem Unternehmen der REWE Group. Der promovierte Betriebswirt beschäftigt sich seit über 15 Jahren mit Business Intelligence und Advanced Analytics in unterschiedlichen Branchen, wie Handel, Telekommunikation und verarbeitender Industrie. Vor seiner Zeit bei REWE digital war er IT Consultant in der Digital Division der Accenture GmbH.

Herr March, in welchem Verhältnis stehen Big Data, Data Science, Machine Learning und Künstliche Intelligenz Ihrer Erfahrung und Ansicht nach untereinander?

Zunächst sind das keine überschneidungsfreien Begriffe oder Bereiche. So sind sehr häufig Data Science Anwendungen der analytische Kern in einem Big Data Produkt, beispielsweise ein Empfehlungsalgorithmus in einem Webshop. Die Big Data Technologien ermöglichen einerseits das Handling der extremen Datenmengen aus Web- und Kassensystemen, andererseits geben sie den technologischen Rahmen für die Integration der Auswertungsmethoden vor. Das kann eine einfache Heuristik sein oder z. B. eine Methode des maschinellen Lernens, mit deren Hilfe man Erkenntnisse aus den Daten extrahiert. Ist der Grad des selbständigen Erkenntnisgewinns und der automatisierten Verwendung durch die technische Methode sehr hoch, kann man aus meiner Sicht von einem Verfahren der „künstlichen Intelligenz“ sprechen. Da dies häufig durch Verwendung von Deep Learning Algorithmen bzw. mit neuronalen Netzen umgesetzt wird, werden diese Methoden auch häufig mit KI gleichgestellt.

Wer ist in Ihrer Branche denn der Hauptantreiber der Datennutzung? Geht dieser Drang eher von der Geschäftsführung aus oder von den Fachabteilungen?

Im LEH hat man erkannt, dass der Kunde ein möglichst auf seine Bedürfnisse abgestimmtes Einkaufserlebnis verlangt. Das geht mit einer zunehmenden Digitalisierung des Einkaufsprozesses im stationären Handel als auch mit der Bereitstellung von Online-Liefer- und Abholservices einher, bei denen der Kunde über Website und Mobile-App die Ware bestellen kann. Das dann – im Rahmen der gesetzlichen Vorgaben – die anfallenden Daten z. B. für die Personalisierung im Marketing oder eine effiziente Produktentwicklung nutzbar gemacht werden kann, versteht sich von selbst. Daneben ist den Entscheidern aber auch bewusst, dass man durch die Digitalisierung insbesondere auf Basis von Data Science Anwendungen bestehende Prozesse optimieren kann und muss, um wettbewerbsfähig zu bleiben.

Bei der Gründung von REWE digital hat man diese Ziele von Anfang an ausgelobt, so dass datengestütztes Arbeiten und Entscheiden ein grundsätzliches Leitprinzip darstellt. Dieser Fokus ist also in der DNA des Unternehmens verankert und wird sowohl von den Mitarbeitern der Fachabteilungen als auch der Geschäftsführung gelebt und eingefordert. Aber natürlich ist die Intensität dieser Leitlinie in den Fachabteilungen durchaus unterschiedlich ausgeprägt.

Wie gewährleisten Sie eine angemessene ROI-Einschätzung (Return-on-Investment)? Und wie stellen Sie sicher, dass die Produktentwicklung diesen ROI-Gedanken beibehält?

Bei REWE digital ist die Analytics Abteilung in den Produktentwicklungs- und Portfolio-Prozess eingebunden – und zwar von Beginn an. Das gilt nicht nur für viele Big Data Produkte mit einem analytischen Kern, bei denen wir ohnehin an Bord sind, sondern für beinahe alle Initiativen. In einer agilen Produktentwicklung soll möglichst jeder die Möglichkeit haben, Ideen und Initiativen einzubringen, die das Business vorantreiben. Der Vielzahl an aufkommenden Ideen stehen jedoch häufig begrenzte Ressourcen gegenüber. Um diese bewerten und ressourcenschonend umzusetzen, liefern unsere Analytiker zu jeder Initiative bzw. Idee das unterstützende Zahlenwerk. Beispielsweise erstellen wir Vorabanalysen zur Bestimmung, ob die Grundannahmen einer Initiative richtig sind und sich ggf. bereits in den vorhandenen Daten auch wiederfinden. Zudem helfen wir den Product Ownern auch während der Initiative, in dem wir einfache Anpassungen oder den MVP durch A/B- und Hypothesentests frühzeitig auf Werthaltigkeit überprüfen. Auch nach dem Go-Live wird mit unserer Hilfe geprüft, ob die gesetzten Ziele erreicht wurden. Mit diesen Analysen und A/B-Tests vor, während und nach der Entwicklung helfen wir dem CPO (Chief Product Owner), ein fundiertes Portfolio zusammenzustellen, Erkenntnisse für zukünftige Initiativen zu gewinnen und den ROI seiner Maßnahmen zu sichern. Dafür ist die Produktentwicklung dankbar und nimmt unseren Support gerne in Anspruch.

Welche Anwendungsfälle sehen Sie zurzeit als die wichtigsten im Kontext der Datennutzung? Und welche Themen hätten durchaus noch ein paar Jahre Zeit?

Natürlich sind weiterhin viele Analytics Themen auf die Kundenanalyse ausgerichtet und dienen insbesondere dem Marketing und der Produktentwicklung z. B. im Rahmen der Personalisierung. Den traditionellen Unternehmen ist aber bewusst geworden, dass Analytics eine Querschnittsfunktion ist, die in vielen Bereichen große Potentiale freisetzen kann. Das Thema „Supply Chain Analytics“ verspricht ein riesiges Potential, da mit Big Data und Data Science noch viele kostenintensive Prozesse optimiert werden können. Im Handel sind das beispielsweise Anwendungsfälle, wie die optimale Kapazitäts- und Warenbestellprognose mit Big Data Technologien zur Vermeidung von Abschriften und Stock-out. Aber auch kleinere Prozesse, wie die Standzeitenschätzung von Lieferfahrern helfen, den Personaleinsatz zu optimieren.

Ein weiteres Gebiet, das aus meiner Sicht in allen mir bekannten Unternehmen ein noch großes Entwicklungspotential verspricht, ist „People Analytics“ –  gerade weil die Investition in den Faktor „menschliche Arbeitskraft“ häufig einer der größten Kostenpositionen darstellt. Daher rückt auch in den HR Abteilungen das datengetriebene, analytische Arbeiten mehr und mehr in den Fokus. Anwendungsfälle, wie die Erfolgsanalyse von Recruiting-Kampagnen oder die Prognose von Mitarbeiter-Churn kann für Arbeitgeber ein Wettbewerbsvorteil im hart umkämpften Arbeitsmarkt sein. Zu bedenken ist dabei immer, dass dieses Thema in den HR-Abteilungen aufgrund der personenbezogenen Daten zu Recht mit großer Sensibilität und Vorsicht angefasst wird. People Analytics bedeutet für mich aber nicht die Überwachung des einzelnen Arbeitnehmers, sondern vielmehr die Möglichkeit, seine Arbeitsumgebung durch Analyse anonymisierter Daten optimal auf ihn anzupassen und dadurch seine Zufriedenheit in beiderseitigem Interesse zu erhöhen.

Wenn ich darüber nachdenke, welche Themen im Online-Lebensmittelhandel noch Zeit haben, dann sind das wahrscheinlich Künstliche Intelligenz in der Robotics oder der Warendistribution. Es ist sicherlich hoch spannend, wenn in der Zukunft Pick&Place Roboter auch die Tüten packen und Lieferfahrzeuge beladen könnten.  In unserer Branche denken bestimmt auch viele über die autonome Auslieferung nach. Allerdings ist die Komplexität dieser Anwendungsfälle sehr hoch und es wird bis zu deren wirtschaftlichem Einsatz ohne die Einbindung menschlicher Arbeitskraft sicher noch dauern.

Wie setzt sich Ihr Team zusammen? Unterscheiden Sie strikt zwischen Data Engineer und Data Scientist?

Unsere Data Scientists arbeiten eng mit Data Engineers zusammen. Ich habe noch selbst viele Datenquellen erschlossen und deren Transformation vorgenommen, bevor mit der Erstellung komplexer Modelle begonnen wurde. Da die Infrastrukturlandschaft aber vielseitiger und komplexer geworden ist und sich nicht mehr nur auf eine Hand voll relationaler Datenbanksysteme oder weniger Message Services beschränkt, sind erfahrene Data Engineers für deren Nutzbarmachung unerlässlich. Data Engineers müssen wissen, wie sie unterschiedliche Quellsysteme in die Analyseumgebungen integrieren und auch häufig die Fachlichkeit in den Daten verstehen. Es kann vorkommen, dass dabei auch mit Rechenmethoden und Frameworks bereits Daten voraggregiert werden oder in KPIs überführt werden. Die Modellierung zur Entwicklung eines Produkts oder eines analytischen Prozesses ist bei uns aber weiterhin eher der Job des Data Scientists.

Wie schaffen Sie die Integration von Analysten und Data Scientists sowie Software Entwicklern für die Produktentwicklung?

Unser Team an Data Scientists wird grob in zwei Bereichen eingesetzt. Zum einen entwickeln sie prototypische Modelle zur Verbesserung von Prozessen in den Fachabteilungen. Geht es zum anderen von Beginn an um die Erstellung eines Softwareprodukts mit einem analytischen Kern – wie eine Empfehlungsmodul im Webshop -, ist der Data Scientist ein Teil des agilen Entwicklungsteams und bringt die analytische Kompetenz mit ein. Unsere Data Scientists arbeiten dann im Tagesgeschäft als vollwertiges Mitglied im SCRUM-Modus in einem der Big Data oder Plattform-Teams mit. Diese Integration hat für beide Seiten große Vorteile. Die Developer haben stets einen Analytiker im Team der die Datenlage, Anforderungen und Prozesse des Business sehr genau kennt und dieses Wissen mit in das Team einbringt. Andererseits versteht der Data Scientist den Softwareentwicklungsprozess und bekommt mit, wie beispielsweise technische Limits ein konzeptionelles Modell ggf. nicht unterstützen. Durch Rotation und Wechsel zwischen diesen Einsatzszenarien wollen wir sicherstellen, dass die Data Scientists sehr vielseitig einsetzbar sind und gleichzeitig ihre Methodenkompetenz stets ausbauen können.

Interview: Data Warehousing in der Cloud

Interview mit Thomas Scholz von Snowflake über Data Warehousing in der Cloud

Thomas Scholz ist Sales Engineer bei Snowflake und Experte für analytische Datenbank. Der studierte Informatiker befasst sich bereits seit dem Beginn seiner Karriere vor mehr als 10 Jahren mit den Herausforderungen und Potentialen des Datenwachstums. Heute berät Herr Scholz Kunden beim Weg in die Cloud und dem Einsatz analytischer Datenbanken zur Verbesserung der Möglichkeiten der Datennutzung. Snowflake ist führender Anbieter eines Cloud Services für Data Warehousing und Datenanalyse auf Plattformen wie AWS und MS Azure.

Data Science Blog: Herr Scholz, ohne Data Warehousing wären datenorientierte Geschäftsmodelle unmöglich und auch die Selbstoptimierung von Unternehmen über Datenanalysen nicht effizient. Wie vermitteln Sie die Prinzipien eines Data Warehouse (DWH) in wenigen Sätzen verständlich für Entscheider?

Ganz allgemein kann man sagen, dass ein DWH ein zentraler Datenspeicher im Unternehmen ist, der verschiedene Datenquellen vereinheitlicht und bereinigt zusammenbringt. Durch diese zentrale Rolle müssen Schnittstellen in die vielfältigen Softwarelösungen eines Unternehmens bereitgestellt werden, wobei sich die Fokussierung auf Industriestandards anbietet. Im Datenbankumfeld sind beispielsweise SQL, ODBC und JDBC aber immer mehr auch XML und JSON zu nennen.

In der Vergangenheit wurden DWHs primär zur Verarbeitung der sog. strukturierten Daten genutzt und für semi- oder unstrukturierte Daten wurde andere Konzepte wie beispielsweise Data Lakes eingesetzt. Diese Grenze verschwimmt nun allerdings vermehrt und man möchte idealerweise strukturierte und semi-strukturierte Daten in einem System verarbeiten.

Ein derartig zentraler Datenbestand ermöglicht es Unternehmen alle Geschäftsprozesse im Detail zu verstehen und entsprechend auch Erkenntnisse zur Optimierung zu gewinnen.

Data Science Blog: DWH erfolgt traditionell on-premise. Sie stehen für das DWH in der Cloud. Wo liegen die Vorteile gegenüber der traditionellen Variante?

Cloud Services zu nutzen ist ein breiter Trend und setzt sich nun auch verstärkt im DHW Bereich fort. Dies hat gute Gründe. Sehr oft werden beispielsweise Kosteneinsparpotentiale genannt. Dies ist dadurch möglich, dass man Ressourcen bedarfsgerecht dimensionieren kann und bei passender Architektur nur das bezahlen muss, was man letztlich auch genutzt hat. Kommerziell machbar ist das durch Ressourcenteilung. In einem Cloud-Rechenzentrum werden Rechner geteilt eingesetzt und zwar immer dort, wo sie gerade benötigt werden. Hierdurch werden Leerlaufzeiten vermieden und die Nutzung effizienter.

Aber auch die Skalierbarkeit spielt eine Rolle. Manche Ressourcen werden in der Cloud komplett bedarfsgerecht zur Verfügung gestellt. Beispielsweise Storage. Wenn ich viel benötige, kann ich viel nutzen – und zwar sofort. Praktisch relevante Grenzen existieren nicht. Auch die Skalierung von Rechenleistung ist ein wichtiger Aspekt und hierbei nicht nur nach oben sondern auch nach unten. Ich möchte idealerweise immer genau so viel Leistung bekommen, wie ich gerade benötige. Geschwindigkeit ist nicht mehr limitiert durch die Hardware, die ich im Hause habe. Wenn ich viel Leistung benötige, möchte ich diese auch abrufen können und da ich anschließend wieder kleiner skalieren kann, kann ich mir in intensiven Zeiten auch mehr Ressourcen leisten.

Auch der Aspekt der Agilität wird immer wieder genannt. Cloud-Services stehen mehr oder weniger auf Knopfdruck zur Verfügung. Möchte man eine neue Software im eigenen Rechenzentrum in Betrieb nehmen lassen oder Änderungen an der Konfiguration durchführen, so sind oft langwierige Prozesse erforderlich. Gerade in der schnelllebigen Zeit ist das ein nicht zu unterschätzender Aspekt.

Aber natürlich bringt Cloud auch Risiken und Herausforderungen mit sich, mit denen man sich auseinander setzen muss. So vertraut man seine Daten einem Dienstleister an. Daher muss sichergestellt sein, dass die Daten auch verschlüsselt und vor Zugriffen des Dienstleisters oder anderer unberechtigter Personen geschützt sind. Idealerweise kann der Dienstleister dies garantieren und die Sicherheit des Dienstes durch entsprechende unabhängige Zertifizierungen belegen.

Data Science Blog: Wieso und in welcher Hinsicht unterscheidet sich die Datenbankarchitektur für Clouddatenbanken von on-premise DBs?

Ein großer Vorteil der Cloud ist die elastische Skalierung von Ressourcen. Damit dieser Aspekt aber bei Datenbanken zum Tragen kommt, ist eine andersartige Architektur erforderlich. Klassische Datenbank haben eine recht starre Zuordnung von Daten und Rechenkapazitäten. Möchte man zusätzliche Recheneinheiten nutzen, so muss die Datenorganisation verändert werden, was insbesondere bei großen Datenvolumina nicht effizient ist. Snowflake setzt daher auf eine spezielle Architektur, die konkret für die Möglichkeiten in der Cloud entwickelt wurde. Kernidee ist die Trennung von Storage und Compute, also von Daten und Rechnern. Hierdurch können beide Ressourcen unabhängig voneinander skaliert werden und insbesondere Rechenkapazität bedarfsgerecht genutzt werden. In Zeiten hoher Last, möchte man mehr Ressourcen nutzen, wohingegen bei niedriger Last nur kleine Recheneinheiten oder teilweise gar keine Ressourcen benötigt werden. Da man dies bei Snowflake sekundengenau bezahlt, erkennt man schnell, die Attraktivität dieses Ansatzes. Wenn viel Leistung erforderlich ist, kann ich diese sehr schnell hinzufügen, für diesen Zeitraum bezahle ich das dann auch, aber im Mittel komme ich mit deutlich weniger Ressourcen aus und spare bares Geld.

Außerdem kann man durch die Trennung von Storage und Compute auch belieb Nutzergruppen auf dedizierte Recheneinheiten verteilen und sie somit unabhängig voneinander machen. Der Data Scientist beispielsweise erhält sein eigenes Cluster und beeinträchtigt keinen anderen Nutzer im Unternehmen. Dass die parallele Nutzung unterschiedlicher Cluster auf den gleichen Daten nicht zu Konflikten führt, regelt ein übergreifendes Transaktionsmanagement. Der Data Scientist kann also ein Cluster verwenden, dass für seine Bedürfnisse dimensioniert ist, andere Nutzergruppen erhalten eigene Systeme, die wiederum an deren Erfordernisse angepasst sind. Und aktiv muss ein Cluster nur sein, wenn die jeweilige Nutzergruppe ihr System gerade benötigt.

Data Science Blog: Wodurch grenzt sich Snowflake von anderen Cloud-Services wie von Microsoft, Amazon und Google ab?

Zunächst muss fest gehalten werden, dass Snowflake ein Dienst auf Cloud-Plattformen wie AWS oder MS Azure ist. Es handelt sich also eher um eine Partnerschaft zwischen Snowflake und den Betreibern dieser Plattformen. In einzelnen Bereichen gibt es aber tatsächlich auch Angebote der Plattformbetreiber die mit dem Leistungsangebot von Snowflake im Wettbewerb stehen. Hier gilt es, die eigenen Anforderungen genau zu definieren und die jeweilige Architektur damit abzugleichen. Neben reiner Funktionalität und Performance sollte man gerade Aspekte wie Elastizität und Nebenläufigkeit im Blick haben.

Data Science Blog: Für die erfahrenden Data Engineers, die dieses Interview lesen: Bitte hier nun einen kleinen Pitch für Snowflake!

Ich fasse mich kurz: Snowflake ist das DWH für die Cloud. Die gesamte Architektur wurde für die Cloud entwickelt, mit Snowflake kann man die vielfältigen Vorteile des Cloud Computings fürs DWH optimal nutzbar machen – und das für semi-strukturierte Daten genauso wie für klassische strukturierte Daten. Wer es nicht glaubt, kann es unkompliziert und kostenfrei ausprobieren: https://trial.snowflake.com/

Der Einsatz von Data Warehousing in der Cloud und von Künstlicher Intelligenz zur Auswertung von Geschäfts- oder Maschinendaten ist auch das Leit-Thema der zweitägigen Data Leader Days 2018 in Berlin. Am 14. November 2018 sprechen renommierte Data Leader über Anwendungsfälle, Erfolge und Chancen mit Geschäfts- und Finanzdaten. Der 15. November 2018 konzentriert sich auf Automotive- und Maschinendaten mit hochrangigen Anwendern aus der produzierenden Industrie und der Automobilzuliefererindustrie. Seien Sie dabei und nutzen Sie die Chance, sich mit führenden KI-Anwendern auszutauschen.

Interview mit Daniel Heß von der IAV

Interview mit Daniel Heß von der IAV GmbH in Berlin. Daniel Hess ist Head of Department Software & Algorithms bei der IAV und wird am zweiten Tag der Data Leader Days 2018 zu einem besonders innovativen Thema in der Automobilindustrie referieren: „Der digitale Autodoktor, von den Symptomen zur Ursache“.

1. Herr Heß, womit genau befassen Sie sich bei IAV? Und welche Rolle spielt Data Science dabei?

Wir entwickeln Steuergerätesoftware und –systeme für die Automobilindustrie und industrielle Anwendungen wie Windkraft und Bohrtechnik.

Wir nutzen Data Science auf vielfältige Weise. Schwerpunkt ist natürlich – unserer Herkunft entsprechend – die Modellierung physikalisch-chemischer Prozesse in Motoren und Abgasanlagen. Hier haben wir in der Vergangenheit schon so viele Messdaten aus unseren Entwicklungsprojekten aufgezeichnet, dass sie von Hand nicht mehr auszuwerten waren. Darum sind bei uns viele Algorithmen zum Auffinden von Events in großen Datenmengen und zur Berechnung empirischer Modelle entstanden. Heute wenden wir zusätzlich auch Methoden an, die man der „Künstlichen Intelligenz“ zuordnen würde, z. B. Random Forest Klassifikatoren oder Neuronale Netze.

2. Stichwort: momentane Herausforderungen. Welche Anwendungsfälle und Ideen beschäftigen Sie im Moment konkret? 

Ein sehr aktuelles Thema ist die Erkennung von Fehlern in der Abgasanlage und der Hinweis auf die fehlerhafte Komponente. Die Abgasreinigung von Verbrennungsmotoren funktioniert heute nur noch im komplexen Zusammenspiel verschiedener Komponenten: Katalysatoren, Sensoren, Steller, Reduktionsmedien wie AdBlue etc. Salopp gesagt: Ein moderner Pkw ist ein kleines Chemiewerk, das spazieren fährt und dafür sorgt, dass hinten möglichst saubere Luft herauskommt. Kleine Fehler bei Bauteilen – etwa durch Alterung oder Verschleiß – haben großen Einfluss auf die Güte der Abgasreinigung und müssen deshalb sofort erkannt werden. Natürlich will man beim Werkstattaufenthalt nicht die gesamte Anlage tauschen, sondern nur das fehlerhafte Bauteil.

3. Und wohin geht die Reise bei Ihren Themen?

Heute arbeiten wir „offline“ – das heißt mit Daten, die irgendwann einmal bei einem Fahr- oder Prüfstandsversuch aufgezeichnet wurden. Sie stammen üblicherweise von einer sehr begrenzten Zahl von Versuchsfahrzeugen, die sehr teuer und entsprechend rar sind. Unsere Ergebnisse und Algorithmen werden dann im Anschluss recht statisch und fest in die Serienfahrzeuge einprogrammiert. In Zukunft können wir uns natürlich vorstellen, einige Strategien auch im Fahrbetrieb lernen zu lassen. Man könnte zum Beispiel die Werte aus verschiedenen Fahrzeugen miteinander vergleichen, um zu sehen, was normal ist und damit eine höhere Robustheit für Diagnosen erzielen. Heute ist das noch nicht möglich, denn die wenigsten Autos sind ununterbrochen online. Außerdem wären die Datenmengen so groß, dass sie die heute übliche Bandbreiten und Speicherkapazitäten sprengen würden.

4. Unternehmen erkennen nach und nach den Wert von Daten und versuchen, Strategien für deren Nutzung zu entwickeln. Wie sehen Sie die Lage in ihrem Umfeld?

Der Wert von Daten liegt für uns heute vor allem in der Verbesserung unserer Entwicklungsprozesse und -ergebnisse. Wir können durch Datenanalysen einfach schneller und genauer sein. Unsere Datenstrategie zielt darum im Wesentlichen darauf ab, aus unseren Messdaten Wissen über Zusammenhänge in Motor und Abgasnachbehandlung zu generieren, das wir dann in Modellen anwenden können. Ziele können dabei sein: höhere Modellgüte, geringerer Aufwand bei der projektspezifischen Parametrierung der Modelle durch Machine Learning oder die Optimierung des Messprozesses, was zu weniger Messungen führen würde.

5. Die Anforderungen sind vielfältig. Wie schaffen Sie es, dass sich ihre Teams den unterschiedlichen Aufgaben in den jeweiligen Branchen stellen können?

Neben den Data Scientists binden wir natürlich auch immer Fachexperten ein, die ihr System (zum Beispiel Motor oder Katalysator) kennen wie ihre sprichwörtliche Westentasche. Zusätzlich implementieren unsere Softwareentwickler die Ideen in robusten serientauglichen Code. Durch diese interdisziplinäre Zusammenarbeit entstehen viele neue Ideen und am Ende gute Lösungen.

6. Welche Rolle spielen Tools und Methoden dabei?

Wir setzen selbstverständlich Standardtools wie Matlab/Simulink und vor allem auch Python ein – letzteres bietet uns vielfältige Möglichkeiten und zahlreiche Libraries zu Themen wie maschinelles Lernen, Statistik und diskreter Mathematik. Hier wäre es einfach nicht sinnvoll, das Rad neu zu erfinden. Manchmal sind unsere Probleme aber doch so speziell, dass wir selbst etwas entwickeln müssen. Dabei liegt unser Fokus immer darauf, wiederkehrende Routineaufgaben zu automatisieren. Gerade in der Datenbereitstellung und der explorativen Analyse können uns Tools eine Menge Arbeit abnehmen. Dafür haben wir mit „IAV Mara“ auch ein eigenes Werkzeug entwickelt, das wir als Produkt vertreiben.

Der Einsatz von Künstlicher Intelligenz zur Auswertung von Geschäfts- oder Maschinendaten ist das Leit-Thema der zweitägigen Data Leader Days 2018 in Berlin. Am 14. November 2018 sprechen renommierte Data Leader über Anwendungsfälle, Erfolge und Chancen mit Geschäfts- und Finanzdaten. Der 15. November 2018 konzentriert sich auf Automotive- und Maschinendaten mit hochrangigen Anwendern aus der produzierenden Industrie und der Automobilzuliefererindustrie. Seien Sie dabei und nutzen Sie die Chance, sich mit führenden KI-Anwendern auszutauschen.

Interview: Dem Wettbewerb voraus mit Künstlicher Intelligenz

Interview mit Benjamin Aunkofer, Chief Data Scientist bei DATANOMIQ Applied Data Science, über die Anwendungen, die KI schon heute übernehmen kann und was bis 2020 auf deutsche Unternehmen zukommt.

Benjamin Aunkofer ist Chief Data Scientist bei DATANOMIQ und befasst sich mit Data Science und Machine Learning im Kontext von Business Analytics. Er ist in der Praxis und in der Lehre tätig. Neben dem täglichen Beratungsgeschäft arbeitet Herr Aunkofer mit seinem Team an einer Artificial Intelligence Enterprise Integration, einer universellen Plattform für KI im Unternehmen.

Möchten Sie Herrn Aunkofer persönlich kennenlernen? Treffen Sie ihn persönlich an einem der beiden Data Leader Days 2018 (www.dataleaderdays.com).

1. Herr Aunkofer, Künstliche Intelligenz scheint das Buzzword für 2018 zu sein. Alles nur Hype?

Big Data war das Buzzword der vergangenen Jahre und war – trotz mittlerweile etablierter Tools wie SAP Hana, Hadoop und weitere – betriebswirtschaftlich zum Scheitern verurteilt. Denn Big Data ist ein passiver Begriff und löst keinesfalls auf einfache Art und Weise alltägliche Probleme in den Unternehmen. Soweit liegen Kritiker richtig.

Dabei wird völlig verkannt, dass Big Data die Vorstufe für den eigentlichen Problemlöser ist, der gemeinhin als Künstliche Intelligenz (KI) bezeichnet wird. KI ist ein Buzzword, dessen langfristiger Erfolg und Aktivismus selbst von skeptischen Experten nicht infrage gestellt wird. Daten-Ingenieure sprechen im Kontext von KI hier aktuell bevorzugt von Deep Learning; wissenschaftlich betrachtet ein Teilgebiet der KI. Da die meisten Leser mit dem Begriff „KI“ wohl eher Hollywood-Bilder im Kopf haben, versuche ich begrifflich bei „Deep Lerning“ zu bleiben. Ich entschuldige mich aber im Voraus dafür, dass ich dann doch wieder selbst von KI sprechen werde, damit dann aber im Kern Deep Learning meine.

2. Was kann Deep Learning denn schon heute im Jahr 2018?

Deep Learning Algorithmen laufen bereits heute in Nischen-Anwendungen produktiv, beispielsweise im Bereich der Chatbots oder bei der Suche nach Informationen als Suchmaschine. Sie übernehmen ferner das Rating für die Kreditwürdigkeit und sperren Finanzkonten, wenn sie erlernte Betrugsmuster erkennen. Im Handel findet Deep Learning bei bestimmten Pionieren die optimalen Einkaufsparameter sowie den besten Verkaufspreis, zumindest für ausgewählte Produktgruppen.

Getrieben wird Deep Learning insbesondere durch prestigeträchtige Vorhaben wie das autonome Fahren, dabei werden die vielfältigen Anwendungen im Geschäftsbereich oft vergessen.

3. Wo liegen die Grenzen von Deep Learning?

Und Big Data ist das Futter für Deep Learning. Daraus resultiert auch die Grenze des Möglichen, denn für strategische Entscheidungen eignet sich KI bestenfalls für das Vorbereitung einer Datengrundlage, aus denen menschliche Entscheider eine Strategie entwickeln. KI wird zumindest in dieser Dekade nur auf operativer Ebene Entscheidungen treffen können, insbesondere in der Disposition, Instandhaltung, Logistik und für den Handel auch im Vertrieb – anfänglich jeweils vor allem als Assistenzsystem für die Menschen.

Sicherlich gibt es immer auch eher frustrierende Erfahrung mit Deep Learning. Es gibt immer noch etliche Bugs in Bilderkennungssoftware und auch Chatbots oder Assistenzsystem wie Alexa, Cortana oder Siri sind nicht ohne Frustpotenzial, da alles noch nicht reibungslos funktioniert. Vor zwei Jahrzehnten waren Touchscreens oder internetfähige mobile Endgeräte nicht frustfrei nutzbar, heute jedoch aus unserem Alltag nicht mehr wegzudenken. Ähnlich wird sich das auch mit künstlicher Intelligenz verhalten.

Genau wie das autonome Fahren mit Assistenzsystemen beginnt, wird auch im Unternehmen immer mehr die KI das Steuer übernehmen.

4. Was wird sich hinsichtlich KI bis 2020 tun? Wie wird sich der Markt wandeln?

Derzeit stehen wir erst am Anfang der Möglichkeiten, die Künstliche Intelligenz uns bietet. Das Markt-Wachstum für KI-Systeme und auch die Anwendungen erfolgt exponentiell. Entsprechend wird sich auch die Arbeitsweise für KI-Entwickler ändern müssen. Mit etablierten Deep Learning Frameworks, die mehrheitlich aus dem Silicon Valley stammen, zeichnet sich der Trend ab, der für die Zukunft noch weiter professionalisiert werden wird: KI-Frameworks werden Enterprise-fähig und Distributionen dieser Plattformen werden es ermöglichen, dass KI-Anwendungen als universelle Kernintelligenz für das operative Geschäft für fast alle Unternehmen binnen weniger Monate implementierbar sein werden.

Wir können bis 2020 also mit einer Alexa oder Cortana für das Unternehmen rechnen, die Unternehmensprozesse optimiert, Risiken berichtet und alle alltäglichen Fragen des Geschäftsführers beantwortet – in menschlich-verbal formulierten Sätzen.

Der Einsatz von Künstlicher Intelligenz zur Auswertung von Geschäfts- oder Maschinendaten ist auch das Leit-Thema der zweitägigen Data Leader Days 2018 in Berlin. Am 14. November 2018 sprechen renommierte Data Leader über Anwendungsfälle, Erfolge und Chancen mit Geschäfts- und Finanzdaten. Der 15. November 2018 konzentriert sich auf Automotive- und Maschinendaten mit hochrangigen Anwendern aus der produzierenden Industrie und der Automobilzuliefererindustrie. Seien Sie dabei und nutzen Sie die Chance, sich mit führenden KI-Anwendern auszutauschen.

Interview mit Gerhard Baum von Schaeffler

Interview mit Gerhard Baum, Chief Digital Officer bei der Schaeffler Group

Gerhard Baum ist Chief Digital Officer bei der Schaeffler Group. Der Diplom-Ingenieur für Luft- und Raumfahrtechnik, das er 1982 an der Universität Stuttgart abgeschlossen hatte, ist seit dem Jahr 2015 für die Digitalisierung und für die Nutzung von Daten bei der Schaeffler Gruppe zuständig.

 Gerhard Baum präsentiert am 15. November 2018, dem zweiten Tag der Data Leader Days 2018, über die „Data as key driver for intelligent value creation“.

1. Was sind die wesentlichen Elemente der Digitalisierungsoffensive von Schaeffler?

Wir konzentrieren uns auf die intelligente Digitalisierung der gesamten Wertschöpfungskette für unsere Automobil- und Industriekunden. Zentrale Pfeiler der Strategie sind die Entwicklung intelligenter Automobil- und Industrielösungen, die in „Smart Factories“ hergestellt werden sowie die Entwicklung neuer digitaler Dienstleistungen.

2. Können Sie hierbei bitte exemplarisch auf die Analyse-Möglichkeiten des Sensotect-Lagers, das Messwerte über nanotechnische Beschichtungen erfassen kann, eingehen?

Sensotect ist eine innovative Dünnschichtsensorik, die es erlaubt Daten an Orten zu messen, an denen klassische Sensoren nicht eingesetzt werden können. Möglich ist das durch eine Submikrometer-dünne, dehnungsempfindliche Metallbeschichtung, die durch Mikrobearbeitung strukturiert wird. Durch diese Messstruktur können Kraft- und Drehmoment während des Betriebs kontinuierlich gemessen werden. So können wir beispielsweise an Antriebswellen oder in Fahrzeuggetrieben das Drehmoment und Kräfte sehr schnell und genau bestimmen.

3. Was sind aus Ihrer Sicht die Erfolgsfaktoren bei Datenprojekten?

Am wichtigsten sind natürlich die Menschen hinter den Daten. Wir brauchen die passenden Mitarbeiter und Kompetenzen, damit ein Projekt ein Erfolg wird. Daneben ist ein guter Use-Case essenziell: Nur, wenn wir die richtigen Fragen stellen, erhalten wir auch erfolgreiche Lösungen. Domänenwissen ist dabei unabdingbar. Zusammen mit Domänenexperten sind wir in der Lage, Zusammenhänge neu zu beurteilen, zu optimieren und auch Vorhersagen zu treffen. Daten müssen außerdem über Fachbereichsgrenzen vernetzt und in Beziehung gesetzt werden. Ein wesentlicher Eckpfeiler der Digitalisierung bei Schaeffler ist deshalb die Digitale Plattform. Sie hat das Ziel, Informationen aus der gesamten Wertschöpfungskette zu integrieren und sowohl als Datenspeicher als auch Analyseplattform zu agieren. Damit soll sie helfen, Maschinen dank kognitiver Technologien lernfähig zu machen. In semantischen Informationsmodellen werden diese Daten dann stark automatisiert über Fachbereichsgrenzen vernetzt und in Beziehung gesetzt. So entsteht eine Informations- und Wissensarchitektur, mit der wir unter anderem in der Lage sein werden, Digitale Zwillinge bzw. Prozess-Schatten abzubilden.

4. Worauf können sich die Teilnehmer der Data Leader Days bei Ihrem Vortrag am 15.11.2018 freuen?

Unsere Produkte sind immer dort, wo sich etwas bewegt. Genau hier entstehen Daten, die wir schon heute für unsere Produktion, Prozesse und Business Models nutzen. Ich gebe einen Einblick in die Praxis bei Schaeffler und zeige, welche Anwendungsfälle sich bereits bewährt haben.

 


Sie wollen Herrn Baum live erleben und persönlich kennen lernen? Dann melden Sie sich jetzt mit wenigen Klicks zur Teilnahme an den Data Leader Days 2018 an!

Interview mit Dr. Christina Bender von Villeroy & Boch

Interview mit Dr. Christina Bender über die Digitalisierung und Data Science in einem 270-jährigem Familienunternehmen.

Dr. Christina Bender ist Senior Digital Strategist mit Schwerpunkt auf Data Science bei der Villeroy & Boch AG. Sie ist Diplom-Finanzökonomin und promovierte Mathematikerin. Als „Quant“ bei der UniCredit und Unternehmensberaterin bei der d‑fine GmbH sammelte sie bereits langjährige Erfahrung in der Konzeption und Umsetzung interdisziplinärer Digitalisierungs- und Prozessthemen in diversen Branchen. Als letzte Herausforderung im „echten“ Beraterleben hat sie bei d-fine als Prokuristin den Geschäftsbereich „Digitalisierung im Gesundheitswesen“ mit aufgebaut.

Data Science Blog: Frau Dr. Bender, womit genau befassen Sie sich als Digital Strategist? Und wie passt Data Science in dieses Konzept?

Zunächst war es die Aufgabe eine digitale Roadmap zu entwickeln und zwar abgestimmt auf ein Traditionsunternehmen, das sich in den letzten 270 Jahren ständig durch Innovation verändert hat. Als Beispiel, V&B hatte einen erfolgreichen „Merger“ vollzogen, da gab es das Wort „M&A“ noch gar nicht.

Ein erster Schritt war es dabei Themen zu sammeln und ein Vorgehen zu entwickeln, diese zu verstehen, zu priorisieren und sie dann stets als Ziel im Blick umzusetzen. Die meisten der Themen haben immer mit Daten und damit häufig mit Data Science zu tun. Das geht von Fragestellungen z.B. im Vertrieb, die durch einen Bericht im ERP-System abbildbar sind, bis hin zu komplexen Fragen der Bild­er­kennungstechnologie in der Produktion oder im Customer Relationship Management.

Um weiterhin die wirklich wichtigen Themen zu finden, ist es entscheidend die Chancen und Risiken der Digitalisierung und den Wert der richtigen Daten weit in die Fläche des Unternehmens zu tragen. Dieser Aufbau interner Kompetenzen durch uns als Digital Unit schafft Vertrauen und ist neben dem Vorantreiben konkreter Anwendungsfälle essentieller Bestandteil für eine erfolgreiche Digitalisierung.

Data Science Blog: An was für Anwendungsfällen arbeiten Sie konkret? Und wohin geht die Reise langfristig?

Derzeit arbeiten wir sowohl an kleineren Fragestellungen als auch an ca. vier größeren Projekten. Letztere sollen pain points gemeinsam mit den Fachexperten lösen und dadurch zu Leuchtturm­projekten werden, um eben Vertrauen zu schaffen. Dafür müssen wir ein “Henne-Ei”-Problem lösen. Oft sind die richtigen Daten für die Fragestellung noch nicht erfasst und/oder einige Menschen involviert, die eben erst durch ihnen nahestehende Leuchtturmprojekte überzeugt werden müssten. Daher arbeiten wir für eine erfolgreiche Umsetzung mit im täglichen Geschäft involvierten Fachexperten und erfahrenen Data Scientists mit gewissem Fach-Know-How, die uns einen gewissen Vertrauensvorsprung geben.

Das dauert seine Zeit, insbesondere weil wir stark agil vorgehen, um uns nicht zu verheddern. D.h. oft sieht eine Fragestellung am Anfang leicht aus und ist dann schlicht weg nicht realisierbar. Das muss man dann akzeptieren und eben auf die nächst priorisierte Fragestellung setzen. “Keramik ist halt anders als die Autoindustrie.” Über genaue Use Cases möchte ich daher noch nicht sprechen. Wir sind auf einem guten Weg.

Langfristig wünsche ich mir persönlich, dass Werte aus Daten – insbesondere bessere Ent­schei­dun­gen durch Wissen aus Daten – möglichst selbständig durch Business-Experten geschaffen werden und dies durch ein schlagkräftiges zentrales Team ermöglicht wird. D.h. das Team sorgt für eine entsprechen­de stets aktuell für Data Science geeignete Infrastruktur und steht bei komplexen Fragestellungen zur Verfügung.

Data Science Blog: Welche Algorithmen und Tools verwenden Sie für Ihre Anwendungsfälle?

Wir arbeiten auch mit Methoden im Bereich „Deep Learning“, zum Beispiel für die Bilderkennung. Allerdings gerade um die Erwartungshaltung im Unternehmen nicht zu hoch zu hängen, schauen wir immer wofür sich diese Methodik eignet und wo sie nicht unsere eigentliche Frage beantworten kann (siehe unten) oder schlicht weg nicht genügend Daten verfügbar sind. Insbesondere, wenn wir die eigentlich Ursache eines Problems finden und darauf reagieren wollen, ist es schlecht, wenn sich die Ursache „tief“ im Algorithmus versteckt. Dafür eignet sich z.B. eine logistische Regression, sofern gut parametrisiert und mit gut aufbereiteten Daten befüttert, häufig deutlich besser.

Wir nutzen kostenpflichtige Software und Open Source. Wunsch wäre, möglichst jedem im Unternehmen die richtige Anwendung zur Verfügung zu stellen, damit sie oder er leicht selbst die richtige Exploration erstellen kann, um die richtige Entscheidung zu treffen. Für den Data Scientist mag das ein anderes Tool sein als für den Fachexperten im Geschäftsbereich.

Data Science Blog: Daten werden von vielen Unternehmen, vermutlich gerade von traditionsreichen Familienunternehmen, hinsichtlich ihres Wertes unterschätzt. Wie könnten solche Unternehmen Daten besser bewerten?

Unternehmen müssen sich genau überlegen, was die für sie richtigen Fragen sind. Aus welchen Daten oder deren Verknüpfung kann ich Wissen generieren, dass diese für mich relevante Fragen (überhaupt) beantwortet werden können, um mit vertretbarem Aufwand nachhaltig Mehrwerte zu generieren. Natürlich sind die schlimmsten „pain points“ immer am schwierigsten, sonst hätte sie vermutlich jemand vor mir gelöst. Dies wird stets begleitet, warum mit den schon gesammelten Daten noch kein Mehrwert generiert wurde und somit ggf. begründet warum kein (Zeit-)Budget frei gegeben wird, um weitere (dann hoffentlich die richtigen) Daten zu sammeln.

Als erstes ist es m.E. daher wichtig dem Entscheidungsträger klar zu machen, dass es keine Maschine gibt in die ggf. wahllos gesammelte Daten reingeworfen werden und die „KI“ spuckt dann die richtigen Antworten auf die richtigen nie gestellten Fragen heraus. Denn gäbe es diese Art künstlicher Intelligenz, wäre der Erfinder wohl längst der reichste Mensch der Welt.

Nein, dafür wird menschliche Intelligenz gebraucht und Freiraum für die Mitarbeiterinnen und Mitarbeiter, die richtigen Fragen und Antworten zu suchen und auch auf diesem Weg manchmal kurzfristig zu scheitern. Kurz gesagt, braucht es eine Datenstrategie, um alle, Vorstand und Mitarbeiterinnen und Mitarbeiter, auf diesen Weg mitzunehmen.

Data Science Blog: Wie erstellen Unternehmen eine Datenstrategie?

Unternehmensleiter wollen Ergebnisse sehen und verstehen oft nicht gleich, warum sie Geld in Daten investieren sollen, wenn erst mittel- bis langfristig ein Mehrwert herausspringt. Die alleinige Drohkulisse, wenn nicht jetzt, dann eben in 10 Jahren ohne uns, hilft da oft nur bedingt oder ist gar kontraproduktiv.

Wichtig ist es daher, alle an einen Tisch zu holen und gemeinsam eine Unternehmensvision und Ziele zu diskutieren, zu begreifen und zu vereinbaren, dass Daten dafür ein Faktor sind (oder ggf. vorerst auch nicht). Noch wichtiger ist der Weg dahin, die Datenstrategie, nämlich wie aus Daten langfristig nachhaltige Mehrwerte gehoben werden.

Um eine Datenstrategie zu erstellen, braucht es eine gewisse Mindestausstattung einerseits an dafür zumindest zum Teil freigestellten Experten aus dem Business und anderseits Datenexperten, die mit diesen Experten reden können. Sie müssen nach erfolgreicher Zielbildung einen minimalen Werkzeug­kasten aus KnowHow und Technologie schaffen, der es erst ermöglicht Leuchtturmprojekte erfolgreich umzusetzen. Diese Leuchtturmprojekte dienen als erste erfolgreiche Beispielwege. Damit fällt es auch leichter den Werkzeugkasten als Grundlage zur Lösung größerer pain points weiter auszubauen. In Zeiten, wo halbwegs kommunikative Data Scientists mit Businessverständnis Mangelware sind, ist dies manchmal nur mit externer Unterstützung möglich. Doch Obacht, wichtig ist ein interner Koordinator, der alle Zügel in Händen behält, damit nicht viele richtige Antworten auf irrelevante nicht gestellte Fragen gegeben werden. Denn dann geht anfängliche Akzeptanz leicht verloren.


Dr. Christina Bender präsentiert am 15. November 2018, dem zweiten Tag der Data Leader Days 2018, über die „Tradition und digitale Innovation bei einem Keramikhersteller – warum Deep Learning nicht immer das Allheilmittel ist“.

Grußwort des Bundesministers für Verkehr und digitale Infrastruktur

Wir schaffen eine neue Datenpolitik

Grußwort des Bundesministers für Verkehr und digitale Infrastruktur
für das Programmheft zu den Data Leader Days 2018

Wenn es um Daten geht, heißt es häufig ganz selbstverständlich, sie seien der Rohstoff der Digitalisierung. Doch genau genommen ist das Bild schief. Anders als Erdöl oder Metalle sind Daten nicht von der Natur gemacht, sondern von Computern und letztlich vom Menschen. Wir müssen sie also nicht als gottgegeben hinnehmen. Erdöl ist da – und wir bestimmen, wie es genutzt und verteilt wird. Bei Daten können wir nicht nur bestimmen, wie sie genutzt werden, sondern auch: wie sie entstehen. Damit haben wir den Schlüssel in der Hand, sie eindeutig zu regeln und nach unseren Vorstellungen zu formen.

Klar ist: Daten sind die Grundlage jeder digitalen Innovation. Sie sind die Riesenchance auf mehr Lebensqualität und Wohlstand. Gleichzeitig ist es aber eine große Herausforderung, ihre Verwendung zu regeln.

Die Mobilität ist dafür ein Paradebeispiel. Jeder moderne Serienwagen ist ein rollender Computer, sammelt innerhalb von acht Stunden vier Terabyte an Daten – und weiß damit alles über Routen, Hindernisse, Unfälle, Kurvenkrümmungen und Witterung. Das ist gut, weil es mehr Verkehrssicherheit, weniger Emissionen und damit mehr Lebensqualität bringt. Diese Potenziale wollen wir heben – und dabei die Persönlichkeitsrechte unserer Bürger mit den Interessen der Unternehmen in Einklang bringen. Mein Haus hat dafür einige wichtige Schritte eingeleitet. Wir haben eine Studie zur Eigentumsordnung von Mobilitätsdaten veröffentlicht und damit eine nationale Diskussion zu Verfügungs- und Zugangsrechten zu Mobilitätsdaten angestoßen. Diese Diskussion hat gezeigt, dass die Erarbeitung technischer Konzepte für den Zugang zu Mobilitätsdaten immer mehr an Bedeutung gewinnt. Diese sollen den Datenzugang verbessern und damit Dateninnovation ermöglichen. Gleichzeitig helfen sie aber auch, Transparenz zu schaffen und die Datensouveränität zu wahren. Gemeinsam mit dem Innen- und Justizministerium haben wir eine Datenethikkommission ins Leben gerufen, die der Bundesregierung und dem Parlament innerhalb eines Jahres einen Entwicklungsrahmen für Datenpolitik, den Umgang mit Algorithmen, künstlicher Intelligenz und digitalen Innovationen vorschlagen soll.

Die Data Leader Days 2018 sind auf diesem Weg ein wichtiger Impulsgeber. Ich wünsche den Teilnehmerinnen und Teilnehmern einen spannenden und anregenden Austausch!

Ihr

Andreas Scheuer MdB
Bundesminister für Verkehr und digitale Infrastruktur

Interview mit Marcus Hartmann von ProSiebenSat.1 Media

Interview mit Marcus Hartmann, Chief Data Officer, ProSiebenSat.1 Media SE

1. Wieso ist die Schaffung einer Position als Chief Data Officer für viele Unternehmen unverzichtbar geworden?

Daten nehmen im täglichen Leben ebenso wie in nahezu jedem Unternehmen eine so zentrale Rolle ein, dass sie von entscheidender strategischer und struktureller Relevanz sind. Die bloße Menge an Daten bedarf einer sehr grundsätzlichen Architektur, die weit über die schlichte Datenverarbeitung herausgeht. Unternehmen brauchen individuelle und komplexe Antworten auf diese Fragestellungen, und das über alle Branchen hinweg.

2. Was ist Ihr Aufgabenbereich als Chief Data Officer beiProSiebenSat.1?

ProSiebenSat.1 verfügt über eine stark fragmentierte und heterogene Datenlandschaft. Die Bandbreite reicht von den vielen Millionen Zuschauern, die Tag für Tag „nur“ fernsehen bis hin zu den E-Commerce-Beteiligungen wie Verivox oder Flaconi, die mit den Vorlieben ihrer Kunden sehr gut und detailliert vertraut sind. Gleichzeitig digitalisiert sich die Distribution von TV-Inhalten und Werbeangeboten kontinuierlich und ermöglicht ganz neue Optionen, um den Zuschauer immer besser zu verstehen.

Als Chief Data Officer stehe ich vor der spannenden Herausforderung, diese unterschiedlichen Datenquellen zusammen mit meinem Team zu synchronisieren, konsolidieren und aktivieren.

3. Was sind Ihre wichtigsten Arbeitsthemen in den Bereichen Data Science und Big Data Innovation Lab?

Unser übergreifendes Ziel ist es, den Konsumenten in seinen alltäglichen Situationen zu verstehen und ihm eine personalisierte und maßgeschneiderte User Experience anzubieten. Neuronale Netzwerke und Kontextualisierung ermöglicht es uns, die spezifischen Interessen und Intentionen zu erfassen – ebenso wie das Aufspüren aktueller Trends und Erkenntnisse über zahlreiche Cluster hinweg.

4. Was sind für Sie die Erfolgsfaktoren bei Datenprojekten?

Unsere Datenprojekte ermöglichen Wertbetreibenden beispielsweise einen genaueren und feingranularen Grad der Zielgruppenansprache, wodurch sich ihr Return-on-Invest deutlich steigern lässt. Vergleichbares gilt für E-Commerce-Angebote, die durch höhere Personalisierung ihre Conversion Rate signifikant steigern.

5. Worauf können sich die Teilnehmer der Data Leader Days bei Ihrer Keynote am 14.11.2018 freuen?

In meinem Vortrag gehe ich der Fragestellung nach, inwieweit Data-Science einen konkreten Business Impact generieren kann und welche Faktoren dafür ausschlaggebend sind.