Interview: Dem Wettbewerb voraus mit Künstlicher Intelligenz

Interview mit Benjamin Aunkofer, Chief Data Scientist bei DATANOMIQ Applied Data Science, über die Anwendungen, die KI schon heute übernehmen kann und was bis 2020 auf deutsche Unternehmen zukommt.

Benjamin Aunkofer ist Chief Data Scientist bei DATANOMIQ und befasst sich mit Data Science und Machine Learning im Kontext von Business Analytics. Er ist in der Praxis und in der Lehre tätig. Neben dem täglichen Beratungsgeschäft arbeitet Herr Aunkofer mit seinem Team an einer Artificial Intelligence Enterprise Integration, einer universellen Plattform für KI im Unternehmen.

Möchten Sie Herrn Aunkofer persönlich kennenlernen? Treffen Sie ihn persönlich an einem der beiden Data Leader Days 2018 (www.dataleaderdays.com).

1. Herr Aunkofer, Künstliche Intelligenz scheint das Buzzword für 2018 zu sein. Alles nur Hype?

Big Data war das Buzzword der vergangenen Jahre und war – trotz mittlerweile etablierter Tools wie SAP Hana, Hadoop und weitere – betriebswirtschaftlich zum Scheitern verurteilt. Denn Big Data ist ein passiver Begriff und löst keinesfalls auf einfache Art und Weise alltägliche Probleme in den Unternehmen. Soweit liegen Kritiker richtig.

Dabei wird völlig verkannt, dass Big Data die Vorstufe für den eigentlichen Problemlöser ist, der gemeinhin als Künstliche Intelligenz (KI) bezeichnet wird. KI ist ein Buzzword, dessen langfristiger Erfolg und Aktivismus selbst von skeptischen Experten nicht infrage gestellt wird. Daten-Ingenieure sprechen im Kontext von KI hier aktuell bevorzugt von Deep Learning; wissenschaftlich betrachtet ein Teilgebiet der KI. Da die meisten Leser mit dem Begriff „KI“ wohl eher Hollywood-Bilder im Kopf haben, versuche ich begrifflich bei „Deep Lerning“ zu bleiben. Ich entschuldige mich aber im Voraus dafür, dass ich dann doch wieder selbst von KI sprechen werde, damit dann aber im Kern Deep Learning meine.

2. Was kann Deep Learning denn schon heute im Jahr 2018?

Deep Learning Algorithmen laufen bereits heute in Nischen-Anwendungen produktiv, beispielsweise im Bereich der Chatbots oder bei der Suche nach Informationen als Suchmaschine. Sie übernehmen ferner das Rating für die Kreditwürdigkeit und sperren Finanzkonten, wenn sie erlernte Betrugsmuster erkennen. Im Handel findet Deep Learning bei bestimmten Pionieren die optimalen Einkaufsparameter sowie den besten Verkaufspreis, zumindest für ausgewählte Produktgruppen.

Getrieben wird Deep Learning insbesondere durch prestigeträchtige Vorhaben wie das autonome Fahren, dabei werden die vielfältigen Anwendungen im Geschäftsbereich oft vergessen.

3. Wo liegen die Grenzen von Deep Learning?

Und Big Data ist das Futter für Deep Learning. Daraus resultiert auch die Grenze des Möglichen, denn für strategische Entscheidungen eignet sich KI bestenfalls für das Vorbereitung einer Datengrundlage, aus denen menschliche Entscheider eine Strategie entwickeln. KI wird zumindest in dieser Dekade nur auf operativer Ebene Entscheidungen treffen können, insbesondere in der Disposition, Instandhaltung, Logistik und für den Handel auch im Vertrieb – anfänglich jeweils vor allem als Assistenzsystem für die Menschen.

Sicherlich gibt es immer auch eher frustrierende Erfahrung mit Deep Learning. Es gibt immer noch etliche Bugs in Bilderkennungssoftware und auch Chatbots oder Assistenzsystem wie Alexa, Cortana oder Siri sind nicht ohne Frustpotenzial, da alles noch nicht reibungslos funktioniert. Vor zwei Jahrzehnten waren Touchscreens oder internetfähige mobile Endgeräte nicht frustfrei nutzbar, heute jedoch aus unserem Alltag nicht mehr wegzudenken. Ähnlich wird sich das auch mit künstlicher Intelligenz verhalten.

Genau wie das autonome Fahren mit Assistenzsystemen beginnt, wird auch im Unternehmen immer mehr die KI das Steuer übernehmen.

4. Was wird sich hinsichtlich KI bis 2020 tun? Wie wird sich der Markt wandeln?

Derzeit stehen wir erst am Anfang der Möglichkeiten, die Künstliche Intelligenz uns bietet. Das Markt-Wachstum für KI-Systeme und auch die Anwendungen erfolgt exponentiell. Entsprechend wird sich auch die Arbeitsweise für KI-Entwickler ändern müssen. Mit etablierten Deep Learning Frameworks, die mehrheitlich aus dem Silicon Valley stammen, zeichnet sich der Trend ab, der für die Zukunft noch weiter professionalisiert werden wird: KI-Frameworks werden Enterprise-fähig und Distributionen dieser Plattformen werden es ermöglichen, dass KI-Anwendungen als universelle Kernintelligenz für das operative Geschäft für fast alle Unternehmen binnen weniger Monate implementierbar sein werden.

Wir können bis 2020 also mit einer Alexa oder Cortana für das Unternehmen rechnen, die Unternehmensprozesse optimiert, Risiken berichtet und alle alltäglichen Fragen des Geschäftsführers beantwortet – in menschlich-verbal formulierten Sätzen.

Der Einsatz von Künstlicher Intelligenz zur Auswertung von Geschäfts- oder Maschinendaten ist auch das Leit-Thema der zweitägigen Data Leader Days 2018 in Berlin. Am 14. November 2018 sprechen renommierte Data Leader über Anwendungsfälle, Erfolge und Chancen mit Geschäfts- und Finanzdaten. Der 15. November 2018 konzentriert sich auf Automotive- und Maschinendaten mit hochrangigen Anwendern aus der produzierenden Industrie und der Automobilzuliefererindustrie. Seien Sie dabei und nutzen Sie die Chance, sich mit führenden KI-Anwendern auszutauschen.

Microstrategy ist Sponsor der Data Leader Days in Berlin

Die Data Leader Days (www.dataleaderdays.com) am 14./15.11.2018 im Berliner Spreespeicher sind das führende Entscheider-Event, das sich mit den Möglichkeiten und Lösungen rund um die Digitalisierung, Big Data und Industrie 4.0 beschäftigt. Vor allem die hochkarätigen Referenten – die Spitze der deutschen Digitalwirtschaft – ziehen dabei Teilnehmer aus der ganzen DACH-Region an, um neue Kontakte zu knüpfen und wichtige Impulse für die eigene Weiterentwicklung zu erhalten

MicroStrategy, ein internationaler Anbieter von Software, mit der Unternehmen neue Geschäftsmöglichkeiten erschließen, bessere Entscheidungen treffen und messbare Ergebnisse erzielen können, wird als Sponsor mit dabei sein.

Marian Plum ist Experte für Business Intelligence und nutzt sein Wissen als Senior Sales Engineer bei MicroStrategy und wird am ersten Tag der Data Leader Days zu einem besonders brisanten Thema referieren: „Wo AI auf BI trifft: Alexa, Chatbots & Augmented Reality“.

Zu den Speakern gehören das Who´s Who der Datenwirtschaft, u.a. Gerhard Baum (CDO, Schaeffler), Marcus Hartmann (CDO, Pro7Sat1), Dr. Joachim Schmalzl (Vorstand, Deutscher Sparkassen- und Giroverband), Dr. Christian Schlögel (CDO, KUKA), Jürgen Urbanski (VP, Airbus), Dr. Dirk Haft (Vorstand, Wittenstein), Thomas Gottschalk (Head of BASF 4.0), Dr. Helmut Linde (Global Head of Data Science, Merck), Tom Oelsner (Chief Innovation Officer, Heidelberger Druckmaschinen), Dr. Markus Rotter (Head of Network Analytics, Vodafone), Andreas Eickelkamp (CDO, FTI), Dr. Helmut Linde (Global Head of Data Science & Analytics, Merck), uvm.

 

Zum Event anmelden können sich Teilnehmer direkt auf Data Leader Days oder via Xing.com (Klick).

Interview mit Gerhard Baum von Schaeffler

Interview mit Gerhard Baum, Chief Digital Officer bei der Schaeffler Group

Gerhard Baum ist Chief Digital Officer bei der Schaeffler Group. Der Diplom-Ingenieur für Luft- und Raumfahrtechnik, das er 1982 an der Universität Stuttgart abgeschlossen hatte, ist seit dem Jahr 2015 für die Digitalisierung und für die Nutzung von Daten bei der Schaeffler Gruppe zuständig.

 Gerhard Baum präsentiert am 15. November 2018, dem zweiten Tag der Data Leader Days 2018, über die „Data as key driver for intelligent value creation“.

1. Was sind die wesentlichen Elemente der Digitalisierungsoffensive von Schaeffler?

Wir konzentrieren uns auf die intelligente Digitalisierung der gesamten Wertschöpfungskette für unsere Automobil- und Industriekunden. Zentrale Pfeiler der Strategie sind die Entwicklung intelligenter Automobil- und Industrielösungen, die in „Smart Factories“ hergestellt werden sowie die Entwicklung neuer digitaler Dienstleistungen.

2. Können Sie hierbei bitte exemplarisch auf die Analyse-Möglichkeiten des Sensotect-Lagers, das Messwerte über nanotechnische Beschichtungen erfassen kann, eingehen?

Sensotect ist eine innovative Dünnschichtsensorik, die es erlaubt Daten an Orten zu messen, an denen klassische Sensoren nicht eingesetzt werden können. Möglich ist das durch eine Submikrometer-dünne, dehnungsempfindliche Metallbeschichtung, die durch Mikrobearbeitung strukturiert wird. Durch diese Messstruktur können Kraft- und Drehmoment während des Betriebs kontinuierlich gemessen werden. So können wir beispielsweise an Antriebswellen oder in Fahrzeuggetrieben das Drehmoment und Kräfte sehr schnell und genau bestimmen.

3. Was sind aus Ihrer Sicht die Erfolgsfaktoren bei Datenprojekten?

Am wichtigsten sind natürlich die Menschen hinter den Daten. Wir brauchen die passenden Mitarbeiter und Kompetenzen, damit ein Projekt ein Erfolg wird. Daneben ist ein guter Use-Case essenziell: Nur, wenn wir die richtigen Fragen stellen, erhalten wir auch erfolgreiche Lösungen. Domänenwissen ist dabei unabdingbar. Zusammen mit Domänenexperten sind wir in der Lage, Zusammenhänge neu zu beurteilen, zu optimieren und auch Vorhersagen zu treffen. Daten müssen außerdem über Fachbereichsgrenzen vernetzt und in Beziehung gesetzt werden. Ein wesentlicher Eckpfeiler der Digitalisierung bei Schaeffler ist deshalb die Digitale Plattform. Sie hat das Ziel, Informationen aus der gesamten Wertschöpfungskette zu integrieren und sowohl als Datenspeicher als auch Analyseplattform zu agieren. Damit soll sie helfen, Maschinen dank kognitiver Technologien lernfähig zu machen. In semantischen Informationsmodellen werden diese Daten dann stark automatisiert über Fachbereichsgrenzen vernetzt und in Beziehung gesetzt. So entsteht eine Informations- und Wissensarchitektur, mit der wir unter anderem in der Lage sein werden, Digitale Zwillinge bzw. Prozess-Schatten abzubilden.

4. Worauf können sich die Teilnehmer der Data Leader Days bei Ihrem Vortrag am 15.11.2018 freuen?

Unsere Produkte sind immer dort, wo sich etwas bewegt. Genau hier entstehen Daten, die wir schon heute für unsere Produktion, Prozesse und Business Models nutzen. Ich gebe einen Einblick in die Praxis bei Schaeffler und zeige, welche Anwendungsfälle sich bereits bewährt haben.

 


Sie wollen Herrn Baum live erleben und persönlich kennen lernen? Dann melden Sie sich jetzt mit wenigen Klicks zur Teilnahme an den Data Leader Days 2018 an!

Signavio ist Sponsor der Data Leader Days 2018 in Berlin

Die Data Leader Days (www.dataleaderdays.com) am 14./15.11.2018 im Berliner Spreespeicher sind das führende Entscheider-Event, das sich mit den Möglichkeiten und Lösungen rund um die Digitalisierung, Big Data und Industrie 4.0 beschäftigt. Vor allem die hochkarätigen Referenten – die Spitze der deutschen Digitalwirtschaft – ziehen dabei Teilnehmer aus der ganzen DACH-Region an, um neue Kontakte zu knüpfen und wichtige Impulse für die eigene Weiterentwicklung zu erhalten.

Signavio, ein führender Anbieter von Software für die Modellierung und Optimierung von Prozessen, wird als Sponsor mit dabei sein und zum Thema „Process Intelligence“ referieren.

Unser Sponsor Signavio ist ein Anbieter von Business Process Management Software mit Sitz in Berlin und Silicon Valley. Signavio unterstützt Unternehmen bei der Gestaltung, Überwachung und Opitmierung von Prozessen.

Christos Natsidis, Pre-Sales Consultant & Trainer für BPMN bei Signavio, präsentiert am ersten Tag der Data Leader Days 2018 die Möglichkeiten mit Process Intelligence, eine Datenanalyse zur Rekonstruktion von Ist-Prozessen und zur Analyse in Form des Process Mining.

Verpassen Sie diesen und weitere spannende Vorträge nicht und melden Sie sich jetzt zur Teilnahme an den Data Leader Days 2018 an. Anmelden können Sie sich über wenige Schritte über diesen Link via doo.net oder über diesen Link via Xing.de.

Zu den weiteren Speakern gehören das Who´s Who der Datenwirtschaft, u.a. Gerhard Baum (CDO, Schaeffler), Marcus Hartmann (CDO, Pro7Sat1), Dr. Joachim Schmalzl (Vorstand, Deutscher Sparkassen- und Giroverband), Dr. Christian Schlögel (CDO, KUKA), Jürgen Urbanski (VP, Airbus), Dr. Dirk Haft (Vorstand, Wittenstein), Thomas Gottschalk (Head of BASF 4.0), Dr. Helmut Linde (Global Head of Data Science, Merck), Tom Oelsner (Chief Innovation Officer, Heidelberger Druckmaschinen), Dr. Markus Rotter (Head of Network Analytics, Vodafone), Andreas Eickelkamp (CDO, FTI), Dr. Helmut Linde (Global Head of Data Science & Analytics, Merck), uvm.

Interview mit Dr. Christina Bender von Villeroy & Boch

Interview mit Dr. Christina Bender über die Digitalisierung und Data Science in einem 270-jährigem Familienunternehmen.

Dr. Christina Bender ist Senior Digital Strategist mit Schwerpunkt auf Data Science bei der Villeroy & Boch AG. Sie ist Diplom-Finanzökonomin und promovierte Mathematikerin. Als „Quant“ bei der UniCredit und Unternehmensberaterin bei der d‑fine GmbH sammelte sie bereits langjährige Erfahrung in der Konzeption und Umsetzung interdisziplinärer Digitalisierungs- und Prozessthemen in diversen Branchen. Als letzte Herausforderung im „echten“ Beraterleben hat sie bei d-fine als Prokuristin den Geschäftsbereich „Digitalisierung im Gesundheitswesen“ mit aufgebaut.

Data Science Blog: Frau Dr. Bender, womit genau befassen Sie sich als Digital Strategist? Und wie passt Data Science in dieses Konzept?

Zunächst war es die Aufgabe eine digitale Roadmap zu entwickeln und zwar abgestimmt auf ein Traditionsunternehmen, das sich in den letzten 270 Jahren ständig durch Innovation verändert hat. Als Beispiel, V&B hatte einen erfolgreichen „Merger“ vollzogen, da gab es das Wort „M&A“ noch gar nicht.

Ein erster Schritt war es dabei Themen zu sammeln und ein Vorgehen zu entwickeln, diese zu verstehen, zu priorisieren und sie dann stets als Ziel im Blick umzusetzen. Die meisten der Themen haben immer mit Daten und damit häufig mit Data Science zu tun. Das geht von Fragestellungen z.B. im Vertrieb, die durch einen Bericht im ERP-System abbildbar sind, bis hin zu komplexen Fragen der Bild­er­kennungstechnologie in der Produktion oder im Customer Relationship Management.

Um weiterhin die wirklich wichtigen Themen zu finden, ist es entscheidend die Chancen und Risiken der Digitalisierung und den Wert der richtigen Daten weit in die Fläche des Unternehmens zu tragen. Dieser Aufbau interner Kompetenzen durch uns als Digital Unit schafft Vertrauen und ist neben dem Vorantreiben konkreter Anwendungsfälle essentieller Bestandteil für eine erfolgreiche Digitalisierung.

Data Science Blog: An was für Anwendungsfällen arbeiten Sie konkret? Und wohin geht die Reise langfristig?

Derzeit arbeiten wir sowohl an kleineren Fragestellungen als auch an ca. vier größeren Projekten. Letztere sollen pain points gemeinsam mit den Fachexperten lösen und dadurch zu Leuchtturm­projekten werden, um eben Vertrauen zu schaffen. Dafür müssen wir ein “Henne-Ei”-Problem lösen. Oft sind die richtigen Daten für die Fragestellung noch nicht erfasst und/oder einige Menschen involviert, die eben erst durch ihnen nahestehende Leuchtturmprojekte überzeugt werden müssten. Daher arbeiten wir für eine erfolgreiche Umsetzung mit im täglichen Geschäft involvierten Fachexperten und erfahrenen Data Scientists mit gewissem Fach-Know-How, die uns einen gewissen Vertrauensvorsprung geben.

Das dauert seine Zeit, insbesondere weil wir stark agil vorgehen, um uns nicht zu verheddern. D.h. oft sieht eine Fragestellung am Anfang leicht aus und ist dann schlicht weg nicht realisierbar. Das muss man dann akzeptieren und eben auf die nächst priorisierte Fragestellung setzen. “Keramik ist halt anders als die Autoindustrie.” Über genaue Use Cases möchte ich daher noch nicht sprechen. Wir sind auf einem guten Weg.

Langfristig wünsche ich mir persönlich, dass Werte aus Daten – insbesondere bessere Ent­schei­dun­gen durch Wissen aus Daten – möglichst selbständig durch Business-Experten geschaffen werden und dies durch ein schlagkräftiges zentrales Team ermöglicht wird. D.h. das Team sorgt für eine entsprechen­de stets aktuell für Data Science geeignete Infrastruktur und steht bei komplexen Fragestellungen zur Verfügung.

Data Science Blog: Welche Algorithmen und Tools verwenden Sie für Ihre Anwendungsfälle?

Wir arbeiten auch mit Methoden im Bereich „Deep Learning“, zum Beispiel für die Bilderkennung. Allerdings gerade um die Erwartungshaltung im Unternehmen nicht zu hoch zu hängen, schauen wir immer wofür sich diese Methodik eignet und wo sie nicht unsere eigentliche Frage beantworten kann (siehe unten) oder schlicht weg nicht genügend Daten verfügbar sind. Insbesondere, wenn wir die eigentlich Ursache eines Problems finden und darauf reagieren wollen, ist es schlecht, wenn sich die Ursache „tief“ im Algorithmus versteckt. Dafür eignet sich z.B. eine logistische Regression, sofern gut parametrisiert und mit gut aufbereiteten Daten befüttert, häufig deutlich besser.

Wir nutzen kostenpflichtige Software und Open Source. Wunsch wäre, möglichst jedem im Unternehmen die richtige Anwendung zur Verfügung zu stellen, damit sie oder er leicht selbst die richtige Exploration erstellen kann, um die richtige Entscheidung zu treffen. Für den Data Scientist mag das ein anderes Tool sein als für den Fachexperten im Geschäftsbereich.

Data Science Blog: Daten werden von vielen Unternehmen, vermutlich gerade von traditionsreichen Familienunternehmen, hinsichtlich ihres Wertes unterschätzt. Wie könnten solche Unternehmen Daten besser bewerten?

Unternehmen müssen sich genau überlegen, was die für sie richtigen Fragen sind. Aus welchen Daten oder deren Verknüpfung kann ich Wissen generieren, dass diese für mich relevante Fragen (überhaupt) beantwortet werden können, um mit vertretbarem Aufwand nachhaltig Mehrwerte zu generieren. Natürlich sind die schlimmsten „pain points“ immer am schwierigsten, sonst hätte sie vermutlich jemand vor mir gelöst. Dies wird stets begleitet, warum mit den schon gesammelten Daten noch kein Mehrwert generiert wurde und somit ggf. begründet warum kein (Zeit-)Budget frei gegeben wird, um weitere (dann hoffentlich die richtigen) Daten zu sammeln.

Als erstes ist es m.E. daher wichtig dem Entscheidungsträger klar zu machen, dass es keine Maschine gibt in die ggf. wahllos gesammelte Daten reingeworfen werden und die „KI“ spuckt dann die richtigen Antworten auf die richtigen nie gestellten Fragen heraus. Denn gäbe es diese Art künstlicher Intelligenz, wäre der Erfinder wohl längst der reichste Mensch der Welt.

Nein, dafür wird menschliche Intelligenz gebraucht und Freiraum für die Mitarbeiterinnen und Mitarbeiter, die richtigen Fragen und Antworten zu suchen und auch auf diesem Weg manchmal kurzfristig zu scheitern. Kurz gesagt, braucht es eine Datenstrategie, um alle, Vorstand und Mitarbeiterinnen und Mitarbeiter, auf diesen Weg mitzunehmen.

Data Science Blog: Wie erstellen Unternehmen eine Datenstrategie?

Unternehmensleiter wollen Ergebnisse sehen und verstehen oft nicht gleich, warum sie Geld in Daten investieren sollen, wenn erst mittel- bis langfristig ein Mehrwert herausspringt. Die alleinige Drohkulisse, wenn nicht jetzt, dann eben in 10 Jahren ohne uns, hilft da oft nur bedingt oder ist gar kontraproduktiv.

Wichtig ist es daher, alle an einen Tisch zu holen und gemeinsam eine Unternehmensvision und Ziele zu diskutieren, zu begreifen und zu vereinbaren, dass Daten dafür ein Faktor sind (oder ggf. vorerst auch nicht). Noch wichtiger ist der Weg dahin, die Datenstrategie, nämlich wie aus Daten langfristig nachhaltige Mehrwerte gehoben werden.

Um eine Datenstrategie zu erstellen, braucht es eine gewisse Mindestausstattung einerseits an dafür zumindest zum Teil freigestellten Experten aus dem Business und anderseits Datenexperten, die mit diesen Experten reden können. Sie müssen nach erfolgreicher Zielbildung einen minimalen Werkzeug­kasten aus KnowHow und Technologie schaffen, der es erst ermöglicht Leuchtturmprojekte erfolgreich umzusetzen. Diese Leuchtturmprojekte dienen als erste erfolgreiche Beispielwege. Damit fällt es auch leichter den Werkzeugkasten als Grundlage zur Lösung größerer pain points weiter auszubauen. In Zeiten, wo halbwegs kommunikative Data Scientists mit Businessverständnis Mangelware sind, ist dies manchmal nur mit externer Unterstützung möglich. Doch Obacht, wichtig ist ein interner Koordinator, der alle Zügel in Händen behält, damit nicht viele richtige Antworten auf irrelevante nicht gestellte Fragen gegeben werden. Denn dann geht anfängliche Akzeptanz leicht verloren.


Dr. Christina Bender präsentiert am 15. November 2018, dem zweiten Tag der Data Leader Days 2018, über die „Tradition und digitale Innovation bei einem Keramikhersteller – warum Deep Learning nicht immer das Allheilmittel ist“.

Grußwort des Bundesministers für Verkehr und digitale Infrastruktur

Wir schaffen eine neue Datenpolitik

Grußwort des Bundesministers für Verkehr und digitale Infrastruktur
für das Programmheft zu den Data Leader Days 2018

Wenn es um Daten geht, heißt es häufig ganz selbstverständlich, sie seien der Rohstoff der Digitalisierung. Doch genau genommen ist das Bild schief. Anders als Erdöl oder Metalle sind Daten nicht von der Natur gemacht, sondern von Computern und letztlich vom Menschen. Wir müssen sie also nicht als gottgegeben hinnehmen. Erdöl ist da – und wir bestimmen, wie es genutzt und verteilt wird. Bei Daten können wir nicht nur bestimmen, wie sie genutzt werden, sondern auch: wie sie entstehen. Damit haben wir den Schlüssel in der Hand, sie eindeutig zu regeln und nach unseren Vorstellungen zu formen.

Klar ist: Daten sind die Grundlage jeder digitalen Innovation. Sie sind die Riesenchance auf mehr Lebensqualität und Wohlstand. Gleichzeitig ist es aber eine große Herausforderung, ihre Verwendung zu regeln.

Die Mobilität ist dafür ein Paradebeispiel. Jeder moderne Serienwagen ist ein rollender Computer, sammelt innerhalb von acht Stunden vier Terabyte an Daten – und weiß damit alles über Routen, Hindernisse, Unfälle, Kurvenkrümmungen und Witterung. Das ist gut, weil es mehr Verkehrssicherheit, weniger Emissionen und damit mehr Lebensqualität bringt. Diese Potenziale wollen wir heben – und dabei die Persönlichkeitsrechte unserer Bürger mit den Interessen der Unternehmen in Einklang bringen. Mein Haus hat dafür einige wichtige Schritte eingeleitet. Wir haben eine Studie zur Eigentumsordnung von Mobilitätsdaten veröffentlicht und damit eine nationale Diskussion zu Verfügungs- und Zugangsrechten zu Mobilitätsdaten angestoßen. Diese Diskussion hat gezeigt, dass die Erarbeitung technischer Konzepte für den Zugang zu Mobilitätsdaten immer mehr an Bedeutung gewinnt. Diese sollen den Datenzugang verbessern und damit Dateninnovation ermöglichen. Gleichzeitig helfen sie aber auch, Transparenz zu schaffen und die Datensouveränität zu wahren. Gemeinsam mit dem Innen- und Justizministerium haben wir eine Datenethikkommission ins Leben gerufen, die der Bundesregierung und dem Parlament innerhalb eines Jahres einen Entwicklungsrahmen für Datenpolitik, den Umgang mit Algorithmen, künstlicher Intelligenz und digitalen Innovationen vorschlagen soll.

Die Data Leader Days 2018 sind auf diesem Weg ein wichtiger Impulsgeber. Ich wünsche den Teilnehmerinnen und Teilnehmern einen spannenden und anregenden Austausch!

Ihr

Andreas Scheuer MdB
Bundesminister für Verkehr und digitale Infrastruktur

Neo4J ist Sponsor der Data Leader Days 2018 in Berlin

Wir begrüßen neo4j als Sponsor für die Data Leader Days 2018

Die Data Leader Days am 14./15.11.2018 im Berliner Spreespeicher sind das führende Entscheider-Event, das sich mit den Möglichkeiten und Lösungen rund um die Digitalisierung, Big Data und Industrie 4.0 beschäftigt. Vor allem die hochkarätigen Referenten – die Spitze der deutschen Digitalwirtschaft – ziehen dabei Teilnehmer aus der ganzen DACH-Region an, um neue Kontakte zu knüpfen und wichtige Impulse für die eigene Weiterentwicklung zu erhalten.

Unser Sponsor Neo4J unterstützt mit seiner Graph-Plattform Unternehmen dabei, vernetzte Daten in vollem Umfang zu nutzen und die komplexen Verknüpfungen zwischen Personen, Prozessen und Systemen zu entschlüsseln. Gemeinsam mit der Daimler AG, den beiden Mitarbeitern Frau Julia Bengel und Herrn Jochen Linkohr, wird Neo4J in einem Praxisvortrag über das Committee Cockpit referieren.

 

Julia Bengel Jochen Linkohr

Zu den weiteren Speakern gehören das Who´s Who der Datenwirtschaft, u.a. Gerhard Baum (CDO, Schaeffler), Marcus Hartmann (CDO, Pro7Sat1), Dr. Joachim Schmalzl (Vorstand, Deutscher Sparkassen- und Giroverband), Dr. Christian Schlögel (CDO, KUKA), Jürgen Urbanski (VP, Airbus), Dr. Dirk Haft (Vorstand, Wittenstein), Thomas Gottschalk (Head of BASF 4.0), Dr. Helmut Linde (Global Head of Data Science, Merck), Tom Oelsner (Chief Innovation Officer, Heidelberger Druckmaschinen), Dr. Markus Rotter (Head of Network Analytics, Vodafone), Andreas Eickelkamp (CDO, FTI), Dr. Helmut Linde (Global Head of Data Science & Analytics, Merck), uvm.

Interview mit Marcus Hartmann von ProSiebenSat.1 Media

Interview mit Marcus Hartmann, Chief Data Officer, ProSiebenSat.1 Media SE

1. Wieso ist die Schaffung einer Position als Chief Data Officer für viele Unternehmen unverzichtbar geworden?

Daten nehmen im täglichen Leben ebenso wie in nahezu jedem Unternehmen eine so zentrale Rolle ein, dass sie von entscheidender strategischer und struktureller Relevanz sind. Die bloße Menge an Daten bedarf einer sehr grundsätzlichen Architektur, die weit über die schlichte Datenverarbeitung herausgeht. Unternehmen brauchen individuelle und komplexe Antworten auf diese Fragestellungen, und das über alle Branchen hinweg.

2. Was ist Ihr Aufgabenbereich als Chief Data Officer beiProSiebenSat.1?

ProSiebenSat.1 verfügt über eine stark fragmentierte und heterogene Datenlandschaft. Die Bandbreite reicht von den vielen Millionen Zuschauern, die Tag für Tag „nur“ fernsehen bis hin zu den E-Commerce-Beteiligungen wie Verivox oder Flaconi, die mit den Vorlieben ihrer Kunden sehr gut und detailliert vertraut sind. Gleichzeitig digitalisiert sich die Distribution von TV-Inhalten und Werbeangeboten kontinuierlich und ermöglicht ganz neue Optionen, um den Zuschauer immer besser zu verstehen.

Als Chief Data Officer stehe ich vor der spannenden Herausforderung, diese unterschiedlichen Datenquellen zusammen mit meinem Team zu synchronisieren, konsolidieren und aktivieren.

3. Was sind Ihre wichtigsten Arbeitsthemen in den Bereichen Data Science und Big Data Innovation Lab?

Unser übergreifendes Ziel ist es, den Konsumenten in seinen alltäglichen Situationen zu verstehen und ihm eine personalisierte und maßgeschneiderte User Experience anzubieten. Neuronale Netzwerke und Kontextualisierung ermöglicht es uns, die spezifischen Interessen und Intentionen zu erfassen – ebenso wie das Aufspüren aktueller Trends und Erkenntnisse über zahlreiche Cluster hinweg.

4. Was sind für Sie die Erfolgsfaktoren bei Datenprojekten?

Unsere Datenprojekte ermöglichen Wertbetreibenden beispielsweise einen genaueren und feingranularen Grad der Zielgruppenansprache, wodurch sich ihr Return-on-Invest deutlich steigern lässt. Vergleichbares gilt für E-Commerce-Angebote, die durch höhere Personalisierung ihre Conversion Rate signifikant steigern.

5. Worauf können sich die Teilnehmer der Data Leader Days bei Ihrer Keynote am 14.11.2018 freuen?

In meinem Vortrag gehe ich der Fragestellung nach, inwieweit Data-Science einen konkreten Business Impact generieren kann und welche Faktoren dafür ausschlaggebend sind.

DATANOMIQ organisiert die Data Leader Days 2018

Besuchen Sie das Entscheider-Event in Berlin am 14./15. November 2018

Berlin, 04. Mai 2018: Die Data Leader Days bringen die Spitzenmanager der Datenwirtschaft mit Führungskräften sowie allen Interessenten zu Digitalisierung, Big Data und Künstlicher Intelligenz zusammen. Bekannte Speaker von namhaften Unternehmen geben exklusive Einblicke in die Welt der datengetriebenen Anwendungsfälle und Möglichkeiten. Aufgrund der enorm wachsenden Teilnehmerzahlen wird die mittlerweile zum dritten Mal stattfindende Konferenz in diesem Jahr auf zwei Tage mit unterschiedlichen Schwerpunkten erweitert:

  • 14. November 2018: Commercial & Finance Data
  • 15. November 2018: Industrial & Automotive Data

Mit dabei sind u.a. Gerhard Baum (CDO, Schaeffler), Andreas Eickelkamp (CDO, FTI), Jürgen Urbanski (VP, Airbus), Dr. Dirk Haft (Vorstand, Wittenstein), Marcus Hartmann (CDO, Pro7Sat1), Thomas Gottschalk (Head of BASF 4.0 Smart Innovation & Technologies), Dr. Christian Schlögel (CDO, KUKA), Dr. Helmut Linde (Global Head of Data Science, Merck), Tom Oelsner (Chief Innovation Officer, Heidelberger Druckmaschinen), Dr. Markus Rotter (Head of Network Analytics, Vodafone), Dr. Joachim Schmalzl (Vorstand, Deutscher Sparkassen- und Giroverband), uvm.

Lernen Sie von den Data Leadern, lassen Sie sich von realen Use Cases und Erfahrungen inspirieren, bauen Sie Kontakte zu hochrangigen Entscheidern auf, initiieren Sie Partnerschaften und orientieren Sie sich im dynamischen Markt für neue Daten-Technologien.

DATANOMIQ (www.datanomiq.de) ist Veranstalter der Data Leader Days und stellt mit Chief Data Scientist Benjamin Aunkofer einen ausgewiesenen Spezialisten mit einem spannenden Vortrag.

Interesse an den Data Leader Days 2017 teilzunehmen? Weitere Informationen zum Programm und Anmeldung unter www.dataleaderdays.com.

Über DATANOMIQ

DATANOMIQ ist der herstellerunabhängige Beratungs- und Service-Partner für Business Analytics, Data Science und Data Labs. Wir erschließen die vielfältigen Möglichkeiten durch Big Data und künstliche Intelligenz erstmalig in allen Bereichen der Wertschöpfungskette. DATANOMIQ verfügt über Praxiserfahrungen aus einer Vielzahl von Projekten im Kontext von BI, Big Data oder Data Science. Der Zugang zur Spitze der deutschen Digitalwirtschaft und Domänenwissen in ergänzenden Themen wie Datensicherheit und Datenschutz verschaffen dem Team eine einzigartige Marktposition.

Kontakt

DATANOMIQ GmbH
Next Level Office
Franklinstraße 11
10587 Berlin

Snowflake ist Sponsor der Data Leader Days 2018

Wir begrüßen snowflake als Sponsor für die Data Leader Days

Snowflake ist das einzige, ausschließlich für die Cloud konzipierte, Data-Warehouse. Dank der erstklassigen Leistung, Benutzerfreundlichkeit und Parallelität von Snowflake, können Unternehmen Ihre gesamten Daten zentralisiert speichern und analysieren. Snowflakes Technologie vereint die Leistung von Data-Warehouses,  die Flexibilität von Big Data Plattformen, die Elastizität der Cloud, und die Möglichkeit in Echtzeit Daten zu teilen für einen Bruchteil der Kosten traditioneller Lösungen. Snowflake: Ihre Daten kennen keine Grenzen. Mehr hier: snowflake.net

Die Data Leader Days sind das Entscheider-Event für die Datenwirtschaft. Die Fachkonferenz hat sich seit Gründung im Jahr 2016 als eines der exklusivsten Events rund um die Themen Big Data und künstliche Intelligenz etabliert. In diesem Jahr werden die Data Leader Days erstmalig auf zwei Tage mit unterschiedlichen Schwerpunkten erweitert:

  • 14. November 2018: Commercial & Finance Data
  • 15. November 2018: Industrial & Automotive Data

Zu den bisherigen Teilnehmern in 2016 und 2017 gehörten Vorstände, CIOs und CDOs sowie viele Head of BI/Data Analytics/Big Data, nicht zuletzt auch die Leiter der Fachabteilungen Marketing, Vertrieb, Produktion, Logistik und Einkauf. Die Veranstaltung richtet sich an Entscheider, Fachexperten und Professionals, die sich untereinander vernetzen und fachlich austauschen möchten.