Video-Rückblick zu den Data Leader Days 2018

Wir bedanken und herzlichst für die erfolgreichen Konferenztage. Einen besonderen Dank an den Moderator, die Speaker, Sponsoren und an unsere zahlreichen Teilnehmern.

Interview mit Dr. Dirk Haft von Wittenstein SE

Interview mit Dr. Dirk Haft, Vorstand bei WITTENSTEIN SE

Dr. Dirk Haft ist seit dem 1. April 2016 einer von vier Vorstandsmitgliedern bei der WITTENSTEIN AG. Zusammen mit Dr. Khaled Karraï hat er das Unternehmen attocube systems AG gegründet – Technologieführer für anspruchsvollste Antriebs- und Messtechnik im Nanometerbereich. Er wird neben seiner neuen Aufgabe im Vorstand der WITTENSTEN AG die attocube systems AG als Aufsichtsratsvor-sitzender weiterhin prägen und begleiten. 

1.Können Sie uns einen groben Einblick in Ihre Innovationsfabrik geben?

Die Innovationsfabrik an unserem Hauptstandort ist die Klammer eines traditionellen Maschinenbauers, der ursprünglich von der Getriebetechnologie kommt, um in die moderne Mechatronik und Cybertronik vorzustoßen.

Dahinter verbirgt sich ein hochmodernes Gebäude – in dessen hinteren Teil die Produktion angesiedelt und im vorderen Teil die Projektleiter sowie der Vertrieb und andere Fachbereiche angesiedelt sind. Für die innovativen/mechatronischen Bereiche haben wir ein Innovationlab, ein Digitalisierungscenter sowie einen Querdenkerraum – also Räumlichkeiten zum Denken und modernste Arbeitsstrukturen, die sich sehr gut für Projekte eignen, die Innovation und Digitalisierung beinhalten. Aktuell laufen dort rund hundert Projekte – teils Kundenprojekte, interne Innovationsprojekte und Digitalisierungsprojekte.

2. Was sind für Sie die wichtigsten Erfolgsfaktoren bei Digitalprojekten?

Gute Leute und nah am Markt sein. Ich sehe dies ähnlich, als ein neues Produkt für einen Kunden zu entwickeln.

3. Worauf können sich die Teilnehmer der Data Leader Days bei Ihrer Keynote zum Thema WITTENSTEINs smarte Roadmap – Digitale Produkte & Data Driven Services am 15.11.2018 freuen?

Industrie 4.0 ist das Zielbild, bei dem sich das Werkstück durch die Werkhalle seinen Weg sucht und alles digital vernetzt ist. Da tun wir uns gegenwärtig noch ein wenig schwer, was schade ist, denn würden wir alles durchdigitalisiert haben, hätten wir am Ende rund 30% mehr eine deutlich höhere Produktivität. Wir fokussieren uns derzeit darauf, unsere Produkte für den Kunden digital zu machen. So wird beispielhaft das Getriebe mit einem Sensor versehen, so dass wir Temperatur, Schwingungen bzw. Resonanzen, Ölstand und Metallpartikel im Öl messen können und dann Themen wie Condition Monitoring bei unseren Komponenten als funktionale Bestandteile mitgeben können. Der Maschinenbauer, der es einbaut, kann diese Daten verwenden und am Ende der Betreiber daraus Nutzen ziehen. Es geht also darum, Motoren, Getriebe und alle Komponenten, die wir bauen, zunächst intelligent zu machen, um diese Intelligenz an die Maschinen und Umgebung weitergeben zu können. Hier sind wir mit hoher Geschwindigkeit unterwegs. Dies beinhaltet auch, die Mitarbeiter über unser Digitalisierungscenter hinaus mitzunehmen und aufzuklären, dass sie später diese Daten nutzen können. Darauf und auf weitere Themen unserer smarten Roadmap dürfen sich die Teilnehmer freuen.

Dr. Dirk Haft präsentierte am 15. November 2018, dem zweiten Tag der Data Leader Days 2018, über „Keynote: WITTENSTEINs smarte Roadmap – Digitale Produkte & Data Driven Services“.

Interview: Wirtschaftlichkeitsbetrachtung von Data Science Anwendungen im eCommerce und Handel

Interview mit Herrn Nicolas March von der REWE Group/REWE Digital GmbH über die Wirtschaftlichkeitsbetrachtung von Data Science Anwendungen im eCommerce und Handel. 

Herr Dr. Nicolas March ist Head of Analytics bei der REWE Digital – einem Unternehmen der REWE Group. Der promovierte Betriebswirt beschäftigt sich seit über 15 Jahren mit Business Intelligence und Advanced Analytics in unterschiedlichen Branchen, wie Handel, Telekommunikation und verarbeitender Industrie. Vor seiner Zeit bei REWE digital war er IT Consultant in der Digital Division der Accenture GmbH.

Herr March, in welchem Verhältnis stehen Big Data, Data Science, Machine Learning und Künstliche Intelligenz Ihrer Erfahrung und Ansicht nach untereinander?

Zunächst sind das keine überschneidungsfreien Begriffe oder Bereiche. So sind sehr häufig Data Science Anwendungen der analytische Kern in einem Big Data Produkt, beispielsweise ein Empfehlungsalgorithmus in einem Webshop. Die Big Data Technologien ermöglichen einerseits das Handling der extremen Datenmengen aus Web- und Kassensystemen, andererseits geben sie den technologischen Rahmen für die Integration der Auswertungsmethoden vor. Das kann eine einfache Heuristik sein oder z. B. eine Methode des maschinellen Lernens, mit deren Hilfe man Erkenntnisse aus den Daten extrahiert. Ist der Grad des selbständigen Erkenntnisgewinns und der automatisierten Verwendung durch die technische Methode sehr hoch, kann man aus meiner Sicht von einem Verfahren der „künstlichen Intelligenz“ sprechen. Da dies häufig durch Verwendung von Deep Learning Algorithmen bzw. mit neuronalen Netzen umgesetzt wird, werden diese Methoden auch häufig mit KI gleichgestellt.

Wer ist in Ihrer Branche denn der Hauptantreiber der Datennutzung? Geht dieser Drang eher von der Geschäftsführung aus oder von den Fachabteilungen?

Im LEH hat man erkannt, dass der Kunde ein möglichst auf seine Bedürfnisse abgestimmtes Einkaufserlebnis verlangt. Das geht mit einer zunehmenden Digitalisierung des Einkaufsprozesses im stationären Handel als auch mit der Bereitstellung von Online-Liefer- und Abholservices einher, bei denen der Kunde über Website und Mobile-App die Ware bestellen kann. Das dann – im Rahmen der gesetzlichen Vorgaben – die anfallenden Daten z. B. für die Personalisierung im Marketing oder eine effiziente Produktentwicklung nutzbar gemacht werden kann, versteht sich von selbst. Daneben ist den Entscheidern aber auch bewusst, dass man durch die Digitalisierung insbesondere auf Basis von Data Science Anwendungen bestehende Prozesse optimieren kann und muss, um wettbewerbsfähig zu bleiben.

Bei der Gründung von REWE digital hat man diese Ziele von Anfang an ausgelobt, so dass datengestütztes Arbeiten und Entscheiden ein grundsätzliches Leitprinzip darstellt. Dieser Fokus ist also in der DNA des Unternehmens verankert und wird sowohl von den Mitarbeitern der Fachabteilungen als auch der Geschäftsführung gelebt und eingefordert. Aber natürlich ist die Intensität dieser Leitlinie in den Fachabteilungen durchaus unterschiedlich ausgeprägt.

Wie gewährleisten Sie eine angemessene ROI-Einschätzung (Return-on-Investment)? Und wie stellen Sie sicher, dass die Produktentwicklung diesen ROI-Gedanken beibehält?

Bei REWE digital ist die Analytics Abteilung in den Produktentwicklungs- und Portfolio-Prozess eingebunden – und zwar von Beginn an. Das gilt nicht nur für viele Big Data Produkte mit einem analytischen Kern, bei denen wir ohnehin an Bord sind, sondern für beinahe alle Initiativen. In einer agilen Produktentwicklung soll möglichst jeder die Möglichkeit haben, Ideen und Initiativen einzubringen, die das Business vorantreiben. Der Vielzahl an aufkommenden Ideen stehen jedoch häufig begrenzte Ressourcen gegenüber. Um diese bewerten und ressourcenschonend umzusetzen, liefern unsere Analytiker zu jeder Initiative bzw. Idee das unterstützende Zahlenwerk. Beispielsweise erstellen wir Vorabanalysen zur Bestimmung, ob die Grundannahmen einer Initiative richtig sind und sich ggf. bereits in den vorhandenen Daten auch wiederfinden. Zudem helfen wir den Product Ownern auch während der Initiative, in dem wir einfache Anpassungen oder den MVP durch A/B- und Hypothesentests frühzeitig auf Werthaltigkeit überprüfen. Auch nach dem Go-Live wird mit unserer Hilfe geprüft, ob die gesetzten Ziele erreicht wurden. Mit diesen Analysen und A/B-Tests vor, während und nach der Entwicklung helfen wir dem CPO (Chief Product Owner), ein fundiertes Portfolio zusammenzustellen, Erkenntnisse für zukünftige Initiativen zu gewinnen und den ROI seiner Maßnahmen zu sichern. Dafür ist die Produktentwicklung dankbar und nimmt unseren Support gerne in Anspruch.

Welche Anwendungsfälle sehen Sie zurzeit als die wichtigsten im Kontext der Datennutzung? Und welche Themen hätten durchaus noch ein paar Jahre Zeit?

Natürlich sind weiterhin viele Analytics Themen auf die Kundenanalyse ausgerichtet und dienen insbesondere dem Marketing und der Produktentwicklung z. B. im Rahmen der Personalisierung. Den traditionellen Unternehmen ist aber bewusst geworden, dass Analytics eine Querschnittsfunktion ist, die in vielen Bereichen große Potentiale freisetzen kann. Das Thema „Supply Chain Analytics“ verspricht ein riesiges Potential, da mit Big Data und Data Science noch viele kostenintensive Prozesse optimiert werden können. Im Handel sind das beispielsweise Anwendungsfälle, wie die optimale Kapazitäts- und Warenbestellprognose mit Big Data Technologien zur Vermeidung von Abschriften und Stock-out. Aber auch kleinere Prozesse, wie die Standzeitenschätzung von Lieferfahrern helfen, den Personaleinsatz zu optimieren.

Ein weiteres Gebiet, das aus meiner Sicht in allen mir bekannten Unternehmen ein noch großes Entwicklungspotential verspricht, ist „People Analytics“ –  gerade weil die Investition in den Faktor „menschliche Arbeitskraft“ häufig einer der größten Kostenpositionen darstellt. Daher rückt auch in den HR Abteilungen das datengetriebene, analytische Arbeiten mehr und mehr in den Fokus. Anwendungsfälle, wie die Erfolgsanalyse von Recruiting-Kampagnen oder die Prognose von Mitarbeiter-Churn kann für Arbeitgeber ein Wettbewerbsvorteil im hart umkämpften Arbeitsmarkt sein. Zu bedenken ist dabei immer, dass dieses Thema in den HR-Abteilungen aufgrund der personenbezogenen Daten zu Recht mit großer Sensibilität und Vorsicht angefasst wird. People Analytics bedeutet für mich aber nicht die Überwachung des einzelnen Arbeitnehmers, sondern vielmehr die Möglichkeit, seine Arbeitsumgebung durch Analyse anonymisierter Daten optimal auf ihn anzupassen und dadurch seine Zufriedenheit in beiderseitigem Interesse zu erhöhen.

Wenn ich darüber nachdenke, welche Themen im Online-Lebensmittelhandel noch Zeit haben, dann sind das wahrscheinlich Künstliche Intelligenz in der Robotics oder der Warendistribution. Es ist sicherlich hoch spannend, wenn in der Zukunft Pick&Place Roboter auch die Tüten packen und Lieferfahrzeuge beladen könnten.  In unserer Branche denken bestimmt auch viele über die autonome Auslieferung nach. Allerdings ist die Komplexität dieser Anwendungsfälle sehr hoch und es wird bis zu deren wirtschaftlichem Einsatz ohne die Einbindung menschlicher Arbeitskraft sicher noch dauern.

Wie setzt sich Ihr Team zusammen? Unterscheiden Sie strikt zwischen Data Engineer und Data Scientist?

Unsere Data Scientists arbeiten eng mit Data Engineers zusammen. Ich habe noch selbst viele Datenquellen erschlossen und deren Transformation vorgenommen, bevor mit der Erstellung komplexer Modelle begonnen wurde. Da die Infrastrukturlandschaft aber vielseitiger und komplexer geworden ist und sich nicht mehr nur auf eine Hand voll relationaler Datenbanksysteme oder weniger Message Services beschränkt, sind erfahrene Data Engineers für deren Nutzbarmachung unerlässlich. Data Engineers müssen wissen, wie sie unterschiedliche Quellsysteme in die Analyseumgebungen integrieren und auch häufig die Fachlichkeit in den Daten verstehen. Es kann vorkommen, dass dabei auch mit Rechenmethoden und Frameworks bereits Daten voraggregiert werden oder in KPIs überführt werden. Die Modellierung zur Entwicklung eines Produkts oder eines analytischen Prozesses ist bei uns aber weiterhin eher der Job des Data Scientists.

Wie schaffen Sie die Integration von Analysten und Data Scientists sowie Software Entwicklern für die Produktentwicklung?

Unser Team an Data Scientists wird grob in zwei Bereichen eingesetzt. Zum einen entwickeln sie prototypische Modelle zur Verbesserung von Prozessen in den Fachabteilungen. Geht es zum anderen von Beginn an um die Erstellung eines Softwareprodukts mit einem analytischen Kern – wie eine Empfehlungsmodul im Webshop -, ist der Data Scientist ein Teil des agilen Entwicklungsteams und bringt die analytische Kompetenz mit ein. Unsere Data Scientists arbeiten dann im Tagesgeschäft als vollwertiges Mitglied im SCRUM-Modus in einem der Big Data oder Plattform-Teams mit. Diese Integration hat für beide Seiten große Vorteile. Die Developer haben stets einen Analytiker im Team der die Datenlage, Anforderungen und Prozesse des Business sehr genau kennt und dieses Wissen mit in das Team einbringt. Andererseits versteht der Data Scientist den Softwareentwicklungsprozess und bekommt mit, wie beispielsweise technische Limits ein konzeptionelles Modell ggf. nicht unterstützen. Durch Rotation und Wechsel zwischen diesen Einsatzszenarien wollen wir sicherstellen, dass die Data Scientists sehr vielseitig einsetzbar sind und gleichzeitig ihre Methodenkompetenz stets ausbauen können.

Interview: Data Warehousing in der Cloud

Interview mit Thomas Scholz von Snowflake über Data Warehousing in der Cloud

Thomas Scholz ist Sales Engineer bei Snowflake und Experte für analytische Datenbank. Der studierte Informatiker befasst sich bereits seit dem Beginn seiner Karriere vor mehr als 10 Jahren mit den Herausforderungen und Potentialen des Datenwachstums. Heute berät Herr Scholz Kunden beim Weg in die Cloud und dem Einsatz analytischer Datenbanken zur Verbesserung der Möglichkeiten der Datennutzung. Snowflake ist führender Anbieter eines Cloud Services für Data Warehousing und Datenanalyse auf Plattformen wie AWS und MS Azure.

Data Science Blog: Herr Scholz, ohne Data Warehousing wären datenorientierte Geschäftsmodelle unmöglich und auch die Selbstoptimierung von Unternehmen über Datenanalysen nicht effizient. Wie vermitteln Sie die Prinzipien eines Data Warehouse (DWH) in wenigen Sätzen verständlich für Entscheider?

Ganz allgemein kann man sagen, dass ein DWH ein zentraler Datenspeicher im Unternehmen ist, der verschiedene Datenquellen vereinheitlicht und bereinigt zusammenbringt. Durch diese zentrale Rolle müssen Schnittstellen in die vielfältigen Softwarelösungen eines Unternehmens bereitgestellt werden, wobei sich die Fokussierung auf Industriestandards anbietet. Im Datenbankumfeld sind beispielsweise SQL, ODBC und JDBC aber immer mehr auch XML und JSON zu nennen.

In der Vergangenheit wurden DWHs primär zur Verarbeitung der sog. strukturierten Daten genutzt und für semi- oder unstrukturierte Daten wurde andere Konzepte wie beispielsweise Data Lakes eingesetzt. Diese Grenze verschwimmt nun allerdings vermehrt und man möchte idealerweise strukturierte und semi-strukturierte Daten in einem System verarbeiten.

Ein derartig zentraler Datenbestand ermöglicht es Unternehmen alle Geschäftsprozesse im Detail zu verstehen und entsprechend auch Erkenntnisse zur Optimierung zu gewinnen.

Data Science Blog: DWH erfolgt traditionell on-premise. Sie stehen für das DWH in der Cloud. Wo liegen die Vorteile gegenüber der traditionellen Variante?

Cloud Services zu nutzen ist ein breiter Trend und setzt sich nun auch verstärkt im DHW Bereich fort. Dies hat gute Gründe. Sehr oft werden beispielsweise Kosteneinsparpotentiale genannt. Dies ist dadurch möglich, dass man Ressourcen bedarfsgerecht dimensionieren kann und bei passender Architektur nur das bezahlen muss, was man letztlich auch genutzt hat. Kommerziell machbar ist das durch Ressourcenteilung. In einem Cloud-Rechenzentrum werden Rechner geteilt eingesetzt und zwar immer dort, wo sie gerade benötigt werden. Hierdurch werden Leerlaufzeiten vermieden und die Nutzung effizienter.

Aber auch die Skalierbarkeit spielt eine Rolle. Manche Ressourcen werden in der Cloud komplett bedarfsgerecht zur Verfügung gestellt. Beispielsweise Storage. Wenn ich viel benötige, kann ich viel nutzen – und zwar sofort. Praktisch relevante Grenzen existieren nicht. Auch die Skalierung von Rechenleistung ist ein wichtiger Aspekt und hierbei nicht nur nach oben sondern auch nach unten. Ich möchte idealerweise immer genau so viel Leistung bekommen, wie ich gerade benötige. Geschwindigkeit ist nicht mehr limitiert durch die Hardware, die ich im Hause habe. Wenn ich viel Leistung benötige, möchte ich diese auch abrufen können und da ich anschließend wieder kleiner skalieren kann, kann ich mir in intensiven Zeiten auch mehr Ressourcen leisten.

Auch der Aspekt der Agilität wird immer wieder genannt. Cloud-Services stehen mehr oder weniger auf Knopfdruck zur Verfügung. Möchte man eine neue Software im eigenen Rechenzentrum in Betrieb nehmen lassen oder Änderungen an der Konfiguration durchführen, so sind oft langwierige Prozesse erforderlich. Gerade in der schnelllebigen Zeit ist das ein nicht zu unterschätzender Aspekt.

Aber natürlich bringt Cloud auch Risiken und Herausforderungen mit sich, mit denen man sich auseinander setzen muss. So vertraut man seine Daten einem Dienstleister an. Daher muss sichergestellt sein, dass die Daten auch verschlüsselt und vor Zugriffen des Dienstleisters oder anderer unberechtigter Personen geschützt sind. Idealerweise kann der Dienstleister dies garantieren und die Sicherheit des Dienstes durch entsprechende unabhängige Zertifizierungen belegen.

Data Science Blog: Wieso und in welcher Hinsicht unterscheidet sich die Datenbankarchitektur für Clouddatenbanken von on-premise DBs?

Ein großer Vorteil der Cloud ist die elastische Skalierung von Ressourcen. Damit dieser Aspekt aber bei Datenbanken zum Tragen kommt, ist eine andersartige Architektur erforderlich. Klassische Datenbank haben eine recht starre Zuordnung von Daten und Rechenkapazitäten. Möchte man zusätzliche Recheneinheiten nutzen, so muss die Datenorganisation verändert werden, was insbesondere bei großen Datenvolumina nicht effizient ist. Snowflake setzt daher auf eine spezielle Architektur, die konkret für die Möglichkeiten in der Cloud entwickelt wurde. Kernidee ist die Trennung von Storage und Compute, also von Daten und Rechnern. Hierdurch können beide Ressourcen unabhängig voneinander skaliert werden und insbesondere Rechenkapazität bedarfsgerecht genutzt werden. In Zeiten hoher Last, möchte man mehr Ressourcen nutzen, wohingegen bei niedriger Last nur kleine Recheneinheiten oder teilweise gar keine Ressourcen benötigt werden. Da man dies bei Snowflake sekundengenau bezahlt, erkennt man schnell, die Attraktivität dieses Ansatzes. Wenn viel Leistung erforderlich ist, kann ich diese sehr schnell hinzufügen, für diesen Zeitraum bezahle ich das dann auch, aber im Mittel komme ich mit deutlich weniger Ressourcen aus und spare bares Geld.

Außerdem kann man durch die Trennung von Storage und Compute auch belieb Nutzergruppen auf dedizierte Recheneinheiten verteilen und sie somit unabhängig voneinander machen. Der Data Scientist beispielsweise erhält sein eigenes Cluster und beeinträchtigt keinen anderen Nutzer im Unternehmen. Dass die parallele Nutzung unterschiedlicher Cluster auf den gleichen Daten nicht zu Konflikten führt, regelt ein übergreifendes Transaktionsmanagement. Der Data Scientist kann also ein Cluster verwenden, dass für seine Bedürfnisse dimensioniert ist, andere Nutzergruppen erhalten eigene Systeme, die wiederum an deren Erfordernisse angepasst sind. Und aktiv muss ein Cluster nur sein, wenn die jeweilige Nutzergruppe ihr System gerade benötigt.

Data Science Blog: Wodurch grenzt sich Snowflake von anderen Cloud-Services wie von Microsoft, Amazon und Google ab?

Zunächst muss fest gehalten werden, dass Snowflake ein Dienst auf Cloud-Plattformen wie AWS oder MS Azure ist. Es handelt sich also eher um eine Partnerschaft zwischen Snowflake und den Betreibern dieser Plattformen. In einzelnen Bereichen gibt es aber tatsächlich auch Angebote der Plattformbetreiber die mit dem Leistungsangebot von Snowflake im Wettbewerb stehen. Hier gilt es, die eigenen Anforderungen genau zu definieren und die jeweilige Architektur damit abzugleichen. Neben reiner Funktionalität und Performance sollte man gerade Aspekte wie Elastizität und Nebenläufigkeit im Blick haben.

Data Science Blog: Für die erfahrenden Data Engineers, die dieses Interview lesen: Bitte hier nun einen kleinen Pitch für Snowflake!

Ich fasse mich kurz: Snowflake ist das DWH für die Cloud. Die gesamte Architektur wurde für die Cloud entwickelt, mit Snowflake kann man die vielfältigen Vorteile des Cloud Computings fürs DWH optimal nutzbar machen – und das für semi-strukturierte Daten genauso wie für klassische strukturierte Daten. Wer es nicht glaubt, kann es unkompliziert und kostenfrei ausprobieren: https://trial.snowflake.com/

Der Einsatz von Data Warehousing in der Cloud und von Künstlicher Intelligenz zur Auswertung von Geschäfts- oder Maschinendaten ist auch das Leit-Thema der zweitägigen Data Leader Days 2018 in Berlin. Am 14. November 2018 sprechen renommierte Data Leader über Anwendungsfälle, Erfolge und Chancen mit Geschäfts- und Finanzdaten. Der 15. November 2018 konzentriert sich auf Automotive- und Maschinendaten mit hochrangigen Anwendern aus der produzierenden Industrie und der Automobilzuliefererindustrie. Seien Sie dabei und nutzen Sie die Chance, sich mit führenden KI-Anwendern auszutauschen.

Interview mit Daniel Heß von der IAV

Interview mit Daniel Heß von der IAV GmbH in Berlin. Daniel Hess ist Head of Department Software & Algorithms bei der IAV und wird am zweiten Tag der Data Leader Days 2018 zu einem besonders innovativen Thema in der Automobilindustrie referieren: „Der digitale Autodoktor, von den Symptomen zur Ursache“.

1. Herr Heß, womit genau befassen Sie sich bei IAV? Und welche Rolle spielt Data Science dabei?

Wir entwickeln Steuergerätesoftware und –systeme für die Automobilindustrie und industrielle Anwendungen wie Windkraft und Bohrtechnik.

Wir nutzen Data Science auf vielfältige Weise. Schwerpunkt ist natürlich – unserer Herkunft entsprechend – die Modellierung physikalisch-chemischer Prozesse in Motoren und Abgasanlagen. Hier haben wir in der Vergangenheit schon so viele Messdaten aus unseren Entwicklungsprojekten aufgezeichnet, dass sie von Hand nicht mehr auszuwerten waren. Darum sind bei uns viele Algorithmen zum Auffinden von Events in großen Datenmengen und zur Berechnung empirischer Modelle entstanden. Heute wenden wir zusätzlich auch Methoden an, die man der „Künstlichen Intelligenz“ zuordnen würde, z. B. Random Forest Klassifikatoren oder Neuronale Netze.

2. Stichwort: momentane Herausforderungen. Welche Anwendungsfälle und Ideen beschäftigen Sie im Moment konkret? 

Ein sehr aktuelles Thema ist die Erkennung von Fehlern in der Abgasanlage und der Hinweis auf die fehlerhafte Komponente. Die Abgasreinigung von Verbrennungsmotoren funktioniert heute nur noch im komplexen Zusammenspiel verschiedener Komponenten: Katalysatoren, Sensoren, Steller, Reduktionsmedien wie AdBlue etc. Salopp gesagt: Ein moderner Pkw ist ein kleines Chemiewerk, das spazieren fährt und dafür sorgt, dass hinten möglichst saubere Luft herauskommt. Kleine Fehler bei Bauteilen – etwa durch Alterung oder Verschleiß – haben großen Einfluss auf die Güte der Abgasreinigung und müssen deshalb sofort erkannt werden. Natürlich will man beim Werkstattaufenthalt nicht die gesamte Anlage tauschen, sondern nur das fehlerhafte Bauteil.

3. Und wohin geht die Reise bei Ihren Themen?

Heute arbeiten wir „offline“ – das heißt mit Daten, die irgendwann einmal bei einem Fahr- oder Prüfstandsversuch aufgezeichnet wurden. Sie stammen üblicherweise von einer sehr begrenzten Zahl von Versuchsfahrzeugen, die sehr teuer und entsprechend rar sind. Unsere Ergebnisse und Algorithmen werden dann im Anschluss recht statisch und fest in die Serienfahrzeuge einprogrammiert. In Zukunft können wir uns natürlich vorstellen, einige Strategien auch im Fahrbetrieb lernen zu lassen. Man könnte zum Beispiel die Werte aus verschiedenen Fahrzeugen miteinander vergleichen, um zu sehen, was normal ist und damit eine höhere Robustheit für Diagnosen erzielen. Heute ist das noch nicht möglich, denn die wenigsten Autos sind ununterbrochen online. Außerdem wären die Datenmengen so groß, dass sie die heute übliche Bandbreiten und Speicherkapazitäten sprengen würden.

4. Unternehmen erkennen nach und nach den Wert von Daten und versuchen, Strategien für deren Nutzung zu entwickeln. Wie sehen Sie die Lage in ihrem Umfeld?

Der Wert von Daten liegt für uns heute vor allem in der Verbesserung unserer Entwicklungsprozesse und -ergebnisse. Wir können durch Datenanalysen einfach schneller und genauer sein. Unsere Datenstrategie zielt darum im Wesentlichen darauf ab, aus unseren Messdaten Wissen über Zusammenhänge in Motor und Abgasnachbehandlung zu generieren, das wir dann in Modellen anwenden können. Ziele können dabei sein: höhere Modellgüte, geringerer Aufwand bei der projektspezifischen Parametrierung der Modelle durch Machine Learning oder die Optimierung des Messprozesses, was zu weniger Messungen führen würde.

5. Die Anforderungen sind vielfältig. Wie schaffen Sie es, dass sich ihre Teams den unterschiedlichen Aufgaben in den jeweiligen Branchen stellen können?

Neben den Data Scientists binden wir natürlich auch immer Fachexperten ein, die ihr System (zum Beispiel Motor oder Katalysator) kennen wie ihre sprichwörtliche Westentasche. Zusätzlich implementieren unsere Softwareentwickler die Ideen in robusten serientauglichen Code. Durch diese interdisziplinäre Zusammenarbeit entstehen viele neue Ideen und am Ende gute Lösungen.

6. Welche Rolle spielen Tools und Methoden dabei?

Wir setzen selbstverständlich Standardtools wie Matlab/Simulink und vor allem auch Python ein – letzteres bietet uns vielfältige Möglichkeiten und zahlreiche Libraries zu Themen wie maschinelles Lernen, Statistik und diskreter Mathematik. Hier wäre es einfach nicht sinnvoll, das Rad neu zu erfinden. Manchmal sind unsere Probleme aber doch so speziell, dass wir selbst etwas entwickeln müssen. Dabei liegt unser Fokus immer darauf, wiederkehrende Routineaufgaben zu automatisieren. Gerade in der Datenbereitstellung und der explorativen Analyse können uns Tools eine Menge Arbeit abnehmen. Dafür haben wir mit „IAV Mara“ auch ein eigenes Werkzeug entwickelt, das wir als Produkt vertreiben.

Der Einsatz von Künstlicher Intelligenz zur Auswertung von Geschäfts- oder Maschinendaten ist das Leit-Thema der zweitägigen Data Leader Days 2018 in Berlin. Am 14. November 2018 sprechen renommierte Data Leader über Anwendungsfälle, Erfolge und Chancen mit Geschäfts- und Finanzdaten. Der 15. November 2018 konzentriert sich auf Automotive- und Maschinendaten mit hochrangigen Anwendern aus der produzierenden Industrie und der Automobilzuliefererindustrie. Seien Sie dabei und nutzen Sie die Chance, sich mit führenden KI-Anwendern auszutauschen.

NetDescribe ist Sponsor der Data Leader Days 2018 in Berlin

Wir begrüßen NetDescribe als Sponsor für die Data Leader Days 2018

Die Data Leader Days am 14./15.11.2018 im Berliner Spreespeicher sind das führende Entscheider-Event, das sich mit den Möglichkeiten und Lösungen rund um die Digitalisierung, Big Data und Industrie 4.0 beschäftigt. Vor allem die hochkarätigen Referenten – die Spitze der deutschen Digitalwirtschaft – ziehen dabei Teilnehmer aus der ganzen DACH-Region an, um neue Kontakte zu knüpfen und wichtige Impulse für die eigene Weiterentwicklung zu erhalten.

NetDescribe (www.netdescribe.com) liefert mit der Aufnahme und Analyse von Maschinendaten (IT-Events) ausschlaggebende Informationen für Verantwortliche, die agile Entscheidungen im Bereich Security und IT Operations treffen müssen. Auf Basis dieser Maschinendaten schafft NetDescribe zusätzlich die Grundlage der Compliance-Nachweisbarkeit, die bei allen Aktionen gewährleistet bleiben muss.

Am zweiten Tag der Data Leader Days, dem 15. November 2018, hält Gregory Blepp, Geschäftsführer der NetDescribe GmbH, einen Vortrag über die Schaffung einer einheitlichen Datenbasis als Grundlage der Unterstützung des Management-Teams.

Zu den weiteren Speakern gehören das Who´s Who der Datenwirtschaft, u.a. Gerhard Baum (CDO, Schaeffler), Marcus Hartmann (CDO, Pro7Sat1), Dr. Joachim Schmalzl (Vorstand, Deutscher Sparkassen- und Giroverband), Dr. Christian Schlögel (CDO, KUKA), Jürgen Urbanski (VP, Airbus), Dr. Dirk Haft (Vorstand, Wittenstein), Thomas Gottschalk (Head of BASF 4.0), Dr. Helmut Linde (Global Head of Data Science, Merck), Tom Oelsner (Chief Innovation Officer, Heidelberger Druckmaschinen), Dr. Markus Rotter (Head of Network Analytics, Vodafone), Andreas Eickelkamp (CDO, FTI), Dr. Helmut Linde (Global Head of Data Science & Analytics, Merck), uvm.

IAV ist Sponsor der Data Leader Days 2018 in Berlin

Die Data Leader Days (www.dataleaderdays.com) am 14. und 15. November 2018 im Berliner Spreespeicher sind das führende Entscheider-Event, das sich mit den Möglichkeiten und Lösungen rund um die Digitalisierung, Big Data und künstlicher Intelligenz beschäftigt. Vor allem die hochkarätigen Referenten – die Spitze der deutschen Digitalwirtschaft – ziehen dabei Teilnehmer aus der ganzen DACH-Region an, um neue Kontakte zu knüpfen und wichtige Impulse für die eigene Weiterentwicklung zu erhalten.

Als einer der global führenden Engineering-Partner entwickelt IAV die Mobilität der Zukunft. Dabei bewährt sich herstellerübergreifende Engineering in Fahrzeugen auf der ganzen Welt. Mit mehr als 35 Jahren Erfahrung und einem unübertroffenen Kompetenzspektrum bringen die Mitarbeiter der IAV das Beste aus unterschiedlichsten Welten zusammen: Automotive- und IT-Welt, Hardware- und Software-Welt, Produkt- und Service-Welt.

Auftraggeber werden an über 25 IAV-Standorten mit mehr als 7.000 Mitarbeitern und einer erstklassigen technischen Ausstattung bei der Realisierung ihrer Projekte unterstützt – vom Konzept bis zur Serie, für das Ziel: bessere Mobilität.

Daniel Hess ist Head of Department Software & Algorithms bei der IAV und wird am zweiten Tag der Data Leader Days zu einem besonders innovativen Thema in der Automobilindustrie referieren: „Der digitale Autodoktor, von den Symptomen zur Ursache“.

Zu den weiteren Speakern gehören das Who´s Who der Datenwirtschaft, u.a. Gerhard Baum (CDO, Schaeffler), Marcus Hartmann (CDO, Pro7Sat1), Dr. Joachim Schmalzl (Vorstand, Deutscher Sparkassen- und Giroverband), Brian Timmeny (Airbus), Dr. Dirk Haft (Vorstand, Wittenstein), Thomas Gottschalk (Head of BASF 4.0), Dr. Helmut Linde (Global Head of Data Science, Merck), Tom Oelsner (Chief Innovation Officer, Heidelberger Druckmaschinen), Dr. Markus Rotter (Head of Network Analytics, Vodafone), Andreas Eickelkamp (CDO, FTI), Dr. Helmut Linde (Global Head of Data Science & Analytics, Merck), uvm.

Zum Event anmelden können sich Teilnehmer direkt auf Data Leader Days.

Neo4j@Daimler: Das Committee Cockpit

Unser Sponsor Neo4J unterstützt mit seiner Graph-Plattform Unternehmen dabei, vernetzte Daten in vollem Umfang zu nutzen und die komplexen Verknüpfungen zwischen Personen, Prozessen und Systemen zu entschlüsseln. Gemeinsam mit der Daimler AG, den beiden Mitarbeitern Frau Julia Bengel und Herrn Jochen Linkohr, wird Neo4J in einem Praxisvortrag über das Committee Cockpit referieren.

Julia Bengel Jochen Linkohr

In den letzten Jahren haben sich in die Strukturen in Unternehmen grundlegend verändert- wo es zu Beginn meist nur klassische, hierarchische Strukturen, mit Vorgesetztem und Mitarbeiter gab, gibt es jetzt auch Berichtsstrukturen, Funktionsstrukturen, Strukturen nach Gesellschaften, nach Divisionen, nach Ländern, nach Projektteams, Schwärmen, und auch Gremien mit denen wir uns im letzten halben Jahr tiefer beschäftigt haben.

Aber wie bilde ich diese ab um zusätzlich auch einen tieferen Einblick in die unterschiedlichen Strukturebenen zu bekommen?

Auf der GraphTour wurde bereits letztes Jahr unser Structure Cube vorgestellt, der mithilfe einer Neo4j Graphdatenbank verschiedene Strukturen aufeinander abbilden kann- diese Strukturen haben wir um eine weitere erweitert: die Gremien.

Gremien stellen in unserem Unternehmen einen zentralen Punkt dar, da sie entscheidungsbefugt sind. Wie finde ich aber das Gremium von dem ich eine Freigabe brauche? Oder wie kann ich als Gremienleiter ein neues Gremium anlegen?

Diese Lösung stellt das Committee Cockpit dar, dessen wesentlicher Bestandteil das Anlegen, Genehmigen, Bearbeiten und Suchen von Gremien ist.

Zum Event anmelden können sich Teilnehmer direkt auf Data Leader Days oder via Xing.com (Klick).

Freier Eintritt für Young Professionals zu den Data Leader Days 2018

Jetzt bewerben und kostenfrei beim Spitzenevent der Datenwirtschaft am 14. oder 15. November in Berlin dabei sein!
Die Data Leader Days senden regelmäßig wichtige Impulse in die Big Data und KI-Welt aus und sind ein führendes Forum für Wissens-, Ideen- und Informationsaustausch. Die Spitzen von Anwenderunternehmen zeigen exklusiv in einem innovativen Programm mit Keynote, Präsentationen sowie Use & Business Cases auf, wie Digitalisierung und Künstliche Intelligenz umgesetzt und zum neuen Wettbewerbsvorteil werden.

Zu den Speakern gehören die Data Leader von E.ON, Pro7Sat1, Deutscher Sparkassen- und Giroverband, Airbus, Wittenstein, BASF, Merck, Heidelberger Druckmaschinen, Vodafone, FTI und von weiteren Unternehmen.

Bewerbe Dich bis zum 02.11.2018 mit einem kurzen Statement, warum Du dabei sein möchtest! Schicke mir Dein Statement an linhchi.nguyen@datanomiq.de und überzeuge uns.
Ist dein Statement aussagekräftig und überzeugend, laden wir Dich kostenlos zu einem der beiden Veranstaltungstage ein.

Letzter Aufruf: Wir suchen noch genau einen Volunteer für den Data Leader Days 2018

Die Data Leader Days sind das Entscheider-Event für die Datenwirtschaft. Die Fachkonferenz hat sich seit Gründung im Jahr 2016 als eines der exklusivsten Events rund um die Themen Big Data und künstliche Intelligenz etabliert. In diesem Jahr werden die Data Leader Days erstmalig auf zwei Tage mit unterschiedlichen Schwerpunkten erweitert:

14. November 2018: Commercial & Finance Data

15. November 2018: Industrial & Automotive Data

Für alle Studenten mit Bezug zum Data Science: Wir bieten Euch Kontakte zu vielen potenziellen Arbeitgebern sowie viel Wissenswertes über Big Data und KI in der Unternehmenspraxis:

Sei Volunteer für die Data Leader Days 2018 in Berlin: www.dataleaderdays.com. Schreibe mir hier via Xing.com oder direkt an linhchi.nguyen@datanomiq.de