Beiträge

Interview mit Dr. Dirk Haft von Wittenstein SE

Interview mit Dr. Dirk Haft, Vorstand bei WITTENSTEIN SE

Dr. Dirk Haft ist seit dem 1. April 2016 einer von vier Vorstandsmitgliedern bei der WITTENSTEIN AG. Zusammen mit Dr. Khaled Karraï hat er das Unternehmen attocube systems AG gegründet – Technologieführer für anspruchsvollste Antriebs- und Messtechnik im Nanometerbereich. Er wird neben seiner neuen Aufgabe im Vorstand der WITTENSTEN AG die attocube systems AG als Aufsichtsratsvor-sitzender weiterhin prägen und begleiten. 

1.Können Sie uns einen groben Einblick in Ihre Innovationsfabrik geben?

Die Innovationsfabrik an unserem Hauptstandort ist die Klammer eines traditionellen Maschinenbauers, der ursprünglich von der Getriebetechnologie kommt, um in die moderne Mechatronik und Cybertronik vorzustoßen.

Dahinter verbirgt sich ein hochmodernes Gebäude – in dessen hinteren Teil die Produktion angesiedelt und im vorderen Teil die Projektleiter sowie der Vertrieb und andere Fachbereiche angesiedelt sind. Für die innovativen/mechatronischen Bereiche haben wir ein Innovationlab, ein Digitalisierungscenter sowie einen Querdenkerraum – also Räumlichkeiten zum Denken und modernste Arbeitsstrukturen, die sich sehr gut für Projekte eignen, die Innovation und Digitalisierung beinhalten. Aktuell laufen dort rund hundert Projekte – teils Kundenprojekte, interne Innovationsprojekte und Digitalisierungsprojekte.

2. Was sind für Sie die wichtigsten Erfolgsfaktoren bei Digitalprojekten?

Gute Leute und nah am Markt sein. Ich sehe dies ähnlich, als ein neues Produkt für einen Kunden zu entwickeln.

3. Worauf können sich die Teilnehmer der Data Leader Days bei Ihrer Keynote zum Thema WITTENSTEINs smarte Roadmap – Digitale Produkte & Data Driven Services am 15.11.2018 freuen?

Industrie 4.0 ist das Zielbild, bei dem sich das Werkstück durch die Werkhalle seinen Weg sucht und alles digital vernetzt ist. Da tun wir uns gegenwärtig noch ein wenig schwer, was schade ist, denn würden wir alles durchdigitalisiert haben, hätten wir am Ende rund 30% mehr eine deutlich höhere Produktivität. Wir fokussieren uns derzeit darauf, unsere Produkte für den Kunden digital zu machen. So wird beispielhaft das Getriebe mit einem Sensor versehen, so dass wir Temperatur, Schwingungen bzw. Resonanzen, Ölstand und Metallpartikel im Öl messen können und dann Themen wie Condition Monitoring bei unseren Komponenten als funktionale Bestandteile mitgeben können. Der Maschinenbauer, der es einbaut, kann diese Daten verwenden und am Ende der Betreiber daraus Nutzen ziehen. Es geht also darum, Motoren, Getriebe und alle Komponenten, die wir bauen, zunächst intelligent zu machen, um diese Intelligenz an die Maschinen und Umgebung weitergeben zu können. Hier sind wir mit hoher Geschwindigkeit unterwegs. Dies beinhaltet auch, die Mitarbeiter über unser Digitalisierungscenter hinaus mitzunehmen und aufzuklären, dass sie später diese Daten nutzen können. Darauf und auf weitere Themen unserer smarten Roadmap dürfen sich die Teilnehmer freuen.

Dr. Dirk Haft präsentierte am 15. November 2018, dem zweiten Tag der Data Leader Days 2018, über „Keynote: WITTENSTEINs smarte Roadmap – Digitale Produkte & Data Driven Services“.

Interview mit Daniel Heß von der IAV

Interview mit Daniel Heß von der IAV GmbH in Berlin. Daniel Hess ist Head of Department Software & Algorithms bei der IAV und wird am zweiten Tag der Data Leader Days 2018 zu einem besonders innovativen Thema in der Automobilindustrie referieren: „Der digitale Autodoktor, von den Symptomen zur Ursache“.

1. Herr Heß, womit genau befassen Sie sich bei IAV? Und welche Rolle spielt Data Science dabei?

Wir entwickeln Steuergerätesoftware und –systeme für die Automobilindustrie und industrielle Anwendungen wie Windkraft und Bohrtechnik.

Wir nutzen Data Science auf vielfältige Weise. Schwerpunkt ist natürlich – unserer Herkunft entsprechend – die Modellierung physikalisch-chemischer Prozesse in Motoren und Abgasanlagen. Hier haben wir in der Vergangenheit schon so viele Messdaten aus unseren Entwicklungsprojekten aufgezeichnet, dass sie von Hand nicht mehr auszuwerten waren. Darum sind bei uns viele Algorithmen zum Auffinden von Events in großen Datenmengen und zur Berechnung empirischer Modelle entstanden. Heute wenden wir zusätzlich auch Methoden an, die man der „Künstlichen Intelligenz“ zuordnen würde, z. B. Random Forest Klassifikatoren oder Neuronale Netze.

2. Stichwort: momentane Herausforderungen. Welche Anwendungsfälle und Ideen beschäftigen Sie im Moment konkret? 

Ein sehr aktuelles Thema ist die Erkennung von Fehlern in der Abgasanlage und der Hinweis auf die fehlerhafte Komponente. Die Abgasreinigung von Verbrennungsmotoren funktioniert heute nur noch im komplexen Zusammenspiel verschiedener Komponenten: Katalysatoren, Sensoren, Steller, Reduktionsmedien wie AdBlue etc. Salopp gesagt: Ein moderner Pkw ist ein kleines Chemiewerk, das spazieren fährt und dafür sorgt, dass hinten möglichst saubere Luft herauskommt. Kleine Fehler bei Bauteilen – etwa durch Alterung oder Verschleiß – haben großen Einfluss auf die Güte der Abgasreinigung und müssen deshalb sofort erkannt werden. Natürlich will man beim Werkstattaufenthalt nicht die gesamte Anlage tauschen, sondern nur das fehlerhafte Bauteil.

3. Und wohin geht die Reise bei Ihren Themen?

Heute arbeiten wir „offline“ – das heißt mit Daten, die irgendwann einmal bei einem Fahr- oder Prüfstandsversuch aufgezeichnet wurden. Sie stammen üblicherweise von einer sehr begrenzten Zahl von Versuchsfahrzeugen, die sehr teuer und entsprechend rar sind. Unsere Ergebnisse und Algorithmen werden dann im Anschluss recht statisch und fest in die Serienfahrzeuge einprogrammiert. In Zukunft können wir uns natürlich vorstellen, einige Strategien auch im Fahrbetrieb lernen zu lassen. Man könnte zum Beispiel die Werte aus verschiedenen Fahrzeugen miteinander vergleichen, um zu sehen, was normal ist und damit eine höhere Robustheit für Diagnosen erzielen. Heute ist das noch nicht möglich, denn die wenigsten Autos sind ununterbrochen online. Außerdem wären die Datenmengen so groß, dass sie die heute übliche Bandbreiten und Speicherkapazitäten sprengen würden.

4. Unternehmen erkennen nach und nach den Wert von Daten und versuchen, Strategien für deren Nutzung zu entwickeln. Wie sehen Sie die Lage in ihrem Umfeld?

Der Wert von Daten liegt für uns heute vor allem in der Verbesserung unserer Entwicklungsprozesse und -ergebnisse. Wir können durch Datenanalysen einfach schneller und genauer sein. Unsere Datenstrategie zielt darum im Wesentlichen darauf ab, aus unseren Messdaten Wissen über Zusammenhänge in Motor und Abgasnachbehandlung zu generieren, das wir dann in Modellen anwenden können. Ziele können dabei sein: höhere Modellgüte, geringerer Aufwand bei der projektspezifischen Parametrierung der Modelle durch Machine Learning oder die Optimierung des Messprozesses, was zu weniger Messungen führen würde.

5. Die Anforderungen sind vielfältig. Wie schaffen Sie es, dass sich ihre Teams den unterschiedlichen Aufgaben in den jeweiligen Branchen stellen können?

Neben den Data Scientists binden wir natürlich auch immer Fachexperten ein, die ihr System (zum Beispiel Motor oder Katalysator) kennen wie ihre sprichwörtliche Westentasche. Zusätzlich implementieren unsere Softwareentwickler die Ideen in robusten serientauglichen Code. Durch diese interdisziplinäre Zusammenarbeit entstehen viele neue Ideen und am Ende gute Lösungen.

6. Welche Rolle spielen Tools und Methoden dabei?

Wir setzen selbstverständlich Standardtools wie Matlab/Simulink und vor allem auch Python ein – letzteres bietet uns vielfältige Möglichkeiten und zahlreiche Libraries zu Themen wie maschinelles Lernen, Statistik und diskreter Mathematik. Hier wäre es einfach nicht sinnvoll, das Rad neu zu erfinden. Manchmal sind unsere Probleme aber doch so speziell, dass wir selbst etwas entwickeln müssen. Dabei liegt unser Fokus immer darauf, wiederkehrende Routineaufgaben zu automatisieren. Gerade in der Datenbereitstellung und der explorativen Analyse können uns Tools eine Menge Arbeit abnehmen. Dafür haben wir mit „IAV Mara“ auch ein eigenes Werkzeug entwickelt, das wir als Produkt vertreiben.

Der Einsatz von Künstlicher Intelligenz zur Auswertung von Geschäfts- oder Maschinendaten ist das Leit-Thema der zweitägigen Data Leader Days 2018 in Berlin. Am 14. November 2018 sprechen renommierte Data Leader über Anwendungsfälle, Erfolge und Chancen mit Geschäfts- und Finanzdaten. Der 15. November 2018 konzentriert sich auf Automotive- und Maschinendaten mit hochrangigen Anwendern aus der produzierenden Industrie und der Automobilzuliefererindustrie. Seien Sie dabei und nutzen Sie die Chance, sich mit führenden KI-Anwendern auszutauschen.

Interview mit Gerhard Baum von Schaeffler

Interview mit Gerhard Baum, Chief Digital Officer bei der Schaeffler Group

Gerhard Baum ist Chief Digital Officer bei der Schaeffler Group. Der Diplom-Ingenieur für Luft- und Raumfahrtechnik, das er 1982 an der Universität Stuttgart abgeschlossen hatte, ist seit dem Jahr 2015 für die Digitalisierung und für die Nutzung von Daten bei der Schaeffler Gruppe zuständig.

 Gerhard Baum präsentiert am 15. November 2018, dem zweiten Tag der Data Leader Days 2018, über die „Data as key driver for intelligent value creation“.

1. Was sind die wesentlichen Elemente der Digitalisierungsoffensive von Schaeffler?

Wir konzentrieren uns auf die intelligente Digitalisierung der gesamten Wertschöpfungskette für unsere Automobil- und Industriekunden. Zentrale Pfeiler der Strategie sind die Entwicklung intelligenter Automobil- und Industrielösungen, die in „Smart Factories“ hergestellt werden sowie die Entwicklung neuer digitaler Dienstleistungen.

2. Können Sie hierbei bitte exemplarisch auf die Analyse-Möglichkeiten des Sensotect-Lagers, das Messwerte über nanotechnische Beschichtungen erfassen kann, eingehen?

Sensotect ist eine innovative Dünnschichtsensorik, die es erlaubt Daten an Orten zu messen, an denen klassische Sensoren nicht eingesetzt werden können. Möglich ist das durch eine Submikrometer-dünne, dehnungsempfindliche Metallbeschichtung, die durch Mikrobearbeitung strukturiert wird. Durch diese Messstruktur können Kraft- und Drehmoment während des Betriebs kontinuierlich gemessen werden. So können wir beispielsweise an Antriebswellen oder in Fahrzeuggetrieben das Drehmoment und Kräfte sehr schnell und genau bestimmen.

3. Was sind aus Ihrer Sicht die Erfolgsfaktoren bei Datenprojekten?

Am wichtigsten sind natürlich die Menschen hinter den Daten. Wir brauchen die passenden Mitarbeiter und Kompetenzen, damit ein Projekt ein Erfolg wird. Daneben ist ein guter Use-Case essenziell: Nur, wenn wir die richtigen Fragen stellen, erhalten wir auch erfolgreiche Lösungen. Domänenwissen ist dabei unabdingbar. Zusammen mit Domänenexperten sind wir in der Lage, Zusammenhänge neu zu beurteilen, zu optimieren und auch Vorhersagen zu treffen. Daten müssen außerdem über Fachbereichsgrenzen vernetzt und in Beziehung gesetzt werden. Ein wesentlicher Eckpfeiler der Digitalisierung bei Schaeffler ist deshalb die Digitale Plattform. Sie hat das Ziel, Informationen aus der gesamten Wertschöpfungskette zu integrieren und sowohl als Datenspeicher als auch Analyseplattform zu agieren. Damit soll sie helfen, Maschinen dank kognitiver Technologien lernfähig zu machen. In semantischen Informationsmodellen werden diese Daten dann stark automatisiert über Fachbereichsgrenzen vernetzt und in Beziehung gesetzt. So entsteht eine Informations- und Wissensarchitektur, mit der wir unter anderem in der Lage sein werden, Digitale Zwillinge bzw. Prozess-Schatten abzubilden.

4. Worauf können sich die Teilnehmer der Data Leader Days bei Ihrem Vortrag am 15.11.2018 freuen?

Unsere Produkte sind immer dort, wo sich etwas bewegt. Genau hier entstehen Daten, die wir schon heute für unsere Produktion, Prozesse und Business Models nutzen. Ich gebe einen Einblick in die Praxis bei Schaeffler und zeige, welche Anwendungsfälle sich bereits bewährt haben.

 


Sie wollen Herrn Baum live erleben und persönlich kennen lernen? Dann melden Sie sich jetzt mit wenigen Klicks zur Teilnahme an den Data Leader Days 2018 an!

Interview mit Dr. Christina Bender von Villeroy & Boch

Interview mit Dr. Christina Bender über die Digitalisierung und Data Science in einem 270-jährigem Familienunternehmen.

Dr. Christina Bender ist Senior Digital Strategist mit Schwerpunkt auf Data Science bei der Villeroy & Boch AG. Sie ist Diplom-Finanzökonomin und promovierte Mathematikerin. Als „Quant“ bei der UniCredit und Unternehmensberaterin bei der d‑fine GmbH sammelte sie bereits langjährige Erfahrung in der Konzeption und Umsetzung interdisziplinärer Digitalisierungs- und Prozessthemen in diversen Branchen. Als letzte Herausforderung im „echten“ Beraterleben hat sie bei d-fine als Prokuristin den Geschäftsbereich „Digitalisierung im Gesundheitswesen“ mit aufgebaut.

Data Science Blog: Frau Dr. Bender, womit genau befassen Sie sich als Digital Strategist? Und wie passt Data Science in dieses Konzept?

Zunächst war es die Aufgabe eine digitale Roadmap zu entwickeln und zwar abgestimmt auf ein Traditionsunternehmen, das sich in den letzten 270 Jahren ständig durch Innovation verändert hat. Als Beispiel, V&B hatte einen erfolgreichen „Merger“ vollzogen, da gab es das Wort „M&A“ noch gar nicht.

Ein erster Schritt war es dabei Themen zu sammeln und ein Vorgehen zu entwickeln, diese zu verstehen, zu priorisieren und sie dann stets als Ziel im Blick umzusetzen. Die meisten der Themen haben immer mit Daten und damit häufig mit Data Science zu tun. Das geht von Fragestellungen z.B. im Vertrieb, die durch einen Bericht im ERP-System abbildbar sind, bis hin zu komplexen Fragen der Bild­er­kennungstechnologie in der Produktion oder im Customer Relationship Management.

Um weiterhin die wirklich wichtigen Themen zu finden, ist es entscheidend die Chancen und Risiken der Digitalisierung und den Wert der richtigen Daten weit in die Fläche des Unternehmens zu tragen. Dieser Aufbau interner Kompetenzen durch uns als Digital Unit schafft Vertrauen und ist neben dem Vorantreiben konkreter Anwendungsfälle essentieller Bestandteil für eine erfolgreiche Digitalisierung.

Data Science Blog: An was für Anwendungsfällen arbeiten Sie konkret? Und wohin geht die Reise langfristig?

Derzeit arbeiten wir sowohl an kleineren Fragestellungen als auch an ca. vier größeren Projekten. Letztere sollen pain points gemeinsam mit den Fachexperten lösen und dadurch zu Leuchtturm­projekten werden, um eben Vertrauen zu schaffen. Dafür müssen wir ein “Henne-Ei”-Problem lösen. Oft sind die richtigen Daten für die Fragestellung noch nicht erfasst und/oder einige Menschen involviert, die eben erst durch ihnen nahestehende Leuchtturmprojekte überzeugt werden müssten. Daher arbeiten wir für eine erfolgreiche Umsetzung mit im täglichen Geschäft involvierten Fachexperten und erfahrenen Data Scientists mit gewissem Fach-Know-How, die uns einen gewissen Vertrauensvorsprung geben.

Das dauert seine Zeit, insbesondere weil wir stark agil vorgehen, um uns nicht zu verheddern. D.h. oft sieht eine Fragestellung am Anfang leicht aus und ist dann schlicht weg nicht realisierbar. Das muss man dann akzeptieren und eben auf die nächst priorisierte Fragestellung setzen. “Keramik ist halt anders als die Autoindustrie.” Über genaue Use Cases möchte ich daher noch nicht sprechen. Wir sind auf einem guten Weg.

Langfristig wünsche ich mir persönlich, dass Werte aus Daten – insbesondere bessere Ent­schei­dun­gen durch Wissen aus Daten – möglichst selbständig durch Business-Experten geschaffen werden und dies durch ein schlagkräftiges zentrales Team ermöglicht wird. D.h. das Team sorgt für eine entsprechen­de stets aktuell für Data Science geeignete Infrastruktur und steht bei komplexen Fragestellungen zur Verfügung.

Data Science Blog: Welche Algorithmen und Tools verwenden Sie für Ihre Anwendungsfälle?

Wir arbeiten auch mit Methoden im Bereich „Deep Learning“, zum Beispiel für die Bilderkennung. Allerdings gerade um die Erwartungshaltung im Unternehmen nicht zu hoch zu hängen, schauen wir immer wofür sich diese Methodik eignet und wo sie nicht unsere eigentliche Frage beantworten kann (siehe unten) oder schlicht weg nicht genügend Daten verfügbar sind. Insbesondere, wenn wir die eigentlich Ursache eines Problems finden und darauf reagieren wollen, ist es schlecht, wenn sich die Ursache „tief“ im Algorithmus versteckt. Dafür eignet sich z.B. eine logistische Regression, sofern gut parametrisiert und mit gut aufbereiteten Daten befüttert, häufig deutlich besser.

Wir nutzen kostenpflichtige Software und Open Source. Wunsch wäre, möglichst jedem im Unternehmen die richtige Anwendung zur Verfügung zu stellen, damit sie oder er leicht selbst die richtige Exploration erstellen kann, um die richtige Entscheidung zu treffen. Für den Data Scientist mag das ein anderes Tool sein als für den Fachexperten im Geschäftsbereich.

Data Science Blog: Daten werden von vielen Unternehmen, vermutlich gerade von traditionsreichen Familienunternehmen, hinsichtlich ihres Wertes unterschätzt. Wie könnten solche Unternehmen Daten besser bewerten?

Unternehmen müssen sich genau überlegen, was die für sie richtigen Fragen sind. Aus welchen Daten oder deren Verknüpfung kann ich Wissen generieren, dass diese für mich relevante Fragen (überhaupt) beantwortet werden können, um mit vertretbarem Aufwand nachhaltig Mehrwerte zu generieren. Natürlich sind die schlimmsten „pain points“ immer am schwierigsten, sonst hätte sie vermutlich jemand vor mir gelöst. Dies wird stets begleitet, warum mit den schon gesammelten Daten noch kein Mehrwert generiert wurde und somit ggf. begründet warum kein (Zeit-)Budget frei gegeben wird, um weitere (dann hoffentlich die richtigen) Daten zu sammeln.

Als erstes ist es m.E. daher wichtig dem Entscheidungsträger klar zu machen, dass es keine Maschine gibt in die ggf. wahllos gesammelte Daten reingeworfen werden und die „KI“ spuckt dann die richtigen Antworten auf die richtigen nie gestellten Fragen heraus. Denn gäbe es diese Art künstlicher Intelligenz, wäre der Erfinder wohl längst der reichste Mensch der Welt.

Nein, dafür wird menschliche Intelligenz gebraucht und Freiraum für die Mitarbeiterinnen und Mitarbeiter, die richtigen Fragen und Antworten zu suchen und auch auf diesem Weg manchmal kurzfristig zu scheitern. Kurz gesagt, braucht es eine Datenstrategie, um alle, Vorstand und Mitarbeiterinnen und Mitarbeiter, auf diesen Weg mitzunehmen.

Data Science Blog: Wie erstellen Unternehmen eine Datenstrategie?

Unternehmensleiter wollen Ergebnisse sehen und verstehen oft nicht gleich, warum sie Geld in Daten investieren sollen, wenn erst mittel- bis langfristig ein Mehrwert herausspringt. Die alleinige Drohkulisse, wenn nicht jetzt, dann eben in 10 Jahren ohne uns, hilft da oft nur bedingt oder ist gar kontraproduktiv.

Wichtig ist es daher, alle an einen Tisch zu holen und gemeinsam eine Unternehmensvision und Ziele zu diskutieren, zu begreifen und zu vereinbaren, dass Daten dafür ein Faktor sind (oder ggf. vorerst auch nicht). Noch wichtiger ist der Weg dahin, die Datenstrategie, nämlich wie aus Daten langfristig nachhaltige Mehrwerte gehoben werden.

Um eine Datenstrategie zu erstellen, braucht es eine gewisse Mindestausstattung einerseits an dafür zumindest zum Teil freigestellten Experten aus dem Business und anderseits Datenexperten, die mit diesen Experten reden können. Sie müssen nach erfolgreicher Zielbildung einen minimalen Werkzeug­kasten aus KnowHow und Technologie schaffen, der es erst ermöglicht Leuchtturmprojekte erfolgreich umzusetzen. Diese Leuchtturmprojekte dienen als erste erfolgreiche Beispielwege. Damit fällt es auch leichter den Werkzeugkasten als Grundlage zur Lösung größerer pain points weiter auszubauen. In Zeiten, wo halbwegs kommunikative Data Scientists mit Businessverständnis Mangelware sind, ist dies manchmal nur mit externer Unterstützung möglich. Doch Obacht, wichtig ist ein interner Koordinator, der alle Zügel in Händen behält, damit nicht viele richtige Antworten auf irrelevante nicht gestellte Fragen gegeben werden. Denn dann geht anfängliche Akzeptanz leicht verloren.


Dr. Christina Bender präsentiert am 15. November 2018, dem zweiten Tag der Data Leader Days 2018, über die „Tradition und digitale Innovation bei einem Keramikhersteller – warum Deep Learning nicht immer das Allheilmittel ist“.