Event-App von Plazz

Berlin, November 2019: Die fünften Data Leader Days am 13./14. November 2019 im Berliner Spreespeicher haben erneut Entscheider aus unterschiedlichsten Branchen versammelt und wichtige Impulse rund um Data Science und KI ausgesendet. Spitzenkräfte aus der Business- und Digitalwelt erlebten zwei volle Tage mit seltenen Praxiseinblicken, spannenden Use Cases und einer hochkarätigen Panel Diskussion. Organisiert wurde die Konferenz von DATANOMIQ und Connected Industry.

Unsere Data Leader Days 2019 wurden von der Plazz AG unterstützt, die die Event-App für iOS- und Android-Mobilgeräte im Namen des Connected Industry e.V. zur Verfügung stellte. Mit dieser App werden die Agenda beschrieben und aktuelle Vorträge sowie terminliche Änderungen an die Teilnehmer kommuniziert. Ferner können Teilnehmer untereinander in den Austausch gehen, Vorträge bewerten und Abstimmungen organisiert werden.

Wir empfehlen die Nutzung der App-Services für Event- und Teilnehmer-Management weiter und werden auch den weiteren Weg der Data Leader Days 2021 und Data Hacker Days 2021 plangemäß in Kooperation mit der Plazz AG beschreiten.

Confluent ist Sponsor der Data Leader Days 2019 in Berlin

Wir begrüßen Confluent als Sponsor für die Data Leader Days 2019

Die meisten Organisationen stehen vor einer Flut an Daten, die aus neuen Applikationen, neuen Geschäftsmöglichkeiten, dem Internet of Things und vielem mehr stammen. Die ideale Architektur, die sich die meisten vorstellen, ist ein sauberes, optimiertes System, das es ermöglicht, aus all diesen Daten Kapital zu schlagen. Jedes Byte an Daten erzählt eine Geschichte, die eine nicht zu unterschätzende Bedeutung für Ihre nächsten Schritte hat. In einem datenbasierten Unternehmen ist die Art und Weise, wie Daten weitervermittelt werden, genauso wichtig wie die Daten selbst. Je höher die Geschwindigkeit und Flexibilität bei der Datenübertragung ist, umso wertvoller sind auch die Daten an sich. 60% der Fortune 100 setzen zur Umsetzung hier bereits auf die Streaming-Lösung Apache Kafka.

Confluent, gegründet von den Entwicklern der Open-Source-Lösung Apache Kafka®, bietet die führende Streaming-Plattform, welche es Unternehmen ermöglicht, den Wert ihrer Daten zu maximieren. Die Plattform von Confluent erlaubt es, Daten aus isolierten Systemen in eine Echtzeit-Datenpipeline zu übertragen, wo sofort darauf reagiert werden kann.

Heute konzentriert sich Confluent auf die Weiterentwicklung einer Streaming-Plattform sowohl on-premise als auch in der Cloud, die es anderen Unternehmen ermöglicht, schnell und einfach auf Echtzeit-Streams mit Unternehmensdaten zuzugreifen. Zu den Kunden von Confluent zählen Unternehmen wie ING, Target, Audi, LinkedIn, BOSCH, Deutsche Bahn oder Nordea.

 


Die diesjährigen Data Leader Days finden am 13. & 14. November 2019 direkt an der Spree in Berlin zum fünften Mal statt. Im Fokus stehen Use Cases, Live Demos, Panels, Interviews und Erfahrungsberichte zu Data Science, Künstliche Intelligenz, Data Engineering & Architecture, Data Visualization sowie Agile Development, Blockchain und Data Security.

Ihr persönlicher Ansprechpartner auf den Data Leader Days 2019:

Benjamin Bohne

benjamin@confluent.io

Mehr Informationen finden Sie auch unter confluent.io.

 

Interview: Data Warehousing in der Cloud

Interview mit Thomas Scholz von Snowflake über Data Warehousing in der Cloud

Thomas Scholz ist Sales Engineer bei Snowflake und Experte für analytische Datenbank. Der studierte Informatiker befasst sich bereits seit dem Beginn seiner Karriere vor mehr als 10 Jahren mit den Herausforderungen und Potentialen des Datenwachstums. Heute berät Herr Scholz Kunden beim Weg in die Cloud und dem Einsatz analytischer Datenbanken zur Verbesserung der Möglichkeiten der Datennutzung. Snowflake ist führender Anbieter eines Cloud Services für Data Warehousing und Datenanalyse auf Plattformen wie AWS und MS Azure.

Data Science Blog: Herr Scholz, ohne Data Warehousing wären datenorientierte Geschäftsmodelle unmöglich und auch die Selbstoptimierung von Unternehmen über Datenanalysen nicht effizient. Wie vermitteln Sie die Prinzipien eines Data Warehouse (DWH) in wenigen Sätzen verständlich für Entscheider?

Ganz allgemein kann man sagen, dass ein DWH ein zentraler Datenspeicher im Unternehmen ist, der verschiedene Datenquellen vereinheitlicht und bereinigt zusammenbringt. Durch diese zentrale Rolle müssen Schnittstellen in die vielfältigen Softwarelösungen eines Unternehmens bereitgestellt werden, wobei sich die Fokussierung auf Industriestandards anbietet. Im Datenbankumfeld sind beispielsweise SQL, ODBC und JDBC aber immer mehr auch XML und JSON zu nennen.

In der Vergangenheit wurden DWHs primär zur Verarbeitung der sog. strukturierten Daten genutzt und für semi- oder unstrukturierte Daten wurde andere Konzepte wie beispielsweise Data Lakes eingesetzt. Diese Grenze verschwimmt nun allerdings vermehrt und man möchte idealerweise strukturierte und semi-strukturierte Daten in einem System verarbeiten.

Ein derartig zentraler Datenbestand ermöglicht es Unternehmen alle Geschäftsprozesse im Detail zu verstehen und entsprechend auch Erkenntnisse zur Optimierung zu gewinnen.

Data Science Blog: DWH erfolgt traditionell on-premise. Sie stehen für das DWH in der Cloud. Wo liegen die Vorteile gegenüber der traditionellen Variante?

Cloud Services zu nutzen ist ein breiter Trend und setzt sich nun auch verstärkt im DHW Bereich fort. Dies hat gute Gründe. Sehr oft werden beispielsweise Kosteneinsparpotentiale genannt. Dies ist dadurch möglich, dass man Ressourcen bedarfsgerecht dimensionieren kann und bei passender Architektur nur das bezahlen muss, was man letztlich auch genutzt hat. Kommerziell machbar ist das durch Ressourcenteilung. In einem Cloud-Rechenzentrum werden Rechner geteilt eingesetzt und zwar immer dort, wo sie gerade benötigt werden. Hierdurch werden Leerlaufzeiten vermieden und die Nutzung effizienter.

Aber auch die Skalierbarkeit spielt eine Rolle. Manche Ressourcen werden in der Cloud komplett bedarfsgerecht zur Verfügung gestellt. Beispielsweise Storage. Wenn ich viel benötige, kann ich viel nutzen – und zwar sofort. Praktisch relevante Grenzen existieren nicht. Auch die Skalierung von Rechenleistung ist ein wichtiger Aspekt und hierbei nicht nur nach oben sondern auch nach unten. Ich möchte idealerweise immer genau so viel Leistung bekommen, wie ich gerade benötige. Geschwindigkeit ist nicht mehr limitiert durch die Hardware, die ich im Hause habe. Wenn ich viel Leistung benötige, möchte ich diese auch abrufen können und da ich anschließend wieder kleiner skalieren kann, kann ich mir in intensiven Zeiten auch mehr Ressourcen leisten.

Auch der Aspekt der Agilität wird immer wieder genannt. Cloud-Services stehen mehr oder weniger auf Knopfdruck zur Verfügung. Möchte man eine neue Software im eigenen Rechenzentrum in Betrieb nehmen lassen oder Änderungen an der Konfiguration durchführen, so sind oft langwierige Prozesse erforderlich. Gerade in der schnelllebigen Zeit ist das ein nicht zu unterschätzender Aspekt.

Aber natürlich bringt Cloud auch Risiken und Herausforderungen mit sich, mit denen man sich auseinander setzen muss. So vertraut man seine Daten einem Dienstleister an. Daher muss sichergestellt sein, dass die Daten auch verschlüsselt und vor Zugriffen des Dienstleisters oder anderer unberechtigter Personen geschützt sind. Idealerweise kann der Dienstleister dies garantieren und die Sicherheit des Dienstes durch entsprechende unabhängige Zertifizierungen belegen.

Data Science Blog: Wieso und in welcher Hinsicht unterscheidet sich die Datenbankarchitektur für Clouddatenbanken von on-premise DBs?

Ein großer Vorteil der Cloud ist die elastische Skalierung von Ressourcen. Damit dieser Aspekt aber bei Datenbanken zum Tragen kommt, ist eine andersartige Architektur erforderlich. Klassische Datenbank haben eine recht starre Zuordnung von Daten und Rechenkapazitäten. Möchte man zusätzliche Recheneinheiten nutzen, so muss die Datenorganisation verändert werden, was insbesondere bei großen Datenvolumina nicht effizient ist. Snowflake setzt daher auf eine spezielle Architektur, die konkret für die Möglichkeiten in der Cloud entwickelt wurde. Kernidee ist die Trennung von Storage und Compute, also von Daten und Rechnern. Hierdurch können beide Ressourcen unabhängig voneinander skaliert werden und insbesondere Rechenkapazität bedarfsgerecht genutzt werden. In Zeiten hoher Last, möchte man mehr Ressourcen nutzen, wohingegen bei niedriger Last nur kleine Recheneinheiten oder teilweise gar keine Ressourcen benötigt werden. Da man dies bei Snowflake sekundengenau bezahlt, erkennt man schnell, die Attraktivität dieses Ansatzes. Wenn viel Leistung erforderlich ist, kann ich diese sehr schnell hinzufügen, für diesen Zeitraum bezahle ich das dann auch, aber im Mittel komme ich mit deutlich weniger Ressourcen aus und spare bares Geld.

Außerdem kann man durch die Trennung von Storage und Compute auch belieb Nutzergruppen auf dedizierte Recheneinheiten verteilen und sie somit unabhängig voneinander machen. Der Data Scientist beispielsweise erhält sein eigenes Cluster und beeinträchtigt keinen anderen Nutzer im Unternehmen. Dass die parallele Nutzung unterschiedlicher Cluster auf den gleichen Daten nicht zu Konflikten führt, regelt ein übergreifendes Transaktionsmanagement. Der Data Scientist kann also ein Cluster verwenden, dass für seine Bedürfnisse dimensioniert ist, andere Nutzergruppen erhalten eigene Systeme, die wiederum an deren Erfordernisse angepasst sind. Und aktiv muss ein Cluster nur sein, wenn die jeweilige Nutzergruppe ihr System gerade benötigt.

Data Science Blog: Wodurch grenzt sich Snowflake von anderen Cloud-Services wie von Microsoft, Amazon und Google ab?

Zunächst muss fest gehalten werden, dass Snowflake ein Dienst auf Cloud-Plattformen wie AWS oder MS Azure ist. Es handelt sich also eher um eine Partnerschaft zwischen Snowflake und den Betreibern dieser Plattformen. In einzelnen Bereichen gibt es aber tatsächlich auch Angebote der Plattformbetreiber die mit dem Leistungsangebot von Snowflake im Wettbewerb stehen. Hier gilt es, die eigenen Anforderungen genau zu definieren und die jeweilige Architektur damit abzugleichen. Neben reiner Funktionalität und Performance sollte man gerade Aspekte wie Elastizität und Nebenläufigkeit im Blick haben.

Data Science Blog: Für die erfahrenden Data Engineers, die dieses Interview lesen: Bitte hier nun einen kleinen Pitch für Snowflake!

Ich fasse mich kurz: Snowflake ist das DWH für die Cloud. Die gesamte Architektur wurde für die Cloud entwickelt, mit Snowflake kann man die vielfältigen Vorteile des Cloud Computings fürs DWH optimal nutzbar machen – und das für semi-strukturierte Daten genauso wie für klassische strukturierte Daten. Wer es nicht glaubt, kann es unkompliziert und kostenfrei ausprobieren: https://trial.snowflake.com/

Der Einsatz von Data Warehousing in der Cloud und von Künstlicher Intelligenz zur Auswertung von Geschäfts- oder Maschinendaten ist auch das Leit-Thema der zweitägigen Data Leader Days 2018 in Berlin. Am 14. November 2018 sprechen renommierte Data Leader über Anwendungsfälle, Erfolge und Chancen mit Geschäfts- und Finanzdaten. Der 15. November 2018 konzentriert sich auf Automotive- und Maschinendaten mit hochrangigen Anwendern aus der produzierenden Industrie und der Automobilzuliefererindustrie. Seien Sie dabei und nutzen Sie die Chance, sich mit führenden KI-Anwendern auszutauschen.

Interview mit Daniel Heß von der IAV

Interview mit Daniel Heß von der IAV GmbH in Berlin. Daniel Hess ist Head of Department Software & Algorithms bei der IAV und wird am zweiten Tag der Data Leader Days 2018 zu einem besonders innovativen Thema in der Automobilindustrie referieren: „Der digitale Autodoktor, von den Symptomen zur Ursache“.

1. Herr Heß, womit genau befassen Sie sich bei IAV? Und welche Rolle spielt Data Science dabei?

Wir entwickeln Steuergerätesoftware und –systeme für die Automobilindustrie und industrielle Anwendungen wie Windkraft und Bohrtechnik.

Wir nutzen Data Science auf vielfältige Weise. Schwerpunkt ist natürlich – unserer Herkunft entsprechend – die Modellierung physikalisch-chemischer Prozesse in Motoren und Abgasanlagen. Hier haben wir in der Vergangenheit schon so viele Messdaten aus unseren Entwicklungsprojekten aufgezeichnet, dass sie von Hand nicht mehr auszuwerten waren. Darum sind bei uns viele Algorithmen zum Auffinden von Events in großen Datenmengen und zur Berechnung empirischer Modelle entstanden. Heute wenden wir zusätzlich auch Methoden an, die man der „Künstlichen Intelligenz“ zuordnen würde, z. B. Random Forest Klassifikatoren oder Neuronale Netze.

2. Stichwort: momentane Herausforderungen. Welche Anwendungsfälle und Ideen beschäftigen Sie im Moment konkret? 

Ein sehr aktuelles Thema ist die Erkennung von Fehlern in der Abgasanlage und der Hinweis auf die fehlerhafte Komponente. Die Abgasreinigung von Verbrennungsmotoren funktioniert heute nur noch im komplexen Zusammenspiel verschiedener Komponenten: Katalysatoren, Sensoren, Steller, Reduktionsmedien wie AdBlue etc. Salopp gesagt: Ein moderner Pkw ist ein kleines Chemiewerk, das spazieren fährt und dafür sorgt, dass hinten möglichst saubere Luft herauskommt. Kleine Fehler bei Bauteilen – etwa durch Alterung oder Verschleiß – haben großen Einfluss auf die Güte der Abgasreinigung und müssen deshalb sofort erkannt werden. Natürlich will man beim Werkstattaufenthalt nicht die gesamte Anlage tauschen, sondern nur das fehlerhafte Bauteil.

3. Und wohin geht die Reise bei Ihren Themen?

Heute arbeiten wir „offline“ – das heißt mit Daten, die irgendwann einmal bei einem Fahr- oder Prüfstandsversuch aufgezeichnet wurden. Sie stammen üblicherweise von einer sehr begrenzten Zahl von Versuchsfahrzeugen, die sehr teuer und entsprechend rar sind. Unsere Ergebnisse und Algorithmen werden dann im Anschluss recht statisch und fest in die Serienfahrzeuge einprogrammiert. In Zukunft können wir uns natürlich vorstellen, einige Strategien auch im Fahrbetrieb lernen zu lassen. Man könnte zum Beispiel die Werte aus verschiedenen Fahrzeugen miteinander vergleichen, um zu sehen, was normal ist und damit eine höhere Robustheit für Diagnosen erzielen. Heute ist das noch nicht möglich, denn die wenigsten Autos sind ununterbrochen online. Außerdem wären die Datenmengen so groß, dass sie die heute übliche Bandbreiten und Speicherkapazitäten sprengen würden.

4. Unternehmen erkennen nach und nach den Wert von Daten und versuchen, Strategien für deren Nutzung zu entwickeln. Wie sehen Sie die Lage in ihrem Umfeld?

Der Wert von Daten liegt für uns heute vor allem in der Verbesserung unserer Entwicklungsprozesse und -ergebnisse. Wir können durch Datenanalysen einfach schneller und genauer sein. Unsere Datenstrategie zielt darum im Wesentlichen darauf ab, aus unseren Messdaten Wissen über Zusammenhänge in Motor und Abgasnachbehandlung zu generieren, das wir dann in Modellen anwenden können. Ziele können dabei sein: höhere Modellgüte, geringerer Aufwand bei der projektspezifischen Parametrierung der Modelle durch Machine Learning oder die Optimierung des Messprozesses, was zu weniger Messungen führen würde.

5. Die Anforderungen sind vielfältig. Wie schaffen Sie es, dass sich ihre Teams den unterschiedlichen Aufgaben in den jeweiligen Branchen stellen können?

Neben den Data Scientists binden wir natürlich auch immer Fachexperten ein, die ihr System (zum Beispiel Motor oder Katalysator) kennen wie ihre sprichwörtliche Westentasche. Zusätzlich implementieren unsere Softwareentwickler die Ideen in robusten serientauglichen Code. Durch diese interdisziplinäre Zusammenarbeit entstehen viele neue Ideen und am Ende gute Lösungen.

6. Welche Rolle spielen Tools und Methoden dabei?

Wir setzen selbstverständlich Standardtools wie Matlab/Simulink und vor allem auch Python ein – letzteres bietet uns vielfältige Möglichkeiten und zahlreiche Libraries zu Themen wie maschinelles Lernen, Statistik und diskreter Mathematik. Hier wäre es einfach nicht sinnvoll, das Rad neu zu erfinden. Manchmal sind unsere Probleme aber doch so speziell, dass wir selbst etwas entwickeln müssen. Dabei liegt unser Fokus immer darauf, wiederkehrende Routineaufgaben zu automatisieren. Gerade in der Datenbereitstellung und der explorativen Analyse können uns Tools eine Menge Arbeit abnehmen. Dafür haben wir mit „IAV Mara“ auch ein eigenes Werkzeug entwickelt, das wir als Produkt vertreiben.

Der Einsatz von Künstlicher Intelligenz zur Auswertung von Geschäfts- oder Maschinendaten ist das Leit-Thema der zweitägigen Data Leader Days 2018 in Berlin. Am 14. November 2018 sprechen renommierte Data Leader über Anwendungsfälle, Erfolge und Chancen mit Geschäfts- und Finanzdaten. Der 15. November 2018 konzentriert sich auf Automotive- und Maschinendaten mit hochrangigen Anwendern aus der produzierenden Industrie und der Automobilzuliefererindustrie. Seien Sie dabei und nutzen Sie die Chance, sich mit führenden KI-Anwendern auszutauschen.

NetDescribe ist Sponsor der Data Leader Days 2018 in Berlin

Wir begrüßen NetDescribe als Sponsor für die Data Leader Days 2018

Die Data Leader Days am 14./15.11.2018 im Berliner Spreespeicher sind das führende Entscheider-Event, das sich mit den Möglichkeiten und Lösungen rund um die Digitalisierung, Big Data und Industrie 4.0 beschäftigt. Vor allem die hochkarätigen Referenten – die Spitze der deutschen Digitalwirtschaft – ziehen dabei Teilnehmer aus der ganzen DACH-Region an, um neue Kontakte zu knüpfen und wichtige Impulse für die eigene Weiterentwicklung zu erhalten.

NetDescribe (www.netdescribe.com) liefert mit der Aufnahme und Analyse von Maschinendaten (IT-Events) ausschlaggebende Informationen für Verantwortliche, die agile Entscheidungen im Bereich Security und IT Operations treffen müssen. Auf Basis dieser Maschinendaten schafft NetDescribe zusätzlich die Grundlage der Compliance-Nachweisbarkeit, die bei allen Aktionen gewährleistet bleiben muss.

Am zweiten Tag der Data Leader Days, dem 15. November 2018, hält Gregory Blepp, Geschäftsführer der NetDescribe GmbH, einen Vortrag über die Schaffung einer einheitlichen Datenbasis als Grundlage der Unterstützung des Management-Teams.

Zu den weiteren Speakern gehören das Who´s Who der Datenwirtschaft, u.a. Gerhard Baum (CDO, Schaeffler), Marcus Hartmann (CDO, Pro7Sat1), Dr. Joachim Schmalzl (Vorstand, Deutscher Sparkassen- und Giroverband), Dr. Christian Schlögel (CDO, KUKA), Jürgen Urbanski (VP, Airbus), Dr. Dirk Haft (Vorstand, Wittenstein), Thomas Gottschalk (Head of BASF 4.0), Dr. Helmut Linde (Global Head of Data Science, Merck), Tom Oelsner (Chief Innovation Officer, Heidelberger Druckmaschinen), Dr. Markus Rotter (Head of Network Analytics, Vodafone), Andreas Eickelkamp (CDO, FTI), Dr. Helmut Linde (Global Head of Data Science & Analytics, Merck), uvm.

IAV ist Sponsor der Data Leader Days 2018 in Berlin

Die Data Leader Days (www.dataleaderdays.com) am 14. und 15. November 2018 im Berliner Spreespeicher sind das führende Entscheider-Event, das sich mit den Möglichkeiten und Lösungen rund um die Digitalisierung, Big Data und künstlicher Intelligenz beschäftigt. Vor allem die hochkarätigen Referenten – die Spitze der deutschen Digitalwirtschaft – ziehen dabei Teilnehmer aus der ganzen DACH-Region an, um neue Kontakte zu knüpfen und wichtige Impulse für die eigene Weiterentwicklung zu erhalten.

Als einer der global führenden Engineering-Partner entwickelt IAV die Mobilität der Zukunft. Dabei bewährt sich herstellerübergreifende Engineering in Fahrzeugen auf der ganzen Welt. Mit mehr als 35 Jahren Erfahrung und einem unübertroffenen Kompetenzspektrum bringen die Mitarbeiter der IAV das Beste aus unterschiedlichsten Welten zusammen: Automotive- und IT-Welt, Hardware- und Software-Welt, Produkt- und Service-Welt.

Auftraggeber werden an über 25 IAV-Standorten mit mehr als 7.000 Mitarbeitern und einer erstklassigen technischen Ausstattung bei der Realisierung ihrer Projekte unterstützt – vom Konzept bis zur Serie, für das Ziel: bessere Mobilität.

Daniel Hess ist Head of Department Software & Algorithms bei der IAV und wird am zweiten Tag der Data Leader Days zu einem besonders innovativen Thema in der Automobilindustrie referieren: „Der digitale Autodoktor, von den Symptomen zur Ursache“.

Zu den weiteren Speakern gehören das Who´s Who der Datenwirtschaft, u.a. Gerhard Baum (CDO, Schaeffler), Marcus Hartmann (CDO, Pro7Sat1), Dr. Joachim Schmalzl (Vorstand, Deutscher Sparkassen- und Giroverband), Brian Timmeny (Airbus), Dr. Dirk Haft (Vorstand, Wittenstein), Thomas Gottschalk (Head of BASF 4.0), Dr. Helmut Linde (Global Head of Data Science, Merck), Tom Oelsner (Chief Innovation Officer, Heidelberger Druckmaschinen), Dr. Markus Rotter (Head of Network Analytics, Vodafone), Andreas Eickelkamp (CDO, FTI), Dr. Helmut Linde (Global Head of Data Science & Analytics, Merck), uvm.

Zum Event anmelden können sich Teilnehmer direkt auf Data Leader Days.

Microstrategy ist Sponsor der Data Leader Days in Berlin

Die Data Leader Days (www.dataleaderdays.com) am 14./15.11.2018 im Berliner Spreespeicher sind das führende Entscheider-Event, das sich mit den Möglichkeiten und Lösungen rund um die Digitalisierung, Big Data und Industrie 4.0 beschäftigt. Vor allem die hochkarätigen Referenten – die Spitze der deutschen Digitalwirtschaft – ziehen dabei Teilnehmer aus der ganzen DACH-Region an, um neue Kontakte zu knüpfen und wichtige Impulse für die eigene Weiterentwicklung zu erhalten

MicroStrategy, ein internationaler Anbieter von Software, mit der Unternehmen neue Geschäftsmöglichkeiten erschließen, bessere Entscheidungen treffen und messbare Ergebnisse erzielen können, wird als Sponsor mit dabei sein.

Marian Plum ist Experte für Business Intelligence und nutzt sein Wissen als Senior Sales Engineer bei MicroStrategy und wird am ersten Tag der Data Leader Days zu einem besonders brisanten Thema referieren: „Wo AI auf BI trifft: Alexa, Chatbots & Augmented Reality“.

Zu den Speakern gehören das Who´s Who der Datenwirtschaft, u.a. Gerhard Baum (CDO, Schaeffler), Marcus Hartmann (CDO, Pro7Sat1), Dr. Joachim Schmalzl (Vorstand, Deutscher Sparkassen- und Giroverband), Dr. Christian Schlögel (CDO, KUKA), Jürgen Urbanski (VP, Airbus), Dr. Dirk Haft (Vorstand, Wittenstein), Thomas Gottschalk (Head of BASF 4.0), Dr. Helmut Linde (Global Head of Data Science, Merck), Tom Oelsner (Chief Innovation Officer, Heidelberger Druckmaschinen), Dr. Markus Rotter (Head of Network Analytics, Vodafone), Andreas Eickelkamp (CDO, FTI), Dr. Helmut Linde (Global Head of Data Science & Analytics, Merck), uvm.

 

Zum Event anmelden können sich Teilnehmer direkt auf Data Leader Days oder via Xing.com (Klick).

Signavio ist Sponsor der Data Leader Days 2018 in Berlin

Die Data Leader Days (www.dataleaderdays.com) am 14./15.11.2018 im Berliner Spreespeicher sind das führende Entscheider-Event, das sich mit den Möglichkeiten und Lösungen rund um die Digitalisierung, Big Data und Industrie 4.0 beschäftigt. Vor allem die hochkarätigen Referenten – die Spitze der deutschen Digitalwirtschaft – ziehen dabei Teilnehmer aus der ganzen DACH-Region an, um neue Kontakte zu knüpfen und wichtige Impulse für die eigene Weiterentwicklung zu erhalten.

Signavio, ein führender Anbieter von Software für die Modellierung und Optimierung von Prozessen, wird als Sponsor mit dabei sein und zum Thema „Process Intelligence“ referieren.

Unser Sponsor Signavio ist ein Anbieter von Business Process Management Software mit Sitz in Berlin und Silicon Valley. Signavio unterstützt Unternehmen bei der Gestaltung, Überwachung und Opitmierung von Prozessen.

Christos Natsidis, Pre-Sales Consultant & Trainer für BPMN bei Signavio, präsentiert am ersten Tag der Data Leader Days 2018 die Möglichkeiten mit Process Intelligence, eine Datenanalyse zur Rekonstruktion von Ist-Prozessen und zur Analyse in Form des Process Mining.

Verpassen Sie diesen und weitere spannende Vorträge nicht und melden Sie sich jetzt zur Teilnahme an den Data Leader Days 2018 an. Anmelden können Sie sich über wenige Schritte über diesen Link via doo.net oder über diesen Link via Xing.de.

Zu den weiteren Speakern gehören das Who´s Who der Datenwirtschaft, u.a. Gerhard Baum (CDO, Schaeffler), Marcus Hartmann (CDO, Pro7Sat1), Dr. Joachim Schmalzl (Vorstand, Deutscher Sparkassen- und Giroverband), Dr. Christian Schlögel (CDO, KUKA), Jürgen Urbanski (VP, Airbus), Dr. Dirk Haft (Vorstand, Wittenstein), Thomas Gottschalk (Head of BASF 4.0), Dr. Helmut Linde (Global Head of Data Science, Merck), Tom Oelsner (Chief Innovation Officer, Heidelberger Druckmaschinen), Dr. Markus Rotter (Head of Network Analytics, Vodafone), Andreas Eickelkamp (CDO, FTI), Dr. Helmut Linde (Global Head of Data Science & Analytics, Merck), uvm.

Neo4J ist Sponsor der Data Leader Days 2018 in Berlin

Wir begrüßen neo4j als Sponsor für die Data Leader Days 2018

Die Data Leader Days am 14./15.11.2018 im Berliner Spreespeicher sind das führende Entscheider-Event, das sich mit den Möglichkeiten und Lösungen rund um die Digitalisierung, Big Data und Industrie 4.0 beschäftigt. Vor allem die hochkarätigen Referenten – die Spitze der deutschen Digitalwirtschaft – ziehen dabei Teilnehmer aus der ganzen DACH-Region an, um neue Kontakte zu knüpfen und wichtige Impulse für die eigene Weiterentwicklung zu erhalten.

Unser Sponsor Neo4J unterstützt mit seiner Graph-Plattform Unternehmen dabei, vernetzte Daten in vollem Umfang zu nutzen und die komplexen Verknüpfungen zwischen Personen, Prozessen und Systemen zu entschlüsseln. Gemeinsam mit der Daimler AG, den beiden Mitarbeitern Frau Julia Bengel und Herrn Jochen Linkohr, wird Neo4J in einem Praxisvortrag über das Committee Cockpit referieren.

 

Julia Bengel Jochen Linkohr

Zu den weiteren Speakern gehören das Who´s Who der Datenwirtschaft, u.a. Gerhard Baum (CDO, Schaeffler), Marcus Hartmann (CDO, Pro7Sat1), Dr. Joachim Schmalzl (Vorstand, Deutscher Sparkassen- und Giroverband), Dr. Christian Schlögel (CDO, KUKA), Jürgen Urbanski (VP, Airbus), Dr. Dirk Haft (Vorstand, Wittenstein), Thomas Gottschalk (Head of BASF 4.0), Dr. Helmut Linde (Global Head of Data Science, Merck), Tom Oelsner (Chief Innovation Officer, Heidelberger Druckmaschinen), Dr. Markus Rotter (Head of Network Analytics, Vodafone), Andreas Eickelkamp (CDO, FTI), Dr. Helmut Linde (Global Head of Data Science & Analytics, Merck), uvm.

DATANOMIQ organisiert die Data Leader Days 2018

Besuchen Sie das Entscheider-Event in Berlin am 14./15. November 2018

Berlin, 04. Mai 2018: Die Data Leader Days bringen die Spitzenmanager der Datenwirtschaft mit Führungskräften sowie allen Interessenten zu Digitalisierung, Big Data und Künstlicher Intelligenz zusammen. Bekannte Speaker von namhaften Unternehmen geben exklusive Einblicke in die Welt der datengetriebenen Anwendungsfälle und Möglichkeiten. Aufgrund der enorm wachsenden Teilnehmerzahlen wird die mittlerweile zum dritten Mal stattfindende Konferenz in diesem Jahr auf zwei Tage mit unterschiedlichen Schwerpunkten erweitert:

  • 14. November 2018: Commercial & Finance Data
  • 15. November 2018: Industrial & Automotive Data

Mit dabei sind u.a. Gerhard Baum (CDO, Schaeffler), Andreas Eickelkamp (CDO, FTI), Jürgen Urbanski (VP, Airbus), Dr. Dirk Haft (Vorstand, Wittenstein), Marcus Hartmann (CDO, Pro7Sat1), Thomas Gottschalk (Head of BASF 4.0 Smart Innovation & Technologies), Dr. Christian Schlögel (CDO, KUKA), Dr. Helmut Linde (Global Head of Data Science, Merck), Tom Oelsner (Chief Innovation Officer, Heidelberger Druckmaschinen), Dr. Markus Rotter (Head of Network Analytics, Vodafone), Dr. Joachim Schmalzl (Vorstand, Deutscher Sparkassen- und Giroverband), uvm.

Lernen Sie von den Data Leadern, lassen Sie sich von realen Use Cases und Erfahrungen inspirieren, bauen Sie Kontakte zu hochrangigen Entscheidern auf, initiieren Sie Partnerschaften und orientieren Sie sich im dynamischen Markt für neue Daten-Technologien.

DATANOMIQ (www.datanomiq.de) ist Veranstalter der Data Leader Days und stellt mit Chief Data Scientist Benjamin Aunkofer einen ausgewiesenen Spezialisten mit einem spannenden Vortrag.

Interesse an den Data Leader Days 2017 teilzunehmen? Weitere Informationen zum Programm und Anmeldung unter www.dataleaderdays.com.

Über DATANOMIQ

DATANOMIQ ist der herstellerunabhängige Beratungs- und Service-Partner für Business Analytics, Data Science und Data Labs. Wir erschließen die vielfältigen Möglichkeiten durch Big Data und künstliche Intelligenz erstmalig in allen Bereichen der Wertschöpfungskette. DATANOMIQ verfügt über Praxiserfahrungen aus einer Vielzahl von Projekten im Kontext von BI, Big Data oder Data Science. Der Zugang zur Spitze der deutschen Digitalwirtschaft und Domänenwissen in ergänzenden Themen wie Datensicherheit und Datenschutz verschaffen dem Team eine einzigartige Marktposition.

Kontakt

DATANOMIQ GmbH
Next Level Office
Franklinstraße 11
10587 Berlin