Interview: Daten – Chancen und Herausforderungen für eventim

Fred Türling ist Senior Vice President Information Science bei der CTS Eventim AG. Schwerpunkte seiner 20-jährigen analytischen Arbeit liegen in den Fachgebieten Social Media und Web Analytics, Targeting und Kampagnen Management, Business Intelligence und Data Warehousing für die Branchen Medien, Handel sowie Internet- und Telekommunikations-Services. Zuvor war Türling in leitenden Positionen bei United Internet Media, SHS VIVEON, AOL, Otto und Siemens tätig.

 

Insbesondere Geschäftsmodelle mit vielen Teilnehmern, wie das Ticketing im Live Entertainment, gelten als besonders potent hinsichtlich der Datennutzung. Können Sie das bestätigen?

Eventim verkauft pro Jahr über 250 Millionen Eintrittskarten zu 850.000 Events in 21 Märkten. Wir nutzen unseren Datenschatz zum einen für die personalisierte Ansprache unserer B2C Kunden, insbesondere in der Empfehlung relevanter Events. Zum anderen testen wir die Datennutzung auch in der Event-Planung und -Advertisment für unser Promoter-Netzwerk EVENTIM LIVE, das mehr als 25 Veranstalter umfasst.

In Deutschland wird genauer auf die Speicherung von Daten geschaut und auch sehen die Menschen hierzulande die Speicherung ihrer Daten kritischer als in anderen Ländern. Stört diese Tatsache Sie bei der Geschäftsentwicklung?
Mit der DSGVO und der EU-Privacy Verordnung hat der Gesetzgeber klare Rahmenbedingungen geschaffen, um für den Verbraucher eine hohe Transparenz und Kontrolle über Datennutzung zu etablieren. Richtig angewandt behindern diese die Datennutzung für Unternehmen nicht, insbesondere, wenn der Kunde den Mehrwert der darauf aufsetzenden Services erklärt bekommt.

Bei welchen kaufmännischen Herausforderungen wird Ihnen Data Science und KI helfen können?
Wie beschrieben sehen wir attraktive Nutzungsmöglichkeiten im Marketing und im Produkt Management – erfolgreiche Use Cases müssen aber in der Regel solide entwickelt, getestet und vielfach in mehreren Stufen optimiert werden.

Stand heute: Was sind Ihre Top-Anwendungsfälle für Predictive Analytics? Welche Methoden und Technologien nutzen Sie dafür?

Für unsere Recommendation Engine nutzen wir eine Überlagerung mehrerer algorithmischer Ansätze u.a. z.B. Random Forest – wir testen aber regelmäßig weitere Modelling Verfahren. In einigen Scoring Aufgaben haben wir auch recht einfache logistische Regressionen im Einsatz.

 


Fred Türling präsentiert am 13. November 2019, dem ersten Tag der Data Leader Days 2019, über „Event Recommendation in der Customer Journey zum Live Entertainment“.

Tickets für die Konferenz finden Sie auf der offiziellen Startseite, unter www.dataleaderdays.com.

Interview: Data Culture eats Data Strategy for breakfast

Interview mit Herrn Dr. Stefan Kühn von TOM TAILOR

Dr. Stefan Kühn ist Head of Data & Intelligence bei der TOM TAILOR Group und beschäftigt sich seit vielen Jahren mit Data Science, Machine Learning und AI. Nach der Promotion in angewandter Mathematik am Max-Planck-Institut für Mathematik in Leipzig war er in verschiedenen Fach- und Führungspositionen für die codecentric AG, Zalando und XING tätig.

 

Herr Dr. Kühn, was hat Ihre Leidenschaft für Daten geweckt und was hat Sie dazu bewegt diesen Job auszuüben?

Am Anfang stand sicherlich die Möglichkeit, komplexe Algorithmen auf echte Daten anwenden und dadurch relevante Informationen gewinnen und echte Probleme lösen zu können, die auf klassischem Wege nicht oder nicht gut gelöst werden konnten. Die Möglichkeiten der etablierten und auch neueren Machine- und Deep-Learning-Verfahren, eine Fragestellung auf intelligente Art und Weise zu modellieren, zu strukturieren und dann schrittweise zu lösen, sind aus Sicht eines Wissenschaftlers einfach faszinierend. Doch um tatsächlich in der echten Welt etwas zu verändern, reichen Prototypen nicht aus. Das Productionizing intelligenter Algorithmen ist eine Teamaufgabe, und die meisten Firmen sind ja bereits mit der Digitalisierung mehr als genügend gefordert, sodass in den seltensten Fällen eine tragfähige Data Strategy existiert. Und so bin ich über die fachliche Faszination der Algorithmen zur deutlich schwierigeren und breiteren Aufgabe der organisatorischen Entwicklung und Umsetzung einer guten Data Strategy gekommen. Aber Vorsicht, Data Culture eats Data Strategy for breakfast, deswegen darf man den nötigen Kulturwandel niemals außer Acht lassen.

 

Gibt es eine Datenstrategie in Ihrer Firma, um Daten in einen betriebswirtschaftlichen Mehrwert zu verwandeln? Welche Abteilungen werden dabei mit einbezogen?

Ja. Ohne nachhaltige Datenstrategie würde die Arbeit meiner Abteilung gar keinen nachhaltigen Einfluss auf Tom Tailor nehmen können. Unser Ansatz sieht vor, nach und nach und vor allem möglichst früh alle Abteilungen mit einzuziehen. Natürlich sind einige Abteilungen „näher dran“, wie etwa der bereits sehr gut aufgestellte E-Commerce-Bereich, aber auch alle anderen Abteilungen – Einzel- und Großhandel, aber auch unser Einkauf und natürlich Abteilungen aus dem Operations-Bereich wie unser Supply Chain Team können von unserer Zuarbeit profitieren, genauso wie das Data&Intelligence-Team durch Kooperation mit den Fachabteilungen nur gewinnen kann. In einem ersten Schritt entwickeln wir eine zentrale Datenplattform, über die dann im zweiten Schritt maßgeschneiderte Datenprodukte und Data Services für alle Stakeholder bereitgestellt werden. Wir arbeiten hierbei mit einem zentralen Expertenteam, welches sehr eng in die fachlichen Abläufe eingebunden ist über direkt in den Fachabteilungen integrierte Datenexperten.

 

Artificial Intelligence (AI) birgt großes Potential, aber nur wenn der User sich auch die Ergebnisse von AI zunutze macht und diese umsetzt. Welche Hemmnisse haben interne User Ihrer Meinung nach und wie versuchen Sie diese zu beseitigen?

Bei uns ist die interne Akzeptanz für Datenprodukte bereits sehr hoch, da in vielen Bereichen seit langem mit Daten gearbeitet wird. Die größten Herausforderungen sehen wir momentan in der Integration der heterogenen Datenquellen und der anschließenden Validierung der Daten und der darauf basierenden Datenprodukte, im einfachsten Falle etwa einem Standard-Report. Hier müssen natürlich zunächst alle bisherigen Ergebnisse reproduziert werden können, damit wir den nächsten Schritt gehen und in die Zukunft schauen können – etwa mit Langzeit-Forecastings und selbstlernenden Systemen. Die Akzeptanz der von uns eingesetzten neuen Tools ist dagegen überhaupt kein Problem, da diese Tools in Bezug auf Usability und Self-Service einfach sehr gut und intuitiv nutzbar sind, so dass wir mit sehr geringem Schulungsaufwand bereits eine sehr hohe Userakzeptanz erreichen.

 

Welche Algorithmen und Tools verwenden Sie für Ihre Anwendungsfälle?

Unser Tooling würde ich in verschiedene Bereiche aufteilen. Als Visualisierungs- und Self-Service-Tool für die Fachabteilungen setzen wir Tableau ein – dies ist vor allem in Hinblick auf die Bereitstellung von Daten und Services und die Akzeptanz der Fachbereiche unser wichtigstes Tool. Die von uns genutzten grundlegenden Infrastrukturkomponenten liefert die AWS  – aus Datensicht wären das im Wesentlichen S3, Redshift, EC2, EMR etc. Für das Data Engineering und Processing verwenden wir Python, Scala und Spark, je nach Use Case. Im Machine-Learning-Bereich verwenden wir unter anderem Jupyter Hub, wo die Data Scientists Prototypen in R- oder Python-Notebooks entwickeln und neue Ideen testen können. Die Algorithmen sind sehr unterschiedlich, wir verwenden Forecasting-Algorithmen wie prophet, aber auch relativ einfach a-priori-Algorithmen oder CLV-Modelle. Eines meiner Lieblingsgebiete sind z.B. Clustering-Verfahren bzw. Unsupervised Learning generell. 

 

Es gibt immer mehr Studiengänge zur Erlangung eines Hochschulabschlusses des Data Scientist. Wie beurteilen Sie die Qualität der Ausbildung junger Absolventen?

Das lässt sich meiner Meinung nach so pauschal gar nicht beantworten. Ich bin mir auch nicht so sicher, ob ein Master in Data Science wirklich einem Master in Bioinformatik, Physik oder Mathematik vorzuziehen ist. In meinen Augen fehlt vielen Data Scientists, die mit „nacktem“ Methodenwissen mit einem Master in Data Science von der Uni kommen, die Erfahrung mit einer Problemdomäne, einem Anwendungsfeld in der echten Welt. Die geschickte Modellierung der Vorgänge in der echten Welt und die intelligente Auswertung der Daten in Bezug auf dieses Modell sind in meinen Augen die beiden Kernkompetenzen, die das Berufsfeld Data Science ausmachen. Die reine Anwendung von vorinstallierten Algorithmen auf vorstrukturierte Daten ohne Verständnis der diese Daten generierenden Prozesse und der Evolution der Algorithmen ist in meinen Augen nicht zielführend, lässt sich allerdings relativ leicht lehren und prüfen.


Dr. Stefan Kühn präsentiert am 13. November 2019, dem ersten Tag der Data Leader Days 2019, über „ Talk Data to me – from Data Science to Business Science“.

Tickets für die Konferenz finden Sie auf der offiziellen Startseite, unter www.dataleaderdays.com.