Big Data und Predictive Analytics für alle?

Worauf sollten Unternehmen achten, wenn sie eine Big-Data-Strategie aufsetzen? Jan Karstens, CTO von Blue Yonder, ist dieser Frage in einem Blogposting nachgegangen. Lesen Sie hier die deutsche Übersetzung!

Über den Ursprung von Big Data

Große Internet-Unternehmen wie Google, Facebook, Twitter und Yahoo bahnten Big Data den Weg. Diese Unternehmen entwickelten eigene Technologien, um mit sehr großen Datenmengen umgehen zu können. Damit verfolgten sie letztlich das Ziel, ihre Services gewinnbringend anbieten zu können. Denn die Internetdienste haben eines gemeinsam: Sie stehen den Endanwendern kostenlos zur Verfügung. Um Umsätze zu generieren, verlegten sich die  Internetunternehmen auf Targeting. Dazu werden Benutzerpräferenzen und -verhalten prognostiziert, um individuelle Angebote auszusteuern.

Es steigert den Unternehmenserfolg, Datenströme von Millionen Benutzerinteraktionen zu sammeln und und sie nach Mustern zu durchsuchen. Denn so lässt sich das Verhalten der Endanwender vorhersagen und automatisiert entscheiden, welche Werbung angezeigt wird. Auf manuelle, nicht-automatisierte Art und Weise wäre das allerdings schlicht unmöglich. Das ist einer der Gründe, weshalb wir von Blue Yonder an die Zukunft von Big Data glauben. Bereits heute gehören Big-Data-Technologien und -konzepte zum Mainstream.

Von den Gewinnern lernen

Seit diese Technologien verfügbar sind, reißt das Interesse nicht ab. Unternehmen fragen sich, womit sie ihren Erfolg beflügeln könnten. So werde ich etwa nach Hadoop gefragt oder danach, ob Blue Yonder Social-Media-Daten in Vorhersagen integriert. Doch bin ich davon überzeugt, dass es zielführendere Ansätze und Fragen gibt.

"We thought that we had the answers, it was the questions we had wrong." – Bono by hds is licensed under CC BY 2.0 "We thought that we had the answers, it was the questions we had wrong." – Bono by hds is licensed under CC BY 2.0

Welche Fragen könnten das sein? Hal Varian, Chefökonom bei Google, veröffentlichte im Jahr 2005 einen Beitrag über „computer-mediated transactions” [1]. Darin stellt er fest, dass heutzutage, „die meisten wirtschaftlichen Transaktionen mit dem Computer zu tun haben.” Während anfangs „die aufzeichnende Rolle als Motivation für den Computereinsatz im Vordergrund stand”, können die gesammelten Daten heute noch ganz anderen Zwecken dienen. Hal Varian identifiziert vier Hauptkategorien, in denen von Computern gesammelte Daten das Wirtschaftsleben erleichtern: 

  • gesteuerte Experimente – hauptsächlich A/B-Tests in Webumgebungen. Jeder Fall ist ein Experiment und wird mit Kontrollgruppen durchgeführt wie beispielsweise die Erfolgsmessung eines neuen Kassensystems
  • neue Vertragsformen – neue Vertragsformen sind möglich, weil heute Daten erfasst werden, die zuvor nicht erfasst worden sind. Diese Daten (z.B. zur Akzeptanz einer Dienstleistung oder Ware) können verwendet werden, um neue Produkte anzubieten. Zu denken wäre etwa an das Unternehmen Climate Corporation, das gerade von Monsanto aufgekauft worden ist. Climate Corporation bietet Landwirten Versicherungen an, um sich gegen die Folgen verheerender Unwetter abzusichern
  • Datengewinnung und Analyse – neue Einsichten für Wirtschaftsunternehmen. Dies können generische BI-Werkzeuge für den B2B-Sektor sein, spezifische Werkzeuge beispielsweise zur Analyse des Traffics auf einer Website, aber auch B2C-Anwendungen wie in der „Quantified Self“-Bewegung (das Sammeln von Daten über die eigenen persönlichen Aktivitäten, Schlafverhalten usw.)
  • Personalisierung und Customization – hier geht es um die Personalisierung von Inhalten, um Empfehlungen und Preise

 Die von Hal Varian definierten Kategorien sind ein sehr guter Ausgangspunkt, um sinnvolle Fragen zu Big Data und Predictive Analytics im unternehmerischen Kontext zu entwickeln. In einem ersten Schritt gilt es herauszufinden, welche „computer-mediated transactions” im Mittelpunkt der Geschäftsprozesse stehen. Enthalten sie das Potenzial für kontrollierte Experimente, neue Vertragsformen, Datenanalysen oder Personalisierung/Customization?

 Von der Imitation zur Interpretation

Wenn Sie sich diese Frage stellen, werden Sie schnell feststellen, dass nicht die technologischen Aspekte entscheidend für Sie sind. Erkennen Sie beispielsweise eine Möglichkeit, Nutzen aus kleinen, strukturierten Daten zu ziehen, bietet sich Hadoop für Ihr Unternehmen eher weniger an. Liegt das Potenzial eher in einer großen Mengen von Inhalten, die von Menschen gelesen werden können, (unstrukturierte Daten), könnte es sinnvoll sein, eine MapReduce-basierte Technologie zu wählen.

„Barcelona Guitar solo“ by David Blaikie is licensed under CC BY 2.0 „Barcelona Guitar solo“ by David Blaikie is licensed under CC BY 2.0

Oft stellen wir fest, dass Unternehmen riesige, über Jahre gesammelte Datenschätze allein deshalb brachliegenlassen, weil sie nicht in ihr technologisches Konzept passen. Wir empfehlen einen Perspektivwechsel: Konzentrieren Sie sich auf den Kern Ihrer „computer-mediated transactions”! Das können Interaktionen mit den Kunden sein, das Managen und Steuern von Mitarbeitern, das Verkaufen von Waren (online), die Lieferkettenlogistik, die Produktion von Waren oder die Effizient von Maschinen und/oder Anlagen. Höchstwahrscheinlich werden Sie die für Sie relevanten Datenquellen in den vorhandenen IT-Systemen finden. Da nur Sie und Ihre Mitarbeiter auf diese Daten zugreifen können, haben Sie dem Wettbewerb einen entscheidenden Schritt voraus.

Die Zukunft im Blick statt in den Rückspiegel zu schauen

 Transaktionsdaten erlauben Business Intellligence, wie es in Unternehmen seit Jahrzehnten durchgeführt wird. Zwar ist auch in diesem Bereich noch viel zu tun, doch selbst mit ausgefeilten Methoden geraten Unternehmen im heutigen Geschäftsumfeld mit diesen Ansätzen an ihre Grenzen. Denn der Blick auf Daten aus der Vergangenheit ruft schnell die Frage hervor, was in Zukunft geschieht. Wie würden wir entscheiden, wenn wir das heute bereits wüssten? Das genau ermöglicht Predictive Analytics. Damit generieren Sie den entscheidenden Nutzen aus (Big) Data. 

Eine Personalisierung etwa ist undenkbar, ohne das zu erwartende Verhalten der Kundin zu antizipieren. Jede Empfehlung in einem Onlineshop basiert auf Annahmen über die Präferenzen eines Besuchers. Und jedes Suchresultat, das durch eine Suchmaschine geliefert wird, ist sorgfältig an den User angepasst. Diesen Prinzipien sollten auch Transaktionen im Unternehmen gehorchen: 

  • Empfehlungen für den Vertrieb, bestimmte Kunden zu besuchen oder ausgewählte Produkte anzubieten
  • Replenishment basierend auf einer feingranular prognostizierten Nachfrage
  • Vorschläge für Call-Center-Aktivitäten abhängig vom Interesse der Kunden an einem bestimmten Angebot
  • Energy Hedging in energieintensiven Branchen basierend auf dem prognostizierten Bedarf
  • Ersatzteilbeschaffung orientiert am vorhergesagten Bedarf
  • personalisierte Versicherungsverträge basierend auf den prognostizierten persönlichen Risiken 

Die Liste kann Branche für Branche verlängert werden und alle Szenarien haben etwas gemeinsam: 

  • Sie betreffen operative Prozesse mit tausenden, Millionen oder gar Milliarden Transaktionen pro Tag
  • Sie haben das Potenzial, operative Entscheidungen (teilweise) zu automatisieren 

Wenn man jede einzelne Entscheidung optimiert, wirkt sich das direkt auf das Unternehmensergebnis aus – Umsätze steigen, Kosten sinken. Zudem hängen all diese Szenarien vom Wissen um die Zukunft ab. Denn darauf basieren verbesserte oder automatisierte Entscheidungen. Predictive Analytics ist das Schlüsselkonzept, um Entscheidungen begründet zu treffen oder zu automatisieren. Abhängig vom Umfang der Entscheidungen gibt es zur  Automatisierung keine Alternative. Das wird rasch klar, wenn man sich vorstellt, ein Suchmaschinenunternehmen würde Menschen einstellen, um Suchergebnisse zu ermitteln. Genauso befremdlich wäre es, wenn ein Online-Händler seine Produktempfehlungen manuell zusammenstellt. 

 Von Daten zu Diensten

"It's not that they can't see the solution. They can't see the problem." - G.K. Chesterton

Um eigene Szenarien umzusetzen, benötigen Sie ein Team, das Data Science, Softwareentwicklung und operative Erfahrung vereint. Es sollte eng und gerne zusammenarbeiten und sich rasch in Feedbackschleifen austauschen. Besonders komplex wird die Softwareentwicklung, wenn datengetriebene Dienstleistungen aufzubauen sind. Das kann nur funktionieren, wenn die Teammitglieder eng zusammenarbeiten. Bei Predictive-Analytics-Projekten geht es nicht nur darum, eine Software zu programmieren, die den geschäftlichen Anforderungen entspricht. Vielmehr sollte die Software ihr eigenes „Verhalten“ aus den Datenströmen ableiten, die sie verarbeitet. Mit der Zeit verändern sich nicht nur die Basis der Software-Codes, sondern auch die zugeführten Daten. Die Software wird quasi um einen selbstkonfigurierenden Teil ergänzt. Für derart komplexe Softwareumgebungen ist Know-how in Data Science gefragt.

Die Datenbasis, mit der Sie beginnen, wächst im Laufe der Zeit und entwickelt sich. In fast allen Fällen zeigt sich, dass der ursprüngliche Datenbestand unzureichend ist. Möglicherweise war die Datenqualität mangelhaft, sodass historische Daten erneut extrahiert oder bearbeitet werden müssen. Oder die Datenmenge reicht nicht aus, weshalb zusätzliche Datenquellen in Betracht gezogen werden müssen. All diese Umstände erfordern einen iterativen Ansatz.

Typische Hürden für die Entwicklung datengetriebener Services sind fehlendes Wissen darüber, wo die internen Datenquellen zu finden sind, und mangelhafte interne Unterstützung. Eine noch größere Herausforderung ist es, externe Datenquellen zu integrieren. APIs und Datendienstleistungen sind zwar reichlich vorhanden, doch Ihr Team muss prüfen und testen, ob die Daten mit den internen Daten abgeglichen werden können. Möglicherweise müssen dazu auch Verträge mit externen Lieferanten ausgehandelt werden.

Wenn ein Vorhersagemodell etabliert ist, muss es für den produktiven Einsatz vorbereitet werden. Dabei deckt eine Demonstration oder ein Prototyp nur etwa zehn Prozent der erforderlichen Vorbereitung ab. Typische Hindernisse für den Produktivbetrieb sind:

  • Unzureichende Stabilität – die Lösung funktioniert in den Labs, kann aber nicht im Produktivbetrieb eingesetzt werden
  • Mangel an Skalierbarkeit – die Lösung eignet sich gut für eine Teilmenge der Daten, skaliert aber nicht auf die realen Datenbestände
  • Mangel an Präzision – die Vorhersagen sind nicht exakt genug
  • Mangel an Vertrauen – die Endanwender akzeptieren die „Datenmagie” nicht

Blue Yonder hat eine Lösung gefunden, um all diese Unwägbarkeiten im Bereich datengetriebener Services zu umgehen.

Von den Daten zur Prognoseanwendung

Prognoseanwendungen machen Predictive Analytics und Big Data einem größeren Kreis von Anwendern zugänglich. Nur wenige Unternehmen können es sich leisten, intensiv in Predictive Analytics und Big Data zu investieren und so ihre eigenen Szenarien umzusetzen. Die Mehrheit tut besser daran, sich die Risiken eines individuellen Projektes zu ersparen.

Prognoseanalyse_de

Blue Yonder entwickelt Prognoseanwendungen mit einem handverlesenen Team aus erstklassigen Data Scientists, Fachleuten für IT-Infrastruktur mit Saas (Software as a Service)-Kenntnissen, versierten Designern für Benutzeroberflächen sowie erfahrenen Softwareentwicklern. Zusammen entwerfen und betreiben sie  Lösungen, die als Saas angeboten werden. Wir konzipieren Software für Endanwender, indem wir uns auf das fachliche Umfeld sowie die Bedürfnisse und Ziele der User konzentrieren. Wir übersetzen unsere Branchenerfahrungen in Prognoseanwendungen, die leicht zu bedienen sind, und machen diese Anwendungen einem breiten Markt zugänglich. 

Dabei bietet sich SaaS als Liefermodell an. Kunden profitieren schnell von Verbesserungen in unseren Vorhersagemodellen. Zudem können sie externe Datenquellen leicht hinzufügen, um ihre Prognoseanwendungen zu erweitern und zu optimieren. Wir betreiben die Software im Rahmen einer zuverlässigen Scale-out-Architektur für unsere Kunden. So müssen sie diese nicht selbst aufbauen und unterhalten.  

Als Services macht Blue Yonder Unternehmen weltweit Big Data und Predictive Analytics zugänglich. Mit Forward Demand haben wir gerade den ersten Baustein eines wachsenden Spektrums von Prognoseanwendungen auf den Markt gebracht. Weitere vorkonfigurierte Lösungen von Blue Yonder werden folgen.

Hinweis

[1] Computer-mediated transactions: http://people.ischool.berkeley.edu/~hal/Papers/2010/cmt.pdf

Jan Karstens, CTO,  verantwortet die Produkt- und Technologieentwicklung und damit das Herzstück unserer ”Real-Time Adaptive Enterprise Applications”. Er hat über 15 Jahre Erfahrung im Softwareengineering und in Softwarearchitektur sowie in modernen Datenbanktechnologien. Jan Karstens, CTO verantwortet die Produkt- und Technologieentwicklung und damit das Herzstück unserer ”Real-Time Adaptive Enterprise Applications”. Er hat über 15 Jahre Erfahrung im Softwareengineering und in Softwarearchitektur sowie in modernen Datenbanktechnologien.

 

Jan Karstens Jan Karstens

Jan, CTO, is responsible for product and technology development and thus for the “heart” of the Blue Yonder software. He has over 15 years of experience in software engineering and in software architecture as well as in modern database technologies.