Aus dem Unterricht des CAS AI Management mit Francesca Vitalini und Kevin Kuhn berichtet André Kovacs:

Daten und Pizzen

Value Creation Analogy - like good tomatos for a great pizzas, high quality datas are for great predictions

From good tomatos to great pizzas

Value Creation oder weshalb nur gute Tomaten eine gute Pizza ergeben. Ja, diese Vorlesung versprach spannend zu werden.

COVID19 bedingt, trafen wir uns am 24.04.2020 im virtuellen Raum der HWZ zu vielversprechenden Vorlesungen in den Themen “Value Creation” und “Agile Development”.

Kevin Kuhn ist Managing Partner der Jaywalker Digital AG mit Sitz in Luzern. Ein Unternehmen, dass sich seit 2015 mit Artificial Intelligence und Machine Learning beschäftigt.

Wenn also die Tomaten faul sind, kann das einen Einfluss auf das fertige Produkt, auf die Pizza, haben. Diese gelungene Analogie zur Datenqualität (Tomaten) und der Prediction (Pizza) verankerte blitzartig die Tatsache, dass die Qualität der Daten eminent wichtig ist.

Wir sind heute an einem Punkt, wo gute Performance und viel Datenspeicher zu vernünftigen Preisen eingekauft werden können. Die Verabreitung grosser Datenmengen gegenüber früher, ist heute eine messbar einfachere Angelegenheit. Und letztlich benötigen wir nur noch Daten. Und am Besten viele und in guter Qualität.

“Unsere Begeisterung liegt darin, aus Daten Innovationen und Wertschöpfung für unsere Partner zu generieren.” 
Zitat: Jaywalker Digital AG

Value Creation – wir brauchen Daten

Daten kommen heute von Kunden, aus Katalogen und Produktdatenbanken. Es sind Transaktionsdaten und in zweiter Ordnung Tracking-, Sensor, Open- und letztlich Textdaten.
Wir können dabei auf Google Dataset Search, opendata.swiss oder bspw. kaggle (welche im Übrigen die weltweit grösste Data Science Plattform ist) zugreifen.

Wir haben somit den Zugriff auf eine enorme Menge an Daten. Welche allerdings zu 80% unstrukturiert sind oder oft als Bilddaten bestehen – einer Sammlung von Farbwerten und Pixeln.
Kevin lässt hierbei die rosarote Bille fallen – nur für den Moment. Datensammlungen werden bereits heute durch Datenanalysen ab der “Stange”, wir er sagt, aufbereitet. Um daraus bspw. das Einkaufsverhalten von Kunden zu destillieren.

KI – was bist Du – was tust Du

Und dann setzen wir die rosarote Brille wieder – nicht um zu träumen, sondern nun den gemäss Kevin fancy stuff zu machen. Es gibt auch Datenanalysen jenseits “ab der Stange”.

Wir wäre es mit einem Tool, das, kaum ist der Kühlschrank offen, die darin befindlichen Lebensmittel exakt erkennt, resp. bestimmt – und zwar von jeder Blickrichtung.

Oder etwas für die SBB, die bislang mit enormem Aufwand, ihre Fahrleitungsstörungen zu finden versuchte. Lösung: Eine Kamera die Kilometer lang mit einem Zug übers SBB-Netz fährt und dabei stets die Fahrleitungen im “Blick” behält. Dabei werden die in ihrer Art typischen Fahrleitungsstörungen trainiert um letztlich bedeutend schneller typische Störungsbilder zu erkennen.

Im Wesentlichen sind hier zwei Elemente relevant: einerseits die Value Creation (gute Qualität = gutes Ergebnis) und anderseits die KI (künstliche Intelligenz).

increase the quality of your data and you'll do it as well with the value of the result - KI just use the quality of the data you'll give'em

Deep Learning and recognition

Künstliche Intelligenz (engl. AI), für welche es bislang keine offiziell vereinbarte Definition gibt.
Was ist KI und was nicht? Dies lässt sich ggf. anhand von ein, zwei simplen Beispielen grob erläutern.

Beispielsweise ist die Addition von Zahlen in einer Exceltabelle keine KI. Fest definierte mathematische Rechenoperationen erledigen diese Arbeit mühelos. In diesem Beispiel wäre letzlich das Ergebis also nur von der Value Creation abhängig.

Bei einem Musikempfehlungs-System wie Spotify ist sehr wohl eine KI im Hintergrund. Sie gibt dem Hörer Musikempfehlungen aufgrund seines Hörverhaltens.

KI – oder AI (Artificial Intelligence) im englischen Sprachgebrauch, ist in ein Teil der Computer Science. In der KI wiederum sind Machine Learning (ML) und in ML, Deep Learning ein Teil.
Wir haben nun die Rechnersysteme, die Vielzahl an Daten und das Werkzeug der KI. Zum vollständigen Rezept fehlt allerdings noch der Bereich der Data Scientists.

AI ist just the tool to analyse data. But it is not the lead for good quality of data - value creation ist still a big part of data scientists

Parts of AI

Data Scientists verantworten nicht die Datenstrategie

Sie werden sozusagen auf die Daten losgelassen. Diese in unterschiedlicher Art und Weise zu schachteln, gegenüber zustellen, mit Algorithmen zu beleben um Dinge zu erkennen, Vorhersagen machen zu können.
Sie werden jedoch nicht Daten beschaffen und sie kümmern sich auch nicht um die Datenspeicherung oder die Datenstrategie. Dafür gibt es Data Engineers.

Ein Wort noch zur Datenstrategie. Wert hat in seiner Firma eine solche Datenstrategie? Vermutlich die wenigsten. Wozu betreibt eine Firma Datenanalysen und nutzt KI?
Um u.a. Muster und Trends zu erkennen, Zukunftsprognosen erstellen zu können (Predictive Analytics), “Blind Spots” zu identifizieren oder Innovationen zu fördern.
Dies hat zudem auch einen Einfluss auf eines der letzten Elemente im Data Flow – der Business Integration/Inbetriebnahme.

Innovative Technik vs. nicht tragfähige Firmenkultur

Absichten und Ideen, Innovationen und potentiell phantastische Lösungen, scheitern auch an der Kultur des Unternehmens. An der Kommunikationskultur hinsichtlich geplanter Vorhaben, an der Informationskultur betreffend der AI-Strategie (wohin soll die Reise gehen) oder den Lösungen, ihrer Fähigkeiten und deren Anwendung.

Empfohlener massen werden gemäss Kevin daher solche Projekte im Sinne des agilen Projektvorgehens umgesetzt (z.B. Scrum).
Darauf was das agile Projektvorgehen ausmacht und welche Elemente und Varianten dazu bestehen, durften wir uns schon auf die Vorlesung von Francesca freuen. Dazu später mehr.

Die Anwendung der Theorie

Abgerundet wurde die Vorlesung durch ein Assortiment ausgewählter Bespiele von Lösungen/Aufträgen, welche durch Skywalker Digital AG umgesetzt werden konnten.

Generative Adverserial Network

GAN (Generative Adverserial Network)
Deep Learning, das aufgrund der trainierten Daten einen ebenbürtigen Output generiert – wie bspw. das erste von einer KI erstellte Gemälde eines grossen Künstlers der Vergangenheit. Sowas hielt man lange Zeit für unmöglich.
Ebenso ist es möglich mit dieser Technik komplett neue Möbelstücke durch die KI designen zu lassen – wie es IKEA bereits beauftragte und bewiesen bekam.

KI braut Bier

Deep Brew – wie wäre es mit einem von der KI “gebrauten” Bier?
Auf der Basis vieler Daten über und zu Bier, erstellte eine KI, ein komplett neues Bier-Rezept.
Diese Daten wurde hierfür von Brauereien und den Ratings der Bier Geniessenden bezogen und die KI damit “gefüttert”. Derzeit entsteht das erste, durch eine KI “gebrautes” Bier. Und mit etwas Glück, werden wir mit Kevin allenfalls auf einen Probeschluck anstossen können.

Personalisierte Reiseträume

Boa Lingua – und was Kundensegmentierungen vollbringen.
Eines der grossen Sprach-Reisen-Firmen “Boa Lingua” führte einen Wettbewerb durch. Dabei sollen die unvergesslichsten Reiseerlebnisse auf deren Webseite “erzählt” werden.
Das Textfenster wurde, nota bene, bewusst gross gewählt, damit folgender psychologische Effekt eintritt.
Man stellte fest, dass die Probanden dann tendenziell bedeuten mehr Text scheiben. Der grosse Textrahmen suggeriert sozusagen, dass die Gewinnchancen damit steigen würden.

Was aber effektiv die Absicht war, ist möglichst viel Text zu erhalten, um möglichst viel von den Leuten zu erfahren. Den, je mehr Text umso mehr Informationen und desto mehr Daten.

Das aus den Daten gewonnene Data Reporting führte letztlich zu sehr personalisierten Werbe-Postkarten.
Mit den von den Teilnehmenden verwendeten Wörtern, konnte das Online Marketing letztlich passende Keyword-Werbungen machen.
Sprich in der Sprache der Kunden und sie verstehen dich.

Zudem konnte mit all den Informationen auch ein Recommender-System erweitert werden. Recommender-Systeme gehen in der Regel nach der sogenannten Similarität vor.
Sollte mal nach Resi essen in Peru gesucht werden, wird das System mit grosser Wahrscheinlichkeit sowas wie Reis essen auf Bali vorschlagen (bspw. mal unter “Grammarly” googeln).

Das Möbelstück aus der Feder der KI

“LURVIG” – Möbel für Haustiere – oder wenn die KI Möbel entwirft.
Auch in diesem Fall wurde ein Wettbewerb gestartet – von IKEA. Mit all den eingelieferten Ideen wurde die KI trainiert, bis sie in der Lage war eigene Möbel zu entwerfen.
Auch hier spielten Recommender-Systeme eine Rolle.

Noch ein Wort zu Recommender-Systemen. Gemäss Amazon/Mc Kinsey werden rund 35% der Güter aufgrund von Empfehlungen gekauft. In der Regel benötigt man drei Arttribute: User, Item und Rating. Über ein Assessment: Data Cleaning, Key Figures, Test Set und Training Set wird dann das Recommender-Systeme geschult.

Grundsätzlich gibt es zwei Gruppen solcher Systeme: personalisierte und unpersonalisierte (siehe dazu Folien 116/117).
Erstaunlicherweise werden summarisch lediglich ca. 12 Algorithmen genutzt. Und die meisten sind offenbar frei verfügbar (GitHub).

Was sich eingangs zur Vorlesung abzeichnete, bewahrheitet sich vollständig. Kevin begeisterte durch die Vielzahl seiner Projekte, den Herangehensweisen und Fallstricke. Er liess und ein klein wenig in die Innovations-Truhe blicken. Und das alles mit einer grossen Begeisterung.
Abschliessend fasste Kevin im Sinne von Empfehlungen, seine Erfahrungen der letzten fünf Jahre in diesem Themenfeld zusammen.

Lesson Learned

  • Man solle bspw. nie die zusätzlichen Kosten vom ersten Export seiner Daten, die durch den Plattform-Betreiber entstehen, vergessen.
  • Wichtig ist auch, dass die Geschäftsleitung von Beginn an involviert ist und regelmässig über Zwischenresultate informiert wird.
  • Es gibt Konstellationen von schlechter Datenqualität, wo man selber nichts dafür kann. Obschon Value Creation zentral ist für gute Prediction – es gibt nicht die perfekte Datenqualität.
  • Big Data wird vielfach nicht für gezielte Data Science benötigt.
  • Die Daten müssen im Unternehmen den gleichen Stellenwert erhalten wie deren Finanzberichte.
  • Fördern Sie den “Data Mindset” in ihrem Unternehmen und leben Sie diesen vor.

Vielen Dank Kevin für Deine Begeisterung, die spannenden Beispiele und das Teilen Deines Erfahrungsschatzes – zumindest eines Teils.

Hinweis:
Vorhaben bei denen das Onboarding der Mitarbeitenden, der Geschäftsleitung, des Kunden ein Erfolgsfaktor ist, nutzen entsprechende Vorgehensmethoden.
Auch Kevin erwähnt in seiner Vorlesung das agile Projektvorgehen. 

Agile Development

Damit wir den Brückenschlag zwischen “Value Creation” zu “Agile” machen können, half uns Francesca mit einer bemerkenswerten Zusammenfassung dieser Art von Projektvorgehen.

Francescas (Mirai Solutions GmbH) Ziel und gleichermassen Herausforderung war, uns in rund einer einstündigen Vorlesung das Grundrüst-Zeug zu “Agile Development” zu erläutern.

Was im Wasserfall-Modell an Tasks kaskadenartig abgearbeitet wird, funktioniert im agilen Projektvorgehen in Form eines Kreislaufes. Während im ersten Fall der Task nach Abschluss definitiv fertig ist, wird er im zweiten stets mehrfach durchlaufen.
Fast Feedback, kollaboratives Arbeiten und das inkrementale Entwickeln & Ausliefern ist nur dem agilen Vorgehen vorbehalten.

Without a perfect method - value creation just will be a minor part for a great result

The circle of agile

Und je mehr Francesca zu den jeweiligen Frameworks wie: Scrum, Kanban, Lean, SAFe, etc. ausführte, umso klarer wurde es, weshalb Kevin nur diese Form des Vorgehens für seine Projekte in Betracht ziehen kann.

Agile – alles hektisch?

Agile Frameworks, die auf Kollaboration setzen und bestimmte definierte Meilensteine haben (Epic, Sprint, Definition of Ready “DoR”, Definition of Done “DoD”, etc.). Erzwingen, dass sich Teams in kurzen und regelmässigen Abständen treffen um sich über den Fortschritt, die Probleme und abgeschlossenen Arbeitspakete auszutauschen. Dies ist die einzige Variante solche Vorhaben umzusetzen.

Dieses Vorgehen ist nicht planlos – es ist bedeutend dynamischer – eben agiler – als die bspw. Modelle wie Wasserfall.
Die sich selbst organisierenden Teams, leben ebenfalls nach bestimmten planerischen Vorgaben. Und gute User Stories sind INVEST (s. dazu Folie 18).

Der Input (bspw. Backlog, also der Arbeitsvorrat) läuft in die Iterationsplanung (was mach ich wie) und letztlich zum Output. Es werden Annahmen zu Produkt- oder Element-Grössen getroffen und letztlich Retro-Workshops durchgeführt. “Was lief gut”, “Was hätte besser sein können”, “Was können wir verbessern” sind die relevanten Fragen.

Das agile Lego Haus

Damit die Theorie eine Chance hatte zu greifen, “bauten” wir sozusagen als Dessert ein Lego Haus. Die Aufgabe bestand darin, eine User-Story zum Lego Haus, dass gebaut werden soll, zu verfassen. Welche Eigenschaften sollte es haben, damit es akzeptiert würde? Oder wie sollte das Lego Haus denn überhaupt sein – aussehen?

From Epic to story - value creation to build a lego house

From Epic to story – we build a lego house

Das Ergebnis war dann letztlich sowohl ernüchtern als auch amüsant. So bauten wir Häuser mit einem Cheminée – wohlgemerkt ein Kunststoff Lego Haus! Oder aber, die Aussenmassen hätten eine unheimlich Zahl an Legesteinen bedingt. Bestimmte Häuser hatten werde Fenster noch Türen.

Francesca führte uns vor Augen, welch wertvolles Instrument und gleichermassen wie anspruchsvoll in Planung und Bemessung der Zwischenergebnisse das agile Projektvorgehen ist.

Vielen Dank für diesen spannenden und sehr gut zusammengefassten Exkurs zum Thema “Agile Development”.

Quintessenz: Ein Werkzeug, eine Methode oder ein Vorgehen können in sich noch so gut sein. Passen diese nicht zum Projekt und dessen Zielsetzungen, wird das Ergebnis Schiffbruch erleiden. Value Creation Projekte mit falschen Vorgehens-Methoden ist vermutlich gleichzusetzen mit dem Versuch einen Nagel mit einem Schreibenzieher in die Wand zu bekommen.