Aus dem Unterricht des CAS Mobile Business mit Marcel Blattner berichtet Sabine Conzett:

Zu Beginn dieses spannenden Tages macht uns Marcel Blattner klar, dass es heute um “Data” gehen wird und wir getrost die Buzzwords “Big”, “Slow”, “Smart” oder “Fast” weglassen können. In diesem Sinne: “Keep calm and stop Buzzword Bullshit Bingo”.  Als “Big Data” könnte man das Volumen aller Daten bezeichnen. Also meist mehr Volumen, als man prozessieren beziehungsweise auswerten kann.

Als erstes schauen wir gleich ein Beispiel an, um zu lernen, dass die Auswertung von Daten oft ein anderes Ergebnis liefert, als die Hypothese die man zuvor aufgestellt hat. Was im Arbeitsalltag zu Konflikten führen kann, da der Mensch dazu neigt, zu denken, dass er weiss, wie sein Kunde oder sein Business funktioniert. Und auch hier ist Vorsicht geboten, denn Datenauswertungen haben auch immer einen Fehler. (Aber dazu später mehr.) Marcel erklärt uns am Beispiel der 12-App aus dem Hause Tamedia AG, wie sich Vorstellung und Realität unterscheiden können. Die Redaktion, die die 12 Artikel für die 12-App aussucht, war sicher, dass Artikel mit einem farbigen Bild besser funktionieren als solche mit einem schwarz-weiss Bild. Die Analyse ergab jedoch, dass die Farbigkeit des Bildes keine Rolle spielt. Auch ob ein Mensch oder zum Beispiel eine Landschaft gezeigt wird, scheint keinen Unterschied zu machen. Einzig, wenn mehrere Menschen gezeigt werden, wird der Artikel besser geklickt. Ebenfalls spielt es keine grosse Rolle, wer den Artikel geschrieben hat, der Inhalt ist von viel grösserer Bedeutung.
Wir lernen also: Don’t hypothesize. Analyze!

Aber zurück zum Anfang: Was genau sind eigentlich Daten? Wir machen uns Gedanken dazu und finden heraus, dass Daten noch keine Informationen sind. Aus Daten kann man Informationen ziehen, jedoch erst, wenn man ihnen einen Kontext gibt.

“Data are a response to a given measurement. All measurements are biased!”

Daten müssen also eine Kontextinformation haben, um sie interpretieren zu können. Datenmessungen haben jedoch auch immer Fehler, es ist nie die ganze Wahrheit. Der Mensch der hinter der Dateneingabe steht, wird nicht erfasst. Es ist schwierig, auf Motivationen und Gefühlsregungen zu schliessen. Messungen sind deshalb immer irgendwie unvollständig und fehlerhaft. Das Generieren von Daten ist ein komplexes Zusammenspiel zwischen Gesellschaft, Wirtschaft und Kultur. Asiaten zum Beispiel generieren andere Daten, da sie gegenüber Technologie offener sind. Datenauswertungen sind also bloss ein Ausschnitt auf unsere Welt. Dementsprechend kann man die Daten – je nach Ausschnitt – verschieden interpretieren und somit generiert man unterschiedliche Realitäten.

Data trigger different realities
Data are an asset
Data are a dead rough material

Eine Firma sollte sich um ihre Daten kümmern, denn wenn nicht, bleibt sie irgendwann auf der Strecke.
Aber Achtung! Ein Datenverständnis (bez. Kontextverständnis) muss da sein. Man muss etwas von der Firma oder Branche verstehen, um etwas mit Daten oder Datenmodellen anfangen zu können. Information ist nicht gleich Wissen.

So viele Daten! – Mobile Traffic in Exabytes

The world is awash in data

And what the hell is a exabyte?

What the hell is a exabyte?

Zwei weitere Fragen beantworten wir in der Gruppendiskussion:

Welche Arten von Daten gibt es?

  • fixed structure no relations
  • fixed structure relations (zum Beispiel Datenbanken, Tabellen)
  • no structure multi dimension (Mediadata / Unstrukturiert wie zum Beispiel freier Text. Diese Art der Daten sind für eine Maschine sehr schwierig zu lesen.)
    Hier macht Marcel einen kleinen Einschub zum Thema Sentimentanalyse: “Sentiment Detection (auch Sentimentanalyse, englisch für „Stimmungserkennung“) ist ein Untergebiet des Text Mining und bezeichnet die automatische Auswertung von Texten mit dem Ziel, eine geäusserte Haltung als positiv oder negativ zu erkennen.”

Warum ist gerade jetzt Big Data so ein grosses Thema? Wir konnten folgende Gründe herauskristallisieren:

  • Computer Power / Technologie / Speicherkapazität
  • Internet (alle produzieren Daten) – damit auch Access zu diesen Daten, es ist einfach an Daten ranzukommen und Daten sind relativ billig, es gibt open data services, open data lakes
  • Knowhow / Demokratisierung von technologischen Methoden

An einem Beispiel veranschaulicht uns Marcel, was mit “open data services” gemeint ist und wie man diese hinzuziehen kann. Eine Online-Konzertticket-Verkaufsfirma hatte von ihren Kunden nur Name und Adresse, jedoch keine Altersangaben. Nun wollte die Firma aber die Altersangaben wissen, um personalisiertes Marketing für zukünftige Konzerte zu machen. Das Bundesamt für Statistik stellt unter anderem eine Datenbank gratis zur Verfügung, in der alle Vornamen der Schweiz enthalten sind, inklusive der Information, in welchem Jahr, welcher Vorname wie häufig vorkommt. So konnte Marcel und sein Team anhand dieser Vornamensstatistik eine Aussage treffen, wie alt der jeweilige Kunde wahrscheinlich ungefähr ist.

Nackte Daten sind nutzlos

Nackte Daten sind nutzlos

Mit nackten Daten können wir nichts anfangen. Erst, wenn man diese prozessiert, also verarbeitet, erhalten wir Information. Aber Information ist nicht gleich Wissen. Erst, wenn man Information transformiert, erhält man Wissen. Diese Interpretation von Information kann nur der Mensch vornehmen. Eine Maschine ist dazu (noch) nicht in der Lage.

What is different in the area of Big Data?

Früher waren Daten immer in die Vergangenheit gerichtet. Der moderne Ansatz ist, dass man versucht in die Zukunft zu schauen, man versucht Voraussagen zu treffen.

How do organisation manage the journey from data to knowledge?

How do organisation manage the journey from data to knowledge?
  • Man fängt nie bei der Technologie an!
  • Am Anfang muss man sich überlegen, was man mit den gesammelten Daten anfangen will. Was soll das Ziel, der Outcome sein und dies befreit von jeglichen Randbedingungen. Zu diesem Zeitpunkt kümmert man sich auch noch nicht um die Technologie. Es ist wichtig, dass man sich für diesen Schritt Zeit nimmt.
  • Nun kreiere eine testbare Hypothese.
  • Jetzt überlegt man sich, was für Daten man braucht, erst jetzt kümmert man sich um die Technologie
  • Dann kreiert man Modelle, um Daten zu sammeln und testet diese.
  • Testen, verfeinern, testen, verfeinern, etc.pp. Ein Ding nach dem anderen ändern und jede Veränderung testen! (Stichwort: A/B Tests)
  • Resultate visualisieren, kommunizieren und dann geht’s in die Umsetzung!

Der gläserne Mensch: Wie wird die Datensammlung unser Leben verändern?

Gerade uns interessiert natürlich die Frage, was man unter “mobile” verstehen kann und wie unser Leben – Daten sei Dank! – in Zukunft aussehen wird. In Gruppen erarbeiten wir neue mobile Business-Modelle, unter der Annahme, dass wir eine ausgefeilte Technologie haben werden, welche dank Gesichtserkennung die Gefühle des Gegenübers lesen kann.
Die Gruppenpräsentationen sind vielfältig und spannend! Von der intelligenten Umkleidekabine bis zum Auto, welches beruhigende Musik spielt, wenn man wütend ist, ist alles dabei.

Wir sind also bei der künstlichen Intelligenz angelangt.

Artificial intelligence inside / subfields

Was sind die Felder der künstlichen Intelligenz? Zum Beispiel:

  • Spracherkennung (z.B. “Siri“)
  • Computer vision: Bilder erkennen
  • Machine learning: Aus Daten Muster ableiten , z.B. Buchempfehlungen
  • Natural language processing: Die Maschine kann den Kontext von gesprochenem oder geschriebenem Wort verstehen. (z.B. das Chat-Programm “Eliza“)

Es gibt Bestrebungen, dass man die Technologie zur künstlichen Intelligenz domokratisiert. 

Neuronale Netze: Einem Kind muss man etwas zweimal sagen, damit es lernt. Einem neuronalen Netz tausende Male. (Und mir müsste man dieses Thema mindestens noch einmal erklären, damit ich es verstehe.)

Neuronale Netze

Meine lieben Klassenkameraden, es tut mir sehr leid, aber diese Details kann ich beim besten Willen nicht zusammenfassen, ich verstehe schlichtweg zu wenig davon.

Das, was ich aber mitgenommen habe, ist, dass neuronale Netze sehr viel Zeit und Versuche brauchen, bis sie etwas gelernt haben. Möchten wir, dass ein neuronales Netz Bilder von Tieren erkennen kann, müssen wir tausende von Bildern ins Netz eingeben und jeden Fehler, der das Netz macht, wieder zurückspielen. Es lernt also aus den Fehlern.

Es gibt eine “Spielwiese” von Google, wo man mit neuronalen Netzen spielen kann.

Die “Face and object recognition” von Facebook zum Beispiel hat beeindruckende Kennzahlen:

  • The Neural Net of DeepFace has 120 Mio. parameters
  • The Net was trained with 4 Mio. facials
  • The accuracy to correctly classify faces is about 98%!

Wir erörtern am Beispiel der Tutti.ch-App, wie man solche Bilderkennungen nutzen könnte. Wenn ein User also den zu verkaufenden Gegenstand (zum Beispiel ein Laptop) im Sucher der Kamera hat, könnte die App bereits schon erkennen, dass es sich um einen Laptop handelt, der in die Kategorie “Elektronik” und in die Unterkategorie “Laptops” gehört und dass dieser spezifische Laptop einen Verkaufspreis von CHF X haben könnte. Die App macht also Vorschläge, damit dem Kunden die Eingabe des Inserats erleichtert wird.

Nun erörtern wir noch einen Case von der Tamedia AG, über welchen ich aber nicht bloggen darf, da er geheim ist.

Fazit

  • Wir leben im Jahrhundert der Daten
  • Heutzutage ist der Zugang zu Daten sehr einfach
  • Wir können Daten relativ billig analysieren
  • Technologie ist keine Hürde mehr
  • Es ist nicht einfach Experten zu finden (ein gutes Data Science Team ist Mangelware)

AI Hasenviech