Aus dem Unterricht des CAS Mobile Business & Ecosystems mit Marcel Blattner berichtet Nils Lauk:

Artificial Intelligence – mehr Maschine als Mensch

Aufgrund der oft positiven Medienberichten und den grossen Versprechen von Tech-Giganten hinsichtlich Produktentwicklungen in den letzten Monaten, erwarteten viele von uns am heutigen Unterrichtstag ein Lobgesang auf die neuen Möglichkeiten, die uns diese Technologie bietet. Doch für einmal wurden bewusst die Herausforderungen und Risiken dieser Entwicklung in den Vordergrund gerückt. „Ziel sei es, geerdet zu werden am Thema Artificial Intelligence“, meinte Marcel Blattner. Das gelang ihm ganz gut, eine spannende aber herausfordernde Vorlesung war lanciert.

Artificial Intelligence – gesellschaftliche Wahrnehmung

Artificial Intelligence (AI) oder auf Deutsch Künstliche Intelligenz (KI) – jeder spricht davon, doch oft wird das Thema nur wage beschrieben und niemand weiss so recht, was AI genau ist. Die Thematik ist aber wichtig. Das zeigt der grosse Hype um diese Technologie.

Beim Versuch, das Buzzword AI in der Klasse zu umschreiben, vielen folgende Stichworte:

– Algorithmus
– Roboter
– Maschinen Lernen
– Big Data

Es fällt auf, bei der Auflistung wurden mehrheitlich technische Begriffe genannt. Das hängt damit zusammen, dass das Verständnis der Menschen über AI stark durch Medien oder Firmen getrieben werden. Aber auch die Filmindustrie trägt dazu bei, dass ein falsches oder eingeschränktes Bild über diese Technik vermittelt wird.

Obschon das Thema in aller Munde ist, tun wir Europäer uns schwer, solche Technologien zu nutzen. Die Gründe dafür sind schnell gefunden:

– Gewohnheit
– Fehlendes Vertrauen
– Daten möchte man nicht preis geben

Die Gesellschaft und deren Wertvorstellungen prägen die Entwicklung einer Technologie stark. Es gibt keine Technologie, die ausschliesslich als gut oder schlecht wahrgenommen wird. Sie ist neben Ökonomie genau so geprägt durch Kultur und dem ganzen Ökosystem, wo die Technologie drin ist. Entwicklung von Technologien sind also nie neutral.

Ein Beispiel veranschaulicht diese unterschiedliche, kulturell bedingte Wahrnehmung gut: Jeder kennt den Roboter ‚Pepper‘. Er hatte schon an diversen Ausstellungen in der Schweiz seinen Auftritt. Doch viele Besucher – auch Personen aus unserer Klasse – hatten Berührungsängste oder sahen keinen Sinn in der Interaktion mit dieser Maschine. Anders sieht dies in Asien aus. Sie schätzen Roboter als neutralen, unvoreingenommenen Gesprächspartner.

Die Robotik in Asien (besonders in Japan) wird anders wahrgenommen als in westlichen Kulturen. Der Unterschied kann im Animismus begründet sein, der ein Bestandteil des Shinto-Glaubens ist. Animismus ist die Vorstellung, dass alle Objekte einen Geist haben – auch künstliche Objekte. In Europa besteht im Vergleich also ein eher destruktives Bild über neue Technologien und Maschinen. Dies hemmt die Entwicklung, was zur Folge hat, dass insbesondere asiatische Länder im Bereich AI weiter fortgeschritten sind.

Artificial Intelligence – mehr als ein Hype?

Schon seit Jahrzehnten stellt sich die Frage, ob eines Tages Maschinen selber denken können. Begriffe wie ’neuronale Netze‘ oder ‚kognitive Maschinen‘ führen dazu, dass die Menschen das Gefühl haben, die heutige Technologie ist bereits ganz nah am Status einer menschlichen Maschine. Doch die humanen Begriffe werden gebraucht, um die technische Komplexität für die breite Bevölkerung verständlicher zu machen. Die Art und Weise, wie wir KI und maschinell lernende Systeme beschreiben, erzeugt ein falsches Bild von diesen Technologien und erhöht unrealistische Erwartungen. Die Sprache, in der wir diese Technologien beschreiben, erzeugt Assoziationen mit menschlichen Werten und Erfahrungen, zum Beispiel Empathie. Die Wahrnehmung wäre jedoch völlig anders, wenn wir eine genauere und präzisere (technische) Sprache verwenden würden.

Wird in AI recherchiert, müssen folgende fundamentalen Fragen gestellt werden:

– Philosophie: Wie entsteht Wissen in unserem Gehirn?
– Mathematik: Wie gehen wir mit ungenauen Informationen um?
– Ökonomie: Wie können wir Geld mit der Maschine verdienen?
– Neuroscience: Wie prozessiert das Gehirn Informationen?
– Psychologie: Wie kommt man von einem Gedanken zu einer Aktion?
– Computer Engineering: Wie können wir einen effizienten Computer bauen?

Es gibt grosse Fragen, die extrem wichtig sind – worauf die Menschheit teilweise noch keine Antwort hat. Bis tatsächlich Maschinen gebaut werden, die gleiche kognitive Fähigkeiten wie Menschen haben, müssen weitere grosse Rätsel gelöst werden.

Die AI-Kategorie Artificial Narrow Intelligence (ANI) beschreibt die heutigen Möglichkeiten von Maschinen doch realistischer: Maschinen sind fähig, einzelne Aufgaben extrem gut zu lösen, sogar besser als die Menschen. Dies kann am Beispiel von Deep Blue belegt werden. Diese Maschine schlug 1997 zum ersten Mal in der Geschichte den aktuellen Schach-Weltmeister.

Begriffswirrwarr

AI – Artificial Intelligence: Jede Technik, die es einem Computer erlaubt, menschliches Verhalten nachzuahmen.

ML – Machine Learning: Teilmenge von KI-Techniken, die statistische Methoden verwenden, um es Maschinen zu ermöglichen, sich durch Erfahrungen zu verbessern.

DL – Deep Learning: Teilmenge von ML-Techniken, die die Berechnung von Zwischenlagen zwischen Eingabe und Ausgabe ermöglichen. Dies führt zu einem stabileren Lernerfolg der Maschine.

Es gibt verschiedene Möglichkeiten, um einer Maschine etwas beizubringen:

Supervised Learning: Die Maschine lernt die Korrelation von einem gewissen Input (Daten) und dem Output (Signal). Es werden also Regeln generiert, die aus entsprechenden Input den Output kreieren. Ein beaufsichtigter Lernalgorithmus analysiert die Trainingsdaten und erzeugt eine abgeleitete Funktion, mit der neue Beispiele abgebildet werden können. Rund 95% aller Anwendungen von Machine Learning funktionieren auf diese Art.

Reinforced Learning: Der Maschine wird ein Ziel/Auftrag gegeben. Wenn diese richtig durchgeführt wurde, erhält die Maschine einen ‚Reward‘. Sie wird immer besser, weil sie ‚Rewards‘ geleitet ist. Stösst der Roboter, beispielsweise bei der Aufgabe ans andere Ende des Raums zu laufen, an einen Tisch, erhält er keinen Reward. Er lernt so den Tisch zu umlaufen.

Unsupervised Learning: Es werden durch die Maschine Gruppierungen gemacht und analysiert, was diese Gruppenbestandteile verbindet. Daraus lassen sich wiederum Erkenntnisse schliessen.

Wie schafft es eine Maschine, mit dem oben genannten Vorgehen ihr Verhalten selber zu verbessern?

Die Maschine lernt eine komprimierte Abstraktion der Welt, um daraus ein Resultat darzustellen. Das ist für uns Menschen nicht einfach verständlich, weil wir es nicht nachvollziehen können. Deshalb versucht man über Analysen im Nachgang Transparenz zu schaffen. Maschinen sind viel besser in streng logischen Schlussfolgerungen. Sie lernen durch einen Lehrer-Schüler-Ansatz. Daten und eine korrekte Antwort werden dem System gegeben und das System wird angelernt, den Fehler zu minimieren.

Anwendungen von Machine Learning

ML basierte Systeme haben ein breites Anwendungsspektrum. Jede Industrie hat ihre eigenen Regeln, die die Dynamik innerhalb der Branche bestimmen. Entsprechend ist es beinahe unmöglich, eine ML-Technologie der einen Branche in die andere Branche zu übertragen.

Im Finanzsektor werden schon länger maschinell Risikoanalysen durchgeführt. Die Post denkt zurzeit darüber nach, Pakete mit Drohnen in abgelegene Gebiete zu bringen. Google hat es geschafft, dass ein Computer ein Coiffeur-Termin vereinbart oder ein Tisch in einem Restaurant reserviert. Eine andere Maschine (LipNet) kann gut Lippen lesen.

Weitere spannende Informationen erfährt ihr unter diesem Link.

Herausforderung und Risiken

Eine grosse Herausforderung ist, dass Maschinen grundsätzlich keine sozialen Regeln kennen und keine Ahnung von Freundlichkeit haben. Sie werden durch Daten gespiesen, welche von Menschen aggregiert werden. Wenn ein Chatbot nur durch menschliche Interaktion trainiert wird, dann weiss er aufgrund dieser Interaktionen nur ein bestimmter Teil über das ganze Universum. Der Input für die Maschine kann nicht das ganze Universum umfassen, deshalb kann das Abbild respektive das Resultat auch nicht neutral sein. Die Risiko dieser Einschränkung wurde beim Chatbot ‚Tay‘ ersichtlich. Das Produkt von Microsoft begann auf provokative Aussagen von Usern zu fluchen und äusserte sich rassistisch, sodass der Dienst nach kurzer Zeit wieder vom Netz genommen werden musste.

Eine weitere Herausforderung ist der ‚Interaction bias‘. Diese Verzerrung der Realität wird durch die Interaktion respektive den Einfluss von Nutzern herbeigeführt. Mit einem Klick auf ein Bild bei der Google-Suche, generieren sie für die Maschine jeweils einen Reward. So werden Standards definiert. Dies kann dazu führen, dass bei der Google-Suche nach ‚professional haircut‘ vor allem junge, gut aussehende Herren angezeigt werden. Die Maschine verstärkt diese Verzerrung zusätzlich durch ihre eigene „Filter Blase“. Solche Interaktionsverzerrung reflektieren letztlich die Vorurteile der Nutzer.

Weiter gibt es ‚Selection bias‘ oder ‚Latent bias‘. Unter- und Überrepräsentation (verzerrte Wahrnehmung der Welt) der Trainingsdaten sind der größte Feind von künstlicher Intelligenz. Grundsätzlich ist es einfach, solche Probleme während des Trainings zu identifizieren. In einigen Organisationen fehlt es jedoch die gewisse Disziplin, solche Risiken auszuschliessen.

Die oben genannten Probleme lancieren die Diskussion über Ethik und Moral beim Einsatz von Maschinen.

Welche Attribute müssen für ein faires und ethische Modell berücksichtigt werden?

Transparenz: Mechanik von Entscheidungsalgorithmen muss für den Menschen reproduzierbar und verständlich sein.
Rechenschaft: Entscheidungen müssen gerechtfertigt sein, moralische Werte und gesellschaftliche Normen repräsentieren.
Verantwortung: Fähigkeit von Algorithmen, Entscheide zu treffen, die rechenschaftspflichtig sind.

Mit der Entwicklung der Technologie und der Maschinen müssen wir weitere öffentliche Diskussionen zu diesen wesentlichen Themen fördern.

Outlook – Konvergenz von Mensch und Maschine

Was passiert mit der Interaktion zwischen Maschine und Mensch?

Früher hat man mit Maschinen kommuniziert, indem man über einen Terminal Einträge machte. Mittlerweile kommuniziert man mit Siri und hat sich so Barrieren wie der Tastatur entledigt. Es wird versucht, sukzessive die Maschine und den Menschen näher zusammen zu bringen. Das passiert unter anderem indem wir die Sprache und Gestik als Hilfsmittel einsetzen.

Eine Subkultur dieser Transhumanismus-Entwicklung ist Biohacking. Personen, die ihren Körper auf spezifische Art beeinflussen, indem sie Technologie (z.B. ein Chip) in den Körper einpflanzen.

Daten – from Bytes to Knowledge

Die Grundlage für jedes maschinelle Lernen sind Daten. Daten sind Werte, die durch Verarbeitung zu Informationen transformiert werden. Aus der Information wird schliesslich Wissen aggregiert.

Der erste Schritt, Wissen zu erhalten, ist Fragen zu stellen. Das Verständnis über einen Prozess ist der wichtigste Schritt. Das Datenverständnis jedoch unerlässlich, um Daten aller Arten generieren zu können. Die Modellierung und das Testen nötig, damit die Anpassung mit dem Geschäftszweck im Einklang steht.

Wichtig für den Umgang mit Daten sind die neuen Datenschutzverordnungen der EU, welche die Schweiz auch übernehmen musste – GDPR (General Data Protection Regulation):

– Nutzer hat Recht auf Erklärung
– Nutzer muss Einsicht haben
– Nutzer hat Recht zu Vergessen
– Nutzer hat Recht auf Einsicht in seine Daten

Das hat nicht ganz triviale Folgen für die Unternehmen.