Aus dem Unterricht des CAS Digital Ethics mit Matthias Spielkamp (Mitgründer und Geschäftsführer von AlgorithmWatch) berichtet Anja Minikus:

Es geht um Prozesse, in denen menschliche Entscheidungen mit Einsatz von einem Algorithmus vorhergesagt, vorbestimmt oder gleich selbst getroffen werden. Welche Parameter beeinflussen den Entscheid? Die Nachvollziehbarkeit ist eine zentrale Frage, wenn wir vom Algorithmus als Entscheidungsgrundlage sprechen.

Algorithmus als Entscheidungsgrundlage

Entscheidungen basierend auf einem Algorithmus begleiten uns im täglichen Leben. Einige Beispiele:

  • Suchmaschinen-Resultate
  • Inhalte im Feed Sozialer Medien
  • Kandidateneignung im Bewerbungsprozess
  • Streckenwahl im Navigationssystem
  • Sperrung der Kreditkarte während Auslandaufenthalt
  • Bonitätsprüfungen
  • Einreise in ein bestimmtes Land

Automated Decision Making (ADM) charakterisiert sich unter anderem in:

  • seiner Nicht-Neutralität
  • in der Frage nach Verantwortlichkeit der Resultate sowie der Nachvollziehbarkeit
  • unserem Autonomieverlust

Da wir Menschen mit der Technologie direkt im Kontakt stehen, reden wir von sozio-technologischen Systemen. Einerseits ist die Frage zu welchem Zweck das ADM-System eingesetzt wird zentral, andererseits steuern es die eingebauten Werthaltungen womöglich zweckentfremdet. Ein rein objektiver Entscheid eines ADM Systems kann es nicht geben. Die Auslöser des Entscheids müssen durch irgendjemanden oder irgendwas definiert sein.

Ein Algorithmus als Basis von Entscheidungen

Welche Folgen der Einsatz von automatisierten Entscheiden haben könnte, liegt in der Verantwortung deren Schöpfer. Es reicht nicht, von einem Szenario auszugehen. Vielmehr gilt es den Ausgang abzuwägen, wenn der Algorithmus in einem differenzierten Kontext angewendet wird. Ebenfalls zu bedenken in der Folgeabschätzung, ist der Bias. Trainiert man ein Algorithmus mit vorurteilsbasierten Daten, ist das Ergebnis oder die Entscheidung verzerrt. So könnten beispielsweise weibliche Personen in einem automatisierten Bewerberausschlussverfahren für technische Positionen benachteiligt sein. Die Herkunft der Daten und die Gewissheit, dass die Daten etwas gewolltes repräsentieren, ist entscheidend für den ADM-Output.

Die Nachvollziehbarkeit lässt sich aus rein technischer Perspektive gut abgrenzen. Regelbasierte Systeme können über ihren Code nachvollzogen werden. Bei selbstlernenden Systemen (Deep Learning) hingegen ist dies nicht möglich. Ich greife hier nochmals meine Einleitungsfrage auf: Für wen und wie weit muss ein automatisierter Entscheid nachvollziehbar sein? Ist es jede/r Betroffene des Entscheids oder beschränkt es sich auf die Entwickler des Algorithmus. Falls es dann jede/r Betroffene sein soll, stellt sich direkt eine Nachfolgefrage. – Nämlich wie? Ein möglicher Ansatz: den Algorithmus in seiner Güte bewerten. Der Nutzer / die Nutzerin eines ADM-Systems, erfährt ob der Algorithmus “fair” ist. Sei dies mit einem Ampelsystem oder einem Digital Trust Label umgesetzt.

Mit ADM-Systemen geben wir stets einen Teil unserer Autonomie ab. Relevant ist hier, wie weit wir uns unserer Autonomie entzogen fühlen. So ist es beispielsweise unnütz, einem Navigationssystem nicht zu folgen, da es uns den schnellsten Weg zeigen soll. Wir haben allerdings nicht das Gefühl, dem Navigationssystem «unterworfen» zu sein. Man könnte ja stets eine andere Richtung einschlagen. Beantragen wir stattdessen einen Kredit und werden via eine automatisierte Bonitätsprüfung beurteilt, sind wir der Entscheidung “ausgeliefert”. Wir fühlen uns unserer Autonomie stärker entzogen. Hier würde uns dann auch der Grund einer Ablehnung eher interessieren, als eine bestimmte Streckenwahl des Navigationssystems.

Das relevante ist die Relevanz

Es stellt sich demnach immer wieder die Frage nach der Relevanz des Entscheids. Ist dieser stark beeinträchtigend für uns als Individuum oder sogar für uns als Gesellschaft, soll das System Rechenschaft ablegen können. Geht es um banale Entscheidungen, bspw. um einen Song-Vorschlag nicht in unserem Lieblings-Genre, ist die Relevanz nicht oder weniger stark gegeben.

Ein Spannungsfeld

Wir bewegen uns in einem Spannungsfeld des Wunsches nach Nachvollziehbarkeit sowie Transparenz und Weiterentwicklung der Technologie (Deep-Learning). Die Systeme sollen mit einem ganzheitlichen Blick betrachtet werden. Es muss transparent sein, in welchem Kontext und zu welchem Zweck das System eingesetzt wird. Betrachtet man die technologische Weiterentwicklung, ist Deep-Learning nicht wegzudenken. Die Verwendung von neuronalen Netzen lässt die Maschine selber lernen. Im Unterschied zum maschinellen Lernen stellen Entwickler/innen «nur» die Daten und Prozesse für das Lernen bereit und greifen somit in der Analyse der Daten und im Entscheidungsprozess nicht ein.

Wie wahren wir also den fairen Einsatz vom Algorithmus in der Entscheidungsfindung?

Ein Ansatz wäre die Regulierung einzelner Einsatzgebiete, da wir sie als Betroffene nicht umgehen können. Beispielsweise wenn es sich um ADM in der öffentlichen Hand handelt. Demgegenüber stehen Überlegungen, dass die Thematik von den Organisationen selbst getrieben werden soll. Mit Hilfe von ethischen Grundsätzen gar Ethik-Boards, prüft man in den diversen Phasen der Entwicklung die entsprechenden Systeme.

Der Einsatz von Algorithmen für die Entscheidungsfindung – ein komplexes Thema, das uns das Leben in manchen Situationen sicherlich vereinfacht – in anderen aber erschwert. Ein Thema das weltweit noch für viel Aufsehen und Diskussions-Bedarf sorgen wird und muss.

 

Dieser Blogbeitrag wurde von einem Studierenden verfasst und beinhaltet subjektive Eindrücke, eigene Darstellungen und Ergänzungen.