Aus dem Unterricht des CAS AI Management mit Dozent Dorothea Baur berichtet Student Mario Brolle:

“Dynamische Beziehung mit Zukunft!”

so fasst Dorothea Baur einen intensiven Morgen zusammen.

Intensiv nicht nur deshalb, weil diese erste Vorlesung am Morgen wieder vor Ort an der HWZ stattfindet. Was nach einer gefühlten Ewigkeit im “Homeoffice” mit kurzen Wegen eine sehr willkommene, aber für alle Teilnehmer wieder recht gewöhnungsbedürftige Abwechslung darstellt. Aber das ist eine andere Geschichte…

Intensiv auch, weil mit der Ethik und AI – Artificial Intelligence – andererseits zwei Themen behandelt werden, die sehr unterschiedlich sind und in der Praxis erst in den letzen Jahren zusammen an Bedeutung gewinnen.

Auf der einen Seite steht die Ehtik, ein tragender Begriff und ein Gebiet, welches sich als Subdisziplin der Philosophie über Jahrhunderte mit dem “Sollen” und unter Anderen mit Fragen beschäftigt wie

  • “Was soll sein?”
  • “Wie soll etwas sein?”
  • “Wie sollen wir leben?”
  • “Woran soll sich unser Handeln orientieren?”

Demgegenüber steht mit der AI ein Themenfeld, welches im Gegensatz zur Ethik ein junger Hüpfer ist.

Gibt es die eine Ethik?

Nein, aber in ihrer Vielseitigkeit hilft sie der Gesellschaft, begründbare moralische Geltungsansprüche zu reflektieren, so Dorothea Baur.
Eine generationsübergreifende Betrachtung zeigt, dass die Ethik sich auch weiterentwickeln kann – und auch muss!

Wenn wir nun Ethik und AI zusammenbringen, wird deutlich, wie sich die Ethik anpassen muss, und ihre Betrachtungsweise vom “hier und jetzt” in die Zukunft auszurichten.

Mit der künstlichen Intelligenz kommt eine neue Dimension ins Spiel.
Sie zeigt auf, welche Verantwortung wir als Menschen für die Gestaltung der AI haben, um zum Beispiel anhand von Algorithmen über Menschen zu entscheiden.

Ethik und AI

Was kann man nun von Ethik im Zusammenhang mit AI erwarten?

Oder anders gesagt, welche moralischen Rechte und Pflichten ergeben sich bei der Entwicklung und Nutzung von AI?

Dorotheas Ausführungen zeigen auf, dass es sich um ein Spannungsfeld handelt.
Data Scientists versuchen, möglichst viele Daten zu sammeln, um Algorithmen  möglichst genaue Entscheidungen fällen lassen zu können.
Ethik stellt die Frage, wozu der Algorithmus dienen soll:

  • dient er dem Zweck,
  • wird der Zweck richtig verfolgt,
  • welche Werte werden priorisiert,
  • welche Implikationen kann ein Algorithmus in Bezug auf Fairness, Gleichheit, Transparenz, Genauigkeit, Privatsphäre oder auch Effizienz haben.

Als aktuelles Beispiel nennt Dorothea die Epidemiologen und ihr verstärktes Bedürfnis zur intensiven Datensammlung via Contact-Tracing.
In welchem Verhältnis steht eine umfangreiche Datensammlung gegenüber dem Recht auf Privatsphäre?

Dabei wird klar: Es gibt keine Checkliste gibt, keine moralische Einheitsdoktrin, welche bei der Umsetzung bzw. Nutzung von AI helfen könnte
(die Einfachheitsfalle).

Auch geltendes Recht stellt nicht unbedingt einen Anker dar, der einem hilft, sich (moralisch) abzusichern. Denn geltendes Recht kann und will auch nicht alles regeln, und deckt auch nur Teilbereiche ab. Mal davon abgesehen, dass nicht alles, was rechtlich erlaubt ist, aus moralischer Sicht auch legitim ist
(die Gesetzesfalle).

Gerade wenn viele Meinungen aufeinander treffen, und eine persönliche Ansicht einer institutionellen Position gegenübersteht, kann die ethische Reflexion sinnvoll, diese Positionen in Relation zu einander zu setzen, bevor eine Position als moralisch überlegen oder verwerflich angesehen wird
(die Relativitätsfalle).

Welche Ankerpunkte gibt es nun, um diesen Fallen aus dem Weg zu gehen und AI “ethisch” umzusetzen?

Während Staaten durch Regulation (Beispiele DSGVO, California Bot Law) oder Leitlinien (EU) ein Rahmen schaffen, können Unternehmen durch Regelwerke (Google, Microsoft) Voraussetzungen schaffen, um ethische Auseinandersetzung zu fördern.

Der Mensch spielt hier eine entscheidende Rolle: so kann grösstmögliche Diversität innerhalb von Teams “diskriminierende Technologie” verhindern. Denn am Ende lernt die AI nur so, wie sie es vom Menschen vorgegeben bekommt.

Und da ein Entwickler gar nicht vorhersagen kann, welches Wissen sich die AI bzw. Algorithmen aneignen darf (schliesslich soll sie ja anders und besser sein), sind auch Massnahmen auf technischer Ebene (Beispiel Digital Privacy) nötig.

Algorithmen und AI

Dass es dabei am Ende immer noch auf menschliches Urteilsvermögen bedarf, haben ebenfalls die beiden Fallstudien zum Compas Algorithmus und zur Maxwell Solution (aus “The Ethical Algorithm”  von Michael Kearns and Aaron Roth) gezeigt.
Beide zeigen sehr deutlich, wie schwer es ist “Fairness” zu programmieren.

Zum Schluss hat Dorothea aufgezeigt, wie es möglich ist, ethische Blindspots bei Trainieren eines Machine Learning Modells zu verhindern, und wie sich ein Data Bias aufgrund von fehlerhaften Daten vermeiden lässt – und von Diskriminierung unterscheidet.

Vielen Dank Dorothea für diesen sehr ausführlichen Einblick zu Artificial Intelligence und Ethik
Müsste ich diesen Tag zusammenfassen, würde ich sagen, intensiv, aber gut!

Was hat das nun mit einer dynamischen Beziehung zu tun? 

Die Ausführungen zeigen, dass der Mensch mehr und mehr versteht, worauf es bei der Entwicklung und Nutzung von AI zukünftig ankommt, und dass dies weiterhin sehr dynamisch bleibt.

Wer weitere Grundlagen und tiefere Einblicke sucht,
findet sie hier Digital Ethics – Digital was?