AI und Ethik
Juni 23, 2020
so fasst Dorothea Baur einen intensiven Morgen zusammen.
Intensiv nicht nur deshalb, weil diese erste Vorlesung am Morgen wieder vor Ort an der HWZ stattfindet. Was nach einer gefühlten Ewigkeit im “Homeoffice” mit kurzen Wegen eine sehr willkommene, aber für alle Teilnehmer wieder recht gewöhnungsbedürftige Abwechslung darstellt. Aber das ist eine andere Geschichte…
Intensiv auch, weil mit der Ethik und AI – Artificial Intelligence – andererseits zwei Themen behandelt werden, die sehr unterschiedlich sind und in der Praxis erst in den letzen Jahren zusammen an Bedeutung gewinnen.
Auf der einen Seite steht die Ehtik, ein tragender Begriff und ein Gebiet, welches sich als Subdisziplin der Philosophie über Jahrhunderte mit dem “Sollen” und unter Anderen mit Fragen beschäftigt wie
Demgegenüber steht mit der AI ein Themenfeld, welches im Gegensatz zur Ethik ein junger Hüpfer ist.
Nein, aber in ihrer Vielseitigkeit hilft sie der Gesellschaft, begründbare moralische Geltungsansprüche zu reflektieren, so Dorothea Baur.
Eine generationsübergreifende Betrachtung zeigt, dass die Ethik sich auch weiterentwickeln kann – und auch muss!
Wenn wir nun Ethik und AI zusammenbringen, wird deutlich, wie sich die Ethik anpassen muss, und ihre Betrachtungsweise vom “hier und jetzt” in die Zukunft auszurichten.
Mit der künstlichen Intelligenz kommt eine neue Dimension ins Spiel.
Sie zeigt auf, welche Verantwortung wir als Menschen für die Gestaltung der AI haben, um zum Beispiel anhand von Algorithmen über Menschen zu entscheiden.
Oder anders gesagt, welche moralischen Rechte und Pflichten ergeben sich bei der Entwicklung und Nutzung von AI?
Dorotheas Ausführungen zeigen auf, dass es sich um ein Spannungsfeld handelt.
Data Scientists versuchen, möglichst viele Daten zu sammeln, um Algorithmen möglichst genaue Entscheidungen fällen lassen zu können.
Ethik stellt die Frage, wozu der Algorithmus dienen soll:
Als aktuelles Beispiel nennt Dorothea die Epidemiologen und ihr verstärktes Bedürfnis zur intensiven Datensammlung via Contact-Tracing.
In welchem Verhältnis steht eine umfangreiche Datensammlung gegenüber dem Recht auf Privatsphäre?
Dabei wird klar: Es gibt keine Checkliste gibt, keine moralische Einheitsdoktrin, welche bei der Umsetzung bzw. Nutzung von AI helfen könnte
(die Einfachheitsfalle).
Auch geltendes Recht stellt nicht unbedingt einen Anker dar, der einem hilft, sich (moralisch) abzusichern. Denn geltendes Recht kann und will auch nicht alles regeln, und deckt auch nur Teilbereiche ab. Mal davon abgesehen, dass nicht alles, was rechtlich erlaubt ist, aus moralischer Sicht auch legitim ist
(die Gesetzesfalle).
Gerade wenn viele Meinungen aufeinander treffen, und eine persönliche Ansicht einer institutionellen Position gegenübersteht, kann die ethische Reflexion sinnvoll, diese Positionen in Relation zu einander zu setzen, bevor eine Position als moralisch überlegen oder verwerflich angesehen wird
(die Relativitätsfalle).
Während Staaten durch Regulation (Beispiele DSGVO, California Bot Law) oder Leitlinien (EU) ein Rahmen schaffen, können Unternehmen durch Regelwerke (Google, Microsoft) Voraussetzungen schaffen, um ethische Auseinandersetzung zu fördern.
Der Mensch spielt hier eine entscheidende Rolle: so kann grösstmögliche Diversität innerhalb von Teams “diskriminierende Technologie” verhindern. Denn am Ende lernt die AI nur so, wie sie es vom Menschen vorgegeben bekommt.
Und da ein Entwickler gar nicht vorhersagen kann, welches Wissen sich die AI bzw. Algorithmen aneignen darf (schliesslich soll sie ja anders und besser sein), sind auch Massnahmen auf technischer Ebene (Beispiel Digital Privacy) nötig.
Dass es dabei am Ende immer noch auf menschliches Urteilsvermögen bedarf, haben ebenfalls die beiden Fallstudien zum Compas Algorithmus und zur Maxwell Solution (aus “The Ethical Algorithm” von Michael Kearns and Aaron Roth) gezeigt.
Beide zeigen sehr deutlich, wie schwer es ist “Fairness” zu programmieren.
Zum Schluss hat Dorothea aufgezeigt, wie es möglich ist, ethische Blindspots bei Trainieren eines Machine Learning Modells zu verhindern, und wie sich ein Data Bias aufgrund von fehlerhaften Daten vermeiden lässt – und von Diskriminierung unterscheidet.
Was hat das nun mit einer dynamischen Beziehung zu tun?
Die Ausführungen zeigen, dass der Mensch mehr und mehr versteht, worauf es bei der Entwicklung und Nutzung von AI zukünftig ankommt, und dass dies weiterhin sehr dynamisch bleibt.
Wer weitere Grundlagen und tiefere Einblicke sucht,
findet sie hier Digital Ethics – Digital was?
Unser Newsletter liefert dir brandaktuelle News, Insights aus unseren Studiengängen, inspirierende Tech- & Business-Events und spannende Job- und Projektausschreibungen, die die digitale Welt bewegen.