Institute for Digital Business

Künstliche Intelligenz: Die Rolle des Bias

August 12, 2022

Zu allen Artikeln

Von Anja Minikus.

Die Aussage «Technologie ist neutral» ist inkorrekt. Technologie wird von Menschen entwickelt und kann daher nicht objektiv sein. Was heisst «nicht objektiv»? Verzerrungen schleichen sich in KI-basierte Anwendungen ein und haben unfaire Resultate zur Folge.

Arten von Biases

Bei der Entwicklung von auf künstlicher Intelligenz (KI) basierten Anwendungen gibt es einige Stolperfallen. Eine wesentliche Schwierigkeit besteht darin, keine Verzerrungen, auch genannt «Biases», in der Anwendung entwickeln zu lassen. Dabei ist diese Verzerrung in der Regel nicht absichtlich. Man spricht von einer kognitiven Verzerrung. Diese fliesst in die Interpretation oder Wahrnehmung von Informationen ein. Folgende Biases lassen sich nach dem IBM Smarter Workforce Institute (1) unterscheiden:

  • Stereotyping: «Stereotyping» ist der Glaube gegenüber einer Menschengruppe, der sich nicht durch nachweisbare Informationen stützt. Es ist eine Übereinkunft eines Glaubens. Der «conscious bias» fasst bewusste Gedanken oder Vorurteile gegenüber einer Menschengruppe zusammen. «Unconscious bias» sind unbewusste Vorurteile.
  • Confirmation Bias: «Confirmation Bias» beschreibt die Tendenz Informationen so zu suchen oder zu interpretieren, dass sie die eigene Meinung oder das eigene Vorurteil unterstreichen.
  • Self-serving Bias: Als «Self-Serving Bias» bezeichnet man einerseits die externe Schuldzuweisung, falls negative Dinge eintreten. Andererseits ist es das Lob an sich selbst in einem Erfolgsmoment.
  • Halo effect: Der «halo effect» trifft zu, wenn man eine Person aufgrund eines einzelnen Merkmals beurteilt, obwohl dieses eine Merkmal für die Beurteilung in einer bestimmten Sache völlig irrelevant ist.
  • Like-me effect: Der «like-me effect» zeigt sich in der Bevorzugung ähnlicher Personen zum Ich.

Konsequenzen von Biases

Verzerrungen finden sich in der Datengrundlage wieder. Dies hat zur Folge, dass beispielsweise eine Menschengruppe gegenüber einer anderen Menschengruppe benachteiligt wird. Die besagte Menschengruppe kann auf die Benachteiligung keinen Einfluss nehmen, da durch die KI-basierten Logiken gewisse Prozesse oder Anträge abgelehnt werden. Als Beispiele kann hier die Bonitätsprüfung in Kreditanträgen oder die Aussteuerung von Bewerbungen in Bewerbungsverfahren genannt werden.

Entkräftung von Biases

Das Erkennen und Entkräften von Biases ist für die Akzeptanz KI-gestützter Technologien zentral.

Dieser Aufgabe haben sich auch führende Tech-Unternehmen angenommen. Google (2) beispielsweise setzt auf sechs Prinzipen zur Sicherstellung einer verantwortungsbewussten Entwicklung:

  1. User-zentriertes Design-Vorgehen wählen
    Die Art und Weise wie die Nutzer ein System tatsächlich einsetzen und nutzen, gibt den richtigen Kontext. Erst mit diesem Wissen lässt sich die Wirkung möglicher Vorhersagen, Empfehlungen und Entscheidungen einordnen.
  2. Unterschiedliche Kennzahlen zur Bewertung von KI Training und Monitoring verwenden
    Für die Bewertung eines Systems soll nicht nur eine Metrik angewendet werden, sondern unterschiedliche Kennzahlen aus unterschiedlichen Perspektiven.
  3. Rohdaten sollen, wenn immer möglich, geprüft werden
    Die Rohdaten, welche für das Training von Modellen verwendet werden, reflektieren sich als Outcome im Modell selbst. Es ist unabdingbar, dass man die Daten, welche man für das Training verwendet, versteht.
  4. Die Limitation von Datensätzen und Modellen verstehen
    Es muss klar sein, für was ein Modell eingesetzt werden kann und wo ein Modell an seine Grenzen stösst. Limitationen sollen, wenn immer möglich, an Endnutzer kommuniziert werden. Dies fördert die Transparenz für mögliche Fehler und gibt den Nutzenden die Chance, ihr Feedback über ein System klar zu formulieren.
  5. Testen, testen, testen
    Das Schreiben und repetitives Durchführen von Tests ist unabdingbar. Dabei ist es zentral, dass die Tests nicht immer mit dem gleichen Testset durchgeführt werden.
  6. Das System auch nach dem Deployment weiter monitoren und aktualisieren
    Mit dem Monitoren und Aktualisieren des Systems nach dem Deployment stellt man sicher, dass das System auch in der realen Welt verantwortungsbewusst bleibt.

Wer zieht die Grenze – die Technologie oder die Nutzenden?

Tim Cook (3) sagt:

We will never achieve technology’s true potential without the full faith and confidence of the people who use it.

Nicht die Technologie selbst bildet die Grenze möglicher Anwendungsfälle, sondern die Akzeptanz der Nutzerinnen und Nutzer. Die Akzeptanz von KI basierten Lösungen ist daher wegweisend. Akzeptanz wird durch Vertrauen geschaffen. Die vom WEF geführte IBM Case Study (4) spricht von fünf Säulen des Vertrauens: Erklärbarkeit, Fairness, Robustheit, Transparenz und Datenschutz.

Zusammenfassend kann gesagt werden, dass beide Kriterien – Verantwortung und Vertrauen – erfüllt sein müssen, damit KI basierte Systeme langfristig akzeptiert und angewendet werden.

 

Quellen

  1. IBM Smarter Workforce Institute. (2019). The role of AI in mitigating bias to enhance diversity and inclusion
  2. Google. (o.J.). Responsible AI practices: General recommended practices for AI
  3. CNBC. (2018). Tim Cook: Personal data collection is being ‘weaponized against us with military efficiency
  4. World Economic Forum. (2021). Responsible Use of Technology: The IBM Case Study

 

Dieser Fachbeitrag wurde im Rahmen eines Leistungsnachweises für das CAS Disruptive Technologies verfasst und wurde redaktionell aufgearbeitet.

Dein Persönliches Digital Update

Bleibe auf dem Laufenden über die neuesten Entwicklungen der digitalen Welt und informiere dich über aktuelle Neuigkeiten zu Studiengängen und Projekten.