Institute for Digital Business

Vertrau keiner künstlichen Intelligenz

August 4, 2022

Zu allen Artikeln

Von Gabriel Monnard.

Ist eine Maschine für Vergehen oder Verbrechen haftbar? Selbstständig handelnde Systeme sind nahtlos in den menschlichen Alltag integriert. Die Fähigkeiten und Anwendungsgebiete der künstlichen Intelligenz (KI) nehmen kontinuierlich zu. Wer ist bei einem Fehlverhalten verantwortlich?

Einleitung

Künstliche Intelligenz birgt gesellschaftliche, ethische und datenschutzrechtliche Risiken. Zunehmend häufiger entstehen neue Use Cases, deren vermeintlicher Zweck es ist, im täglichen Umfeld Personengruppen aufgrund von automatisierten Bewertungsmechanismen zu sortieren oder zu klassieren. In solchen politisch und medial hochsensiblen Anwendungsgebieten prüfen zahlreiche Länder neue Regulierungen, welche weiter reichen als die Prinzipien der heutigen Konventionen und Verordnungen im Datenschutz.

Das Ziel dieses Fachbeitrages besteht darin, die wesentlichen und weiterführenden Gedanken zu Vertrauen und Vertrauenswürdigkeit zwischen Menschen und Maschinen darzulegen.

Straffähigkeit einer KI?

Strafen heisst, jemandem nach einem Fehlverhalten mit Absicht eine Sanktion aufzuerlegen (z. B. in Form einer Geld- oder Freiheitsstrafe). Es stellt sich die Frage, ob eine KI die heute üblichen Sanktionen als Repressionen bewerten resp. empfinden kann oder ob Strafen in diesem Kontext zu einem sinnlosen Akt verkommt. Eine KI vermag nach einem entsprechenden Training eine Strafe zu erkennen und einzuordnen. Aufgrund der begrenzten Empfindsamkeit und des fehlenden Bewusstseins ist davon auszugehen, dass ein tatbezogener Tadel bei einer KI nicht wirksam ist. Die funktionale Korrektur des Verhaltens einer KI kann nur über neue Modelle und Daten erfolgen, was einer Umprogrammierung durch eine natürliche oder juristische Person entspricht. Wer KI entwickelt oder einsetzt, unterliegt der Produktehaftung sowie der Sorgfaltspflicht und kann zukünftig gesetzlich zu einer weiterführenden Rechenschaft bezüglich Transparenz und Nachvollziehbarkeit verpflichtet werden.

Produktehaftung und Sorgfaltspflicht

Als Produktehaftpflicht bezeichnet man die Haftung des Herstellers für den Schaden, den ein fehlerhaftes Produkt verursacht hat. Er ist somit für Schäden verantwortlich, die durch einen Fehler oder Mangel seines Produkts entstehen. Für diese muss er auch dann einstehen, wenn ihn kein Verschulden daran trifft. Ein Produkt ist fehlerhaft, wenn es nicht die Sicherheit bietet, welche die VerbraucherInnen berechtigterweise erwarten dürfen. Daher haben die HerstellerInnen von Produkten im Rahmen der Sorgfaltspflicht einerseits die entsprechenden Normen sowie Standards und andererseits den Stand der Wissenschaft sowie der Technik anzuwenden und zu belegen.

Transparenz und Nachvollziehbarkeit

Neben der Produktehaftung und Sorgfaltspflicht können Hersteller von KI-Systemen zukünftig zusätzlich gesetzlich zur Rechenschaft bezüglich Transparenz und Nachvollziehbarkeit verpflichtet werden. Das heisst, es müssen geeignete Vorkehrungen getroffen werden, um die damit verbundenen Risiken zu quantifizieren und zu minimieren oder sogar auszuschliessen. Die effektive Umsetzung und Wirksamkeit Ersterer sind gegenüber Regulationsbehörden zu belegen.

Kontrollen und Massnahmen

Die Kontrollen von KI im Rahmen der Produktehaftung und Sorgfaltspflicht sowie die Vorkehrungen zur Erhöhung der Transparenz und Nachvollziehbarkeit sollen über Dokumentation, Monitoring sowie automatisierte Audit-Trails realisiert werden. Dazu zählen folgende Massnahmen:

  • Daten und Modelle werden in standardisierter und normierter Form dokumentiert.
  • Das Monitoring der Datapipelines und der Modelle erfolgt permanent und ‹End to End› sowie anhand klar definierter technischer und geschäftsspezifischer Metriken.
  • Die automatisierten Audit-Trails dokumentieren Abläufe und Änderungen entlang der Produktionsprozesse, um eine lückenlose Transparenz über jede Veränderung zu erzielen.

Datenhaltung, Anwendungen sowie Services auf der Data-Plattform werden im Rahmen der General Data Protection Regulation (GDPR), der General IT Controls (GITC) sowie des Information Security Management System (ISMS) kontrolliert.

Fazit

KI werden durch Menschen entwickelt, gebaut und eingesetzt. In jedem Fall kann das Vertrauensverhältnis, wie bei jedem anderen Produkt, nur zwischen den VerbraucherInnen und den HerstellerInnen bestehen. Genau da setzt die Produktehaftung und Sorgfaltspflicht sowie die Massnahmen zur Steigerung von Transparenz und Nachvollziehbarkeit an.

 

Dieser Fachbeitrag wurde im Rahmen eines Leistungsnachweises für das CAS AI Operations verfasst und wurde redaktionell aufgearbeitet.

Entdecken Sie unsere Kurse zum Thema

Start Januar 2023

CAS AI Management HWZ

  • Afke Schouten
  • 1 Semester (18 Tage)
  • Zürich; Sihlhof (direkt beim HB)
Mehr erfahren
Start August 2023

CAS AI Operations HWZ

  • Afke Schouten
  • 1 Semester (18 Tage inkl. 5 Tage Studienwoche off-site)
  • Zürich; Sihlhof (direkt beim HB)
Mehr erfahren
Start Februar 2023

CAS Digital Product Lead HWZ

  • Ralph Hutter
  • 1 Semester (18 Tage)
  • Zürich; Sihlhof (direkt beim HB)
Mehr erfahren
Start August 2022

CAS Platforms & Ecosystems HWZ

  • Ralph Hutter
  • 1 Semester (18 Tage)
  • Zürich; Sihlhof (direkt beim HB)
Mehr erfahren

Dein Persönliches Digital Update

Bleibe auf dem Laufenden über die neuesten Entwicklungen der digitalen Welt und informiere dich über aktuelle Neuigkeiten zu Studiengängen und Projekten.