Institute for Digital Business

Ethik – menschliche Überlegenheit

Oktober 22, 2019

Zu allen Artikeln

Aus dem Unterricht des CAS Disruptive Technologies mit Dozent Dr. Dorothea Bauer berichtet Philip Grunder 

Schon bald ist Halbzeit im CAS Disruptive Technologies. Vieles haben wir schon angeschaut – Technologien wie Artificial Inteligence (AI), oder Chatbots, Anwendungsbeispiele und rechtliche Grundlagen oder mögliche Plattformen und Eco-Systeme. Höchste Zeit also, sich auch mal das Thema Digitale Ethik etwas vertiefter anzuschauen.

Überblick

Nebst all dem ‘wow’ und den neuen spannenden Möglichkeiten, die sich mit Künstlicher Intelligenz (KI) und Big Data auftun, wird es immer relevanter sicherzustellen, dass solche digitale Technologien so eingesetzt werden, dass sie möglichst niemandem Schaden zufügen, diskriminierend agieren, die Privatsphäre geschützt halten und möglichst transparent und nachvollziehbar sind. Mit diesen Ansprüchen sind wir schon voll im Thema angekommen.

Gelingt es uns digitale Helferlein und Maschinen so zu bauen, dass diese Aspekte eingehalten werden? Dies sollte doch möglich sein. Wir sprechen hier von ‘menschlicher Überlegenheit’ den Maschinen gegenüber. Eine Überlegenheit die wir unbedingt waren sollten, denn nicht immer ist die logiste auch die beste Entscheidung. Es kommt ganz auf die Situation darauf an, nicht? Lasst uns eintauchen und verstehen, warum Digitale Ethik so relevant und der Erfolgsfaktor für Künstliche Intelligenz ist.

Im angelsächsischen Bereich wird KI schon viel ausgeprägter eingesetzt und genutzt als in der Schweiz. Ebenfalls in der EU und in UK sind KI und Ethik bereits weiter fortgeschritten und intensiver behandelt als hierzulande. Obwohl, die Debatten laufen langsam heiss und die Auseinandersetzung mit dem Thema bekommt Schwung.

Erst einmal ein paar Grundlagen.

Was ist eigentlich Ethik?

Gemäss Wikipedia kommt der Begriff Ethik aus dem Griechischen wo er das sittliche Verständnis, den Charakter, oder die Sinnesart umschreibt. Im Zentrum der Ethik steht das spezifisch moralische Handeln, insbesondere hinsichtlich seiner Begründbarkeit und Reflexion.

Die Ethik wird auch als philosophische Reflexion von begründbaren moralischen Geltungsansprüchen beschrieben. Die zentrale Frage ist, wie wir leben sollen und an welchen Zwecken und Werten unser Handeln orientiert ist? Mit Geltungsanspruch ist all das gemeint, das von menschlichem Handeln beeinflusst werden kann und alles was in unserer Verantwortung liegt. Das beinhaltet aber auch alles, das anders sein könnte, wenn wir uns anders verhalten würden.

In der Vergangenheit war Ethik nur für einen erlesenen Bereich von Personen bestimmt. Heute gilt die Ethik für alle Menschen, da alle gleichwertig sind, auch wenn dies in der Realität leider noch lange nicht überall umgesetzt ist. Moralische Pflichten bestehen auch gegenüber der Umwelt, z. B. Bäumen oder Tieren.

Neu spricht man auch von technischer Moral, man denke hierzu beispielsweise an ein Kernkraftwerk. Was für Verantwortungen bestehen da? Grundsätzlich hat sich Moral und Ethik über die Zeit räumlich und zeitlich ausgedehnt. Der nächste Schritt wird wohl die Auseinandersetzung mit der Weiterentwicklung und Zusammenschmelzung von Menschen und Technik sein, das sogenannte Bio Hacking.

Ethik und Künstliche Intelligenz

Lassen wir uns mal auf die technische Moral, oder besser gesagt auf die technische Ethik ein. Was bedeutet dies für die Künstliche Intelligenz? An welchen moralischen Werten sollen wir uns bei der Entwicklung von KI orientieren? Was soll der Zweck der technischen Lösung sein und welche ethischen Implikationen hat die KI? Welche Werte sollen bei automatischen Entscheidungen priorisiert werden; wie stehts um Fairness, Gleichheit, Transparenz, Genauigkeit, Privatsphäre oder Effizienz?

Im Zusammenhang mit Ethik und KI gilt es ein paar Fettnäpfchen zu berücksichtigen, bzw. zu umgehen:

Die Einfachheitsfalle

«Um Ethik praktisch und handlungsorientierend zu gestalten, müssen wir unsere moralischen Werte in eine benutzerfreundliche Compliance-Checkliste übersetzen. Wenn wir uns für eine bestimmte technologische Massnahme entschieden haben, konsultieren wir einfach die Checkliste, um sicherzustellen, dass wir ethisch gesehen ‘compliant’ sind»

  • Eine etwas gar einfache Sichtweise, die in der Praxis wohl kaum lange bestehen würde, ohne einen Aufstand zu generieren. Die Ethik ist eher ein Dialog denn eine Checkliste. Vereinfachung ist zwar schon in Ordnung, solange man auch die entsprechende Situation berücksichtigt.

Die Relativismus-Falle

«Wir sind uns uneinig, was moralisch wertvoll ist. Es gibt keinen universellen Massstab, um unsere moralischen Entscheidungen zu bewerten. Nichts ist objektiv gesehen moralisch korrekt: Ob etwas moralisch ist oder nicht, kann nur relativ zu den jeweiligen persönlichen Überzeugungen bestimmt werden».

  • Im Grundsatz stimmt das wohl – jede Kultur interpretiert Moral und Ethik anders. Es gibt aber auch Aspekte die universell gelten, wie zum Beispiel: nicht stehlen oder töten. Ganz allgemein kann gesagt werden, dass es verschiedene Ebenen der Ethik gibt.

Die Gesetzesfalle

«Die Ethik ist im Wesentlichen das Gleiche wie die Gesetzgebung. Wenn wir keine passenden gesetzlichen Kategorien für die Steuerung von KI haben, ist Ethik ein guter Ersatz für das Gesetz. Und wenn wir genügend griffige Gesetze haben, müssen wir nicht über Ethik nachdenken.»

  • Kann die Ethik und das Gesetz wirklich als ein und das Gleiche betrachtet werden? Wohl eher nicht. Nicht alle Aspekte sind durch das Gesetz abgedeckt, die Ethik spielt nebst dem Gesetz eine wichtige Rolle und Grundlage für das Zusammenleben. Beispielsweise beim Lügen, es gibt kein Recht dafür, aber moralisch gesehen sind wir uns einig, dass sich dies nicht gehört. Ähnlich ist es bei der KI – es braucht Regeln und Ethik.

Bei der Ethik in Künstlicher Intelligenz spricht man von Ankerpunkten:

  • #1 – Staat und Gesellschaft
    • Beispiel: Der Staat California hat jüngst beschlossen, dass keine öffentliche Gesichtserkennung mit digitaler Technologie mehr zugelassen ist, um die Privatsphäre der Gesellschaft zu waren.
  • #2 – Unternehmen
    • Beispiel: Mitarbeiter bei Google haben die Entscheidung KI Technologie ans Militär zu verkaufen kritisch hinterfragt und den Verkauf blockiert.
  • #3 – Mensch – Mitarbeitende und User
    • Sensibilisieren auf darauf aufmerksam machen, wo und wie KI eingesetzt werden soll. KI eignet sich bei weitem nicht für jeden Use Case.
  • #4 – Technische Ebene
    • Umsetzung auf der technischen Ebene, also bereits im Algorithmus bzw. bei der Erstellung eines Systems.
    • Beispiel aus der Vergangenheit: Wie musste ein Pflug gebaut werden, damit er sicher bedient werden kann und weder Mensch noch Tier gefährdet? Grundsatz: Was hat der Gegenstand für einen Einfluss auf mich, auf die Umwelt. So richtig in den Fokus kam die technische Ethik jedoch zugegebenermassen erst mit KI und Machine Learning (ML).

Nachfolgend wird auf die 4 Ankerpunkte näher eingegangen.

#1 – Staat und Gesellschaft – Ethik durch Regulierung

Künstliche Intelligenz, bzw. Machine Learning beruht auf der Prämisse von sammeln, verarbeiten und verbinden von grossen Datenmengen, ein Grossteil davon persönliche Daten.

Die Herausforderung von KI, welche auf dem Prinzip von Big Data beruht, ist folgende: Je mehr Daten gesammelt wurden, desto glaubwürdiger bzw. genauer ist die KI. Aus datenrechtlichen Gründen ist dies jedoch genau das Problem. Es kann häufig bereits heute nicht mehr im Detail erklärt werden wie die Maschine zum Resultat gefunden hat. Zudem, je mehr Datenquellen involviert sind desto schwieriger ist die Rückverfolgung und Schlussfolgerung. Der Zweck der KI ist es ohne menschliches Zutun oder Interaktion eine Aufgabe zu lösen. Wenn nun menschliche Intervention hinzukommt, um Datenschutzvorgaben zu erfüllen, wird die Komplexität von KI-angetriebener Entscheidungsfindung eingeschränkt.

Organisationen, die mit KI arbeiten, müssten somit nicht nur ihre Algorithmen enthüllen, sondern auch alle Daten, die durch ML verwendet und die Art und Weise wie die Daten gesammelt wurden. Das ist in der Praxis nur schwer umsetzbar und ethisch problematisch. Wird verlangt, dass menschliche Supervision das System überwacht, wird die Branche noch teurer. Ausserdem können hohe finanzielle Risiken entstehen, wenn eine Organisation KI nutzt und nicht GDPR konform ist. Gerade gemäss GDPR müssen Organisationen Kundendaten auf Anfrage löschen. Diese Regel widerspricht der Ideologie des ‘Konsumierens, Aufbewahrens, Memorisierens, und Verknüpfens von Big Data, um effiziente Lösungen anzubieten’, sie widerspricht also der Basis, auf welcher KI beruht.

Grosse Datenmengen erlauben der KI also smarter und menschenähnlicher zu werden und Entscheidungen präziser vorauszusagen. GDPR wäre somit eine direkte Konsequenz für Innovation, weil die Trainingsdaten, für KI minimiert werden müssten.

Beispiel 1

Anhand folgenden Beispiels soll der Unterschied zwischen normalem Engineering und KI erklärt werden: Stürzt ein Haus ein, könnten die Behörden den Fehler untersuchen und die Ingenieure verantwortlich machen. Die Lektion wird gelernt und in Zukunft wird der Fehler vermieden. Beim Kodieren hingegen ist dies etwas anders: Es liegt in der Natur von KI, dass die Erschaffer oft nicht voraussagen können, was ihre ‘Produkte’ tun werden. Wir wissen, wie wir Maschinen dazu bringen können, zu lernen. Aber Entwickler verstehen noch nicht vollständig, welches Wissen sich intelligente Maschinen aneignen. Wenn dies schon möglich wäre, bräuchte es keine Systeme, die lernen wie sie am besten lernen. Es wäre bekannt was diese Systeme tun und wäre bereits im Code berücksichtigt. Systeme können ein Gesicht oder eine Stimme erkennen, sie können so trainiert werden, dass sie Computerspiele gewinnen etc. jedoch kann noch keine genaue Aussage gemacht werden, wie sie dies schaffen. Darin liegen die Genialität und Verrücktheit dieser Technologie.

Beispiel 2

Nochmals ein Beispiel aus California: Per Gesetz ist es neu zwingend, dass die künstliche Identität eines Bots offengelegt wird, um bei Wahlen Einflussnahme auf die Wähler zu verhindern.

Global gesehen gibt es wie drei Ausprägungen von Künstlicher Intelligenz:

  • Die Amerikanische: ‘Survival oft the richest’ – Der Einsatz von KI ist hauptsächlich getrieben durch eine profitorientierte Motivation
  • Die (Ex-) Sozialistische, wie z.B. in China: Eine möglichst totale Kontrolle über jeden und alles
  • Die Europäische, die Menschenrechte und Bürgerrechte in den Vordergrund hebt

Weitere Ausprägungen bilden sich gerade in Russland und Indien, die wirtschaftlich aufholen aber bezüglich Menschenrechte noch nicht mit Europa vergleichbar sind.

Nachfolgend zoomen wir auf den Europäischen Raum und schauen mal was für ethische Aspekte auf den 4 Ankerebenen gelten.

Ethik Leitlinien im Europäischen Raum

In der EU bestehen bereits erste Ethik Leitlinien für eine vertrauenswürdige KI. Die menschliche Handlungsfähigkeit muss daher zu jeder Zeit gewährleistet sein. Es darf somit nicht sein, dass man einem autonomen Auto komplett ausgeliefert ist.

In der Europäischen Union bestehen die folgenden 7 Anforderungen an die KI:

#2 – Ethik auf Unternehmensebene

Corporate Digital Responsibility (CDR)

  • Policy zum Nutzen, Einsatz & Entwicklung von Technologie – mit Fokus auf Auswirkungen auf Mitarbeitende, Kunden und Gesellschaft; teilweise sind auch schon Ethik-Boards etabliert.

Handlungsfelder der CDR

  • Data Ethics – wie sammle und verwende ich Daten?
  • Responsible AI: Verantwortungsbewusste Nutzung und Entwicklung von KI
  • Digital Well-being: Technologie ist nicht nur gut für uns
  • Responsible Workplace Transformation vom Arbeitsplatz durch kollaborative Systeme, wo jeder jeden ‘beobachten’ kann, stellen neue Fragen
  • Empowerment und Education: Aufklärung über Technologie

Globale Unternehmen wie Google und Microsoft haben unternehmensweite KI Prinzipien im Einsatz.

Google KI Prinzipien:

Zwei Punkte die wir rauspicken:

  • #3 – ‘Be built and tested for safety’: Es geht um die Sicherheit, Menschen wollen und müssen das Recht haben zu verstehen, wie das Resultat zustande kam oder warum etwas bestimmt wurde. Man denke nur an einen Prozess zur Prüfung einer Kreditvergabe, die Abklärung zu einem Anspruch auf Sozialhilfe oder weswegen die eigene Stellenbewerbung ausgeschieden ausschied.
  • #7 – ‘Be made available for uses that accord with these principles’: Lösungen, die die obigen Prinzipien nicht berücksichtigen werden nicht zur Verfügung gestellt. Dies hat mit Verantwortung zu tun, die jeder entsprechend wahrnehmen muss.

Microsoft – Nachfolgend die Regeln für ‘Conversational AI’  (bots) und Guidelines für Developers:

Quelle: Microsoft.com

#3 – Ethik auf der Ebene des Menschen

Diversity-Massnahmen

  • Geschlechtergemischte und/ oder kulturell durchmischte Entwickler- Teams
  • Unterschiedliche disziplinäre Hintergründe (IngenieurInnen, SozialwissenschafterInnen etc.)

Trainings

  • Sensibilisierung für ethische Fragestellungen u.a., auch für Nutzerinnen

Grundsatz: Bereits beim Kodieren wird schon auf Diversity und maximaler Reduktion von einem Bias geachtet, indem beispielsweise homogene Entwicklergruppen vermieden werden.

#4 – Technische Ebene

Differential Privacy 

Mathematische Formulierung der folgenden Ideologie: es wird verglichen, was man aus einer Analyse ableiten könnte, wenn die Daten einer bestimmten Person im Datensatz enthalten gegenüber dem, was man lernen könnte, wenn sie nicht enthalten sind.

Differential Privacy verlangt, dass das Hinzufügen oder das Entfernen des Datensatzes eines Individuums die Wahrscheinlichkeit eines Ergebnisses nicht wesentlich verändert. Es schützt vor willkürlichen Schäden und garantiert, egal wie die Daten strukturiert und wovor man in diesem Zusammenhang allenfalls Befürchtungen hat, dass es nicht wahrscheinlicher wird, wenn der Datensatz eines bestimmten Individuums in der Studie enthalten ist oder nicht.

    • Beispiel: Die Wahrscheinlichkeit, dass man dadurch nervige Werbeanrufe erhält, steigt nicht, auch wenn die Daten in der Studie enthalten sind.

Zusätzlich kann die Differential Privacy als Versprechen gesehen werden, dass kein Aussenstehender viel über einem erfährt. Das gilt für jedes Individuum im Datensatz und für jeden Beobachter, unabhängig von ihren ursprünglichen Anschauungen. Wird das Resultat einer Differential Privacy  angeschaut, ist die Betrachtung fast die gleiche wie wenn man das Resultat der gleichen Berechnung   ohne die Daten des Individuums angeschaut hätte.

Fairness

Die Definition von Fairness: Dies kann an folgendem Beispiel als statistische Parität gesehen werden: Der Anteil von weisshäutigen Personen, die einen Kredit bekommen, soll gleich dem Anteil dunkelhäutiger Menschen sein. Also der gleiche Prozentsatz an Kreditvergabe für beide Ethnizitäten.

Dies ist keine ideale Definition von Fairness, da die Eigenschaften der Personen ignoriert wird. Es kann eine zufällig ausgewählte Anzahl Personen ausgewählt und ihnen Kredit vergeben werden. Der entsprechende Algorithmus ist nicht geeignet für eine Kreditvergabe.

Eine statistische Parität legt das Ziel von Voraussagen eines Modells nicht fest, sondern schränkt diese Voraussagen ein. Die Spannung zwischen Fairness und Genauigkeit ist eher hoch.

Eine andere Definition von Fairness wäre Verdienst und verlangt, dass die gemachten Fehler gleichmässig verteilt werden, sprich: “all else being equal.” Die Ethnizität hat keinen Einfluss auf die Wahrscheinlichkeit, dass unser Algorithmus jemandem schaden kann.

Maxwell solution

Am besten erklärt anhand einem Pendler-Game: “Maximum social welfare solution.” Aufgabe: minimiere die Fahrzeit über die ganze Bevölkerung hinweg, anstelle der Minimierung der Fahrzeit eines jeden Users. Das heisst, die Wissenschaft kann nur bis zu einem gewissen Punkt herangezogen werden und menschliches Urteilsvermögen bzw. Normen werden immer eine zentrale Rolle spielen bei der Wahl, wohin sich eine Gesellschaft entwickeln will und welche Ideen (z.B. Fairness) gefördert werden sollen.

Ein gutes Design beim Algorithmus kann eine Auswahl an Lösungen anbieten. Welche davon schlussendlich genutzt werden soll, muss dann durch die Menschen selbst gewählt werden.

Im Zusammenhang mit Ethik sind noch weitere Aspekte wie Blind Spots, Bias, Diskriminierung und Fairness höchstrelevant und lohnenswert untersucht zu werden:

Ethische Blind Spots

Was sind Ethische Blind Spots? Schauen wir uns diese mal etwas genauer an. Zum Beispiel anhand der Ethik im Machine Learning Life-Cycle. Vielfach dreht sich die Forschung im ML Bereich nur gerade um diejenigen Tätigkeiten unterhalb der gestrichelten Linie. Also hauptsächlich den Trainingsprozess.

Die Ethik muss aber über den ganzen Prozess hinweg bei allen Aspekten miteinbezogen werden, wie untere Abbildung zeigt. Dabei sollen folgende Fragen helfen:

Bei der Planung:

  • Warum wollen wir eine bestimmte Technologie (Purpose)?
  • Wie exakt repräsentieren die Daten die betroffenen User (Representative Data)?
  • Welche Verletzlichkeiten bestehen (Abusability)?
  • Wie wird persönliche Information geschützt (Privacy)?

Bei der Erstellung:

  • Verletzliche Gruppen können gefährdet werden je nach Performance Metrik (Optimization Criteria’s)
  • Durch Variablen, die als Proxies fungieren (Discrimination by Proxy)
  • Je nach Sensibilität der Anwendung muss der Algorithmus verstanden und erklärt werden können (Explainability).

Beim Ausrollen und Verteilen:

  • Vorsicht betreffend Monitoring von Änderungen, die die Performance betreffen und den Impact des Systems (Generalization Error),
  • Sicherstellen, dass Individuen Entscheidungen anfechten können (Right to Contest).

Bias in der Künstlichen Intelligenz

Was ist ein Bias? Eine systematische Verzerrung in Daten, die ihren Nutzen für eine Aufgabe kompromittieren.

Wie und wo entsteht Bias? Grundsätzlich kann in allen Projektphasen und in allen Komponenten ein Bias entstehen: Während dem Design, in den Datensätzen, im Model oder bei der Applikation selbst.

Achtung, ein Bias muss nicht zwingend unethisch sein. Der Daten Bias muss immer im Verhältnis zur Aufgabe betrachtet werden. In der Medizin muss manchmal sogar bewusst ein Bias miteinbezogen werden, wenn es darum geht eine Zielgruppe einzuschränken: z.B. Frau, 45 Jahre, Raucherin, Brustkrebs, etc.

Wie kann ein Bias verhindert werden?

  • Teamzusammensetzung berücksichtigen
  • Aufgabe verstehen, Stakeholder identifizieren, Fehler-/ Schadenspotenzial eruieren
  • Datensatz überprüfen: Woher stammen Daten? Was sollen Daten repräsentieren?
  • Modell überprüfen/Resultate validieren: Warum trifft ein Modell eine Entscheidung? „Je ungewöhnlicher ein Resultat, desto grösser die Wahrscheinlichkeit, dass ein Fehler vorliegt“.
  • Nach dem Einsatz: Optimierung sichern, Monitoring (Kundenfeedback), Plan für Identifikation von und Umgang mit Fehlern und Schäden

Ein interessanter Aspekt in der Medizin und im Zusammenhang mit Bias ist folgender:

  • Als mit Künstlicher Intelligenz, bzw. einem Machine Learning Model Daten von Asthma erkrankten Personen gegenüber gesunden Personen untersucht wurde, hat man festgestellt, dass Asthma erkrankte Personen das kleinere Risiko haben an Lungenentzündung zu sterben als gesunde Personen. Eine interessante Feststellung da diese Personengruppe doch ein Lungenproblem hat und daher eher anfälliger auf Erkrankung an Lungenentzündung ist.

Die Ursache zu dem reduzierten Risiko wurde schliesslich in der intensiveren Betreuung der Asthma- Erkrankten durch Fachpersonal gefunden, welche etwelche Anzeichen zu Lungenentzündung mittels regelmässiger Untersuchung früher erkannt haben. Ein Bias, da Asthma erkrankte Personen viel früher im jeweiligen Stadium behandelt wurden.

Was ist der Unterschied zwischen Bias und Diskriminierung? Bias ist ein technisches Konzept, das sich z.B. auf Selektion, Sampling oder Reporting bezieht. Diskriminierung betrifft Eigenschaften, die als Basis für ungerechtfertigte und systematische Ungleichbehandlung in der Vergangenheit dienten. Sie ist abhängig vom Anwendungsfeld. Spitzfindig gefragt: Ist die Diskriminierung nicht der ‚Clou‘ von Machine Learning?

Algorithmischer Bias

Grundsätzliche sind Algorithmen ‘Black Boxes’ die durch Geschäftsgeheimnisse, rechtliche Grundlagen oder vorsätzliche Verdunkelung geschützt sind. Die Diskriminierung wird somit unsichtbar und eine Eliminierung oder Reduzierung verunmöglicht.

Man stelle sich nur vor Google müsste deren Such- Algorithmus offenlegen, oder Coca-Cola ihr Geheimrezept zum Drink.

Folgende Studie zeigt eine Diskriminierung, begründet auf algorithmischem Bias: Online-Marktplätze enthalten oft Informationen nicht nur über Produkte, sondern auch über die Menschen, die die Produkte verkaufen. Um Vertrauen zu schaffen, ermutigen viele Plattformen Verkäufer, persönliche Profile zur Verfügung zu stellen und sogar Bilder von sich selbst zu posten. Diese Merkmale können jedoch auch die Diskriminierung aufgrund der Rasse, des Geschlechts, des Alters oder anderer Merkmale der Verkäufer erleichtern. In einer Studie zur Rassendiskriminierung wurde aufgezeigt, dass bei AirBnB nicht-schwarze Gastgeber etwa 12% mehr als schwarze Gastgeber für die entsprechende Miete verlangen können und auch erhalten . Es wird somit das Risiko von Diskriminierung auf Online-Marktplätzen aufgezeigt und deutet auf eine wichtige unbeabsichtigte Folge eines scheinbar routinemäßigen Mechanismus zur Vertrauensbildung hin.

Fairness

Was wird unter Fairness verstanden? Welche der drei nachfolgenden Abbildungen ist fair?

Die obige Abbildung zeigt 3 verschiedene Konzepte von Fairness um das Bedürfnis, ein Fussballspiel zu verfolgen, gestillt werden kann.

  • Konzept 1: Equality (Gleichheit) – alle Personen erhalten die gleiche Behandlung – eine Kiste zum Draufstehen. Was zählt ist das jeder gleiche behandelt wird.
  • Konzept 2: Equity (Gerechtigkeit) – alle Personen bekommen gemäss ihrem Bedürfnis entsprechende Hilfe. Was zählt ist, dass alle Personen die gleiche Ausgangslage haben.
  • Konzept 3: Justice (Gerechtigkeit) – die Barriere, in diesem Fall der Zaun, wird soweit angepasst, dass alle Personen, gemäss ihren Voraussetzungen, den Service nutzen können.

Es stellt sich die Frage welche Art von Fairness ist gewollt und/ oder soll unter Umständen in ein bestehendes System eingegriffen werden? Nachfolgend eine Übersicht über die Bedeutung von Fairness. Und wieder gilt, gleich wie bei der Ethik, jede Kultur hat eine andere Sichtweise und Verständnis zu Fairness.

Abschliessend kann gesagt werden, dass es kein ‘One size fits for all’- Lösung gibt. Weder für Fairness noch für die Ethik. Gefragt ist, mehr denn je, gesunder Menschenverstand, Empathie und emotionale Intelligenz und eine auf die jeweilige Situation gerechte Entscheidung. Eigenschaften, die wir Maschinen gegenüber voraushaben. Eine quasi menschliche Überlegenheit.

Fazit: Das Thema Ethik in der digitalen Welt rückt mehr und mehr ins Zentrum des Geschehens. Wir stehen an der Weggabelung und es gilt die richtige Abzweigung zu erwischen, wenn wir unsere Zukunft nicht verbocken wollen. Ethik geht uns alle an, jetzt und in Zukunft.

Es war ein kurzweiliger und spannender Vormittag mit vielen Fragen und Aha- Momenten, die zum Nachdenken anregten. Vielen Dank Doro für deinen Unterricht, die vielen Insights und Anregungen – das war äusserst aufschlussreich.

Entdecken Sie unsere Kurse zum Thema

Start Jeweils im Januar und September

CAS AI Management HWZ

  • Marcel Blattner
  • 1 Semester (16 Tage)
  • Zürich; Sihlhof (direkt beim HB)
Mehr erfahren
Start August 2025

CAS AI Transformation HWZ

  • Marcel Blattner
  • 1 Semester (16 Tage inkl. 5 Tage Studienwoche off-site)
  • Zürich; Sihlhof (direkt beim HB)
Mehr erfahren
Start Februar 2025

CAS Digital Product Management with AI HWZ

  • Ralph Hutter
  • 1 Semester (16 Tage)
  • Zürich; Sihlhof (direkt beim HB)
Mehr erfahren
Start August 2025

CAS Digital Business Models & Strategy with AI HWZ

  • Ralph Hutter
  • 1 Semester (16 Tage)
  • Zürich; Sihlhof (direkt beim HB)
Mehr erfahren

Dein Persönliches Digital Update

Unser Newsletter liefert dir brandaktuelle News, Insights aus unseren Studiengängen, inspirierende Tech- & Business-Events und spannende Job- und Projektausschreibungen, die die digitale Welt bewegen.