DIREKTKONTAKT
Bitte aktiviere JavaScript in deinem Browser, um dieses Formular fertigzustellen.
Mit dem Absenden dieses Formulars erklären Sie sich mit unserer Datenschutzerklärung einverstanden.

Dipl.-Ing. Jürgen Novotny
fon +49 (0) 2242 915 424
email jn@vivia.de

Hat eine KI Vorurteile? (Psst: ja!)

Hat eine KI Vorurteile? (Psst: ja!)

Die Diskriminierung durch KI ist ein bekanntes und gut dokumentiertes Problem. Zahlreiche Studien und reale Beispiele zeigen, dass KI-Systeme keineswegs immer objektiv sind, sondern im Gegenteil bestehende gesellschaftliche Vorurteile und Ungleichheiten übernehmen und sogar verstärken können.

Wie kann es zu Vorurteilen bzw. Voreingenommenheit bei KI-Systemen kommen?

Vorurteile in KI-Systemen entstehen in erster Linie dadurch, dass diese Systeme auf Basis von Daten trainiert werden, die menschliche Entscheidungen, Bewertungen und gesellschaftliche Strukturen widerspiegeln. Wenn die zugrunde liegenden Trainingsdaten bereits Stereotype oder Diskriminierungen enthalten, übernimmt und verstärkt die KI diese Vorurteile in ihren eigenen Ergebnissen. Das Problem wird zusätzlich verschärft, wenn die Entwicklerteams, die die KI-Modelle gestalten und trainieren, nicht ausreichend divers sind und ihre eigenen bewussten oder unbewussten Vorurteile in die Systeme einfließen lassen.

Auch undurchsichtige Algorithmen und mangelnde Vielfalt in den Datenquellen tragen dazu bei, dass KI-Systeme nicht neutral agieren, sondern bestehende gesellschaftliche Ungleichheiten und Klischees reproduzieren. Dies kann dazu führen, dass KI-basierte Entscheidungen, etwa bei der Personalauswahl, Kreditvergabe oder Strafverfolgung, bestimmte Gruppen systematisch benachteiligen oder diskriminieren.

Hat eine KI Vorurteile? (Bildprompt für Midjourney: J. Novotny)

Bildprompt für Midjourney: J. Novotny

Wie erlernen KI-Systeme Vorurteile?

KI-Systeme lernen oft Vorurteile aus menschlichen Daten, weil sie auf großen Mengen historischer Informationen trainiert werden, die menschliche Entscheidungen, Bewertungen und gesellschaftliche Strukturen widerspiegeln. Diese Trainingsdaten enthalten häufig bereits Stereotype, Ungleichheiten oder Diskriminierungen, die über Jahre oder Jahrzehnte hinweg entstanden sind. Wenn eine KI mit solchen Daten arbeitet, übernimmt sie die darin enthaltenen Vorurteile und reproduziert sie in ihren eigenen Ergebnissen, da sie keine eigene moralische Bewertung vornimmt, sondern lediglich Muster erkennt und verstärkt.

Ein Beispiel dafür ist, dass ein Algorithmus bei der Analyse von Bewerbungen schlechtere Chancen für Frauen in technischen Berufen prognostiziert, wenn die historischen Daten zeigen, dass dort überwiegend Männer eingestellt wurden. Auch kulturelle und gesellschaftliche Stereotype, wie die Zuordnung bestimmter Namen zu bestimmten Eigenschaften, werden von KI-Systemen übernommen, wenn sie in den Daten vorhanden sind. Die Ursache liegt also darin, dass Algorithmen die Realität so widerspiegeln, wie sie in den Daten abgebildet ist, und dadurch bestehende Vorurteile oder Diskriminierungen oft unbewusst weitertragen und sogar verstärken.

Was kann dagegen unternommen werden?

Transparente Algorithmen können Diskriminierung in KI-Systemen reduzieren, indem sie die Entscheidungsprozesse nachvollziehbar und überprüfbar machen. Wenn klar ersichtlich ist, wie und auf welcher Grundlage eine KI zu einem bestimmten Ergebnis kommt, lassen sich diskriminierende Muster oder Verzerrungen in den Daten und im Modell leichter erkennen und hinterfragen. Durch Transparenz können Fehlerquellen identifiziert und gezielt Maßnahmen ergriffen werden, um Vorurteile zu minimieren, etwa durch Anpassungen der Datenbasis oder der Entscheidungsregeln. Zudem ermöglichen transparente Algorithmen eine unabhängige Kontrolle und regelmäßige Folgenabschätzungen, die helfen, Diskriminierungsrisiken frühzeitig zu erkennen und zu beheben. Insgesamt schafft Transparenz die Voraussetzung dafür, dass KI-Systeme fairer gestaltet werden können und ihre Entscheidungen für alle Beteiligten nachvollziehbar und überprüfbar sind.

Quellen zum Weiterlesen:

Bias in AI (Quelle: Chapman University)
What is AI bias? (Quelle: SAP)
Bias in AI amplifies our own biases (Quelle: UCL)
Bias evaluation (Quelle: Dr. Kris SHRISHAK)
Was ist algorithmische Verzerrung? (Quelle: IBM)

Schutz vor Diskriminierung durch eine KI?

Bisherige Gesetze wie das Allgemeine Gleichbehandlungsgesetz (AGG) sind meist auf menschliche Diskriminierung ausgelegt und greifen bei algorithmischen oder KI-basierten Entscheidungen nur eingeschränkt. Es fehlen bisher spezifische Regelungen, die auch die Besonderheiten und Risiken von KI-Systemen abdecken, etwa die mangelnde Nachvollziehbarkeit oder die Gefahr, dass bestehende gesellschaftliche Vorurteile automatisiert und im großen Maßstab reproduziert werden.