Background: Bias von KI-Modellen: Der Fall Gemini
In den letzten Wochen sorgte Google mit seinem KI-Tool Gemini für Aufsehen, als es verzerrte Bilder von historischen Figuren und Ereignissen erstellte. Besonders kontrovers war die Darstellung von historischen Persönlichkeiten, wie den Gründervätern der USA oder deutschen Soldat:innen aus der Nazi-Zeit, als People of Color. Diese Vorfälle lösten eine breite Diskussion über die Voreingenommenheit von KI-Systemen und die Herausforderungen bei der Schaffung von Technologien aus, die sowohl genau als auch frei von Vorurteilen sind.
Googles Gemini ist dabei ein besonderer Fall. In der Vergangenheit fielen KI-Systeme eher dadurch auf, dass ihre Ergebnisse zu konservativ und nicht divers genug waren. Geminis Bilder sind dagegen zu divers und verzerren historische Fakten.
Google reagierte auf die Kritik mit einer Entschuldigung für die "Ungenauigkeiten bei einigen historischen Bildgenerierungen" und versprach, an Verbesserungen zu arbeiten. Sundar Pichai, der CEO von Google, adressierte die Situation in einem internen Memo und bezeichnete die Vorfälle als "vollkommen inakzeptabel". Er versicherte, dass intensiv an der Behebung dieser Probleme gearbeitet wird, und betonte die Notwendigkeit, die hohen Erwartungen an Google's KI-Technologien zu erfüllen. Geminis Bilderstellung ist seitdem übrigens deaktiviert.
Diese Episode wirft ein Schlaglicht auf die tiefgreifenden Herausforderungen, die mit der Entwicklung von KI-Systemen verbunden sind. Voreingenommenheit in KI-Systemen bezieht sich auf systematische und unfaire Verzerrungen in den Ergebnissen, die KI-Modelle produzieren. Diese können aufgrund der Daten entstehen, mit denen die Modelle trainiert werden, oder durch die unbeabsichtigten Vorurteile der Entwickler selbst. Ein häufiges Problem ist, dass die Trainingsdaten nicht repräsentativ für die Vielfalt der realen Welt sind oder historische Ungerechtigkeiten widerspiegeln.
Beispiele für Voreingenommenheit in KI-Systemen reichen von der Gesichtserkennungstechnologie, die bei der Erkennung von Gesichtern von weißen Männern wesentlich genauer ist als bei Frauen oder People of Color, bis hin zu Kreditvergabesystemen, die auf KI basieren und dazu neigen, niedrigere Kreditwürdigkeiten für Personen aus bestimmten demografischen Gruppen zu generieren.
Die Bekämpfung der Voreingenommenheit in KI-Systemen erfordert ein tiefes Verständnis der zugrunde liegenden Ursachen und eine Vielzahl von Ansätzen, darunter die Diversifizierung der Trainingsdaten und die Entwicklung von Algorithmen, die aktiv nach Voreingenommenheiten suchen und diese korrigieren können. Darüber hinaus ist die Vielfalt innerhalb der Teams, die KI-Systeme entwickeln, entscheidend, um potenzielle Voreingenommenheiten zu erkennen und zu adressieren.
Die ethische Entwicklung und Anwendung von KI erfordert eine fortlaufende Auseinandersetzung mit Fragen der Fairness, Transparenz und Verantwortlichkeit. Unternehmen und Entwickler:innen müssen sich ihrer Verantwortung bewusst sein und sicherstellen, dass ihre Systeme gerecht und unvoreingenommen sind. Dies beinhaltet regelmäßige Überprüfungen und Anpassungen der KI-Modelle sowie eine offene Kommunikation über deren Funktionsweise und Entscheidungsfindung.
Die Vorfälle rund um Google Gemini und die daraus resultierende Diskussion unterstreichen die Notwendigkeit, Voreingenommenheit in KI-Systemen ernst zu nehmen und proaktiv anzugehen. Es ist ein fortlaufender Prozess, der Engagement und Aufmerksamkeit von allen Beteiligten erfordert, um sicherzustellen, dass die Vorteile der KI-Technologie allen Menschen zugutekommen, unabhängig von ihrer Herkunft oder Identität.


