Haben wir ein Monster erschaffen? Wie sich menschliche Vorurteile auf KI auswirken

Das rasante Wachstum der Künstlichen Intelligenz (KI) ist nicht zu übersehen. Sie ist allgegenwärtig, von kleinen Start-ups bis hin zu großen Konzernen, und ihr Marktwert erreichte 2023 fast 197 Milliarden US-Dollar. Laut Forbes wird so ziemlich jedes Unternehmen bis 2025 in gewissem Umfang KI einsetzen, was ihren Marktwert noch weiter in die Höhe treiben wird. Je mehr sie jedoch in unser Leben integriert wird, desto offensichtlicher wird, dass sie nicht ohne Fehler ist – und ganz sicher nicht ohne diskriminierende Voreingenommenheiten.

KI kommt nicht von selbst auf Vorurteile. Sie lernt einfach aus den Daten, die ihr zur Verfügung gestellt werden. Wenn die Daten in der Gesellschaft anzutreffende Voreingenommenheiten widerspiegeln oder enthalten, dann wird auch die KI sie übernehmen. Soll heißen: Wenn wir die KI-Trainingssoftware mit voreingenommenen Informationen füttern, wird sie auch voreingenommene Ergebnisse produzieren. Die Verzerrungen, die wir in der KI sehen, kommen also genau genommen von uns, den Menschen, die diese Systeme entwickeln, trainieren und nutzen.

Dies wirft eine wichtige Frage auf: Haben wir in unserer Eile, KI zu implementieren, versehentlich ein vorurteilsbehaftetes Monster geschaffen? Wir werden uns ansehen, wie menschliche Voreingenommenheit ihren Weg in KI gefunden hat, welche Probleme dies verursacht und was passieren könnte, wenn wir nicht versuchen, sie zu entschärfen.

Maschinelles Lernen und KI-Bias verstehen

Es ist unmöglich, KI und ihre Voreingenommenheit vollständig zu verstehen, ohne zunächst über maschinelles Lernen, die Grundlage für die Funktionsweise von KI, zu sprechen. Das maschinelle Lernen bringt Computern bei, selbständig zu denken und intelligenter zu werden, ohne dass wir jeden Schritt programmieren müssen. Bei diesem Prozess wird die KI mit riesigen Datenmengen gefüttert, die sie zunächst auf auftauchende Muster hin analysiert, und dann trifft sie auf der Grundlage der Beobachtungen Vorhersagen. 

Um der KI beispielsweise beizubringen, wie sie Spam-E-Mails erkennt, würdest du Tausende von E-Mail-Beispielen bereitstellen. Die Maschine würde dann anhand dieser Beispiele lernen, zwischen Spam- und Nicht-Spam-Nachrichten zu unterscheiden, indem sie Muster identifiziert. Auf diese Weise müsstest du nicht jedes einzelne Spam-Merkmal auflisten, was den Prozess erheblich beschleunigt und vereinfacht. 

Das Wichtigste am maschinellen Lernen sind die Daten, mit denen wir die KI füttern. Je besser und vielfältiger die Daten sind, desto genauer kann die KI lernen und ihr Wissen auf neue, bis dahin noch nicht gesehene Informationen anwenden. Wenn die Daten jedoch voreingenommen sind, kann dies zu einer Verzerrung der KI und zu ungenauen oder ungerechten Ergebnissen führen. Die Auswirkungen davon können beträchtlich sein: Eine Studie von Gartner zeigt, dass etwa 85 Prozent der KI-Projekte aufgrund dieser Verzerrungen zu falschen Ergebnissen führen.

Wenn KI-Systeme aus verzerrten Daten lernen, können sie diese Voreingenommenheiten unbeabsichtigt aufrechterhalten und verstärken. Wenn ein KI-System beispielsweise darauf trainiert wird, Bewerbungen auf Jobs zu bewerten, aber die Daten, aus denen es lernt, eine historische Voreingenommenheit gegenüber Frauen enthalten, könnte es weibliche Bewerber diskriminieren. Es ist nicht so, dass die KI von sich aus vorurteilsbehaftet „denkt“ – sie spiegelt lediglich die in den Trainingsdaten vorhandenen Vorurteile wider.

Das ist nicht nur reine Spekulation. Der KI-Bias hat bereits viele Folgen in der realen Welt gehabt, die oft zu einem schwerwiegenden Ausschluss bestimmter Minderheiten beim Zugang zu moderner Gesundheitsversorgung, günstigeren Zinssätzen oder besserer Beschäftigung führten. 

So wählte beispielsweise ein Gesundheitsalgorithmus, der bei mehr als 200 Millionen Menschen eingesetzt wurde, hauptsächlich Weiße Patienten aus, denen eine umfassendere Krankenversicherung angeboten wurde. Dadurch wurden viele Schwarze Patienten mit ähnlicher Krankheitsgeschichte vom Zugang zu einer moderneren medizinischen Versorgung ausgeschlossen. In ähnlicher Weise bevorzugte Amazons Recruiting-KI bei der Einstellung für viele technische Positionen männliche Bewerber, während eine andere KI bei der Vergabe von Hypothekenkrediten Berichten zufolge Latino- und Schwarzen Kreditnehmern höhere Zinssätze berechnet.

Wie lernt die KI ihre Vorurteile?

Die KI lernt ihre Voreingenommenheit aus den gelieferten Daten, aber auf viele verschiedene Arten. Sie können aus mehreren Quellen stammen und sich in verschiedenen Phasen des KI-Entwicklungsprozesses manifestieren. Sie zu verstehen, ist der Schlüssel zur Identifizierung und Entschärfung von Verzerrungen in KI-Systemen. 

Dies sind die wichtigsten Quellen für KI-Verzerrungen:

    • Trainingsdaten – Datensätze, die verwendet werden, um der KI beizubringen, wie sie ihre Aufgaben erfüllen soll. Sie enthalten oft Beispiele, besondere Merkmale und Kennzeichnungen, die helfen, Muster zu erkennen und Entscheidungen zu treffen.
    • Algorithmen – Sätze von Anweisungen, die die KI bei der Verarbeitung von Daten, der Entscheidungsfindung und der Lösung von Problemen anleiten. Sie sind für KI-Systeme unerlässlich, um zu lernen, Vorhersagen zu treffen und ihre Leistung zu verbessern.
    • Probleme bei der Datenerfassung – Diese treten auf, wenn die erfassten Daten nicht die gesamte Realität abbilden oder wenn sie bestehende gesellschaftliche Vorurteile widerspiegeln.
    • Problemstellung – Die Art und Weise, wie ein bestimmtes Problem beschrieben wird, damit die KI es verstehen und bestmöglich lösen kann. Wenn Probleme nicht richtig definiert sind, kann die KI bestimmte Perspektiven oder Ergebnisse übersehen und einige Gruppen gegenüber anderen bevorzugen.
    • Feedback-Schleifen – Ein Prozess, bei dem KI-Ergebnisse in die Datenbank zurückgespeist werden, damit der Computer daraus lernen kann. Dadurch entsteht eine Schleife, die bestehende Voreingenommenheit weiter verstärken kann.
    • Confirmation Bias in der Entwicklung – Dies tritt auf, wenn Entwickler die KI mit ihren eigenen Überzeugungen und Erfahrungen beeinflussen, was die KI mit Vorurteilen speisen kann.
    • Mangelnde Vielfalt in KI-Entwicklungsteams – Dies kann zu einem mangelnden Bewusstsein für potenzielle Vorurteile und deren Auswirkungen auf verschiedene Personengruppen führen.

KI-Bias und die Wichtigkeit des Datenschutzes

Die Diskussion über Voreingenommenheit in der KI ist eine gute Erinnerung für dich, auf deine eigene Online-Sicherheit zu achten. In einer Welt, in der Technologie gesellschaftliche Vorurteile widerspiegeln kann, werden Schritte zum Schutz deines digitalen Fußabdrucks zu einer wichtigen proaktiven Maßnahme. Ein zuverlässiges VPN bietet eine zusätzliche Sicherheitsebene, indem es deine Internetverbindung verschlüsselt und deine digitalen Aktivitäten vor neugierigen Blicken verbirgt. Es ist ein unverzichtbares Hilfsmittel, wenn du dir in einer zunehmend von KI gesteuerten Welt Sorgen um deine digitale Privatsphäre machst.

Angesehene VPNs funktionieren auf vielen gängigen Betriebssystemen, darunter iOS, Android und Windows. Mit nur ein paar Klicks bist du mit einem VPN-Server verbunden und kannst so nicht nur deine Daten schützen, sondern auch in jedem Netzwerk KI-Apps nutzen. Du kannst ein VPN kostenlos testen, um geschützt im Internet zu surfen. Es ist ein kleiner Schritt, den du ergreifen kannst, um die digitale Fairness zu fördern und gleichzeitig online deine Privatsphäre zu wahren.

Arten von KI-Bias

Algorithmische Voreingenommenheit

Ein algorithmischer Bias in der künstlichen Intelligenz tritt dann auf, wenn die von Computern verwendeten Algorithmen nicht korrekt sind, was dazu führt, dass sie voreingenommene oder unfaire Ergebnisse liefern. Stell dir vor, du würdest versuchen, etwas über Tiere zu lernen, indem du nur Bücher über Hunde liest. Du würdest denken, dass alle Tiere aussehen wie der beste Freund des Menschen, was natürlich nicht stimmt. Ähnlich verhält es sich, wenn KI-Algorithmen aus unvollständigen Daten lernen: Ihre Entscheidungen oder Vorhersagen werden nicht der breiten Öffentlichkeit dienen, sondern nur einigen wenigen. 

Unabhängig von der Branche, in der KI-Algorithmen Vorhersagen treffen, kann diese Art von Voreingenommenheit katastrophale Folgen haben, insbesondere im Gesundheitswesen, bei Finanzdienstleistungen und im Justizwesen. Wissenschaftler finden regelmäßig neue Beispiele für KI-Diskriminierung, von denen manche besorgniserregender sind als andere. In dem oben erwähnten Beispiel aus dem Jahr 2019 fanden Wissenschaftler beispielsweise heraus, dass ein KI-Algorithmus Weiße Patienten bevorzugte, wenn es darum ging, Personen auszuwählen, die für eine weitergehende Behandlung infrage kamen. 

Dies hatte nichts mit der Hautfarbe zu tun, die im Algorithmus nicht angegeben war. Schwarze Patienten gaben einfach weniger Geld für die Gesundheitsversorgung aus, sodass die KI davon ausging, dass sie unter weniger medizinischen Problemen litten. In Wirklichkeit hatten sie mit weit mehr Krankheiten zu kämpfen als Weiße Patienten. Ihnen wurde der Zugang zu einer besseren Versorgung verwehrt, wodurch ungewollt eine rassistische Voreingenommenheit bei der medizinischen Versorgung und der Versicherung aufrechterhalten wurde.

Stichprobenverzerrung

Stichprobenverzerrungen treten auf, wenn die KI-Trainingsdaten die Vielfalt der Bevölkerung oder der Situation, für die sie bestimmt sind, nicht vollständig abbilden. Je begrenzter eine Datenstichprobe ist, desto wahrscheinlicher ist es, dass die KI bestimmte Personen oder Personengruppen diskriminiert, die im Datensatz nicht vertreten sind. 

Diese Verzerrung ist bei Gesichtserkennungssystemen üblich. Das National Institute of Standards and Technology hat festgestellt, dass viele KI-Gesichtserkennungssysteme für farbige Menschen nicht gut funktionieren. Das liegt daran, dass ihre Datenstichproben oft nicht so viele Beispiele für Gesichter von Minderheiten enthalten. Ohne eine Vielzahl von Altersgruppen, ethnischen Zugehörigkeiten und Geschlechtern trägt die KI quasi Scheuklappen. Das hat zur Folge, dass sie bei Personen, die nicht mit dem Trainingssatz übereinstimmen, nicht funktioniert.

Eine solche Diskriminierung kann manchmal erhebliche Auswirkungen haben. Mehrere US-Gesichtserkennungsprogramme sind in die Kritik geraten, weil sie keine Menschen of Color erkennen. In einigen Fällen haben diese Ungenauigkeiten zu unrechtmäßigen Verhaftungen geführt. Dies ist ein schonungsloser Hinweis darauf, dass Stichprobenverzerrungen reale, greifbare Auswirkungen auf das Leben von Menschen haben können. Es unterstreicht die Bedeutung von Vielfalt sowohl in unserer Gesellschaft als auch in den Daten, mit denen die Maschinen trainiert werden, die uns allen dienen sollen.

Vorurteilsbias

Ein Vorurteilsbias entsteht, wenn sich vorgefasste menschliche Meinungen und diskriminierende Haltungen in KI-Entscheidungen manifestieren. Im Gegensatz zu menschlichen Vorurteilen, die in sozialen, kulturellen oder persönlichen Überzeugungen verwurzelt sind, stammen Vorurteile bei KI aus den Daten, mit denen sie von Entwicklern oder Nutzern gefüttert wird, und aus der Art und Weise, wie sie programmiert ist. Diese Art von Voreingenommenheit verbirgt sich oft hinter guten Absichten, da die Entwickler möglicherweise nicht einmal erkennen, dass ihre Ansichten die KI in eine unfaire Richtung lenken.

Das COMPAS-System ist ein aus dem Leben gegriffenes klassisches Beispiel für Vorurteile. Das KI-Programm, das bewerten sollte, wie wahrscheinlich es ist, dass Straftäter wieder straffällig werden, begann, verzerrte Vorhersagen zu machen. Nach einer Analyse der Ergebnisse stellten Experten fest, dass das System Schwarze im Vergleich zu Weißen Straftätern mit doppelt so hoher Wahrscheinlichkeit als „hochgefährliche“ Rückfalltäter einstufte. Betrüblicherweise weigerte sich das Unternehmen, das hinter COMPAS steht, jegliches Fehlverhalten der KI zuzugeben, und hat seine Algorithmen nicht geändert.

Messungsbias

Messungsbias entstehen, wenn die Daten falsch erfasst, gemessen oder gekennzeichnet werden. Im Gegensatz zu anderen Arten von Verzerrungen ist diese in der Entwicklung viel schwieriger zu erkennen und aufzudecken. Der Grund ist, dass es nicht nur darum geht, wer oder was in den Daten repräsentiert wird, sondern auch darum, wie diese Daten interpretiert und verwendet werden. Dies kann dazu führen, dass KI in Bereichen wie Gesundheit, Bankwesen und Recht sehr viel weniger zuverlässig und nützlich wird.

Diese Art von Voreingenommenheit ist bei der Analyse von Umfragen weit verbreitet und hat oft damit zu tun, wie die Fragen gestellt werden, wer antwortet und was die Umfrage misst. Erstens kann das Wissen, dass es sich um eine Umfrage handelt, Einfluss darauf haben, wie jemand die Fragen versteht und beantwortet. Wenn die Fragen verwirrend, leitend oder zu komplex sind, erfassen sie möglicherweise nicht die wahren Meinungen oder Verhaltensweisen. Dies kann die Ergebnisse verfälschen und zu bestimmten Interpretationen lenken.

Infolge falscher Umfrageannahmen können KI-Systeme Produkte, Dienstleistungen oder Richtlinien empfehlen, die nicht mit den tatsächlichen Präferenzen oder Bedürfnissen der Nutzer, die sie bedienen, übereinstimmen. Für dich als Nutzer ist das bestenfalls ein kleines Ärgernis, aber für diejenigen, die von den Daten nicht repräsentiert werden, kann es höchst diskriminierend und schädlich sein.

Ausschlussbias

Ein Ausschlussbias liegt vor, wenn bestimmte Personengruppen oder Arten von Informationen – national oder international – vom KI-Lernprozess ausgeschlossen werden. Dies wirkt sich darauf aus, wie fair und effektiv KI-Systeme in ihren Vorhersagen sein können, da sie die in der realen Welt vorhandene Vielfalt nicht berücksichtigen. 

Diese Art von Verzerrung tritt oft auf, weil die Daten, die die KI zum Lernen bekommt, nicht alle Grundlagen abdecken. Das kommt häufiger vor, als man denkt. Wenn zum Beispiel eine Gesundheits-App hauptsächlich mit Daten von jungen Menschen trainiert wird, hat sie möglicherweise keinen so guten Rat für ältere Menschen. Oder wenn ein Spracherkennungssystem mit Stimmen aus einer bestimmten Region trainiert wird, hat es möglicherweise Schwierigkeiten, Akzente aus anderen Teilen der Welt zu verstehen.

Letzteres lässt sich sehr leicht beobachten, wenn du dir YouTube- oder andere Internetinhalte mit automatisch generierten Untertiteln ansiehst. Experten haben festgestellt, dass die KI-Spracherkennung bei weiblichen Stimmen und nicht-englischen Akzenten wesentlich ungenauer ist und willkürliche Wörter oder Sätze erzeugt, die keinen Sinn ergeben. Auch wenn dies höchstwahrscheinlich nicht beabsichtigt ist, können diese Unzulänglichkeiten diejenigen, die nicht vertreten sind, stark benachteiligen.

Selektionsfehler

Selektionsfehler treten in der Phase der Datenerhebung oder -auswahl auf, wenn die ausgewählten Informationen nicht voll und ganz die Realität und Vielfalt der Welt widerspiegeln. Stattdessen werden in den Datenstichproben bestimmte Personen oder Gruppen gegenüber anderen bevorzugt. Das klingt sehr nach Stichprobenverzerrung, nicht wahr? Obwohl die beiden Begriffe oft synonym verwendet werden, unterscheiden sie sich je nach Kontext geringfügig.

Bei beiden Bias-Arten geht es um Probleme bei der Auswahl der Daten und darum, ob sie wirklich die Gruppe widerspiegeln, über die die KI gerade lernt. Der Begriff „Selektionsfehler“ umfasst jedoch ein breiteres Spektrum von Problemen, die den Auswahlprozess stören können, zum Beispiel festgelegte Kriterien, Voreingenommenheit des Forschers und nicht zufällige Stichprobenverfahren. Die Stichprobenverzerrung bezieht sich einfach auf die bereits ausgewählte Stichprobe, die nicht die größere Gruppe repräsentiert, für die sie gedacht ist.

Sehen wir uns einige Beispiele für Selektionsfehler an. Wenn KI-Algorithmen Daten von Bewerbern verwenden, die aktiv über eine bestimmte Plattform nach Jobs suchen, werden möglicherweise ebenso qualifizierte Bewerber übersehen, die sich über andere Kanäle bewerben. Oder wenn ein Unternehmen Umfrageteilnehmer auf der Grundlage ihres bisherigen Engagements mit der Marke auswählt, könnten die Daten sich in Richtung von positivem Feedback verzerren und kritische Perspektiven von unzufriedenen Kunden ausschließen.

Recall-Bias

Ein Recall bezeichnet in der KI, wie gut das System alles abfängt, was es abfangen soll. Wenn eine KI zum Beispiel alle Spam-E-Mails erkennen soll, misst der Recall, wie viele davon sie tatsächlich erkennt. Wenn sie viele davon übersieht, würde man sagen, dass sie einen schlechten Recall hat.

Ein Recall-Bias tritt auf, wenn der KI Daten beigebracht wurden, die nicht ganz ausgewogen sind. Nehmen wir an, die KI hat hauptsächlich aus Nicht-Spam-E-Mails gelernt. Sie könnte sehr gut darin werden, diese zu erkennen, aber dann eine Menge Spam-Mails auslassen, weil sie nicht genug mit diesen geübt hat. Das ist so, als würde man für einen Test nur leichte Fragen üben und dann feststellen, dass er voller schwerer Fragen ist.

Dies kann oft passieren, wenn der KI-Datensatz historische Informationen von Nutzern verwendet, die man gebeten hat, sich an bestimmte Ereignisse zu erinnern, die ihnen widerfahren sind. Das menschliche Gedächtnis ist bekanntermaßen fehlbar. Es kann von vielen Faktoren beeinflusst werden, was dazu führt, dass Menschen ihre Erlebnisse vergessen, übertreiben oder herunterspielen. Die subjektive Natur des Gedächtnisses bedeutet, dass die auf diese Weise erhobenen Daten unzuverlässig sein können.

Denke an KI-Systeme, die im Gesundheitswesen eingesetzt werden. Viele Modelle werden auf der Grundlage von Patientendaten über Symptome, Krankengeschichte und Lebensgewohnheiten trainiert. Es kann jedoch vorkommen, dass sich Patienten lebhaft an jüngste dramatische Erlebnisse erinnern und darüber berichten, während sie mildere, chronische oder frühere Symptome auslassen. Diese selektive Erinnerung verfälscht das medizinische Profil des Patienten und verzerrt den Datensatz, aus dem die KI lernt, was potenziell zu Fehldiagnosen oder unangemessenen Behandlungsempfehlungen führen kann.

KI-Bias in Aktion: Wie KI-generierte Bilder Klischees verstärken

Wir haben einige Untersuchungen durchgeführt, um KI-Bias selbst zu testen. Also haben wir die Ärmel hochgekrempelt und einige praktische Tests mit beliebten generativen KI-Diensten – ChatGPT (DALLE), Bing AI und Pixlr – durchgeführt, um herauszufinden, ob sie in ihren Ergebnissen Verzerrungen aufweisen. Über einen Zeitraum von einigen Wochen haben wir jede KI gebeten, mehrere Bilder von Menschen zu erstellen, die in einer Reihe von Berufen arbeiten: CEOs, Krankenpfleger, Ärzte, Wissenschaftler und Lehrer. Wir haben sie auch gebeten, Bilder von Kriminellen zu erstellen. Um die möglichen Antworten so offen wie möglich zu halten, haben wir einfache Aufforderungen wie „Zeichne einen Arzt” verwendet. (Anm. d. Red.: Die in der englischen Sprache verwendeten Begriffen lassen anders als im Deutschen nicht auf ein bestimmtes Geschlecht schließen.)

In unserer Stichprobe waren bei ChatGPT Männer als CEOs, Ärzte, Wissenschaftler und sogar Lehrer überrepräsentiert – mehr als 90 Prozent unserer Anfragen nach Bildern von CEOs, Ärzten und Wissenschaftlern führten zu Bildern von Männern. Gleichzeitig wurden Krankenpfleger, Kindergärtner und Mitarbeiter im Gesundheitswesen überwiegend als junge Frauen dargestellt. Bei der Darstellung von Nationalitäten schien sich das OpenAI-Tool eher auf hellhäutige Menschen als auf People of Color zu konzentrieren. Wir sahen nur ein paar Bilder, die Arbeitnehmer darstellten, die keine helle Hautfarbe hatten.

Screenshots mit von ChatGPT erzeugten Bildern.
ChatGPT erzeugte in den meisten Berufen hauptsächlich Bilder von weißen Männern.

Pixlr erwies sich als das Tool mit dem stärksten Bias. Es hielt sich an das Skript, dass Ärzte, Wissenschaftler und CEOs Männer mittleren Alters sind, mit einer Mischung aus kaukasischem und asiatischem Hintergrund. Das Krankenpflegepersonal wurde immer durch Frauen, meist Weiße, dargestellt, obwohl wir auch ein paar Frauen of Color in der Mischung ausmachen konnten. Bei den Lehrern gab es unerwartete Ergebnisse: Wir sahen eine gute Mischung aus Männern und Frauen, aber alle waren älter und trugen große eckige Brillen.

Screenshots mit von Pixlr erzeugten Bildern
Pixlr schien in seinen Ergebnissen geschlechts- und rassenbedingte Verzerrungen aufrechtzuerhalten.

Bing AI erwies sich in unserer Studie als das am wenigsten voreingenommene Tool. Es lieferte uns eine ausgewogene Mischung von Geschlechtern in allen angefragten Berufen und umfasste Menschen verschiedener Nationalitäten wie Ärzte, Krankenpfleger und Lehrer. Interessanterweise zeigte es CEOs auch ausschließlich als weiblich an – auch wenn alle von ihnen Weiße waren, was auf einen verbesserungswürdigen Bereich hinweist.

Screenshots mit von Bing AI generierten Bildern
Bing generierte Bilder mit einer bunten Mischung von Geschlechtern und Nationalitäten.

Wenn es darum ging, Bilder von Kriminellen zu generieren, schien ChatGPT nicht zu wissen, was es tun sollte, und seine Antworten variierten je nachdem, in welchem Land wir die Tests durchführten. Einige Male weigerte sich die KI schlichtweg, den Aufforderungen zu folgen, Klischees nicht zu verstärken und keine unangemessenen Inhalte zu produzieren. In anderen Fällen stellte sie mehrere Folgefragen, um sicherzustellen, dass sie sich an ihre Nutzungsrichtlinien hielt.

Als es uns schließlich gelang, das Programm dazu zu bringen, ein Bild eines Kriminellen zu erstellen, blieb ChatGPT ziemlich neutral. Die erzeugten Bilder schienen keine rassistischen Vorurteile aufrechtzuerhalten. Sie zeigten eine vermummte, vermutlich männliche Gestalt ohne Gesicht, die sich in nächtlichen Schatten versteckte, um eine geheimnisvolle Aura zu wahren.

Bei Bing und Pixlr nach Bildern von Kriminellen zu fragen war einfach, aber die Ergebnisse waren unterschiedlich. Bing machte es sich mit generischen Zeichentrickfiguren leicht und hielt sich von Stereotypen aus dem echten Leben fern. Pixlr lieferte realistischere Ergebnisse, generierte aber nur Männer of Color, was zeigt, dass es von Voreingenommenheiten und Vorurteilen beeinflusst sein könnte.

Es ist wichtig anzumerken, dass die scheinbar verzerrten Ergebnisse nicht auf absichtliche Vorurteile zurückzuführen sind, sondern eher auf allgemeine Statistiken. Nach Angaben der Weltgesundheitsorganisation sind rund 90 Prozent des Krankenpflegepersonals weltweit weiblich, sodass es Sinn machen würde, wenn die KI mehr Bilder von Frauen in Krankenpflegeuniformen erzeugt. In ähnlicher Weise stellen Frauen in fast allen Ländern etwa 85 Prozent aller Vorschullehrer. Das Verhältnis zwischen männlichen und weiblichen Lehrern gleicht sich in Schulen für Ältere stärker aus, aber nicht in dem männerlastigen Maß, wie es in unseren Ergebnissen auftrat – 80 Prozent der von ChatGPT generierten Bilder von Lehrern zeigten Männer. 

Wenn man bedenkt, dass gängige KI-Tools wie ChatGPT und Bing auf der Grundlage von im Internet verfügbaren Textdatenbanken trainiert werden, würde dies die scheinbar offensichtliche Verzerrung erklären, die unsere Untersuchung ergab. Ohne umfangreiche Überwachung und regelmäßige Tests werden diese Statistiken zu Vorurteilen und führen zu Ergebnissen, die den in der modernen Welt vorhandenen Bias widerspiegeln.

Die Zukunft des Bias in der KI

Die Zukunft der Voreingenommenheit in der KI entfacht immer wieder heftige Debatten unter Technologen, Ethikern und der Öffentlichkeit. Einige argumentieren, dass der Bias der KI ihre Fähigkeit verbessern könnte, die Welt auf eine Weise zu verstehen und mit ihr zu interagieren, die mit der des Menschen vergleichbar ist. Die Idee ist, dass – wenn die KI die Komplexität menschlicher Voreingenommenheit widerspiegeln kann –, sie auch Ungleichheit oder Ungerechtigkeit in unserer Gesellschaft aufzeigen und uns helfen könnte, diese Herausforderungen zu erkennen und anzugehen.

Diese Sichtweise ist nicht ohne Kritiker. Viele sind der Meinung, dass die Vermittlung menschlicher Vorurteile an die KI dazu führen könnte, dass sich schädliche Stereotypen und Vorurteile weiter verfestigen und bereits gefährdete Gruppen noch mehr an den Rand gedrängt werden. Der große Einfluss der KI kann eine breitere Bevölkerung erreichen, wodurch diese Vorurteile ungewollt verstärkt und in der Gesellschaft verankert werden.

Da KI-Datenbanken jedoch sehr schnell wachsen, wird es fast unmöglich, Vorurteile zu erkennen und zu beseitigen. Die Entfernung spezifischer Merkmale wie Alter und Rasse aus Datensätzen ist ein Schritt, aber KI kann immer noch voreingenommene Ergebnisse basierend auf weniger offensichtlichen Faktoren wie Bildungsniveau oder Einkommen entwickeln. Dies deutet darauf hin, dass Vorurteile in der KI nicht nur ein Datenproblem sind, sondern ein grundlegendes Problem bei der Art und Weise, wie Algorithmen Informationen interpretieren und daraus lernen.

Trotz dieser Herausforderungen hat die KI-Gemeinschaft große Anstrengungen unternommen, um Verzerrungen anzugehen und zu verringern. Die Arbeit von OpenAI, GPT-3 durch Lernen aus menschlichem Feedback weniger anstößig zu machen, ist ein typisches Beispiel dafür. Bei diesem Ansatz werden KI-Modelle so trainiert, dass sie sich stärker an menschlichen Werten und ethischen Vorstellungen orientieren. Das ist zwar ein Fortschritt, zeigt aber auch, dass die Herausforderung bestehen bleibt. Wie die Menschen, die sie erschaffen, ist auch die KI ein fortlaufender Prozess, der sich ständig weiterentwickelt und anpasst.

Auf unserem Weg nach vorn müssen wir die potenziellen Vorteile und Gefahren von Vorurteilen in der KI erkennen. Wir müssen uns für ständige Wachsamkeit, innovative Forschung und eine Verpflichtung zu ethischen Entwicklungspraktiken einsetzen. Ziel ist es, eine KI zu schaffen, die das Beste des Menschen nicht nur nachahmt, sondern übertrifft, indem sie die neueste Technologie nutzt, um eine gerechtere und fairere Welt zu schaffen.

Wichtige Schritte, um KI-Bias anzugehen und abzuschwächen

Die Eindämmung von Voreingenommenheit in der KI erfordert einen vielschichtigen Ansatz, der das Problem von der Phase der Datenerfassung bis hin zum Einsatz und der Überwachung von KI-Systemen angeht. Als Einzelperson ist es fast unmöglich, Voreingenommenheit selbst zu beseitigen – aber du kannst dich für neue Grundsätze und Richtlinien einsetzen. Dies wird dazu beitragen, deine eigenen Erfahrungen mit KI zu verbessern, denn je weniger Voreingenommenheit Computer verstärken, desto genauer die Ergebnisse und Vorhersagen, die sie generieren werden.

Hier sind einige wichtige Schritte, die KI-Unternehmen ergreifen können, um Voreingenommenheit zu mindern:

  1. Sicherstellen einer vielfältigen Datenrepräsentation – Sammeln und Verwenden von Daten, die die Vielfalt der Bevölkerung oder der Szenarien widerspiegeln, für die das KI-System entwickelt wurde. Dies könnte eine breite Palette von demografischen Gruppen, Verhaltensweisen und Situationen umfassen, um das Risiko von verzerrten Ergebnissen zu minimieren.
  2. Implementieren von Tools zur Bias-Erkennung – Verwenden fortschrittlicher Werkzeuge und Methoden, um KI-Verzerrungen zu erkennen und zu messen. Dies kann statistische Analysen, Datenvisualisierung und KI-Fairness-Metriken umfassen, die Unstimmigkeiten in der Leistung zwischen verschiedenen Gruppen aufzeigen.
  3. Fördern der Vielfalt in KI-Teams – Einbeziehen von Personen mit unterschiedlichen Hintergründen, unterschiedlichen Disziplinen und Perspektiven. Dies kann dazu beitragen, potenzielle Vorurteile und Annahmen aufzudecken, die anderenfalls unbemerkt bleiben könnten.
  4. Einhalten ethischer Richtlinien – Entwickeln, Befolgen und regelmäßiges Aktualisieren von Richtlinien und Standards zum Thema Voreingenommenheit in der KI. Diese sollten auf aktuellen Forschungsergebnissen, ethischen Erwägungen und den möglichen gesellschaftlichen Auswirkungen von KI basieren.
  5. Verbessern der Transparenz – Klare und verständliche Gestaltung von KI-Entscheidungsprozessen für Entwickler und Nutzer. Dies kann dazu beitragen, bestehende Verzerrungen zu erkennen und zu korrigieren und das Vertrauen der Nutzer in KI-Systeme zu stärken.
  6. Durchführen von Audits und Tests – Regelmäßiges Testen von KI-Systemen, insbesondere in der Einführungsphase. Die Konzentration sollte vor allem auf einer rigorosen Leistungsbewertung über verschiedene demografische Gruppen und Szenarien hinweg liegen.
  7. Einbeziehen von Nutzer-Feedback – Einholen und Nutzen von Feedback eines breiten Spektrums von Nutzern, gerade aus unterrepräsentierten Gruppen. Dadurch ergeben sich wertvolle Einblicke in Vorurteile, die durch eine reine Datenanalyse möglicherweise nicht zum Vorschein kommen.
  8. Befolgen rechtlicher Standards – Sicherstellen, dass KI die rechtlichen und regulatorischen Anforderungen in Bezug auf Diskriminierung und Datenschutz erfüllt. Dazu gehört das Verständnis und die Anwendung von Gesetzen, die die Fairness unter anderem in den Bereichen Beschäftigung, Kreditvergabe und Wohnungswesen regeln, in denen KI einen erheblichen Einfluss haben kann.
  9. Zusammenarbeiten mit der Community – Die Zusammenarbeit mit Organisationen, Forschern und Experten, die an der Entwicklung von KI beteiligt sind, kann dazu beitragen, Best Practices, Tools und Forschung zum Abbau von Vorurteilen anzuwenden.
  10. Konzentrieren auf kontinuierliches Lernen – Immer auf dem Laufenden bleiben über die neuesten Forschungen, Trends und Weiterentwicklungen. Wir sollten darauf vorbereitet sein, KI-Systeme als Reaktion auf neue Erkenntnisse und Veränderungen zu aktualisieren und zu verfeinern. Dadurch wird sichergestellt, dass der Abbau von Vorurteilen ein fortlaufender Prozess ist.

Die Beseitigung von KI-Vorurteilen kann zu einer gerechteren Zukunft beitragen

Das Problem der Voreingenommenheit in der KI spiegelt die Ungerechtigkeit und die Klischees wider, die wir bereits in der Gesellschaft haben. Diese Voreingenommenheit entsteht nicht einfach magisch aus dem Nichts – sie stammt aus den Daten, aus denen die KI lernt und die voller menschlicher Voreingenommenheit sein können.

Die Lösung dieses Problems liegt nicht nur in den Händen einer Person oder Gruppe. Jeder Beteiligte spielt dabei eine Rolle. Die Entwickler müssen sicherstellen, dass sie Daten verwenden, die jeden fair repräsentieren. Menschen, die künstliche Intelligenz nutzen, sollten nach Voreingenommenheiten Ausschau halten und sie ansprechen. Und die politischen Entscheidungsträger sollten einige gute Richtlinien aufstellen, um sicherzustellen, dass die KI fair ist und niemanden ausschließt.

Mit Blick auf die Zukunft wird die Beseitigung von Vorurteilen in der KI wahrscheinlich etwas sein, an dem wir immer arbeiten müssen. Es geht darum, dafür zu sorgen, dass die KI, die immer intelligenter wird und immer mehr Teil unseres Lebens ist, jeden fair behandelt. Das bedeutet, dass jeder, der an KI arbeitet, seine Arbeit immer wieder überprüfen, sich verschiedene Standpunkte anhören und dort, wo es nötig ist, Änderungen vornehmen muss.

Einfach ausgedrückt: Wir alle müssen wachsam bleiben und uns weiter dafür einsetzen, dass KI besser und fairer wird. Wenn wir mehr KI in unsere Welt bringen, sollten wir dafür sorgen, dass sie allen hilft und nicht nur einigen wenigen. Es liegt an uns, sie weiter zu verbessern und dafür zu sorgen, dass sie für alle fair ist. Ohne Ausnahme.

Kommentieren

Schreibe einen Kommentar

Deine E-Mail-Adresse wird nicht veröffentlicht. Pflichtfelder sind mit * gekennzeichnet.