Rassistische Algorithmen?

Das Prinzip: Eine Künstliche Intelligenz (KI) wird mittels der Vorgabe von Daten trainiert und zieht daraus Schlussfolgerungen. Daraus ermittelt sie verschiedene Lösungswege, um einen vorgegebenen Zweck möglichst effizient zu erfüllen.

Doch nimmt sie dabei auch äußerst menschliche Vorurteile und Verhaltensweisen hinsichtlich ihrer Beurteilung an?

Ja,
denn Wissenschaftler des Centers for Information Technology Policy der Universität Princeton und des Department of Computer Science der Universität Bath im Magazin Science haben dies vor Kurzem nun bestätigt.

Menschliche Texte. Menschliche Vorurteile.

 

Dafür haben die Forscher im Internet verschiedenste Texte mit über 840 Milliarden Wörtern untersucht, die KIs nutzen, um die menschliche Sprache zu lernen. Mit einem eigenen Algorithmus ermittelten die Forscher die Beziehungen der Wörter in diesen Texten und haben die Beziehungen von 300 ausgewählten Begriffen auf mögliche Vorurteile untersucht.

 

Dabei fanden sie heraus, dass der Algorithmus menschenähnliche Vorurteile entwickelt, wie sie in vergangenen sozialpsychologischen Studien auch bei menschlichen Testpersonen nachgewiesen wurden.
Beispiele: „Blumen“ wurde in Beziehung mit dem Wort „schön“ gesetzt oder Frauennamen mit Begriffen wie „Hochzeit“, während Männernamen eher mit Wörtern wie „professionell“ oder „Gehalt“ in Verbindung gebracht wurden.

 

Wie sich Vorurteile einer KI im Alltag bemerkbar machen können, erläutern die Forscher an einem Beispiel: So übersetze der Dienst „Google Translate“ das geschlechtsneutrale türkische "o bir doktor" ("er/sie ist ein/e Arzt/Ärztin") mit "he is a doctor" (oder "er ist ein Arzt"). "O bir hemşire" ("Er/Sie ist ein/e Krankenpfleger/-schwester") dagegen als "she is a nurse" ("sie ist eine Krankenschwester").

 

Die Forscher vermuten nun, dass sich menschliche Vorurteile statistisch in unserer Sprachnutzung widerspiegeln. Dabei könnte u.a. auch Unterschiede zwischen den Sprachen untersucht werden, meinen die Wissenschaftler. Nach deren Meinung sei es jedoch nicht zielführend, die Sprache zu "reinigen" und von Vorurteilen zu säubern. KI-Programmierer könnten dagegen der Übernahme von menschlichen Vorurteilen mittels expliziter, mathematischer Anweisungen entgegenwirken.

Nachdem bereits mehrfach "neutrale" Algorithmen wie z.B. der Microsoft Chatbot „Tay“ mit rassistischen Kommentaren aufgefallen ist oder eine Software der US-amerikanischen Justiz speziell Afroamerikaner schlechter bewertete, liefert die Forschungsarbeit nun neue Hinweise, woran das liegen könnte. Gleichzeitig gibt sie aber auch Hinweise darauf, wie unser Gehirn funktioniert und was dies wiederum für die weitere Entwicklung von Künstlicher Intelligenz bedeutet, schreiben die Wissenschaftler.

 

Kommentar schreiben

Kommentare: 0