Künstlich intelligente Programme (KIs) lernen mittels Deep Learning von selbst. Doch was, wenn die Daten, die sie dazu verwenden, fehlerhaft sind? Forscher*innen der Uni Linz haben gemessen, wie KIs Vorurteile verstärken.
Krankenpfleger oder -pflegerin?
Deep Learning ist ein Prozess, bei dem künstlich intelligente Programme von selbst anhand einer Menge an Daten lernen. Ein Beispiel dafür sind Suchmaschinen. Sie suchen anhand ihres bereits gelernten Wissens das bestmögliche Suchergebnis für den eingegebenen Begriff. Doch genau hier liegt ein mögliches Problem.
Die Forscher*innen an der Uni Linz haben herausgefunden, dass künstlich intelligente Suchmaschinen, die Deep Learning nutzen, auch Falschinformationen herausgeben können, die Vorurteile verstärken. Sucht man etwa nach der Definition des englischen Begriffs „nurse“ (der sowohl Krankenpflegerin als auch Krankenpfleger bedeuten kann), sagt die Maschine möglicherweise, dass es sich hier immer um eine Frau handelt, die Kranke pflegt.
Die Deep Learning Datenlage
Doch warum passiert so etwas? KIs sind nicht unendlich intelligent. Sie lernen anhand der Daten, die Menschen ihnen einflößen. Sind diese Daten fehlerhaft oder zweideutig, werden diese Fehler reproduziert. „Deep-Learning-Systeme lernen, indem sie eine riesige Datenmenge betrachten und abstrakte Darstellungen der Welt erstellen, die auf wiederkehrenden Mustern in den Daten beruhen“, erklärt Navid Rekabsaz, einer der Studienautor*innen der Uni Linz.
„Diese Systeme verwenden hauptsächlich aktuelle oder historische Daten. Solche Daten enthalten natürlich die bestehenden (oder historischen) Vorurteile“, so Rekabsaz. Sucht man also zum Beispiel nach dem Begriff „nurse“, dann reproduziert das Programm die Meinungen und Definitionen, die andere Menschen in die verwendeten Daten „geschrieben“ haben. Es hängt also immer von den eingegebenen Daten ab, was für „Informationen“ ein Programm ausspuckt.
Programmier-Teams müssen diverser werden
Liegt es also in der Verantwortung der Programmierer*innen, dass KIs so antworten, wie sie antworten? Der Studienautor Navid Rekabsaz mahnt, man müsse die Situation differenziert betrachten: „Deep Learning Ingenieur*innen sind wenig daran beteiligt, was das Modell lernt, da das System ja automatisch lernt“, so Rekabsaz. „Dennoch sind die Entwickler*innen für die Ergebnisse und das Verhalten des Systems verantwortlich. Sie haben die zu lernenden Daten ausgewählt, die die Ergebnisse beeinflussen. Wenn das endgültige System gesellschaftlichen Schaden verursacht, sollten die Urheber*innen verantwortlich sein und das Problem angehen.“
Immer wieder ist in der Debatte um die soziale Verantwortung von KIs die Rede davon, dass Programmier-Teams diverser werden müssten, um gegen die Reproduktion von Vorurteilen durch Deep Learning vorzugehen. „Eine diversere Umgebung fördert zwar den Diskurs, reicht jedoch per se nicht aus“, meint der Experte. „Wir müssen auch das technologische Tool – in diesem Fall Deep Learning – verstehen und das nötige Werkzeug haben, um mit den Problemen umgehen zu können.“