Unter Algorithmen wird grundsätzlich eine bestimmte Vorgehensweise verstanden, um ein Problem zu lösen. Ein bestimmter Input wird anhand dieser Vorgehensweise – dem Lösungsplan sozusagen – in ein Ergebnis verwandelt. Die meisten technischen Geräte führen Algorithmen aus, wie etwa Computer und Smartphones, aber auch Ampeln und Aufzüge. Auch Rezepte, Spielregen oder Gebrauchsanweisungen stellen Algorithmen dar (die jedoch nicht computergestützt sind).
In der Informatik sind Algorithmen besonders von Bedeutung, da sie die Grundlage für die Programmierung darstellen. Mittlerweile können computergestützte Algorithmen Unmengen an Daten („Big Data“) verarbeiten, um komplexe Aufgaben zu erfüllen. Zum Beispiel kann ein Algorithmus riesige Mengen an Bilddaten zu Hautkrebs auswerten, um dann im Einzelfall Hautkrebs diagnostizieren zu können.
Gibt es faire Algorithmen?
Der steigende Einsatz von datenbasierten Algorithmen in unserem Alltag sowie die ebenso steigende Relevanz von Daten führten in den letzten Jahren zu vermehrter Aufmerksamkeit auf die Folgen von Algorithmen. Es mehren sich Forschungsarbeiten und öffentliche Berichte für Diskriminierung durch Algorithmen. Was das heißt und was dagegen getan werden kann, damit befasst sich Miriam Fahimi. Sie ist als eine von 15 Doktorand*innen Teil des EU-H2020-Projekts „NoBIAS – Artificial Intelligence without Bias“. Zwölf dieser Doktorand*innen sind Informatiker*innen, Fahimi jedoch hat ihre Wurzeln in der Internationalen Entwicklung sowie in der Volkswirtschaftslehre. Auf die Frage, ob es faire Algorithmen gibt, antwortet sie: „Ich würde sagen, es gibt keine universelle, allgemeingültige oder für alle Zeiten gültige Definition von einem fairen Algorithmus. Stattdessen können wir uns überlegen, unter welchen spezifischen, gesellschaftlichen und situativen Bedingungen ein Algorithmus für bestimmte Personen als fair gilt.“ Es müsse daher der spezifische Kontext, in dem ein Algorithmus entwickelt und eingesetzt werde, mitgedacht werden, so Fahimi. Und es stellt sich ebenso die Frage, für wen oder was eine algorithmische Entscheidung überhaupt fair sein soll: Für eine Firma, für eine Person oder für die Gesellschaft?
Beispiele aus der Praxis
Als Beispiel nennt die Forscherin Gesichtserkennungstechnologie: Diese erkannte Gesichter von schwarzer Frauen weniger gut als die von weißen Männern, erklärt Fahimi. „Dieses Problem wurde als s.g. ‚intersektionaler Bias‘ bekannt und von zwei schwarzen Informatikerinnen in den USA das erste Mal adressiert. Sie fanden dies aus Zufall bei einem Projekt heraus, als die Gesichtserkennungssoftware erst dann funktionierte, als sie sich eine weiße Maske aufsetzten.“ Der Algorithmus wurde nicht mit ausreichend Daten trainiert, daher erkannte er die Gesichter der schwarzen Frauen nicht. Doch wäre der Algorithmus gerechter, bekäme er „bessere“ (im Sinne von repräsentative) Daten? Fahimi erinnert daran, dass einige dies zwar so sehen, aber: „Eine andere Definition von Fairness dagegen, die Gesichtserkennungstechnologie in den Kontext von Überwachung stellt, könnte den Gebrauch von Gesichtserkennungstechnologie auch dann für unfair halten, wenn die Datensätze repräsentativ sind.“ Schließlich werden Technologien dieser Art in einigen Ländern bei der Strafverfolgung verwendet. Immer wieder komme es jedoch zu Verwechslungen und das habe traumatische Folgen für die Betroffenen, so Fahimi. Ein weiteres Beispiel sind etwa Suchmaschinen: Diese haben oftmals einen Gender Bias, der sich bspw. darin ausdrückt, dass der engl. Begriff „doctor“ nur mit Arzt und nicht mit Ärztin übersetzt wird.
Ethnographische Forschung
Ihre ethnographische Forschung absolvierte Fahimi in einem Unternehmen, das die Kreditwürdigkeit von Personen bewertet. Dort untersuchte sie, wie Informatiker*innen und andere Beteiligte ihre Algorithmen erklären und wie algorithmische Fairness dort umgesetzt wurde. Faire Algorithmen können als mathematische Übersetzung von bereits bestehenden sozialen und juristischen Definitionen von Fairness betrachtet werden. Um das anschaulicher zu machen, nennt Fahimi zwei Beispiele: „Eine Fairnessdefinition sieht vor, dass bei gleichen Voraussetzungen keinen Unterschied zwischen Gruppen gemacht wird (‚demographic parity‘). Eine andere Fairnessdefinition sagt, dass bei gleichen Voraussetzungen die s.g. Fehlerrate gleich sein muss (‚equalized odds‘). Das Unternehmen bemüht sich also um einen reflexiven Umgang mit Algorithmen. Gleichzeitig muss auch der größere Kontext bei solchen Bemühungen mitgedacht werden: Es gibt ein stärkeres und kritischeres gesellschaftliches Bewusstsein dafür, dass algorithmische Entscheidungsprozesse eben nicht neutral und objektiv sind.“
Fahimi erinnert daran, dass der regulatorische Rahmen sich gerade ändert: So enthält die Datenschutz-Grundverordnung (DSGVO) seit 2018 das „Recht auf Erklärung“. Diese wurde für Einzelpersonen verankert, die in einem algorithmischen Entscheidungsprozess involviert sind. Zudem hat die EU einen weiteren Akt zur Regulierung von Künstlicher Intelligenz vorgelegt, in diesem wurde primär Bias/Diskriminierung diskutiert „und dies hängt ja mit Fairness zusammen“, so die Forscherin. Die Debatte rund um faire Algorithmen ist auf jeden Fall nicht vorbei – im Gegenteil.
Interdisziplinarität
Dass Diskurse rund um Technik und deren Auswirkungen nicht nur Techniker*innen betreffen, beweist mitunter Fahimis Forschung. Sie sieht Vorteile ihres interdisziplinären Zugangs: Das Studium der Internationalen Entwicklung habe sie sie sehr stark in ihrer Perspektive auf Gesellschaft geprägt und politisiert und das Studium der VWL habe ihr wiederum weitere multiple Zugänge (v.a. Mathematik und Statistik) vermittelt, erläutert Fahimi. „Ich muss zumindest ein bisschen verstehen, was Informatiker:innen machen und auf welche Konzepte sie sich beziehen. Zugleich kann ich als Nicht-Informatiker:in auch einen Blick für die (teils unbewussten) Selbstverständlichkeiten und Ambivalenzen des Feldes entwickeln. Als Sozialwissenschaftlerin kann ich solche Einsichten dann in einen gesellschaftlichen Zusammenhang einordnen und auf Macht- und Herrschaftsverhältnisse hinweisen.“ Das interdisziplinäre Fach der Science and Technology Studies ermögliche dabei mit seinen diversen akademischen Biographien, Methoden und Ansichten einen sehr wichtigen Blick auf die Verschränkung von Gesellschaft und Technik, erklärt Miriam Fahimi abschließend.