Algorithmen haben ein Rassismusproblem
Text von Adrian Lobe
Kunst von Gao Hang
Lesedauer: 9 Min.
Algorithmische Systeme können rassistische Strukturen in der Gesellschaft verstärken. Doch das Problem ist kein technisches, sondern ein menschliches.
Wenn sich eine Uber-Fahrerin ans Steuer setzt, muss sie sich in der App einloggen und ein Selfie zur Authentifizierung machen. Irgendwo auf der Welt sitzt dann ein:e Vertragsarbeiter:in am Laptop und gleicht das Selfie mit dem in der Datenbank hinterlegten Foto ab. Eine Sanduhr läuft herunter, und nach wenigen Sekunden Prüfung kommt er oder sie zu dem Ergebnis: Das sind dieselben Augen, dieselben Wangenknochen – und klickt »Okay«. Dafür bekommt er ein paar Cent. Geisterarbeit, nennen Mary L. Gray und Siddharth Suri diese Arbeitsform in ihrem Buch »Ghost Work«. 13.000 Mal am Tag wird allein in den USA die Identität von Uber-Fahrer:innen überprüft.
Seit einigen Jahren setzt der Fahrdienstleister im Rahmen des »Real Time ID Check« auch Algorithmen ein: Das System nutzt eine Gesichtserkennungssoftware von Microsoft, die biometrische Merkmale scannt und mit einer Datenbank abgleicht. Stimmen die Daten überein, gibt der Computer grünes Licht. So weit, so einfach. Doch offensichtlich funktioniert das automatisierte System nicht so, wie es sollte. Im März dieses Jahres erhoben afrikanisch- und indischstämmige Fahrer:innen des Lieferdienstes »Uber Eats«, einer Tochter des Fahrvermittlers, schwere Vorwürfe: Sie seien entlassen worden, weil die »rassistische« Gesichtserkennung ihre Gesichter nicht erkannt habe. Mehrere »Mismatches« hätten dazu geführt, dass der Account gesperrt wurde. Die Gewerkschaft App Drivers and Courier’s Union (ADCU), die mehrere betroffene Fahrer vertritt, hat daraufhin Diskriminierungsklage in Großbritannien eingereicht. Zunächst war nur ein gutes Dutzend Fälle bekannt geworden, doch nach Angaben der Klagenden könnten Hunderte, wenn nicht Tausende Fahrer:innen betroffen sein. Die Gewerkschaft fordert daher, den Einsatz von Gesichtserkennung für den Fahrvermittler zu verbieten.
Maschinen werden von Menschen trainiert, deren unterschwellige Vorurteile und Stereotype in die mathematischen Modelle einfließen.
Dass Algorithmen Probleme bei der Erkennung schwarzer oder asiatischer Gesichter haben, ist kein neues Phänomen. So hat Googles Foto-App 2015 das Bild eines Schwarzen und seiner Freundin als »Gorillas« getaggt – und damit diskriminiert. Im vergangenen Jahr war Twitter öffentlich in die Kritik geraten, nachdem mehrere Nutzer:innen berichteten, dass der Algorithmus beim automatischen Zuschnitt von Fotos schwarze Menschen ausschneidet.
Immer wieder passieren solche Fehler. Im Jahr 2016 wollte der Neuseeländer Richard Lee online einen Reisepass beantragen. Als er ein Foto bei der Passbehörde hochlud, poppte eine Fehlermeldung auf: »Das Foto, das Sie hochladen wollen, erfüllt unsere Kriterien nicht«, stand da in roter Schrift. Der angegebene Grund: geschlossene Augen. Doch die Maschine irrte. Lees Augen waren geöffnet – sie waren nur schmaler als der Durchschnitt. Seine Eltern stammen aus Taiwan und Malaysia. Der Algorithmus legte hier eine andere statistische Norm – eine europäische nämlich – zugrunde, was Menschen asiatischer Abstammung ausgrenzt und diskriminiert. Aber was ist eigentlich normal? Wer definiert das? Und was sagt das über eine Gesellschaft, in der Normalitätsfeststellungen automatisiert erfolgen?
Die Technik trägt das Versprechen, dass sie wertneutral operiere. Die Maschine schert es nicht, ob jemand Ali oder Anton, Annette oder Ananda heißt, ob jemand asiatisch oder europäisch aussieht. Sie interessiert es ja auch nicht, ob jemand groß oder klein, dick oder dünn, glücklich oder unglücklich ist. Der Computer urteilt nur nach Ansehung der Daten. Zumindest in der Theorie. In der Praxis sieht es jedoch anders aus. Maschinen werden von Menschen trainiert, deren unterschwellige Vorurteile und Stereotype in die mathematischen Modelle einfließen. So hat Amazons Bewerbungsroboter zwischen 2014 und 2017 systematisch Bewerberinnen abgelehnt. Der Grund: Das System war darauf trainiert, Muster von erfahrenen Bewerbern mit über zehn Jahren Berufserfahrung zu selektieren. Und weil das in der Praxis überwiegend Männer sind, hat das System Frauen aussortiert. Das System brachte sich selbst bei, dass Männer bei der Bewerbung bevorzugt werden, indem es beispielsweise Lebensläufe, die das Wort »women’s« (etwa in »women’s chess club captain«) enthielten, schlechter bewertete. Durch solche permanenten Feedback-Loops können automatisierte Systeme die misogynen, rassistischen oder anderweitig diskriminierenden Grundmuster und Stereotype einer Gesellschaft zementieren und verstärken.
Im Grunde fängt es schon mit der Datengrundlage an. Lernt ein Algorithmus, dass in den Chefetagen weiße Männer sitzen, wird er diesen Bias nicht nur reproduzieren, sondern auch perpetuieren. Man muss nur mal in die Google-Bildersuche den Begriff »CEO« eingeben. Ergebnis: sehr viele Männer, ein paar Frauen, alle weiß. Das spiegelt die Realität nicht einfach nur wider, sondern verfälscht sie auch. In den Fortune-500-Unternehmen der umsatzstärksten Industrieunternehmen auf der Welt gibt es immerhin 19 schwarze CEOs. Es entsteht das fatale Zerrbild, wonach alle Chefs weiß seien. Die KI-Forscherin Kate Crawford hat das mal als »Artificial Intelligence’s White Guy Problem« bezeichnet – als Weißer-Typ-Problem der Künstlichen Intelligenz. Rassistische Algorithmen, programmiert von weißen IT-Experten: Zwar haben Tech-Konzerne schon vor einigen Jahren angekündigt, ihre Entwicklerteams diverser zu machen. Doch in den Softwareschmieden des Silicon Valley sitzen noch immer mehrheitlich weiße junge Männer aus der Mittel- und Oberschicht, die – häufig unbewusst – ihre Werte und Weltanschauung in Programmcode formulieren.