Zum Inhalt springen

Künstliche Intelligenz Wie viel Rassismus steckt in Algorithmen?

Mutale Nkonde ist Forscherin und kämpft gegen Rassismus im Zeitalter künstlicher Intelligenz. Ihre bisherige Bilanz für die Tech-Branche ist vernichtend.
Mutale Nkonde erforscht, wie Technologie Rassismus reflektiert - und was sich dagegen tun lässt

Mutale Nkonde erforscht, wie Technologie Rassismus reflektiert - und was sich dagegen tun lässt

Foto:

#womenofcolortechchat

Die Forscherin Mutale Nkonde, derzeit Fellow am New Yorker Forschungsinstitut Data & Society, kämpft mit ihrem Projekt "Racial Literacy in Tech" zusammen mit anderen Wissenschaftlern gegen Rassismus, der durch Algorithmen und andere Technologien verstärkt wird.

"Gesichtserkennungsalgorithmen sind darauf trainiert, weiße Gesichter zu erkennen, Flughafen-Scanner verstehen schwarze Frisuren nicht, Kreditwürdigkeits-Scores sind mit rassistisch getrennten Nachbarschaften korreliert und Daten für das Predictive Policing (vorausschauende Polizeiarbeit) werden von rassistischen Vorurteilen geplagt", heißt es in ihrem Forschungsbericht "Advancing Racial Literacy in Tech" . "Ohne eine bewusste Anstrengung, Rassismus in Technologie anzugehen, ist es unvermeidlich, dass neue Technologien alte Trennungen replizieren."

Auf der Disruption Network Lab Konferenz  "AI Traps - Automating Discrimination" an diesem Wochenende in Berlin wird Nkonde über Rassismus im Zeitalter künstlicher Intelligenz sprechen. SPIEGEL ONLINE hat sie vorab interviewt.

Zur Person

Mutale Nkonde forscht als Fellow des Data and Society Research Institute in New York City zu Rassismus, Technologie und Politik. Sie arbeitet seit 2016 als Tech-Beraterin für die demokratische Kongressabgeordnete Yvette Clarke und entwickelt Strategien, um Algorithmen besser zu kontrollieren.

SPIEGEL ONLINE: Sie untersuchen, wie Rassismus in neuen Technologien zutage tritt. Was erkennen Sie da und was muss sich ändern?

Mutale Nkonde: Die Bürgerrechte brauchen ein Update für die Ära der künstlichen Intelligenz. In New York will ein privater Vermieter in Sozialwohnungen zum Beispiel Schlüssel gegen Gesichtserkennungssoftware austauschen . Davon sind arme, schwarze Menschen betroffen, die in Brownsville leben, einem Viertel mit historisch hohen Kriminalitäts- und Gewaltraten. Sie müssen die Überwachung akzeptieren - oder sie verlieren ihre Wohnung. Das ist nicht nur eine Verletzung von New Yorker Mietgesetzen, es werden auch ohne jegliche Kontrolle biometrische Daten gesammelt.

SPIEGEL ONLINE: Gesichtserkennung verbreitet sich nicht nur in schwarzen Communities.

Nkonde: In diesem Fall sollen die Gesichtserkennungssysteme für Wohnungen nur in schwarzen Nachbarschaften eingesetzt werden, nicht auf der Upper East Side, wo Menschen wie Donald Trump wohnen. Von den Negativ-Effekten von Technologie sind oft Communitys betroffen, die schon immer Ziel von Überwachung waren und unter Generalverdacht standen. Das reicht in den USA bis in die Sklavenzeit zurück. Algorithmische Entscheidungsfindungen bei Jobbewerbungen oder in der Strafjustiz oder auch Gesichtserkennung sind die neuen Varianten dieses Systems.

SPIEGEL ONLINE: Wie viel Rassismus steckt in Algorithmen oder den ihnen zugrunde liegenden Daten?

Nkonde: "ProPublica" hat etwa nachgewiesen, dass Afro-Amerikaner höhere Risikobewertungen erhalten als weiße Kriminelle. Es wird also eher davon ausgegangen, dass sie erneut straffällig werden, was sich wiederum auf die Strafe auswirkt. In der New Yorker Datenbank zu kriminellen Gangs sind vor allem junge schwarze Männer oder Latinos erfasst. Es reicht schon aus, auf demselben Foto wie ein Gangmitglied aufzutauchen, sich im selben Gebäude aufzuhalten oder eine bestimmte Farbe zu tragen.

SPIEGEL ONLINE: Weil die Farben mit Gangs assoziiert werden?

Nkonde: Menschen haben in anderen Vierteln das Recht, Rot, Blau, Grün zu tragen, ganz wie sie wollen. Aber wer in einer armen Nachbarschaft wohnt und eine bestimmte Farbe trägt, wird einer Gang zugerechnet, selbst wenn er nicht kriminell ist. Und wer in der Gangdatenbank erfasst wurde, erfährt es nicht einmal. Du hast keine Chance, deinen Namen wieder aus der Datenbank entfernen zu lassen und wirst schlimmstenfalls einfach verhaftet, ohne zu wissen, warum.

SPIEGEL ONLINE: Die Daten werden dann in anderen Systemen wie Predictive Policing weiterverwertet.

Nkonde: Die Betroffenen wissen nicht, wer alles Daten aufnimmt, was mit den Daten passiert und ob sie mit Polizei- oder Immigrationsbehörden geteilt werden. Die New Yorker Polizei hat etwa Mugshots, Fotos von Verdächtigen, an IBM verkauft, damit die ihre Datenbanken erweitern konnten.

SPIEGEL ONLINE: Beobachten Sie, dass sich die betroffenen Communitys inzwischen stärker organisieren?

Nkonde: Was sich geändert hat: Überwachungstechnologie wird heute zunehmend auch gegen weiße Menschen eingesetzt. Sie wurden durch Skandale wie Cambridge Analytica aufgerüttelt und wissen jetzt, dass sich Technologie auch gegen sie richten kann und dass ihre Daten missbraucht werden können. Dadurch wird nun auch die Stimme von Aktivisten gehört, die sich seit Jahren für diese Themen stark gemacht haben - meistens weiße, liberale Personen. Der schwarzen Community hört dagegen niemand zu.

SPIEGEL ONLINE: Was muss geschehen, damit die Perspektiven schwarzer Menschen sichtbarer werden?

Nkonde: Wir müssen "Racial Literacy" erreichen. Es muss ein Bewusstsein für Rassismus entstehen - und weiße Menschen müssen damit klarkommen, dass es unbequem ist, über Rasse zu sprechen. Ich verstehe Literacy als Fähigkeit, die sich weiterentwickelt und die man üben muss, wenn man nicht gut darin ist.

SPIEGEL ONLINE: Welche Note würden Sie an Tech-Firmen in punkto "Racial Literacy" vergeben?

Nkonde: Für unseren Bericht haben wir acht Monate lang geforscht und dabei auch rund 20 Angestellte interviewt, die in allen möglichen großen Tech-Firmen aus dem Silicon Valley arbeiten. Manche hatten das Gefühl, dass Rassismus nichts mit ihrer Arbeit zu tun habe, weil sie nur Entwickler seien. Sie argumentierten etwa, sie seien farbenblind. Das Problem: Wer das behauptet, hat auch nicht den Anspruch, etwas zu verbessern.

SPIEGEL ONLINE: Gab es auch positive Tendenzen?

Nkonde: Manche wollen anders über das Problem reden, weil sie glauben, dass der Begriff "Diversity" nicht spezifisch genug ist. Sie wollen die Kultur verändern, so dass über "Rasse" gesprochen werden kann und Menschen tatsächlich als "weiß" oder "schwarz" gelabelt werden. Es herrscht große Angst, Klartext zu reden.

SPIEGEL ONLINE: Wollen sich die Firmen auch von innen verändern - indem sie etwa schwarzen Nachwuchs stärker fördern?

Nkonde: Was das Recruiting betrifft, bin ich sehr enttäuscht. Ich bin Googles Machine Learning Team durchgegangen und habe nur einen schwarzen Mann und eine schwarze Frau gefunden - unter 893 Mitarbeitern. Es sind kaum schwarze Menschen an der Entwicklung und Erforschung künstlicher Intelligenz beteiligt, die Quoten schwarzer Mitarbeiter bei Tech-Unternehmen sind gering.

SPIEGEL ONLINE: Was würden Sie Tech-Konzernen raten?

Nkonde: Die Unternehmen sollten über Racial Literacy nachdenken, aber sie brauchen auch eine greifbare Politik. Wir entwickeln gerade ein Assessment-Tool, das messen soll, ob es eine konkrete Strategie gibt. Gibt es einen Plan, um bestimmte Communitys zu erreichen und Rassismus-Probleme anzugehen? Wie sehr steht eine Firma dahinter? Ist der Plan finanziert, und wie lange? Es ist ein Langzeitprojekt.

Die Wiedergabe wurde unterbrochen.