Gesichtserkennungssoftware :
Facebook-Algorithmus verwechselt schwarze Menschen mit Affen

Lesezeit: 1 Min.
Anti-Rassismus-Protest in den USA
Ein Film, in dem schwarze Menschen zu sehen sind, wird von Facebook als Video über Primaten interpretiert. Der Konzern spricht von einem „inakzeptablen Fehler“.

Ein Algorithmus von Facebook hat schwarze Menschen mit Affen verwechselt. Eine Sprecherin des Unternehmens bestätigte am Freitag das Problem, das bei einem Video des britischen Boulevard-Blatts Daily Mail aufgetreten war. Facebook-Nutzer, die sich das Video mit dem Titel „Weißer Mann ruft Polizei wegen schwarzen Männern am Hafen“ angesehen hatten, wurden anschließend gefragt, ob sie „weiterhin Videos über Primaten sehen möchten“, wie die Zeitung New York Times berichtete.

Die Sprecherin sprach von einem „eindeutig inakzeptablen Fehler“. Die verantwortliche Software sei sofort vom Netz genommen worden. „Wir entschuldigen uns bei jedem, der diese beleidigenden Empfehlungen gesehen hat“.

Facebook setzt auf verschiedene Formen von künstlicher Intelligenz, um die den Nutzern angezeigten Inhalte zu personalisieren. Dabei kommt auch Gesichtserkennungssoftware zum Einsatz. Bürgerrechtlern weisen jedoch schon länger auf Probleme mit der Genauigkeit hin. Künstliche Intelligenz kommt bei Facebook auch bei der Moderation von Inhalten zum Einsatz, etwa um problematische Nachrichten und Bilder zu erkennen und zu blockieren.