Software sorgt für Skandal

Facebook-Algorithmus markierte schwarze Menschen als Affen

06.09.2021

Gesichtserkennungssoftware sorgt mit "Primaten"-Verlinkung für Skandal.  

Zur Vollversion des Artikels
© Facebook (Montage)
Zur Vollversion des Artikels

Ein Algorithmus von Facebook  hat für einen Skandal gesorgt. Konkret verwechselte die automatische Software schwarze Menschen mit Affen. Eine Sprecherin des Unternehmens bestätigte das Problem, das bei einem Video der britischen "Daily Mail" aufgetreten war. Facebook-Nutzer, die sich das Video mit dem Titel "Weißer Mann ruft Polizei wegen schwarzen Männern am Hafen" angesehen hatten, wurden anschließend gefragt, ob sie "weiterhin Videos über Primaten sehen möchten", wie die "New York Times" berichtete.

"Inakzeptabler Fehler" 

Die Sprecherin sprach von einem "eindeutig inakzeptablen Fehler". Die verantwortliche Software sei sofort vom Netz genommen worden. "Wir entschuldigen uns bei jedem, der diese beleidigenden Empfehlungen gesehen hat".

KI für Personalisierung

Facebook setzt auf verschiedene Formen von künstlicher Intelligenz (KI), um die den Nutzern angezeigten Inhalte zu personalisieren. Dabei kommt auch Gesichtserkennungssoftware zum Einsatz. Bürgerrechtlern weisen jedoch schon länger auf Probleme mit der Genauigkeit hin. Künstliche Intelligenz kommt bei Facebook auch bei der Moderation von Inhalten zum Einsatz, etwa um problematische Nachrichten und Bilder zu erkennen und zu blockieren.

Auch bei Google

Bei Google gab es im Jahr 2015 einen ähnlichen Vorfall . Beim Suchmaschinenriesen wurden schwarze Menschen als Gorillas markiert. Damals trat der Fehler in der Foto-App "Google Photos" auf.
 

Zur Vollversion des Artikels
Weitere Artikel