Maschinelles Lernen: Gesichtserkennung ist zuverlässig - bei weißen Männern
Bei weißen Männern funktioniert Gesichtserkennung mit 99 Prozent Genauigkeit, ganz anders ist es bei schwarzen Frauen. Das zeigt die Studie einer MIT-Informatikerin, die Geschlechterzuordnung untersucht hat. Betroffen sind etwa Systeme von Microsoft und IBM.
Algorithmen zur Gesichtserkennung funktionieren nicht bei allen Hauttönen und Geschlechtern gleich gut. Das ergibt eine Studie der Informatikerin Joy Buolamwini des Massachusetts Institute of Technology (MIT) laut einem Bericht der New York Times. Boulamwini hat Algorithmen untersucht, die Gesichter einem Geschlecht zuordnen, und zwar die Machine-Learning-Systeme von Microsoft, IBM und Face++. Letzteres wird in Produkten von Kunden wie Lenovo und Dell verwendet.
Demnach werden männliche weiße Personen von einigen viel genutzten Machine-Learning-Systemen am besten erkannt, die Fehlerquote wird umso höher, je dunkler die Hautfarbe und ist am höchsten bei schwarzen Frauen. Der Studie zufolge wurde das Geschlecht von etwa 99 Prozent der weißen Männer aus einer Stichprobe von 385 Fotos erkannt. Bei weißen Frauen sank die Quote bereits auf 93 Prozent, bei 296 ausgesuchten Bildern. Aus 318 Bildern wurden nur 88 Prozent der männlichen Personen mit dunklerer Hautfarbe auch als Männer erkannt. Bei 271 Bildern von dunkelhäutigen Frauen sind Gesichtserkennungsalgorithmen nur zu 75 Prozent akkurat.
Dabei erzielten die Algorithmen von Microsoft noch die besseren Ergebnisse gegenüber IBM und Face++: Sie erkannten 21 Prozent der dunkelhäutigen Frauen nicht, während die Fehlerquote bei den Konkurrenten um 35 Prozent lag. Bisher sei nur vermutet worden, dass Algorithmen bei verschiedenen Bevölkerungsgruppen unterschiedlich funktionierten, sagte Sorelle Friedler vom Haverford College der Zeitung. Die Studie weise den Zusammenhang erstmals empirisch nach.
Wenig Referenzmaterial bei dunkelhäutigen Frauen
Für die Ungenauigkeiten bei der Gesichtserkennung kommen verschiedene Gründe in Betracht. Zum einen sind Algorithmen nur so klug wie die ihnen zur Verfügung gestellten Daten - und spiegeln deren rassistische oder sexistische Tendenzen wider. So sind laut New York Times auf etwa 75 Prozent der Referenzbilder, die der Software zum Lernen bereitgestellt werden, Männer abgebildet. Davon sind wiederum 80 Prozent weiß. Die New York Times bezieht sich dabei auf eine weitere Forschungsstudie.
Zum anderen könnten auch technische Aspekte einen Einfluss haben: So erleichtern Kontraste Algorithmen das Unterscheiden von Formen. Diese sind bei weißen Gesichtern höher. Außerdem könnte die Vielfalt der Frisuren bei Frauen die Zuordnung zu einem Geschlecht erschweren.
Buolamwini will das Bewusstsein in der Öffentlichkeit für die von ihr nachgewiesene Problematik wecken. Sie selbst habe als weibliche Afroamerikanerin während ihres Studiums erlebt, dass Algorithmen ihr Gesicht nicht erkannt hätten. Sie sagte der New York Times: "Okay, das ist ernst, Zeit, etwas zu tun". Das Ergebnis: die Algorithmic Justice League, ein Projekt, das sich dem Problem widmen soll.
Schlechtere Gesichtserkennung bedeutet auch weniger Überwachungsmöglichkeiten.
Finde ich nicht. Die Übertragung "nur weil es eine ungleichverteilung der Quantität in...
+1
Leute, ich hab endlich die ultimative Lösung für das Problem gefunden: Hautfarbe ist...