"Face-API": Microsoft ändert rassistische Software
Archivmeldung vom 28.06.2018
Bitte beachten Sie, dass die Meldung den Stand der Dinge zum Zeitpunkt ihrer Veröffentlichung am 28.06.2018 wiedergibt. Eventuelle in der Zwischenzeit veränderte Sachverhalte bleiben daher unberücksichtigt.
Freigeschaltet durch Thorsten SchmittMicrosoft hat einige wesentliche Verbesserungen an seiner fehlerhaften Gesichtserkennungs-Software "Face-API" angekündigt. Die Software wurde Anfang 2018 wegen ihrer Fehlerquote von bis zu 20,8 Prozent in einer Forschungsarbeit massiv kritisiert. Experten warfen dem System rassistische Züge vor, nachdem es ihm nicht gelang, das Geschlecht von Menschen mit dunkleren Hauttönen korrekt zu identifizieren.
Branchenweite Herausforderung
Insbesondere bei Frauen versagte Face-API bislang. "Mit den neuen Verbesserungen sind wir in der Lage, die Fehlerraten für Männer und Frauen mit dunkler Haut um das Zwanzigfache zu reduzieren. Für alle Frauen kann die Fehlerrate um das Neunfache reduziert werden", so Microsoft in einem aktuellen Blog-Post. Im selben Zug weist das Unternehmen darauf hin, dass ihre fehlerhafte Gesichtserkennungs-Software auf ein weitaus größeres Problem deuten könnte.
"Die höheren Fehlerraten bei Frauen mit dunklerer Haut weisen auf eine branchenweite Herausforderung hin: Künstliche-Intelligenz-Technologien sind nur so gut wie die Daten, mit denen sie trainiert werden. Wenn ein Gesichtserkennungssystem über alle Menschen hinweg gut funktionieren soll, muss das Trainings-Datenset eine Vielfalt von Hauttönen sowie Faktoren wie Frisur, Schmuck und Brillen repräsentieren", informiert Microsoft.
Logische Voreingenommenheit
Das Face-API-Team hat nun drei wichtige Änderungen an der Software vorgenommen. Es erweiterte und überarbeitete Trainings- und Benchmark-Datensätze, startete neue Versuche hinsichtlich der Datenerfassung zur weiteren Verbesserung der Trainingsdaten, indem es sich speziell auf Hautton, Geschlecht und Alter konzentrierte und verbesserte den Klassifikator, um präzisere Resultate zu erzielen.
Es sei nun eine Herausforderung, KI-Systeme so zu trainieren, dass sie gesellschaftliche Vorurteile nicht in ihre eigene Entscheidungsfindung einbeziehen. "Diese Systeme werden notwendigerweise die gesellschaftliche Voreingenommenheiten reproduzieren", kritisiert Hanna Wallach vom Microsoft Research Lab New York abschließend.
Quelle: www.pressetext.com/Sabrina Manzey