Gesichtserkennung ist meistens rassistisch
Archivmeldung vom 21.12.2019
Bitte beachten Sie, dass die Meldung den Stand der Dinge zum Zeitpunkt ihrer Veröffentlichung am 21.12.2019 wiedergibt. Eventuelle in der Zwischenzeit veränderte Sachverhalte bleiben daher unberücksichtigt.
Freigeschaltet durch Thorsten SchmittDie meisten Algorithmen zur Gesichtserkennung haben einen Rassen-Bias. Das hat eine Untersuchung des National Institute of Standards and Technology (NIST) ergeben. Bei Asiaten und Afroamerikanern ist die Fehlerkennunsrate demnach teils 100 Mal höher. Warum das so ist, haben die Forscher in der Studie nicht direkt untersucht. Da aber die Analyse gezeigt hat, dass asiatische Algorithmen bei Asiaten weniger Fehler machen, liegt ein Zusammenhang mit den genutzten Trainigsdatensätzen nahe.
Algorithmische Vorurteile
Das NIST-Team hat 189 Algorithmen zur Gesichtserkennung von 99 Herstellern untersucht. Dabei haben sie sich mit den beiden gängigsten Aufgaben befasst. Dies sind der Vergleich eines Gesichts mit einem Foto, beispielsweise zum Entsperren des Handys und die Suche nach einem Gesicht in einer Datenbank. "Wenngleich es normalerweise falsch ist, Aussagen über Algorithmen hinweg zu machen, haben wir empirische Belege für das Vorhandensein demografischer Unterschiede in der Mehrheit der untersuchten Gesichtserkennungs-Algorithmen gefunden", sagt der NIST-Informatiker und Erstautor der Studie, Patrick Grother.
Beim Vergleich eines Gesichts mit einem Einzelfoto liegt die Rate der Fehlerkennungen nämlich oft zehn bis 100 Mal höher, wenn das Gesicht eines Asiaten oder ein Afroamerikaners betrachtet wird, im Gegensatz zu Kaukasiern. Gerade in den USA entwickelte Algorithmen arbeiten laut der Studie oft bei allen Minderheiten ähnlich schlecht. In Asien entwickelte Algorithmen dagegen kommen mit Asiaten und Kaukasiern ähnlich gut klar. Zwar betont Grother, dass die Untersuchung den Grund dafür nicht tatsächlich untersucht hat. Allerdings scheint wahrscheinlich, dass asiatische Algorithmen mehr Asiaten im Trainingsdatensatz haben, diversere Trainingsdaten also einen Vorteil bringen.
Viele falsche Verbrecher
In einem ihrer Tests haben die Forscher mit den Algorithmen Gesichter in einer FBI-Datenbank mit 1,6 Mio. Vebrecherfotos gesucht. Dabei hat sich gezeigt, dass es besonders bei Afroamerikanerinnen zu einer erhöhten Zahl an Fehlerkennungen kommt. Dabei sind solche "False Positives" in solchen Anwendungen sehr problematisch. "Eine Fehlerkennung kann zu verpassten Flügen, langen Verhören, der Platzierung auf Watchlists, angespannten Begegnungen mit der Polizei, falschen Festnahmen oder Schlimmerem führen", erklärt Jay Stanley, Polizeianalyst bei der American Civil Liberties Union http://aclu.org , in einem Kommentar.
Das NIST betont aber, dass der Studie zufolge nicht alle Algorithmen zur Gesichtserkennung rassistische Tendenzen zeigen. Gerade jene Algorithmen, die am vorurteilsfreisten scheinen, zählen demnach auch zu den insgesamt genauesten.
Zur Studie " Face Recognition Vendor Test (FRVT) Part 3: Demographic Effects": http://nvlpubs.nist.gov/nistpubs/ir/2019/NIST.IR.8280.pdf
Quelle: www.pressetext.com/Thomas Pichler