Wir freuen uns über jede Rückmeldung. Ihre Botschaft geht vollkommen anonym nur an das Administrator Team. Danke fürs Mitmachen, das zur Verbesserung des Systems oder der Inhalte beitragen kann. ACHTUNG: Wir können an Sie nur eine Antwort senden, wenn Sie ihre Mail Adresse mitschicken, die wir sonst nicht kennen!

unbekannter Gast

Vom Hype zum Hassobjekt#

Gesichtserkennung ist rassistisch und vorurteilsbehaftet. Im Zuge der Rassismus-Debatte steigen einige Hersteller nun aus.#


Von der Wiener Zeitung (18. Juni 2020) freundlicherweise zur Verfügung gestellt

Von

Gregor Kucera


Gesichtserkennung
Gesichtserkennung
Foto: https://pixabay.com

Vermisste Kinder aufspüren, Terroristen in Menschenmengen ausfindig machen, Zutrittskontrollen und mehr Sicherheit für alle - eigentlich sollten sich die Hersteller von Gesichtserkennungssoftware vor Aufträgen und Arbeit gar nicht retten können. Und tatsächlich war dies auch bis vor wenigen Wochen der Fall. Allen Unkenrufen und Warnungen, etwa bezüglich Überwachung, ungeregelter Rechtslage und Notwendigkeit zum Trotz. Natürlich will niemand eine totale Kontrolle wie in China, in US-Metropolen oder der Londoner City, aber so wirklich schlecht ist es doch auch nicht?

Unreguliert und fehlerhaft#

Das war zumindest bis vor Kurzem eine gängige Meinung. Doch nun rücken im Zuge der Anti-Rassismus-Proteste im Fall von George Floyd und rassistisch voreingenommener Polizeiarbeit auch die Instrumente der Strafverfolgung ins Rampenlicht, einschließlich der weit verbreiteten - aber völlig unregulierten - Gesichtserkennungstechnologie. Und im Gegensatz zu Dezember 2019 als US-Studien, die auf die Fehler, die Gesetzeslücken, die rassistischen Vorurteile und die Schwächen der Gesichtserkennungstechnologien hingewiesen hatten, einfach ignoriert wurden, wird nun gehandelt. Und zwar - auch das ist interessant, von den Anbietern der Software selbst. So wird nun Microsoft keine Software für Gesichtserkennungs mehr an Polizeibehörden verkaufen, solange es keine gesetzliche Regelung für deren Einsatz gibt. Und der rechtliche Rahmen dafür müsse auf Grundlage der Menschenrechte erfolgen, sagte der Microsoft-Chefjustiziar, Brad Smith.

Der US-Konzern folgt damit dem Beispiel von Amazon, das die Nutzung seiner Gesichtserkennungssoftware "Rekognition" für ein Jahr ausgesetzt hat. Man werde "Rekognition" aber weiterhin etwa für Organisationen verfügbar machen, die nach vermissten Kindern suchen, die Opfer von Menschenhändlern geworden sein könnten, hieß es. Amazon reagierte somit auf die Kritik von Aktivisten, die sich für die Rechte von Minderheiten einsetzen. Sie warnen, die Gesichtserkennungssoftware sowie Beobachtungskameras von Amazon könnten von den US-Behörden für diskriminierende Maßnahmen gegen Afroamerikaner und andere Minderheiten missbraucht werden. IBM stieg mit dem Hinweis bezüglich Bedenken hinsichtlich der Auswirkungen auf die Menschenrechte durch die Technologie überhaupt gleich ganz aus dem Geschäft aus. "Wir haben Angst, dass so viele der Bilder, die von Demonstranten in den sozialen Medien veröffentlicht werden, von der Polizei gegen sie verwendet werden", sagte Albert Fox Cahn, Geschäftsführer des Surveillance Technology Oversight Project, "es ist nur zutiefst erschreckend, zu glauben, dass Sie durch die Ausübung geschützter Aktivitäten und die Ausübung Ihrer grundlegendsten Rechte in eine Polizeidatenbank gelangen könnten."

Wo genau ist das Problem?#

"Gesichtsanalysesysteme" können für viele Zwecke eingesetzt werden, etwa für das automatische Entsperren eines Smartphones, bei Einlasskontrollen in ein Gebäude oder auch bei der Identifikation des Geschlechts oder der Rasse einer Person oder das Bestimmen, ob das Gesicht einem Fahndungsfoto entspricht. Das Problem ist, dass kein Gesichtsanalysesystem vollkommen genau ist. Dies stellt beim Entsperren eines Handys noch kein allzu großes Problem dar, man versucht es einfach noch einmal. Aber es wird zu einem massiven Thema bei der Identifizierung menschlicher Verdächtiger, vor allem auch, weil die getesteten US-Systeme deutlich höhere Fehlerquoten in der Verarbeitung von Bildern von Asiaten oder Afroamerikanern aufwiesen. Rekognition, das bereits erwähnte Amazon-System, identifizierte Oprah Winfrey einmal als männlich - nur ein bemerkenswertes Beispiel dafür, wie die Software ausfallen kann. Auch hat es 28 Kongressmitglieder fälschlicherweise einer Fahndungsdatenbank zugeordnet. Ein anderes Tool hat im vergangenen Jahr einen Studenten der Brown University fälschlicherweise als Verdächtigen bei Bombenanschlägen in Sri Lanka gekennzeichnet, der Student erhielt daraufhin zahlreiche Morddrohungen.

"Wenn Sie sich die drei größten Unternehmen auf dem Gebiet der Gesichtserkennung ansehen, arbeitet keines von ihnen mit 100-prozentiger Genauigkeit. Wir experimentieren also in Echtzeit mit echten Menschen", sagte Rashida Richardson, Direktorin für Politikforschung am AI Now Institute. Eine Studie des MIT mit drei kommerziellen Geschlechtserkennungssystemen ergab, dass sie bei dunkelhäutigen Frauen eine Fehlerrate von bis zu 34 Prozent aufwiesen. Eine Studie des US-Handelsministeriums Ende letzten Jahres zeigte ähnliche Ergebnisse. In Fällen, in denen ein Algorithmus zwei verschiedene Personen fälschlicherweise als dieselbe Person identifizierte, ergab die Studie, dass die Fehlerraten bei afrikanischen Männern und Frauen zwei Größenordnungen höher waren als bei Osteuropäern, die die niedrigsten Raten aufwiesen. Die Forscher wiederholten diese Übung in einer USFahndungsdatenbank und stellten fest, dass Algorithmen die höchsten Fehlerraten für Native Americans sowie hohe Raten für asiatische und schwarze Frauen aufwiesen.

Wie Algorithmen lernen#

Die Voreingenommenheit und Ungenauigkeit, die diese Forschung zeigt, hängt davon ab, wie diese Werkzeuge entwickelt werden. Algorithmen "lernen", ein Gesicht zu identifizieren, nachdem Millionen von Bildern menschlicher Gesichter gezeigt wurden. Wenn es sich bei den verwendeten Gesichtern beim Training des Algorithmus jedoch überwiegend um weiße Männer handelt, fällt es dem System schwerer, jemanden zu erkennen, der nicht passt. Joy Buolamwini, eine führende Forscherin für algorithmische Voreingenommenheit, fand dies als Student der Informatik auf die harte Tour heraus. Eine ihrer Aufgaben erforderte die Interaktion mit einem Roboter, der mit Gesichtserkennung ausgestattet war, aber der Roboter konnte sie nicht "sehen". Später stellte sie fest, dass eine Computerkamera ihr Gesicht nicht erkannte - bis sie eine weiße Maske aufsetzte.

So unvollkommen voreingenommene Algorithmen auch sind, Aktivisten und Forscher sind sich einig, dass das Gegenteil - ein System, das jedes Individuum perfekt identifizieren kann - schlimmer wäre, da es das Ende der Privatsphäre bedeuten könnte, wie man es derzeit kennt. Oder wie sagte Kade Crockford, Wissenschafterin an der ACLU in Massachusetts vor dem Stadtrat von Boston: "Gesichtsüberwachung ist gefährlich, wenn sie funktioniert und wenn sie nicht funktioniert."

Wiener Zeitung, 18. Juni 2020


Bild 'sim-link'
Austria-Forum Beiträge in ähnlichen Gebieten