Die automatische Gesichtserkennung ist diskriminierend weil sie nur weiße Männer erkennt
Die automatische Gesichtserkennung ist diskriminierend weil sie nur weiße Männer erkennt
( Link zum Originalbild | Urheber: Gerd Altmann | https://pixabay.com/de/ | Pixabay License )

Die maschinelle Gesichtserkennung funktioniert derzeit am besten, wenn es um das Erkennen weißer Männer geht. In der Praxis bedeutet dies, dass jeder, der nicht weiß und männlich ist, viel eher verwechselt wird oder gänzlich unerkannt bleibt. In sensiblen Kontexten wie der Strafverfolgung kann dies Menschen in Verbrechen verwickeln, die sie nie begangen haben.“

Die IT-Expertinnen und Autorinnen des Buchs „Daten Gerechtigkeit“ Frederike Kaltheuner und Nele Obermüller in ihrem Gastbeitrag für NETZPOLITIK.ORG.

 

Die Perspektive in 30 Sekunden

  • Datenanalysesysteme sind nie objektiv. Menschen entwickeln, steuern und nutzen sie für bestimmte Zwecke. Deshalb können sie einprogrammierte Vorurteile enthalten.
  • Der derzeitige Erkennungsmechanismus führt zu Problemen für Menschen, die nicht weiß und männlich sind, da diese von den Systemen verwechselt oder gar nicht erst erkannt werden können.
  • Aber auch gerechtere Systeme würden nicht notwendigerweise Das Problem der Gesichtserkennung für nicht weiße Personen lösen.
  • Gescannte Gesichter in Menschenmengen, die mit Social-Media-Profilen abgeglichen werden, können zu öffentlichen Outings von Personen mit Zugehörigkeiten zu marginalisierten Gruppen führen.

 

Belege für das Kernargument

  • Datenanalysesysteme, die über Algorithmen funktionieren, sind nie neutral. Sie müssen mit Daten gespeist werden, auf deren Grundlage sie lernen. So können gesellschaftlich vorhandene Stereotype reproduziert werden.
  • Derzeit erkennen die Systeme hauptsächlich weiße Männer. Für alle anderen ergibt sich dabei – besonders In sensiblen Kontexten – ein Problem. Sie müssen beweisen, dass sie wirklich diejenigen sind, die sie tatsächlich sind – und nicht jene, für die das System sie hält.
  • AfroamerikanerInnen und Angehörige anderer marginalisierter Gruppen sind schon immer Ziel von Überwachungssystemen wie dem Racial Profiling. Auch gerechtere Erkennungssysteme würden diskriminieren.
  • In Russland hat man durch eine App, die es erlaubt Gesichter in Menschenmengen mit Social Media-Profilen abzugleichen, bereits Pornodarsteller- und SexarbeiterInnen öffentlich geoutet.

 

Warum The Buzzard diese Perspektive empfiehlt

Kaltheuner und Obermüller sind IT-Expertinnen und haben gemeinsam ein wissenschaftliches Buch zur Thematik geschrieben. In Ihrem Gastbeitrag für NETZPOLITIK.ORG erläutern sie wie die automatische Gesichtserkennung soziale Ungerechtigkeit nicht nur reproduziert, sondern ihr sogar zuträglich sein könnte. Diese wichtige Perspektive in dieser Debatte wird von den beiden Autorinnen mit Zahlen und internationalen Beispielen belegt, die aufzeigen welche Probleme und Gefahren die automatische Gesichtserkennung mit sich bringt.

Diese Perspektive wird empfohlen von Johannes Bär.

 

The Buzzard empfiehlt außerdem…

…ein Essay des Microsoft-Präsidenten Brad Smith, in dem er erläutert, wieso Microsoft den Verkauf seiner Gesichtserkennungssoftware eingestellt hat. Er geht dabei auf die Bedenken von Menschenrechtsorganisationen ein, die sich bemängeln, die automatische Gesichtserkennung könne dazu führe, dass Frauen und Angehörige von Minoritäten von den Systemen fehl- oder gar nicht gedeutet würden. Das hätten mehrere Forschungsprojekte ergeben. Des weiteren fordert er starke staatliche Regulierungen.

Wer steckt dahinter?

Frederike Kaltheuner
Kommt aus:Deutschland
Arbeitet für/als:IT-Expertin und Autorin
Was Sie noch wissen sollten:Sie leitet die Abteilung für Datenmissbrauch der Internationalen Bürgerrechtsorganisation Privacy International mit Sitz in London. Sie spricht regelmäßig bei internationalen Konferenzen und kommentiert Neue Technologien in deutschen und englischsprachigen Medien.
Lies The Buzzard ab sofort in deinem E-Mail Postfach. Nein danke

Schreibe einen Kommentar

Deine E-Mail-Adresse wird nicht veröffentlicht. Erforderliche Felder sind mit * markiert.