Umwelt WeAct Europa Mieten Datenschutz Digitalisierung Menschenrechte Migration Montagslächeln Klimakrise

Gesicht zeigen statt Gesichtserkennung

Die Regierung will Stimm- und Gesichtserkennung nutzen, um Straftäter ausfindig zu machen. Dabei birgt diese Technologie große Risiken – und Potenzial, an falscher Stelle eingesetzt zu werden.

Ein Anbieter für Sicherheitstechnik zeigt auf einer Technik-Ausstellung, in welchen Situationen AI und Gesichtserkennung eingesetzt werden können.
Ein Anbieter für Sicherheitstechnik zeigt auf einer Technik-Ausstellung, in welchen Situationen AI und Gesichtserkennung eingesetzt werden können. Foto: IMAGO / NurPhoto

In den letzten Wochen konnte man keine Zeitung aufschlagen, ohne von neuen Ideen der Bundesregierung zu lesen, mit denen die Grundrechte weiter eingeschränkt werden. Heimliche Hausdurchsuchungen gehören dazu. Kommen die Bewohner*innen von der Arbeit zurück, wirkt die Wohnung zwar wie zuvor. Doch jemand hat sich dort umgeschaut und vielleicht sogar Überwachungssoftware auf dem Computer installiert. Biometrische Überwachung auch: Alle unsere Fotos oder Tonaufnahmen im Internet soll der Staat künftig mit Technologie für Stimm- und Gesichtserkennung durchsuchen dürfen, ob es nun Fotos vom Kindergeburtstag im Garten sind, unsere Schnappschüsse aus dem letzten Urlaub oder ein selbst aufgenommenes Lied. So steht es im Entwurf für ein neues BKA-Gesetz.

Das Ziel – die Verhinderung und Aufklärung von Verbrechen – ist ehrenwert. Doch erstens genügt das nicht: Eingriffe in Menschenreche müssen nicht nur ein legitimes Ziel verfolgen, sondern auch notwendig und verhältnismäßig sein. Wenn Gesichtserkennungstechnologie unser aller Gesichter erfasst, um einige wenige Menschen zu suchen (die sich davor schützen können, indem sie vor Kameras Hut, Sonnenbrille und Maske tragen und keine Fotos im Netz posten) ist das aber unverhältnismäßig. Zweitens müssen spätestens die Ergebnisse der AfD in den Landtagswahlen in Sachsen und Thüringen zu einem Umdenken in der Sicherheitspolitik führen. Sicherheitspolitik muss die physische und soziale Sicherheit aller Menschen erhöhen. Sie darf keinen schlüsselfertigen Überwachungsstaat aufbauen, den menschenrechtsfeindliche politische Kräfte missbrauchen können, sobald sie irgendwo an die Macht gelangen.

Eine Person geht eine Einkaufsstraße entlang, sie ist von hinten zu sehen. Sie trägt einen Pullover mit der Aufschrift auf dem Rücken: "My face is not availabel today."
Foto: IMAGO / Michael Gstettenbauer

Ein Bündnis der Zivilgesellschaft hat die Aktion „Gesichtserkennung stoppen“ ins Leben gerufen. Durch sie kannst Du eine Mail an die zuständigen Mitglieder des Bundestages schicken und Dich für ein Verbot von Massenüberwachung durch Gesichtserkennung einsetzen.

Gesichtserkennung als einschüchternde Technologie

Es ist vielfach nachgewiesen und auch durch das Bundesverfassungsgericht anerkannt, dass Überwachung zu sogenannten „Chilling Effects“ führt. Der Einsatz von Gesichtserkennungstechnologie kann Menschen zum Beispiel davon abhalten, an einer Demonstration teilzunehmen oder Fotos davon im Internet zu posten. Das Wissen um die mögliche Überwachung genügt, um ein Gefühl von Kontrolle zu erzeugen, das Menschen von der Ausübung ihrer Grundrechte abhält. Noch schlimmer ist es dort, wo die Regierung Menschenrechte und Demokratie nicht respektiert. In Russland etwa werden mit Gesichtserkennungs-KI Menschen identifiziert, die an regierungskritischen Demonstrationen teilnehmen – wie es etwa bei der Beerdigung von Alexej Nawalny in Russland geschah.

Aber auch in Deutschland erfordert es mancherorts Mut, zu einer Demo zu erscheinen oder Bilder davon online zu zeigen. Denn in immer mehr Orten Deutschlands werden Teilnehmer*innen von Demonstrationen gegen Rechtsextremismus bedroht. Und in manchen Fällen haben Polizisten Daten, auf die sie Zugriff hatten, an Rechtsextreme weitergegeben. Vor vier Tagen stand beispielsweise ein Polizist aus Greifswald vor Gericht, der Daten von Menschen aus der linken Szene abgerufen und an Rechtsextreme weitergegeben hatte, darunter etwa deren Wohnort. Die Strafe: 800 Euro. Wo menschenrechtsfeindliche Kräfte nach der Machtübernahme streben, brauchen wir dringend eine aktive Zivilgesellschaft – keine eingeschüchterte. Menschen müssen sich trauen, sichtbar zu sein und im wahrsten Sinne des Wortes ihr Gesicht zu zeigen.

Ebenfalls nachgewiesen ist, dass Gesichtserkennungstechnologie vor allem bei People of Colour und Frauen mehr Fehler macht. Sie geraten so häufiger unschuldig in das Visier der Behörden und werden in der Folge überwacht oder sogar inhaftiert. Diese Menschen sind bereits die Leidtragenden rassistischer und frauenfeindlicher Politik und von Rassismus vor Ort. Sie dürfen durch unsichere Technologien, welche sie systematisch benachteiligen, nicht noch weiter in Gefahr gebracht werden.

Was „rechtens“ ist, entscheiden die Machthaber

Außerdem ist Gesichtserkennungstechnologie ein gefährliches Instrument zur Verfolgung von Menschen aufgrund ihrer ethnischen Zugehörigkeit. Das zeigt sich beispielhaft in China. Chinesische Wissenschaftler*innen publizierten staatlich finanzierte Untersuchungen zu den Fähigkeiten der Technologie, Menschen anhand ihrer ethnischen Zugehörigkeit zu kategorisieren. Der Hersteller Hikvision bewarb seine Kameras sogar damit, dass sie zwischen Uigur*innen and Han-Chines*innen automatisch unterscheiden könnten. Chinesische Behörden nutzen Gesichtserkennungstechnologie als wichtigen Baustein des Überwachungsapparates in der Region Xinjiang. Spätestens nach den Landtagswahlen hierzulande sollte deshalb klar sein: Solche Technologien einzuführen, ist eine Einladung zu ihrem Missbrauch und brandgefährlich.

Mächtige Technologien müssen wir stattdessen so regulieren, wie wir auch ein Grundgesetz schreiben würden: Im Zweifel für die Freiheit und gemacht auch für herausfordernde Zeiten. Statt unsichere Technik auf alle Bürger*innen loszulassen, muss sich die Sicherheitspolitik darauf konzentrieren, unser aller Sicherheit zu garantieren. Auch in Zukunft und auch dort, wo menschenrechtsfeindliche Kräfte an Zustimmung gewinnen. Also: Gesicht zeigen statt Gesichtserkennung!

TEILEN

Autor*innen

Lena Rohrbach ist Referentin für Menschenrechte im digitalen Zeitalter und Rüstungsexportkontrolle bei Amnesty International. Sie hat als Campaignerin für Campact und im Journalismus gearbeitet und war Sprecherin der Piratenpartei. Lena hat Philosophie, Kulturwissenschaft und Geschichte in Berlin und International Human Rights Law an der University of Nottingham studiert. Auf Twitter ist sie als @Arte_Povera unterwegs. Alle Beiträge

Auch interessant

Digitalisierung, Lobbyismus Huawei und 5G-Netzausbau: Nach dem Ausstieg ist vor dem Ausstieg Menschenrechte Was ist eigentlich Adultismus?  Datenschutz, Europa Herbst 2024: EU-Pläne für umfassende digitale Überwachung Demokratie, Digitalisierung, Medien So entlarvst Du KI-Fakes – in 5 Schritten Digitalisierung, Globale Gesellschaft, Montagslächeln Montagslächeln: Lösung Digitalisierung, Globale Gesellschaft Wird Windows 11 eine Elektroschrott-Welle auslösen? Europa, Menschenrechte, Migration Eine Oma, ihre Enkelin und ein Hoffnungsschimmer Demokratie, Digitalisierung Nach den Wahlen: Einmischen leicht gemacht – jeder Klick zählt! LGBTQIA*, Menschenrechte Bedroht, verhaftet, getötet Datenschutz, Digitalisierung, Europa Verzerrtes Brüssel: Große Überwachung, kleiner Klimaschutz