AfD Rechtsextremismus Datenschutz Digitalisierung Europa Agrar Umwelt WeAct Demokratie Klimakrise

Mit warmen Worten gegen Killer-Roboter

Kriegsführung demnächst wie im Hollywood-Blockbuster, mit Terminator, KI und Co.? Das wäre unverantwortlich, unethisch – und sehr gefährlich.

3D-Darstellung eines Roboterarms, der eine Granate hält.
Ziehen zukünftig auch autonome Roboter in den Krieg? Foto: IMAGO / Panthermedia

Es war eine Premiere: Zum ersten Mal fand Mitte des Monats der neu ins Leben gerufene „REAIM“-Gipfel zum Einsatz von Künstlicher Intelligenz in Kriegen statt. Mit Spannung erwartet wurden von den angereisten Menschenrechtsaktivist_innen der „Campaign to Stop Killer Robots“, einem Bündnis der Zivilgesellschaft, insbesondere die Gespräche über „Killer-Roboter“ – also autonome Waffensysteme, bei denen eine KI selbständig Entscheidungen über Leben und Tod trifft. Die schlechten Nachrichten vorweg: Der Gipfel war leider eine verpasste Chance, einer Ächtung solcher Technologien näher zu kommen. Die guten: Er war ja nicht die letzte.

Lena Rohrbach arbeitet für Amnesty International Deutschland e.V. und schreibt im Campact-Blog über Rüstungsexportkontrolle und Menschenrechte im digitalen Zeitalter. Hier liest Du alle ihre Beiträge.

Autonome Waffensysteme sind keine Science Fiction mehr. Im Bereich der Flugabwehr etwa, bei dem es darauf ankommt, schnell die weitere Laufbahn eines sich nähernden Geschosses zu berechnen und es rechtzeitig abzufangen, ist ein hoher Grad an Selbständigkeit bereits verbreitet. Menschen wären für diese Aufgabe oftmals zu langsam. Hier kommt üblicherweise niemand zu Schaden – wie man an diesem Beispiel sieht, ist KI-Einsatz also selbst im militärischen Kontext nicht in jedem Fall so problematisch, dass sie verboten werden muss. Es muss aber dringend sichergestellt werden, dass Aktivitäten von besonderer Schwere in menschlicher Hand bleiben und nicht an eine KI abgegeben werden. Ganz klar der Fall ist das, wenn Menschen verletzt oder gar getötet werden. Menschen müssen die Verantwortung über entscheidende Aufgaben wie die Identifizierung und Auswahl von Zielen und die Abgabe eines Schusses behalten und dürften diese nicht an eine Maschine abgeben. Autonome bewaffnete Drohnen – ein anderer Bereich, in dem die Entwicklung von militärischer KI bereits sehr weit fortgeschritten ist – sind deshalb weitaus problematischer.

Gute Gründe für Menschen und gegen KI

In Kriegen begehen Menschen furchtbare Taten. Manche davon – etwa sexualisierte Gewalt als Kriegsmittel – würden Maschinen wohl nicht begehen. Warum also das Beharren der Menschenrechtsorganisationen auf dem Menschen? Dafür gibt es eine Reihe guter Gründe:

Ob Maschinen die Fähigkeiten entwickeln könnten, selbständig internationales Recht zu respektieren, kann man getrost bezweifeln. Will sich die Person vielleicht gerade ergeben? Wirkt sie wie ein Zivilist oder doch eher wie ein_e Kombattant_in? Ist eine Verhandlung möglich oder Gewalt wirklich unvermeidlich? Diese Abwägungen erfordern ein Einfühlungsvermögen in (andere) Menschen und ihre Emotionen. Der Einsatz autonomer Waffensysteme könnte außerdem die Hemmschwelle senken, bewaffnete Konflikte einzugehen, und ihre Dynamik eskalieren. Außerdem ist ungeklärt, wer die Verantwortung für Kriegsverbrechen hätte: Die Person, die den „Start“-Knopf gedrückt hat? Ihre Vorgesetzte oder Regierung ihres Staates? Die Programmiererin der KI oder die Firma, die sie verkauft hat? Oder könnten sie alle die Verantwortung von sich weisen und auf die „Black Box Technologie“ verweisen, deren Motive unergründlich sind?
Nicht zuletzt: Entsprechend programmiert können Roboter keine Befehle verweigern. Zahlreiche Beispiele aus Geschichte und Gegenwart zeigen jedoch, wie oft ein menschliches Gewissen notwendig ist.

KI-Gesetze kommen zu langsam

Es braucht deshalb dringend ein internationales, verbindliches Verbot von autonomen Waffensystemen. Dieses Verbot muss die Entwicklung, die Herstellung und natürlich den Einsatz der Waffen umfassen. Leider diskutieren Regierungsvertreter_innen bei den Vereinten Nationen nun schon geschlagene neun Jahre über eine solche Ächtung. Das Ergebnis bisher: Warme Worte. Etwa in Form unverbindlicher Prinzipien, die gefällig klingen, sich um ein Verbot aber herummogeln. Mehr warme Worte gab es nun auch beim REAIM-Summit. Als Ergebnis wurde ein vager Handlungsaufruf veröffentlicht, man möge mit KI doch bitte verantwortungsbewusst umgehen. Die USA (die massiv in Autonome Waffensysteme investieren) stellten eine eigene Erklärung vor, die eher einen Rück- als Fortschritt darstellt.

Ob es nun um große Internetplattformen wie Facebook und Twitter geht, um digitale Überwachung oder eben um Künstliche Intelligenz: Fast immer hängt die Regulierung neuer Technologien ihrem Einsatz hinterher. Bevor Gesetzgeber_innen reagiert haben, ist die Technik schon von der Leine gelassen. Sie dann wieder einzufangen ist zwar nicht unmöglich, aber nur gegen den Widerstand derjenigen möglich, die bereits viel Geld in ihre Entwicklung investiert haben und von ihrem Vorsprung profitieren. Beim Einsatz neuer Technologien in Kriegen besteht außerdem die Gefahr, dass einmal eingesetzte „Killer-Roboter“ zu sogenanntem „Völkergewohnheitsrecht“ führen. Dabei wird etwas dadurch zu einer Art ungeschriebenem Gesetz, dass es nur lange genug praktiziert und für rechtmäßig gehalten wird.

Ottawa und Oslo als Vorbild

Wir können es uns also nicht erlauben, noch lange auf ein Verbot zu warten. Autonome Waffensysteme brauchen einen internationalen Vertrag. Sollten die Gespräche bei den Vereinten Nationen weiterhin nicht vorankommen, muss die Bundesregierung – die sich im Koalitionsvertrag zu einem Verbot bekennt – auch andere Wege verfolgen. Ein Vorbild könnten etwa die Ottawa- und Oslo-Prozesse bieten, die zu völkerrechtlichen Verbotsverträgen für Antipersonenminen und Streumunition auch ohne einen UN-Konsens führten.

Kriege sind immer unmenschlich. Doch im Gegensatz zu Maschinen haben Menschen immerhin die Möglichkeit, darin menschlich zu handeln.

TEILEN

Autor*innen

Lena Rohrbach ist Referentin für Menschenrechte im digitalen Zeitalter und Rüstungsexportkontrolle bei Amnesty International. Sie hat als Campaignerin für Campact und im Journalismus gearbeitet und war Sprecherin der Piratenpartei. Lena hat Philosophie, Kulturwissenschaft und Geschichte in Berlin und International Human Rights Law an der University of Nottingham studiert. Auf Twitter ist sie als @Arte_Povera unterwegs. Alle Beiträge

Auch interessant

Europa, Klimakrise, Menschenrechte Klimaschutz: Dein Recht! Menschenrechte Erfolg: Deutsche Pharma-Werbung im belarusischen Propaganda-TV gestoppt Europa, Menschenrechte, Umwelt German Vote: Wie Deutschland Umweltschutz und Menschenrechte blockiert Menschenrechte, Rechtsextremismus Auf die Straße, fertig, los! – Versammlungsfreiheit unter Druck Menschenrechte, Montagslächeln Montagslächeln: 75 Jahre Menschenrechtserklärung Flüchtlingspolitik, Menschenrechte, WeAct Warum Seenotrettung nicht bestraft werden darf Hate Speech, Menschenrechte Geschäftsmodell Hass Antisemitismus, Menschenrechte Nie wieder ist jetzt Menschenrechte, Rechtsextremismus Solidarität mit Israel Menschenrechte Wie Raubtiere und fliegende Pferde die Menschenrechte bedrohen
Campact ist eine Kampagnen-Organisation, mit der über 3 Millionen Menschen entschlossen für progressive Politik eintreten und unsere Demokratie verteidigen. Wenn wichtige politische Entscheidungen anstehen, starten wir Kampagnen - digital und auf der Straße. Wir schmieden breite Bündnisse und mobilisieren eine starke Bewegung für die gemeinsame Sache. NewsletterHilfe und FAQKontaktDatenschutzImpressumCookie Einstellungen