Alltagsrassismus Antisemitismus Feminismus Rechtsextremismus Soziales WeAct Digitalisierung Europa Klimakrise Globale Gesellschaft

So entlarvst Du KI-Fakes – in 5 Schritten

Mit KI generierte Bilder gehören mittlerweile zu unserem Alltag. Auch immer mehr Fakes sind im Umlauf. Wie Du sie erkennst und Dich vor Täuschung schützen kannst.

Ein mit künstlicher Intelligenz generiertes Bild, welches Papst Franziskus in einem Designer-Mantel der Luxusmarke Balenciaga zeigt.
Der Papst trägt Balenciaga? Dieses vermeintliche Foto von Papst Franziskus machte vor einem Jahr die Runde im Internet. Ursprünglich gepostet wurde es auf der Plattform Reddit in einem Forum, in dem sich alles um den KI-Generator "Midjourney" dreht. Der Fake wurde allerdings enttarnt: Unter anderem an der sonderbaren rechten Hand der Person lässt sich erkennen, dass das Bild gefälscht ist. Quelle: Reddit

Ob in der Werbung, auf dem Immobilienmarkt oder als Teil von kreativen Prozessen: Mit KI generierte Bilder sind immer häufiger Teil unseres Alltags. Die Abkürzung KI steht dabei für „Künstliche Intelligenz“. Manchmal wird auch von „AI“ gesprochen, das ist die Abkürzung für die englische Übersetzung „Artificial Intelligence“. Es gibt mittlerweile einige Online-Dienste, welche diese Art von computergestützter Bildgenerierung anbieten.

Kritik an AI- bzw. KI-Bildern

Vor allem Künstler*innen äußern immer wieder Kritik an KI-Bildern. Denn die Programme bedienen sich für die Generierung der Bilder und dem Anlernen der KIs – mal offen, mal geheim – wohl an bereits bestehenden, oft urhebergeschützten Kunstwerken oder Fotos. Viele Künstler*innen boykottieren daher die Verwendung von KI für die Bilderstellung.

Diese Programme werden aber nicht nur dazu benutzt, um etwa bei einer Wohnungsanzeige die Räume exemplarisch zu möblieren oder um ein passgenaues Werbebild zu erstellen. Immer mehr Menschen und Netzwerke nutzen KI-Bilder, um gezielt Personen anzugreifen, zu diffamieren oder Fake-News zu verbreiten. Die designierte Präsidentschaftskandidatin der US-Demokraten Kamala Harris ist Opfer von solchen KI-Fakes geworden, genau so wie Joe Biden, Michelle Obama und andere Prominente. Aber auch deutsche Politiker*innen, hier Olaf Scholz, wurden schon Opfer von gefälschten Bildern und sogenannten „Deep Fakes“, KI-generierten Videos.

Auch Medien und offizielle Stellen fallen hin und wieder auf KI-Fakes herein. Deswegen ist es wichtig, KI-Fakes erkennen zu können. Wir haben 5 Tipps für Dich, die Dir dabei helfen.

Willkommen im Campact-Blog

Schön, dass Du hier bist! Campact ist eine Kampagnen-Organisation, mit der über 3 Millionen Menschen entschlossen für progressive Politik eintreten und unsere Demokratie verteidigen. Wenn wichtige politische Entscheidungen anstehen, starten wir Kampagnen – digital und auf der Straße. Wir schmieden breite Bündnisse und mobilisieren eine starke Bewegung für die gemeinsame Sache.

1. Hinterfragen: Kann das wahr sein, oder ist es zu absurd?

Es sollte eigentlich immer der erste Schritt sein, sich die Frage zu stellen: Ist es wahrscheinlich, dass das tatsächlich passiert ist? Relativ offensichtlich ist das bei Bildern wie dem zu diesem Beitrag, welches Papst Franziskus in der Jacke einer Luxusmarke zeigt. Papst Franziskus, das Oberhaupt der katholischen Kirche, gilt als gemäßigt und bescheiden, da passt so etwas einfach nicht ins Bild.

Anders sieht es bei KI-Fotos aus, die zum Beispiel zwei Prominente zusammen zeigen, wie hier Elon Musk und die CEO von General Motors, Mary Barra. Denn wie wahrscheinlich es ist, dass zwei Menschen wirklich miteinander ausgehen, lässt sich als Außenstehender oft schlecht beurteilen. Ähnlich sieht es bei Bildern aus Krisengebieten oder von Kriegseinsätzen aus.

Auch kann es helfen, sich zu fragen: Was soll dieses Bild bewirken oder aussagen? Was soll es mit mir emotional machen? Gerade, wenn überraschende Fotos einen emotional sehr bewegen, ist Vorsicht gefragt. Denn wütende, empörte oder auch schadenfreudige Menschen hinterfragen seltener den Wahrheitsgehalt von Bildern, wenn der Inhalt in ihr Weltbild passt.

Wenn eine objektive Einschätzung nicht hilft, kann eine kurze Internet-Recherche hilfreich sein: Berichten noch andere Quellen über das Ereignis, eventuell auch mit weiteren Bildern? Gibt es andere Fotos oder Perspektiven einer Situation, kann man sich schon sicherer sein, dass es sich um ein wahres Ereignis handelt. Auch die Rückverfolgung eines Bildes mit Hilfe von zum Beispiel der Google Image Search oder TinEye kann helfen. Verweisen alle Seiten auf eine einzige Quelle oder lässt sich das Bild nicht zurückverfolgen, solltest Du misstrauisch werden.

2. Auf Hände, Füße und andere Körperteile achten

Auch wenn die KIs hier immer besser werden: Hände, Füße und andere Körperteile und Körperproportionen bereiten der künstlichen Intelligenz immer noch Schwierigkeiten. Da hat eine Hand dann mal sechs Finger, ist merkwürdig abgebogen oder viel zu groß oder zu klein, Beine sind übermäßig unterschiedlich lang oder Arme haben keine Verbindung zu einem Körper.

KI-generiertes Bild von Donald Trump während seiner Verhaftung.
Quelle: Eliot Higgins auf X

Auch Accessoires wie Brillen, Ohrringe oder Schmuck enthalten oft Fehler, ebenso wie Ohren und Zähne. Und wenn die Zähne zum Beispiel intakt sind, aber dafür übernatürlich weiß oder perfekt wirken, kann das ein Anzeichen für einen Fake sein. Dieses KI-Bild von einer vermeintlichen Festnahme von Donald Trump ist ein gutes Beispiel dafür: Die Polizeikräfte haben zum Teil weniger oder mehr Finger an den Händen, der Verlauf von Armen und Beinen ergibt keinen Sinn und es sind Gliedmaßen an Stellen, wo sie absolut nicht hingehören.

Das Bild von der Festnahme ist eines von mehreren KI-generierten Bildern, welche der Journalist und Gründer der Recherche-Plattform „Bellingcat“ am 20. März 2023 auf X (ehemals Twitter) postete. Er kommentierte sie mit den Worten: „Bilder davon erstellen, wie Trump verhaftet wird, während man auf Trumps Verhaftung wartet“ (eigene Übersetzung).

Makellose Haut, perfekte Zähne, seidig glänzende Haare

In Zeiten von Selfie-Filtern ist der Weg zu kompletten Fake-Bildern nicht weit. Manche KI-Plattformen nutzen zum Beispiel ein vorgegebenes Profilbild oder Foto, um daraus dann Varianten oder Überarbeitungen zu erstellen. Diese haben oft eine makellose Haut ohne Falten und Unreinheiten, selbst bei Personen, die älter wirken sollen, oder auch perfekt gerade Zähne oder extrem gut liegende Frisuren. Natürlich kann Make-Up viel ausmachen – ab einem gewissen Punkt wird es allerdings unrealistisch, und Du solltest vorsichtig sein.

3. Unrealistische Tiefenunschärfe erkennen

Auch die Logik von Tiefenunschärfen oder -Schärfen in Bildern ist etwas, an dem die KI manchmal scheitert. Nicht selten ist der Hintergrund von KI-Bildern unscharf gestaltet und soll eine Tiefenunschärfe oder einen Bokeh-Effekt simulieren, wie man ihn mit professionellen Kameras hinbekommt. Doch auch diese Unschärfe kann Fehler enthalten. Dann zum Beispiel, wenn der Hintergrund nicht bloß unscharf ist, sondern künstlich verwischt wirkt, oder sowohl Hintergrund als auch Vordergrund verwischt bzw. unscharf sind.

Mit KI generiertes Bild von drei Frauen in Krankenhauskitteln auf einem Krankenhausflur.
Quelle: Pixabay

Eine echte Kameralinse fokussiert auf einen bestimmten Abstand, nicht auf die Bildmitte oder ein Motiv. In diesem Bild wirkt der Hintergrund deshalb unrealistisch: Während rechts die Wand und die Bande unscharf sind, ist der weiße Kasten auf der gleichen Höhe sehr scharf. Das Bett auf der linken Seite wiederum ist unscharf, obwohl es auf der gleichen Höhe wie die drei Frauen stehen soll.

4. Hintergrund genau analysieren

Der Hintergrund eines computergenerierten Bildes wird oft zufällig oder mit nicht viel Sorgfalt gefüllt – schließlich soll die betrachtende Person auf das schauen, was im Vordergrund passiert. Der Bildhintergrund hilft daher auch manchmal dabei, KI-Bilder zu erkennen. Befinden sich zum Beispiel Personen im Hintergrund, können zwei identische oder sehr ähnliche, aber merkwürdig undefinierte Menschen mit ebenfalls ungewöhnlichen Proportionen vorkommen.

Auch Artefakte, das heißt Bildfehler wie verschwommene oder pixelige Gegenstände, unlogische oder einfach nicht existierende Gegenstände kann es geben. Ein paar Beispiele zur Verdeutlichung: Fehlende oder fehlerhafte Spiegelungen, Blumenvasen ohne Boden, Trinkgläser ohne Trinköffnung, krumme Laternen, Zäune oder Regale mit fehlenden Pfählen oder Wänden. Die Liste ist hier unerschöpflich und der „Fantasie“ der KI keine Grenzen gesetzt. Auch mit Sprachen und Schrift-Darstellung tun sich viele KIs schwer. Beschriftungen auf Schildern, Labels oder Büchern im Hintergrund ergeben oftmals keinen Sinn oder wirken wahllos zusammengewürfelt.

5. KI-Fake-Erkenner benutzen

Wenn Du Dir trotzdem immer noch nicht sicher bist, ob das vorliegende Bild gefälscht ist oder nicht, kannst Du Dir einen Fake-Erkenner zur Hilfe nehmen. Programme, welche erkennen können, ob ein Text mit einer KI generiert wurde, gibt es mittlerweile reichlich (zum Beispiel detecting-ai oder diesen Erkenner der FH Wedel). Für computergenerierte Bilder sieht es allerdings spärlicher aus.

Die wichtigsten und am weitesten verbreiteten Fake-Erkenner sind:

  • Hive (Unternehmen, das selbst KI für Analysen nutzt und bereitstellt, das laut eigenen Angaben aber einem „ethischen Grundgedanken“ folgt, kostenfrei unter bestimmten Bedingungen)
  • Deepware (Programm des gleichnamigen Unternehmens, welches wiederum Tochterunternehmen einer Cybersecurity-Firma ist. Spezialisiert vor allem auf Deep-Fake-Videos, kostenlos)
  • Sensity (KI-gestützer Fake- und Deep-Fake-Erkenner, kostenpflichtig, Zielgruppen sind vor allem das Rechtssystem, Konzerne oder Regierungen)
  • Reality Defender (Kollaboration von u.a. Microsoft und Visa, kostenpflichtig, richtet sich vor allem an Konzerne und Regierungen)

Deinen eigenen Blick für KI-Bilder schärfen kannst Du zum Beispiel mit der Website „Detect Fakes“ der Northwestern University aus den USA oder mit Quizzes, zum Beispiel diesem hier von GEO oder diesem vom WDR.

KI erkennen zu können wird immer wichtiger

Dass bereits jetzt, weniger als zwei Wochen nach der Nominierung von ihr durch Joe Biden, Fake-Bilder von Kamala Harris kursieren, ist erschreckend. Bereits im vergangenen Jahr wies der Digital-Experte Sascha Lobo in der ZDF-Sendung „Markus Lanz“ darauf hin:

Es ist erahnbar, dass wir in den nächsten Wahlkämpfen – in den Vereinigten Staaten ganz besonders, aber auch in der Weltpolitik – eine Form von Propaganda und Fake News bekommen, die wirklich besorgniserregend ist, weil wir uns als Öffentlichkeit bisher damit nicht auskennen.

Sascha Lobo, Netz-Experte im ZDF-Interview

Gemeinsam gegen KI-Fakes, Hate Speech und Anfeindungen einzustehen wird eine Notwendigkeit in unserer Gesellschaft und Demokratie werden müssen. Teile diesen Beitrag mit drei Freund*innen oder Bekannten, damit ihr gemeinsam informiert bleibt – und keiner von euch auf einen Fake hereinfällt.

Teilen
Teilen
E-Mail
TEILEN

Autor*innen

Linda Hopius hat Wissenschaftsjournalismus, Politikwissenschaft und Philosophie studiert. Als freie Journalistin schreibt sie zu den Themen Umwelt und Naturschutz. Dazu arbeitet sie als Naturmentorin in der Natur- und Erlebnispädagogik und berichtet darüber auf ihrem Instagram-Kanal @lindasnaturgeschichten. Für Campact arbeitet sie seit 2024 als freie Redakteurin. Alle Beiträge

Auch interessant

Digitalisierung, Europa, Klimakrise Denkt die EU beim „Digital Fairness Act“ ans Klima? CDU, Demokratie Die Welt des Friedrich Merz  Globale Gesellschaft, Medien Wenn Journalismus zum Geschäftsmodell wird Medien, Montagslächeln Montagslächeln: Öffentlich-Rechtliche Medien Die Maus ist zurück in Köln Medien Die Maus geht auf Reisen Medien Diese 5 Sendungen könnte es bald nicht mehr geben Digitalisierung Smartphone oder SUV: Was empfiehlt eine Öko-KI? Demokratie, Wahlen Wie wir unsere Parlamente gegen Antidemokraten wappnen können  AfD, Demokratie, Rechtsextremismus Warum die AfD keine demokratische Partei ist, obwohl sie demokratisch gewählt wurde