Zum Hauptinhalt springen

MitteilungVeröffentlicht am 28. Januar 2026

Echt oder Fake? Was uns die Forschung lehrt.

Der Cyber-Defence Campus von armasuisse Wissenschaft und Technologie (W+T) veröffentlicht neue Studien über die zunehmende Schwierigkeit, durch Künstliche Intelligenz (KI) generierte Bilder als solche zu identifizieren. Dieses gemeinsame Forschungsprojekt des Cyber-Defence Campus und der Fachhochschule Nordwestschweiz (FHNW) befasst sich mit der zunehmenden Verwendung KI-generierter Bilder und mit den subtilen Artefakten, die sie von realen Bildern unterscheiden.

Synthetic portrait of a woman with small irregularities on the left eye, the hair, the teeth and the shape of the left ear.

Künstliche Intelligenz hat die Erschaffung digitaler Bilder revolutioniert. Hierdurch finden synthetische, fotorealistische Bilder immer grössere Verbreitung und werden in unterschiedlichen Bereichen – zum Beispiel in der Unterhaltung oder in der Werbung – eingesetzt. Allerdings verleitet diese Technologie auch zu missbräuchlicher Verwendung, beispielsweise zur Verbreitung falscher oder irreführender Informationen durch echt wirkende, aber gefälschte Bilder.

KI-generierte Bilder werden aktuell immer realistischer, sodass es zunehmend schwieriger wird, zwischen echten und synthetischen Inhalten zu unterscheiden. Deshalb führte der Cyber-Defence Campus und die Fachhochschule Nordwestschweiz (FHNW) in einem gemeinsamen Forschungsprojekt Studien über die Analysefähigkeiten moderner generativer Diffusionsmodelle mit Schwerpunkt auf deren Schwächen durch. Schwerpunkt einer Studie sind die Schwierigkeiten bei der Identifizierung synthetischer Inhalte. Dabei wird betont, wie wichtig es ist, kleine, aber wesentliche Fehler wie Unregelmässigkeiten bei der menschlichen Anatomie, dem Lichteinfall und bei der Objektsymmetrie auszumachen. Diese subtilen Fehler, die vom ungeübten Auge übersehen werden können, liefern wichtige Anhaltspunkte, um KI-generierte Bilder von echten Bildern zu unterscheiden.

In den Studien wird die Verwendung generativer Deep-Learning-Modelle, einschliesslich der Diffusionsmodelle, für die Erzeugung synthetischer Bilder zur potenziellen Täuschung, Beeinflussung und Unterwanderung in Cyber-Operationen untersucht. Obschon KI hochwertige Illustrationen und nicht realistische Bildinhalte erzeugen kann, bleibt die Erzielung fotorealistischer Ergebnisse nach wie vor äusserst schwierig. Gründe hierfür sind die begrenzten Rechenleistungen und die Notwendigkeit der humanen Nachbearbeitung. Die Zugänglichkeit und praktische Anwendbarkeit solcher Tools führen zu Bedenken im Hinblick auf ihren Missbrauch, insbesondere zur Verbreitung von Des- und Fehlinformationen sowie von digitaler Täuschung. Im Folgenden sind die Erkenntnisse der zweiten Studie zur Problematik der Erkennung synthetischer Fotos dargelegt.

Versteckte Hinweise in KI-generierten Bildern

Auch wenn KI-Modelle immer besser werden, tun sie sich noch schwer mit der Generierung bestimmter Details. In der Studie wurden typische Fehler in synthetischen Bildern ermittelt, die als Artefakte bezeichnet werden und wichtige Hinweise auf den synthetischen Ursprung liefern konnten. Die Fehler wurden anschliessend in eine umfassende Taxonomie eingeordnet. Diese Fehler treten häufig deswegen auf, weil generative Modelle komplexe visuelle Strukturen nicht voll akkurat reproduzieren können. Zu den häufigsten Problemen zählen:

Fehler bei der Anatomie des Menschen

KI erzeugt häufig Hände mit zu vielen oder zu wenigen Fingern, eine unnatürliche Positionierung der Finger oder asymmetrische Gesichtszüge. Auch Ohren, Augen und Zähne können verzerrt oder falsch angeordnet sein.

Unregelmässigkeiten beim Licht

Schatten und Reflexionen können unnatürlich erscheinen, weil sich Lichtquellen anders verhalten als in einem natürlichen Umfeld. Betonungen vom Gesicht oder von Gegenständen können falsch platziert sein und dadurch einen künstlichen Eindruck erzeugen.

Keine Symmetrie

Gegenstände können leicht verzerrt oder falsch angeordnet sein, sodass symmetrische Objekte asymmetrisch erscheinen – zum Beispiel verschiedene Rückspiegel eines Fahrzeugs –, oder repetitive Strukturen können uneinheitlich wiedergegeben werden, beispielsweise Geländer oder Zäune mit unregelmässigen Abständen.

Auch wenn diese Fehler subtil sein mögen, werden sie bei näherer Betrachtung offensichtlich. Da KI-generierte Bilder immer besser werden, müssen Profis und die Öffentlichkeit gleichermassen dafür sensibilisiert werden, diese subtilen Feinheiten zu erkennen, um zwischen echten und synthetischen Inhalten unterscheiden zu können.

Warum Schulung und Sensibilisierung wichtig sind

Schulung und Sensibilisierung sind unerlässlich, um den Risiken durch synthetische Bilder entgegenzuwirken. In der Studie wird empfohlen, Fachkräfte in den Bereichen Journalismus, Nachrichtenauswertung und digitale Forensik speziell dafür auszubilden, um KI-generierte Inhalte besser zu erkennen. Auch die Sensibilisierung der breiten Öffentlichkeit für die synthetische Bilderzeugung kann helfen, die Verbreitung von Fehlinformationen und Manipulationen zu verringern.

Verzerrungen bei der Bildanalyse vermeiden

Bei der Analyse von Bildern sind zwei wesentliche Fehler möglich: Es kommt zu sogenannten «False Positives», wobei echte Bilder irrtümlich als künstlich identifiziert werden, und zu «False Negatives», indem KI-generierte Bilder fälschlicherweise als echt betrachtet werden. Solche Irrtümer können zu Fehlinformationen, Misstrauen und schwerwiegenden Folgen in Bereichen wie Journalismus, Recht und Forschung führen. Kognitive Verzerrungen, insbesondere Bestätigungsfehler, können die Analyse weiter verzerren und dazu führen, dass fälschlicherweise Artefakte ausgemacht oder eindeutige Anzeichen für eine Manipulation übersehen werden. Die Häufigkeit solcher Fehler lässt sich verringern, indem ein systematischer, unvoreingenommener Ansatz sowie moderne Erkennungstools zum Einsatz kommen. Zudem gilt es, Bildanalystinnen und -analysten für die Einflüsse kognitiver Verzerrungen bei der Überprüfung von Bildern zu sensibilisieren.

Praktische Anwendung der Studienergebnisse

KI-generierte Bilder werden bereits heute verwendet, um die öffentliche Meinung, Börsenmärkte und selbst politische Ereignisse zu manipulieren. Gefälschte Bilder können dazu dienen, falsche Informationen zu verbreiten sowie Verwirrung und Misstrauen zu stiften. Gegenmassnahmen könnten in neuartigen Erkennungstechnologien und in einer besseren Medienkompetenz bestehen. Die Unterlagen und Erkenntnisse der Studie könnten verwendet werden, um:

  • Bildungs- und Schulungsmassnahmen in den Bereichen digitale Forensik, Nachrichtenauswertung und Journalismus zu unterstützen,
  • Bilder systematisch auf Hinweise auf KI-Erzeugung zu überprüfen,
  • Kampagnen für Medienkompetenz zu unterstützen,
  • neue Leitlinien und Vorschriften zur Verhinderung einer missbräuchlichen Verwendung synthetischer Bilder auszuarbeiten,
  • neue Forschung für die automatische Erkennung KI-generierter Bilder anzuregen.

Perspektive FHNW

Bei der FHNW untersuchen wir KI in Kontexten, in denen eine rigorose Forschung mit praktischen Herausforderungen konfrontiert wird. Als Forschende sind wir über die jüngsten Fortschritte in der KI und die damit verbundenen potenziellen Auswirkungen auf unsere Gesellschaft zugleich fasziniert und besorgt. Der CYD-Campus fördert die Forschung zu diesen wichtigen Fragen mit finanziellen Mitteln und bringt Fachkräfte aus verschiedenen Bereichen zusammen, um Projekte zu Themen mit Praxisbezug anzuleiten. Wir sind stolz darauf, dass wir die Schwächen generativer KI untersuchen und gemeinsam einen Workflow für Praktikerinnen und Praktiker entwickeln konnten, um synthetische Bilder als solche zu identifizieren. Unser Dank gilt allen Beteiligten, die dieses Projekt zum Erfolg geführt haben, in besonderem Masse jedoch Raphael Meier, der uns mit seinem ausgeprägten Fachwissen und der effizienten Nutzung seines Netzwerks unterstützt hat, um Wissenschaft und Praxis zusammenzubringen.

Synthetic images of HIMARS vehicles.

Weitere Informationen: