C2PA-Standard: Die Technologie, die uns vor Bildmanipulation schützen könnte – wenn Big Tech sie endlich nutzt

C2PA-Standard: Die Technologie, die uns vor Bildmanipulation schützen könnte – wenn Big Tech sie endlich nutzt

Warum nutzen Plattformen nicht ein System, das echte Bilder von KI-Fälschungen unterscheiden kann? Die weltweit größten Technologieunternehmen unterstützen den Authentifizierungsstandard der C2PA, aber sie lassen sich zu viel Zeit, um ihn einzusetzen.

Die US-Präsidentschaftswahlen stehen vor der Tür, und das Internet ist gefüllt mit Bildern von Donald Trump und Kamala Harris: perfekt zeitlich aufeinander abgestimmte Fotos eines Attentatsversuchs, vollkommen unspektakuläre Fotos von Wahlkampfveranstaltungen und schockierend untypische Bilder der Kandidaten, die Fahnen verbrennen und Waffen in den Händen halten. Natürlich haben einige dieser Ereignisse nie stattgefunden. Aber durch die enormen Fortschritte generativer KI-Bildwerkzeuge, die heute so geschickt und zugänglich sind, können wir unseren Augen kaum noch trauen.

Donald Trump und Kamilla Harris in formeller Kleidung küssen sich in einem Innenraum. Eine Person hat blondes Haar, die andere dunkles. Im Hintergrund ist teilweise eine amerikanische Flagge zu sehen, was Fragen zur Bildmanipulation und zum Einfluss der großen Technologieunternehmen auf die Authentizität von Bildern aufwirft.
Donald Trump und Kamala Harris küssen sich augenscheinlich. Natürlich kommt auch dieses Bild von einer KI (Flux Pro). Wären solche Bilder durch den Einsatz von C2PA-Standards noch zu generieren? Und … wollen wir das?

Einige der größten Namen in der digitalen Medienwelt arbeiten daran, dieses Chaos zu entwirren. Ihre Lösung: mehr Daten — speziell Metadaten, die an ein Foto angehängt werden und Auskunft darüber geben, was echt ist, was gefälscht ist und wie die Fälschung entstanden ist. Eines der bekanntesten Systeme hierfür ist die C2PA-Authentifizierung, die bereits von Unternehmen wie Microsoft, Adobe, Arm, OpenAI, Intel, Truepic und Google unterstützt wird. Der technische Standard liefert wichtige Informationen über die Herkunft von Bildern und ermöglicht es den Betrachtern, zu erkennen, ob sie manipuliert wurden.

Was ist C2PA und wie funktioniert es?

Die C2PA (Coalition for Content Provenance and Authenticity) ist eine breit angelegte Initiative, die im Wesentlichen darauf abzielt, die Authentizität digitaler Inhalte sicherzustellen. Der technische Standard, den C2PA entwickelt hat, nutzt kryptografische digitale Signaturen, um die Echtheit digitaler Medien zu verifizieren. Diese Signaturen enthalten wesentliche Informationen über das Bild, wie die Kameraeinstellungen, den Aufnahmeort und die verwendete Bildbearbeitungssoftware. Diese Metadaten fungieren wie ein digitaler Fingerabdruck, der die Geschichte eines Bildes nachzeichnet und Manipulationen sichtbar macht.

Zum Beispiel könnten Inhalte, die mit Adobe Photoshop bearbeitet wurden, automatisch diese C2PA-Metadaten einbetten, die genau dokumentieren, welche Änderungen vorgenommen wurden und ob generative KI-Tools im Spiel waren. Dies wäre besonders nützlich, um Bilder zu identifizieren, die auf unehrliche Weise bearbeitet wurden.

C2PA Demonstration of Truepic's Technology

Die Herausforderung der Implementierung

Wenn die Technologie zur Authentifizierung von Bildern bereits verfügbar ist, stellt sich die Frage: Wo bleibt sie? Und warum sehen wir online nicht mehr „verifizierte“ Kennzeichnungen bei veröffentlichten Fotos?

Das Problem liegt in der Interoperabilität. Es gibt noch immer enorme Lücken in der Implementierung dieses Systems, und es dauert Jahre, bis alle notwendigen Akteure an Bord sind. Und wenn wir nicht alle Beteiligten ins Boot holen, könnte die Initiative scheitern.

Die größten Herausforderungen beginnen bei den Kameras, die die Bilder aufnehmen. Einige Marken, wie Sony und Leica, haben bereits begonnen, kryptografische digitale Signaturen, die auf dem offenen technischen Standard der C2PA basieren, in ihre Kameras zu integrieren. Diese Signaturen liefern wichtige Informationen wie Kameraeinstellungen, Datum und Ort der Aufnahme direkt beim Fotografieren. Diese Funktion wird derzeit jedoch nur von wenigen Kameras unterstützt, wie der Leica M11-P oder durch Firmware-Updates bei Sonys Alpha 1, Alpha 7S III und Alpha 7 IV. Andere große Kameramarken wie Nikon und Canon haben zwar ebenfalls zugesagt, den C2PA-Standard zu übernehmen, doch die tatsächliche Umsetzung steht noch aus.

Auch bei Smartphones, die für viele Menschen die zugänglichsten Kameras darstellen, fehlt diese Unterstützung weitgehend. Weder Apple noch Google haben auf Anfragen zur Implementierung von C2PA-Unterstützung oder ähnlichen Standards in ihre iPhone- oder Android-Geräte reagiert.

Wenn die Kameras selbst diese wertvollen Daten nicht aufzeichnen, können wichtige Informationen dennoch während des Bearbeitungsprozesses hinzugefügt werden. Software wie Adobe Photoshop und Lightroom, zwei der am weitesten verbreiteten Bildbearbeitungsanwendungen in der Fotografiebranche, können automatisch diese Daten in Form von C2PA-unterstützten Inhaltsnachweisen einbetten, die festhalten, wie und wann ein Bild verändert wurde. Das schließt auch den Einsatz generativer KI-Tools ein, was helfen könnte, Bilder zu identifizieren, die manipuliert wurden.

Die fehlende Unterstützung durch Plattformen

Selbst wenn eine Kamera Authentizitätsdaten unterstützt, werden diese Informationen nicht immer an den Betrachter weitergegeben. Ein C2PA-kompatibles Sony-Kamera wurde beispielsweise verwendet, um das mittlerweile ikonische Foto von Trumps Faustschlag nach dem Attentatsversuch aufzunehmen, sowie ein Foto, das anscheinend die Kugel zeigt, die auf ihn abgefeuert wurde. Diese Metadaten sind jedoch für die breite Öffentlichkeit nicht zugänglich, da Online-Plattformen, auf denen diese Bilder verbreitet wurden, wie X (ehemals Twitter) und Reddit, sie beim Hochladen und Veröffentlichen von Bildern nicht anzeigen. Selbst Medienwebsites, die den Standard unterstützen, wie die New York Times, zeigen keine Verifizierungsnachweise sichtbar an, nachdem sie diese zur Authentifizierung eines Fotos verwendet haben.

Ein Teil dieses Hindernisses, neben der Herausforderung, Plattformen überhaupt ins Boot zu holen, besteht darin, die beste Art und Weise zu finden, diese Informationen den Nutzern zu präsentieren. Facebook und Instagram sind zwei der größten Plattformen, die Inhalte auf Marker wie den C2PA-Standard überprüfen, aber sie kennzeichnen nur Bilder, die mit generativen KI-Tools manipuliert wurden – es werden keine Informationen angezeigt, um „echte“ Bilder zu validieren.

Wenn diese Kennzeichnungen unklar sind, kann das ebenfalls ein Problem darstellen. Metas „Made with AI“-Kennzeichnungen verärgerten Fotografen, als sie so aggressiv angewendet wurden, dass sie selbst bei geringfügigen Retuschen zu sehen waren. Die Kennzeichnungen wurden inzwischen aktualisiert, um die Nutzung von KI weniger hervorzuheben. Während Meta uns gegenüber nicht offenlegte, ob es dieses System ausweiten wird, glaubt das Unternehmen, dass eine „breite Akzeptanz von Content Credentials“ notwendig ist, um Vertrauen aufzubauen.

Truepic, ein Anbieter von Authentifizierungsinfrastrukturen und weiteres Mitglied der C2PA, sagt, dass in diesen digitalen Markern genügend Informationen vorhanden sind, um mehr Details zu liefern, als die Plattformen derzeit bieten.

„Die Architektur ist vorhanden, aber wir müssen den optimalen Weg erforschen, um diese visuellen Indikatoren anzuzeigen, damit jeder im Internet sie tatsächlich sehen und nutzen kann, um bessere Entscheidungen zu treffen, ohne einfach nur zu sagen, dass etwas entweder komplett generative KI oder komplett authentisch ist“

, sagte Mounir Ibrahim, Chief Communications Officer von Truepic, gegenüber The Verge.

Eine unvollständige Lösung für ein komplexes Problem

Selbst wenn wir morgen in einer Technologie-Landschaft aufwachen würden, in der jede Plattform, Kamera und kreative Anwendung den C2PA-Standard unterstützen würde, bleibt der Widerstand von Menschen ein starkes und möglicherweise unüberwindbares Hindernis. Auch wenn man den Menschen dokumentierte, faktenbasierte Informationen liefert, werden sie diese ignorieren, wenn sie es wollen. Fehlinformationen können gänzlich unbegründet sein, wie das Beispiel zeigt, wie bereitwillig Trump-Anhänger Anschuldigungen glaubten, Harris habe angeblich ihre Wahlkampfveranstaltungen gefälscht, obwohl es zahlreiche Beweise gab, die das Gegenteil bewiesen. Manche Menschen glauben einfach, was sie glauben wollen.

Ein kryptografisches Kennzeichnungssystem ist jedoch wahrscheinlich der beste Ansatz, den wir derzeit haben, um authentische, manipulierte und künstlich generierte Inhalte in großem Maßstab zuverlässig zu identifizieren. Alternative Methoden wie Online-Dienste zur KI-Erkennung sind notorisch unzuverlässig.

„Erkennung ist bestenfalls probabilistisch – wir glauben nicht, dass Sie einen Erkennungsmechanismus bekommen, bei dem Sie jedes Bild, Video oder digitalen Inhalt hochladen und in Echtzeit und im großen Maßstab eine Genauigkeit von 99,99 Prozent erreichen können“

, sagt Ibrahim.

„Und während das Wasserzeichen robust und hochwirksam sein kann, ist es unserer Ansicht nach nicht interoperabel.“

Kein System ist perfekt, und selbst robustere Optionen wie der C2PA-Standard können nur begrenzt helfen. Bild-Metadaten können leicht entfernt werden, indem man einfach einen Screenshot macht – dafür gibt es derzeit keine Lösung – und die Wirksamkeit des Systems hängt letztlich davon ab, wie viele Plattformen und Produkte es unterstützen.

„Nichts davon ist ein Allheilmittel“

, sagt Ibrahim.

„Es wird das Risiko mindern, aber böse Akteure werden immer da sein, die generative Werkzeuge nutzen, um Menschen zu täuschen.“

Das könnte Sie auch interessieren

Neu

Nicht verpassen