C2PA ist ein offener technischer Standard, der dabei helfen soll, manipulierte Bilder und Videos im Internet zu entlarven. Ziel der gleichnamigen Vereinigung vieler namhafter Unternehmen ist es, das Vertrauen in digitale Inhalte wiederherzustellen und Falschinformationen zu bekämpfen. Doch wie funktioniert C2Pa?
Mittels generativer KI lassen sich mittlerweile nahezu realitätsgetreue Bilder und Videos erstellen. Dem untrainierten Auge fällt es jedoch immer schwerer, echte Inhalte von gefälschten zu unterscheiden. Besonders in sensiblen Bereichen wie bei politischen Wahlen oder aktuellen Nachrichten kann die Verbreitung manipulierter Bilder und Videos jedoch verheerende Auswirkungen haben.
Um das Problem zu bekämpfen, wurde der C2PA-Standard entwickelt. Das System soll sicherstellen, dass Menschen jederzeit in der Lage sind, digitale Inhalte anhand von eingebetteten Metadaten zu überprüfen. Denn diese können die Authentizität und mögliche Bearbeitungen offenlegen.
Neue Stellenangebote
Marketing Manager – Branding / PR / Social Media (m/w/d) AURICON Group in Düsseldorf |
||
Praktikant – Digitales Lernen und Empowerment im Bereich Social Media (m/w/d) Allianz Kunde und Markt GmbH in Unterföhring (bei München) |
||
(Senior) Social Media Manager:in (m/w/d) – NRW TAS Emotional Marketing GmbH in Essen |
Was ist C2PA?
Die Coalition for Content Provenance and Authenticity (C2PA) ist ein offener technischer Standard, der entwickelt wurde, um die Authentizität digitaler Inhalte sicherzustellen. Große Unternehmen wie Microsoft, Adobe, Google und Co. unterstützen diesen Standard und sind Teil einer gleichnamigen Vereinigung.
C2PA nutzt kryptografische Signaturen, um die Herkunft und etwaige Manipulationen von Bildern und anderen digitalen Inhalten zu verifizieren. In einer Zeit, in der sich mittels generative KI immer häufiger gefälschte Bilder und Videos erzeugen lassen, die schwer von echten Inhalten zu unterscheiden sind, erscheint das immer bedeutender.
Der C2PA-Standard funktioniert durch die Einbettung von Metadaten, die unter anderem den Zeitpunkt der Erstellung, die Kameraeinstellungen und mögliche Änderungen an dem Bild enthalten. Diese Informationen bettet das System in die Datei ein. Das soll es eine Überprüfung ermöglichen, die offenbart, ob ein Bild authentisch ist oder mittels KI oder andere Bearbeitungstools verändert wurde.
Wie funktioniert C2PA?
Die Funktion von C2PA lässt sich in drei Schritten beschreiben. Erstens müssen die Ersteller von Inhalten – wie Kamerahersteller oder Softwareentwickler – den C2PA-Standard übernehmen. Einige Kameras, wie Modelle von Sony und Leica, unterstützen bereits die Einbettung kryptografischer Signaturen in Fotos.
Auch Bildbearbeitungsprogramme wie Adobe Photoshop und Lightroom sind in der Lage, diese Signaturen zu verwenden und anzugeben. Diese beinhalten etwa Informationen darüber, wann und wie ein Bild mittels Software bearbeitet wurde.
Zweitens müssten Online-Plattformen wie soziale Netzwerke es ermöglichen, diese Metadaten auszulesen und sie den Nutzern anzeigen. Derzeit gibt es jedoch noch große Lücken bei der Implementierung, sodass viele Plattformen diese Informationen bisher nicht enthalten.
Drittens müssen Nutzer die Möglichkeit haben, die Metadaten selbst überprüfen und interpretieren zu können. Plattformen wie Facebook und Instagram haben zwar bereits damit begonnen, Inhalte mit KI-Markern zu versehen, aber die Verbreitung dieser Technologie ist noch begrenzt.
Herausforderungen bei der Implementierung
Obwohl C2PA einen robusten Standard bietet, ist die breite Einführung bisher nur langsam vorangekommen. Ein Hauptproblem ist die Interoperabilität, da viele Plattformen und Geräte den Standard bisher nicht unterstützen. Denn häufig nutzen Menschen ihr Smartphone für Fotos. Doch diesen fehlt bisher noch eine Unterstützung für C2PA.
Außerdem gibt es bislang keinen einheitlichen Ansatz, wie etwa soziale Netzwerke die Metadaten für ihre Nutzer anzeigen.
Trotz dieser Herausforderungen offenbart der C2PA-Standard eine vielversprechende Lösung für das Problem der Authentizität digitaler Inhalte. In einer Welt, die zunehmend von KI-generierten Inhalten wird, könnte er dabei helfen, Fälschungen zu entlarven und das Vertrauen in digitale Medien wiederherstellen.
Auch interessant: