Wir benutzen Cookies, um die Nutzerfreundlichkeit der Website zu verbessern. Durch deinen Besuch stimmst du dem Datenschutz zu.
Alles klar!
BASIC thinking Logo Dark Mode BASIC thinking Logo Dark Mode
  • TECH
    • Apple
    • Android
    • ChatGPT
    • Künstliche Intelligenz
    • Meta
    • Microsoft
    • Quantencomputer
    • Smart Home
    • Software
  • GREEN
    • Elektromobilität
    • Energiewende
    • Erneuerbare Energie
    • Forschung
    • Klima
    • Solarenergie
    • Wasserstoff
    • Windkraft
  • SOCIAL
    • Facebook
    • Instagram
    • TikTok
    • WhatsApp
    • X (Twitter)
  • MONEY
    • Aktien
    • Arbeit
    • Die Höhle der Löwen
    • Finanzen
    • Start-ups
    • Unternehmen
    • Marketing
    • Verbraucherschutz
Newsletter
Font ResizerAa
BASIC thinkingBASIC thinking
Suche
  • TECH
  • GREEN
  • SOCIAL
  • MONEY
  • ENTERTAIN
  • NEWSLETTER
Folge uns:
© 2003 - 2025 BASIC thinking GmbH
Deepfakes, Cybersecurity, Forschung, Wissenschaft, Künstliche Intelligenz, Fälschung, Bilder, Fotos, KI, Studie, Cybersicherheit
TECH

Studie verrät: So kannst du Deepfakes von echten Aufnahmen unterscheiden

Beatrice Bode
Aktualisiert: 25. Juli 2024
von Beatrice Bode
CC BY 4.0/ Adejumoke Owolabi
Teilen

Im Internet kursieren immer mehr Deepfakes. Sie stellen ein Gefahr dar, weil sie täuschend echt wirken. Eine neue Studie liefert nun eine Methode, um Deepfakes von echten Bildern zu unterschieden zu können.

Deepfakes sind täuschend echt wirkende, jedoch künstlich erstellte oder veränderte Fotos-, Video- oder Sprachaufzeichnungen. So lautet die Definition der deutschen Bundesregierung.

Das Problem: Cyberkriminelle nutzen Deepfakes für Phishing, Desinformation und die Manipulation der öffentlichen Meinung. Denn durch fortschrittliche Künstliche Intelligenz ist es mittlerweile sehr schwer, Deepfakes zu entlarven.

UPDATE Newsletter BASIC thinking

Du willst nicht abgehängt werden, wenn es um KI, Green Tech und die Tech-Themen von Morgen geht? Über 10.000 Vordenker bekommen jeden Tag die wichtigsten News direkt in die Inbox und sichern sich ihren Vorsprung.

Nur für kurze Zeit: Anmelden und mit etwas Glück AirPods 4 gewinnen!

Mit deiner Anmeldung bestätigst du unsere Datenschutzerklärung. Beim Gewinnspiel gelten die AGB.

Studie erklärt, wie sich Deepfakes von echten Aufnahmen unterscheiden

Eine Studie der Royal Astronomical Society zeigt, dass es bei vielen Deepfakes ein Detail gibt, durch das sie sich von echten Fotos unterscheiden lasen: die Lichtreflexion im Auge. So können KI-generierte Fälschungen durch die Analyse des menschlichen Auges erkannt werden.

In einer offiziellen Pressemitteilung zeigen die Astronom:innen dafür als Beispiel ein Bild: Auf der linken Seite ist eine echte Abbildung der Schauspielerin Scarlett Johansson zu sehen. Auf der rechten Seite befindet sich ein Foto einer Person, das eine Künstliche Intelligenz erstellt hat.

Unter der Abbildung befinden sich Nahaufnahmen der Augäpfel beider Menschen. Dort ist zu sehen, dass die Reflexionen bei der echten Person konsistent und bei der künstlichen Person physikalisch falsch sind.

Das heißt: Wenn die Spiegelungen in den Augäpfeln übereinstimmen, ist das Bild wahrscheinlich das eines echten Menschen. Sind sie ungleich, handelt es sich vermutlich um einen Deepfake.

Wieso untersuchen Astronomen Künstliche Intelligenz?

Die Studie ist das Ergebnis der Forschungsarbeit von Adejumoke Owolabi, Master-Studentin an der University of Hull im englischen Yorkshire. Sie hat KI-generierte Fälschungen auf dieselbe Weise analysiert, wie Astronom:innen Bilder von Galaxien untersuchen.

„Um die Form von Galaxien zu messen, analysieren wir, ob sie zentral kompakt sind, ob sie symmetrisch sind und wie glatt sie sind. Wir analysieren die Lichtverteilung“, erklärt Kevin Pimbblet, Professor für Astrophysik und Direktor des Exzellenzzentrums für Datenwissenschaft, Künstliche Intelligenz und Modellierung. „Wir erkennen die Reflexionen auf automatische Weise und lassen ihre morphologischen Merkmale durch die CAS- und Gini-Indizes laufen“.

Normalerweise nutzen die Forschenden den Gini-Koeffizent, um zu messen, wie das Licht in einem Bild einer Galaxie auf seine Pixel verteilt ist. Dazu werden sie in aufsteigender Reihenfolge nach ihrem Lichtstrom geordnet und dann mit dem Ergebnis verglichen, das man bei einer vollkommen gleichmäßigen Lichtstromverteilung erwarten würde. Auf die gleiche Weise lassen sich auch die linken und rechten Augäpfel von Menschen vergleichen.

Die wissenschaftliche Methode, die das Team der University of Hull nutzt, sei kein Allheilmittel zur Erkennung gefälschter Bilder, so Kevin Pimbblet. Es gäbe auch falsch-positive und falsch-negative Ergebnisse. Allerdings liefere die Herangehensweise „einen Angriffsplan für das Wettrüsten bei der Erkennung von Fälschungen“.

Auch interessant:

  • Deepfakes: Bayern fordert Strafe von bis zu 5 Jahren Freiheitsentzug
  • Drohende EU-Strafen: Tech-Konzerne müssen gegen Deepfakes vorgehen
  • CT-Scans: Künstliche Intelligenz könnte Tausende Leben retten
  • Zombie-Marken: KI-Websites stehlen Identität von Autoren
BASIC thinking WhatsApp Kanal
STELLENANZEIGEN
Social Media Manager – Content Creation...
Breakthrough-Consulting GmbH Michae... in Aschaffenburg
(Junior) Social Media Manager / Content Creat...
EDEKA ZENTRALE Stiftung & Co. KG in Hamburg
Social Media Manager (w/m/d)
Breakthrough-Consulting GmbH Michae... in Aschaffenburg
Senior Social Media Strategist (m/w/d)
profection GmbH & Co. KG in Lüdenscheid,Köln,Düsseldorf
Social Media Manager – YouTube (w/m/d)
Breakthrough-Consulting GmbH Michae... in Aschaffenburg
Social Media Manager – Remote (w/m/d)
Breakthrough-Consulting GmbH Michae... in Aschaffenburg
(Junior) Social Media Manager (m/w/d) – Gaming
Hama GmbH & Co KG in Monheim
Social Media Manager – Brand & Growth (w/...
Breakthrough-Consulting GmbH Michae... in Aschaffenburg
THEMEN:CybersecurityDeepfakeForschungKünstliche Intelligenz
Teile diesen Artikel
Facebook Flipboard Whatsapp Whatsapp LinkedIn Threads Bluesky Email
vonBeatrice Bode
Folgen:
Beatrice ist Multi-Media-Profi. Ihr Studium der Kommunikations - und Medienwissenschaften führte sie über Umwege zum Regionalsender Leipzig Fernsehen, wo sie als CvD, Moderatorin und VJ ihre TV-Karriere begann. Mittlerweile hat sie allerdings ihre Sachen gepackt und reist von Land zu Land. Von unterwegs schreibt sie als Autorin für BASIC thinking.
WA Kanal AirPods Square
EMPFEHLUNG
PŸUR Black Friday
Black Friday bei PŸUR: Highspeed-Internet zu echten Dauertiefpreisen sichern
Anzeige TECH
Strom-Wechselservice Wechselpilot-2
Strom-Wechselservice: Was bringt dir der Service wirklich?
Anzeige MONEY
Testimonial LO

»UPDATE liefert genau das, was einen perfekten Newsletter ausmacht: Kompakte, aktuelle News, spannende Insights, relevante Trends aus Technologie & Wirtschaft. Prägnant, verständlich und immer einen Schritt voraus!«

– Lisa Osada, +110.000 Follower auf Instagram

Mit deiner Anmeldung bestätigst du unsere Datenschutzerklärung

LESEEMPFEHLUNGEN

Powerness
AnzeigeTECH

Jetzt einsteigen: Das Powerness Solarbank 3 Pro Paket für deinen ersten eigenen Strom

Elektrosmog, Gesundheit, Studie, Forschung, Gefahr, Elektroautos, Elektromobilität, ADAC, Deutschland, Strahlung, Strahlenschutz
TECH

Elektrosmog: Stellen E-Autos eine Gefahr für die Gesundheit dar?

GPT-5.1 Update ChatGPT Persönlichkeiten
BREAK/THE NEWSTECH

Identitätsstörung? GPT-5.1 haucht ChatGPT multiple Persönlichkeiten ein

Hostinger AI Website Builder
AnzeigeTECH

Schnell zur eigenen Website: So einfach geht’s mit dem Hostinger AI Website Builder

Organische Solarzellen
GREENTECH

Forscher entdecken Molekül für günstigere und bessere Solarzellen

KI-Modus Quellen Deutschland Google AI Mode
TECH

KI-Modus von Google: Die Top-Quellen in Deutschland

Mehr anzeigen
Folge uns:
© 2003 - 2025 BASIC thinking GmbH
  • Über uns
  • Mediadaten
  • Impressum
  • Datenschutz

Die besten Tech-Deals: Folge unserem WhatsApp-Kanal & gewinne AirPods Pro 3

BASIC thinking TECH-DEALS WhatsApp QR-Code

AGB gelten: bscthnkng.de/agbwa

Welcome Back!

Sign in to your account

Username or Email Address
Password

Lost your password?