Was sind Deep Fakes? | Bundesregierung (2024)

Herr Kleemann, was sind Deep Fakes?

Aldo Kleemann: Deep Fakes sind täuschend echt wirkende, jedoch künstlich erstellte oder veränderte Foto-, Video- oder Sprachaufzeichnungen. Dabei kann es sich um einzelne Bilder von realen oder gänzlich neu erschaffenen Personen handeln. Stimmen können imitiert oder neu erschaffen werden. Es können aber auch vorhandene Reden abgeändert und den Sprecherinnen und Sprechern Worte lippensynchron in den Mund gelegt werden.

Der Begriff Deep Fake leitet sich aus dem Erstellungsprozess ab. In einem „Generative Adversarial Network“ (GAN) werden zwei neuronale Netzwerke kombiniert und anhand vorhandener Bild-, Video- oder Sprachaufzeichnungen trainiert. Das anschließende „deep learning“ der neuronalen Netze ist so tiefgehend und die Ergebnisse sind so realistisch, dass der heute umgangssprachliche Begriff Deep Fake auf diesen Prozess zurückgeht.

Aldo Kleemann ist Oberstleutnant i.G. Er studierte von 2008 bis 2012 Politikwissenschaften mit dem Schwerpunkt auf internationalen Beziehungen an der Universität der Bundeswehr in Hamburg. Seit 2022 ist er als militärischer Berater und Gastwissenschaftler in der SWP tätig. In der Ausgabe SWP-Aktuell Nr. 43 der Stiftung Wissenschaft und Politik (SWP) finden Sie seinen Beitrag „Deepfakes – Wenn wir unseren Augen und Ohren nicht mehr trauen können“.

Wie können Deep Fakes erstellt werden?

Kleemann: ImGAN findet ein Wechselspiel zwischen zwei Komponenten statt. Während der gestaltende Teil (Generator) fiktive Bilder oder Stimmen erzeugt, übernimmt der andere Teil (Diskriminator) deren Bewertung hinsichtlich der Echtheit des gegebenen Trainingsdatensatzes. Ziel ist es, dass der Generator Medien produziert, die möglichst nicht vom Trainingsdatensatz zu unterscheiden sind. Man kann ein solchesGAN also ganz allgemein auf die Erstellung von beispielsweise Porträtfotos anlernen oder aber für ein bestimmtes Gesicht oder eine bestimmte Stimme trainieren.

Kann jede und jeder Deep Fakes erstellen?

Kleemann: Ja das kann jede und jeder, für einfache Täuschungen reichen handelsübliche Apps. Benutzerinnen und Benutzer brauchen keine Vor- oder gar Programmierkenntnisse. Sofern man mit dem Deep Fake eine bestimmte Person imitieren will, braucht es entsprechende Trainingsdaten für die App. Man braucht also Bilder und/oder Audiodateien der jeweiligen Person. Will man sich aber nur ein Foto erschaffen, möglicherweise, um einen falschen Account in Sozialen Medien anzulegen, könnte man einen Text-Bild-Generator nutzen. Für deren Nutzung braucht es nur die Beschreibung des Bildes.

Woran können Deep Fakes erkannt werden? Geht das überhaupt?

Kleemann: Viele ältere Deep Fakes weisen typische Bildfehler oder blecherne Stimmen auf. Auch aktuelle Deepfakes sind nicht immer perfekt. Beispielsweise betrifft das bei den Text-Bild-Generatoren häufig die Darstellung der Hände, die Zahl und Form der Finger passt dort regelmäßig nicht. Dies ist jedoch nur eine Momentaufnahme, die Technologie entwickelt sich rasend schnell weiter und daher können wir nicht davon ausgehen, dass wir Deep Fakes auch in der nahen Zukunft noch mit dem bloßen Auge erkennen können.

Hinzu kommen die unzähligen Variationsmöglichkeiten beim Einsatz von Deep Fakes, also was genau verändert wurde, welche Sie für ein derartiges „Erkennen“ im Blick haben müssen. Mitunter ist es nur der Gesichtsausdruck einer Person, welchen sie leicht verändern müssen, etwa ein Lächeln im unpassenden Moment. Möglicherweise wurde eine ganze Rede erschaffen oder aber nur einzelne Aussagen verändert, manchmal reicht es einzelne Worte zu entfernen oder hinzuzufügen. Darüber hinaus ist relevant auf welchem Medium die Zielgruppe den Deep Fake betrachtet: Ein hochauflösendes Display? Boxen in Tonstudioqualität, die kleinste Unstimmigkeiten in der Stimme hörbar machen? Oder wird der Fake auf einem Handy betrachtet? Möglicherweise wurde der Deep Fake gar zunächst auf einem Fernseher gezeigt, mit einem Handy abgefilmt und dann verbreitet. Auch ein Faktor ist, wie viel Zeit die Zielgruppe zur Betrachtung hat. Die Möglichkeiten sind grenzenlos, von daher sollten wir nicht davon ausgehen, dass wir Deep Fakes heute und in Zukunft allein mit unseren Augen und Ohren problemlos erkennen können.

Wozu werden Deep Fakes produziert?

Kleemann: Deep Fakes lassen sich schnell, kostengünstig, massenhaft und sehr einfach erstellen. Mit Deep Fakes können zum Narrativ schnell und einfach passende Ton-, Bild- und Videoaufzeichnungen erstellt werden. Die menschliche Neigung, emotional auf diese Medien zu reagieren, eröffnet deren Produzentinnen und Produzenten eine völlig neue Dimension des Missbrauchs. Zu den allgemeinen missbräuchlichen Anwendungen zählen daher Betrug, Diffamierung, Erpressung und eben Desinformation.

Welchen Zusammenhang gibt es zwischen Deep Fakes und Desinformation?

Kleemann: Täuschung und Medienmanipulation sind an sich keine neuen Phänomene. Deep Fakes verändern Desinformationskampagnen allerdings in drei wesentliche Faktoren:

  • Quantität – marktverfügbare Apps ermöglichen eine massenhafte, schnelle und kostengünstige Anfertigung von Deep Fakes. Das erlaubt es neben Staaten auch ressourcenarmen Gruppierungen und Individuen, eigene Desinformationskampagnen im großen Maßstab durchzuführen.
  • Qualität – Deep Fakes werden qualitativ immer besser und wirken natürlicher, wodurch sie schwerer zu erkennen sind und an Glaubwürdigkeit und Überzeugungskraft gewinnen.
  • Qualifikation – Während die Erstellung von Deep Fakes nahezu keinerlei Qualifikation voraussetzt, wird die zu ihrer Erkennung erforderliche Expertise immer umfangreicher.

Diese Entwicklungen haben das Potential, die Reichweite und Wirksamkeit von Desinformation im 21. Jahrhundert signifikant zu erhöhen.

Gibt es Möglichkeiten, Deep Fakes zu begrenzen? Stichwort: Regulierung und Kennzeichnung von KI?

Kleemann: Ein „silver bullet“ also eine universell wirksame Wunderwaffe wird es nicht geben. Ein Verbot ist abwegig, denn die dahinterstehende Technologie ist ein klassischer Fall einer Dual-Use Technologie. Sie lässt sich in der Medizin, zur Medikamentenentwicklung oder zur Verbesserung der Bildauswertung anwenden oder in der Bildung um beispielsweise Geschichte erlebbarer zu machen.

Wir werden daher lernen müssen, mit Deep Fakes zu leben und können deren negative Wirkung nur bedingt begrenzen. Dazu bedarf es einer Mischung von präventiven und reaktiven Ansätzen: Eindämmen – Erkennen – Reagieren ist hier der Dreiklang. Dazu zählen eine softwareseitige Kennzeichnungspflicht für Deep Fakes, die Stärkung vertrauenswürdiger Inhalte durch das Hinzufügen fälschungssicherer Verlaufs- und Identitätsinformationen zu digitalen Daten, die Stärkung von Medienkompetenz und die Entwicklung eigener Aufklärungsansätze unter Verwendung von KI.

Umgang bedeutet aber auch, dass wir uns auf Deep Fakes einstellen und Mittel und Wege finden, deren Wirkung zu begrenzen: hierzu gehört ein Mediamonitoring sowie die kontinuierliche Beschäftigung mit Deep Fakes, um zu verstehen, wie sie in Desinformationskampagnen eingebunden werden. Es braucht den Austausch national und mit unseren internationalen Partnerinnen und Partnern. Und schlussendlich müssen wir Reaktionsstrategien vorhalten, die vor allem auf Schnelligkeit ausgerichtet sind. Denn in einer Zeit, in der die Verbreitung von Informationen nicht mehr in Tagen, sondern in Minuten gemessen wird, bedarf es der Fähigkeit zur raschen Erkennung und schnellen Antwort auf einen Deep Fake.

Schauen wir mal in die Zukunft: In welche Richtung entwickeln sich Deep Fakes?

Kleemann: Deep Fakes werden kontinuierlich besser und wir werden ohne Hilfsmittel immer weniger in der Lage sein, zwischen Realität und Fälschung zu unterscheiden.

Dieses Interview wurde schriftlich geführt.

Künstliche Intelligenz kann Fotos und Videos von Szenen erzeugen, die so gar nicht stattgefunden haben. Wie soll man da noch durchblicken? In dem Beitrag „

Deepfakes erkennen

“ von fluter Magazin sind Tipps für den Echtheits-Check zu finden.

Informationen zu Nachrichten im digitalen Zeitalter finden sich auch im Handbuch „

Fake News, Framing, Fact Checking

“ der Bundeszentrale für politische Bildung.

Was sind Deep Fakes? | Bundesregierung (2024)

FAQs

Why should we care about deep fakes? ›

Privacy Concerns

Deepfakes can be used for harmful purposes, such as creating fake content featuring individuals without their consent. A notable example of this is the actors' strike in 2023, where actors protested using AI and deepfakes to use their likeness without their consent.

Are deepfakes good or bad? ›

A “deepfake” is fabricated hyper-realistic digital media, including video, image, and audio content. Not only has this technology created confusion, skepticism, and the spread of misinformation, deepfakes also pose a threat to privacy and security.

What is the science behind deep fakes? ›

While the act of creating fake content is not new, deepfakes leverage tools and techniques from machine learning and artificial intelligence, including facial recognition algorithms and artificial neural networks such as variational autoencoders (VAEs) and generative adversarial networks (GANs).

What is an example of deep fake? ›

One benign example is a video that appears to show soccer star David Beckham fluently speaking nine different languages, when he actually only speaks one. Another fake shows Richard Nixon giving the speech he prepared in the event that the Apollo 11 mission failed and the astronauts didn't survive.

What are the benefits of deep fakes? ›

Individuals can gain autonomy and expand their purpose, ideas, and beliefs by using a personal digital avatar. Synthetic avatars of people with physical or mental disabilities will help express themselves online. Deepfakes can give individuals new tools for self-expression and integration in the digital world.

How do deepfakes affect society? ›

Social impact

Deepfake videos can also manipulate public opinion and erode trust in media and public sources. The ability to fabricate realistic videos of public figures, politicians, or celebrities saying or doing things they never actually did can have far-reaching consequences for society and democratic processes.

Should deepfakes be legal? ›

So, how are deep fakes legal? In many cases, they're not. In some cases, a deep fake might be considered a form of protected speech, where an accused person claims First Amendment protection. This might be a valid defense if the deep fake was created for commentary, satire, or parody.

How do deepfakes affect privacy? ›

Deepfakes represent a significant threat to personal privacy as they can be manipulated for personal and financial gain. With the ability to convincingly alter digital media to depict individuals saying or doing things they never did; malicious actors can exploit deepfakes for various purposes.

Is deepfakes banned? ›

Laws Against Child Sexual Abuse Material (CSAM)

The use of facial manipulation of deepfakes to create or distribute child sexual abuse material is unequivocally illegal and falls under strict CSAM laws. These laws are clear and provide a firm legal basis for prosecuting such offenses.

How can deep fakes be used for good? ›

In healthcare, generative AI aids in medical research and patient care. In art and history, deepfakes enable immersive experiences, bringing historical figures and events to life. Lastly, in media and entertainment, they offer personalized content and innovative marketing strategies.

Can deepfakes be detected? ›

NPR identified three deepfake audio detection providers — Pindrop Security, AI or Not and AI Voice Detector. Most claim their tools are over 90% accurate at differentiating between real audio and AI-generated audio. Pindrop only works with businesses, while the others are available for individuals to use.

Who created deep fakes? ›

The term came to be used for synthetic media in 2017 when a Reddit moderator created a subreddit called “deepfakes” and began posting videos that used face-swapping technology to insert celebrities' likenesses into existing p*rnographic videos.

Why are deepfakes bad? ›

The real danger of deepfakes is how convincing they've become. Anyone can use deepfake tools to create fake videos or images that spread misinformation and propaganda, harass and intimidate others, commit identity theft and fraud, and ultimately ruin people's lives.

What is the dark side of deep fake? ›

By enabling the creation of convincing yet fraudulent content, Deepfake technology has the potential to undermine trust, propagate misinformation, and facilitate cybercrimes with profound societal consequences.

Who are the famous victims of deepfakes? ›

Several celebrity personalities who have recently fallen victim to deepfakes include Taylor Swift, Bobbi Althoff, Nigella Lawson, Oprah Winfrey, and Piers Morgan.

Why is AI hurting society? ›

If AI algorithms are biased or used in a malicious manner — such as in the form of deliberate disinformation campaigns or autonomous lethal weapons — they could cause significant harm toward humans. Though as of right now, it is unknown whether AI is capable of causing human extinction.

Should we be scared of deepfakes? ›

Cybersecurity experts say deepfake technology has advanced to the point where it can be used in real time, enabling fraudsters to replicate someone's voice, image and movements in a call or virtual meeting. The technology is also widely available and relatively easy to use, they say.

What are the privacy concerns of deepfakes? ›

Deepfakes represent a significant threat to personal privacy as they can be manipulated for personal and financial gain. With the ability to convincingly alter digital media to depict individuals saying or doing things they never did; malicious actors can exploit deepfakes for various purposes.

Can humans detect deep fakes? ›

The sound samples were played for 529 participants to see whether they could detect the real sample from fake speech. The participants were able to identify fake speech only 73% of the time. This number improved slightly after participants received training to recognise aspects of deepfake speech.

References

Top Articles
Latest Posts
Article information

Author: Ray Christiansen

Last Updated:

Views: 6433

Rating: 4.9 / 5 (49 voted)

Reviews: 88% of readers found this page helpful

Author information

Name: Ray Christiansen

Birthday: 1998-05-04

Address: Apt. 814 34339 Sauer Islands, Hirtheville, GA 02446-8771

Phone: +337636892828

Job: Lead Hospitality Designer

Hobby: Urban exploration, Tai chi, Lockpicking, Fashion, Gunsmithing, Pottery, Geocaching

Introduction: My name is Ray Christiansen, I am a fair, good, cute, gentle, vast, glamorous, excited person who loves writing and wants to share my knowledge and understanding with you.