Die Gefahren von Deepfakes

Die Deepfake-Technologie macht’s möglich: Schnell mal ein Video erstellen, in dem ein Gesicht durch ein anderes ersetzt wird, ist für viele ein lustiger Zeitvertreib. Doch der Fortschritt der Technik und des Web Developments macht solche Video-Fälschungen zum beliebten Werkzeug für Betrug und Manipulation.

Die Glaubwürdigkeit von Videos ist ziemlich hoch, deshalb werden Deepfakes häufig zur Verbreitung von Fake News eingesetzt. Über das Internet und Social Media lässt sich die öffentliche Meinung innerhalb kürzester Zeit beeinflussen. Doch Deepfakes bergen noch weitere Gefahren.

Was versteht man unter Deepfake?

Unter Deepfakes versteht man überwiegend Fotos oder Videos, in denen Gesichter mittels Künstlicher Intelligenz (KI) digital ausgetauscht wurden. Das können jedoch auch Audiodateien sein, in denen eine bestimmte Stimme Texte spricht, die die betroffene Person nie so gesagt hat. Der Begriff setzt sich aus „Deep Learning“ und „Fake“ zusammen. Deep Learning bezeichnet dabei die Methode des maschinellen Lernens von Mimik, Bewegung und Stimme. Im Jahr 2017 veröffentlichte der Reddit-Nutzer namens „deepfakes“ erstmals Pornos mit den Gesichtern der Hollywood-Schauspielerinnen Scarlett Johansson, Emma Watson und Gal Gadot und fand seitdem viele Nachahmer.

Fotos können schon längst durch Bildbearbeitungsprogramme verändert und gefälscht werden. Durch die moderne Technologie ist dies inzwischen auch mit Bewegtbildern oder Stimmaufnahmen möglich. Hierfür gibt es verschiedene Verfahren:

Face Swapping

Ein Gesicht wird durch das einer anderen Person ersetzt, die Mimik des Vorbildes bleibt dabei erhalten.

Face Reenactment

Mimik und Kopfbewegungen einer Person werden digital manipuliert.

Text-to-Speech

Hier wird ein vorgegebener Text in ein Audio-Signal umgewandelt.

Voice-Conversion

Die Stimme eines gesprochenen Textes wird verändert, bis sie dem Vorbild gleicht.

Neue Identitäten

Künstliche Intelligenz ermöglicht sogar, völlig neue Identitäten zu schaffen, die es in der Realität gar nicht gibt.

Video- oder Audio-Originale dienen als Trainingsvorlage, um Mimik und Stimmcharakteristik zu übernehmen. Je höher die Qualität der Originaldaten, umso realitätsgetreuer wird die Fälschung. Durch die Face-Swap-Technologie ist es heutzutage sehr leicht, Gesichter durch andere zu ersetzen. Hierfür gibt es verschiedene Apps und Softwares, die auch ohne großes Technik-Know-how nutzbar sind.

Welche Gefahren gehen von Deepfakes aus?

Während Filmemacher oft ähnliche Technologien, die du während des Bachelor Filmmaking kennenlernst, verwenden, um vor dem Drehabschluss verstorbene Schauspieler/innen zu imitieren (zum Beispiel Paul Walker in Fast & Furious 7), werden Deepfakes meist nur zur Unterhaltung genutzt, um ein bisschen Spaß zu haben.

Da Deepfakes jedoch täuschend echt aussehen, besteht die Gefahr damit Fake News zu verbreiten oder anderen Personen zu schaden. Hier einige Beispiele für die Schattenseiten von Deepfakes:

Die Gesichter von Prominenten tauchen in Pornos auf, in denen sie natürlich nie persönlich mitgespielt haben. Die Gesichter der echten Darstellerinnen werden mittels Face-Swap durch die der Stars ersetzt.

Bekannten Politikern werden durch Deepfakes falsche Worte in den Mund gelegt, um Fake News zu erzeugen und die Menschen zu täuschen. So kann die Meinung einer großen Masse manipuliert und gezielt in eine Richtung gelenkt werden.

Gesichter werden auf fremde Körper in peinlichen Situationen gesetzt, um eine Person lächerlich zu machen und öffentlich bloßzustellen.

Außerdem können Deepfakes gezielt für Propaganda missbraucht werden. Gefakete Videos sollen den Menschen bewusst eine falsche Realität vortäuschen, was gerade im Bereich der Politik beim Fang nach Wählerstimmen eingesetzt wird.

Gut zu wissen

Eine weitere Gefahr betrifft den juristischen Bereich: Durch Deepfakes können Beweisfotos oder -videos manipuliert und somit völlig unschuldigen Personen Straftaten in die Schuhe geschoben werden.

Videobeweise

Durch Deepfakes werden Prominente oft als Testimonials für Werbung missbraucht. Ohne deren Wissen entstehen Werbeclips für fragwürdige Produkte, die durch den entsprechenden Promi aufgewertet werden sollen.

In Audio-Aufnahmen sind Dialoge zu hören, die niemals so stattgefunden haben, da mindestens eine der Personen gar nicht anwesend war.

Die Stimme wird bei betrügerischen Anrufen eingesetzt, um das Vertrauen einer Person zu erhalten und persönliche Informationen in Erfahrung zu bringen.

Fake-Anrufe

Deepfakes sind inzwischen derart realistisch, dass niemand die Täuschung auf Anhieb erkennt. Über das Internet und soziale Medien werden Bilder und Videos rasend schnell verbreitet. Deshalb ist der Schaden oft schon längst angerichtet, bevor die Betroffenen überhaupt mitkriegen, welche Fakes von ihnen im Netz kursieren.

Im Nachhinein ist es unglaublich schwer, den ruinierten Ruf wieder ins rechte Licht zu rücken und nachzuweisen, dass es sich um eine Manipulation handelt.

Wie kann man Deepfakes erkennen?

Bei der fortschrittlichen Technik ist es heutzutage äußerst schwierig, Deepfakes als solche zu entlarven. Es gibt jedoch einige Auffälligkeiten, nach denen Digital Forensiker bei einer Ermittlung suchen und die bei genauem Betrachten der Videodatei auf eine Fälschung hindeuten:

  • Sichtbare Übergänge: Wird ein Gesicht auf ein anderes gesetzt, sind in der Bewegung manchmal die Übergänge sichtbar. Beispielsweise tauchen plötzlich die Augenbrauen des Originals auf oder Haar- und Gesichtsfarbe sind am Kopfumriss erkennbar. Verdächtige Videos schaust du am besten auf einem großen Bildschirm an, denn auf dem kleinen Smartphone-Display ist die Darstellung zu undeutlich.
  • Verwaschene Konturen: Ein intensiver Blick ins Gesicht zeigt manchmal unscharfe Konturen der Augen oder Zähne. Der Blick der gefaketen Person wirkt starr.
  • Lippen-Synchronität: Stand der KI zu wenig Trainingsmaterial der Originalquelle zur Verfügung, bewegen sich die Lippen oft nicht synchron zum Gesagten.
  • Unstimmige Reaktionen: Passt die Mimik der gezeigten Person nicht zur Situation, scheint die Reaktion hölzern oder wirkt das ganze Verhalten irgendwie seltsam, könnte ein Deepfake dahinterstecken. Feinheiten wie das Runzeln der Stirn oder Blinzeln können von der Künstlichen Intelligenz noch nicht richtig umgesetzt werden.
  • Belichtung: Verräterisch kann die Belichtung sein. Passen Licht und Schatten der Umgebung nicht zur Belichtung des Gesichtes, stimmt etwas nicht.

Folgende Merkmale einer Audiodatei sollten dich ebenfalls stutzig machen, ob es sich hierbei vielleicht um ein Deepfake handelt:

  • Falsche Betonung: Wörter werden falsch betont oder klingen im Satz abgehackt.
  • Metallischer Klang: Die Stimme klingt irgendwie unnatürlich und metallisch.
  • Verzögerung: Während eine echte Person am Telefon direkt reagiert und antwortet, dir vielleicht sogar ins Wort fällt, lässt die Antwort einer synthetisch erzeugten Stimme auf sich warten.

Ist Deepfake legal?

Da Deepfakes ein noch recht neues Phänomen sind, ist die Rechtslage oft nicht ganz eindeutig. Je nachdem, welchen Zweck die Deepfakes verfolgen, kann es sich dabei um eine Straftat handeln. Völlig harmlos und legal sind Spielereien mit dem eigenen Gesicht oder das Erstellen von lustigen Videos im Freundeskreis, – sofern alle Beteiligten damit einverstanden sind.

Werden jedoch Fake News verbreitet oder Deepfakes erstellt, um einer anderen Person zu schaden, hat der Spaß ein Ende und kann zur Anzeige gebracht werden. Werden Videos oder Bilder ohne die Einwilligung der anderen Person erstellt, fällt das unter die Verletzung des Persönlichkeitsrechts und ist ebenfalls strafbar.

Kostenlose Infobroschüre anfordern
Infos auch per Post?

[SALUTATION] [NAME],

wir freuen uns über dein Interesse an der Hochschule Macromedia. Das gewünschte Infomaterial findest du in Kürze in deinem E-Mail-Postfach.Das gewünschte Infomaterial findest du in Kürze sowohl in deinem E-Mail-Postfach als auch in deinem Briefkasten.

Nicht vergessen: Wenn du auch weiterhin Informationen über unsere Hochschule erhalten möchtest, denke daran, den Link in unserer E-Mail zu bestätigen.

Noch Fragen?
Unsere Studienberatung ist dir gerne behilflich:
+49 (0)800 622 766 3345
Mo – Fr, 09:00 – 17:00 Uhr


Broschüre Bachelor Studienangebot Hochschule Macromedia
ab 17:00 Uhr
Bachelor Infoabend

Du interessierst dich für Medien, Kommunikation und Management, Mode, Schauspiel, Film, Games oder Design? Bei unserem Infoabend erfährst du alles über die Bachelorstudiengänge und -richtungen an der Hochschule Macromedia.

Natürlich ist auch genügend Raum für alle deine Fragen, zum Beispiel bezüglich

  • des Auslands- und Praxissemester
  • der Studiengebühren
  • Finanzierungsmöglichkeiten
  • uvm.
00
Tage
00
Stn
00
Min
00
Sek
Jetzt anmelden!