Deepfake-Expertin

„Es wird viele Fälle geben, in denen die Identität von Menschen gekapert wird“

Nina Schick warnt vor sogenannten Deepfakes, gefälschten Videos: „Man wird die Identität von Menschen kapern“ (Symbolbild).

Nina Schick warnt vor sogenannten Deepfakes, gefälschten Videos: „Man wird die Identität von Menschen kapern“ (Symbolbild).

Die Manipulation von Medien ist eines der größten Probleme der digitalen Welt. Denn die sogenannten Deepfakes sind so geschickt gefälschte Videoclips und Texte, dass sie häufig als authentisch durchgehen. Hinter den Fälschungen stecken häufig kriminelle Machenschaften. Nina Schick ist Expertin für Deepfakes und synthetische Medien, Cybersicherheit und Geopolitik der Technologie. Im Interview mit dem RND gibt die Politikberaterin Einblicke in die Welt der Deepfakes.

Weiterlesen nach der Anzeige
Weiterlesen nach der Anzeige

Frau Schick, was sind Deepfakes?

Deepfakes sind im Grunde künstliche Medien, die entweder vollständig von künstlicher Intelligenz (KI) erstellt oder durch sie manipuliert wurden. Das kann ein Video sein, aber auch ein Text, ein Bild oder eine Audiodatei. Die Fähigkeit von KI, diese Medien zu schaffen und zu editieren, ist wirklich erstaunlich. Sie kann zum Beispiel nicht nur Medien von Menschen erschaffen, die es gar nicht gibt, sondern auch von Menschen, die existieren.

Und ihnen dann Dinge in den Mund legen, die sie nie gesagt haben?

Weiterlesen nach der Anzeige
Weiterlesen nach der Anzeige

Ja, alles, was man dafür braucht, sind die richtigen Trainingsdaten – also Fotos, Videos oder Audioaufnahmen. Etwas Vergleichbares gab es in der Medien­geschichte bisher nicht. Vor einigen Jahren wären solche Effekte nur für ein Hollywood­studio mit einem Milliarden-Dollar-Budget möglich gewesen. Heute wird die Technologie demokratisiert und kann von jedem mit einem Smartphone genutzt werden.

Wie überzeugend sind Deepfakes?

Hypothetisch so überzeugend, dass niemand sagen kann, ob es sich um eine Fälschung handelt. Derzeit ist allerdings, wenn man wirklich ein hyperrealistisches Fake erschaffen möchte, die Eintrittshürde höher als häufig berichtet. Die sehr überzeugenden Deepfake-Videos wurden von Profis gemacht. Sie und ich könnten das nicht – noch nicht. Denn das ist nur eine Frage der Zeit. Und schon jetzt gibt es einen boomenden Markt für Apps, Plattformen oder andere Interfaces, mit denen man künstliche Medien erstellen kann. Wenn Sie also heute ein hyperrealistisches Deepfake erstellen wollten, könnten Sie eines dieser Angebote nutzen oder jemanden mit der Erstellung beauftragen.

Wie allgegenwärtig sind Deep Fakes derzeit schon?

Ich würde da zwischen bösartigen und gutartigen Anwendungen unterscheiden. Im Falle von Letzteren gab es in den vergangenen zwölf Monaten eine regelrechte Explosion von Inhalten. Ein Beispiel ist die App Reface, mit der man etwa das eigene Gesicht in Filme wie „Titanic“ einfügen kann. Ich habe keine Zweifel, dass die Zukunft der Medien künstlich ist.

Weiterlesen nach der Anzeige
Weiterlesen nach der Anzeige

Bei den bösartigen Anwendungen handelt es sich zum allergrößten Teil um nicht einvernehmliche Pornografie, die sich zu 99 Prozent gegen Frauen richtet. Zunehmend sind davon auch nicht nur Prominente betroffen, sondern auch ganz normale Frauen, einschließlich – was sehr alarmierend ist – Minderjährigen. Ich würde sagen, es gibt Hunderttausende nicht einvernehmliche gefakte Pornovideos und ‑fotos.

Wieso werden Deepfakes bisher vor allem auf diese Weise genutzt – und nicht für andere Formen von Cyberkriminalität?

Die Pornografie ist in diesem Fall der Wegweiser – genauso wie in den Anfangszeiten des Internets. Damals gab es die Ansicht, das Internet sei ein Ort für Weirdos und werde niemals etwas für Menschen wie uns. Aber für mich ist das nur ein Zeichen dafür, dass Deepfakes kein Frauenthema bleiben werden. Es wird viele, viele weitere Fälle geben, in denen die Identität von Menschen und ihr digitales Abbild ohne ihre Zustimmung und Wissen gekapert werden. Das zeichnet sich schon ab. Das FBI hat im Frühjahr gewarnt, dass dies die nächste Cybercrime-Bedrohung für Unternehmen sein wird. Schon jetzt gibt es vereinzelte Fälle, bei denen Führungskräfte von Fälschungen getäuscht und um Geld gebracht wurden.

Gibt es schon ein ausreichendes Bewusstsein für diese Gefahren?

Das Bewusstsein ist da, ja. Aber wenn es um die Lösungen geht, um die Frage, was die Strafverfolgungsbehörden, die Regierungen oder die Gesellschaft tun, ist alles Stückwerk. Nehmen Sie das Beispiel Pornografie: Kein Nationalstaat hat eine Gesetzgebung, die dieses Problem angeht. Wenn Sie das Opfer von Deepfake-Pornografie werden, kann man aus rechtlicher Sicht nicht viel tun.

Weiterlesen nach der Anzeige
Weiterlesen nach der Anzeige
Nina Schick ist unabhängige politische Kommentatorin und Beraterin, die sich hauptsächlich mit EU-Politik und der Frage beschäftigt, wie im 21. Jahrhundert Politik und Technologie zusammenspielen. Sie ist Expertin für Deepfakes und synthetische Medien, Cybersicherheit und Geopolitik der Technologie. Schick hat im Laufe ihrer Karriere Emmanuel Macron und Joe Biden beraten, beim Brexit-Referendum mitgewirkt und die Aufarbeitung der russischen Einflussnahme auf die Präsidentschafts­wahl in den USA begleitet.

Nina Schick ist unabhängige politische Kommentatorin und Beraterin, die sich hauptsächlich mit EU-Politik und der Frage beschäftigt, wie im 21. Jahrhundert Politik und Technologie zusammenspielen. Sie ist Expertin für Deepfakes und synthetische Medien, Cybersicherheit und Geopolitik der Technologie. Schick hat im Laufe ihrer Karriere Emmanuel Macron und Joe Biden beraten, beim Brexit-Referendum mitgewirkt und die Aufarbeitung der russischen Einflussnahme auf die Präsidentschafts­wahl in den USA begleitet.

Man kann sich also nicht schützen?

Ich will nicht übermäßig pessimistisch sein, aber die Wahrheit ist: Wenn jemand sich dazu entschließen würde, heute ein Fake-Porn-Video von mir zu machen, könnte ich ihn nicht davon abhalten.

Welche Folgen werden Deepfakes für das allgemeine Vertrauen in Medien haben?

Wenn mehr Menschen wissen, dass künstliche Medien existieren, sind sie einerseits davor gewarnt. Sie sind dann vielleicht vorsichtiger, was sie teilen und konsumieren. Das Ironische jedoch ist: Andererseits macht es sie auch gegenüber authentischen Medien misstrauischer. Doch wenn wir keinen Weg finden, das Vertrauen in digitale Inhalte sicherzustellen, dann hat das nicht nur Auswirkungen auf Politik und Gesellschaft, sondern auch beispielsweise auf den Handel – die ganze Zukunft der menschlichen Gesellschaft.

Für soziale Bewegungen wie Black Lives Matter war das Video, das den Mord an George Floyd zeigt, extrem wichtig. Welche Folgen hat ein Vertrauensverlust in diesem Kontext?

Weiterlesen nach der Anzeige
Weiterlesen nach der Anzeige

Schon im Fall des George-Floyd-Videos gab es Versuche, die Echtheit des Videos anzuzweifeln. Eine Bewerberin für den US-Kongress behauptete, dass das Video eigentlich einen anderen Mann zeige und man Technologien verwendet habe, um Floyds Gesicht einzufügen. Der Erfolg ihrer Kampagne war begrenzt. Wenn wir uns aber in einer demokratischen Gesellschaft nicht darauf einigen können, dass das Video, das zeigt, wie George Floyd von dem Polizisten Derek Chauvin getötet wird, real ist – wie sollen wir dann einen Diskurs führen, um voranzukommen, einen Konsens zu erreichen?

Gibt es eine technische Möglichkeit zu beweisen, ob ein Video mittels KI gefälscht oder erstellt wurde?

Wenn Deepfakes allgegenwärtig sind, kann das kein Mensch mehr leisten. Nicht nur, weil sie sehr bald viel zu gut sein werden, sondern auch, weil es viel zu viele sein werden. Eine Möglichkeit ist dann, eine andere KI zu trainieren, die in der DNA eines Medieninhalts nach Hinweisen sucht, ob etwas Fake ist. Aber das wird immer ein Katz-und-Maus-Spiel sein: Jedes Mal wenn es einem Modell gelingt, bestimmte Fälschungen zu erkennen, wird es auch eine Möglichkeit geben, es zu schlagen. Und vielleicht gibt es auch irgendwann Fälschungen, die so gut sind, dass es unmöglich ist, sie zu erkennen.

Und dann sind wir ihnen einfach ausgeliefert?

Ein langfristig interessanter Vorschlag in Bezug auf technische Lösungen ist, die Idee einer Medienherkunft und ‑authentifizierung. Anstelle also zu versuchen, die Fakes zu entdecken, authentifiziert man die realen Medien – etwa mittels kryptografisch gesicherter Metadaten. Sodass man immer nachvollziehen kann, woher etwa ein Video kommt, wo es aufgenommen wurde, ob es editiert wurde. Im Idealfall entwickelt sich hierzu ein internationaler Standard, den alle übernehmen.

Weiterlesen nach der Anzeige
Weiterlesen nach der Anzeige

Eine Gefahr, vor dem im Zusammenhang mit Deepfakes oft gewarnt wird, ist, dass Staaten wie China oder Russland sie zu politischen Zwecken einsetzen könnten – etwa für Desinformations­kampagnen vor Wahlen.

Ja, aber interessanterweise haben wir das bisher noch nicht gesehen. Der Grund dafür ist unter anderem, dass es einfach zu offensichtlich wäre, wenn etwa Wladimir Putin kurz vor der Wahl ein Deepfake von Joe Biden veröffentlicht hätte. Das bedeutet nicht, dass es nicht passieren wird. Wir wissen, dass China, Russland, aber auch das US-Militär in die Technologien investieren. Jedoch sind derzeit die sogenannten Cheap Fakes, wie etwa Videos, die aus dem Kontext gerissen werden, schon sehr effektiv. Diese manipulierten Medien, die nichts mit KI zu tun haben, haben in allen Teilen der Welt verheerende Auswirkungen. Sie sind momentan auch noch viel zugänglicher. Aber der Wendepunkt wird kommen und dann wird man auch im politischen Kontext mehr Deepfakes sehen – und nicht nur bei Wahlen. Das FBI warnt davor, dass Staaten wie China und Russland die Technologie auch zur Unternehmens­spionage oder zum Diebstahl von Staatsgeheimnissen einsetzen könnten.

Mehr aus Digital

 
 
 
 
 
Anzeige
Anzeige
Empfohlener redaktioneller Inhalt

An dieser Stelle finden Sie einen externen Inhalt von Outbrain UK Ltd, der den Artikel ergänzt. Sie können ihn sich mit einem Klick anzeigen lassen.

 

Ich bin damit einverstanden, dass mir externe Inhalte angezeigt werden. Damit können personenbezogene Daten an Drittplattformen übermittelt werden. Mehr dazu in unseren Datenschutzhinweisen.

Letzte Meldungen

 
 
 
 
 
 
 
 
 

Spiele entdecken