3. Deepfakes

Deepfakes


"Deepfake": KI-generierte oder manipulierte Bild-, Audio- oder Videoinhalte, die existierenden Personen, Objekten, Orten, Einrichtungen oder Ereignissen ähneln und einer Person fälschlicherweise als authentisch oder wahrheitsgemäß erscheinen würden.

Artikel 3: Definitionen | EU-Gesetz über künstliche Intelligenz


Generative KI-Technologien entwickeln sich in rasantem Tempo weiter, und Deepfakes werden immer überzeugender und schwerer von echten Inhalten zu unterscheiden. Deepfakes können ein mächtiges Werkzeug sein. Sie könnten beispielsweise genutzt werden, um individuelle Avatare von ÄrztInnen oder Lehrkräften zu erstellen, die für Zuschauende ansprechender sind, oder um Teilnehmende von videobasierten Gruppentherapien zu anonymisieren.

Nichtsdestotrotz können Deepfakes vielfältige Risiken für Bürgerinnen und Bürger darstellen, wie zum Beispiel Erpressung, Einschüchterung, Sabotage, Belästigung, Verleumdung, "Rachepornos" (revenge porn), Identitätsdiebstahl und Mobbing.

Beispielsweise wurde ein Text-zu-Sprache-Generator missbraucht, um die Stimmen von Prominenten zu erstellen, die rassistische Kommentare über Alexandria Ocasio-Cortez (die US-Abgeordnete) äußerten. Darüber hinaus wurden KI-Systeme genutzt, um Menschen "auszuziehen" und pornografische Bilder ohne deren Einwilligung zu erstellen. Deepfake-Anwendungen wie DeepFaceLive oder DeepFaceLab können verwendet werden, um das Gesicht einer nicht einwilligenden Person in pornografische Videos einzufügen. Diese Deepfake-Technologien wurden eingesetzt, um massenhaften Online-Missbrauch und Belästigung zu erleichtern und illegale Online-Pornografiegeschäfte zu betreiben. 

Sehen Sie unten einige Beispiele berühmter Deepfake-Fälle (Falls Sie mehr darüber lesen möchten, klicken Sie auf das Bild des Artikels):

Darüber hinaus werden Deepfakes oft als eine besonders gefährliche Form von Fehlinformation und Manipulation betrachtet. Beispielsweise könnten Deepfakes in der Politik negative Auswirkungen auf Wahlergebnisse haben. Frühere Studien zeigen, dass wahlbezogene Deepfakes darauf abzielen, Manipulation und Polarisierung zu verstärken, den gegenseitigen Respekt zu verringern und das Vertrauen der Bürgerinnen und Bürger sowie anderer politischer Akteure in die Fairness und Integrität von Wahlen zu untergraben.

Neben Deepfakes gibt es auch Softfakes – künstliche und nicht-realistische Bilder, Videos oder Audiodateien, die von KI-Algorithmen erstellt und bearbeitet werden, um einen politischen Kandidaten oder Kandidatin attraktiver erscheinen zu lassen. Während Deepfakes häufig mit böswilligen Akteuren in Verbindung gebracht werden, werden Softfakes oft von den Wahlkampfteams der Kandidaten oder Kandidatinnen selbst erstellt. 

Daher empfehlen Fachleute, Wahlstandards für generative KI-Modelle einzuführen, die festlegen, wann, wie und wo Kandidaten oder Kandidatinnen KI-generierte Inhalte nutzen dürfen.

Für weiterführende Informationen über Deepfakes und Softfakes im Kontext von Wahlen empfehlen wir die folgenden Artikel:

Sehen Sie unten einige Beispiele berühmter Deepfake-Fälle im politischen Kontext (Falls Sie mehr lesen möchten, klicken Sie auf das Bild des Artikels):

!    
Was sind Ihre Hauptbedenken in Bezug auf Deepfakes? Was ist Ihre Meinung zur Verwendung von Deepfakes und Softfakes in Wahlkampagnen? Sollten Regeln dafür aufgestellt werden? Wenn ja, welche Regeln?
Schreiben Sie Ihre Antworten in einer neuen Taskcard unten.