3. Deepfakes

"AI Act" und Deepfakes


In Modul 07 haben wir über den AI Act der Europäischen Union und die Transparenzverpflichtungen für Hochrisiko-KI-Systeme gesprochen.

Der AI Act der Europäischen Union legt außerdem Transparenzverpflichtungen für Anbietende und Nutzende generativer KI-Systeme fest, um das Problem schädlicher Deepfakes anzugehen (Artikel 50).

"Anbieter" oder "Anbieterin" ist eine natürliche oder juristische Person, Behörde, Einrichtung oder sonstige Stelle, die ein KI-System oder ein KI-Modell für allgemeine Zwecke entwickelt oder ein KI-System oder ein KI-Modell für allgemeine Zwecke entwickeln lässt und es unter ihrem eigenen Namen oder ihrer eigenen Marke in Verkehr bringt oder in Betrieb nimmt, unabhängig davon, ob dies entgeltlich oder unentgeltlich geschieht;
"Bereitsteller" oder "Bereitstellerin"  ist eine natürliche oder juristische Person, Behörde, Einrichtung oder sonstige Stelle, die ein KI-System unter ihrer Aufsicht einsetzt, es sei denn, das KI-System wird im Rahmen einer persönlichen, nicht beruflichen Tätigkeit verwendet.

Artikel 3: Definitionen | EU-Gesetz über künstliche Intelligenz



Die folgenden Transparenzverpflichtungen gelten für Anbietende und Bereitstellende generativer KI-Systeme:

Artikel 50 (2): 
Die Anbietenden von KI-Systemen, einschließlich KI-Systemen für allgemeine Zwecke, die synthetische Audio-, Bild-, Video- oder Textinhalte erzeugen, stellen sicher, dass die Ausgaben des KI-Systems in einem maschinenlesbaren Format gekennzeichnet sind und als künstlich erzeugt oder manipuliert erkannt werden können. Die Anbietenden stellen sicher, dass ihre technischen Lösungen wirksam, interoperabel, robust und zuverlässig sind, soweit dies technisch machbar ist, wobei die Besonderheiten und Beschränkungen der verschiedenen Arten von Inhalten, die Kosten der Implementierung und der allgemein anerkannte Stand der Technik, wie er in den einschlägigen technischen Normen zum Ausdruck kommen kann, zu berücksichtigen sind. Diese Verpflichtung gilt nicht, soweit die KI-Systeme eine Hilfsfunktion für die Standardredaktion erfüllen oder die vom Anwendenden bereitgestellten Eingabedaten oder deren Semantik nicht wesentlich verändern, oder soweit sie gesetzlich zur Aufdeckung, Verhütung, Untersuchung oder Verfolgung von Straftaten zugelassen sind. 

Artikel 50 (4):
Wer ein KI-System einsetzt, das Bild-, Audio- oder Videoinhalte erzeugt oder manipuliert, die einen Deepfake darstellen, muss offenlegen, dass die Inhalte künstlich erzeugt oder manipuliert wurden. Diese Verpflichtung gilt nicht, wenn die Verwendung zur Aufdeckung, Verhütung, Ermittlung oder Verfolgung von Straftaten gesetzlich zugelassen ist. Ist der Inhalt Teil eines offensichtlich künstlerischen, kreativen, satirischen, fiktionalen oder analogen Werks oder Programms, so beschränken sich die in diesem Absatz genannten Transparenzpflichten auf die Offenlegung des Vorhandenseins eines solchen künstlich erzeugten oder manipulierten Inhalts in einer angemessenen Weise, die die Darstellung oder den Genuss des Werks nicht beeinträchtigt.
Wer ein KI-System einsetzt, das Text generiert oder manipuliert, der zu dem Zweck veröffentlicht wird, die Öffentlichkeit über Angelegenheiten von öffentlichem Interesse zu informieren, muss offenlegen, dass der Text künstlich generiert oder manipuliert wurde. Diese Verpflichtung gilt nicht, wenn die Nutzung gesetzlich erlaubt ist, um Straftaten aufzudecken, zu verhindern, zu untersuchen oder strafrechtlich zu verfolgen, oder wenn die KI-generierten Inhalte einer menschlichen Überprüfung oder redaktionellen Kontrolle unterzogen wurden und eine natürliche oder juristische Person die redaktionelle Verantwortung für die Veröffentlichung der Inhalte trägt.
Hier können Sie den gesamten Artikel 50 lesen: https://artificialintelligenceact.eu/de/article/50/.


!     Stimmen Sie diesen Transparenzverpflichtungen zu? Welche weiteren Maßnahmen könnten Ihrer Meinung nach für KI-Anbietende und -Nutzende vorgeschrieben werden? Um die Diskussion zu vertiefen, empfehlen wir Ihnen den DW-Artikel zu lesen: https://www.dw.com/en/fighting-deepfakes-can-laws-be-good-weapons/a-69753383.
Schreiben Sie Ihre Antworten auf eine neue Taskcard.