Falsche Inhalte – echte Regeln.
Wer heute Inhalte aus dem Internet konsumiert, wird sehr schnell mit Deepfakes konfrontiert. Aber auch jenseits der digitalen Medien findet das Phänomen Deepfake in Printmedien oder am Telefon statt.
Häufig bemerkt der Rezipient nicht, dass das, was in den Bildern dargestellt wird, oder eine Stimme sagt, nicht echt ist und nicht dem real Geschehenen entspricht. Schließlich leben wir noch immer in der Vorstellung, dass Bilder – speziell Fotos und Videos – besonders glaubwürdig sind und die Wirklichkeit darstellen. Denn wenn etwas mittels dieser Medien abgebildet ist, muss es wohl auch so passiert sein. Ähnlich verhält es sich mit einer vertrauten Stimme am Telefon. Wenn mir die Stimme bekannt vorkommt, muss es sich doch auch um die mir bekannte Person handeln, die da mit mir spricht. Die Wissenschaft bezeichnet dies als mentale Repräsentation. Also umgangssprachlich eine eingefleischte, tiefsitzende Vorstellung, die unerschütterlich ist und das Denken stark prägt.
Und genau dies machen sich Deepfakes zu Nutze: sie nutzen das tief verankerte Vertrauen in Bilder, Videos und Stimmen aus und täuschen so eine Realität vor, die es nie gegeben hat. Deepfakes eröffnen damit völlig neue Möglichkeiten in einer Bandbreite von lustig oder satirisch über kritisch bis hin zu schäbig und rufschädigend.
Deepfakes einfach erklärt
„Deepfake“ ist ein Kofferwort, welches sich aus den Begriffen „deep learning“ und „fake“ zusammensetzt. Als „deep learning“ bezeichnet man das als Teilbereich der KI-Technologie zu Grunde liegende maschinelle Lernen, welches sich auf neuronale Netze und große Datenmengen fokussiert. Es analysiert Bilder, versteht Texte und kann Entscheidungen treffen. „Fake“ heißt wörtlich übersetzt „Fälschung“ und meint ein manipuliertes Ergebnis.
Mit „Deepfakes“ sind daher realistisch wirkende Medieninhalte (z.B. Bilder, Texte, Audio- oder Videoinhalte usw.) gemeint, die eine KI erzeugt, verfälscht oder manipuliert hat. Jedoch ist die Fälschung als solche nicht zu erkennen.
Es gibt verschiedene Varianten von Deepfakes. So kann man das Gesicht einer Person durch das einer anderen in einem Bild oder Video ersetzen („face swapping“), ebenso wie die Stimme dieser Person („voice swapping“) und außerdem kann man die für eine Person typischen Körperbewegungen in das Video übertragen („body-puppetry“). Anhand dieser Manipulationen wird die betreffende Person in anderen – politischen, historischen, gesellschaftlichen, kulturellen, wissenschaftlichen oder sexuellen Kontexten – dargestellt. Sie lassen sie Aussagen machen und Dinge tun, die die betreffende Person in Wahrheit nie gesagt oder ausgeführt hat.
Der Rezipient wird hierdurch getäuscht und in die Irre geführt. Bestenfalls zu Zwecken der Satire und Kunst. Schlimmstenfalls zur Desinformation der Allgemeinheit, Manipulation der Meinungsbildung, der Einflussnahme auf Wahlen, der Verunsicherung und Destabilisierung einer Gesellschaft, der Herabwürdigung einer Person oder zu Betrugszwecken.
Deepfakes in der Praxis: vom perfiden Experiment zum politischen Werkzeug
Die Geschichte der Deepfakes begann im Herbst 2017, als ein anonymer Nutzer unter dem Pseudonym „Deepfakes“ mehrere Pornovideos im Internet hochlud. In diesen wurden prominente Hollywood-Schauspieler abgebildet. Der Nutzer hatte zuvor Szenen aus Sexfilmen und Spielfilmen, an denen die Hollywood-Schauspieler mitgewirkt hatten, als Trainingsdaten für ein neuronales Netz verwendet. Die Veröffentlichung dieser Filme entwickelte eine Eigendynamik, bis es schließlich zur Sperrung vieler dieser Inhalte kam.
Kriegspropaganda mit KI
Im März 2022 kursierte im Internet ein Video, welches den ukrainischen Präsidenten Selenski zeigte. In diese erklärte angeblich er die Kapitulation der Ukraine im Krieg gegen Russland. Das Video wurde schnell als Fälschung enttarnt, auch weil Selenski selbst dazu Stellung bezog.
Kurz danach im Juni 2022 glaubte die damalige Bürgermeisterin von Berlin, Franziska Giffey, einen Video-Call mit ihrem Amtskollegen Vitali Klitschko, dem Bürgermeister von Kiew, zu führen. Als das Gespräch sich in eine merkwürdige Richtung bewegte, ließ Giffey beim ukrainischen Botschafter in Kiew nachfragen. Dieser bestätigte, dass es nicht Vitali Klitschko war, mit dem sie gesprochen hatte.
Derartige Aktionen unbekannter Urheber belegen eine – inzwischen längst selbstverständlich gewordene – Subebene der Kriegsführung. Mittels derer soll die Öffentlichkeit verwirrt, zur Panik verleitet und ihr Vertrauen in die Politik untergraben werden.
Gaza-Krieg: wenn Realität und Fiktion kaum noch zu unterscheiden sind
Im Herbst 2023 veröffentlichten verschiedene Bildagenturen KI-generierte oder zumindest -manipulierte, fotorealistische Bilder, die Szenen aus dem Gaza-Krieg zeigen sollten. Zwar waren sie mit einem KI-Hinweis versehen, wurden aber neben echtem Bildmaterial und identischer Verschlagwortung angeboten.
Die Bildagenturen erfuhren für diese Veröffentlichungen viel Kritik. Denn dadurch werde die Authentizität von KI-Bildern suggeriert und die Glaubwürdigkeit neben echten Fotos geschwächt. Allein der Verdacht, dass der Journalismus mit KI-Inhalten arbeite, führe zu einem irreparablen Vertrauensverlust der Mediennutzenden.
Bundestagswahlkampf 2025: wenn KI Hoffnung schürt
Im Zuge des Wahlkampfs zur vorgezogenen Bundestagswahl verbreitete sich im Februar 2025 ein angeblicher „tagesschau“-Beitrag im Internet. Er sollte die Probe einer Vereidigungszeremonie der AfD-Spitzenkandidatin Alice Weidel als neue Bundeskanzlerin zeigen.
Derartige Fälschungen sind bei Sympathisanten solcher politischen Strömungen beliebt, weil sie eine ersehnte Situation simulieren. Diese kann man sich aufgrund ihrer Visualisierung besser vorstellen und hoffen, dass sie tatsächlich eintritt. Außerdem könnten politisch wenig Informierte sogar den Eindruck gewinnen, Weidel sei bereits Bundeskanzlerin.
KI in gefakten Werbevideos mit Prominenten
Regelrecht geflutet wird das Internet von gefälschten Videos von Prominenten. So wird beispielsweise die Identität des Arztes und TV-Moderators Dr. Eckhart von Hirschhausen für Werbevideos genutzt. In diesen wirbt er angeblich für erfolgversprechende Gesundheits- und Diätprodukte.
Derartige Deepfake-Videos basieren häufig auf echten TV-Sendungen. Allerdings ersetzen hier gefälschte Aussagen den in Wahrheit gesagten Wortlaut. Stimme und Lippenbewegungen werden hier mittels KI-Tools ersetzt, sodass das angeblich Gesagte täuschend echt wirkt.
Abgesehen von dieser Täuschung, sind die angepriesenen Produkte höchst umstritten. Sie sind entweder wirkungslos oder gesundheitsschädlich. Die Verbraucherzentrale warnt Verbraucher vor deren Einnahme.
KI-Werbung in der Vogue: überirdische Fake-Models
In der August-Ausgabe 2025 der „Vogue“ posierten in einer „Guess“-Kampagne erstmalig zwei KI-Modelle. Die blonde „Vivienne“ und die brünette „Anastasia“ überstrahlten mit reiner Haut, vollem Haar und perfekten Proportionen jedes andere natürliche Fotomodell.
Allerdings erntete die Modemarke einen Shitstorm und die Netzgemeinde rief zum Boykott der Marke auf. Das hyper-perfekte Frauenbild, das die Kampagne vermittele, sei stereotyp, diskriminierend und problematisch, weil es Frauen dazu verleite, unrealistische Schönheitsideale anzustreben. Es fehle an Authentizität, die echte Testimonials vermittelten. Eine solche KI-Kampagne koste die Jobs einer ganzen Branche. Denn man habe weniger Aufwand und benötige keine Fotoprofis, Visagisten, Stylisten, Locations etc.
KI in Hollywood: Angst vor KI-Stars und digitalen Doppelgängern
KI hat inzwischen auch längst Hollywood erobert: Das Studio Xicoia erschuf die KI-Schauspielerin Tilly Norwood. Sie wurde beim Zürich Film Festival im Herbst 2025 vorgestellt. Das Unternehmen erhofft sich gleichwertigen Erfolg, wie ihn andere bekannte Hollywood-Stars erfahren. Diese befürchten durch KI-Klone ersetzt zu werden. Sie lassen sich deshalb zunehmend ihr Gesicht, ihre Stimme und ihre charakteristischen Bewegungen als Marke eintragen, um sich gegen Deepfakes und den Missbrauch ihrer Identität zu wehren. Denn anders als in Deutschland sind in den USA die Persönlichkeitsrechte deutlich schwächer ausgestaltet.
Um der datenschutzrechtlichen Problematik und eventuellen Verletzungen des Rechts am eigenen Bild zu begegnen, reagieren wiederum in der EU einige Fotomodellagenturen. Sie bieten Avatare echter Fotomodelle an. Kunden können Lizenzen an diesen Avataren erwerben und sie legal sowie rechtssicher in KI-generierten Inhalten nutzen.
KI im Einsatz für üble Betrugsmaschen
Auch Betrüger machen sich die Deepfake-Technologie zu Nutze: in sog. „Schockanrufen“ und anhand des bekannten „Enkeltricks“ simuliert mittels „voice cloning“ die Stimme eines nahen Angehörigen. Die Stimme am Telefon behauptet, irgend etwas Schlimmes sei passiert und man benötige dringend finanzielle Mittel. Das Rohmaterial für das „voice cloning“ stammt meist aus Videos der Angehörigen, welche diese auf Social-Media-Plattformen zuvor veröffentlicht haben. Die richtigen Verwandten und passenden Telefonnummern stammen aus dem Darknet – ebenfalls mittels KI schnell zusammengesucht.
KI zur Produktion von Kinderpornographie
Auch kinderpornografische Inhalte werden inzwischen mittels KI generiert. Zwar zeigen die Inhalte kein reales Opfer. Jedoch ist die Produktion solchen Materials nur deshalb möglich, weil die KI-Tools mit realen Missbrauchsdarstellungen trainiert wurde. Zudem trägt es dazu bei, dass Kinder zu sexuellen Objekten werden. Auch der Besitz und die Verbreitung von KI-generierten kinder- und jugendpornografischen Inhalten ist strafbar. Das gilt jedenfalls dann, wenn das KI-generierte Material wirklichkeitsnah ist und nicht von einer echten Darstellung unterscheidbar ist.
EU reagiert auf Deepfakes
Die Liste der o.g. Beispiele lässt sich beliebig fortsetzen, wobei diese kleine Aufzählung bereits die Wirkmacht von Deepfakes verdeutlicht. Menschen, die von der Echtheit solcher Bilder ausgehen, ohne deren Falschheit zu erkennen, sind Überidealisierung, Gesundheitsgefahren und Kriminalität ausgesetzt. Ganze Gesellschaften können durch Desinformation in ihrer Meinungsbildung beeinflusst und destabilisiert werden. Und schlussendlich drohen Verunsicherung und Vertrauensverlust in die Medien.
Kennzeichnungspflicht gem. Art. 50 Abs. 4 KI-VO
Der EU-Gesetzgeber hat daher hier Handlungsbedarf erkannt und zu Deepfakes eine Regelung in der KI-VO geschaffen:
Wer als Betreiber ein KI-System einsetzt, das Bild-, Audio- oder Videoinhalte erzeugt oder manipuliert, die einen Deepfake darstellen, muss ab 02.08.2026 offenlegen, dass die Inhalte künstlich erzeugt oder manipuliert wurden (Art. 50 Abs. 4 S. 1KI-VO). Ist der Inhalt Teil eines offensichtlich künstlerischen, kreativen, satirischen, fiktionalen oder analogen Werks oder Programms, so beschränken sich die in diesem Absatz genannten Transparenzpflichten auf die Offenlegung des Vorhandenseins eines solchen künstlich erzeugten oder manipulierten Inhalts in einer angemessenen Weise, die die Darstellung oder den Genuss des Werks nicht beeinträchtigt (Art. 50 Abs. 4 S. 3 KI-VO).
Deepfake-Definition gem. Art. 3 Nr. 60 KI-VO
Den Begriff des Deepfakes wiederum erklärt die KI-VO in Art. 3 Nr. 60 als „einen durch KI erzeugten oder manipulierten Bild-, Ton- oder Videoinhalt, der wirklichen Personen, Gegenständen, Orten, Einrichtungen oder Ereignissen ähnelt und einer Person fälschlicherweise als echt oder wahrheitsgemäß erscheinen würde.“
Als „Betreiber“ definiert die KI-VO jede natürliche oder juristische Person, Behörde, Einrichtung oder sonstige Stelle, die ein KI‑System in eigener Verantwortung verwendet, es sei denn, dieses wird im Rahmen einer persönlichen und nicht beruflichen Tätigkeit verwendet
Daraus folgt für jeden, der im beruflichen Kontext mit KI-Tools arbeitet und als synthetischen Out-Put Deepfakes erzeugt, dass er diesen Out-Put entsprechend kennzeichnen muss.
Einschränkung der Kennzeichnungspflicht für Texte gem. Art. 50 Abs. 4 S. 4 KI-VO
Lediglich in Bezug auf Texte hat der Gesetzgeber eine Ausnahme gemacht: Zwar muss derjenige, der mittels eines KI-Systems einen Text generiert oder manipuliert, der zu dem Zweck veröffentlicht wird, die Öffentlichkeit über Angelegenheiten von öffentlichem Interesse zu informieren, offenlegen, dass er den Text künstlich generiert oder manipuliert hat. Diese Verpflichtung gilt jedoch u.a. nicht, wenn die KI-generierten Inhalte einer menschlichen Überprüfung oder redaktionellen Kontrolle unterzogen wurden und eine natürliche oder juristische Person die redaktionelle Verantwortung für die Veröffentlichung der Inhalte trägt (Art. 50 Abs. 4 S. 4 f).
Kennzeichnungspflicht von Deepfakes – mehr Fragen als Antworten
Allerdings wirft der Gesetzeswortlaut in der Praxis komplexe Fragen auf. Und zwar sowohl hinsichtlich der Schwelle dessen „ab wann“ als auch „wie“ wie zu kennzeichnen ist:
Intention der Kennzeichnungspflicht von KI-erzeugten bzw. -manipulierten Inhalten ist die Aufklärung der Rezipienten (ErwG. 134 KI-VO). KI-Erzeugnisse, die eine solche Ähnlichkeit zur Realität aufweisen (konkret bestehenden Personen, Objekten, Orten, Einrichtungen oder Ereignissen deutlich ähneln), dass sie aus menschlicher Sicht täuschend echt aussehen bzw. fälschlicherweise als authentisch oder wahrheitsgetreu erscheinen, sollen klar und deutlich offenlegen, dass die Inhalte künstlich erzeugt oder manipuliert wurden.
Demnach kann man im Umkehrschluss wohl eine Kennzeichnungspflicht für Fabelwesen, Fantasy-Figuren, utopische Orte und andere bekanntermaßen nicht real existierende Phänomene ausschließen. Denn jedem Betrachtenden dürfte klar sein, dass es sich bei Monstern, Geistern, Feen, Elfen, Einhörnern und sonstigen Kunstfiguren um fiktionale Erscheinungen handelt, die nicht dem wirklichen Leben vorkommen.
Kennzeichnungspflicht für KI-generierte menschliche Abbildungen?
Anders verhält es sich, wenn durch KI generierte Personen, Gegenstände oder Orte abgebildet werden, die nicht real existieren, aber aufgrund ihres Erscheinungsbildes echt sein könnten. Demnach sind fotorealistisch und authentisch wirkende, aber ausschließlich synthetisch erzeugte Bilder als solche zu kennzeichnen. Hier muss man den Out-Put ab der ersten Interaktion, also z.B. schon bei der Übergabe an den Auftraggeber klar und eindeutig kennzeichnen. In jedem Fall ist er mit Veröffentlichung entsprechend zu kennzeichnen.
Darüber hinaus ist die Kennzeichnungspflicht aber nicht weiter konkretisiert und lässt viel Raum für juristische Interpretationen und Spekulationen.
Schutz vor Täuschung und Manipulation
Denn laut Gesetz müsste ein KI-generiertes oder -manipuliertes Bild die Täuschung und Irreführung des Rezipienten beabsichtigen. Denn die Regelung zielt darauf ab, die Informationsfreiheit und Meinungsbildung zu stärken bzw. die Gesellschaft vor Desinformation zu schützen. Man könnte daher juristisch spitzfindig fragen, ob synthetische Erzeugnisse ohne Täuschungsabsicht, wie z.B. Werbeaufnahmen, kennzeichnungspflichtig sind. Kommt es für das Anpreisen und den Verkauf eines Kleids darauf an, ob das Fotomodell, das es präsentiert nicht echt, sondern KI-generiert ist?
Schließlich lässt sich argumentieren, dass für Fotoproduktionen gebuchte Fotomodelle auch nur in eine Rolle schlüpfen und auf dem Foto etwas verkörpern, was sie im realen Leben nicht sind. Hierin wurde bisher auch keine Täuschungsgefahr oder -absicht des Betrachters gesehen.
Der Öffentlichkeit verschwiegen, jedoch absolut branchenüblich war es zumindest bisher, Fotos zu retuschieren, die Gliedmaßen der abgebildeten Fotomodelle per Photoshop zu verlängern und deren Körper zusätzlich zu verschlanken, um ein übersteigertes Schönheitsideal zu vermitteln. Während in einigen Ländern, wie z.B. Israel, Frankreich und zuletzt in Norwegen eine Kennzeichnungspflicht solcher Photoshop-Idealisierungen zum Schutz von Jugendlichen, und insbesondere Mädchen sowie jungen Frauen, eingeführt wurde, hat der deutsche Gesetzgeber dies bisher versäumt.
Kennzeichnungspflicht für KI-generierte Bildhintergründe?
Ähnlich verhält es sich mit KI-generierten Hintergründen, in die man das neueste Automodell oder andere real existierende Produkte montiert. Bisher wurden solche Inhalte mittels CGI (Computer Generated Image) produziert und gerendert. Die fotorealistischen Ergebnisse waren kaum von einem Foto, das einen realen Hintergrund zeigt, zu unterscheiden. Eine entsprechende Kennzeichnung erfolgte nicht. Hier fragt man sich, ob es für den Rezipienten und seine Kaufentscheidung beim Betrachten der Werbung wichtig ist zu wissen, dass der Hintergrund KI-generiert ist, wenn und soweit jedenfalls das real existierende Produkt in echt fotografiert und der Realität entsprechend abgebildet ist.
Kennzeichnungspflicht bei Einsatz von KI-Tools zur Bildretusche?
Ebenso streitig ist, ab wann die Schwelle zum Deepfake überschritten ist, wenn KI-Tools zur Optimierung einer menschlichen Gestaltung, wie z.B. eines Porträtfotos, zum Einsatz kommen und die Authentizität des abgebildeten Inhalts weniger oder mehr verändert wird.
Alle hier aufgeworfenen Fragen wird schlussendlich die zukünftige Rechtsprechung klären müssen. Möglicherweise feilt auch der EU-Gesetzgeber hier noch nach oder gibt in Praxisleitfäden erhellende Anhaltspunkte.
Das EU-Label für Deepfakes
Das Gesetz fordert, dass die Kennzeichnung in „klarer und erkennbarer Weise“ erfolgen muss (Art. 50 Abs. 5 KI-VO, ErwG. 133, 135), d.h. im/am Bild-/Video-Inhalt unübersehbar angebracht sein.
Um die Betreiber bei der Erfüllung ihrer Kennzeichnungspflicht für KI-generierte Inhalte zu unterstützen, erarbeitet eine von der EU-Kommission eingesetzte Expertengruppe derzeit einen freiwilligen Verhaltenskodex. Gerade erst hat sie den zweiten Entwurf veröffentlicht (hier abrufbar). Zu diesem können die Stakeholder, Beteiligten und Beobachter noch Rückmeldungen einreichen. Anfang Juni 2026 soll der Kodex dann finalisiert sein.
Verhaltenskodex zur Kennzeichnung
Abschnitt 2 des Entwurfs konzentriert sich auf die Kennzeichnung von Deepfakes und Textpublikationen. Er enthält Design- und Platzierungsanforderungen für Symbole, Etiketten oder Haftungsausschlüsse. Sie sollen ein Mindestmaß an Einheitlichkeit gewährleisten und die Konzeption angepasste Lösungen ermöglichen. Darüber hinaus schlägt die Kommission ein einheitliches, interaktives EU-Symbol vor. Hierzu finden sich in der Anlage 1 vorgeschlagene Abbildungen.
Für Deepfake-Bilder soll die Kennzeichnung bei der ersten und sodann bei jeder weiteren Veröffentlichung des Bildes durch ein Symbol oder ein Kennzeichen erfolgen. Dieses sollte deutlich erkennbar sein, sich vom Bild abheben, gut erkennbar und nicht verdeckt oder versteckt sein – also nicht in Bildebenen eingebettet, zu nahe an anderen Symbolen oder Textelement platziert oder vor Hintergründen, die die Sichtbarkeit beeinträchtigen.
Für Deepfake-Videos soll die Kennzeichnung – abhängig von der Länge des Videos zu Beginn entweder durchgehend (bei kurzen Videos) oder in regelmäßigen Abständen (bei langen Videos) erfolgen.
Hinsichtlich der Kennzeichnung von Teil-KI-generierten Inhalten sieht der Leitfaden derzeit noch keine einheitliche Lösung vor:
Für Texte gilt, dass, wenn nur ein Teil der Textveröffentlichung KI-generiert oder manipuliert ist, es ausreicht, nur diesen Teil zu kennzeichnen. Hingegen differenziert der Leitfaden für Teil-KI-generierte Bilder (z.B. wie im Falle des o.g. Beispiels des KI-generierten Hintergrunds) hier nicht. Vielmehr soll u.a. eine noch einzurichtende Taskforce die Möglichkeit prüfen, ein zusätzliches interaktives Element zu entwickeln. Dieses soll mit dem EU-Label verknüpft sein und detailliertere Informationen darüber liefern, was mittels KI generiert oder bearbeitet wurde.
Teuer kann’s werden: Geldbußen bei Verstoß
Für diejenigen, die sich nicht an die Kennzeichnungspflicht halten, kann es teuer werden. Denn der Verstoß gegen die Kennzeichnungspflicht ist mit Geldbußen von bis zu € 15 000 000.- oder – im Falle von Unternehmen – von bis zu 3 % des gesamten weltweiten Jahresumsatzes des vorangegangenen Geschäftsjahres sanktioniert (Art. 99 Abs. 4 g) KI-VO).
Auch Deutschland reagiert auf Deepfakes
Auch auf deutscher Ebene haben die Justizministerinnen und Justizminister der Länder auf das Thema „Deepfakes“ reagiert. Zuletzt baten sie nach ihrer Konferenz im November 2025 die Bundesjustizministerin, die Regelungen zum Recht am eigenen Bild (§§ 22 ff KUG) auf eine mögliche Erweiterung hin zu überprüfen oder die Problematik in einem künftigen „digitalen Gewaltschutzgesetz“ zu regeln. Denn die durch Deepfakes verursachten Persönlichkeitsrechtsverletzungen seien besonders gravierend. Schließlich könnten Deepfakes die Reputation von Personen, Institutionen und Unternehmen besonders nachhaltig schädigen. Außerdem bedrohten Deepfakes und ihre Verbreitung die Integrität und Qualität der öffentlichen Debatte. Schließlich sei diese ein essenzieller Grundpfeiler für das Funktionieren einer Demokratie.
Bereits in ihren Beschlüssen früher Justizministerkonferenzen thematisierten die Justizminister der Länder die strafrechtliche Verantwortlichkeit der Betreiber von sozialen Netzen, den Schutz der demokratischen Willensbildung durch wirksame Bekämpfung von „Fake News“ und Rechtssicherheit bei bzw. die Verbesserung des Rechtsschutzes in Bezug auf Deepfakes.
Ausblick: ab 02.08.2026 kennzeichnen!
Deepfakes sind längst in der Mitte der Gesellschaft angekommen und kein Randphänomen mehr. Sie können unterhaltsam, kreativ oder satirisch, aber auch Sprengstoff für eine Gesellschaft sein.
Wenn ab 02.08.2026 die Kennzeichnungspflicht für KI-erzeugte oder -manipulierte Inhalte gilt, werden viele praktische Fragen und Abgrenzungsprobleme noch offen sein. Bis zu deren Klärung empfiehlt es sich für professionelle Kreativschaffende, die mit KI-Tools arbeiten, lieber mehr als zu wenig zu kennzeichnen. Sie sollten sich außerdem in KI-Kompetenz-Schulungen fortbilden und die praktischen Entwicklungen, insbesondere den EU-Praxisleitfaden, beobachten.
Für Rezipienten bietet die Kennzeichnungspflicht eine wichtige Orientierungshilfe beim kritischen Umgang mit den Medien und ihren Inhalten. Ob sie das Vertrauen in digitale Inhalte stärkt oder das Label „KI-generiert“ selbst zum Makel wird, bleibt spannend und wird sich demnächst zeigen.
