Der unterschätzte Teil des EU AI Act
Wenn über den EU AI Act gesprochen wird, geht es fast immer um Hochrisiko-KI, KI-Inventur und die KI-Kompetenzpflicht nach Artikel 4. Artikel 50 läuft im Hintergrund mit – als „die Sache mit den Deepfakes“. Das ist ein Fehler.
Denn Artikel 50 wird ab dem 2. August 2026 die größte Anzahl an Unternehmen direkt betreffen. Hochrisiko-Pflichten treffen einen kleinen, klar abgegrenzten Kreis. Artikel 50 trifft jeden, der einen Chatbot betreibt, KI-generierte Bilder im Marketing einsetzt, mit Voicebots arbeitet oder KI-erzeugte Texte zu Themen von öffentlichem Interesse veröffentlicht. Das sind in der Praxis fast alle Mittelständler mit einer halbwegs modernen Marketing- oder Kundenservice-Abteilung.
Und genau hier herrscht maximale Verwirrung. Muss jeder ChatGPT-generierte LinkedIn-Post jetzt mit „KI“ markiert werden? Muss man jedes Stockfoto kennzeichnen, das mit Midjourney erstellt wurde? Was ist mit der Pressemitteilung, die ein Mensch nur kurz redigiert hat? Und was passiert mit dem Chatbot auf der Kundenwebsite, der seit drei Jahren ohne Hinweis läuft?
Dieser Artikel räumt mit den Missverständnissen auf, erklärt, was wirklich Pflicht wird, und zeigt danach, wie IT-Dienstleister ihre Kunden konkret auf den 2. August 2026 vorbereiten. Wer den größeren Kontext zum Stichtag braucht, findet ihn im Artikel EU AI Act: Was ab dem 2. August 2026 wirklich gilt.
Was Artikel 50 wirklich regelt – die vier Pflichten im Überblick
Artikel 50 der KI-Verordnung enthält nicht eine Kennzeichnungspflicht, sondern vier verschiedene Pflichten in vier Absätzen. Das ist der erste Punkt, den die meisten übersehen – und der erste Hebel, an dem Beratung ansetzt.
Absatz 1 – Pflicht der Anbieter zur technischen Markierung. Wer ein generatives KI-System anbietet (also Hersteller wie OpenAI, Anthropic, Midjourney, ElevenLabs), muss sicherstellen, dass die Outputs maschinenlesbar als künstlich erzeugt markiert sind. Wasserzeichen, Provenance-Metadaten, kryptografische Signaturen – die technische Umsetzung bleibt dem Anbieter überlassen, muss aber „effektiv, interoperabel, robust und zuverlässig“ sein. Das betrifft im Mittelstand selten direkt – die wenigsten Unternehmen sind selbst Anbieter. Aber: Wer ein KI-System unter eigener Marke weiterverkauft oder substanziell anpasst, kann nach Art. 25 zum Anbieter werden und fällt dann unter Absatz 1.
Absatz 2 – Chatbot-Disclosure. Jedes KI-System, das mit Menschen interagiert, muss sich zu erkennen geben. Konkret heißt das: Bei jedem Erstkontakt mit einem KI-Chatbot, Voicebot oder KI-Telefonassistenten muss der Nutzer erfahren, dass er mit einer Maschine spricht – nicht mit einem Menschen. Eine Ausnahme gilt nur, wenn aus dem Kontext offensichtlich ist, dass es sich um eine KI handelt (beispielsweise ein als „KI-Assistent“ beschrifteter Bereich). Diese Pflicht trifft praktisch jedes Unternehmen mit Chatbot auf der Website oder im Kundenportal.
Absatz 3 – Information bei Emotionserkennung und biometrischer Kategorisierung. Wer ein KI-System einsetzt, das Emotionen erkennt oder Personen biometrisch kategorisiert, muss die betroffenen Personen darüber informieren. Im Mittelstand selten relevant – außer bei bestimmten HR-Tools, Recruiting-Software oder Kundenservice-Systemen mit Sentiment-Analyse. Wer solche Systeme einsetzt, sollte zweimal hinschauen.
Absatz 4 – Deepfakes und KI-generierte Texte. Der politisch heißeste Absatz. Zwei verschiedene Pflichten:
- Deepfakes (KI-erzeugte oder -manipulierte Bilder, Audio- oder Videoinhalte) müssen offen als künstlich erzeugt gekennzeichnet sein. Das gilt für jeden Betreiber, der solche Inhalte veröffentlicht – unabhängig davon, ob der Anbieter bereits eine technische Markierung gesetzt hat.
- KI-generierte Texte zu Themen von öffentlichem Interesse müssen gekennzeichnet werden, wenn sie veröffentlicht werden, um die Öffentlichkeit zu informieren. Das betrifft typischerweise Nachrichtenartikel, politische Stellungnahmen, redaktionelle Inhalte mit gesellschaftlicher Relevanz.
Absatz 5 schließlich legt fest, dass alle Informationen aus den Absätzen 1 bis 4 spätestens zum Zeitpunkt der ersten Interaktion „in klarer und erkennbarer Weise“ bereitgestellt werden müssen. Versteckte Hinweise im Footer reichen nicht.

Der Sonderfall: Wenn Du Dich selbst klonst
Ein Punkt, der in den meisten Artikeln zu Artikel 50 fehlt, in der Praxis aber immer relevanter wird: Was passiert, wenn Du Dir einen eigenen virtuellen Avatar bauen lässt – einen KI-Klon Deiner selbst, der in Deinem Namen spricht, präsentiert und moderiert?
Tools wie HeyGen, Synthesia, D-ID oder Hour One machen das heute in wenigen Minuten möglich. Einmal 10 Minuten Videomaterial aufnehmen, einmal die Stimme trainieren – und der eigene Avatar produziert danach beliebig viele Videos in jeder Sprache, mit jedem Skript, zu jeder Uhrzeit. Für Content-Produktion, Schulungsvideos, mehrsprachige Marketing-Kampagnen, YouTube-Tutorials oder LinkedIn-Posts ist das eine enorm effiziente Lösung. Und der logische Gedanke lautet: „Das ist doch mein eigenes Gesicht, meine eigene Stimme – da muss ich nichts kennzeichnen.“
Falsch. Genau hier liegt das Missverständnis.
Der EU AI Act definiert Deepfakes in Artikel 3 Nummer 60 als KI-generierte oder KI-manipulierte Bild-, Ton- oder Videoinhalte, die realen Personen, Objekten oder Ereignissen ähneln und fälschlicherweise als authentisch erscheinen würden. Die Frage, ob die Person zugestimmt hat, spielt für die Einstufung keine Rolle. Ein KI-Avatar, der Dich zeigt, ist per Definition ein Deepfake im Sinne des Gesetzes – auch wenn Du ihn selbst trainiert und beauftragt hast. Die Zustimmung schützt Dich vor Persönlichkeitsrechtsverletzungen. Sie schützt Dich nicht vor der Transparenzpflicht aus Artikel 50 Absatz 4.
Konkret bedeutet das für die Praxis:
- Ein Schulungsvideo, das Dein KI-Avatar moderiert, muss als KI-generiert gekennzeichnet sein – etwa mit einem sichtbaren Hinweis im Video („Dieses Video wurde mit einem KI-Avatar erstellt“) oder einem entsprechenden Label in der Beschreibung.
- Ein LinkedIn-Video, in dem Dein Avatar spricht, fällt ebenfalls unter die Kennzeichnungspflicht – auch wenn das Skript von Dir stammt und der Inhalt inhaltlich abgesegnet ist.
- Ein mehrsprachiges Marketingvideo, in dem Dein echtes Originalvideo per KI-Lipsync in andere Sprachen übersetzt wurde, ist ein manipulierter Videoinhalt und damit ebenfalls kennzeichnungspflichtig.
- Ein Voice-Clone Deiner Stimme, der ein Podcast-Intro einspricht, zählt als KI-generierter Audioinhalt und braucht einen Hinweis.
Die Faustregel: Sobald eine KI aus Deinem echten Gesicht, Deiner echten Stimme oder Deinen echten Gesten etwas Neues erzeugt, das Du so nicht aufgenommen hast – auch wenn Du es so aufgenommen hättest – ist es ein Deepfake im Sinne der Verordnung. Punkt.
Was heißt das konkret für die Umsetzung? Drei Empfehlungen:
- Sichtbare Kennzeichnung im Video oder Thumbnail. Ein dezenter, aber klar lesbarer Hinweis wie „KI-Avatar“ oder „Dieses Video wurde mit einem KI-Avatar erstellt“ genügt. Idealerweise am Anfang, nicht erst am Ende.
- Hinweis in der Beschreibung. Auf Plattformen wie LinkedIn, YouTube oder in Newsletter-Kampagnen gehört ein Satz in die Beschreibung, der den KI-Einsatz offenlegt.
- Interne Dokumentation. In der KI-Inventur und im Redaktionsworkflow wird der Avatar als eigenes KI-System geführt – mit dokumentierter Risikoklassifizierung und klarer Verantwortlichkeit.
Und noch ein strategischer Gedanke: Die Kennzeichnung ist kein Makel. Im Gegenteil – wer offen kommuniziert, dass er mit einem KI-Avatar arbeitet, wird aktuell oft als innovativ und transparent wahrgenommen. Die Nutzer sind pragmatischer, als viele denken. Viel größer ist das Risiko, erwischt zu werden und dann als unehrlich dazustehen. Transparenz ist 2026 die bessere Marketing-Strategie.
Die wichtigste Ausnahme: Menschliche redaktionelle Kontrolle
Hier liegt die größte praktische Erleichterung – und gleichzeitig das größte Missverständnis. Die Kennzeichnungspflicht für KI-generierte Texte aus Absatz 4 entfällt, wenn die Inhalte einer menschlichen Überprüfung oder redaktionellen Kontrolle unterzogen wurden und eine natürliche oder juristische Person die redaktionelle Verantwortung trägt.
Übersetzt in den Marketing-Alltag bedeutet das: Der LinkedIn-Post, den ein Mitarbeiter mit ChatGPT entwirft und dann selbst überarbeitet, freigibt und veröffentlicht, ist nicht kennzeichnungspflichtig. Der Blogartikel, der mit Claude vorbereitet und vom Marketing-Verantwortlichen redigiert und freigegeben wird, ebenso wenig. Die Pressemitteilung, die durch einen menschlichen Redaktionsprozess läuft, fällt nicht unter die Pflicht.
Was muss erfüllt sein, damit die Ausnahme greift? Drei Dinge:
- Der Inhalt wird inhaltlich geprüft – nicht nur überflogen.
- Eine konkrete Person trägt die redaktionelle Verantwortung – also nicht „die Marketingabteilung“, sondern ein benennbarer Mensch.
- Diese Verantwortung ist nachvollziehbar dokumentiert – im Zweifel muss man im Audit zeigen können, wer was wann freigegeben hat.
Wer einen sauberen Redaktionsworkflow hat (KI-Entwurf → fachliche Prüfung → Tonalität → Faktencheck → Freigabe durch eine benannte Person), erfüllt die Bedingungen automatisch. Wer ChatGPT-Outputs ungeprüft 1:1 veröffentlicht, fällt unter die Kennzeichnungspflicht – und sollte unabhängig davon den Workflow überdenken.
Wichtig: Diese Ausnahme gilt nur für Texte. Bei Deepfakes (Bild, Audio, Video) gibt es keine Redaktions-Ausnahme. Ein realistisches KI-Bild bleibt kennzeichnungspflichtig, auch wenn es zehnmal vom Marketing-Team angeschaut wurde.
Die fünf häufigsten Missverständnisse
In den Beratungsgesprächen tauchen immer wieder dieselben Fehlannahmen auf. Wer sie kennt, kann die meisten Kundenfragen in fünf Minuten beantworten.
Missverständnis 1: „Wir müssen jetzt jedes mit KI erstellte Bild kennzeichnen.“ Falsch. Die Kennzeichnungspflicht für Bilder greift, wenn sie realistisch echte Personen oder Szenen darstellen und nicht als KI-generiert erkennbar sind. Ein offensichtlich stilisiertes Logo, eine abstrakte Grafik, ein Produkt-Mock-up im Comic-Stil: keine Pflicht. Ein realistisches Foto einer fiktiven Person, ein KI-generiertes „Stockfoto“ eines Meetings: kennzeichnungspflichtig.
Missverständnis 2: „Marketing-Texte mit ChatGPT müssen mit ‚erstellt mit KI‘ markiert werden.“ Falsch, solange ein Mensch redaktionell verantwortlich ist (siehe oben). Klassisches Marketing-Copywriting fällt nicht automatisch unter Absatz 4 – auch nicht bei ausgiebiger KI-Unterstützung.
Missverständnis 3: „Unser Chatbot war schon vor 2026 online – Bestandsschutz.“ Falsch. Es gibt keinen Bestandsschutz. Jeder Chatbot, der ab dem 2. August 2026 mit Nutzern interagiert, muss die Disclosure-Pflicht aus Absatz 2 erfüllen – egal, wie lange er schon läuft.
Missverständnis 4: „Die Kennzeichnung kann maschinenlesbar im HTML stehen.“ Falsch. Maschinenlesbare Markierung (Wasserzeichen, Metadaten) ist Pflicht der Anbieter aus Absatz 1. Für Betreiber gilt Absatz 4: Die Kennzeichnung muss für Menschen sichtbar und erkennbar sein. Versteckte Tags reichen nicht.
Missverständnis 5: „Bei einem Verstoß gibt es eine Verwarnung, dann erst Bußgeld.“ Falsch. Verstöße gegen Artikel 50 können direkt mit bis zu 15 Millionen Euro oder 3 Prozent des weltweiten Jahresumsatzes geahndet werden – je nachdem, welcher Betrag höher ist. Das ist weniger als bei Hochrisiko-Verstößen (35 Mio. / 7 Prozent), aber immer noch existenzbedrohend für jeden Mittelständler.

Der Blick aufs Detail: Was sich mit dem EU-Verhaltenskodex noch klärt
Die Europäische Kommission arbeitet parallel zum AI Act an einem freiwilligen Verhaltenskodex zur Transparenz von KI-generierten Inhalten. Der Entwurf wird seit November 2025 in Arbeitsgruppen diskutiert, ein überarbeiteter Entwurf wird im Frühjahr 2026 erwartet, die finale Version voraussichtlich bis Mitte 2026 – also kurz vor dem Stichtag.
Drei Punkte aus dem aktuellen Entwurf, die für die Praxis besonders relevant sind:
- Ein einheitliches Symbol. Vorgeschlagen wird ein EU-weit harmonisiertes visuelles Label – als Übergangslösung das Kürzel „AI“ oder die jeweilige lokale Variante („KI“ auf Deutsch, „IA“ auf Französisch).
- Unterscheidung zwischen „vollständig KI-generiert“ und „KI-unterstützt“. Diese Differenzierung wird voraussichtlich offizielle Kategorien werden. „KI-unterstützt“ bezeichnet Inhalte, bei denen ein Mensch wesentliche Beiträge geleistet hat – diese fallen tendenziell unter die Redaktions-Ausnahme.
- Vermeidung von „Informationsmüdigkeit“. Der Kodex versucht zu verhindern, dass Nutzer mit zu vielen Hinweisen überschüttet werden und am Ende keinen mehr beachten. Das wird die Ausgestaltung der sichtbaren Kennzeichnung in den nächsten Monaten prägen.
Der Kodex ist rechtlich unverbindlich. Er wird aber faktisch zum Maßstab für Aufsichtsbehörden – wer ihn einhält, ist im Audit sicher. Wer abweicht, muss begründen können, warum.
Wichtig im Kontext der Digital-Omnibus-Diskussion: Die im November 2025 vorgeschlagene Verschiebung der Hochrisiko-Pflichten auf Dezember 2027 betrifft Artikel 50 voraussichtlich nicht direkt. Die Transparenzpflichten bleiben am 2. August 2026 verankert. Wer plant, sollte darauf nicht spekulieren.
Was IT-Dienstleister jetzt beim Kunden aufsetzen müssen
Aus den vier Pflichten und der Redaktions-Ausnahme ergibt sich ein klarer Maßnahmenkatalog. Sechs Schritte, die jeder IT-Dienstleister in den nächsten Monaten beim Kunden anstoßen kann – und die eine starke Beratungsleistung mit klarem Compliance-Aufhänger ergeben.
1. KI-Touchpoint-Inventur. Welche KI-Systeme im Unternehmen erzeugen oder manipulieren Inhalte, die nach außen gehen? Welche interagieren direkt mit Personen? Diese Inventur baut idealerweise auf dem allgemeinen KI-Inventar auf, das wir im Artikel KI-Inventar erstellen bereits ausführlich beschrieben haben – ergänzt um die Frage „Erzeugt das System veröffentlichte Inhalte?“.
2. Chatbot-Disclosure einrichten. Jeder Chatbot auf Website, Kundenportal, in App oder am Telefon bekommt eine eindeutige Kennzeichnung beim Erstkontakt. Beispiel: „Hallo, ich bin der KI-Assistent von [Firma] und beantworte Ihre Fragen rund um [Thema].“ Eine Zeile Text. Aufwand: minimal. Compliance-Wirkung: erfüllt Absatz 2 sauber.
3. Redaktionsworkflow für KI-Texte dokumentieren. Hier liegt die wichtigste organisatorische Maßnahme. Es muss ein Workflow existieren, der für jeden veröffentlichten Text (Blog, LinkedIn, Pressemitteilung, Newsletter) klar regelt: Wer entwirft? Wer prüft? Wer trägt die redaktionelle Verantwortung? Diese Verantwortung muss bei einer benennbaren Person liegen – nicht bei einem Team. Wenn der Workflow steht und dokumentiert ist, greift die Redaktions-Ausnahme automatisch und der Großteil der Marketing-Aktivitäten ist nicht kennzeichnungspflichtig.
4. Kennzeichnungsregeln für KI-Bilder definieren. Eine interne Richtlinie legt fest: Welche Bilder werden gekennzeichnet, welche nicht? Faustregel: Realistisch wirkende Bilder, die echte Personen oder Szenen darstellen → Kennzeichnung. Stilisierte Grafiken, abstrakte Visualisierungen, offensichtlich künstlerische Bilder → keine Pflicht, freiwillige Transparenz aber empfohlen. Das Kennzeichnungs-Label sollte einheitlich aussehen – idealerweise „KI-generiert“ oder das EU-Symbol, sobald es verfügbar ist.
5. Deepfake-Policy formulieren. Wer Deepfake-Technologien überhaupt einsetzt (etwa für Voiceovers in Werbevideos, KI-generierte Avatare in Schulungen, Synchronisationen in andere Sprachen), braucht eine klare Regel: Wo sind solche Inhalte erlaubt, wie werden sie gekennzeichnet, wer gibt sie frei? Das ist gleichzeitig eine sinnvolle Brücke zum Cybersecurity-Thema – die Bedrohung durch missbräuchliche Deepfakes haben wir im Artikel Deepfakes & KI-Betrug ausführlich aufgearbeitet.
6. Vertragliche Klärung mit Agenturen und Dienstleistern. Wer Marketing-Inhalte von externen Agenturen produzieren lässt, ist im Zweifel als Auftraggeber verantwortlich. In jeden Vertrag mit einer Marketing-, PR- oder Content-Agentur gehört ab sofort eine Klausel: Welche KI-Tools werden verwendet? Wer trägt redaktionelle Verantwortung? Wie wird die Kennzeichnung geregelt? Wer haftet im Verstoßfall? Diese Klausel jetzt nachzuverhandeln ist deutlich einfacher als nach einem Bußgeldbescheid.
Die unterschätzte Pflicht: KI-Kompetenz als Voraussetzung für Compliance
Hier kommt der oft übersehene strategische Punkt: Artikel 50 funktioniert nur, wenn die Menschen im Unternehmen verstehen, was sie tun. Eine Richtlinie auf Papier reicht nicht. Wenn der Marketing-Mitarbeiter nicht weiß, wann ein Text als „KI-generiert“ gilt und wann als „KI-unterstützt“, wird die Kennzeichnung entweder zu lasch oder zu strikt – beides ist problematisch.
Genau hier greift die KI-Kompetenzpflicht nach Artikel 4 EU AI Act, die bereits seit dem 2. Februar 2025 in Kraft ist. Jedes Unternehmen, das KI einsetzt, muss sicherstellen, dass die betroffenen Mitarbeitenden über ausreichende KI-Kompetenz verfügen – und das nachweisbar.
Genau dafür haben wir den KI-Kompetenznachweis der KI LEAGUE entwickelt: einen modularen Schulungskurs nach EU-Standard, der die Anforderungen aus Artikel 4 strukturiert abdeckt – inklusive Modulen zu Transparenzpflichten, Redaktionsworkflows, Deepfake-Erkennung und der praktischen Anwendung von Artikel 50 im Unternehmensalltag. Mit begleitenden Assessments und einem dokumentierten Abschlussnachweis pro Mitarbeitendem. Halbjährliche Update-Module halten den Nachweis aktuell – auch dann, wenn sich der Verhaltenskodex der EU-Kommission im Laufe von 2026 weiterentwickelt. Der Kurs funktioniert sowohl für das eigene Systemhaus als auch als Leistung, die IT-Dienstleister ihren Kunden anbieten können – als Compliance-Produkt, das gleichzeitig die Voraussetzung für eine saubere Umsetzung von Artikel 50 schafft.
Wer den KI-Kompetenznachweis für das eigene Unternehmen oder für Kunden einsetzen möchte, schreibt einfach eine kurze Mail an ingo.luecker@kileague.de – dann klären wir im direkten Gespräch, wie die Umsetzung konkret aussehen kann.
Warum die Kompetenzfrage nicht nur eine Compliance-Übung, sondern ein strategischer Hebel für IT-Dienstleister ist, haben wir im Artikel KI wird Basiskompetenz ausgeführt.
Einordnung: Transparenz als Markenwert, nicht als Pflichtübung
Die ganze Diskussion über Artikel 50 dreht sich aktuell um die Frage: „Was müssen wir minimal tun, um nicht in Schwierigkeiten zu geraten?“ Das ist die falsche Frage.
Die richtige Frage lautet: „Wie wollen wir mit KI in unserer Kommunikation umgehen?“ Denn die Kennzeichnungspflicht ist nur die regulatorische Seite einer viel größeren Verschiebung. Vertrauen in digitale Inhalte erodiert. Verbraucher, Geschäftspartner und Mitarbeiter wollen zunehmend wissen, wo KI im Spiel ist – und wo nicht. Wer transparent damit umgeht, baut Vertrauen auf. Wer es verschleiert, riskiert nicht nur Bußgelder, sondern Reputationsschäden, die nach einem Vorfall kaum noch zu reparieren sind.
Für IT-Dienstleister ist Artikel 50 eine doppelte Chance: Erstens als konkretes Beratungsprodukt mit klarer Frist und klaren Pflichten – also leicht verkaufbar. Zweitens als strategisches Gespräch mit dem Kunden über die Frage, welche Rolle KI in dessen Markenkommunikation spielen soll. Wer dieses Gespräch führen kann, wird vom IT-Lieferanten zum Berater. Und das ist die Position, in der man 2026 sein will.
Die Frist ist klar: 2. August 2026. Die Vorbereitungszeit ist überschaubar. Die Ausgangslage in den meisten Unternehmen: noch nichts geregelt. Genau dafür ist jetzt der richtige Moment.
Einladung zum nächsten KI LEAGUE Live Talk
Wenn dich die Frage beschäftigt, wie du Artikel 50 konkret beim Kunden umsetzt – und wie du daraus ein belastbares Beratungsangebot machst – dann ist der nächste KI LEAGUE Live Talk genau dafür gedacht.
Einmal im Monat ordnen wir aktuelle KI-Entwicklungen ein, teilen validierte Erkenntnisse und diskutieren, was das konkret für IT-Dienstleister und Systemhäuser bedeutet. Kein Hype, kein Buzzword-Bingo – sondern Substanz.
Jetzt beim nächsten Live Talk dabei sein
Einladung zur KI LEAGUE
Die KI LEAGUE ist der Ort für IT-Dienstleister, die KI nicht hypen, sondern verstehen wollen. Werde Teil der Community und profitiere von monatlichen Live Talks, Deep Dives und dem Austausch mit Gleichgesinnten.
Mehr über die KI LEAGUE erfahren
Quellen
- Artificial Intelligence Act – Artikel 50: Transparenzverpflichtungen für Anbieter und Betreiber bestimmter KI-Systeme (o.D.) – artificialintelligenceact.eu
- Haufe: Kennzeichnungspflicht für KI-Inhalte gilt ab August 2026 (April 2026) – haufe.de
- AiActo: Artikel 50 AI Act – Transparenzpflichten für KI-Inhalte (März 2026) – aiacto.eu
- Heuking: AI ACT – Wie müssen Unternehmen KI-generierte Inhalte kennzeichnen (22.12.2025) – heuking.de
- KI-Kanzlei: Kennzeichnungspflichten für KI-Inhalte (2025) – ki-kanzlei.de
- Europäische Kommission: Verhaltenskodex für die Kennzeichnung KI-generierter Inhalte (2025/2026) – digital-strategy.ec.europa.eu
- Ecovis: EU AI Act – Kennzeichnungspflicht für KI-generierte Inhalte (2025) – ecovis.com





