KI-Kennzeichnungspflicht
KI-Compliance

KI-Kennzeichnungspflicht ab August 2026

Ab dem 2. August 2026 greift Artikel 50 des EU AI Act mit verbindlichen Transparenz- und Kennzeichnungspflichten für KI-Systeme – relevant für Anbieter und Betreiber gleichermaßen, mit empfindlichen Sanktionen bei Verstößen.

Grafik eines Bildschirms mit AI-Zeichen, flankiert von Symbolen für Cloud, Laptop, Schutzschild und Schloss, die sichere Nutzung von KI-Technologie darstellen

Was steckt hinter der Regelung?

Wer KI nutzt, um Kunden zu beraten, Texte zu generieren oder Bilder zu erstellen, kennt die Frage nach der Transparenz – bislang oft als freiwillige Geste. Ab dem 2. August 2026 ist sie Pflicht. Artikel 50 des EU AI Act regelt die Transparenz- und Kennzeichnungsanforderungen für KI-Systeme mit direktem Nutzerkontakt, und er richtet sich ausdrücklich nicht nur an Unternehmen, die KI entwickeln. Betroffen sind Anbieter und Betreiber – also auch jedes Unternehmen, das ein KI-System im eigenen Betrieb einsetzt.

Der EU AI Act tritt schrittweise in Kraft. Während die Verbote für inakzeptable Risikosysteme bereits seit Februar 2025 gelten und die Pflichten für Hochrisiko-KI erst ab 2027 greifen, markiert der 2. August 2026 den wichtigsten Zwischenschritt: die vollständige Anwendbarkeit der Transparenzpflichten nach Artikel 50. Für viele Unternehmen wird dieser Termin der erste direkte Berührungspunkt mit dem AI Act sein – unabhängig davon, ob sie KI entwickeln oder lediglich einsetzen. Wer ein KI-System konfiguriert, in den eigenen Betrieb einbindet und gegenüber Kunden einsetzt, handelt als Betreiber im Sinne der Verordnung und trägt die entsprechende Verantwortung.

Sie sehen gerade einen Platzhalterinhalt von YouTube. Um auf den eigentlichen Inhalt zuzugreifen, klicken Sie auf die Schaltfläche unten. Bitte beachten Sie, dass dabei Daten an Drittanbieter weitergegeben werden.

Mehr Informationen

Was genau muss gekennzeichnet werden?

Artikel 50 benennt vier konkrete Kategorien, für die eine Offenlegungspflicht besteht:

  • Deepfakes: Realistisch wirkende Bild-, Ton- oder Videoinhalte, die Personen oder Szenen echt erscheinen lassen, aber künstlich erzeugt oder manipuliert sind. Das gilt auch für KI-generierte Produktfotos oder Werbemotive.
  • KI-generierte Texte: Öffentlich verbreitete Inhalte – Marketingtexte, Produktbeschreibungen oder Berichte –, die automatisiert erstellt wurden und ohne redaktionelle Verantwortung einer natürlichen Person erscheinen.
  • KI-Interaktionen: Chatbots oder virtuelle Assistenten, die in natürlicher Sprache mit Kundinnen und Kunden kommunizieren. Die Kennzeichnung muss spätestens zu Beginn der Konversation erfolgen.
  • Synthetische Inhalte zu öffentlichen Angelegenheiten: Texte oder Bilder zu gesellschaftlich relevanten Themen ohne menschliche Überprüfung unterliegen ebenfalls der Offenlegungspflicht.

Ausnahme: Rein private Nutzung – etwa privat generierte Bilder, die nicht öffentlich verbreitet werden – ist von diesen Pflichten ausgenommen.

Wie muss die Kennzeichnung aussehen?

Der AI Act ist hier konkret: klar, unmissverständlich, gut sichtbar – und vor der Wahrnehmung des Inhalts oder dem Beginn der Interaktion. Ein kleingedruckter Hinweis in den AGB reicht ausdrücklich nicht.

Hinzu kommt die Anforderung der Maschinenlesbarkeit: die Kennzeichnung soll über eingebettete Metadaten, digitale Wasserzeichen oder maschinenlesbare Labels erfolgen. In der Praxis bedeutet das konkret:

  • Bild / Video: Sichtbares Label im Bild oder eindeutiger Begleittext beim Post, ergänzt durch ein maschinenlesbares Wasserzeichen.
  • Audio: Gesprochener oder eingeblendeter Hinweis, dass eine KI-Stimme genutzt wird – vor Beginn der Wiedergabe.

Besondere Sorgfalt ist bei der Maschinenlesbarkeit geboten. Dieser Aspekt wird in der Praxis häufig unterschätzt, ist aber ausdrücklich Teil der Anforderung. Unternehmen sollten prüfen, ob ihre eingesetzten Tools bereits eine standardisierte Metadaten-Einbettung unterstützen.

Entscheidend ist die konsequente Prozessverankerung: Kennzeichnungspflichten dürfen nicht vom Engagement einzelner Mitarbeitender abhängen, sondern müssen in Workflows und Content-Richtlinien integriert sein.

Drei Szenarien aus der Praxis

Zur Einordnung helfen konkrete Beispiele:

  • Online-Shop mit KI-Beratungschat: Kennzeichnungspflicht greift spätestens zum Interaktionsbeginn. Ein Hinweis wie „Dieser Assistent wird durch KI betrieben“ vor dem ersten Austausch ist ausreichend.
  • Marketing-Team postet KI-Bilder auf LinkedIn: Sichtbares Label beim Post und maschinenlesbares Wasserzeichen in der Bilddatei erforderlich.
  • Interne ChatGPT-Nutzung ohne Veröffentlichung: Nach Artikel 50 vorerst keine Kennzeichnungspflicht – andere Vorschriften, insbesondere datenschutzrechtlicher Natur, sollten jedoch separat geprüft werden.

Diese Szenarien verdeutlichen die Grundlogik: Die Pflicht entsteht nicht durch den Einsatz von KI als solcher, sondern durch öffentlichen Nutzerkontakt oder die Veröffentlichung von Inhalten. Wer jetzt mit der Inventarisierung aller KI-Systeme beginnt, schafft die Grundlage für beide Anforderungen gleichzeitig.

Sanktionen: kein Spielraum für Abwarten

Bei Verstößen sieht der AI Act Bußgelder von bis zu 15 Millionen Euro oder 3 % des weltweiten Jahresumsatzes vor – je nachdem, was höher ist. Für KMU gibt es gewisse Spielräume bei der Bemessung, aber keinen Freifahrtschein. In Deutschland ist die Bundesnetzagentur als nationale Marktaufsichtsbehörde für die Durchsetzung zuständig.

Verstoß
Bußgeldrahmen
Zuständige Behörde (DE)
Hinweis
Verstöße gegen die Transparenz- und Kennzeichnungspflichten nach Art. 50 KI-VO
Bis zu 15 Mio. € oder 3 % des weltweiten Jahresumsatzes
Bundesnetzagentur
Je nachdem, was höher ist
Kein klarer Hinweis darauf, dass eine Person mit einem KI-System interagiert
Bis zu 15 Mio. € oder 3 % des weltweiten Jahresumsatzes
Bundesnetzagentur
Gilt z. B. für Chatbots
Nicht gekennzeichnete synthetische oder manipulierte Inhalte
Bis zu 15 Mio. € oder 3 % des weltweiten Jahresumsatzes
Bundesnetzagentur
Etwa bei Deepfakes oder KI-generierten Medien
Nicht gekennzeichnete KI-Inhalte zu Themen von öffentlichem Interesse
Bis zu 15 Mio. € oder 3 % des weltweiten Jahresumsatzes
Bundesnetzagentur
Formulierung enger am Normzweck

Einordnung in den regulatorischen Gesamtrahmen

Artikel 50 steht nicht für sich allein. Unternehmen, die KI-gestützte Systeme einsetzen, bewegen sich gleichzeitig im Anwendungsbereich der DSGVO – insbesondere wenn personenbezogene Daten verarbeitet werden. Wer heute einen Chatbot mit Kundenkontakt betreibt, muss sowohl die Kennzeichnungsanforderungen aus Artikel 50 KI-VO als auch die Informationspflichten nach Artikel 13 DSGVO im Blick haben.

Hinzu kommt, dass Unternehmen, die KI in sensiblen Bereichen einsetzen – etwa in der Personalauswahl, der Kreditbewertung oder im Gesundheitswesen –, mit einer Hochrisikoeinstufung nach dem EU AI Act rechnen müssen. Ein strukturiertes KI-Inventar, das Risikoklassen frühzeitig identifiziert, ist deshalb nicht nur für den 2. August 2026 relevant, sondern legt die Grundlage für die vollständige Compliance-Architektur der kommenden Jahre.

Was jetzt vorzubereiten ist

Der 2. August 2026 klingt noch weit entfernt. Ist er nicht. Drei Schritte strukturieren die Vorbereitung:

  • Inventur: Welche KI-Systeme werden eingesetzt, die unter Artikel 50 fallen könnten? Chatbots, Bildgeneratoren, Textsysteme – alles muss erfasst werden, einschließlich Tools, die Mitarbeitende eigenständig nutzen. Denn auch hier trägt das Unternehmen die Verantwortung, wenn Ergebnisse öffentlich verwendet werden.
  • Einordnung: Gibt es öffentlichen Nutzerkontakt oder werden Inhalte veröffentlicht? Dann greift die Pflicht. Die zentrale Frage lautet nicht, ob KI eingesetzt wird, sondern ob ihre Ergebnisse nach außen wirken. Diese Einordnung sollte schriftlich festgehalten werden.
  • Umsetzung: Sichtbare Kennzeichnungen einrichten, maschinenlesbare Metadaten implementieren, Mitarbeitende schulen, Dokumentation anpassen. Kennzeichnungspflichten müssen in Workflows, Freigabeprozesse und Content-Richtlinien integriert sein – nicht als Einzelfallentscheidung.
Beitrag aktualisiert am 2. April 2026 – Geprüft durch Datenschutzbeauftragter Jörg ter Beek
Externer KI-Beauftragter

Profitieren Sie von der Expertise unserer TÜV-zertifizierten KI-Experten, die Ihnen als externer KI-Beauftragter zur Seite stehen.

Auf Anfrage
Inhalt dieser Seite
Ihre Vorteile mit Cortina Consult in der KI-Compliance

Wir begleiten Unternehmen dabei, Künstliche Intelligenz rechtssicher, transparent und verantwortungsvoll einzusetzen – digital, praxisnah und zu fixen Konditionen. Ob Risikobewertung nach EU AI-Act oder in der Schulung Ihrer Mitarbeitenden – Wir sorgen dafür, dass der Einsatz von KI-Systemen in Ihrem Unternehmen den regulatorischen Vorgaben entspricht und rechtliche Risiken minimiert werden.

KI-Compliance
Jörg ter Beek
Autor dieses Artikels:
Jörg ter Beek
CEO & Datenschutzbeauftragter bei Cortina Consult
Abstrakte Darstellung von zwei symmetrischen, halbkreisförmigen Formen, die miteinander verbunden sind und Cortina Consult Logo rot mit Schrift

Sie haben Fragen?
– Wir beraten Sie gerne

Jörg ter Beek
Jörg ter Beek
Datenschutzexperte & CEO

Unsere Lösungen