Claude Datenschutz in Unternehmen
KI-Compliance

Claude im Unternehmen

Drei Produktvarianten, drei Risikoprofile — die Produktentscheidung ist die halbe Compliance-Arbeit. AVV, Drittlandtransfer, Haftung: Was das für Ihr Unternehmen bedeutet, hängt vom gewählten Plan ab. Ein KI-Beauftragter hilft bei der Einordnung bevor es zum Problem wird.

„Rote Linienillustration zum Thema KI und Datenschutz mit dem Claude-Logo in der Mitte, umgeben von Symbolen wie Schloss, Schild, Waage, Ausweis und Dokumenten, die Sicherheit, Regulierung und Datenverarbeitung darstellen

Was Verantwortliche zur DSGVO und zum EU AI Act wissen müssen

KI-Assistenten gehören inzwischen zur Standardausstattung vieler Büros. Anthropics Claude ist dabei ein Name, dem Compliance-Verantwortliche zunehmend begegnen — in Projekten, auf Rechnern der Mitarbeiter, manchmal auch ungefragt. Höchste Zeit, die drei wesentlichen Einsatzszenarien klarer einzuordnen: den klassischen Chat-Assistenten, die agentische Desktopanwendung Cowork und das entwicklerorientierte Claude Code.

Das Wichtigste vorweg: Die datenschutzrechtliche Bewertung hängt nicht davon ab, wie klug das Modell antwortet — sondern welchen Produktplan Ihr Unternehmen nutzt. Consumer-Pläne (Free, Pro, Max) sowie der Team-Plan scheiden für den betrieblichen Einsatz mit Personenbezug aus, weil kein Auftragsverarbeitungsvertrag (AVV) abgeschlossen werden kann.

Sie sehen gerade einen Platzhalterinhalt von YouTube. Um auf den eigentlichen Inhalt zuzugreifen, klicken Sie auf die Schaltfläche unten. Bitte beachten Sie, dass dabei Daten an Drittanbieter weitergegeben werden.

Mehr Informationen

Produktplan bestimmt die Rechtsgrundlage

Anthropic agiert je nach gewähltem Plan entweder als datenschutzrechtlich Verantwortlicher oder als Auftragsverarbeiter. Nur im zweiten Fall lässt sich eine DSGVO-konforme Verarbeitungsstruktur aufbauen.

Plan
Rolle Anthropic
AVV
Modelltraining
Datenspeicherung
Free / Pro / Max
Verantwortlicher
Nein
Opt-out erforderlich
bis zu 5 Jahre
Team
Verantwortlicher
Nein
Opt-out erforderlich
bis zu 5 Jahre
Claude for Work (Enterprise)
Auftragsverarbeiter
Ja (automatisch)
Kein Training
30 Tage
API (Bedrock, Vertex AI)
Auftragsverarbeiter
Ja
Kein Training
30 Tage

Drittlandtransfer: Das strukturelle Restrisiko

Anthropic ist ein US-Unternehmen. Alle Anfragen über claude.ai und den Claude Desktop werden ausschließlich auf US-Servern verarbeitet. Eine EU-Datenresidenz steht für diese Produkte bislang nicht zur Verfügung – anders als für API-Zugriffe über AWS Bedrock Frankfurt oder Google Vertex AI Frankfurt.

Der Transfer in die USA stützt sich auf Standardvertragsklauseln (SCCs) nach Art. 46 DSGVO. Relevant ist dabei: Anthropic ist nicht unter dem EU-U.S. Data Privacy Framework (DPF) zertifiziert. Außerdem greift der US CLOUD Act – der physische Serverstandort allein bietet also keinen vollständigen Schutz. Diese Konstellation muss im Verarbeitungsverzeichnis und in der Risikoeinschätzung dokumentiert werden.

Drei Tools – drei Risikoprofile

Claude Chat

Im Chat-Modus ist das Risiko beherrschbar, solange keine personenbezogenen Daten eingegeben werden. Die Grundregel bleibt simpel: Namen, Kundendaten, Vertrags- oder Mitarbeiterinformationen dürfen ohne AVV und ohne Rechtsgrundlage nach Art. 6 DSGVO nicht verarbeitet werden.

Besondere Aufmerksamkeit verdient folgendes: Im August 2025 änderte Anthropic seine Nutzungsbedingungen so, dass Consumer-Pläne standardmäßig für das Modelltraining genutzt werden – ein aktives Opt-out war bis zum 28. September 2025 erforderlich. Datenschutzrechtlich wurde diese Gestaltung als Dark Pattern eingestuft.

Claude Cowork – agentische KI als neue Risikoklasse

Cowork repräsentiert eine qualitativ andere Gefährdungslage. Da der Agent direkten Zugriff auf lokale Dateisysteme, den Browser und externe Dienste (Notion, Slack, Canva) erhält, entstehen Angriffsvektoren, die weit über klassische Chatbot-Risiken hinausgehen.

Dokumentierte Sicherheitslücke: Nur zwei Tage nach Launch wiesen Sicherheitsforscher von PromptArmor nach, dass Cowork über versteckte Anweisungen in Dokumenten (z. B. weißer Text auf weißem Hintergrund) dazu gebracht werden kann, vertrauliche Dateien ohne Nutzerfreigabe auf externe Server zu übertragen. Anthropic bestätigte die Schwachstelle. Zum Zeitpunkt der Veröffentlichung war sie nicht gepatcht.

Fazit für GRC-Verantwortliche: Cowork darf im produktiven Unternehmensbetrieb derzeit nicht an Verzeichnisse mit sensiblen Daten angebunden werden. Testbetrieb ist ausschließlich mit anonymisierten oder synthetischen Daten vertretbar.

Claude Code

Claude Code verarbeitet typischerweise Quellcode, Repositories und Konfigurationsdateien – damit potenziell auch API-Keys, Zugangsdaten und interne Geschäftslogik. Anthropic hat zwar DLP-Mechanismen, Echtzeit-Scans und rollenbasierte Zugriffskontrollen eingeführt, aber Prompt Injections über manipulierte externe Libraries bleiben ein ungelöstes Restrisiko.

Wer Claude Code für Software einsetzt, die selbst als Hochrisiko-KI nach EU AI Act eingestuft ist (z. B. Medizintechnik, HR-Screening), erhält erhöhte Dokumentationspflichten nach Art. 6 AI Act.

Handlungspflichten auf einen Blick

Pflicht
Rechtsgrundlage
Priorität
Produktplan prüfen: Enterprise/API statt Consumer
Art. 28 DSGVO
Sofort
AVV mit Anthropic abschließen
Art. 28 DSGVO
Sofort
Verarbeitungsverzeichnis aktualisieren
Art. 30 DSGVO
Sofort
Drittlandtransfer dokumentieren (SCCs prüfen)
Art. 46 DSGVO
Sofort
Cowork/Code: Datenzugriff beschränken
TOMs, Art. 32 DSGVO
Sofort
DSFA bei umfangreichem Einsatz mit Personendaten
Art. 35 DSGVO
Kurzfristig
Nutzungsrichtlinie erstellen (verbotene Datenkategorien)
TOMs, Art. 32 DSGVO
Kurzfristig
Mitarbeiter schulen: Was darf eingegeben werden?
Art. 32 DSGVO
Kurzfristig
Datenschutzerklärung anpassen
Art. 13/14 DSGVO
Kurzfristig
KI-Inventar anlegen (EU AI Act, Risikoklassifizierung)
EU AI Act (ab 08/2026)
Mittelfristig

Einordnung nach EU AI Act

Als Betreiber (Deployer) von Claude gilt: Generative KI-Assistenten fallen grundsätzlich in die Kategorie geringes bis minimales Risiko und sind als GPAI (General Purpose AI) einzustufen. Eine Hochrisikoeinstufung greift erst, wenn Claude in Bereichen wie Personalauswahl, Kreditbewertung, Gesundheitswesen oder kritischer Infrastruktur eingesetzt wird.

Der EU AI Act ist ab dem 2. August 2026 vollständig anwendbar. Unternehmen sollten jetzt ein KI-Inventar aufbauen, um Risikoklassen frühzeitig zu bestimmen und Dokumentationspflichten nicht unter Zeitdruck erfüllen zu müssen.

Strategische Empfehlung: vier Schritte

  1. Sofort: Consumer-Pläne im Unternehmenseinsatz beenden. Wechsel auf Claude for Work (Enterprise) oder API-Zugang über AWS Bedrock Frankfurt. AVV abschließen, Verarbeitungsverzeichnis aktualisieren.
  2. Kurzfristig: Governance-Rahmen schaffen. Schriftliche Nutzungsrichtlinie mit definierten Datenkategorienverboten. DSFA bei riskantem Einsatz. Mitarbeiterschulung zu erlaubten Eingaben.
  3. Agentische Tools: derzeit nicht für Produktivdaten. Cowork ist im produktiven Betrieb mit Unternehmensdaten nicht empfehlenswert — bis Anthropic die Prompt-Injection-Schwachstellen strukturell adressiert hat. Testbetrieb nur mit anonymisierten Daten.
  4. Mittelfristig: EU AI Act-Vorbereitung. KI-Inventar anlegen, Risikoklassifizierung vornehmen, Hochrisiko-Szenarien dokumentieren. Frist: 2. August 2026.

Die Nutzung von Claude ist DSGVO-konform möglich — aber nur, wenn die richtigen Produktentscheidungen getroffen und die rechtlichen Grundlagen gesichert sind. Wer heute die Weichen falsch stellt, kauft sich ein Compliance-Problem auf Raten.

Beitrag aktualisiert am 2. April 2026 – Geprüft durch Datenschutzbeauftragter Jörg ter Beek
Externer KI-Beauftragter

Profitieren Sie von der Expertise unserer TÜV-zertifizierten KI-Experten, die Ihnen als externer KI-Beauftragter zur Seite stehen.

Auf Anfrage
Inhalt dieser Seite
Ihre Vorteile mit Cortina Consult in der KI-Compliance

Wir begleiten Unternehmen dabei, Künstliche Intelligenz rechtssicher, transparent und verantwortungsvoll einzusetzen – digital, praxisnah und zu fixen Konditionen. Ob Risikobewertung nach EU AI-Act oder in der Schulung Ihrer Mitarbeitenden – Wir sorgen dafür, dass der Einsatz von KI-Systemen in Ihrem Unternehmen den regulatorischen Vorgaben entspricht und rechtliche Risiken minimiert werden.

KI-Compliance
Jörg ter Beek
Autor dieses Artikels:
Jörg ter Beek
CEO & Datenschutzbeauftragter bei Cortina Consult
Abstrakte Darstellung von zwei symmetrischen, halbkreisförmigen Formen, die miteinander verbunden sind und Cortina Consult Logo rot mit Schrift

Sie haben Fragen?
– Wir beraten Sie gerne

Jörg ter Beek
Jörg ter Beek
Datenschutzexperte & CEO

Unsere Lösungen