Drei Produktvarianten, drei Risikoprofile — die Produktentscheidung ist die halbe Compliance-Arbeit. AVV, Drittlandtransfer, Haftung: Was das für Ihr Unternehmen bedeutet, hängt vom gewählten Plan ab. Ein KI-Beauftragter hilft bei der Einordnung bevor es zum Problem wird.
KI-Assistenten gehören inzwischen zur Standardausstattung vieler Büros. Anthropics Claude ist dabei ein Name, dem Compliance-Verantwortliche zunehmend begegnen — in Projekten, auf Rechnern der Mitarbeiter, manchmal auch ungefragt. Höchste Zeit, die drei wesentlichen Einsatzszenarien klarer einzuordnen: den klassischen Chat-Assistenten, die agentische Desktopanwendung Cowork und das entwicklerorientierte Claude Code.
Das Wichtigste vorweg: Die datenschutzrechtliche Bewertung hängt nicht davon ab, wie klug das Modell antwortet — sondern welchen Produktplan Ihr Unternehmen nutzt. Consumer-Pläne (Free, Pro, Max) sowie der Team-Plan scheiden für den betrieblichen Einsatz mit Personenbezug aus, weil kein Auftragsverarbeitungsvertrag (AVV) abgeschlossen werden kann.
Sie sehen gerade einen Platzhalterinhalt von YouTube. Um auf den eigentlichen Inhalt zuzugreifen, klicken Sie auf die Schaltfläche unten. Bitte beachten Sie, dass dabei Daten an Drittanbieter weitergegeben werden.
Mehr InformationenAnthropic agiert je nach gewähltem Plan entweder als datenschutzrechtlich Verantwortlicher oder als Auftragsverarbeiter. Nur im zweiten Fall lässt sich eine DSGVO-konforme Verarbeitungsstruktur aufbauen.
Plan | Rolle Anthropic | AVV | Modelltraining | Datenspeicherung |
|---|---|---|---|---|
Free / Pro / Max | Verantwortlicher | Nein | Opt-out erforderlich | bis zu 5 Jahre |
Team | Verantwortlicher | Nein | Opt-out erforderlich | bis zu 5 Jahre |
Claude for Work (Enterprise) | Auftragsverarbeiter | Ja (automatisch) | Kein Training | 30 Tage |
API (Bedrock, Vertex AI) | Auftragsverarbeiter | Ja | Kein Training | 30 Tage |
Anthropic ist ein US-Unternehmen. Alle Anfragen über claude.ai und den Claude Desktop werden ausschließlich auf US-Servern verarbeitet. Eine EU-Datenresidenz steht für diese Produkte bislang nicht zur Verfügung – anders als für API-Zugriffe über AWS Bedrock Frankfurt oder Google Vertex AI Frankfurt.
Der Transfer in die USA stützt sich auf Standardvertragsklauseln (SCCs) nach Art. 46 DSGVO. Relevant ist dabei: Anthropic ist nicht unter dem EU-U.S. Data Privacy Framework (DPF) zertifiziert. Außerdem greift der US CLOUD Act – der physische Serverstandort allein bietet also keinen vollständigen Schutz. Diese Konstellation muss im Verarbeitungsverzeichnis und in der Risikoeinschätzung dokumentiert werden.
Im Chat-Modus ist das Risiko beherrschbar, solange keine personenbezogenen Daten eingegeben werden. Die Grundregel bleibt simpel: Namen, Kundendaten, Vertrags- oder Mitarbeiterinformationen dürfen ohne AVV und ohne Rechtsgrundlage nach Art. 6 DSGVO nicht verarbeitet werden.
Besondere Aufmerksamkeit verdient folgendes: Im August 2025 änderte Anthropic seine Nutzungsbedingungen so, dass Consumer-Pläne standardmäßig für das Modelltraining genutzt werden – ein aktives Opt-out war bis zum 28. September 2025 erforderlich. Datenschutzrechtlich wurde diese Gestaltung als Dark Pattern eingestuft.
Cowork repräsentiert eine qualitativ andere Gefährdungslage. Da der Agent direkten Zugriff auf lokale Dateisysteme, den Browser und externe Dienste (Notion, Slack, Canva) erhält, entstehen Angriffsvektoren, die weit über klassische Chatbot-Risiken hinausgehen.
Dokumentierte Sicherheitslücke: Nur zwei Tage nach Launch wiesen Sicherheitsforscher von PromptArmor nach, dass Cowork über versteckte Anweisungen in Dokumenten (z. B. weißer Text auf weißem Hintergrund) dazu gebracht werden kann, vertrauliche Dateien ohne Nutzerfreigabe auf externe Server zu übertragen. Anthropic bestätigte die Schwachstelle. Zum Zeitpunkt der Veröffentlichung war sie nicht gepatcht.
Fazit für GRC-Verantwortliche: Cowork darf im produktiven Unternehmensbetrieb derzeit nicht an Verzeichnisse mit sensiblen Daten angebunden werden. Testbetrieb ist ausschließlich mit anonymisierten oder synthetischen Daten vertretbar.
Claude Code verarbeitet typischerweise Quellcode, Repositories und Konfigurationsdateien – damit potenziell auch API-Keys, Zugangsdaten und interne Geschäftslogik. Anthropic hat zwar DLP-Mechanismen, Echtzeit-Scans und rollenbasierte Zugriffskontrollen eingeführt, aber Prompt Injections über manipulierte externe Libraries bleiben ein ungelöstes Restrisiko.
Wer Claude Code für Software einsetzt, die selbst als Hochrisiko-KI nach EU AI Act eingestuft ist (z. B. Medizintechnik, HR-Screening), erhält erhöhte Dokumentationspflichten nach Art. 6 AI Act.
Pflicht | Rechtsgrundlage | Priorität |
|---|---|---|
Produktplan prüfen: Enterprise/API statt Consumer | Art. 28 DSGVO | Sofort |
AVV mit Anthropic abschließen | Art. 28 DSGVO | Sofort |
Verarbeitungsverzeichnis aktualisieren | Art. 30 DSGVO | Sofort |
Drittlandtransfer dokumentieren (SCCs prüfen) | Art. 46 DSGVO | Sofort |
Cowork/Code: Datenzugriff beschränken | TOMs, Art. 32 DSGVO | Sofort |
DSFA bei umfangreichem Einsatz mit Personendaten | Art. 35 DSGVO | Kurzfristig |
Nutzungsrichtlinie erstellen (verbotene Datenkategorien) | TOMs, Art. 32 DSGVO | Kurzfristig |
Mitarbeiter schulen: Was darf eingegeben werden? | Art. 32 DSGVO | Kurzfristig |
Datenschutzerklärung anpassen | Art. 13/14 DSGVO | Kurzfristig |
KI-Inventar anlegen (EU AI Act, Risikoklassifizierung) | EU AI Act (ab 08/2026) | Mittelfristig |
Als Betreiber (Deployer) von Claude gilt: Generative KI-Assistenten fallen grundsätzlich in die Kategorie geringes bis minimales Risiko und sind als GPAI (General Purpose AI) einzustufen. Eine Hochrisikoeinstufung greift erst, wenn Claude in Bereichen wie Personalauswahl, Kreditbewertung, Gesundheitswesen oder kritischer Infrastruktur eingesetzt wird.
Der EU AI Act ist ab dem 2. August 2026 vollständig anwendbar. Unternehmen sollten jetzt ein KI-Inventar aufbauen, um Risikoklassen frühzeitig zu bestimmen und Dokumentationspflichten nicht unter Zeitdruck erfüllen zu müssen.
Die Nutzung von Claude ist DSGVO-konform möglich — aber nur, wenn die richtigen Produktentscheidungen getroffen und die rechtlichen Grundlagen gesichert sind. Wer heute die Weichen falsch stellt, kauft sich ein Compliance-Problem auf Raten.
Profitieren Sie von der Expertise unserer TÜV-zertifizierten KI-Experten, die Ihnen als externer KI-Beauftragter zur Seite stehen.
Wir begleiten Unternehmen dabei, Künstliche Intelligenz rechtssicher, transparent und verantwortungsvoll einzusetzen – digital, praxisnah und zu fixen Konditionen. Ob Risikobewertung nach EU AI-Act oder in der Schulung Ihrer Mitarbeitenden – Wir sorgen dafür, dass der Einsatz von KI-Systemen in Ihrem Unternehmen den regulatorischen Vorgaben entspricht und rechtliche Risiken minimiert werden.
Sie sehen gerade einen Platzhalterinhalt von YouTube. Um auf den eigentlichen Inhalt zuzugreifen, klicken Sie auf die Schaltfläche unten. Bitte beachten Sie, dass dabei Daten an Drittanbieter weitergegeben werden.
Mehr InformationenSie sehen gerade einen Platzhalterinhalt von HubSpot. Um auf den eigentlichen Inhalt zuzugreifen, klicken Sie auf die Schaltfläche unten. Bitte beachten Sie, dass dabei Daten an Drittanbieter weitergegeben werden.
Mehr InformationenSie sehen gerade einen Platzhalterinhalt von Hubspot Meetings. Um auf den eigentlichen Inhalt zuzugreifen, klicken Sie auf die Schaltfläche unten. Bitte beachten Sie, dass dabei Daten an Drittanbieter weitergegeben werden.
Mehr Informationen