WZ-IT Logo

KI-Souveränität: Warum deutsche Unternehmen ihre Daten nicht an US-KI-Dienste senden sollten

Timo Wevelsiep
Timo Wevelsiep
#KI #DSGVO #Datensouveränität #CLOUD-Act #EU-AI-Act #SelfHosting #LLM #OpenSource #GPU #Datenschutz
KI-Souveränität: Warum deutsche Unternehmen ihre Daten nicht an US-KI-Dienste senden sollten

Im Juli 2025 passierte etwas, das in der Tech-Branche für ungewöhnlich viel Aufmerksamkeit sorgte: Ein Microsoft-Manager gab in einem öffentlichen Statement zu, dass der Konzern die Datensouveränität europäischer Kunden nicht garantieren kann, falls die US-Regierung auf Grundlage des CLOUD Act Zugriff verlangt.

Kein Versprechen, kein Workaround, keine Ausnahme. Einfach: Wir können es nicht garantieren.

Für Unternehmen, die ihre sensibelsten Daten – Kundendaten, Verträge, Patente, interne Kommunikation – durch KI-Systeme von Microsoft, OpenAI oder Google verarbeiten lassen, ist das ein Weckruf. Denn der CLOUD Act ist kein theoretisches Risiko. Er ist geltendes Recht.

Dieser Artikel analysiert, warum KI-Souveränität 2026 keine Nische mehr ist, was die regulatorischen Entwicklungen für den Mittelstand bedeuten – und welche konkreten Alternativen es gibt.

Inhaltsverzeichnis

Die Faktenlage: Was 2025 passiert ist

Das vergangene Jahr hat eine Reihe von Ereignissen produziert, die das Thema Datensouveränität und KI aus der Theorie in die Praxis katapultiert haben.

Microsoft: „Wir können es nicht garantieren"

Im Juli 2025 räumte ein Microsoft-Manager ein, dass das Unternehmen europäischen Kunden keine Garantie für Datensouveränität geben kann, wenn US-Behörden auf Grundlage des CLOUD Act Datenzugriff verlangen. Microsoft hatte zuvor im Februar 2025 die Fertigstellung der „EU Data Boundary" verkündet – einem System, das europäische Kundendaten innerhalb der EU/EFTA speichern soll.

Das Problem: Data Residency ist nicht Data Sovereignty. Die Daten liegen zwar physisch in Europa, unterliegen aber weiterhin der US-Rechtsordnung. Der CLOUD Act gibt US-Behörden die Befugnis, auf Daten von US-Unternehmen zuzugreifen – unabhängig vom physischen Speicherort, und ohne richterliche Prüfung durch ein EU-Gericht.

Italien: 15 Millionen Euro DSGVO-Strafe für OpenAI

Im Dezember 2024 verhängte die italienische Datenschutzbehörde Garante die erste DSGVO-Strafe gegen einen generativen KI-Anbieter: 15 Millionen Euro gegen OpenAI. Die Vorwürfe: keine Rechtsgrundlage für die Verarbeitung von Trainingsdaten, mangelnde Transparenz, kein Altersschutz für Minderjährige und eine nicht gemeldete Datenpanne im März 2023.

Italien war bereits im März 2023 das erste Land, das ChatGPT vorübergehend gesperrt hatte. Die Strafe zeigt: Europäische Behörden sind bereit, durchzugreifen.

DeepSeek: Faktisch verboten in Deutschland

Im Januar 2025 verbot Italien als erstes EU-Land die DeepSeek-App. Kurz darauf leiteten Frankreich, die Niederlande, Belgien, Luxemburg, Irland und Portugal Untersuchungen ein.

Im Juni 2025 forderte Berlins Datenschutzbeauftragte Meike Kamp DeepSeek auf, die App aus deutschen App-Stores zu entfernen. Als das Unternehmen nicht reagierte, meldete sie den Fall unter Artikel 16 des Digital Services Act an Apple und Google – mit der Forderung, die App zu sperren. Ihr Urteil: Die Datenübertragung nach China sei rechtswidrig, da chinesische Behörden „weitreichende Zugriffsrechte auf personenbezogene Daten innerhalb des Einflussbereichs chinesischer Unternehmen" hätten.

Der EU AI Act: Ab August 2026 wird es ernst

Am 2. August 2026 tritt die Mehrheit der Regeln des EU AI Act in Kraft – der weltweit ersten KI-Verordnung. Das betrifft:

  • Hochrisiko-KI-Systeme (Annex III): strenge Pflichten für Dokumentation, Risikobewertung und menschliche Aufsicht
  • Transparenzpflichten (Artikel 50): Nutzer müssen informiert werden, wenn sie mit KI interagieren
  • General-Purpose AI Models: Anbieter wie OpenAI, Anthropic oder Mistral müssen technische Dokumentation und Copyright-Informationen offenlegen

Die Strafen sind erheblich: Bis zu 35 Millionen Euro oder 7 % des globalen Jahresumsatzes – je nachdem, was höher ist.

Für Unternehmen, die US-basierte KI-APIs nutzen, entsteht ein doppeltes Risiko: Sie müssen nicht nur den EU AI Act einhalten, sondern sind gleichzeitig von einem Anbieter abhängig, der dem CLOUD Act unterliegt und dessen Compliance-Versprechen – wie Microsofts Eingeständnis zeigt – begrenzt sind.

Warum „Server in Frankfurt" nicht reicht

Ein häufiges Argument lautet: „Unsere Daten liegen in der AWS Region eu-central-1 in Frankfurt. Das ist doch sicher."

Nein.

CLOUD Act vs. DSGVO: Der Grundkonflikt

Aspekt CLOUD Act (USA) DSGVO (EU)
Geltungsbereich Alle US-Unternehmen, weltweit Alle Unternehmen, die EU-Daten verarbeiten
Zugriffsbefugnis US-Behörden, ohne EU-Gerichtsbeschluss Nur mit Rechtsgrundlage nach EU-Recht
Serverstandort relevant? Nein Ja, aber nicht allein entscheidend
Widerspruchsmöglichkeit Theoretisch ja, praktisch selten Klare Betroffenenrechte

Der Europäische Datenschutzausschuss (EDPB) hat klargestellt: Dienstleister, die dem EU-Recht unterliegen, können Datenübertragungen an die USA nicht allein auf CLOUD-Act-Anfragen stützen. Der CLOUD Act umgeht die Rechtshilfeabkommen (MLATs) und gibt US-Behörden einseitigen Zugriff ohne europäische richterliche Prüfung.

Was das für KI-Inferenz bedeutet

Wenn ein deutsches Unternehmen Verträge, Kundendaten oder interne Dokumente über eine API an GPT-4, Copilot oder Claude sendet, verlassen diese Daten den Kontrollbereich des Unternehmens. Selbst wenn der API-Endpunkt in Europa liegt, hat der Anbieter – ein US-Unternehmen – technischen Zugriff auf die Daten.

Das ist kein theoretisches Risiko. Es ist die juristische Realität.

Was sich gerade bewegt: Die europäische Antwort

Parallel zu den regulatorischen Verschärfungen investiert Europa massiv in eigene KI-Infrastruktur.

Deutsche Telekom: 1-Milliarde-Euro AI Factory

Im Februar 2026 startete die Deutsche Telekom gemeinsam mit NVIDIA die „Industrial AI Cloud" – über 1.000 NVIDIA DGX B200 Systeme mit bis zu 10.000 Blackwell-GPUs in einem Münchner Rechenzentrum. Erste Kunden: Mercedes-Benz, BMW Group und Siemens. Die Daten bleiben in Deutschland.

Schwarz Digits: Vom Supermarkt zum Hyperscaler

Die IT-Tochter der Schwarz-Gruppe (Lidl, Kaufland) baut STACKIT zum deutschen Hyperscaler aus – mit einer 11-Milliarden-Euro-Investition in ein neues Rechenzentrum in Lübbenau. Das BSI kooperiert seit März 2025 mit Schwarz Digits für souveräne Cloud-Lösungen in der Verwaltung.

Mistral AI: Europas KI-Infrastruktur

Das französische KI-Unternehmen Mistral AI – nach einer Series C mit einer Bewertung von 11,7 Milliarden Euro – plant für 2026 die „Mistral Compute"-Plattform: 18.000 NVIDIA Grace Blackwell Chips, betrieben mit europäischer Energie.

Die Zahlen sprechen für sich

Kennzahl Wert
Marktanteil US-Clouds in Europa 70 %
Marktanteil europäischer Clouds 15 %
Europäischer Sovereign Cloud Markt (2025) 56,27 Mrd. USD
Geplantes Wachstum (CAGR bis 2033) 24,7 %
Unternehmen mit Sovereign-Cloud-Plänen 84 %
Gaia-X Implementierungsprojekte 150+

Die Alternative: KI-Inferenz auf eigener Infrastruktur

Für Unternehmen, die nicht auf Milliardeninvestitionen warten wollen, gibt es eine praktische Alternative: Self-Hosted KI-Inferenz.

Was heute möglich ist

Aktuelle Open-Source-Modelle erreichen bei vielen Unternehmensaufgaben eine Qualität, die mit proprietären APIs vergleichbar ist:

Modell Parameter VRAM-Bedarf Stärke
Llama 3.3 70B 70 Mrd. ~42 GB Allround, Code, Reasoning
Mistral Large 123B 123 Mrd. ~75 GB Mehrsprachig, Enterprise
Qwen 2.5 72B 72 Mrd. ~45 GB Coding, Mathematik
DeepSeek-R1 (distilled) 70 Mrd. ~42 GB Reasoning, Analyse
Phi-4 14B 14 Mrd. ~10 GB Kompakt, effizient

All diese Modelle laufen auf einem einzelnen Server mit einer NVIDIA RTX 6000 Blackwell (96 GB VRAM) – ohne Offloading, ohne Cloud, ohne Datenabfluss.

Der Stack: Vier Komponenten, volle Kontrolle

Ein produktionsreifer Self-Hosted-KI-Stack besteht aus:

  1. Hardware: Dedizierter GPU-Server mit NVIDIA RTX 6000 (96 GB VRAM), in einem deutschen Rechenzentrum
  2. Inference Engine: Ollama für einfache Deployments oder vLLM für High-Throughput-Szenarien
  3. Frontend: Open WebUI als ChatGPT-ähnliche Oberfläche mit Benutzerverwaltung, RAG und Dokumentenanalyse
  4. Netzwerk: VPN-Tunnel (z.B. NetBird) für sicheren Zugriff – keine öffentlichen Endpunkte

Kostenvergleich: Self-Hosted vs. Cloud-API

Kostenfaktor Cloud-API (GPT-4) Self-Hosted (Managed GPU)
Monatliche Kosten (20 Nutzer) 5.000 – 20.000 € 1.549,90 €
Datenverarbeitung US-Server (CLOUD Act) DE-Rechenzentrum
DSGVO-Konformität Eingeschränkt Vollständig
Vendor Lock-In Hoch (API-Abhängigkeit) Keiner (Open Source)
Modellwechsel Anbieterwechsel nötig Modell austauschen per CLI
Skalierung Linear mit Token-Verbrauch Flat Rate

Was Unternehmen jetzt tun sollten

Die regulatorische Entwicklung ist klar: Der EU AI Act verschärft die Anforderungen ab August 2026, der CLOUD Act bleibt bestehen, und europäische Behörden greifen zunehmend durch. Wer jetzt handelt, hat einen Vorsprung.

Fünf konkrete Schritte

  1. KI-Inventar erstellen: Welche KI-Tools werden im Unternehmen eingesetzt? Welche Daten fließen wohin? Viele Unternehmen haben keinen Überblick über die tatsächliche KI-Nutzung ihrer Mitarbeiter.

  2. Risikobewertung durchführen: Für jedes KI-Tool prüfen: Wer ist der Anbieter? Welchem Recht unterliegt er? Wo werden Daten verarbeitet? Gibt es eine Auftragsverarbeitungsvereinbarung (AVV)?

  3. Pilotprojekt starten: Einen Self-Hosted-KI-Server für ein konkretes Anwendungsszenario aufsetzen – z.B. interne Dokumentenanalyse, Code-Assistenz oder Kundenservice-Entwürfe.

  4. EU AI Act Compliance vorbereiten: Insbesondere für Hochrisiko-Anwendungen die Dokumentations- und Transparenzpflichten prüfen. Der Stichtag 2. August 2026 kommt schneller als gedacht.

  5. Lieferantenstrategie überdenken: Langfristige Verträge mit US-Cloud-KI-Anbietern auf CLOUD-Act-Klauseln prüfen. Gibt es Exit-Strategien? Sind die Daten exportierbar?

Fazit: Kontrolle ist kein Luxus

KI-Souveränität ist kein Buzzword und kein Marketing-Begriff. Es ist die konsequente Anwendung eines Prinzips, das in der IT-Sicherheit seit Jahrzehnten gilt: Wer die Infrastruktur kontrolliert, kontrolliert die Daten.

Die Fakten von 2025 haben das unmissverständlich gezeigt:

  • Microsoft kann Datensouveränität nicht garantieren
  • OpenAI wurde mit 15 Millionen Euro bestraft
  • DeepSeek ist in Deutschland faktisch verboten
  • Der EU AI Act wird ab August 2026 durchgesetzt

Unternehmen, die heute auf Self-Hosted KI-Infrastruktur setzen, haben keinen Nachteil bei der Modellqualität – aber einen entscheidenden Vorteil bei Compliance, Kosten und Kontrolle.


Weiterführende Inhalte


Quellenverzeichnis

Häufig gestellte Fragen

Antworten auf wichtige Fragen zu diesem Thema

KI-Souveränität bedeutet, dass ein Unternehmen die volle Kontrolle über seine KI-Modelle, Trainingsdaten und Inferenz-Infrastruktur behält – ohne Abhängigkeit von US-Cloud-Anbietern oder chinesischen Plattformen, die fremdem Recht unterliegen.

Der US CLOUD Act erlaubt US-Behörden, auf Daten von US-Unternehmen zuzugreifen – unabhängig davon, wo die Daten physisch gespeichert sind. Das betrifft alle AWS-, Azure- und Google-Cloud-Kunden, auch wenn die Server in Frankfurt stehen.

Ein dedizierter GPU-Server mit 96 GB VRAM für lokale LLM-Inferenz kostet ca. 1.500 €/Monat als Managed Service. Bei Cloud-APIs wie GPT-4 zahlen Unternehmen oft 5.000-20.000 €/Monat allein an Token-Kosten – ohne Kontrolle über die Daten.

Mit 96 GB VRAM laufen Modelle wie Llama 3.3 70B, Mistral Large 123B, DeepSeek-R1 (distilled) oder Qwen 2.5 72B problemlos auf einer einzelnen GPU. Für kleinere Modelle wie Phi-4 oder Gemma 2 reichen bereits 20 GB VRAM.

Ja – wenn die Infrastruktur in einem deutschen Rechenzentrum steht und keine Daten an Dritte übermittelt werden. Da bei lokaler Inferenz keine personenbezogenen Daten das System verlassen, entfallen die meisten DSGVO-Transferprobleme.

Der EU AI Act ist die weltweit erste KI-Verordnung. Die Hauptregeln – darunter Pflichten für Hochrisiko-KI-Systeme und Transparenzanforderungen – gelten ab dem 2. August 2026. Verstöße können mit Strafen von bis zu 35 Mio. Euro oder 7 % des globalen Umsatzes geahndet werden.

Timo Wevelsiep

Geschrieben von

Timo Wevelsiep

Co-Founder & CEO

Co-Founder von WZ-IT. Spezialisiert auf Cloud-Infrastruktur, Open-Source-Plattformen und Managed Services für KMUs und Enterprise-Kunden weltweit.

LinkedIn

Lassen Sie uns über Ihre Idee sprechen

Ob konkrete IT-Herausforderung oder einfach eine Idee – wir freuen uns auf den Austausch. In einem kurzen Gespräch prüfen wir gemeinsam, ob und wie Ihr Projekt zu WZ-IT passt.

Vertraut von führenden Unternehmen

  • Rekorder
  • Keymate
  • Führerscheinmacher
  • SolidProof
  • ARGE
  • Boese VA
  • NextGym
  • Maho Management
  • Golem.de
  • Millenium
  • Paritel
  • Yonju
  • EVADXB
  • Mr. Clipart
  • Aphy
  • Negosh
Timo Wevelsiep & Robin Zins - CEOs of WZ-IT

Timo Wevelsiep & Robin Zins

Geschäftsführer

1/3 – Themenauswahl33%

Worum geht es bei Ihrer Anfrage?

Wählen Sie einen oder mehrere Bereiche, bei denen wir Sie unterstützen dürfen.