EU AI Act ab August 2026: Was Unternehmen mit Hochrisiko-KI jetzt tun müssen

Hinweis zum Inhalt: Die Informationen in diesem Artikel wurden nach bestem Wissen zum Zeitpunkt der Veröffentlichung zusammengestellt. Technische Details, Preise, Versionen, Lizenzmodelle und externe Inhalte können sich ändern. Bitte prüfen Sie die genannten Angaben eigenständig, insbesondere vor geschäftskritischen oder sicherheitsrelevanten Entscheidungen. Dieser Artikel ersetzt keine individuelle Fach-, Rechts- oder Steuerberatung.

KI-Compliance mit eigener Infrastruktur — WZ-IT betreibt GPU-Server und AI Cubes in deutschen Rechenzentren: DSGVO-konform, audit-fähig, EU AI Act ready. Jetzt kostenlosen Termin vereinbaren
Am 2. August 2026 werden die Anforderungen des EU AI Act für Hochrisiko-KI-Systeme durchsetzbar. Gleichzeitig hat das EU-Parlament im April 2026 dafür gestimmt, die Frist für bestimmte Systeme möglicherweise auf August 2027 zu verschieben. Die politische Unsicherheit ist real — aber die regulatorischen Pflichten verschwinden nicht.
Dieser Guide analysiert den aktuellen Stand, erklärt die konkreten Anforderungen und liefert eine Checkliste, mit der Unternehmen sich vorbereiten — unabhängig davon, ob die Deadline hält oder verschoben wird.
Inhaltsverzeichnis
- Zeitplan: Was wann gilt
- Die Verschiebungsdebatte
- Was ist ein Hochrisiko-KI-System?
- Die sieben Pflichten fuer Hochrisiko-KI
- Strafen und Durchsetzung
- Praktische Checkliste fuer Unternehmen
- On-Premise-KI als Compliance-Vorteil
- Unser Vorgehen bei WZ-IT
- Weiterfuehrende Guides
Zeitplan: Was wann gilt
Der EU AI Act trat am 1. August 2024 in Kraft. Die Umsetzung erfolgt gestaffelt:
| Datum | Was gilt |
|---|---|
| 2. Februar 2025 | Verbot von KI-Systemen mit unannehmbarem Risiko (Social Scoring, Emotionserkennung am Arbeitsplatz, prädiktive Polizeiarbeit) |
| 2. August 2025 | Pflichten für General-Purpose AI (GPAI) Modelle, Governance-Strukturen, Notifizierung von Konformitätsbewertungsstellen |
| 2. August 2026 | Anforderungen für Hochrisiko-KI-Systeme nach Anhang III, Transparenzpflichten, CE-Kennzeichnung, EU-Datenbank-Registrierung |
| 2. August 2027 | Hochrisiko-KI als Sicherheitskomponente in regulierten Produkten (Medizinprodukte, Maschinen, Fahrzeuge) |
Der Stichtag im August 2026 betrifft den Großteil der Unternehmen, die KI operativ einsetzen: HR-Tools, Kreditprüfungen, Bewerberauswahl, Kundenscoring, Zugangskontrollsysteme.
Die Verschiebungsdebatte
Im April 2026 stimmte das EU-Parlament im Industrieausschuss (ITRE) für einen Vorschlag, die Durchsetzung der Hochrisiko-Anforderungen um ein Jahr auf August 2027 zu verschieben. Die Begründung: Viele Unternehmen — insbesondere KMU — seien nicht bereit, die notwendigen harmonisierten Normen lägen noch nicht vollständig vor, und eine verfrühte Durchsetzung ohne klare Standards schaffe Rechtsunsicherheit.
Was das bedeutet:
- Die Verschiebung betrifft nur Anhang-III-Hochrisiko-Systeme (Standalone-KI)
- Verbotene KI-Praktiken (seit Februar 2025) und GPAI-Pflichten (seit August 2025) bleiben unverändert
- Der Rat der EU muss dem Vorschlag noch zustimmen — eine finale Entscheidung wird für Q3 2026 erwartet
- Selbst bei Verschiebung: Die Pflichten selbst ändern sich nicht, nur der Zeitpunkt der Durchsetzung
Für Unternehmen bedeutet das: Nicht abwarten. Wer die Compliance-Arbeit auf eine mögliche Verschiebung verschiebt, riskiert, bei einem Nein des Rats unvorbereitet dazustehen.
Was ist ein Hochrisiko-KI-System?
Anhang III des EU AI Act definiert acht Kategorien von Hochrisiko-KI-Systemen:
- Biometrische Identifizierung und Kategorisierung — Gesichtserkennung, Emotionserkennung (soweit nicht verboten)
- Kritische Infrastruktur — KI-Steuerung von Strom-, Wasser-, Gas- und Verkehrsnetzen
- Bildung und Berufsausbildung — Prüfungsbewertung, Zugangssteuerung zu Bildungseinrichtungen
- Beschäftigung und Personalmanagement — Bewerber-Screening, KI-gestützte Leistungsbewertung, Kündigungsentscheidungen
- Zugang zu wesentlichen Dienstleistungen — Kreditwürdigkeitsprüfung, Versicherungsbewertung, Sozialleistungsentscheidungen
- Strafverfolgung — Risikobewertung, Lügendetektion, prädiktive Analytik
- Migration, Asyl und Grenzkontrolle — Risikobewertung bei Einreise, Dokumentenprüfung
- Rechtspflege und demokratische Prozesse — KI-gestützte Gerichtsentscheidungen, Wahlbeeinflussung
Wichtig: Es kommt nicht darauf an, ob das System als „KI" vermarktet wird. Entscheidend ist, ob es ein KI-System im Sinne der Verordnung ist und in einem dieser Bereiche eingesetzt wird. Ein Machine-Learning-Modell, das Bewerbungen vorselektiert, ist Hochrisiko — unabhängig davon, ob der Hersteller es „intelligente Filterung" nennt.
Sonderfall: Sicherheitskomponenten in Produkten
KI-Systeme, die als Sicherheitskomponente in regulierten Produkten eingesetzt werden (Medizinprodukte nach MDR, Maschinen nach Maschinenverordnung, Fahrzeuge), unterliegen ebenfalls der Hochrisiko-Klassifizierung. Für diese gilt die längere Frist bis August 2027, da sie an bestehende EU-Produktgesetzgebung gekoppelt sind.
Die sieben Pflichten fuer Hochrisiko-KI
Wer ein Hochrisiko-KI-System betreibt oder in Verkehr bringt, muss sieben Kernpflichten erfüllen:
1. Risikomanagement-System (Artikel 9)
Ein kontinuierliches, dokumentiertes Risikomanagement über den gesamten Lebenszyklus des KI-Systems:
- Identifizierung und Analyse bekannter und vorhersehbarer Risiken
- Bewertung der Risiken bei bestimmungsgemäßer Nutzung und vorhersehbarer Fehlanwendung
- Maßnahmen zur Risikominderung
- Regelmäßige Überprüfung und Aktualisierung
2. Daten-Governance (Artikel 10)
Training, Validierung und Test müssen auf Datensätzen basieren, die:
- Relevanz, Repräsentativität und Fehlerfreiheit gewährleisten
- Bias-Prüfungen durchlaufen haben
- Dokumentiert und rückverfolgbar sind
- Besondere Kategorien personenbezogener Daten nur unter strengen Bedingungen enthalten
3. Technische Dokumentation (Artikel 11)
Vor dem Inverkehrbringen muss eine umfassende technische Dokumentation erstellt werden:
- Allgemeine Beschreibung des Systems und seines Zwecks
- Detaillierte Beschreibung der Entwicklungsmethodik
- Informationen zu Trainingsdaten und deren Aufbereitung
- Leistungskennzahlen und deren Messmethodik
- Beschreibung der Risikomanagement-Maßnahmen
4. Aufzeichnungspflichten / Logging (Artikel 12)
Hochrisiko-KI-Systeme müssen automatische Aufzeichnungen (Logs) generieren:
- Start- und Endzeitpunkt jeder Nutzung
- Referenzdatenbank, gegen die Input geprüft wurde
- Eingabedaten, die zu einer Übereinstimmung geführt haben
- Identifizierung der an der menschlichen Aufsicht beteiligten Personen
Die Logs müssen für einen Zeitraum aufbewahrt werden, der dem Verwendungszweck angemessen ist — mindestens sechs Monate.
5. Transparenz (Artikel 13)
Nutzer müssen angemessen informiert werden:
- Über die Fähigkeiten und Grenzen des Systems
- Über den Grad der Genauigkeit und bekannte Fehlerquellen
- Über die Umstände, unter denen Risiken entstehen können
- Über Maßnahmen zur menschlichen Aufsicht
6. Menschliche Aufsicht (Artikel 14)
Hochrisiko-KI-Systeme müssen so konzipiert sein, dass sie von Menschen wirksam beaufsichtigt werden können:
- Der Mensch muss die Ausgaben des Systems verstehen können
- Der Mensch muss in der Lage sein, die Nutzung des Systems zu unterbrechen oder zu beenden
- Der Mensch muss Ergebnisse des Systems ignorieren oder überstimmen können
- Der Mensch muss Automatisierungsbias erkennen können
7. Qualitätsmanagementsystem (Artikel 17)
Anbieter von Hochrisiko-KI müssen ein QMS implementieren:
- Strategie zur Einhaltung der regulatorischen Anforderungen
- Techniken zur Gestaltung und Kontrolle
- Verfahren für das Risikomanagement
- Post-Market-Monitoring
- Maßnahmen zur Gewährleistung der Cybersicherheit
Strafen und Durchsetzung
Die Bußgelder sind gestaffelt nach Schwere des Verstoßes:
| Verstoß | Bußgeld (Maximum) |
|---|---|
| Verbotene KI-Praktiken | 35 Mio. EUR oder 7 % des globalen Jahresumsatzes |
| Hochrisiko-Pflichten | 15 Mio. EUR oder 3 % des globalen Jahresumsatzes |
| Falsche Angaben an Behörden | 7,5 Mio. EUR oder 1 % des globalen Jahresumsatzes |
Für KMU und Startups gelten die jeweils niedrigeren absoluten Beträge. Eine Ausnahme, die häufig übersehen wird: Die Prozentangaben gelten immer — auch wenn der absolute Betrag höher wäre.
Die Durchsetzung erfolgt auf nationaler Ebene. Jeder EU-Mitgliedstaat muss eine Marktüberwachungsbehörde benennen. In Deutschland ist die Bundesnetzagentur als zuständige Behörde vorgesehen.
Praktische Checkliste fuer Unternehmen
Schritt 1: KI-Inventar erstellen
Erfassen Sie alle KI-Systeme im Unternehmen — nicht nur die offensichtlichen:
- Welche Modelle werden eingesetzt? (Eigen-Entwicklung, API-basiert, eingebettet in SaaS)
- In welchem Kontext? (HR, Kundenservice, Finanzentscheidungen, Produktion)
- Wer ist Anbieter, wer ist Deployer?
- Welche Daten fließen in das System?
Schritt 2: Risikokategorisierung
Für jedes identifizierte System prüfen:
- Fällt es unter Anhang III? (Hochrisiko-Standalone)
- Ist es Sicherheitskomponente eines regulierten Produkts?
- Fällt es unter die Transparenzpflichten (Chatbots, Deepfakes)?
- Oder ist es ein minimales Risiko (keine spezifischen Pflichten)?
Schritt 3: Gap-Analyse
Für jedes Hochrisiko-System die Lücke zwischen Ist-Stand und Soll-Stand ermitteln:
- Existiert eine technische Dokumentation?
- Gibt es ein Risikomanagement-System?
- Werden Logs gespeichert?
- Ist menschliche Aufsicht implementiert?
- Wurde eine Bias-Prüfung durchgeführt?
Schritt 4: Conformity Assessment vorbereiten
Die meisten Hochrisiko-Systeme nach Anhang III können über eine Selbstbewertung (interne Konformitätsbewertung) in Verkehr gebracht werden. Ausnahme: Biometrische Identifizierungssysteme benötigen eine Bewertung durch eine notifizierte Stelle.
Für die Selbstbewertung benötigen Sie:
- Vollständige technische Dokumentation
- Nachweis eines QMS
- EU-Konformitätserklärung
- CE-Kennzeichnung
- Registrierung in der EU-Datenbank
Schritt 5: Registrierung und CE-Kennzeichnung
Vor dem Inverkehrbringen oder der Inbetriebnahme muss das System in der EU-Datenbank für Hochrisiko-KI-Systeme registriert werden. Die Datenbank wird von der EU-Kommission betrieben und ist teilweise öffentlich zugänglich.
On-Premise-KI als Compliance-Vorteil
Die Anforderungen des EU AI Act klingen komplex — und sie sind es. Aber ein Faktor vereinfacht die Compliance erheblich: Kontrolle über die Infrastruktur.
Warum lokale Inferenz hilft
| Anforderung | Cloud-API | On-Premise |
|---|---|---|
| Technische Dokumentation | Abhängig vom Anbieter, oft unvollständig | Vollständige Kontrolle über Modell, Version, Konfiguration |
| Logging / Aufzeichnungen | API-Logs oft limitiert, nicht exportierbar | Alle Logs lokal, unbegrenzt aufbewahrbar |
| Daten-Governance | Daten verlassen das Unternehmen | Daten bleiben im Rechenzentrum |
| Menschliche Aufsicht | Schwer umsetzbar bei Black-Box-APIs | Vollständiger Zugriff auf Modellverhalten |
| Bias-Prüfung | Nur über den Output möglich | Input, Output und Modellgewichte prüfbar |
| Risikomanagement | Teilweise an Anbieter delegiert | Vollständig im eigenen Einflussbereich |
Konkretes Beispiel: Bewerber-Screening
Ein Unternehmen nutzt ein LLM für die Vorselektion von Bewerbungen. Das ist ein Hochrisiko-Anwendungsfall (Kategorie 4: Beschäftigung).
Mit Cloud-API (z.B. GPT-4):
- Bewerbungsdaten (Name, Lebenslauf, Foto) werden an US-Server gesendet
- Kein Einblick in die Modelllogik (Artikel 13-Transparenz problematisch)
- Logs nur über API-Dashboard verfügbar (Artikel 12-Logging begrenzt)
- Bias-Prüfung nur am Output (Artikel 10-Daten-Governance eingeschränkt)
- Bei CLOUD-Act-Anfrage: Zugriff auf Bewerberdaten durch US-Behörden möglich
Mit On-Premise-KI (z.B. Llama 3.3 70B auf eigenem GPU-Server):
- Bewerbungsdaten verlassen das Unternehmen nicht
- Modell, Prompt und Entscheidungslogik vollständig dokumentierbar
- Alle Logs lokal gespeichert und auditierbar
- Bias-Prüfung an Input-Daten, Prompt-Design und Output möglich
- Kein Drittlandzugriff, keine CLOUD-Act-Problematik
Beide Ansätze können EU AI Act-konform betrieben werden. Aber der On-Premise-Ansatz macht die Compliance praktisch umsetzbar, während der Cloud-Ansatz auf Zusicherungen des Anbieters angewiesen ist.
Unser Vorgehen bei WZ-IT
Wir helfen Unternehmen, KI-Infrastruktur EU AI Act-konform aufzubauen — nicht mit Beratungsfolien, sondern mit konkreter Technik:
-
Bestandsaufnahme: Welche KI-Systeme sind im Einsatz? Welche davon fallen unter Hochrisiko? Welche unter Transparenzpflichten?
-
Infrastruktur-Design: Für Hochrisiko-Anwendungen: Dedizierte GPU-Server oder AI Cube in deutschen Rechenzentren. Vollständige Kontrolle über Modelle, Daten und Logs.
-
Logging und Audit-Trail: Wir konfigurieren vollständiges Request-Response-Logging mit Zeitstempeln, User-IDs und Modellversionen — exportierbar für Audits und Behördenanfragen.
-
Managed Operations: Laufender Betrieb inkl. Monitoring, Updates und Compliance-Dokumentation — damit die technische Dokumentation nicht veraltet.
-
DSGVO + AI Act: Wir adressieren beide Regulierungsrahmen gleichzeitig. Lokale Inferenz löst DSGVO-Transferprobleme und vereinfacht die AI-Act-Dokumentation.
Ob GPU-Server für produktionsreife LLM-Inferenz oder AI Cube als Einstieg — die Infrastruktur steht in deutschen Rechenzentren, der Betrieb liegt in europäischen Händen.
Weiterfuehrende Guides
- KI-Souveränität: Warum deutsche Firmen Daten nicht an US-KI-Dienste schicken sollten
- DSGVO-konforme KI-Inferenz mit GPU-Servern
- Ollama vs. vLLM: Vergleich fuer Self-Hosted LLMs
- Lokale KI-Inferenz mit dem AI Cube
- Managed Operations: Compliance
- GPU Server bei WZ-IT
- AI Cube
Stand: Mai 2026. Der EU AI Act ist eine sich entwickelnde Regulierung. Die in diesem Artikel beschriebenen Fristen können sich durch laufende Gesetzgebungsverfahren ändern. Unternehmen sollten die offiziellen Kanäle der EU-Kommission und der Bundesnetzagentur verfolgen.
Häufig gestellte Fragen
Antworten auf wichtige Fragen zu diesem Thema
Der offizielle Stichtag ist der 2. August 2026. Allerdings hat das EU-Parlament im April 2026 dafür gestimmt, die Durchsetzung für bestimmte Hochrisiko-KI-Systeme auf den 2. August 2027 zu verschieben. Der finale Beschluss steht noch aus.
Anhang III des EU AI Act definiert acht Kategorien: u.a. biometrische Identifizierung, kritische Infrastruktur, Bildung, Beschäftigung, Kreditwürdigkeitsprüfung, Strafverfolgung und Migration. Auch KI-Systeme als Sicherheitskomponenten in regulierten Produkten fallen darunter.
Bis zu 35 Millionen Euro oder 7 % des globalen Jahresumsatzes für verbotene KI-Praktiken, bis zu 15 Millionen Euro oder 3 % für Verstöße gegen Hochrisiko-Pflichten. Für KMU gelten die jeweils niedrigeren Beträge.
Technische Dokumentation, Risikomanagement-System, Daten-Governance, Aufzeichnungspflichten (Logs), Transparenzinformationen für Nutzer, Maßnahmen zur menschlichen Aufsicht und ein Qualitätsmanagementsystem.
Ja. Lokale Inferenz gibt volle Kontrolle über Daten, Audit-Trails und Modellverhalten. Das vereinfacht die Dokumentation, die Risikobewertung und die Umsetzung menschlicher Aufsicht erheblich — insbesondere bei Hochrisiko-Anwendungen.
Grundsätzlich ja, wenn ein Open-Source-Modell in einem Hochrisiko-System eingesetzt wird. Es gibt Ausnahmen für Modelle, die unter Open-Source-Lizenzen veröffentlicht werden und nicht in regulierten Kontexten deployed sind — aber der Deployer trägt immer die Compliance-Pflicht.

Geschrieben von
Timo Wevelsiep
Co-Founder & CEO
Co-Founder von WZ-IT. Spezialisiert auf Cloud-Infrastruktur, Open-Source-Plattformen und Managed Services für KMUs und Enterprise-Kunden weltweit.
LinkedInLassen Sie uns über Ihre Idee sprechen
Ob konkrete IT-Herausforderung oder einfach eine Idee – wir freuen uns auf den Austausch. In einem kurzen Gespräch prüfen wir gemeinsam, ob und wie Ihr Projekt zu WZ-IT passt.


Timo Wevelsiep & Robin Zins
Geschäftsführer




