WZ-IT Logo

EU AI Act ab August 2026: Was Unternehmen mit Hochrisiko-KI jetzt tun müssen

Timo Wevelsiep
Timo Wevelsiep
#EUAIAct #KI #Compliance #Hochrisiko #DSGVO #CEKennzeichnung #KIRegulierung #Enterprise

Hinweis zum Inhalt: Die Informationen in diesem Artikel wurden nach bestem Wissen zum Zeitpunkt der Veröffentlichung zusammengestellt. Technische Details, Preise, Versionen, Lizenzmodelle und externe Inhalte können sich ändern. Bitte prüfen Sie die genannten Angaben eigenständig, insbesondere vor geschäftskritischen oder sicherheitsrelevanten Entscheidungen. Dieser Artikel ersetzt keine individuelle Fach-, Rechts- oder Steuerberatung.

EU AI Act ab August 2026: Was Unternehmen mit Hochrisiko-KI jetzt tun müssen

KI-Compliance mit eigener Infrastruktur — WZ-IT betreibt GPU-Server und AI Cubes in deutschen Rechenzentren: DSGVO-konform, audit-fähig, EU AI Act ready. Jetzt kostenlosen Termin vereinbaren

Am 2. August 2026 werden die Anforderungen des EU AI Act für Hochrisiko-KI-Systeme durchsetzbar. Gleichzeitig hat das EU-Parlament im April 2026 dafür gestimmt, die Frist für bestimmte Systeme möglicherweise auf August 2027 zu verschieben. Die politische Unsicherheit ist real — aber die regulatorischen Pflichten verschwinden nicht.

Dieser Guide analysiert den aktuellen Stand, erklärt die konkreten Anforderungen und liefert eine Checkliste, mit der Unternehmen sich vorbereiten — unabhängig davon, ob die Deadline hält oder verschoben wird.

Inhaltsverzeichnis

Zeitplan: Was wann gilt

Der EU AI Act trat am 1. August 2024 in Kraft. Die Umsetzung erfolgt gestaffelt:

Datum Was gilt
2. Februar 2025 Verbot von KI-Systemen mit unannehmbarem Risiko (Social Scoring, Emotionserkennung am Arbeitsplatz, prädiktive Polizeiarbeit)
2. August 2025 Pflichten für General-Purpose AI (GPAI) Modelle, Governance-Strukturen, Notifizierung von Konformitätsbewertungsstellen
2. August 2026 Anforderungen für Hochrisiko-KI-Systeme nach Anhang III, Transparenzpflichten, CE-Kennzeichnung, EU-Datenbank-Registrierung
2. August 2027 Hochrisiko-KI als Sicherheitskomponente in regulierten Produkten (Medizinprodukte, Maschinen, Fahrzeuge)

Der Stichtag im August 2026 betrifft den Großteil der Unternehmen, die KI operativ einsetzen: HR-Tools, Kreditprüfungen, Bewerberauswahl, Kundenscoring, Zugangskontrollsysteme.

Die Verschiebungsdebatte

Im April 2026 stimmte das EU-Parlament im Industrieausschuss (ITRE) für einen Vorschlag, die Durchsetzung der Hochrisiko-Anforderungen um ein Jahr auf August 2027 zu verschieben. Die Begründung: Viele Unternehmen — insbesondere KMU — seien nicht bereit, die notwendigen harmonisierten Normen lägen noch nicht vollständig vor, und eine verfrühte Durchsetzung ohne klare Standards schaffe Rechtsunsicherheit.

Was das bedeutet:

  • Die Verschiebung betrifft nur Anhang-III-Hochrisiko-Systeme (Standalone-KI)
  • Verbotene KI-Praktiken (seit Februar 2025) und GPAI-Pflichten (seit August 2025) bleiben unverändert
  • Der Rat der EU muss dem Vorschlag noch zustimmen — eine finale Entscheidung wird für Q3 2026 erwartet
  • Selbst bei Verschiebung: Die Pflichten selbst ändern sich nicht, nur der Zeitpunkt der Durchsetzung

Für Unternehmen bedeutet das: Nicht abwarten. Wer die Compliance-Arbeit auf eine mögliche Verschiebung verschiebt, riskiert, bei einem Nein des Rats unvorbereitet dazustehen.

Was ist ein Hochrisiko-KI-System?

Anhang III des EU AI Act definiert acht Kategorien von Hochrisiko-KI-Systemen:

  1. Biometrische Identifizierung und Kategorisierung — Gesichtserkennung, Emotionserkennung (soweit nicht verboten)
  2. Kritische Infrastruktur — KI-Steuerung von Strom-, Wasser-, Gas- und Verkehrsnetzen
  3. Bildung und Berufsausbildung — Prüfungsbewertung, Zugangssteuerung zu Bildungseinrichtungen
  4. Beschäftigung und Personalmanagement — Bewerber-Screening, KI-gestützte Leistungsbewertung, Kündigungsentscheidungen
  5. Zugang zu wesentlichen Dienstleistungen — Kreditwürdigkeitsprüfung, Versicherungsbewertung, Sozialleistungsentscheidungen
  6. Strafverfolgung — Risikobewertung, Lügendetektion, prädiktive Analytik
  7. Migration, Asyl und Grenzkontrolle — Risikobewertung bei Einreise, Dokumentenprüfung
  8. Rechtspflege und demokratische Prozesse — KI-gestützte Gerichtsentscheidungen, Wahlbeeinflussung

Wichtig: Es kommt nicht darauf an, ob das System als „KI" vermarktet wird. Entscheidend ist, ob es ein KI-System im Sinne der Verordnung ist und in einem dieser Bereiche eingesetzt wird. Ein Machine-Learning-Modell, das Bewerbungen vorselektiert, ist Hochrisiko — unabhängig davon, ob der Hersteller es „intelligente Filterung" nennt.

Sonderfall: Sicherheitskomponenten in Produkten

KI-Systeme, die als Sicherheitskomponente in regulierten Produkten eingesetzt werden (Medizinprodukte nach MDR, Maschinen nach Maschinenverordnung, Fahrzeuge), unterliegen ebenfalls der Hochrisiko-Klassifizierung. Für diese gilt die längere Frist bis August 2027, da sie an bestehende EU-Produktgesetzgebung gekoppelt sind.

Die sieben Pflichten fuer Hochrisiko-KI

Wer ein Hochrisiko-KI-System betreibt oder in Verkehr bringt, muss sieben Kernpflichten erfüllen:

1. Risikomanagement-System (Artikel 9)

Ein kontinuierliches, dokumentiertes Risikomanagement über den gesamten Lebenszyklus des KI-Systems:

  • Identifizierung und Analyse bekannter und vorhersehbarer Risiken
  • Bewertung der Risiken bei bestimmungsgemäßer Nutzung und vorhersehbarer Fehlanwendung
  • Maßnahmen zur Risikominderung
  • Regelmäßige Überprüfung und Aktualisierung

2. Daten-Governance (Artikel 10)

Training, Validierung und Test müssen auf Datensätzen basieren, die:

  • Relevanz, Repräsentativität und Fehlerfreiheit gewährleisten
  • Bias-Prüfungen durchlaufen haben
  • Dokumentiert und rückverfolgbar sind
  • Besondere Kategorien personenbezogener Daten nur unter strengen Bedingungen enthalten

3. Technische Dokumentation (Artikel 11)

Vor dem Inverkehrbringen muss eine umfassende technische Dokumentation erstellt werden:

  • Allgemeine Beschreibung des Systems und seines Zwecks
  • Detaillierte Beschreibung der Entwicklungsmethodik
  • Informationen zu Trainingsdaten und deren Aufbereitung
  • Leistungskennzahlen und deren Messmethodik
  • Beschreibung der Risikomanagement-Maßnahmen

4. Aufzeichnungspflichten / Logging (Artikel 12)

Hochrisiko-KI-Systeme müssen automatische Aufzeichnungen (Logs) generieren:

  • Start- und Endzeitpunkt jeder Nutzung
  • Referenzdatenbank, gegen die Input geprüft wurde
  • Eingabedaten, die zu einer Übereinstimmung geführt haben
  • Identifizierung der an der menschlichen Aufsicht beteiligten Personen

Die Logs müssen für einen Zeitraum aufbewahrt werden, der dem Verwendungszweck angemessen ist — mindestens sechs Monate.

5. Transparenz (Artikel 13)

Nutzer müssen angemessen informiert werden:

  • Über die Fähigkeiten und Grenzen des Systems
  • Über den Grad der Genauigkeit und bekannte Fehlerquellen
  • Über die Umstände, unter denen Risiken entstehen können
  • Über Maßnahmen zur menschlichen Aufsicht

6. Menschliche Aufsicht (Artikel 14)

Hochrisiko-KI-Systeme müssen so konzipiert sein, dass sie von Menschen wirksam beaufsichtigt werden können:

  • Der Mensch muss die Ausgaben des Systems verstehen können
  • Der Mensch muss in der Lage sein, die Nutzung des Systems zu unterbrechen oder zu beenden
  • Der Mensch muss Ergebnisse des Systems ignorieren oder überstimmen können
  • Der Mensch muss Automatisierungsbias erkennen können

7. Qualitätsmanagementsystem (Artikel 17)

Anbieter von Hochrisiko-KI müssen ein QMS implementieren:

  • Strategie zur Einhaltung der regulatorischen Anforderungen
  • Techniken zur Gestaltung und Kontrolle
  • Verfahren für das Risikomanagement
  • Post-Market-Monitoring
  • Maßnahmen zur Gewährleistung der Cybersicherheit

Strafen und Durchsetzung

Die Bußgelder sind gestaffelt nach Schwere des Verstoßes:

Verstoß Bußgeld (Maximum)
Verbotene KI-Praktiken 35 Mio. EUR oder 7 % des globalen Jahresumsatzes
Hochrisiko-Pflichten 15 Mio. EUR oder 3 % des globalen Jahresumsatzes
Falsche Angaben an Behörden 7,5 Mio. EUR oder 1 % des globalen Jahresumsatzes

Für KMU und Startups gelten die jeweils niedrigeren absoluten Beträge. Eine Ausnahme, die häufig übersehen wird: Die Prozentangaben gelten immer — auch wenn der absolute Betrag höher wäre.

Die Durchsetzung erfolgt auf nationaler Ebene. Jeder EU-Mitgliedstaat muss eine Marktüberwachungsbehörde benennen. In Deutschland ist die Bundesnetzagentur als zuständige Behörde vorgesehen.

Praktische Checkliste fuer Unternehmen

Schritt 1: KI-Inventar erstellen

Erfassen Sie alle KI-Systeme im Unternehmen — nicht nur die offensichtlichen:

  • Welche Modelle werden eingesetzt? (Eigen-Entwicklung, API-basiert, eingebettet in SaaS)
  • In welchem Kontext? (HR, Kundenservice, Finanzentscheidungen, Produktion)
  • Wer ist Anbieter, wer ist Deployer?
  • Welche Daten fließen in das System?

Schritt 2: Risikokategorisierung

Für jedes identifizierte System prüfen:

  • Fällt es unter Anhang III? (Hochrisiko-Standalone)
  • Ist es Sicherheitskomponente eines regulierten Produkts?
  • Fällt es unter die Transparenzpflichten (Chatbots, Deepfakes)?
  • Oder ist es ein minimales Risiko (keine spezifischen Pflichten)?

Schritt 3: Gap-Analyse

Für jedes Hochrisiko-System die Lücke zwischen Ist-Stand und Soll-Stand ermitteln:

  • Existiert eine technische Dokumentation?
  • Gibt es ein Risikomanagement-System?
  • Werden Logs gespeichert?
  • Ist menschliche Aufsicht implementiert?
  • Wurde eine Bias-Prüfung durchgeführt?

Schritt 4: Conformity Assessment vorbereiten

Die meisten Hochrisiko-Systeme nach Anhang III können über eine Selbstbewertung (interne Konformitätsbewertung) in Verkehr gebracht werden. Ausnahme: Biometrische Identifizierungssysteme benötigen eine Bewertung durch eine notifizierte Stelle.

Für die Selbstbewertung benötigen Sie:

  • Vollständige technische Dokumentation
  • Nachweis eines QMS
  • EU-Konformitätserklärung
  • CE-Kennzeichnung
  • Registrierung in der EU-Datenbank

Schritt 5: Registrierung und CE-Kennzeichnung

Vor dem Inverkehrbringen oder der Inbetriebnahme muss das System in der EU-Datenbank für Hochrisiko-KI-Systeme registriert werden. Die Datenbank wird von der EU-Kommission betrieben und ist teilweise öffentlich zugänglich.

On-Premise-KI als Compliance-Vorteil

Die Anforderungen des EU AI Act klingen komplex — und sie sind es. Aber ein Faktor vereinfacht die Compliance erheblich: Kontrolle über die Infrastruktur.

Warum lokale Inferenz hilft

Anforderung Cloud-API On-Premise
Technische Dokumentation Abhängig vom Anbieter, oft unvollständig Vollständige Kontrolle über Modell, Version, Konfiguration
Logging / Aufzeichnungen API-Logs oft limitiert, nicht exportierbar Alle Logs lokal, unbegrenzt aufbewahrbar
Daten-Governance Daten verlassen das Unternehmen Daten bleiben im Rechenzentrum
Menschliche Aufsicht Schwer umsetzbar bei Black-Box-APIs Vollständiger Zugriff auf Modellverhalten
Bias-Prüfung Nur über den Output möglich Input, Output und Modellgewichte prüfbar
Risikomanagement Teilweise an Anbieter delegiert Vollständig im eigenen Einflussbereich

Konkretes Beispiel: Bewerber-Screening

Ein Unternehmen nutzt ein LLM für die Vorselektion von Bewerbungen. Das ist ein Hochrisiko-Anwendungsfall (Kategorie 4: Beschäftigung).

Mit Cloud-API (z.B. GPT-4):

  • Bewerbungsdaten (Name, Lebenslauf, Foto) werden an US-Server gesendet
  • Kein Einblick in die Modelllogik (Artikel 13-Transparenz problematisch)
  • Logs nur über API-Dashboard verfügbar (Artikel 12-Logging begrenzt)
  • Bias-Prüfung nur am Output (Artikel 10-Daten-Governance eingeschränkt)
  • Bei CLOUD-Act-Anfrage: Zugriff auf Bewerberdaten durch US-Behörden möglich

Mit On-Premise-KI (z.B. Llama 3.3 70B auf eigenem GPU-Server):

  • Bewerbungsdaten verlassen das Unternehmen nicht
  • Modell, Prompt und Entscheidungslogik vollständig dokumentierbar
  • Alle Logs lokal gespeichert und auditierbar
  • Bias-Prüfung an Input-Daten, Prompt-Design und Output möglich
  • Kein Drittlandzugriff, keine CLOUD-Act-Problematik

Beide Ansätze können EU AI Act-konform betrieben werden. Aber der On-Premise-Ansatz macht die Compliance praktisch umsetzbar, während der Cloud-Ansatz auf Zusicherungen des Anbieters angewiesen ist.

Unser Vorgehen bei WZ-IT

Wir helfen Unternehmen, KI-Infrastruktur EU AI Act-konform aufzubauen — nicht mit Beratungsfolien, sondern mit konkreter Technik:

  1. Bestandsaufnahme: Welche KI-Systeme sind im Einsatz? Welche davon fallen unter Hochrisiko? Welche unter Transparenzpflichten?

  2. Infrastruktur-Design: Für Hochrisiko-Anwendungen: Dedizierte GPU-Server oder AI Cube in deutschen Rechenzentren. Vollständige Kontrolle über Modelle, Daten und Logs.

  3. Logging und Audit-Trail: Wir konfigurieren vollständiges Request-Response-Logging mit Zeitstempeln, User-IDs und Modellversionen — exportierbar für Audits und Behördenanfragen.

  4. Managed Operations: Laufender Betrieb inkl. Monitoring, Updates und Compliance-Dokumentation — damit die technische Dokumentation nicht veraltet.

  5. DSGVO + AI Act: Wir adressieren beide Regulierungsrahmen gleichzeitig. Lokale Inferenz löst DSGVO-Transferprobleme und vereinfacht die AI-Act-Dokumentation.

Ob GPU-Server für produktionsreife LLM-Inferenz oder AI Cube als Einstieg — die Infrastruktur steht in deutschen Rechenzentren, der Betrieb liegt in europäischen Händen.

Weiterfuehrende Guides


Stand: Mai 2026. Der EU AI Act ist eine sich entwickelnde Regulierung. Die in diesem Artikel beschriebenen Fristen können sich durch laufende Gesetzgebungsverfahren ändern. Unternehmen sollten die offiziellen Kanäle der EU-Kommission und der Bundesnetzagentur verfolgen.

Häufig gestellte Fragen

Antworten auf wichtige Fragen zu diesem Thema

Der offizielle Stichtag ist der 2. August 2026. Allerdings hat das EU-Parlament im April 2026 dafür gestimmt, die Durchsetzung für bestimmte Hochrisiko-KI-Systeme auf den 2. August 2027 zu verschieben. Der finale Beschluss steht noch aus.

Anhang III des EU AI Act definiert acht Kategorien: u.a. biometrische Identifizierung, kritische Infrastruktur, Bildung, Beschäftigung, Kreditwürdigkeitsprüfung, Strafverfolgung und Migration. Auch KI-Systeme als Sicherheitskomponenten in regulierten Produkten fallen darunter.

Bis zu 35 Millionen Euro oder 7 % des globalen Jahresumsatzes für verbotene KI-Praktiken, bis zu 15 Millionen Euro oder 3 % für Verstöße gegen Hochrisiko-Pflichten. Für KMU gelten die jeweils niedrigeren Beträge.

Technische Dokumentation, Risikomanagement-System, Daten-Governance, Aufzeichnungspflichten (Logs), Transparenzinformationen für Nutzer, Maßnahmen zur menschlichen Aufsicht und ein Qualitätsmanagementsystem.

Ja. Lokale Inferenz gibt volle Kontrolle über Daten, Audit-Trails und Modellverhalten. Das vereinfacht die Dokumentation, die Risikobewertung und die Umsetzung menschlicher Aufsicht erheblich — insbesondere bei Hochrisiko-Anwendungen.

Grundsätzlich ja, wenn ein Open-Source-Modell in einem Hochrisiko-System eingesetzt wird. Es gibt Ausnahmen für Modelle, die unter Open-Source-Lizenzen veröffentlicht werden und nicht in regulierten Kontexten deployed sind — aber der Deployer trägt immer die Compliance-Pflicht.

Timo Wevelsiep

Geschrieben von

Timo Wevelsiep

Co-Founder & CEO

Co-Founder von WZ-IT. Spezialisiert auf Cloud-Infrastruktur, Open-Source-Plattformen und Managed Services für KMUs und Enterprise-Kunden weltweit.

LinkedIn

Lassen Sie uns über Ihre Idee sprechen

Ob konkrete IT-Herausforderung oder einfach eine Idee – wir freuen uns auf den Austausch. In einem kurzen Gespräch prüfen wir gemeinsam, ob und wie Ihr Projekt zu WZ-IT passt.

E-Mail
[email protected]

Führende Unternehmen vertrauen WZ-IT

  • Rekorder
  • Keymate
  • Führerscheinmacher
  • SolidProof
  • ARGE
  • Boese VA
  • NextGym
  • Maho Management
  • Golem.de
  • Millenium
  • Paritel
  • Yonju
  • EVADXB
  • Mr. Clipart
  • Aphy
  • Negosh
  • ABCO Water
Timo Wevelsiep & Robin Zins - CEOs of WZ-IT

Timo Wevelsiep & Robin Zins

Geschäftsführer

1/3 – Themenauswahl33%

Worum geht es bei Ihrer Anfrage?

Wählen Sie einen oder mehrere Bereiche, bei denen wir Sie unterstützen dürfen.