Es ist Montagmorgen, kurz nach acht. Frau Dr. Reinhardt, IT-Leiterin eines mittelständischen Maschinenbauers in Süddeutschland, sitzt mit dem Kaffeebecher vor einem E-Mail-Eingang, der sie nervöser macht als sonst. Eine Nachricht der Konzernrechtsabteilung – das Unternehmen ist Teil einer französischen Gruppe – bittet bis Ende der Woche um eine vollständige Aufstellung aller im Haus eingesetzten KI-Systeme, klassifiziert nach den Kategorien des EU AI Act, mit besonderer Markierung der Hochrisiko-Systeme. Begründung: Der 2. August 2026 sei „nicht mehr fern", die Compliance-Vorbereitung müsse jetzt anlaufen.
Frau Reinhardt hat in den vergangenen zwei Jahren in ihrem Unternehmen einiges aufgebaut: eine intelligente Sortiersoftware in der Logistik, ein KI-gestütztes Vorhersagemodell für Werkzeugverschleiß, ein Chatbot im Service, eine biometrische Zutrittskontrolle in der Werkhalle und – seit einem halben Jahr im Einsatz – ein Algorithmus, der eingehende Bewerbungen vorsortiert. Sie weiß: Manche dieser Systeme sind harmlos. Andere fallen ziemlich sicher in die Hochrisiko-Kategorie. Aber wo genau die Trennlinie verläuft, was die Einstufung praktisch bedeutet und welche Pflichten ihr Unternehmen bis Anfang August konkret erfüllen muss – das ist ihr noch nicht klar genug.
Diese Situation, in der einen oder anderen Variante, dürfte derzeit in vielen mittelständischen IT-Abteilungen entstehen. Heute, am 27. April 2026, sind es noch knapp 98 Tage bis zum 2. August 2026. An diesem Datum greifen die zentralen Pflichten der KI-Verordnung für Hochrisiko-KI-Systeme. Der Beitrag erklärt, was sich konkret ändert, wer betroffen ist, wie die Umsetzung praktisch aussieht – und was Unternehmen tun, um die verbleibenden 14 Wochen sinnvoll zu nutzen.
Der EU AI Act im Stufenplan: Wo stehen wir gerade?
Die KI-Verordnung der EU ist im August 2024 in Kraft getreten. Ihre Anforderungen werden seitdem in mehreren Stufen wirksam. Seit Februar 2025 gelten die Verbote für unzulässige KI-Praktiken (etwa Social Scoring durch staatliche Stellen oder bewusst manipulative Systeme). Seit August 2025 greifen die Transparenz- und Governance-Pflichten für General-Purpose-AI-Modelle. Im April 2026 wurden die ersten Leitlinien der Kommission zur Hochrisiko-Klassifizierung veröffentlicht. Und am 2. August 2026 wird der vermutlich folgenreichste Block der Verordnung scharfgeschaltet: die Anforderungen für Hochrisiko-KI-Systeme entlang der gesamten Wertschöpfungskette.
Es gibt eine mögliche Verschiebung: Die EU-Kommission hat im Rahmen des sogenannten Digital Omnibus im November 2025 vorgeschlagen, die Hochrisiko-Fristen auf Dezember 2027 zu strecken, weil viele harmonisierte technische Normen erst Ende 2026 vorliegen. Dieser Vorschlag ist allerdings noch nicht verabschiedet. Die ehrliche Empfehlung lautet daher: Planen Sie bis auf weiteres mit dem 2. August 2026. Wer auf die Verschiebung wartet, riskiert im schlechtesten Fall, mit drei Monaten Vorlauf vor einem nicht erfüllten Compliance-Anforderungskatalog zu sitzen.
Welche Systeme als „Hochrisiko" gelten – und welche nicht
Hochrisiko-KI ist in der Verordnung in zwei Wegen definiert. Der erste Weg betrifft KI-Systeme, die als Sicherheitsbauteil von Produkten zum Einsatz kommen, die nach EU-Recht ohnehin einer Konformitätsbewertung unterliegen – etwa Maschinen, Medizinprodukte oder Spielzeug. Der zweite Weg, praktisch deutlich relevanter für die meisten Unternehmen, ist Anhang III. Dieser nennt acht Anwendungsbereiche, in denen KI typischerweise als hochriskant gilt:
Biometrik (insbesondere Fernidentifizierung), kritische Infrastruktur (Verkehr, Energie, Wasser), Bildung und berufliche Ausbildung, Beschäftigung und Personalwesen (Bewerberauswahl, Mitarbeiterbewertung), Zugang zu wesentlichen privaten und öffentlichen Dienstleistungen (Kreditvergabe, Versicherungen, Sozialleistungen), Strafverfolgung, Migration und Asyl sowie Justiz und demokratische Prozesse. Wer ein KI-System in einer dieser Domänen entwickelt oder einsetzt, muss prüfen, ob die konkrete Anwendung tatsächlich unter Anhang III fällt – und nicht von einer Ausnahme erfasst wird.
Für unser Beispielunternehmen heißt das ganz konkret: Der Bewerber-Sortierungsalgorithmus ist mit hoher Wahrscheinlichkeit ein Hochrisiko-System – Personalauswahl steht explizit in Anhang III. Die biometrische Zutrittskontrolle ebenfalls, sofern sie für Identifizierung (nicht nur Verifizierung) eingesetzt wird. Das Vorhersagemodell für Werkzeugverschleiß und die Sortiersoftware in der Logistik sind dagegen keine Hochrisiko-Systeme – sie wirken sich nicht auf grundlegende Rechte oder kritische Infrastruktur aus. Der Chatbot fällt höchstens unter die Transparenz-Pflichten, ist aber kein Hochrisiko-System, sofern er keine Entscheidungen über wesentliche Dienstleistungen trifft.
Anbieter oder Betreiber? Die Rolle entscheidet über die Pflichtenliste
Eine der häufigsten Verwirrungen in der Praxis betrifft die Rollenzuweisung. Die Verordnung unterscheidet vor allem zwischen Provider (Anbieter) und Deployer (Betreiber). Anbieter ist, wer ein Hochrisiko-KI-System entwickelt oder unter eigenem Namen oder eigener Marke in Verkehr bringt. Betreiber ist, wer ein solches System in eigener Verantwortung produktiv einsetzt. Die Pflichten unterscheiden sich erheblich – und es gibt einen tückischen Sonderfall: Wer ein bestehendes Hochrisiko-KI-System wesentlich verändert oder unter eigenem Namen einsetzt, kann zum Anbieter werden, mit allen Pflichten, die das mit sich bringt.
Das Maschinenbauunternehmen aus unserem Beispiel ist im Bewerber-Tool sehr wahrscheinlich Betreiber, weil es eine Standardsoftware eines Drittanbieters nutzt. Bei der biometrischen Zutrittskontrolle könnte es Anbieter sein, falls die Lösung intern entwickelt oder als „eigenes" Produkt nach außen kommuniziert wird. Die Frage „Wer ist hier eigentlich Anbieter?" ist nicht akademisch – sie entscheidet, ob ein Unternehmen die volle Liste der Anbieterpflichten (technische Dokumentation, Konformitätsbewertung, CE-Kennzeichnung, EU-Datenbankregistrierung) zu erfüllen hat oder nur die – immer noch beachtlichen – Betreiberpflichten.
Die Pflichten in der Übersicht: Was Anbieter ab August leisten müssen
Anbieter eines Hochrisiko-KI-Systems sind nach dem 2. August 2026 verpflichtet, mehrere zentrale Bausteine vorzuhalten. Erstens ein Risikomanagementsystem, das systematisch Risiken identifiziert, bewertet und mindert – über den gesamten Lebenszyklus, nicht nur einmalig zum Marktzugang. Zweitens eine Daten-Governance: Trainings-, Validierungs- und Testdaten müssen relevant, repräsentativ und so weit möglich frei von Bias sein. Drittens eine technische Dokumentation, die das System, seine Zweckbestimmung, Architektur, Trainingsmethoden und Leistungsmetriken vollständig beschreibt. Viertens automatische Aufzeichnungen (Logging) während des Betriebs. Fünftens eine angemessene menschliche Aufsicht bereits im Design des Systems. Sechstens Anforderungen an Genauigkeit, Robustheit und Cybersicherheit. Siebtens ein Qualitätsmanagementsystem, das diese Punkte zusammenhält.
Erst wenn diese Bausteine stehen, kann die Konformitätsbewertung erfolgen. Für die meisten Hochrisiko-KI-Systeme reicht eine Selbstbewertung nach Anhang VI – das Unternehmen prüft selbst und dokumentiert. Eine Ausnahme ist die biometrische Fernidentifizierung: Hier ist eine Drittprüfung durch eine notifizierte Stelle erforderlich. Nach erfolgreicher Bewertung wird das CE-Kennzeichen angebracht und das System in der EU-Datenbank registriert. Erst dann darf es legal in Verkehr gebracht oder in der EU eingesetzt werden.
Pflichten für Betreiber – häufig unterschätzt
Wer Hochrisiko-KI nicht entwickelt, sondern lediglich einsetzt, hat eine deutlich kürzere, aber nicht triviale Pflichtenliste. Betreiber müssen das System gemäß Bedienungsanleitung des Anbieters einsetzen, eine angemessene menschliche Aufsicht durch geschulte Personen sicherstellen, automatische Logs aufbewahren, Inputdaten kontrollieren, betroffene Personen informieren, wenn das System Entscheidungen trifft, die sie unmittelbar betreffen, und in bestimmten Fällen eine Grundrechte-Folgenabschätzung durchführen. Letzteres betrifft insbesondere Behörden und private Akteure, die wesentliche öffentliche Dienste erbringen.
Für unser Maschinenbauunternehmen bedeutet das beim Bewerber-Tool: Es muss dokumentiert werden, dass die Sortierergebnisse von einer Person mit ausreichender Qualifikation überprüft werden, dass abgelehnte Bewerber auf Wunsch erfahren, dass eine KI-gestützte Vorauswahl stattfand, und dass die Logs des Systems vorgehalten werden. Klingt machbar – ist aber ohne klar zugewiesene Verantwortlichkeiten und ohne saubere Prozesse aus dem operativen Geschäft schnell ein blinder Fleck.
User Story: Wie unser Beispielunternehmen die nächsten 14 Wochen plant
Frau Reinhardt setzt sich an diesem Montagmorgen mit drei Kolleginnen und Kollegen zusammen: dem Datenschutzbeauftragten, der Personalleiterin und einem externen IT-Berater, mit dem das Unternehmen seit Jahren zusammenarbeitet. Sie strukturieren das Vorhaben in vier Phasen, die jeweils etwa drei bis vier Wochen umfassen.
In der ersten Phase – Mai 2026 – geht es um Inventur und Klassifizierung. Sämtliche im Haus eingesetzten KI-Systeme werden erfasst, jeweils mit Beschreibung der Funktion, des Anbieters, der verwendeten Daten und der betroffenen Personengruppen. Anschließend ordnet das Team jedes System einer der vier Risikokategorien des AI Act zu: unzulässig, hochriskant, begrenzt riskant, minimal. Die Klassifizierung wird mit einer Begründung dokumentiert. Drei Systeme bleiben am Ende als „hochriskant" stehen: das Bewerber-Tool, die biometrische Zutrittskontrolle und – nach genauerer Prüfung – ein Modul der Logistiksoftware, das mit Mitarbeitenden arbeitet und Leistungsbewertungen vornimmt.
In der zweiten Phase – Juni 2026 – wird je System geklärt: Sind wir Anbieter oder Betreiber? Hier zeigt sich, dass beim Bewerber-Tool eindeutig die Betreiberrolle greift. Bei der biometrischen Zutrittskontrolle wird eine schwierige Diskussion geführt: Das System wurde teilweise intern weiterentwickelt und mit eigenen Trainingsdaten angereichert. Nach Abwägung kommt das Team zum Schluss, dass die Veränderung nicht so wesentlich war, dass eine Anbieter-Rolle entstand – aber sie dokumentieren diese Entscheidung sorgfältig, weil genau diese Beurteilung im Zweifel zur Aufsichtsbehörde gehen würde.
In der dritten Phase – Juli 2026 – kommen die Pflichten konkret auf den Tisch. Für jedes Hochrisiko-System werden Verantwortlichkeiten zugewiesen, Logs aktiviert (sofern noch nicht geschehen), Bedienungsanleitungen aller Anbieter eingefordert und auf Vollständigkeit geprüft, eine menschliche Aufsicht definiert und geschult, und – ein häufig übersehener Punkt – die betroffenen Personen werden informiert. Beim Bewerber-Tool bedeutet das eine Anpassung der Karriereseite und der Datenschutzhinweise. Bei der biometrischen Zutrittskontrolle eine Information aller Mitarbeitenden mit Erläuterung, wie die Erkennung funktioniert und welche Daten wo verarbeitet werden.
In der vierten Phase – Anfang August 2026 – wird ein internes Audit durchgeführt. Hat das Unternehmen alle Pflichten umgesetzt? Sind die Dokumente vollständig? Stimmen die Prozesse mit der Realität überein? Erst nach diesem Audit gilt die Compliance als belastbar. Frau Reinhardt plant dafür einen externen Prüfblick durch die pleXtec-Compliance-Beratung, weil ein zweites Augenpaar erfahrungsgemäß genau die Lücken findet, die intern blind geworden sind.
Bußgeldrisiko: Warum sich das Vorgehen rechnet
Die Verordnung sieht ein abgestuftes Bußgeldsystem vor, das härter ausfällt als die DSGVO. Verstöße gegen die Verbote unzulässiger KI-Praktiken können mit bis zu 35 Millionen Euro oder 7 Prozent des weltweiten Konzernumsatzes geahndet werden – je nachdem, was höher ist. Für Verstöße gegen die Anforderungen an Hochrisiko-KI gilt ein Rahmen von bis zu 15 Millionen Euro oder 3 Prozent des Umsatzes. Falsche oder unvollständige Angaben gegenüber Behörden können bis zu 7,5 Millionen Euro oder 1 Prozent kosten. Hinzu kommen reputationelle Schäden, mögliche Marktverbote für nicht konforme Systeme und – nicht zu vergessen – die Schadensersatzansprüche betroffener Personen, die durch fehlerhafte Hochrisiko-KI Nachteile erlitten haben.
Die wirtschaftliche Logik ist klar: Eine vollständige Compliance-Vorbereitung kostet ein mittleres Unternehmen typischerweise einen mittleren fünfstelligen bis niedrigen sechsstelligen Betrag, je nach Größe und Anzahl der Hochrisiko-Systeme. Ein einziger ernsthafter Verstoß übersteigt diese Summe um ein Vielfaches. Die Investition rechnet sich – und sie rechnet sich umso besser, je früher sie beginnt, weil die Kosten unter Zeitdruck überproportional wachsen.
Breitere Einordnung: Warum der AI Act nicht „nur" Compliance ist
Die Diskussion um den EU AI Act wird in der Praxis oft auf das Vermeiden von Bußgeldern verkürzt. Das greift zu kurz. Die Verordnung erzwingt etwas, das in vielen Unternehmen ohnehin überfällig ist: eine ehrliche Bestandsaufnahme der eingesetzten KI, klare Verantwortlichkeiten, dokumentierte Prozesse, belastbare Daten-Governance. Wer diese Hausaufgaben gründlich macht, gewinnt nicht nur Compliance, sondern auch eine Grundlage für vertrauenswürdige KI-Strategie – gegenüber Mitarbeitenden, Kundinnen und Kunden, Investoren und Geschäftspartnern.
Ein zweiter Punkt, der in deutschen Mittelständlern selten ausgesprochen wird: Die KI-Verordnung verändert auch die Lieferkette. Wer Hochrisiko-KI als Anbieter in Verkehr bringt, muss ab August 2026 eine Konformitätserklärung mitliefern, die ihre Vorlieferanten – beispielsweise Anbieter von Trainingsdaten oder Modell-Bausteinen – einbeziehen. Verträge müssen entsprechend angepasst werden, Auditrechte etabliert, Lieferantenbewertungen erweitert. Das ist Aufwand, aber auch eine Chance, die eigene Lieferkette transparenter und resilienter zu machen.
Und ein dritter Punkt: Der AI Act ist Teil eines breiteren regulatorischen Bauwerks. NIS2 verlangt Cybersicherheits-Mindestmaßnahmen, DORA stellt Anforderungen an Finanzunternehmen, der Cyber Resilience Act adressiert Produkte mit digitalen Elementen, die Datenschutz-Grundverordnung gilt unverändert. Für Unternehmen, die in mehreren dieser Regelungsbereichen aktiv sind, lohnt sich ein integrierter Compliance-Ansatz. Vieles, was Sie für den AI Act tun – Risikomanagement, Logging, technische Dokumentation, menschliche Aufsicht – zahlt direkt in NIS2 und DORA ein. Wer hier sauber arbeitet, vermeidet Doppelaufbau und reduziert Gesamtkosten.
Konkrete Handlungsempfehlungen für die nächsten 14 Wochen
Wir empfehlen einen pragmatischen, gestaffelten Vorgehensplan. In den nächsten zwei Wochen: Einen verbindlichen Verantwortlichen für die AI-Act-Compliance benennen (eine Person, nicht „die IT-Abteilung"), eine vollständige Inventur aller eingesetzten KI-Systeme erstellen, jedes System der korrekten Risikokategorie zuordnen, die Anbieter-/Betreiberrolle für jedes Hochrisiko-System klären. In den darauffolgenden vier Wochen: Für jedes Hochrisiko-System die Bedienungsanleitungen der Lieferanten einfordern, technische Dokumentation prüfen oder erstellen, Logging aktivieren und auf Aufbewahrung absichern, menschliche Aufsicht definieren und die zuständigen Personen schulen. In den folgenden vier Wochen: Risikomanagementsystem einführen, Daten-Governance dokumentieren, Konformitätsbewertung durchführen, CE-Kennzeichen anbringen (sofern Anbieterrolle), Registrierung in der EU-Datenbank vorbereiten. In den letzten zwei bis drei Wochen vor dem 2. August: Internes oder externes Audit, Lückenschluss, Schulung der Schlüsselrollen, Etablierung des laufenden Compliance-Betriebs.
Parallel sollten Unternehmen die Schnittstellen zu den Verträgen mit ihren Softwareentwicklungs- und KI-Lieferanten überprüfen. Werden Konformitätserklärungen mitgeliefert? Ist das Auditrecht abgedeckt? Sind Haftungsfragen klar geregelt? Wer hier wartet, bis die Verordnung greift, verhandelt aus einer schwächeren Position.
Ausblick: Was nach dem 2. August 2026 kommt
Der 2. August 2026 ist nicht das Ende, sondern der Beginn eines neuen Compliance-Alltags. Hochrisiko-KI muss kontinuierlich überwacht werden, das Risikomanagement ist ein laufender Prozess, technische Dokumentationen sind bei wesentlichen Änderungen zu aktualisieren, Vorfälle (etwa fehlerhafte Entscheidungen mit erheblichen Folgen) müssen den Aufsichtsbehörden gemeldet werden. Im Jahr 2027 folgen die Pflichten für Hochrisiko-KI in regulierten Produktsegmenten (Medizinprodukte, Maschinen). Anschließend kommen weitere Verfeinerungen, harmonisierte Normen, sektorspezifische Leitlinien.
Unternehmen, die jetzt sauber aufstellen, gewinnen einen strukturellen Vorteil. Sie können KI mit ruhigem Gewissen produktiv einsetzen, weil sie die regulatorische Landschaft verstanden haben. Sie können neue Anwendungsfälle schneller bewerten, weil die Klassifizierungsroutine eingeübt ist. Sie können ihren Kundinnen und Kunden glaubhaft machen, dass die KI-Nutzung im Haus auf einem belastbaren Fundament steht. Das ist ein nicht zu unterschätzender Wettbewerbsvorteil – gerade in einer Zeit, in der Vertrauen in algorithmische Entscheidungen eine zentrale Frage geworden ist.
Frau Reinhardt schließt am Montagmittag ihren Kalender. Sie weiß: Die nächsten 14 Wochen werden anstrengend. Aber sie hat einen Plan, ein Team und einen klaren ersten Schritt. Genau das ist die Position, in der Unternehmen jetzt sein sollten – nicht in zwei Monaten. Wenn Sie noch keinen vergleichbaren Plan haben oder bei der Klassifizierung Ihrer Systeme unsicher sind, sprechen Sie uns gern über das Kontaktformular an. Eine kurze, ehrliche Lagebeurteilung in einer Stunde ist meist der effizienteste erste Schritt – und die Zeit dafür ist knapp, aber sie reicht, wenn man jetzt beginnt.