Vierundzwanzig Stunden vor dem Stichtag

Es ist der 1. August 2026. In der Rechtsabteilung der Meridian Industrietechnik GmbH – einem mittelständischen Maschinenbauer mit 340 Mitarbeitern aus Nordbayern – brennt Licht bis Mitternacht. Auf dem Tisch liegen drei Dokumente: ein hastiger Compliance-Bericht über das KI-System zur automatischen Bewerbervorauswahl, ein Anwaltsbrief über mögliche Konsequenzen einer Nicht-Konformität und ein Angebot eines Consultingunternehmens über 180.000 Euro für eine „Notfall-Compliance-Umsetzung".

Morgen, am 2. August 2026, treten die zentralen Vorschriften des EU AI Acts für Hochrisiko-KI-Systeme in Kraft. Meridian Industrietechnik ist nicht vorbereitet.

Diese Geschichte ist fiktiv – aber sie spielt sich gerade in Dutzenden deutschen Unternehmen ab. Wer heute noch nicht weiß, ob seine KI-Systeme unter das Hochrisiko-Regime des EU AI Acts fallen, hat kaum noch Zeit. Wer es weiß und dennoch nicht gehandelt hat, braucht einen klaren Plan. Und wer noch gar nicht mit dem Thema befasst war, liest jetzt den richtigen Artikel.

Was ist der EU AI Act – eine komprimierte Einführung

Der EU AI Act (Verordnung (EU) 2024/1689) ist die weltweit erste umfassende gesetzliche Regulierung Künstlicher Intelligenz. Er trat am 1. August 2024 in Kraft und sieht ein gestaffeltes Inkrafttreten der verschiedenen Verpflichtungen vor. Das Grundprinzip ist ein risikobasierter Ansatz: Je höher das Risiko eines KI-Systems für Grundrechte, Sicherheit oder gesellschaftliche Werte, desto strenger die Anforderungen.

Der AI Act unterscheidet vier Risikoklassen:

  • Inakzeptables Risiko: Verbotene KI-Systeme, zum Beispiel Social-Scoring-Systeme, manipulative KI und biometrische Echtzeit-Überwachung im öffentlichen Raum durch Strafverfolgungsbehörden
  • Hohes Risiko (Hochrisiko-KI): Streng reguliert mit umfangreichen Pflichten – der kritische Bereich für die meisten Unternehmen
  • Begrenztes Risiko: Transparenzpflichten, beispielsweise müssen Chatbots sich als KI zu erkennen geben
  • Minimales Risiko: Keine besonderen Anforderungen, zum Beispiel KI-Spamfilter

Den größten Handlungsbedarf für Unternehmen schafft die Hochrisiko-Kategorie. Und hier lauert die häufigste Falle: Viele Unternehmen unterschätzen erheblich, wie viele ihrer eingesetzten KI-Systeme in diese Kategorie fallen.

Der Zeitplan: Was wann in Kraft tritt

Das gestaffelte Inkrafttreten des EU AI Acts ist zentral für das Verständnis der aktuellen Situation:

  • 2. Februar 2025: Verbote für inakzeptable Risiken traten in Kraft
  • 2. August 2025: Governance-Strukturen und allgemeine KI-Kompetenzen (AI Literacy) wurden verpflichtend
  • 2. August 2026: Kernvorschriften für Hochrisiko-KI-Systeme nach Anhang III treten in Kraft – das ist der unmittelbar bevorstehende Stichtag
  • 2. August 2027: Regelungen für bestimmte KI-Systeme in regulierten Produkten treten in Kraft

Der nächste kritische Stichtag ist also der 2. August 2026 – und er betrifft direkt den Kern vieler Unternehmensanwendungen. Wer Hochrisiko-KI-Systeme betreibt, entwickelt oder einsetzt, muss ab dann die vollständigen Compliance-Anforderungen erfüllen – oder riskiert Bußgelder von bis zu 35 Millionen Euro oder 7 Prozent des weltweiten Jahresumsatzes.

Was zählt als Hochrisiko-KI? Die entscheidende Frage für Ihr Unternehmen

Hier beginnt die eigentliche Herausforderung. Der AI Act definiert Hochrisiko-KI-Systeme in Anhang III und umfasst Bereiche, die auf den ersten Blick weit weg von einem normalen Mittelständler scheinen mögen – auf den zweiten Blick aber erschreckend nahe kommen.

Beschäftigung und Personalverwaltung

KI-Systeme, die für Einstellung, Beförderung, Aufgabenverteilung oder Leistungsbewertung eingesetzt werden, fallen unter die Hochrisiko-Kategorie. Konkrete Beispiele aus der Praxis:

  • Automatische Vorauswahl von Bewerbungen (CV-Screening mit KI)
  • KI-gestützte Leistungsanalyse und Produktivitätsmessung von Mitarbeitern
  • Algorithmen zur Priorisierung von Aufgaben in Warehouse-Management-Systemen, die Mitarbeiterbewertungen einschließen
  • Videointerview-Analyse-Tools, die Mimik, Sprache oder Tonfall auswerten

Gerade dieser Bereich betrifft eine überraschend große Zahl von Mittelständlern, die in den vergangenen Jahren KI-gestützte HR-Tools eingeführt haben – oft ohne sich ihrer regulatorischen Implikationen bewusst zu sein.

Kreditwürdigkeitsbewertung und Versicherung

KI-Systeme zur Bewertung von Kreditrisiken oder Versicherungsrisiken natürlicher Personen fallen unter das Hochrisiko-Regime. Dies betrifft nicht nur Banken und Versicherungen, sondern auch produzierende Unternehmen, die eigene Bonitätsprüfungen für Geschäftspartner oder Kunden automatisieren.

Kritische Infrastruktur

KI-Systeme, die für die Verwaltung und den Betrieb kritischer Infrastruktur eingesetzt werden – Strom, Wasser, Transport, digitale Infrastruktur – unterliegen den strengsten Anforderungen. Für Betreiber entsprechender Anlagen überschneidet sich der EU AI Act erheblich mit den NIS2-Anforderungen und dem KRITIS-Dachgesetz.

Bildung und Berufsausbildung

KI-Systeme, die im Bildungsbereich eingesetzt werden und Entscheidungen über den Zugang zu Ausbildung oder Bewertungen treffen, gelten ebenfalls als Hochrisiko. Dies betrifft beispielsweise Lernsysteme, die Prüfungsleistungen automatisiert bewerten.

Allgemeine KI-Modelle mit systemischem Risiko (GPAI)

Sehr große und leistungsstarke KI-Modelle unterliegen zusätzlichen Anforderungen. Dies betrifft primär Anbieter wie OpenAI, Google und Anthropic. Für Unternehmen wird es aber dann relevant, wenn diese Modelle eigenständig fine-getuned und für Hochrisiko-Zwecke eingesetzt werden.

Ein häufiges Missverständnis

Viele Unternehmen denken: „Wir nutzen nur ChatGPT für Textarbeit – das ist kein Hochrisiko." Das stimmt oft, aber nicht immer. Entscheidend ist nicht das Tool selbst, sondern der Verwendungszweck und der Entscheidungskontext. Wenn ein ChatGPT-basiertes System Bewerbungen vorsortiert und Empfehlungen für HR-Entscheider generiert, die regelmäßig unreflektiert übernommen werden, kann das als Hochrisiko-System eingestuft werden – auch wenn das Grundmodell selbst kein Hochrisiko-System ist.

Zurück zu Meridian: Wie die Falle sich schließt

In unserem fiktiven Szenario hat Meridian Industrietechnik ein KI-gestütztes Bewerber-Screening-Tool eingeführt – eigentlich als harmlose Effizienzmaßnahme. Das Tool filtert eingehende Bewerbungen anhand von Kriterien vor, die der HR-Leiter vor zwei Jahren konfiguriert hat. Gut 70 Prozent aller Bewerbungen werden automatisch aussortiert, ohne dass ein Mensch sie je sieht.

Das Problem: Niemand hat dieses System einer formalen Risikoprüfung unterzogen. Die Dokumentation besteht aus dem Vertrag mit dem Software-Anbieter und einer internen E-Mail vom HR-Leiter. Human Oversight ist formal vorhanden, faktisch aber nicht gelebt – die HR-Abteilung übernimmt die Empfehlungen routinemäßig, ohne sie zu hinterfragen. Die betroffenen Bewerber werden nicht über die automatisierte Entscheidung informiert. Und der Anbieter des Tools – ein US-amerikanisches HR-Tech-Startup – hat auf Anfragen zur AI-Act-Konformität seit Wochen nicht geantwortet.

Am 3. August 2026, einen Tag nach Inkrafttreten der Kernvorschriften, erhält Meridian eine Anfrage von einem abgelehnten Bewerber. Er hat herausgefunden, dass seine Bewerbung von einem KI-System aussortiert wurde, und möchte wissen, nach welchen Kriterien. Er hat einen Anwalt eingeschaltet. Die Compliance-Uhr tickt – und die zuständige Behörde wurde bereits informiert.

Diese Geschichte ist fiktiv. Aber sie ist keine Übertreibung.

Die Pflichten im Detail: Was Hochrisiko-KI-Betreiber ab dem 2. August tun müssen

Der AI Act unterscheidet zwischen Anbietern (die ein KI-System entwickeln oder in Verkehr bringen) und Betreibern (die ein KI-System im eigenen Kontext einsetzen). Für die meisten mittelständischen Unternehmen ist die Betreiber-Rolle relevant – aber die Anforderungen sind erheblich.

1. Risikomanagement-System

Betreiber müssen für Hochrisiko-KI-Systeme ein dokumentiertes Risikomanagement-System etablieren und laufend pflegen. Das umfasst die Identifikation potenzieller Risiken für Grundrechte und Sicherheit, die Bewertung dieser Risiken, die Implementierung von Gegenmaßnahmen und die kontinuierliche Überwachung des Systems während des Betriebs. Dieses System muss nicht aufwändig sein, aber es muss existieren und dokumentiert werden.

2. Technische Dokumentation und Konformitätsnachweise

Hochrisiko-KI-Systeme müssen technisch dokumentiert sein. Als Betreiber müssen Sie sicherstellen, dass der Anbieter diese Dokumentation bereitstellt und Sie dauerhaften Zugang dazu haben. Die Konformitätsbewertung liegt in der Regel beim Anbieter – aber Sie tragen als Betreiber Verantwortung dafür, nur konforme Systeme einzusetzen. Anbieter, die keine Konformitätsdokumentation vorlegen können, sind ab dem 2. August ein erhebliches rechtliches Risiko.

3. Menschliche Aufsicht (Human Oversight)

Dies ist eine der zentralen Anforderungen des AI Acts und gleichzeitig eine der am häufigsten unterschätzten. Hochrisiko-KI-Systeme müssen so betrieben werden, dass effektive menschliche Aufsicht gewährleistet ist. Konkret bedeutet das:

  • Benannte, qualifizierte Personen, die das System überwachen und seine Ausgaben interpretieren können
  • Die technische und organisatorische Möglichkeit, das System jederzeit zu unterbrechen oder zu übersteuern
  • Klare Entscheidungsträger, die KI-Empfehlungen bewusst annehmen oder ablehnen – keine routinemäßige Übernahme
  • Keine vollständige Automatisierung von Entscheidungen mit erheblichem Personenbezug ohne echte menschliche Kontrolle

Formale Human Oversight, die in der Praxis nicht gelebt wird, ist keine ausreichende Compliance – und Behörden werden genau das prüfen.

4. Transparenz und Informationspflichten

Natürliche Personen, die von Hochrisiko-KI-Entscheidungen betroffen sind, müssen über den Einsatz des Systems informiert werden. Das betrifft Bewerber, die per KI vorsortiert werden, Mitarbeiter, deren Leistung algorithmisch bewertet wird, oder Kunden, deren Kreditwürdigkeit automatisiert eingeschätzt wird. Diese Informationspflicht muss in Datenschutzhinweisen, Stellenanzeigen und Vertragsunterlagen verankert werden.

5. Protokollierung und Datenverwaltung

Hochrisiko-KI-Systeme müssen automatische Protokollierungsfunktionen haben, die eine spätere Rückverfolgung von Entscheidungen ermöglichen. Als Betreiber müssen Sie diese Logs für mindestens sechs Monate aufbewahren und für Behördenanfragen bereithalten können. Bei sicherheitskritischen Anwendungen können deutlich längere Aufbewahrungsfristen gelten.

6. Grundrechts-Folgenabschätzung

Bestimmte Betreiber – darunter viele öffentliche Stellen und private Betreiber mit erheblichen gesellschaftlichen Auswirkungen – müssen vor der Inbetriebnahme eine Grundrechts-Folgenabschätzung durchführen und der zuständigen Marktüberwachungsbehörde vorlegen. Dieses Instrument ist dem Datenschutz-Folgenabschätzungsverfahren nach DSGVO ähnlich, hat aber einen breiteren Fokus.

7. AI Literacy – die oft vergessene Pflicht aus 2025

Seit dem 2. August 2025 gilt bereits: Betreiber müssen sicherstellen, dass ihre Mitarbeiter, die mit KI-Systemen arbeiten, über ausreichende KI-Kompetenzen verfügen. Dies umfasst Schulungen zur Funktionsweise von KI, zur Interpretation von Ausgaben und zu den Grenzen des Systems. Wer diese Pflicht noch nicht umgesetzt hat, ist bereits seit fast einem Jahr in Verzug.

Anbieter vs. Betreiber: Wer trägt welche Verantwortung?

Eine häufige Frage in der Compliance-Praxis: „Wenn wir das Tool nur nutzen und nicht selbst entwickeln, ist doch der Anbieter verantwortlich, oder?" Die Antwort ist differenziert.

Der Anbieter trägt die Hauptverantwortung für die Konformität des KI-Systems selbst: technische Dokumentation, Konformitätsbewertung, CE-Kennzeichnung (soweit erforderlich), Transparenz über Trainingsdaten und Bias-Testing. Für Standard-KI-Produkte, die auf dem EU-Markt angeboten werden, ist der Anbieter verpflichtet, konforme Produkte zu liefern.

Der Betreiber trägt Verantwortung für den Einsatzkontext: das Risikomanagement-System, die menschliche Aufsicht, die Informationspflichten gegenüber betroffenen Personen, die Protokollierung und die AI Literacy der Mitarbeiter. Außerdem trägt der Betreiber die Verantwortung dafür, das System nicht zweckfremd einzusetzen – also nicht für Zwecke zu nutzen, für die es nicht konform zertifiziert wurde.

In der Praxis bedeutet das: Wenn Ihr Anbieter keine Konformitätsdokumentation liefern kann oder will, müssen Sie die Nutzung des Systems einstellen. Eine Entschuldigung in der Art von „unser Anbieter hat es nicht dokumentiert" schützt Sie vor Bußgeldern nicht.

Der Praxisleitfaden: Was Sie jetzt tun müssen

Unabhängig davon, wie viel Zeit noch bleibt – hier ist ein strukturierter Handlungsplan für mittelständische Unternehmen:

Schritt 1: KI-Inventarisierung

Erstellen Sie eine vollständige Liste aller KI-Systeme, die in Ihrem Unternehmen eingesetzt werden. Vergessen Sie dabei nicht:

  • Eingebettete KI in Software-as-a-Service-Produkten (HR-Tools, CRM, ERP-Systeme)
  • KI-Funktionen in Microsoft 365, insbesondere Copilot-Features
  • Selbst entwickelte oder angepasste Algorithmen, die Entscheidungen unterstützen
  • KI-Chatbots auf der eigenen Website oder im Kundenservice
  • Predictive Maintenance und Qualitätssicherungs-KI in der Produktion
  • Automatisierte Scoring-Systeme jeder Art

Schritt 2: Risikokategorisierung

Prüfen Sie für jedes System anhand von Anhang III des AI Acts, ob es als Hochrisiko-System eingestuft werden kann. Leitfragen:

  • Trifft das System Entscheidungen oder unterstützt es Entscheidungen, die natürliche Personen erheblich betreffen?
  • Geht es um Beschäftigung, Kreditwürdigkeit, Bildung, Gesundheit oder kritische Infrastruktur?
  • Könnten Fehler des Systems zu Diskriminierung, wirtschaftlichem Schaden oder zur Verletzung von Grundrechten führen?

Im Zweifel gilt: Lieber vorsichtig einstufen und die Anforderungen erfüllen, als nachträglich Bußgelder riskieren. Die Kosten einer proaktiven Compliance sind fast immer geringer als die Konsequenzen eines Verstoßes.

Schritt 3: Anbieter-Due-Diligence

Fordern Sie von allen Anbietern von KI-Systemen, die als Hochrisiko eingestuft sind, folgende Dokumentation an:

  • Technische Dokumentation nach Artikel 11 AI Act
  • Konformitätserklärung und CE-Kennzeichnung (soweit erforderlich)
  • Nachweise zur Datenqualität und zum Bias-Testing
  • Informationen zu den implementierten Human-Oversight-Mechanismen
  • Auskunft darüber, für welche Zwecke das System konform zertifiziert ist

Anbieter, die auf diese Anfragen nicht reagieren oder keine ausreichende Dokumentation vorlegen können, sind ab dem 2. August ein erhebliches rechtliches Risiko. Im schlimmsten Fall müssen Sie die Nutzung des Systems bis zur Klärung einstellen.

Schritt 4: Governance-Struktur etablieren

Benennen Sie einen AI Act Compliance-Verantwortlichen. Das muss keine neue Stelle sein – die Funktion kann an den IT-Sicherheitsbeauftragten, den Datenschutzbeauftragten oder die Rechtsabteilung angebunden werden. Entscheidend ist, dass jemand klar verantwortlich ist und die nötigen Kompetenzen und Ressourcen hat.

Definieren Sie außerdem klare Zuständigkeiten für jedes KI-System: Wer überwacht es? Wer entscheidet bei Auffälligkeiten? Wie wird eskaliert?

Schritt 5: KI-Register anlegen

Beginnen Sie sofort mit der Erstellung eines KI-Registers: einer dokumentierten Übersicht aller KI-Systeme mit Angaben zu Zweck, Risikoklasse, Anbieter, Einsatzzeitraum, zuständiger Person und aktuellem Status der Compliance-Maßnahmen. Dieses Register wird Ihr wichtigstes Instrument bei Behördenanfragen und Audits sein. Es muss aktuell gehalten werden.

Schritt 6: Human-Oversight-Prozesse formalisieren

Für jedes als Hochrisiko eingestufte System müssen die Prozesse der menschlichen Aufsicht formal beschrieben und im Alltag wirklich gelebt werden. Das bedeutet konkret: Wer liest die KI-Ausgaben? Wer hat die Kompetenz, sie zu hinterfragen? Gibt es dokumentierte Fälle, in denen KI-Empfehlungen abgelehnt wurden? Fehlen solche Belege, ist die Human Oversight formal, aber nicht substanziell – und das ist genau das, was Behörden bei Prüfungen aufdecken werden.

Schritt 7: Schulungen nachholen

Holen Sie die AI-Literacy-Pflicht (rückwirkend ab August 2025 gültig) unverzüglich nach. Schulungen müssen dokumentiert und regelmäßig aufgefrischt werden. Besonders wichtig: Mitarbeiter, die mit Hochrisiko-Systemen arbeiten, müssen die Funktionsweise, die Grenzen und die Fehlerquellen des Systems kennen. Nur wer ein System versteht, kann es effektiv beaufsichtigen.

Breitere Einordnung: Die Regulierungswelle 2026

Der EU AI Act ist nicht isoliert zu betrachten. Er fügt sich ein in eine umfassende Regulierungswelle, die den deutschen Mittelstand in den nächsten Jahren erheblich beschäftigen wird.

NIS2 und BSIG: Die Registrierungspflicht beim BSI endete im März 2026. Die BSI hat signalisiert, nun aktiv in die Durchsetzungsphase einzutreten. Cybersicherheitsanforderungen und KI-Governance überschneiden sich erheblich – wer KI-Systeme als potenzielle Angriffsvektoren und Ausfallrisiken betrachtet, handelt sowohl nach NIS2 als auch nach AI Act vorausschauend. Unsere Seite zur Compliance-Software gibt einen Überblick über technische Umsetzungshilfen.

DORA (Digital Operational Resilience Act): Für Finanzdienstleister gelten seit Januar 2025 strenge Anforderungen an die digitale Betriebsresilienz – einschließlich KI-gestützter Systeme. Die Schnittstellen zwischen DORA und AI Act müssen sorgfältig kartiert werden.

DSGVO-Schnittstellen: Der AI Act ergänzt die DSGVO, hebt sie aber nicht auf. Automatisierte Entscheidungen mit erheblichen Auswirkungen unterlagen bereits nach Artikel 22 DSGVO besonderen Anforderungen. Der AI Act fügt eigene, teils strengere Regeln hinzu, und die Schnittstellen zwischen beiden Regimes müssen in der Compliance-Praxis sorgfältig berücksichtigt werden.

Cyber Resilience Act (CRA): Für Produkte mit digitalen Elementen – und das schließt zunehmend Maschinen und industrielle Systeme ein – gelten ab 2027 verpflichtende Cybersicherheitsanforderungen. Unternehmen, die KI in ihre Produkte integrieren, müssen beide Regelwerke im Blick behalten.

Die Regulierungswelle 2026 ist real und intensiv. Aber sie ist auch handhabbar – für Unternehmen, die systematisch vorgehen und externe Expertise dort einsetzen, wo eigenes Know-how fehlt.

Chancen statt nur Pflichten: Warum Konformität ein Wettbewerbsvorteil ist

Regulierung wird oft als Belastung wahrgenommen – und die initialen Compliance-Kosten sind real. Aber es gibt auch eine andere Perspektive, die strategisch denkende Unternehmen eingenommen haben.

Erstens: Unternehmen, die ihre KI-Systeme sauber dokumentiert, transparent betrieben und regelmäßig geprüft haben, bauen Vertrauen auf – bei Kunden, Partnern, Investoren und Behörden. In einer Zeit, in der KI-Misstrauen und KI-Skepsis zunehmen, ist nachweisliche Verantwortlichkeit ein echter Differenzierungsfaktor.

Zweitens: In öffentlichen Ausschreibungen und in Lieferantenqualifizierungsprozessen größerer Unternehmen werden AI-Act-Konformitätsnachweise zunehmend gefordert. Wer diese heute schon erbringen kann, ist im Vorteil gegenüber Wettbewerbern, die noch aufholen müssen.

Drittens: Die Konformitätsprüfung zwingt zu einer ehrlichen Bestandsaufnahme. Welche KI-Systeme bringen wirklich Mehrwert? Welche sind mit erheblichem Aufwand verbunden, ohne klaren Nutzen? Manchmal offenbart Compliance Rationalisierungspotenzial, das ohne externen Druck unsichtbar geblieben wäre.

Wie Sie KI strategisch und governance-konform in Ihr Unternehmen integrieren, erläutern wir auf unserer Seite zur KI-Strategie und Integration. Einen umfassenden Überblick über KI-Lösungen für den Mittelstand finden Sie auf unserer KI-Übersichtsseite.

Handlungsempfehlungen: Ihre Checkliste für die nächsten Wochen

Zusammengefasst: Das sind die wichtigsten Sofortmaßnahmen für mittelständische Unternehmen vor dem 2. August 2026:

  • KI-Inventarisierung abschließen: Vollständige Liste aller KI-Systeme, inklusive eingebetteter KI in SaaS-Produkten
  • Risikoeinstufung vornehmen: Für jedes System prüfen, ob Hochrisiko nach Anhang III vorliegt
  • Anbieter kontaktieren: Konformitätsdokumentation anfordern, nicht-kooperierende Anbieter als Risiko markieren
  • Compliance-Verantwortlichen benennen: Klare Zuständigkeit schaffen, auch wenn keine neue Stelle entsteht
  • KI-Register anlegen: Dokumentierte Übersicht als Grundlage für alle weiteren Schritte
  • Human-Oversight-Prozesse prüfen: Sicherstellen, dass Aufsicht wirklich gelebt wird, nicht nur formal existiert
  • AI-Literacy-Schulungen nachholen: Dokumentiert und auf alle KI-Nutzer ausgeweitet
  • Externes Know-how einbeziehen: Wo eigene Kapazitäten fehlen, Unterstützung holen – jetzt, nicht im Herbst

Fazit: Jetzt handeln – nicht im Oktober

Meridian Industrietechnik hatte zum Ende unserer Geschichte noch genau 24 Stunden. Das ist nicht nichts – es reichte für eine Notfalldokumentation, eine sofortige Einschränkung der automatisierten Entscheidungen und einen glaubwürdigen Compliance-Fahrplan für die Behörde. Die 180.000 Euro für die externe Beratung waren teuer – aber deutlich günstiger als ein Bußgeld und reputationsschädlicher Rechtsstreit.

Ihr Unternehmen hat noch etwas mehr Zeit. Nutzen Sie sie. Die meisten mittelständischen Unternehmen können keine vollständige Hochrisiko-Compliance in wenigen Wochen aufbauen – aber sie können die größten Risiken identifizieren, priorisieren und mit einem realistischen Umsetzungsplan starten. Behörden erwarten in der Regel keine sofortige vollständige Konformität, aber eine nachweisbare Compliance-Bemühung und einen dokumentierten Fortschrittsplan.

Warten Sie nicht auf den 3. August. Die Uhr läuft bereits. Kontaktieren Sie uns für eine unverbindliche Ersteinschätzung Ihrer KI-Landschaft und den nächsten konkreten Schritt auf Ihrem Weg zur AI-Act-Konformität. Unsere Experten für Compliance und Softwareentwicklung helfen Ihnen, pragmatisch und zielgerichtet vorzugehen – ohne Panik, aber mit dem nötigen Nachdruck.