Vor zwei Wochen haben Rat und Parlament eine vorläufige Einigung erzielt, die die größte Durchsetzungswelle des EU AI Act um sechzehn Monate nach hinten schiebt. Das klingt nach einem Sieg für alle, die mit der Compliance hinterherhinken. Ist es nicht. Der Stichtag 2. August 2026 löst nach wie vor eine lange Liste an Pflichten aus, und der Teil des Gesetzes, der verschoben wurde, wird trotzdem am 2. Dezember 2027 verbindlich. Achtzig Tage sind ein kurzes Fenster, wenn dein KI-Inventar noch eine Schätzung ist und deine Transparenz-Verkabelung noch eine Wunschliste.
Das ist die Karte, mit der wir bei StudioMeyer das Gesetz, die Termine und die technische Arbeit zwischen jetzt und Ende nächsten Jahres lesen. Wir hosten KI-Produkte in Frankfurt und bauen Memory-Systeme für europäische Kunden. Wir haben diesen Text einmal für uns selbst geschrieben und schreiben ihn hier erneut, weil das meiste, was diesen Monat über den AI Act veröffentlicht wurde, entweder zu juristisch ist, um nützlich zu sein, oder zu schwammig, um falsch zu sein. Wir bieten außerdem dedizierte Beratungs-Engagements für Teams an, die Hilfe brauchen, ihre Systeme auf das Gesetz abzubilden, daher beschreibt die zweite Hälfte dieses Artikels, wie wir diese Arbeit konkret angehen.
Die Termine, die schon passiert sind
Das Gesetz (Verordnung (EU) 2024/1689) ist am 1. August 2024 in Kraft getreten und wird in Phasen scharfgeschaltet. Zwei dieser Phasen liegen bereits hinter uns.
Am 2. Februar 2025 wurden die verbotenen Praktiken in Artikel 5 durchsetzbar. Social Scoring, manipulative unterschwellige Techniken, ungezieltes Scraping von Gesichtsbildern, biometrische Kategorisierung, die sensible Attribute ableitet, und Emotionserkennung am Arbeitsplatz oder in Schulen sind komplett untersagt. Die Strafe für einen Verstoß beträgt bis zu 35 Millionen Euro oder 7 Prozent des weltweiten Jahresumsatzes, je nachdem, welcher Wert höher ist. Am selben Datum trat die AI-Literacy-Pflicht in Artikel 4 in Kraft, die Anbieter und Betreiber verpflichtet, dass ihre Mitarbeitenden die Systeme verstehen, die sie ausliefern und einsetzen.
Am 2. August 2025 wurden die Regeln für General-Purpose-AI-Modelle in den Artikeln 51 bis 56 bindend. Foundation-Model-Anbieter (Anthropic, OpenAI, Google, Mistral, Meta und andere) müssen jetzt eine Trainingsdaten-Zusammenfassung veröffentlichen, technische Dokumentation pflegen, nachgelagerte Anbieter informieren und eine Copyright-Compliance-Policy einhalten, die das Text-and-Data-Mining-Opt-out respektiert. Der freiwillige GPAI Code of Practice, veröffentlicht am 10. Juli 2025, ist der bevorzugte Weg der Kommission, um Compliance nachzuweisen und den Verwaltungsaufwand zu reduzieren, und die meisten großen Anbieter haben ihn unterzeichnet.
Wenn dein Team Claude oder GPT-4 über eine API nutzt, erbst du nicht die Pflichten des Model-Anbieters. Du erbst die Pflichten als Betreiber oder, häufiger, als Anbieter des Systems, das du obendrauf gebaut hast.
Die Verschiebung am 7. Mai 2026
Im letzten Jahr endete jeder Compliance-Artikel mit demselben Satz: Am 2. August 2026 wird der Rest des Gesetzes durchsetzbar. Dieser Satz stimmt jetzt teilweise nicht mehr.
Am 7. Mai 2026 verkündeten Rat und Parlament eine vorläufige politische Einigung zum Digital Omnibus, einem zielgerichteten Vereinfachungspaket, das die Kommission im November 2025 vorgeschlagen hatte. Der Grund war banal. Harmonisierte Standards sind nicht fertig, notifizierte Stellen sind nicht aufgestellt, und die meisten Mitgliedsstaaten hängen bei der Benennung der zuständigen Behörden hinterher. Die Kommission hat entschieden, dass es das Gesetz zum Scheitern verurteilt hätte, Compliance mit einem Rahmen einzufordern, dessen unterstützende Infrastruktur noch nicht existiert.
Wenn die Einigung formal angenommen wird, ändern sich vier Dinge. Hochrisiko-KI-Systeme aus Annex III (eigenständige Systeme in den Bereichen Beschäftigung, Kredit, Bildung, Biometrie, kritische Infrastruktur, Strafverfolgung, Migration und Justiz) werden am 2. Dezember 2027 statt am 2. August 2026 durchsetzbar, wie Hogan Lovells und Orrick bestätigen. Hochrisiko-KI innerhalb regulierter Produkte aus Annex I (Medizinprodukte, Fahrzeuge, Maschinen, Aufzüge) rückt von August 2027 auf den 2. August 2028. Die Wasserzeichen-Pflicht für Anbieter KI-generierter Inhalte aus Artikel 50 Absatz 2 verschiebt sich auf den 2. Dezember 2026 statt August. Und die Frist für Mitgliedsstaaten, eine KI-Regulierungs-Sandbox einzurichten, rutscht von August 2026 auf August 2027, mit einer parallelen EU-Sandbox, die das AI Office für KMU, Start-ups und kleine Mid-Caps betreibt.
Zwei wichtige Einschränkungen. Der Omnibus ist eine vorläufige Einigung, kein verabschiedetes Recht. Er muss noch durch die formale Trilog-Bestätigung und die Veröffentlichung im Amtsblatt. Bis dahin bleibt die aktuelle Rechtsgrundlage der 2. August 2026. Und jede Pflicht, die nicht auf der Verschiebungsliste steht, greift im August.
Was am 2. August 2026 trotzdem ausgelöst wird
Die betreiberseitigen Teile von Artikel 50 werden nicht verschoben. Wenn dein Chatbot mit Menschen spricht, muss jedes Gespräch mit dem Hinweis beginnen, dass der Nutzer mit einer KI interagiert. Wenn dein Produkt synthetische Inhalte generiert, muss das Ergebnis markiert sein. Wenn ein Deepfake dein System verlässt, muss der Empfänger informiert werden. Sprach-Agenten, die echte Anrufer am Telefon haben, fallen unter dieselbe Regel, auch wenn die Compute-Last in Kalifornien liegt.
GPAI-Durchsetzungsbefugnisse werden ebenfalls voll aktiv. Das European AI Office bekommt die Befugnis, Informationen von Modellanbietern anzufordern, Zugang zu den Modellen selbst zu verlangen und Korrekturmaßnahmen oder Rückrufe anzuordnen, wenn ein Foundation-Model gegen die Artikel 53 bis 55 verstößt. Die Strafobergrenze für GPAI-Verstöße liegt bei 15 Millionen Euro oder 3 Prozent des weltweiten Umsatzes.
Nationale zuständige Behörden müssen benannt und einsatzbereit sein. Sanktionsregime müssen in nationales Recht gegossen sein. Und der gesamte Durchsetzungsrahmen rund um Annex III muss, auch mit der Omnibus-Verschiebung, einsatzbereit sein, denn Dezember 2027 ist näher, als es aussieht.
Risikostufen in Klartext
Das Gesetz sortiert jedes KI-System in eine von vier Risikostufen, und deine Stufe entscheidet über deine Arbeit.
Unzulässiges Risiko ist die Artikel-5-Liste oben. Kein Einsatz in der EU, keine Ausnahmen.
Hohes Risiko ist die lange Liste in Annex III plus KI, die in regulierte Produkte eingebettet ist. Wenn dein System Entscheidungen in den Bereichen Beschäftigung, Kredit, Bildung, wesentliche Dienstleistungen, Strafverfolgung, Biometrie, Justiz oder Migration trifft oder formt, bist du wahrscheinlich Hochrisiko. Die Pflichten sind schwer. Dokumentiertes Risikomanagement (Artikel 9), Trainingsdaten-Governance (Artikel 10), technische Dokumentation nach Annex IV (Artikel 11), automatisches Logging mit mindestens sechs Monaten Aufbewahrung (Artikel 12), Transparenz gegenüber Betreibern (Artikel 13), menschliche Aufsicht, die Eingriff und Übersteuerung erlaubt (Artikel 14), sowie nachgewiesene Genauigkeit, Robustheit und Cybersicherheit (Artikel 15). Für Betreiber in dieser Stufe ist eine Grundrechte-Folgenabschätzung vor dem ersten Einsatz Pflicht (Artikel 27).
Begrenztes Risiko ist die Chatbot-Stufe. Deine Pflicht ist die Artikel-50-Transparenz, die kurz zu lesen und nicht kurz umzusetzen ist. Sag den Nutzern zu Beginn des Gesprächs, dass sie mit einer KI sprechen, biete ihnen einen Weg zu einem Menschen, falls das Gespräch entgleist, und kennzeichne jeden KI-generierten Inhalt, den das System ausgibt.
Minimales Risiko ist alles andere. Spam-Filter, Recommendation-Engines, die keine geschützten Entscheidungen berühren, Autocomplete und die lange Liste interner Werkzeuge. Keine spezifischen AI-Act-Pflichten, auch wenn DSGVO und Branchenrecht weiterhin greifen.
Der Grenzfall, der die meisten Teams erwischt, ist der KI-Agent, der im Auftrag eines Nutzers handelt. Ein Kundensupport-Chatbot ist begrenztes Risiko. Derselbe Chatbot, verdrahtet mit einem CRM, das Zahlungen erstatten, E-Mails schicken oder Datensätze löschen kann, ist näher am Hochrisiko. Die Klassifizierung folgt den Konsequenzen, nicht dem Modell.
Was das für Builder von KI-Agenten heißt
Wir bauen Agenten beruflich. Die Anforderungen aus den Artikeln 14 und 15 sind die, die ändern, wie du Code schreibst, nicht nur, wie du Policy schreibst.
Artikel 14 verlangt, dass ein Operator den Agenten unterbrechen kann. In unserer Basis-Agent-Klasse übersetzt sich das in Iterationslimits, harte Timeouts und einen Kill-Switch, den der Operator mitten in der Ausführung auslösen kann. Tool-Calls, die irgendetwas Irreversibles tun (E-Mails verschicken, Geld bewegen, Daten löschen, eine externe API aufrufen, die echtes Geld kostet), brauchen einen expliziten Human-Approval-Schritt. Der Begriff im Gesetz lautet "wirksame menschliche Aufsicht", und das Wort "wirksam" trägt die schwere Last.
Artikel 12 verlangt automatisches Logging von Ereignissen über die gesamte Lebenszeit des Systems. Das heißt jeder Tool-Call, jeder LLM-Round-Trip, jeder Entscheidungs-Zweig, jeder Input, den der Agent gesehen hat, und jeder Output, den er produziert hat. Logs müssen lange genug aufbewahrt werden, um Post-Market-Monitoring und Incident-Reporting zu stützen (Artikel 72 und 73), und Betreiber müssen ihre Kopien laut Artikel 26 mindestens sechs Monate aufheben.
Artikel 15 verlangt Robustheit. Input-Validierung, die Prompt-Injection abfängt, Output-Validierung, die halluzinierte Daten nicht durchrutschen lässt, Ressourcen-Limits, die Token-Bombing und Endlosschleifen verhindern, und adversariales Testing gegen bekannte Agent-Fehlermodi. Nichts davon ist neue Security-Engineering-Kunst. Die Änderung ist, dass es für Hochrisiko-Agenten jetzt rechtlich vorgeschrieben ist, mit Dokumentation.
Deutschland: Die Bundesnetzagentur übernimmt das Steuer
Für Teams im DACH-Raum ist die praktische Frage, wer bei dir an der Tür klopft, wenn etwas schief geht. Am 11. Februar 2026 hat das deutsche Bundeskabinett den KI-MIG-Gesetzentwurf (KI-Marktüberwachungs- und Innovationsförderungsgesetz) verabschiedet, und die Antwort lautet: die Bundesnetzagentur. Sie wird Deutschlands primäre Marktüberwachungsbehörde, notifizierende Behörde und nationaler Single Point of Contact unter dem AI Act.
Die BNetzA baut das nicht von null auf. Sie führt bereits die Marktüberwachung für die Funkanlagen-Richtlinie und die Ökodesign-Regeln durch und koordiniert die deutsche Umsetzung des Digital Services Act. Eine neue interne Stelle, die unabhängige KI-Marktüberwachungskammer, wird sensible Fälle übernehmen (Strafverfolgung, Grenzmanagement, Justiz), und ein Koordinierungs- und Kompetenzzentrum namens KoKIVO wird KI-Expertise sektorübergreifend bündeln.
Zwei Dinge zählen in der Zwischenzeit. Der KI-Service-Desk innerhalb der BNetzA ist seit Juli 2025 operativ und einer der wenigen lebenden KMU-Compliance-Support-Kanäle in der EU. Und die BaFin behält die sektorspezifische Zuständigkeit für Hochrisiko-KI, die direkt an regulierte Finanzaktivitäten gebunden ist, sodass Banken und Versicherer es mit zwei Aufsichten statt einer zu tun haben. Das KI-MIG durchläuft noch Bundestag und Bundesrat, zweite und dritte Lesung werden vor der Sommerpause erwartet.
Wie wir unsere eigenen KI-Produkte compliant halten
Wir betreiben unsere Produkte auf europäischer Infrastruktur. Memory MCP und der Rest unserer SaaS-Flächen laufen auf Hetzner in Frankfurt, nicht auf AWS Frankfurt, das unabhängig vom Rechenzentrum unter dem US CLOUD Act liegt. Dieser Unterschied zählt mehr, als die meisten Procurement-Teams realisieren.
Unser Code ist offen, wo er offen sein kann. Die MCP-Server-Implementierungen für Memory, CRM, GEO und Crew liegen in der studiomeyer-io GitHub-Organisation unter MIT-Lizenz, damit Kunden lesen können, was wir mit ihren Daten tun, bevor sie irgendetwas unterschreiben. Multi-Tenant-Isolation läuft auf Row-Level mit expliziten Tenant-IDs in jeder Query, und ein statischer Test in CI bricht den Build, wenn ein Handler den Tenant-Filter vergisst.
Das Memory-Produkt selbst ist um einen Audit-Trail herum gebaut. Entscheidungen, Learnings und Entity-Beobachtungen tragen eine Quelle, ein Datum und einen Confidence-Score. Das ist nützlich für den AI-Engineer, der wissen will, warum eine Erinnerung gespeichert wurde, und es ist dieselbe Form von Artefakt, das der AI Act verlangt, wenn er von Nachvollziehbarkeit und Post-Market-Monitoring spricht. Wir haben das nicht für Compliance gebaut. Wir haben es gebaut, weil wir genug davon hatten, dass Erinnerungen uns anlügen. Die Compliance-Passung ist ein Bonus.
Jeder Chatbot, den wir ausliefern, weist beim ersten Kontakt auf seine Natur hin, und die Artikel-50-Transparenz-Verkabelung ist über eine gemeinsame Library für unsere Produkte geteilt. Wir pflegen außerdem ein DACH Legal Playbook innerhalb der Academy, das die Überschneidungen zwischen DSGVO, AI Act und deutscher Umsetzung für die Teams durchgeht, die mit uns arbeiten.
Wie wir Kunden helfen, compliant zu werden
Der größte Teil der EU-AI-Act-Arbeit für ein kleines oder mittleres KI-Unternehmen ist keine Rechtsarbeit. Es ist Engineering und Dokumentation. Wir bieten dedizierte Beratungs-Engagements für Teams an, die aufhören wollen zu raten, wo sie stehen.
Ein Discovery-Workshop bildet jedes KI-System in deinem Stack auf seine Risikostufe ab. Wir haben das für Chatbots gemacht, die sich als Hochrisiko-Agenten herausstellten, und für aufwändige ML-Pipelines, die sich als minimales Infrastruktur-Risiko herausstellten. Die Klassifizierung ist die halbe Miete. Die andere Hälfte ist zu wissen, welche Pflichten daran hängen.
Für Betreiber und Anbieter, die in Hochrisiko-Territorium rutschen (die Dezember-2027-Klippe, falls der Omnibus durchgeht, August 2026, falls nicht), bauen wir das Annex-IV-Technical-File, den Artikel-9-Risikomanagement-Prozess und das Artikel-12-Logging auf, das ein Audit-Team tatsächlich lesen kann. Wir bauen das Artikel-14-Human-Oversight-Pattern in dein Agent-Framework ein, statt es nachträglich draufzuschrauben.
Für Chatbot- und Voice-Agent-Teams verdrahten wir die Artikel-50-Transparenz-Offenlegung in deine bestehende UX, ohne den Gesprächsfluss zu brechen, bauen den Eskalations-Pfad zum Menschen und dokumentieren das Ergebnis für deine Akte.
Für Teams, deren KI-Memory oder Wissensschicht auf einer US-Cloud sitzt und jetzt umziehen muss, haben wir die Hetzner-Frankfurt-Migration auf unseren eigenen Produkten und auf Kundensystemen durchgezogen. Die Trade-offs (Latenz, Region-Pinning, DPA-Ketten, Schrems-II-Nachweise) sind konkret und bekannt.
Engagements reichen vom halbtägigen Klassifikations-Workshop bis zum vollen Audit-Readiness-Paket mit Dokumentation, Logging und Oversight-Patterns im Code. Wir verkaufen keine Zertifizierungen, und wir tun nicht so, als wären wir Anwälte. Wir sitzen zwischen der Rechtsberatung, die du bereits hast, und den Systemen, die du tatsächlich ausliefern musst.
Die eine Sache, die du diese Woche tun solltest
Such dir das eine KI-System mit dem höchsten Risiko, das du in Produktion oder Entwicklung hast, und schreib seine Klassifizierung unter Annex III in einem Absatz auf. Wenn du den Absatz nicht zu Ende schreiben kannst, ist das die Lücke. Wenn der Absatz leicht ist, mach es fürs nächste System. Die Form eines EU-AI-Act-Compliance-Programms unterscheidet sich nicht von der Form jedes anderen Engineering-Programms. Das Erste, was du baust, ist eine Liste dessen, was du hast. Alles andere folgt.
Der Digital Omnibus gibt dir vielleicht sechzehn zusätzliche Monate für die schwere Arbeit. Die Betreiber-Transparenzpflichten, die GPAI-Durchsetzung und die nationalen Aufsichts-Schalter warten nicht. Der 2. August bleibt ein Datum, das zählt. Der 2. Dezember auch, wenn deine Trainingsdaten-Zusammenfassung unvollständig ist oder deine Wasserzeichen-Logik noch nicht im Code steckt. Und der 2. Dezember 2027 klingt weit weg, bis du anfängst, eine Grundrechte-Folgenabschätzung von Grund auf zu schreiben.
Wenn du Hilfe brauchst, deinen Stack gegen das Gesetz zu lesen, sind wir hier. Die Karte zeichnet sich leichter mit zwei Augenpaaren.
