Eine Personalleiterin bekommt eine Nachricht von der Rechtsabteilung: Das Schulungsvideo, das ihr L&D-Team letzte Woche mit einem KI-Avatar produziert hat, könnte eine Kennzeichnungspflicht auslösen. Gleichzeitig fragt der Betriebsrat, ob das neue Bewerbermanagementsystem unter den AI Act fällt. Und irgendwo im Hintergrund läuft eine Pressemeldung über ein Unternehmen, das für einen Deepfake seiner Führungskraft haftet.
Kein hypothetisches Szenario.
Das ist die aktuelle Lage.
Was sich in den letzten Wochen verändert hat: KI ist nicht mehr abstrakt bedrohlich — sie ist konkret haftbar. Die mediale Rahmung hat sich verschoben. Deepfakes, Schutzpflichten, Arbeitgeberhaftung — das sind keine Zukunftsszenarien mehr, sondern Entscheidungen, die Führungskräfte heute treffen müssen, ohne die Konsequenzen vollständig absehen zu können. Genau das ist eine andere Qualität von Druck als „wir sollten uns mit KI beschäftigen”.
In fünf Tagen — am 28. April 2026 — entscheidet sich in Brüssel, ob der sogenannte „KI-Omnibus” diesen Druck etwas abbaut oder verschärft. Für Svenja Hahn (FDP), seit 2019 Mitglied des Europäischen Parlaments und federführend am AI Act beteiligt, ist klar: Ohne die industriellen Ausnahmen, die das Parlament vorschlägt, bliebe als einzige Erleichterung eine geringfügige Verschiebung der Inkrafttretens-Termine.
Zur gleichen Zeit fordert Bundeskanzler Merz auf der Hannover Messe Ausnahmen für industrielle KI. Während deutsche VertreterInnen in Brüssel genau diese Ausnahmen blockierten.
Man muss das sacken lassen. Unser Berlin KI Radar hat diesen Widerspruch als Kern-Signal markiert.
Die Zahlen, die EntscheiderInnen kennen sollten
Für Unternehmen, die KI-Systeme in Hochrisiko-Kategorien einsetzen, hat der AI Act ein konkretes Preisschild: bis zu 600.000 Euro Einmalkosten für die Compliance-Anforderungen, plus bis zu 150.000 Euro jährlich. Diese Zahlen treffen nicht primär Tech-Konzerne, die entsprechende Compliance-Kapazitäten haben. Sie treffen Mittelständler, die ein Bewerbermanagementsystem nutzen, ohne zu wissen, dass es unter Anhang III des AI Acts fällt.
Das ist das eigentliche Problem: Viele Unternehmen setzen heute bereits Systeme ein, die nach aktueller Gesetzeslage als Hochrisiko einzustufen wären. CV-Screening, Performance Monitoring, Talent Scoring — Standardsoftware im HR-Bereich, die je nach Konfiguration direkt in die Hochrisiko-Kategorie fällt. Die Klassifikation richtet sich nicht nach dem Basismodell, sondern nach dem Einsatzzweck.
Was die Kommission antreibt — und wo ihr eigenes Problem liegt
Die Kommission hat den Digital Omnibus nicht aus regulatorischer Großzügigkeit vorgelegt. Der Draghi-Report hatte die EU-Digitalregulierung als massives Innovationshindernis identifiziert. Die Antwort war kalkuliert: 25 bis 35 Prozent weniger Bürokratieaufwand, geschätzte Einsparungen von sechs Milliarden Euro bis 2029.
Gleichzeitig hat die Kommission ein Glaubwürdigkeitsproblem. Sie hat den AI Act 2024 durchgesetzt — jetzt versucht sie, ihn schon vor seiner vollen Wirksamkeit nachzubessern. Das ist kein Zeichen von Schwäche. Es ist das Eingeständnis, dass die Umsetzungsrealität anders aussieht als die Regulierungstheorie.
Was noch fehlt: Die harmonisierten Standards, auf die Unternehmen für die Hochrisiko-Compliance warten, sind erst in der öffentlichen Konsultationsphase. Die Umsetzungsleitlinien des EU AI Office kommen voraussichtlich Q2 2026 — also wenige Wochen vor den August-Fristen. Die Kommission hat ein Gesetz verabschiedet, dessen Handwerkszeug noch nicht fertig ist.
Das Doppelregulierungsproblem
Medizintechnik, Maschinenbau, Finanzdienstleistungen — diese Sektoren sind bereits durch eigene Gesetze reguliert. Der AI Act legt ein zweites, horizontal wirkendes Regelwerk darüber, das in Teilen widersprüchliche Anforderungen stellt. Das Parlament schlägt vor, industrielle KI weitgehend herauszunehmen und bestehende Sektorgesetze gezielt an KI-Anforderungen anzupassen. Das würde Doppelbelastung vermeiden, ohne Sicherheitsstandards aufzuweichen.
Ob das am 28. April durchkommt, ist offen. Draghi hat dasselbe Problem anders formuliert: EU-Ansätze, die „alle möglichen Risiken abdecken” wollen, wirken schnell kontraproduktiv. Der Versuch, jeden Fall zu regulieren, erzeugt Rechtsunsicherheit genau dort, wo Klarheit gebraucht würde.
Wer kämpft gegen wen — und warum das kein einfaches Bild ist
Die Konfliktlinie verläuft nicht zwischen RegulierungsbefürworterInnen und -gegnerInnen. Sie verläuft zwischen verschiedenen Schutzbedürfnissen.
Das Parlament und die Industrie — insbesondere Maschinenbau, Medizintechnik, Automobilindustrie — wollen Sektorlösungen: Wenn ein Unternehmen bereits unter strengen Medizinprodukteregeln arbeitet, soll der AI Act nicht als zweites, paralleles Regelwerk laufen. Das ist ein wirtschaftliches Argument — aber auch ein handwerklich nachvollziehbares.
Der TÜV, Datenschutzbehörden (EDPB und EDPS haben eine gemeinsame Stellungnahme eingereicht) und Teile der Zivilgesellschaft verteidigen den horizontalen Ansatz: KI-Risiken lassen sich nicht nach Branchen sortieren. Wer Ausnahmen für die Industrie macht, schafft Schlupflöcher — und jahrelange Rechtsunsicherheit darüber, was wirklich gilt.
Deutschland spielt dabei eine besondere Rolle. Bundeskanzler Merz fordert auf der Hannover Messe Ausnahmen für industrielle KI — während deutsche VertreterInnen in Brüssel genau diese Ausnahmen blockieren. Das ist kein Widerspruch durch Inkompetenz. Es ist das Ergebnis unterschiedlicher Interessenpositionen innerhalb einer Regierung, die zwischen Industriestandort-Logik und Regulierungssolidarität innerhalb der EU navigiert.
Die Gegenposition: Warum der TÜV den horizontalen Ansatz verteidigt
TÜV-Geschäftsführer Dr. Joachim Bühler warnt vor dem entgegengesetzten Risiko: Ein aufgeweichter AI Act erzeugt einen „Flickenteppich” aus Einzelregelungen und ein jahrelanges Regulierungsvakuum. Das technische Argument ist stichhaltig: KI-Risiken lassen sich nicht sauber nach Branchen trennen. Bilderkennung funktioniert in einem Medizingerät und in einer Industrieanlage nach denselben Prinzipien — das Risikoprofil folgt nicht der Branchengrenze, sondern dem Einsatzzweck.
Das ist genau die Logik, auf der der AI Act aufgebaut ist. Und es ist dieselbe Logik, nach der ein HR-Screening-Tool unter Hochrisiko fällt — unabhängig davon, ob sein Anbieter das kommuniziert.
Für EntscheiderInnen ergibt sich daraus kein Abwarten als Option: Beide Seiten der Debatte — Hahn und TÜV — sind sich in einem Punkt einig. August 2026 ist das Datum. Die Frage ist nur, ob man mit einem klaren Regelwerk in diesen Termin geht oder mit einem Vakuum.
Was ein Scheitern des Omnibus konkret bedeutet
Ein gescheiterter Omnibus ist kein gescheiterter AI Act. Das Gesetz steht — es wurde 2024 verabschiedet. Der Omnibus ist lediglich der Versuch, es nachträglich zu ändern. Scheitert dieser Versuch, gilt der ursprüngliche Text unverändert weiter — inklusive Doppelregulierung, inklusive voller Kostenlast.
Für Industrieunternehmen aus Maschinenbau oder Medizintechnik bedeutet das: keine Ausnahmen, kein vereinfachter Sektoransatz. Beide Regelwerke laufen parallel, mit teils widersprüchlichen Anforderungen.
Die Umsetzungsleitlinien des EU AI Office stehen noch aus — Q2 2026, also in wenigen Wochen. Unternehmen müssten sich auf ein Gesetz vorbereiten, dessen Interpretation noch in Arbeit ist. Das ist keine theoretische Unsicherheit, sondern die konkrete Planungssituation für den Rest dieses Jahres.
Ein Scheitern hätte auch ein politisches Signal: Es wäre ein Misstrauensvotum gegen die Regulierungsstrategie der Kommission — ohne dass gleichzeitig ein Kompromiss gefunden wurde, der die Wettbewerbsfähigkeit schützt. Für Unternehmen, die auf Klarheit warten, ist das die schlechteste aller Varianten: keine Vereinfachung, aber auch keine Sicherheit über den weiteren Verlauf.
Was das für die Weiterbildungsbranche bedeutet
Hier liegt eine Ironie: Der AI Act schafft Weiterbildungsbedarf — aber er reguliert auch die Weiterbildung selbst. KI-gestützte Lernplattformen, adaptive Lernsysteme, automatisierte Kompetenzerfassung — das sind genau die Systeme, die unter Anhang III fallen könnten, wenn sie Bildungszugang oder -bewertung steuern.
Das eigentliche Problem ist ein anderes. Der Markt reagiert mit Compliance-Schulungen auf einen Kompetenzmangel. Das ist nicht dasselbe. Was EntscheiderInnen jetzt brauchen, ist nicht ein Webinar über Risikoklassen, sondern die Fähigkeit, im konkreten Fall zu urteilen: Fällt unser HR-Screening-Tool unter Anhang III? Braucht unser Schulungsvideo eine Kennzeichnung nach Art. 50? Das sind keine Wissensfragen — das sind Urteilsfragen.
Hinzu kommt: Der Omnibus schlägt vor, die KI-Kompetenzpflicht nach Art. 4 von einer durchsetzbaren Pflicht in eine Empfehlung umzuwandeln. Für Weiterbildungsanbieter, die auf die Pflicht als Verkaufsargument gesetzt haben, ist das eine Warnung. Für jene, die auf echte Kompetenzentwicklung setzen, ändert sich nichts.
Der Markt für Compliance-Pflichtschulungen wird groß werden. Der Markt für tatsächliche Urteilskompetenz ist kleiner — und wird von wenigen besetzt.
Was sich nicht verschiebt
Unabhängig vom Ausgang der Omnibus-Verhandlungen gelten zwei Pflichten so oder so.
Die Transparenzpflichten nach Art. 50 werden ab August 2026 vollständig durchsetzbar. Wer KI-Inhalte produziert — Chatbots, Deepfakes, KI-Avatare in Schulungsvideos, synthetische Stimmen im Marketing — muss diese kennzeichnen. Die Kennzeichnungspflicht gilt unabhängig von der Zustimmung der dargestellten Person. Outsourcing schützt nicht: Das Unternehmen, das den Inhalt verbreitet, haftet als Betreiber.
Die KI-Kompetenzpflicht nach Art. 4 ist seit Februar 2025 in Kraft — und auch wenn der Omnibus sie abschwächt: Die faktische Erwartung, dass Mitarbeitende dokumentierbar kompetent sind, bleibt. Kein Zertifikat ist vorgeschrieben. Aber wer August 2026 ohne Nachweis dasteht, wenn die Bundesnetzagentur prüft, steht schlecht da.
Die eigentliche Frage
Zurück zur Personalleiterin vom Anfang. Ihr Problem ist nicht, dass sie die falschen Paragraphen nicht kennt. Ihr Problem ist, dass sie nicht weiß, wer im Unternehmen in der Lage ist, konkrete Einschätzungen zu treffen: Fällt unser HR-Tool unter Anhang III? Braucht unser Schulungsvideo eine Kennzeichnung? Reicht unsere Dokumentation aus, wenn die Bundesnetzagentur ab August prüft?
Das ist keine Rechtsfrage, die man einmal klärt und abhakt. Das Gesetz wird ausgelegt, interpretiert, nachgebessert. Wer jetzt darauf wartet, dass sich der Staub setzt, verliert das Zeitfenster für geordnete Vorbereitung.
Und wer jetzt mit einem Compliance-Webinar reagiert, produziert Häkchen, keine Handlungsfähigkeit. Das Corporate Learning Barcamp hat es im März formuliert: Pflichtveranstaltungen mit reiner Compliance-Logik gehören auf den Prüfstand — genau weil sie formal etwas erledigen, aber nichts befähigen.
Was jetzt sinnvoll ist
Drei Schritte, die unabhängig vom 28. April gelten:
Erstens: Bestandsaufnahme der eingesetzten KI-Systeme mit dem expliziten Blick auf den Einsatzzweck — nicht auf das Tool-Label. Welche Systeme berühren Personalentscheidungen, Zugang zu Diensten, Bildungsbewertungen?
Zweitens: Prüfen, welche KI-Inhalte das Unternehmen produziert oder verbreitet. Marketing, L&D, Kommunikation. Art. 50 greift breiter, als die meisten erwarten.
Drittens: Klären, wer im Unternehmen diese Einschätzungen treffen soll — und ob diese Personen das können. Nicht theoretisch. Nachweisbar.
Die Brüsseler Verhandlungen vom 28. April sind relevant. Aber sie verändern nichts an der grundlegenden Aufgabe: Urteilskompetenz aufbauen, bevor die Aufsichtsbehörden fragen.
Referenzen
- Svenja Hahn (MdEP): Merz’ Worte folgenlos: Vereinfachung des AI Act droht zu scheitern in FAZ vom 22.04.2026
- Dr. Joachim Bühler (TÜV-Verband) in Industrielle KI: TÜV-Verband fordert einheitliche Regularien in Digital Business Magazin vom 23.04.2026
- Draghi-Report zur EU-Wettbewerbsfähigkeit – von mir hier zusammengefasst: „Ohne Anschluss an Spitzentechnologien verliert Europa seine Macht“, 27.08.2025
- Über meine Exnovation-Session beim Corporate Learning Barcamp im März 2026 finden sich hier einige Infos: Beyond Teaching: Der Friedhof der L&D-Altlasten und die Kunst des strategischen Weglassens.
Dieser Text entstand mit KI-Unterstützung bei Recherche und Strukturierung.
