Neue Regeln für KI: So beeinflusst der EU-AI-Act den Arbeitnehmer:innenschutz
Künstliche Intelligenz (KI) ist längst Alltag in Betrieben. Mit dem EU-AI-Act gelten neue verbindliche Regeln, die Sicherheitsfachkräfte (SFK) in den Arbeitnehmer:innenschutz integrieren müssen.
In vielen Betrieben ist künstliche Intelligenz keine Zukunftstechnologie mehr, sondern Teil des laufenden Betriebs. Systeme zur Produktionssteuerung, Qualitätssicherung, Wartungsplanung oder zur Unterstützung administrativer Tätigkeiten sind bereits im Einsatz. Mit dem AI-Act hat die Europäische Union erstmals einen verbindlichen Rechtsrahmen geschaffen, der diese Entwicklung europaweit reguliert. Für Sicherheitsfachkräfte (SFK) stellt sich damit nicht nur eine rechtliche, sondern vor allem eine fachliche Frage: Welche neuen Anforderungen entstehen im Kontext von Sicherheit und Gesundheit bei der Arbeit?
Der AI-Act ist eine EU-Verordnung und gilt daher unmittelbar in allen Mitgliedstaaten, also auch in Österreich. Eine nationale Umsetzung ist nicht erforderlich; die Anforderungen sind direkt und einheitlich anwendbar. Nationale Regelungen können den Rahmen lediglich ergänzen, nicht ersetzen.
Für Betriebe bedeutet das: Die Pflichten ergeben sich unmittelbar aus dem EU-Recht. Es gibt keinen Spielraum, auf eine spätere nationale Konkretisierung zu warten. Für SFK ist wichtig, dass sich daraus neue verbindliche Rahmenbedingungen ergeben, die in bestehende Arbeitsschutzstrukturen integriert werden müssen.
Inkrafttreten und AnwendungsÂbeginn
Der AI-Act wurde 2024 beschlossen und am 12. Juli 2024 im Amtsblatt der EU veröffentlicht. Er ist damit am 1. August 2024 in Kraft getreten. Dieses Inkrafttreten markiert jedoch nur den formalen Beginn. Die rechtlichen Pflichten aus dem AI-Act werden gestaffelt über mehrere Jahre wirksam und sind erst nach entsprechenden Übergangsfristen vollständig anzuwenden.
Bereits 6 Monate nach dem Inkrafttreten (2. Februar 2025) gelten die Verbote bestimmter KI-Praktiken. Andere Verpflichtungen, insbesondere jene für Hochrisiko-KI-Systeme, werden nach Übergangsfristen von zwölf bzw. vierundzwanzig Monaten verbindlich.
Diese gestaffelte Einführung ist für die Praxis entscheidend. Sie verschafft Betrieben Zeit zur Anpassung, verlangt aber gleichzeitig eine frühzeitige Auseinandersetzung. Wer erst bei voller Anwendbarkeit beginnt, riskiert Umsetzungsdruck, organisatorische Lücken und Unsicherheiten im Betrieb.
Der risikobasierte Ansatz als Grundprinzip
Der AI-Act folgt keinem pauschalen Regulierungsansatz. Stattdessen werden KI-Systeme danach beurteilt, welches Risiko sie für Menschen darstellen. Dieses Prinzip ist SFKs gut bekannt, da es Parallelen zur Gefährdungsbeurteilung im Arbeitnehmer:innenschutz aufweist.
KI-Systeme mit unannehmbarem Risiko sind grundsätzlich verboten. Dabei handelt es sich um Anwendungen, die Menschen manipulieren, ihre Entscheidungsfreiheit untergraben oder grundlegende Rechte gefährden. Solche Systeme dürfen nicht eingeführt werden, unabhängig davon, ob sie technisch leistungsfähig oder wirtschaftlich attraktiv wären.
Besonders relevant für den Arbeitnehmer:innenschutz sind jedoch die Hochrisiko-KI-Systeme. Diese liegen nach dem AI-Act nur dann vor, wenn ein KI-System entweder als Sicherheitsbauteil eines unter EU-Harmonisierungsrecht fallenden Produkts eingesetzt wird und dieses Produkt einer Konformitätsbewertung durch Dritte unterliegt oder wenn das KI-System in den in Anhang III des AI-Acts ausdrücklich genannten Anwendungsbereichen (z. B. Sicherheitskomponenten bei kritischer Infrastruktur, Bewertungssysteme für Zulassungen zur Bildung, automatische KI-Entscheidungen beim Recruiting) eingesetzt wird. In industriellen Umgebungen kann dies insbesondere KI-Systeme betreffen, die sicherheitsrelevante Funktionen innerhalb regulierter Maschinen oder Anlagen übernehmen oder in ausdrücklich als Hochrisiko eingestuften Anwendungsfällen eingesetzt werden.
Für diese Systeme verlangt der AI-Act unter anderem ein strukturiertes Risikomanagement, qualitativ hochwertige Daten, technische Dokumentation, Transparenz sowie eine wirksame menschliche Aufsicht. Aus Sicht der SFK bedeutet das: KI wird Teil des sicherheitstechnischen Gesamtsystems eines Betriebs und muss entsprechend bewertet werden.
Daneben gibt es KI-Systeme mit begrenztem Risiko, etwa Chatbots oder Assistenzsysteme. Hier stehen Transparenzpflichten im Vordergrund, etwa die Information, dass es sich um KI handelt.
Schließlich umfasst der AI-Act auch eine große Gruppe von KI-Systemen mit minimalem oder keinem Risiko. Dazu zählen Anwendungen wie einfache Optimierungsalgorithmen, KI-gestützte Bildverbesserung oder Systeme ohne Einfluss auf sicherheitsrelevante Entscheidungen. Diese Anwendungen bleiben weitgehend unreguliert, da von ihnen kein relevantes Risiko für Sicherheit, Gesundheit oder Grundrechte ausgeht.
Â
KI-Kompetenz als neue Pflicht im Betrieb
Ein zentraler, oft unterschätzter Aspekt des AI-Act ist die Verpflichtung zur KI-Kompetenz (AI-Act Artikel 4). Der Gesetzgeber geht davon aus, dass sichere KI-Nutzung nicht allein durch technische Anforderungen gewährleistet werden kann. Entscheidend ist auch, dass die beteiligten Personen verstehen, womit sie arbeiten.
Diese Verpflichtung gilt ab 2. Februar 2025 und betrifft alle Anbieter:innen und Betreiber:innen (d. h. auch der:die Arbeitgeber:in, der:die KI-Produkte seinen:ihren Angestellten zur Verfügung stellt), die KI-Systeme im Arbeitskontext nutzen, überwachen oder betreiben. Damit ist sie frühzeitig und unmittelbar auch für die Arbeitssicherheit relevant.
Der AI-Act schreibt dabei keine standardisierte Schulung vor. Stattdessen fordert er, dass die Schulung dem konkreten Einsatz von KI im Betrieb angepasst ist. Genau hier liegt der wesentliche Punkt: Eine allgemeine Einführung in „KI“ reicht nicht aus.
Eine KI-Anwendung in der Produktion, die sicherheitsrelevante Prozesse beeinflusst, stellt andere Anforderungen als ein Chatbot zur Unterstützung administrativer Tätigkeiten. Entsprechend unterschiedlich müssen Schulungsinhalte, Tiefe und Praxisbezug sein. Thematisiert werden müssen unter anderem Funktionsweise, Grenzen und typische Fehler von KI-Systemen, die Rolle menschlicher Aufsicht sowie mögliche Auswirkungen auf Sicherheit und Gesundheit.
Â
Auswirkungen auf die Rolle der SFK
Für SFKs in Österreich verändert der AI-Act nicht die grundlegenden Aufgaben, erweitert aber das fachliche Umfeld. KI-Systeme können neue Gefährdungen schaffen oder bestehende verändern. Dazu zählen Fehlentscheidungen, Intransparenz, Übervertrauen in automatisierte Systeme oder unklare Verantwortlichkeiten.
SFKs werden daher verstärkt an der Schnittstelle zwischen Technik, Organisation und Recht arbeiten. Bei der Gefährdungsbeurteilung müssen KI-basierte Systeme mitgedacht werden, insbesondere dort, wo Mensch und KI gemeinsam agieren oder KI-Entscheidungen direkte Auswirkungen auf die Sicherheit und Gesundheit der Mitarbeiter:innen haben kann. Auch bei der Gestaltung von Schulungen können SFKs eine zentrale Rolle einnehmen, indem sie sicherheitsrelevante Inhalte einbringen und auf den konkreten betrieblichen Einsatz abstimmen.
Der AI-Act macht deutlich: KI ist kein reines IT-Thema. Sie wirkt unmittelbar auf Arbeitsbedingungen, Entscheidungsprozesse und Sicherheitsniveaus. Für SFKs entsteht damit ein neues, dauerhaftes Handlungsfeld, das technisches Grundverständnis, arbeitsrechtliche Sensibilität und klassische Arbeitsschutzkompetenz verbindet.
Artikel in Fachzeitschriften
Bei Fragen zum Thema steht Ihnen das AUVA-Präventionsteam gerne zur Verfügung. Kontaktieren Sie uns unter sichereswissen@auva.at