Chatbots richtig nutzen: Assistenz ja, Entscheidungen nein
Moderne Chatbots steigern Effizienz und Effektivität im Arbeits- und Gesundheitsschutz durch Ideen und Informationen. Gleichzeitig können durch Fehlinformationen Risiken entstehen, weshalb kritisches Prüfen und fundiertes Wissen notwendig sind.
Chatbots sind im Arbeitsalltag angekommen. Sie unterstützen bei Recherche, Textarbeit, Übersetzungen oder der Aufbereitung von Informationen. Auch im Arbeitnehmer:innenschutz eröffnen sie neue Möglichkeiten, etwa indem sie sicherheitsrelevante Inhalte schneller auffindbar machen, Schulungsunterlagen an unterschiedliche Sprach- oder Wissensniveaus anpassen oder Informationen für multikulturelle Belegschaften verständlicher aufbereiten. Richtig eingesetzt können Chatbots damit einen echten Beitrag zur Präventionsarbeit leisten.
Der rechtliche Rahmen wird durch den EU-AI-Act vorgegeben, der seit 2024 in Kraft ist und schrittweise verbindlich wird. Ab 2025 greifen – abhängig vom jeweiligen Risiko – konkrete Pflichten für den Einsatz von KI. Entscheidend ist dabei weniger die Technologie selbst als vielmehr der Zweck, für den sie genutzt wird. Weitere Informationen finden Sie im Blogbeitrag AI-Act und Arbeitnehmer:innenschutz.
Was Chatbots können
Im unterstützenden Einsatz gelten Chatbots in der Regel als Systeme mit geringem Risiko. Sie liefern Texte, Strukturvorschläge oder Übersetzungen und dienen als Hilfsmittel für Fachkräfte. Die fachliche Bewertung, Entscheidung und Verantwortung bleiben dabei vollständig beim Menschen. Gerade hier liegt ihre Stärke: Sie beschleunigen Arbeitsprozesse. Aber: Sie ersetzen keine Expertise.
Was Chatbots nicht können
Chatbots arbeiten nicht fehlerfrei, sondern erzeugen mitunter plausible, aber sachlich falsche Inhalte. Zudem besteht das Risiko, sensible oder personenbezogene Daten einzugeben, ohne die Folgen vollständig zu überblicken. Auch Fragen der Datensicherheit und eine zunehmende Abhängigkeit von technischen Systemen spielen eine Rolle. Ein praktikabler Grundsatz für den Alltag lautet daher: Es sollten nur Informationen eingegeben werden, die man auch gegenüber einer fremden Person offenlegen würde.
Â
Was sind Hochrisiko-KI-Systeme?
Kritisch wird der Einsatz dort, wo Chatbots nicht mehr unterstützen, sondern bewerten oder Entscheidungen vorbereiten oder treffen. Sobald KI-Systeme Einfluss auf Rechte, Chancen oder den Schutz von Beschäftigten haben, ändert sich ihre rechtliche Einordnung. Ein Chatbot kann dann – abhängig vom Einsatzbereich – als Hochrisiko-KI (siehe AI-Act Artikel 6 bzw. Anhang III) gelten. Das kann etwa der Fall sein, wenn er im Recruiting zur Auswahl von Bewerbern:Bewerberinnen eingesetzt wird oder sicherheitsrelevante Bewertungen vornimmt. In solchen Konstellationen verlangt der AI-Act umfangreiche organisatorische und technische Maßnahmen, darunter Risikomanagement, Dokumentation, menschliche Aufsicht und laufende Kontrolle.
Überprüfen, überprüfen, überprüfen
Für den praktischen Einsatz bedeutet das: Chatbots sollten konsequent als Werkzeuge verstanden werden, nicht als Entscheidungsträger. Ihre Ergebnisse müssen geprüft, eingeordnet und verantwortet werden. Der Mensch bleibt in der Verantwortung – und genau darin liegt der Schlüssel für einen sicheren und sinnvollen Einsatz von Chatbots im Arbeitnehmer:innenschutz.
Artikel in Fachzeitschriften
Bei Fragen zum Thema steht Ihnen das AUVA-Präventionsteam gerne zur Verfügung. Kontaktieren Sie uns unter sichereswissen@auva.at