KI ist nicht gleich KI. Musterkennung oder Sprachverarbeitung, Deep Learning oder autonomes Fahren, digitaler Zwilling oder künstliches neuronales Netz – KI zeigt sich in vielen unterschiedlichen Formen. Daher sind die Risiken durch KI-Anwendungen differenziert zu betrachten und pauschale Bedrohungsszenarien genauso wenig hilfreich wie naiver Enthusiasmus. Einige der diskutierten Gefahrenaspekte betreffen auch den Arbeitsschutz.
Datenqualität
KI lebt von Daten. Daten können falsch gemessen, falsch kategorisiert oder zu sehr vereinfacht sein, all dies verzerrt ihre Auswertung. Fehlerhafte, unvollständige oder einseitige Datensätze verfälschen das – vermeintlich exakte und wertneutrale – Ergebnis der KI. Das kann fatale Folgen haben, wenn es um Daten von Menschen geht – Geschlecht, Alter, Herkunft –, wie Fälle von Diskriminierung durch KI zeigen.
Mit dem Trend zur umfassenden Vernetzung können Arbeitsschutz-Daten zu Gesundheit, Ergonomie, Arbeitszeiten, Arbeitsunfällen, Fehlzeiten in immer komplexeren Softwaresystemen erfasst und – die smarte Fabrik und das „Internet der Dinge“ lassen grüßen – mit Daten aus der Produktion, etwa Maschinendurchsatz, Störfälle, Fehlbedienungen, verknüpft werden.
Das kann in der Tat helfen, Prozesse zu optimieren und Unfallschwerpunkte zu analysieren. Doch eine solche unternehmensweite KI wird enorm mächtig und für den Anwender undurchschaubar. Fehlschlüsse und falsche Korrelationen sind weder erkennbar noch für den Menschen nachvollziehbar.
Datenschutz
KI betrifft häufig Persönlichkeitsrechte. Sobald ein KI-System personenbezogene Daten nutzt, müssen Sie Vorgaben zum Datenschutz beachten. Im März 2023 gab es beim derzeit bekanntesten Chatbot ChatGPT eine Datenpanne und private Chatverläufe waren für andere Nutzer sichtbar. Datenschutzanforderungen gelten jedoch auch dann, wenn eine KI „nur“ unternehmensintern läuft.
Im Arbeitsschutz und beim Betriebsarzt kommen jede Menge Daten zusammen. Andere Daten werden so ganz nebenbei erfasst. Nicht nur durch Computer und Dienst-Handys, auch durch Personennotrufanlagen, Piepser, Ortungsdienste, Firmenfahrzeuge und nicht zuletzt die Arbeitszeiterfassung – haben Sie noch den Überblick, wie viele digitale Spuren Sie jeden Tag hinterlassen?
Kombiniert mit Unfallauswertungen, biometrischen Daten, Ergonomie-Befunden, PSA-Nutzung, aber auch Fehlzeitenstatistiken könnte eine Auswertung diese Datens(ch)ätze durch eine KI für den Arbeitgeber hochinteressant sein. Man wird sehen, inwiefern heutige Nutzungsgrenzen aus der DSGVO ausreichend wirksam bleiben oder ob betrieblicher Gesundheitsschutz als Argument dienen wird, den Schutz personenbezogener Daten über Ausnahmetatbestände aufzuweichen.
Datensicherheit
Sobald Daten über Server in den USA oder schlimmer laufen, wird es kritisch. US-Sicherheitsbehörden haben weitreichende Zugriffsrechte auf Datenbestände, die in den USA verarbeitet werden. Auch die Datensicherheit ist bedroht, denn Ihre Daten werden keineswegs nach Ausgabe des Ergebnisses gelöscht, sondern – genau das macht eine der Stärken der KI aus – zum weiteren Training genutzt.
Wer hier unternehmensinterne Informationen eingibt – was beispielsweise beim Evaluieren für Forschung und Entwicklung durchaus nützlich sein könnte –, sollte sich darüber im Klaren sein, dass er diese Daten damit quasi als Trainingsdaten für die Konkurrenz freigibt.
Überwachung
Beim Umgang mit Risiken und Gefahren sind Kontrollmechanismen unverzichtbar. Vorschriften, Grenzwerte, Tragegebote für PSA oder Erlaubnisverfahren – ein gewisses Maß an Überwachung gehört zum Arbeitsschutz selbstverständlich dazu. Gerade in sicherheitskritischen Bereichen haben wir uns an Zutrittskontrollverfahren oder Überwachungskameras gewöhnt.
Doch wo in einer Arbeitsumgebung – und auch weitab von Sicherheitsbereichen – immer mehr Randbedingungen und Vorgänge digital erfasst, gespeichert und per KI verarbeitet werden, wird der Grat zwischen Sicherheitsbedürfnissen und Arbeitgeberfürsorge einerseits und einer lückenlosen und unzulässigen Überwachung andererseits immer schmäler. Fachkräfte für Arbeitssicherheit werden sich diesen Diskussionen nicht entziehen können.
Missbrauch
Wie jede Technologie kann KI missbraucht werden. Schon heute bringen mit KI manipulierte Videos auf YouTube Millionen von Klicks, denn Fake News generieren Einnahmen. Auch Hacker profitieren von Werkzeugen wie Chat-GPT, das Bekämpfen von Cyberkriminellen wird anspruchsvoller.
Doch die Bedrohung muss nicht immer von außen kommen: Wenn gemäß dem „Internet der Dinge“ (IoT) alle Arbeitsmittel, Gegenstände, Stoffe usw. mit Sicherheitsrelevanz identifizierbar und verfolgbar werden, bietet das viele Ansatzpunkte für die Arbeitssicherheit. Das Bedürfnis nach Sicherheit darf jedoch nicht als Argument missbraucht werden, um eine „gläserne Arbeitswelt“ (siehe Abschnitt „Überwachung“) zu generieren.
Mensch und KI – geht das zusammen?
Wie sich der Einsatz von KI mittelfristig auf uns Menschen, Gesellschaft und Arbeitswelt auswirken wird, ist schwer vorauszusehen. Aber aus dem Wechselspiel von KI mit menschlichem Verhalten könnten sich unerwünschte Effekte ergeben, auch sicherheitsrelevante, hier einige Beispiele:
Abgeben von Verantwortung: Je mehr wir durch smarte Technik unterstützt und überwacht und vor jeder Gefahr gewarnt werden, desto leichtsinniger werden wir. Seitdem jeder Pkw ein Navi hat, benötigt man keine papierne Karten mehr im Wagen, viele „digital natives“ könnten sie eh nicht lesen. Hat man sich früher vorm Urlaub wenigstens ein paar Sätze einer Fremdsprache angeeignet, verlässt man sich heute auf Übersetzungs-Apps. Eine Frage für Arbeitsschützer muss lauten: Wo gehen in ähnlicher Weise „natürliche Sicherheitskompetenzen“ verloren, wenn wir uns mehr und mehr auf eine allumfassende Überwachung und Betreuung durch intelligente Tools verlassen?
Vorgetäuschte Sicherheit: Wenn immer mehr betriebliche Prozesse durch eine automatisierte, KI-basierte Entscheidungsfindung gesteuert werden, kann das zweifellos der Effizienz und der Sicherheit zugutekommen. Das ist aber kein Naturgesetz, sondern muss in jedem Fall – und immer wieder aufs Neue – kritisch hinterfragt werden. Auf keinen Fall darf auch ein noch so leistungsfähiges, sensorgestütztes und vernetztes System dazu führen, dass Beschäftigte mental die Verantwortung für ihre eigene Sicherheit abgeben. Achten Sie darauf, dass smarte Überwachung niemals zu einem falschen Sicherheitsgefühl und damit zu Leichtsinn verleitet.
Stress: Wenn eine KI betriebliche Prozesse effizienter steuert, kann dies zur Arbeitsverdichtung führen und damit den Stress erhöhen. Wo man früher über eine gelegentliche Zwangspause froh war, weil irgendwo irgendetwas zum Arbeiten fehlte, fallen solche Freiräume weg, wenn alle Materialflüsse und Einsatzpläne intelligent gesteuert werden.
Entqualifizierung und Entmenschlichung: In immer smarter und automatisierter gesteuerten Arbeitsumgebungen ist nicht nur mit Verunsicherung und Job-Ängsten zu rechnen. Auch das Gefühl ständiger Überwachung und eines Ausgeliefertseins an emotionslose Systeme kann für den Einzelnen sehr belastend werden. Der Verlust von Kontrolle und Autonomie führt leicht zu Resignation, es drohen innere Kündigung und Depression.
Steigende Technologieabhängigkeit kann mittelfristig eine „Entqualifizierung“ hervorrufen, die eigenen beruflichen Fähigkeiten werden – gerade durch KI – mehr und mehr abgewertet. Mögliche gesellschaftliche Folgen sind noch gar nicht abzusehen. Selbst die OSHA, die Europäische Agentur für Sicherheit und Gesundheitsschutz am Arbeitsplatz, spricht vom Risiko einer „dehumanization“, einer „Entmenschlichung“ der Arbeit.
Bleiben Sie aufmerksam!
Eine KI ist nicht einfach nur eine neue Software. Wenn künstlich intelligente Systeme Entscheidungen über Menschen und Arbeitsprozesse treffen, benötigt dies einen Ordnungsrahmen und Kontrollmechanismen – auch in einem Unternehmen. Derzeit versucht man – unter anderem mit der KI-Verordnung der EU – die vielen noch offenen ethischen Fragen zum Einsatz von KI zu klären und zu regulieren. Dabei geht es um Aspekte, die per se den Arbeitsschutz eng berühren wie Voreingenommenheit und Diskriminierungsfreiheit, Zuverlässigkeit und Transparenz, Fairness und Menschenwürde.
Seien Sie immer dann besonders skeptisch, wenn eine KI Ihre Probleme zu lösen verspricht. Digitale Werkzeuge können wunderbar funktionieren, wir alle nutzen sie. Mehr und mehr findet auch KI ihren Einzug in unsere Arbeitsprozesse, ob wir das bemerken oder nicht. Aber digitale Lösungen haben längst nicht alle ihrer Versprechungen eingehalten. Erinnert sei nur an das papierlose Büro, seit den 1960er Jahren vorausgesagt, aber bis heute sehr schleppend und noch längst nicht überall umgesetzt. Autonomes Fahren soll laut Tesla-Chef Elon Musk in zwei Jahren technisch möglich sein. Das klingt prima, verliert jedoch an Faszination, wenn man weiß, dass diese Prognose aus dem Jahr 2015 stammt.
Wir beginnen erst allmählich zu verstehen, wie sich die vielen neuen „Intelligenzen“ auf unser Arbeiten und Zusammenleben auswirken werden. Ähnlich wie beim WWW, bei Handys oder bei Social Media werden sich Fehlentwicklungen und Nebeneffekte (siehe Spam, Phishing, Online-Sucht, Cybermobbing und vieles andere) auch bei KI erst nach und nach zeigen. Und wie so oft: Die Regulierung hinkt der technischen Dynamik hinterher.
Daher bleiben Sie – privat wie als betrieblicher Arbeitsschützer – wachsam. KI kann vieles, aber ist nicht immer die Lösung, für die sie gehalten wird. Eine KI-gestützte Arbeitsschutz-Software mag versprechen, Ihnen die Organisation des betrieblichen Arbeitsschutzes abzunehmen. Aber vergessen Sie nie, dass auch eine visuell noch so beeindruckende KI-Auswertung auf Ihrem Monitor allein auf Mathematik, Algorithmen und Programmcode beruht. Nutzen Sie KI, aber unter Aufsicht. Hängen Sie Ihre Kompetenz, Intuition und Erfahrung als Arbeitsschützer und Mensch niemals an den Nagel.