1 Monat GRATIS testen, danach für nur 3,90€/Monat!
Startseite » Sicherheitsnews » Prävention »

Produktsicherheit mit komplexer künstlicher Intelligenz

Sicherheitsrelevante Entscheidungen im Fokus
Produktsicherheit mit komplexer künstlicher Intelligenz?

Future_technology_concept_with_person_using_a_laptop_computer
Foto: © Tierney – stock.adobe.com
Der Geset­zge­ber ste­ht vor der Her­aus­forderung, Anforderun­gen an Sys­teme zu definieren, deren Ver­hal­ten nicht vorherse­hbar ist. Wie ist hier der Sta­tus Quo?

Zwar gibt es keine all­ge­mein anerkan­nte Def­i­n­i­tion für kün­stliche Intel­li­genz. Klar ist aber, dass die ver­schiede­nen dafür ver­wen­de­ten Meth­o­d­en den Men­schen dabei unter­stützen sollen, Entschei­dun­gen zu tre­f­fen – oder sie ihm sog­ar abnehmen. Offen ist, in welchen Fällen und unter welchen Voraus­set­zun­gen sicher­heit­srel­e­vante Entschei­dun­gen eines Sys­tems von Meth­o­d­en der kün­stlichen Intel­li­genz bee­in­flusst oder automa­tisiert getrof­fen wer­den dürfen.

Die von einem Pro­dukt aus­ge­hen­den Risiken müssen beurteilt und vor dem Bere­it­stellen auf dem Markt auf ein vertret­bares Maß reduziert wer­den. Vor­gaben für das dabei einzuhal­tende hohe Schutzniveau enthal­ten die Richtlin­ien und Verord­nun­gen des europäis­chen Bin­nen­mark­ts. Pro­duk­te und Arbeitsmit­tel, die nicht in diesen har­mon­isierten Bere­ich fall­en, unter­liegen nationalen Vorschriften.

Die Hier­ar­chie der Schutz­maß­nah­men sieht dabei vor, dass ein Pro­dukt so kon­stru­iert wer­den soll, dass Gefährdun­gen erst gar nicht entste­hen kön­nen. Wo dies nicht umset­zbar ist, müssen Schutzein­rich­tun­gen die Risiken so weit ver­ringern, bis nur noch vertret­bare Restrisiken übrig sind. Über diese müssen schließlich die Anwen­der informiert wer­den. Einen wesentlichen Anteil an diesem Konzept haben Steuerun­gen, wenn sie dazu einge­set­zt wer­den, Sicher­heits­funk­tio­nen eines Pro­duk­tes auszuführen.

Entschei­dend ist, dass Her­steller in der Lage sind, die von ihren Pro­duk­ten aus­ge­hen­den Risiken zu beurteilen. Und genau dies wäre das Prob­lem, wollte man sich etwa auf eine durch maschinelles Ler­nen1 unter­stützte Steuerung ver­lassen, um zu ver­hin­dern, dass Per­so­n­en von beweglichen Teilen ein­er Mas­chine gefährdet wer­den: Die Design­er von Sys­te­men, die auf den kom­plex­eren Meth­o­d­en der kün­stlichen Intel­li­genz basieren (wie etwa maschinelles Ler­nen mit neu­ronalen Net­zen), kön­nen bish­er selb­st im Nach­hinein nicht zufrieden­stel­lend erk­lären, warum sich ihr Sys­tem auf eine bes­timmte Weise ver­hal­ten hat.

Sicherheitstechnik auf unbekanntem Terrain

Die tech­nis­chen Grund­la­gen und Annah­men, auf denen die tra­di­tionelle Sicher­heit­stech­nik auf­baut, sind nicht für Sys­teme gemacht, die automa­tisiert mit kom­plex­eren Meth­o­d­en der kün­stlichen Intel­li­genz sicher­heit­srel­e­vante Entschei­dun­gen tre­f­fen. Gegen­wär­tig wer­den daher Bew­er­tungsmeth­o­d­en erforscht. Die Ergeb­nisse sollen möglichst umge­hend für die Nor­mungsar­beit auf­bere­it­et wer­den2. Ziel ist festzustellen, wie kün­stliche Intel­li­genz über­haupt im Zusam­men­hang mit sicher­heit­srel­e­van­ten Sys­te­men genutzt wer­den könnte.

Ein Ansatz, die Sicher­heit sehr kom­plex­er Sys­teme ver­trauenswürdig zu bele­gen, beste­ht darin, „Argu­mente“ zu definieren, die (induk­tiv hergeleit­ete) „starke“ Indizien (nicht den absoluten Beweis) liefern sollen. Er wird schon lange bei sehr kom­plex­en Tech­nolo­gien angewen­det, beispiel­sweise in der Nuk­leart­ech­nik oder der Luft- und Raum­fahrt, aber auch um zu prüfen, ob Soft­ware für den sicher­heit­srel­e­van­ten Ein­satz geeignet ist.

Nun wird ver­sucht, mit solchen eher aus dem Risiko­man­age­ment kom­menden Ansätzen auch für Meth­o­d­en der kün­stlichen Intel­li­genz Kri­te­rienkat­a­loge für ein akzept­a­bles Risikoniveau aufzustellen. Diese Kri­te­rienkat­a­loge kön­nen Fes­tle­gun­gen zu Spez­i­fika­tion und Mod­el­lierung, Erk­lär­barkeit und Nachvol­lziehbarkeit von Entschei­dun­gen, Über­trag­barkeit auf unter­schiedliche Sit­u­a­tio­nen, Ver­i­fizierung und Vali­dierung des Sys­tems, Überwachung während der Laufzeit, Men­sch-Mas­chine-Inter­ak­tion, Prozess­sicherung und Zer­ti­fizierung sowie sicher­heits­be­zo­gen­er Ethik und Daten­sicher­heit enthal­ten. In diese Rich­tung geht auch die Forderung des Europäis­chen Par­la­ments für eine Verord­nung (EU) über ethis­che Grund­sätze für die Entwick­lung, den Ein­satz und die Nutzung von kün­stlich­er Intel­li­genz, Robotik und damit zusam­men­hän­gen­den Tech­nolo­gien. Das Par­la­ment schlägt dort solche Kri­te­rien für die Bew­er­tung der Kon­for­mität vor.

Ein solch­er Ansatz bedeutet, dass Sicher­heit nicht vor­wiegend durch nach­prüf­bare Pro­duk­teigen­schaften definiert wird, son­dern durch nach­prüf­bare Prozesskri­te­rien. Um sich einem hohen Sicher­heit­sniveau im Sinne der europäis­chen Pro­duk­t­sicher­heitsvorschriften und des Grundgedankens der Präven­tion am Arbeit­splatz anzunäh­ern, müsste dazu aber erst ein­mal nachgewiesen wer­den, dass die Kri­te­rien für die oben genan­nten „Argu­mente“ voll­ständig und ver­lässlich sind. Streng genom­men kön­nen daher auch Vorschriften, die hier­für den Rah­men und grundle­gende Anforderun­gen vorgeben, erst dann fest­gelegt wer­den, wenn sich die ihnen zu Grunde liegen­den Annah­men ver­lässlich bewährt haben.

Erste Regelungsansätze

Die Gren­zen, inner­halb der­er nach dem gegen­wär­ti­gen Rechts- und Nor­mungs­stand maschinelles Ler­nen in eine Maschi­nen­s­teuerung einge­bet­tet wer­den kön­nte, ver­sucht der ger­ade erschienene ISO/TR 22100–53 abzusteck­en. In diesen Tagen legt die Europäis­che Kom­mis­sion sowohl einen Vorschlag für die Über­ar­beitung der Maschi­nen-Richtlin­ie 2006/42/EG, als auch für eine Verord­nung zur kün­stlichen Intel­li­genz vor, die rechtlich verbindliche Rah­menbe­din­gun­gen für die Ver­wen­dung kün­stlich­er Intel­li­genz enthalten.

Diese Rah­menbe­din­gun­gen müssen voll­ständi­ge, klare und ver­i­fizier­bare Anforderun­gen dafür enthal­ten, in welchen Fällen und unter welchen Voraus­set­zun­gen sicher­heit­srel­e­vante Entschei­dun­gen eines Sys­tems von Meth­o­d­en der kün­stlichen Intel­li­genz bee­in­flusst oder automa­tisiert getrof­fen wer­den dür­fen. Ob dies der Fall ist, muss die Fach­welt nun prüfen. Es bleibt auf jeden Fall spannend.

Fußnoten

1 Beim maschinellen Ler­nen erler­nen Com­put­er eine Auf­gabe anhand von Dat­en und nicht dadurch, dass sie aus­drück­lich dafür pro­gram­miert oder durch für den Men­schen ver­ständliche Regeln trainiert werden.

2 Z. B. das Pro­jekt ISO/TR 5469 „Arti­fi­cial intel­li­gence – Func­tion­al safe­ty and AI sys­tems“ in der ISO/IEC JTC 1/SC 42/WG 3

3 ISO/TR 22100–5:2021–01 „Safe­ty of machin­ery — Rela­tion­ship with ISO 12100 — Part 5: Impli­ca­tions of arti­fi­cial intel­li­gence machine learning“


Autor:

Dipl.-Ing. Cor­ra­do Mattiuzzo

Kom­mis­sion Arbeitss­chutz und Nor­mung (KAN)

mattiuzzo@kan.de

www.kan.de

Newsletter

Jet­zt unseren Newslet­ter abonnieren

Gewinnspiel
Meistgelesen
Jobs
Sicherheitsbeauftragter
Titelbild Sicherheitsbeauftragter 10
Ausgabe
10.2021
ABO
Sicherheitsingenieur
Titelbild Sicherheitsingenieur 10
Ausgabe
10.2021
ABO

Industrie.de Infoservice
Vielen Dank für Ihre Bestellung!
Sie erhalten in Kürze eine Bestätigung per E-Mail.
Von Ihnen ausgesucht:
Weitere Informationen gewünscht?
Einfach neue Dokumente auswählen
und zuletzt Adresse eingeben.
Wie funktioniert der Industrie.de Infoservice?
Zur Hilfeseite »
Ihre Adresse:














Die Konradin Verlag Robert Kohlhammer GmbH erhebt, verarbeitet und nutzt die Daten, die der Nutzer bei der Registrierung zum Industrie.de Infoservice freiwillig zur Verfügung stellt, zum Zwecke der Erfüllung dieses Nutzungsverhältnisses. Der Nutzer erhält damit Zugang zu den Dokumenten des Industrie.de Infoservice.
AGB
datenschutz-online@konradin.de