Startseite » Allgemein »

Computerwissenschaft: Überlegene Künstliche Intelligenz wäre nicht zu stoppen

Studie des Max-Planck-Instituts für Bildungsforschung
Superintelligente Maschinen könnten wir nicht kontrollieren

Klingt nach Science-Fiction, ist aber gar nicht weit hergeholt: superintelligente Maschinen, die sich verselbstständigen. Foto: vchalup - stock.adobe.com
Anzeige

Während in der Kün­stlichen Intel­li­genz (KI) ständig neue Fortschritte erzielt wer­den, war­nen einige Wis­senschaftler und Philosophen vor den Gefahren ein­er unkon­trol­lier­baren, super­in­tel­li­gen­ten KI. Ein inter­na­tionales Forscherteam unter Beteili­gung des Forschungs­bere­ichs Men­sch und Mas­chine am Max-Planck-Insti­tut für Bil­dungs­forschung zeigt, dass diese War­nun­gen nicht unberechtigt sind: The­o­retis­che Berech­nun­gen der Forsch­er lassen den Schluss zu, dass eine super­in­tel­li­gente KI nicht kon­trol­lier­bar wäre. 

Maschi­nen, die Autos steuern, Sym­phonien kom­ponieren oder Men­schen in Schach, Go oder Jeop­ardy besiegen, wirken faszinierend. Doch angenom­men, jemand würde eine Kün­stliche Intel­li­genz (KI) pro­gram­mieren, deren Intel­li­genz dem Men­schen über­legen wäre und die selb­st­ständig alles ler­nen kön­nte. Angeschlossen an das Inter­net hätte die KI Zugriff auf alle Dat­en der Men­schheit, sie kön­nte alle beste­hen­den Pro­gramme erset­zen und alle ans Inter­net angeschlosse­nen Maschi­nen kon­trol­lieren. Ist das eine Utopie oder ein Hor­rorszenario? Würde die KI Krebs heilen, den Welt­frieden her­beiführen und die Kli­makatas­tro­phe ver­hin­dern? Oder würde sie die Men­schheit ver­nicht­en und die Erde übernehmen?

Kein Science-Fiction

Com­put­er­wis­senschaftler und Philosophen stellen sich die Frage, ob wir eine super­in­tel­li­gente KI über­haupt kon­trol­lieren kön­nten, sodass sie der Men­schheit nicht schadet. Ein inter­na­tionales Team von Com­put­er­wis­senschaftlern zeigt anhand the­o­retis­ch­er Berech­nun­gen, dass es grund­sät­zlich unmöglich ist, eine super­in­tel­li­gente KI zu kon­trol­lieren. „Eine super­in­tel­li­gente Mas­chine, die die Welt kon­trol­liert, klingt nach Sci­ence-Fic­tion. Doch schon heute gibt es Maschi­nen, die bes­timmte wichtige Auf­gaben selb­ständig erledi­gen, ohne dass Pro­gram­mierin­nen und Pro­gram­mier­er kom­plett ver­ste­hen, wie sie das gel­ernt haben. Daher stellt sich für uns die Frage, ob das für die Men­schheit irgend­wann unkon­trol­lier­bar und gefährlich wer­den kön­nte“, sagt Manuel Cebri­an, Leit­er der Forschungs­gruppe „Dig­i­tale Mobil­isierung“ am Forschungs­bere­ich Men­sch und Mas­chine am Max-Planck-Insti­tut für Bil­dungs­forschung und Co-Autor der Studie.

Zwei Kontrollansätze

Wis­senschaftler weltweit haben zwei Ideen entwick­elt, wie eine super­in­tel­li­gente KI kon­trol­liert wer­den kön­nte. Zum einen kön­nte man die Ressourcen der super­in­tel­li­gen­ten KI gezielt ein­schränken, indem man sie beispiel­sweise vom Inter­net und allen anderen tech­nis­chen Geräten abschot­tet, so dass sie keinen Kon­takt zur Außen­welt hat – doch wür­den dadurch auch die Fähigkeit­en der super­in­tel­li­gente KI deut­lich geringer sein. Die großen Men­schheit­sprob­leme würde sie so nicht lösen. Die andere Option wäre, die KI von vorn­here­in zu motivieren, nur Ziele zu ver­fol­gen, die im Inter­esse der Men­schheit liegen, zum Beispiel indem man ihr ethis­che Regeln ein­pro­gram­miert. Doch zeigen die Forsch­er, dass diese und andere his­torische oder aktuelle Ideen, die super­in­tel­li­gente KI zu kon­trol­lieren, ihre Gren­zen haben.

Kein Algorithmus zur Schadensabwehr

Das Forscherteam konzip­ierte in ihrer Studie einen the­o­retis­chen Algo­rith­mus, der sich­er­stellt, dass eine super­in­tel­li­gen­ten KI unter keinen Umstän­den der Men­schheit schadet. Dieser Algo­rith­mus simuliert zunächst das Ver­hal­ten der KI und stoppt sie, wenn er es als schädlich erachtet. Jedoch zeigt eine genaue Analyse dieses Algo­rith­mus, dass nach aktuellem Stand der Com­put­er­wis­senschaften ein solch­er Algo­rith­mus nicht pro­gram­miert wer­den kann. „Bricht man das Prob­lem auf ein­fache Grun­dregeln aus der the­o­retis­chen Infor­matik herunter, zeigt sich, dass ein Algo­rith­mus, der ein­er KI befehlen würde, die Welt nicht zu zer­stören, sich wom­öglich aufhän­gen würde. Man wüsste dann nicht, ob der Algo­rith­mus die Bedro­hung noch analysiert oder ob er aufge­hört hat, die schädliche KI einzudäm­men. Das macht diesen Algo­rith­mus prak­tisch unbrauch­bar“, sagt Iyad Rah­wan, Direk­tor des Forschungs­bere­ichs Men­sch und Maschine.

Überlegene Intelligenz nicht messbar

Auf Basis dieser Berech­nun­gen ist es somit nicht möglich, einen Algo­rith­mus zu pro­gram­mieren, der erken­nt, ob eine KI der Welt Schaden zufü­gen würde oder nicht. Dazu kommt, dass wir möglicher­weise nicht ein­mal erken­nen kön­nten, ob eine Mas­chine super­in­tel­li­gent ist. Denn ob eine Mas­chine eine dem Men­schen über­legene Intel­li­genz besitzt, lässt sich nach aktuellen Erken­nt­nis­sen eben­falls nicht berechnen.

Die Studie „Super­in­tel­li­gence can­not be con­tained: Lessons from Com­putabil­i­ty The­o­ry“ wurde im Jour­nal of Arti­fi­cial Intel­li­gence Research veröffentlicht.

www.mpib-berlin.mpg.de

 

Erstveröf­fentlichung der Studie: Alfon­se­ca, M., Cebri­an, M., Anta, A. F., Coviel­lo, L., Abeliuk, A., & Rah­wan, I. (2021). Super­in­tel­li­gence Can­not be Con­tained: Lessons from Com­putabil­i­ty The­o­ry. Jour­nal of Arti­fi­cial Intel­li­gence Research, 70, 65–76.

Direk­tlink zu Originalpublikation

 

Anzeige
Gewinnspiel

Newsletter

Jet­zt unseren Newslet­ter abonnieren

Meistgelesen

Jobs
Sicherheitsbeauftragter
Titelbild Sicherheitsbeauftragter 2
Ausgabe
2.2021
ABO
Sicherheitsingenieur
Titelbild Sicherheitsingenieur 2
Ausgabe
2.2021
ABO
Anzeige
Anzeige

Industrie.de Infoservice
Vielen Dank für Ihre Bestellung!
Sie erhalten in Kürze eine Bestätigung per E-Mail.
Von Ihnen ausgesucht:
Weitere Informationen gewünscht?
Einfach neue Dokumente auswählen
und zuletzt Adresse eingeben.
Wie funktioniert der Industrie.de Infoservice?
Zur Hilfeseite »
Ihre Adresse:














Die Konradin Verlag Robert Kohlhammer GmbH erhebt, verarbeitet und nutzt die Daten, die der Nutzer bei der Registrierung zum Industrie.de Infoservice freiwillig zur Verfügung stellt, zum Zwecke der Erfüllung dieses Nutzungsverhältnisses. Der Nutzer erhält damit Zugang zu den Dokumenten des Industrie.de Infoservice.
AGB
datenschutz-online@konradin.de