Startseite » Allgemein »

Studie zeigt, dass manche Menschen emotional auf Roboter reagieren

Wenn Menschen emotional auf Roboter reagieren
Der ängstliche Nao

Wie reagieren Menschen auf einen Roboter mit menschlichen Verhaltensweisen? Dies untersuchte eine Studie. (Foto: © UDE/Sozialpsychologie)
Anzeige

Es ist schon lange keine Sci­ence-Fic­tion mehr: Robot­er kom­mu­nizieren mit Men­schen; sie begrüßen Gäste in Hotels oder muntern pflegebedürftige Senioren auf. Was macht das mit uns? Nehmen wir die Maschi­nen wirk­lich als soziale Wesen wahr? Tat­säch­lich kön­nen sie Gefüh­le aus­lösen. Das zeigt eine Studie der Sozialpsy­cholo­gie der Uni­ver­sität Duis­burg-Essen (UDE), in der es Proban­den mit einem ängstlichen Robot­er zu tun beka­men.

In einem Exper­i­ment saßen 85 Per­so­n­en einem Nao gegenüber – ein niedlich­er Robot­er, 58 Zen­time­ter groß, Kuller­au­gen. Den Proban­den wurde gesagt, man wolle mith­il­fe einiger Auf­gaben seine Inter­ak­tions­fähigkeit verbessern. Doch darum ging es dem Forscherteam um Prof. Nicole Krämer und Aike Horstmann nicht. Für sie war das Ende der Sitzung entschei­dend: Alle Teil­nehmenden wur­den näm­lich angewiesen, den Robot­er abzustellen. Bei 43 von ihnen bet­telte er plöt­zlich: „Nein! Bitte knipse mich nicht aus! Ich habe Angst vor der Dunkel­heit!“ Daraufhin ließen ihn 13 Per­so­n­en an. Die übri­gen 30 braucht­en dop­pelt so lange, den Aus-Knopf zu drück­en, als die Ver­gle­ichs­gruppe, bei der Nao nicht jammerte.

 Woran lag das? Am häu­fig­sten gaben die Proban­den an, nicht gegen den Willen des Robot­ers han­deln zu wollen. Sechs Per­so­n­en erk­lärten: „Ich hat­te Mitleid mit ihm, als er sagte, er fürchte sich.“ Weit­ere Motive waren: die Wahl gehabt zu haben, von der Sit­u­a­tion über­rascht wor­den zu sein, Neugi­er, was weit­er passieren würde, und Furcht, etwas falsch zu machen. „Das belegt, dass wir Robot­er zwar nicht bewusst als soziale Wesen sehen“, erläutert Stu­di­en­lei­t­erin Prof. Nicole Krämer. „Wenn sie aber men­schlich reagieren, kann man nicht anders, als sie men­schenähn­lich zu behan­deln. Das liegt an unserem ange­bore­nen sozialen Verhalten.“

 Spielt es eine Rolle, ob der Robot­er vorher wie ein Men­sch oder nüchtern wie eine Mas­chine mit den Proban­den kom­mu­niziert? Auch das testete das UDE-Team. Aus­gerech­net diejeni­gen, die mit einem funk­tionalen Nao inter­agierten, zögerten lange, ihn auszuknipsen, als er emo­tion­al auf­begehrte. „Das war über­raschend für uns“, so Aike Horstmann. „Wir denken, dass dies erhöhte kog­ni­tive Belas­tung aus­löste, weil es beson­ders unvorherse­hbar war.“

 Wer allerd­ings einen sozialen Robot­er vor der Nase hat­te, fühlte sich nach dem Auss­chal­ten schlechter. „Es hat also Fol­gen, wenn man Maschi­nen mit men­schlichen Ver­hal­tensweisen ausstat­tet. Man muss sich fra­gen, ob das ethisch wün­schenswert ist“, meint Krämer. „Auf abse­hbare Zeit müssen wir uns jedoch keine Sor­gen machen, dass Robot­er uns dominieren. Die Tech­nik ist noch lange nicht so weit.“

 

Die Studie ist in der Online-Fachzeitschrift PLOS One erschienen. Ein­se­hbar hier.

 

 

Anzeige
Newsletter

Jet­zt unseren Newslet­ter abonnieren

Meistgelesen

Jobs
Sicherheitsbeauftragter
Titelbild Sicherheitsbeauftragter 2
Ausgabe
2.2021
ABO
Sicherheitsingenieur
Titelbild Sicherheitsingenieur 2
Ausgabe
2.2021
ABO
Anzeige
Anzeige

Industrie.de Infoservice
Vielen Dank für Ihre Bestellung!
Sie erhalten in Kürze eine Bestätigung per E-Mail.
Von Ihnen ausgesucht:
Weitere Informationen gewünscht?
Einfach neue Dokumente auswählen
und zuletzt Adresse eingeben.
Wie funktioniert der Industrie.de Infoservice?
Zur Hilfeseite »
Ihre Adresse:














Die Konradin Verlag Robert Kohlhammer GmbH erhebt, verarbeitet und nutzt die Daten, die der Nutzer bei der Registrierung zum Industrie.de Infoservice freiwillig zur Verfügung stellt, zum Zwecke der Erfüllung dieses Nutzungsverhältnisses. Der Nutzer erhält damit Zugang zu den Dokumenten des Industrie.de Infoservice.
AGB
datenschutz-online@konradin.de