Würden Menschen lügende Roboter akzeptieren? Spoiler: Es kommt auf die Lüge an…
Fairfax (USA) – Die Entwicklung menschenähnlicher Roboter schreitet rasant voran und Tech-Visionäre sehen in diesen künstlichen Helfern die nächste und gar nicht mehr so ferne Technologie-Revolution. Zur Natur des Menschen gehrt aber auch das Lügen. In einer Umfrage haben US-Forscher nun ergründet, ob Menschen auch lügende Roboter akzeptieren würden.
Inhalt
Eine Frage der Roboter-Ethik
„Es sind sozialen Normen, die uns Menschen dabei helfen, zu verstehen und einzuschätzen, wann wir die Wahrheit sagen sollten und wann nicht – etwa, um die Gefühle anderer nicht zu verletzen oder Schaden abzuwenden“, erläutert Dr. Andres Rosero von der George Mason University vorweg. Er und sein Team haben sich mit einer Umfrage der Frage genähert, ob und welche Lügen wir Menschen auch von Robotern akzeptieren würden.
Hintergrund
Noch ist für die meisten die Vorstellung menschenähnlicher Roboter, die uns im Alltag, im Haushalt, der Arbeit, in der Alten- und Krankenpflege oder auch ganz privat zu Diensten sind, meist mit veralteten, stationären und blechmechanischen Vorstellungen vom Aussehen und den Fähigkeiten dieser Roboter verbunden. Tatsächlich ist die Entwicklung menschenähnlicher Roboter schon sehr weit fortgeschritten und steht schon kurz- bis spätestens mittelfristig vor der Marktreife.
In den damit verbundenen Möglichkeiten sehen Technik- und Zukunftsvisionäre aber ebenso viele Chancen, wie auch Risiken und Gefahren. Doch ganz gleich, ob wir uns dies heute vorstellen können oder wollen, unser eigener Umgang mit neuen revolutionären Technologien zeigt uns, dass es keine Frage des „Ob“, sondern nur noch nach dem „Wann“ sein wird, bis wir unseren Alltag mit menschenähnlichen, vermutlich KI-basierten Robotern teilen werden. Und dieses Wann dürfte uns näher sein, als die meisten von uns sich dies vorstellen können.
Wie Rosero, Kolleginnen und Kollegen aktuell im Fachjournal „Frontiers in Robotics and AI“ (DOI: 10.3389/frobt.2024.1409712) berichten, haben sie 500 Teilnehmer gebeten, unterschiedliche Arten der Täuschung durch Roboter zu bewerten und gegebenenfalls zu rechtfertigen.
“Wir wollten einen bislang kaum erforschten Aspekt robotischer Ethik besser verstehen, um so zu einem besseren Verständnis des oft vorhandenen Misstrauens gegenüber aufstrebenden Technologien und ihren Entwicklern beizutragen“, so Rosero. „Angesichts des Aufkommens von generativer KI hielt ich es für wichtig, mögliche Fälle zu untersuchen, in denen anthropomorphes Design und Verhaltensmuster auch genutzt werden könnten, um Nutzer zu manipulieren.“
Drei Arten der Lüge
Für Ihre Umfrage wählten die Forschenden drei Szenarien aus, die Situationen widerspiegeln, in denen Roboter bereits arbeiten – im medizinischen Bereich, bei Reinigungsarbeiten und im Einzelhandel – sowie drei verschiedene Täuschungsverhalten:
- Täuschungen über den äußeren Zustand, bei denen der Roboter über die Welt außerhalb seiner selbst lügt.
In diesem Szenario lügt ein Roboter, der sich um eine Frau mit Alzheimer kümmert, indem er sagt, ihr verstorbener Ehemann werde bald nach Hause kommen.
- Täuschungen über den verborgenen Zustand, bei denen das Design des Roboters seine tatsächlichen Fähigkeiten verbirgt.
Hier besucht nun eine Frau ein Haus, in dem ein Haushaltsroboter putzt, ohne zu wissen, dass der Roboter nicht nur putzt, sondern auch filmt.
- Täuschungen über den oberflächlichen Zustand, bei denen der Roboter vorgibt, über Fähigkeiten zu verfügen, die er nicht hat.
Im dritten Szenario arbeitet ein Roboter in einem Geschäft und behauptet fälschlicherweise, Schmerzen zu haben, während er Möbel bewegt, woraufhin ein Mensch eine andere Person bittet, den Roboter zu ersetzen.
Für Ihre Studie gaben die Wissenschaftler und Wissenschaftlerinnen den Teilnehmern die Szenarien zu lesen und baten sie anschließend einen Fragebogen auszufüllen. In diesem Fragebogen wurden die Teilnehmer gefragt, ob sie das Verhalten des Roboters billigten, wie täuschend es war, ob es zu rechtfertigen sei und ob jemand anderes für die Täuschung verantwortlich war. Die Antworten wurden von den Forschern codiert, um gemeinsame Themen zu identifizieren, und anschließend analysiert.
Das Ergebnis: Die Täuschung über den verborgenen Zustand, bei der der Haushaltsroboter heimlich filmte, wurde von den meisten Befragten abgelehnt, aber auch als die täuschendste Variante betrachtet. Hingegen wurden die Täuschungen über den äußeren und den oberflächlichen Zustand als moderat täuschend empfunden, und die die Täuschung über den oberflächlichen Zustand, bei der der Roboter vorgab, Schmerzen zu haben, am meisten abgelehnt, da dies als manipulativ wahrgenommen wurde.
www.grenzwissenschaft-aktuell.de
+ HIER können Sie den täglichen und kostenlosen GreWi-Newsletter bestellen +
Am ehesten billigten die Teilnehmer die Täuschung über den äußeren Zustand, bei der der Roboter einer Patientin etwas vorgaukelte. Die Mehrheit der Befragten begründeten das Verhalten des Roboters damit, dass es die Patientin vor unnötigem Schmerz schützte – und damit das Gefühlsschonen gegenüber Ehrlichkeit priorisierte.
Obwohl die Teilnehmer für alle drei Täuschungen Rechtfertigungen fanden – einige sagten etwa, der Haushaltsroboter könne aus Sicherheitsgründen filmen – erklärten die meisten, dass die Täuschung über den verborgenen Zustand nicht gerechtfertigt werden sollte. Etwa die Hälfte der Teilnehmer hielt auch die Täuschung über den oberflächlichen Zustand für ungerechtfertigt. Sie neigten dazu, diese inakzeptablen Täuschungen, insbesondere die über den verborgenen Zustand, den Entwicklern oder Besitzern der Roboter anzulasten.
Manipulierende Machinen
„Ich denke, wir sollten besorgt sein über jede Technologie, die in der Lage ist, ihre wahren Fähigkeiten zu verschleiern, da dies dazu führen könnte, dass Nutzer auf eine Weise manipuliert werden, die weder vom Nutzer noch vielleicht vom Entwickler beabsichtigt war“, erklärt Rosero. „Wir haben bereits Beispiele gesehen, in denen Unternehmen Webdesign-Prinzipien und KI-Chatbots auf eine Weise einsetzen, die darauf abzielt, Nutzer zu einem bestimmten Verhalten zu manipulieren. Wir brauchen Regulierungen, um uns vor diesen schädlichen Täuschungen zu schützen.“
WEITERE MELDUNGEN ZUM THEMA
Ingenieure konzipieren Roboter mit maschineller Selbsterkenntnis 31. Januar 2019
Studie: Maschinen können bald moralisches Verhalten von Menschen imitieren 11. Juli 2017
Resolution gegen Entwicklung autonomer Kriegsroboter 28. Juli 2015
Recherchequelle: Frontiers, eigene Recherchen grenzwissenschaft-aktuell.de
© grenzwissenschaft-aktuell.de