Zum Inhalt springen

Soziale Interaktion mit Robotern

Warum wir Roboter wie Tiere behandeln sollten

Von , , , und

Artikel teilen

Menschen nutzen regelmäßig technische Geräte wie Sprachassistenten, Staubsaugerroboter oder einfache Fahrkartenautomaten. Noch ist die technische Entwicklung nicht so weit vorangeschritten, dass eine Maschine menschliche Interaktionen vollständig ersetzen könnte. Ein solcher Schritt ist aber nicht mehr so weit entfernt, wie er dies in den frühen Zeiten der Robotik war.

Der Onlineversandhändler Amazon zum Beispiel hat mit »Alexa« einen Sprachassistenten entwickelt, der in einfachen sozialen Interaktionen sprachlich vom Menschen nicht mehr unterschieden werden kann. Diese Sprachassistenten werden zu Niedrigpreisen verkauft und stehen inzwischen in vielen Haushalten auf der ganzen Welt. Wie weit die Entwicklung in den vergangenen Jahren vorangeschritten ist, zeigt auch eine Videodemonstration der Google-Software »Duplex«: Das Programm ruft beim Friseur an, um einen Termin auszumachen. Im Gespräch verhält es sich wie ein realer Mensch, benutzt Füllwörter, legt an den passenden Stellen Pausen ein und spricht mit einer natürlichen Betonung. Es kann flexibel auf den Gesprächspartner eingehen und nutzt dafür Informationen aus E-Mail-Programmen, digitalen Kalendern und dem Internet. Das alles macht es, ohne dass sein Gegenüber bemerkt, dass es mit einem Sprachassistenten spricht. Man könnte sagen, das Programm besteht einen verbalen Turing-Test.

Die bisherige Forschung zur Interaktion zwischen Mensch und Maschine zeigt, dass Menschen Robotern mit menschenähnlichen Zügen nicht abgeneigt sind: Eine psychologische Studie von Wissenschaftlern der Universitäten Aachen und Duisburg-Essen aus dem Jahr 2018 beispielsweise kam zu dem Ergebnis, dass Menschen Empathie gegenüber Robotern zeigen. Dabei spielten Studienteilnehmer zusammen mit einem Roboter ein Computerspiel. Der Roboter gab in schwierigen Situationen Tipps, durch die das Spiel meistens gewonnen werden konnte. Am Ende des Spiels sollten die Teilnehmer den Roboter abschalten und dadurch sein gesamtes Gedächtnis löschen. Dies fiel den meisten Teilnehmern sehr schwer – sie hatten nicht nur das Spiel, sondern auch Empathie gegenüber dem Roboter gewonnen.

Auch der sogenannte Uncanny-Valley-Effekt beschrieb bereits 1970, dass Menschen Robotern mehr Vertrauen schenken, wenn diese dem Abbild eines Menschen nachempfunden sind. Sind die Maschinen vom Menschen jedoch kaum noch unterscheidbar, verkehrt sich dies ins Gegenteil: Der Mensch steht dem Roboter dann mit Misstrauen gegenüber.

Diese Studienergebnisse zeigen, dass Menschen menschliche Interaktionsmuster auf Interaktionen mit Robotern übertragen. Das ist verblüffend – haben doch Maschinen genauso wenig mit Menschen gemeinsam wie Eis mit einem Magazin.

Was tun, wenn ein Kind einen Roboter beleidigt?

In einem Projekt des Studienkollegs an der Universität Tübingen haben wir untersucht, ob Menschen generell soziale Interaktionsmuster auf Roboter übertragen, oder ob es Ausnahmen gibt, wie zum Beispiel Reaktionen auf eine Beleidigung. Dazu wurden Probanden in einer Onlineumfrage mit Szenarien konfrontiert, in denen ein Roboter (Alexa oder ein Pflegeroboter) beleidigt wurde – entweder von der Versuchsperson selbst, einer anderen Person oder einem Kind. Die Versuchspersonen wurden dann gefragt, wie der Roboter auf diese Beleidigung reagieren soll.

Alexa wurde gewählt, weil »sie« durch ihre komplexe Kommunikationsfähigkeit und eine gewisse Berühmtheit am wahrscheinlichsten als direkter Interaktionspartner gesehen wird; der Pflegeroboter, weil diese Maschinen durch ihre Bauart dem menschlichen Körper ähneln. Die Teilnehmenden sollten sich das jeweilige Szenario so genau wie möglich vorstellen, um dann eine von vier möglichen Reaktionen des Roboters auf die Beleidigung auszuwählen: (1) die Beleidigung ignorieren, (2) auf das Fehlverhalten aufmerksam machen, (3) nach wiederholter Beleidigung den Menschen bestrafen, zum Beispiel indem der Roboter ebenfalls eine Beleidigung ausspricht, (4) sofortige Bestrafung, wiederum beispielsweise durch eine Beleidigung seitens des Roboters. Die gleichen Szenarien wurden von den Teilnehmenden für Mensch-Mensch-Interaktionen bewertet. Ergänzt wurde das Experiment durch die Abfrage von allgemeinen Informationen wie Geschlecht und Beruf.

Insgesamt nahmen über 1.000 Menschen an dem Experiment teil, von denen einige wegen unvollständiger Angaben oder nicht bestandener Aufmerksamkeitstests allerdings nicht einbezogen wurden. Damit blieben am Ende etwas über 700 nutzbare Ergebnisse. Diese wurden deskriptiv und durch Regressionsanalyse ausgewertet. Dabei stellten wir drei auffallende Tendenzen fest.

(1) Die Interaktionsmuster von erwachsenen Menschen und Robotern unterschieden sich deutlich von der Mensch-Mensch-Interaktion. Bei der erwachsenen Mensch-Mensch-Interaktion wünschte sich ein Großteil der Versuchs­personen, dass der Mensch auf das Fehlverhalten hinweist (im Durchschnitt 72 Prozent) oder sofort beziehungsweise bei wiederholtem Fehlverhalten bestraft, indem er beispielsweise zurückbeleidigt (im Durchschnitt 21 Prozent). Von einem Roboter (egal, ob von Alexa oder dem Pflegeroboter) jedoch wünschten sich im Durchschnitt nur 48 Prozent der Personen, dass sie auf das Fehlverhalten hingewiesen werden, während sich fast genauso viele Menschen (im Durchschnitt 43 Prozent) dafür aussprachen, dass das Verhalten ignoriert wird. Nur wenige Teilnehmer (im Durchschnitt 9 Prozent) wollten, dass auch der Roboter eine Beleidigung ausspricht.

Das bedeutet, dass Menschen nicht alle sozialen Interaktionsmuster auf die Kommunikation mit Robotern übertragen. Möglicherweise gibt es Unterschiede, abhängig davon, ob eine positive Interaktion stattfindet oder eine sanktionierende Interaktion erforderlich ist. Im positiven Fall scheint menschenähnliches Verhalten des Roboters erwünscht; der Vollzug von bestrafenden Interaktionen sollte nur von Menschen ausgeführt werden.

(2) Bei der Interaktion mit Kindern wurden den Robotern oft erzieherische Aufgaben übertragen: In den Szenarien, in denen ein Kind involviert war, wollten die Probanden häufiger, dass der Roboter auf das Fehlverhalten aufmerksam macht (im Durchschnitt 70 Prozent) als in Situationen, in denen ein erwachsener Mensch beteiligt war (durchschnittlich 48 Prozent). Am häufigsten wurde dieses Verhalten jedoch in der Kind-Mensch-Interaktion gewünscht (90 Prozent). Auch hier zeigen sich also Abstufungen zwischen Menschen und Robotern, wobei viele Teilnehmer dem Roboter durchaus eine erzieherische Aufgabe zutrauten. Eine Bestrafung des Kindes durch den Roboter war jedoch auch hier nicht erwünscht (im Durchschnitt 4 Prozent).

(3) Frauen wünschten sich im Vergleich zu Männern häufiger eine Reaktion des Roboters auf eine Beleidigung. Im Durchschnitt wollten 51 Prozent der Frauen, dass der Roboter auf das Fehlverhalten erwachsener Menschen aufmerksam macht (73 Prozent gegenüber einem Kind) – im Vergleich zu 41 Prozent bei den Männern (64 Prozent gegenüber einem Kind).

Wie würde Immanuel Kant mit Robotern umgehen?

Die Studie hat zwei Einschränkungen: Zum einen sind die Teilnehmenden alle Studierende oder Mitarbeitende der Universität Tübingen, zum anderen basiert das Experimentdesign auf der Annahme, dass die Probanden die Szenarien als realistisch betrachten. Zudem muss beachtet werden, dass die Versuchspersonen unmittelbar mit dem Szenario konfrontiert wurden. Es gab keine Phase, in der sie eine »Beziehung« zum Roboter aufbauen konnten wie in der eingangs erwähnten Studie zur Empathie.

Warum haben wir diese Fragen untersucht? Es liegt auf der Hand, dass Interaktionen mit Robotern immer mehr Raum in unserem Alltag einnehmen. Dabei gilt es, viele Probleme zu lösen. Rechtliche Fragen stellen Juristen schon seit einigen Jahren – zum Beispiel: Wer haftet, wenn ein Roboter Schaden anrichtet? Eine weitere Frage ist, inwiefern der Mensch-Roboter-Interaktion eine moralische Dimension zugesprochen werden kann. Immanuel Kant hat zu seiner Zeit ein stichhaltiges Argument zur Interaktion von Menschen und Tieren entworfen: Wenn wir in Auseinandersetzungen mit Tieren nicht einige grundlegende Regeln einhalten würden, dann bestünde die Gefahr einer zunehmenden Verrohung der Gesellschaft. Da Menschen Robotern genauso wie Tieren Empathie entgegenbringen, sollten Kinder, die Maschinen treten oder beschimpfen, auf ihr Fehlverhalten hingewiesen werden. Unsere Ergebnisse stützen diese Einschätzung.

Aktuelle Ausgabe

Dieser Text erschien in der 13. Ausgabe von KATAPULT. Unterstützen Sie unsere Arbeit und abonnieren Sie das gedruckte Magazin für nur 19,90 Euro im Jahr.

KATAPULT abonnieren

Fußnoten

  1. Jeffrey Grubb: Google Duplex: A.I. Assistant Calls Local Businesses To Make Appointments, Youtube-Video (8.5.2018).
  2. Der Turing-Test wurde 1950 von Alan Turing entworfen, um festzustellen, ob die Intelligenz eines Computers der eines Menschen ähnlich ist. Der Computer besteht den Test, wenn er in der Interaktion mit einem Menschen von diesem nicht als Computer erkannt wird.
  3. Vgl. Horstmann, Aike C. u.a.: Do a robot’s social skills and its objection discourage interactants from switching the robot off?, in: PloS ONE, (13)2018, Nr. 7.
  4. Mori, Masahiro: The Uncanny Valley, in: Energy, (7)1970, Nr. 4, 33-35.
  5. Die deskriptive Auswertung zeigt die gesamten Antwortverteilungen (z.B. in Prozent) und weist so auf Besonderheiten im Antwortverhalten der Teilnehmer hin. Mit der Regressionsanalyse wird der Einfluss einer oder mehrerer unabhängigen Variablen auf eine abhängige Variable sowie dessen statistische Signifikanz berechnet.
  6. Kellmeyer, Philipp: Big Brain Data: On the Responsible Use of Brain Data from Clinical and Consumer-Directed Neurotechnological Devices, in: Neuroethics, 2018, S. 1-16.
  7. Kant, Immanuel: Grundlegung zur Metaphysik der Sitten, Riga 1785.

Autor:innen

Uni Tübingen
(Philosophie)

Uni Tübingen
(Kognitionswissenschaft)

Uni Tübingen
(Psychologie)

Uni Tübingen
(Philosophie)

Leitung Forum Scientiarum der Uni Tübingen
(Philosophie)

Neueste Artikel

Mehr als die Hälfte der brasilianischen Bevölkerung lebt an der Küste

Die brasilianische Volkszählung 2022 ergab, dass 111.277.361 Menschen (54,8 % der Bevölkerung) in Erhebungsgebieten lebten, die maximal 150 Kilometer von der Küste entfernt liegen. Warum ist das so?

Bewegungsfreiheit von Frauen

In keinem Land der Erde können sich Frauen draußen unbelästigt oder uneingeschränkt bewegen. Das zeigt die Women's Mobility Scale der Politikwissenschaftlerin Valerie Hudson.

Abgelegenste bewohnte Insel der Welt

Stell dir vor, dein Nachbar wohnt 2.437 Kilometer weiter. So ist Tristan da Cunha.