Analyse von sozialem Geschlecht und Intersektionalität in der sozialen Robotik

Können soziale Roboter ein soziales Geschlecht haben? Weisen Nutzer_innen Robotern ein soziales Geschlecht zu, selbst wenn ihre Designer genderneutrale Geräte entwickeln wollen (Nass & Moon, 2000)? Zu verstehen, inwiefern Robotern ein Geschlecht zugewiesen wird, kann Forschungsteams, Designer_innen und Verbraucher_innen helfen, bewusste Entscheidungen darüber zu treffen, welche Eigenschaften bei einem Roboter wichtig sind und wie Roboter und Chatbots die gesellschaftliche Gleichheit fördern oder zumindest nicht behindern können (s. Geschlechtliche Markierung von Sozialen Robotern, öffnet eine externe URL in einem neuen Fenster).

1. Berücksichtigen des sozialen Geschlechts in Anwender_innenperspektiven

Wie werden Nutzer_innen im Lebenszyklus des Produkts von der Planung bis zum Gebrauch einbezogen?

a. Wurde eine große und repräsentative Bandbreite an Nutzer_innen mit verschiedenen (sozialen und biologischen) Geschlechtern, ethnischen Zugehörigkeiten, Altersgruppen, sozioökonomischen Status, Körpergrößen, Behinderungen, Körpermaßen etc. aufgenommen, und wurde die Überschneidung zwischen diesen Merkmalen berücksichtigt? Die Nutzer_innenstruktur hängt vom geplanten Produkt ab (Rohracher, 2005; s. Gesichtserkennung, öffnet eine externe URL in einem neuen Fenster).

b. Ist das Produkt so gestaltet, dass es für unterschiedliche Körpertypen geeignet ist, z. B. kleine Frauen und große Männer? Vorgesehene Nutzer_innengröße und -gewicht können bei vielen Technologien Implikationen für das biologische Geschlecht haben, etwa Exoskelette (Odah et al., 2018; Søraa & Fosch-Villatonga, in Vorbereitung).

c. Besteht ein Risiko, bestimmte Nutzer_innen durch die Gestaltung der Technologie auszuschließen, z. B. Menschen mit Behinderungen oder niedrigem sozioökonomischem Status (Tay et al., 2014)?

d. Verstärken Merkmale des Roboters bestehende Geschlechterungleichheiten, -normen oder -stereotypen (s. Virtuelle Assistenten, öffnet eine externe URL in einem neuen Fenster).

e. Verstärken Merkmale des Roboters bestehende gesellschaftliche Rollen (z. B. Geschlechtertrennung am Arbeitsmarkt, dass etwa Männer mit Technik und Frauen mit Haushaltsgeräten assoziiert werden) (s. Geschlechtliche Markierung von sozialen Robotern, öffnet eine externe URL in einem neuen Fenster)?

2. Fördert das Design des Roboters die soziale Gleichheit?

Die Robotik hat die Möglichkeit, Geschlechterstereotypen so in Frage zu stellen, dass Anwender_innen Geschlechternormen überdenken:

a. Reproduziert der Roboter bestehende Geschlechterstereotypen, -normen, -rollen und -annahmen? Wie wirkt er sich auf die gesellschaftliche Gleichheit aus? (s. Geschlechtliche Markierung von sozialen Robotern, öffnet eine externe URL in einem neuen Fenster, Haptische Technologie, öffnet eine externe URL in einem neuen Fenster, Maschinelle Übersetzung, öffnet eine externe URL in einem neuen Fenster).

b. Ist es möglich, eine Auswahlmöglichkeit einzubauen, damit Anwender_innen männliche, weibliche oder genderdiverse Merkmale wählen können (Rich-Stiebert & Eyssel, 2017; s. Virtuelle Assistenten, öffnet eine externe URL in einem neuen Fenster)?

3. Welche Merkmale führen zur geschlechtlichen Markierung von Robotern?

Folgende Praktiken können zur geschlechtlichen Markierung von Robotern führen:

a. Die Entscheidung für einen männlichen oder weiblichen Namen als Produktnamen des Roboters (Kraus et al., 2018; Crowell et al., 2009; Alexander et al., 2014; Kuchenbrandt et al., 2014; Reich-Stiebert & Eyssel, 2017; Tay et al., 2014).

b. Farbliche Markierung des Roboters (Jung et al., 2016; Powers et al., 2005).

c. Beeinflussende visuelle Gender-Indikatoren (zum Beispiel Gesicht, Frisur oder Lippenfarbe) (Powers et al., 2005; Eyssel & Hegel, 2012).

d. Verwendung einer tiefen oder hohen Stimme (Kraus et al., 2018; Crowell et al., 2009; Alexander et al., 2014; Kuchenbrandt et al., 2014; Reich-Stiebert & Eyssel, 2017; Tay et al., 2014; Powers et al., 2005; Siegel et al., 2009; Eyssel et al., 2012).

e. Entwicklung einer geschlechtsspezifischen Persönlichkeit (Kraus et al., 2018; Kittmann et al., 2015).

f. Einsatz von Robotern in genderstereotypen Bereichen, etwa einen Roboter mit männlicher Stimme in der Security und ein Roboter mit weiblicher Stimme im Gesundheitswesen (Eyssel & Hegel, 2012).

Weitere Aspekte, die eine geschlechtliche Markierung von Robotern begünstigen könnten, etwa Bewegungen oder Gesten, bedürfen noch weiterer empirischer Forschung (Alesich & Rigby, 2017; Søraa, 2017).

4. Berücksichtigung des sozialen Geschlechts in der Mensch-Maschinen-Interaktion

Testen der Interaktion zwischen dem biologischen/sozialen Geschlecht von menschlichen Teilnehmer_innen und dem “Geschlecht“ des Roboters, und zwar wo relevant mit unterschiedlichen geschlechtsspezifischen Parametern (Jung et al., 2016; Powers et al., 2005; Nomura, 2017).

a. Wie beeinflussen das biologische und soziale Geschlecht von Menschen und Robotern Mensch-Roboter-Interaktion, Emotion, Kognition und Verhalten? Inwiefern könnten diese Interaktionen geschlechtsspezifisch sein?

5. Berücksichtigung des soziokulturellen Kontextes des Roboters

Bei der Entwicklung eines Roboters für ein globales Publikum sollten gesellschafts- und kulturspezifische Aspekte des biologischen/sozialen Geschlechts (und von Robotern) berücksichtigt werden, wie sie sich in unterschiedlichen Weltregionen darstellen.

a. Berücksichtigung der Auswirkungen des gesellschaftlichen Kontexts oder Bereichs (Gesundheitswesen, Bildung, Sicherheit, Wohnung etc.), in dem die Mensch-Roboter-Interaktion stattfindet (Bartneck et al., 2007).

b. Berücksichtigung von Kultur, Region und Land, in dem der Roboter implementiert wird. Welche Geschlechternormen gibt es in dieser Region? Welche Vorannahmen könnte die Kultur im Hinblick auf Roboter-Mensch-Interaktion haben (Fraune et al., 2015)?

c. Berücksichtigung von Gesellschaftsverhältnissen und Intersektionalität der Personen in den Kontexten, in denen die Roboter eingesetzt werden (z. B. ob Roboter rassistische/ethnische Vorurteile erben, s.  Bartneck et al., 2018).

Relevante Fallstudien

Geschlechtliche Markierung von sozialen Robotern/Gendering Social Robots, öffnet eine externe URL in einem neuen Fenster
Haptische Berührung/Haptic Touch, öffnet eine externe URL in einem neuen Fenster
Virtuelle Assistent_innen/Virtual Assistants, öffnet eine externe URL in einem neuen Fenster
Gesichtserkennung/Facial Recognition, öffnet eine externe URL in einem neuen Fenster
Maschinelle Übersetzung/Machine Translation, öffnet eine externe URL in einem neuen Fenster

Alesich, S., & Rigby, M. (2017). Gendered robots: implications for our humanoid future. IEEE Technology and Society Magazine, 36(2), 50-59.

Alexander, E., Bank, C., Yang, J. J., Hayes, B. & Scassellati, B. (2014). Asking for help from a gendered robot. Proceedings of the Annual Meeting of the Cognitive Science Society, 36, 2333–2338.

Bartneck, C., Suzuki, T., Kanda, T., & Nomura, T. (2007). The influence of people’s culture and prior experiences with Aibo on their attitude towards robots. AI & Society, 21(1-2), 217-230.

Bartneck, C., Yogeeswaran, K., Ser, Q. M., Woodward, G., Sparrow, R., Wang, S., & Eyssel, F. (2018). Robots and racism. In Proceedings of the 2018 ACM/IEEE International Conference on Human-Robot Interaction (pp. 196-204). ACM.

Beraldo, G., Di Battista, S., Badaloni, S., Menegatti, E., & Pivetti, M. (2018). Sex differences in expectations and perception of a social robot. In 2018 IEEE Workshop on Advanced Robotics and its Social Impacts (pp. 38-43). IEEE.

Crowell, C. R, Scheutz, M., Schermerhorn, P., & Villano, M. (2009). Gendered voice and robot entities: perceptions and reactions of male and female subjects. In Proceedings of the 2009 IEEE/RSJ International Conference on Intelligent Robots and Systems (pp. 3735–3741). Piscataway, NJ: IEEE Press.

Eyssel, F., Kuchenbrandt, D., Hegel, F. & de Ruiter, L. (2012). Activating elicited agent knowledge: how robot and user features shape the perception of social robots. In Proceedings of the 21st IEEE international Symposium on Robot and Human Interactive Communication (pp. 851–857). IEEE.

Eyssel, F., & Hegel, F. (2012). (S)he's got the look: gender stereotyping of robots. Journal of Applied Social Psychology, 42(9), 2213-2230.

Fraune, M., Kawakami, S., Sabanovic, S., de Silva, R., & Okada, M. (2015). Three’s company, or a crowd? The effects of robot number and behavior on HRI in Japan and the USA. In L. E. Kavraki, D. Hsu, & J. Buchli (Eds.), Proceedings of Robotics: Science and Systems. doi:10.15607/RSS.2015.XI.033

Jung, E. H., Waddell, T. F. & Sundar, S. S. (2016). Feminizing robots: user responses to gender cues on robot body and screen. In Proceedings of the 2016 CHI Conference Extended Abstracts on Human Factors in Computing Systems (pp. 3107–3113). New York: ACM.

Kittmann, R., Fröhlich, T., Schäfer, J., Reiser, U., Weißhardt, F., & Haug, A. (2015). Let me introduce myself: I am Care-O-bot 4, a gentleman robot. In Mensch und computer 2015–proceedings. Stuttgart: De Gruyter Oldenbourg.

Kraus, M., Kraus, J., Baumann, M. & Minker, W. (2018). Effects of gender stereotypes on trust and likability in spoken human-robot interaction. In N. Calzolari, K. Choukri, C. Cieri, T. Declerck, S. Goggi, K. Hasida, H. Isahara, B. Maegaard, J. Mariani, H. Mazo A. Moreno, J. Odijk, S. Piperidis, T. Tokunaga (Eds.), Proceedings of the Eleventh International Conference on Language Resources and Evaluation (pp. 112–118). European Language Resources Association.

Kuchenbrandt, D., Häring, M., Eichberg, J., Eyssel, F., & André, E. (2014). Keep an eye on the task! How gender typicality of tasks influence human–robot interactions. International Journal of Social Robotics, 6(3), 417-427.

Nass, C., & Moon, Y. (2000). Machines and mindlessness: Social responses to computers. Journal of Social Issues, 56(1), 81-103.

Nomura, T. (2017). Robots and gender. Gender and the Genome, 1(1), 18-26.

Odah, E., Abu-Qasmieh, I., Al Khateeb, N., Al Matalbeh, E., Qura’an, S., Mohammad, M. & Alqudah, A. M. (2018). Gender considerations in optimizing usability design of hand-tool by testing hand stress using sEMG signal analysis. Alexandria Engineering Journal 57(4), 2897-2901.

Powers, A., Kramer, A. D. I., Lim, S., Kuo, J., Lee, S., & Kiesler, S. B. (2005). Eliciting information from people with a gendered humanoid robot. In Proceedings of the 2005 IEEE International Workshop on Robots and Human Interactive Communication, ROMAN 2005 (pp. 158-163). IEEE.

Reich-Stiebert, N. & Eyssel, F. (2017). (Ir)relevance of gender? On the influence of gender stereotypes on learning with a robot. In B. Mutlu & M. Tscheligi (Eds.), Proceedings of the 2017 ACM/IEEE International Conference on Human-Robot Interaction (pp. 166–176). New York: ACM.

Rohracher, H. (2005). From passive consumers to active participants: the diverse roles of users in innovation processes. In User Involvement in Innovation Processes: Strategies and Limitations from a Socio-Technical Perspective (eds. Rohracher, H.) Munich: Profil.

Siegel, M., Breazeal, C. & Norton, M. I. (2009). Persuasive robotics: the influence of robot gender on human behavior. In Proceedings of the 2009 IEEE/RSJ International Conference on Intelligent Robots and Systems (pp. 2563–2568). Piscataway, NJ: IEEE Press.

Søraa, R. A. Mechanical genders: how do humans gender robots? (2017) Gender, Technology and Development, 21(1-2), 99-115.

Søraa, R. A. and Fosch-Villaronga, E. (2020). Exoskeletons for all? Wearable robot technology through an intersectionality lens. Paladyn Journal of Behavioral Robotics, 11(1), 217-227.

Tay, B., Jung, Y., & Park, T. (2014). When stereotypes meet robots: the double-edge sword of robot gender and personality in human–robot interaction. Computers in Human Behavior, 38, 75-84.