Anthropomorphisierung: Warum sehen wir Menschliches in künstlichen Dingen?
Spezialfolge mit Daniel vom Podcast "Privatsprache"
14.02.2025 103 min Daniel Brockmeier, Christiane Attig, Benjamin Paaßen
Zusammenfassung & Show Notes
Diese Folge wurde zuerst im Podcast Privatsprache von Daniel Brockmeier veröffentlicht. Wenn ihr euch für differenzierte und unterhaltsame Auseinandersetzungen mit Philosophie begeistern könnt, solltet ihr den Podcast unbedingt abonnieren!
+++
Daniel, Benjamin und Christiane fragen sich: Warum und in welcher Weise lesen wir menschliche Eigenschaften in künstliche Systeme wie etwa Large Language Models hinein? Wir klären, was der Begriff Anthropomorphisierung bedeutet, blicken in die Kultur-, Technik- und Wissenschafts-Geschichte und gehen den Psychologischen Grundlagen nach. Mit Daniel Dennetts "Intentional Stance" stellt Daniel eine philosophische Theorie der Anthropomorphisierung vor und Christiane präsentiert mehrere psychologische Studien, die die Frage nach dem "Warum" strategisch eingrenzen. Am Ende fragen wir noch nach der Moral von der Geschicht': Sollten KI-Systeme, Programme, Computer und Roboter menschenähnlich designet werden?
+++
Daniel, Benjamin und Christiane fragen sich: Warum und in welcher Weise lesen wir menschliche Eigenschaften in künstliche Systeme wie etwa Large Language Models hinein? Wir klären, was der Begriff Anthropomorphisierung bedeutet, blicken in die Kultur-, Technik- und Wissenschafts-Geschichte und gehen den Psychologischen Grundlagen nach. Mit Daniel Dennetts "Intentional Stance" stellt Daniel eine philosophische Theorie der Anthropomorphisierung vor und Christiane präsentiert mehrere psychologische Studien, die die Frage nach dem "Warum" strategisch eingrenzen. Am Ende fragen wir noch nach der Moral von der Geschicht': Sollten KI-Systeme, Programme, Computer und Roboter menschenähnlich designet werden?
+++
Linkliste
- Der Geschichte des künstlichen Menschen in Daniels Blog: https://perspektiefe.privatsprache.de/der-geist-in-der-maschine/
- Privatsprache-Podcastfolge zum Androiden Data: https://perspektiefe.privatsprache.de/the-measure-of-a-man-die-philosophie-von-star-trek/
- Dennett, D. C. (1989). The Intentional Stance. MIT Press.
- Dennett, D. C. (1988). The intentional stance in theory and practice. In R. W. Byrne & A. Whiten (Eds.), Machiavellian intelligence: Social expertise and the evolution of intellect in monkeys, apes, and humans (pp. 180–202). Clarendon Press/Oxford University Press.
- Karel Capek (1922). Werstands Universal Robots.
- Harald Salfellner (2019). Der Prager Golem - Jüdische Sagen aus dem Ghetto.
- Alan Turing (1950). Computing Machinery and Intelligence. Mind: A Quarterly Review of Psychology and Philosophy, 59(236), 433-460.
- Joseph Weizenbaum (1960). ELIZA – A computer program for the study of natural language communication between man and machine. Communications of the ACM, 9(1), 36-45.
- Valentino Braitenberg (1986). Vehicles – Experiments in Synthetic Psychology. MIT Press.
- Heider, F., & Simmel, M. (1944). An experimental study of apparent behavior. The American journal of psychology, 57(2), 243-259.
- Reeves, B., & Nass, C. I. (1996). The media equation: How people treat computers, television, and new media like real people and places. Center for the Study of Language and Information; Cambridge University Press.
- Epley, N., Waytz, A., & Cacioppo, J. T. (2007). On seeing human: A three-factor theory of anthropomorphism. Psychological Review, 114(4), 864–886.
- Gazzola, V., Rizzolatti, G., Wicker, B., & Keysers, C. (2007). The anthropomorphic brain: the mirror neuron system responds to human and robotic actions. Neuroimage, 35(4), 1674-1684.
- Roesler, E., Manzey, D., & Onnasch, L. (2021). A meta-analysis on the effectiveness of anthropomorphism in human-robot interaction. Science Robotics, 6(58), eabj5425.
- Mandl, S., Laß, J.S., Strobel, A. (2024). Associations Between Gender Attributions and Social Perception of Humanoid Robots. In: Camarinha-Matos, L.M., Ortiz, A., Boucher, X., Barthe-Delanoë, AM. (eds), IFIP Advances in Information and Communication Technology, vol 726. Springer, Cham.
+++
Habt ihr Fragen, Ideen, Impulse oder Feedback? Bringt euch ein, wir freuen uns!
Habt ihr Fragen, Ideen, Impulse oder Feedback? Bringt euch ein, wir freuen uns!
- Unsere E-Mail-Adresse: autonomie-algorithmen@lists.techfak.uni-bielefeld.de
- Unser Bluesky-Profil: https://bsky.app/profile/auto-algo.bsky.social
- Unser Kontaktformular: https://autonomie-algorithmen.letscast.fm/feedback
+++
"Autonomie und Algorithmen: Freiheit im Zeitalter von KI" ist eine Gemeinschaftsproduktion.
Konzeption und Produktion: Christiane Attig und Benjamin Paaßen.
Redaktionelle Unterstützung: Johanna Dobroschke.
Postproduktion: Ingrid Rogalski und Christiane Attig.
Musik: Almut Schwacke.
Grafikdesign: Sven Sedivy.
Dieser Podcast wird gefördert vom Bundesministerium für Bildung und Forschung im Rahmen des Projekts KI-Akademie OWL.
Feedback geben
Dir gefällt der Podcast und Du möchtest das mal loswerden? Du hast Tipps für neue Themen oder magst über den Inhalt bestimmter Folgen diskutieren? Dann wähle im Formular die jeweilige Episode aus und schreib uns eine Nachricht. Vielen Dank für Dein Feedback!