KI & Fairness: Wer bekommt den Job, wer den Hit?
Mit Janine Strotherm
28.03.2025 69 min
Stellt euch ein KI-System vor, das automatisiert faire Entscheidungen über die Einladung zum Bewerbungsgespräch auf Basis von Bewerbungsunterlagen treffen soll. Klingeln da bei euch die Alarmglocken? Wenn ja: Zu Recht! Der EU AI Act stuft ein solches System als Hochrisikosystem ein. Wir schauen uns ein solches System heute genauer an und klären: Was bedeutet eigentlich Fairness in Bezug auf KI? Wie kann man prüfen, ob ein KI-System zu fairen Entscheidungen führt? Und was hat das alles mit menschlicher Autonomie zu tun? +++ Janine Strotherm ist Mathematikerin und Mitarbeiterin der Universität Bielefeld. Im Projekt "Water Futures" beschäftigt Janine sich mit maschinellem Lernen in Bezug auf faire Verteilung von Wasserressourcen. +++ LinklisteLee (2018), Understanding perception of algorithmic decisions: Fairness, trust, and emotion in response to algorithmic management. Big Data & Society.Starke et al. (2022), Fairness perceptions of algorithmic decision-making: A systematic review of the empirical literature. Big Data & Society.Strotherm et al. (2023), Fairness in KI-Systemen. arXiv.Fiske: Stereotype Content ModelEckes (2002), Paternalistic and Envious Gender Stereotypes: Testing Predictions from the Stereotype Content Model. Sex Roles.DuBois: The Philadelphia N-WortPaaßen et al. (2019), Dynamic fairness – Breaking vicious cycles in automatic decision making. ESANN 2019.Race NormingCOMPAS SoftwareKnibbe (2021), Fairness in Question: Do Music Recommendation Algorithms Value Diversity? Music Tomorrow.Torabi (2023), The Inner Workings of Spotify’s AI-Powered Music...
Anthropomorphisierung: Warum sehen wir Menschliches in künstlichen Dingen?
Spezialfolge mit Daniel vom Podcast "Privatsprache"
14.02.2025 103 min Daniel Brockmeier, Christiane Attig, Benjamin Paaßen
Diese Folge wurde zuerst im Podcast Privatsprache von Daniel Brockmeier veröffentlicht. Wenn ihr euch für differenzierte und unterhaltsame Auseinandersetzungen mit Philosophie begeistern könnt, solltet ihr den Podcast unbedingt abonnieren! +++ Daniel, Benjamin und Christiane fragen sich: Warum und in welcher Weise lesen wir menschliche Eigenschaften in künstliche Systeme wie etwa Large Language Models hinein? Wir klären, was der Begriff Anthropomorphisierung bedeutet, blicken in die Kultur-, Technik- und Wissenschafts-Geschichte und gehen den Psychologischen Grundlagen nach. Mit Daniel Dennetts "Intentional Stance" stellt Daniel eine philosophische Theorie der Anthropomorphisierung vor und Christiane präsentiert mehrere psychologische Studien, die die Frage nach dem "Warum" strategisch eingrenzen. Am Ende fragen wir noch nach der Moral von der Geschicht': Sollten KI-Systeme, Programme, Computer und Roboter menschenähnlich designet werden? +++ LinklisteDer Geschichte des künstlichen Menschen in Daniels Blog: https://perspektiefe.privatsprache.de/der-geist-in-der-maschine/Privatsprache-Podcastfolge zum Androiden Data: https://perspektiefe.privatsprache.de/the-measure-of-a-man-die-philosophie-von-star-trek/Dennett, D. C. (1989). The Intentional Stance. MIT Press. Dennett, D. C. (1988). The intentional stance in theory and practice. In R. W. Byrne & A. Whiten (Eds.), Machiavellian intelligence: Social expertise and the evolution of intellect in monkeys, apes, and humans (pp. 180–202). Clarendon Press/Oxford University Press.Karel Capek (1922). Werstands Universal Robo...
ChatGPT als Co-Autor? KI beim wissenschaftlichen Schreiben.
mit Dzifa Vode
24.01.2025 68 min
Mal eben ein paar Stichworte zur gerade durchgeführten Studie in ein KI-Chatbot-Interface eingeben und den Bot darum bitten, auf Basis dieser Stichpunkte die erste Version einer Kurzzusammenfassung zu schreiben: Richtig praktisch! Aber funktioniert das gut? Und sollte man das machen? Und was, wenn Studierende KI für ihre Hausarbeiten nutzen? Welche wissenschaftlichen Tätigkeiten sollten vollständig den Forschenden überlassen bleiben? Diese und ähnliche Fragen bewegen gerade sehr viele Menschen, die in der Wissenschaft arbeiten. Und damit auch uns. +++ Dzifa Vode ist Mitarbeiterin des Schreibzentrums der Technischen Hochschule Nürnberg. Zur Zeit entwickelt sie dort mit dem Online Writing Lab eine freie Bildungsumgebung für Studierende, die wissenschaftlich schreiben wollen oder müssen. Als Schreibwissenschaftlerin forscht und lehrt sie im Bereich des wissenschaftlichen Schreibens – mit und ohne künstliche Intelligenz. Sie organisiert außerdem Schreibretreats und coacht Wissenschaftler*innen in ihren Schreibprozessen. +++ LinklisteVirtuelles Kompetenzzentrum: Künstliche Intelligenz und wissenschaftliches ArbeitenReflexionsinstrument für LehrendeZohery (2023), ChatGPT in Academic Writing and Publishing: A Comprehensive Guide.Kostikova et al. (2022), Fine-Grained Detection of Solidarity for Women and Migrants in 155 Years of German Parliamentary Debates. arXiv.Barnum et al. (2024), Large Language Models based on historical text could offer informative tools for behavioral science. PNAS.Alahdab (2024), Potential impact of large language models on academic writing. BMJ Evide...
Von menschlicher und künstlicher Intelligenz: Wo stehen wir auf dem Weg zur starken KI?
Der Auftakt zu unserer zweiten Staffel
13.12.2024 45 min
Zum Start unserer zweiten Staffel werfen wir einen Blick auf die Frage, wie weit die KI-Forschung auf dem Weg zur allgemeinen künstliche künstlichen Intelligenz – auch starke KI genannt – mittlerweile ist. Solch ein KI-System wäre in der Lage, alle möglichen intellektuellen Aufgaben auszuführen, die auch ein Mensch bewältigen könnte. Um beispielsweise zu bewerten, wie nah ChatGPT an einem solchen Status ist, muss erst einmal geklärt werden, was denn Menschen alles können – also, welche Fähigkeiten wir unter dem Intelligenzbegriff verstehen. +++ LinklisteEmmert-Streib, F. (2024). Is ChatGPT the way toward artificial general intelligence? Discover Artificial Intelligence 4, 32. Nick Boström: The Paperclip MaximizerNoam Chomsky: The False Promise of ChatGPTUllman, T. (2023): Large Language Models Fail on Trivial Alterations to Theory-of-Mind Tasks. ArXiv.+++ Habt ihr Fragen, Ideen, Impulse oder Feedback? Bringt euch ein, wir freuen uns!Unsere E-Mail-Adresse: autonomie-algorithmen@lists.techfak.uni-bielefeld.deUnser Bluesky-Profil: https://bsky.app/profile/auto-algo.bsky.socialUnser Kontaktformular: https://autonomie-algorithmen.letscast.fm/feedback+++ "Autonomie und Algorithmen: Freiheit im Zeitalter von KI" ist eine Gemeinschaftsproduktion. Konzeption und Produktion: Christiane Attig und Benjamin Paaßen.Redaktionelle Unterstützung: Johanna Dobroschke.Postproduktion: Ingrid Rogalski und Christiane Attig.Musik: Almut Schwacke.Grafikdesign: Sven Sedivy. Dieser Podcast wird gefördert vom Bundesministerium für Bildung und Forschung im Rahmen des Projekts KI-Akademie OWL.
Gefühle im Datenstrom? Einsatz und Grenzen der Emotionserkennung durch KI.
mit Jana Bressem und Björn Schuller
27.09.2024 128 min
Bitte schenkt uns 10 Minuten eurer Zeit, um an der Evaluation unseres Podcasts teilzunehmen! Danke! Zur Umfrage geht es hier. +++ Der empathische Roboter, der anhand von Mimik, Stimme oder Körperhaltung erkennt, wie man sich fühlt, um wahlweise aufzuheitern, zu loben, oder emotionale Unterstützung anzubieten – klingt sehr nach Science Fiction, oder? Tatsächlich wurden im Rahmen des sogenannten Affective Computing in den letzten Jahren enorme Fortschritte erzielt, sodass diese Vorstellung keine reine Zukunftsmusik mehr ist. KI-basierte Systeme zur Emotionsdetektion sind jedoch komplex und umstritten. Was können sie wirklich messen? Sind es wirklich Stimmungen, Emotionen oder lediglich beobachtbare Gefühlsausdrücke? Und darüber hinaus: wollen wir maschinelle Systeme, die uns anhand von Daten emotionale Zustände zuschreiben? +++ Jana Bressem ist Linguistin und Wissenschaftliche Mitarbeiterin an der Professur für Germanistische Sprachwissenschaft, Semiotik und Multimodale Kommunikation an der Technischen Universität Chemnitz. Ihre Forschungsschwerpunkte sind u.a. Multimodalität, typologische Gestenforschung, Sprache und Kognition sowie Mensch und Technik. Im Wissenschaftspodcast “Talking Bodies” spricht Jana gemeinsam mit Silva Ladewig, Sprachwissenschaftlerin von der Uni Göttingen, zu Themen der Sprache, Gestik und Kommunikation. Björn Schuller ist Professor für Health Informatics an der Technischen Universität München sowie Professor für Künstliche Intelligenz am Imperial College London. Darüber hinaus ist er Mitbegründer, CEO und derzeitiger Chief Scientific Officer ...
Wenn KI-Systeme sich selbst erklären: Nachvollziehbarkeit, Ko-Konstruktion und Vertrauen.
mit Katharina Rohlfing und Tim Schrills
30.08.2024 69 min
Bitte schenkt uns 10 Minuten eurer Zeit, um an der Evaluation unseres Podcasts teilzunehmen! Danke! Zur Umfrage geht es hier. +++ Unter dem Stichwort "Erklärbare KI" (Explainable AI, XAI) werden Ansätze verstanden, mit Hilfe derer KI-Systeme selbst Erklärungen über ihre Funktionsweise und ihre Ergebnisse an die Nutzenden kommunizieren. Klingt simpel? Ist es aber nicht. Erklärungen können die Nachvollziehbarkeit eines Systems erhöhen, sie können aber auch nur das Gefühl erwecken, das System verstanden zu haben. Oder sie können Antworten auf Fragen geben, die die Nutzenden gar nicht haben. Was es alles zu beachten gilt und wie sich die Forschung zu XAI in den letzten Jahren gewandelt hat, das erfahrt ihr bei uns! +++ Katharina Rohlfing ist Professorin für Psycholinguistik an der Universität Paderborn und Sprecherin des Sonderforschungsbereich/Transregio 318 "Constructing Explainability", in dem Forscher*innen Wege erforschen, die Nutzer*innen in den Erklärprozess einzubinden und damit ko-konstruktive Erklärungen zu schaffen. Darüber sind ihre Forschungsschwerpunkte u.a. Multimodale Interaktion, frühkindlicher Spracherwerb und Gedächtnisprozesse und Kind-Roboter Interaktion. Tim Schrills ist Wissenschaftlicher Mitarbeiter an der Professur für Ingenieurpsychologie und Kognitive Ergonomie am Institut für Multimediale und Interaktive Systeme der Universität zu Lübeck. In seiner Forschung beschäftigt er sich u.a. mit der Unterstützung menschlicher Informationsverarbeitung durch KI-Systeme, Methoden der Erklärbarkeit sowie KI-Systemen in der Medizin. +++ LinklisteMadsen &am...
Termin bei Dr. med. AI: Potenziale von Künstlicher Intelligenz im Gesundheitswesen.
Mit Susanne Gaube und Thomas Wittenberg
02.08.2024 98 min
In Medizin und Gesundheitswesen haben Systeme der Künstlichen Intelligenz längst Einzug gehalten – und das aus gutem Grund, denn man verspricht sich eine verbesserte Diagnostik, präzise Verlaufsprognosen und vereinfachte Administration in einem immer stärker belasteten Gesundheitssystem. In welchen Bereichen werden die größten Potenziale gesehen? Warum ist angemessenes Vertrauen so wichtig, wenn es um die Nutzung von KI-Systemen geht? Und wie kann man sich ein ganz spezifisches bildanalysierendes System für die Darmspiegelung vorstellen? +++ Susanne Gaube ist Assistenzprofessorin für Human Factors in Healthcare an der Global Business School for Health (GBSH) am University College London. Sie wurde an der Uni Regensburg zu den psychologischen Faktoren, die das Handhygieneverhalten im Krankenhaus beeinflussen, promoviert. Nach ihrer Promotion, für die sie den Max-Weber-Preis der Bayerischen Akademie der Wissenschaften erhielt, hat sie auch auf den Bereich Mensch-KI-Interaktion im Gesundheitssystem fokussiert. Susanne Gaubes primäre Forschung dreht sich somit um das Verstehen und Optimieren von Faktoren, die die Mensch-KI-Interaktion im Gesundheitswesen beeinflussen. Thomas Wittenberg ist Wissenschaftlicher Leiter am Fraunhofer-Institut für Integrierte Schaltungen in Erlangen und außerdem Projekt- und Arbeitsgruppenleiter an der Friedrich-Alexander-Universität Erlangen-Nürnberg. Seine Forschungsthemen umfassen unter anderem Intelligente Bildanalyse in der Endoskopie, Digitale Pathologie und Mammographie. +++ LinklisteAda: Künstliche Intelligenz als DiagnosehilfeEmotion A...
Kann KI-Kunst wirklich Kunst sein? Über Bildgeneratoren, Kopien und Kreativität.
Mit Amrei Bahr und Danny Frede
28.06.2024 94 min
Automatisiert erstellte Bilder von Bildgeneratoren wie Midjourney, DALL-E oder Stable Diffusion finden sich in Powerpoint-Präsentationen, in LinkedIn-Posts, auf Projektwebsites oder als Profilbild auf Instagram. Wie hat Generative KI den Diskurs über Kopien und Plagiate, künstlerisches Schaffen, Urheberschaft und die Potenziale künstlicher Kreativität geprägt? In dieser Folge hören wir Perspektiven aus der Philosophie und der künstlerischen Praxis und versuchen eine Antwort auf die Frage zu finden, ob KI-Kunst wirklich Kunst sein kann. +++ Amrei Bahr ist Philosophin mit den Themenschwerpunkten Angewandte Ethik, Artefaktphilosophie, Ästhetik und Technikphilosophie. Seit 2022 ist sie Juniorprofessorin für Philosophie der Technik & Information an der Universität Stuttgart. 2017 wurde sie an der Westfälischen Wilhelms-Universität Münster über die moralischen Rechte von Urheber*innen an ihren geistigen Schöpfungen promoviert. Amrei Bahr beschäftigt sich außerdem mit Fragen der Gerechtigkeit im Wissenschaftssystem; so hat sie gemeinsam mit Kristin Eichhorn und Sebastian Kubon im Juni 2021 die Twitter-Aktion #IchBinHanna initiiert. Danny Frede ist freier Künstler und Grafiker und nutzt Malerei, digitale Kunst und Fotografie, um digitale Prozesse und analoges Kunstschaffen miteinander zu verbinden. Seine Werke drehen sich um die digitale Revolution, Fragen des Konsums sowie Probleme der Automatisierung. Darüber hinaus produziert er den Podcast "Ostkinder 80/82", der mit dem CIVIS Medienpreis 2024 ausgezeichnet wurde. +++ LinklisteDirk von Gehlen: Kunst, KI und die Kopie u...
"ChatGPT würde eher links wählen": Generative KI im Superwahljahr.
Sonderfolge zur Europawahl
03.06.2024 19 min
2024 ist ein Superwahljahr: Etwa zwei Milliarden Menschen sind dieses Jahr aufgerufen, an die Wahlurnen zu treten. Im Zuge der Europawahl am 9. Juni wurde hierzulande darüber berichtet und spekuliert, welche Rolle Generative KI in Wahlkampfzeiten spielen könnte. Wir greifen in dieser Sonderfolge die Berichterstattung auf und sprechen über Deepfake-Bilder von Politiker*innen und Sprachmodelle, die dem Wahl-O-Mat vorgesetzt wurden. +++ Linklisteheute journal über Selbstregulierung von KI-Tech-Unternehmen (ab Minute 17)Algorithmwatch: OpenAI bricht eigene Regeln: Generatoren produzieren täuschende KI-Bilder zur EU-Wahlre:publica 2024: Wie Wissenschaft wirkt – KI im FactcheckingWahl-O-Mat zur Europawahl 2024LinkedIn-Beitrag von Felix BeilharzBR24: Wahl-O-Mat zur Europawahl: ChatGPT würde eher links wählenBenjamins ChatGPT-Test des Wahl-O-MatsFocus online: Alle KIs wählen die gleiche Partei - dafür kann es zwei Gründe geben+++ Habt ihr Fragen, Ideen, Impulse oder Feedback? Bringt euch ein, wir freuen uns!Unsere E-Mail-Adresse: autonomie-algorithmen@lists.techfak.uni-bielefeld.deUnser Bluesky-Profil: https://bsky.app/profile/auto-algo.bsky.socialUnser Kontaktformular: https://autonomie-algorithmen.letscast.fm/feedback+++ "Autonomie und Algorithmen: Freiheit im Zeitalter von KI" ist eine Gemeinschaftsproduktion. Konzeption und Produktion: Christiane Attig und Benjamin Paaßen.Redaktionelle Unterstützung: Johanna Dobroschke.Postproduktion: Anne-Katrin Pache-Wilke und Christiane Attig.Musik: Almut Schwacke.Grafikdesign: Sven Sedivy. Dieser Podcast wird gefördert vom Bundesminis...
Sind Sprachmodelle die neuen Taschenrechner? Wie KI die Lernwelt transformiert.
Mit Niels Pinkwart, Stefanie Kaste und Timm Lutter
31.05.2024 88 min
Systeme der künstlichen Intelligenz beschleunigen die digitale Transformation des Bildungssystems enorm: Schüler*innen nutzen Sprachmodelle mittlerweile ganz selbstverständlich und die Schulen müssen sich mit dieser neuen Herausforderung aktiv auseinandersetzen. Aber KI-Systeme haben auch ein großes Potenzial, Lehrer*innen zu entlasten und Erkenntnisse über ganze Jahrgänge zu bekommen, die vorher nur implizit existierten. Chancen und Risiken von KI im Bildungssystem haben wir mit unseren Gesprächspartner*innen diskutiert. +++ Niels Pinkwart ist ein früher Pionier der KI für die Bildung in Deutschland. Schon 2005 hat er über kollaborative Modellierungssysteme in Bildungskontexten an der Universität Duisburg promoviert. Seit 2013 ist er Professor für Didaktik der Informatik / Informatik und Gesellschaft sowie seit 2021 Vizepräsident für Studium und Lehre an der Humboldt-Universität zu Berlin. Außerdem ist Niels Leiter des Educational Technology Lab am DFKI Berlin. Stefanie Kaste ist stellvertretende Geschäftsführerin der Initiative D21. D21 ist Deutschlands größtes gemeinnütziges Netzwerk für die Digitale Gesellschaft, bestehend aus Wirtschaft, Politik, Wissenschaft und Zivilgesellschaft. Timm Lutter leitet die Arbeitsgruppe Digitale Bildung und ist Präsidiumsmitglied der Initiative D21. Außerdem leitet er die Unternehmenskommunikation beim Bildungsmedienanbieter Cornelsen. +++ LinklistePISA-StudienOECD-LernkompassDetektor von OpenAI zur Unterscheidung von KI-generierten und durch Menschen verfassten TextenJugendstudie der Vodafone-Stiftung zum Einsatz von Künstliche...
Von der Black Box zur Glass Box: Worum es hier geht und wer wir sind.
26.04.2024 20 min
Herzlich Willkommen bei Autonomie und Algorithmen: Freiheit im Zeitalter von KI. Freiheit, Selbstbestimmung, Autonomie – das sind Begriffe, die man in aktuellen gesellschaftlichen und wissenschaftlichen Debatten rund um Künstliche Intelligenz immer wieder hört. In unserem Podcast möchten wir durch Gespräche mit Expert*innen aus der KI-Forschung ganz konkrete KI-Systeme beleuchten, um euch mit dem notwendigen Wissen auszustatten, selbstbestimmte Entscheidungen in Bezug auf die Nutzung von KI-Systemen treffen zu können. +++ In dieser Episode lernt ihr uns kennen: Christiane Attig und Benjamin Paaßen. Christiane ist Ingenieurpsychologin und beschäftigt sich mit der subjektiven Wahrnehmung von KI-Systemen. Das bedeutet beispielsweise: Habe ich als Nutzerin in der Interaktion mit einem KI-System das Gefühl, einen Partner auf Augenhöhe zu haben? Kann ich die Grenzen des Systems nachvollziehen, während ich damit umgehe?Christianes Profil auf den Seiten der Universität zu LübeckChristianes persönliche WebsiteChristiane bei BlueskyChristiane bei MastodonBenjamin hat eine Juniorprofessur für Maschinelles Lernen und Wissensrepräsentation inne. In Benjamins Forschung geht es zum Beispiel um Fairness von KI-Systemen, KI-Anwendungen im Bildungssystem oder der Entwicklung von Methoden des Maschinellen Lernens.Benjamins Profil auf den Seiten der Universität BielefeldBenjamins persönliche WebsiteBenjamin bei BlueskyBenjamin bei Mastodon+++ Habt ihr Fragen, Ideen, Impulse oder Feedback? Bringt euch ein, wir freuen uns!Unsere E-Mail-Adresse: autonomie-algorithmen@lists.techfak.uni-biel...