KI & Fairness: Wer bekommt den Job, wer den Hit?
Mit Janine Strotherm
28.03.2025 69 min
Zusammenfassung & Show Notes
Stellt euch ein KI-System vor, das automatisiert faire Entscheidungen über die Einladung zum Bewerbungsgespräch auf Basis von Bewerbungsunterlagen treffen soll. Klingeln da bei euch die Alarmglocken? Wenn ja: Zu Recht! Der EU AI Act stuft ein solches System als Hochrisikosystem ein. Wir schauen uns ein solches System heute genauer an und klären: Was bedeutet eigentlich Fairness in Bezug auf KI? Wie kann man prüfen, ob ein KI-System zu fairen Entscheidungen führt? Und was hat das alles mit menschlicher Autonomie zu tun?
+++
Janine Strotherm ist Mathematikerin und Mitarbeiterin der Universität Bielefeld. Im Projekt "Water Futures" beschäftigt Janine sich mit maschinellem Lernen in Bezug auf faire Verteilung von Wasserressourcen.
+++
Janine Strotherm ist Mathematikerin und Mitarbeiterin der Universität Bielefeld. Im Projekt "Water Futures" beschäftigt Janine sich mit maschinellem Lernen in Bezug auf faire Verteilung von Wasserressourcen.
+++
Linkliste
- Lee (2018), Understanding perception of algorithmic decisions: Fairness, trust, and emotion in response to algorithmic management. Big Data & Society.
- Starke et al. (2022), Fairness perceptions of algorithmic decision-making: A systematic review of the empirical literature. Big Data & Society.
- Strotherm et al. (2023), Fairness in KI-Systemen. arXiv.
- Fiske: Stereotype Content Model
- Eckes (2002), Paternalistic and Envious Gender Stereotypes: Testing Predictions from the Stereotype Content Model. Sex Roles.
- DuBois: The Philadelphia N-Wort
- Paaßen et al. (2019), Dynamic fairness – Breaking vicious cycles in automatic decision making. ESANN 2019.
- Race Norming
- COMPAS Software
- Knibbe (2021), Fairness in Question: Do Music Recommendation Algorithms Value Diversity? Music Tomorrow.
- Torabi (2023), The Inner Workings of Spotify’s AI-Powered Music Recommendations: How Spotify Shapes Your Playlist. Medium.
- Henry et al. (2024), Impacts of AI on Music Consumption and Fairness. Emerging Media.
+++
Habt ihr Fragen, Ideen, Impulse oder Feedback? Bringt euch ein, wir freuen uns!
Habt ihr Fragen, Ideen, Impulse oder Feedback? Bringt euch ein, wir freuen uns!
- Unsere E-Mail-Adresse: autonomie-algorithmen@lists.techfak.uni-bielefeld.de
- Unser Bluesky-Profil: https://bsky.app/profile/auto-algo.bsky.social
- Unser Kontaktformular: https://autonomie-algorithmen.letscast.fm/feedback
+++
"Autonomie und Algorithmen: Freiheit im Zeitalter von KI" ist eine Gemeinschaftsproduktion.
Konzeption und Produktion: Christiane Attig und Benjamin Paaßen.
Redaktionelle Unterstützung: Johanna Dobroschke.
Postproduktion: Ingrid Rogalski und Christiane Attig.
Musik: Almut Schwacke.
Grafikdesign: Sven Sedivy.
Dieser Podcast wird gefördert vom Bundesministerium für Bildung und Forschung im Rahmen des Projekts KI-Akademie OWL.
Feedback geben
Dir gefällt der Podcast und Du möchtest das mal loswerden? Du hast Tipps für neue Themen oder magst über den Inhalt bestimmter Folgen diskutieren? Dann wähle im Formular die jeweilige Episode aus und schreib uns eine Nachricht. Vielen Dank für Dein Feedback!