Wenn KI-Systeme sich selbst erklären: Nachvollziehbarkeit, Ko-Konstruktion und Vertrauen.
mit Katharina Rohlfing und Tim Schrills
30.08.2024 69 min
Zusammenfassung & Show Notes
Bitte schenkt uns 10 Minuten eurer Zeit, um an der Evaluation unseres Podcasts teilzunehmen! Danke!
Zur Umfrage geht es hier.
+++
Unter dem Stichwort "Erklärbare KI" (Explainable AI, XAI) werden Ansätze verstanden, mit Hilfe derer KI-Systeme selbst Erklärungen über ihre Funktionsweise und ihre Ergebnisse an die Nutzenden kommunizieren. Klingt simpel? Ist es aber nicht. Erklärungen können die Nachvollziehbarkeit eines Systems erhöhen, sie können aber auch nur das Gefühl erwecken, das System verstanden zu haben. Oder sie können Antworten auf Fragen geben, die die Nutzenden gar nicht haben. Was es alles zu beachten gilt und wie sich die Forschung zu XAI in den letzten Jahren gewandelt hat, das erfahrt ihr bei uns!
+++
Zur Umfrage geht es hier.
+++
Unter dem Stichwort "Erklärbare KI" (Explainable AI, XAI) werden Ansätze verstanden, mit Hilfe derer KI-Systeme selbst Erklärungen über ihre Funktionsweise und ihre Ergebnisse an die Nutzenden kommunizieren. Klingt simpel? Ist es aber nicht. Erklärungen können die Nachvollziehbarkeit eines Systems erhöhen, sie können aber auch nur das Gefühl erwecken, das System verstanden zu haben. Oder sie können Antworten auf Fragen geben, die die Nutzenden gar nicht haben. Was es alles zu beachten gilt und wie sich die Forschung zu XAI in den letzten Jahren gewandelt hat, das erfahrt ihr bei uns!
+++
Katharina Rohlfing ist Professorin für Psycholinguistik an der Universität Paderborn und Sprecherin des Sonderforschungsbereich/Transregio 318 "Constructing Explainability", in dem Forscher*innen Wege erforschen, die Nutzer*innen in den Erklärprozess einzubinden und damit ko-konstruktive Erklärungen zu schaffen. Darüber sind ihre Forschungsschwerpunkte u.a. Multimodale Interaktion, frühkindlicher Spracherwerb und Gedächtnisprozesse und Kind-Roboter Interaktion.
Tim Schrills ist Wissenschaftlicher Mitarbeiter an der Professur für Ingenieurpsychologie und Kognitive Ergonomie am Institut für Multimediale und Interaktive Systeme der Universität zu Lübeck. In seiner Forschung beschäftigt er sich u.a. mit der Unterstützung menschlicher Informationsverarbeitung durch KI-Systeme, Methoden der Erklärbarkeit sowie KI-Systemen in der Medizin.
Tim Schrills ist Wissenschaftlicher Mitarbeiter an der Professur für Ingenieurpsychologie und Kognitive Ergonomie am Institut für Multimediale und Interaktive Systeme der Universität zu Lübeck. In seiner Forschung beschäftigt er sich u.a. mit der Unterstützung menschlicher Informationsverarbeitung durch KI-Systeme, Methoden der Erklärbarkeit sowie KI-Systemen in der Medizin.
+++
Linkliste
- Madsen & Gregor (2000), Measuring Human-Computer Trust.
- Jian et al. (2010), Foundations for an Empirically Determined Scale of Trust in Automated Systems. International Journal of Cognitive Ergonomics.
- Bartlett & McCarley (2017), Benchmarking Aided Decision Making in a Signal Detection Task. Human Factors.
- Schrills (2023), Erklärbare KI. In: Künstliche Intelligenz in öffentlichen Verwaltungen.
- Chromik et al. (2021), I Think I Get Your Point, AI! The Illusion of Explanatory Depth in Explainable AI. Proceedings of the 26th International Conference on Intelligent User Interfaces.
- Schrills & Franke (2023), How Do Users Experience Traceability of AI Systems? Examining Subjective Information Processing Awareness in Automated Insulin Delivery (AID) Systems. ACM Transactions on Interactive Intelligent Systems.
- Yacobi et al. (2022), “If it didn’t happen, why would I change my decision?”: How Judges Respond to Counterfactual Explanations for the Public Safety Assessment. Proceedings of the Tenth AAAI Conference on Human Computation and Crowdsourcing.
- Rohlfing et al. (2020), Explanation as a Social Practice: Toward a Conceptual Framework for the Social Design of AI Systems. IEEE Transactions on Cognitive and Developmental Systems.
- Buschmeier et al. (2023), Forms of Understanding of XAI-Explanations. arXiv.
- EU AI Act: Einheitliche Regeln für Künstliche Intelligenz in der EU
- Häntschel & Schrills (2024), Der EU AI Act und seine Auswirkungen auf Human-Computer Interaction. (YouTube-Video)
- Deck et al. (2024), A Critical Survey on Fairness Benefits of Explainable AI. Proceedings of the 2024 ACM Conference on Fairness, Accountability, and Transparency.
+++
Habt ihr Fragen, Ideen, Impulse oder Feedback? Bringt euch ein, wir freuen uns!
Habt ihr Fragen, Ideen, Impulse oder Feedback? Bringt euch ein, wir freuen uns!
- Unsere E-Mail-Adresse: autonomie-algorithmen@lists.techfak.uni-bielefeld.de
- Unser Bluesky-Profil: https://bsky.app/profile/auto-algo.bsky.social
- Unser Kontaktformular: https://autonomie-algorithmen.letscast.fm/feedback
+++
"Autonomie und Algorithmen: Freiheit im Zeitalter von KI" ist eine Gemeinschaftsproduktion.
Konzeption und Produktion: Christiane Attig und Benjamin Paaßen.
Redaktionelle Unterstützung: Johanna Dobroschke.
Postproduktion: Anne-Katrin Pache-Wilke und Christiane Attig.
Musik: Almut Schwacke.
Grafikdesign: Sven Sedivy.
Dieser Podcast wird gefördert vom Bundesministerium für Bildung und Forschung im Rahmen des Wissenschaftsjahres 2024 – Freiheit.
Feedback geben
Dir gefällt der Podcast und Du möchtest das mal loswerden? Du hast Tipps für neue Themen oder magst über den Inhalt bestimmter Folgen diskutieren? Dann wähle im Formular die jeweilige Episode aus und schreib uns eine Nachricht. Vielen Dank für Dein Feedback!