Roboter Hand

Human-Centered AI

Die Erforschung transparenter und erklärbarer künstlicher Intelligenz ist wichtig für faire und ethische KI und zählt als “eine der grosse Herausforderung“ für HCI (Stephanidis et al., 2019). Unser Team möchte einen Beitrag zur bestehenden Forschung leisten, indem wir untersuchen, welche Auswirkungen menschenzentrierte KI-Erklärungen auf Nutzer haben. Unser Fokus liegt auf dem psychologischen Konstrukt Vertrauen und wie dieses durch KI-Erklärungen beeinflusst wird. Je nachdem, ob Vertrauen als Einstellung oder als Verhalten operationalisiert und gemessen wird, hat Transparenz scheinbar unterschiedliche Wirkungen. Angesichts dessen, dass KI zunehmend bei kritischen Entscheidungen mit weitreichenden Konsequenzen eingesetzt wird, sind konsensfähige Konstrukte und angemessene Messinstrumente unabdingbar. Darüber hinaus sind wir daran interessiert, wie KI vorurteilsbehaftete menschliche Entscheidungen überwinden kann, um uns zu besseren Entscheidungen zu verhelfen.

Publikationen

Conference Proceedings

2022
  • Scharowski, N., Perrig, S. A. C., von Felten, N., & Brühlmann, F. (2022). Trust and Reliance in XAI–Distinguishing Between Attitudinal and Behavioral Measures. CHI 2022 TRAIT Workshop on Trust and Reliance in AI-Human Teams. https://arxiv.org/abs/2203.12318
2021
  • Scharowski, N., Opwis, K., & Brühlmann, F. (2021). Empirical hints of cognitive biases despite human-centered AI explanations. CHI 2021 Workshop: Operationalizing Human-Centered Perspectives in Explainable AI.