Sandra Nickol

Tel. 0951 - 863 2659

Bitte beachten Sie, dass wir uns wegen der aktuellen Situation derzeit im Homeoffice befinden und in der Regel schneller per E-Mail zu erreichen sind. Gerne rufen wir Sie zurück.

Email: bamberg@vawi.de

Studiengangmanagement Bamberg
Universität Bamberg | Studiencenter VAWi

An der Weberei 5
96047 Bamberg  


Universität Bamberg

Virtueller Weiterbildungsstudiengang Wirtschaftsinformatik (VAWi)
Fakultät für Wirtschaftsinformatik und Angewandte Informatik

An der Weberei 5
96047 Bamberg
* Pflichtfeld
Weichelt

Dr. Thomas Weichelt

Tel. 0201 - 183 3001

Bitte beachten Sie, dass wir uns wegen der aktuellen Situation derzeit im Homeoffice befinden und in der Regel schneller per E-Mail zu erreichen sind. Gerne rufen wir Sie zurück.

Email: essen@vawi.de

Studiengangmanagement Essen
Universität Duisburg-Essen | Studiencenter VAWi

Universitätsstraße 9
45141 Essen


Universität Duisburg-Essen

Virtueller Weiterbildungsstudiengang Wirtschaftsinformatik (VAWi)
Fakultät für Wirtschaftswissenschaften

Universitätsstraße 9
45141 Essen
* Pflichtfeld

Artikel von VAWi-Dozent Prof. Bick zum Einsatz von KI im Gesundheitswesen

news vawi informiert.png

Ein Artikel von VAWi-Dozent Prof. Dr Markus Bick, der im Rahmen von VAWi das Modul Wissensmanagement anbietet, mit dem Titel „Explainable AI in Healthcare: Factors Influencing Medical Practitioners’ Trust Calibration in Collaborative Tasks“ wurde in den Proceedings der 57. Hawaii International Conference on System Sciences veröffentlicht. In dem Artikel befassen sich Prof. Bick und seine beiden Koautoren mit dem Einsatz von Künstlicher Intelligenz (KI) im Gesundheitswesen und dem dabei bestehenden Problem eines adäquaten Vertrauensniveaus in von KI-Systemen ausgesprochene Empfehlungen.

Eine Medizinerin, ein Mediziner und ein medizinisches Gerät mit Roboterarm

KI hat die Interaktion zwischen Mensch und Technik in den letzten Jahren grundlegend verändert. Die Gesundheitsbranche ist ein Paradebeispiel für diese Interaktion und hat ein erhebliches Potenzial für die Nutzung von KI, da elektronische Gesundheitsdaten in KI-Algorithmen genutzt werden können, um Ärzte bei der Erstellung präziser Diagnosen und der Bereitstellung personalisierter Behandlungsempfehlungen zu unterstützen.

Folglich beschleunigt die Digitalisierung von Gesundheitsdaten in Kombination mit raschen Fortschritten bei KI-Techniken die Forschung und Entwicklung von KI-basierten klinischen Entscheidungsunterstützungssystemen (Clinical Decision Support Systems, CDSSs) für Ärzte. Darüber hinaus fördern offensichtliche Erfolge in Bereichen wie der Extraktion und Analyse medizinischer Bilder diesen Prozess, da Studien darauf hindeuten, dass der Einsatz von KI-basierten CDSS zu einer größeren Präzision beispielsweise bei der Brustkrebserkennung führen kann.

KI-Systeme können jedoch wie „Black Boxes“ wirken, wenn die Nutzer nicht ausreichend über das Innenleben des Systems informiert sind und nicht verstehen können, „wie“ und „warum“ eine bestimmte Empfehlung ausgesprochen wird. Dieser Mangel an Transparenz im klinischen Umfeld kann die Nutzer daran hindern, ein angemessenes Vertrauensniveau bei der Zusammenarbeit mit KI-basierten CDSSs zu entwickeln. Dies führt dazu, dass sie dem System entweder zu viel Vertrauen schenken, indem sie blind falschen Empfehlungen folgen, oder zu wenig Vertrauen in das System haben und korrekte Ergebnisse ablehnen. Daher ist es von entscheidender Bedeutung, dass die Entscheidungen und Ergebnisse von KI-gestützten CDSS nachvollziehbar sind.

Ein möglicher Ansatz zur Lösung dieses Problems stellt erklärbare künstliche Intelligenz (Explainable Artificial Intelligence, XAI) dar. XAI soll Nutzer in die Lage zu versetzen, KI-Systeme zu verstehen, ihnen zu vertrauen und sie angemessen zu prüfen, und bietet Techniken zur automatischen Generierung von Erklärungen. Studien deuten jedoch darauf hin, dass Erklärungen alleine nicht ausreichen, um das Problem des übermäßigen Verlassens auf fehlerhafte Algorithmen zu lösen. Trotz der beträchtlichen Fortschritte bei der Entwicklung von XAI-Methoden gibt es also immer noch eine Forschungslücke bezüglich der grundlegenden Faktoren, die das Vertrauen von Ärzten in KI beeinflussen.

Um diese Forschungslücke zu schließen, wenden Prof. Bick und seine beiden Koautoren in der von ihnen durchgeführten Studie einen explorativen Ansatz an, um das komplexe Thema „Vertrauen“ im Kontext der Mensch-KI-Kollaboration zu untersuchen. Dabei nutzen sie das Human-Computer Trust Model (HCTM) und ordnen die von ihnen identifizierten Faktoren den jeweiligen Komponenten dieses Modells zu. Darüber hinaus entwickeln sie ein Modell zur Vertrauenskalibrierung in Bezug auf (X)AI im Gesundheitswesen. Die gewonnenen Erkenntnisse helfen dabei, die aktuellen Vertrauensprobleme von Ärzten in Bezug auf KI besser zu verstehen, Potenziale sowie Herausforderungen zu identifizieren und geeignete Lösungen in diesem Kontext zu erstellen.

Der vollständige Artikel steht unter folgendem Link zur Verfügung: https://scholarspace.manoa.hawaii.edu/server/api/core/bitstreams/673b5517-fb6c-4b99-900d-96e2890e305a/content



© www.vawi.de   Monday, March 11, 2024 7:45 AM vawi
© 2024 VAWi, Alle Rechte vorbehalten. Impressum | Datenschutz Anmelden