Digitale Auskultation: Warum Ärzte bald für Fehler haften, die sie gar nicht mehr hören können

KI-gestützte Auskultation verspricht Effizienz – doch wer trägt die Verantwortung, wenn das System irrt? Nadine Schlicker zeigt, warum die aktuelle Verantwortungsverteilung unfair ist, wie Vertrauen in KI sinnvoll kalibriert wird und welcher klinische Skill gerade leise verschwindet.

Menschliche Aufsicht beginnt nicht erst bei der Diagnose

Wo setzt ärztliche Kontrolle bei KI-gestützter Auskultation an – beim Hören, bei der Interpretation oder bei der finalen Entscheidung? Laut Nadine Schlicker hängt das vom Aufsichtslevel ab: In der direkten Patientensituation muss der gesamte Prozess beaufsichtigt werden. Sobald KI-Systemen aber grundsätzlich vertraut wird, brauche es zusätzlich eine übergeordnete Monitoring-Instanz, die Auffälligkeiten in Diagnosehäufigkeiten erkennt – etwas, das einzelne Behandler am Patienten nicht leisten können.

Vertrauen kalibrieren reicht nicht aus

Bisheriger Forschungsfokus war die Kalibrierung von Vertrauen in KI. Schlicker macht jedoch deutlich: Das allein greift zu kurz. Sinkt das Vertrauen in die KI gleichzeitig mit der eigenen diagnostischen Sicherheit, wird das System trotzdem genutzt. Es brauche einen klar definierten Referenzstandard – also Bereiche, in denen KI eingesetzt werden darf und in denen nicht. Erst dann lässt sich überhaupt definieren, wann zu viel oder zu wenig vertraut wurde.

Wahrscheinlichkeits-Scores: Hilfe oder Scheinsicherheit?

Wenn ein KI-System eine 99%ige Sicherheit ausgibt, müsse dieser Wert in der Realität verankert sein – also auch tatsächlich in 99% der Fälle korrekt. Fehlt diese Kalibrierung, drohe Scheinsicherheit. Ohne verlässliche Wahrscheinlichkeitsangaben wird es laut Schlicker schwierig, sinnvolle Einsatzbereiche zu definieren – statt Effizienzgewinn entstünde dann nur zusätzlicher Kontrollaufwand.

De-Skilling: Die Auskultationsfähigkeit schwindet bereits jetzt

Studien belegen seit Jahren einen Rückgang der Auskultationskompetenz – unabhängig von KI. Die entscheidende Frage sei daher nicht, ob De-Skilling passiert, sondern ob es klinisch relevant ist. Hält man den Skill für essenziell, müssten – analog zu Piloten im Autopilot-Betrieb – aktive Erhaltungsstrategien her. Wenn nicht, stelle sich die Frage, wie effektive menschliche Aufsicht in einer Welt ohne souveräne Auskultierende überhaupt noch funktionieren kann.

Verantwortung: Warum die aktuelle Lösung unfair ist

Aktuell trägt der Arzt die Letztverantwortung – auch für Black-Box-Entscheidungen der KI. Schlicker hält das für strukturell problematisch: Wer Kontrolle abgibt, aber Verantwortung behält, gerät in eine arbeitspsychologisch ungünstige Konstellation. Ihre Forderung: In klar definierten Sicherheitsbereichen müsse die Verantwortung auch beim Hersteller liegen – sonst sei weder Patientensicherheit noch ärztliche Arbeitszufriedenheit nachhaltig gewährleistet.