Statistische Evidenz in KI-Systemen
AG Prof. Björn-Hergen Laabs
Der klinische Einsatz von KI-Systemen erfordert ein plausibles, robustes und nachvollziehbares Verhalten. Wesentliche Aspekte sind dabei:
- die Quantifizierung der Ungenauigkeit (Uncertainty),
- die Interpretierbarkeit (Explainable AI),
- die kausale Inferenz
- die Datensicherheit.

Bei der Quantifizierung von Vorhersageungenauigkeit geht es darum, zu bestimmen, wie sicher die Vorhersage einer KI ist. Dazu verwenden wir statistische Verfahren, die abschätzen, wie stabil eine Vorhersage unter veränderten Ausgangsbedingungen sind.
Die meisten KI-Systeme sind Block-Box-Modelle. D.h. es wird eine Eingabe gemacht und die KI gibt ein Ergebnis zurück. Dabei bleibt jedoch unklar, wie die KI zu dieser Entscheidung gekommen ist. Explainable AI zielt darauf ab, die komplexen Verknüpfungen in der Entscheidungsfindung einer KI für den Anwendenden verständlich zu machen.
KI-Systeme lernen Zusammenhänge aus vorhandenen Daten. Dabei liegt der Fokus üblicherweise auf einer möglichst gute Vorhersage und weniger darauf, ob die Zusammenhänge auch ursächlich sind. Will man nun auf Basis dieser Vorhersage eine klinische Behandlungsempfehlung geben, benötigt es jedoch kausale Zusammenhänge, welche über kausale Inferenz ermittelt wurden.
Schließlich birgt der Datenhunger von KI-Systemen die Gefahr der individuellen Datensicherheit. Föderiertes Lernen verfolgt dabei den Ansatz, dass die Patient*innendaten an dem jeweiligen Zentrum verbleiben, an dem sie erhoben wurden und eine KI dezentral lernt. Dabei können wir statistische Methoden verwenden, um sicher zu stellen, dass die dezentralen Daten z.B. überhaupt vergleichbar sind.
Kontakt
Kontaktinformationen
- Telefon: +49 551 3964064
- Telefax: +49 551 3965605
- E-Mail-Adresse: bjoern-hergen.laabs(at)med.uni-goettingen.de
- Ort / Raum: Humboldtallee 32, EG 141