Explainable Feature Importance: Interpretierbare maschinelles Lernen durch spieltheoretische Analyse von Einflussgrößen und Interaktionseffekten
Überblick
Methoden des maschinellen Lernens (ML) unterstützen die Suche nach Mustern in Daten und Zusammenhängen zwischen Variablen, z.B. in komplexen bio-medizinischen Systemen. Auf diese Weise können sie neue Einsichten vermitteln und Entscheidungen in Handlungsfeldern wie der medizinischen Diagnostik verbessern. Neben der Güte der aus den Daten gelernten Modelle bildet das Vertrauen menschlicher Experten in diese Modelle eine wichtige Voraussetzung für die Nützlichkeit und Anwendbarkeit von ML. Dies setzt ein gewisses Maß an Transparenz der Modelle voraus, vor allem im Hinblick auf die Bedeutung von und die Interaktion zwischen einzelnen Einflussgrößen. In diesem Projektvorhaben schlagen wir einen spieltheoretischen Ansatz zur Modellierung und Dekomposition von Abhängigkeiten höherer Ordnung vor, d.h. Abhängigkeiten zwischen Teilmengen von Variablen. Auf dieser Grundlage lassen sich theoretisch fundierte Maße für die Wichtigkeit einzelner Einflussgrößen und die Stärke der Interaktion zwischen diesen Größen bestimmen. Im Rahmen des Projektes entwickeln wir nicht nur die theoretischen und konzeptionellen Grundlagen dieses Ansatzes, sondern arbeiten auch an einer effizienten algorithmischen Umsetzung. Zur Verbesserung von Verständnis und Akzeptanz entwickeln wir zudem einen interaktiven Ansatz zur Exploration von Abhängigkeiten in hochdimensionalen Datenräumen.
Key Facts
- Laufzeit:
- 01/2021 - 12/2024
- Gefördert durch:
- MKW NRW