Künstliche Intelligenz interpretierbar machen

27. November 2019 Initiativen/Trends

Automatisierung ist im Allgemeinen eine gute Sache. Sie erledigt einfache, sich wiederholende Aufgaben und erlaubt Unternehmen, freigewordene Ressourcen für neuere, interessantere Probleme einzusetzen. Und da Machine-Learning-Modelle Entscheidungen automatisieren, sind auch sie im Allgemeinen eine gute Sache.

Bei ML-Modellen gibt es jedoch einige Probleme, insbesondere bei den sogenannten Black-Box-Modellen.

Black-Box-Modelle

Ein Black-Box-Modell ist ein Modell, das man durch bloßes Betrachten seiner Parameter nicht mehr interpretieren kann. Ein lineares Regressionsmodell kann man anhand der Steigungsparameter noch interpretieren, aber bei einem neuronalen Netzwerk geht das nicht mehr. Details