Die Interpretierbarkeit von Modellen ist keine Frage der verwendeten ML-Methode (welches Modellsubstrat, z.B. NNs vs. grafische Modelle vs. symbolischer Code). Jedes Substrat kann interpretierbar sein, wenn das Modell klein genug ist. Es ist rein eine Frage der Modellgröße/-komplexität. Das Verhalten eines komplexen Codes oder eines komplexen grafischen Modells ist nicht interpretierbar, obwohl man lokal jeden Teil dessen, was es tut, lesen kann. Es ist vielleicht *debuggbar* in bestimmten Fällen mit großem Aufwand – aber das gleiche würde auch für NNs gelten. Meiner Meinung nach ist die Aussage "wir müssen interpretierbare Methoden verwenden" ein Nonstarter, das bedeutet, dass man sich auf Spielzeugmodelle beschränken möchte.