Das ist auch genau meine Beobachtung. Es gibt Beispiele, bei denen geht alles gut (vermutlich stammen sie aus dem Trainingsmaterial des jeweiligen Systems), aber real-world klingen doch immer einige Stems ganz unglaublich schlecht. Ähnlich wie mp3 mit 64kBit, aber schlechter.
Will auch keiner, muss auch keiner. Weiß auch jeder, der sich damit auskennt, denn diese Information wäre völlig unerheblich, denn
1) bereits beim nächsten kompletten Trainingslauf wäre wieder alles ganz anders und
2) die Vorstellung, dass irgendwelche ganz bestimmten Nodes irgendein klar identifizierbares Wissen beinhalten, trifft nicht zu. Das gesamte trainierte Wissen verteilt sich ineinander verschachtelt und überlagert auf das komplette Netz. Natürlich gibt es dann irgendwelche Regionen im Netz, die besonders aktiv bei bestimmten Wortfeldern sind, aber was nützt mir die Information, wenn sich eh alles neu organisiert beim nächsten Trainingslauf.
Nein, es gibt schon seit mehr als 2 Jahrzehnten den Konsens, keine Visualisierungsversuche zu unternehmen (es sei denn, sie sollen den Medien als "Futter" dienen für "aufregende" Berichte). Er gibt bereits bei einfachsten Neuronalen Netzen keinen Erkenntnisgewinn durch Visualisierung. Sind sie zu einfach, begreift jeder, wie sie funktionieren (ähnlich einer Linearen Regression), aber sobald mehr als ca. 20 Neuronen mit allen Verbindungen beteiligt sind, wird das Ganze unübersichtlich und ist vor allem bei jedem Trainingslauf anders, da es meistens kein globales Optimum gibt, sondern statt dessen viele lokale. Und bei jedem Trainingslauf landet das Netz in einem anderen lokalen Optimum (das mal weiter mal weniger weit vom Optimum entfernt ist).
Die spannenden Fragen sind vielmehr:
- wie verbessere (beschleunige) ich den Trainingsprozess?
- wie stelle ich sicher, dass mein Trainingsmaterial alle Fälle gleichmäßig abdeckt?
- wie finde ich die beste Netztopologie zur jeweiligen Aufgabe?
- ...
Das ist 1) alles nicht so einfach, 2) alles nicht so neu, 3) alles nicht so gut, wie man als Laie zunächst annimmt.