Philosophie trifft KI: Strukturistisches Modell zur Analyse neuronaler Darstellungen

arXiv – cs.AI Original ≈1 Min. Lesezeit
Anzeige

In einem brandneuen Beitrag auf arXiv wird ein strukturell orientierter Ansatz vorgestellt, der die oft übersehenen philosophischen Grundlagen von neuronalen Netzwerken beleuchtet. Der Autor argumentiert, dass maschinelles Lernen zunehmend als Repräsentationssystem fungiert, dessen interne Strukturen bislang kaum hinterfragt wurden.

Durch die Anwendung eines angepassten PRISMA-Frameworks wurde eine systematische Literaturübersicht der letzten zwanzig Jahre zu Representation Learning und Interpretierbarkeit erstellt. Fünf einflussreiche Arbeiten wurden anhand dreier hierarchischer Kriterien aus der strukturalistischen Philosophie der Wissenschaft analysiert: Entitätseliminierung, Quelle der Struktur und Modus des Seins.

Die Ergebnisse zeigen eine klare Neigung zum strukturellen Idealismus: Lernrepräsentationen werden als modellabhängige Konstruktionen verstanden, die von Architektur, Datenpräferenzen und Trainingsdynamiken geprägt sind. Während eliminativ- und nicht eliminativ-strukturalistische Positionen selektiv vertreten werden, fehlt ein struktural realistischer Ansatz vollständig.

Der vorgestellte Rahmen trägt dazu bei, konzeptuelle Spannungen in Debatten über Interpretierbarkeit, Emergenz und epistemisches Vertrauen in KI zu klären. Gleichzeitig bietet er eine solide Basis für zukünftige interdisziplinäre Forschung zwischen Philosophie der Wissenschaft und maschinellem Lernen.

Ähnliche Artikel