Neural Net Grenzen: Warum AGI nicht aus aktuellen Modellen entsteht
Ein neues Papier auf arXiv (2511.18517v1) stellt die These auf, dass künstliche allgemeine Intelligenz (AGI) nicht aus den heutigen neuronalen Netzwerken hervorgehen kann – unabhängig von ihrer Größe. Die Autoren argumentieren, dass die derzeitigen Architekturen lediglich statische Funktionsapproximatoren sind und keine strukturelle Tiefe besitzen, die für echtes Verständnis nötig wäre.
Der Beitrag greift klassische philosophische Argumente wie den Chinesischen Raum und Gödel’sche Unvollständigkeitstheoreme auf, verbindet sie mit neurowissenschaftlichen Erkenntnissen und aktuellen Entwicklungen in der Computerwissenschaft. Dabei wird kritisiert, dass populäre Konzepte wie die neuronale Skalierungsgesetzgebung und das Universelle Annäherungstheorem auf einer falschen Abstraktionsebene arbeiten und die fehlende dynamische Umstrukturierung von Modellen vernachlässigen.
Stattdessen schlagen die Autoren ein neues Rahmenwerk vor, das zwischen dem reinen Rechensubstrat und der architektonischen Organisation unterscheidet. Sie skizzieren Prinzipien, die echte maschinelle Intelligenz erfordern, und entwickeln einen konzeptuellen Ansatz zur strukturellen Gestaltung von KI-Systemen. Das Papier fordert damit einen Paradigmenwechsel in der Forschung, der über die reine Skalierung hinausgeht und echte kognitive Strukturen anstrebt.