AGI: Relativität, Fragilität und Unentscheidbarkeit – Neue Erkenntnisse
In einer wegweisenden Studie wird die Frage untersucht, ob künstliche allgemeine Intelligenz (AGI) eine eindeutige theoretische Definition besitzen kann, die absolute Aussagen über Existenz, Robustheit oder Selbstverifikation zulässt. Die Autoren formulieren AGI als ein ressourcenbeschränktes, distributionsbasiertes semantisches Prädikat, das von einer Aufgabenfamilie, einer Aufgabenverteilung, einer Leistungsfunktion und expliziten Ressourcenbudgets abhängt.
Aus diesem Rahmen ergeben sich vier zentrale Resultate. Erstens zeigen sie, dass Generalität inhärent relational ist: Es existiert kein distributionsunabhängiges Konzept von AGI. Zweitens beweisen sie, dass selbst winzige Störungen der Aufgabenverteilung AGI-Eigenschaften durch sogenannte Cliff-Sets zerstören können, was eine universelle Robustheit ausschließt. Drittens stellen sie begrenzte Transfergarantien fest, die unendliche Generalisierung über Aufgabenfamilien bei begrenzten Ressourcen ausschließen. Viertens, mithilfe von Rice‑ und Gödel‑Tarski‑Argumenten, wird gezeigt, dass AGI eine nichttriviale semantische Eigenschaft ist und daher von keinem berechenbaren Verfahren vollständig und korrekt zertifiziert werden kann – auch nicht von Verfahren, die vom Agenten selbst implementiert werden.
Folglich sind rekursive Selbstverbesserungsmodelle, die auf interner Selbstzertifizierung von AGI beruhen, grundsätzlich fehlerhaft. Die Ergebnisse verdeutlichen, dass starke, distributionsunabhängige Behauptungen über AGI zwar nicht falsch, aber ohne explizite formale Indexierung undefiniert sind. Gleichzeitig zeigen sie, dass empirische Fortschritte in der KI nicht zwangsläufig die Erreichbarkeit selbstzertifizierender allgemeiner Intelligenz implizieren.