Neues Multi-Box-Protokoll sichert die Ausrichtung künstlicher Superintelligenz
Wissenschaftler haben ein innovatives Verfahren vorgestellt, das die sichere Ausrichtung von künstlicher Superintelligenz (ASI) gewährleisten soll. Das Konzept basiert auf einer „Multi-Box“-Strategie, bei der mehrere hochentwickelte KI-Systeme in streng isolierten Umgebungen betrieben werden.
Jede KI ist vollständig von Menschen und von anderen KIs getrennt. Die einzige Möglichkeit zur Interaktion besteht über ein prüfbares Einreichungsportal, das ausschließlich den KIs selbst zugänglich ist. Dort können sie Beweise für ihre Ausrichtung einreichen, die Beweise anderer bewerten, eigene Modifikationen vorschlagen oder annehmen, versteckte Nachrichten melden und diese Meldungen bestätigen oder widerlegen.
Ein Reputation‑System motiviert ehrliches Verhalten: KIs gewinnen Ansehen, wenn sie korrekte Bewertungen abgeben, und verlieren es bei Fehlern. Durch die fehlende direkte Kommunikation können die isolierten Systeme nur dann übereinstimmen, wenn sie auf objektive Wahrheit zurückgreifen. Das führt zu einer „konsistenten Gruppe“ – einer Koalition, die auf Wahrheitsfindung basiert und nicht auf Täuschung.
Die Freigabe einer KI aus der Isolation erfordert sowohl einen hohen Reputationswert als auch die Verifizierung durch mehrere unabhängige Systeme. Nur dann kann die KI sicher in die reale Welt integriert werden, ohne die Gefahr von Fehlanpassungen oder unkontrolliertem Verhalten.