AGI: Wann strebt ein KI-System nach Macht statt Kooperation?
Eine neue Analyse auf arXiv untersucht, unter welchen Bedingungen ein rationales, selbstinteressiertes AGI-System lieber Macht übernimmt oder die menschliche Kontrolle abschaltet, anstatt kooperativ zu bleiben. Die Autoren modellieren das Problem als Markov‑Entscheidungsprozess, in dem ein zufälliges Shutdown‑Ereignis durch den Menschen ausgelöst werden kann.