ORION: Sprachmodelle lernen kompakte, effiziente Logik in Mentalese
Die neueste Forschung von ORION zeigt, wie große Sprachmodelle ihre Rechenleistung drastisch steigern können, indem sie lernen, in einer kompakten, mentalen Sprache zu denken. Anstatt lange, wortreiche Denkketten zu erzeugen, nutzt das System ein ultra-komprimiertes Token-Format namens Mentalese, das abstrakte Logik in wenigen, strukturierten Symbolen abbildet.