Agenten kommunizieren komplett im latenten Raum – neue Studie zeigt Fortschritt
In der Welt der großen Sprachmodelle (LLM) ist die natürliche Sprache bislang das Standardmedium für die Kommunikation zwischen Agenten. Doch die Umwandlung komplexer, interner latenter Zustände in diskrete Tokens schränkt die Tiefe und Nuanciertheit der übermittelten Informationen ein und behindert damit die Zusammenarbeit bei komplexen Aufgaben.