LLMs meistern asymmetrische Agenten: Aktives Nachfragen reduziert Bias
Neues Forschungsergebnis aus dem arXiv-Repository zeigt, dass große Sprachmodelle (LLMs) trotz ihrer beeindruckenden Rechenkraft Schwierigkeiten haben, in körperlich eingebetteten Umgebungen zu „symbalisieren“. Besonder…