Agentische KI: Neue Architekturen, Taxonomie und Bewertung von LLM-Agenten

arXiv – cs.AI Original ≈1 Min. Lesezeit
Anzeige

Die Welt der künstlichen Intelligenz hat einen bedeutenden Sprung gemacht: Statt lediglich Texte zu generieren, entwickeln sich Systeme zu autonomen Agenten, die wahrnehmen, denken, planen und handeln können. Große Sprachmodelle (LLMs) werden dabei nicht mehr nur als passive Wissensspeicher genutzt, sondern als kognitive Steuerzentralen, die Gedächtnis, Werkzeuggebrauch und Umgebungsfeedback kombinieren, um langfristige Ziele zu verfolgen.

Dieser Wandel ermöglicht bereits die Automatisierung komplexer Arbeitsabläufe in Bereichen wie Softwareentwicklung, wissenschaftlicher Forschung und Webnavigation. Doch die Vielfalt der neuen Architekturen – von einfachen Einzelschleifen-Agenten bis hin zu hierarchischen Multi-Agenten-Systemen – macht das Feld schwer zu durchschauen. In der vorliegenden Arbeit wird daher ein einheitliches Klassifikationsschema vorgestellt, das Agenten in die Kategorien Wahrnehmung, Gehirn, Planung, Aktion, Werkzeuggebrauch und Zusammenarbeit unterteilt.

Die Autoren beschreiben zudem den Übergang von linearen Denkprozessen zu Modellen, die während der Inferenzzeit selbstständig Schlussfolgerungen ziehen, sowie den Wechsel von festen API-Aufrufen zu offenen Standards wie dem Model Context Protocol (MCP) und Native Computer Use. Zusätzlich werden die Einsatzumgebungen – digitale Betriebssysteme, verkörperte Robotik und andere spezialisierte Domänen – systematisch gruppiert und aktuelle Evaluationsmethoden kritisch beleuchtet.

Abschließend werden zentrale Herausforderungen aufgezeigt, darunter Handlungsfehler durch Halluzinationen, unendliche Schleifen und Prompt-Injektionen. Die Autoren skizzieren Forschungsrichtungen, die darauf abzielen, autonome Systeme robuster und zuverlässiger zu machen, und betonen die Notwendigkeit, diese neuen Technologien verantwortungsbewusst weiterzuentwickeln.

Ähnliche Artikel