Forschung arXiv – cs.AI

WideSeek-R1: Breite Skalierung mit Multi-Agenten für umfassende Informationssuche

Die jüngsten Fortschritte bei großen Sprachmodellen konzentrieren sich überwiegend auf die Tiefenskalierung, bei der ein einzelner Agent komplexe Aufgaben mit mehrstufiger Logik und Tool‑Nutzung löst. Wenn Aufgaben jedo…

≈1 Min. Lesezeit Originalquelle
Kernaussagen
Das nimmst du aus dem Beitrag mit
  • Die jüngsten Fortschritte bei großen Sprachmodellen konzentrieren sich überwiegend auf die Tiefenskalierung, bei der ein einzelner Agent komplexe Aufgaben mit mehrstufig…
  • Wenn Aufgaben jedoch breiter werden, verschiebt sich der Engpass von der individuellen Kompetenz hin zur organisatorischen Kapazität.
  • Aktuelle Multi‑Agenten‑Systeme setzen häufig auf handgefertigte Arbeitsabläufe und sequentielle Interaktionen, die die Parallelisierung von Aufgaben nicht optimal nutzen.

Die jüngsten Fortschritte bei großen Sprachmodellen konzentrieren sich überwiegend auf die Tiefenskalierung, bei der ein einzelner Agent komplexe Aufgaben mit mehrstufiger Logik und Tool‑Nutzung löst. Wenn Aufgaben jedoch breiter werden, verschiebt sich der Engpass von der individuellen Kompetenz hin zur organisatorischen Kapazität.

Aktuelle Multi‑Agenten‑Systeme setzen häufig auf handgefertigte Arbeitsabläufe und sequentielle Interaktionen, die die Parallelisierung von Aufgaben nicht optimal nutzen. Dadurch bleibt die Effizienz bei umfangreichen Informationssuchaufgaben begrenzt.

WideSeek‑R1 löst dieses Problem mit einem Lead‑Agent‑Subagent‑Framework, das mittels Multi‑Agenten‑Reinforcement‑Learning (MARL) trainiert wird. Ein gemeinsamer Sprachmodell‑Agent teilt sich isolierte Kontexte und spezialisierte Werkzeuge, während Lead und Subagenten gleichzeitig optimiert werden.

Das System wurde auf einem sorgfältig zusammengestellten Datensatz von 20.000 breit angelegten Informationssuchaufgaben trainiert. In umfangreichen Tests erzielte WideSeek‑R1‑4B einen F1‑Score von 40,0 % auf dem WideSearch‑Benchmark, was dem Ergebnis des ein‑Agenten‑Modells DeepSeek‑R1‑671B entspricht. Zudem steigt die Leistung von WideSeek‑R1‑4B kontinuierlich, je mehr Subagenten parallel eingesetzt werden, was die Wirksamkeit der Breiten­skalierung unterstreicht.

WideSeek‑R1 demonstriert damit, dass die Kombination aus skalierbarer Orchestrierung und paralleler Ausführung neue Maßstäbe für die effiziente Informationssuche setzen kann.

Einordnen in 60 Sekunden

Welche Linse du auf diese Meldung legen solltest

Dieses Thema ist relevant, weil es zeigt, wie sich KI-Produkte, Modelle oder Rahmenbedingungen in der Praxis verschieben.

Achte zuerst darauf, was sich fuer Nutzer, Builder oder Unternehmen konkret veraendert und ob daraus ein nachhaltiger Trend entsteht.

Was veraendert sich praktisch?
Ist das eher Signal, Produkt oder nur kurzfristiger Hype?
Begriffe zum Einordnen

Kontext ohne Glossar-Suche

Große Sprachmodelle
Dieses Thema ist relevant, weil es zeigt, wie sich KI-Produkte, Modelle oder Rahmenbedingungen in der Praxis verschieben.
Tiefenskalierung
Dieses Thema ist relevant, weil es zeigt, wie sich KI-Produkte, Modelle oder Rahmenbedingungen in der Praxis verschieben.
Multi-Agenten
Dieses Thema ist relevant, weil es zeigt, wie sich KI-Produkte, Modelle oder Rahmenbedingungen in der Praxis verschieben.
arXiv – cs.AI
Diese Quelle setzt den Ausgangspunkt fuer die Meldung. Pruefe immer, ob sie eher Forschung, Produktmarketing oder Praxisperspektive liefert.
Naechste Schritte

Aehnliche Entwicklungen zum Weiterlesen