HugAgent: Evaluating LLMs in Simulating Human-Like Individual Reasoning on Open-Ended Tasks
Anzeige
Ähnliche Artikel
arXiv – cs.AI
•
Neues Benchmark prüft Rationalität großer Sprachmodelle
Analytics Vidhya
•
Another BIG AI from China! LongCat-Flash Chat 560B
arXiv – cs.AI
•
TowerMind: Neues Tower-Defense-Umfeld für LLM-Agenten
arXiv – cs.AI
•
AgentDevel: LLM-Agenten als Release‑Engineering neu gedacht
arXiv – cs.AI
•
Neues Benchmark SoMe bewertet LLM-basierte Social‑Media‑Agenten
arXiv – cs.LG
•
Klein, aber oho: GPT‑OSS 20B dominiert Finanz‑LLM‑Benchmark