Unveiling the Merits and Defects of LLMs in Automatic Review Generation for Scientific Papers
Anzeige
Ähnliche Artikel
arXiv – cs.AI
•
RIMO: Neues Olympiad-Benchmark für fortgeschrittenes mathematisches Denken
arXiv – cs.LG
•
RAG‑FLARKO: Mehrstufige KG‑Abfrage verbessert Finanzempfehlungen
arXiv – cs.AI
•
LLM-gestützte Formalisierung erkennt Gesetzeskonflikte im US-Steuerrecht zuverlässig
arXiv – cs.AI
•
CLINB: Klimabenchmark für Sprachmodelle enthüllt Wissens- und Evidenzlücken
arXiv – cs.AI
•
Experience‑basierte Anpassung von Inferenzzeit‑Strategien
arXiv – cs.AI
•
STaR: LLMs mit langsamer Denkweise verbessern Tabellenanalyse