Rechenmodelle bestehen CFA-Prüfungen mit Brillanz

arXiv – cs.AI Original ≈1 Min. Lesezeit
Anzeige

Frühere Studien zeigten, dass große Sprachmodelle (LLMs) bei den Chartered Financial Analyst (CFA)-Prüfungen schwächeln. Doch neue Rechenmodelle, die speziell für logisches Denken entwickelt wurden, haben in einer aktuellen Untersuchung beeindruckende Ergebnisse erzielt.

Die Forscher testeten die neuesten Modelle an einer umfangreichen Testreihe von 980 Fragen, die die drei Level der CFA-Prüfung abdecken. Unter den getesteten Systemen schafften die meisten Modelle die Passgrenze für alle drei Level – ein Meilenstein, der die Leistungsfähigkeit moderner KI im Finanzbereich unterstreicht.

Die Spitzenreiter laut Gesamtleistung sind Gemini 3.0 Pro, Gemini 2.5 Pro, GPT‑5, Grok 4, Claude Opus 4.1 und DeepSeek‑V3.1. Gemini 3.0 Pro erzielte mit 97,6 % die höchste Punktzahl im Level‑I-Test. Im Level‑II dominierte GPT‑5 mit 94,3 %. Für Level‑III erreichte Gemini 2.5 Pro mit 86,4 % die beste Note bei Multiple‑Choice-Fragen, während Gemini 3.0 Pro mit 92,0 % bei konstruierten Antwortfragen bestach.

Diese Ergebnisse zeigen, dass spezialisierte Rechenmodelle nicht nur akademische Prüfungen, sondern auch anspruchsvolle professionelle Zertifizierungen meistern können – ein bedeutender Fortschritt für die Anwendung von KI im Finanzsektor.

Ähnliche Artikel