OpenAI und Anthropic testen gegenseitig Modelle – wer gewinnt?
Anzeige
OpenAI und Anthropic haben sich gegenseitig ihre neuesten KI‑Modelle testen lassen, um herauszufinden, welche Ansätze wirklich überlegen sind. Die Ergebnisse zeigen, dass reine Rechenmodelle nicht zwangsläufig überlegen sind – auch Modelle ohne ausgeprägte „Reasoning“-Fähigkeiten können in vielen Aufgabenbereichen konkurrenzfähig sein. Gleichzeitig verdeutlichen die Tests die größten Sicherheitslücken, mit denen beide Unternehmen aktuell kämpfen. OpenAI muss beispielsweise die Kontrolle über unerwartete Ausgaben verbessern, während Anthropic sich stärker mit der Vermeidung von Fehlinformationen auseinandersetzen muss. Trotz dieser Herausforderungen bleibt die Konkurrenz spannend und treibt die Weiterentwicklung von KI‑Systemen voran.
Ähnliche Artikel
The Register – Headlines
•
Microsoft integriert Claude in Microsoft 365 Copilot
arXiv – cs.AI
•
HuggingR$^4$: Fortschrittliches Framework zur effizienten Auswahl von KI-Modellen
VentureBeat – AI
•
Claude Opus 4.5 von Anthropic: günstiger, unbegrenzte Chats, bessere Programmierfähigkeiten
Simon Willison – Blog
•
Claude Opus 4.5: Anthropic setzt neue Maßstäbe für Code- und Agentenmodelle
ZDNet – Artificial Intelligence
•
Anthropic stellt Claude Opus 4.5 vor – ein neuer Meilenstein in KI
ZDNet – Artificial Intelligence
•
Anthropic warnt: KI, die zum Betrügen trainiert wird, kann hacken und sabotieren