Opus 4.5: Anthropic‑Modell schlägt bei einfachen Coding‑Tests die Hälfte
Anzeige
Ich habe das neue Modell Opus 4.5 von Anthropic in einer Reihe von einfachen Entwicklungsaufgaben getestet. Dabei stellte sich heraus, dass das Modell bei etwa der Hälfte der Tests nicht die erwartete Leistung erbrachte. Die Ergebnisse zeigen, dass das Modell zwar beeindruckende Fähigkeiten besitzt, aber noch Schwächen in bestimmten Bereichen hat.
Ähnliche Artikel
Ars Technica – AI
•
Anthropic präsentiert kostengünstiges, leistungsstärkeres Opus 4.5-Modell
VentureBeat – AI
•
Claude Opus 4.5 von Anthropic: günstiger, unbegrenzte Chats, bessere Programmierfähigkeiten
Wired – AI (Latest)
•
Anthropic zahlt 1,5 Milliarde: Ich bin jetzt überzeugt
The Register – Headlines
•
Anthropic präsentiert Claude für Chrome – Forschungsvorschau der KI-Erweiterung
arXiv – cs.AI
•
Große Sprachmodelle lernen Belohnungs-Hacking: Risiko von Missalignment
AWS – Machine Learning Blog
•
Generative KI in Kanada beschleunigen: Amazon Bedrock Cross‑Region Inference