<h1>GPT‑5.3 Codex: Mehr als Code – Schnell, planend und lösungsorientiert</h1> <p>OpenAI hat mit GPT‑5.3 Codex einen Meilenstein in der KI‑gestützten Programmierung gesetzt. Das neue Modell geht weit über das reine Schreiben von Code hinaus und ist darauf ausgelegt, echte End‑to‑End‑Aufgaben zu bewältigen. Durch die Kombination aus starkem Codierungs‑Know‑How, Planung, logischem Denken und Ausführung kann GPT‑5.3 komplexe Projekte in einem einzigen Durchlauf bearbeiten.</p> <p>Ein entscheidender Vorteil ist

Analytics Vidhya Original
Anzeige

Ähnliche Artikel

arXiv – cs.LG
<h1>Sketch-and-Walk: Sparsere Attention für schnellere LLM‑Inferenz</h1> <p>Die Selbstaufmerksamkeit ist der Hauptfaktor, der die Rechen- und Speicher­kosten bei der Inferenz von großen Sprachmodellen (LLMs) mit langen Kontexten bestimmt. Sowohl die Vor‑ als auch die Decodierungsphase sind dadurch stark belastet.</p> <p>Um dieses Problem zu lösen, wurde Sketch&Walk Attention entwickelt – ein sparsames Aufmerksamkeitsverfahren, das ohne Training auskommt. Es nutzt Hadamard‑Sketching, um kostengünstige Schätz
arXiv – cs.LG
<p>Agentische Systeme: Zufälligkeit macht Pass@1‑Ergebnisse unzuverlässig</p> <p>Eine neue Studie auf arXiv (2602.07150v1) untersucht die Stabilität von Pass@1‑Messungen bei agentischen KI‑Systemen. Dabei wurden 60.000 Trajektorien auf dem Benchmark SWE‑Bench‑Verified gesammelt, der drei unterschiedlichen Modellen und zwei verschiedenen Scaffolds entspricht.</p> <p>Die Ergebnisse zeigen, dass die Pass@1‑Werte, die üblicherweise aus einem einzigen Durchlauf berechnet werden, stark variieren. Abhängig von der
arXiv – cs.AI
<p>LLM trifft Fuzzy‑TOPSIS: Automatisierte Personalauswahl mit NLP‑Analyse</p> <p>In einem zunehmend wettbewerbsintensiven Arbeitsmarkt ist die Auswahl geeigneter Fachkräfte entscheidend für den Unternehmenserfolg. Eine neue Studie präsentiert ein automatisiertes Personalauswahlverfahren, das fortschrittliche Natural‑Language‑Processing‑Methoden nutzt, um Software‑Engineering‑Bewerber zu bewerten und zu ranken.</p> <p>Für die Analyse wurde ein einzigartiges Datenset erstellt, das LinkedIn‑Profile mit Inform
arXiv – cs.LG
<p>Rectified Flows: Rekordhafte Stichprobenkomplexität bei generativen Modellen</p> <p>Flow-basierte Generative Modelle haben in letzter Zeit die Diffusionsmodelle in puncto Effizienz übertroffen. In der aktuellen Studie werden sogenannte Rectified Flow Modelle untersucht, die die Transporttrajektorien von der Basisverteilung zur Datenverteilung strikt linear beschränken. Diese strukturelle Einschränkung beschleunigt das Sampling enorm und ermöglicht häufig eine hochwertige Bildgenerierung bereits mit einem
arXiv – cs.AI
<p>LLMs schwächeln bei nicht-sequentiellen Anweisungen – RIFT-Test enthüllt Grenzen</p> <p>Ein neues Benchmark-Tool namens RIFT (Reordered Instruction Following Testbed) hat die Schwächen von Large Language Models (LLMs) im Umgang mit komplexen, nicht-linearen Arbeitsabläufen aufgedeckt. Während LLMs zunehmend für anspruchsvolle Aufgaben eingesetzt werden, blieb bislang unklar, wie gut sie Anweisungen in unterschiedlichen Strukturen verarbeiten können.</p> <p>RIFT löst dieses Problem, indem es die Struktur
arXiv – cs.AI
<p>LLM-Agenten mit Transaktionsanalyse: Mehr Tiefe durch Kontext und Ego-Modelle</p> <p>In der heutigen KI-Landschaft werden große Sprachmodelle (LLM) bereits in Bereichen wie Kundenservice, Bildung und sogar in sozial-psychologischen Studien eingesetzt. Der Wunsch, diese Agenten menschenähnlicher agieren zu lassen, wächst stetig. Dabei stoßen die aktuellen Systeme jedoch an ihre Grenzen: Sie liefern meist statistisch wahrscheinliche Antworten, ohne die tieferen Ziele, emotionalen Konflikte und Motivationen