Mistral liefert ultra-schnelles Übersetzungsmodell – Konkurrenz für große AI-Labs Mistral hat ein neues Übersetzungsmodell vorgestellt, das laut eigenen Angaben die Geschwindigkeit von bestehenden Systemen deutlich übertrifft. Das französische Startup verfolgt dabei einen anderen Ansatz als die großen US‑AI‑Unternehmen und setzt auf Effizienz statt auf reine Rechenleistung. Wired – AI (Latest) 04.02.2026 15:32
LLM-Fine‑Tuning: Phishing‑Erkennung zeigt Architekturabhängige Generalisierung In einer neuen Studie wurden die neuesten Sprachmodelle – Llama 3.1 8B, Gemma 2 9B und Mistral – auf die anspruchsvolle Aufgabe der Phishing‑Erkennung feinabgestimmt. Ziel war es, die Gründe zu verstehen, warum feinabgestimmte Modelle oft an ihrer Generalisierungsfähigkeit verlieren. arXiv – cs.AI 16.01.2026 05:00
Mistral setzt auf „Vibe Coding“ mit neuem autonomen Software-Agenten Mistral hat mit seinem neuesten autonomen Software-Engineering-Agenten einen großen Schritt nach vorn gemacht. Der Agent nutzt die neueste „Vibe Coding“-Technologie, die es Entwicklern ermöglicht, Code schneller und effizienter zu generieren, indem er kontextbezogene Vorschläge liefert und gleichzeitig die Qualität des Endprodukts verbessert. Ars Technica – AI 10.12.2025 20:38
Mistral stellt Devstral 2 vor: Open‑Source‑Coding‑Modell für Laptop Nach einem turbulenten Jahr, in dem die französische KI‑Firma Mistral öffentlich hinterfragt wurde, präsentiert das Unternehmen im Dezember 2025 neue, für Entwickler attraktive Modelle. Kurz nach der Einführung der Open‑Source‑Familie Mistral 3 für Edge‑Geräte und lokale Hardware, kommt Devstral 2 auf den Markt. VentureBeat – AI 09.12.2025 19:44
Mistral 3: Kleinere Modelle schlagen Größere – Warum? Mistral hat mit der Veröffentlichung von Mistral 3 ein neues Kapitel in der KI-Forschung aufgeschlagen. Das Unternehmen verfolgt das Ziel, „distributed intelligence“ zu schaffen, indem es kleinere Modelle nutzt, die in bestimmten Aufgaben sogar größere Modelle übertreffen. ZDNet – Artificial Intelligence 02.12.2025 15:00
Neuer Jailbreak-Ansatz NINJA nutzt lange, harmlose Kontexte, um LMs zu umgehen In einer kürzlich veröffentlichten Studie auf arXiv wird ein innovativer Jailbreak-Ansatz namens NINJA vorgestellt, der die Sicherheit moderner Sprachmodelle (LMs) in Frage stellt. Durch das Anhängen von scheinbar harmlosen, vom Modell selbst generierten Texten an die Eingabe werden gefährliche Nutzerziele geschickt in den Kontext eingebettet. arXiv – cs.AI 10.11.2025 05:00
LLM-gestützte Radiologie-Reports: Von grob zu fein – Arbeitslast senken Die manuelle Erstellung des „Impression“-Abschnitts in Radiologieberichten ist ein wesentlicher Faktor für die Belastung von Radiologen. Um diesem Problem entgegenzuwirken, wurde ein neues, schrittweises Verfahren entwickelt, das Open‑Source‑Large‑Language‑Models (LLMs) nutzt, um Impressionen automatisch zu generieren und individuell anzupassen. arXiv – cs.AI 25.08.2025 05:00