Zero-Shot Speech-LLMs: L2-Aussprache bewerten – Chancen & Grenzen
Die präzise Bewertung der Aussprache von Zweitsprachelern ist entscheidend für effektives Sprachtraining. Sie liefert individuelles Feedback und sorgt für faire Fortschrittskontrolle. Trotz dieser Bedeutung bleibt die automatisierte Bewertung komplex, weil sie Satz‑Fluency, Prosodie und Vollständigkeit berücksichtigen muss.
In einer aktuellen Studie wurde die Zero‑Shot‑Leistung des Sprach‑LLMs Qwen2‑Audio‑7B‑Instruct auf 5.000 Aufnahmen aus dem Speechocean762‑Korpus getestet. Das Modell erzeugt Bewertungspunkte, die mit einem Rubrik‑System für Genauigkeit, Fluency, Prosodie und Vollständigkeit übereinstimmen.
Die Ergebnisse zeigen eine starke Übereinstimmung mit menschlichen Bewertungen – innerhalb einer Toleranz von ±2 Punkten – besonders bei hochwertigen Sprachproben. Gleichzeitig tendiert das Modell dazu, bei schlechteren Aufnahmen zu überbewerten, und erkennt Fehler nicht immer präzise.
Diese Befunde unterstreichen das enorme Potenzial von Sprach‑LLMs für skalierbare Aussprache‑Bewertungen. Zukünftige Verbesserungen könnten durch gezieltes Prompt‑Design, Kalibrierung und die Integration phonetikbasierter Features erreicht werden, um die Genauigkeit und Fehlererkennung weiter zu erhöhen.