Kleine Sprachmodelle unterstützen Lehrpläne – nachhaltig und leistungsfähig
Die Nutzung generativer KI in der Bildung ist noch in den Anfängen, doch neue Forschungsergebnisse zeigen, dass kleine Sprachmodelle (SLMs) bereits eine vielversprechende Alternative zu großen Modellen darstellen. In einer Studie wurden acht SLMs – darunter LLaMA 3.1, IBM Granite 3.3 und Gemma 3 (7‑17 Milliarden Parameter) – mit dem hochentwickelten GPT‑4o verglichen, um zu prüfen, ob sie Lehrpläne zuverlässig unterstützen können.