Studie zeigt: Training mit „Junk‑Daten“ schwächt große Sprachmodelle
Eine aktuelle Untersuchung hat ergeben, dass Sprachmodelle, die mit kurzen, populären und oft oberflächlichen Tweets trainiert werden, bei Standard-Benchmarks deutlich schlechter abschneiden als Modelle, die auf vielfältigeren Daten basieren.