Generische Aussagen: Missverständnisse zwischen Laien, Forschern und KI
In der Wissenschaftskommunikation greifen Forscher häufig auf generische Formulierungen zurück, also auf unquantifizierte Aussagen über ganze Kategorien, etwa „Statine senken kardiovaskuläre Ereignisse“. Auch große Sprachmodelle wie ChatGPT übernehmen diesen Stil, wenn sie wissenschaftliche Texte zusammenfassen. Doch generische Formulierungen bergen die Gefahr, dass Ergebnisse zu stark verallgemeinert werden, besonders wenn unterschiedliche Zielgruppen sie unterschiedlich interpretieren.
Eine aktuelle Studie vergleicht die Wahrnehmung von generischen Aussagen bei Laien, Wissenschaftlern und zwei führenden LLMs – ChatGPT‑5 und DeepSeek. Die Ergebnisse zeigen, dass Laien generische Aussagen als stärker verallgemeinerbar und glaubwürdiger einschätzen als die meisten Forscher. Die beiden Sprachmodelle bewerten sie sogar noch höher. Diese systematischen Unterschiede verdeutlichen, wie leicht Missverständnisse entstehen können.
Die Studie warnt vor ernsthaften Risiken in der Wissenschaftskommunikation: Forscher könnten fälschlicherweise annehmen, dass Laien ihre Interpretation teilen, während KI‑Modelle wissenschaftliche Erkenntnisse übertrieben verallgemeinern. Um solche Fehler zu vermeiden, betont die Untersuchung die Notwendigkeit, bei der Formulierung von Forschungsergebnissen sowohl bei menschlichen als auch bei KI‑gestützten Kommunikationswegen sorgfältiger mit Sprache umzugehen.