Forschung arXiv – cs.AI

Fehlende Daten: Wie Missingness die Prognosen von LLMs beeinflusst

In der medizinischen Forschung werden Daten häufig durch menschliche Entscheidungen geprägt. Ein Beispiel ist die Verschreibung eines diagnostischen Tests, die von der Gesundheit des Patienten, seinen Präferenzen, den v…

≈1 Min. Lesezeit Originalquelle
Kernaussagen
Das nimmst du aus dem Beitrag mit
  • In der medizinischen Forschung werden Daten häufig durch menschliche Entscheidungen geprägt.
  • Ein Beispiel ist die Verschreibung eines diagnostischen Tests, die von der Gesundheit des Patienten, seinen Präferenzen, den verfügbaren Ressourcen und den Empfehlungen…
  • Obwohl die Bedeutung fehlender Werte bereits gut dokumentiert ist, wurde bislang kaum untersucht, wie sie die Leistung von Large Language Models (LLMs) beeinflusst.

In der medizinischen Forschung werden Daten häufig durch menschliche Entscheidungen geprägt. Ein Beispiel ist die Verschreibung eines diagnostischen Tests, die von der Gesundheit des Patienten, seinen Präferenzen, den verfügbaren Ressourcen und den Empfehlungen des Arztes abhängt. Obwohl die Bedeutung fehlender Werte bereits gut dokumentiert ist, wurde bislang kaum untersucht, wie sie die Leistung von Large Language Models (LLMs) beeinflusst.

Eine Reihe von Experimenten mit Datensätzen des Columbia University Medical Center und MIMIC‑IV zeigt, dass Muster von Missingness die Zero‑Shot‑Vorhersagekraft von LLMs stark verändern. Die gezielte Einbindung von Missingness‑Indikatoren in die Prompt‑Formulierung kann bei manchen Modellen die Genauigkeit und Kalibrierung verbessern, bei anderen jedoch verschlechtern. Diese Wirkung ist nicht einheitlich und hängt von der Modellgröße ab.

Größere Modelle profitieren tendenziell von solchen Interventionen, während kleinere Modelle oft negativ betroffen sind. Das LLM‑Paradigma kann die Auswirkungen fehlender Daten verschleiern, ein Problem, das bereits in klassischen Machine‑Learning‑Ansätzen besteht. Die Studie unterstreicht die Notwendigkeit einer transparenten Berücksichtigung und systematischen Bewertung von Missingness, um die Zuverlässigkeit von LLM‑Prognosen zu erhöhen.

Einordnen in 60 Sekunden

Welche Linse du auf diese Meldung legen solltest

LLMs sind Sprachmodelle, die Text verstehen, erzeugen und in Produkte eingebettet werden.

Achte zuerst auf Modellqualitaet, Kosten pro Nutzung und darauf, ob echte Produktverbesserungen oder nur Benchmarks kommuniziert werden.

Welches konkrete Problem loest das Modell besser als bisher?
Was bedeutet die Neuerung fuer Geschwindigkeit, Kosten oder Zuverlaessigkeit?
Was veraendert sich praktisch?
Begriffe zum Einordnen

Kontext ohne Glossar-Suche

LLMs
LLMs sind Sprachmodelle, die Text verstehen, erzeugen und in Produkte eingebettet werden.
Missingness
Dieses Thema ist relevant, weil es zeigt, wie sich KI-Produkte, Modelle oder Rahmenbedingungen in der Praxis verschieben.
Zero-Shot
Dieses Thema ist relevant, weil es zeigt, wie sich KI-Produkte, Modelle oder Rahmenbedingungen in der Praxis verschieben.
arXiv – cs.AI
Diese Quelle setzt den Ausgangspunkt fuer die Meldung. Pruefe immer, ob sie eher Forschung, Produktmarketing oder Praxisperspektive liefert.
Naechste Schritte

Aehnliche Entwicklungen zum Weiterlesen