Forschung
RETINA‑SAFE & ECRT: Bessere Risikobewertung bei medizinischen LLMs
Halluzinationen in medizinischen Großen Sprachmodellen (LLMs) stellen ein zentrales Sicherheitsproblem dar, insbesondere wenn die vorhanden…
arXiv – cs.AI