RETINA‑SAFE & ECRT: Bessere Risikobewertung bei medizinischen LLMs
Halluzinationen in medizinischen Großen Sprachmodellen (LLMs) stellen ein zentrales Sicherheitsproblem dar, insbesondere wenn die vorhandenen Beweise unzureichend oder widersprüchlich sind. In einer neuen Studie wird di…