Neue Studie deckt Schwächen von LLMs bei Halluzinationen auf
Eine kürzlich veröffentlichte Arbeit auf arXiv präsentiert ein neues Prüfverfahren, das die Faktenkonsistenz großer Sprachmodelle (LLMs) unter Einsatz von gezielten „adversarial nudges“ systematisch testet. Das Verfahre…