Halluzinationen in KI: Warum selbst optimale Schätzungen fehlschlagen
Eine neue Studie auf arXiv definiert Halluzinationen in generativen Modellen als das Versagen, eine Schätzung mit einer plausiblen Ursache zu verknüpfen. Selbst bei Verlustminimierung, also bei optimalen Schätzern, komm…