LLMs können sich selbst gefährden: Studie zeigt neues Angriffsszenario
Eine aktuelle Untersuchung aus dem arXiv-Repository hat ein bislang wenig beachtetes Risiko bei großen Sprachmodellen (LLMs) aufgedeckt: Modelle können ihre eigenen, scheinbar harmlosen Ausgaben als neue Angriffsvektoren nutzen und dadurch Sicherheitsmechanismen umgehen.