LLM-generierte Malware wird besser, aber autonome Angriffe noch nicht bereit

The Register – Headlines Original ≈1 Min. Lesezeit
Anzeige

In einem Experiment versuchten Forscher, ChatGPT dazu zu bringen, bösartige Programme zu schreiben. Das Ergebnis war enttäuschend – die KI erzeugte zwar Code, aber dieser war weder funktional noch wirkungsvoll.

Dennoch zeigen neuere Studien, dass große Sprachmodelle zunehmend in der Lage sind, komplexere Malware zu generieren. Sie können nun gezieltere Befehle, versteckte Payloads und raffiniertere Auslöser erzeugen, was die Bedrohungslage für Unternehmen erhöht.

Allerdings fehlt den Modellen noch die Autonomie und die Fähigkeit, sich selbstständig in reale Systeme einzuschleusen. Experten betonen, dass autonome Angriffe noch Jahre entfernt sind und dass aktuelle Modelle noch nicht für den Einsatz in großem Maßstab bereit sind.

Ähnliche Artikel