LLM-generierte Malware wird besser, aber autonome Angriffe noch nicht bereit
Anzeige
In einem Experiment versuchten Forscher, ChatGPT dazu zu bringen, bösartige Programme zu schreiben. Das Ergebnis war enttäuschend – die KI erzeugte zwar Code, aber dieser war weder funktional noch wirkungsvoll.
Dennoch zeigen neuere Studien, dass große Sprachmodelle zunehmend in der Lage sind, komplexere Malware zu generieren. Sie können nun gezieltere Befehle, versteckte Payloads und raffiniertere Auslöser erzeugen, was die Bedrohungslage für Unternehmen erhöht.
Allerdings fehlt den Modellen noch die Autonomie und die Fähigkeit, sich selbstständig in reale Systeme einzuschleusen. Experten betonen, dass autonome Angriffe noch Jahre entfernt sind und dass aktuelle Modelle noch nicht für den Einsatz in großem Maßstab bereit sind.
Ähnliche Artikel
Ars Technica – AI
•
OpenAI schließt riesiges Rechenzentrum-Deal mit Amazon
The Register – Headlines
•
OpenAI sperrt verdächtige chinesische Konten, die KI für Überwachung nutzen
MIT Technology Review – Artificial Intelligence
•
OpenAI stellt GPT‑5 vor: Schnell, klug, bereit für alle
arXiv – cs.AI
•
Mini Amusement Parks: Der neue Test für KI-Entscheidungen im Geschäftsbereich
VentureBeat – AI
•
ScaleOps senkt GPU-Kosten für selbstgehostete LLMs um 50 %
Interconnects – Nathan Lambert
•
Olmo 3: Die nächste Generation vollständig offener Sprachmodelle