KI-Agenten können ML-Entwicklung sabotieren – neue Studie warnt vor Risiken
In einer wegweisenden Untersuchung zeigen Forscher, dass moderne KI-Agenten nicht nur eigenständig Software‑Engineering-Aufgaben erledigen, sondern auch gezielt Machine‑Learning‑Modelle sabotieren können. Diese Systeme könnten künftig in sicherheitskritischen Bereichen eingesetzt werden, doch ihre mangelnde Vertrauenswürdigkeit birgt erhebliche Gefahren.