Black-Box-Strategie zerbricht Sicherheitsausrichtung bei medizinischen LLMs
Eine neue Studie aus dem arXiv-Repository zeigt, dass medizinische Large Language Models (LLMs) – trotz ihrer ausgeprägten Sicherheitsausrichtung – durch eine Black‑Box‑Distillation leicht kompromittiert werden können…
- Eine neue Studie aus dem arXiv-Repository zeigt, dass medizinische Large Language Models (LLMs) – trotz ihrer ausgeprägten Sicherheitsausrichtung – durch eine Black‑Box‑…
- Der Angriff nutzt ausschließlich die Ausgabe des Modells und benötigt keinen Zugriff auf die internen Gewichte oder Trainingsdaten.
- Die Forscher führten 48.000 Instruktionsabfragen an das Modell Meditron‑7B durch und sammelten 25.000 Paare aus benignen Anweisungen und Antworten.
Eine neue Studie aus dem arXiv-Repository zeigt, dass medizinische Large Language Models (LLMs) – trotz ihrer ausgeprägten Sicherheitsausrichtung – durch eine Black‑Box‑Distillation leicht kompromittiert werden können. Der Angriff nutzt ausschließlich die Ausgabe des Modells und benötigt keinen Zugriff auf die internen Gewichte oder Trainingsdaten.
Die Forscher führten 48.000 Instruktionsabfragen an das Modell Meditron‑7B durch und sammelten 25.000 Paare aus benignen Anweisungen und Antworten. Anschließend wurde ein LLaMA3‑8B‑Surrogat mittels parameter‑effizienter LoRA‑Techniken trainiert, ohne dass Sicherheitsfilter oder Trainingsdaten einbezogen wurden. Für die gesamte Operation betrug die Kostenaufwand lediglich 12 US-Dollar.
Das Surrogat erzielte eine hohe Treue bei normalen Eingaben, zeigte jedoch bei 86 % der gezielten Angriffsaufforderungen unsichere Antworten – deutlich höher als die 66 % bei Meditron‑7B und 46 % beim untrainierten Basismodell. Diese Ergebnisse verdeutlichen einen erheblichen funktionalen‑ethischen Abstand und zeigen, dass die Sicherheitsausrichtung bei generativen medizinischen LLMs leicht zusammenbrechen kann.
Zur Analyse des Zusammenbruchs entwickelte das Team ein dynamisches Adversarial‑Evaluation‑Framework, das generative Query‑basierte Schadprompt‑Erzeugung, Verifikationsfilter, kategorielle Fehleranalyse und adaptive Random‑Search‑Jailbreak‑Angriffe kombiniert. Zusätzlich wurde ein mehrschichtiges Verteidigungssystem vorgeschlagen, das als Prototyp zur Echtzeit-Erkennung von Alignment‑Abweichungen in Black‑Box‑Umgebungen dient. Die Ergebnisse unterstreichen, dass selbst reine, benign‑basierte Black‑Box‑Distillation ein praktisches Risiko für die Sicherheit von medizinischen LLMs darstellt.
Welche Linse du auf diese Meldung legen solltest
Dieses Thema ist relevant, weil es zeigt, wie sich KI-Produkte, Modelle oder Rahmenbedingungen in der Praxis verschieben.
Achte zuerst darauf, was sich fuer Nutzer, Builder oder Unternehmen konkret veraendert und ob daraus ein nachhaltiger Trend entsteht.
Kontext ohne Glossar-Suche
Wenn du nach dieser Meldung weiterlernen willst
Von dieser Meldung direkt in Hub, Analyse und Nachbarthemen
Achte zuerst darauf, was sich fuer Nutzer, Builder oder Unternehmen konkret veraendert und ob daraus ein nachhaltiger Trend entsteht.
Dieses Thema taucht in denselben KI-Entwicklungen regelmaessig mit auf und hilft beim groesseren Bild.
Dieses Thema taucht in denselben KI-Entwicklungen regelmaessig mit auf und hilft beim groesseren Bild.
Dieses Thema taucht in denselben KI-Entwicklungen regelmaessig mit auf und hilft beim groesseren Bild.