Altman widerspricht militärischer KI‑Nutzung – unterschreibt dennoch Pentagon‑Vertrag
Sam Altman, CEO von OpenAI, hat in der vergangenen Woche öffentlich erklärt, dass er klare Grenzen für den Einsatz von KI im Militär ziehen werde – ähnlich wie das Unternehmen Anthropic. Die Botschaft war eindeutig: KI‑Technologien dürfen nicht für militärische Zwecke missbraucht werden, die ethischen Standards von OpenAI sollen gewahrt bleiben.
Nur wenige Stunden später wurde jedoch ein Vertrag mit dem Verteidigungsministerium unterzeichnet, der ein Budget von rund 200 Millionen US-Dollar vorsieht. Im Gegensatz zu Altmans angekündigten Prinzipien enthält das Abkommen keine der von ihm geforderten Schutzmaßnahmen, die eine verantwortungsvolle Nutzung von KI sicherstellen sollen.
Die schnelle Wendung wirft Fragen auf: Wie lässt sich die öffentliche Haltung eines Unternehmens mit seinen geschäftlichen Entscheidungen in Einklang bringen? Die Diskrepanz zwischen Altmans öffentlichen Aussagen und dem Vertragsabschluss könnte das Vertrauen in OpenAI und die Glaubwürdigkeit seiner ethischen Leitlinien beeinträchtigen.
Für die Zukunft bleibt abzuwarten, ob OpenAI seine Positionen anpassen wird oder ob weitere Vereinbarungen mit staatlichen Stellen die zuvor geäußerten Bedenken untergraben. Die Debatte um militärische KI bleibt damit intensiver denn je.