Aktuell
General Shanahan warnt: LLMs dürfen keine tödlichen autonomen Waffen sein Der pensionierte General der US-Luftwaffe Jack Shanahan hat in einer Pressemitteilung seine Besorgnis über die potenzielle Nutzung von großen Sprachmodellen (LLMs) in vollständig autonomen, tödlichen Waffensystemen zum Ausdruck gebracht. Er betonte, dass LLMs in ihrer aktuellen Form nicht für solche Anwendungen geeignet seien und dass die Idee, sie in ein solches System zu integrieren, schlicht absurd sei. Shanahan kommentierte di
Gary Marcus – Marcus on AI