Autonome KI muss Konflikte in Echtzeit lösen – neue Entscheidungsanforderungen
Autonome KI-Systeme stehen zunehmend vor Situationen, in denen keine ihrer trainierten Handlungsoptionen alle betrieblichen Vorgaben – von Betriebsanweisungen über Gesetze bis hin zu ethischen Normen – gleichzeitig erfüllt. Um dennoch die gesteckten Ziele im Einklang mit menschlichen Erwartungen zu erreichen, müssen diese Systeme über ihre vortrainierten Politiken hinausgehen und neue Handlungsalternativen konstruieren, bewerten und begründen.
Die Forschung zeigt, dass dafür ein breites Spektrum an Kontextwissen erforderlich ist, das nicht allein aus dem Training stammt. Entscheidend ist die Fähigkeit, normatives, pragmatisches und situationsspezifisches Wissen zu integrieren, um robuste und menschenorientierte Entscheidungen zu treffen.
Durch Analyse und Fallstudien wird deutlich, dass autonome Agenten in komplexen, realen Umgebungen nicht nur die unmittelbaren Ziele verfolgen, sondern auch die langfristigen Konsequenzen ihrer Handlungen berücksichtigen müssen. Nur so können sie Konflikte zwischen widersprüchlichen Vorgaben in Echtzeit lösen und dabei die Erwartungen der Nutzerinnen und Nutzer erfüllen.