AI‑Supply‑Chain: Schlüssel zur Vertrauenswürdigkeit kritischer Anwendungen
Die Nutzung von Künstlicher Intelligenz birgt Risiken, die von algorithmischem Bias bis zu unerwarteten Modellhalluzinationen reichen. Trotz intensiver Forschung fehlt jedoch ein systematischer Ansatz, um die Lieferkettenrisiken zu bewerten, die aus dem komplexen Zusammenspiel von Datenquellen, vortrainierten Modellen, Agenten und Services entstehen.
In der vorliegenden Arbeit wird der aktuelle Stand der KI‑Risikobewertung zusammengefasst, wobei besonderes Augenmerk auf die Lieferkette der KI und deren Einfluss auf Verhalten und Ergebnisse gelegt wird. Der Fokus liegt dabei auf kritischen Anwendungsbereichen wie Lebensmittelversorgung, Gesundheitswesen, Versorgungsunternehmen, Recht, Versicherungen und Transport.
Ein zentrales Ergebnis ist die Einführung einer neuen Taxonomie, die KI‑Lieferketten‑Einheiten systematisch klassifiziert. Diese Klassifikation ermöglicht es Entscheidungsträgern – auch ohne tiefgehende KI‑Expertise – gezielte Fragen zu stellen und Abhängigkeiten innerhalb ihrer Organisation transparent zu erfassen.
Die Arbeit schließt die Lücke zwischen dem aktuellen Stand der KI‑Governance und dem dringenden Bedarf an handlungsorientierten Risikobewertungen für kritische Anwendungen. Sie liefert damit ein praktisches Werkzeug, um Vertrauen in KI‑Systeme zu stärken und Risiken frühzeitig zu erkennen.