Neues KI-System erkennt chirurgische Gesten und prognostiziert Ergebnisse
Ein neues End-to-End-KI-Modell namens Frame-to-Outcome (F2O) kann Videos von Operationen in einzelne chirurgische Gesten zerlegen und gleichzeitig die postoperative Patientenergebnisse vorhersagen. Durch die Kombination von transformerbasierten räumlichen und zeitlichen Modellen mit frame‑weisen Klassifikationen erkennt F2O kurze, etwa zwei Sekunden lange Gesten im Nerven‑Schutzschritt einer robotergestützten radikalen Prostatektomie mit einer Genauigkeit von 0,80 auf Frame‑Ebene und 0,81 auf Video‑Ebene.
Die aus den Gesten extrahierten Merkmale – Frequenz, Dauer und Übergänge – ermöglichen eine Vorhersage der postoperativen Ergebnisse mit einer Genauigkeit von 0,79, die der menschlichen Annotationsgenauigkeit von 0,75 entspricht. Die 25 gemeinsamen Merkmale zeigen eine starke Korrelation (r = 0,96, p < 1 × 10⁻¹⁴) und identifizieren Muster, die mit der Erholung der erektilen Funktion zusammenhängen, wie verlängertes Gewebeschälen und geringeren Energieverbrauch.
F2O liefert damit eine automatisierte, interpretierbare Bewertung, die als Grundlage für datenbasierte chirurgische Feedback‑Systeme und zukünftige klinische Entscheidungsunterstützung dienen kann. Das System eröffnet neue Möglichkeiten, intraoperative Verhaltensmuster systematisch zu analysieren und die Patientenergebnisse gezielt zu verbessern.