Agentenbasierte Architektur verbessert multimodale Emotionserkennung <p>In der Mensch-Agent-Interaktion ist die präzise Erkennung menschlicher Emotionen entscheidend. Traditionelle multimodale Deep‑Learning‑Modelle, die Gesichtsausdrücke, Sprache und Text nutzen, liefern zwar hohe Genauigkeit, erfordern jedoch aufwendiges Training und sind schwer an neue Modalitäten anzupassen.</p> <p>Eine neue Lösung präsentiert ein multi‑agentenbasiertes System, bei dem jeder Modus‑Encoder sowie der Fusionsklassifikator
Anzeige