Praxis
<p>Uni-MoE-2.0-Omni: Offenes Modell für Text, Bild, Audio und Video</p> <p>Ein Forschungsteam des Harbin Institute of Technology in Shenzhen hat Uni‑MoE‑2.0‑Omni vorgestellt – ein vollständig offenes, omnimodales Großmodell, das die Uni‑MoE‑Reihe von Lychee auf sprachzentrierte multimodale Logik vorantreibt. Das System basiert auf der Qwen2.5‑7B‑Architektur und wurde von Grund auf neu trainiert, um zuverlässig Text, Bilder, Audio und Video zu verstehen. Durch die Kombination von Sprach- und Bildverarbeitung
MarkTechPost