Google stellt T5Gemma 2 vor: Encoder-Decoder-Modelle mit multimodalen Eingaben
Google hat die neue Familie T5Gemma 2 veröffentlicht, die auf den vortrainierten Gewichten von Gemma 3 basiert. Durch die Umwandlung in ein Encoder‑Decoder‑Layout und ein weiteres Vortraining mit dem UL2‑Objektiv entstehen leistungsfähige Transformer‑Modelle, die sofort einsatzbereit sind.
Die bereitgestellten Checkpoints sind ausschließlich vortrainiert. Entwickler können sie für ihre spezifischen Aufgaben weiter trainieren, doch Google gibt ausdrücklich an, keine nachtrainierten oder IT‑Checkpoints zu veröffentlichen.
T5Gemma 2 unterstützt multimodale Eingaben über SigLIP und kann Kontexte von bis zu 128 000 Token verarbeiten. Diese Kombination aus Flexibilität und Skalierbarkeit macht die Modelle besonders attraktiv für komplexe Anwendungen in Forschung und Industrie.