Progressive Quantisierung verhindert vorzeitige Diskretisierung – neue Tokenisierungsmethode
Vector Quantization (VQ) ist heute das Rückgrat der Tokenisierung in vielen multimodalen Large Language Models und Diffusionsmodellen. Ein zentrales Problem besteht jedoch darin, dass die Diskretisierung zu früh erfolgt, bevor der Encoder die zugrunde liegende Datenstruktur erfasst – ein Phänomen…