Qualitätsbewusste Tokenisierung eröffnet noisy Daten für Basismodelle
In einer neuen Studie wird die Methode QA‑Token vorgestellt, die die Signalqualität von Daten direkt in die Vokabularbildung einbezieht. Dadurch können Sequenzen aus verrauschten, realen Korpora effektiver verarbeitet werden.
Die Autoren kombinieren drei zentrale Ansätze: Erstens ein zweistufiges Optimierungsmodell, das Vokabular und Modellleistung gleichzeitig anpasst. Zweitens ein Reinforcement‑Learning‑Algorithmus, der Merge‑Strategien anhand qualitätsbewusster Belohnungen lernt und dabei Konvergenzgarantien bietet. Drittens ein adaptiver Parameterlernmechanismus, der Gumbel‑Softmax‑Relaxation nutzt, um die gesamte Pipeline end‑to‑end zu optimieren.
Die Ergebnisse sind beeindruckend: In der Genomik erzielt QA‑Token einen F1‑Gewinn von 6,7 Punkte bei der Variantenbestimmung gegenüber herkömmlichem BPE. Im Finanzbereich verbessert sich der Sharpe‑Ratio um 30 %. Auf Basismodell‑Skala tokenisiert die Methode ein 1,7‑Trillionen‑Base‑Pair‑Korpus und erreicht damit einen MCC von 94,53 bei der Erkennung von Pathogenen, während die Tokenanzahl um 15 % reduziert wird.
Damit wird ein breites Spektrum an noisy, realen Daten – von petabasierten Genomsequenzen bis zu terabyte‑großen Finanzzeitreihen – für das Training von Foundation‑Modellen zugänglich, ohne dass zusätzliche Kosten bei der Inferenz entstehen.