GLOT: Token‑Graphen verbessern Satzrepräsentationen effizient
Ein neues Verfahren namens GLOT nutzt Token‑Graphen, um aus den Ausgaben eines eingefrorenen großen Sprachmodells (LLM) präzise Satzvektoren zu erzeugen. Statt die Tokens einfach zu mitteln oder zu max‑poolen, baut GLOT…