CrossPT: Mehrere Aufgaben mit Prompt‑Tuning effizient übertragen
Ein neues Verfahren namens CrossPT eröffnet die Möglichkeit, große Sprachmodelle gezielt für mehrere Aufgaben gleichzeitig zu optimieren. Dabei wird das klassische Prompt‑Tuning um ein moduläres System erweitert, das Wissen zwischen verwandten Aufgaben teilen kann, ohne die spezifische Leistung einzelner Aufgaben zu beeinträchtigen.