NovoMolGen: Sprachmodelle gedacht – Bestleistung bei Molekülgenerierung
Die neueste Forschung im Bereich der molekularen KI präsentiert NovoMolGen, eine Transformer‑Familie, die auf 1,5 Milliarden Molekülen vortrainiert wurde. Damit wird die enorme chemische Vielfalt, die von 10²³ bis zu 10⁶⁰ potenziell synthetisierbaren Kandidaten reicht, systematisch erschlossen.
In einer umfassenden Analyse wurden zentrale Faktoren des Sprachmodell‑Trainings untersucht: die Wahl der string‑basierten Repräsentation, die Tokenisierung, die Modellgröße und die Datenmenge. Die Ergebnisse zeigen, dass die üblichen Leistungsindikatoren während des Vortrainings nur schwach mit der tatsächlichen Generierungsqualität korrelieren – ein deutlicher Unterschied zu den Dynamiken in der klassischen NLP‑Forschung.
Durch diese Erkenntnisse erreicht NovoMolGen neue Spitzenwerte. Es übertrifft frühere Mol‑LLMs und spezialisierte Generative‑Modelle sowohl bei offenen Molekülgenerierungsaufgaben als auch bei zielgerichteten Design‑Zielen. Damit liefert es eine robuste Basis für die Entwicklung effizienterer und effektiverer Strategien in der molekularen Modellierung.
Die Ergebnisse markieren einen bedeutenden Fortschritt und eröffnen spannende Perspektiven für die zukünftige Gestaltung von Arzneimitteln, Materialien und anderen chemischen Anwendungen.