MolFM-Lite: Mehrdimensionales Molekülmodell steigert Vorhersagegenauigkeit um 11 %
Ein neues Modell namens MolFM-Lite kombiniert drei unterschiedliche Darstellungen von Molekülen – die 1‑D‑Sequenz in SELFIES, die 2‑D‑Graphstruktur und eine Ensemble‑Ansammlung von 3‑D‑Konformern – und nutzt dafür ein C…
- Ein neues Modell namens MolFM-Lite kombiniert drei unterschiedliche Darstellungen von Molekülen – die 1‑D‑Sequenz in SELFIES, die 2‑D‑Graphstruktur und eine Ensemble‑Ans…
- Durch die gleichzeitige Berücksichtigung aller drei Modalitäten kann das Modell Informationen aus jeder Quelle nutzen und so die Vorhersagegenauigkeit von molekularen Ei…
- Die Kerninnovation liegt in einem Conformer‑Ensemble‑Attention‑Mechanismus, der lernbare Aufmerksamkeitsgewichte mit Boltzmann‑gewichteten Prioritäten über mehrere RDKit…
Ein neues Modell namens MolFM-Lite kombiniert drei unterschiedliche Darstellungen von Molekülen – die 1‑D‑Sequenz in SELFIES, die 2‑D‑Graphstruktur und eine Ensemble‑Ansammlung von 3‑D‑Konformern – und nutzt dafür ein Cross‑Attention‑Fusion-System. Durch die gleichzeitige Berücksichtigung aller drei Modalitäten kann das Modell Informationen aus jeder Quelle nutzen und so die Vorhersagegenauigkeit von molekularen Eigenschaften deutlich erhöhen.
Die Kerninnovation liegt in einem Conformer‑Ensemble‑Attention‑Mechanismus, der lernbare Aufmerksamkeitsgewichte mit Boltzmann‑gewichteten Prioritäten über mehrere RDKit‑generierte Konformer kombiniert. Dadurch wird die thermodynamische Verteilung der Molekülformen erfasst. Zusätzlich wird ein Cross‑Modal‑Fusion‑Layer eingesetzt, in dem jede Modalität auf die anderen achten kann, was einen ergänzenden Informationsaustausch ermöglicht. Für die Kontextabhängigkeit der Vorhersagen wird Feature‑wise Linear Modulation (FiLM) verwendet, das experimentelle Bedingungen in die Modellvorhersagen einfließen lässt.
Auf vier MoleculeNet‑Benchmarks mit Scaffold‑Split wurden die Ergebnisse unter identischen Bedingungen neu bewertet. Die Ablationsstudien zeigen, dass jede einzelne Komponente – die Conformer‑Attention, die Cross‑Modal‑Fusion und die FiLM‑Modulation – unabhängig voneinander zur Leistungssteigerung beiträgt. Die dreimodale Fusion führt zu einer Verbesserung der AUC um 7–11 % gegenüber Ein‑Modality‑Baselines, während die Verwendung von Konformer‑Ensembles zusätzlich etwa 2 % mehr bringt.
Das Modell wurde auf ZINC250K (~250 000 Molekülen) mit cross‑modalem kontrastivem und maskiertem Atom‑Training vortrainiert, was eine effektive Gewichtseinstufung bei moderatem Rechenaufwand ermöglicht. Alle Code‑Dateien, trainierten Modelle und Datensplits werden veröffentlicht, um die Reproduzierbarkeit zu gewährleisten.
Welche Linse du auf diese Meldung legen solltest
Dieses Thema ist relevant, weil es zeigt, wie sich KI-Produkte, Modelle oder Rahmenbedingungen in der Praxis verschieben.
Achte zuerst darauf, was sich fuer Nutzer, Builder oder Unternehmen konkret veraendert und ob daraus ein nachhaltiger Trend entsteht.