Transformers revolutionieren Vorhersage von Protein-Secondary-Strukturen
Anzeige
Ein neues arXiv‑Veröffentlichung zeigt, wie Transformer‑Modelle Protein‑Sekundärstrukturen – Alpha‑Helices, Beta‑Sheets und Coils – aus Aminosäuresequenzen vorhersagen können. Durch den Einsatz von Aufmerksamkeitsmechanismen gelingt es dem Modell, sowohl lokale als auch entfernte Wechselwirkungen zwischen Residuen zu erfassen. Zusätzlich wird eine Sliding‑Window‑Datenaugmentation auf dem CB513‑Datensatz angewandt, um die Trainingsmenge zu erweitern. Die Ergebnisse demonstrieren eine starke Generalisierungsfähigkeit über Sequenzen unterschiedlicher Länge hinweg und markieren einen bedeutenden Fortschritt in der strukturellen Biologie.
Ähnliche Artikel
arXiv – cs.LG
•
Neuer Transformer löst Wärmeleitungsprobleme an Chip-Substrat-Grenzen
arXiv – cs.LG
•
TrailGate: Transformer‑BiGRU‑Framework revolutioniert Intrusion Detection
arXiv – cs.LG
•
Transformer mit Laplace‑Diffusion verbessert Herzfrequenzvorhersage bei Wearables
arXiv – cs.AI
•
HAROOD: Benchmark für Out-of-Distribution-Generalisierung in sensorbasiertem HAR
arXiv – cs.LG
•
DB2-TransF: Lernbare Daubechies-Wellen für effiziente Zeitreihenprognosen
arXiv – cs.LG
•
Neues GPG-Theorem: Optimierung von Transformer-Politiken für LLMs