<h1>HATSolver: Gröbner-Basen mit Hierarchical Attention Transformers lernen</h1> <p>Bei NeurIPS 2024 präsentierten Kera und Kollegen die Idee, Transformer-Modelle zur Berechnung von Gröbner-Basen einzusetzen – einem zentralen Werkzeug der Computer-Algebra mit weitreichenden Anwendungen. In der aktuellen Arbeit wird dieser Ansatz weiterentwickelt, indem Hierarchical Attention Transformers (HATs) eingesetzt werden, um Systeme multivariater Polynomgleichungen effizient zu lösen.</p> <p>Die HAT-Architektur nutz
Anzeige