QIBONN: Quanteninspiriertes Optimierungsverfahren für Netze bei Klassifikation

arXiv – cs.LG Original ≈1 Min. Lesezeit
Anzeige

Die neueste Veröffentlichung auf arXiv (2511.08940v1) stellt QIBONN vor – einen quanteninspirierten Bilevel-Optimizer, der Hyperparameteroptimierung (HPO) für neuronale Netze auf tabellarischen Daten revolutioniert. Durch die Kombination von deterministischen, quanteninspirierten Rotationen und stochastischen Qubit‑Mutationen, die von einem globalen Attraktor geleitet werden, gelingt es QIBONN, Exploration und Exploitation effizient zu balancieren, ohne dabei die begrenzte Evaluationszeit zu überschreiten.

Im Kern nutzt QIBONN eine einheitliche qubitbasierte Repräsentation, um Feature‑Selection, architektonische Hyperparameter und Regularisierungseinstellungen gleichzeitig zu kodieren. Diese Bilevel-Struktur erlaubt es, die Suche in einem großen, nicht‑konvexen Raum systematisch zu steuern und gleichzeitig die Komplexität zu reduzieren.

Die Autoren führten umfangreiche Experimente unter realistischen Bedingungen durch: Single‑Qubit‑Bit‑Flip‑Rauschen im Bereich von 0,1 % bis 1 % wurde mithilfe eines IBM‑Q‑Backends emuliert. Auf 13 realen Datensätzen zeigte sich, dass QIBONN mit etablierten Verfahren – darunter klassische Baum‑basierte Modelle sowie klassische und quanteninspirierte HPO‑Algorithmen – unter gleichem Tuning‑Budget konkurrieren kann.

Diese Ergebnisse unterstreichen das Potenzial von quanteninspirierten Optimierungsansätzen, die sowohl die Leistungsfähigkeit moderner neuronaler Netze als auch die Anforderungen an effiziente Hyperparameter‑Suche in der Praxis adressieren.

Ähnliche Artikel