Quantum‑inspirierte Algorithmen schlagen RandomForest bei unausgeglichenen Daten
In einer neuen Studie aus dem arXiv‑Repository wird gezeigt, dass quantum‑inspirierte Klassifikatoren klassische Random‑Forest‑Modelle bei unausgeglichenen Datensätzen deutlich übertreffen. Durch die Kombination von Quantum SMOTE (QSMOTE) für die künstliche Datenaugmentation und der Pretty Good Measurement (PGM) aus der Quanteninformationstheorie entstehen robuste Modelle, die sowohl hohe Genauigkeit als auch ausgewogene F1‑Scores liefern.
Die Autoren vergleichen zwei Varianten: die direkte PGM‑Basierten Klassifikatoren und die kernelisierte Version (KPGM). Beide Ansätze nutzen die effiziente Ähnlichkeitsberechnung des Kernel Tricks und profitieren von mehreren „quantum copies“, die die Klassifikationsleistung steigern. Besonders hervorzuheben ist die PGM‑Variante mit Stereo‑Encoding und zwei Kopien, die eine Genauigkeit von 0,8512 und einen F1‑Score von 0,8234 erreicht.
Die KPGM‑Modelle zeigen ebenfalls beeindruckende Ergebnisse, wobei sie über verschiedene QSMOTE‑Varianten hinweg stabile Leistungen erbringen. Die besten Scores liegen bei 0,8511 (Stereo‑Encoding) und 0,8483 (Amplitude‑Encoding). Diese Ergebnisse unterstreichen, dass quantum‑inspirierte Klassifikatoren nicht nur die Recall‑Rate erhöhen, sondern auch die Balance zwischen Präzision und Sensitivität verbessern.
Zusammenfassend demonstriert die Arbeit, dass die Integration von Quantenprinzipien in klassische Machine‑Learning‑Algorithmen reale Vorteile bietet. Während PGM von spezifischen Encodings profitiert, sorgt KPGM für Robustheit gegenüber unterschiedlichen Sampling‑Strategien – ein vielversprechender Ansatz für zukünftige Anwendungen in der Datenanalyse.