UCF: Framework erhöht Erkennung von bösartigem Content auf 93 % Genauigkeit
Ein neues Framework namens Uncertainty Contrastive Framework (UCF) hat die Messlatte für die Erkennung von bösartigem Content deutlich nach oben gelegt. Durch die Kombination von Unsicherheits‑sensitivem kontrastivem Verlust, adaptiver Temperatur‑Skalierung und einem selbst‑Aufmerksamkeits‑gesteuerten LSTM‑Encoder liefert UCF robuste Repräsentationen, die besonders unter verrauschten und unausgeglichenen Bedingungen überzeugen.
UCF passt die kontrastive Gewichtung dynamisch an die Vertrauenswürdigkeit einzelner Stichproben an, stabilisiert das Training mit positiven Ankern und justiert die Temperaturparameter je nach Batch‑Variabilität. Diese Mechanismen sorgen dafür, dass das Modell sowohl seltene als auch häufige Klassen zuverlässig voneinander trennt und gleichzeitig die Unsicherheit der Vorhersagen berücksichtigt.
In praktischen Tests zur Klassifizierung von bösartigem Content erreichten die von UCF erzeugten Embeddings mit klassischen Klassifikatoren eine Genauigkeit von über 93,38 %, eine Präzision von mehr als 0,93 und nahezu perfekte Rückrufraten. Die Fehlerrate bei falschen Negativen blieb minimal, während die ROC‑AUC‑Scores mit den besten verfügbaren Methoden konkurrieren.
Die Ergebnisse zeigen, dass UCF eine skalierbare und robuste Lösung für Positive‑Unlabeled‑Learning in hochriskanten Bereichen wie Cybersicherheit und biomedizinischem Text‑Mining darstellt. Durch die klare Trennung von positiven und unlabeled Instanzen liefert das Framework kalibrierte, diskriminierende Embeddings, die die Grundlage für zuverlässige Entscheidungsprozesse bilden.