LoFT: Parameter-Efficient Fine-Tuning for Long-tailed Semi-Supervised Learning in Open-World Scenarios
Anzeige
Ähnliche Artikel
arXiv – cs.LG
•
Neue Theorie kombiniert Konfidenz und Varianz zur besseren Pseudo‑Label‑Auswahl
arXiv – cs.LG
•
Neuer Ansatz steigert semi-supervised kontrastives Lernen durch Entropie‑basierte Gewichtung
arXiv – cs.LG
•
Foundational Models and Federated Learning: Survey, Taxonomy, Challenges and Practical Insights
arXiv – cs.AI
•
Neuro-symbolische KI: Wege für Predictive Maintenance – Analyse & Empfehlungen
arXiv – cs.LG
•
GEPC: Gruppen-Equivarianz erkennt Ausreißer in Diffusionsmodellen
PyTorch – Blog
•
Llama 3.1-8B verbessert Denken durch Feinabstimmung auf NVIDIA DGX Spark