kNN-ICL mit LLMs: Präzise Startup-Erfolgsvorhersage trotz Datenknappheit

arXiv – cs.LG Original ≈1 Min. Lesezeit
Anzeige

Venture-Capital-Firmen stehen vor der Herausforderung, den Erfolg von Early‑Stage-Startups vorherzusagen, wenn nur wenige Datenpunkte vorliegen. Traditionelle Machine‑Learning‑Modelle benötigen große, gelabelte Datensätze, die in der Praxis selten verfügbar sind. Ein neues Verfahren namens kNN‑ICL nutzt große Sprachmodelle (LLMs) in einer In‑Context‑Learning‑Strategie, die keine eigene Modell‑Trainingsphase erfordert. Stattdessen werden anhand von Ähnlichkeitsmaßen die relevantesten vergangenen Startups als Demonstrationsbeispiele ausgewählt.

Durch die Analyse von realen Crunchbase‑Profilen konnte gezeigt werden, dass kNN‑ICL die Vorhersagegenauigkeit gegenüber klassischen überwachten Modellen und herkömmlichem In‑Context‑Learning deutlich steigert. Interessanterweise erreicht das System bereits bei nur 50 Beispielen eine hohe Balanced Accuracy, was es besonders attraktiv für VC‑Firmen macht, die in datenarmen Umgebungen arbeiten.

Die Ergebnisse unterstreichen das Potenzial von In‑Context‑Learning als Entscheidungshilfe für Investoren, die schnelle und zuverlässige Einschätzungen von Startup‑Potenzialen benötigen, ohne auf umfangreiche Trainingsdaten angewiesen zu sein.

Ähnliche Artikel