Cluster‑Planung mit LLMs: Natürliche Sprache für Soft‑Affinität
In einer neuen Studie wird gezeigt, wie große Sprachmodelle (LLMs) die Zuweisung von Arbeitslasten in Cluster‑Umgebungen vereinfachen können. Durch die Integration eines LLMs in den Kubernetes‑Scheduler als Extender können natürliche Sprach‑Hinweise zu Soft‑Affinität interpretiert werden, ohne dass komplexe Konfigurationsdateien nötig sind.
Der Prototyp nutzt einen Cluster‑Status‑Cache und einen Intent‑Analyzer, der auf AWS Bedrock läuft. Bei der Evaluierung erreichten die Top‑Modelle Amazon Nova Pro/Premier und Mistral Pixtral Large eine Parsing‑Genauigkeit von über 95 % auf einem Ground‑Truth‑Datensatz – deutlich besser als ein herkömmlicher Baseline‑Engine.
In sechs Test‑Szenarien zeigte sich, dass die LLM‑basierte Lösung die Platzierungsqualität gleich oder besser als Standard‑Kubernetes‑Konfigurationen erzielte. Besonders bei komplexen, quantitativen Anforderungen und widersprüchlichen Soft‑Preferences überzeugte das System.
Die Ergebnisse belegen die Machbarkeit semantischer Soft‑Affinität, weisen jedoch auf Einschränkungen hin: die synchronen LLM‑Antwortzeiten können die Produktionsreife beeinträchtigen. Ein asynchroner Ansatz könnte hier die Leistung verbessern.