LLM-gestützte Heuristik-Entwicklung für A* verbessert Suchleistung
Ein neues Verfahren nutzt große Sprachmodelle (LLMs), um Heuristiken für den A*-Suchalgorithmus automatisch zu entwerfen. Traditionell werden solche Leitfunktionen von Experten manuell erstellt, was viel Fachwissen erfo…
- Ein neues Verfahren nutzt große Sprachmodelle (LLMs), um Heuristiken für den A*-Suchalgorithmus automatisch zu entwerfen.
- Traditionell werden solche Leitfunktionen von Experten manuell erstellt, was viel Fachwissen erfordert.
- Durch die Kombination von LLMs mit evolutionären Optimierungsframeworks lässt sich dieser Prozess nun automatisieren.
Ein neues Verfahren nutzt große Sprachmodelle (LLMs), um Heuristiken für den A*-Suchalgorithmus automatisch zu entwerfen. Traditionell werden solche Leitfunktionen von Experten manuell erstellt, was viel Fachwissen erfordert. Durch die Kombination von LLMs mit evolutionären Optimierungsframeworks lässt sich dieser Prozess nun automatisieren.
Das vorgestellte Konzept, Algorithmic‑Contextual Evolution of Heuristics (A‑CEoH), erweitert das bestehende Evolution of Heuristics (EoH)-Framework. Dabei wird der A*-Code selbst in den Prompt eingebunden, sodass das Sprachmodell kontextbezogen lernen kann. Diese domänenunabhängige Prompt‑Augmentation ermöglicht es, gezielt Heuristiken zu generieren, die für unterschiedliche Suchaufgaben geeignet sind.
In umfangreichen Experimenten wurden zwei Problembereiche untersucht: das Unit‑Load Pre‑Marshalling Problem (UPMP) aus der Lagerlogistik und das klassische Schiebepuzzle (SPP). Die Ergebnisse zeigen, dass A‑CEoH die Qualität der erzeugten Heuristiken deutlich steigert und sogar bei beiden Aufgaben die von Experten entworfenen Leitfunktionen übertrifft.
Die Studie demonstriert damit, dass LLM‑basierte Prompt‑Augmentation ein vielversprechender Ansatz ist, um die Effizienz von Suchalgorithmen zu erhöhen und gleichzeitig den Aufwand für die manuelle Heuristik‑Entwicklung zu reduzieren.
Welche Linse du auf diese Meldung legen solltest
LLMs sind Sprachmodelle, die Text verstehen, erzeugen und in Produkte eingebettet werden.
Achte zuerst auf Modellqualitaet, Kosten pro Nutzung und darauf, ob echte Produktverbesserungen oder nur Benchmarks kommuniziert werden.
Kontext ohne Glossar-Suche
Wenn du nach dieser Meldung weiterlernen willst
Von dieser Meldung direkt in Hub, Analyse und Nachbarthemen
Achte zuerst auf Modellqualitaet, Kosten pro Nutzung und darauf, ob echte Produktverbesserungen oder nur Benchmarks kommuniziert werden.
Dieses Thema taucht in denselben KI-Entwicklungen regelmaessig mit auf und hilft beim groesseren Bild.
Dieses Thema taucht in denselben KI-Entwicklungen regelmaessig mit auf und hilft beim groesseren Bild.
Dieses Thema taucht in denselben KI-Entwicklungen regelmaessig mit auf und hilft beim groesseren Bild.