Talk2Data: Multimodaler Chatbot für die Analyse tabellarischer Daten
Ein neuer, multimodaler Chatbot namens Talk2Data nutzt große Sprachmodelle (LLMs), um die Analyse von Tabellen in einer interaktiven, kontextsensiblen Unterhaltung zu ermöglichen. Nutzer können Daten per Sprache oder Text abfragen und erhalten Antworten in Form von Diagrammen, Tabellen, Statistiken oder gesprochenen Erklärungen.
Der Agent kombiniert mehrere Technologien: OpenAI Whisper für die automatische Spracherkennung, Qwen‑Coder zur Codegenerierung, eine eigene Sandbox für die sichere Ausführung von Befehlen und die Coqui‑Bibliothek für Text‑zu‑Speech. Durch diese Kombination kann Talk2Data nicht nur Textantworten liefern, sondern auch visuelle Darstellungen und Audioausgaben erzeugen, wodurch die Interaktion natürlicher und zugänglicher wird.
In einer Evaluation mit 48 Aufgaben über drei Datensätze erreichte der Prototyp eine Genauigkeit von 95,8 % und generierte Antworten in weniger als 1,7 Sekunden (ohne Spracherkennung und Ausführung). Der Vergleich von fünf LLM‑Größen zeigte, dass ein 7‑Billionen‑Parameter‑Modell das beste Gleichgewicht zwischen Genauigkeit, Latenz und Kosten für den interaktiven Einsatz bietet.
Talk2Data demonstriert, wie LLM‑basierte Agenten Datenanalyse vereinfachen können, indem sie multimodale Eingaben verarbeiten, Code sicher ausführen und Ergebnisse in leicht verständlicher Form präsentieren. Die Technologie legt damit einen wichtigen Schritt in Richtung benutzerfreundlicher, kontextbewusster Datenanalyse dar.