Erstellen Sie Ihren modernen Datenanalyse-Stack mit Python, Parquet und DuckDB Moderne Datenanalyse muss nicht kompliziert sein. Entdecken Sie, wie Python, Parquet und DuckDB in der Praxis zusammenarbeiten. KDnuggets 10.02.2026 15:00
DuckDB vs. SQLite: Welches Datenbank-Tool ist für ML-Prototypen besser? AI‑ und ML‑Entwickler arbeiten häufig mit lokalen Datensätzen, um Features zu erstellen und Prototypen zu bauen, ohne einen kompletten Server zu betreiben. Diese serverlose Herangehensweise spart Zeit und Ressourcen. Analytics Vidhya 20.01.2026 14:28
Ibis & DuckDB: Portable Feature‑Engineering‑Pipelines direkt im Datenbank‑Kernel In diesem Tutorial zeigen wir, wie man mit Ibis portable Feature‑Engineering‑Pipelines erstellt, die im Datenbank‑Kernel laufen und dabei das vertraute Pandas‑Erlebnis bieten. Durch die Kombination von Ibis’ Lazy‑Python‑APIs und DuckDB als Ausführungs‑Engine lässt sich komplexe Datenverarbeitung direkt in der Datenbank durchführen, ohne dass Rohdaten erst in den Arbeitsspeicher gezogen werden müssen. MarkTechPost 09.01.2026 14:50
GeoPandas & DuckDB: Schnelle Analyse britischer Verkehrsunfälle In diesem Beitrag wird gezeigt, wie man mit den beiden beliebten Python‑Bibliotheken GeoPandas und DuckDB geospatiale Analysen von Verkehrsunfall‑Daten im Vereinigten Königreich durchführt. Towards Data Science 15.12.2025 13:17
Ein Data Lakehouse in einer Nachmittagsstunde mit Apache Iceberg auf AWS Der Artikel demonstriert, wie man in kurzer Zeit ein Data Lakehouse auf AWS aufbaut, indem Apache Iceberg in Kombination mit Athena, Glue/Spark und DuckDB eingesetzt wird. Durch die Nutzung dieser Open‑Source‑ und Managed‑Services lässt sich die Datenverarbeitung vereinfachen und gleichzeitig die Skalierbarkeit sowie die Performance maximieren. Der Beitrag erschien erstmals auf der Plattform Towards Data Science. Towards Data Science 04.12.2025 13:30
Effiziente Datenverarbeitung in Python: Polars & DuckDB im Einsatz In einem aktuellen Tutorial erfahren Sie, wie Sie mit Python moderne DataFrames handhaben können, ohne dass Ihr Workflow langsamer wird. Der Beitrag zeigt praxisnah, wie man große Datensätze effizient verarbeitet und dabei die Performance erhält. Towards Data Science 21.11.2025 17:00
Von JSON zum Dashboard: DuckDB-Abfragen in Streamlit mit Plotly visualisieren Mit einer Kombination aus JSON, DuckDB, Streamlit und Plotly lässt sich ein übersichtliches Dashboard erstellen, das Daten schnell und anschaulich präsentiert. Der Prozess beginnt mit dem Laden von JSON‑Dateien in eine DuckDB‑Datenbank, die dank ihrer eingebetteten SQL‑Engine effiziente Abfragen ermöglicht. KDnuggets 22.08.2025 13:00