#parquet
9 éléments
snippet
PySpark SQL: lire Parquet et agréger
charger un dataset Parquet et faire des agrégations SQL
ouvrir
snippet
PySpark: écrire Parquet partitionné
sauvegarder un DataFrame Parquet partitionné par colonnes
ouvrir
snippet
dask: read_parquet et agrégation
Charger un dossier Parquet et calculer paresseusement.
ouvrir
snippet
duckdb: requête sur Parquet et pandas
Interroger des fichiers Parquet et DataFrames en SQL.
ouvrir
snippet
pandas: read_parquet colonnes
Lire seulement un sous-ensemble de colonnes d'un parquet.
ouvrir
snippet
pandas: to_parquet / read_parquet
Lire/écrire Parquet avec pyarrow ou fastparquet.
ouvrir
snippet
pandas: to_parquet (pyarrow rapide)
Écrire un DataFrame en parquet colonne, compressé.
ouvrir
snippet
polars: lazy scan parquet
Lire en lazy, filtrer et sélectionner avant collect.
ouvrir
snippet
pyarrow: dataset parquet partitionné
Lire/écrire un dataset partitionné façon Hive.
ouvrir
page 1 sur 1