#pipeline
17 éléments
PySpark ML: VectorAssembler + StandardScaler
assembler des features et normaliser pour MLlib
sklearn: FeatureUnion
Concaténer des transformateurs en parallèle.
sklearn: Pipeline + StandardScaler
Chaîner scaling et modèle proprement.
sklearn TransformedTargetRegressor
transformer la variable cible (log, box-cox) dans un pipeline propre
sklearn: transformateur personnalisé
Créer un transformer compatible Pipeline (fit/transform).
sklearn: GridSearch pipeline texte
Optimiser TF-IDF + classifieur via Pipeline + GridSearch.
sklearn: Pipeline + ColumnTransformer
Prétraiter colonnes num/cat et entraîner un modèle.
sklearn: Pipeline prétraitement+modèle
Chaîner scaler/imputer et modèle pour CV propre.
pee: dupliquer un flux vers plusieurs commandes
Envoyer l'entrée en parallèle à plusieurs commandes, comme tee mais vers des process.
vipe: éditer un flux au milieu d'un pipeline
Insérer un éditeur entre deux commandes dans un pipeline, puis reprendre le flux.
pv: progression et débit des pipelines
Afficher barre de progression, débit et ETA pour des pipes (tar, curl, zstd), avec limites et logs.
sponge: écrire en place depuis un pipeline
Modifier un fichier via un pipeline sans l'écraser prématurément (moreutils sponge), y compris avec sudo.