#llm
13 éléments
Utilisation des LLM : Prompts, Cas d'Usage, Limites
Maîtriser l'art du prompt engineering, explorer les applications pratiques des LLM et comprendre leurs limitations.
Introduction aux LLM : Qu'est-ce qu'un modèle de langage ?
Découvrir ce que sont les Large Language Models (LLM), leur fonctionnement et leur potentiel.
Bonnes Pratiques et Futur : Éthique, Sécurité, Évolution
Explorer les considérations éthiques et de sécurité des LLM, ainsi que les tendances futures de cette technologie.
Concepts Clés : Tokens, Architecture (simplifiée), Entraînement
Plongée dans les mécanismes fondamentaux des LLM : tokens, architecture Transformer et phases d'entraînement.
La nouvelle facture des LLMs, comprendre les coûts cachés
Les fournisseurs d'IA changent leurs prix. Décryptage des nouvelles tarifications et stratégies pour éviter l'explosion de la facture.
Diviser par deux le coût d'un LLM, les vrais chiffres de la distillation
Comment nous avons réduit de 60% la facture d'inférence d'un modèle en production grâce à la distillation et la quantification.
Faire évaluer un LLM par un autre LLM, la nouvelle frontière du testing
Quand un modèle puissant devient juge de la qualité des autres. Retours sur l'approche 'LLM-as-a-judge' et ses limites.
L'observabilité LLM au-delà de la latence et du coût
Les nouvelles métriques de qualité pour comprendre le comportement de vos applications LLM en production.
Mistral-8x22B et RAG leçons d'une mise en production
Qualité, latence, coûts: retours terrain sur l'intégration d'un grand modèle open source dans un pipeline RAG.
FinOps pour LLM coûts et latence
Optimiser température, tokens, cache et batching pour maîtriser la facture.
Évaluer les LLM métriques et protocoles
Du offline au online: exactitude, utilité, sécurité et coûts de réponse.
Guide pratique de prompt engineering
Structurer, contraindre et tester vos prompts pour des réponses utiles et stables.