Gérer le Context Window et la Mémoire des LLMs
Comprenez les limites de mémoire des LLMs, le phénomène lost-in-the-middle, et maîtrisez les stratégies pour gérer efficacement de longs contextes en production.
Large Language Models : GPT, Claude, Llama, fine-tuning et prompting
Comprenez les limites de mémoire des LLMs, le phénomène lost-in-the-middle, et maîtrisez les stratégies pour gérer efficacement de longs contextes en production.
Installez et utilisez des LLMs directement sur votre machine avec Ollama : confidentialité totale, coût zéro, et intégration Python en quelques lignes.
Découvrez comment les LLMs décomposent le texte en tokens, pourquoi le français coûte plus cher que l'anglais, et comment maîtriser vos coûts d'API avec tiktoken.
Comment fonctionnent ChatGPT, Claude et Llama ? Découvrez la tokenisation, la génération de texte et apprenez à bien utiliser les LLMs.
Maîtrisez les techniques avancées de prompting (CoT, few-shot, JSON mode) et construisez des applications avec les APIs LLM et le function calling.
Personnalisez des LLMs avec LoRA/QLoRA, exécutez des modèles en local avec Ollama et maîtrisez la quantification (GGUF, AWQ).
Explorez les outils de pointe : JAX vs PyTorch, RAG et vector search, alignement des LLMs avec DPO et GRPO.