Agents Course documentation
Embarquement : vos premiers pas ⛵
Embarquement : vos premiers pas ⛵

Maintenant que vous avez tous les détails, commençons ! Nous allons réaliser quatre choses :
- Créer votre compte Hugging Face si ce n’est pas déjà fait
- Vous inscrire à Discord et vous présenter (ne soyez pas timide 🤗)
- Suivre le cours sur les agents sur le 🤗 Hub
- Faire passer le mot à propos du cours
Étape 1 : Créer votre compte Hugging Face
(Si ce n’est pas déjà fait) créez un compte Hugging Face ici.
Étape 2 : Rejoindre notre Discord
👉🏻 Rejoignez notre serveur Discord ici.
Lorsque vous rejoignez, n’oubliez pas de vous présenter dans #introduce-yourself
.
Nous disposons de plusieurs canaux liés aux agents :
agents-course-announcements
: pour les dernières informations portant sur le cours.🎓-agents-course-general
: pour les discussions générales et les bavardages.agents-course-questions
: pour poser des questions et aider vos camarades.agents-course-showcase
: pour présenter vos meilleurs agents.
De plus, vous pouvez consulter :
smolagents
: pour les discussions et l’assistance concernant la bibliothèque.
Si c’est votre première utilisation de Discord, nous avons rédigé un guide d’introduction pour vous donner les meilleures pratiques. Consultez la section suivante.
Étape 3 : Suivre l’organisation Hugging Face Agent Course sur le 🤗 Hub
Restez à jour avec les derniers matériels de cours, mises à jour, et annonces en suivant l’organisation du cours sur le Hub.
👉 Rendez-vous ici et cliquez sur suivre.

Étape 4 : Faites passer le mot à propos du cours
Aidez-nous à rendre ce cours plus visible ! Il y a deux façons de nous aider :
- Montrez votre soutien en laissant une étoile ⭐ sur le dépôt du cours.

- Partagez votre parcours d’apprentissage : faites savoir aux autres que vous suivez ce cours ! Nous avons préparé une illustration que vous pouvez utiliser dans vos publications sur les réseaux sociaux.

Vous pouvez télécharger l’image en cliquant 👉 ici
Étape 5 : Exécuter des modèles localement avec Ollama (En cas de limites de crédits)
Installez Ollama
Suivez les instructions officielles ici.
Téléchargez un modèle localement
ollama pull qwen2:7b # Consultez le site web d'Ollama pour plus de modèles
- Démarrez Ollama en arrière-plan (dans un terminal)
ollama serve
Si vous rencontrez l’erreur ”listen tcp 127.0.0.1:11434: bind: address already in use”, vous pouvez utiliser la commande sudo lsof -i :11434
pour identifier l’ID du processus (PID) qui utilise actuellement ce port. Si le processus est ollama
, il est probable que le script d’installation ci-dessus ait démarré le service ollama, vous pouvez donc ignorer cette commande pour démarrer Ollama.
Utilisez
LiteLLMModel
au lieu deInferenceClientModel
Pour utiliser le module
LiteLLMModel
danssmolagents
, vous pouvez exécuter la commandepip
pour installer le module.
pip install 'smolagents[litellm]'
from smolagents import LiteLLMModel
model = LiteLLMModel(
model_id="ollama_chat/qwen2:7b", # Ou essayez d'autres modèles supportés par Ollama
api_base="http://127.0.0.1:11434", # Serveur local Ollama par défaut
num_ctx=8192,
)
- Pourquoi cela fonctionne-t-il ?
- Ollama sert des modèles localement en utilisant une API compatible avec OpenAI à
http://localhost:11434
. LiteLLMModel
est conçu pour communiquer avec tout modèle qui supporte le format d’API OpenAI chat/completion.- Cela signifie que vous pouvez simplement remplacer
InferenceClientModel
parLiteLLMModel
sans autres changements de code nécessaires. C’est une solution transparente et prête à l’emploi.
Félicitations ! 🎉
Vous avez terminé le processus d’embarquement ! Vous êtes maintenant prêt à commencer à en apprendre plus sur les agents IA. Amusez-vous bien !
Continuez à apprendre, restez formidable 🤗
< > Update on GitHub