Agents Course documentation

Finetunons un modèle pour pouvoir faire de l’appel de fonctions

Hugging Face's logo
Join the Hugging Face community

and get access to the augmented documentation experience

to get started

Finetunons un modèle pour pouvoir faire de l’appel de fonctions

Nous sommes maintenant prêts à finetuner notre premier modèle pour de l’appel de fonctions 🔥.

Comment entraînons-nous un tel modèle ?

Réponse : Nous avons besoin de données

Un processus d’entraînement peut être divisé en 3 étapes :

  1. Le modèle est pré-entraîné sur une grande quantité de données. Le résultat de cette étape est un modèle pré-entraîné. Par exemple, google/gemma-2-2b. C’est un modèle de base et il sait seulement comment prédire le prochain token sans fortes capacités de suivi d’instructions.

  2. Pour être utile dans un contexte de conversation, le modèle doit ensuite être finetuné pour suivre des instructions. À cette étape, il peut être entraîné par les créateurs du modèle, la communauté open-source, vous, ou n’importe qui. Par exemple, google/gemma-2-2b-it est un modèle finetuné pour les instructions par l’équipe Google derrière le projet Gemma.

  3. Le modèle peut ensuite être aligné selon les préférences du créateur. Par exemple, un modèle conversationnel d’un service client ne doit jamais être impoli avec l’utilisateur.

Habituellement, un produit complet comme Gemini ou Mistral sera passé par les 3 étapes, alors que les modèles que vous pouvez trouver sur Hugging Face ont effectué une ou plusieurs étapes de cet entraînement.

Dans ce tutoriel, nous allons construire un modèle d’appel de fonctions basé sur google/gemma-2-2b-it. Nous choisissons le modèle google/gemma-2-2b-it au lieu du modèle de base google/gemma-2-2b parce que le modèle finetuné a été amélioré pour notre cas d’usage.

Partir du modèle pré-entraîné nécessiterait plus d’entraînement pour apprendre le suivi d’instructions, le chat ET l’appel de fonctions.

En partant du modèle finetuné pour les instructions, nous minimisons la quantité d’informations que notre modèle doit apprendre.

LoRA (Low-Rank Adaptation of Large Language Models)

LoRA est une technique d’entraînement populaire et légère qui réduit significativement le nombre de paramètres à entraîner.

Elle fonctionne en insérant un lot d’adaptateurs constitués d’un petit nombre de nouveaux poids, dans le modèle à entraîner. Cela rend l’entraînement avec LoRA beaucoup plus rapide, économe en mémoire, et produit des poids de modèle plus petits (quelques centaines de MB), qui sont plus faciles à stocker et partager.

LoRA inference

LoRA fonctionne en ajoutant des paires de matrices de décomposition de rang aux couches d’un transformer (typiquement les couches linéaires). Durant l’entraînement, nous gèlons le reste du modèle et ne mettons à jour uniquement les poids de ces adaptateurs ajoutés.

Ce faisant, le nombre de paramètres que nous devons entraîner diminue considérablement car nous devons seulement mettre à jour les poids des adaptateurs.

Durant l’inférence, l’entrée est passée dans les adaptateurs et le modèle de base. Ou bien les poids des adaptateurs peuvent être fusionnés avec le modèle de base, ne résultant en aucune surcharge de latence supplémentaire.

LoRA est particulièrement utile pour adapter de grands modèles de langage à des tâches ou domaines spécifiques tout en gardant les exigences de ressources gérables. Cela aide à réduire la mémoire requise pour entraîner un modèle.

Si vous voulez en savoir plus sur comment LoRA fonctionne, vous devriez consulter ce tutoriel.

Finetuning d’un modèle pour l’appel de fonctions

La suite de cette section se passe dans le notebook du tutoriel que vous pouvez accéder 👉 ici.

Ensuite, cliquez sur Open In Colab pour pouvoir l’exécuter dans Colab.

< > Update on GitHub