1. Commencez plus petit que prévu
Le réflexe courant consiste à choisir un gros modèle dès le départ. En pratique, vous apprendrez plus vite avec :- un modèle compact
- un petit dataset propre
- un run court
2. Protégez la mémoire unifiée
Pendant le fine-tuning, votre Mac partage la mémoire entre le système, les apps et le modèle. Faites simple :- fermez les applications gourmandes
- réduisez
--batch-sizesi nécessaire - baissez
--lora-layerssi la machine est trop serrée - préférez QLoRA si le modèle devient trop lourd
3. Traitez le dataset comme le coeur du projet
Le meilleur levier n’est pas toujours l’hyperparamètre. C’est souvent la qualité des exemples. Avant de relancer un run, demandez-vous :- la consigne est-elle claire ?
- la réponse est-elle vraiment celle attendue ?
- le style est-il cohérent d’un exemple à l’autre ?
4. Gardez une validation séparée
Sansvalid.jsonl, vous avancez presque à l’aveugle.
La validation vous aide à répondre à une question simple : “le modèle apprend-il quelque chose d’utile ou mémorise-t-il juste mes exemples ?“
5. Changez un paramètre à la fois
Quand un entraînement se passe mal, évitez de modifier :- le modèle
- le dataset
- le nombre de couches
- le nombre d’itérations
- le learning rate
6. Testez régulièrement avec des prompts réels
Ne jugez pas votre fine-tuning uniquement sur les métriques. Testez aussi des demandes proches de l’usage final :- un vrai prompt utilisateur
- un cas limite
- une consigne que le modèle de base gérait mal
7. Arrêtez-vous quand vous avez appris assez
Le but n’est pas forcément d’obtenir “le meilleur modèle possible”. Le but est souvent d’obtenir un comportement plus utile pour votre produit. Si votre modèle répond déjà mieux à vos besoins :- documentez la configuration
- conservez le dataset
- notez les limites restantes