Ouvrir MLX Community
Parcourir les modèles disponibles et leurs variantes.
Pourquoi commencer ici
MLX Community vous fait gagner du temps sur trois points :- le modèle est déjà dans un format compatible MLX
- les variantes quantifiées sont souvent déjà publiées
- la carte du modèle vous aide à repérer rapidement l’usage visé
Comment lire le nom d’un modèle
Prenons cet exemple :mlx-community: l’organisation Hugging FaceLlama-3.2: la famille de modèles3B: la taille approximativeInstruct: la variante faite pour suivre des consignes4bit: la variante quantifiée pour réduire la mémoire
- une variante
Instruct - une taille modérée
- une quantification
4bit
Les familles que vous croiserez le plus souvent
Llama
Llama
Une famille généraliste très présente dans les exemples et les tests. Bon choix pour comprendre un workflow local classique.
Mistral
Mistral
Souvent apprécié pour son bon équilibre entre qualité, taille et simplicité d’usage.
Qwen
Qwen
Souvent intéressant si vous travaillez en multilingue ou sur des tâches de code.
Phi
Phi
Une bonne famille pour des modèles compacts, donc utile pour tester vite ou fine-tuner sur une machine plus limitée.
DeepSeek et modèles spécialisés
DeepSeek et modèles spécialisés
À réserver à un besoin plus précis. Commencez par un modèle généraliste si vous découvrez encore le comportement des LLMs locaux.
Modèles vision-langage
Modèles vision-langage
Utiles si vous devez combiner texte et image. Vérifiez bien l’outil associé, car l’inférence passe souvent par un package dédié comme
mlx-vlm.Comment choisir sans vous perdre
Pour découvrir MLX
Prenez un modèle compact, instruct et quantifié en4bit.
Pour un assistant généraliste local
Passez à un modèle plus grand si votre machine le supporte et si la qualité du petit modèle devient une vraie limite.Pour du fine-tuning
Choisissez un modèle que vous pouvez entraîner confortablement sur votre machine avant de penser à la qualité absolue.Pour une app Swift
Demandez-vous d’abord si Foundation Models couvre le besoin. Si oui, évitez d’embarquer un modèle custom trop tôt.Télécharger et utiliser un modèle
Depuis la CLI
Depuis Python
Télécharger localement
Quand convertir vous-même un modèle
Ne convertissez un modèle que si :- il n’existe pas déjà dans MLX Community
- vous avez besoin d’une variante précise
- vous voulez publier votre propre conversion