Comparatif des coûts d'API IA : modèles locaux vs fournisseurs d'API
Une analyse détaillée des coûts réels liés à l'exécution d'agents IA : comparaison entre OpenAI, Anthropic, DeepSeek, OpenRouter et les modèles locaux via Ollama. Trouvez l'équilibre adapté à votre usage.
Les deux composantes du coût d'un agent IA personnel
Faire tourner OpenClaw sur un VPS personnel implique deux composantes de coût bien distinctes : le serveur lui-même (abonnement mensuel fixe) et l'inférence du modèle IA (variable, selon l'usage). La plupart des gens se concentrent sur le coût du serveur, mais c'est la dépense en API IA qui évolue réellement avec l'usage.
Comprendre les deux — ainsi que les compromis entre fournisseurs d'API et modèles locaux — vous permet de construire un agent adapté à votre budget sans sacrifier les performances.
Coût du serveur : le plancher fixe
OpenClaw lui-même est léger. Un Hetzner CX22 à EUR 4,35/mois suffit amplement pour un usage personnel. Pour l'inférence de modèles locaux via Ollama, il faut davantage :
| Scénario | Serveur | Coût mensuel |
|---|---|---|
| Agent seul (modèles API) | 2 vCPU / 4 Go RAM | EUR 4–6/mois |
| Agent + petit modèle local | 4 vCPU / 8 Go RAM | EUR 12–20/mois |
| Agent + modèle local performant | 8 vCPU / 32 Go RAM | EUR 40–80/mois |
Les modèles locaux nécessitent nettement plus de RAM que le simple framework de l'agent. Un modèle à 7 milliards de paramètres en quantification 4 bits requiert environ 5 Go de RAM rien que pour se charger.
Tarification des fournisseurs d'API (fin 2025)
Tous les prix d'API sont exprimés par million de tokens. Un "token" représente environ 0,75 mot. Un échange de messages classique consomme entre 200 et 800 tokens en entrée et sortie combinées.
| Modèle | Entrée (par 1M tokens) | Sortie (par 1M tokens) | Niveau de qualité |
|---|---|---|---|
| GPT-4o | USD 5,00 | USD 15,00 | Phare |
| GPT-4o mini | USD 0,15 | USD 0,60 | Rapide/économique |
| Claude 3.5 Sonnet | USD 3,00 | USD 15,00 | Phare |
| Claude 3.5 Haiku | USD 0,80 | USD 4,00 | Rapide/économique |
| DeepSeek V3 | USD 0,27 | USD 1,10 | Performant / très économique |
| Gemini 1.5 Flash | USD 0,075 | USD 0,30 | Rapide/économique |
Pour vous donner un ordre d'idée : si vous envoyez 100 messages par jour avec une moyenne de 500 tokens chacun, vous consommez environ 1,5 million de tokens par mois (en tenant compte de l'accumulation de la fenêtre de contexte). Aux tarifs DeepSeek V3, cela représente moins de USD 2/mois.
Utiliser OpenRouter pour optimiser les coûts
OpenRouter agrège des dizaines de modèles sous une seule clé API et un seul compte de facturation. Cela vous permet de :
- Changer de modèle sans reconfigurer votre agent
- Utiliser le modèle le moins cher pour les tâches simples et rediriger les requêtes complexes vers des modèles plus puissants
- Accéder aux modèles d'Anthropic, OpenAI, Meta et d'autres via une seule facture
OpenClaw prend en charge OpenRouter nativement. Définissez OPENROUTER_API_KEY dans votre configuration et spécifiez les modèles par leur identifiant OpenRouter (deepseek/deepseek-chat, anthropic/claude-3-5-sonnet, etc.).
Modèles locaux via Ollama : quand c'est pertinent
Ollama vous permet d'exécuter des modèles open-weight (Llama, Mistral, Gemma, etc.) directement sur votre serveur sans aucun appel API externe. Cela signifie :
- Coût par token nul — vous payez uniquement pour le matériel serveur
- Confidentialité totale — aucune donnée ne quitte votre VPS
- Pas de limites de débit — la vitesse d'inférence n'est limitée que par votre matériel
Le compromis : Les modèles locaux nécessitent un matériel puissant, et même les meilleurs modèles open-weight restent en deçà des modèles de pointe (GPT-4o, Claude 3.5) sur les tâches de raisonnement complexe.
Quand les modèles locaux sont le bon choix
- Vous traitez des données hautement sensibles et souhaitez une exposition API nulle
- Vous avez un volume élevé de messages où les coûts API s'accumulent de manière significative
- Vos cas d'usage sont simples (résumé, questions-réponses basiques) et un modèle 7B suffit
- Vous souhaitez expérimenter avec des modèles affinés adaptés à vos besoins
Configuration recommandée selon le niveau d'usage
| Profil | Configuration recommandée | Coût mensuel estimé |
|---|---|---|
| Utilisateur occasionnel (30 msg/jour) | Hetzner CX22 + GPT-4o mini | EUR 5–7/mois |
| Utilisateur régulier (100 msg/jour) | Hetzner CX22 + DeepSeek V3 via OpenRouter | EUR 6–10/mois |
| Utilisateur intensif (300+ msg/jour) | Hetzner CPX31 + mix DeepSeek + Claude Haiku | EUR 15–25/mois |
| Utilisateur axé confidentialité | Hetzner CPX41 + Ollama + Llama 3.1 8B | EUR 25–40/mois |
L'installateur k-claw vous permet de configurer votre modèle préféré lors de l'installation et de le modifier à tout moment depuis le tableau de bord, sans réinstallation.
Stop paying per-seat. Pay once, own your agent.
OpenClaw runs on a EUR 4/month VPS. Add your own API keys. k-claw gets it installed and configured in 15 minutes.
See pricingRelated articles
Qu'est-ce qu'un agent IA personnel ? Guide complet pour 2026
Découvrez ce que sont les agents IA personnels, comment ils fonctionnent et pourquoi l'auto-hébergement vous offre confidentialité, contrôle et personnalisation illimitée face aux assistants cloud.
Comment installer OpenClaw sur un VPS : guide étape par étape
Un guide complet pour installer OpenClaw sur votre propre VPS. Du choix du serveur à la configuration des modèles IA et des canaux de messagerie.