Depuis deux ans, une guerre silencieuse se déroule au cœur de l'industrie de l'IA. Elle oppose deux modèles économiques, deux philosophies de la connaissance, et au fond, deux visions de qui devrait contrôler les systèmes intelligents qui vont remodeler nos économies et nos sociétés. D'un côté, les modèles fermés : GPT-4 d'OpenAI, Claude d'Anthropic, Gemini de Google. De l'autre, les modèles open source : LLaMA de Meta, Mistral en France, DeepSeek en Chine.
Pour comprendre les enjeux, commençons par la technique.
Un modèle fermé est accessible uniquement via une API — une interface de programmation distante. Vous envoyez votre requête à un serveur appartenant à l'entreprise, le modèle s'exécute sur ce serveur, et vous recevez la réponse. Vous ne voyez jamais les poids du modèle, c'est-à-dire les milliards de paramètres numériques qui encodent sa « connaissance ». Vous n'avez pas accès aux données d'entraînement, aux techniques d'ajustement fin, ou aux garde-fous qui ont été intégrés. Vous faites confiance à l'entreprise pour que le modèle soit sûr, précis et aligné avec vos intérêts. Et vous payez à l'utilisation.
Un modèle open source à poids libres fonctionne différemment. Les poids sont téléchargeables : vous pouvez les stocker sur votre propre infrastructure, les exécuter sur vos propres serveurs (ou même sur un ordinateur personnel suffisamment puissant), les modifier, les affiner sur vos propres données, les intégrer dans vos propres applications. Vous n'envoyez rien à un serveur extérieur. Vous n'avez pas besoin de faire confiance à l'entreprise d'origine pour chaque requête. Vous contrôlez entièrement le système.
La distinction n'est pas simplement technique. Elle est géopolitique et économique.
Quand une entreprise française, un hôpital public, ou une administration nationale utilise un modèle fermé pour traiter des données sensibles, ces données transitent par des serveurs américains, soumis au droit américain — notamment le Cloud Act, qui permet aux autorités américaines d'accéder à des données hébergées par des entreprises américaines, quelle que soit leur localisation géographique. Cette dépendance informatique a une dimension de souveraineté qu'il serait imprudent d'ignorer.
C'est dans ce contexte qu'il faut lire la montée en puissance de Mistral AI. Cette startup française, fondée en 2023 par d'anciens chercheurs de Google DeepMind et Meta, a publié plusieurs modèles concurrentiels avec des poids entièrement libres. Sur le benchmark MMLU, Mistral 7B surpasse des modèles deux fois plus grands entraînés de façon fermée. Mixtral 8x22B rivalise avec GPT-3.5 sur de nombreuses tâches. Et depuis la France, avec une équipe réduite et des ressources bien inférieures aux labos américains.
La surprise est venue de Chine avec DeepSeek. En janvier 2025, DeepSeek R1 a démontré des performances équivalentes à GPT-4 sur les benchmarks de raisonnement, avec une fraction du coût de calcul revendiqué. L'onde de choc dans l'industrie américaine a été réelle : si un lab chinois, opérant sous des contraintes d'exportation sur les puces Nvidia, peut produire un modèle compétitif avec une efficacité bien supérieure — l'avantage concurrentiel de la Silicon Valley, fondé sur l'accès aux ressources de calcul, est moins solide qu'il n'y paraît.
Posséder le code source de l'IA que l'on utilise n'est pas qu'un enjeu technique, c'est un impératif de souveraineté cognitive. Quand les outils qui structurent notre accès à l'information, assistent nos décisions, et médiatisent notre rapport à la connaissance sont des boîtes noires hébergées à l'étranger, nous ne subissons pas simplement une dépendance économique. Nous acceptons que notre environnement cognitif soit façonné par des systèmes sur lesquels nous n'avons aucun contrôle. C'est un sujet que je développe en profondeur dans mon prochain livre, La paresse de penser.