Il y a un an, DeepSeek avait fait l’effet d’une gifle. Le modèle R1, sorti de nulle part, avait fait chuter les valeurs technologiques américaines à Wall Street. Cette fois, avec DeepSeek V4, la startup de Hangzhou ne cherche plus la surprise — elle installe une stratégie. Et c’est peut-être encore plus inquiétant pour ses concurrents.
Annoncé le 24 avril 2026, DeepSeek V4 débarque en open source dans deux versions : une V4-Pro, monstre de 1 600 milliards de paramètres, et une V4-Flash plus légère, pensée pour les budgets serrés. Deux options, une seule ambition : s’imposer durablement dans une course à l’IA que beaucoup pensaient déjà jouée côté américain.
DeepSeek V4 : ce qui change vraiment sous le capot.
Ne vous laissez pas noyer par les chiffres. Ce qui compte vraiment dans DeepSeek V4, c’est moins la taille que ce qu’on peut en faire. La fenêtre de contexte atteint désormais un million de tokens — autant que Gemini de Google. Concrètement, ça signifie que le modèle peut ingérer plusieurs romans d’un coup et répondre à des questions précises sur l’ensemble, sans perdre le fil. Une prouesse technique que DeepSeek affirme avoir rendue moins gourmande en calcul que chez la concurrence.
Côté raisonnement et tâches agentiques — comprendre : la capacité à enchaîner des actions autonomes, pas juste à générer du texte — le modèle franchit un cap. Sur plusieurs benchmarks de codage, il talonne GPT et Gemini. Pour un modèle open source, c’est une performance qui mérite qu’on s’y arrête.
Et le tarif ? V4-Pro s’affiche à 1,74 dollar par million de tokens en entrée. GPT-5.5 d’OpenAI, sorti le même jour, coûte environ dix fois plus cher. Pour les développeurs et les équipes techniques, la question de rester sur une plateforme américaine devient de moins en moins évidente, comme le montrent aussi les tendances IA actuelles qui redessinent les équilibres du secteur.
Huawei dans la boucle : un choix qui ne doit rien au hasard.
C’est là où DeepSeek V4 dépasse le simple lancement produit. Le modèle tourne nativement sur les puces Ascend 950 de Huawei, via la plateforme Supernode. Cambricon, autre fabricant chinois d’accélérateurs IA, est aussi dans la danse. Ce qui frappe, c’est que DeepSeek a accordé un accès anticipé à ces partenaires locaux — et l’a refusé à Nvidia et aux entreprises occidentales. Ce n’est pas une coïncidence. C’est un signal politique autant que technologique.
Les sanctions américaines sur les exportations de puces vers la Chine avaient pour objectif de freiner la montée en puissance de son IA. DeepSeek V4 répond frontalement : la Chine construit son propre écosystème, du silicium au modèle en passant par l’infrastructure cloud. Alibaba, ByteDance et Tencent ont déjà commandé des accélérateurs domestiques en anticipation. On n’est plus dans la dépendance — on est dans la bifurcation.
Cette dynamique n’est pas sans rappeler les enjeux de souveraineté numérique qui agitent aussi l’Europe, où des projets comme le supercalculateur Alice cherchent à s’affranchir de la dépendance aux technologies américaines. La question de qui contrôle l’infrastructure sous-jacente n’est plus réservée aux geeks de la politique industrielle.
Ce que ça change pour le reste du monde.
Pour les entreprises européennes, DeepSeek V4 n’est plus une curiosité lointaine. C’est une alternative crédible et beaucoup moins chère aux modèles d’OpenAI ou Anthropic. La licence MIT signifie qu’on peut télécharger les poids du modèle et le faire tourner localement — sans passer par un fournisseur étranger, sans engagement contractuel avec une plateforme américaine.
Reste la question du contexte réglementaire. V4-Pro, avec ses 1 600 milliards de paramètres, pourrait tomber dans la catégorie des modèles à « risque systémique » au sens de l’AI Act européen. Aucun régulateur n’a encore tranché. Et les accusations d’OpenAI et Anthropic, qui reprochent à DeepSeek d’avoir « distillé » leurs modèles pour entraîner les versions précédentes, ajoutent une couche de tension juridique à un tableau déjà chargé.
Une bifurcation, pas juste un modèle de plus.
DeepSeek V4 marque quelque chose de plus profond qu’un simple saut de version. L’IA mondiale est en train de se scinder en deux écosystèmes : d’un côté l’Occident avec Nvidia, OpenAI, Anthropic ; de l’autre, une pile technologique chinoise qui devient de plus en plus autonome et compétitive. On peut débattre des performances exactes, des benchmarks contestables, des zones d’ombre sur l’entraînement. Mais la direction, elle, est claire.
La vraie question n’est pas de savoir si DeepSeek V4 est meilleur que GPT-5.5. C’est de savoir ce que ça implique pour quiconque veut construire une stratégie IA dans les prochaines années — et qui ne veut pas se retrouver captif d’une seule géographie.


