Une nouvelle avancée de DeepSeek

DeepSeek a publié le 24 avril 2026 la version Preview de son nouveau modèle DeepSeek-V4.

C’est une sortie très attendue de cette startup chinoise basée à Hangzhou, qui s’est fait connaître l’année dernière avec ses modèles performants et très abordables.

DeepSeek propose deux modèles Mixture-of-Experts (MoE) open-source :

  • DeepSeek-V4-Pro : 1,6 trillion de paramètres au total (seulement 49 milliards activés). C’est la version haut de gamme, qui rivalise avec les meilleurs modèles fermés du monde (type GPT-5, Gemini 3.1 Pro, etc.).
  • DeepSeek-V4-Flash : 284 milliards de paramètres (13 milliards activés). Plus légère, rapide et économique, tout en restant très performante. api-docs.deepseek.com

Les deux supportent un contexte de 1 million de tokens (énorme ! environ 750 000 mots), ce qui est une avancée majeure pour les tâches longues (analyse de documents volumineux, codebases entières, etc.).

Points forts mis en avant par DeepSeek

  • Raisonnement et connaissances : V4-Pro domine les benchmarks open-source en maths, STEM, coding et connaissances générales. Il est proche (parfois juste derrière) des meilleurs modèles fermés.
  • Capacités agentiques : Excellent pour les tâches autonomes (agentic coding, utilisation d’outils, workflows complexes). C’est l’un des meilleurs open-source sur ces aspects. huggingface.co
  • Efficacité extrême : Grâce à une nouvelle architecture d’attention hybride (Compressed Sparse Attention + Heavily Compressed Attention), il réduit drastiquement la mémoire et le calcul pour le contexte long (seulement ~10 % de KV cache par rapport à la génération précédente).
  • Optimisé pour les puces Huawei : Important dans le contexte géopolitique, il marque un pas de plus vers l’autonomie chinoise en IA (moins dépendant de Nvidia). reuters.com

Disponibilité

  • Chat : Directement sur chat.deepseek.com (modes Expert/Instant).
  • API : Disponible immédiatement (modèles deepseek-v4-pro et deepseek-v4-flash).
  • Poids open-source : Sur Hugging Face (licence MIT), donc téléchargeable et utilisable librement. huggingface.co
  • C’est une preview, donc ce n’est pas la version finale, mais elle est déjà très impressionnante et disponible pour tous.
  • DeepSeek continue sa stratégie : modèles ultra-performants à prix cassés, open-source, et une forte poussée sur l’efficacité et le long contexte. Cela relance encore plus la compétition dans l’IA, surtout face aux géants américains.

Commentaires et opinion

Deepseek égale les performances des meilleurs modèles d’OpenAI et d’Anthropic.

Au prix de 1/7e.

Et pour la première fois de l’histoire, il a été construit sur des puces chinoises. pas américaines.

Ce dernier point estremarquable .

Depuis 2022, les États-Unis ont interdit l’exportation de puces d’IA avancées vers la Chine. Toute la stratégie reposait sur l’hypothèse que si la Chine n’a pas accès au meilleur matériel de Nvidia, elle ne peut pas construire une IA de pointe.

Mais DeepSeek semble prouver que cette hypothèse était fausse.

Leur modèle V4 a été entraîné et fonctionne sur les puces Ascend de Huawei. Huawei a passé des mois à travailler directement avec DeepSeek pour s’assurer que V4 fonctionne sur toute leur gamme de processeurs d’IA.

Jensen Huang l’avait même prédit dans un podcast récent : « Le jour où DeepSeek sortira d’abord sur Huawei, ce sera un résultat horrible pour notre nation. »

Les chiffres sont impressionnants :

DeepSeek V4 coûte 3,48 $ par million de tokens de sortie. Le dernier modèle d’OpenAI, GPT-5.5, coûte 30 $. Claude d’Anthropic facture 25 $. Des performances dans la même gamme. 7 fois moins cher.

Le CTO d’Uber vient d’admettre qu’ils ont épuisé tout le budget IA 2026 en 4 mois en utilisant les outils d’Anthropic.

Mais le prix n’est même pas le plus important ici.

DeepSeek a innové avec son rapport technique :

Ils ont publié les benchmarks où ils perdent.

Toutes les entreprises d’IA sélectionnent les tests où leur modèle gagne. DeepSeek a lancé la comparaison complète contre GPT-5.4 et Gemini de Google, a constaté qu’ils étaient en retard de 3 à 6 mois sur les modèles de pointe, et l’a publié quand même.

Ils s’en fichent littéralement parce que l’écart de prix rend l’écart de performance irrelevant pour 90 % des cas d’usage.

Les contrôles à l’exportation des États-Unis n’ont pas ralenti la Chine. Les développeurs chinois ont été obligés d’entraîner des modèles avec des ressources limitées, ils ont dû trouver comment rendre l’IA radicalement plus efficace.

Cette contrainte est devenue leur avantage compétitif.Chaque génération de DeepSeek est devenue moins chère à entraîner. V4 poursuit la tendance.

Les entreprises américaines font le choix opposé;

GPT-5.5 Pro d’OpenAI coûte 180 $ par million de tokens de sortie. C’est 51 fois plus cher que DeepSeek V4 pour un travail comparable.

La secrétaire au Commerce a confirmé cette semaine l’absence d’ expeditions de puces avancées Nvidia; donc la Chine aurait construit une IA de pointe quand même.

Et la réaction du marché vous dit tout :

Le fabricant de puces chinois SMIC a bondi de 10 %. Huahong Semiconductor a grimpé de 15 %. Les concurrents chinois d’IA de DeepSeek, Zhipu AI et MiniMax, ont chuté de 9 % parce que V4 les détruit aussi.

Laisser un commentaire