bhide11_Anthony KwanGettyImages_deepseek Anthony Kwan/Getty Images

DeepSeek est-elle réellement une menace ?

CAMBRIDGE – Thomas Edison, opérateur télégraphique autodidacte devenu entrepreneur, est souvent considéré comme le plus grand inventeur de tous les temps. Nikola Tesla, qui a travaillé pour une société Edison à Paris avant d’émigrer aux États-Unis, est en revanche à peine connu, principalement au travers de l’entreprise de véhicules électriques d’Elon Musk. Or, ce sont les avancées réalisées par Nikola Tesla en matière de courant alternatif (CA), et non la technologie de courant continu (CC) d’Edison, qui ont rendu abordable l’électrification de masse. Les coûts prohibitifs du CC auraient fait de l’électrification urbaine d’Edison un luxe réservé aux riches, comme beaucoup de ses autres inventions.

Les modèles de l’IA DeepSeek créée par l’investisseur chinois Liang Wenfeng pourraient-ils représenter une avancée majeure similaire dans le domaine de l’IA, ou s’agit-il de supercheries comparables à la fusion froide et à la supraconductivité à température ambiante ? Et si ces modèles faisaient leurs preuves, les États-Unis devraient-ils les considérer comme une menace mortelle ou comme un cadeau pour le monde ?

À l’instar de nombreuses technologies transformatrices, l’IA a évolué au cours de nombreuses décennies avant que le lancement de ChatGPT par OpenAI fin 2022 ne suscite la folie actuelle. L’amélioration des algorithmes, la création d’appareils complémentaires tels que les téléphones mobiles, ainsi que la réduction des coûts et l’accroissement de la puissance du cloud computing avaient jusqu’à ce stade permis de généraliser l’utilisation de cette technologie, sans que nous nous en apercevions. Les essais et les erreurs avaient démontré sur quels points l’IA pourrait ou ne pourrait pas surpasser les efforts et le discernement des êtres humains.

La facilité trompeuse avec laquelle fonctionnent ChatGPT et d’autres grands modèles de langage (LLM) a créé l’illusion selon laquelle l’IA générative constituait une percée toute récente. ChatGPT comptait un million d’utilisateurs cinq jours après sa sortie, et 300 millions d’utilisateurs hebdomadaires deux ans plus tard. Plusieurs géants de la haute technologie tels que Microsoft, Meta et Alphabet ont parié des milliards de dollars sur les produits d’IA et les centres de données, oubliant rapidement leur enthousiasme antérieur pour la réalité virtuelle et augmentée.

En 2024, Nvidia, qui avait investi 2 milliards $ dans sa puce d’IA Blackwell, est devenue l’entreprise la plus capitalisée au monde, sa valorisation en bourse ayant été multipliée par neuf en deux ans. Son directeur général, Jensen Huang, a prédit que 1 000 milliards $ seraient investis dans des centres de données utilisant ces puces au cours des prochaines années. L’approche prudente et attentiste d’Apple concernant l’IA semblait alors démodée.

Peu importe que la nouvelle IA n’ait pas apporté aux utilisateurs finaux une valeur ne serait-ce que vaguement à la hauteur des investissements monumentaux à l’appui de cette technologie (sans parler de sa demande insatiable d’électricité). Les investissements ont continué de croître sur la base du principe selon lequel les centres de données à grande échelle réduiraient les coûts de l’IA, de même qu’une utilisation accrue rendrait les modèles plus intelligents.

Secure your copy of PS Quarterly: The Year Ahead 2025
PS_YA25-Onsite_1333x1000

Secure your copy of PS Quarterly: The Year Ahead 2025

Our annual flagship magazine, PS Quarterly: The Year Ahead 2025, has arrived. To gain digital access to all of the magazine’s content, and receive your print copy, subscribe to PS Digital Plus now.

Subscribe Now

Or, sous leur apparence flambant neuve, et à l’instar de nombreux modèles d’IA vieux de plusieurs décennies, les LLM recourent encore à la reconnaissance de schémas ainsi qu’à des prédictions statistiques pour produire leurs résultats, ce qui signifie que leur fiabilité repose sur l’hypothèse d’un futur semblable au passé. Il s’agit là d’une limitation importante. Tandis que les humains sont capables d’interpréter de manière imaginative les données historiques pour anticiper ce qu’il pourrait se produire différemment dans le futur, et capables d’améliorer leurs prédictions en échangeant intelligemment les uns avec les autres, ce n’est pas le cas des algorithmes d’IA.

Cette faille n’est pas rédhibitoire pour autant. Les phénomènes qui obéissent aux lois de la nature étant naturellement stables, l’avenir ressemble au passé à bien des égards. S’ils disposent de retours d’informations non équivoques, les modèles d’IA peuvent gagner en fiabilité grâce à leur formation, et même lorsque le phénomène sous-jacent est instable – ou lorsque les retours d’informations sont ambigus – les prédictions statistiques peuvent se révéler plus rentables que le jugement humain. Les publicités diffusées par les algorithmes de Google ou de Meta et qui se révèlent complètement hors sujet sont toujours supérieures aux publicités propagées à l’aveugle. De même, il arrive que la dictée de textes sur un téléphone mobile produise des erreurs, mais elle reste plus rapide et plus pratique que le pianotage sur un écran de petite taille.

En 2022, plusieurs innovateurs ingénieux ont découvert d’innombrables cas dans lesquels l’intelligence artificielle basée sur les statistiques était suffisamment efficace, voire meilleure, que les alternatives fondées sur le jugement humain. Avec l’amélioration du matériel informatique et des logiciels, les cas d’utilisation rentables semblaient ainsi voués à se multiplier. Or, il était illusoire de penser que les LLM constituaient un bond en avant simplement en raison de leur capacité à converser comme des êtres humains. Dans ce que je constate moi-même, les applications LLM se révèlent pires qu’inutiles lorsqu’il s’agit de mener des recherches, de produire des synthèses ou de générer des visuels.

Cela n’a pas empêché l’actualité autour des prouesses de DeepSeek de provoquer une véritable onde de choc sur les marchés financiers. DeepSeek affirme avoir atteint des performances d’IA à la hauteur d’OpenAI et de Google, en utilisant uniquement des puces Nvidia bas de gamme, ainsi que pour une fraction des coûts de formation et d’exploitation. Si cela se confirme, alors la demande relative aux puces d’IA haut de gamme sera plus faible que prévu. C’est la raison pour laquelle les nouvelles concernant DeepSeek ont fait disparaître en seulement une journée pas moins de 600 milliards $ de capitalisation boursière de Nvidia, ébranlé les actions d’autres sociétés de semi-conducteurs, et impacté celles d’entreprises qui ont investi dans des centres de données ou qui vendent de l’électricité à ces centres.

Bien entendu, les affirmations de DeepSeek pourraient se révéler inexactes. Beaucoup de celles de Nikola Tesla, après ses avancées dans le domaine du CC, s’avérèrent  extrêmement exagérées, voire trompeuses. La machine de propagande soviétique fabriquait en effet à l’époque régulièrement des percées scientifiques et technologiques, en parallèle des avancées réelles. Il n’en demeure pas moins que les petites innovations hors des sentiers battus peuvent devenir transformatrices. Songez aux fusées réutilisables à bas prix d’Elon Musk. La mission martienne réussie de l’Inde a coûté seulement 73 millions $, moins que le budget du film de science-fiction hollywoodien Gravity.

Si elle faisait ses preuves, la technologie de DeepSeek pourrait être en matière de LLM ce que les inventions de Nikola Tesla furent en matière d’électrification. Bien que cette IA ne puisse surmonter les limites inévitablement liées aux modèles statistiques rétrospectifs, elle pourrait rendre leurs performances suffisamment satisfaisantes pour une utilisation plus large. Ceux qui développent des modèles LLM ne seraient alors plus dépendants des subventions versées par de grands opérateurs ayant intérêt à les accaparer. Des modèles moins énergivores pourraient par ailleurs réduire la demande de centres de données, ou contribuer à orienter les capacités de ces centres vers des utilisations plus justifiables sur le plan économique.

Quid des considérations géopolitiques ? Au printemps dernier, un rapport du groupe de travail bipartisan du Sénat sur l’IA a préconisé des dépenses annuelles « d’urgence » de 32 milliards $ pour l’IA non militaire, prétendument afin de concurrencer plus efficacement la Chine. L’investisseur en capital-risque Marc Andreessen a qualifié l’arrivée de DeepSeek de « moment Spoutnik de l’IA ». Le président américain Donald Trump estime que le modèle chinois d’IA constitue un « signal d’alarme pour les industries américaines », qui devraient « se concentrer sur la concurrence pour gagner ». Trump a annoncé son intention d’imposer de nouveaux droits de douane sur les importations de semi-conducteurs en provenance de Chine, de même que son prédécesseur avait imposé des contrôles à l’exportation sur les puces d’IA haut de gamme.

Dans mon livre The Venturesome Economy, j’explique pourquoi il est erroné de considérer les avancées transformatrices issues de l’étranger comme une menace pour le bien-être national. La quête aveugle d’un leadership technologique ou scientifique est une entreprise insensée. Ce qui importe, c’est la volonté et la capacité des entreprises et des consommateurs à développer ainsi qu’à utiliser des produits et technologies issus de la recherche de pointe, d’où qu’ils viennent. Il en va de même pour les modèles d’IA en source ouverte de DeepSeek.

Bien entendu, il nous faut contrôler les utilisations militaires menaçantes des technologies occidentales de pointe par des régimes hostiles. Mais il s’agit là d’un défi différent et difficile à relever. S’il était possible de le surmonter au moyen de contrôles sur les exportations, cela fait bien longtemps que nous ne nous inquiéterions plus des armes nucléaires nord-coréennes ou iraniennes.

https://prosyn.org/C46PAyXfr