Qui utilise l’intelligence artificielle, pourquoi et pourquoi pas. L’OCDE répond

Entre espoirs et risques d’entraves

d'Lëtzebuerger Land du 13.02.2026

Lors du forum de Davos en janvier 2026, le CEO de Microsoft Satya Nadella a averti que, sans une diffusion plus large de l’intelligence artificielle (IA), cette dernière ne pourra pas exprimer son potentiel et perdra de sa légitimité sociale, notamment face aux enjeux énergétiques. Un document publié par l’OCDE le 28 janvier, quelques jours après son intervention, devrait le rassurer. Il montre que l’utilisation de l’IA par les individus progresse rapidement dans l’ensemble des pays membres de l’organisation, tandis que l’adoption par les entreprises continue de s’étendre. Mais des risques de blocage existent.

Près de trente-sept pour cent des habitants des 38 pays de l’OCDE ont utilisé des outils d’IA générative en 2025, illustrant la rapidité avec laquelle elle s’intègre dans la vie quotidienne, à peine trois ans après son apparition. Toutefois, selon la base de données de l’OCDE, l’adoption demeure inégale selon les pays et les différents groupes de population qui les composent. Dans l’ensemble, la plus forte disparité s’observe selon l’âge, avec un écart supérieur à cinquante points entre la tranche 16-24 ans, dont le taux d’adoption est de 67,7 pour cent, et celle des 55-74 ans où il est d’à peine 14,1 pour cent.

Les différences liées au niveau d’éducation et au niveau de revenu sont également marquées, autour de 21 points de pourcentage. En revanche, l’écart entre les sexes en matière d’utilisation de l’IA reste relativement limité, à 4,2 points de pourcentage en faveur des hommes. L’utilisation est particulièrement élevée chez les étudiants, trois quarts d’entre eux ayant utilisé des outils d’IA générative. L’adoption est également répandue parmi les personnes en emploi (41,1 pour cent) et même celles qui sont au chômage (36,7 pour cent). Mais chez les retraités et les autres groupes inactifs les taux d’utilisation sont nettement plus faibles, à 12,5 pour cent.

Un seul pays, la Norvège, affiche un taux d’adoption supérieur à cinquante pour cent, mais onze autres sont à plus de quarante pour cent : c’est le cas de la Belgique, des Pays-Bas, de l’Irlande et du Luxembourg (42,5 pour cent). En revanche des taux étonnamment faibles apparaissent en Allemagne (32,3 pour cent), au Japon (26,7) et en Italie (20). Parallèlement à la hausse de l’utilisation par les individus, l’adoption de l’IA a continué de progresser dans les entreprises. Alors qu’elle y existe depuis une vingtaine d’années, elle y a récemment été boostée par la diffusion d’outils d’IA générative à usage du grand public, tels ChatGPT et Copilot. En 2025, 20,2 pour cent des entreprises déclaraient utiliser l’IA, contre 8,7 pour cent en 2023, soit un taux d’adoption multiplié par 2,3. Mais la croissance s’est ralentie.

L’utilisation reste très inégale selon les pays, dépassant 35 pour cent au Danemark, en Finlande et en Suède, et se situant entre trente et 35 pour cent dans cinq autres, dont la Belgique, les Pays-Bas et le Luxembourg (33,6 pour cent), mais restant à la traîne dans une bonne dizaine d’autres, qui ne dépassent (ou de très peu) pas la barre des vingt pour cent (la France, l’Espagne, l’Italie, l’Irlande, la Pologne ou la Turquie).

Grandes disparités également selon la taille des entreprises : 52 pour cent des entreprises employant plus de 250 salariés utilisent l’IA, soit trois fois plus que celles de dix à 49 salariés (17,4 pour cent). Pour un expert français, trop de petites entreprises considèrent encore l’IA comme un « gadget ». Logiquement, ce sont les entreprises du secteur de l’information et de la communication qui sont en pointe : 57,3 pour cent l’utilisent, un pourcentage qui a doublé en trois ans dans l’ensemble de l’OCDE, le plafonnement étant proche dans certains pays comme la Suède (88 pour cent), l’Autriche et la Finlande (80 pour cent à chaque fois). Les autres secteurs sont loin derrière, avec une adoption de seulement 20,2 pour cent dans l’industrie manufacturière, de 12,7 pour cent dans l’Horeca ou de 11,8 pour cent dans la construction. Mais par effet de rattrapage c’est aussi dans ces activités que la progression est la plus rapide.

Même si l’adoption de l’IA progresse chez les utilisateurs potentiels, son développement pourrait néanmoins être entravé par des facteurs d’ordre matériel, comme la pénurie de puces et la consommation d’énergie et d’eau. La fabrication de micro-processeurs est incapable de suivre la demande, d’autant que les grands acteurs de l’IA réservent des millions de GPU (Graphics Processing Units, qui sont à la base des applications d’IA), ce qui fait monter les prix et fait même craindre des ruptures de stocks. Les fabricants se frottent les mains : l’action de Nvidia a doublé depuis avril 2025 et sa capitalisation dépasse les 4 500 milliards de dollars, soit treize fois plus qu’en 2022, après avoir franchi la barre des 5 000 milliards à l’automne 2025, en faisant la plus grosse entreprise du monde.

La consommation électrique des data centers est déjà importante. Selon l’AIE (Agence internationale de l’énergie) elle dépassera les 1 000 térawattheures en 2026 soit l’équivalent de ce que consomme un pays comme le Japon. Contrairement à une idée reçue, l’IA n’est pas actuellement la principale responsable de la demande d’électricité des quelque 12 000 data centers présents sur la planète (dont dix pour cent sont « hyperscale », c’estàdire des unités de très grande taille exploitées par les grands acteurs du cloud et du numérique). Mais elle pèse déjà lourd, sachant que, par exemple, une requête vers une IA générative de type ChatGPT consommerait en moyenne environ dix fois plus d’électricité qu’une recherche Google classique. L’IA représente aujourd’hui environ vingt pour cent de la consommation électrique totale des centres de données dans le monde, et une forte hausse est attendue dans les prochaines années, certaines analyses évoquant une part de 35 à cinquante pour cent dès 2030.

Les réseaux publics existants ne parvenant pas à satisfaire leurs demandes, avec le risque d’une pénurie de capacité électrique limitant ou retardant certains projets, les plus grands acteurs du secteur en viennent à développer leur propre approvisionnement en électricité au moyen de parcs de panneaux solaires ou d’éoliennes, voire de petits réacteurs nucléaires (SMR), principalement aux États-Unis. Mais plusieurs études soulignent qu’une large partie de la croissance des data centers ayant lieu dans des pays où l’électricité est plus « carbonée », les usages de l’IA risquent de s’y traduire par une augmentation des gaz à effet de serre.

Parmi les enjeux écologiques de l’utilisation de l’IA figure aussi la consommation directe d’eau, principalement pour le refroidissement des serveurs (tours aéroréfrigérantes, circuits fermés etc.). Selon le Forum économique mondial (WEF), il faut compter environ 25 000 m3 par an pour une puissance d’un mégawatt, or les très gros data centers exploités par les géants du cloud (Amazon, Google, Microsoft, etc.) ont une puissance comprise entre 100 et 500 mégawatts par site. Donc un centre de données « moyen » de 300 MW consomme environ 7,5 millions de m3 par an, l’équivalent d’une ville européenne de 140 000 habitants. Ces montants ne comprennent pas la consommation d’eau nécessaire à la production d’électricité destinée à alimenter les data centers. Dans de nombreuses régions du globe, y compris en Europe, on observe un développement marqué des épisodes de sécheresse avec des événements plus fréquents, plus longs et plus intenses, en grande partie attribuables au changement climatique. La consommation d’eau des data centers commence à compliquer la gestion des ressources hydriques de la planète, en quantité et en coûts internes ou externes. p

Problèmes financiers

Les projets liés à l’IA (construction de data centers, achats de puces, approvisionnement en énergie et en eau) coûtent cher. Les quatre principaux acteurs, Alphabet (Google), Amazon, Meta (Facebook) et Microsoft ont annoncé un cumul de 600 milliards de dollars d’investissements en 2026 soit 1,6 milliard par jour, des montants multipliés par 2,5 par rapport à 2025, alors même que les perspectives de rentabilité restent floues. Les marchés financiers commencent à sérieusement s’en inquiéter, au risque de compromettre les levées de fonds, en capital ou en dette puisque selon Morgan Stanley la moitié des sommes devront être empruntées. Les investisseurs ont sanctionné plusieurs « gros bras ». Début février, l’action Microsoft a dévissé de plus de 18 pour cent sur le Nasdaq avant un net rebond. Du 4 au 10 février, l’action Amazon a chuté de 11,2 pour cent, effaçant plus de 200 milliards de dollars de capitalisation, après que la société a annoncé une hausse de 50 pour cent de ses investissements en vue de muscler ses infrastructures de données et ses capacités de calcul, pour les porter à environ 200 milliards contre 130 en 2025, et alors que les analystes attendaient plutôt une « enveloppe » de 150 milliards.

Cette somme, correspondant à presque trois fois les bénéfices de 2025, est jugée insoutenable par une large partie de la communauté financière car elle va peser lourdement sur la rentabilité à l’heure où les revenus directs tirés de l’IA ne progressent pas encore de manière soutenue.

Alphabet a également essuyé un repli, mais plus limité, de 4,3 pour cent après l’annonce d’un plan d’investissement dans l’IA culminant à 185 milliards de dollars pour 2026, plus que ses dépenses cumulées sur les trois dernières années. Malgré la méfiance ambiante, le géant de Mountain View a néanmoins réussi, les 9 et 10 février, à emprunter 32 milliards de dollars (la demande était trois fois plus forte) dont une partie en émettant une obligation à cent ans. gc

Georges Canto
© 2026 d’Lëtzebuerger Land