L’IA jouera un rôle déterminant dans la croissance économique future, mais elle doit être développée de manière responsable pour éviter des risques à long terme — pour la société dans son ensemble comme pour votre portefeuille.
Croissance rapide, adoption massive
L’adoption de l’IA a été fulgurante : plus de 75 % des entreprises l’utilisent, et OpenAI a déclaré plus de 500 millions d’utilisateurs hebdomadaires début 2025, selon CNBC. Les gouvernements investissent massivement pour soutenir sa croissance — par exemple, les 500 milliards de dollars du programme Stargate aux États-Unis ou les 200 milliards d’euros du plan IA en Europe. Parallèlement, les géants de la tech - Microsoft, Amazon et Nvidia entre autres - développent serveurs et infrastructures d’IA.
L'IA pour le bien commun
L’IA n’est pas seulement un moteur de croissance financière — elle est aussi un outil puissant pour relever certains des plus grands défis environnementaux et sociaux dans le monde.
D’un côté, elle offre des solutions favorisant la durabilité environnementale : gestion plus efficace des réseaux électriques, réduction des déchets, prévisions en matière de pollution. Elle permet aux agriculteurs d’améliorer la stabilité des rendements agricoles grâce à l’étude de données sur le climat, le sol ou les récoltes. Elle peut également accroître la fiabilité des énergies renouvelables, comme le solaire et l’éolien, en anticipant la disponibilité des sources d’énergie.
De l’autre, l’IA peut répondre à des enjeux sociaux via ses applications dans la santé (détection des maladies, traitements personnalisés, découverte de médicaments), l’éducation (apprentissage personnalisé, feedback en temps réel) et en matière d’inclusion financière (nouvelles méthodes de notation de crédit) — contribuant ainsi aux Objectifs de Développement Durable de l’ONU (ODD) dans de nombreux cas d’usage.
Les inconvénients, voire les dérives ?
L’IA révolutionne les chaînes d’approvisionnement, le service client et l’innovation. Mais sa montée en puissance rapide entraîne aussi des défis environnementaux et sociaux majeurs qui, s’ils ne sont pas maîtrisés, peuvent se transformer en risques financiers.
L’entraînement des grands modèles d’IA consomme énormément d’électricité, et les centres de données pourraient plus que doubler leur consommation d’énergie d’ici cinq ans — ce qui aurait un impact sur les coûts et les émissions carbone. Les entreprises qui négligent cet aspect risquent des contrecoups économiques et des sanctions réglementaires.
La consommation en eau représente également une préoccupation majeure en amont de la chaîne de valeur de l’IA, notamment lors de l’extraction minière et de la fabrication du matériel informatique qui héberge les logiciels d’IA — les usines de semi-conducteurs, par exemple, consomment d’importantes quantités d’eau ultrapure. Les pénuries d’eau auxquelles l’IA peut ainsi contribuer nuisent aux écosystèmes, mais génèrent aussi des risques pour la production, augmentant les coûts pour les entreprises.
La prise de conscience des risques de durabilité liés à l’IA a donc un impact multiple : financier (sur la valeur des portefeuilles des investisseurs), environnemental et également social. Car sur ce plan, l’un des grands défis est le remplacement des emplois. L’IA devrait automatiser de nombreux postes (comme le service client, par exemple). En l’absence de programmes de reconversion et de transition professionnelle, les inégalités pourraient s’aggraver.
Par ailleurs, le paysage géopolitique devient de plus en plus fragmenté, les pays se livrant une concurrence féroce pour dominer le secteur de l’IA.
Réglementation et gouvernance
Le cadre réglementaire de l’IA évolue rapidement, les décideurs politiques cherchant à traiter à la fois les risques en matière de durabilité et les implications technologiques au sens large. Si l’Union européenne mène la marche avec l’IA Act, la régulation aux États-Unis reste fragmentée, en l’absence de cadre fédéral unifié.
Face à des innovations qui progressent plus vite que la réglementation, les initiatives issues de l’industrie de l’IA jouent un rôle essentiel pour définir des pratiques d’IA responsable . Tandis que divers cadres mondiaux (OCDE, ONU…) promeuvent un développement de l’IA compatible avec les principes de durabilité, les droits humains et la responsabilisation des acteurs, de plus en plus d’entreprises reconnaissent que l’IA éthique constitue à la fois un impératif de gouvernance et un potentiel avantage concurrentiel.
Les entreprises qui intègrent des garde-fous éthiques, mènent des audits indépendants et mettent en place des structures de gouvernance claires seront mieux armées pour profiter d’une croissance durable.
Développer une approche ESG de l’IA
L’IA présente une combinaison unique d’opportunités et de risques dont les implications seront importantes pour les investisseurs. Un cadre analytique ESG peut être un outil précieux pour évaluer de manière robuste et structurée la manière dont les entreprises gèrent ces risques liés à l’IA.
Ce cadre d’analyse doit être adapté et flexible, en raison de la diversité des applications de l’IA et des types d’exposition des entreprises à cette technologie. Au-delà de la simple question de savoir si une entreprise utilise l’IA, les investisseurs doivent s’attacher à comment elle l’utilise, et quelles structures de gouvernance elle a mises en place pour gérer les risques potentiels. Cela implique d’analyser l’adoption des principes d’IA responsable par l’entreprise, ainsi que sa transparence quant à l’évaluation des risques pour les droits humains — et de comprendre comment ces principes se traduisent concrètement dans la prise de décision de la société, ses chaînes d’approvisionnement et ses interactions avec les clients.
L’engagement actionnarial constitue un levier puissant pour les investisseurs.
Il permet non seulement de prendre des décisions d’investissement plus éclairées, mais aussi d’encourager, par le dialogue actif avec les entreprises, la participation à des initiatives collaboratives, ou, par l’exercice du droit de vote, une plus grande transparence sur les risques liés à l’IA et les mesures mises en place pour les encadrer.
Il permet également de mieux comprendre les pratiques de gouvernance là où les informations publiques sont insuffisantes, et de favoriser le développement d’une IA plus responsable.
L'IA pour un monde meilleur ?
Le prisme ESG est un outil puissant pour évaluer les risques et opportunités générés par la révolution de l’IA. En tant que détenteurs du capital, les investisseurs ont un rôle déterminant à jouer dans l’orientation de l’IA, en promouvant activement des pratiques responsables et en contribuant à maîtriser les défis environnementaux et sociaux qu’elle soulève.
De plus, une collaboration étroite avec les décideurs publics, les leaders industriels et la société civile est nécessaire pour bâtir un écosystème d’IA plus transparent, responsable et durable.
En concentrant leurs efforts à travers le prisme ESG, les investisseurs peuvent s’assurer que le potentiel de l’IA est exploité pour le bien commun, génère de la valeur à long terme et contribue à un monde plus durable.
DISCLAIMER
Ce document est fourni à titre d’information et à des fins éducatives uniquement et peut contenir des opinions de Candriam et des informations propriétaires. Il ne constitue pas une offre d’achat ou de vente d’instruments financiers, ni un conseil en investissement et ne confirme aucune transaction, sauf convention contraire expresse. Bien que Candriam sélectionne soigneusement les données et sources utilisées, des erreurs ou omissions ne peuvent pas être exclues a priori. Candriam ne peut être tenue responsable de dommages directs ou indirects résultant de l'utilisation de ce document. Les droits de propriété intellectuelle de Candriam doivent être respectés à tout moment; le contenu de ce document ne peut être reproduit sans accord écrit préalable.
Contenu rédigé par Candriam.