L'intelligence artificielle (IA) et la digitalisation sont exposés à des risques sociaux importants pouvant se matérialiser par des pertes d'emplois, des problèmes de sécurité accrus ou une discrimination croissante. L'IA générative (IAg) pourrait conduire à une automatisation massive des tâches qui impliquerait potentiellement des pertes d'emplois dans les secteurs les plus impactés. Il existe un risque majeur d'incompatibilité entre les bénéfices financiers (court terme) induits par le développement et le déploiement de l'IA, en particulier avec l'IAg, et sa contribution à l’humanité. Une récente étude de l'Institut de recherche Capgemini a révélé que 72 % des consommateurs s'inquiétaient de l'usage inapproprié de la technologie IAg. Selon l'AI Incidents Monitor (AIM) de l'OCDE, ces risques ont considérablement augmenté depuis le début de 2023.
L’IAg est également exposée à des risques environnementaux sur toute sa chaîne de valeur, et son usage croissant devrait conduire à une augmentation des émissions de carbone. Les constructions de nouvelles infrastructures de centres de données questionnent également la capacité des réseaux énergétiques nationaux à répondre à la hausse attendue de la demande d'électricité liée à l'IA et à fournir suffisamment d'électricité renouvelable. Par ailleurs, nous devons également tenir compte du besoin important de minéraux et métaux rares, et de la génération de déchets électroniques qui résulteraient de la production d’infrastructures et d'applications liées à l’IAg.
Pour les investisseurs, il n'y a aucune solution clé en main pour faire face aux multiples risques posés par l'adoption rapide de l’IA et de l’IAg. Les outils d'engagement et de stewardship seront les plus efficaces. Afin d’atténuer les risques sociaux et environnementaux posés par ces technologies, les investisseurs attendent des entreprises (qui les développent ou les utilisent) la mise en place de pratiques responsables d'IA. Les organisations doivent établir des principes clairs sur la manière dont elles appliquent l’IAg, et mettre en place des garde-fous afin d'en assurer la mise en œuvre en toute sécurité et éviter notamment les biais, la discrimination, la désinformation et les atteintes à la vie privée. Si les impacts environnementaux de l’IA peuvent s’atténuer avec la réduction de la consommation d'énergie des utilisateurs finaux, l'efficacité énergétique des centres de données ou encore la décarbonisation du réseau électrique, les investisseurs restent préoccupés quant à la capacité du secteur de la technologie à atteindre ses objectifs en matière de climat. Les développeurs et les utilisateurs de l'IA devront investir de manière substantielle dans la génération d'énergie renouvelable additionnelle.
L’IAg est également exposée à des risques environnementaux sur toute sa chaîne de valeur, et son usage croissant devrait conduire à une augmentation des émissions de carbone.
La réglementation peut également supporter la mise en place de pratiques responsables dans le secteur. La loi européenne sur l’IA, approuvée le mois dernier, constitue un bon cadre d’analyse basé sur les risques. Elle permet d’évaluer et de qualifier les systèmes de gouvernance et de gestion des risques des entreprises. En outre, de nombreux outils d'engagement ont été publiés au cours des six derniers mois, tels que le WEF Responsible AI for Investors (juin 2024), le RIA Australasia AI and Human Rights Investor Toolkit et AI : An engagement Guide de l'ICGN (mars 2024). Ces derniers peuvent guider les investisseurs dans la création d'un cadre d'engagement robuste pour « l'IA Responsable ».
Dans le secteur de la gestion d'actifs, des modèles d’IA peuvent être utilisés pour élaborer des stratégies d'investissement quantitatives et des processus de gestion des risques innovants, mais également pour tendre à améliorer les performances des portefeuilles. Selon une étude menée par Harvard, l’IA peut contribuer à accélérer les analyses financières en facilitant, par exemple, la lecture de milliers de pages de documents afin de déceler des informations que les humains ne pourraient pas identifier. La Française Systematic Asset Management, société de gestion d'actifs du groupe La Française, a créé un système pour intégrer les relations et interactions non linéaires complexes des données financières. Le système utilise des modèles d'apprentissage automatique de pointe, et les combine avec un modèle comportemental classique permettant de détecter rapidement les chocs endogènes, en réagissant de manière dynamique à l'évolution de l'environnement de marché. Les mêmes principes peuvent être appliqués à l'analyse de durabilité, où des outils d'IA ont été déployés pour identifier les risques plus rapidement et plus efficacement.
Les outils fondés sur l'IA se sont également révélés très efficaces pour identifier les défaillances de gouvernance et les controverses au niveau global, ce qui serait impossible à réaliser manuellement par un analyste humain.
Chez Crédit Mutuel Asset Management, nous utilisons des données ESG de fournisseurs tiers, parfois alimentées par des outils d'IA, pour améliorer notre analyse ESG propriétaire au niveau quantitatif et qualitatif. Les outils fondés sur l'IA se sont également révélés très efficaces pour identifier les défaillances de gouvernance et les controverses au niveau global, ce qui serait impossible à réaliser manuellement par un analyste humain.
Retrouvez toutes nos actualités.
Investir comporte des risques, notamment de perte en capital, prenez-en connaissance. La référence à certaines valeurs ou instruments financiers est donnée à titre d’illustration. Elle n’a pas pour objectif de promouvoir l’investissement en direct dans ces instruments.
Deepshika SINGH, Responsable de l’engagement et responsable adjointe de la recherche extra-financière chez Crédit Mutuel Asset Management