"Bonjour", "s’il te plaît", "merci"... De nombreux utilisateurs de l’intelligence artificielle générative prennent le temps d’écrire des formules de politesse dans leurs requêtes, aussi appelées prompts. Il ne leur viendrait pourtant pas à l’idée d’être aussi polis avec leur micro-ondes ou leur machine à café.
Ce n’est toutefois pas si bête. Dès 1996, 2 chercheurs de l’université de Stanford se penchent sur le sujet. Ils démontrent que les utilisateurs d’un appareil imitant certains comportements sociaux ont tendance à traiter celui-ci comme un humain, "même s’ils savent que c’est idiot".
De meilleures réponses
Au-delà d’un réflexe naturel, être poli avec ChatGPT peut avoir de réels bénéfices. En 2024, des chercheurs de l’université de Waseda, à Tokyo, ont testé l’impact de la courtoisie sur les réponses données par l’IA. Ils en concluent que "la politesse dans les prompts peut avoir une influence significative sur les performances (de l’agent conversationnel)".
L’intelligence artificielle générative étant programmée pour refléter les comportements humains, une attitude neutre et respectueuse permettrait de limiter certains biais, tandis que l’usage de formules grossières et impolies pousseraient l’IA à refuser de répondre à certaines requêtes.
L’étude souligne surtout que le niveau de politesse attendu dépend beaucoup de la langue dans laquelle l’IA a été entraînée. Un phénomène qui rappelle que les agents conversationnels ne sont pas culturellement neutres et que leur façon de répondre est influencée par la langue dans laquelle ils ont été entrainés.
Une forte consommation énergétique
Si remercier ChatGPT semble ne pas être une mauvaise chose, il faut toutefois rappeler que chaque requête sollicite beaucoup d’énergie. Une simple question peut consommer jusqu’à 10 fois plus d’électricité si elle est posée à ChatGPT plutôt qu’à Google, selon l’Agence internationale de l’énergie.
Pour aller plus loin : Comment la prévision des tempêtes et des canicules fait des bonds grâce à l'IA
Cette dernière alarme sur la forte hausse de la demande en électricité des data centers, les centres de stockage des données. Elle estime qu’ils auront besoin de 2 fois plus d’électricité pour fonctionner d’ici 2030. En effet, si en 2024 leur consommation annuelle représentait 415 TWh, soit 1,5 % de la production mondiale d’électricité, celle-ci devrait atteindre 945 TWh dans 5 ans. Une consommation équivalente à celle du Japon.
En plus de représenter un défi de souveraineté et d’approvisionnement énergétique, le développement des data centers soulève des enjeux de gestion de l’eau. Leur puissance entraînant de forts risques de surchauffe, ils ont besoin d’être refroidis.
En 2023, Google révélait dans son rapport environnemental avoir consommé 28 milliards de litres d’eau potable en une année, dont les deux tiers uniquement pour refroidir ses data centers. Un chiffre qui n’est pas près de diminuer.