Pourquoi 2026 sera l’année de l’IA Responsable
aukidphumsirichat sur Canva x James Martin
Ces dernières années ont été particulièrement mouvementées dans le domaine de l'intelligence artificielle (IA), notamment en ce qui concerne les investissements colossaux dans des startups et infrastructures.
2025 aura aussi été l’année où les employés du monde entier, dans des entreprises de toutes tailles, ont eu accès à des comptes LLM (large language models, ou chatbots) d'entreprise, sans pour autant qu’on leur dise comment bien s’en servir.
Dans le même temps, les risques liés à une utilisation incontrôlée de l'IA générative et agentique sont devenus difficiles à ignorer.
Des risques en veux-tu en voilà…
Rappelez-vous, en janvier dernier, Emmanuel Macron a déclaré que Meta « se moquait de nous » lorsque l’entreprise américaine a refusé de retirer une vidéo deepfake (lorsque l’IA sert à créer de fausses vidéos) qui mettait en images un faux coup d’État ; vidéo qui aura été vue 13 millions de fois.
N’oublions pas non plus le développeur vu en train de coller des centaines de fiches de données clients dans ChatGPT, parce qu'il « avait juste besoin d’aide pour une requête SQL ». Incident qui rappelle pourquoi Samsung a purement et simplement interdit le produit phare d'OpenAI en 2023, après qu’un employé y ait soumis une partie de la base de code de l'entreprise.
Les questions de droits d’auteur ont également pris de l'ampleur en 2025. Dans le domaine de la mode, le « Frankensteining » est désormais monnaie courante : les mannequins sont engagés pour une seule séance photo, scannés, puis reproduits dans un nombre infini de campagnes, sans que les droits à l’image ne leur soient payés. Une situation similaire touche les acteurs hollywoodiens depuis un certain temps déjà.
Il y a ensuite les impacts énergétiques et environnementaux : les centres de données nécessaires à toutes ces activités d'IA gourmandes en ressources se multiplient si rapidement que certains États américains sont déjà à court d'électricité pour les alimenter. Même Elon Musk a reconnu ce risque de pénurie, lors du sommet de Davos 2026 - pénurie qui, à son tour, fait grimper les factures d’électricité des consommateurs américains, qui se mettent à bloquer les projets de construction de datacentres partout dans le pays.
Un besoin de gouvernance IA
Alors, comment pouvez-vous, et votre entreprise, vous protéger contre les « éléments d'irrationalité » de l’IA (comme les appelle Sundar Pichai, le CEO de Google) ? Surtout dans un contexte où des réglementations telles que l’AI Act ou le RGPD semblent de plus en plus susceptibles d’être édulcorées, ce qui pourrait conduire à une responsabilité de moins en moins grande.
La réponse est claire : en 2026, les organisations n’ayant pas mis en place de gouvernance IA s’exposeront à bon nombre des risques susmentionnés, voire à davantage.
Selon un récent rapport de KPMG, plus de la moitié des salariés américains utilisent le « shadow AI » lorsqu’ils se servent de leur compte LLM personnel pour les aider dans leur travail, malgré les risques évidents de sécurité que cela comporte (repensez à Samsung…).
Ceci dit, rien ne les en empêche : 59 % des entreprises américaines ne disposent actuellement pas de charte ou de code de bonne conduite de l’IA.
Pourtant, une « Charte IA Responsable » qui définirait les règles d’utilisation des LLM et des technologies connexes par les membres du personnel, n’est pas forcément compliquée à mettre en place.
Elle pourrait tout d’abord imposer l’utilisation d’un LLM « officiel » au sein de son organisation ; de préférence un outil dont les données restent confidentielles, c’est-à-dire ne servent pas à former d’autres modèles de son fabricant (pratique par défaut d’OpenAI, Google, et Perplexity).
Par ailleurs, cette charte pourrait - voire devrait - insister pour que tout contenu généré par un LLM soit vérifié par un humain, avant d’être partagé en externe. 58 % des salariés ne procèdent pas à cette étape aujourd’hui, d’après KPMG. Un autre risque de taille pour toute organisation (car oui, les LLMs hallucinent…)
Dernière étape essentielle : il faudrait bien sûr veiller à ce que tous les membres du personnel soient formés, afin d’être plus conscients des risques de l’IA. Cette formation devra notamment insister fortement sur le fait qu’aucune information confidentielle ou sensible, en particulier celle des clients, ne doit jamais être saisie dans un LLM.
Enfin, si pertinent pour votre entreprise, le personnel doit également être conscient des implications de l’IA en matière de droits d'auteur.
S’assurer d’une utilisation IA responsable et frugale
Toute bonne gouvernance IA se doit d’inclure des notions clés de durabilité et de souveraineté.
Si vous choisissez un modèle hébergé par une entreprise européenne dans un centre de données de l’UE, alors seules les lois européennes (telles que le RGPD) s’appliquent.
À l’inverse, la législation américaine autorise, dans certains cas, les autorités des États-Unis à accéder aux données gérées par des entreprises américaines, même lorsque celles-ci sont stockées sur des serveurs situés en Europe. À cela s’ajoutent des exemples récents de personnalités politiques ou juridiques européennes privées d’accès à des technologies américaines, notamment Visa et Mastercard, à la suite d’interventions de l’administration Trump. Ces exemples soulignent, une fois encore, l’importance de la souveraineté technologique.
Choisir des modèles open source implique non seulement la possibilité de les héberger où l’on souhaite, mais aussi de surveiller au plus près leurs impacts. Alors que les solutions fermées comme Gemini ou Copilot sont une boîte noire à ce sujet, les modèles open source sont transparents, donc faciles à mesurer. De plus, plus un modèle est petit, c’est-à-dire moins il compte de paramètres, moins il consomme de ressources.
Dès lors, pourquoi ne pas inciter votre CTO à choisir un modèle petit mais performant, hébergé dans l’UE, comme par exemple la série Ministral 3 de Mistral, ou bien d’autres options open source ? À l’heure où la consommation d'électricité et d’eau des centres de données est en forte hausse à cause de l’IA générative (3 à 4 fois plus avant la fin de la décennie), de tels choix pourraient empêcher votre entreprise de faire exploser ses émissions informatiques, et ainsi mettre en péril vos engagements RSE.
Le moment de passer à l’action !
En résumé, après quelques années de croissance et d’adoption à tout prix, assurer la bonne gouvernance de l’IA passera de pratique minoritaire à monnaie courante dans la plupart des entreprises en 2026.
En France, on trouve d'ailleurs déjà des Chartes IA Responsable, tant dans de grandes entreprises comme le Groupe La Poste (226 000 salariés) que dans des startups French Tech 120 comme Shippeo (200 salariés).
Ne serait-il pas temps que votre entreprise saute le pas ?
Auteur : James M., expert People4Impact
James est le fondateur de BetterTech, blog dédié à une utilisation plus responsable des technologies. Il a également conçu et anime “IA Frugale” et "IA Responsable", formations GreenIT.fr consacrées aux risques et aux impacts de l’IA, à comment les gérer et les réduire. James aide aussi diverses entreprises et associations à utiliser la technologie de manière plus responsable. Il était auparavant responsable du contenu et du développement durable chez Scaleway (Groupe Iliad) et a dirigé la communication et la RSE chez Shippeo, en tant que membre du comité RSE, où il a mis en place la première Charte IA Responsable de l’entreprise.