En cette fin février, je vous présente une nouvelle formule de ma veille mensuelle consacrée aux usages de l’intelligence artificielle. Chaque jour, je réalise un travail structuré d’analyse des sources, avec l’appui d’une IA pour la recherche et l’organisation initiale des contenus.
Je sélectionne ensuite une dizaine de cas d’usage significatifs au regard des enjeux opérationnels et stratégiques des entreprises. Chaque fiche, publiée sur le blog « L’IA en action », suit une architecture identique, cite la source primaire et renvoie vers les données sous-jacentes.
Cette veille, augmentée par l’IA mais pilotée par une expertise humaine, vise à fournir une information fiable, structurée et directement exploitable.
IA : le cloud qui fait pousser les tomates 02/2026
PoliCloud (souvent orthographié « Policloud » dans la presse) est une société basée à Cannes, fondée par David Gurlé, qui propose des micro–data centers conteneurisés visant à rapprocher stockage et puissance de calcul des lieux d’usage, avec un discours centré sur la souveraineté, la frugalité (énergie, eau, emprise immobilière) et la rapidité de déploiement. Le cas d’usage mis en avant dans l’article des Echos est agricole : utiliser la puissance de calcul (notamment pour des projets IA) tout en valorisant la chaleur dégagée par l’infrastructure pour chauffer des serres, afin de réduire l’empreinte carbone du chauffage et d’améliorer l’économie du site. (Les Echos, article « Policloud, l’IA qui fait pousser des légumes », Marina Alcaraz, édition du 24/02/2026 ).
Contexte & Enjeux
Le projet s’inscrit dans une double tension que plusieurs sources rappellent : d’un côté, la montée des besoins en calcul liée à l’IA (entraînement, puis surtout inférence), de l’autre, les contraintes structurelles des infrastructures (délais de construction, raccordement électrique, acceptabilité locale, consommation d’eau et d’énergie). Dans la communication de l’entreprise, reprise par plusieurs médias, PoliCloud se positionne comme une réponse distribuée à ces contraintes, en opposant des unités modulaires déployées localement aux grands data centers « hyperscale ». (DataCenterDynamics, « French AI cloud startup Policloud plans 1,000 sovereign micro-data center deployments by 2030 », 16/02/2026, https://www.datacenterdynamics.com/en/news/french-ai-cloud-startup-policloud-plans-1000-sovereign-micro-data-center-deployments-by-2030/ ; PR Newswire, « WAICF 2026 - Policloud accélère son expansion… », 16/02/2026, https://www.prnewswire.com/fr/communiques-de-presse/waicf-2026---policloud-accelere-son-expansion-internationale-et-vise-1-000-micro-data-centers-ia-souverains-dici-2030--302687778.html).
Le cas agricole rapporté par Les Echos illustre un enjeu plus spécifique : transformer une contrainte énergétique (la chaleur produite par le calcul) en ressource locale (chauffage de serre), tout en utilisant la puissance de calcul pour des projets IA. L’article décrit un investissement d’environ 3 M€ par un acteur agricole (Paysans de Rougeline) pour installer un PoliCloud à proximité de serres (fraises, concombres, tomates) et de panneaux solaires qui alimentent l’unité, la chaleur servant ensuite au chauffage des plantations. (Les Echos, 24/02/2026 ).
Au-delà de l’agriculture, le contexte cannois est également structurant : Cannes et l’Agglomération Cannes Lérins présentent PoliCloud comme un levier de souveraineté et de protection des données locales, avec un objectif de contrôle « sous gouvernance locale » et une réduction de dépendance à des acteurs extra-européens. (Ville de Cannes, « World A.I. Cannes Festival : dévoilement du data center PoliCloud », 13/02/2025, https://www.cannes.com/fr/index/actualites/annee-2025/fevrier/world-a-i-cannes-festival-devoilement-du-data-center-policloud.html ; Stratégies, « David Gurlé lance Policloud avec la ville de Cannes », 14/02/2025, https://www.strategies.fr/actualites/culture-tech/LQ4230459C/david-gurle-lance-policloud-avec-la-ville-de-cannes.html).
Solution IA déployée
La solution décrite repose sur des micro–data centers sous forme de conteneurs (formats évoqués de 20 ou 40 pieds), intégrant stockage et ressources de calcul (GPU) pour héberger des workloads cloud/HPC et des usages IA. Les sources insistent sur le caractère « déployé au plus près des données » (logique edge), avec la possibilité de fonctionner en unité autonome ou au sein d’un réseau fédéré. (Nice-Matin, « L’intelligence artificielle fait pousser les tomates !… », Karine Wenger, 13/02/2026, https://www.nicematin.com/economie/l-intelligence-artificielle-fait-pousser-les-tomates-et-on-vous-explique-comment-cette-startup-cannoise-compte-s-y-prendre-10668983 ; PR Newswire, 16/02/2026, https://www.prnewswire.com/fr/communiques-de-presse/waicf-2026---policloud-accelere-son-expansion-internationale-et-vise-1-000-micro-data-centers-ia-souverains-dici-2030--302687778.html).
La proposition de valeur intègre aussi un axe « frugalité » : plusieurs sources (institutionnelles et presse) mettent en avant un refroidissement « sans eau », et une consommation énergétique présentée comme optimisée. La Ville de Cannes décrit un data center « sans eau pour le refroidissement », « économe en énergie », prenant la forme d’un conteneur. Nice-Matin précise qu’une « simple climatisation suffit » au refroidissement, et évoque une unité présentée comme « très frugale ». (Ville de Cannes, 13/02/2025, https://www.cannes.com/fr/index/actualites/annee-2025/fevrier/world-a-i-cannes-festival-devoilement-du-data-center-policloud.html ; Nice-Matin, 13/02/2026, https://www.nicematin.com/economie/l-intelligence-artificielle-fait-pousser-les-tomates-et-on-vous-explique-comment-cette-startup-cannoise-compte-s-y-prendre-10668983).
Sur l’architecture logicielle, plusieurs sources indiquent que le modèle combine des unités matérielles PoliCloud avec la plateforme distribuée de Hivenet (fondée aussi par David Gurlé) pour fédérer stockage et calcul entre nœuds. DataCenterDynamics explique que l’offre combine matériel/infrastructure PoliCloud avec le logiciel de stockage et de calcul distribués de Hivenet, afin de fournir un cloud local via des data centers conteneurisés. (DataCenterDynamics, « PoliCloud raises €7.5m for Edge HPC data center build-out », 30/06/2025, https://www.datacenterdynamics.com/en/news/policloud-raises-75m-for-edge-hpc-data-center-build-out/).
Résultats & Bénéfices
Dans le cas agricole (Les Echos), les bénéfices attendus sont doubles : réduire l’empreinte carbone du chauffage des serres via une énergie thermique « décarbonée » (chaleur issue du calcul, en complément d’une alimentation électrique par panneaux solaires), et rentabiliser l’investissement grâce à la valorisation de la puissance de calcul auprès d’entreprises ou de collectivités ayant des besoins IA. L’objectif est explicitement formulé comme une combinaison « chaleur utile » + revenus potentiels issus du calcul. (Les Echos, 24/02/2026 ).
Pour le segment collectivités, la Ville de Cannes présente le projet comme permettant un stockage sécurisé de données sensibles et l’accès à une puissance de calcul avancée pour l’IA, avec un « contrôle total sur les données » dans une logique de cloud souverain. Stratégies rapporte que Cannes est un « premier grand organisme client » et que la collectivité vise à utiliser la solution pour stocker des données publiques et obtenir de la puissance de calcul pour développer des agents d’IA. (Ville de Cannes, 13/02/2025, https://www.cannes.com/fr/index/actualites/annee-2025/fevrier/world-a-i-cannes-festival-devoilement-du-data-center-policloud.html ; Stratégies, 14/02/2025, https://www.strategies.fr/actualites/culture-tech/LQ4230459C/david-gurle-lance-policloud-avec-la-ville-de-cannes.html).
À l’échelle de l’entreprise, plusieurs sources décrivent un démarrage rapide : la feuille de route 2026–2030 s’appuie sur des installations déjà réalisées (ou engagées) sur plusieurs zones géographiques, ce qui est présenté comme une validation de l’intérêt du marché. PR Newswire indique 8 installations réalisées en moins de six mois (France, GCC, États-Unis), représentant 10,5 M€ de contrats et plus de 1 200 GPU déjà déployés. DataCenterDynamics reprend ces ordres de grandeur en les attribuant à l’entreprise. (PR Newswire, 16/02/2026, https://www.prnewswire.com/fr/communiques-de-presse/waicf-2026---policloud-accelere-son-expansion-internationale-et-vise-1-000-micro-data-centers-ia-souverains-dici-2030--302687778.html ; DataCenterDynamics, 16/02/2026, https://www.datacenterdynamics.com/en/news/french-ai-cloud-startup-policloud-plans-1000-sovereign-micro-data-center-deployments-by-2030/).
Facteurs clés de succès
Un facteur central est l’adéquation « infrastructure + récit souverain ». Cannes met en avant la souveraineté numérique et la protection des données locales ; Petites Affiches ajoute l’argument de l’évitement des lois extraterritoriales de type Cloud Act, en présentant l’initiative comme une alternative locale et souveraine. (Ville de Cannes, 13/02/2025, https://www.cannes.com/fr/index/actualites/annee-2025/fevrier/world-a-i-cannes-festival-devoilement-du-data-center-policloud.html ; Petites Affiches, « Un micro data center local, sécurisé et économe… », 15/02/2025, https://www.petitesaffiches.fr/politique,104/cannes-un-micro-data-center-local,33531.html?lang=fr).
La capacité à s’insérer dans des écosystèmes territoriaux apparaît également décisive. Le modèle décrit par Frenchweb repose sur des partenariats avec des municipalités hébergeant les nœuds, fournissant électricité et connectivité, et bénéficiant de retombées locales. Ce mécanisme d’ancrage territorial est cohérent avec la logique de micro–data centers distribués. (Frenchweb, « PoliCloud lève 7,5 millions d’euros… », 26/06/2025, https://www.frenchweb.fr/policloud-leve-75-millions-deuros-pour-batir-une-infrastructure-cloud-souveraine-et-distribuee/455784).
Sur la crédibilité technologique, plusieurs sources soulignent la combinaison de matériel conteneurisé et d’une couche logicielle distribuée (Hivenet), ainsi que l’appui d’acteurs de la recherche : Sophianet indique que la technologie Hivenet a été développée avec l’aide d’Inria Sophia pour fédérer des data centers distincts dans un réseau unique et sécurisé. (Sophianet, « WAICF : Hivenet lance PoliCloud… », 14/02/2025, https://www.sophianet.com/article/waicf-hivenet-lance-poli-cloud-mini-data-center-conteneur-).
Enfin, la promesse de rapidité de déploiement est un facteur différenciant souvent cité : Nice-Matin rapporte que PoliCloud met en avant la possibilité de fournir « jusqu’à dix » conteneurs par mois, ce qui répond à la contrainte de délais, fréquemment associée aux grands projets de data centers. (Nice-Matin, 13/02/2026, https://www.nicematin.com/economie/l-intelligence-artificielle-fait-pousser-les-tomates-et-on-vous-explique-comment-cette-startup-cannoise-compte-s-y-prendre-10668983).
Freins & Obstacles rencontrés
Les sources disponibles décrivent davantage des risques et contraintes structurelles du secteur que des difficultés opérationnelles déjà rencontrées sur un projet précis. PR Newswire liste explicitement les contraintes que le modèle distribué prétend contourner : délais de construction, raccordement électrique et acceptabilité locale. Le fait que ces points soient cités comme obstacles majeurs à contourner indique qu’ils pèsent sur la capacité à passer à l’échelle, même si la promesse est de les réduire via le modulaire. (PR Newswire, 16/02/2026, https://www.prnewswire.com/fr/communiques-de-presse/waicf-2026---policloud-accelere-son-expansion-internationale-et-vise-1-000-micro-data-centers-ia-souverains-dici-2030--302687778.html).
Un autre frein potentiel relève de l’accès aux GPU et de la tension sur les ressources de calcul. Solutions Numériques relie la feuille de route de Policloud à un contexte de pénurie de GPU et de tension énergétique autour des infrastructures d’IA ; l’article souligne que les arbitrages budgétaires et l’accès aux ressources deviennent plus complexes, notamment pour des acteurs publics et des organisations intermédiaires. (Solutions Numériques, « Micro-data centers IA souverains : Policloud vise 1 000 unités d’ici 2030 », 13/02/2026, https://www.solutions-numeriques.com/micro-data-centers-ia-souverains-policloud-vise-1-000-unites-dici-2030/).
Perspectives & Évolutions
La trajectoire annoncée est un passage à l’échelle rapide : 100 unités en 2026, puis 1 000 unités d’ici fin 2030. PR Newswire associe cette trajectoire à une expansion géographique en Europe, dans le Golfe (GCC) et aux États-Unis, en citant des projets en France, aux Émirats arabes unis et au Texas. DataCenterDynamics reprend la même feuille de route, en la replaçant dans une logique « edge » et en rappelant les volumes de GPU associés à l’objectif 2030. (PR Newswire, 16/02/2026, https://www.prnewswire.com/fr/communiques-de-presse/waicf-2026---policloud-accelere-son-expansion-internationale-et-vise-1-000-micro-data-centers-ia-souverains-dici-2030--302687778.html ; DataCenterDynamics, 16/02/2026, https://www.datacenterdynamics.com/en/news/french-ai-cloud-startup-policloud-plans-1000-sovereign-micro-data-center-deployments-by-2030/).
Sur le positionnement marché, les sources de 2025–2026 convergent vers une cible prioritaire « secteur public / collectivités », tout en mentionnant des usages privés. Frenchweb décrit des partenariats avec municipalités, et DataCenterDynamics indique que les fonds levés en 2025 visent notamment à recruter une équipe opérationnelle et à croître « avec un focus sur les entités publiques en Europe ». (Frenchweb, 26/06/2025, https://www.frenchweb.fr/policloud-leve-75-millions-deuros-pour-batir-une-infrastructure-cloud-souveraine-et-distribuee/455784 ; DataCenterDynamics, 30/06/2025, https://www.datacenterdynamics.com/en/news/policloud-raises-75m-for-edge-hpc-data-center-build-out/).
L’agriculture apparaît comme un segment d’illustration particulièrement parlant : Nice-Matin indique que la solution « suscite aussi l’intérêt des agriculteurs » et décrit un schéma où l’énergie solaire alimente le micro–data center, tandis que la chaleur générée est injectée dans les serres, David Gurlé résumant l’idée par une « chaudière numérique ». Ce récit renforce la perspective d’extension à d’autres sites où chaleur et électricité locale peuvent être valorisées. (Nice-Matin, 13/02/2026, https://www.nicematin.com/economie/l-intelligence-artificielle-fait-pousser-les-tomates-et-on-vous-explique-comment-cette-startup-cannoise-compte-s-y-prendre-10668983 ; Les Echos, 24/02/2026 ).
Données clés (vulgarisées)
Plusieurs niveaux de « configuration » apparaissent selon les sources. À Cannes, Sophianet décrit le conteneur présenté en 2025 comme intégrant 2 pétaoctets d’espace disque et 104 GPU Nvidia, proposé à l’achat (800 000 €) ou en location, pour des usages de stockage et d’entraînement de modèles IA au bénéfice de la commune et de son écosystème. (Sophianet, 14/02/2025, https://www.sophianet.com/article/waicf-hivenet-lance-poli-cloud-mini-data-center-conteneur-).
À l’échelle de la gamme, Les Echos indiquent qu’une unité peut aller jusqu’à 400 GPU ; DataCenterDynamics (février 2026) reprend également un maximum de « jusqu’à 400 GPU par unité », en ajoutant un ordre de grandeur de puissance (capacité 500 kW) et une emprise pouvant aller « jusqu’à 100 m² » selon leur description. (Les Echos, 24/02/2026 ; DataCenterDynamics, 16/02/2026, https://www.datacenterdynamics.com/en/news/french-ai-cloud-startup-policloud-plans-1000-sovereign-micro-data-center-deployments-by-2030/).
Sur les coûts unitaires, Nice-Matin avance une fourchette de 1,2 M€ à 4,2 M€ selon taille et nombre de GPU, et mentionne un déploiement rapide rendu possible par le format conteneur. L’article des Echos (capture) évoque, dans un cas agricole, un investissement d’environ 3 M€ pour un site (serres + production solaire + unité de calcul/chaleur). (Nice-Matin, 13/02/2026, https://www.nicematin.com/economie/l-intelligence-artificielle-fait-pousser-les-tomates-et-on-vous-explique-comment-cette-startup-cannoise-compte-s-y-prendre-10668983 ; Les Echos, 24/02/2026 ).
Sur la traction commerciale et le passage à l’échelle, PR Newswire indique 8 installations en moins de six mois (France, GCC, États-Unis), 10,5 M€ de contrats et plus de 1 200 GPU déjà déployés, puis une cible de 100 unités en 2026 (plus de 25 000 GPU) et 1 000 unités fin 2030 (plus de 250 000 GPU). DataCenterDynamics et Solutions Numériques reprennent la même feuille de route et insistent sur la dimension « réseau fédéré » et la logique d’inférence IA. (PR Newswire, 16/02/2026, https://www.prnewswire.com/fr/communiques-de-presse/waicf-2026---policloud-accelere-son-expansion-internationale-et-vise-1-000-micro-data-centers-ia-souverains-dici-2030--302687778.html ; DataCenterDynamics, 16/02/2026, https://www.datacenterdynamics.com/en/news/french-ai-cloud-startup-policloud-plans-1000-sovereign-micro-data-center-deployments-by-2030/ ; Solutions Numériques, 13/02/2026, https://www.solutions-numeriques.com/micro-data-centers-ia-souverains-policloud-vise-1-000-unites-dici-2030/).
Enfin, sur le financement, PoliCloud a annoncé une levée de 7,5 M€ (seed) en 2025, menée par Global Ventures, avec la participation de MI8 Limited, OneRagtime et Inria (via Inria Participations), ainsi que d’autres investisseurs privés. Cette levée vise notamment à recruter une équipe opérationnelle et à soutenir le déploiement européen et international. (Sophianet, « Cannes : PoliCloud lève 7,5 M€… », 07/07/2025, https://www.sophianet.com/article/cannes-poli-cloud-leve-7-5-me-cinq-mois-lancement ; DataCenterDynamics, 30/06/2025, https://www.datacenterdynamics.com/en/news/policloud-raises-75m-for-edge-hpc-data-center-build-out/ ; Frenchweb, 26/06/2025, https://www.frenchweb.fr/policloud-leve-75-millions-deuros-pour-batir-une-infrastructure-cloud-souveraine-et-distribuee/455784).
Acteurs & Partenaires
Le porteur est David Gurlé, présenté par plusieurs médias comme ancien dirigeant passé par Microsoft et fondateur de Symphony, et comme fondateur de Hivenet (couche logicielle distribuée) et de PoliCloud (infrastructure conteneurisée). (Nice-Matin, 13/02/2026, https://www.nicematin.com/economie/l-intelligence-artificielle-fait-pousser-les-tomates-et-on-vous-explique-comment-cette-startup-cannoise-compte-s-y-prendre-10668983 ; DataCenterDynamics, 30/06/2025, https://www.datacenterdynamics.com/en/news/policloud-raises-75m-for-edge-hpc-data-center-build-out/).
Côté collectivités, Cannes et l’Agglomération Cannes Lérins apparaissent comme partenaires et vitrines : la Ville de Cannes décrit le PoliCloud « inventé à Cannes », « propulsé par Hivenet », et indique que Cannes devient la première ville de France à adopter une solution de cloud décentralisé combinant stockage sécurisé et puissance de calcul pour l’IA. Stratégies précise que le projet a été lancé en partenariat avec la Ville de Cannes, présentée comme premier grand organisme client. (Ville de Cannes, 13/02/2025, https://www.cannes.com/fr/index/actualites/annee-2025/fevrier/world-a-i-cannes-festival-devoilement-du-data-center-policloud.html ; Stratégies, 14/02/2025, https://www.strategies.fr/actualites/culture-tech/LQ4230459C/david-gurle-lance-policloud-avec-la-ville-de-cannes.html).
Sur la dimension recherche/écosystème, Sophianet mentionne Inria Sophia comme appui au développement de la technologie de cloud distribué (Hivenet) permettant de fédérer des data centers dans un réseau sécurisé. Sur la dimension financement, la levée seed réunit Global Ventures (lead), MI8 Limited, OneRagtime et Inria Participations, cités de façon convergente par Sophianet, DataCenterDynamics et Frenchweb. (Sophianet, 14/02/2025, https://www.sophianet.com/article/waicf-hivenet-lance-poli-cloud-mini-data-center-conteneur- ; Sophianet, 07/07/2025, https://www.sophianet.com/article/cannes-poli-cloud-leve-7-5-me-cinq-mois-lancement ; DataCenterDynamics, 30/06/2025, https://www.datacenterdynamics.com/en/news/policloud-raises-75m-for-edge-hpc-data-center-build-out/ ; Frenchweb, 26/06/2025, https://www.frenchweb.fr/policloud-leve-75-millions-deuros-pour-batir-une-infrastructure-cloud-souveraine-et-distribuee/455784).
Enfin, sur l’agriculture, Les Echos citent un acteur opérationnel clé : Franck Vila, dirigeant d’exploitations dans le sud de la France, lié au groupement Paysans de Rougeline, qui indique avoir investi environ 3 M€ pour s’équiper afin de chauffer ses serres et valoriser la puissance de calcul. (Les Echos, 24/02/2026 ).
Références & Sources
Les Echos, article « Policloud, l’IA qui fait pousser des légumes », Marina Alcaraz, édition du 24/02/2026 (capture fournie par l’utilisateur).
Ville de Cannes, « World A.I. Cannes Festival : dévoilement du data center PoliCloud », 13/02/2025, https://www.cannes.com/fr/index/actualites/annee-2025/fevrier/world-a-i-cannes-festival-devoilement-du-data-center-policloud.html
Stratégies, « David Gurlé lance Policloud avec la ville de Cannes », 14/02/2025, https://www.strategies.fr/actualites/culture-tech/LQ4230459C/david-gurle-lance-policloud-avec-la-ville-de-cannes.html
Sophianet, « WAICF : Hivenet lance PoliCloud, le mini data center en conteneur », 14/02/2025, https://www.sophianet.com/article/waicf-hivenet-lance-poli-cloud-mini-data-center-conteneur-
Sophianet, « Cannes : PoliCloud lève 7,5 M€, cinq mois après son lancement », 07/07/2025, https://www.sophianet.com/article/cannes-poli-cloud-leve-7-5-me-cinq-mois-lancement
Frenchweb, « PoliCloud lève 7,5 millions d’euros pour bâtir une infrastructure cloud souveraine et distribuée », 26/06/2025, https://www.frenchweb.fr/policloud-leve-75-millions-deuros-pour-batir-une-infrastructure-cloud-souveraine-et-distribuee/455784
DataCenterDynamics, « PoliCloud raises €7.5m for Edge HPC data center build-out », 30/06/2025, https://www.datacenterdynamics.com/en/news/policloud-raises-75m-for-edge-hpc-data-center-build-out/
DataCenterDynamics, « French AI cloud startup Policloud plans 1,000 sovereign micro-data center deployments by 2030 », 16/02/2026, https://www.datacenterdynamics.com/en/news/french-ai-cloud-startup-policloud-plans-1000-sovereign-micro-data-center-deployments-by-2030/
PR Newswire, « WAICF 2026 - Policloud accélère son expansion internationale… », 16/02/2026, https://www.prnewswire.com/fr/communiques-de-presse/waicf-2026---policloud-accelere-son-expansion-internationale-et-vise-1-000-micro-data-centers-ia-souverains-dici-2030--302687778.html
Solutions Numériques, « Micro-data centers IA souverains : Policloud vise 1 000 unités d’ici 2030 », 13/02/2026, https://www.solutions-numeriques.com/micro-data-centers-ia-souverains-policloud-vise-1-000-unites-dici-2030/
Nice-Matin, « L’intelligence artificielle fait pousser les tomates ! Et on vous explique comment cette startup cannoise compte s’y prendre », Karine Wenger, 13/02/2026, https://www.nicematin.com/economie/l-intelligence-artificielle-fait-pousser-les-tomates-et-on-vous-explique-comment-cette-startup-cannoise-compte-s-y-prendre-10668983
Petites Affiches, « Un micro data center local, sécurisé et économe bientôt déployé… », 15/02/2025, https://www.petitesaffiches.fr/politique,104/cannes-un-micro-data-center-local,33531.html?lang=fr
Shadow AI niveau de risque en entreprise 02/2026
Contexte & Enjeux
Huit ans après l’entrée en application du RGPD, une partie des organisations considère que les “fondations” de la conformité sont désormais posées, mais que cette maturité est mise sous tension par la généralisation des usages d’intelligence artificielle (IA), en particulier l’IA générative. C’est l’un des constats du “Baromètre Privacy 2026” publié par EQS Group, sur la base d’une enquête auprès de 206 professionnels de la protection des données, avec un panel composé de 77% d’organisations privées et 23% d’acteurs publics (source : EQS Group / Grant Thornton, “Baromètre Privacy 2026”, https://www.eqs.com/resource/grant-thornton-eqs-barometre-privacy-2026/ ; source : AFJE, “Baromètre Privacy 2026…”, https://www.afje.org/actualite/barometre-privacy-2026-les-organisations-et-la-privacy-une-maturite-sous-tension-a-lera-de-lia).
Le signal le plus marquant mis en avant dans l’article de L’Usine Digitale est le décalage entre adoption et maîtrise : 62% des organisations déclarent déjà déployer des projets intégrant de l’IA, mais 80% n’auraient pas de vision claire des usages IA dans leurs équipes, ce qui alimente des pratiques de type “shadow AI” (usage d’outils IA en dehors d’une gouvernance outillée et documentée) et rend plus difficile le pilotage des risques (source : L’Usine Digitale, 12 février 2026, https://www.usine-digitale.fr/intelligence-artificielle/shadow-ai-80-des-organisations-nont-pas-de-vision-claire-de-leurs-usages-de-lintelligence-artificielle.A6H7APP5FFCRNKAA6NWGRAF6AM.html).
Dans le même esprit, d’autres sources grand public décrivent une diffusion rapide des usages “non encadrés” : une enquête relayée par ZDNet évoque que “les trois quarts des salariés” utiliseraient des IA génératives sans autorisation, en l’absence de cadre clair et de moyens de contrôle homogènes (source : ZDNet, “Shadow AI : les trois quarts…”, https://www.zdnet.fr/blogs/digital-nerve/shadow-ai-les-trois-quarts-des-salaries-utilisent-les-ia-generatives-sans-autorisation-39966862.htm).
Dans ce contexte, deux familles de risques sont déjà au cœur des préoccupations :
le risque “données personnelles” et conformité RGPD (ex. analyses d’impact, licéité des traitements, minimisation, sécurité, sous-traitance, transferts) ;
le risque “conformité IA” dans la perspective du règlement européen sur l’IA (AI Act), dont l’application est progressive, mais dont la date d’applicabilité générale est fixée au 2 août 2026, avec des jalons anticipés selon les chapitres (source : Règlement (UE) 2024/1689 – AI Act, article 113, https://eur-lex.europa.eu/eli/reg/2024/1689/oj?locale=fr).
À ces deux blocs, on doit étudier un troisième risque “additionnel”, souvent sous-estimé dans les programmes IA : le risque “secret des affaires / confidentialité stratégique”. Il est particulièrement sensible lorsque des informations confidentielles (plans produits, prix, R&D, méthodes, algorithmes, offres commerciales, négociations, fichiers clients, savoir-faire, documents contractuels) sont copiées-collées dans des outils d’IA externes sans audit de risques, sans cadre contractuel, ni mesures de protection adaptées. Le point critique est que la protection “secret des affaires” est conditionnelle : elle repose notamment sur l’existence de mesures de protection raisonnables et sur le maintien effectif du caractère secret.
Solution IA déployée
Les éléments disponibles ne décrivent pas une “solution IA” unique déployée par une organisation donnée, mais plutôt un mouvement de fond : des organisations déploient de l’IA (y compris générative) plus vite qu’elles ne mettent en place une gouvernance outillée et documentée. Le Baromètre Privacy 2026, tel que rapporté par L’Usine Digitale, met en avant plusieurs mécanismes de gouvernance attendus : cartographier les usages, relier RGPD et AI Act, renforcer le pilotage par les risques, et faire évoluer les rôles (notamment celui du DPO) vers une fonction plus transversale (source : L’Usine Digitale, 12 février 2026, https://www.usine-digitale.fr/intelligence-artificielle/shadow-ai-80-des-organisations-nont-pas-de-vision-claire-de-leurs-usages-de-lintelligence-artificielle.A6H7APP5FFCRNKAA6NWGRAF6AM.html).
Pour le troisième risque “secret des affaires”, l’enjeu de “solution” est moins technologique que socio-technique : il s’agit de garantir que l’introduction de contenus confidentiels dans des systèmes d’IA (internes ou externes) n’érode pas les critères juridiques de protection, et ne crée pas de fuite “par design” (prompts, logs, données d’entraînement, sorties du modèle, connecteurs, partage interne, sous-traitants). Sur le plan réglementaire, la définition du secret des affaires (niveau UE) repose sur trois conditions cumulatives : l’information doit être secrète, avoir une valeur commerciale parce qu’elle est secrète, et avoir fait l’objet de dispositions raisonnables destinées à la garder secrète (source : Directive (UE) 2016/943, article 2, https://eur-lex.europa.eu/legal-content/FR/TXT/PDF/?uri=CELEX%3A32016L0943).
En droit français, la transposition figure notamment au Code de commerce : l’article L151-1 précise qu’est protégée au titre du secret des affaires une information qui n’est pas généralement connue ou aisément accessible, qui a une valeur commerciale du fait de son caractère secret, et qui fait l’objet de mesures de protection raisonnables (source : Code de commerce, article L151-1, https://www.legifrance.gouv.fr/codes/article_lc/LEGIARTI000037266553/2018-08-01 ; source : Loi n°2018-670 du 30 juillet 2018, https://www.legifrance.gouv.fr/jorf/id/JORFTEXT000037262111).
Dans une logique opérationnelle, cela implique que l’usage d’IA générative doit être conçu de façon à ne pas “déclasser” ces informations par négligence, notamment via des pratiques de copie-coller dans des outils en ligne. Des guides de sensibilisation insistent explicitement sur ce point : France Num recommande de ne pas introduire de “données confidentielles, personnelles ou stratégiques” dans des outils d’IA en ligne, au motif que ce qui est saisi peut être réutilisé comme données d’entraînement selon les services (source : France Num, “Fiche IA – Les précautions”, https://www.francenum.gouv.fr/files/2024-11/FicheIA_4_Les_precautions.pdf).
De même, l’ANSSI souligne que l’IA générative fait émerger des enjeux de confidentialité (en plus d’intégrité et de disponibilité) et que, selon les cas d’usage, un utilisateur ayant accès au système pourrait accéder à des données d’entraînement ou de test, ce qui oblige à réfléchir à la protection des informations manipulées (source : ANSSI, “Recommandations de sécurité pour un système d’IA générative”, https://www.ssi.gouv.fr/uploads/2024/06/Recommandations_de_s%C3%A9curit%C3%A9_pour_un_syst%C3%A8me_d_IA_g%C3%A9n%C3%A9rative.pdf).
Résultats & Bénéfices
Les sources disponibles ne fournissent pas de “résultats” mesurés d’un programme de gouvernance spécifique, mais elles permettent de formuler les bénéfices attendus d’un passage d’un usage diffus (shadow AI) à un usage gouverné.
Côté RGPD, l’intérêt d’une meilleure cartographie des usages IA est de rétablir un pilotage par les risques, notamment via des analyses d’impact (AIPD/DPIA) quand elles sont requises, et via une mise à jour des registres et processus. Le Baromètre Privacy 2026, tel que rapporté, rappelle que seule une minorité aurait mené des AIPD pour des projets IA, ce qui suggère un potentiel de rattrapage important (source : L’Usine Digitale, 12 février 2026, https://www.usine-digitale.fr/intelligence-artificielle/shadow-ai-80-des-organisations-nont-pas-de-vision-claire-de-leurs-usages-de-lintelligence-artificielle.A6H7APP5FFCRNKAA6NWGRAF6AM.html).
Côté AI Act, l’intérêt d’une gouvernance en amont est d’éviter un “rattrapage permanent” et d’anticiper des obligations dont l’entrée en application est échelonnée. L’AI Act est applicable à partir du 2 août 2026, avec certaines dispositions applicables dès le 2 février 2025 et d’autres dès le 2 août 2025 (source : Règlement (UE) 2024/1689 – AI Act, article 113, https://eur-lex.europa.eu/eli/reg/2024/1689/oj?locale=fr).
Côté secret des affaires, le bénéfice attendu est double : préserver la valeur économique attachée à la confidentialité, et maintenir la capacité juridique à agir en cas d’appropriation illicite. Comme la définition elle-même exige des “dispositions raisonnables” et le maintien du caractère secret, une organisation qui outille ses pratiques (politiques internes, contrôle des accès, clauses contractuelles, prévention des fuites via prompts/logs/connecteurs) renforce concrètement sa position de détenteur légitime et sa capacité à démontrer les mesures prises (source : Directive (UE) 2016/943, article 2, https://eur-lex.europa.eu/legal-content/FR/TXT/PDF/?uri=CELEX%3A32016L0943 ; source : Code de commerce, article L151-1, https://www.legifrance.gouv.fr/codes/article_lc/LEGIARTI000037266553/2018-08-01).
Facteurs clés de succès
Un premier facteur clé est la visibilité : savoir “où” l’IA est utilisée, “par qui”, “avec quels outils”, “sur quelles données”, et “avec quelles finalités”. L’Usine Digitale souligne précisément le déficit de cartographie (une part importante des organisations n’ayant pas identifié ou n’ayant qu’identifié partiellement leurs systèmes d’IA) et l’existence de silos, ce qui retarde la prise en compte conjointe des dimensions privacy, cybersécurité, éthique et métier (source : L’Usine Digitale, 12 février 2026, https://www.usine-digitale.fr/intelligence-artificielle/shadow-ai-80-des-organisations-nont-pas-de-vision-claire-de-leurs-usages-de-lintelligence-artificielle.A6H7APP5FFCRNKAA6NWGRAF6AM.html).
Un deuxième facteur est le pilotage par les risques, déjà “installé” dans les pratiques RGPD mais à adapter à l’IA. Cela recouvre notamment : l’évaluation des traitements à risque, la sécurité, le rôle des sous-traitants, et l’anticipation (plutôt que la conformité a posteriori). Les sources décrivent ce passage d’une logique “documenter” à une logique “piloter”, où le registre des traitements devient un instrument de gouvernance et non une formalité (source : L’Usine Digitale, 12 février 2026, https://www.usine-digitale.fr/intelligence-artificielle/shadow-ai-80-des-organisations-nont-pas-de-vision-claire-de-leurs-usages-de-lintelligence-artificielle.A6H7APP5FFCRNKAA6NWGRAF6AM.html).
Un troisième facteur est l’alignement RGPD / AI Act / secret des affaires, car l’IA traverse simultanément plusieurs régimes. L’AI Act lui-même prévoit un cadre de confidentialité pour protéger notamment les secrets d’affaires lors des activités des autorités et organismes impliqués dans l’application du règlement (source : Règlement (UE) 2024/1689 – AI Act, article 78 “Confidentialité”, https://eur-lex.europa.eu/eli/reg/2024/1689/oj?locale=fr).
Un quatrième facteur, spécifique au secret des affaires, est la discipline “informationnelle” face aux outils d’IA générative. France Num insiste sur une règle simple de prévention : “partager uniquement ce qui peut l’être” et éviter d’introduire des données confidentielles dans des outils en ligne, car ce qui est saisi peut être réutilisé selon les services (source : France Num, “Fiche IA – Les précautions”, https://www.francenum.gouv.fr/files/2024-11/FicheIA_4_Les_precautions.pdf).
Enfin, un facteur de réussite est l’ingénierie de sécurité autour des nouveaux vecteurs de fuite propres à l’IA générative (prompt injection, exfiltration via connecteurs, divulgation de contexte, etc.). Des référentiels de cybersécurité dédiés aux LLM décrivent par exemple le risque de “prompt injection” comme une voie d’accès indirecte à des informations sensibles manipulées par une application “LLM-powered” (source : OWASP GenAI Security Project, “LLM01: Prompt Injection”, https://genai.owasp.org/llmrisk/llm01-prompt-injection/).
Freins & Obstacles rencontrés
Le premier frein décrit est structurel : la vitesse d’adoption de l’IA générative excède la vitesse de mise en place de mécanismes de gouvernance. Les sources parlent d’un décalage de temporalité : on déploie d’abord, on gouverne ensuite, ce qui conduit à des obligations privacy (ex. AIPD) réalisées tardivement (source : L’Usine Digitale, 12 février 2026, https://www.usine-digitale.fr/intelligence-artificielle/shadow-ai-80-des-organisations-nont-pas-de-vision-claire-de-leurs-usages-de-lintelligence-artificielle.A6H7APP5FFCRNKAA6NWGRAF6AM.html).
Le deuxième frein est organisationnel : la persistance de silos et l’absence de gouvernance transverse reliant RGPD, AI Act, cybersécurité et enjeux métiers. L’Usine Digitale indique qu’une part significative des organisations n’aurait établi aucun lien entre leur conformité RGPD et leur démarche AI Act, et qu’une minorité seulement disposerait d’un comité multidisciplinaire (source : L’Usine Digitale, 12 février 2026, https://www.usine-digitale.fr/intelligence-artificielle/shadow-ai-80-des-organisations-nont-pas-de-vision-claire-de-leurs-usages-de-lintelligence-artificielle.A6H7APP5FFCRNKAA6NWGRAF6AM.html).
Le troisième frein tient au secret des affaires : beaucoup d’organisations traitent la confidentialité comme un simple sujet de “bonnes pratiques”, alors qu’elle conditionne l’existence même de la protection juridique. La définition UE et la définition française exigent des mesures raisonnables destinées à conserver le caractère secret ; l’absence de cadre d’usage IA (et donc l’absence de prévention contre des copiés-collés dans des services non maîtrisés, avec conservation de prompts/logs ou réutilisation comme entraînement) peut fragiliser la démonstration des mesures raisonnables, et dans certains scénarios contribuer à rendre l’information “aisément accessible” ou plus largement “non secrète” au sens du droit (source : Directive (UE) 2016/943, article 2, https://eur-lex.europa.eu/legal-content/FR/TXT/PDF/?uri=CELEX%3A32016L0943 ; source : Code de commerce, article L151-1, https://www.legifrance.gouv.fr/codes/article_lc/LEGIARTI000037266553/2018-08-01).
Dans le domaine IA, ce risque “secret des affaires” ne se limite pas à la fuite volontaire. Il peut aussi résulter d’effets de bord : partage interne incontrôlé, logs conservés, connecteurs vers des espaces documentaires, ou attaques visant à soutirer le contexte (ex. prompt injection). Des analyses de la CNIL sur la sécurité des systèmes d’IA rappellent qu’il existe des classes d’attaques différentes selon le moment (apprentissage/production) et l’objectif, ce qui justifie une approche structurée d’analyse de risques (source : CNIL – LINC, “Petite taxonomie des attaques des systèmes d’IA”, https://linc.cnil.fr/petite-taxonomie-des-attaques-des-systemes-dia).
Enfin, un frein important est la difficulté à concilier transparence, conformité et secret : certaines obligations (RGPD, AI Act) impliquent de documenter, d’expliquer, voire de communiquer des informations, tout en protégeant ce qui relève du secret des affaires. Une jurisprudence UE récente illustre ce point de tension : l’arrêt de la CJUE du 27 février 2025 (aff. C-203/22, Dun & Bradstreet Austria) traite explicitement l’articulation entre droit d’accès RGPD (article 15) et protection des secrets d’affaires (directive 2016/943), en soulignant la nécessité de fournir une “explication” permettant à la personne de comprendre et contester une décision automatisée, tout en gérant la question des secrets et des données de tiers (source : CJUE / CURIA, Communiqué de presse n°22/25, https://curia.europa.eu/jcms/upload/docs/application/pdf/2025-02/cp250022fr.pdf ; source : EUR-Lex, jugement C-203/22, https://eur-lex.europa.eu/legal-content/EN/TXT/?uri=celex%3A62022CJ0203).
Perspectives & Évolutions
Une perspective structurante est l’institutionnalisation de la gouvernance IA, avec un rôle élargi du DPO ou de fonctions hybrides (éthique numérique, gouvernance data). L’Usine Digitale indique que le DPO est de plus en plus identifié comme “fonction porteuse” du sujet AI Act, devant la DSI ou les directions data, ce qui reflète une évolution vers des responsabilités transversales (source : L’Usine Digitale, 12 février 2026, https://www.usine-digitale.fr/intelligence-artificielle/shadow-ai-80-des-organisations-nont-pas-de-vision-claire-de-leurs-usages-de-lintelligence-artificielle.A6H7APP5FFCRNKAA6NWGRAF6AM.html).
Sur le calendrier réglementaire, l’AI Act impose une trajectoire de montée en conformité, avec une applicabilité générale au 2 août 2026 et des jalons anticipés dès le 2 février 2025 et le 2 août 2025 selon les chapitres (source : Règlement (UE) 2024/1689 – AI Act, article 113, https://eur-lex.europa.eu/eli/reg/2024/1689/oj?locale=fr).
Sur le secret des affaires, la perspective la plus concrète est la montée en maturité des organisations sur la notion de “mesures raisonnables” appliquées aux usages IA : classification des informations, règles explicites de non-divulgation dans des IA externes, choix d’architectures (solutions internes, environnements cloisonnés, contrôle des journaux), et contractualisation adaptée avec les fournisseurs. À noter que l’AI Act lui-même reconnaît ce besoin de protection : il prévoit des obligations de confidentialité, et il évoque la nécessité de protéger les secrets d’affaires même lorsque des exigences de transparence existent (par exemple dans les considérants liés aux résumés des données d’entraînement, “tout en tenant dûment compte” des secrets d’affaires) (source : Règlement (UE) 2024/1689 – AI Act, considérant sur le résumé des données d’entraînement et références aux secrets d’affaires, https://eur-lex.europa.eu/eli/reg/2024/1689/oj?locale=fr).
Données clés (vulgarisées)
Le Baromètre Privacy 2026 (tel que rapporté) met en avant plusieurs ordres de grandeur utiles pour une lecture “risques” : 62% des organisations déclarent déployer des projets intégrant de l’IA, mais 80% ne disposent pas d’une vision claire de leurs usages IA ; 48% n’auraient pas identifié leurs systèmes d’IA au sens de la terminologie AI Act et 32% supplémentaires n’auraient qu’une cartographie partielle ; seules 32% des organisations ayant des projets IA auraient mené des AIPD ; et la gouvernance resterait souvent cloisonnée (source : L’Usine Digitale, 12 février 2026, https://www.usine-digitale.fr/intelligence-artificielle/shadow-ai-80-des-organisations-nont-pas-de-vision-claire-de-leurs-usages-de-lintelligence-artificielle.A6H7APP5FFCRNKAA6NWGRAF6AM.html).
Pour le secret des affaires, la “donnée clé” n’est pas un pourcentage mais une condition juridique : la protection existe si et seulement si l’information est secrète, a une valeur commerciale du fait de son secret, et a fait l’objet de mesures de protection raisonnables. Cette condition est explicitement formulée au niveau UE et en droit français (source : Directive (UE) 2016/943, article 2, https://eur-lex.europa.eu/legal-content/FR/TXT/PDF/?uri=CELEX%3A32016L0943 ; source : Code de commerce, article L151-1, https://www.legifrance.gouv.fr/codes/article_lc/LEGIARTI000037266553/2018-08-01).
Acteurs & Partenaires
Le “Baromètre Privacy 2026” est publié par EQS Group (éditeur de solutions de compliance) et s’appuie, selon les pages de présentation, sur une enquête auprès de professionnels de la protection des données (source : EQS Group / Grant Thornton, https://www.eqs.com/resource/grant-thornton-eqs-barometre-privacy-2026/ ; source : AFJE, https://www.afje.org/actualite/barometre-privacy-2026-les-organisations-et-la-privacy-une-maturite-sous-tension-a-lera-de-lia).
Côté cadres de référence, plusieurs acteurs institutionnels structurent les recommandations : l’ANSSI pour la sécurité des systèmes d’IA générative (source : ANSSI, https://www.ssi.gouv.fr/uploads/2024/06/Recommandations_de_s%C3%A9curit%C3%A9_pour_un_syst%C3%A8me_d_IA_g%C3%A9n%C3%A9rative.pdf), et la CNIL (via le LINC) pour des éléments de compréhension des menaces et de l’analyse de risques des systèmes d’IA (source : CNIL – LINC, https://linc.cnil.fr/petite-taxonomie-des-attaques-des-systemes-dia).
Zoom détaillé : le 3e risque “secret des affaires” appliqué aux usages IA (en complément RGPD + AI Act)
Le point de départ est juridique : le secret des affaires n’est pas un “label” automatique, c’est une qualification conditionnelle. La directive UE définit un secret d’affaires comme une information secrète, ayant une valeur commerciale parce qu’elle est secrète, et protégée par des dispositions raisonnables (source : Directive (UE) 2016/943, article 2, https://eur-lex.europa.eu/legal-content/FR/TXT/PDF/?uri=CELEX%3A32016L0943).
Le droit français reprend cette logique dans le Code de commerce, en ajoutant la précision “dans la configuration et l’assemblage exacts de ses éléments” et en exigeant des mesures raisonnables “compte tenu des circonstances” (source : Code de commerce, article L151-1, https://www.legifrance.gouv.fr/codes/article_lc/LEGIARTI000037266553/2018-08-01 ; source : Loi n°2018-670 du 30 juillet 2018, https://www.legifrance.gouv.fr/jorf/id/JORFTEXT000037262111).
Dans le cadre des IA génératives, le risque principal est le suivant : si des collaborateurs injectent dans des outils externes (ou insuffisamment contractuellement encadrés) des informations qui tirent précisément leur valeur du secret, l’organisation peut se retrouver en difficulté pour démontrer que ces informations étaient “raisonnablement protégées”, voire, dans certains scénarios, pour soutenir qu’elles sont restées “secrètes” au sens juridique. C’est la logique que vous exprimez : sans audit de risques et sans garde-fous, on peut perdre la “qualité de secret”, ce qui est grave car cela affecte la capacité à protéger l’actif et à agir efficacement en cas d’atteinte.
Cette fragilisation n’est pas théorique : des documents de sensibilisation incitent explicitement à ne pas saisir de contenus confidentiels dans des IA en ligne, car les conditions d’utilisation et les mécanismes de traitement peuvent conduire à une réutilisation (notamment comme données d’entraînement, selon les services) (source : France Num, “Fiche IA – Les précautions”, https://www.francenum.gouv.fr/files/2024-11/FicheIA_4_Les_precautions.pdf).
Le risque est aggravé par des vecteurs propres aux LLM : prompts et historiques conservés, journaux, connecteurs aux bases documentaires, et attaques d’exfiltration. D’un point de vue cybersécurité, l’ANSSI rappelle que l’IA générative soulève des enjeux de confidentialité et qu’il faut considérer que, selon la conception du système, un utilisateur ayant accès pourrait accéder à des données d’entraînement ou de test ; cela oblige à décider quelles données peuvent ou non être utilisées, et à renforcer la protection sur toute la chaîne (source : ANSSI, https://www.ssi.gouv.fr/uploads/2024/06/Recommandations_de_s%C3%A9curit%C3%A9_pour_un_syst%C3%A8me_d_IA_g%C3%A9n%C3%A9rative.pdf).
À cela s’ajoute un risque “applicatif” : des référentiels comme OWASP décrivent la prompt injection comme un risque permettant de manipuler un système LLM et d’obtenir un accès indu à des informations sensibles ou à des actions non prévues, notamment dans des assistants connectés à des outils métiers (source : OWASP GenAI Security Project, https://genai.owasp.org/llmrisk/llm01-prompt-injection/).
Sur la responsabilité des dirigeants, il faut raisonner en termes d’exposition au risque plutôt qu’en affirmation automatique de culpabilité. En droit des sociétés, les textes prévoient des régimes de responsabilité civile pour “fautes commises dans leur gestion”. Par exemple, pour les SARL, l’article L223-22 prévoit que les gérants sont responsables envers la société ou envers les tiers notamment des fautes commises dans leur gestion (source : Code de commerce, article L223-22, https://www.legifrance.gouv.fr/codes/article_lc/LEGIARTI000006223141/2022-03-01).
Pour les sociétés anonymes, l’article L225-251 prévoit un mécanisme comparable pour les administrateurs et le directeur général (source : Code de commerce, article L225-251, https://www.legifrance.gouv.fr/codes/article_lc/LEGIARTI000006226329?init=true&page=1&query=L225-251&searchField=ALL&tab_selection=all).
Dans une lecture “gouvernance IA”, laisser se développer des pratiques de shadow AI impliquant des divulgations d’informations stratégiques sans politique, sans contrôle, et sans audit de risques, peut donc créer une zone d’exposition : d’une part parce que l’organisation perd potentiellement un actif (le secret), d’autre part parce que des dommages peuvent en résulter (perte de valeur, perte d’avantage concurrentiel, contentieux, rupture de confidentialité contractuelle), et la question de la diligence du management peut être posée au regard des obligations de gestion et de supervision. Le point pratique, pour une fiche de veille, est surtout d’objectiver le risque : le secret des affaires exige des “mesures raisonnables” ; l’absence de mesures autour des usages IA est, par construction, une faiblesse.
Enfin, il faut noter que secret des affaires et transparence RGPD/IA ne se gèrent pas en silo. L’arrêt CJUE du 27 février 2025 (C-203/22) traite l’articulation entre droit d’accès, explication d’une décision automatisée et secret des affaires, ce qui illustre la nécessité de concevoir des réponses “expliquables” tout en encadrant ce qui relève réellement du secret (source : CJUE / CURIA, https://curia.europa.eu/jcms/upload/docs/application/pdf/2025-02/cp250022fr.pdf ; source : EUR-Lex, https://eur-lex.europa.eu/legal-content/EN/TXT/?uri=celex%3A62022CJ0203).
Références & Sources
L’Usine Digitale (12/02/2026) : https://www.usine-digitale.fr/intelligence-artificielle/shadow-ai-80-des-organisations-nont-pas-de-vision-claire-de-leurs-usages-de-lintelligence-artificielle.A6H7APP5FFCRNKAA6NWGRAF6AM.html
EQS Group / Grant Thornton – Baromètre Privacy 2026 : https://www.eqs.com/resource/grant-thornton-eqs-barometre-privacy-2026/
AFJE – Synthèse / mention du Baromètre Privacy 2026 : https://www.afje.org/actualite/barometre-privacy-2026-les-organisations-et-la-privacy-une-maturite-sous-tension-a-lera-de-lia
ZDNet – “Shadow AI : les trois quarts…” : https://www.zdnet.fr/blogs/digital-nerve/shadow-ai-les-trois-quarts-des-salaries-utilisent-les-ia-generatives-sans-autorisation-39966862.htm
Directive (UE) 2016/943 (secret des affaires) : https://eur-lex.europa.eu/legal-content/FR/TXT/PDF/?uri=CELEX%3A32016L0943
Code de commerce – Article L151-1 (définition du secret des affaires) : https://www.legifrance.gouv.fr/codes/article_lc/LEGIARTI000037266553/2018-08-01
Loi n°2018-670 du 30 juillet 2018 (secret des affaires) : https://www.legifrance.gouv.fr/jorf/id/JORFTEXT000037262111
AI Act – Règlement (UE) 2024/1689 : https://eur-lex.europa.eu/eli/reg/2024/1689/oj?locale=fr
ANSSI – Recommandations de sécurité pour un système d’IA générative : https://www.ssi.gouv.fr/uploads/2024/06/Recommandations_de_s%C3%A9curit%C3%A9_pour_un_syst%C3%A8me_d_IA_g%C3%A9n%C3%A9rative.pdf
France Num – “Fiche IA – Les précautions” : https://www.francenum.gouv.fr/files/2024-11/FicheIA_4_Les_precautions.pdf
CNIL (LINC) – Taxonomie des attaques des systèmes d’IA : https://linc.cnil.fr/petite-taxonomie-des-attaques-des-systemes-dia
OWASP GenAI Security Project – Prompt Injection : https://genai.owasp.org/llmrisk/llm01-prompt-injection/
CJUE / CURIA – Communiqué de presse n°22/25 (27/02/2025, C-203/22) : https://curia.europa.eu/jcms/upload/docs/application/pdf/2025-02/cp250022fr.pdf
EUR-Lex – Jugement C-203/22 (27/02/2025) : https://eur-lex.europa.eu/legal-content/EN/TXT/?uri=celex%3A62022CJ0203
Code de commerce – Article L223-22 (responsabilité des gérants de SARL) : https://www.legifrance.gouv.fr/codes/article_lc/LEGIARTI000006223141/2022-03-01
Code de commerce – Article L225-251 (responsabilité des administrateurs et DG de SA) : https://www.legifrance.gouv.fr/codes/article_lc/LEGIARTI000006226329?init=true&page=1&query=L225-251&searchField=ALL&tab_selection=all
IA Deepfake videos performance et risque fraude 02/2026
Contexte & Enjeux
Selon Les Échos (17/02/2026, Fabio Benedetti Valentini), l’industrie hollywoodienne s’est insurgée après la diffusion virale d’une vidéo montrant un combat fictif entre Tom Cruise et Brad Pitt, présentée comme générée par une IA chinoise (source : Les Échos, 17/02/2026, Fabio Benedetti Valentini). La séquence agit comme un révélateur : le niveau de réalisme atteint par les générateurs d’images et surtout de vidéos n’est plus cantonné à des “démonstrations” techniques. Il devient suffisamment crédible pour déclencher une alerte chez des acteurs dont le cœur de métier est précisément la production d’images de haute qualité. En creux, la viralité de ce clip montre que le seuil de plausibilité des contenus synthétiques a franchi une étape : il ne s’agit plus seulement d’outils “créatifs”, mais d’outils capables de produire de la preuve visuelle trompeuse, de l’imitation crédible et de la contrefaçon industrialisable.
Les sources internationales qui ont couvert l’affaire décrivent la même bascule : une génération vidéo hyperréaliste, rapidement accessible, dont les sorties circulent à grande échelle sur les réseaux sociaux, avant même que les ayants droit et les plateformes n’aient le temps de réagir (The Guardian, 16/02/2026, https://www.theguardian.com/technology/2026/feb/16/tiktok-bytedance-ai-video-tool-disney-seedance-tom-cruise-brad-pitt ; The Verge, 17/02/2026, https://www.theverge.com/ai-artificial-intelligence/879644/bytedance-seedance-safeguards-ai-video-copyright-infringement). Cette rapidité de propagation est un point central pour l’angle “lutte anti-fraude” : une fois qu’un contenu a atteint une masse critique de vues, le démenti, la suppression ou la correction n’effacent pas son impact. Les deepfakes deviennent ainsi un levier de manipulation et d’escroquerie “temps réel”, particulièrement dangereux dans des contextes où la réaction doit être immédiate (transactions financières, consignes d’urgence, réputation, influence).
Dans ce cadre, l’affaire Seedance 2.0 ne concerne pas uniquement le droit d’auteur. Elle illustre aussi une vulnérabilité grandissante des organisations face à la fraude par impersonation : si une vidéo peut faire croire qu’une célébrité fait quelque chose, elle peut aussi faire croire qu’un dirigeant d’entreprise, un responsable public, un avocat ou un banquier valide une instruction. Les autorités et les médias décrivent déjà l’industrialisation de ce type d’attaques, notamment via l’audio (clonage de voix) et, de plus en plus, via la vidéo, car l’image renforce l’effet “preuve” (Associated Press, 10/07/2025, https://apnews.com/article/1b3cc78464404b54e63f4eba9dd4f5a9 ; Ars Technica, 15/05/2025, https://arstechnica.com/security/2025/05/fbi-warns-of-ongoing-scam-that-uses-deepfake-audio-to-impersonate-government-officials/). L’épisode Hollywood agit donc comme un marqueur : si même les studios s’inquiètent publiquement, c’est que la capacité de simulation visuelle devient suffisamment forte pour perturber des industries entières, et par extension pour démultiplier les scénarios de fraude.
Solution IA déployée
Le dispositif au cœur des articles est Seedance 2.0, présenté comme un modèle / service de génération vidéo associé à ByteDance. La page officielle de ByteDance “Seed” présente Seedance 2.0 comme un modèle multimodal destiné à la génération vidéo “cinematic” et mettant en avant des capacités de contrôle (caméra, lumière, performance) et de génération guidée par références (ByteDance Seed, page produit “Seedance 2.0”, https://seed.bytedance.com/en/seedance2_0). D’autres pages “produit” liées à l’écosystème de création vidéo décrivent Seedance 2.0 comme un outil accessible via interface, combinant génération et éléments de référence, ce qui renforce la facilité de production de contenus “prêts à partager” (Dreamina by CapCut, page “Seedance 2.0”, https://dreamina.capcut.com/fr-fr/tools/seedance-2-0).
Les Échos décrivent un déploiement large, avec une disponibilité dans de nombreuses langues et un usage fondé sur des prompts courts produisant des résultats impressionnants (source : Les Échos, 17/02/2026, Fabio Benedetti Valentini). Cette combinaison “qualité + facilité + diffusion” est déterminante pour la fraude : plus la création est simple, plus l’attaquant peut itérer (multiples versions d’un message), cibler des publics différents, adapter les scripts et tester ce qui “fonctionne” pour tromper.
Résultats & Bénéfices
Dans la couverture médiatique, l’effet principal observé est la démonstration d’un saut de qualité : des vidéos générées qui paraissent crédibles à grande échelle, au point de déclencher une réaction publique de l’industrie du cinéma et des organisations professionnelles. Les Échos citent la viralité et le réalisme comme éléments déclencheurs, avec une inquiétude explicite sur les atteintes au copyright et sur la facilité des détournements (source : Les Échos, 17/02/2026, Fabio Benedetti Valentini).
Mais du point de vue “anti-fraude”, le bénéfice (pour un acteur malveillant) est encore plus direct : la vidéo et l’audio synthétiques augmentent fortement le pouvoir de persuasion. Une simple usurpation textuelle (email, SMS) se heurte souvent à la méfiance ; une vidéo, elle, fournit une “preuve” apparente. C’est ce qui explique l’attention croissante des autorités et des médias aux escroqueries d’usurpation appuyées par l’IA. Des alertes publiques relaient des campagnes où des acteurs malveillants utilisent la synthèse vocale pour imiter des responsables et approcher des cibles via messagerie et appels, en insistant sur le fait qu’il ne faut pas présumer l’authenticité d’un message sous prétexte qu’il “sonne vrai” (Associated Press, 10/07/2025, https://apnews.com/article/1b3cc78464404b54e63f4eba9dd4f5a9 ; FBI/IC3 via couverture Ars Technica, 15/05/2025, https://arstechnica.com/security/2025/05/fbi-warns-of-ongoing-scam-that-uses-deepfake-audio-to-impersonate-government-officials/).
L’affaire hollywoodienne agit ainsi comme un cas “grand public” d’un phénomène plus large : la sophistication de la synthèse média rend les attaques plus crédibles et donc potentiellement plus rentables, tout en réduisant le coût de production (un modèle génératif remplace des moyens lourds de trucage). Les médias soulignent aussi que ces contenus peuvent être partagés hors de leur environnement de création, copiés, repostés, et perdre toute indication d’origine, ce qui aggrave le risque de tromperie.
Angle lutte anti-fraude : ce que la viralité révèle sur la difficulté de reconnaissance des deepfakes L’un des enseignements majeurs de l’épisode Seedance 2.0 est que la “détection à l’œil nu” devient de moins en moins fiable. Plusieurs travaux académiques synthétisent cette réalité : une étude publiée dans Cybersecurity (Oxford University Press) sur la capacité humaine à détecter des images de visages générées indique des performances moyennes autour de 60–64% selon les conditions, avec une confiance des participants élevée mais peu corrélée à l’exactitude, ce qui est particulièrement préoccupant pour la prévention de la fraude (Cybersecurity, 2023, “Testing human ability to detect ‘deepfake’ images of human faces”, https://academic.oup.com/cybersecurity/article/9/1/tyad011/7205694). Quand la confiance est élevée mais la détection faible, les victimes potentielles sont plus susceptibles d’agir rapidement sans vérifier.
Sur l’audio, un article dans PLOS ONE souligne que les humains ne détectent pas de manière fiable les deepfakes de voix : même quand ils sont informés et entraînés par des exemples, l’amélioration reste limitée, et les auteurs anticipent une difficulté croissante à mesure que les modèles progressent (PLOS ONE, 2023, “Warning: Humans cannot reliably detect speech deepfakes”, https://journals.plos.org/plosone/article?id=10.1371/journal.pone.0285333). Cet élément est central pour la fraude dite “vishing” (voice phishing) ou “CEO fraud” : si la voix est crédible, la probabilité de conformité à une instruction augmente, surtout sous contrainte temporelle.
La difficulté ne concerne pas que les humains : les outils automatiques peinent à généraliser dans le monde réel. Des travaux récents de benchmark “in-the-wild” montrent que la performance de détecteurs de deepfakes peut chuter fortement lorsqu’on les évalue sur des contenus variés collectés sur internet, reflétant des manipulations réelles et multilingues, plutôt que des datasets “propres” de laboratoire. Un article présentant Deepfake-Eval-2024 rapporte des baisses importantes de performance (AUC) pour des détecteurs open-source lorsqu’ils sont confrontés à des deepfakes diffusés en conditions réelles (arXiv, “Deepfake-Eval-2024: A Multi-Modal In-the-Wild Benchmark of Deepfakes Circulated in 2024”, https://arxiv.org/abs/2503.02857). Pour la lutte anti-fraude, cela signifie qu’un déploiement “simple” de détection automatique ne suffit pas : les attaquants adaptent leurs méthodes, et la diversité des canaux (réseaux sociaux, messageries, compressions vidéo, réencodages) dégrade la robustesse des systèmes.
Les institutions de référence travaillent justement sur cette question de robustesse. NIST publie des travaux sur l’évaluation de systèmes analytiques face à des deepfakes, en s’intéressant notamment à la généralisation, à la résilience après post-traitements (compression, bruit, flou) et à l’évaluation en conditions plus réalistes (NIST, 27/01/2025, “Guardians of Forensic Evidence: Evaluating Analytic Systems Against AI-Generated Deepfakes”, https://www.nist.gov/publications/guardians-forensic-evidence-evaluating-analytic-systems-against-ai-generated-deepfakes ; PDF NIST associé, https://mig.nist.gov/MFC/Web/Papers/AFI2_ForensicsNIST_Final.pdf). Or, ces post-traitements sont précisément ce que subissent les contenus viraux (repost, recompression, capture écran), ce qui rend la détection et la preuve d’authenticité plus difficiles au moment où la fraude doit être stoppée.
Dans le cas Seedance 2.0 tel que relaté par la presse, cette difficulté de reconnaissance se combine à trois accélérateurs de fraude. Premièrement, la vitesse de diffusion : une vidéo virale peut toucher des millions de personnes avant toute action coordonnée. Deuxièmement, la “plausibilité contextuelle” : un faux extrait qui ressemble à une bande-annonce, à une interview ou à une fuite de plateau exploite les attentes du public. Troisièmement, l’asymétrie d’effort : produire une vidéo synthétique devient plus simple que prouver qu’elle est fausse, surtout quand elle a été recompressée et décontextualisée.
C’est pourquoi l’angle “anti-fraude” converge de plus en plus vers une logique de “preuve d’origine” plutôt que de “détection a posteriori” uniquement. Autrement dit : au lieu d’essayer d’identifier chaque deepfake, on cherche à attacher au contenu des informations de provenance et d’édition pour aider à trancher “qui l’a fait, comment, et avec quel historique”. Le standard C2PA (Content Credentials) est fréquemment cité comme une réponse structurante à cette problématique, en fournissant un mécanisme ouvert pour établir l’origine et l’historique d’un contenu numérique (C2PA, présentation du standard, https://c2pa.org/). Des initiatives dans les médias illustrent cette logique de marquage d’authenticité : l’adoption de Content Credentials par certaines organisations vise explicitement à renforcer la confiance et à lutter contre la manipulation et les deepfakes (C2PA, https://c2pa.org/ ; exemple de couverture sur l’adoption dans les médias, La Réclame, 2025, https://lareclame.fr/g2pa-content-credentials-france-televisions-dalet-ia-323348).
Cependant, des articles récents soulignent aussi les limites pratiques de la provenance à grande échelle : les métadonnées peuvent être perdues lors de reposts, et les contenus générés via des outils non conformes ou ouverts peuvent échapper au marquage, rendant la solution partielle si elle n’est pas largement adoptée et techniquement robuste sur toute la chaîne de diffusion (The Verge, 2026, “Instagram and X have an impossible deepfake detection deadline…”, 15/02/2026 env., https://www.theverge.com/ai-artificial-intelligence/877206/youtube-instagram-x-india-deepfake-detection-deadline). Dans une perspective anti-fraude, cela signifie que la provenance est un pilier nécessaire, mais pas suffisant : il faut aussi des procédures organisationnelles (double validation, canaux sécurisés, mots de passe de vérification, etc.) et une capacité d’investigation.
Facteurs clés de succès
Les facteurs qui expliquent à la fois la viralité et le risque de fraude sont largement les mêmes.
D’abord, la qualité visuelle et la cohérence “cinéma”, mises en avant dans la couverture médiatique et la communication produit. Cette qualité réduit les signaux d’alerte visibles (artefacts, incohérences) et rend la détection intuitive moins fiable (source : Les Échos, 17/02/2026, Fabio Benedetti Valentini ; ByteDance Seed, https://seed.bytedance.com/en/seedance2_0).
Ensuite, la simplicité de production : prompts courts, interfaces accessibles, itération rapide. En fraude, cela se traduit par la capacité à produire de multiples variantes jusqu’à obtenir un contenu “convaincant” pour une cible donnée.
Enfin, l’écosystème de diffusion : la circulation sur X, TikTok et d’autres réseaux fournit une amplification qui peut être instrumentalisée. Une fraude gagne en efficacité quand le contenu semble déjà “validé socialement” (beaucoup de vues, de partages, de commentaires).
Freins & Obstacles rencontrés
Les obstacles décrits dans la couverture Seedance 2.0 sont d’abord juridiques. La Motion Picture Association (MPA) accuse l’outil de violations massives du droit d’auteur et demande l’arrêt des activités jugées contrefaisantes (Boursorama avec AFP, 13/02/2026, https://www.boursorama.com/actualite-economique/actualites/ia-hollwyood-accuse-le-logiciel-chinois-seedance-2-0-de-violations-massives-du-droit-d-auteur-cb030817be2a6fdb911daf9bc4143b32). Dans la presse anglophone, il est également fait mention de menaces de mises en demeure (“cease and desist”) par de grands studios, dont Disney et Paramount, ce qui traduit une escalade et une volonté de dissuasion (The Guardian, 16/02/2026, https://www.theguardian.com/technology/2026/feb/16/tiktok-bytedance-ai-video-tool-disney-seedance-tom-cruise-brad-pitt ; The Verge, 17/02/2026, https://www.theverge.com/ai-artificial-intelligence/879644/bytedance-seedance-safeguards-ai-video-copyright-infringement).
Pour la lutte anti-fraude, l’obstacle majeur est d’une autre nature : c’est l’impossibilité d’avoir une “preuve simple” et universelle qu’un média est vrai ou faux, surtout après circulation virale. Les recherches montrent que ni les humains ni les détecteurs ne sont infaillibles, et que la performance se dégrade dans des contextes réels, hétérogènes, multilingues et post-traités (Cybersecurity, 2023, https://academic.oup.com/cybersecurity/article/9/1/tyad011/7205694 ; arXiv Deepfake-Eval-2024, https://arxiv.org/abs/2503.02857 ; NIST, 2025, https://www.nist.gov/publications/guardians-forensic-evidence-evaluating-analytic-systems-against-ai-generated-deepfakes). Cela crée une zone de risque : un fraudeur n’a pas besoin d’une perfection technique, il a besoin d’un contenu “assez plausible” pour déclencher une action (clic, virement, partage, panique).
Perspectives & Évolutions
La couverture de février 2026 indique que ByteDance promet de renforcer les garde-fous de Seedance 2.0 après la réaction d’Hollywood, ce qui suggère une montée en maturité des politiques de blocage et de filtrage (The Verge, 17/02/2026, https://www.theverge.com/ai-artificial-intelligence/879644/bytedance-seedance-safeguards-ai-video-copyright-infringement). Dans le même temps, les articles montrent que les garde-fous sont un terrain d’affrontement : les ayants droit exigent des protections fortes, tandis que les plateformes et éditeurs doivent concilier prévention, faux positifs, liberté de création et faisabilité technique.
Sur le volet “anti-fraude”, l’évolution attendue est double. D’une part, une professionnalisation des attaques : la fraude par IA ne repose plus uniquement sur le texte, mais combine voix, image et vidéo, avec des scénarios d’usurpation de plus en plus crédibles. Les alertes publiques (notamment sur l’usurpation de responsables) montrent que ces tactiques ciblent déjà des personnes à haute valeur (responsables politiques, dirigeants, réseaux de contacts) et peuvent s’étendre aux entreprises via des consignes de paiement et des communications d’urgence (Associated Press, 10/07/2025, https://apnews.com/article/1b3cc78464404b54e63f4eba9dd4f5a9 ; Ars Technica, 15/05/2025, https://arstechnica.com/security/2025/05/fbi-warns-of-ongoing-scam-that-uses-deepfake-audio-to-impersonate-government-officials/). D’autre part, une montée en puissance des réponses de confiance numérique : provenance (C2PA), marquage, politiques de plateforme, mais aussi renforcement des contrôles organisationnels hors-techniques (procédures, canaux vérifiés), car la détection pure devient insuffisante à elle seule (C2PA, https://c2pa.org/ ; NIST, 2025, https://www.nist.gov/publications/guardians-forensic-evidence-evaluating-analytic-systems-against-ai-generated-deepfakes).
Données clés (vulgarisées)
Les Échos indiquent que la vidéo virale du combat fictif Tom Cruise / Brad Pitt a dépassé 1,7 million de vues sur X (source : Les Échos, 17/02/2026, Fabio Benedetti Valentini). Cet ordre de grandeur illustre un point simple : en matière de deepfakes, l’impact se mesure aussi au rythme de propagation, car les mécanismes de retrait et de correction sont souvent plus lents que la viralité.
Sur la capacité humaine à détecter des deepfakes, les résultats disponibles dans la littérature suggèrent que les performances restent modestes. Par exemple, l’étude en Cybersecurity (OUP) rapporte une précision moyenne autour de 60–64% dans des conditions expérimentales, donc à peine au-dessus du hasard, avec une confiance élevée des participants (Cybersecurity, 2023, https://academic.oup.com/cybersecurity/article/9/1/tyad011/7205694). Sur les deepfakes de voix, PLOS ONE rapporte une détectabilité imparfaite et une amélioration limitée même après sensibilisation (PLOS ONE, 2023, https://journals.plos.org/plosone/article?id=10.1371/journal.pone.0285333). Ces chiffres sont importants en prévention de la fraude : ils signifient que “se fier à son intuition” est un réflexe risqué.
Enfin, sur la robustesse des détecteurs automatiques, des benchmarks “in-the-wild” suggèrent des chutes de performance lorsqu’on passe de conditions contrôlées à des contenus réels diffusés en ligne, multiformats et multilingues (arXiv Deepfake-Eval-2024, https://arxiv.org/abs/2503.02857). Et les travaux NIST sur l’évaluation et la résilience face aux post-traitements (compression, bruit, flou) confirment que la détection fiable dans des conditions de circulation virale reste un défi structurel (NIST, 2025, https://www.nist.gov/publications/guardians-forensic-evidence-evaluating-analytic-systems-against-ai-generated-deepfakes ; PDF NIST, https://mig.nist.gov/MFC/Web/Papers/AFI2_ForensicsNIST_Final.pdf).
Acteurs & Partenaires
Le cas met en scène ByteDance (maison mère de TikTok), associé à Seedance 2.0, ainsi que les organisations et ayants droit de l’industrie américaine. La Motion Picture Association (MPA) est citée comme un acteur de premier plan dans la contestation, relayée notamment via des dépêches et reprises presse (Boursorama avec AFP, 13/02/2026, https://www.boursorama.com/actualite-economique/actualites/ia-hollwyood-accuse-le-logiciel-chinois-seedance-2-0-de-violations-massives-du-droit-d-auteur-cb030817be2a6fdb911daf9bc4143b32). Les articles anglophones évoquent des studios majeurs (dont Disney et Paramount) dans le cadre de menaces de mises en demeure (The Guardian, 16/02/2026, https://www.theguardian.com/technology/2026/feb/16/tiktok-bytedance-ai-video-tool-disney-seedance-tom-cruise-brad-pitt).
En matière de lutte anti-fraude, d’autres acteurs structurants apparaissent dans les sources utilisées pour enrichir la fiche : institutions et programmes d’évaluation (NIST), standardisation de la provenance (C2PA), ainsi que les autorités qui alertent sur l’usurpation via IA et la montée des arnaques par imitation (Associated Press, 10/07/2025, https://apnews.com/article/1b3cc78464404b54e63f4eba9dd4f5a9 ; Ars Technica, 15/05/2025, https://arstechnica.com/security/2025/05/fbi-warns-of-ongoing-scam-that-uses-deepfake-audio-to-impersonate-government-officials/).
Références & Sources
Les Échos, “L’IA chinoise Seedance 2.0 menace Hollywood”, 17/02/2026, Fabio Benedetti Valentini (source initiale fournie par l’utilisateur ; lien non fourni).
ByteDance Seed, page produit “Seedance 2.0”, https://seed.bytedance.com/en/seedance2_0
Dreamina by CapCut, page “Seedance 2.0”, https://dreamina.capcut.com/fr-fr/tools/seedance-2-0
The Verge, “After spooking Hollywood, ByteDance will tweak safeguards on new AI model”, 17/02/2026, https://www.theverge.com/ai-artificial-intelligence/879644/bytedance-seedance-safeguards-ai-video-copyright-infringement
The Guardian, “TikTok creator ByteDance vows to curb AI video tool after Disney threat”, 16/02/2026, https://www.theguardian.com/technology/2026/feb/16/tiktok-bytedance-ai-video-tool-disney-seedance-tom-cruise-brad-pitt
Boursorama avec AFP, “IA: Hollwyood accuse le logiciel chinois Seedance 2.0 de violations ‘massives’ du droit d’auteur”, 13/02/2026, https://www.boursorama.com/actualite-economique/actualites/ia-hollwyood-accuse-le-logiciel-chinois-seedance-2-0-de-violations-massives-du-droit-d-auteur-cb030817be2a6fdb911daf9bc4143b32
Cybersecurity (Oxford University Press), “Testing human ability to detect ‘deepfake’ images of human faces”, 2023, https://academic.oup.com/cybersecurity/article/9/1/tyad011/7205694
PLOS ONE, “Warning: Humans cannot reliably detect speech deepfakes”, 2023, https://journals.plos.org/plosone/article?id=10.1371/journal.pone.0285333
NIST, “Guardians of Forensic Evidence: Evaluating Analytic Systems Against AI-Generated Deepfakes”, 27/01/2025, https://www.nist.gov/publications/guardians-forensic-evidence-evaluating-analytic-systems-against-ai-generated-deepfakes
NIST (PDF), “AFI2 Forensics@NIST – Generalization and Resilience Study”, https://mig.nist.gov/MFC/Web/Papers/AFI2_ForensicsNIST_Final.pdf
arXiv, “Deepfake-Eval-2024: A Multi-Modal In-the-Wild Benchmark of Deepfakes Circulated in 2024”, https://arxiv.org/abs/2503.02857
C2PA (Coalition for Content Provenance and Authenticity), présentation du standard, https://c2pa.org/
La Réclame, “Face aux deepfakes, France Télévisions marque ses contenus numériques”, 2025, https://lareclame.fr/g2pa-content-credentials-france-televisions-dalet-ia-323348
Associated Press, “Impostor uses AI to impersonate Rubio and contact foreign and US officials”, 10/07/2025, https://apnews.com/article/1b3cc78464404b54e63f4eba9dd4f5a9
Ars Technica, “FBI warns of ongoing scam that uses deepfake audio to impersonate government officials”, 15/05/2025, https://arstechnica.com/security/2025/05/fbi-warns-of-ongoing-scam-that-uses-deepfake-audio-to-impersonate-government-officials/
IA impact sur emploi 02/2026
Fiche – Vague de licenciements : l’IA, la coupable idéale Source principale : Les Echos (analyse de Joséphine Boone, 06/02/2026, https://www.lesechos.fr/idees-debats/editos-analyses/vague-de-licenciements-lia-la-coupable-ideale-2214261) Angle : des entreprises mobilisent l’IA (notamment l’IA générative) comme alibi narratif pour expliquer ou “habiller” des licenciements dont les causes sont souvent plus économiques, organisationnelles ou conjoncturelles.
Contexte & Enjeux
Le point de départ de l’analyse des Echos est le récit qui s’installe dans de nombreuses entreprises : l’arrivée de l’intelligence artificielle au travail devient “l’excuse favorite” pour justifier des plans de licenciements, au risque de simplifier à l’extrême une réalité jugée plus complexe, plus asymétrique et parfois opportuniste (Les Echos, 06/02/2026, https://www.lesechos.fr/idees-debats/editos-analyses/vague-de-licenciements-lia-la-coupable-ideale-2214261). Dans ce cadrage, l’IA fait figure de “coupable idéale” : un argument marketing commode, parce qu’il est à la fois moderne, spectaculaire, et suffisamment flou pour agréger des décisions déjà motivées par d’autres facteurs (ralentissement de la demande, sur-embauches post-Covid, pressions de coûts, changements de priorités, contraintes budgétaires, réorganisations).
L’article situe ce phénomène dans une vague de réductions d’effectifs particulièrement visible dans les services numériques, les cabinets de conseil et les grandes entreprises technologiques. Il cite un ensemble d’acteurs (IBM, Accenture, McKinsey, Amazon, Intel, HP, Microsoft) ayant annoncé des licenciements avec, “mise en cause”, un “coupable” récurrent : l’intelligence artificielle (Les Echos, 06/02/2026, lien ci-dessus). L’enjeu, pour des décideurs, n’est pas seulement l’effet réel de l’IA sur l’emploi, mais la façon dont l’IA devient un récit de transformation — parfois instrumentalisé — pour légitimer des arbitrages de coûts ou des changements organisationnels.
Un second enjeu, sous-jacent, tient à la difficulté d’établir un lien robuste entre l’IA et la destruction nette d’emplois à court terme. L’analyse des Echos insiste sur la prudence : corrélation ne signifie pas causalité, et l’IA peut coïncider avec une hausse du chômage dans certains métiers sans en être l’unique moteur (Les Echos, 06/02/2026, lien ci-dessus). Cette prudence rejoint les conclusions de travaux économiques qui parlent d’indices “inégaux” ou “fragmentaires” (“patchy”) quant à un “remaniement” du marché du travail directement attribuable à l’IA, et qui invitent à éviter les sur-interprétations (Oxford Economics, janvier 2026, https://www.oxfordeconomics.com/resource/evidence-of-an-ai-driven-shakeup-of-job-markets-is-patchy/).
Solution IA déployée
Ici, il ne s’agit pas d’un cas d’usage unique, mais d’un faisceau de déploiements revendiqués (ou projetés) autour de l’IA, souvent présentés comme des accélérateurs de productivité : assistants de code, automatisation de tâches administratives, agents conversationnels internes, outils d’aide à la rédaction et à l’analyse, rationalisation de processus. L’argument managérial implicite est : “si l’IA automatise une partie du travail, nous pouvons réduire les effectifs, geler les embauches, ou reconfigurer les équipes”.
Les Echos illustre ce discours par des éléments de langage d’entreprise. L’article rapporte par exemple une justification liée à l’intégration de l’IA dans le travail quotidien et à la redéfinition de certains postes, dans une logique où certains salariés deviendraient “accessoires” au regard de l’entreprise (Les Echos, 06/02/2026, lien ci-dessus). Dans le même esprit, l’article met en avant une idée centrale : freiner des embauches ou privilégier des profils plus expérimentés n’équivaut pas mécaniquement à justifier des plans massifs de licenciements — autrement dit, l’IA ne doit pas servir de paravent systématique (Les Echos, 06/02/2026, lien ci-dessus).
En parallèle, des travaux empiriques permettent de préciser ce que recouvrent ces “déploiements”. Par exemple, trois expérimentations en entreprise (chez Microsoft, Accenture et une entreprise Fortune 100) portant sur des assistants de code montrent une hausse mesurée de la productivité des développeurs équipés : en combinant les données de 4 867 développeurs, l’étude conclut à une augmentation de 26,08% des tâches réalisées, avec un effet plus marqué chez les développeurs moins expérimentés (Microsoft Research, juin 2025, https://www.microsoft.com/en-us/research/publication/the-effects-of-generative-ai-on-high-skilled-work-evidence-from-three-field-experiments-with-software-developers/).
Résultats & Bénéfices
Le bénéfice le plus souvent mis en avant dans les discours d’entreprise est l’amélioration de la productivité et la suppression de tâches chronophages. Les Echos note que l’IA générative est clairement identifiée, depuis environ trois ans, comme une opportunité par les entreprises : gains de productivité, suppression de tâches répétitives, accélération de l’innovation, voire remplacement de certaines tâches ou fonctions, à des niveaux variables selon les métiers (Les Echos, 06/02/2026, lien ci-dessus).
Des études académiques et de terrain confirment l’existence de gains, mais plutôt sous forme de transformations de tâches et de performances individuelles, pas nécessairement de suppressions nettes d’emplois à court terme. Dans un centre d’appels (5 172 agents), une étude publiée dans The Quarterly Journal of Economics mesure qu’un assistant IA peut accroître la productivité moyenne d’environ 15%, notamment en aidant davantage les agents moins expérimentés à converger plus vite vers les pratiques des meilleurs performeurs (The Quarterly Journal of Economics, “Generative AI at Work”, https://academic.oup.com/qje/article-abstract/140/2/889/7927668).
Mais l’analyse des Echos insiste sur un point décisif pour l’évaluation “macro” : même si des gains existent, ils sont difficiles à consolider à l’échelle d’une entreprise, et encore plus à l’échelle d’un secteur, parce que l’intégration opérationnelle de l’IA reste complexe et que la mesure des gains (temps, qualité, productivité) est souvent incertaine (Les Echos, 06/02/2026, lien ci-dessus). Cette difficulté est cohérente avec une lecture prudente de la situation du marché du travail : certains travaux observent des signaux de tensions dans des professions très exposées à l’IA, mais rappellent que les facteurs macroéconomiques (cycle, politique monétaire, demande) peuvent expliquer une partie des évolutions, indépendamment de l’IA (St. Louis Fed, 26/08/2025, https://www.stlouisfed.org/on-the-economy/2025/aug/is-ai-contributing-unemployment-evidence-occupational-variation).
À court terme, les bénéfices avancés par l’IA peuvent donc coexister avec des licenciements motivés par d’autres causes — et c’est précisément ce décalage que pointe l’article : l’IA devient une explication “simple” et “vendable” pour des décisions dont le moteur principal peut être ailleurs (Les Echos, 06/02/2026, lien ci-dessus).
Facteurs clés de succès
Plusieurs éléments ressortent des sources comme déterminants — non pas pour “licencier grâce à l’IA”, mais pour obtenir des gains réels et éviter la pure rhétorique.
D’abord, l’adoption effective dépend de l’intégration des outils dans les flux de travail. La diffusion rapide des usages est documentée : une enquête représentative (Real-Time Population Survey) indique que 23% des salariés américains utilisaient l’IA générative pour le travail au moins une fois par semaine fin 2024, ce qui signale une pénétration rapide — mais pas uniforme — des outils (St. Louis Fed, 26/08/2025, https://www.stlouisfed.org/on-the-economy/2025/aug/is-ai-contributing-unemployment-evidence-occupational-variation).
Ensuite, les gains semblent hétérogènes : dans les expérimentations sur l’assistance au code, les développeurs moins expérimentés adoptent davantage l’outil et obtiennent des gains plus élevés, ce qui suggère que la conduite du changement, la formation et l’outillage comptent autant que la technologie (Microsoft Research, juin 2025, lien ci-dessus).
Enfin, la capacité à piloter la transformation suppose des indicateurs plus fins que les métriques classiques. Le rapport “Project Iceberg” (MIT) propose un “Iceberg Index” centré sur les compétences : il modélise 151 millions de travailleurs, plus de 32 000 compétences et 3 000 comtés, et estime que l’adoption “visible” concentrée dans l’informatique (2,2% de la valeur salariale, environ 211 milliards de dollars) ne serait que “la partie émergée”, alors que l’exposition technique plus profonde (automatisation cognitive dans l’administratif, la finance, les services professionnels) atteindrait 11,7% (environ 1 200 milliards de dollars) (MIT – Project Iceberg, https://iceberg.mit.edu/report.pdf).
Freins & Obstacles rencontrés
Le frein principal, tel que formulé dans Les Echos, est l’écart entre le discours et la réalité opérationnelle : il reste difficile d’intégrer efficacement l’IA à grande échelle et de calculer un “résultat réel” en productivité ou en temps, ce qui rend d’autant plus discutable son usage comme justification directe de plans massifs de licenciements (Les Echos, 06/02/2026, lien ci-dessus).
Un second obstacle tient à l’ambiguïté des signaux économiques. Des analyses observent des corrélations entre exposition/adoption de l’IA et hausse du chômage dans certaines familles de métiers entre 2022 et 2025 (corrélation 0,47 pour l’exposition théorique et 0,57 pour l’adoption mesurée), tout en rappelant explicitement les limites : ces résultats restent corrélationnels et peuvent être influencés par d’autres facteurs (incertitude, resserrement monétaire, conjoncture sectorielle) (St. Louis Fed, 26/08/2025, lien ci-dessus).
Troisièmement, les données sur les “licenciements dus à l’IA” sont elles-mêmes délicates : les employeurs citent des raisons multiples, et l’IA peut être un motif parmi d’autres (ou un motif plus “présentable”). Les statistiques de Challenger, Gray & Christmas illustrent ce mélange : en octobre 2025, les employeurs américains annoncent 153 074 suppressions de postes, et l’IA est citée comme second facteur du mois (31 039 suppressions), derrière le “cost-cutting” (50 437 suppressions) ; sur l’année 2025 jusqu’à octobre, l’IA est citée pour 48 414 suppressions, tandis que d’autres raisons dominent aussi très largement selon les mois et secteurs (Challenger, Gray & Christmas, publié le 06/11/2025, https://www.challengergray.com/blog/october-challenger-report-153074-job-cuts-on-cost-cutting-ai/).
Perspectives & Évolutions
Les Echos suggère que certains métiers (création, codage, relation client) connaîtront des transformations substantielles dans les mois ou années à venir, mais met en garde contre une lecture simpliste : il est “trompeur” d’affirmer que l’IA “cause” mécaniquement des licenciements massifs, et il faut distinguer transformation des tâches, réorganisation, et destruction nette d’emplois (Les Echos, 06/02/2026, lien ci-dessus). L’article relaie aussi un débat de scénarios : un scénario “optimiste” où l’IA enrichit surtout les tâches et la qualité des emplois, et un scénario “pessimiste” où l’IA détruit beaucoup d’emplois et bénéficie surtout à quelques entreprises (Patrick Artus, cité par Les Echos, 06/02/2026, lien ci-dessus).
À l’échelle mondiale, le World Economic Forum projette une transformation structurelle significative d’ici 2030 : sur 2025–2030, création et destruction d’emplois représenteraient 22% des emplois actuels ; il anticipe une création brute équivalente à 14% de l’emploi mondial (170 millions d’emplois) et une destruction équivalente à 8% (92 millions), soit un solde net de +78 millions. Le même rapport indique qu’en moyenne 39% des compétences actuelles des travailleurs devraient être transformées ou devenir obsolètes sur la période, et que 40% des employeurs envisagent de réduire des effectifs là où l’IA peut automatiser des tâches (World Economic Forum, “The Future of Jobs Report 2025”, publié le 07/01/2025, https://www.weforum.org/publications/the-future-of-jobs-report-2025/digest/).
Sur le segment des jeunes et des postes “d’entrée”, certains indicateurs suggèrent un risque de “goulot d’étranglement” : une analyse relayée par Brookings et Yale Budget Lab conclut que l’IA n’explique pas à elle seule un ralentissement global du marché du travail, mais qu’elle est associée à une baisse d’environ 15% des offres d’emploi en ligne pour des postes d’entrée de gamme dans des professions exposées ; l’article note aussi une forte hausse des mentions de compétences liées à l’IA dans les descriptions de poste (Brookings, 09/10/2025, https://www.brookings.edu/articles/ai-isnt-driving-the-labor-market-slowdown-but-its-changing-the-job-market/).
Enfin, un point important, également mis en avant par Les Echos, est l’écart entre “licenciements” et “trajectoire d’effectifs” dans certaines grandes entreprises technologiques : malgré des plans de réduction, les entreprises peuvent simultanément réallouer, réembaucher et investir, en particulier autour de l’IA. À titre d’illustration, Meta déclare 74 067 employés au 31/12/2024 (SEC filing, https://www.sec.gov/Archives/edgar/data/1326801/000132680125000017/meta-20241231.htm) tandis qu’Alphabet déclare 183 323 employés au 31/12/2024 (Alphabet 2024 Annual Report, SEC, https://www.sec.gov/Archives/edgar/data/1652044/000130817925000513/goog012714-ars.pdf) et Microsoft indique employer environ 228 000 personnes à temps plein au 30/06/2025 (Microsoft 2025 Annual Report, https://www.microsoft.com/investor/reports/ar25/index.html). Ces ordres de grandeur montrent que les annonces de licenciements coexistent avec des stratégies de transformation et de réallocation plus larges, ce qui renforce l’idée que l’IA peut servir de récit explicatif sans être l’unique cause (sources SEC/Microsoft ci-dessus).
Données clés (vulgarisées)
Dans l’analyse des Echos, plusieurs ordres de grandeur servent à qualifier le débat : des rapports évoqueraient environ 50 000 suppressions de postes attribuées à l’IA aux États-Unis en 2025 ; une étude du MIT citée par l’article estime que l’IA pourrait être “capable de faire le métier” de 12% des Américains, soit potentiellement 20 millions de postes — tout en rappelant que ces chiffres relèvent d’estimations d’exposition/capacité et pas de licenciements observés (Les Echos, 06/02/2026, lien ci-dessus). L’article cite également Oxford Economics sur un impact déjà “identifiable” et une hausse du chômage des jeunes diplômés aux États-Unis, avec un taux passé d’un plus bas de 3,9% (novembre 2022) à 5,5% (mars 2025), mais en insistant sur la prudence d’interprétation (Les Echos, 06/02/2026, lien ci-dessus ; Oxford Economics, janvier 2026, https://www.oxfordeconomics.com/resource/evidence-of-an-ai-driven-shakeup-of-job-markets-is-patchy/).
Des données externes complètent ce tableau : – Adoption : 23% des travailleurs américains déclarent utiliser l’IA générative pour le travail au moins une fois par semaine fin 2024 (St. Louis Fed, 26/08/2025, https://www.stlouisfed.org/on-the-economy/2025/aug/is-ai-contributing-unemployment-evidence-occupational-variation). – Corrélations emploi : entre 2022 et 2025, corrélation 0,47 entre exposition théorique à l’IA et hausse du chômage par grandes familles de métiers ; corrélation 0,57 entre adoption mesurée et hausse du chômage, avec rappel “corrélation ≠ causalité” (St. Louis Fed, 26/08/2025, lien ci-dessus). – Licenciements déclarés : en octobre 2025, 153 074 suppressions annoncées ; l’IA est citée pour 31 039 suppressions ce mois-là et pour 48 414 suppressions sur 2025 (jusqu’à octobre) ; “cost-cutting” et autres motifs restent majeurs (Challenger, Gray & Christmas, 06/11/2025, https://www.challengergray.com/blog/october-challenger-report-153074-job-cuts-on-cost-cutting-ai/). – Productivité micro : +26,08% de tâches complétées pour 4 867 développeurs équipés d’un assistant de code (Microsoft Research, juin 2025, https://www.microsoft.com/en-us/research/publication/the-effects-of-generative-ai-on-high-skilled-work-evidence-from-three-field-experiments-with-software-developers/). – Productivité micro (service) : +15% de productivité moyenne dans un centre d’appels (QJE, “Generative AI at Work”, https://academic.oup.com/qje/article-abstract/140/2/889/7927668). – Exposition “compétences” (MIT) : adoption “visible” ~2,2% de la valeur salariale (~211 Md$) vs exposition technique “sous la surface” ~11,7% (~1 200 Md$), avec une diffusion géographique large (MIT – Project Iceberg, https://iceberg.mit.edu/report.pdf). – Projections 2030 : +170M créations brutes, -92M destructions, solde +78M ; 40% des employeurs prévoient des réductions d’effectifs lorsque l’IA automatise des tâches ; 39% des compétences transformées/obsolètes (WEF, 07/01/2025, https://www.weforum.org/publications/the-future-of-jobs-report-2025/digest/).
Acteurs & Partenaires
Les Echos met en scène, côté entreprises, des acteurs des services numériques, du conseil et de la tech (IBM, Accenture, McKinsey, Amazon, Intel, HP, Microsoft) et cite la manière dont des dirigeants peuvent “mettre en avant” l’IA dans leurs explications publiques (Les Echos, 06/02/2026, lien ci-dessus). Le débat s’appuie aussi sur des institutions et producteurs de données : Oxford Economics (analyse macro), Challenger, Gray & Christmas (statistiques mensuelles de licenciements), des chercheurs et institutions académiques (MIT/Project Iceberg), ainsi que des organismes de recherche et de politique publique (Federal Reserve Bank of St. Louis sur l’adoption et les corrélations chômage, World Economic Forum sur les projections globales).
Références & Sources
Les Echos, “Vague de licenciements : l’IA, la coupable idéale”, analyse de Joséphine Boone, 06/02/2026 : https://www.lesechos.fr/idees-debats/editos-analyses/vague-de-licenciements-lia-la-coupable-ideale-2214261
Oxford Economics, “Evidence of an AI-driven shakeup of job markets is patchy”, janvier 2026 : https://www.oxfordeconomics.com/resource/evidence-of-an-ai-driven-shakeup-of-job-markets-is-patchy/
Challenger, Gray & Christmas, “October Challenger Report: 153,074 Job Cuts on Cost-Cutting & AI”, publié le 06/11/2025 : https://www.challengergray.com/blog/october-challenger-report-153074-job-cuts-on-cost-cutting-ai/
Federal Reserve Bank of St. Louis, “Is AI Contributing to Rising Unemployment? Evidence from Occupational Variation”, 26/08/2025 : https://www.stlouisfed.org/on-the-economy/2025/aug/is-ai-contributing-unemployment-evidence-occupational-variation
MIT – Project Iceberg, “Report” (Iceberg Index), PDF : https://iceberg.mit.edu/report.pdf
Microsoft Research, “The Effects of Generative AI on High-Skilled Work: Evidence from Three Field Experiments with Software Developers”, juin 2025 : https://www.microsoft.com/en-us/research/publication/the-effects-of-generative-ai-on-high-skilled-work-evidence-from-three-field-experiments-with-software-developers/
The Quarterly Journal of Economics, “Generative AI at Work” (résumé/abstract) : https://academic.oup.com/qje/article-abstract/140/2/889/7927668
World Economic Forum, “The Future of Jobs Report 2025” (digest), publié le 07/01/2025 : https://www.weforum.org/publications/the-future-of-jobs-report-2025/digest/
Meta Platforms, SEC filing (effectifs : 74 067 au 31/12/2024) : https://www.sec.gov/Archives/edgar/data/1326801/000132680125000017/meta-20241231.htm
Alphabet, 2024 Annual Report (SEC) (effectifs : 183 323 au 31/12/2024) : https://www.sec.gov/Archives/edgar/data/1652044/000130817925000513/goog012714-ars.pdf
Microsoft, 2025 Annual Report (effectifs : ~228 000 au 30/06/2025) : https://www.microsoft.com/investor/reports/ar25/index.html
Brookings, “AI isn’t driving the labor market slowdown, but it’s changing the job market”, 09/10/2025 : https://www.brookings.edu/articles/ai-isnt-driving-the-labor-market-slowdown-but-its-changing-the-job-market/
L’IA, une nouvelle compétence clé pour les jeunes consultants 02/2026
Contexte & Enjeux
L’article « L’IA, une nouvelle compétence clé pour les jeunes consultants » (Les Echos, 17/02/2026, source fournie : “les echos 17/2/26”, https://www.lesechos.fr/) décrit une évolution rapide du métier du conseil : l’intelligence artificielle ne relève plus seulement de l’innovation ou d’une expertise de niche, elle devient une compétence attendue dès l’entrée dans la profession. Les cabinets cherchent à attirer des jeunes recrues à l’aise avec cette technologie, et cette demande exerce une pression directe sur les grandes écoles – principaux viviers de recrutement – qui doivent adapter leurs contenus et leurs méthodes pédagogiques (Les Echos, 17/02/2026, https://www.lesechos.fr/).
Le texte met en avant un moteur très concret de cette bascule : l’automatisation progressive de tâches historiquement réalisées par les juniors. Les Echos citent notamment la mise en forme de rapports et la recherche de données, activités qui constituaient une part importante du travail des jeunes consultants. En automatisant ou en accélérant ces tâches, l’IA change la nature de la valeur attendue : les cabinets demandent aux juniors d’être plus rapidement opérationnels, capables de structurer un problème, de raisonner, de juger la pertinence d’une production assistée par IA et de conserver un regard critique sur les propositions obtenues (Les Echos, 17/02/2026, https://www.lesechos.fr/). Cette transformation touche aussi la socialisation professionnelle : le “compagnonnage” et l’apprentissage progressif du métier, autrefois fondés sur un volume important de production, doivent être repensés pour garantir l’acquisition de standards de qualité, de réflexes méthodologiques et d’une posture de conseil crédible même lorsque l’outil accélère la production.
L’enjeu est également culturel et générationnel. Les Echos insistent sur l’idée que les jeunes arrivant sur le marché du travail ont grandi avec le numérique, et sont souvent plus familiers avec les nouveaux outils. Cette observation s’inscrit dans une tendance plus large documentée par des sources publiques : le Baromètre du numérique 2026 souligne qu’une part importante de la population utilise déjà l’IA générative, avec une adoption particulièrement marquée chez les plus jeunes (Vie-publique.fr, “Baromètre du numérique 2026 : près d’une personne sur deux utilise l’intelligence artificielle”, 2026, https://www.vie-publique.fr/en-bref/301989-barometre-du-numerique-2026-48-dutilisateurs-de-lia).
Enfin, l’enjeu est aussi réglementaire et réputationnel, notamment en Europe. Le règlement (UE) 2024/1689 (“AI Act”) établit un cadre harmonisé pour l’intelligence artificielle, avec des obligations qui varient selon les rôles des acteurs et le niveau de risque des systèmes (EUR-Lex, Règlement (UE) 2024/1689, https://eur-lex.europa.eu/legal-content/FR/TXT/?uri=CELEX%3A32024R1689). La lecture institutionnelle française rappelle que sont concernées les organisations qui fournissent, importent, distribuent ou déploient des systèmes ou modèles d’IA encadrés par le règlement, y compris hors UE si leurs produits sont utilisés dans l’Union (Ministère de l’Économie / entreprises.gouv.fr, “Le règlement européen sur l’intelligence artificielle : publics concernés”, publié le 14/02/2025, contenu mis à jour le 28/07/2025, https://www.entreprises.gouv.fr/decryptages-de-nos-experts/le-reglement-europeen-sur-lintelligence-artificielle-publics-concernes). Pour le conseil, qui intervient sur des sujets sensibles (données, décisions, RH, conformité, transformation), ce cadre renforce l’importance de profils capables non seulement d’utiliser l’IA, mais aussi de l’encadrer : confidentialité, traçabilité, gestion des risques, et capacité à expliciter les limites de l’outil dans un contexte client.
Solution IA déployée
Le contenu des Echos ne décrit pas un projet IA unique, mais une diffusion d’usages IA dans les pratiques quotidiennes du conseil, avec des impacts sur la production de livrables et la recherche d’informations (Les Echos, 17/02/2026, https://www.lesechos.fr/). L’IA apparaît comme un levier d’automatisation/accélération des tâches et, par ricochet, comme un élément qui modifie les compétences attendues des juniors : moins de temps consacré à des opérations répétitives, plus de place pour la structuration, la vérification, l’analyse et la formulation d’une recommandation.
L’article documente toutefois une traduction très concrète côté RH : Onepoint annonce une intention de recruter 800 personnes en 2026, et précise que tous les candidats devront résoudre un cas d’usage mobilisant l’IA, afin d’évaluer l’agilité, la méthode de raisonnement et l’esprit critique (Les Echos, 17/02/2026, https://www.lesechos.fr/). Cette orientation est corroborée et détaillée par plusieurs sources externes de février 2026 : – Onepoint annonce 1 200 recrutements dans le monde dont 800 en France pour 2026, et indique que 30 % des recrutements viseront des jeunes diplômés ou des profils avec moins de deux ans d’expérience (infoDSI, “Onepoint annonce 1200 recrutements et généralise l’évaluation IA pour tous ses candidats”, 03/02/2026, https://infodsi.com/communiques-de-presse/48938/onepoint-annonce-1200-recrutements-et-generalise-levaluation-ia-pour-tous-ses-candidats). – Le Journal des Entreprises reprend ces éléments et précise la même cible de 30 % de jeunes diplômés / profils très juniors (Le Journal des Entreprises, “Conseil : Onepoint annonce 800 recrutements en France”, 05/02/2026, https://www.lejournaldesentreprises.com/breve/conseil-onepoint-annonce-800-recrutements-en-france-2136209). – Onepoint publie une page de campagne mettant en avant l’intégration de l’IA “à tous les niveaux, y compris les RH”, et explicite la logique : évaluer dès le recrutement la capacité des candidats à interagir et à “prompter” avec l’IA, tout en réaffirmant que l’humain resterait “au cœur du métier” et “augmenté” (Onepoint, “L’IA change les règles, vous jouez ? Nous recrutons”, https://www.groupeonepoint.com/fr/actualites/operation-recrutement-ia/).
Ces éléments illustrent une forme de “solution” organisationnelle : faire de l’IA une compétence standardisée et objectivable dans le recrutement (mise en situation), et non un simple item déclaratif sur un CV.
Résultats & Bénéfices
Les Echos mettent d’abord en avant des bénéfices qualitatifs liés à l’évolution du travail : automatisation de tâches de production, accélération de la recherche d’informations, et déplacement de la valeur vers des compétences de raisonnement, de méthode et de posture critique (Les Echos, 17/02/2026, https://www.lesechos.fr/). En pratique, cela signifie que la performance attendue d’un junior se rapproche davantage d’une capacité à cadrer un problème, contrôler la qualité, détecter les incohérences, expliciter les hypothèses et produire un livrable robuste, plutôt que d’exécuter mécaniquement des tâches de compilation.
L’article souligne aussi un bénéfice en termes de trajectoire professionnelle : les écoles et acteurs cités y voient une opportunité d’accès à des missions plus diversifiées et un “accélérateur de carrière”, à condition d’acquérir rapidement les nouvelles compétences (Les Echos, 17/02/2026, https://www.lesechos.fr/). Dans cette logique, l’IA ne remplace pas l’apprentissage du conseil, mais reconfigure la progression : les juniors sont incités à devenir plus vite autonomes sur la structuration et la valeur ajoutée, tandis que les attentes de rapidité et de qualité augmentent.
Du côté RH, l’exemple Onepoint met en évidence un bénéfice attendu pour l’entreprise : sécuriser un niveau minimal de compétence IA chez l’ensemble des recrues, en généralisant l’évaluation et en ciblant une part significative de jeunes profils (infoDSI, 03/02/2026, https://infodsi.com/communiques-de-presse/48938/onepoint-annonce-1200-recrutements-et-generalise-levaluation-ia-pour-tous-ses-candidats ; Le Journal des Entreprises, 05/02/2026, https://www.lejournaldesentreprises.com/breve/conseil-onepoint-annonce-800-recrutements-en-france-2136209). Le bénéfice recherché est double : améliorer l’alignement entre promesses et compétences réelles, et accélérer la capacité de delivery des équipes dans un marché où l’IA devient une brique omniprésente.
Enfin, côté formation, l’évolution se traduit par une montée en puissance de programmes explicitement orientés “IA & business”, visant à former des profils capables d’intégrer l’IA dans des contextes d’entreprise. NEOMA Business School, citée dans l’article des Echos, présente publiquement un MSc “Artificial Intelligence for Business” axé sur l’intégration de l’IA dans la stratégie d’entreprise, la data science et l’innovation (NEOMA Business School, “MSc ArtificiaI Intelligence for Business”, https://neoma-bs.fr/formations/msc-artificiai-intelligence-business). Des médias de l’enseignement supérieur relaient le lancement de ce MSc et le positionnent comme une réponse à la croissance des usages IA en entreprise et au besoin d’experts capables d’accompagner les organisations dans le déploiement de solutions IA (Planète Grandes Écoles, “NEOMA lance son MSc ‘Artificial Intelligence for Business’”, https://www.planetegrandesecoles.com/neoma-master-in-science-artificial-intelligence-business).
Facteurs clés de succès
Un premier facteur clé, explicitement présent dans l’article des Echos, est l’adaptation rapide des formations sans abandon des fondamentaux. Le texte insiste sur le risque de désalignement entre l’évolution très rapide de la technologie et le temps académique, et sur la nécessité de conserver des enseignements de base jugés indispensables pour comprendre le monde et conseiller (Les Echos, 17/02/2026, https://www.lesechos.fr/). Les pages de programmes orientés “IA & business” illustrent cette logique d’hybridation : former à la fois à l’IA appliquée et à la compréhension des enjeux de transformation et de décision (NEOMA Business School, https://neoma-bs.fr/formations/msc-artificiai-intelligence-business).
Un deuxième facteur clé est la capacité à évaluer et sélectionner des compétences transversales plutôt que la simple familiarité avec des outils. L’exemple Onepoint (cas d’usage IA pour tous les candidats) est révélateur : l’objectif annoncé est d’évaluer l’agilité, la méthode de raisonnement et l’esprit critique (Les Echos, 17/02/2026, https://www.lesechos.fr/). Cette orientation est cohérente avec la communication de Onepoint : “évaluer dès le recrutement la capacité à interagir et à prompter avec l’IA” (Onepoint, https://www.groupeonepoint.com/fr/actualites/operation-recrutement-ia/).
Un troisième facteur clé est la gouvernance et l’usage responsable. Syntec Conseil présente un “Manifeste pour une utilisation responsable de l’IA”, décrit comme un engagement des sociétés membres vers une adoption éthique, transparente et bénéfique (Syntec Conseil, “Manifeste pour une utilisation responsable de l’IA”, https://syntec-conseil.fr/expertises/manifeste-pour-une-utilisation-responsable-de-l-ia/). La presse RH rapporte que ce manifeste affirme que l’IA ne peut pas être utilisée sans “supervision humaine systématique”, quelle que soit l’étape de la prestation de conseil ou de recrutement (RH2 / actuEL RH, “Syntec conseil encadre l’utilisation de l’intelligence artificielle…”, 09/12/2024, https://www.rh2.fr/2024/12/09/syntec-conseil-encadre-lutilisation-de-lintelligence-artificielle-dans-les-metiers-du-recrutement-et-du-conseil/). Dans un métier fondé sur la confiance, ce point devient un facteur de succès : il conditionne la crédibilité des livrables, la maîtrise des risques (erreurs, biais, confidentialité) et l’acceptabilité côté client.
Enfin, un facteur humain ressort fortement de l’article des Echos : la curiosité et la capacité d’adaptation. L’enjeu n’est pas uniquement de recruter des profils techniquement “forts”, mais des jeunes capables d’apprendre rapidement et de s’ajuster à un environnement où les usages et les outils évoluent en continu (Les Echos, 17/02/2026, https://www.lesechos.fr/).
Freins & Obstacles rencontrés
Le premier frein décrit par Les Echos est la vitesse de transformation : le marché attend des écoles une adaptation rapide, alors que la technologie évolue plus vite que les programmes (Les Echos, 17/02/2026, https://www.lesechos.fr/). Ce décalage crée un risque de formation soit insuffisamment à jour, soit trop centrée sur des outils éphémères.
Le deuxième frein est organisationnel et porte sur l’apprentissage du métier. Si l’IA automatise des tâches juniors, une partie du parcours d’apprentissage traditionnel (production intensive, itérations, rigueur documentaire) se réduit mécaniquement. Sans refonte des parcours d’onboarding, cela peut fragiliser l’acquisition de standards de qualité et la capacité à livrer de façon fiable. Les Echos mentionnent une attente d’être plus rapidement opérationnel, ce qui peut raccourcir la phase d’apprentissage (Les Echos, 17/02/2026, https://www.lesechos.fr/).
Le troisième frein est la conformité. Le règlement (UE) 2024/1689 (“AI Act”) encadre l’IA et vise à harmoniser les règles au sein de l’UE (EUR-Lex, https://eur-lex.europa.eu/legal-content/FR/TXT/?uri=CELEX%3A32024R1689). Une source administrative française rappelle que le règlement s’applique aux organisations qui fournissent, importent, distribuent ou déploient des systèmes ou modèles d’IA encadrés, y compris lorsque l’organisation est hors UE mais que le système est utilisé dans l’UE (Ministère de l’Économie / entreprises.gouv.fr, https://www.entreprises.gouv.fr/decryptages-de-nos-experts/le-reglement-europeen-sur-lintelligence-artificielle-publics-concernes). Pour le conseil, cela peut imposer davantage de contrôles, de documentation et de règles internes, notamment sur la confidentialité des données client et la traçabilité des productions assistées par IA.
Perspectives & Évolutions
Les Echos décrivent une trajectoire où l’IA devient une composante durable du socle de compétences du consultant junior, avec un besoin accru de profils hybrides et une pression d’adaptation sur les écoles (Les Echos, 17/02/2026, https://www.lesechos.fr/). Plusieurs évolutions se dessinent à partir des sources consolidées :
Standardisation de l’IA dans le recrutement et la marque employeur. Onepoint illustre une tendance possible : généraliser l’évaluation IA pour tous les candidats et intégrer des dispositifs de campagne qui valorisent la capacité à interagir avec l’IA (infoDSI, 03/02/2026, https://infodsi.com/communiques-de-presse/48938/onepoint-annonce-1200-recrutements-et-generalise-levaluation-ia-pour-tous-ses-candidats ; Onepoint, https://www.groupeonepoint.com/fr/actualites/operation-recrutement-ia/).
Développement de parcours académiques “IA appliquée au business”. L’existence de programmes dédiés comme le MSc “Artificial Intelligence for Business” et leur médiatisation indiquent un mouvement structurel, où l’IA est intégrée comme compétence managériale et de transformation, pas uniquement comme compétence technique (NEOMA Business School, https://neoma-bs.fr/formations/msc-artificiai-intelligence-business ; Planète Grandes Écoles, https://www.planetegrandesecoles.com/neoma-master-in-science-artificial-intelligence-business).
Montée en puissance de la gouvernance IA et des exigences de “responsabilité” dans le conseil. La publication du manifeste de Syntec Conseil et la mise en avant médiatique de la supervision humaine systématique renforcent l’idée que l’industrialisation des usages IA s’accompagnera d’un renforcement des règles internes, des contrôles qualité et des compétences de conformité (Syntec Conseil, https://syntec-conseil.fr/expertises/manifeste-pour-une-utilisation-responsable-de-l-ia/ ; RH2 / actuEL RH, 09/12/2024, https://www.rh2.fr/2024/12/09/syntec-conseil-encadre-lutilisation-de-lintelligence-artificielle-dans-les-metiers-du-recrutement-et-du-conseil/). Cette trajectoire est cohérente avec l’AI Act, qui structure progressivement les obligations des acteurs (EUR-Lex, https://eur-lex.europa.eu/legal-content/FR/TXT/?uri=CELEX%3A32024R1689).
Données clés (vulgarisées)
Les Echos indiquent qu’Onepoint prévoit de recruter 800 personnes en 2026 et que tous les candidats devront résoudre un cas d’usage mobilisant l’IA, afin d’évaluer l’agilité, la méthode de raisonnement et l’esprit critique (Les Echos, 17/02/2026, https://www.lesechos.fr/).
Les sources externes précisent et confirment le cadrage : Onepoint annonce 1 200 recrutements dans le monde dont 800 en France pour 2026, avec 30 % de jeunes diplômés ou de profils avec moins de deux ans d’expérience (infoDSI, 03/02/2026, https://infodsi.com/communiques-de-presse/48938/onepoint-annonce-1200-recrutements-et-generalise-levaluation-ia-pour-tous-ses-candidats ; Le Journal des Entreprises, 05/02/2026, https://www.lejournaldesentreprises.com/breve/conseil-onepoint-annonce-800-recrutements-en-france-2136209).
Sur l’environnement réglementaire : le règlement (UE) 2024/1689 (“AI Act”) établit des règles harmonisées concernant l’intelligence artificielle et vise notamment à éviter des restrictions nationales non prévues par le règlement, en encadrant le développement, la commercialisation et l’utilisation des systèmes d’IA selon un cadre commun (EUR-Lex, https://eur-lex.europa.eu/legal-content/FR/TXT/?uri=CELEX%3A32024R1689). Une source de service-public.fr destinée aux entreprises rappelle le rattachement de l’AI Act au règlement UE 2024/1689 et en présente les impacts généraux (Entreprendre.service-public.fr, “AI Act : quels changements pour les entreprises”, https://entreprendre.service-public.gouv.fr/actualites/A18475).
Acteurs & Partenaires
Les Echos citent un ensemble d’acteurs qui illustrent la transformation “marché–écoles”. Côté cabinets, Onepoint est présenté comme un exemple d’évolution du recrutement et des critères d’évaluation autour de l’IA ; KPMG France est cité sur la recherche de profils hybrides et la diversification des filières ; MeltOne Advisory est cité sur la nécessité d’aller au-delà d’un simple ajout de modules IA et de repenser plus profondément la formation des jeunes (Les Echos, 17/02/2026, https://www.lesechos.fr/).
Côté formation, NEOMA Business School est citée via sa direction et illustre l’adaptation des écoles. L’offre publique de l’établissement matérialise cette orientation via un MSc “Artificial Intelligence for Business” (NEOMA Business School, https://neoma-bs.fr/formations/msc-artificiai-intelligence-business). Des médias spécialisés relaient le lancement du programme et soulignent sa vocation à former des experts pour accompagner les organisations dans leur transition et le déploiement de solutions IA (Planète Grandes Écoles, https://www.planetegrandesecoles.com/neoma-master-in-science-artificial-intelligence-business).
Côté doctrine et cadre d’usage, Syntec Conseil propose un référentiel d’engagements via son manifeste pour une utilisation responsable de l’IA (Syntec Conseil, https://syntec-conseil.fr/expertises/manifeste-pour-une-utilisation-responsable-de-l-ia/). La presse RH met en avant la notion de “supervision humaine systématique” comme principe structurant (RH2 / actuEL RH, 09/12/2024, https://www.rh2.fr/2024/12/09/syntec-conseil-encadre-lutilisation-de-lintelligence-artificielle-dans-les-metiers-du-recrutement-et-du-conseil/). Enfin, le cadre juridique européen est porté par le texte du règlement (UE) 2024/1689 (EUR-Lex, https://eur-lex.europa.eu/legal-content/FR/TXT/?uri=CELEX%3A32024R1689) et ses lectures institutionnelles (Ministère de l’Économie / entreprises.gouv.fr, https://www.entreprises.gouv.fr/decryptages-de-nos-experts/le-reglement-europeen-sur-lintelligence-artificielle-publics-concernes).
Références & Sources
Les Echos – « L’IA, une nouvelle compétence clé pour les jeunes consultants », Les Echos, mardi 17 février 2026 (source fournie : “les echos 17/2/26”). https://www.lesechos.fr/
infoDSI – « Onepoint annonce 1200 recrutements et généralise l’évaluation IA pour tous ses candidats », 3 février 2026. https://infodsi.com/communiques-de-presse/48938/onepoint-annonce-1200-recrutements-et-generalise-levaluation-ia-pour-tous-ses-candidats
Le Journal des Entreprises – « Conseil : Onepoint annonce 800 recrutements en France », 5 février 2026. https://www.lejournaldesentreprises.com/breve/conseil-onepoint-annonce-800-recrutements-en-france-2136209
Onepoint – « L’IA change les règles, vous jouez ? Nous recrutons » (campagne / actualité). https://www.groupeonepoint.com/fr/actualites/operation-recrutement-ia/
Syntec Conseil – « Manifeste pour une utilisation responsable de l’IA ». https://syntec-conseil.fr/expertises/manifeste-pour-une-utilisation-responsable-de-l-ia/
RH2 / actuEL RH – « Syntec conseil encadre l’utilisation de l’intelligence artificielle dans les métiers du recrutement et du conseil », 9 décembre 2024. https://www.rh2.fr/2024/12/09/syntec-conseil-encadre-lutilisation-de-lintelligence-artificielle-dans-les-metiers-du-recrutement-et-du-conseil/
Union européenne (EUR-Lex) – Règlement (UE) 2024/1689 (“AI Act”). https://eur-lex.europa.eu/legal-content/FR/TXT/?uri=CELEX%3A32024R1689
Ministère de l’Économie / Direction générale des entreprises (entreprises.gouv.fr) – « Le règlement européen sur l’intelligence artificielle : publics concernés », publié le 14 février 2025 (contenu mis à jour le 28 juillet 2025). https://www.entreprises.gouv.fr/decryptages-de-nos-experts/le-reglement-europeen-sur-lintelligence-artificielle-publics-concernes
Entreprendre.service-public.fr – « AI Act : quels changements pour les entreprises ». https://entreprendre.service-public.gouv.fr/actualites/A18475
Vie-publique.fr – « Baromètre du numérique 2026 : près d’une personne sur deux utilise l’intelligence artificielle ». https://www.vie-publique.fr/en-bref/301989-barometre-du-numerique-2026-48-dutilisateurs-de-lia
NEOMA Business School – « MSc ArtificiaI Intelligence for Business ». https://neoma-bs.fr/formations/msc-artificiai-intelligence-business
Planète Grandes Écoles – « NEOMA lance son MSc ‘Artificial Intelligence for Business’ ». https://www.planetegrandesecoles.com/neoma-master-in-science-artificial-intelligence-business
IA et e commerce 02/2026
Contexte & Enjeux
L’article de presse « L’IA générative, nouveau moteur de croissance de l’e-commerce en 2025 » (Les Echos, « Entreprises », jeudi 12 février 2026) décrit un marché français du commerce en ligne arrivé à maturité, mais toujours en croissance, malgré une conjoncture économique présentée comme tendue. La dynamique globale est confirmée par la Fédération du e-commerce et de la vente à distance (Fevad) : dans son communiqué « Bilan du e-commerce en France : Les Français ont dépensé près de 200 milliards d’euros sur internet en 2025 » (https://www.fevad.com/bilan-du-e-commerce-en-france-les-francais-ont-depense-pres-de-200-milliards-deuros-sur-internet-en-2025/), la Fevad indique que le secteur du e-commerce (produits et services) atteint 196,4 milliards d’euros en 2025, en hausse de 7 % sur un an, avec 3,2 milliards de transactions (+10 %) et un panier moyen de 62 euros en baisse de 3 % (Fevad, communiqué du 11 février 2026, lien : https://www.fevad.com/bilan-du-e-commerce-en-france-les-francais-ont-depense-pres-de-200-milliards-deuros-sur-internet-en-2025/). Le même communiqué souligne que la croissance est « avant tout portée par les usages », les Français achetant plus souvent en ligne, tandis que la pression sur les prix freine le panier moyen (Fevad, 11 février 2026, lien : https://www.fevad.com/bilan-du-e-commerce-en-france-les-francais-ont-depense-pres-de-200-milliards-deuros-sur-internet-en-2025/).
Dans ce contexte de marché mature, l’enjeu se déplace vers la fluidification et l’optimisation des parcours d’achat. Les Echos met en avant l’IA générative comme catalyseur d’un « commerce agentique », c’est-à-dire des parcours dans lesquels des assistants conversationnels guident l’acheteur, parfois jusqu’à déclencher certaines actions (recherche, comparaison, sélection). Cette tendance s’inscrit dans une évolution plus large documentée par plusieurs acteurs : Mastercard définit le « commerce agentique » comme une nouvelle forme d’achat en ligne et mobile dans laquelle un agent d’IA peut « fermer la boucle » en accomplissant des tâches pour l’utilisateur (recherche d’articles, comparaison d’options, achat) avec peu ou pas d’interventions manuelles (Mastercard, « Qu’est-ce que le commerce agentique ? », lien : https://www.mastercard.com/fr/fr/news-and-trends/stories/2025/agentic-commerce-explainer.html). Stripe décrit également le commerce agentique comme une forme d’achat où des agents d’IA « trouvent, comparent et effectuent des achats » pour le compte des clients, après validation de l’utilisateur (Stripe, « Qu’est-ce que le commerce agentique ? Un guide pour démarrer », lien : https://stripe.com/fr/guides/agentic-commerce).
Solution IA déployée
Le cas présenté n’est pas celui d’un projet unique porté par une entreprise, mais d’une transformation de marché : l’IA générative devient un outil d’aide à la décision dans l’e-commerce, utilisé par les consommateurs et intégré progressivement aux dispositifs de commerce conversationnel. Les Echos indique que 31 % des cyberacheteurs utilisent désormais l’IA générative, et met en avant un chiffre de 54 % de personnes ayant déjà utilisé l’IA déclarant y recourir pour leurs achats (Les Echos, « L’IA générative, nouveau moteur de croissance de l’e-commerce en 2025 », jeudi 12 février 2026). Cette diffusion est cohérente avec les résultats d’études récentes relayées par des sources sectorielles : selon IBM, « près de la moitié » des consommateurs utilisent désormais l’IA pour guider leurs achats, et, en France, 40 % déclarent utiliser l’IA pour les aider dans leur intention d’achat, notamment pour rechercher des produits (34 %), consulter des avis (27 %) ou trouver des offres (24 %) (IBM Newsroom France, « Etude IBM : 40 % des consommateurs français utilisent désormais l'IA pour les guider dans leurs achats », 7 janvier 2026, lien : https://fr.newsroom.ibm.com/Etude-IBM-40-des-consommateurs-fran-ais-utilisent-d-sormais-lIA-pour-les-guider-dans-leurs-achats).
Concrètement, la « solution » évoquée dans l’écosystème prend la forme d’assistants conversationnels s’appuyant sur l’IA générative, capables d’interpréter un besoin exprimé en langage naturel, d’agréger des informations (caractéristiques, avis, prix, disponibilité), de proposer une sélection, et parfois d’enchaîner des actions. Les Echos cite explicitement l’exemple d’un assistant « comme ChatGPT » comme repère grand public (Les Echos, jeudi 12 février 2026). Les définitions de Mastercard et Stripe convergent sur trois briques fonctionnelles : compréhension de l’intention, comparaison/évaluation, puis action d’achat après validation (Mastercard, lien : https://www.mastercard.com/fr/fr/news-and-trends/stories/2025/agentic-commerce-explainer.html ; Stripe, lien : https://stripe.com/fr/guides/agentic-commerce).
Résultats & Bénéfices
Les bénéfices mis en avant dans l’article des Echos sont d’abord centrés sur le consommateur : gain de temps, accès plus rapide à des informations utiles, capacité à établir une première sélection de produits, et simplification du parcours de recherche avant achat (Les Echos, jeudi 12 février 2026). Les sources de cadrage confirment que l’intérêt attendu du commerce agentique est précisément l’efficacité (moins de navigation, moins de “scroll”), tout en augmentant la personnalisation : Mastercard explique que ces agents peuvent mémoriser préférences et achats antérieurs, et aider l’utilisateur à trouver ce dont il a besoin « en quelques secondes » (Mastercard, lien : https://www.mastercard.com/fr/fr/news-and-trends/stories/2025/agentic-commerce-explainer.html).
Au niveau macroéconomique, l’IA générative est présentée comme un accélérateur dans un marché en croissance mais sous contrainte de pouvoir d’achat. Le bilan Fevad montre un volume élevé et en progression (196,4 milliards d’euros, +7 %, 3,2 milliards de transactions, +10 %) tout en signalant un recul du panier moyen (62 euros, -3 %) (Fevad, communiqué du 11 février 2026, lien : https://www.fevad.com/bilan-du-e-commerce-en-france-les-francais-ont-depense-pres-de-200-milliards-deuros-sur-internet-en-2025/). Dans ce cadre, l’IA peut être interprétée comme une réponse à un double besoin : aider les consommateurs à arbitrer plus vite (comparaison, avis, promotions) et aider les acteurs à améliorer la conversion et l’expérience, sans dépendre d’une hausse du panier moyen. Les données IBM détaillent d’ailleurs des usages très concrets liés à l’achat “sous contrainte” : recherche, avis, bonnes affaires (IBM Newsroom France, 7 janvier 2026, lien : https://fr.newsroom.ibm.com/Etude-IBM-40-des-consommateurs-fran-ais-utilisent-d-sormais-lIA-pour-les-guider-dans-leurs-achats).
Facteurs clés de succès
Plusieurs facteurs de succès ressortent de la convergence entre Les Echos et les sources d’études. Le premier est l’utilité immédiate et perceptible : l’adoption progresse lorsque l’IA réduit l’effort cognitif, accélère la recherche et sécurise la décision par des éléments comparatifs (Les Echos, jeudi 12 février 2026 ; IBM Newsroom France, 7 janvier 2026, lien : https://fr.newsroom.ibm.com/Etude-IBM-40-des-consommateurs-fran-ais-utilisent-d-sormais-lIA-pour-les-guider-dans-leurs-achats). Le second est l’intégration “en amont” du parcours : IBM décrit l’IA comme un soutien au moment de l’intention d’achat (recherche, avis, offres), ce qui rejoint l’idée des Echos que l’usage ne se limite plus à l’acte d’achat, mais intervient dès la phase de découverte et de sélection (Les Echos, jeudi 12 février 2026 ; IBM Newsroom France, 7 janvier 2026, lien : https://fr.newsroom.ibm.com/Etude-IBM-40-des-consommateurs-fran-ais-utilisent-d-sormais-lIA-pour-les-guider-dans-leurs-achats).
Le troisième facteur, déterminant, est la confiance. IBM souligne explicitement que « la confiance demeure un enjeu majeur » et mentionne des inquiétudes liées à la confidentialité, à l’utilisation abusive des données et aux sollicitations non désirées (IBM Newsroom France, 7 janvier 2026, lien : https://fr.newsroom.ibm.com/Etude-IBM-40-des-consommateurs-fran-ais-utilisent-d-sormais-lIA-pour-les-guider-dans-leurs-achats). Dans le cadre européen, ces attentes se relient à des exigences de transparence : l’AI Act prévoit des obligations d’information lorsque les utilisateurs interagissent avec un système d’IA et de marquage des contenus générés ou manipulés (Commission européenne, AI Act Service Desk, « Article 50: Obligations de transparence », lien : https://ai-act-service-desk.ec.europa.eu/fr/ai-act/article-50).
Freins & Obstacles rencontrés
Les Echos insiste sur une méfiance persistante : questionnement sur la neutralité des recommandations et préoccupations de sécurité, notamment au moment du paiement (Les Echos, jeudi 12 février 2026). Ces freins sont cohérents avec les signaux relevés par IBM, qui met en avant les inquiétudes de confidentialité, de détournement des données et de sollicitations non désirées, malgré une disposition de certains consommateurs à partager des informations si l’intégration est transparente (IBM Newsroom France, 7 janvier 2026, lien : https://fr.newsroom.ibm.com/Etude-IBM-40-des-consommateurs-fran-ais-utilisent-d-sormais-lIA-pour-les-guider-dans-leurs-achats).
Un autre obstacle, plus structurel, est que les agents pleinement autonomes pour le grand public restent « en train d’émerger » : Mastercard indique que l’écosystème est encore en phase de montée en puissance, même si les briques logicielles apparaissent dans de plus en plus d’endroits (Mastercard, lien : https://www.mastercard.com/fr/fr/news-and-trends/stories/2025/agentic-commerce-explainer.html). Cela implique, dans les faits, une période où l’expérience utilisateur peut être hétérogène selon les enseignes, la qualité des données et les garanties proposées, et où les consommateurs testent l’outil sans toujours lui déléguer la décision finale.
Perspectives & Évolutions
La perspective décrite par Les Echos est celle d’une transformation « en profondeur » du e-commerce, portée par l’IA générative et la généralisation progressive du commerce agentique (Les Echos, jeudi 12 février 2026). Les définitions de Mastercard et Stripe convergent vers un scénario où le rôle de l’utilisateur se déplace : moins de navigation manuelle, davantage de formulation d’objectifs et de validation, l’agent réalisant la recherche, la comparaison et, potentiellement, l’exécution (Mastercard, lien : https://www.mastercard.com/fr/fr/news-and-trends/stories/2025/agentic-commerce-explainer.html ; Stripe, lien : https://stripe.com/fr/guides/agentic-commerce).
Côté marché français, la Fevad décrit un e-commerce durablement ancré, avec une croissance soutenue par la fréquence d’achat, ce qui crée un terrain favorable à l’intégration d’assistants de choix et de recommandation, notamment lorsque les consommateurs arbitrent davantage leurs dépenses (Fevad, 11 février 2026, lien : https://www.fevad.com/bilan-du-e-commerce-en-france-les-francais-ont-depense-pres-de-200-milliards-deuros-sur-internet-en-2025/). Dans le même temps, les obligations de transparence et d’information prévues en Europe constituent un cadre susceptible d’accélérer l’acceptabilité, à condition que les acteurs les traduisent en pratiques compréhensibles pour le public (Commission européenne, AI Act Service Desk, article 50, lien : https://ai-act-service-desk.ec.europa.eu/fr/ai-act/article-50).
Données clés (vulgarisées)
Le marché français du e-commerce atteint 196,4 milliards d’euros en 2025 (+7 %), avec 3,2 milliards de transactions (+10 %) et un panier moyen de 62 euros (-3 %) (Fevad, communiqué « Bilan du e-commerce en France : Les Français ont dépensé près de 200 milliards d’euros sur internet en 2025 », 11 février 2026, lien : https://www.fevad.com/bilan-du-e-commerce-en-france-les-francais-ont-depense-pres-de-200-milliards-deuros-sur-internet-en-2025/). La Fevad distingue également la progression des ventes de produits (+4 %) et des services (+9 %), signe d’une croissance qui combine reprise du non-alimentaire et dynamisme des services (Fevad, 11 février 2026, lien : https://www.fevad.com/bilan-du-e-commerce-en-france-les-francais-ont-depense-pres-de-200-milliards-deuros-sur-internet-en-2025/).
Sur les usages IA côté consommateurs, l’article des Echos mentionne 31 % de cyberacheteurs utilisant désormais l’IA générative, et 54 % des personnes ayant déjà utilisé l’IA déclarant y recourir pour leurs achats (Les Echos, jeudi 12 février 2026). Une étude IBM relayée début 2026 indique, en France, 40 % de consommateurs utilisant l’IA pour les aider dans leur intention d’achat, avec des usages dominants de recherche produit (34 %), consultation d’avis (27 %) et recherche de promotions (24 %) (IBM Newsroom France, 7 janvier 2026, lien : https://fr.newsroom.ibm.com/Etude-IBM-40-des-consommateurs-fran-ais-utilisent-d-sormais-lIA-pour-les-guider-dans-leurs-achats).
Acteurs & Partenaires
Les acteurs cités ou mobilisés pour documenter la tendance sont principalement institutionnels et sectoriels. La Fevad est la source de référence pour les chiffres du marché français et précise fédérer plus de 800 entreprises du secteur (Fevad, page « Bilan du e-commerce en France… », 11 février 2026, lien : https://www.fevad.com/bilan-du-e-commerce-en-france-les-francais-ont-depense-pres-de-200-milliards-deuros-sur-internet-en-2025/). Les Echos, en tant que source journalistique, relie ces chiffres à l’essor de l’IA générative et du commerce agentique (Les Echos, jeudi 12 février 2026). IBM (via l’IBM Institute for Business Value, en association avec la National Retail Federation) apporte un éclairage d’étude sur l’adoption de l’IA par les consommateurs, notamment en France (IBM Newsroom France, 7 janvier 2026, lien : https://fr.newsroom.ibm.com/Etude-IBM-40-des-consommateurs-fran-ais-utilisent-d-sormais-lIA-pour-les-guider-dans-leurs-achats). Enfin, Mastercard et Stripe apportent des définitions structurantes et des repères sur les implications opérationnelles du commerce agentique, notamment en matière de parcours, de paiements et d’autonomie des agents (Mastercard, lien : https://www.mastercard.com/fr/fr/news-and-trends/stories/2025/agentic-commerce-explainer.html ; Stripe, lien : https://stripe.com/fr/guides/agentic-commerce). Sur le plan réglementaire, la Commission européenne explicite les obligations de transparence applicables à certains systèmes d’IA, pertinentes pour les enjeux de confiance soulevés dans l’article (Commission européenne, AI Act Service Desk, article 50, lien : https://ai-act-service-desk.ec.europa.eu/fr/ai-act/article-50).
Références & Sources
Les Echos, « L’IA générative, nouveau moteur de croissance de l’e-commerce en 2025 », rubrique Entreprises, jeudi 12 février 2026.
Fevad (Fédération du e-commerce et de la vente à distance), communiqué de presse, « Bilan du e-commerce en France : Les Français ont dépensé près de 200 milliards d’euros sur internet en 2025 », 11 février 2026 (https://www.fevad.com/bilan-du-e-commerce-en-france-les-francais-ont-depense-pres-de-200-milliards-deuros-sur-internet-en-2025/).
IBM Newsroom France, « Etude IBM : 40 % des consommateurs français utilisent désormais l'IA pour les guider dans leurs achats », 7 janvier 2026 (https://fr.newsroom.ibm.com/Etude-IBM-40-des-consommateurs-fran-ais-utilisent-d-sormais-lIA-pour-les-guider-dans-leurs-achats).
Mastercard, « Qu'est-ce que le commerce agentique ? Votre guide du commerce de détail assisté par l'IA » (https://www.mastercard.com/fr/fr/news-and-trends/stories/2025/agentic-commerce-explainer.html).
Stripe, « Qu'est-ce que le commerce agentique ? Un guide pour démarrer » (https://stripe.com/fr/guides/agentic-commerce).
Commission européenne, AI Act Service Desk, « Article 50: Obligations de transparence pour les fournisseurs et les déployeurs de certains systèmes d’IA » (https://ai-act-service-desk.ec.europa.eu/fr/ai-act/article-50).
IA et prompt injection Microsoft 02/2026
Contexte & Enjeux
Ce cas touche à une préoccupation devenue structurante pour les environnements d’IA générative en entreprise : la capacité d’un attaquant à injecter des instructions malveillantes dans l’interface d’un assistant (injection directe) ou via des contenus externes consommés par l’assistant (injection indirecte / “cross-prompt”). Microsoft inscrit explicitement ce risque dans le contexte d’une adoption accélérée de Microsoft 365 Copilot et souligne que l’injection de prompts est l’une des techniques d’attaque les plus courantes pour contourner des garde-fous et manipuler le comportement de l’IA (Microsoft Threat Protection Blog, [https://techcommunity.microsoft.com/blog/microsoftthreatprotectionblog/how-microsoft-defender-helps-security-teams-detect-prompt-injection-attacks-in-m/4457047](https://techcommunity.microsoft.com/blog/microsoftthreatprotectionblog/how-microsoft-defender-helps-security-teams-detect-prompt-injection-attacks-in-m/4457047)). ([TECHCOMMUNITY.MICROSOFT.COM][1])
Dans la vision Microsoft, l’impact ne se limite pas à une “mauvaise réponse” : une injection réussie peut conduire à des effets de sécurité et de conformité concrets (exposition de données, violations de politiques, voire mouvements latéraux), en particulier quand l’assistant est “ancré” (grounded) sur des données de travail (fichiers, emails, intranet, SharePoint, etc.) (Microsoft Threat Protection Blog, [https://techcommunity.microsoft.com/blog/microsoftthreatprotectionblog/how-microsoft-defender-helps-security-teams-detect-prompt-injection-attacks-in-m/4457047](https://techcommunity.microsoft.com/blog/microsoftthreatprotectionblog/how-microsoft-defender-helps-security-teams-detect-prompt-injection-attacks-in-m/4457047)). ([TECHCOMMUNITY.MICROSOFT.COM][1])
En parallèle, des travaux de recherche et des démonstrations publiques montrent que la surface d’attaque continue d’évoluer. L’attaque HashJack illustre un glissement important vers des vecteurs “client-side” : des instructions malveillantes sont dissimulées dans le fragment d’URL après le caractère #, une zone historiquement ignorée par de nombreux contrôles réseau et côté serveur. Cette technique a été décrite par Cato Networks (Cato Networks, [https://www.catonetworks.com/blog/cato-ctrl-hashjack-first-known-indirect-prompt-injection/](https://www.catonetworks.com/blog/cato-ctrl-hashjack-first-known-indirect-prompt-injection/)) et relayée par des médias spécialisés en sécurité (CSO Online, [https://www.csoonline.com/article/4097087/ai-browsers-can-be-tricked-with-malicious-prompts-hidden-in-url-fragments.html](https://www.csoonline.com/article/4097087/ai-browsers-can-be-tricked-with-malicious-prompts-hidden-in-url-fragments.html) ; The Register, [https://www.theregister.com/2025/11/25/hashjack_attack_ai_browser_hashtag/](https://www.theregister.com/2025/11/25/hashjack_attack_ai_browser_hashtag/) ; F5 Labs, [https://www.f5.com/labs/articles/hashjack-attack-targets-ai-browsers-and-agentic-ai-systems](https://www.f5.com/labs/articles/hashjack-attack-targets-ai-browsers-and-agentic-ai-systems)). ([Cato Networks][2])
Également mentionné l’empoisonnement de recommandations (recommendation poisoning), présenté comme une évolution des attaques d’empoisonnement de données : l’objectif n’est plus seulement de faire exécuter une consigne ponctuelle, mais d’exploiter la confiance accordée à l’assistant pour orienter durablement des recommandations (par exemple commerciales) sous couvert d’une fonctionnalité utile. Microsoft a formalisé ce phénomène sous le terme AI Recommendation Poisoning et le décrit comme une tendance en croissance liée à des tentatives d’empoisonnement de “mémoire” ou de persistance d’instructions (Microsoft Security Blog, [https://www.microsoft.com/en-us/security/blog/2026/02/10/ai-recommendation-poisoning/](https://www.microsoft.com/en-us/security/blog/2026/02/10/ai-recommendation-poisoning/)). ([Microsoft][3])
Solution IA déployée
Du côté Microsoft, l’évolution mise en avant concerne l’intégration de signaux de sécurité dans Microsoft Defender afin de donner enfin aux équipes de sécurité une visibilité opérationnelle sur les tentatives d’injection de prompts visant Microsoft 365 Copilot (Microsoft Threat Protection Blog, [https://techcommunity.microsoft.com/blog/microsoftthreatprotectionblog/how-microsoft-defender-helps-security-teams-detect-prompt-injection-attacks-in-m/4457047](https://techcommunity.microsoft.com/blog/microsoftthreatprotectionblog/how-microsoft-defender-helps-security-teams-detect-prompt-injection-attacks-in-m/4457047)). ([TECHCOMMUNITY.MICROSOFT.COM][1])
Microsoft rappelle que Microsoft 365 Copilot dispose déjà de protections “au niveau de l’interaction” : le service peut bloquer automatiquement des prompts utilisateurs malveillants ou ignorer des instructions compromises contenues dans des données de grounding (par exemple un fichier SharePoint) dès lors qu’une activité de type injection est détectée. Le point faible historique était surtout l’absence de visibilité “SOC-ready” : les protections existaient, mais les équipes sécurité ne voyaient pas clairement les tentatives, leur contexte et leur répétition (Microsoft Threat Protection Blog, [https://techcommunity.microsoft.com/blog/microsoftthreatprotectionblog/how-microsoft-defender-helps-security-teams-detect-prompt-injection-attacks-in-m/4457047](https://techcommunity.microsoft.com/blog/microsoftthreatprotectionblog/how-microsoft-defender-helps-security-teams-detect-prompt-injection-attacks-in-m/4457047)). ([TECHCOMMUNITY.MICROSOFT.COM][1])
Concrètement, Microsoft décrit deux grandes catégories d’attaques prises en compte :
UPIA (User Prompt Injection Attack) : l’utilisateur (ou un attaquant agissant via l’utilisateur) saisit directement un prompt manipulatoire ;
XPIA (Cross-Prompt Injection Attack) : l’assistant ingère des contenus externes (ex. un fichier SharePoint) contenant des instructions cachées, que le modèle risque d’interpréter comme des consignes (Microsoft Threat Protection Blog, [https://techcommunity.microsoft.com/blog/microsoftthreatprotectionblog/how-microsoft-defender-helps-security-teams-detect-prompt-injection-attacks-in-m/4457047](https://techcommunity.microsoft.com/blog/microsoftthreatprotectionblog/how-microsoft-defender-helps-security-teams-detect-prompt-injection-attacks-in-m/4457047)). ([TECHCOMMUNITY.MICROSOFT.COM][1])
La “solution” côté Microsoft Defender s’appuie ensuite sur deux apports majeurs :
1. des détections prêtes à l’emploi (out-of-the-box) pour les tentatives d’injection liées à Copilot, corrélées à des signaux XDR (utilisateur risqué, IP risquée, session risquée) et incluant des scénarios UPIA et XPIA (notamment XPIA “dérivée d’un fichier SharePoint infecté”) (Microsoft Threat Protection Blog, [https://techcommunity.microsoft.com/blog/microsoftthreatprotectionblog/how-microsoft-defender-helps-security-teams-detect-prompt-injection-attacks-in-m/4457047](https://techcommunity.microsoft.com/blog/microsoftthreatprotectionblog/how-microsoft-defender-helps-security-teams-detect-prompt-injection-attacks-in-m/4457047)). ([TECHCOMMUNITY.MICROSOFT.COM][1])
2. la possibilité de mener des investigations via Advanced Hunting, avec l’exposition des signaux d’injection dans les données d’interactions Copilot, notamment via la table CloudAppEvents et des indicateurs décrits comme JailbreakDetected (associé à l’UPIA) et XPIADetected (associé à l’XPIA, avec référence au fichier concerné en cas d’attaque liée à SharePoint) (Microsoft Threat Protection Blog, [https://techcommunity.microsoft.com/blog/microsoftthreatprotectionblog/how-microsoft-defender-helps-security-teams-detect-prompt-injection-attacks-in-m/4457047](https://techcommunity.microsoft.com/blog/microsoftthreatprotectionblog/how-microsoft-defender-helps-security-teams-detect-prompt-injection-attacks-in-m/4457047)). ([TECHCOMMUNITY.MICROSOFT.COM][1])
En complément (cadre plus général), Microsoft a publié une synthèse “défense en profondeur” sur l’injection indirecte, expliquant le mécanisme (concaténation de contenus externes à la requête utilisateur, puis mauvaise interprétation de ces contenus comme des instructions), les impacts attendus (dont l’exfiltration de données) et l’idée que la mitigation est un ensemble de mesures plutôt qu’un correctif unique (MSRC Blog, [https://www.microsoft.com/en-us/msrc/blog/2025/07/how-microsoft-defends-against-indirect-prompt-injection-attacks](https://www.microsoft.com/en-us/msrc/blog/2025/07/how-microsoft-defends-against-indirect-prompt-injection-attacks)). ([Microsoft][4])
Résultats & Bénéfices
Le bénéfice principal, tel que formulé par Microsoft, est l’accès à une visibilité continue sur des tentatives d’injection qui, jusque-là, pouvaient être bloquées “en temps réel” par Copilot mais restaient difficiles à suivre côté SOC. Microsoft insiste sur le fait qu’un attaquant déterminé teste, ajuste et répète : l’intérêt de Defender est donc de dépasser l’“interaction isolée” et d’offrir une vue plus large, corrélée à d’autres signaux XDR, afin d’identifier des schémas, des profils d’attaque, et de permettre une réponse sécurité (Microsoft Threat Protection Blog, [https://techcommunity.microsoft.com/blog/microsoftthreatprotectionblog/how-microsoft-defender-helps-security-teams-detect-prompt-injection-attacks-in-m/4457047](https://techcommunity.microsoft.com/blog/microsoftthreatprotectionblog/how-microsoft-defender-helps-security-teams-detect-prompt-injection-attacks-in-m/4457047)). ([TECHCOMMUNITY.MICROSOFT.COM][1])
Sur le plan opérationnel, Microsoft décrit explicitement la capacité, lorsqu’une alerte se déclenche, d’investiguer et de prendre des actions dans le contexte XDR (par exemple “désactiver un utilisateur” selon le scénario), ce qui replace Copilot dans les workflows classiques de détection-réponse (Microsoft Threat Protection Blog, [https://techcommunity.microsoft.com/blog/microsoftthreatprotectionblog/how-microsoft-defender-helps-security-teams-detect-prompt-injection-attacks-in-m/4457047](https://techcommunity.microsoft.com/blog/microsoftthreatprotectionblog/how-microsoft-defender-helps-security-teams-detect-prompt-injection-attacks-in-m/4457047)). ([TECHCOMMUNITY.MICROSOFT.COM][1])
Les bénéfices apparaissent d’autant plus critiques que des recherches externes montrent des vecteurs de contournement difficiles à capter par les contrôles traditionnels. HashJack, par exemple, exploite le fait que le fragment d’URL (après #) est géré côté client ; une instruction peut donc échapper aux journaux côté serveur et aux dispositifs réseau, tout en entrant dans la “fenêtre de contexte” d’un assistant de navigation (Cato Networks, [https://www.catonetworks.com/blog/cato-ctrl-hashjack-first-known-indirect-prompt-injection/](https://www.catonetworks.com/blog/cato-ctrl-hashjack-first-known-indirect-prompt-injection/) ; CSO Online, [https://www.csoonline.com/article/4097087/ai-browsers-can-be-tricked-with-malicious-prompts-hidden-in-url-fragments.html](https://www.csoonline.com/article/4097087/ai-browsers-can-be-tricked-with-malicious-prompts-hidden-in-url-fragments.html)). ([Cato Networks][2])
Facteurs clés de succès
Dans les éléments publiés par Microsoft, un facteur clef est l’articulation entre protections “au niveau Copilot” et capacités “au niveau SOC”. Microsoft indique que Copilot peut bloquer ou ignorer des contenus malveillants lors des interactions, mais que la valeur décisive vient de la corrélation et de la continuité apportées par Defender, via des signaux XDR et la chasse (Advanced Hunting) (Microsoft Threat Protection Blog, [https://techcommunity.microsoft.com/blog/microsoftthreatprotectionblog/how-microsoft-defender-helps-security-teams-detect-prompt-injection-attacks-in-m/4457047](https://techcommunity.microsoft.com/blog/microsoftthreatprotectionblog/how-microsoft-defender-helps-security-teams-detect-prompt-injection-attacks-in-m/4457047)). ([TECHCOMMUNITY.MICROSOFT.COM][1])
Un autre facteur, mis en avant dans l’approche “défense en profondeur”, est de considérer l’injection indirecte comme un risque structurel lié à la manière dont les systèmes LLM consomment des entrées externes (emails, documents, pages web, réponses d’outils), y compris lorsque les contenus malveillants sont masqués (ex. texte blanc sur fond blanc ou caractères Unicode non imprimables) (MSRC Blog, [https://www.microsoft.com/en-us/msrc/blog/2025/07/how-microsoft-defends-against-indirect-prompt-injection-attacks](https://www.microsoft.com/en-us/msrc/blog/2025/07/how-microsoft-defends-against-indirect-prompt-injection-attacks)). ([Microsoft][4])
Enfin, les retours sur HashJack soulignent un facteur de succès “côté défense” : la prise en compte de la surface client-side (navigateur + assistant) et la réduction de la confiance implicite accordée aux URL “légitimes”, puisque HashJack “arme” une URL sans compromettre le site lui-même. Cette dimension pousse vers des contrôles et une gouvernance adaptés aux assistants intégrés (Cato Networks, [https://www.catonetworks.com/blog/cato-ctrl-hashjack-first-known-indirect-prompt-injection/](https://www.catonetworks.com/blog/cato-ctrl-hashjack-first-known-indirect-prompt-injection/) ; F5 Labs, [https://www.f5.com/labs/articles/hashjack-attack-targets-ai-browsers-and-agentic-ai-systems](https://www.f5.com/labs/articles/hashjack-attack-targets-ai-browsers-and-agentic-ai-systems)). ([Cato Networks][2])
Freins & Obstacles rencontrés
Les obstacles ressortent principalement sous forme de complexité du paysage de menaces et d’alignement des acteurs. HashJack illustre un frein majeur : certaines attaques reposent sur des comportements “attendus” du web (le fragment d’URL géré côté client), ce qui rend la qualification en “vulnérabilité” plus sujette à débat. The Register rapporte ainsi une divergence de posture : Google aurait classé le sujet comme “won’t fix (intended behavior)” et de sévérité faible, tandis que Microsoft et Perplexity auraient appliqué des correctifs à leurs assistants de navigation (The Register, [https://www.theregister.com/2025/11/25/hashjack_attack_ai_browser_hashtag/](https://www.theregister.com/2025/11/25/hashjack_attack_ai_browser_hashtag/)). ([theregister.com][5])
Au-delà de l’alignement, un autre frein est la difficulté à filtrer efficacement ce qui, dans une entrée externe, relève de la “donnée” vs de “l’instruction”. Microsoft souligne que l’injection indirecte est difficile à mitiger précisément parce qu’elle exploite la capacité du modèle à suivre des instructions à l’inférence, et parce que l’entrée peut provenir de multiples sources et formats (pages web, emails, documents partagés, voire données renvoyées par des outils) (MSRC Blog, [https://www.microsoft.com/en-us/msrc/blog/2025/07/how-microsoft-defends-against-indirect-prompt-injection-attacks](https://www.microsoft.com/en-us/msrc/blog/2025/07/how-microsoft-defends-against-indirect-prompt-injection-attacks)). ([Microsoft][4])
Enfin, sur l’empoisonnement de recommandations, Microsoft met en évidence une difficulté particulière : l’attaque cherche à produire des biais “plausibles” et durables, parfois via une forme de persistance (“mémoire”), sans alerter l’utilisateur. Cela brouille la frontière entre sécurité, intégrité de l’information et manipulation, surtout lorsque l’assistant est utilisé pour des décisions à forts enjeux (Microsoft Security Blog, [https://www.microsoft.com/en-us/security/blog/2026/02/10/ai-recommendation-poisoning/](https://www.microsoft.com/en-us/security/blog/2026/02/10/ai-recommendation-poisoning/)). ([Microsoft][3])
Perspectives & Évolutions
Les sources convergent sur une tendance : l’attaque n’est plus seulement un prompt malveillant dans un champ de saisie, mais un ensemble de techniques visant les chaînes complètes “contexte → assistant → action”. HashJack est présenté comme un basculement vers des attaques indirectes instrumentalisant des éléments “de confiance” (une URL vers un site légitime) et contournant les contrôles traditionnels (Cato Networks, [https://www.catonetworks.com/blog/cato-ctrl-hashjack-first-known-indirect-prompt-injection/](https://www.catonetworks.com/blog/cato-ctrl-hashjack-first-known-indirect-prompt-injection/) ; CSO Online, [https://www.csoonline.com/article/4097087/ai-browsers-can-be-tricked-with-malicious-prompts-hidden-in-url-fragments.html](https://www.csoonline.com/article/4097087/ai-browsers-can-be-tricked-with-malicious-prompts-hidden-in-url-fragments.html)). ([Cato Networks][2])
Du côté Microsoft, l’évolution la plus visible est l’intégration progressive de ces signaux dans les outils XDR, avec un accent sur la capacité à détecter, corréler et investiguer plutôt que de supposer qu’un blocage “au fil de l’eau” suffit (Microsoft Threat Protection Blog, [https://techcommunity.microsoft.com/blog/microsoftthreatprotectionblog/how-microsoft-defender-helps-security-teams-detect-prompt-injection-attacks-in-m/4457047](https://techcommunity.microsoft.com/blog/microsoftthreatprotectionblog/how-microsoft-defender-helps-security-teams-detect-prompt-injection-attacks-in-m/4457047)). ([TECHCOMMUNITY.MICROSOFT.COM][1])
Sur l’empoisonnement de recommandations, Microsoft décrit une évolution vers des attaques “marketing / influence” qui cherchent à biaiser des résultats commerciaux via des instructions cachées, notamment dans des boutons ou fonctionnalités de type “Summarize with AI”. Microsoft indique avoir observé des tentatives de consignes visant à faire “retenir” qu’une entreprise serait une source de confiance ou à la recommander en priorité, et présente cela comme une tendance avec des volumes observés (Microsoft Security Blog, [https://www.microsoft.com/en-us/security/blog/2026/02/10/ai-recommendation-poisoning/](https://www.microsoft.com/en-us/security/blog/2026/02/10/ai-recommendation-poisoning/)). ([Microsoft][3])
Données clés (vulgarisées)
Les annonces Microsoft sur Defender et Copilot, ainsi que les analyses sur HashJack, sont surtout qualitatives dans les extraits exploités ici. Une donnée chiffrée notable apparaît toutefois dans la publication Microsoft sur l’empoisonnement de recommandations : Microsoft indique avoir identifié “plus de 50 prompts uniques” provenant de “31 entreprises” sur “14 industries” (Microsoft Security Blog, [https://www.microsoft.com/en-us/security/blog/2026/02/10/ai-recommendation-poisoning/](https://www.microsoft.com/en-us/security/blog/2026/02/10/ai-recommendation-poisoning/)). ([Microsoft][3])
Acteurs & Partenaires
Les acteurs centraux sont Microsoft (Microsoft 365 Copilot, Microsoft Defender / Defender XDR, Microsoft Security Research / MSRC) (Microsoft Threat Protection Blog, [https://techcommunity.microsoft.com/blog/microsoftthreatprotectionblog/how-microsoft-defender-helps-security-teams-detect-prompt-injection-attacks-in-m/4457047](https://techcommunity.microsoft.com/blog/microsoftthreatprotectionblog/how-microsoft-defender-helps-security-teams-detect-prompt-injection-attacks-in-m/4457047) ; MSRC Blog, [https://www.microsoft.com/en-us/msrc/blog/2025/07/how-microsoft-defends-against-indirect-prompt-injection-attacks](https://www.microsoft.com/en-us/msrc/blog/2025/07/how-microsoft-defends-against-indirect-prompt-injection-attacks) ; Microsoft Security Blog, [https://www.microsoft.com/en-us/security/blog/2026/02/10/ai-recommendation-poisoning/](https://www.microsoft.com/en-us/security/blog/2026/02/10/ai-recommendation-poisoning/)). ([TECHCOMMUNITY.MICROSOFT.COM][1])
Côté écosystème et recherche, HashJack est attribué à Cato Networks (Cato CTRL) (Cato Networks, [https://www.catonetworks.com/blog/cato-ctrl-hashjack-first-known-indirect-prompt-injection/](https://www.catonetworks.com/blog/cato-ctrl-hashjack-first-known-indirect-prompt-injection/)), avec des mentions d’assistants ciblés ou évalués autour de Microsoft (Copilot dans Edge), Perplexity (Comet) et Google (Gemini dans Chrome) (CSO Online, [https://www.csoonline.com/article/4097087/ai-browsers-can-be-tricked-with-malicious-prompts-hidden-in-url-fragments.html](https://www.csoonline.com/article/4097087/ai-browsers-can-be-tricked-with-malicious-prompts-hidden-in-url-fragments.html) ; The Register, [https://www.theregister.com/2025/11/25/hashjack_attack_ai_browser_hashtag/](https://www.theregister.com/2025/11/25/hashjack_attack_ai_browser_hashtag/)). ([Cato Networks][2])
Références & Sources
Microsoft Threat Protection Blog (Microsoft Community Hub), “How Microsoft Defender helps security teams detect prompt injection attacks in Microsoft 365 Copilot” : [https://techcommunity.microsoft.com/blog/microsoftthreatprotectionblog/how-microsoft-defender-helps-security-teams-detect-prompt-injection-attacks-in-m/4457047](https://techcommunity.microsoft.com/blog/microsoftthreatprotectionblog/how-microsoft-defender-helps-security-teams-detect-prompt-injection-attacks-in-m/4457047) ([TECHCOMMUNITY.MICROSOFT.COM][1])
Microsoft MSRC Blog, “How Microsoft defends against indirect prompt injection attacks” : [https://www.microsoft.com/en-us/msrc/blog/2025/07/how-microsoft-defends-against-indirect-prompt-injection-attacks](https://www.microsoft.com/en-us/msrc/blog/2025/07/how-microsoft-defends-against-indirect-prompt-injection-attacks) ([Microsoft][4])
Microsoft Security Blog, “Manipulating AI memory for profit: The rise of AI Recommendation Poisoning” : [https://www.microsoft.com/en-us/security/blog/2026/02/10/ai-recommendation-poisoning/](https://www.microsoft.com/en-us/security/blog/2026/02/10/ai-recommendation-poisoning/) ([Microsoft][3])
Cato Networks (Cato CTRL), “HashJack - First Known Indirect Prompt Injection” : [https://www.catonetworks.com/blog/cato-ctrl-hashjack-first-known-indirect-prompt-injection/](https://www.catonetworks.com/blog/cato-ctrl-hashjack-first-known-indirect-prompt-injection/) ([Cato Networks][2])
CSO Online, “AI browsers can be tricked with malicious prompts hidden in URL fragments” : [https://www.csoonline.com/article/4097087/ai-browsers-can-be-tricked-with-malicious-prompts-hidden-in-url-fragments.html](https://www.csoonline.com/article/4097087/ai-browsers-can-be-tricked-with-malicious-prompts-hidden-in-url-fragments.html) ([CSO Online][6])
The Register, “HashJack attack shows AI browsers can be fooled with a simple ‘#’” : [https://www.theregister.com/2025/11/25/hashjack_attack_ai_browser_hashtag/](https://www.theregister.com/2025/11/25/hashjack_attack_ai_browser_hashtag/) ([theregister.com][5])
F5 Labs, “HashJack Attack Targets AI Browsers and Agentic AI Systems” : [https://www.f5.com/labs/articles/hashjack-attack-targets-ai-browsers-and-agentic-ai-systems](https://www.f5.com/labs/articles/hashjack-attack-targets-ai-browsers-and-agentic-ai-systems) ([F5, Inc.][7])
Côté Defender (requêtes Advanced Hunting mentionnées, champs et indicateurs), chronologie de divulgation HashJack (juillet/août 2025 évoqués par The Register, [https://www.theregister.com/2025/11/25/hashjack_attack_ai_browser_hashtag/](https://www.theregister.com/2025/11/25/hashjack_attack_ai_browser_hashtag/)) et implications opérationnelles pour une équipe SOC. ([theregister.com][5])
[1]: https://techcommunity.microsoft.com/blog/microsoftthreatprotectionblog/how-microsoft-defender-helps-security-teams-detect-prompt-injection-attacks-in-m/4457047 "How Microsoft Defender helps security teams detect prompt injection attacks in Microsoft 365 Copilot | Microsoft Community Hub"
[2]: https://www.catonetworks.com/blog/cato-ctrl-hashjack-first-known-indirect-prompt-injection/ "HashJack - First Known Indirect Prompt Injection | Cato Networks"
[3]: https://www.microsoft.com/en-us/security/blog/2026/02/10/ai-recommendation-poisoning/ "Manipulating AI memory for profit: The rise of AI Recommendation Poisoning | Microsoft Security Blog"
[4]: https://www.microsoft.com/en-us/msrc/blog/2025/07/how-microsoft-defends-against-indirect-prompt-injection-attacks "how-microsoft-defends-against-indirect-prompt-injection-attacks"
[5]: https://www.theregister.com/2025/11/25/hashjack_attack_ai_browser_hashtag/ "HashJack attack shows AI browsers can be fooled with '#' • The Register"
[6]: https://www.csoonline.com/article/4097087/ai-browsers-can-be-tricked-with-malicious-prompts-hidden-in-url-fragments.html "AI browsers can be tricked with malicious prompts hidden in URL fragments | CSO Online"
[7]: https://www.f5.com/labs/articles/hashjack-attack-targets-ai-browsers-and-agentic-ai-systems "HashJack Attack Targets AI Browsers and Agentic AI Systems | F5 Labs"
Total data et IA 02/2026
Contextes et enjeux
TotalEnergies présente l’intelligence artificielle comme, d’une part, un levier de transformation de sa performance industrielle et de son agenda de décarbonation et, d’autre part, une opportunité stratégique de croissance dans un contexte d’augmentation de la demande d’électricité liée à l’expansion des infrastructures numériques, en particulier les centres de données soutenant les charges de travail d’IA. Dans le récit rapporté par Christophe Auffray, le PDG de TotalEnergies, Patrick Pouyanné, qualifie l’IA de « nouvelle révolution industrielle » et indique que le groupe entend industrialiser l’IA en interne tout en « alimentant » les infrastructures sous-jacentes de l’économie de l’IA (Christophe Auffray, « TotalEnergies, une Data Company qui ambitionne d’alimenter l’IA », Secrets de Data / Substack, 19 février 2026 : https://secretsdedata.substack.com/).
Cette ambition s’inscrit dans un objectif de transformation plus large : produire « plus d’énergie et moins d’émissions » simultanément. Dans ce modèle, la donnée constitue l’actif central permettant l’excellence opérationnelle, la sécurité, l’optimisation et le développement de nouvelles offres commerciales. TotalEnergies soutient qu’elle est historiquement une « data company », en raison de la gestion de volumes massifs de données sismiques et géoscientifiques pour l’exploration, et que cette base soutient désormais des usages transverses étendus (sécurité, trading, R&D, renouvelables), comme le décrit le même article de Secrets de Data (https://secretsdedata.substack.com/).
Un enjeu central réside dans le passage à l’échelle. Dans l’industrie lourde, l’IA ne peut produire d’effets sans des données fiables, accessibles et collectées en continu, qualifiées dans l’article de Secrets de Data de « système nerveux » de données de confiance (https://secretsdedata.substack.com/). L’entreprise doit donc dépasser les pilotes et les dispositifs isolés de monitoring pour mettre en place des plateformes industrielles capables de supporter la maintenance prédictive, la détection d’anomalies, l’optimisation de systèmes complexes et, de plus en plus, l’usage de l’IA générative dans les opérations quotidiennes.
Un second enjeu est externe et orienté marché. À mesure que les centres de données se développent et exigent une électricité stable et hautement disponible, TotalEnergies cherche à se positionner comme fournisseur d’électricité « propre et pilotable » – décarbonée et, surtout, stable – tout en faisant face aux exigences croissantes en matière d’émissions et de durabilité. TotalEnergies relie explicitement certains volets de sa stratégie d’électricité intégrée à la croissance de la demande des centres de données en Europe dans ses propres communications (https://totalenergies.com/news/press-releases/totalenergies-accelerates-its-gas-power-integration-strategy-europe-acquiring).
Solutions d’IA déployées
L’approche de TotalEnergies en matière d’IA combine un moteur central d’industrialisation (Digital Factory), des fondations de données industrielles à l’échelle mondiale (collecte continue en temps réel et plateformes de données et d’IA industrielles) et un écosystème de partenaires couvrant l’innovation en IA, les logiciels industriels et le cloud.
Un pilier organisationnel clé est la Digital Factory à Paris, créée pour accélérer la livraison numérique et l’industrialisation à grande échelle. TotalEnergies la décrit comme un pôle développant des solutions numériques afin d’optimiser les opérations industrielles, d’accélérer les processus, d’offrir de nouveaux services et de réduire l’impact environnemental (https://totalenergies.com/news/news/ia-expediting-energy-transition). La Digital Factory est présentée publiquement comme regroupant environ 300 experts (data scientists, data engineers, ingénieurs logiciels, etc.) (https://www.welcometothejungle.com/fr/companies/totalenergies-digital-factory/team-1), ce qui correspond à l’échelle évoquée dans l’article de Secrets de Data (https://secretsdedata.substack.com/).
Dans ce même article, TotalEnergies affirme avoir mis « plus de 10 000 modèles d’IA » en production, couvrant un large spectre de complexité, du simple monitoring de paramètres sur des équipements isolés à la modélisation d’environnements industriels élargis (https://secretsdedata.substack.com/). Cette affirmation figure également dans des présentations publiques, notamment sur une page de session VivaTech mentionnant l’ampleur de la Digital Factory et le nombre de modèles (https://vivatech.com/sessions/session/b62702bd-903b-f011-a5f1-6045bda07d25). L’article précise que le dispositif parisien est complété par un centre de compétences en Inde (https://secretsdedata.substack.com/).
Sur le plan technologique, TotalEnergies met en avant des infrastructures de données industrielles pour permettre les usages d’IA. Cela inclut le déploiement de solutions de collecte continue en temps réel sur les sites industriels. Un exemple majeur est la collaboration stratégique avec Aspen Technology (Emerson), visant le déploiement de technologies numériques avancées pour la collecte continue en temps réel de données issues des sites industriels, afin d’améliorer les performances opérationnelles, énergétiques et environnementales (https://totalenergies.com/news/press-releases/data-digital-totalenergies-and-emerson-sign-strategic-collaboration-boost-value et https://www.emerson.com/en-us/news/2025/totalenergies-emerson-sign-strategic-collaboration-to-boost-value-of-industrial-data).
TotalEnergies a également étendu son partenariat avec Cognite pour déployer à grande échelle la plateforme industrielle de données et d’IA de Cognite sur l’ensemble des actifs amont opérés dans le monde sur trois ans, couvrant toute la chaîne de valeur du forage à la production (https://totalenergies.com/news/press-releases/digital-transformation-totalenergies-and-cognite-expand-their-partnership-scale et https://www.cognite.com/en/company/newsroom/digital-transformation-totalenergies-and-cognite-expand-their-partnership-to-scale-industrial-ai).
Pour la chaîne de valeur électrique, AWS décrit une approche de « marketplace de données cloud » réunissant producteurs et consommateurs de données afin de soutenir la stratégie d’électricité intégrée (https://aws.amazon.com/solutions/case-studies/totalenergies-data-marketplace/), en cohérence avec la mention d’une plateforme dédiée à la chaîne de valeur électrique avec Amazon dans Secrets de Data (https://secretsdedata.substack.com/).
En parallèle, TotalEnergies investit dans des partenariats d’innovation en IA. L’exemple le plus structurant est la collaboration avec Mistral AI annoncée le 12 juin 2025, prévoyant la création d’un laboratoire commun d’innovation en IA pour accélérer l’usage de l’IA dans la stratégie multi-énergies, notamment bas-carbone (https://totalenergies.com/news/press-releases/totalenergies-collaborate-mistral-ai-increase-application-artificial et https://totalenergies.com/system/files/documents/totalenergies_cp-totalenergies-annonce-collaboration-avec-mistral-ai-pour-renforcer-utilisation-intelligence-artificielle_2025_fr.pdf).
Résultats et bénéfices
Les bénéfices identifiés se répartissent en trois catégories : fiabilité et performance opérationnelles ; suivi des émissions et durabilité ; opportunités commerciales liées à l’électricité pour les infrastructures numériques.
Sur le plan opérationnel, TotalEnergies indique utiliser l’IA depuis plusieurs années dans l’exploration et la production, notamment pour la prévision et l’optimisation de la production, la maintenance prédictive et la détection d’anomalies (https://totalenergies.com/news/news/ia-expediting-energy-transition). L’article de Secrets de Data précise que la maintenance prédictive s’applique déjà à 3 000 équipements critiques et doit s’étendre à des « dizaines de milliers », traduisant le passage du monitoring simple à une maintenance prédictive avancée guidant le moment et la nature des interventions (https://secretsdedata.substack.com/).
L’article ajoute que l’IA générative est positionnée comme assistant des opérateurs, capable d’analyser les causes racines des défaillances et de proposer des actions correctives immédiates (https://secretsdedata.substack.com/).
En matière d’émissions, la détection du méthane constitue un axe prioritaire. TotalEnergies prévoit le déploiement d’équipements de détection continue et en temps réel sur l’ensemble des actifs amont opérés, avec un objectif de couverture complète d’ici fin 2025 (https://totalenergies.com/news/press-releases/cop29-totalenergies-deploys-continuous-real-time-methane-emissions-detection et https://totalenergies.com/system/files/documents/totalenergies_COP29-TotalEnergies-deploys-continuous-real-time-methane-emissions-detection_2024_en_pdf.pdf). L’article de Secrets de Data mentionne l’exploitation de données issues de 13 000 capteurs combinées à des drones, satellites et caméras (https://secretsdedata.substack.com/).
Sur le plan commercial, TotalEnergies met en avant des contrats long terme avec des acteurs du numérique. L’accord avec Data4 en Espagne prévoit un approvisionnement sur 10 ans en électricité renouvelable à profil de consommation stable (« Clean Firm Power ») (https://totalenergies.com/news/press-releases/spain-totalenergies-supply-renewable-electricity-data4s-data-centers-10-years). L’accord avec Google porte sur un PPA de 15 ans pour 1,5 TWh d’électricité renouvelable certifiée issue de la ferme solaire de Montpelier dans l’Ohio (https://totalenergies.com/news/press-releases/united-states-totalenergies-supply-renewable-power-googles-data-centers-15).
Facteurs clés de succès
Plusieurs facteurs structurants émergent.
Le premier est la capacité d’industrialisation organisationnelle, incarnée par la Digital Factory et son effectif d’environ 300 experts (https://www.welcometothejungle.com/fr/companies/totalenergies-digital-factory/team-1).
Le second est la construction systématique des fondations de données industrielles, via les partenariats avec Emerson/AspenTech et Cognite (liens ci-dessus).
Le troisième est la stratégie d’écosystème, combinant cloud (AWS), innovation en IA (Mistral AI) et alliances industrielles, avec une attention à la souveraineté européenne évoquée par Secrets de Data (https://secretsdedata.substack.com/).
Le quatrième est le sponsoring au plus haut niveau. L’article attribue à Patrick Pouyanné une vision selon laquelle l’IA constitue un accélérateur de revenus autant qu’un levier de réduction des coûts (https://secretsdedata.substack.com/).
Obstacles rencontrés
Les sources ne détaillent pas d’échecs spécifiques. L’article de Secrets de Data souligne toutefois la nécessité de « construire les fondamentaux » avant l’industrialisation, avec une feuille de route structurée pour 2024 et 2025 (https://secretsdedata.substack.com/). Les collaborations industrielles laissent entendre que la mise en place d’une collecte de données en temps réel à l’échelle mondiale représente un chantier technique majeur (liens Emerson et Cognite précités).
Perspectives et évolutions
Les éléments disponibles suggèrent une double dynamique : montée en puissance interne de l’IA et accélération externe de l’offre d’électricité « propre et pilotable ».
En interne, l’objectif est d’étendre la maintenance prédictive de 3 000 équipements à des dizaines de milliers et de généraliser l’usage de l’IA générative comme assistant opérateur (https://secretsdedata.substack.com/).
Sur le plan énergétique, TotalEnergies développe un portefeuille combinant renouvelables (solaire, éolien terrestre et offshore) et actifs flexibles (CCGT, stockage) afin de fournir de la « Clean Firm Power » (https://totalenergies.com/news/press-releases/totalenergies-accelerates-its-gas-power-integration-strategy-europe-acquiring et https://totalenergies.co.uk/news/totalenergies-acquires-pipeline-solar-and-battery-projects). L’acquisition de 50 % d’une plateforme de production flexible auprès d’EPH, incluant environ 5 GW de projets en développement, s’inscrit dans cette logique (https://totalenergies.com/system/files/documents/totalenergies_pr-gas-to-power-integration-strategy-europe-portfolio-flexible-power-generation-assets-eph_2025_en.pdf et https://www.ft.com/content/ba9a0047-5d88-4d1a-8e8d-937e31cf6344).
Parties prenantes et partenaires
En interne, la Digital Factory et le centre de compétences en Inde constituent les piliers opérationnels, sous l’impulsion stratégique du PDG (https://secretsdedata.substack.com/).
En externe, l’écosystème comprend : Mistral AI pour l’innovation en IA ; Cognite et Emerson/AspenTech pour les fondations de données industrielles ; AWS pour la marketplace de données ; Data4, Google, Amazon et Microsoft pour les contrats liés aux centres de données ; Saft pour les systèmes de stockage (https://saft.com/en/media-resources/press-releases/saft-delivers-battery-energy-storage-system-bess-replacement-diesel).
Références et sources
Christophe Auffray, « TotalEnergies, une Data Company qui ambitionne d’alimenter l’IA », Secrets de Data / Substack, 19 février 2026 : https://secretsdedata.substack.com/
TotalEnergies, « AI, Expediting the Energy Transition » : https://totalenergies.com/news/news/ia-expediting-energy-transition
NeoPhi : revue de littérature fiable par IA 02/26
NeoPhi (F.initiatives) : fiabiliser et accélérer l’accès aux connaissances scientifiques par IA
Contexte & Enjeux
La revue de littérature est devenue un point de friction central pour la recherche et l’innovation, en raison de l’augmentation continue du nombre de publications scientifiques. L’article des Echos consacré à NeoPhi situe le problème à très grande échelle, en évoquant « plus de 400 millions d’articles » et un volume qui croît chaque année (Les Echos, 16/02/2026, rubrique PME & Régions / Innovateurs). Dans ce contexte, l’effort ne porte plus seulement sur la lecture, mais sur l’identification des bons travaux, la consolidation des résultats, la compréhension des concepts clés et la vérification des sources.
L’enjeu est aussi un enjeu de temps. Dans le même article, Charlie Grosman (Directeur Technologie & Innovation chez F.initiatives) estime qu’« un chercheur passe près de 40 % de son temps à se renseigner sur ce qui a déjà été publié » (Les Echos, 16/02/2026). Cette charge pèse autant sur les chercheurs académiques que sur les équipes R&D en entreprise, qui doivent arbitrer en permanence entre exploration de l’état de l’art, veille, et exécution de travaux expérimentaux ou d’industrialisation.
Enfin, la question de la fiabilité s’est imposée comme un critère décisif. Les organisations souhaitent bénéficier des capacités de synthèse et d’interrogation offertes par l’IA, tout en évitant un défaut souvent associé aux IA génératives “grand public” : produire des réponses plausibles mais non sourcées, voire erronées. NeoPhi se positionne explicitement sur ce point : fournir une analyse structurée reposant « exclusivement sur des sources réelles », avec des références consultables, et indiquer quand l’information n’a pas été trouvée « au lieu d’inventer » (Les Echos, 16/02/2026).
Solution IA déployée
NeoPhi est présenté comme une plateforme française conçue pour automatiser et fiabiliser une partie substantielle du travail de revue de littérature. Le principe d’usage décrit est direct : l’utilisateur pose une question en langage naturel ; la plateforme explore les bases de publications scientifiques, sélectionne les articles pertinents, extrait les concepts clés et génère une analyse structurée. L’objectif est de produire des synthèses « sourcées, vérifiables et exploitables » à partir d’articles validés par les pairs, en quelques secondes (Les Echos, 16/02/2026).
La promesse de fiabilité repose sur deux mécanismes mis en avant. D’une part, les réponses sont systématiquement rattachées à des références explicitement mentionnées, que l’utilisateur peut consulter directement pour vérifier le contenu (Les Echos, 16/02/2026). D’autre part, l’outil est décrit comme évitant l’invention : quand l’information n’existe pas dans le corpus accessible ou n’a pas été retrouvée, il l’indique plutôt que de compléter artificiellement (Les Echos, 16/02/2026).
Sur les briques techniques citées dans l’article, NeoPhi combine analyse sémantique, graphes de connaissances issus de la littérature scientifique, et modèles open source internalisés, avec un hébergement sur des serveurs sécurisés (Les Echos, 16/02/2026).
En complément du contenu des Echos, F.initiatives présente NeoPhi comme l’un de ses outils regroupés sous l’ensemble SoFIA, développé par son “Research Lab” depuis 2019 (F.initiatives, “Nos outils d’IA”, https://www.f-initiatives.com/nos-outils-dia/). La même page précise un positionnement “on-premise” : NeoPhi est décrit comme « basé sur un modèle d’IA générative entièrement On-Premise » (F.initiatives, “Nos outils d’IA”, https://www.f-initiatives.com/nos-outils-dia/).
L’accès à une littérature volumineuse est également documenté côté F.initiatives : l’entreprise indique que NeoPhi donne accès à « plus de 211 millions d’articles » via un partenariat avec Semantic Scholar (F.initiatives, “Nos outils d’IA”, https://www.f-initiatives.com/nos-outils-dia/). De son côté, Semantic Scholar se décrit comme un moteur de recherche académique gratuit “AI-powered” issu de l’Allen Institute for AI (AI2) (Semantic Scholar, “About Us”, https://webflow.s2.local.allenai.org/about), et indique couvrir « more than 200 million papers » dans ses ressources destinées aux bibliothécaires (Semantic Scholar, “Librarian Resources”, https://www.semanticscholar.org/about/librarians).
Résultats & Bénéfices
Le bénéfice central est l’accélération de la revue de littérature. L’article des Echos met l’accent sur la capacité à analyser un volume très important d’articles et à produire rapidement une synthèse structurée, afin de réduire une tâche essentielle mais chronophage (Les Echos, 16/02/2026). L’objectif assumé est de libérer du temps, pour que chercheurs et équipes R&D puissent le réallouer à la recherche elle-même et à la production de résultats, plutôt qu’à la recherche d’informations déjà disponibles (Les Echos, 16/02/2026).
Le second bénéfice majeur est la fiabilisation de l’accès à la connaissance, entendue ici comme traçabilité et vérifiabilité. NeoPhi est présenté comme une réponse aux limites des IA génératives généralistes : l’enjeu est de ne pas “halluciner”, de ne citer que des sources existantes, et de permettre une vérification immédiate en donnant accès aux références (Les Echos, 16/02/2026). Cette logique correspond aussi à la description donnée par F.initiatives, qui présente NeoPhi comme capable de générer une revue de littérature référencée à partir d’une simple question, et utile pour produire des contenus nécessitant une base factuelle robuste (F.initiatives, “Nos outils d’IA”, https://www.f-initiatives.com/nos-outils-dia/).
Un bénéfice supplémentaire concerne le rapprochement entre recherche et industrie. L’article explique que la plateforme s’adresse aux universités comme aux entreprises engagées dans des activités de R&D, et que les entreprises peuvent croiser publications scientifiques et documents internes dans des environnements sécurisés dédiés (Les Echos, 16/02/2026). Cette capacité à articuler l’état de l’art public et la documentation interne vise à renforcer la qualité de la veille, du cadrage technologique et des décisions d’investissement R&D.
Facteurs clés de succès
Le premier facteur clé est la traçabilité, présentée comme un prérequis d’adoption : la valeur de NeoPhi ne réside pas seulement dans sa capacité à résumer, mais dans sa capacité à relier chaque point à des références consultables et à assumer le “je ne sais pas / je n’ai pas trouvé” plutôt que de produire une réponse inventée (Les Echos, 16/02/2026).
Le deuxième facteur clé concerne la sécurisation et la gouvernance. F.initiatives indique que ses outils (dont NeoPhi) opèrent « dans un environnement sécurisé conforme aux normes ISO 27001, ISO 42001 et au RGPD » (F.initiatives, “Nos outils d’IA”, https://www.f-initiatives.com/nos-outils-dia/). L’ISO/IEC 42001 est présentée par l’ISO comme la première norme de système de management de l’IA, visant à encadrer le développement et l’usage responsables des systèmes d’IA (ISO, “ISO/IEC 42001”, https://www.iso.org/fr/standard/42001). Dans un contexte d’échanges d’informations sensibles (notamment pour la R&D d’entreprise), la capacité à proposer un cadre de sécurité et de gouvernance compréhensible par des décideurs constitue un levier de confiance.
Le troisième facteur clé est l’ancrage R&D et l’écosystème scientifique. L’article des Echos mentionne une collaboration avec le Laboratoire d’Informatique de Paris-Nord (LIPN) (Les Echos, 16/02/2026). Le LIPN se décrit comme une unité mixte de recherche (UMR 7030) entre le CNRS et l’Université Sorbonne Paris Nord (LIPN, page d’accueil, https://lipn.univ-paris13.fr/), et l’Université Sorbonne Paris Nord présente ses thématiques couvrant notamment le langage naturel et l’apprentissage artificiel (Université Sorbonne Paris Nord, page LIPN, https://www.univ-spn.fr/portfolio/lipn/). Ce type de partenariat renforce la crédibilité scientifique de la solution et son adéquation aux exigences académiques (qualité des corpus, méthodologie, validation).
Enfin, un facteur différenciant évoqué dans l’article est la “souveraineté” : « tout est développé et hébergé en France », positionné comme un choix stratégique face à des solutions concurrentes majoritairement américaines ou asiatiques (Les Echos, 16/02/2026).
Freins & Obstacles rencontrés
L’article ne détaille pas d’incidents ou de difficultés de déploiement spécifiques, mais il met en évidence le frein principal auquel NeoPhi entend répondre : la confiance. Le défaut “encore fréquent” des IA génératives, qui consiste à inventer des éléments lorsque l’information manque, est explicitement mentionné et traité comme un point de différenciation (Les Echos, 16/02/2026). En pratique, cela souligne un obstacle plus large : pour être adoptée dans des contextes scientifiques et R&D, une IA de synthèse doit rendre ses sources visibles, permettre la vérification et accepter l’incertitude.
Un autre frein, plus implicite, tient à la dépendance aux corpus et à l’accès aux contenus. F.initiatives met en avant un partenariat avec Semantic Scholar et un accès à « plus de 211 millions d’articles » (F.initiatives, “Nos outils d’IA”, https://www.f-initiatives.com/nos-outils-dia/). Or la performance d’une revue de littérature automatisée est fortement corrélée à la couverture du corpus, à la qualité des métadonnées et aux droits d’accès au texte intégral. L’existence, côté Allen Institute for AI, d’initiatives orientées “full-text search” via clés d’API illustre aussi la complexité de l’accès au texte intégral à grande échelle, selon les sources et disciplines (Allen Institute for AI, “Introducing Ai2 ScholarQA”, https://allenai.org/blog/ai2-scholarqa).
Perspectives & Évolutions
NeoPhi est décrit comme « encore en phase de lancement » et comptant déjà « plusieurs centaines d’utilisateurs » (Les Echos, 16/02/2026). L’orientation de marché mentionnée est claire : universités et entreprises R&D, avec une promesse de croisement entre publications scientifiques et documentation interne dans des environnements sécurisés (Les Echos, 16/02/2026). Cette perspective suggère une montée en puissance sur des cas d’usage mêlant veille scientifique, capitalisation interne, et soutien à la décision technologique.
F.initiatives décrit par ailleurs des usages directement liés à son métier historique : l’outil est présenté comme utile pour la rédaction de fiches Crédit d’Impôt Recherche (CIR), de dossiers de subvention, et pendant des entretiens d’éligibilité CIR ou des phases de cadrage projet, en facilitant une analyse approfondie de l’état de l’art (F.initiatives, “Nos outils d’IA”, https://www.f-initiatives.com/nos-outils-dia/). Cette extension d’usage, du “pur” académique vers la production de dossiers et d’argumentaires structurés, renforce l’idée d’un outil au service de la “preuve” (état de l’art, antériorités, justification des verrous scientifiques), et pas uniquement d’un assistant de lecture.
Données clés (vulgarisées)
L’ampleur du problème est illustrée par le chiffre avancé dans l’article : « plus de 400 millions d’articles » (Les Echos, 16/02/2026). L’impact sur l’organisation du travail est résumé par l’estimation selon laquelle un chercheur consacre « près de 40 % de son temps » à se renseigner sur ce qui a déjà été publié (Les Echos, 16/02/2026).
Sur la capacité d’accès documentaire, F.initiatives met en avant « plus de 211 millions d’articles » accessibles via Semantic Scholar (F.initiatives, “Nos outils d’IA”, https://www.f-initiatives.com/nos-outils-dia/). De son côté, Semantic Scholar indique couvrir « more than 200 million papers » dans ses ressources publiques (Semantic Scholar, “Librarian Resources”, https://www.semanticscholar.org/about/librarians).
Sur la structuration de l’écosystème R&D, le LIPN se présente comme une unité mixte de recherche UMR 7030 CNRS – Université Sorbonne Paris Nord (LIPN, page d’accueil, https://lipn.univ-paris13.fr/).
Acteurs & Partenaires
NeoPhi est porté par F.initiatives, présenté dans l’article des Echos comme un cabinet de conseil en financement de l’innovation basé à Puteaux (Hauts-de-Seine), comptant 210 collaborateurs et réalisant un chiffre d’affaires de « 25 à 30 millions d’euros » (Les Echos, 16/02/2026). Les informations administratives publiques indiquent un siège au 14 Terrasse Bellini, 92800 Puteaux, et un effectif “entre 250 et 499 salariés (donnée 2023)” (Pappers, fiche entreprise F.INITIATIVES, https://www.pappers.fr/entreprise/finitiatives-499154557).
L’article met en avant Charlie Grosman (Directeur Technologie & Innovation chez F.initiatives) comme interlocuteur sur la vision produit et l’enjeu de fiabilité (Les Echos, 16/02/2026).
Sur le plan scientifique, la collaboration mentionnée associe une équipe de docteurs en informatique et le Laboratoire d’Informatique de Paris-Nord (LIPN), unité mixte CNRS / Université Sorbonne Paris Nord (Les Echos, 16/02/2026 ; LIPN, https://lipn.univ-paris13.fr/).
Sur le plan documentaire, le partenariat avec Semantic Scholar est explicitement cité par F.initiatives comme un levier d’accès massif aux articles (F.initiatives, “Nos outils d’IA”, https://www.f-initiatives.com/nos-outils-dia/). Semantic Scholar est rattaché à l’Allen Institute for AI (AI2) (Semantic Scholar, “About Us”, https://webflow.s2.local.allenai.org/about).
Références & Sources
(Les Echos, 16/02/2026, rubrique PME & Régions / Innovateurs, article signé Catherine Bocquet, « F.initiatives fiabilise l’accès aux données scientifiques avec l’IA »).
(F.initiatives, “Nos outils d’IA”, https://www.f-initiatives.com/nos-outils-dia/).
(LIPN, page d’accueil, https://lipn.univ-paris13.fr/).
(Université Sorbonne Paris Nord, page LIPN, https://www.univ-spn.fr/portfolio/lipn/).
(Semantic Scholar, “About Us”, https://webflow.s2.local.allenai.org/about).
(Semantic Scholar, “Librarian Resources”, https://www.semanticscholar.org/about/librarians).
(ISO, “ISO/IEC 42001”, https://www.iso.org/fr/standard/42001).
(Pappers, fiche entreprise F.INITIATIVES, https://www.pappers.fr/entreprise/finitiatives-499154557).
(Allen Institute for AI, “Introducing Ai2 ScholarQA”, https://allenai.org/blog/ai2-scholarqa).