IA et experts : oublier la mémoire, exploiter le moteur
L’intelligence artificielle générative a fait une entrée fracassante dans notre quotidien. En quelques mois, les grands modèles de langage se sont imposés comme des compagnons de travail capables d’écrire, de résumer, de traduire, de coder. Pourtant, lorsqu’on regarde de près la façon dont ils sont utilisés dans les entreprises, un paradoxe apparaît rapidement. La plupart des utilisateurs se contentent de poser quelques questions générales au modèle, comme s’ils interrogeaient une encyclopédie en ligne un peu magique. Or c’est précisément là que ces outils sont les plus fragiles, et ce n’est pas là non plus qu’ils créent le plus de valeur.
Derrière un même modèle se cachent en réalité deux fonctions bien distinctes. La première est cette fameuse mémoire généraliste, issue de l’entraînement sur de vastes corpus publics. Elle permet au modèle de répondre à une question sur la Révolution française, sur la programmation en Python ou sur le dernier courant managérial à la mode. C’est impressionnant, parfois bluffant, mais c’est aussi profondément instable. Les connaissances sont figées à la date d’entraînement, les biais des sources d’origine sont reproduits, et surtout le modèle peut « halluciner », c’est-à-dire produire une réponse fausse avec une assurance désarmante. À cela s’ajoute une difficulté majeure dans un contexte professionnel : il est quasiment impossible de retracer précisément d’où vient une information, sur quel document ou quelle source elle s’appuie. Pour décider ou engager la responsabilité de l’entreprise, cette fonction encyclopédique reste donc une base fragile.
La seconde fonction, beaucoup moins médiatisée mais nettement plus intéressante pour un expert, consiste à utiliser le LLM comme un moteur de traitement et de raisonnement sur vos propres documents. Le modèle ne puise plus dans une mémoire générale, il travaille sur la matière que vous lui fournissez. Ce ne sont plus des pages web anonymes, mais vos contrats, vos rapports, vos procédures, vos courriels, vos présentations, voire des documents publics que vous avez soigneusement sélectionnés. Dans ce cadre, le rôle du modèle change : il devient un assistant capable de synthétiser un corpus, de comparer plusieurs versions d’un texte, d’identifier des écarts entre une nouvelle procédure et un référentiel existant, de préparer un plan d’intervention ou un premier jet de rapport. Il apporte du relief et de la vitesse à votre analyse, mais il ne décide pas à votre place. L’expert reste au centre du dispositif, la machine prépare le terrain.
Ce changement d’usage transforme aussi la gestion des risques. En limitant le modèle à un corpus délimité, les hallucinations deviennent beaucoup moins fréquentes. La réponse ne peut plus s’inventer une source qui n’existe pas, elle est contrainte par les documents que vous avez effectivement fournis. Il devient possible, au moins en partie, de relier chaque élément de réponse à un document précis, voire à un paragraphe ou à une page. Cette traçabilité change la conversation lorsqu’il s’agit de conformité, d’audit ou de responsabilité. Par ailleurs, si l’on travaille dans un environnement maîtrisé, la confidentialité n’est plus laissée au hasard : on sait quelles données ont été chargées, où elles sont hébergées et à quelles fins elles sont utilisées.
Sur le terrain, les gains de productivité se concentrent sur les tâches expertes à forte charge documentaire. Là où un juriste, un actuaire ou un responsable conformité devait autrefois passer plusieurs heures à parcourir des dizaines de pièces jointes, le modèle peut produire en quelques minutes une synthèse structurée, une cartographie des points de vigilance, un tableau comparatif de clauses ou de versions. Dans une équipe projet, il peut aider à consolider des notes issues de multiples contributeurs, à homogénéiser le ton d’un document ou à adapter un même contenu à plusieurs publics. Le temps gagné ne se mesure pas seulement en heures économisées, mais en fatigue cognitive évitée et en capacité retrouvée à se concentrer sur la décision plutôt que sur le tri et la mise en forme. Restons lucides toutefois : les fournisseurs communiquent encore très peu de chiffres robustes sur ces gains, et l’évaluation reste à affiner dans chaque contexte.
De mon côté, j’utilise les IA avec une approche volontairement méthodique. Mon premier réflexe n’est pas de leur demander une opinion, mais de les mobiliser comme aides à la recherche sur le web. J’emploie des prompts élaborés en suivant ma méthode PRECISE, qui m’oblige à préciser le contexte, l’objectif, les contraintes et le type de réponse attendue. J’y ajoute systématiquement les nouvelles fonctions de recherche avancées : filtrage par date, par source, par type de document, recoupement de plusieurs requêtes. L’IA devient alors un partenaire de fouille d’information qui m’aide à repérer rapidement les articles, études, décisions ou documents originaux les plus pertinents, sans pour autant me dispenser de les lire.
Une fois ces informations glanées, un autre outil prend le relais et c’est là que, pour moi, la magie opère vraiment. Mon outil de prédilection est NotebookLM. Je l’utilise pour exploiter les informations glanées lors de ce travail de recherche. Je peux y déposer les documents que j’ai sélectionnés, les regrouper par dossier, puis interroger l’ensemble comme un mini-corpus spécialisé. NotebookLM me permet de garder la trace des liens, de remonter vite et facilement à la source d’origine, tout en menant un travail de traitement de cette information avec une valeur ajoutée colossale : synthèses croisées, mise en perspective de plusieurs études, extraction de citations clés, préparation de supports pédagogiques ou de notes de briefing. Au lieu de perdre du temps à retrouver ce que j’ai lu la semaine précédente, je capitalise progressivement un environnement de travail structuré autour de mes propres sources.
Cette manière de faire illustre le déplacement que nous avons intérêt à opérer collectivement. L’enjeu n’est plus seulement d’avoir « une bonne IA », mais de lui apporter une matière première de qualité, de maîtriser la sélection des documents et de garder la main sur la façon dont elle traite l’information. Des outils comme NotebookLM rendent ce mouvement accessible sans exiger un grand projet informatique ni la mobilisation massive de la DSI. Un utilisateur motivé peut déjà, à son échelle, transformer sa manière de chercher, d’analyser et de transmettre les connaissances.
En définitive, la question n’est plus de savoir si les LLM sont « intelligents », mais de décider comment nous souhaitons les employer. Les traiter comme des encyclopédies universelles, c’est accepter des réponses parfois brillantes, parfois trompeuses, souvent invérifiables. Les considérer comme des moteurs de traitement au service de nos propres documents et de nos propres recherches, c’est en faire de véritables assistants d’expertise, capables d’augmenter notre jugement sans le remplacer. La technologie est la même, mais la posture change tout. Entre le gadget qui impressionne en réunion et l’outil de travail qui fait réellement gagner en rigueur et en temps, il n’y a qu’un pas : celui qui consiste à apporter au modèle non pas seulement vos questions, mais surtout vos documents et les savoirs patiemment construits au fil de vos lectures.
Encore faut-il distinguer les types de données que l’on choisit de traiter avec ces outils. Pour ma part, j’alimente NotebookLM uniquement avec des contenus issus de sources ouvertes : cas d’usage publics, articles, interviews, exemples documentés. Je les structure, je les commente, je conserve les liens d’origine pour garantir la traçabilité. Ce que je mets en jeu n’est pas une information confidentielle, mais un temps d’analyse et de mise en forme. Le risque, ici, n’est pas la fuite d’un secret, mais la diffusion éventuelle d’un raisonnement déjà partagé. Pour un formateur, cela reste compatible avec l’objectif de transmission. Pour un consultant, la prudence s’impose.
C’est pourquoi j’exclus systématiquement l’usage de ces outils pour des documents clients protégés par un NDA, ou pour des idées à forte valeur ajoutée. La confiance ne repose pas sur l’outil, mais sur le discernement de celui qui l’emploie. Adopter une approche raisonnée, fondée sur la nature des données et le niveau de confidentialité attendu, permet de tirer parti des fonctionnalités avancées sans compromettre l’intégrité de son travail. Et parfois, face à un contenu sensible ou original, la meilleure option reste la plus simple : écrire soi-même, composer ses slides, sans intermédiaire. L’alternance entre modernité et méthode traditionnelle ne nuit pas à l’efficacité. Elle la renforce. Lorsque je vois un stagiaire prendre en photo une vieille diapo « boomer », conçue sans IA, je me dis que la bonne vieille slide, à l’ancienne, fonctionne encore très bien.