Avec l’IA, savoir poser les bonnes questions devient une compétence essentielle
L’IA ne récompense pas seulement celui qui a accès au tout dernier modèle. Elle récompense avant tout la capacité à formuler une intention claire, à donner du contexte, à préciser une contrainte, à tester la réponse, puis à relancer avec méthode. Le sujet n’est donc pas seulement de savoir écrire un bon prompt. Il est plus large : apprendre à transformer un besoin flou en demande exploitable, à tester la réponse obtenue, à relancer avec méthode et à conserver la maîtrise du jugement final. C’est cette compétence, plus que l’accès au dernier modèle, qui permet de convertir l’IA en véritable levier de travail, d’apprentissage et de décision.
Un utilisateur qui ne sait pas poser de bonnes questions reste souvent au niveau d’une réponse générique. Je retrouve fréquemment ce constat lors des sessions de formation : les participants n’ont pas toujours le sentiment que l’IA se trompe, mais plutôt qu’elle produit des réponses trop vagues, trop prudentes ou trop générales pour être directement exploitables. La réponse paraît correcte en surface, mais elle manque d’angle, de profondeur métier et de valeur opérationnelle. En pratique, cela donne parfois une impression « d’eau tiède » : rien n’est franchement faux, mais rien n’aide vraiment à décider, à produire ou à progresser.
Ce retour est important, car il montre que la limite ne vient pas toujours du modèle lui-même. Elle vient souvent de la manière dont la demande est formulée. Une question trop large appelle une réponse trop large. Une consigne sans contexte produit une réponse sans relief. Une demande sans contrainte donne un résultat générique. L’IA ne peut pas deviner seule le niveau attendu, le public visé, le format utile, les risques à prendre en compte ou les critères de qualité du livrable. À l’inverse, un utilisateur capable de cadrer son besoin, d’interroger les hypothèses, de vérifier les résultats et d’orienter la machine transforme l’IA en véritable levier de raisonnement.
Pour résumer : les machines produisent des réponses, mais seuls les utilisateurs capables de construire de bonnes questions, d’évaluer les réponses et de relancer intelligemment captent réellement la valeur de l’IA.
Cette compétence ne relève pas uniquement du prompt engineering. Je forme depuis plus de deux ans à cette technique essentielle, je suis le premier à en reconnaître l’importance. Mais ce n’est pas le prompt engineering seul qui vous permettra d’accéder au plein potentiel des IA génératives. C’est une aptitude plus large : transformer un besoin flou en problème exploitable, dialoguer avec un système probabiliste, contrôler ses sorties et conserver la maîtrise du jugement final.
De l’IA disponible à l’IA vraiment utile : le cas Khanmigo
Le cas Khanmigo est central, car Khan Academy figure parmi les acteurs les plus favorables à l’IA éducative. Sal Khan a défendu dès 2023 l’idée d’un tuteur IA personnel disponible pour chaque élève. Salman « Sal » Khan n’est pas un simple commentateur de l’IA éducative. Il est le fondateur et dirigeant de Khan Academy, organisation à but non lucratif dont la mission est de proposer une éducation gratuite et de qualité à toute personne, partout dans le monde. Son parcours impressionnant donne du poids à son analyse. Il a construit Khan Academy à partir de tutoriels en ligne, avant d’en faire l’une des plateformes éducatives les plus diffusées au monde.
L’ampleur de Khan Academy renforce l’intérêt du cas Khanmigo. Le rapport annuel 2024-2025 de Khan Academy indique 189,6 millions d’utilisateurs inscrits, 104,9 millions d’apprenants actifs annuels, 66,8 milliards de minutes d’apprentissage, une disponibilité dans plus de 190 pays et plus de 55 langues. La bibliothèque compte également 842 cours, couvrant notamment les mathématiques, les sciences, les sciences humaines, l’informatique, la culture financière et la préparation aux examens.
Le même rapport précise que Khanmigo, le tuteur et assistant pédagogique fondé sur l’IA de Khan Academy, a touché 2 millions d’utilisateurs sur l’année scolaire 2024-2025, avec une progression de 731 % par rapport à l’année précédente. Ce chiffre montre que le sujet ne porte pas sur une expérimentation marginale. Il concerne un acteur éducatif mondial, qui teste l’IA à grande échelle et constate pourtant une limite structurante : l’accès à un tuteur IA ne suffit pas toujours. Encore faut-il savoir demander de l’aide, formuler son besoin et utiliser la réponse pour progresser.
Le retour d’expérience est donc plus nuancé que la promesse initiale. Dans un entretien avec l’AASA, Sal Khan indique que 20 % des élèves utilisent Khanmigo en se disant qu’ils peuvent en tirer beaucoup, mais que beaucoup d’autres ne savent pas comment commencer. Il ajoute que ce n’est pas seulement un problème d’IA, car ces mêmes élèves rencontrent souvent aussi des difficultés d’engagement en classe.
L’article de Chalkbeat formule directement le point clé. Kristen DiCerbo, responsable apprentissage chez Khan Academy, y explique que l’IA ne peut répondre qu’à partir de ce que les élèves demandent, et que les élèves ne sont pas toujours bons pour poser des questions. Elle précise aussi qu’elle ne voit pas, à ce stade, la révolution éducative initialement attendue.
Khan Academy a donc modifié son approche. Et cela n’a pas été un petit ajustement. L’organisation ne présente plus seulement Khanmigo comme un chatbot autonome que l’élève doit solliciter. Elle l’intègre davantage dans les exercices, au moment précis où l’élève travaille. Le blog de Khan Academy indique que seuls environ 15 % des élèves ayant accès à Khanmigo l’utilisent, malgré une moyenne de 269 000 interactions les jours de semaine et plus de 108 millions d’interactions depuis le lancement en 2023.
Cette évolution confirme le problème de fond. L’IA peut être disponible, performante et bien intentionnée, mais rester sous-utilisée si l’utilisateur ne sait pas engager l’interaction. Khanmigo ne montre donc pas que l’IA éducative échoue. Il montre que l’IA éducative a besoin d’un design pédagogique et d’un apprentissage du questionnement.
En formation professionnelle, je constate un phénomène similaire. Accéder à l’outil ne suffit pas. Sans une formation bien calibrée, sans cas d’usage proches du terrain et sans un travail réel du management pour accompagner le déploiement, il ne se passe souvent pas grand-chose. Les collaborateurs testent l’IA, obtiennent quelques réponses, puis reviennent rapidement à leurs pratiques habituelles. L’adoption ne dépend donc pas seulement de la disponibilité technique de l’outil. Elle dépend de la capacité de l’organisation à créer un cadre d’usage, à légitimer l’expérimentation et à installer des réflexes de questionnement, de vérification et de relance.
Un tuteur disponible en permanence ne suffit pas si l’élève ne sait pas demander de l’aide, décrire son blocage, tester une explication ou relancer la machine. La valeur de l’outil dépend alors moins de sa seule puissance que de la qualité du dialogue construit avec lui.
Ce que confirme la recherche
Les travaux récents confirment que réussir une tâche avec l’IA ne signifie pas nécessairement apprendre. L’OCDE, dans le Digital Education Outlook 2026, indique que l’IA générative peut soutenir l’apprentissage lorsqu’elle est guidée par des principes pédagogiques clairs. Elle avertit toutefois qu’un usage sans guidage peut améliorer la performance apparente sans produire de véritables gains d’apprentissage. L’OCDE évoque aussi des risques de paresse métacognitive et de désengagement lorsque les élèves délèguent trop rapidement l’effort cognitif à un chatbot généraliste.
Une étude menée par Hamsa Bastani et ses coauteurs auprès de près de 1 000 élèves de lycée en mathématiques illustre ce risque. Pendant les séances avec assistance IA, les élèves utilisant une interface de type ChatGPT améliorent fortement leur performance. Mais lorsque l’IA est retirée, ils obtiennent de moins bons résultats que les élèves qui n’avaient jamais eu accès à l’outil. L’étude conclut que l’IA peut devenir une béquille si elle donne trop facilement la réponse.
La synthèse de Wharton précise les ordres de grandeur. Le groupe « GPT Base » obtient de meilleurs résultats pendant l’exercice assisté, mais 17 % de moins au test sans assistance. Le groupe « GPT Tutor », doté de garde-fous et conçu pour guider avec des indices plutôt que fournir directement les réponses, évite cette baisse.
La Brookings Institution tire une conclusion comparable. Les tuteurs IA produisent davantage de valeur lorsqu’ils sont conçus pour enseigner, et non pour dire. Les bons dispositifs utilisent des questions socratiques, des indices, un étayage progressif et une organisation séquentielle des problèmes. La valeur ne vient donc pas seulement du modèle d’IA, mais du scénario pédagogique qui encadre l’interaction.
Le sujet dépasse l’école. Une étude de Microsoft Research et Carnegie Mellon University menée auprès de 319 travailleurs du savoir montre que la confiance excessive dans l’IA est associée à une moindre mobilisation de la pensée critique. À l’inverse, la confiance dans sa propre capacité à accomplir la tâche et à évaluer la réponse de l’IA est associée à davantage de pensée critique.
Cette observation est directement exploitable en formation professionnelle. L’IA ne supprime pas la pensée critique. Elle en déplace le centre de gravité vers la définition de l’objectif, la vérification, l’intégration de la réponse et le pilotage de la tâche.
Une convergence des acteurs de l’IA
Les éditeurs d’IA eux-mêmes reconnaissent cette limite. OpenAI a lancé le mode « Study mode » de ChatGPT pour éviter que l’outil fournisse immédiatement la réponse. Le principe consiste à guider l’utilisateur par des questions socratiques, des indices, des étapes de réflexion et des vérifications de compréhension.
Google suit une logique comparable avec « Guided Learning » dans Gemini. L’objectif affiché est de passer de réponses rapides à une compréhension structurée, grâce à des questions, des décompositions étape par étape et des supports interactifs.
La convergence entre Khanmigo, ChatGPT Study mode et Gemini Guided Learning est significative. Le marché évolue d’un modèle de chatbot-réponse vers un modèle de compagnon d’apprentissage guidé. Cette évolution confirme la thèse centrale : la qualité de l’usage dépend moins de la réponse brute que de la capacité à structurer le dialogue.
Une compétence qui concerne aussi et surtout l’entreprise
Le parallèle avec l’entreprise est direct. Dans les deux cas, l’IA ne crée pas automatiquement de la valeur par sa seule présence. Elle amplifie surtout la qualité du cadrage, du questionnement, de la vérification et de la décision. Un élève qui ne sait pas formuler son blocage risque d’obtenir une aide superficielle. Un collaborateur qui ne sait pas qualifier son besoin risque d’obtenir un livrable plausible, mais insuffisant. Dans les deux situations, la compétence décisive n’est pas seulement l’usage de l’outil. C’est la capacité à piloter l’interaction.
Dans le monde professionnel, la même logique s’applique. L’étude menée avec Boston Consulting Group sur 758 consultants montre que l’IA améliore fortement la performance sur certaines tâches, mais peut la dégrader sur d’autres. Les auteurs parlent de « jagged technological frontier », c’est-à-dire d’une frontière irrégulière des capacités de l’IA.
Cette notion est essentielle en entreprise. Un collaborateur qui ne sait pas qualifier une tâche, identifier les limites de l’IA, contrôler la réponse et relancer correctement peut produire un résultat convaincant en apparence, mais faux, incomplet ou mal adapté. L’enjeu n’est donc pas seulement de savoir utiliser un outil. Il est de savoir déterminer quand l’IA est pertinente, ce qu’elle peut produire, ce qu’elle ne peut pas garantir et comment sa réponse doit être vérifiée.
Le Work Trend Index 2024 de Microsoft et LinkedIn montre aussi que les utilisateurs avancés de l’IA se distinguent par des habitudes d’expérimentation. Ils utilisent l’IA plusieurs fois par semaine, déclarent gagner plus de 30 minutes par jour et sont 68 % plus susceptibles d’expérimenter fréquemment différentes façons d’utiliser l’IA.
Le même rapport indique que ces utilisateurs sont plus enclins à relancer lorsqu’ils n’obtiennent pas la bonne réponse, à rechercher de nouveaux prompts et à demander à leurs collègues quelles formulations fonctionnent. La compétence clé n’est donc pas une formule magique. C’est une pratique répétée du questionnement, de l’ajustement et du partage.
C’est ici que le débat mérite d’être déplacé. Beaucoup d’organisations passent un temps considérable à comparer tel modèle avec tel autre, telle interface avec telle autre, telle version avec telle autre. Ces comparaisons ont leur utilité. Mais elles peuvent aussi masquer l’essentiel. Le vrai différentiel ne se joue pas toujours entre deux modèles. Il se joue souvent entre deux utilisateurs : celui qui pose une question floue et accepte la première réponse, et celui qui prend le temps de cadrer, de challenger, de reformuler et de décider.
Ce sur quoi se focaliser
Le sujet ne doit pas être réduit à « écrire de bons prompts ». La compétence décisive consiste à piloter un dialogue avec l’IA.
Un utilisateur efficace doit savoir :
- Clarifier l’objectif avant de demander une réponse ;
- Donner le contexte que la machine ne peut pas deviner ;
- Expliciter les contraintes, le public cible, le format et le niveau attendu ;
- Demander à l’IA de comparer, critiquer, reformuler ou raisonner par étapes ;
- Vérifier la réponse avec des sources fiables ;
- Relancer en corrigeant l’angle, le niveau de détail ou les hypothèses ;
- Décider ce qu’il conserve, adapte ou rejette.
Cette compétence combine plusieurs registres : formulation, esprit critique, connaissance métier, culture du risque, capacité de vérification et sens du contexte. Et assez vite on réalise que ces registres correspondent aux qualité des bons managers en entreprise. Un bon manager fixe le cap, donne un objectif clair, fournit le contexte utile, précise les contraintes de délai, de moyens et de qualité, demande plusieurs options, éprouve la solidité d’un raisonnement, corrige les angles morts et ajuste la trajectoire en fonction des retours. Surtout, il ne délègue ni son discernement ni sa responsabilité : il arbitre, décide et assume le résultat.
Dans l’entreprise, la clé c’est la capacité à produire un livrable utile au lieu d’un texte plausible. Et cela oblige à « interroger » un dossier en allant jusqu’à un niveau de détail très fin, à vérifier chiffres, hypothèses et calculs, à qualifier des signaux faibles, à formuler des hypothèses et fin du fin arriver à distinguer une piste pertinente d’une simple corrélation apparente.
Quand l’expérience devient un avantage décisif.
C’est aussi le message que je porte souvent dans mes formations auprès de dirigeants, de seniors et de managers de transition. Beaucoup abordent l’IA avec une forme d’inquiétude. Ils se demandent s’ils ont pris du retard, s’ils doivent maîtriser tous les outils, s’ils doivent connaître toutes les versions, toutes les fonctionnalités, tous les modèles.
Je leur dis souvent qu’ils ont pourtant un atout majeur dans leur jeu : ils savent poser les bonnes questions.
Cette compétence est parfois sous-estimée, car elle semble moins spectaculaire que la maîtrise technique d’un outil. Elle est pourtant déterminante. Un dirigeant expérimenté sait généralement cadrer un problème, repérer une hypothèse fragile, demander une preuve, identifier un risque, reformuler une demande, distinguer l’accessoire de l’essentiel. Autrement dit, il possède déjà une partie importante de ce qui permet de bien utiliser l’IA.
Cela ne veut pas dire que l’expérience suffit. Il faut apprendre à dialoguer avec ces outils, à comprendre leurs limites et à structurer les interactions. Mais cela signifie que les profils expérimentés ne partent pas de zéro. Leur valeur ne disparaît pas avec l’IA. Elle peut au contraire augmenter, à condition de déplacer leur expertise vers le pilotage du raisonnement, la formulation des bonnes questions et la validation des réponses.
C’est un point de réassurance, mais aussi une exigence. Les managers, les dirigeants et les professionnels seniors ne doivent pas seulement se demander quel modèle utiliser. Ils doivent surtout se demander quelles questions poser, dans quel ordre, avec quel niveau de contexte, pour produire quel type de décision.
Avant de demander une réponse à l’IA, il faut savoir ce que l’on cherche vraiment à produire, pour qui, avec quelles contraintes, selon quels critères de qualité et avec quels risques à contrôler.
Dans les organisations, l’enjeu n’est donc pas seulement d’équiper les collaborateurs. Il est d’installer des réflexes : clarifier l’objectif, donner le contexte, demander plusieurs options, vérifier les sources, challenger les hypothèses et décider ce qui mérite d’être conservé, adapté ou rejeté.
Dans un monde saturé de réponses instantanées, la rareté se déplace. Elle ne se situe plus seulement dans l’accès à l’information, mais dans la capacité à formuler la bonne question. Au fond, le conseil le plus utile pourrait être d’aller faire un tour au parc, de discuter à la machine à café, de laisser mûrir le problème quelques minutes et de revenir avec une meilleure question. C’est peut-être là que se joue l’un des vrais avantages stratégiques de l’IA : non pas répondre plus vite à tout, mais nous obliger à mieux penser ce que nous voulons demander.
Cet article s’appuie sur une idée originale personnelle et a été élaboré avec l’aide d’une IA générative pour la recherche d’information et la structuration du texte ; je conserve la main sur l’analyse, la sélection des contenus et j’assure la relecture finale.
Sources
Microsoft, « Sal Khan, Founder and CEO of Khan Academy » ;
Khan Academy, « Annual Report SY24-25 » ;
AASA, « A conversation with Sal Khan » ;
Chalkbeat, « Sal Khan once said AI would revolutionize schools. Now he sees its limits » ;
Khan Academy, « Learning in the Open : What AI Is (and Isn’t) Changing » ;
OCDE, « OECD Digital Education Outlook 2026 » ;
SSRN, « Generative AI Can Harm Learning » ;
Knowledge at Wharton, « Without Guardrails, Generative AI Can Harm Education » ;
Brookings Institution, « What the research shows about generative AI in tutoring » ;
Microsoft Research, « The Impact of Generative AI on Critical Thinking » ;
OpenAI, « Introducing study mode » ;
Google, « Guided Learning in Gemini : From answers to understanding » ;
Pew Research Center, « How Teens Use and View AI » ;
National Literacy Trust, « Young people and teachers’ use of generative AI to support literacy in 2025 » ;
Anthropic, « Anthropic Education Report : How university students use Claude » ;
MIT Sloan, « Study : Generative AI results depend on user prompts as much as models » ;
ScienceDirect, « AI literacy and its implications for prompt engineering strategies » ;
ScienceDirect, « Critical questioning with generative AI : Developing AI literacy in secondary education » ;
INFORMS, « Navigating the Jagged Technological Frontier » ;
Microsoft et LinkedIn, « 2024 Work Trend Index Annual Report » ;
Unesco, « What you need to know about UNESCO’s new AI competency frameworks for students and teachers » ;
Stanford Teaching Commons, « Understanding AI Literacy ».
FAQ
Pourquoi est-il important de savoir poser les bonnes questions à l’IA ?
Parce qu’une demande floue produit souvent une réponse générique. Pour obtenir un résultat utile, l’utilisateur doit préciser l’objectif, le contexte, les contraintes, le format attendu et les critères de qualité.
Le prompt engineering suffit-il pour bien utiliser l’IA ?
Non. Le prompt engineering est utile, mais il ne suffit pas. La compétence clé consiste à piloter un dialogue avec l’IA : formuler, tester, vérifier, relancer et décider ce qui doit être conservé ou rejeté.
Que montre l’exemple de Khan Academy avec Khanmigo ?
Il montre que l’accès à un tuteur IA ne suffit pas toujours. Même avec un outil disponible, les élèves doivent savoir demander de l’aide, expliquer leur blocage et utiliser la réponse pour progresser.
Pourquoi ce sujet concerne-t-il aussi l’entreprise ?
En entreprise, l’IA peut produire des textes plausibles mais insuffisants si la demande est mal cadrée. La valeur dépend donc de la capacité des collaborateurs à qualifier le besoin, vérifier les résultats et intégrer la réponse dans une décision ou un livrable.
Pourquoi les managers expérimentés ont-ils un avantage avec l’IA ?
Parce qu’ils savent cadrer un problème, identifier une hypothèse fragile, demander une preuve, arbitrer entre plusieurs options et assumer une décision. Ces compétences deviennent centrales dans l’usage professionnel de l’IA.