On parle beaucoup de l’IA et des apprenants mais presque toujours côté formateur. On explore les outils de conception, les workflows d’ingénierie pédagogique, les formations certifiantes pour les équipes enseignantes. En revanche, on parle très peu de ce qui se passe quand l’IA arrive dans la main des apprenants eux-mêmes.

Pourtant, c’est là que se joue, en 2026, la vraie bascule pédagogique.

Parce que l’IA dans la poche de tes apprenants n’est pas un levier d’apprentissage. Elle le devient ou pas. Et ce qui tranche, ce n’est pas l’outil.

Dans cet article, je te propose un cadre d’analyse en trois temps. D’abord, ce qui se passe par défaut quand l’IA est côté apprenant. Ensuite, le point de bascule entre raccourci et déclencheur. Enfin, les trois gestes concrets de conception qui tiennent debout face aux IA génératives dans la salle.


Pourquoi l’IA n’est pas un levier d’apprentissage par défaut

Voilà ce qui se passe par défaut, quand l’IA est déjà dans la main de l’apprenant.

L’apprenant sèche sur une tâche. Il ouvre ChatGPT ou autre. Il colle l’énoncé, obtient une réponse structurée en quinze secondes, ajuste deux tournures et rend son livrable.

Neuf fois sur dix, c’est la trajectoire spontanée. Par ailleurs, elle ne relève pas d’un manque de sérieux. Elle relève de l’économie cognitive. Face à un outil qui permet d’éviter l’effort, un cerveau rationnel choisit d’éviter l’effort. C’est exactement ce que décrivent les travaux de Robert Bjork sur la difficulté désirable : l’apprentissage durable exige un effort que le cerveau, laissé à lui-même, cherche toujours à minimiser.

Résultat concret : un livrable correct, un apprentissage quasi nul.

Ce geste là n’est pas un levier. C’est un raccourci cognitif. Et ce n’est pas l’outil qui est en cause. C’est l’absence de dispositif autour de lui.

C’est précisément ce qui se passe dans la majorité des organismes de formation aujourd’hui. Les apprenants utilisent l’IA. Les formateurs s’en doutent. Mais personne n’a orchestré cet usage dans le dispositif. Dès lors, l’IA devient un contournement silencieux de l’apprentissage. Exactement ce que le rapport de l’IGÉSR sur l’IA dans l’enseignement supérieur signalait déjà en juillet 2025 comme angle mort stratégique.


Le point de bascule : raccourci cognitif ou déclencheur de friction ?

La même IA, dans la même poche du même apprenant, peut produire l’inverse. Cependant, une seule condition : être orchestrée dans un dispositif qui l’oblige à devenir utile.

Orchestrée comme déclencheur de friction, l’IA oblige l’apprenant à trois gestes cognitifs que le raccourci évite soigneusement.

D’abord, justifier. Pourquoi l’apprenant accepte ou rejette la réponse que l’IA propose ? Quels sont les arguments pédagogiques, terrain, éthiques qui orientent sa décision ?

Ensuite, confronter. Comment son propre raisonnement se situe-t-il face à celui de l’outil ? Où sont les écarts ? Que révèlent-ils de ses propres angles morts ?

Enfin, reformuler. Comment traduire dans son contexte terrain spécifique ce que l’IA a sorti en version générique ? Quelle adaptation la réalité impose-t-elle à la proposition théorique ?

Dans ce cadre, l’IA ne remplace pas l’effort cognitif. En réalité, elle le déclenche. Parce que pour accepter ou rejeter une proposition, l’apprenant doit comprendre. Pour reformuler, il doit s’approprier. Pour justifier, il doit construire son propre raisonnement.

Même outil. Deux gestes radicalement différents. Et deux trajectoires d’apprentissage incomparables.

La différence ne tient donc pas à l’apprenant. Elle tient à ce que le formateur a orchestré autour de l’IA. Autrement dit : ce qui tranche entre un apprenant qui apprend et un apprenant qui délègue, ce n’est pas sa motivation ; c’est ton ingénierie de dispositif.


Les trois gestes de conception qui tiennent face à ChatGPT dans la salle

Concrètement, cette bascule demande trois déplacements dans ta pratique de conception. Trois gestes précis, que tu peux tester dès ta prochaine session.

1. Poser un problème qui résiste à ChatGPT – pas un sujet qu’il résout

Si la tâche que tu proposes peut être résolue directement par un prompt générique, l’IA la résoudra à la place de ton apprenant.

À l’inverse, un problème ancré dans un contexte terrain spécifique. Par exemple « Votre plus gros client vient de signer avec votre concurrent direct sur un service que vous proposez aussi, moins cher. Il reste votre client sur 60 % du périmètre. Vous le rencontrez jeudi. Qu’est-ce que vous préparez pour cet entretien ? » Ne se résout pas par ChatGPT seul.

L’IA peut fournir des pistes d’analyse. En revanche, la décision reste du côté de l’apprenant, parce qu’elle dépend de paramètres contextuels qu’aucun prompt ne peut intégrer complètement.

Ce premier geste a déjà été développé sous l’angle de la conception dans l’article sur la commande à l’IA en ingénierie pédagogique. Ici, il s’agit du miroir côté apprenant : concevoir la tâche pour que l’IA ne puisse pas la contourner.

2. Construire la consigne pour que l’IA soit utilisée et interrogée

Interdire l’IA est illusoire. L’intégrer sans la questionner produit un livrable IA, pas un apprentissage. La troisième voie : rendre l’usage de l’IA obligatoire, et exiger qu’il soit documenté ?

« Utilise ChatGPT pour produire une première analyse. Documente deux de ses propositions que tu valides, et une que tu rejettes — avec ton raisonnement. Propose ta version finale, argumentée. »

Dès lors, l’IA devient un partenaire de dialogue. Pas un substitut de travail.

Par ailleurs, ce geste bascule l’apprenant d’une posture de récepteur passif, où il subit l’outil, puisque tout le monde l’utilise à une posture d’utilisateur éclairé. Concrètement, c’est ce que l’OCDE appelle les compétences « de littéracie face à l’IA » dans son rapport 2026 sur les formations d’avenir.

3. Évaluer la décision prise face à l’IA. Pas le livrable qui en sort

Si ton évaluation porte sur le livrable final, ChatGPT peut la passer à la place de ton apprenant. Si elle porte sur la décision prise et le raisonnement qui la soutient, l’IA ne peut pas t’aider à la passer.

Parce que l’IA peut donner la réponse. Elle ne peut pas prendre la décision.

Cette réécriture de l’évaluation n’est pas cosmétique. De plus, c’est ce qui rend tout le dispositif robuste face à l’IA. C’est aussi la traduction opérationnelle directe de la recommandation 12 du rapport IGÉSR, qui appelle à « repenser l’évaluation des compétences à l’ère des outils génératifs ».

Ce troisième geste est le plus exigeant, parce qu’il oblige à repenser l’évaluation avant de concevoir le module. Ce qui est l’ordre inverse du réflexe habituel. Néanmoins, c’est le seul ordre qui tient.


Le déplacement qui sépare les formations en 2026

Pour le dire d’une phrase : ce n’est pas l’IA qui fait la différence entre une formation qui déclenche un apprentissage et une formation qui s’efface devant l’outil.

C’est ce que tu orchestres autour d’elle.

Cette orchestration n’est pas un perfectionnement optionnel. En définitive, c’est ce qui sépare, en 2026, les dispositifs qui tiendront l’épreuve de l’IA dans la poche des apprenants, de ceux qui se verront contournés en silence, sans que personne ne s’en rende compte.

Ce déplacement est le plus exigeant demandé aux formateurs. Par conséquent, c’est aussi le seul qui rend leur expertise irremplaçable à l’heure des outils génératifs.


Pour aller plus loin

→ Tu veux savoir sur quels piliers concentrer ton énergie en priorité ? Fais le diagnostic ARCHITECTE gratuit en 10 minutes : https://stephanie-daragon1977.systeme.io/diagnostic-c842c0d5

→ Tu veux recevoir un geste d’architecture pédagogique tous les 15 jours ? Inscris-toi au Brief de l’Architecte : https://humaize.io/brief/

→ Articles liés :


Sources :