Le 25 mars dernier, lors d’un sommet mondial sur l’éducation organisé à la Maison Blanche, Melania Trump a déambulé sur le tapis rouge aux côtés d’une présence pour le moins inattendue : Figure 3. Ce robot humanoïde, propulsé par une intelligence artificielle, a officiellement été présenté comme un atout majeur pour l’avenir de l’enseignement américain. Le lendemain, le président Donald Trump vantait d’ailleurs les mérites de ces machines, censées offrir une expérience ultra-personnalisée, s’adapter aux besoins de chaque élève et forger leur esprit critique. Une vision gouvernementale qui provoque un profond malaise chez de nombreux observateurs, effrayés par l’impact potentiel d’une telle intrusion technologique dans les salles de classe.
Le péril d’un apprentissage déshumanisé
L’intégration d’entités robotiques comme figures d’autorité éducative soulève de vives inquiétudes quant au développement cognitif des enfants. Les États-Unis traversent actuellement une crise de l’alphabétisation sévère. Près de 54 % des adultes américains ont un niveau de lecture inférieur à celui d’un élève de sixième, et une vaste majorité des enfants en classe de CM1 peinent à maîtriser ces compétences de base. L’apprentissage de la lecture nécessite une interaction humaine extrêmement fine, mêlant perception sensorielle, conscience phonémique et compréhension des signaux non verbaux. Confier de jeunes esprits à des modèles de langage artificiels, limités par leurs propres bases de données et les biais de leurs créateurs, risque d’entraver lourdement le développement de leurs capacités de communication.
L’algorithme discret, véritable moteur de la pédagogie
Pourtant, loin des visions de professeurs de métal arpentant les couloirs, l’intelligence artificielle s’immisce déjà dans l’apprentissage sous des formes logicielles plus discrètes. L’engouement initial pour les « tuteurs chatbots » a souvent été refroidi par la réalité du terrain. Plusieurs études ont en effet démontré que les étudiants s’appuyaient trop sur ces outils, obtenant les solutions sans fournir le moindre effort intellectuel. Néanmoins, un document de recherche publié en mars 2026 par une équipe de l’Université de Pennsylvanie vient nuancer ce scepticisme. En observant près de 800 lycéens taïwanais apprenant le langage de programmation Python, les chercheurs ont mis en lumière l’efficacité d’une approche radicalement différente.
Maintenir l’élève dans la bonne dynamique
La clé ne réside pas dans la capacité de la machine à expliquer un concept, mais plutôt dans sa gestion du parcours d’exercices. L’étude a comparé deux groupes d’élèves. Le premier suivait une suite fixe de problèmes allant du plus simple au plus complexe, tandis que le second bénéficiait d’un cheminement sur mesure. Dans ce dernier cas, l’IA ajustait constamment la difficulté en fonction des performances et des interactions de l’élève. Cette méthode s’appuie sur la notion de « zone de développement proximal ». L’objectif est de maintenir le jeune dans un équilibre parfait : suffisamment stimulé pour ne pas s’ennuyer, mais protégé contre une difficulté écrasante qui générerait de la frustration.
Les résultats de ce parcours personnalisé sont frappants. Angel Chung, doctorante à la Wharton School et conceptrice de l’outil, estime que le gain d’apprentissage correspond à l’équivalent de six à neuf mois de scolarité supplémentaire, un chiffre impressionnant pour un programme en ligne de seulement cinq mois. Son équipe a réussi ce tour de force en couplant un grand modèle de langage avec un algorithme d’apprentissage automatique capable d’analyser le comportement de l’élève, de ses révisions de code à la qualité de ses requêtes. Ainsi, les lycéens du groupe personnalisé ont passé beaucoup plus de temps à s’exercer, séduits par une interaction presque humaine qui a su corriger le manque d’engagement, talon d’Achille des anciens systèmes de tutorat. Ce système s’est révélé particulièrement bénéfique pour les grands débutants et les élèves issus d’établissements moins favorisés.
Vie privée et casse sociale en ligne de mire
Si ces logiciels de tutorat prouvent qu’une personnalisation de l’apprentissage est possible, le saut vers des humanoïdes physiques franchit une ligne rouge éthique et sociale. Déployer des robots éducateurs implique d’équiper les classes de caméras et de micros scrutant les moindres faits et gestes. Ces systèmes absorberaient massivement des données personnelles, enregistrant visages, voix et conversations intimes, bafouant potentiellement les lois sur la protection des données éducatives. Aucune garantie morale ne vient encadrer l’exploitation de ces informations par l’État ou ses partenaires technologiques.
La menace plane également sur le corps enseignant. Les professeurs américains subissent déjà une précarité alarmante, avec des salaires moyens en deçà de ceux de 2009 si l’on tient compte de l’inflation. Généraliser la présence de robots fournirait au gouvernement un levier redoutable pour licencier massivement des éducateurs du secteur public et revoir à la baisse la rémunération de ceux qui resteraient. L’avenir de l’école se joue aujourd’hui sur une frontière ténue, entre une aide algorithmique invisible qui soutient l’enseignement, et un remplacement mécanique qui sacrifie l’humain sur l’autel de la technologie.

