– 19 mars 2026
Article
L’IAg au service de la conception pédagogique
Quand le storytelling rencontre l’intelligence artificielle
Le 18 mars dernier, la communauté i-mersion CP accueillait Hamid Saffari, conseiller en technologies éducatives et chargé de cours à l’Université du Québec en Outaouais (UQO), pour un atelier en ligne consacré à l’utilisation de l’IA générative dans la conception de formations.
Devant un grand nombre de participantes et participants, Hamid a livré une présentation résolument pratico-pratique, structurée en deux temps : un cadrage sur le storytelling en conception pédagogique, puis une longue démonstration en direct d’un flux de travail intégrant plusieurs outils d’IA.
Le storytelling : un levier puissant, mais coûteux
Hamid a d’emblée posé le cadre : le storytelling — raconter des histoires dans un parcours d’apprentissage en ligne — est reconnu comme efficace dans la littérature en conception pédagogique. Son impact sur la motivation des personnes apprenantes est documenté, particulièrement dans les formations asynchrones.
Le problème, c’est que créer ces histoires avec des personnages crédibles, des mises en situation authentiques et du contenu multimédia reste coûteux, chronophage et complexe. On se retrouve souvent à travailler avec des personnages statiques prédéfinis, moins originaux et moins engageants.
C’est à cette intersection que l’IA générative entre en jeu. Pour illustrer concrètement son propos, Hamid s’est appuyé sur un projet réel : la conception d’un parcours d’autoformation intitulé Entraide entre collègues, en santé mentale au travail, destiné au personnel de la santé et des services sociaux.
La formation comprend deux modules, six personnages inspirés de cas réels, et repose sur des mises en situation simulées avec rétroaction. Le tout est parti d’un document brut d’environ 85 pages fourni par une personne experte du contenu.
Un flux de travail intégré, de Claude à Freepik
La démonstration a constitué le cœur de l’atelier, articulée autour de deux outils principaux : Claude (Anthropic) et Freepik.
Du côté de Claude, Hamid a montré comment il structure son travail grâce à la fonctionnalité Projets : on y dépose le document source, on rédige des instructions de contexte détaillées — rôle de l’assistant, objectifs de la formation, approche pédagogique, langue de travail — et on engage un dialogue itératif.
Première étape clé : plutôt que de demander du contenu d’emblée, Hamid invite Claude à relire l’ensemble du matériel puis à poser des questions ciblées pour mieux comprendre les attentes et les contraintes. Ce n’est qu’ensuite qu’il passe à la production : extraction de mots-clés classés par catégories (émotions, comportements, relations humaines), propositions de titres avec auto-évaluation selon des critères pédagogiques, création de fiches de personnages détaillées intégrant des critères de diversité et d’inclusion, puis génération de prompts prêts à l’emploi pour la création d’images.
Hamid a aussi présenté les compétences personnalisées (Skills) de Claude — des profils de connaissances thématiques consultés automatiquement lors des échanges — ainsi que les artefacts, des interfaces HTML interactives générées sans coder : tableau de bord de la formation, résumé interactif des 12 principes de Mayer avec quiz intégré, générateur de codes QR ou de palettes de couleurs.
Du texte à l’image : passage à la production visuelle
Du côté de Freepik, Hamid a démontré le passage à la production multimédia : génération d’images à partir des prompts créés avec Claude, édition et amélioration de la qualité, création de variations visuelles, puis production de vidéos et d’audio. Un aspect clé : la possibilité de créer des « personnages » dans Freepik, des profils visuels qui assurent la cohérence d’un même personnage à travers différentes scènes.
La plateforme intègre aussi la synthèse vocale (via des modèles comme ElevenLabs), la génération de musique de fond et des outils de montage. Hamid a également mentionné Wispr Flow, un outil de dictée vocale intelligent qui transcrit la parole en texte avec correction automatique dans la plupart des applications du quotidien.
La démonstration a culminé avec la présentation d’une courte vidéo narrée racontant l’histoire de Nikolaï, infirmier de nuit vivant une situation de détresse. Hamid a précisé qu’il n’était pas encore satisfait du résultat — la démonstration visait surtout à valider la faisabilité de la démarche et à montrer le potentiel de la chaîne d’outils.
Des échanges qui prolongent la réflexion
La période de questions a fait émerger plusieurs préoccupations partagées. Sur les coûts, Hamid a estimé la production d’une vidéo d’environ cinq minutes à environ 70 $ en crédits, pour une journée de travail — à comparer avec six mois et un budget considérablement plus élevé pour un projet équivalent avec de vrais acteurs.
Sur la propriété intellectuelle, il a expliqué établir un contrat de travail clair avec les personnes expertes de contenu, incluant un consentement explicite avant tout téléversement dans un outil d’IA.
La question de la sobriété numérique a suscité un échange particulièrement riche. Une participante a mis en tension la liberté créative offerte par ces outils et les ressources environnementales qu’ils consomment. Hamid a répondu que son équipe priorise les projets à large portée, touchant un grand nombre de personnes.
Un autre participant a nuancé en suggérant que cette responsabilité ne devrait pas reposer uniquement sur les épaules des conseillères et conseillers pédagogiques, mais relever aussi du niveau institutionnel — et que la phase exploratoire actuelle justifie une certaine tolérance, le temps de développer les compétences nécessaires pour faire des choix éclairés.
Article rédigé par Clara Dyan-Charles, conseillère pédagogique chez i-mersion CP

Contactez-nous!
Contactez-nous!
Contactez-nous!
Contactez-nous!
Contactez-nous!