
L’essor de l’intelligence artificielle générative dans les entreprises pose un enjeu central pour les RH et les managers : encadrer et structurer une autoformation qui se fait déjà de manière informelle et dispersée.
Les collaborateurs se servent spontanément d’outils comme ChatGPT, Gemini ou Copilot pour apprendre, reformuler des idées ou produire des livrables. Ces usages relèvent d’un nouveau type de formation autonome, proche d’un tutorat personnalisé. Mais sans cadre, cette dynamique risque de rester inefficace, voire contre-productive. L’objectif est donc de transformer cette pratique diffuse en un cycle d’apprentissage structuré, aligné sur les compétences stratégiques de l’entreprise.
Ce cycle d’autoformation comprend cinq étapes clés. Il commence par la clarification du besoin, où le salarié utilise un chatbot pour formuler son objectif et construire un plan. Ensuite, une exploration guidée permet d’analyser des documents internes et de synthétiser les contenus clés. Viennent les explications personnalisées, selon le niveau et le contexte du salarié.
Puis la phase de production, avec la rédaction de livrables concrets à l’aide des outils bureautiques intégrant l’IA. Enfin, une étape de consolidation avec la création de fiches ou de quiz pour fixer les acquis.
Cette approche impacte directement cinq dimensions RH et managériales. Sur le plan des talents, elle pousse à revaloriser la compétence d’auto-apprentissage assisté par l’IA, et à l’intégrer dans les référentiels de postes. En recrutement, il ne s’agit plus de tester une connaissance outil mais une capacité d’apprentissage actif.
La formation, elle, doit fournir des parcours d’autoformation adaptés aux métiers, avec des consignes claires pour utiliser efficacement les IA. L’organisation du travail doit dégager du temps dédié, intégré dans les plannings. Enfin, les managers ont un rôle moteur : ils doivent donner l’exemple, fixer des objectifs clairs, et exiger des livrables comme preuve d’appropriation.
Mais ce modèle comporte des risques. Les réponses peuvent être inexactes, l’usage passif devient tentant, et tous les salariés ne disposent pas du même niveau d’autonomie. La sécurité des données constitue un danger majeur si les outils sont mal utilisés.
Pour limiter ces dérives, il est impératif de définir un cadre clair, former à la vérification des contenus, et rappeler que toute réponse IA doit être relue avant d’être intégrée à un livrable sensible. Ce cadrage, allié à un pilote ciblé et une montée en puissance progressive, permettrait de transformer une pratique désordonnée en levier d'apprentissage puissant.
Contenu généré avec l'aide de l'IA générative