IA générative au travail : former ou interdire ?
Introduction
Alors qu’il parcourt l’open space pour rejoindre la photocopieuse, difficile pour Thierry de ne pas remarquer tout ce qui a récemment changé autour de lui. Ici, un commercial rédige ses emails de prospection avec ChatGPT. Là, un développeur s’appuie sur GitHub Copilot pour accélérer ses sprints. Ailleurs, un designer génère ses premières ébauches visuelles avec Midjourney.
Ce que Thierry ignore, c’est que pendant ce temps dans le service RH, le couperet tombe : “Interdiction formelle d’utiliser l’intelligence artificielle pour des raisons de sécurité.” Ce paradoxe, des milliers d’organisations le vivent aujourd’hui. L’IA générative s’est invitée en entreprise sans frapper, et les directions se retrouvent à devoir gérer une révolution qui ne figurait pas dans le plan.
En 2026, la question n’est plus tant de savoir si l’IA va transformer le travail, mais plutôt comment les entreprises vont s’y adapter. Entre la peur des risques, fuites de données, erreurs, biais algorithmiques et celle de se faire distancer par des concurrents plus agiles, les dirigeants se trouvent au cœur d’un dilemme stratégique. Former pour contrôler, ou interdire et s’amputer d’une précieuse ressource ? Cet article va décrypter les enjeux réels, démonter l’illusion de l’interdiction et proposer des pistes concrètes pour faire de l’IA un levier de compétitivité plutôt qu’une source d’anxiété.
IA générative : adoptée par les collaborateurs, crainte par les directions
Contrairement à ce que certaines politiques internes médiatisées pourraient laisser croire, si l’IA générative n’est pas encore massivement utilisée par les entreprises, elle est déjà massivement utilisée dans les entreprises. Selon plusieurs études menées entre 2024 et 2025, entre 60 et 70 % des salariés déclarent utiliser des outils d’IA générative dans leur travail quotidien, le plus souvent sans même en informer leur hiérarchie.
Le risque premier de ce comportement, c’est que l’adoption de l’outil se fait sans filet. Sans formation, sans charte, sans conscience des risques, les collaborateurs sont contraints de naviguer à vue, et les directions ont de bonnes raisons d’être inquiètes. L’exemple le plus emblématique reste celui de Samsung, dont des ingénieurs ont accidentellement transmis du code source ultrasensible et confidentiel à ChatGPT en croyant simplement utiliser un outil de productivité du groupe.
Toutefois, et même au-delà des fuites de données, les risques sont nombreux : l’IA peut produire des contenus factuellement faux (les fameuses hallucinations), générer des formulations discriminatoires (dans des offres d’emploi ou des évaluations), ou encore exposer l’entreprise à des problèmes de conformité vis-à-vis du RGPD et de l’EU AI Act. Ces risques ne sont pas théoriques : loin d’être des fantasmes, ils sont documentés et surviennent fréquemment.
Face à cette réalité, beaucoup de directions adoptent la posture la plus simple en apparence : l’interdiction. Bloquer l’accès aux outils IA sur le réseau de l’entreprise, proscrire leur usage dans la charte informatique, voire sanctionner les contrevenants. Une réaction qui, si elle est compréhensible, s’avère aussi dans la grande majorité des cas contre-productive, comme nous allons le voir dans le prochain chapitre.
Interdire l’IA : une solution illusoire
L’interdiction part d’une prémisse erronée : à l’instar des autres services à disposition dans l’entreprise (téléphonie, internet), il serait possible de contrôler l’accès à des outils disponibles gratuitement sur n’importe quel smartphone, ordinateur personnel ou connexion 4G. Plus prosaïquement, bloquer une IA sur le réseau WiFi de l’entreprise ne change rien au fait qu’un collaborateur peut l’utiliser depuis son téléphone pendant sa pause, chez lui le soir pour préparer une présentation, ou via un VPN.
Car l’IA générative n’est pas un logiciel qu’on installe sur un poste de travail professionnel. C’est un service en ligne, universel, gratuit et accessible pour tous, partout. Dans ce contexte, l’interdiction ne va donc pas réduire pas les usages, mais les invisibiliser, ce qui paradoxalement est un risque bien plus grand puisqu’il désigne une pratique qu’on ne peut ni encadrer, ni former, ni corriger.
L’effet pervers est donc exactement inverse à celui recherché : en poussant les collaborateurs à la clandestinité, l’interdiction augmente les risques. Un employé qui utilise une IA en cachant son usage sera d’autant moins vigilant sur ce qu’il y injecte, d’autant moins enclin à signaler un problème, et d’autant plus susceptible de commettre des erreurs sans filet de sécurité.
Ajoutons à cela un enjeu de compétitivité directe : pendant que certaines entreprises bloquent ces outils, leurs concurrentes forment leurs équipes, optimisent leurs processus et gagnent en productivité. Le fossé se creuse silencieusement, trimestre après trimestre.
Enfin, il existe une dimension humaine et générationnelle à ne pas négliger. Une nouvelle génération de collaborateurs et pas uniquement les plus jeunes est déjà IA native : elle a intégré ces outils dans sa façon de travailler, de réfléchir, de produire. Leur imposer une interdiction, c’est envoyer un signal fort : celui d’une organisation qui résiste à l’évolution plutôt que de l’accompagner. Les profils les plus qualifiés, souvent les plus mobiles, ne resteront pas dans une entreprise perçue comme technologiquement en retard. Comme l’indiquent plusieurs analystes, les organisations qui n’intégreront pas l’IA dans leurs processus d’ici deux à trois ans prendront un retard de productivité difficile à rattraper, rendant bien réel le coût de l’inaction.
Former à l’IA : le nouveau défi
La formation à l’IA ne s’improvise pas, et c’est précisément là que les RH ont un rôle central à jouer. La première étape n’est pas de lancer à la va-vite une session de e-learning, mais de définir un cadre, notamment une charte d’utilisation de l’IA qui précise clairement dans l’entreprise ce qui est autorisé, ce qui est interdit, et dans quelles conditions.
Cette charte, pour être pertinente, doit être construite en concertation avec la DSI, le service juridique et les représentants des métiers. Elle doit aussi identifier les cas d’usage pertinents par département car former un commercial à l’IA ne se fait pas avec les mêmes contenus ni les mêmes objectifs que former un développeur ou un chargé de recrutement. Désigner des référents IA dans chaque service, capables d’accompagner leurs collègues au quotidien, est également une pratique qui a fait ses preuves dans les organisations les plus avancées sur le sujet.
Maintenant, une fois ce cadre posé, la formation peut s’organiser en plusieurs niveaux complémentaires.
Le premier niveau, destiné à l’ensemble des collaborateurs, vise la sensibilisation : comprendre ce qu’est l’IA générative et ce qu’elle n’est pas.
Le deuxième niveau est métier : chaque corps de l’entreprise apprend à utiliser l’IA à des fins utiles pour ses propres objectifs.
Enfin, un troisième niveau, réservé aux power users, permet à ceux qui le souhaitent d’aller plus loin : développement d’automatisations via des APIs, analyse critique des sorties IA, veille prospective sur les évolutions technologiques.
Et puis, l’IA doit également trouver sa place dans le plan de développement des compétences au sens large. Ce n’est pas une formation ponctuelle qu’on coche une fois et qu’on oublie, mais une compétence transverse qui doit s’intégrer dans les référentiels métiers, au même titre que la maîtrise d’Excel ou la communication écrite. Les formations IA doivent être tracées dans le SIRH, non seulement pour suivre leur déploiement, mais aussi pour anticiper les obligations de conformité qui se profilent avec l’EU AI Act.
EU AI Act : une régulation à l’échelle Européenne
Entré progressivement en application depuis 2024, l’EU AI Act est le premier cadre réglementaire au monde à régir spécifiquement l’usage de l’intelligence artificielle. Il classe les systèmes d’IA en quatre catégories selon leur niveau de risque : risque inacceptable (interdit), risque élevé (très encadré), risque limité (obligations de transparence) et risque minimal (usage libre).
Pour les entreprises, les implications sont concrètes : certains usages de l’IA dans les ressources humaines comme le tri automatisé de CVs ou l’évaluation de la performance sont considérés à risque élevé et soumis à des obligations strictes de transparence, de traçabilité et de formation des utilisateurs. Ce n’est plus une simple recommandation de bonne pratique : c’est une exigence légale.
Ce que dit concrètement la loi aux entreprises, c’est qu’elles doivent être en mesure de prouver que leurs collaborateurs qui utilisent des systèmes IA à risque ont été correctement formés. Cela implique de documenter les formations dispensées, de tenir un registre des usages, et de mettre en place des mesures de prévention des risques identifiés. Les organisations qui se contentaient jusqu’ici d’une politique floue ou d’une interdiction tacite se retrouvent désormais dans une situation juridiquement fragile. La conformité à l’EU AI Act n’est pas optionnelle pour les entreprises européennes, et les sanctions prévues en cas de manquement sont significatives.
Retours d’expérience : ces entreprises qui ont fait le choix de la formation
Prenons l’exemple d’une ETI industrielle de taille moyenne qui, face à la multiplication des usages sauvages constatés par ses managers, a décidé de prendre le sujet à bras-le-corps. Plutôt que d’interdire, elle a mis en place un plan de formation progressif couvrant 100 % de ses effectifs sur six mois : sensibilisation générale en e-learning, ateliers pratiques par métier, et désignation d’un référent IA dans chaque usine.
Résultat : une réduction significative des usages non déclarés, une adoption plus rapide des outils recommandés par l’entreprise, et des gains de productivité mesurés car mesurables sur des tâches administratives récurrentes. Le point clé du succès ? Avoir impliqué les managers dès le départ, pour qu’ils deviennent des relais de la démarche plutôt que des freins.
Dans un tout autre secteur, un cabinet de conseil a fait de la maîtrise de l’IA générative un critère différenciant face à ses clients. Tous les consultants, juniors comme seniors, ont suivi une formation obligatoire centrée sur les usages métier : rédaction de livrables, synthèse de données, préparation de présentations, analyse de marchés. Le cabinet a également constitué une bibliothèque interne de prompts métiers, testés et validés par les équipes, que chaque consultant peut utiliser et enrichir. L’IA est devenue un avantage concurrentiel assumé, mis en avant dans les propositions commerciales. Non pas comme un gadget technologique, mais comme la preuve d’une capacité à délivrer plus vite et avec plus de valeur ajoutée.
Enfin, une startup spécialisée dans les solutions RH illustre parfaitement la courbe d’apprentissage réelle de l’IA en entreprise. Dès ses débuts, elle a encouragé l’usage libre de l’IA pour tous ses collaborateurs, parfois même au détriment de la rigueur. Elle a ainsi appris à ses dépens que des descriptions de poste générées sans relecture pouvaient contenir des formulations biaisées, et que des analyses produites par l’IA sans vérification factuelle pouvaient induire de mauvaises décisions. Ces erreurs, cependant, n’ont pas constitué le bâton pour battre l’outil, mais ont été documentées, partagées en interne et transformées en modules de formation. Aujourd’hui, sa charte IA est l’une des plus complètes de son secteur.
Conclusion sur l’IA générative au travail : former ou interdire ?
L’IA générative est là. Elle ne disparaîtra pas, ne ralentira pas (au contraire), et ne se laissera certainement pas contenir derrière un pare-feu d’entreprise. Les organisations qui l’ont compris ne se demandent plus si elles doivent former leurs équipes, mais comment le faire efficacement, à quelle vitesse et avec quels outils. Interdire est choisir l’illusion du contrôle, alors que former est choisir la réalité du mouvement.
Dans cette transition, le rôle des RH est fondamental : structurer l’accompagnement, rassurer les collaborateurs inquiets (et parfois même leurs directions), encadrer les enthousiasmes sans les étouffer, et garantir que l’usage de l’IA reste à la fois performant et responsable. Les RH ne sont pas simplement des formateurs dans ce contexte, elles sont les architectes d’une culture de l’IA saine au sein de l’organisation, et les garants d’une conformité qui n’attend pas.
Et vous, où en est votre entreprise dans l’adoption de l’IA ? Acceptation pleine et entière, ou combat de longue haleine ?





