L'intelligence artificielle générative (IA générative) n'est plus une simple tendance technologique ; elle est une force de transformation systémique qui redéfinit le travail, la collaboration et même le développement humain. Tandis que l'attention se porte souvent sur son impact immédiat sur la productivité des adultes, une nouvelle étude menée par The Alan Turing Institute et soutenue par la LEGO Foundation et le LEGO Group met en lumière un angle d'une pertinence stratégique cruciale : celui de son interaction avec les enfants. Ces jeunes, souvent les plus exposés, sont paradoxalement les moins représentés dans les processus de décision liés à l'IA. Pour les décideurs RH et les membres du Comex, comprendre ces dynamiques est essentiel, car les enfants d'aujourd'hui sont la main-d'œuvre et les leaders de demain. Les défis et opportunités qu'ils rencontrent avec l'IA préfigurent les enjeux de notre futur capital humain.
I. Ces "IA natives" : comprendre l'émergence d'une nouvelle génération de talents
La familiarité des jeunes avec l'IA générative est déjà une réalité tangible. Près d'un quart des enfants âgés de 8 à 12 ans déclarent avoir utilisé des outils d'IA générative. Parmi eux, la majorité (72%) l'utilise au moins une fois par mois. Sans surprise, ChatGPT est l'outil le plus populaire (58% des utilisateurs), suivi par Gemini (33%) et My AI de Snapchat (27%).
Les usages varient avec l'âge:
À 8 ans, l'IA est principalement utilisée pour le divertissement.
À 9 ans, pour la recherche d'informations et l'apprentissage.
À 10 ans, pour la création d'images ludiques.
À 12 ans, pour l'aide aux devoirs et aux travaux scolaires.
Plus particulièrement, les enfants ayant des besoins éducatifs supplémentaires (BES) affichent un taux d'utilisation de ChatGPT significativement plus élevé (78% contre 53% de leurs pairs sans BES). Ils utilisent également l'IA générative à des fins de communication et de connexion, comme jouer avec des amis (30% vs 19% de leurs pairs sans BES), obtenir des conseils personnels (39% vs 16%), et discuter pour se tenir compagnie (37% vs 22%). Cette donnée souligne le potentiel de l'IA à soutenir l'inclusion et la neurodiversité, des leçons cruciales pour nos futures stratégies RH.
II. Les impératifs éthiques de l'IA : ce que les préoccupations des enfants nous révèlent
Les défis mis en lumière par l'étude, bien que vécus par des enfants, sont des résonances directes des préoccupations que tout Comex devrait adresser dans sa stratégie IA :
La crise de la pensée critique et de la confiance aveugle : L'inquiétude partagée par les parents (76%) et les enseignants (72%) concernant la tendance des enfants à faire une confiance excessive à l'IA et à ne pas exercer leur esprit critique face aux informations qu'elle fournit, est un signal d'alarme. Cela pose la question fondamentale de la "littératie IA" de notre future main-d'œuvre et de la capacité de nos employés à discerner le vrai du faux, à exercer un jugement critique et à valider l'information générée. Pour le DRH, c'est un mandat clair : développer des programmes de formation qui vont au-delà de l'utilisation technique de l'IA pour renforcer ces compétences cognitives essentielles.
Biais algorithmiques et impératif d'inclusion (DEI) : Le constat alarmant que l'IA générative produit souvent des outputs non diversifiés, particulièrement frustrant pour les enfants de couleur, doit être une préoccupation majeure. Si l'IA de demain ne représente pas la diversité de nos sociétés, elle risque d'aliéner des pans entiers de la future population active. C'est un appel à l'action pour les entreprises : l'équité et l'inclusion ne doivent pas être des afterthoughts dans le développement ou l'acquisition de solutions IA. Le DRH doit s'assurer que les outils adoptés respectent et promeuvent la diversité, évitant de créer de nouveaux biais systémiques au sein de l'organisation ou auprès des clientèles.
L'empreinte environnementale de l'IA : un nouveau défi ESG : La sensibilité des enfants aux coûts énergétiques et hydriques de l'IA générative est une révélation. Certains ont même choisi de ne pas utiliser l'IA après avoir appris ses coûts associés. Cette prise de conscience précoce exercera une pression croissante sur les entreprises pour une transparence accrue et une responsabilité environnementale concernant leurs infrastructures IA. Le DRH, en tant que gardien de la culture d'entreprise, a un rôle à jouer pour intégrer ces préoccupations dans les pratiques internes et la marque employeur.
La fracture numérique s'élargit avant même l'entrée sur le marché du travail : L'étude révèle un écart significatif dans l'utilisation de l'IA générative entre les enfants des écoles privées (52% l'ont utilisée) et des écoles publiques (18% l'ont utilisée) au Royaume-Uni. Cette disparité crée une "fracture numérique" qui pourrait se traduire par des inégalités d'accès aux compétences clés pour la future main-d'œuvre, un enjeu majeur pour la diversité et l'équité des talents.
III. Le DRH comme architecte et visionnaire de l'ère de l'IA
Les insights de cette étude nous pressent à reconsidérer la fonction RH non plus comme un centre de coûts ou une simple fonction support, mais comme un pilier stratégique et un laboratoire d'innovation :
Développer une IA d'entreprise éthique et centrée sur l'humain : Les principes de conception d'IA sûre et respectueuse des droits des enfants peuvent être transposés à la conception de tous les outils IA en entreprise. Le DRH doit être un co-pilote dans la définition des lignes directrices éthiques pour l'adoption de l'IA.
Leadership en AI literacy : Au-delà des jeunes, la "littératie IA" doit devenir un pilier de la formation continue de tous les employés, du Comex aux équipes opérationnelles. Le DRH est le mieux placé pour concevoir et déployer des programmes qui développent non seulement l'utilisation technique, mais aussi la compréhension critique des enjeux éthiques, des biais et des limites de l'IA.
Inclusion par le design : Pour attirer et retenir des talents diversifiés, les outils IA (qu'il s'agisse de recrutement, de gestion des carrières ou de communication interne) doivent être conçus pour être inclusifs et non-biaisés. Le DRH doit être le garant de cette exigence.
L'IA au service de l'inclusion et de la performance : Le succès de l'IA pour les enfants avec BES (qui "semblaient particulièrement apprécier l'utilisation des outils d'IA générative" et "ressentaient que l'IA générative pouvait aider les enfants qui trouvent certains sujets difficiles") ouvre des pistes pour adapter nos environnements de travail et nos processus RH afin de mieux soutenir la neurodiversité et d'autres besoins spécifiques, amplifiant ainsi la performance collective. Des outils d'IA pourraient être développés pour soutenir les jeunes ayant des besoins éducatifs supplémentaires.
Encadrer l'usage responsable de l'IA par les collaborateurs : À l'instar des enseignants, qui utilisent l'IA pour augmenter leur productivité (85% des enseignants utilisateurs) mais s'inquiètent de la soumission de travaux générés par l'IA par les élèves (57% des enseignants conscients de cette pratique), les entreprises doivent établir des politiques claires pour l'IA en milieu professionnel. Le DRH doit créer des cadres qui favorisent la productivité sans compromettre l'intégrité, la créativité humaine et la culture d'entreprise. Des ressources et formations devraient être développées pour les enseignants afin de les aider à comprendre et utiliser l'IA de manière sûre et appropriée.
En définitive, les leçons tirées de l'interaction des enfants avec l'IA générative sont des jalons pour la construction de nos organisations futures. Pour le DRH, c'est un appel à l'action pour devenir un architecte proactif de l'ère de l'IA, façonnant un capital humain non seulement techniquement compétent, mais aussi éthiquement conscient et socialement responsable.
Source :
The Alan Turing Institute & LEGO. (n.d.). Understanding the Impacts of Generative AI Use on Children.