Barry Haycock et Rosie Bowser de BearingPoint discutent de l'évolution de l'IA sur le lieu de travail et de l'importance de la gouvernance en 2026.

L’IA sur le lieu de travail devient de plus en plus courante.

En septembre dernier, Ibec, le groupe représentant les entreprises irlandaises, a publié un rapport indiquant une augmentation de l'utilisation de l'IA parmi les travailleurs irlandais. Par exemple, en juillet 2025, 40 % des employés déclaraient utiliser l’IA sur leur lieu de travail, contre seulement 19 % en août 2024.

Barry Haycock, directeur principal de l'analyse des données et de l'IA chez BearingPoint, estime que l'IA sur le lieu de travail est passée de « l'expérimentation à l'utilisation opérationnelle ».

« Les copilotes et les agents deviennent la norme, mais nous assistons également à l'automatisation de travaux de connaissances complexes tels que l'examen des contrats, les contrôles de conformité, le traitement de documents à grande échelle, la recherche avancée dans les données de l'entreprise », a-t-il déclaré à SiliconRepublic.com.

« Pour les travaux à plus grande échelle, nous constatons la mise en œuvre d' »usines d'IA » alors que les entreprises cherchent à automatiser les pipelines d'IA. L'analyse augmentée permet aux équipes commerciales d'obtenir des informations sans expertise technique approfondie. »

Cependant, Haycock affirme que la « valeur durable » liée à la technologie dépend toujours de la gouvernance, de la maturité des données et des capacités de la main-d'œuvre.

« Sans gouvernance et sans résultats mesurables, les projets pilotes stagnent », explique-t-il. « L'IA doit être intégrée progressivement et alignée directement sur les besoins de l'entreprise. Les organisations ont besoin de cas d'utilisation définis, de bases de données solides, d'une propriété claire des risques et du parrainage de la direction.

« La gouvernance des données et l'explicabilité des modèles sont de plus en plus considérées comme des catalyseurs. La sécurité, l'exposition réglementaire et l'explicabilité doivent être abordées le plus tôt possible. »

Rosie Bowser, consultante en analyse de données et en IA chez BearingPoint, affirme avoir constaté une « tentation » pour les organisations de se précipiter dans la mise en œuvre de nouvelles solutions d'IA – alors que la « plus grande création de valeur » se produit lorsque la solution est ancrée dans un problème ou un flux de travail clairement défini.

« Commencer avec cet outil n'est pas sans rappeler peindre une fissure structurelle : cela peut ressembler à un progrès, mais cela ne résout pas le problème sous-jacent. Ainsi, en tant qu'organisation, vous devez être aussi prêt que la technologie l'est, et cela peut très bien impliquer de devoir reconnaître et rectifier l'immaturité organisationnelle avant de déployer une nouvelle solution d'IA. »

Accessoire, non autonome

Les inquiétudes concernant le remplacement des emplois par l’IA sont répandues depuis que le sujet de l’IA sur le lieu de travail a émergé. L’inquiétude est compréhensible, surtout à la suite des récents licenciements liés à l’IA.

Haycock estime que l’IA est plus susceptible de « remodeler » le travail plutôt que de l’éliminer purement et simplement.

« Le vrai risque est de ne pas parvenir à se recycler et à s’adapter », dit-il. « Il automatisera tout ce qui peut l'être, en particulier les tâches cognitives répétitives. Les organisations qui investissent dans les capacités de leur main-d'œuvre et les repositionnent vers un travail à plus forte valeur ajoutée en bénéficieront le plus. »

Bowser est d’accord, affirmant que le véritable risque est la « stagnation » plutôt que le remplacement. « Les organisations qui ne soutiennent pas activement le perfectionnement des compétences risquent de constater que leurs employés ne sont pas en mesure d'opérer en toute sécurité et en toute confiance dans le cadre de processus basés sur l'IA », explique-t-elle.

Bowser ajoute que les entreprises devraient considérer l’IA comme un accélérateur de flux de travail, « plutôt que comme un décideur autonome ».

« Le système d’IA devrait être capable de prendre en charge les éléments de travail répétitifs et basés sur des règles, mais nous avons toujours besoin d’humains pour assurer la surveillance et prendre les décisions finales », explique-t-elle. « L'importance de la propriété ici n'est pas non plus un facteur de retard ; avec l'accent mis par la loi sur l'IA sur la traçabilité et la provenance des modèles, cela sera essentiel pour aller de l'avant. »

Gouvernance en amont

Haycock affirme qu’en 2026, la gouvernance de l’IA portera moins sur les pilotes que « davantage sur la preuve ».

« Avec l'entrée en vigueur de la loi européenne sur l'IA et la stratégie nationale irlandaise en matière de numérique et d'IA 2030 qui fixe des attentes claires en matière d'adoption responsable, les organisations devront démontrer la documentation, la transparence et l'auditabilité », dit-il.

« Je pense que les attentes des clients vont augmenter et que les entreprises devront répondre à cette demande. En outre, la surveillance doit être proportionnelle au risque et intégrée aux opérations. Le différenciateur sera une gouvernance évolutive qui permettra l'innovation tout en résistant au contrôle réglementaire et public. »

Bowser affirme que la gouvernance doit « paraître pratique et tangible », avec des mesures telles que des règles claires sur le traitement des données, les pistes d'audit et les étapes de repli, et savoir ce que fait réellement le modèle. La clé, dit-elle, est de rendre la gouvernance suffisamment pratique pour que les gens puissent la suivre « sans friction ».

« Si vous commenciez votre parcours vers l'IA en 2026 », explique Bowser, « j'apprendrais qu'il existe déjà souvent de la documentation dans la plupart des organisations, mais les gens sur le terrain savent-ils où se trouve cette documentation ? Sont-ils qui sont les propriétaires des données, savent-ils ce qu'ils peuvent faire en toute sécurité ? »

« Les organisations doivent être conscientes de la manière dont les gens ont adopté l'IA dans leur vie quotidienne et de la manière dont ils espèrent pouvoir l'intégrer dans leur vie professionnelle, sinon vous vous retrouverez avec des pratiques fantômes de l'IA qui pourraient introduire des risques importants. Maintenant que la loi européenne sur l'IA est en vigueur, ces risques pourraient être considérables. »

A lire également