La méthode d’enquête
Cette enquête, qui repose sur des interviews, interroge les impacts de l’usage des systèmes d’intelligence artificielle (SIA) dans les entreprises et les organisations publiques.
Elle a été menée en 2022 auprès de 250 décideurs (direction générale, direction RH, direction SI, direction de l’innovation), travaillant au sein d’entreprises et d’organisations publiques de plus de 50 salariés. Les répondants exercent dans divers secteurs tels que l’industrie (15 %), l’administration publique (15 %), les services financiers (13 %), du BTP, la construction et le transport (9 %).
Des premiers résultats significatifs
L’enquête met en évidence les systèmes d’IA (SIA) les plus utilisés, les motifs qui ont présidé à leur mise en œuvre, les freins et obstacles que les projets ont dû lever et les impacts ressentis ou projetés des SIA sur les différentes dimensions du travail.
Voici les premiers résultats :
- Les systèmes d’IA décrits par les répondants sont globalement matures, c’est-à-dire déjà déployés et utilisés, en particulier dans le secteur industriel.
- Les SIA sont généralement mis en place au motif de la réduction du risque d’erreur (pour 85 % des répondants), de l’amélioration de performance des salariés (75 %), et de la réduction des tâches fastidieuses (74 %). On note également que les répondants déclarent fréquemment utiliser des systèmes d’IA pour garantir la sécurité des salariés, en particulier dans l’industrie.
- Davantage que le coût de développement, le manque de compétences en interne (37 %) et la compatibilité avec les outils existants (38 %) sont identifiés comme les principaux obstacles au déploiement de SIA.
- Le ressenti d’impact positif de l’IA est bien plus élevé chez les répondants qui utilisent l’IA (90 %) que chez ceux qui ne l’utilisent pas (48 %).
- Les résultats montrent que les systèmes d’IA ont des effets sur l’ensemble des dimensions du travail, telles que le sens, l’autonomie, la responsabilisation des salariés, les relations sociales, mais aussi et surtout sur l’évolution des compétences et des savoir-faire (pour près de 70 % des répondants).
Le colloque LaborIA
Le 26 septembre 2023, le ministère du Travail, du Plein emploi et de l’Insertion, Inria et Matrice, ont organisé un colloque sur les transformations du travail par l’intelligence artificielle.
Le LaborIA a présenté en avant-première les résultats d’une enquête en 3 temps, mêlant approches quantitatives et qualitatives durant laquelle 250 décideurs d’entreprises et de secteurs différents ont été interrogés via un questionnaires, ainsi que plus de 100 travailleurs utilisateurs de SIA de tout type.
Les rapports d’enquête seront publiés d’ici fin 2023 et disponibles à tous, sur le site laboria.ai.
À propos du LaborIA
Le LaborIA a été créé en novembre 2021 par le ministère du Travail, du Plein emploi et de l’Insertion et Inria. Ce laboratoire de recherche vise à explorer le rapport des entreprises et des acteurs publics à l’intelligence artificielle. Il a également pour ambition de déployer des expérimentations concrètes, en situation de travail, sur différentes thématiques : conditions de travail, recrutement, évolution des compétences, dialogue social technologique, etc.
Le LaborIA est piloté par un comité exécutif composé de douze membres, dont cinq personnalités qualifiées issues de la société civile. Une fois par an, il réunit les partenaires sociaux dans un format élargi.
Le LaborIA Explorer est la première zone d’expérimentation portée par le LaborIA et opérée par Matrice (institut d’innovation sociale et technologique). Ses travaux visent à explorer les impacts de l’IA sur le travail au sens large, et notamment la notion de confiance entre un SIA et ses utilisateurs.
Les enjeux de l’IA dans les pratiques de recrutement
La Dares, le service statistique du ministère du Travail, du Plein emploi et de l’Insertion a invité des chercheurs et experts à réfléchir à cette question lors d’un cycle de trois rencontres scientifiques cet automne. Les présentations ont permis de mieux comprendre les enjeux et la manière dont l’IA s’inscrit dans les pratiques des recruteurs. Ces derniers sont souvent pris dans des tensions entre des attentes fortes en termes de transparence, d’objectivation et de performance prédictive, et les risques perçus d’opacité, de reproduction de biais discriminatoires ou d’iniquité.
« Le degré de confiance déclaré par les recruteurs est supérieur pour les préconisations humaines que celles faites par une IA. »
Christelle Martin-Lacroux (Université Grenoble Alpes / CERAG)
Penser une IA éthique et responsable dans les recrutements suppose à la fois de réfléchir à rendre les algorithmes explicables et interprétables, de penser de nouvelles normes juridiques, et d’impliquer davantage les parties prenantes dans le déploiement des outils.
« L’utilisation des IA dans les pratiques de recrutement est récente en gestion des ressources humaines et prend des formes qui posent des questions éthiques, car on parle d’automatisation de décisions très importantes pour les individus. »
Clothilde Coron (Université Paris-Saclay)
Ces rencontres permettront à la Dares de lancer début 2024 un appel à projets de recherche pour financer de nouveaux travaux sur le sujet.
En vidéos
Éclairage de Christine Balagué
Christine Balagué, professeure à l’Institut Mines-Télécom Business School, présente en quelques mots la notion d’interprétabilité appliquée aux algorithmes de l’intelligence artificielle.
Éclairage de Marie Benedetto
Sociologue du travail et des organisations pour la Dares, Marie Benedetto expose quelques problématiques que soulève l’utilisation de l’IA par les entreprises : biais et discrimination à l’embauche, confiance et défiance au sein des organisations, régulation…
Éclairage de Michaël Hayat
Michaël Hayat, avocat associé du cabinet SDA, soulève la question du pouvoir de décision de l’employeur, face au pouvoir acquis par les éditeurs de logiciels d’intelligence artificielle, en raison des exigences de leurs solutions.
Éclairage d’Odile Chagny
Chercheure à l’Institut de recherches économiques et sociales (IRES), Odile Chagny évoque quelques-unes des questions légales et réglementaires que soulève le déploiement de l’IA dans les organisations.