IA et entreprise : les enjeux du déploiement d’une technologie transformative

L’ampleur de l’attention médiatique accordée à l’intelligence artificielle générative a agi comme un révélateur pour de nombreuses entreprises qui, jusque-là, ne s’y intéressaient que de loin. Devenue une priorité d’investissement[1], le déploiement de l’IA laisse entrevoir une profonde mutation du monde de l’entreprise. Quelles sont les opportunités et les risques pour les entreprises à l’adoption de l’IA ? Et comment accompagner cette transformation ? Réponses avec Julien Pillot, Docteur en économie, enseignant-chercheur à l’INSEEC Grande École, professeur associé à l’Université Paris Saclay et chercheur associé au CNRS.

 

 

Comment expliquer l’ampleur de l’engouement des entreprises pour l’IA, en particulier l’IA générative ?

 

C’est un effet de la maturité de la technologie qui sous-tend l’IA générative, le Large Language Model (LLM). Depuis des années, ces IA ont été entraînées avec des millions voire des milliards de données textuelles. Cet entraînement peut aujourd’hui donner le sentiment d’un algorithme capable de raisonner et de délivrer des résultats qui, de prime abord, peuvent paraître bluffants. L’autre point qui a frappé les esprits, ce sont les domaines d’application de ces formes d’IA. Jusqu’à présent, les algorithmes étaient plus ou moins cantonnés à de l’automatisation de tâches à faible valeur ajoutée. Des IA comme ChatGPT viennent au contraire s’aventurer sur le territoire des tâches à plus forte valeur ajoutée.

 

Comment analysez-vous la décision de certaines entreprises de faire complètement évoluer leur modèle pour donner une place centrale à l’IA ?

 

Il est normal, voire indispensable, que les entreprises expérimentent et s’emparent du potentiel de l’IA. Il sera intéressant d’observer si elles y trouvent leur compte et si elles sont réellement convaincues par la performance de ces technologies. Toutes les expérimentations n’ont pas vocation à se pérenniser. Pensez par exemple à cet hôtelier de Tokyo qui avait remplacé le personnel d’accueil par des robots. Au bout de quelques mois, le projet a fait long feu : les algorithmes étaient non seulement moins efficients que des humains mais ils mettaient aussi mal à l’aise les clients. Cet exemple illustre les barrières que doit lever une technologie pour s’imposer. Outre la démonstration de ses performances réelles – souvent bien différentes de celles revendiquées – son adoption dépend aussi de la volonté et de la capacité du marché à l’accepter.

 

L’IA va-t-elle transformer le monde du travail tel que nous le connaissons ?

 

Une récente étude de Goldman Sachs estime que 300 millions d’emplois dans le monde sont menacés à brève échéance par l’IA, et plus spécifiquement par l’IA générative[2]. Des chiffres qu’il faut prendre avec prudence. Déjà, en 2013, une étude de chercheurs de l’université d’Oxford avait fait grand bruit : elle annonçait que 47% des emplois américains allaient être détruits d’ici 10 à 20 ans par l’intelligence artificielle[3]. Une décennie après cette étude, nous pouvons déjà affirmer que ce n’est pas ce qui s’est passé.

 

Dans les prochaines années, de très nombreuses entreprises vont effectivement adopter une forme ou une autre d’IA – et certaines d’entre elles vont les implémenter avec succès. Cette implémentation se fera très probablement non pas en remplacement de l’être humain mais en complémentarité avec lui. Plus que des destructions d’emplois, nous allons donc assister à des modifications de postes. Cette évolution aura bien sûr des conséquences pour les équipes. Nous allons entrer dans une logique de formation et d’upskilling accéléré tout au long de la vie professionnelle pour apprendre à travailler en complémentarité avec la technologie.

 

Faut-il mettre en place un nouveau cadre réglementaire pour encadrer l’usage de l’IA par les entreprises ?

L’émergence de Chat-GPT a mis le monde de la régulation est en ébullition. Chine, Etats-Unis et Union Européenne sont à l’avant-garde pour encadrer les différents usages de l’IA. Avec des approches différenciées. L’UE, par exemple, opte pour un encadrement par la loi, exigeant des entreprises qu’elles adoptent des régimes de responsabilités proportionnels aux risques que font peser leurs IAs et leurs usages dérivés. Les Etats-Unis, eux, travaillent sur des systèmes incitatifs, proposant aux entreprises de l’IA à ratifier un protocole d’engagements, de bonnes pratiques.

 

Au niveau des entreprises, il existe déjà un cadre légal qui délimite déjà bien ce qu’il est permis ou pas de faire dans le cadre d’activités digitales, que l’on pense au RGPD, au DSA ou au DMA. Ce cadre vient déjà renforcer les dispositions générales prévues dans le code du commerce ou le droit de la concurrence. Il me semble en outre important de laisser les entreprises explorer par elles-mêmes le potentiel d’une technologie comme l’IA pour en découvrir tous les cas d’usage, et tous les gisements de croissance économiques et de progrès humains associés.

 

Cependant, à un niveau plus macro, l’IA pose des questions de souveraineté numérique, de lutte contre la désinformation à très grande échelle, d’éthique des algorithmes ou encore d’impact environnemental. Autant de questions pour lesquelles nous avons besoin d’un cadre réglementaire au niveau national voire supranational. Et c’est dans ce cadre qu’il faut s’intéresser de près aux tentatives de régulations menées par l’Union européenne. Des questions comme celles de la territorialité des serveurs ou encore du mépris affiché par certains grands acteurs pour le droit d’auteur méritent une réponse réglementaire et corrective forte.

 

Quels conseils donneriez-vous à une entreprise qui souhaite déployer l’IA de manière responsable ?

 

Il en va du devoir d’une entreprise de comprendre et de s’informer à la fois sur les opportunités et sur les limites et les risques d’une technologie. Ce devoir d’information se heurte malheureusement trop souvent à une asymétrie de l’information avec des acteurs qui survendent le potentiel de l’IA.

 

L’autre axe à explorer, c’est le renforcement des compétences internes. L’arrivée massive de l’IA va créer de nouveaux besoins, de nouvelles expertises et de nouveaux emplois. Les entreprises ont la capacité de s’adapter à ce nouveau contexte : nous avons pu le constater avec la création de postes dédiés à la supervision des usages de la data ou encore à la conformité avec le RGPD.

 

En prenant encore un peu plus de hauteur, il me semble qu’une entreprise qui souhaiterait adopter une véritable politique RSE englobant les enjeux posés par l’IA devrait faire appel à des spécialistes de l’éthique de la technologie. Une telle démarche permet de comprendre en amont les impacts RH, opérationnels, éthiques, etc. d’une technologie quand elle est mise entre les mains d’une population qui n’a pas forcément été bien formée pour travailler avec elle. Il en va de même pour les répercussions environnementales : un déploiement responsable de l’IA doit passer par une mesure précise de l’impact d’une technologie extrêmement énergivore à la lumière des résultats attendus.

 

 

 

 

[1] https://kpmg.com/fr/fr/home/media/press-releases/2023/10/dirigeants-ia-esg-ceo-outlook.html

[2] https://www.goldmansachs.com/intelligence/pages/generative-ai-could-raise-global-gdp-by-7-percent.html

[3] https://www.oxfordmartin.ox.ac.uk/downloads/academic/The_Future_of_Employment.pdf

Retour en haut

Télécharger la brochure