« Tous les secteurs d’activité, toutes les tailles d’entreprises et toutes les divisions se sont emparés du sujet » de l’intelligence artificielle dite générative, capable de répondre en langage naturel à de simples consignes ou questions, explique Philippe Limantour, directeur technologique de Microsoft France. Avec à la clé, surtout, un accès facilité à la connaissance : documents, bases de données, pages web… l’IA peut aider à « analyser, rechercher de l’information, décortiquer, structurer de l’information ».
Vecteur de la démocratisation de l’IA dans les bureaux, Microsoft intègre aujourd’hui l’IA dans ses logiciels de bureautique Office, à travers « Copilot » : un logiciel basé sur ChatGPT du pionnier américain de l’IA, OpenAI, à qui l’utilisateur peut demander en langage courant d’accomplir plusieurs tâches en s’appuyant sur ses documents, ses mails ou son calendrier. Lui-même dit utiliser l’IA « très très largement » au quotidien et gagner « énormément de temps » dans la recherche, la veille ou la rédaction de documents – comme concrètement, demander à Copilot pour « transformer automatiquement en (présentation) PowerPoint » un document texte.
L’Europe est « en retard »
Mais si certaines entreprises se sont lancées dans la mise en pratique de l’IA, l’Europe « est quand même en retard encore par rapport aux autres plaques géographiques » qui « vont plus vite à mettre en pratique, à tester, à essayer ». « En France, on a on a toujours eu tendance à beaucoup réfléchir avant de mettre en pratique. » Dans ce contexte, certaines entreprises « heureusement de plus en plus nombreuses en France » ont « vraiment pris l’IA d’un point de vue stratégique au comité de direction » avec « un plan volontariste » et « un grand écart est en train de se creuser » avec les sociétés qui « n’ont pas encore pris ce virage ».
Après, ça reste une IA, donc un modèle statistique. Pour un très grand nombre de cas d’usage, il faut conserver un humain dans la boucle
Pour travailler avec l’IA au quotidien en limitant les risques de réponses hors sujet ou fausses, les progrès des modèles d’IA, toujours plus performants, jouent un rôle. Mais il y a « avant tout un volet d’acculturation et de formation », fait valoir le directeur technologique. Parmi les hallucinations et erreurs, si certaines sont « dues intrinsèquement au modèle », dans beaucoup de cas « on pose mal la question », fait-il valoir. « Il faut poser des questions beaucoup plus précises, donner beaucoup plus de contexte. » Une culture qui s’est améliorée, selon lui, depuis la mise en ligne pour le grand public de ChatGPT en novembre 2022.
Viennent ensuite des « garde-fous », des filtres qui permettent de contrôler qualité et pertinence des contenus générés… et pourquoi pas bientôt une « note de confiance » émise par l’IA elle-même sur sa réponse, détaille Philippe Limantour. « Après, ça reste une IA, donc un modèle statistique et il peut y avoir des réponses qui ne soient pas celles attendues », a-t-il expliqué. Et donc « malgré tout, pour un très grand nombre de cas d’usage, il faut conserver un humain dans la boucle. »