« Les enseignants ont très peur que les jeunes deviennent idiots avec l’IA », reconnaît Luc Julia devant les sénateurs de la commission. « Je donne souvent comme exercice aux élèves de générer une biographie de Victor Hugo de deux pages. Ensuite, je leur demande de vérifier les informations communiquées avec d’autres sources ». En général, la biographie générée par l’IA comporte de nombreuses contre-vérités. « C’est ici que l’enseignant intervient en se posant comme le référent qui va venir corriger les éléments. Cela permet de montrer que l’on ne peut pas faire entièrement confiance aux intelligences artificielles, mais qu’il est nécessaire d’effectuer une vérification ».
Deux millions de vues
Sur nos réseaux sociaux, cette intervention de Luc Julia explose. Rarement la commission des affaires économiques a connu un tel coup de projecteur. La vidéo sur « la biographie de Victor Hugo » totalise plus de deux millions de vues sur la page Instagram de Public Sénat. Et les commentaires sont unanimes. Tous saluent les propos du spécialiste et avouent être rassurés par cette « remise en place » de l’IA.
« Ces IA disent n’importe quoi »
« On entend souvent dire que les intelligences artificielles vont être plus intelligentes que nous, alors je vais vous donner un scoop, elles le sont déjà, car par définition, un outil est meilleur que nous », poursuit Luc Julia dans son audition. « Les IA ne sont cependant pas une révolution, mais plutôt une évolution », tient-il à préciser. « Sa révolution tient au fait qu’elle est désormais accessible à n’importe qui et donc que chacun peut en faire n’importe quoi ».
Ancien vice-président de l’innovation au sein de l’entreprise Samsung pendant une dizaine d’années et spécialiste de l’intelligence artificielle, Luc Julia critique les discours alarmistes et avertit sur la nécessité de « vérifier » les informations fournies par les IA dans les échanges conversationnels.
Sa position iconoclaste l’amène à affirmer que le tiers du temps, l’intelligence artificielle communique de fausses informations. Selon une expérience réalisée par l’Université de Hong Kong, sur le robot conversationnel ChatGPT de l’entreprise californienne OpenAI, l’IA montre une fiabilité relative. « Ils ont donné à l’IA des faits vérifiés, comme deux plus deux égal quatre, en lui demandant si ces faits sont vrais ou faux », présente l’informaticien. « En proportion, l’IA a indiqué que 64 % des éléments fournis étaient vrais contre 36 % de faux. Ces IA disent n’importe quoi ».
« La pertinence des réponses de ChatGPT diminue de 2 % chaque année »
De plus, Luc Julia affirme que la pertinence des intelligences artificielles tend à diminuer : « Selon un rapport fourni par OpenAI, la pertinence des réponses de ChatGPT diminue de 2 % chaque année car on y insère de mauvaises données ».
Dès lors, ce manque de justesse dans les réponses impacte très directement les plus jeunes pour qui, l’utilisation de l’intelligence artificielle, devient un réflexe de plus en plus évident. Mais l’informaticien est loin de rejeter toute utilisation de l’IA, il souligne tout de même le gain de temps permis par « l’outil » à condition que les informations fournies soient « corrigées » en fonction des compétences de chacun. « C’est de cette manière que l’on progresse », a-t-il conclu.