Ce matin, Anne-Charlène Bezzina, constitutionnaliste, était l’invitée de la matinale de Public Sénat. Alors qu’Emmanuel Macron a annoncé sa volonté qu’une loi spéciale soit déposée dans les prochains jours au Parlement, quelles seront les modalités de son examen devant les deux assemblées parlementaires ? Les élus pourront-ils déposer des amendements sur le texte ? Un gouvernement démissionnaire peut-il défendre un tel texte ? Explications.
Lutte contre la fraude : comment l’IA peut-elle aider les administrations fiscales et sociales ?
Par Alexis Graillot
Publié le
L’intelligence artificielle au service de la lutte contre la fraude fiscale et sociale. C’est sur cette questions que se sont penchés les sénateurs de la délégation à la prospective, Didier Rambaud et Sylvie Vermeillet, qui ont publié ce mardi 2 avril, un rapport en la matière. Outil aujourd’hui « très peu utilisé à Bercy, et (…) encore moins dans la sphère sociale », l’IA générative (ou créatrice de contenus) est aujourd’hui « balbutiante et limitée à des outils généralistes ou à des cas d’usage superficiels ». De fait, le rapport souligne que « la lutte contre la fraude est très loin de bénéficier des technologies les plus récentes ».
Si les sénateurs ne nient pas les risques suscités par une telle technologie dans la lignée de leurs précédents travaux, ils souhaitent un travail de « pédagogie », afin de « démystifier » un outil qui suscite des « craintes légitimes » et pose des « risques réels pour les libertés individuelles et les droits fondamentaux ».
Pour autant, le rapport se veut optimiste, d’autant plus que l’usage de l’intelligence artificielle fait l’objet depuis quelques années d’un cadre réglementaire, symbolisé par l’IA Act européen. Reste que les Français restent largement inquiets de cette montée en puissance rapide, un sondage Odoxa paru en juin 2023, selon lequel deux tiers des personnes interrogées concevaient l’outil comme une « menace ». Un problème dont les sénateurs sont conscients : « Rien de tout cela ne se fera sans les acteurs concernés : la Cnil (NDLR : Commission nationale pour l’information et les libertés), le Parlement, les citoyens ».
« Améliorer le service public »
De manière globale, l’intelligence artificielle constitue un enjeu d’ « efficacité » pour le service public, alors que le déficit public atteint des records. Néanmoins, au risque de laisser beaucoup de monde sur le bas côté, il est impossible de décorréler cet objectif de celui « d’équité, d’accessibilité, et donc d’humanité ». « L’IA, et particulièrement l’IA générative, permet de simplifier, de personnaliser, d’expliquer et de rapprocher le service public. En un mot, elle pourrait être l’occasion de tenir, enfin, les promesses de la révolution numérique », insiste le rapport.
Rapprocher les Français de leurs services publics, à l’heure où seulement 49% se disent satisfaits de ces derniers, selon un sondage IFOP pour TF1, réalisé le 9 février dernier, nul doute que la marge de manœuvre est délicate. Le rapport rappelle ainsi que « la première vague de « transformation numérique » n’a pas tenu toutes ses promesses », évoquant notamment un « sentiment d’abandon et de déshumanisation », surtout pour les personnes défavorisées. De cette manière, si « 80% des démarches les plus utilisées sont dématérialisées », seulement « 45% {sont accessibles} aux personnes en situation de handicap ». En ce sens, le logiciel « Albert » pourrait bien venir apporter sa pierre à l’édifice, ses premiers tests au sein des maisons France services s’étant révélés concluants. Développé par la Direction interministérielle du numérique (Dinum), « l’agent public nouvelle génération » a été conçu pour répondre aux questions les plus courantes des usagers, et suscite un vent d’optimisme. Le rapport le conçoit ainsi comme « « un outil idéal au service des agents – et un moyen pour le service public de gagner en accessibilité et en proximité ». Avec une inquiétude cependant du côté des agents : si « 70% se disent satisfaits de l’outil » selon l’ex-ministère de la Transformation publique, le syndicat Force Ouvrière (FO) souligne que l’intelligence artificielle « doit rester au service des agents, pas les remplacer ». Une inquiétude encore bien ancrée.
Une administration fiscale « plus volontariste »
Bercy semble en tout cas précurseur en matière d’intelligence artificielle, le rapport décrivant l’outil LlaMendement, mis en place par la Direction générale des Finances Publiques (DGFIP), comme « l’exemple le plus encourageant ». Ce logiciel permet de « générer des résumés automatiques et neutres des amendements parlementaires lors du dernier projet de loi de finances ». Preuve du succès, les sénateurs soulignent que « le système pourrait être étendu à l’examen d’autres textes, au-delà du seul champ des finances publiques ». Pourtant, son utilisation interne est extrêmement limitée, puisque sur les 100 000 agents de la direction, seulement « quelques dizaines de personnes » en font usage, qui plus est « de façon très ponctuelle » (une à deux fois par an).
Une utilisation limitée alors que le gouvernement s’est fixé comme objectif de redresser les finances publiques, voilà qui à de quoi interroger, étant donné le montant estimé de la fraude : entre 80 à 100 milliards pour la fraude fiscale, et près de 10 milliards pour la fraude sociale. En la matière, l’administration fiscale semble disposer d’un temps d’avance sur les administrations sociales, en raison du caractère tout à fait sensible des données personnelles de santé des individus. Ainsi, si Bercy collecte environ 20% de la fraude estimée, ce pourcentage est diminué de moitié pour les services sociaux.
De manière générale, cependant, force est de constater que les outils pour lutter contre la fraude sont aujourd’hui clairement insuffisants, en dépit de « premiers résultats éloquents » : « Si l’IA (…) apparaît sous-utilisée dans la lutte contre la fraude, l’IA générative, quant à elle, reste à ce jour totalement absente », déplorent les deux rapporteurs. Actuellement, « seuls deux projets utilisent le deep learning (« apprentissage profond », en d’autres termes, une méthode qui permet à des algorithmes de fonctionner d’une manière quasi-identique au cerveau humain), pour détecter les piscines non déclarées et les stupéfiants envoyés par courrier postal ».
« Identifier les usages, clarifier les objectifs, s’en donner les moyens »
Face à ces difficultés, le rapport met l’accent sur « trois priorités », indispensables pour aboutir à une « démystification » des nouvelles technologies, et lever les « craintes légitimes » suscitées.
Tout d’abord, les sénateurs rappellent la nécessité de mieux « identifier les usages » de l’intelligence artificielle, en d’autres termes, « avoir une idée aussi claire que possible de ce que l’IA et ne peut pas faire ».
Ensuite, ils soulignent l’importance de « clarifier les objectifs » que l’outil représente, notamment au regard des stéréotypes très ancrés quant à l’usage du numérique, à savoir la déshumanisation, la recherche de l’efficacité coûte que coûte, ainsi que l’utilisation des données personnelles à des fins pas toujours identifiées. Le rapport met ainsi l’accent sur plusieurs objectifs, avec en point d’orgue, « garantir la protection des droits fondamentaux », tout particulièrement le droit au respect à la vie privée. En l’espèce, l’AI Act, adopté au Parlement européen, a posé les jalons d’une réglementation sur un outil en plein développement. « L’IA peut proposer, mais jamais décider », insiste le rapport.
Last but not least, se pose la question des « moyens ». Les sénateurs insistent sur l’impératif d’une méthode fondée sur la « souplesse » et l’« expérimentation », qui passe par « savoir accepter l’échec », tout en pointant une gouvernance encore trop peu coordonnée et volontariste en la matière, faute notamment de personnels consacrés spécifiquement à l’intelligence artificielle. Raison pour laquelle le rapport appelle à des « recrutements pointus », pour une « diffusion large » des enjeux de l’outil, à travers des campagnes de « sensibilisation ». Pour autant, l’enjeu le plus saillant pour les administrations, au-delà même des craintes suscités par la nouvelle technologie, reste le trop peu d’échanges d’informations entre les différents services : « Le véritable problème reste celui des échanges d’informations entre administrations : ceux-ci sont prévus par une série de protocoles ad hoc signés de façon bilatérale et au cas par cas, ils portent encore sur un nombre limité de traitements de données, et leur mise en œuvre concrète se heurte à de nombreux obstacles techniques et administratifs ».
Preuve que si l’intelligence artificielle suscite encore de nombreuses réticences dans le service public, celui-ci se doit, avant toute chose, d’améliorer ses difficultés internes … sans quoi les vœux pieux des élus resteront lettre morte. Espérons en tout cas que ce travail de longue haleine de la délégation à la prospective permettra de « démystifier » les stéréotypes encore ancrés entourant la chambre haute, souvent accusée de conservatisme.
Pour aller plus loin