L’intelligence artificielle est devenue un terrain d’expérimentation pour les gouvernements du monde entier, et la France ne fait pas exception.
Avec Albert, un outil numérique d’intelligence artificielle développé pour assister les agents des maisons France Services, l’État ambitionne de simplifier le travail des fonctionnaires confrontés à une multitude de demandes administratives. Nous avions d’ailleurs suivi le lancement de l’IA Albert dans cet article il y a quelques mois.
En 2024, Gabriel Attal, alors Premier ministre, présentait ce projet comme une avancée majeure, capable de transformer le quotidien des employés publics. Mais un an plus tard, l’émission Cash Investigation, diffusée ce soir 10 avril 2025 à 21h05 sur France 2, s’est penchée sur cette initiative pour en évaluer l’impact réel.
Le bilan, révélé dans l’enquête « L’intelligence artificielle a-t-elle pris le contrôle sur notre quotidien ? » est loin des promesses initiales.
À quoi sert Albert, l’IA de l’administration française ?
Albert n’est pas une IA directement destinée aux citoyens, mais un outil interne réservé aux agents des maisons France Services. Ces structures, souvent implantées dans des zones éloignées des grandes administrations, jouent un rôle clé en accompagnant les habitants dans leurs démarches, qu’il s’agisse de questions sur les impôts, les retraites ou les documents d’identité.
L’objectif d’Albert était clair : fournir des réponses rapides et fiables aux employés, leur permettant de gagner du temps et d’offrir un service encore plus efficace. L’objectif implicite est peut-être, aussi, de faire face à la réduction de fonctionnaire…
Déployé à titre expérimental dans plusieurs dizaines de maisons France Services, l’outil devait marquer un tournant dans la modernisation du service public. Mais qu’en pensent celles et ceux qui l’utilisent au quotidien ?
Voir aussi : Découvrez nos nouvelles IA pour rédiger vos CGV, CGU et mentions légales !
Une immersion dans la réalité du terrain
Pour mesurer l’efficacité d’Albert, un journaliste de Cash Investigation s’est glissé dans une maison France Services pendant une semaine, équipé d’une caméra cachée, en se faisant passer pour un stagiaire. Dès son arrivée, il découvre un sentiment de frustration chez les agents.
Parmi les agents dévoués, on retrouve une certaine Nathalie, qui exprime son désarroi face à un outil qu’elle trouve de moins en moins performant. Lorsqu’elle pose une question à Albert, elle reçoit une réponse qui manque complètement de pertinence, comme si l’IA n’avait pas compris la demande.
Cette déception est partagée par ses collègues, qui avaient pourtant accueilli le projet avec optimisme, espérant qu’il allégerait leur charge de travail.
Les maisons France Services sont des lieux où les questions affluent sans cesse. Les citoyens viennent pour des sujets variés : un problème de carte grise, une demande de prestation sociale, une interrogation sur une démarche en ligne. Dans ce contexte, les agents doivent jongler avec une pression constante tout en maintenant un haut niveau de précision. Albert était censé être un allié, mais il semble, pour l’instant, loin de répondre à ces attentes.
Lire également à ce sujet :France Travail va utiliser l’intelligence artificielle pour aider ses agents
Albert IA : Des erreurs qui interrogent
Un exemple frappant illustre les limites d’Albert. Lorsqu’on lui demande si le renouvellement d’une carte d’identité perdue est payant, l’IA affirme que c’est gratuit. Or, cette réponse est incorrecte : la démarche coûte 25 euros, un détail bien connu des agents !
Pour Nathalie, cette erreur est d’autant plus surprenante qu’elle concerne une question courante, typique des échanges dans une maison France Services. Elle s’étonne qu’un outil conçu pour leur métier puisse se tromper sur un point aussi fondamental.
Interrogée sur la fiabilité globale d’Albert, Nathalie livre un jugement sévère : sur 100 questions posées, elle estime que seulement 10 % des réponses sont correctes.
Cette proportion, très faible, reflète un sentiment de déception plus large. Une autre agente, initialement enthousiaste à l’idée d’un outil comparable à une IA grand public comme ChatGPT, confie son désenchantement. Elle avait imaginé un assistant capable de simplifier les tâches complexes, mais elle trouve qu’Albert, dans son état actuel, n’apporte pas l’aide espérée et complique même parfois les choses.
Une phase pilote sous le feu des critiques
Face à ces retours critiques, la ministre déléguée à l’Intelligence artificielle et au Numérique, Clara Chappaz, interrogée par Élise Lucet, défend le projet. Elle insiste sur le fait qu’Albert est encore en phase d’expérimentation, avec des forces et des faiblesses.
Selon elle, l’objectif est d’apprendre de ces premiers pas pour améliorer l’outil progressivement.
Cette vision, qui mise sur l’évolution à long terme, contraste avec les difficultés concrètes rencontrées par les agents, pour qui l’IA représente davantage une source de frustration qu’un soutien tangible.
Notre analyse : les défis d’une IA au service de l’administration
Le déploiement d’Albert soulève des questions universelles sur l’intégration de l’IA dans des environnements complexes comme le service public, surtout français !
- D’abord, la performance d’une IA dépend de la qualité et de la complétude des données sur lesquelles elle s’appuie. Si Albert donne des réponses erronées sur des démarches administratives de base, cela pourrait indiquer des lacunes dans sa base de connaissances ou une difficulté à interpréter des réglementations souvent nuancées.
- Ensuite, le contexte du service public français est particulièrement exigeant. Les règles administratives varient selon les situations, et les agentes doivent souvent clarifier des cas spécifiques pour les usagers. Une IA comme Albert, pour être utile, devrait non seulement connaître les procédures standards, mais aussi gérer les exceptions et les évolutions fréquentes des lois. Atteindre ce niveau de précision demande du temps, des ressources et des tests approfondis, des étapes qui semblent encore en cours pour Albert.
- Enfin, les attentes initiales ont peut-être été surévaluées. Comparer Albert à des IA grand public comme ChatGPT, comme le font certaines agentes, est compréhensible mais trompeur. Ces outils généralistes s’appuient sur des quantités massives de données ouvertes, tandis qu’Albert doit naviguer dans un cadre restreint, avec des informations officielles et parfois sensibles. Cela dit, un taux de 10 % de réponses correctes reste préoccupant, même pour une phase pilote. Cela suggère que l’outil a été déployé avant d’être suffisamment mûr, ce qui peut nuire à la confiance des utilisateurs.
Perspectives : l’IA Albert peut-elle rebondir ?
L’histoire d’Albert est celle d’un projet ambitieux qui, pour l’instant, trébuche sur les réalités du terrain. Mais tout n’est pas perdu. Les IA sont des technologies évolutives, capables de s’améliorer si les retours des utilisateurs sont pris en compte et si les développeurs affinent les algorithmes et les données.
Ce problème nous rappelle évidemment l’IA Lucie, qui avait été annoncée comme l’IA française mais qui s’est avérée être un véritable flop national.
Pour que Albert devienne un véritable atout, il faudra sans doute renforcer la collaboration avec les agents de la fonction publique, qui connaissent mieux que quiconque les besoins concrets de leur métier. Une formation adaptée pour utiliser l’outil pourrait également limiter les malentendus et maximiser son potentiel.
Plus largement, cette expérience illustre un défi clé pour l’IA dans le secteur public : trouver l’équilibre entre innovation rapide et fiabilité absolue. Les maisons France Services sont des piliers de l’accès aux droits pour des millions de citoyens, et elles méritent des outils à la hauteur de leur mission. Albert, pour l’instant, n’est pas à ce niveau, mais il pourrait le devenir avec du temps et des ajustements.
En attendant des améliorations
L’enquête de Cash Investigation met en lumière un moment charnière pour Albert : celui où les promesses doivent se confronter aux réalités. Pour les agents, cet outil reste pour l’instant une source de déception, mais l’avenir n’est pas écrit.
Si les leçons de cette phase pilote sont tirées, Albert pourrait encore surprendre. Pour en savoir plus, ne manquez pas l’émission de ce soir, ce 10 avril 2025 sur France 2, qui promet de décrypter avec finesse les enjeux de l’IA dans notre quotidien !


