Le 3 juillet 2025, à la veille de l’annonce des résultats du baccalauréat, Nina Viriot, une lycéenne parisienne de 18 ans, reçoit un courriel qui fait l’effet d’une bombe : un procès-verbal de suspicion de fraude a été établi à son encontre pour son épreuve de philosophie.
La raison ? Le correcteur de sa copie soupçonne un recours à l’intelligence artificielle.
Cette accusation, qui aurait pu compromettre son avenir, s’est finalement révélée être une erreur. Après un examen approfondi de son dossier, le rectorat de Paris a levé les soupçons, permettant à Nina de décrocher son baccalauréat avec une mention « assez bien » et une note impressionnante de 18/20 en philosophie. Mais cette affaire soulève des questions brûlantes sur l’utilisation des outils de détection d’IA dans les examens et sur l’avenir des technologies dans l’éducation.
Une erreur qui met en lumière les failles de la détection d’IA
L’histoire de Nina Viriot n’est pas un cas isolé, mais elle illustre un problème émergent : la difficulté de distinguer un travail humain d’un texte potentiellement généré par une IA. Selon les informations disponibles, le correcteur a jugé la copie de Nina « trop parfaite », peut-être en raison de son caractère dactylographié, un aménagement accordé à la lycéenne en raison de son trouble de l’attention, qui lui permettait d’utiliser un ordinateur non connecté à Internet.
Pourtant, aucun outil de détection d’IA n’a été officiellement utilisé, et le ministère de l’Éducation nationale a confirmé que les correcteurs ne disposent pas de logiciels spécifiques ni de formation pour repérer les textes générés par des IA comme ChatGPT 4.
Cette absence d’outils fiables pose une question cruciale : peut-on faire confiance aux détecteurs d’IA actuels ? Ces logiciels, souvent basés sur des algorithmes d’analyse textuelle, cherchent des patterns comme une structure trop uniforme ou un style jugé « artificiel ». Mais leur fiabilité est loin d’être infaillible.
Une anecdote frappante : certains détecteurs ont déjà qualifié des textes historiques, comme la Déclaration d’Indépendance américaine, de contenus générés par IA !
Une suspicion alimentée par le flou des critères
L’accusation initiale contre Nina repose sur le « ressenti » du correcteur, sans preuve tangible. Ce manque de critères clairs pour identifier l’usage d’IA dans les copies d’examen révèle un vide dans les protocoles de l’Éducation nationale. En 2024, sur 560 cas de fraude au baccalauréat en France, 5 % étaient liés à une suspicion d’utilisation d’IA. Mais combien de ces cas reposaient sur des jugements subjectifs ?
L’affaire de Nina montre que sans outils fiables ni formation adéquate, les correcteurs risquent de se tromper, avec des conséquences graves pour les élèves, comme le blocage de leurs résultats ou de leur inscription sur Parcoursup.
Le rectorat de Paris a finalement reconnu une « erreur de saisie » dans la convocation envoyée à Nina pour une audience disciplinaire.
Mais cette explication vague laisse planer le doute : y a-t-il eu une analyse par un détecteur d’IA, ou la suspicion reposait-elle uniquement sur l’intuition du correcteur ? Sans transparence, il est difficile de trancher. Ce qui est certain, c’est que la pression médiatique et le témoignage public de Nina et de sa mère, Emmanuelle Viriot, ont probablement accéléré la résolution de l’affaire.
Lire aussi à ce sujet : Yiaho : L’IA qui répond au cadre d’usage français pour l’éducation
Les élèves face à la tentation de l’IA
Cette histoire soulève une autre question : les élèves vont-ils de plus en plus utiliser des outils d’IA pour contourner les systèmes de détection ? Avec l’essor de plateformes comme ChatGPT ou d’autres outils d’IA pour « humaniser » des textes et les rendre indétectables, la tentation est réelle.
Des services en ligne comme sur notre plateforme Yiaho proposent déjà de reformuler des textes générés par IA pour les rendre plus naturels. Ces outils exploitent des algorithmes pour imiter les imperfections du langage humain, rendant la détection encore plus complexe.
Dans un contexte où les nouvelles technologies représentent 52 % des fraudes détectées au bac en 2024, selon le ministère de l’Éducation nationale, les établissements scolaires doivent redoubler de vigilance. Des mesures comme l’utilisation de brouilleurs d’ondes ou de détecteurs de métaux, comme à Marseille, montrent une volonté de contrôler les outils numériques. Mais interdire l’accès à l’IA est une chose ; distinguer un travail honnête d’un texte suspect en est une autre.
L’IA : Vers une nouvelle ère pour les examens ?
L’affaire Nina Viriot n’est probablement que la pointe de l’iceberg. À mesure que l’IA devient plus sophistiquée, les cas de suspicion de triche risquent de se multiplier, tout comme les erreurs de jugement. Pour éviter de nouveaux scandales, l’Éducation nationale devra investir dans des outils de détection fiables et former les correcteurs à leur utilisation. Mais surtout, il faudra établir des règles claires et transparentes pour garantir l’équité des examens.
Comme le souligne la mère de Nina, la procédure actuelle est « profondément inhumaine », laissant les élèves dans l’incertitude et l’angoisse.En attendant, Nina Viriot peut savourer sa victoire : non seulement elle a obtenu son bac, mais elle a aussi prouvé son intégrité. Son histoire nous rappelle que l’IA, bien qu’elle révolutionne notre quotidien, pose des défis éthiques et pratiques dans le monde de l’éducation.
Entre la tentation de tricher et le risque d’accusations injustes, le baccalauréat 2025 pourrait bien marquer le début d’une réflexion plus large sur la place de l’IA dans nos écoles !
Source : étudiant.lefigaro.fr

