Outils pour la détection du plagiat
Les outils numériques visant à soutenir la détection du plagiat et d’autres infractions relatives aux études, notamment les logiciels de détection de l’intelligence artificielle générative, soulèvent plusieurs enjeux.

Le plagiat et l'obtention d’une aide non autorisée constituent des infractions au Règlement disciplinaire à l’intention des personnes étudiantes de l’Université Laval. Par ailleurs, en vertu du Règlement des études, il est de la responsabilité des membres du corps professoral et du personnel enseignant, et des directions d’unité, de mettre en œuvre les actions requises pour assurer la validité du processus d'évaluation des apprentissages. Dans le contexte de l’émergence de systèmes d’intelligence artificielle générative (SIAg), le recours à des outils numériques pour détecter des infractions relatives aux études peut sembler une solution attrayante, mais ces outils ne répondent pas toujours adéquatement aux besoins des personnes enseignantes. De plus, l’utilisation de ces outils peut aller à l’encontre de l’esprit des Principes directeurs concernant l’IA dans l’enseignement et l’apprentissage dont s’est doté l’Université Laval.
Compte tenu des limites de fiabilité des logiciels de détection de l’IA et des enjeux éthiques et pédagogiques qui leur sont associés, le Service de soutien à l’enseignement de l’Université Laval ne recommande pas leur utilisation.
Par ailleurs, l’utilisation de ces outils doit se faire dans le respect de la Loi sur l’accès aux documents des organismes publics et sur la protection des renseignements personnels et de la Loi sur le droit d’auteur.
Qu’est-ce qu’un logiciel pour la détection du plagiat ?
Différents types de logiciels existent pour détecter des infractions relatives aux études soit pendant une activité d’évaluation, soit lors de la correction d’une évaluation. Cette page Web traite principalement des logiciels dits de « détection de l’IA » commercialisés pour déceler du texte généré par un SIAg dans des travaux universitaires.
Des outils numériques pour détecter le plagiat dans des travaux existaient bien avant l’arrivée des SIAg. Les logiciels de reconnaissance de similitudes de texte peuvent identifier des similitudes entre des portions d’un texte et des contenus disponibles sur Internet, des travaux qui ont déjà été soumis au logiciel ou d’autres publications écrites. Ces outils servent donc à détecter du plagiat sous forme de contenu textuel copié intégralement ou paraphrasé provenant de différentes sources non ou mal citées.
Cependant, considérant l’utilisation de plus en plus répandue des SIAg, le plagiat se transforme. Face à cette nouvelle réalité, plusieurs logiciels de reconnaissance de similitudes de texte offrent maintenant, en option, la fonctionnalité additionnelle de repérer les portions de texte vraisemblablement générées par un SIAg, venant concurrencer les logiciels développés pour la détection de l’IA. Ces logiciels ont généralement recours à des modèles prédictifs entraînés sur des données annotées, donc à des méthodes d’apprentissage automatique supervisé.
Utilisation d’un logiciel de reconnaissance de similitudes de texte ou de détection de l’IA
L’utilisation d’un logiciel de reconnaissance de similitudes de texte ou de détection de l’IA requiert le respect d’un cadre réglementaire et comporte plusieurs étapes.
Cadre réglementaire
Les travaux produits par les personnes étudiantes contiennent des renseignements personnels, ils sont donc soumis à la Loi sur l’accès aux documents des organismes publics et sur la protection des renseignements personnels ainsi qu’aux Règles de protection des renseignements personnels adoptées par l’Université Laval.
- La communication de renseignements personnels à un tiers par l’Université Laval, incluant par les personnes enseignantes, requiert généralement d’obtenir le consentement des personnes. Celui-ci doit être manifeste, libre, éclairé, donné à une fin précise et être obtenu des personnes étudiantes avant de soumettre leurs travaux au logiciel.
- Il est possible de communiquer des renseignements personnels à un fournisseur sans le consentement des personnes seulement lorsque l’Université Laval conclut un contrat de service qui offre des garanties de confidentialité prescrites par la loi.
- L’acquisition d’un logiciel qui traite des renseignements personnels requiert également la réalisation d’une évaluation des facteurs relatifs à la vie privée afin d’évaluer sa conformité et les risques associés à la protection de la vie privée. Veuillez communiquer avec le Service de soutien à l’enseignement à l’adresse sse@ulaval.ca pour commencer cette évaluation.
- De plus, si le logiciel de détection que l’on envisage d'utiliser implique la communication de renseignements personnels à l’extérieur du Québec, incluant à des fins d’hébergement de données, une évaluation supplémentaire doit démontrer que les renseignements bénéficieraient d’une protection adéquate avant d’utiliser ce logiciel.
- Le Bureau de la protection des renseignements personnels soutient les membres de la communauté UL dans la réalisation d’une évaluation des facteurs relatifs à la vie privée. Il doit être avisé de tout projet d’acquisition
- Une personne enseignante peut se soustraire à ces obligations uniquement si elle s’assure que l’utilisation du logiciel n’implique aucune communication de renseignements personnels au fournisseur. Pour ce faire, elle doit retirer des travaux tout renseignement permettant d’identifier directement les personnes étudiantes (nom, NI, IDUL, courriel, etc.). Notons que les identifiants des personnes autrices d’un fichier informatique peuvent se retrouver dans le contenu du fichier, dans son nom ainsi que dans ses métadonnées (par exemple dans les propriétés d’un document Word) et doivent être retirés à tous ces endroits. De plus, selon le contexte, la personne enseignante doit aussi retirer tout autre renseignement permettant d’identifier indirectement les personnes étudiantes, ce qui exige une lecture complète des travaux avant de les soumettre au logiciel. Une telle anonymisation des travaux s’avère parfois impraticable.
Les travaux des personnes étudiantes sont des œuvres protégées par la Loi sur le droit d’auteur (LDA). Ainsi, seules les personnes étudiantes peuvent reproduire, communiquer, diffuser ou rendre autrement accessible la totalité ou une partie importante de leurs travaux.
- Avant d’utiliser un logiciel de reconnaissance de similitudes de texte ou de détection de l’IA, il faut s’assurer d’obtenir le consentement écrit des personnes étudiantes ayant produit les travaux qui seront soumis au logiciel (au besoin, veuillez contacter le Bureau du droit d'auteur pour obtenir un modèle de formulaire de consentement).
- Si des travaux soumis contiennent d’autres œuvres protégées par la LDA (par exemple des œuvres visuelles, tableaux ou figures reproduits entièrement), le consentement des titulaires des droits de ces œuvres doit également être obtenu, sinon ces œuvres doivent être retirées des travaux.
- De plus, il est recommandé de privilégier les logiciels qui ne servent pas à alimenter des SIAg et qui ne partagent pas de données à des tiers.
Étapes d’utilisation
Les logiciels offrant des fonctionnalités de reconnaissance de similitudes de texte ou de détection de l’IA sont nombreux. Le choix d’un logiciel doit tenir compte de plusieurs critères, notamment sa fiabilité, ses coûts, ses conditions d’utilisation et sa politique de confidentialité, de façon à assurer son utilité et le respect du cadre réglementaire présenté dans la section précédente.
Le consentement des personnes étudiantes doit être obtenu avant la soumission de leurs travaux au logiciel sélectionné. Ce consentement doit se conformer aux deux volets du cadre réglementaire présentés dans la section précédente, soit la Protection des renseignements personnels et le Droit d’auteur.
Les travaux à analyser sont soumis au logiciel, qui est typiquement une application Web, en se connectant au compte de la personne enseignante préalablement créé et configuré, puis en téléversant les travaux selon la procédure requise. Au besoin, les travaux doivent avoir été préalablement anonymisés, comme expliqué à la section Protection des renseignements personnels.
Reconnaissance de similitudes de texte
Les similitudes relevées par le logiciel doivent être analysées pour déterminer s’il s’agit ou non de plagiat, en vérifiant par exemple si une citation adéquate est présente ou encore en comparant manuellement le texte analysé avec la source qui aurait été copiée ou paraphrasée.
Détection de l’IA
Le format de présentation des résultats de l’analyse varie d’un logiciel à l’autre (Walters, 2023). Plusieurs logiciels segmentent le texte à analyser (par exemple en phrases) et classent chaque portion dans l’une ou l’autre des catégories suivantes : « écrite par un humain » et « générée par une IA ». Ils fournissent également une prédiction globale exprimée dans un format numérique (par exemple : 78% du texte semble généré par une IA) ou sous forme d’étiquette (par exemple : « Texte principalement rédigé par un humain », « Texte coécrit par un humain et une IA » ou « Texte principalement généré par une IA »). Peu importe leur format, ces résultats exigent une interprétation quant à la possibilité de révéler une infraction relative aux études.
Limites des logiciels de détection de l’IA et risques liés à leur utilisation
Fiabilité insuffisante
Les logiciels de détection de l’IA ne sont pas fiables à 100% et souffrent d’un manque de transparence. Ainsi, leurs résultats ne constituent pas en soi un élément de preuve d’infraction relative aux études suffisant (Conseil supérieur de l’éducation du Québec & Commission de l’éthique en science et en technologie, 2024).
Deux types d’erreurs peuvent être commises par ces logiciels :
- Faux positif, soit un texte écrit par un humain qui est identifié à tort par le logiciel comme ayant été généré par un SIAg. Même un faible taux de faux positifs peut entraîner un risque non négligeable d’accusation injustifiée envers une personne étudiante au fil de son parcours universitaire, comportant forcément de nombreuses évaluations.
- Faux négatif, soit un texte généré par un SIAg qui n’est pas détecté comme tel par le logiciel. Par biais d’automatisation, une personne enseignante pourrait se fier au résultat du logiciel sans procéder à une vérification suffisamment approfondie et ne pas détecter une infraction réelle.
De plus, il est possible de tromper un logiciel de détection de l’IA en employant l’une des stratégies suivantes : éditer manuellement le texte généré par un SIAg, demander à un SIAg de paraphraser le texte qu’il vient de générer en appliquant une technique de camouflage de l’IA (par exemple ajouter des fautes d’orthographe), utiliser un outil dont la fonction est de modifier un texte pour lui donner l’apparence d’un texte écrit par un humain (parfois nommé en anglais un « humanizer »).
Les performances des logiciels de détection de l’IA chutent de manière importante dès qu’une stratégie de contournement est employée (Weber-Wulff et al., 2023; Perkins et al., 2024). D’ailleurs, de manière générale, les performances observées varient grandement d’un logiciel à l’autre et ne sont pas stables dans le temps.
- Certains logiciels sur le marché ne performent tout simplement pas bien. Par exemple, OpenAI, la compagnie développant ChatGPT, a retiré du marché son logiciel de détection de l’IA en raison de son trop faible taux d’exactitude et affirme que les logiciels de détection de l’IA ne sont pas fiables (OpenAI, s. d.). En outre, le fait qu’un logiciel soit payant ne garantit pas un meilleur taux d’exactitude (Walters, 2023) et ce taux n’est pas toujours aussi élevé que ce que la compagnie développant le logiciel affirme (Perkins et al., 2024).
- Le rythme accéléré des progrès en IA générative condamne les logiciels de détection de l’IA à constamment tirer de l’arrière. Afin de maintenir des taux d'exactitude élevés, ces logiciels doivent être réentraînés sur de nouveaux corpus de documents chaque fois que les grands modèles de langage s’améliorent ou que de nouveaux modèles sont mis en marché.
- Certains de ces logiciels n’offrent pas la détection pour des textes en français. Pour ceux qui l’offrent, il est difficile de trouver des références scientifiques évaluant leurs performances avec des textes en français.
Les logiciels de détection de l’IA sont trop souvent des boites noires et les compagnies qui les développent ne divulguent pas leur fonctionnement.
- Bien que des incertitudes soient typiquement associées aux prédictions émises, celles-ci sont rarement énoncées.
- La grande majorité de ces logiciels ne fournissent aucune explication pour justifier leurs résultats. Par exemple, ils ne précisent généralement pas les caractéristiques spécifiques du texte que le modèle considère pour émettre une prédiction. Il n’est donc pas possible de contre-vérifier les résultats qu’ils produisent, ce qui constitue un enjeu majeur de fiabilité.
Charge de travail
Utiliser un logiciel de détection de l’IA implique des étapes préalables et des suivis potentiellement longs à réaliser.
L’utilisation d’un logiciel de détection de l’IA nécessite de suivre toutes les étapes mentionnées à la section Utilisation d’un logiciel de reconnaissance de similitudes de texte ou de détection de l’IA. Par ailleurs, ces logiciels ne permettent pas de faire l’économie d’une analyse approfondie de chacune des copies.
Si une personne enseignante décide d’entamer un processus disciplinaire parce qu'elle suspecte une infraction relative aux études qui implique l’utilisation de SIAg, elle doit prendre le temps de constituer un dossier comprenant des éléments de preuve probants. En raison de la fiabilité limitée des logiciels de détection de l’IA, d’autres éléments de preuve que le résultat de ces logiciels sont nécessaires pour traiter un dossier disciplinaire.
Les indices suivants d’utilisation d’un SIAg peuvent notamment faire partie des éléments de preuve soumis :
- qualité de rédaction nettement améliorée comparativement à des évaluations antérieures et de même nature;
- contenu présenté d’une façon qui diffère de l’approche enseignée;
- références qui ne correspondent pas aux sources scientifiques reconnues dans le domaine ou qui n’ont pas été présentées par la personne enseignante;
- sources inventées ou absentes;
- trace non retirée d’une conversation avec un SIAg;
- style d’écriture propre aux SIAg (langage répétitif et redondant, style impersonnel, incohérences, etc.);
- travail remis très rapidement.
Notons que le fait de comparer un travail à ce qu’un SIAg génère en lui fournissant les consignes d’évaluation est une option parfois envisagée (le texte généré ne sera pas identique, mais pourrait contenir des éléments structuraux ou argumentaires similaires).
Enjeux éthiques
Les erreurs commises par les logiciels de détection de l’IA, qui semblent affecter de façon disproportionnée certains groupes de personnes étudiantes, peuvent mener d’un côté à de fausses accusations et de l’autre à des infractions relatives aux études non dénoncées.
L’utilisation d’un logiciel de détection de l’IA peut occasionner de fausses accusations d’infraction relative aux études, accusations dont les conséquences peuvent être importantes (Eaton, 2023; Trust, 2023).
- Pour les personnes étudiantes : anxiété et autres problèmes de santé mentale, perte de bourse ou d’autres sources de financement des études, expulsion du programme d’études, problèmes légaux dans un contexte d’immigration ou d’études à l’étranger, etc.
- Pour l’établissement d’enseignement : atteinte à la réputation, poursuites judiciaires, etc.
Lorsque l’utilisation d’un SIAg n’est pas autorisée pour une évaluation, les portions de texte générées par un SIAg dans les travaux remis qui ne sont pas relevées par le logiciel de détection de l’IA peuvent mener à des infractions relatives aux études non dénoncées. De tels cas peuvent s’avérer nombreux puisque plusieurs compagnies acceptent que leurs logiciels aient des taux de faux négatifs relativement élevés (Walters, 2023), et ce, afin de minimiser leurs taux de faux positifs. Les infractions non dénoncées sont contraires aux valeurs d’intégrité et de probité intellectuelle, et nuisent à la valeur perçue des diplômes et à la réputation des établissements d’enseignement.
Les logiciels de détection de l’IA sont suspectés de discriminer certains groupes de personnes étudiantes en produisant plus souvent de faux positifs pour eux. C’est le cas notamment des personnes qui ne rédigent pas dans leur langue maternelle (Liang et al., 2023) et des personnes neurodivergentes (Gegg-Harrison & Quarterman, 2024), dont le style d’écriture risque davantage d’être générique.
De plus, l’utilisation de ces logiciels creuse la fracture numérique, car les personnes étudiantes plus habiles numériquement pourraient mieux camoufler une utilisation non permise de l’IA à l’aide de stratégies de contournement, et les personnes étudiantes issues de milieux économiquement favorisés pourraient se payer des abonnements à des SIAg plus puissants et difficiles à détecter.
Enjeux pédagogiques
La détection de l’IA n’offre aucun avantage pédagogique et présente des enjeux réels sur ce plan.
Bien que le recours à un logiciel de détection l’IA puisse dissuader certaines personnes étudiantes de commettre une infraction, il risque de nuire à la qualité de la relation pédagogique, qui constitue en elle-même une forme de prévention des infractions. En plus de provoquer un climat de doute entre la personne enseignante et les personnes étudiantes, l’utilisation d’un logiciel de détection de l’IA risque d’engendrer de la suspicion entre les personnes étudiantes lors de travaux d’équipe, créant un contexte défavorable à l’apprentissage (Carrier, 2025).
Savoir que leurs travaux seront analysés par un logiciel de détection de l’IA peut susciter un sentiment d’anxiété pour certaines personnes étudiantes, puisqu’elles savent que ces outils peuvent se tromper. La crainte d’être faussement accusées d’avoir eu recours à l’IA pousse des personnes étudiantes à modifier leurs travaux, pourtant réalisés honnêtement, afin que ceux-ci soient moins susceptibles d’être identifiés comme ayant été générés par un SIAg (Argoud, 2025). Il en résulte des travaux de moins bonne qualité et des efforts étudiants investis ailleurs que dans l’apprentissage.
Les logiciels de détection de l’IA ne sont pas adaptés au fait que certaines utilisations de SIAg, par exemple pour l’aide à la rédaction, sont de plus en plus acceptées et répandues (Ardito, 2024).
- Un texte écrit par un humain, mais révisé à l’aide d’un SIAg pour améliorer la syntaxe et la grammaire, peut être étiqueté comme ayant été généré par un SIAg (Mobilio et al., 2024).
- Des fonctionnalités basées sur l’IA générative sont de plus en plus souvent intégrées dans des applications couramment utilisées en rédaction de texte. La personne étudiante peut donc réviser son texte à l’aide d’un SIAg sans même en être consciente.
- Certaines personnes étudiantes avec mesures d’accommodement doivent conserver le droit d’utiliser des outils de révision de texte, sans craindre d’être accusées d’une utilisation non autorisée de SIAg.
Dans un monde où les fonctionnalités reposant sur des SIAg risquent de devenir omniprésentes et où les compétences relatives aux SIAg seront recherchées sur le marché du travail, une interdiction unilatérale de l’utilisation de SIAg pour réaliser un travail universitaire sera de plus en plus rare, et donc la détection de contenu généré par des SIAg de moins en moins utile.
Solutions pour encourager l'intégrité intellectuelle
Prévention des infractions relatives aux études par recours à des SIAg
Il est recommandé d’explorer des stratégies pédagogiques pour limiter le risque d’infractions relatives aux études qui impliquent une utilisation non autorisée d’un SIAg. Voici quelques suggestions :
- Adapter ses évaluations et leurs modalités de réalisation afin de les rendre moins vulnérables à une utilisation non autorisée des SIAg.
- Énoncer clairement ses attentes envers les personnes étudiantes concernant l’utilisation des SIAg, notamment dans le plan de cours et dans les consignes des évaluations.
- Discuter avec les personnes étudiantes des avantages et des limites de l’utilisation de SIAg dans le cadre du cours.
- Miser sur une relation pédagogique solide, qui limite les risques d’infractions relatives aux études.
Nous vous invitons à consulter la page Intelligence artificielle générative pour approfondir votre réflexion à ce sujet et obtenir du soutien au besoin.

En cas d'infraction relative aux études suspectée
Si, malgré les mesures de prévention mises en place, une infraction relative aux études est observée ou suspectée, la personne en autorité peut intervenir. Elle est notamment autorisée à agir pour faire cesser l’infraction ou à rencontrer, si elle le souhaite, les personnes étudiantes soupçonnées afin de les questionner sur les éléments suspects. En cas de doutes non dissipés, la personne en autorité doit signaler l’infraction potentielle à la personne dirigeante ou déléguée en faculté, laquelle procèdera, si elle a des motifs raisonnables de croire qu’une infraction aurait été commise, à la dénonciation. Le processus complet de traitement d’une infraction relative aux études est présenté sur la page Web Règles disciplinaires de l'Université et détaillé dans le Règlement disciplinaire à l’intention des personnes étudiantes de l’Université Laval.
Generative AI detection in higher education assessments. New Directions for Teaching and Learning. Ardito, C. G. (2024).
Intelligence artificielle et plagiat : À quand un détecteur d’intelligence humaine ? La Presse. Argoud, E. (4 février, 2025).
Cégeps et universités | L’IA bouscule la vie en classe. La Presse. Carrier, L. (19 janvier, 2025).
Intelligence artificielle générative en enseignement supérieur : Enjeux pédagogiques et éthiques. Conseil supérieur de l’éducation du Québec, & Commission de l’éthique en science et en technologie. (2024).
The Use of AI-Detection Tools in the Assessment of Student Work. Paru sur Learning, Teaching and Leadership. Eaton, S. E. (6 mai, 2023).
AI Detection’s High False Positive Rates and the Psychological and Material Impacts on Students. Dans S. Mahmud (Éd.), Academic Integrity in the Age of Artificial Intelligence, IGI Global, 199-219. Gegg-Harrison, W., & Quarterman, C. (2024).
GPT detectors are biased against non-native English writers. Patterns, 4(7), 100779. Liang, W., Yuksekgonul, M., Mao, Y., Wu, E., & Zou, J. (2023).
The Grammarly Girl: A Case of “Unintentional Cheating”. Unveiling Academic Integrity: Case Studies of Real-World Academic Misconduct. Mobilio, A., Nijjar, B., Parrotta, C., & Burmanmore, J. (2024).
How can educators respond to students presenting AI-generated content as their own? Paru sur OpenAI Help Center. OpenAI. (s. d.).
Simple techniques to bypass GenAI text detectors: Implications for inclusive education. International Journal of Educational Technology in Higher Education, 21, 53. Perkins, M., Roe, J., Vu, B. H., Postma, D., Hickerson, D., McGaughran, J., & Khuat, H. Q. (2024).
AI Text Detectors. Trust, T. (novembre 2023).
The Effectiveness of Software Designed to Detect AI-Generated Writing: A Comparison of 16 AI Text Detectors. Open Information Science, 7(1), 20220158. Walters, W. H. (2023).
Testing of detection tools for AI-generated text. International Journal for Educational Integrity, 19(1), 26. Weber-Wulff, D., Anohina-Naumeca, A., Bjelobaba, S., Foltýnek, T., Guerrero-Dib, J., Popoola, O., Šigut, P., & Waddington, L. (2023).
Aller plus loin
Intelligence artificielle
Bureau du droit d’auteur, Université Laval
Plagiat et autres infractions
Bureau des droits étudiants, Université Laval
Évaluer à l’ère des IA : un guide de réflexion
Service de soutien à la formation, Université de Sherbrooke
IA pour… intégrité académique
Direction de l’apprentissage et de l’innovation pédagogique, HEC