Passer au contenu principal

Intelligence artificielle générative

Afin de pouvoir tenir compte du potentiel des systèmes d'intelligence artificielle générative et des risques qui y sont associés, nous vous invitons à visionner cette vidéo d’introduction, puis à consulter les ressources disponibles et la foire aux questions ci-dessous. Vous y trouverez plusieurs réponses et pistes de réflexion pour soutenir vos activités d’enseignement.

Ressources

En début de session

Considérant la disponibilité de plus en plus grande de systèmes basés sur l’intelligence artificielle (IA), il est fortement recommandé de préciser les utilisations autorisées ou non autorisées de ces outils dans les travaux et dans votre cours. Vous pouvez vous inspirer de ces exemples de notices à ajouter à votre plan de cours.

L’animation d’une période de discussion au sujet de l’IA en début de session est une stratégie à envisager pour encourager les personnes étudiantes à adopter des comportements intègres et pour leur permettre de poser leurs questions en lien avec les utilisations autorisées ou non de l’IA dans le contexte spécifique d’un cours. Nous vous proposons un gabarit de présentation PowerPoint à personnaliser.

Pour favoriser la transparence et l’intégrité académique si l’utilisation d’outils d’IA est autorisée, il vous est aussi possible de fournir aux personnes étudiantes une fiche permettant de déclarer la manière dont l’IA a été utilisée. Vous pouvez adapter ce modèle de fiche de déclaration de l’IA à votre contexte d’enseignement.

En cours de session

L’utilisation d’outils d'IA soulève certains enjeux et peut susciter des préoccupations en matière d’évaluation des apprentissages. Votre cours comporte des méthodes d’évaluation en ligne ou susceptibles d’être «soutenues» par un outil d'IA générative? Découvrez quelques conseils et 10 stratégies à considérer pour favoriser la validité de vos activités d’évaluation et soutenir l'intégrité académique.

Formations

Obtenir du soutien

Besoin d’accompagnement pour soutenir votre réflexion pédagogique en lien avec l’IA? Découvrez SépIA, groupe de veille et d’expertise en IA et pédagogie, formé de conseillères et conseillers en pédagogie universitaires.

Copilot

La version protégée de l'agent conversationnel Copilot est accessible à l'ensemble du corps professoral, du personnel enseignant et de la communauté étudiante. Elle est incluse dans la license Microsoft Office 365 de l'Université Laval.

Consultez la page Systèmes d'intelligence artificielle (SIA) pour des détails et des recommandations concernant cet agent conversationnel.

Pour toute question en lien avec l’utilisation de Copilot, communiquez avec votre équipe facultaire.  

Principes directeurs concernant l’IA dans l’enseignement et l’apprentissage

Pour soutenir la réflexion sur les enjeux et opportunités liés à la présence des outils d’intelligence artificielle, l'Université Laval s'est dotée de cinq principes concernant l’IA dans l’enseignement et l’apprentissage.

Foire aux questions

Selon l’Office québécois de la langue française, l’IA est un «domaine d'étude ayant pour objet la reproduction artificielle des facultés cognitives de l'intelligence humaine dans le but de créer des systèmes ou des machines capables d'exécuter des fonctions relevant normalement de celle-ci».

L’IA générative fait partie d’un sous-ensemble de l’IA appelé apprentissage automatique (ou «machine learning»). Ce type d’IA fonctionne sur la base d’un entraînement de la machine à partir de données et sur sa capacité à inférer de ces données des schémas pour en généraliser des concepts sous-jacents.

Au fil des années, de nouveaux algorithmes d’apprentissage ont été inventés, la puissance de calcul des systèmes d’IA a augmenté de manière exponentielle et une quantité massive de données sont devenues disponibles pour soutenir leur entraînement. C’est ainsi qu’a émergé ce qu’on appelle l’apprentissage profond (ou «deep learning»), un mode d’apprentissage effectué par un réseau de neurones artificiels inspiré des réseaux de neurones humains.

L’IA générative est une sous-catégorie de l’apprentissage profond. On parle d’IA générative parce que les données ayant servi à l’entraînement du réseau de neurones permettent à celui-ci de générer de nouveaux contenus pouvant prendre plusieurs formes, par exemple du texte, de la vidéo ou des fichiers audio.

Un agent conversationnel est un système de dialogue. Les agents conversationnels récemment déployés (ex: Copilot, ChatGPT) sont basés sur l’IA générative. Ils permettent d’établir un lien entre les humains et les modèles de langage, soit des systèmes informatiques basés sur l’IA générative capables de créer de nouveaux contenus.

Pour permettre la création de nouveaux contenus par le modèle de langage, l’agent conversationnel reçoit les requêtes («prompts»), c'est-à-dire les questions ou les demandes qui entament le dialogue. Ces requêtes sont alors analysées pour générer les contenus inédits les plus plausibles selon la requête et le contexte, contenus ensuite transmis par l'agent conversationnel à la personne ayant formulé la demande ou posé la question.

Puisque les capacités des agents conversationnels évoluent rapidement et varient d’un outil à l’autre, nous vous invitons à consulter les pages officielles des compagnies qui proposent l’accès à un modèle de langage au Canada afin d'obtenir plus d’informations sur les fonctionnalités proposées.

Copilot
ChatGPT  (en anglais seulement)

Les agents conversationnels fonctionnant grâce à l’IA générative proposent parfois des réponses incorrectes ou inexactes. De plus, les données d’entraînement de l’IA générative étant non représentatives de la complexité des réalités sociales et culturelles, les réponses offertes par les agents conversationnels peuvent être biaisées ou inappropriées, tout en étant présentées comme des certitudes. Enfin, en fonction des données d’entraînement utilisées, les réponses proposées ne tiennent pas toujours compte des plus récentes connaissances sur un sujet donné.

Par ailleurs, les agents conversationnels sont sensibles à la manière dont les requêtes (« prompts ») sont formulées et ne donne pas toujours une réponse qui répond aux besoins de la personne ayant formulé la requête. La requête peut alors être reformulée pour que la réponse générée se rapproche de la réponse souhaitée.

Les informations saisies dans les agents conversationnels peuvent être utilisées à des fins d’entraînement et d’amélioration de l’outil. Chaque compagnie détermine un certain niveau de protection des données, niveau de protection qui peut aussi varier selon la version utilisée (gratuite ou payante, par exemple).

Si vous avez des doutes quant à la protection des données lorsque vous utilisez un agent conversationnel, par principe de précaution, nous vous déconseillons fortement d’y saisir toute information confidentielle, nominative, sensible ou tout texte rédigé par une personne étudiante.

Puisque le niveau de protection des données varie grandement et évolue rapidement, nous vous invitons à consulter les pages officielles des compagnies pour en savoir plus.

ChatGPT  (en anglais seulement)
Copilot

Vous êtes libre d’utiliser les outils technologiques de votre choix dans le cadre de vos cours. Que vous autorisiez ou non le recours à des outils fonctionnant à l’aide de l’IA générative, il importe de communiquer clairement vos attentes aux personnes étudiantes dans votre plan de cours (voir les modèles proposés). De plus, nous vous encourageons à animer une discussion ouverte en classe sur ce sujet (voir le diaporama proposé, à personnaliser en fonction de vos besoins) ou à tester des requêtes en classe avec les personnes étudiantes. Vous les aiderez ainsi à aiguiser leur regard critique en discutant de la qualité des réponses obtenues et en les comparant avec des contenus présentés dans le cadre du cours ou avec des éléments théoriques connus par l’ensemble du groupe.

Si l’utilisation d’un agent conversationnel est nécessaire dans votre cours, nous vous recommandons d’offrir une alternative aux personnes étudiantes qui ne souhaitent pas créer un compte, considérant les données confidentielles qui sont parfois nécessaires pour ce faire (par exemple, un numéro de téléphone cellulaire). Vous pourriez dans ce cas leur fournir vous-même le contenu généré plutôt que de leur demander de créer un compte. 

Vous êtes libre de définir ce qui est permis et ce qui ne l’est pas dans le cadre de vos évaluations. Sachez que si vous décidez de permettre l’utilisation de ces outils, il est important de bien l’encadrer, de spécifier clairement dans le plan de cours (voir les modèles proposés) les tâches qui peuvent être réalisées en s’appuyant sur des outils d’IA ainsi que le type d’utilisation permise.

De plus, nous vous recommandons de discuter de vive voix avec les personnes étudiantes (voir le gabarit proposé à personnaliser en fonction de vos besoins) de l’utilisation de l’IA dans les évaluations, notamment des règles entourant le fait de mentionner et de citer cette utilisation en respectant les normes de référencement.

Si vous envisagez permettre l’utilisation d’outils fonctionnant grâce à l’IA générative dans vos évaluations, par exemple des agents conversationnels, n’oubliez pas de considérer les limites de ceux-ci, notamment l’accessibilité (site parfois inaccessible en forte période d’achalandage) ou les enjeux de confidentialité des données personnelles (numéro de téléphone personnel nécessaire pour créer un compte, par exemple). 

Nous vous invitons à consulter la page intitulée Intégrité académique et intelligence artificielle pour soutenir votre réflexion à ce sujet.

Certaines méthodes d’évaluation sont plus à risque de tricherie avec le déploiement d’outils basés sur l’IA générative. C’est le cas par exemple des examens en ligne, des productions écrites de restitution de connaissances et des traductions de texte. Afin de promouvoir l'intégrité académique, il est possible de contextualiser les questions d’examen et les tâches demandées pour les rendre plus authentiques. Cette contextualisation peut être réalisée, par exemple, en fonction d’un aspect spécifique de votre cours, afin que les évaluations ne puissent être réalisées qu’en mobilisant les compétences et les connaissances acquises dans celui-ci.

Également, il est pertinent d’explorer d’autres approches pédagogiques comme la classe inversée ou d’autres méthodes d’évaluation qui s’avèrent moins à risque : les projets en groupes, les présentations orales, les portfolios, les travaux qui mettent en valeur l’utilisation des sources fiables, les débats ou toute autre tâche qui nécessite une analyse critique, une réflexion personnelle ou une justification des choix en fonction des contenus de votre cours.

La mobilisation des compétences rédactionnelles, informationnelles et de référencement constitue aussi une bonne pratique pour promouvoir l’intégrité académique. Enfin, nous vous encourageons à recueillir des traces fréquentes des apprentissages faits par les personnes étudiantes dans vos cours, en accordant une importance non pas uniquement au produit (la production demandée), mais aussi au processus (à la démarche) et au propos (les réflexions de la personne étudiante sur son travail).

Pour plus d’informations à ce sujet, nous vous invitons à consulter les 10 stratégies suggérées. Vous trouverez plusieurs liens vers des ressources complémentaires.

L’utilisation d’outils basés sur l’IA ne constitue pas en soi une infraction relative aux études. Si son utilisation a été faite en respectant les attentes mentionnées au plan de cours ou dans les consignes d’une évaluation, il peut s’agir d’une aide autorisée. Dans le cas où cette utilisation n’aurait pas été autorisée explicitement, le fait de s’en servir peut constituer une infraction relative aux études et pourrait mener à l’application des sanctions prévues au Règlement disciplinaire à l’intention des personnes étudiantes de l’Université Laval .

Dans ce type de dossier disciplinaire, la commissaire aux infractions relatives aux études vérifie si elle peut établir la preuve d’une infraction par balance des probabilités, sans nécessairement chercher de preuve spécifique d’une utilisation d’un outil d’IA. L’utilisation d’un outil d’IA peut, de façon générale, être considérée comme une aide non autorisée au sens du Règlement disciplinaire . Selon les faits du dossier, cette infraction peut également être de l’ordre du plagiat, si la personne étudiante n’a pas correctement inséré les citations et/ou références nécessaires, ou de la possession de tout document, appareil ou instrument non autorisé.  

L’analyse de la commissaire se centre donc essentiellement sur les faits qui portent la personne responsable du cours à croire que la personne étudiante ne serait pas à l’origine de ce qu’elle a remis. La personne responsable peut fournir toute preuve pertinente à la commissaire. Notamment, ces éléments peuvent être les suivants :

  • la copie de la personne étudiante « détonne » de celles des autres membres du groupe;
  • il y a une amélioration inexpliquée de la qualité de la rédaction;
  • la personne étudiante utilise des concepts ou des notions qui n’ont pas été enseignés;
  • les références sont erronées, introuvables ou inexistantes;
  • etc.  

Considérant l’évolution des dossiers disciplinaires reliés à l’IA, plusieurs nuances sont nécessaires et chaque dossier disciplinaire est analysé individuellement et au regard des faits précis du dossier. De ce fait, les exemples de preuves énumérés ci-haut sont pertinents, mais ne sauraient systématiquement conduire à une rétention de l’infraction.  

Toute approche misant sur la prévention, que ce soit une mention explicite au plan de cours des utilisations permises ou interdites d’outils d’IA, des discussions ouvertes avec les personnes étudiantes (voir le diaporama proposé, à personnaliser en fonction de vos besoins) ou des efforts mis sur le développement des compétences informationnelles/rédactionnelles/de référencement est bien sûr encouragée.

Sachez que si vous suspectez un cas de tricherie ou de plagiat, vous avez l’obligation de le signaler. À noter qu’il est possible de contacter la commissaire aux infractions relatives aux études via l’adresse institutionnelle discipline.etudes@sg.ulaval.ca afin d'obtenir son opinion avant de procéder à une dénonciation.

Pour plus d’informations au sujet des infractions disciplinaires et du rôle de la commissaire, visitez le site Règles disciplinaires de l’Université .

Les logiciels de détection de l’IA ne sont pas en mesure d’identifier son utilisation à 100% et risquent de donner des réponses ambiguës ou erronées. Il existe également des voies de contournement afin qu’un logiciel de détection de l’IA ne détecte pas ou détecte difficilement l’utilisation de celle-ci. Pour cette raison, l’utilisation de tels outils pour établir la preuve d’une infraction relative aux études n’est pas recommandée.

Une approche misant sur la prévention est encouragée, que ce soit une mention explicite au plan de cours et dans les consignes des utilisations permises ou interdites d’outils basés sur l’IA, une discussion ouverte avec les personnes étudiantes, des efforts consacrés au développement des compétences informationnelles/rédactionnelles/de référencement, etc. 

Appui à l’innovation pédagogique

Le Programme d’appui à l’innovation pédagogique (PAIP) propose un soutien financier à la réalisation de projets visant l’innovation en contexte d’enseignement et d’apprentissage. Plus particulièrement, le volet 3 du programme vise à soutenir la mise en place d’initiatives visant à explorer une problématique ou réaliser un projet d’application de l’intelligence artificielle (IA) en contexte d’enseignement et d’apprentissage.

Pour en savoir plus

Découvrez 3 projets inspirants

Ces projets, ayant reçu un appui financier, contribuent au développement d’une expertise autour de l’intelligence artificielle au sein de la communauté enseignante et des équipes de soutien pédagogique de l’Université Laval.