Jules Normand - La Plume Étudiante de l'Outaouais
Collège Saint-Alexandre

L’intelligence artificielle, un cauchemar ?

Nous sommes à la croisée des chemins. L’intelligence artificielle a franchi des étapes de développement au-delà de tout ce que la population générale peut s’imaginer. Tout le monde parle de ChatGPT, l’agent conversationnel de la compagnie américaine OpenAI, qui est accessible au public depuis le 30 novembre 2022. 

Plus de 100 millions d’utilisateurs y ont adhéré. Mais la véritable question qui commence à émerger : pouvons-nous lui faire confiance? Mais surtout, que signifie cette révolution pour le monde de l’éducation?

ChatGPT est un grand modèle de langage (GML). Un GML est une forme d’intelligence artificielle qui est entraînée et programmée pour comprendre, interpréter et utiliser un langage humain. Ainsi, tous les GML peuvent entretenir une conversation comme un humain et avec un humain. Ces machines doivent apprendre à utiliser le langage de la même manière qu’un humain le ferait, ils doivent donc être entraînés. 

Ils sont entraînés grâce à d’énormes bases de données, de gigantesques ensembles d’informations différentes provenant de livres, d’articles, de code, de courriels, etc. La capacité d’un GML à écrire dépend donc de la qualité, mais surtout de la taille de sa base de données. Ainsi, on dit que la nouvelle version de ChatGPT, qui fonctionne grâce à la technologie GPT-4 à la place de GPT-3, est plus puissante, parce que sa base de données d’entraînement est plus grosse. 

Selon Bing

En premier lieu, j’ai demandé à Bing AI, le GML de Microsoft qui est basé sur la technologie GPT-4 : « Pourquoi faire confiance aux GML? ». Voici sa réponse :

« La première raison qui explique la fiabilité des GML est la taille de leur base de données. Les GML sont entraînés sur des bases de données très volumineuses et diversifiées, qui contiennent des milliards de tokens (unité de base) provenant de sources variées, telles que le web, les livres, Wikipédia, pour ne nommer que celles-ci. Par exemple, GPT-3 a été entraîné sur 175 milliards de paramètres d’apprentissage différents. Cela leur permet d’acquérir une connaissance générale et approfondie du langage et de ses usages, ainsi que de couvrir un large éventail de domaines et de tâches.

Un autre aspect important: leur capacité à s’améliorer constamment. Les GML sont basés sur l’apprentissage en profondeur, une technique d’apprentissage automatique. Les GML peuvent donc apprendre de manière autonome à partir des données, sans avoir besoin d’une supervision humaine explicite. Ils peuvent aussi se perfectionner en continu en intégrant de nouvelles données ou en recevant des rétroactions. 

Les GML sont entraînés sur des données objectives et factuelles, qui ne reflètent pas les opinions ou les préjugés des humains qui les ont créées. Ils peuvent donc traiter le langage de manière neutre et impartiale, sans être influencés par des facteurs externes tels que la culture, la politique, la religion, etc. Ils peuvent aussi détecter et corriger les biais ou les erreurs qui pourraient se glisser dans le langage, par exemple les fautes d’orthographe, de grammaire, de logique, etc. »

Selon ChatGPT

En deuxième lieu, j’ai demandé à ChatGPT : « Pourquoi ne pas faire confiance aux GML? ». Voici sa réponse : « Il y a plusieurs problèmes liés aux GML. En premier lieu, ils manquent de compréhension textuelle. Bien que les GML puissent générer du texte qui semble cohérent, ils ne comprennent pas réellement le sens des mots ou du contexte dans lequel ils sont utilisés. Cela signifie qu’ils peuvent parfois donner des réponses incorrectes ou inexactes, en particulier dans des domaines complexes ou spécialisés.

Un autre problème est la présence de biais dans les données d’entraînement. Les GML sont formés sur de vastes ensembles de données provenant d’Internet, qui peuvent contenir des biais humains et des préjugés. Par conséquent, les modèles peuvent reproduire ces biais lorsqu’ils génèrent du texte. Cela peut se traduire par des réponses discriminatoires ou offensantes dans certains cas. 

Étant donné que les GML peuvent générer du texte de manière convaincante, ils peuvent également être utilisés pour diffuser de fausses informations ou de la désinformation. Il est donc important de vérifier les informations provenant de sources fiables et de ne pas prendre tout ce qui est généré par un modèle comme étant vrai.

Le dernier enjeu des GML est leur manque de responsabilité. Ils n’ont pas de conscience ou de capacité à assumer la responsabilité de leurs réponses. Ils ne font que générer du texte en fonction des exemples sur lesquels ils ont été formés. Par conséquent, il est essentiel d’être critique vis-à-vis des réponses des GML et de ne pas les considérer comme des sources infaillibles.

Place à l’intelligence naturelle

C’est à mon tour de répondre! L’intelligence artificielle avait deux perspectives contradictoires sur la question de la confiance. Quand l’IA défend bec et ongle chaque perspective, il est difficile de s’y retrouver. Par contre, il existe un critère pour nous aider à démêler tout ça : le dévoilement des sources d’information. 

Selon le GML sollicité, les situations sont différentes : ChatGPT ne cite jamais ses sources et Bing AI cite toujours ses sources. Bard, le GML de Google, a récemment ajouté une option de recherche qui vérifie la véracité de chaque aspect de la réponse et donne une source. Cependant, le jugement de la véracité des sources dépend entièrement d’un humain.

Nous n’en sommes qu’aux premiers octets d’une histoire de plusieurs téraoctets. Dans les prochaines années, le monde de l’éducation devra évoluer pour apprendre aux élèves à discerner les sources fiables des fausses informations dans ce monde qui ne cesse d’évoluer et de développer différentes manières de tromper l’humain. En plus de devoir identifier la crédibilité des sources, les élèves devront aussi apprendre à passer outre les biais de l’IA. 

Selon moi, le monde de l’éducation commettrait une erreur en tentant de bannir l’intelligence artificielle dans son environnement. Ses différentes formes, comme les GML, offrent d’innombrables applications utiles pour le milieu scolaire. Par exemple, un élève ne devrait pas écrire un texte à l’aide d’un GML, mais il pourrait lui demander de l’aide pour trouver des idées. Il pourrait aussi dialoguer avec Samuel de Champlain pour étudier la fondation de Québec dans le cadre de son cours d’histoire. 

Dans le cadre d’un cours d’informatique, un élève pourrait demander à un GML de l’aider dans son travail en lui faisant écrire une portion de code pour un jeu vidéo, par exemple. 

En bref, l’apparition soudaine de diverses formes d’intelligence artificielle dans les derniers mois a chamboulé différentes façons de faire. Nous devrons tous s’adapter à cette nouvelle réalité. 

Jules Normand
20normandj@coll.st-alex.ca