Menu Menu

Les étudiants utilisent des outils linguistiques d'IA pour réussir leurs devoirs

Dans un monde où l'IA peut être utilisée pour faire presque n'importe quoi, les étudiants utilisent des algorithmes de langage pour écrire leurs devoirs et contournent les logiciels de plagiat.

À l'âge de 14 ans, je me souviens d'avoir tenté de brouiller mes devoirs de français en utilisant les outils de traduction de Google. Ma pauvre tentative n'a pas réussi à tromper le professeur et je me suis rapidement retrouvé en retenue.

Malgré ma terrible exécution il y a toutes ces années, cependant, il semble que j'aie été en avance sur la courbe.

Avec le boom continu de la technologie de l'IA, qui reste sérieusement non réglementé Soit dit en passant, les étudiants reçoivent des distinctions pour les devoirs et les devoirs de cours construits entièrement par des algorithmes informatiques.

Nous discutons régulièrement des progrès constants des générateurs de texte en image comme DALL-E, mais l'émergence de l'IA pour le travail littéraire est passée quelque peu sous le radar. Selon une enquête récente de Motherboard, c'est une source de préoccupation pour les établissements d'enseignement.

Je veux dire, qui peut dire que vous ne lisez pas un article écrit par une machine en ce moment ?


Comment fonctionnent les outils d'IA linguistique ?

Jusqu'à très récemment, j'ignorais totalement qu'OpenAI - le développeur de DALL-E - disposait même d'algorithmes pour créer un langage original. Il s'avère qu'y parvenir n'est pas plus difficile que de créer des images absurdes.

En quelques secondes, le programme doublé GPT-3 peut prendre les invites de l'utilisateur et créer des paragraphes d'informations détaillés assemblés à partir du Web.

Un menu déroulant aide la technologie à se pencher sur une certaine discipline et un certain format de texte. Par exemple, sélectionner « Question » fournira des réponses simples, y compris des points de contact contextuels clés, et « Débat » génère des phrases originales sur un ton plus conversationnel.

Avec les bonnes invites pour le style et les informations, des réponses étendues peuvent être produites à partir de zéro, y compris des essais entiers. Comme vous pouvez l'imaginer, cela a le potentiel d'ouvrir une sérieuse boîte de Pandore pour les écoles, les collèges et les universités.

À l'heure actuelle, il est presque impossible de déterrer toute tentative de subversion, étant donné que les logiciels anti-plagiat ne peuvent détecter que des exemples de phrases ou de phrases répétées.

Bien que des cas de tricherie plus longs puissent ressortir à l'œil averti, la disparité entre la technologie de plagiat et l'IA ne fera que s'élargir avec la sortie du GTP-4 - qui aurait été formé sur 100 billions paramètres d'apprentissage automatique.

La fin d'un travail chargé ?

Comme nous l'avons mentionné précédemment, plusieurs étudiants ont déjà donné des critiques élogieuses sur l'IA textuelle lors d'une conversation avec Carte mère.

Un étudiant anonyme utilisant l'alias Reddit "innovate_rye" a révélé qu'il utilisait GTP-3 pour effectuer la plupart des devoirs.

«Pour la biologie, nous en apprendrions sur la biotechnologie et écrirons cinq bonnes et mauvaises choses. J'enverrais une invite à l'IA du type : "Quelles sont les cinq bonnes et mauvaises choses à propos de la biotechnologie ?" et cela générerait une réponse qui me donnerait un A », ont-ils déclaré.

"Je fais toujours mes devoirs sur les choses que je dois apprendre à réussir, j'utilise simplement l'IA pour gérer les choses que je ne veux pas faire ou que je trouve dénuées de sens", a ajouté innovate_rye.

Capture d'écran et posté sur Twitter par Pierre Yang, un étudiant sur Reddit a récemment affirmé avoir réalisé un profit de 100 $ en faisant les devoirs de ses camarades de classe sur une période de deux semaines. Ils ne savaient pas qu'ils auraient pu utiliser l'IA eux-mêmes.

Ailleurs, un lycéen anonyme a produit un essai complet sur les affaires mondiales contemporaines. N'ayant pas réussi la mission, principalement parce qu'ils n'avaient pas cité de sources extérieures, ils ont réussi à éviter d'être détectés.

Il est trop tôt pour qualifier la littérature informatisée d'épidémie, mais on a juste l'impression que quelque chose de potentiellement collant se prépare ici.

Les garanties ne sont pas là pour s'assurer que les étudiants sont honorables et ne le seront probablement pas de sitôt, mais la responsabilité pourrait incomber aux développeurs d'IA (théoriquement) pour empêcher les utilisations néfastes.

À l'heure actuelle, il n'y a aucun signe que cela se produise. Tout ce que je peux faire, c'est plaider… s'il vous plaît, soyez meilleur que moi, les enfants.

Accessibilité