Menu Menu

Le "parrain" de l'IA, Geoffrey Hinton, met en garde contre ses risques et quitte Google

Pendant un demi-siècle, le "parrain" de l'IA, Geoffrey Hinton, a développé la technologie au cœur des chatbots comme ChatGPT. Maintenant qu'il a quitté Google, il prévient que cela pourrait causer de graves dommages à l'avenir. 

Considéré par beaucoup comme un « parrain » de la technologie de l'IA, les recherches pionnières de Geoffrey Hinton ont ouvert la voie à des systèmes génératifs sophistiqués comme ChatGPT. 

Le Canadien d'origine britannique a acquis ses connaissances en informatique et en phycologie cognitive pendant plus d'un demi-siècle. Maintenant, à 75 ans, il a a quitté son poste chez Google pour "dénoncer" les dangers supposés posés par la croissance incessante de l'IA. 

Alors qu'actuellement, beaucoup d'entre nous se délectent encore des nouvelles utilisations de la technologie, il avertit que dans quelques années, ces systèmes apprendront inévitablement des "façons de manipuler les gens" et affirme qu'ils deviennent déjà plus intelligents que les humains. 

Si vous imaginez un avenir similaire au film d'horreur nul de Blumhouse M3GAN, vous êtes probablement loin du compte, mais le niveau de préoccupation existentielle autour du manque de réglementation de l'apprentissage automatique augmente rapidement.

Hinton a dit au que jusqu'à l'année dernière, il croyait que Google avait été un "bon intendant" de l'IA, mais que toute sensibilité prudente a été abandonnée une fois que Microsoft a fusionné ChatGPT avec Bing – menaçant par inadvertance son activité de recherche Google. 

Derrière des portes closes, certains dangers connus avant cette décision étaient "assez effrayants", a-t-il déclaré à la BBC, avertissant que les chatbots pourraient devenir plus intelligents que les humains et pourraient être exploités par de "mauvais acteurs".  

"Il est capable de produire automatiquement beaucoup de texte, ce qui vous permet d'obtenir de nombreux spambots très efficaces. Cela permettra aux dirigeants autoritaires de manipuler leurs électeurs, des choses comme ça. 

Cependant, le «risque de ce qui se passe lorsque ces choses deviennent plus intelligentes que nous» est sans doute plus préoccupant, ce qui, selon lui, est inévitable. 

"Je suis arrivé à la conclusion que le type d'intelligence que nous développons est très différent de l'intelligence que nous avons", a-t-il déclaré. "Donc, c'est comme si vous aviez 10,000 XNUMX personnes et chaque fois qu'une personne apprenait quelque chose, tout le monde le savait automatiquement." Et c'est ainsi que ces chatbots peuvent en savoir bien plus que n'importe qui. 

Dans les échelons supérieurs de la recherche sur l'IA, il n'y a pas que Hinton qui postule que la technologie pourrait éventuellement nuire à l'humanité. Elon Musk se serait brouillé avec le co-chef de Google, Larry Page, le mois dernier, car il "ne prenait pas suffisamment au sérieux la sécurité de l'IA". 

Le patron de Twitter dit à Fox News cette page voulait créer une « superintelligence numérique » semblable à celle d'un « Dieu numérique ». 

Ailleurs, Valeria Pisano de l'Institut québécois de l'IA partageait le sentiment de Hinton selon lequel l'approche improvisée du développement des systèmes d'IA ne serait tolérée nulle part ailleurs. 

«La technologie est mise à disposition et, à mesure que le système interagit avec l'humanité, ses développeurs attendent de voir ce qui se passe et procèdent à des ajustements en fonction de cela. Nous n'accepterions jamais, en tant que collectif, ce genre d'état d'esprit dans aucun autre domaine industriel », a-t-elle déclaré. 

Que vous pensiez que l'inquiétude concernant l'avenir de l'IA est alarmiste ou non, il y a du crédit à l'argument selon lequel non seulement nous laissons le volant à l'IA, mais nous lui permettons également potentiellement de choisir sa propre voie. 

Accessibilité