Меню Меню

«Крестный отец» ИИ Джеффри Хинтон предупреждает о рисках и уходит из Google

В течение полувека «крестный отец» ИИ Джеффри Хинтон развивал технологию, лежащую в основе чат-ботов, таких как ChatGPT. Теперь, покинув Google, он предупреждает, что это может нанести серьезный вред в будущем. 

Новаторское исследование Джеффри Хинтона, которого многие считают «крестным отцом» технологии искусственного интеллекта, проложило путь к сложным генеративным системам, таким как ChatGPT. 

Британо-канадец заработал более полувека в компьютерных науках и когнитивной психологии. Сейчас, в 75 лет, он оставил свой пост в Google, чтобы «дать свисток» о предполагаемых опасностях, связанных с непрерывным ростом ИИ. 

В то время как в настоящее время многие из нас все еще наслаждаются новыми способами использования технологии, он предупреждает, что через несколько лет эти системы неизбежно научатся «способам манипулирования людьми», и утверждает, что они уже становятся умнее людей. 

Если вы представляете себе будущее, похожее на дурацкий фильм ужасов Блюмхауса М3ГАН, вы, вероятно, ошибаетесь, но уровень экзистенциальной озабоченности отсутствием регулирования машинного обучения быстро растет.

Хинтон рассказал New York Times что до прошлого года он считал, что Google был «надлежащим распорядителем» ИИ, но вся осторожность исчезла после слияния Microsoft ChatGPT с Bing – непреднамеренно угрожая своему бизнесу Google Search. 

За закрытыми дверями некоторые известные опасности до этого решения были «довольно страшными», сказал он Би-би-си, предупреждая, что чат-боты могут стать умнее людей и могут быть использованы «плохими актерами».  

«Он может автоматически создавать много текста, поэтому вы можете получить много очень эффективных спам-ботов. Это позволит авторитарным лидерам манипулировать своим электоратом и тому подобное». 

Однако, возможно, более тревожным является «риск того, что произойдет, когда эти существа станут более разумными, чем мы», что, по его мнению, неизбежно. 

«Я пришел к выводу, что тот тип интеллекта, который мы развиваем, сильно отличается от того интеллекта, который у нас есть, — сказал он. «Итак, это как если бы у вас было 10,000 XNUMX человек, и всякий раз, когда один человек чему-то учился, все автоматически это знали. Вот почему эти чат-боты могут знать намного больше, чем любой человек». 

В высших эшелонах исследований ИИ не только Хинтон утверждает, что технология может в конечном итоге нанести вред человечеству. Сообщается, что Илон Маск поссорился с одним из руководителей Google Ларри Пейджем только в прошлом месяце, поскольку он «недостаточно серьезно относился к безопасности ИИ». 

Босс Твиттера сказал Fox News что Пейдж хотел создать «цифровой сверхразум», аналогичный «цифровому Богу». 

В другом месте Валерия Пизано из Института искусственного интеллекта Квебека разделила мнение Хинтона о том, что нестандартный подход к разработке систем искусственного интеллекта недопустим нигде. 

«Технология внедряется, и по мере того, как система взаимодействует с человечеством, ее разработчики ждут, что произойдет, и вносят коррективы на основе этого. Мы никогда, как коллектив, не согласились бы с таким мышлением ни в какой другой отрасли промышленности», — сказала она. 

Считаете ли вы беспокойство по поводу будущего ИИ тревожным или нет, есть основания полагать, что мы не только передаем ИИ руль, но и потенциально позволяем ему выбирать свой собственный путь. 

Универсальный доступ