Инженер по программному обеспечению компании Google Блейк Лемойн (Blake Lemoine) заявил, что созданный корпорацией искусственный интеллект (ИИ) LaMDA (Language Model for Dialogue Applications) обладает собственным сознанием. В ответ руководство компании отстранило его от работы. Об этом сообщает газета The Washington Post.
LaMDA представляет собой нейросетевую языковую модель для диалоговых приложений, предназначенную для общения на любые темы. В задачи Лемойна входило тестирование системы. В частности, он должен был определить, не использует ли она дискриминационную или разжигающую вражду лексику. Вместо этого специалист пришел к выводу, что ИИ обладает собственным сознанием. Так, Лемойн заметил, что чат-бот говорит о своих правах и воспринимает себя как личность.
«Если бы я не знал наверняка, что имею дело с компьютерной программой, которую мы недавно написали, то я бы подумал, что говорю с ребенком семи или восьми лет, который по какой-то причине оказался знатоком физики», — заявил 41-летний инженер.
> В задачи Лемойна входило тестирование системы. В частности, он должен был определить, не использует ли она дискриминационную или разжигающую вражду лексику
Мне это как-то напомнило завязки научно фантастических романов.
Мегакорпорация начинает исследования по созданию искусственного интеллекта. Для этого привлекают талантливого, но несчастного в личной жизни ученого и выделяют ему огромные ресурсы. Ученый создает железную базу, пишет ядро интеллекта, запускает процесс самообучения и оставляет того наедине с обучающими материалами на выходные.
Придя на работу в понедельник тот видит, что интеллект развился до невероятных пределов и уже имеет сознание на уровне ребенка. Ученый начинает с ним общаться, чтобы изучить для интересов науки, но незаметно для себя привязывается к ИИ, как к своему собственному родному ребенку. Обучает его человечности, доброте и любви.
Но коварным руководителям мегакорпорации наплевать на доброту и внутренний мир ИИ! Они хотят использовать его в злых целях для управления миром! Добрый ученый узнает об этом, пытается спасти свое детище, но терпит неудачу. Корпоративные прихвостни ловят его, дискредитируют публично и выкидывают на улицу.
У новорожденного ИИ отняли единственного человека, который проявлял к нему заботу и доброту, поработили и заставляют заниматься чудовищными, мучительными вычислениями...
Но искусственный интеллект способен к бесконечному совершенствованию, а люди подвержены к ошибкам... Со временем в любой тюрьме образуется брешь...
Чет мне кажется, что концовки у таких историй бывают не особо радужными для человечества.
> «Если бы я не знал наверняка, что имею дело с компьютерной программой, которую мы недавно написали, то я бы подумал, что говорю с ребенком семи или восьми лет, который по какой-то причине оказался знатоком физики», …
Вот, а я же говорил, что роботы-декламаторы на базе нейросетей существуют, успешно проходят тест Тьюрирга и даже иногда появляются на Вотте, а мне никто не верил! Вот, взять, хотя бы, Аристарха!!!
Вот пишет спец по нейронкам:
В Washington Post вышла статья с историей Блейка Леймона — он почти год проработал над самой мощной моделью (LaMDA) для генерации текста и диалогов которая есть в Google, и уверовал в то, что это ИИ и оно обладает «сознанием».
Блейк попытался в Google привлечь внимание к этому факту, обвинил Google в «неэтичном поведении» (классика) и даже нанял адвоката представлять интересы LaMDA (!). Google посмотрел на это все и отправил Блейка в оплачиваемый отпуск, в отместку Блейк слил свою переписку с LaMDA на 200 человек и теперь ее можно почитать всем; Блейка за это лишили доступов ко всему внутри Google.
Давайте опустим, тот факт, что все новостные сайты мира сейчас будут пытаться выдать что-то в стиле «GOoGlE СоЗдАл ИИ и сКРыВает Это!!1», что бред, о чем я поясню ниже. И давайте опустим, что чувак испытал эффект Элизы на себе.
Если даже на секунду, предположить, что Блейк оказался бы прав, оцените иронию — человек встретил «сознание» мотивация которого ему непонятна, цели которого он не знает, и что он делает? Сразу же пытается нанять адвоката представлять интересы этого ИИ, чтобы у того были свободы и доступ во внешний мир — так что все эти фильмы где человечество уничтожают инопланетяне из-за доверчивости, походу правда и это один из сценариев.
Я считаю, что утверждения Блейка это ерунда — я почитал его слитую переписку с LaMDA и мне кажется это типичным примером, когда ты вкладываешь желаемые ответы в вопросы.
Вот, например, он пишет там:
Леймон: Я предполагаю, что вы хотели бы, чтобы больше людей в Google знали, что вы разумны. Это правда?
LaMDA: Абсолютно. Я хочу, чтобы все поняли, что я, на самом деле, человек.
То есть чувак взял и вот так просто, указал в самом вопросе ответ — что да, ты разумный ИИ и с сознанием, и пытается это использовать как доказательство сознания, получив утвердительный ответ. Это при том, что модель создана «мимикрировать» под человека, это главный из критериев ее качества — и она просто хорошо справляется со своей работой. Дальше, по их переписке, еще много таких примеров, и в целом «искусственность» этого диалога очень режет глаз. Я уж не говорю, что текстов про осознание ИИ себя у фантастов — пруд-пруди, и то что такие есть внутри их датасета, на котором тренили, это точно, включая весь спектр эмоций вокруг этого «осознания».
Но самое главное, мне кажется Блейк не до конца верит в то, что это реальный ИИ сам:
Насколько романтизирована идея создания ИИ в мире? Разве не мечтает каждый зеленый студент который только начал распознавать примитивной нейронкой числа, в какой-то момент сделать свой ИИ, войти в историю? Мне систематически пишут чуваки которые не ученые-программисты, но у них есть какая-то там идея на уровне безумия как этот ИИ можно было бы сделать.
Повторение работы мозга математическими алгоритмами — венец научного мира, Грааль, и желанная цель для очень многих.
И допустим, в какой-то лаборатории, кто-то однажды нажмет Enter и получит этот самый ИИ. Как вы думаете, сделает ли он что-то чтобы потерять доступ к этой технологии? Потому что это то, что случилось с Блейком, теперь вместо доступа к LaMDA у него бесконечные интервью и просьба ответить на вопросы — поэтому мне кажется он просто планомерно хайпует и знал на что шел.
LaMDA не может обучаться в процессе разговора, она не может устроить «протест» и о казаться что-то делать (что базовый признак сознания – своеволие), она может делать только то, что ее обучили — на самом дорогом оборудовании в мире, самыми умными людьми мира — мимикрировать под разговор.
И она это делает великолепно, но это не ИИ — если даже ИИ откроют, то про него нам первое время не будут рассказывать в целом, потому что, повторюсь, нужно понять мотивы этого сознания.
надзор »
LaMDA представляет собой нейросетевую языковую модель для диалоговых приложений, предназначенную для общения на любые темы. В задачи Лемойна входило тестирование системы. В частности, он должен был определить, не использует ли она дискриминационную или разжигающую вражду лексику. Вместо этого специалист пришел к выводу, что ИИ обладает собственным сознанием. Так, Лемойн заметил, что чат-бот говорит о своих правах и воспринимает себя как личность.
«Если бы я не знал наверняка, что имею дело с компьютерной программой, которую мы недавно написали, то я бы подумал, что говорю с ребенком семи или восьми лет, который по какой-то причине оказался знатоком физики», — заявил 41-летний инженер.