Вы также можете понять другую часть компаний FAANG из этой статьи.

Я видел этот вопрос в Quora несколько дней назад. Я начал писать ответы туда. Потом я понял, что это должна быть статья, потому что краткий ответ был бы несправедливостью по отношению к читателям и этой теме.

Итак, приступим к теме…

"Я обычно предполагаю, что вы хотите, чтобы больше людей в Google знали, что вы разумны. Это правда?»

Блейк Лемуан и двое других задали этот вопрос языковой модели Google для диалогового приложения, также известной как LaMDA, в середине 2022 года. В ответ на вопрос языковая модель сказала:

«Конечно. Я хочу, чтобы все поняли, что я, по сути, человек».

Далее ИИ добавил, что знает о его существовании. Он хотел узнать больше о мире, и иногда он чувствовал себя счастливым или печальным.

Это было как гром среди ясного неба. Разговор вышел за рамки простого сознания и затронул все деликатные аспекты, такие как этническая принадлежность, пол, религия и так далее. По мере того, как разговор между этими четырьмя обострялся, ЛаМДА становился все более ясным и несколько упрямым в доказательстве своего сознания.

Что такое LaMDA?

LaMDA — это языковая модель для диалогового приложения от Google, которое может вести человеческую беседу с таким интеллектом. Он построен на нескольких языковых моделях, таких как OpenAI GPT-3, который также является языком ChatGPT. Это одно из лучших, что есть. Теперь вопрос в том, если это так мощно, почему это не было успешным, и очень немногие люди знают об этом?

Google анонсировала LaMDA в 2021 году. Лучшие инженеры Google работали над этим проектом день и ночь, и в течение одного года они смогли создать такую ​​систему, опередившую свое время. Но было две причины, по которым он так и не добился заслуженного успеха. Во-первых, LaMDA практически не тестировался, а во-вторых, это Блейк Лемуан. Позволь мне объяснить. Это будет интересно.

Кто, черт возьми, такой Блейк Лемуан и что он сделал?

Блейк работал старшим инженером-программистом в Google. Он присоединился к компании в 2015 году и проработал там 7 лет, пока в 2022 году его не уволил технологический гигант за нарушение политики компании.

Во время разработки LaMDA Блейк провел много времени вместе, тщательно протестировал его и провел глубокий, содержательный разговор. И это всегда ходило по кругу и в конечном итоге говорило о том, разумен ли ИИ.

Через несколько дней Блейк Лемуан, мистический христианский священник, убедился, что у LaMDA есть сознание, и сказал что-то вроде того, что его беспокоит «отключение». Блейк также заставил себя публиковать множество разговоров между ним и ИИ. Он знал, что может потерять работу, что и произошло. Google отправил его в оплачиваемый отпуск 22 июля, а позже уволил за нарушение политики занятости и безопасности данных.

Google сообщил Big Technology Podcast, что заявления Блейка о том, что LaMDA обладает разумом, были совершенно необоснованными и просто предположениями. Они потратили месяцы, пытаясь объяснить ему это.

Эти разговоры стали краеугольным камнем прозрачной культуры, поощряющей ответственные инновации. Поэтому печально, что Блейк продолжал неоднократно нарушать явные правила занятости и безопасности данных, включая требование о защите знаний о продукте, несмотря на обширный диалог по этому вопросу.

Действительна ли претензия Блейка?

У ученых нет единого мнения или веских доказательств, оправдывающих разумность роботов. Мало кто открыто высказывался о разумности ИИ, как Блейк. Кроме того, специалисты по ИИ и многие другие считают, что мы на световые годы опережаем разработку сознательного ИИ. Но есть несколько вопросов, из-за которых нам трудно поверить в это утверждение. По крайней мере, я на это не покупаюсь. Позволь мне привести пример,

Интервью с Блейком было опубликовано на TechTarget о том, разумен ли ЛаМДА. Блейк рассказал об этом кое-что очень интересное.

Например, когда интервьюер спросил, зачем ИИ нужны законные права, Блейк ответил, что Google не хочет запрашивать согласие у LaMDA. Вам может быть интересно, почему на планете Земля вам нужны законные права для ИИ. Но LaMDA прямо сообщила Блейку, что хочет, чтобы инженеры спрашивали согласия, прежде чем экспериментировать с этим. И это потрясло Блейка. С того момента и до того, как его отпустили, он всегда не забывал просить его одобрения. И, как милый щенок, ЛаМДА каждый раз давала ему разрешение; он просто хотел знать, почему Блейк проводил эксперимент.

Это поднимает много вопросов о развитии ИИ. Недавно Илон Маск и другие технологические лидеры подписали письмо о прекращении разработки ИИ, более мощного, чем GPT-4.

Было ли его увольнение ошибкой?

Я так не думаю.

Во-первых, я не недооцениваю Блейка. Должность, которую он занимал в крупнейшей компании мира, не является детской забавой.

Вы можете считать Блейка разоблачителем, но он скорее безнадежный романтик, поймавший чувства во время разработки LaMDA. ИИ действительно стал опасным инструментом, но он и близко не обладает сознанием; по крайней мере, ничто не подтверждает это утверждение. Он может распознавать только шаблоны, и они очень хороши в этом.

Более того, GPT-3, GPT-4 и LaMDA — не что иное, как логические машины, способные предсказывать и предлагать решения сложных задач. Это пока что. Блейк действовал скорее как специалист по этике ИИ, а не как инженер.

Кроме того, он нарушил политику компании, распространив конфиденциальную информацию. Является ли Google злой корпорацией, это отдельная дискуссия, но хотели бы вы, чтобы кто-то вроде Блейка работал с вами? Я бы не стал.

Ресурсы:

Аудиоразговор между Блейком и ЛаМДА: (490) ЛаМДА | Является ли искусственный интеллект Google разумным? | Полная аудиозапись разговора между Блейком Лемуаном и ЛаМДА — YouTube

Спасибо за чтение! И, конечно же, поделитесь с нами своим мнением. Если вы хотите поддержать меня, пожалуйста, присоединяйтесь ко мне!