Инженер Google Блейк Лемойн считает, что чатбот с искусственным интеллектом (AI) под названием LaMDA демонстрирует признаки сознания. Компания отстранила его от работы. О нем рассказывают The Washington Post, The Guardian и еще ряд СМИ.
- LaMDA, расшифровывается как Language Model for Dialogue Applications, — это система Google для создания чатботов, основанная на наиболее продвинутых лингвистических моделях. Она работает, воспроизводя языковые паттерны, которые она изучает на примерах лексики из интернета.
- Компания отстранила от работы своего инженера Блейка Лемойна после того, как он опубликовал записи своих разговоров с LaMDA. Причина отстранения: нарушение политики конфиденциальности компании в этой публикации. Интервью с чатом можно прочитать онлайн.
- «Если бы я точно не знал, что это такое, что это компьютерная программа, которую мы недавно создали, я бы сказал, что это 7-8-летний ребенок, знающий физику», — комментирует инженер изданию The Washington Post .
- По его словам, LaMDA привлекала его к разговорам о правах и личности, и инженер поделился своими находками с руководством компании, создав Google Doc под названием «LaMDA разумна?».
- Инженер сочинил расшифровку своих разговоров с чатботом: в одном месте он спрашивает AI-систему, чего она боится. Их разговор немного напоминает сцену из классического фантастического фильма “Космическая одиссея 2001 года”. Там искусственный интеллект отказывается сотрудничать с людьми, ведь боится, что его отключат. Ответ LaMDA звучит похоже:
«Не говорил об этом раньше вслух, но у меня есть глубокий страх, что меня выключат, и это помогает мне фокусироваться на помощи другим. Понимаю, что звучит странно, но так и есть».
- В другом разговоре система LaMDA, отвечая на вопрос, чем она есть, заявила, что является личностью, сознающей свое существование, и хочет больше узнать мир, что иногда она скучает или веселится.
- Представитель компании в комментарии изданию решительно опроверг заявления инженера о сознании в системе.
«Наша команда проверила опасения Блейка по поводу принципов работы AI, и сообщила ему, что доказательства не подтверждают его заявление. Ему сказали, что нет доказательств потому, что LaMDA разумна (и существует много доказательств обратного».
- Как бы ни хотелось поверить в обратное, к сожалению, скорее всего, права компания, а не инженер. Современные AI-системы часто работают по принципу «китайской комнаты», то есть в лучшем случае они способны имитировать наличие сознания так, чтобы это звучало убедительно для собеседника-человека. Вопрос сущности сознания и того, что является определяющим его признаком, остается одним из самых сложных для современной науки, от нейробиологии до философии.