Жадность, хрупкость, непрозрачность и мелочность: что не так с ИИ на основе глубинного обучения

4060
5

Хотя мы ежедневно и слышим, что искусственный интеллект перевернет рынок труда или придет на смену человеку, далеко не все разделяют подобный энтузиазм. Колумнист журнала Wired Джейсон Понин считает, что современный ИИ на основе глубинного обучения — ограниченная в своих возможностях структура. У него есть сильные и слабые стороны, но о соперничестве с человеческим интеллектом говорить рано. Редакция AIN.UA приводит адаптированный перевод материала.

CEO Google Сундар Пичаи заявил, что «ИИ важнее электричества и огня». Основатель Google Brain, а также инвестор ряда ИИ-стартапов Эндрю Ын написал, что «если обычный человек может решить интеллектуальную задачу менее чем за секунду, почти наверняка ее можно автоматизировать при помощи ИИ — сейчас или в ближайшем будущем».

Этот энтузиазм простителен. После десятилетий фрустрации, в области ИИ произошли серьезные достижения. Сегодня мы можем сказать голосовым ассистентам вроде Alexa «Включи группу Television» или положиться на Facebook при отметках на фотографиях. Google Translate переводит почти так же точно, как и человек-переводчик. За последние пять лет миллиарды долларов были вложены в исследования, а также венчурный капитал сферы ИИ. Это самый популярный курс среди всех компьютерных программ MIT и Стэнфорда. В Долине новоиспеченные специалисты получают по полмиллиона долларов деньгами и акциями.

Но существует много вещей, которые люди могут делать быстро — а машины не могут вовсе. Естественный язык не подвластен глубокому обучению. Новые ситуации сбивают искусственный интеллект с толку, будто корову, выросшую в загоне для скота. Ни один из этих недостатков в ближайшее время не решится. Как только вы это увидите, развидеть обратно уже не получится: глубинное обучение, ныне доминирующая технология в области ИИ, не приведет к созданию алгоритма, способного абстрактно анализировать и объяснять мир. Сама по себе она вряд ли позволит автоматизировать человеческие занятия.

Чтобы увидеть, почему ИИ так хорош в некоторых вещах, но плох во всем остальном, следует понять как работает глубинное обучение. Условно, это математика: статистический метод, при котором компьютеры учатся определять паттерны, используя нейронные сети. Как и нейроны в нашем мозге, они обрабатывают входящие и исходящие сигналы. «Глубина» заключается в том, что они применяют несколько скрытых слоев, сплетенных и хитроумно соединенных вместе. Глубинное обучение опирается на метод обратного распространения ошибки. Этот алгоритм регулирует математический «вес» разных узлов, чтобы правильные вводные давали верные производные.

При распознавании звука фонема «к-о-т» должна инициировать слово «кот», при распознавании изображений фотографию кота нельзя помечать «собака», при переводе фраза «qui canem et faelem ut deos colunt» должна превращаться в «кто почитает собак и котов как богов». Глубинное обучение преуспевает, когда нейронные сети натренированы узнавать фонемы, фотографии или взаимоотношения между латинским и английским — все благодаря миллионам точных, отсортированных примеров. 

Преимущества глубинного обучения — результат распознавания паттернов. Нейронные сети запоминают классы вещей, а потом более-менее хорошо узнают их вновь. Но почти любые мыслительные проблемы не ограничиваются классификацией. Как говорит исследователь из Google Франко Чолле:

Люди наивно полагают, что если вы масштабируете их в 100 раз новыми слоями, а еще добавите в 1000 раз больше данных, тогда нейронные сети научатся тому же, что умеет человек. Но это неправда.  

Гэри Маркус, профессор когнитивной психологии в Нью-Йоркском университете и временный директор ИИ-лаборатории Uber недавно опубликовал замечательную трилогию эссе, предлагающих критический взгляд на глубинное обучение. Маркус уверен, что этот способ — «не универсальное решение, но лишь один из инструментов». И без новых подходов Гэри беспокоится, что ИИ движется навстречу стене, а за ее пределами останутся все проблемы, которые нельзя решить распознаванием паттернов. Почти все лидеры индустрии поддержали его точку зрения, кроме главы ИИ-исследований в Facebook Яна Лекуна, который назвал аргументы Маркуса «полностью неправильными», а также Джеффри Хинтона, одного из прародителей метода обратного распространения ошибки.

По мнению скептиков вроде Маркуса, глубинное обучение — жадный, хрупкий, непрозрачный и мелочный метод. Система жадная, поскольку требует внушительных датасетов с тренировочными данными. Хрупкая, потому что когда нейронные сети подвергают «трансфер-тесту» — то есть сталкивают с отличными от привычных примеров ситуациями — они не могут констектуализировать ситуацию и оказывают бесполезны. Они непрозрачны, поскольку в отличие от традиционных программ с их формальным, легко читаемым кодом, параметры нейронной сети могут быть интерпретированы только в контексте их веса в математической «географии». Вследствие этого они напоминают черные ящики, чьи результаты невозможно объяснить, а это подымает вопрос о надежности и предвзятости. Наконец, они мелочны, поскольку разработаны без каких-то общих знаний и представлений об устройстве мира или человеческой психологии.

Эти ограничения значат, что большая часть ИИ-автоматизации окажется недостижимой, несмотря на прогнозы любителей преувеличить. Автор книги The Master Algorithm Педро Домингос объясняет:

Самоуправляемая машина может проехать миллионы миль, но рано или поздно она встретится с тем, насчет чего у нее нет опыта. Или возьмите контроль роботов: он может научиться подымать бутылку, но стоит заставить его поднять чашку, как все начнется сначала.

В январе Facebook закрыл M, текстового виртуального ассистента, который полагался на ответы людей для дополнения и тренировки системы глубинного обучения, но никогда не предлагал ничего полезного и плохо справлялся с интерпретацией естественного языка. 

Что же пошло не так? Домингос объясняет: «Может оказаться, что у нас в головах лучшие алгоритмы обучения чем все те, что мы сообразили для машин». Нам необходимо изобрести лучшие методы машинного обучения, вторят скептики. Лекарством для ИИ может стать синкретизм: комбинирование глубинного обучения с методами, которые не так полагаются на тренировочные датасеты, как на старое-доброе объяснение мира по логическим правилам, доминирующим в ИИ до прихода глубинного обучения. Маркус говорит, что наша лучшая модель для такого интеллекта — сами люди. Его ребенок может усваивать общие языковые правила и без множества примеров, но ведь у него были врожденные способности.

Мы рождаемся со знанием про общее положение вещей: целое можно создать из частей, мир состоит из мест и объектов, существующих в пространстве и времени. Ни одна машина такого не выучит с методом обратного распространения ошибки.

У других исследователей свои идеи. Домингос, к примеру, говорит что такие базовые парадигмы для машинного обучения использовались с начала 50-х, но теперь нужны новые концепты. Чолле ищет вдохновения в программном синтезе — разработке софта, который пишет другие программы. Последнее исследование Хинтона формулирует идею так называемых «капсул», которые сохраняет использование метода обратного распространения ошибки, но убирают его ограничения. 

Множество ключевых вопросов остаются без ответа. Но их пора раскрыть, поскольку существуют задачи, которыми люди просто не хотят заниматься вроде мытья туалетов или классификации порнографии. Умные машины также могут делать что-то лучше вроде поиска лекарств для лечения. Более того: существуют вещи, которых мы не сможем делать вообще, но их еще предстоит представить.

Оставить комментарий

Комментарии | 5

  • ии по большому счету, это робот который дает заранее подготовленные ответы на поставленные вопросы. ответы заложены в него изначально, или получены методом анализа больших даных.

    покажите ии как дети играют в футбол и спросите через 15 минут в чем суть и что нужно делать. почти любой ребенок даст ответ. сомневаюсь, что ии сделает то же самое…

    • Покажите обычному взрослому человеку как играют в кёрлинг и спросите через 15 мин в чем суть и что нужно делать)))

    • более новая версия ИИ — AlphaGo Zero смогла сама обучиться игре в шахматы и го за несколько часов и победила лучшие аналогичные алгоритмы, причем она училась не на бигдате, а играла сама с собой
      https://rb.ru/news/alpha-zero/

      • «Для этого алгоритм не обучали побеждать, а давали только базовые знания о правилах игры. AlphaZero затем играл сам с собой и самостоятельно вырабатывал тактику.»

        из этого следует:
        1) алгоритму изначально задали правила игры. в случае с шахматами он понимал какая фигура ка должна ходить и что считать победой
        2) алгоритм сам генерировал «большие данные» и на них же обучался. т.е. сначала генерация большого количества вариантов ходов / игр, дальше анализ успешных игр, и дальше обучения на успешной выборке. думаю, за пару часов тот комп смог сыграть сам с собой миллионы партий, если не миллиарды.

        в любом случае это отличается от моего примера, так как ИИ изначально получает ориентиры, что считать успехом, а что не считать…

  • А для каких задач нужно, чтобы ИИ мыслил как человек? Чтобы у этого ИИ родилась идея запустить машину на Марс? Тогда ИИ должен иметь эмоции, желание и стремление как у человека. Вот про туалеты правильно написали — почему нет роботов уборщиков в квартирах — я б купил)

Поиск