Власть роботов. Как подготовиться к неизбежному - Мартин Форд
Шрифт:
Интервал:
Закладка:
По поводу противостояния гибридного и «чистого» подхода на основе нейронных сетей можно сказать, что у сторонников глубокого обучения есть неотразимый аргумент. Очевидно, что в человеческом мозге нет отдельного компьютера, поддерживающего специальный алгоритм для всей той деятельности, которую не могли бы обеспечивать его нейронные сети. В нем есть только нейроны. Тем не менее мне кажется, что у гибридного подхода больше шансов принести практические результаты в ближней перспективе. Хотя биологическая эволюция пошла по пути чисто нейронной реализации, это не должно заслонять от нас возможность достижения более быстрого прогресса при использовании других методов. Не следует и отбрасывать жизнеспособные подходы только потому, что они кажутся неизящными. Мы высадились на Луну, не имея космического корабля из научной фантастики, способного снизиться, сесть, а затем улететь обратно. Мы применили намного более сложное — можно даже сказать, неуклюжее — решение, включавшее лунный модуль и много элементов, которые сбрасывались по ходу дела. Возможно, когда-нибудь у нас появится корабль как из научной фантастики, пока же мы просто осуществили прилунение.
Ключевые препятствия на пути к универсальному машинному интеллекту
Большинство исследователей ИИ признают: чтобы приблизиться к искусственному интеллекту человеческого уровня, потребуются значимые прорывы, однако мнения о том, какие именно изменения наиболее важны или какие вопросы следует решить в первую очередь, значительно расходятся. Ян Лекун часто приводит аналогию с преодолением горного хребта. Лишь поднявшись на первую вершину, вы сможете увидеть препятствия, ожидающие вас за ней. Преграды, которые нам предстоит преодолеть, неизбежно пересекаются с теми, что возникают на пути к созданию машин, способных в полной мере понимать естественный язык и участвовать в осмысленной свободной беседе. Давайте более детально познакомимся с некоторыми принципиальными проблемами, которые необходимо решить исследователям ИИ. Список не исчерпывающий, но машинный интеллект, который преодолеет эти препятствия, окажется намного ближе к универсальному ИИ, чем все существующее сегодня. Кроме того, система, действительно эффективно решающая любую из этих задач, наверняка станет основой практических разработок огромной коммерческой и научной ценности.
Рассуждение на основе здравого смысла
Под здравым смыслом мы, по сути, подразумеваем общее знание мира и его устройства. Мы опираемся на здравый смысл практически во всех аспектах нашей жизни, но особенно он важен в коммуникации. Здравый смысл восполняет недосказанное и позволяет нам концентрировать речь, опуская огромные объемы второстепенной информации.
Любой нормальный взрослый человек легко и непринужденно пользуется встроенным комплексом знаний, однако для машин это представляет колоссальную проблему. Наполнение искусственного интеллекта здравым смыслом — задача, тесно переплетающаяся со спорами вокруг символического или чистого нейронного подходов, а также с необходимостью встраивания структуры и знаний в ИИ-системы.
В последние годы наблюдается заметный прогресс в разработке ИИ-систем, способных анализировать текст и затем правильно отвечать на вопросы по нему. Например, в январе 2018 года программа, написанная Microsoft совместно с китайским технологическим гигантом Alibaba, сумела слегка превзойти средний человеческий уровень в тесте на понимание прочитанного, разработанном исследователями из Стэнфордского университета[188]. Стэнфордский тест состоит из вопросов на основе статей из «Википедии», правильным ответом на каждый из которых является фрагмент текста, «прочитанного» ИИ-системой. Иными словами, в данном случае демонстрируется не истинная способность понимать, а умение извлекать информацию и распознавать закономерности — в чем, как мы убедились, системы глубокого обучения невероятно сильны. Если для ответа на вопрос необходимо хотя бы малейшее проявление здравого смысла или имплицитное знание мира, то результаты ИИ в таких тестах резко «сдуваются».
Нагляднее всего проблемы ИИ-систем со здравым смыслом проявляются на примере сформулированных особым образом предложений — так называемых схем Винограда. Составленные Терри Виноградом, профессором компьютерных наук из Стэнфорда, эти предложения используют неоднозначные местоимения для проверки способности машинного интеллекта к рациональному мышлению в рамках здравого смысла.
Приведу пример[189].
Члены городского совета отказали демонстрантам в разрешении, потому что они боялись насилия.
Кто боялся насилия? Ответ очевиден практически каждому: члены городского совета.
Поменяем теперь всего одно слово в этом предложении.
Члены городского совета отказали демонстрантам в разрешении, потому что они поддерживали насилие.
Кто поддерживал насилие?
Замена «боялись» на «поддерживали» полностью меняет смысл местоимения «они». На этот вопрос невозможно ответить правильно, просто извлекая из предложения информацию. Нужно в какой-то мере понимать этот мир, а именно что члены городского совета предпочитают спокойствие и порядок на улицах, а разъяренные демонстранты могут быть склонны к насилию.
Вот еще несколько примеров. Альтернативное слово, меняющее смысл предложения, приводится в квадратных скобках.
Кубок не помещается в коричневый чемодан, потому что он слишком [большой/маленький].
Какой предмет слишком [большой/маленький]?
Школьный автобус подал предупреждающий сигнал грузовику, потому что он ехал очень [медленно/быстро].
Кто ехал очень [медленно/быстро]?
Том бросил школьный портфель Рэю, когда он оказался [вверху/внизу] лестницы.
Кто оказался [вверху/внизу] лестницы?
Отвечая на серию подобных вопросов, любой нормальный грамотный взрослый, скорее всего, покажет результат, близкий к идеальному. Поэтому порог прохождения этого теста должен быть очень высоким. Однако в случае схем Винограда самые лучшие компьютерные алгоритмы показывают результаты, лишь минимально превосходящие простое угадывание.
Одна из самых интересных программ по наделению машинного интеллекта здравым смыслом осуществляется в Институте искусственного интеллекта Пола Аллена в Сиэтле, штат Вашингтон. Генеральный директор института Орен Эциони сказал мне, что это начинание — проект Mosaic — родилось отчасти в результате попыток института реализовать мечту сооснователя Microsoft Пола Аллена об ИИ-системе, способной прочитать главу из учебника по естествознанию и ответить на приведенные в конце вопросы. По словам Эциони, несмотря на «шедевральные» усилия его команды по достижению этой цели результаты были неблестящими — обычно система получала балл, соответствующий оценке «два». Одним из камней преткновения оказалась способность проявлять здравый смысл и логику, отвечая на вопросы. ИИ-системе относительно легко изучить фактический материал, например о фотосинтезе из учебника биологии. Реальная трудность возникает, говорит Эциони, когда попадается вопрос наподобие: «Если растение в горшке, находящееся в темной комнате, переставить ближе к окну, как станут расти его листья — быстрее, медленнее или с прежней скоростью?»[190]. Чтобы ответить на него, нужно понимать, что вблизи окна света больше, и уметь сделать логический вывод, что это позволит растению расти быстрее.
Первая цель проекта Mosaic — составить стандартный набор контрольных показателей для оценки способности машин проявлять здравый смысл. Когда она будет выполнена, институт планирует применить различные методы, в том числе «краудсорсинг, обработку естественного языка, машинное обучение и машинное зрение»