Категории
Самые читаемые
Лучшие книги » Разная литература » Прочее » Будущее разума - Митио Каку

Будущее разума - Митио Каку

Читать онлайн Будущее разума - Митио Каку

Шрифт:

-
+

Интервал:

-
+

Закладка:

Сделать
1 ... 59 60 61 62 63 64 65 66 67 ... 96
Перейти на страницу:

Программируя эмоции

До этого момента мы избегали вопроса о том, как именно можно запрограммировать эмоции для компьютера. Эмоции настолько сложны, что программировать их, вероятно, придется в несколько этапов.

Первое. Простейшая часть задачи — распознавание эмоции путем анализа выражения лица человека, положения его губ, бровей, тона голоса. Сегодняшние технологии распознавания лиц уже способны составить словарь эмоций, т.е. определить, что означают определенные выражения лица. Этот процесс, надо сказать, восходит еще к Чарльзу Дарвину, который потратил немало времени на составление каталога эмоций, общих для животных и человека.

Второе. Робот должен очень быстро отреагировать на эту эмоцию. Это тоже несложно. Если кто-то рядом смеется, робот улыбнется. Если кто-то сердится, робот уберется с его пути и постарается избежать конфликта. В программу робота будет зашита большая энциклопедия эмоций, поэтому он будет знать, как быстро отреагировать на любую из них.

Третье. Эта стадия может оказаться самой сложной, поскольку речь здесь идет о попытке определить внутреннюю мотивацию, лежащую за первоначальной эмоцией. Это сложно, поскольку одна и та же эмоция может возникнуть в очень разных ситуациях. Смех может означать, что человек счастлив, что он услышал смешную шутку или увидел, как кто-то упал в лужу. Смех может означать и то, что человек нервничает, тревожится или хочет кого-то оскорбить. Точно так же, если человек кричит, это может означать чрезвычайную ситуацию, а может — неожиданную радость или удивление. Определять причину эмоции — искусство, в котором даже люди испытывают трудности. Чтобы сделать это, роботу придется перебрать все возможные причины данной эмоции и попытаться определить самую вероятную из них. Это означает найти причину, которая наилучшим образом соответствовала бы всем имеющимся данным.

И четвертое. Определив причину эмоции, робот должен будет соответствующим образом на нее отреагировать. Это тоже непросто, потому что в любой ситуации, как правило, есть несколько вариантов реакции, а неверная реакция может серьезно ухудшить дело. В программе робота, конечно, должны присутствовать все варианты ответа на ту или иную эмоцию, и робот должен будет определить, какой из них лучше всего подходит для конкретной ситуации. А это значит, что он должен будет моделировать будущее.

Будут ли роботы лгать?

Обычно мы представляем себе роботов холодными и рациональными аналитиками, всегда говорящими правду. Но если роботы будут интегрированы в общество людей, им, вероятно, придется научиться лгать или по крайней мере тактично воздерживаться от комментариев.

Сами мы практически каждый день сталкиваемся с ситуациями, когда приходится говорить безобидную ложь. Если человек спрашивает, как он выглядит, мы зачастую не отваживаемся сказать ему правду. Безобидная ложь — это смазка, благодаря которой крутятся шестеренки общества. Если бы вам вдруг пришлось говорить только чистую правду, причем всю (как делал это герой Джима Керри в фильме «Лжец, лжец»), дело, скорее всего, кончилось бы полным хаосом и людскими страданиями. Окружающие обижались бы, когда вы искренне говорили бы им, как они на самом деле сегодня выглядят или что вы на самом деле чувствуете по отношению к ним. Начальник поспешил бы вас уволить. Возлюбленная бы вас бросила. Друзья отвернулись бы от вас, а посторонние норовили бы побить. Некоторые мысли лучше держать при себе.

Точно так же и роботам, возможно, придется научиться лгать или скрывать правду, иначе дело кончится тем, что они начнут оскорблять людей, а владельцы начнут отказываться от своих роботов. Правда, сказанная роботом на какой-нибудь вечеринке, может вызвать скандал и плохо отразиться на его хозяине. Так что роботам, если им будут задавать вопросы, придется освоить искусство дипломатии и такта и научиться уходить от ответа. Они должны будут научиться отвечать уклончиво, менять тему, ограничиваться банальностями, отвечать вопросом на вопрос или просто врать (кстати, сегодняшние интернет-боты с каждым днем все лучше справляются с этой задачей). Это означает, что в робота будет заранее зашит целый список возможных уклончивых ответов, и ему останется только выбрать тот из них, который вызовет наименьшее число осложнений.

Одной из немногих ситуаций, в которых робот обязан будет сказать полную правду, будет прямой вопрос хозяина; понятно, что, задавая такой вопрос, хозяин должен понимать, что ответ, каким бы неприятным ни оказался, будет абсолютно честным. Возможно, еще одной такой ситуацией будет полицейское расследование, где необходима абсолютная правда. В остальных случаях роботы смогут свободно лгать или утаивать часть правды, чтобы колеса общественной жизни не переставали крутиться.

Иными словами, роботам придется социализироваться, как подросткам.

Чувствуют ли роботы боль?

Скорее всего, роботам будут доставаться в первую очередь задачи монотонные, грязные и опасные. Им ничто не мешает делать одно и то же действие или одну и ту же работу до бесконечности, потому что мы не станем программировать их ни на скуку, ни на отвращение. Реальная проблема появится, когда роботы столкнутся с опасными заданиями, и в этот момент нам, возможно, придется запрограммировать их на ощущение боли.

Боль появилась в процессе эволюции потому, что это ощущение помогает выжить в опасной обстановке. Существует генетический дефект, при котором ребенок рождается неспособным ощущать боль. Называется это врожденной аналгезией. На первый взгляд такое свойство может показаться благословением (ведь эти дети не плачут, когда поранятся), но на деле это скорее проклятие. Дети с таким нарушением постоянно находятся в серьезной опасности: они нередко откусывают себе кусочек языка, могут сильно обжечься или порезаться, что часто ведет к ампутации пальцев. Боль предупреждает нас об опасности и говорит, когда нужно убрать руку от горячей плиты или перестать бегать на подвернувшейся ноге.

В какой-то момент роботов обязательно нужно будет запрограммировать на чувство боли, иначе они не смогут понять, как избежать рискованных ситуаций. Первым болезненным ощущением для них должен стать голод (т.е. чувство нехватки электроэнергии). По мере разрядки батарей робот должен будет чувствовать все более отчаянную и настоятельную нужду в электричестве, понимая, что скоро его схемы перестанут действовать и «жизнь» остановится. Чем ближе этот неприятный момент, тем тревожнее будет роботу.

Кроме того, каким бы сильным ни был робот, он может случайно поднять слишком тяжелый предмет, отчего у него могут сломаться конечности. Или он может перегреться, работая с расплавленным металлом на сталелитейном заводе или входя в горящий дом, чтобы помочь пожарным. Датчики температуры и напряжения предупредят робота о том, что параметры окружающей среды вышли за пределы его возможностей.

Но если добавить боль в меню эмоций робота, это сразу же поставит перед нами серьезные этические проблемы. Многие сегодня считают, что не следует причинять животным ненужные страдания, а завтра наверняка появятся люди, которые перенесут это отношение и на роботов, открыв тем самым двери проблеме прав роботов. Не исключено, что нам придется принимать законы, ограничивающие опасности, которым можно будет подвергать роботов. Люди не будут протестовать, если роботу выпадет скучная или грязная работа, но боль при выполнении опасных заданий — другое дело; не исключено, что найдутся люди, которые станут лоббировать принятие законов о защите роботов. Может возникнуть даже юридический конфликт, в ходе которого владельцы и производители роботов будут выступать за повышение допустимого уровня страданий для роботов, а специалисты по этике — за его снижение.

В свою очередь, это может инициировать новые этические дебаты на тему других прав роботов. Могут ли роботы владеть имуществом? Что произойдет, если робот случайно нанесет человеку вред? Можно ли подать на робота в суд или наказать его? Кто отвечает за робота в суде? Может ли робот владеть другим роботом? Это обсуждение повлечет за собой еще один спорный вопрос: нужно ли снабжать роботов этическим чувством?

Этичные роботы

Поначалу сама мысль об этичных роботах кажется пустой тратой времени и усилий. Однако вопрос становится насущным, если подумать о том, что роботы будут принимать решения по вопросам жизни и смерти. Они будут физически сильны и способны спасти жизнь человека в критической ситуации, поэтому им неизбежно придется принимать мгновенные решения о том, кого следует спасать первым.

Представим, что происходит землетрясение и в стремительно рушащемся здании заперта группа детей. Как должен робот распределить свою энергию? Должен ли он спасти как можно больше детей? Или ему следует спасать самых маленьких? Или самых беззащитных? Если обломки здания окажутся слишком крупными, робот, пытаясь их разобрать, может повредить свои электронные схемы. Так что роботу придется решать и еще один этический вопрос: как взвесить на одних весах число спасенных детей и степень повреждения его собственной электроники?

1 ... 59 60 61 62 63 64 65 66 67 ... 96
Перейти на страницу:
На этой странице вы можете бесплатно скачать Будущее разума - Митио Каку торрент бесплатно.
Комментарии