Мозг: Ваша личная история - Дэвид Иглмен
Шрифт:
Интервал:
Закладка:
Внешний слой человеческого мозга, или кора, образует складки, чтобы ее поместилось как можно больше в пространстве черепа. Если расправить кору головного мозга взрослого человека, ее площадь составит 2500 квадратных сантиметров (как небольшая скатерть). Мозг крысы, наоборот, относительно гладкий. Несмотря на явные различия во внешнем виде и размере, на клеточном уровне оба мозга очень похожи.
Под микроскопом отличить нейрон крысы от нейрона человека практически невозможно. У мозга крысы и мозга человека сходные структуры, и они прошли одни и те же стадии развития. Крысы способны решать когнитивные задачи от различения запахов до нахождения выхода из лабиринта, и это позволяет исследователям соотносить активность их нейронов с выполнением тех или иных действий.
Вычислительные устройства не обязательно должны быть изготовлены из кремния – они могут состоять из движущихся капелек воды или деталей конструктора лего. Значение имеет не то, из чего сделан компьютер, а как взаимодействуют его составляющие.
Если эта гипотеза подтвердится, то теоретически мозг можно создать из любого материала. Если вычисления выполняются правильно, то все чувства и действия будут результатом сложных связей внутри нового материала. Теоретически можно взять другие клетки, а электричество заменить кислородом: средство не имеет значения, если все элементы должным образом соединены и правильно взаимодействуют. Так мы получим возможность «запускать» полностью работоспособную симуляцию личности в отсутствие биологического мозга. Согласно вычислительной модели, такая симуляция действительно будет эквивалентна исходной.
Вычислительная модель мозга является лишь гипотезой, то есть мы не знаем, верна ли она. В конце концов, вполне возможно, что в нашей биологии есть нечто особенное, еще неизвестное нам, и в этом случае мы привязаны к той биологии, с которой пришли в этот мир. Если же вычислительная модель верна, то разум может жить и в компьютере.
Если симулировать мозг все же возможно, возникает следующий вопрос: должны ли мы для этого копировать традиционный биологический путь или можно создать другую разновидность разума – изобретенного нами, с нуля?
Искусственный интеллект
Люди давно пытались создать думающие машины. Это направление исследований – искусственный интеллект – возникло еще в 1950-х гг. Первые исследователи были полны оптимизма, но проблема неожиданно оказалась чрезвычайно сложной. Скоро у нас появятся машины без водителя, а с тех пор, как компьютер победил шахматного гроссмейстера, прошло уже два десятилетия, однако цель создания действительно разумной машины еще не достигнута. В детстве мне казалось, что, когда я вырасту, уже появятся роботы, которые будут заботиться о нас и с которыми можно будет вести содержательную беседу. Тот факт, что до создания таких машин еще очень далеко, свидетельствует о сложности такой загадки, как работа мозга, а также о том, что мы находимся только в начале пути к раскрытию тайн Природы.
«Почему бы нам, вместо того чтобы пытаться создать программу, имитирующую ум взрослого, не попытаться создать программу, которая бы имитировала ум ребенка?» – писал Алан Тьюринг в 1950 г. В исследовательских лабораториях всего мира проводятся эксперименты с 29 одинаковыми роботами iCub, которые объединены в общую сеть и могут делиться своими знаниями.
Одна из последних попыток создать искусственный интеллект была предпринята в Англии, в Плимутском университете. Устройство под названием iCub представляло собой гуманоидного робота, который был задуман и спроектирован так, чтобы развиваться подобно ребенку. Обычно роботы программируются для выполнения определенных задач, но что, если роботов наделить способностью развиваться, как развивается младенец, – взаимодействуя с окружающим миром, подражая взрослым и обучаясь на примерах? В конце концов, дети появляются на свет, не умея ни ходить, ни говорить, однако они наделены любопытством, наблюдательностью и способностью к подражанию. Младенцы используют окружающий мир как учебник и учатся на примере. Способен ли робот вести себя так же?
iCub ростом с двухлетнего ребенка. У него есть глаза, уши и тактильные датчики, что позволяет ему взаимодействовать с окружающим миром и познавать его.
Если вы показываете iCub предмет и называете его («это красный мяч»), компьютерная программа сопоставляет зрительный образ объекта с вербальным обозначением. Таким образом, когда вы в следующий раз показываете красный мяч и спрашиваете, что это, робот ответит: «Красный мяч». Цель в том, чтобы каждое взаимодействие расширяло базу знаний робота. Изменяя связи в своей внутренней программе, он создает набор подходящих ответов.
Робот часто ошибается. Если вы покажете несколько предметов и попросите iCub назвать их, то услышите несколько ошибочных ответов и много раз повторенное «не знаю». Все это – составная часть процесса обучения и хорошая иллюстрация того, насколько сложно создать интеллект.
Я провел довольно много времени в лаборатории, взаимодействуя с iCub, и должен признаться, что это впечатляющий проект. Но чем дальше, тем очевиднее становился тот факт, что программу нельзя назвать разумной. Несмотря на большие глаза, дружелюбные интонации и детские движения, робот iCub не разумен. Он управляется строками программы, а не ходом мыслей. Хотя мы только приступаем к созданию искусственного интеллекта, я не могу удержаться от старого и глубокого философского вопроса: способны ли строки компьютерного кода думать? Робот iCub может ответить: «Красный мяч», – но воспринимает ли он красный цвет и понятие сферы? Делают ли компьютеры только то, на что запрограммированы, или они действительно накапливают внутренний опыт?
Может ли компьютер мыслить?
Можно ли компьютер запрограммировать таким образом, чтобы он обладал сознанием, разумом? В 1980-х гг. философ Джон Серл предложил мысленный эксперимент, который обращается к самой сути этого вопроса. Серл назвал его «Китайская комната».
Эксперимент устроен следующим образом. Я сижу в запертой комнате. Через узкую щель мне передают листки с вопросами на китайском языке. Я не знаю китайского. Я понятия не имею, что написано на этих листках бумаги. Но в комнате у меня есть библиотека с пошаговыми инструкциями, которые подробно объясняют, что делать с полученными символами. Я смотрю на символы и просто выполняю инструкцию из книги, в которой объясняется, из каких китайских иероглифов должен состоять ответ. Я записываю их и просовываю листок в щель.
В мысленном эксперименте «Китайская комната» человек в каморке манипулирует символами. Это вводит в заблуждение носителя языка, который думает, что человек в каморке знает китайский.
Когда человек, знающий китайский язык, получает мой ответ, записка кажется ему осмысленной. Создается впечатление, что тот, кто находится в комнате, должен понимать по-китайски – ведь он дает правильные ответы. Я обманул носителя языка, поскольку только выполнял инструкции, на самом деле не понимая, что происходит. Имея в своем распоряжении достаточно времени и достаточный набор инструкций, я могу ответить почти на все вопросы на китайском языке. Но я не понимаю китайского языка, а только манипулирую символами, не имея ни малейшего представления, что они означают.
Серл утверждал, что именно это и происходит внутри компьютера. Независимо от сложности программы, например, как у iCub, она лишь выполняет набор инструкций, чтобы выдать нужный ответ, – манипулирует символами, не понимая смысла своих действий.
Примером реализации этого принципа может служить Google. Когда вы отправляете запрос, поисковая система не понимает ни вашего вопроса, ни своего ответа: она просто пропускает нули и единицы через логический фильтр и возвращает вам нули и единицы. С помощью такой потрясающей программы, как Google Translate, я могу ввести фразу на суахили и получить перевод на венгерский. Но все это делает алгоритм. Он манипулирует символами, как человек в «Китайской комнате». Google Translate не понимает предложение, которое переводит; оно для него не имеет смысла.
Эксперимент «Китайская комната» показывает, что создаваемые нами компьютеры, которые имитируют человеческий интеллект, на самом деле не понимают, о чем идет речь; все их действия лишены смысла. Серл использовал этот мысленный эксперимент для доказательства того, что в мозгу человека есть нечто такое, что невозможно объяснить посредством аналогии с цифровым компьютером. Между бессмысленными символами и нашим сознательным восприятием пролегает глубокая пропасть.
Споры по поводу интерпретации «Китайской комнаты» продолжаются, но в любом случае этот аргумент подчеркивает удивительную загадку: каким образом физические элементы складываются в наше ощущение себя как живого существа в этом мире. При любой попытке симулировать или создать разум, подобный человеческому, мы сталкиваемся с главным из неразрешенных вопросов нейробиологии: как такое богатое и глубоко субъективное явление, как сознание – укол боли, краснота красного, вкус грейпфрута, – возникает из миллиардов маленьких клеток мозга, выполняющих простейшие операции? Сама по себе клетка может немногое. Каким образом миллиарды этих действий складываются в субъективное восприятие собственной личности?