Капеллан дьявола: размышления о надежде, лжи, науке и любви - Ричард Докинз
Шрифт:
Интервал:
Закладка:
Я буду называть эти три аргумента “аргументами вселенского дарвинизма”. Я уверен, что это аргументы как раз из той серии, существование которой предполагал Крик, хотя примет ли он или кто-либо другой именно эти три конкретных аргумента, это уже другой вопрос. Если они верны, они будут дополнением огромной силы к обоснованию дарвинизма.
Подозреваю, что другие умозрительные аргументы о природе жизни во всей вселенной, более убедительные и надежные, чем мои, еще ждут своих первооткрывателей, лучше подготовленных, чем я. Но я не могу забыть, что собственное торжество Дарвина, хотя его и мог бы породить мысленный взор любого кабинетного ученого во вселенной, в действительности было побочным результатом пятилетнего кругосветного путешествия по этой конкретной планете.
К вопросу об информации[115]
В сентябре 1997 года я впустил в свой оксфордский дом австралийскую съемочную группу, не понимая, что ее целью была пропаганда креационизма. В ходе подозрительно непрофессионального интервью эти люди в язвительном тоне предложили мне “привести пример генетической мутации или эволюционного процесса, в отношении которого можно убедиться, что он увеличивает количество информации в геноме”. Это один из вопросов, которые в такой форме станет задавать только креационист, и только тут до меня дошло, что меня обвели вокруг пальца и я даю интервью креационистам — чего я обычно не делаю, имея на то веские основания[116]. Я был так возмущен, что отказался продолжать обсуждение этого вопроса и велел им выключить камеру. Однако в итоге я согласился продолжить разговор: они стали жаловаться на то, что приехали аж из Австралии только для того, чтобы взять у меня интервью. Даже если это и было сильным преувеличением, мне все же показалось, по зрелом размышлении, что будет неблагородно разорвать разрешение на показ и вышвырнуть их из дома. Поэтому я уступил.
Мое благородство было вознаграждено таким манером, какого мог бы ожидать любой человек, знакомый с приемами фундаменталистов. Когда я увидел этот фильм год спустя[117], то обнаружил, что он был смонтирован так, чтобы у зрителя сложилось ложное впечатление, будто я оказался неспособен ответить на вопрос о количестве информации[118]. Справедливости ради следует признать, что это мог быть не такой уж преднамеренный обман, как может показаться. Эти люди действительно верят, что на этот вопрос невозможно ответить! Как это ни смешно, похоже, они специально приехали из Австралии только для того, чтобы заснять, как у эволюциониста не получается на него ответить.
Задним числом, учитывая, что меня все равно уже надули, добившись, чтобы я впустил их в дом, можно подумать, что было разумнее просто ответить на этот вопрос. Но я хочу, чтобы меня понимали всякий раз, когда я открываю рот (меня ужасает перспектива ослепить людей наукой), а этот вопрос не из тех, на которые можно ответить в двух словах. Вначале нужно разъяснить значение слова “информация” как специального термина. Далее разъяснить, как он связан с эволюцией, что тоже довольно сложно — не то чтобы трудно, но требует времени. Однако вместо того, чтобы погружаться в дальнейшие рассуждения на тему “кто виноват” и споры о том, что на самом деле случилось во время этого интервью, я сейчас попытаюсь исправить дело конструктивным способом, ответив на тот самый вопрос об информации достаточно развернуто — насколько это позволяет объем обычной статьи.
Определение слова “информация” как специального термина впервые дал американский инженер Клод Шеннон в 1948 году. В компании “Белл телефон” Шеннон занимался проблемой измерения количества информации как предмета экономического потребления. Посылать сообщения по телефонным проводам довольно дорого. Значительная часть того, что передается в этих сообщениях, не содержит информации — эта часть избыточна. Можно сэкономить деньги, записав сообщение и избавившись от этой избыточности. “Избыточность” — это еще один специальный термин, который Шеннон определил как нечто обратное информации. Оба его определения математического свойства, но интуитивный смысл того, что Шеннон имел в виду, можно передать словами[119]. Избыточность — это та часть любого сообщения, которая неинформативна потому, что она уже известна получателю (и ничуть его не удивит), либо потому, что она повторяет другие части того же сообщения. В предложении “Ровер — собака породы пудель” слова “собака” и “породы” избыточны, потому что слово “пудель” уже говорит нам, что Ровер — собака соответствующей породы. Из телеграммы эти слова можно было бы убрать для экономии, тем самым увеличив информативность сообщения. Сообщение “Приб ДжФК пт веч пжлст встр БЭ кнкрд” несет ту же информацию, что и более длинное, но более избыточное “Я прибываю в аэропорт им. Джона Ф. Кеннеди в пятницу вечером; пожалуйста, встречайте ‘Конкорд[120] компании ‘Бритиш эйрвеэйз5”. Очевидно, что послать краткий вариант, записанный в телеграфном стиле, будет дешевле (хотя получателю, возможно, и придется изрядно потрудиться, чтобы его расшифровать — у избыточности есть свои достоинства, если забыть об экономичности) . Шеннон хотел найти математический способ передать идею, что любое сообщение можно разбить на информацию, избыточность (которую можно — и экономически выгодно — исключать из сообщения, потому что получатель может при желании ее восстановить) и шумы (просто случайная белиберда).
Сообщение “В Оксфорде на этой неделе ежедневно шел дождь” несет сравнительно мало информации, потому что получателя оно не удивит. С другой стороны, количество информации в сообщении “В пустыне Сахара на этой неделе ежедневно шел дождь” намного больше и вполне стоит того, чтобы подороже заплатить за его пересылку. Шеннон хотел как-то передать этот смысл количества информации как “меры удивительности”. Он связан с другим смыслом (как “того, что не продублировано в других частях сообщения”), потому что повторы теряют свою способность удивлять. Заметьте, что шенноновское определение количества информации не зависит от того, истинна ли она. Придуманная им мера информации была остроумна и интуитивно соответствовала задаче. Давайте, предложил он, оценим количество незнания или неопределенности знаний получателя до получения сообщения, а затем сравним его с количеством оставшегося незнания после получения сообщения. Сокращение количества незнания и будет количеством переданной информации. Шенноновская единица измерения информации — бит (bit), от binary digit (двоичная цифра). Один бит определяется как количество информации, необходимое, чтобы первоначальная неопределенность сократилась вдвое, как бы велика она ни была (читатели-математики заметят, что бит, таким образом, относится к логарифмическим единицам измерения).
На практике вначале нужно найти способ измерения априорной неопределенности — той, что сокращается, когда поступает информация. Для некоторых разновидностей простых сообщений это легко сделать с помощью вероятностей. Будущий отец с нетерпением наблюдает через окошко за рождением своего ребенка. Ему не видно почти ничего, поэтому одна из медсестер согласилась показать ему розовую карточку, если родится девочка, или голубую, если родится мальчик. Сколько информации передается, когда сестра показывает счастливому отцу, скажем, розовую карточку? Ответ — один бит (априорная неопределенность сократилась вдвое). Отец знает, что родился какой-то ребенок, поэтому неопределенность его знаний сводится к двум возможностям (мальчик или девочка), которые для целей этого обсуждения можно считать равновероятными. Розовая карточка вдвое сокращает априорную неопределенность от двух возможностей до одной (девочка). Если бы никакой розовой карточки не было, а из родильной комнаты вышел бы врач, пожал бы новоиспеченному отцу руку и сказал: “Поздравляю, старина, я очень рад, что мне выпала честь первым вам сообщить, — у вас родилась дочь”, то количество информации, переданной этим сообщением в семнадцать слов, составило бы по-прежнему один бит.
Компьютерная информация содержится в последовательностях нолей и единиц. Есть только два возможных варианта, поэтому 0 или 1 в каждом положении содержит один бит информации. Объем памяти компьютера или емкость диска или ленты часто измеряется в битах и представляет собой суммарное число нолей или единиц, которые это устройство может содержать. Для некоторых целей более удобной единицей измерения служит байт (восемь бит), килобайт (тысяча байт), мегабайт (миллион байт) или гигабайт (тысяча миллионов байт)[121]. Заметьте, что эти числа относятся к суммарной имеющейся емкости. Это максимальное количество информации, которую можно записать на данное устройство. Реальное количество записанной информации — это нечто иное. К примеру, емкость моего жесткого диска — 4,2 гигабайт. Из них в настоящий момент около 1,4 гигабайт реально использованы для хранения данных. Но даже это не настоящее количество информации (в шенноновском смысле слова) на моем диске. Настоящее количество информации меньше, потому что ту же информацию можно записать экономнее. Некоторое представление о настоящем количестве информации можно получить, воспользовавшись одной из замечательных программ-архиваторов вроде Stuffit. Эта программа ищет избыточность в последовательности нолей и единиц и ощутимо сокращает эту последовательность путем перекодировки, очищая ее от внутренней предсказуемости. Максимального сжатия информации можно было бы добиться (на практике это, по-видимому, невозможно), если бы каждая единица или ноль удивляли бы нас в равной степени. Прежде чем передавать большие объемы информации через интернет, ее обычно архивируют, сокращая ее избыточность[122].