Модели разума. Как физика, инженерия и математика сформировали наше понимание мозга - Lindsay Grace
Шрифт:
Интервал:
Закладка:
Истинные ГУТ стремятся к конденсированию. Они переплавляют разнообразную информацию в компактную и легко усваиваемую форму. Благодаря этому GUT кажутся удовлетворительными, потому что они дают ощущение, что работу мозга можно полностью охватить одним взглядом. Такие модели, как SPAUN и симуляция Blue Brain Project, однако, являются экспансивными. Они привлекают множество источников данных и используют их для построения сложной структуры. Таким образом, они жертвуют интерпретируемостью ради точности. Их цель - объяснить все, включив в себя все, что можно объяснить.
Хотя, как и в случае со всеми другими моделями, даже эти, более обширные, все равно не являются идеальными копиями. Создателям этих моделей все равно приходится выбирать, что включать, а что не включать, что объяснять, а что игнорировать. Если стремиться к чему-то сродни ГУТ, всегда хочется найти простейший набор принципов, способный объяснить наибольший набор фактов. С таким плотным и запутанным объектом, как мозг, этот простой набор может оказаться довольно сложным. Заранее знать, какой уровень детализации и какой масштаб потребуется для отражения соответствующих особенностей работы мозга, невозможно. Прогресс в этом вопросе возможен только благодаря построению и тестированию моделей.
В целом, нейронаука поддерживает очень плодотворные отношения с более "тяжелыми", количественными науками. Она получила множество подарков от таких наук, как физика, математика и инженерия. Эти аналогии, методы и инструменты изменили представление обо всем - от нейронов до поведения. А изучение мозга дало ответную отдачу, став источником вдохновения для искусственного интеллекта и полигоном для испытания математических методов.
Но нейронаука - это не физика. Она не должна играть роль младшего брата или сестры, пытаясь в точности следовать по стопам этой более старой дисциплины. Принципы, которыми руководствуется физика, и стратегии, которые привели ее к успеху, не всегда будут работать, если применить их к биологии. Поэтому вдохновение следует воспринимать с осторожностью. При создании моделей разума эстетика математики не является единственным путеводным маяком. Скорее, это влияние должно всегда взвешиваться с уникальными реалиями мозга. При правильном балансе хитросплетения биологии можно свести к математике таким образом, чтобы получить истинное понимание и не подвергнуться чрезмерному влиянию других областей. Таким образом, изучение мозга прокладывает свой собственный путь к использованию математики для понимания мира природы.
Математическое приложение
Глава 2: Как нейроны получают спайки
Лапик разработал уравнение, описывающее, как напряжение на мембране клетки меняется с течением времени. Уравнение основано на тех, которые используются для описания электрических цепей. В частности, напряжение, V(t), определяется в соответствии с уравнением для цепи с параллельно включенными сопротивлением (R) и емкостью (C):
где t = RC. Внешний вход в клетку (от экспериментатора или воздействия другого нейрона) представлен I(t). Таким образом, клеточная мембрана интегрирует этот внешний входной ток с некоторой утечкой.
Уравнение Лапика не отражает того, что происходит с мембранным потенциалом во время потенциала действия. Однако мы можем добавить простой механизм, который указывает, когда мембрана клетки достигла своего порога и вызовет спайк. В частности, чтобы превратить это уравнение в модель нейрона, который стреляет, напряжение сбрасывается в состояние покоя (Vrest ), как только оно
достигает порога спайка (Vthresh ):
Это не имитирует сложную динамику потенциала действия (для которой нужна модель Ходжкина-Хаксли), но обеспечивает простой способ вычисления времени спайка.
Глава 3: Учимся вычислять
Перцептрон - это однослойная искусственная нейронная сеть, которая может обучаться выполнению простых задач классификации. Обучение происходит за счет обновления весов между входными и выходными нейронами, которые рассчитываются на основе конкретных примеров входных и выходных сигналов.
Алгоритм обучения начинается с набора случайных весов, по одному для каждого из N двоичных входов, xn. Выходная классификация, перцептрона рассчитывается как:
где b - смещение, сдвигающее порог. При обучении каждая запись w обновляется в соответствии с правилом обучения:
где - правильная классификация, а - скорость обучения. Если xn равно единице, то знак разности между правильной классификацией и выходом перцептрона будет определять способ обновления. Если xn или разница равны нулю, обновление не происходит.
Глава 4: Создание и сохранение воспоминаний
Сеть Хопфилда представляет воспоминания как паттерны нейронной активности. Связи между нейронами позволяют сети реализовать ассоциативную память - то есть полное воспоминание можно получить, активировав его подмножество.
Сеть состоит из N ячеек, взаимодействия между которыми определяются в соответствии с симметричной матрицей весов (W). Каждая запись (nm ) в этой матрице определяет силу связи между ячейками n и m. В каждый момент времени состояние активности для каждой ячейки (cn для n=1...N) обновляется в соответствии с:
где n - пороговое значение.
Каждая память, i, представляет собой вектор длины N, определяющий состояние активности каждого нейрона. Если активность сети изначально установлена на зашумленную, частичную версию памяти, она будет развиваться до состояния аттрактора этой памяти (определяемого i), и в этот момент активность сети c перестанет меняться.
Весовая матрица определяется хранящимися в сети воспоминаниями.
Поэтому пары нейронов с одинаковой активностью во многих воспоминаниях будут иметь сильные положительные связи; пары с противоположной активностью будут иметь сильные отрицательные связи.
Глава 5: Возбуждение и торможение
Сети с соответствующим балансом между возбуждением и торможением могут создавать стабильную, не зашумленную нейронную активность. Такие сети можно анализировать с помощью среднеполевого подхода, который упрощает математику полной сети до нескольких уравнений.
Уравнения среднего поля для сбалансированной сети начинаются с сети из N нейронов (как возбуждающих, так и тормозящих), причем нейроны получают как внешний, так и рекуррентный вход. Для рекуррентного входа каждый нейрон получает K возбуждающих и K тормозящих входов. Предполагается, что K намного
меньше N:
Если рассматривать случай большого K и постоянного внешнего входа в сеть, то средний вход в клетку типа j (возбуждающий или тормозной) определяется следующим образом:
И дисперсия этого входа составляет:
Термины Xj и x представляют силу связи внешнего входа с популяцией j и скорость ее возбуждения соответственно; j - порог для возникновения спайков. WjI - мера общей силы связи тормозной популяции с популяцией j (соответствующее значение возбуждающей популяции определено как единица). WjI определяется как сила одной связи, умноженная на √K.
j - средняя активность j-й популяции, определяемая в диапазоне от