Шрифт:
Есть в мозгах и электрические нейронные сети, чем-то напоминающие интегральные микросхемы в компьютерах. Нейронные сети – это группы нейронов, соединенных между собой синапсами. Многие нейрофизиологи считают синапсы самыми фундаментальными единицами нейронных связей, поскольку синапсы модулируют нервные сигналы при переходе от клетки к клетке. В этом смысле синапсы напоминают транзисторы – атомарные элементы устройства компьютера, которые то включаются, то выключаются и регулируют поток электрического тока при цифровой обработке сигналов. Человеческий мозг содержит миллиарды нейронов и триллионы синапсов – гораздо больше, чем транзисторов в обычном персональном компьютере в наши дни [75] . Синапсы в целом передают сигналы в одном направлении – от пресинаптического к постсинаптическому нейрону, которые соединяет синапс. Самое распространенное средство этой коммуникации – так называемые нейромедиаторы, химические вещества, выделяемые пресинаптическими клетками. Разные виды синапсов (зачастую различающиеся по разновидностям используемых нейромедиаторов) позволяют пресинаптическим клеткам повышать или понижать частоту потенциалов действия в постсинаптических клетках или оказывать на нее более тонкое воздействие. Это отчасти похоже на то, как давишь ногой на педали автомобиля, чтобы добиться разных результатов в зависимости от того, какую педаль используешь и на какой передаче.
75
Например, процессоры «Intel Skylake», установленные в лэптопы Apple Macbook Pro 2016 года, содержат почти два миллиарда транзисторов, примерно в 50 раз меньше, чем нейронов в человеческом мозге.
На электрическую сеть похожа зачастую и сама структура нервной ткани. Во многих областях мозга нейроны и контактирующие с ними синапсы организованы в стандартные местные сети, которые напоминают наборы электронных компонентов, составляющие микросхему или печатную плату. Например, кора головного мозга, покрытая извилинами кожура, составляющая основную массу человеческого мозга, имеет слоистую структуру, и эти слои идут параллельно поверхности мозга – совсем как ряды микросхем на карте памяти компьютера (см. рис. 2).
Кроме того, нейронные сети делают то, для чего придуманы электронные цепи в цифровых процессорах. На самом простом уровне отдельные нейроны «умеют» складывать и вычитать, сочетая импульсы, которые получают от пресинаптических клеток. Грубо говоря, исходящий импульс постсинаптического нейрона – это сумма всех входящих импульсов, повышающих частоту потенциалов действия, минус все символы, которые ее понижают. Эта элементарная нейронная арифметика лежит в основе многих функций мозга. Например, зрительная система млекопитающих устроена так, что сигналы от пресинаптических нейронов, реагирующих на свет, из разных участков сетчатки суммируются, когда импульсы от этих клеток сходятся в отдельные постсинаптические клетки. Если комбинировать такие вычисления на множестве стадий, на каждой из которых задействуется новый уровень клеток, суммирующий данные от предыдущего уровня, можно получать реакцию на все более сложные световые узоры.
Сложность нейронных вычислений доходит до понятий из вузовской математики. Нейронные сети «знают» математический анализ, основу основ программы первого курса, и применяют его, когда надо отследить, как что-то в мире меняется или накапливается со временем. Когда глядишь на что-то определенное, двигая головой или телом, то задействуешь «нейронный матанализ», чтобы отслеживать прогресс собственных движений, и на основании этих данных корректируешь направление взгляда, чтобы оно не менялось при движении. Ученые выявили в мозге золотой рыбки группу из 30–40 нейронов, видимо, предназначенную для таких расчетов [76] . Другая разновидность нейронного матанализа позволяет зрению мухи распознавать движущиеся предметы. Для этого маленькие группы нейронов на сетчатке мухи сравнивают сигналы из соседних точек пространства [77] . Эти маленькие нейронные сети сигнализируют о движении, если визуальный сигнал из одной точки прибывает раньше, чем сигнал из второй точки, – примерно как мы с вами делаем вывод о движении поезда метро, сопоставляя время прибытия на соседние станции, даже если не наблюдаем движущийся поезд непосредственно.
76
E. Aksay et al., «Functional dissection of circuitry in a neural integrator», «Nature Neuroscience» 10 (2007): 494–504.
77
A. Borst and M. Helmstaedter, «Common circuit design in fly and mammalian motion vision», «Nature Neuroscience» 18 (2015): 1067–1076.
Нейрофизиологи рассказывают и о сетях, решающих гораздо более сложные задачи, чем математический анализ: они обеспечивают распознавание предметов, принятие решений и сознание как таковое. И хотя ученые еще не сумели выявить нейронные сети, которые совершают эти операции, им удалось зарегистрировать у нейронов признаки подобных сложных расчетов. Для этого частота потенциалов действия нейронов сравнивалась с решением поведенческих задач на выходе. В пример можно привести классический цикл экспериментов по изучению нейронных механизмов обучения, которые провел Вольфрам Шульц из Кембриджского университета на основании данных, полученных из мозга обезьян при помощи электродов. Группа под руководством Шульца изучала, как обезьяны учатся связывать конкретный визуальный стимул с последующей наградой (им давали фруктовый сок), – похожий эксперимент проводил Павлов со своими собаками [78] . У обезьян возникали потенциалы активности у дофамин-содержащих нейронов в отделе мозга, который называется «вентральная область покрышки», и поначалу это происходило, когда обезьяны получали сок. Но после того, как обезьяны несколько раз видели визуальный стимул и получали сок, дофаминовые нейроны начали «выстреливать» при появлении стимула – то есть еще до сока. Это показывает, что нейроны научились «предсказывать» награду, следовавшую за каждым стимулом. Примечательно, что поведение дофаминовых нейронов в этой задаче очень похоже на вычислительный алгоритм из области машинного обучения [79] . Сходство между абстрактным методом машинного обучения и реальными биологическими сигналами наталкивает на мысль, что мозг обезьяны, вероятно, применяет нейронные сети для исполнения алгоритма, похожего на компьютерный.
78
W. Schultz, «Neuronal reward and decision signals: From theories to data», «Physiological Reviews» 95 (2015): 853–951.
79
Richard S. Sutton and Andrew G. Barto, «Reinforcement Learning: An Introduction» (Cambridge, MA: MIT Press, 1998).
Между электроникой и активностью, приписываемой мозгу, есть и другие параллели. Например, нередко говорят, что частота потенциалов активности кодирует информацию, и ссылаются при этом на теорию, которую разработал в 40-х годах XX века Клод Шеннон для описания надежности коммуникаций в электронных системах наподобие радиоприемников и телефонов [80] . Теория информации Шеннона постоянно используется в инженерном деле и информатике для измерения того, с какой надежностью входящие данные соответствуют исходящим. В сущности, мы сталкиваемся с теорией информации, когда сжимаем мегапиксельные фотографии в килобайтовые jpeg-изображения, не теряя деталей, или передаем файлы по Ethernet-кабелям дома или на работе. Чтобы такие задачи хорошо исполнялись, инженерам надо подумать, как лучше всего распаковывать сжатые данные цифровых изображений и как быстро и точно понять и декодировать сигнал, переданный по кабелю, при каждой загрузке и выгрузке. Подобные проблемы тесно связаны с вопросами сохранения данных в биологической памяти и своевременной передачи по нервным волокнам в мозг потенциалов действия, содержащих сенсорную информацию. Для численного описания функционирования нейронов исключительно полезны математические модели теории информации и обработки сигналов в целом [81] .
80
Claude E. Shannon and Warren Weaver, «The Mathematical Theory of Communication» (Urbana: University of Illinois Press, 1998; перевод на русский язык см. в сб. «Работы по теории информации и кибернетике» (Москва: ИИЛ, 1963), пер. С. Карпова.
81
Fred Rieke, David Warland, Rob de Ruyter van Steveninck, and William Bialek, «Spikes: Exploring the Neural Code» (Cambridge, MA: MIT Press, 1997).
Когда мы представляем себе мозг как электронное устройство, то совершенно естественно анализировать данные о работе мозга при помощи инженерных методов, например, теории информации или моделей машинного обучения. В некоторых случаях аналогия «мозг-компьютер» заводит исследователей еще дальше – заставляет сопоставлять отделы мозга с макро-деталями компьютера. В книге, вышедшей в 2010 году, нейрофизиологи Рэнди Гэллистел и Адам Кинг утверждают, что в мозге должно быть оперативное запоминающее устройство, как у прототипического компьютера – машины Тьюринга [82] . Машина Тьюринга перерабатывает данные, записывая и считывая нули и единицы на ленте, и операции считывания и записывания совершаются в соответствии с набором правил в машине («программой»), а лента и есть машинная память, аналогичная дискам или полупроводниковым микросхемам памяти в современных персональных компьютерах [83] . Гэллистел и Кинг полагают, что если все хорошие компьютеры основаны на подобных механизмах запоминания, значит, и мозг тоже. Таким образом, авторы ставят под вопрос современную догму, что основа биологической памяти лежит в изменениях синаптических связей между нейронами – такую модель трудно уподобить памяти по Тьюрингу: по их мысли, такой синаптический механизм слишком медленный и негибкий, несмотря на то что его подтверждает колоссальное количество экспериментальных данных [84] . Хотя гипотеза Гэллистела и Кинга не общепринята, все же это примечательный пример того, как аналогия «мозг-компьютер» берет верх даже над теориями, выведенными из наблюдений. Когда смотришь сначала на мозг, потом на компьютер, потом снова на мозг, и вправду трудно понять, что из них что вдохновило.
82
C. R. Gallistel and Adam Philip King, «Memory and the Computational Brain: Why Cognitive Science Will Transform Neuroscience» (Hoboken, NJ: Wiley-Blackwell, 2010).
83
A. M. Turing, «On computable numbers, with an application to the Entscheidungsproblem», «Proceedings of the London Mathematical Society» s2–42 (1937): 230–265.
84
S. Tonegawa, X. Liu, S. Ramirez, and R. Redondo, «Memory engram cells have come of age», «Neuron» 87 (2015): 918–931.
Видимо, в ассоциации «мозг-компьютер» есть что-то духовно-мистическое. Говорят, что даже Джон фон Нейман впервые задумался о синтезе информатики и нейробиологии, когда незадолго до смерти вернулся в лоно католической церкви (фон Нейман умер в 1957 году от рака поджелудочной железы) [85] . Впрочем, нет никаких данных, что фон Нейман на протяжении всей жизни хоть как-то интересовался религией, хотя и крестился в 1930 году, когда собирался жениться в первый раз. Возвращение к Богу на смертном одре, своего рода попытка застраховать душу в последний момент, – клише, поэтому странно себе представить, чтобы человек одновременно с этим задумался о материальной основе души как таковой на языке машин. Однако в некотором смысле эти представления легко примирить, поскольку приравнять органический разум к неорганическому механизму – значит получить надежду на секулярное бессмертие если не для себя, то для своего биологического вида. Если мы есть наш мозг, а наш мозг изоморфен механизму, который мы можем создать, значит, мы в силах представить себе, что мозг можно ремонтировать, клонировать, достраивать, воссоздавать, передавать в пространстве или вечно хранить в полупроводниковом анабиозе, чтобы разбудить, когда придет время. Отождествляя мозг с компьютером, мы еще и молчаливо отказываемся от своего подлинного физического «я», грязного, смертного, непонятного, и замещаем его идеалом, от рождения избавленным от бремени плоти.
85
Norman Macrae, «John von Neumann» (New York: Pantheon Books, 1992).