Эволюция: о живых системах в целом

Почему возникает жизнь – и, в частности, разумная жизнь? Это случайность космического масштаба или же неизбежность, определяемая фундаментальными законами? Полагаю, что ответ на эти вопросы у нас есть, и вытекает он из известных нам концепций.

Термодинамика, теория информации и теория сложных систем позволяют предположить, что жизнь и разум – это естественные результаты эволюции мироздания, все более вероятные с течением времени. Коллективный интеллект человечества – не аномалия; наше сознание вплетено в логику существования вселенной, иллюстрируя глубинную связь энтропии, информации и смысловых конструкций. И, наверное, интеллект, который придет вслед за нашим, зачатки которого мы так упорно строим – это столь же, до неизбежности, вероятный этап...

Рассмотрим все это подробнее с точки зрения современной науки. Отмечу, что многое из изложенного вполне понятно на интуитивном уровне, без привлечения научных теорий. Тем не менее, научные подходы привносят дополнительную формальную строгость.

Живые системы и энтропия

Касательно глубинных причин возникновения жизни вообще и разумной жизни в частности я разделяю позицию Джереми Ингленда, автора теории, связывающей появление живых систем с законами термодинамики – в частности, с рассеиванием энергии и, соответственно, увеличением энтропии [1]. Он математически показал, что любая система (например, совокупность атомов, из которых строятся молекулы), получающая энергию извне (например, в виде света) и отдающая ее в окружающую среду (например, в виде тепла), тем самым повышая энтропию среды, обязательно реорганизуется так, чтобы сделать этот процесс максимально эффективным. Отсюда вывод: самовоспроизводящиеся, то есть живые системы «выгодны» природе (статистически более вероятны) – грубо говоря, чем больше возникает копий системы, тем больше энергии она рассеивает. Так фундаментальные физические принципы направляют эволюцию в сторону возникновения жизни. По формулировке самого Ингленда, «жизнь существует потому, что закон возрастания энтропии побуждает материю приобретать жизнеподобные физические свойства».

Отсюда легко сделать следующий, совершенно естественный шаг: разумные живые системы еще более «выгодны» природе, поскольку они на порядки эффективнее рассеивают энергию и увеличивают энтропию среды, в которой находятся. Собственно, в этом и состоит суть технологического прогресса: потреблять все больше энергии извне и выполнять с ее помощью какую-то работу – в результате чего энергия неминуемо преобразуется в тепло. Сельское хозяйство, индустриальное производство, информационные технологии – все это мощные ускорители роста энтропии нашей планеты.

Тут, кстати, стоит четко обозначить связь между теорией Ингленда и вторым законом термодинамики. Закон гласит: энтропия монотонно возрастает в закрытой системе, которая всегда движется к тепловому равновесию, а теория Ингленда описывает каким образом открытые подсистемы (живые организмы) закрытой системы (организмы плюс окружающая среда) помогают реализации этого закона. Внутри малой подсистемы локальная энтропия может уменьшаться (возникает порядок, необходимый для ее функционирования), однако, за счет рассеяния энергии вовне, энтропия окружающей среды увеличивается более чем достаточно, чтобы это компенсировать. Хорошей аналогией является холодильник: он понижает энтропию внутри (охлаждает еду, увеличивая порядок), но выбрасывает еще больше тепла наружу, повышая энтропию в целом. Теория Ингленда, по сути, количественно описывает, как открытые подсистемы могут эволюционировать, направляя потоки энергии, ускоряя производство энтропии и, таким образом, являясь статистически вероятными.

Теперь от физической энтропии перейдем к энтропии информационной и рассмотрим гипотезу Мелвина Вопсона [2], которую он назвал «вторым законом инфодинамики». Она утверждает, что, в то время как физическая энтропия любой закрытой системы возрастает со временем, ее информационная энтропия (введенная Клодом Шенноном [3]) наоборот снижается. Информационную энтропию можно интерпретировать как количество «лишней», избыточной информации. Согласно гипотезе Вопсона, вселенная постоянно оптимизирует свое информационное содержание, стремясь уменьшить объем данных, необходимых для описания самой себя. Это связано со стабильностью: системы с меньшей информационной энтропией оказываются более устойчивыми и имеют бо́льшую вероятность сохраниться.

Идея Вопсона не относится к мейнстриму, но рассматривается научным сообществом всерьез. Мне она близка – тем более что ее математическая основа, как и в случае теории Ингленда, достаточно надежна. Если второй закон инфодинамики справедлив, то он добавляет еще один аргумент в пользу того, что вселенная статистически тяготеет к жизнеспобным формам, обладающим разумностью. Наш разум – продуктивнейший инструмент сжатия информации за счет абстрагирования и обобщения, в чем, собственно, и состоит культурно-научное развитие. Мы постоянно потребляем данные с высокой энтропией и преобразуем их в более структурированное, осмысленное, низкоэнтропийное знание.

Совмещая обе «энтропийные» концепции, получаем, что:

• природе «выгодны» структуры, эффективно увеличивающие термодинамическую энтропию (за счет рассеивания энергии);

• природе также «выгодны» структуры, эффективно снижающие информационную энтропию (за счет сжатия информации).

Это указывает на статистическую предпочтительность тех направлений эволюции, которые ведут к появлению разумной жизни и дальнейшему усилению ее когнитивных возможностей. Разумные системы уникальны тем, что одновременно выполняют обе функции – усиливают поток энергии и уменьшают хаос в информационной сфере. Мироздание «хочет», чтобы мы, разумные существа, возникли и развивались. Чтобы мы умнели и росли над собой – технологически и культурно. И чтобы не жалели сил, создавая новые формы, интеллектуально превосходящие нас самих – искусственный интеллект, гибридные или постбиологические системы и т.п.

[1] England J. (2013). “Statistical physics of self-replication.” J. Chem. Phys. 28; 139 (12): 121923.

[2] Vopson M., Lepadatu S. (2022). “Second law of information dynamics.” AIP Advances; 12 (7): 075310

[3] Shannon C. (1948). “A Mathematical Theory of Communication.” Bell System Technical Journal, vol. 27, pp. 379–423, 623–656.


Живые системы и «энергия вариаций»

Описанные выше теории отвечают на вопрос, почему во вселенной должны появляться живые и, особенно, разумные системы. Теперь попробуем предположить, какой принцип лежит в основе их развития и усложнения – то есть, как они продлевают свое существование и все более эффективно реализуют свой эволюционный потенциал. На мой взгляд, наиболее общий механизм предложен Карлом Фристоном – это его «Принцип свободной энергии» [4,5].

ПСЭ объясняет поведение организмов через минимизацию свободной энергии несовпадений. Под «свободной энергией» здесь понимается не термодинамическая величина, а некая математическая мера (обычно это дивергенция Кульбака–Лейблера [6]), количественно описывающая расхождение между внутренней моделью организма (например, тем, как человек представляет окружающую его действительность) и сенсорными данными, поступающими из внешнего мира. Практически это означает, что живая система непрерывно обновляет свои внутренние вероятностные модели и совершает действия, сглаживающие различия между собственными предсказаниями и внешними сигналами.

Сам Фристон формулировал это так: «жизнь существует, потому что способна уменьшать разрыв между ожиданиями и действительностью». Любая живая система должна сохранять устойчивость в постоянно меняющихся обстоятельствах. Для этого ей нужно «угадывать», что произойдет дальше, и проверять свои догадки на опыте. Если мир ведет себя не так, как ожидалось, система корректирует поведение, чтобы вернуть себе стабильность.

По сути, жизнь – это бесконечная игра в «минимизацию удивления». Организм строит внутреннюю карту реальности, и чем точнее эта карта, тем надежнее способности к выживанию. Человек с его сознанием и разумом – самый яркий пример: мы непрерывно прогнозируем события, интерпретируем сигналы извне и в случае ошибки меняем либо наше восприятие (например, перестаем считать, что дождь закончится через минуту), либо окружающую среду (например, включаем кондиционер, когда становится жарко). Наш мозг – не пассивный «инфо-процессор», а неутомимый предсказатель, который учится на своих промахах или подстраивает мир под себя. Все это объединяет восприятие, мышление и поведение в единый логический контур и обеспечивает наше существование и совершенствование.

Связь ПСЭ с теориями Ингленда и Вопсона вполне очевидна. Чтобы эффективно рассеивать энергию (увеличивая термодинамическую энтропию), организм должен сначала эту энергию получить. Если система постоянно «удивляется», рыская в поисках пищи, она ее не найдет – или же сама превратится в пищу для более адаптированного конкурента. Минимизация фристоновской «энергии несовпадений» однозначно приводит к максимизации «энтропийного выброса».

То же и с уменьшением инфо-энтропии: адекватная внутренняя модель мира как раз и есть правильно сжатая информация об этом мире. Чтобы такую модель построить, организм должен эффективно отфильтровать весь шум и сохранить полезную суть сигнала (смысловые структуры и причинно-следственные связи) – то есть получить низко-энтропийную «выжимку» из высоко-энтропийных данных.

В целом, можно сказать, что ПСЭ описывает универсальный механизм (цикл предсказание-действие), позволяющий живым системам достигать целей, «поставленных» для них природой. Внутри системы минимизация несовпадений оптимизирует распределения вероятностей, уменьшая энтропию Шеннона, а вовне действия системы «сжигают» получаемую энергию, увеличивая физическую энтропию. «Энтропийные» теории объясняют эволюционное «тяготение» к появлению жизни, а ПСЭ раскрывает способ соответствия живых систем этому тяготению.

[4] Friston K, Kilner J, Harrison L. (2006). “A free energy principle for the brain.” J Physiol Paris, Jul-Sep;100(1-3):70-87.

[5] Holmes J. (2022). “Friston's free energy principle: new life for psychoanalysis?” B J Psych Bull. 2022 Jun;46(3):164-168.

[6] Kullback S., Leibler R.A. (1951). "On Information and Sufficiency." Annals of Mathematical Statistics, 22(1), pp. 79-86.