Биология поведения человека: Лекция #21. Хаос и редукционизм [Роберт Сапольски, 2010. Стэнфорд]
Вот сайт с шаурмой.
Добро пожаловать в Стэнфорд на курс "Биология поведения человека".
Сегодня мы отступим от привычной схемы поведения, причина. Вместо этого мы углубимся в идею, которая относится к содержанию всего курса. Грядут, пожалуй, самые сложные лекции, самый сложный материал. Отчасти потому, что я не ручаюсь, что сам вполне понимаю эту тему. Ещё потому, что мы рассмотрим альтернативный, так сказать, взгляд на мир с точки зрения науки. Это одна из причин, почему я и заставил вас читать "Хаос" Блейка. И как я и предполагал, на первой лекции реакция была неоднозначно.
Часть людей загорелась энтузиазмом по поводу этой темы, некоторые были страшно недовольны и негодовали, что я вообще такое задал. А остальные вообще не особо разобрались и задавались вопросом: "А зачем всё это?" Эта книга стала первой, которую я вообще прочитал по этой теме, и впервые за долгое время я начал её перечитывать. Как только закончил, она оказала на меня не меньшее влияние, чем "Там, где живут чудовища" в детстве. Книг и далось мне нелегко. Она оставила под сомнение все мои представления о редукционной науке. Надеюсь, вас она тоже заставит задуматься.
И как часть этого плана у вас будет одно единственное домашнее задание за весь курс. И я даже не знаю, буду ли его собирать и проверять. В самой книге там есть задания на создание так называемых клеточных автоматов. Погодите паниковать, ещё успеете! Итак, вам предстоит выполнить их самостоятельно. И всё, что нужно, чтобы разобраться в задании, просто не спать сегодня и до пятницы. Посвятите всё своё время работе над заданием. Забудьте про всё остальное, делайте перерывы на еду и туалет. Ничего, кроме задания, сегодня до пятницы. И в пятницу посмотрим, что вы об этом думаете.
Хорошо, для начала нам стоит немного разобраться в основных моментах западного подхода к пониманию сложных систем с точки зрения науки. Примерно 400 год нашей эры, падение Рима, следом за которым наступает невероятный тёмный период. Кругом невежество средневековой Европы. В это время люди плохо понимали устройство мира, огромное количество знаний, накопленных за долгие века, было утеряно: ни книг, ни философов. Феноменальный уровень разобщенности и интеллектуальной изоляции. Как если бы пятьсот лет назад люди знали лекарство от рака и СПИДа, умели летать, и каким-то образом после распада и в мире все знания были утеряны.
Грамотность покатилась в тартарары. Именно в этот период возникли выражения вроде провести аудит, финансовый аудит, привести устные доводы в суде, устроить слушание по какому-либо вопросу. И все они от устной речи об идеальной передаче информации, потому что люди больше не умели читать. В этот период ни в одном западноевропейском языке не было слов "прогресс" или "амбиция"; таких концепций не существовало. Полная интеллектуальная и социальная изоляция.
Большинство людей проживало в маленьких деревнях, отходите километров на 100, и люди уже говорят на непонятном диалекте. Просто представьте себе такое. Средний человек за всю свою жизнь никогда не уходил дальше, чем на 20-25 километров от места своего рождения. Невероятная разобщенность, абсолютно неверное понимание причинно-следственных связей в мире. Ведь вся информация была утеряна.
Перемены наступили в 1805 году, когда христианская Европа впервые захватила крупный исламский город. Это было в лето в Испании, город в то время был британским и назывался Альгамбра. И это был первый город, сдавшийся христианским войскам с тех пор, как в страну Конунг ислам. Это был такой себе второсортной городишко. Он не был главным центром, но лишь из-за того, что европейские войска его взяли. Получилось кое-что любопытное, а именно в городе была библиотека, и в ней было больше книг, чем во всей христианской Европе вместе взятых.
Это простенькая библиотека в захолустном городе; в трущобах 1 заурядная библиотека накопила больше информации, чем была доступна в те времена во всей Европе. И вдруг Европа заново открывает философов Аристотеля и Платона. Их всю плеяду европейцы заново осваивают логику и великие труды. Внезапно всё это хлынула обратно в Европу и положила начало современному типу мышления о сложных системах.
Люди вдруг стали мыслить иначе: "если A больше B, а B больше C". Поразительное открытие: можно узнать, как A относится к C, не сравнивая их напрямую. Это был мощный прорыв в логике. Силлогизм пришёл в Европу. Впервые за сотни лет люди стали способны строить цепочки вроде: "всё, что светится, содержит огонь. Звёзды светятся, значит, у звёзд есть огонь." Всё логически мыслить было полностью утеряно. И вдруг, впервые за сотни лет, люди стали думать таким образом.
Кульминацией стало зарождение того, что мы теперь зовём наукой. У Фомы Аквинского есть замечательная цитата, которая резюмирует всё происходящее в то время. Он перечислил три деяния, неподсильные Богу. Первые два типичные теологии: "Бог не может согрешить. Бог не может создать свою копию." Важнейшим было третье: "Даже Бог не может создать треугольник с суммой углов больше 180 градусов." Эта концепция Фома Аквинский по сути сказал, что если противопоставить старые знания науки, наука победит.
Это был безусловно знаменательный момент. Бог всемогущ, но ему не создать треугольник больше 180 градусов. Мир начал меняться, и влияние распространялось на все сферы, не только на сугубо прозаическую. Если что-то сломалось, то это можно починить. В то время только начало формироваться концепция, что оказывается, можно воссоздать события о его фрагментом. Произошло преступление, и нет ни одного человека, наблюдавшего всё от начала до конца. Но один свидетель видел, что случилось с момента A, другой видел, что было от B до D и так далее.
И вдруг пришло осознание, что можно узнать о случившемся, сопоставляя пересекающиеся фрагменты информации. Революционная идея, полностью изменившая систему правосудия. Раньше, как узнавали, виновен человек в злодеянии или нет? Бросали его в реку, например, и если он тонул, то очевидно, что виновен. Удачи! В лучшем мире чудная детективная работа: как нам расследовать, сделал что-то человек или нет? Давайте его подожжём, и если он горит, то конечно, он виновен.
И вдруг на смену пришёл подход, при котором можно исследовать не просто на свидетелей и факты, а ещё и понять, что произошло без единого свидетеля, который бы наблюдал всё от начала до конца. Можно собрать всё по кускам. Просто эпохальное! Это изменило всё. И примерно в это время появляются зачатки современной науки. Исходом этого периода стала самая важная концепция во всей науке за последние 500 лет – идея редукционизма.
Идея незамысловатых: если хочешь понять сложную систему, разбери её на составляющие, и когда поймёшь отдельные части, сможешь понять всю систему. Редукционизм лежит в основе всего, чем занимается наука веками вплоть до наших дней. Сложные вещи можно объяснить, глядя на их слагаемое, на меньшие части, которые их составляют.
Ключевой здесь является концепция линейности. Аддитивности: берешь что-то сложное, разбиваешь на слагаемые, и как только стало ясно, как эти слагаемые работают, остаётся сложить их, и их сложность возрастает линейно, и получается целая сложная система. Это и есть западный редукционизм. Он помог сделать ряд выводов, которые мы теперь принимаем как должное. Разобравшись, как работают части редуктивной системы, можно сложить вместе общую картину.
Отсюда следует, что если вы знаете начальное состояние системы, если вы разобрали её на все составные части и знаете, как всё работает, можно со стопроцентной вероятностью спрогнозировать её состояние в любой момент. Начальное состояние позволяет прогнозировать исход. И наоборот: если известно состояние системы, можно вывести, с чего всё началось. Существует последовательная взаимосвязь между простыми элементами и построенной на них сложной системой. Это привело к удивительным последствиям: способности экстраполировать, находить решение для задач разного типа и применять их к другим проблемам снова и снова.
Что я имею ввиду? Внезапное озарение: пусть x плюс y равно z. Тогда известно, что x плюс 1, плюс y плюс 1 будет равно z плюс 1. x плюс 2 будет равно z плюс 2 и тому же принципу будет подчиняться любое вычурное уравнение. Неважно, что здесь за значение, заранее известно: просто по правилу, суммируя марте, слагаемых. Что бы тут ни написали, будет z плюс 1.
Можно получить ответ, не проводя вычислений по новой. Можно прибавить к иксу нечто и знать, что ответом будет z плюс это ничто, и не нужно сидеть и считать. Можно экстраполировать, использовать редуктивные знания, линейность, переходя от одного к другому. Использовать вот тут те же правила, что тут.
Это нашло применение в целом наборе чисто редуктивный линейных систем. Революционный подход. Что же, отлично! Не нужно делать вычислений на каждом шагу, чтобы выяснить состояние системы в любой момент времени: вы знаете, чем всё закончилось, сможете рассчитать, с чего всё началось. Последовательное пошаговое изменение. Отлично!
Свойствам редуктивных систем относится ещё и то, что для особо затейливых нужны чертежи. Что я имею ввиду? Необходимо хотя бы представлять себе, как может выглядеть конечное состояние системы. Да, конечно, зная начальное состояние можно рассчитать, и конечно, и… Но для контроля качества нужно иметь хоть какое-то представление, чертеж того, к чему вы идёте, чтобы контролировать процесс и постоянно с ним сверяться. Если и правда хочешь провернуть что-то сложное в этом редуктивном мире, без плана действий не обойтись. Нужен чертеж, именно он подскажет, каким должен быть результат сложения всех отдельных элементов.
Последовательность ваших действий как раз зависит от чертежа, своеобразная инструкция. Вот и всё, что касается западного редукционизма. Одно важное дополнение. Допустим, вы что-то измеряете: нормальная температура тела человека 36 и 6. В группе совершенно здоровых людей не у всех будет 36 и 6, у кого-то будет ровно, но будут и варианты. И это можно выразить средним значением в 36 и 6 и отметить, что была вариативность, вариации были разные значения, которые потом усредняются и приходят к одному значению.
Отсюда возникает важный вопрос для редукционного подхода к науке в контексте сложных систем: что с этим делать, куда девать вариативность? Ключевым элементом всего этого является: знаешь начало, знаешь конец; знаешь конец — знаешь начало, экстраполируйся дальше. Ключевым элементом в этом подходе было однозначное отношение к вариативности. Вариативность — это шум, это лишний мусор, это геморрой. От этого надо избавляться. В редукционизме шум представляет собой погрешность инструмента.
Инструмента в самом широком метафорическом смысле. Инструмент — это и наблюдение, и конкретный аппарат. Вариативность — это шум. Он указывает на то, что все методы наблюдений и измерений, которыми мы пользуемся, недостаточно эффективны. Шума нужно избегать. И согласно этому подходу самый действенный способ избавиться от проблем — редуцировать. Ещё сильнее. Чем ближе вы рассматриваете феномен, тем больше видно деталей, тем проще разобрать его на составные части, и тем ближе вы подходите к разгадке происходящего.
Подбираетесь всё ближе и ближе, и вариативность исчезает, потому что это просто шум в системе. Это как пытаться измерить температуру человека через бинокль с борта дирижабля, пытаясь разглядеть, потеет он или нет и делать какие-то выводы. При таком подходе вариативности будет гораздо больше, чем если прибегнуть к редукции и пощупать лоб, например: горячий он или холодный. И вариативности станет меньше, ещё лучше и точнее, если изобрести термометр. Основная мысль: чем лучше у вас инструменты для изучения феномена, тем мельче детали, которые вы можете изучить. Тем ближе вы смотрите, тем меньше вариативности.
В основе всего редуктивного процесса лежит некая образцовая идеализированная норма. Если у кого-то температура не 36 и 6, это из-за шума в измерительной системе. Вариативность — это шум. От вариативности можно и нужно избавляться. Сильнее редуцирует вариативность — это несоответствие, скрывающее от нас действительное значение. Эта идея стала движущей силой всей науки. Появлялись новые способы для изучения: мощный микроскоп и инструменты для более точного определения состава крови.
И всем этим мы обязаны идее о том, что чем ближе мы смотрим на составные части, тем лучше мы понимаем, как система работает на самом деле. Тем скорее мы избавимся от мешающего нам шума. Потому что шум лишь искажает картину. Такая точка зрения переносится, конечно, и на работу организма. В биологии, когда начинаешь рассматривать организм как очень сложную систему. И, конечно, по заповедям редукционизма: если хочешь понять, как работает тело, разберись, как работают органы. А если хочешь понять, как работают органы, изучи работу клеток, и так далее, до уровня молекул.
И считается, что чем ближе вы подойдёте к самому нижнему уровню, чем лучше его изучите, тем более чётким и точным будет ответ. Вам лишь надо сложить все части воедино — вот вам и целый организм. С какого момента начинаются проблемы? С факта, что организм просто не может так работать. Множество разных сфер, где необходимо отпустить редукционизм, чтобы понять биологическую систему.
Приведу пример, и он переносит нас вновь в нейробиологию. В классическом труде авторства двух учёных все, кто с курса "Биокор", а от меня, уже наслышаны. Про двух нейроучёных 사랑и Раби и видели гигантов в своей сфере в 50-х годах вплоть до 60-х. Все думали, что они открыли точный механизм работы коры головного мозга. Феноменально чистого редуктивного ключе. Они описали, как зрительная информация извлекается из внешней среды.
Детали для нас сейчас не важны. В общих чертах сетчатка содержит отдельные клетки, которые соответствуют отдельным нейронам. И между ними есть простая и чёткая связь: если стимулировать определённую в клетку сетчатки, связанный с ней нейрон в этой части коры возбуждается и возникнет потенциал действия. И если малость сместить электрод и стимулировать соседнюю клетку, то возбуждается соседний нейрон. Иначе говоря, зная начальное состояние, какие рецепторы сетчатки стимулируются, можно на сто процентов предсказать, какие нейроны среагируют. И наоборот: узнав, какие нейроны среагировали, вы получите информацию о том, с чего всё началось.
С этого они и начали свою теорию. Они показали, что в первом слое коры находятся нейроны, напрямую связанные с рецепторами: клетка к клетке. И что каждый отдельный нейрон на этом уровне зрительной коры принципиально умеет различать точки. Каждый нейрон различает точку и только одну точку, и он такой единственный. Это последовательная редуктивная система: возьми все отдельные слагаемые из нейронов, где каждый различает одну точку, сложи их вместе, и узнаешь, что только что попало в поле зрения. Затем они принялись за следующий слой коры.
Если говорить совсем просто, они обнаружили, что если стимулировать одну из клеток сетчатки, то можно возбудить один нейрон в первом слое кары, но во втором слое ничего. Сдвинь электрод, активируется следующая клетка и следующий нейрон на другом слое коры — ничего. И ещё один, и ещё. И вдруг один из нейронов на втором уровне возбуждается, если и только если перед этим стимулируется этот фоторецептор. Следом за ним этот, дальше этот и так далее. На что реагирует нейрон? Движение света в этом направлении. Часть коры получает данные от первого слоя, складывают всё вместе и извлекают нужную информацию.
А значит, где-то есть нейрон, кодирующий чуть другой угол, и ещё один — и что-то подобное в разных частях зрительной коры для очень длинных линий, медленных линий и так далее. Что умеют нейроны второго слоя? Различать прямые, и это опять-таки редуктивная система, потому что нам известно. Сеть идущая от одного слоя от глаза ко второму и дальше. Так что если знаешь, что творится здесь, можешь восстановить события здесь и в глазу.
И также в обратном направлении вновь чёткая однозначная связь. Просто на следующем уровне иерархии всё того же редукционизма. И просто чтобы показать, к чему они пришли, опять же упрощённый пересказ. Теперь берём эти нейроны: один из них будет реагировать на эту линию, другой — на эту, третий — на эту. Если и только если эти три нейрона срабатывают одновременно, реагирует ещё один нейрон уже на следующем уровне зрительной коры. Что умеют делать эти нейроны? Каждый из них распознает кривую и только одно.
Та же история: последовательный редукционизм. Хотите понять систему, узнайте, как каждый нейрон связан с каждым последующим в цепочке, и как только выясните, останется лишь узнать, какого рода действия происходят на любом из уровней. И придёт полное понимание процессов здесь и здесь. Чистая редуктивная система. Все были в восторге. Это было величайшим событием, важнейшим трудом в нейробиологии между 50 и 75 годами. Их наградили Нобелевской премии. Их бы наградили и дюжины, ведь они только что разгадали механизм сенсорного восприятия в мозге, то, как он извлекает данные из окружающего мира и превращает их в сложную сенсорную информацию.
Потом как было совершенно очевидно, что над всеми слоями будет тот, что содержит нейроны, реагирующие на определённое количество кривых одновременно. Слой распознающий три измерения, а над ним тот, что улавливает, как три измерения меняются со временем, различает движение объемного объекта. И полагали, что можно пройтись по этому пуантилизма, слой за слоем, и где-то на самой верхушке будет нейрон, у которого есть одна и только одна функция: узнавать лицо твоей бабушки под таким углом.
И считалось, что по соседству с ним будет ещё один нейрон, узнающий лицо бабушки под таким углом и так далее, а прямо за ними — ряды нейронов, узнающих твоего дедушку. И все решили: "Вот и всё!" Просто берёшь рецепт поэтапного извлечения информации из визуальной кары и идёшь дальше. И именно так различаются лица. Тем временем оказывается, что слуховая кора, есть связь между одной волосковой клеткой здесь, одной там, распознающий одну ноту, затем аккорды и так далее.
Если пройти достаточное количество слоев, можно найти отдельный нейрон, узнавший бабушкину любимую симфонию. Пройдите весь путь и найдете нейроны, чья специализация сложнейшая сенсорная информация. Всё, что нужно, — это идти по редуктивной лестнице вплоть до вершины. Люди и правда называли такие нейроны бабушкиными. Считалось, что на каких-то высоких уровнях коры лежат нейроны, реагирующие на очень сложность ему и только на него.
И для каждого стимула есть только один нейрон, точечно связанный с ним, просто следуйте схеме, и в итоге доберетесь до нейронов, узнавших вашу бабушку. И когда её был и Уизел, дошли до третьего слоя, что заняло примерно лет 15, они решили поизучать что-нибудь ещё в зрительной системе. Ничуть не менее интересные вещи. Но все остальные на тот момент были слишком увлечены поисками следующих слоёв, и Уизел, проявив замечательную мудрость, бросили свою прежнюю затею.
Потому что по сей день никто не смог доказать существование бабушкиных нейронов, где бы то ни было. Их не бывает! Ну ладно, они есть, но их очень мало. Есть так называемое разрешено и кодирование; временами попадаются нейроны бабушкиного типа, отдельные нейроны, реагирующие только на один тип лица. Где-то там высоко в слоях зрительной коры такие нейроны есть. И несколько лет назад в Nature опубликовали одну из самых странных статей на моём веку.
Очень интересное в плане сделанных открытий, но странное в плане, как им вообще взбрело в голову это проверить. Авторы записывали реакцию с самых верхних слоев зрительной коры в мозге обезьян. Нашли нейроны с откликом и один нейрон реагировал только на одно человеческое лицо. Нейрон бабушкиного типа. И здесь начинаются странности. Ученые нашли нейроны в мозге макак-резус с единственным бабушкиным нейроном. Они нашли нейрон, различающий Дженнифер Энистон. Вы думаете, я шучу?
Они нашли нейрон Дженнифер Энистон, который реагирует на её фото со всевозможных ракурсов, на карикатуру и прочее. Нейрон принадлежал к бабушкиному типу, так как, как я цитирую, он не реагировал на Джулию Робертс, не реагировал на Брэда Питта. Что можно понять: он не реагировал и на совместное фото Дженнифер Энистон и Брэда Питта. И бог знает, как с этим связано Анджелина Джоли. Что ещё более странно, оказалось, что этот нейрон также реагирует на изображение Сиднейского оперного театра.
Такие дела. То есть они нашли почти идеальную редуктивную бабушку нейрон. Любопытно, как они к такому пришли? А давайте покажем фотографию Дженнифер Энистон нашим обезьянкам. Откуда такая идея? Помнится, в разделе методологии не слишком освещался момент с фотографиями. Так или иначе, есть такие нейроны. Они существуют в слоях разрешённого кодирования.
То есть когда достаточно нескольких нейронов, чтобы узнавать очень замысловатые вещи, вроде Дженнифер Энистон, тем не менее подавляющее большинство попыток найти бабушкины нейроны с треском провалились по очень простой причине. И так, сколько нужно нейронов, распознающих только по одной точке? Каждый ровно столько, сколько фоторецепторов на сетчатке. Сколько нейронов нужно в этом слое, превращающим точки в линии? Что же, один, который отвечает за линию такой длины, ещё один — за такую, и за такую, и ещё один — за чуть другой наклон.
Чтобы справиться с такой обработкой, этому слою понадобится раз в десять больше нейронов. Сколько нейронов нужно в следующем? В десять, сто раз больше. И выходят, что следующего слоя просто нет. И уж тем более бабушкиных нейронов, потому что это слишком много нейронов. Клеток во всём мозге не хватит, не то чтобы в зрительной коре. Не получится создать следующий слой, потому что на него не хватит нейронов. В мозге попросту недостаточно нейронов, чтобы узнавать лица редуктивным образом. Модель разваливается.
Из-за нехватки слагаемых. Из тех самых пор люди как-то переключились, и в этой области стал доминировать исключительно не редуктивный подход. Люди обратились к так называемым нейронным сетям, потому как сложная информация, например внешний вид остальных друзей, кроме Энистон, не кодируется одиночным белком, синапсом или нейроном. Она кодируется паттернами среди сотен и тысяч нейронов во взаимодействующих сетях. И так развенчалась из теории, казавшаяся величайшей демонстрацией редуктивной обработки сенсорной информации, ведущей прямо к бабушкиным нейронам, которых в общем-то не существует, потому что клеток не хватает.
Проблему узнавания лиц не решить, используя продуктивную биологию. Следующая сфера, где она также не пригодна... И так, что у нас здесь? То ли канал на Марсе, то ли морозный узор на окне, или может, дерево какое-то длинное ветвление. Так что это? Это бифуркации. Бифуркация характерна свободой от масштабов. Это могут быть дренажные линии, где не впадает в Средиземное море, а это вид со спутника. А вот так выглядят дендриты одиночного нейрона, если смотреть в микроскоп.
И по одной только схеме ветвления одно от другого не отличить. Сложность ветвления не зависит от масштаба. Оказывается, что некоторые важнейшие структуры в нашем теле являются бифуркациями. Вот ими, например, точки ветвления нейронов. Посмотрите чудные фотографии дендритных ветвей. Дендрит, собственно, и означает "дерево" из-за внешней схожести. И когда дендриты по какой-то причине усложняются, говорят, что усилилась их организация. Используя термин прямиком из биологии, описывая сложные ветвления нервных клеток, вы обнаружите, что кровообращение — это тоже деформационная система.
Есть нисходящие и восходящие части аорты: она разделяется на две, и ещё на две, и ещё. И вот это уже дерево, разветвляющееся на уйму мелких капилляров. В конце та же самая бифуркация. В дыхательной системе трахея разветвляется на пару бронхов, затем на бронхиолы и так далее. Абсолютно та же система: бифуркация повторяется во многих системах жизнедеятельности в организме. Обратите внимание на масштаб. Если это кровеносные сосуды, то мы говорим о миллионах клеток, формирующих их стенки.
А здесь мы видим в целом ту же сложность ветвления, но в отдельном нерве, единственной клетки. Масштаб не важен. Ветвление одного нейрона может быть таким же сложным, как и ветвления миллиарда различных капилляров или системы нейронов. Степень сложности одинаковая. И теперь назревает вопрос, а именно как это кодируется в организме? Как организм даёт инструкции для создания бифуркации? И тут же возникают сложности.
На какую модель мы ориентируемся? По редуктивной схеме есть какой-то набор правил, диктующих аорте расти подобным образом, и какой-то ген или набор генов определяет точку разветвления. Аорта диаметром около пяти сантиметров разделяется на две ветви. Позднее одна из них диаметром два с половиной сантиметра снова делится. И за первое разветвление отвечает один ген или набор генов, а за второе — другой. И, само собой, это будут совсем не те гены, что задают ту же схему ветвления в нейроне.
Здесь одна клетка, здесь же нужно запрограммировать тысячи клеток, чтобы они делились как надо и получались ветви. Следуя этой модели, мы натыкаемся на ту же проблему: в геноме не хватит нейронов, то есть генов для подобного кодирования; нельзя закодировать бифуркации в живом организме, которая охватывает совершенно разные масштабы. От одной клетки до миллионов. Её нельзя кодировать последовательным редуктивным путём, где на самом нижнем уровне составными будут отдельные гены.
Нельзя кодировать узнавание лица бабушки с нейронами в качестве слагаемых. Нельзя кодировать бифуркации в организме, потому что ветвление дойдёт до миллионов капилляров, а генов всего 20 000. Редуктивная модель рушится. И здесь последовательный редуктивный подход не работает, когда доходит до сложных процессов в коре. Вроде узнавания лиц, они точек не работают. Он и в бифуркациях, которым необходимо делиться снова и снова, миллионы раз, чтобы получились капилляры. Редуктивным методом это не закодировать. Не хватит ни нейронов, ни генов.
Не оправдывает себя. И идея о том, что зная начальное состояние, узнаешь и, конечно, и наоборот, — это мы уже знаем с лекций по молекулярной генетике. Мы говорили о роли случая в этих системах. Вы слышали о хаотичном перемещении молекул, о броуновском движении, из-за которого при делении клетки митохондрии распределяются не поровну, или что-то другое из той же серии. Чистая случайность не позволит вам пользоваться однозначным редуктивным подходом.
Допустим, у нас есть однояйцевые близнецы на этапе оплодотворённой яйцеклетки. И по продуктивной схеме, когда клетка разделится у одного близнеца и у второго, эта клетка будет идентична этой, эти тоже идентичны, и так вплоть до отдельных молекул. Если бы отделение происходило по законам редукции, тогда как мы знаем, что при первом же делении клетки митохондрии уже распределяются между этими двумя не так, как между этими.
Уже при первом делении клетки случай не позволит рассчитать состояние системы, зная лишь начало. Редукционизм не работает, и здесь из-за роли случая в любой из этих систем. Митохондрии или, например, факторы транскрипции, разделяются не поровну. Вы помните, как всё устроено. То же самое с транспозонами — мои прыгающие гены. Элемент случайности присутствует и там. Нельзя взять начальное состояние и от него плясать.
Пример из сферы поведения. Парень по имени Иван Чейз провёл любопытнейшие исследования о доминантном поведении. Итак, у вас колония из десяти рыбин, сперва каждая из них в своём аквариуме, и вы начинаете круговой турнир, пробуя все возможные парные комбинации, сталкивая их лбами, и наблюдается, кто доминирует в каждой паре. Проделав всё это, вы строите иерархию доминирования. Номер один — это та рыбка, что доминировала над остальными девятью в парных взаимодействиях. Рыбка номер два доминировала над восьмью, и так далее.
Генерируете иерархию по относительно простой силлогической цепочке: зная начальное состояние и результаты парных состязаний, можно предсказать, какой будет иерархия, если собрать всех рыб вместе. И, конечно же, он обнаружил, что если действительно собрать всех рыб в одну группу, ничего из того, что предсказал, не произойдет. Результаты парного соперничества дают 0 прогноз той иерархии доминирования, которая возникла на деле. Почему? Потому что случай тоже играет роль.
Рыбы способны к транзитивной логике, по крайней мере рыбы из лаборатории профессора Фернандо. Если первый доминирует над вторым, а второй сильнее меня, наверное, и 1 стоит уважать. Сложив два фрагмента, можно понять, что к чему заранее. Но что если ты плывёшь в другую сторону и не видишь, что первый сильнее второго? Это просто случайность.
Но в итоге системой руководят именно такие моменты. Случайное движение животных приводит к тому, что изначально и доминирование в каждой паре не даёт никакого прогноза для сложной системы. Итак, снова и снова мы наблюдаем, как чудесный западный упор на редукционизм, который должен со стопроцентной вероятностью предсказывать состояние системы, даёт сбой в вопросах биологии, начиная с поведения целых организмов и заканчивая генами.
Потому что просто не хватает слагаемых для объяснения сложной функции через последовательное разложение системы на части с последующим сбором, и вам не удастся избавиться от случайностей. Итак, к чему мы пришли, проведя 50 лет в системе редукционизма? Мы видим, что если интересоваться поведением или мозгом или любой из этих сфер, окажется, что всё самое занимательное в мозговой активности, генетической регуляции и прочем не может регулироваться классическим редукционным путём.
Такой подход заводит нас в тупик. Должно быть что-то иное, и это переносит нас к той самой проблеме хаотичных систем. Что происходит, когда система не редуктивна? Когда нельзя линейно сложить её слагаемые? Когда открывается совсем другая картина. Если ломаются часы, разбираешь их, находишь сломанный зубчик на одной шестерёнке, чинишь, и теперь можно собрать часы обратно аддитивным образом, и часы в порядке.
Часы можно починить, используя редуктивное знание. Но возьмём другую задачу: засуха, облака не дают достаточно осадков. Как выяснить, что не так? Точно давайте разделим облака пополам, возьмём инструменты по точнее и разделим эти половинки ещё на 2, а потом ещё, и в итоге мы получим отдельные молекулы облака и миллиард таких. И поймём, как каждая работает, сложив их вместе, и поймём, что к чему. Это не поможет.
Редуктивный метод годится для починки часов. Он не поможет вам понять, почему вдруг перестал идти дождь. И весь смысл хаоса в наших лекциях в том, что интересные сложные биологические системы подобны облакам. Они часам. Понадобится совсем другой метод объяснения. Так что давайте прервёмся на 5 минут и перейдём к нашему знакомству с теорией хаоса.
Мы выяснили, что западный редукционизм хорош для довольно простых систем, разбивающихся на слагаемые. Самым интересным же он не работает, потому что слагаемых не хватит, потому что нет чертежа с достаточным количеством элементов и из-за роли случая. И мы обращаемся к нелинейным системам, где нет аддитивности.
Где, разложив что-то на слагаемые, изучив их и сложив обратно, получите другую картину, а не сложится. Иначе исходное состояние системы не сможет предсказать, чего ожидать дальше, потому что слагаемые не складываются линейным образом. Хорошо, о чём речь? Во-первых, разберёмся с при чём тут хаос. Начнём с самого характерного. Итак, у нас два вида детерминированности. Допустим, нет, есть серия чисел и есть правило. Оно определяет, каким будет следующее число. Здесь мы просто прибавляем единицу. Эта система детерминирована, она периодична. Зная правило и зная, в какой точке находишься, можно предсказать, какое значение выпадет через пятнадцать шагов.
И для этого не нужно считать каждое число. Так, это 5, затем 6. Не нужно это делать. Мы уже знаем закономерность, и это позволяет нам предсказать любое значение системы, просто применяя правило снова и снова. Система детерминирована и периодична. Теперь сравним её с системой, детерминированной, но а периодична. Сейчас всё объясню. Есть некая система с последовательностью чисел, скажем, места на трёхмерной матрице, какая-то последовательность и есть правило перехода от одной точки к другой.
Но дело в том, что нельзя применить то же правило снова и снова. Нельзя просто: "Ага, у нас тут 5, я знаю закономерность, значит, могу точно сказать, где мы будем через десять шагов." Единственный способ — посчитать, что идёт за пятёркой, что идёт дальше и так далее. Тут не будет периодичности и повторяющихся паттернов. Единственный способ узнать, что будет дальше, идти поэтапно, применяя правило каждый раз, потому что отношения между этими двумя точками и этими будут отличаться.
Здесь всё было постоянно: всегда плюс один, всё аддитивно. В периодической системе тоже есть правило, она тоже детерминирована, но правила таковы, что промежутке разница в каждой паре непостоянно. И чтобы узнать, каким будет число через X шагов, вправо, сначала придется рассчитать вот это, а затем это, это а периодическая система. Возьмите любое значение, и зная правила, вы сможете рассчитать следующее, но вы не сможете узнать значение через два шага, пока не выясните предыдущие. Придётся проходить весь путь.
Система а периодична, здесь нет паттернов, которые можно применять снова и снова. И часто путают с третьим видом: недетерминированные системы, где играет роль случайность. В такой системе ряд выстроен вообще не по правилам. Каждая цифра совершенно случайна, и каждое последующее тоже. Здесь нет возможности прогнозировать, нужно проходить каждый шаг. Эта система недетерминирована. Нет свода правил, которые можно применять по очереди.
Свойства этой точки не определяют свойства этой. Подобной определённости тут нет. Но нас на самом деле не интересуют все эти случайности. Нам важны вот эти нелинейные хаотические системы, которые при этом детерминированы. И правила для них существуют, просто отношения между точками не идентичные. И не линии. Единственный способ узнать значение через два шага — это сначала узнать значение через один. Иначе никак.
И это принципиально отличается от систем, где, зная первичное состояние, можно предсказать, конечно и не просчитывая каждый шаг. Финальное значение не поможет узнать начальные. Разве что вы всё прочитаете. Система не поддаётся такому типу редукции. Когда это становится заметно, и так в книге Клейка на странице, кажется, 27 впервые появляется водяное колесо. Откройте, посмотрите иллюстрацию, погрузитесь в неё, вникните в содержании.
Мы начинаем разбираться, как нелинейное, а периодичность производит хаотическую систему. Итак, у нас есть водяное колесо. На ободе у него черпаки. У них на дне отверстия. Можно получить простое стабильное состояние. Вливаете немного воды, и она выливается, как только достигает черпака. Нижние черпаки никогда не заполняются. Колесо стоит на месте. Теперь усиливаем поток воды. Из-за этого возникает асимметрия веса. Хватает, чтобы начать вращать колесо. Эти уходят вниз, заполняется следующий черпак и так далее.
Вода вливается и выливается. Всё с постоянной интенсивностью. Вода идёт, колесо вращается. Мы можем задать скорость подачи воды, при которой движение будет сохраняться бесконечно. Колесо будет вращаться с заданной скоростью. Это стабильное состояние, эквилибриум. Всё стабильно. Настолько, что если вы будете знать значение скорости, направления и силы движений, то можно точно рассчитать, как с колесо будет двигаться спустя четыре тысячи семисот лет во вторник вечером. Это периодическая система.
Не нужно сидеть и наблюдать каждую секунду. 4000 лет состояние устойчиво. Система периодическая. К ней можно применить редуктивные. Теперь усилим поток воды ещё немного. Что тогда происходит? Колесо вращается ещё быстрее, логично. Черпаки быстрее наполняются, так она вертится быстрее. Супер, всё нормально. Затем наступит момент, когда вода перестанет успевать выливаться: с этой стороны будет оставаться всё больше воды, ведь ей просто не хватает времени, чтобы выливаться.
В итоге тяжести этих черпаков будет достаточно, чтобы колесо вдруг сменило направление вращения. Ладно, можно настроить поток так, что и здесь получится стабильный паттерн. При подаче воды колесо обернётся три раза. Три раза при такой-то скорости и напоре. И когда колесо совершит 3,73 оборота, она двинется в обратном направлении на одну и семь десятых оборотов, потом снова 3,7 оборота и опять-таки периодичность. Такой же период с двумя составными, с двумя сменными направлениями.
Сначала движемся в эту сторону, черпак переполняется, направление меняется первый раз. Чуть позднее вода распределяется так, что колесо идёт в другую сторону и всё по новой. Движение периодично, просто она следует паттерну с двумя частями. До количества элементов стало больше из-за напора, но правил. И то есть при такой скорости колесо сменит направление в какой-то момент, но такое-то время. А потом назад, зная это, остаётся только отследить скорость наполнения черпаков, и вы сможете со стопроцентной вероятностью предсказать, где будет колесо через 4000 лет. Это всё ещё редуктивная периодическая система.
Делаем струю ещё сильнее. Что происходит? Скорость выше, колесо вращается, меняет направление. Но так как вода выливается из черпаков, теперь гораздо медленнее, чем поступает в них, направление меняется вновь. А потом ещё раз. И мы возвращаемся к началу. Иными словами, получилось периодическая редуктивная система с четырьмя элементами. Колесо меняет направление четыре раза, прежде чем вернуться к начальному положению и начать всё сначала. Это лишь усложнённая версия абсолютно предсказуемой системы.
И если продолжать усиливать поток воды, мы будем удваивать число периодов вращения. Дальше можем сделать так, что колесо сменит направление восемь раз, прежде чем возобновит паттерн, и всё равно можно дать прогноз на тысячи лет вперёд. Просто умножаете на 2, и весь период можно представить графически. Здесь простая система, это просто вращение. Вот тут мы меняем направление, тут ещё. Суть ясна и очевидна.
Что если продолжать в том же духе? Мы получим ту же периодичность, тот же паттерн, повторяющийся до конца времён. Всё равно это периодическая система, просто чуть сложнее. Но дальше по мере этого усложнения происходит что-то, что превращает колесо в нелинейную систему, в хаос. По мере увеличения приложенной силы в нашем случае темпа поступающей воды, на каком-то этапе поток станет настолько сильным, что чёткое удвоение элементов системы превратиться в хаотический паттерн. Как мы можем это понять?
Колесо будет вращаться туда-сюда, потом опять. Последовательность вращений просто перестанет повторяться. Периодичность пропадёт. Паттерн будет бесконечно меняться в процессе, когда применяешь столько силы. Система становится хаотичной, и как следствие, знание одного состояния больше не даёт прогноз на 4000 лет вперёд. Единственный способ узнать, что будет через 4000 лет — это следить за колесом. Всё это время. Не получится рассчитать всё наперёд, просто зная закономерность.
Теория хаоса помогла понять, что когда мы берём структурированную редакционную линейную систему и начинаем увеличивать её энергию, после многократного удвоения редуктивной сложности наступает переходный момент, когда она становится хаотической. Паттерн перестаёт повторяться, и предсказать что-то невозможно. Первопроходцы теории хаоса именно это и пытались донести. С помощью колеса или возьмём цилиндр и поступим немного иначе. Он наполнен водой, и мы её нагреем. Через какое-то время произойдёт теплообмен, конвекция, слои в постоянном движении. И по мере нагревания меняют направление.
То же явление: на каком-то этапе вода нагреется так, что закипит. Движение станет турбулентным, система перейдёт в хаос, где нет периодичности, нет повторяющихся паттернов. У Джеймса Йорка, одного из сторонников хаоса, есть проницательная фраза: "Как только периодичность становится нечетной, будьте уверены, хаос уже близко!" То, что называется с третьим периодом. Если нарушается прогрессия 1, 2, 4, 8 и так далее. Если что-то вдруг изменилось и появился нечетный элемент перед повтором, значит весь паттерн скоро превратится в хаос.
Итак, мы выяснили, в чём суть хаотической системы. Есть начальное состояние, и по мере роста воздействия на систему периодичность нарушается. И что самое главное, возникает паттерн, который никогда не повторяется. Так что узнать состояние системы через X времени можно только наблюдая за ней весь срок. Нельзя предсказать, что будет происходить. Всё это время придётся следить за ней всю дорогу. Ведь эта система, в отличие от такой а периодичной.
Собственно, с чего начинали сторонники хаоса? Нелинейные системы не новость. Они были известны математикам и физикам уже давно в разных формах. И как раз на том моменте, когда всё уходило в хаос, они говорили: "Что ж, начинаются помехи". Система больше не работает как надо, потому что линейная периодичность куда-то делась. С системой что-то неладно. Мешает шум. И это вариативность. Мы более не будем это изучать.
И если бросать изучение чего-либо на этапе, когда исчезают остатки периодичности, получается очень искажённое представление о том, что всё интересное в этом мире работает по редуктивной периодической схеме. Ведь ты тем самым говоришь: "Меня изрядно нервируют эти нелинейные хаотические штуки, так что я запишу их в аномалии и изучать мы будем только происходящее до сих пор". И сделаем вывод, что весь мир так и работает. Как генетики, бихевиористы, которые говорят: "Я хочу понять, как наследуется признак, и хочу чистую картину".
Так что мы будем изучать его только в одной среде, потому что если изучать в нескольких, получается вариативность и бардак в данных. Нет, не получается. Просто так мы видим, что наследуемость мизерные. Такие учёные намерены лишать себя возможности увидеть, что действительно происходит. Первопроходцы теории хаоса стали показывать, что всё самое интересное, что есть в сложных системах, лежит в царстве хаоса, в то время как наука извечно отворачивается и притворяется, что этого нет и сводит изучение сложных систем до простейших сфер с двойными периодами.
Почти весь мир так делает, и наука изрядно потрудилась, игнорируя феномен. Стоит вам это заметить, как становятся видны любопытные последствия. Итак, вы взялись разбираться с одной из таких хаотичных систем, и сначала изучили аккуратную периодическую базу. Поступает немного воды, колесо крутится на заданной скорости, и тысячи лет спустя она будет делать то же самое. Отличная периодическая система. Можно выразить её графиком: в какую сторону она поворачивается, туда или сюда, отметить скорость, силу и прочее. И получите точку, обозначающую вращение в этом направлении с данной скоростью.
Это момент стабильности, полной предсказуемости. Одна из особенностей подобных скучных периодичных линейных редукционных систем в том, что в них можно вмешаться, а спустя какое-то время они возвращаются в норму. Придержи колесо, и собьёшь весь паттерн; отпусти, и движение вернётся в прежнее русло. Колесо понадобится чуть-чуть времени, но она вернётся к исходному паттерну. Что будет с графиком? Это стабильное состояние.
Теперь вмешаемся. Мы придержим колесо или выключим воду на секунду. Какое-то время колесо будет делать так и так, и в итоге вернётся на место, к стабильному предсказуемому состоянию. Оно притягивается к этой точке. Для подобных линейных систем это называется аттрактор. Если нечто вклинивается в работу системы, аттрактор возвращает её к равновесию и устойчивости, притягивает и их правду в состоянии. А если мы находимся не в этой точке, а вот тут или тут или здесь, всё это просто шум, от которого мы избавляемся и приближаемся к идеальному значению, идеальному выражению системы.
Теперь посмотрим, что происходит, когда система всё-таки превращается в хаотическую. Итак, предположим, что здесь аттрактор, отмечая на графике скорость, направление вращения, силу и прочее. Вы заметите, что орбита движения выглядит вот так и достигает критической точки, где колесо вдруг изменит направление. Продолжит двигаться туда, а затем изменит снова и получится паттерн, напоминающий крылья бабочки, ставший эмблемой теории хаоса.
Что это? Это описание работы системы, которая переступила порог в хаос. Она больше не вернётся к стабильному паттерну. Система никогда не вернётся к аттрактору, поэтому её состояние нельзя предсказать. Она постоянно хаотична. Теперь возникает вопрос, любопытно: система не возвращается к аттрактору, но явно ходит где-то рядом. Её к нему тянет, но не так как в прошлый раз, когда после колебания всё быстро приходило в норму. Тут всё возвращалось к исходной точке, а здесь система никогда её не достигает, хотя стремится.
Что же мы имеем? Странный аттрактор. Такой придумали термин. Есть обычный аттрактор, притягивающий к одной стабильной точке, так что система переходит в абсолютно предсказуемое состояние. Странный же аттрактор вызывает подобное колебания системы, но не возвращает её к одной точке. Открываются новые возможности, ведь здесь, когда ты ещё не достиг центра. Что у нас вот тут? Это шум, вариативность.
Подожди немного, и он уйдёт, и система придёт к правильному состоянию. В системах со странным аттрактором. Что такое вариативность? Это не шум, это феномен. Здесь не бывает правильных состояний, нет идеализированного правильного ответа. Ты просто болтаешься вокруг, и идея о том, что, будь у вас больше контроля, вы бы нашли точку баланса, это миф и фантазия.
В сложных системах нет правильного эталонного ответа и бесполезных помех. Вариативность и есть система. Важное дополнение. Итак, вы смотрите на эту точку. Здесь указано положение колеса, его направление и скорость, целый ряд данных. И точки всегда будут выстраиваться непредсказуемо. Но погодите-ка! В какой-то момент траектория движения пересечет одну точку дважды. Пойдет сюда, потом так и снова попадет в неё же. И в этой точке мы применяем те же детерминистские правила и получается, что мы знаем, куда система пойдёт: в эту точку, а потом в эту.
Что это получается? Мы нашли периодичность! Погодите, так это не хаос. Как только система попадает в точку, в которой она уже была, она должна повторить прежний паттерн. Хаос должен уйти и вернуться. Порядок. Как так? На потому что орбиты пересекаются. Посмотрите. И вот вам вторая ключевая концепция в этой сфере. Допустим, координаты этой точки 6 и 3 каких-нибудь стандартных. Это координаты точки при первом проходе.
И теперь система снова её пересекает. О, нет! Всё повторяется. Никакого хаоса, никакой бесконечной неопределенности. Всё сломалось, ничего не работает. Пока не присмотришься, тогда окажется, что координаты не 6 и 3, второе значение оказывается 3 и 7. А здесь было 3 и 8. То есть это не совсем та же самая точка.
Где же она тогда? Что же, теперь мы всё тщательно измерили, и вообще-то они обе 3 из 7 — это тоже место. А теперь посмотрим ещё точнее: два знака после запятой, миллион знаков после запятой. Они всё ещё находятся в одной точке, вплоть до миллионного знака, и лишь миллион первый окажется чуть-чуть другим. Выходит, это всё-таки не то же.
Это подводит к следующему моменту. В такой ситуации, когда среди миллиона знаков после запятой хотя бы какой-то отличается, это означает, например, у одной точки хвосте идет 82, у второй 83. В какой-то момент начинает проявляться разница между этой и этой. Тут одна, тут другая. Их следующий шаг будет отличаться, потому что условия не идентичны. Различие в миллион втором знаке после запятой через один шаг станет разницей в миллион первом.
Что в свою очередь изменит миллионной и так далее, вплоть до целых чисел. Малейшее несовпадение только усиливается. И это и есть эффект бабочки. В стандартном жаргоне теории хаоса эффект состоит в том, что взмах крыльев бабочки в Корее повлияет на погоду в Индиане. И неплохой пример роль локальных событий. С бабочкой махнула крыльями — она могла этого не делать. Что изменилось в общем потоке воздуха на планете? А вот тот самый миллионный знак после запятой, где-то хвосте было три, стало четыре. Всё из-за бабочки.
Это изменит предыдущий знак, и ещё один. Разница лишь будет расти, когда всё это выйдет на следующий уровень. Новая точка будет совсем в другом месте. Вот почему паттерн не возвращается в баланс, а ходит вокруг. При достаточно близком рассмотрении становится видно, что в хаотической системе значения не повторяются. Координаты каждой точки уникальны. Как бы длинный ряд чисел вам не пришлось изучать, две цифры будут отличаться, и эта разница может потенциально усилиться из-за эффекта бабочки.
И возникает совсем другой взгляд на вещи. Если любые две координаты отличаются, пусть и на 1 10 миллиардную, это уже не просто шум, это не вариативность, это суть системы. Из-за того, что различия будут только расти и усиливаться, вся система становится непредсказуемой. Эффект бабочки. Хорошо, дайте сообразить важный момент про странные аттракторы. Они не только непредсказуемые, что, конечно, важно, и детальный анализ не поможет. Вариативность остаётся шум, никуда не уходит. Но почти с философской точки зрения ключевой момент в том, что в скучной линейной системе аттрактор — это ответ.
А в хаотических системах единственного решения нет. И если вы здесь, это не значит, что ответ не верный. Он просто не совсем точный, но точного и не существует. Искать единственный ответ — значит игнорировать все эти данные вокруг. Правильного аккуратного ответа не существует. Ответ состоит в том, что система совершенно непредсказуемая.
Ещё одна характерная черта: даже если увеличить масштаб, всё равно остаётся вариативность, которая может перерасти в эффект бабочки и повлечь большие изменения. Посмотрим ещё ближе. Всё равно эффект бабочки может сыграть свою роль. Неважно, как близко вы смотрите, сколько знаков считаете и как хороши ваши редуктивные инструменты. Вариативность остаётся на всех уровнях, и описать это свойство можно как свободу от масштаба. Природа вариативности неизменна.
Возьмите целое число или с точностью до сотых или сто пятисот миллиардных — не важно, на каком уровне вы изучаете систему. Тот факт, что разница останется и всё ещё сможет аукнуться эффектом бабочки, означает, что система не привязана к масштабу. Как бы близко мы не смотрели. Иначе говоря, редуктивная философия, уповающая на масштаб, качество измерительных приборов, которые должны избавить нас от вариативности, не применимо к хаотичной свободной от масштаба системе.
Независимо от степени редукции и детализации картинки, шума будет пропорционально столько же, потому что это вовсе не шум, это и есть система. Так что редуктивный подход, идея о том, что нужно лишь смотреть поближе, да, инструменты получше, отпадает, потому что это не шум, это феномен, и он есть во всех масштабах. Таким образом, мы подходим к тому, что такое фрактал.
Фракталом называют сложный паттерн, визуализацию или само уравнение, которое её описывает. И он не зависит от масштаба. Внешний вид остаётся одинаковым, сложность остаётся неизменной, сколько ни приближай. Ровно как и степень вариативности, потому что это не вариативность, а суть системы. Итак, давайте определим, что такое фрактал. Это нынче модная тема. Есть несколько подходов.
В самом формальном варианте фрактал — это информация, которая кодирует паттерн. Например, она может кодировать паттерн выделение, то есть одномерный объект. Но траектория движения линии очень сложные, бесконечно сложная. Поэтому даже если посмотреть ближе, проще она не станет. Другими словами, это будет бесконечно длинная линия в конечном пространстве.
И в чем-то это начинает напоминать двумерный объект. Фрактал — это некий объект или свойства фракция, часть измерения, бесконечная линия, та же линия, но чуть больше, чем просто ещё не два измерения, где-то 1,3. Фрактал — это система с дробными измерениями. Она остаётся бесконечно сложной при любом масштабе, а значит, эта линия не похожа на другие бесконечно длинные линии в ограниченном пространстве.
Это больше, чем линия, но она и не совсем двумерная. Эта фракция не целое измерение. Это формальное математическое определение фрактала. Для наших целей фрактал — это то, что не меняет своей вариативности, как близко бы вы не смотрели. Классический пример фрактальной системы — каналы на Марсе или дендриты нейрона. Как бы близко вы не смотрели, степень сложности и вариативности пропорционально не меняется. Это фракталы.
Бифуркации — это классические фракталы. Вариативность в системе неизменна при любом масштабе. Это говорит о том, что вариативность в данном случае не шум, а сама суть системы. Так что дальше? Итак, фрактальное свойство системы кровообращения — это фрактал. Примерно такой же сложный в своём ветвлении, как и дыхательная система. Как и дендриты нейрона, как и ветви деревьев. Всё это фракталы. Их сложность и вариативность не зависит от масштаба.
Это проявляется во всех физиологических системах. Степень сложности фракталов неизменна при абсолютно любой степени приближения. И немного забегая вперед, скажу, что это свойство поможет решить проблему кодирования бифуркаций в системе из миллиарда клеток и к единственной клетки. Можно применить практически одинаковые правила. Главное, чтобы они не зависели от масштаба. Подробнее на следующей лекции. Начнём решать проблему нехватки генов и поговорим о фрактальных генах, которые дают инструкции, не привязанные к масштабу. Это в пятницу.
Итак, мы сталкиваемся с всевозможными фрактальными системами, где снова и снова важно понимать, что вариативность — это не шум. Это суть системы. Абсолютного решения нет, детальный анализ не снимет вариативность. И для примера обратимся к сфере биологии. Так было одно исследование, которое я провёл лет пятнадцать назад. Пожалуй, самым одержимым студентам из всех, что у меня были за эти годы, только благодаря ему мы смогли воплотить задуманное.
Парень был просто помешан. Ему как всё началось. Я подумал, что совсем этим хаосом и фрактальностью мы всё ещё опираемся на стандартную модель. Вот бы измерить всё на клеточном уровне. Это гораздо лучше, чем анализ крови. Меньше шума. Мы работаем по схеме: чем редуктивный подход, тем чище данные. В мире нелинейных фрактальных систем, где эта схема не действует, это сподвигло меня на исследования.
Я хотел изучить данные, представленные в научной литературе на разных уровнях редукции, и посмотреть, как себя ведёт вариативность. Были нужны максимально контролируемые эксперименты по теме общей биологии. И мы решили, что было бы интересно изучить влияние тестостерона на поведение. Но тема не хуже и не лучше других. Каково его влияние?
Можно искать ответ на уровне сообществ. Хорошо, уровень тестостерона у землевладельцев и охотников разный. Как это отражается на поведении? Можно подойти к проблеме на уровне индивидов: что уровень тестостерона человека говорит о его поведении? Можно и на уровне органов: что происходит с кровяным давлением по всему телу, с обогащением мозга кислородом, вплоть до отдельного органа, мозга, клетки, молекулы. Вниз по цепочке логика ясна. И мы, используя слова, — мы в самом паразитическом смысле. Мы обратились к научным трудам. И не без причины мы выбрали не современные труды, а литературу десятилетней давности.
Мы изучили публикации всех журналов, каких только могли, если они печатали что-то, хоть как-то связанное и с эффектом тестостерона на поведение. Начинаем с работ по антропологии, сопоставления различных групп и заканчивая кристаллографии тестостерона, вых рецепторов. И этот безумец, мой напарник, прошёлся по каждой публикации. Сначала разделив их на группы, посвящена ли она организму, системе организмов, клеткам, внутриклеточным структурам.
Затем он измерил вариативность данных в каждой работе. То ещё тягомотина. Вот наглядно берёте статью, и в ней будет такая диаграмма, показывающая, что для данной группы среднее значение такое, а это показатель степени вариативности. Он говорит о том, что в этом показателе было больше вариативности, чем в этом. И вы можете детали: тут не важны. Вы можете вычислить так называемый коэффициент вариации. Это отношение количества вариативности в этом показателе к общему значению.
Получаются вот такие условия. Допустим, здесь высота 100 единиц, здесь 10, а здесь 50. Тогда коэффициент вариации равен 50 процентам. Вариация результатов в половину от полученных значений, а в этом случае — 10 процентов, здесь гораздо меньше шума. Мой напарник провёл следующие три с половиной года, изучая сотни статей со своей маленькой линейкой. Он изучал среднее значение отклонения для каждого показателя, вычислял коэффициент вариации каждого столбика, каждой диаграммы, каждой публикации, в которых этих столбиков штук 100. Измерял он всё это и сходил с ума.
В качестве вишенки на торте вычислил средний коэффициент вариации для всех публикаций в категории "организмы", в категории "клетки" и вниз по шкале. Какой прогноз для редукционизма? По мере того, как предмет исследования переходит от организмов к внутриклеточным и субмолекулярным структурам, по мере усиления редуктивный шум вариативности коэффициент вариации должен уменьшаться. Такова традиционная научная трактовка. По теории хаос и фракталов это не шум.
Это не то, от чего можно избавиться, улучшив инструменты. Это сама суть, непостоянство природы системы. Они искажения данных. Следовательно, относительное количество шума, коэффициент вариации не будет уменьшаться. Вариативность вообще не должна зависеть от того, на каком уровне вы изучаете феномен. Итак, результатом огромного труда и потраченных девяностых стал вот этот единственный график. Да, да, он утирал слезы счастья и гордости, когда мы наконец его увидели.
Итак, вот коэффициент вариации для всех данных во всех публикациях того года, посвящённых организмам, и равен он примерно 18 процентов. Система органов, отдельные органы, клетки, внутриклеточный уровень. Уменьшается ли вариативность? Вообще нет. Она никуда не уходит. Показатель остается примерно тем же на любом уровне, от обществ и вплоть до кристаллографии молекулы. Данные не становятся чище. Вариативность не уменьшается, потому что это фрактальная система.
Был, конечно, один момент: мы изучали вообще все работы, вышедшие за год. И само собой нам попадались далеко не самые качественные исследования по теме. Быть может, они и создают в системе достаточно шума, чтобы влиять на наши результаты на каждом уровне. Именно из-за этого мы брали работы прошлых лет. Мы могли посмотреть, сколько раз та или иная статья цитировались за последние 10 лет.
То есть можно было разделить публикации на те, которые котировались специалистами по теме и на всякий мусор. И оказалось, что если проанализировать топ 10 процентов статей, взяв самые влиятельные, диаграммы выглядят так же. Эта фрактальная система, подобравшись вплотную к самым мелким деталям, аж до уровня молекул, вы не получите более чистых данных, потому что это хаотическая фрактальная система.
Было очень интересно. Ещё веселее были наши попытки её опубликовать. Собрали мы данные, написали статью и отослали её в один из моих любимых журналов по нейрофизиологии. Пару недель спустя пришёл ответ от редактора со словами: "Обалденная тема, очень интересная. Она заставила меня пересмотреть некоторые вещи. Такая вдохновляющая, правда, я не пойму, какое отношение она имеет к нашему журналу. Так что печатать мы её не можем."
Так что я отослал статью в мой любимый журнал по эндокринологии. Две недели спустя приходит письмо от редактора: "Ух ты, потрясающе! Давайте пообедаем вместе, приносите статью с собой. Но я не совсем понимаю, при чём тут наша область?" Маршируя по всевозможным журналам по подходящим дисциплинам, каждый раз мы получали в ответ: "Очень интересно, мне не терпится рассказать моему другу социальному антропологу или кристалографу, но я не вижу, как это связано с нашей конкретной областью."
Нам не удалось опубликовать статью ни в одном из журналов, специализирующихся на затронутых нами уровнях. В конце концов, нас опубликовали в журнале с философскими трудами по медицине и биологии. Кажется, я был первым автором моложе 80, который у них печатался. Это журнал, где слегка склероз и дряхлые почтенные профессора философствуют, потому что больше не проводят исследований. Я сломал возрастной барьер этого журнала. Мы опубликовали, и за последующие годы статья имела примерно нулевое влияние в плане количества цитирований и ссылок на неё.
Хотя не совсем так. Был один математик из Москвы. Он начал писать мне примерно через пару месяцев после выхода статьи. Сказал, что это было самое замечательное, что он когда-либо читал, что я изменил его жизнь и что он меня любит. С тех пор он пишет мне примерно каждые три недели. Он не очень силен в английском, то ли он хочет установить меня, то ли я должен установить его, не уверен. Но насколько я могу судить, это единственный специалист, который заметил, что исследования связаны с его областью.
Итак, прелюдия к следующей лекции: фракталы разрушают представление о том, что если найти приемы редукционизма 16 века, то получишь лучшее данные. Не получишь, потому что вариативность остаётся прежней: это сама система. А куда всё делось? Вариативность — свойства системы, они искажения. Фракталы подтверждают это. В следующий раз мы узнаем, как фрактальные системы могут решить ту проблему с нехваткой нейронов и генов.
Хорошо, итак, при беглом осмотре, в чём основной посыл сегодняшней лекции? Развенчание редукционизма, годного лишь для починки часов. Интересные вещи, вроде облаков и нелинейных динамических систем столь же интересны, сколь сложны. При любом масштабе, ура! Большая часть науки бессмысленно. Ураном! Мы на передовой. Да уж, засада. Это не многое даёт, потому что теперь нужна альтернатива. Так где же брать настоящую прогнозируемость, истинное понимание вещей? В пятницу и узнаем целое