Действуй, мозг! Квантовая модель разума

Роман Бабкин

«Действуй, Мозг! Квантовая модель разума» – попытка объединить современное физико-математическое и биологическое знание в новое научное объяснение человеческого мозга. Представлен критический обзор других, существующих в настоящем, моделей: научных и фольклорных. В контексте изложенной в книге гипотезы освещены многие факты, касающиеся деятельности мозга. Приведены следствия квантовой модели разума, включая практические аспекты его трансформации в условиях ускорения информационного обмена.

Оглавление

Рисунки и таблицы к главе 3

Глава 4. Мозг-компьютер

«42», — сказал Думатель, с бесконечной величественностью и спокойствием

писатель Адамс сообщает ответ суперкомпьютера на Главный Вопрос Жизни, Вселенной и Вообще

It from bit

физик Уилер пытается всё объяснить

Про роботов, шахматы и вычисления

В этой главе мы обсудим т.н. «вычислительную модель» — представление о человеческом разуме, которое в сжатой форме сводится к тезису «мозг — это компьютер».

Надо сказать, что в научпопе, поглощенным вопросом «Похож ли мозг на компьютер?», уже сложился своего рода канон. Считается хорошим тоном, как минимум, упомянуть три факта:

— идея о мозге-компьютере родилась в художественной литературе (чаще всего указывают на 1920 — год публикации пьесы Карела Чапека «R.U.R.», где впервые описаны разумные роботы);

— приоритет научной формулировки или, как вариант, первенство в популяризации проблемы принадлежит математику Алану Тьюрингу (обязательна ссылка на его статью 1950 г. «Вычислительные машины и интеллект»);

— победа шахматного автомата, суперкомпьютера Deep Blue, над действующим чемпионом мира Гарри Каспаровым (в мае 1997 года).

Самое смешное, что эти факты не имеют никакого отношения к проблеме устройства живого мозга. Они не имеют отношения даже к попытке описать его как вычислительное устройство.

Объяснимся. Правда, сделаем это, обсуждая приведённые выше факты в ином порядке: статью Тьюринга оставим напоследок.

В пьесе Чапека речь идёт о похожих на человека машинах, действующих автоматически — по предписанной программе или согласно поступающим онлайн приказам. Автор назвал их «роботами».

Трудно всерьёз обсуждать возникновение научных идей из творений художников, но заметим, что в произведении Чапека нет ничего ни про компьютеры, ни про компьютерный мозг.

Метафора автомата, копирующего поведение человека, стара как мир.

Воплощения разнообразны: от ветхозаветного Голема до чудовища Франкенштейна и Железного Дровосека из Страны Оз. (Подробнее о фольклорных сюжетах, где фигурирует персонаж «автомат» мы поговорим в главе 10).

Факты про шахматные автоматы, побеждающие человека, тоже не такие уж свежие и сенсационные, как представляется на первый взгляд.

В конце XVIII — начале XIX века по Европе в сопровождении группы предприимчивых «инженеров» гастролировал шахматный автомат под названием «Механический Турок».

Устройство представляло собой фигуру, облаченную в «традиционный турецкий костюм» и сидящую за столом-тумбой, на котором лежала шахматная доска. Желающих приглашали сыграть. При этом открывали створки стола-тумбы и демонстрировали хитрый механизм из шестерёнок и прочих деталей-узлов неизвестного назначения. Зрителей убеждали: всё по-честному. Участник шоу садился напротив «Турка», механизм заводили специальным ключом, и начиналась игра.

С Турком-шахматистом сражались знаменитости: Наполеон, Бенджамин Франклин, Эдгар Алан По. Механизм одерживал верх не только над ними, но и над многими сильными игроками. Образованная публика была в восторге от чуда техники и славила прогресс.

Обман раскрылся в 1834 году.

Оказалось, что в стол-тумбу помещался человек, умеющий играть в шахматы. То был, как правило, искусный мастер. Он получал информацию о перемещении оснащенных магнитами фигур посредством отдаления-притяжения металлических шариков под каждым полем доски, и управлял руками «Турка» с помощью системы тросов и рычагов. При демонстрации внутреннего пространства стола-тумбы створки открывались так, что человек мог прятаться за одной из них и за бутафорским механизмом.59

Корректно ли сравнивать жульничество из далёкого прошлого с современными суперкомпьютерами, обыгрывающими чемпионов мира?

Я и не сравниваю. Лишь напоминаю: с единичными фактами, какими бы яркими они ни казались, нужно обращаться осторожно.

Почти сразу после завершения памятной игры, шахматного поединка между Deep Blue и Гарри Каспаровым в 1997 году, чемпион мира потребовал у разработчиков суперкомпьютера, сотрудников компании IBM, организовать матч-реванш. Ему отказали.

Каспаров обратил внимание, что некоторые игровые решения (как удачные, так и ошибочные) Deep Blue чересчур напоминали человеческую логику. Он намекнул, что, возможно, эти ходы были результатом «мозгового штурма», предпринятого группой гроссмейстеров, скрытых от глаз публики. В конце концов, сам суперкомпьютер располагался в отдельном помещении, а шахматные фигуры двигали операторы из IBM. Если б удалось доказать, что Каспаров прав, то вышло бы, что имела место мистификация в духе аферы с «Турком».

Однако стороны предпочли не раздувать конфликт. Deep Blue вскоре демонтировали, а факт первой шахматной победы компьютера над чемпионом мира вошёл в историю.

Скорее всего, Deep Blue победил честно. Последующие поединки — других суперкомпьютеров и других людей-гроссмейстеров — неизменно завершались в пользу машины.

Любопытно не это (думаю, нас не слишком задевает, скажем, тот факт, что на планете есть существа, живые или искусственные, которые бегают быстрее, чем мы; умеют летать; чувствуют электромагнитные поля и пр.). Интересно иное: имитация довольно узкой способности нашего мозга — хорошо играть в шахматы — действительно могла бы прояснить некоторые аспекты его работы.

В книге «Человек и компьютер» Гарри Каспаров описывает две стратегии, по которым развивались шахматные программы в 1980—90х гг.

Первая стратегия условно может быть названа «грубой силой». Она сводится к наращиванию скорости вычислений, т.е. увеличению объёма анализируемых устройством позиций за единицу времени.

Вторая стратегия — «выборочный поиск», где приоритетом является генерация гипотетических позиций без тщательной проверки каждого хода.

Как отмечает Каспаров, «выборочный поиск» суть эвристический метод анализа и напоминает интуитивное мышление человека (хотя, конечно, не является единственной стратегией, которую использует наш разум).

Однако разработчики шахматных суперкомпьютеров предпочли «грубую силу». Которая, по мере развития мощности процессоров, одержала закономерную победу над медленно вычисляющим мозгом человека.

Deep Blue в течение каждого хода генерировал огромное число вариантов дальнейшего развития партии. Условно говоря, за то время, пока человек в уме просчитывал одну комбинацию, суперкомпьютер успевал вычислить миллион вариантов. После чего ему оставалось лишь выбрать лучший.

Размышляя о том, что было бы, если б разработчики современных шахматных автоматов пошли по пути выборочного поиска и других подобных стратегий, Гарри Каспаров пишет: «Это обилие интересных идей, призванных повысить эффективность интеллектуальных машин, показывает, почему попытки понять, как работает человеческий разум, и проникнуть в тайны мышления были отброшены. Что важнее — процесс или результат? Люди всегда хотят результатов, будь то в инвестировании, сфере безопасности или шахматах. Такое отношение, сокрушались многие программисты, способствовало созданию сильных шахматных машин, но ничего не дало науке и прогрессу в области ИИ [искусственного интеллекта — Р.Б.]. Шахматная машина, которая думает как человек, но проигрывает чемпиону мира, не сделает сенсации. Когда же шахматная машина побеждает чемпиона мира, никого не волнует, как она думает». 6

Примечательно, что первая версия суперкомпьютера, который готовили к поединку с Каспаровым, назывался Deep Thought (один из возможных переводов — «Думатель»). Инженеры и программисты IBM взяли это имя из фантастического романа Дугласа Адамса «Автостопом по галактике».

По сюжету произведения люди, создавшие суперкомпьютер, ищут ответ на Главный Вопрос Жизни, Вселенной и Вообще. Результат вычислений «Думателя», произведенных им в течение семи с половиной миллионов лет (!), приведён в эпиграфе к этой главе. Когда разочарованные таким ответом потомки создателей суперкомпьютера бросили ему горький упрёк, тот резонно заметил, что неплохо бы для начала чётко сформулировать вопрос.21

Сумел бы реальный Deep Blue или иной современный суперкомпьютер ответить на такой вопрос? Или, как верят свидетели трансгуманистического рая, нужно ещё немного подождать? Когда-де изобретут сверхмощный ИИ, и он, подобно хорошо известным фантастическим историям, станет за нас управлять экономикой, медициной, образованием, участвовать в урегулировании политических и семейных разногласий, и всё ж таки просветит нас — в чём смысл жизни?

Проблема в том, что, чтобы управлять чем-либо (не говоря уж о размышлении над вопросами типа «в чём смысл жизни?»), надо о том, чем управляешь, знать всё (для ответа на вопрос о смысле жизни надо определить, что понимается под «смыслом» и «жизнью»). Или, по крайней мере, быть уверенным в правилах, по которым это работает.

В отношении социогенеза и взаимодействия отдельных людей никто таким знанием не обладает. Ни какой-либо человек, ни человечество.

Почему?

Потому что у этих объектов-феноменов нет правил. И нет ограничений по объёму информации.

В поведении человека и в поведении групп людей возможно всё — в отличие от шахмат, шашек, го, покера и прочих искусственных моделей реальности, ограниченных по числу возможных состояний.

К списку, в котором фигурируют сложные явления социогенеза и феномены человеческой коммуникации, можно добавить ещё один объект.

Это живой мозг. Собственно, он-то и является источником сложности.

Раз так, то спрашивать — похож ли мозг на компьютер (то и другое умеет играть в шахматы)? — всё равно, что задаваться вопросом: «Похож ли человек на муравья (то и другое шевелится)?» или «Похожа ли Вселенная на Луну (то и другое имеет форму сферы)?».

Раз так, то всякий суперкомпьютер или любой другой гипотетический вычислитель — ИИ, Deep Thought, «Думатель» и пр. — никогда не сравнится с человеком по способности решать интеллектуальные задачи всех, какие только существуют, типов.

Проигрывая в скорости вычислений, мы всегда будем выигрывать в области невычислимого.

Т.е. в такой области, которая намного (на очень много!) превышает пространство вычислений, где не действуют никакие, заранее заданные, правила и где компьютеры бессильны.

Короче говоря, машины думать не умеют. Более того: никогда не будут уметь.

Сделав это провокационное заявление, мы вплотную подошли к обсуждению статьи Алана Тьюринга «Вычислительные машины и интеллект» — последнему популярному аргументу любителей порассуждать о мозге-компьютере.

Во-первых, заметим, что нашумевшая статья была опубликована не в математическом или физическом журнале: автор выбрал философский журнал с говорящим названием «Mind».

Помимо прочего это указывает на то, что Тьюринг не стремился сформулировать научную проблему. Ведь последнее подразумевает наличие гипотезы — утверждения о предполагаемом факте и/или закономерности.

Ничего подобного в статье нет.

Во-вторых, вопрос, который чаще всего цитируют («Могут ли машины мыслить?»), по ходу изложения трансформировался у автора в «Могут ли машины имитировать поведение человека?».

Согласимся, что вопросы относятся к разным предметам.

Первое — явный эпатаж для привлечения дополнительного интереса (с таким же успехом можно вопрошать: «Может ли трактор мыслить?» или «Есть ли у самолёта душа?»).

Второе — попытка перевести философскую проблему в прикладное русло. Которая, собственно, выразилась в предложенном математиком способе отличить человека от его имитатора — в том, что сейчас зовётся «тестом Тьюринга». 62

На мой взгляд, совершенно ясно, что Тьюринг не делал предположения о том, что машины, вообще говоря, могут мыслить.

Следовательно, эта статья, скажем, к проблеме конструирования ИИ не имеет никакого отношения. И даже не формулирует её.

Какого-либо предположения об устройстве живого мозга, как мы отметили выше, в публикации тоже нет.

Значит, о модели «мозг-компьютер» речь также не идёт.

Так о чём речь? Что интересовало Тьюринга?

«Похож ли компьютер на мозг?» — вот что, по всей видимости, хотел узнать Алан Тьюринг, и поделился этим желанием в статье 1950 года.

Кому, как не Тьюрингу, создателю концепции вычислительного автомата (подробнее — в подглаве «Computor и Computer»), спрашивать об этом? Должны ли мы удивляться, что математик попытался расширить представление о возможностях своей теории вычислений — увидеть ещё одно полезное приложение своему детищу?

В этом контексте пресловутый тест Тьюринга — не сколько-нибудь реальный способ доказать, что робот/автомат/компьютер/ИИ в результате, например, машинного обучения достиг такого уровня интеллектуального развития, что стал неотличим от человека.

Это фольклор, а не наука. Детская сказка. Сюжет для фантастического блокбастера.

Тест Тьюринга — попытка ещё раз проверить ключевую идею математика о том, что вычисления компьютера и вычисления живого мозга имеют единую фундаментальную основу. Проверить, не ошибся ли он, отождествляя эти процессы у машины и человека.

Тот счастливый для современных машинопоклонников день, когда искусственный вычислитель всё-таки пройдёт полный тест Тьюринга, будет означать не то, что компьютер может полностью заменить человеческий мозг, и не то, что якобы состоялось долгожданное рождение ИИ.

Этот день будет означать лишь тот заурядный и давным-давно интуитивно понятный факт, что наш мозг может, в том числе, вычислять, как компьютер.

Только и всего.

Увы, нам пришлось отвлечься и потратить время на разъяснения, чтобы несколько проредить туман, навеянный пылкими «говорящими головами», бессвязно и бездумно повторяющими мантры про разумных роботов, шахматные суперкомпьютеры и тест Тьюринга.

Сделав эту необходимую предварительную работу, возвращаемся к науке — к вычислительной модели живого мозга.

Как в предыдущей главе, попытаемся для начала разобраться, кому, как и почему пришла в голову оригинальная идея — интеллектуальная инновация об устройстве разума.

Бинарная логика, или Какой рост у Сократа?

Идея о механическом мозге родилась в период расцвета механической парадигмы в науке.

Идея о мозге-компьютере появилась во время становления другой научной парадигмы. Назовём её идеей вычисляемой дискретности или, проще, цифровой парадигмой.

Сразу заметим, что под идеей вычисляемой дискретности мы не имеем в виду смутные взгляды воротил мысли из далёкого прошлого. Концепция атомизма древнегреческого философа Демокрита столь же похожа на «монады» Лейбница, сколько аверроизм — на «дуализм» Декарта.

Механическая и цифровая парадигма развивались параллельно, но с временным лагом: по темпу распространения первая значительно опережала вторую.

Поэтому тогда, когда Рене Декарт и Исаак Ньютон предложили уже более-менее проработанное механическое толкование, соответственно, мозга и Вселенной, их современник, другой выдающийся учёный, Готфрид Лейбниц фактически заложил основы принципиально иного, универсального, ответа на фундаментальные вопросы о мироздании, о жизни, о природе бытия и о разуме.

Универсализм — характерная черта творчества Лейбница, профессионального математика и мыслителя с чрезвычайно широким кругозором. В какую бы область познания ни обращался его беспокойный и могучий ум, всюду он стремился найти общий закон.

В математике, независимо от Ньютона, он изобрёл дифференциальное исчисление. В физике, полемизируя с Декартом, дал верную интерпретацию кинетической энергии. В лингвистике пробовал соорудить всеобщий язык, назвав его «универсальной характеристикой». В философии выдумал «монады», которые суть мельчайшие, наделенные духом, свойства бытия.

В каждом случае просматривалась одна и та же мысль: непрерывное движение бесконечно малых величин, подчиненных закону необходимости. Это и есть прообраз идеи вычисляемой дискретности.

Разгадка «загадки атомизма Лейбница», возможно, содержится в его интересе к химии, где становились популярными корпускулярные идеи.23 Но, скорее всего, дело всё в той же математике.

Дифференцирование — развитие идеи числа как отношения величин. Как и Декарт (см. главу 3), Лейбниц, разъясняя суть нового метода исчисления, прибегал к геометрической метафоре: кривизна объекта (например, наклон касательной в данной точке параболы) на данном отрезке определяется отношением приращения значения функции к приращению аргумента: dy/dx.

Сейчас такое отношение принято называть пределом (при условии, что аргумент стремится к нулю).61

Эта математическая истина преобразовалась у Лейбница, по выражению историка науки Мартина Дэвиса, в мечту о создании всеобщего закона, который позволил бы сконструировать универсальный язык и универсальную вычислительную машину. Она могла бы, скажем, работать на основе бинарной арифметики, которой математик в 1703 году посвятил специальную работу.33

Не вдаваясь в тонкости мировоззрения Лейбница, вряд ли будет натяжкой сопоставить придуманные им «монады» с разумным и активным «субъектом» в понимании Гегеля, а, значит, увидеть в работах великого математика попытку возвести логику в ранг главной науки.

Ведь математическая логика в этом случае выступает как один из инструментов самопознания абсолютного духа, которое Гегель поместил в рамки строгой (в философском смысле) диалектики.5

Тогда дискретность, по Лейбницу, есть универсальный принцип, в соответствие с которым развивается «предуготовленная гармония».

Непрекращающееся движение материи — это влияние друг на друга микроскопических носителей (поэтому не принимается декартова идея о протяженной субстанции), которое осуществляется прямо, без посредничества эфира или пустоты (поэтому неприемлема ньютонова дальнодействующая гравитация), и составляет видимые нам сложные агрегаты и разнообразные феномены.

Несмотря на россыпь остроумных и проницательных догадок, оставленных нам Лейбницем, мы не можем назвать его отцом вычислительной модели разума.

Впрочем, его интеллектуальное наследие не пропало. Им воспользовался математик Джордж Буль: именно ему принадлежит идея о мозге-компьютере.

Джордж Буль, подобно Августину и Декарту, сказал новое слово в теории живого мозга. Суть инновации: наш разум работает по правилам бинарной логики.

Любопытно, что Буль не пытался построить новую модель разума. Он лишь уточнял уже существовавшее и набиравшее популярность представление о мозге, как механизме.

Как и Декарт, который не критиковал модель «разум и чувство» по существу, а лишь слегка, в его представлении, её подправил.

Но вышло так, что скромное уточнение стало начальным звеном в цепочке рассуждений, завершившейся принципиально иным объяснением.

Нас будет интересовать, прежде всего, обобщающая по этой теме работа Джорджа Буля «Исследование законов мышления, на которых основываются математические теории логики и вероятностей» (1854 год).

Уже само название работы говорит о многом.

Учёный не сомневался, что социальные и психологические процессы подчинены тем же законам статистики, что и движение небесных тел. А наличие свободной воли считал неким субъективным фактом — особенностью нашего самовосприятия.

Математик исходил из того, что человеческий разум сочетает в себе способность к логике и вычислениям. Для Буля это разные вещи: логика может быть нематематической и крайне субъективной, а Вычисления (англ. Calculus) существуют независимо от наших желаний. В указанной работе учёный сделал соответствующее духу времени заявление: «Дело науки — не создавать законы, а открывать их». Что, по его мнению, достигается путём анализа наблюдений и опыта.

Буль постулировал: наш мозг работает по «фундаментальным законам рассуждения на символическом языке исчисления».

Следовательно, задача состоит в том, чтобы описать эти законы, открыть их — создать «науку об интеллектуальных операциях» (англ. science of the intellectual operations).27

Разбирая известные со времён Аристотеля правила логики, Буль нашёл их неполными.

Вот, например, классический простой силлогизм:

Все люди смертны.

Сократ — человек.

Сократ смертен.

Давным-давно разъяснено, как строится такая конструкция: из двух предпосылок делается частный вывод.

Большая (общая) предпосылка всегда идёт первой и содержит описание характеристики или свойство, о наличии/отсутствии которого надлежит сделать вывод (в данном случае — «подверженность смерти»).

Малая (частная) предпосылка идёт следом за большой: содержит указание на субъект (в данном случае — «Сократ»), относительно которого выводится следствие.

Объединение большой и малой предпосылки приводит к заключению: наделён ли субъект искомым свойством (в данном случае — да, наделён; поэтому «Сократ смертен»).

Подмечено, что, следуя указанным правилам построения силлогизма, можно прийти к абсурдному выводу.

Скажем, посредством т.н. «подмены тезиса».

Работает это так:

Все люди смертны.

Все не люди не смертны.

Кот Сократа — не человек.

Кот Сократа бессмертен.

Несмотря на абсурдное заключение, с точки зрения аристотелевской логики придраться тут не к чему.

Опытный демагог будет трактовать второе утверждение как расширение (уточнение) большой предпосылки. Далее — всё по правилу: малая предпосылка и вывод.

Можно, конечно, с демагогом поспорить.

Ввести правило проверки большой предпосылки: из практического опыта вовсе не следует, что все, кого нельзя назвать человеком, бессмертны. Но тогда придётся формулировать объект проверки (кого включать в категорию «не люди»? ), провести бесконечное число наблюдений (а вдруг кто-то из «не люди» действительно бессмертен? как это узнать?) и т. д.

Одним словом, спорить будете долго, нудно и безрезультатно. Как это, собственно, и происходило в диспутах средневековых схоластов.

Чтобы избежать подобных, пустых и бессмысленных, разглагольствований, Буль предложил в логику включить арифметику.

Для начала математик постулировал, что всякое высказывание состоит из элементов: простейших, логически неделимых, объектов. Этими элементарными объектами могут быть, как факты, так и предположения.

Далее Джордж Буль предложил рассматривать элементы высказываний как бинарную оппозицию: объект и его противоположное по смыслу значение (их можно обозначить словами «истинно» и «ложно» или, соответственно, цифрами 1 и 0). Тогда все операции над элементами становятся, по сути, арифметическими.

При этом устанавливается особый порядок их выполнения: сначала необходимо выполнить «логическое вычитание самого себя», затем — «логическое умножение» и только потом — «логическое сложение».

Возьмём первое высказывание из классического силлогизма: «Все люди смертны».

Из него выделим элементарные высказывания, а затем выполним операцию «логическое вычитание» (у каждого элемента появится противоположный по значению двойник — подобно тому, как у каждого положительного числа есть его зеркальный партнёр, отрицательное число).

Тогда обнаружим четыре объекта: «люди» (1), «не люди» (0), «смертные существа» (1), «бессмертные существа» (0).

Далее, в соответствие с бинарными обозначениями объектов, составим все возможные варианты их сочетаний.

У нас получится четыре фразы, в каждой из которых произведём «логическое умножение» элементов и вычислим результат по правилам арифметики.

Для первой предпосылки («Все люди смертны»):

Все люди смертны. (1 · 1 = 1) [истинно]

Все не люди смертны. (0 · 1 = 0) [ложно]

Все люди не смертны. (1 · 0 = 0) [ложно]

Все не люди не смертны. (0 · 0 = 0) [ложно]

Для второй предпосылки («Сократ — человек») произведём те же операции и получим другой квартет фраз:

Сократ — человек. (1 · 1 = 1) [истинно]

Не Сократ — человек. (0 · 1 = 0) [ложно]

Сократ — не человек. (1 · 0 = 0) [ложно]

Не Сократ — не человек. (0 · 0 = 0) [ложно]

Теперь выполним «логическое сложение»: сложим результаты полученных произведений логических элементов в каждом квартете.

Ясно, что смысл имеет комбинация только первых фраз из каждого квартета. В остальных случаях либо одна из предпосылок повторяется, либо получается буквально ничего — 0.

Важно, что в имеющей смысл сумме («Все люди смертны» + «Сократ — человек») есть общий элемент («человек» — часть множества «люди»). Значит, объекты «Сократ» и «смертен» эквивалентны («равны»).

Итак, мы пришли к такому же заключению, что и в классическом силлогизме.

Возникает справедливый вопрос: ну, и зачем нужна бинарная логика? Не является ли это избыточным усложнением доказательства интуитивно понятного факта?

Нет, не является.

Бинарная логика нужна, чтобы не попасть в ловушки классической логики и чтобы делать разумные, имеющие смысл, выводы.

Способ построения высказываний, предложенный Булем, позволяет, например, устранить ложные предпосылки, наподобие тех, что вводятся при осуществлении «подмены тезиса».

Фраза «Все не люди не смертны» на этапе «логического умножения» отвергается как ложное (бессмысленное) высказывание. Вся прелесть в том, что тут даже спорить не о чем: обозначив элементы «не люди» и «бессмертные существа» как 0, при их перемножении мы получаем тоже 0.

Демагог может зайти с другого конца, зацепившись непосредственно за следствие — «Кот Сократа бессмертен», и попытаться втянуть вас в рассуждение на эту глубокомысленную тему.

Однако, по правилам бинарной логики, после «логического умножения» идёт «логическое сложение», а, поскольку имеют смысл только высказывания «Все люди смертны» и «Кот Сократа — не человек», сложить эти фразы не получается. Ведь они состоят из совершенно разных элементов: «люди», «смертные существа», «кот Сократа», «не люди».

Следовательно, абракадабра в виде «Кот Сократа бессмертен» — не результат логического рассуждения, а обычная выдумка.

Более того, Джордж Буль заметил, что применение правил бинарной логики позволяет выводить аксиомы.

В частности, из того, что высказывание «Все не люди не смертны» ложно, выходит, что обратная по смыслу фраза «Все люди смертны» действительно верна. Появляется как бы её «дополнительное доказательство» (философ Гегель сказал бы, что «снятие двойного отрицания приводит к истине»).

Тут, разумеется, нет никакого открытия. Это не что иное, как закон двойного отрицания, известный с древнейших времён. Заслуга Буля в том, что он привёл его математическое обоснование.

Но и это ещё не всё.

Большое практическое значение работы Джорджа Буля в том, что он связал описанные им правила математической логики с теорией вероятностей. А через неё — с общей методологией научного познания.

Выше мы отмечали, что Буль ясно различал факты и предположения. В реальности люди чаще всего сталкиваются с предположениями, а не с фактами. Поэтому в «законы интеллектуальных операций» следует включить вероятности.

Поясним сказанное на примере.

Вообразим, что учёные древних Афин решили выяснить точный рост своего соотечественника, философа Сократа. Проблема в том, что Сократу на это наплевать, и он не желает, чтобы длину его тела измеряли.

Учёных это не смутило (чего ещё ждать от убеждённого нонконформиста?). Они решили составить суждение о росте Сократа, исходя из значения длины тела у типичного жителя города. Учёные провели ряд измерений и выяснили, что рост соотечественников составляет не менее полутора и не более двух метров.

В число исследованных попало большинство жителей, но не все. Тем не менее, в соответствие с предложенными Аристотелем правилами логики, учёные вольны построить такой силлогизм:

Все люди имеют рост от 1,5 до 2 метров.

Сократ — человек.

Рост Сократа — от 1,5 до 2 метров.

Два коротких замечания: под «людьми» здесь понимаем «взрослых жителей Афин» и не станем обращать внимание на анахронизм (Сократ жил в более раннее время, чем Аристотель).

Помимо этого, что тут не так?

Джордж Буль обратил бы внимание на то, что элементы «люди» и «рост от 1,5 до 2 метров» — разного рода. Первое — факт, второе — предположение.

Чтобы второе стало первым, надо провести более тщательное исследование. В идеале — измерить рост у всего взрослого населения Афин. Или всё-таки уговорить Сократа.

Даже в условной реальности нашего примера ни то, ни другое неосуществимо. Население подвижно — кто-то уехал из города по делам, кто-то выбыл по болезни и т. д. А упрямый Сократ не поддаётся никаким уговорам.

Однако учёные нашли выход с тем, чтобы уточнить исходные данные. Они дополнительно определили рост у всех, кто не попал в первое исследование и кто был доступен, жителей Афин, а также — у нескольких, выбранных случайно, групп людей, живущих в других полисах страны. Т.е. теперь элемент «люди» стал фактически означать «взрослые жители Древней Греции».

По результатам нового исследования выяснилось, что у 10% рост ниже полутора метров, и ещё у 10% — выше двух метров. Тогда силлогизм преобразуется так:

Все люди с вероятностью 80% имеют рост от 1,5 до 2 метров.

Сократ — человек.

Рост Сократа с вероятностью 80% — от 1,5 до 2 метров.

По смыслу это мало чем отличается от исходной формулировки. Да и уточнение «с вероятностью 80%», хоть и верное по содержанию, как-то не внушает доверия.

Буль посоветовал бы древнегреческим учёным (окончательно махнём рукой на всякие анахронизмы) договориться о том, что называть «фактом» в данном исследовании. Пусть учёные решили, что фактом будет такой диапазон роста человека, значения которого встречается у 99,999% исследуемых.

Перепроверив данные, учёные древних Афин установили, что у 99,999% попавших в исследование людей (вредный Сократ по-прежнему игнорирует этот важный научный проект) длина тела укладывается в диапазон от 1,4 до 2,1 метров. Тогда:

Все люди с вероятностью 99,999% имеют рост от 1,4 до 2,1 метров.

Сократ — человек.

Рост Сократа с вероятностью 99,999% — от 1,4 до 2,1 метров.

Перед нами — истинное научное заключение.

Во-первых, логически непротиворечиво. Во-вторых, тут только факты.

Джордж Буль был бы доволен.

Возможно, кто-то останется неудовлетворённым тем, что «рост Сократа с вероятностью 99,999% — от 1,4 до 2,1 метров». Ведь, если вы не заметили, так и осталось неясным — так, какой же точный рост у Сократа??

На это Лейбниц и Буль очень резонно ответили бы, что статистического факта-заключения, построенного по правилам бинарной логики, вполне достаточно.

Погоня за бесконечно малыми величинами бессмысленна, если мы эти величины или элементарные факты не различаем. И наоборот: чем яснее мы видим дискретные кусочки реальности, тем проще оценить их в оппозиции «истинно»/«ложно» — тем точнее и полнее, подобно пределу функции, может быть описана объективная реальность.

Так идея вычисляемой дискретности в интерпретации Готфрида Лейбница воплотилась в законы человеческого мышления, сформулированные Джорджем Булем.

Умница Грегор Мендель, тупица Шерлок Холмс

Бинарная логика оказалась настолько мощным инструментом объяснения мира и человека, что очень быстро нашла применение для решения ряда важных научных проблем.

Вместе с тем — что, впрочем, обнаружилось много позднее — её прикладное значение имеет строгие рамки.

В XIX веке одной из оформившихся и приобретших популярность концепцией в рамках механической парадигмы стала теория биологической эволюции Чарлза Дарвина.

Классический дарвинизм определил живую природу как сложную, самодостаточную и самоподдерживающую машину.

Где, вообще говоря, нет места случайностям и чудесам. Детали этой грандиозной машины, живые организмы, похожи на папу и маму (если говорить о двуполых существах) потому, что последние передают потомству полезные для приспособления признаки.

Причём — с небольшими, в рамках биологического вида, вариациями. Благодаря которым потомок имеет шанс выжить в среде, которая по каким-то причинам может измениться.

Превосходное и в целом верное объяснение наследственности и изменчивости, предложенное Дарвином, имело один существенный изъян: непонятно, в чём именно заключается механизм наследственности — как именно папа и мама передают полезный признак следующему поколению?

Предположение самого Дарвина о наличии некой, специфической для данного признака, молекулы или нескольких молекул, движущихся по сосудам и концентрирующихся в половых клетках родителей, выглядело неубедительно.

Правильную гипотезу предложил неспециалист — не биолог и даже не человек с «естественнонаучными» взглядами — Грегор Мендель.

Более того: этот исследователь придумал и осуществил эксперимент, доказавший его правоту.

Важно понимать, что Мендель вообразил общий закон, а не вывел его из эксперимента. При этом он размышлял — пусть, не определяя это именно так — в рамках не механической, а цифровой парадигмы.

На это указывают следующие обстоятельства и соображения.

Известно, что Мендель посещал лекции и семинары известного физика и математика Кристиана Доплера. Который не мог не знать о работах Джорджа Буля, посвященных бинарной логике. (Впрочем, учитывая присущую Менделю любознательность, он мог прочесть об этом самостоятельно.)

Отсюда становится понятным предположение Грегора Менделя о том, что в передаче информации между поколениями участвуют строго два свободно комбинирующихся фактора.

Каждая клетка организма содержит двойной набор подобных факторов: при передаче они сочетаются — как и положено в бинарной логике. Если в образовавшейся паре присутствует доминирующий фактор, у организма будет «основной» (доминантный) признак. Если в паре — только недоминирующие факторы, у организма проявится «альтернативный» (рецессивный) признак.

Последовавшие эксперименты Менделя были проверкой его догадки о существовании двух невидимых наследственных факторов, кодирующих признак по принципу бинарного шифра.16

Предпримем попытку реконструировать это исследование.

Мендель экспериментировал с горохом. Он изучал несколько наследуемых признаков и по каждому проводил отдельную серию опытов.

Мы обсудим лишь один признак — окраску семян.

У гороха встречаются два варианта окраски: зелёный и жёлтый. При этом в результате скрещивания разных сортов у гибридов чаще проявляется жёлтый цвет. Это тривиальное наблюдение, известное всякому садоводу-любителю.

Считая Менделя образованным человеком своего времени, а не полуграмотным выскочкой, мы склонны полагать, что он сразу догадался соотнести каждый цвет с одним наследственным фактором и наделить организм двоичным набором этих факторов.

Пусть рецессивный (зелёный цвет) признак кодируется «1», а доминантный (жёлтый цвет) — «0».

Тогда, чтобы воочию убедиться в «доминантности» жёлтой окраски, для первого скрещивания надо обязательно взять чистые сорта с разным цветом семян: соответственно с набором [1; 1] и набором [0; 0].

Мендель так и поступил.

Во время первого опыта он использовал один сорт гороха, у которого во множестве предыдущих поколений наблюдались только зелёные семена, и другой сорт — с окрашенными в только жёлтый цвет предками.

Как и ожидалось (от первого родителя потомку должна передаваться только «1», от второго — только «0»), в результате первого скрещивания все гибриды первого поколения оказались жёлтыми (набор [1; 0]).

Почему проявляется «0», а не «1»?

Вероятно, потому, рассуждал Мендель, что на клеточном уровне арифметическая операция «умножение» элементов предшествует их «сложению». Т.е. имеет место то, что описывал Джордж Буль в своих работах.

Тогда в результате следующего скрещивания среди гибридов уже второго поколения ожидаем четыре варианта:

Зелёный горох. (1 · 1 = 1) [альтернативный признак]

Жёлтый горох. (0 · 1 = 0) [основной признак]

Жёлтый горох. (1 · 0 = 0) [основной признак]

Жёлтый горох. (0 · 0 = 0) [основной признак]

Таким образом, гипотетическое ожидание отношения «альтернативный признак/основной признак» составляет 1:3. Проведенный Менделем эксперимент полностью подтвердил этот теоретический расчёт. У гибридов второго поколения наблюдалось расщепление признака: у ¼ — рецессивная версия, у ¾ — доминантная версия.

Заметим, что Мендель работал на выборке, состоящей из свыше двадцати тысяч семян.

Так что, со статистической достоверностью, которой столь большое значение придавал Джордж Буль, всё было в порядке.

Закономерность получила название «закон расщепления» и стала одним из законов Менделя, переоткрытых биологами-генетиками лишь полсотни лет спустя.

Причина откровенно запоздалого признания заслуг Грегора Менделя в науке состояла в том, что специалисты продолжали жить и думать в механической парадигме. В то время как он использовал ключевую концепцию — бинарную логику — из принципиально новой группы объяснений мира и человека.

Пока Мендель прозябал в безвестности, а разномастные специалисты упивались машинообразными метафорами, которые лепились ими на всё — от Вселенной до живых систем, цифровая парадигма продолжала развиваться.

Идеи Джорджа Буля о лежащей в основе человеческого мышления бинарной логике были обобщены и подвергнуты тщательной ревизии в работах другого выдающегося математика Чарльза Сандерса Пирса.

Ни много ни мало Пирс предложил концепцию, объединяющую классическую, бинарную и нечёткую логику.

Впрочем, математик называл их логическими приёмами и обозначал иначе: индукция, дедукция и абдукциия.52,53

Допустим, у нас имеется некий общий объект (сумка), включающий в себя неизвестное количество частных объектов (бобы), которые, как мы знаем, могут обладать разными характеристиками (например, бобы бывают белого и красного цвета). Бобов в сумке очень много, а время для проверки ограничено.

Требуется узнать: какого цвета все бобы в сумке?

Для своего логического исследования Пирс ввёл понятия: «случай» (англ. case), «результат» (англ. result), «правило» (англ. rule). Которые по значению были довольно близки к соответствующим математическим терминам.

«Случай» — это некий вероятностный факт. «Результат» — установленный в результате наблюдения факт. «Правило» — закономерность, выводимая или предполагаемая.

Далее математик продемонстрировал разные способы логики:

— Индукция.

Случай: Все бобы (случайно выбранные) из этой сумки.

Результат: Эти бобы белые.

Правило: Все бобы в этой сумке белые.

Как можно видеть, закономерность выводится из наблюдения. Чем больше опытов (допустим, что, не заглядывая в сумку и вынимая оттуда один боб за другим, мы каждый раз будем обнаруживать только белые бобы), тем правдивее вывод.

Вероятностный факт превращается в установленный, который считается правильной истиной.

— Дедукция.

Правило: Все бобы из сумки белые.

Случай: Эти бобы из этой сумки.

Результат: Эти бобы белые.

В отличие от предыдущего способа, здесь выдвигается предварительная гипотеза.

Отметим, что эта, предполагаемая, закономерность в контексте дедуктивного мышления строгая. Она абсолютно категорична. Раз уж мы предположили, что «все бобы из сумки белые», нас не интересуют иные гипотезы. Например, что «все бобы из сумки красные».

Тогда, занимаясь проверкой только гипотезы «все бобы из сумки белые», выяснили: во-первых, что частные объекты действительно принадлежат общей совокупности (вероятностная оценка случая); во-вторых, что каждый исследованный объект обладает искомой характеристикой или свойством (фактическая оценка случая).

По истечении определённого числа опытов делается вывод: гипотеза подтвердилась.

— Абдукция.

Правило: Все бобы из сумки белые.

Результат: Эти бобы (как ни странно) белые.

Случай: Эти бобы из этой сумки.

Принципиальное отличие абдукции от дедукции состоит в том, что предварительная гипотеза формулируется некатегорично, условно. Мы не устанавливаем абсолютное правило, а, понимая его относительность, держим в уме другие гипотезы.

Тогда, проверяя текущее предположение, приходим к удивительным («как ни странно») результатам. Доставая раз за разом бобы из сумки, обнаруживаем, что они белые. Если б мы забыли — как это произошло в процессе индукции и дедукции — что бобы бывают ещё и красные, результат нас бы не смущал. Но он таков, каков есть.

По истечении определённого числа опытов (держа в уме, что всё-таки проверены не все лежащие в сумки бобы) единственный вывод, который мы можем сделать: эти, исследованные, бобы из этой сумки.

То, что при этом они оказались белыми — частность. А «истина», в смысле исчерпывающего и окончательного ответа на вопрос «все ли бобы в этой сумки белые?», осталась неизвестной.

Рассмотрим те же способы логического рассуждения на примере из предыдущей подглавы, где мы тщетно пытались выяснить рост Сократа.

Применив методологию Чарльза Пирса, получим:

— Индукция.

Случай: Значение роста у жителей Древней Греции.

Результат: Жители Древней Греции имеют рост от 1,4 до 2,1 метров.

Правило: Рост Сократа тоже — от 1,4 до 2,1 метров.

Поскольку рост Сократа непосредственно измерить мы не смогли, приходиться полагаться на логику. В данном случае — индуктивную.

Проводим как можно больше измерений: устанавливаем ростовой диапазон соотечественников Сократа. Полученный разброс (от 1,4 до 2,1 метров) эквивалентен свойству «белый» в примере с бобами. Рост всех (случайно выбранных) жителей Древней Греции укладывается в один диапазон. Так же, как все извлечённые из сумки бобы оказались белыми.

Следовательно, очень вероятно, что значение роста Сократа тоже находится в данном диапазоне. «Очень вероятно» — это 100%, т.к. почти у всех (точнее, у 99,999%), кого мы проверили, рост был именно таким.

«Истина» установлена.

— Дедукция.

Правило: Все жители Древней Греции имеют рост от 1,4 до 2,1 метров.

Случай: Сократ — тоже житель Древней Греции.

Результат: Жители Древней Греции имеют рост от 1,4 до 2,1 метров.

Здесь начинаем с гипотезы.

Откуда её можно взять? Откуда угодно — например, из трудов самого Сократа. Пофантазируем и представим, что в некоем сочинении философ упомянул, что за всю жизнь не встречал никого, ниже ростом 1,4 метра и выше 2,1 метра. Несущественно — правда это или нет; важно, что гипотеза у нас есть.

При проверке гипотезы нам нужно решить важный вопрос о выборке. Заметим, что для построения индуктивного заключения это неважно. Просто измеряем рост у всех подряд и получаем статистический факт. Он же — «истина».

В дедуктивной логике так нельзя. Она изначально вероятностная.

Вспомним, что, согласно Джорджу Булю, факт есть предположение с вероятностью, стремящейся к 100%.

Значит, измеряя рост у жителей Древней Греции выборочно (исследовать абсолютно всех не получается), надо сделать так, чтобы попавшие в исследования были типичными представителями различных групп: возрастных, гендерных, профессиональных и т. д.

На практике это означает, что нужно отловить некоторое число коллег Сократа — других философов. Желательно примерно того же пола и возраста.

Учитывая результаты измерения роста этих людей (в сочетании с результатами представителей других групп, сопоставимых по численности и прочим параметрам), индивидуальным значением длины тела самого Сократа можно пренебречь.

Мы можем уверенно сказать: неизвестное нам значение роста философа с вероятностью, стремящейся к 100%, окажется в диапазоне значений роста тех, кого мы выбрали в качестве объекта исследования. Т.е. «Сократ — тоже житель Древней Греции».

В примере с бобами идти путём дедукции было куда проще. Потому что принадлежность исследуемого боба к тем, что находятся в сумке, очевидна. Но насколько типичен Сократ для совокупности «жители Древней Греции» — вопрос нетривиальный (собственно, в решении подобных вопросов и состоит основная работа социологов и прочих специалистов, проводящих статистические исследования).

Определившись с выборкой, проводим исследование и получаем результат: гипотеза о том, что все жители Древней Греции имеют рост от 1,4 до 2,1 метров, подтвердилась.

Значит, рост Сократа — в том же диапазоне. Это «научный факт».

— Абдукция.

Правило: Чаще всего жители Древней Греции имеют рост от 1,4 до 2,1 метров.

Результат: 99,999% жителей Древней Греции имеют рост от 1,4 до 2,1 метров.

Случай: Рост всех жителей Древней Греции с вероятностью 99,999% — от 1,4 до 2,1 метров.

Во-первых, рассматриваем все гипотезы.

То, что Сократ или кто-то ещё утверждает, что рост греков — не ниже 1,4 метра и не выше 2,1 метра, не имеет никакого значения. Даже если б было известно о каких-то, солидных научных исследованиях, подтверждающих наиболее вероятную гипотезу, это не должно нас волновать. Как и в примере с бобами (есть не только белые, но и красные), мы должны помнить: встречаются люди с ростом ниже 1,4 метра и выше 2,1 метра.

Впрочем, это не мешает начать работу с той же гипотезы, что при дедуктивном рассуждении.

Во-вторых, абдукция помогает увидеть слабости предыдущих способов (обратите внимание на выделенное слово «тоже», когда мы разбирали индукцию и дедукцию в примере с ростом Сократа).

«Правило» в индуктивном рассуждении строится на случайной аналогии.

Если в ряду наблюдаемых случаев один и тот же результат, значит, этот результат будет во всех случаях (см. в первом примере: «все бобы в сумке белые, потому что попадались бобы только такого цвета»; во втором примере: «рост Сократа такой же, какой у тех, кого мы исследовали»).

Ясно, что каждый следующий результат может опровергнуть установленную «истину».

Дедуктивное рассуждение приходит к заключению, основываясь на статистической аналогии.

Если вероятность результата данного случая очень высока, значит, все случаи будут с этим результатом («все бобы в сумке белые, потому что бобы такого цвета встречаются очень часто» и «рост Сократа такой, какой у среднестатистического грека»).

Очевидно, что при реализации редкого случая описанный «научный факт» окажется ложным.

Абдукция обходится без всяких аналогий, поэтому она, в сравнении с другими приёмами, описывает реальность полнее.

То, что мы можем вычислить, называется фактом («эти бобы из этой сумки» и «эти жители Древней Греции имеют такой-то рост»). Подкреплённый соответствующим расчётом вероятности.

А то, что мы не можем вычислить (цвет всех бобов в сумке и рост Сократа), честно квалифицируется как гипотеза. Которую ни в коем случае нельзя принимать за окончательную истину.

Чтобы немного разбавить это, явно перегруженное смыслами, разъяснение различных логических приёмов, воспользуемся примером из художественной литературы.

Обсудим т. н. «метод Шерлока Холмса», описанный в широко известных детективных произведениях сэра Артура Конана Дойла.

Лучшие — с художественной точки зрения — истории о приключениях Холмса мы рассматривать не будем.

Внятное описание дедуктивного метода там отсутствует (может, поэтому они и лучшие). Для демонстрации приёмов логики возьмём рассказ «Убийство в Эбби-Грейндж» (1904 год).

Очень краткое изложение произведения сводится к следующему: совершено убийство аристократа в его собственном доме, из которого пропали некоторые ценные вещи; полиция подозревает местную банду; свидетельства домочадцев (вдовы и служанки) подтверждают эту версию; Холмс придерживается другой версии, предполагая, что к убийству как-то причастна вдова; лондонский сыщик находит доказательства своей гипотезы и разоблачает настоящего убийцу — любовника супруги аристократа.7

Как рассуждают полицейские из рассказа Конана Дойла?

Они используют, в соответствие с классификацией Пирса, индуктивную логику:

Случай: Совершено убийство.

Результат: Улики и свидетельства указывают на бандитов.

Правило: Бандиты совершают убийства.

Как рассуждает Холмс?

Он применяет свой знаменитый дедуктивный метод:

Правило: «Домашние» убийства совершаются домочадцами.

Случай: Совершено типичное «домашнее» убийство.

Результат: Улики и свидетельства указывают на домочадцев.

Как бы рассуждали реальные детективы, если б описанные в рассказе события произошли в действительности?

Они — как и все обычные люди — включили бы абдуктивную логику:

Правило: Чаще всего «домашние» убийства совершаются домочадцами.

Результат: Улики и свидетельства указывают на домочадцев.

Случай: Совершено типичное «домашнее» убийство.

С индуктивной логикой, думаю, всё ясно.

По воле неглупого и образованного человека, писателя Артура Конана Дойла, ею и только ею наделены почти все персонажи историй про Шерлока Холмса, включая полицейских и доктора Ватсона.

В рассказе «Убийство в Эбби-Грейндж» официальные следователи, в отличие от частного детектива, не осуществляют предварительный анализ различных предположений (не сравнивают и не ранжируют их) и хватаются за менее встречающуюся гипотезу. Поэтому ожидаемо оказываются в дураках.

Вопреки распространенному убеждению о сущности дедуктивного метода, Холмс первым делом обращает внимание не на детали, а на общие гипотезы.

В обсуждаемом сюжете он рассматривает две версии, с его точки зрения, имеющие наибольший вероятностный вес, — «бандиты» (версия №1) и «домочадцы» (версия №2).

Откуда берётся вторая версия?

Это элементарно. Из криминалистического опыта Холмса, конечно. (И из колонки криминальной хроники в The Times, которую любил почитывать сэр Артур Конан Дойл.)

Ему, как и любому реальному сыщику, хорошо известно, что большинство преступлений против личности совершаются вследствие конфликтов между близкими и/или родственниками. «Домашние» убийства происходят чаще, чем убийства с участием посторонних лиц.

Значит, приоритет — у версии №2, а не у версии №1.

Выбрав наиболее вероятную версию, Холмс устанавливает, в общем и целом, её соответствие наблюдаемым условиям. И, не тратя время на другие, исследует (проверяет) только это предположение.

Поскольку в итоге все доказательства и улики подтвердили версию №2, она (по решению Холмса) была признана истиной и (по замыслу Конана Дойла) оказалась истиной на самом деле.

Шаблонное мышление Холмса можно описать также в терминах бинарной логики.

После того, как сыщик с Бейкер-стрит в уме ранжирует гипотезы и оставляет самую вероятную, он создает бинарную оппозицию элементов: «да» и «нет». Получаются пары: «„домашнее“ убийство» и «не „домашнее“ убийство»; «домочадцы» и «не домочадцы».

Далее, в соответствие с правилами Буля, надо произвести «логическое умножение». Получается истинное высказывание или основная версия: «Домашние» убийства совершаются домочадцами.

Ложные высказывания, т.е. другие версии (не «домашние» убийства совершаются домочадцами; «домашние» убийства совершаются не домочадцами; не «домашние» убийства совершаются не домочадцами), отбрасываются. (Заметим, что одно из этих ложных высказываний — «„домашние“ убийства совершаются не домочадцами» — по содержанию включает в себя версию, которую исследуют полицейские: «Бандиты совершают „домашние“ убийства». )

Выбранная Холмсом основная версия мысленно подкрепляется статистическим анализом (вероятность, стремящаяся к 100%), поэтому оговорка «чаще всего» в дедуктивной/бинарной логике устраняется.

Это необходимо для дальнейших вычислений, чтобы произвести «логическое сложение» основной версии с результатами исследования — уликами и свидетельствами. Которые тоже подчинены бинарной логике: «подтверждает основную версию» или «не подтверждает основную версию».

По сюжету рассказа общий баланс оказался в пользу «подтверждает», так что первоначальная гипотеза сыщика стала истиной.

Таким образом, Шерлок Холмс — дедуктивный автомат, перерабатывающий оформленные в бинарных оппозициях данные.

Приведенный пример абдуктивного рассуждения для расследования убийства в Эбби-Грейндж, на первый взгляд, выглядит громоздко в сравнении с методом Холмса.

Пусть вас это не смущает.

Не будем забывать, что речь идёт о художественном произведении. В то время как действительность полна нюансов и оттенков.

Реальные детективы начали бы с того же, что и Шерлок Холмс — исследовали бы наиболее вероятную в данных обстоятельствах версию. Но параллельно изучались бы и другие гипотезы (отсюда — это неуверенное «чаще всего»). Которые могли быть проверены как индуктивно, так и дедуктивно.

Однако, если б убийство в Эбби-Грейндж было совершено не домочадцами и не бандитами (т.е. произошёл нетипичный случай), реальные сыщики продолжили бы расследование и, рано или поздно, преуспели. А, вот, знаменитый детектив растерялся бы. Ведь тогда пришлось генерировать новые гипотезы: воображать, фантазировать. Чего он явно делать не любил.

Всё, что мы сказали о приёмах логического рассуждения, обобщено в таблице 6.

Мендель применил бинарную логику для подходящего в данном случае объекта: общая закономерность в передаче между поколениями основного и альтернативного признака. Бинарная кодировка действительно многое объясняет в механизме генетического наследования.

Холмс использовал бинарную логику для объяснения сложных объектов. Таких, как мотивы и поступки людей. В выдуманных литературных сюжетах это работает, а в реальной жизни нет. Что, судя по всему, отлично понимал и сам Конан Дойл, которому его персонаж довольно быстро наскучил.

Поэтому Грегор Мендель — умница, а Шерлок Холмс — тупица.

Computor и Computer

Несмотря на то, что на рубеже XIX и XX столетий научный авторитет механической парадигмы оставался на очень высоком уровне, идея вычисляемой дискретности постепенно и неотступно завоевывала своё место под солнцем.

Биологи «вдруг» обнаружили, что в описанных Грегором Менделем закономерностях есть полезный смысл, а образованная публика зачитывалась историями о приключениях Шерлока Холмса.

В физике, как мы обсуждали в предыдущей главе, одна за другой стали появляться корпускулярные модели атома; а Эйнштейн объяснил фотоэффект, исходя из дискретной природы света.

В математике у новой парадигмы была своя история.

Джордж Буль, попытавшись облечь законы мышления в математическую форму, указал на возможность вывода аксиом — общих истин, на которые впоследствии можно опереться при построении цепочки доказательств.

В подглаве о бинарной логике мы обозначили одну из таких аксиом: закон снятия двойного отрицания. В математике этот закон преобразуется в порядок доказательств, известный как «доказательство от противного».

Например, требуется доказать, что 17 — нечётное число.

Допустим, что 17 — чётное число (отрицание). По определению чётных чисел, 17 должно делиться на 2 без остатка. Выполнив деление, получаем остаток. Значит, 17 не является чётным числом (отрицание отрицания) и является нечётным числом (снятие двойного отрицания = истина).

На самом деле, конечно, нечётность числа 17 следует из его определения: доказательство от противного кажется лишним. Но тут важно зафиксировать, как работают аксиомы в математике и в логике. Иногда, для более сложных случаев, удобнее идти в обход.

Математик Георг Кантор в 1891 году предложил первую версию теории множеств. Об этой теории мы поговорим подробнее в главе 6. А здесь укажем на некоторые её особенности в связи с бинарной логикой.

Вообще для бинарной логики существует простейшее множество {0; 1}, в котором всего два элемента: 0 и 1. Из этого множества можно построить четыре бинарные последовательности: 1,1; 0,1; 1,0; 0,0.

В теории множеств последовательность элементов и их значение не играет никакой роли. Например, множества {0; 1} и {1; 0} равны (эквивалентны).

В логике и в генетике, как мы убедились, это не так. Важно не только сочетание элементов, но и смысл, который мы им присваиваем (например, «1» может быть «истиной» или «рецессивным признаком»).

Однако важнейшее достоинство теории множеств состоит в её универсальности.

Множества могут быть любыми: конечными, как {0; 1}, и бесконечными — если, например, взять ряд натуральных чисел. Из этого, более мощного, множества можно построить те же четыре бинарные последовательности.

Следовательно, одни множества являются подмножествами других множеств: более мощных, конечных и бесконечных. Тогда, например, все возможные логические высказывания есть подмножество всех высказываний на данном языке, а все гены человека — подмножество всех генов человечества.

Некоторые математики были настолько очарованы теорией множеств, что посчитали возможным создать универсальную аксиоматическую математику (и логику заодно). Их назвали «формалистами».

К ним принадлежал, например, великий математик Давид Гильберт, попытавшийся обосновать тезис о существовании в математике абсолютных истин и/или аксиом. Если б замысел Гильберта удался, то вывод математических теорем в наши дни стал бы рутинным заданием в младшей школе.

С формальным подходом не согласились «интуиционисты», посчитавшие абстракции вроде бесконечных множеств бесполезными развлечениями и требовавшие конструирования цепочек непротиворечивых доказательств любых математических объектов.

Такой взгляд, в частности, выражал другой величайший математик — Анри Пуанкаре. Начальной точкой рассуждений он признавал догадку. Которая выносилась на суд коллег-учёных и, если они с ней соглашались, становилась конвенцией. Само собой, что конвенция никакой абсолютной истиной не является (это результат договорённости, подобно тому, как Джордж Буль предлагал прежде всякого исследования определить, что считать фактом). Но это несущественно, так как догадка в любом случае будет подвергнута проверке.

Таким образом, у формалистов закон снятия двойного отрицания и доказательство от противного считались аксиомами, а у интуиционистов не считались таковыми.

Условно говоря: спорили о том, можно или нельзя при разборе классического силлогизма опровергнуть/вычислить высказывание «Все не люди не смертны». При том, что «Все люди смертны» — истина.

Или: число 17 — нечётное по определению (мы договорились считать его таковым), или оно нечётное, потому что это можно доказать от противного (принимаем закон снятия двойного отрицания как абсолютную истину).

Дискуссия заставила математиков задуматься над более серьёзной проблемой: говоря о вычислимой или невычислимой истине, что мы подразумеваем под вычислением?

Состоит ли математика в действительности из дискретных кусочков-высказываний, которые мы комбинируем в разнообразные аксиомы и теоремы?

Или, скажем, под законом снятия двойного отрицания есть более фундаментальный, логический или математический, закон?

В 1931 году математический вундеркинд Курт Гёдель обнародовал свою знаменитую «теорему о неполноте арифметики».

Её следствия, в общем и целом, дали ответы на сформулированные выше вопросы. А эти ответы, в свою очередь, обеспечили неизбежность создание главного символа цифровой парадигмы — компьютера.

Существует несколько формулировок теоремы Гёделя. Ещё больше — изложений её доказательства. И совсем много — её следствий.

Ограничимся кратким пересказом, основанным на анализе теоремы выдающимся математиком Юрием Маниным (подробности см. в его работах11).

Формулируется теорема так: «Полного финитно описываемого набора аксиом в арифметике не существует».

Это утверждение можно выразить иначе, на более привычном языке.

Например:

Можно построить логически непротиворечивую теорию, но нельзя доказать её истинность.

Тогда такое следствие:

Какими бы логичными ни казались, скажем, концепция души или рефлекторная теория мозга, нельзя сформулировать аргументы в пользу того, что они неопровержимо верны.

Или такая формулировка теоремы:

Выразить полностью какую-либо сложную научную теорию при помощи средств любого естественного языка невозможно.

И её следствие:

Если вы не разбираетесь в математике и не собираетесь этого делать, то в случае создания новой научной теории (например, Теории Всего) вы её никогда не поймёте.

Чтобы пояснить, почему формулировка и следствия теоремы Гёделя, выходят так далеко за пределы арифметики, разберёмся с терминами.

Все высказывания (как в математике, так и в любом естественном языке) могут быть неопределёнными и определёнными. О первых сказать, ложны они или истинны, нельзя. О вторых — можно.

Некоторой аналогией тут служит различие между открытыми и закрытыми вопросами. Если вам задают открытый вопрос (начинается с «как», «что такое», «почему» и т.п.), вы не можете содержательно и определённо ответить, сказав «да» или «нет». Однако при ответе на закрытый вопрос («так ли это?», «это случилось там-то?» и т.д.) только эти два варианта имеют смысл.

Таким образом, Гёдель заключил, что все аксиомы в математике — это определённые истинные высказывания (мы назовём их «первичными истинами»). А все, следующие из них высказывания, выраженные на каком-либо естественном языке, — определённые и истинные тоже («вторичные истины»).

Тогда формируются два множества: все «первичные истины» (множество с числом элементов n) и все «вторичные истины» (множество с числом элементов m).

Сформулированный Гёделем вопрос заключается в следующем: можно ли — всегда и во всех случаях — из «вторичной истины» вывести «первичную истину»?

Или так: содержатся ли в наших естественных языках уже все аксиомы, которые мы ещё не успели описать на языке математики?

Короче: существует ли такая формула (способ, правило), которая всегда выводит n из m?

И совсем коротко: n = m?

Курт Гёдель использовал доказательство от обратного и начал с предположения, что n = m. Примерная схема рассуждений представлена на рисунке 10.

Получилось, что всегда и строго n> m.

Итак, Гёдель доказал, что абсолютных, сформулированных людьми, истин не существует: ни в математике, ни, тем более, в естественных языках (интуиционисты удовлетворенно кивнули).

Вместе с тем, он ясно показал, что существует некий, возможно, универсальный процесс создания аксиом — как в математике, так и в естественных языках (формалисты продолжили верить).

Этот универсальный процесс создания аксиом — не что иное, как вычисление. (Джордж Буль думал также, однако именно Гёдель в подтверждение тезиса привел весомые аргументы.)

При этом вычисление может производиться любым, имеющим к этому процессу подходящие инструменты, созданием. В том числе — искусственным устройством.

Через пять лет после появления теоремы о неполноте арифметики Алан Тьюринг опубликовал статью, в которой описал то, что сейчас мы называем компьютером.

Нужно иметь в виду, что представленная в этой работе математическая метафора, «машина Тьюринга», не только и не столько абстрактная модель механического вычислительного устройства.

Это, прежде всего, модель вычислений, производимых человеком. В самом начале статьи читаем: «Мы можем сравнить человека в процессе вычисления (in the process of computing) какого-либо действительного числа с машиной, которая ограничена конечным числом состояний…». 63

Тьюринг математически описал биологического вычислителя (англ. computor). Точнее: детально изложил процесс арифметических вычислений так, как, по его мнению, это происходит, в общем, у обычного человека, взявшего в руки тетрадку в клеточку и карандаш для решения какой-либо задачки.

Человек вписывает в клеточки начальные символы или цифры; глядя на текущую клеточку, производит в уме элементарную операцию по их преобразованию (складывает, вычитает, умножает, делит); записывает полученный результат в соседнюю клеточку; продолжает последовательное вычисление в соответствие с порядком, который сам же наметил.

Иными словами, он, как сказал бы Гёдель, переводит первоначальное неопределённое высказывание в определённое, затем — в другое определённое и т. д.

Если в качестве символьной системы для записи в клеточки выбрать бинарный код, а в качестве набора управляющих операций — бинарную логику, то получится общая схема вычислений. Получится механический computer, имитирующий язык и логику живого computor.

Как мы обсуждали в начале главы, Алан Тьюринг не считал, что computer может полностью заменить computor. Здесь поясним это утверждение более обстоятельно.

Дело в том, что механический вычислитель не способен имитировать произвольное построение порядка вычислений. Он не создаёт алгоритм сам. Ему всегда требуется образец.

В какой последовательности применять бинарную логику к бинарным символам решает тот, кто вписывает символы в клеточки. Или даёт указания, как это делать: составляет программу машинных действий, даёт искусственному вычислителю образцы алгоритмов.

Это человек.

Заметим, что это прямое следствие теоремы Гёделя.

Применяя строгие механические формулы, которые ссылаются только на себя, истинно-определённое не выводится (или, по Тьюрингу, не вычисляется). Индуктивная проверка есть не универсальный, а специальный инструмент. Не фундаментальный закон, а технология.

Припомним: следуя бинарной логике Буля, мы избежали сомнительного удовольствия ковыряться в противоречивых смыслах, спрятанных в высказывании «Все не люди не смертны». Как нам это удалось? Мы действовали по алгоритму: вычитание — умножение — сложение. Только такой порядок обеспечил определённый и осмысленный результат.

Если б мы нарушили последовательность или, не дай бог, принялись бы, подобно средневековым схоластам, резонерствовать на тему «кто такие „не люди“?», «что такое смерть?», «что такое жизнь?» и т.п., нам пришлось бы, чтобы прийти к согласию, провести бесконечное число наблюдений.

Но, даже если б мы сделали это, хотя бы в уме, и пришли к некой, абсолютной, истине, которая бы воспринималась нами как полный и окончательный ответ, разъясняющий суть этих понятий, то через некоторое время пришлось бы снова взяться за уточнение — ввязаться в новый диспут.

Ведь, как показал Гёдель, всегда остаётся вероятность, что такие сложные и многозначные понятия, как, например, «люди» и «жизнь», могут дополниться новыми фактами и смыслами. И определить/вычислить их до конца не удастся никогда.

Раз так, то и машина Тьюринга не может этого сделать.

Точнее: она будет это делать, т.к., хоть эти высказывания (числа, функции, задачи) и невычислимы, тем не менее, они вполне реальны. С ними можно производить арифметические операции.

Однако машина Тьюринга будет вычислить их неограниченное время — гораздо дольше, чем Думатель из романа Дугласа Адамса. А именно: вечность.

Вместе с тем, задачи, что машина Тьюринга за конечное время вычислить может, существуют тоже. Они — алгоритмически вычислимы.

Другое дело, что писать алгоритмы для их решения придётся человеку. Потому что и математика, и логика, и новые идеи, как показал Гёдель, суть творческая, бесконечная во времени и по глубине, деятельность.

Прояснение разницы между выводимостью аксиом и их невыводимостью, между вычислимым и невычислимым, между машинным алгоритмом и присущим человеку думанием — несомненная научная заслуга Гёделя и Тьюринга.

Их работы стали предпоследним звеном в длинной цепочке развития идеи вычисляемой дискретности в трудах Лейбница, Буля, Пирса, Кантора, Гильберта, Пуанкаре и других теоретиков.

Оставалось сделать последний шаг: попытаться создать computer (искусственный вычислитель) и computor (живой вычислитель) на практике.

«Так выпьем же за кибернетиков!»

В 1966 году в советском комедийном фильме Леонида Гайдая «Кавказская пленница» один из героев произнёс примечательный тост. Он поведал трагическую историю некой принцессы, которая умерла, «потому что совершенно точно сосчитала, сколько зёрен в мешке, сколько капель в море и сколько звёзд на небе». Тост завершался призывом «выпить за кибернетиков!».

В том же году в популярном британском научно-фантастическом сериале «Доктор Кто» впервые появились такие персонажи, как «Киберлюди» (англ. Cybermen). По сюжету эпизода, снятого режиссёром Дереком Мартинусом, это роботизированные, лишенные эмоций существа, которые хотят покорить Землю и превратить её жителей в кибернетические механизмы.

Кто такие кибернетики? И зачем Киберлюдям понадобилось покорять Землю?

Кибернетика — наука, сама себя называвшая «междисциплинарной научной дисциплиной», где сложные объекты и системы, включая человеческий разум, трактуются как вычислительные устройства.

Формально годом её рождения считается 1948.

Именно тогда появилось известное сочинение Норберта Винера «Кибернетика: Или Контроль и Коммуникация у Животных и Машин» (далее — просто «Кибернетика»).

Однако фактически работы, посвященные рассмотрению сложных систем как природных саморегулирующихся автоматов, за авторством Джона фон Неймана, самого Винера и других исследователей, публиковались с 1943 года.57

Кратко обозначим контекст появления кибернетики.

После окончания Второй мировой войны в глазах общественности механическая парадигма оказалась чрезвычайно скомпрометированной.

Всем стало ясно, что от представлений о государствах-машинах, людях-машинах и прочих спекуляций в духе «социальных механизмов» надо отказываться.

Такие взгляды практически всюду были признаны доктринами, мягко говоря, неточно описывающими реальность.

На научном поприще механическая парадигма была плавно вытеснена цифровой парадигмой ещё раньше: фактически к началу 1930х гг.

В физике, к тому же, состоялось рождение группы ещё более сложных концепций, главной из которых стала квантовая механика.

Таким образом, все три крупных научных парадигмы, созданных людьми, в определённый момент времени сосуществовали как равноправные мейнстримные доктрины. Это сформировало уникальную атмосферу интересных научных дискуссий, в которые мы сейчас вникать не станем.

Физики одновременно радовались новым концепциям и не очень понимали, как их применять. Достаточно упомянуть, что великий Эйнштейн, создав теорию относительности, сбросил с пьедестала научного мейнстрима одну парадигму (механическую); используя понятие «квант» для объяснения фотоэффекта, утвердил другую парадигму (цифровую); активно критикуя исходную версию квантовой теории, в частности, соорудив с коллегами-физиками т.н. «парадокс Эйнштейна-Подольского-Розена», крайне подозрительно относился к третьей, новорождённой, парадигме (квантовой).

В биологии уже вовсю заправляли генетики. Славили Дарвина, Менделя.

Однако дискретные факторы наследственности, «гены», до поры до времени оставались гипотетическими объектами. Некоторые учёные, в связи с этим, даже склонялись в пользу более ранней теории биологической эволюции, ламаркизму.

После 1944 года все сомнения в правильности генной концепции исчезли: биологи Освальд Эвери, Колин Маклауд и Маклин Маккарти обнаружили молекулу дезоксирибонуклеиновой кислоты (ДНК).

Наконец, огромное значение для утверждения цифровой парадигмы имела практическая реализация математических идей Алана Тьюринга. Конструкторы взялись за сооружение первых цифровых компьютеров.

В 1941 году Конрад Цузе создал электромеханический вычислитель, а в конце 1945 года группа инженеров под руководством Джона Эккерта-мл. и Джона Моучли — уже в полном смысле электронное цифровое устройство, «ENIAC». 22

Дошла очередь и до живого мозга.

Отцами вычислительной модели следует считать математиков Джона фон Неймана и Норберта Винера.

Хотя без помощи специалистов (учёных-нейрофизиологов и даже просто врачей) не обошлось, основной вклад в модель «мозг-компьютер» принадлежит, конечно, им.

Об сложной коллаборации биологов и математиков свидетельствовал сам Винер.

В «Кибернетике» он рассказал о совещании, проходившем в начале 1944 года в знаменитом Принстонском Институте Перспективных Исследований, где «физиологи сделали совместное изложение задач кибернетики с их точки зрения, аналогичным образом конструкторы вычислительных машин изложили свои цели и методы». Среди «конструкторов вычислительных машин», т.е. математиков, Винер упоминал себя и Джона фон Неймана.4

Джон фон Нейман — крупнейший учёный XX века.

Он оставил значительный след в физике: ему принадлежит строгая формулировка принципа неопределённости — базового тезиса квантовой теории.

Как активный участник Манхэттенского проекта, внёс существенный вклад в развитие атомной физики. Ставшей обширным полем научно-прикладной проработки идеи вычисляемой дискретности.

В дискуссии об основаниях математики фон Нейман принадлежал к лагерю «формалистов»: в ряде работ пытался обосновать точку зрения Гильберта о существовании абсолютных аксиом. Однако после фундаментальных результатов, полученных Гёделем и Тьюрингом, этот спор потерял смысл, и учёный быстро переключился на решение прикладных задач в теории алгоритмов.

Заслуживает упоминания книга Джона фон Неймана (в соавторстве с экономистом Оскаром Моргенштерном) «Теория игр и экономическое поведение» (1944 год), где впервые экономический успех рассматривался как результат применения алгоритма.49

А также — его совместные с математиком Станиславом Уламом (тоже участником Манхэттенского проекта) усилия по развитию интересной математической идеи, т.н. «клеточного автомата». Который, по сути, представлял собой двухмерный вариант машины Тьюринга.

Разумеется, нельзя пройти мимо того факта, что Джон фон Нейман имел самое прямое отношение к созданию компьютеров (которые изначально проектировались в качестве вспомогательных средств для сложных расчётов, требовавшихся при разработке атомного оружия).

Он внёс ряд конструктивных предложений на финальном этапе сборки «ENIAC». В содружестве с двумя другими математиками, Артуром Бёрксом и Германом Голдстайном, в 1946 году сформулировал общие принципы машинной организации (т.н. «архитектура фон Неймана», применяемая сегодня в большинстве современных компьютеров).

Среди прочего, данный тип организации постулирует использование исключительно двоичной системы исчисления и «внутренней памяти» в компьютере (т.е. и команды, и данные хранятся на одних и тех же элементах).31

То было существенным теоретическим шагом вперёд — ведь электронный цифровой компьютер вычислял в десятичной системе, а полученные данные сохранялись в виде выводимых перфолент.

Ключевая работа фон Неймана по интересующей нас теме — «Компьютер и мозг».

Где впервые, насколько можно судить, представлена научно обоснованная аналогия между вычислительным устройством и разумом.

Публикация состоялась в 1958 году, после смерти математика, но содержит материалы лекций, прочитанных им десятилетием ранее.

Наиболее важные авторские тезисы таковы:

— Бинарный язык искусственного автомата соотносится с особенностями работы нейрона, где состояние возбуждения условно может быть обозначено как «1», а состояние покоя — как «0».

— Деятельность нейрона по генерации нервного импульса (возбуждающего/тормозного) сравнима с работой переключателя-транзистора в компьютере.

— На уровне взаимодействия нейронов осуществляются базовые операции бинарной логики (вычитание, умножение, сложение), которые соответствуют командам по управлению логическими элементами в компьютере («не», «и», «или»); эти операции составляют всю необходимую базу мышления.

— В нервной системе в целом можно выделить «цифровую» и «аналоговую» составляющую. Первая представлена возбуждающими и тормозными импульсами нейронов. Вторая — выделением железистого секрета или сокращением мышц вследствие этих импульсов. При этом «цифровое» и «аналоговое» в мозге нередко перемешивается и работает параллельно.

Книга вводила систему новых образов: «искусственный автомат» — компьютер, «природный автомат» — мозг.

А также оперировала характерной терминологией: «базовый компонент системы», нервная клетка, описывалась фон Нейманом как «цифровая машина» (англ. digital machine).

Любопытно, что в обсуждаемой работе математик произвёл приблизительную оценку человеческой памяти.

По фон Нейману, ёмкость хранилища данных современных ему компьютеров составляла от 105 до 106 битов (до 125 килобайт или всего ⅛ мегабайта). А объём человеческой памяти получился у него равным около 2,8·1020 битов (35 миллионов терабайт).

Между прочим, эта оценка примерно в 35 миллиардов раз оптимистичнее, нежели та, что встречается в работах современных исследователей.

Кроме того, Джон фон Нейман попытался придать проводимой им аналогии между мозгом и компьютером более широкий контекст.

Кому, как не ему, была очевидна огромная мощь объяснительной силы идеи вычисляемой дискретности. Он, к примеру, трактовал гены как «цифровой компонент» всякой живой системы.50

Однако, сколь бы ни была революционна работа «Компьютер и мозг», «Кибернетика» её перещеголяла.

Первое, что необходимо отметить в известной книге Винера — это конструктивная критика мейнстримного представления о разуме.

Математик предложил рассматривать мозг не как изолированную систему и, тем более, не как пассивную часть среды. Которая, по мысли теоретиков машинного мозга, годится лишь на то, чтобы принимать входящие сигналы и как-то их отражать в психике.

Вместо того Винер описал круговую схему «мозг-среда», где оба компонента равноправны. В таком толковании важны обратные связи (термин был взят из техники, о чём автор добросовестно сообщил).

При этом Винер оговаривался, что эти связи сложны: они могут реализовываться как рефлексы (быстро, по нервным волокнам с миелиновой оболочкой) и через гомеостаз (медленно, по немиелинизированным путям). (Сравните это с выделенными фон Нейманом «цифровой» и «аналоговой» частями нервной системы.)

Винер обратил внимание на факт, ставший через некоторое время общим местом. О том, что тезис «один центр — одна функция», долгое время рассматриваемый поклонниками механической модели как аксиома, не соответствует действительности.

Поэтому, например, он категорически отвергал лоботомию как способ устранения локальной поломки мозга. Напомним, что идёт 1948 год — медицинский мейнстрим продолжал верить в мозг-машину и готовился вручить Нобелевскую премию изобретателю лоботомии (см. главу 3).

Наконец, для наилучшего объяснения разума математик всячески подчёркивал значение информации (подробнее об общности взглядов Норберта Винера и Клода Шеннона, создателя классической теории информации, см. в главе 6).

В рефлекторной теории Сеченова-Павлова информации отводилась второстепенная роль сложного, но, по своему происхождению, средового сигнала. По Винеру, информация в мозге не является банальной задержкой реализации рефлекса.

Математик писал: «Механический мозг не выделяет мысль, „как печень выделяет желчь“, что утверждали прежние материалисты, и не выделяет её в виде энергии, подобно мышцам. Информация есть информация, а не материя и не энергия. Тот материализм, который не признает этого, не может быть жизнеспособным в настоящее время».

Второе общее замечание касается содержательной части работы Винера. Эта часть противоречива.

С одной стороны, Норберт Винер воспроизвёл некоторые детали трёхмерной модели. Причём в его описании рефлекторная теория и классический психоанализ причудливо переплелись.

Математик ввёл понятие «аффективный тонус»: это вид обратной связи в биологических системах для усиления или ослабления условного рефлекса. Смысл тут такой, что, например, усвоение знаний во время обучения происходит эффективнее, если у обучающегося хорошее настроение, и хуже, если настроение плохое.

В другом месте автор похвалил динамическую психотерапию как раз за то, что, по его мнению, через работу с воспоминаниями этот метод ослабляет «аффективный тонус»: разрывает порочный круг невротического расстройства. Правда, почему невроз обязательно представляет собой патологический рефлекс, Винер не объяснил.

С другой стороны, математик убедительно показал, почему мозг — это компьютер.

В «Кибернетике» подробно разъяснена бинарная логика, нейроны описаны как переключатели; представлены и другие тезисы, о которых мы рассказали в обзоре книги «Компьютер и мозг» фон Неймана. Текст пестрит ссылками на коллегу — не только в связи с памятным совещанием 1944 года, но и в контексте концепции клеточного автомата (Винер называл подобные гипотетические устройства «самораспространяющимися машинами»).

Кроме того, отдаётся дань уважения великому предшественнику: «Если бы мне пришлось выбирать в анналах истории наук святого — покровителя кибернетики, то я выбрал бы Лейбница».

Примечательно то, как Винер трактовал память.

Механизм памяти в «нервной вычислительной машине» он связывал с изменением проницаемости синапсов и выделил два её вида. «Циркулирующие записи» необходимы для решения текущих задач (современная компьютерная аналогия: «оперативная память»). «Постоянные записи» обеспечиваются большим массивом нейронов (условно: «память жёсткого диска»).

Не будет преувеличением сказать, что именно Винер подал идею классификации нашей памяти на кратковременную и долговременную. Подобное разделение впервые появляется в работах психологов и нейрофизиологов только в 1950х гг.

Было бы неправдой изображать Норберта Винера оголтелым сторонником полного и безусловного отождествления живого мозга и компьютера.

Винер не дожил до эпизода сериала «Доктор Кто», где появляются Киберлюди. Но вряд ли был бы от него в восторге.

В «Кибернетике» математик всячески подчёркивал необходимость взвешенного подхода в таком сложном вопросе, как объяснение мозга.

Часто ссылаясь на физиолога и врача-кардиолога Артуро Розенблюта, свободно оперировал медицинскими фактами и отмечал, что «мозг при нормальных условиях не является полным подобием вычислительной машины».

В то же время, по мнению Винера, мозг преимущественно вычисляет. Причём вычисляет именно как компьютер.

Учёный прогнозировал постройку «искусственных машин почти со сколь угодно сложным поведением», которые будут управляться аналогом нашей центральной нервной системы — некой «сверхбыстрой вычислительной машиной».

И выражал по этому поводу опасения, увы, хорошо знакомые современному обывателю: «Ещё задолго до Нагасаки и до того, как общественности стало известно о существовании атомной бомбы, мне пришла мысль, что мы стоим перед лицом другой социальной силы, несущей неслыханные возможности для добра и для зла». 4

Так что, среди прочего, Норберта Винера можно считать ещё и зачинателем современного мифа о Великом и Могучем ИИ.

Впрочем, в «Кибернетике» и других работах Винера, где он рассматривал проблему устройства мозга, были по-настоящему ценные догадки.

Так, математик Стивен Строгац написал замечательную книгу, в которой подробно рассмотрел идею Винера о том, что ансамбли нейронов в головном мозге можно представить как популяции осцилляторов, управляющих, по крайней мере, некоторыми биологическими ритмами.

В общем, по мнению Строгаца, эта гипотеза подтвердилась, но не в отношении альфа-ритма (как предполагал автор «Кибернетики»), а для гораздо меньшего частотного диапазона.60

Таким образом, следуя идеям Винера, удалось прояснить механизм синхронизации мозга и внешней среды.

Резюмируем вычислительную модель разума в интерпретации фон Неймана-Винера (см. табл. 7):

— Мозг человека — природный (автоматический) вычислитель.

— Элементом мозга является нейрон, который работает как переключатель цифрового сигнала.

— Интеллект функционирует на базе бинарной логики, а память — как создание/извлечение записей данных.

— Главное назначение мозга — вычисление с целью поддержания равновесия в системе «мозг-среда». Гомеостатическая регуляция достигается, в том числе, при помощи обратных связей.

Со второй половины XX века у наиболее проработанных научных теорий об устройстве и работе мозга, концепции Сеченова-Павлова и учения Фрейда, появился серьёзное конкурирующее объяснение — кибернетика.

В борьбе за умы людей она была обречена на победу.

Не баг, а фича

Когда программисты или геймеры сталкиваются с некорректной работой компьютерной программы, способны отследить ошибку — вплоть до исходного кода — и устранить её так, чтобы всё снова заработало, как надо, говорят: «Это был баг».

Однако существуют такие ошибки программного кода, которые хоть и не прерывают работу системы, но накладывают на неё некий неповторимый отпечаток, вынуждающий функционировать её с постоянными сбоями.

В таком случае нет какой-то одной, конкретной, причины, и проще удалить программу целиком, чем пытаться что-то исправить. Тогда об ошибке говорят: «Это не баг, а фича».

Несомненно, что создатели кибернетики не были настолько узколобыми и тщеславными специалистами, что верили в исключительную непогрешимость своей концепции.

Но была ли кибернетика и, в частности, вычислительная модель мозга теорией, способной со временем, после устранения всех «багов», превратиться из демоверсии в самое полное и точное объяснение разума? Или в ней изначально содержалась принципиально неустранимая «фича»?

Попытаемся в этом разобраться.

Первым делом исследуем, каким образом в 1960—70х гг., когда кибернетика стала уже достоянием фольклора, люди отвечали на главные вопросы — как менялась наука и повседневная жизнь.

Мы увидим, что вопрос о мироздании и вопрос о природе бытия окончательно перешёл в компетенцию физики. Объяснение микро — и макромира стало мыслиться как общая научная проблема.

Конец ознакомительного фрагмента.

Смотрите также

а б в г д е ё ж з и й к л м н о п р с т у ф х ц ч ш щ э ю я