Если поведенческие наблюдения – например, при оценке боли животного – недостаточно надежны, может ли наука предложить более обоснованный подход? Новозеландский нейрофизиолог Крейг Джонсон полагает, что может. В 2009 г. он сообщил, что «судя по мозговой активности, телята чувствуют боль, когда их забивают» [102]. Получивший премию труд Джонсона основывался на фактах, полученных при использовании регистрации электрофизиологической активности мозга (ЭЭГ). Предшествующие исследования на добровольцах-людях и нескольких других видах млекопитающих показали, что определенный характерный паттерн ЭЭГ наблюдается в те моменты, когда подопытный получал болевое воздействие. Чтобы не причинять животным дискомфорта, Джонсон анестезировал телят, прежде чем перерезать им горло. Он утверждает, что эти животные демонстрировали типичную болевую электрофизиологическую активность в момент, когда им перерезали горло. В результате он приходит к выводу, что телята испытывали бы боль, если бы были в сознании.
Основываясь на результатах ЭЭГ, коррелировавших с клиническим описанием боли, полученным от человеческих добровольцев, находившихся в сознании, Джонсон предположил, что такой характер электрофизиологической активности отражает состояние боли. Но нет никакого смысла ссылаться на характер электрофизиологической активности анестезированного животного как отражение бессознательного проявления боли. Боль – это сознательное переживание. Представьте себе двух людей, одинаково споткнувшихся и ударивших большие пальцы на ногах. Один только что потерял работу, и его бросила жена – он стонет в агонии. Другой только что узнал, что выиграл в лотерее – он даже не заметил, что споткнулся. Входящая информация одинакова, нейрональная основа переживания боли так же одинакова. При этом психические переживания оказываются различными. Исследование Джонсона – отличный пример того, как мозг путают с разумом. Знание того, что происходит на уровне нейронов, не может ничего сказать о переживаниях животного.
Одним из трагических побочных эффектов этого исследования была достойная восхищения попытка ученого с помощью данных ЭЭГ убедить религиозных лидеров в том, что животные могут испытывать боль. По словам Джонсона, результаты исследования не были сюрпризом, «но, по непоколебимому мнению религиозного сообщества, животные не испытывают никакой боли, поэтому результаты могут быть неожиданностью для них». В качестве ответного аргумента религиозный представитель скотобойни процитировал предыдущее исследование, проведенное Университетом Ганновера, Германия, пришедшее к заключению на основании ЭЭГ, что один тип техники убоя гуманнее, чем другой. Это примечательный кульбит веры и фундаментально редукционистский взгляд на внутреннюю жизнь животного, позволяющий верить, что решение в отношении убийства людьми животных может определяться интерпретацией электрофизиологической активности мозга.
Этот конфликт между необъективностью поведенческих наблюдений и неспособностью науки перешагнуть через зазор между разумом и мозгом не имеет окончательного решения. Нейробиологи могут предложить дальнейшие физиологические исследования, а философы ответить бесконечным потоком мысленных экспериментов, но существовать безупречного решения проблемы субъективности, пытающейся объективизировать саму себя, попросту не может. Как мы вскоре увидим, это убеждение о нейрональных коррелятах сознательных психических состояний является основой для большого числа ложных нейробиологических концепций – от оценки наличия сознания до определения причинно-следственных связей, до описания некоторых болевых синдромов, до заявлений, что мораль может быть научно обоснованна.
Ослабление позиций интеллекта
История недооценки психических способностей животных – урок того, как не надо думать о других существах, – но насколько далеко следует распространять этот урок? В качестве логического экстремума можно рассмотреть интеллект машины – неизбежный следующий шаг в теоретизировании о том, на что может распространяться понятие «разум». Для этого я решил обратить внимание на один из наиболее интригующих источников беспокойства современного человека: его отношения с компьютером. Хал (робот 2001 года) стал символом развивающегося взаимодействия человека и машины. Некоторые (чрезмерные) оптимисты убеждены, что интеллект машины со временем значительно превзойдет наш собственный. Для других возможность существования по-настоящему умных роботов выглядит прямой угрозой наиболее уникальному качеству человека – его разуму.
Чтобы увидеть, чем мы отличаемся от компьютера, каждый из нас должен решить, что действительно понимает компьютер – если вообще что-либо понимает. В качестве первого шага давайте согласуем рабочее определение понимания. Любые когнитивные процессы состоят из двух компонентов: актуальная работа с информацией и чувственные переживания, и чувство понимания есть следствие этой работы с информацией. Эти отношения не настолько прямолинейны, как многие надеются. Правильная работа с информацией может и не сопровождаться чувством понимания: мы все прилагаем умственные усилия, чтобы заполнить запутанную налоговую декларацию или изменить конфигурацию и перезагрузить компьютерный модем, и не испытываем при этом ни малейшего чувства понимания того, что мы делаем. Неправильная обработка информации повсеместно ассоциируется с неоправданным чувством понимания, как это демонстрирует эффект Даннинга – Крюгера. Понимание и интеллектуальное мышление не являются синонимами – это совершенно различные понятия и стоящие за ними механизмы. Даже если ваш мозг вывел безупречное решение вековой проблемы, на нейронном уровне это по-прежнему остается только работой с информацией. Ассоциированное с ней непроизвольное ощущение понимания – это ваше ощущение вычислительной работы мозга. Это то самое понимание, которое варьируется от повседневного «ага!» до единственного в жизни божественного озарения.
В 1980 г. философ Джон Сёрл опубликовал противоречивый мысленный эксперимент – аргумент Китайской комнаты – с целью объяснить, почему искусственный интеллект не способен на понимание. Сёрл описывает человека, хорошо говорящего по-английски, внутри запертой комнаты. У человека есть комплект руководств, точно объясняющих, как обрабатывать входящую информацию, написанную на китайском языке. Его ответы потом тоже должны быть написаны на китайском. Поскольку он не понимает китайского, его ответы основываются исключительно на следовании инструкциям, приведенным в руководстве (которое написано по-английски). Он не понимает ни входящей, ни выходящей информации, но способен должным образом выполнять задачу. Полученные от него ответы будут отлично понятны тому, кто читает по-китайски, но не будут иметь никакого смысла для человека в запертой комнате. По Сёрлу, не важно, насколько точно человек мог следовать инструкциям и генерировать выглядящие осмысленными реакции, если он не понимает семантики и значения собственных ответов, ему нельзя сказать ничего, что он мог бы понять. В последующие 30 лет философы произвели на свет горы аргументов как «за» так и «против» позиции Сёрла [103].
Вся головоломка вокруг того, понимает или нет компьютер, исчезнет, если принять то, что понимание является ментальным ощущением, продуктом работы ментальной сенсорной системы. Поскольку у компьютера отсутствует такая присущая человеку сенсорная система, не следует ожидать от него понимания. Задавать этот вопрос бессмысленно. В то же время отсутствие понимания у компьютера не отвечает на вопрос, может ли машинная обработка информации рассматриваться как форма интеллектуального мышления. Большинство согласится, что возвращение в рабочее состояние вашего забарахлившего модема, сопровождаемое самым слабым представлением о том, как действуют установки модема, – пример разумного решения проблемы, которое крайне редко – если вообще когда-либо – ассоциируется с состоянием «ага!» или глубоким чувством реального понимания.
У компьютеров собственный тип интеллекта, основанный на тех данных и обратной связи, которые они аккумулируют. Мы принимаем как само собой разумеющееся, что они способны осуществлять расчеты, выходящие далеко за пределы человеческих возможностей, и что эти компьютерные способности будут и далее совершенствоваться с огромной скоростью, возможно, и в геометрической прогрессии. Мы принимаем без особых дискуссий, что компьютеры могут победить всех лучших игроков в «Свою игру», нарды или шахматы и способствовать (путем моделирования) дальнейшей разработке таких разноплановых вопросов, как теория игр, изменение климата и космология [104]. Разница лежит в природе этих расчетов. Без ощущений и связанной с ними ментальной сенсорной системы самый «продвинутый» компьютер, оснащенный самыми сложными программами, не может инкорпорировать в себя множество факторов, представляющих собой человеческую мудрость, и сформировать качественный процесс принятия решений, включающий сопереживание, сочувствие, юмор, иронию, чувство справедливости и эстетику. Способный создавать захватывающие дух образы нашей галактики и первых дней существования нашей Вселенной, компьютер не чувствует красоты или ужаса и не способен основывать свои решения на этих чувствах. Именно комбинация способности обрабатывать информацию и обладания непроизвольными ментальными ощущениями составляет наше отличие от компьютеров.