объяснить, почему нельзя (и никогда не будет возможно) сказать, что машины разумны или умеют думать в том же смысле, что и люди.
Важно понимать, что именно имеется в виду под искусственным интеллектом (ИИ). Некоторые машины ведут себя так, «как будто» они разумны, однако они просто симулируют процесс мышления или движения. Другие, более сложные, «как будто» даже осмысляют и воспринимают происходящее, то есть не просто ведут себя как разумные, но в действительности являются таковыми. Предлагая мысленный эксперимент с китайской комнатой, Сирл имел в виду как раз последний тип.
Суть эксперимента следующая. Вы говорите только по-английски, других языков не знаете. Вас запирают в комнате, предложив какие-то китайские произведения, еще один набор произведений и справочники на английском языке, чтобы вы могли сопоставлять написанное на китайском и на английском. Рассматривая очертания китайских иероглифов, вы видите, какие группы символов соответствуют друг другу.
Пока все прекрасно. Вам еще дают третий набор произведений на китайском и добавочные инструкции (снова на английском), позволяющие установить корреляцию между третьим комплектом и первыми двумя. Первый комплект называется «рукопись», второй – «история», а третий – «вопросы». Но этого вам не говорят. Вас просят только давать отклики, которые называются «ответы на вопросы».
Вам требуется некоторое время, чтобы изучить правила. Несмотря на то что вы не знаете ни слова по-китайски, в конце концов вы начинаете давать такие правильные ответы на вопросы, что постороннему человеку может казаться, что вы бегло говорите по-китайски.
Но что же вы в действительности делаете, манипулируя символами подобным образом? Сирл сказал бы, что вы ведете себя в точности как компьютер, и даже если ваши действия полностью соответствуют действиям настоящего китайца, на самом деле вы им не являетесь. Вы просто используете рукопись, чтобы обрабатывать историю и давать отклик в форме ответов. Вам даже не сильно нужно знать, что такое «вопросы» или «ответы», чтобы реагировать корректным образом.
Данные на входе и на выходе обрабатываются так же, как это делает китаец. Чего недостает, так это осмысления. Согласно Сирлу, данная «работа» аналогична тому, что делает компьютер, – он ведет себя во всех отношениях так, чтобы симулировать мышление, хотя в действительности тут никакого мышления не присутствует, потому что компьютер не понимает, чем он занимается. Он просто манипулирует символами. Для Сирла не имеет значения сложность действий, набора правил или символов; если нет понимания, нет и реального мышления.
Философы называют это жонглирование символами, отвлекаясь от их интерпретации, «синтаксисом», а значения, приписываемые символам, «семантикой». Итак, хотя машина способна демонстрировать синтаксическое поведение, она не владеет семантикой и вообще разумом в нашем понимании. Машина способна «сказать» что-нибудь вроде «небо голубое», при том что у нее нет глаз, чтобы различать голубой цвет, нет никаких чувств по поводу данного факта, никакого прошлого опыта наблюдений за небесами и прочего в этом роде. У нее нет убеждений, допущений, даже внутренней жизни, которую мы, как правило, ассоциируем с наличием разума.
К сожалению, мы с вами не располагаем возможностью задерживаться далее на теме ИИ, как бы обширна и интересна она ни была. Но мы можем воспользоваться некоторыми соответствующими идеями для нашего исследования в области понимания и восприятия мира, приобретения знаний и того, что мы делаем с приобретенным. Возможно, «Китайская комната» уже навела вас на некоторые мысли, к примеру: откуда мы знаем, что человек, говорящий на китайском, действительно говорит на китайском?
Да очень просто: по его внешнему поведению. По всему тому, что мы можем видеть, наблюдать или знать. Если этого достаточно, чтобы убедить нас, что какой-то человек – носитель китайского языка, почему же мы должны предъявлять более жесткие стандарты к машинам? Действительно, кто-то мог бы утверждать (будучи настроен поспорить), что у нас нет особых доказательств в пользу обратного, когда мы заявляем, что говорим на каком-то языке!
Есть немало отзывов и контраргументов в связи с гипотетической ситуацией Сирла, большая часть которых технически относится к области лингвистики, когнитивистики, программирования, сознания и ИИ. Однако мысленные эксперименты позволяют поиграть с этими вопросами, не вдаваясь слишком глубоко в технические детали.
Можно задаться вопросом, что данный эксперимент говорит не об ИИ, а о нас самих. Если мы утверждаем, что машина не может иметь разум, почему нет? Говоря точнее, что в наших поступках отличает нас от робота, запрограммированного делать то же самое?
Откуда в действительности проистекают такие вещи, как «намерение», «сознание» или «понимание», и почему их простые реплики не то же самое, что оригинал? Возможно, вы увидели здесь параллель с болотным человеком или тенями на стене пещеры Платона. Надеюсь, вы уже понимаете, что перед нами более глубокая проблема: реальная осознанность против символа, иллюзий или подобия сознания.
Хотя мысленные эксперименты, касающиеся ИИ, как кажется, больше подходят для компьютеров, это не так – они полностью касаются людей; именно мысленные эксперименты мы имеем в виду, говоря, что люди обладают разумом. Вычислительная теория разума гласит: умственные состояния похожи на программное обеспечение, установленное на жесткий диск физического мозга. И далее эти умственные состояния характеризуются в зависимости от функции, которую вы в конкретный момент выполняете. Приняв данную модель, придется согласиться, что компьютеры способны делать то же самое, что ИИ умеет думать в том же смысле, что и мы, только у него несколько иное аппаратное обеспечение.
Знаменитый тест английского математика Алана Тьюринга, предложенный им в 1950 году, был призван ответить на вопрос, может ли машина общаться с человеком настолько аутентичным образом, чтобы человек не понял, что говорит с машиной. Сирл считал, что человеческий разум – гораздо больше, чем программа, и не соглашался с тем, что тест Тьюринга о чем-то говорит с точки зрения «разумности» машин.
Разве разум отличает только умение вести осмысленную беседу? Или умение манипулировать символами? А как насчет чувства любви, способности мечтать, ощущать самый настоящий аромат роз, глубоко верить на основании собственного опыта в то, что вы живете, что вы – самостоятельное существо?
Все эти вопросы приводят нас к финальному вопросу: насколько доступна идея «разумности» в принципе?
Что мы в действительности имеем в виду, и вообще говорим ли об одной и той же вещи? Давайте еще раз копнем вглубь и так же, как делали это в предыдущих мысленных экспериментах, проанализируем исходные допущения, используемые для дискуссий по поводу «Китайской комнаты».
Соответствующий мысленный эксперимент – предпоследний из тех, с которыми вас знакомит данная книга, и, возможно, самый фундаментальный. Людвиг Витгенштейн, так звали философа, который пожелал заглянуть в самое сердце философии, поняв, как именно мы