Туринг полагал, что в течение пятидесяти лет после опубликования его статьи, примерно к 2000-му году, успехи вычислительной технологии позволят построить машину, которая действительно сможет пройти его тест и проблема того, может ли машина думать, была бы решена. Сейчас, мы можем видеть, что он был чрезмерно оптимистичен в своих прогнозах. Хотя Вы можете найти множество «чат-ботов» в Интернете, довольно очевидно, что ни один из них не достаточно хорош, чтобы пройти тест Туринга, как он предполагал. Но это — не великий вопрос. Действительно важнейшая проблема — является ли тест Туринга приемлемым, правда ли машина, которая пройдет тест, будет интеллектуальной?
Возможно, Вам встречались машины, запрограммированные, чтобы действовать как человек. Даже если они правдоподобно выглядели, они по-прежнему действуют не как мы: это — только моделирование. Аналогично, независимо от того, как умело Картман притворяется роботом, он не робот. Он — мальчик, симулирующий поведение машины. Почему же мы должны думать, что компьютерное моделирование — даже очень хорошее или совершенное — является чем-то большим, чем моделирование? В конце концов, компьютерное моделирование грозы не делает никого сырым, а моделирование военного маневра — никого не убивает. Итак, почему мы должны согласиться, что компьютерное моделирование думающего человека — действительно думающий человек?
Мы можем ответить на этот вопрос, признав, что моделирование чего-либо не является одновременно дублированием этого. Почему? Вообще, идея состоит в том, что Вы не сможете моделировать интеллект, не будучи интеллектуальным, чтобы выдержать тест Туринга должен быть организован гибкий и творческий в ответах на вопросы механизм — который может функционировать только для интеллектуальной, думающей системы. Однако, такой ответ не убеждает всех. Во-первых, мы могли бы сослаться на то, что интеллект, который должен пройти тест, сосредоточен в программистах, а не в машине. И, во-вторых, кажется вполне логически возможным для машины обдурить нас — пройти тест Туринга, по-сути не делая реальных размышлений. Голографическое моделирование мр. Шляпы — не настоящая марионетка, потому что в нем упущены кое-какие моменты: шерстяная или хлопковая ткань или что-то типа носка, короче говоря. Возможно, что машина, моделируя мышление, аналогично пропускает некие важные аспекты настоящего разума?
Китайская комнатаДжон Серл, профессор университета Калифорнии в Беркли, и один из самых видных философов разума прошлых десятилетий, является, возможно, самым известным специалистом, в области экспериментов с мыслями, называемых аргументом китайской комнаты. Мыслительный эксперимент — просто детальный пример, который предназначен, чтобы помочь нам размышлять о философской проблеме. Некоторые мыслительные эксперименты, включая этот, также предназначены, чтобы играть ключевую роль в утверждении, о верности или ложности некоторых заявлений. Между прочим, этот специфический мыслительный эксперимент предназначается также, для критического анализа теста Туринга. Давайте же взглянем на него, еще раз, с точки зрения Южного Парка.
На сей раз, мы должны вообразить только две комнаты. В первой комнате мы снова разместим мр. Ученого. Во второй комнате — Кенни, надеясь, что он будет оставаться в живых достаточно долго, чтобы удовлетворить нашим целям. Все, что Кенни должен будет сделать — следовать некоторым простым инструкциям. Ах да, также важно, что он не знает китайского языка. Мр. Ученый, который бегло говорит на китайском языке, спрашивает у Кенни на китайском языке: «Что такое Южный Парк?» посредством китайских иероглифов. Кенни прочтет это китайское послание, в котором, конечно, ничего не поймет и использует сложный свод правил для составления ответа. Этот свод правил, с английскими наставлениями, состоит из списков китайских комбинаций символов, которые скоррелированы к другим китайским символам и английским словам. Кенни находит соответствующие правила, с трудом копирует символы, которые соответствуют символам, что представил ему мр. Ученый, а затем посылает новую комбинацию китайских иероглифов в другую комнату. Ученый исследует их и видит, что в ответном послании говорится: «заспанный обрыглый горный городок».
Итак, какова выгода от этого довольно сложного действа? Не будет ли казаться Ученому, что он только что общался с кем-то из другой комнаты, кто понимает китайский язык? В конце концов, он получил точный ответ на свое послание на китайском языке. И он может сделать это снова, много раз если пожелает. Но нам-то, конечно, ясно как день, что Кенни — ни бельмеса в китайском. При помощи словаря (какой же длины он должен быть!), он в состоянии ответить на вопросы Ученого, но это все без малейшего понятия со стороны Кенни. Он может быть в состоянии механически повторить иероглифы, но он ведь не знает или не понимает язык вообще.
Заявление Серла, состоит примерно в том, же, что может быть сказано относительно цифровой ЭВМ, которая проходит тест Туринга. Факт, что она может быть запрограммирована на предоставление ответа, который подходит к любому входящему вопросу, просто не дает права сказать, что машина, понимает что-нибудь вообще. Как метко выразился Серл, у цифровых ЭВМ может быть синтаксис (запрограммированный порядок слов, вроде «если х, то у» или «х либо у»), но никакой семантики (понимание или осознание значения «если х, то у» или «х либо у»).
Таким образом, то, что пропускает машина, — понимание. Согласно Серлу, в этом — главное различие (или одно из них, не суть важно) между сложной цифровой ЭВМ и человеческим разумом. Понимание здесь — во главе угла. Заявление Серла не состоит в том, что машины вообще не могут думать. Скорее он полагает, что только определенный вид «машины» — человеческий мозг или что-то очень на него похожее, может думать. Так, если мы можем создать машину, познавательная архитектура которой, подобна нашей собственной, с точки зрения всех сложных нервных связей и процессов, тогда Серл признал бы, что она смогла бы думать. Но пока мы рассматриваем цифровые ЭВМ, с которыми мы знакомы, он отрицает эту возможность.
Вероятно, для Вас не сюрприз, что не все соглашаются с Сер-лом в этом. Фактически, чем больше Вы узнаете о философии, тем больше Вы будете видеть, что серьезные возражения поднимаются против почти каждого интересного философского аргумента. Здесь мы рассмотрим только один вид ответа, который сам Серл называет Системным. Ранее мы согласились, что Кенни не понимает китайский язык, а отвечал он просто в силу своих способностей управлять китайскими иероглифами, согласно своду правил из словаря. Но почему мы спрашиваем, понимает ли Кенни китайский язык? Разве вопрос не в том, понимает ли вся система — состоящая из Кенни, комнаты, словаря и оборудования для коммуникаций — китайский язык? Вы испытываете желание сказать: «нет». Раз Кенни не знает китайского и работает с помощью других неодушевленных предметов, делая свое дело? В ответ, критик Серла мог бы указать, что у нас, на самом деле, есть только очень приблизительное понимание того, как получается, что человеческой нервной системе удается дать начало размышлению, значит — мы не должны быть слишком скептичными к некоторой другой системе, которая не может осуществить то же самое.
У Полотенчика есть разум?И Алан Туринг и Джон Серл были обеспокоены вопросом того, может ли у машины, например, компьютера, быть разум. Мы видели, что каждый из них предложил метод для того, чтобы ответить на этот вопрос. Но, сосредоточившись на методе, мы перешли от вопроса может ли у машины быть разум, к вопросу как мы можем узнать, что у машины есть разум. Первый — метафизический вопрос, поскольку это касается природы вещей, в то время как второй — эпистемологический вопрос, что означает (как Вы должны уже знать), касающийся природы того, как мы познаем вещи. Мы же хотим знать, имеет ли машина или может ли иметь разум.
Но откуда мы узнаем, есть ли у чего-нибудь разум или нет? Это, оказывается, удивительно хитрый вопрос, в частности из-за того, что известно как проблема других разумов. Это — сложная проблема, но ей можно дать одно простое объяснение. Стэн знает, что у него есть разум. Откуда? Хорошо, во-первых, в некотором смысле, он сам ощущает свой разум. Вы же не думаете, что у него нет разума (то же самое — сказать, будто у него не темные волосы)? Если Стэн знает хоть что-нибудь вообще, то он знает, что является обладателем интеллекта. П'нятненько? Теперь, откуда Стэн знает, что у Кайла есть разум? Не таким же образом, правильно? У Стэна нет непосредственного доступа к разуму Кайла, как к своему собственному, если, конечно, в каком-нибудь будущем эпизоде он не предоставит фактов владения телепатией. Фактически, мы можем подумать, что Стэн не может знать наверняка, что у Кайл есть разум, так как он может вывести, что у Кайла есть разум, исключительно из наблюдения за поведением друга? И поведение Кайла дает Стэну лучшие свидетельств того, что он — разумен, в отличие от компьютера, участвующего в тесте Туринга. Но так как мы все уверены, что у маленьких мальчиков есть мозги, и прежде, чем нас загнали в угол философией, давайте обратимся к примеру чего-то, чей умственный статус рассматриваем.