Китайская комната — мысленный эксперимент, описанный Сёрль, в котором критикуется возможность моделирования человеческого понимания естественного языка, создание так называемого «сильного искусственного интеллекта». В частности есть критикой теста Тьюринга.

Был предложен в 1980 году в статье «Minds, Brains, and Programs» («Умы, мозги и программы»).

Мысленный эксперимент

В популярной статье «Is the Brain's Mind a Computer Program?» («Есть ли мозговое мышление компьютерной программой?»), Опубликованной в 1990 году, Сёрль описывает эксперимент следующим образом:

«

Возьмем, например, какой-либо язык, которого не понимаете. Для меня таким языком является китайский. Текст, написанный на китайском, я воспринимаю как набор бессмысленных каракулей. Теперь предположим, что меня поместили в комнату, в которой расставлены корзины, полные китайских иероглифов. Предположим также, что мне дали учебник на английском языке, в котором приводятся правила сочетания символов китайского языка, причем правила эти можно применять, зная лишь форму символов, понимать значение символов совсем необязательно. Например, правила могут утверждать: «Возьмите такой-то иероглиф из корзины номер один и поместите его рядом с таким-то иероглифом из корзины номер два».

Представим себе, что люди, которые находятся за дверью комнаты и понимают китайский язык, передают в комнату наборы символов, и в ответ я манипулирую символами в соответствии с правилами и передаю назад другие наборы символов. В этом случае книга правил есть не что иное, как «компьютерная программа». Люди, которые написали ее — «программисты», а я играю роль «компьютера». Корзины, наполненные символами, — это «база данных»; наборы символов, передаваемых в комнату, это «вопрос», а наборы, выходят из комнаты, это «ответы».

Предположим далее, что книга правил написана так, что мои «ответы» на «вопрос» не отличаются от ответов человека, свободно разговаривает на китайском языке. Например, люди, находящиеся снаружи, могут передать непонятные мне символы, означающие: «Какой цвет вам больше всего нравится?» В ответ, выполнив предложенные правилам манипуляции, я видам символы, к сожалению, мне также непонятны, означающие, что мой любимый цвет синий, но мне на самом деле нравится зеленый. Таким образом, я выдержу тест Тьюринга на понимание китайского языка. Но все же на самом деле я не понимаю ни слова по-китайски. К тому же, я никак не могу научиться этому языку в рассматриваемой системе, поскольку не существует никакого способа, с помощью которого я мог бы узнать смысл хотя бы одного символа. Подобно компьютеру, что манипулирует символами, но не может вложить в них никакого смысла.

»

Формализация

В 1984 году Сёрль формулирует свою идею более формализован. Он рассматривает следующие предпосылки:

  • Предпосылка 1: Мозг порождает разум.
  • Предпосылка 2: Синтаксиса недостаточно для существования семантики.
  • Предпосылка 3: Компьютерная программа полностью определяется своей синтаксической структурой.
  • Предпосылка 4: Человеческий разум оперирует смысловым содержанием (семантикой).

И делает выводы:

  • Вывод 1: Программы не является сущностью ума и их наличии недостаточно для наличия ума.
  • Вывод 2: Тот способ, с помощью которого человеческий мозг на самом деле порождает ментальные явления, не может сводиться только к выполнению компьютерной программы.
  • Вывод 3: То, что порождает разум, должно иметь по крайней мере причинно-следственные властвости, эквивалентные соответствующим свойствам мозга.

Дискуссия

Мысленный эксперимент вызвал интенсивную дискуссию среди ученых. Существуют различные аргументы против результатов, полученных Серлом:

  • Некоторые критики считают, что тест Тьюринга выдерживает не человек, а система, состоящая из комнаты, книги правил и человека. Сёрль, по их мнению, отвлекает внимание от того факта, концентрируясь на одном из компонентов системы, выполняющей в данном случае чисто механическую работу. Система из книги правил, человека и комнаты, по их мнению, является разумной и понимает китайский язык.
  • Другое мнение состоит в том, что никакой семантики не существует в принципе: все, что происходит в мозге, всего лишь манипулирование синтаксисом, которое осуществляется и в компьютерах.
  • По мнению Станислава Лема, понимание в самой "китайской комнате" действительно существует, но оно в мозгу ее создателя — того, кто разработал систему правил обращения с иероглифами для участника эксперимента. «Работа всегда асемантичних формальная», и это не может быть основанием говорить об отсутствии понимания. Автор эксперимента должен был заранее предусмотреть все комбинации вопросов и ответов или придумать принцип отбора ответы на вопросы. В реальных условиях при создании предполагаемого искусственного интеллекта вряд ли такое будет возможно.