Шрифт:
Наверное, самым известным возражением на предложенную Тьюрингом процедуру стал ответ философа Джона Сёрля, который предложил мысленный эксперимент, получивший название «китайской комнаты». Представим себе закрытую комнату, в которую передают вопросы, написанные на китайском языке, и из которой получают ответы, опять же написанные на китайском. В комнате находится человек, не говорящий по-китайски (для простоты далее будем считать, что это сам Джон Сёрль), который понимает английский язык и использует набор правил, написанных по-английски, с китайскими иероглифами, предназначенными для записи ответов. Таким образом, человек, пишущий вопросы по-китайски и получающий из комнаты ответы, может сделать вывод, что внутри комнаты находится некто, способный понимать китайский язык. Но, по условию задачи, это не так. Следовательно, процедура, построенная только на изучении коммуникативного поведения объекта, подобная тесту Тьюринга, приводит нас к неправильному умозаключению.
Вокруг аргумента Сёрля развернулась весьма масштабная полемика, различные нюансы которой весьма детально разобраны в статьях Пола Кокшотта «Бёттке, синтаксис и тест Тьюринга» (Boettke, Syntax and the Turing Test) [29] и Лоуренса Ландау «Философская ошибка Пенроуза» (Penrose’s Philosophical Error) [30] . Здесь мы рассмотрим только два из основных аргументов против мысленного эксперимента Сёрля.
Первый и наиболее известный из них получил название «системный аргумент». Он сводится к тому, что даже если сам Сёрль, в соответствии с условиями эксперимента, не понимает китайский язык, тем не менее систему, состоящую из набора правил и самого Сёрля, вполне можно охарактеризовать как понимающую китайский. Если мы посмотрим на человеческий мозг, то легко заметим, что он состоит из различных элементов. Можно ли считать, что каждая взятая по отдельности часть мозга разумна? Разумны ли взятые порознь отделы мозга? Нейроны? Атомы углерода?
29
Кокшотт У. П., Микаэльсон Г., Коттрел А. (2017). Бёттке, синтаксис и тест Тьюринга / Пер. с англ. Горлова А. В., Маркова С. С // https://22century.ru/popular-science-publications/boettke-syntax-and-the-turing-test
30
Landau L. J. (1997). Penrose's Philosophical Error / Landau L. J., Taylor J. G. (1998). Concepts for Neural Networks. Perspectives in Neural Computing. Springer, London // https://doi.org/10.1007/978-1-4471-3427-5_7
Суть второго популярного возражения, аргумента «другие умы», состоит в следующем: если вы отказываете китайской комнате в понимании языка, то вы не можете быть уверенными в том, что кто-то, кроме вас, вообще что-то понимает, поскольку всё, с чем вы имеете дело, — это только поведение других людей.
В целом аргументы Сёрля и его сторонников, например Роджера Пенроуза, вызывают ассоциации с витализмом, то есть учением о наличии в живых организмах нематериальной сверхъестественной силы, управляющей жизненными явлениями, — «жизненной силы» (лат. vis vitalis) («души», «энтелехии», «археи» и проч.). Теория витализма постулирует, что процессы в биологических организмах зависят от этой силы и не могут быть объяснены с точки зрения физики, химии или биохимии. Когда-то виталисты утверждали, что органическую материю нельзя получить из неорганической. Затем, по мере прогресса в химии, границы «невозможного» постепенно стали сдвигаться, теперь уже невозможным объявлялось создание сложных органических соединений, а после успешного освоения их синтеза — создание живого организма. Теперь очередным «непреодолимым» рубежом стал человеческий разум, при этом роль жизненной силы у Сёрля выполняет «каузальная мощь человеческого мозга» [31] , а у Пенроуза — квантовая природа сознания [32] , [33] .
31
* Способность мозга находить причинно-следственные связи.
32
** Представление о том, что в основе разума лежат квантовомеханические эффекты, принципиально невоспроизводимые средствами классической механики.
33
The Emperor’s New Mind: Concerning Computers, Minds and the Laws of Physic, Oxford University Press.
Велико ли значение теста Тьюринга в наши дни? С одной стороны, искусственный интеллект, способный пройти тест Тьюринга или по крайней мере приблизиться к его прохождению, должен демонстрировать решение важных практических задач: понимание естественного языка и умение производить произвольные рассуждения. С другой стороны, некоторые современные исследователи в области искусственного интеллекта считают, что сегодня попытки создания системы для прохождения теста Тьюринга — это лишь отвлечение внимания от более плодотворных направлений исследований [34] . Действительно, тест Тьюринга не является сегодня областью, популярной в рамках академических или коммерческих проектов. Рассуждая о причинах такого положения дел, Рассел и Норвиг приводят забавную аналогию с историей создания самолёта: «В инженерных текстах по авиационной технике, — пишут они, — нигде не говорится о том, что целью этой области является „создание машин, способных летать подобно голубям настолько, чтобы они могли обмануть других голубей“» [35] .
34
Shieber S. M. (1994). Lessons from a Restricted Turing Test / Communications of the ACM, Vol. 37, Iss. 6, pp. 70—78 // https://doi.org/10.1145/175208.175217
35
Russell S. J., Norvig P. (2016). Artificial Intelligence: A Modern Approach. Pearson // https://books.google.ru/books?id=XS9CjwEACAAJ
Сегодня тест Тьюринга относят к группе так называемых ИИ-полных (AI-complete) задач, то есть таких задач, сложность которых делает их решение эквивалентным созданию AGI [36] . К таким задачам обычно относят задачу понимания естественного языка, машинный перевод, решение тестов Бонгарда [37] и тому подобное. Важно заметить, что ИИ-полнота — неформальный термин, так как строгого доказательства необходимости AGI для решения всех этих задач пока что не существует.
36
Mallery J. C. (1988). Thinking About Foreign Policy: Finding an Appropriate Role for Artificially Intelligent Computers / The 1988 Annual Meeting of the International Studies Association., St. Louis, MO.
37
*** Наборы визуальных тестов для оценки способности системы находить простые закономерности, предложенные советским учёным Михаилом Бонгардом.
Тьюринг стремился дать чёткий и понятный пример, необходимый в дискуссии о философии искусственного интеллекта. Как заметил Джон Маккарти: «Маловероятно, что [философия ИИ] окажет больший эффект на практические исследования в области ИИ, чем философия науки в целом — на саму науку» [38] .
Впрочем, некоторое отношение к современной практике тест Тьюринга всё-таки имеет, в одном из хорошо всем известных вариантов. Наверняка вам не раз приходилось вводить цифры или буквы с картинок, чтобы доказать, что вы не робот. Подобного рода тесты получили название «кaпча» [39] . В 2013 г. каждый день пользователям во всём мире приходилось проходить подобные тесты примерно 320 млн раз [40] . Старт этому масштабному противостоянию снаряда и брони был дан в 1997 г. [41] , и с тех пор тесты постоянно приходится усложнять из-за появления всё новых и новых систем ИИ, способных справиться с их прохождением. Позже мы ещё несколько раз вернёмся к тесту Тьюринга — например, когда будем обсуждать прогресс в области обработки машинами естественного языка, а сейчас перейдём к не менее животрепещущей теме — машинному обучению.
38
McCarthy J. (1996). “The Philosophy of Artificial Intelligence”, What has AI in Common with Philosophy?
39
**** CAPTCHA (Completely Automated Public Turing test to tell Computers and Humans Apart) — полностью автоматизированный публичный тест Тьюринга для различения компьютеров и людей.
40
Луис фон Ан. Массовое онлайн-сотрудничество // Конференция TED, 2011.
41
См. патент Method and system for discriminating a human action from a computerized action. 2004-03-01 .
1.3 Машинное обучение, его виды и области применения
Одно из распространённых заблуждений об искусственном интеллекте заключается в уверенности, что машины не могут учиться и, решая задачу, способны лишь следовать алгоритму — жёстко заданному программистами пошаговому сценарию.
В действительности то, что машины исполняют определённую программу, никак не мешает им учиться, для этого нужно только, чтобы программа воплощала тот или иной алгоритм обучения. В принципе, единственным необходимым для обучения условием является наличие у машины изменяемой памяти, но этим свойством машины обладают с давних пор.
В качестве самого простого примера обучения можно привести программу, которая при первом запуске спрашивает имя пользователя, которое затем запоминает, чтобы при следующих запусках обращаться к этому человеку по имени. Легко заметить, что поведение программы от запуска к запуску поменяется, то есть программа «научится» правильно обращаться к вам, хотя программисты, создавая программу, не указывали в ней вашего имени. Конечно, обучение может быть разным: как и человек, одним вещам машина может обучиться с лёгкостью, другие же пока что находятся за пределами возможностей современных технологий ИИ, и эта граница постоянно сдвигается по мере того, как очередные задачи сдаются под напором достижений науки и технологии.