Шрифт:
Дело в том, что задача судьи в тесте Тьюринга логически схожа с ситуацией, когда Пейли, гуляя по пустырю, нашел камень, часы или живой организм: нужно объяснить, откуда взялись наблюдаемые свойства объекта. В случае с тестом Тьюринга мы намеренно игнорируем вопрос о том, как было создано знание, необходимое для разработки объекта. Тест имеет дело только с тем, кто разработал высказывания искусственного интеллекта: кто придал им смысл, кто создал знания, содержащиеся в них? Если это дело рук разработчика, то программа не является искусственным интеллектом. А если самой программы, то она – действительно искусственный интеллект.
Время от времени этот вопрос возникает и в отношении самих людей. Например, фокусников, политиков, экзаменующихся иногда подозревают в том, что кто-то через спрятанные наушники передает им информацию, которую они затем механически повторяют, притворяясь, что это плод их собственной мысли. Или когда врач берет у пациента согласие на какую-либо медицинскую процедуру, он должен убедиться, что пациент не просто проговаривает слова, а понимает, что они означают. Для этого можно по-разному повторять вопрос или задать другой вопрос, в котором присутствуют те же слова, и посмотреть, изменятся ли ответы. Это естественно для любого свободно текущего разговора.
Тест Тьюринга устроен похожим образом, однако акцент в нем делается на другом. Когда тестируется человек, нужно установить, в здравом ли он уме (и действует ли он по своей воле, а не в интересах другого лица). При тестировании искусственного интеллекта мы хотим найти трудноварьируемое объяснение тому факту, что его высказывания не могут исходить ни от какого человека, а могут принадлежать только искусственному интеллекту. В обоих случаях опрашивать человека в качестве контрольного примера бессмысленно.
Без разумного объяснения того, как были созданы высказывания некоего существа, наблюдения за этим процессом нам ничего не скажут. В тесте Тьюринга, на самом простом его уровне, нас нужно убедить в том, что высказывания не сочиняются непосредственно человеком, притворяющимся искусственным интеллектом, как в розыгрыше с Хофштадтером. Но подлог – это меньшая из возможных бед. Например, выше я предположил, что «Элбот» процитировал заготовленную шутку в ответ на ошибочно опознанное ключевое слово «spouse». Но значение этой шутки было бы совершенно иным, если бы мы знали, что это не заготовка, поскольку никто ее в программу не закладывал.
Но откуда мы могли бы это узнать? Только из разумного объяснения. Например, мы могли бы это знать, если бы сами написали программу. Или если бы автор программы объяснил нам, как она работает: как создает знания, включая шутки. Окажись объяснение разумным, нам следовало бы признать, что программа – искусственный интеллект. На самом деле, если бы у нас было только такое объяснение, но мы бы еще не видели результата работы программы и даже если бы она еще не была бы написана, мы бы все равно должны были заключить, что это настоящий искусственный интеллект. И тест Тьюринга был бы не нужен. Вот почему я говорю, что если бы недостаток вычислительной мощности был единственным препятствием в создании искусственного интеллекта, то не было бы смысла ждать его практической реализации.
Детальное объяснение принципа работы искусственного интеллекта вполне может оказаться исключительно сложным. На практике авторское объяснение всегда будет даваться на некоем эмерджентном, абстрактном уровне. Но это не мешает ему быть разумным. Разъяснять конкретные вычислительные шаги, из которых получилась шутка, не придется так же, как и теория эволюции не должна объяснять, почему в истории данной адаптации сохранилась или не сохранилась каждая конкретная мутация. Должно быть только объяснено, как это могло произойти и почему следует ожидать, что это случится, с учетом того, как работает программа. Если это разумное объяснение, мы убедимся в том, что шутка – знание в ней – зарождается в программе, а не в голове программиста. Таким образом, в зависимости от наилучшего доступного объяснения принципа работы программы одно и то же ее высказывание – шутка – может доказывать как то, что программа не думает, так и то, что она думает.
Природа юмора изучена недостаточно хорошо, поэтому мы не знаем, требуется ли универсальное мышление для составления шуток. Поэтому вполне понятно, что, несмотря на широкий диапазон тем, на которые можно пошутить, существуют скрытые связи, сводящие весь процесс придумывания шутки к единственной узкой функции. В этом случае однажды вместо людей могут появиться универсальные программы для придумывания шуток, так же, как сейчас у нас есть программы, не являющиеся людьми и играющие в шахматы. Звучит невероятно, но в отсутствие разумного объяснения, которое исключило бы такую возможность, мы не можем считать выдумывание шуток единственным способом оценки искусственного интеллекта. Но что мы можем сделать – это вести разговор на более чем разнообразные темы и следить за тем, адаптируются ли ответы программы по смыслу к различным возникающим в процессе целям. Если программа на самом деле думает, то в ходе такого разговора она проявит себя – одним из бесчисленных и непредсказуемых способов, – так же как это сделали бы вы или я.
Есть и более глубокая проблема. Способности искусственного интеллекта должны обладать своего рода универсальностью: специализированное мышление не будет считаться мышлением в том смысле, который предполагал Тьюринг. Я предположу, что каждый искусственный интеллект – это субъект – универсальный объяснитель. Можно допустить, что между искусственным интеллектом и «универсальным объяснителем / конструктором» есть и другие уровни универсальности и, возможно, есть отдельные уровни для таких свойств, как сознание. Но, по-видимому, все эти отличительные свойства появились одним скачком к универсальности у человека, и, хотя мы не преуспели в их объяснении, мне неизвестно ни одного убедительного аргумента в пользу того, что они находятся на других уровнях или их можно было достичь независимо друг от друга. Поэтому я предварительно предполагаю, что что они нераздельны. Так или иначе, нам следует ожидать, что искусственный интеллект будет достигнут скачком к универсальности от чего-то гораздо менее мощного. Напротив, способность имитировать человека неидеально или только в отдельных его функциях – это не форма универсальности. Она может существовать в виде отдельных уровней. А значит, даже если чатботы вдруг начнут имитировать (или обманывать) людей гораздо лучше, это все равно не приведет нас к искусственному интеллекту. Научиться лучше притворяться, что умеешь думать, – не то же самое, что приблизиться к способности думать.