Шрифт:
С. Брингсйорд доказывает, что: а) когнитивно-компьютерная технология будет производить машины со способностями проходить все более и более сильные версии ТТ, однако: б) проект ИЛ по созданию машины-личности будет неминуемо проваливаться. В защиту (а) предлагается индуктивный вывод при построении версий тестов: тьюринговая игра в имитацию – > наблюдение внешнего вида игроков – > изучение их сенсомоторного поведения – > сканирование мозга и пр. (т. е., по сути, прохождение рассмотренной выше иерархии тестов Харнада). В основе доказательства (б) – несостоятельности проекта ИЛ – лежит modus tollens из суждений: (1) «Проект ИЛ» – > «Личность – это автомат»; – > (2) – «Личность – это автомат»; (3) – «Проект ИЛ». Посылка (2) интуитивно апеллирует к наличию у человека и отсутствию у автомата ряда машинно не воспроизводимых персонологических параметров F, к которым относятся свободная воля, способность к интроспекции, внутренний проективный опыт «каково быть» («what it's like to be») и пр. К F относится и возможность компьютерного воспроизводства творческих способностей, которую автор подробно анализирует в ряде предыдущих работ на основе рассмотрения программ генерации художественных и философских произведений. Убедительно доказывается: «компьютер творить не может!» [242] Общее заключение следующее: (4) «Личность обладает F»; (5) «Автомат не обладает F»; – > (6) «Личность не может быть автоматом». С. Брингсйорд достаточно подробно обосновывает невычислимость F, апеллируя к аргументу Гёделя, «Китайской комнате» Дж. Сёрля, аргументу произвольной множественной реализации Н. Блока и др. Итог таков: «Роботы будут многое делать, однако они не будут личностями».
242
Подход С. Брингсйорда к критике компьютерного творчества явно выражен в аргументе Лавлейс. См.: Брингсйорд С., Беллоу П., Феруччи Д. Творчество, тест Тьюринга и улучшенный тест Лавлейс / Пер. с англ. А. Ласточкина // Тест Тьюринга. Роботы. Зомби / Пер. с англ.; Под ред. А. Ю. Алексеева – М.: МИЭМ, 2006. – С. 62–83.
В полемике по поводу работы С. Брингсйорда, продолженной на страницах сайта(рубрика «Сознание робота»), наблюдается четыре направления критики и поддержки.
I. Проект ИЛ абсурден, так как: 1) метафизические понятия «личность», «свобода воли», «интроспекция» не могут быть предметом эмпирического анализа; 2) нечеткое определение понятия личности, образная иррациональность проекта ИЛ – все это не заслуживает научного внимания; 3) персонологические параметры логически невыразимы – попытки их логической экспликации непременно сопровождаются ошибками.
II. Проект ИЛ неточен, так как: 1) апелляция к интуитивным аргументам разрушает логическую строгость дедуктивных аргументов; 2) нецелесообразно применять дедуктивные умозаключения в качестве метода аргументации (дедукция – не метод, а схема суждений); 3) необходимо четко формулировать конкретную разновидность функционализма как методологического базиса проекта ИЛ – нет функционализма «вообще», а есть, к примеру, низкоуровневый функционализм, биологический функционализм и пр.
III. Проект ИЛ реализуем, так как: 1) человеческая личность – это тоже компьютер, но неклассического типа, т. е. представимый не машиной Тьюринга, а иными, квазиалгоритмическими правилами обработки вычислительных элементов (мы предложили использовать машину Корсакова – Тьюринга); 2) компьютер вовсе не автомат, и кто придерживается противоположного мнения – тому не место в проблематике компьютерного «сознания»; 3) компьютерная система должна тестироваться природой, а не человеком.
IV. Проект ИЛ значим вне зависимости от возможностей его реализации: 1) будет ли создана ИЛ либо не будет создана – не принципиально, главное, что проекты ИЛ выявляют механистические аспекты человеческого сознания; 2) проектирование ИЛ проясняет роль и функции сознания в жизни человека путем постановки вопроса о зомби – о созданиях, не обладающих сознанием, но имеющих все поведенческие способности человека.
Добавим еще один пункт.
V. Исследования естественной личности нерепрезентативны, если они не учитывают исследования проекта искусственной личности. Человек оказался «заброшенным» в компьютеризованный мир, поэтому каноны и стереотипы компьютинговой рациональности более прочно и оперативно, нежели в традиционной культуре, фиксируют и закрепляют у него «искусственное». Для выявления «человеческого собственно человеческого» и предназначен проект искусственной личности – кем он, естественный человек, не должен быть.
Имитация и моделирование естественной личности должны быть соразмерными способами реализации проекта ИЛ. Не надо бросать все силы на построение совершенной имитации, проходящей комплексный тест Тьюринга (как это принято на лойбнеровских состязаниях компьютеров и людей). Но так же не надо доверять онтологической полноте построенной компьютерной модели некоторого частного персонологического аспекта. И совершенно не следует навязывать результаты моделирования личности – пусть очень полного и обоснованного – оригиналу этой модели.
Что касается значимости параметра антропоморфности робота – здесь нет жестких ограничений. Зачем роботу, работающему в космосе или в глубине океана, иметь человеческий облик? Однако роботу, который, скажем, подстригает волосы и бороду (такие роботы уже работают в экспериментальных парикмахерских), предпочтительно все же иметь приятное дружелюбное лицо.
Искусственная личность – экспертная система
Примерно в те же годы, когда проходила обозначенная выше дискуссия, т. е. в середине 1990-х годов, в нашей стране совершенно независимо от зарубежной науки возникла иная идея проекта искусственной личности. Автор данной работы был в эпицентре инициации работ по этому проекту [243] . По заказу Министерства обороны РФ в 27 ЦНИИ МО под руководством проф. В. В. Деева были организованы исследования по программированию и внедрению в системы принятия решений так называемых «нетрадиционных информационных технологий». Необычность этих технологий – в изучении и применении неординарных способностей экстрасенсов для эффективного управления войсками. Проект искусственной личности был призван интегрировать «знания», которыми владели как экстрасенсы (сенситивы), так и традиционные специалисты. Семантическая неопределенность и концептуальный разброс для решения ряда задач отличают данный проект от модных на сегодняшний день проектов «коллективного принятия решений» в системах «управления знаниями».
243
Алексеев А. Ю. Искусственная личность // Сб. трудов конференции «Междисциплинарный подход к изучению человека». – М.: Институт микроэкономики, 1998. – С. 28–31.
Исследования базировались на концепции моделирования «смысла». Проект ИЛ рассматривался как этап эволюции интеллектуальных систем. Если традиционная компьютерная технология характеризуется формулой «данные+алгоритм», технология искусственного интеллекта – «знания+эвристика», то проект ИЛ задается формулой «смысл+понимание». Учитывая крупные наработки отечественных специалистов в области построения экспертных систем, в частности в семиотическом моделировании способов представления «знаний», в основу рассматриваемого проекта ИЛ была положена экспертная методология. Специальные программы моделировали процессы «понимания», обеспечивали условия экспликации «смысла», «сущностных» оснований принимаемых решений. Модель «смысла» фиксировала эти «траектории» в определенным образом кодифицированных массивах информации.