Шрифт:
Дефиниции искусственной личности
В зависимости от степени онтологических притязаний к «способу компьютерной реализации» персонологических феноменов выделим ряд последовательных дефиниций «искусственной личности»: 1) имитация; 2) модель; 3) репродукция естественной человеческой личности; 4) креация – создание «сверхличности». В этих определениях в силу принятия постнеклассической установки важен выбор исследовательской позиции относительно «личностности» когнитивно-компьютерной системы. При создании классификации исследователей относительно возможностей компьютерной реализации персонологических феноменов предлагается подход, включающий контекст изучения проблематики философских зомби [230] . Во-первых, философские зомби являются концептуальными двойниками искусственных личностей. Во-вторых, данная классификация более адекватна, нежели широко известное сёрловское деление исследователей на сторонников слабого, умеренного, сильного искусственного интеллекта. В нашем подходе конкретизируется предметная область – изучение не «интеллекта», а более сложных понятий – «сознания», «самосознания», «самости», «я», «личности», «другого».
230
Алексеев А. Ю. Проблема сознания в электронной культуре // Полигнозис. – М., 2010. – № 3(39). – С. 129–141; Алексеев А. Ю. Понятие зомби и проблемы сознания // Проблемы сознания в философии и науке / Под ред. проф. Д. И. Дубровского. – М.: Канон+: РООИ «Реабилитация», 2009. – С. 195–214.
Азомбисты игнорируют тематику сознания в когнитивно-компьютерных исследованиях (А. Тьюринг). Антизомбисты предполагают то, что, воспроизводя сложную кодовую нейрофизиологическую зависимость на немозговом материальном субстрате, мы с необходимостью репродуцируем сознательные феномены (Д. Дубровский). Нейтральные зомбисты предполагают создание компьютерных моделей «квазисознания», которые имеют некоторые эссенциалистские аналогии с человеческим сознанием (Дж. Маккарти). Зомбисты полагают, что мы способны создать своих поведенческих и функциональных компьютерных двойников, не обладающих сознанием (Д. Чалмерс). Неумеренные зомбисты полагают, что все люди – зомби, поэтому стать сознательными мы можем лишь посредством психоделического «расширения» сознания (Ч. Тард) либо тогда, когда заработает система глобального искусственного интеллекта (Д. Деннетт).
Искусственная личность – имитация естественной личности. Такая когнитивно-компьютерная система обеспечивает полную либо частичную имитацию человеческой личности. Компьютерная имитация функционально, поведенчески и в некоторых вариантах не только физически, но даже нанотехнологически неотличима от человеческой личности. У наблюдателя, атрибутирующего x-системе персонологические параметры, отсутствуют какие-либо эссенциалистские предубеждения. Он не знает, да ему и не интересно предполагать природу системы, с которой он имеет дело: с естественной личностью, компьютером, Солярисом или марсианином. Показателем «неотличимости» естественной и искусственной личностей выступает способность системы пройти комплексный тест Тьюринга (Алексеев А. Ю.) [231] или, по крайней мере, полный тест Тьюринга (тест Харнада), который будет рассмотрен ниже. В этих тьюринговых тестах, помимо вербально-коммуникативной, перцептивно-моторной, анатомо-физиологической и даже микрофизической неотличимости искусственной и естественной систем, всесторонне учитываются поддающиеся внешнему наблюдению показатели духовной сферы личности: «смысл», «свобода», «любовь», «ответственность», «право», «творчество», «красота» и др. Правдоподобие данной дефиниции проблематично. Здесь не ясна связь между внутренним миром человека и внешними его проявлениями. С такой проблемой почти век назад столкнулся методологический бихевиоризм, в последующем – логический бихевиоризм. Методологическая парадигма бихевиоризма воспроизведена в идее игры в имитации А. Тьюринга. Логическая парадигма в 1960 г. четко сформулирована Х. Патнэмом в концепции «машинного функционализма»: состояния сознания – это логические состояния машины Тьюринга. Несмотря на заслуги бихевиоризма в антиэссенционалистском устранении метафизики ментальных сущностей из концептуальных моделей компьютерных систем, очевидна ущербность такого подхода, выявленная в результате широко известной критики правомочности метода оценки сознательной деятельности исходя из наблюдений за актуальным поведением и / или из гипотез о поведенческих диспозициях.
231
Алексеев А. Ю. Комплексный тест Тьюринга (философско-методологические и социокультурные аспекты). – М.: ИИнтеЛЛ, 2013. – 300 c.
Дефиниции искусственной личности как имитации естественной личности придерживаются азомбисты. Они напрочь игнорируют онтологическую проблематику реализации «сознания». Не важно, обладает или не обладает персонологическими феноменами компьютерная система фактически, в действительности. Главное, чтобы была создана правдоподобная имитация человека, т. е. такая компьютерная система, которая способна пройти комплексный тест Тьюринга.
Искусственная личность – модель естественной личности. В рамках этого когнитивно-модульного подхода компьютерная система должна включать в свой состав блок «псевдосознания». Это – компьютерная модель, которую исследователи считают функциональным подобием (аналогом) человеческого сознания, самосознания и пр. (Дж. Маккарти). Такого подхода придерживаются нейтральные зомбисты. Главное для них – руководствоваться психологическими, логическими, лингвистическими и др. моделями для решения инженерной задачи: построения систем, способствующих интеллектуальной деятельности человека. Блок «псевдосознания» предназначен для эффективного манипулирования «данными» и «знаниями» интеллектуальной системы, по аналогии с тем, как, например, осознание боли у человека является механизмом организации эффективной сигнализации о том, что с целостностью его что-то не в порядке. Формальные персонологические зависимости, образуемые в отношениях между когнитивными и компьютерными компонентами, задаются посредством вычислительных элементов, операций и функций. Каузальные зависимости этих отношений принципиально представимы в способах функционирования комплексной машины Корсакова – Тьюринга [232] . Компьютинг понимается расширенно. Объединяются два подхода: репрезентативный, моделирующий данные и знания предметной области, и коннекционистский, моделирующий динамику нейтральной системы. Полученные при этом интегральные репрезентативно-коннекционистские кодовые структуры (этот способ иногда называется «двойным кодированием») операционализируются средствами квазиалгоритмической обработки. В результате многошаговой редукции получаем дефиницию искусственной личности: личностное (персональное) суть квазиалгоритмическое вычисление.
232
По поводу комплексной машины Корсакова – Тьюринга см.: Алексеев А. Ю. Комплексная, коннекционистско-репрезентативная интерпретация машины Корсакова // Материалы Шестой международной научно-практической конференции «Актуальные проблемы современной когнитивной науки». – Иваново: ОАО «Издательство Иваново», 2013. – 330 с. – С. 53–64; Алексеев А. Ю. Протонейрокомпьютер Корсакова // Нейрокомпьютеры: Разработка и применение. – М., 2013. – № 7. – С. 6–17.
Степень адекватности компьютерных моделей личности, однако, сомнительна из-за многочисленных шагов редукции: персональное редуцируется к ментальному; ментальное – к интеллектуальному; интеллектуальное – к структурно-функциональной архитектуре компьютера. Следует отметить практический ориентир такого определения. Однако иногда исследователи из-за сложности модельных отношений начинают заблуждаться по поводу онтологического статуса компьютерной системы. Например, нейрокомпьютерная система представляется им фактически интеллектуальной, ведь она реализует нейрофизиологическую модель интеллектуальной деятельности, а нейрофизиологи ошибиться не могут, так как они – специалисты в данной предметной области (Л. Н. Ясницкий). Очевидно, что это совершенно некорректная позиция.
Искусственная личность – репродукция естественной личности. Согласно данному определению, компьютерная система фактически воспроизводит общие и единичные феномены сознания посредством реализации сложной функциональной зависимости нейрофизиологических кодов субъективной реальности на субстрате, инвариантном относительно физиологического строения человеческого мозга (Д. И. Дубровский). Данное определение четко поддерживается антизомбистами.
Искусственная личность – креация естественной личности. Проект искусственной личности креацирует феномены, которые не имеют натуральных персонологических аналогов у человеческого индивида (Д. Деннетт). В предельном варианте данная дефиниция подводит к понятию глобального искусственного интеллекта, т. е. компьютерной системы как «сверхличности», своеобразного варианта понятия «ноосферы».
Репродукционное и креационное определения автор кратко обозначил, так как не считает их значимыми для развития теории и практики построения искусственной личности. В философском отношении они, возможно, интересны, так как раскрывают предельные технологические перспективы. Однако к научному дискурсу имеют достаточно отдаленное отношение. Принципиально отрицательная позиция к таким подходам будет высказана в заключение данной работы. Здесь же подчеркнем то, что современные проекты искусственной личности развиваются в условиях лингвистической разобщенности, т. е. в условиях многообразия дефиниций искусственной личности. Причем, заметим, разнообразие интерпретаций возникает не только в силу различий в определении «человеческой личности» (здесь выработка четкого понятия принципиально невозможна), но по причине многообразия представлений о путях компьютерной реализации персонологических феноменов.
Многообразие проектов искусственной личности. По сути, история философии искусственного интеллекта – это история обсуждения возможностей компьютерной реализации персонологических параметров. Достаточно вспомнить полемический стандарт А. Тьюринга по поводу построения мыслящих машин (1950) как совокупность аргументов и контраргументов в решении «основного вопроса» философии искусственного интеллекта: «Может ли машина мыслить?» [233] В «стандарт» вошли аргументы и контраргументы, не имеющие прямого отношения к «интеллекту»: теологический, антисциентистский, креационистский, «от первого лица», «от другого сознания» и даже экстрасенсорный.
233
Серию аргументов и контраргументов, приводимую А. Тьюрингом для дискуссии по поводу мыслящих машин, мы предложили назвать Полемическим стандартом Тьюринга, так как она придала форму и отчасти содержание всем современным дискуссиям в области философии искусственного интеллекта (см.: Алексеев А. Ю. Возможности искусственного интеллекта: Можно ли пройти тесты Тьюринга // Искусственный интеллект: Междисциплинарный подход / Под ред. Д. И. Дубровского и В. А. Лекторского. – М.: ИИнтеЛЛ, 2006. – С. 223–243.