Вход/Регистрация
Философские проблемы развития искусственного интеллекта
вернуться

Коллектив авторов

Шрифт:

В 2045 году Земля начнет превращаться в один гигантский компьютер и этот процесс будет постепенно распространяться на всю Вселенную.

Человечество в биологическом смысле и искусственный интеллект сольются в постчеловеческую реальность, именуемую «сингулярность». Курцвейл стал настоящим адептом технологической сингулярности, которая является неким предсказанием, касающимся экспоненциального ускорения технологического прогресса, который приводит к созданию супер- искусственного интеллекта, берущего в свои руки будущее человечества. Так что все это, следовательно, связано с предварительным возникновением сознательного, «сильного» искусственного интеллекта.

Курцвейл полагает, что в скором времени появятся законы, регулирующие права и обязанности роботов, а также их отношения с людьми. В недалеком будущем будет достигнуто бессмертие. Через несколько десятилетий солнечная энергия станет настолько дешевой и доступной, что обеспечит все энергетические потребности человечества. Большинство болезней человека исчезнет, поскольку их лечением займутся сверхэффективные нанороботы. Совсем скоро появятся люди-роботы, которые будут строить свой организм, исходя из своих потребностей.

В своих исследованиях и размышлениях Р. Курцвейл во многом опирается на два положения: с одной стороны, технологические инновации развиваются по экспоненте, с другой стороны, прогресс, достигнутый в одной области, оплодотворяет другие области. Так, складывается процесс беспрерывного взаимообогащения, который невиданным образом ускоряет технологический прогресс. Благодаря такому крестообразному оплодотворению все более многочисленных и все более быстро развивающихся технологий инновационные циклы становятся все более короткими, доходя до стадии, когда неожиданно возникает технологическая сингулярность [3, с. 79–80]. Курцвейл полагает, что точкой отсчета и точкой невозврата станет момент, когда искусственный интеллект превзойдет по всем параметрам человеческий интеллект. На этой же стадии возникнет супер- искусственный интеллект, более умный, чем человеческий. Своего высшего уровня, по мнению Курцвейла, он достигнет к 2045 году.

Закон ускорения отдачи дополняет и уточняет действие искусственного интеллекта и технологической сингулярности, хотя ему Курцвейл уделяет несколько меньше внимания. Этот закон является механическим, он показывает, что эволюционные процессы имеют тенденцию к ускорению. Примером проявления его действия выступает рост объема памяти и эффективности информационных технологий. Изучение действия этого закона раскрывает нам особенности информационных процессов, лежащих в основе биологических законов, включая законы функционирования нашего мозга. В изучении работы человеческого мозга Курцвейл видит один из самых важных проектов современной цивилизации.

В целом последствия технологической сингулярности могут быть разными, одна из них является оптимистической.

Этой версии придерживается Курцвейл. Он считает, что технологическая сингулярность решит все проблемы человечества. Он при этом полагает, что возникший интеллект будет по-прежнему представлять человеческую цивилизацию, что будущие машины будут человеческими, даже если фактически они уже не будут таковыми.

Будучи футурологом, Курцвейл является также известным представителем трансгуманизма. Трансгуманисты полагают, что прежняя эволюция человечества заканчивается, она вступает в трансгуманизм, который означает глубокие изменения во всех областях человеческой жизни. Благодаря опять же технологической сингулярности уже в нынешнем столетии развитие общества приобретет невиданное ускорение. Курцвейл считает, что уже сейчас темпы технологического прогресса каждые десять лет возрастают в два раза, а в последующие десятилетия ускорение будет идти по экспоненте и станет многократным. Курцвейл предсказывает, что через несколько десятилетий люди начнут переходить от тела с искусственными органами к телу нанороботов. Он опирается при этом на известный закон Г. Мура, согласно которому каждые 18 месяцев компьютеры становятся вдвое мощнее, считая, что действие этого закона можно успешно распространить на другие области, растущее число которых оказывается во власти сингулярности с ее «ускоряющимся ускорением». Новые технологии откроют путь к победе над болезнями и старостью, к растущему продолжению жизни. Радикальное продление жизни приведет к фактическому бессмертию постчеловека.

Концепция Р. Курцвейла является последовательно положительной и оптимистической. Она получила большое влияние и широкое распространение. Вместе с тем далеко не все ученые разделяют его взгляды, многие из них занимают двойственную позицию, сочетая признание и отрицание искусственного интеллекта. Таковой является позиция известного английского физика-теоретика Стива Хоккинга, профессора Кембриджского университета. Его концепция во многом является пессимистической. Вслед за Курцвейлом он называет себя «убежденным редукционистом», полагая, «что законы биологии можно свести к законам химии», «что химические законы могут быть сведены к физическим» [2, c. 165].

С. Хокинг считает роль искусственного интеллекта в человеческой истории неоднозначной. Сегодня нельзя сказать, будет ли он другом, соратником, соперником или даже врагом человека. Он может стать как наиболее положительным, так и наиболее отрицательным фактором для человека. Искусственный интеллект может быть успешно использован для борьбы с болезнями и преодоления бедности.

Вместе с тем Хокинг допускает, что последние достижения цивилизации могут привести к деградации человека. В то же время он отмечает, что при правильном подходе искусственный интеллект способен решить большинство проблем в современном мире. Он также не исключает, что искусственный интеллект «может стать последней технологической революцией, если человечество не научится контролировать риски».

В общем, так или иначе, искусственный интеллект фактически преобразует все аспекты нашей жизни. Он может стать как «лучшим», так и «худшим» событием в жизни человека, нести как преимущества, так и опасности. Наряду с выгодами искусственного интеллекта также создает угрозы, к каковым следует отнести новое автономное оружие, а также возможности для немногих господствовать над большинством. Хокинг согласен с теми, кто видит опасность в том, что интернет выступает командным центром для террористических организаций. Он не исключает того, что искусственный интеллект может вступить в конфликт с людьми. С недоверием и опасением смотрит он на развитие высоких технологий искусственного интеллекта, полагая, что роботы могут всюду заменить людей.

  • Читать дальше
  • 1
  • 2
  • 3
  • 4
  • 5
  • 6
  • 7
  • 8
  • 9
  • 10

Ебукер (ebooker) – онлайн-библиотека на русском языке. Книги доступны онлайн, без утомительной регистрации. Огромный выбор и удобный дизайн, позволяющий читать без проблем. Добавляйте сайт в закладки! Все произведения загружаются пользователями: если считаете, что ваши авторские права нарушены – используйте форму обратной связи.

Полезные ссылки

  • Моя полка

Контакты

  • chitat.ebooker@gmail.com

Подпишитесь на рассылку: