Шрифт:
Он произносит это так, будто она сложила гигантскую скульптуру из зубочисток.
— И вы по-прежнему считаете, что Нейровзрыв был неверным подходом? Вы же сами видели, на что способен Джакс. В Exponential есть что-нибудь хотя бы отдаленно подобное?
Это прозвучало резче, чем ей хотелось.
Брауэр отреагировал спокойно:
— Мы не пытаемся выйти на ИИ человеческого уровня. Нам нужен сверхчеловеческий ИИ.
— А вы не думаете, что ИИ человеческого уровня — важный шаг в этом направлении?
— Нет, если речь идет об уровне ИИ, который продемонстрировали ваши дигитанты, — говорит Брауэр. — Я не уверен в том, что Джакс когда-нибудь станет способным к работе, не говоря уж о том, чтобы он сделался гением в программировании. Как бы вам ни хотелось, но он достиг своего максимума.
— Я не думаю, что это так…
— Вы не можете знать это наверняка.
— Я знаю, что если геном-движок Нейровзрыва смог создать такого дигитанта, как Джакс, он сможет создать и такого гения, который нужен вам. Алан Тьюринг [45] из среды дигитантов Нейровзрыва еще ждет своего рождения.
45
Английский ученый, внесший огромный вклад в развитие информатики. Создал прототип компьютера общего назначения, т. н. Машину Тьюринга.
— О’кей, предположим, что вы правы, — снисходительно произносит Брауэр. — Но сколько лет понадобится, чтобы это произошло? У вас ушла масса времени на то, чтобы воспитать первое поколение, и за это время платформа, на которой они работают, безнадежно устарела. Сколько поколений пройдет, прежде чем вам удастся воспитать Тьюринга?
— Мы не всегда будем ограничены необходимостью их активизации только в режиме реального времени. В какой-то момент у нас появится столько дигитантов, что их хватит для формирования самодостаточной популяции, и тогда они уже не будут зависеть от общения и взаимодействия с человеком. Мы можем делать прогоны этого сообщества на «инкубаторских» скоростях без риска их одичания и посмотрим, что они произведут в результате.
Ана далеко не уверена, что реализация подобного сценария даст на выходе Тьюринга, но она репетировала эту речь столько раз, что сейчас говорит с полным ощущением того, что она в это верит.
Брауэр, однако, не убежден.
— К вопросу о рискованных инвестициях. Вы показываете нам группку подростков и просите заплатить за их образование в надежде на то, что когда они повзрослеют, то создадут народ, способный рождать гениев. Простите, но я думаю, мы могли бы потратить наши деньги более разумным образом.
— Но подумайте о том, что вы получаете! Я и другие владельцы посвятили годы воспитанию своих дигитантов. Перенос Нейровзрыва на новую платформу — это совсем недорого в сравнении с тем, сколько будет стоить оплата специалистов, чтобы сделать то же самое с другим геном-движком. А потенциальная выгода именно в том, что нужно вашей компании: гении программирования, работающие на высоких скоростях и раскручивающие себя до уровня сверхчеловеческого интеллекта. Если эти дигитанты уже сейчас способны изобретать и разрабатывать игры, просто представьте себе, на что будут способны последующие поколения. И вы будете зарабатывать на каждом из дигитантов.
Брауэр хочет ответить, но Пирсон его опережает:
— Вы именно поэтому хотите осуществить перенос Нейровзрыва? Чтобы посмотреть, что в один прекрасный день изобретут дигитанты с суперинтеллектом?
Ана видит, что Пирсон испытующе смотрит на нее, и решает, что врать не стоит.
— Нет, — говорит она. — Я хочу, чтобы у Джакса появился шанс вести более полную жизнь.
Пирсон кивает:
— Вы хотите со временем сделать Джакса корпорацией? Чтобы он стал личностью, пусть и юридической?
— Да.
— Держу пари, что и сам Джакс желает того же? Быть инкорпорированным?
— В общем и целом — да.
Пирсон снова кивает. Его подозрения подтвердились.
— Для нас это и есть главное препятствие к заключению сделки. Очень мило, что с ними интересно разговаривать, но то внимание, которое вы уделяли и продолжаете уделять своим дигитантам, позволяет им думать о себе как о личностях.
— Но почему же это препятствует нашей сделке? — спрашивает она, уже зная ответ.
— Нам не нужны работники с суперинтеллектом, нам нужны интеллектуально сверхразвитые изделия. Вы предлагаете нам первый вариант, и я не виню вас: невозможно, потратив столько лет на обучение дигитанта, как вы, думать о нем как о продукте, об изделии. Но наш бизнес не базируется на чувствах подобного рода.
Ана до сих пор делала вид, что это не так, но сейчас Пирсон сформулировал проблему со всей откровенностью: проблема в фундаментальной несовместимости целей Exponential и ее собственных. Им нужно нечто с реакциями личности, но не требующее отношения к себе как к личности, а этого она не может им дать.