Шрифт:
Проблема в том, что в настоящее время значительная часть американцев и европейцев, особенно лица старше 40 лет, инстинктивно боятся и не доверяют роботам, а тем более ИИ. Используя это недоверие, у многих выраженное на уровне антипатии, квалифицированному адвокату не составит труда либо развалить дело, либо добиться оправдания. Присяжные будут воспринимать подобный процесс не как ныне – диспут между прокурором и адвокатом, применительно к конкретной ситуации, в которой совершено преступление, а как поединок между безжалостным ИИ и человеком.
Также консенсусно было установлено, что категорически не стоит создавать экспертных систем, базирующихся на глубоких, более четырех слоев, нейронных сетях. Подобные глубокие сети, как уже указывалось, представляют собой программный черный ящик. Применительно к подобным сетям, сложно и дорогостояще, а в отдельных случаях невозможно, получить на выходе человекочитаемые правила. На практике это означает, что правоохранители должны просто доверяться своим программно-аппаратным помощникам. Более того, в такой ситуации не вполне понятно, кто является главным, а кто – помощником. Если решения принимаются человеком на основе правил, которые они не понимает, то считать его главным нельзя. Фактически он превращается в приставку к ИИ, которая доводит решения ИИ до человеческого общества.
Данный подход возможен при принятии международного правового акта, ставящего на определенное время под запрет использование ИИ, работающего по принципу черного ящика.
В 2018 г. в Комитете Госдумы РФ по экономической политике, промышленности, инновационному развитию и предпринимательству будет рассмотрен проект Модельной конвенции по робототехнике и искусственному интеллекту. Проект разработан Исследовательским центром проблем регулирования робототехники и искусственного интеллекта.
Цель разработанного проекта конвенции – определить основные проблемы, которые могут возникнуть в обществе и правовой системе в связи с активным развитием киберфизических систем, обобщить основные правила робототехники и обозначить возможные направления решения существующих и ожидаемых проблем, указано в документе.
Авторы проекта конвенции предлагают, в частности:
• к объектам робототехники относить все категории роботов в самом широком понимании независимо от их назначения, степени опасности, мобильности или автономности, а также кибер-физические системы с ИИ в любой форме;
• исходить из того, что «создание, внедрение и использование роботов должно осуществляться при условии максимального обеспечения безопасности человека, общества и государства, а также непричинения вреда человеку, человечеству, живым существам и всей их среде обитания»;
• роботы, создаваемые в военных целях, «должны иметь изначально заложенные в них и не поддающиеся изменениям ограничения, соответствующие положениям международного гуманитарного права». Такие роботы не должны использоваться для причинения вреда мирному населению;
• установить повышенные требования к защите от несанкционированного доступа третьих лиц при эксплуатации роботов, потенциально способных причинить человеку существенный, в том числе смертельный, вред (медицинские роботы, имплантируемые устройства, высокоавтоматизированные транспортные средства, военные роботы и т. д.);
• роботы должны постоянно фиксировать информацию об условиях своего функционирования и всех совершаемых ими действиях и хранить в специальном «черном ящике»;
• физически взаимодействующие с людьми и не находящиеся под прямым управлением человека роботы должны иметь функцию моментального или аварийного отключения по требованию («красную кнопку»);
• человек не должен умалять человеческое достоинство своим обращением с роботами».
Проект конвенции, разработанный «Робоправом», – не первая попытка законодательно урегулировать рынок ИИ. В декабре 2016 г. основатель Grishin Robotics и сооснователь Mail.Ru Group Дмитрий Гришин совместно с юристом Виктором Наумовым разработали концепцию закона о робототехнике. Этот законопроект предлагает дополнить Гражданский кодекс главой о роботах-агентах, то есть тех роботах, которые могут действовать автономно.
В ходе проведения круглого стола «Проблемы этической и правовой регламентации систем искусственного интеллекта (робототехники)», организованного кафедрой интеллектуальных прав МГЮА 21 февраля 2018 г. в рамках VI Международного юридического форума (IP Форума), проведен опрос ученых ведущих российских центров правовой науки по ключевым правовым проблемам ИИ (робототехники).
Опрос на условиях анонимности проводился среди ученых, специализирующихся в сфере материального гражданского (предпринимательского) права и гражданского (арбитражного) процесса.