Шрифт:
Среди юристов имеются различные точки зрения относительно юридического ограничения научно-технических и программных разработок. С одной стороны, какое-то законодательство необходимо. С другой стороны, как показывает история, еще ни разу путем применения юридических мер не удалось приостановить научно-технические разработки или распространение технологий. Даже применительно к чрезвычайно затратному и не допускающему маскировки производству ядерного оружия, не удалось выполнить соглашение о его нераспространении.
В 2016 г. впервые пять безвинных людей, из них две женщины и один ребенок, были убиты полностью автономным боевым дроном, использованным британским подразделением в Афганистане. Дрон нанес удар по деревне из-за сбоя в системе визуального распознавания цели. Это был принципиально новый дрон. В нем для повышения точности боевых ударов и распознавания целей использовался двойной контроль. Как это часто бывает, более сложная техническая система дала сбой, и случилось то, что случилось. При этом министерство обороны и министерство юстиции Великобритании списали все на несчастный случай.
В 2017 году ФБР вместе с юридической школой университета Майами провело конференцию по юридическим последствиям использования в правоохранительной деятельности автономных роботизированных систем, оснащенных ИИ. В ходе конференции большинство поддержало профессора математики Самира Чопру – научного консультанта ФБР и автора книги «Правовая теория для искусственного интеллекта», который заявил: «Главная проблема состоит в том, что ИИ является полностью рациональным агентом, принимающих любые решения на основе расчетов в прямом буквальном смысле слова. Человеческие же решения далеки от рациональности. И коль скоро человечество существует вот уже тысячи лет, значит, рациональность не во всех случаях является лучшим решением».
Соответственно Чопра предлагает установить в законодательном порядке сферы, где могут и где не могут действовать компьютерные программы без вмешательства человека. Например, в презентации Чопры на конференции содержался график, который показал, что в период с 2009 по 2015 гг. имеется обратная регрессионная зависимость, с коэффициентом, превышающим 0,9, между потерями банков в результате преступной деятельности, в том числе внутрикорпоративных преступлений, и объемом алгоритмической торговли на финансовых рынках торговыми роботизированными комплексами.
По мнению Чопры, надо перестать относиться к торговым платформам, которые являются наиболее сложными из ныне действующих ИИ, как к простому инструменту. Парадокс в том, что они уже не являются арифмометрами, но пока недостаточно независимы, чтобы считаться юридическими лицами. По мнению Чопры, они должны рассматриваться как «юридические агенты» компании, которые управляют ими также, как Google управляет своими Google-мобилями. Соответственно в законе четко должны быть прописаны случаи, когда компании, управляющие агентами, несут ответственность, а когда нет.
Рассуждая прагматически, другой консультант ФБР Р.Кало, профессор юридического факультета Стэнфордского университета, на заседании Конгресса в 2017 году высказал такое мнение: хотим мы или нет, в ближайшие годы, а не через десятилетия нам необходимо будет прописать законодательство для создателей и эксплуатантов ИИ. В отличие от нынешнего законодательства, которое размыто и гибко, новый вид законодательства должен максимально напоминать алгоритмы. Более того, с появлением блокчейна, вполне вероятно, что это законодательство исходно должно быть записано в алгоритмическом виде в код блокчейна. Соответственно его исполнение будет обеспечиваться не надзорными органами и правоохранителями, а путем обязательной имплантации юридических правил, написанных на блокчейне, внутрь программы ИИ.
При рассмотрении юридических аспектов ИИ следует обратить внимание на возможности использования ИИ в оперативно-розыскной и расследовательской деятельности. В 2016 г. ФБР совместно с прокуратурой Южного округа Нью-Йорка и юридической фирмой Sullivan & Cromwell провели круглый стол о возможностях и ограничениях использования в оперативно-розыскной деятельности экспертных систем ИИ. В результате дискуссий, в которых участвовало значительное число практикующих судей, адвокатов, а также компаний по подбору и анализу поведения присяжных, был сделан следующий вывод: в ближайшие годы следует весьма осторожно относиться к использованию в реальной оперативнорозыскной деятельности экспертных систем не как источников текущей информации, а как инструментов прогнозирования и анализа.
Если экспертные системы используются для сопоставления идентификаторов подозреваемого лица с идентификаторами, находящимися в базе правоохранительных органов или идентификаторами, оставленными на месте того или иного преступления и надежно атрибутировавши, это один вопрос. В этом случае проблем никаких не возникает.
Однако, если экспертная система будет использоваться как своего рода консультант следователя для вынесения им вердикта о возможной виновности или невиновности того или иного субъекта, и это решение будет значимым для передачи дела в суд, то судьи и адвокаты полагают, что в данном случае у полиции и ФБР могут возникнуть большие сложности. Даже в том случае, если консультация оказалась результативной, и в последующих оперативно-розыскных мероприятиях удалось добыть новые доказательства, или просто лицо, совершившее преступление, признало себя виновным, велики шансы, что процесс будет проигран прокуратурой до его начала.