Шрифт:
Вышеописанные риски с уверенностью могут быть применены к роботам и объектам робототехники, ведь роботы являются разновидностью КФС.
Несмотря на то, что роботы хоть и могут действовать в определённой степени автономно, им всё же необходимы каналы связи с оператором. Возможность действовать полностью автономно у роботов может появиться только после внедрения в них технологий ИИ. Но этот шаг может принести даже больше рисков от использования роботов, чем имеется в настоящий момент. Однако, перейдём к рассмотрению роботов, как разновидности КФС.
Самой распространённой классификацией рисков использования роботов, соответственно, является вышеописанная при использовании КФС классификация рисков по свойствам информации: конфиденциальности, целостности и доступности. Анализируя разновидности рисков, эксперты по информационной безопасности акцентируют внимание на возможности утраты конфиденциальности бесед и тайны частной жизни в результате использования роботов. Хоть проблема утечки информации не является самой опасной для промышленных роботов и кардиостимуляторов, она является достаточно распространённой для роботов, использующихся в бытовых целях. В условиях домашнего использования роботов, когда отказ машины не приведёт ни к чему критичному, кроме чувства впустую потраченных денег, именно риск нарушения тайны частной жизни может иметь наибольшую опасность. Так, президент фонда «prpl Foundation» Арт Свифт утверждает, что производители роботов, спеша выйти на рынок со своей моделью, зачастую забывают об обеспечении безопасности своих изделий, результатом чего может стать утечка информации [44].
Не гораздо дальше в плане обеспечения безопасности ушли и производители промышленных роботов. В отчёте Trend Micro, компании, специализирующейся на обеспечении информационной безопасности, приведены результаты исследования роботов, предназначенных для промышленного производства от ряда известных производителей на предмет их информационной безопасности [45]. В результате исследования специалисты пришли к выводу, что все испытуемые роботы уязвимы к атаке извне. По мнению Дэна Вебера, технического директора компании Mocana: «Один из самых тревожных выводов в докладе Trend Micro об уязвимостях роботов, используемых в производстве – это то, как легко хакерам, в данном случае “исследователям”, обнаружить незащищённые промышленные устройства онлайн» [46]. Тревожно это потому, что злоумышленникам не составит труда не только проникнуть в сеть предприятия, но даже найти уязвимые точки для проникновения.
Кроме классификации рисков по свойствам информации существует также классификация рисков по видам атак, которые возможны в отношении роботов:
• Риск атаки, модифицирующей намерение. Это атака, направленная на искажение сообщений, передающихся к роботу. Она может преследовать цель, как изменения поведения робота, так и вывода его из строя. К данному типу атак так же относится и, так называемая, атака «отказа в обслуживании» (Denial of Service). Смысл данной атаки заключается в том, что робот оказывается перегружен входным трафиком. В результате чего происходит или остановка его работы, или задержка в реакции на поступающие команды
• Риск атаки, манипулирующей намерением. Это атака, направленная на модификацию сообщений, передающихся от роботов. Цель данной атаки очевидна – исказить сведения о состоянии машины.
• Риск захватывающей атаки. Это атака, в ходе которой злоумышленник полностью берёт под контроль связь между роботом и его оператором [47].
Вышеописанные классификации рисков сформированы исключительно через призму информационной безопасности. И это оправдано для КФС и роботов, которые согласно приведенным в начале раздела данного отчета понятиям являются просто машинами (или совокупностью машин) и представляют опасность только в случае их неисправной работы, вызванной внутренним сбоем или вмешательством извне.
Такие риски будут являться специфическими, и они могут зависеть от конкретного роботизированного устройства или применяемой инфокоммуникационной технологий в КФС.
В Российской Федерации принят ряд национальных стандартов, устанавливающих требования по безопасности эксплуатации роботов с учетом оценки рисков их использования. К примеру, в «ГОСТ Р 60.1.2.1—2016/ ИСО 10218—1:2011. Национальный стандарт Российской Федерации. Роботы и робототехнические устройства. Требования по безопасности для промышленных роботов. Часть 1. Роботы» [48] в приложении А в форме таблицы приведен список существенных опасностей для робота и его подсистем, состоящий из 10 типов или групп опасностей (механические, электрические, термические, эргономические; опасности от шума, вибраций, излучения, материалов/веществ; опасности, связанные с внешней средой, в которой используется машина; комбинации опасностей). Чтобы идентифицировать любые опасности, которые могут возникнуть, должен быть осуществлен анализ опасностей.
Общая оценка рисков должна быть выполнена для всех опасностей, выявленных при идентификации опасностей.
В «ГОСТ Р 60.2.2.1—2016/ИСО 13482:2014. Национальный стандарт Российской Федерации. Роботы и робототехнические устройства. Требования по безопасности для роботов по персональному уходу» список существенных опасностей роботов, предназначенных для персонального ухода, содержит 85 разновидностей. Данным стандартом предусмотрена общая оценка рисков, включающая не только идентификацию опасности с целью выявления любых опасностей, которые могут возникнуть для конкретного робота по персональному уходу, но и оценку рисков. При этом оценка риска должна быть выполнена для всех опасностей, выявленных при идентификации опасностей, «с обращением особого внимания на разные ситуации, в которых робот по персональному уходу может контактировать с объектами, связанными с безопасностью.
После того как все меры по безопасности конструкции и защите приняты, должен быть оценен остаточный риск робота по персональному уходу и должно быть обосновано, что этот риск снижен до приемлемого уровня» [49].
Благодаря системе технического нормирования [50] можно своевременно и гибко регулировать со стороны государства риски использования роботов и объектов робототехники.
ИИ представляет собой совершенно новую сущность, субстанцию, одно только использование которого уже рождает множество этических, правовых и технических проблем. В отличие от роботов и киберфизических систем ИИ способен самостоятельно принимать решения и самообучаться. Негативные последствия от функционирования ИИ могут быть результатом не только откровенной ошибки при его разработке, иногда такие последствия становятся результатом самостоятельных действий ИИ, разработчики которого даже не могли их предугадать. В связи с этим использование ИИ само по себе может нести определённые угрозы, которые необходимо учитывать.