Современный мир не стоит на месте — наше общество неизменно претерпевает процесс эволюции, в самом центре которого находятся улучшение качества и жизни людей как основная ценность. Запрос на удовлетворение постоянно растущих человеческих потребностей порождают необходимость разработки и усовершенствования новых технологий. Согласно аналитическим данным [1], искусственный интеллект стал одним из ключевых трендов. Особенностью текущего этапа развития искусственного интеллекта является усложнение технической составляющей благодаря нейронным связями и обучению алгоритмов, вследствие чего он обретает всю большую степень автономии. Это приводит не только к появлению возможности решения множества сложнейших логических задач, но также и принятия чрезвычайно важных решений самостоятельно [2].
Отмечается, что как право в целом, так и уголовно-правовая наука в частности [3] не поспевают за стремительным изменением общественных отношений, порождаемых развитием современных технологий [4]. С одной стороны, данное положение видится совершенно логичным: не все общественные отношения должны быть детально регламентированы с точки зрения права, иначе возникает риск торможения технического прогресса вследствие излишней зарегулированности. Тем не менее, некоторые риски, и, соответственно, возможные пути их митигации следует предусмотреть заблаговременно, что отмечается даже в работах гражданско-правовой тематики [5]. В ином случае в результате такого бездействия может возникнуть перевес потенциального вреда над гипотетической пользой от развития цивилизационных благ.
Говоря об учете и смягчении криминологических рисков, следует также принимать во внимание и вероятность возникновения ситуаций, требующих нормативного регулирования именно с точки зрения уголовно-правовой сферы:
— Совершение в процессе создания системы искусственного интеллекта такой ошибки, которая в итоге привела к совершению преступления;
— Осуществление неправомерного доступа в систему искусственного интеллекта, который впоследствии повредил либо же изменил его функции, что повлекло совершение преступления
— Создание искусственного интеллекта злоумышленниками в качестве орудия совершения дальнейших преступлений
— Принятие искусственным интеллектом, обладающим способностями самообучаться, таких решений, которые могут быть квалифицированы как преступные деяния [6]
В контексте Общей части уголовного права вопрос несения юридической ответственности за действия со стороны искусственного интеллекта, а также неблагоприятные последствия, вызванные такими действиями [7], видится главнейшей из проблем. Даже гипотетическая возможность привлечения в обозримом будущем искусственного интеллекта к юридической ответственности в целом и уголовно-правовой в частности приводит нас к вопросу о правосубъектности искусственного интеллекта. Без однозначного ответа на данный вопрос невозможно обеспечение надлежащего правового регулирования современных технологий представляется мало возможным, ведь положительный ответ на него означает необходимость не просто добавления в Особенную часть уголовного кодекса составов, где искусственный интеллект выступает орудием преступления [8], а уже и внесения изменений в нормы уголовного законодательства, касающихся субъективной стороны преступления [9].
Данная проблематика обусловлена следующими обстоятельствами. На данный момент единственным субъектом преступления является физическое лицо, что отражается в статьях, посвященных принципам уголовного права. Поскольку в российском праве отсутствует уголовная ответственность юридических лиц, очевидно, что в нашем законодательстве под термином «лицо» подразумевается именно лицо физическое. Таким образом, исходя из логики нашего законодателя, ответственность за действия искусственного интеллекта за неправомерные последствия должны понести его создатели или операторы.
В контексте отнесении работа к правовым категориям объекта и субъекта права, следует также затронуть и вопрос его автономности, поскольку в данной ситуации именно она и будет служить фактором разграничения этих понятий субъекта и объекта. Соответственно, при возрастании степени самостоятельности робота с некоторыми оговорками можно признать субъектом правовых отношений — то есть субъектом с ограниченной ответственность или квазисубъектом. Этот подход кажется разумным, поскольку в сфере авторского права некоторые уже готовы выделить робота в качестве субъекта. Однако здесь тоже потребуется соблюдение некоторого ряда критериев — например, способность принятий решений, которые не являются простым повторением ранее принятых решений; наличие минимальной случайности и другие.
Таким образом, мы вновь приходим к выводу о том, что на данном этапе развития общества и технологий еще рано наделять искусственный интеллект элементами правосубъектности. Тем не менее, российскому праву рано или поздно придется столкнуться с изменением правового статуса искусственного интеллекта, где в целях регулирования потребуется отойти от заданной модели. В связи с этим достаточно разумным кажется обращение к опыту зарубежных стран для дальнейшей разработки своей собственной законодательной концепции юридической ответственности искусственного интеллекта.
Литература:
- Gartner Identifies the Top 10 Strategic Technology Trends for 2020. [Электронный ресурс]. Режим доступа: https://www.gartner.com/en/newsroom/press-releases/2019–10–21-gartner-identifies-the-top-10-strategic-technology-trends-for-2020
- Ирискина Е. Н., Беляков К. О., Ананьев П. П. К вопросу о правоспособности и дееспособности электронного профайла человека. // Инновации. 2017. № 12 (230). С. 26.
- Денисов Н. Л. Концептуальные основы формирования международного стандарта при установлении уголовной ответственности за деяния, связанные с искусственным интеллектом // Международное уголовное право и международная юстиция. 2019. № 4. С. 18–20.
- Козаев Н. Ш. Состояние уголовной политики и вопросы преодоления кризисных явлений в уголовном праве // Юридический вестник Дагестанского государственного университета. 2016. № 1. С. 96–101
- Оленев П. А., Симанович Л. Н. Гражданско-правовая ответственность за причинение вреда роботами и иными технологиями // Экономика. Образование. Право. Научные исследования состояния и развития современного общества сборник научных трудов по материалам II Ежегодной международной научно-практической конференции. под ред. А. А. Ващенко. 2017. С. 349–353.
- Хисамова З. И., Бегишев И. Р. Уголовная ответственность и искусственный интеллект: теоретические и прикладные аспекты // Всероссийский криминологический журнал. 2019. № 4, с. 567
- [Электронный ресурс]. Режим доступа: http://moralmachine.mit.edu/
- Foot P. The Problem of Abortion and the Doctrine of the Double Effect in Virtues and Vices// Oxford Review. № 5. 1967
- Kochupillai M., Lütge, C. Programming away Human Rights and Responsibilities? A Response to 'The Moral Machines Experiment'. 2019.