Искусственный интеллект: возможности и необходимость его уголовно-правовой охраны | Статья в журнале «Молодой ученый»

Отправьте статью сегодня! Журнал выйдет 30 ноября, печатный экземпляр отправим 4 декабря.

Опубликовать статью в журнале

Автор:

Рубрика: Юриспруденция

Опубликовано в Молодой учёный №16 (254) апрель 2019 г.

Дата публикации: 16.04.2019

Статья просмотрена: 903 раза

Библиографическое описание:

Сокова, А. А. Искусственный интеллект: возможности и необходимость его уголовно-правовой охраны / А. А. Сокова. — Текст : непосредственный // Молодой ученый. — 2019. — № 16 (254). — С. 122-125. — URL: https://moluch.ru/archive/254/58131/ (дата обращения: 16.11.2024).



В последние годы актуальной становится проблема определения правового статуса искусственного интеллекта (роботов). Ученые множества стран дискутируют по поводу законодательной регламентации данного вопроса.

Недавно правительство Европарламента одобрило инициативу ввести роботов в правовое поле и придать им статус юридических лиц. Роботы смогут от своего имени быть истцами и ответчиками в суде [3]. Однако придание статуса искусственному интеллекту может повлечь самые неожиданные последствия. Какими они могут быть, и кто будет отвечать за эти последствия в рамках уголовного права, и предстоит решить в данной работе.

При ответе на эти вопросы необходимо отметить, что глобальной проблемой является полное отсутствие в России нормативно-правового регулирования в области искусственного интеллекта. Заниматься исследованиями в данной сфере необходимо и потому, что в марте 2019 года компания Microsoft признала Россию лидером по внедрению технологий искусственного интеллекта [13]. В свою очередь Президент поручил Федеральному собранию разработать программу развития искусственного интеллекта до 2022 года [10]. Многие российские компании активно занимаются внедрением результатов достижения научного прогресса в области робототехники в свое производство. Зарубежные страны также активно начинают разрабатывать материал по вопросам правового регулирования искусственного интеллекта. Так, например, в Южной Корее принят закон о робототехнике, однако в нем дается лишь законодательное понятие «умный робот». Вопросы ответственности же будет решать специальный закон, который правительство пока не подготовило [4]. Первые шаги в этом направлении сделали и страны Европы, приняв резолюцию «О робототехнике», в которой призвали развивать данное направление без вреда жизни и здоровью человека [11]. В США при рассмотрении споров, возникающих из отношений, связанных с искусственным интеллектом, опираются на действующее законодательство, что зачастую вызывает трудности при разрешении этих дел в судах [5].

УК РФ, как известно, охраняет самые ценные общественные отношения. Можем ли мы «вписать» «искусственный интеллект» в уже существующий круг общественных отношений, охраняемых уголовным законом?

Для решения этого вопроса, прежде всего, необходимо выяснить, что такое «искусственный интеллект». Исходя из различных подходов и признаков данного института, наиболее удачным, по моему мнению, является определение И. В. Понкина и А. И. Редькиной, которые раскрывают искусственный интеллект как искусственно сложную кибернетическую компьютерно-программно-аппаратную систему, обладающую свойствами субстантивности, автономности, а также возможностями воспринимать и анализировать данные [9, с.91]. Именно такой сложной системой в совершенстве обладают роботы. А соблюдается ли главный закон робототехники — «Не навреди человеку!» в условиях бурного развития искусственного интеллекта, предстоит выяснить [14].

Стоит предположить, что с появлением человекоподобных мыслящих роботов необходимо будет изменить законодательство, чтобы охватить их роль в обществе как участников различных правоотношений. Это неизбежно повлечет массу вопросов о восприятии роботов подобием человека, а, следовательно, и об их правах. Конечно, необходимо иметь в виду то, что объекты с искусственным интеллектом должны иметь определенный правовой статус.

Однако, по моему мнению, поспешным будет решение о тождестве искусственных объектов (объектов с искусственным интеллектом) с людьми, так как, например, конституционными правами, которыми наделяются субъекты при рождении, могут обладать только люди (физические лица). Несмотря на это в мире уже есть прецедент, когда искусственный интеллект получил гражданство. В Саудовской Аравии робот София стала обладателем таких прав, которых нет даже у женщин и трудовых мигрантов в этой стране [12].

До недавнего времени подобные вопросы вообще не поднимались и искусственный интеллект находился в нормативном вакууме, только лишь в некоторых государствах можно найти нормы, касающиеся регулирования беспилотных транспортных средств и летательных аппаратов [6, с.21]. Существующая судебная практика по данной тематике сложилась достаточно однозначно. Чаще всего компания-производитель робота с искусственным интеллектом (в нашем случае беспилотного автомобиля) признается невиновной, так как аварии невозможно было избежать по вине пешеходов [18].

В России уже разработана первая концепция закона о робототехнике. Анализ данной концепции позволяет сделать вывод о том, что регулирование искусственного интеллекта в РФ будет начинаться не с запретов, а с четкого определения границ ответственности владельцев роботов и компаний, занимающихся их разработкой, с учетом рисков потребителей. Что позволит стать России привлекательной с точки зрения инвестиций иностранных партнеров в робототехнику на территории РФ. Документ предполагал частично использовать регулирование, которое применяется к животным и юридическим лицам. В законе также указаны случаи уголовно-правовой охраны робототехники. Предполагается, что уголовная ответственность будет наступать за конструирование робота-убийцы, специальное отключение программ и функций, блокирующих возможность причинения вреда человеку. Разработчики надеются, что их концепция станет базой для изменения гражданского и уголовного законодательства [2].

Переходя к вопросам ответственности, можно сразу отметить, что из поля зрения законодателя выпадают новые угрозы транспортной безопасности, а именно вопросы ответственности использования беспилотных летательных аппаратов в противоправных целях, а также неосторожное причинение вреда в результате их эксплуатации. Беспилотными летательными аппаратами являются любые аппараты, способные взлетать и поддерживать контролируемый полет, а также аэронавигацию без какого-либо присутствия человека на борту [15]. Первостепенное значение для уголовного права имеют случаи разрушения беспилотников, причинение вреда жизни и здоровью людей или имуществу [1, с.74]. Огромный интерес для нас представляют случаи возможного столкновения беспилотников с пассажирскими самолетами. Последствиями подобной катастрофы будет причинение вреда не только имуществу авиакомпании-перевозчика, но и жизни, а также здоровью пассажиров.

Не стоит забывать и о беспилотных автомобилях. В мире уже был зарегистрирован случай дорожно-транспортного происшествия с участием таких машин со смертельным исходом [8]. В связи с этим в Великобритании предполагается дифференцировать уголовную и гражданскую ответственность. Если беспилотный автомобиль не застрахован, то ответственность несет автовладелец. В случае если авария произошла в результате сбоя в программном обеспечении, то ответственность возлагается на компанию производителя. Многие автоконцерны поддержали данную концепцию, а Volvo заявил, что готов ответить за ДТП с участием беспилотных автомобилей их марки. Нерешенным остался вопрос межотраслевой дифференциации ответственности гражданской и уголовной.

Обращаясь к гражданскому законодательству, беспилотные автомобили будут восприниматься как источник повышенной опасности, следовательно, имущественная ответственность за возмещение вреда, причиненного данным транспортным средством, возлагается на собственника.

Дискуссионным остается вопрос об уголовно-правовой ответственности за причинение таковыми автомобилями тяжкого вреда здоровью или смерти лица, вызванным сбоем в техническом обеспечении беспилотника. Можно ли говорить об установлении уголовной ответственности лишь для лиц, разрабатывающих программное обеспечение для функционирования подобного транспортного средства, или же стоит привлекать и лиц, осуществляющих установку и обслуживание этих автомобилей? Возможно ли установить причинно-следственную связь между деянием и наступившими общественно опасными последствиями, которые были им вызваны? При решении этого вопроса следует обратиться к теориям причинной связи, а именно, рассмотреть теорию необходимого условия, согласно которой деяние человека тогда является причиной данного последствия, когда это действие было одним из необходимых условий его наступления [7]. Несмотря на критику этой концепции, в ней есть рациональное зерно, и, например, возможно установить причинно-следственную связь между нарушением лицом технологий разработки искусственного интеллекта и наступившими общественно опасными последствиями. Также при установлении причинно-следственной связи стоит обращаться к специалистам, а именно проводить комплексные технико-технологические или компьютерные экспертизы.

Необходимо предусмотреть уголовную ответственность за ненадлежащее создание, разработку и внедрение программного обеспечения для роботов (беспилотных автомобилей, летательных аппаратов и т. д.), нарушение технологии их обслуживания и эксплуатации, создающих угрозу причинения тяжкого вреда здоровью, смерти по неосторожности либо крупного ущерба [16,с.103]. А так как объединить эти противоправные деяния в одну статью не представляется возможным, стоит внести изменения в ряд статей Особенной части УК РФ. Так, например, поправки следует внести в ст. 266, 272 и некоторые составы главы 21 УК РФ.

Также не стоит забывать о том, что человек тоже может причинить вред роботам. На данный момент роботы рассматриваются как разработки программного обеспечения, напрямую запатентованные крупнейшими мировыми компаниями. А так как спектр их использования достаточно широк, они внедряются в здравоохранение, оборону, банковское обслуживание, промышленность, то вероятность воздействия на роботов высока. На сегодняшний день даже «умные помощники» не могут отождествляться с человеком, а, значит, вред, причиненный им, будет квалифицироваться как вред имуществу собственника, владельца, разработчика программного обеспечения.

Открытым остается и вопрос кибератак на роботов. Технологии искусственного интеллекта больше всего подвержены хакерским кибератакам, так как взломать объект, который находится без присмотра и влияния человека на определенном этапе его использования, намного проще, нежели другие объекты. Инженеры беспилотных технологий уже бьют тревогу по поводу уязвимости таких автомобилей. Именно поэтому множество компаний объединилось и увеличивает количество стартапов, целью которых является создание новейших технологий киберзащиты. Что же касается вопросов ответственности за кибератаки, я предлагаю дифференцировать уголовную ответственность в зависимости от цели преступников. Если целью будет причинение вреда непосредственно роботу, то тогда содеянное следует классифицировать по статьям главы 21 УК РФ. Если же целью преступников является кибератака на роботов для применения их в качестве орудия совершения террористической или иной запрещенной законами деятельности, то в этом случае ответственность будет наступать по статьям Особенной части УК РФ за преступления террористической или иной направленности, а роботы здесь будут рассматриваться в качестве орудий для воплощения преступного замысла.

Однако в науке уголовного права есть ученые, которые предлагают ввести новую главу «Преступления против интеллектуальной собственности» [17]. И если данную инициативу преобразовать в законопроект, то возможно предусмотреть в ней состав преступления «кража технологий искусственного интеллекта в виде информации». И тогда некоторые составы преступлений против искусственного интеллекта можно будет не включать в разные главы Особенной части УК РФ, а сконструировать в одной главе. На сегодняшний же день, в отсутствие данной главы, получение технологий искусственного интеллекта путем неправомерного доступа к компьютерной информации можно квалифицировать по ст. 272 УК РФ.

Таким образом, на основании всего вышесказанного предлагается:

1) предусмотреть уголовную ответственность за ненадлежащее создание, разработку и внедрение программного обеспечения для объектов искусственного интеллекта, нарушение условий их обслуживания и эксплуатации, создающих угрозу причинения тяжкого вреда здоровью, смерти по неосторожности либо крупного ущерба;

2) внести изменения в соответствующие статьи главы 21, ст. 272, 266 УК РФ;

3) разработать Закон «О робототехнике», в котором определить правовой статус искусственного интеллекта и отнести роботов к источникам повышенной опасности;

4) разграничить гражданскую и уголовную ответственность за причинение вреда роботам, а также роботами — объектам уголовно-правовой охраны;

5) разработать концепции киберзащиты объектов с искусственным интеллектом;

6) дополнить пункт «к» ст. 63 УК РФ, в котором предусмотреть в виде отягчающего наказание обстоятельства совершение преступления с использованием источников повышенной опасности, в которые будут включаться и объекты с искусственным интеллектом;

7) при необходимости разработать постановление пленума Верховного Суда РФ и разъяснить судам вопросы, касающиеся привлечения к уголовной ответственности за совершение преступлений с использованием искусственного интеллекта.

Литература:

  1. Алешин Б. С., Суханов В. Л., Шибаев В. М. Обеспечение безопасности полетов беспилотных авиационных систем в едином воздушном пространстве // Ученые записки ЦАГИ. 2011.№ 6. Т. 42. С. 74.
  2. В России разработана первая концепция закона о робототехнике //URL: https://hightech.fm/2016/12/19/robotics-law (дата обращения: 09.03.2019).
  3. Давать роботам правовой статус опасно //URL: http://ai-news.ru//2017/06/davat_robotam_pravovoj_status_opasno.html (дата обращения: 09.03.2019)
  4. Закон «О содействии развитию и распространению умных роботов в Южной Корее». № 9014 от 28 марта 2008 года //URL: http://robopravo.ru
  5. Искусственный интеллект в США //URL: https://22century.ru/computer-it/61806 (дата обращения:09.03.2019)
  6. Морхат П. М. Искусственный интеллект: правовой взгляд: Научная монография / РОО «Институт государственно-конфессиональных отношений и права». — М.: Буки Веди, 2017. С.21–28.
  7. Основные теории причинной связи в уголовном праве// https://studbooks.net/972017/pravo/osnovnye_teorii_prichinnoy_svyazi_ugolovnom_prave (дата обращения: 09.03.2019).
  8. Первая жертва автопилота // URL: https://www.gazeta.ru/auto/2016/07/01_a_8351963.shtml (дата обращения: 15.02.2019).
  9. Понкин И. В., Редькина А. И. Искусственный интеллект с точки зрения права / Вестник Российского университета дружбы народов. Серия: Юридические науки. — № 1. — 2018. С. 91–109.
  10. Путин поручил разработать подходы к развитию искусственного интеллекта//URL: https://ria.ru/20190131/1550217476.html (дата обращения:09.03.2019)
  11. Резолюция ЕС 2017 //URL: http://robopravo.ru/riezoliutsiia_ies (дата обращения 9.03.2019).
  12. Робот София получила гражданство в Саудовской Аравии//URL: https://bigpicture.ru/?p=956807 (дата обращения: 11.03.2019).
  13. Россия признана лидером по внедрению искусственного интеллекта //URL:https://fishki.net/2900652-microsoft-priznal-rossiju-liderom-po-vnedreniju-iskusstvennogo-intellekta.html (дата обращения: 09.03.2019)
  14. Три закона робототехники // URL: http://роботехника18.рф/три-закона-робототехники / (дата обращения: 15. 02.2019).
  15. Указ Президента от 17.12.2011 № 1661 «Об утверждении Списка товаров и технологий двойного назначения, которые могут быть использованы при создании вооружений и военной техники и в отношении которых осуществляется экспортный контроль» // СПС «Гарант» 1990–2019.
  16. Фокин М. С., Рязанов М. С. Актуальные проблемы уголовно-правовой регламентации противоправного использования беспилотных мобильных средств / Актуальные проблемы государства и права. Серия: Юридические науки, № 1. — 2018. С. 103–110.
  17. Шульга А. В. Информация как предмет преступления / А. В. Шульга // Черные дыры в российском законодательстве. 2008. № 3
  18. Uber освободили от уголовной ответственности по делу о смертельном ДТП в США//URL: https://news.myseldon.com/ru/news/index/205300770 (дата обращения: 11.03.2019).
Основные термины (генерируются автоматически): искусственный интеллект, уголовная ответственность, программное обеспечение, робот, УК РФ, Особенная часть УК РФ, правовой статус, причинно-следственная связь, Россия, тяжкий вред.


Задать вопрос