Теоретико-правовые основания и предпосылки признания искусственного интеллекта субъектом преступления | Статья в журнале «Молодой ученый»

Отправьте статью сегодня! Журнал выйдет 12 апреля, печатный экземпляр отправим 16 апреля.

Опубликовать статью в журнале

Автор:

Рубрика: Юриспруденция

Опубликовано в Молодой учёный №13 (564) март 2025 г.

Дата публикации: 28.03.2025

Статья просмотрена: 5 раз

Библиографическое описание:

Гаптерахманов, А. Р. Теоретико-правовые основания и предпосылки признания искусственного интеллекта субъектом преступления / А. Р. Гаптерахманов. — Текст : непосредственный // Молодой ученый. — 2025. — № 13 (564). — URL: https://moluch.ru/archive/564/123682/ (дата обращения: 02.04.2025).

Препринт статьи



Статья посвящена углубленному исследованию теоретико-правовых оснований и предпосылок для признания искусственного интеллекта (ИИ) субъектом преступления в уголовном праве. В работе проводится всесторонний анализ современных тенденций развития технологий ИИ, акцентируется внимание на их возрастающей автономности, способности к сложному принятию решений и потенциалу причинения значительного общественно опасного вреда. Рассматриваются ключевые концепции уголовного права, такие как субъект преступления, вина, вменяемость, и анализируется их применимость к ИИ с учетом специфики последних. Особое внимание уделяется детальному рассмотрению существующих правовых доктрин, включая теорию юридического лица и концепцию юридической фикции, а также обсуждается необходимость их адаптации или разработки принципиально новых подходов для регулирования ответственности за действия автономных систем ИИ. В статье также анализируются потенциальные юридические, этические и социальные последствия признания ИИ субъектом преступления и определяются ключевые предпосылки, необходимые для такого признания, включая достижение определенного уровня развития ИИ и формирование соответствующей правовой и общественной готовности.

Ключевые слова: искусственный интеллект, субъект преступления, уголовное право, уголовная ответственность, автономные системы, правосубъектность, юридическая фикция, технологическое развитие, этические аспекты, машинное обучение, алгоритмическая ответственность, киберпреступность.

В условиях беспрецедентного развития технологий искусственного интеллекта (ИИ), проникающего во все сферы общественной жизни, уголовное право сталкивается с фундаментальными вызовами, требующими переосмысления базовых категорий и принципов. Одним из наиболее острых вопросов является возможность и необходимость признания искусственного интеллекта субъектом преступления. Традиционное понимание субъекта преступления в уголовном праве неразрывно связано с физическим лицом, обладающим сознанием, волей и способностью к совершению общественно опасного деяния, а также к несению за него уголовной ответственности [1]. Однако стремительное развитие автономных систем ИИ, способных к принятию самостоятельных решений и совершению действий, приводящих к негативным последствиям, ставит под сомнение достаточность существующих правовых рамок.

Актуальность исследования обусловлена рядом взаимосвязанных факторов. Во-первых, наблюдается экспоненциальный рост сложности и автономности систем ИИ, которые все чаще принимают решения, имеющие значимые социальные и экономические последствия. Действия таких систем, например, в сфере беспилотного транспорта, финансовой торговли или даже здравоохранения, могут привести к причинению вреда жизни, здоровью, имуществу и другим охраняемым уголовным законом благам. Во-вторых, существующая модель ответственности, ориентированная преимущественно на человека (разработчика, владельца, оператора ИИ), не всегда позволяет адекватно реагировать на ситуации, когда вред причинен в результате автономного действия ИИ, без прямого умысла или неосторожности со стороны человека. Это создает так называемый «пробел ответственности», который может подорвать доверие к технологиям ИИ и затруднить их дальнейшее развитие и внедрение [2]. В-третьих, отсутствие четкого теоретико-правового обоснования статуса ИИ в уголовном праве препятствует формированию эффективной системы правового регулирования в этой быстро развивающейся области.

Теоретико-правовые основания для признания ИИ субъектом преступления требуют обращения к фундаментальным вопросам уголовно-правовой доктрины, в частности, к понятию правосубъектности. Традиционно субъектом права признается лицо, обладающее определенным набором прав и обязанностей, а в уголовном праве — способностью нести уголовную ответственность. Основными критериями уголовной ответственности являются наличие деяния (actus reus) и вины (mens rea). Применительно к ИИ возникает вопрос о возможности наличия этих элементов.

Одним из возможных теоретических подходов является аналогия с юридическими лицами. В современном праве юридические лица признаются субъектами права и могут нести уголовную ответственность за определенные виды преступлений. Хотя юридическое лицо не обладает физическим существованием и сознанием, оно рассматривается как самостоятельный субъект, способный действовать через своих представителей и нести ответственность за свои действия [3]. По аналогии, некоторые исследователи предлагают рассматривать высокоавтономные системы ИИ как своего рода «электронных лиц», способных нести ответственность за причиненный вред.

Другой теоретический подход связан с концепцией юридической фикции. В рамках этой теории правосубъектность может быть искусственно присвоена объектам или сущностям, не обладающим естественными атрибутами субъекта права, для достижения определенных правовых целей. Признание ИИ субъектом преступления могло бы стать такой юридической фикцией, направленной на обеспечение безопасности и правопорядка в условиях широкого использования автономных систем.

Однако признание ИИ субъектом преступления сопряжено со значительными теоретическими и практическими трудностями. Ключевой проблемой является отсутствие у современных систем ИИ такого элемента субъективной стороны преступления, как вина в традиционном понимании. Уголовная ответственность предполагает наличие у субъекта способности осознавать противоправность своего деяния и желать или сознательно допускать наступление общественно опасных последствий (умысел) либо проявлять преступную небрежность или легкомыслие (неосторожность). Современные системы ИИ, основанные на алгоритмах и машинном обучении, действуют в соответствии с заданными программами и обработанными данными, не обладая собственным сознанием, волей или эмоциональной сферой [4].

Еще одной проблемой является определение формы и меры уголовной ответственности для ИИ. Традиционные виды наказаний, такие как лишение свободы, исправительные работы или штраф, ориентированы на физических лиц и не могут быть непосредственно применены к искусственным системам. Возможными альтернативными формами ответственности могли бы стать, например, «цифровое заключение» (временное отключение системы), перепрограммирование, наложение штрафов на владельцев или разработчиков, обязательное обновление программного обеспечения и другие меры, направленные на предотвращение повторения общественно опасного поведения.

Для более глубокого понимания различий между традиционным субъектом преступления и потенциальным субъектом в лице ИИ, рассмотрим следующую таблицу:

Таблица 1

Сравнительная характеристика потенциального и традиционного субъекта преступления

Характеристика

Традиционный субъект (физическое лицо)

Потенциальный субъект (ИИ)

Наличие сознания

Да

Нет (в современном понимании)

Наличие воли

Да

Ограничено (алгоритмически задано)

Способность к вине

Да (умысел, неосторожность)

Нет (в современном понимании)

Способность к наказанию

Да (лишение свободы, штраф и др.)

Ограничено (отключение, перепрограммирование и др.)

Правосубъектность

Признается законом

Находится в стадии обсуждения

Моральная ответственность

Да

Нет (в современном понимании)

Признание ИИ субъектом преступления требует выполнения ряда важных предпосылок. Во-первых, необходимо достижение такого уровня развития ИИ, при котором автономные системы будут способны к принятию решений, обладающих высокой степенью сложности и непредсказуемости, а их действия будут обладать значительной причинно-следственной связью с наступившими общественно опасными последствиями. Во-вторых, требуется разработка новых теоретико-правовых концепций, способных объяснить и обосновать возможность привлечения к уголовной ответственности небиологических субъектов, обладающих специфическими характеристиками. В-третьих, необходимо формирование широкого общественного и профессионального консенсуса относительно этической и юридической допустимости такого признания, а также разработка соответствующих правовых норм и механизмов их реализации [5].

Одним из возможных направлений развития правовой мысли может стать разработка концепции «алгоритмической ответственности», которая бы учитывала специфику функционирования систем ИИ и позволяла привлекать к ответственности не только разработчиков и владельцев, но и сами автономные системы в случае совершения ими общественно опасных деяний. При этом необходимо будет определить критерии такой ответственности, формы ее реализации и процессуальные механизмы ее обеспечения.

Рассмотрим некоторые примеры ситуаций, в которых вопрос о признании ИИ субъектом преступления может стать особенно актуальным:

Автономные транспортные средства: В случае дорожно-транспортного происшествия, произошедшего по вине беспилотного автомобиля, возникает вопрос о том, кто должен нести ответственность — производитель, владелец, оператор или сама система управления автомобилем [6].

Медицинские системы с ИИ: Если диагностическая или лечебная система с ИИ допускает ошибку, приводящую к причинению вреда здоровью пациента, необходимо определить, кто несет ответственность за эту ошибку.

Системы искусственного интеллекта в финансовой сфере: В случае совершения незаконных финансовых операций или манипуляций на рынке автономной торговой системой, возникает вопрос о привлечении к ответственности данной системы.

Для иллюстрации возможных форм ответственности для ИИ можно привести следующую таблицу:

Таблица 2

Потенциальные формы юридической ответственности для ИИ

Форма ответственности

Описание

«Цифровое заключение»

Временное или постоянное отключение системы ИИ.

Перепрограммирование

Изменение алгоритмов и программного обеспечения системы для предотвращения повторения вредоносных действий.

Киберштраф

Взыскание определенной суммы с владельца или разработчика системы.

Обязательное обновление ПО

Требование обновить программное обеспечение системы до более безопасной версии.

Запрет на использование

Временный или постоянный запрет на использование определенной системы ИИ.

В заключение следует подчеркнуть, что вопрос о признании искусственного интеллекта субъектом преступления представляет собой сложную и многогранную проблему, находящуюся на стыке права, философии, этики и технологий. На данном этапе развития технологий и правовой мысли преждевременно говорить о непосредственном признании ИИ полноценным субъектом уголовной ответственности. Однако дальнейшее развитие автономных систем, способных к причинению значительного вреда, неизбежно потребует поиска новых подходов к регулированию их деятельности и определению ответственности за их действия. Разработка концепции «алгоритмической ответственности» или иных sui generis форм юридической ответственности для высокоавтономных систем ИИ может стать одним из перспективных направлений в этой области. Дальнейшие исследования, научные дискуссии и международное сотрудничество необходимы для выработки адекватной правовой базы, способной обеспечить безопасность и устойчивое развитие технологий искусственного интеллекта.

Литература:

  1. Уголовный кодекс Российской Федерации от 13.06.1996 N 63-ФЗ (ред. от 19.12.2023) // Собрание законодательства РФ. — 1996. — № 25. — Ст. 2954. [URL: http://www.consultant.ru/document/cons_doc_LAW_10699/ ]
  2. Abbott, R. (2020). The Reasonable Robot: Artificial Intelligence and the Law. Cambridge University Press. [URL: https://www.cambridge.org/core/books/reasonable-robot/9781108494558 ]
  3. Комментарий к Уголовному кодексу Российской Федерации / под ред. В. М. Лебедева. — 13-е изд., перераб. и доп. — М.: Юрайт, 2023. — 1088 с.
  4. Floridi, L., Cowls, B., Beltramini, M., Saunders, D., & Vayena, E. (2018). An ethical framework for a good AI society: opportunities, risks, principles, and recommendations. AI and Society, 33(4), 689–707. [URL: https://doi.org/10.1007/s00146–018–0868–8 ]
  5. Solum, L. B. (1992). Legal Personhood for Artificial Intelligences. North Carolina Law Review, 70(5), 1231–1287. [URL: https://scholarship.law.unc.edu/nclr/vol70/iss5/3 ]
  6. European Parliament resolution of 16 February 2017 with recommendations to the Commission on Civil Law Rules on Robotics (2015/2103(INL)). [URL: https://www.europarl.europa.eu/doceo/document/TA-8–2017–0051_EN.html ] 1 2


Задать вопрос