В рамках представленной научной статьи отражены некоторые уголовно-правовые аспекты признания ИИ субъектом преступления. Актуальность заключена в активном развитии данной технологии, наличии произошедших ситуаций, при которых она совершила уголовно наказуемое деяние. При этом вопрос субъектности не является решенным, потому требует изучения. Итог работы — практические предложения по изменению законодательства.
Ключевые слова: искусственный интеллект, субъект преступления, субъективная сторона, ответственность искусственного интеллекта, разработчик искусственного интеллекта.
Технология искусственного интеллекта на данный момент развивается крайне быстро. За последние несколько лет появились многочисленные программы в большинстве сфер жизнедеятельности человека, предполагающие применение искусственного интеллекта. Ряд из них могут напрямую стать орудием совершения преступления или привести к деянию, которое регулируется Уголовным кодексом (УК) РФ. Так, например, автономные военные дроны могут напрямую быть запрограммированы для нанесения ущерба противнику, генеративный искусственный интеллект может оскорбить собеседника (тоже в некоторых ситуациях является уголовно наказуемым действием), автономное транспортное средство способно совершить смертельный наезд на человека. Все эти уже произошедшие на практике ситуации делают актуальным вопрос о наличии уголовно-правовых аспектов признания искусственного интеллекта субъектом преступления.
Первоначально необходимо обратиться к УК РФ — согласно статье 19, к уголовной ответственности может быть привлечено лишь физическое лицо. Искусственный интеллект не является физическим лицом, следовательно, на данный момент УК РФ не позволяет считать данную технологию субъектом преступления.
При этом практика показывает, что, с одной стороны, на данный момент отсутствие изменений в УК РФ верно, так как технология не является разумной в наиболее прямом понимании, с другой стороны, необходимо заблаговременно создать перспективы для внесения оперативных корректировок. Так, в одних ситуациях искусственный интеллект является орудием преступления и потому априори не может быть признан субъектом преступления [1, c. 35]. Это, например, кейсы, когда злоумышленник намеренно создает программное обеспечение с искусственным интеллектом, которое самостоятельно выполняет преступление (например, взламывает аккаунты пользователей) или упрощает его реализацию [3, c. 72]. В этом случае субъектом преступления справедливо будет считаться разработчик и/или пользователь, запустивший соответствующую программу.
Близкая ситуация имеет место в том случае, если злоумышленник изменяет программу или получает неправомерный доступ к ней, применяя для совершения преступления. В этом случае вновь искусственный интеллект является орудием преступления, но при этом технология используется без санкции разработчика.
В других ситуациях субъектом будет только пользователь. Это, например, ситуация, при которой объект с искусственным интеллектом используется не по назначению. Так, предположим, пассажир беспилотного транспортного средства может намеренно создавать барьеры для выполнения программой своей функции, что способно привести к преступлению. В данной ситуации привлекать к ответственности разработчика некорректно, так как он не мог предусмотреть использование оборудования не по назначению.
Близкая альтернатива — это ситуация, при которой искусственный интеллект совершает ошибки вследствие намеренного внесения в его код изменений распространителем или иным продавцом. Отметим, что значимо указать на отсутствие соответствующих полномочий и санкции разработчика, то есть продавец вносит собственные корректировки, которые становятся причиной ошибки программы.
Пятый тип ситуаций наиболее неоднозначен — это случаи, когда искусственный интеллект допускает ошибку по различным причинам. При их рассмотрении наиболее верно определять степень ответственности каждого участника инцидента. Так, например, если была выявлена ошибка в программном коде, то ответственность должен нести разработчик. Однако УК РФ предполагает персональную уголовную ответственность, юридические лица не могут привлекаться в России к уголовной ответственности. Это требует подробного расследования, но можно полагать, что с малой долей вероятности реально будет выявить одного конкретного виновника, так как процесс разработки программы с искусственным интеллектом сложен, в нем принимает участие множество лиц. Более того, часто невозможно определить, почему искусственный интеллект принял подобное решение. Причина — это процесс самообучения.
Пятый тип ситуации ведет к тому, что преступления, совершенные искусственным интеллектом, на данный момент не могут быть всегда уголовно наказуемыми. Как уже было установлено, УК РФ не может признать искусственный интеллект субъектом преступления хотя бы потому, что это не физическое лицо. Разработчик и/или пользователь, если они не допустили ошибок при разработке или, соответственно, при использовании программы, тоже не могут быть привлечены к ответственности. Если же вина разработчика доказана, идентифицировать одного или нескольких причастных сложно, как и распределить между ними ответственность или доказать, что программа допустила ошибку в рамках итогов самообучения [2, c. 73].
Вся представленная информация позволяет сформулировать следующие выводы:
- Искусственный интеллект может совершить общественно опасное деяние как намеренно (если это, например, военная разработка), так и по неосторожности, это указывает на существование уже сейчас субъективной стороны преступления;
- Действующий УК РФ не позволяет считать искусственный интеллект субъектом преступления, так как он не является физическим лицом;
- За преступления, совершенные искусственным интеллектом, на данный момент ответственность несут разработчик, пользователь, распространитель (продавец) или третье лицо-злоумышленник. Для определения в каждой из ситуаций субъекта преступления, необходимо детальное их изучение;
- На практике может сформироваться ситуация, при которой никто из физических лиц не будет привлечен к уголовной ответственности за преступление, совершенное искусственным интеллектом, так как определить виновного будет невозможно либо вследствие широты команды разработчиков, либо по причине потенциального совершения деяния вследствие самообучения.
Можно полагать, что в относительно недалеком будущем искусственный интеллект будет развит настолько, что принимаемые им решения будут приближены к наиболее самостоятельным действиям. По этой причине рекомендуется заблаговременно сформировать проект поправок в УК РФ, связанный с изменением статьи 19 так, чтобы не только физическое лицо могло быть субъектом преступления, но и другие лица, имеющие разум, приближенный или равный человеческому. Отметим, что такое решение позволит заранее решить иные близкие проблемы, например, появление в дальнейшем кибернетических организмов и иных перспективных субъектов преступлений, но не позволит слишком широко трактовать норму. Дополнительно предлагается сформировать либо рекомендации для судей по решению дел, связанных с ущербом, нанесенным искусственным интеллектом, либо соответствующую статью или даже главу УК РФ.
В заключении констатируем, что на современном этапе УК РФ не предоставляет возможности считать искусственный интеллект субъектом преступления. На данный момент это не является дефектом права, так как данная технология до сих пор в большей степени подвластна и зависит от человека. Однако перспективные проблемы возможны, так как субъективная сторона преступления уже может полностью относиться к искусственному интеллекту. По этой причине были сформулированы практические рекомендации, предлагаемые для изучения и применения.
Литература:
- Антонова, Е. Ю. Технологии искусственного интеллекта — субъект преступления или орудие / средство совершения преступления? / Е. Ю. Антонова // Юридический вестник Кубанского государственного университета. — 2022. — № 1. — С. 31–39. — DOI 10.31429/20785836–14–1–31–39.
- Гучапшева, А. Х. Искусственный интеллект как субъект преступления и уголовно-правовые риски в сфере общественной безопасности / А. Х. Гучапшева, А. М. Хамизов // Молодой ученый. — 2022. — № 43(438). — С. 72–74.
- Карташов, И. И. Искусственный интеллект как субъект уголовной ответственности: настоящее и перспективы / И. И. Карташов, И. И. Карташов // Право: история и современность. — 2021. — № 2(15). — С. 68–78. — DOI 10.17277/pravo.2021.02.pp.068–078.