К вопросу о принципе прозрачности искусственного интеллекта в контексте феномена «черного ящика» | Статья в журнале «Молодой ученый»

Отправьте статью сегодня! Журнал выйдет 26 апреля, печатный экземпляр отправим 30 апреля.

Опубликовать статью в журнале

Автор:

Научный руководитель:

Рубрика: Юриспруденция

Опубликовано в Молодой учёный №15 (566) апрель 2025 г.

Дата публикации: 10.04.2025

Статья просмотрена: 8 раз

Библиографическое описание:

Головко, Е. Е. К вопросу о принципе прозрачности искусственного интеллекта в контексте феномена «черного ящика» / Е. Е. Головко. — Текст : непосредственный // Молодой ученый. — 2025. — № 15 (566). — С. 219-221. — URL: https://moluch.ru/archive/566/124061/ (дата обращения: 18.04.2025).



В статье рассматривается проблема правового регулирования технологий искусственного интеллекта в контексте феномена “черного ящика”. Анализируются основные вызовы, связанные с отсутствием прозрачности алгоритмов ИИ и сложностью контроля над принимаемыми ими решениями. Особое внимание уделяется законодательным инициативам различных государств по обеспечению принципа прозрачности при использовании ИИ-систем.

Результаты исследования могут быть использованы при совершенствовании правового регулирования технологий искусственного интеллекта и разработке новых подходов к обеспечению прозрачности ИИ-систем.

Ключевые слова: цифровизация права, искусственный интеллект, черный ящик, принцип прозрачности, алгоритм.

На протяжении последних десятилетий технологии искусственного интеллекта захватывают пространство нашей жизни, происходит активное внедрение глобальной технологии во все сферы жизнедеятельности человека. В свою очередь, такие изменения не могут оставаться незамеченными законодателем.

Право, которое традиционно регулировало общественные отношения не может оставаться равнодушным к появлению таких технологий. Новые вызовы порождают новые риски, которые невозможно оставить вне правового поля.

Технологии искусственного интеллекта могут значительно оптимизировать решение самых сложных производственных, экологических и социальных проблем, с другой же стороны эффективность и инновации, создаваемые искусственным интеллектом, при отсутствии должного регулирования могут создавать угрозу как для прав и свобод отдельного человека, так и для всего общества в целом.

Невозможно не согласиться, что технологии искусственного интеллекта, с точки зрения экономической ценности являются «золотой жилой» для общества. Однако, важно изучить потенциальные опасности, связанные с работой искусственного интеллекта, и проблемы, возникающие в связи с использованием такой продвинутой технологии, чтобы применение искусственного интеллекта соответствовало человеческим ценностям и убеждениям.

Одной из проблем, стоящих перед современной юриспруденцией, является феномен «черного ящика» в контексте технологий искусственного интеллекта. Под «черным ящиком» в данном случае подразумевается сложность понимания и контроля над решениями и действиями, которые производят системы и алгоритмы ИИ. Указанная проблема отражена в работах многих исследователей, и связана, в том числе, с трудностями в установлении ответственности за решения, принимаемые искусственным интеллектом на основании ранее запрограммированных алгоритмов. Как отмечают Паскуччи и Стайано, «черные ящики» в ИИ создают проблемы прозрачности и подотчетности, что особенно важно в юридическом контексте [1].

В идеальном мире компании и пользователи ИИ хотят, чтобы системы ИИ были прозрачными, объяснимыми, этичными, адекватно обученными на соответствующих данных и свободными от предвзятости [2].

Национальное право Российской Федерации не обделило вниманием указанную проблему. Так, в Национальной стратегии развития искусственного интеллекта на период до 2030 года, утвержденной Указом Президента РФ от 10 октября 2019 г. № 490 (ред. от 15.02.2024) «О развитии искусственного интеллекта в Российской Федерации», прозрачность перечисляется в ряду основных принципов развития и использования технологий искусственного интеллекта. Под прозрачностью понимается объяснимость работы искусственного интеллекта и процесса достижения им результатов, недискриминационный доступ пользователей продуктов, которые созданы с использованием технологий искусственного интеллекта, к информации о применяемых в этих продуктах алгоритмах работы искусственного интеллекта [3].

Ввиду того, что указанный принцип пока что не реализован, устанавливаются ограничения на использование технологий искусственного интеллекта, когда таковые могут иметь определенное юридическое значение. Например, в соответствии со статьей 16 Федерального закона «О персональных данных» в Российской Федерации принятие решений, имеющих юридические последствия, исключительно на основе автоматизированной обработки персональных данных запрещено. Исключением являются ситуации, когда такие решения принимаются на основании письменного согласия субъекта данных либо в соответствии с положениями, установленными федеральным законодательством.

В зарубежных государствах законодатели также указывают на необходимость соблюдения принципа прозрачности, посредством адаптации источников права под «туманные» алгоритмы искусственного интеллекта.

Так, например, статья 22 Общего регламента по защите данных Европейского союза (General Data Protection Regulation) регламентирует право субъекту данных (в отношении которого на основании машинных алгоритмов принимается решение) требовать объяснения того, как автоматизированная система приняла решение, которое его затрагивает, в противном случае, он вправе оспорить его, а также не выступать субъектом такого решения.

Закон об алгоритмической подотчетности Соединенных штатов Америки устанавливает требования для определенных коммерческих организаций, выражающиеся в необходимости проведения оценки рисков для конфиденциальности или безопасности личности, создаваемых автоматизированной системой принятия решений, а также рисков, которые способствуют принятию неточных, несправедливых, предвзятых или дискриминационных решений. При этом оценка рисков должна содержать подробное описание алгоритма работы такой автоматизированной системы.

Закон о равных возможностях получения кредитов Соединенных штатов Америки устанавливает возможность объяснения причин получения или отказа в кредите, что представляется затруднительным при использовании искусственного интеллекта на основе «черного ящика».

Ввиду изложенного «высокотехнологичные» государства работают над созданием концепции объяснимого искусственного интеллекта (Explainable AI, XAI) — модели, которая могла бы в перспективе объяснять механизмы, лежащие за алгоритмами машинного обучения.

Проблемой объяснения работы искусственного интеллекта занимаются такие крупные образовательные учреждения, как Технологический университет Мичигана (США), Корнелльский Университет (США), Университет Карнеги Меллон (США), Университет Дьюк (США), Эдинбургский университет (Великобритания), Борнмутский университет (Великобритания), Лондонский университет (Великобритания), Норвежский университет естественных и технических наук. Группам ученых, занимающимся изучением и развитием данной проблематики, выделяются гранты от правительств и университетов [4].

Говоря о практической необходимости изучения данной проблемы, стоит отметить следующее. Как было указано ранее, технологии искусственного интеллекта могут значительно оптимизировать решение самых сложных задач. В настоящее время они используются, например, в финансовой сфере, медицине, предпринимаются попытки реализации такого потенциала и в юриспруденции.

На международной арене сформировалось две системы предполагаемого использования технологий искусственного интеллекта в юридической сфере: американский и германский. Стоит уточнить, что зарубежные государства делают упор на использовании ИИ в уголовном судопроизводстве.

Суть первой системы заключается в следующем: нейросети обучаются на статистических данных о ранее осужденных лицах, включая их криминальное прошлое и социально-демографические характеристики. На основе найденных корреляций алгоритмы прогнозируют вероятность совершения преступлений в будущем и рекомендуют оптимальный размер наказания для подсудимых. Сейчас, такие системы применяются уже в 24 штатах.

Суть второй системы видится в следующем: обучение искусственного интеллекта производится на основании судебных приговоров, в которых содержатся детальное описание выводов суда. Цель такого обучения заключается в унификации размеров наказаний для разных судов.

В Российской Федерации учеными-юристами также обсуждаются вопросы внедрения технологий ИИ в систему судопроизводства. Однако, в отличии от иностранных юристов, в России больший интерес вызывает вопрос оптимизации гражданского и арбитражного судопроизводства.

Как отметил бывший Председатель Верховного суда Российской Федерации В. М. Лебедев, «основной задачей искусственного интеллекта в суперсервисе «Правосудие онлайн» станет автоматизированное составление проектов судебных актов на основе анализа текста процессуального обращения и материалов судебного дела» [5]. Стоит отметить, что намеченный курс поддерживается Верховным судом РФ и сейчас. Так, действующий председатель Верховного суда РФ И. Л. Подносова в июле 2024 года выступила на пленарном заседании Форума председателей ВС стран БРИКС с докладом о важности цифровизации судебной работы [6].

Наиболее интересное применение ИИ — в разрешении сложных правовых казусов, где еще не сформировалась судебная практика. При рассмотрении различных категорий дел судьи сталкиваются не только с неоднозначностью судебной практики, но с огромным количеством дел при поиске ответа на те или иные запросы. В этом плане ИИ является незаменимым при работе с огромным количеством судебной практики, которая размещена в информационно-правовых программах и в Картотеке арбитражных дел. ИИ может быть делегирована функция поиска информации и ее обзора [7].

Некоторые авторы высказывают даже столь радикальные предложения, как полная замена судей искусственным интеллектом в приказном производстве, обосновывая минимизацию рисков наличием упрощенной процедуры отмены судебного приказа [8].

По мнению автора, для внедрения таких инновационных технологий в сферу судопроизводства, первостепенным этапом видится окончательное разрешение феномена «черного ящика» ИИ. Важно не просто получать, в качестве результата, готовый процессуальный документ, соответствующий требованиям к содержанию законодательства того или иного государства, но и, при необходимости, иметь возможность проследить весь процесс «принятия решения» искусственным интеллектом.

Кроме того, феномен «черного ящика» не позволяет разграничить юридическую ответственность за такие «решения». В настоящее время в российском законодательстве нет однозначных ответов на эти вопросы, что делает проблему «черного ящика» еще более актуальной.

Таким образом, в связи с активной интеграцией технологий искусственного интеллекта в повседневную жизнь возникает острая потребность в формировании актуализированной правовой базы.

Ключевым элементом новой системы должно стать право физических и юридических лиц на получение детального разъяснения решений, основанных на работе искусственного интеллекта. Это обеспечит возможность их обжалования и защиты законных интересов.

Для достижения необходимого уровня прозрачности необходимо внедрить систему обязательной регламентации важнейших параметров при принятии алгоритмических решений. Такой подход позволит при необходимости воспроизвести и проанализировать работу ИИ-системы, а также внести необходимые корректировки.

Важным шагом станет создание единого механизма сертификации алгоритмических систем, который будет оценивать их соответствие установленным нормам на протяжении всего периода эксплуатации и гарантировать их надежность.

Литература:

  1. Pascucci P., Staiano J. Black-Box Society: Why We Should Be Con cerned About the Rise of Artificial Intelligence in Legal Decision-Making // Law, Innovation and Technology. 2021. № 13 (1). P. 1–29.
  2. Zhao J., Gómez Fariñas B. Artificial Intelligence and Sustainable Decisions // European Business Organization Law Review. 2023. 24: 1–39. P. 2.
  3. О развитии искусственного интеллекта в Российской Федерации: Указ Президента Российской Федерации № 490 от 10.11.2019 (вместе с «Национальной стратегией развития искусственного интеллекта до 2030 года»). (2019). Собрание законодательства Российской Федерации, 41, ст. 5700.
  4. Объяснимый искусственный интеллект: сайт научно-технического центра ФГУП «ГРЧЦ». [Электронный ресурс]. // URL: https://rdc.grfc.ru/2020/12/explainable-ai/ (дата обращения: 09.04.2025г.)
  5. Суды планируют подключить искусственный интеллект к составлению решений: сайт ФГБУ «Редакция «Российской газеты». [Электронный ресурс]. // URL: https://rg.ru/2023/05/25/robot-pomozhet-rassudit.html (дата обращения: 09.04.2025г.)
  6. Глава ВС рассказала о планах по внедрению инноваций в суды: сайт «Правовые новости». [Электронный ресурс]. // URL: https://pravo.ru/news/253616/ (дата обращения: 09.04.2025г.)
  7. Степанов О. А., Басангов Д. А. О перспективах влияния ИИ на судопроизводство // Вестник Томского государственного университета. 2022. N 475. С. 229–237.
  8. Трезубов Е. С. Исключение из судебной нагрузки «недостойных дел» за счет внедрения технологий искусственного интеллекта // Вестник гражданского процесса. 2024. N 2. С. 283–300.
Основные термины (генерируются автоматически): некачественный товар, продавец, гарантийный срок, недостаток товара, президиум ВС РФ, РФ, товар, возврат товара, общее правило, Постановление Пленума ВС РФ.


Ключевые слова

алгоритм, искусственный интеллект, цифровизация права, черный ящик, принцип прозрачности

Похожие статьи

Задать вопрос