Как искусственный интеллект влияет на кибербезопасность | Статья в журнале «Молодой ученый»

Отправьте статью сегодня! Журнал выйдет 26 октября, печатный экземпляр отправим 30 октября.

Опубликовать статью в журнале

Автор:

Рубрика: Информационные технологии

Опубликовано в Молодой учёный №40 (539) октябрь 2024 г.

Дата публикации: 01.10.2024

Статья просмотрена: 7 раз

Библиографическое описание:

Агафонова, О. Б. Как искусственный интеллект влияет на кибербезопасность / О. Б. Агафонова. — Текст : непосредственный // Молодой ученый. — 2024. — № 40 (539). — С. 1-4. — URL: https://moluch.ru/archive/539/117988/ (дата обращения: 16.10.2024).



Актуальность данной темы обусловлена растущей степенью цифровизации и ростом риска киберугроз. В статье исследуется влияние искусственного интеллекта на сферу кибербезопасности. Внимание уделяется как негативному, так и положительному влиянию искусственного интеллекта на сферу кибербезопасности. С одной стороны, искусственный интеллект усиливает защитные меры, предлагая более эффективные методы обнаружения и предотвращения кибератак. С другой стороны, в статье говорится о рисках, связанных с искусственным интеллектом, который может оказаться в руках злоумышленников.

Статья подчеркивает необходимость разработки новых подходов и стандартов в области кибербезопасности, чтобы эффективно противостоять угрозам, возникающим в результате эволюции искусственного интеллекта.

Результаты исследования подкреплены статистическими данными о росте киберугроз и потерях от киберпреступности.

Ключевые слова : киберугрозы, кибербезопасность, искусственный интеллект, информационная безопасность.

The relevance of this topic is driven by the rise in cyber threats and the increasing degree of digitalization. This article explores the impact of artificial intelligence on the field of cybersecurity. Attention is given to both the negative and positive influences of artificial intelligence on cybersecurity. On the one hand, artificial intelligence enhances defensive measures by offering more effective methods for detecting and preventing cyberattacks. On the other hand, the article discusses the risks associated with artificial intelligence, which could fall into the hands of malicious actors.

The article emphasizes the need to develop new approaches and standards in the field of cybersecurity to effectively counter threats arising from the evolution of artificial intelligence. The research results are supported by statistical data on the growth of cyber threats and losses from cybercrime.

Keywords: cyber threats, cybersecurity, artificial intelligence, information security.

Введение

В последние десятилетия высокие темпы цифровизации, развитие технологий привело к значительному росту числа киберугроз, угрожающих безопасности как частных лиц, так и организаций. Киберинциденты являются ключевым операционным риском, который может угрожать операционной устойчивости финансовых учреждений и негативно повлиять на общую макрофинансовую стабильность.

Одновременно с этим, искусственный интеллект (ИИ) стал мощным инструментом, используемым как для реализации киберугроз, так и для защиты от них.

Цель данной статьи заключается в исследовании двойственной роль ИИ в современном киберпространстве, в описании положительной и отрицательной его роли.

Основная часть

Сегодня ИИ развивается быстрыми темпами и его применение становится все более широким. ИИ применяется в различных сферах деятельности, в том числе и в сфере кибербезопасности, открывая новые возможности и в то же время ставя этические и социальные вопросы, связанные с его использованием.

Объем рынка ИИ в России в 2023 году вырос и достиг почти 650 млрд рублей, это на 18 % больше 2022 года, по словам заместителя председателя правительства Дмитрия Чернышенко. На рынке работают более 1000 организаций, занимающихся разработками в области ИИ, и более 90 исследовательских центров, проводящих научные исследования в этой сфере. [1]

По данным, которые приведены «Центром стратегических разработок» емкость рынка кибербезопасности в России до 2027 года будет расти на 24 % ежегодно и составит 559 млрд рублей. [2]

Стоит отметить, что это мировой тренд. Инвестиции в генеративный ИИ стремительно растут с каждым годом. В 2023 году финансирование генеративного ИИ выросло почти в восемь раз по сравнению с 2022 годом и достигло 25,2 млрд долларов по данным Стэнфордского университета. [3]

Также с каждым годом на фоне растущей цифровизации отмечается рост киберугроз. Киберугрозы представляют собой актуальную проблему современного общества, которая требует комплексного подхода к её решению.

С начала 2022 года по август 2024 года в России было совершено примерно 1,5 млн преступлений в ИТ-сфере. При этом кибермошенники похитили у россиян более 350 млрд рублей. [4]

По данным доклада МВФ по вопросам глобальной финансовой стабильности 2024 года особенно сильно подвержен киберрискам финансовый сектор, почти пятая часть всех инцидентов затрагивает финансовые организации. Кибератаки представляют достаточно серьезную угрозу для финансовой системы по причине ее уязвимости, которая обусловлена конфиденциальностью данных, высокой концентрацией, а также технологической и финансовой взаимосвязанностью. Геополитическая напряженность также может стать фактором, способствующим росту киберугроз. Финансовые учреждения в странах с развитой экономикой, особенно в США, более подвержены киберинцидентам, чем организации в развивающихся странах и странах с формирующимся рынком. Так, например, JPMorgan Chase, крупнейший в США банк, сообщил, что испытывает 45 млрд киберсобытий в день, при этом тратя 15 млрд долларов на технологии каждый год. [5]

Неправомерное использование ИИ может привести к созданию более сложных и труднообнаруживаемых кибератак, автоматизации фишинговых кампаний и разработке вредоносного ПО, которое способно адаптироваться к защитным механизмам. Кибератаки с каждым годом становятся все более изощренными и адаптируемыми.

По мере усложнения технологий ИИ активно применяется в сфере кибербезопасности. ИИ может отслеживать, анализировать, обнаруживать и предотвращать киберугрозы.

Один из основных способов применения ИИ в киберугрозах использование машинного обучения (ML) для создания более совершенных и скрытных атак. [2] Основой машинного обучение являются данные, это область ИИ построенная на способности обучаться и автоматически адаптироваться с минимальным вмешательством человека или программирования.

В качестве примера можно привести следующие виды атак:

Фишинг. Вид киберпреступления, при котором злоумышленники пытаются заполучить конфиденциальную информацию с помощью обмана, выдавая себя за доверенных лиц. Это один из наиболее распространенных и опасных методов социальной инженерии. Фишинг используется для кражи данных и финансовых средств. ИИ может анализировать большие объемы данных для создания более убедительных фишинговых писем, которые имитируют стиль и тон общения доверенных источников.

Вредоносное ПО: Злоумышленники могут использовать ИИ для автоматического создания, изменения и усовершенствования вредоносных программ, что способствует возникновению сложностей для их обнаружения антивирусными программами.

Атаки на социальную инженерию: ИИ способен анализировать профили пользователей в социальных сетях и впоследствии создавать персонализированные сообщения, тем самым повышая вероятность успеха атак.

ИИ также используется для обхода систем безопасности. Используя алгоритмы глубокого обучения (DL), злоумышленники могут разработать меры, позволяющие преодолеть различные механизмы защиты:

Обфускация кода: ИИ помогает вносить изменения в код традиционных программ, чтобы они оставались незамеченными при обнаружении.

Эксфильтрация данных: несанкционированная передача или получение данных с компьютера или сервера, алгоритмы ИИ могут обнаруживать уязвимости в сетях и использовать их для тайного извлечения данных.

С другой стороны ИИ играет ключевую роль в современных системах кибербезопасности, помогая в обнаружении и предотвращении киберугроз. Здесь можно выделить следующие способы, с помощью которых ИИ влияет на кибербезопасность:

Анализ аномалий: системы ИИ могут анализировать сетевой трафик и поведение пользователей, чтобы выявлять отклонения от нормальных закономерностей, указывая на потенциальные угрозы. Алгоритмы машинного обучения могут со временем адаптироваться к новым типам угроз, повышая их точность.

Системы предсказания угроз: используя ИИ можно прогнозировать потенциальные атаки, анализируя модели поведения злоумышленников и прогнозируя их действия.

Автоматизация ответных мер: ИИ может автоматизировать повторяющиеся задачи, такие как сканирование уязвимостей и мониторинг сетевой активности, позволяя специалистам по кибербезопасности сосредоточиться на более сложных проблемах и ускорить процесс реагирования на угрозы.

Оркестрация безопасности: ИИ может автоматически применять меры безопасности, такие как изоляция зараженных устройств или блокировка IP-адресов, которые вызывают подозрения.

Реагирование в режиме реального времени: алгоритмы ИИ позволяют незамедлительно реагировать на угрозы, тем самым уменьшая ущерб и предотвращая распространение атаки.

ИИ улучшает механизмы аутентификации, повышая безопасность доступа к системам и данным. Биометрические методы становятся более надежными благодаря ИИ.

ИИ помогает защитить данные посредством шифрования и мониторинга доступа. Методы глубокого обучения могут создавать сложные модели шифрования, которые трудно взломать.

Использование ИИ в сфере кибербезопасности поднимает множество этических и правовых вопросов, таких как конфиденциальность, безопасность данных, надежность и неправомерное использование ИИ. Данные вопросы требуют изучения и регулирования. Необходима разработка четких правовых норм, определяющих ответственность разработчиков, пользователей и операторов ИИ-систем.

В будущем роль ИИ в кибербезопасности будет только возрастать. Для эффективного противодействия новым угрозам необходимо:

1) Разрабатывать новые алгоритмы и модели, переобучать модели ИИ, что будет способствовать адаптации к изменяющимся угрозам.

2) Необходимы четкие нормативные акты, регулирующие применение ИИ.

3) Международное сотрудничество: объединение усилий на международном уровне для создания стандартов и обмена информацией о новых угрозах.

4) Подготовка специалистов, обладающих знаниями в области ИИ и кибербезопасности, для эффективного использования новых технологий. Важность подобных специалистов продолжает расти, делая их вклад критически важным для успеха и безопасности организаций.

Заключение

С ростом количества и сложности кибератак, используемых злоумышленниками, защита информации и цифровых систем становится приоритетом для всех областей и организаций любого размера.

Искусственный интеллект играет двойную роль в современном киберпространстве, являясь инструментом как создания киберугроз, так и их нейтрализации. Технологии ИИ, такие как машинное обучение и глубокое обучение, позволяют злоумышленникам создавать более сложные и скрытые атаки, а специалисты по кибербезопасности используют искусственный интеллект для обнаружения и предотвращения угроз, автоматизации реагирования и прогнозирования атак. Несмотря на значительные преимущества, использование ИИ в сфере кибербезопасности сопряжено с рядом этических и юридических проблем, которые требуют тщательного рассмотрения.

В будущем, в условиях необходимости быстрого реагирования на изменяющиеся условия, ИИ станет еще более важным компонентом кибербезопасности, что в свою очередь вызовет потребность постоянного совершенствования алгоритмов и разработки новых подходов к защите данных и систем.

Литература:

  1. Российская газета (https://rg.ru/2024/01/21/chernyshenko-obem-rossijskogo-rynka-ii-v-2023-godu-dostig-pochti-650-mlrd-rublej.html)
  2. «Как искусственный интеллект повышает кибербезопасность» https://www.rbc.ru/neweconomy/news/6554cc119a79477fa20d3dda
  3. https://www.tadviser.ru/index.php/Статья:Потери_от_киберпреступности
  4. Отчет об Индексе ИИ/Artificial Intelligence Index Report 2024, Stanford
  5. МВФ Доклад по вопросам глобальной финансовой стабильности» 2024 года (Global Financial Stability Report April 2024)
Основные термины (генерируются автоматически): искусственный интеллект, глубокое обучение, данные, машинное обучение, млрд рублей, Россия, млрд долларов, неправомерное использование, социальная инженерия, США.


Похожие статьи

Задать вопрос