Статья рассматривает феномен дипфейков — контента, созданного с использованием искусственного интеллекта для имитации голоса, видео и изображений. Обсуждаются потенциальные угрозы и возможности, связанные с использованием дипфейков, а также методы их обнаружения. Приводятся примеры преступного использования этой технологии в наше время.
Ключевые слова: дипфейк, искусственный интеллект, дезинформация, манипуляция, обнаружение, безопастность, противоправная деятельность.
The article examines the phenomenon of deepfakes — content created using artificial intelligence to simulate voice, video and images. The potential threats and opportunities associated with the use of deepfakes, as well as methods for their detection, are discussed. Examples of the criminal use of this technology in our time are given.
Keywords: deepfake, artificial intelligence, disinformation, manipulation, detection, detection, security, illegal activity.
Можно утверждать, что существует контент, созданный благодаря искусственному интеллекту, а именно его алгоритмов — такой контент называется Дипфейк. Такие фейки имитируют голос, видео и изображение — показывая нам фальшивый материал. Зачастую такие фейки используют для создания реалистичности случаю, которого не существует. Сейчас дипфейки даже создают выражение лица, движение реального человека. Использование данных фейков может нанести серьёзный ущерб для людей и даже государства в целом. Так же возможности данных фейков используют и в положительном контексте — можно создавать развлекательные видео, мультфильмы, ролики различного назначения — обручающие, к примеру. Создаются даже ролики маркетинговой направленности, создавая привлекательные рекламные ролики, которые должны привлечь внимание аудитории и продвинуть услуги или продукты. В научных целях используется для разработки и тестирования новых алгоритмов и технологий в области компьютерного зрения и искусственного интеллекта.
С быстрым развитием технологий, особенно во время пандемии COVID — 19, когда все больше и больше людей используют аудио-и видеосвязь через Интернет, мы наблюдаем увеличение количества образцов видео и аудио в сети. Это дает преступникам дополнительные возможности для создания ложных данных о людях, чтобы манипулировать людьми и влиять на них.
Использование deepfake для распространения дезинформации, поддельных новостей, манипулирования изображениями и создания поддельной порнографии вызывает озабоченность во всем мире, в том числе в Российской Федерации, относительно их влияния на отдельных лиц, организаций и общества в целом.
Примеры мошеннического использования deepfake включают случаи мошенничества с аудиозаписями, например, когда генеральный директор британской энергетической компании понес убытки в размере около 243 000 долларов США после телефонного разговора с человеком, чей голос был синтезирован алгоритмом искусственного интеллекта, обученным на его голосовых записях. Кроме того, дипфейки могут использоваться для политических манипуляций, как в случае с дипфейком спикера Палаты представителей США Нэнси Пелоси, созданным для того, чтобы ввести в заблуждение общественность.
Сейчас, включая телевизор, мы можем каждый день столкнуться с Deep fake. Самое опасное, что их насколько качественно создают, что мы можем поверить в увиденное или услышанное. Сейчас активно пропагандисты используют данный метод обмана людей в своих целях. Целые народы могут видеть не верное развитие событий и слепо верить в них, не проверяя иные источники информации. Не секрет, что некоторые политические деятели тоже активно пользуются Deep fake в противоправных целях, искусственно обозначая неверные происходящие события. Можно сказать, что войны тоже провоцируются из-за современных источников обманной информации. Профессионал только сможет отличить фейк от реального, но сделает это тоже не сразу, а проведя определённый технический или социальный анализы.
В России есть нераскрытые случаи преступного использования технологии Deep fake. В одном из них, связанном с банковским мошенничеством, в 2020 году группа преступников использовала deepfake, чтобы убедить клиента перевести средства на поддельный счет под видом голоса банковского служащего [6]. Преступникам удалось создать убедительный голосовой дублер банковского служащего, используя всего несколько минут записи речи.
Существует различные методы создания глубоких подделок, и среди них выделяются следующие наиболее распространенные типы:
- Глубокие фейки с синхронизацией губ: Этот вид подделок представляет собой видео, в которых люди кажется произносят слова или фразы, которые они на самом деле не говорили. Для этого манипулируют выражениями лица и мимическими движениями на видео с использованием алгоритмов машинного обучения. Создание таких подделок требует изучения алгоритма на большом объеме видеоданных, чтобы создать иллюзию различных звуков и слов.
- Замена лица: В данном случае лицо одного человека заменяется лицом другого на видео или изображении. Для этого используются алгоритмы машинного обучения, обученные на больших объемах изображений и видеоданных. Процесс включает в себя распознавание и извлечение лиц, обучение алгоритма на наборе данных и сопоставление черт лица для создания смешанного изображения.
- Манипуляция движениями: Этот тип подделок, также известный как «кукловодство», включает управление движениями и действиями человека на видео, чтобы создать впечатление, что он совершает действия, которые на самом деле не выполнял. Это достигается анализом и реконструкцией движений и действий тела целевой личности на видео с использованием алгоритмов машинного обучения. Создание и использование подобных «кукольных глубоких фейков» вызывает серьезные этические и юридические вопросы, поскольку они могут использоваться для манипулирования общественным мнением и нанесения ущерба как отдельным лицам, так и группам.
- Глубокие дипфейки, основанные на клонировании голоса, представляют собой разновидность подделок, которая порождает синтетический голос, точно имитирующий уникальный тембр и интонацию определенного человека. Этот процесс достигается путем обучения алгоритма машинного обучения на разнообразных наборах аудиозаписей, содержащих голос выбранного лица. Процесс создания таких дипфейков включает несколько этапов: алгоритм машинного обучения обучается на многочисленных аудиозаписях голоса целевого человека, в ходе которых происходит анализ особенностей голоса, таких как его тембр, высота тона и стиль речи. По завершении обучения алгоритм может использоваться для создания новых аудиозаписей, имитирующих голос целевой личности. Для этого достаточно ввести текст в алгоритм, который затем преобразует его в речь, воспроизводимую голосом этого человека.
- Преобразование текста в речь, основанное на глубоких дипфейках, предполагает использование искусственного интеллекта для синтеза речи, звучащей точно так же, как голос определенного человека. Эти дипфейки создаются путем обучения алгоритма машинного обучения на обширном объеме аудиозаписей голоса данного человека. Когда алгоритм усваивает речевые особенности этого человека, он способен генерировать новые аудиозаписи, звучащие точно так же, как если бы говорил сам дипфейки текста в речь имеют как полезные, так и потенциально опасные применения.
Существуют мошеннические схемы с использованием дипфейков в видеопоздравлениях. К примеру, поздравляет будто известная личность, а далее идет контекст обмана и вымогательства денег. К примеру, высылают видео о том, что блогер решил подарить вам подарок — айфон последней серии, но необходимо оплатить только доставку, которая оценивается в пять тысяч рублей и других суммах. Далее, человек осознаёт ценность подарка — в виде телефона и платить деньги за доставку. Таким образом многие люди, становятся жертвами обмана.
Сейчас в различные популярных сайтах, к примеру, YouTube и сообществе tik-tok — алгоритмы сайта научились распознавать ИИ от реального контента. Такой контакт удаляется или блокируется. Но обычному пользователю очень сложно отличить искусственный контент, созданный искусственный интеллектом от реально снятого людьми видео. Некоторые видео можно отличить по качеству изображения, приближая видео по пикселям, но зрителям не подготовленным это не сделать, к примеру пожилым людям из-за проблем со зрением.
Программное обеспечение с открытым исходным кодом, а также готовые приложения, такие как FakeApp, предоставляют простые способы изменения лиц в медиафайлах, что может привести к манипулированию информацией. Это только начало ряда инструментов для подобных манипуляций в этой области. Хотя создание и обучение моделей машинного обучения может быть сложными процессами, после их разработки они становятся легко доступными и могут широко использоваться и распространяться [7].
Аудитория сейчас намного чаще создает убедительные дипфейки, и большинство из них кажутся безобидными. Но некоторые из них могут быть источником вирусного контента на платформах социальных сетей. В таких местах, как Twitter и Facebook, поддельный контент может быстро распространяться за счет ботов и «троллейных ферм». Несколько ловких хакеров с альтернативными мотивами могут оказать серьезное влияние на будущее целых стран [5]. Такие люди могут активно перефразировать смысл видео в какую-либо пользу — трактовать в условиях распространения различных пропаганд.
Если изменение внешнего вида изображения или видео может помочь кампании достичь ее целей и создать неопределенность с минимальными затратами, это будет реализовано. С ростом доступности инструментов для создания подделок они, вероятно, будут использоваться не только злоумышленниками, но и теми, кто борется с дезинформацией.
Для борьбы со злоупотреблениями deepfake в мире разрабатываются технологии для обнаружения и выявления поддельных deepfake, а также для информирования общественности о рисках [3].
Основополагающе многие платформы социальных сетей имеют правила, запрещающие использование поддельных новостей, и находятся под сильным давлением для борьбы с дезинформацией. К примеру YouTube, RUTUBE, Tik-tok, telegram. Эффективное обнаружение поддельных новостей позволяет компаниям внедрять политики, направленные на предотвращение распространения поддельных новостей на своих платформах. Сейчас во всех вышеперечисленных платформах в пользовательских соглашениях прописан запрет на выкладывание дипфейков, которые не положительно могут сказываться на внутренних чувствах человека [4].
Подводя итог, можно сказать что провохранительным органам следует провести внутренние повышения квалификации, для того, чтобы сотрудникам научиться узнавать Deep Fake и эффективно квалифицировать преступные деяния лиц, использующих такие противоправные способы нарушения законодательства. Необходимо выделить отдельный бюджет в РФ для разработки технологии проверки выявления подделок визуального и аудиоконтента, которая будет постоянно в своем сервисе учиться и усовершенствоваться. Это необходимо для того, чтобы злоупотребления данной технологией снизилось к минимуму. Это будет новым направлением политики усовершенствования работы правоохранительных органов и страны в целом в контексте противодействия преступлениям и коррупции.
Литература:
- Facebook оправдывается за «пьяное» видео спикера конгресса США. URL: https:// www.gazeta.ru/tech/news/2019/05/25/n_13014859.shtml/ (дата обращения: 25.03.2024).
- Как разоблачить дипфейк во время видеозвонка. URL: https:// habr.com/ru/company/first/blog/719068/ (дата обращения: 10.03.2024).
- «Глубокие подделки» признаны самой серьезной угрозой преступности с использованием ИИ. URL: https://www.ucl.ac.uk/news/2020/aug/deepfakes-ranked-most-serious-ai-crime-threat/ (дата обращения: 25.03.2024).
- Криминальная жизнь дипфейков. URL: https://zavtra.ru/blogs/kriminal_naya_zhizn_dipfejkov/ (дата обращения: 10.03.2024).
- Мошенник подделал голос CEO и украл $243 тыс. при помощи технологии «deepfake». URL: https://incrussia.ru/news/deepfake-moshennik-ukral-243-tys/ (дата обращения: 25.03.2024).
- Фальшивое будущее: как Adobe готовится к эпидемии дипфейков. URL:https:// www.forbes.ru/tekhnologii/470327-fal-sivoe-budusee-kak-adobe-gotovitsa-k-epidemii-dipfejkov/ (дата обращения: 26.03.2024).