В статье авторы исследуют этический вопрос использования нейросети в журналистике и предпринимают попытку предположить, что нужно сделать для того, чтобы искусственный интеллект не оказывал негативное влияние на сотрудников редакций и на качество материалов.
Ключевые слова: нейросеть, журналистика, этика, искусственный интеллект, умные технологии.
Использование искусственного интеллекта в журналистике — это не когда-либо достижимое будущее, а реальность сегодняшнего дня. В то время, когда некоторые придвинутые пользователи Интернета восхищаются работой «роботов», другие же видят в нейросети большую проблему. А. П. Суходолов, А. М. Бычкова, С. С. Овесян отмечают, что «СМИ совместно с государством и гражданским обществом ещё предстоит осмыслить, к каким последствиям может привести владение этим новым совершенным инструментом» [6, с. 665]. Иными словами, есть вероятность, что умные технологии станут не подспорьем в работе журналистов, а угрозой для сотрудников редакций, которых можно будет заменить на бездушные машины.
Нейросети уже активно используются для написания журналистских статей, вёрстки газет, монтажа видео, и в том числе для создания фейковой информации. Искусственный интеллект применяется в журналистике для решения следующих задач:
Во-первых, для создания текстовых материалов разных жанров и характеров. Для реализации данной задачи часто используется чат-бот (большая языковая модель) ChatGPT, способный генерировать тексты. К тому же настолько успешные, что в 2023 году в обществе вызвала резонанс новость: московский студент написал с помощью программы дипломную работу за один вечер [1, с.665]. Однако, опасения в данный момент подобного рода технологии не вызывают, поскольку за работой ИИ всё равно нужно наблюдать, а готовые материалы перепроверять, исправлять ошибки и несоответствия. К тому же, чат-боты не обладают индивидуальным стилем написания статей. В связи с чем, можно сказать, что «будущее не за роботами, которые способны писать материалы, а за людьми, которые умеют пользоваться технологиями» [2, с. 3].
Во-вторых, искусственный интеллект способен помогать журналистам в анализе и систематизации данных. То есть благодаря нейросети можно анализировать статьи, репортажи, эфиры, чтобы определить, что сейчас находится в тренде и о чём людям интересно знать. Это поможет редакциям быстрее реагировать на пользовательские запросы и оставаться в центре внимания. Однако, по мнению А. А. Терешенко, ИИ в анализе данных — это не панацея. «На данный момент нельзя полностью перевести весь анализ на искусственный интеллект, можно использовать лишь какие-то наработки, чтобы оптимизировать и облегчить процесс анализа» [7, с. 56].
В-третьих, многим журналистам представляется, что нейросети можно будет полностью делегировать рутинные задачи, например, как написание заметок о погоде, о происшествиях. То есть избавиться от всех «скучных» материалов, которые не нуждаются в переработке информации автором и стилистика в них не важна. Главред объединённой редакции РБК Петр Канаев заключил, что «журналистике эры людей не подошёл конец, однако нейросети помогут нам, заваленными рутинной новостной повесткой, выбраться из неё» и больше уделять время общению с людьми и решению их проблем [4]. В таком случае, в будущем в редакциях СМИ могут оставить только самых лучших с точки зрения профессионализма сотрудников, а корреспондентов среднего звена ждет сокращение.
В-четвёртых, нейросети действительно могут помочь журналистам создавать качественные материалы, но только лишь помочь, а не заменить их полностью. Например, российский YaGPT2 будучи не самой уникально продвинутой программой для решения всех возможных задач, уже способна предложить журналистам идеи для заголовков, способна написать небольшой лид, подводку к материалу, дать идеи, как сделать материал лучше.
Бесспорно, что профессиональным журналистам нечего опасаться и нейросеть не сможет заменить живого журналиста с его восприятием мира, событий, которое отражается в эмоциональной, яркой, творческой подаче информации о событиях и проблемах.
При этом надо учесть, что ИИ не стоит на месте и развивается невероятными темпами. Закономерно встаёт вопрос: как использовать журналистам нейросеть в создании материалов, чтобы избежать глупых ошибок, а также соблюдать букву закона. Ведь умные технологии могут быть необъективны, могут создать неточный и этически не корректный материал.
Поскольку проблема стала очевидной, государства задумались, будет ли работать нейросеть на благо человечества или наоборот создаст сложные условия для дальнейшей реализации творческой деятельности. Для решения данного вопроса были предприняты инициативы в создании госрегулирования работы нейросети.
В 2017 году в США были утверждены «Азиломарские принципы» — рекомендации, как можно ограничивать работу нейросети и использовать умные технологии во благо. Основные принципы были сведены к тому, что технологии должны быть безопасны для людей, они не должны использоваться во вред людям и человек должен иметь возможность контролировать ИИ, а не наоборот [5]. Проблема рекомендаций в том, что они не являются чем-то принципиально новым. То есть аналогичные принципы были сформированы в трёх законах робототехники Айзеком Азимовым в далёком 1942-м году. Он также считал, что робот не может причинить человеку вред, он должен повиноваться человеку и заботиться о его благополучии. А другая проблема рекомендаций заключается в том, что они не имеют обязательный характер, это лишь предложения по улучшению деятельности искусственного интеллекта. Теоретически, «роботы» и рады подчиняться правилам, только вот сами люди, особенно те, кто жаждет покорить всё новые и новые высоты в робототехнике, вряд ли будут прислушиваться к советам.
Похожая инициатива предпринималась и в России в 2021 году: был предложен к вниманию «Кодекс этики в сфере ИИ». Положения схожи с «Азиломарскими принципами» и опять же имеют лишь рекомендательный характер. То есть сейчас никакой закон не способен регламентировать деятельность людей при использовании умных технологий. Например, ничто не мешает журналистам использовать Deepfake технологию для создания порочащих честь и достоинство изображений. Фактически кого угодно можно выставить в неприглядном свете перед аудиторией. Так, по мнению
А. В. Власенко, П. С. Киселёва и Е. А. Скляровой, данная технология является «опасной угрозой для информационной безопасности 21-го века» [3, с.85]. Если же государственные СМИ стараются не злоупотреблять фэйковыми изображениями и новостями, то в интернете работу частных редакций, каналов, групп никто контролировать не может.
Для решения этой проблемы на данный момент нет единого средства. Профессионалы могут применять методы проверки и вычисления, чтобы выяснить, реальное ли перед ними изображение или качественная подделка. Но обычный читатель или зритель не будет вникать в подробности. Бороться с лживой информацией представляется крайне сложным занятием, поскольку нужно привести аргументы, доказывающие, что информация — фэйк. И к тому же подобного рода материалы создаются ежедневно и ежечасно, и успевать на всех них реагировать — трудновыполнимая задача.
На данный момент не существует эффективных и точных способов урегулировать этический вопрос использования искусственного интеллекта в работе журналистов. Потому как нет единого закона, в котором были бы прописаны для сотрудников СМИ правила использования ИИ. В сложившийся ситуации, каждый журналист должен сам для себя решить, использовать умные технологии во благо или во вред обществу. Вместе с тем, по нашему мнению, в ближайшие годы из-за широкого использования услуг нейросетей в выполнении простых журналистских задач, ожидается оптимизация производства и увольнению сотрудников СМИ.
Литература:
- Абрамов А. Нейросеть за один вечер написала диплом за российского студента. Преподаватели в шоке — как теперь проверять знания? Читайте на WWW.MSK.KP.RU: https://www.msk.kp.ru/daily/27460/4714947/ / Абрамов Андрей. — Текст: электронный // Комсомольская правда: [сайт]. — URL: https://www.msk.kp.ru/daily/27460/4714947/ (дата обращения: 16.12.2023).
- Богатырёва В. Н. Искусственный интеллект в журналистике как современный медиатренд // Скиф. 2019. № 8 (36). URL: https://cyberleninka.ru/article/n/iskusstvennyy-intellekt-v-zhurnalistike-kak-sovremennyy-mediatrend (дата обращения: 16.12.2023).
- Власенко А. В. Искусственный интеллект и проблемы кибербезопасности. Технология Deepfake / А. В. Власенко, П. С. Киселёв, Е. А. Склярова. — Текст: непосредственный // Молодой ученый. — 2021. — № 21 (363). — С. 81–86. — URL: https://moluch.ru/archive/363/81231/ (дата обращения: 16.12.2023).
- Бугайская Елена. Нейросеть поучаствовала в выпуске газеты. О чем говорит этот опыт издателям и журналистам / Бугайская Елена. — Текст: электронный // RG.RU: [сайт]. — URL: https://rg.ru/2023/05/17/nejroset-pouchastvovala-v-vypuske-gazety.html (дата обращения: 16.12.2023).
- Пирогова Елизавета. Что такое Азиломарские принципы и зачем они искусственному интеллекту / Пирогова Елизавета. — Текст: электронный // RBC.RU: [сайт]. — URL: https://trends.rbc.ru/trends/futurology/64a3cc1b9a794735c9082718?from=copy (дата обращения: 16.12.2023).
- Суходолов А. П., Бычкова А. М., Ованесян С. С. Журналистика с искусственным интеллектом // Вопросы теории и практики журналистики. 2019. № 4. URL: https://cyberleninka.ru/article/n/zhurnalistika-s-iskusstvennym-intellektom (дата обращения: 16.12.2023).
- Терешенко А. А. Возможности и перспективы использования искусственного интеллекта и машинного обучения для анализа фондового рынка// Скиф. 2023. № 4 (80). URL: https://cyberleninka.ru/article/n/vozmozhnosti-i-perspektivy-ispolzovaniya-iskusstvennogo-intellekta-i-mashinnogo-obucheniya-dlya-analiza-fondovogo-rynka (дата обращения: 16.12.2023).