EN

“AI-инструменты для ускорения рабочих процессов блогеров и журналистов”.
Часть 3: риски и этика использования ИИ в работе журналиста

Хотя ИИ еще нельзя назвать полноценным интеллектом, как у человека, он уже способен решать интеллектуальные задачи, что является огромным шагом вперед. Прорыв в использовании ИИ произошел в 2020 году, когда нейросети, существовавшие десятилетиями, интегрировали в пользовательский интерфейс чата — ChatGPT. Это дало возможность миллионам людей взаимодействовать с ИИ напрямую, что произвело революцию в мире технологий.

Современные ИИ-системы, в первую очередь, работают с данными. Нейросети распознают изображения, анализируют текст и голос, а также могут генерировать собственные тексты, изображения и видео. Этот подход мультимодален: нейросеть получает данные одного типа (например, текст) и выдает результат другого типа (например, картинку или аудио).

Примером мультимодальной нейросети можно назвать системы, которые помогают создавать изображения на основе текста, такие как DALL-E. Это иллюстрирует способность ИИ связывать разные модальности (текст, изображения, звук) для выполнения сложных задач.

​1.

Риски в работе с искусственным интеллектом 

Несмотря на впечатляющие возможности, существуют значительные риски. Основные из них:

Галлюцинации. Нейросети иногда генерируют недостоверную информацию. Это может выражаться как в неправильном отображении картинок (например, дополнительные пальцы на руках) или в текстах, где ИИ придумывает факты, документы или ссылки на статьи, которых не существует. Например, в США адвокат представил в суде материалы, сгенерированные нейросетью, которые были полностью выдуманы, что привело к потере его статуса и работы.

Этические вопросы. ИИ может быть использован для анализа эмоциональных состояний людей. Это поднимает вопросы о конфиденциальности, особенно в случаях, когда ИИ используется для анализа сессий психологов с пациентами. Хотя такая практика помогает улучшить работу специалистов, она остается спорной с точки зрения защиты личных данных.

Отсутствие конфиденциальности. Большие языковые модели, такие как ChatGPT, обучаются на огромных массивах данных, включая личную информацию пользователей. Несмотря на попытки создать безопасные режимы работы, такие как режим «инкогнито», использование конфиденциальной информации остается рискованным. Примеры включают случай, когда ИИ генерировал ключи доступа к программам, используя ранее предоставленные ему данные.

2.

Перспективы развития искусственного интеллекта: фейковая реальность?
 

С одной стороны, будущее искусственного интеллекта выглядит многообещающим. Например, прогнозируется, что в 2027 году появится функционал, который позволит полностью автоматизировать рутинные задачи («сделать работу за меня»). Это существенно упростит выполнение задач в различных сферах, от бизнеса до образования.

Первый шаг к этой цели уже сделан. С появлением новой модели OpenAI O1, искусственный интеллект вышел на следующую ступень своего развития. Эта модель имитирует мыслительную деятельность, что делает её уникальной по сравнению с предыдущими поколениями нейросетей. O1 не просто обрабатывает запросы пользователей, она сама себе задает вопросы и строит логические цепочки для более глубокого анализа информации. Благодаря этому, ответы, которые генерирует O1, в разы точнее и информативнее. Такая способность моделировать процесс мышления открывает огромные перспективы для использования искусственного интеллекта в сложных задачах, требующих не только обработки данных, но и продуманного анализа.

С другой стороны, развитие искусственного интеллекта несет в себе и риски. Один из главных вызовов — это проблема огромного количества фейковой информации. Появляется опасность того, что сгенерированный контент станет настолько реалистичным, что его будет трудно отличить от настоящего. Это может привести к «замыливанию» восприятия и утрате способности распознавать подлинные источники данных, что особенно критично для медиа, образования и научных исследований.

​3.

Этика использования Искусственного интеллекта в журналистике

В последние годы искусственный интеллект (ИИ) стал неотъемлемой частью журналистики, открывая новые возможности, но и поднимая важные этические вопросы. В этом контексте особое внимание заслуживает Парижская хартия, подписываемая многими медиа, которая определяет ключевые принципы ответственного использования ИИ.

Парижская хартия об ИИ и журналистике

Парижская хартия, на которую ссылаются многие представители журналистского сообщества, включает в себя десять основных пунктов, касающихся этики использования нейросетей. Ключевые положения хартии подчеркивают важность сохранения человеческого фактора в журналистике и обозначают правила, которым должны следовать медиа:

  1. Этика прежде всего: ИИ должен использоваться в соответствии с журналистской этикой – правдивостью, точностью, справедливостью.

  2. Человеческое решение: Все редакционные решения должны оставаться за людьми, а не за ИИ.

  3. Независимая оценка: Все системы ИИ должны проходить тщательную и независимую проверку.

  4. Ответственность за контент: СМИ несут полную ответственность за контент, созданный или обработанный с использованием ИИ.

  5. Прозрачность: Использование ИИ в СМИ должно быть публично раскрыто и разъяснено.

  6. Подлинность и достоверность: СМИ обязаны обеспечивать происхождение и аутентичность опубликованного контента.

  7. Разграничение контента: Четкое разделение между реальными и сгенерированными ИИ материалами.

  8. Поддержка разнообразия: ИИ-системы для рекомендаций должны продвигать разнообразие мнений и точек зрения.

  9. Участие в управлении ИИ: Журналисты и СМИ должны принимать активное участие в регулировании ИИ.

Дополнительную информацию о хартии можно найти здесь.

​​4.

Обучение на факультетах журналистики

В условиях распространения ИИ важно пересмотреть учебные программы на факультетах журналистики. В curricula должны быть включены следующие темы:

  1. Этика использования ИИ: Обучение студентов безопасному и ответственному использованию нейросетей.

  2. Промпт-инжиниринг: Техники формирования запросов к ИИ для минимизации ошибок и недопонимания.

  3. Анализ контента: Методы проверки фактов и выявления фейков и галлюцинаций в материалах, созданных с помощью ИИ.

  4. Современные технологии: Ознакомление с новыми достижениями в области ИИ и их влиянием на журналистику.

Студенты должны понимать, что ИИ – это не замена журналисту, а инструмент, который может значительно облегчить работу, если его использовать ответственно.

Соблюдение этических норм, описанных в Парижской хартии, поможет сохранить доверие аудитории и обеспечить высокие стандарты в журналистике даже в эпоху искусственного интеллекта.