Наука и технологии33

Чат-боты с искусственным интеллектом пишут новости. Как это меняет работу редакций

Бывший руководитель отделов доверия в Google и ByteDance Арджун Нараян дал интервью Gizmodo, в котором рассказал о сложности нынешнего исторического момента, а также о том, как новостные агентства и редакции должны подходить к контенту ИИ, чтобы он мог завоевать доверие читателей, и чего ожидать от ИИ в ближайшем будущем.

Сегодня компании, редакции и политики поспешно пытаются разработать стандарты, чтобы сохранить доверие в мире, где информация, созданная ИИ, будет все чаще появляться в интернете. Многие создатели контента уже используют чат-ботов для выпусков новостей, некоторые из которых содержат потенциально опасную ложь.

Внезапные проблемы, с которыми сегодня сталкиваются генераторы новостей, являются результатом постепенного наращивания алгоритмов рекомендаций и других продуктов ИИ, которые Арджун Нараян помогал контролировать более двадцати лет — сначала в ByteDance и Google, а сегодня — в SmartNews, приложения для поиска новостей, доступного в более чем 150 странах.

Редакции должны разработать стандарты

Сегодня сложно определить, какие истории полностью написаны ИИ, а какие нет. Это различие стирается. Однако в том, что ИИ создает статьи, нет ничего плохого, как считает Арджун Нараян. Правда, по его мнению, пользователь должен знать, что этот контент был написан с помощью чат-бота. Это можно указывать в подписи или в самой информации, что контент был частично или полностью сгенерирован ИИ.

В редакциях на этот счет еще не разработали никаких стандартов.

Нараян также отмечает, что редакциям нужны команды фактчекинга, которые будут корректировать все, что выходит из системы искусственного интеллекта, так как ИИ часто допускает фактические неточности или придумывает то, чего нет. По словам Нараяна, логика принятия решений ИИ по-прежнему остается «черным ящиком». Непонятно, когда он напишет очередной фейк или выдаст дезинформацию.

Бывший руководитель отдела доверия в Google также обращает внимание, что если человек перерабатывает контент, созданный ИИ, то он все равно должен считаться автором.

«Думайте об этом как о конвейере. Есть сборочная линия Toyota, где роботы собирают автомобили. Если конечный продукт имеет неисправную подушку безопасности или неисправное рулевое колесо, Toyota по-прежнему берет на себя ответственность за это, независимо от того, что эту подушку безопасности изготовил робот. Когда дело доходит до конечного результата, ответственность лежит на новостном издании».

Люди нужны и будут нужны

Есть вероятность, что технологические компании, которые быстро уволили людей из-за стремительного развития искусственного интеллекта, поспешили, высказывает мнение Арджун Нараян. Особенно в сферах HR, доверия и безопасности.

Что касается медиа, по его словам, здесь еще долгое время будет нужна работа людей, которые понимают контекст. Информацию нужно проверять на достоверность, политический уклон, на соответствие редакционным стандартам и ценностям. Это может делать только человек.

Вызов для политиков и гражданского общества

Арджун Нараян обращает внимание, что общество сейчас не подготовлено к происходящим переменам. Много людей потеряли работу, и еще многие потеряют, однако органы, регулирующие эти процессы, не были готовы к таким быстрым сокращениям и не знают, чем занять людей, оставшихся без работы.

По мнению Нараяна, гражданскому обществу также стоит задуматься над этими вопросами. Оно часто способно отреагировать даже быстрее, чем политики.

«Я настроен оптимистично, но позвольте мне сказать вам вот что. У меня есть семилетняя дочь, и я часто спрашиваю себя, какую работу она будет выполнять. Через 20 лет рабочие места, какими мы их знаем сегодня, коренным образом изменятся. Мы заходим на неизвестную территорию»,

— говорит бывший руководитель отдела доверия в Google.

Еще одна важная тема для политиков — продумать, в каких секторах ИИ следует использовать, а какие сферы должны остаться для него недосягаемыми.

Так, например, когда-то было принято решение не клонировать человеческие органы — ведь это может вызвать массу этических вопросов. Однако ИИ можно было бы приспособить к тому, чтобы заниматься исследованием различных уже долгое время неизлечимых болезней, таких как болезни Паркинсона и Альцгеймера, — и помогать человеческой мысли продвинуться в этом направлении.

Где в этих вопросах нужно проводить границы — это, по мнению Нараяна, тоже вопрос для правительств.

Читайте еще:

Встань и иди. Компания Илона Маска начнет испытания мозговых имплантов на людях

ChatGPT, Bing и Алиса: какая из нейросетей лучше владеет белорусским языком и понимает наш контекст? Тестим

ЕС защитит граждан от искусственного интеллекта законом: никаких «социальных рейтингов», распознавание лиц только по решению суда

Комментарии3

  • Ягор
    30.05.2023
    Ну хоць памылак і ўсякай лухты будзе меней.
  • Казік
    30.05.2023
    Ягор, бачна, што ты не чытаў далей за загаловак. І не спрабаваў чатгпт.
  • Нашанівец
    30.05.2023
    Капіталізм перамагае! Я усе зраблю, каб мой гаспадар зарабляў больш грошаў з падтрымкай Ші. Лішнія людзі павінны быць знішчаны.

Украинцы отбросили россиян от Купянска

Украинцы отбросили россиян от Купянска

Все новости →
Все новости

В планах России — разделить Украину на три части. Вот карта из секретного российского документа20

Жителей Гомельщины массово вызывают в прокуратуру, чтобы взять обязательства о «надлежащем поведении» в период выборов1

Минчане нашли в лесу 50 евро и нажили себе проблем

Власти Литвы не исключают теракта на борту самолета DHL, который упал в Вильнюсе

17-летняя девушка в России пошла кормить свиней и погибла2

Кто придумал ютуб-программу «Часики тикают»?3

Сегодня на торгах доллар подскочил на четыре копейки

Пропутинский популист победил в первом туре выборов в Румынии, но президентом станет женщина-либерал1

Предварительная причина падения самолета в Вильнюсе — технический вопрос3

больш чытаных навін
больш лайканых навін

Украинцы отбросили россиян от Купянска

Украинцы отбросили россиян от Купянска

Главное
Все новости →