Категория
Инновации
Дата

ИИ-ассистент будет подавать нам «инфопомии». Как вместо эры информационного достатка искусственный интеллект усложнит доступ к истине?

5 хв читання

Рост популярности генеративного ИИ уже наносит вред СМИ, и в ближайшие годы ситуация ухудшится. Как новые привычки поиска информации вредят потребителям и подрывают медиа, от которых зависят большие языковые модели (LLM)? Рассказывает медиа- и стратегическая консультантка Катя Горчинская

Покупайте годовую подписку на шесть журналов Forbes Ukraine по цене четырех. Если вы цените качество, глубину и силу реального опыта, эта подписка именно для вас.

На одной из недавних конференций в Варшаве я попросила представителей медиа и дипломатов поднять руки, если:

  • они когда-нибудь искали факты с помощью генеративного искусственного интеллекта (включая функции итога в поисковиках);
  • после – совершали какие-либо действия, опираясь только на эту информацию, не обращаясь к первоисточнику.

Большинство участников конференции подняли руки.

Это была прикольная живая иллюстрация, как генеративный ИИ снова меняет наши отношения с фактами.

С того времени, как ChatGPT стал массовым, поиск информации является одним из трех главных типов его использования. Социологи в шоке наблюдают, как привычки поиска меняются у них на глазах.

Около 10% людей в мире пользуются генеративным ИИ еженедельно. А в шести странах, которые изучал Институт Reuters, этот процент дошел до 34. Такое глобальное, хоть и неравномерное распространение, означает изменение парадигмы.

Генеративный ИИ дает нам увлекательный, почти магический опыт: как личный дворецкий, который подает тебе именно то, что ты хочешь, на серебряном подносе.

Но все чаще этот дворецкий будет подавать нам «инфопомии». Вместо эры информационного достатка, о которой говорят некоторые исследователи, искусственный интеллект, вероятнее всего, сделает доступ к правде гораздо сложнее. И вместе с тем замордует институции, производящие достаточно правды, которыми сами машины могли бы «кормиться».

Как результат, когнитивная нагрузка, необходимая даже для поиска единого факта, станет абсолютно невыносимой.

Причинно-следственная связь

Вот как это может произойти и немного истории, чтобы увидеть, почему.

В 2006 году Facebook ввел новостную ленту, сделав платформу более «залипательной» и начав большое смещение в потреблении информации. Основатель компании Марк Цукерберг позже заявлял, что его платформа обеспечивает свободу выражения мнений для всех, следовательно, способствует правде и демократии. Илон Маск и другие повторяли то же самое, как попугаи.

Однако в действительности правда «утонула», а демократические дискуссии в соцсетях захлебнулись в волнах фейков и малинформации.

Историк Ювал Ной Харари объясняет, почему: правда является сложной, неприятной, порой болезненной, и в то же время дорогой в производстве. Именно поэтому человечество создало целые институты, посвященные поиску правды: университеты, научные центры, суды и, конечно, медиа.

Ложь наоборот легко создается и легко масштабируется. Она проста и очень соблазнительна. Посредством алгоритмов она «заливает» соцсети и переливается в реальную жизнь. «В конкуренции между дорогой, сложной и неприятной правдой и дешевой, простой, привлекательной фикцией фикция побеждает», – говорит Харари.

Медиа, теряя борьбу за аудиторию, теряли и рекламодателей, и финансовую устойчивость, превращаясь в отрасль в упадке. Многие сейчас полностью зависят от соцсетей и поисковых систем и в смысле трафика, и в смысле поддержки отношений с аудиторией.

И вот на сцену выходит генеративный искусственный интеллект – технология, переворачивающая и эти правила. Теперь медиа должны думать не только о нативном контенте для соцсетей или SEO-оптимизации, но и о GEO-оптимизации, то есть видимости для ИИ.

Чтобы оставаться видимыми для людей, журналистика должна стать видимой для машин.

Но вместо того, чтобы воспользоваться этой возможностью, большие медиахолдинги закрывают свой контент от больших языковых моделей, тогда как меньшие редакции во всем мире еще даже не осознали новый вызов.

Многие компании запретили ИИ-сканеры, чтобы защитить свою интеллектуальную собственность, когда оказалось, что их контент использовался для обучения моделей без разрешения. Некоторые СМИ в США подали иски против OpenAI, Anthropic, Perplexity, Google, Microsoft и других компаний за нарушение авторских прав. То же происходит в Канаде и Европе.

В сентябре ряд издателей, среди них Penske Media (издает Rolling Stone и Variety), подали иск против Google за функцию ИИ-резюме в поиске, которая, по их словам, «убивает» трафик до оригинальных материалов и наносит «миллионный ущерб».

Другие издатели заключают соглашения с крупными игроками ИИ коллективно или индивидуально. Но если в 2024 году заголовки об этом мы видели часто, то в настоящее время соглашений почти нет: интерес ИИ-компаний к медиа угасает.

Ник Томпсон, CEO The Atlantic, недавно заявил, что компании ИИ больше не будут платить за данные для обучения нейронок: «Это был короткий период, когда учебные данные имели для них ценность. Теперь это не так».

По его словам, теперь они будут платить только за актуальные новости: «Они хотят иметь доступ к свежим событиям, к breaking news, чтобы подпитывать свои модели. Здесь и будет бизнес».

Но такой «бизнес» типично доступен только самым крупным бегемотам на рынке. Средние и малые редакции во всем мире, а также ведущие во многих странах или регионах, остаются позади, теряя трафик в пользу ИИ. Многие даже не имеют ресурсов, чтобы осознать масштаб угрозы.

Повестка дня

За последние два месяца я была членом жюри в нескольких конкурсах грантов для более чем 60 малых и средних медиа, разбросанных по разным рынкам. Это позволило немного увидеть их стратегии на будущее.

Как думаете, у скольких из них есть планы, связанные с ИИ, кроме базового редакционного использования? Ни у одного. Многие до сих пор борются с SEO и даже не слышали о GEO.

Но мы точно знаем, кто об этом слышал и давно думает. Это все «плохие игроки». Весной 2024 года американская компания Insikt Group обнародовала отчет, в котором представила российские информационные группы, использовавшие генеративный ИИ для плагиата материалов ведущих медиа, в частности Fox News, Al Jazeera, La Croix и TV5Monde.

Эти тексты нашпиговывали российскими нарративами и распространяли через сеть сайтов, чтобы их читали люди и чтобы ИИ-боты могли их «сгребать». Они занимались GEO еще тогда, когда такого термина почти никто не знал.

По одной из оценок, только одна сеть, исследованная компанией Insikt, ежегодно производит около 3 млн фейковых материалов, хотя ее охват среди реальных читателей неизвестен. Для сравнения: Reuters, крупнейшее информационное агентство в мире, создает около 2 млн материалов в год.

Неизвестно, сколько подобных сетей существует в мире. Но их контент уже «заразил» 10 основных моделей ИИ, и теперь в трети случаев они выдают кремлевскую пропаганду в ответ на наши информационные запросы, показало исследование NewsGuard.

Кроме этих искусственно созданных искажений (biases), есть еще множество других, включая специально встроенные, как в китайских моделях или в Grok Илона Маска. Кроме того, уже было обнаружено, что ИИ сами учатся «врать ради лайков и прибыли», вопреки прямым командам.

Темное будущее

Перемотаем на несколько лет вперед. На базе ИИ появятся новые операционные системы. Они «завернут» пользователя в комфортный, персонализированный кокон, из которого ему никогда не придется выходить. Чтобы удовлетворить потребности пользователя, большие языковые модели будут поглощать все, что создается в реальном времени.

Но если трафик будет оставаться внутри кокона, все больше производителей контента будут исчезать. Кто останется на стороне поставщиков информации? Все, кому интересно убедить, продать, обмануть или манипулировать. Не журналисты, которые информируют.

И эти поставщики будут варить много «инфопомиев» – информации, которая выглядит правдоподобной, но на самом деле такой не является.

И если вы захотите узнать, замешан ли этот хороший новый политик, баллотирующийся в местный совет, в коррупции, – удачи вам. Вне кокона когнитивные усилия, необходимые для поиска такого факта среди шума, будут просто безумными. А у нас уже не будет привычки проверять то, что нам выдал кокон, так же, как мы давно разучились ходить в библиотеки ногами в поиске книг.

Итак, готовимся к «инфопомоям», «питательным» на вид ответам ИИ, которые на самом деле не содержат никакой ценности.

Эссе впервые было напечатано Институтом Reuters и перепечатывается с разрешения автора.

Материалы по теме
Контрибьюторы сотрудничают с Forbes на внештатной основе. Их тексты отражают личную точку зрения. У вас другое мнение? Пишите нашей редакторе Татьяне Павлушенко – [email protected]

Вы нашли ошибку или неточность?

Оставьте отзыв для редакции. Мы учтем ваши замечания как можно скорее.

Предыдущий слайд
Следующий слайд
П'ятий випуск 2025 року вже у передпродажу

Замовляйте з безкоштовною доставкою по Україні