| |||
![]()
|
![]() ![]() |
![]()
Вот и настал ПЦ медиа-пространству: как и было обещано по закону Донды (все заранее придумал Лем) Что говорилось в этом журнале 6 лет назад: системы переработки информации и комбинаторного генерирования из нее неограниченного количества нового бессмысленного контента по заданным признакам психологической кликабельности - работают непрерывно... Практически это значит, что человечество вернется от глобального информационного мира - к информационному обмену между знакомыми. * Что говорилось 2 месяца назад: последние 10, а то и 15 лет все ведущие политические режимы и партии, все крупнейшие финансовые институты и инструменты, все транснациональные и национальные супер-корпорации держатся исключительно на фейках, принимаемых на веру значительной долей (от 33% до 67%, в особых случаях до 83%) населения.** ![]() Теперь свежее, сегодняшнее, с DW Новостные выпуски, создаваемые с помощью искусственного интеллекта, заполоняют вашу ленту в соцсетях. При этом распознать их становится все сложнее... ...Социальные сети от TikTok до Telegram полны такими выпусками новостей - видео, созданными искусственным интеллектом и имитирующими внешний вид и атмосферу реальных новостных сюжетов. Они заимствуют визуальный язык журналистики: репортажи с места событий, экранную графику, авторитетную подачу. Но они полностью сфабрикованы, часто предназначены для того, чтобы вызвать возмущение, манипулировать мнением или просто стать вирусными. "Если вы быстро прокручиваете ленту в социальных сетях, это выглядит как новость, звучит как новость, и в этом опасность", - говорит Хани Фарид, эксперт по цифровой криминалистике и профессор Калифорнийского университета в Беркли... ...Последствия выходят далеко за рамки социальных сетей. В 2024 году тайваньские исследователи обнаружили на местных платформах созданные ИИ новостные выпуски, в которых ложно обвинялись в коррупции политики, выступающие за суверенитет острова. Эти ролики не просто распространяли дезинформацию - они сеяли недоверие, подрывая авторитет всех новостных агентств в преддверии выборов в стране. ...как отличить настоящее видео от подделки? Начните с водяных знаков. Такие сервисы, как Veo, Synthesia и другие, часто маркируют свои видео, хотя эти метки иногда размыты, обрезаны или игнорируются. Даже четко обозначенные клипы часто пестрят комментариями с вопросом: "Это настоящее?" По словам Хани Фарида, обнаружение сгенерированного ИИ контента - "сложная задача" как поражение движущейся цели: "Все, что я вам сегодня расскажу о том, как обнаружить фейки ИИ, может оказаться неактуальным через полгода". ...Такие инструменты, как Veo, теперь позволяют практически любому человеку без медиа-подготовки создавать отшлифованные видеоролики в стиле прямой трансляции всего за несколько сотен евро в месяц. Ведущие в таком видео говорят плавно, двигаются реалистично и могут быть помещены практически в любую сцену с помощью нескольких команд, заданных с помощью клавиатуры. "Барьер для входа (в производство медиа-контента. - Ред.) практически исчез. Вам не нужна студия. Вам даже не нужны факты", - говорит Фарид. Большинство этих клипов созданы для максимального вовлечения пользователей. Они затрагивают очень спорные темы - миграция, война в Газе, Украина, Дональд Трамп - чтобы вызвать сильные эмоциональные реакции и побудить к дальнейшему распространению этих видео. Социальные сети часто намеренно продвигают такой контент. Например, Meta недавно скорректировала свой алгоритм, чтобы показывать больше постов с аккаунтов, на которые пользователи не подписаны, что облегчает охват созданных ИИ видео широкой, ничего не подозревающей аудиторией. Программы монетизации дополнительно стимулируют создателей: чем больше просмотров набирает видео, тем больше денег оно может принести. Сделать легкие деньги на "искусственном хламе" Эта среда породила новое поколение создателей "искусственного хлама" – пользователей, которые штампуют низкокачественный ИИ-контент, привязанный к трендовым темам просто, чтобы набрать просмотры. Эти аккаунты часто публикуют срочные новости, прежде чем журналисты успевают подтвердить факты. Во время недавней авиакатастрофы в Индии десятки видеороликов в TikTok были представлены ИИ-аватарами, стилизованными под репортеров CNN или BBC, которые транслировали фальшивые цифры жертв и сфабрикованные свидетельства очевидцев. Многие оставались в сети часами, прежде чем их удаляли. В моменты выхода срочных новостей, когда пользователи активно ищут информацию, реалистичный ИИ-контент становится особенно эффективным способом получить большое число просмотров и заработать на общественном внимании. "Платформы ослабили модерацию контента. Это идеальный шторм: я могу создавать контент, могу его распространять, и есть аудитория, готовая ему верить", - отмечает Фарид.*** ...Такие дела... --------------------------------------- *) 2019-10-17 Закон Донды: коллапс знаний при сверхкритической плотности информационного мусора. https://alex-rozoff.livejournal.com/1659 **) 2025-05-18 У разбитого медиа-корыта: закон Донды 1973 года срабатывает чуть иначе, чем предсказывал Лем https://alex-rozoff.livejournal.com/8864 ***) Фактчек DW: Как распознать новости, созданные ИИ https://www.dw.com/ru/faktcek-dw-kak-ras |
||||||||||||||
![]() |
![]() |