dr_bogdanov
dr_bogdanov
........ .............. .. ....................

March 2024
          1 2
3 4 5 6 7 8 9
10 11 12 13 14 15 16
17 18 19 20 21 22 23
24 25 26 27 28 29 30
31

Где правда?...

Искусственный интеллект может служить мошенникам

Летом 2016 года компания ZeroFOX, работающая в сфере информационной безопасности, обнаружила новый вид Twitter-бота под названием SNAP_R.

Он обманывал пользователей, кликающих по ссылкам, перенаправляя их на сомнительные сайты. Он служил автоматизированной фишинговой системой, которая анализировала модели поведения пользователей социальной сети и выясняла их интересы и потребности. В тот момент, когда ничего не подозревающий пользователь пролистывает ленту новостей, бот подкидывает ему какую-нибудь запись вида «Археологи обнаружили могилу Александра Великого на территории США. Подробности по ссылке goo.gl/KjdQYT».

Бот справлялся с получением кликов по ссылкам ничуть не хуже, чем живые хакеры: 66 % пользователей нажимали на ссылку.

SNAP_R не преследовал никакой вредоносной цели, поскольку представлял собой лишь рабочую концепцию. Но сам факт его существования предупреждает нас еще раз, насколько осторожными нам следует быть в мире фейковой информации.

В это же время два исследователя построили нейросеть, которая способна обучаться на основе анализа больших объемов данных. К примеру, она научилась распознавать изображения с собаками, проанализировав тысячи других изображений. Смогла распознавать устную речь, обучившись на базе данных записей разговоров с технической поддержкой. И, конечно, она вполне может генерировать фишинговые сообщения, анализируя посты в Twitter и Reddit и известные случаи онлайн-атак.

Математические мощности искусственного интеллекта используются сегодня повсеместно во многих сферах — от распознавания речи до перевода текста. Эти же мощности отлично могут работать на обман тысяч интернет-пользователей.

Шахар Авин, исследователь Центра экзистенциальных рисков в Кембриджском университете, настроен отнюдь не оптимистично: «Будет странно, если технологии не будут использованы в мошеннических целях. Всё к этому и идет».

У многих экспертов в сфере технологий серьезные вопросы вызывает искусственный интеллект, который генерирует Deepfakes — сфабрикованный визуальный контент, крайне похожие на настоящий. Инструмент, который когда-то мог лишь подставить изображение головы вашего друга к телу порнозвезды в ролике, теперь умеет беспрепятственно встроить любые изображения и аудио в любое видео.

В апреле ресурс BuzzFeed вместе с комиком Джордано Пилом выпустили фейковое видео, в котором Барак Обама произносит фразу: «Не стоит верить всему, что вы слышите или видите в интернете».

Фальсифицировать контент теперь может каждый

Ученые разрабатывают всё более совершенные системы искусственного интеллекта, которые обучаются на всё больших объемах данных. Нейросети умеют создавать не только изображения, но и аудиоконтент — благодаря этому голосовые помощники вроде Siri сегодня звучат гораздо естественнее, чем несколько лет назад.

ЧИТАЙТЕ ТАКЖЕ:Программируемая материя: как роботы облегчат нашу жизнь — и поставят ее под угрозу

From:
(will be screened)
Identity URL: 
имя пользователя:    
Вы должны предварительно войти в LiveJournal.com
 
E-mail для ответов: 
Вы сможете оставлять комментарии, даже если не введете e-mail.
Но вы не сможете получать уведомления об ответах на ваши комментарии!
Внимание: на указанный адрес будет выслано подтверждение.
Username:
Password:
Subject:
No HTML allowed in subject
Message:



Notice! This user has turned on the option that logs your IP address when posting.