На информационном ресурсе применяются рекомендательные технологии (информационные технологии предоставления информации на основе сбора, систематизации и анализа сведений, относящихся к предпочтениям пользователей сети "Интернет", находящихся на территории Российской Федерации)

RT Russia

11 657 подписчиков

Свежие комментарии

  • Вальтер Юпитерский
    Голикова знает, что говорит. Она же женщина и врать не станет.Голикова признала...
  • Виталий Золотухин
    Опять задрапируют Мавзолей В.И. Ленина?Песков заявил, чт...
  • Юрий Зубрин
    Ради сохранения личной власти и ради дальнейшего обогащения бобика эти ТВАРИ готовы младенцев на фронт отправлять ......Нардеп Федиенко: ...

IT-эксперт Силаев: мошенники клонируют голос для совершения преступлений

Заведующий лабораторией доверенного искусственного интеллекта РТУ МИРЭА Юрий Силаев рассказал в беседе с RT, каким образом мошенники могут подделывать голоса близких людей.

«Технология голосового клонирования с помощью искусственного интеллекта перестала быть футуристической концепцией и превратилась в реальный и чрезвычайно опасный инструмент в руках мошенников», — рассказал он.

Ещё год назад для создания правдоподобной копии голоса требовались значительные вычислительные мощности и десятки минут чистого аудио, поделился специалист.

«Сегодня же для этого существуют общедоступные сервисы. Для создания убедительной модели порой достаточно образца речи длиной в несколько секунд», — отметил он.

Последующие попытки психологического воздействия и атаки мошенников нацелены на самое уязвимое — наши эмоции и инстинкт защитить близкого человека в беде, пояснил эксперт.

«Источники для сбора голосового материала у мошенников крайне обширны. В первую очередь, это видео в социальных сетях. А выступления в СМИ, подкасты и прямые эфиры — золотая жила для злоумышленников. Речь там обычно чистая и непрерывная», — предупредил он.

Не менее уязвимы мессенджеры, продолжил Силаев.

«Достаточно нескольких голосовых сообщений в семейном или рабочем чате, чтобы предоставить мошенникам исчерпывающий материал. Но что действительно тревожно, так это то, что злоумышленники могут добыть образец голоса и при прямом звонке жертве», — подчеркнул он.

Ранее IT-эксперт Илья Назаров рассказал, что развитие искусственного интеллекта нивелирует способы цифровой защиты.

 

Ссылка на первоисточник
наверх