На информационном ресурсе применяются рекомендательные технологии (информационные технологии предоставления информации на основе сбора, систематизации и анализа сведений, относящихся к предпочтениям пользователей сети "Интернет", находящихся на территории Российской Федерации)

RT Russia

11 621 подписчик

Свежие комментарии

  • Андрей Зарубкин
    Цыганки бракосочетаются в 10..12 лет.Путин назвал хоро...
  • Андрей Зарубкин
    Федеральная Резервная Система США была основана с использованием царского золота. Почеиу бы не потребовать проценты з...Набиуллина: ЦБ не...
  • Андрей Зарубкин
    В Германской Демократической Республике за первого ребенка в семье списывали 25% ипотечного кредита на жилье, за 2-х ...Депутат Буцкая пр...

IT-эксперт Силаев: мошенники клонируют голос для совершения преступлений

Заведующий лабораторией доверенного искусственного интеллекта РТУ МИРЭА Юрий Силаев рассказал в беседе с RT, каким образом мошенники могут подделывать голоса близких людей.

«Технология голосового клонирования с помощью искусственного интеллекта перестала быть футуристической концепцией и превратилась в реальный и чрезвычайно опасный инструмент в руках мошенников», — рассказал он.

Ещё год назад для создания правдоподобной копии голоса требовались значительные вычислительные мощности и десятки минут чистого аудио, поделился специалист.

«Сегодня же для этого существуют общедоступные сервисы. Для создания убедительной модели порой достаточно образца речи длиной в несколько секунд», — отметил он.

Последующие попытки психологического воздействия и атаки мошенников нацелены на самое уязвимое — наши эмоции и инстинкт защитить близкого человека в беде, пояснил эксперт.

«Источники для сбора голосового материала у мошенников крайне обширны. В первую очередь, это видео в социальных сетях. А выступления в СМИ, подкасты и прямые эфиры — золотая жила для злоумышленников. Речь там обычно чистая и непрерывная», — предупредил он.

Не менее уязвимы мессенджеры, продолжил Силаев.

«Достаточно нескольких голосовых сообщений в семейном или рабочем чате, чтобы предоставить мошенникам исчерпывающий материал. Но что действительно тревожно, так это то, что злоумышленники могут добыть образец голоса и при прямом звонке жертве», — подчеркнул он.

Ранее IT-эксперт Илья Назаров рассказал, что развитие искусственного интеллекта нивелирует способы цифровой защиты.

 

Ссылка на первоисточник
наверх