На информационном ресурсе применяются рекомендательные технологии (информационные технологии предоставления информации на основе сбора, систематизации и анализа сведений, относящихся к предпочтениям пользователей сети "Интернет", находящихся на территории Российской Федерации)

RT Russia

11 632 подписчика

Свежие комментарии

  • Андрей Зарубкин
    Репарации выплачивает проигравшая сторона.Ирландский эконом...
  • Александр Лагуткин
    Где была сама Роднина, когда России было тяжело в 90-е? Отсиживалась в США. Сейчас приткнулась к депутатским жаловани...«Надо поддержать,...
  • Юрий Московский
    Поляки всегда были хапугами и неблагодарными тварями ... У этой нации это в крови ..В Израиле ответил...

IT-эксперт Зыков: мошенникам достаточно одного фото для дипфейк-видео

Современные ИИ-технологии позволяют создавать убедительные дипфейк-видео, имея всего одну фотографию человека, сказал в беседе с RT главный редактор IT-издания Runet Владимир Зыков.

«Один ИИ может поместить изображение на любой фон и корректно смоделировать освещение, чтобы человек выглядел естественно в новом пространстве.

Затем используется другой ИИ для анимации лица», — поделился он.

По его словам, существуют сервисы, где достаточно записать короткое видео-донор: человек в кадре двигает головой, руками, открывает рот, меняет мимику.

«После этого система накладывает эти движения на фотографию жертвы и та буквально оживает. Весь процесс занимает считаные минуты. Для большинства мошеннических сценариев этого уже достаточно», — пояснил он. 

Например, если в мессенджере пишет «директор» или «руководитель», подписанный своим именем, люди часто верят сообщению, даже не задумываясь о проверке, продолжил эксперт.

«Многие просто даже не помнят точный тембр и манеру речи начальника. Если же нужен и голос — это тоже давно не проблема. Достаточно 20—30 секунд записи. Их можно взять из публичных выступлений, интервью или даже позвонить этому человеку и получить запись в ходе короткого телефонного разговора», — предупредил он.

Современные сервисы клонирования голоса делают результат не идеальным, но вполне убедительным для обмана, разъяснил Зыков.

Единственный надёжный способ проверки в такой ситуации — перезвонить человеку или его помощникам по заранее известному номеру телефона. Мы живём в мире постправды. Голос и видео больше не являются доказательствами», — подытожил он.

Ранее россиян предупредили, что делать в случае взлома аккаунта в соцсетях.

 

Ссылка на первоисточник
наверх