На информационном ресурсе применяются рекомендательные технологии (информационные технологии предоставления информации на основе сбора, систематизации и анализа сведений, относящихся к предпочтениям пользователей сети "Интернет", находящихся на территории Российской Федерации)

RT Russia

11 640 подписчиков

Свежие комментарии

  • Eduard
    Чехи сволочи,эти снапяды нашихлюдей убивают,Павел: Киев получ...
  • Юрий Зубрин
    Ну ,не может дерьмо смириться с тем  ,что его все забыли ,надо о себе напомнить ,вонь то улетучилась ,надо насрать ,ч...Стендапер Незлоби...
  • Юрий Зубрин
    Кто бы сомневался ,как только-так сразу все ПЯТЬ эстонских педерастов возьмут в окружение российские войска!Глава МИД Эстонии...

IT-эксперт Зыков объяснил, может ли дипфейк-видео обмануть Face ID

Опасения, что дипфейк-видео могут обмануть Face ID или системы селфи-верификации на криптобиржах, несколько преувеличенные, рассказал в беседе с RT главред IT-издания Runet Владимир Зыков.

«Современные биометрические системы, включая Face ID, используют не просто изображение лица, а трёхмерное сканирование, анализ глубины и даже инфракрасное сканирование, что делает обычные фото и видео бесполезными для обхода защиты», — отметил он.

По его словам, большинство крупных финансовых сервисов и криптобирж применяют технологии так называемой проверки «живости».

«То есть система просит пользователя выполнить случайные действия, анализирует микродвижения, глубину изображения и другие параметры, позволяющие выявить подмену. Тем не менее риск полностью исключать нельзя», — поделился он.

Уязвимыми могут оказаться сервисы с упрощённой 2D-верификацией, а также случаи, когда злоумышленники используют вредоносное ПО для подмены видеопотока или прибегают к социальной инженерии, добавил Зыков.

«Они заставляют жертву пройти селфи-проверку для них, поэтому главный вектор угрозы сегодня — не столько технологический взлом биометрии, сколько манипуляция человеком и компрометация его устройства», — подытожил он.

Ранее IT-эксперт Алексей Маркелов рассказал, что мошенники способны подделать плач и эмоции на дипфейк-аудио.

 

Ссылка на первоисточник
наверх