Генеративные модели стали инструментом как для сотрудников ИТ-компаний, например в части написания кода, так и для киберпреступников, которые используют ИИ для атак на корпоративные системы, рассказал RT ведущий аналитик отдела мониторинга ИБ «Спикател» Алексей Козлов.
«Основных сценариев использования ИИ злоумышленниками несколько.
Первый — фишинг. ИИ помогает атакующим снижать «стоимость» атаки и масштабировать её. Если раньше для создания фишинга требовались специалисты, то теперь достаточно нескольких запросов к модели. В 2025 году около 80% фишинговых писем создаются с использованием какой-либо формы ИИ. Второй — дипфейки и голосовое клонирование: каждый десятый взрослый в мире уже столкнулся с мошенничеством с использованием ИИ-клонирования голоса. В случае с юрлицами дипфейки используются как один из начальных этапов развития атак, направленных на кражу конфиденциальной информации, денег или на получение доступа к внутренним системам», — рассказал киберэксперт.Третьим сценарием эксперт назвал разработку вредоносного ПО.
«Нейросети могут генерировать не только убедительные фишинговые сообщения, но и могут помочь с написанием кода для веб-сайтов, которые имитируют официальные сайты компаний. А в случае с написанием кода нейросети могут анализировать существующие образцы вредоносного ПО и генерировать новые варианты, которые сложнее обнаружить», — добавил он.
Ранее в Управлении по организации борьбы с противоправным использованием информационно-коммуникационных технологий МВД России заявили, что мошенники могут подделать документы и с ними обратиться к оператору связи для получения дубликата SIM-карты.
Свежие комментарии