Современные системы искусственного интеллекта, включая нейросети, всё чаще используются в качестве виртуальных психологов, однако такие сервисы могут нести серьёзные риски утечки персональной информации. Об этом RT рассказал Юрий Силаев, заведующий лабораторией доверенного искусственного интеллекта РТУ МИРЭА.
По словам эксперта, многие ИИ-платформы сохраняют пользовательские запросы для последующего обучения моделей. Если данные не обезличиваются должным образом, откровенные разговоры — в том числе о личных переживаниях и травмах — могут остаться в логах или даже попасть в открытые датасеты.
Кроме того, разработчики часто получают доступ к пользовательским данным для анализа и улучшения сервисов, что повышает риск внутренних утечек.
«Технические уязвимости тоже представляют опасность. Ошибки в настройке облачных хранилищ или API могут привести к тому, что переписки станут доступны для посторонних. Бывали случаи, когда из-за неправильной конфигурации базы данных открывались для доступа из интернета», — отметил Силаев.
Эксперт также обратил внимание на так называемые атаки на саму модель искусственного интеллекта: с помощью специальных методов злоумышленники могут попытаться восстановить отдельные фрагменты данных, на которых обучалась нейросеть, и частично реконструировать личные диалоги пользователей.
Не стоит забывать и о классических рисках — фишинге и взломе аккаунтов. Если злоумышленник получает доступ к учётной записи, он может ознакомиться с историей переписки с ИИ-ассистентом.
Чтобы минимизировать возможные угрозы, Силаев советует выбирать сервисы с прозрачной политикой конфиденциальности и сквозным шифрованием.
«Лучше удалять историю диалогов и не передавать нейросетям персональные данные, по которым можно однозначно вас идентифицировать. Оптимальным вариантом остаётся локальная обработка — в таком случае ваши разговоры не покидают устройство», — подчеркнул специалист.
По мнению эксперта, ИИ действительно способен помочь в вопросах психологической поддержки, однако пользователям важно осознавать потенциальные риски и подходить к выбору сервисов максимально ответственно.
Ранее глава некоммерческой организации Machine Intelligence Research Institute, бывший инженер компаний Google и Microsoft Нейт Соарес заявил, что риск гибели человечества из-за развития искусственного интеллекта (ИИ) составляет «минимум 95%».
Свежие комментарии