
Директор центра киберзащиты Cloud.ru Сергей Волков рассказал RT о том, как минимизировать угрозы утечки конфиденциальной информации при использовании искусственного интеллекта, и назвал ключевые правила безопасной работы с ИИ-сервисами.
По словам Волкова, ИИ-модели, как и любой ИТ-сервис, могут быть скомпрометированы, что приведёт к раскрытию чувствительных данных третьим лицам.
Он отметил, что при личном использовании ИИ следует передавать на вход минимальный объём информации, необходимый для ответа, и не разглашать конфиденциальные сведения.«Не стоит делиться с ИИ чувствительными данными, например, номерами паспортов, карт, адресами, телефонами, медицинскими заключениями и т. д.», — подчеркнул Волков.
Эксперт добавил, что безопаснее работать через официальные ресурсы, проверяя их репутацию, а для бизнеса особенно важно использовать ИИ-сервисы с гарантированным уровнем защиты. В русскоязычном сегменте он рекомендовал пользоваться отечественными моделями, соответствующими требованиям российского законодательства.
«Запросы через условный сайт GigaChat гораздо безопаснее работы через очередной бот в мессенджере», — отметил директор центра киберзащиты.
Волков также призвал применять сложные уникальные пароли, двухфакторную аутентификацию, изучать и активировать настройки приватности, а в корпоративной среде — следовать внутренним правилам, разработанным специалистами по кибербезопасности.
По его словам, на российском рынке появляются решения, которые блокируют попытки передачи конфиденциальных данных внешним ИИ-моделям.
Ранее доцент Финансового университета при правительстве России Пётр Щербаченко рассказал, что телефонным мошенникам присущ агрессивный стиль разговора.
Свежие комментарии