Пока весь мир говорит о присуждении Нобелевской премии по физике Джону Хопфилду (John Hopfield) и Джеффри Хинтону (Geoffrey Hinton) за работу над искусственным интеллектом (ИИ), представители агентства по кибербезопасности Keeper Security бьют тревогу. По данным проведенного ими исследования, 84% опрошенных руководителей ИТ-компаний и сектора безопасности полагают, что усовершенствованные ИИ-инструменты усугубили проблему обнаружения фишинговых и смишинговых атак (smishing — вариант фишинга через SMS и посты в мессенджерах). Более половины (51%) респондентов считают атаки с помощью ИИ серьезной угрозой, 35% опрошенных говорят о плохой подготовке к их отражению.
Специалисты отмечают, что мошенники чаще всего используют ИИ для изменения данных при обучении моделей, что в будущем приведет к их неправильной работе. Происходит также «отравление данных» — их искажение, влияющее на точность и достоверность модели — и автоматизация и усиление кибератак.
Эксперты рекомендуют придерживаться нескольких ключевых стратегий безопасности для предотвращения и смягчения последствий применения ИИ в мошеннических схемах.
1. Шифрование данных. По материалам Keeper Security, около половины респондентов используют шифрование как основную защиту от несанкционированного доступа.
2. Обучение и повышение осведомленности сотрудников. 45% организаций из опрошенных обучают сотрудников распознавать и противодействовать вторжениям с использованием ИИ.
3. Усовершенствованные системы выявления угроз. 41% респондентов инвестируют в эту область для улучшения обнаружения и ускорения реагирования.
Кроме основных стратегий противодействия злоумышленникам, эксперты советуют применять расширенные фреймворки безопасности (совокупность процедур для защиты организации от киберугроз и оценки их риска), такие, как Zero Trust, Privileged Access Management (PAM), и др. Zero Trust, например, требует, постоянной проверки всех пользователей, устройств и приложений, что снижает риск несанкционированного доступа и минимизирует потенциальный ущерб во время атаки. PAM обеспечивает целевую безопасность для самых конфиденциальных учетных записей организации.
Представители АО «Лаборатория Касперского» также много говорят о кибербезопасности, связанной с ИИ, и предлагают создать «единый центр исследования безопасности в области искусственного интеллекта». Его работа может быть организована по примеру CERT (Computer Emergency Response Team – группа реагирования на компьютерные инциденты) для быстрого выявления и реагирования. Важным моментом, по мнению специалистов, является законодательное регулирование вопроса использования ИИ.
Как видим, на смену воодушевлению от громадных возможностей ИИ приходит осознание связанных с ним угроз. А понимание проблемы – первый шаг на пути ее решения.