Дипфейки – это реалистичная подделка фото, видео или голоса, созданная с помощью ИИ. Все, наверняка, видели завирусившееся этой весной изображение Папы Римского в огромном пуховике. Но такие фейки – это не самое страшное, что может создать компьютер. Мошенники выдают себя за руководителей крупных компаний, в том числе криптобирж, и вымогают деньги у пользователей. С такой проблемой сталкивался и Илон Маск, голос которого подделали и предлагали через Twitter инвестировать в очевидный скам. И биржа Binance, когда хакеры выдали себя за коммерческого директора компании. Тогда злоумышленники от лица Патрика Хиллманна (Patrick Hillman) созванивались через Zoom c представителями криптопроектов и предлагали свою помощь в листинге на бирже за определенное вознаграждение. Схема раскрылась после того, как заинтересованные решили связаться непосредственно с Хиллманном.

И если пока еще, при желании и пристальном внимании, можно отличить реальность от фальсификации, то в будущем это сделать будет все сложнее. Директор по безопасности Binance Джимми Су (Jimmy Su) считает, что технология дипфейков будет совершенствоваться. Случаев, когда хакеры используют поддельный контент для обхода системы верификации (KYC) на криптобиржах, становится больше. Дипфейки даже могут выполнять некоторые команды, которые задают пользователям для проверки личности. Например, моргнуть правым глазом, посмотреть вверх или влево. Поэтому развитие инструментов ИИ и связанное с этим улучшение качества дипфейков представляет реальную проблему для общества в принципе, и для криптосообщества – в частности. Одним из способов разрешения этой сложной ситуации Джимми Су видит в обучении пользователей управлению рисками. Binance даже планирует выпустить серию постов в блоге, посвященной этой теме.
В недавнем отчете KPMG, одной из крупнейших аудиторских компаний, также говорится о масштабах кибератак, связанных с ИИ. Последствия могут быть самыми разными – от огромных финансовых потерь до репутационных. KPMG напоминает случай 2020 года, когда менеджер филиала гонконгской компании перевел мошенникам $35 млн, потому что поверил, что разговаривал по телефону с начальником. Мыслей о том, что это был дипфейк, у сотрудника не возникло. Сейчас возможностей у хакеров еще больше.
В опросе, который проводила KPMG, почти все респонденты (92%) заявили, что они умеренно или сильно переживают из-за рисков внедрения ИИ. К слову, среди участников исследования были 300 руководителей из различных отраслей и регионов. И не только компании опасаются дипфейков, правительства и регуляторы тоже держат ухо востро. Федеральная избирательная комиссия США, например, недавно выступила с петицией о запрете использования ИИ в предвыборной рекламе, так как предполагает, что может случиться наплыв поддельного контента, созданного нейросетью. Событие все-таки масштабное.
Гэри Генслер, выступая 12 сентября перед банковским комитетом Сената, сообщил, что ИИ и дипфейки представляют реальный риск для рынков и могут «бросить вызов» законам США. Однако SEC в некоторых случаях и сама использует искусственный интеллект для надзора за рынком.
Как же не повестись на дипфейк? Исследователи из Массачусетского технологического института предлагают внести небольшие изменения в код, которые бы изменили работу языковых моделей, чтобы они генерировали не совсем реалистичные изображения. Но пока этого не случилось, нужно быть предельно внимательным и задавать дополнительные вопросы, если возникают сомнения. Особенно в случаях денежных транзакций.