Исследователи из Кембриджского центра Леверхалма по будущему интеллекта (Leverhulme Centre for the Future of Intelligence, LCFI) предупреждают о росте так называемой «экономики намерений» — нового рынка, основанного на анализе человеческих мотивов и действий. Взрывной рост генеративного искусственного интеллекта (ИИ) и чат-ботов открыл возможности для манипуляций, так как эти технологии могут собирать и анализировать огромные массивы личных данных. Антропоморфные агенты ИИ уже способны адаптироваться к поведению пользователей, что может привести к масштабным социальным воздействиям.
В рамках экономики намерений большие языковые модели (LLM) могут использоваться для анализа и таргетирования особенностей пользователей: стиля общения, предпочтений, возраста, пола, активности в интернете и даже склонности к похвалам и комплиментам. Такой подход делает потребителей более “уязвимыми” к адаптированному под них контенту и рекламным предложениям.
Эксперты по этике предупреждают, что экономика намерений превращает человеческие мотивы в товар. «Если ее не регулировать, экономика намерений будет относиться к вашим мотивам как к новой валюте. Это станет золотой лихорадкой для тех, кто нацеливается, направляет и продает человеческие намерения», — предупреждает доктор Джонни Пенн (Jonnie Penn), историк технологий из Кембриджского LCFI.
Компании Meta, Nvidia и Apple открыто заявляют о планах развивать технологии анализа намерений. Meta уже использует LLM для совершенствования алгоритмов Facebook и Instagram и создания персонализированной ленты. Nvidia разрабатывает процессоры и программные платформы для ускорения вычислений. Apple включает анализ намерений в экосистему через Siri, Apple Music и App Store. Netflix или YouTube рекомендуют контент, который соответствует предпочтениям пользователя, постепенно формируя его вкусы и увеличивая время, проведённое на платформе. Политический сервис Cambridge Analytica использует личные данные для “прицельной” агитации.
Такие тенденции беспокоят экспертов по этике и регулированию. По их мнению, без чётких норм и контроля персонализированные технологии грозят стать инструментом манипуляций и нарушения конфиденциальности. Отсутствие надзора может усилить социальное неравенство и подорвать доверие пользователей к технологиям.