ИИ предсказывает выборы и рыночные тренды. Как и предполагалось.

Децентрализованное управление: еще чуть-чуть — и все его признают
Китайские ученые из Фуданьского университета (Fudan University) разработали интеллектуальную систему социального моделирования SocioVerse. Эта система, как утверждают исследователи, способна предсказывать поведение больших групп людей. Система базируется на работе LLM-агентов (Large Language Model, LLM — большие языковые модели), обученных на данных от 10 млн реальных пользователей. Ее структура состоит из четырех отдельных модулей: социальной среды, пользовательского движка, сценарного и поведенческого механизмов. Чтобы имитировать реалистичные реакции, система SocioVerse анализирует демографические данные, исторический контекст и текущие события.
Эксперименты показали, что алгоритмы точно воспроизводят потребительские привычки, прогнозируют результаты выборов и реакции на новости. Например, модели GPT-4o и Qwen2.5-72b корректно предсказали более 90% исходов голосования на президентских выборах в США. В тестах Llama3-70b точно воспроизвела траты населения в Китае, а GPT-4o-mini продемонстрировала высокую согласованность с общественным мнением в новостных симуляциях. При этом DeepSeek-R1-671b долго рассуждала и часто показывала избыточную осторожность, снижающую точность прогнозов.
Однако потенциал этой технологии выходит за рамки академических исследований. Получается, что ИИ может прогнозировать реакцию трейдеров на новости, предугадывать спрос на товары или даже имитировать политические предпочтения. Такие результаты исследования ставят вопрос: сможет ли ИИ заменить традиционные опросы, а в перспективе — и выборы? Тогда волеизъявление рискует стать формальностью, а решения — результатом машинного расчета, но не человеческого выбора. Ведь если алгоритмы научатся предсказывать исход выборов с минимальной погрешностью, зачем проводить голосование? Кроме того, замена опросов ИИ поднимает дополнительные вопросы о прозрачности управления системой: кто контролирует входные данные и интерпретацию результатов? Наконец, делегирование социально значимых решений алгоритмам подрывает базовый принцип демократии — свободу человеческого выбора.
Тем не менее, несмотря на прогресс в развитии интеллектуальных технологий, социальное моделирование имеет фундаментальные ограничения. Реальный мир динамичнее, он изменяется быстрее, чем обновляются данные LLM-моделей. При этом алгоритмы интеллектуальных систем часто демонстрируют предвзятость. Например, в тестах, связанных с OpenAI, GPT-4o-mini искажала оценки справедливости. К тому же симуляции упрощают сложные контексты — в экономических моделях расходы на жилье предсказывались значительно хуже, чем повседневные траты. Таким образом, расхождения между симуляцией и реальностью сохраняются. Это значит, что пока человеческий фактор незаменим. Однако грань между прогнозированием и управлением мнениями миллионов становится день ото дня все тоньше.