Компания Anthropic, разработчик ИИ‑модели Claude, вступила в открытый конфликт с Пентагоном из‑за отказа снять ключевые ограничения на военное использование своего искусственного интеллекта. История показывает, как быстро ИИ превращается в поле борьбы между безопасностью, военной мощью и бизнес‑интересами. Пентагон добивается, чтобы во всех ИИ‑контрактах действовала формула «для любого законного использования» – без специальных запретов на отдельные сценарии. Anthropic же изначально прописала жёсткие ограничения: запрет на массовую внутреннюю слежку и на полностью автономные вооружения, которые могут наносить удары без участия человека.
В январе военное ведомство предъявило компании фактически ультиматум: либо убрать эти ограничения, либо готовиться к расторжению контракта и возможному применению Закона о производстве в оборонных целях (Defense Production Act). Речь идёт о соглашении объёмом около 200 млн долларов и доступе Claude к целому ряду засекреченных задач. Генеральный директор Anthropic Дарио Амодеи заявил, что компания «не может по совести» исполнить требование Пентагона снять защитные барьеры с Claude. По его словам, Anthropic поддерживает использование ИИ для защиты США и демократий, но не готова превращать свои модели в основу тотального надзора или «киллер‑роботов».
Читайте также
ИИ выбрал деньги будущего: почему биткоин — для сбережений, а стейблкоины — для платежей
Anthropic подчёркивает, что Claude уже применяют для развед аналитики, моделирования, оперативного планирования и киберопераций в ряде американских структур национальной безопасности. При этом он проводит красную линию: «Сегодня передовые ИИ‑системы слишком ненадёжны, чтобы питать полностью автономное оружие… Мы не будем сознательно поставлять продукт, который ставит под угрозу военных и гражданских».
На фоне спора Пентагон начал рассматривать вариант признать Anthropic «риском для цепочек поставок» – по сути, это чёрный список для ключевых военных подрядов. Одновременно обсуждается противоположный по смыслу шаг – задействовать Defense Production Act, который, наоборот, признаёт продукт критически важным для нацбезопасности и расширяет полномочия государства по его использованию.
Сам Амодеи называет такую комбинацию угроз внутренне противоречивой: один ярлык делает компанию «угрозой безопасности», другой – её технологию «жизненно важной» для обороны. Общественные активисты считают, что это не только давление на Anthropic, но и сигнал всем крупным ИИ‑игрокам: Пентагон ждёт от них максимально свободного доступа к моделям.
Почему это важно для будущего ИИ
Спор разгорелся на фоне исследований, показывающих, что современные большие языковые модели в военных сценариях склонны к эскалации. В эксперименте King’s College London модели от OpenAI, Anthropic и Google приводили к применению ядерного оружия в 95% симуляций кризисов, часто неправильно интерпретируя «туман войны» и усиливая конфликт вместо деэскалации. На этом фоне «скромные» с точки зрения правозащитников ограничения Anthropic – запрет на массовую слежку и полностью автономные системы поражения – выглядят минимально необходимым барьером. Исход противостояния покажет, сможет ли ИИ‑индустрия отстаивать собственные этические рамки перед лицом государственного запроса на максимально гибкое военное применение.





