Институт будущей жизни (Future of Life Institute, FLI) представил индекс безопасности искусственного интеллекта (ИИ) на 2024 год (AI-Safety-Index-2024). AI-Safety-Index применяется для сравнения ведущих компаний, разрабатывающих системы ИИ, и стимулирования ответственного подхода к развитию ИИ-технологий.
Для оценки индекса была создана независимая комиссия, состоящая из всемирно известных экспертов в области ИИ, приглашённых президентом FLI, профессором Массачусетского технологического института (MIT) Максом Тегмарком (Max Tegmark).
Комиссия выставляла баллы шести компаниям, лидерам в сфере ИИ: Anthropic, Google DeepMind, Meta, OpenAI, x.AI и Zhipu AI. Их деятельность анализировалась по шести критериям:
— оценка рисков (Risk Assessment),
— текущие угрозы (Current Harms),
— рамочные принципы безопасности (Safety Frameworks),
— стратегии предотвращения экзистенциальных рисков (Existential Safety Strategy),
— управление и ответственность (Governance & Accountability),
— прозрачность и коммуникация (Transparency & Communication).
Эксперты использовали как общедоступную, так и предоставленную компаниями информацию. Оценка проводилась по шкале от А до F, где А – компания имеет детальное понимание рисков, связанных с ИИ, векторы угроз и их вероятность, F – компания не занимается оценкой риска. Наибольшее количество баллов набрала Anthropic, наименьшее – Meta.
Результаты расчета индекса безопасности ИИ 2024. Источник: https://futureoflife.org
По результатам работы комиссия настаивает на необходимости усиления мер безопасности и повышения уровня ответственности «в стремительно развивающейся области искусственного интеллекта». Несмотря на то, что некоторые компании, в первую очередь Anthropic, демонстрируют достойные результаты, в целом существуют серьёзные пробелы в ответственности, прозрачности и готовности справляться как с текущими, так и с экзистенциальными рисками. Передовые системы ИИ, по мнению экспертов, остаются уязвимыми для взломов защитных механизмов. Ни одна из компаний не представила надёжную стратегию контроля за продвинутыми системами ИИ, что «вызывает особое беспокойство, учитывая их явные амбиции разработать мощный искусственный общий интеллект (AGI)».
«Пугает то, что компании, чьи лидеры предсказывают возможность конца человечества из-за ИИ, не имеют никакой стратегии для предотвращения этого исхода», — высказался один из экспертов, Дэвид Крюгер (David Krueger), представитель Монреальского университета.
Солидарен с ним и Стюарт Рассел (Stuart Russell), профессор информатики из Калифорнийского университета в Беркли: «Результаты проекта AI Safety Index показывают, что, хотя в компаниях, занимающихся разработкой ИИ, ведётся большая работа под знаменем «безопасности», её эффективность пока оставляет желать лучшего».
Подробнее с отчетом можно познакомиться по ссылке https://futureoflife.org/document/fli-ai-safety-index-2024/