Правила фильтрации контента, модерирование онлайн-пространств и инспектирование развлекательных источников — сложная задача для человека, постоянное балансирование между креативностью и осторожностью. Искусственный интеллект (ИИ) можно использовать для выявления неподходящего материала в интернете, научить находить грань между инновациями и этическими проблемами в цифровых пространствах.
Отдельное направление разработки моделей ИИ для управления контентом — NSFW ИИ («not suitable for work» — неподходящее для работы). NSFW ИИ разработан для обработки изображений, видео, текста и других форм цифровых медиа. Он используется в системах модерации контента на платформах социальных сетей, развлекательных сайтах и в креативных инструментах на основе ИИ. NSFW ИИ также хорош для обнаружения и блокировки вредоносного контента в режиме реального времени и используется в мессенджерах и в корпоративных сетях для защиты конфиденциальности и безопасности.
Однако по мере развития NSFW ИИ становится способным генерировать собственный контент. Это вызывает опасения по поводу возможности создания вредного или ненадлежащего материала без человеческого контроля. Становится актуальным вопрос ответственности и этичности ИИ.
Системы NSFW ИИ часто требуют доступ к персональным данным, что беспокоит пользователей в связи с соблюдением конфиденциальности. Обученные на предвзятых данных, системы могут привести к ошибкам цензурирования и допуска. Большой проблемой является баланс между модерацией контента и свободой слова и вероисповедания. Системы становятся точнее и эффективнее, однако ведь этические вопросы могут потребовать специальных правил ответственного использования ИИ.
Регулирование отрасли ИИ постепенно переходит на новый уровень. На днях Совет по финансовой стабильности (FSB) опубликовал документ «Влияние искусственного интеллекта на финансовую стабильность». На основе анализа использования нейросетей в мировом финансовом секторе в нем обоснован призыв ужесточить контроль за технологией ИИ.
Министерство электроники и информационных технологий Индии разрабатывает добровольные руководящие принципы и этические стандарты для организаций, занимающихся ИИ и операциями с генеративным ИИ. Это будет свод неформальных руководящих принципов для организаций, которые разрабатывают большие языковые модели (LLM) или используют данные для обучения ИИ. Пока эти рекомендации отозваны на доработку, но правительство Индии готовится официально их опубликовать в начале 2025 года.
Станет ли искусственный разум этичным? И какой будет его этика?