Корпорация Google очень серьёзно предупредила, что у пользователей платформ Искусственного интеллекта (ИИ) может развиться «эмоциональная привязанность» к ним. И эта привязанность может принять опасные для личности формы.
Платформы ИИ множатся и совершенствуются, усиливая своё влияние не только на рабочие процессы миллионов людей, но и на быт и межличностные отношения. Виртуальные персональные помощники, работающие на основе ИИ, становятся всё более привычным спутником людей, подобно телевидению, интернету, соцсетям и мессенджерам. В новом документе исследовательской лаборатории искусственного интеллекта DeepMind компании Google подчеркиваются преимущества персонализированных ИИ-помощников искусственного интеллекта и утверждается что они «могут радикально изменить характер работы, образования и творческих занятий», а также стиль и характер общения между людьми. Однако всё сильнее будет проявляться их влияние и на сущностные вещи: кем мы являемся и кем хотим стать.
Согласно исследованию, ключевой риск — в формировании неадекватно тесных связей, которые могут усилиться и усугубиться, если ассистенту представить человеческий образ или лицо. «Эти искусственные агенты могут даже заявлять о своей предполагаемой платонической или романтической привязанности к пользователю, закладывая основу для формирования у пользователей стойкой эмоциональной привязанности к ИИ», — отмечается в документе.
По мнению исследователей, если оставить это без контроля, такая привязанность может привести к потере автономии пользователя и потере его социальных связей, поскольку ИИ может заменить межчеловеческое взаимодействие.
Ясон Габриэль, научный сотрудник исследовательской группы по этике DeepMind и соавтор статьи, полагает, что «все более личные и человекоподобные (антропоморфные) формы помощников ставят новые вопросы, касающиеся этого человекоподобия, конфиденциальности, доверия и соответствующих отношений с ИИ». Сам Габриэль уверен в необходимости дополнительных мер защиты и более продуманного системного подхода к этому новому социальному явлению.
В исследовании отмечается важность согласования вопросов ценностей личности, её безопасности, а также учёта опасности внедрения «неправильных» и просто антигуманных установок при разработке ИИ-помощников.
Возможности манипуляций человеком посредством информации появились далеко не вчера. Механизмы – от «сарафанного радио» и устных преданий, до современного телевидения и интернета. Но, пожалуй, никогда ранее угроза зависимости личности от технологических платформ не была так остра. Простая инфоголия и уход в виртуальный игровой мир может оказаться мелочью по сравнению с ИИ-пассиями, сформированными как бы по запросу и в соответствии с идеалами личности. Конечно, не каждый человек станет следовать совету вроде “подумай, не лучше ли Тебе выйти из этой комнаты через окно”. Однако наряду с тысячами видов расстройств психики, алкоголизмом, наркотиками может появиться куда более опасный субъект манипуляций личностью. Которая сама всё более может превращаться в подчинённый объект.
Чтобы устранить эти риски, команда DeepMind рекомендует разработать систему комплексных оценок для ИИ-помощников и ускорить разработку общественно полезных ИИ-ассистентов. Что дальше – пока не ясно. Ведь регулирование придётся облечь в язык права или каких-то межкорпоративных соглашений. Едва ли это будет просто. Особенно в условиях нарастающей в мире многополярности, в том числе и мировоззренческой.
Рассогласованность “красных линий” для моделей обучения ИИ и отсутствие в моделях блокировок опасностей может быть угрожающей не только отдельным личностям, но и целым сообществам. Или цивилизации вообще. Пол Кристиано, который ранее руководил командой по согласованию языковых моделей в OpenAI, а сейчас возглавляет профильный некоммерческий исследовательский центр (Alignment Research Center) — предупреждает, что неправильные методики обучения ИИ могут закончиться катастрофой.
«Я думаю, что вероятность захвата власти ИИ составляет около 10–20%, и при этом многие, или даже большинство людей — погибнут», — пророчил Пол Кристиано в подкасте Bankless в прошлом году. «Я отношусь к этому совершенно серьезно», — добавил он. Возможно, Кристиано, драматизирует. Ведь первобытные мифы действовали на людей, вероятно, сильнее, чем современные технологизированные иллюзии и виртуальные и дополненные реальности. Однако к предостережениям всё-таки стоит прислушаться и прочертить в развитии моделей ИИ определённые общепринятые границы. Чтобы слабые люди не оказались в подчинении манипуляторов, корыстных или одержимых идеями разрушения.