Создать профиль

Ян Лейке не готов быть новым Оппенгеймером

0

11 sajt.jpg

Один из ведущих разработчиков искусственного интеллекта Ян Лейке (Jan Leike) решил покинуть OpenAI. По его словам, компания слишком активно работает над общим искусственным интеллектом (artificial general intelligence или AGI), пренебрегая потенциальными угрозами. И это его тревожит…

Ян — теперь уже бывший глава подразделения «Superalignment» в OpenAI, отвечавшего за безопасность и «гуманность» искусственного интеллекта. Он отметил, что, хотя OpenAI и остается лучшим местом для проведения исследований в области ИИ, у него возникли серьезные разногласия с руководством компании. «Создание машин, которые будут умнее человека, само по себе опасное занятие, но за последние годы культура безопасности отошла на второй план», — предупредил Лейке.

Концепция общего ИИ предполагает, что рано или поздно машина станет способна решать задачи в самых различных областях так, как это сделал бы человек.  При этом, обладая возможность к самообучению и вычислительными способностями, выходящими далеко за рамки возможностей человеческого мозга, ИИ может стать экзистенциальной угрозой для человечества. Предполагалось, что с 2023 года OpenAI будет направлять 20% своих финансовых и вычислительных усилий на разработку систем, отвечающих за безопасность будущего ИИ. Но этого не произошло, поэтому Ян Лейке не хочет нести «невероятную ответственность» за судьбу человечества, когда ресурсы его команды жестко ограничивают.

На самом деле прошло всего 3 года с момента появления достаточно продвинутых систем машинного обучения, разработанных OpenAI. При этом, если общественная мораль еще не успела сильно измениться, то этические нормы в OpenAI уже успели претерпеть изменения. Обещания размещать все модели в открытом доступе или дистанцироваться от оборонно-промышленного комплекса  достаточно быстро сменились введением платной подписки и сотрудничеством с Пентагоном. Такая “подвижность этических норм” в OpenAI вызывает серьезные опасения. 

Ян Лейке всячески уклоняется от роли «нового Оппенгеймера», поскольку безответственный доступ к технологиям, которые могут стать аналогом «информационной атомной бомбы», может иметь непредсказуемые последствия для всего человечества.