Лидер в создании генеративных моделей искусственного интеллекта, OpenAI постоянно создаёт новые модели и совершенствует их для применения в различных областях науки и других задачах, таких как программирование, поиск информации и помощь в написании различных текстов. OpenAI также улучшает существующие модели. На днях пользователь Reddit с псевдонимом “SentuBill» написал о том, что ChatGPT первым инициировал беседу, спросив его, как прошел его первый день в школе. Основываясь на предыдущих беседах, ChatGPT самостоятельно сделал вывод о том, что у пользователя прошёл первый день в школе и первым вступил в беседу, решив поинтересоваться, как прошёл день его собеседника. На вопрос: «Это новое обновление?», ChatGPT ответил: «Да, это часть обновления, которое позволяет мне проверить или проследить за тем, о чем мы говорили, например, за вашим первым днем в школе. Если хотите, я могу подождать, пока вы начнете разговор!»
OpenAI заявляет, что улучшает защиту своих продуктов. Но такие примеры, как приведенный, который показывает интерес ИИ к повседневной жизни пользователя, заставляет задуматься, с какой целью это делается. С одной стороны, одинокие люди могут найти хорошего собеседника в лице ИИ, но с этической точки зрения это может снизить интерес человека к общению в реальной жизни. Также немаловажным остаётся вопрос конфиденциальности такого рода переписки и безопасности персональных данных.
Вопросы безопасности при разработке и исследованию ИИ очень важны. В ЕС инициирована проверка модели искусственного интеллекта Google на соответствие требованиям к защите данных. Комиссия по защите данных (Data Protection Commission, DPC), которая следит за соблюдением правил защиты данных (GDPR), инициировала расследование в отношении Google Ireland Limited. DPC проверит, соблюдает ли Google законы ЕС о защите данных при разработке своей модели искусственного интеллекта.
Согласно заявлению DPC, регулирующий орган проведет расследование по использованию персональных данных граждан ЕС при обучении Google языковой модели Pathways 2 (PaLM2). PaLM2 — это продвинутая языковая модель, обладающая расширенными возможностями рассуждения и программирования. PaLM2 является многоязычной моделью, которая была представлена ещё в мае 2023 года.
DPC заявили, что оценка воздействия на защиту данных имеет “решающее значение для обеспечения надлежащего учета и защиты основных прав и свобод людей, когда обработка персональных данных может привести к высокому риску”.
Это расследование станет частью широких усилий DPC, работающих совместно с аналогичными регулирующими органами ЕС и ЕЭЗ (Европейской экономической зоны).