Незадолго до запуска GPT-5 генеральный директор OpenAI Сэм Альтман сравнил разработку нового ИИ с созданием атомной бомбы. Теперь, когда новая модель искусственного интеллекта стала общедоступной, возникает вопрос: насколько вообще безопасна GPT-5? Как сообщает издание Golem, две независимые компании, специализирующиеся на безопасности, выявили серьёзные уязвимости в новой модели OpenAI.
OpenAI отмечает улучшенную внутреннюю самопроверку GPT-5, при которой система оценивает несколько цепочек рассуждений и дважды проверяет ответы. Однако хорватский стартап SPLX, специализирующийся на безопасности ИИ, пришёл к такому же выводу, как и Neuraltrust, после тестирования. Аналогичные уязвимости могут быть эксплуатированы с помощью так называемых атак обфускации. В своём блоге SPLX даже пишет, что исходная модель GPT-5 в её нынешнем виде практически непригодна для использования в компаниях. Прямое сравнение, проведённое стартапом, также показало, что её предшественник, GPT-4o, более устойчив к таким атакам.
Вскоре после запуска многие пользователи выразили недовольство новой моделью ИИ. Кроме того, подписчики критиковали, среди прочего, ограничения по времени выполнения. По словам Альтмана, новая функция, автоматически подбирающая подходящую модель на основе запроса, поначалу тоже работала некорректно.
«GPT-5 ужасен», — гласил пост на форуме Reddit, набравший наибольшее количество лайков. В своём посте пользователь, среди прочего, критиковал более короткие и неадекватные ответы новой модели. Теперь так много пользователей требуют возвращения GPT-4o, что Альтман пообещал провести расследование.
Обе компании, протестировавшие GPT-5 на потенциальные уязвимости, сами предлагают решения по безопасности. Тем не менее, результаты исследования вызывают серьёзные вопросы о безопасности нового флагманского продукта OpenAI. Также вызывает споры то, что сам Альтман заранее подогрел дискуссию о новом продукте, сравнив разработку, в частности, с Манхэттенским проектом, то есть созданием атомной бомбы. Он также выразил обеспокоенность отсутствием контроля в области разработки ИИ. По его словам, технология развивается быстрее, чем политические и социальные структуры, которые должны её ограничивать.