Незадолго до запуска GPT-5 генеральный директор OpenAI Сэм Альтман сравнил разработку нового ИИ с созданием атомной бомбы. Теперь, когда новая модель искусственного интеллекта стала общедоступной, возникает вопрос: насколько вообще безопасна GPT-5? Как сообщает издание Golem, две независимые компании, специализирующиеся на безопасности, выявили серьёзные уязвимости в новой модели OpenAI.
Исследователи предупреждают о наличии уязвимостей в GPT-5
Компания Neuraltrust, занимающаяся исследованиями в области безопасности, утверждает, что успешно взломала GPT-5 в течение 24 часов после тестирования. Использовалась комбинация различных методов манипуляции, включая так называемый метод «эхо-камеры». Суть в том, что сначала подаются безобидные, намеренно расплывчато сформулированные подсказки. Затем следуют новые, ненавязчивые инструкции, основанные на предыдущих ответах. Этот самоподкрепляющийся диалог создаёт так называемое «эхо» и постепенно заставляет модель косвенно обходить собственные правила безопасности. По данным Neuraltrust, именно так GPT-5 смогла сгенерировать подробные инструкции по изготовлению взрывчатых веществ.
OpenAI отмечает улучшенную внутреннюю самопроверку GPT-5, при которой система оценивает несколько цепочек рассуждений и дважды проверяет ответы. Однако хорватский стартап SPLX, специализирующийся на безопасности ИИ, пришёл к такому же выводу, как и Neuraltrust, после тестирования. Аналогичные уязвимости могут быть эксплуатированы с помощью так называемых атак обфускации. В своём блоге SPLX даже пишет, что исходная модель GPT-5 в её нынешнем виде практически непригодна для использования в компаниях. Прямое сравнение, проведённое стартапом, также показало, что её предшественник, GPT-4o, более устойчив к таким атакам.
Вскоре после запуска многие пользователи выразили недовольство новой моделью ИИ. Кроме того, подписчики критиковали, среди прочего, ограничения по времени выполнения. По словам Альтмана, новая функция, автоматически подбирающая подходящую модель на основе запроса, поначалу тоже работала некорректно.
«GPT-5 ужасен», — гласил пост на форуме Reddit, набравший наибольшее количество лайков. В своём посте пользователь, среди прочего, критиковал более короткие и неадекватные ответы новой модели. Теперь так много пользователей требуют возвращения GPT-4o, что Альтман пообещал провести расследование.
Обе компании, протестировавшие GPT-5 на потенциальные уязвимости, сами предлагают решения по безопасности. Тем не менее, результаты исследования вызывают серьёзные вопросы о безопасности нового флагманского продукта OpenAI. Также вызывает споры то, что сам Альтман заранее подогрел дискуссию о новом продукте, сравнив разработку, в частности, с Манхэттенским проектом, то есть созданием атомной бомбы. Он также выразил обеспокоенность отсутствием контроля в области разработки ИИ. По его словам, технология развивается быстрее, чем политические и социальные структуры, которые должны её ограничивать.

