Если вас беспокоит неконтролируемое распространение генеративного искусственного интеллекта и его возможные последствия, вы можете направить свою тревогу на благо. Чтобы быть на шаг впереди интернет-мошенников, OpenAI обратилась к общественности с просьбой помочь выявить, как злоумышленники могут использовать генеративный искусственный интеллект в своих махинациях.
Компания, создавшая DALL-E, ChatGPT, Whisper и другие модели искусственного интеллекта, основала новую "группу готовности", целью которой является выявление как реальных, так и гипотетических угроз. «Мы уверены, что передовые ИИ-модели, способны превзойти возможности наиболее профессиональных людей, и могут принести пользу всему человечеству», — говорится в блоге компании OpenAI. «Но они также несут для общественности все более серьезные риски». По данным OpenAI, эти риски охватывают различные категории - от базовой кибербезопасности до химических, биологических, радиологических и ядерных угроз.
Чтобы снизить эти риски, OpenAI надеется проникнуть в головы недобросовестных пользователей. Вот тут-то и понабилась ваша помощь. В рамках нового проекта "AI Preparedness Challenge" OpenAI просит пользователей интернета рассказать о том, как злоумышленники совершают интернет-преступления, а также используют искусственный интеллект в своих мошеннических схемах. За свои старания десять человек получат 25 000 долларов в виде кредитов API, смогут опубликовать свои работы (правда, пока неясно, где именно) и даже могут быть приняты на работу в настоящую команду по обеспечению интернет-безопасности.
Мошенники научились использовать ChatGPT в своих преступных схемах.
Для подачи своих предложений "группе готовности" достаточно заполнить одну онлайн-форму. Указав свое имя, электронную почту и ссылку на свой профиль LinkedIn (или резюме), вам нужно будет войти в образ интернет-мошенника, получившего неограниченный доступ ко всем активам OpenAI. По мнению разработчиков, это поможет компании подготовиться к возможной краже ее передовых моделей искусственного интеллекта. Вам придется поделиться идеями, как злоумышленник может использовать неограниченные возможности искусственного интеллекта, описать пошаговый процесс его злодеяния и предложить несколько способов предотвращения ущерба. OpenAI даже пошла так далеко, что попросила, чтобы часть кейса была написана от лица самого злоумышленника.
Стоит отметить, что это довольно большой объем работы без какой-либо гарантированной компенсации. OpenAI не рассказала, как она будет использовать ваши идеи, если вы не окажетесь среди победителей конкурса, а это означает, что ваше домашнее задание может не получить того признания, которого оно заслуживает. Тем не менее, если вы уверены в своих способностях помочь одному из крупнейших в мире разработчиков генеративного искусственного интеллекта избежать потенциальной катастрофы, то стоит попробовать.