Платим блогерам
Блоги
Hardware_inc
Будет ли искусственный интеллект опасен? Эксперты и пользователи постоянно задают себе этот вопрос. Если OpenAI добьется своего, угрозы со стороны ИИ не будет, поскольку компания работает над концепцией безопасности

Популярность ChatGPT недавно вызвала в технологическом сообществе дискуссию о том, насколько опасен ИИ. Руководители OpenAI, Google и Microsoft уже предупредили об экзистенциальных угрозах, которые могут возникнуть с развитием ИИ.

В недавно опубликованном заявлении OpenAI объявила о своей стратегии по превентивному устранению потенциальных опасностей искусственного интеллекта. Особое внимание уделяется предотвращению рисков, связанных с развитием технологий.

Может быть интересно

Ключевую роль в этой миссии будет играть так называемая группа готовности, возглавляемая профессором искусственного интеллекта Массачусетского технологического института Александром Мадри. В команду войдут исследователи ИИ, учёные-компьютерщики, эксперты по национальной безопасности и эксперты по политике, которые будут работать вместе, чтобы следить за развитием искусственного интеллекта и предупреждать OpenAI о появлении потенциальных угроз.

Эта группа работает с командой систем безопасности, которая занимается решением существующих проблем, таких как предотвращение расовых предубеждений в ИИ, и командой Superalignment. Она изучает, как ИИ будет работать, когда превзойдет человеческий интеллект.

Концепция безопасности OpenAI включает оценку рисков по четырём основным категориям: кибербезопасность, ядерная, химическая, биологическая угроза, убеждение и автономия модели. Затем каждой категории присваивается рейтинг на основе конкретных критериев по шкале от «низкой» до «критической». Эта модель предназначена для применения до и после реализации мер безопасности.

OpenAI со своей концепцией безопасности обещает ответственно продвигать разработку ИИ, одновременно контролируя существующие и будущие риски.

+
Написать комментарий (0)
Теперь в новом формате

Наш Telegram-канал @overclockers_news
Подписывайся, чтобы быть в курсе всех новостей!

Популярные новости

Сейчас обсуждают