Платим блогерам
Блоги
Global_Chronicles
Старший специалист по безопасности OpenAI Майлз Брандейдж покинул компанию, опубликовав предупреждение о том, что ни OpenAI, ни мир не готовы к общему искусственному интеллекту (AGI). Его уход привел к полному роспуску команды AGI Readiness, что подчеркивает серьезные проблемы в области безопасности.

Майлз Брандейдж, старший специалист группы готовности к общему искусственному интеллекту в OpenAI, решил покинуть компанию и опубликовал тревожное предупреждение о состоянии готовности к AGI. В своем сообщении на платформе Substack он отметил, что OpenAI и другие организации, занимающиеся разработкой искусственного интеллекта, не готовы к потенциальным рискам, связанным с созданием мощных моделей ИИ.

Может быть интересно

Брандейдж подчеркнул, что OpenAI испытывает значительные недостатки в своей политике готовности, что не является уникальной проблемой для этой компании. Он считает, что ни одна лаборатория, работающая в области ИИ, не в состоянии обеспечить необходимую безопасность, а также что мир в целом не готов к внедрению таких технологий. Уход Брандейджа совпал с роспуском команды AGI Readiness, что произошло на фоне внутренней реструктуризации OpenAI, направленной на переход к более коммерческим моделям.

В своем посте Брандейдж подчеркнул, что искусственный интеллект требует осознанного выбора со стороны руководителей в разных сферах, включая правительство и бизнес. Он отметил, что для того чтобы ИИ приносил пользу человечеству, необходимо активное общественное обсуждение и принятие взвешенных решений.

Он также выразил опасения, что в ближайшие годы ИИ может значительно повлиять на рынок труда, создавая угрозу для людей, которые стремятся найти работу. Он предсказал, что в будущем ИИ может обеспечить экономический рост, позволяющий людям достигать высокого уровня жизни, однако перед этим мир столкнется с периодом, когда автоматизация затронет множество удаленных задач.

Брандейдж завершил свое сообщение тревожными размышлениями о том, что текущие пробелы в политике и подготовке к AGI могут привести к серьезным последствиям, если не предпринять необходимые меры для обеспечения безопасности и этичности в разработке ИИ.

7
Показать комментарии (7)
Теперь в новом формате

Наш Telegram-канал @overclockers_news
Подписывайся, чтобы быть в курсе всех новостей!

Популярные новости

Сейчас обсуждают