OpenAI хочет, чтобы AGI "расширил возможности человечества для максимального процветания Вселенной". С AGI могут возникнуть потенциальные риски и неопределенности, такие как неправильное использование, несчастные случаи и даже разрушение общества. Может даже возникнуть проблема "Терминатора". Для решения этой проблемы OpenAI предложила ряд законов и принципов, которыми она будет руководствоваться в своей работе над AGI:
Безусловно, существуют и другие факторы, которые будут определять, как развитие AGI повлияет на человечество. К этим факторам относятся сроки (сколько времени потребуется для создания AGI), скорость обучения (насколько быстро AGI будет самосовершенствоваться), координация (насколько хорошо различные субъекты будут сотрудничать или конкурировать в развитии AGI) и безопасность (насколько хорошо AGI будет соответствовать целям человечества).
При этом OpenAI также предупреждает о том, что все не предсказуемо, и даже у самой компании нет всех ответов и решений потенциальных проблем в будущем, особенно после того, как AGI станет мейнстримом. Компания заявляет, что в долгосрочной перспективе разговор о том, как управлять этими системами, как справедливо распределить их преимущества и как справедливо разделить доступ, просто необходим.