Платим блогерам
Блоги
kosmos_news
Известный исследователь глубокого обучения Йошуа Бенжио срочно предупреждает о потенциальной опасности ИИ. Особенно, если системы по-прежнему контролируются несколькими организациями.

Йошуа Бенжио считают одним из пионеров в области исследований искусственных нейронных сетей и глубокого обучения. Теперь канадский ученый-компьютерщик предупреждает о возможных опасностях, которые могут возникнуть в будущем от искусственного интеллекта (ИИ).
Эксперт по искусственному интеллекту Йошуа Бенжио
Соответственно, если системы искусственного интеллекта будут продолжать обучаться так же, как сейчас, они могут в конечном итоге пойти против людей. Некоторые люди, обладающие «большой властью», возможно, даже захотят, чтобы человечество было заменено машинами, сказал Бенжио в разговоре с каналом CNBC.

По словам Бенжио, так называемый общий искусственный интеллект (AGI), над которым сейчас ведется работа, будет не только обладать интеллектом, подобным человеческому, но и способностью к самообучению. Важно представлять, что эта технология может сделать с обществом.

Примечательно, что другой специалист, стоявший у истоков ИИ, также согласен с Бенжио. Соучредитель DeepMind и Inflection AI Мустафа Сулейман выступает за «жесткое регулирование» ИИ. После ЕС в США также становится очевидным, что будут строгие правила для ИИ и компаний, которые с ним работают.

Сулейман ушел из Google DeepMind, создав собственный стартап Inflection AI. Теперь он разрабатывает чат-бота Pi с участием лучших специалистов Open AI. Inflection AI была основана в 2022 году и недавно получила $1,3 млрд от самых богатых людей в мире технологий, включая Билла Гейтса и Рида Хоффмана. 

С помощью Nvidia они хотят построить крупнейший кластер искусственного интеллекта, состоящий из 22 000 графических процессоров. Появится возможность разговаривать с ИИ. Эти интерактивные модели ИИ смогут выполнять разные действия и достигать амбициозных целей.

Не менее важным является вопрос о том, кто контролирует потенциальную будущую власть. 

«Системы, которые знают больше, чем большинство людей, могут быть опасными в чужих руках и, например, вызывать большую нестабильность или террор на геополитическом уровне», — сказал Бенжио.

Проблема в том, что создание и обучение мощных систем искусственного интеллекта обходятся в миллиарды долларов. И лишь немногие организации или государства способны финансировать разработку действительно крупных систем, которые, конечно, становятся еще мощнее.

Всего через несколько десятилетий или всего за несколько лет человечество может ощутить негативные последствия. На данный момент отсутствуют методы, которые эффективно предотвращали бы атаку систем ИИ против людей.

«Мы просто не знаем, как это сделать», — говорит разработчик ИИ.

Но еще не поздно изменить ситуацию и уменьшить возможные опасности, исходящие от ИИ. Для этого правительствам сначала придется ввести правила, которые потребуют от компаний регистрации и описания систем, над которыми они работают.

Кроме того, компании, занимающиеся искусственным интеллектом, должны будут нести ответственность за свои системы. Тогда они будут действовать более осторожно, чтобы избежать судебного преследования. 

«Сейчас мы находимся в серой зоне», — говорит Бенжио.

В краткосрочной перспективе ИИ особенно опасен, когда речь идет о ложной информации, например, в избирательных кампаниях в демократических государствах. Сюда входят реалистичные фейковые фотографии или видео, а также чат-боты, которые, согласно исследованию, могут убедить избирателей в определенных вещах лучше, чем люди.

По мнению Бенжио, остается самый сложный вопрос: «Если мы создадим существ, которые умнее нас и преследуют свои собственные цели, что это значит для человечества? Находимся ли мы в опасности?». Чтобы смягчить потенциальные риски, потребуются гораздо больше исследований и дальновидной политики.

В свою очередь Сулейман подчеркивает, что регулирование сложных технологий уже успешно реализовано, например, на воздушном транспорте, где безопасность гарантирована. Inflection AI — одна из компаний, наряду с Microsoft, Google, Anthropic, Open AI и Amazon, которые пообещали президенту США Джо Байдену добровольное саморегулирование в вопросах искусственного интеллекта. 

Используя чат-бота Pi, Сулейман рассчитывает на высокий уровень безопасности и надежности. Нельзя будет заставить чат-бота производить расистские, гомофобные, сексистские или другие токсичные материалы. Невозможно будет с помощью инструмента изготовить биологическое или химическое оружие.


Источник: cnbc.com
+
Написать комментарий (0)

Популярные новости

Сейчас обсуждают