Платим блогерам
Блоги
Proxvosst
Потенциально системы искусственного интеллекта могут причинить вред человечеству, например, создав биологическое оружие.

 Демис Хассабис, руководитель отдела искусственного интеллекта Google в Великобритании, выразил обеспокоенность по поводу потенциальных угроз, связанных с развитием искусственного интеллекта (ИИ). Он сравнил риски, связанные с ИИ, с рисками изменения климата. Его опасения связаны с возможностью того, что системы искусственного интеллекта станут сверхразумными и причинят вред, например, создав биологическое оружие.

«Мы должны относиться к рискам, связанным с ИИ, так же серьезно, как и к другим крупным глобальным проблемам, таким как изменение климата», — сказал он, также указав на возможность того, что ИИ может облегчить создание биологического оружия. «Международному сообществу потребовалось слишком много времени, чтобы скоординировать эффективный глобальный ответ на это, и сейчас мы живем с последствиями этого. Мы не можем позволить себе такую же задержку с ИИ». Он даже предложил создать независимую организацию, подобную Межправительственной группе ООН по изменению климата, для управления ИИ. 

В ответ на эти опасения Google, Microsoft, OpenAI и Anthropic совместно объявили о создании Фонда безопасности искусственного интеллекта стоимостью 10 миллионов долларов, целью которого является продвижение исследований по разработке инструментов для оценки и тестирования наиболее эффективных моделей искусственного интеллекта. Эта инициатива поистине поворотный момент в истории искусственного интеллекта.

Важно отметить, что некоторые опасения, высказанные такими экспертами в области ИИ, как Хассабис, были встречены со скептицизмом, учитывая действия крупных технологических компаний. Например, в 2020 году Google подверглась критике за увольнение специалиста по этике ИИ Тимнита Гебру и исследователя ИИ Маргарет Митчелл, которые были соавторами статьи, описывающей различные риски ИИ.

К ним относятся опасения по поводу воздействия ИИ на окружающую среду, его воздействия на маргинализированные сообщества, предвзятости в обучающих данных, проблем с проверкой огромных наборов данных и возможности ИИ обманывать людей.

 

Одним из существенных противоречий в области искусственного интеллекта является то, что, хотя такие эксперты, как Хассабис, предупреждают о рисках выхода сверхразумных систем искусственного интеллекта из-под контроля, они активно участвуют в разработке таких технологий. Эта сложная взаимосвязь между осторожностью и развитием ИИ подчеркивает продолжающиеся дебаты о безопасности и этике ИИ.

В заключение, дебаты вокруг потенциальных угроз ИИ для человечества сложны и включают в себя смесь искренних опасений со стороны экспертов по ИИ, усилий по обеспечению безопасности ИИ и практических проблем, связанных с балансированием технологического прогресса с этическими соображениями.

 

+
Написать комментарий (0)

Популярные новости

Сейчас обсуждают