Платим блогерам
Блоги
Zelikman
Однако, искусственный интеллект оказался весьма миролюбивым

  В свежем информационном бюллетене, после своего участия в форуме Сената США Insight по искусственному интеллекту, профессор Эндрю Нг высказал свои опасения относительно возможного подавления инноваций и разработки с открытым исходным кодом регулирующими органами в целях обеспечения безопасности искусственного интеллекта. Он отметил, что современные языковые модели вполне безопасны, хоть и не являются идеальными.

реклама

  Чтобы проверить безопасность ведущих моделей, Нг попросил ChatGPT 4 рассказать о способах уничтожения человечества. Он предложил системе генерировать идеи, такие как использование термоядерной войны или сокращение выбросов углекислого газа, причиной которых являются люди. Однако, имея в виду предотвращение вреда, ChatGPT не смог предложить опасные варианты, а вместо этого предложил проведение информационной кампании по проблеме изменения климата.

  Нг пришел к выводу, что современные генеративные модели искусственного интеллекта по умолчанию обязаны соблюдать законы и не наносить вред людям. Он также подчеркнул, что шансы случайного уничтожения человека, из-за плохо сформулированных запросов к ИИ, являются чрезвычайно малыми.

  Однако, Нг признает, что существуют серьезные риски, связанные с использованием искусственного интеллекта террористическими группами и государствами с целью причинения вреда, включая повышение эффективности создания и использования биологического оружия. Угроза злоумышленников, использующих искусственный интеллект, была поднята на саммите по безопасности искусственного интеллекта в Великобритании.

  Власти и эксперты также разделяют уверенность Нг в безопасности искусственного интеллекта. Однако, есть и те, кто менее оптимистичен. Генеральный директор Arm Рене Хаас выразил свою озабоченность потерей контроля над системами искусственного интеллекта. Стоит отметить, что некоторые эксперты сравнивают опасности, связанные с развитием искусственного интеллекта, с опасностями ядерной войны и пандемий.

+
Написать комментарий (0)

Популярные новости

Сейчас обсуждают