Платим блогерам
Блоги
Zelot
Сообщество учёных полагает, что нужны меры глобального регулирования распространения ИИ

реклама

Всё больше и больше представителей лидирующих компаний в сфере разработки искусственного интеллекта, учёных и даже медийных личностей призывают правительства стран мира принять меры для сокращения риска так называемого глобального уничтожения и даже вымирания человечества, вызванного внедрением технологий ИИ. На днях организация «Центр в поддержку безопасного ИИ» (Center for AI Safety) опубликовала краткое заявление, в котором подчёркивается необходимость рассматривать снижение риска вымирания человечества из-за ИИ как один из главных приоритетов, наряду с другими угрозами общественного масштаба, такими как пандемии и ядерная война. Заявление уже получило поддержку известных фигур в области искусственного интеллекта, включая генерального директора компании OpenAI Сэма Олтмена, исследователя Джеффри Хинтона, которого называют крестным отцом ИИ, а также руководителей и ведущих разработчиков компаний DeepMind и Anthropic, главного технического директора Microsoft Кевина Скотта, пионера криптографии Брюса Шнайера, эколога Билла Маккиббена и певицы Граймс.

реклама

Подобные заявления свидетельствует о том, насколько серьёзной может стать опасность разработки продвинутых ИИ и какие потенциальные угрозы таит неограниченное использование систем искусственного интеллекта. Научное сообщество взволнованно, тогда как многие специалисты, знакомые с реальным положением дел полагают, что разработка по-настоящему мыслящих машин, подобных тем, что можно встретить в научной фантастике, пока не стоит на повестке дня. Не исключено, что нечто подобное появится спустя десятилетия, если мы вообще способны создать интеллект, способный конкурировать с человеческим и обладать самостоятельным мышлением. Отмечается, что даже самые продвинутые чат-боты, доступные в настоящее время, всего лишь воспроизводят структуры на основе данных, которые через них проходят, и не обладают способностью мыслить в полном смысле этого слова. Мало того, ИИ часто делает ошибки, а иногда и вовсе выдумывает факты и предоставляет ложную информацию. 

Тем не менее, усиленное общественное внимание к индустрии искусственного интеллекта и значительный приток инвестиций в этот сектор заставляют все чаще говорить о необходимости регулирования уже сейчас, на ранней стадии эры искусственного интеллекта. Прежде чем подобная система станет опасной для человечества многие призывают установить основы и принять соответствующие меры. Представители компаний, ведущих в разработке искусственного интеллекта, осознают необходимость более активного включения властей и регуляторных органов в области ИИ. Они призывают к созданию механизмов, которые бы гарантировали безопасность и этичность использования ИИ, а также обеспечивали прозрачность и ответственность в разработке и внедрении этих технологий. Эксперты отмечают, что важным аспектом в обсуждении регулирования ИИ является сотрудничество между различными странами и международными организациями. Только через совместные усилия и разработку международных стандартов можно достичь эффективного регулирования и обеспечить безопасное развитие и применение искусственного интеллекта. Представители Центр в поддержку безопасного ИИ отмечают, что среди предложенных мер для сокращения риска глобального уничтожения от применения ИИ могут быть разработка этических принципов, ограничения в использовании определённых типов технологий, создание независимых органов контроля и надзора, а также участие общества в принятии решений, связанных с разработкой и использованием искусственного интеллекта. Словом, учёные беспокоятся, но пока не знают, что делать и как проблему вообще решать. Ну а автор данного материала поинтересовался у ChatGPT, что он думает об указанных выше рисках. Давайте ознакомимся с ответом ИИ. 

Как искусственный интеллект, я не обладаю собственными мнениями и эмоциями. Однако, многие эксперты и учёные высказывают опасения относительно потенциальных рисков, связанных с развитием и применением искусственного интеллекта. Одна из основных опасностей заключается в том, что развитие ИИ может привести к потере контроля над системами и возникновению непредсказуемого поведения. Неконтролируемый или непредсказуемый искусственный интеллект может принимать решения, которые противоречат человеческим ценностям или причиняют вред. Также существует опасность, что развитие ИИ может привести к замещению человека на ряде рабочих мест, что может вызвать социальные и экономические проблемы. Безработица и неравенство могут возрастать, если не будет достаточных мер для адаптации общества к изменениям, вызванным развитием искусственного интеллекта. Другим аспектом опасности ИИ является потенциал для злоупотребления этой технологией. Мощные алгоритмы машинного обучения и системы распознавания образов могут быть использованы для массового наблюдения, манипуляции информацией или создания оружия автономных систем. В целом, мнение по поводу опасности ИИ для человека может различаться в зависимости от точки зрения и контекста. Важно проводить обсуждения, научные исследования и разработку соответствующих политик и регуляций, чтобы обеспечить безопасность и этичность использования искусственного интеллекта.

Источник: edition.cnn.com
2
Показать комментарии (2)

Популярные новости

Сейчас обсуждают