Платим блогерам
Блоги
PoZiTiv4iK
Профессор Роман Ямпольский из Университета Луисвилля заявил, что создание превосходящего человека общего искусственного интеллекта в ближайшие два года неизбежно приведет к катастрофическим последствиям для человечества. По его мнению, разработка такого ИИ лишит людей будущего.

Новости о бурном развитии технологий искусственного интеллекта вызывают одновременно восхищение и опасения. С одной стороны, мы наблюдаем впечатляющие достижения ИИ в самых разных областях – от создания реалистичных изображений до победы над чемпионами по сложнейшим играм. Но с другой стороны, все чаще раздаются тревожные предупреждения о том, что прогресс в сфере ИИ может обернуться катастрофой для человечества. И одно из наиболее громких таких предупреждений прозвучало совсем недавно.

реклама

Профессор Роман Ямпольский из Университета Луисвилля в интервью журналисту Лексу Фридману заявил, что создание превосходящего возможности человека общего искусственного интеллекта (ОИИ) неизбежно приведет к гибели человечества в долгосрочной перспективе. По словам эксперта, такой мощный ИИ, способный действовать во всех сферах деятельности, представляет для людей смертельную угрозу.

"Если мы создадим общий ИИ, то я не вижу позитивного исхода для человечества в долгосрочной перспективе. Единственный шанс выиграть в эту игру — не играть в нее вовсе", - настоятельно советует Ямпольский. Он подчеркнул, что современные модели ИИ уже соответствуют классическому определению ОИИ за счет превосходства над средним человеком в интеллектуальных способностях. А ближайшие два года, по оценкам эксперта и представителей отрасли, приведут к появлению ИИ, намного превосходящего даже лучших специалистов в различных областях.

Ямпольский предупреждает, что такой сверхмощный искусственный интеллект может не только уничтожить человечество, но и попытаться причинить людям максимальные страдания. Кроме того, он может полностью вытеснить людей из многих сфер жизни, лишив их смысла существования. При этом, по мнению ученого, создать надежные защитные механизмы против постоянно эволюционирующего и непредсказуемого ИИ невозможно.

В итоге профессор Ямпольский делает безрадостный вывод: у человечества осталось всего два года, чтобы предотвратить катастрофу, вызванную разработкой общего искусственного интеллекта, превосходящего возможности людей. Ученый убежден, что единственный выход – вообще не создавать такой ИИ, чтобы избежать необратимых последствий для будущего человечества.

19
Показать комментарии (19)

Популярные новости

Сейчас обсуждают