Платим блогерам
Блоги
Блогер
Устранение этой угрозы считается мировым приоритетом

Появление ChatGPT, Bard и других больших языковых моделей (LLM) вызывает у многих людей опасения по поводу связанных с искусственным интеллектом рисков. Теперь представители этой отрасли выступили с заявлением, согласно которому проблема ИИ должна занимать видное место в современной повестке дня, на уровне пандемий и ядерной войны.

Это обращение разместили в Центре безопасности ИИ. Миссией данной организации является уменьшение связанных с ИИ социальных рисков. Под ним подписались исполнительный директор OpenAI Сэм Альтман и глава Google DeepMind Демис Хассабис, а также получившие премию Тьюринга Джеффри Хинтон и Йошуа Бенжио.

Может быть интересно

За последние несколько месяцев это уже второе заявление подобного рода. В начале весны Илон Маск, Стив Возняк и ещё более тысячи человек призвали на полгода поставить на паузу развитие ИИ, чтобы у промышленности и общества было время на освоение этой технологии. В обращении было сказано, что в последние месяцы ведётся бесконтрольная гонка алгоритмов искусственного интеллекта, поведение которых не могут предсказать и контролировать даже их создатели.

ИИ не обладает сознанием, но может принести вред, когда используется для создания фейков, автоматизированной дезинформации и тому подобного. Большие языковые модели могут участвовать в создании контента, произведений искусства и литературы, лишая людей рабочих мест, пишет Engadget.

Источник: engadget.com
3
Показать комментарии (3)
Теперь в новом формате

Наш Telegram-канал @overclockers_news
Подписывайся, чтобы быть в курсе всех новостей!

Популярные новости

Сейчас обсуждают