Появление ChatGPT, Bard и других больших языковых моделей (LLM) вызывает у многих людей опасения по поводу связанных с искусственным интеллектом рисков. Теперь представители этой отрасли выступили с заявлением, согласно которому проблема ИИ должна занимать видное место в современной повестке дня, на уровне пандемий и ядерной войны.
Это обращение разместили в Центре безопасности ИИ. Миссией данной организации является уменьшение связанных с ИИ социальных рисков. Под ним подписались исполнительный директор OpenAI Сэм Альтман и глава Google DeepMind Демис Хассабис, а также получившие премию Тьюринга Джеффри Хинтон и Йошуа Бенжио.

За последние несколько месяцев это уже второе заявление подобного рода. В начале весны Илон Маск, Стив Возняк и ещё более тысячи человек призвали на полгода поставить на паузу развитие ИИ, чтобы у промышленности и общества было время на освоение этой технологии. В обращении было сказано, что в последние месяцы ведётся бесконтрольная гонка алгоритмов искусственного интеллекта, поведение которых не могут предсказать и контролировать даже их создатели.
ИИ не обладает сознанием, но может принести вред, когда используется для создания фейков, автоматизированной дезинформации и тому подобного. Большие языковые модели могут участвовать в создании контента, произведений искусства и литературы, лишая людей рабочих мест, пишет Engadget.

