Платим блогерам
Блоги
TechRanch
Новое исследование посвящено ответственности за результаты, генерируемые искусственным интеллектом

Исследователи из Оксфордского университета в сотрудничестве с международными экспертами опубликовали новое исследование в журнале Nature Machine Intelligence, посвященное сложным этическим вопросам, связанным с ответственностью за результаты, генерируемые большими языковыми моделями (LLM).

Исследование показывает, что LLM, такие, как ChatGPT, ставят важные вопросы относительно присвоения заслуг и прав на генерацию полезных текстов, отличаясь от традиционных дебатов об ответственности ИИ, которые в первую очередь фокусировались на вредных последствиях. 

Может быть интересно

«LLM, такие, как ChatGPT, вызывают острую потребность в обновлении нашей концепции ответственности», — говорят Себастьян Порсдам Манн и Брайан Д. Эрп, совместные первые авторы исследования.

Ключевой вывод исследования, по словам соавторов Свена Найхолма и Джона Данахера, заключается в том, что, хотя люди, использующие эти технологии, не могут в полной мере приписать себе положительные результаты, полученные LLM, все же представляется целесообразным возложить на них ответственность за вредное использование, такое как генерация дезинформации или небрежность в проверке точности сгенерированного текста.

Это может привести к ситуации, которую Найхолм и Данахер, основываясь на предыдущей работе, назвали «разрывом в достижениях»: «Полезная работа выполняется, но люди не могут получать за нее столько удовлетворения или признания, сколько раньше».

Джулиан Савулеску, старший автор статьи, добавляет: «Нам нужны руководящие принципы в отношении авторства, требований к раскрытию информации, использования в образовательных целях и интеллектуальной собственности, основанные на существующих нормативных документах и аналогичных соответствующих дискуссиях, таких как совершенствование человека». Нормы, требующие прозрачности, особенно важны, продолжает Савулеску, «чтобы отслеживать ответственность и правильно распределять похвалу и порицание».

Исследование, в соавторстве с междисциплинарной группой экспертов в области права, биоэтики, машинного обучения и смежных областей, исследует потенциальное влияние LLM в таких важнейших областях, как образование, академические публикации, интеллектуальная собственность и создание ложных сведений.

Образование и публикации особенно нуждаются в быстрых действиях по руководству по использованию LLM и ответственности. «Мы рекомендуем, чтобы статьи включали заявление об использовании LLM, а также соответствующую дополнительную информацию», — заявляют соавторы Джон Макмиллан и Дэниел Роджер. «Раскрытие информации для LLM должно быть таким же, как и для участников, признающих значительный вклад».

В документе указывается, что LLM могут быть полезны в образовании, но предупреждается, что они подвержены ошибкам, а чрезмерное использование может повлиять на навыки критического мышления. Авторы пишут, что учебным заведениям следует рассмотреть возможность адаптации стилей оценки, переосмысления педагогики и обновления руководства по академическим проступкам, чтобы эффективно справляться с использованием LLM.

Права в сгенерированном тексте, такие как права интеллектуальной собственности и права человека, составляют еще одну область, в которой необходимо быстро проработать последствия использования LLM, отмечает соавтор Моника Плоцца. «Права ИС и права человека создают проблемы, поскольку они основаны на понятиях труда и творчества, созданных с учетом интересов людей. Нам необходимо разработать или адаптировать такие структуры, как «вклад», чтобы справиться с этой быстро развивающейся технологией, при этом защищая права авторов и пользователей.

Не все обозримые виды использования LLM благоприятны. «LLM могут использоваться для создания вредоносного контента, в том числе широкомасштабной дезинформации», — предупреждает соавтор Джулиан Коплин. «Вот почему мы должны привлекать людей к ответственности за точность текста, сгенерированного LLM, который они используют, наряду с усилиями по обучению пользователей и улучшению политик модерации контента для снижения рисков».

Чтобы устранить эти и другие риски, связанные с LLM, говорят соавторы Николай Мёллер и Питер Трейт, разработчики LLM могут последовать примеру саморегулирования в таких областях, как биомедицина. «Построение и завоевание доверия имеет решающее значение для дальнейшего развития LLM. Содействуя прозрачности и участвуя в открытых дискуссиях, разработчики LLM могут продемонстрировать свою приверженность ответственным и этичным практикам».

Источник: techxplore.com
2
Показать комментарии (2)
Теперь в новом формате

Наш Telegram-канал @overclockers_news
Подписывайся, чтобы быть в курсе всех новостей!

Популярные новости

Сейчас обсуждают