Исследователи из Оксфордского университета в сотрудничестве с международными экспертами опубликовали новое исследование в журнале Nature Machine Intelligence, посвященное сложным этическим вопросам, связанным с ответственностью за результаты, генерируемые большими языковыми моделями (LLM).
Исследование показывает, что LLM, такие, как ChatGPT, ставят важные вопросы относительно присвоения заслуг и прав на генерацию полезных текстов, отличаясь от традиционных дебатов об ответственности ИИ, которые в первую очередь фокусировались на вредных последствиях.
«LLM, такие, как ChatGPT, вызывают острую потребность в обновлении нашей концепции ответственности», — говорят Себастьян Порсдам Манн и Брайан Д. Эрп, совместные первые авторы исследования.

Ключевой вывод исследования, по словам соавторов Свена Найхолма и Джона Данахера, заключается в том, что, хотя люди, использующие эти технологии, не могут в полной мере приписать себе положительные результаты, полученные LLM, все же представляется целесообразным возложить на них ответственность за вредное использование, такое как генерация дезинформации или небрежность в проверке точности сгенерированного текста.
Это может привести к ситуации, которую Найхолм и Данахер, основываясь на предыдущей работе, назвали «разрывом в достижениях»: «Полезная работа выполняется, но люди не могут получать за нее столько удовлетворения или признания, сколько раньше».
Джулиан Савулеску, старший автор статьи, добавляет: «Нам нужны руководящие принципы в отношении авторства, требований к раскрытию информации, использования в образовательных целях и интеллектуальной собственности, основанные на существующих нормативных документах и аналогичных соответствующих дискуссиях, таких как совершенствование человека». Нормы, требующие прозрачности, особенно важны, продолжает Савулеску, «чтобы отслеживать ответственность и правильно распределять похвалу и порицание».
Исследование, в соавторстве с междисциплинарной группой экспертов в области права, биоэтики, машинного обучения и смежных областей, исследует потенциальное влияние LLM в таких важнейших областях, как образование, академические публикации, интеллектуальная собственность и создание ложных сведений.
Образование и публикации особенно нуждаются в быстрых действиях по руководству по использованию LLM и ответственности. «Мы рекомендуем, чтобы статьи включали заявление об использовании LLM, а также соответствующую дополнительную информацию», — заявляют соавторы Джон Макмиллан и Дэниел Роджер. «Раскрытие информации для LLM должно быть таким же, как и для участников, признающих значительный вклад».
В документе указывается, что LLM могут быть полезны в образовании, но предупреждается, что они подвержены ошибкам, а чрезмерное использование может повлиять на навыки критического мышления. Авторы пишут, что учебным заведениям следует рассмотреть возможность адаптации стилей оценки, переосмысления педагогики и обновления руководства по академическим проступкам, чтобы эффективно справляться с использованием LLM.
Права в сгенерированном тексте, такие как права интеллектуальной собственности и права человека, составляют еще одну область, в которой необходимо быстро проработать последствия использования LLM, отмечает соавтор Моника Плоцца. «Права ИС и права человека создают проблемы, поскольку они основаны на понятиях труда и творчества, созданных с учетом интересов людей. Нам необходимо разработать или адаптировать такие структуры, как «вклад», чтобы справиться с этой быстро развивающейся технологией, при этом защищая права авторов и пользователей.
Не все обозримые виды использования LLM благоприятны. «LLM могут использоваться для создания вредоносного контента, в том числе широкомасштабной дезинформации», — предупреждает соавтор Джулиан Коплин. «Вот почему мы должны привлекать людей к ответственности за точность текста, сгенерированного LLM, который они используют, наряду с усилиями по обучению пользователей и улучшению политик модерации контента для снижения рисков».
Чтобы устранить эти и другие риски, связанные с LLM, говорят соавторы Николай Мёллер и Питер Трейт, разработчики LLM могут последовать примеру саморегулирования в таких областях, как биомедицина. «Построение и завоевание доверия имеет решающее значение для дальнейшего развития LLM. Содействуя прозрачности и участвуя в открытых дискуссиях, разработчики LLM могут продемонстрировать свою приверженность ответственным и этичным практикам».

