Должны ли чат-боты с искусственным интеллектом писать новостные статьи

Арджун Нараян заявляет, что статьи созданные искусственным интеллектом, часто содержат информацию которая не соответсвует действительности, либо не существуют, что делает их бесполезными.
1 июня 2023, четверг 03:08

Не секрет, что некоторые новостные агентства уже используют ИИ для написания своего контента. Существуют веб-сайты, которые полностью зависят от статей созданных ИИ. Поскольку в наши дни даже основным новостным агентствам становится все труднее получать прибыль, привлекательность возможности заменить людей-писателей которые стоят больше денег, становится все более привлекательной для некоторых.

В интервью Gizmodo Нараяна спросили, что он считает самыми большими непредвиденными проблемами, создаваемыми генеративным ИИ с точки зрения доверия и безопасности. Он ответил, что есть несколько рисков, один из которых заключается в обеспечении того, чтобы "системы искусственного интеллекта были обучены правильно". Нараян заметил, что гораздо сложнее работать в обратном направлении, чтобы понять, почему ИИ принимает те или иные решения.

Отвечая на вопрос об опасностях или проблемах, которые Нараян видит в недавних попытках новостных организаций использовать контент созданный с помощью ИИ, он указал, что может быть трудно отличить статьи которые были написаны ИИ, а какие нет. Он добавил: "Это различие стирается".

Нараян считает важным придерживаться некоторых принципов, таких как информирование пользователей о том, что статья была создана с использованием ИИ. Второй принцип которого он коснулся, заключался в наличии компетентной редакционной команды, которая может предотвратить попадание фейков в публикацию. Это требует от редакторов проверки статей на наличие фактических ошибок или политических взглядов, точно так же, как они это делают это для писателя-человека. 

Однако контент написанный ИИ, представляет собой проблему не только для тех кто читает новостные статьи. Австралийским университетам пришлось изменить методы проведения экзаменов и оценок из-за того, что студенты используют программное обеспечение ИИ для написания эссе. Решение состояло в том, чтобы студенты вернулись к сдаче экзаменов, используя ручку и бумагу. Государственные школы Нью-Йорка также приняли меры предосторожности против использования учащимися программного обеспечения ИИ в классе, запретив программное обеспечение, такое как ChatGPT от OpenAI на всех устройствах в системе государственных школ Нью-Йорка.