Платим блогерам
Блоги
kosmos_news
Фальсификация личных данных недопустима, утверждает Европейский центр цифровых прав. Персональные данные должны быть верными, а технология — соответствовать требованиям законодательства.

Чат-боты с искусственным интеллектом, такие как ChatGPT, часто выдают неточную информацию о людях. Это проблема, поскольку Общий регламент ЕС по защите данных (GDPR) устанавливает принцип точности информации о людях. 

Поэтому информация о людях должна быть точной и, при необходимости, обновляться. По мнению noyb.eu, Европейского центра цифровых прав, ChatGPT противоречит этой директиве. Поэтому сейчас подана соответствую жалоба против OpenAI.
Изображение из открытых источников

реклама


«ChatGPT часто предоставляет фейковый контент, и даже OpenAI не может это остановить», — заявляет ассоциация noyb.eu. 

Помимо фактической точности, компании также обязаны предоставить упомянутым в материалах людям полный доступ к их личной информации и ее источнику. OpenAI публично заявляет, что не знает ни откуда берутся данные, ни какие данные ChatGPT хранит о людях. Компания ничего не может с этим поделать, поскольку фактическая точность в больших языковых моделях остается областью активных исследований. Чтобы подтолкнуть OpenAI к более эффективной политике защиты данных, noyb.eu решил подать жалобу.


«Хотя компания располагает обширными данными по обучению, в настоящее время она не может гарантировать, что пользователи получают правильную информацию», — говорится в сообщении.

По мнению Европейского центра цифровых прав, когда дело касается личных данных, следует предотвратить «естественную» галлюцинацию ChatGPT.

Законодательство ЕС с 1995 года гласит, что персональные данные должны быть точными. Сегодня директива закреплена в статье 5 GDPR. К этому добавляется статья 16, согласно которой пострадавшие имеют право исправлять неверную информацию, а также могут потребовать ее удаления. А еще компании должны иметь возможность доказать, какие данные о физических лицах они хранят и из каких источников они поступают.

По данным noyb.eu, если проблема не будет устранена, ChatGPT не сможет выводить какие-либо данные о людях.
По данным New York Times, «чат-боты выдумывают информацию как минимум в 3% случаев». В некоторых случаях показатель может достигать даже 27%.

+
Написать комментарий (0)

Популярные новости

Сейчас обсуждают