Платим блогерам
Блоги
Nivan
OpenAI «случайно» удалила данные обучения своей ИИ-модели ChatGPT, которые требовались для суда по делу об использовании материалов, защищенных авторским правом.

                                                   Источник изображения: Jakayla Toney / Unsplash

Компания OpenAI оказалась в центре юридического скандала после того, как New York Times и Daily News подали на неё в суд, обвинив в использовании их материалов, защищённых авторским правом, для обучения ChatGPT. Однако ключевые данные, которые могли бы подтвердить эти обвинения, были случайно удалены инженерами OpenAI.  

Ранее OpenAI согласилась предоставить издателям доступ к своим наборам данных для поиска их защищённого контента, использованного при обучении ChatGPT. Эксперты New York Times и Daily News потратили более 150 часов с начала ноября, изучая данные, предоставленные OpenAI через две виртуальные машины.

Однако 14 ноября инженеры OpenAI случайно удалили данные с одной из этих машин, что поставило под угрозу возможность использования обнаруженных доказательств в суде. Несмотря на попытки восстановить удалённую информацию, она была возвращена в формате, непригодном для юридического использования, что усложняет её применение в деле о нарушении авторских прав.  

Этот случай поднял вопрос о том, как крупные технологические компании используют защищённые материалы для обучения своих моделей искусственного интеллекта. Ранее сообщалось, что многие компании, занимающиеся разработкой ИИ, неправомерно использовали не только текстовые данные, но и видеоконтент, включая ролики популярных YouTube-блогеров, вызывая споры и претензии со стороны правообладателей.  

Пока неясно, как издатели New York Times и Daily News намерены продолжать свои иски против OpenAI после инцидента с удалением данных. Однако очевидно, что произошедшее может повлиять на развитие судебного разбирательства и станет важным прецедентом в вопросах регулирования использования авторского контента в обучении искусственного интеллекта.

Источник: wccftech.com
+
Написать комментарий (0)

Популярные новости

Сейчас обсуждают