Неоднократно появлялись новости, что веб-сайты переживают тяжёлые времена, поскольку искусственный интеллект в том или ином виде лишает их трафика и доходов от рекламы. При этом ИИ использует написанные людьми данные, но лишает их мотивации создавать эти данные в будущем. Некоторые полагали, что итогом этого станет то, что ИИ начнёт ссылаться на созданный им же контент. Это уже происходит, если верить результатам одного исследования.
Исследование провела разрабатывающая программное обеспечение компания Originality.ai. Она случайным образом отобрала 29 000 запросов Google в категории «Ваши деньги или ваша жизнь» (YMYL). Такие темы способны повлиять на здоровье, безопасность, финансовую стабильность или благополучие людей. Исследователи проанализировали отображаемые в верхней части страницы поиска Google запросы, ссылки и первые 100 органических результатов по каждому запросу. Используя модель AI Detection Lite 1.0.1, Originality.ai пришла к выводу, что 10,4% запросов были сгенерированы ИИ.
В 2023 году группа исследователей из Великобритании и Канады опубликовала статью «Проклятие рекурсии». Она посвящена тому, как это явление вызывает «необратимые дефекты». Тогда появился термин «коллапс модели».
В новом исследовании говорится, что обнаружен долгосрочный риск коллапса модели. В документе сказано, что сами сводки ИИ не являются частью обучающих данных. Зато выявляя созданные ИИ источники, они повышают их видимость и достоверность. Это увеличивает вероятность использования таких материалов в будущих обучающих наборах.
В Google уверены, что исследование некорректно, основано на неполных данных и ненадёжных технологиях. Там полагают, что ИИ-детекторы не доказали свою эффективность в обнаружении созданного ИИ контента.