Изображение с сайта amp.ammiac.com
Эксперты встревожились тем, что генеративный искусственный интеллект обучается на контенте, сгенерированном другими ИИ. Появление искусственного интеллекта может полностью изменить Интернет в том виде, в каком мы его сейчас знаем. Для этого явления эксперты придумали новый термин, названым «коллапсом модели». Это может в дальнейшем привести к тому, что ИИ будет генерировать результаты низкого качества.
Новый термин пришлось ввести в связи с тем, что контент, созданный искусственным интеллектом на основе контента созданного другими ИИ выдаёт ответы низкого качества, наполненного ошибками, так-как обучался он на основе синтетических данных, а не на основе уникального человеческого опыта. И это создаёт угрозу для самой технологии ИИ, которая сама её и породила.
В своём исследовании проведённом на тему обучения генеративного искусственного интеллекта, такие как ChatGPT, команда учёных из Оксфордского и Кембриджского университетов, выяснили, что большие языковые модели, лежащие в основе генеративной ИИ, потенциально способны обучаться на другом контенте, созданном искусственным интеллектом. А так как контент сгенерированный искусственным интеллектом в настоящее время активно наполняет интернет, в скором времени это может привести к "коллапсу модели".
В свою очередь, исследователи утверждают, что инструменты генеративного искусственного интеллекта могут отвечать на запросы пользователей результатами более низкого качества, поскольку их модели все чаще обучаются на «синтетических данных», а не на созданном человеком контенте, что делает их ответы уникальными.
Кроме этого, в статье опубликованной в июле, другие исследователи из Университета Райса придумали свои собственные термины для описания этого явления. В своей статье этот феномен назван «модельным расстройством автографии», при котором «самопоглощающий» цикл обучения ИИ на контенте, сгенерированном другими ИИ, может привести к тому, что генеративные инструменты ИИ «обречены», а «качество» и «уникальность» сгенерированных изображений и текста снижается.
Также, Джатан Садовски, старший научный сотрудник исследовательской лаборатории новых технологий в Австралии, занимающийся исследованием ИИ, назвал это явление «габсбургским ИИ», утверждая, что системы ИИ, тщательно обученные на результатах генерации других больших языковых моделей генеративного ИИ, могут создавать «изуродованные мутации ответов».
Тем не менее, по заявлениям исследователей, истинные последствия этих явлений до сих пор неясны. Некоторые технические исследователи полагают, что «коллапс модели» и инбридинг ИИ могут затруднить определение первоисточника информации, на котором обучался искусственный интеллект. В результате поставщики достоверной информации, такие как средства массовой информации, могут ограничить свободный доступ к своим публикациям в интернете, что бы ограничить использование их контента для обучения ИИ. По мнению генерального директора исследовательской компании Constellation Research, Рэя Ванга, это может привести к непредсказуемым последствиям.
В противоположность вышесказанному, другие технические специалисты не выскакивают подобных опасений.
Саураб Баджи, старший вице-президент по разработкам в технологический компании Cohere, рассказал, что человеческое руководство «по-прежнему имеет решающее значение для создания успешных и качественных ответов, генерируемых искусственным интеллектом, и что накопление контента, создаваемого искусственным интеллектом, сделает произведения созданные человеком ещё более ценными.
Все эти исследования и дискуссии появились неспроста. С тех пор как в ноябре прошлого года OpenAI запустила ChatGPT, контент, созданный искусственным интеллектом, наводнил Интернет.
Компания NewsGuard, которая специализируется на оценке надежности новостных веб-сайтов, выявила 452 новостных агентства, созданных искусственным интеллектом которые практически не контролируются человеком, и содержат статьи с неверными сведениями.
По данным NewsGuard, новостные сайты созданные ИИ, могут понравиться читателям, которые примут их за авторитетный источник информации, и это будет способствовать распространению дезинформации.
Но, как уже стало известно, не только новостные сайты, публикуют статьи, созданные искусственным интеллектом и содержащие неточности. Совсем недавно корпорация Microsoft удалила несколько статей в своём блоге о путешествиях. В одной из этих статей, которые создал искусственный интеллект, содержались рекомендации посетить Оттавский продовольственный банк и советовали придти в него натощак.
Теперь, людям станет труднее искать достоверную информацию в интернете, созданную под контролем человека. Развитие инструментов искусственного интеллекта навсегда изменит интернет.