Новое исследование, проведенное специалистами Microsoft совместно с Университетом Карнеги-Меллона, раскрывает неожиданную темную сторону повсеместного внедрения искусственного интеллекта в рабочие процессы. Ученые выявили тревожную зависимость: чем активнее специалисты используют генеративный ИИ в повседневной работе, тем заметнее ослабевает их способность к критическому анализу и самостоятельному решению задач в соответствующей области. Проще говоря, мозг, регулярно полагающийся на машинную помощь, постепенно утрачивает навыки, которые ранее использовал для тех же целей.
Предварительные результаты этого исследования, опубликованные Microsoft в виде PDF-файла, будут официально обнародованы на конференции ACM CHI в апреле 2025 года, посвященной человеческому фактору в компьютерных системах. Объектом изучения стали 319 сотрудников интеллектуального труда – от преподавателей и валютных трейдеров до специалистов по маркетинговым исследованиям и анализу программного кода. Все они имели опыт интеграции генеративных нейросетей в свою профессиональную деятельность. Разнообразие профессий участников подчеркивает масштаб проникновения искусственного интеллекта в различные сферы. Исследователи зафиксировали 936 конкретных примеров использования как текстовых (например, ChatGPT), так и графических (например, DALL-E) нейросетей в рабочих процессах.
Среди самых распространенных задач особо выделены создание маркетинговых стратегий с помощью ChatGPT, генерация иллюстраций для учебных материалов в DALL-E, и даже использование ChatGPT для составления писем новым коллегам, с которыми еще не установился личный контакт. Особое беспокойство вызывает пример из медицинской практики: медсестра применила генеративный ИИ для подготовки информационного буклета для пациентов, впервые столкнувшихся с диагнозом "диабет". Несмотря на уверения в последующей проверке контента, сам факт обращения к нейросети для создания медицинских материалов поднимает вопросы о потенциальных рисках.
В рамках исследования каждый участник заполнил подробную анкету. Один из блоков вопросов был посвящен оценке уверенности по трем направлениям: в возможностях ИИ-инструмента, в собственной способности оценить качество результата, выданного ИИ, и в умении выполнить задачу самостоятельно, без привлечения искусственного интеллекта. Учитывая, что люди склонны искать внешнюю поддержку, когда сомневаются в собственных силах (будь то коллеги, фрилансеры или, как в данном случае, ИИ), анкета также включала вопросы о рефлексии над рабочим процессом и уровне усилий, затраченных на задачи, выполняемые с помощью ИИ, на протяжении времени. Полученные данные были проанализированы в контексте таксономии Блума – иерархической модели, изначально разработанной для педагогики, но сегодня применяемой и для оценки критического мышления в различных областях.
Анализ данных показал, что использование генеративного ИИ активизировало критическое мышление сотрудников лишь в контексте оценки качества ответов, предоставляемых нейросетью. При этом, даже на этапе проверки результатов, критическое мышление применялось лишь в 60% случаев (примерно 560 из 936 проанализированных задач). Выявлена четкая обратная корреляция: чем выше была уверенность сотрудника в возможностях ИИ, тем реже он прибегал к критическому анализу при выполнении задачи с его помощью.
Исследование также выявило ряд ситуационных факторов, повышающих вероятность обращения к генеративному ИИ. В 17% случаев (55 из 319 участников) сотрудники использовали ИИ из-за нехватки времени на самостоятельное выполнение задачи или из-за того, что задача выходила за рамки их прямых должностных обязанностей. Однако, в большинстве случаев (более 30% от общего числа участников), причиной обращения к ИИ становилось простое доверие к инструменту и убеждение, что нейросеть справится с задачей качественно, либо восприятие задачи как «слишком простой и незначительной».
Авторы исследования подчеркивают: "Нерациональное применение технологий неминуемо ведет к деградации когнитивных способностей, которые необходимо поддерживать в тонусе. Парадокс автоматизации заключается в том, что, освобождая человека от рутинных операций и перекладывая на него лишь обработку исключений, мы лишаем его регулярной практики в применении собственного суждения и ослабляем его 'когнитивную мускулатуру'. В результате, когда действительно возникают нештатные ситуации, человек оказывается неподготовленным".