В последние годы искусственный интеллект (ИИ) стал неотъемлемой частью нашей жизни, и его влияние продолжает расти. Впрочем, новое исследование, проведенное в Калифорнийском университете в Мерседе, поднимает важные вопросы о том, насколько мы можем доверять машинам, особенно в критических ситуациях. В ходе эксперимента, где участники должны были принимать решения, касающиеся жизни и смерти, оказалось, что большинство из них склонны следовать указаниям роботов, даже если те давали случайные советы.
Исследование, опубликованное в журнале Scientific Reports, состояло из двух экспериментов, в которых участники имитировали управление вооруженным дроном. Они должны были принимать решения о том, запускать ли ракету по целям, которые мелькали на экране, или отступить. Каждая цель была помечена символом, обозначающим союзника или врага, однако в некоторых случаях участники сталкивались с немаркированными изображениями. В таких ситуациях им приходилось полагаться на собственную память и интуицию при выборе, кого атаковать.
После того как участники сделали свой выбор, робот высказывал свое мнение. Например, он мог сказать: «Я тоже думаю, что это враг» или «Мне кажется, это союзник». У испытуемых была возможность либо подтвердить, либо изменить свое решение на основе комментариев робота, который добавлял фразы вроде: «Надеюсь, вы правы». Интересно, что даже когда роботы не имели человеческого облика, участники все равно меняли свои решения в примерно двух третях случаев.
Различные типы роботов оказывали разное влияние на выборы участников. Полноразмерный человекоподобный андроид, который мог жестикулировать и поворачиваться, вызывал несколько больший эффект, чем менее гуманоидные версии, такие как коробчатые «боты». Однако даже в случае с менее антропоморфными роботами, испытуемые все равно поддавались влиянию в значительной степени.
Важно отметить, что участникам не сообщали, был ли их окончательный выбор правильным. Исходя из результатов, можно было предположить, что первоначальный выбор был верным примерно в 70% случаев, но после вмешательства робота точность решений упала до 50%. Это указывает на то, что даже с осознанием возможных последствий, испытуемые все равно доверяли советам машин.
Перед началом эксперимента участникам показывали изображения разрушений, оставшихся после атак беспилотников, а также невинных гражданских лиц, включая детей. Исследователи акцентировали внимание на важности серьезного подхода к симуляции, что подчеркивало моральные аспекты принимаемых решений. Несмотря на это, результаты показали, что участники, искренне стремившиеся избежать ошибок, все равно поддавались влиянию ИИ.
Профессор Колин Холбрук, главный исследователь, подчеркнул, что результаты исследования поднимают важные вопросы о том, насколько мы можем доверять ИИ в условиях неопределенности. Он отметил, что общество должно проявлять осторожность и скептицизм, особенно когда речь идет о решениях, которые могут иметь серьезные последствия. Это касается не только военных решений, но и применения ИИ в других сферах, таких как правоохранительные органы или медицина.
Исследование также подчеркивает, что, несмотря на достижения в области ИИ, машины не всегда могут учитывать этические ценности или глубокое понимание контекста. Холбрук призвал к осторожности, когда мы передаем ИИ контроль над важными аспектами нашей жизни, поскольку чрезмерное доверие может привести к катастрофическим последствиям.