Платим блогерам
Блоги
g1tarist
Исследуют ИИ, который бы мог принимать моральные решения.

Этот проект, получивший название "Исследование морали ИИ", проводится специалистами из Университета Дьюка. Основная цель - создать алгоритмы, способные анализировать и предсказывать человеческие моральные суждения в различных ситуациях, включая медицину, право и бизнес.

Профессор Уолтер Синнотт-Армстронг, который руководит исследованием, ранее изучал возможности ИИ в качестве помощника в принятии этически обоснованных решений. Вместе с коллегой Яной Борг он разработал алгоритм, который помогает решать вопросы донорства органов. Также они исследовали, как люди относятся к идее, что ИИ может принимать моральные решения за них.

Однако задача создания морального ИИ не из простых. Современные ИИ-системы строятся на статистических моделях, которые анализируют данные, но не способны понять этические принципы или эмоции, стоящие за моральными решениями. К тому же, данные, используемые для обучения ИИ, часто отражают ценности западных стран, что может привести к предвзятости в ответах ИИ.

Сложность задачи усугубляется тем, что мораль - понятие субъективное. Философы на протяжении тысячелетий спорят о достоинствах различных этических теорий, и универсальной модели пока не существует. Например, одни ИИ могут придерживаться кантианства, другие - утилитаризма. Создать алгоритм, который учитывал бы все эти аспекты, - задача высокой сложности.

Таким образом, исследование, финансируемое OpenAI, ставит перед учеными амбициозную цель - обучить ИИ понимать и предсказывать моральные суждения людей, что может кардинально изменить принятие решений во многих сферах жизни.

+
Написать комментарий (0)

Популярные новости

Сейчас обсуждают