Платим блогерам
Блоги
Breaking news
В будущем список инструментов для борьбы с негативным воздействием ИИ будет расширяться.

Технологии искусственного интеллекта всё глубже проникают в повседневную жизнь, но их применение может нести как пользу, так и вред, о чём задумались специалисты DARPA, которые представили почти два десятка инструментов, призванных встать на защиту людей при угрозе со стороны ИИ, пишет сайт NotebookCheck.

реклама

Источник фото: Pixabay

Сообщается, что в рамках программы Semantic Forensics (SemaFor) Управление перспективных исследовательских проектов Министерства обороны США (DARPA) разработало набор инструментов, которые могут эффективно выявлять так называемые «дипфейки», то есть аудио-, фото- и видеоматериалы, а также текстовые сообщения, созданные при помощи искусственного интеллекта, которые могут ввести в заблуждение человека.

В настоящий момент доступно девятнадцать инструментов с открытым исходным кодом для противодействия угрозам со стороны искусственного интеллекта, а в будущем их список будет пополняться новыми компонентами, создаваемыми благодаря дальнейшей работе специалистов в рамках проекта AI Forensics Open Research Challenge Evaluations (AI FORCE).

Отмечается, что данные инструменты должны помочь в борьбе с сообщениями в социальных сетях, которые присылают боты, поддельными фотографиями, сделанными при помощи Midjourney, а также фальшивыми аудио- и видеоматериалами, сгенерированными ИИ. Глобальная же миссия DARPA заключается в создании технологий для защиты национальных интересов и обеспечения безопасности.

Источник: notebookcheck.net
+
Написать комментарий (0)

Популярные новости

Сейчас обсуждают