Технологии искусственного интеллекта всё глубже проникают в повседневную жизнь, но их применение может нести как пользу, так и вред, о чём задумались специалисты DARPA, которые представили почти два десятка инструментов, призванных встать на защиту людей при угрозе со стороны ИИ, пишет сайт NotebookCheck.

Источник фото: Pixabay
Сообщается, что в рамках программы Semantic Forensics (SemaFor) Управление перспективных исследовательских проектов Министерства обороны США (DARPA) разработало набор инструментов, которые могут эффективно выявлять так называемые «дипфейки», то есть аудио-, фото- и видеоматериалы, а также текстовые сообщения, созданные при помощи искусственного интеллекта, которые могут ввести в заблуждение человека.
В настоящий момент доступно девятнадцать инструментов с открытым исходным кодом для противодействия угрозам со стороны искусственного интеллекта, а в будущем их список будет пополняться новыми компонентами, создаваемыми благодаря дальнейшей работе специалистов в рамках проекта AI Forensics Open Research Challenge Evaluations (AI FORCE).
Отмечается, что данные инструменты должны помочь в борьбе с сообщениями в социальных сетях, которые присылают боты, поддельными фотографиями, сделанными при помощи Midjourney, а также фальшивыми аудио- и видеоматериалами, сгенерированными ИИ. Глобальная же миссия DARPA заключается в создании технологий для защиты национальных интересов и обеспечения безопасности.

