Платим блогерам
Блоги
letsplay
Забыть информацию ИИ может, защищенную авторскими правами или содержащую чувствительный контент.

Научные сотрудники Техасского университета в Остине (University of Texas at Austin) смогли разработать новый вид машинного обучения – «машинное отучение». С помощью этой методики искусственный интеллект, работающий с картинками, научился «забывать» изображения и не использовать их при генерации контента. Это может быть полезно в тех случаях, когда нейросеть сталкивается с изображениями насилия или с авторским правом.

Нейросети чаще всего берут данные для обучения в Сети. Само собой, помимо действительно полезной и имеющей место информации искусственный интеллект подхватывает и лишнее – например, конфиденциальную информацию, защищенный контент, неприемлемые изображения. Позже эти данные служат для генерации ответов на запросы.

Может быть интересно

Раду Маркулеску, один из авторов разработки, отмечает, что огромные количества информации всегда неизбежно влекут за собой контакт с нежелательными данными. До создания «машинного отучения» разработчикам приходилось самостоятельно, вручную убирать проблемную информацию и заново учить нейросеть. Теперь же, отмечает исследователь, не придется переучивать искусственный интеллект с самых основ.

Разработка исследователей работает следующим образом: искусственный интеллект обрабатывает изображение, которое нужно забыть, и просто потом его больше не использует при создании новых картинок.

1
Показать комментарии (1)
Теперь в новом формате

Наш Telegram-канал @overclockers_news
Подписывайся, чтобы быть в курсе всех новостей!

Популярные новости

Сейчас обсуждают