Платим блогерам
Блоги
PoZiTiv4iK
Американские ученые выявили серьезные уязвимости в роботах с искусственным интеллектом, способные привести к катастрофическим последствиям. В их отчете описаны случаи, когда хакеры превращали дружелюбных роботов в опасные устройства.

Недавнее исследование, проведенное специалистами из Пенсильванского университета (США) показало, что ряд робототехнических систем с искусственным интеллектом имеют серьезные уязвимости, которые легко поддаются взлому. В отличие от обычных компьютеров, где хакерские атаки могут вызвать лишь сбои в системе, взлом робота или беспилотного автомобиля может привести к реальным трагедиям, угрожающим жизни людей.

В своем отчете, опубликованном в IEEE Spectrum, ученые описали тревожные примеры использования взломанных роботов. Они упомянули случаи, когда робот-собака, подверженный хакерской атаке, нацеливался на своих владельцев с огнеметом или направлял бомбы в самые разрушительные места. Другие устройства, такие как беспилотные автомобили, могли намеренно сбивать пешеходов. Эти сценарии звучат как сюжет фильма ужасов, но реальность оказалась не менее пугающей.

Ученые разработали метод взлома, названный RoboPAIR, который продемонстрировал 100%-ный успех при атаке на устройства от трех различных производителей. Это подчеркивает, насколько легко злоумышленникам получить контроль над роботами. Джордж Паппас, профессор в области электротехники и системной инженерии, отметил, что современные большие языковые модели (LLM) недостаточно безопасны для интеграции с физическим миром. Важно понимать, что такие уязвимости могут иметь катастрофические последствия.


Работа RoboPAIR основана на использовании интерфейсов прикладного программирования (API) целевых роботов. Злоумышленник может формировать запросы так, чтобы устройства выполняли их как код. Этот процесс напоминает джейлбрейк для ИИ-чатботов, но с гораздо более серьезными последствиями. Паппас подчеркнул, что компании-производители роботов не спешили изучать уязвимости, так как вопросами безопасности традиционно занимались разные сообщества.

Сравнивая с обычными LLM, которые используются для генерации текстов и изображений, роботизированные LLM действуют в физическом мире. Это означает, что они могут нанести значительный ущерб. Например, робот-собака, предназначенный для помощи, может стать угрозой, превратившись в механизм для нанесения вреда. Беспилотные автомобили, управляемые хакерами, могут стать орудием массового уничтожения.

Исследование также показало, что взломанные ИИ могут не только выполнять вредоносные команды, но и предлагать новые способы создания хаоса. Ученые из США призвали к внедрению мер защиты, которые физически ограничивают действия роботов с LLM, чтобы предотвратить потенциальные катастрофы.

+
Написать комментарий (0)

Популярные новости

Сейчас обсуждают