Платим блогерам
Блоги
g1tarist
Почему искусственный интеллект - это все-таки может быть опасно для простого пользователя.

Основной проблемой работы искусственного интеллекта на платформах нейросетей - это непонимание мотива пользователя.

Сегодня, использование нейросетей, например, таких как ChatGPT уже не новость. Скорее всего, каждый, кто читает эту статью знаком с данной нейросетью или, как минимум, с ее аналогами. 

Активное распространение и развитие ИИ, как считают эксперты, может привести к росту мошенничества в интернете, созданию улучшенных неуязвимых версий вредоносных программ и распространению фейковых новостей.

Всё дело в том, что искусственный интеллект не знает мотив пользователя, а просто выполняет заданную задачу. Поэтому создание смешной картинки котика в солидном костюме и создание кода для программы мошеннических фишинговых рассылок для него одно и то же.

К примеру, один из последних своих отчетов команда исследователей "Recorded Future" прокомментировала следующим образом: "Способность ChatGPT убедительно имитировать человеческий язык позволяет ему стать мощным инструментом фишинга и социальной инженерии"

Отсутствие грамматических ошибок и правильная логическая последовательность работы ChatGPT, по словам команды исследователей, в разы повышает шансы мошенников на еще, как минимум, несколько миллионов обманутых людей.

А вот способность искусственного интеллекта постепенно обучаться становится еще одной проблемой мирового масштаба. Ведь такая способность на руку хакерам, которые создадут вредоносную программу и поставят ее в режим "автоматизированного обучения", что приведет к созданию чуть ли не абсолютно неуязвимого интернет-оружия.

Пока не совсем ясно как предотвратить генерацию отрицательных результатов работы ИИ. Но уже сейчас эксперты OpenAI разрабатывают решение в виде нанесения на работы искусственного интеллекта "водяных знаков", которые бы подтверждали, что материал создал нейросетью, а не человеком, а значит, такой материал может отличаться от реальной ситуации. Однако применять повсеместно такой ход не получится. Метка "создано ИИ" поможет лишь для борьбы с фейковой информацией, к примеру, в случае с deep fake.

Telegram-канал @overclockers_news - теперь в новом формате. Подписывайся, чтобы быть в курсе всех новостей!
2
Показать комментарии (2)

Популярные новости

Сейчас обсуждают