Основной проблемой работы искусственного интеллекта на платформах нейросетей - это непонимание мотива пользователя.
Сегодня, использование нейросетей, например, таких как ChatGPT уже не новость. Скорее всего, каждый, кто читает эту статью знаком с данной нейросетью или, как минимум, с ее аналогами.
Активное распространение и развитие ИИ, как считают эксперты, может привести к росту мошенничества в интернете, созданию улучшенных неуязвимых версий вредоносных программ и распространению фейковых новостей.
Всё дело в том, что искусственный интеллект не знает мотив пользователя, а просто выполняет заданную задачу. Поэтому создание смешной картинки котика в солидном костюме и создание кода для программы мошеннических фишинговых рассылок для него одно и то же.
К примеру, один из последних своих отчетов команда исследователей "Recorded Future" прокомментировала следующим образом: "Способность ChatGPT убедительно имитировать человеческий язык позволяет ему стать мощным инструментом фишинга и социальной инженерии"
Отсутствие грамматических ошибок и правильная логическая последовательность работы ChatGPT, по словам команды исследователей, в разы повышает шансы мошенников на еще, как минимум, несколько миллионов обманутых людей.
А вот способность искусственного интеллекта постепенно обучаться становится еще одной проблемой мирового масштаба. Ведь такая способность на руку хакерам, которые создадут вредоносную программу и поставят ее в режим "автоматизированного обучения", что приведет к созданию чуть ли не абсолютно неуязвимого интернет-оружия.
Пока не совсем ясно как предотвратить генерацию отрицательных результатов работы ИИ. Но уже сейчас эксперты OpenAI разрабатывают решение в виде нанесения на работы искусственного интеллекта "водяных знаков", которые бы подтверждали, что материал создал нейросетью, а не человеком, а значит, такой материал может отличаться от реальной ситуации. Однако применять повсеместно такой ход не получится. Метка "создано ИИ" поможет лишь для борьбы с фейковой информацией, к примеру, в случае с deep fake.