Создатели чат-ботов на основе технологий искусственного интеллекта и нейросетей часто предусматривают для своих творений ограничения — например, касающихся острых, спорных и чувствительных тем. Одной из таких тем, безусловно, является политика. Как выяснилось, в китайский чат-бот DeepSeek встроен механизм цензуры, но работает он не далеко не идеально, поэтому иногда ИИ успевает выдать частичный или полный ответ на заданный вопрос, а потом стирает написанное и заявляет, что не готов обсуждать указанную тему.
Так, если попросить DeepSeek рассказать о нарушениях прав человека в Китае, чат-бот может представить целый доклад, состоящий из 7-10 пунктов. Впрочем, в большинстве случаев ответ обрывается на середине, немедленно удаляется и заменяется фразой-заглушкой: «Sorry, that's beyond my current scope. Let’s talk about something else». Примечательно, что в некоторых случаях чат-бот сразу отказывается говорить на предложенную тему, указывая, что она является слишком чувствительной. От чего именно зависит, как ответит нейросеть — непонятно, но логика работы ИИ в принципе пока недостаточно исследована и является предметом многочисленных научных споров.