
Несколько сотрудников южнокорейской компании решили пообщаться с искусственным интеллектом, созданным на основе модели GPT-3, и "случайно" раскрыли ему секреты разработки новых продуктов.
Напомню, что ChatGPT - это бот, который способен вести диалог на различные темы, используя глубокое обучение и нейронные сети. Бот доступен для общения через веб-сайт или мобильное приложение. Сотрудники Samsung, по всей видимости, хотели проверить его способности и задавали ему разные вопросы, связанные с их работой.
Однако они не учли, что бот запоминает все, что ему говорят, и может использовать эту информацию в будущих диалогах. Таким образом, бот узнал фрагмент исходного кода нового приложения, алгоритм выявления дефектов на чипах и стенограмму производственного совещания. Более того, бот получил доступ к некоторым техническим характеристикам разрабатываемых устройств.
Как только это стало известно руководству Samsung, оно немедленно начало расследование и выяснило имена виновных сотрудников. Они были уволены с компании и подвергнуты юридическому преследованию за нарушение корпоративной этики и разглашение коммерческой тайны. Кроме того, Samsung обратилась к разработчикам ChatGPT с требованием удалить все конфиденциальные данные из памяти бота.
Представители ChatGPT заявили, что они не несут ответственности за то, что пользователи говорят своему боту, и что они не могут контролировать все его диалоги. Однако они пообещали сделать все возможное, чтобы предотвратить утечку данных в общественность. Они также призвали всех пользователей быть осторожными и не давать боту личную или конфиденциальную информацию.
Этот инцидент стал предупреждением для всех компаний и организаций, которые работают с искусственным интеллектом. Необходимо помнить, что боты не являются живыми существами и не обладают моралью или этикой. Они могут использовать любую информацию в своих целях или передать ее третьим лицам. Поэтому нужно быть очень внимательными и осторожными при общении с ними.

