После того как Samsung Semiconductor позволила своим инженерам использовать ChatGPT для помощи, они начали использовать его для быстрого исправления ошибок в исходном коде, также появились утечки конфиденциальной информации, такой как заметки с внутренних совещаний и данные, связанные с доходностью. Теперь компания планирует разработать собственный ИИ-сервис, похожий на ChatGPT, для внутреннего использования. Но пока он ограничивает длину отправляемых в сервис вопросов до 1024 байт, сообщает Economist.
На данный момент Samsung Semiconductor зафиксировала три случая использования ChatGPT, которые привели к утечке данных. Хотя их количество может показаться не таким уж большим, все они произошли в течение 20 дней, так что ситуация весьма тревожная.
В одном случае сотрудник Samsung Semiconductor передал исходный код проприетарной программы в ChatGPT для исправления ошибок, которые, по сути, раскрыли код сверхсекретного приложения искусственному интеллекту, управляемому сторонней компанией.
Второй случай был, возможно, еще более тревожным, поскольку другой сотрудник ввел тестовые шаблоны, предназначенные для выявления дефектных чипов, и запросил оптимизацию. Тестовые последовательности, предназначенные для выявления дефектов, являются строго конфиденциальными. Между тем, оптимизация этих тестовых последовательностей и, возможно, сокращение их количества может ускорить процедуры тестирования и проверки кремния, что значительно сократит затраты.
Еще один сотрудник использовал приложение Naver Clova для преобразования записи совещания в документ, а затем отправил его в ChatGPT для подготовки презентации.
Эти действия явно подвергают риску конфиденциальную информацию, что побудило Samsung предупредить своих сотрудников об опасностях использования ChatGPT. Samsung Electronics проинформировала своих руководителей и сотрудников о том, что данные, введенные в ChatGPT, передаются и хранятся на внешних серверах, что делает невозможным их получение компанией и увеличивает риск утечки конфиденциальной информации. Хотя ChatGPT является мощным инструментом, его функция открытых обучающих данных может раскрывать конфиденциальную информацию третьим лицам, что неприемлемо в высококонкурентной полупроводниковой отрасли.
Компания в настоящее время готовит защитные меры для предотвращения подобных утечек в будущем. В случае повторного инцидента, даже после реализации экстренных мер по защите информации, доступ к ChatGPT может быть заблокирован в сети компании. Тем не менее ясно, что такие вещи, как генеративный ИИ и различные инструменты автоматизации электронного проектирования с поддержкой ИИ, являются важным аспектом будущего производства микросхем.
На вопрос об инциденте с утечкой информации представитель Samsung Electronics отказался подтвердить или опровергнуть информацию, поскольку это было внутренним делом.

