Национальная служба экономической разведки

Национальная служба экономической разведки – это крупнейшая Российская организация, занимающаяся сбором, обработкой и анализом информации экономического характера о ситуации в различных секторах рынка, а также его участниках.
Национальная служба экономической разведки специализируется на комплексном информационно-аналитическом обеспечении ведущих предприятий Российской Федерации. Благодаря профессионализму и огромному опыту сотрудников службы, мы добиваемся самых лучших результатов в работе и гордимся нашим вкладом в защиту экономической безопасности предприятий России.
Служба имеет представительства в разных регионах России, включая города федерального значения.

Безопасно ли использовать ChatGPT и прочие БЯМ?

Инструменты ИИ встречаются везде — от операционных систем и офисных пакетов до графических редакторов и чатов. Как пользоваться ChatGPT и их многочисленными надстройками без угрозы для своей цифровой безопасности?

 

 

Взрывной рост приложений, сервисов и плагинов для работы с искусственным интеллектом (ИИ), произошедший в прошлом году, очевидно, будет лишь ускоряться. ИИ внедряют в давно привычные инструменты — от офисных программ и графических редакторов до сред разработки вроде Visual Studio. Все, кому не лень, создают тысячи новых приложений, обращающихся к крупнейшим ИИ-моделям. Но в этой гонке пока никто не сумел решить проблемы безопасности — не организовать полноценную защиту от футуристического «злого ИИ», а хотя бы минимизировать проблемы с утечкой конфиденциальных данных или выполнением хакерских действий на ваших аккаунтах и устройствах через разнообразные ИИ-инструменты. Пока не придумано готовых коробочных решений для защиты пользователей ИИ-ассистентов, придется кое-чему подучиться и помочь себе самостоятельно.

 

Фильтруйте важные данные

Политика конфиденциальности OpenAI, компании-разработчика ChatGPT, вполне недвусмысленно уведомляет, что все диалоги с чат-ботом сохраняются и могут быть использованы для нескольких целей. Во-первых, для решения технических проблем или работы с нарушениями: вдруг кому-нибудь — удивительно! — придет в голову сгенерировать недопустимый контент? В этом случае чаты может даже посмотреть живой человек. Во-вторых, эти данные могут быть использованы для обучения новых версий GPT и других «усовершенствований продукта». Большинство других популярных языковых моделей, будь то Bard от Google, Claude или разновидности ChatGPT от Microsoft (Bing, Copilot и так далее), имеют схожие политики: все они могут сохранять диалоги целиком.

 

При этом непреднамеренные утечки диалогов уже случались в результате программных ошибок — некоторые пользователи видели чужие переписки вместо своих. А использование этих данных для обучения может привести к утечке информации из уже обученной модели — ИИ-ассистент может выдать кому-нибудь ваши сведения, если они покажутся ему уместными в контексте ответа. Ну а специалисты по ИБ разработали целый ряд атак для целенаправленного воровства диалогов и наверняка не остановятся на достигнутом. Поэтому помните: все, что вы напишете чат-боту, может быть использовано против вас. При общении с ИИ екомендуется соблюдать меры предосторожности. Не отправляйте чат-боту никакие персональные данные. Пароли, номера паспортов и банковских карт, адреса, телефоны, имена и другие личные данные — ваши, вашей компании, ваших клиентов, — не должны попадать в переписку с ИИ. Вместо них в запросе можно оставить несколько звездочек или пометку REDACTED.

 

Не загружайте документы. Многочисленные плагины и приложения-надстройки позволяют пользоваться чат-ботами для обработки документов. Возникает сильное искушение загрузить в сервис рабочий документ, чтобы, например, получить его краткое изложение. Но, загружая многостраничный документ не глядя, вы рискуете «слить» конфиденциальные данные, интеллектуальную собственность или коммерческую тайну — например, даты запуска новых продуктов или зарплаты всего отдела. А при обработке документов, присланных из внешних источников, и вовсе можно подвергнуться атаке, рассчитанной на чтение документа языковой моделью.

Используйте настройки конфиденциальности. Внимательно изучите политику конфиденциальности и доступные настройки своего поставщика языковой модели — с их помощью обычно можно минимизировать отслеживание. Например, в разработках OpenAI можно отключить сохранение истории чатов — тогда через 30 дней данные будут удалены и никогда не будут использоваться для обучения. У тех, кто пользуется решениями OpenAI по API, через сторонние клиентские приложения или сервисы, эта настройка подключается автоматически.

Отправляете код? Почистите его от конфиденциальных данных. Отдельный совет — программистам, использующим ИИ-ассистенты для проверки и доработки кода: исключайте API-ключи, адреса серверов и другую информацию, выдающую структуру приложения и серверной инфраструктуры.

 

Ограничьте использование сторонних приложений и плагинов

Все вышеперечисленные рекомендации нужно применять всегда, вне зависимости от того, каким из популярных ИИ-ассистентов вы пользуетесь. Но даже этого может оказаться мало для обеспечения конфиденциальности. Использование подключаемых модулей (плагины в ChatGPT, расширения в Bard) или отдельных приложений-надстроек создает новые типы угроз.

Во-первых, ваша история общения теперь может храниться не только на серверах Google или OpenAI, но и на серверах третьей стороны, поддерживающей работу плагина или надстройки, а также в непредсказуемых уголках вашего компьютера или смартфона.

Во-вторых, большинство плагинов получают информацию из внешних источников: ищут в Интернете, подключаются к вашему почтовому ящику Gmail или личным заметкам в сервисах вроде Notion/Jupyter/Evernote. В результате любые ваши данные изо всех этих ресурсов тоже могут оказаться на серверах, где работает плагин или сама языковая модель. Риски такой интеграции могут быть значительными: взгляните, например, на атаку, которая от имени пользователя создает новые репозитории на GitHub.

В-третьих, процесс публикации и верификации плагинов для ИИ-ассистентов сегодня организован куда хуже, чем, например, проверка приложений в App Store или Google Play. Поэтому шансы натолкнуться на плохо работающий, некачественно написанный, содержащий ошибки, а то и откровенно вредоносный плагин далеко не нулевые — тем более что авторов и их контактные данные, похоже, не особо и проверяют.

Как снизить эти риски? Наш главный совет — подождать. Экосистема плагинов слишком молода, процессы публикации и поддержки плагинов недостаточно отлажены, а сами авторы далеко не всегда заботятся о том, чтобы правильно спроектировать плагин или соблюсти требования информационной безопасности. Всей этой экосистеме нужно больше времени, чтобы дозреть до надежного и безопасного состояния.

 

 

По материалам Касперский