search
Cloud Блог – Вопросы безопасности Copilot нашли ответы: безопасно ли использовать Copilot?
Microsoft

Вопросы безопасности Copilot нашли ответы: безопасно ли использовать Copilot?

Согласно Harvard Gazette, еще в 2020 году конфиденциальность данных была одной из самых озвучиваемых проблем вокруг искусственного интеллекта. С появлением и последующим наплывом крупных языковых моделей и генеративного ИИ за последние два года уровень их внедрения стремительно вырос в компаниях разных отраслей, а корпоративная слежка также попала в список опасений. Некоторые другие неотложные проблемы в этом контексте включали возможности воровства интеллектуальной собственности и утечки конфиденциальных данных.

Поскольку нормативно-правовая база, регулирующая ИИ и его использование, остается достаточно неразвитой или отсутствующей во многих юрисдикциях, IT-гигантам, стоящим за ведущими платформами, пришлось взять ситуацию под контроль и разъяснить свою политику. Эта статья ставит своей целью ответить на беспокойство касательно безопасности Copilot, используя публичную информацию Microsoft.

Как это работает?

Microsoft Copilot интегрирует помощь ИИ непосредственно в пакет Microsoft 365. Давайте рассмотрим эту технологию пошагово.

Microsoft Copilot может получить доступ к содержимому организации только при согласии во время чата. Это может произойти тремя способами:

  • Вы вводите или вставляете информацию непосредственно в чат.
  • Вы загружаете файл через окно чата с помощью значка скрепки (перетаскивание также доступно в режиме предварительного просмотра).
  • Вы используете Copilot в Edge с включенной настройкой «Разрешить доступ к любой веб-странице или PDF» и открываете страницу в интранете. Copilot может использовать содержимое таких страниц для ответа на ваши вопросы.

В первую очередь — безопасный доступ. Вы входите с помощью своего Entra ID, подтверждая личность и лицензию. После аутентификации связь становится безопасной. Когда вы взаимодействуете с Copilot, данные вашего чата претерпят важные изменения. Любая информация, которая может идентифицировать вас или вашу организацию, тщательно удаляется. Эти анонимизированные данные затем безопасно передаются Copilot Orchestrator — центру, управляющему связью в системе. После безопасной передачи Copilot Orchestrator направляет ваши подсказки и желаемые действия (запросы) Copilot, ранее известному как Bing Chat. Важно отметить, что Copilot работает как подключенная возможность отдельно от Microsoft 365, расширяя его охват и потенциал.

Теперь происходит настоящая магия. За кулисами стоит мощная сила — частный экземпляр Azure OpenAI. Он оснащен современными моделями, а именно GPT-4 и DALL-E 3, специально обученными для таких задач, как генерация текста, перевод языков и создание изображений. Важно, что сама OpenAI не имеет доступа к этим частным моделям или обрабатываемым ими данным.

Для обеспечения точности и актуальности ответов Copilot на сцену выходят поисковые запросы. Эти запросы тщательно основывают ваши промпты и ответы на последних данных из массивного индекса поиска Bing, гарантируя, что получаемая информация отвечает вашим потребностям и отображает новейшие открытия. Для дополнительного доверия и прозрачности ссылки автоматически включаются в ответы Copilot, четко указывая источники, использованные для создания информации, и предоставляя вам возможность проверить ее точность (и изучить далее, если пожелаете).

Учитывая, что проблемы безопасности Copilot находятся в центре внимания, защитные меры остаются обязательными на каждом этапе. Все данные шифруются при передаче с помощью надежного протокола TLS 1.2+, что гарантирует безопасную связь между вами и системой. Кроме того, для защиты вашей конфиденциальности сеансы чата являются временными. Эти временные данные шифруются в покое по стандарту AES-128. После завершения сеанса чата как промпты, так и ответы удаляются, гарантируя отсутствие следов вашего взаимодействия, если вы явно не сохраните их.

Красота Copilot заключается в его доступности. Вы можете взаимодействовать с ним с разных платформ, включая специализированный веб-сайт (copilot.microsoft.com), непосредственно через движок Bing в любом современном браузере (десктопном или мобильном), в Microsoft Edge и даже в самой среде Windows. Эта гибкость позволяет Copilot плавно интегрироваться в ваш рабочий процесс независимо от того, где вы работаете (как использовать Microsoft Copilot?).

Не уверены, что готовы к ИИ? Не проблема. Закажите Proof-of-Concept, чтобы увидеть, как Copilot может улучшить ваш опыт работы с Microsoft 365. Заказать сейчас →
CTA Image

Проблемы безопасности Copilot: Как Microsoft 365 защищает ваши данные

Ниже перечислены мероприятия, которые компания применяет для обеспечения конфиденциальности и безопасности Microsoft Copilot.

Использование существующих разрешений

Microsoft Copilot не работает в изоляции. Он полагается на модели разрешений, уже установленные в вашем клиенте Microsoft 365, то есть Copilot может получать доступ и использовать данные, которые вы, как пользователь, уже имеете право видеть. Такой подход гарантирует строгое соблюдение существующих систем контроля доступа к данным, предотвращая случайные утечки между пользователями, группами или даже разными клиентами в экосистеме Microsoft 365.

Уважение пределов идентичности пользователя

Microsoft Copilot использует технологию под названием «семантический индекс». Он играет ключевую роль в базировании промптов и результатов на соответствующих данных; однако даже в этом процессе идентичность пользователя остается ключевой. Семантический индекс строго соблюдает границы доступа на основе идентичности пользователя. Проще говоря, он получает доступ только к содержимому, которое вы, текущий пользователь, имеете право видеть, что дополнительно укрепляет конфиденциальность данных Microsoft Copilot и предотвращает несанкционированный доступ к чувствительной информации.

Шифрование данных

Многие организации используют защиту информации Microsoft Purview для шифрования данных, которую можно применить с помощью меток конфиденциальности или ограниченных разрешений в программах с помощью управления правами на информацию (IRM). Хорошая новость: Microsoft Copilot полностью придерживается прав использования, предоставленных пользователю, когда сталкивается с данными, зашифрованными Microsoft Purview. То есть даже зашифрованные данные остаются защищенными и не могут быть доступны за пределами разрешений пользователя.

Многоуровневая инфраструктура безопасности

Microsoft понимает важность безопасности данных, и Copilot получает преимущества от надежной инфраструктуры, уже имеющейся в Microsoft 365. Вот некоторые ключевые аспекты этого подхода, который может раскрыть определенные вопросы безопасности Copilot:

  • Содержимое пользователя в каждом клиенте Microsoft 365 логически изолировано с помощью авторизации Microsoft Entra и контроля доступа на основе ролей (RBAC), что означает, что данные не будут случайно смешиваться между разными пользователями или организациями.
  • Microsoft использует строгие физические меры безопасности, проверку работников и многоуровневое шифрование, защищая конфиденциальность и целостность пользовательского содержимого в течение всего жизненного цикла.
  • Microsoft 365 использует технологии на стороне сервера для шифрования содержимого клиента в покое и передаче. Это включает в себя такие технологии, как BitLocker, шифрование на уровне файлов, протокол безопасности транспортного уровня (TLS), о котором мы говорили ранее, и протокол интернет-безопасности (IPsec).

Приверженность правилам конфиденциальности

Компания признает важность проблем конфиденциальности данных Microsoft Copilot и соблюдает строгий набор правил и стандартов. Эта приверженность заключается в соблюдении широко применяемых законов, таких как GDPR, и отраслевых стандартов, таких как ISO/IEC 27018 (ведущий мировой кодекс для обеспечения конфиденциальности облака).

Контроль доступа плагинов

В Microsoft Copilot можно получить доступ через плагины в Microsoft 365. Здесь также существует дополнительный уровень безопасности. Шифрование может применяться для отключения программного доступа для этих плагинов. Иными словами, плагины не могут читать содержимое, которое им не предназначено, что дополнительно ограничивает потенциал несанкционированного доступа.

Защита от взлома

API Prompt Shields действует как защитный экран при взаимодействии с большими речевыми моделями. Он следит за множеством тактик злоумышленников, разработанных для манипулирования поведением ИИ и потенциального нарушения безопасности или конфиденциальности. Эти тактики могут варьироваться: от обхода установленных правил и подачи обманчивых инструкций к выдаче себя за другую систему или кодировку несанкционированных команд. Обманчивое манипулирование данными, передаваемыми ИИ, является еще одной проблемой безопасности Copilot, решаемой Prompt Shields, вместе с попытками вмешаться в систему и похитить или нарушить данные. API защищает пользователей даже от злоумышленников, которые пытаются обманом заставить их разглашать свои финансовые данные или распространять вредоносное программное обеспечение.

Местонахождение данных

При включении коммерческой защиты данные чата кэшируются только временно в течение короткого периода во время сеанса повышения производительности. Эти кэшированные данные затем удаляются после закрытия браузера, сброса чата или завершения сеанса.

По состоянию на 1 марта 2024 г. Microsoft предлагает обязательства по резидентности данных для клиентов Copilot для Microsoft 365 через свои предложения Advanced Data Residency (ADR) и Multi-Geo Capabilities. Для пользователей в Европейском Союзе Copilot для Microsoft 365 обретает преимущества EU Data Boundary (EUDB), что означает, что их данные обрабатываются в ЕС. Однако для клиентов вне ЕС запросы Copilot могут обрабатываться в Соединенных Штатах, Европейском Союзе или даже в других регионах.

Существуют некоторые ограничения на гарантии соответствия дополнительным функциям на основе Bing в Copilot. Эти функции не обязательно соответствуют соглашениям Microsoft по границе данных ЕС (EUDB) или приложению защиты данных (Data Protection Addendum, DPA).

Для дополнительного спокойствия помните, что Copilot не может получить доступ к данным вашей организации, хранящимся в пределах вашего клиента. Кроме того, разговоры в чате никогда не используются для обучения базовых моделей ИИ, питающих Copilot.

Надеемся, нам удалось решить все (или по крайней мере большинство) ваших беспокойств по безопасности Copilot! Cloudfresh является признанным партнером Microsoft. Если вам интересно начать работу с Microsoft 365 в целом или Microsoft Copilot в частности, вы можете обратиться к нам с помощью формы ниже.

Cвяжитесь с Сloudfresh