search
Cloud Блог – Питання безпеки Copilot знайшли відповіді: чи безпечно використовувати Copilot?
Microsoft

Питання безпеки Copilot знайшли відповіді: чи безпечно використовувати Copilot?

Згідно з Harvard Gazette, ще в 2020 році конфіденційність даних була однією з найбільш озвучуваних проблем навколо штучного інтелекту. Із появою та подальшим напливом великих мовних моделей і генеративного ШІ за останні два роки рівень їхнього впровадження стрімко зріс у компаніях різних галузей, а корпоративне стеження також потрапило до списку побоювань. Деякі інші невідкладні проблеми в цьому контексті включали можливості крадіжки інтелектуальної власності та витоку конфіденційних даних.

Оскільки нормативно-правова база, що регулює ШІ та його використання, залишається досить нерозвиненою або відсутньою в багатьох юрисдикціях, ІТ-гігантам, що стоять за провідними платформами, довелося взяти ситуацію під контроль і роз’яснити свою політику. Ця стаття ставить за мету відповісти на занепокоєння щодо безпеки Copilot, використовуючи публічну інформацію Microsoft.

Як це працює?

Microsoft Copilot інтегрує допомогу ШІ безпосередньо до пакету Microsoft 365. Давайте розглянемо цю технологію покроково.

Отже, Microsoft Copilot може отримати доступ до вмісту вашої організації лише за вашої згоди під час чату. Це може відбутися трьома способами:

  • Ви безпосередньо вводите або вставляєте інформацію в чат.
  • Ви завантажуєте файл через вікно чату за допомогою значка скріпки (перетягування також доступне в режимі попереднього перегляду).
  • Ви використовуєте Copilot в Edge з увімкненим налаштуванням «Дозволити доступ до будь-якої веб-сторінки або PDF» і відкриваєте сторінку в інтранеті. Copilot може використовувати вміст таких сторінок для відповіді на ваші запитання.

Насамперед — безпечний доступ. Ви входите за допомогою свого Entra ID, підтверджуючи особу та ліцензію. Після автентифікації зв’язок стає безпечним. Коли ви взаємодієте з Copilot, дані вашого чату зазнають важливих змін. Будь-яка інформація, яка може ідентифікувати вас або вашу організацію, ретельно видаляється. Ці анонімізовані дані потім безпечно передаються до Copilot Orchestrator — центру, що керує зв’язком у системі. Після безпечної передачі Copilot Orchestrator спрямовує ваші промпти та бажані дії (запити) до Copilot, раніше відомого як Bing Chat. Важливо зазначити, що Copilot працює як підключена можливість окремо від Microsoft 365, натомість розширюючи його охоплення та потенціал.

Тепер відбувається справжня магія. За лаштунками стоїть потужна сила — приватний екземпляр Azure OpenAI. Він оснащений найсучаснішими моделями, а саме GPT-4 і DALL-E 3, спеціально навченими для таких завдань, як генерація тексту, переклад мов і створення зображень. Важливо, що сама OpenAI не має доступу до цих приватних моделей або даних, які вони обробляють.

Щоб забезпечити точність і актуальність відповідей Copilot, на сцену виходять пошукові запити. Ці запити ретельно ґрунтують ваші промпти та відповіді на останніх даних із масивного індексу пошуку Bing, гарантуючи, що інформація, яку ви отримуєте, відповідає вашим потребам і відображає найновіші відкриття. Для додаткової довіри та прозорості посилання автоматично включаються до відповідей Copilot, чітко вказуючи джерела, використані для створення інформації, і надаючи вам можливість перевірити її точність (і дослідити далі, якщо бажаєте).

Із огляду на те, що проблеми безпеки Copilot перебувають у центрі уваги, захисні заходи залишаються обов’язковими на кожному етапі. Усі дані шифруються під час передачі за допомогою надійного протоколу TLS 1.2+, що гарантує безпечний зв’язок між вами та системою. Крім того, для захисту вашої конфіденційності сеанси чату є тимчасовими. Ці тимчасові дані шифруються в спокої за стандартом AES-128. Після завершення сеансу чату як промпти, так і відповіді видаляються, гарантуючи відсутність слідів вашої взаємодії, якщо ви явно не збережете їх.

Краса Copilot полягає в його доступності. Ви можете взаємодіяти з ним із різних платформ, включно зі спеціалізованим веб-сайтом (copilot.microsoft.com), безпосередньо через двигун Bing у будь-якому сучасному браузері (десктопному чи мобільному), у Microsoft Edge та навіть у самому середовищі Windows. Ця гнучкість дозволяє Copilot плавно інтегруватися у ваш робочий процес незалежно від того, де ви працюєте (як користуватися Microsoft Copilot?).

Не впевнені, чи готові до ШІ? Не проблема. Замовте Proof-of-Concept, аби побачити, як Copilot може покращити ваш досвід роботи з Microsoft 365. Замовити зараз →
CTA Image

Проблеми безпеки Copilot: Як Microsoft 365 захищає ваші дані

Нижче перелічені заходи, яких компанія вживає для забезпечення конфіденційності та безпеки вашого Microsoft Copilot.

Використання існуючих дозволів

Microsoft Copilot не працює в ізоляції. Він покладається на моделі дозволів, вже встановлені у вашому клієнті Microsoft 365, тобто Copilot може отримувати доступ і використовувати дані, які ви як користувач вже маєте право бачити. Такий підхід гарантує суворе дотримання існуючих систем контролю доступу до даних, запобігаючи випадковим витокам між користувачами, групами або навіть різними клієнтами в екосистемі Microsoft 365.

Повага до меж ідентичності користувача

Microsoft Copilot використовує технологію під назвою «семантичний індекс». Він відіграє ключову роль у базуванні промптів і результатів на відповідних даних; проте навіть у цьому процесі ідентичність користувача залишається ключовою. Семантичний індекс суворо дотримується меж доступу на основі ідентичності користувача. Простіше кажучи, він отримує доступ лише до вмісту, який ви, поточний користувач, маєте право бачити, що додатково зміцнює конфіденційність даних Microsoft Copilot і запобігає несанкціонованому доступу до чутливої інформації.

Шифрування даних

Багато організацій використовують захист інформації Microsoft Purview для шифрування даних, яке можна застосувати за допомогою міток конфіденційності або обмежених дозволів у програмах за допомогою управління правами на інформацію (IRM). Гарна новина: Microsoft Copilot повністю дотримується прав використання, наданих користувачу, коли зіштовхується з даними, зашифрованими Microsoft Purview. Тобто навіть зашифровані дані залишаються захищеними і не можуть бути доступні за межами дозволів користувача.

Багаторівнева інфраструктура безпеки

Microsoft розуміє важливість безпеки даних, і Copilot отримує переваги від надійної інфраструктури, яка вже є в Microsoft 365. Ось деякі ключові аспекти цього підходу, який може розкрити певні питання безпеки Copilot:

  • Вміст користувача в кожному клієнті Microsoft 365 логічно ізольований за допомогою авторизації Microsoft Entra та контролю доступу на основі ролей (RBAC), що означає, що дані не будуть випадково змішуватися між різними користувачами або організаціями.
  • Microsoft використовує суворі фізичні заходи безпеки, перевірку працівників і багаторівневе шифрування, захищаючи конфіденційність і цілісність користувацького вмісту протягом усього життєвого циклу.
  • Microsoft 365 використовує технології на стороні сервера для шифрування вмісту клієнта в спокої та під час передачі. Це включає такі технології, як BitLocker, шифрування на рівні файлів, протокол безпеки транспортного рівня (TLS), про який ми говорили раніше, і протокол інтернет-безпеки (IPsec).

Прихильність до правил конфіденційності

Компанія визнає важливість проблем конфіденційності даних Microsoft Copilot і дотримується суворого набору правил і стандартів. Ця відданість полягає у дотриманні широко застосовуваних законів, таких як GDPR, і галузевих стандартів, таких як ISO/IEC 27018 (провідний світовий кодекс для забезпечення конфіденційності хмари).

Контроль доступу плагінів

До Microsoft Copilot можливо отримати доступ через плагіни в Microsoft 365. Тут також існує додатковий рівень безпеки. Шифрування може застосовуватися для вимкнення програмного доступу для цих плагінів. Іншими словами, плагіни не можуть читати вміст, який їм не призначено, що додатково обмежує потенціал несанкціонованого доступу.

Захист від зламу

API Prompt Shields діє як захисний екран при взаємодії з великими мовними моделями. Він стежить за безліччю тактик зловмисників, розроблених для маніпулювання поведінкою ШІ та потенційного порушення безпеки або конфіденційності. Ці тактики можуть варіюватися: від обходу встановлених правил і подачі оманливих інструкцій до видавання себе за іншу систему або кодування несанкціонованих команд. Оманливе маніпулювання даними, що подаються ШІ, є ще однією проблемою безпеки Copilot, яку вирішує Prompt Shields, разом із спробами втрутитися в систему та викрасти або порушити дані. API захищає користувачів навіть від тих зловмисників, які намагаються обманом змусити їх розголошувати свої фінансові дані або навіть поширювати шкідливе програмне забезпечення.

Місцезнаходження даних

При ввімкненні комерційного захисту дані чату кешуються лише тимчасово протягом короткого періоду під час сеансу для підвищення продуктивності. Ці кешовані дані потім видаляються після закриття браузера, скидання теми чату або завершення сеансу.

Станом на 1 березня 2024 року Microsoft пропонує зобов’язання щодо резидентності даних для клієнтів Copilot для Microsoft 365 через свої пропозиції Advanced Data Residency (ADR) та Multi-Geo Capabilities. Для користувачів у Європейському Союзі Copilot для Microsoft 365 отримує переваги від служби EU Data Boundary (EUDB), що означає, що їхні дані обробляються в ЄС. Однак для клієнтів поза межами ЄС запити Copilot можуть оброблятися в Сполучених Штатах, Європейському Союзі або навіть в інших регіонах.

Існують деякі обмеження щодо гарантій відповідності додатковим функціям на основі Bing у Copilot. Ці функції не обов’язково відповідають угодам Microsoft щодо кордону даних ЄС (EUDB) або додатку захисту даних (Data Protection Addendum, DPA).

Для додаткового спокою пам’ятайте, що Copilot не може отримати доступ до даних вашої організації, що зберігаються у межах вашого клієнта. Крім того, розмови в чаті ніколи не використовуються для навчання базових моделей ШІ, які живлять Copilot.

Сподіваємося, нам вдалося вирішити всі (або принаймні більшість) ваших занепокоєнь щодо безпеки Copilot! Cloudfresh є визнаним партнером Microsoft. Якщо вас цікавить початок роботи з Microsoft 365 загалом або Microsoft Copilot зокрема, ви можете звернутися до нас за допомогою форми нижче.

Зв'яжіться з Сloudfresh