Технологією віртуальних асистентів сьогодні вже навряд чи когось здивуєш. Такі популярні сервіси, як Siri, Alexa, Google Assistant (Gemini), а від нещодавна ще й ChatGPT-4o, дійсно можуть полегшити життя сучасної людини і взяти на себе виконання простих щоденних задач. І хоча працюють вони не без помилок, їхня здатність взаємодіяти з середовищем та генерувати інформацію справді вражає.
Ці технології продовжують розвиватися і поширюватися на різні сфери життя. Наприклад, вже існують віртуальні асистенти, які діють у сфері забезпечення правопорядку: ELLA (надання нетермінових сервісів у відділку поліції), Zenext (дистанційне виконання завдань, в тому числі і критичних, органами правопорядку), Apollo AI (внутрішня організація робочого простору). В Україні ж Міністерство закондонних справ нещодавно запустило цифрового аватара Вікторію ШІ для озвучування офіційних заяв, а Мінцифри працює над створенням для застосунку «Дія» віртуального помічника «Надії», який буде консультувати користувачів і давати їм відповіді на запитання щодо державних сервісів.
Однак це все вимагає від експертної спільноти розробки стандартів, що допоможуть уникнути порушення прав людини. З огляду на це старша юристка Лабораторії цифрової безпеки Тетяна Авдєєва підготувала аналітичний звіт «Віртуальні друзі: чи(м) нам загрожують голосові асистенти?». Документ пропонує аналіз як міжнародних регуляторних актів, які містять положення про віртуальних асистентів та зобовʼязання для таких платформ, так і національного законодавства, а точніше відсутність в ньому достатньої регуляторної рамки у сфері захисту персональних даних і необхідність впровадження існуючих європейських стандартів. У звіті авторка окреслює найбільш поширені та фундаментальні етичні принципи, якими варто послуговуватися розробникам віртуальних асистентів за відсутності достатньої нормативно-правової бази.
Враховуючи цілий ряд проблематичних питань, повʼязаних із використанням віртуальних асистентів (як-от приватність, дискримінація, цифрова безпека тощо), в межах цього аналітичного звіту Лабораторія цифрової безпеки розробила короткий чекліст, який допоможе пересвідчитись, що система відповідає вимогам у сфері прав людини.
Висновки та рекомендації
Законодавчі процеси в Україні йдуть повним ходом. Втім, багато європейських стандартів все ще не було впроваджено. І на сьогодні це не те щоб є проблемою — всі зобовʼязання щодо євроінтеграційних процесів мають відповідати суспільним реаліям і зважати на процеси, що відбуваються всередині самого ЄС з імплементацією багатьох актів (досить лише глянути на те, скільки практичних викликів наразі існує щодо DSA). Водночас, бажання розробляти і активно впроваджувати технології, які за декілька років будуть потрапляти у сферу дії цих документів ніхто не скасовував. Зокрема, інтенції зробити віртуального асистента «Надію» і використання віртуальних помічників держслужбовцями мають зважати на майбутнє регулювання і вже сьогодні брати до уваги європейські стандарти. З огляду на це, Лабораторія цифрової безпеки нагадує про необхідність:
- розробити адекватну регуляторну рамку у сфері захисту персональних даних, а також напрацювати законопроєкти, спрямовані на імплементацію DSA, DMA, та відповідних секторальних регуляцій (як-от Акт про штучний інтелект);
- надавати користувачам можливість змінювати налаштування віртуального асистента (і самостійно встановлювати налаштування при першому використанні), вимикати його за потреби/бажання, отримувати послуги в альтернативний спосіб, отримувати доступ до власних даних та реалізувати всі супутні права, повʼязані з персональними даними;
- забезпечити належний рівень технічної безпеки віртуального асистента, зокрема не лише всередині системи, а й щодо фізичного зберігання даних, безпеки походження програмного забезпечення;
- забезпечити можливість зворотного звʼязку з боку користувачів, зокрема, створити портал для скарг щодо порядку роботи системи, потенційних порушень чи збоїв;
- дотримуватися рекомендацій щодо використання систем ШІ у публічному секторі при впровадженні віртуальних асистентів державними структурами чи у державних структурах;
- регулярно здійснювати оцінку впливу діяльності віртуального асистента на права людини, змінювати технічні налаштування та інтерфейс у разі, якщо буде виявлено ризики порушення прав людини;
- підвищувати рівень цифрової безпеки серед держслужбовців, які використовують віртуальних асистентів у роботі, та українського населення в цілому.
Повний текст дослідження, а також чекліст для перевірки дотримання прав людини при створенні віртуальних асистентів, можна прочитати за цим посиланням.
Електронна адреса для коментарів та запитань: [email protected].
Аналітичний звіт підготовлено за підтримки Європейського союзу та Міжнародного фонду «Відродження» в рамках спільної ініціативи «Європейське Відродження України». Звіт представляє позицію авторів і не обов’язково відображає позицію Європейського Союзу чи Міжнародного фонду «Відродження».