Цифролаба співорганізувала Форум зі штучного інтелекту 2.0

23 березня 2023 Цифролаба спільно з Центром демократії та верховенства права організувала Форум зі штучного інтелекту 2.0. Протягом заходу експерти виступили на чотирьох панельних дискусіях: окреслили найбільші ризики у використанні штучного інтелекту (ШІ) в інформаційній сфері, потребу його регулювання та створення юридичних і технічних запобіжників для захисту прав людини.

Сесія І: За лаштунками ЄС: Акт про штучний інтелект.

Ця панельна дискусія була присвячена проблематиці Акту зі штучного інтелекту майбутньому регламенту ЄС, який регулюватиме процеси створення, тестування і застосування систем, керованих штучним інтелектом. 

Важливо, що Акт буде застосовуватися не лише до держав, а й до компаній. Це покладатиме на них обовʼязки щодо проведення оцінок впливу на права людини технологіями, які вони розробляють і застосовують. 

Крім того, міжнародні експерти виявили стурбованість надзвичайно широким спектром винятків, які дозволяють використання систем стеження для цілей роботи органів правопорядку, безпекових служб і розвідки. Гарантій від зловживань при цьому бракує. 

Один з найбільших нових викликів, які вдалося ідентифікувати функції ШІ з генерування інформації. Зокрема, питання контролю та меж такого генерування, можливості виявляти недобросовісні дії та запобігати “зловживанням”. Представники Міністерства цифрової трансформації України ж засвідчили свою готовність регулювати сферу ШІ щойно європейське регулювання набуде чинності. 

Головні рекомендацій від експертів були такими:

  • Намагатися забечити максимальну орієнтованість як технологій, так і регулювання на захист прав людини;
  • Залучення експертної спільноти і громадянського суспільства до розробки регулювання і перевірок технологій на їх відповідність стандартам;
  • Створення адекватної системи запобіжників від зловживань технологіями під час їх застосування, але водночас забезпечення гнучкості регулювання;
  • Уникати надмірного застосування винятків і забезпечення їх чіткості і лімітованості конкретним цілям;
  • Співпраця індустрії з регуляторами, коригування прогалин і побудова систем за допомогою якісних баз даних;
  • Розширення розуміння високоризикових категорій ШІ та передбачення можливості легше оновлювати таку категорію через можливість зловживати майже будь-якою технологією;
  • Захист даних і забезпечення прав осіб, за допомогою чиїх даних створюються системи ШІ.

Сесія ІІ: За межею правди: штучний інтелект і дезінформація.

Ця дискусія була сфокусована довкола зміни парадигми регулювання дезіфнормації та підходів до її протидії. Зокрема, представники ОБСЄ наголосили, що самих лише заходів з підвищення медійної грамотності вже замало, аби суспільство навчилося ефективно відрізнити правдиву інформацію від брехні. 

Фактчекери підкреслили, що якість технологій наразі вводить в оману навіть державні органи передових європейських країн, а чат GPT тренується за допомогою публічно доступної інформації. Тобто неправдиві новини у стрічці Google так само стають основою для бази даних. Держава ж наразі використовує ШІ для моніторингу медіа простору і виявлення особливо популярних фейків (з метою подальшого “розвінчування міфів”), перевірки правдивості текстів і зображень, виявлення ботів тощо. Регулювання ж має бути багатошаровим і враховувати, що ШІ здатний до самонавчання, в той час як дезінформація транскордонне явище. 

За підсумками дискусії, експерти радять:

  • Обережно ставитися до термінології при формулюванні законодавчих заборон і обмежень у сфері протидії дезінформації;
  • Протидіяти дезінформації не лише на регуляторному рівні, а і на рівні політик (в тому числі, політик компаній-розробників ШІ);
  • Маркувати продукти, створені ШІ (особливо, якщо вони уможливлюють створення глибинних підробок чи здатні генерувати неправдиву інформацію);
  • Розробляти керівництва (гайдлайни) для різних стейкхолдерів залежно від ризиковості їхньої діяльності щодо того, як протидіяти дезінформації;
  • Памʼятати про різні рівні небезпеки та створювати запобіжники на всіх рівнях: рівні розробника, рівні користувача і рівні самої системи (особливо, якщо вона здатна до самонавчання).

Сесія ІІІ: Між приватним і публічним.

Ця панель була присвячена захисту права на приватність при розробці і застосуванні систем ШІ. Зокрема, однією з найгарячіших тем для дискусій є застосування державою Clearview AI, який сприяє розпізнаванню мертвих окупантів, воєнних злочинців і осіб на блокпостах. Від представників Міністерства цифрової трансформації ми почули, де закінчується компетенція компанії і починається відповідальність держави за збір даних. 

Представники громадянського суспільства (серед яких і голова Цифролаби Віта Володовська) наголосили на небхідності розробити систему запобіжників від зловживань технологіями стеження на державному рівні, а також усунути ряд положень, які загрожують правам людини, з ряду законопроектів (зокрема, з останньої ітерації законопроекту про контррозвідувальну діяльність). Представники індустрії ж вказали на перехід до “технологій, що створюють технології”, що може спричинити суттєві суспільні зрушення і кардинально змінити парадигму регулювання. 

Основні рекомендацій:

  • Необхідність оновити законодавство у сфері захисту персональних даних і створити систему комплексних запобіжників від зловживань;
  • Памʼятати, що обмеження на права людини, встановлені на час війни, не мають тривати “вічно”, а тому мають бути припинені після перемоги;
  • Слід розробляти регулювання враховуючи, що технології ШІ переходять на новий рівень і контролювати (перевіряти їх роботу) стає все важче;
  • Компанії мають на корпоративному рівні розробляти політики захисту персональних даних ще до появи детального регулювання у сфері ШІ;
  • Ну і звісно ж двофакторна аутентифікація завжди рятує від зайвих клопот зі зламами паролів, систем “розумних” будинків та інших побутових приладів!

Сесія IV: Те, що не можна називати: алгоритми і модерація.

Панельна дискусія мала у фокусі проблематику модерування контенту на прикладі російського повномасштабного вторгнення в Україну. Представники міжнародних організацій зазначили, що необхідність робити модерування контенту орієнтованим на права людини і максимально наближеним до контексту. Представниця Meta наголосила,, що модераційні політики завжди напрацьовуються реальними людьми, а не алгоритмами, проте це має і мінус люди не встигають за розвитком подій і діють “за наслідками”, а не на випередження. Представники громадянського суспільства ж наголосили на необхідності розробляти кризові протоколи і готуватися до геополітичних загострень заздалегідь. 

Водночас, держава активно співпрацює з платформами і намагається максимально деталізовано пояснити контекст, небезпеку російської пропаганди і необхідність спеціальної модерації контенту в Україні та в регіоні. 

З корисних цікавинок, які слід очікувати незабаром: Міністерство цифрової трансформації України анонсувало запуск першої в Україні “цифрової пісочниці” – середовища, в якому розробники зможуть тестувати власні ШІ-продукти на відповідність міжнародним та національним стандартам.