23 березня 2023 Цифролаба спільно з Центром демократії та верховенства права організувала Форум зі штучного інтелекту 2.0. Протягом заходу експерти виступили на чотирьох панельних дискусіях: окреслили найбільші ризики у використанні штучного інтелекту (ШІ) в інформаційній сфері, потребу його регулювання та створення юридичних і технічних запобіжників для захисту прав людини.
Сесія І: За лаштунками ЄС: Акт про штучний інтелект.
Ця панельна дискусія була присвячена проблематиці Акту зі штучного інтелекту — майбутньому регламенту ЄС, який регулюватиме процеси створення, тестування і застосування систем, керованих штучним інтелектом.
Важливо, що Акт буде застосовуватися не лише до держав, а й до компаній. Це покладатиме на них обовʼязки щодо проведення оцінок впливу на права людини технологіями, які вони розробляють і застосовують.
Крім того, міжнародні експерти виявили стурбованість надзвичайно широким спектром винятків, які дозволяють використання систем стеження для цілей роботи органів правопорядку, безпекових служб і розвідки. Гарантій від зловживань при цьому бракує.
Один з найбільших нових викликів, які вдалося ідентифікувати — функції ШІ з генерування інформації. Зокрема, питання контролю та меж такого генерування, можливості виявляти недобросовісні дії та запобігати “зловживанням”. Представники Міністерства цифрової трансформації України ж засвідчили свою готовність регулювати сферу ШІ щойно європейське регулювання набуде чинності.
Головні рекомендацій від експертів були такими:
- Намагатися забечити максимальну орієнтованість як технологій, так і регулювання на захист прав людини;
- Залучення експертної спільноти і громадянського суспільства до розробки регулювання і перевірок технологій на їх відповідність стандартам;
- Створення адекватної системи запобіжників від зловживань технологіями під час їх застосування, але водночас забезпечення гнучкості регулювання;
- Уникати надмірного застосування винятків і забезпечення їх чіткості і лімітованості конкретним цілям;
- Співпраця індустрії з регуляторами, коригування прогалин і побудова систем за допомогою якісних баз даних;
- Розширення розуміння високоризикових категорій ШІ та передбачення можливості легше оновлювати таку категорію через можливість зловживати майже будь-якою технологією;
- Захист даних і забезпечення прав осіб, за допомогою чиїх даних створюються системи ШІ.
Сесія ІІ: За межею правди: штучний інтелект і дезінформація.
Ця дискусія була сфокусована довкола зміни парадигми регулювання дезіфнормації та підходів до її протидії. Зокрема, представники ОБСЄ наголосили, що самих лише заходів з підвищення медійної грамотності вже замало, аби суспільство навчилося ефективно відрізнити правдиву інформацію від брехні.
Фактчекери підкреслили, що якість технологій наразі вводить в оману навіть державні органи передових європейських країн, а чат GPT тренується за допомогою публічно доступної інформації. Тобто неправдиві новини у стрічці Google так само стають основою для бази даних. Держава ж наразі використовує ШІ для моніторингу медіа простору і виявлення особливо популярних фейків (з метою подальшого “розвінчування міфів”), перевірки правдивості текстів і зображень, виявлення ботів тощо. Регулювання ж має бути багатошаровим і враховувати, що ШІ здатний до самонавчання, в той час як дезінформація — транскордонне явище.
За підсумками дискусії, експерти радять:
- Обережно ставитися до термінології при формулюванні законодавчих заборон і обмежень у сфері протидії дезінформації;
- Протидіяти дезінформації не лише на регуляторному рівні, а і на рівні політик (в тому числі, політик компаній-розробників ШІ);
- Маркувати продукти, створені ШІ (особливо, якщо вони уможливлюють створення глибинних підробок чи здатні генерувати неправдиву інформацію);
- Розробляти керівництва (гайдлайни) для різних стейкхолдерів залежно від ризиковості їхньої діяльності щодо того, як протидіяти дезінформації;
- Памʼятати про різні рівні небезпеки та створювати запобіжники на всіх рівнях: рівні розробника, рівні користувача і рівні самої системи (особливо, якщо вона здатна до самонавчання).
Сесія ІІІ: Між приватним і публічним.
Ця панель була присвячена захисту права на приватність при розробці і застосуванні систем ШІ. Зокрема, однією з найгарячіших тем для дискусій є застосування державою Clearview AI, який сприяє розпізнаванню мертвих окупантів, воєнних злочинців і осіб на блокпостах. Від представників Міністерства цифрової трансформації ми почули, де закінчується компетенція компанії і починається відповідальність держави за збір даних.
Представники громадянського суспільства (серед яких і голова Цифролаби Віта Володовська) наголосили на небхідності розробити систему запобіжників від зловживань технологіями стеження на державному рівні, а також усунути ряд положень, які загрожують правам людини, з ряду законопроектів (зокрема, з останньої ітерації законопроекту про контррозвідувальну діяльність). Представники індустрії ж вказали на перехід до “технологій, що створюють технології”, що може спричинити суттєві суспільні зрушення і кардинально змінити парадигму регулювання.
Основні рекомендацій:
- Необхідність оновити законодавство у сфері захисту персональних даних і створити систему комплексних запобіжників від зловживань;
- Памʼятати, що обмеження на права людини, встановлені на час війни, не мають тривати “вічно”, а тому мають бути припинені після перемоги;
- Слід розробляти регулювання враховуючи, що технології ШІ переходять на новий рівень і контролювати (перевіряти їх роботу) стає все важче;
- Компанії мають на корпоративному рівні розробляти політики захисту персональних даних ще до появи детального регулювання у сфері ШІ;
- Ну і звісно ж двофакторна аутентифікація завжди рятує від зайвих клопот зі зламами паролів, систем “розумних” будинків та інших побутових приладів!
Сесія IV: Те, що не можна називати: алгоритми і модерація.
Панельна дискусія мала у фокусі проблематику модерування контенту на прикладі російського повномасштабного вторгнення в Україну. Представники міжнародних організацій зазначили, що необхідність робити модерування контенту орієнтованим на права людини і максимально наближеним до контексту. Представниця Meta наголосила,, що модераційні політики завжди напрацьовуються реальними людьми, а не алгоритмами, проте це має і мінус — люди не встигають за розвитком подій і діють “за наслідками”, а не на випередження. Представники громадянського суспільства ж наголосили на необхідності розробляти кризові протоколи і готуватися до геополітичних загострень заздалегідь.
Водночас, держава активно співпрацює з платформами і намагається максимально деталізовано пояснити контекст, небезпеку російської пропаганди і необхідність спеціальної модерації контенту в Україні та в регіоні.
З корисних цікавинок, які слід очікувати незабаром: Міністерство цифрової трансформації України анонсувало запуск першої в Україні “цифрової пісочниці” – середовища, в якому розробники зможуть тестувати власні ШІ-продукти на відповідність міжнародним та національним стандартам.