Використання штучного інтелекту під час війни: чи нові технології можуть порушувати права людини?
З початком повномасштабного вторгнення Росії в Україну компанія з розпізнавання облич Clearview AI оголосила, що передала свою технологію українському уряду. Це викликало занепокоєння в суспільства, адже цю технологію використовували не лише для ідентифікації полонених чи загиблих російських та українських військових, а також і проти цивільних на блокпостах. Яке має бути регулювання використання штучного інтелекту аби не відбувалось порушення прав людини – це питання обговорили програмний директор Української Гельсінської спілки з прав людини Максим Щербатюк, голова ГО «Лабораторія цифрової безпеки» Віта Володовська, СЕО Neurotrack.tech Віталій Міняйло та представники Міністерства цифрової трансформації в ході панельної дискусії «Штучний інтелект 2.0: регулювання та робота під час війни».
Штучний інтелект на блокпостах
Міністерство цифрової трансформації використовували штучний інтелект ще до повномасштабного вторгнення. Але з березня 2022 року почали використовувати технологію розпізнавання облич Clearview AI, щоб ідентифікувати ворогів. Компанія зібрала до 30 млд. фотографій із соцмереж та стрічок новин. Ця технологія успішно використовується для допомоги в розкритті злочинів в інших країнах. Наприклад, поліція США приблизно мільйон разів використовувала цю технологію для пошуку злочинців. Тим не менше, компанія піддається критиці щодо конфіденційності та безпеки даних. В Мінцифрі переконують, компанія гарантує, що система – безпечна, зашифрована та унеможливлює несанкціонований доступ. Clearview AI запевняють, що надають дані лише для правоохоронних органів і перевірених фахівців з безпеки. Однак відкритим залишається питання, чи не порушує подібний збір даних з відкритих джерел право на конфіденційність, адже користувачі можуть просто не знати, що їхні фото з соцмереж могли зібрати.
– На сьогоднішній день застосування програм штучного інтелекту не гарантує захисту прав людини, – каже програмний директор УГСПЛ Максим Щербатюк. – Якщо в країнах ЄС реалістично захистити персональні дані, бо є законодавча база та певний механізм: людині можна, щонайменше, отримати фінансову компенсацію за злив даних, то в Україні подібний механізм не працює. Ще до війни ми проводили досить глибокий аналіз використання окремих елементів штучного інтелекту в сфері охорони здоров’я. І бачили, що медичним бізнесом використовувались певні розробки, які найчастіше були покликані допомогти західним компаніям. Через те вони розроблялись, враховуючи міжнародні стандарти. Тому ми мали хороші приклади використання штучного інтелекту в тій сфері. Але в сфері медицини – використовуються дуже вразливі дані, злив яких може нашкодити людині. Простий приклад. В Україні є різні медичні інформаційні системи, найвідоміша із яких Helsi, в яких часто є персональна інформація, яка може допомогти у визначенні тих, хто воював в АТО. І якщо якась частина території стає окупованою, то доступ до цієї інформації може не лише зашкодити репутації людині, а й нести загрозу її життю.
Особливе занепокоєння в правозахисників викликали повідомлення щодо активного застосування технології розпізнавання облич Clearview AI. За даними Міністерства цифрової трансформації від початку повномасштабного вторгнення інструментом Clearview AI користується понад 900 осіб з семи державних органів. А для ідентифікації російських воєнних злочинців, станом на кінець 2022 року, здійснили 125 тисяч пошукових запитів. Також програму використовують на блокпостах і пропускних пунктах. І тут у правозахисних організацій залишаються питання щодо того чи не порушуються основні гарантії захисту персональних даних при здійсненні такої діяльності.
– Право на приватність – досить широке: це і захист персональних даних, і публічне стеження, і перегляд кореспонденції. В контексті війни воно може обмежуватися в сторону безпеки. І ми не проти того, щоб певні обмеження відбувались. Але вони мають бути обґрунтованими і пропорційними, – пояснює Максим Щербатюк. – Нам важливо, щоб при використанні технологій, які використовують AI, як для прикладу Clearview AI, не була нанесена ще більша шкода, яка може нести велику небезпеку як для конкретної людини так і для суспільства в цілому. Ми не розуміємо до кінця механізм роботи технологій, які використовують АІ, і тому не розуміємо, якою має бути наша реакція. Чи це безпечна машина, яка дуже корисна? Чи це, умовна ядерна енергія, яка може бути корисною, а може бути і небезпечною зброєю. Для того щоб не вбивати технологію, треба розуміти, що ми маємо робити, аби це не вийшло з-під контролю. І в залежності від рівня загрози регулювати застосування штучного інтелекту.
Регулювання за кордоном
Clearview AI запевняють, що користувачі можуть звертатися до компанії з проханням видалити їхні дані. В той же час Італія та Франція заборонили компанії збирати дані своїх громадян. Facebook, YouTube, Google і Twitter надіслали Clearview AI листи з проханням припинити використання зображень з їхніх сайтів. А в Британії навіть оштрафував компанію за те, що вона не повідомила людям, що збирає їхні фотографії. Але навіть, якби Clearview AI мали договір з тими платформами, де беруть відкриті дані, це б не убезпечувало користувачів. В більшості випадків, приймаючи умови користування, вони не розуміють на що йдуть. Але що робити тим, хто ніколи не мав соцмереж, втім міг потрапити до бази через випадкові фото своїх друзів, знайомих чи через новинні сайти?
– Міжнародні стандарти у сфері штучного інтелекту, які б встановлювали обов’язкові правила його використання все ще формуються, – розповідає голова ГО «Лабораторія цифрової безпеки» Віта Володовська. – Є окремі документи, які мають рекомендаційний характер щодо етичних засад штучного інтелекту. Ситуацію може змінити ухвалення Акту ЄС про штучний інтелект – EU AI Act, який стане фактично першим законом, що системно врегулює використання технологій штучного інтелекту і може слугувати моделлю для глобального регулювання. В Україні ж поки що ми можемо говорити про Закон «Про захист персональних даних», також є розроблений проєкт змін до цього закону, який намагається привести у відповідність наше законодавство до регламентацій захисту даних (GDPR), який діє в Європейському союзі, однак все це більше про сферу захисту персональних даних ніж про встановлення правових рамок використання штучного інтелекту.
При використанні штучного інтелекту, навіть з благими намірами, важливо гарантувати людям, що їхні права не порушуватимуться.
– Недостатньо, щоб просто був регулятор чи законодавство, потрібно, щоб на практиці він виконував свої зобов’язання, щоб були кошти для реалізації. Практична реалізація в контексті прав людини більш важлива, – пояснює Максим Щербатюк. – Якщо регулювати, то основні гарантії, які будуть зачіпати, в тому числі, тему використання Clearview AI. Але знову ж, потрібно розуміти, з якими загрозами ми маємо справу, бо кожен рівень має різну межу регулювання.
Штучний інтелект розвивається швидше, ніж законодавча база. Нині він сам вже навіть може створювати алгоритми, а отже це все може вийти з-під контролю. Регулювання просто не встигає за тим, що відбувається в цій сфері. Тому й питання дотримання прав людини під час використання штучного інтелекту у воєнний та мирний час – залишається відкритим.