Наука та технологіїШтучний інтелект

В ЄС розробили правила захисту людей від штучного інтелекту

23:13 21 кві 2021.  389Читайте на: УКРРУС

Єврокомісія розробила та оприлюднила пропозиції до регуляторних правил, які мають створити умови для безпечного та етичного використання штучного інтелекту в інтересах громадян Євросоюзу.

«У сфері штучного інтелекту довіра до нього людей є обов’язком, а не чимось таким, що добре мати. Пропонуючи ці основоположні правила, Євросоюз виявляє лідерство з розробки глобальних норм, які гарантуватимуть довіру до штучного інтелекту. Встановлюючи такі стандарти, ми можемо прокласти шлях для етичного використання таких технологій в усьому світі та забезпечити конкурентоспроможність ЄС у цій сфері. Спрямовані у майбутнє та сприятливі для інновацій, наші правила застосовуються там, де вони є прямо необхідними: коли мова йде про безпеку та фундаментальні права наших громадян», - зазначила з цього приводу віцепрезидент Єврокомісії з цифрового розвитку Маргрете Вестайгер, передає «Укрінформ».

Послуги, що пов’язані із широким застосуванням цифрових та комп’ютерних технологій, вже використовуються та відкривають нові перспективи у багатьох сферах діяльності людини, включаючи охорону здоров’я, транспорт, енергетику, сільське господарство, туризм, кібернетичну безпеку та багато інших. Пропонуючи нові правила, ЄС прагне зберегти за собою лідерство у розвитку цієї сфери і одночасно забезпечити повагу до цінностей і універсальних свобод, на яких основане все європейське суспільство, безпечність технологій штучного інтелекту в умовах їх широкого застосування. 

Запропоновані правила передбачають критерії з оцінки ризиків використання технологій штучного інтелекту. 

До першої категорії «неприйнятного ризику» будуть віднесені всі системи штучного інтелекту, які спричиняють загрозу для безпеки, способу життя або для прав людей, наприклад, системи або додатки, які дозволяють маніпулювати поведінкою людей, або технології, що дозволяють владі сегментацію суспільства за ознакою вироблених системами штучного інтелекту «соціальних рейтингів». Використання таких технологій прямо забороняється. 

До другої категорії належать технології штучного інтелекту «високого ризику», які застосовуються, зокрема, у сферах громадського транспорту та в інших об’єктах критичної інфраструктури, у сфері освіти та професійної підготовки, у сфері безпеки та працевлаштування, громадського порядку, міграції й притулку, правосуддя та інших, які прямо зачіпають безпеку особи або права людини, в тому числі на отримання адекватних соціальних послуг, якісної освіти або забезпечення права на гідну працю. До такого роду послуг застосовуватиметься особливо прискіпливий контроль перед тим, як допустити їх використання на європейському ринку, з метою мінімізувати потенційні ризики для життя, здоров’я та фундаментальних прав громадян країн ЄС. 

До «ризикованих» технологій віднесені системи візуального розпізнавання особи, які передбачають її біометричну ідентифікацію. Їх використання у публічних місцях, у тому числі, в інтересах правоохоронних органів, прямо забороняється європейським законодавством, за дуже рідкісними винятками, наприклад, для пошуку загублених дітей, для запобігання терористичній діяльності або для визначення місцязнаходження особливо небезпечних злочинців, - кожен з таких винятків потребуватиме дозволу від судової влади або від інших уповноважених органів. 

Більшість технологій штучного інтелекту належать до категорії «обмеженого» або «мінімального» ризику, такі як «чат-боти» для комунікацій з електронними пристроями, відеоігри, фільтри комп’ютерного спаму та інші, що не несуть загрози для безпеки або прав користувачів. Використання таких технологій не потребуватиме додаткового дозволу або авторизації. 

Наведені пропозиції Єврокомісії мають бути розглянуті та ухвалені Європейським Парламентом та підтримані на рівні країн-членів ЄС. Після такого ухвалення вони застосовуватимуться на всій території Європейського Союзу.

Фото: «Укрінформ».
 

Євген Медведєв

Найпопулярніше