До ШІ потрібно встановлювати запобіжники там, де він несе серйозну загрозу приватності - аналітик

До ШІ потрібно встановлювати запобіжники там, де він несе серйозну загрозу приватності - аналітик

Укрінформ
Штучний інтелект - це інструмент, і до нього треба поставитися як до будь-якого інструменту – тобто встановлювати запобіжники і вимоги там, де він несе серйозну загрозу приватності та безпеці людини.

Про це під час презентації в Укрінформі гайду для організацій громадянського суспільства про інструменти штучного інтелекту заявив заступник директорки Центру демократії та верховенства права (ЦЕДЕМ) Ігор Розкладай.

«ШІ – це інструмент, і я погоджуюся з тим, що до нього треба поставитися як до будь-якого інструменту – тобто, встановлювати запобіжники, встановлювати вимоги там, де він несе серйозну загрозу приватності, безпеці, по суті, життю людини. І точно не наділяти його функцією прийняття остаточного рішення», - сказав він.

Ігор Розкладай
Ігор Розкладай

Розкладай зазначив, що штучний інтелект може бути допоміжним інструментом - наприклад, виловлювати з мережі зображення злочинців, наприклад.

«Але не ШІ має прийняти рішення, що це злочинець і його треба пристрелити. Цей достатньо розумний збалансований підхід має дозволити нам нормально взаємодіяти з цим явищем. Його (штучний інтелект – ред.) точно не треба боятися і забороняти, але … над ним потрібно працювати і постійно проводити аналіз ризиків», - вважає аналітик.

Читайте також: В Україні 76% вчителів принаймні раз користувалися штучним інтелектом

Головна юридична радниця Європейського центру некомерційного права (ECNL) Фраческа Фануччі заявила, що залежно від мети і контексту застосування цієї технології можуть існувати різні рівні ризику для людей.

Фраческа Фануччі
Фраческа Фануччі

«Один із найперших ризиків – це помилково позитивні або негативні ідентифікації. Те, що називають «хибно позитивні». Ми завжди маємо пам’ятати, що алгоритм ніколи не повертає остаточний результат, а лише (показує – ред.) імовірності. Це означає, що коли велика кількість людей перевіряється масово – наприклад, на вулиці, площі, або там, де багато машин, - існує ризик помилкової ідентифікації», - розповіла юридична радниця ECNL.

Читайте також: У Сеулі планують встановити 10 тисяч камер відеоспостереження з штучним інтелектом

За її словами, в Україні зараз діє воєнний стан, і для таких випадків існують міжнародні стандарти відступу від захисту певних прав людини. 

«Ці відступи мають бути винятковими і тимчасовими і виправдовуватися виключно характером і невідкладністю ситуації. Тобто, наприклад, якщо ці камери (з функцією розпізнавання обличчя – ред.) встановили через війну, тоді їх треба прибрати після закінчення війни чи провести нову оцінку ризиків, для чого їх можна застосовувати», - вважає Фануччі.

Розкладай переконаний, що технології на кшталт цих камер мають дуже жорстко регулюватися.

«Так само як і медичні дані, біометричні дані – вони мають максимально жорстко обмежитися, максимальне має бути протоколювання. Має бути дуже обмежений термін зберігання цих відео і так далі, бо інакше це – шлях до Китаю, де кожен поліцейський, дивлячись на вас, вже знає про вас все», - заявив він.

Читайте також: Штучний інтелект може збільшити нерівність між країнами - аналіз МВФ

Як повідомляв Укрінформ, компанія OpenAI скасувала заборону на використання штучного інтелекту для військових цілей.

Приєднуйтесь до наших каналів Telegram, Instagram та YouTube.

Розширений пошукПриховати розширений пошук
За період:
-