Замовити пресконференцію в Укрінформі

реклама

Штучний інтелект і президентські вибори США: хто кого?

Штучний інтелект і президентські вибори США: хто кого?

Укрінформ
Як соцмережі намагаються протидіяти дезінформації

Штучний інтелект і легкість його використання для поширення дезінформації – основні загрози, що актуалізувалися перед президентськими виборами у США, які відбудуться восени. Громадянська мережа ОПОРА проаналізувала, як американські законодавці та big tech компанії планують захищати інфопростір напередодні волевиявлення.

ОПОРА вже традиційно слідкує за іноземним досвідом боротьби з інформаційними загрозами. Раніше ми з'ясовували, як США регулює політичну рекламу та протидіє поширенню конспірологічних теорій. Цього разу ми дослідили, як соціальні мережі намагаються протидіяти дезінформації, створеній штучним інтелектом (ШІ). 

Згенерувати оманливий контент за допомогою інструментів ШІ дуже легко і дешево – для цього достатньо вміти користуватися браузером. Також цей контент доволі важко розпізнати звичайному користувачу. Американські посадовці здебільшого побоюються  дипфейків – згенерованих відео, зображень чи аудіо, які імітують голос та/або зовнішність реальної людини. Разом із недоброчесною політичною рекламою вони загрожуватимуть інформаційному середовищу США напередодні виборів.

ВИБОРИ В ЕРУ ШТУЧНОГО ІНТЕЛЕКТУ

Вибори-2024 – перші у США, які відбуваються в еру бурхливого та непередбачуваного розвитку ШІ. 

Некомерційний дослідницький центр EPIC стверджує, що Сполучені Штати Америки не мають достатньо ресурсу, щоб якісно захистити вибори від сучасних технологій: державні та місцеві органи влади потребують на це додаткового фінансування. У 2019 році конгрес США виділив 425 мільйонів доларів на безпеку й адміністрування виборів, а у 2022 та 2023 роках – сумарно лише 150 мільйонів. Ці гроші потрібні на заробітні плати працівникам виборчих комісій, їхню безпеку (наприклад, захист від переслідувань та погроз) і на убезпечення самої процедури голосування. У 2023 році зацікавлені американські сенатори «вмовили» уряд виділити ще трохи грошей на фінансування безпеки виборів. За словами працівників виборчих органів у коментарі виданню «CyberScoop», навіть якщо уряд виділить ці кошти у 2024 році, їх не встигнуть використати до президентських виборів у листопаді. 

Про загрозу говорять і політики. Сенатор Джон Ворнер зазначив, що президентські вибори 2024 року менш захищені, ніж аналогічна кампанія у 2020 році, через стрімкий розвиток ШІ. «NSA, CISA, ODNI, FBI [державні органи США, відповідальні за кібербезпеку та захист даних] буквально не спілкувалися з жодною з платформ соціальних мереж щодо втручання у вибори з липня 2023 року. І це повинно налякати всіх нас до біса», – застеріг політик. Втім, ми не знайшли обґрунтованих підтверджень слів посадовця. 

Державне агенство з кібербезпеки та інфраструктури США (CISA) видало звіт про небезпеку, яку становить ШІ для виборчого процесу. Тактики, які використовують зловмисники, не нові, але штучний інтелект дає змогу «використовувати їх із більшою швидкістю і витонченістю та за набагато меншу вартість», – зазначено в документі.

Для впливу на думку суспільства зловмисники можуть використовувати ШІ по-різному. Зокрема, в інфопросторі США доволі часто циркулюють відео, згенеровані ШІ. Нещодавно Ютуб видалив близько тисячі відеодипфейків, які сумарно зібрали близько 200 мільйонів переглядів. У цих відео здебільшого показують американських зірок, померлих людей чи зниклих безвісти дітей. Так само дипфейки можуть використовувати й політики, щоби впливати на виборців. 

Скажімо, як тільки чинний президент США Джо Байден оголосив, що буде знову балотуватися в президенти, опоненти кандидата запустили згенероване ШІ відео. У ньому бачимо «жахаюче майбутнє» після його перемоги: вибухи на Тайвані, натовп мігрантів на кордоні, спустошені будинки на Вол-Стріт. 

Цікавим ноу-хау цих президентських виборів стали автоматизовані дзвінки від роботів, які імітували голос чинного президента США. У січні 2024 року виборці штату Нью-Гемпшир отримували дзвінки з невідомих номерів. Згенерований голос Джо Байдена закликав їх не йти голосувати на праймериз, адже це «тільки допоможе Трампу перемогти». Це перший випадок, коли зловмисники використовували ШІ, щоб маніпулювати виборцями через аудіодзвінки. 

Також ШІ-технології дають змогу генерувати псевдореалістичні зображення, які згодом можна видавати за реальні фотографії. Або не видавати. Утім, ваші підписники можуть зробити це замість вас. Так було з креативним директором «Bellingcat», Еліотом Хіггінсом. Він поділився у Х (раніше – у твіттері) згенерованими у «Midjourney» зображеннями арешту експрезидента Дональда Трампа. Еліот уточнив, що картинки створені ШІ. Однак завдяки іншим користувачам Х зображення швидко розлетілися інтернетом – уже без жодних згадок про те, що їх згенерував ШІ.

Інший приклад – поширення прихильниками Трампа нібито фотографії політика в оточенні усміхнених темношкірих людей для створення позитивного образу кандидата. Фотографію створили завдяки ШІ ведучий Марк Кей і команда його консервативного радіошоу у Флориді. Марк опублікував картинку на своїй фейбук-сторінці з майже мільйоном підписників, але не вказав, що остання згенерована програмно. До зображення він долучив статтю про те, чому афроамериканці підтримують Трампа. У коментарях під дописом деякі користувачі, схоже, повірили, що ця фотографія справжня.

Джерело: ВВС https://www.bbc.co.uk/news/world-us-canada-68440150

Джерело: ВВС

Джерело: ВВС
Джерело: ВВС

Крім того, з появою ChatGPT писати тексти на будь-яку тему стало легко і дешево. Штабам кандидатів більше не потрібно витрачати час і залучати працівників, щоб вигадувати і переформульовувати купи політичної кореспонденції: листів для пошуку фінансування чи робочих розсилок всередині команди. 

Зокрема, «The New York Tіmes» повідомляє, що Демократична партія почала тестувати ШІ для написання чернеток певних звітів та заяв. А деякі політичні експерти, як зазначає видання, побоюються, що політичні конкуренти можуть почати використовувати чат-боти, щоби вводити в оману конкурентів: наприклад, створювати псевдовиборців, які будуть спамити у виборчі комісії або штаби кандидатів і так красти час для більш важливих справ.

ЩО РОБЛЯТЬ ТЕХНОГІГАНТИ, ЩОБ УБЕРЕГТИ ВИБОРИ

У лютому 2024 корпорації Adobe, Amazon, Google, IBM, Meta, Microsoft, Х (раніше Твіттер), OpenAI та TikTok підписали спільну угоду про вжиття заходів, щоб «запобігти використанню інструментів штучного інтелекту для зриву демократичних виборів у всьому світі». Перед підписанням високопосадовець Meta Нік Клег сказав, що «жодна технологічна компанія, жоден уряд, жодна громадська організація» не в змозі впоратися із загрозою для виборів від ШІ сам-на-сам. 

Згідно з умовами договору, його члени зобов'язуються:

● працювати над інструментами для виявлення та боротьби з поширенням згенерованого ШІ контенту, 

● забезпечувати прозорість таких інструментів, 

● стимулювати освітні кампанії для підвищення рівня медіаграмотності та обізнаності суспільства у сфері протидії дезінформації. 

Також, крім спільних практик, соціальні мережі впроваджують власні методи для протидії інформаційним маніпуляціям напередодні виборів. 

Твіттер (Х) у серпні 2023 року додав примітку про те, що забороняє розміщувати контент «з метою маніпулювання або втручання у вибори чи інші громадські процеси». Під заборону підпадають публікації або поширювання контенту, який може перешкоджати участі у виборах, вводити людей в оману щодо того, коли, де чи як потрібно брати участь у виборах, а також контент, який може призвести до насильницьких дій під час виборів. Мережа буде позначати такі публікації спеціальними мітками та не показуватиме їх у пошуку, трендах чи рекомендованих твітах. В окремих випадках такий твіт матиме змогу «бачити» тільки профіль його автора. Також компанія може обмежити можливість лайків, відповідей, репостів, цитат, закладок, поширення, закріплення у профілі для публікацій з маніпулятивним змістом або їх редагування. 

Meta залишається вірною своїм практикам, які ми вже описували раніше. Компанія, як і на попередніх виборах, обіцяє блокувати створення й поширення політичної реклами за тиждень до голосування та проситиме авторів позначати контент, створений ШІ. До того ж Meta сама намагатиметься визначати такий контент і маркувати його. 

Також компанія «запартнерилася» з міжнародними фактчекінговими організаціями, які переглядають підозрілий контент у фейсбуці, інстаграмі та тредсі й визначають його правдивість. Потім Meta позначає визначені організаціями публікації як такі, що містять дезінформацію, та сповіщає про це користувачів, які з ним взаємодіють. Врешті, контент, позначений як «неправдивий» або «частково неправдивий», та акаунти, які його поширюють, не рекомендуватимуть користувачам у стрічці новин. 

Щоби люди знали, кому точно можна довіряти, Меta позначає сторінки контрольованих державою медіа у згаданих вище соцмережах. 

У WhatsApp створили канали організацій, що займаються перевіркою фактів. Користувачі зможуть напряму звертатися до них для перевірки новин про вибори на правдивість. Також, щоби запобігати поширенню вигадок і чуток, додаток маркуватиме повідомлення, які пересилали 5 чи більше разів у ланцюжку різних чатів. Щоби захиститися від дезінформації, Meta нагадує про функцію блокування небажаних контактів та важливість звітування про їх «небажану поведінку». 

Окрім позитивних усталених рухів, Meta робить і «крок назад» у сфері інформаційної безпеки. Компанія оголосила, що за три місяці до виборів, 14 серпня 2024 року, закриє свою платформу для аналітики даних CrowdTangle. Журналісти і дослідники використовували цей ресурс для виявлення дезінформації у фейсбуці та інстаграмі. Компанія планує замінити CrowdTangle технологією, яка наразі розробляється, під назвою «Meta Content Library». Втім, остання буде доступна лише для дослідників та некомерційних організацій, комерційні проєкти та журналісти втратять доступ. 

У Google політика щодо політичної реклами відрізняється залежно від країни, це потрібно, щоби відповідати вимогам місцевого виборчого законодавства. Серед загальних вимог, характерних для всіх регіонів, – обмеження таргету та вимога позначати синтетично створений контент (тобто той, що згенерований ШІ). 

У Північній Америці тільки підтверджені рекламодавці можуть розміщувати політичну рекламу через Google. Щоб пройти верифікацію, потрібно подати заявку, детальніше тут. Завдяки верифікації компанія зможе інформувати користувачів, хто сплачує за те чи інше оголошення, а також наповнювати публічну бібліотеку політичної реклами, яка ведеться з 2018 року та містить дані про джерела фінансування такої реклами, суми, що витрачаються, тощо. 

YouTube не блокуватиме суперечний політичний контент, адже, на думку віцепрезидентки зі звʼязків з урядом, користувачам важливо почути всі пункти програми кандидата «щоби ухвалювати обґрунтовані рішення». «Ми швидко видаляємо вміст, який пропагує насильство, заохочує ненависть, пропагує шкідливі теорії змови або погрожує працівникам у сфері виборів», – зазначили у компанії. Також компанія не дозволятиме рекламувати явно не правдиві твердження, які підриватимуть довіру до виборів або участь у них та вимагатиме користувачів вказувати чи створено відео за допомогою ШІ. Водночас YouTube обіцяє рекомендувати користувачам новини з перевірених джерел. 

TikTok співпрацюватиме з виборчими комісіями, 17 організаціями, що займаються перевіркою фактів, та неприбутковою організацією «Democracy Works», щоби створити так звані виборчі центри (Election Centers). Це окремі офіційні акаунти, де публікуватимуться, наприклад, навчальні відео про виборчий процес та виборчу дезінформацію. Їхня мета - давати людям правдиву інформацію про вибори. Також Тікток обіцяє популяризувати основи медіаграмотності у колаборації з популярними американськими блогерами. У компанії згадують про важливість верифікації: вони вимагатимуть у всіх держорганів США та політиків пройти верифікацію (тобто підтвердити свою особистість). Також Тікток модеруватиме контент та акаунти протягом виборів, щоб протидіяти дезінформації та боротися з оманливим контентом, згенерованим ШІ. Команда додатка обіцяє: визначати, виловлювати та видаляти «координовані мережі акаунтів», спрямовані на поширення пропаганди та дезінформації, видаляти дипфейки публічних осіб, особливо якщо вони «висловлюються на підтримку» будь-яких політичних поглядів, та вимагатиме від кріейторів позначати контент, створений ШІ. 

Хоча, попри намагання Тіктоку уберегти вибори від нашестя дезінформації, керівниця розвідки США Авріл Хейнс заявляє, що Китай може використовувати додаток для впливу на вибори. Щоб уберегтися від такої загрози, Спеціальний комітет Палати представників з питань Китаю представив законопроєкт з вимогою компанії-власниці Тіктоку, «ByteDance», продати додаток за 6 місяців. 

У березні 2024 Midjourney на період виборів заборонила генерувати зображення Байдена і Трампа та скасувала безкоштовну підписку, щоб зменшити кількість фейків під час передвиборчого періоду. OpenAI, після звернення журналістів «The Tymes», заборонила генерувати «велику кількість агітаційних матеріалів» через ChatGPT. Яка саме кількість буде вважатися «великою», компанія не уточнила.

Також Meta, Google і Twitter скорочують кількість працівників з відділів боротьби з дезінформацією. 

ЗМІНИ ДО ЗАКОНОДАВСТВА

Американські експерти застерігають, що американське законодавство через ризики від ШІ не готове до виборів. Технологія розвивається швидше, ніж законодавці встигають її урегульовувати. Американські посадовці, усвідомлюючи загрозу, прагнуть ухвалити законодавство, яке б регулювало використання новітніх технологій у виборчий період.

У грудні 2023 року  американські законодавці ухвалили «​​Закон про захист виборів від оманливого ШІ». Він дозволяє політикам через суд забороняти поширювати пов’язані з ними дипфейки. Також закон забороняє використовувати створений штучним інтелектом контент, який є оманливими, для впливу на вибори або для збору коштів. А Агенство США з кібербезпеки (CISA) разом з владою певних штатів працює над запровадженням кримінальної відповідальності для політичних акторів, які використовують створений ШІ контент для введення в оману своїх виборців або конкурентів. 

Окрім змін до законодавства, американський уряд вкладається у заходи з протидії дезінформації. Зокрема, американські державні організації, як, наприклад, «DAPRA» або «National Science Foundation» вкладають мільйони доларів у технології, які допоможуть ліпше розпізнавати контент, згенерований ШІ.

ЯК ЗАХИСТИТИСЯ ВІД ДЕЗІНФОРМАЦІЇ

Агенство США з кібербезпеки (CISA) радить своїм чиновникам впроваджувати вже давно відомі засоби кібербезпеки, зокрема: 

● посилити захист акаунтів у соціальних мережах (встановити багатофакторну автентифікацію, деактивувати або видалити акаунти, які більше не використовуються, щоб зменшити ризик викрадення персональних даних),

● впровадити надійні протоколи безпеки електронної пошти для боротьби з фішинговими атаками, 

● посилити захист периметру мережі для виявлення й запобігання несанкціонованому доступу. 

Також держорган рекомендує робити інформацію з офіційних джерел максимально видимою і доступною. У виборчий період держава повинна посилити комунікацію з громадськістю, щоб заглушити оманливі наративи з інтернет-середовища. А для того щоб виборці були точно переконані в надійності ресурсів, всі вебсайти державних організацій та організацій повинні мати спільний домен (website.gov) і за можливості використовувати водяні знаки на офіційній кореспонденції. 

Як зазначає Центр американського прогресу, на соціальних мережах лежить етична відповідальність за протидію дезінформації: пошукові системи повинні віддавати перевагу офіційним урядовим ресурсам серед пошукових запитів користувачів і робити їх легко видимими та доступними, тоді як соціальні мережі мають надавати користувачам авторитетні та офіційні ресурси. 

Один з найліпших способів боротьби з дезінформацією на американських президентських виборах, який знайшли команди соціальних мереж, – заглушити її офіційною державною комунікацією. Вони роблять так, щоб виборці брали інформацію з перевірених джерел і не довіряли сумнівним дописам від невідомих (іноді – проплачених) авторів чи організацій. Також слід памʼятати, що за маніпуляціями в соцмережах часто стоять ботоферми недружніх країн, як-от мережа «ботів із Ольгіно», яку повʼязують із російським Агентством інтернет-досліджень та Євгенієм Пригожиним. Мережа досі активна, попри смерть Пригожина.

Для України виклики, повʼязані з дезінформацією, будуть як ніколи актуальні напередодні перших повоєнних виборів. Американські можливості та досвід у регулюванні соціальних мереж важко порівняти з українськими, адже США мають значно більше ресурсів на інформаційний захист і законодавче регулювання соціальних мереж, а самі техногіганти перебувають у їхній юрисдикції. Натомість в Україні соціальні мережі досі є в «сірій зоні» законодавства – значна частина онлайн-агітації лишається поза зором української держави. У контексті ШІ ситуація ще гірша, адже рішень для протидії йому в Україні немає зовсім. Однак найкращі світові практики можуть стати цінним дороговказом для початку вироблення цих рішень.

Ольга Бєдовська, спеціалістка з моніторингу соціальних мереж

Громадянська мережа ОПОРА

* Точка зору автора може не збігатися з позицією агентства
Розширений пошукПриховати розширений пошук
За період:
-