Підтекст: Якщо потребуєш соцдопомоги, вивчи голландську і будь чоловіком

Ілюстрація Global Voices.

Ця стаття є частиною інформаційного бюлетеня “Підтекст” (Undertones), що публікується Обсерваторією соціальних мереж (Civic Media Observatory) від Global Voices. Підпишіться на Undertones тут.

Ласкаво просимо до Undertones, інформаційного бюлетеня, в якому ми розшифровуємо наративи. У цьому випуску, завдяки досліднику Леону Інгельзе, ми розповідаємо про те, як люди говорять про оперування – чи зловживання – штучним інтелектом у Нідерландах. 

Спеціаліст по роботі з даними Інгельзе проаналізував дискусії про алгоритми в Нідердандах. Зрештою, там це велика справа: у 2021 році весь уряд повалився після кількарічного неналежного вирішення ситуації з виявленням викривлень штучного інтелекту в системі призначення допомоги по догляду за дітьми. Тисячі сімей, переважно з мігрантів, було безпідствно звинувачено в обмані системи. Нідерланди – країна, яка пишається ефективністю і використанням технологій у сфері державних послуг, – є прикладом того, як зловживання штучним інтелектом може нашкодити життю людей і підірвати довіру до влади. 

Тим не менш, алгоритмами надалі послуговуються у муніципалітетах Нідерландів, щоб визначити, хто більш або менш схильний до шахрайства з соціальними виплатами: нескінченно гаряча тема в Європі. Проте майже всі ці технології штучного інтелекту є непрозорими для журналістів і дослідників, коли влада заявляє про конфіденційність і інтелектуальну власність. Лише Роттердам, друге за величиною місто Нідерландів, нещодавно погодився показати кістяк свого алгоритму журналістам видань Lighthouse Reports і Follow The Money, які спеціалізуються на розслідуваннях. Ненавмисне вони також показали навчальні набори даних, які надали безцінне розуміння того, як алгоритм працює зсередини. 

Журналісти з'ясували, що алгоритм є оціночною карткою, яка містить особисті критерії, такі як вік, стать і сімейний стан, а також елементи поведінки та мовні навички. Роттердам спочатку розробив свій алгоритм за допомогою консалтингової компанії Accenture.

“Дані, які вводяться в алгоритм, варіюються від експансивних (тривалість останніх романтичних стосунків) і суб'єктивних (здатність людини переконувати і впливати на інших) до банальних (скільки разів людина писала електронною поштою в муніципалітет) і, здавалося б, несуттєвих (чи займається людина спортом)”, – написав Lighthouse. 

Іншими словами, якщо ви: а) жінка, б) володієте кількома мовами, в) вам двадцять чи тридцять з чимось років і г) ви є матір’ю, алгоритм віднесе вас до таких, хто може вчинити шахрайство, незалежно від того, чи були у вас шахрайські дії в минулому. Якщо соціальному працівнику видастся, що ви сором’язливі, вам буде ще гірше. Ви не будете знати, чи потрапили ви до чорного списку, і чому. Все ж результатом стануть незручні розслідування з боку місцевої влади, а також потенційна втрата соціальних виплат.

Скріншот балів ризику, розраховуваних роттердамським алгоритмом визначення вірогідності шахрайства з соціальними виплатами, як його реконструювали Lighthouse Reports.

“Голландці схильні вважати, що у них немає структурного расизму, тоді як цей алгоритм чітко показує протилежне, оскільки люди з обмеженим знанням голландської мови піддаються дискримінації”, – каже Інгельзе. Виявилися й інші випадки застосування дискримінаційних алгоритмів у Нідерландах, зокрема, профілювання у візових заявках національності і етнічної приналежності.

Алгоритмічна упередженість – не новина

Журналісти вказували на притаманну упередженість алгоритмічних оцінок ризиків і в інших місцях. Ще у 2016 році розслідування ProPublica виявило, що в системі кримінального правосуддя США вірогідність потрапляння темношкірих людей до категорії “високого ризику” скоєння повторного правопорушення була вдвічі вищою; натомість, вірогідність помилкового віднесення білошкірих людей до категорії “низького ризику” була вдвічі вищою. У випадку з Роттердамом експерти стверджують, що ефективність штучного інтелекту лише незначно краща, ніж випадковий відбір одержувачів соціальної допомоги для розслідування, написав Lighthouse.

Алгоритми штучного інтелекту демонструють упередженість через навчання на викривлених або недостатніх реальних даних і вплив упереджень, притаманних людям-розробникам. Упередження потрапляють у систему й іншими шляхами.

Як люди сприймають ці викриття?

У голландських скандалах, пов'язаних зі штучним інтелектом, публічні дебати, як правило, відбуваються не в оригінальних твітах чи постах, а лише у розділах коментарів, які, на диво, демонструють цікавий спектр думок. Більшість з тих, хто розпочинає дебати, – журналісти.

“Можливо, голландці втомилися після Toeslagenaffaire (скандалу з виплатами по догляду за дитиною) і більше зосереджені на ChatGPT, – каже Інгельзе. – Крім того, громадські діячі, які були частиною скандалів, тактично уникають відповідей на запитання про свою причетність”. Він додає, що єдині, хто обтяжені цими специфічними алгоритмами, – це меншини, які часто невидимі. “Зверніть увагу, що ці алгоритми шахрайства ніколи не застосовуються, наприклад, у податках на прибуток, які були б націлені на багатих”, – каже Інгельзе.

Ми звернулися до місцевої влади Роттердама, а також до новоствореної організації сімей, які постраждали від алгоритму, щоб зрозуміти їхні точки зору, але не отримали відповідей.

Наратив 1: “Алгоритми, які допомагають боротися зі злочинністю, слід впроваджувати, навіть якщо вони упереджені”

Цей наратив коротко: “Алгоритм справляється зі своєю роботою” 

Цей наратив передбачає, що алгоритм працює, навіть якщо він недосконалий, у боротьбі зі шахрайством. Цей дискурс існує вже кілька років. Наприклад, у розпал скандалу з виплатами по догляду за дитиною у 2019 році ультраправий блогер Пім Беарт на псевдо “Ганнібал” у редакційній статті стверджував, що політики лише “хочуть використовувати алгоритми тоді, коли вони підтверджують їхні політичні погляди”.

Нещодавно EW, один з найбільших консервативних голландських журналів, заявив, що автоматизовані рішення у візових заявках повинні бути нормою, попри те, що вони завжди спрямовані проти людей з певних країн, як, наприклад, колишня голландська колонія Суринам. Вони запитують у Facebook-постах: “Чи не повинен уряд просто використовувати цифрові програми, які сміють холоднокровно фільтрувати (заявників на отримання візи)?” Інші, як відомий блог GeenStijl, також висловлюються на користь ефективності: це один з найпопулярніших наративів у Нідерландах.

“Голландці вважають, що віддають перевагу ефективності перед усім іншим”, – каже Інгельзе. Нідерланди лідирують у впровадженні цифрових ідентифікаційних документів, впровадженні технологій в освіті і охороні здоров'я, а також у просуванні урядової цифровізації. Все, що вони роблять – і як вони долають алгоритмічні упередження – може вплинути на те, як інші країни розвивають свій власний штучний інтелект. Проте не багато хто розуміє засади алгоритмів.

“Окрім очікуваної присутності ксенофобських коментарів та расизму, цей наратив, імовірно, буде присутній завжди, доки люди не зрозуміють, як працюють алгоритми, і різницю між об'єктивними даними і інтерпретацією тих даних”, – каже Інгельзе. Кореляція не означає причинно-наслідковий зв'язок.

Наратив 2: “Використанням дискримінаційних алгоритмів влада Нідерландів шкодить своїм громадянам”

Цей наратив коротко: “Припиніть полуговуватися дискримінаційним штучним інтелектом”

У твітах і коментарях люди стверджують, що Нідерланди мають історію застосування дискримінаційних алгоритмів, які повторно роблять вразливі групи населення жертвами. Зосередження уваги на чиїхось поганих навичках голландської мови для багатьох означає підтекст для націлювання на іммігрантів.

Деякі йдуть далі, заявляючи, що “алгоритми повинні бути відкритими і прозорими, щоб їх неупередженість було гарантовано“. Це не стосується переважної більшості алгоритмів. Тож, хоча люди критикували використання алгоритмів Роттердамом, багато також хвалили місто за те, що воно принаймні показало свій алгоритм журналістам.

Більшість цих постів і коментарів надходять від людей, які захищають права людини, а не від тих, на кого алгоритми впливають безпосередньо. Можливо, якраз через те, що вразливі групи населення менш помітні в Інтернеті або менш гомонливі (голландською мовою) в мережі. Втім, при безпосередньому опитуванні люди дуже категорично виступають проти використання дискримінаційного штучного інтелекту. Голландське видання Vers Breton побувало на ринку Роттердама, куди ходять люди з меншими економічними можливостями, і опитало покупців: всі вони критикували використання алгоритмів.

Голландські законодавці також наполягають на посиленні регулювання штучного інтелекту. “Основна проблема розвитку штучного інтелекту полягає в тому, що він повністю керований ринком: це багатомільярдна індустрія без правил”, – написав у розлогій дискусії у Twitter Кім ван Спаррентак, член Європейського парламенту від групи “Зелені/Європейський вільний альянс”.

Майбутній закон ЄС про штучний інтелект

Європейський Союз негоціює “Закон про штучний інтелект”, покликаний регулювати такі ситуації. У середині червня Європейський парламент відправив свій проект до Європейської ради, де його зараз обговорюють. На момент написання цієї статті одним із пунктів закону задля уникнення дискримінації була заборона “нарахування соціальних балів”.

Цей текст опубліковано за підтримки Community CMO. Якщо ви хочете дізнатися більше або долучитися, запропонуйте нам ваш проєкт або приєднайтеся до нашого наступного методологічного тренінгу, який буде анонсовано пізніше.

Почати обговорення

Шановні автори, будь ласка увійти »

Правила

  • Усі коментарі перевіряються модератором. Не надсилайте свій коментар більше одного разу, інакше він може бути ідентифікований як спам.
  • Будь ласка, ставтесь з повагою до інших. Коментарі, які містять мову ненависті, непристойність та особисті образи, не будуть опубліковані.