Наративи штучного інтелекту: звіт Global Voices

Зображення зроблено Джованою Флек, використовується з дозволу.

Цей звіт є частиною проєкту Data Narratives, проєкту Civic Media Observatory, метою якого є виявлення та розуміння дискурсу щодо даних, що використовуються для управління, контролю та політики в Сальвадорі, Бразилії, Туреччині, Судані та Індії. Детальніше про проєкт читайте тут та дивіться наш публічний набір даних.

Потужні актори, уряди та корпорації активно формують наративи про штучний інтелект (ШІ) для просування конкуруючих бачень суспільства та управління. Ці наративи допомагають встановити, у що вірить громадськість і що слід вважати нормальним або неминучим у застосуванні ШІ в їхньому повсякденному житті — від спостереження до автоматизованого прийняття рішень. У той час як публічні повідомлення представляють системи штучного інтелекту як інструменти для прогресу та ефективності, ці технології все частіше використовуються для моніторингу населення та позбавлення громадян можливості участі в політичному житті безліччю способів. Цей наративний виклик штучного інтелекту ускладнюється багатьма різними культурними цінностями, програмами та концепціями, які впливають на те, як штучний інтелект обговорюється в усьому світі. Врахування цих відмінностей має вирішальне значення в контекстах, в яких дані посилюють нерівність, несправедливість або недемократичне врядування. Оскільки ці системи продовжують впроваджувати уряди з історією репресій, для організацій громадянського суспільства стає критично важливим розуміти та протидіяти наративам про штучний інтелект, які легітимізують недемократичне застосування цих інструментів.

Спираючись на основу, закладену Unfreedom Monitor, ми провели дослідження Data Narratives щодо дискурсу даних у п'яти країнах, які стикаються з різними загрозами демократії: Судані, Сальвадорі, Індії, Бразилії та Туреччині. Щоб краще зрозуміти відносини цих країн зі штучним інтелектом, стимулами та стратегіями захисту суспільних інтересів, корисно контекстуалізувати ШІ як наратив даних. Управління штучним інтелектом за своєю суттю передбачає управління даними і навпаки. Системи штучного інтелекту покладаються на величезні обсяги даних для навчання та експлуатації, тоді як системи штучного інтелекту набувають розбірливості та цінності, оскільки вони широко інтегровані в повсякденні функції, які потім генерують величезні обсяги даних, необхідних для роботи.

Термінологія штучного інтелекту як наратив і перешкода

Сам термін «штучний інтелект» є спірним. Традиційні визначення штучного інтелекту — такі як те, що встановлено Законом ЄС про штучний інтелект — намагаються надати політикам необхідний простір для встановлення ефективної політики управління; однак ці спроби майже завжди зазнають невдачі через ненавмисне виключення деяких систем з-під нагляду через варіативність форм і функцій так званих інтелектуальних систем в цілому. Підходи до визначення штучного інтелекту також різняться залежно від галузі. Це ілюструють дані опитування, в яких вчені-комп'ютерники зосереджуються на технічних функціях системи, тоді як політики натомість зосереджуються на метафоричних зв'язках між системними аспектами, які, на їхню думку, схожі на людське мислення та поведінку. Це демонструє, як навіть термін «штучний інтелект» має наратив. Ми починаємо розуміти це, приймаючи широке використання популярних засобів масової інформації поряд з урядовими та дослідницькими.

Глобальне розмаїття наративів термінології штучного інтелекту відображає міжнародну різницю в культурних цінностях і пріоритетах. Багато мов приписують цим системам слово «інтелект», але культури різняться за своїми уявленнями про те, що включає в себе інтелект. Просте використання терміну «інтелект» приписує технології людські якості, які можуть створити хибне уявлення про ШІ як про автономний і потужний, а не як про інструмент, розроблений і контрольований людьми-акторами. Антропоморфні дескриптори штучного інтелекту можуть приховувати базову інфраструктуру та бізнес-інтереси, що стоять за його розробкою, — і вводити громадськість в оману, спонукаючи її генерувати неправильні висновки про те, як працює технологія і чи слід їй довіряти в конкретних випадках використання. Отже, наративи про штучний інтелект, які використовують антропоморфні описи, можуть запобігти публічній критиці систем штучного інтелекту.

Мову, яка приписує більше інтелекту, ніж здатна система, можна розуміти під наративами, що обрамляють корпорації, які продають ці інструменти. Оскільки передові системи штучного інтелекту, особливо генеративний ШІ, вимагають величезних обчислювальних ресурсів та інфраструктури, яку може дозволити собі лише кілька компаній, влада над розробкою штучного інтелекту була зосереджена у великих технологічних компаніях, таких як Google та Microsoft. Це технічне домінування дає цим компаніям перевагу над наративами про системи штучного інтелекту, просуваючи наративи, які свідчать про те, що їхній привілейований контроль над цією технологією є суспільним благом через обіцянки, що це «демократизує штучний інтелект» для всіх. Насправді, ці моделі абсолютно не здатні демократизувати знання в рівних частинах, тому що ці технології не можуть відрізнити факт від вигадки у своїх результатах, щоб виправдати навіть ліберальне визначення «знання», а також тому, що вони надають різні реакції різним людям через природу ідентифікаційної інформації, закодованої в мові користувачів. Популярність генеративного штучного інтелекту ще більше розширює корпоративний вплив США в інших країнах, формує питання, які порушуються, і діалог на платформах соціальних мереж, а також визначає, які дослідження фінансуються.

Представлення систем штучного інтелекту як інтелектуальних є ще складнішим і переплітається з сусідніми наративами. У США наративи про штучний інтелект часто обертаються навколо протилежних тем, таких як надія та страх, часто поєднуючи дві сильні емоції: екзистенційні страхи та економічні прагнення. У будь-якому випадку вони припускають, що технологія потужна. Ці наративи сприяють ажіотажу навколо інструментів штучного інтелекту та їхнього потенційного впливу на суспільство. Ось деякі приклади:

Багато з цих обрамлень часто представляють ШІ як нестримну силу, що прискорюється. Хоча цей наратив може викликати ажіотаж та інвестиції в дослідження штучного інтелекту, він також може сприяти відчуттю технологічного детермінізму та відсутності критичного ставлення до наслідків широкого впровадження ШІ. Контрнаративів багато, і вони розширюються на мотивах стеження, ерозії довіри, упередженості, впливу на роботу, експлуатації праці, використання з високим ризиком, концентрації влади та впливу на навколишнє середовище, серед іншого.

Ці наративні рамки в поєднанні з метафоричною мовою та образами, що використовуються для опису штучного інтелекту, сприяють плутанині та відсутності знань громадськості про технологію. Позиціонуючи штучний інтелект як трансформаційний, неминучий і необхідний інструмент для національного успіху, ці наративи можуть формувати громадську думку та політичні рішення, часто таким чином, що надають пріоритет швидкому впровадженню та комерціалізації.

Основні наративи, що зустрічаються в нашому дослідженні

Ви можете натиснути на таблицю нижче, щоб орієнтуватися в розповідях, які ми дослідили та описали в наступному розділі:

Бразилія

Дискусія навколо штучного інтелекту в Бразилії в першу чергу зосереджена на регуляторних заходах і набрала обертів, оскільки цього року (2024) Бразилія приймала G20 і провела низку підготовчих і супутніх заходів, пов'язаних з питаннями управління даними, таких як NetMundial+10. Ключовим нормативним актом, який обговорювався, був законопроєкт 2338/2023, який спрямований на встановлення національних стандартів для розробки, впровадження та відповідального використання систем штучного інтелекту. Окрім цього законопроєкту, є також галузеві законодавчі пропозиції, такі як криміналізація порнографічних діпфейків, а також цілеспрямовані дії, як-от резолюції Верховного суду виборів 2024 року щодо штучного інтелекту та виборів.

У цьому контексті наш дослідник виділив три основні наративи. Перший наратив, який полягає в тому, що Бразилія повинна залишатися в авангарді регулювання нових технологій, охоплює нинішній лівий уряд Бразилії та бажання членів громадянського суспільства повернутися до авангарду регулювання нових технологій, як це було у 2014 році, з «Marco Civil da Internet» (Бразильська рамкова рамка громадянських прав для Інтернету). Другий наратив, Бразилія повинна регулювати штучний інтелект, щоб уникнути відставання, також випливає з почуття терміновості регулювання, але просувається консервативним правим крилом, Ліберальною партією (ЛП), він надає пріоритет сприянню безпечному бізнес-середовищу, яке процвітає завдяки інноваціям у сфері штучного інтелекту. Третій наратив, Регулювання штучного інтелекту перешкоджає інноваціям у Бразилії, висунутий неоліберальним правим крилом країни, оприлюднює думку про те, що регулювання штучного інтелекту перешкоджатиме розвитку індустрії штучного інтелекту в Бразилії.

Індія

У листопаді 2023 року діпфейкове відео зі штучним інтелектом актора Рашміки Манданни, яке поширилося в соціальних мережах, викликало значну дискусію в Індії про регулювання штучного інтелекту. Підтвердження маніпулювання зображеннями призвело до дискусій про роль уряду в боротьбі з діпфейками ШІ та пом'якшенні потенційної шкоди. Ця дискусія поширилася на занепокоєння щодо впливу штучного інтелекту на вибори, що спонукало уряд попередити платформи про діпфейки штучного інтелекту та випустити рекомендації щодо саморегулювання та маркування контенту, створеного штучним інтелектом. Ці заходи послідували за публічними зверненнями прем'єр-міністра Нарендри Моді, в яких наголошувалося на загрозах, які становлять діпфейки штучного інтелекту, та їхній потенційній шкоді для громадян.

Під час першої фази дискусії, одразу після публікації відео з діпфейком на основі штучного інтелекту, наш дослідник виділив два основні наративи. Перший наратив, Уряд Індії прагне зробити Інтернет безпечним для своїх громадян, рекламував загальні дії уряду у формі регулювання щодо боротьби з дезінформацією, мовою ненависті та переслідуваннями в Інтернеті. Другий наратив, Реакція уряду Індії на діпфейки зі штучним інтелектом є заплутаною та реактивною, стверджується такими організаціями, як Фонд свободи Інтернету, який ставить під сумнів реактивні заходи уряду та вважає їх вжитими без обґрунтованої оцінки різних пов'язаних проблем.

Пізніше наш дослідник намітив ще три наративи, коли фокус переключився на вибори. Перші два наративи, Діпфейки на основі штучного інтелекту, будуть використовуватися антинаціональними акторами Індії і Творці діпфейків зі штучним інтелектом і платформи, на яких вони розміщуються, є справжніми рушійними силами маніпуляцій на виборах, запропоновані урядом, мають на меті звинуватити опозиційні партії, платформи соціальних мереж і людей, які стоять за створенням діпфейкових відео, за дезінформацію зі штучним інтелектом, не сприяючи чіткому регулюванню, спрямованому на боротьбу з цим. Третій наратив, Вирішення проблеми дезінформації штучного інтелекту в Індії має виходити за рамки заборони та видалення контенту, який також просувають такі організації, як Фонд свободи Інтернету, вимагає більш ефективної реакції від уряду, який розглядає питання політичної відповідальності та зміцнює медіасистему.

Судан

Громадянська війна в Судані, що триває з квітня 2023 року, глибоко вплинула на всі аспекти суданського суспільства. У травні 2023 року Збройні Сили Судану (ЗСС) використовували національну телевізійну станцію для поширення дезінформації, стверджуючи, що відео з Мохамедом Хамданом Дагало (Хемедті), командиром Сил швидкої підтримки (RSF), було згенероване штучним інтелектом, і що Хемедті мертвий. Однак Хемедті знову з'явився в липні 2023 року в записаному відео зі своїми силами, опублікованому RSF у X (раніше Twitter), яке прихильники ЗСС використовували, щоб підкріпити свою розповідь про його смерть, стверджуючи, що «RSF використовує діпфейки зі штучним інтелектом для військового обману». У січні 2024 року авторитет ЗСС був підірваний, коли Хемедті публічно з'явився з кількома африканськими лідерами під час турне регіоном.

У розпал цього перетворення штучного інтелекту на озброєння наш дослідник наніс на карту три ключові наративи. Перший наратив, як згадувалося вище «RSF використовує діпфейки зі штучним інтелектом для військового обману», який просувають ЗСС та його прихильники, має на меті дискредитувати RSF, пов'язуючи їх із діпфейками зі штучним інтелектом і звинувачуючи їх в обмані людей, змушуючи думати, що їхній командир Хемедті все ще живий. Другий наратив, Об'єднані Арабські Емірати та Ізраїль використовують штучний інтелект для просування свого порядку денного в Судані, який також просувають прихильники ЗСС, стверджує, що Об'єднані Арабські Емірати використовували штучний інтелект для прийняття свого порядку денного в Судані, щоб посилити RSF, завдаючи шкоди репутації ЗСС. Ізраїль та ОАЕ посилили співпрацю в галузі інновацій у сфері штучного інтелекту, яка розширилася після їхньої мирної угоди в рамках Авраамових угод. RSF, яка має міцні зв'язки з ОАЕ, в минулому прагнула налагодити незалежні відносини з Ізраїлем поза офіційними державними каналами.

Третій наратив, RSF не використовують діпфейки зі штучним інтелектом для військового обману, які просувають RSF та їхні прихильники, заперечує звинувачення ЗСС і заперечує використання діпфейків зі штучним інтелектом для військового обману у своїх онлайн-операціях.

Туреччина

У Туреччині ажіотаж є домінуючим фактором під час обговорення штучного інтелекту, проте штучний інтелект часто неправильно розуміють і ставляться до нього як до магічного рішення. Багато установ державного та приватного секторів звертаються до штучного інтелекту, щоб створити технічно підкований, прогресивний та об'єктивний образ, використовуючи його як захист від звинувачень у упередженості чи відсталості. Однак оптимізм різко контрастує з розчаруванням або жорстоким досвідом, який багато турків відчувають з використанням штучного інтелекту у своєму повсякденному житті.

У цьому зіткненні уявлень наш дослідник намітив два наративи. Перший наратив, «Штучний інтелект», є неупередженим і сам по собі може вирішити багато проблем турецького народу, висунутих правлячою партією, опозицією і навіть федерацією футболу країни, зображує штучний інтелект завжди неупередженим, об'єктивним і кращим за системи, створені людиною, незалежно від того, чому/як і де він використовується. Другий наратив, Штучний інтелект створює більше проблем, ніж вирішує, стверджується неявно і демонструє загрози використання ШІ, включаючи загострення існуючих соціальних проблем і створення нових.

Прогалина в розмові

Наративи, які помітили наші дослідники, також демонструють відсутність у розмовах. Найочевидніший випадок – у Сальвадорі, де не було знайдено ключових наративів, що обговорюють ШІ. Наше дослідження вказує на те, що теми управління даними, які процвітають у соціальному діалозі Сальвадору, – це переважно криптовалютна політика та питання захисту даних.

Питання захисту даних також є факторами дискусії навколо управління даними в Індії, Судані та Туреччині. Проте в будь-якій з цих країн занепокоєння з приводу витоку або неправильного використання даних людей пов'язане зі штучним інтелектом. Здається, немає розмов про джерело даних, які використовуються для підтримки систем штучного інтелекту, і наслідки, які можуть мати або не мати на приватність людей, навіть у країнах, де обговорюються можливі регулювання. Те саме відбувається і з дискусіями про потенційний вплив штучного інтелекту на зайнятість — жодні місцеві наративи не обговорюють загрози чи можливості, які штучний інтелект може надати людям на їхніх робочих місцях.

Наративи, відображені в нашому дослідженні, також дають мало оптимізму або чітких позитивних асоціацій зі штучним інтелектом. Лише в Туреччині штучний інтелект представлений як ефективний інструмент, хоча він переважно містифікований і використовується в дискурсі та як комунікаційна тактика для маскування неефективності.

Робота наших дослідників також не показує впливу наративів у суспільствах досліджуваних країн щодо можливого впливу штучного інтелекту на військовий чи поліцейський потенціал країн, на відміну від США. Лише в Туреччині та Сальвадорі наші дослідники знайшли активні розмови про можливе шпигунство з боку їхніх урядів. Проте в будь-якому з цих інцидентів наративи, відображені на карті, пов'язують проблему зі штучним інтелектом. Те ж саме відбувалося і з порушеннями прав людини; дискусій про те, як ШІ може запобігти або полегшити їм, не було зареєстровано.

Наше дослідження також не виявило глибоких соціальних дискусій про можливості, які штучний інтелект надає авторитарним лідерам, які зараз перебувають при владі або бажають отримати доступ до влади. Здається, ведуться невеликі дискусії про те, чи може вона загострити уявлення про відсутність незаперечної істини і як ця атмосфера недовіри є шкідливою для демократій.

Висновок: зміна наративу ШІ

Організації громадянського суспільства, які хочуть захищати демократію та права людини, повинні краще розуміти наративи про штучний інтелект у всьому світі. Зараз ми побачили перші вибори під впливом генеративного штучного інтелекту. Алгоритмічний авторитаризм і використання штучного інтелекту для репресій є широкими, включаючи пропаганду глибоких фейків, стеження, модерацію контенту, кібервійну та зброю штучного інтелекту. Регіональний фокус на конкретних загрозах ШІ та політиці щодо ШІ існує, але необхідні ширші громадські наративи про вплив ШІ на демократію та права людини. Дослідження, проведене в рамках Data Narratives Observatory, показує, що регіональні дискусії часто не враховують критично важливих зв'язків між системами штучного інтелекту, управлінням даними та владою. Існує потреба у зміні наративу та створенні наративної інфраструктури. Погляд на ШІ як на частину екосистеми даних, а не як на інтелект, може допомогти протистояти шкідливим і надмірно спрощеним наративам про штучний інтелект. Це також може допомогти ознайомити громадськість з даними та правами на штучний інтелект, оскільки політика щодо штучного інтелекту залежить від управління даними. Цей взаємозв'язок особливо важливий, якщо розглядати зростання штучного інтелекту та роль, яку ШІ відіграє в процесі спостереження.

Наше дослідження виявляє значні прогалини у глобальному дискурсі щодо штучного інтелекту. У Сальвадорі соціальний діалог щодо управління даними зосереджений на політиці криптовалют і захисті даних, з мінімальною увагою до штучного інтелекту. Діпфейки штучного інтелекту та їх використання в дезінформації обговорюються в таких країнах, як Бразилія, Індія та Судан, але в них рідко розглядаються наслідки штучного інтелекту для конфіденційності даних або працевлаштування. Оптимізм щодо штучного інтелекту є рідкісним явищем, за винятком Туреччини, де штучний інтелект просувається як рішення, хоча часто поверхнево. Дискусії про вплив штучного інтелекту на військові та поліцейські можливості, права людини та його потенціал підтримувати авторитарні режими або підривати демократичні цінності особливо відсутні, що підкреслює необхідність більш всебічної та критичної взаємодії з соціальним впливом штучного інтелекту в усьому світі.

Перспективні підходи до управління штучним інтелектом можуть бути посилені за допомогою методів, які поважають силу наративів навколо центральних питань. Орієнтовані на громаду ініціативи з управління даними та штучним інтелектом, такі як Connected by Data та мережі суверенітету корінних даних, такі як Te Mana Raraunga, демонструють, як колективне управління може кинути виклик корпоративному контролю та державному нагляду. Нещодавно також були зроблені такі зусилля, як аналітичний брифінг Fostering a Federated AI Commons Ecosystem, натхненний роботою Coding Rights, який закликає G20 підтримувати екосистему штучного інтелекту, яка наголошує на штучному інтелекті для конкретних завдань, орієнтованому на спільноту та спрямованій на стримування влади технологічних монополій. Mozilla Foundation відстежує набагато більше ініціатив щодо обробки даних, які розширюють можливості спільнот.

Ці ідеї можуть бути потужними, але їхній успіх залежить від завоювання підтримки в різних спільнотах. Дослідження наративів показують, що вони можуть ефективно впливати на суспільні результати, але проблеми виникають при спробах розвивати наративи на низовому рівні. Без навмисної зміни наративу домінуючі наративи ШІ можуть посилитися та призвести до:

  • Корпоративні наративи про штучний інтелект, які завищують можливості штучного інтелекту, вводять в оману та збивають з пантелику очікування, що ускладнює регулювання;
  • Нормалізація більшого нагляду та втрати процесу прийняття рішень людьми, що керується державними наративами;
  • Спрощені наративи про штучний інтелект, такі як ті, що поляризують ШІ як загрозу або ШІ як рішення, можуть відволікати від запобігання реалістичним ризикам і перевагам;
  • Видобувні практики та концентрація влади в ландшафті штучного інтелекту залишатимуться заплутаними;
  • Альтернативні бачення розвитку та управління штучним інтелектом, орієнтованого на спільноту, управління даними та роботи зі спільним штучним інтелектом будуть боротися за популярність.

Ці результати підкреслюють критичну потребу в розширених дослідженнях наративів про штучний інтелект — для їх документування, а також для допомоги громадянському суспільству в розробці ефективних контрнаративів і стратегій. Документація має вирішальне значення для того, щоб дозволити суспільствам створювати наративні інфраструктури, які кидають виклик корпоративному контролю та державному нагляду. Найкраща спроба спільнот протистояти репресіям за допомогою штучного інтелекту має інтегрувати тонке розуміння того, як різні спільноти концептуалізують та обговорюють штучний інтелект для створення повідомлень, які знаходять відгук на місцевому рівні та сприяють загальному внеску в ширший, глобальний рух. Починаємо з розуміння існуючих наративів. Ми використовуємо ці знання, щоб допомогти спільнотам розпізнавати та протистояти неправомірному використанню систем штучного інтелекту. А вони, у свою чергу, можуть використовувати цю інформацію для просування своїх альтернативних бачень управління штучним інтелектом, зосереджених на правах людини та демократичних цінностях.

Посилання

A Is. (2021). Aisforanother.net. https://aisforanother.net/

Article 3: Definitions | EU Artificial Intelligence Act. (2024, June 13). Future of Life Institute. https://artificialintelligenceact.eu/article/3/

Artificial intelligence (AI) and human rights: Using AI as a weapon of repression and its impact on human rights | Think Tank | European Parliament. (2024). Europa.eu. https://www.europarl.europa.eu/thinktank/en/document/EXPO_IDA(2024)754450

Aawsat. (2023, April 22). Where did Al-Burhan and “Hemedti” disappear? https://aawsat.com/home/article/4287326/%D8%A3%D9%8A%D9%86-%D9%8A%D8%AE%D8%AA%D9%81%D9%8A-%D8%A7%D9%84%D8%A8%D8%B1%D9%87%D8%A7%D9%86-%D9%88%C2%AB%D8%AD%D9%85%D9%8A%D8%AF%D8%AA%D9%8A%C2%BB%D8%9F 

Bryson, J. J. (2022, March 2). Europe Is in Danger of Using the Wrong Definition of AI. Wired. https://www.wired.com/story/artificial-intelligence-regulation-european-union/

Catalysing Community Campaigns. (2024, September 26). Connected By Data. https://connectedbydata.org/projects/2023-catalysing-communities

Center for Preventive Action. (2024, October 3). Civil War in Sudan. Global Conflict Tracker; Council on Foreign Relations. https://www.cfr.org/global-conflict-tracker/conflict/power-struggle-sudan

Celso Pereira, P., Jungblut, C. (2014, March 25). Câmara aprova Marco Civil da Internet e projeto segue para o Senado. O Globo. https://oglobo.globo.com/politica/camara-aprova-marco-civil-da-internet-projeto-segue-para-senado-11984559

Chubb, J., Reed, D., & Cowling, P. (2022). Expert views about missing AI narratives: is there an AI story crisis? AI & SOCIETY. https://doi.org/10.1007/s00146-022-01548-2

D’Souza, A. A. (2024, April 24). India's foray into regulating AI. Iapp.org. https://iapp.org/news/a/indias-foray-into-regulating-ai

Edsall, T. B. (2024, June 5). Opinion | Will A.I. Be a Creator or a Destroyer of Worlds? The New York Times. https://www.nytimes.com/2024/06/05/opinion/will-ai-be-a-creator-or-a-destroyer-of-worlds.html

Foodman, J. (2024, August 12). Council Post: Artificial Intelligence Is Changing The World And Your Business. Forbes. https://www.forbes.com/councils/forbesbusinesscouncil/2023/07/24/artificial-intelligence-is-changing-the-world-and-your-business/

Framing AI. (2023, October 12). Rootcause. https://rootcause.global/framing-ai/

Funding Narrative Change, An Assessment and Framework. (2022, September 30). Convergence Partnership. https://convergencepartnership.org/publication/funding-narrative-change-an-assessment-and-framework/

Future of Life Institute. (2023, March 22). Pause Giant AI Experiments: an Open Letter. Future of Life Institute. https://futureoflife.org/open-letter/pause-giant-ai-experiments/

Grossman, G., Edelman. (2023, October 15). Smarter than humans in 5 years? The breakneck pace of AI. VentureBeat. https://venturebeat.com/ai/smarter-than-humans-in-5-years-the-breakneck-pace-of-ai/

Hacking the patriarchy — Coding Rights. (2024, September 4). Coding Rights. https://codingrights.org/en/

Halina, M., & Shevlin, H. (2019). Apply rich psychological terms in AI with care. Cam.ac.uk. https://doi.org/10.17863/CAM.37897

Hennessey, Z. (2023). Israel and the UAE join forces to accelerate AI innovation in Abu Dhabi. The Jerusalem Post. https://www.jpost.com/business-and-innovation/article-742509

İspir, E. (2023, March 29). Yapay Zekayla Müstehcen İçeriklerini Yapıp, Taciz Ettiler! “Sonuna Kadar Peşindeyim.” Onedio. https://onedio.com/haber/yapay-zekayla-mustehcen-iceriklerini-yapip-taciz-ettiler-sonuna-kadar-pesindeyim-1137454

Jain, R. (2024, May 9). ChatGPT Creator Sam Altman Feels It's A ‘Massive, Massive Issue’ That We Don't Take AI's Threat To Jobs And Economy ‘Seriously Enough’. Benzinga. https://www.benzinga.com/news/24/05/38725610/chatgpt-creator-sam-altman-feels-its-a-massive-massive-issue-that-we-dont-take-ais-threat-to-jobs-an

Javaid, U. (2024, May 31). Democratizing AI: Why Opening Wider Access To AI Is Vital. Forbes. https://www.forbes.com/councils/forbestechcouncil/2024/05/31/democratizing-ai-why-opening-wider-access-to-ai-is-vital/

Kak, A. and Myers West, S. eds. (2024, March). AI Nationalism(s): Global Industrial Policy Approaches to AI. AI Now Institute. (2024). https://ainowinstitute.org/ai-nationalisms

Kak, A., Myers West, S., & Whittaker, M. (2023, December 5). Make no mistake—AI is owned by Big Tech. MIT Technology Review. https://www.technologyreview.com/2023/12/05/1084393/make-no-mistake-ai-is-owned-by-big-tech/

Kalluri, Pratyusha Ria, Agnew, W., Cheng, M., Owens, K., Soldaini, L., & Birhane, A. (2023, October 17). The Surveillance AI Pipeline. ArXiv.org. https://arxiv.org/abs/2309.15084

Khanal, S., Zhang, H., & Taeihagh, A. (2024, March 27). Why and How Is the Power of Big Tech Increasing in the Policy Process? The Case of Generative AI. Policy & Society (Print). https://doi.org/10.1093/polsoc/puae012

Krafft, P. M., Young, M., Katell, M., Huang, K., & Bugingo, G. (2020, February 7). Defining AI in Policy versus Practice. Proceedings of the AAAI/ACM Conference on AI, Ethics, and Society. https://doi.org/10.1145/3375627.3375835

Lakhani, K. (2023, August 4). AI won’t replace humans — but humans with AI will replace humans without AI. Harvard Business Review. https://hbr.org/2023/08/ai-wont-replace-humans-but-humans-with-ai-will-replace-humans-without-ai

Magally, N. & Younis, A. (2021, June 26). Mossad Meetings with Hemedti Stir Anger in Sudan. (2021). Aawsat.com. https://english.aawsat.com/home/article/3048136/mossad-meetings-hemedti-stir-anger-sudan

Manson, K. (2024, February 28). AI Warfare Is Already Here. Bloomberg.com. https://www.bloomberg.com/features/2024-ai-warfare-project-maven/

Markelius, A., Wright, C., Kuiper, J., Delille, N., & Kuo, Y.-T. (2024, April 2). The mechanisms of AI hype and its planetary and social costs. AI and Ethics (Print). https://doi.org/10.1007/s43681-024-00461-2

Mozilla Foundation. (2021). Research Collection: Data for Empowerment. Mozilla Foundation. https://foundation.mozilla.org/en/data-futures-lab/data-for-empowerment/

Microsoft. (2024). AI For Good Lab. Microsoft Research. https://www.microsoft.com/en-us/research/group/ai-for-good-research-lab/

Naprys, E. (2023, November 27). China vs US: who’s winning the race for AI supremacy | Cybernews. https://cybernews.com/tech/china-usa-artificial-intelligence-race/

Narrative Power. (n.d.). Narrative Power. https://narrative.colorofchange.org/

Novak, M. (2023, November 5). Viral Video Of Actress Rashmika Mandanna Actually AI Deepfake. Forbes. https://www.forbes.com/sites/mattnovak/2023/11/05/viral-video-of-actress-rashmika-mandanna-actually-ai-deepfake/

Placani, A. (2024, February 5). Anthropomorphism in AI: hype and fallacy. AI and Ethics, 4. https://doi.org/10.1007/s43681-024-00419-4

Read, J. (2024, March 1). Nurturing a Workforce Ready for AI Integration in Manufacturing · EMSNow. EMSNow. https://www.emsnow.com/nurturing-a-workforce-ready-for-ai-integration-in-manufacturing/

Sky News Arabia. (2023, July 28). Video: This is what Hemedti said in his first appearance in months. https://www.skynewsarabia.com/middle-east/1640960-%D9%81%D9%8A%D8%AF%D9%8A%D9%88-%D9%87%D8%B0%D8%A7-%D9%82%D8%A7%D9%84%D9%87-%D8%AD%D9%85%D9%8A%D8%AF%D8%AA%D9%8A-%D8%A7%D9%94%D9%88%D9%84-%D8%B8%D9%87%D9%88%D8%B1-%D8%B4%D9%87%D9%88%D8%B1

Te Mana Raraunga. (n.d.). Te Mana Raraunga. https://www.temanararaunga.maori.nz/

PM Modi warns against deepfakes; calls on media to educate people on misinformation. (2023, November 17). The Hindu. https://www.thehindu.com/news/national/pm-modi-warns-against-deepfakes-calls-on-media-to-educate-people-on-misinformation/article67543869.ece

TSE – Tribunal Superior Eleitoral. (2024, March 1). Publicadas resoluções do TSE com regras para as Eleições 2024. (2024). Justiça Eleitoral. https://www.tse.jus.br/comunicacao/noticias/2024/Marco/eleicoes-2024-publicadas-resolucoes-do-tse-com-regras-para-o-pleito

Varon, J. (n.d.). T20 POLICY BRIEFING Fostering a Federated AI Commons ecosystem 1 TF05 -Inclusive digital transformation. Subtopic 5.5 -Challenges, Opportunities, and Governance of Artificial Intelligence. Retrieved December 19, 2024, from https://codingrights.org/docs/Federated_AI_Commons_ecosystem_T20Policybriefing.pdf

Vengattil, M. & Kalra, A. (2023, November 24). India warns Facebook, YouTube to enforce rules to deter deepfakes – sources. Reuters. https://www.reuters.com/world/india/india-warns-facebook-youtube-enforce-rules-deter-deepfakes-sources-2023-11-24/

Yahoo Finance Video. (2023, October 21). Google is “democratising AI” for non-expert business app creation | The Crypto Mile. Yahoo Finance. https://finance.yahoo.com/video/google-democratising-ai-non-expert-113148816.html

Почати обговорення

Шановні автори, будь ласка увійти »

Правила

  • Усі коментарі перевіряються модератором. Не надсилайте свій коментар більше одного разу, інакше він може бути ідентифікований як спам.
  • Будь ласка, ставтесь з повагою до інших. Коментарі, які містять мову ненависті, непристойність та особисті образи, не будуть опубліковані.