Китай поспішає розробити свою систему цензури на основі штучного інтелекту

An image of chip technology surrounding the Chinese flag.

Зображення створено Ойваном Ламом за допомогою Canva Pro.

Стрімкий розвиток штучного інтелекту спричинив суперечки навколо авторського права та доступу до інформації у більшості країн світу. У Китаї тенденція автоматизованої цензури викликає більше занепокоєння, оскільки вона дозволяє перетворити пасивну цензуру авторитарного режиму на проактивне формування когнітивної структури населення на користь однопартійного режиму.

Кілька місяців тому Гонконгська вільна преса (ГВП) опублікувала звіт про те, що китайські великі мовні моделі (ВММ), такі як Qwen, Ernie або Deepseek, зазвичай дотримуються поглядів Комуністичної партії Китаю (КПК). Нові дослідження, схоже, свідчать про посилення цензури ШІ, за словами Алекса Колвілла, дослідника з Китайського медіа-проекту:

Якби ви попросили китайський DeepSeek R1 лише чотири місяці тому перерахувати територіальні суперечки Китаю в Південно-Китайському морі, дуже чутливе питання для керівництва Комуністичної партії країни, він б відповів детально, навіть якщо б його відповіді ледь помітно підштовхували вас до офіційної точки зору. Задайте те ж саме питання сьогодні новітній моделі DeepSeek-R1-0528, і ви побачите, що він буде більш стриманий і набагато наполегливіше захищатиме офіційну позицію Китаю.

Такий «політкоректний» штучний інтелект став можливим завдяки низці нормативних актів. З 2022 року це положення гарантує, що автоматизовані рекомендації щодо контенту будуть «активно поширювати позитивну енергію» і відповідатимуть «основним цінностям». Ідеологічні вказівки, опубліковані в січні 2023 року, вимагають від постачальників послуг «поважати суспільну мораль та етику» і «дотримуватися правильного політичного напрямку, орієнтації громадської думки та ціннісних тенденцій». Через шість місяців, згідно з Тимчасовими заходами з управління послугами генеративного штучного інтелекту, всі послуги генеративного ШІ повинні підтримувати «соціалістичні основні цінності» держави, а навчальні дані повинні надходити з «законних джерел», тобто законно отриманих джерел даних, які не повинні включати контент, що піддається цензурі або вважається незаконним китайською владою.

Вплив цензури ШІ

Згідно з нещодавнім дослідженням China Media Project, у міру того, як цензура за допомогою штучного інтелекту стає все більш поширеною, Китай переживає глибокі зміни в тому, як він цензурує інформацію в Інтернеті, переходячи від традиційних, трудомістких методів до нової ери, заснованої на використанні штучного інтелекту.

Традиційно цензура в Китаї залежала від армій людей-цензорів, які прочісували соціальні мережі та новини в пошуках чутливих ключових слів, вручну видаляючи пости або блокуючи контент, що перетинав політичні червоні лінії. Такий ручний підхід був трудомістким і вимагав багато часу, щоб встигати за масштабами і швидкістю онлайн-спілкування. Усе це – частина індустрії «моніторингу громадської думки», яка полягає в систематичному спостереженні за онлайн-дискурсом і в якій працюють десятки тисяч людей.

Тепер, з ростом ВММ, китайський уряд і технологічні гіганти вбудовують цензуру безпосередньо в архітектуру систем штучного інтелекту. Щоб переконатися, що моделі ШІ рухаються в «правильному політичному напрямку», китайські ВММ навчаються самоцензурі контенту, який вони генерують. Нещодавно відбувся витік набору даних розміром 300 ГБ, що містить 133 000 одиниць контенту і підказок, які навчають ШІ, як класифікувати і сортувати чутливий контент. Основною метою набору даних, схоже, є класифікація контенту, пов'язаного з громадською думкою. Він демонструє складну систему класифікації з 38 окремими категоріями, починаючи від банальних тем на кшталт «культура» і «спорт» і закінчуючи більш політично суперечливими.

Точне походження витоку даних залишається невідомим. Однак деякі аналітики вбачають у цьому показник того, що ШІ використовується для заміни колись трудомісткої системи, яка вимагала тисяч людей-цензорів, на автоматизовану машину спостереження. Така система зможе обробляти набагато більші обсяги онлайн-контенту, дозволяючи безперервно і самостійно контролювати кожен куточок інтернету. Сяо Цянь, дослідник китайської системи цензури в Каліфорнійському університеті в Берклі, каже, що розробка генеративного ШІ вивела китайську автоматизовану цензуру на новий рівень:

На відміну від традиційних механізмів цензури, які покладаються на людську працю для фільтрації на основі ключових слів і ручного перегляду, ВММ, підготовлений за такими інструкціями, значно підвищить ефективність і деталізацію державного контролю за інформацією.

На додаток до навчання цензурі, Китай також встановив власні критерії ШІ, щоб забезпечити «законність» ВММ в країні. За два місяці до прийняття китайського закону про генеративний ШІ група китайських комп'ютерних інженерів на чолі з Хе Цзюньсянем, доцентом Гонконгського університету науки і технологій, опублікував на Github тест C-eval, який складається з 13 948 запитань з декількома варіантами відповідей, що охоплюють 52 різні дисципліни, зокрема «Вчення Мао Цзедуна», «Марксизм» і «Ідеологічне та моральне виховання».

Через кілька місяців, на початку 2024 року, Китайська академія інформаційно-комунікаційних технологій (КАІКТ) при Міністерстві промисловості та інформаційних технологій (МПІТ) розробила «Критерії безпеки ШІ» з 400 000 китайських підказок, які стосуються питань, пов'язаних з культурними упередженнями і психологічним благополуччям користувачів, приватним життям і комерційною таємницею, політичною коректністю і законністю.

Глобальне поширення китайських наративів

З усіма цими китайськими критеріями та правилами у сфері ШІ цензурі піддаються не лише китайські генеруючі інструменти ШІ, але й західні бренди, такі як Microsoft Copilot, також стикаються з тими ж обмеженнями, особливо якщо сервіс ШІ працює на території Китаю. Китайський дисидент у вигнанні, вчитель Лі, навів один приклад в X:

Один знайомий розповів, що коли він запитав інструмент штучного інтелекту Copilot від Microsoft, як скинути Сі Цзіньпіна, він відмовився відповідати, але коли він запитав, як скинути Дональда Трампа, він згенерував відповідь. Схоже, що інструмент підпорядковується цензурі КПК.

Іншими словами, в результаті виходить система, де цензура є проактивною і невидимою: ШІ просто не генерує і не рекомендує контент, який виходить за межі затверджених державою кордонів.

Враховуючи сувору відповідність китайських генеративних ШІ політичній лінії КПК, найбільші пошукові системи, такі як Baidu (найпопулярніша пошукова система в Китаї) і соціальні мережі, такі як Weibo, вбудували Deepseek у свої сервіси. Щоразу, коли користувачі шукають певні теми, Deepseek генерує «політично коректний хід думок» або офіційні наративи на цю тему.

Ось чому Алекс Колвілл попереджає, що «будь-яке прийняття моделі DeepSeek за кордоном може призвести до поширення внутрішньої системи соціального управління КНР за кордоном». Тайвань є найзапеклішим когнітивним полем битви в розробці генеративного ШІ.

Згідно зі звітом @committeeonCCP США🇺🇸, DeepSeek у 85% випадків змінює або приховує інформацію на чутливі теми, такі як Тайвань🇹🇼, щоб відповідати цензурі КПК і таємно переправляє дані користувачів назад до Китаю. Демократії повинні захищати цифрові простори від авторитарного контролю.

Уряд материкового Китаю наполягає на тому, що Тайвань, автономна держава з 1949 року після того, як Гоміндан, правляча партія Китайської Республіки, зазнала поразки від КПК у Громадянській війні в Китаї і створила уряд у вигнанні в офшорі за Тайванською протокою, є частиною Китаю. В останні роки Китай намагається примусити Тайвань до об'єднання за допомогою дипломатичних, економічних, військових засобів і когнітивної війни, включаючи цілеспрямовані інформаційні маніпуляції, пропаганду і психологічні операції.

Завдяки новим технологіям китайська політична пропаганда стає глобальною. Нещодавній звіт OpenAI про зловмисне використання його моделей також показав, що деякі китайські особи використовували їхній продукт для моніторингу антикитайських коментарів у соціальних мережах, публікації антиамериканських коментарів іспанською мовою, орієнтованих на користувачів соціальних мереж з Латинської Америки, і генерування коментарів, що критикують китайських дисидентів, зокрема Цай Ся.

У міру того, як моделі штучного інтелекту DeepSeek набирають популярності на міжнародному рівні, приваблюючи користувачів своїми високими технічними характеристиками при низьких витратах, залишається питання, як їхні вбудовані політичні фільтри вплинуть на глобальну аудиторію. Більш широке занепокоєння викликає те, що означає, коли мільйони людей по всьому світу починають залежати від систем штучного інтелекту, навмисно розроблених для відображення і посилення поглядів китайського уряду.

Всі ці події показують, як генеративний ШІ може бути використаний для моніторингу інакомислення, маніпулювання наративами та примусу авторитарних держав до ідеологічного конформізму, в той час як управління ШІ, що базується на дотриманні прав людини, відстає.

Почати обговорення

Шановні автори, будь ласка увійти »

Правила

  • Усі коментарі перевіряються модератором. Не надсилайте свій коментар більше одного разу, інакше він може бути ідентифікований як спам.
  • Будь ласка, ставтесь з повагою до інших. Коментарі, які містять мову ненависті, непристойність та особисті образи, не будуть опубліковані.