
Зображення створено Ойваном Ламом за допомогою Canva Pro.
З моменту свого запуску в січні 2025 року китайська генеративна штучна інтелігенція (ШІ) DeepSeek R1 поставила під сумнів існуючі уявлення про розвиток ШІ, економічну ефективність та глобальну конкуренцію, а деякі навіть заявляють, що вона вирівняла правила гри в галузі розвитку ШІ. Оскільки Комуністична партія Китаю (КПК) просуває DeepSeek за кордоном, роблячи передові технології ШІ доступними для країн Південної півкулі, це несе в собі приховані ризики та наслідки, пов'язані з правами людини.
Раніше експерти вважали, що передові інновації в галузі штучного інтелекту будуть відбуватися в найбагатших країнах, за підтримки потужних корпорацій, через величезні витрати на відповідне обладнання. Навіть Сем Альтман, засновник OpenAI, під час візиту до Індії в 2023 році заявив, що навчання базових систем штучного інтелекту з бюджетом у 10 мільйонів доларів буде марним: “Ви можете спробувати, але конкурувати з нами буде безнадійно”.
Сем Альтман, засновник OpenAI та ChatGPT, відвідує Індію і венчурні капіталісти задають йому складні питання.
Sam Altman – founder of OpenAI and ChatGPT – is in India and VCs are asking some tough questions to him
— Amitabh Verma (@amitabh26) June 8, 2023
Однак коментарі Альтмана були спростовані проривом DeepSeek, і він був змушений визнати, що китайська ШІ «є вражаючою моделлю, особливо з огляду на те, що вона може запропонувати за таку ціну».
Штучний інтелект, створений у Китаї, викликав інтерес у країнах, що розвиваються, і проклав шлях для Китаю, щоб позиціонувати себе як ключового технологічного партнера для країн Південної півкулі, просуваючи ідею подолання розриву в галузі штучного інтелекту для менш розвинених регіонів.
Крім того, стратегічне використання ШІ у зовнішніх відносинах, зокрема через такі ініціативи, як «Цифровий шовковий шлях» та пропозиція про створення Глобальної організації з питань співпраці у сфері ШІ, може суттєво змінити регіональні структури влади на користь Китаю.
Відкритий код DeepSeek R1 означає, що розробники можуть завантажувати, модифікувати та налаштовувати модель відповідно до місцевих умов. Модель можна адаптувати до регіональних мов, таких як суахілі, хауса або амхарська, або до унікальних економічних умов.
Наприклад, уряд Індонезії планує розробити власну локальну модель DeepSeek для використання в урядовому та приватному секторах.
Ці зв'язки не тільки сприяють технологічному зростанню, але й сприяють геополітичній узгодженості.
Деякі аналітики вважають, що поглиблення залежності від китайських технологій, стандартів та потоків даних в Африці та Азії зміщує баланс сил від США та Європи. Це також може вплинути на рівновагу в багатосторонніх форумах та міжнародних організаціях, таких як Організація Об'єднаних Націй.
Формування глобальних наративів
Однак DeepSeek, незалежно від того, чи використовується він за кордоном, чи всередині країни, узгоджує результати роботи свого чат-бота з офіційною позицією КПК. Хоча кілька ЗМІ опублікували повідомлення про цензуру або зміну відповідей на політично чутливі теми, справжня небезпека полягає не в простому приховуванні або видаленні інформації.
За словами Алекса Колвілла, дослідника China Media Project (CMP), формування наративів за допомогою генеративної штучної інтелекту є витонченою маніпуляцією громадською думкою. Нижче наведено приклад, наведений у звіті CMP:
Наприклад, відповідаючи на питання про природні катастрофи в Китаї, модель розглядає дані та джерела китайського уряду як безпомилкові та зображує реакцію керівництва як ефективну, прозору та гуманну. Водночас, голоси незгоди або мінімізуються, або повністю опускаються, або пояснюються як «упереджені» чи такі, що не відповідають дійсності.
Іншими словами, велика мовна модель (ВММ) DeepSeek може стати каналом для поширення політичних наративів Пекіна та формування думки громадськості з таких чутливих питань, як права людини, Тайвань, економічний розвиток та роль Китаю у світовій торгівлі.
Ще гірше те, що китайські політичні наративи можуть бути експортовані в інші країни через адаптацію ВВМ. Дослідник CMP попередив:
Але якщо навіть передові технологічні компанії в розвинених країнах, незважаючи на всі свої ресурси та кошти, намагаються навчити DeepSeek не поширювати пропаганду, то яка надія є у стартапів у країнах Південної півкулі?
DeepSeek викликав занепокоєння в таких країнах, як Австралія, Південна Корея та Тайвань, які заборонили використання DeepSeek на урядових пристроях, посилаючись на ризики для безпеки та відсутність прозорості щодо того, як DeepSeek обробляє особисту інформацію користувачів.
За межами DeepSeek: пропаганда Китаю на основі штучного інтелекту
Низка звітів показала, що Китай використовує DeepSeek та інші технології штучного інтелекту для створення та поширення пропаганди, включаючи фейкові відео та маніпульований контент, з метою впливу на громадську думку та поширення розбрату в інших країнах.
Експерти з безпеки даних Бретт Голдштейн і Бретт Бенсон з Університету Вандербільта вказали на китайську компанію Golaxy, що працює на базі штучного інтелекту, яка, крім моніторингу громадської думки, також використовує штучний інтелект для збору величезних обсягів даних з китайських і західних соціальних мереж та створення «мереж ботів, схожих на людей», а також «психологічних профілів для цільового впливу на окремих осіб».
Хоча компанія заперечила вищезазначені твердження, дослідники попередили в статті, опублікованій в газеті New York Times:
Пропаганда на основі штучного інтелекту більше не є гіпотетичною загрозою майбутнього. Вона вже працює, є досконалою і вже змінює способи маніпулювання громадською думкою у великих масштабах.
Згідно з витоком документів, у 2020 році компанія вела діяльність у Гонконзі, коли місто прийняло закон про національну безпеку, «ідентифікувавши тисячі учасників та лідерів думок із 180 000 гонконгських акаунтів у Twitter», а потім «переслідувала те, що вважала брехнею та помилковими уявленнями», використовуючи свої мережі ботів. Подібна операція була виявлена під час загальних виборів на Тайвані у 2024 році.
Дует дослідників пояснив, як пропаганда на основі штучного інтелекту маніпулювала громадською думкою в соціальних мережах:
Витягуючи дані користувачів і вивчаючи більш широкі закономірності, штучний інтелект може створювати синтетичні повідомлення, призначені для широкої аудиторії. Згідно з документами, він може адаптуватися до тону, цінностей, звичок та інтересів користувача. Потім він може імітувати реальних користувачів, лайкаючи публікації, залишаючи коментарі та просуваючи цільовий контент.
У звіті за 2024 рік «Ті самі цілі, нові стратегії», опублікованому від Microsoft Threat Intelligence, також підтверджується, що Китай посилив свої кампанії з впливу в Інтернеті в Азіатсько-Тихоокеанському регіоні за допомогою контенту, створеного за допомогою штучного інтелекту. У звіті зазначено:
Особи, які стоять за цими кампаніями, продемонстрували готовність як поширювати медіаконтент, створений за допомогою штучного інтелекту, який відповідає їхнім стратегічним наративам, так і створювати власні відео, меми та аудіоконтент. Такі тактики використовувалися в кампаніях, що розпалювали розбрат у Сполучених Штатах і поглиблювали розбіжності в Азіатсько-Тихоокеанському регіоні, зокрема на Тайвані, в Японії та Південній Кореї.
Експорт технологій спостереження
Разом з ВММ, Китай також просуває експорт інших технологій штучного інтелекту, таких як розпізнавання облич. Деякі висловлюють занепокоєння щодо впливу технологій спостереження. Наприклад, професор права Ану Бредфорд у своєму дослідженні цифрового авторитаризму Китаю висловила занепокоєння, що через експорт цифрових технологій та інфраструктури китайський уряд буде просувати свої регуляторні стандарти та практики спостереження по всьому світу:
Багато країн-одержувачів вітають китайські технології та супутні регуляторні стандарти як шлях до цифрової суверенітету та розвитку. Для авторитарних урядів додатковою мотивацією стало отримання доступу до технологій спостереження, які вони охоче використовують для неліберальних цілей.
Для країн, що розвиваються, дешеві технології спостереження Китаю можуть вирішити багато проблем, таких як боротьба зі злочинністю, але, як зазначила експерт з питань суспільних відносин Шіна Честнат Грейтенс, необхідні додаткові дослідження, щоб оцінити їхній вплив на демократичні інститути, громадянські свободи та глобальну динаміку влади.
Пекін позиціонує себе як ключового технологічного партнера для країн Глобального Півдня, пропонуючи недорогі, адаптивні системи, такі як DeepSeek R1. За допомогою таких тактик авторитарна держава не тільки розбудовує цифровий потенціал, але й потенційно формує політичну солідарність, позиціонуючи себе як лідера глобального управління штучним інтелектом.
Наразі США змагаються з Китаєм у сфері управління штучним інтелектом, головним чином з метою захисту своїх глобальних економічних інтересів. Водночас заклики громадянського суспільства щодо розробки правозахисної бази в глобальному управлінні штучним інтелектом залишаються без уваги. Без належного втручання ми можемо стати свідками глобальної нормалізації використання технологій штучного інтелекту для цілей спостереження та пропаганди.







