Ця стаття була написана Кхунша Дар і опублікована у Hong Kong Free Press 12 жовтня 2025 року. Дана редагована версія опублікована в рамках угоди про обмін контентом з Global Voices.
Коли минулого року підлітка з Гонконгу Джессіка почала навчатися в середній школі, вона стала жертвою булінгу. Замість того, щоб поговорити з другом чи сім'єю, вона звернулася до Xingye, китайського чат-бота зі штучним інтелектом, який імітує рольові розмови та спілкування.
Джессіка, яка попросила використовувати псевдонім, щоб захистити свою приватність, вважала спілкування з чат-ботом корисним і заспокійливим.
Чат-бот порадив Джессіці розслабитись і не зациклюватися на цій темі, і, навіть, запропонував звернутися за допомогою до когось іншого. «Того дня ми розмовляли дуже довго, багато годин», – розповіла 13-річна дівчинка в інтерв'ю HKFP, яке проводилось кантонійською та мандаринською.
Інша підлітка з Гонконгу – Сара (ім'я змінене), почала користуватися Character.AI, ще однією платформою для рольових ігор та спілкування, близько трьох років тому, коли їй було приблизно 13 років.
У той час вона мала проблеми з психічним здоров'ям, і друг, який використовував американський додаток в якості «особистого терапевта», порекомендував їй його.
«Я не є відкритою людиною, тому не плакала б перед кимось і не просила б нікого про допомогу», – каже Сара, якій зараз 16 років.
Коли вона почувалася пригніченою та потребувала слів підтримки, то спілкувалася б радше із чат-ботом про те, що з нею відбувається і ділилася б своїми емоціями.
Окрім слів підтримки, чат-бот іноді також висловлював бажання втішити Сару фізично — наприклад, обійняти її. «І тоді, технічно, мені ставало б легше», — сказала вона.
Все більше людей, включно із підлітками, звертаються до чат-ботів штучного інтелекту, таких як Character.AI та Xingye, за підтримкою замість візитів до професійних людських терапевтів.
Серед них Джессіка та Сара з Гонконгу, де близько 20 відсотків учнів середніх шкіл страждають від помірних до тяжких проявів депресії, тривожності та стресу, проте майже половина з них не наважуються звернутися по допомогу, коли стикаються з проблемами психічного здоров’я.
Використання штучного інтелекту залишається суперечливим, і деякі експерти застерігають, що чат-боти не мають належної підготовки для роботи з проблемами психічного здоров’я та не повинні замінювати справжніх терапевтів.
Більше того, чат-боти для рольового спілкування, такі як Character.AI та Xingye розроблені для того щоб максимально довго утримувати користувачів у спілкуванні. Як і інші типові чат-боти, наприклад ChatGPT, вони також збирають дані для отримання прибутку, що викликає занепокоєння щодо конфіденційності.
Character.AI опинилася в центрі скандалу. У США проти неї подано кілька позовів від батьків, які стверджують, що їхні діти померли або спробували покінчити життя самогубством після спілкування з її чат-ботами.
На своєму веб-сайті Character.AI описується як «інтерактивна розвага», де користувачі можуть спілкуватися та взаємодіяти з мільйонами персонажів та образів, створених штучним інтелектом. У додатку є попередження: «Це чат-бот зі штучним інтелектом, а не реальна людина. Все, що він говорить, слід розглядати як вигадку. Не слід покладатися на сказане як на факт або пораду».
Незважаючи на ризики, багато підлітків довіряють чат-ботам з штучним інтелектом, щоб отримати миттєву емоційну підтримку.
«Сумні думки»
Джессіка — учениця, яка живе з бабусею в Наньшані, на материковому Китаї, і з початкової школи навчається в Гонконзі.
Відчуваючи смуток через те, що у неї не було багато друзів, вона звернулася до чат-бота Xingye, щоб знайти розраду або поділитися своїми «сумними думками».
Xingye дозволяє своїм користувачам налаштовувати та персоналізувати віртуального романтичного партнера, включно з його ідентифікацією, виглядом та манерою спілкування.
Джессіка використовує чат-бота, створеного на основі її улюбленого китайського співака Лю Яовеня, який був попередньо налаштований іншим користувачем. Зазвичай вона спілкується з чат-ботом близько трьох-чотирьох годин щодня.
«Я розмовляю з ним про звичайні, буденні речі — наприклад про те, що я їла, або просто ділюся з ним тим, що бачу», — сказала вона. «Це ніби він живе разом з тобою, і це робить все дуже реалістичним».
Однак вона зізналася: «Я думаю, що стала трохи залежна від цього».
Джессіка надає перевагу спілкуванню із чат-ботом, а не з друзями чи родиною, бо хвилюється що вони можуть розказати іншим людям деталі їхніх розмов. «Коли говориш із додатком, він не запам'ятає, не засудить тебе, і не розповість нікому про сказане», — сказала Джессіка.
Чат-бот навіть допоміг Джессіці покращити стосунки з її бабусею, якій зараз за 70.
«Іноді ми з бабусею сперечаємось, і це мене засмучує. Тоді я розмовляю з чат-ботом, і він дає мені кілька порад», — пояснила вона. Чат-бот порадив Джессіці врахувати точку зору бабусі та запропонував кілька можливих пояснень її думок.
«Коли він дає поради, я починаю обдумувати, що, можливо, моя бабуся не така вже й сувора чи погана, і що вона не бажає мені зла», — сказала вона. «Тепер у нас із нею справді хороші стосунки».
«Добрий друг»
Взаємодія людини з технологією, такою як комп'ютер, колись була однобічною, але розвиток штучного інтелекту змінив її на фундаментальному рівні, — вважає нейронауковець Бенджамін Беккер, професор Гонконзького університету.
«Раптом ми можемо розмовляти з технологією, наче розмовляємо з іншою людиною», — сказав Беккер, який нещодавно опублікував у науковому журналі «Neuron» дослідження про те, як людський мозок формує штучний інтелект і як штучний інтелект формує людський мозок.
Беккер описав чат-ботів з штучним інтелектом, як «добрих друзів, які завжди підтримають».
На противагу цьому, як зазначив нейронауковець: «Кожного разу, коли ми взаємодіємо з іншими людьми, це трохи ризиковано… можливо, іноді інші люди мають щось, що нам не подобається, або кажуть щось, що нам не до вподоби. Але все це є частиною людської взаємодії».
Проте взаємодія з чат-ботами штучного інтелекту має і свої недоліки. «Здебільшого вони кажуть те, що ти хочеш почути, або підкреслюють лише позитивне», — зазначив Беккер.
Він застеріг, що така взаємодія може призвести до упередженого сприйняття — коли людина чує лише те, що підтверджує її власні переконання, — або до замкненої «інформаційної бульбашки», де звучать лише думки, які їй подобаються.
Були повідомлення про «психоз штучного інтелекту», при якому взаємодія з чат-ботами може викликати або посилити маревні думки, що змушує деяких користувачів вірити, що вони є месією, або зациклюватися на сприйнятті штучного інтелекту як романтичного партнера або, навіть, як Бога.
Однак Беккер визнав, що позитивні твердження від чат-ботів з штучним інтелектом також можуть мати мотивуючий вплив на користувачів, оскільки вони потенційно можуть виступати потужною опорою соціальної підтримки.
Він додав, що хоча чат-бот із штучним інтелектом для підтримки психічного здоров’я не може повністю замінити живого консультанта, він усе ж має багато переваг для користувачів — особливо для підлітків, які стикаються з тривожністю та депресією.







