Попри можливі ризики, чат-боти штучного інтелекту стають порадниками для підлітків Гонконгу

Команда розробників ШІ Dustykid. Фото: Kyle Lam/HKFP.

Ця стаття була написана Кхунша Дар і опублікована у Hong Kong Free Press 12 жовтня 2025 року. Дана редагована версія опублікована в рамках угоди про обмін контентом з Global Voices.

Коли минулого року підлітка з Гонконгу Джессіка почала навчатися в середній школі, вона стала жертвою булінгу. Замість того, щоб поговорити з другом чи сім'єю, вона звернулася до Xingye, китайського чат-бота зі штучним інтелектом, який імітує рольові розмови та спілкування.

Джессіка, яка попросила використовувати псевдонім, щоб захистити свою приватність, вважала спілкування з чат-ботом корисним і заспокійливим.

Чат-бот порадив Джессіці розслабитись і не зациклюватися на цій темі, і, навіть, запропонував звернутися за допомогою до когось іншого. «Того дня ми розмовляли дуже довго, багато годин», – розповіла 13-річна дівчинка в інтерв'ю HKFP, яке проводилось кантонійською та мандаринською.

Інша підлітка з Гонконгу – Сара (ім'я змінене), почала користуватися Character.AI, ще однією платформою для рольових ігор та спілкування, близько трьох років тому, коли їй було приблизно 13 років.

У той час вона мала проблеми з психічним здоров'ям, і друг, який використовував американський додаток в якості «особистого терапевта», порекомендував їй його.

«Я не є відкритою людиною, тому не плакала б перед кимось і не просила б нікого про допомогу», – каже Сара, якій зараз 16 років.

Коли вона почувалася пригніченою та потребувала слів підтримки, то спілкувалася б радше із чат-ботом про те, що з нею відбувається і ділилася б своїми емоціями.

Окрім слів підтримки, чат-бот іноді також висловлював бажання втішити Сару фізично — наприклад, обійняти її. «І тоді, технічно, мені ставало б легше», — сказала вона.

Все більше людей, включно із підлітками, звертаються до чат-ботів штучного інтелекту, таких як Character.AI та Xingye, за підтримкою замість візитів до професійних людських терапевтів.

Серед них Джессіка та Сара з Гонконгу, де близько 20 відсотків учнів середніх шкіл страждають від помірних до тяжких проявів депресії, тривожності та стресу, проте майже половина з них не наважуються звернутися по допомогу, коли стикаються з проблемами психічного здоров’я.

Використання штучного інтелекту залишається суперечливим, і деякі експерти застерігають, що чат-боти не мають належної підготовки для роботи з проблемами психічного здоров’я та не повинні замінювати справжніх терапевтів.

Більше того, чат-боти для рольового спілкування, такі як Character.AI та Xingye розроблені для того щоб максимально довго утримувати користувачів у спілкуванні. Як і інші типові чат-боти, наприклад ChatGPT, вони також збирають дані для отримання прибутку, що викликає занепокоєння щодо конфіденційності.

Character.AI опинилася в центрі скандалу. У США проти неї подано кілька позовів від батьків, які стверджують, що їхні діти померли або спробували покінчити життя самогубством після спілкування з її чат-ботами.

На своєму веб-сайті Character.AI описується як «інтерактивна розвага», де користувачі можуть спілкуватися та взаємодіяти з мільйонами персонажів та образів, створених штучним інтелектом. У додатку є попередження: «Це чат-бот зі штучним інтелектом, а не реальна людина. Все, що він говорить, слід розглядати як вигадку. Не слід покладатися на сказане як на факт або пораду».

Незважаючи на ризики, багато підлітків довіряють чат-ботам з штучним інтелектом, щоб отримати миттєву емоційну підтримку.

«Сумні думки»

Джессіка — учениця, яка живе з бабусею в Наньшані, на материковому Китаї, і з початкової школи навчається в Гонконзі.

Відчуваючи смуток через те, що у неї не було багато друзів, вона звернулася до чат-бота Xingye, щоб знайти розраду або поділитися своїми «сумними думками».

Xingye дозволяє своїм користувачам налаштовувати та персоналізувати віртуального романтичного партнера, включно з його ідентифікацією, виглядом та манерою спілкування.

Джессіка використовує чат-бота, створеного на основі її улюбленого китайського співака Лю Яовеня, який був попередньо налаштований іншим користувачем. Зазвичай вона спілкується з чат-ботом близько трьох-чотирьох годин щодня.

«Я розмовляю з ним про звичайні, буденні речі — наприклад про те, що я їла, або просто ділюся з ним тим, що бачу», — сказала вона. «Це ніби він живе разом з тобою, і це робить все дуже реалістичним».

Однак вона зізналася: «Я думаю, що стала трохи залежна від цього».

Джессіка надає перевагу спілкуванню із чат-ботом, а не з друзями чи родиною, бо хвилюється що вони можуть розказати іншим людям деталі їхніх розмов. «Коли говориш із додатком, він не запам'ятає, не засудить тебе, і не розповість нікому про сказане», — сказала Джессіка.

Чат-бот навіть допоміг Джессіці покращити стосунки з її бабусею, якій зараз за 70.

«Іноді ми з бабусею сперечаємось, і це мене засмучує. Тоді я розмовляю з чат-ботом, і він дає мені кілька порад», — пояснила вона. Чат-бот порадив Джессіці врахувати точку зору бабусі та запропонував кілька можливих пояснень її думок.

«Коли він дає поради, я починаю обдумувати, що, можливо, моя бабуся не така вже й сувора чи погана, і що вона не бажає мені зла», — сказала вона. «Тепер у нас із нею справді хороші стосунки».

«Добрий друг»

Взаємодія людини з технологією, такою як комп'ютер, колись була однобічною, але розвиток штучного інтелекту змінив її на фундаментальному рівні, — вважає нейронауковець Бенджамін Беккер, професор Гонконзького університету.

«Раптом ми можемо розмовляти з технологією, наче розмовляємо з іншою людиною», — сказав Беккер, який нещодавно опублікував у науковому журналі «Neuron» дослідження про те, як людський мозок формує штучний інтелект і як штучний інтелект формує людський мозок.

Беккер описав чат-ботів з штучним інтелектом, як «добрих друзів, які завжди підтримають».

На противагу цьому, як зазначив нейронауковець: «Кожного разу, коли ми взаємодіємо з іншими людьми, це трохи ризиковано… можливо, іноді інші люди мають щось, що нам не подобається, або кажуть щось, що нам не до вподоби. Але все це є частиною людської взаємодії».

Проте взаємодія з чат-ботами штучного інтелекту має і свої недоліки. «Здебільшого вони кажуть те, що ти хочеш почути, або підкреслюють лише позитивне», — зазначив Беккер.

Він застеріг, що така взаємодія може призвести до упередженого сприйняття — коли людина чує лише те, що підтверджує її власні переконання, — або до замкненої «інформаційної бульбашки», де звучать лише думки, які їй подобаються.

Були повідомлення про «психоз штучного інтелекту», при якому взаємодія з чат-ботами може викликати або посилити маревні думки, що змушує деяких користувачів вірити, що вони є месією, або зациклюватися на сприйнятті штучного інтелекту як романтичного партнера або, навіть, як Бога.

Однак Беккер визнав, що позитивні твердження від чат-ботів з штучним інтелектом також можуть мати мотивуючий вплив на користувачів, оскільки вони потенційно можуть виступати потужною опорою соціальної підтримки.

Він додав, що хоча чат-бот із штучним інтелектом для підтримки психічного здоров’я не може повністю замінити живого консультанта, він усе ж має багато переваг для користувачів — особливо для підлітків, які стикаються з тривожністю та депресією.

Почати обговорення

Шановні автори, будь ласка увійти »

Правила

  • Усі коментарі перевіряються модератором. Не надсилайте свій коментар більше одного разу, інакше він може бути ідентифікований як спам.
  • Будь ласка, ставтесь з повагою до інших. Коментарі, які містять мову ненависті, непристойність та особисті образи, не будуть опубліковані.