Дипфейки та ризики, пов'язані зі зростанням масштабів відеошахрайства

Зображення створено у Canva.

Років шість тому я писав про новий “вірус” для журналістики. Незважаючи на те, що минуло вже кілька років, досі не існує “антивірусу” проти дипфейків, виготовлення яких вдосконалюється, й останнім кроком є спрощення процесу виробництва цих містифікацій. Досі існувала потреба в певних навичках використання спеціальних програм для виготовлення дипфейків. Розробка нових додатків, заснованих на штучному інтелекті, але простіших у використанні, призводить до масового виробництва дипфейків. На останніх президентських виборах у Сполучених Штатах Америки ” cheapfakes” було більше, ніж “deepfakes” – головна причина полягала в тому, що перші легко створювати, і це міг зробити будь-хто. Тепер, коли це стає можливим і для ” deepfakes “, не потрібно багато підрахунків, щоб зрозуміти, що у важливих суспільних процесах, таких як вибори, “deepfakes” стануть головним ризиком в інформаційному світі, оскільки маніпуляції стають все більш можливими.

Дипфейки – це неправдивий візуальний контент, створений на основі штучного інтелекту, в якому реальну людину представляють такою, що говорить або робить щось, чого вона ніколи не робила. За роки свого існування деякі з них були створені для розваги, інші – для підвищення обізнаності, але трапляються й випадки, коли маніпуляція суспільством за допомогою дипфейків має на меті політичні чи економічні мотиви.

З кожним роком створювати їх дедалі легше, що робить необхідність підвищення обізнаності суспільства вкрай актуальною. Прикладом є популярне на Балканах еротичне відео, у якому інша людина видає себе за відому албанську телеведучу Луану Вйолчу, помістивши її обличчя на інше тіло за допомогою штучного інтелекту. Албанський журналіст Бленді Февзіу опублікував з метою підвищення інформованості фальшиве відео, на якому він розмовляє китайською, арабською, російською та португальською мовами. Протягом 2022 року в регіоні були опубліковані й інші фейкові відео, наприклад, де Ілон Маск розмовляє албанською або сербською мовами.

Ці приклади свідчать про те, що зараз набагато легше виготовити підробку, ніж кілька років тому. Якщо розширити сферу аналізу за межі регіону, то вірусним дипфейком стала фотографія відомої американської моделі Белли Хадід, на якій вона нібито підтримала дії Ізраїлю у війні проти ХАМАСу, про що не заявляла. Дипфейк Хадід набрав понад 28 мільйонів переглядів на X (колишній Twitter). Розвиток технологій і простих у використанні програм на основі штучного інтелекту створює ще одну загрозу для правди.

Зараз правда перебуває на межі “смерті”, тому що зі збільшенням кількості дипфейків в буде все важче зрозуміти, що є правдою, а що – ні. Враховуючи кризу довіри до ЗМІ, журналістика в найближчому майбутньому буде піддаватися ще більшим випробуванням. Однак найкраще з усім цим можна боротися за допомогою професійної журналістики, журналістики, яка дотримується професійних стандартів і ставить суспільні інтереси на перше місце. В іншому випадку сенсаційна журналістика та журналістика клікбейтингу лише підживлюватиме ще більшу недовіру до ЗМІ та змушуватиме громадян почуватися невпевнено в інформації, яку вони отримують, створюючи простір для інших гравців в інформаційному середовищі. У цій ситуації завжди у виграші ті, хто любить діяти в тіні, отримувати вигоду з макіавеллівським підходом, не замислюючись про шкоду, завдану суспільству.

Популяризація дипфейків внаслідок розвитку програмування на основі штучного інтелекту відкриває нову главу в інформаційно-комунікаційному обігу як для відправника, так і для одержувача інформації. У зв'язку з цим стрімким розвитком слід докласти зусиль, щоб зробити метод перевірки простішим і швидшим процесом, ніж зараз.

Наразі існують програми, які допомагають виявити це явище, що змушує вас мимоволі жити у фейковій реальності, такі як FakeCatcher та Sentinel, але досі не існує відкритих інструментів, які були б доступні для всіх охочих безкоштовно. Крім того, важливо, щоб методи виявлення були вдосконалені, щоб йти в ногу з прогресом, адже технології, які сприяють виробництву підробок, розвиваються швидкими темпами. Наразі ці платформи не виявляють аудіоманіпуляції, що є важливим елементом аудіовізуальних маніпуляцій, оскільки вже є випадки, коли зображення є реальним, а звук генерується штучним інтелектом.
Розуміння того, що таке дипфейки, допомагає суспільству більш критично ставитися до будь-якого відео, яке воно бачить. Інструменти для виявлення дипфейків важливі, але протидія дезінформації також вимагає великої активності з боку окремих осіб та громадських організацій, щоб суспільство знало про існування та наслідки застосування дипфейків у повсякденному житті.

З іншого боку, нова законодавча база для боротьби з дипфейками не потрібна, оскільки вже існують закони, які регулюють контент, спрямований на обман, паплюження або заподіяння шкоди окремим особам, компаніям чи суспільству загалом. Однак, зважаючи на швидкість їхнього поширення, вірусизацію та потенційну шкоду, важливо визначити пріоритетність боротьби з дипфейками.

Почати обговорення

Шановні автори, будь ласка увійти »

Правила

  • Усі коментарі перевіряються модератором. Не надсилайте свій коментар більше одного разу, інакше він може бути ідентифікований як спам.
  • Будь ласка, ставтесь з повагою до інших. Коментарі, які містять мову ненависті, непристойність та особисті образи, не будуть опубліковані.