Як новітні технології змінюють уявлення про правду, і чому це загрожує кожному з нас
Уявіть, що ви бачите відео з Президентом, який оголошує капітуляцію. Це виглядає переконливо, голос звучить знайомо, міміка — природна. Але є одна проблема: цього ніколи не було. Це діпфейк. І таких — тисячі.
У світі, де відео вважали найбільш достовірним джерелом інформації, з’явилася технологія, що ламає саму цю концепцію. Діпфейк (від англ. deepfake) — це контент, створений або змінений за допомогою штучного інтелекту. Найчастіше йдеться про відео або аудіо, у яких людині приписують слова чи дії, яких вона ніколи не робила.
Алгоритми глибинного навчання та нейронні мережі дають змогу змінити обличчя, голос, міміку. Результат іноді настільки реалістичний, що навіть фахівці не завжди можуть відрізнити фейк від справжнього відео.
Зброя у війні за розум
У лютому 2022 року Центр протидії дезінформації заявив про загрозу використання діпфейків росією для психологічних операцій під час вторгнення в Україну. Одним із таких прикладів стало фейкове відео з нібито заявою Президента Володимира Зеленського про здачу України. Воно мало викликати паніку, зневіру, розгубленість.
Основна мета таких технологій — дезінформація, дискредитація політичних лідерів та підрив довіри до офіційних джерел. І якщо раніше пропаганда потребувала часу, то діпфейки поширюються миттєво та з величезним емоційним ефектом.
Як розпізнати підробку?
Попри надзвичайну реалістичність, діпфейки мають технічні «зазори», на які варто звертати увагу:
• неприродна міміка або рух очей
• нерівномірні тіні на обличчі
• відсутність або дивна частота моргань
• розмиття на краях обличчя
• невідповідність між звуком і зображенням
Перевірити достовірність відео можна за допомогою спеціальних платформ: Deepware Scanner, InVID, Microsoft Video Authenticator тощо.
Діпфейк = недовіра
Але головна проблема не в техніці. А в довірі. Якщо будь-яке відео може виявитися фейком — чи можемо ми вірити хоч чомусь? Дослідник штучного інтелекту Алекс Шампандар зауважив: «Це не технічна, а соціальна криза. Ми опиняємось у світі, де правда перестає бути очевидною».
Згенерований портрет дівчинки за допомогою ШІ
Не лише про загрозу
Варто визнати: діпфейк — це не лише про небезпеку. У кіноіндустрії ця технологія дозволяє замінювати сцени, оживляти образи, створювати гіперреалістичні спецефекти. Але там, де діпфейк стає інструментом обману, починаються шахрайство, маніпуляції, політичні провокації.
Що робити?
Україна вже активно працює над протидією діпфейкам:
• створені центри стратегічних комунікацій
• налагоджено співпрацю із соцмережами для оперативного блокування фейкових матеріалів
• підтримуються міжнародні ініціативи, зокрема щодо маркування та заборони діпфейків на законодавчому рівні
Але є проблеми: технології розпізнавання ще недосконалі, бракує кваліфікованих фахівців, а рівень цифрової грамотності населення залишається низьким.
Діпфейки — це не просто тренд. Це виклик усьому людству. Вони змінюють спосіб, у який ми сприймаємо інформацію. І тому:
• розвивайте критичне мислення
• перевіряйте інформацію з різних джерел
• підтримуйте ініціативи з розпізнавання фейків
• не вірте лише очам — довіряйте розуму
Будьте пильними. У світі, де можна підробити будь-кого, головне — не втратити себе.
