Технологія створення deepfake-відео: чи можна вірити всьому побаченому

Завдяки стрімкому розвитку інновацій межа між реальністю та віртуальним світом стає все більш розмитою. Сьогодні за допомогою новітніх технологій ми можемо змусити будь-яку людину «сказати» все, що заманеться. Зокрема йдеться про поширені deepfake-відео.

Що таке «deepfake»?

Технологія «deepfake» є методом синтезу зображення людини на основі технології штучного інтелекту. Вона дозволяє створювати фальшиві ролики за допомогою накладання потрібних слів на вже існуюче відео або навпаки. Такі відео виглядають дуже реалістичними. Основними жертвами таких відеороликів стають знаменитості та громадські діячі. Як правило, в підробних відео відомі особистості нібито говорять щось образливе та провокаційне.

Популярність deepfake-відео зростає з кожним днем, зокрема за останній рік їх кількість збільшилась майже удвічі. Крім цього, удосконалюється і якість таких відео. Наприклад, в Інтернет-мережі поширений відеоролик з актором Біллом Гейдером, який без особливих зусиль перетворюється на Тома Круза. При цьому змінюється не тільки зовнішність, але й голос актора. Під час пошуку deepfake-відео на YouTube, ви знайдете безліч роликів з публічними особистостями на досить різні теми.

Кількість deepfake-відео зростає з кожним роком - дослідження ESET

В чому небезпека deepfake-відео?

Технологія «deepfake» набирає все більшої популярності не тільки серед звичайних користувачів, а й серед кіберзлочинців. Хоча цей тренд сприймається більш як розвага, але в подальшому такі фальшиві ролики можуть стати причиною політичних скандалів, а також бути використані в кібератаках та в інших злочинних схемах.

Все частіше технологія «deepfake» допомагає зловмисникам здійснювати різні шахрайські операції.  Наприклад, шахраї, видаючи себе за генерального директора, просили терміново перевести великі суми нібито на рахунок постачальника, а насправді вказували свій рахунок. Варто зазначити, що підробити голоси особистостей, які займають керуючі посади, досить легко, оскільки вони часто виступають на різних конференціях, які часто загальнодоступні на YouTube.

Для створення провокаційних deepfake-відео використовуэться публічний контент - ESET.

Deepfake-відео становлять загрозу не тільки публічним особистостям, а й звичайним користувачам, навіть вашим близьким та колегам. Наприклад, «deepfake» можуть використовуватися для знущань у школах чи офісах.

Технологія «deepfake» стає все доступнішою для будь-якого користувача, а розпізнати фальшивку стає все важче. І дійсно, фейк-технології удосконалюються з кожним днем, а ось розвиток інструментів, здатних розпізнати підроблений контент, поки знаходиться на початковому рівні. Сьогодні немає сервісу або технології, яка змогла б викрити «deepfake». Тому залишається тільки покладатися на свою інтуїцію.

Варто зазначити, що для створення максимально реалістичного відеоролика потрібно зібрати велику кількість відео- і аудіозаписів конкретної людини, навіть для короткого кліпу. Зараз це не є великою проблемою, оскільки безліч наших фото та відео загальнодоступні в популярних соцмережах. Однак, в гонитві за віртуальною популярністю варто не забувати, що вся опублікована інформація може бути використана кіберзлочинцями.

Опублікував: ESET 0 коментар(ів)

Додайте коментар

(Для зворотнього зв’язку)