А Д В О К А Т
Кучерявый Олег Петрович

полный комплекс юридических услуг, защита интересов граждан и юридических лиц

Мар

23

Попередження: фотошоп застарів, на сцену виходять фейк-роботи

Автор: admin

Англомовний сайт «The Verge» опублікував досить цікаву статтю про майбутні проблеми зі сфери нових технологій, а саме — можливостей їх, м’яко кажучи, не дуже гарного застосування в найближчій перспективі (а може технології й не такі вже нові й може бути вже застосовуються сьогодні).

Йдеться про різні варіації можливого використання, так званого, штучного інтелекту, машинного навчання роботизованих систем. Наприклад, прогрес ( чи прогрес це?) вже дійшов до того, що незабаром можна буде емулювати будь-які голоси (реальних людей) у реальному ж часі. Про це пише, звичайно, не тільки «The Verge», але й, приміром, німецькомовний сайт журналу «TECHNOLOGY REVIEW».  У статейці розповідається, що за допомогою штучного інтелекту, американський стартап може відтворити голос будь-якої людини в режимі реального часу. Технологія працює дуже добре й має значний потенціал для зловживань.

Завдяки безкоштовному програмному забезпеченню машинного навчання з Інтернету тепер можна обмінюватися обличчями людей у відеозаписах. Використовуючи Генеративно-змагальну мережу (Generative Adversial Networks, воно ж — GAN) й інші методи, дослідники Ki-forscher можуть навіть створювати повністю штучні обличчя. Modulate.ai — компанія з Масачусетсу, тепер використовує цю технологію в інший спосіб: копіює, моделює й маніпулює властивостями голосів.

Ця технологія виходить далеко за рамки простих фільтрів, які дозволяють Вам зробити свій власний голос схожим на персонажа з «Зоряних війн» або будь-якого іншого фільму. При такому підході можна в реальному часі створювати будь-який вік, стать й будь-який тембр голосу. Наприклад, таким чином, Ви можете вести повноцінну телефонну розмову на кшталт показаної у фільмі «Іван Васильович змінює професію», як жінка, якщо Ви чоловік.

Технологія поки не ідеальна — різні голоси завжди створюють трелі. Але технологія удосконалюється й використовується набагато більш якісно, коли є можливість зібрати більше даних про голос, про його зміни. І це показує, як швидко досягнення в машинному навчанні міняють цифрову реальність. Для захвату й моделювання звукових характеристик голосового сигналу в Modulate використовується GAN. У цій технології дві мережі конкурують одна з одною і намагаються як можна більш точно розпізнати й відтворити властивості набору даних.

За наявності достатніх даних про навчання голос будь-якої іншої людини може бути легко генерований, каже Майк Папас, співзасновник і генеральний директор компанії. Без схвалення оригіналу, цього робити не можна, Папас наполягає на тому, що йдеться не про обман: «Технологія не призначена для шкоди людям, — говорить він, а для створення нових можливостей».

Дійсно, цільовим ринком для Modulate є онлайн-грашки, такі як Fortnite або Call of Duty, де гравці можуть спілкуватися один з одним через мікрофон. Це може поліпшити ігровий процес, але все ж, усе це може бути використане для протиправних цілей.

 

Не менш цікавою є інформація стосовно синтезу зображень (облич людей, машин, інтер’єрів). Деякі зображення неіснуючих персон уже зараз практично не відрізняються від реальних, живих людей. От, знову ж, для прикладу, зображення неіснуючої на світі дівчини, створене за технологією GAN (при переході за посиланням штучно створені обличчя будуть змінюватися).

А нижче — відеоролик про те, як можна створювати рухливі зображення. У той самий час, програми для приклеювання чужих голів у відео вже зараз можна скачати в Інтернеті. Тобто, «фэйк ньюз» і злочини з використанням цих технологій скоро вийдуть на зовсім новий рівень.

Слідом за сайтом ThisPersonDoesNotExist.com, що використовує штучний інтелект для генерування не існуючих у реальності людських облич, з’явився ресурс WhichFaceIsReal.com, що пропонує людям відрізнити штучно створені обличчя від справжніх.

Спробувати знайти відмінності й навчитися розрізняти штучні й справжні обличчя цікаво, однак, крім цього, у нового ресурсу є більш висока мета. Сайт був створений двома вченими Вашингтонського університету, Джевіном Вестом (Jevin West) і Карлом Бергстромом (Carl Bergstrom), які займаються вивченням поширення інформації в суспільстві. На їхню думку, ріст популярності генерованих штучним інтелектом неіснуючих облич може створити проблему, негативно впливаючи на довіру людей до, видалося б, очевидних речей, подій і саме про це вчені прагнуть попередити населення.

«Самим небезпечним періодом у появі подібної інноваційної технології є час, коли люди нічого про цю технологію не знають, – пояснює Бергстром, – саме тоді вона може використовуватися (зловмисниками) найбільше ефективно».

«Ми намагаємося розповісти людям про існування цієї технології, – говорить Вест, – точно так само, як люди колись довідалися про редагування зображень в Photoshop».

 

Обидва сайти використовують для створення облич алгоритм машинного навчання — GAN. Такі мережі функціонують, переглядаючи велику кількість даних (у нашому випадку, безліч портретів реальних людей), запам’ятовуючи зразки й намагаючись відтворити побачене. Методи GAN цікаві тим, що вони тестують самі себе. Одна частина мережі генерує обличчя, а інша порівнює їх з вивченими даними. Якщо перебувають відмінності, генератор відправляється назад для вдосконалення своєї роботи.

Крім зображень, ці засоби можуть використовуватися для роботи з аудіо й відео. Хоча на даний момент існують обмеження у відношенні того, що можуть зробити ці системи, вони впевнено розбудовуються й вдосконалюються.

У випадку з генерованими штучним інтелектом особами, одним з негативних сценаріїв використання технології може бути поширення свідомо неправильної інформації, наприклад, після терористичного акту технологію можна використовувати для генерування фейкової особи злочинця й поширення зображення цієї неіснуючої людини в соціальних мережах і новинах.

У подібних випадках журналісти звичайно намагаються підтвердити джерело зображення, використовуючи інструменти на зразок Google Reverse Image search. Однак аналогічні методи не будуть працювати з фейковою особою, що створена штучним інтелектом.

«Якщо ви прагнете дезінформувати людей у подібній ситуації й публікуєте фото злочинця, що насправді зображує іншу людини, це можна дуже швидко перевірити, – пояснює Бергстром, – але що буде, якщо ви використовуєте світлину людини, якої насправді не існує? Подумайте про складності відстеження такого зображення».

З іншого боку, Вест, вважає, що поки особливих складностей у розпізнаванні штучних облич не існує:

«Я вважаю, що на даний момент зробити це досить просто», – відзначає він. Пройшовши пропонований на сайті тест, можна навчитися розрізняти генероване штучним інтелектом обличчя й обличчя реальних людей. Насправді, у штучних облич існує низка особливостей, наприклад, асиметрично розташовані риси обличчя,  неприродно гладкі волосся або різного кольору очі. Однак, безсумнівно, фейкові зображення будуть вдосконалюватися.

«Вже через три роки вони стануть невідрізняємими, – каже Вест, – і коли це відбудеться, запорукою успіху стануть знання. Ми не прагнемо казати, що людям не варто нічому вірити. Ми прагнемо донести до людей зовсім інше –  не варто бути легковірними».

 

За публікаціями сайтів «The Verge»«TECHNOLOGY REVIEW», тощо

 

___________________________________________________________

Публікація — березень 2019 року

Заинтересовала публикация?
  • Получайте новые публикации по RSS или E-mail.


Добавить комментарий

Ваш e-mail не будет опубликован. Обязательные поля помечены *