В Китае появилось гиперреалистичное приложение по замене лиц. От его возможностей становится слегка не по себе

Наука
1 год назад

На днях в Китае появилось приложение Zao, которое за считаные секунды меняет лицо на видео, причем весьма натуралистично. Пара кликов — и любой пользователь может стать Джеком из «Титаника» или Нео из «Матрицы». И хотя скачать приложение могут только жители Поднебесной, его огромные возможности моментально взбудоражили не только Азию, но и весь мир.

Мы в ADME решили выяснить, почему Zao вызвало столько волнений и представляет собой потенциальную опасность. И сразу хотим принести извинения за фото: это скриншоты из видео, и мы правда старались улучшить их качество.

Новое приложение сделало технологию замены лиц доступной для простых обывателей, при этом улучшив качество и уменьшив время обработки видео. Один из разработчиков Аллан Хиа делится в твиттере фейковыми видео, которые поражают своей реалистичностью.

Посмотрите реальный пример работы Zao с фильмом «Титаник»

Немудрено, что приложение быстро заняло лидирующие места в китайском App Store. Но в то же время стало расти число недовольных и настроенных против Zao. В первую очередь из-за пользовательского соглашения, которое давало разработчикам безграничные и безотзывные права на изображения и видео с лицами пользователей. После скандала соглашение было изменено и компания заявила, что не будет хранить биометрические данные пользователей. Но ситуация усугубилась тем, что Zao принадлежит Momo — сайту знакомств с определением локации и стримингами. Общественность напугала возможность того, что их данные могут быть переданы Momo и использованы ею с неопределенными целями. В результате рейтинг Zao моментально упал в App Store до 1,9 звезды. Кстати, скандал по поводу пользовательского соглашения был и со знаменитым FaceApp, что еще раз напоминает нам о необходимости читать все, с чем мы соглашаемся.

Еще больше люди тревожатся об огромном потенциале такой технологии, который могут использовать злоумышленники. Однако в защиту Zao выступил Генри Эйдер, руководитель отдела коммуникаций Deeptrace — компании, которая занимается вычислением мошенников и киберпреступников. Он заявил, что приложение не представляет угрозы для общественности, поскольку его функционал ограничен: в нем есть встроенная библиотека видео из различных фильмов и клипов, и поменять лицо можно лишь на предложенных записях. По уверению Эйдера, технология может стать проблемой только в том случае, если у пользователей будет возможность накладывать другие лица на свои собственные видео. Так, недавно в Великобритании произошел инцидент, в результате которого мужчина был привлечен к уголовной ответственности за использование похожей методики обработки видео. С помощью искусственного интеллекта он создал фейковые порнографические записи, заменив лицо актрисы на лицо своей коллеги.

Еще один пример с «Игрой престолов»

Потенциальную угрозу Zao представляет и для системы распознавания лиц. Так, популярная китайская система онлайн-платежей Alipay уже отреагировала и заявила, что алгоритм узнавания лица гораздо сложнее и точнее, и взломать его при помощи такого приложения невозможно. Однако добавила, что в крайнем случае страховка покроет финансовые потери пострадавших. Китайская платформа для общения WeChat также подтвердила, что Zao не несет угрозы пользователям. При этом мессенджер ограничил доступ к скандальному приложению, и пользователи не могут отправить друзьям ссылку-приглашение.

Таков наш современный мир: порой нельзя понять, реальные ли мы смотрим видео и фотографии. А как вы считаете, чем может обернуться развитие таких технологий и их доступность?

Комментарии

Уведомления

>"чем может обернуться развитие таких технологий и их доступность?"

Пока подобные технологии не очень распространены и доступны узкому продвинутому кругу лиц (хакерам, АНБ, рептилоидам, ...) -- это очень опасно. В интересах этого круга лиц оставлять такие технологии секретными. Потому что при их повсеместном распространении доверие к любым видеоматериалам в глазах общественности резко упадет, и манипулировать общественным мнением станет в разы сложнее. Конечно, нервы кому-нибудь ложный компромат может подпортить изрядно. Но если фейки дорастут до такого уровня, что станут принципиально неотличимы от оригинала (хотя вряд ли), то в судебных инстанциях видеоматериалы попросту утратят доказательную силу.

-
-
Ответить

Похожее