Оказывается, дипфейки могут использовать не только киберпреступники, но и IT-стартапы. Синтетический контент пользуется в последнее время повышенным спросом, сообщает The Verge.
Издание перечисляет наиболее успешные кейсы:
Так, стартап Veritone позволяет инфлюэнесерам и актерам продавать лицензии на голосовые дипфейки и получать рекламные гонорары, не выходя из дома без визитов в звукозаписывающую студию. Знаменитости могут продавать права на использование своих цифровых клонов — и получать дивиденды: этим уже воспользовался Брюс Уиллис. В теории, технологию можно применять для создания низкобюджетных фильмов с digital-копиями популярных актеров.
Сервис звукомонтажа Descript предлагает авторам подкастов «клонировать» свой голос, чтобы в процессе продакшна команда могла вносить правки в речь говорящего уже пост-фактум.
Другой стартап, Sonantic, специализируется на озвучке видеоигр и предлагает no-code платформу для генерации аудиоклонов. Своего рода это Tilda, но для создания дипфейков. Недавно команда создала аудиодипфейк Вэла Килмера — актер потерял голос после того, как перенес рак гортани. Киноактер остался доволен копией своего настоящего голоса.
Еще один вариант применения дипфейков - дубляж видео с помощью голосовых дипфейков. Например, можно озвучить видео на испанском языке своим голосом, не владея языком даже на базовом уровне.
Главным препятствием реализации проектов в данной сфере стало отсутствие правовой базы и этические вопросы. Многие компании, специализирующиеся на продуктах на базе дипфейков, утверждают, что придерживаются политики consent-first. Как правило, данные берутся из старых баз, созданных 5-10 лет назад, когда об этой политике еще никто не слышал.
В TikTok одно время использовали функцию автоматической озвучки, text-to-speech. Оказалось, что синтезированный женский голос на самом деле принадлежит реальному человеку - актрисе Бев Стэндинг, которая когда-то сотрудничала с Китайским институтом акустики. Актриса подала в суд на TikTok за использование данных без ее разрешения.