Команда разрабов из Impersonator опубликовала на веб-сайте информацию о новеньком проекте — Impersonator++. Его сущность заключается в переносе движений из видеоисточника на людей, запечатлённых на фото. В качестве 1-го из примеров работы технологии, компания показала, как она «принудила» Дональда Трампа играться с баскетбольным мячом, используя только одно фото с ним.
Для сохранения начальной инфы о текстуре, цветах и т.д, создатели употребляли технологию Attentional Liquid Warping GAN вкупе с Attentional Liquid Warping Block (AttLWB). С помощью их им удалось достигнуть очень естественного «смешения» фото и видеоисточников при разработке итогового видео. Свою роль в улучшении финишного результата сыграло и внедрение состязательного обучения.
Наиболее детально с механизмом работы нейросети можно ознакомиться на GutHub-странице проекта. Там же можно отыскать аннотацию по запуску Impersonator++ (пока что проект работает только в консольном режиме).
Источник: Impersonator
Источник: