输入位置,控制 StyleGAN 生成图像的布局! 论文速递2022.8.31!

2022-12-11 12:01:23 浏览数 (1)

整理:AI算法与图像处理

CVPR2022论文和代码整理:https://github.com/DWCTOD/CVPR2022-Papers-with-Code-Demo

ECCV2022论文和代码整理:https://github.com/DWCTOD/ECCV2022-Papers-with-Code-Demo

最新成果demo展示:

用户输入位置编码,控制 StyleGAN 生成图像的布局

标题:Texturify: Generating Textures on 3D Shape Surfaces

主页:http://www.cgg.cs.tsukuba.ac.jp/~endo/projects/UserControllableLT/

论文:http://arxiv.org/abs/2208.12408

代码: https://github.com/endo-yuki-t/UserControllableLT

摘要:潜在空间探索是一种发现可解释的潜在方向并操纵潜在代码以编辑由生成对抗网络 (GAN) 生成的图像中的各种属性的技术。然而,在之前的工作中,空间控制仅限于简单的变换(例如平移和旋转),识别适当的潜在方向并调整其参数是很费力的。在本文中,我们通过直接注释图像来解决编辑 StyleGAN 图像布局的问题。为此,我们提出了一个交互式框架,用于根据用户输入操作潜在代码。在我们的框架中,用户使用他们想要移动或不移动的位置来注释 StyleGAN 图像,并通过鼠标拖动指定移动方向。从这些用户输入和初始潜在代码中,我们基于转换器编码器 - 解码器架构的潜在转换器估计输出潜在代码,这些代码被馈送到 StyleGAN 生成器以获得结果图像。为了训练我们的潜在转换器,我们利用现成的 StyleGAN 和光流模型生成的合成数据和伪用户输入,无需人工监督。定量和定性评估证明了我们的方法优于现有方法的有效性。


最新论文整理

ECCV2022

Updated on : 31 Aug 2022
total number : 4

ASpanFormer: Detector-Free Image Matching with Adaptive Span Transformer

  • 论文/Paper: http://arxiv.org/pdf/2208.14201
  • 代码/Code: None

Probing Contextual Diversity for Dense Out-of-Distribution Detection

  • 论文/Paper: http://arxiv.org/pdf/2208.14195
  • 代码/Code: None

CAIR: Fast and Lightweight Multi-Scale Color Attention Network for Instagram Filter Removal

  • 论文/Paper: http://arxiv.org/pdf/2208.14039
  • 代码/Code: https://github.com/hnv-lab/cair

FUSION: Fully Unsupervised Test-Time Stain Adaptation via Fused Normalization Statistics

  • 论文/Paper: http://arxiv.org/pdf/2208.14206
  • 代码/Code: None
CVPR2022
Updated on : 31 Aug 2022
total number : 1

Perfusion assessment via local remote photoplethysmography (rPPG)

  • 论文/Paper: http://arxiv.org/pdf/2208.13840
  • 代码/Code: None

0 人点赞