生成模型得到的合成数据,对图像分类会有帮助吗?

2022-11-28 17:10:21 浏览数 (1)

今天新出了一篇很有意思的文章,来自香港大学、牛津大学、字节跳动的研究人员对合成数据是否对图像分类有帮助进行了细致研究,相信结论会给我们一些启发。

作者信息:

论文地址:

https://arxiv.org/pdf/2210.07574.pdf

代码地址:

https://github.com/CVMI-Lab/SyntheticData

(尚未开源)

相信对于数据增强的概念,大家都并不陌生,对图像进行几何变换(旋转、裁剪、翻转),对比度拉伸,甚至图像的混合,已被证明对图像分类有帮助。

但作者此处研究的是对近年来大火的图像生成模型得到的合成数据,这个领域发展很快,出现了很多生成质量很高的基于文本生成图像的优秀方法,比如扩散模型等,除了生成数据量可以无限,这种生成模型也可以在语义层次方便的增加合成数据的多样性。

作者通过三个角度来研究基于“文本-图像”这种生成方法得到的合成数据是否对图像分类有帮助,包含对零样本图像分类、少样本图像分类、迁移学习。

零样本(zero-shot)图像分类,训练集不含要分类的类别,但有新类别的描述,以下表格是作者在17个数据集上的测试结果(具体实验方法可以查看原文):

可以发现性能获得了大幅提升,top-1精度平均提升了4.31% !

在少样本(few-shot)图像分类中,合成数据依然有效:

不过看起来优势没那么大了。

在对迁移学习影响的研究中,合成数据仍能大幅提升性能:

在下游的目标检测任务中也很有效:

作者指出,合成数据的规模越大,表现出越高的性能,而增加合成样本多样性也是重要的影响因素。

毕竟相对于人工标注,合成数据“价格低廉”,针对具体任务,有没有更好的指导数据合成的方法?对更多下游任务,如分割、跟踪、OCR等,是否都能获得性能增益?

欢迎感兴趣的朋友继续研究:

https://arxiv.org/pdf/2210.07574.pdf

0 人点赞