最新 最热

漫谈图神经网络 (二)

在从图(Graph)到图卷积(Graph Convolution): 漫谈图神经网络 (一)中,我们简单介绍了基于循环图神经网络的两种重要模型,在本篇中,我们将着大量笔墨介绍图卷积神经网络中的卷积操作。接下来,我们将首先介绍一下图卷积神经...

2020-04-15
0

漫谈图神经网络 (一)

作者最近看了一些图与图卷积神经网络的论文,深感其强大,但一些Survey或教程默认了读者对图神经网络背景知识的了解,对未学过信号处理的读者不太友好。同时,很多教程只讲是什么,不讲为什么,也没有梳理清楚不同网络结构的区别...

2020-04-15
0

CNN结构设计技巧-兼顾速度精度与工程实现

宽度(通道数)决定了网络在某一层学到的信息量,另外因为卷积层能重组通道间的信息,这一操作能让有效信息量增大(这也是1x1卷积的作用,它能学习出重组信息,使得对于任务更友好,所以这里不能和分离卷积一起比较,传统卷积的有效卷...

2020-04-15
0

8比特数值也能训练模型?商汤提训练加速新算法丨CVPR 2020

在CVPR 2020上,商汤研究院链接与编译团队、高性能计算团队和北航刘祥龙老师团队合作提出了用于加速卷积神经网络训练过程的INT8训练技术。该工作通过将网络的输入、权重和梯度量化到8比特来加速网络的前向传播和反向传...

2020-04-14
0

图深度学习入门教程(六)——注意力机制与图注意力

深度学习还没学完,怎么图深度学习又来了?别怕,这里有份系统教程,可以将0基础的你直接送到图深度学习。还会定期更新哦。

2020-04-14
0

如何用神经网络实现照片的风格转换

在今天的文章中,我们将实现风格转换效果。为了做到这一点,我们必须更深入地理解卷积神经网络及其各层是如何工作的。在本文的最后,您将能够创建并运行一个风格转换程序。...

2020-04-14
0

ICLR 2020 | 如何让图卷积网络变深?腾讯AI Lab联合清华提出DropEdge

腾讯 AI Lab 和清华大学的这项研究表明,图神经网络无法做深由两个原因造成:过拟合 (Overfitting) 和过平滑(Oversmoothing)。为了解决这两个问题,文章提出了一种简洁但非常有效的方法:随机删边技术,DropEdge,极大提升了超深图...

2020-04-14
0

ICLR 2020 | Bengio 一作论文:因果机制、元学习与模型泛化如何产生关联?

Yoshua Bengio 等人基于学习器适应新分布的速度提出一种元学习因果结构,这些新分布由干预、智能体动作以及其它非稳态(non-stationarity)导致的稀疏分布变化引起。这项研究证明,在此假设下,正确的因果结构选择会使学习器更...

2020-04-14
0

CVPR 2020 Oral | 双边分支网络BBN:攻坚长尾分布的现实世界任务

本文是旷视发表在 CVPR 2020上的 Oral论文。它揭示了再平衡方法解决长尾问题的本质及不足:虽然增强了分类器性能,却在一定程度上损害了模型的表征能力。针对其不足,本文提出了一种针对长尾问题的新型网络框架——双边分...

2020-04-14
0

今日 Paper | COVID-19;深度兴趣网络;COVIDX-NET;场景文本迁移等

COVIDX-NET:一种用于诊断X射线图像中COVID-19的深度学习分类器框架

2020-04-14
0