最新 最热

R tips:使用TCGAbiolinks包下载TCGA数据

TCGA数据下载就易用性来说,RTCGA包应该更好用,且由于是已经下载好的数据,使用比较稳定。但是也由于是下载好的数据,不能保证数据都是全新的。TCGAbiolinks包是实时调用GDC的API,所以可以获取最新的数据。...

2022-02-17
3

KDD'21 | 如何评估GNN的解释性模型?

模型可解释问题一向都是一个玄学问题,主要核心问题在于怎么评估一个好的模型解释器。在以往的工作中,图解释性模型往往是取一个边集合,并且将边集合得到的子图预测结果与真实标签做对比然后算一个acc,然而,本文作者则认为...

2021-10-12
2

大道至简,仅需4行代码提升多标签分类性能!ICCV21 南大提出Residual Attention

多标签图像识别是一项具有挑战性的计算机视觉任务。然而,目前解决这一任务的方法复杂、计算量大、缺乏直观解释 。为了能够有效地感知不同类别物体所占据的空间区域,作者提出了一个非常简单的模块,Class-Specific Residu...

2021-09-03
2

RealFormer:把残差转移到Attention矩阵上

大家知道Layer Normalization是Transformer模型的重要组成之一,它的用法有PostLN和PreLN两种,论文《On Layer Normalization in the Transformer Architecture》中有对两者比较详细的分析。简单来说,就是PreLN对梯度下降...

2021-07-13
2

「Workshop」第四十期 常用的差异分析方法

如今在生物学研究中,差异分析越来越普遍,也有许多做差异分析的方法可供选择。但是在实际应用中,大多数人不知道该使用哪种方法来处理自己的数据,所以今天我就来介绍下目前几种常用的差异分析方法及其适用场景。...

2021-04-23
3

我不懂BERT系列——有关RealFormer的一些有趣现象

承接上一篇BERT预训练流程的文章,今天主要通过在Transformer架构上进行改造来提升BERT训练效果,具体为:使用attention残差机制改造Transformer。其实现参考自去年年底谷歌发表的一篇论文:RealFormer: Transformer Likes R...

2021-03-03
2

Rethinking ImageNet Pre-training

这篇文章是何恺明组做的一个偏实验的工作,主要是探究ImageNet预训练的模型,在迁移到其他任务比如目标检测,分割等会不会比从头训练模型的要更好。可以总结一下就是...

2020-08-13
2

SFFAI 分享 | 李宏扬 :二阶信息在图像分类中的应用

此次分享的文章主要关于二阶信息在图像分类中的应用。从Alexnet起,深度神经网络飞速发展,取得了一系列骄人的成绩。总体来说,深度分类网络主要分为两个部分:特征提取和分类器。无论是VGG还是GoogleNet,后来的Resnet、Dense...

2020-05-14
2

通过图像训练强化学习模型

在gym中运行atari环境的时候可以选择同一个游戏的内存方式或者图像方式,内存方式直接返回游戏的状态,图像方式返回当前游戏的画面

2020-04-16
2

RNA-seq的counts,RPM, RPKM, FPK值到底有什么区别?

现在常用的基因定量方法包括:RPM, RPKM, FPKM, TPM。这些表达量的主要区别是:通过不同的标准化方法为转录本丰度提供一个数值表示,以便于后续差异分析。...

2020-04-07
2