最新 最热

bioRxiv | 用于单细胞RNA-seq和ATAC-seq数据整合的转移学习

今天给大家介绍由新南威尔士州悉尼大学数学与统计学院Yingxin Lin等人在《bioRxiv预印本》上发表了一篇名为“scJoint: transfer learning for data integration of single-cell RNA-seq and ATAC-seq”的文章。文中...

2021-02-02
0

Chem. Commun. | 利用基于迁移学习策略的transformer 模型进行Heck反应预测

今天给大家介绍的是浙江工业大学智能制药研究院的段宏亮教授研究团队发表在Chemical Communications上的文章 "Heck reaction prediction using a transformer model based on a transfer learning strategy"。...

2021-02-02
0

【技术创作101训练营】迁移学习的陈述

大家好,我是一名本科在读大三学生,下面我将跟大家分享一下最近正在学习的迁移学习知识,还望前辈们不令赐教。

2021-01-25
0

基于头皮脑电的癫痫分类

根据百度百科,癫痫(epilepsy)即俗称的“羊角风”或“羊癫风”,是大脑神经元突发性异常放电,导致短暂的大脑功能障碍的一种慢性疾病。据中国最新流行病学资料显示,国内癫痫的总体患病率为7.0‰,年发病率为28.8/10万,1年内有...

2021-01-14
0

ECCV 2020 亮点摘要(下)

在本文中,作者重新审视了迁移学习的简单范式:首先在一个大规模标记数据集(例如JFT-300M和ImageNet-21k数据集)上进行预训练,然后对目标任务上的每个训练权重进行精调任务,减少目标任务所需的数据量和优化时间。作者们拟议的...

2021-01-12
0

一文带你详尽 Lifelong Learning —— 终生学习

Lifelong learning终生学习,又名continuous learning,increment learning,never ending learning。通常机器学习中,单个模型只解决单个或少数几个任务。对于新的任务,我们一般重新训练新的模型。而LifeLong learning,则先在...

2021-01-08
0

Yoshua Bengio:深度学习的未来需要“探索高级认知的归纳偏置”

本文介绍了Yoshua Bengio及其学生Anirudh Goyal近期发表的一篇论文,该论文围绕“归纳偏置”概念,展开了对当下人工智能研究现状的讨论,并提出了富有启发性的观点:不同的深度学习架构基于不同的归纳偏置,探索更大范畴的归纳...

2021-01-07
0

速度、准确率与泛化性能媲美SOTA CNN,Facebook开源高效图像Transformer

Transformer 是自然语言处理领域的主流方法,在多项任务中实现了 SOTA 结果。近期越来越多的研究开始把 Transformer 引入计算机视觉领域,例如 OpenAI 的 iGPT、Facebook 提出的 DETR 等。...

2021-01-06
0

Facebook开源高效图像Transformer,速度、准确率与泛化性能媲美SOTA CNN

Transformer 是自然语言处理领域的主流方法,在多项任务中实现了 SOTA 结果。近期越来越多的研究开始把 Transformer 引入计算机视觉领域,例如 OpenAI 的 iGPT、Facebook 提出的 DETR 等。...

2021-01-06
0

在PyTorch中使用DeepLabv3进行语义分割的迁移学习

当我在使用深度学习进行图像语义分割并想使用PyTorch在DeepLabv3[1]上运行一些实验时,我找不到任何在线教程。并且torchvision不仅没有提供分割数据集,而且也没有关于DeepLabv3类内部结构的详细解释。然而,我是通过自己...

2020-12-24
0