最新 最热

从能量角度看自监督学习

本次演讲来自Nvidia GTC21,演讲者是来自Facebook的人工智能研究副总裁兼纽约大学教授Yann Lecun。本次演讲以自监督学习为主,介绍了将不同的自监督学习算法用统一的模型框架来解释的方法。...

2021-07-06
0

深度了解自监督学习,就看这篇解读 !微软首创:运用在 image 领域的BERT

本文介绍的这篇工作是把 BERT 模型成功用在 image 领域的首创,也是一种自监督训练的形式,所以取名为视觉Transformer的BERT预训练模型。这个工作用一种巧妙的办法把 BERT 的训练思想成功用在了 image 任务中。 >>加入极...

2021-07-05
0

从迁移学习到图像合成

地址:https://zhuanlan.zhihu.com/p/376423478

2021-07-05
1

CVPR 2021奖项出炉:最佳论文花落马普所,何恺明获提名,首届黄煦涛纪念奖颁布

今年,大会一共接收了 7039 篇有效投稿,其中进入 Decision Making 阶段的共有约 5900 篇,最终有 1366 篇被接收为 poster,295 篇被接收为 oral,其中录用率大致为 23.6%,略高于去年的 22.1%。...

2021-07-05
0

Francis Bach新书稿:第一性原理学习理论 | 附PDF下载

同为评价事物的依据,第一性原理和经验参数代表两个极端。经验参数是通过大量实例得出的规律性的数据,而第一性原理是某些硬性规定或推演得出的结论。...

2021-07-03
0

ICLR 2021 | 基于自监督学习的小样本分类,代码已开源

深度神经网络往往要求为每个新任务收集大量标记训练数据,实用性也因此受到限制。给定来自一组源任务的数据,有两种迁移学习方法可以克服这种限制:小样本学习 (FSL) 和自监督学习 (SSL)。前者通过在源任务中设计元集(epis...

2021-07-03
0

金融/语音/音频处理学术速递[6.25]

【1】 Robust Decisions for Heterogeneous Agents via Certainty Equivalents标题:基于确定性等价的异构Agent鲁棒决策

2021-07-02
0

深度了解自监督学习,就看这篇解读 !微软首创:运用在 image 领域的BERT

本文介绍的这篇工作是把 BERT 模型成功用在 image 领域的首创,也是一种自监督训练的形式,所以取名为视觉Transformer的BERT预训练模型。这个工作用一种巧妙的办法把 BERT 的训练思想成功用在了 image 任务中。 >>加入极...

2021-07-02
0

样本量极少如何机器学习?最新Few-Shot Learning综述

本文首先介绍了用小样本训练模型会导致的问题,再介绍了Few-Shot Learning的基本原理即三大思路下的方法:增多训练数据,缩小模型需要搜索的空间,优化搜索最优模型的过程。...

2021-06-25
0

Nat. Methods. | 高效数据优化Low-N蛋白质筛选工程

今天给大家介绍来自哈佛Wyss研究院的Surojit Biswas等人四月份发表在Nature上的文章《Low-N protein engineering with data-efficient deep learning》,文章介绍一种机器学习指导的范例,该范例可以使用低至24个经过功...

2021-06-24
0