最新 最热

机器学习的数学,从入门到不放弃

似乎每个理科生都在生命的一大段时间中幻想过自己精通各种理论和技术,理科生的装腔相比其他人要硬核得多,说起话来也更加烧脑。

2020-07-24
0

21岁华人本科生,凭什么拿下CVPR 2020最佳论文提名?

这时候,就需要「数据增强」来获取更多数据。而近几年,镜像反转成了最为常用的方法之一。

2020-07-24
1

预训练后性能反而变差,自训练要取代预训练了吗?

早在2018年底,FAIR的研究人员就发布了一篇名为《Rethinking ImageNet Pre-training》的论文 ,这篇论文随后发表在ICCV2019。该论文提出了一些关于预训练的非常有趣的结论。...

2020-07-23
0

AI4ESS 2020:机器和统计学习基础:通用框架,推断与预测

Artificial Intelligence for Earth System Science (AI4ESS) Summer School

2020-07-22
0

认知智能,AI的下一个十年 | AI Procon 202

在 1956 年的夏天,人工智能在美国达特茅斯大学召开的学术会议之上蹒跚学步,吸引无数研究学者对其智能化的探索以及未来美好愿景的描绘。不过,彼时在抽象思维、自我认知、自然处理、图像识别等基础性功能缺失的现状中,人工...

2020-07-22
0

机器学习|Q-Learning(强化学习)

我们在之前接触过了监督学习和无监督学习,强化学习可以看作是不同于二者的另一类算法,强化学习让计算机从什么都不懂的时刻开始,通过不断地尝试,从错误中学习,找到一种规律,能够掌握达到目的的方法。...

2020-07-21
0

【Pre-Training】GPT-2:四只角的独角兽

今天阅读的是 OpenAI 的同学于 2019 年发表的论文《Language Models are Unsupervised Multitask Learners》,目前具有 300 多引用量。

2020-07-21
1

机器学习必读TOP 100论文清单:高引用、分类全、覆盖面广丨GitHub 21.4k星

自2017年以来,超越SOTA的方法天天有,但往往针对性非常强,不一定是颠覆机器学习圈的重要成果。

2020-07-21
1

【Pre-Training】GPT:通过生成式预训练改善语言理解

今天阅读的是 OpenAI 2018 年的论文《Improving Language Understanding by Generative Pre-Training》,截止目前共有 600 多引用。

2020-07-21
1

1,机器学习简介

人工智能指由人类制造出的机器表现出的智能。这是一个非常大的范围,长远目标是让机器实现类人智能。不过目前我们还在非常非常初级的阶段,甚至都不能称为智能。...

2020-07-20
1