最新 最热

与视频和图像共同训练 Transformer 以提高动作识别

动作识别已成为研究界的主要关注领域,因为许多应用程序都可以从改进的建模中受益,例如视频检索、视频字幕、视频问答等。基于 Transformer 的方法最近展示了最先进的技术 在多个基准测试中的表现。 虽然与 ConvNet 相比...

2022-03-07
0

生物分子序列的人工智能设计

合成生物学研究本着师法自然、改造自然及超越自然的理念,其核心是通过人工方式将基因元件优化改造和重新组合,以得到满足需要的人工生物系统。获取性能优异的生物元件是构建和控制人工生物系统的基础。...

2022-03-04
0

如何让训练神经网络不无聊?试试迁移学习和多任务学习

训练深度神经网络是一个乏味的过程。更实际的方法,如重新使用训练好的网络解决其他任务,或针对许多任务使用相同的网络。这篇文章中,我们会讨论两个重要的方法:迁移学习和多任务学习。...

2022-03-04
0

重磅!Nature子刊发布稳定学习观点论文:建立因果推理和机器学习的共识基础

整理丨AI科技评论 2月23日,清华大学计算机系崔鹏副教授与斯坦福大学Susan Athey(美国科学院院士,因果领域国际权威)合作,在全球顶级期刊Nature Machine Intelligence(影响因子IF=15.51,2020)上发表题为“Stable Learning Esta...

2022-03-03
0

万字长文!DeepMind科学家总结2021年的15个高能研究

2021年,借助更强大的算力、数据和模型,机器学习和自然语言处理的技术发展依然十分迅速。

2022-02-24
0

【他山之石】Kaggle NLP比赛的技巧

“他山之石,可以攻玉”,站在巨人的肩膀才能看得更高,走得更远。在科研的道路上,更需借助东风才能更快前行。为此,我们特别搜集整理了一些实用的代码链接,数据集,软件,编程技巧等,开辟“他山之石”专栏,助你乘风破浪,一路奋勇向前...

2022-02-24
0

一年一总结的NLP年度进展,2021年有哪些研究热点?

2021 年,ML 和 NLP 领域取得了很多激动人心的进展。在 Sebastian Ruder 的最新博客《ML and NLP Research Highlights of 2021》中,他介绍了自己认为最具有启发意义的论文和研究领域。...

2022-02-23
0

比MAE更强,FAIR新方法MaskFeat用HOG刷新多个SOTA

自监督预训练在自然语言处理方面取得了惊人的成功,其基本思路中包含着掩码预测任务。前段时间,何恺明一作的论文《Masked Autoencoders Are Scalable Vision Learners》提出了一种简单实用的自监督学习方案 MAE,将 NLP ...

2022-02-18
0

经验之谈 | 如何从零开始构建深度学习项目?

在学习了有关深度学习的理论课程之后,很多人都会有兴趣尝试构建一个属于自己的项目。本文将会从第一步开始,告诉你如何解决项目开发中会遇到的各类问题。...

2022-02-12
0

关于 AIOps 的过去与未来,微软亚洲研究院给我们讲了这些故事

在过去的15年里,云计算实现了飞速发展,而这种发展也为诸多的前沿技术奠定了基础,AIOps便在此环境中获得了良好的发展契机。在数字化转型的浪潮下,云计算已经成为了整个社会的基础设施之一。当企业把服务建立在云上,云计算...

2022-02-10
0