最新 最热

CS231n:12 强化学习

如下图所示,就是强化学习的工作过程。首先,存在一个环境,和一个代理,环境先给代理一个状态 ,然后代理根据这个状态输出一个动作 给环境。环境接受这个动作后进行评估,反馈给代理一个奖励值 ,以及下一步状态 ,如此往复...

2022-08-08
0

迁移学习(Transfer Learning)的背景、历史及学习

在机器学习、深度学习和数据挖掘的大多数任务中,我们都会假设training和inference时,采用的数据服从相同的分布(distribution)、来源于相同的特征空间(feature space)。但在现实应用中,这个假设很难成立,往往遇到一些问题:...

2022-08-08
1

AAAI'22 推荐系统论文梳理

AAAI' 22已公布录用论文,接收1349篇/投稿9020篇,录用率为15.0% ,完整录用论文列表见

2022-08-02
1

算法大佬教你社招如何收割offer (抖音/蚂蚁/寒武纪/国企研究院等)

作者是NLP算法方向,历经1个多月的刷题复习+1个多月的面试,社招基本结束,面试了多家公司(抖音/蚂蚁/寒武纪/国企研究院等),收割了其中大部分offer,在此记录一下其中的面试题,希望对大家有用~...

2022-08-02
0

RecSys'22 推荐系统论文梳理

RecSys 2022已公布录用论文,接收39篇/投稿231篇,录用率为17%,再创历史新低。完整录用论文列表见

2022-08-02
1

bert原理详解(duhamel原理)

2018年的10月11日,Google发布的论文《Pre-training of Deep Bidirectional Transformers for Language Understanding》,成功在 11 项 NLP 任务中取得 state of the art 的结果,赢得自然语言处理学界的一片赞誉之声。...

2022-08-01
1

一个AI玩41个游戏,谷歌最新多游戏决策Transformer综合表现分是DQN的两倍

Alex 发自 凹非寺量子位 | 公众号 QbitAI谷歌AI宣布,在多任务学习上取得了巨大进展:他们搞出一个会玩41款雅达利游戏的AI,而且采用的新训练方法比起其他算法,训练效率大大提升!此前会玩星际争霸的CherryPi和火出圈的AlphaG...

2022-07-27
0

从头开始构建,DeepMind新论文用伪代码详解Transformer

机器之心报道编辑:陈萍、小舟与滚动 1000 行源代码相比,伪代码更浓缩,思路更清晰。2017 年 Transformer 横空出世,由谷歌在论文《Attention is all you need》中引入。这篇论文抛弃了以往深度学习任务里面使用到的 CNN 和...

2022-07-26
0

ICML 2022开奖!复旦、上交、厦大多篇工作入选杰出论文

---- 新智元报道  编辑:David 拉燕 好困【新智元导读】ICML 2022杰出论文揭晓!复旦、上交、厦大等中国高校上榜,吴恩达、Jeff Dean等获时间检验奖荣誉提名。|还在纠结会不会错过元宇宙和web3浪潮?清华大学科学史系副教授...

2022-07-21
0