最新 最热

「强化学习可解释性」最新2022综述

强化学习是一种从试错过程中发现最优行为策略的技术,已经成为解决环境交互问题的通用方法。

2022-02-24
0

DeepMind首席科学家:比起机器智能,我更担心人类智能造成的灾难

在 DeepMind 首席研究科学家、伦敦大学学院计算机科学教授David Silver 看来,游戏是激发创造力的关键,尤其是对AI而言。

2022-02-24
1

【综述专栏】强化学习可解释性

在科学研究中,从方法论上来讲,都应“先见森林,再见树木”。当前,人工智能学术研究方兴未艾,技术迅猛发展,可谓万木争荣,日新月异。对于AI从业者来说,在广袤的知识森林中,系统梳理脉络,才能更好地把握趋势。为此,我们精选国内外优...

2022-02-24
0

【论文推荐】了解《同义句生成》必看的6篇论文(附打包下载地址)

“SFFAI118期来自上海交通大学的陈文清推荐的文章主要关注于自然语言处理的同义句生成领域,你可以认真阅读讲者推荐的论文,来与讲者及同行线上交流哦。”...

2022-02-24
0

史上首次,强化学习算法控制核聚变登上Nature:DeepMind让人造太阳向前一大步

DeepMind研究科学家David Pfau在论文发表后感叹道:「为了分享这个时刻我已经等了很久,这是第一次在核聚变研究设备上进行深度强化学习的演示!」

2022-02-24
0

写的书太受欢迎怎么办?北大《深度强化学习》作者:那就开放下载吧

得益于 DeepMind AlphaGo 和 OpenAI Five 成功的案例,深度强化学习受到大量的关注,相关技术广泛应用于不同的领域。但是,对于一名学习者来说,市面上很少有书籍或者教程能同时覆盖从「0 到 1」和「从 1 到 N」的深度强化学...

2022-02-24
0

谁说阿尔法狗们只会下棋玩游戏?DeepMind用它们给油管视频做压缩

2016 年,DeepMind 推出了第一个能够在围棋中击败人类的智能体——AlphaGo。在之后的几年里,其继任者 AlphaZero 和 MuZero 继续向通用算法进发,用更少的预定义知识掌握了更多的游戏。例如,MuZero 在没有被告知规则的情况...

2022-02-24
0

优于GNN嵌入基线,阿尔伯塔大学等用RL做图关系推理:关系预测任务新SOTA

智能的一个重要组成部分是推理,即观察数据中不同事物之间的关系,并归纳总结出这些关系之间的推理规则,以进行可解释和可泛化的逻辑推理 。

2022-02-24
0

弯道极限超车、击败人类顶级玩家,索尼AI赛车手登上Nature封面

从国际象棋到围棋再到扑克,AI 智能体在许多游戏中都胜过人类。现在,这些智能体可以在《GT 赛车》(Gran Turismo)刷新最高分。

2022-02-24
0

搞强化学习还不了解AutoRL,牛津大学、谷歌等十余位学者撰文综述

强化学习 (RL) 与深度学习的结合带来了一系列令人印象深刻的成果,许多人认为(深度)强化学习提供了通向通用智能体的途径。然而,RL 智能体的成功通常对训练过程中的设计选择高度敏感,可能需要繁琐且容易出错的手动调整。这...

2022-02-24
0