最新 最热

哈工大SCIR力作:Attention!注意力机制可解释吗?

EMNLP 2019《Attention is Not Not Explanation》

2019-10-01
0

【哈工大SCIR Lab】Attention!注意力机制可解释吗?

NAACL 2019《Attention is Not Explanation》

2019-09-30
0

【小技巧】spring security oauth2 令牌实现多终端登录状态同步

解决不同客户端使用token,各个客户端的登录状态必须保持一致,退出状态实现一致。同上述问题类似如何解决不同租户相同用户名的人员的登录状态问题。...

2019-09-23
0

个推消息推送RestAPI版

1.权鉴获取Token /** * 个推获取权鉴Token * @return bool */ public static function getAuthToken() { require_once(__DIR__ . '/../../common/li...

2019-09-19
1

Spring OAuth框架下增加用户属性的注意事项

当我们修改了用户中心的dao、mapper后,需要注意的是,即便鉴权中心没有修改任何东西也一定要重新编译打包,因为修改了公共模块,否则鉴权中心无法识别AppUser类的新属性,清除redis的token信息,重新登录(如果是本地操作切记一...

2019-09-18
1

带你读论文丨8篇论文梳理BERT相关模型进展与反思

BERT 自从在 arXiv 上发表以来获得了很大的成功和关注,打开了 NLP 中 2-Stage 的潘多拉魔盒。随后涌现了一大批类似于“BERT”的预训练(pre-trained)模型,有引入 BERT 中双向上下文信息的广义自回归模型 XLNet,也有改进 BE...

2019-09-12
1

Loadrunner 运行场景-场景中的全局变量与关联结果参数

//--------------------------------------------------------------------

2019-09-11
0

token jwt配置

1. token jwt配置1.1. pom <!-- token验证 --> <dependency> <groupId>io.jsonwebtoken</groupId> <artifactId>jjwt</artifactId> ......

2019-09-10
1

注意力机制不能提高模型可解释性?不,你这篇论文搞错了

注意力机制在 NLP 系统中起着重要作用,尤其是对于循环神经网络(RNN)模型。那么注意力模块提供的中间表征能否解释模型预测的推理过程,进而帮助人们了解模型的决策过程呢?近期,很多研究人员对这个话题产生了浓厚的兴趣。一篇...

2019-09-10
1

读8篇论文,梳理BERT相关模型进展与反思

【导读】BERT 自从在 arXiv 上发表以来获得了很大的成功和关注,打开了 NLP 中 2-Stage 的潘多拉魔盒。随后涌现了一大批类似于“BERT”的预训练(pre-trained)模型,有引入 BERT 中双向上下文信息的广义自回归模型 XLNet,也...

2019-09-09
1