最新 最热

MySQL之全文索引详解

通过数值比较、范围过滤等就可以完成绝大多数我们需要的查询,但是,如果希望通过关键字的匹配来进行查询过滤,那么就需要基于相似度的查询,而不是原来的精确数值比较。全文索引就是为这种场景设计的。...

2021-05-27
0

词向量Word Embedding原理及生成方法

Word Embedding是整个自然语言处理(NLP)中最常用的技术点之一,广泛应用于企业的建模实践中。我们使用Word Embedding能够将自然文本语言映射为计算机语言,然后输入到神经网络模型中学习和计算。如何更深入地理解以及快速...

2021-05-24
1

语义情感分析实操 | 10行代码帮你判断TA是否生气了

昨天是一年一度的“女神节”,Mr.Tech首先给各位程序媛和小姐姐补上节日祝福哦~

2021-05-24
1

MG-BERT:面向药物分子性质预测的大规模原子表征预训练模型

今天给大家介绍的是国防科技大学计算机学院张小琛博士、吴诚堃副研究员、中南大学曹东升教授及浙江大学侯廷军教授等人联合发表在Briefing in Bioinformatics上的一篇文章。作者将自然语言处理领域常用的BERT模型应用...

2021-05-24
0

Python识别字符串中的自然语言(单词)

生成一个随机字符串(无空格),能否鉴别出这个字符串中是否有自然语言中的单词。比如“ervmothersdclovecsasd”,这个字符串中就存在“mother”和“love”这两个单词。...

2021-05-21
0

NLP之word2vec简介

Word2vec,是为一群用来产生词向量的相关模型。这些模型为浅而双层的神经网络,用来训练以重新建构语言学之词文本。网络以词表现,并且需猜测相邻位置的输入词,在word2vec中词袋模型假设下,词的顺序是不重要的。训练完成之后...

2021-05-21
0

积分梯度:一种新颖的神经网络可视化方法

本文介绍一种神经网络的可视化方法:积分梯度(Integrated Gradients),它首先在论文《Gradients of Counterfactuals》中提出,后来《Axiomatic Attribution for Deep Networks》再次介绍了它,两篇论文作者都是一样的,内容也大...

2021-05-20
0

【综述专栏】一文回顾Transformer 和 预训练模型

在科学研究中,从方法论上来讲,都应“先见森林,再见树木”。当前,人工智能学术研究方兴未艾,技术迅猛发展,可谓万木争荣,日新月异。对于AI从业者来说,在广袤的知识森林中,系统梳理脉络,才能更好地把握趋势。为此,我们精选国内外优...

2021-05-20
1

KDD放榜!接收率15.4%,NeurIPS 竞赛开启、EMNLP即将截稿 |顶会动态

昨日(5月17日),KDD2021论文录取结果出炉,今年共有1541篇有效投稿,其中238篇论文被接收,接收率为15.44%,相比 KDD 2020 的接收率16.9%有所下降(216/1279篇)。...

2021-05-19
1

AI圈真魔幻!谷歌最新研究表明卷积在NLP预训练上竟优于Transformer?LeCun暧昧表态

众所周知,近一年来Transformer火的很,把Transformer用在视觉领域真是屡试不爽,先是分类后是检测,等等等等,每次都是吊打ResNet,在CV领域中大杀四方。...

2021-05-19
0