最新 最热

સુપ્રભાત!懂「印度方言」的多语言机翻模型挑战0资源翻译,论文已被ACL2021接收

《圣经·旧约·创世记》中记载着「巴别塔」的传说:人类联合起来兴建能通往天堂的高塔。

2021-07-06
0

一心二用:高性能端到端语音翻译模型同时识别声音和翻译

自动语音翻译是指让机器完成从源语言的语音信号自动翻译生成目标语言的文本的过程,其基本设想是让计算机像人类译员一样充当持不同语言说话人之间翻译的角色。...

2021-07-02
0

日本机器翻译第一人长尾真逝世!首个提出基于实例的机器翻译方法

AI科技评论消息:5月23日,日本知名自然语言处理学者长尾真(Makoto Nagao)教授因不小心摔了一跤,在日本家中去世,享年85岁。

2021-07-02
0

理解NLP中的屏蔽语言模型(MLM)和因果语言模型(CLM)

在本文章中,我们将讨论两种流行的训练前方案,即掩蔽语言建模(MLM)和因果语言建模(CLM)。

2021-07-01
0

基于Seq2Seq结构和注意力机制的神经机器翻译

神经机器翻译(NMT)是一种端到端自动翻译学习方法。它的优势在于它直接学习从输入文本到相关输出文本的映射。它已被证明比传统的基于短语的机器翻译更有效,而且后者需要更多的精力来设计模型。另一方面,NMT模型的训练成...

2021-07-01
0

Transformer全靠数据堆?那没有数据怎么办?LUT告诉你「冇问题」|AAAI 2021

你是否曾遇到这样的场景:在陌⽣的国家旅游因为听不懂当地⼈说话只能咿咿呀呀、⼿语⽐划、连蒙带猜?

2021-06-15
0

极品Trick | 在ResNet与Transformer均适用的Skip Connection解读

Skip connection是一种广泛应用于提高深度神经网络性能和收敛性的技术,它通过神经网络层传播的线性分量,缓解了非线性带来的优化困难。但是,从另一个角度来看,它也可以看作是输入和输出之间的调制机制,输入按预定义值1进行...

2021-05-28
0

全领域涨点 | Transformer携Evolving Attention在CV与NLP领域全面涨点(文末送书)

Transformer是一种普遍存在于自然语言处理的模型,近期在计算机视觉领域引起了广泛关注。而Attention map主要用来编码input tokens之间的依赖关系,其对于一个Transformer模型来说是必不可少的。然而,它们在每一层都是独...

2021-05-28
0

比seq2seq模型快90倍!Google推出全新文本编辑模型FELIX

序列到序列(seq2seq)模型已经成为处理自然语言生成任务的有效方法,其应用范围从机器翻译到单语言生成任务,如摘要、句子融合、文本简化和机器翻译的译后编辑。...

2021-05-28
0

Python批量图片识别并翻译——我用python给女朋友翻译化妆品标签

最近小编遇到一个生存问题,女朋友让我给她翻译英文化妆品标签。美其名曰:"程序猿每天英语开发,英文一定很好吧,来帮我翻译翻译化妆品成分",”来,帮我看看这个面膜建议敷几分钟“。。。。看来斥巨资买化妆品不算完,还需要会...

2021-05-24
0