最新 最热

炸场!通用人工智能最新突破:一个模型、一套权重通吃600+视觉文本和决策任务,DeepMind两年研究一朝公开

梦晨 鱼羊 发自 凹非寺量子位 | 公众号 QbitAI通用人工智能,还得看DeepMind。这回,只一个模型,使用相同的权重,不仅把看家本领雅达利游戏玩得飞起。和人类聊聊天、看图写话也不在话下。甚至还能在现实环境里控制机械臂,让...

2022-05-16
0

即插即用、无需训练:剑桥大学、腾讯AI Lab等提出免训练跨模态文本生成框架

关注并星标从此不迷路计算机视觉研究院公众号ID|ComputerVisionGzq学习群|扫码在主页获取加入方式计算机视觉研究院专栏作者:Edison_G来自剑桥大学、腾讯 AI Lab 等机构的研究者提出了一个全新的框架 MAGIC (iMAge-guid...

2022-05-16
1

DeepMind「通才」AI智能体Gato来了,多模态、多任务,受大语言模型启发

机器之心报道机器之心编辑部在写文章、画图之后,AI 大模型现在又同时有了打游戏的能力。不禁在想,DeepMind 的智能体 Gato 未来还能玩出哪些花活?假如使用单一序列模型就能解决所有任务,是再好不过的事情,因为这种模型减少...

2022-05-16
0

语言模型的冰山一角:微调是不必要, AI21 Labs探索冻结模型未开发潜力

选自arXiv作者:Yoav Levine等机器之心编译机器之心编辑部来自 AI21 Labs 这项研究表明,微调通常是一种不必要的浪费,关键是找到站在大型冻结语言模型的肩膀上的最佳方式。目前,优化给定 NLP 任务性能的最佳方法通常是微调...

2022-05-16
0

NLP预训练范式大一统,不再纠结下游任务类型,谷歌这个新框架刷新50个SOTA

机器之心报道编辑:张倩、小舟在这篇论文中,来自谷歌的研究者提出了一种统一各种预训练范式的预训练策略,这种策略不受模型架构以及下游任务类型影响,在 50 项 NLP 任务中实现了 SOTA 结果。当前,NLP 研究人员和从业者有大...

2022-05-16
0

Bert不完全手册3. Bert训练策略优化!RoBERTa & SpanBERT

之前看过一条评论说Bert提出了很好的双向语言模型的预训练以及下游迁移的框架,但是它提出的各种训练方式槽点较多,或多或少都有优化的空间。这一章就训练方案的改良,我们来聊聊RoBERTa和SpanBERT给出的方案,看作者这两篇p...

2022-05-15
1

Bert不完全手册4. 绕开BERT的MASK策略?XLNET & ELECTRA

基于随机token MASK是Bert能实现双向上下文信息编码的核心。但是MASK策略本身存在一些问题

2022-05-15
1

Bert不完全手册5. 推理提速?训练提速!内存压缩!Albert

Albert是A Lite Bert的缩写,确实Albert通过词向量矩阵分解,以及transformer block的参数共享,大大降低了Bert的参数量级。在我读Albert论文之前,因为Albert和蒸馏,剪枝一起被归在模型压缩方案,导致我一直以为Albert也是为了...

2022-05-15
1

基于Trie 树实现简单的中文分词

中文分词是中文自然语言处理的基础,中文分词的正确率如何直接影响后续的词性标注(也有些词性标注算法不需要事先分词,但标注效果往往比先分词后标注差),实体识别、句法分析、语义分析。常用的分词方法主要有依赖词典的机械...

2022-05-13
2

这张「笑脸」值20亿美元!因Transformer爆火的Hugging Face获1亿美元融资

---- 新智元报道  编辑:David【新智元导读】知名AI社区Hugging Face宣布1亿美元C轮融资,公司估值达20亿美元。从5年前不赚钱的娱乐聊天机器人,到今天举足轻重的AI社区,这张「小笑脸」是怎么做到的?AI社区,共建未来!这是成...

2022-05-12
0