最新 最热

94页论文综述卷积神经网络:从基础技术到研究前景

卷积神经网络(CNN)在计算机视觉领域已经取得了前所未有的巨大成功,但我们目前对其效果显著的原因还没有全面的理解。2018年3月,约克大学电气工程与计算机科学系的 Isma Hadji 和 Richa...

2019-11-06
0

迁移学习中如何利用权值调整数据分布?DATL、L2TL两大方法解析

深度神经网络的应用显著改善了各种数据挖掘和计算机视觉算法的性能,因此广泛应用于各类机器学习场景中。然而,深度神经网络方法依赖于大量的标记数据来训练深度学习模型,在实际应用中,获取足够的标记数据往往既昂贵又耗时...

2019-11-05
0

调试机器学习模型的六种方法

在机器学习模型中,开发人员有时会遇到错误,但经常会在没有明确原因的情况下导致程序崩溃。虽然这些问题可以手动调试,但机器学习模型通常由于输出预测不佳而失败。更糟糕的是,当模型失败时,通常没有信号显示模型失败的原因...

2019-11-01
0

动态 | 再无需从头训练迁移学习模型!亚马逊开源迁移学习数据库 Xfer

Xfer 是一款针对 MXNet 的迁移学习,为适那些希望达到以下目的的从业者与研究人员而设计:

2019-11-01
0

谷歌T5模型刷新GLUE榜单,110亿参数量,17项NLP任务新SOTA

在最新发布的论文《Exploring the Limits of Transfer Learning with a Unified Text-to-Text Transformer》中,谷歌提出预训练模型 T5,参数量达到了 110 亿,再次刷新 Glue 榜单,成为全新的 NLP SOTA 预训练模型。...

2019-11-01
0

第四范式涂威威:AutoML 回顾与展望

AI 科技评论按,本文作者第四范式涂威威,该文首发于《中国计算机学会通讯》第15卷第3期,AI 科技评论获中国计算机学会授权转载。

2019-10-31
0

​迁移学习在NLP中的演化:从基础到前沿

论文标题:Evolution of Transfer Learning in Natural Language Processing

2019-10-31
0

谷歌T5模型刷新GLUE榜单,110亿参数量,17项NLP任务新SOTA

在最新发布的论文《Exploring the Limits of Transfer Learning with a Unified Text-to-Text Transformer》中,谷歌提出预训练模型 T5,参数量达到了 110 亿,再次刷新 Glue 榜单,成为全新的 NLP SOTA 预训练模型。...

2019-10-30
0

迁移学习人民币面值识别(附源码)-InceptionResNetV2

谷歌开放了 Inception-ResNet-v2,这是一个在 ILSVRC 图像分类基准上取得顶尖准确率的卷积神经网络。Inception-ResNet-v2 是早期发布的 Inception V3 模型的变体,该模型借鉴了微软 ResNet 论文中的思路。具体内容可在我...

2019-10-28
0

前海征信大数据算法:风险概率预测

感谢大家过去一年的关注与支持,有更好的建议或需求欢迎回复小编。新的一年你们将是人工智能、机器学习领域内的主角,越努力越幸运!

2019-10-28
0