最新 最热

用免费TPU训练Keras模型,速度还能提高20倍!

很长一段时间以来,我在单个 GTX 1070 显卡上训练模型,其单精度大约为 8.18 TFlops。后来谷歌在 Colab 上启用了免费的 Tesla K80 GPU,配备 12GB 内存,且速度稍有增加,为 8.73 TFlops。最近,Colab 的运行时类型选择器中出现...

2019-04-29
1

没有最快,只有更快!富士通74.7秒在ImageNet上训练完ResNet-50

根据日本富士通实验室最新研究。他们应用了一种优化方法,在ABCI 集群上,实现了74.7秒的训练时间。训练吞吐量为173万图像/秒,top-1验证准确率为75.08%。...

2019-04-26
0

大力再出奇迹,1024 张TPU,65536 batch size,仅76分钟训练完BERT!

BERT 作为目前工业界中训练最耗时的应用,计算量甚至远大于机器视觉中的 ImageNet 训练。在 BERT 原论文中,Jacob Devlin 也是用了 16 台云TPU(64 个 TPU 芯片)花了整整四天,才训练完了 BERT-large 模型。...

2019-04-26
0

Java 最常见的 208 道面试题:第十三模块答案

Mybatis仅支持association关联对象和collection关联集合对象的延迟加载,association指的就是一对一,collection指的就是一对多查询。在Mybatis配置文件中,可以配置是否启用延迟加载lazyLoadingEnabled=true|false。...

2019-04-25
0

224秒!ImageNet上训练ResNet-50最佳战绩出炉,索尼下血本破纪录

刚刚,索尼在arXiv上发文宣布:他们用224秒在ImageNet上完成了ResNet-50训练,没有明显的准确率损失。

2019-04-24
0

NVIDIA教你用TensorRT加速深度学习推理计算 | 量子位线下沙龙笔记

12月22日,量子位联合NVIDIA英伟达举行了线下交流会,跟现场近百位开发者同学共同探讨了如何用TensorRT加速深度学习推理计算,详细讲解了GPU的推理引擎TensorRT,以及如何配合Deepstream实现完整加速推理的解决方案。...

2019-04-24
0

模型参数太多怎么办?用谷歌高效训练库GPipe啊

BigGan、BERT和GPT-2的出现表明,越大的神经网络模型可以带来越好的性能。其中能写出各种假新闻的GPT-2参数就有15亿个之多。

2019-04-23
0

DeepMind私货公开,推出分布式机器学习库,TensorFlow、Keras可用

TF-Replicator,本来是内部自用的一个软件库,能够让从来没做过分布式系统的研究人员方便地在多GPU/云TPU上部署他们的TensorFlow模型,也适用于Keras。

2019-04-23
0

Linux常用命令速查-定时任务

anacron是一个按天为单位周期性运行某些命令的工具,使用此工具需要指定任务的周期、延迟(分钟)、id、shell。

2019-04-22
0

[ 后端篇 ] 08 - AWS DynamoDB batchGet() API 返回 Error

意思是 : 如您请求超过100个项目,BatchGetItem将返回ValidationException,并显示消息“Too many items requested for the BatchGetItem call”。

2019-04-22
0