最新 最热

RoBERTa概述

其实到2020年了,很多论文早已不再使用NSP任务,但是RoBERTa算是比较早的一批质疑NSP任务的模型。RoBERTa实验了4种方法:

2020-11-03
0

第07期:故障排查-为什么发出的告警为已解决?

测试环境中出现了一个异常的告警现象:一条告警通过 Thanos Ruler 的 HTTP 接口观察到持续处于 active 状态,但是从 AlertManager 这边看这条告警为已解决状态。...

2020-11-03
0

使用tensorflow框架在Colab上跑通猫狗识别代码

有Google账号(具体怎么注册账号这里不详述,大家都懂的,自行百度)在你的Google邮箱中关联好colab(怎样在Google邮箱中使用colab在此不详述,自行百度)...

2020-11-02
0

Tensorflow tf.tile()的用法实例分析

如果现有一个形状如[width, height]的张量,需要得到一个基于原张量的,形状如[batch_size,width,height]的张量,其中每一个batch的内容都和原张量一模一样。tf.tile使用方法如:...

2020-11-02
0

keras自定义回调函数查看训练的loss和accuracy方式

keras是一个十分便捷的开发框架,为了更好的追踪网络训练过程中的损失函数loss和准确率accuracy,我们有几种处理方式,第一种是直接通过 history=model.fit(),来返回一个history对象,通过这个对象可以访问到训练过程训练集的...

2020-11-02
1

使用tensorflow实现VGG网络,训练mnist数据集方式

VGG作为流行的几个模型之一,训练图形数据效果不错,在mnist数据集是常用的入门集数据,VGG层数非常多,如果严格按照规范来实现,并用来训练mnist数据集,会出现各种问题,如,经过16层卷积后,28*28*1的图片几乎无法进行。...

2020-11-02
0

keras 自定义loss损失函数,sample在loss上的加权和metric详解

1. loss是整体网络进行优化的目标, 是需要参与到优化运算,更新权值W的过程的

2020-11-02
1

Pytorch使用PIL和Numpy将单张图片转为Pytorch张量方式

1、mxnet 的batch ,设置的是单卡的,多卡是 batch*多卡,多一张卡,速度可以提升一倍

2020-11-02
0

opencv-python的RGB与BGR互转方式

caffe底层的图像处理是基于opencv,其使用的颜色通道顺序与也是BGR(Blue-Green-Red),而日常图片存储时颜色通道顺序是RGB。

2020-11-02
0

tensorflow dataset.shuffle、dataset.batch、dataset.repeat顺序区别详解

解释:相当于把所有数据先打乱,然后打包成batch输出,整体数据重复2个epoch

2020-11-02
0