传统使用opencv自带的swapaxes进行转换,然后使用pytorch的from_numpy转为tensor
例如:
img = img.swapaxes(1,2).swapaxes(0,1)
但是有一个常用的图像增广模块albumentations模块中的img_to_tensor进行直接转换
注意:我这里使用unsqueeze是为了验证模型的输出,如果使用pytorch的dataset则不需要使用这个操作
补充知识:pytorch只用中要注意通道问题
cv读进来的是BGR图像,通道是hcw,在torch中使用要注意维度转换
代码语言:javascript复制def __getitem__(self, idx):
'''Load image.
Args:
idx: (int) image index.
img_org = Image.open(self.root_src 'reference_cutBlock' fname_org)
Returns:
img: (tensor) image tensor.
loc_targets: (tensor) location targets.
cls_targets: (tensor) class label targets.
'''
# Load image
fname_org = self.fnames[idx]
img_org = cv2.imread(self.root_src 'dn_dataset/' fname_org)
# img_org = np.asarray(img_org)
coin = np.random.randint(0, 50)
img_dis = skimage.util.random_noise(img_org, mode='gaussian', seed=None,
var=(coin / 255.0) ** 2) # add gaussian noise
# img_dis = img_dis[:, :, (2, 1, 0)] # bgr012 to rgb210
img_dis = img_dis.transpose([2, 0, 1]) # hwc to chw
img_dis = img_dis[(2, 1, 0), :, :] # bgr012 to rgb210
img_org = img_org[:, :, (2, 1, 0)]/255.0 # bgr012 to rgb210
img_org = img_org.transpose([2, 0, 1]) # hwc to chw
img_dis = torch.from_numpy(img_dis).float()
img_org = torch.from_numpy(img_org).float()
# fname_org_dis = self.fnames_dis[idx]
# img_dis = Image.open(self.root_src 'distorted_train_block/' fname_org_dis)
# if img_org.mode != 'RGB':
# img_org = img_org.convert('RGB')
#
# if img_dis.mode != 'RGB':
# img_dis = img_dis.convert('RGB')
# img_org = self.transform(img_org)
# img_dis = self.transform(img_dis)
return img_dis, img_org
transforms.ToTensor() 有两层含义,一个是转化成Tensor,另一个是进行归一化,此段代码,没有采用此语句,而是分两步完成,因为img_dis,已经实现归一化。
以上这篇Pytorch 使用opnecv读入图像由HWC转为BCHW格式方式就是小编分享给大家的全部内容了,希望能给大家一个参考。