TN-SCUI2020挑战赛——基于注意力机制改进的Vnet2d分割网络

2020-07-28 11:35:40 浏览数 (2)

今天将分享甲状腺超声结节二值分割的改进模型,为了方便大家学习理解整个流程,将整个流程步骤进行了整理,并给出详细的步骤结果。感兴趣的朋友赶紧动手试一试吧。

一、超声图像分析与预处理

(1)、3644张超声结节原始数据和标注数据及训练标签文件可以在官网上下载获取到,下载下来后如下所示。测试数据一共有910张数据,目前也可以在官网上下载了。

(2)、由于原始数据大小不一样,这里对图像做统一大小设置,都设置成512x512的大小。

(3)、使用全部的3644例数据来训练,为了增加模型鲁棒性,可以对原始数据做数据增强处理,但是在这里就不做数据增强操作了,直接在原始数据量上进行分割和分类。

(4)、原始图像和金标准Mask图像的预处理还需要做归一化操作,统一都归一化到(0,1)。

二、AGVNet2d分割网络

(1)、搭建AG模块,如下图所示。整个过程很简单,首先分别对上采样信号和编码器特征进行卷积计算,然后将两者结果进行逐元素相加,再经过relu激活函数,再经过1x1的卷积计算和sigmoid激活函数产生AG系数,最后在与编码器特征进行相乘,得到最终AG结果。

代码实现如下:

代码语言:javascript复制
def AGModel(x, signal, kernalshape, phase, height=None, width=None, scope=None):
    with tf.name_scope(scope):
        # attention input
        Wg = weight_xavier_init(shape=kernalshape, n_inputs=kernalshape[0] * kernalshape[1] * kernalshape[2],
                                n_outputs=kernalshape[-1], activefunction='relu', variable_name=str(scope)   'Wg')
        Bg = bias_variable([kernalshape[-1]], variable_name=str(scope)   'Bg')
        convg = conv2d(signal, Wg)   Bg
        convg = normalizationlayer(convg, phase, height=height, width=width, norm_type='group',
                                   scope=str(scope)   'normg')
        # input
        Wf = weight_xavier_init(shape=kernalshape, n_inputs=kernalshape[0] * kernalshape[1] * kernalshape[2],
                                n_outputs=kernalshape[-1], activefunction='relu', variable_name=str(scope)   'Wf')
        Bf = bias_variable([kernalshape[-1]], variable_name=str(scope)   'Bf')
        convf = conv2d(x, Wf)   Bf
        convf = normalizationlayer(convf, phase, height=height, width=width, norm_type='group',
                                   scope=str(scope)   'normf')
        # add input and attention input
        convadd = resnet_Add(x1=convg, x2=convf)
        convadd = tf.nn.relu(convadd)

        # generate attention gat coe
        attencoekernalshape = (1, 1, kernalshape[-1], 1)
        Wpsi = weight_xavier_init(shape=attencoekernalshape,
                                  n_inputs=attencoekernalshape[0] * attencoekernalshape[1] * attencoekernalshape[2],
                                  n_outputs=attencoekernalshape[-1], activefunction='sigomd',
                                  variable_name=str(scope)   'Wpsi')
        Bpsi = bias_variable([attencoekernalshape[-1]], variable_name=str(scope)   'Bpsi')
        convpsi = conv2d(convadd, Wpsi)   Bpsi
        convpsi = normalizationlayer(convpsi, phase, height=height, width=width, norm_type='group',
                                     scope=str(scope)   'normpsi')
        convpsi = tf.nn.sigmoid(convpsi)
        # generate attention gat coe
        attengatx = tf.multiply(x, convpsi)
        return attengatx

(2)、搭建AGVNet2d模型,网络输入大小是(512,512),主要是对原始的跳跃连接进行改进,原先是将编码器的输出与上采样的输出直接进行拼接,作为解码器的输入,改进的地方首先是将编码器的输出与上采样的输出输入到AG模块中,然后将产生的AG结果与上采样的输出进行拼接,作为解码器的输入。

(2)、loss采用的是二分类的dice函数。

代码实现如下:

代码语言:javascript复制
def __get_cost(self, cost_name, Y_gt, Y_pred):
H, W, C = Y_gt.get_shape().as_list()[1:]
if cost_name == <span data-raw-text="" "="" data-textnode-index="27" data-index="547" class="character">"dice coefficient<span data-raw-text="" "="" data-textnode-index="27" data-index="564" class="character">":
smooth = 1e-5
pred_flat = tf.reshape(Y_pred, [-1, H * W * C])
true_flat = tf.reshape(Y_gt, [-1, H * W * C])
intersection = 2 * tf.reduce_sum(pred_flat * true_flat, axis=1)   smooth
denominator = tf.reduce_sum(pred_flat, axis=1)   tf.reduce_sum(true_flat, axis=1)   smooth
loss = -tf.reduce_mean(intersection / denominator)
return loss

具体实现可以参考Tensorflow入门教程(三十四)——常用两类图像分割损失函数。

(3)、分割损失结果和精度经过如下图所示。

为了方便大家更高效地学习,我将代码进行了整理并更新到github上,点击原文链接即可访问。此外训练好的模型文件已经上传至百度云盘:链接:https://pan.baidu.com/s/15E-RvaqSLdDMBCUZoGTrDA

提取码:hszn。

如果大家觉得这个项目还不错,希望大家给个Star并Fork,可以让更多的人学习。

0 人点赞