最新 最热

南理工&上海AI Lab提出Uniform Masking,为基于金字塔结构的视觉Transformer进行MAE预训练!

本篇文章分享论文『Uniform Masking: Enabling MAE Pre-training for Pyramid-based Vision Transformers with Locality』,南理工&上海AI Lab提出Uniform Masking,为基于金字塔结构的视觉Transformer进行M......

2022-09-01
2

Tensorflow入门教程(五十一)——H2NF-Net

今天将分享Unet的改进模型H2NF-Net,改进模型来自2020年的论文《H2NF-Net for Brain Tumor Segmentation using Multimodal MR Imaging: 2nd Place Solution to BraTS Challenge 2020 Segmentation......

2022-08-20
2

CVPR 2022 | 提高小数据集利用效率,复旦等提出分层级联ViT网络

机器之心专栏戈维峰 复旦大学来自复旦大学、上海市智能信息处理重点实验室和香港大学的研究者提出了一种基于 DINO 知识蒸馏架构的分层级联 Transformer (HCTransformer) 网络。小样本学习是指从非常少量的标记数据中...

2022-07-18
1

Swin-Unet最强分割网络

Swin-Unet是基于Swin Transformer为基础(可参考Swin Transformer介绍 ),结合了U-Net网络的特点(可参考Tensorflow深度学习算法整理(三) 中的U-Net)组合而成的新的分割网络...

2022-06-12
1

进行计量经济学方法与技术“观察”EViews安装。

10、点击[I accept the terms of the license agreement]

2022-05-28
2

zabbix 安装显示插件graphtree

yum install -y patch cd /usr/local/nginx/html/zabbix wget https://raw.githubusercontent.com/OneOaaS/graphtrees/master/graphtree3.2.x.patch patch -Np0 < graph...

2022-05-19
1

技巧:Kuberntes 中无法删除 PV 的解决方法

系统内有一个已经不再使用的 PV ,已经删除了与其关联的 Pod 及 PVC ,并对其执行了删除命令,但是无法正常删除,一直出于如下状态:

2022-05-06
1

引入特征空间,显著降低计算量:双边局部注意力ViT性能媲美全局注意力

机器之心专栏 作者:马昊宇 在这项研究中,来自百度研究院和香港大学的研究者重新思考了局部自注意力机制,提出了特征空间局部注意力(feature-space local attention或简称FSLA)。 Vision Transformer 舍弃了 ConvNet 先验...

2022-04-28
2

大厂经验:利用好组件库,可以加快产品迭代

1、组件库的概念和作用2、基础组件库3、业务组件库4、利用工具自动化生产页面

2022-04-01
1

Facebook AI&牛津提出带“轨迹注意力”的Video Transformer,在视频动作识别任务中性能SOTA!

在视频Transformer中,时间维度通常与两个空间维度(W和H)的处理方式相同。然而,在对象或摄影机可以移动的场景中,在第t帧中的一个位置处的物体可能与在第t+k帧中的该位置的内容完全无关。因此,应该对这些时间相关性对应进行...

2022-03-30
1