最新 最热

ImageNet准确率超过90%!谷歌大脑开源V-MoE,用稀疏条件计算来训练目前最大的视觉模型!(NeurIPS 2021)

稀疏的专家混合网络 (Sparsely-gated Mixture of Experts networks (MoEs)) 在自然语言处理中显示出出色的可扩展性。然而,在计算机视觉中,几乎所有SOTA网络都是 “密集的”,也就是说,对于每个输入,每个参数都要参与计算 ...

2022-03-23
0

CPT:刷爆少样本REC任务!清华刘知远团队提出跨模态预训练Prompt Tuning

本文分享论文『CPT: Colorful Prompt Tuning for Pre-trained Vision-Language Models』,由清华刘知远团队提出跨模态预训练 Prompt Tuning(CPT)刷爆少样本REC任务!

2022-03-23
0

Salesforce LWC学习(三十八) lwc下如何更新超过1万的数据

背景: 今天项目组小伙伴问了一个问题,如果更新数据超过1万条的情况下,有什么好的方式来实现呢?我们都知道一个transaction只能做10000条DML数据操作,那客户的操作的数据就是超过10000条的情况下,我们就只能搬出来salesforce...

2022-03-22
0

C# 逆变的具体应用场景

早期在学习泛型的协变与逆变时,网上的文章讲解、例子算是能看懂,但关于逆变的具体应用场景这方面的知识,我并没有深刻的认识。

2022-03-22
0

self-training | MICCAI2021 | BN层的source free的迁移

【前言】:Source-free的论文被拒之后,reviewer给出了很好的意见,并且给出了一些相关的论文。之前的文献整理阶段没有做完善,对比试验比较少,所以被拒是预期之内的。现在来好好整理一下白嫖的review的论文。...

2022-03-15
0

98.精读《react-easy-state 源码》

react-easy-state 是个比较有趣的库,利用 Proxy 创建了一个非常易用的全局数据流管理方式。

2022-03-14
0

35. 精读《dob - 框架实现》

本系列分三部曲:《框架实现》 《框架使用》 与 《跳出框架看哲学》,这三篇是我对数据流阶段性的总结,正好补充之前过时的文章。

2022-03-14
1

BatchNormalization

Batch Norm(Batch Normalization)是以进行时学习的 mini-batch 为单位,按 mini-batch 进行正规化(即就是进行使数据分布的均值为 0、方差为 1)。通过将这个处理插入到激活函数的前面(或者后面),可以减小数据分布的偏向。...

2022-03-11
0

Flink SQL流式聚合Mini-Batch优化原理浅析

流式聚合(streaming aggregation)是我们编写实时业务逻辑时非常常见的场景,当然也比较容易出现各种各样的性能问题。Flink SQL使得用户可以通过简单的聚合函数和GROUP BY子句实现流式聚合,同时也内置了一些优化机制来解决...

2022-03-11
0

采用姿态传感器信息的深度在线视频稳像

本文介绍我们最新发表在IEEE Transaction on Multimedia(TMM)的工作,采用姿态传感器信息的深度在线视频稳像。在该论文中,我们构建了含有7种典型拍摄场景的数据集。并且设计了一种自适应地滤波模型,仅使用3或者10帧的缓...

2022-03-08
0