最新 最热

如何让Transformer在GPU上跑得更快?快手:需要GPU底层优化

从 Google 在 2017 年发表著名的「Attention is all you need」文章开始,Transformer 架构就开始攻占 AI 的多个领域:不仅成为自然语言处理(NLP)和语音等很多 AI 应用的默认核心架构,同时也成功跨界到计算机视觉方向,在超分...

2021-02-23
0

PushConsumer核心参数详解

默认AllocateMessageQueueAveragely,Rebalance(轮询)算法实现策略。

2021-02-23
0

02.改善深层神经网络:超参数调试、正则化以及优化 W3. 超参数调试、Batch Norm和程序框架

如果你使用均匀取值,应用从粗到细的搜索方法,取足够多的数值,最后也会得到不错的结果

2021-02-19
0

02.改善深层神经网络:超参数调试、正则化以及优化 W2.优化算法(作业:优化方法)

调好参数的 mini-batch 梯度下降,通常优于梯度下降或随机梯度下降(特别是当训练集很大时)

2021-02-19
0

02.改善深层神经网络:超参数调试、正则化以及优化 W2.优化算法

前面我们学过向量化可以较快的处理整个训练集的数据,如果样本非常的大,在进行下一次梯度下降之前,你必须完成前一次的梯度下降。如果我们能先处理一部分数据,算法速度会更快。...

2021-02-19
0

图解分析:Kafka 生产者客户端工作原理

消息在真正发往 Kafka 之前,有可能需要经历拦截器、序列化器和分区器等一系列的作用,前面已经做了一系列分析。那么在此之后又会发生什么呢?先看一下生产者客户端的整体架构,如下图所示。...

2021-02-12
0

Kafka生产者哪些重要的参数是我们需要注意的?

在 KafkaProducer 中大部分的参数都有合理的默认值,一般不需要修改它们。不过了解这些参数可以让我们更合理地使用生产者客户端,其中还有一些重要的参数涉及程序的可用性和性能,如果能够熟练掌握它们,也可以让我们在编写...

2021-02-08
0

聊聊cortex的Distributor

cortex的Distributor提供了Push、Query方法;Push方法会通过d.ingestersRing.ShuffleShard确定subRing;之后通过ring.DoBatch提交keys;Query方法通过d.GetIngestersForQuery获取replicationSet,再通过d.que......

2021-02-08
0

Meta-Transfer Learning for Few-Shot Learning:元迁移学习的小样本学习

元学习(meta-learning)是目前广泛使用的处理小样本学习问题的方法,它的目的是在学习不同任务的过程中积累经验,从而使得模型能够快速适应新任务。比如在MAML(Model-Agnostic Meta- Learning)中,通过搜寻最优初始化状态,使...

2021-02-04
1

Logstash 篇之入门与运行机制

1、Logstash是一个数据收集引擎,相当于是ETL工具。截图来源慕课,尊重版本从你我做起。

2021-02-04
0