最新 最热

《DRM 专栏》| 从应用程序谈起

声音越大的人不见得越有真本事,当然混沌社会使得声音大的人更易有存在感,但把时间拉长,对的错不了,错的也对不了。认识龙哥已有 2 年之久,他是很 nice 的一位技术大佬,很荣幸获其授权,在【人人都是极客】发表 DRM 的系列好文...

2022-06-10
1

苹果M2强大性能的背后,竟拿三年前双核酷睿i5作比较

机器之心报道编辑:杜伟在 PC 处理器的性能参数对比中,苹果也玩起了营销套路。6 月 7 日凌晨,苹果在 WWDC 大会上发布了用于 Mac、iPad 平台的第二代自研 PC 处理器 M2,在多线程 CPU 工作负载方面比上代性能提升约 18%,峰值...

2022-06-09
1

悄无声息,Google已禁止Colab上的Deepfake项目

有消息显示,Google已于近日悄悄禁止了其在 Colaboratory(Colab)服务上的深度伪造(Deepfake)项目,这代表以Deepfake为目的大规模利用平台资源的时代或已画上句号。...

2022-06-08
1

模拟整个地球:英伟达Earth-2超级计算机即将上线

「如何让我们的未来在今天就变成现实呢?答案就是模拟,」英伟达创始人、CEO 黄仁勋说道。

2022-06-07
1

tf.IneractiveSession

在交互式环境下(比如python脚本或者jupyter的编辑器下),通过设置默认会话的方式来获取张量的取值更加方便。所以tensorflow提供了一种在交互式环境下直接构建默认会话的函数。这个函数就是就是tf.IneractiveSession。...

2022-06-05
1

如何给自己设个简单好记但又超级安全的口令?

笔者在之前的公众号文章中《我为什么要使用弱口令?兼谈对用户口令的保护措施》提到,如果您不信任一个网站,就不要在它那里使用自己常用的高强度的口令。...

2022-06-02
1

[源码解析] 模型并行分布式训练 Megatron (4) --- 如何设置各种并行

NVIDIA Megatron 是一个基于 PyTorch 的分布式训练框架,用来训练超大Transformer语言模型,其通过综合应用了数据并行,Tensor并行和Pipeline并行来复现 GPT3,值得我们深入分析其背后机理。...

2022-05-09
1

[源码解析] 模型并行分布式训练Megatron (5) --Pipedream Flush

NVIDIA Megatron 是一个基于 PyTorch 的分布式训练框架,用来训练超大Transformer语言模型,其通过综合应用了数据并行,Tensor并行和Pipeline并行来复现 GPT3,值得我们深入分析其背后机理。本系列有 5 篇文章,通过论文和源码...

2022-05-09
1

第3章-图形处理单元-3.2-GPU管线概览

GPU实现了第2章中描述的概念:几何处理、光栅化和像素处理流水线阶段。这些阶段被分为几个具有不同程度的可配置性或可编程性的硬件阶段。图3.2显示了根据可编程或可配置程度对各个阶段进行颜色标识。请注意,这些物理阶...

2022-05-07
0