最新 最热

北京大学提出 PTQ4ViT | 双均匀量化+Hessian引导度量,推进Transformer模型落地

自注意力模块是Transformer的基本构建块,用于捕捉全局信息。受到Transformer在自然语言处理(NLP)任务上的成功启发,研究人员将自注意力模块引入了计算机视觉。他们用自注意力模块替代了卷积神经网络(CNNs)中的卷积层,将这些...

2023-11-01
0

USE方法:系统性能分析第一步

当你登陆到一台可能有性能问题的服务器上,你会/应该做什么?又该如何去进行初步的性能分析?

2023-11-01
0

ADC重要的信噪比公式是怎么来的?

其中N是ADC的位数,比如对于一个10bit的ADC,N=10,当ADC采集一个满量程的正弦波时,那么信噪比SNR=6.02*10+1.76=61.96dB,那么这个公式是怎么来的呢?

2023-10-30
1

探究信任的本质:麦肯锡的信任公式

信任是人际关系的基石,无论是在个人关系还是职场合作中,信任的建立都是成功的关键。麦肯锡公司(McKinsey)提出了一个信任公式,试图解释和量化信任的构成,从而为个人和组织提供了理解和建立信任的框架。...

2023-10-30
0

那些年踩过的坑!大型语言模型(LLM) Fine-Tuning 经验之谈...(干货)

由于 ChatGPT 和 GPT4 兴起,如何让人人都用上这种大模型,是目前 AI 领域最活跃的事情。当下开源的 LLM(Large language model)非常多,可谓是百模大战。面对诸多开源本地模型,根据自己的需求,选择适合自己的基座模型和参数量...

2023-10-27
0

实现一个h264编码器前期准备

H264是新一代的编码标准,以高压缩高质量和支持多种网络的流媒体传输著称,在编码方面,我理解的他的理论依据是:参照一段时间内图像的统计结果表明,在相邻几幅图像画面中,一般有差别的像素只有10%以内的点,亮度差值变化不超过...

2023-10-25
0

用这个开源项目,我的GPU 竟然也能运行Llama2

对于这一问题,很多人都难以给出确切的回答,不知该如何计算 GPU 内存。因为查看 GPU 可以处理哪些 LLM 并不像查看模型大小那么容易,在推理期间(KV 缓存)模型会占用大量内存,例如,llama-2-7b 的序列长度为 1000,需要 1GB 的额...

2023-10-24
1

使用kBET检测批次效应

以往的推文中我们没有对批次效应有个量化的概念,往往是画个PCA或者单细胞中做个UMAP、tSNE肉眼看看,上周组会我注意到师兄讲文献提到了这个(使用kBET检测批次效应)方法但没有解释,刚好我就自己学习学习,这周周更补全我们这...

2023-10-24
0

SEED:在大语言模型中播下一颗视觉的"种子"

近年来,在海量文本语料库上进行预训练的大语言模型已趋于成熟,表现出在理解、推理和生成各种开放式文本任务上的卓越能力。最近的研究聚焦于进一步利用大语言模型的强大通用性来提升视觉理解和视觉生成任务的效果,统称为...

2023-10-24
0

你的GPU能跑Llama 2等大模型吗?用这个开源项目上手测一测

对于这一问题,很多人都难以给出确切的回答,不知该如何计算 GPU 内存。因为查看 GPU 可以处理哪些 LLM 并不像查看模型大小那么容易,在推理期间(KV 缓存)模型会占用大量内存,例如,llama-2-7b 的序列长度为 1000,需要 1GB 的额...

2023-10-24
1