最新 最热

LLM推理技术之StreamingLLM:如何拥有无限长生成能力

MIT,Meta AI,CMU的研究人员最近提出了一种StreamingLLM,声称可以使得经过有限序列长度训练的大型语言模型能够在无需任何微调的情况下,推广到无限序列长度的输入和输出。 不过这里值得强调的是,这个方法并没有增加LLM的对...

2023-10-25
1

招银网络 一面

Java多态是指同一个方法名可以被不同的对象调用,并且根据对象的不同,会自动选择合适的方法进行调用。多态是面向对象编程的重要特性之一。

2023-10-25
1

掌握这些套路,你也能顺利解决并发问题

小菜开发的统计调用商品详情接口次数的功能代码存在严重的线程安全问题,会导致统计出来的结果数据远远低于预期结果,这个问题困扰了小菜很长时间,经过老王的耐心讲解,小菜已经明白了出现线程安全问题的原因。但是,作为211...

2023-10-25
1

2023 年 10 月绿色软件来了

按下空格键,QuickLook可快速预览文件内容https://github.com/QL-Win/QuickLook

2023-10-24
1

用这个开源项目,我的GPU 竟然也能运行Llama2

对于这一问题,很多人都难以给出确切的回答,不知该如何计算 GPU 内存。因为查看 GPU 可以处理哪些 LLM 并不像查看模型大小那么容易,在推理期间(KV 缓存)模型会占用大量内存,例如,llama-2-7b 的序列长度为 1000,需要 1GB 的额...

2023-10-24
1

Java 近期新闻:外部函数和内存 API、OpenJDK JEP、Apache Tomcat CVE

在结束了评审之后,JEP 454(外部函数和内存 API)从 Proposed to Target 进入到了 Targeted(JDK 22)状态。该 JEP 建议在经历了两轮孵化和三轮预览之后确定这个特性:在 JDK 17 中交付的 JEP 412(外部函数和内存 API(孵化器))、...

2023-10-24
1

【Redis】Redis 删除策略

Redis中的数据特征:  Redis是一种内存级数据库,所有数据均存放在内存中,内存中的数据可以通过TTL指令获取其状态

2023-10-24
1

【面试题精讲】MySQL-查询缓存

查询缓存是一种数据库性能优化技术,它允许数据库系统缓存已经执行过的查询结果,以便在后续相同的查询请求中直接返回缓存的结果,而不必再次执行相同的查询。...

2023-10-24
1

你的GPU能跑Llama 2等大模型吗?用这个开源项目上手测一测

对于这一问题,很多人都难以给出确切的回答,不知该如何计算 GPU 内存。因为查看 GPU 可以处理哪些 LLM 并不像查看模型大小那么容易,在推理期间(KV 缓存)模型会占用大量内存,例如,llama-2-7b 的序列长度为 1000,需要 1GB 的额...

2023-10-24
1

在RTX 4090被限制的时代下,让大模型使用RLHF更高效的方法来了

今年,以 ChatGPT 为首的大语言模型(Large Language Models, LLMs) 在各个方面大放光彩,由此引发了学术界和商业界对 GPU 等计算资源的需求剧增。

2023-10-24
1