最新 最热

开源语言大模型演进史:早期革新

尽管业内最初强调专有模型,但随着GPT-3等流行语言模型的发布,LLM研究社区开始发布相关开源变体。最早的开源语言模型在性能上落后于最佳的专有模型,不过,它们为提升LLM的研究透明度奠定了基础,并促进了后续LLaMA-2等强大模...

2023-11-01
1

Kafka - 3.x 消费者 生产经验不完全指北

Kafka引入了消费者事务(Consumer Transactions)来确保在消息处理期间维护端到端的数据一致性。这使得消费者能够以事务的方式处理消息,包括从Kafka中读取消息、处理消息和提交消息的offset。以下是有关Kafka消费者事务的...

2023-11-01
1

ICCV2023 |FBANet:迈向真实世界的多帧超分

本文介绍的是我们在 ICCV2023 的工作Towards Real-world Burst Image Super-Resolution: Benchmark and Method。

2023-11-01
1

CTNet:西工大、哈工大、中南大学和台湾清华大学一种交叉 Transformer 的图像去噪方法

深度卷积神经网络 (Convolutional Neural Networks, CNNs) 依赖前向传播和反向传播获得显著的图像去噪性能。但如何通过 CNNs 获取有效的结构信息解决复杂场景的图像去噪问题是关键。作者们提出了一种交叉 Transforme...

2023-11-01
1

为什么 React.js 中函数比类更好

在不断发展的web开发世界中,React.js 已成为构建用户界面的强大而流行的库。虽然 React 允许开发人员使用函数和类来创建组件,但近年来函数的使用越来越突出。在本文中,我们将探讨为什么在 React.js 开发中函数被认为优...

2023-11-01
1

秒杀千亿级模型!微软 | 提出代码扩散预训练模型:CODEFUSION,参数仅有75M

扩散模型(Diffusion Models)在图像生成方面表现出了卓越的性能。今天给大家分享的这篇文章,微软研究人员将扩散模型(Diffusion Models)应用到了代码生成领域,提出了CODEFUSION架构,实验结果表明CODEFUSION-75M效果超过了...

2023-10-31
1

替代Transformer!斯坦福提出新架构:Monarch Mixer,无需Attention,性能更强~

本文探索了 Monarch Mixer (M2) ,这是一种在序列长度和模型维度上都是次二次的新架构,并且在现代加速器上具有很高的硬件效率。

2023-10-31
1

Google DeepMind:谁说卷积网络不如ViT?

深度学习的早期成功可归功于卷积神经网络(ConvNets)的发展。近十年来,ConvNets 主导了计算机视觉基准测试。然而近年来,它们越来越多地被 ViTs(Vision Transformers)所取代。...

2023-10-31
1

PNAS | 基于结构感知图卷积网络预测蛋白酶特异性功能

今天为大家介绍的是来自Sagar D. Khare团队的一篇论文。酶具有精确和选择性地读取、编写和编辑DNA的能力,已经彻底改变了生物化学科学和技术。如果能够获得类似的酶,用于有选择性地“编辑”蛋白质,将产生广泛的影响。...

2023-10-31
1

Nat. Commun. | 利用 HDRNet 对不同细胞条件下的蛋白质-RNA 相互作用进行动态表征和解释

本文介绍吉林大学李向涛教授课题组发表在Nature Communications的研究成果,题为“Dynamic characterization and interpretation for protein-RNA interactions across diverse cellular conditions usi......

2023-10-31
1