最新 最热

从少数示例中泛化:介绍小样本学习(Few-shot Learning,FSL)

论文题目:Generalizing from a Few Examples: A Survey on Few-shot Learning(ACM Computing Surveys,中科院 1 区)

2024-05-25
1

告诉我们事实:用知识图谱增强大语言模型以实现事实感知的语言建模

论文标题:Give Us the Facts: Enhancing Large Language Models with Knowledge Graphs for Fact-aware Language Modeling

2024-05-24
3

AI写作惊现黑马!Weaver Ultra碾压数倍体量LLM,竟在WriteBench超越GPT-4?人机协作新篇章已开启!

在AI写作的新纪元里,一个名为Weaver的大型语言模型系列正引领着创作潮流。凭借创新的数据合成与微调手法,Weaver不仅轻松击败了数倍体量的通用LLMs,更在严苛的WriteBench测试中独领风骚。这究竟是何方神圣?答案是——Weav...

2024-05-24
2

何恺明最新力作:一文解构扩散模型,l-DAE架构或将颠覆AI认知?

CV大神何恺明也进军扩散模型啦!这可是计算机视觉领域的一大新闻。何大神的最新研究成果刚刚发布在arXiv上,立刻就引起了广泛关注。他这次的研究可不是小打小闹,而是对扩散模型进行了深度解构,提出了一个超级简洁的新架构...

2024-05-24
2

GEE数据集——GLC_FCS30D - 全球 30 米土地覆被变化数据集(1985-2022 年)

注 本数据集是正在提交的论文的一部分,因此没有引用和 DOI 信息。请在使用本数据集时注意这一点。

2024-05-24
1

跟着Nature学数据分析:minimap2+DeepVariant流程利用hifi数据检测snp和indel

https://github.com/YaoZhou89/TGG/tree/main/4.Graph_pangenome/1.construction_graph_genome

2024-05-18
3

Gradformer: 通过图结构归纳偏差提升自注意力机制的图Transformer

这是4月刚刚发布在arxiv上的论文,介绍了一种名为“Gradformer”的新型图Transformer,它在自注意力机制中引入了指数衰减掩码。以下是主要创新点:

2024-05-10
1

R语言做基因表达量和变异位点的关联分析eQTL

http://www.bios.unc.edu/research/genomic_software/Matrix_eQTL/runit.html

2024-05-09
2

【论文 | Latex】ACM Latex 模版中 documentclass[acmsmall,nonacm]{acmart} 中参数有哪一些?分别什么作用?

要使用 ACM 提供的模版格式,但不想直接将 ACM 中的版权内容显示在脚注部分。

2024-05-07
5

GEE数据集——全球冰川海拔变化产品(2000-2019 年)

该数据集提供了 2000 年至 2019 年期间冰川海拔和质量变化的全面且全球一致的记录。它利用大量卫星图像(主要来自美国国家航空航天局(NASA)的高级星载热发射和反射辐射计(ASTER))和先进的处理技术,提供了全球冰川波动的高分...

2024-05-07
1