最新 最热

Nat Mach Intel|用语言模型进行可控的蛋白质设计

蛋白质是生命的通用组成部分,几乎在每个细胞过程中都发挥至关重要的作用。为特定目的设计新型蛋白质的能力有助于解决许多医疗挑战。

2022-11-16
0

用AI提高审查效率,FDA开发决策支持软件工具,发现见解、做出预测、生成建议

2022年6月28日,FDA官网发布文章,介绍了药物评估和研究中心监测和流行病学办公室开发的信息可视化平台 InfoViP。

2022-11-16
0

用AI自动撰写临床试验报告,赛诺菲与Yseop扩大合作

2022年6月16日,世界领先的人工智能软件公司和自然语言处理先驱Yseop宣布,赛诺菲已选择与Yseop一起扩大其自然语言生成能力。赛诺菲将利用该平台加速其临床研究的提交过程,并将新疗法更快地带给患者。...

2022-11-16
0

别再用XShell了!这款终端工具绝对惊艳,超级智能,太香了!

前言 平常工作需要频繁使用终端工具,有一个好的命令行终端工具是非常重要的。 尤其是使用mac的小伙伴,估计不少人都觉得iterm2才是最好的终端工具。 其实起初我也是这么觉得的,但是最近直到我使用了这款开源的终端工具,我...

2022-11-14
0

基于统一结构生成的网安信息抽取研究

信息抽取 (Information Extraction,IE)是将文本里的非结构信息转化成结构化信息的过程。在网安领域,IE技术可以从纷杂的文章、博客和评论中抽取与网安相关的网络威胁信息,该技术对实现情报交换、舆情分析、热度预测、知识...

2022-11-14
1

知识蒸馏相关技术【模型蒸馏、数据蒸馏】以ERNIE-Tiny为例

基于ERNIE预训练模型效果上达到业界领先,但是由于模型比较大,预测性能可能无法满足上线需求。

2022-11-14
1

使用“BERT”作为编码器和解码器(BERT2BERT)来改进Seq2Seq文本摘要模型

BERT是一个著名的、强大的预先训练的“编码器”模型。让我们看看如何使用它作为“解码器”来形成编码器-解码器架构。

2022-11-11
0

使用 CLIP 对没有标记的图像进行零样本无监督分类

深度图像分类模型通常以监督方式在大型带注释数据集上进行训练。随着更多带注释的数据加入到训练中,模型的性能会提高,但用于监督学习的大规模数据集的标注成本时非常高的,需要专家注释者花费大量时间。为了解决这个问题...

2022-11-11
1

5个时间序列预测的深度学习模型对比总结:从模拟统计模型到可以预训练的无监督模型

时间序列预测在最近两年内发生了巨大的变化,尤其是在kaiming的MAE出现以后,现在时间序列的模型也可以用类似MAE的方法进行无监督的预训练

2022-11-11
0

代码的表示学习:CodeBERT及其他相关模型介绍

CodeBERT是微软在2020年开发的BERT模型的扩展。它是一个用于编程语言(PL)和自然语言(NL)的双峰预训练模型,可以执行下游的(NL-PL)任务,这个模型使用6种编程语言(Python, Java, JavaScript, PHP, Ruby, Go)进行NL-PL的匹...

2022-11-11
0