最新 最热

基于VGG16迁移学习给蔬菜水果分类

迁移学习是指在类似的数据集上使用训练好的算法,而无须从头开始训练。人类并不是通过从头分析成千上万个相似的图像来识别新的图形。

2022-06-07
0

笔记︱联邦学习与隐私计算的案例集锦(一)

Federated Learning - 联邦学习 参考文献: 小白也能通俗易懂的联邦学习! 关于联邦学习建模过程中算法交互内容的研究

2022-06-06
1

元学习——让机器学习学会学习

现代机器学习模型通常使用手工设计的特征和固定的学习算法,然后针对特定的任务从零开始进行训练,特别是在可以收集大量数据和可以使用大量计算资源的很多领域,深度学习都取得了巨大的成功。然而,还有一些任务,其数据本身是...

2022-06-06
1

微调大型语言模型示例:使用T5将自然语言转换成SQL语句

将自然语言转换为SQL语句已经不再遥不可及。NLP的进步使得我们不仅可以使用LLM(大型语言模型),还可以通过微调教授他们新的技能,这也被称为迁移学习。可以使用一个预先训练的模型作为起点,然后使用较小的标记数据集从而...

2022-06-04
0

5分钟NLP:Text-To-Text Transfer Transformer (T5)统一的文本到文本任务模型

本文将解释如下术语:T5,C4,Unified Text-to-Text Tasks

2022-06-04
0

图像预训练模型的起源解说和使用示例

三十多年来,许多研究人员在图像识别算法和图像数据方面积累了丰富的知识。如果你对图像训练感兴趣但不知道从哪里开始,这篇文章会是一个很好的开始。这篇文章简要介绍了过去的演变,并总结了现在的一些热门话题。...

2022-06-04
0

ICLR 2022 | 减少跨语言表示差异,字节跳动AI Lab通过流形混合增强跨语言迁移

机器之心发布字节跳动人工智能实验室、加利福尼亚大学圣塔芭芭拉分校字节跳动人工智能实验室和加利福尼亚大学圣塔芭芭拉分校的研究者提出了跨语言流形混合(X-Mixup)方法为目标语言提供 “折衷” 的表示,让模型自适应地...

2022-05-30
1

Nature子刊 | NUS、字节首次将AI元学习引入脑成像领域

近期,新加坡国立大学、字节跳动智能创作新加坡团队等机构合作的一项技术成果被全球顶级学术期刊Nature的子刊Nature Neuroscience收录。这项研究首次将人工智能领域的元学习方法引入到神经科学及医疗领域,能在有限的医...

2022-05-25
0

称霸Kaggle的九大深度学习炼丹技巧

差分学习率(Differential Learning rates)意味着在训练时变换网络层比提高网络深度更重要。

2022-05-23
0

一种深度学习方法---迁移学习了解下

迁移学习:遇到一个新问题,不是从头训练一个网络模型,而是在现有的预训练模型上,再次训练或者直接使用。

2022-05-22
0