最新 最热

KDD2023 | 面向推荐系统的自适应图对比学习

TLDR: 本文提出了一种新的用于推荐的自适应图对比学习范式,通过两种不同的自适应对比视图生成器来实施数据增强,以此提升协同过滤的效果。作者分别使用图生成模型和图去噪模型作为可训练的对比视图生成器,以此引入额外的...

2023-10-25
1

220亿晶体管,IBM机器学习专用处理器NorthPole,能效25倍提升

随着 AI 系统的飞速发展,其能源需求也在不断增加。训练新系统需要大量的数据集和处理器时间,因此能耗极高。在某些情况下,执行一些训练好的系统,智能手机就能轻松胜任。但是,执行的次数太多,能耗也会增加。...

2023-10-24
0

SGD 的光辉,带来深度学习的意义

7月份,纽约大学(NYU)博士后Naomi Saphra撰写了一篇题为“Interpretability Creationism”,从进化论的角度解释了随机梯度下降(SGD)与深度学习之间的关系,解读视角发人深思。...

2023-10-24
0

ICCV 2023 | NeRF 提点的 Magic Loss —— S3IM 随机结构相似性

本文介绍一下我组在 ICCV2023 的论文S3IM: Stochastic Structural SIMilarity and Its Unreasonable Effectiveness for Neural Fields。

2023-10-23
0

香港科技大学校董会主席、美国国家工程院外籍院士沈向洋:未来世界将由人工智能体和人类共同打造

10月19日至20日,由工业和信息化部、江西省人民政府主办的2023世界VR产业大会在江西南昌召开。香港科技大学校董会主席、美国国家工程院外籍院士沈向洋出席本次大会,并在10月19日上午举行的开幕演讲中表示,相信未来,将会在...

2023-10-23
1

图神经网络性能提升方法综述

图神经网络(GNN)是深度学习领域的一个重要模型,已广泛应用于推荐系统、计算机视觉、自然语言处理、分子分析、数据挖掘和异常检测等现实场景。GNN在从图形数据中学习方面表现出优越的能力,其变体已被广泛应用。...

2023-10-23
0

下一代深度学习的思考

背景:焦李成院士受邀在“一带一路”人工智能大会上做了主旨报告(文末可下载),探讨了下一代深度学习的思考与若干问题

2023-10-23
0

小白看得懂的图解Transformer

Trasnformer可以说是完全基于自注意力机制的一个深度学习模型,因为它适用于并行化计算,和它本身模型的复杂程度导致它在精度和性能上都要高于之前流行的RNN循环神经网络...

2023-10-23
0

前馈神经网络解密:深入理解人工智能的基石

前馈神经网络(Feedforward Neural Network, FNN)是神经网络中最基本和经典的一种结构,它在许多实际应用场景中有着广泛的使用。在本节中,我们将深入探讨FNN的基本概念、工作原理、应用场景以及优缺点。...

2023-10-21
0

解码Transformer:自注意力机制与编解码器机制详述与代码实现

Transformer的出现标志着自然语言处理领域的一个里程碑。以下将从技术挑战、自注意力机制的兴起,以及Transformer对整个领域的影响三个方面来全面阐述其背景。...

2023-10-21
0