超级计算机深度学习研讨会已经发出了征文的呼吁。该活动将于6月25日在德国法兰克福举行,作为ISC 2020的一部分。
《超级计算机深度学习》是“超级计算机深度学习”系列的第四期专题讲座。研讨会为在高性能计算(HPC)环境下从事DL科学研究的任何和所有方面的从业者提供了一个论坛,以展示他们的最新研究成果和开发、部署和应用经验。这个系列研讨会的主题是DL和HPC的交叉,而这个特别研讨会的主题是围绕深度学习方法在科学研究中的应用:深度学习方法的新用途,例如卷积神经网络(CNN)、递归神经网络(RNN)、生成对抗网络(GAN)和强化学习(RL),用于自然和社会科学研究,以及深度学习在传统数值模拟中的创新应用。它的范围包括使用高性能计算平台的科学场景中的应用程序开发;DL方法在数值模拟中的应用基本算法、增强程序和软件开发方法,以支持可伸缩的培训和推理;硬件变化对未来超级计算机设计的影响;强调科学使用的DL应用程序的机器部署、性能评估和可再现性实践。
主题包括但不限于:
- DL作为一种新的科学计算方法
- DL方法驱动的新兴科学应用
- DL与传统数值模拟之间的新型交互作用
- DL方法在科学研究中的有效性和局限性
- 算法和程序,以提高重复性的科学DL应用
- DL用于科学工作流程
- 通过科学DL应用的生命周期进行数据管理
- 高效和可扩展的DL培训的通用算法和程序
- 可扩展的DL方法来解决科学应用的挑战
- 为科学用例服务的大规模模型的通用算法和系统
- 新的软件,对现有软件的增强,可扩展的DL
- 大规模DL通信优化
- 大规模DL的I/O优化
- 部署系统的DL性能评估和分析
- 超级计算机上DL的性能建模和调优
- 超级计算机上的DL基准
- 新颖的硬件设计,更高效的DL
- 在HPC环境中,处理器、加速器、内存层次结构、互联变化对深度学习的影响
作为可再现性计划的一部分,研讨会要求作者提供所使用的算法、软件版本、数据集和硬件配置等信息。对于性能评估研究,我们将鼓励作者使用开放可访问数据集的知名基准或应用程序:例如,使用ImageNet-1K数据集的MLPerf和ResNet-50。
点击阅读原文,了解征文具体信息