01
图灵奖公布!计算机图形学先驱Hanrahan和Catmull获奖
ACM(国际计算机协会)本月18号宣布,授予 Patrick M. Hanrahan 和 Edwin E. Catmull 2019 年 ACM A.M. 图灵奖荣誉,以表彰他们对 3D 计算机图形学的贡献,以及这些技术对电影制作和计算机生成图像(CGI)等应用的革命性影响。
Edwin Catmull 是著名计算机科学家,皮克斯动画工作室联合创始人、前总裁;Patrick Hanrahan 是皮克斯动画工作室创始员工之一,同时也是斯坦福大学计算机图形学实验室教授。
Ed Catmull 和 Pat Hanrahan 通过概念创新以及对软件和硬件的贡献,从根本上影响了计算机图形学领域。他们的作品对电影制作产生了革命性的影响,从 25 年前的《玩具总动员》开始,一直延续到今天,形成了一种全新的电脑动画电影类型,并为当今 3D 动画电影铺平了道路。
ACM 同时宣布,2020 年 6 月 20 日星期六在加利福尼亚州旧金山举行的 ACM 年度颁奖宴会上,将正式为 Hanrahan 和 Catmull 颁发奖项,两位获奖者也将共同获得 100 万美元奖金。
从 20 世纪 90 年代开始,他和他的研究团队扩展了 RenderMan 着色语言,使其可以在更强大的 GPU 上实时工作。Hanrahan 和他的学生开发的 GPUs 编程语言,也引起了商业版本(包括 OpenGL 着色语言)的开发,并彻底改变了视频游戏的编写。特别一提的是,Hanrahan 和他的学生还开发了一种用于 GPU 的语言:Brook,并最终催生了 NVIDIA 的 CUDA。
信息来源:学术头条
02
第一家倒闭的无人驾驶卡车公司:伪AI真人工,融资1.5亿
Starsky Robotics,第一家拿掉安全员把自动驾驶卡车驶上路的公司,现在倒闭了。
创办4年,AI火热之时“应运而生”,很快融资1.5个亿,一度成为行业“明星”,各种榜单常客,甚至被彭博称为“承载美国就业的现在和未来”。
然而光环背后,他们干的却是挂羊头卖狗肉的伪AI——一家为自动驾驶而创办的公司,一半的员工却在从事传统的卡车运货工作,公司车队中39辆卡车,90%以上是传统货运卡车,只有3辆加装了自动驾驶传感器。
Starsky Robotics的创始人Stefan Seltz-Axmacher,90后,出生于1991年,非AI技术出身,最初在德雷塞尔大学学工商管理,非常会自我包装和营销。其90后创始人总结:技术突破还需烧钱,却融不到资了。
据TechCrunch报道,2019年,这家公司的车队中只有3辆是无人卡车,普通卡车则有36辆。有一半员工,都在运营由人类而非AI驱动的卡车运输服务。
2月底,货运行业媒体FreightWaves,从这家公司的前高级副总裁Paul Schlegel处打听到,这家公司大约有85%的工程师已经去Waymo、Cruise、图森等自动驾驶公司工作了,而这位曾经的高级副总裁自己,也在公司钱烧光的当月离开。
创始人认为Starsky Robotics的方向没错,但时机不对。首先,自动驾驶领域存在一个非常大的问题:有监督的机器学习并不像宣传中那么强大。他认为,自动驾驶领域AI能力的增长,呈现出S型增长趋势。换句话说,就是“当前任何技术都不太可能实现L3级别自动驾驶”。Stefan还“预测”,以L3为目标的公司至少还要再烧10年钱。
竞争对手中,图森于2019年5月与美国邮政(USPS)达成合作,为其提供无人驾驶运输服务,并在亚利桑那州凤凰城邮政服务中心和德克萨斯州达拉斯配送中心之间超过1600公里的运输线路上往返运输货物。
信息来源:量子位
03
百度加速人脸识别变革:戴口罩也能准确识别
在“刷脸时代”,戴口罩的人脸识别已然成为一个大问题。
传统的人脸识别算法,已经无法hold住这种大面积遮挡情况,主要难点有三:
- 一张口罩“封印”半张脸,直接丢失大量脸部特征;
- 短期内无法收集大量戴口罩人脸图像,算法训练难度大;
- 人脸识别系统包含检测、跟踪、识别等多个模块,对它们都会造成影响。
好消息是,AI工程师们逢山开路遇水搭桥,现在——戴口罩人脸识别——这座桥,已经搭好了,而且已经开放了。
在人脸识别的过程中,会提取面部大量的特征点,而这些特征点的分布并不都是均匀的。而且每个区域特征点所包含的信息量(用于身份认证)不同,例如,眼部区域就相比其他位置包含了更多的身份信息。
百度视觉就敏锐地观察到了这一点,找到了翻过这座大山的突破口。他们通过采用基于空间位置的注意力机制特征学习,让算法更加关注对眼部区域的特征学习。
基于空间位置的注意力机制特征学习
这样一来,就能将因为佩戴口罩、帽子等遮挡,所带来的信息丢失降到最低,也就能充分获取戴口罩人脸的身份信息。
特征可视化结果
算法有了,但数据不够用来训练,又该怎么办呢?
一个传统的办法,就是在现有的人脸图像上“贴”上口罩。
但这样处理后的实验效果并不明显,原因是在真实场景中,人脸姿态会有变化,并且不同场景采集的图像存在一定的差异性。
针对这个问题,百度视觉采用了基于人脸关键点的3D图像融合技术。
这样处理后,不仅解决了人脸姿态变化带来的口罩形变和遮挡问题,还生成了更加自然、真实的照片。
合成口罩图片
通过收集市面上各种颜色、大小和样式的口罩图片,与之前积累的未佩戴口罩人脸图片进行融合,快速合成了各种场景、海量真实的戴口罩训练照片。
最后一个是人脸识别系统各模块(环节)之间的问题。百度视觉对此做了一系列的优化。例如:
- 检测算法方面,采用了百度最新的PyramidBox-lite检测算法,并加入超过10万张口罩人脸数据训练,在准确率不变的情况下,召回率提升了30%,佩戴口罩的人脸检测准确率超99%以上。
- 口罩分类算法方面,基于人脸关键点网络,抽取了具有丰富面部语义信息的人脸特征表示,并基于该特征进行口罩遮挡判断,还通过PaddleSlim进行模型压缩,大小缩小了3倍多。
优化了识别效果之后,在佩戴口罩情况下人脸识别,准确率出奇的高,速度出奇的快!但单从理论上解决难题是不够的,应用到急需的场景中才是关键。其实,这项已经投入到了现实场景,在百度园区,员工上班戴着口罩就可以刷脸“入场”,解决了检测“戴口罩的是谁”的问题。
嗯,看来是可以愉快的戴口罩上班了!
信息来源:飞桨PaddlePaddle
04
1亿神经元,英特尔发布神经拟态计算系统
3月16日,英特尔研究院与美国康奈尔大学的研究人员在《自然-机器智能》(Nature Machine Intelligence)杂志上联合发表了一篇论文,展示了英特尔Loihi神经拟态研究芯片闻味识危的能力。
该论文声称,Loihi芯片从单一样本便会以较高的准确率识别一种气味,而且不会破坏它对先前所学气味的记忆。与之形成鲜明对比的是,传统的深度学习解决方案,要达到与Loihi一样灵敏的“嗅觉”,每类气味都需要3000倍以上的训练样本。
更进一步,英特尔在3月19日发布了基于Loihi芯片的增强版“机器大脑”——Pohoiki Springs神经拟态计算系统。Pohoiki Springs是一个数据中心机架式系统,它将768块Loihi芯片集成在5台机箱里。一两块Loihi芯片还比较弱,但是当数百个Loihi芯片集成为一个数据中心后,其已经拥有1亿个神经元,这个数量级别相当于一只仓鼠。
英特尔Loihi系统的演进历史
随着摩尔定律及芯片工艺的不断演进,英特尔或许能将神经拟态计算系统做到人脑级别的神经元数量。而芯片系统向人脑的演化,将颠覆现有的计算架构,开辟工智能的新路径。Loihi芯片的最大优势,正是人脑相对于深度学习网络的优点——自学习。Loihi芯片可以像人脑一样,边工作边学习,过程中还能自己调参。这种自学习的优势,对于一些只发生一次的场景是非常关键的。
论文地址:https://arxiv.org/abs/1906.07067
信息来源:新智元
05
英伟达号召全球玩家加入算力抗疫
只要你的电脑有 GPU ,就能用来帮助对抗新冠肺炎。近日,英伟达呼吁广大 PC 游戏用户,贡献自己的 GPU 算力,通过加入 Folding@home 项目,投入到对抗新冠肺炎病毒的战斗中来。
虽然每个人的电脑算力有限,但通过分布式处理的计算网络,参与进来的用户,就会组成一个强大的网络,可以有效地解决需要算力的科学问题。
只需要下载并运行该程序,就可成为这个网络的一部分,利用自己的算力资源,去运行和处理针对新冠病毒的相关科学计算,模拟 COVID-19 蛋白的动态变化,以加速治疗药物和疫苗的研发。
这个看似简单的操作背后,是一个发展了近二十年的大型分布式计算项目,Folding@home 是斯坦福大学的研究人员在 2000 年启动的一个项目,专注于精确地模拟蛋白质折叠、误折、聚合的过程,以便能更好地了解多种疾病的起因和发展情况。但针对蛋白质分子折叠的研究,需要进行大量的计算,而这个项目的做法,就是发动全世界的人一起参与进来,组成巨大的分布式计算网络,去解决算力不足的局面。
Folding@home 网站呼吁大家参与进来
2020 年 2 月 27 日,Folding@home 宣布加入新冠病毒研究,以帮助研究人员开发治疗方法的研究。具体而言,该计划试图计算出病毒蛋白质运动和折叠的所有状态,以了解该病毒感染人体的具体机理,为下一步的研究和治疗做出铺垫。
3 月 10 日,该计划更新了公告,发布了新冠病毒表面蛋白质解析的第一批计算包。接下来将进行表面蛋白质折叠与结构的解析,帮助新冠病毒的药物研发和疫苗研究。
项目地址:
https://github.com/FoldingAtHome/coronavirus
信息来源:HyperAI超神经
06
本周论文推荐
【CVPR2020】华南理工/MSRA/百度联合提出对偶回归网络,超分辨率性能得到大幅提升
作者:Yong Guo , Jian Chen , Jingdong Wang , Qi Chen, Jiezhang Cao, Zeshuai Deng, Yanwu Xu , Mingkui Tan
论文介绍:
目前大部分基于神经网络的单图像超分辨率(SISR)的传统做法是利用低分辨率图像(LR)和高分辨率图像(HR)对,学习一个非线性映射函数以实现LR到HR的映射。这种做法存在两个主要的问题:
- 「问题一:」 SISR属于ill-posed问题,这就意味LR到HR的映射存在多种可行解,导致训练到后期时无法确定一个可行解。
- 「问题二:」 真实的LR和HR的图像对(pair)很难获取,目前大部分的data pair都是人工模拟的,例如常见的DIV2K和Flick2K数据集,这就意味模型学习到的退化核很难泛化到真实场景下,导致模型的泛化能力低下。
那么针对这两个问题,通过对偶学习(Dual Learning),建立了个由LR->HR->LR闭环对偶回归(Dual Regression)模型。
- 「针对问题一:」 LR->HR是个one to many的过程,那么同样的由HR->LR同样是个one to many的过程。通过提出的闭环学习过程,从理论上理解可以通过两个过程之间的相互约束,形成近似one to one闭环。
- 「针对问题二:」 由于真实的data pair难以获取,在Dual Regression Network(DRN)中,采用半监督的方式对网络进行训练。采用data pair的人工模拟对LR->HR训练的同时,利用真实的LR对LR->HR->LR的进行训练。这样可以通过真实的LR data unpair尽可能约束网络的退化核的学习过程,使得其具有一定的泛化性。
Dual Learning是MSRA在NLP机器翻译中提出的一种新的机器学习范式,其最关键一点在于,给定一个原始任务模型,其对偶任务的模型可以给其提供反馈;同样的,给定一个对偶任务的模型,其原始任务的模型也可以给该对偶任务的模型提供反馈;从而这两个互为对偶的任务可以相互提供反馈,相互学习、相互提高。
4倍超分结果:
8倍超分结果:
论文地址:
https://arxiv.org/pdf/2003.07018.pdf
END