AI综述专栏
在科学研究中,从方法论上来讲,都应先见森林,再见树木。当前,人工智能科技迅猛发展,万木争荣,更应系统梳理脉络。为此,我们特别精选国内外优秀的综述论文,开辟“综述”专栏,敬请关注。
作者简介
许倩倩,中科院计算所智能信息处理重点实验室副研究员,主要研究方向是多媒体内容分析、数据挖掘、机器学习。近年来以第一作者的身份在国际顶级期刊和会议,如:T-PAMI、ICML、AAAI、ACM Multimedia、TMM等发表了多篇高水平学术论文,其中,以第一作者身份在多媒体国际顶级会议ACM Multimedia发表长文6篇。博士学位论文获得“2015年度中国人工智能学会优博论文(全国共8篇)”、“2014年度中科院百篇优博论文(中科院共100篇)”。此外,还先后获得“中科院青促会会员”、“中科院院长优秀奖”、“所级青年之星”、“腾讯犀牛鸟科研基金获得者”等荣誉称号,并受邀参加CCF青年精英大会担任技术秀讲者。
黄庆明,中国科学院大学教授,博士生导师,主要研究领域为多媒体分析、计算机视觉和模式识别。国家杰出青年科学基金获得者,百千万人才工程国家级人选并被授予“有突出贡献中青年专家”荣誉称号,中科院“百人计划”入选者,IEEE Fellow,CCF 会士, 北京市石景山区优秀人才,享受国务院政府特殊津贴。先后获得教育部科技进步一等奖、黑龙江省自然科学二等奖、中国计算机学会科学技术奖等省部级奖励;主持承担国家和省部级科研项目20余项;发表学术论文300余篇(Google学术引用7600余次,H指数43),其中IEEE/ACM汇刊论文和中国计算机学会认定的A类国际会议论文90余篇;已授权国内外发明专利20余项。
一、引言
模态是指人接受信息的特定方式。由于多媒体数据往往是多种信息的传递媒介(例如一段视频中往往会同时使得文字信息、视觉信息和听觉信息得到传播),多模态学习已逐渐发展为多媒体内容分析与理解的主要手段,国内外研究者也逐步在多模态学习领域取得了显著的研究成果。鉴于多模态学习的重要性,本文将重点介绍近年来多模态学习领域的主要研究方向、相关研究进展和未来研究趋势。
二、主要研究方向及研究进展
多模态学习主要包括以下几个研究方向:
1. 多模态表示学习:主要研究如何将多个模态数据所蕴含的语义信息数值化为实值向量。
2. 模态间映射:主要研究如何将某一特定模态数据中的信息映射至另一模态。
3. 对齐:主要研究如何识别不同模态之间的部件、元素的对应关系。
4. 融合:主要研究如何整合不同模态间的模型与特征。
5. 协同学习:主要研究如何将信息富集的模态上学习的知识迁移到信息匮乏的模态,使各个模态的学习互相辅助。典型的方法包括多模态的零样本学习、领域自适应等。
(一)多模态表示学习
表示学习的目的是将被研究对象(结构化数据、图像、视频、语音、文本等)中所蕴含的语义信息抽象为实值向量。当多个模态共存时,我们需要同时从多个异质信息源提取被研究对象的特征。在单模态表示学习的基础上,多模态的表示学习还要考虑多个模态信息的一致性和互补性。下面对近年来多模态表示学习的最新成果进行简要介绍。清华大学朱文武教授团队在多模态学习的理论和应用方法研究上均取得了相应进展。在理论方面,[1]提出了一种面向多模态表达的紧致哈希编码方法。该工作首先基于模态内和模态间的相关性约束,提出了一种新的深度学习模型生成哈希编码。在此基础上又提出了一种正交正则化方法降低哈希编码特征的冗余性,并给出了理论分析。在应用方面,[2]提出了一个面向情感检测的多模态字典学习方法及相关标准数据集。浙江大学庄越挺教授团队从若干新视角对多模态表示学习进行了改进。[3]中提出了一种基于层级复合语义的深度多模态嵌入方法。[4]则以点击图上的随机游走为基础,提出了一种多模态表示学习方法。该方法将用户点击信息引入到多媒体信息检索中,并以图像、文本查询作为节点,以点击关系作为边构造了点击图。在此基础上,以点击图中节点关系作为约束构造了相应的多模态表达学习模型。[5]考虑了由于数据稀疏性造成的部分模态数据缺失问题,提出了一种基于自适应相似结构正则化的部分多模态稀疏编码模型。[6]中基于模态内和模态间的相关关系,提出了一种基于栈式自编码器的高效多模态检索模型。[7]提出了一种稀疏的多模态哈希编码方法。该方法首先利用超图建模模态间和模态内的相关关系,随后采用超图拉普拉斯稀疏编码方法同时学习多个模态的字典。中国科学院西安光学精密机械研究所李学龙研究员团队也在多模态表示学习领域取得了一系列成果。[8]基于对不同模态的相关性矩阵的谱分析,提出了一种谱哈希编码方法并将其应用于跨模态检索问题中,实现了基于哈希编码的快速跨模态检索。[9]提出了一种面向大规模跨模态检索的判别性二值编码学习方法。该工作中提出的跨模态哈希编码方法直接保留了求解二值编码时的离散约束。特别地,该方法可通过学习模态特异的哈希函数得到统一的二值编码,并可将所得到的二值编码作为判别性特征用于后续分类。西安电子科技大学高新波教授团队在多模态表示学习领域也取得了丰硕的成果。[10]提出了一种基于成对关系导向的端对端深度哈希编码方法,并将其应用于跨模态检索问题中。[11]中提出了一种基于层次化多模态LSTM的密集视觉-语义嵌入方法。具体而言,该工作首先提出了一种层级化的递归神经网络,该网络可以建模句子与词以及图像与图像中局部区域的层次化关系,然后利用该网络学习词、句子、图像以及图像区域的特征。中科院自动化所徐常胜研究员团队近年来在多模态表示领域成果汇总如下。[12]中通过从互联网获取有监督数据,提出了一种多模态知识表示学习方法。该方法具有以下优点:1)可自动从互联网平台获得可表征文本-视觉两模态关联关系的相关数据,并借此挖掘多模态数据中潜在的知识;2)可构造模态无关、任务无关的公共知识表示空间;3)通过迁移从已知节点和关系中所学的知识,能够表示在已知样本上未观测到的多模态关系。[13]中提出了一种面向跨模态检索的一致表示学习方法。特别地,该方法可同时学习多个模态的基矩阵。另外,该方法还采用了局部组稀疏的正则项以保证多模态特征的一致性。
(二)模态间映射
多模态机器学习中另一个重要的问题是发现知识在不同模态间的映射关系。给定实体在一种模态下的表示,模态间映射是将该表示转换成其它模态下表示的过程。例如,给定一幅图像,我们希望得到一个描述该图像的句子,或者给出一段文字描述来生成一幅与之相匹配的图像。模态间映射一直是学术界研究的热点问题,早期工作包括语音合成、图像视频描述以及跨模态检索等。最近,学术界对模态间映射的主要兴趣集中在如何将计算机视觉和自然语言处理领域最新的研究成果结合起来,并应用在大规模数据库上得到合理的视觉场景描述,其中微软发布的COCO是目前图像视频标注任务公认的数据集。特别地,电子科技大学的申恒涛教授研究组取得了一系列研究成果。比如,[14]提出一种基于注意力机制的LSTM来完成视频标注,该方法利用语义一致性,能够捕捉视频的显著结构,探索多模态表示之间的关系,以生成具有丰富语义内容的句子来描述视频内容;[15]提出一种可以调整时序注意力的层次LSTM结构,利用时间注意力选择特定的帧来预测相关词,而调整后的时间注意力可以用于决定相关词是否依赖于视觉信息或语言上下文信息;[16]提出一种能够基于语言知识选择性地关注视觉属性的标注方法,该方法将神经网络中的隐藏状态映射到潜在嵌入空间,并采用注意机制获得语言知识表示,从而获得语言与视觉属性的对应关系。此外,微软亚洲研究院梅涛研究员研究组在图像视频标注领域也取得了很多研究成果。比如,[17]提出一种包含属性的LSTM和RNN网络来发现图像视觉属性与语义表达之间的复杂关系;[18]提出一种基于拷贝机制的图像标注方法,该方法通过将检测到的物体与拷贝机制相结合来预测图像标题中的新物体;他们还关注了如何从句子获得对应视频的问题,提出时序生成对抗网络[19],利用语义标注作为条件来建模视频中物体的时空关系;与计算所张勇东研究员合作提出一种具有多模态注意力机制的LSTM[20],该方法设计了一个多层次的注意力机制来获取关于时间序列和多模态流数据中的关键线索。清华大学的张长水教授研究组提出了基于区域注意力机制和场景特异上下文信息的图像标注方法[21],该方法能够协调生成描述和注意力在视觉区域之间的转移,同时将场景特定的上下文引入到LSTM中,获得特定场景类型下的语言模型用于词汇生成。浙江大学的吴飞教授和庄越挺教授提出一种能够获得更具有多样性的图像标注方法[22],该方法能够同时学习多种语言描述的分布,同时模仿人类撰写图像标注的多样性。复旦大学的姜育刚教授和薛向阳教授提出了一种弱监督视频标注方法[23],该方法能够在训练过程中为视频剪辑生成多个不同的视频标注,所使用的监督信息仅仅是视频级别的描述语句。清华大学孙富春教授和微软亚洲研究院芮勇研究员提出了名为“Image2Text”的多模态标注生成算法,该算法将输入图像表达为被检测物体的序列输入卷积神经网络中并获得最终的图像标注。山东大学聂礼强教授和腾讯AI实验室刘威研究员提出基于空间和通道注意力机制的图像标注算法[24],该方法能够在卷积神经网络中对生成标注的上下文进行动态建模,从而确定注意力机制关注的位置和对象。中科院计算所蒋树强研究员提出一种利用物体和场景信息的图像标注方法,该方法同时关注了图片中的物体信息和场景信息,从而获得更好的标注结果。清华大学丁广贵教授提出基于训练样本作为参考的LSTM模型,能够有效解决在图像标注问题中词汇重要性被错误对待及物体或场景被错误识别的问题。
(三)对齐
对齐旨在挖掘不同模态之间子部件的相关或对应关系,从而促使学习到的多模态表示更加精确,并且也为多媒体检索提供更细致的检索线索。浙江大学的庄越挺教授团队提出了一种利用最大边距学习方式结合局部对齐(即视觉对象和词汇对齐)和全局对齐(即图片和语句对齐)方法来学习共同嵌入表示空间[25],对齐后的跨语义表示可以较好地提高跨模态检索的质量。西安电子科技大学的高新波教授团队提出了一种基于判别性字典学习的跨模态检索方法[26],该方法学习判别性字典来解释每种模态,不仅增强了来自不同类别的模态内数据的辨别能力,而且增强了同一类中的模态间数据的相关性,而后将编码映射到特征空间,通过标签对齐方法进一步增强跨模态数据的区分性和相关性。上海交通大学的杨小康教授团队提出了一种深层跨模态对齐网络[27],联合行人序列与图像数据来训练得到多次行人重识别模型,网络中将行人图像映射到序列数据空间并进行对齐,从而尽可能消除模态间的不匹配问题。
(四)融合
多模态融合旨在将多个模态信息整合以得到一致、公共的模型输出,是多模态领域的一个基本问题。多模态信息的融合能获得更全面的特征,提高模型鲁棒性,并且保证模型在某些模态缺失时仍能有效工作。浙江大学的庄越挺教授团队设计了一种隐含条件随机场[28],假设不同模态的数据共享潜在的结构,通过多模态数据间的联系来学习这种潜在共享结构,同时挖掘该结构与监督类别信息间的相互作用,从而应用于分类任务。中国科学院自动化所的徐常胜研究员团队提出了一种新的多模态事件主题模型来建模社交媒体文档[29],通过学习文本和视觉特征间的相关性,以区分视觉代表性主题和非视觉代表性话题,并采用增量式学习策略以帮助理解社交事件的演变趋势;同时还提出了一种多模态多视角的主题-意见挖掘模型[30],有效结合多模态和多视角的特征用于社交事件分析,该方法不仅能挖掘多模态数据中的共同主题,还能总结出它们在每个特定主题上的异同,并且挖掘对不同主题的多视角意见集合。中国科学院西安光学精密机械研究所的李学龙研究员团队提出了一种新型哈希算法[31],将弱监督方式提取出的多模态特征统一整合为二进制编码,从而使用核函数配合SVM进行分类。北京航空航天大学的毛峡教授团队通过多层线性融合双频GPS定位与多个参考接收天线运动信息来检测系统的定位误差[32]。西安交通大学的徐宗本院士团队提出一种新型端到端的深度融合卷积神经网络[33],将二维与三维数据输入网络进行特征提取和融合,进而获得高度集中的特征表示,进行人脸表情识别。中国科学院计算技术研究所的张勇东研究员和罗彻斯特大学的罗杰波教授合作提出了一种带注意力机制的递归神经网络[34],利用LSTM网络融合文本和社交上下文特征,再利用注意力机制将其与图像特征融合,进行端到端的谣言预测。
(五)协同学习
在缺乏标注数据、样本存在大量噪声以及数据收集质量不可靠时,可通过不同模态间的知识迁移提高质量较差模态的性能。北京大学的彭宇新教授团队提出了一种跨模态知识迁移网络将跨模态数据转换为共同表示用于检索[34],其中模态共享迁移子网络利用源域和目标域的模式作为桥梁,将知识同时迁移到两种模态,而层共享相关子网络保留固有的跨模态语义相关性以进一步适应跨模式检索任务。
三、未来研究展望
(一)表示学习
从本文综述的相关研究成果来看,按多模态表示共享的方式可将多模态表示学习分为两类:一类方法将所有模态的特征均投影到同一个表示空间,我们称此类方法为公共表示学习;另一类方法则为不同模态学习不同的特征表示空间,我们称此类方法为特异性表示学习。公共表示学习方法适用于所有模态数据在测试阶段都可使用的情况。相对而言,特异性表示学习由于分别学习不同模态的特征,更加适合测试阶段仅提供单模态数据或部分模态数据可用的情况,例如零次学习、模态间映射、跨模态检索等任务。对于特异性表示学习,相关工作往往仅限于两个模态的情况,对于更多模态同时存在的情况下的特异性表示学习则有待进一步研究。此外,表示学习的主流方法往往只局限于静态条件下,而使用多模态数据,如何进行动态学习是一个很有价值的研究点。
(二)模态间映射
多模态映射问题面临的一大问题是难以设计评价指标来度量模型的优劣。尤其是在某些生成式的任务中,如对图像进行描述和标注,往往不存在唯一正确的“标准答案”,映射过程容易受到主观影响,使得最终结果无法确认同一实体在不同模态间的表示。尽管我们也可以通过人工评分或两两比较来评价模型的映射质量以获得最接近人类认知的质量评价,但这类人工方式往往颇为耗时,且成本较高,标注结果受测试者性别、年龄、文化背景等偏差的影响而导致评价失准。因此,学界提出了一系列相关的自动评价指标,如BLEU、ROUGE、Meteor、CIDEr等。但相关研究指出这类自动指标尚不能很好地刻画映射结果的主观性。综上所述,解决映射过程中的主观评价问题不仅可以更好地评价不同方法,而且可以辅助设计更好的优化目标函数,从而全面提升模型性能。
(三)对齐
早期的多模态对齐主要依靠基于概率图模型、动态规划等无监督学习方法进行不同模态间的元素匹配。近年来,虽然已陆续有学者进行有监督的对齐方法研究,但现阶段的对齐方法仍然存在以下几点主要问题有待进一步研究:
1. 显式标注对齐信息的数据较少,不利于进行实验分析。
2. 设计不同模态之间的相似度度量指标较为困难,且人工设计费时费力。
3. 不同模态间元素的对齐过程往往存在一对多的关系,甚至还可能存在无法匹配的情况。
4. 受噪声影响大,尤其是当元素的匹配错位时模型性能下降严重。
目前,随着度量学习的发展,直接采用有监督学习方法确定有效的模态间相似度度量已成为可能。在未来的工作中,研究者可以通过设计同时进行度量学习和对齐的方法提高相关模型的性能。
(四)融合
近年来,多模态融合问题被国内外学者广泛关注,已经陆续提出基于模型无关、图模型、神经网络的多种多模态融合方法。尽管学术界在多模态融合领域已经取得了诸多进展,但现阶段的研究仍存在一些问题。每一种模态会受到不同类型和不同程度的噪声影响,导致融合得到的信息不能准确表达出应有的特征,并且在包含时序关系的多模态学习(如一段有声视频)中,每种模态可能遭受噪声干扰的时刻也可能不同。此外,模态与模态之间在时序上没有对齐,如视频的音画不同步,也可能对多模态的融合造成较大的影响。
(五)协同学习
由于不同模态所包含的信息不尽相同,多模态协同学习主要利用从一种模态中学到的信息来补充完善另一种模态数据的训练。其中协同训练、零次学习等问题在视觉分类、音声识别等方面得到广泛的应用。同时,协同学习方法是与需要解决的任务无关的,因此它可以用于辅助多模态映射、融合及对齐等问题的研究。基于协同学习本身的特点,如何挖掘得到尽可能多的模态间的不同信息来促进模型的学习是一个很有价值的研究方向。
四、结束语
多模态学习是一个充满活力的多学科交叉领域,其主要目的在于建立可以处理和关联来自多个模态信息的模型。本文综述了近年来在表示学习、映射、对齐、融合和协同学习这五个子研究方向上取得的主要进展。此外,我们还针对每个子问题讨论了未来需要解决的难点及其发展方向。希望本文能够为多模态学习领域带来一些新的启发,促使多模态学习这个方向更加蓬勃发展。
参考文献
[1]Daixin Wang, Peng Cui, Mingdong Ou, Wenwu Zhu: Learning Compact Hash Codes for Multimodal Representations Using Orthogonal Deep Structure. IEEE Trans. Multimedia 17(9): 1404-1416 (2015)
[2]Guangyao Shen, Jia Jia, Liqiang Nie, Fuli Feng, Cunjun Zhang, Tianrui Hu, Tat-Seng Chua, Wenwu Zhu:Depression Detection via Harvesting Social Media: A Multimodal Dictionary Learning Solution. IJCAI 2017: 3838-3844
[3]Yueting Zhuang, Jun Song, Fei Wu, Xi Li, Zhongfei Zhang, Yong Rui: Multimodal Deep Embedding via Hierarchical Grounded Compositional Semantics. IEEE Trans. Circuits Syst. Video Techn. 28(1): 76-89 (2018)
[4]Fei Wu, Xinyan Lu, Jun Song, Shuicheng Yan, Zhongfei (Mark) Zhang, Yong Rui, Yueting Zhuang: Learning of Multimodal Representations With Random Walks on the Click Graph. IEEE Trans. Image Processing 25(2): 630-642 (2016)
[5]Zhou Zhao, Hanqing Lu, Deng Cai, Xiaofei He, Yueting Zhuang: Partial Multi-Modal Sparse Coding via Adaptive Similarity Structure Regularization. ACM Multimedia 2016: 152-156
[6]Wei Wang, Beng Chin Ooi, Xiaoyan Yang, Dongxiang Zhang, Yueting Zhuang: Effective Multi-Modal Retrieval based on Stacked Auto-Encoders. PVLDB 7(8): 649-660 (2014)
[7]Fei Wu, Zhou Yu, Yi Yang, Siliang Tang, Yin Zhang, Yueting Zhuang: Sparse Multi-Modal Hashing. IEEE Trans. Multimedia 16(2): 427-439 (2014)
[8]Yi Zhen, Yue Gao, Dit-Yan Yeung, Hongyuan Zha, Xuelong Li: Spectral Multimodal Hashing and Its Application to Multimedia Retrieval. IEEE Trans. Cybernetics 46(1): 27-38 (2016)
[9]Xing Xu, Fumin Shen, Yang Yang, Heng Tao Shen, Xuelong Li: Learning Discriminative Binary Codes for Large-scale Cross-modal Retrieval. IEEE Trans. Image Processing 26(5): 2494-2507 (2017)
[10]Erkun Yang, Cheng Deng, Wei Liu, Xianglong Liu, Dacheng Tao, Xinbo Gao: Pairwise Relationship Guided Deep Hashing for Cross-Modal Retrieval. AAAI 2017: 1618-1625
[11]Zhenxing Niu, Mo Zhou, Le Wang, Xinbo Gao, Gang Hua: Hierarchical Multimodal LSTM for Dense Visual-Semantic Embedding. ICCV 2017: 1899-1907
[12]Fudong Nian, Bing-Kun Bao, Teng Li, Changsheng Xu: Multi-Modal Knowledge Representation Learning via Webly-Supervised Relationships Mining. ACM Multimedia 2017: 411-419
[13]Cuicui Kang, Shiming Xiang, Shengcai Liao, Changsheng Xu, Chunhong Pan: Learning Consistent Feature Representation for Cross-Modal Multimedia Retrieval. IEEE Trans. Multimedia 17(3): 370-381 (2015)
[14]Lianli Gao, Zhao Guo, Hanwang Zhang, Xing Xu, Heng Tao Shen: Video Captioning With Attention-Based LSTM and Semantic Consistency. IEEE Trans. Multimedia 19(9): 2045-2055 (2017)
[15]Jingkuan Song, Lianli Gao, Zhao Guo, Wu Liu, Dongxiang Zhang, Heng Tao Shen: Hierarchical LSTM with Adjusted Temporal Attention for Video Captioning. IJCAI 2017: 2737-2743
[16]Yi Bin, Yang Yang, Jie Zhou, Zi Huang, Heng Tao Shen: Adaptively Attending to Visual Attributes and Linguistic Knowledge for Captioning. ACM Multimedia 2017: 1345-1353
[17]Ting Yao, Yingwei Pan, Yehao Li, Zhaofan Qiu, Tao Mei: Boosting Image Captioning with Attributes. ICCV 2017: 4904-4912
[18]Ting Yao, Yingwei Pan, Yehao Li, Tao Mei: Incorporating Copying Mechanism in Image Captioning for Learning Novel Objects. CVPR 2017: 5263-5271
[19]Yingwei Pan, Zhaofan Qiu, Ting Yao, Houqiang Li, Tao Mei: To Create What You Tell: Generating Videos from Captions. ACM Multimedia 2017: 1789-1798
[20]Jun Xu, Ting Yao, Yongdong Zhang, Tao Mei: Learning Multimodal Attention LSTM Networks for Video Captioning. ACM Multimedia 2017: 537-545
[21]Kun Fu, Junqi Jin, Runpeng Cui, Fei Sha, Changshui Zhang: Aligning Where to See and What to Tell: Image Captioning with Region-Based Attention and Scene-Specific Contexts. IEEE Trans. Pattern Anal. Mach. Intell. 39(12): 2321-2334 (2017)
[22]Zhuhao Wang, Fei Wu, Weiming Lu, Jun Xiao, Xi Li, Zitong Zhang, Yueting Zhuang: Diverse Image Captioning via GroupTalk. IJCAI 2016: 2957-2964
[23]Zhiqiang Shen, Jianguo Li, Zhou Su, Minjun Li, Yurong Chen, Yu-Gang Jiang, Xiangyang Xue: Weakly Supervised Dense Video Captioning. CVPR 2017: 5159-5167
[24]Long Chen, Hanwang Zhang, Jun Xiao, Liqiang Nie, Jian Shao, Wei Liu, Tat-Seng Chua: SCA-CNN: Spatial and Channel-Wise Attention in Convolutional Networks for Image Captioning. CVPR 2017: 6298-6306
[25]Xinyang Jiang, Fei Wu, Xi Li, Zhou Zhao, Weiming Lu, Siliang Tang, Yueting Zhuang: Deep Compositional Cross-modal Learning to Rank via Local-Global Alignment. ACM Multimedia 2015: 69-78
[26]Cheng Deng, Xu Tang, Junchi Yan, Wei Liu, Xinbo Gao: Discriminative Dictionary Learning With Common Label Alignment for Cross-Modal Retrieval. IEEE Trans. Multimedia 18(2): 208-218 (2016)
[27]Zhichao Song, Bingbing Ni, Yichao Yan, Zhe Ren, Yi Xu, Xiaokang Yang: Deep Cross-Modality Alignment for Multi-Shot Person Re-IDentification. ACM Multimedia 2017: 645-653
[28]Xinyang Jiang, Fei Wu, Yin Zhang, Siliang Tang, Weiming Lu, Yueting Zhuang: The classification of multi-modal data with hidden conditional random field. Pattern Recognition Letters 51: 63-69 (2015)
[29]Shengsheng Qian, Tianzhu Zhang, Changsheng Xu, Jie Shao: Multi-Modal Event Topic Model for Social Event Analysis. IEEE Trans. Multimedia 18(2): 233-246 (2016)
[30]Shengsheng Qian, Tianzhu Zhang, Changsheng Xu: Multi-modal Multi-view Topic-opinion Mining for Social Event Analysis. ACM Multimedia 2016: 2-11
[31]Yingjie Xia, Luming Zhang, Zhenguang Liu, Liqiang Nie, Xuelong Li: Weakly Supervised Multimodal Kernel for Categorizing Aerial Photographs. IEEE Trans. Image Processing 26(8): 3748-3758 (2017)
[32]Tao Feng, Xia Mao: Multimodal data fusion for SB-JPALS status prediction under antenna motion fault mode. Neurocomputing 259: 46-54 (2017)
[33]Huibin Li, Jian Sun, Zongben Xu, Liming Chen: Multimodal 2D 3D Facial Expression Recognition With Deep Fusion Convolutional Neural Network. IEEE Trans. Multimedia 19(12): 2816-2831 (2017)
[34]Zhiwei Jin, Juan Cao, Han Guo, Yongdong Zhang, Jiebo Luo: Multimodal Fusion with Recurrent Neural Networks for Rumor Detection on Microblogs. ACM Multimedia 2017: 795-816
[35]Xin Huang, Yuxin Peng, Mingkuan Yuan: Cross-modal Common Representation Learning by Hybrid Transfer Network. IJCAI 2017: 1893-1900