导读
2018年生物特征识别冬令营(IAPR/IEEE Winter School on Biometrics 2018)由IAPR和IEEE冠名和赞助,于2018年1月29日至2月2日在深圳举办,由香港浸会大学计算机科学系、中科院自动化所和深圳大学计算机与软件学院联合主办。本文按Yasushi Yagi教授H在生物特征识别冬令营(WSB2018)的报告《Human Gait Analysis》进行整理,经《生物特征识别冬令营》授权发布。
讲者简介
Yasushi Yagi教授是日本大阪大学常务副校长,大阪大学产业科学研究所所长。曾任亚洲计算机视觉会议2007-2011,以及亚洲模式识别会议2011-2013等会议程序委员会主席。曾获国际机器人大会2008最佳论文奖。
正文
今天很荣幸的听了来自大阪大学的Yagi教授讲针对步态识别不同挑战下的一些方法以及最新的进展。步态识别相比于其他生物识别方法而言,最大的优势就是可以远距离进行识别。对于步态特征的提取,教授给我们介绍了它的提取流程,从原始的步态图片序列中先提前步态轮廓,然后再去做归一,最后用归一好的序列来计算特征。在这里以OU_ISIR数据集为例,计算不同特征之间的距离,距离的计算采用了欧式距离,同时就对步态序列的特征计算方法而言,GEI相对别的步态特征例如:FDF 等也可以更好的表达步态信息。
然而在真正的步态识别中,存在着许多挑战,例如不同视角,遮挡问题,步行速度的注册集与验证集不符合,视频的帧率注册集与验证集不符合都会导致识别率的下降。遮挡问题中,如果注册集与验证集完全没有重合部分则会导致识别失败,在这里Yagi教授介绍了regenerated gait 的方法,去补足遮挡缺失的步态来解决此类问题。在注册集与验证集速度不一致的情况下,可以分离步态轮廓的body shape 和 motion,利用STM生成与注册集一致的步速motion,并与分离出的轮廓融合,在这里上半身由于受速度影响很小,所以此方法在解决该类问题也很有效。同样在解决注册集与验证集时也采取了类似的思路,将低帧率的步态利用PTSR转为高帧率的步态。
在解决视角这个挑战时,Yagi教授先给我们介绍了VTM方法,利用了奇异值分解,将特征矩阵分解成与角度无关的向量,与subject无关的向量以及特征值,再利用subject无关的向量将特征进行角度的变换。但是在解决角度问题利用CNN目前可以取得最好的识别率并且远远超过传统方法,在这里教授为我们介绍了利用contrastive loss 和triple loss可以缩小intra-gait 距离,扩大inter-gait 距离。最令人兴奋是Yagi教授给我们展示了他们最新采集的数据集包括接近100000个subject 涵盖14个角度,包括年龄,性别,遮挡,携带等各种情景,公布以后应该是目前已知最大的数据集,让我们拭目以待!