基于嵌入式端的人脸识别算法

2022-10-22 12:17:37 浏览数 (1)

背景介绍

人工智能算法在过去几年极为火热,广泛应用于计算机视觉、语音识别、推荐算法以及智能机器人等领域;调研发现,工程师为了提高神经网络的准确度,一般采用更深层的神经网络,导致模型参数越来越多,该方法虽然能够极为快速、准确的进行人脸识别,但是对硬件的要求也越来越高。然而实际工程应用中需要考虑底层设备的硬件资源、功耗特性等,使用中需要将模型进行适当的裁剪,具体如下所示:

图1 人工智能的应用实例图1 人工智能的应用实例

附1:人工智能在科研领域的应用:室友在中国香港读博期间,课题组成员将深度学习与分子动力学模拟相结合,做了一些势函数相关的工作。第一感觉是鄂维南老师的影响力好广,港大David J. Srolovitz课题组那边也在用相关成果,距离在纯粹的科研领域竟然不是问题,?~

附2:深度学习的持续火热,也带动了传统智能算法的工程落地:同样是旋转设备故障诊断这块,2015年课题组就做相关研究,没想到现在还有部分创业公司继续奔赴该领域;

模型选择

依据项目的实际需求,综合考虑是网络的准确度、速度和规模等指标,选择合适的网络模型。其中现有开源模型对 ImageNet 数据集的识别效果如图2所示:

图2 不同算法对应的准确率及运行时间图2 不同算法对应的准确率及运行时间

模型参数以及规模如下图所示:

图3 不同算法对应的规模大小及参数数量图3 不同算法对应的规模大小及参数数量

模型部署

实际工程应用中,我们可以利用迁移学习对深度学习网络进行微调,通过少量的数据对模型参数优化,进而快速到达图像识别的目的,具体的流程框架如下图所示:

图4 迁移学习的流程框架图4 迁移学习的流程框架

参数设置主要由:1.模型网络调整:图像类别(NumFilters)、卷积核的大小(FilterSize)以及分类器的修改;2.训练参数设置: WeightLearnRateFactor 、BiasLearnRateFactor、InitialLearnRate、ValidationFrequency、MaxEpochs以及MiniBatchSize等,具体训练结果如图5所示:

图5 Merch数据集(75张)迁移训练的结果图5 Merch数据集(75张)迁移训练的结果

调研发现,当前底层嵌入式端能够支持Keras、TFLite以及ONNX格式,因此项目中我们将训练好的模型转化为 ONNX™(开放式神经网络交换)格式,所需的命令具体如下所示:

图6 算法模型与嵌入式硬件(STM32)的交互接口图6 算法模型与嵌入式硬件(STM32)的交互接口
代码语言:javascript复制
filename = "squeezenet.onnx";
exportONNXNetwork(trainedNetwork_1,filename)
代码语言:javascript复制
clc;
I=imread('C:Tempmatlabmatlabface_recognitionMOV_1692_174.jpg');
I = imresize(I, [227 227]);
[YPred,probs] = classify(trainedNetwork_1,I);
imshow(I)
label = YPred;
title(string(label)   ", "   num2str(100*max(probs),3)   "%");

附件:

卷积的数学原理

过去对于人工神经网络极为熟悉,其数学上的本质属于通过迭代求解函数极值的问题,近年来,深度学习的出现解决了图像处理、语音识别等高维问题,但是从如何从数学的角度去解释工程中存在的各种现象?感觉对于该类基础问题,力学、数学等专业的老师还挺擅长,背后需要用到各种张量分析。

CNN卷积过程输出特征图的尺寸与维度变化

图7 卷积计算及矩阵的维度变化过程图7 卷积计算及矩阵的维度变化过程

0 人点赞