基于YOLO算法看守所人员行为分析依据现场已有的监控摄像头,如非法闯入、倒地事件、明火烟雾、摄像头视频画面异常、睡岗检测、离床检测、聚众、离岗检测、攀高检测等。看守所人员行为分析监测于深度学习的目标检测大致可以分为一阶段(One Stage)模型和二阶段(Two Stage)模型。
运动目标检测可为后续的识别、分类、行为分析提供便利。
常用的几种方法:
(1)帧差法[1],简单快速,可适应动态背景,但不够准确,不能分割出完整的运动目标。
(2)背景减除法[13,29],不能适应动态背景以及光照变化。
(3)光流法[3],可检测出独立的运动目标,但计算复杂,无法实时应用。
VSAM系统实现了三种方法:第一种是自适应背景减除和三帧差的混合方法,此方法速度快并且效果好(3.1.1)。第二种方法会保存检测出的目标,这样对于短时间静止不动或被遮挡之后继续运动的目标有较好的表现(3.1.2)。第三种方法可适应持续移动的摄像机(3.1.3)
目标检测的一阶段模型是指没有独立地提取候选区域(Region Proposal),直接输入图像得到图中存在的物体类别和相应的位置信息。典型的一阶段模型有SSD(Single Shot multibox-Detector)[4]、YOLO(You Only Look Once)[5]系列模型等。二阶段模型是有独立地候选区域选取,要先对输入图像筛选出可能存在物体的候选区域,然后判断候选区域中是否存在目标,如果存在输出目标类别和位置信息