智能交通系统需要基础的道路信息支持,包含于其中的视频智能交通系统就是做了这样一份工作。视频智能交通系统是一种非接触式的交通流检测系统。它的工作原理是模拟人类视觉,融合计算机技术和图像处理技术,通过视频信号来检测交通流。视频传感器的日益普及和视频处理硬件的高性能使得处理许多视频认识问题变成了可能,于是这样的新型车辆检测系统在近年来逐步发展起来。高性能的视频智能交通系统除了需要硬件的强力支持,良好的车辆检测算法也是重要的因素。61718
车辆检测算法主要包括四个部分:运动目标的分割,目标识别,目标跟踪与行为理解。
目标的分割是视频监控系统中的首要任务,其分割的有效性对于后续的目标识别、跟踪、行为理解等处理至关重要。视频分割的一般步骤是:a)对原始的视频图像数据通过低通滤波、中值滤波、形态滤波、灰度化等进行简化;b)根据颜色、纹理、运动、帧差、位移帧差等对视频图像数据进行特征提取;c)根据提取的特征进行分割。视频分割算法[2]可以归类为空间分割和时间分割两种。空间分割是一种静态分割,只对单幅图像进行操作;时间分割一般是运动分割,利用序列图片中像素点的差值进行判断。目前常见的空间分割算法有基于直方图的图像分割,基于聚类理论的视频分割方法,基于阈值的图像分割方法,以及基于形态学的图像分割等。常见的时间分割算法有背景差法、帧间差法、光流法和运动能量检测法等。
在目标分割后,对目标进行识别也是重要的一个环节,目标识别将分割后的目标进行分类,为后续的统计和检测奠定基础。在实际监测应用中,目标识别的关键是使用好分类标准。很显然,在智能交通系统中最明显的物体就是我们感兴趣的人和车。鉴于这个原因,目标识别的简单方法是基于一个常识:一般来说,人是比车要小的,而且人有着更为复杂的外观。分类后我们可以为之建立一个训练模板,这样可以为下次的识别提供匹配的标准。由于实际应用中的环境千变万化,论文网一般用于目标识别都是自适应背景的,目前常见的算法有自适应背景抽取算法,混合高斯模型和帧间差分相融合的自适应背景模型等。
车辆检测和计数是基于视频图像的交通监视系统的基础。它为智能交通系统的建立提供了直接的统计数据。目标检测一般有四种常见方法:灰度比较法,采用对路面和车辆的灰度统计值来检测车辆。但它对环境光线的变化十分敏感,而且由于车辆的色彩差异较大,因而很难确定车辆的灰度范围。帧差法利用两幅连续帧之间的差值,排除静止物体和背景,保留图像中的运动物体。虽然环境光线的变化对该方法影响不大,但它不能检测静止车辆,而且由于图像采样频率固定,被检测车辆如果车速太快或太慢都可能导致检测错误。背景差法利用一幅不断更新的背景图像从输入图像中提取前景物体,即车辆。该方法很大程度上依赖于背景图像的可靠性,背景图像需不断地被更新,以迎合环境光线、阴影和天气的变化等。背景更新中的误差累计和光线变化是影响背景差法精度的主要因素。边缘检测法是另一类较为有效的车辆检测法,因为即使在不同的光线条件下,车辆的边缘通常仍然能够被检测到。然而,如果车辆边缘模糊,则边缘检测法可能漏检车辆。由此可见单一的检测方法往往是不够的,如今的检测方法大都是基于两种或两种以上的常见方法进行设计的。例如:基于背景差法和帧间差法的运动目标检测方法。
目标的行为理解属于计算机视觉中的高层视觉,是对道路基本信息分析后的进一步理解,本文不做详细论述。