[go: up one dir, main page]

CN110991377B - 一种基于单目视觉神经网络的汽车安全辅助系统前方目标识别方法 - Google Patents

一种基于单目视觉神经网络的汽车安全辅助系统前方目标识别方法 Download PDF

Info

Publication number
CN110991377B
CN110991377B CN201911263299.9A CN201911263299A CN110991377B CN 110991377 B CN110991377 B CN 110991377B CN 201911263299 A CN201911263299 A CN 201911263299A CN 110991377 B CN110991377 B CN 110991377B
Authority
CN
China
Prior art keywords
neural network
layer
radial basis
output
area
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN201911263299.9A
Other languages
English (en)
Other versions
CN110991377A (zh
Inventor
陈学文
裴月莹
陈华清
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Liaoning University of Technology
Original Assignee
Liaoning University of Technology
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Liaoning University of Technology filed Critical Liaoning University of Technology
Priority to CN201911263299.9A priority Critical patent/CN110991377B/zh
Publication of CN110991377A publication Critical patent/CN110991377A/zh
Application granted granted Critical
Publication of CN110991377B publication Critical patent/CN110991377B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/56Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/23Clustering techniques
    • G06F18/232Non-hierarchical techniques
    • G06F18/2321Non-hierarchical techniques using statistics or function optimisation, e.g. modelling of probability density functions
    • G06F18/23213Non-hierarchical techniques using statistics or function optimisation, e.g. modelling of probability density functions with fixed number of clusters, e.g. K-means clustering
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/24Classification techniques
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/20Image preprocessing
    • G06V10/25Determination of region of interest [ROI] or a volume of interest [VOI]
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/20Image preprocessing
    • G06V10/26Segmentation of patterns in the image field; Cutting or merging of image elements to establish the pattern region, e.g. clustering-based techniques; Detection of occlusion
    • G06V10/267Segmentation of patterns in the image field; Cutting or merging of image elements to establish the pattern region, e.g. clustering-based techniques; Detection of occlusion by performing operations on regions, e.g. growing, shrinking or watersheds
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/56Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
    • G06V20/58Recognition of moving objects or obstacles, e.g. vehicles or pedestrians; Recognition of traffic objects, e.g. traffic signs, traffic lights or roads
    • G06V20/584Recognition of moving objects or obstacles, e.g. vehicles or pedestrians; Recognition of traffic objects, e.g. traffic signs, traffic lights or roads of vehicle lights or traffic lights
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V2201/00Indexing scheme relating to image or video recognition or understanding
    • G06V2201/08Detecting or categorising vehicles

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Data Mining & Analysis (AREA)
  • General Engineering & Computer Science (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Artificial Intelligence (AREA)
  • Multimedia (AREA)
  • Evolutionary Computation (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Computational Linguistics (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Health & Medical Sciences (AREA)
  • Biomedical Technology (AREA)
  • Biophysics (AREA)
  • Evolutionary Biology (AREA)
  • General Health & Medical Sciences (AREA)
  • Molecular Biology (AREA)
  • Computing Systems (AREA)
  • Mathematical Physics (AREA)
  • Software Systems (AREA)
  • Probability & Statistics with Applications (AREA)
  • Image Analysis (AREA)
  • Traffic Control Systems (AREA)

Abstract

本发明公开了一种基于径向基神经网络的汽车安全辅助系统前方目标识别方法,包括:获取汽车前方的路况图像,并对所述路况影像进行分割预处理;对预处理后的路况影像进行边缘提取,并进行搜索,获取感兴趣区域;对所述感兴趣区域进行特征提取,获取感兴趣区域对应的边缘特征和区域特征;将所述边缘特征和区域特征作为输入层向量构建径向基神经网络模型,在神经网络中对输入层向量特征进行解析,得到与目标相关的输出量;根据所述输出量得到对应车辆目标,并将所述车辆目标作为识别结果输出,本发明通过统计车辆的边缘特征与区域特征参数,构建径向基神经网络车辆识别器,实现检测区域内车辆与电动自行车的分类。

Description

一种基于单目视觉神经网络的汽车安全辅助系统前方目标识 别方法
技术领域
本发明涉及汽车安全辅助驾驶控制领域,尤其涉及一种基于单目视觉神 经网络的汽车安全辅助系统前方目标识别方法。
背景技术
汽车安全辅助驾驶系统(ADAS)是应用雷达或机器视觉快速且准确地 提取系统前方车辆或障碍物等信息,能够及时提醒驾驶员避免碰撞危险或自 动控制车辆实现预警或避撞功能。该系统功能应不仅仅适用于高速公路行驶 情况,对于其它行驶环境,尤其是在城市道路行驶环境下,不仅要识别出ADAS系统前方车辆目标,还要识别出非机动车和行人及障碍物等目标,特 别是对电动自行车的识别尤为重要,因为在城市道路中非机动车(主要是电 动自行车)与机动车的交通事故率频频发生且所占比重较大。
目前,基于机器视觉的检测与识别方法鲜有对机动车与电动自行车进行 分类的研究。大多数方法均是针对车辆的检测与识别研究且被用于辅助驾驶 系统中。如利用车辆的线性几何特征信息、车辆的对称性,或者采用特殊的 硬件,如彩色CCD和双目CCD的计算机视觉方法等。此外,还有基于光流 的方法、模板匹配的方法、支持向量机方法、利用神经网络训练的方法以及 多传感器信息融合的方法、基于AdaBoost方法与支持向量机分类器的车辆检 测与识别方法以及基于深度学习与高速-区域卷积神经网络进行车辆的检测或识别方法。上述关于车辆检测的研究方法,最终结果是要确定出车辆存在 的感兴趣区域,但该区域仍存在误检的可能性,如果能够针对感兴趣区域内 的检测结果进行深层次地确认,将会大大提高车辆目标识别的准确性,减小 误检率以增加系统识别的可靠性。
发明内容
本发明设计开发了一种基于径向基神经网络的汽车安全辅助系统前方目 标识别方法,对预处理后的路况影像进行边缘提取,并进行搜索,获取感兴 趣区域作为可能存在的车辆区域,通过统计车辆的边缘特征与区域特征参数, 构建径向基神经网络车辆识别器,实现检测区域内车辆与电动自行车的分类。
本发明提供的技术方案为:
一种基于径向基神经网络的汽车安全辅助系统前方目标识别方法,包括:
获取汽车前方的路况图像,并对所述路况影像进行分割预处理;
对预处理后的路况影像进行边缘提取,并进行搜索,获取感兴趣区域;
对所述感兴趣区域进行特征提取,获取感兴趣区域对应的边缘特征和区 域特征;
将所述边缘特征和区域特征作为输入层向量构建径向基神经网络模型, 在神经网络中对输入层向量特征进行解析,得到与目标相关的输出量;
根据所述输出量得到对应车辆目标,并将所述车辆目标作为识别结果输 出;
其中,所述感兴趣区域包括电动自行车和机动车辆。
优选的是,所述感兴趣区域对应的边缘特征和区域特征包括:离散余弦 变换的子系数独立的不变矩参数构成的边缘特征参数和区域描述特征参数。
优选的是,所述离散余弦变换的子系数计算公式为:
C(k)=|F(k)|/F(1);
其中,C(k)为离散余弦变换的子系数,k为离散 子系数的个数,k=1,2…8;F(k)=X(k)+jY(k);/> j为复平面的虚部n=1,2,3…N-1;n为图像分割 后进行边缘提取所获得的闭合边缘曲线的特征点变量,N为图像分割后进行 边缘提取所获得的闭合边缘曲线的特征点个数,f(m)=x(m)+jy(m);1≤m≤n, f(m)为一维复序列。
优选的是,所述独立的不变矩参数计算公式为:
其中,为所在区域的中心点坐标,μpq为二 值化图像所在区域的中心矩;/>m00为二值化图像所在区域的零阶 几何矩,m01、m10为二值化图像所在区域的一阶几何矩,mpq为二值图像所在 区域的p+q阶几何矩,p为二值化图像中心矩的行阶次,q为二值化图像中心 矩的列阶次。
优选的是,所述目标识别特征参数包括:区域偏心率、区域的短轴和长 轴之比、区域面积、区域周长和区域紧凑系数。
优选的是,所述径向基神经网络模型为三层神经网络模型:
第一层为输入层,完成将特征向量输入网络;
第二层为隐层,能够与输入层完全连接,所述隐层节点选取高斯型径向 基函数作为转移函数,其计算公式为:
式中,||xp-ci||为欧式范数,ci为高斯函数的中心,σ为高斯函数的方差;
第三层为输出层,通过计算隐含层与输出层之间的权值,得到2个输出 量,识别出车辆目标;由径向基神经网络的结构可得到网络的输出为:
式中,为第p个输入样本,p=1,2,…,P,P为样本 总数;ci为网络隐含层节点的中心,ωij为隐含层到输出层的连接权值, i=1,2,…,h为隐含层节点个数,yj为输入样本对用的网络的第j个输出节 点的实际输出,j=1,2,…,n;
其中,dj是样本的期望输出值。
优选的是,所述径向基神经网络的中心由K-means聚类算法求得,具体 过程如下:
步骤一、随机选取h个训练样本作为聚类中心ci,i=1,2,…h;
步骤二、计算每个训练样本与聚类中心的欧式距离,并按照所述欧式距 离将每个训练样本分配到输入样本的各个聚类集合ψp(p=1,2,…,P)中;
步骤三、重新计算各个聚类集合ψp中训练样本的平均值,得到新的聚类 中心ci′;
步骤四、重复所述步骤二和所述步骤三,直至新的聚类中心ci′的变化小 于给定阈值,则得到的ci′即为径向基神经网络最终的基函数中心。
优选的是,所述基函数方差求解公式为:
其中,σi为基函数方差,cmax为选取中心之间的最大距离。
优选的是,所述隐含层与输出层之间的连接权值由最小二乘法计算得到, 计算公式为:
本发明所述的有益效果
本发明设计开发了一种基于径向基神经网络的汽车安全辅助系统前方目 标识别方法,对预处理后的路况影像进行边缘提取,并进行搜索,获取感兴 趣区域作为可能存在的车辆区域,通过统计车辆的边缘特征与区域特征参数, 构建径向基神经网络车辆识别器,实现检测区域内车辆与电动自行车的分类, 大大提高了车辆目标识别的准确性,减小误检率以增加系统识别的可靠性。
附图说明
图1为本发明所述的汽车前方的路况图像。
图2为本发明所述的车辆搜索感兴趣区域示意图。
图3为本发明所述的RBF神经网络结构图。
图4为本发明所述的RBF神经网络测试的误差性能曲线示意图。
具体实施方式
下面结合附图对本发明做进一步的详细说明,以令本领域技术人员参照 说明书文字能够据以实施。
如图1所示,本发明提供的基于径向基神经网络的汽车安全辅助系统前 方目标识别方法,包括:
获取汽车前方的路况图像,并对所述路况影像进行分割预处理;
对预处理后的路况影像进行边缘提取,并进行搜索,获取感兴趣区域;
如图2所示,对所述感兴趣区域进行车辆特征提取,获取感兴趣区域对 应的边缘特征和区域特征;
将所述边缘特征和区域特征作为输入层向量构建径向基神经网络模型, 在神经网络中对输入层向量特征进行解析,得到与目标相关的输出量;
根据所述输出量得到对应车辆目标,并将所述车辆目标作为识别结果输 出。
为了准确地识别出车辆目标,需要对检测到的图像区域提取车辆特有的 特征。特征提取就是从目标的原始信息中提取和选择能够代表目标特征信息 的过程。目前,目标形状识别的方法主要可以归纳为两类:一是基于目标边 缘形状的识别,即边缘特征。二是基于物体所覆盖区域的形状识别,即区域 特征。
对目标进行特征提取要注意以下基本要求:
(1)提取和选择的特征相对于目标的可变参量具有不敏感性;
(2)特征要稳定易于提取;
(3)特征量的维数要明显小于目标的原始数据;
(4)特征量之间要具有尽量小的相关性;
(5)为提高分类精度,增加一些容易将混淆的类别分开的特征。
基于上述特征提取要求,本发明提取车辆(包含电动自行车)的混合特 征,同时包含了边缘特征与区域特征,即提取离散余弦变换的8个子系数、6 个独立的不变矩参数构成的边缘特征参数和5个区域描述特征参数,共计19 个特征参数。
优选的是,所述离散余弦变换的子系数运算过程为:
目标图像经过分割预处理后进行边缘提取,获得外形轮廓数据 f(x[m],y[m]),把N个点组成的闭合边缘曲线放到复平面上,形成一维复序列,
f(m)=x(m)+jy(m);1≤m≤n,
f(m)为一维复序列;对公式进行离散余弦变换如下:
计算得到离散余弦变换子系数:
C(k)=|F(k)|/F(1);
其中,C(k)为离散余弦变换的子系数;k为离散子系数的个数,k=1,2…8; j为复平面的虚部n=1,2,3…N-1;n为图像分割后进行边缘提取所获得的闭合 边缘曲线的特征点变量,N为图像分割后进行边缘提取所获得的闭合边缘曲 线的特征点个数。
离散余弦变换系数对目标具有平移、旋转及比例不变性,对轮廓数据的 起始点不敏感。余弦变换系数的低频部分反映了图像的整体轮廓,其高频部 分仅代表了外形的细节,而且离散余弦变换不需要进行复数运算和数据求模 运算,用较少的特征量可以获得较高的识别率。
如果一幅数字图像满足分段连续,且在XY平面上只有有限个零点,则 可以证明该数字图像的各阶矩存在。
对于二值图像,由于其中像素的值只有0和1,假设目标区域像素值为1, 背景区域像素值为0,则该二值图像的p+q阶矩如公式所示:
该区域的中心矩为:
其中,为所在区域的中心点坐标,μpq为二 值化图像所在区域的中心矩;/>m00为二值化图像所在区域的零阶 几何矩,m01、m10为二值化图像所在区域的一阶几何矩,mpq为二值图像所在 区域的p+q阶几何矩,p为二值化图像中心矩的行阶次,q为二值化图像中心 矩的列阶次。
目标识别特征参数包括:区域偏心率,它是边界长轴长度与短轴长度的 比值,即与区域有着相同二阶矩的椭圆的偏心率,是椭圆的焦距主轴长度间 距离的比率。区域的短轴和长轴之比、区域面积S、区域周长L和区域紧凑系数4πS/L2
径向基函数神经网络是一种将输入矢量扩展或者预处理到高维空间中的 新型神经网络学习方法。它不仅具有良好的推广能力,而且避免了如BP算 法繁琐的计算,从而能够实现神经网络的快速学习。
如图3所示,本发明采用自组织选取中心的RBF神经网络,将提取的8 个离散余弦变换系数、6个独立的不变矩参数构成的边缘特征参数和5个区 域描述特征参数作为网络的输入矢量。要求识别出车辆与否的判别结果。因 此,设计的RBF神经网络具有19维输入神经元和2个输出量。
径向基神经网络模型为三层神经网络模型:第一层为输入层,完成将特 征向量输入网络。第二层为隐层,它与输入层完全连接(权值=1),相当于对 输入模式进行一次变换,将低维的模式输入数据变换到高维空间内,以助于 输出层进行分类识别。这里隐层节点选取高斯型径向基函数作为转移函数。 第三层为输出层,通过计算隐含层与输出层之间的权值,得到2个输出量,识别出车辆目标。
自组织选取中心的RBF神经网络学习法主要包括两个阶段。阶段一:自 组织学习阶段,即无导师学习过程,求解隐层基函数;阶段二:有导师学习 阶段,即求解隐含层到输出层之间的权值。
第一层为输入层,完成将特征向量输入网络;
第二层为隐层,能够与输入层完全连接,隐层节点选取高斯型径向基函 数作为转移函数,其计算公式为:
式中,||xp-ci||为欧式范数,ci为高斯函数的中心,σ为高斯函数的方差;
第三层为输出层,通过计算隐含层与输出层之间的权值,得到2个输出 量,识别出车辆目标;由径向基神经网络的结构可得到网络的输出为:
式中,为第p个输入样本,p=1,2,…,P,P为样本 总数;ci为网络隐含层节点的中心,ωij为隐含层到输出层的连接权值, i=1,2,…,h为隐含层节点个数,yj为输入样本对用的网络的第j个输出节 点的实际输出,j=1,2,…,n;
其中,dj是样本的期望输出值。
径向基神经网络的中心由K-means聚类算法求得,具体过程如下:
步骤一、随机选取h个训练样本作为聚类中心ci,i=1,2,…h;
步骤二、计算每个训练样本与聚类中心的欧式距离,并按照所述欧式距 离将每个训练样本分配到输入样本的各个聚类集合ψp(p=1,2,…,P)中;
步骤三、重新计算各个聚类集合ψp中训练样本的平均值,得到新的聚类 中心ci′;
步骤四、重复所述步骤二和所述步骤三,直至新的聚类中心ci′的变化小 于给定阈值,则得到的ci′即为径向基神经网络最终的基函数中心。
基函数方差求解公式为:
其中,σi为基函数方差,cmax为选取中心之间的最大距离。
隐含层与输出层之间的连接权值由最小二乘法计算得到,计算公式为:
如图4所示,为了验证本发明提出的基于RBF神经网络的ADAS系统前 方目标识别方法的有效性,分别建立了850张车辆样本和850张电动自行车 样本,对RBF神经网络进行了训练,随机选取60%的正负样本图像完成了测 试,RBF神经网络识别准确率可以达到94%以上。通过RBF神经网络的误差 性能曲线可以看出,设计的网络达到了训练误差要求。
本发明设计开发了一种基于径向基神经网络的汽车安全辅助系统前方目 标识别方法,对预处理后的路况影像进行边缘提取,并进行搜索,获取感兴 趣区域作为可能存在的车辆区域,通过统计车辆的边缘特征与区域特征参数, 构建径向基神经网络车辆识别器,实现检测区域内车辆与电动自行车的分类, 大大提高了车辆目标识别的准确性,减小误检率以增加系统识别的可靠性。
尽管本发明的实施方案已公开如上,但其并不仅仅限于说明书和实施方 式中所列运用,它完全可以被适用于各种适合本发明的领域,对于熟悉本领 域的人员而言,可容易地实现另外的修改,因此在不背离权利要求及等同范 围所限定的一般概念下,本发明并不限于特定的细节和这里示出与描述的图 例。

Claims (7)

1.一种基于径向基神经网络的汽车安全辅助系统前方目标识别方法,其特征在于,包括:
获取汽车前方的路况图像,并对所述路况影像进行分割预处理;
对预处理后的路况影像进行边缘提取,并进行搜索,获取感兴趣区域;
对所述感兴趣区域进行特征提取,获取感兴趣区域对应的边缘特征和区域特征;
将所述边缘特征和区域特征作为输入层向量构建径向基神经网络模型,在神经网络中对输入层向量特征进行解析,得到与目标相关的输出量;
根据所述输出量得到对应车辆目标,并将所述车辆目标作为识别结果输出;
所述感兴趣区域包括电动自行车和机动车辆;
所述感兴趣区域对应的车辆边缘特征和区域特征包括:离散余弦变换的子系数独立的不变矩参数构成的边缘特征参数和区域描述特征参数;
所述离散余弦变换的子系数计算公式为:
C(k)=|F(k)|/F(1);
其中,C(k)为离散余弦变换的子系数,k为离散子系数的个数,k=1,2…8;F(k)=X(k)+jY(k);
j为复平面的虚部n=1,2,3…N-1;n为图像分割后进行边缘提取所获得的闭合边缘曲线的特征点变量,N为图像分割后进行边缘提取所获得的闭合边缘曲线的特征点个数,f(m)=x(m)+jy(m);1≤m≤n,f(m)为一维复序列。
2.根据权利要求1所述的基于径向基神经网络的汽车安全辅助系统前方目标识别方法,其特征在于,所述独立的不变矩参数计算公式为:
其中,为所在区域的中心点坐标,μpq为二值化图像所在区域的中心矩;/>m00为二值化图像所在区域的零阶几何矩,m01、m10为二值化图像所在区域的一阶几何矩,mpq为二值图像所在区域的p+q阶几何矩,p为二值化图像中心矩的行阶次,q为二值化图像中心矩的列阶次。
3.根据权利要求2所述的基于径向基神经网络的汽车安全辅助系统前方目标识别方法,其特征在于,所述目标识别特征参数包括:区域偏心率、区域的短轴和长轴之比、区域面积、区域周长和区域紧凑系数。
4.根据权利要求3所述的基于径向基神经网络的汽车安全辅助系统前方目标识别方法,其特征在于,所述径向基神经网络模型为三层神经网络模型:
第一层为输入层,完成将特征向量输入网络;
第二层为隐层,能够与输入层完全连接,所述隐层节点选取高斯型径向基函数作为转移函数,其计算公式为:
式中,||xp-ci||为欧式范数,ci为高斯函数的中心,σ为高斯函数的方差;
第三层为输出层,通过计算隐含层与输出层之间的权值,得到2个输出量,识别出车辆目标;由径向基神经网络的结构可得到网络的输出为:
式中,为第p个输入样本,p=1,2,…,P,P为样本总数;ci为网络隐含层节点的中心,ωij为隐含层到输出层的连接权值,i=1,2,…,h为隐含层节点个数,yj为输入样本对用的网络的第j个输出节点的实际输出,j=1,2,…,n;
其中,dj是样本的期望输出值。
5.根据权利要求4所述的基于径向基神经网络的汽车安全辅助系统前方目标识别方法,其特征在于,所述径向基神经网络的中心由K-means聚类算法求得,具体过程如下:
步骤一、随机选取h个训练样本作为聚类中心ci,i=1,2,…h;
步骤二、计算每个训练样本与聚类中心的欧式距离,并按照所述欧式距离将每个训练样本分配到输入样本的各个聚类集合ψp(p=1,2,…,P)中;
步骤三、重新计算各个聚类集合ψp中训练样本的平均值,得到新的聚类中心ci′;
步骤四、重复所述步骤二和所述步骤三,直至新的聚类中心ci′的变化小于给定阈值,则得到的ci′即为径向基神经网络最终的基函数中心。
6.根据权利要求5所述的基于径向基神经网络的汽车安全辅助系统前方目标识别方法,其特征在于,所述基函数方差求解公式为:
其中,σi为基函数方差,cmax为选取中心之间的最大距离。
7.根据权利要求6所述的基于径向基神经网络的汽车安全辅助系统前方目标识别方法,其特征在于,所述隐含层与输出层之间的连接权值由最小二乘法计算得到,计算公式为:
CN201911263299.9A 2019-12-11 2019-12-11 一种基于单目视觉神经网络的汽车安全辅助系统前方目标识别方法 Active CN110991377B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201911263299.9A CN110991377B (zh) 2019-12-11 2019-12-11 一种基于单目视觉神经网络的汽车安全辅助系统前方目标识别方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201911263299.9A CN110991377B (zh) 2019-12-11 2019-12-11 一种基于单目视觉神经网络的汽车安全辅助系统前方目标识别方法

Publications (2)

Publication Number Publication Date
CN110991377A CN110991377A (zh) 2020-04-10
CN110991377B true CN110991377B (zh) 2023-09-19

Family

ID=70092204

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201911263299.9A Active CN110991377B (zh) 2019-12-11 2019-12-11 一种基于单目视觉神经网络的汽车安全辅助系统前方目标识别方法

Country Status (1)

Country Link
CN (1) CN110991377B (zh)

Families Citing this family (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111862608B (zh) * 2020-07-22 2022-06-24 湖北文理学院 车辆行驶路况识别方法、装置、设备及存储介质
CN112558510B (zh) * 2020-10-20 2022-11-15 山东亦贝数据技术有限公司 一种智能网联汽车安全预警系统及预警方法
CN113469518A (zh) * 2021-07-30 2021-10-01 宁波市凯弘工程咨询有限公司 一种基于rbf神经网络的农村住房台风灾害预估方法
CN114092701B (zh) * 2021-12-04 2022-06-03 特斯联科技集团有限公司 一种基于神经网络的符号智能识别方法

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN101814160A (zh) * 2010-03-08 2010-08-25 清华大学 一种基于特征聚类的rbf神经网络建模方法
CN103020582A (zh) * 2012-09-20 2013-04-03 苏州两江科技有限公司 计算机通过视频图像识别车辆类型的方法
CN106056147A (zh) * 2016-05-27 2016-10-26 大连楼兰科技股份有限公司 基于人工智能径向基函数神经网络方法建立不同分车型分目标远程定损系统及方法
CN106960075A (zh) * 2017-02-27 2017-07-18 浙江工业大学 基于线性直连法的径向基函数人工神经元网络的喷射器性能的预测方法
WO2018187953A1 (zh) * 2017-04-12 2018-10-18 邹霞 基于神经网络的人脸识别方法
CN110261436A (zh) * 2019-06-13 2019-09-20 暨南大学 基于红外热成像和计算机视觉的轨道故障检测方法及系统

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN101814160A (zh) * 2010-03-08 2010-08-25 清华大学 一种基于特征聚类的rbf神经网络建模方法
CN103020582A (zh) * 2012-09-20 2013-04-03 苏州两江科技有限公司 计算机通过视频图像识别车辆类型的方法
CN106056147A (zh) * 2016-05-27 2016-10-26 大连楼兰科技股份有限公司 基于人工智能径向基函数神经网络方法建立不同分车型分目标远程定损系统及方法
CN106960075A (zh) * 2017-02-27 2017-07-18 浙江工业大学 基于线性直连法的径向基函数人工神经元网络的喷射器性能的预测方法
WO2018187953A1 (zh) * 2017-04-12 2018-10-18 邹霞 基于神经网络的人脸识别方法
CN110261436A (zh) * 2019-06-13 2019-09-20 暨南大学 基于红外热成像和计算机视觉的轨道故障检测方法及系统

Non-Patent Citations (3)

* Cited by examiner, † Cited by third party
Title
张小军 等.基于径向基函数神经网络的车型识别技术.西北大学学报(自然科学网络版).2006,第4卷(第2期),1-6. *
沈凤龙 ; 毕娟 ; .基于多神经网络分类器的汽车车型识别方法研究.辽东学院学报(自然科学版).(第03期),全文. *
袁艳 ; 叶俊浩 ; 苏丽娟 ; .基于改进的粒子群径向基神经网络的目标识别.计算机应用.(第S1期),全文. *

Also Published As

Publication number Publication date
CN110991377A (zh) 2020-04-10

Similar Documents

Publication Publication Date Title
CN110991377B (zh) 一种基于单目视觉神经网络的汽车安全辅助系统前方目标识别方法
CN111310574B (zh) 一种车载视觉实时多目标多任务联合感知方法和装置
Dai et al. TIRNet: Object detection in thermal infrared images for autonomous driving
CN110942000B (zh) 一种基于深度学习的无人驾驶车辆目标检测方法
CN113920499B (zh) 一种面向复杂交通场景的激光点云三维目标检测模型及方法
US10157441B2 (en) Hierarchical system for detecting object with parallel architecture and hierarchical method thereof
CN112990065B (zh) 一种基于优化的YOLOv5模型的车辆分类检测方法
CN105069415B (zh) 车道线检测方法和装置
CN108875608B (zh) 一种基于深度学习的机动车交通信号识别方法
CN110263786B (zh) 一种基于特征维度融合的道路多目标识别系统及方法
Li et al. Vehicle detection based on the and–or graph for congested traffic conditions
JP2016062610A (ja) 特徴モデル生成方法及び特徴モデル生成装置
Kuang et al. Feature selection based on tensor decomposition and object proposal for night-time multiclass vehicle detection
CN107633220A (zh) 一种基于卷积神经网络的车辆前方目标识别方法
CN109993074A (zh) 辅助驾驶的处理方法、装置、设备及存储介质
CN105069859B (zh) 车辆行驶状态监测方法和装置
CN114359876B (zh) 一种车辆目标识别方法及存储介质
CN114022705B (zh) 一种基于场景复杂度预分类的自适应目标检测方法
CN111461221A (zh) 一种面向自动驾驶的多源传感器融合目标检测方法和系统
CN106446834A (zh) 一种基于图像的车型识别方法及装置
CN112084890A (zh) 基于gmm和cqfl的多尺度识别交通信号标志的方法
Karthika et al. A novel convolutional neural network based architecture for object detection and recognition with an application to traffic sign recognition from road scenes
CN115100618B (zh) 一种多源异构感知信息多层级融合表征与目标识别方法
CN106203396A (zh) 基于深度卷积和梯度旋转不变性的航拍图像目标检测方法
Dutta et al. ViT-BEVSeg: A hierarchical transformer network for monocular birds-eye-view segmentation

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant