CN111709434B - 一种鲁棒的基于最近邻特征点匹配的多尺度模板匹配方法 - Google Patents
一种鲁棒的基于最近邻特征点匹配的多尺度模板匹配方法 Download PDFInfo
- Publication number
- CN111709434B CN111709434B CN202010597667.XA CN202010597667A CN111709434B CN 111709434 B CN111709434 B CN 111709434B CN 202010597667 A CN202010597667 A CN 202010597667A CN 111709434 B CN111709434 B CN 111709434B
- Authority
- CN
- China
- Prior art keywords
- matching
- template
- feature
- image
- correlation coefficient
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/40—Extraction of image or video features
- G06V10/56—Extraction of image or video features relating to colour
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/21—Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
- G06F18/214—Generating training patterns; Bootstrap methods, e.g. bagging or boosting
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/22—Matching criteria, e.g. proximity measures
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- Data Mining & Analysis (AREA)
- General Physics & Mathematics (AREA)
- Life Sciences & Earth Sciences (AREA)
- Artificial Intelligence (AREA)
- General Engineering & Computer Science (AREA)
- Evolutionary Computation (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Computational Linguistics (AREA)
- Bioinformatics & Computational Biology (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Health & Medical Sciences (AREA)
- Biomedical Technology (AREA)
- Biophysics (AREA)
- Evolutionary Biology (AREA)
- General Health & Medical Sciences (AREA)
- Molecular Biology (AREA)
- Computing Systems (AREA)
- Mathematical Physics (AREA)
- Software Systems (AREA)
- Multimedia (AREA)
- Image Analysis (AREA)
Abstract
一种鲁棒的基于最近邻特征点匹配的多尺度模板匹配方法,属于计算机视觉、图像处理领域,解决了现有的基于最邻近点匹配的方法存在,检测目标出现较大尺度缩放时检测准确度不够的问题。本发明通过对模板图像和被搜索图像的像素点提取特征;对像素点间进行最近邻特征匹配;根据初步匹配的相关性系数初步筛选搜索位置;对不同尺度,所有初步筛选搜索位置进行模板匹配相关性计算,并获得最优匹配结果。本发明适用于图像匹配使用。
Description
技术领域
本发明属于计算机视觉、图像处理领域,
背景技术
模板匹配是一种模式识别方法,通过模板在被搜索图像上的平移,并计算模板图像与覆盖的被搜索图像区域的相似度来识别目标。常用的模板匹配方法往往预先假定了模板与目标间的变换关系,如平移、旋转、缩放、仿射等,然后搜索获得最优的变换关系。但是在现实场景拍摄的图像中,会出现遮挡、模糊或复杂形变等情况,模板与目标间的变换关系不能用简单的模型表达。
近年学者们提出基于最近邻点匹配的方法,提高了对复杂形变情况的鲁棒性,但是一般均假定了搜索窗口与模板大小相同,在检测目标出现较大尺度缩放时检测准确度不够的问题。
发明内容
本发明目的是为了解决现有的基于最邻近点匹配的方法存在,检测目标出现较大尺度缩放时检测准确度不够的问题,提供了一种鲁棒的基于最近邻特征点匹配的多尺度模板匹配方法。
本发明所述一种鲁棒的基于最近邻特征点匹配的多尺度模板匹配方法,该方法具体包括:
步骤一、对模板图像T和被搜索图像S分别进行像素特征提取,获取模板特征集FT和目标特征集FS;
步骤二、在模板特征集FT中搜索目标特征集FS中的每个目标特征的最邻近特征,获取每个目标特征在模板特征集FT中的最邻近特征;
步骤三、利用目标特征集FS中每个目标特征的最邻近特征,计算被搜索图像S中每个像素点与模板图像T的初始匹配相关系数;
步骤四、利用步骤三所述的初始匹配相关系数,对被搜索图像S中的像素点进行筛选,获取匹配像素点坐标集;
步骤五、对被搜索图像S的尺寸进行缩放,计算不同尺寸下匹配像素点坐标集中每个像素点的相关系数,获取相关系数最大的像素点的坐标及对应的缩放尺寸,将所述相关系数最大的像素点的坐标及对应的缩放尺寸作为模板匹配最优的检测结果,完成一次图像匹配。
进一步地,本发明中,模板特征集FT和被搜索图像S的特征为颜色特征或深度特征。
进一步地,本发明中,像素点的深度特征的提取采用VGG19神经网络模型实现。
进一步地,本发明中,步骤二中获取每个目标特征在模板特征集FT中的最邻近特征的方法为FLANN快速最近邻搜索库方法。
进一步地,本发明中,步骤三中所述计算被搜索图像S中每个像素点与模板图像T的初始匹配相关系数的具体方法为:
通过公式:
计算获得搜索位置坐标点(is,js)的初始匹配相关系数为C0(is,js),其中|{}|为计算集合中点的个数,(nnx(i″s,j″s),nny(i″s,j″s))为特征fs(i″s,j″s)在FT中最近邻特征的像素坐标,(i″t,j″t)为模板图像的像素点集P中的点;
P={(i″t,j″t),i″t=0,1,...,w-1,j″t=0,1,...,h-1},
Q为被搜索图像重叠区域的像素点集,
Q={(i″s,j″s),i″s=i″sl,i″sl+1,...,i″sr,j″s=j″sl,j″sl+1,...,j″sr},
i″sl=max(is-w2,0),
i″sr=min(is+w-1-w2,W-1),
j″sl=max(js-h2,0),
j″sr=min(js+h-1-h2,H-1),
(is,js)为搜索位置坐标点,w是模板图像宽度,当w为偶数,w2=w/2,当w为奇数,w2=(w-1)/2,当h为偶数,h2=h/2,当h为奇数,h2=(h-1)/2,W为被搜索图像S的宽度,H为被搜索图像S的高度。
进一步地,本发明中,步骤四中利用步骤三所述的初始匹配相关系数,对被搜索图像S中的像素点进行筛选的具体方法为:
S′={(i′s,j′s),C0(i′s,j′s)≥0.7×C0m}
其中,C0m为所有初始搜索位置相关系数的最大值,C0(i′s,j′s)为坐标点(i′s,j′s)的初始匹配相关系数,(i′s,j′s)为搜索位置坐标点。
进一步地,本发明中,步骤五中所述计算不同尺寸下匹配像素点坐标集中每个像素点的相关系数的具体方法为:
通过公式:
计算获得尺度为α,搜索位置坐标点为(i′s,j′s)时模板匹配相关系数C(α,i′s,j′s),其中,尺度α的选取范围为0.5到2,步长为0.1,其中,Q′为被搜索图像重叠区域的像素点集;
Q′={(i″′s,j″′s),i″′s=i″′sl,i″′sl+1,...,i″′sr,j″′s=j″′sl,j″′sl+1,...,j″′sr},
i″′sl=max(i′s-w1,0),
j″′sl=max(js-h1,0),
Ι[]为指示函数。
本发明主要用于当对象物存在复杂形变和较大尺度缩放时,实现用模板在被搜索图像中搜寻目标。本方法是通过对模板图像和被搜索图像的像素点提取特征;对像素点间进行最近邻特征匹配;根据初步匹配的相关性系数初步筛选搜索位置;对不同尺度,所有初步筛选搜索位置进行模板匹配相关性计算,并获得最优匹配结果。本发明能够提高现实场景图像中目标存在复杂形变和较大尺度缩放时模板匹配的准确度。
附图说明
图1为本发明所述方法的流程图;
图2为现实场景中拍摄的图像,绿色矩形框区域为模板图像;
图3为现实场景中拍摄的图像,绿色矩形框区域为目标的真实区域,红色矩形框区域为该方法的模板匹配结果;
图4为模板图像与搜索覆盖子图的相关性分数热度图。
具体实施方式
下面将结合本发明实施例中的附图,对本发明实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例仅仅是本发明一部分实施例,而不是全部的实施例。基于本发明中的实施例,本领域普通技术人员在没有作出创造性劳动的前提下所获得的所有其他实施例,都属于本发明保护的范围。
需要说明的是,在不冲突的情况下,本发明中的实施例及实施例中的特征可以相互组合。
具体实施方式一:下面结合图1说明本实施方式,本实施方式所述一种鲁棒的基于最近邻特征点匹配的多尺度模板匹配方法,该方法具体包括:
步骤一、对模板图像T和被搜索图像S分别进行像素特征提取,获取模板特征集FT和目标特征集FS;
步骤二、在模板特征集FT中搜索目标特征集FS中的每个目标特征的最邻近特征,获取每个目标特征在模板特征集FT中的最邻近特征;
步骤三、利用目标特征集FS中每个目标特征的最邻近特征,计算被搜索图像S中每个像素点与模板图像T的初始匹配相关系数;
步骤四、利用步骤三所述的初始匹配相关系数,对被搜索图像S中的像素点进行筛选,获取匹配像素点坐标集;
步骤五、对被搜索图像S的尺寸进行缩放,计算不同尺寸下匹配像素点坐标集中每个像素点的相关系数,获取相关系数最大的像素点的坐标及对应的缩放尺寸,将所述相关系数最大的像素点的坐标及对应的缩放尺寸作为模板匹配最优的检测结果,完成一次图像匹配。
进一步地,本实施方式中,步骤一所述的像素特征为颜色特征或深度特征。
进一步地,本实施方式中,深度特征的提取采用VGG19神经网络模型实现。
实施方式采用的VGG19网络是一个经典的神经网络模型,在ImageNet数据集上预训练获得参数后,进行提取图像特征。它相比于传统特征提取方法更能获得图像的高层语义。
进一步地,本实施方式中,步骤二中获取每个目标特征在模板特征集FT中的最邻近特征的方法为FLANN快速最近邻搜索库方法。
进一步地,本实施方式中,步骤三中所述计算被搜索图像S中每个像素点与模板图像T的初始匹配相关系数的具体方法为:
通过公式:
计算获得搜索位置坐标点(is,js)的初始匹配相关系数为C0(is,js),其中|{}|为计算集合中点的个数,(nnx(i″s,j″s),nny(i″s,j″s))为特征fs(i″s,j″s)在FT中最近邻特征的像素坐标,(i″t,j″t)为模板图像的像素点集P中的点;
P={(i″t,j″t),i″t=0,1,...,w-1,j″t=0,1,...,h-1},
Q为被搜索图像重叠区域的像素点集,
Q={(i″s,j″s),i″s=i″sl,i″sl+1,...,i″sr,j″s=j″sl,j″sl+1,...,j″sr},
i″sl=max(is-w2,0),
i″sr=min(is+w-1-w2,W-1),
j″sl=max(js-h2,0),
j″sr=min(js+h-1-h2,H-1),
(is,js)为搜索位置坐标点,w是模板图像宽度,当w为偶数,w2=w/2,当w为奇数,w2=(w-1)/2,当h为偶数,h2=h/2,当h为奇数,h2=(h-1)/2,W为被搜索图像S的宽度,H为被搜索图像S的高度。
进一步地,本实施方式中,步骤四中利用步骤三所述的初始匹配相关系数,对被搜索图像S中的像素点进行筛选的具体方法为:
S′={(i′s,j′s),C0(i′s,j′s)≥0.7×C0m}
其中,C0m为所有初始搜索位置相关系数的最大值,C0(i′s,j′s)为坐标点(i′s,j′s)的初始匹配相关系数,(i′s,j′s)为搜索位置坐标点。
进一步地,本实施方式中,步骤五中所述计算不同尺寸下匹配像素点坐标集中每个像素点的相关系数的具体方法为:
通过公式:
计算获得尺度为α,搜索位置坐标点为(i′s,j′s)时模板匹配相关系数C(α,i′s,j′s),其中,尺度α的选取范围为0.5到2,步长为0.1,其中,Q′为被搜索图像重叠区域的像素点集;
Q′={(i″′s,j″′s),i″′s=i″′sl,i″′sl+1,...,i″′sr,j″′s=j″′sl,j″′sl+1,...,j″′sr},
i″′sl=max(i′s-w1,0),
j″′sl=max(js-h1,0),
Ι[]为指示函数。
本发明中在具体实施时,如图2至4所示,先分别对模板图像T和被搜索图像S中的每个像素点提取特征,
获得特征集合:
FT={ft(it,jt),it=0,1,...,w-1,jt=0,1,...,h-1}
FS={fs(is,js),is=0,1,...,W-1,js=0,1,...,H-1}
其中,模板图像T为宽度w,高度h的三通道图像,被搜索图像S为宽度W,高度H的三通道图像,ft(it,jt)为模板图像坐标点(it,jt)处提取的特征,fs(is,js)为被搜索图像坐标点(is,js)处提取的特征。特征可以是颜色特征或深度特征,其中,像素点的颜色特征为以该像素点为中心的3×3图像块的RGB颜色值所排列成的27维向量,像素点的深度特征通过VGG19神经网络模型的网络层conv1_2和conv3_4连接获得,VGG19网络模型参数是在ImageNet数据集上预训练获得。
然后,对特征集合FS中的每个特征,在特征集合FT中搜索获得其最近邻的特征,其中特征fs(is,js)在FT中最近邻特征的像素坐标为(nnx(is,js),nny(is,js))。
最近邻特征搜索方法采用FLANN快速最近邻搜索库。
再后,将被搜索图像S中每个坐标点作为初始搜索位置,对每个初始搜索位置,计算初始匹配相关系数,其中搜索位置坐标点(is,js)的初始匹配相关系数为C0(is,js),并计算所有初始搜索位置相关系数的最大值C0m;然后筛选模板匹配搜索位置,筛选后的搜索位置坐标集合为S′={(i′s,j′s),C0(i′s,j′s)≥0.7×C0m}。
最后,对不同尺度,计算所有筛选后的搜索位置的模板匹配的相关系数,其中尺度为α时,搜索位置坐标点(i′s,j′s)的模板匹配相关系数为C(α,i′s,j′s),尺度α的选取范围从0.5到2,步长0.1;然后模板匹配相关系数的最大值对应的尺度αm和坐标(ism,jsm)即为模板匹配最优的检测结果,即
虽然在本文中参照了特定的实施方式来描述本发明,但是应该理解的是,这些实施例仅仅是本发明的原理和应用的示例。因此应该理解的是,可以对示例性的实施例进行许多修改,并且可以设计出其他的布置,只要不偏离所附权利要求所限定的本发明的精神和范围。应该理解的是,可以通过不同于原始权利要求所描述的方式来结合不同的从属权利要求和本文中所述的特征。还可以理解的是,结合单独实施例所描述的特征可以使用在其他所述实施例中。
Claims (4)
1.一种鲁棒的基于最近邻特征点匹配的多尺度模板匹配方法,其特征在于,该方法具体包括:
步骤一、对模板图像T和被搜索图像S分别进行像素特征提取,获取模板特征集FT和目标特征集FS;
步骤二、在模板特征集FT中搜索目标特征集FS中的每个目标特征的最邻近特征,获取每个目标特征在模板特征集FT中的最邻近特征;
步骤三、利用目标特征集FS中每个目标特征的最邻近特征,计算被搜索图像S中每个像素点与模板图像T的初始匹配相关系数;
步骤四、利用步骤三所述的初始匹配相关系数,对被搜索图像S中的像素点进行筛选,获取匹配像素点坐标集;
步骤五、对被搜索图像S的尺寸进行缩放,计算不同尺寸下匹配像素点坐标集中每个像素点的相关系数,获取相关系数最大的像素点的坐标及对应的缩放尺寸,将所述相关系数最大的像素点的坐标及对应的缩放尺寸作为模板匹配最优的检测结果,完成一次图像匹配;
步骤三中所述计算被搜索图像S中每个像素点与模板图像T的初始匹配相关系数的具体方法为:
通过公式:
计算获得搜索位置坐标点(is,js)的初始匹配相关系数为C0(is,js),其中|{}|为计算集合中点的个数,(nnx(i″s,j″s),nny(i″s,j″s))为特征fs(i″s,j″s)在FT中最近邻特征的像素坐标,(i″t,j″t)为模板图像的像素点集P中的点;
P={(i″t,j″t),i″t=0,1,…,w-1,j″t=0,1,…,h-1},
Q为被搜索图像重叠区域的像素点集,
Q={(i″s,j″s),i″s=i″sl,i″sl+1,…,i″sr,js″=j″sl,j″sl+1,…,j″sr},
i″sl=max(is-w2,0),
i″sr=min(is+w-1-w2,W-1),
j″sl=max(js-h2,0),
j″sr=min(js+h-1-h2,H-1),
(is,js)为搜索位置坐标点,w是模板图像宽度,当w为偶数,w2=w/2,当w为奇数,w2=(w-1)/2,当h为偶数,h2=h/2,当h为奇数,h2=(h-1)/2,W为被搜索图像S的宽度,H为被搜索图像S的高度;
步骤四中利用步骤三所述的初始匹配相关系数,对被搜索图像S中的像素点进行筛选的具体方法为:
S′={(i′s,j′s),C0(i′s,j′s)≥0.7×C0m}
计算实现,其中,S′为匹配像素点坐标集,C0m为所有初始搜索位置相关系数的最大值,C0(i′s,j′s)为坐标点(i′s,j′s)的初始匹配相关系数,(i′s,j′s)为搜索位置坐标点;
步骤五中所述计算不同尺寸下匹配像素点坐标集中每个像素点的相关系数的具体方法为:
通过公式:
计算获得尺度为α搜索位置坐标点为(i′s,j′s)时模板匹配相关系数C(α,i′s,j′s),其中,尺度α的选取范围为0.5到2,步长为0.1,其中,Q′为被搜索图像重叠区域的像素点集;
Q′={(i″′s,j″′s),i″′s=i″′sl,i″′sl+1,…,i″′sr,j″′s=j″′sl,j″′sl+1,…,j″′sr},
i″′sl=max(i′s-w1,0),
j″′sl=max(js-h1,0),
Ι[]为指示函数。
2.根据权利要求1所述的一种鲁棒的基于最近邻特征点匹配的多尺度模板匹配方法,其特征在于,步骤一所述的像素特征为颜色特征或深度特征。
3.根据权利要求2所述的一种鲁棒的基于最近邻特征点匹配的多尺度模板匹配方法,其特征在于,深度特征的提取采用VGG19神经网络模型实现。
4.根据权利要求1所述的一种鲁棒的基于最近邻特征点匹配的多尺度模板匹配方法,其特征在于,步骤二中获取每个目标特征在模板特征集FT中的最邻近特征的方法为FLANN快速最近邻搜索库方法。
Priority Applications (1)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| CN202010597667.XA CN111709434B (zh) | 2020-06-28 | 2020-06-28 | 一种鲁棒的基于最近邻特征点匹配的多尺度模板匹配方法 |
Applications Claiming Priority (1)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| CN202010597667.XA CN111709434B (zh) | 2020-06-28 | 2020-06-28 | 一种鲁棒的基于最近邻特征点匹配的多尺度模板匹配方法 |
Publications (2)
| Publication Number | Publication Date |
|---|---|
| CN111709434A CN111709434A (zh) | 2020-09-25 |
| CN111709434B true CN111709434B (zh) | 2022-10-04 |
Family
ID=72543704
Family Applications (1)
| Application Number | Title | Priority Date | Filing Date |
|---|---|---|---|
| CN202010597667.XA Active CN111709434B (zh) | 2020-06-28 | 2020-06-28 | 一种鲁棒的基于最近邻特征点匹配的多尺度模板匹配方法 |
Country Status (1)
| Country | Link |
|---|---|
| CN (1) | CN111709434B (zh) |
Families Citing this family (2)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| CN112966725B (zh) * | 2021-02-08 | 2024-01-16 | 深圳市优必选科技股份有限公司 | 匹配模板图像的方法、装置及终端设备 |
| CN119649068B (zh) * | 2025-02-18 | 2025-06-10 | 深圳市睿达科技有限公司 | 一种多尺度机器视觉匹配方法 |
Citations (11)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| CN104680550A (zh) * | 2015-03-24 | 2015-06-03 | 江南大学 | 一种通过图像特征点的轴承表面瑕疵检测的方法 |
| CN104866806A (zh) * | 2014-02-21 | 2015-08-26 | 深圳富泰宏精密工业有限公司 | 具有人脸定位辅助功能的自拍系统及方法 |
| CN104966047A (zh) * | 2015-05-22 | 2015-10-07 | 浪潮电子信息产业股份有限公司 | 一种车牌识别的方法及装置 |
| CN106407987A (zh) * | 2016-08-31 | 2017-02-15 | 中国工程物理研究院激光聚变研究中心 | 基于图像互相关匹配的电光晶体光轴出露点提取方法 |
| CN106886748A (zh) * | 2016-12-28 | 2017-06-23 | 中国航天电子技术研究院 | 一种基于tld的适用于无人机的变尺度目标跟踪方法 |
| CN107239792A (zh) * | 2017-05-12 | 2017-10-10 | 大连理工大学 | 一种基于二进制描述子的工件识别方法及装置 |
| CN108629769A (zh) * | 2018-05-02 | 2018-10-09 | 山东师范大学 | 基于最佳兄弟相似度的眼底图像视盘定位方法及系统 |
| CN109271996A (zh) * | 2018-08-21 | 2019-01-25 | 南京理工大学 | 基于surf特征和哈希感知算法的fpc图像自动配准方法 |
| CN109389038A (zh) * | 2018-09-04 | 2019-02-26 | 阿里巴巴集团控股有限公司 | 一种信息的检测方法、装置及设备 |
| CN109766943A (zh) * | 2019-01-10 | 2019-05-17 | 哈尔滨工业大学(深圳) | 一种基于全局感知多样性度量的模板匹配方法及系统 |
| CN109800787A (zh) * | 2018-12-14 | 2019-05-24 | 西安交通大学 | 基于相对特征距离误差度量的图像模板匹配方法 |
-
2020
- 2020-06-28 CN CN202010597667.XA patent/CN111709434B/zh active Active
Patent Citations (11)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| CN104866806A (zh) * | 2014-02-21 | 2015-08-26 | 深圳富泰宏精密工业有限公司 | 具有人脸定位辅助功能的自拍系统及方法 |
| CN104680550A (zh) * | 2015-03-24 | 2015-06-03 | 江南大学 | 一种通过图像特征点的轴承表面瑕疵检测的方法 |
| CN104966047A (zh) * | 2015-05-22 | 2015-10-07 | 浪潮电子信息产业股份有限公司 | 一种车牌识别的方法及装置 |
| CN106407987A (zh) * | 2016-08-31 | 2017-02-15 | 中国工程物理研究院激光聚变研究中心 | 基于图像互相关匹配的电光晶体光轴出露点提取方法 |
| CN106886748A (zh) * | 2016-12-28 | 2017-06-23 | 中国航天电子技术研究院 | 一种基于tld的适用于无人机的变尺度目标跟踪方法 |
| CN107239792A (zh) * | 2017-05-12 | 2017-10-10 | 大连理工大学 | 一种基于二进制描述子的工件识别方法及装置 |
| CN108629769A (zh) * | 2018-05-02 | 2018-10-09 | 山东师范大学 | 基于最佳兄弟相似度的眼底图像视盘定位方法及系统 |
| CN109271996A (zh) * | 2018-08-21 | 2019-01-25 | 南京理工大学 | 基于surf特征和哈希感知算法的fpc图像自动配准方法 |
| CN109389038A (zh) * | 2018-09-04 | 2019-02-26 | 阿里巴巴集团控股有限公司 | 一种信息的检测方法、装置及设备 |
| CN109800787A (zh) * | 2018-12-14 | 2019-05-24 | 西安交通大学 | 基于相对特征距离误差度量的图像模板匹配方法 |
| CN109766943A (zh) * | 2019-01-10 | 2019-05-17 | 哈尔滨工业大学(深圳) | 一种基于全局感知多样性度量的模板匹配方法及系统 |
Non-Patent Citations (2)
| Title |
|---|
| "Template Matching with Deformable Diversity Similarity;I. Talmi, R. Mechrez and L. Zelnik-Manor;《2017 IEEE Conference on Computer Vision and Pattern Recognition (CVPR)》;20171109;正文第1311-1319页 * |
| Best-Buddies Similarity—Robust Template Matching Using Mutual Nearest Neighbors;S. Oron, T. Dekel, T. Xue, W. T. Freeman and S. Avidan;《IEEE Transactions on Pattern Analysis and Machine Intelligence》;20180801;正文第1799-1813 * |
Also Published As
| Publication number | Publication date |
|---|---|
| CN111709434A (zh) | 2020-09-25 |
Similar Documents
| Publication | Publication Date | Title |
|---|---|---|
| CN109903331B (zh) | 一种基于rgb-d相机的卷积神经网络目标检测方法 | |
| CN112215925B (zh) | 自适应采煤机随动跟踪多摄像头视频拼接方法 | |
| CN111340701B (zh) | 一种基于聚类法筛选匹配点的电路板图像拼接方法 | |
| CN105608671B (zh) | 一种基于surf算法的图像拼接方法 | |
| CN106683046B (zh) | 用于警用无人机侦察取证的图像实时拼接方法 | |
| CN108876723B (zh) | 一种灰度目标图像的彩色背景的构建方法 | |
| CN106203342A (zh) | 基于多角度局部特征匹配的目标识别方法 | |
| CN104751465A (zh) | 一种基于lk光流约束的orb图像特征配准方法 | |
| CN111738211B (zh) | 基于动态背景补偿与深度学习的ptz摄像机运动目标检测与识别方法 | |
| CN110472625B (zh) | 一种基于傅里叶描述子的象棋棋子视觉识别方法 | |
| CN102799859A (zh) | 一种交通标志识别方法 | |
| CN104966054B (zh) | 无人机可见光图像中的弱小目标检测方法 | |
| Fang et al. | Real-time hand posture recognition using hand geometric features and fisher vector | |
| CN111709434B (zh) | 一种鲁棒的基于最近邻特征点匹配的多尺度模板匹配方法 | |
| CN112906550A (zh) | 一种基于分水岭变换的静态手势识别方法 | |
| CN110222661A (zh) | 一种用于运动目标识别及跟踪的特征提取方法 | |
| CN113112531B (zh) | 一种图像匹配方法及装置 | |
| CN111260555A (zh) | 一种基于surf的改进图像拼接方法 | |
| CN109800637A (zh) | 一种遥感影像小目标检测方法 | |
| CN108229583A (zh) | 一种基于主方向差分特征的快速模板匹配的方法及装置 | |
| CN113379634B (zh) | 一种基于两阶段图像上下文识别网络及单图像阴影去除方法 | |
| CN106603888A (zh) | 图像颜色提取处理结构 | |
| CN114782268A (zh) | 一种改进surf算法的低照度图像增强方法 | |
| CN112241682B (zh) | 一种基于分块以及多层信息融合的端到端行人搜索方法 | |
| Mu et al. | Finding autofocus region in low contrast surveillance images using CNN-based saliency algorithm |
Legal Events
| Date | Code | Title | Description |
|---|---|---|---|
| PB01 | Publication | ||
| PB01 | Publication | ||
| SE01 | Entry into force of request for substantive examination | ||
| SE01 | Entry into force of request for substantive examination | ||
| GR01 | Patent grant | ||
| GR01 | Patent grant |