[go: up one dir, main page]

JP6225443B2 - Image processing apparatus, image processing method, and image processing program - Google Patents

Image processing apparatus, image processing method, and image processing program Download PDF

Info

Publication number
JP6225443B2
JP6225443B2 JP2013060994A JP2013060994A JP6225443B2 JP 6225443 B2 JP6225443 B2 JP 6225443B2 JP 2013060994 A JP2013060994 A JP 2013060994A JP 2013060994 A JP2013060994 A JP 2013060994A JP 6225443 B2 JP6225443 B2 JP 6225443B2
Authority
JP
Japan
Prior art keywords
monitored object
image processing
image data
corner
contour
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2013060994A
Other languages
Japanese (ja)
Other versions
JP2014186550A (en
Inventor
高橋 英一
英一 高橋
関口 実
実 関口
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fujitsu Ltd
Original Assignee
Fujitsu Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fujitsu Ltd filed Critical Fujitsu Ltd
Priority to JP2013060994A priority Critical patent/JP6225443B2/en
Publication of JP2014186550A publication Critical patent/JP2014186550A/en
Application granted granted Critical
Publication of JP6225443B2 publication Critical patent/JP6225443B2/en
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Image Analysis (AREA)
  • Closed-Circuit Television Systems (AREA)

Description

本発明は、画像処理装置等に関する。   The present invention relates to an image processing apparatus and the like.

例えば、売り場で商品が乱れて陳列されていると、商品の売り上げが低下する。このため、店員は、売り場内を移動しつつ、商品が乱れているか否かを確認し、適宜商品を整頓する。   For example, if a product is displayed in a disordered manner on the sales floor, the sales of the product will decrease. For this reason, the store clerk checks whether or not the product is disturbed while moving in the sales floor, and appropriately arranges the product.

また、従来技術には、本棚に収納された図書の整頓の要否を判定する技術がある。この従来技術は、本棚に格納された図書の輪郭から図書の傾き度を算出し、傾き度が所定の角度となる図書の割合を基にして、整頓が必要か否かを判定する。   In addition, the prior art includes a technique for determining whether or not a book stored in a bookshelf needs to be organized. In this prior art, the degree of inclination of a book is calculated from the outline of the book stored in the bookshelf, and it is determined whether or not ordering is necessary based on the ratio of books whose degree of inclination is a predetermined angle.

特開2000−306077号公報JP 2000-306077 A 特開平10−229550号公報JP-A-10-229550

しかしながら、上述した従来技術では、被監視対象物の乱れを判定することができないという問題がある。   However, the above-described conventional technique has a problem that it is impossible to determine the disturbance of the monitored object.

1つの側面では、被監視対象物の乱れを判定することができる画像処理装置、画像処理方法および画像処理プログラムを提供することを目的とする。   In one aspect, an object is to provide an image processing apparatus, an image processing method, and an image processing program capable of determining disturbance of an object to be monitored.

第1の案では、画像処理装置は、抽出部と、分類部と、判定部とを有する。抽出部は、画像データから被監視対象物の輪郭を抽出する。分類部は、抽出部によって抽出された各輪郭を、各輪郭の方向に基づいて複数のグループに分類する。判定部は、分類部の分類結果を基にして、前記被監視対象物が乱れているか否かを判定する。   In the first plan, the image processing apparatus includes an extraction unit, a classification unit, and a determination unit. The extraction unit extracts the contour of the monitored object from the image data. The classification unit classifies the contours extracted by the extraction unit into a plurality of groups based on the directions of the contours. The determination unit determines whether or not the monitored object is disturbed based on the classification result of the classification unit.

本発明の1実施態様によれば、被監視対象物の乱れを判定することができるという効果を奏する。   According to one embodiment of the present invention, there is an effect that it is possible to determine the disturbance of the monitored object.

図1は、本実施例1に係る画像処理装置の構成を示す図である。FIG. 1 is a diagram illustrating the configuration of the image processing apparatus according to the first embodiment. 図2は、エッジ情報のデータ構造の一例を示す図である。FIG. 2 is a diagram illustrating an example of a data structure of edge information. 図3は、度数分布情報のデータ構造の一例を示す図である。FIG. 3 is a diagram illustrating an example of a data structure of the frequency distribution information. 図4は、エッジの角度を説明するための図である。FIG. 4 is a diagram for explaining the angle of the edge. 図5は、被監視対象物が乱れていない場合の画像データの一例を示す図である。FIG. 5 is a diagram illustrating an example of image data when the monitored object is not disturbed. 図6は、角度分布とエッジ数との関係を示す図(1)である。FIG. 6 is a diagram (1) showing the relationship between the angle distribution and the number of edges. 図7は、降順に並べ替えた角度分布の一例を示す図(1)である。FIG. 7 is a diagram (1) illustrating an example of the angular distribution rearranged in descending order. 図8は、被監視対象物が乱れている場合の画像データの一例を示す図である。FIG. 8 is a diagram illustrating an example of image data when the monitored object is disturbed. 図9は、角度分布とエッジ数との関係を示す図(2)である。FIG. 9 is a diagram (2) showing the relationship between the angle distribution and the number of edges. 図10は、降順に並べ替えた角度分布の一例を示す図(2)である。FIG. 10 is a diagram (2) illustrating an example of the angle distribution rearranged in descending order. 図11は、本実施例1に係る画像処理装置の処理手順を示すフローチャートである。FIG. 11 is a flowchart illustrating the processing procedure of the image processing apparatus according to the first embodiment. 図12は、本実施例1に係る抽出部の処理手順を示すフローチャートである。FIG. 12 is a flowchart illustrating the processing procedure of the extraction unit according to the first embodiment. 図13は、分割した画像データの一例を示す図である。FIG. 13 is a diagram illustrating an example of divided image data. 図14は、本実施例2に係る画像処理装置の構成を示す図である。FIG. 14 is a diagram illustrating the configuration of the image processing apparatus according to the second embodiment. 図15は、コーナー情報のデータ構造の一例を示す図である。FIG. 15 is a diagram illustrating an example of a data structure of corner information. 図16は、コーナー検出結果の一例を示す図(1)である。FIG. 16 is a diagram (1) illustrating an example of the corner detection result. 図17は、コーナー検出結果の一例を示す図(2)である。FIG. 17 is a diagram (2) illustrating an example of the corner detection result. 図18は、本実施例2に係る画像処理装置の処理手順を示すフローチャートである。FIG. 18 is a flowchart illustrating the processing procedure of the image processing apparatus according to the second embodiment. 図19は、画像処理プログラムを実行するコンピュータの一例を示す図である。FIG. 19 is a diagram illustrating an example of a computer that executes an image processing program.

以下に、本願の開示する画像処理装置、画像処理方法および画像処理プログラムの実施例を図面に基づいて詳細に説明する。なお、この実施例によりこの発明が限定されるものではない。   Embodiments of an image processing apparatus, an image processing method, and an image processing program disclosed in the present application will be described below in detail with reference to the drawings. Note that the present invention is not limited to the embodiments.

本実施例1に係る画像処理装置の構成について説明する。図1は、本実施例1に係る画像処理装置の構成を示す図である。図1に示すように、この画像処理装置100は、通信部105、撮像部110、記憶部120、制御部130を有する。   A configuration of the image processing apparatus according to the first embodiment will be described. FIG. 1 is a diagram illustrating the configuration of the image processing apparatus according to the first embodiment. As illustrated in FIG. 1, the image processing apparatus 100 includes a communication unit 105, an imaging unit 110, a storage unit 120, and a control unit 130.

通信部105は、外部装置とデータ通信を実行する処理部である。例えば、通信部105は、通信カードや通信装置に対応する。後述する制御部130は、通信部105を介して外部装置とデータをやり取りする。   The communication unit 105 is a processing unit that executes data communication with an external device. For example, the communication unit 105 corresponds to a communication card or a communication device. A control unit 130 described below exchanges data with an external device via the communication unit 105.

撮像部110は、撮像範囲の映像を撮像する装置である。撮像範囲には、商品等の被監視対象物が含まれるように、予め利用者に設定されているものとする。撮像部110は、映像データを制御部130に出力する。例えば、撮像部110は、ビデオカメラに対応する。   The imaging unit 110 is an apparatus that captures an image in an imaging range. It is assumed that the imaging range is set in advance by the user so as to include monitored objects such as products. The imaging unit 110 outputs the video data to the control unit 130. For example, the imaging unit 110 corresponds to a video camera.

記憶部120は、エッジ情報121と度数分布情報122とを記憶する。記憶部120は、例えば、RAM(Random Access Memory)、ROM(Read Only Memory)、フラッシュメモリ(Flash Memory)などの半導体メモリ素子などの記憶装置に対応する。   The storage unit 120 stores edge information 121 and frequency distribution information 122. The storage unit 120 corresponds to a storage device such as a semiconductor memory element such as a random access memory (RAM), a read only memory (ROM), and a flash memory.

エッジ情報121は、画像データから抽出されるエッジの情報である。エッジは例えば、被監視対象物の輪郭に対応する。図2は、エッジ情報のデータ構造の一例を示す図である。図2に示すように、エッジ情報121は、エッジ毎に、始点の座標と、終点の座標とを対応付けて保持する。   The edge information 121 is edge information extracted from the image data. The edge corresponds to the contour of the monitored object, for example. FIG. 2 is a diagram illustrating an example of a data structure of edge information. As shown in FIG. 2, the edge information 121 holds the coordinates of the start point and the coordinates of the end point in association with each edge.

度数分布情報122は、エッジの角度に応じて、エッジを分類した情報を保持する。図3は、度数分布情報のデータ構造の一例を示す図である。図3に示すように、この度数分布情報122は、識別番号と、範囲と、数とを対応付ける。識別番号は、分類されたエッジのグループを一意に識別する情報である。範囲は、該当するグループに割り当てるエッジの角度を示す情報である。数は、該当するグループに割り当てられたエッジの数を示す情報である。   The frequency distribution information 122 holds information that classifies edges according to the angle of the edges. FIG. 3 is a diagram illustrating an example of a data structure of the frequency distribution information. As shown in FIG. 3, the frequency distribution information 122 associates an identification number, a range, and a number. The identification number is information for uniquely identifying the group of classified edges. The range is information indicating the angle of the edge assigned to the corresponding group. The number is information indicating the number of edges assigned to the corresponding group.

例えば、図3の1行目について説明する。識別番号「1」のグループに割り当てられるエッジは、角度が「0〜10」となるエッジである。そして、識別番号「1」のグループには「2」個のエッジが割り当てられている。   For example, the first line in FIG. 3 will be described. The edge assigned to the group having the identification number “1” is an edge whose angle is “0 to 10”. Then, “2” edges are assigned to the group having the identification number “1”.

図1の説明に戻る。制御部130は、抽出部131と、分類部132と、判定部133を有する。制御部130は、例えば、ASIC(Application Specific Integrated Circuit)や、FPGA(Field Programmable Gate Array)などの集積装置に対応する。また、制御部130は、例えば、CPUやMPU(Micro Processing Unit)等の電子回路に対応する。   Returning to the description of FIG. The control unit 130 includes an extraction unit 131, a classification unit 132, and a determination unit 133. The control unit 130 corresponds to an integrated device such as an ASIC (Application Specific Integrated Circuit) or an FPGA (Field Programmable Gate Array). The control unit 130 corresponds to an electronic circuit such as a CPU or MPU (Micro Processing Unit).

抽出部131は、撮像部110から出力される映像データから、静止画像となる画像データを抽出し、抽出した画像データからエッジを抽出する処理部である。以下において、抽出部131の処理を具体的に説明する。   The extraction unit 131 is a processing unit that extracts image data serving as a still image from the video data output from the imaging unit 110 and extracts an edge from the extracted image data. Hereinafter, the processing of the extraction unit 131 will be specifically described.

まず、抽出部131は、第1時刻に取得した画像データIsと、第2時刻に取得した画像データIcとを比較して、画像データIsと画像データIcとが変化しているか否かを判定する。例えば、第2時刻は、第1時刻よりも所定時間後の時刻とする。抽出部131は、画像データIsと画像データIcとが変化していない場合に、画像データIsからエッジを抽出すると判定する。   First, the extraction unit 131 compares the image data Is acquired at the first time with the image data Ic acquired at the second time, and determines whether the image data Is and the image data Ic have changed. To do. For example, the second time is a time that is a predetermined time after the first time. The extraction unit 131 determines to extract an edge from the image data Is when the image data Is and the image data Ic have not changed.

抽出部131は、画像データIsと画像データIcとが変化しているか否かをどのような従来技術を用いて判定してもよい。例えば、抽出部131は、画像データIsの2値画像と、画像データIcの2値画像との差分画像を生成し、生成した差分画像の画素のうち、0となる画素の数が所定の画素数以上の場合に、画像データIsと画像データIcとが変化してないと判定しても良い。   The extraction unit 131 may determine whether or not the image data Is and the image data Ic are changed using any conventional technique. For example, the extraction unit 131 generates a difference image between the binary image of the image data Is and the binary image of the image data Ic, and among the generated pixels of the difference image, the number of pixels that are 0 is a predetermined pixel. When the number is greater than or equal to the number, it may be determined that the image data Is and the image data Ic have not changed.

抽出部131は、エッジの抽出対象となる画像データIsから微分画像を求め、Hough変換などを適用することで、エッジを抽出する。抽出部131は、エッジ毎にエッジの始点および終点の情報を、エッジ情報121に登録する。   The extraction unit 131 obtains a differential image from the image data Is to be subjected to edge extraction, and extracts an edge by applying Hough transform or the like. The extraction unit 131 registers information on the start point and end point of the edge in the edge information 121 for each edge.

なお、抽出部131は、抽出したエッジのうち、エッジの長さが所定のエッジを取り除き、残りのエッジの情報を、エッジ情報121に登録する。すなわち、エッジ情報121には、所定の長さ以上のエッジの情報が登録される。   The extraction unit 131 removes an edge having a predetermined edge length from the extracted edges, and registers information on the remaining edges in the edge information 121. That is, in the edge information 121, information on an edge having a predetermined length or more is registered.

分類部132は、エッジ情報121を基にして、エッジ毎にエッジの角度を算出し、各エッジの角度を基にして、度数分布情報122を生成する処理部である。以下において、分類部132の処理を具体的に説明する。   The classification unit 132 is a processing unit that calculates an edge angle for each edge based on the edge information 121 and generates the frequency distribution information 122 based on the angle of each edge. Below, the process of the classification | category part 132 is demonstrated concretely.

分類部132は、基準となる水平成分とエッジとのなす角度をエッジの角度として算出する。図4は、エッジの角度を説明するための図である。図4に示すように、分類部132は、エッジ10の角度を、水平成分11を0度とした場合の水平成分11からエッジ10までの反時計回りの角度とする。   The classification unit 132 calculates an angle formed by the reference horizontal component and the edge as an edge angle. FIG. 4 is a diagram for explaining the angle of the edge. As shown in FIG. 4, the classification unit 132 sets the angle of the edge 10 as a counterclockwise angle from the horizontal component 11 to the edge 10 when the horizontal component 11 is 0 degree.

分類部132は、各エッジの角度を算出した後に、所定の角度幅dでエッジの度数分布c[i]をそれぞれ求める。角度幅dは、利用者に予め設定される値であり、360以下の値となる。また、iは、1〜360/dの値となる。エッジの度数分布c[i]は、エッジの角度θが、(i−1)×d以上i×d未満となるエッジの数である。   After calculating the angle of each edge, the classification unit 132 obtains the edge frequency distribution c [i] with a predetermined angular width d. The angle width d is a value set in advance by the user and is a value of 360 or less. I is a value of 1 to 360 / d. The edge frequency distribution c [i] is the number of edges at which the edge angle θ is not less than (i−1) × d and less than i × d.

分類部132は、度数分布c[1],c[2],・・・,c[n]を求め、求めた結果を、度数分布情報122に登録する。例えば、度数分布c[1]の値が「2」である場合には、図3に示した度数分布情報122の識別情報「1」に対応する数を「2」に設定する。   The classification unit 132 obtains the frequency distributions c [1], c [2],..., C [n], and registers the obtained results in the frequency distribution information 122. For example, when the value of the frequency distribution c [1] is “2”, the number corresponding to the identification information “1” of the frequency distribution information 122 illustrated in FIG. 3 is set to “2”.

図1の説明に戻る。判定部133は、度数分布を基にして、被監視対象物が乱れているか否かを判定する処理部である。判定部133は、被監視対象物が乱れていると判定した場合には、被監視対象が乱れている旨の情報を、外部装置に通知する。以下において、判定部133の処理について具体的に説明する。   Returning to the description of FIG. The determination unit 133 is a processing unit that determines whether the monitored object is disturbed based on the frequency distribution. If the determination unit 133 determines that the monitored object is disturbed, the determining unit 133 notifies the external device of information indicating that the monitored object is disturbed. Below, the process of the determination part 133 is demonstrated concretely.

判定部133は、エッジの角度分布c[1],c[2],・・・,c[n]の値を基にして降順に並べ替えたc’[1],c’[2],・・・,c’[n]を求める。そして、判定部133は、式(1)の条件を満たすkの最小数min(k)を求め、求めたkをピーク数として算出する。式(1)において、aは利用者に予め設定される値であり、0〜1の間の値となる。Nはエッジの総数である。   The determination unit 133 uses c ′ [1], c ′ [2], c ′ [1], c ′ [2], c ′ [2],. ..., c '[n] is obtained. Then, the determination unit 133 obtains the minimum number min (k) of k that satisfies the condition of Expression (1), and calculates the obtained k as the number of peaks. In Expression (1), a is a value set in advance by the user, and is a value between 0 and 1. N is the total number of edges.

c’[1]+c[2]+・・・+c[k]>a×N・・・(1)   c ′ [1] + c [2] +... + c [k]> a × N (1)

判定部133は、ピーク数が所定の閾値よりも大きい場合に、被監視対象物が乱れていると判定し、外部装置に通知する。例えば、ピーク数と比較する閾値は、2または3が設定される。   When the number of peaks is larger than a predetermined threshold, the determination unit 133 determines that the monitored object is disturbed and notifies the external device. For example, 2 or 3 is set as the threshold for comparison with the number of peaks.

次に、被監視対象物が乱れていない場合と、乱れている場合とにピーク数の算出例について説明する。   Next, an example of calculating the number of peaks when the monitored object is not disturbed and when it is disturbed will be described.

図5は、被監視対象物が乱れていない場合の画像データの一例を示す図である。図5に示す被監視対象物の画像データからエッジの角度分布を求めると、図6に示すものとなる。図6は、角度分布とエッジ数との関係を示す図(1)である。図6の横軸は角度を示し、縦軸はエッジ数を示す。図6に示す角度分布を降順に並べ替えると、図7に示すものとなる。図7は、降順に並べ替えた角度分布の一例を示す図(1)である。図7の横軸は、角度分布の並び順を示し、縦軸はエッジ数を示す。図7に示す例では、kの値が「2」となった場合に、式(1)の条件を満たす。このため、ピーク数は2となる。   FIG. 5 is a diagram illustrating an example of image data when the monitored object is not disturbed. When the edge angle distribution is obtained from the image data of the monitored object shown in FIG. 5, the result is shown in FIG. FIG. 6 is a diagram (1) showing the relationship between the angle distribution and the number of edges. The horizontal axis in FIG. 6 indicates the angle, and the vertical axis indicates the number of edges. When the angle distribution shown in FIG. 6 is rearranged in descending order, the result is shown in FIG. FIG. 7 is a diagram (1) illustrating an example of the angular distribution rearranged in descending order. The horizontal axis in FIG. 7 indicates the order of angular distribution, and the vertical axis indicates the number of edges. In the example illustrated in FIG. 7, the condition of Expression (1) is satisfied when the value of k becomes “2”. For this reason, the number of peaks is 2.

図5に示したように、被監視対象物が乱れていない場合には、エッジの角度のほとんどが少数の区間に入るため、ピーク数は小さな値となる。判定部133は、ピーク数が所定の閾値以下となるため、被監視対象物が乱れていないと判定する。   As shown in FIG. 5, when the monitored object is not disturbed, most of the edge angles are in a small number of sections, so the number of peaks is small. The determination unit 133 determines that the monitored object is not disturbed because the number of peaks is equal to or less than a predetermined threshold.

図8は、被監視対象物が乱れている場合の画像データの一例を示す図である。図8に示す被監視対象物の画像データからエッジの角度分布を求めると、図9に示すものとなる。図9は、角度分布とエッジ数との関係を示す図(2)である。図9の横軸は角度を示し、縦軸はエッジ数を示す。図9に示す角度分布を降順に並べ替えると、図10に示すものとなる。図10は、降順に並べ替えた角度分布の一例を示す図(2)である。図7の横軸は、角度分布の並び順を示し、縦軸はエッジ数を示す。図10に示す例では、kの値が「8」となった場合に、式(1)の条件を満たす。このため、ピーク数は8となる。   FIG. 8 is a diagram illustrating an example of image data when the monitored object is disturbed. When the angular distribution of the edge is obtained from the image data of the monitored object shown in FIG. 8, it is as shown in FIG. FIG. 9 is a diagram (2) showing the relationship between the angle distribution and the number of edges. In FIG. 9, the horizontal axis indicates the angle, and the vertical axis indicates the number of edges. When the angle distribution shown in FIG. 9 is rearranged in descending order, the result is shown in FIG. FIG. 10 is a diagram (2) illustrating an example of the angle distribution rearranged in descending order. The horizontal axis in FIG. 7 indicates the order of angular distribution, and the vertical axis indicates the number of edges. In the example illustrated in FIG. 10, the condition of Expression (1) is satisfied when the value of k becomes “8”. For this reason, the number of peaks is 8.

図8に示したように、被監視対象物が乱れている場合には、エッジの角度は様々な角度となり、角度分布には多数のピークが現れる。この結果、ピーク数は大きな値となる。判定部133は、ピーク数が所定の閾値より大きくなるため、被監視対象物が乱れている旨を通知する。   As shown in FIG. 8, when the monitored object is disturbed, the angles of the edges are various angles, and a number of peaks appear in the angle distribution. As a result, the number of peaks becomes a large value. The determination unit 133 notifies that the monitored object is disturbed because the number of peaks is greater than a predetermined threshold.

次に、本実施例1に係る画像処理装置100の処理手順について説明する。図11は、本実施例1に係る画像処理装置の処理手順を示すフローチャートである。図11に示す処理は、例えば、所定の時間間隔毎に実行される。図11に示すように、画像処理装置100は、画像データを取得し(ステップS101)、エッジを抽出する(ステップS102)。   Next, a processing procedure of the image processing apparatus 100 according to the first embodiment will be described. FIG. 11 is a flowchart illustrating the processing procedure of the image processing apparatus according to the first embodiment. The process illustrated in FIG. 11 is executed at predetermined time intervals, for example. As shown in FIG. 11, the image processing apparatus 100 acquires image data (step S101) and extracts an edge (step S102).

画像処理装置100は、エッジの角度を算出し(ステップS103)、角度分布c[1]、c[2]、・・・c[n]を求める(ステップS104)。画像処理装置100は、角度分布c[i]を降順に並び替える(ステップS105)。画像処理装置100は、式(1)の条件を満たすピーク数を算出する(ステップS106)。   The image processing apparatus 100 calculates the angle of the edge (step S103) and obtains the angle distributions c [1], c [2],... C [n] (step S104). The image processing apparatus 100 rearranges the angle distribution c [i] in descending order (step S105). The image processing apparatus 100 calculates the number of peaks that satisfy the condition of Expression (1) (step S106).

画像処理装置100は、ピーク数が閾値よりも大きいか否かを判定する(ステップS107)。画像処理装置100は、ピーク数が閾値未満の場合には(ステップS107,No)、処理を終了する。一方、画像処理装置100は、ピーク数が閾値よりも大きい場合には(ステップS107,Yes)、被監視対象物の商品が乱れている旨を通知する(ステップS108)。   The image processing apparatus 100 determines whether or not the number of peaks is greater than a threshold value (step S107). If the number of peaks is less than the threshold value (No at Step S107), the image processing apparatus 100 ends the process. On the other hand, when the number of peaks is larger than the threshold value (step S107, Yes), the image processing apparatus 100 notifies that the product of the monitored object is disturbed (step S108).

次に、本実施例1に係る抽出部の処理手順について説明する。図12は、本実施例1に係る抽出部の処理手順を示すフローチャートである。図12に示す処理は、図11のステップS101、S102の処理を具体的にしたものに対応する。図12に示すように、抽出部131は、スタート時刻Tsに撮像された画像データIsを取得する(ステップS150)。   Next, the processing procedure of the extraction unit according to the first embodiment will be described. FIG. 12 is a flowchart illustrating the processing procedure of the extraction unit according to the first embodiment. The process shown in FIG. 12 corresponds to a specific process of steps S101 and S102 of FIG. As illustrated in FIG. 12, the extraction unit 131 acquires image data Is captured at the start time Ts (step S150).

抽出部131は、時刻Tsから時間Tが経過したか否かを判定する(ステップS151)。抽出部131は、時刻Tsから時間Tが経過している場合には(ステップS151,Yes)、画像データIsからエッジを抽出する(ステップS152)。   The extraction unit 131 determines whether or not the time T has elapsed from the time Ts (step S151). If the time T has elapsed from the time Ts (step S151, Yes), the extraction unit 131 extracts an edge from the image data Is (step S152).

一方、抽出部131は、時刻Tsから時間Tが経過していない場合には(ステップS151,No)、現時刻に撮影された画像データIcを取得する(ステップS153)。抽出部131は、画像データIcと画像データIsとを比較して、画像データIsが変化したか否かを判定する(ステップS154)。   On the other hand, when the time T has not elapsed since the time Ts (step S151, No), the extraction unit 131 acquires the image data Ic photographed at the current time (step S153). The extraction unit 131 compares the image data Ic and the image data Is to determine whether or not the image data Is has changed (step S154).

抽出部131は、画像データIsが変化していない場合には(ステップS155,No)、ステップS151に移行する。一方、抽出部131は、画像データIsが変化している場合には(ステップS155,Yes)、ステップS150に移行する。   If the image data Is has not changed (No at Step S155), the extraction unit 131 proceeds to Step S151. On the other hand, when the image data Is has changed (step S155, Yes), the extraction unit 131 proceeds to step S150.

次に、本実施例1に係る画像処理装置100の効果について説明する。画像処理装置100は、画像データから抽出された各エッジの方向に基づいて、エッジを複数のグループに分類し、分類結果を基にして、商品等の被監視対象物が乱れているか否かを判定する。これにより、画像処理装置100によれば、被監視対象物の乱れを判定することができる。   Next, effects of the image processing apparatus 100 according to the first embodiment will be described. The image processing apparatus 100 classifies the edges into a plurality of groups based on the direction of each edge extracted from the image data, and determines whether a monitored object such as a product is disturbed based on the classification result. judge. Thereby, according to the image processing apparatus 100, the disturbance of the monitored object can be determined.

また、画像処理装置100によれば、被監視対象物の各エッジと、基準となる水平成分との相対的な角度を基にして、各エッジを複数のグループに分類し、グループの数が閾値よりも大きい場合に、前記被監視対象物が乱れていると判定する。このような処理を実行することにより、例えば、被監視対象物が、ワゴン等の可動式の棚に並べられている場合や、平積みの状態となっていても、被監視対象物の乱れを判定できる。   Further, according to the image processing apparatus 100, each edge is classified into a plurality of groups on the basis of the relative angle between each edge of the monitored object and a reference horizontal component, and the number of groups is a threshold value. If it is larger than that, it is determined that the monitored object is disturbed. By executing such a process, for example, even when the monitored object is arranged on a movable shelf such as a wagon, or even when it is in a flat state, the disturbance of the monitored object is prevented. Can be judged.

また、画像処理装置100によれば、画像データから抽出した被監視対象物のエッジのうち所定の長さ未満の輪郭を取り除く。このため、ノイズ成分を取り除くことが可能となり、被監視対象物の乱れに関する判定の精度を向上させることができる。   Moreover, according to the image processing apparatus 100, the outline of less than a predetermined length is removed from the edges of the monitored object extracted from the image data. For this reason, it becomes possible to remove a noise component, and the accuracy of the determination regarding the disturbance of the monitored object can be improved.

ここで、実施例1に示した画像処理装置100のその他の処理について説明する。以下において、エントロピーを用いて被監視対象物の乱れを判定する処理、ジニ係数を用いて被監視対象物の乱れを判定する処理について説明する。また、各エッジの接続関係から、被監視対象物の乱れを判定する処理、分割した画像の領域毎に被監視対象物の乱れを判定する処理について説明する。   Here, other processes of the image processing apparatus 100 shown in the first embodiment will be described. In the following, a process for determining the disturbance of the monitored object using entropy and a process for determining the disturbance of the monitored object using the Gini coefficient will be described. In addition, a process for determining the disturbance of the monitored object from the connection relationship of each edge and a process for determining the disturbance of the monitored object for each divided image area will be described.

(1)エントリピーを用いて被監視対象物の乱れを判定する処理について
画像処理装置100の判定部133は、度数分布情報122を基にして、エントロピーを算出し、エントロピーを基にして、被監視対象物が乱れているか否かを判定しても良い。
(1) Processing for determining disturbance of monitored object using entry pea The determination unit 133 of the image processing apparatus 100 calculates entropy based on the frequency distribution information 122, and based on entropy, It may be determined whether or not the monitoring target is disturbed.

判定部133は、式(2)によりエントロピーeを算出する。式(2)のNは、エッジの総数に対応する。また、式(2)のnは、角度分布の数となる。なお、角度分布の数がnである場合には、角度分布c[1],c[2],・・・,c[n]が存在することを示す。   The determination unit 133 calculates the entropy e using Expression (2). N in equation (2) corresponds to the total number of edges. Further, n in the formula (2) is the number of angular distributions. When the number of angular distributions is n, it indicates that there are angular distributions c [1], c [2],..., C [n].

Figure 0006225443
Figure 0006225443

判定部133は、エントロピーeの値が所定値よりも大きい場合に、被監視対象物が乱れていると判定する。このように、画像処理装置100は、エントロピーを算出して、被監視対象物が乱れているか否かを判定することで、被監視対象物の乱れを精度良く判定することができる。   The determination unit 133 determines that the monitored object is disturbed when the value of entropy e is larger than a predetermined value. Thus, the image processing apparatus 100 can determine the disturbance of the monitored object with high accuracy by calculating the entropy and determining whether or not the monitored object is disturbed.

(2)ジニ係数を用いて被監視対象物の乱れを判定する処理について
画像処理装置100の判定部133は、度数分布情報122を基にして、ジニ係数を算出し、ジニ係数を基にして、被監視対象物が乱れているか否かを判定しても良い。
(2) Processing for determining disturbance of monitored object using Gini coefficient The determination unit 133 of the image processing apparatus 100 calculates a Gini coefficient based on the frequency distribution information 122, and based on the Gini coefficient. It may be determined whether or not the monitored object is disturbed.

判定部133は、式(3)によりジニ係数gを算出する。式(3)のNは、エッジの総数に対応する。また、式(3)のc’[j]は、エッジの角度分布c[1],c[2],・・・,c[n]の値を基にして降順に並べ替えたc’[1],c’[2],・・・,c’[n]に対応する。   The determination unit 133 calculates the Gini coefficient g using Expression (3). N in equation (3) corresponds to the total number of edges. In addition, c ′ [j] in Expression (3) is c ′ [that is rearranged in descending order based on the values of the edge angle distributions c [1], c [2],..., C [n]. 1], c ′ [2],..., C ′ [n].

Figure 0006225443
Figure 0006225443

判定部133は、ジニ係数gの値が所定値以下の場合に、被監視対象物が乱れていると判定する。このように、画像処理装置100は、ジニ係数を算出して、被監視対象物が乱れているか否かを判定することで、被監視対象物の乱れを精度良く判定することができる。   The determination unit 133 determines that the monitored object is disturbed when the value of the Gini coefficient g is equal to or less than a predetermined value. Thus, the image processing apparatus 100 can determine the disturbance of the monitored object with high accuracy by calculating the Gini coefficient and determining whether or not the monitored object is disturbed.

(3)各エッジの接続関係から、被監視対象物の乱れを判定する処理について
画像処理装置100の判定部133は、エッジ情報121を基にして、エッジの端が接続関係にあるエッジの組みを複数選択する。判定部133は、接続関係にあるエッジの組みによって形成される角を、被監視対象物の第1〜第4角の何れかにそれぞれ分類する。例えば、第1角は、被監視対象物の右上の角に対応する。第2角は、被監視対象物の左上の角に対応する。第3角は、被監視対象物の左下に対応する。第4角は、被監視対象物の右下に対応する。
(3) Processing for Determining Disturbance of Monitored Object from Connection Relationship of Each Edge Based on the edge information 121, the determination unit 133 of the image processing apparatus 100 is a combination of edges whose edge ends are connected. Select multiple items. The determination unit 133 classifies the corner formed by the set of edges in the connection relationship as one of the first to fourth corners of the monitored object. For example, the first corner corresponds to the upper right corner of the monitored object. The second corner corresponds to the upper left corner of the monitored object. The third corner corresponds to the lower left of the monitored object. The fourth corner corresponds to the lower right of the monitored object.

例えば、判定部133は、エッジの組みによって形成される角が画像データ上の所定の点を基準として、第1象限方向を向いているには、エッジの組みを第1角に分類する。エッジの組みによって形成される角が画像データ上の所定の点を基準として、第2象限方向を向いているには、エッジの組みを第2角に分類する。エッジの組みによって形成される角が画像データ上の所定の点を基準として、第3象限方向を向いているには、エッジの組みを第3角に分類する。エッジの組みによって形成される角が画像データ上の所定の点を基準として、第4象限方向を向いているには、エッジの組みを第4角に分類する。   For example, the determination unit 133 classifies the edge set as the first angle in order that the angle formed by the edge set is directed to the first quadrant with reference to a predetermined point on the image data. In order for the angle formed by the edge set to be in the second quadrant direction with a predetermined point on the image data as a reference, the edge set is classified as the second angle. In order for the angle formed by the edge set to face the third quadrant with a predetermined point on the image data as a reference, the edge set is classified as the third angle. In order for the angle formed by the edge set to face the fourth quadrant with a predetermined point on the image data as a reference, the edge set is classified as the fourth angle.

判定部133は、各角に分類されたエッジの組みの数を基にして、被監視対象物の乱れを判定する。判定部133は、各角に分類されたエッジの組みの数が、均等である場合に、被監視対象物が乱れていないと判定する。一方、判定部133は、各角に分類されたエッジの組みの数が、均等でない場合に、被監視対象物が乱れていると判定する。例えば、判定部133は、第1〜第4角にそれぞれ分類されたエッジの組みの平均値を算出する。判定部133は、第1〜第4角の何れかに分類されたエッジの組みの数が、平均値よりも所定数異なる場合には、均等でないと判定する。このように、画像処理装置100は、各エッジの接続関係から、被監視対象物の乱れを判定することで、被監視対象物の乱れを精度良く判定することができる。   The determination unit 133 determines the disturbance of the monitored object based on the number of sets of edges classified into each corner. The determination unit 133 determines that the monitored object is not disturbed when the number of sets of edges classified into each corner is equal. On the other hand, the determination unit 133 determines that the monitored object is disturbed when the number of sets of edges classified into each corner is not uniform. For example, the determination unit 133 calculates an average value of a set of edges classified into the first to fourth corners. The determination unit 133 determines that the number of sets of edges classified into any of the first to fourth corners is not equal when the number of sets differs from the average value by a predetermined number. As described above, the image processing apparatus 100 can determine the disturbance of the monitored object with high accuracy by determining the disturbance of the monitored object from the connection relation of each edge.

(4)分割した画像の領域毎に被監視対象物の乱れを判定する処理について
画像処理装置100は、抽出部131の抽出した画像データを複数の領域に分割し、分割した画像の領域毎に被監視対象物が乱れているか否かを判定する。図13は、分割した画像データの一例を示す図である。図13に示す例では、画像処理装置100は、画像データ20を、複数の領域20a〜20pに分割した場合を示している。
(4) Processing for Determining Disturbance of Monitored Object for Each Divided Image Area The image processing apparatus 100 divides the image data extracted by the extraction unit 131 into a plurality of areas, and for each divided image area. It is determined whether or not the monitored object is disturbed. FIG. 13 is a diagram illustrating an example of divided image data. In the example illustrated in FIG. 13, the image processing apparatus 100 illustrates a case where the image data 20 is divided into a plurality of regions 20 a to 20 p.

画像処理装置100は、分割した領域毎に、被監視対象物の乱れを判定する。または、画像処理装置100は、分割した各領域のうち、一部の領域についてのみ、被監視対象物の乱れを判定しても良い。例えば、画像処理装置100は、分割した領域20a〜20pのうち、領域20k〜20fについて、それぞれ被監視対象物の乱れを判定する。画像処理装置100が、被監視対象物の乱れを判定する処理は、実施例1と同様の処理でも良いし、エントロピーやジニ係数を算出して、被監視対象物の乱れを判定しても良い。   The image processing apparatus 100 determines the disturbance of the monitored object for each divided area. Alternatively, the image processing apparatus 100 may determine the disturbance of the monitored object for only some of the divided areas. For example, the image processing apparatus 100 determines the disturbance of the monitored object for each of the areas 20k to 20f among the divided areas 20a to 20p. The process in which the image processing apparatus 100 determines the disturbance of the monitored object may be the same process as in the first embodiment, or may calculate the entropy or Gini coefficient to determine the disturbance of the monitored object. .

このように、画像処理装置100が、画像データを複数の領域に分割して、領域毎に被監視対象物の乱れを判定することで、例えば、広い商品棚の部分的な陳列の乱れを通知することができる。また、複数の商品を陳列した場合に、商品種別毎の陳列範囲と陳列の乱れた領域との対応から、陳列がよく乱れる、すなわち、買い物客の関心が高くよく手に取られる商品を特定することもできる。例えば、画像処理装置100は、領域毎に、被監視対象物が乱れたと判定した回数をカウントし、領域毎に対応付けて記憶しておいても良い。   In this way, the image processing apparatus 100 divides the image data into a plurality of areas, and determines the disturbance of the monitored object for each area, thereby notifying the partial display disorder of the wide product shelf, for example. can do. In addition, when multiple products are displayed, the correspondence between the display range for each product type and the disordered display area identifies the products that are often disturbed, that is, the shoppers are highly interested and can be easily obtained. You can also For example, the image processing apparatus 100 may count the number of times it is determined that the monitored object is disturbed for each region, and store the count in association with each region.

次に、実施例2に係る画像処理装置200の構成について説明する。図14は、本実施例2に係る画像処理装置の構成を示す図である。図14に示すように、画像処理装置200は、通信部205、撮像部210、記憶部220、制御部230を有する。   Next, the configuration of the image processing apparatus 200 according to the second embodiment will be described. FIG. 14 is a diagram illustrating the configuration of the image processing apparatus according to the second embodiment. As illustrated in FIG. 14, the image processing apparatus 200 includes a communication unit 205, an imaging unit 210, a storage unit 220, and a control unit 230.

通信部205は、外部装置とデータ通信を実行する処理部である。例えば、通信部205は、通信カードや通信装置に対応する。後述する制御部230は、通信部205を介して外部装置とデータをやり取りする。   The communication unit 205 is a processing unit that performs data communication with an external device. For example, the communication unit 205 corresponds to a communication card or a communication device. A control unit 230 described later exchanges data with an external device via the communication unit 205.

撮像部210は、撮像範囲の映像を撮像する装置である。撮像範囲には、商品等の被監視対象物が含まれるように、予め利用者に設定されているものとする。撮像部210は、映像データを制御部230に出力する。例えば、撮像部210は、ビデオカメラに対応する。   The imaging unit 210 is a device that captures an image in the imaging range. It is assumed that the imaging range is set in advance by the user so as to include monitored objects such as products. The imaging unit 210 outputs the video data to the control unit 230. For example, the imaging unit 210 corresponds to a video camera.

記憶部220は、コーナー情報221を記憶する。記憶部220は、例えば、RAM、ROM、フラッシュメモリなどの半導体メモリ素子などの記憶装置に対応する。   The storage unit 220 stores corner information 221. The storage unit 220 corresponds to a storage device such as a semiconductor memory element such as a RAM, a ROM, or a flash memory.

コーナー情報221は、画像データから抽出されるコーナーの情報である。図15は、コーナー情報のデータ構造の一例を示す図である。図15に示すように、コーナー情報221は、検出時刻、コーナー数、座標を対応付けて保持する。検出時刻は、コーナーを検出した時刻である。コーナー数は、検出されたコーナーの数である。座標は、検出された各コーナーの座標である。   Corner information 221 is corner information extracted from image data. FIG. 15 is a diagram illustrating an example of a data structure of corner information. As illustrated in FIG. 15, the corner information 221 holds detection times, the number of corners, and coordinates in association with each other. The detection time is the time when the corner is detected. The number of corners is the number of detected corners. The coordinates are the coordinates of each detected corner.

図14の説明に戻る。制御部230は、コーナー検出部231と、判定部232とを有する。制御部230は、例えば、ASICや、FPGAなどの集積装置に対応する。また、制御部230は、例えば、CPUやMPU等の電子回路に対応する。   Returning to the description of FIG. The control unit 230 includes a corner detection unit 231 and a determination unit 232. The control unit 230 corresponds to, for example, an integrated device such as an ASIC or FPGA. Moreover, the control part 230 respond | corresponds to electronic circuits, such as CPU and MPU, for example.

コーナー検出部231は、撮像部210から出力される映像データから、静止画像となる画像データを抽出し、抽出した画像データからコーナーを検出する処理部である。コーナー検出部231は、検出したコーナーの情報をコーナー情報221に登録する。すなわち、コーナー検出部231は、検出時刻、コーナー数、各コーナーの座標を対応づけて、コーナー情報221に登録する。   The corner detection unit 231 is a processing unit that extracts image data serving as a still image from the video data output from the imaging unit 210 and detects a corner from the extracted image data. The corner detection unit 231 registers the detected corner information in the corner information 221. That is, the corner detection unit 231 registers the detection time, the number of corners, and the coordinates of each corner in the corner information 221 in association with each other.

例えば、コーナー検出部231は、周知技術を用いて、画像データからコーナーと見なせるパタンを検出する。例えば、コーナー検出部231は、Harris検出器を用いてコーナーを検出し手も良いし、FASTアルゴリズムなどを基にして、コーナーを検出してもよい。   For example, the corner detection unit 231 detects a pattern that can be regarded as a corner from image data using a known technique. For example, the corner detection unit 231 may detect a corner using a Harris detector, or may detect the corner based on a FAST algorithm or the like.

図16および図17は、コーナー検出結果の一例を示す図である。図16に示す画像データ30からは、コーナー30a,30b,30c,30dが検出されており、コーナー数は4となる。図17に示す画像データ40からは、コーナー40a,40b,40c,40c,40d,40e,40f,40g,40hが検出されており、コーナー数は8となる。被監視対象物が乱れている場合には、多くのコーナーが検出される特徴がある。   16 and 17 are diagrams illustrating examples of corner detection results. From the image data 30 shown in FIG. 16, corners 30a, 30b, 30c, and 30d are detected, and the number of corners is four. From the image data 40 shown in FIG. 17, corners 40a, 40b, 40c, 40c, 40d, 40e, 40f, 40g, and 40h are detected, and the number of corners is eight. When the monitored object is disturbed, there is a feature that many corners are detected.

判定部232は、コーナー情報221を基にして、被監視対象物が乱れているか否かを判定する処理部である。例えば、判定部232は、所定の時刻に検出したコーナーの数に1以上実数を乗算した値を基準値として算出する。例えば、所定の時刻は、店舗が開店する前の時間等である。判定部232は、コーナーの数が基準値よりも大きくなった場合に、被監視対象物が乱れていると判定し、被監視対象物の商品が乱れている旨を通知する。これに対して、判定部232は、コーナー数が基準値以下の場合には、被監視対象物の商品が乱れていないと判定する。   The determination unit 232 is a processing unit that determines whether the monitored object is disturbed based on the corner information 221. For example, the determination unit 232 calculates, as the reference value, a value obtained by multiplying the number of corners detected at a predetermined time by one or more real numbers. For example, the predetermined time is a time before the store opens. The determination unit 232 determines that the monitored object is disturbed when the number of corners is larger than the reference value, and notifies that the product of the monitored object is disturbed. On the other hand, when the number of corners is equal to or less than the reference value, the determination unit 232 determines that the product of the monitored object is not disturbed.

次に、本実施例2に係る画像処理装置200の処理手順について説明する。図18は、本実施例2に係る画像処理装置の処理手順を示すフローチャートである。図18に示す処理は、例えば、所定時間間隔で繰り返し実行される。図18に示すように、画像処理装置200は、画像データを取得し(ステップS201)、コーナーを検出する(ステップS202)。   Next, a processing procedure of the image processing apparatus 200 according to the second embodiment will be described. FIG. 18 is a flowchart illustrating the processing procedure of the image processing apparatus according to the second embodiment. The process shown in FIG. 18 is repeatedly executed at predetermined time intervals, for example. As shown in FIG. 18, the image processing apparatus 200 acquires image data (step S201) and detects a corner (step S202).

画像処理装置200は、コーナー数を算出し(ステップS203)、コーナー数が基準値よりも大きいか否かを判定する(ステップS204)。画像処理装置200は、コーナー数が基準値以下の場合には(ステップS204,No)、処理を終了する。一方、画像処理装置200は、コーナー数が基準値よりも大きい場合には(ステップS204,Yes)、商品が乱れている旨を通知する(ステップS205)。   The image processing apparatus 200 calculates the number of corners (step S203), and determines whether the number of corners is larger than a reference value (step S204). If the number of corners is equal to or less than the reference value (No at Step S204), the image processing apparatus 200 ends the process. On the other hand, when the number of corners is larger than the reference value (step S204, Yes), the image processing apparatus 200 notifies that the product is disturbed (step S205).

次に、本実施例2に係る画像処理装置200の効果について説明する。画像処理装置200は、画像データからコーナーを検出し、第1の時刻に検出されたコーナー数から基準値を算出する。画像処理装置200は、第1の時刻以降の第2の時刻に検出されたコーナー数と基準値を比較し、比較した結果を基にして、被監視対象物の商品が乱れているか否かを判定する。このため、画像処理装置200によれば、例えば、商品陳列の乱れを商品棚の回転の影響を受けずに判別、通知することができる。また、平積み時の商品の向きだけがずれる場合でも、陳列の乱れを判別することができる。   Next, effects of the image processing apparatus 200 according to the second embodiment will be described. The image processing apparatus 200 detects a corner from the image data, and calculates a reference value from the number of corners detected at the first time. The image processing apparatus 200 compares the number of corners detected at the second time after the first time with the reference value, and based on the comparison result, determines whether the product of the monitored object is disturbed. judge. For this reason, according to the image processing apparatus 200, for example, it is possible to determine and notify the disorder of the merchandise display without being affected by the rotation of the merchandise shelf. Further, even when only the direction of the product at the time of flat stacking is deviated, it is possible to determine the display disorder.

次に、上記の実施例に示した画像処理装置と同様の機能を実現する画像処理プログラムを実行するコンピュータの一例を説明する。図19は、画像処理プログラムを実行するコンピュータの一例を示す図である。   Next, an example of a computer that executes an image processing program that realizes the same function as the image processing apparatus shown in the above embodiment will be described. FIG. 19 is a diagram illustrating an example of a computer that executes an image processing program.

図19に示すように、コンピュータ300は、各種演算処理を実行するCPU301と、ユーザからのデータの入力を受け付ける入力装置302と、ディスプレイ303を有する。また、コンピュータ300は、記憶媒体からプログラム等を読取る読み取り装置304と、ネットワークを介して他のコンピュータとの間でデータの授受を行うインターフェース装置305とを有する。また、コンピュータ300は、各種情報を一時記憶するRAM306と、ハードディスク装置307を有する。そして、各装置301〜307は、バス308に接続される。   As illustrated in FIG. 19, the computer 300 includes a CPU 301 that executes various arithmetic processes, an input device 302 that receives input of data from a user, and a display 303. The computer 300 also includes a reading device 304 that reads a program or the like from a storage medium, and an interface device 305 that exchanges data with other computers via a network. The computer 300 also includes a RAM 306 that temporarily stores various types of information and a hard disk device 307. The devices 301 to 307 are connected to the bus 308.

ハードディスク装置307は、例えば、抽出プログラム307a、分類プログラム307b、判定プログラム307cを有する。CPU301は、各プログラム307a〜307cを読み出してRAM306に展開する。   The hard disk device 307 includes, for example, an extraction program 307a, a classification program 307b, and a determination program 307c. The CPU 301 reads out each program 307 a to 307 c and develops it in the RAM 306.

抽出プログラム307aは、抽出プロセス306aとして機能する。分類プログラム307bは、分類プロセス306bとして機能する。判定プログラム307cは、判定プロセス306cとして機能する。   The extraction program 307a functions as an extraction process 306a. The classification program 307b functions as a classification process 306b. The determination program 307c functions as a determination process 306c.

例えば、抽出プロセス306aは、抽出部131に対応する。分類プロセス306bは、分類部132に対応する。判定プロセス306cは、判定部133に対応する。   For example, the extraction process 306 a corresponds to the extraction unit 131. The classification process 306 b corresponds to the classification unit 132. The determination process 306c corresponds to the determination unit 133.

なお、各プログラム307a〜307cについては、必ずしも最初からハードディスク装置307に記憶させておかなくてもよい。例えば、コンピュータ300に挿入されるフレキシブルディスク(FD)、CD−ROM、DVDディスク、光磁気ディスク、ICカードなどの「可搬用の物理媒体」に各プログラムを記憶させておく。そして、コンピュータ300がこれらから各プログラム307a〜307cを読み出して実行するようにしてもよい。なお、実施例2で示した、コーナー検出部231、判定部232も同様に、コンピュータ300で実行される。詳しい説明は省略するが、コーナー検出プログラムおよび判定プログラムが、ハードディスク装置307に格納され、CPU301に読み出される。   Note that the programs 307a to 307c are not necessarily stored in the hard disk device 307 from the beginning. For example, each program is stored in a “portable physical medium” such as a flexible disk (FD), a CD-ROM, a DVD disk, a magneto-optical disk, and an IC card inserted into the computer 300. Then, the computer 300 may read the programs 307a to 307c from these and execute them. The corner detection unit 231 and the determination unit 232 shown in the second embodiment are also executed by the computer 300. Although a detailed description is omitted, a corner detection program and a determination program are stored in the hard disk device 307 and read out by the CPU 301.

以上の各実施例を含む実施形態に関し、さらに以下の付記を開示する。   The following supplementary notes are further disclosed with respect to the embodiments including the above examples.

(付記1)画像データから被監視対象物の輪郭を抽出する抽出部と、
前記抽出部によって抽出された各輪郭を、各輪郭の方向に基づいて複数のグループに分類する分類部と、
前記分類部の分類結果を基にして、前記被監視対象物が乱れているか否かを判定する判定部と
を有することを特徴とする画像処理装置。
(Additional remark 1) The extraction part which extracts the outline of the to-be-monitored target object from image data,
A classification unit that classifies each contour extracted by the extraction unit into a plurality of groups based on the direction of each contour;
An image processing apparatus comprising: a determination unit that determines whether or not the monitored object is disturbed based on a classification result of the classification unit.

(付記2)前記分類部は、前記被監視対象物の各輪郭と、基準となる線分との相対的な角度を基にして、各輪郭を複数のグループに分類し、前記判定部は、前記グループの数が閾値よりも大きい場合に、前記被監視対象物が乱れていると判定することを特徴とする付記1に記載の画像処理装置。 (Additional remark 2) The said classification | category part classify | categorizes each outline into a some group based on the relative angle of each outline of the said to-be-monitored target object, and the reference | standard line segment, The said determination part, The image processing apparatus according to claim 1, wherein when the number of groups is larger than a threshold value, the monitored object is determined to be disturbed.

(付記3)前記判定部は、前記被監視対象物の各輪郭と基準となる線分との相対的な角度を基にしてエントロピーを算出し、エントロピーの値が閾値よりも大きい場合に、前記被監視対象物が乱れていると判定することを特徴とする付記1に記載の画像処理装置。 (Supplementary Note 3) The determination unit calculates entropy based on a relative angle between each contour of the monitored object and a reference line segment, and when the value of entropy is larger than a threshold value, The image processing apparatus according to appendix 1, wherein it is determined that the monitored object is disturbed.

(付記4)前記判定部は、前記被監視対象物の各輪郭と基準となる線分との相対的な角度を基にしてジニ係数を算出しジニ係数の値が閾値未満となる場合に、前記被監視対象物が乱れていると判定することを特徴とする付記1に記載の画像処理装置。 (Supplementary Note 4) When the determination unit calculates a Gini coefficient based on a relative angle between each contour of the monitored object and a reference line segment, and the value of the Gini coefficient is less than a threshold value, The image processing apparatus according to appendix 1, wherein it is determined that the monitored object is disturbed.

(付記5)前記分類部は、前記被監視対象物の各輪郭の接続関係から、被監視対象物のどの角かを判定して、各輪郭を角毎に分類し、前記判定部は、各角に分類される数が均等であるか否かを基にして、前記被監視対象物が乱れていると判定することを特徴とする付記1に記載の画像処理装置。 (Additional remark 5) The said classification | category part determines from the connection relation of each outline of the said to-be-monitored target object which corner of the to-be-monitored object, and classifies each outline for every corner, The said determination part has each The image processing apparatus according to appendix 1, wherein the monitored object is determined to be disordered based on whether or not the numbers classified into corners are equal.

(付記6)前記抽出部は、前記画像データから抽出した被監視対象物の輪郭のうち所定の長さ未満の輪郭を取り除くことを特徴とする付記1から5のいずれか一つに記載の画像処理装置。 (Supplementary Note 6) The image according to any one of Supplementary Notes 1 to 5, wherein the extraction unit removes a contour having a length less than a predetermined length from the contour of the monitored object extracted from the image data. Processing equipment.

(付記7)前記抽出部は、第1時刻に撮影された画像データと第2時刻に撮影された画像データとが変化していない場合に、前記第1時刻に撮影された画像データまたは前記第2時刻に撮影された画像から被監視対象物の輪郭を抽出することを特徴とする付記1から6のいずれか一つに記載の画像処理装置。 (Supplementary Note 7) When the image data photographed at the first time and the image data photographed at the second time have not changed, the extraction unit or the first data captured at the first time The image processing apparatus according to any one of appendices 1 to 6, wherein the contour of the monitored object is extracted from an image taken at two times.

(付記8)前記抽出部は、前記画像データを複数の領域に分割し、分割した領域毎に被監視対象物の輪郭を抽出し、前記判定部は、前記分割された領域毎に、前記被監視対象物が乱れているか否かを判定することを特徴とする付記1から7のいずれか一つに記載の画像処理装置。 (Supplementary note 8) The extraction unit divides the image data into a plurality of regions, extracts the outline of the monitored object for each of the divided regions, and the determination unit performs the processing for each of the divided regions. The image processing apparatus according to any one of appendices 1 to 7, wherein it is determined whether or not the monitoring target is disturbed.

(付記9)画像データから被監視対象物のコーナーを検出するコーナー検出部と、
前記コーナー検出部によって第1の時刻に検出されたコーナーの数と、第2の時刻に検出されたコーナー数とを比較し、比較した結果を基にして、前記被監視対象物が乱れているか否かを判定する判定部と
を有することを特徴とする画像処理装置。
(Supplementary note 9) a corner detection unit for detecting a corner of a monitored object from image data;
The number of corners detected at the first time by the corner detection unit is compared with the number of corners detected at the second time, and based on the comparison result, is the monitored object disturbed? An image processing apparatus comprising: a determination unit that determines whether or not.

(付記10)コンピュータが実行する画像処理方法であって、
画像データから被監視対象物の輪郭を抽出し、
抽出した各輪郭を、各輪郭の方向に基づいて複数のグループに分類し、
分類結果を基にして、前記被監視対象物が乱れているか否かを判定する
各処理を実行することを特徴とする画像処理方法。
(Supplementary Note 10) An image processing method executed by a computer,
Extract the contour of the monitored object from the image data,
Classify each extracted contour into multiple groups based on the direction of each contour,
An image processing method comprising: executing each process of determining whether or not the monitored object is disturbed based on a classification result.

(付記11)前記分類する処理は、前記被監視対象物の各輪郭と、基準となる線分との相対的な角度を基にして、各輪郭を複数のグループに分類し、前記判定する処理は、前記グループの数が閾値よりも大きい場合に、前記被監視対象物が乱れていると判定することを特徴とする付記10に記載の画像処理方法。 (Additional remark 11) The said classification | category process classify | categorizes each outline into a some group based on the relative angle of each outline of the said to-be-monitored target object, and a reference | standard line segment, and the said determination process The image processing method according to claim 10, wherein when the number of groups is larger than a threshold value, it is determined that the monitored object is disturbed.

(付記12)前記判定する処理は、前記被監視対象物の各輪郭と基準となる線分との相対的な角度を基にしてエントロピーを算出し、エントロピーの値が閾値よりも大きい場合に、前記被監視対象物が乱れていると判定することを特徴とする付記10に記載の画像処理方法。 (Supplementary note 12) The determination process calculates entropy based on a relative angle between each contour of the monitored object and a reference line segment, and when the value of entropy is larger than a threshold value, The image processing method according to appendix 10, wherein it is determined that the monitored object is disturbed.

(付記13)前記判定する処理は、前記被監視対象物の各輪郭と基準となる線分との相対的な角度を基にしてジニ係数を算出しジニ係数の値が閾値未満となる場合に、前記被監視対象物が乱れていると判定することを特徴とする付記10に記載の画像処理方法。 (Supplementary note 13) The determination process is performed when a Gini coefficient is calculated based on a relative angle between each contour of the monitored object and a reference line segment, and the value of the Gini coefficient is less than a threshold value. The image processing method according to appendix 10, wherein it is determined that the monitored object is disturbed.

(付記14)前記分類する処理は、前記被監視対象物の各輪郭の接続関係から、被監視対象物のどの角かを判定して、各輪郭を角毎に分類し、前記判定する処理は、各角に分類される数が均等であるか否かを基にして、前記被監視対象物が乱れていると判定することを特徴とする付記10に記載の画像処理方法。 (Additional remark 14) The said classification | category process determines the corner of a to-be-monitored target from the connection relation of each outline of the to-be-monitored target, classifies each outline for every corner, The image processing method according to appendix 10, wherein it is determined that the monitored object is disturbed based on whether or not the number classified into each corner is equal.

(付記15)前記抽出する処理は、前記画像データから抽出した被監視対象物の輪郭のうち所定の長さ未満の輪郭を取り除くことを特徴とする付記10から14のいずれか一つに記載の画像処理方法。 (Additional remark 15) The said process to extract removes the outline less than predetermined length among the outlines of the to-be-monitored target object extracted from the said image data, The additional description 10 to 14 characterized by the above-mentioned. Image processing method.

(付記16)前記抽出する処理は、第1時刻に撮影された画像データと第2時刻に撮影された画像データとが変化していない場合に、前記第1時刻に撮影された画像データまたは前記第2時刻に撮影された画像から被監視対象物の輪郭を抽出することを特徴とする付記10から15のいずれか一つに記載の画像処理方法。 (Additional remark 16) When the image data image | photographed at the 1st time and the image data image | photographed at the 2nd time are not changing, the process to extract is the image data image | photographed at the said 1st time, or the said data The image processing method according to any one of appendices 10 to 15, wherein the contour of the monitored object is extracted from an image photographed at the second time.

(付記17)前記抽出する処理は、前記画像データを複数の領域に分割し、分割した領域毎に被監視対象物の輪郭を抽出し、前記判定する処理は、前記分割された領域毎に、前記被監視対象物が乱れているか否かを判定することを特徴とする付記10から16のいずれか一つに記載の画像処理方法。 (Supplementary Note 17) The process of extracting divides the image data into a plurality of areas, extracts the outline of the monitored object for each of the divided areas, and the process of determining the process for each of the divided areas. The image processing method according to any one of appendices 10 to 16, wherein it is determined whether or not the monitored object is disturbed.

(付記18)コンピュータが実行する画像処理方法であって、
画像データから被監視対象物のコーナーを検出し、
第1の時刻に検出したコーナーの数と、第2の時刻に検出したコーナー数とを比較し、比較した結果を基にして、前記被監視対象物が乱れているか否かを判定する
各処理を実行させることを特徴とする画像処理方法。
(Supplementary note 18) An image processing method executed by a computer,
Detect corners of monitored objects from image data,
Each process of comparing the number of corners detected at the first time with the number of corners detected at the second time, and determining whether the monitored object is disturbed based on the comparison result An image processing method characterized in that

(付記19)コンピュータに、
画像データから被監視対象物の輪郭を抽出し、
抽出した各輪郭を、各輪郭の方向に基づいて複数のグループに分類し、
分類結果を基にして、前記被監視対象物が乱れているか否かを判定する
各処理を実行させることを特徴とする画像処理プログラム。
(Supplementary note 19)
Extract the contour of the monitored object from the image data,
Classify each extracted contour into multiple groups based on the direction of each contour,
An image processing program for executing each process for determining whether or not the monitored object is disturbed based on a classification result.

(付記20)前記分類する処理は、前記被監視対象物の各輪郭と、基準となる線分との相対的な角度を基にして、各輪郭を複数のグループに分類し、前記判定する処理は、前記グループの数が閾値よりも大きい場合に、前記被監視対象物が乱れていると判定することを特徴とする付記19に記載の画像処理プログラム。 (Additional remark 20) The process to classify | categorize each outline into a some group based on the relative angle of each outline of the to-be-monitored target object, and a reference line segment, and the process to determine The image processing program according to appendix 19, wherein when the number of groups is greater than a threshold, it is determined that the monitored object is disturbed.

(付記21)前記判定する処理は、前記被監視対象物の各輪郭と基準となる線分との相対的な角度を基にしてエントロピーを算出し、エントロピーの値が閾値よりも大きい場合に、前記被監視対象物が乱れていると判定することを特徴とする付記19に記載の画像処理プログラム。 (Supplementary note 21) In the determination process, entropy is calculated based on a relative angle between each contour of the monitored object and a reference line segment, and when the value of entropy is larger than a threshold value, The image processing program according to appendix 19, wherein it is determined that the monitored object is disturbed.

(付記22)前記判定する処理は、前記被監視対象物の各輪郭と基準となる線分との相対的な角度を基にしてジニ係数を算出しジニ係数の値が閾値未満となる場合に、前記被監視対象物が乱れていると判定することを特徴とする付記19に記載の画像処理プログラム。 (Supplementary Note 22) The determination process is performed when a Gini coefficient is calculated based on a relative angle between each contour of the monitored object and a reference line segment, and the value of the Gini coefficient is less than a threshold value. The image processing program according to appendix 19, wherein it is determined that the monitored object is disturbed.

(付記23)前記分類する処理は、前記被監視対象物の各輪郭の接続関係から、被監視対象物のどの角かを判定して、各輪郭を角毎に分類し、前記判定する処理は、各角に分類される数が均等であるか否かを基にして、前記被監視対象物が乱れていると判定することを特徴とする付記19に記載の画像処理プログラム。 (Additional remark 23) The said classification | category process determines the corner of a to-be-monitored target from the connection relation of each outline of the to-be-monitored target, classifies each outline for every corner, The image processing program according to appendix 19, wherein the monitored object is determined to be disordered based on whether or not the numbers classified into each corner are equal.

(付記24)前記抽出する処理は、前記画像データから抽出した被監視対象物の輪郭のうち所定の長さ未満の輪郭を取り除くことを特徴とする付記19から23のいずれか一つに記載の画像処理プログラム。 (Additional remark 24) The said process to extract removes the outline less than predetermined length among the outlines of the to-be-monitored target extracted from the said image data, The additional description 19 to 23 characterized by the above-mentioned Image processing program.

(付記25)前記抽出する処理は、第1時刻に撮影された画像データと第2時刻に撮影された画像データとが変化していない場合に、前記第1時刻に撮影された画像データまたは前記第2時刻に撮影された画像から被監視対象物の輪郭を抽出することを特徴とする付記19から24のいずれか一つに記載の画像処理プログラム。 (Additional remark 25) The process to extract is the image data photographed at the first time when the image data photographed at the first time and the image data photographed at the second time are not changed, or 25. The image processing program according to any one of appendices 19 to 24, wherein the contour of the monitored object is extracted from an image photographed at the second time.

(付記26)前記抽出する処理は、前記画像データを複数の領域に分割し、分割した領域毎に被監視対象物の輪郭を抽出し、前記判定する処理は、前記分割された領域毎に、前記被監視対象物が乱れているか否かを判定することを特徴とする付記19から25のいずれか一つに記載の画像処理プログラム。 (Supplementary Note 26) The extracting process divides the image data into a plurality of areas, extracts the contour of the monitored object for each divided area, and the determining process is performed for each of the divided areas. The image processing program according to any one of appendices 19 to 25, wherein it is determined whether or not the monitored object is disturbed.

(付記27)コンピュータに、
画像データから被監視対象物のコーナーを検出し、
第1の時刻に検出したコーナーの数と、第2の時刻に検出したコーナー数とを比較し、比較した結果を基にして、前記被監視対象物が乱れているか否かを判定する
各処理を実行させることを特徴とする画像処理プログラム。
(Supplementary note 27)
Detect corners of monitored objects from image data,
Each process of comparing the number of corners detected at the first time with the number of corners detected at the second time, and determining whether the monitored object is disturbed based on the comparison result An image processing program for executing

100 画像処理装置
105 通信部
110 撮像部
120 記憶部
121 エッジ情報
122 度数分布情報
130 制御部
131 抽出部
132 分類部
133 判定部
DESCRIPTION OF SYMBOLS 100 Image processing apparatus 105 Communication part 110 Imaging part 120 Storage part 121 Edge information 122 Frequency distribution information 130 Control part 131 Extraction part 132 Classification part 133 Determination part

Claims (6)

画像データから被監視対象物の輪郭を抽出する抽出部と、
前記被監視対象物の各輪郭の接続関係から、前記被監視対象物のどの角かを判定して、各輪郭を角毎に分類する分類部と、
各角に分類される数が均等であるか否かを基にして、前記被監視対象物の陳列が乱れていると判定する判定部と
を有することを特徴とする画像処理装置。
An extraction unit for extracting the contour of the monitored object from the image data;
From the connection relationship of each contour of the monitored object, it is determined which corner of the monitored object, and a classification unit that classifies each contour for each corner;
An image processing apparatus comprising: a determination unit that determines that the display of the monitored object is disturbed based on whether or not the number classified into each corner is equal .
前記抽出部は、第1時刻に撮影された画像データと第2時刻に撮影された画像データとが変化していない場合に、前記第1時刻に撮影された画像データまたは前記第2時刻に撮影された画像データから前記被監視対象物の輪郭を抽出することを特徴とする請求項1に記載の画像処理装置。 The extraction unit captures the image data captured at the first time or the second time when the image data captured at the first time and the image data captured at the second time have not changed. The image processing apparatus according to claim 1, wherein an outline of the monitored object is extracted from the obtained image data. 前記抽出部は、前記画像データを複数の領域に分割し、分割した領域毎に前記被監視対象物の輪郭を抽出し、前記判定部は、前記分割された領域毎に、前記被監視対象物の陳列が乱れているか否かを判定することを特徴とする請求項1または2に記載の画像処理装置。 The extraction unit is configured to divide the image data into a plurality of regions, said extracting a contour of the monitored object in each divided region, the determination unit, for each of the divided regions, the monitored object the image processing apparatus according to claim 1 or 2 of the display and judging whether or not disturbed. 画像データから被監視対象物の輪郭を抽出する抽出部と、An extraction unit for extracting the contour of the monitored object from the image data;
画像データから前記被監視対象物のコーナーを検出するコーナー検出部と、A corner detection unit for detecting a corner of the monitored object from image data;
前記抽出部によって抽出された各輪郭を、各輪郭の方向に基づいて複数のグループに分類する分類部と、A classification unit that classifies each contour extracted by the extraction unit into a plurality of groups based on the direction of each contour;
前記分類部の分類結果を基にして、前記被監視対象物の陳列が乱れているか否かを判定する処理、および、前記コーナー検出部によって第1の時刻に検出されたコーナーの数と、第2の時刻に検出されたコーナー数とを比較し、比較した結果を基にして、前記被監視対象物の陳列が乱れているか否かを判定する処理を実行する判定部とBased on the classification result of the classification unit, the process for determining whether or not the display of the monitored object is disturbed, the number of corners detected at the first time by the corner detection unit, A determination unit that compares the number of corners detected at time 2 and determines whether the display of the monitored object is disturbed based on the comparison result;
を有することを特徴とする画像処理装置。An image processing apparatus comprising:
コンピュータが実行する画像処理方法であって、
画像データから被監視対象物の輪郭を抽出し、
前記被監視対象物の各輪郭の接続関係から、前記被監視対象物のどの角かを判定して、各輪郭を角毎に分類し、
各角に分類される数が均等であるか否かを基にして、前記被監視対象物の陳列が乱れていると判定する
各処理を実行することを特徴とする画像処理方法。
An image processing method executed by a computer,
Extract the contour of the monitored object from the image data,
From the connection relationship of each contour of the monitored object, determine which corner of the monitored object, and classify each contour for each corner,
An image processing method, comprising: executing each process for determining that the display of the monitored object is disturbed based on whether or not the number classified into each corner is equal .
コンピュータに、
画像データから被監視対象物の輪郭を抽出し、
前記被監視対象物の各輪郭の接続関係から、前記被監視対象物のどの角かを判定して、各輪郭を角毎に分類し、
各角に分類される数が均等であるか否かを基にして、前記被監視対象物の陳列が乱れていると判定する
各処理を実行させることを特徴とする画像処理プログラム。
On the computer,
Extract the contour of the monitored object from the image data,
From the connection relationship of each contour of the monitored object, determine which corner of the monitored object, and classify each contour for each corner,
An image processing program for executing each process for determining that the display of the monitored object is disturbed based on whether or not the number classified into each corner is equal .
JP2013060994A 2013-03-22 2013-03-22 Image processing apparatus, image processing method, and image processing program Expired - Fee Related JP6225443B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2013060994A JP6225443B2 (en) 2013-03-22 2013-03-22 Image processing apparatus, image processing method, and image processing program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2013060994A JP6225443B2 (en) 2013-03-22 2013-03-22 Image processing apparatus, image processing method, and image processing program

Publications (2)

Publication Number Publication Date
JP2014186550A JP2014186550A (en) 2014-10-02
JP6225443B2 true JP6225443B2 (en) 2017-11-08

Family

ID=51834058

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2013060994A Expired - Fee Related JP6225443B2 (en) 2013-03-22 2013-03-22 Image processing apparatus, image processing method, and image processing program

Country Status (1)

Country Link
JP (1) JP6225443B2 (en)

Families Citing this family (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6230748B2 (en) 2015-02-26 2017-11-15 三菱電機株式会社 Image processing device
JP6008339B1 (en) * 2015-04-28 2016-10-19 パナソニックIpマネジメント株式会社 Product monitoring device, product monitoring system and product monitoring method
JP6288567B2 (en) * 2016-07-11 2018-03-07 パナソニックIpマネジメント株式会社 Facility operation support apparatus and facility operation support method
JP7455010B2 (en) * 2020-06-29 2024-03-25 株式会社Nttドコモ Detection device and detection program

Family Cites Families (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2000057355A (en) * 1998-08-06 2000-02-25 Nippon Telegr & Teleph Corp <Ntt> Region extraction device and image processing device
JP2000306077A (en) * 1999-04-21 2000-11-02 Hitachi Zosen Corp Book management equipment
JP4784823B2 (en) * 2005-12-28 2011-10-05 株式会社Ihi Method and apparatus for detecting collapse of goods
JP4818285B2 (en) * 2008-01-30 2011-11-16 三菱電機株式会社 Congestion retention detection system
JP5153434B2 (en) * 2008-04-22 2013-02-27 キヤノン株式会社 Information processing apparatus and information processing method
JP2010141755A (en) * 2008-12-15 2010-06-24 Nippon Telegr & Teleph Corp <Ntt> System, method and program for monitoring road
JP5259456B2 (en) * 2009-03-02 2013-08-07 株式会社東芝 Learning device and object detection device
WO2011058626A1 (en) * 2009-11-11 2011-05-19 株式会社 東芝 Image processing device and slide show display

Also Published As

Publication number Publication date
JP2014186550A (en) 2014-10-02

Similar Documents

Publication Publication Date Title
US10902568B2 (en) System and method for finding lines in an image with a vision system
US10212324B2 (en) Position detection device, position detection method, and storage medium
US10872262B2 (en) Information processing apparatus and information processing method for detecting position of object
JP6176388B2 (en) Image identification device, image sensor, and image identification method
US10748023B2 (en) Region-of-interest detection apparatus, region-of-interest detection method, and recording medium
US10937168B2 (en) System and method for finding and classifying lines in an image with a vision system
JP6225443B2 (en) Image processing apparatus, image processing method, and image processing program
US20170061231A1 (en) Image processing device, image processing method, and computer-readable recording medium
KR20190050311A (en) System and method for finding lines in an image with a vision system
JP6844235B2 (en) Distance measuring device and distance measuring method
US8164633B2 (en) Calibration apparatus and method for imaging devices and computer program
JP2014186520A (en) Image processing apparatus, image processing method, and program
CN105654108B (en) Classification method, inspection method and check device
US20160260227A1 (en) Image processing apparatus, image pickup apparatus, and storage medium for storing image processing program
JP2020071716A (en) Abnormality determination method, feature amount calculation method, appearance inspection device
JP2009182624A (en) Target tracking device
US20150350579A1 (en) Image processing apparatus, image processing method, and storage medium
JP6772059B2 (en) Electronic control devices, electronic control systems and electronic control methods
US10372977B2 (en) Video processing for human occupancy detection
US10372750B2 (en) Information processing apparatus, method, program and storage medium
KR101407070B1 (en) Method of extracting feature for human detection and apparatus for performing the same
JP7035357B2 (en) Computer program for image judgment, image judgment device and image judgment method
US20180189541A1 (en) Optical identification method and optical identification system
JP2020021340A (en) Candidate region estimation device, candidate region estimation method, and program
KR101592110B1 (en) APPARATUS AND METHOD FOR classification of eye shape

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20151106

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20160912

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20160920

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20161114

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20170411

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20170608

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20170627

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20170823

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20170912

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20170925

R150 Certificate of patent or registration of utility model

Ref document number: 6225443

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

LAPS Cancellation because of no payment of annual fees