[go: up one dir, main page]

JPH05197812A - Figure shape learning recognition method - Google Patents

Figure shape learning recognition method

Info

Publication number
JPH05197812A
JPH05197812A JP4007748A JP774892A JPH05197812A JP H05197812 A JPH05197812 A JP H05197812A JP 4007748 A JP4007748 A JP 4007748A JP 774892 A JP774892 A JP 774892A JP H05197812 A JPH05197812 A JP H05197812A
Authority
JP
Japan
Prior art keywords
information
neural network
graphic
learning
curvature
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP4007748A
Other languages
Japanese (ja)
Inventor
Masakazu Nagura
正計 名倉
Shinji Abe
伸治 安部
Masaji Katagiri
雅二 片桐
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nippon Telegraph and Telephone Corp
Original Assignee
Nippon Telegraph and Telephone Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nippon Telegraph and Telephone Corp filed Critical Nippon Telegraph and Telephone Corp
Priority to JP4007748A priority Critical patent/JPH05197812A/en
Publication of JPH05197812A publication Critical patent/JPH05197812A/en
Pending legal-status Critical Current

Links

Landscapes

  • Image Analysis (AREA)

Abstract

(57)【要約】 【目的】 本発明の目的は、多種の図形の形状について
個々にプログラミングすることなく、図形を自動的に認
識できる図形形状学習認識方式を提供することである。 【構成】 本発明は、幼児期の図形の認識や理解には与
えられた図形の形を何度も学習しながら除々にその図形
を理解していくことと同様に、ニューラルネットワーク
技術を利用することにより、図形の形状の特徴を図形の
曲率情報が的確に表現していることに着目し、その曲率
情報を抽出し、その曲率情報を入力情報としてニューラ
ルネットワークへ入力し、ニューラルネットワークに図
形の学習を行なわせ、その学習結果を認識対象となる図
形の認識を行うものである。
(57) [Summary] [Object] An object of the present invention is to provide a figure shape learning recognition method capable of automatically recognizing a figure without individually programming the shapes of various figures. [Structure] The present invention uses neural network technology for recognizing and understanding a figure in early childhood, as well as gradually learning the figure while learning the shape of the given figure many times. Therefore, paying attention to the fact that the curvature information of the figure accurately represents the feature of the shape of the figure, the curvature information is extracted, the curvature information is input as input information to the neural network, and the neural network Learning is performed, and the learning result is used to recognize the figure to be recognized.

Description

【発明の詳細な説明】Detailed Description of the Invention

【0001】[0001]

【産業上の利用分野】本発明は図形形状学習認識方式に
係り、特に、図面上の情報の設計、維持、管理等を行う
図面情報システムにおいて、図面中に描かれた図形情報
を計算機で取り扱える情報に変換する、即ち、初期図形
情報を図面から獲得する手段として、図面中の図形情報
を自動的に認識可能にする図形形状認識方式に関する。
BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to a graphic shape learning recognition system, and more particularly, in a drawing information system for designing, maintaining and managing information on a drawing, the graphic information drawn in the drawing can be handled by a computer. The present invention relates to a graphic shape recognition system that automatically recognizes graphic information in a drawing as a means for converting it into information, that is, acquiring initial graphic information from the drawing.

【0002】[0002]

【従来の技術】図面中の、図形情報を計算機で取扱い可
能な情報に変換する従来の図形形状認識の手法は、図面
を大型タブレットに張り付け、カーソルを用いて図形を
構成する1本1本の線を手作業で抽出するものである。
この方式は多大な時間を要するため、他の方式として、
図面中の図形を自動的に認識し、図形情報を獲得する方
式も開発されている。
2. Description of the Related Art A conventional method of figure shape recognition for converting figure information in a drawing into information that can be handled by a computer is to attach the drawing to a large tablet and use the cursor to form each figure. The line is extracted manually.
This method requires a lot of time, so as another method,
A method of automatically recognizing a figure in a drawing and acquiring figure information has also been developed.

【0003】この図面中の図形を自動的に認識する従来
の代表的な手法は、図形毎の対象図形の特徴情報を抽出
処理したのち、その図形種の分類処理を行うソフトウェ
ア(図形認識プログラム)を作成し、その図形認識プロ
グラムを用いて図面中の図形の認識を行う。
A typical conventional method for automatically recognizing a figure in this drawing is software (a figure recognizing program) for extracting characteristic information of a target figure for each figure and then classifying the figure type. Then, the figure recognition program is used to recognize the figure in the drawing.

【0004】一方、近年、ニューラルネットワーク技術
が進展し、文字パターンや音声信号の認識に利用しよう
とする技術の開発も進められている。ニューラルネット
ワークは、入力情報と、それに対応するカテゴリ情報を
教師情報として与え、一般的な学習法を多層ネットワー
クに適用した誤差逆転伝搬法等の技術により、入力情報
を自動的に学習するものであり、サイズ、方向、位置が
固定したような単純な文字パターンの自動学習や認識処
理などに有効であることが検証されている。
On the other hand, in recent years, the neural network technology has progressed, and the technology for utilizing it for recognition of character patterns and voice signals is also being developed. Neural networks automatically learn input information by applying input information and category information corresponding to it as teacher information, and using techniques such as the error back-propagation method that applies general learning methods to multilayer networks. It has been verified that it is effective for automatic learning and recognition processing of simple character patterns whose size, direction, and position are fixed.

【0005】但し、ニューラルネットワーク技術を実用
的に有効に使用するかについては、学習可能性の高い情
報をいかにニューラルネットワークに与えるかが問題で
あり、即ち、ニューラルネットワークへの入力情報(学
習情報)の品質(学習可能性)をいかに高いものにする
かは未解決の問題であり、個々の事例毎に解決しなけれ
ばならない。
However, how to effectively use the neural network technology is to give information having a high learning possibility to the neural network, that is, input information (learning information) to the neural network. How to raise the quality (learnability) of is an unsolved problem and must be solved for each individual case.

【0006】[0006]

【発明が解決しようとする課題】上記の従来の手続き型
プログラミングである図形認識プログラムによる手法
は、通常、取り扱う図形種毎にプログラミングしなけれ
ばならないので、取り扱う図形種が多くなればなるほ
ど、また、図形の構造が多少でも複雑になればなるほ
ど、膨大なプログラミングを要すると共に、そのソフト
ウェア開発に多大な開発費と時間を要するため、大きな
問題になっている。このため、従来の手法では取り扱え
る図形の形状が単純なものに限定され、一般的な図面の
図形情報を自動的に獲得するのは困難であった。本発明
は上記の点に鑑みなされたもので、上記の問題を解決
し、多種の図形の形状について個々にプログラミングす
ることなく、図形を自動的に認識できる図形形状学習認
識方式を提供することを目的とする。
The above-mentioned conventional method using a figure recognition program, which is procedural programming, usually requires programming for each figure type to be handled. Therefore, as the number of figure types handled increases, The more complicated the structure of a figure becomes, the more enormous programming is required, and the greater the development cost and time required for the software development, which is a big problem. Therefore, in the conventional method, the shape of a graphic that can be handled is limited to a simple shape, and it is difficult to automatically acquire general graphic information of a drawing. The present invention has been made in view of the above points, and it is an object of the present invention to solve the above problems and provide a figure shape learning recognition method capable of automatically recognizing a figure without individually programming the shapes of various figures. To aim.

【0007】[0007]

【課題を解決するための手段】図1は本発明の原理説明
図である。本発明の図形形状認識方式は、線図形からそ
の図形の中心線を求める図形心線抽出手段1と、線図形
のカテゴリ情報を付与するカテゴリ情報付与手段2と、
図形心線抽出手段1で求められた図形の中心線を画素列
として抽出する心線画素列抽出手段3と、図形の形状構
造を表現するための曲率情報を画素列の各画素毎に求め
る曲線情報算出手段4と、曲線情報算出手段4で求めら
れた曲率情報が変化する点を特徴点として抽出する特徴
点抽出手段5と、特徴点抽出手段5で求められた特徴点
の近傍の曲率情報を正規化することによりニューラルネ
ットワーク21の入力情報を生成する正規化手段6と、
正規化手段6で得られた正規化された曲率情報と、カテ
ゴリ情報付与手段2で得られた対象図形のカテゴリ情報
とをニューラルネットワーク21に入力し、ニューラル
ネットワーク21に対象図形を学習させる対象図形学習
手段7と、図形心線抽出手段1から対象図形学習手段7
までを用いて複数個の対象図形をニューラルネットワー
ク21に学習させる複数個図形学習制御手段8と、ニュ
ーラルネットワーク21により作成される認識用図形1
2を用いてカテゴリ情報付与手段2を除く図形心線抽出
手段1から正規化手段6の各手段により認識用図形12
の正規化された曲率情報を求める正規化曲率算出手段9
と、正規化曲率算出手段9により得られた曲率情報をニ
ューラルネットワーク21に入力し、ニューラルネット
ワーク21からの出力情報から認識用図形12の認識結
果情報を得るニューラルネットワーク認識制御手段10
とを有する。
FIG. 1 illustrates the principle of the present invention. The graphic shape recognition method of the present invention comprises a graphic core line extracting means 1 for obtaining a center line of a graphic from a line graphic, a category information adding means 2 for adding category information of the line graphic,
A core line pixel array extraction unit 3 for extracting the center line of the graphic obtained by the graphic core line extraction unit 1 as a pixel array, and a curve for obtaining curvature information for expressing the shape structure of the graphic for each pixel of the pixel array. The information calculating means 4, the characteristic point extracting means 5 for extracting, as characteristic points, the points at which the curvature information calculated by the curve information calculating means 4 changes, and the curvature information in the vicinity of the characteristic points calculated by the characteristic point extracting means 5. Normalizing means 6 for generating input information of the neural network 21 by normalizing
The normalized curvature information obtained by the normalizing means 6 and the category information of the target graphic obtained by the category information adding means 2 are input to the neural network 21, and the neural network 21 is made to learn the target graphic. From the learning means 7 and the figure core line extraction means 1 to the target figure learning means 7
A plurality of figure learning control means 8 for making the neural network 21 learn a plurality of target figures by using the above, and a recognition figure 1 created by the neural network 21.
2 by using each of the figure core line extracting means 1 except the category information adding means 2 to the normalizing means 6
Normalized curvature calculating means 9 for obtaining the normalized curvature information of
And the curvature information obtained by the normalized curvature calculation means 9 is input to the neural network 21, and the recognition result information of the recognition graphic 12 is obtained from the output information from the neural network 21.
Have and.

【0008】[0008]

【作用】本発明は、我々人間が図形を認識理解する過程
において図形の折れ曲がり具合(曲率情報)を利用して
いることや、また、幼児期の図形の認識や理解には与え
られた図形の形を何度も学習しながら除々にその図形を
理解していくことに着眼し、後者の学習機能を、近年急
速に進歩したニューラルネットワーク技術を利用するこ
とにより、従来の問題を解決しようとするものである。
The present invention utilizes the bending degree (curvature information) of a figure in the process of human beings recognizing and understanding the figure, and the figure given to the figure recognition and understanding in early childhood. Focusing on understanding the shape gradually while learning the shape many times, the latter learning function tries to solve the conventional problem by using the neural network technology that has advanced rapidly in recent years. It is a thing.

【0009】特に、図形の形状の特徴を図形の曲率情報
が的確に表現していることに着目し、その曲率情報を抽
出し、その曲率情報を入力情報としてニューラルネット
ワークへ入力し、ニューラルネットワークに図形の学習
を行なわせ、その学習結果を認識対象となる図形の認識
を行うものである。これにより、種々の図形を学習させ
るだけで、図形の認識が可能になるため、従来のような
図形認識プログラミングの必要がなくなる。
In particular, paying attention to the fact that the curvature information of the figure accurately expresses the feature of the shape of the figure, the curvature information is extracted, and the curvature information is input as input information to the neural network, The figure is learned, and the learning result is used to recognize the figure to be recognized. As a result, since it becomes possible to recognize the figure only by learning various figures, the conventional figure recognition programming is not necessary.

【0010】[0010]

【実施例】まず、本発明に使用するニューラルネットワ
ークの原理について説明する。図2はニューラルネット
ワークの原理構造を示す。ニューラルネットワーク32
は種々の構成が既存技術として開発されている。その内
容については本発明の特許請求の範囲に抵触するもので
はなく、ブラックボックスとする。そのブラックボック
スとして与えられるニューラルネットワーク32は、入
力情報31と出力情報33があり、入力情報31に対す
るカテゴリ情報を教師情報34として与えられる。学習
処理は、入力情報31と教師情報34をニューラルネッ
トワーク32に与えることにより行われ、入力情報31
に対する出力情報33と教師情報34との差分をできる
だけ小さくするように処理される。この差分(誤差)を
できるだけ小さくする方法として、誤差逆転伝搬法等が
一般に用いられている。複数個の入力情報31及び、教
師情報34を複数回繰り返し学習させることによって、
ニューラルネットワーク32の出力情報33と教師情報
34との差分(誤差)が最小になり、学習が終了する。
学習が終了したニューラルネットワーク32に新たな入
力情報31を与えると、ニューラルネットワーク32の
出力情報33として、既に学習された入力情報31に最
も似かよった教師情報34に対応した情報が得られる。
First, the principle of the neural network used in the present invention will be described. FIG. 2 shows the principle structure of the neural network. Neural network 32
Various configurations have been developed as existing technology. The content does not conflict with the scope of the claims of the present invention and is a black box. The neural network 32 given as the black box has input information 31 and output information 33, and category information for the input information 31 is given as teacher information 34. The learning process is performed by giving the input information 31 and the teacher information 34 to the neural network 32.
The difference between the output information 33 and the teacher information 34 is processed as small as possible. As a method of making this difference (error) as small as possible, an error back propagation method or the like is generally used. By repeatedly learning a plurality of input information 31 and teacher information 34 a plurality of times,
The difference (error) between the output information 33 of the neural network 32 and the teacher information 34 becomes the minimum, and the learning ends.
When new input information 31 is given to the learned neural network 32, the output information 33 of the neural network 32 is information corresponding to the teacher information 34 that is most similar to the already learned input information 31.

【0011】本発明では、ニューラルネットワーク32
への入力情報31として本発明の主眼とする図形形状を
的確に表現する曲率情報が与えられる。ニューラルネッ
トワーク32は対象図形のカテゴリ情報を教師情報34
として与えることによって図形の学習を行う。学習が終
了したネットワーク32は、新たな図形の曲率情報を入
力情報31として与えられることによって、その新たな
図形の分類処理や認識処理を行うカテゴライジングを行
なう。なお、一般的に入力情報31、出力情報33、教
師情報34はそれぞれ、任意の数の任意の数値で与えら
れる。なお、本発明で用いる曲率という用語は数学的に
厳密な定義の曲率を意味するものでなく、直感的にわか
りやすくするために、図形の折れ曲がり具合を表現する
意味で曲率情報という用語を用いている。
In the present invention, the neural network 32
Curvature information that accurately expresses the graphic shape that is the main object of the present invention is given as input information 31 to the. The neural network 32 uses the category information of the target figure as teacher information 34.
Learning the figure by giving as. The network 32 that has finished learning is categorized by performing the classification process and the recognition process of the new figure by being given the curvature information of the new figure as the input information 31. In general, each of the input information 31, the output information 33, and the teacher information 34 is given by an arbitrary number and arbitrary numerical value. The term "curvature" used in the present invention does not mean a mathematically rigorously defined curvature, and in order to make it intuitively easy to understand, the term "curvature information" is used to represent the degree of bending of a figure. There is.

【0012】図3は本発明の一実施例の学習処理過程を
説明するための図を示す。同図において、電子計算機2
0に入力されるのは学習用図形11である。
FIG. 3 is a diagram for explaining the learning process of one embodiment of the present invention. In the figure, a computer 2
It is the learning graphic 11 that is input to 0.

【0013】〔ステップA1;図形心線(中心線)抽出
処理〕紙の上に描かれた線図形は既存のスキャナ装置を
用いて、電子計算機(以下計算機と呼ぶ)内にディジタ
ル情報として読み込まれる。計算機20内に読み込まれ
た学習用図形11(線図形情報)は、従来の技術と同様
の心線化処理(細線化処理)によって、その線図形の1
画素幅の中心線である心線を得ることにより1画素幅の
画素の連結情報である心線情報を得る。
[Step A1; Graphic Core Line (Center Line) Extraction Processing] The line graphic drawn on the paper is read as digital information in an electronic computer (hereinafter referred to as a computer) using an existing scanner device. . The learning figure 11 (line figure information) read into the computer 20 is converted into one of the line figures by the core making process (thin line making process) similar to the conventional technique.
By obtaining the core line which is the center line of the pixel width, the core line information which is the connection information of the pixels of one pixel width is obtained.

【0014】〔ステップA2;カテゴリ情報付与処理〕
ステップA1において読み込まれた学習用図形11の名
前、分類名称であるカテゴリ情報は、計算機20に接続
されるキーボード等から入力することにより情報化され
る。
[Step A2; Category Information Adding Process]
The category information, which is the name and classification name of the learning graphic 11 read in step A1, is computerized by inputting from a keyboard or the like connected to the computer 20.

【0015】〔ステップA3;心線画素列抽出処理〕ス
テップA1における心線情報より連結された画素列の連
結を追跡することにより、心線画素列情報を得る。
[Step A3; Core-line Pixel Row Extraction Processing] The core-line pixel row information is obtained by tracking the connection of the pixel rows connected from the core-line information in step A1.

【0016】〔ステップA4;曲率情報算出処理〕心線
画素列情報は各画素の座標値の列である。以下その画素
列をFで表し、各画素をdi で表す。即ち、画素列Fは
F={di }(画素列の画素数をnとすると、1≦i≦
n{ }はdi の集合を表す。)で表す。各画素の座標
値を(xi ,yi )で表し、画素列FをF={(xi
i )}と表す。
[Step A4; Curvature Information Calculation Processing] The core pixel array information is a series of coordinate values of each pixel. Hereinafter, the pixel row is represented by F and each pixel is represented by d i . That is, the pixel row F is F = {d i } (where n is the number of pixels in the pixel row, 1 ≦ i ≦
n {} represents a set of d i . ). The coordinate value of each pixel is represented by (x i , y i ), and the pixel array F is F = {(x i ,
y i )}.

【0017】画素列の各画素の曲率情報は線図形の折れ
曲がり具合を表現するものであり、線図形の幾何学的形
状情報を的確に表現しているとみなすことができる。こ
の図形形状を的確に表現するものとして、曲率情報を抽
出し、用いることが本発明の主眼の一つである。曲率情
報は各画素単位に次のように算出される。
The curvature information of each pixel in the pixel array expresses the degree of bending of the line figure, and can be regarded as accurately expressing the geometrical shape information of the line figure. One of the main objects of the present invention is to extract and use curvature information to accurately express this figure shape. The curvature information is calculated for each pixel as follows.

【0018】図4は本発明の一実施例の曲線情報算出処
理を説明するための図を示す。同図において、画素di
の曲率Ciを求める方法を説明する。図4(a)に示す
ように、画素diからk個離れた2個の画素
(d(i-k) ,d(i+k) )を設定し、画素d(i-k) と画素
(i+k) を接続する直線線分をLk とする。次に画素d
i から直線Lk への垂線を描き、その垂線の足(垂線と
直線Lk との交点)をqk とし、画素di と点qk との
距離をBk とする。さらに、その距離Bk が予め設定す
るパラメータEに対して、Bk ≦Eになる条件で、上記
kの値を1,2,3,…と順次増加させていくときのk
の最大値を求め、その最大値をLとする。そして、同図
(b)に示すように、画素d(i-L) を視点、画素di
終点とするベクトルをV−とし、画素di を視点、画素
(i+L) を終点とするベクトルをV+とする。このよう
にして作成された2個のベクトル(V−,V+)のなす
角度θi (角度をラジアンで表し、−π≦θi ≦π:π
は円周率を表す)を、画素di における折れ曲がり具合
を表現するものとし、画素di における曲率情報Ci
i =θi /πで変換した値とする。
FIG. 4 is a diagram for explaining the curve information calculation processing of one embodiment of the present invention. In the figure, the pixel di
A method of obtaining the curvature Ci of is described. As shown in FIG. 4A, two pixels (d (ik) and d (i + k) ) separated from the pixel di by k are set, and the pixel d (ik) and the pixel d (i + k ) are set. Let L k be the straight line segment that connects ) . Next pixel d
A perpendicular line from i to the straight line L k is drawn, the leg of the perpendicular line (intersection point of the perpendicular line and the straight line L k ) is set to q k , and the distance between the pixel d i and the point q k is set to B k . Further, when the distance B k is set to a preset parameter E, B k ≦ E, the value of k is increased to 1, 2, 3, ...
The maximum value of is calculated and the maximum value is set to L. Then, as shown in FIG. 9B, a vector having the pixel d (iL) as the viewpoint and the pixel d i as the end point is V-, and the pixel d i is the viewpoint and the pixel d (i + L) is the end point. Let the vector be V +. The angle θ i formed by the two vectors (V−, V +) thus created (the angle is expressed in radians, −π ≦ θ i ≦ π: π
Is a representative of the circular constant), it is assumed to represent the degree of bending in the pixel d i, a value of the curvature information C i has been converted by the C i = θ i / π in the pixel d i.

【0019】これにより曲率情報Ci は、−1.0≦C
i ≦+1.0に正規化した値になっている。なお、本発
明では必ずしも、この正規化を行う必要はなく、単にC
i =θi としても構わない。以上のようにして作成され
た画素列Fの曲率情報(Fcとする)は、Fc=
{Ci }で表す。
Thus, the curvature information C i is -1.0≤C
The value is normalized to i ≤ +1.0. In the present invention, it is not always necessary to carry out this normalization, and simply use C
It is also possible to set i = θ i . The curvature information (referred to as Fc) of the pixel row F created as described above is Fc =
It is represented by {C i }.

【0020】なお、本実施例の説明では、説明の簡単化
のために、対象とする線図形(心線画素列)がループを
描く図形であるとして、以下に説明する。即ち、画素列
の最初の画素((x1 ,y1 ):始点画素)と、最後の
画素((xn ,yn ):終点画素)は隣接するものと
し、これにより、始点画素、終点画素の近傍画素におい
て、始点・終点画素よりd画素離れた2画素
(d(i-k) ,d(i+k) )を容易に得ることができる。ま
た、上述の予め設定されるパラメータEは、画素間隔長
の数倍に設定すればよいことが実験的に確かめられてい
る。
In the description of the present embodiment, for simplification of the description, the following description will be given assuming that the target line figure (core line pixel row) is a figure that draws a loop. That is, the first pixel ((x 1 , y 1 ): start point pixel) and the last pixel ((x n , y n ): end point pixel) of the pixel row are adjacent to each other, whereby the start point pixel and the end point pixel It is possible to easily obtain two pixels (d (ik) , d (i + k) ) that are d pixels away from the start point / end point pixels in the vicinity of the pixel. Further, it has been experimentally confirmed that the above-mentioned preset parameter E may be set to be several times the pixel interval length.

【0021】図5は本発明の一実施例の曲線情報の一例
を示す図である。同図は上記のようにして求められた画
素列Fの曲率情報Fcの一例であり、同図(a)に示す
元の図形を構成する画素数が例えば400画素であると
き、同図(b)の曲率情報における注視点から200画
素目の位置をm1 ,m2 (m1 =m2 )とする。
FIG. 5 is a diagram showing an example of curve information according to an embodiment of the present invention. This figure is an example of the curvature information Fc of the pixel row F obtained as described above, and when the number of pixels forming the original figure shown in FIG. The position of the 200th pixel from the gazing point in the curvature information in ( 1 ) is m 1 , m 2 (m 1 = m 2 ).

【0022】〔ステップA5:特徴点抽出処理〕ステッ
プA4の心線画素列抽出処理において求められた画素列
(心線)の曲率情報Fc={Ci }からその対象図形の
特徴点を抽出する。以下に特徴点抽出処理について詳細
に説明する。図5の例のように曲率情報は同図(a)の
形状を同図(b)に示すように、凹凸のある曲線的グラ
フで表現される。そのグラフの極大点、極小点を特徴点
として抽出する。即ち、2次元平面上の線図形の凹凸の
変化点を特徴点として算出する。この特徴点の算出方法
は、図5の例により容易に理解できるように、曲率が増
加から減少に変化する点、減少から増加に変化する点を
抽出すればよい。また、隣合う特徴点が大きく離れてい
る場合には、その中央点も特徴点とする。このように特
徴点を抽出する目的は後述するように、本発明では特徴
点の近傍の曲率情報を正規化してニューラルネットワー
ク21に学習させるが、特徴点に対して任意の所定の距
離をおいた画素の位置の曲率情報をニューラルネットワ
ーク21に与えるようにすることにより、学習対象情報
の数を減らす効果があり、学習のための処理時間を短縮
させることができる。即ち、各画素毎の近傍の曲率情報
をニューラルネットワーク21に与えると、学習性能/
学習後の認識性能は向上するが、線図形を構成する画素
数が多くなればなるほど、学習情報(及び認識情報)の
数が増大し、そのために多大な時間が必要となり、実用
性を満足できなくなる恐れがあるためであり、一種の間
引き処理のために特徴点抽出処理を行う必要がある。勿
論、現状の技術の進歩は著しいので、実用上問題がなく
なる程度に、ニューラルネットワーク21技術(ハード
ウェア/ソフトウェア技術)が進展すれば、また、対象
となる線図形の画素数が少ない場合には、各画素単位の
近傍の曲率情報を学習対象情報/認識対象情報にするこ
とができ、すべての画素を特徴点とすればよい。
[Step A5: Feature Point Extraction Processing] The feature points of the target graphic are extracted from the curvature information Fc = {C i } of the pixel row (core line) obtained in the core pixel row extraction process of step A4. .. The feature point extraction processing will be described in detail below. As in the example of FIG. 5, the curvature information is expressed by a curved graph having irregularities, as shown in the shape of FIG. The maximum and minimum points of the graph are extracted as feature points. That is, the change points of the irregularities of the line figure on the two-dimensional plane are calculated as the characteristic points. As for the method of calculating the feature points, as can be easily understood from the example of FIG. 5, the points where the curvature changes from increase to decrease and the points where the curvature changes from decrease to increase may be extracted. Further, when the adjacent feature points are greatly separated, the central point is also set as the feature point. As described below, the purpose of extracting the feature points is to normalize the curvature information in the vicinity of the feature points and allow the neural network 21 to learn, as will be described later. However, an arbitrary predetermined distance is set to the feature points. By providing the neural network 21 with curvature information of pixel positions, the number of pieces of learning target information can be reduced, and the processing time for learning can be shortened. That is, when the neighborhood curvature information for each pixel is given to the neural network 21, the learning performance /
Although the recognition performance after learning is improved, the larger the number of pixels that make up a line figure, the larger the number of learning information (and recognition information), which requires a lot of time, which makes it practical. This is because there is a possibility that the feature points will be lost, and it is necessary to perform feature point extraction processing for a type of thinning processing. Of course, the current technological progress is remarkable, so if the neural network 21 technology (hardware / software technology) progresses to the extent that there is no practical problem, and if the number of pixels of the target line figure is small. The curvature information in the vicinity of each pixel unit can be used as the learning target information / recognition target information, and all the pixels can be used as the feature points.

【0023】〔ステップA6:特徴点を注視点とした正
規化された曲率情報算出処理(正規化処理)〕ステップ
A5の特徴点抽出処理で求められた特徴点に対してその
特徴点の曲率情報をニューラルネットワーク21への入
力情報になるように、曲率情報の正規化を行う。
[Step A6: Normalized Curvature Information Calculation Process (Normalization Process) Using Feature Point as Point of Gaze] With respect to the feature point obtained by the feature point extraction process of Step A5, the curvature information of that feature point The curvature information is normalized so that is the input information to the neural network 21.

【0024】以下に正規化処理について詳細に説明す
る。ある任意の図形の特徴的な形状を我々人間が目視、
認識する場合、瞬間的には特徴的な箇所の至近距離の形
状は細かく注視し、その周辺は周辺に行くに従って粗く
眺めていること(人間の視覚/知覚特性)に着目し、上
記の特徴点の近傍の曲率情報は細かく、周辺に行くに従
って粗い曲率情報を求め利用する。即ち、ある特徴点を
注視点(画素)dm とすると、注視点dm から図5の曲
率曲線グラフの左右方向に、例えば、1,2,3,4,
5,6,7,…画素間隔毎に分割する。分割された各々
を右方向にG0 ,GR1,GR2,GR3,GR4, …, G
Rj ,…とし、左方向にGL0,GLL,GL2,GL3
L4,…,GLj,…とする。具体的にはこの例では右方
向の各画素は、 GR0 :dm R1 :d(m+1) ,d(m+2) R2 :d(m+3) 〜d(m+5) R3 :d(m+6) 〜d(m+9) R4 :d(m+10)〜d(m+14)R5 :d(m+15)〜d(m+20) … GRj :d(m+f(j))〜d(m+f'(j)) … に分割される。
The normalization process will be described in detail below. We humans visually see the characteristic shape of an arbitrary figure,
When recognizing, pay attention to the shape of a characteristic portion at a close distance in a moment, and pay attention to the fact that the surrounding area is roughly viewed toward the surroundings (human visual / perceptual characteristics). The curvature information in the vicinity of is fine, and coarser curvature information is obtained and used toward the periphery. That is, when there gazing point characteristic points (pixels) d m, in the lateral direction of the curvature of the curve graph in Fig. 5 from the fixation point d m, for example, 1, 2, 3, 4,
5, 6, 7, ... Dividing at every pixel interval. Each of the divided parts is moved to the right by G 0 , G R1 , G R2 , G R3 , G R4, ..., G
Rj , ..., and G L0 , G LL , G L2 , G L3 , and
Let G L4 , ..., G Lj ,. Specifically, in this example, each pixel in the right direction is G R0 : d m G R1 : d (m + 1) , d (m + 2) G R2 : d (m + 3) to d (m + 5 ) ) G R3 : d (m + 6) to d (m + 9) G R4 : d (m + 10) to d (m + 14) G R5 : d (m + 15) to d (m + 20) ... G Rj : d (m + f (j)) to d (m + f '(j)) ...

【0025】また、左方向の各画素は、 GL0 :dm L1 :d(m-1) ,d(m-2) L2 :d(m-3) 〜d(m-6) L3 :d(m-6) 〜d(m-9) L3 :d(m-10)〜d(m-13)L5 :d(m-15)〜d(m-14) … GLJ :d(m-f(j))〜d(m-f'(j)) … に分割される。例えば、上記の例では分割領域GR5では
画素d(m+15),d(m+16) , (m+17), …d(m+20)の6つ
の画素が対応する。このように、特徴点から離れるに従
って粗く分割する。なお、分割の方法は上記の例に限定
されず、取り扱う図形の性質に応じて任意に設定するこ
とができる。また、このように特徴点から離れた周辺の
位置に行くに従って粗く分布した理由は上記の人間の視
覚・知覚特性に着目したのと同時に、ニューラルネット
ワーク21への入力情報を減少させる効果もある。
Further, each pixel in the left direction is G L0 : d m G L1 : d (m-1) , d (m-2) G L2 : d (m-3) to d (m-6) G L3: d (m-6) ~d (m-9) G L3: d (m-10) ~d (m-13) G L5: d (m-15) ~d (m-14) ... G LJ : D (mf (j)) to d (m-f '(j)) . For example, in the above example, the divided region G R5 corresponds to six pixels of pixels d (m + 15) , d (m + 16) , d (m + 17), ... D (m + 20) . In this way, as the distance from the feature point increases, the rough division is performed. The dividing method is not limited to the above example, and can be arbitrarily set according to the property of the figure to be handled. Further, the reason why the distribution is coarser as it goes to the peripheral position away from the feature point in this way is that it has the effect of reducing the input information to the neural network 21 while paying attention to the human visual and perceptual characteristics.

【0026】さらに、それぞれの分割範囲内の曲率情報
i を上記の各画素毎に次のように対応させる。右方向
の画素は、 GR0 :Cm R1 :C(m+1) ,C(m+2) R2 :C(m+3) 〜C(m+5) R3 :C(m+6) 〜C(m+9) R4 :C(m+10)〜C(m+14)R5 :C(m+15)〜C(m+20) … GRj :C(m+f(j))〜C(m+f'(j)) … に対応する。
Further, the curvature information C i within each divided range is made to correspond to each pixel as described above as follows. Pixels in the rightward direction, G R0: C m G R1 : C (m + 1), C (m + 2) G R2: C (m + 3) ~C (m + 5) G R3: C (m + 6) to C (m + 9) G R4 : C (m + 10) to C (m + 14) G R5 : C (m + 15) to C (m + 20) ... G Rj : C (m + f) (j)) to C (m + f '(j)) .

【0027】また、左方向の各画素は、 GL0 :Cm L1 :C(m-1) ,C(m-2) L2 :C(m-3) 〜C(m-6) L3 :C(m-6) 〜C(m-9) L3 :C(m-10)〜C(m-13)L5 :C(m-15)〜C(m-14) … GLJ :C(m-f(j))〜C(m-f'(j)) … のように対応する。Further, each pixel in the left direction is G L0 : C m G L1 : C (m-1) , C (m-2) G L2 : C (m-3) to C (m-6) G L3 : C (m-6) to C (m-9) G L3 : C (m-10) to C (m-13) G L5 : C (m-15) to C (m-14)GLJ : C (mf (j)) to C (m-f '(j)) .

【0028】そして、各分割領域毎に、曲率の平均値を
求める。それぞれの曲率情報をCR0,CR1,CR2
R3,CR4,…,CRj,…,及びCL0,CL1,CL2,C
L3, L4,…CLj,…とした場合、例えば曲率CR4は CR4=(C(m+10)+C(m+11)+C(m+12)+C(m+13)+C
(m+14))/4 で求める。
Then, the average value of the curvature is obtained for each divided area. The curvature information of each is C R0 , C R1 , C R2 ,
C R3 , C R4 , ..., C Rj , ..., And C L0 , C L1 , C L2 , C
When L3, C L4 , ... C Lj , ... For example, the curvature C R4 is C R4 = (C (m + 10) + C (m + 11) + C (m + 12) + C (m + 13) + C
(m + 14) ) / 4.

【0029】ここで、注視点CR0とCL0を同一のものと
して、左右方向に20分割領域を設定するとして、その
場合の曲率情報は、右方向に、{CR1,CR2,…,C
R20 ,}(={CR20 })個の分割範囲単位の曲率情報
とする。及び左方向に、{CL1,CL2,…,CL20 ,}
(={CL20 })個の分割範囲単位の曲率情報とする。
従って、総計41個の曲率情報を得る。上記の曲率情報
{{CL20 },C Ro,{CR20 }}が正規化された曲率
情報であり、ニューラルネットワーク21の入力情報と
なる。なお、任意の個数の分割数を設定する場合、
{{CL },C R0,{CR }}で表す。
Attention point CR0And CL0The same as
Then, assuming that 20 divided areas are set in the left-right direction,
The curvature information in the case is {CR1, CR2,,, C
R20,} (= {CR20}) Curvature information for each division range
And And to the left, {CL1, CL2,,, CL20,}
(= {CL20}) The curvature information for each of the division range units.
Therefore, a total of 41 pieces of curvature information are obtained. Curvature information above
{{CL20}, C Ro, {CR20}} Is the normalized curvature
Information, and the input information of the neural network 21
Become. If you set an arbitrary number of divisions,
{{CL}, C R0, {CR}}.

【0030】〔ステップA7:ニューラルネットワーク
学習制御処理〕次に、上記のように特徴点毎に正規化さ
れた曲率情報{{CL },CR0,{C R }}をニューラ
ルネットワーク21に入力情報として与え、前述のカテ
ゴリ情報をステップA2のカテゴリ情報付与処理により
ニューラルネットワーク21の教師情報として与える誤
差逆伝搬法等により、入力情報を自動的にニューラルネ
ットワーク21に学習処理を行わせる。また、1個の学
習用図形が複数個の特徴点を有する場合には、その複数
個の特徴点の正規化された曲率情報をニューラルネット
ワーク21に与えて学習させる。
[Step A7: Neural network
Learning control process] Next, the feature points are normalized as described above.
Curvature information {{CL}, CR0, {C R}}
The network network 21 as input information, and
Gori information by the category information addition process of step A2
Error given as teacher information of neural network 21
The input information is automatically input to the neural network using the difference backpropagation method.
The network 21 is made to perform learning processing. Also, one study
If the learning figure has multiple feature points,
Neural network for normalized curvature information of individual feature points
Give to the work 21 to learn.

【0031】〔ステップA8:複数個図形学習制御処
理〕学習対象図形が複数個存在する場合には、その各々
の学習用図形毎に、且つ個々の学習用図形内の特徴点毎
に正規化された曲率情報をニューラルネットワーク21
に与え、学習処理を行う。ニューラルネットワーク21
は一度入力情報及び教師情報を提示されただけで、直ち
に学習を終了するものではなく、何度も繰り返し学習処
理させる必要がある。これは、人間が幼児時期に何度も
図形(絵)を見ることによって除々にその図形を知覚で
きるようになることに類似している。即ち、学習が終了
するまで本手順を繰り返す。学習の終了はニューラルネ
ットワーク21に入力情報を与え処理したとき、その出
力として得られる出力情報を教師情報との差分(誤差)
総和が最小になり、且つその差分総和に変化が殆ど無く
なる時である。
[Step A8: Plural figure learning control process] When a plurality of learning target figures exist, they are normalized for each learning figure and for each feature point in each learning figure. Neural network 21
And perform learning processing. Neural network 21
Does not end learning immediately after the input information and the teacher information are presented once, and it is necessary to repeatedly perform learning processing. This is similar to the fact that humans can perceive a figure gradually by seeing the figure (picture) many times in early childhood. That is, this procedure is repeated until learning is completed. The end of learning is the difference (error) between the output information obtained as the output when the input information is given to the neural network 21 and processed.
It is the time when the sum total becomes minimum and there is almost no change in the difference sum.

【0032】上記の学習過程の処理手順により、複数個
の学習用図形の学習処理が終了し、ニューラルネットワ
ーク21は複数個の図形を学習したことになる(覚え込
んだことになる)。
By the processing procedure of the above learning process, the learning process of a plurality of learning figures is completed, and the neural network 21 has learned (learned) a plurality of figures.

【0033】次に、上記のニューラルネットワーク21
を用いて別途作成される認識用の図形の認識について説
明する。図7は本発明の一実施例の認識過程を説明する
ための図である。
Next, the above neural network 21
A description will be given of the recognition of a recognition figure separately created by using. FIG. 7 is a diagram for explaining a recognition process according to an embodiment of the present invention.

【0034】〔ステップB9:認識図形の正規化曲率情
報算出制御処理〕まず、ニューラルネットワーク21に
より作成された認識用図形12を用いて前述のステップ
A1からステップA6までの処理を行い、認識用図形1
2の正規化された曲率情報を算出する。
[Step B9: Normalized Curvature Information Calculation Control Processing of Recognition Graphic] First, the recognition graphic 12 created by the neural network 21 is used to perform the processing from step A1 to step A6 described above, and the recognition graphic is executed. 1
Compute 2 normalized curvature information.

【0035】〔ステップB10:ニューラルネットワー
ク認識制御処理〕ステップB9の認識図形の正規化曲率
情報算出制御処理で得られた認識用図形の正規化された
曲率情報を学習を終了したニューラルネットワーク21
の入力情報として入力することにより、ニューラルネッ
トワーク21は認識処理を行う。認識処理の結果、ニュ
ーラルネットワーク21の出力情報を得る。
[Step B10: Neural Network Recognition Control Processing] The neural network 21 that has finished learning the normalized curvature information of the recognition graphic obtained by the normalized curvature information calculation control processing of the recognition graphic in step B9.
The neural network 21 performs a recognition process by inputting the input information as the input information. As a result of the recognition processing, the output information of the neural network 21 is obtained.

【0036】学習処理時、教師情報としてカテゴリ情報
を設定しているため、ステップB10での認識処理時の
出力情報は、ニューラルネットワーク21に与えた認識
用図形のカテゴリ情報として得ることができる。即ち、
先にニューラルネットワーク21に種々の学習をさせた
図形のどの図形に最も類似しているかという情報を出力
情報として得ることができ、これにより、図形認識を行
うことができる。
Since the category information is set as the teacher information in the learning process, the output information in the recognition process in step B10 can be obtained as the category information of the recognition graphic given to the neural network 21. That is,
It is possible to obtain, as output information, information about which figure of the figures that the neural network 21 has learned in various ways is most similar to, and thus, the figure recognition can be performed.

【0037】なお、上記の実施例では、学習対象図形、
認識対象図形をスキャナ装置等から紙の上に描かれた図
形を読み込み、計算機20に入力しているが、マウスや
タブレット装置等を用いて計算機に接続されるディスプ
レイ装置上に直接描きながら計算機に入力した図形情報
であっても、その図形の心線(中心線)を上記の画素列
として容易に得ることができる(直接描画される図形の
軌跡(座標値列)を画素列情報に容易に変換可能)。こ
の場合、描画図形が途中で交差しても構わない。また、
他の方法を用いた場合でも対象図形の心線が上述した画
素列として得られる限り、本発明に適用できる。
In the above embodiment, the learning target figure,
The figure to be recognized is read from the figure drawn on the paper from the scanner device etc. and is input to the computer 20, but it is drawn on the computer while directly drawing it on the display device connected to the computer using a mouse or a tablet device. Even with the inputted graphic information, the core line (center line) of the graphic can be easily obtained as the above-mentioned pixel row (the locus (coordinate value row) of the directly drawn graphic can be easily obtained as the pixel row information. Convertible). In this case, the drawn figures may intersect on the way. Also,
Even when another method is used, the present invention can be applied as long as the core line of the target graphic is obtained as the above-mentioned pixel row.

【0038】さらに、上述の実施例では、ループを描く
図形を例にとり説明したが、開いた図形、すなわち、図
形の心線画素列の始点と終点が一致しない図形の場合で
も上記の実施例同様に曲率情報を容易に得ることができ
る。
Further, in the above-mentioned embodiment, the description has been made by taking the figure which draws a loop as an example. However, even in the case of an open figure, that is, a figure in which the start point and the end point of the core pixel row of the figure do not coincide, the same as the above-mentioned example The curvature information can be easily obtained.

【0039】[0039]

【発明の効果】上述のように、本発明によれば、図形の
形状を的確に表現する曲率情報をニューラルネットワー
クを利用して学習させ、その学習されたニューラルネッ
トワークにより別途作成される図形を認識する方式であ
るので、従来のように、図形形状毎に対応する図形認識
用のソフトウェアを作成しなくとも図形の自動認識が実
現できるため、ソフトウェア開発に伴う費用及び時間が
削減できる。
As described above, according to the present invention, the curvature information that accurately expresses the shape of the figure is learned by using the neural network, and the figure created separately by the learned neural network is recognized. Since this method is used, the automatic recognition of the figure can be realized without creating the figure recognition software corresponding to each figure shape as in the prior art, so that the cost and time required for the software development can be reduced.

【図面の簡単な説明】[Brief description of drawings]

【図1】本発明の原理説明図である。FIG. 1 is a diagram illustrating the principle of the present invention.

【図2】ニューラルネットワークの原理構造を示す図で
ある。
FIG. 2 is a diagram showing a principle structure of a neural network.

【図3】本発明の一実施例の学習過程までを説明するた
めの図である。
FIG. 3 is a diagram for explaining a learning process according to an embodiment of the present invention.

【図4】本発明の一実施例の曲線情報算出処理を説明す
るための図である。
FIG. 4 is a diagram for explaining curve information calculation processing according to an embodiment of the present invention.

【図5】本発明の一実施例の曲線情報の一例を示す図で
ある。
FIG. 5 is a diagram showing an example of curve information according to an embodiment of the present invention.

【図6】本発明の一実施例の認識過程を説明するための
図である。
FIG. 6 is a diagram illustrating a recognition process according to an embodiment of the present invention.

【符号の説明】[Explanation of symbols]

1 図形心線抽出手段 2 カテゴリ情報付与手段 3 心線画素列抽出手段 4 曲線情報算出手段 5 特徴点抽出手段 6 正規化手段 7 対象図形学習手段 8 学習制御手段 9 正規化曲率算出手段 10 認識結果出力手段 11 学習用図形 12 認識用図形 20 計算機 21 ニューラルネットワーク 1 figure core line extraction means 2 category information giving means 3 core line pixel string extraction means 4 curve information calculation means 5 feature point extraction means 6 normalization means 7 target figure learning means 8 learning control means 9 normalized curvature calculation means 10 recognition result Output means 11 Learning figure 12 Recognition figure 20 Computer 21 Neural network

Claims (1)

【特許請求の範囲】[Claims] 【請求項1】 線図形からその図形の中心線を求める図
形心線抽出手段と、 前記線図形のカテゴリ情報を付与するカテゴリ情報付与
手段と、 前記図形心線抽出手段で求められた前記図形の中心線を
画素列として抽出する心線画素列抽出手段と、 前記図形の形状構造を表現するための曲率情報を前記画
素列の各画素毎に求める曲線情報算出手段と、 前記曲線情報算出手段で求められた前記曲率情報が変化
する点を特徴点として抽出する特徴点抽出手段と、 前記特徴点抽出手段で求められた前記特徴点の近傍の曲
率情報を正規化することによりニューラルネットワーク
の入力情報を生成する正規化手段と、 前記正規化手段で得られた正規化された前記曲率情報
と、前記カテゴリ情報付与手段で得られた対象図形の前
記カテゴリ情報とを前記ニューラルネットワークに入力
し、前記ニューラルネットワークに対象図形を学習させ
る対象図形学習手段と、 前記図形心線抽出手段から前記対象図形学習手段までを
用いて複数個の前記対象図形を前記ニューラルネットワ
ークに学習させる複数個図形学習制御手段と、 前記ニューラルネットワークにより作成される認識用図
形を用いて前記カテゴリ情報付与手段を除く前記図形心
線抽出手段から前記正規化手段の各手段により該認識用
図形の正規化された曲率情報を求める正規化曲率算出手
段と、 前記正規化曲率算出手段により得られた前記曲率情報を
前記ニューラルネットワークに入力し、前記ニューラル
ネットワークからの出力情報から前記認識用図形の認識
結果情報を得るニューラルネットワーク認識制御手段と
を有することを特徴とする図形形状学習認識方式。
1. A graphic core line extracting means for obtaining a center line of the graphic from a line graphic, a category information assigning means for providing category information of the line graphic, and a graphic core line extracting means for the graphic graphic obtained by the graphic core line extracting means. A core line pixel string extracting means for extracting a center line as a pixel string, a curve information calculating means for obtaining curvature information for expressing the shape structure of the graphic for each pixel of the pixel string, and the curve information calculating means. Input point of the neural network by normalizing the curvature information in the vicinity of the feature point obtained by the feature point extracting means, and a feature point extracting means for extracting a point where the obtained curvature information changes as a feature point. The normalization means for generating the normalization information, the normalized curvature information obtained by the normalization means, and the category information of the target graphic obtained by the category information giving means. A plurality of target figures to the neural network by using a target figure learning means for inputting to the neural network and causing the neural network to learn the target figure, and the figure core extraction means to the target figure learning means. A plurality of figure learning control means, and a recognition figure created by the neural network, and the normalization of the recognition figure by each means of the normalization means from the figure core line extraction means excluding the category information giving means. Normalized curvature calculation means for obtaining the normalized curvature information, the curvature information obtained by the normalized curvature calculation means is input to the neural network, and the recognition result of the recognition graphic from the output information from the neural network. Characterized by having a neural network recognition control means for obtaining information Figure shape learning and recognition system that.
JP4007748A 1992-01-20 1992-01-20 Figure shape learning recognition method Pending JPH05197812A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP4007748A JPH05197812A (en) 1992-01-20 1992-01-20 Figure shape learning recognition method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP4007748A JPH05197812A (en) 1992-01-20 1992-01-20 Figure shape learning recognition method

Publications (1)

Publication Number Publication Date
JPH05197812A true JPH05197812A (en) 1993-08-06

Family

ID=11674324

Family Applications (1)

Application Number Title Priority Date Filing Date
JP4007748A Pending JPH05197812A (en) 1992-01-20 1992-01-20 Figure shape learning recognition method

Country Status (1)

Country Link
JP (1) JPH05197812A (en)

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7068821B2 (en) 2001-01-29 2006-06-27 Canon Kabushiki Kaisha Information processing method and apparatus
JP2021033036A (en) * 2019-08-23 2021-03-01 東海光学株式会社 Interpolation method for interpolating optical performance of unknown area of progressive refractive power lens
CN114581677A (en) * 2022-03-07 2022-06-03 无锡科若斯科技有限公司 Underground cable radar image detection method based on curve knowledge and deep learning
CN117952954A (en) * 2024-02-26 2024-04-30 南京梓其宁科技有限公司 Distribution box data analysis system using BP neural network

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7068821B2 (en) 2001-01-29 2006-06-27 Canon Kabushiki Kaisha Information processing method and apparatus
JP2021033036A (en) * 2019-08-23 2021-03-01 東海光学株式会社 Interpolation method for interpolating optical performance of unknown area of progressive refractive power lens
CN114581677A (en) * 2022-03-07 2022-06-03 无锡科若斯科技有限公司 Underground cable radar image detection method based on curve knowledge and deep learning
CN117952954A (en) * 2024-02-26 2024-04-30 南京梓其宁科技有限公司 Distribution box data analysis system using BP neural network
CN117952954B (en) * 2024-02-26 2024-12-27 河南许继仪表有限公司 Distribution Box Data Analysis System Using BP Neural Network

Similar Documents

Publication Publication Date Title
US12175640B2 (en) Image optimization method and apparatus, computer storage medium, and electronic device
JP6829575B2 (en) Image processing equipment, image processing system and image processing method
EP1854051B1 (en) Intelligent importation of information from foreign application user interface using artificial intelligence
US5479533A (en) Pattern recognition apparatus and method using fuzzy logic
CN108170649A (en) A kind of Hanzi font library generation method and device based on DCGAN depth networks
JP7017462B2 (en) Learning image generation device and learning image generation method, as well as image recognition device and image recognition method
JP2022168167A (en) Image processing method, device, electronic device and storage medium
CN113095333A (en) Unsupervised feature point detection method and unsupervised feature point detection device
US6240209B1 (en) Method for deriving character features in a character recognition system
EP0450522A2 (en) A learning method for a data processing system
US8879804B1 (en) System and method for automatic detection and recognition of facial features
JPH05197812A (en) Figure shape learning recognition method
JPH06309465A (en) Method for recognizing/learning graphic
CN113065404A (en) Method and system for content detection of train tickets based on monospaced text segments
US20240071132A1 (en) Image annotation using prior model sourcing
EP4270320A1 (en) Scalable approach to converting images to sketches
CN112784733A (en) Emotion recognition method and device based on online education and electronic equipment
CN118279902A (en) Three-dimensional transmission tower similarity identification method and system
CN113592970B (en) Method and device for generating hair styling, electronic equipment and storage medium
EP3572983A1 (en) Low dimensional neural network based architecture
CN115995021A (en) Road disease identification method, device, electronic equipment and storage medium
KR20220124593A (en) How to transform clothes based on the clothes removal image
CN118942102B (en) Intelligent calligraphy evaluation method and system
Ustenko et al. Geometric recognition method of rectangular areas on images
JPH0737095A (en) Line figure element learning recognition method