[go: up one dir, main page]

JP2020129298A - Computation system - Google Patents

Computation system Download PDF

Info

Publication number
JP2020129298A
JP2020129298A JP2019021957A JP2019021957A JP2020129298A JP 2020129298 A JP2020129298 A JP 2020129298A JP 2019021957 A JP2019021957 A JP 2019021957A JP 2019021957 A JP2019021957 A JP 2019021957A JP 2020129298 A JP2020129298 A JP 2020129298A
Authority
JP
Japan
Prior art keywords
image
grayscale
background
computer system
color
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2019021957A
Other languages
Japanese (ja)
Other versions
JP7079742B2 (en
Inventor
正和 藤尾
Masakazu Fujio
正和 藤尾
高橋 健太
Kenta Takahashi
健太 高橋
陽介 加賀
Yosuke Kaga
陽介 加賀
中村 渉
Wataru Nakamura
渉 中村
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Hitachi Ltd
Original Assignee
Hitachi Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Hitachi Ltd filed Critical Hitachi Ltd
Priority to JP2019021957A priority Critical patent/JP7079742B2/en
Publication of JP2020129298A publication Critical patent/JP2020129298A/en
Application granted granted Critical
Publication of JP7079742B2 publication Critical patent/JP7079742B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Image Analysis (AREA)

Abstract

To appropriately extract an objective area from an image.SOLUTION: Disclosed is a computation system that trains a model for extracting an objective target area from an input image. The computation system includes one or more storage devices for storing programs and training data, and one or more processors to operate in accordance with the programs. The one or more processors perform: obtaining a colored image; generating a background separation image in which an objective area and a background area are separated from the colored image based on color information of the colored image; generating a grayscale image obtained by converting the colored image to its grayscale; embracing a set of the grayscale image and the background separation image in the training data; and training the model to which the grayscale image is inputted and from which the background separation image is outputted, using the training data.SELECTED DRAWING: Figure 2

Description

本発明は、入力画像から目的対象領域を抽出する機械学習モデルの訓練に関する。 The present invention relates to training a machine learning model for extracting a target area from an input image.

例えば、ID・パスワードに変わる、安全で便利な個人認証手段として、生体認証技術の利用が拡大しつつある。金融サービスにおいては、モバイル端末からの口座開設、残高照会、口座振込み、ATM利用時の個人認証等においての生体認証の利用が実現されつつある。これまでは、生体認証の利用は指紋センサなどの専用装置を持つスマートフォンなどに限られていたが、生体認証用の専用装置や特定の光源が不要で、スマートフォンやタブレットに標準搭載されている汎用カメラを用いた個人認証も実現されつつある。 For example, the use of biometrics technology is expanding as a safe and convenient personal authentication means that can be replaced with an ID/password. In financial services, the use of biometric authentication is being realized in account opening from mobile terminals, balance inquiry, account transfer, personal authentication when using ATM, and the like. Until now, the use of biometric authentication was limited to smartphones and other devices that have a dedicated device such as a fingerprint sensor, but it does not require a dedicated device for biometric authentication or a specific light source, and is used as a standard feature on smartphones and tablets. Personal authentication using a camera is also being realized.

汎用カメラを用いた生体認証の課題として、手を翳す姿勢や照明環境の自由度が高く、抽出される生体特徴が安定しないという点が挙げられる。特許文献1では、汎用カメラを用いた指静脈認証技術の課題として、登録時と認証時で照明環境や撮像装置などの撮影条件が異なっていても、登録時と認証時に生体を撮影して得られる各生体画像の色差を最小化することで、照明変動や機器間の個体差の影響を低減して高精度に認証を行う技術を開示している。 As a subject of biometric authentication using a general-purpose camera, there is a high degree of freedom in the posture of holding a hand and the illumination environment, and the extracted biometric feature is not stable. In Patent Document 1, as a subject of the finger vein authentication technology using a general-purpose camera, even if the shooting conditions such as the illumination environment and the imaging device are different between the registration and the authentication, the living body is captured at the time of the registration and the authentication. By minimizing the color difference between the biometric images obtained, the technology for authenticating with high accuracy is disclosed by reducing the influence of illumination variation and individual difference between devices.

特開2018−180660号公報JP, 2018-180660, A

しかしながら、特許文献1に開示の方法は、カメラで撮影した画像の背景に、肌色の生体情報画像との同系色が存在する場合や白熱電灯下の撮影において、生体領域と背景領域の色系統の差分がなくなり、登録時又は認証時の生体領域の代表色を選ぶことが困難となる。 However, the method disclosed in Patent Document 1 uses the color system of the living body region and the background region when the background of the image captured by the camera has a similar color to the skin-colored biological information image or when capturing under an incandescent lamp. Since there is no difference, it becomes difficult to select the representative color of the biometric region at the time of registration or authentication.

登録時又は認証時において、背景に肌色の同系色の物体が存在する場合や白熱電灯下など、色情報により手指と背景領域の分離が困難な場合においても、正しく手指領域を抽出することで、撮影環境の変換による影響を低減して高精度に認証を行うことが可能な技術が望まれる。また、手指による個人認証と異なる分野においても、画像から目的領域(目的画像)を正確に抽出することができる技術が望まれる。 At the time of registration or authentication, even if there is an object of a skin-colored similar color in the background or under an incandescent lamp, even if it is difficult to separate the finger and the background area due to color information, by correctly extracting the finger area, A technique capable of reducing the influence of the conversion of the shooting environment and performing authentication with high accuracy is desired. Further, even in a field different from personal authentication with fingers, a technique capable of accurately extracting a target area (target image) from an image is desired.

本発明の一態様は、入力画像から目的対象領域を抽出するモデルを訓練する計算機システムであって、プログラム及び訓練データを格納する1以上の記憶装置と、前記プログラムに従って動作する1以上のプロセッサと、を含み、前記1以上のプロセッサは、カラー画像を取得し、前記カラー画像から、前記カラー画像の色情報に基づき、目的領域と背景領域とが分離された背景分離画像を生成し、前記カラー画像をグレースケール化してグレースケール画像を生成し、前記グレースケール画像と背景分離画像のセットを、前記訓練データに含め、グレースケール画像が入力され、背景分離画像を出力するモデルを、前記訓練データを使用して訓練する、ものである。 One aspect of the present invention is a computer system that trains a model for extracting a target region from an input image, and includes one or more storage devices that store programs and training data, and one or more processors that operate according to the programs. The one or more processors obtain a color image, generate a background separation image in which a target region and a background region are separated from the color image based on color information of the color image, The image is grayscaled to generate a grayscale image, the set of the grayscale image and the background separation image is included in the training data, and a model in which the grayscale image is input and the background separation image is output is defined as the training data. To train using.

本発明の一態様によれば、画像から目的領域を適切に抽出することができる。 According to one aspect of the present invention, a target area can be appropriately extracted from an image.

第1の実施形態の生体認証システムの構成例を示す図である。It is a figure which shows the structural example of the biometrics authentication system of 1st Embodiment. 第1の実施形態の生体認証システムの処理概要を示す図である。It is a figure which shows the process outline of the biometrics authentication system of 1st Embodiment. 第1の実施形態の生体認証システムの処理フローの例である。It is an example of a processing flow of the biometric authentication system of the first embodiment. 第1の実施形態の成功した画像処理の例である。It is an example of successful image processing of the first embodiment. 第1の実施形態の失敗した画像処理の例である。It is an example of the failed image processing of the first embodiment. 第2の実施形態の生体認証システムのソフトウェア構成例を示す。The software configuration example of the biometrics authentication system of 2nd Embodiment is shown. 第2の実施形態の生体認証システムの処理概要を示す図である。It is a figure which shows the process outline of the biometrics authentication system of 2nd Embodiment. 第2の実施形態の学習フェーズでの処理フローの例である。It is an example of a processing flow in the learning phase of the second embodiment. 第3の実施形態の生体認証システムの構成概要を示すブロック図である。It is a block diagram which shows the outline of a structure of the biometrics authentication system of 3rd Embodiment. 第4の実施形態の生体認証システムのソフトウェア構成例を示す。The software configuration example of the biometrics authentication system of 4th Embodiment is shown. 第4の実施形態の生体認証システムの処理概要を示す図である。It is a figure which shows the process outline of the biometrics authentication system of 4th Embodiment. 第4の実施形態における連続する入力画像フレーム間の背景分離画像の位置変動を比較する例を示す。The example which compares the position variation of the background separation image between continuous input image frames in 4th Embodiment is shown.

以下、添付図面を参照して本発明の実施形態を説明する。本実施形態は本発明を実現するための一例に過ぎず、本発明の技術的範囲を限定するものではないことに注意すべきである。 Hereinafter, embodiments of the present invention will be described with reference to the accompanying drawings. It should be noted that the present embodiment is merely an example for realizing the present invention and does not limit the technical scope of the present invention.

〔第1の実施形態〕
図1は、第1の実施形態の生体認証システムの構成例を示す図である。生体認証システム10は、例えば、ユーザ端末(計算機)である。生体認証システム10は、例えば、入力装置11、表示装置12、CPU(Central Processing Unit)13、撮像装置14、主記憶装置15、及び補助記憶装置16を備える。
[First Embodiment]
FIG. 1 is a diagram illustrating a configuration example of the biometric authentication system according to the first embodiment. The biometric authentication system 10 is, for example, a user terminal (computer). The biometric authentication system 10 includes, for example, an input device 11, a display device 12, a CPU (Central Processing Unit) 13, an imaging device 14, a main storage device 15, and an auxiliary storage device 16.

入力装置11は、ユーザによる指示等の入力を受け付ける装置であり、例えばキーボード、マウス又はタッチパネル等であってもよい。例えば、入力装置11は、表示装置12に表示された複数のボックス(ボタン)から、該当の処理を選ぶ処理などを受け付ける。 The input device 11 is a device that receives an input such as an instruction from a user, and may be, for example, a keyboard, a mouse, a touch panel, or the like. For example, the input device 11 receives a process of selecting a corresponding process from a plurality of boxes (buttons) displayed on the display device 12.

表示装置12は、ユーザに種々の文字及び領域切り出し結果の画像等の情報を出力する装置であり、例えば液晶ディスプレイのような画像表示装置であってもよい。入力装置11及び表示装置12は、一体化していてもよい。撮像装置14は、例えばカメラであり、個人を特定するための生体情報を画像として取得する。 The display device 12 is a device that outputs various characters and information such as an image of a region cutout result to the user, and may be an image display device such as a liquid crystal display. The input device 11 and the display device 12 may be integrated. The imaging device 14 is, for example, a camera, and acquires biometric information for identifying an individual as an image.

主記憶装置15は、CPU13によって実行されるプログラムを格納する。主記憶装置15としては、典型的にはDRAM(Dynamic Random Access Memory)のような高速かつ揮発性の記憶装置等が採用される。本実施形態では、この主記憶装置15が格納しているプログラムは、OS(Operating System)151、カラー画像領域分割プログラム152、グレースケール画像領域分割モデル153、グレースケール化プログラム154、領域分割モデル訓練プログラム155、及び認証プログラム156を含む。 The main storage device 15 stores a program executed by the CPU 13. As the main storage device 15, a high-speed and volatile storage device such as a DRAM (Dynamic Random Access Memory) is typically adopted. In the present embodiment, the programs stored in the main memory 15 are an OS (Operating System) 151, a color image area division program 152, a grayscale image area division model 153, a grayscale conversion program 154, and an area division model training. The program 155 and the authentication program 156 are included.

主記憶装置15には、CPU13が各種処理を実行する際など、補助記憶装置16に格納されている各プログラム及びデータの少なくとも一部が必要に応じて一時的にコピーされてもよく、その他のプログラム及びその参照データが格納されてもよい。さらに、主記憶装置15には、CPU13が実行した処理の結果が格納されてもよい。 At least a part of each program and data stored in the auxiliary storage device 16 may be temporarily copied to the main storage device 15 as needed when the CPU 13 executes various processes. The program and its reference data may be stored. Further, the main storage device 15 may store the result of the process executed by the CPU 13.

補助記憶装置16は、CPU13が各プログラムに基づいて種々の処理を実行するために参照する情報を格納する。本実施形態の補助記憶装置16には、グレースケール画像領域分割モデル153の訓練(学習)に使用される訓練データ161及び個人認証のために参照される認証参照情報162を格納している。この補助記憶装置16としては、典型的にはHDD(Hard Disk Drive)またはフラッシュメモリなどの大容量かつ不揮発性の記憶装置等が採用される。主記憶装置15、補助記憶装置16及びそれらの組み合わせは、それぞれ、非一過性の記憶媒体を含む記憶装置である。 The auxiliary storage device 16 stores information that the CPU 13 refers to in order to execute various processes based on each program. The auxiliary storage device 16 of the present embodiment stores training data 161 used for training (learning) the grayscale image area division model 153 and authentication reference information 162 referred to for personal authentication. As the auxiliary storage device 16, a large-capacity and non-volatile storage device such as an HDD (Hard Disk Drive) or a flash memory is typically adopted. The main storage device 15, the auxiliary storage device 16, and a combination thereof are storage devices each including a non-transitory storage medium.

CPU13は、プロセッサであって、主記憶装置15に格納されたプログラムの命令コードに従って、様々な処理を実行する。CPU13は、プログラムを実行することによって種々の機能を実現する。例えば、CPU13は、カラー画像領域分割プログラム152、グレースケール画像領域分割モデル153、グレースケール化プログラム154、領域分割モデル訓練プログラム155、及び認証プログラム156それぞれに従って、カラー画像領域分割部、グレースケール画像領域分割モデル部、画像変換部、領域分割モデル訓練部、及び認証部として動作する。 The CPU 13 is a processor, and executes various processes according to the instruction code of the program stored in the main storage device 15. The CPU 13 realizes various functions by executing programs. For example, the CPU 13 follows the color image area division program 152, the grayscale image area division model 153, the grayscale conversion program 154, the area division model training program 155, and the authentication program 156 according to the color image area division unit and the grayscale image area. It operates as a division model unit, an image conversion unit, a region division model training unit, and an authentication unit.

CPU13(プロセッサ)は、単一の処理ユニットまたは複数の処理ユニットで構成することができ、単一もしくは複数の演算ユニット、又は複数の処理コアを含むことができる。CPU13は、1又は複数の中央処理装置、マイクロプロセッサ、マイクロ計算機、マイクロコントローラ、デジタル信号プロセッサ、ステートマシン、ロジック回路、グラフィック処理装置、チップオンシステム、及び/又は制御指示に基づき信号を操作する任意の装置として実装することができる。 The CPU 13 (processor) can be configured by a single processing unit or a plurality of processing units, and can include a single or a plurality of arithmetic units or a plurality of processing cores. The CPU 13 manipulates signals based on one or more central processing units, microprocessors, microcomputers, microcontrollers, digital signal processors, state machines, logic circuits, graphics processing units, chip-on systems, and/or control instructions. Can be implemented as a device.

上述のように、プログラムをCPU13が実行することにより、生体認証システム10の各種処理が実行される。したがって、以下において、機能部又はプログラムにより実行される処理は、CPU13又は生体認証システム10による処理である。 As described above, various processes of the biometric authentication system 10 are executed by the CPU 13 executing the program. Therefore, in the following, the processing executed by the functional unit or the program is the processing by the CPU 13 or the biometric authentication system 10.

カラー画像領域分割プログラム152は、訓練データ161の教師データを生成する。一つの入力画像から生成される教師データは、背景分離画像である。背景分離画像は、入力画像から抽出された生体情報領域と生体情報領域から分離された背景画像で構成されている。例えば、背景分離画像は2値画像であって、生体情報領域がと背景領域とは2値で分離されている。例えば、生体情報領域の各画素に1が与えられ、背景領域の各画素に0が与えられる。訓練データ161は、グレースケール化された入力画像と、カラー画像領域分割プログラム152により生成される教師データとのセットである。 The color image area dividing program 152 generates teacher data of the training data 161. The teacher data generated from one input image is a background separated image. The background separated image is composed of a biometric information area extracted from the input image and a background image separated from the biometric information area. For example, the background separated image is a binary image, and the biometric information area and the background area are binary separated. For example, 1 is given to each pixel in the biometric information area, and 0 is given to each pixel in the background area. The training data 161 is a set of a grayscale input image and teacher data generated by the color image area dividing program 152.

カラー画像領域分割プログラム152は、入力されたカラー画像において、色情報に基づいて、生体情報領域と背景領域とを分離する。例えば、カラー画像領域分割プログラム152は、RGBやYUVなどの色空間情報の値の範囲に基づいて、生体情報領域と背景領域とを分離する。本例において、カラー画像領域分割プログラム152は、ルールベースのプログラムであるが、機械学習モデルであってもよい。 The color image area dividing program 152 separates the biometric information area and the background area in the input color image based on the color information. For example, the color image area dividing program 152 separates the biometric information area and the background area based on the value range of the color space information such as RGB and YUV. In this example, the color image area dividing program 152 is a rule-based program, but it may be a machine learning model.

グレースケール画像領域分割モデル153は、機械学習モデルであり、学習フェーズにおいて、訓練データ161を使用して訓練される。個人の生体認証を行う認証フェーズにおいて、グレースケール画像領域分割モデル153は、グレースケール化された入力画像の生体情報領域と背景領域とを分割し、背景分離画像を生成する。背景領域が入力画像から分離され、生体情報領域が入力画像から抽出される。 The grayscale image area division model 153 is a machine learning model, and is trained using the training data 161 in the learning phase. In the authentication phase of performing biometric authentication of an individual, the grayscale image area division model 153 divides the biometric information area and the background area of the grayscaled input image to generate a background separated image. The background area is separated from the input image and the biometric information area is extracted from the input image.

グレースケール化プログラム154は、認証フェーズにおいて、グレースケール画像領域分割モデル153による処理のため、入力されたカラー画像をグレースケール画像に変換する。領域分割モデル訓練プログラム155は、学習フェーズにおいて、訓練データ161を使用して、グレースケール画像領域分割モデル153を訓練する。 The grayscale conversion program 154 converts the input color image into a grayscale image for the processing by the grayscale image area division model 153 in the authentication phase. The region segmentation model training program 155 uses the training data 161 to train the grayscale image region segmentation model 153 in the learning phase.

認証プログラム156は、領域分割モデル訓練プログラム155が生成した背景分離画像に基づき入力画像における生体情報領域を特定し、当該生体情報領域の情報と認証参照情報162とに基づき、個人認証を行う。 The authentication program 156 identifies the biometric information area in the input image based on the background separated image generated by the area division model training program 155, and performs personal authentication based on the information of the biometric information area and the authentication reference information 162.

図1に示すハードウェア及びソフトウェアの各構成要素の数は任意であり、一部の構成要素は省略されていてもよい。生体認証システム10の機能の少なくとも一部は、プロセッサと異なるロジック回路で構成されてもよい。図1の例において、生体認証システム10は一つの計算機で構成されているが、生体認証システム10はネットワークを介して通信し、それぞれが1以上のプロセッサと1以上の記憶装置を含む複数の装置(計算機)を含んでもよい。 The number of components of the hardware and software shown in FIG. 1 is arbitrary, and some components may be omitted. At least a part of the functions of the biometric authentication system 10 may be configured by a logic circuit different from the processor. In the example of FIG. 1, the biometric authentication system 10 is composed of one computer, but the biometric authentication system 10 communicates via a network, and a plurality of devices each including one or more processors and one or more storage devices. (Calculator) may be included.

上記プログラムは、異なる計算機に実装されてもよい。例えば、訓練後のグレースケール画像領域分割モデル153及びグレースケール化プログラム154がユーザ端末に実装され、訓練前後のグレースケール画像領域分割モデル153及び他のプログラム(グレースケール化プログラム154を含む)がサーバに実装されてもよい。 The program may be installed in a different computer. For example, the grayscale image area division model 153 after training and the grayscale program 154 are installed in the user terminal, and the grayscale image area division model 153 before and after training and other programs (including the grayscale program 154) are stored in the server. May be implemented in.

図2は、第1の実施形態の生体認証システム10の処理概要を示す図である。生体認証システム10の処理は、グレースケール画像領域分割モデル153の学習フェーズ(訓練フェーズ)と、学習後(訓練後)のグレースケール画像領域分割モデル153による認証処理を実行する認証フェーズを含む。 FIG. 2 is a diagram showing a processing outline of the biometric authentication system 10 according to the first embodiment. The processing of the biometric authentication system 10 includes a learning phase (training phase) of the grayscale image area division model 153 and an authentication phase of executing authentication processing by the grayscale image area division model 153 after learning (after training).

学習フェーズは、訓練データ161の生成及び訓練データ161によるグレースケール画像領域分割モデル153の学習を含む。入力カラー画像200は、訓練データ161を生成するためのデータである。入力カラー画像200は、個人認証対象の生体情報を有する対象が撮像された可視光画像である。以下に説明する例においては、生体情報を有する対象は1又は複数の手指である。 The learning phase includes generation of training data 161 and learning of the grayscale image area division model 153 by the training data 161. The input color image 200 is data for generating the training data 161. The input color image 200 is a visible light image in which an object having biometric information to be personally authenticated is captured. In the example described below, the target having biometric information is one or more fingers.

入力カラー画像200は、カラー画像領域分割プログラム152によって、目的領域である生体情報領域と背景領域とに分割され(202)、1又は複数の背景分離画像203が生成される。背景分離画像は、例えば、それぞれ二値の一方が与えられている、分離された生体情報領域(例えば手指)及び背景領域からなる。例えば、複数の指の一つの背景分離画像203、一つの指の背景分離画像203又はそれぞれが一つの指を示す複数の背景分離画像203が生成される。カラー画像領域分割プログラム152は、入力カラー画像200において、RGBやYUVなどの色空間情報の値の範囲に基づいて、生体情報領域と背景領域を分割し、生成した背景分離画像203を訓練データ161に含める。 The input color image 200 is divided by the color image area division program 152 into a biometric information area which is a target area and a background area (202), and one or a plurality of background separated images 203 are generated. The background separated image is composed of, for example, a separated biometric information area (for example, a finger) and a background area, each of which is given one of binary values. For example, one background separated image 203 of a plurality of fingers, a background separated image 203 of one finger, or a plurality of background separated images 203 each showing one finger is generated. The color image area dividing program 152 divides the biometric information area and the background area in the input color image 200 based on the value range of the color space information such as RGB and YUV, and the generated background separated image 203 is used as the training data 161. Include in.

入力カラー画像200は、さらに、グレースケール化プログラム154によってグレースケール化される(201)。グレースケール化された入力画像は、上記背景分離画像203と共に、訓練データ161に含められる。グレースケール化された入力画像が学習用の入力データであり、1又は複数の背景分離画像203が教師データである。このように、生体情報領域と背景領域の分離可能な複数の入力画像から、訓練データ161を用のデータ204を機械的(自動的)に収集することができる。 The input color image 200 is further grayscaled (201) by the grayscale conversion program 154. The grayscaled input image is included in the training data 161 together with the background separated image 203. The grayscaled input image is input data for learning, and one or a plurality of background separated images 203 is teacher data. In this way, the data 204 for the training data 161 can be mechanically (automatically) collected from a plurality of input images in which the biometric information area and the background area can be separated.

グレースケール画像領域分割モデル(訓練モデル)153は、領域分割モデル訓練プログラム155によって、訓練データ161を使用して訓練される(205)。グレースケール画像領域分割モデル153は、入力されたグレースケール画像から、1又は複数の背景分離画像を出力する。領域分割モデル訓練プログラム155は、グレースケール画像領域分割モデル153の出力と、訓練データ161の教師データとを比較結果に基づいて、グレースケール画像領域分割モデル153のパラメータを更新する。グレースケール画像領域分割モデル153は、例えば多階層ニューラルネットワークである。この例の更新パラメータは、入力層、複数の中間層及び出力層の隣接間の結合重みを含む。 The grayscale image region segmentation model (training model) 153 is trained (205) by the region segmentation model training program 155 using the training data 161. The grayscale image area division model 153 outputs one or a plurality of background separated images from the input grayscale image. The area division model training program 155 updates the parameters of the grayscale image area division model 153 based on the comparison result between the output of the grayscale image area division model 153 and the training data of the training data 161. The grayscale image area division model 153 is, for example, a multi-layer neural network. The update parameters in this example include the connection weights between the adjacencies of the input layer, multiple hidden layers and the output layer.

次に、個人認証を行う認証フェーズを説明する。入力カラー画像207は、個人認証を行う人物の生体情報を有する対象が撮像された、可視光画像である。入力カラー画像207は、グレースケール化プログラム154によってグレースケール化され(208)、グレースケール画像209が生成される。訓練されたグレースケール画像領域分割モデル153は、グレースケール画像209の領域分割を行う(210)。具体的には、グレースケール画像領域分割モデル153は、入力グレースケール画像209から、分離された生体情報領域と背景領域の2値画像である、背景分離画像211を生成し、主記憶装置15の記憶領域に格納する。 Next, the authentication phase for personal authentication will be described. The input color image 207 is a visible light image in which an object having biometric information of a person who performs individual authentication is captured. The input color image 207 is grayscaled (208) by the grayscale conversion program 154 to generate a grayscale image 209. The trained grayscale image segmentation model 153 segmentes the grayscale image 209 (210). Specifically, the grayscale image area division model 153 generates a background separated image 211, which is a binary image of the separated biometric information area and background area, from the input grayscale image 209, and stores it in the main storage device 15. Store in the storage area.

図2で不図示の認証プログラム156は、背景分離画像211に基づき、入力カラー画像207における生体情報領域を特定する。生体情報は、例えば、静脈や指紋のパターンである。認証プログラム156は、入力カラー画像207における生体情報領域を分析し、生体情報を取得する。認証プログラム156は、その生体情報と、認証参照情報162に格納されている該当人物の生体情報とを比較して、当該人部の個人認証を行う。 The authentication program 156 (not shown in FIG. 2) specifies the biometric information area in the input color image 207 based on the background separated image 211. The biometric information is, for example, a vein or fingerprint pattern. The authentication program 156 analyzes the biometric information area in the input color image 207 and acquires biometric information. The authentication program 156 compares the biometric information with the biometric information of the person stored in the authentication reference information 162, and authenticates the person concerned.

認証フェーズで用いられるグレースケール画像領域分割モデル153は、例えば、スマートフォンやタブレットにおいて、30〜60fps程度の実用速度で動作するよう、階層数や学習パラメータ数が制限される。学習フェーズの処理は、メモリやディスク容量の大きいサーバにおいて実行されてもよい。このため、カラー画像領域分割プログラム152をニューラルネットワークで構成する場合、その階層数やパラメータ数は、グレースケール画像領域分割モデル153よりも多くてもよい。 The grayscale image area division model 153 used in the authentication phase is limited in the number of layers and the number of learning parameters so that the grayscale image area division model 153 operates at a practical speed of about 30 to 60 fps in a smartphone or a tablet, for example. The learning phase process may be executed in a server having a large memory or disk capacity. Therefore, when the color image area division program 152 is configured by a neural network, the number of layers and the number of parameters thereof may be larger than those of the grayscale image area division model 153.

<フローチャート>
図3は、第1の実施形態の生体認証システム10の処理フローの例である。学習フェーズは、RGBやYUVなどの色空間情報の値の範囲に基づいて、動画フレーム画像の生体情報領域と背景領域とを分割し、教師あり学習で使用するための訓練データを生成し、訓練データを使用して機械学習モデルを訓練(生成)する。認証フェーズは、生成した機械学習モデルを用いて、動画フレーム画像から生体情報領域を抽出する。
<Flowchart>
FIG. 3 is an example of a processing flow of the biometric authentication system 10 according to the first embodiment. In the learning phase, the biometric information area and the background area of the video frame image are divided based on the range of values of color space information such as RGB and YUV, and training data for use in supervised learning is generated and training is performed. Train (generate) a machine learning model using the data. In the authentication phase, the biometric information area is extracted from the moving image frame image using the generated machine learning model.

最初に学習フェーズを説明する。ステップS301において、生体認証システム10は、その汎用カメラを起動し、動画のフレーム画像を取得する。次にステップS302において、生体認証システム10は、抽出対象である手の領域が写った一定サイズの部分領域をフレーム画像から切り出す。切り出す領域の位置は予め設定されており、生体認証システム10は、例えば、画面上に手をかざす位置を示すガイドを表示する。 First, the learning phase will be explained. In step S301, the biometric authentication system 10 activates the general-purpose camera and acquires a frame image of a moving image. Next, in step S302, the biometric authentication system 10 cuts out, from the frame image, a partial area of a certain size in which the area of the hand to be extracted is shown. The position of the cut-out area is set in advance, and the biometric authentication system 10 displays, for example, a guide indicating the position where the hand is placed on the screen.

ステップS303において、生体認証システム10(グレースケール化プログラム154)は、切り出した画像をグレースケールに変換し、訓練データ161の一部として補助記憶装置の記憶領域に格納する。ステップS304において、生体認証システム10(カラー画像領域分割プログラム152)は、切り出した画像から、RGBやYUVなどの色空間情報(例えば肌色情報)に基づき、手領域(生体対象領域)と背景領域とを分離し、生体対象領域を抽出する。 In step S<b>303, the biometric authentication system 10 (grayscale conversion program 154) converts the cut out image into grayscale and stores it in the storage area of the auxiliary storage device as a part of the training data 161. In step S304, the biometric authentication system 10 (color image area division program 152) determines a hand area (biological target area) and a background area from the cut image based on color space information (for example, skin color information) such as RGB and YUV. Is separated and the living body target area is extracted.

ステップS305において、生体認証システム10(カラー画像領域分割プログラム152)は、抽出した手領域の輪郭追跡を行い、ステップS306において、指先と指股のキーポイントを抽出する。ステップS307において、生体認証システム10(カラー画像領域分割プログラム152)は、抽出したキーポイントと輪郭情報に基づき、指単位でのROI領域を抽出する。抽出した指単位のROI領域の画像群(背景分離画像群)は、グレースケール化した画像と関連付けられ、訓練データ314の一部として補助記憶装置16の記憶領域に格納される。 In step S305, the biometric authentication system 10 (color image area division program 152) traces the contour of the extracted hand area, and in step S306, extracts the key points of the fingertip and finger crotch. In step S307, the biometric authentication system 10 (color image area division program 152) extracts the ROI area for each finger based on the extracted key points and contour information. The extracted image group (background separated image group) of the ROI area for each finger is associated with the grayscaled image and is stored in the storage area of the auxiliary storage device 16 as a part of the training data 314.

ステップS316において、訓練データのサンプル数が所定数に達すると、ステップS308において、生体認証システム10(領域分割モデル訓練プログラム155)は、訓練データ161を用いて、生体情報を含むグレースケール画像を入力として指ROI領域画像(背景分離画像)を出力とする、グレースケール画像領域分割モデル153を訓練する。 When the number of samples of the training data reaches a predetermined number in step S316, the biometric authentication system 10 (region division model training program 155) inputs the grayscale image including the biometric information using the training data 161 in step S308. The grayscale image area division model 153 that outputs the finger ROI area image (background separated image) as is trained.

次に認証フェーズを説明する。認証フェーズは、生成(訓練)されたグレースケール画像領域分割モデル153を用いて、動画フレーム画像から生体情報領域を抽出する。まず、ステップS309において、生体認証システム10は、その汎用カメラを起動し、動画のフレーム画像を取得する。ステップS310において、生体認証システム10は、ステップS302と同様に、抽出対象である手の領域が写った一定サイズの部分領域をフレーム画像から切り出す。 Next, the authentication phase will be described. In the authentication phase, the generated (trained) grayscale image area division model 153 is used to extract the biometric information area from the moving image frame image. First, in step S309, the biometric authentication system 10 activates the general-purpose camera and acquires a frame image of a moving image. In step S310, as in step S302, the biometric authentication system 10 cuts out, from the frame image, a partial area of a certain size in which the area of the hand to be extracted appears.

次に、ステップS311において、生体認証システム10(グレースケール化プログラム154)は、切り出した画像をグレースケールに変換する。ステップS312において、生体認証システム10(グレースケール画像領域分割モデル153)は、手領域の抽出を行う。例えば、例えば生体情報領域を1、背景情報領域を0とする2値画像を出力する。 Next, in step S311, the biometric authentication system 10 (grayscale conversion program 154) converts the clipped image into grayscale. In step S312, the biometric authentication system 10 (grayscale image area division model 153) extracts a hand area. For example, a binary image in which the biometric information area is 1 and the background information area is 0 is output.

図4の入力画像401は、ステップS302やステップS310で切り出される生体情報を含む画像の一例である。画像402は、ステップS304により得られる手領域画像の一例である。画像群403は、ステップS307により得られる指ROI領域画像群の一例である。 The input image 401 in FIG. 4 is an example of an image including biometric information cut out in steps S302 and S310. The image 402 is an example of the hand region image obtained in step S304. The image group 403 is an example of a finger ROI region image group obtained in step S307.

一方、図5の画像501は、手領域の背後に、手と同系色の色を持つ顔が映りこんでいる一例を示しており、画像503は、背景にダンボールやテーブルなどの手と同系色をもつ物体が写りこんでいる一例を示している。これらの例では、ステップS304において、肌色領域と生体情報領域が一致しないため、ステップS307で正しい指ROI領域を抽出することができない。具体的には、図5の画像502や、画像504に例示するように各指領域を独立して抽出することができない。なお、このような画像は、訓練データ1651に加えられないように、排除されてもよい。適切な分離についての判定の方法の例は、第2の実施形態で説明される。 On the other hand, an image 501 in FIG. 5 shows an example in which a face having a color similar to that of the hand is reflected behind the hand region, and an image 503 is similar in color to a hand such as a cardboard or a table in the background. An example in which an object with is reflected is shown. In these examples, since the skin color area and the biometric information area do not match in step S304, the correct finger ROI area cannot be extracted in step S307. Specifically, as illustrated in the image 502 of FIG. 5 and the image 504, each finger region cannot be independently extracted. Note that such images may be excluded so that they are not added to the training data 1651. An example of how to determine the proper separation is described in the second embodiment.

これに対して、グレースケール化した画像を入力として指領域ROIを出力するグレースケール画像領域分割モデル153を用いるステップS312は、入力画像における色の影響を低減することができるので、図4の画像401と同様に、各々の指領域ROIを適切に抽出することが可能である。 On the other hand, step S312 using the grayscale image area division model 153 that outputs the finger area ROI with the grayscaled image as an input can reduce the influence of color in the input image, and thus the image of FIG. Similar to 401, each finger region ROI can be appropriately extracted.

以上の構成により、学習に必要となる教師付きデータ(訓練データ)を機械的に生成することができるので、効率的な訓練データ生成が実現される。また、機械学習モデルは、グレースケール化された画像を入力として、背景分離を行うので、肌色同系色背景や白熱電灯下においても、安定した手指領域の分離を実現することができる。 With the above configuration, the supervised data (training data) necessary for learning can be mechanically generated, so that efficient training data generation is realized. In addition, since the machine learning model performs background separation using a grayscale image as an input, it is possible to realize stable separation of finger areas even under a skin color similar background or an incandescent lamp.

本実施形態は、個人認証のための生体情報領域を入力画像において分離するが、本実施形態及び他の実施形態の画像分離技術は、生体認証と異なる分野において他の目的画像、例えば、特定の物体や人体を、入力画像から分離するために利用することができる。 In the present embodiment, the biometric information area for personal authentication is separated in the input image, but the image separation techniques of the present embodiment and other embodiments are different from the biometric authentication in other target images, such as a specific image. It can be used to separate objects and human bodies from the input image.

〔第2の実施形態〕
図6Aは、第2の実施形態の生体認証システム10のソフトウェア構成例を示す。第1の実施形態のプログラムに加え、生体認証システム10は、色変換プログラム157を含む。
[Second Embodiment]
FIG. 6A shows a software configuration example of the biometric authentication system 10 according to the second embodiment. In addition to the program of the first embodiment, the biometric authentication system 10 includes a color conversion program 157.

図6Bは、第2の実施形態の生体認証システム10の処理概要を示す図である。入力カラー画像600は、個人認証対象の生体情報が撮像された可視光画像である。入力カラー画像600は、カラー画像領域分割プログラム152によって、RGBやYUVなどの色空間情報の値の範囲に基づいて、生体情報領域と背景領域に分離される。カラー画像領域分割プログラム152は、さらに、適切に生体情報領域が分離されているか判定する(602)。 FIG. 6B is a diagram showing a processing outline of the biometric authentication system 10 according to the second embodiment. The input color image 600 is a visible light image in which biometric information to be personally authenticated is captured. The input color image 600 is separated by the color image area dividing program 152 into a biometric information area and a background area based on a range of values of color space information such as RGB and YUV. The color image area dividing program 152 further determines whether or not the biometric information area is appropriately separated (602).

本例において、カラー画像領域分割プログラム152は、生体情報領域の形状に基づいて、適切に生体情報領域が分離されているか判定する。カラー画像領域分割プログラム152は、図3のステップS304〜S307の処理を実施し、例えば、幅や長さが一定の範囲に収まる指ROI領域が一定本数以上抽出できたか否か判定する。 In this example, the color image area dividing program 152 determines whether or not the biometric information area is appropriately separated based on the shape of the biometric information area. The color image area dividing program 152 executes the processing of steps S304 to S307 of FIG. 3 and determines whether or not a certain number or more of finger ROI areas having widths and lengths within a certain range have been extracted.

正しく指ROI領域が抽出できたと判定された場合、カラー画像領域分割プログラム152は、生成された背景分離画像606を、訓練データ161の教師データとして、補助記憶装置16の記憶領域に格納する。一方、指ROI領域が適切に抽出できなかった場合、色変換プログラム157は、生成した背景分離画像を訓練データ161に含めることなく、入力カラー画像を、例えば白熱電灯下の画像から蛍光灯下の画像に変換し(603)、色変換画像604を生成する。カラー画像領域分割プログラム152は、色変換画像604から、生体情報領域を抽出し(605)、背景分離画像606として訓練データ161に含める。 When it is determined that the finger ROI area has been correctly extracted, the color image area dividing program 152 stores the generated background separated image 606 in the storage area of the auxiliary storage device 16 as the teacher data of the training data 161. On the other hand, when the finger ROI area cannot be properly extracted, the color conversion program 157 does not include the generated background separation image in the training data 161, and the input color image is changed from an image under an incandescent lamp to a fluorescent light. It is converted into an image (603) and a color converted image 604 is generated. The color image area dividing program 152 extracts the biometric information area from the color converted image 604 (605) and includes it as the background separated image 606 in the training data 161.

グレースケール化プログラム154は、入力カラー画像600をグレースケール化し(601)、対応する背景分離画像606と共に、訓練データ161に含める。これにより、生体情報領域と背景情報の分離が可能な入力カラー画像だけではなく、色変換前には生体情報領域が分離不可能な入力カラー画像からも、訓練データ161を機械的に生成できる。 The grayscale program 154 grayscales (601) the input color image 600 and includes it in the training data 161, along with the corresponding background separation image 606. Thereby, the training data 161 can be mechanically generated not only from the input color image in which the biometric information area and the background information can be separated but also from the input color image in which the biometric information area cannot be separated before color conversion.

領域分割モデル訓練プログラム155は、グレースケール画像領域分割モデル153を、訓練データ161を使用して、訓練する(608)。グレースケール画像領域分割モデル153は、入力のグレー画像を、生体情報領域と背景領域を2値画像(例えば生体情報領域を1、背景情報領域を0)として分離して出力する。グレースケール画像領域分割モデル153は、例えば多階層ニューラルネットワークである。 The region segmentation model training program 155 trains the grayscale image region segmentation model 153 using the training data 161 (608). The grayscale image area division model 153 separates and outputs the input gray image as a binary image of the biometric information area and the background area (for example, the biometric information area is 1, the background information area is 0). The grayscale image area division model 153 is, for example, a multi-layer neural network.

画像色変換603としては、例えば、冬景色を夏景色に変換する、白熱灯下の画像を蛍光灯下に画像に変換するなど、ドメイン変換を行う画像変換方式(Unpaired Image-to-Image Translation using Cycle-Consistent Adversarial Networks、Jun-Yan Zhu Taesung Park Phillip Isola Alexei A. Efros、In ICCV 2017)を使用することができる。 As the image color conversion 603, for example, an image conversion system (Unpaired Image-to-Image Translation using using domain conversion, such as converting a winter landscape into a summer landscape, converting an image under incandescent light into an image under fluorescent light, etc. Cycle-Consistent Adversarial Networks, Jun-Yan Zhu Taesung Park Phillip Isola Alexei A. Efros, In ICCV 2017) can be used.

一般的にはドメイン変換手法はモデルサイズが大きくスマートフォンやタブレットなどの低リソースの端末で実施することは困難である。そのため、訓練データ161の生成は、ユーザ端末ではなく、サーバにより実行することで、訓練データ161の生成時間を短縮できる。 In general, the domain conversion method has a large model size and is difficult to implement on low-resource terminals such as smartphones and tablets. Therefore, the generation time of the training data 161 can be shortened by executing the generation of the training data 161 not by the user terminal but by the server.

<フローチャート>
図7は、第2の実施形態の学習フェーズでの処理フローの例である。学習フェーズは、RGBやYUVなどの色空間情報の値の範囲に基づいて、動画フレーム画像の生体情報領域と背景領域とを分離し、教師あり学習で使用するための訓練データを生成し、機械学習モデルを訓練(生成)する。
<Flowchart>
FIG. 7 is an example of a processing flow in the learning phase of the second embodiment. In the learning phase, the biometric information area and the background area of the video frame image are separated based on the range of values of color space information such as RGB and YUV, and training data for use in supervised learning is generated. Train (generate) a learning model.

最初にステップS701において、生体認証システム10は、その汎用カメラを起動し、動画のフレーム画像を取得する。次にステップS702において、生体認証システム10は、抽出対象である手の領域が写った一定サイズの部分領域をフレーム画像から切り出す。切り出す位置は予め設定されており、生体認証システム10は、例えば、の画面上に、手をかざす位置を示すガイドを表示する。 First, in step S701, the biometric authentication system 10 activates the general-purpose camera and acquires a frame image of a moving image. Next, in step S702, the biometric authentication system 10 cuts out, from the frame image, a partial area of a certain size in which the area of the hand to be extracted is shown. The position to be cut out is set in advance, and the biometric authentication system 10 displays, for example, a guide indicating the position to hold the hand on the screen of.

ステップS709において、生体認証システム10(グレースケール化プログラム154)は、切り出した画像をグレースケール画像に変換し、訓練データ161に含める。ステップS703において、生体認証システム10(カラー画像領域分割プログラム152)は、切り出した画像から、RGBやYUVなどの色空間情報(例えば肌色情報)に基づき、手領域を抽出する。ステップS704において、生体認証システム10(カラー画像領域分割プログラム152)は、抽出した手領域の輪郭を追跡し、ステップS705において、指先と指股のキーポイントを抽出する。 In step S<b>709, the biometric authentication system 10 (grayscale conversion program 154) converts the cut out image into a grayscale image and includes it in the training data 161. In step S703, the biometric authentication system 10 (color image area division program 152) extracts a hand area from the cut image based on color space information (for example, skin color information) such as RGB and YUV. In step S704, the biometric authentication system 10 (color image area dividing program 152) tracks the contour of the extracted hand area, and in step S705, extracts the key points of the fingertip and finger crotch.

ステップS706において、生体認証システム10(カラー画像領域分割プログラム152)は、抽出したキーポイントと輪郭情報に基づき、指単位でのROI領域を抽出する。ステップS710において、生体認証システム10(カラー画像領域分割プログラム152)は、指ROI領域が正しく背景分離できたものかどうか判定する。正しいかどうかの判定は、例えば、幅や長さが一定の範囲に収まる指ROI領域が一定本数以上抽出できたか否かに基づいてもよい。正しいと判定された場合、抽出された指単位のROI領域画像は、グレースケール化した画像と共に、訓練データ161の一部として補助記憶装置16の記憶領域に格納される。 In step S706, the biometric authentication system 10 (color image area division program 152) extracts the ROI area for each finger based on the extracted key points and contour information. In step S710, the biometric authentication system 10 (color image area dividing program 152) determines whether the finger ROI area has been correctly separated as the background. The determination as to whether it is correct may be based on, for example, whether or not a certain number or more of finger ROI regions whose width and length are within a certain range have been extracted. If determined to be correct, the extracted ROI region image for each finger is stored in the storage region of the auxiliary storage device 16 as a part of the training data 161, together with the grayscaled image.

正しくないと判定された場合、画像変換ステップS707において、生体認証システム10(色変換プログラム157)は、例えば、入力カラー画像を白熱電灯下の画像と仮定し、入力カラー画像を蛍光灯下の画像に予め設定された関数により変換する。その後、生体認証システム10は、再びステップS703からのステップを繰り返す。 If determined to be incorrect, in the image conversion step S707, the biometric authentication system 10 (color conversion program 157) assumes that the input color image is an image under an incandescent lamp, and the input color image is an image under a fluorescent lamp. It is converted by a function preset to. After that, the biometric authentication system 10 repeats the steps from step S703 again.

ステップS710において、正しい指ROI領域が取得できたと判定された場合、グレースケール化された画像と共に、背景分離画像が訓練データ161の一部として補助記憶装置16の記憶領域に格納される。 If it is determined in step S710 that the correct finger ROI area has been acquired, the background separated image is stored in the storage area of the auxiliary storage device 16 as a part of the training data 161, together with the grayscaled image.

ステップS713において訓練データサンプル数が所定数となると、ステップS708において、生体認証システム10(領域分割モデル訓練プログラム155)は、グレースケール画像領域分割モデル153を、訓練データ161を使用して、訓練する。グレースケール画像領域分割モデル153は、生体情報を含むグレースケール画像を入力として、指ROI領域を出力。 When the number of training data samples reaches a predetermined number in step S713, in step S708, the biometric authentication system 10 (region division model training program 155) trains the grayscale image region division model 153 using the training data 161. .. The grayscale image area division model 153 inputs a grayscale image including biometric information and outputs a finger ROI area.

上述のように、生体認証システム10は、カラー画像から生成された背景分離画像における目的領域の形状に基づいて、目的領域が適切に分離されているかを判定する。目的領域が適切に分離されていないと判定した場合に、カラー画像の色変換を行い、新たな背景分離画像を生成する。 As described above, the biometric authentication system 10 determines whether or not the target area is appropriately separated based on the shape of the target area in the background separated image generated from the color image. When it is determined that the target area is not properly separated, color conversion of the color image is performed, and a new background separated image is generated.

本実施形態の構成により、白熱電灯下や肌色背景画像など通常では訓練データを機械的に生成することが困難な画像からも、教師データを生成できる。結果として、肌色同系色背景や白熱電灯下における安定した手指領域の分離を実現できる。 With the configuration of the present embodiment, teacher data can be generated even from an image in which it is normally difficult to mechanically generate training data, such as an incandescent lamp or a skin color background image. As a result, it is possible to realize stable separation of the finger area under a skin-colored background or an incandescent lamp.

〔第3の実施形態〕
図8は、第3の実施形態の生体認証システム10の構成概要を示すブロック図である。カラー画像領域分割プログラム152及びグレースケール画像領域分割モデル153は、それぞれ、動画フレーム画像を入力として受け取り、生体情報領域と背景領域の分離を行うと同時に、正しい位置に手が翳されているかを判定する機能を持つ。カラー画像領域分割プログラム152及びグレースケール画像領域分割モデル153は、それぞれ、入力画像の特徴を抽出する共通特徴抽出部802と、領域分割部803と、ずれ方向推定部804とを含む。なお、カラー画像領域分割プログラム152及びグレースケール画像領域分割モデル153の一方のみが当該機能を有していてもよい。
[Third Embodiment]
FIG. 8 is a block diagram showing a schematic configuration of the biometric authentication system 10 according to the third embodiment. The color image area division program 152 and the grayscale image area division model 153 each receive a moving image frame image as an input, separate the biometric information area and the background area, and at the same time determine whether or not the hand is held at the correct position. With the function to do. The color image area division program 152 and the grayscale image area division model 153 each include a common feature extraction unit 802 that extracts the features of the input image, a region division unit 803, and a shift direction estimation unit 804. Note that only one of the color image area division program 152 and the grayscale image area division model 153 may have the function.

カラー画像領域分割プログラム152に対する入力画像801は、個人認証対象の生体情報が撮像されたカラー画像であり、グレースケール画像領域分割モデル153に対する入力画像801は、グレースケール画像である。共通特徴抽出部802は、入力画像801から、領域分割部803及びずれ方向推定部804の両方に利用可能な共通の特徴量を抽出する。例えば、画像処理において車や人といった対象の種類を判定するために使われる畳み込みニューラルネットワークを用いることができる。 The input image 801 for the color image area division program 152 is a color image in which the biometric information of the personal authentication target is captured, and the input image 801 for the grayscale image area division model 153 is a grayscale image. The common feature extraction unit 802 extracts, from the input image 801, a common feature amount that can be used by both the area division unit 803 and the shift direction estimation unit 804. For example, a convolutional neural network used to determine the type of object such as a car or a person in image processing can be used.

本実施形態においては、共通特徴抽出部802は、画像のサイズをダウンサンプリングしていき、ずれ方向推定部で必要となる3クラス(X、Y、Z方向)の推定に用いられる特徴量を抽出する。例えば、X方向及びY方向は画面に平行で互いに垂直な方向であり、Z方向は画面に垂直な方向である。 In the present embodiment, the common feature extraction unit 802 downsamples the size of the image and extracts the feature amount used for estimation of the three classes (X, Y, Z directions) required by the displacement direction estimation unit. To do. For example, the X direction and the Y direction are directions parallel to the screen and perpendicular to each other, and the Z direction is the direction perpendicular to the screen.

領域分割部803は、入力画像801の各画素が、指ROI領域に含まれるか否かの2値分類問題を学習する。このため、領域分割部803は、一旦ダウンサンプリングされた共通特徴量を、画像サイズまでアップサンプリングし、画素数分の2クラス判定を行う。このため、一般的には、ずれ方向推定部804(クラス分類)処理に比べ、領域分割部803の処理時間が長くなる。 The area dividing unit 803 learns a binary classification problem of whether or not each pixel of the input image 801 is included in the finger ROI area. Therefore, the area dividing unit 803 upsamples the common feature amount that has been downsampled to the image size, and performs the two-class determination for the number of pixels. Therefore, generally, the processing time of the area dividing unit 803 becomes longer than that of the shift direction estimating unit 804 (class classification) processing.

ずれ方向推定部804は、共通特徴抽出部802の出力結果を用いて、入力画像が指ROI領域の抽出に適した位置にあるかどうかの推定を行う。例えば、5本の指の一部が写っていなかったり一部欠けていたりした場合など領域分割が正しく行われず、手を翳し続けている間、指ROI領域の抽出に失敗し続ける。 The displacement direction estimation unit 804 uses the output result of the common feature extraction unit 802 to estimate whether or not the input image is at a position suitable for extraction of the finger ROI region. For example, when the part of five fingers is not imaged or partly missing, the region division is not performed correctly, and the extraction of the finger ROI region continues to fail while holding the hand.

ずれ方向推定部804は、手の位置が、予め設定された基準位置から、左右あるいは奥行き方向(X、Y、Z方向)それぞれにどの程度ずれているかを推定する。生体認証システム10は、推定されたずれを補正するための処理を実行する。 The displacement direction estimation unit 804 estimates how much the position of the hand deviates from the preset reference position in the left-right direction or the depth direction (X, Y, Z directions). The biometric authentication system 10 executes a process for correcting the estimated shift.

具体的には、ずれ方向推定部804は、カメラ制御部805に通知する。カメラ制御部805は、通知された手の位置のずれ(ずれ方向及びずれ量)に従って、ズームイン、ズームアウトなどによる位置ずれ補正制御信号を撮像装置14に送信する。 Specifically, the shift direction estimation unit 804 notifies the camera control unit 805. The camera control unit 805 transmits a position shift correction control signal for zooming in, zooming out, or the like to the imaging device 14 according to the notified position shift (shift direction and shift amount) of the hand.

さらに、ガイド表示部806は、ずれ方向推定部804から通知されたずれ方向と逆方向に矢印を表示してもよい、ガイド表示部806は、「近づけてください」「遠ざけてください」といったメッセージを、表示装置12における画像又は音声により指示することで、入力画像の位置ずれ補正をおこなってもよい。 Furthermore, the guide display unit 806 may display an arrow in the direction opposite to the shift direction notified from the shift direction estimation unit 804. The guide display unit 806 displays a message such as "Please move closer" or "Keep away". The positional deviation of the input image may be corrected by instructing with an image or voice on the display device 12.

カラー画像領域分割プログラム152又はグレースケール画像領域分割モデル153は、カメラ制御部805又はガイド表示部806によって位置ずれが補正された新たな入力画像を取得する。なお、カメラ制御部805及びガイド表示部806の一方は省略されてもよい。また、他の方法によりずれを補正してもよい。 The color image area division program 152 or the grayscale image area division model 153 acquires a new input image whose positional deviation has been corrected by the camera control unit 805 or the guide display unit 806. Note that one of the camera control unit 805 and the guide display unit 806 may be omitted. Further, the deviation may be corrected by another method.

上述のように、生体認証システム10は、カラー画像又はグレースケール画像から生成された背景分離画像において、目的領域の位置のずれを推定し、当該ずれを補正するための処理を行った後に新たなカラー画像を取得する。 As described above, the biometric authentication system 10 estimates the displacement of the position of the target area in the background separation image generated from the color image or the grayscale image, and performs a new process after correcting the displacement. Get a color image.

以上のように、高速動作するずれ方向推定部804により、入力画像の位置を補正することで、処理時間のかかる領域分割部803の処理に失敗するフレーム画像の数を低減することで、動画フレーム画像の高速な領域分割を実現することができる。 As described above, by correcting the position of the input image by the displacement direction estimating unit 804 that operates at high speed, the number of frame images in which the processing of the region dividing unit 803 that takes a long processing time is failed is reduced, so that the moving image frame It is possible to realize high-speed area division of an image.

〔第4の実施形態〕
図9Aは、第4の実施形態の生体認証システム10のソフトウェア構成例を示す。第1の実施形態のプログラムに加え、生体認証システム10は、安定度判定プログラム158を含む。
[Fourth Embodiment]
FIG. 9A shows a software configuration example of the biometric authentication system 10 of the fourth exemplary embodiment. In addition to the program of the first embodiment, the biometric authentication system 10 includes a stability determination program 158.

図9Bは、第4の実施形態の生体認証システム10の処理概要を示す図である。学習フェーズにおけるカラー画像領域分割プログラム152及び認証フェーズにおけるグレースケール画像領域分割モデル153の一方又は双方が、以下で説明する処理を実行する。これにより、適切な訓練データの生成又は認証を行うことができる。以下においては、認証フェーズでの処理を説明する。 FIG. 9B is a diagram showing a processing outline of the biometric authentication system 10 according to the fourth embodiment. One or both of the color image area division program 152 in the learning phase and the grayscale image area division model 153 in the authentication phase execute the processing described below. Thereby, it is possible to generate or authenticate appropriate training data. The processing in the authentication phase will be described below.

入力フレーム画像901〜903は、連続するカラー動画フレーム画像から生成されたグレースケール動画フレーム画像を表す。まず、n番目のフレーム画像901が入力されると、グレースケール画像領域分割モデル153は、背景分離画像907を分離画像の候補として出力する(904)。次に、n+1番目の入力フレーム画像902についても、同様に、グレースケール画像領域分割モデル153は、背景分離画像908を出力する(905)。安定度判定プログラム158は、背景分離画像907と背景分離画像908の元画像での座標を比較し、位置変動の大きさを判定する(910)。位置変動は、例えば、二つの画像の重なりを示す係数で表わすことができる。 The input frame images 901 to 903 represent grayscale moving image frame images generated from continuous color moving image frame images. First, when the nth frame image 901 is input, the grayscale image region division model 153 outputs the background separated image 907 as a separated image candidate (904). Next, also for the (n+1)th input frame image 902, the grayscale image area division model 153 outputs the background separated image 908 (905). The stability determination program 158 compares the coordinates of the background separated image 907 and the background separated image 908 in the original image, and determines the magnitude of the position variation (910). The position variation can be represented by, for example, a coefficient indicating the overlap between two images.

位置変動が大きい場合、画像のブレが生じるなど、後段の個人認証において適切ではない画像に対して、認証処理を実行することになるため、安定度判定プログラム158は、処理中断し、グレースケール画像領域分割モデル153は、n+2番目のフレームの処理に移る。 When the position variation is large, the stability determination program 158 interrupts the process because the authentication process is executed for an image that is not appropriate in the subsequent personal authentication such as the image blurring. The area division model 153 moves to the processing of the (n+2)th frame.

グレースケール画像領域分割モデル153は、n+2番目の入力フレーム画像903についても同様に、背景分離画像909を出力する(906)。安定度判定プログラム158は、背景分離画像908と背景分離画像909の元画像での座標を比較し(911)、位置変動の大きさが一定閾値以下のとき利用可能であると判定し、背景分離画像908又は909を、生体特徴抽出や認証処理に渡す。 The grayscale image area division model 153 outputs the background separated image 909 in the same manner for the (n+2)th input frame image 903 (906). The stability determination program 158 compares the coordinates of the background separated image 908 and the background separated image 909 in the original image (911), determines that the position variation is available when the magnitude of the position variation is equal to or less than a certain threshold, and separates the background. The image 908 or 909 is passed to biometric feature extraction or authentication processing.

以上の構成により、連続する動画フレームを用いて生体特徴を抽出し個人認証を行う装置において、認証に適さない画像を除外することで、高速な個人認証を実現することができる。図10は、連続する入力画像フレーム間の背景分離画像の位置変動を比較する例を示す。領域分割プログラム152/153は、入力画像1001から、指ごとの背景分離画像である1004、1005、1006を出力する。 With the above configuration, in a device that performs biometrics extraction using continuous video frames to perform personal authentication, by excluding images that are not suitable for authentication, high-speed personal authentication can be realized. FIG. 10 shows an example of comparing the positional fluctuation of the background separated image between consecutive input image frames. The area division program 152/153 outputs the background separated images 1004, 1005, 1006 for each finger from the input image 1001.

同様に、領域分割プログラム152/153は、入力画像1002から、指ごとの背景分離画像である1007、1008、1009を出力する。安定度判定プログラム158は、指単位ごとに、背景分離画像1004と1007の画素領域の位置変動(例えば白画素領域の重なり度)、背景分離画像1005と1008の位置変動、背景分離画像1006と1009の位置変動を判定する。安定度判定プログラム158は、例えば、静止判定される指数が一定数以下の場合認証処理を禁止する。 Similarly, the area dividing program 152/153 outputs, from the input image 1002, background separated images 1007, 1008, and 1009 for each finger. The stability determination program 158 changes the position of the pixel regions of the background separated images 1004 and 1007 (for example, the degree of overlap of white pixel regions), the position change of the background separated images 1005 and 1008, and the background separated images 1006 and 1009 for each finger. The position variation of is determined. The stability determination program 158, for example, prohibits the authentication process when the index for stationary determination is a certain number or less.

学習フェーズにおいて、カラー画像領域分割プログラム152は、図9Bに示す処理を行う。入力フレーム画像901〜903は、連続するカラー動画フレーム画像を表す。位置変動の大きさが一定閾値より大きいとき、背景分離画像908及び909は、訓練データ161として利用されることなく廃棄される。 In the learning phase, the color image area dividing program 152 performs the processing shown in FIG. 9B. The input frame images 901 to 903 represent continuous color moving image frame images. When the magnitude of the position variation is larger than the fixed threshold value, the background separated images 908 and 909 are discarded without being used as the training data 161.

上述のように、上述のように、生体認証システム10は、フレーム画像から生成された背景分離画像の目的領域と、他のフレーム画像から生成された背景分離画像の目的領域との間において、位置変動を決定し、位置変動に基づいて上記背景分離画像を利用するか判定する。 As described above, as described above, the biometric authentication system 10 determines the position between the target area of the background separated image generated from the frame image and the target area of the background separated image generated from another frame image. A change is determined, and whether the background separated image is used is determined based on the position change.

本実施形態の構成により、不適切な画像が背景分離画像の生成の後の処理に渡るのを避けることができる。 With the configuration of the present embodiment, it is possible to prevent an inappropriate image from being passed on to the processing after the generation of the background separated image.

なお、本発明は上記した実施形態に限定されるものではなく、様々な変形例が含まれる。例えば、上記した実施形態は本発明を分かりやすく説明するために詳細に説明したものであり、必ずしも説明したすべての構成を備えるものに限定されるものではない。また、ある実施形態の構成の一部を他の実施形態の構成に置き換えることが可能であり、また、ある実施形態の構成に他の実施形態の構成を加えることも可能である。また、各実施形態の構成の一部について、他の構成の追加・削除・置換をすることが可能である。 It should be noted that the present invention is not limited to the above-described embodiment, and various modifications are included. For example, the above-described embodiments have been described in detail in order to explain the present invention in an easy-to-understand manner, and are not necessarily limited to those having all the configurations described. Further, a part of the configuration of one embodiment can be replaced with the configuration of another embodiment, and the configuration of another embodiment can be added to the configuration of one embodiment. Further, it is possible to add/delete/replace other configurations with respect to a part of the configurations of the respective embodiments.

また、上記の各構成・機能・処理部等は、それらの一部又は全部を、例えば集積回路で設計する等によりハードウェアで実現してもよい。また、上記の各構成、機能等は、プロセッサがそれぞれの機能を実現するプログラムを解釈し、実行することによりソフトウェアで実現してもよい。各機能を実現するプログラム、テーブル、ファイル等の情報は、メモリや、ハードディスク、SSD(Solid State Drive)等の記録装置、または、ICカード、SDカード等の記録媒体に置くことができる。また、制御線や情報線は説明上必要と考えられるものを示しており、製品上必ずしもすべての制御線や情報線を示しているとは限らない。実際には殆どすべての構成が相互に接続されていると考えてもよい。 Further, the above-described respective configurations, functions, processing units, etc. may be realized by hardware by partially or entirely designing them with an integrated circuit, for example. Further, the above-described respective configurations, functions and the like may be realized by software by a processor interpreting and executing a program that realizes each function. Information such as a program, a table, and a file that realizes each function can be placed in a memory, a hard disk, a recording device such as an SSD (Solid State Drive), or a recording medium such as an IC card or an SD card. Further, the control lines and information lines shown are those that are considered necessary for explanation, and not all the control lines and information lines in the product are necessarily shown. In reality, it may be considered that almost all configurations are connected to each other.

10:生体認証システム
11:入力装置
12:表示装置
13:CPU
14:撮像装置
15:主記憶装置
16:補助記憶装置
10: biometric authentication system 11: input device 12: display device 13: CPU
14: Imaging device 15: Main storage device 16: Auxiliary storage device

Claims (9)

入力画像から目的対象領域を抽出するモデルを訓練する計算機システムであって、
プログラム及び訓練データを格納する1以上の記憶装置と、
前記プログラムに従って動作する1以上のプロセッサと、
を含み、
前記1以上のプロセッサは、
カラー画像を取得し、
前記カラー画像から、前記カラー画像の色情報に基づき、目的領域と背景領域とが分離された背景分離画像を生成し、
前記カラー画像をグレースケール化してグレースケール画像を生成し、
前記グレースケール画像と前記背景分離画像のセットを、前記訓練データに含め、
グレースケール画像が入力され、背景分離画像を出力するモデルを、前記訓練データを使用して訓練する、計算機システム。
A computer system for training a model for extracting a target area from an input image,
One or more storage devices for storing programs and training data;
One or more processors operating according to the program;
Including,
The one or more processors are
Get a color image,
From the color image, based on the color information of the color image, to generate a background separation image in which the target area and the background area are separated,
Grayscale the color image to generate a grayscale image,
Including the set of the grayscale image and the background separation image in the training data,
A computer system that uses the training data to train a model that receives a grayscale image and outputs a background separated image.
請求項1に記載の計算機システムであって、
前記1以上のプロセッサは、
第1のカラー画像から生成された第1の背景分離画像における第1の目的領域の形状に基づいて、前記第1の目的領域が適切に分離されているかを判定し、
前記第1の目的領域が適切に分離されていないと判定した場合に、前記第1のカラー画像の色変換を行い、
前記色変換が行われた第1のカラー画像から第2の背景分離画像を生成する、計算機システム。
The computer system according to claim 1, wherein
The one or more processors are
Based on the shape of the first target area in the first background separation image generated from the first color image, it is determined whether the first target area is appropriately separated,
When it is determined that the first target area is not properly separated, color conversion of the first color image is performed,
A computer system for generating a second background separated image from the color-converted first color image.
請求項1に記載の計算機システムであって、
撮像装置をさらに含み、
前記1以上のプロセッサは、
前記撮像装置が撮像した第1のカラー画像から生成された第1の背景分離画像において、第1の目的領域の位置のずれを推定し、
前記ずれを補正するための処理を行った後に、前記撮像装置が撮像した新たなカラー画像を取得する、計算機システム。
The computer system according to claim 1, wherein
Further comprising an imaging device,
The one or more processors are
In the first background separated image generated from the first color image picked up by the image pickup apparatus, the position shift of the first target area is estimated,
A computer system that acquires a new color image captured by the image capturing apparatus after performing the process for correcting the displacement.
請求項1に記載の計算機システムであって、
前記1以上のプロセッサは、
映像における第1のフレーム及び第2のフレームそれぞれの、第1のカラー画像と第2のカラー画像を取得し、
前記第1のカラー画像から生成された第1の背景分離画像の第1の目的領域と、前記第2のカラー画像から生成された第2の背景分離画像の第2の目的領域との間において、位置変動を決定し、
前記位置変動に基づいて、前記第1の背景分離画像又は前記第2の背景分離画像を前記訓練データに含めるか判定する、計算機システム。
The computer system according to claim 1, wherein
The one or more processors are
Acquiring a first color image and a second color image of each of the first frame and the second frame in the video,
Between the first target area of the first background separated image generated from the first color image and the second target area of the second background separated image generated from the second color image , Determine the position variation,
A computer system that determines whether to include the first background separated image or the second background separated image in the training data based on the position variation.
請求項1に記載の計算機システムであって、
撮像装置をさらに含み、
前記1以上のプロセッサは、
前記撮像装置が撮像した第1のカラー画像をグレースケール化した第1のグレースケール画像を取得し、
前記モデルによって、前記第1のグレースケール画像から第1の背景分離画像を生成する、計算機システム。
The computer system according to claim 1, wherein
Further comprising an imaging device,
The one or more processors are
Acquiring a first grayscale image in which the first color image captured by the imaging device is grayscaled,
A computer system for generating a first background separation image from the first grayscale image by the model.
請求項5に記載の計算機システムであって、
前記第1の背景分離画像の第1の目的領域は生体情報領域であり、
前記1以上のプロセッサは、前記生体情報領域に基づき生体認証を行う、計算機システム。
The computer system according to claim 5,
A first target area of the first background separated image is a biometric information area,
A computer system in which the one or more processors perform biometric authentication based on the biometric information area.
請求項5に記載の計算機システムであって、
前記1以上のプロセッサは、
第2のカラー画像をグレースケール化した第2のグレースケール画像を取得し、
第2のグレースケール画像から生成された第2の背景分離画像において、第2の目的領域の位置のずれを推定し、
前記ずれを補正するための処理を行った後に、前記撮像装置が撮像した新たなカラー画像を取得する、計算機システム。
The computer system according to claim 5,
The one or more processors are
Acquiring a second grayscale image that is a grayscale version of the second color image,
In the second background separated image generated from the second grayscale image, estimating the positional shift of the second target area,
A computer system that acquires a new color image captured by the image capturing apparatus after performing the process for correcting the displacement.
請求項5に記載の計算機システムであって、
前記1以上のプロセッサは、
映像における一つのフレームの第2のカラー画像をグレースケール化した第2のグレースケール画像を取得し、
前記映像における他のフレームの第3のカラー画像をグレースケール化した第3のグレースケール画像を取得し、
前記第2のグレースケール画像から生成された第2の背景分離画像の第2の目的領域と、前記第3のグレースケール画像から生成された第3の背景分離画像の第3の目的領域との間において、位置変動を決定し、
前記位置変動に基づいて、前記第2の背景分離画像又は前記第3の背景分離画像を利用するか判定する、計算機システム。
The computer system according to claim 5,
The one or more processors are
Obtaining a second grayscale image obtained by grayscale-converting the second color image of one frame in the video,
Obtaining a third grayscale image obtained by grayscale-converting the third color image of the other frame in the video,
A second target area of the second background separated image generated from the second grayscale image and a third target area of the third background separated image generated from the third grayscale image. Between the positions,
A computer system that determines whether to use the second background separated image or the third background separated image based on the position variation.
計算機システムが、入力画像から目的対象領域を抽出するモデルを訓練する方法であって、
前記計算機システムが、カラー画像を取得し、
前記計算機システムが、前記カラー画像から、前記カラー画像の色情報に基づき、目的領域と背景領域とが分離された背景分離画像を生成し、
前記計算機システムが、前記カラー画像をグレースケール化してグレースケール画像を生成し、
前記計算機システムが、前記グレースケール画像と前記背景分離画像のセットを、訓練データに含め、
前記計算機システムが、グレースケール画像が入力され、背景分離画像を出力するモデルを、前記訓練データを使用して訓練する、方法。
A computer system is a method for training a model for extracting a target region from an input image,
The computer system acquires a color image,
The computer system, from the color image, based on the color information of the color image, to generate a background separated image in which the target area and the background area are separated,
The computer system grayscales the color image to produce a grayscale image,
The computer system includes a set of the grayscale image and the background separated image in the training data,
The method, wherein the computer system trains a model that receives a grayscale image and outputs a background separated image using the training data.
JP2019021957A 2019-02-08 2019-02-08 Computer system Active JP7079742B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2019021957A JP7079742B2 (en) 2019-02-08 2019-02-08 Computer system

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2019021957A JP7079742B2 (en) 2019-02-08 2019-02-08 Computer system

Publications (2)

Publication Number Publication Date
JP2020129298A true JP2020129298A (en) 2020-08-27
JP7079742B2 JP7079742B2 (en) 2022-06-02

Family

ID=72174561

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2019021957A Active JP7079742B2 (en) 2019-02-08 2019-02-08 Computer system

Country Status (1)

Country Link
JP (1) JP7079742B2 (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2022068055A (en) * 2020-10-21 2022-05-09 株式会社日立製作所 Biometric device and biometric authentication method

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2016162103A (en) * 2015-02-27 2016-09-05 富士通株式会社 Image processing program, image processing apparatus, and image processing method
JP2017091186A (en) * 2015-11-10 2017-05-25 株式会社日立製作所 Authentication apparatus and authentication method using biometric information
WO2018186398A1 (en) * 2017-04-07 2018-10-11 日本電気株式会社 Learning data generation device, learning data generation method, and recording medium
JP2018185759A (en) * 2017-04-27 2018-11-22 シスメックス株式会社 Image analysis method, apparatus, program, and deep learning algorithm manufacturing method
JP2018206252A (en) * 2017-06-08 2018-12-27 国立大学法人 筑波大学 Image processing system, evaluation model construction method, image processing method, and program

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2016162103A (en) * 2015-02-27 2016-09-05 富士通株式会社 Image processing program, image processing apparatus, and image processing method
JP2017091186A (en) * 2015-11-10 2017-05-25 株式会社日立製作所 Authentication apparatus and authentication method using biometric information
WO2018186398A1 (en) * 2017-04-07 2018-10-11 日本電気株式会社 Learning data generation device, learning data generation method, and recording medium
JP2018185759A (en) * 2017-04-27 2018-11-22 シスメックス株式会社 Image analysis method, apparatus, program, and deep learning algorithm manufacturing method
JP2018206252A (en) * 2017-06-08 2018-12-27 国立大学法人 筑波大学 Image processing system, evaluation model construction method, image processing method, and program

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
櫻井 俊輔 SYUNSUKE SAKURAI: "FCNを用いた葉領域分割", 電子情報通信学会技術研究報告 VOL.116 NO.528 IEICE TECHNICAL REPORT, vol. BioX2016-43, PRMU2016-206 (2017-03), JPN6022015348, 13 March 2017 (2017-03-13), JP, pages 57 - 62, ISSN: 0004760022 *

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2022068055A (en) * 2020-10-21 2022-05-09 株式会社日立製作所 Biometric device and biometric authentication method
JP7519871B2 (en) 2020-10-21 2024-07-22 株式会社日立製作所 Biometric authentication device and method

Also Published As

Publication number Publication date
JP7079742B2 (en) 2022-06-02

Similar Documents

Publication Publication Date Title
US9928439B2 (en) Facilitating text identification and editing in images
US20190392587A1 (en) System for predicting articulated object feature location
CN111310705A (en) Image recognition method and device, computer equipment and storage medium
WO2019174405A1 (en) License plate identification method and system thereof
CN111126394A (en) Character recognition method, reading aid, circuit and medium
CN113205047B (en) Medicine name identification method, device, computer equipment and storage medium
US9779488B2 (en) Information processing device, image processing method and medium
CN110866529A (en) Character recognition method, character recognition device, electronic equipment and storage medium
US10891740B2 (en) Moving object tracking apparatus, moving object tracking method, and computer program product
JP2007072620A (en) Image recognition apparatus and method
CN110781856A (en) Heterogeneous face recognition model training method, face recognition method and related device
US11676361B2 (en) Computer-readable recording medium having stored therein training program, training method, and information processing apparatus
US20230305634A1 (en) Gesture recognition apparatus, head-mounted-type display apparatus, gesture recognition method, and non-transitory computer readable medium
WO2021029091A1 (en) Information processing system and information processing method
CN114022748B (en) Target identification method, device, equipment and storage medium
JP7079742B2 (en) Computer system
CN112749576B (en) Image recognition method and device, computing equipment and computer storage medium
CN117274761B (en) Image generation method, device, electronic equipment and storage medium
JP6202938B2 (en) Image recognition apparatus and image recognition method
JP2019200527A (en) Information processing device, information processing method, and program
US11557108B2 (en) Polygon detection device, polygon detection method, and polygon detection program
US20240404317A1 (en) Image processing apparatus, image processing method, and non-transitory computer-readable storage medium
US12315290B2 (en) Information processing system, information processing method, biometric matching system, biometric matching method, and storage medium
CN113971671A (en) Instance partitioning method, instance partitioning device, electronic equipment and storage medium
US20240013407A1 (en) Information processing apparatus, information processing method, and non-transitory computer-readable storage medium

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20210507

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20220413

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20220426

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20220523

R150 Certificate of patent or registration of utility model

Ref document number: 7079742

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150