[go: up one dir, main page]

JP6754619B2 - 顔認識方法及び装置 - Google Patents

顔認識方法及び装置 Download PDF

Info

Publication number
JP6754619B2
JP6754619B2 JP2016115281A JP2016115281A JP6754619B2 JP 6754619 B2 JP6754619 B2 JP 6754619B2 JP 2016115281 A JP2016115281 A JP 2016115281A JP 2016115281 A JP2016115281 A JP 2016115281A JP 6754619 B2 JP6754619 B2 JP 6754619B2
Authority
JP
Japan
Prior art keywords
face
information
personalized
image
feature information
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2016115281A
Other languages
English (en)
Other versions
JP2017010543A (ja
Inventor
宣 ▲みん▼ 李
宣 ▲ミン▼ 李
亭 培 金
亭 培 金
炳 仁 兪
炳 仁 兪
在 濬 韓
在 濬 韓
承 周 韓
承 周 韓
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Samsung Electronics Co Ltd
Original Assignee
Samsung Electronics Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Priority claimed from KR1020150175672A external-priority patent/KR20170000748A/ko
Application filed by Samsung Electronics Co Ltd filed Critical Samsung Electronics Co Ltd
Publication of JP2017010543A publication Critical patent/JP2017010543A/ja
Application granted granted Critical
Publication of JP6754619B2 publication Critical patent/JP6754619B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T15/003D [Three Dimensional] image rendering
    • G06T15/04Texture mapping
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/24Classification techniques
    • G06F18/241Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches
    • G06F18/2413Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches based on distances to training or reference patterns
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/24Classification techniques
    • G06F18/241Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches
    • G06F18/2413Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches based on distances to training or reference patterns
    • G06F18/24133Distances to prototypes
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/29Graphical models, e.g. Bayesian networks
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T19/00Manipulating 3D models or images for computer graphics
    • G06T19/20Editing of 3D images, e.g. changing shapes or colours, aligning objects or positioning parts
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/20Image preprocessing
    • G06V10/32Normalisation of the pattern dimensions
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/764Arrangements for image or video recognition or understanding using pattern recognition or machine learning using classification, e.g. of video objects
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/82Arrangements for image or video recognition or understanding using pattern recognition or machine learning using neural networks
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/60Type of objects
    • G06V20/64Three-dimensional objects
    • G06V20/647Three-dimensional objects by matching two-dimensional images to three-dimensional objects
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/161Detection; Localisation; Normalisation
    • G06V40/165Detection; Localisation; Normalisation using facial parts and geometric relationships
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/168Feature extraction; Face representation
    • G06V40/169Holistic features and representations, i.e. based on the facial image taken as a whole
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/172Classification, e.g. identification
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2219/00Indexing scheme for manipulating 3D models or images for computer graphics
    • G06T2219/20Indexing scheme for editing of 3D models
    • G06T2219/2021Shape modification

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Health & Medical Sciences (AREA)
  • Multimedia (AREA)
  • General Health & Medical Sciences (AREA)
  • Evolutionary Computation (AREA)
  • Oral & Maxillofacial Surgery (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Artificial Intelligence (AREA)
  • Software Systems (AREA)
  • Data Mining & Analysis (AREA)
  • General Engineering & Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • Computing Systems (AREA)
  • Computer Graphics (AREA)
  • Medical Informatics (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Databases & Information Systems (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Evolutionary Biology (AREA)
  • Computer Hardware Design (AREA)
  • Geometry (AREA)
  • Architecture (AREA)
  • Mathematical Physics (AREA)
  • Biomedical Technology (AREA)
  • Biophysics (AREA)
  • Molecular Biology (AREA)
  • Computational Linguistics (AREA)
  • Image Analysis (AREA)
  • Image Processing (AREA)
  • Collating Specific Patterns (AREA)
  • Processing Or Creating Images (AREA)

Description

本発明は映像に示された顔を認識する顔認識技術に関する。
生体認識技術のうちの1つである顔認識技術は、静画や動画から顔を認識する技術である。顔認識技術は、指紋認識及び虹彩認識などの他の認識技術とは異なり、対象者を非接触式に確認できるという利点がある。最近では、顔認識技術の便利さ及び効率性のためにセキュリティシステム、モバイル認証、及びマルチメディアデータ検索などの様々な応用分野に顔認識技術が活発に適用されている。ただし、顔認識技術の性能は、ユーザのポーズ、表情、照明環境、及び閉塞(occlusion)などの変化に敏感である特性がある。
顔認識技術の性能は、登録された顔と登録されていない顔とを区別するパターン分類器の性能に影響を受ける。このようなパターン分類器を学習する1つの方法として、ニューラルネットワークモデルを用いる方法がある。ニューラルネットワークモデルは、人の生物学的神経細胞の特性を数学的な表現によってモデリングしたモデルであって、入力パターンを特定グループに分類する能力を有する。入力パターンを特定グループに分類する問題を解決するために、ニューラルネットワークモデルは、人が有している学習という能力を模倣したアルゴリズムを用いる。このアルゴリズムによってニューラルネットワークモデルは、入力パターンと出力パターンとの間の写像(mapping)を生成することになるが、これをニューラルネットワークモデルは学習能力があると表現する。
本発明の目的は、2D映像から顔の3D形状を推定して顔の様子だけではなく、3D形状情報まで活用して顔認識の性能を改善させることにある。
一実施形態に係る顔認識方法は、2D入力映像から個人化された3D顔モデルを生成するステップと、前記個人化された3D顔モデルに基づいて、正規化された2D入力映像及び3D形状情報を取得するステップと、前記正規化された2D入力映像のカラー情報及び前記3D形状情報を用いて特徴情報を決定するステップと、前記特徴情報を用いて顔認識を行うステップとを含む。
一実施形態によると、2D映像から顔の3D形状を推定して顔の様子だけではなく、形状情報まで活用して顔認識の性能を改善させることができる。
一実施形態に係る顔認識装置の動作を説明するための図である。 一実施形態に係るユーザの顔の3D形状を復元する過程を説明するための図である。 一実施形態に係る深さ映像に示された3D形状を精密化する過程を説明するための図である。 一実施形態に係る深さ映像に示された3D形状を精密化する過程を説明するための図である。 一実施形態に係る第1ニューラルネットワークモデルに基づいて第1特徴情報を決定する過程を説明するための図である。 一実施形態に係る第1ニューラルネットワークモデルに基づいて第1特徴情報を決定する過程を説明するための図である。 一実施形態に係る第2ニューラルネットワークモデルに基づいて第2特徴情報を決定する過程を説明するための図である。 一実施形態に係る第2ニューラルネットワークモデルに基づいて第2特徴情報を決定する過程を説明するための図である。 一実施形態に係る第3ニューラルネットワークモデルに基づいて第2特徴情報を決定する過程を説明するための図である。 一実施形態に係る顔のランドマークに基づいて第2特徴情報を決定する過程を説明するための図である。 一実施形態に係る顔のランドマークに基づいて第2特徴情報を決定する過程を説明するための図である。 一実施形態に係る顔認識方法の動作を説明するためのフローチャートである。 他の実施形態に係る顔認識装置を説明するための図である。
以下、本発明を実施するための形態の具体例を、図面を参照しながら、詳細に説明する。各図面で提示された同一の参照符号は同一の部材を示す。
本実施形態で用いる用語は、単に特定の実施形態を説明するために用いるものであって、実施形態を限定しようとする意図はない。単数の表現は、文脈上、明白に異なる意味をもたない限り複数の表現を含む。本明細書において、「含む」又は「有する」等の用語は明細書上に記載した特徴、数字、ステップ、動作、構成要素、部品又はこれらを組み合わせたものが存在することを示すものであって、1つ又はそれ以上の他の特徴や数字、ステップ、動作、構成要素、部品、又はこれを組み合わせたものなどの存在又は付加の可能性を予め排除しないものとして理解しなければならない。
異なる定義がされない限り、技術的又は科学的な用語を含むここで用いる全ての用語は、本実施形態が属する技術分野で通常の知識を有する者によって一般的に理解されるものと同じ意味を有する。一般的に用いられる予め定義された用語は、関連技術の文脈上で有する意味と一致する意味を有するものと解釈すべきであって、本明細書で明白に定義しない限り、理想的又は過度に形式的な意味として解釈されることはない。
また、図面を参照して説明する際に、図面符号に関係なく同一の構成要素には同一の参照符号を付与し、それに対する重複説明を省略する。本実施形態の説明において関連する公知技術に対する具体的な説明が実施形態の要旨を不要に曖昧にすると判断される場合、その詳細な説明を省略する。
図1は、一実施形態に係る顔認識装置100の動作を説明するための図である。一実施形態によると、顔認識装置100は、ランドマーク検出器110、正規化器130、3D形状情報取得器120、第1特徴情報決定器140、第2特徴情報決定器150、最終特徴情報決定器160、及び顔認識装置170を含む。ランドマーク検出器110、正規化器130、3D形状情報取得器120、第1特徴情報決定器140、第2特徴情報決定器150、最終特徴情報決定器160、及び顔認識装置170は1つ以上のプロセッサによって実装できる。
以下、説明の便宜のために顔認識過程と学習過程を区分して説明する。
<顔認識過程>
顔認識装置100は、2D入力映像に示されたユーザの顔を認識する。2D入力映像は、例えば、デジタルスチールカメラ又はビデオカメラから取得された2D映像であってもよい。顔認識装置100は、2D入力映像に示されたユーザが特定登録映像に示されたユーザと同一人であるか否かを決定する。登録映像は、顔認識が行われる以前に予め登録されてデータベースに格納され、1つ以上のユーザに対する顔映像を含んでもよい。
顔認識装置100は、監視/セキュリティシステム、モバイル機器認証又はマルチメディア検索及び分類などの様々なアプリケーション領域で活用され得る。又は、顔認識装置100は、指紋認識装置と結合して複合生体認証システムを実現するために用いることができる。説明を容易にするため、以下は2D入力映像が1つの顔領域を含むと仮定する。しかし、実施形態の範囲がこのような仮定によって限定されるものと解釈されることはない。
顔認識を行うために2D入力映像がランドマーク検出器110に入力される。例えば、ランドマーク検出器110にユーザの顔の全体領域又は一部領域が示された2D映像が入力される。2D入力映像は、カラー映像又は白黒映像であってもよい。ランドマーク検出器110は2D入力映像から顔領域を検出し、検出された顔領域内で顔のランドマーク(又は目印又は際立った特徴)を検出する。ランドマーク検出器110は、例えば、AAM(Active Appearance Model)、ASM(Active Shape Model)、SDM(Supervised Descent Method)又は深さ学習(deep learning)などの方式を用いて2D入力映像でランドマークを検出する。ランドマークは、例えば、眉毛、目、鼻、口、あご、耳及び顔の輪郭などに位置する特徴点を示す。
3D形状情報取得器120は、2D入力映像に示されたユーザの顔の3D顔形状を復元することができる。3D形状情報取得器120は、一般の(又は汎用)3D顔モデルに2D入力映像で検出されたランドマークを適用して個人化された(又は個人)3D顔モデルを生成してもよい。3D形状情報取得器120は、一般の3D顔モデルのランドマークポイントに2D入力映像で検出されたランドマークをマッピングして個人化された3D顔モデルを生成することができる。一般の3D顔モデルは、学習データに基づいて生成された変形可能な3D顔モデルとして、3D標準モデルとも称することができる。一般の3D顔モデルは、3D形態とテクスチャから構成され、3D形態を表現するためのパラメータを含んでもよい。
一実施形態によると、個人化された3D顔モデルは、次の数式(1)のよう一般の3D顔モデルが有する平均形状にランドマーク検出情報による形状変化量を適用することにより生成される。
数式(1)で、Sバーは一般の3D顔モデルの平均形状を示す形状エレメントを示す。Sバーはインデックスiに対応する形状エレメントを示し、pバーはSバーに適用される形状制御パラメータを示す。pバーとSバーの加重和は形状変化量を示す。3D形状情報取得器120は、2D入力映像のランドマーク検出情報に基づいて形状制御パラメータを算出し、平均形状に形状変化量を適用して一般の3D顔モデルを個人化された3D顔モデルに変形する。Sバーは、個人化された3D顔モデルの3D形状を構成する形状エレメントを示す。Sバーは、次の数式(2)のように3次元点などの座標で構成される。
数式(2)で、νバーは個人化された3D顔モデルを構成する頂点の空間位置xバー、yバー、zバーを識別するためのインデックスを示し、Tは転置(transpose)を示す。3D形状情報取得器120は、個人化された3D顔モデルを構成する頂点の位置情報に基づいて3D形状情報を取得する。3D形状情報は、ユーザの顔の立体形状に関する情報を示す。3D形状情報は、例えば、ユーザの顔形状を表現するための形状パラメータ情報及びユーザの顔形状に対する深さ情報を含んでもよい。
一実施形態によると、3D形状情報取得器120は、個人化された3D顔モデルを用いて深さ映像を生成し、深さ映像からユーザの顔に対する3D形状情報を抽出することができる。例えば、3D形状情報取得器120は、個人化された3D顔モデルのポーズを正面の顔ポーズに変換し、このときの深さ値を0〜255の範囲内の値に変換して深さ映像を生成し得る。追加的に、3D形状情報取得器120は、2D入力映像のテクスチャ形状にマッチングされる、もっと正確な3D形状情報を取得するために、2D入力映像で検出されたランドマークに基づいて深さ映像に示された3D形状を精密化し、精密化された深さ映像から3D形状情報を取得できる。これについては、図3A及び図3Bを詳細に参照して説明することにする。
他の実施形態によると、3D形状情報取得器120は、個人化された3D顔モデルを用いて顔に対するノーマル映像を生成してもよい。ノーマル映像は、顔表面のノーマル特徴を示す表面ノーマル情報を含み、表面ノーマル情報は、ユーザの顔で各顔表面の方向を示すノーマルベクトルに関する情報を含む。3D形状情報取得器120は、ノーマル映像からユーザの顔に対する3D形状情報を抽出することができる。
更なる実施形態によると、3D形状情報取得器120は、深さカメラ又は3Dカメラなどを用いて撮影された深さ映像から3D形状情報を取得してもよい。ここで、深さ映像は、カメラからユーザの顔までの距離を示す深さ情報を含む。3D形状情報取得器120は、深さ映像の深さ情報から顔に対する3D形状情報を抽出することができる。
上記のように、3D形状情報取得器120は、深さ映像、ノーマル映像、深さカメラ、又は3Dカメラなどを用いて3D形状情報を取得できるが、実施形態の範囲はこれに限定されることはない。
2D入力映像に示された顔領域の大きさ及び顔ポーズは、2D入力映像の比較対象となる登録映像に示された顔領域の大きさ及び顔ポーズと異なることがある。正規化器130は、2D入力映像と登録映像との間で顔領域の大きさ及び顔コンポーネントの位置が互いに整列されるよう2D入力映像に対して正規化を行う。ここで、顔コンポーネントは、目、眉毛、鼻、口、及び耳などを示す。正規化器130は、2D入力映像に示された顔ポーズを調整したり、登録映像に示された顔コンポーネントの位置に対応するよう、2D入力映像に示された顔コンポーネントの位置を調整する。正規化器130は、例えば、2D入力映像のランドマーク検出情報に基づいてアフィン変換を適用することによって正規化を行う。アフィン変換は、ベクトル空間を他のベクトル空間に対応させる変換である。
一実施形態によると、正規化器130は、個人化された3D顔モデルを用いて正規化された2D入力映像を取得することができる。3D形状情報取得器120は、個人化された3D顔モデルを用いて正面の顔に対するポーズ情報を推定し、正規化器130は、正面の顔に対するポーズ情報を用いて2D入力映像を正規化する。正面の顔に対するポーズ情報は、例えば、個人化された3D顔モデルのポーズを正面の顔ポーズに変換したとき、顔領域の大きさがどれ程であるかに関する情報、及び各顔コンポーネントの空間的位置がどこであるかに関する情報を含んでもよい。又は、正規化器130は、個人化された3D顔モデルから取得された2D投影映像を用いて正規化を行ってもよい。
第1特徴情報決定器140は、正規化された2D入力映像の2D映像情報に基づいて第1特徴情報を決定する。2D映像情報は、例えば、2D入力映像のカラー情報、明暗度情報又はテクスチャ情報などを含んでもよい。第1特徴情報決定器140は、予め学習された第1ニューラルネットワークモデルに正規化された2D入力映像の2D映像情報を入力して第1特徴情報を決定することができる。
例えば、第1特徴情報決定器140は、畳み込みニューラルネットワークモデルを用いて2D入力映像を畳み込むことによって、顔の様子(又は外観)をよく表現できる特徴ベクトルを決定し得る。第1特徴情報決定器140は、第1ニューラルネットワークモデルの最上段レイヤで抽出された値を第1特徴情報として決定するか、又は隠れレイヤで抽出された値と最上段レイヤで抽出された値とを結合して第1特徴情報を決定することができる。
他の実施形態によると、第1特徴情報決定器140は、2D入力映像の2D映像情報だけではなく、3D形状情報取得器120によって生成された深さ映像の深さ情報を第1ニューラルネットワークモデルに入力して第1特徴情報を決定することができる。
第2特徴情報決定器150は、3D形状情報に基づいて第2特徴情報を決定する。第2特徴情報決定器150は、予め学習された第2ニューラルネットワークモデルに3D形状情報を入力して第2特徴情報を決定する。例えば、第2特徴情報決定器150は、個人化された3D顔モデルを構成する形状パラメータをベクトル形態に変換し、当該ベクトルをオート・エンコーダ構造を有するニューラルネットワークモデルに入力して顔の形状を円満に表現できる特徴ベクトルを決定する。
他の実施形態によると、第2特徴情報決定器150は、予め学習された第3ニューラルネットワークモデルに3D形状情報取得器120によって生成された深さ映像の深さ情報を入力して第2特徴情報を決定してもよい。例えば、第2特徴情報決定器150は、畳み込みニューラルネットワークモデルを用いて深さ映像を畳み込むことによって第2特徴情報を決定できる。
更なる実施形態によると、第2特徴情報決定器150は、顔のランドマーク間の距離に基づいて第2特徴情報を決定してもよい。第2特徴情報決定器150は、例えば、顔領域内で検出されたランドマークで2つのランドマーク間の距離に基づいて行列データベースを構成し、行列データベースを第4ニューラルネットワークモデルに入力して顔の形状に関する第2特徴情報を抽出することができる。これに対する詳しい説明は、図9A及び図9Bを参照して後述する。
上記の説明で、第1ニューラルネットワークモデル、第2ニューラルネットワークモデル、第3ニューラルネットワークモデル、及び第4ニューラルネットワークモデルは、複数の隠れレイヤを含む深さニューラルネットワークモデルであってもよい。
最終特徴情報決定器160は、第1特徴情報及び第2特徴情報に基づいて顔認識のための最終特徴情報を決定する。最終特徴情報は、特徴ベクトルに表現されてもよい。最終特徴情報決定器160は、例えば、第1特徴情報と第2特徴情報を単純連結したり、又は完全連結レイヤによって第1特徴情報と第2特徴情報とを連結して最終特徴情報を決定してもよい。
他の実施形態によると、第2特徴情報決定器150から抽出された結果が最終特徴情報決定器160に入力されず、代わりに、第1特徴情報決定器140に入力されてもよい。第1特徴情報決定器140は、第2特徴情報決定器150から伝達された結果を追加入力として特徴情報を抽出することができ、最終特徴情報決定器160は、第1特徴情報決定器140から抽出された特徴情報を最終特徴情報として決定してもよい。例えば、第2特徴情報決定器150から抽出された結果が第1特徴情報決定器140の第1ニューラルネットワークモデルの隠れレイヤに追加的に入力され、特徴情報が第1ニューラルネットワークモデルの出力レイヤから出力され得る。最終特徴情報決定器160は、第1ニューラルネットワークモデルから出力された当該の特徴情報を最終特徴情報として決定することができる。
顔認識装置170は、最終特徴情報を用いて顔認識を行う。顔認識装置170は、2D入力映像に対する最終特徴情報と登録映像の特徴情報とを比較して顔認識結果を決定する。顔認識装置170は、例えば、PCA(Principal Component Analysis)、LDA(Linear Discriminate Analysis)又はJoint Bayesianなどの方式を用いて2D入力映像で決定された最終特徴情報と登録映像の特徴情報との間の類似度を算出し、算出された類似度が予め設定された条件を満たすか否かを判断して顔認識結果を決定し得る。
顔認識装置170は、類似度が予め設定された条件を満たす場合、認識が成功したものと決定し、そうではない場合には認識が失敗したと決定する。一実施形態によると、認識が成功したと決定された場合、顔認識装置100は、顔認識装置100と連結された端末装置のロック状態を解除したり、又はユーザに端末装置の特定機能にアクセスできる権限を付与してもよい。認識が失敗したと決定された場合、顔認識装置100は、端末装置のロック状態を保持したり、又は端末装置の特定機能に対するアクセス権限を制限してもよい。
顔認識のための特徴情報を生成するとき、2D入力映像に示された映像情報だけではなく、ユーザの顔の3D形状を追加的に考慮することによって顔認識の正確度が改善され得る。2D入力映像の2D映像情報に基づいて決定された第1特徴情報は、顔の全域的(又は、局部的)なテクスチャに対する特徴ベクトルに対応して、個人化された3D顔モデルの3D形状情報に基づいて決定された第2特徴情報は、顔の3D形状に対する特徴ベクトルに対応する。上記の顔の全域的(又は、局部的)なテクスチャに対する特徴ベクトルと顔の3D形状に対する特徴ベクトルが結合されて、顔認識のための最終特徴情報が生成される。このような最終特徴情報に基づいて顔認識を行うことにより、2D入力映像の照明環境、顔ポーズ、表情、及び閉塞などの変化に対してロバストな顔認識を行うことができる。例えば、映像内のインテンシティの変化が大きい場合、顔の様子に関する特徴が大きく変化するが、顔の3D形状に関する特徴を追加的に考慮することによって顔認識の正確度が改善され得る。また、映像内の顔の様子が類似しても顔の3D形状が異なる場合、顔の様子に関する特徴が互いに類似することもあるが、顔の3D形状に関する特徴を追加的に考慮することによって顔認識の正確度が改善され得る。
<学習過程>
以下では、学習器(図示せず)を用いて上記で説明した第1ニューラルネットワークモデル、第2ニューラルネットワークモデル、及び第3ニューラルネットワークモデルのうちの1つ以上を学習させる過程を説明することにする。学習過程を介して顔認識に用いられるニューラルネットワークモデルの性能が改善されて顔認識の正確度を向上させることができる。
学習のための2D学習映像が学習器に入力されれば、学習器は、2D学習映像で顔のランドマークを検出してもよい。その後、学習器は、検出されたランドマークに基づいて個人化された3D顔モデルを生成し、個人化された3D顔モデルから3D形状情報を抽出する。また、2D学習映像は、正規化されて学習映像に示された顔コンポーネントの位置を調整できる。これに対する詳しい説明は、上記の顔認識過程に説明された内容がそのまま適用し得るため、これに関する説明は省略する。
学習対象であるニューラルネットワークモデルが畳み込みニューラルネットワークモデルである場合、2D学習映像と2D学習映像に対応する識別情報が入力されたり、又は互いに比較される2枚の映像と当該映像に示されたユーザが互いに同一人であるか否かに関する情報が入力される。学習対象であるニューラルネットワークモデルがオート・エンコーダ構造のニューラルネットワークモデルである場合、3D顔モデルを構成する形状パラメータがベクトル形態に変換されて入力され得る。
学習器は、誤差逆伝搬学習方式などを用いてニューラルネットワークモデルを学習させることができる。誤差逆伝搬学習方式は、与えられた学習データに対して前方算出で誤差を推定した後、ニューラルネットワークモデルの出力レイヤから始まって隠れレイヤと入力レイヤ方向に逆に前進して推定した誤差を伝搬し、誤差を減らす方向に人工ニューロン間の連結重みをアップデートする方式である。
図2は、一実施形態に係るユーザの顔の3D形状を復元する過程を説明するための図である。顔認識装置100は映像210で顔領域を検出し、眉毛、目、鼻及び、口などに位置する顔のランドマーク220を検出する。顔認識装置100は、一般の3D顔モデルにランドマーク検出情報を適用して映像210に示されたユーザの顔の3D形状を復元する。例えば、顔認識装置100は、ランドマーク220の位置に基づいて一般の3D顔モデルの形状を変形するための形状制御パラメータを決定し、決定された形状制御パラメータを一般の3D顔モデルに適用してユーザの顔の3D形状を示す個人化された3D顔モデル230を生成してもよい。
顔認識装置100は、映像210から抽出されたテクスチャを個人化された3D顔モデル230にマッピングして3Dテクスチャモデルを生成する。顔認識装置100は、3Dテクスチャモデルの顔ポーズを調整した後、2D平面上で投影して正規化された映像240を生成する。正規化された映像240に基づいて顔認識のための第1特徴情報が決定される。また、の顔認識装置100は、個人化された3D顔モデル230を構成するポイントの3D座標情報を用いて、深さ映像250及びノーマル映像260のうちの1つ以上を生成してもよい。又は、顔認識装置100は、個人化された3D顔モデル230を用いて、深さ映像250とノーマル映像260が結合した結合映像を生成してもよい。
図3A及び図3Bは、一実施形態に係る深さ映像に示された3D形状を精密化する過程を説明するための図である。
図3Aを参照すると、(a)は、個人化された3D顔モデルから取得された深さ映像のランドマーク310を示す。深さ映像は、個人化された3D顔モデルから生成されるため、深さ映像でランドマークの位置は個人化された3D顔モデルが有するランドマークの位置に基づいて決定される。
(b)は、深さ映像のランドマークを正規化した2D入力映像に適用した結果として、適用されたランドマーク340が正規化された2D入力映像に位置している。(c)は、正規化された2D入力映像のランドマーク320を示す。(d)は、(b)と(c)の同一領域330に示されたランドマーク320、340間の位置関係を示す。(d)に示すように、正規化された2D入力映像と深さ映像との間で互いに対応するランドマーク320、340の間には位置誤差が発生することがある。
このような位置誤差を補正して、より正確な3D形状情報を取得するために顔認識装置100は、正規化された2D入力映像のランドマークの位置に基づいて深さ映像に示された3D形状(例、深さ情報)を精密化することができる。図3Bを参照すると、顔認識装置100は、(a)のように深さ映像のランドマークに基づいてメッシュを形成し、(b)のように正規化された2D入力映像のランドマークに基づいてメッシュを形成する。一実施形態によると、顔認識装置100は、ランドマークと顔の輪郭及び映像の境界に位置する基準点に基づいてメッシュを形成することができるが、これに限定されることはない。
その次に、顔認識装置100は、正規化された2D入力映像のランドマークに基づいたメッシュと深さ映像のランドマークに基づいたメッシュとの間の対応関係に基づいて深さ映像に示された3D形状を調整できる。例えば、(c)に示すように、顔認識装置100は、深さ映像のランドマークS、S、Sによって形成されたメッシュを正規化された2D入力映像のランドマークT、T、Tに形成されたメッシュを基準にしてアフィン変換し、深さ映像に示された深さ値の位置を調整することができる。ここで、深さ映像で形成されたメッシュと正規化された2D入力映像で形成されたメッシュとは互いに対応するメッシュである。これと類似に、顔認識装置100は、深さ映像のランドマークS、S、Sによって形成されたメッシュと正規化された2D入力映像のランドマークT、T、Tによって形成されたメッシュとの間の変換関係に基づいて、深さ映像に示された深さ値の位置を調整できる。
顔認識装置100は、上記の過程を(a)に示す深さ映像の全体メッシュに対して行い、深さ映像に示した3D形状を、正規化された2D入力映像に示したテクスチャ形状にマッチングされるように補正してもよい。顔認識装置100は、精密化過程が完了した深さ映像から3D形状情報を取得し、取得された3D形状情報と正規化された2D入力映像のカラー情報に基づいて顔認識を行ってもよい。精密化過程により、深さ映像に示された3D形状と正規化された2D入力映像に示されたテクスチャ形状とが互いにマッチングすることで、より正確な特徴情報を決定することができる。
図4及び図5は、一実施形態に係る第1ニューラルネットワークモデルに基づいて第1特徴情報を決定する過程を説明するための図である。一実施形態によると、第1ニューラルネットワークモデルとして畳み込みニューラルネットワークモデルを用いてもよい。畳み込みニューラルネットワークモデルで、各レイヤは、上位レイヤで抽出された特徴マップから構成され、畳み込みニューラルネットワークモデルは、畳み込み過程によって抽出された特徴マップと特徴マップをサブサンプリングして取得した新しい特徴マップを含む。
図4を参照すると、顔認識装置100は、映像210の2D映像情報を畳み込みニューラルネットワークモデル400に入力して第1特徴情報を決定することができる。映像210は、畳み込みニューラルネットワークモデル400に入力される以前に正規化され、顔領域の大きさ及び顔コンポーネントの位置を調整できる。
顔認識装置100は、畳み込みニューラルネットワークモデル400の最上段レイヤで抽出された値を第1特徴情報として決定するか、又は畳み込みニューラルネットワークモデル400の隠れレイヤで抽出された値と最上段レイヤで抽出された値とを連結して第1特徴情報を決定することができる。
学習過程で、顔認識装置100は、学習映像と学習映像に対応するID情報を畳み込みニューラルネットワークモデル400に入力させたり、又は互いに比較される2つの映像と当該映像に示されたユーザが互いに同一人であるか否かを示す結果情報を入力させる。顔認識装置100は、識別損失(Identification loss)及び検証損失(Verification loss)に基づいた学習方式を用いて畳み込みニューラルネットワークモデル400に対して深さ学習を行う。深さ学習とは、ディープニューラルネットワークモデルを学習させることを意味する。
他の実施形態によると、図5に示すように、顔認識装置100は、第1特徴情報を決定するために畳み込みニューラルネットワークモデル500に映像210(又は、正規化された映像)の2D映像情報(例、カラー情報)だけではなく、深さ映像250の深さ情報をともに入力させることができる。ここで、深さ映像250は、個人化された3D顔モデルから取得されたり、又は深さカメラ(又は、3Dカメラ)によって取得されてもよい。深さ映像250の深さ情報は、第1特徴情報を生成するための付加的なチャネル情報として用いてもよい。
更なる実施形態によると、顔認識装置100は、第1特徴情報を決定するために畳み込みニューラルネットワークモデル500に映像210の2D映像情報とノーマル映像260の表面ノーマル情報をともに入力させることができる。ここで、ノーマル映像260は、個人化された3D顔モデルを用いて生成され得る。
図6及び図7は、一実施形態に係る第2ニューラルネットワークモデルに基づいて第2特徴情報を決定する過程を説明するための図である。一実施形態によると、第2ニューラルネットワークモデルとしてオート・エンコーダ構造のニューラルネットワークモデルが使用されてもよい。オート・エンコーダ構造のニューラルネットワークモデルは、目的とする出力が入力と同一になるように学習されたニューラルネットワークモデルである。オート・エンコーダ構造のニューラルネットワークモデル600は、畳み込みニューラルネットワークモデルとは異なって空間的な関連が存在しない特徴を非線形マッピングさせるために用いてもよい。
図6を参照すると、オート・エンコーダ構造のニューラルネットワークモデル600は、入力レイヤ610、エンコーディングレイヤ620、630で構成されたエンコード部と、復号化レイヤ640、650、及び出力レイヤ660で構成された復号化ユニットを含む。顔認識装置100は、ニューラルネットワークモデル600に個人化された3D顔モデルから導き出された形状パラメータをベクトル形態に変換して入力させ得る。ニューラルネットワークモデル600で、ベクトル形態に変換された形状パラメータは完全連結レイヤにより様々な段階でエンコーディングされた後、エンコーディングと同じ段階を経て復号化される。顔認識装置100は、例えば、ニューラルネットワークモデル600の最上位エンコーディングレイヤ620からの出力値を用いて第2特徴情報を決定してもよい。
上記の説明では、オート・エンコーダ構造のニューラルネットワークモデルが第2ニューラルネットワークモデルで用いられることについて説明したが、実施形態の範囲がこれに限定することなく、様々な構造のニューラルネットワークモデルが第2ニューラルネットワークモデルで用いることができる。例えば、オート・エンコーダ構造のニューラルネットワークモデルで復号化ユニットを含まない変形されたニューラルネットワークモデルが第2ニューラルネットワークモデルとして用いてもよい。
学習過程で、顔認識装置100は、学習映像から個人化された3D顔モデルを生成し、個人化された3D顔モデルから導き出された形状パラメータをベクトル形態に変換してニューラルネットワークモデル600に入力させることができる。顔認識装置100は、オート・エンコーダの構造を用いてニューラルネットワークモデル600に対して深さ学習を行う。顔認識装置100は、ユークリッド距離(Euclidean Distance)などを用いて復号化ユニットで出力された最終出力値と入力レイヤ610に入力された値との間の損失を算出し、算出された損失が減少するようにニューロンの間の連結重みを調整してニューラルネットワークモデル600を学習させることができる。
図7は、他の実施形態に係るオート・エンコーダ構造を含むニューラルネットワークモデル700を示している。ニューラルネットワークモデル700は、入力レイヤ710、エンコーディングレイヤ720、730、復号化レイヤ740、750及び出力レイヤ760だけではなく、追加レイヤ770、780をさらに含んでもよい。学習過程で、形状パラメータ情報のみならずユーザの顔に対応するID情報がベクトル形態に変換されて入力レイヤ710に入力され、追加レイヤ770、780は、入力された形状パラメータ情報とID情報が互いにマッピングされるよう学習するために使用される。ここで、ソフトマックス損失(softmax loss)を用いた学習方式を用いてもよい。
図8は、一実施形態に係る第3ニューラルネットワークモデルに基づいて第2特徴情報を決定する過程を説明するための図である。一実施形態によると、第3ニューラルネットワークモデルとして畳み込みニューラルネットワークモデルを用いてもよい。図8を参照すると、顔認識装置100は、第2特徴情報を決定するために形状パラメータ情報の代わりに深さ映像250の深さ情報又はノーマル映像260の表面ノーマル情報を畳み込みニューラルネットワークモデル800に入力させる。ここで、深さ映像250は、個人化された3D顔モデルから取得されたり、又は深さカメラなどによって取得され得る。ノーマル映像260は、個人化された3D顔モデルから取得されてもよい。顔認識装置100は、畳み込みニューラルネットワークモデル800の最上段レイヤで抽出された値を第3特徴情報として決定するか、又は畳み込みニューラルネットワークモデルの隠れレイヤで抽出された値と最上段レイヤで抽出された値とを連結して第3特徴情報を決定することができる。
図9A及び図9Bは、一実施形態に係る顔のランドマークに基づいて第2特徴情報を決定する過程を説明するための図である。図9Aは、2D入力映像内の顔領域910で検出された顔のランドマークが図示されている。ここでは、合計68個のランドマークが検出されたと仮定する。場合に応じて、ランドマークの絶対的な位置よりもランドマーク間の相対的な距離が顔の特徴をより表現することができ、顔認識装置100は、ランドマークの間の距離に基づいて第2特徴情報を決定することができる。顔認識装置100は、例えば、図9Bに示すように、2個のランドマーク間の距離に基づいて行列データベースを構成してもよい。図9Bには合計68個のランドマークに対して2個のランドマーク間の距離が行列形式に構成されている。図面において「LMx」はランドマークxを示し、「距離(LMx、LMy)」はランドマークxとランドマークyとの間の距離を示す。ここで、x、yは、図9Aで検出された68個のランドマークのうち特定ランドマークを識別するためのインデックスを示す。ランドマーク間の距離に基づいた行列データベースはニューラルネットワークモデルに入力され、当該ニューラルネットワークモデルから第2特徴情報が抽出されることができる。
図10は、一実施形態に係る顔認識方法の動作を説明するためのフローチャートである。
ステップS1010において、顔認識装置100は、2D入力映像に示されたユーザの顔領域で顔のランドマークを検出する。例えば、顔認識装置100は、2D入力映像で眉毛、目、鼻及び、口などに位置するランドマークを検出する。
ステップS1020において、顔認識装置100は、検出されたランドマークに基づいて個人化された3D顔モデルを生成する。顔認識装置100は、2D入力映像で検出されたランドマークの位置情報に基づいて、一般の3D顔モデルの形態を調整することによって個人化された3D顔モデルを生成することができる。
ステップS1030において、顔認識装置100は、個人化された3D顔モデルに基づいて正規化された2D入力映像及び3D形状情報を取得する。顔認識装置100は、個人化された3D顔モデルから取得された2D映像を用いて正規化された2D入力映像を取得する。正規化過程により2D入力映像に示された顔領域の大きさ及び顔コンポーネントの位置が調整される。顔認識装置100は、個人化された3D顔モデルを用いて深さ映像又はノーマル映像を生成し、生成された深さ映像又はノーマル映像からユーザの顔に対する3D形状情報を取得することができる。
ステップS1040において、顔認識装置100は、正規化された2D入力映像のカラー情報及びステップS1030で取得された3D形状情報を用いて特徴情報を決定する。例えば、顔認識装置100は、深さニューラルネットワークモデルを用いて正規化された2D入力映像のカラー情報から第1特徴情報を決定し、他の深さニューラルネットワークモデルを用いて3D形状情報から第2特徴情報を決定してもよい。顔認識装置100は、第1特徴情報と第2特徴情報を結合して最終特徴情報を決定できる。
ステップS1050において、顔認識装置100は、特徴情報を用いて顔認識を行う。顔認識装置100は、ステップS1040で決定された特徴情報と予め格納された登録映像の特徴情報との間の類似度を算出し、算出された類似度が予め設定された条件を満たすか否かを判断して顔認識結果を決定することができる。
図10において、説明していない内容は、図1〜図9Bを参照して説明した内容を参照すればよい。
図11は、他の実施形態に係る顔認識装置1110の動作を説明するための図である。カメラのような映像取得装置1140はユーザの顔を撮影し、ユーザの顔が示された映像を顔認識装置1110に伝達する。顔認識装置1110は、入力された映像と登録映像データベース1150に予め格納された登録映像とを比較して顔認識を行ってもよい。ユーザは、登録過程により自身の顔映像を予め登録してもよく、登録映像データベース1150は、登録過程により登録された顔映像を登録映像として格納してもよい。
顔認識装置1110は、ここで記載又は図示された1つ以上の顔認識方法及び学習方法を行ってもよい。顔認識装置1110は、顔認識結果をスピーカを用いて音声の形態で出力したり、ディスプレイを用いて字、図又は動画などの形態で出力できる。しかし、実施形態の範囲がこれに限定されることなく、顔認識装置1110は様々な形態で顔認識結果を出力することができる。
顔認識装置1110は、プロセッサ1120及びメモリ1130を含む。メモリ1130は、プロセッサ1120と通信し、プロセッサ1120によって実行可能な命令又はプロセッサ1120が演算するデータを格納する。プロセッサ1120は、メモリ1130に格納された命令を実行するハードウェアを含む。プロセッサ1120は、命令を実行するために内部レジスタ、内部キャッシュ、メモリ1130又はストレージから命令を取り出して命令を実行できる。その後、プロセッサ1120は、1つ以上の実行結果を内部レジスタ、内部キャッシュ、メモリ1130、又はストレージに記録してもよい。一実施形態によると、プロセッサ1120は、図1ないし図10を参照して説明した1つ以上の動作を行うための命令を実行し得る。
以上述した実施形態は、ハードウェア構成要素、ソフトウェア構成要素、及び/又はハードウェア構成要素及びソフトウェア構成要素の組合で実現してもよい。例えば、プロセッサ、コントローラ、ALU(arithmetic logic unit)、デジタル信号プロセッサ(digital signal processor)、マイクロコンピュータ、FPA(field programmable array)、PLU(programmable logic unit)、マイクロプロセッサー、または、命令を実行して応答できる異なる装置のように、1つ以上の汎用コンピュータまたは特殊目的のコンピュータを用いて実現されてもよい。処理装置は、オペレーティングシステム(OS)及び前記オペレーティングシステム上で行われる1つ以上のソフトウェアアプリケーションを行ってもよい。また、処理装置は、ソフトウェアの実行に応答してデータをアクセス、格納、操作、処理及び生成してもよい。理解の便宜のために、処理装置は1つ使用されるものと説明される場合もあるが、当該の技術分野で通常の知識を有する者は、処理装置が複数の処理要素及び/又は複数類型の処理要素を含んでいることが分かる。例えば、処理装置は、複数のプロセッサまたは1つのプロセッサ及び1つのコントローラを含んでもよい。また、並列プロセッサのような、他の処理構成も可能である。
ソフトウェアはコンピュータプログラム、コード、命令、またはこのうちの1つ以上の組合せを含んでもよく、希望の通りに動作するよう処理装置を構成したり独立的または結合的に処理装置を命令してもよい。ソフトウェア及び/又はデータは、処理装置によって解釈されたり処理装置に命令またはデータを提供するためどのような類型の機械、構成要素、物理的装置、仮想装置、コンピュータ格納媒体または装置、送信される信号波に永久的または一時的に具体化できる。ソフトウェアは、ネットワークに接続されたコンピュータシステム上に分散し、分散された方法で格納されたり実行されてもよい。ソフトウェア及びデータは1つ以上のコンピュータで読み出し可能な記録媒体に格納されてもよい。
実施形態に係る方法は、多様なコンピュータ手段を介して様々な処理を実行することができるプログラム命令の形態で実現され、コンピュータで読取可能な記録媒体に記録されてもよい。コンピュータ読取可能な媒体は、プログラム命令、データファイル、データ構造などのうち1つまたはその組合せを含んでもよい。媒体に記録されるプログラム命令は、本発明の目的のために特別に設計されて構成されたものでもよく、コンピュータソフトウェア分野の技術を有する当業者にとって公知のものであり、使用可能なものであってもよい。コンピュータ読取可能な記録媒体の例としては、ハードディスク、フロッピー(登録商標)ディスク及び磁気テープのような磁気媒体、CD−ROM、DVDのような光記録媒体、光ディスクのような光磁気媒体、及びROM、RAM、フラッシュメモリなどのようなプログラム命令を保存して実行するように特別に構成されたハードウェア装置が含まれてもよい。プログラム命令の例には、コンパイラによって作られるような機械語コードだけでなく、インタープリタなどを用いてコンピュータによって実行できる高級言語コードが含まれる。前記したハードウェア装置は、本発明の動作を行うために1つ以上のソフトウェアモジュールとして動作するように構成されてもよく、その逆も同様である。
上述したように、本発明を限定された実施形態と図面によって説明したが、本発明は、上記の実施形態に限定されることなく、本発明が属する分野における通常の知識を有する者であれば、このような実施形態から多様な修正及び変形が可能である。
したがって、本発明の範囲は、開示された実施形態に限定されるものではなく、特許請求の範囲だけではなく特許請求の範囲と均等なものなどによって定められるものである。
100:顔認識装置
110:ランドマーク検出器
120:3D形状情報取得器
130:正規化器
140:第1特徴情報決定器
150:第2特徴情報決定器
160:最終特徴情報決定器
170:顔認識装置

Claims (16)

  1. 2D入力映像から個人化された3D顔モデルを生成するステップと、
    前記個人化された3D顔モデルに基づいて、正規化された2D入力映像及び3D形状情報を取得するステップと、
    前記正規化された2D入力映像のカラー情報及び前記3D形状情報を用いて特徴情報を決定するステップと、
    前記特徴情報を用いて顔認識を行うステップと、
    を含み
    前記特徴情報を決定するステップは、
    第1深さニューラルネットワークモデルを用いて、前記カラー情報、前記個人化された3D顔モデルを用いて取得された深さ映像の深さ情報又は前記個人化された3D顔モデルを用いて取得されたノーマル情報と、の一方又は両方から、第1特徴情報を決定するステップと、
    第2深さニューラルネットワークモデルを用いて前記3D形状情報から第2特徴情報を決定するステップと、
    を含み、
    前記の顔認識を行うステップは、前記第1特徴情報及び前記第2特徴情報を用いて顔認識を行う、顔認識方法。
  2. 2D入力映像から個人化された3D顔モデルを生成するステップと、
    前記個人化された3D顔モデルに基づいて、正規化された2D入力映像及び3D形状情報を取得するステップと、
    前記正規化された2D入力映像のカラー情報及び前記3D形状情報を用いて特徴情報を決定するステップと、
    前記特徴情報を用いて顔認識を行うステップと、を含み、
    前記3D形状情報を取得するステップは、
    前記個人化された3D顔モデルを用いて深さ映像を生成するステップと、
    前記正規化された2D入力映像のランドマークに基づいて前記深さ映像に示された3D形状を精密化するステップと、
    前記精密化された3D形状から前記3D形状情報を取得するステップと、
    を含む、認識方法。
  3. 前記深さ映像に示された3D形状を精密化するステップは、前記正規化された2D入力映像のランドマークに基づいたメッシュと、前記深さ映像のランドマークに基づいたメッシュとの間の対応関係に基づいて前記深さ映像に示された3D形状を調整するステップを含む、請求項2に記載の顔認識方法。
  4. 前記3D形状情報を取得するステップは、
    前記2D入力映像で顔のランドマークを検出するステップと、
    前記検出されたランドマークに基づいて一般の3D顔モデルを前記個人化された3D顔モデルに変形するステップと、
    前記個人化された3D顔モデルから前記3D形状情報を取得するステップと、
    を含む、請求項に記載の顔認識方法。
  5. 2D入力映像から個人化された3D顔モデルを生成するステップと、
    前記個人化された3D顔モデルに基づいて、正規化された2D入力映像及び3D形状情報を取得するステップと、
    前記正規化された2D入力映像のカラー情報及び前記3D形状情報を用いて特徴情報を決定するステップと、
    前記特徴情報を用いて顔認識を行うステップと、を含み、
    前記3D形状情報を取得するステップは、
    前記個人化された3D顔モデルを用いて深さ映像及びノーマル映像のうち少なくとも1つを生成するステップと、
    前記深さ映像及びノーマル映像のうち少なくとも1つから前記3D形状情報を取得するステップと、
    を含む、認識方法。
  6. 前記第2深さニューラルネットワークモデルは、オート・エンコーダ構造のニューラルネットワークモデルである、請求項に記載の顔認識方法。
  7. 前記正規化された2D入力映像を取得するステップは、
    前記個人化された3D顔モデルを用いて正面の顔に対するポーズ情報を推定するステップと、
    前記ポーズ情報を用いて前記2D入力映像を正規化するステップと、
    を含む、請求項1ないし6のいずれか一項に記載の顔認識方法。
  8. 前記正規化された2D入力映像を取得するステップは、
    前記2D入力映像で顔のランドマークを検出するステップと、
    前記検出されたランドマークに基づいて前記2D入力映像を正規化するステップと、
    を含む、請求項1ないし6のいずれか一項に記載の顔認識方法。
  9. 前記の顔認識を行うステップは、
    前記第1特徴情報及び前記第2特徴情報に基づいて最終特徴情報を決定するステップと、
    前記2D入力映像に対する最終特徴情報と予め格納された登録映像の特徴情報とを比較して顔認識結果を決定するステップと、
    を含む、請求項に記載の顔認識方法。
  10. ハードウェアに請求項1ないしのいずれか一項に記載の方法を実行させるコンピュータプログラム。
  11. 2D映像から顔のランドマークを検出するランドマーク検出器と、
    前記検出されたランドマークに基づいて個人化された3D顔モデルを生成し、前記個人化された3D顔モデルから3D形状情報を取得する3D形状情報取得器と、
    第1深さニューラルネットワークモデルを用いて前記2D映像のカラー情報から第1特徴情報を決定する第1特徴情報決定器と、
    第2深さニューラルネットワークモデルを用いて前記3D形状情報から第2特徴情報を決定する第2特徴情報決定器と、
    を備え、
    前記第1深さニューラルネットワークモデルは、前記第2深さニューラルネットワークモデルと区別される、装置。
  12. 前記第1深さニューラルネットワークモデルは、前記2D映像のカラー情報に基づいて前記映像に示された顔の様子に関する特徴を決定する、請求項11に記載の装置。
  13. 前記第2深さニューラルネットワークモデルは、前記3D形状情報に基づいて前記2D映像に示された顔の形状に関する特徴を決定する、請求項11又は12に記載の装置。
  14. 前記検出されたランドマーク及び前記個人化された3D顔モデルのうち少なくとも1つに基づいて前記映像を正規化する正規化器をさらに備える、請求項11ないし13のいずれか一項に記載の装置。
  15. 1つ以上のプロセッサと、
    前記1つ以上のプロセッサによって実行可能な命令を含むメモリを含み、
    前記1つ以上のプロセッサは前記命令を実行するとき、
    2D入力映像から個人化された3D顔モデルを生成し、
    前記個人化された3D顔モデルに基づいて正規化された2D入力映像及び3D形状情報を取得し、
    前記プロセッサは、
    第1深さニューラルネットワークモデルを用いて前記正規化された2D入力映像のカラー情報、前記個人化された3D顔モデルを用いて取得された深さ映像の深さ情報、又は前記個人化された3D顔モデルを用いて取得されたノーマル情報の少なくとも1つから第1特徴情報を決定し、
    第2深さニューラルネットワークモデルを用いて前記3D形状情報から第2特徴情報を決定し、
    前記第1特徴情報及び前記第2特徴情報を用いて顔認識を行う、
    顔認識装置。
  16. 1つ以上のプロセッサと、
    前記1つ以上のプロセッサによって実行可能なインストラクション(instructions)を含むメモリを含み、
    前記1つ以上のプロセッサは、前記インストラクションを実行するとき、2D入力映像から個人化された3D顔モデルを作成し、
    前記個人化された3D顔モデルに基づいて、正規化された2D入力映像及び3D形状情報を取得し、
    前記プロセッサは、前記個人化された3D顔モデルを用いて深さ映像を生成し、前記正規化された2D入力映像のランドマークに基づいて前記深さ映像に示された3D形状を精密化し、前記精密化された3D形状から前記3D形状情報を取得する、認識装置。
JP2016115281A 2015-06-24 2016-06-09 顔認識方法及び装置 Active JP6754619B2 (ja)

Applications Claiming Priority (4)

Application Number Priority Date Filing Date Title
KR10-2015-0089503 2015-06-24
KR20150089503 2015-06-24
KR1020150175672A KR20170000748A (ko) 2015-06-24 2015-12-10 얼굴 인식 방법 및 장치
KR10-2015-0175672 2015-12-10

Publications (2)

Publication Number Publication Date
JP2017010543A JP2017010543A (ja) 2017-01-12
JP6754619B2 true JP6754619B2 (ja) 2020-09-16

Family

ID=56194393

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2016115281A Active JP6754619B2 (ja) 2015-06-24 2016-06-09 顔認識方法及び装置

Country Status (4)

Country Link
US (1) US10331941B2 (ja)
EP (1) EP4099221B1 (ja)
JP (1) JP6754619B2 (ja)
CN (2) CN106295496B (ja)

Families Citing this family (119)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP3183689A4 (en) * 2014-08-22 2017-08-23 Microsoft Technology Licensing, LLC Face alignment with shape regression
EP3186787A1 (en) * 2014-08-29 2017-07-05 Thomson Licensing Method and device for registering an image to a model
US9111164B1 (en) 2015-01-19 2015-08-18 Snapchat, Inc. Custom functional patterns for optical barcodes
KR20170000748A (ko) * 2015-06-24 2017-01-03 삼성전자주식회사 얼굴 인식 방법 및 장치
US10275684B2 (en) * 2015-11-04 2019-04-30 Samsung Electronics Co., Ltd. Authentication method and apparatus, and method and apparatus for training a recognizer
SG10201510822YA (en) * 2015-12-31 2017-07-28 Creative Tech Ltd A method for generating a customized/personalized head related transfer function
US10805757B2 (en) 2015-12-31 2020-10-13 Creative Technology Ltd Method for generating a customized/personalized head related transfer function
SG10201800147XA (en) 2018-01-05 2019-08-27 Creative Tech Ltd A system and a processing method for customizing audio experience
US9773196B2 (en) * 2016-01-25 2017-09-26 Adobe Systems Incorporated Utilizing deep learning for automatic digital image segmentation and stylization
US9911073B1 (en) * 2016-03-18 2018-03-06 Snap Inc. Facial patterns for optical barcodes
JP6949874B2 (ja) 2016-04-19 2021-10-13 インスパイア・メディカル・システムズ・インコーポレイテッドInspire Medical Systems, Inc. 睡眠呼吸障害(sdb)のケアのための加速度計に基づく感知
US10701343B2 (en) * 2016-05-26 2020-06-30 Asustek Computer Inc. Measurement device and processor configured to execute measurement method
WO2017210419A1 (en) * 2016-06-03 2017-12-07 Magic Leaf, Inc. Augmented reality identity verification
US10521892B2 (en) * 2016-08-31 2019-12-31 Adobe Inc. Image lighting transfer via multi-dimensional histogram matching
WO2018046432A1 (en) * 2016-09-06 2018-03-15 Alcatel Lucent Method and device for image processing
WO2018126275A1 (en) * 2016-12-30 2018-07-05 Dirk Schneemann, LLC Modeling and learning character traits and medical condition based on 3d facial features
JP6987508B2 (ja) * 2017-02-20 2022-01-05 オムロン株式会社 形状推定装置及び方法
RU2647689C1 (ru) * 2017-03-01 2018-03-16 Общество с ограниченной ответственностью "Рилейшн Рейт" Способ построения портрета клиента
JP2018147286A (ja) * 2017-03-07 2018-09-20 オムロン株式会社 対象物解析装置、対象物解析方法、学習装置及び学習方法
US10146971B1 (en) 2017-03-14 2018-12-04 Snap Inc. Optical barcodes without orientation
US11010595B2 (en) 2017-03-23 2021-05-18 Samsung Electronics Co., Ltd. Facial verification method and apparatus
KR102370063B1 (ko) 2017-03-28 2022-03-04 삼성전자주식회사 얼굴 인증 방법 및 장치
CN108229276B (zh) * 2017-03-31 2020-08-11 北京市商汤科技开发有限公司 神经网络训练及图像处理方法、装置和电子设备
CN108960001B (zh) * 2017-05-17 2021-12-24 富士通株式会社 训练用于人脸识别的图像处理装置的方法和装置
CN108960020A (zh) * 2017-05-27 2018-12-07 富士通株式会社 信息处理方法和信息处理设备
US20180357819A1 (en) * 2017-06-13 2018-12-13 Fotonation Limited Method for generating a set of annotated images
US10783393B2 (en) * 2017-06-20 2020-09-22 Nvidia Corporation Semi-supervised learning for landmark localization
KR102299847B1 (ko) 2017-06-26 2021-09-08 삼성전자주식회사 얼굴 인증 방법 및 장치
WO2019000462A1 (zh) * 2017-06-30 2019-01-03 广东欧珀移动通信有限公司 人脸图像处理方法、装置、存储介质及电子设备
US10380413B2 (en) * 2017-07-13 2019-08-13 Robert Bosch Gmbh System and method for pose-invariant face alignment
CN112861760B (zh) * 2017-07-25 2024-12-27 虹软科技股份有限公司 一种用于表情识别的方法和装置
CN107423712B (zh) * 2017-07-28 2021-05-14 南京华捷艾米软件科技有限公司 一种3d人脸识别方法
WO2019027505A1 (en) * 2017-08-01 2019-02-07 Apple Inc. FACE DETECTION, ESTIMATED INSTALLATION AND ESTIMATED DISTANCE BETWEEN THE FACE AND THE SHOOTING DEVICE USING A SINGLE ARRAY
CN107480677B (zh) * 2017-08-07 2020-04-28 北京深睿博联科技有限责任公司 一种识别三维ct图像中感兴趣区域的方法及装置
US10635934B2 (en) * 2017-09-19 2020-04-28 Ramot At Tel-Aviv University Ltd. Method and system for image content recognition
CN107644209A (zh) * 2017-09-21 2018-01-30 百度在线网络技术(北京)有限公司 人脸检测方法和装置
WO2019056310A1 (en) 2017-09-22 2019-03-28 Qualcomm Incorporated SYSTEMS AND METHODS FOR DETECTING FACIAL ACTIVITY
US10579785B2 (en) * 2017-09-29 2020-03-03 General Electric Company Automatic authentification for MES system using facial recognition
CN107679501B (zh) * 2017-10-12 2021-04-30 中科视拓(北京)科技有限公司 一种基于标签自提纯的深度学习方法
CN107748869B (zh) * 2017-10-26 2021-01-22 奥比中光科技集团股份有限公司 3d人脸身份认证方法与装置
KR101992739B1 (ko) * 2017-10-30 2019-06-26 (주)한국플랫폼서비스기술 딥러닝을 이용한 암호화 방법
US11132427B2 (en) * 2017-11-20 2021-09-28 Ppip, Llc Systems and methods for biometric identity and authentication
WO2019131880A1 (ja) * 2017-12-28 2019-07-04 パナソニック インテレクチュアル プロパティ コーポレーション オブ アメリカ 符号化方法、復号方法、情報処理方法、符号化装置、復号装置、及び、情報処理システム
CN108073910B (zh) * 2017-12-29 2021-05-07 百度在线网络技术(北京)有限公司 用于生成人脸特征的方法和装置
US10390171B2 (en) 2018-01-07 2019-08-20 Creative Technology Ltd Method for generating customized spatial audio with head tracking
CN108259496B (zh) 2018-01-19 2021-06-04 北京市商汤科技开发有限公司 特效程序文件包的生成及特效生成方法与装置、电子设备
US11068141B1 (en) * 2018-02-02 2021-07-20 Snap Inc. Device-based image modification of depicted objects
US10614292B2 (en) * 2018-02-06 2020-04-07 Kneron Inc. Low-power face identification method capable of controlling power adaptively
CN112860168B (zh) 2018-02-08 2022-08-02 北京市商汤科技开发有限公司 特效程序文件包的生成及特效生成方法与装置、电子设备
US10922590B2 (en) * 2018-02-09 2021-02-16 Stmicroelectronics (Research & Development) Limited Apparatus, method and computer program for performing object recognition
US11394552B2 (en) 2018-03-07 2022-07-19 Private Identity Llc Systems and methods for privacy-enabled biometric processing
US11789699B2 (en) 2018-03-07 2023-10-17 Private Identity Llc Systems and methods for private authentication with helper networks
US11392802B2 (en) * 2018-03-07 2022-07-19 Private Identity Llc Systems and methods for privacy-enabled biometric processing
US11489866B2 (en) 2018-03-07 2022-11-01 Private Identity Llc Systems and methods for private authentication with helper networks
US11265168B2 (en) * 2018-03-07 2022-03-01 Private Identity Llc Systems and methods for privacy-enabled biometric processing
US11138333B2 (en) 2018-03-07 2021-10-05 Private Identity Llc Systems and methods for privacy-enabled biometric processing
US11170084B2 (en) 2018-06-28 2021-11-09 Private Identity Llc Biometric authentication
US10938852B1 (en) 2020-08-14 2021-03-02 Private Identity Llc Systems and methods for private authentication with helper networks
US11502841B2 (en) 2018-03-07 2022-11-15 Private Identity Llc Systems and methods for privacy-enabled biometric processing
US11210375B2 (en) * 2018-03-07 2021-12-28 Private Identity Llc Systems and methods for biometric processing with liveness
US10721070B2 (en) 2018-03-07 2020-07-21 Private Identity Llc Systems and methods for privacy-enabled biometric processing
CN108509862B (zh) * 2018-03-09 2022-03-25 华南理工大学 抗角度与遮挡干扰的快速人脸识别方法
CN108389172B (zh) * 2018-03-21 2020-12-18 百度在线网络技术(北京)有限公司 用于生成信息的方法和装置
US11106896B2 (en) * 2018-03-26 2021-08-31 Intel Corporation Methods and apparatus for multi-task recognition using neural networks
CN108510437B (zh) * 2018-04-04 2022-05-17 科大讯飞股份有限公司 一种虚拟形象生成方法、装置、设备以及可读存储介质
KR102042078B1 (ko) * 2018-04-25 2019-11-27 광주과학기술원 뉴럴 네트워크를 이용한 3차원 형상 복원 시스템의 동작 방법
US11361191B2 (en) 2018-05-22 2022-06-14 Ebay Inc. Adversarial learning for finegrained image search
CN109064549B (zh) * 2018-07-16 2023-04-07 中南大学 标志点检测模型生成方法及标志点检测方法
CN108960841A (zh) * 2018-07-16 2018-12-07 阿里巴巴集团控股有限公司 支付方法、装置及系统
US10832036B2 (en) * 2018-07-16 2020-11-10 Adobe Inc. Meta-learning for facial recognition
CN109147048B (zh) * 2018-07-23 2021-02-26 复旦大学 一种利用单张彩色图的三维网格重建方法
CN109118579A (zh) * 2018-08-03 2019-01-01 北京微播视界科技有限公司 动态生成人脸三维模型的方法、装置、电子设备
CN110866864B (zh) 2018-08-27 2024-10-22 阿里巴巴华东有限公司 人脸姿态估计/三维人脸重构方法、装置及电子设备
US10783704B2 (en) * 2018-09-27 2020-09-22 Disney Enterprises, Inc. Dense reconstruction for narrow baseline motion observations
JP7269711B2 (ja) 2018-10-03 2023-05-09 株式会社日立製作所 生体認証システム、生体認証方法およびプログラム
US11503423B2 (en) 2018-10-25 2022-11-15 Creative Technology Ltd Systems and methods for modifying room characteristics for spatial audio rendering over headphones
RU2697646C1 (ru) 2018-10-26 2019-08-15 Самсунг Электроникс Ко., Лтд. Способ биометрической аутентификации пользователя и вычислительное устройство, реализующее упомянутый способ
WO2020085632A1 (ko) * 2018-10-26 2020-04-30 삼성전자 주식회사 생체 인식 기반의 사용자 인증 방법 및 장치
TWI712002B (zh) * 2018-11-27 2020-12-01 國立交通大學 三維人臉重建方法
US10966046B2 (en) 2018-12-07 2021-03-30 Creative Technology Ltd Spatial repositioning of multiple audio streams
US11418903B2 (en) 2018-12-07 2022-08-16 Creative Technology Ltd Spatial repositioning of multiple audio streams
RU2703327C1 (ru) * 2018-12-10 2019-10-16 Самсунг Электроникс Ко., Лтд. Способ обработки двухмерного изображения и реализующее его вычислительное устройство пользователя
US11893681B2 (en) 2018-12-10 2024-02-06 Samsung Electronics Co., Ltd. Method for processing two-dimensional image and device for executing method
CN109584347B (zh) * 2018-12-18 2023-02-21 重庆邮电大学 一种基于主动表观模型的增强现实虚实遮挡处理方法
EP3674974B1 (en) * 2018-12-31 2024-10-09 Samsung Electronics Co., Ltd. Apparatus and method with user verification
US10373317B1 (en) * 2019-01-22 2019-08-06 StradVision, Inc. Learning method and learning device for attention-driven image segmentation by using at least one adaptive loss weight map to be used for updating HD maps required to satisfy level 4 of autonomous vehicles and testing method and testing device using the same
CN109948467A (zh) * 2019-02-28 2019-06-28 中国科学院深圳先进技术研究院 人脸识别的方法、装置、计算机设备和存储介质
US10872258B2 (en) 2019-03-15 2020-12-22 Huawei Technologies Co., Ltd. Adaptive image cropping for face recognition
KR102796793B1 (ko) * 2019-03-15 2025-04-16 삼성전자주식회사 변환 모델을 이용한 인증 방법 및 장치
US11221820B2 (en) 2019-03-20 2022-01-11 Creative Technology Ltd System and method for processing audio between multiple audio spaces
WO2020194792A1 (ja) * 2019-03-26 2020-10-01 日本電信電話株式会社 検索装置、学習装置、検索方法、学習方法及びプログラム
CN113808061B (zh) * 2019-04-28 2024-11-22 深圳市商汤科技有限公司 一种图像处理方法及装置
US11080884B2 (en) * 2019-05-15 2021-08-03 Matterport, Inc. Point tracking using a trained network
KR102241153B1 (ko) * 2019-07-01 2021-04-19 주식회사 시어스랩 2차원 이미지로부터 3차원 아바타를 생성하는 방법, 장치 및 시스템
CN110414370B (zh) * 2019-07-05 2021-09-14 深圳云天励飞技术有限公司 人脸脸型识别方法、装置、电子设备及存储介质
CN110490076B (zh) * 2019-07-18 2024-03-01 平安科技(深圳)有限公司 活体检测方法、装置、计算机设备和存储介质
US10853631B2 (en) 2019-07-24 2020-12-01 Advanced New Technologies Co., Ltd. Face verification method and apparatus, server and readable storage medium
JP7586893B2 (ja) 2019-07-25 2024-11-19 インスパイア・メディカル・システムズ・インコーポレイテッド 呼吸検出
AU2020315918B2 (en) 2019-07-25 2025-09-18 Inspire Medical Systems, Inc. Systems and methods for operating an implantable medical device based upon sensed posture information
US11568239B2 (en) * 2019-08-13 2023-01-31 Lg Electronics Inc. Artificial intelligence server and method for providing information to user
KR102770795B1 (ko) * 2019-09-09 2025-02-21 삼성전자주식회사 3d 렌더링 방법 및 장치
US11948076B2 (en) * 2019-10-25 2024-04-02 Sony Group Corporation Media rendering device control based on trained network model
CN110991281B (zh) * 2019-11-21 2022-11-04 电子科技大学 一种动态人脸识别方法
CN111079659A (zh) * 2019-12-19 2020-04-28 武汉水象电子科技有限公司 人脸特征点定位方法
CN111274916B (zh) 2020-01-16 2024-02-02 华为技术有限公司 人脸识别方法和人脸识别装置
CN111291885B (zh) * 2020-01-20 2023-06-09 北京百度网讯科技有限公司 近红外图像的生成方法、生成网络的训练方法和装置
CN111327888B (zh) * 2020-03-04 2022-09-30 广州腾讯科技有限公司 摄像头控制方法、装置、计算机设备和存储介质
US11625843B2 (en) * 2020-06-24 2023-04-11 Bluebeam, Inc. Systems and methods for automatic alignment of drawings
US11275959B2 (en) * 2020-07-07 2022-03-15 Assa Abloy Ab Systems and methods for enrollment in a multispectral stereo facial recognition system
CN112001914B (zh) * 2020-08-31 2024-03-01 三星(中国)半导体有限公司 深度图像补全的方法和装置
KR20220085635A (ko) * 2020-12-15 2022-06-22 삼성전자주식회사 영상 처리 방법 및 장치
KR20220086049A (ko) * 2020-12-16 2022-06-23 삼성전자주식회사 영상 처리 방법, 영상 처리 장치, 및 영상 처리를 위한 트레이닝 방법
GB202100314D0 (en) * 2021-01-11 2021-02-24 Cubitts Kx Ltd Frame adjustment systems
US11907346B1 (en) 2021-01-15 2024-02-20 Wells Fargo Bank, N.A. Facial feature analysis for authentication
US11921831B2 (en) 2021-03-12 2024-03-05 Intellivision Technologies Corp Enrollment system with continuous learning and confirmation
US12243349B2 (en) 2021-03-17 2025-03-04 Disney Enterprises, Inc. Face reconstruction using a mesh convolution network
CN112966670A (zh) * 2021-04-08 2021-06-15 北京的卢深视科技有限公司 人脸识别方法、电子设备及存储介质
US12190450B2 (en) * 2022-12-28 2025-01-07 De-Identification Ltd. System and method for reconstruction of a three-dimensional human head model from a single image
CN118470218B (zh) * 2023-07-10 2024-11-22 浙江凌迪数字科技有限公司 一种个性化定制出图方法及系统

Family Cites Families (17)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005316888A (ja) * 2004-04-30 2005-11-10 Japan Science & Technology Agency 顔認識システム
US20070080967A1 (en) * 2005-10-11 2007-04-12 Animetrics Inc. Generation of normalized 2D imagery and ID systems via 2D to 3D lifting of multifeatured objects
ATE497218T1 (de) 2006-06-12 2011-02-15 Tessera Tech Ireland Ltd Fortschritte bei der erweiterung der aam- techniken aus grauskalen- zu farbbildern
KR100955255B1 (ko) 2008-04-10 2010-04-30 연세대학교 산학협력단 얼굴 인식 장치 및 그 방법, 얼굴의 내외적 환경 변화 정도추정 방법
CN101339607B (zh) * 2008-08-15 2012-08-01 北京中星微电子有限公司 人脸识别方法及系统、人脸识别模型训练方法及系统
KR101105435B1 (ko) 2009-04-14 2012-01-17 경북대학교 산학협력단 얼굴 검출과 얼굴 인지 방법
US8406483B2 (en) 2009-06-26 2013-03-26 Microsoft Corporation Boosted face verification
US8570343B2 (en) * 2010-04-20 2013-10-29 Dassault Systemes Automatic generation of 3D models from packaged goods product images
US8593452B2 (en) * 2011-12-20 2013-11-26 Apple Inc. Face feature vector construction
CN102799872B (zh) * 2012-07-17 2015-04-29 西安交通大学 基于面部图像特征的图像处理方法
KR102047725B1 (ko) * 2012-12-31 2019-11-22 엘지디스플레이 주식회사 얼굴 인식 시스템 및 그 방법
US20140341443A1 (en) 2013-05-16 2014-11-20 Microsoft Corporation Joint modeling for facial recognition
US9881203B2 (en) * 2013-08-29 2018-01-30 Nec Corporation Image processing device, image processing method, and program
US10095917B2 (en) * 2013-11-04 2018-10-09 Facebook, Inc. Systems and methods for facial representation
US9449432B2 (en) * 2013-12-19 2016-09-20 Avigilon Fortress Corporation System and method for identifying faces in unconstrained media
CN103984920B (zh) * 2014-04-25 2017-04-12 同济大学 一种基于稀疏表示与多特征点的三维人脸识别方法
CN104598878A (zh) * 2015-01-07 2015-05-06 深圳市唯特视科技有限公司 基于灰度和深度信息的多层融合的多模态人脸识别装置及方法

Also Published As

Publication number Publication date
CN106295496A (zh) 2017-01-04
US20160379041A1 (en) 2016-12-29
CN106295496B (zh) 2021-09-14
EP4099221B1 (en) 2025-01-29
JP2017010543A (ja) 2017-01-12
CN113743321B (zh) 2024-07-16
CN113743321A (zh) 2021-12-03
EP4099221A1 (en) 2022-12-07
US10331941B2 (en) 2019-06-25

Similar Documents

Publication Publication Date Title
JP6754619B2 (ja) 顔認識方法及び装置
US11386701B2 (en) Face recognition method and apparatus
KR102734298B1 (ko) 객체 인식 방법 및 장치, 및 인식기 학습 방법 및 장치
JP6411510B2 (ja) 無制約の媒体内の顔を識別するシステムおよび方法
US8837786B2 (en) Face recognition apparatus and method
KR101997500B1 (ko) 개인화된 3d 얼굴 모델 생성 방법 및 장치
CN115050064B (zh) 人脸活体检测方法、装置、设备及介质
KR102252439B1 (ko) 이미지에서 오브젝트 검출 및 표현
CN111382666B (zh) 具有用户验证的设备和方法
CN108090408A (zh) 用于执行脸部表情识别和训练的方法和设备
US20120219213A1 (en) Embedded Optical Flow Features
KR20200029659A (ko) 얼굴 인식 방법 및 장치
CN106897675A (zh) 双目视觉深度特征与表观特征相结合的人脸活体检测方法
KR20160061856A (ko) 객체 인식 방법 및 장치, 및 인식기 학습 방법 및 장치
US12147519B2 (en) User authentication based on three-dimensional face modeling using partial face images
CN113591763B (zh) 人脸脸型的分类识别方法、装置、存储介质及计算机设备
Neverova Deep learning for human motion analysis
KR20210071410A (ko) 센서 특화 이미지 인식 장치 및 방법
KR20230105986A (ko) 라이브니스 검사 방법 및 라이브니스 검사 장치
KR20230072851A (ko) 표정 분류를 위한 랜드마크 기반의 앙상블 네트워크 생성 방법 및 생성된 앙상블 네트워크를 이용한 표정 분류 방법.
KR102160955B1 (ko) 딥 러닝 기반 3d 데이터 생성 방법 및 장치
CN113221799B (zh) 一种多头部姿态人脸表情识别方法及其应用
Bonkra et al. An innovative new open computer vision framework via artificial intelligence with python
KR102751318B1 (ko) 실시간 운동 자세 교정 시스템 및 방법
Bhanu Ear Shape for Biometric Identification

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20190219

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20200309

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20200414

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20200710

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20200818

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20200824

R150 Certificate of patent or registration of utility model

Ref document number: 6754619

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250