JP2025511766A - 顔のライブネス検出 - Google Patents
顔のライブネス検出 Download PDFInfo
- Publication number
- JP2025511766A JP2025511766A JP2024559228A JP2024559228A JP2025511766A JP 2025511766 A JP2025511766 A JP 2025511766A JP 2024559228 A JP2024559228 A JP 2024559228A JP 2024559228 A JP2024559228 A JP 2024559228A JP 2025511766 A JP2025511766 A JP 2025511766A
- Authority
- JP
- Japan
- Prior art keywords
- live
- classifier
- echo
- features
- computer
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Classifications
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01S—RADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
- G01S15/00—Systems using the reflection or reradiation of acoustic waves, e.g. sonar systems
- G01S15/02—Systems using the reflection or reradiation of acoustic waves, e.g. sonar systems using reflection of acoustic waves
- G01S15/06—Systems determining the position data of a target
- G01S15/08—Systems for measuring distance only
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01S—RADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
- G01S15/00—Systems using the reflection or reradiation of acoustic waves, e.g. sonar systems
- G01S15/88—Sonar systems specially adapted for specific applications
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01S—RADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
- G01S7/00—Details of systems according to groups G01S13/00, G01S15/00, G01S17/00
- G01S7/52—Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S15/00
- G01S7/539—Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S15/00 using analysis of echo signal for target characterisation; Target signature; Target cross-section
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01S—RADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
- G01S7/00—Details of systems according to groups G01S13/00, G01S15/00, G01S17/00
- G01S7/52—Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S15/00
- G01S7/54—Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S15/00 with receivers spaced apart
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/24—Classification techniques
- G06F18/241—Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches
- G06F18/2413—Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches based on distances to training or reference patterns
- G06F18/24133—Distances to prototypes
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F21/00—Security arrangements for protecting computers, components thereof, programs or data against unauthorised activity
- G06F21/30—Authentication, i.e. establishing the identity or authorisation of security principals
- G06F21/31—User authentication
- G06F21/32—User authentication using biometric data, e.g. fingerprints, iris scans or voiceprints
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/0464—Convolutional networks [CNN, ConvNet]
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
- G06N3/084—Backpropagation, e.g. using gradient descent
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
- G06N3/09—Supervised learning
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/50—Depth or shape recovery
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/82—Arrangements for image or video recognition or understanding using pattern recognition or machine learning using neural networks
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/16—Human faces, e.g. facial parts, sketches or expressions
- G06V40/172—Classification, e.g. identification
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/40—Spoof detection, e.g. liveness detection
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04R—LOUDSPEAKERS, MICROPHONES, GRAMOPHONE PICK-UPS OR LIKE ACOUSTIC ELECTROMECHANICAL TRANSDUCERS; DEAF-AID SETS; PUBLIC ADDRESS SYSTEMS
- H04R3/00—Circuits for transducers, loudspeakers or microphones
- H04R3/12—Circuits for transducers, loudspeakers or microphones for distributing signals to two or more loudspeakers
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10132—Ultrasound image
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- General Physics & Mathematics (AREA)
- General Health & Medical Sciences (AREA)
- Remote Sensing (AREA)
- Radar, Positioning & Navigation (AREA)
- Health & Medical Sciences (AREA)
- Software Systems (AREA)
- Evolutionary Computation (AREA)
- General Engineering & Computer Science (AREA)
- Artificial Intelligence (AREA)
- Multimedia (AREA)
- Data Mining & Analysis (AREA)
- Computer Security & Cryptography (AREA)
- Computing Systems (AREA)
- Computer Networks & Wireless Communication (AREA)
- Life Sciences & Earth Sciences (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Human Computer Interaction (AREA)
- Acoustics & Sound (AREA)
- Molecular Biology (AREA)
- Mathematical Physics (AREA)
- Computational Linguistics (AREA)
- Biophysics (AREA)
- Biomedical Technology (AREA)
- Computer Hardware Design (AREA)
- Signal Processing (AREA)
- Medical Informatics (AREA)
- Databases & Information Systems (AREA)
- Oral & Maxillofacial Surgery (AREA)
- Otolaryngology (AREA)
- Evolutionary Biology (AREA)
- Bioinformatics & Computational Biology (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Collating Specific Patterns (AREA)
- Measurement Of The Respiration, Hearing Ability, Form, And Blood Characteristics Of Living Organisms (AREA)
Abstract
Description
スピーカを介して極超短波(UHF)音声信号を放出することと、
複数の音声検出器を用いて表面からの前記UHF音声信号の反射を検出することによってエコー信号を取得することと、
前記エコー信号から複数の特徴量を抽出することと、
前記複数の特徴量に分類器を適用して、前記表面がライブの顔であるか否かを判定することと
を含む動作をコンピュータに実行させる、前記コンピュータによって実行可能な指示を含む、コンピュータ可読媒体。
前記エコー信号から前記複数の特徴量を抽出することが、前記エコー信号にニューラルネットワークを適用して特徴ベクトルを取得することを含み、前記ニューラルネットワークが、エコー信号サンプルをライブまたは非ライブとして分類するために、分類層とともに訓練されていて、
前記分類器を適用することが、前記特徴ベクトルに前記分類層を適用することを含む、
付記1に記載のコンピュータ可読媒体。
各々がライブまたは非ライブとラベル付けされている複数のエコー信号サンプルを使用して前記分類層とともに前記ニューラルネットワークを訓練すること
をさらに含み、
前記訓練することが、出力された分類と対応するラベルとの比較に基づいて、前記ニューラルネットワークおよび前記分類層のパラメータを調整することを含む、付記2に記載のコンピュータ可読媒体。
前記エコー信号から前記複数の特徴量を抽出することが、
前記エコー信号から前記表面の深度を推定することと、
前記エコー信号から前記表面の減衰係数を決定することと、
前記エコー信号から前記表面の後方散乱係数を推定することと、
前記エコー信号にニューラルネットワークを適用して特徴ベクトルを取得することと、を含み、前記ニューラルネットワークが、エコー信号サンプルをライブまたは非ライブとして分類するために、分類層とともに訓練されていて、
前記分類器を適用することが、前記特徴ベクトル、前記深度、前記減衰係数、および前記後方散乱係数に前記分類器を適用することを含み、前記分類器が、エコー信号抽出特徴量サンプルをライブまたは非ライブとして分類するように訓練されている、
付記1に記載のコンピュータ可読媒体。
各々がライブまたは非ライブとラベル付けされている複数のエコー信号抽出特徴量サンプルを使用して前記分類器において前記ニューラルネットワークを訓練すること
をさらに含み、
前記訓練することが、出力された分類と対応するラベルとの比較に基づいて、前記ニューラルネットワークおよび前記分類器のパラメータを調整することを含む、付記4に記載のコンピュータ可読媒体。
前記エコー信号から前記複数の特徴量を抽出することが、前記エコー信号から前記表面の深度を推定することを含み、
前記分類器を適用することが、前記深度を深度閾値と比較することを含む、
付記1に記載のコンピュータ可読媒体。
前記エコー信号から前記複数の特徴量を抽出することが、前記エコー信号から前記表面の減衰係数を決定することを含み、
前記分類器を適用することが、前記減衰係数を減衰係数閾値範囲と比較することを含む、
付記1に記載のコンピュータ可読媒体。
前記エコー信号から前記複数の特徴量を抽出することが、前記エコー信号から前記表面の後方散乱係数を推定することを含み、
前記分類器を適用することが、前記後方散乱係数を後方散乱係数閾値範囲と比較することを含む、
付記1に記載のコンピュータ可読媒体。
前記複数の音声検出器が、第1の方向に向けられた第1の音声検出器と、第2の方向に向けられた第2の音声検出器とを含む、付記1に記載のコンピュータ可読媒体。
前記複数の音声検出器が複数のマイクロフォンを含み、
前記スピーカおよび前記複数のマイクロフォンが、ハンドヘルドデバイスに含まれる、付記1に記載のコンピュータ可読媒体。
前記ハンドヘルドデバイスがカメラをさらに含み、
前記UHF音声信号が、前記カメラによる顔の検出に応じて放出される、
付記10に記載のコンピュータ可読媒体。
前記UHF音声信号が18~22kHzである、付記1に記載のコンピュータ可読媒体。
前記UHF音声信号が実質的に不可聴である、付記1に記載のコンピュータ可読媒体。
前記UHF音声信号が、正弦波および鋸歯状波を含む、付記1に記載のコンピュータ可読媒体。
カメラを用いて前記表面を撮像して表面画像を取得することと、
前記表面画像を分析して、前記表面が顔であるか否かを判定することと、
前記表面が顔であると判定しまた前記表面がライブの顔であると判定したことに応じて、前記表面画像を分析することによって前記表面を識別することと、
前記表面を許可されたユーザとして識別したことに応じて、デバイスまたはサービスのうちの少なくとも一方へのアクセスを許可することと
をさらに含む、付記1に記載のコンピュータ可読媒体。
前記エコー信号を取得することが、
前記UHF音声信号の前記反射を時間フィルタで分離することと、
前記複数の音声検出器の各音声検出器の検出と前記放出されたUHF音声信号とを比較することによって前記UHF音声信号の前記反射から雑音を除去することと
を含む、付記1に記載のコンピュータ可読媒体。
スピーカを介して極超短波(UHF)音声信号を放出することと、
複数の音声検出器を用いて表面からの前記UHF音声信号の反射を検出することによってエコー信号を取得することと、
前記エコー信号から複数の特徴量を抽出することと、
前記複数の特徴量に分類器を適用して、前記表面がライブの顔であるか否かを判定することと
を含む、方法。
前記エコー信号から前記複数の特徴量を抽出することが、前記エコー信号にニューラルネットワークを適用して特徴ベクトルを取得することを含み、前記ニューラルネットワークが、エコー信号サンプルをライブまたは非ライブとして分類するために、分類層とともに訓練されていて、
前記分類器を適用することが、前記特徴ベクトルに前記分類層を適用することを含む、
付記17に記載の方法。
複数の音声検出器と、
スピーカと、
前記スピーカを介して極超短波(UHF)音声信号を放出し、
複数の音声検出器を用いて表面からの前記UHF音声信号の反射を検出することによってエコー信号を取得し、
前記エコー信号から複数の特徴量を抽出し、
前記複数の特徴量に分類器を適用して、前記表面がライブの顔であるか否かを判定する
ように構成された回路を含むコントローラと
を備える、装置。
前記エコー信号から前記複数の特徴量を抽出するように構成された前記回路が、前記エコー信号にニューラルネットワークを適用して特徴ベクトルを取得することを含み、前記ニューラルネットワークが、エコー信号サンプルをライブまたは非ライブとして分類するために、分類層とともに訓練されていて、
前記分類器を適用するように構成された前記回路が、前記特徴ベクトルに前記分類層を適用するようにさらに構成される、
付記19に記載の装置。
Claims (20)
- スピーカを介して極超短波(UHF)音声信号を放出することと、
複数の音声検出器を用いて表面からの前記UHF音声信号の反射を検出することによってエコー信号を取得することと、
前記エコー信号から複数の特徴量を抽出することと、
前記複数の特徴量に分類器を適用して、前記表面がライブの顔であるか否かを判定することと
を含む動作をコンピュータに実行させる、前記コンピュータによって実行可能な指示を含む、コンピュータ可読媒体。 - 前記エコー信号から前記複数の特徴量を抽出することが、前記エコー信号にニューラルネットワークを適用して特徴ベクトルを取得することを含み、前記ニューラルネットワークが、エコー信号サンプルをライブまたは非ライブとして分類するために、分類層とともに訓練されていて、
前記分類器を適用することが、前記特徴ベクトルに前記分類層を適用することを含む、
請求項1に記載のコンピュータ可読媒体。 - 各々がライブまたは非ライブとラベル付けされている複数のエコー信号サンプルを使用して前記分類層とともに前記ニューラルネットワークを訓練すること
をさらに含み、
前記訓練することが、出力された分類と対応するラベルとの比較に基づいて、前記ニューラルネットワークおよび前記分類層のパラメータを調整することを含む、請求項2に記載のコンピュータ可読媒体。 - 前記エコー信号から前記複数の特徴量を抽出することが、
前記エコー信号から前記表面の深度を推定することと、
前記エコー信号から前記表面の減衰係数を決定することと、
前記エコー信号から前記表面の後方散乱係数を推定することと、
前記エコー信号にニューラルネットワークを適用して特徴ベクトルを取得することと、を含み、前記ニューラルネットワークが、エコー信号サンプルをライブまたは非ライブとして分類するために、分類層とともに訓練されていて、
前記分類器を適用することが、前記特徴ベクトル、前記深度、前記減衰係数、および前記後方散乱係数に前記分類器を適用することを含み、前記分類器が、エコー信号抽出特徴量サンプルをライブまたは非ライブとして分類するように訓練されている、
請求項1に記載のコンピュータ可読媒体。 - 各々がライブまたは非ライブとラベル付けされている複数のエコー信号抽出特徴量サンプルを使用して前記分類器において前記ニューラルネットワークを訓練すること
をさらに含み、
前記訓練することが、出力された分類と対応するラベルとの比較に基づいて、前記ニューラルネットワークおよび前記分類器のパラメータを調整することを含む、請求項4に記載のコンピュータ可読媒体。 - 前記エコー信号から前記複数の特徴量を抽出することが、前記エコー信号から前記表面の深度を推定することを含み、
前記分類器を適用することが、前記深度を深度閾値と比較することを含む、
請求項1に記載のコンピュータ可読媒体。 - 前記エコー信号から前記複数の特徴量を抽出することが、前記エコー信号から前記表面の減衰係数を決定することを含み、
前記分類器を適用することが、前記減衰係数を減衰係数閾値範囲と比較することを含む、
請求項1に記載のコンピュータ可読媒体。 - 前記エコー信号から前記複数の特徴量を抽出することが、前記エコー信号から前記表面の後方散乱係数を推定することを含み、
前記分類器を適用することが、前記後方散乱係数を後方散乱係数閾値範囲と比較することを含む、
請求項1に記載のコンピュータ可読媒体。 - 前記複数の音声検出器が、第1の方向に向けられた第1の音声検出器と、第2の方向に向けられた第2の音声検出器とを含む、請求項1に記載のコンピュータ可読媒体。
- 前記複数の音声検出器が複数のマイクロフォンを含み、
前記スピーカおよび前記複数のマイクロフォンが、ハンドヘルドデバイスに含まれる、請求項1に記載のコンピュータ可読媒体。 - 前記ハンドヘルドデバイスがカメラをさらに含み、
前記UHF音声信号が、前記カメラによる顔の検出に応じて放出される、
請求項10に記載のコンピュータ可読媒体。 - 前記UHF音声信号が18~22kHzである、請求項1に記載のコンピュータ可読媒体。
- 前記UHF音声信号が実質的に不可聴である、請求項1に記載のコンピュータ可読媒体。
- 前記UHF音声信号が、正弦波および鋸歯状波を含む、請求項1に記載のコンピュータ可読媒体。
- カメラを用いて前記表面を撮像して表面画像を取得することと、
前記表面画像を分析して、前記表面が顔であるか否かを判定することと、
前記表面が顔であると判定しまた前記表面がライブの顔であると判定したことに応じて、前記表面画像を分析することによって前記表面を識別することと、
前記表面を許可されたユーザとして識別したことに応じて、デバイスまたはサービスのうちの少なくとも一方へのアクセスを許可することと
をさらに含む、請求項1に記載のコンピュータ可読媒体。 - 前記エコー信号を取得することが、
前記UHF音声信号の前記反射を時間フィルタで分離することと、
前記複数の音声検出器の各音声検出器の検出と前記放出されたUHF音声信号とを比較することによって前記UHF音声信号の前記反射から雑音を除去することと
を含む、請求項1に記載のコンピュータ可読媒体。 - スピーカを介して極超短波(UHF)音声信号を放出することと、
複数の音声検出器を用いて表面からの前記UHF音声信号の反射を検出することによってエコー信号を取得することと、
前記エコー信号から複数の特徴量を抽出することと、
前記複数の特徴量に分類器を適用して、前記表面がライブの顔であるか否かを判定することと
を含む、方法。 - 前記エコー信号から前記複数の特徴量を抽出することが、前記エコー信号にニューラルネットワークを適用して特徴ベクトルを取得することを含み、前記ニューラルネットワークが、エコー信号サンプルをライブまたは非ライブとして分類するために、分類層とともに訓練されていて、
前記分類器を適用することが、前記特徴ベクトルに前記分類層を適用することを含む、
請求項17に記載の方法。 - 複数の音声検出器と、
スピーカと、
前記スピーカを介して極超短波(UHF)音声信号を放出し、
複数の音声検出器を用いて表面からの前記UHF音声信号の反射を検出することによってエコー信号を取得し、
前記エコー信号から複数の特徴量を抽出し、
前記複数の特徴量に分類器を適用して、前記表面がライブの顔であるか否かを判定する
ように構成された回路を含むコントローラと
を備える、装置。 - 前記エコー信号から前記複数の特徴量を抽出するように構成された前記回路が、前記エコー信号にニューラルネットワークを適用して特徴ベクトルを取得することを含み、前記ニューラルネットワークが、エコー信号サンプルをライブまたは非ライブとして分類するために、分類層とともに訓練されていて、
前記分類器を適用するように構成された前記回路が、前記特徴ベクトルに前記分類層を適用するようにさらに構成される、
請求項19に記載の装置。
Applications Claiming Priority (3)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| US17/720,225 US20230334911A1 (en) | 2022-04-13 | 2022-04-13 | Face liveness detection |
| US17/720,225 | 2022-04-13 | ||
| PCT/JP2023/002656 WO2023199571A1 (en) | 2022-04-13 | 2023-01-27 | Face liveness detection |
Publications (1)
| Publication Number | Publication Date |
|---|---|
| JP2025511766A true JP2025511766A (ja) | 2025-04-16 |
Family
ID=88308218
Family Applications (1)
| Application Number | Title | Priority Date | Filing Date |
|---|---|---|---|
| JP2024559228A Pending JP2025511766A (ja) | 2022-04-13 | 2023-01-27 | 顔のライブネス検出 |
Country Status (3)
| Country | Link |
|---|---|
| US (1) | US20230334911A1 (ja) |
| JP (1) | JP2025511766A (ja) |
| WO (1) | WO2023199571A1 (ja) |
Families Citing this family (2)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| EP3936891A1 (en) * | 2020-07-10 | 2022-01-12 | Supersonic Imagine | Method and system for estimating an ultrasound attenuation parameter |
| CN117572379B (zh) * | 2024-01-17 | 2024-04-12 | 厦门中为科学仪器有限公司 | 一种基于cnn-cbam收缩二分类网络的雷达信号处理方法 |
Citations (4)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| JP2018524072A (ja) * | 2015-06-16 | 2018-08-30 | アイベリファイ インコーポレイテッド | スプーフ検出およびライブネス分析のためのシステムおよび方法 |
| WO2018198310A1 (ja) * | 2017-04-28 | 2018-11-01 | 日本電気株式会社 | 個人認証装置、個人認証方法および記録媒体 |
| CN113100734A (zh) * | 2021-04-15 | 2021-07-13 | 深圳前海微众银行股份有限公司 | 活体检测方法、设备、介质及计算机程序产品 |
| CN113506652A (zh) * | 2021-06-03 | 2021-10-15 | 李孟 | 一种基于电网输电的自硬式防断电缆 |
Family Cites Families (12)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| US10042038B1 (en) * | 2015-09-01 | 2018-08-07 | Digimarc Corporation | Mobile devices and methods employing acoustic vector sensors |
| KR102647218B1 (ko) * | 2016-09-19 | 2024-03-12 | 레스메드 센서 테크놀로지스 리미티드 | 오디오 신호 및 다중 신호로부터 생리학적 운동을 검출하는 장치, 시스템 및 방법 |
| US11315375B2 (en) * | 2017-03-31 | 2022-04-26 | Nec Corporation | Facial authentication system, apparatus, method and program |
| NO347923B1 (en) * | 2017-09-15 | 2024-05-13 | Elliptic Laboratories Asa | User Authentication Control |
| US11513205B2 (en) * | 2017-10-30 | 2022-11-29 | The Research Foundation For The State University Of New York | System and method associated with user authentication based on an acoustic-based echo-signature |
| WO2019236588A1 (en) * | 2018-06-04 | 2019-12-12 | The Research Foundation For The State University Of New York | System and method associated with expedient determination of location of one or more object(s) within a bounded perimeter of 3d space based on mapping and navigation to a precise poi destination using a smart laser pointer device |
| US11207055B2 (en) * | 2018-10-08 | 2021-12-28 | General Electric Company | Ultrasound Cardiac Doppler study automation |
| US11550031B2 (en) * | 2019-03-18 | 2023-01-10 | Samsung Electronics Co., Ltd. | Method and apparatus for biometric authentication using face radar signal |
| JP7389392B2 (ja) * | 2020-09-17 | 2023-11-30 | 富士通株式会社 | 顔認証方法、顔認証プログラム、および顔認証装置 |
| CN113657293B (zh) * | 2021-08-19 | 2023-11-24 | 北京神州新桥科技有限公司 | 活体检测方法、装置、电子设备、介质及程序产品 |
| EP4405711A1 (en) * | 2021-10-26 | 2024-07-31 | Google LLC | Face authentication anti-spoofing using interferometry-based coherence |
| WO2023075751A1 (en) * | 2021-10-26 | 2023-05-04 | Google Llc | Face authentication anti-spoofing using ultrasound |
-
2022
- 2022-04-13 US US17/720,225 patent/US20230334911A1/en not_active Abandoned
-
2023
- 2023-01-27 JP JP2024559228A patent/JP2025511766A/ja active Pending
- 2023-01-27 WO PCT/JP2023/002656 patent/WO2023199571A1/en not_active Ceased
Patent Citations (4)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| JP2018524072A (ja) * | 2015-06-16 | 2018-08-30 | アイベリファイ インコーポレイテッド | スプーフ検出およびライブネス分析のためのシステムおよび方法 |
| WO2018198310A1 (ja) * | 2017-04-28 | 2018-11-01 | 日本電気株式会社 | 個人認証装置、個人認証方法および記録媒体 |
| CN113100734A (zh) * | 2021-04-15 | 2021-07-13 | 深圳前海微众银行股份有限公司 | 活体检测方法、设备、介质及计算机程序产品 |
| CN113506652A (zh) * | 2021-06-03 | 2021-10-15 | 李孟 | 一种基于电网输电的自硬式防断电缆 |
Also Published As
| Publication number | Publication date |
|---|---|
| US20230334911A1 (en) | 2023-10-19 |
| WO2023199571A1 (en) | 2023-10-19 |
Similar Documents
| Publication | Publication Date | Title |
|---|---|---|
| Nassi et al. | Lamphone: Real-time passive sound recovery from light bulb vibrations | |
| KR102061434B1 (ko) | 스푸프 검출 및 라이브니스 분석을 위한 시스템들 및 방법들 | |
| Meng et al. | Wivo: Enhancing the security of voice control system via wireless signal in iot environment | |
| WO2023199571A1 (en) | Face liveness detection | |
| Xie et al. | TeethPass: Dental occlusion-based user authentication via in-ear acoustic sensing | |
| Rathore et al. | SonicPrint: A generally adoptable and secure fingerprint biometrics in smart devices | |
| Meng et al. | Liveness detection for voice user interface via wireless signals in IoT environment | |
| HK1251691A1 (en) | Systems and methods for spoof detection and liveness analysis | |
| Lu et al. | Vocallock: Sensing vocal tract for passphrase-independent user authentication leveraging acoustic signals on smartphones | |
| Zhou et al. | Multi-modal face authentication using deep visual and acoustic features | |
| Chen et al. | ChestLive: Fortifying voice-based authentication with chest motion biometric on smart devices | |
| Shang et al. | Voice liveness detection for voice assistants using ear canal pressure | |
| Zhou et al. | Securing face liveness detection using unforgeable lip motion patterns | |
| Li et al. | Toward pitch-insensitive speaker verification via soundfield | |
| Lian et al. | Echosensor: Fine-grained ultrasonic sensing for smart home intrusion detection | |
| CN115348049B (zh) | 一种利用耳机内向麦克风的用户身份认证方法 | |
| Nagaraja et al. | VoIPLoc: passive VoIP call provenance via acoustic side-channels | |
| Huang et al. | Unobtrusive pedestrian identification by leveraging footstep sounds with replay resistance | |
| CN114003885B (zh) | 一种智能语音认证方法、系统及可存储介质 | |
| McLoughlin et al. | Low frequency ultrasonic voice activity detection using convolutional neural networks | |
| Fang et al. | UltraFace: Secure User-friendly Facial Authentication on Smartphones Using Ultrasound | |
| Shi et al. | Defending against Thru-barrier Stealthy Voice Attacks via Cross-Domain Sensing on Phoneme Sounds | |
| Zhang et al. | SonarGuard2: Ultrasonic Face Liveness Detection Based on Adaptive Doppler Effect Feature Extraction |
Legal Events
| Date | Code | Title | Description |
|---|---|---|---|
| A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20241004 |
|
| A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20241004 |
|
| A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20250722 |
|
| A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20250909 |
|
| A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20250924 |