[go: up one dir, main page]

JP2023500210A - High performance bright pupil eye tracking - Google Patents

High performance bright pupil eye tracking Download PDF

Info

Publication number
JP2023500210A
JP2023500210A JP2022521522A JP2022521522A JP2023500210A JP 2023500210 A JP2023500210 A JP 2023500210A JP 2022521522 A JP2022521522 A JP 2022521522A JP 2022521522 A JP2022521522 A JP 2022521522A JP 2023500210 A JP2023500210 A JP 2023500210A
Authority
JP
Japan
Prior art keywords
pupil
subject
camera
image
iris
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2022521522A
Other languages
Japanese (ja)
Other versions
JP7746260B2 (en
Inventor
ジョン ノーブル
ファーガス マックラッケン
Original Assignee
シーイング マシーンズ リミテッド
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Priority claimed from AU2019904202A external-priority patent/AU2019904202A0/en
Application filed by シーイング マシーンズ リミテッド filed Critical シーイング マシーンズ リミテッド
Publication of JP2023500210A publication Critical patent/JP2023500210A/en
Application granted granted Critical
Publication of JP7746260B2 publication Critical patent/JP7746260B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/16Devices for psychotechnics; Testing reaction times ; Devices for evaluating the psychological state
    • A61B5/163Devices for psychotechnics; Testing reaction times ; Devices for evaluating the psychological state by tracking eye movement, gaze, or pupil change
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/70Circuitry for compensating brightness variation in the scene
    • H04N23/72Combination of two or more compensation controls
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/16Devices for psychotechnics; Testing reaction times ; Devices for evaluating the psychological state
    • A61B5/18Devices for psychotechnics; Testing reaction times ; Devices for evaluating the psychological state for vehicle drivers or machine operators
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/68Arrangements of detecting, measuring or recording means, e.g. sensors, in relation to patient
    • A61B5/6887Arrangements of detecting, measuring or recording means, e.g. sensors, in relation to patient mounted on external non-worn devices, e.g. non-medical devices
    • A61B5/6893Cars
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/0093Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00 with means for monitoring data relating to the user, e.g. head-tracking, eye-tracking
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • G06F3/013Eye tracking input arrangements
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • G06T7/246Analysis of motion using feature-based methods, e.g. the tracking of corners or segments
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/10Image acquisition
    • G06V10/12Details of acquisition arrangements; Constructional details thereof
    • G06V10/14Optical characteristics of the device performing the acquisition or on the illumination arrangements
    • G06V10/141Control of illumination
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/18Eye characteristics, e.g. of the iris
    • G06V40/19Sensors therefor
    • GPHYSICS
    • G08SIGNALLING
    • G08BSIGNALLING OR CALLING SYSTEMS; ORDER TELEGRAPHS; ALARM SYSTEMS
    • G08B21/00Alarms responsive to a single specified undesired or abnormal condition and not otherwise provided for
    • G08B21/02Alarms for ensuring the safety of persons
    • G08B21/06Alarms for ensuring the safety of persons indicating a condition of sleep, e.g. anti-dozing alarms
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/70Circuitry for compensating brightness variation in the scene
    • H04N23/71Circuitry for evaluating the brightness variation
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B2503/00Evaluating a particular growth phase or type of persons or animals
    • A61B2503/20Workers
    • A61B2503/22Motor vehicles operators, e.g. drivers, pilots, captains
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10141Special mode during image acquisition
    • G06T2207/10152Varying illumination
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30196Human being; Person
    • G06T2207/30201Face
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30248Vehicle exterior or interior
    • G06T2207/30268Vehicle interior
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/59Context or environment of the image inside of a vehicle, e.g. relating to seat occupancy, driver state or inner lighting conditions
    • G06V20/597Recognising the driver's state or behaviour, e.g. attention or drowsiness

Landscapes

  • Engineering & Computer Science (AREA)
  • Health & Medical Sciences (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • General Health & Medical Sciences (AREA)
  • Multimedia (AREA)
  • Public Health (AREA)
  • Heart & Thoracic Surgery (AREA)
  • Veterinary Medicine (AREA)
  • Animal Behavior & Ethology (AREA)
  • Surgery (AREA)
  • Molecular Biology (AREA)
  • Medical Informatics (AREA)
  • Biophysics (AREA)
  • Pathology (AREA)
  • Biomedical Technology (AREA)
  • Educational Technology (AREA)
  • General Engineering & Computer Science (AREA)
  • Psychology (AREA)
  • Psychiatry (AREA)
  • Hospice & Palliative Care (AREA)
  • Developmental Disabilities (AREA)
  • Child & Adolescent Psychology (AREA)
  • Human Computer Interaction (AREA)
  • Social Psychology (AREA)
  • Signal Processing (AREA)
  • Ophthalmology & Optometry (AREA)
  • Optics & Photonics (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Business, Economics & Management (AREA)
  • Emergency Management (AREA)
  • Eye Examination Apparatus (AREA)
  • Studio Devices (AREA)
  • Measurement Of The Respiration, Hearing Ability, Form, And Blood Characteristics Of Living Organisms (AREA)

Abstract

Figure 2023500210000001

測定された瞳孔/虹彩のコントラストが所定の最小の瞳孔/虹彩のコントラストを超えるように、アイトラッカーシステム(100)における1つ以上の照明装置を制御するための方法(800)及びシステムがここに記載される。方法(100)は、a.所定の画像キャプチャ期間内に、被写体(102)の画像をキャプチャすることであって、画像は被写体の目の片方又は両方を含む画像、をキャプチャすることと、b.所定の画像キャプチャ期間内に、1つ以上の照明装置(108及び110)から、被写体の目の片方又は両方を照らすことであって、照明装置(108及び110)のうちの少なくとも1つは、明瞳孔効果を生成するためにカメラのレンズの十分近くに配置されている、照らすことと、c.キャプチャされた画像における測定された瞳孔/虹彩のコントラストが所定の最小の瞳孔/虹彩のコントラストを超えるように、明瞳孔反射の強度を生成するために照明装置(108及び110)のうちの少なくとも1つの出力を選択的に変化されることとを含む。
【選択図】図8

Figure 2023500210000001

A method (800) and system for controlling one or more lighting devices in an eye tracker system (100) such that a measured pupil/iris contrast exceeds a predetermined minimum pupil/iris contrast is herein disclosed. be written. The method (100) comprises: a. capturing an image of a subject (102) within a predetermined image capture period, the image including one or both of the subject's eyes; b. Illuminating one or both eyes of a subject from one or more illumination devices (108 and 110) within a predetermined image capture period, wherein at least one of the illumination devices (108 and 110): illuminating, positioned close enough to the lens of the camera to produce a bright pupil effect; c. at least one of the illumination devices (108 and 110) to produce an intensity of the bright pupillary reflection such that the measured pupil/iris contrast in the captured image exceeds a predetermined minimum pupil/iris contrast; and selectively changing one output.
[Selection drawing] Fig. 8

Description

本発明は、照明装置制御に関し、特に、アイトラッカーのための照明装置に関する。 The present invention relates to lighting device control, and more particularly to lighting devices for eye trackers.

本発明の実施形態は、明瞳孔条件下において、瞳孔のような顔の特徴を抽出するために、被写体の顔を照らすように特に構成される。しかし本発明は、より広いコンテキスト及び他の応用例において適用可能であることが理解されよう。 Embodiments of the present invention are specifically configured to illuminate a subject's face in order to extract facial features such as pupils under bright pupillary conditions. However, it will be appreciated that the invention is applicable in a broader context and other applications.

多くのアイトラッキングシステムは、被写体の視線を正確に追跡するために、瞳孔の輪郭の検出に依拠する。これらの輪郭を検出するためには、撮像された瞳孔と周囲の虹彩との間に、輪郭を特定できるだけのコントラストが存在しなければならない。 Many eye-tracking systems rely on the detection of pupil contours to accurately track the subject's gaze. In order to detect these contours, there must be enough contrast between the imaged pupil and the surrounding iris to identify the contours.

照明装置が、撮像カメラの光学軸から遠く離れて配置されているとき、瞳孔は暗く見え、瞳孔と周囲の明るい虹彩との間に大きなコントラストが存在する。 When the illuminator is placed far from the optical axis of the imaging camera, the pupil appears dark and there is a large contrast between the pupil and the surrounding bright iris.

逆に、照明装置が、撮像カメラの光学軸の近くに(典型的にはカメラ光学軸から約3.25度以内)配置されているとき、瞳孔は、目からの逆反射(retroreflection)のため明るく見える場合もある。従来の写真では、これは、目の内部領域の光学的特性に起因して、よく知られた「赤目」現象として現れる。グレースケール画像が生成される赤外撮像では、これは、瞳孔が、白又はほとんど白に見え、典型的には虹彩より明るく見える「明瞳孔」効果として現れる。 Conversely, when the illuminator is placed near the optical axis of the imaging camera (typically within about 3.25 degrees of the camera optical axis), the pupil appears bright due to retroreflection from the eye. In some cases. In conventional photography, this appears as the familiar "red-eye" phenomenon due to the optical properties of the inner region of the eye. In infrared imaging, where a grayscale image is produced, this manifests as a "bright pupil" effect in which the pupil appears white or almost white, typically brighter than the iris.

アイトラッキングは、明瞳孔条件でも暗瞳孔条件でもカメラ及び照明装置を使用して実行され得る。暗瞳孔条件の下では、瞳孔のコントラストは典型的には高いので、アイトラッキングはより正確になる。しかし、ダッシュボードに搭載された典型的なドライバーモニタリングシステムでは、950 nmの波長において動作するときに暗瞳孔条件を実現するために、単一の照明装置又は複数の照明装置群は、カメラから少なくとも約2 cm離れて配置されることが要求される。これは、カメラ及び照明装置のユニットの大型化に直接つながる。車両のエレクトロニクス化が高度になるにつれて、車両のダッシュボード上で使用できる空間はますます高価になり、この傾向は半自動運転の出現で継続することが予想される。 Eye tracking can be performed using cameras and illuminators in both bright and dark pupil conditions. Under dark pupillary conditions eye tracking is more accurate as the pupil contrast is typically higher. However, in a typical dashboard-mounted driver monitoring system, a single illuminator or group of illuminators must be at least They are required to be placed approximately 2 cm apart. This directly leads to an increase in the size of the camera and lighting unit. As vehicle electronics become more sophisticated, available space on the vehicle dashboard becomes more and more expensive, and this trend is expected to continue with the advent of semi-autonomous driving.

よって、車両のドライバーモニタリングシステムの空間フットプリントを最小化する商業的要望がある。この理由で、将来は、明瞳孔アイトラッキングシステムを実装することが有利であるあるかもしれない。 Thus, there is a commercial desire to minimize the spatial footprint of vehicle driver monitoring systems. For this reason, in the future it may be advantageous to implement bright pupil eye tracking systems.

明瞳孔画像を達成するために、カメラと照明装置との間の角度離隔は、非常に小さくなければならない。そのような小さな間隔は、レンズ及び照明装置の設計にとって大きな課題であるだけではなく、問題を引き起こす全反射の状況を作り出す。特に、このカメラ/照明装置の幾何学的配置の下では、瞳孔及び虹彩はほぼ同じ輝度で撮像され、それによって瞳孔のコントラストが非常に低くなる結果を招く。これらの状況は、「グレー瞳孔」状況と呼ばれる。上述の範囲内であれば、どんな角度離れていても、あるシナリオでは、グレー瞳孔状況を引き起こすであろう。瞳孔と虹彩との間のコントラストがないなら、瞳孔の位置を正確に特定することは不可能である。 To achieve a bright pupil image, the angular separation between the camera and the illuminator must be very small. Such small spacing is not only a major challenge for lens and illuminator design, but also creates a situation of total internal reflection that causes problems. In particular, under this camera/illuminator geometry, the pupil and iris are imaged at approximately the same luminance, which results in very low pupil contrast. These situations are called "gray pupil" situations. Any distance within the above range will cause a gray pupil situation in some scenarios. Without the contrast between the pupil and the iris, it is impossible to pinpoint the location of the pupil.

明細書を通じての背景技術に関するいかなる説明も、そのような技術が周知であり、又は当該技術分野における公知の一般知識の一部を成すという自認であるとは決して解釈されるべきではない。 Any discussion of background art throughout the specification should in no way be construed as an admission that such technology is well known or forms part of the general general knowledge known in the art.

本発明の第1局面によれば、測定された瞳孔/虹彩のコントラストが、所定の最小瞳孔/虹彩コントラストを超えるように、アイトラッカーにおいて1つ以上の照明装置を制御するための方法が提供され、この方法は、
所定の画像キャプチャ期間の間、被写体の目の片方又は両方を含む、前記被写体の画像をキャプチャすることと、
前記所定の画像キャプチャ期間の間、1つ以上の照明装置から前記被写体の目の片方又は両方を照らすことであって、
少なくとも1つの照明装置は、明瞳孔効果を発生するようにカメラのレンズの十分近くに配置されている
照らすことと、
キャプチャされた画像における、測定された瞳孔/虹彩のコントラストが、所定の最小瞳孔/虹彩コントラストを超えるような明瞳孔反射強度を発生させるように、前記照明装置のうちの少なくとも1つの出力を選択的に変化させることを含む。
According to a first aspect of the present invention, a method is provided for controlling one or more lighting devices in an eye tracker such that a measured pupil/iris contrast exceeds a predetermined minimum pupil/iris contrast. , this method gives
capturing an image of the subject, including one or both of the subject's eyes, for a predetermined image capture period;
illuminating one or both of the subject's eyes from one or more illumination devices during the predetermined image capture period,
illuminating, wherein the at least one lighting device is positioned close enough to the lens of the camera to produce a bright pupil effect;
selectively outputting the output of at least one of said illuminators to produce a bright pupil reflection intensity such that the measured pupil/iris contrast in the captured image exceeds a predetermined minimum pupil/iris contrast; including changing to

ある実施形態では、前記照明装置のうちの少なくとも1つの前記出力が、前記被写体の目の片方又は両方の虹彩領域に対する瞳孔領域の画素の強度によって求められる瞳孔/虹彩のコントラストの直接的な測定値に基づいて選択的に変化させられる。ある実施形態では、前記照明装置のうちの少なくとも1つの前記出力が、
i.周囲光の測定値、
ii.前記被写体の瞳孔径の測定値、及び/又は
iii.前記被写体の現在の又は最近の視線方向
のうちの1つ以上に基づいて選択的に変化させられる。
In one embodiment, the output of at least one of the illuminators is a direct measure of pupil/iris contrast determined by the intensity of pixels in the pupil region relative to the iris region of one or both eyes of the subject. is selectively varied based on In an embodiment, the output of at least one of the lighting devices is
i. ambient light measurements,
ii. a measurement of the subject's pupil diameter, and/or iii. selectively varied based on one or more of the subject's current or recent viewing directions.

ある実施形態では、前記周囲光の測定値は、前記カメラの露出設定及び/又は前記1つ以上の照明装置の照明設定から求められる。 In one embodiment, the ambient light measurements are derived from exposure settings of the camera and/or lighting settings of the one or more lighting devices.

ある実施形態では、前記照明装置のうち少なくとも1つの前記出力が、以前の画像キャプチャ期間からの、前記被写体の目の瞳孔のコントラストの測定値に基づいて、選択的に変化させられる。ある実施形態では、前記照明装置のうちの少なくとも1つの前記出力が、前記被写体の生理学的パラメータに基づいて選択的に変化させられる。ある実施形態では、前記照明装置のうちの少なくとも1つの前記出力が、画像キャプチャ期間内に、少なくとも2つの異なるパワーレベルで選択的に変化させられる。 In one embodiment, the output of at least one of the lighting devices is selectively varied based on a measurement of pupillary contrast of the subject's eye from a previous image capture period. In one embodiment, the output of at least one of the lighting devices is selectively varied based on physiological parameters of the subject. In one embodiment, the output of at least one of the lighting devices is selectively varied at at least two different power levels during image capture.

ある実施形態では、前記カメラは、画像キャプチャ期間内に少なくとも2つの画像をキャプチャし、前記2つの画像は、異なる照明設定又は画像キャプチャ設定を用いてキャプチャされる。ある実施形態では、第1画像は、1つ以上の照明装置が第1出力レベルを有する間にキャプチャされ、第2画像は、1つ以上の照明装置が第1出力レベルとは異なる第2出力レベルを有する間にキャプチャされる。 In one embodiment, the camera captures at least two images within an image capture period, and the two images are captured using different lighting or image capture settings. In some embodiments, the first image is captured while the one or more lighting devices have a first power level and the second image is captured while the one or more lighting devices have a second power level different from the first power level. Captured while having a level.

ある実施形態では、瞳孔のコントラストが増加した、結果として得られる画像を生成するように、前記2つの画像に対して画像減算を実行するステップを含む。 An embodiment includes performing image subtraction on the two images to produce a resulting image with increased pupillary contrast.

ある実施形態では、前記アイトラッカーは単一の照明装置を含む。ある実施形態では、コントローラが、画像キャプチャ期間内に、前記照明装置の照明パワーを変調するように構成される。ある実施形態では、前記アイトラッカーは、前記カメラから異なる距離に配置される2つの照明装置を含む。好ましくは、それぞれの照明装置は、明瞳孔効果を生成するために前記カメラのレンズに十分近くに配置されるが、異なる明瞳孔反射の特性を生成するように前記レンズから異なる距離に配置される。 In one embodiment, the eye tracker includes a single lighting device. In an embodiment the controller is arranged to modulate the illumination power of said illumination device during the image capture period. In one embodiment, the eye tracker includes two lighting devices positioned at different distances from the camera. Preferably, each illuminator is placed close enough to the lens of the camera to produce a bright pupil effect, but at a different distance from the lens to produce different bright pupil reflection characteristics. .

ある実施形態では、前記照明装置のうちの少なくとも1つの前記出力を選択的に変化させることは、画像キャプチャ期間内に、前記2つの照明装置のうちの1つを非アクティブ化することを含む。 In an embodiment, selectively varying the output of at least one of the lighting devices includes deactivating one of the two lighting devices during an image capture period.

本発明の第2局面によれば、測定された瞳孔/虹彩のコントラストが所定の最小の瞳孔/虹彩のコントラストを超えるように、アイトラッカーにおいて2つ以上の照明装置を制御する方法が提供され、この方法は、
所定の画像キャプチャ期間内に、被写体の画像であって、前記画像は前記被写体の目の1つ又は両方を含む、被写体をキャプチャすることと、
2つ以上の照明装置のシステムから、前記所定の画像キャプチャ期間内に、前記被写体の目の片方又は両方を照らすことであって、前記それぞれの照明装置は、明瞳孔効果を生成するために前記カメラのレンズの十分近くに配置されるが、異なる明瞳孔反射の特性を生成するために前記レンズから異なる距離に配置される照明装置で照らすことと、
キャプチャされた画像における測定された瞳孔/虹彩のコントラストが所定の最小の瞳孔/虹彩のコントラストを超えるように、明瞳孔反射の特性を生成するために前記2つ以上の照明装置の前記出力を選択的に変化させることを含む。
According to a second aspect of the present invention, there is provided a method of controlling two or more lighting devices in an eye tracker such that the measured pupil/iris contrast exceeds a predetermined minimum pupil/iris contrast, comprising: This method
capturing an image of a subject, said image including one or both of said subject's eyes, within a predetermined image capture period;
illuminating one or both eyes of the subject within the predetermined image capture period from a system of two or more illuminators, each of the illuminators for producing a bright pupil effect; illuminating with an illuminator placed close enough to the lens of the camera, but at different distances from said lens to produce different bright pupil reflection characteristics;
selecting the outputs of the two or more illuminators to produce a characteristic bright pupil reflex such that the measured pupil/iris contrast in the captured image exceeds a predetermined minimum pupil/iris contrast. including changing

本発明の第3局面によれば、測定された瞳孔/虹彩のコントラストが所定の最小の瞳孔/虹彩のコントラストを超えるように、アイトラッカーにおいて1つ以上の照明装置を制御するためのシステムが提供され、このシステムは、
所定の画像キャプチャ期間内に、被写体の画像をキャプチャするように構成されたカメラであって、前記画像は前記被写体の目の片方又は両方を含む、カメラと、
前記所定の画像キャプチャ期間内に、前記被写体の目の片方又は両方を選択的に照らすように構成された1つ以上の照明装置であって、前記照明装置のうちの少なくとも1つは、明瞳孔効果を生じるように前記カメラのレンズの十分近くに配置される、照明装置と、
キャプチャされた画像における測定された瞳孔/虹彩のコントラストが、瞳孔/虹彩コントラストの所定の最小値を超えるような明瞳孔反射の強度を生成するように、前記照明装置のうちの少なくとも1つの前記出力を選択的に変化させるよう構成されたコントローラを含む。
According to a third aspect of the present invention, there is provided a system for controlling one or more lighting devices in an eye tracker such that the measured pupil/iris contrast exceeds a predetermined minimum pupil/iris contrast. and this system
a camera configured to capture an image of a subject within a predetermined image capture period, the image including one or both of the subject's eyes;
one or more lighting devices configured to selectively illuminate one or both eyes of the subject during the predetermined image capture period, at least one of the lighting devices being a bright pupil a lighting device positioned close enough to the lens of the camera to produce an effect;
said output of at least one of said illumination devices such that a measured pupil/iris contrast in a captured image produces an intensity of bright pupillary reflex such that it exceeds a predetermined minimum value of pupil/iris contrast; a controller configured to selectively vary the .

ある実施形態では、システムは、1つの照明装置を含む。好ましくは、照明装置は、カメラから7 mm-15 mmの距離内に配置される。より好ましくは、照明装置は、カメラから8 mm-14 mmの距離に配置される。他の実施形態では、システムは、2つの照明装置を含む。好ましくは、それぞれの照明装置は、明瞳孔効果を生成するために前記カメラのレンズに十分近くに配置されるが、異なる明瞳孔反射の特性を生成するように前記レンズから異なる距離に配置される。 In some embodiments, the system includes one lighting device. Preferably, the illumination device is placed within a distance of 7 mm-15 mm from the camera. More preferably, the illumination device is placed at a distance of 8 mm-14 mm from the camera. In other embodiments, the system includes two lighting devices. Preferably, each illuminator is placed close enough to the lens of the camera to produce a bright pupil effect, but at a different distance from the lens to produce different bright pupil reflection characteristics. .

本発明の第4局面によれば、測定された瞳孔/虹彩のコントラストが所定の最小の瞳孔/虹彩のコントラストを超えるように、アイトラッカーにおいて2つ以上の照明装置を制御するためのシステムが提供され、このシステムは、
所定の画像キャプチャ期間内に、被写体の画像をキャプチャするように構成されたカメラであって、前記画像は、前記被写体の目の片方又は両方を含むカメラと、
前記所定の画像キャプチャ期間内に、前記被写体の目の片方又は両方を照らすように構成された2つ以上の照明装置であって、前記照明装置のそれぞれは、明瞳孔効果を生成するように前記カメラのレンズの十分近くに配置されるが、異なる明瞳孔反射の特性を生成するためようにレンズから異なる距離に配置される照明装置と、
キャプチャされた画像において測定された瞳孔/虹彩のコントラストが所定の最小の瞳孔/虹彩のコントラストを超えるように、明瞳孔反射の特性を生成するために2つ以上の照明装置の出力を選択的に変化させるように構成されたコントローラを含む。
According to a fourth aspect of the present invention, there is provided a system for controlling two or more illuminators in an eye tracker such that the measured pupil/iris contrast exceeds a predetermined minimum pupil/iris contrast. and this system
a camera configured to capture an image of a subject within a predetermined image capture period, the image including one or both of the subject's eyes;
two or more lighting devices configured to illuminate one or both eyes of the subject within the predetermined image capture period, each of the lighting devices to produce a bright pupil effect; an illuminator positioned close enough to the lens of the camera, but positioned at different distances from the lens so as to produce different bright pupil reflex characteristics;
selectively combining the outputs of two or more illuminators to produce a characteristic bright pupil reflex such that the measured pupil/iris contrast in the captured image exceeds a predetermined minimum pupil/iris contrast. including a controller configured to vary.

ある実施形態では、システムは2つの照明装置を含む。好ましくは、第1の照明装置は前記カメラから3 mm-15 mmの距離に配置され、第2の照明装置は前記カメラから7 mm-50 mmの距離に配置される。より好ましくは、第1の照明装置は前記カメラから8 mm-13 mmの距離に配置され、第2の照明装置は前記カメラから20 mm-30 mmの距離に配置される。 In one embodiment, the system includes two lighting devices. Preferably, a first illumination device is arranged at a distance of 3 mm-15 mm from said camera and a second illumination device is arranged at a distance of 7 mm-50 mm from said camera. More preferably, the first illumination device is arranged at a distance of 8 mm-13 mm from said camera and the second illumination device is arranged at a distance of 20 mm-30 mm from said camera.

ある実施形態では、前記コントローラは、画像キャプチャ期間内に、前記照明装置のうちの1つを非アクティブ化するように構成される。 In an embodiment, said controller is configured to deactivate one of said lighting devices during an image capture period.

ある実施形態では、明瞳孔反射の特性は、被写体の目の片方又は両方による、再帰性反射効果(retroreflection effect)の測定値を含む。ある実施形態では、前記明瞳孔反射の特性は、前記被写体の目の片方又は両方の虹彩領域に対する瞳孔領域の画素の強度によって求められる瞳孔/虹彩のコントラストの直接的な測定値を含む。 In some embodiments, the bright pupillary reflex characteristic includes a measurement of the retroreflection effect by one or both eyes of the subject. In one embodiment, the bright pupil reflex characteristic comprises a direct measure of pupil/iris contrast determined by the intensity of pixels in the pupil region relative to the iris region of one or both eyes of the subject.

本発明の第5局面によれば、アイトラッカーのための照明システムが提供され、このシステムは、
所定の画像キャプチャ期間内に、被写体の画像をキャプチャするように構成されたカメラであって、前記画像は前記被写体の目の片方又は両方を含む、カメラと、
前記所定の画像キャプチャ期間内に、前記被写体の目の片方又は両方を選択的に照らすように構成された1つ以上の照明装置であって、前記照明装置のうちの少なくとも1つは、明瞳孔効果を生じるように前記カメラのレンズの十分近くに配置される、照明装置と、
コントローラであって、前記コントローラは、
画像の少なくともサブセットにおいて、被写体の目の瞳孔のコントラストを測定するためにキャプチャされた画像を処理することと、
キャプチャされた画面における測定された瞳孔/虹彩のコントラストが所定の最小の瞳孔/虹彩のコントラストを超えるように、明瞳孔反射の強度を生成するために制御された信号に基づいて1つ以上の照明装置の出力を制御することであって、前記制御信号は、以前の画像キャプチャ期間からの瞳孔コントラストの測定値に基づいて導出される、制御することと
を行うように構成されたコントローラと
を含む。
According to a fifth aspect of the invention there is provided an illumination system for an eye tracker, the system comprising:
a camera configured to capture an image of a subject within a predetermined image capture period, the image including one or both of the subject's eyes;
one or more lighting devices configured to selectively illuminate one or both eyes of the subject during the predetermined image capture period, at least one of the lighting devices being a bright pupil a lighting device positioned close enough to the lens of the camera to produce an effect;
A controller, said controller comprising:
processing the captured images to measure the pupillary contrast of the subject's eye in at least a subset of the images;
One or more illuminations based on the signal controlled to produce an intensity of the bright pupillary reflex such that the measured pupil/iris contrast in the captured screen exceeds a predetermined minimum pupil/iris contrast. and a controller configured to control the output of the device, wherein the control signal is derived based on a pupillary contrast measurement from a previous image capture period. .

本発明の第5局面によれば、アイトラッキングシステムが提供され、このシステムは、
所定の画像キャプチャ期間内に、被写体の画像をキャプチャするように構成されたカメラであって、前記画像は前記被写体の目の片方又は両方を含む、カメラと、
前記所定の画像キャプチャ期間内に、前記被写体の目の片方又は両方を選択的に照らすように構成された1つ以上の照明装置であって、前記照明装置のうちの少なくとも1つは、明瞳孔効果を生じるように前記カメラのレンズの十分近くに配置される、照明装置と、
コントローラであって、前記コントローラは、
被写体の目を追跡するために視線トラッキングルーチンを実行するためにキャプチャされた画像を処理することであって、前記視線トラッキンルーチンは1つ以上の制御パラメータを求めることを含む、処理することと、
キャプチャされた画像における測定された瞳孔/虹彩のコントラストが所定の最小の瞳孔/虹彩のコントラストを超えるように、明瞳孔反射の強度を生成するために1つ以上の制御パラメータに基づいて1つ以上の照明装置の出力を制御することと
を行うように構成されたコントローラと
を含む。
According to a fifth aspect of the invention, there is provided an eye tracking system, the system comprising:
a camera configured to capture an image of a subject within a predetermined image capture period, the image including one or both of the subject's eyes;
one or more lighting devices configured to selectively illuminate one or both eyes of the subject during the predetermined image capture period, at least one of the lighting devices being a bright pupil a lighting device positioned close enough to the lens of the camera to produce an effect;
A controller, said controller comprising:
processing the captured image to perform an eye-tracking routine to track the eyes of the subject, the eye-tracking routine including determining one or more control parameters;
one or more based on one or more control parameters to generate an intensity of the bright pupillary reflex such that the measured pupil/iris contrast in the captured image exceeds a predetermined minimum pupil/iris contrast. and a controller configured to:

ある実施形態では、制御パラメータは、
i.周囲光の測定値、
ii.前記被写体の瞳孔径の測定値、及び/又は
iii.前記被写体の現在の又は最近の視線方向
を含む。
In one embodiment, the control parameter is
i. ambient light measurements,
ii. a measurement of the subject's pupil diameter, and/or iii. including the subject's current or recent gaze direction;

ある実施形態では、制御パラメータは、被写体の生理学的パラメータを含む。 In some embodiments, the control parameters include physiological parameters of the subject.

ある実施形態では、プロセッサは、被写体の目の瞳孔のコントラストの測定値を求めるためにキャプチャされた画像を処理するように構成され、前記以前の画像キャプチャ期間からの瞳孔のコントラストの測定値は、1つ以上の照明装置の照明パワーを制御するための制御パラメータとして使用される。よって任意の記載された実施形態においては、以前の画像キャプチャ期間からの瞳孔のコントラストの測定値は、照明装置のうちの少なくとも1つの照明パワーが選択的に変化される基になるパラメータ又は要素となり得る。 In an embodiment, the processor is configured to process the captured image to determine a pupillary contrast measurement of an eye of the subject, wherein the pupillary contrast measurement from said previous image capture period comprises: It is used as a control parameter for controlling the lighting power of one or more lighting devices. Thus, in any of the described embodiments, pupillary contrast measurements from previous image capture periods are parameters or factors upon which the illumination power of at least one of the illumination devices is selectively varied. obtain.

本開示の例示的実施形態は、添付の図面を参照して、例示としてここで説明される。
図1は、車両内部に取り付けられたカメラ及び2つのLED光源を含むドライバーモニタリングシステムを有する車両の内部の透視図である。 図2は、自動車のダッシュボードに取り付けられた図1のドライバーモニタリングシステムを有する自動車のダッシュボードをドライバーが見た透視図である。 図3は、図1及び図2によるドライバーモニタリンスシステムの概略機能図である。 図4は、明瞳孔効果を図示するために赤外照明装置によって照らされている目の概略図である。 図5は、例示的な明瞳孔効果及び暗瞳孔効果の状況、並びに関連する画像の概略図である。 図6は、被写体に対するカメラ視野及びLED照明視野を示す、図1-図3のドライバーモニタリングシステムの平面図である。 図7は、撮像されている被写体に対する照明幾何学及び撮像幾何学を示す、図1-図3のドライバーモニタリングシステムの平面図である。 図8は、アイトラッカーのための照明方法における主要なステップを図示する処理フロー図である。 図9は、カメラ及び1対のLEDの第1実施形態の例示的な設定である。 図10は、単一のLEDが自動車のダッシュボードに取り付けられたドライバーモニタリングシステムを有する自動車のダッシュボードをドライバーが見た透視図である。 図11は、異なるシステム要素間のデータフローを示す、図1-図3のドライバーモニタリングシステムの概略機能図である。 図12は、遠い側のLEDからの照明が好ましい例示的状況を図示している。 図13は、近い側のLEDからの照明が好ましい例示的状況を図示している。 図14は、4つの異なる瞳孔の大きさについての、赤外光源及びカメラの視覚角度(visual angle)の関数としての、虹彩及び瞳孔の検出されたコントラストのグラフを図示している。
Exemplary embodiments of the present disclosure will now be described, by way of example, with reference to the accompanying drawings.
FIG. 1 is a perspective view of the interior of a vehicle having a driver monitoring system including a camera and two LED light sources mounted inside the vehicle. Figure 2 is a perspective view of a driver looking into the dashboard of a vehicle having the driver monitoring system of Figure 1 mounted on the dashboard of the vehicle. 3 is a schematic functional diagram of the driver monitoring system according to FIGS. 1 and 2. FIG. FIG. 4 is a schematic diagram of an eye illuminated by an infrared illuminator to illustrate the bright pupil effect. FIG. 5 is a schematic illustration of exemplary bright and dark pupil effect situations and associated images. FIG. 6 is a plan view of the driver monitoring system of FIGS. 1-3 showing the camera field of view and the LED illumination field of view for the subject. FIG. 7 is a plan view of the driver monitoring system of FIGS. 1-3 showing the lighting geometry and imaging geometry for the subject being imaged. FIG. 8 is a process flow diagram illustrating major steps in an illumination method for an eye tracker. FIG. 9 is an exemplary setup for a first embodiment of a camera and a pair of LEDs. FIG. 10 is a driver's perspective view of a vehicle dashboard having a driver monitoring system with a single LED mounted on the vehicle dashboard. FIG. 11 is a schematic functional diagram of the driver monitoring system of FIGS. 1-3 showing data flow between different system elements. FIG. 12 illustrates an exemplary situation where illumination from far-side LEDs is preferred. FIG. 13 illustrates an exemplary situation where illumination from near-side LEDs is preferred. FIG. 14 illustrates graphs of the detected iris and pupil contrast as a function of infrared light source and camera visual angle for four different pupil sizes.

ここに記載されている照明システム及び照明方法は、多数のアイトラッキング環境において適用及び使用され得る。一例として、自動車、又は、バス、電車又は飛行機のような他の車両のドライバー又は乗客のモニタリングがある。加えて、記載されたシステムは、機械及びフライトシミュレータのような任意の他の機器を使用又は操作するオペレータに適用され得る。理解を容易にするために、本発明の実施形態は、車両のためのドライバーモニタリングシステムのコンテキストにおいてここでは記載される。さらに、照明装置は、発光ダイオード(LED)であるとして記載されているが、本発明は、垂直共振器型面発光レーザー(VCSEL)のような、他のタイプの光源に適用できることが理解されよう。
[システムの概観]
The lighting systems and lighting methods described herein can be applied and used in many eye tracking environments. An example is the monitoring of drivers or passengers of automobiles or other vehicles such as buses, trains or planes. In addition, the system described can be applied to operators using or operating any other equipment such as machines and flight simulators. For ease of understanding, embodiments of the invention are described herein in the context of driver monitoring systems for vehicles. Furthermore, although the illumination device is described as being a light emitting diode (LED), it will be appreciated that the invention is applicable to other types of light sources, such as vertical cavity surface emitting lasers (VCSELs). .
[Overview of the system]

初めに図1-図3を参照すると、車両104を操作中の車両ドライバー102の画像をキャプチャするためのドライバーモニタリングシステム100が図示されている。システム100は、顔検出、顔特徴検出、顔認識、顔特徴認識、顔追跡、又は人の目を追跡するような顔特徴追跡のような、キャプチャされた画像に対してさまざまな画像処理アルゴリズムを実行するようにさらに構成される。例示的画像処理パラメータは、Edwardsらによる「Facial Image Processing System」と題され及びSeeing Machines Pty Ltdに譲渡された米国特許第7,043,056号(以下「Edwardsら」)に記載されており、その内容は、相互参照によってここに援用される。 Referring initially to FIGS. 1-3, a driver monitoring system 100 for capturing images of a vehicle driver 102 while operating a vehicle 104 is illustrated. The system 100 may apply various image processing algorithms to captured images, such as face detection, facial feature detection, face recognition, facial feature recognition, face tracking, or facial feature tracking such as tracking a person's eyes. further configured to run Exemplary image processing parameters are described in U.S. Pat. No. 7,043,056 by Edwards et al. entitled "Facial Image Processing System" and assigned to Seeing Machines Pty Ltd (hereinafter "Edwards et al."), The contents of which are hereby incorporated by cross-reference.

図2に最もよく図示されているように、システム100は、車両のダッシュボード107の計器ディスプレイ上又は計器ディスプレイ内に配置され、1個以上の人間の顔の特徴を特定し、位置を特定し、及び追跡するために、赤外波長領域内でドライバーの顔の画像をキャプチャするように方向付けがなされている撮像カメラ106を含む。 As best illustrated in FIG. 2, the system 100 is positioned on or within an instrument display of a vehicle dashboard 107 to identify and locate one or more human facial features. , and tracking, an imaging camera 106 oriented to capture an image of the driver's face in the infrared wavelength region.

カメラ106は、感光画素(又は光検出器)の2次元アレイを有し、及びオプションとして距離つまり奥行きを求める能力(1つ以上の位相検出要素を通してのような)を有する従来のCCD又はCMOSベースのデジタルカメラであってもよい。感光画素は、少なくとも赤外領域において、電磁放射を感知する能力がある。カメラ106はまた、TOF(time-of-flight)カメラのような3次元カメラ、又は3次元でシーンを撮像することが可能である他のスキャニング又はレンジベースのカメラであってもよい。他の実施形態では、カメラ106は、ステレオの構成で動作し、カメラ106によってキャプチャされた画像における被写体の奥行き情報を抽出するように較正された一対の類似のカメラに置き換えられてもよい。カメラ106は、好ましくは、赤外波長領域で撮像するように構成されるが、代替の実施形態では、カメラ106は可視領域で撮像してもよいことが理解されよう。図示されていないが、カメラ106は、感光画素のアレイに対して光の焦点を合わせるための、第1撮像レンズを含む、撮像光学系も含む。 Camera 106 is a conventional CCD or CMOS-based with a two-dimensional array of light sensitive pixels (or photodetectors) and optionally the ability to determine range or depth (such as through one or more phase detection elements). digital camera. Photosensitive pixels are capable of sensing electromagnetic radiation, at least in the infrared region. Camera 106 may also be a three-dimensional camera, such as a time-of-flight (TOF) camera, or other scanning or range-based camera capable of imaging a scene in three dimensions. In other embodiments, camera 106 may be replaced by a pair of similar cameras that operate in a stereo configuration and are calibrated to extract depth information of subjects in images captured by camera 106 . Camera 106 is preferably configured to image in the infrared wavelength region, although it will be appreciated that in alternate embodiments camera 106 may image in the visible region. Although not shown, the camera 106 also includes imaging optics, including a first imaging lens, for focusing light onto the array of light sensitive pixels.

図2をさらに参照すると、第1実施形態において、システム100はまた、発光ダイオード群(LED群)108及び110の形の一対の赤外照明装置を含み、それらは、車両のダッシュボード107上のカメラに近接して、水平方向に間隔を空けてそれぞれの位置に配置される。下で記載されるように、LED108及び110は、カメラ106から異なる距離に配置される。下に記載される他の実施形態では、単独のLEDのみが使用される。また実施形態によっては、2つより多い光源が、システムにおいて採用されてもよい。 Still referring to FIG. 2, in the first embodiment, system 100 also includes a pair of infrared lighting devices in the form of light emitting diodes (LEDs) 108 and 110, which are positioned on dashboard 107 of the vehicle. They are placed in their respective positions in close proximity to the cameras and horizontally spaced apart. As described below, LEDs 108 and 110 are positioned at different distances from camera 106 . In other embodiments described below, only a single LED is used. Also, in some embodiments, more than two light sources may be employed in the system.

ドライバーの顔又は顔の特徴の高品質画像を取得できるようにドライバーの顔の撮像を向上させるために、LED108及び110は、カメラ106が画像をキャプチャしている、予め定義された画像キャプチャ期間中、赤外線放射でドライバー102を照らすよう構成されている。赤外領域でのカメラ106、LED108及び110の動作によって、ドライバーが視覚的に注意を散漫とさせられることが低減される。カメラ106及びLED108及び110の動作は、コンピュータプロセッサ又はマイクロプロセッサと、カメラ106からのキャプチャされた画像を記憶させバッファリングするためのメモリとを備える、関連付けられたコントローラ112によって制御される。他の実施形態では、LEDの代わりに、VCSELのような異なるタイプの光源が使用されてもよい。 To improve imaging of the driver's face so that a high quality image of the driver's face or facial features can be obtained, the LEDs 108 and 110 are illuminated during a predefined image capture period during which the camera 106 is capturing images. , is configured to illuminate the driver 102 with infrared radiation. Operation of camera 106, LEDs 108 and 110 in the infrared region reduces visual distraction for the driver. The operation of camera 106 and LEDs 108 and 110 is controlled by an associated controller 112 which includes a computer processor or microprocessor and memory for storing and buffering captured images from camera 106 . In other embodiments, instead of LEDs, different types of light sources such as VCSELs may be used.

図2に最もよく図示されているように、カメラ106及びLED108及び110は、共通の筐体を有する単一のユニット111として製造され又は組み立てられてもよい。このユニット111は、車両のダッシュボード107に取り付けられた状態が示されているが、車両の製造の間に設置されてもよく、又はアフターマーケット製品として後で取り付けられてもよい。他の実施形態では、ドライバーモニタリングシステム100は、車両内のドライバー、被写体、及び/又は同乗者の頭又は顔の特徴の画像をキャプチャするのに適する任意の位置に配置される1つ以上のカメラ及び光源を含み得る。例として、カメラ群及びLED群は、車両のステアリングコラム、リアビューミラー、センターコンソール、又はドライバー側のフロントピラー上に配置されてもよい。図示されている実施形態では、第1光源及び第2光源はそれぞれ、単一のLEDを含む。他の実施形態では、それぞれの光源が、個別のLEDを複数個、それぞれ含んでもよい。 As best illustrated in FIG. 2, camera 106 and LEDs 108 and 110 may be manufactured or assembled as a single unit 111 having a common housing. This unit 111 is shown mounted on the vehicle dashboard 107, but may be installed during manufacture of the vehicle, or may be installed later as an aftermarket product. In other embodiments, the driver monitoring system 100 includes one or more cameras positioned in any suitable location to capture images of the head or facial features of the driver, subject, and/or passengers within the vehicle. and a light source. By way of example, the cameras and LEDs may be located on the vehicle's steering column, rearview mirror, center console, or driver's side front pillar. In the illustrated embodiment, the first light source and the second light source each include a single LED. In other embodiments, each light source may each include multiple individual LEDs.

次に図3に目を向けると、システム100の機能要素が概略的に図示されている。システムコントローラ112は、システム100の中央処理装置として機能し、以下に記載のいくつかの機能を実行するように構成される。コントローラ112は、車両104のダッシュボード107内に配置され、車両のオンボードコンピュータと結合されてもよく、又は一体化されてもよい。別の実施形態では、コントローラ112は、カメラ106及びLED108及び110とともに、筐体又はモジュールの中に配置されてもよい。この筐体又はモジュールは、アフターマーケット製品として販売され、車両のダッシュボードに取り付けられ、その車両での使用のためにその後、較正されてもよい。フライトシミュレータのような更なる実施形態では、コントローラ112は、パーソナルコンピュータのような外部コンピュータ又は外部ユニットであり得る。 Turning now to FIG. 3, the functional elements of system 100 are schematically illustrated. System controller 112 functions as the central processing unit of system 100 and is configured to perform several functions described below. The controller 112 is located within the dashboard 107 of the vehicle 104 and may be coupled or integrated with the vehicle's on-board computer. In another embodiment, controller 112 may be placed in a housing or module along with camera 106 and LEDs 108 and 110 . This housing or module may be sold as an aftermarket product, mounted on a vehicle dashboard, and then calibrated for use in that vehicle. In further embodiments, such as flight simulators, controller 112 may be an external computer or unit, such as a personal computer.

コントローラ112は、例えばレジスタ及び/又はメモリからの電子データを処理して、その電子データを例えばレジスタ及び/又はメモリに記憶され得る他の電子データに変換する、あらゆる形態のコンピュータ処理装置又はそのような装置の一部として実装され得る。図3に図示されるように、コントローラ112は、マイクロプロセッサ114を含み、それは、ランダムアクセスメモリ(RAM)、リードオンリーメモリ(ROM)、電子的に消去可能なプログラム可能なリードオンリーメモリ(EEPROM)、及び当業者には容易に分かるはずである他の同等なメモリ又は記憶システムのような、メモリ116に記憶されたコードを実行する。 Controller 112 may be any form of computer processing device or such that processes electronic data, e.g., from registers and/or memory, and transforms the electronic data into other electronic data that may be stored, e.g., in registers and/or memory. can be implemented as part of a As illustrated in FIG. 3, the controller 112 includes a microprocessor 114, which includes random access memory (RAM), read-only memory (ROM), electronically erasable programmable read-only memory (EEPROM). , and other equivalent memory or storage systems that will be readily apparent to those skilled in the art.

コントローラ112のマイクロプロセッサ114は、ビジョンプロセッサ118及びデバイスコントローラ120を含む。ビジョンプロセッサ118及びデバイスコントローラ120は、両方がマイクロプロセッサ114によって実行される機能要素を表す。しかし代替の実施形態では、ビジョンプロセッサ118及びデバイスコントローラ120は、カスタム回路、つまり特化された回路と共に用いられるマイクロプロセッサのような別個のハードウェアとして実現され得ることが理解されよう。 Microprocessor 114 of controller 112 includes vision processor 118 and device controller 120 . Vision processor 118 and device controller 120 both represent functional elements executed by microprocessor 114 . However, it will be appreciated that in alternate embodiments, the vision processor 118 and the device controller 120 may be implemented as separate hardware, such as a microprocessor used in conjunction with custom or specialized circuitry.

ビジョンプロセッサ118は、ドライバーモニタリングを実行するために、キャプチャされた画像を処理するように構成される。例えば、ドライバーモニタリングは、モニタリング環境の中で、ドライバー102の、3次元的な頭部姿勢及び/又は視線の位置を求めることである。これを実現するために、ビジョンプロセッサ118は、1つ以上の視線決定のアルゴリズムを利用する。これは、例として、Edwardsらに記載された方法を含み得る。ビジョンプロセッサ118は、ドライバーの注意、眠気、又はドライバーの安全な車両の操作を妨げ得る他の問題を検出するために、閉眼、瞬きの速度のようなドライバー102の属性を求めること、及びドライバーの頭の動きを追跡することを含む、さまざまな他の機能もまた実行し得る。 Vision processor 118 is configured to process the captured images to perform driver monitoring. For example, driver monitoring is determining the three-dimensional head pose and/or line-of-sight position of the driver 102 within the monitoring environment. To accomplish this, vision processor 118 utilizes one or more line-of-sight determination algorithms. This may include, by way of example, the methods described in Edwards et al. The vision processor 118 determines driver 102 attributes such as eye closure, blink rate, and driver 102 to detect driver attention, drowsiness, or other problems that may interfere with the driver's safe vehicle operation. Various other functions may also be performed, including tracking head movements.

ビジョンプロセッサ118で取得された生の画像データ、視線位置データ、及び他のデータは、メモリ116に記憶される。 Raw image data, gaze position data, and other data acquired by vision processor 118 are stored in memory 116 .

デバイスコントローラ120は、シャッター速度及び/又は画像センサ露出/積分時間のようなカメラ106のさまざまなパラメータを制御し、カメラ106の露出時間と同期して、又はより一般的には予め定義された画像キャプチャ期間内に、下で記載された方法でLED108及び110を選択的に作動させるように構成される。LED108及び110は、好ましくは、デバイスコントローラ120に電気的に結合されるが、それらはまた、Bluetooth(商標)又はWiFi(商標)通信のような無線通信を通して、コントローラ120によって無線で制御されてもよい。 The device controller 120 controls various parameters of the camera 106, such as shutter speed and/or image sensor exposure/integration time, synchronizing the exposure time of the camera 106, or more generally pre-defined image processing. It is configured to selectively activate the LEDs 108 and 110 in the manner described below during the capture period. LEDs 108 and 110 are preferably electrically coupled to device controller 120, although they may also be wirelessly controlled by controller 120 through wireless communications such as Bluetooth™ or WiFi™ communications. good.

よって、車両104の操作中、デバイスコントローラ120は、ビデオシーケンスの形でドライバー102の顔の画像群をキャプチャするために、カメラ106をアクティブ化する。LED108及び110は、予め定義された画像キャプチャ期間の間、ドライバーを照らすように、カメラ106によってキャプチャされる画像フレームと同期してアクティブ化されたり、非アクティブ化されたりする。デバイスコントローラ120及びビジョンプロセッサ118は、協働して、車両104の通常の操作中の眠気、注意、及び視線位置のようなドライバーの状態の情報を取得するために、ドライバーの画像をキャプチャすること、及び処理することを提供する。またデバイスコントローラ120及びビジョンプロセッサ118は、協働して、以下に記載の動的な照明制御を実行する。 Thus, during operation of vehicle 104, device controller 120 activates camera 106 to capture images of driver's 102 face in the form of a video sequence. LEDs 108 and 110 are activated and deactivated synchronously with the image frames captured by camera 106 to illuminate the driver for a predefined image capture period. The device controller 120 and the vision processor 118 work together to capture images of the driver to obtain information on the driver's condition, such as drowsiness, alertness, and gaze position during normal operation of the vehicle 104. , and provide to process. Device controller 120 and vision processor 118 also cooperate to perform dynamic lighting control as described below.

システムの追加の構成要素はまた、ユニット111の共通の筐体中に含まれてもよく、又は他の追加の実施形態に従って別の構成要素として提供されてもよい。ある実施形態では、コントローラ112の動作は、カメラ106及びLED108及び110と結合されているオンボート車両コンピュータシステムによって実行される。 Additional components of the system may also be included in the common housing of unit 111 or provided as separate components according to other additional embodiments. In one embodiment, the operations of controller 112 are performed by an onboard vehicle computer system that is coupled with camera 106 and LEDs 108 and 110 .

本明細書を通して、ビジョンプロセッサ118又はデバイスコントローラ120によって実行される具体的な機能は、コントローラ112によって実行されるものとして、より広く記載され得る。
[明瞳孔条件]
Throughout this specification, specific functions performed by vision processor 118 or device controller 120 may be more broadly described as being performed by controller 112 .
[Bright pupil condition]

次に図4を参照すると、明瞳孔状態の概略図が図示されている。この図を参照して、明瞳孔条件の概念が記載される。 Referring now to FIG. 4, a schematic diagram of the bright pupil condition is shown. With reference to this figure, the concept of the bright pupil condition is described.

赤外線LED400のような点光源が目402を照らすために用いられるとき、目402のレンズ404は、点光源を網膜408の表面上の画像406に結像させる。レンズ404は不完全なレンズであるため、画像406は網膜408上でぼやけた円板になる。いくらかの光は網膜408から乱反射し、この光のサブセットはレンズ404上に入射する。この反射光のサブセットは、レンズ404によって、光源に戻るように集光される。再び、レンズ404は不完全であるため、反射光は、理想的な点ではなく、LED400の周囲の有限直径の円板として結像される。円板は、撮像された画像が明瞳孔効果を示すであろう領域410を表す。 When a point light source such as infrared LED 400 is used to illuminate eye 402 , lens 404 of eye 402 images the point light source into image 406 on the surface of retina 408 . Since lens 404 is an imperfect lens, image 406 becomes a blurred disc on retina 408 . Some light is diffusely reflected from retina 408 and a subset of this light is incident on lens 404 . A subset of this reflected light is focused back to the light source by lens 404 . Again, due to imperfections in lens 404 , the reflected light is imaged as a finite diameter disk around LED 400 rather than an ideal point. The disc represents a region 410 where the captured image would exhibit a bright pupil effect.

目の瞳孔412を通過する光のみが目402の内部に入ることができるので、領域410によって規定される明瞳孔領域は、瞳孔直径が小さくなって輝度が減少すると、小さくなる。空間において異なる領域(異なる視線角度(gaze angles))を見るように目が回転すると、網膜408上の画像406の位置、形状、及びサイズは変化する。結果として、領域410のサイズ及び輝度は、視線角度とともに変化する。 Since only light that passes through the pupil 412 of the eye can enter the interior of the eye 402, the bright pupil area defined by region 410 decreases as the pupil diameter decreases and the brightness decreases. The position, shape, and size of image 406 on retina 408 change as the eye rotates to look at different areas in space (different gaze angles). As a result, the size and brightness of region 410 varies with viewing angle.

明瞳孔効果は、
・瞳孔の拡大(大きさ)、
・カメラに対する視線角度、
・被写体の年齢及び民族性、及び
・光の波長
を含む多くの要因に影響される。
The bright pupil effect is
Enlarging the pupil (size),
・Gaze angle to the camera,
• Affected by many factors, including age and ethnicity of the subject, and • wavelength of light.

明瞳孔効果の下では、グレースケール画像において、瞳孔は周囲の虹彩より明るくなる。カメラで撮像されるとき、虹彩は、非常に明るい瞳孔の周りにある暗い領域であるように見える。これは図5の左部に図示されており、それはまた、目が照らされた例示的角度を示す。図5の右部は、瞳孔が周囲の虹彩より暗い、より一般的な暗瞳孔条件を図示する。 Under the bright pupil effect, the pupil is brighter than the surrounding iris in a grayscale image. When imaged by a camera, the iris appears to be the dark area around the very bright pupil. This is illustrated in the left part of Figure 5, which also shows an exemplary angle at which the eye is illuminated. The right part of FIG. 5 illustrates the more common dark pupil condition where the pupil is darker than the surrounding iris.

人間の目の生理機能を考慮すると、明瞳孔効果は典型的には、撮像カメラが目に対して光源から3.25度未満の角度において配置されているときに表れる。しかし、明瞳孔効果が表れる特定の角度は、上の要因及び他の要因とともに変化することが理解されよう。 Considering the physiology of the human eye, the bright pupil effect typically appears when the imaging camera is placed relative to the eye at an angle of less than 3.25 degrees from the light source. However, it will be appreciated that the specific angles at which the bright pupil effect appears will vary with the above and other factors.

次に図6及び図7を参照すると、ドライバーモニタリングシステム100の平面図が図示されている。図6は、LED108及び110の照明領域及びカメラ106の視野を図示する。図7は、カメラ106及びLED108及び110の間の、カメラ光軸を含む幾何学的角度を図示する。通常の運転条件の下では、カメラ106及びLED108及び110は、典型的には、ドライバー102の顔から30 cm及び80 cmの間の距離に配置される。明瞳孔条件を実現する(LED108及び110がカメラ106の光学軸から3.25度(図7におけるθ1及びθ2)未満の角度でドライバー102を照らす)ためには、LED108及び110は、カメラ106から約30 mm内に配置されるべきである。しかし、外側LED110は、カメラ106のレンズから最大で約50 mmの距離に配置されてもよい。 6 and 7, top views of driver monitoring system 100 are illustrated. FIG. 6 illustrates the illuminated areas of LEDs 108 and 110 and the field of view of camera 106 . FIG. 7 illustrates the geometric angle between camera 106 and LEDs 108 and 110, including the camera optical axis. Under normal driving conditions, camera 106 and LEDs 108 and 110 are typically placed at a distance of between 30 cm and 80 cm from driver's 102 face. To achieve a bright pupil condition (LEDs 108 and 110 illuminating driver 102 at an angle of less than 3.25 degrees (θ1 and θ2 in FIG. 7) from the optical axis of camera 106), LEDs 108 and 110 should be about 30° from camera 106. should be placed within mm. However, the outer LEDs 110 may be placed at a distance of up to about 50 mm from the camera 106 lens.

カメラ及び照明装置の間の角度の離隔としてある値が与えられたとき、瞳孔の大きさが大きいほど瞳孔の輝度が高くなる。同様に、カメラ/照明装置の角度としてある値が与えられたとき、カメラを真っ直ぐに見る被写体は、被写体が軸から外れた方向を見るときよりも瞳孔が暗くなる。 For a given value of the angular separation between the camera and the illuminator, the larger the pupil size, the higher the brightness of the pupil. Similarly, for a given value of camera/illuminator angle, a subject looking straight into the camera will have a darker pupil than when the subject is looking off-axis.

周囲に相当な照明があるとき、明瞳孔と虹彩とのコントラストは、瞳孔の輝度と虹彩の輝度とによって求められる。瞳孔の輝度は、ほぼ、LEDからの制御された照明だけに起因する明瞳孔効果による。周囲光は、明瞳孔の強度に大きな影響を与えない。虹彩の輝度は、制御された照明と周囲の照明との組み合わせによる。 When there is substantial ambient illumination, the contrast between the bright pupil and the iris is determined by the brightness of the pupil and the brightness of the iris. The brightness of the pupil is mostly due to the bright pupil effect due only to the controlled illumination from the LEDs. Ambient light does not significantly affect the intensity of the bright pupil. The iris brightness is due to a combination of controlled lighting and ambient lighting.

したがって、他のモニタリング環境において及び異なる条件下では、LED108及び110は、依然として明瞳孔条件を達成できるように、カメラ106からより離れた距離で配置されてもよいことが理解されよう。 Therefore, it will be appreciated that in other monitoring environments and under different conditions, LEDs 108 and 110 may be placed at a greater distance from camera 106 to still achieve bright pupil conditions.

上述のように、虹彩及び瞳孔がほぼ同じ強度で撮像され、瞳孔のコントラストが非常に低くなる「グレー瞳孔」状況と呼ばれるシチュエーションが存在する。典型的には、グレー瞳孔は、瞳孔の大きさが小さいとき(瞳孔の輝度が比較的低いとき)にのみ発生するので、グレー瞳孔は典型的には、明るい可視の周囲条件下(虹彩の輝度が一般に高いとき)でのみ発生する。 As mentioned above, there is a situation called a "gray pupil" situation where the iris and pupil are imaged with approximately the same intensity and the contrast of the pupil is very low. Typically, gray pupils occur only when the pupil size is small (when pupil brightness is relatively low), so gray pupils typically occur under bright visible ambient conditions (iris brightness is generally high).

グレー瞳孔状況は、
・明瞳孔効果の強度を変更すること(例えば、照明光源を撮像カメラのレンズに近づける又は遠ざけることによって)、
・制御された照明の強度を調節すること、及び
・周囲光の強度を調節すること
によって低減され得る。
gray pupil situation
- Varying the intensity of the bright pupil effect (e.g. by moving the illumination source closer or further away from the lens of the imaging camera);
It can be reduced by: adjusting the intensity of the controlled lighting; and adjusting the intensity of the ambient light.

センサの積分時間(シャッター期間)を変化させることのような、撮像カメラの露出期間を変えることによって、瞳孔/虹彩のコントラストを変えることも可能である。しかし、本願発明者は、照明パワーを動的に制御することが、デバイスコントローラ120の制御アルゴリズムの露出制御ループにおいて、複雑さが増すこと又は必要とされる変更点がないので有利であることをつきとめた。照明パワーを動的に制御することは、Nobleによる「System and Method for Improving Signal to Noise Ratio in Object Tracking Under Poor Light Conditions」と題され及びSeeing Machines Pty Ltdに譲渡されたPCT特許出願公開WO2019/084595号(以下「Noble」)に記載されているように、光の不十分な状況下で、被写体追跡における信号対雑音比を向上させるためにまた有利である。また動的な照明制御は、ある条件下で、システムのパフォーマンスを改善させるために、動的な露出制御と連動して実行されてもよいが、その代償として、制御アルゴリズムの複雑さが増す。
[照明制御]
It is also possible to change the pupil/iris contrast by changing the exposure period of the imaging camera, such as by changing the integration time (shutter period) of the sensor. However, the inventors have found that dynamically controlling the illumination power is advantageous because there is no added complexity or required changes in the exposure control loop of the device controller 120 control algorithm. I found it. Dynamically controlling illumination power is disclosed in PCT Patent Application Publication No. WO2019/084595 entitled "System and Method for Improving Signal to Noise Ratio in Object Tracking Under Poor Light Conditions" by Noble and assigned to Seeing Machines Pty Ltd. (hereinafter "Noble"), it is also advantageous for improving the signal-to-noise ratio in subject tracking under poor lighting conditions. Dynamic lighting control may also be performed in conjunction with dynamic exposure control to improve system performance under certain conditions, but at the cost of increased complexity of the control algorithm.
[Lighting control]

次に図8を参照すると、システム100のようなアイトラッカーシステムにおいて、目の瞳孔及び虹彩の最小瞳孔/虹彩コントラストが維持されることを確実にするための照明方法800における主要なステップ群を示すプロセスフロー図が図示されている。方法800は、ステップ801において、予め定義された画像キャプチャ期間中、被写体102の画像をキャプチャするようにカメラ106を構成することを含む。予め定義された画像キャプチャ期間は、通常のフレームレートにおいて動作するカメラ106の、通常のシャッター期間を表し得る。しかし、カメラ106は、単一のシャッター期間中に、画像センサの複数の積分が起こる、より高いフレームレートモードで動作するように構成されてもよい。同様に、いくつかのカメラは、画像データを記憶させるのと同時に、複数の画像センサを使用して、単一のシャッター期間中に複数の画像を記録するように構成される。ここで、予め定義された画像キャプチャ期間は、センサ積分の複数個の期間を表してもよい。よって、単一の画像キャプチャ期間内に複数の画像がキャプチャされることも可能である。「画像キャプチャ期間」という用語は、それがカメラ106のセンサ積分モードの標準のフレームレートであろうと、より高いフレームレートであろうと、画像キャプチャの全ての変化形をカバーするように意図される。 Referring now to FIG. 8, major steps in an illumination method 800 for ensuring that minimum pupil/iris contrast of the pupil and iris of the eye is maintained in an eye tracker system such as system 100 are shown. A process flow diagram is shown. Method 800 includes, at step 801, configuring camera 106 to capture an image of subject 102 during a predefined image capture period. The predefined image capture period may represent a normal shutter period for camera 106 operating at a normal frame rate. However, camera 106 may be configured to operate in a higher frame rate mode in which multiple integrations of the image sensor occur during a single shutter period. Similarly, some cameras are configured to record multiple images during a single shutter period using multiple image sensors while storing image data. Here, the predefined image capture period may represent multiple periods of sensor integration. Thus, it is also possible for multiple images to be captured within a single image capture period. The term "image capture period" is intended to cover all variations of image capture, whether it is the standard frame rate of the sensor integration mode of camera 106 or a higher frame rate.

キャプチャされた画像は、被写体目の片方又は両方を含む。あるアイトラッカーシステムでは、それぞれの目のアイトラッキングは独立して実行され、他のアイトラッカーシステムでは、両方の目が同時に追跡される。ある画像フレームでは両方の目を追跡できないとき、片方の目だけが追跡されてもよい。どちらの目も追跡できないときは(例えば、被写体の目が閉じられているとき)、その画像フレームは、アイトラッキングの目的のために破棄されて、後続の画像が読み込まれてもよい。 The captured image includes one or both of the subject's eyes. In some eye tracker systems, eye tracking for each eye is performed independently, while in other eye tracker systems both eyes are tracked simultaneously. Only one eye may be tracked when both eyes cannot be tracked in an image frame. When neither eye can be tracked (eg, when the subject's eyes are closed), that image frame may be discarded for eye tracking purposes and a subsequent image read.

ステップ802において、被写体の目の片方又は両方は、予め定義された画像キャプチャ期間中、LED108及び110の1つ又は両方によって照らされる。実際には、照明が予め定義された画像キャプチャ期間中に行われるように、ステップ801及び802は互いに同期して実行される。 At step 802, one or both of the subject's eyes are illuminated by one or both of LEDs 108 and 110 for a predefined image capture period. In practice, steps 801 and 802 are performed synchronously with each other so that illumination occurs during a predefined image capture period.

ステップ803において、コントローラ112は、キャプチャされた画像における測定された瞳孔/虹彩のコントラストが、所定の最小の瞳孔/虹彩のコントラストを超えるような明瞳孔反射の強度を生成するように、LED108及び110のうちの少なくとも1つの出力を選択的に変化させる。このステップの一部として、ビジョンプロセッサ118は、現在又は過去の画像から、瞳孔/虹彩のコントラストを計算してもよい。このコントラストの計算は、下で詳細に記載される。 In step 803, controller 112 controls LEDs 108 and 110 to produce an intensity of the bright pupil reflex such that the measured pupil/iris contrast in the captured image exceeds a predetermined minimum pupil/iris contrast. selectively changing the output of at least one of As part of this step, vision processor 118 may calculate pupil/iris contrast from current or past images. This contrast calculation is described in detail below.

下でより詳細に記載されているように、本発明は、LED群(又は他の照明装置)の異なる組み合わせを有する異なる実施形態を含む。第1実施形態では、図1-3、6及び7で図示されている、2つのLED(108及び110)が提供され、それぞれのLEDは、明瞳孔効果を生成するためにカメラ106のレンズに十分近いが、異なる明瞳孔反射の特性を生成するためにレンズから異なる距離に配置される。例として、この第1実施形態の構成は図9に概略的に図示されており、ここでLED108はカメラ106のレンズから9 mmの距離に配置され、LED110はカメラ106のレンズから50.3 mmの距離に配置される。 As described in more detail below, the present invention includes different embodiments having different combinations of LED groups (or other lighting devices). In a first embodiment, illustrated in FIGS. 1-3, 6 and 7, two LEDs (108 and 110) are provided, each LED directed to the lens of camera 106 to produce the bright pupil effect. Close enough, but placed at different distances from the lens to produce different bright pupil reflex characteristics. By way of example, the configuration of this first embodiment is illustrated schematically in FIG. 9, where LED 108 is positioned at a distance of 9 mm from the lens of camera 106 and LED 110 is positioned at a distance of 50.3 mm from the lens of camera 106. placed in

明瞳孔効果を生成し、異なる明瞳孔反射の特性を生成するためには、LED108及び110の他の配置が可能であることが理解されよう。例として、近い側のLED108は、カメラ106のレンズから約3 mm-15 mmの範囲内に配置されてもよく、遠い側のLED110は、カメラ106のレンズから約7 mm-50 mmの範囲内に配置されてもよい。いくつかの実施形態では、近い側のLED108は、カメラ106のレンズから約8 mm-13 mmの範囲内に配置され、遠い側のLED110は、カメラ106のレンズから約20 mm-30 mmの範囲内に配置されることが好ましい。 It will be appreciated that other arrangements of the LEDs 108 and 110 are possible to produce the bright pupillary effect and to produce different bright pupillary reflection characteristics. As an example, the near side LED 108 may be positioned within about 3 mm-15 mm from the camera 106 lens, and the far side LED 110 may be positioned within about 7 mm-50 mm from the camera 106 lens. may be placed in In some embodiments, the near side LED 108 is positioned within about 8 mm-13 mm from the camera 106 lens and the far side LED 110 is positioned within about 20 mm-30 mm from the camera 106 lens. It is preferably located within

カメラ106及びLED108及び112の間の最適な離隔距離は、カメラレンズ及びLED/二次光学系の物理的な限界、及びカバーグラス(過度の内部反射を避けるための)の存在及び設計のような要因に依存することも理解されよう。 The optimal separation between camera 106 and LEDs 108 and 112 depends on physical limitations of the camera lens and LED/secondary optics, and the presence and design of cover glasses (to avoid excessive internal reflections). It will also be understood that it depends on factors.

図10に図示される第2実施形態のシステム200においては、単一のLED108だけが、被写体の片方の目又は両目を照らすように使用される。単一のLED108は、明瞳孔効果を生成するように、カメラ106のレンズに十分に近くに配置される。両方の実施形態では、LED群は、キャプチャされた画像における測定された瞳孔/虹彩のコントラストが、所定の最低限の瞳孔/虹彩のコントラストを超えるような明瞳孔反射の強度を生成するように、それらの出力を選択的に変化させるために、コントローラ112によって動的に駆動される。最低限の瞳孔/虹彩のコントラストを実現することによって、アイトラッキングシステムのパフォーマンスが向上し、撮像されている被写体の視線を正しく検出し及び追跡することができる。 In the second embodiment system 200 illustrated in FIG. 10, only a single LED 108 is used to illuminate one or both eyes of the subject. A single LED 108 is placed close enough to the lens of the camera 106 to produce a bright pupil effect. In both embodiments, the LEDs are arranged such that the intensity of the bright pupillary reflex is such that the measured pupil/iris contrast in the captured image exceeds a predetermined minimum pupil/iris contrast. They are dynamically driven by controller 112 to selectively change their outputs. Achieving a minimum pupil/iris contrast improves the performance of the eye-tracking system to correctly detect and track the line of sight of the subject being imaged.

これらの実施形態の両方が、下に記載されている。それぞれの実施形態は、明瞳孔効果を誘起させるために、カメラのレンズの十分近くに配置されるLED群(又はより一般的には照明装置)を制御することに関するだけであることが理解されよう。これは、光源がカメラのレンズから離れて配置され得るのでカメラの光軸から大きく外れる暗瞳孔条件で動作する、他の照明システムとは異なる。
[実施形態1--2つのLEDによる照明]
Both of these embodiments are described below. It will be appreciated that each embodiment is only concerned with controlling LEDs (or more generally lighting devices) placed sufficiently close to the lens of the camera to induce the bright pupil effect. . This is unlike other illumination systems that operate in dark pupil conditions well off the camera's optical axis because the light source can be located far from the camera's lens.
[Embodiment 1--Lighting with two LEDs]

再び図9を参照すると、それぞれの照明装置は、明瞳孔効果(上述のように)を生成するためにカメラ106のレンズに十分近くに配置されるが、異なる明瞳孔反射の特性を生成するためにレンズから異なる距離に配置される。明瞳孔の特性は、照らされている目が受ける再帰性反射効果(retroreflection effect)の大きさの測定値を含む。再帰性反射効果の大きさは、与えられたLEDの電力について、異なる照射位置において瞳孔及び虹彩の画素値を測定することによって定量化できる。これは、いくつかの実施形態では、キャプチャされた画像内の、虹彩領域内の1つ以上の画素及び瞳孔領域内の1つ以上の画素の輝度又は画素強度の測定値として測定可能である。これら輝度の測定は、カメラ106からの生の(raw)画像データの画像処理中に、ビジョンプロセッサ118によって実行される。 Referring again to FIG. 9, each illuminator is positioned close enough to the lens of the camera 106 to produce the bright pupil effect (as described above), but is positioned close enough to the lens of the camera 106 to produce different bright pupil reflection characteristics. are placed at different distances from the lens. Bright pupil characteristics include a measure of the magnitude of the retroreflection effect experienced by the illuminated eye. The magnitude of the retroreflective effect can be quantified by measuring the pupil and iris pixel values at different illumination positions for a given LED power. This can be measured in some embodiments as a measure of luminance or pixel intensity of one or more pixels in the iris region and one or more pixels in the pupil region in the captured image. These luminance measurements are performed by vision processor 118 during image processing of raw image data from camera 106 .

輝度の測定値は、グレースケールの輝度の測定値で表現され、典型的には、キャプチャされた画像(例えば16ビット)のフォーマットで表現される。この輝度の測定値は、画像の虹彩及び瞳孔のそれぞれに位置すると判定された、複数の画素の平均の輝度値を含んでもよい。例えば、暗瞳孔の状況では、生の16ビットの瞳孔の輝度は3,540で、虹彩の輝度は18,050かもしれない。明瞳孔の状況では、生の16ビットの瞳孔の輝度は32,501で、虹彩の輝度は3,460かもしれない。目の異なる領域の判定は、エッジ検出、形状認識及び輪郭検出のような既知の画像処理技術によって、ビジョンプロセッサ118によって実行される。 The luminance measurement is represented by a grayscale luminance measurement, typically in the captured image (eg, 16-bit) format. This brightness measurement may comprise the average brightness value of a plurality of pixels determined to be located in each of the iris and pupil of the image. For example, in a dark pupil situation, the raw 16-bit pupil luminance might be 3,540 and the iris luminance might be 18,050. In the bright pupil situation, the raw 16-bit pupil luminance might be 32,501 and the iris luminance might be 3,460. The determination of different eye regions is performed by vision processor 118 by known image processing techniques such as edge detection, shape recognition and contour detection.

虹彩領域及び瞳孔領域の判定は、Edwardsらに記載されているアルゴリズムのような、より普遍的なアイトラッキングアルゴリズムの一部として実行され得る。しかし、典型的には、これらの領域は、エッジ検出、形状認識及びハフ変換のような画像処理技術によって特定されてもよい。よって、画像内で、虹彩領域及び瞳孔領域は、個々の画素からなる2次元の領域又は領域群として定義され得る。 The determination of iris and pupil regions can be performed as part of a more general eye-tracking algorithm, such as the algorithm described in Edwards et al. Typically, however, these regions may be identified by image processing techniques such as edge detection, shape recognition and Hough transform. Thus, within an image, the iris and pupil regions can be defined as a two-dimensional region or group of regions made up of individual pixels.

瞳孔/虹彩のコントラストの測定は、定義された瞳孔領域内の1つ以上の画素の輝度値を、定義された彩虹領域内の1つ以上の画素の輝度値と比較することによって実行され得る。画素のサンプルは、それぞれの領域からの単一の画素、それぞれの領域の周りに分布する画素のグループ、又はそれぞれの領域内の画素の一部又は全ての平均の画素値であり得る。 Pupil/iris contrast measurements may be performed by comparing luminance values of one or more pixels within the defined pupil region to luminance values of one or more pixels within the defined iris region. A pixel sample can be a single pixel from the respective region, a group of pixels distributed around the respective region, or an average pixel value of some or all of the pixels within the respective region.

ここで図11を参照すると、システム100の異なる要素間で通信されるさまざまなデータを示す図3の変形例が図示されている。ここで、ビジョンプロセッサ118がカメラ106から生の画像データを受信し、さまざまなデータをデバイスコントローラ120に送信することが示される。簡単のため、メモリ116は図11に図示されていないが、カメラ106、ビジョンプロセッサ118、及びデバイスコントローラ120の間のデータ通信は、メモリ116でのデータの記憶及び取得を含み得る。 Referring now to FIG. 11, a variation of FIG. 3 showing various data communicated between different elements of system 100 is illustrated. Here, vision processor 118 is shown receiving raw image data from camera 106 and sending various data to device controller 120 . Although memory 116 is not shown in FIG. 11 for simplicity, data communication between camera 106, vision processor 118, and device controller 120 may include storage and retrieval of data in memory 116. FIG.

方法800の照明制御ステップ803の間、コントローラ112は、生成された制御信号130及び132に基づいて、LED108及び110の片方又は両方の出力をそれぞれ制御する。制御信号130及び132は、デバイスコントローラ120によって求められ、対応するLEDが赤外線放射を発生させるように駆動される電流及び/又は電圧の信号を含む。典型的には、LED群は、定義されたピークパワー及びパルス幅を有するパルス出力を用いて制御される。システム100において、パルス幅は、カメラ106の露出時間と実質的に一致するようにデバイスコントローラ120によって設定される。 During lighting control step 803 of method 800, controller 112 controls the output of one or both of LEDs 108 and 110 based on generated control signals 130 and 132, respectively. Control signals 130 and 132 include current and/or voltage signals determined by device controller 120 to drive corresponding LEDs to generate infrared radiation. Typically, LED groups are controlled using pulsed outputs with defined peak powers and pulse widths. In system 100 , the pulse width is set by device controller 120 to substantially match the exposure time of camera 106 .

デバイスコントローラ120による出力の変形例は、パルスピーク値、パルス波形、又はパルス幅を変化させることのような変形例をカバーする。ある実施形態では、パルスのエネルギー含有量がデバイスコントローラ120によって変化させられるようにLED群は制御される。他の実施形態では、パルスのエネルギー含有量は一定のままであるが、パルスピーク値及び/又はパルス波形は変化させられる。例として、LED群は、上で参照されたNobleの公報に記載されているように、パルス処理の曲線に動的に基づいて制御されてもよい。 Variations in output by the device controller 120 cover variations such as varying the pulse peak value, pulse shape, or pulse width. In some embodiments, the LED groups are controlled such that the energy content of the pulses is varied by device controller 120 . In other embodiments, the energy content of the pulse remains constant, but the pulse peak value and/or pulse shape is varied. By way of example, LED groups may be controlled dynamically based on pulsing curves, as described in the Noble publication referenced above.

デバイスコントローラ120によって求められる制御信号は、1つ以上の以下の入力に基づき得る。
・周囲光の測定値
周囲光の測定値は、外部の周囲光センサ150から取得され、デバイスコントローラ120に供給されてもよい。代替として、周囲光の測定値は、多くの画像についての背景の特徴の比較を通じて、キャプチャされた画像からビジョンプロセッサ118によって推定され得る。ビジョンプロセッサ118は、物体の反射率、物体までの距離、及び制御された照明の量を考慮することによって、キャプチャされた画像から周囲光の測定値を抽出するアルゴリズムを実現し得る。もし、測定されている物体がカメラに対して固定されている(車両室内の物体のような)なら、距離のファクターは一定のままである。ある実施形態では、周囲光の代用の測定値は、カメラ106の露出設定及び/又はLED群の照明設定から求められる。カメラは、光の条件に基づいて画像の露出時間を制御するように構成された内蔵のハードウェア及びソフトウェアを有するので、これらの露出設定を使用することは、周囲光の代用の測定値として使用されてもよい。例として、周囲光の光量が低い条件のシーンにおいては、カメラ106は、画像センサを介して自動的に光のレベルを検出し、より長い画像露出時間を設定する。
・被写体の瞳孔径の測定値
これは、瞳孔径が識別可能な前の画像から、ビションプロセッサ118によって測定される。直径の瞳孔が大きいほど、周囲光の量が少ないことを示し、瞳孔が小さいほど、周囲光の量が多いことを示す。瞳孔径の測定値はまた、存在する周囲光の代用の測定値として使用されてもよい。
・現在又は最近の、被写体の視線方向
人間の目の複雑な幾何学形状によって、光が入射する領域が異なると、反射の特性も異なることを意味する。目が光源の方にまっすぐに向いているとき、強い再帰性反射が発生し、明瞳孔効果が表れる。しかし、光源から離れるような異なる視線角度においては、異なる反射の特性が表れ、明瞳孔効果が得られる場合もあり、得られない場合もある。さらに、目の幾何学的形状は人によって異なるので、これら特性も人によって異なる。よって、ドライバーモニタリングシステム100によって測定される現在又は最近の視線方向は、LED108及び110を制御するための入力として利用され得る。
・被写体の生理学的パラメータ
年齢及び民族が異なると、人間の個々人は、目のサイズにおいてばらつきを持つ、他人とは異なる目の幾何学的形状を有する。特に、人間の水晶体の大きさ及び瞳孔の拡大の分量は、人によって変わり得る。これは、与えられた光学システムについて、異なる明瞳孔反応及び暗瞳孔反応を生じる。人によって変わる例示的な生理学的パラメータは、眼底又は水晶体の大きさ、形状、及び反射率、並びに瞳孔の形状及び反応を含む。ある実施形態では、これらのパラメータは、デバイスコントローラ120に入力され、適切な制御信号130及び132を求めることにおいて考慮され得る。ある実施形態では、これらの生理学的パラメータは、直接的に測定される。他の実施形態では、生理学的パラメータは、トレーニングデータ及びその類似のものに基づいて、パラメータを最適化することによって当てはめがなされる。
・瞳孔のコントラストの直接測定
ある実施形態では、ビジョンプロセッサ118は、被写体の目の瞳孔のコントラストの測定値を求めるために、キャプチャされた画像を処理するように構成される。瞳孔のコントラストの、この測定値は、現在又は過去のキャプチャされた画像から取得されてもよいが、LED108及び110の出力を制御するために、デバイスコントローラ120への入力を形成してもよい。ある実施形態では、上述のように、瞳孔のコントラストの測定値は、定義された瞳孔領域内の1つ以上の画素の輝度値を、定義された虹彩領域内の1つ以上の画素の輝度値と比較することによって求められる。他の実施形態では、瞳孔のコントラストは、虹彩領域から瞳孔領域に至る画素値の傾きを求めることのような、他の技術によって導き出されてもよい。
The control signal sought by device controller 120 may be based on one or more of the following inputs.
Ambient Light Measurements Ambient light measurements may be obtained from an external ambient light sensor 150 and provided to the device controller 120 . Alternatively, ambient light measurements may be estimated by vision processor 118 from captured images through comparison of background features for many images. Vision processor 118 may implement algorithms that extract ambient light measurements from captured images by considering the reflectance of objects, the distance to objects, and the amount of controlled lighting. If the object being measured is fixed relative to the camera (such as an object in a vehicle interior), the distance factor remains constant. In some embodiments, a proxy measurement of ambient light is derived from the camera 106 exposure settings and/or the LED group illumination settings. Since cameras have built-in hardware and software configured to control image exposure times based on lighting conditions, using these exposure settings can be used as a proxy measure of ambient light. may be As an example, in scenes with low ambient light conditions, the camera 106 automatically detects the light level via the image sensor and sets a longer image exposure time.
A measurement of the subject's pupil diameter This is measured by the vision processor 118 from a previous image in which the pupil diameter is discernible. A larger diameter pupil indicates a lower amount of ambient light, and a smaller pupil indicates a higher amount of ambient light. A measurement of pupil diameter may also be used as a surrogate measurement of the ambient light present.
Current or recent viewing direction of the subject. The complex geometry of the human eye means that different areas of light incidence have different reflection characteristics. When the eye is looking straight at the light source, a strong retroreflection occurs and the bright pupil effect appears. However, at different viewing angles away from the light source, different reflection characteristics appear and may or may not result in a bright pupil effect. Furthermore, because the geometry of the eye varies from person to person, these characteristics also vary from person to person. Thus, the current or recent gaze direction as measured by driver monitoring system 100 may be utilized as input for controlling LEDs 108 and 110 .
Physiological parameters of the subject Human individuals of different ages and ethnicities have different eye geometries than others, with variations in eye size. In particular, the size of the human lens and the amount of pupil dilation can vary from person to person. This results in different bright and dark pupillary responses for a given optical system. Exemplary physiological parameters that vary from person to person include the size, shape, and reflectance of the fundus or lens, and the shape and response of the pupil. In some embodiments, these parameters may be input to device controller 120 and considered in determining appropriate control signals 130 and 132 . In some embodiments, these physiological parameters are measured directly. In other embodiments, physiological parameters are fitted by optimizing parameters based on training data and the like.
Direct Measurement of Pupil Contrast In an embodiment, the vision processor 118 is configured to process the captured images to determine a measure of the pupil contrast of the subject's eye. This measure of pupil contrast, which may be obtained from current or past captured images, may form an input to the device controller 120 to control the output of the LEDs 108 and 110. In some embodiments, as described above, a pupil contrast measurement is obtained by combining the luminance values of one or more pixels within the defined pupil region with the luminance values of one or more pixels within the defined iris region. is obtained by comparing with In other embodiments, pupil contrast may be derived by other techniques, such as determining the slope of pixel values from the iris region to the pupil region.

デバイスコントローラ120は、1つ以上の上記入力に基づいて、LED108及び110のための所望の制御信号130及び132を生成する1つ以上のアルゴリズムを含む。制御信号の具体的な電圧値又は電流値は、制御アルゴリズムによって求められた上述の測定された入力の組み合わせに基づいてもよい。ある実施形態では、コントローラ120は、測定された入力に基づいて、LED108及び110のための所望の電圧及び/又は電流を設定する具体的な制御アルゴリズムを動作させる。ある実施形態では、それぞれの入力は、重要性に基づいて重み付けされる。 Device controller 120 includes one or more algorithms that generate desired control signals 130 and 132 for LEDs 108 and 110 based on one or more of the above inputs. A specific voltage or current value for the control signal may be based on a combination of the above measured inputs determined by the control algorithm. In some embodiments, controller 120 operates specific control algorithms that set desired voltages and/or currents for LEDs 108 and 110 based on the measured inputs. In one embodiment, each input is weighted based on importance.

典型的には、暗い環境(周囲光が弱い)においては、近い側のLED108がアクティブ化され、遠い側のLED110は非アクティブ化されてもよい。拡大した瞳孔については、カメラ及びLEDの間の角度の離隔の上限はより大きくてもよく、それは内部反射の問題を緩和する。瞳孔のサイズは小さいが被写体が軸から外れた方向を見ている状況、又は瞳孔のサイズが十分に大きい状況では、瞳孔/虹彩のコントラストを高めるように近い側のLED108をアクティブ化することが好ましい。 Typically, in a dark environment (low ambient light), the near side LED 108 may be activated and the far side LED 110 may be deactivated. For dilated pupils, the upper bound on the angular separation between the camera and the LED may be larger, which alleviates the problem of internal reflections. In situations where the pupil size is small but the subject is looking in an off-axis direction, or where the pupil size is large enough, it is preferable to activate the near side LED 108 to increase the pupil/iris contrast. .

典型的には、明るい環境(周囲光が強い)においては、遠い側のLED110がアクティブ化され、近い側のLED108は非アクティブ化されてもよい。収縮した瞳孔については、カメラ106及びLED108及び110の間の角度の離隔の下限はより小さくてもよいので、カメラの組立品のサイズがより小型になることを意味する。被写体がカメラ106を見ている状況、又は瞳孔のサイズが十分に小さい状況では、遠い側のLED110もアクティブ化され得る。 Typically, in bright environments (high ambient light), the far side LED 110 may be activated and the near side LED 108 may be deactivated. For a constricted pupil, the lower bound on the angular separation between the camera 106 and the LEDs 108 and 110 may be smaller, meaning that the camera assembly size is smaller. In situations where the subject is looking at the camera 106, or where the pupil size is small enough, the far side LED 110 may also be activated.

図12は、遠い側のLED110からの照明が好ましい例示的な状況を図示しており、図13は、近い側のLED108からの照明が好ましい例示的な状況を図示している。図12と図13との間には、ある重複する状況が存在することに注意されたい。これは、ある状況においては、近い側のLED108又は遠い側のLED110のどちらがアクティブ化されてもよいことを意味する。与えられたLEDの位置及び瞳孔のサイズについて、もし、被写体がカメラをまっすぐに見つめるなら、その瞳孔は被写体が他の方向を見るときよりも暗くなる。 FIG. 12 illustrates an exemplary situation in which illumination from far-side LEDs 110 is preferred, and FIG. 13 illustrates an exemplary situation in which illumination from near-side LEDs 108 is preferred. Note that there is some overlap between FIGS. 12 and 13. FIG. This means that either the near side LED 108 or the far side LED 110 may be activated in some situations. For a given LED position and pupil size, if the subject looks straight into the camera, the pupil will be darker than when the subject looks in other directions.

よって、ステップ803において、デバイスコントローラは、以下の例示的な照明条件が提供されるように、制御信号130及び132を実装し得る。
・LED108がアクティブ化され、LED110が非アクティブ化される。
・LED110がアクティブ化され、LED108が非アクティブ化される。
・LED108の出力が増加され、LED110が非アクティブ化される。
・LED110の出力が増加され、LED108が非アクティブ化される。
・LED108の出力が増加され、LED110が減少される。
・LED110の出力が増加され、LED108が減少される。
・LED108の出力が減少され、LED110が非アクティブ化される。
・LED110の出力が減少され、LED108が非アクティブ化される。
Thus, at step 803, the device controller may implement control signals 130 and 132 such that the following exemplary lighting conditions are provided.
LED 108 is activated and LED 110 is deactivated.
LED 110 is activated and LED 108 is deactivated.
• The output of LED 108 is increased and LED 110 is deactivated.
• The output of LED 110 is increased and LED 108 is deactivated.
- LED 108 power is increased and LED 110 is decreased.
- LED 110 output is increased and LED 108 is decreased.
LED 108 output is reduced and LED 110 is deactivated.
• The output of LED 110 is reduced and LED 108 is deactivated.

上の照明条件は、単に例示的なものであり、可能性のある条件を網羅したリストではないことが理解されよう。それぞれのLEDが増加又は減少される量は、上の入力の組み合わせに基づいてもよい。ある実施形態では、それぞれのLEDは、検出された入力の具体的な値又は範囲に基づいて、いくつかの予め定義された電圧又は電流のレベルのうちの1つにおいて駆動可能である。ある実施形態では、デバイスコントローラ120は、画像キャプチャ期間内において、1つ以上の照明装置の照明パワーを少なくとも2つの異なるパワーレベルに変化させる。 It will be appreciated that the lighting conditions above are merely exemplary and not an exhaustive list of possible conditions. The amount by which each LED is incremented or decremented may be based on a combination of the above inputs. In some embodiments, each LED can be driven at one of several predefined voltage or current levels based on the specific value or range of the detected input. In some embodiments, device controller 120 varies the illumination power of one or more illumination devices to at least two different power levels during the image capture period.

他の実施形態では、システム100は、明瞳孔効果を生成するように配置された2つより多いLED群を含むことが理解されよう。
[実施形態2--単一のLED]
It will be appreciated that in other embodiments, system 100 includes more than two groups of LEDs arranged to produce a bright pupil effect.
Embodiment 2--Single LED

ここで図10を参照すると、システム200は、近い側のLED108のみが実装されている第2実施形態を表す。この実施形態では、LED108は、カメラ106のレンズから3 mm-15 mmの距離に配置されることが好ましいが、必ずしもそうでなくてもよい。 Referring now to FIG. 10, system 200 represents a second embodiment in which only near side LEDs 108 are implemented. In this embodiment, the LEDs 108 are preferably placed at a distance of 3 mm-15 mm from the lens of the camera 106, but this need not be the case.

この単一のLEDの実施形態は、周囲光と制御された光との比率が瞳孔/虹彩のコントラストを最小レベルに回復させるまで、LEDの制御された照明の強度を動的に調節することだけによって、照明の角度を変えることなくグレー瞳孔効果の存在が緩和され得るという事実に依拠する。ここで、制御された光は、LED108から制御される方法で生成される光の量を表し、周囲光は、カメラ106のフォトセンサアレイによって撮像された全ての他の光を表す。 This single LED embodiment only dynamically adjusts the intensity of the LED's controlled illumination until the ratio of ambient light to controlled light restores the pupil/iris contrast to a minimal level. can mitigate the presence of the gray pupil effect without changing the illumination angle. Here, controlled light represents the amount of light generated from LED 108 in a controlled manner, and ambient light represents all other light imaged by the photosensor array of camera 106 .

LED108(及び、第1実施形態の場合はLED110もまた)の動的な制御は、以下の理解に基づいてデバイスコントローラ120によって実行され得る。
i. 低い周囲光の状況では、瞳孔は大きいが、周囲光が増えるに従って大きさが小さくなる。
ii. 虹彩は周囲光の増加とともに明るくなるが、瞳孔は明るくはならない。
iii. LED108(及び/又はLED110)による制御された照明は、デバイスコントローラ120によって実行されるカメラの自動露出制御アルゴリズムによって減少され、それは瞳孔及び虹彩の輝度を、同じ割合で減少させることになる。すなわち、瞳孔の輝度は、より大きな絶対量で減少するが、これはより高い値において始まるからである。これにより、瞳孔と虹彩との絶対的なコントラストが低下する。
Dynamic control of LEDs 108 (and also LEDs 110 in the first embodiment) may be performed by device controller 120 based on the following understanding.
i. In low ambient light conditions, the pupil is large, but decreases in size as ambient light increases.
ii. The iris brightens with increasing ambient light, but the pupil does not.
iii. The controlled illumination by LED 108 (and/or LED 110) is reduced by the camera's auto-exposure control algorithm executed by device controller 120, which will reduce pupil and iris brightness in the same proportion. That is, the brightness of the pupil decreases by a greater absolute amount, as it begins at a higher value. This reduces the absolute contrast between the pupil and the iris.

上の3つの効果の組み合わせは、明瞳孔条件下では、瞳孔の大きさは減少し、それは明瞳孔効果を減少させることになる(しかし、非常に低い周囲光の環境下では、使用可能な明瞳孔効果は、小さな瞳孔径に至るまで依然として存在する)。同時に、周囲光が明るくなること、及びLED出力制御アルゴリズムの調節を行うことが組み合わせられると、瞳孔の輝度が低くなり、虹彩の輝度が高くなる。組み合わせられた全てのこれらの効果は、明瞳孔効果を大きく減少させるように作用し、グレー瞳孔効果がより小さな照明角度において現れるようにする。 The combination of the above three effects is that under bright-pupil conditions, the pupil size will decrease, which will reduce the bright-pupil effect (however, under very low ambient light conditions, there will be no usable bright The pupillary effect is still present down to small pupil diameters). At the same time, the brightening of the ambient light combined with the adjustment of the LED output control algorithm results in lower pupil brightness and higher iris brightness. All these effects combined act to greatly reduce the bright pupil effect, causing the gray pupil effect to appear at smaller illumination angles.

よって、LEDの出力制御アルゴリズムは、周囲の条件とともに、瞳孔の大きさ及び虹彩の輝度の変動(ばらつき)を考慮すべきである。さらに、全ての周囲の条件、並びにその結果として生じる瞳孔の大きさ及び制御された照明レベルにわたって、明瞳孔をうまく生成し得るLEDの配置は、おそらく存在しないであろう。 Thus, the LED output control algorithm should take into account pupil size and iris luminance variations (variation) as well as ambient conditions. Furthermore, there is probably no LED arrangement that can successfully produce a bright pupil over all ambient conditions and resulting pupil sizes and controlled illumination levels.

ここで図14を参照すると、4つの異なる瞳孔の大きさについての、LEDとカメラのレンズとの角度の関数としての、検出された瞳孔/虹彩のコントラストのグラフが図示されている。このグラフは、与えられた距離についての、瞳孔の大きさ、瞳孔/虹彩のコントラスト、及びLED/カメラの離隔の関係を図示している。これらの関係により、所望の虹彩/瞳孔のコントラストを実現するために、周囲光のレベルを推定することが可能になり、LED(群)を制御するために構築されるべき一連のルールが可能になる。 Referring now to FIG. 14, a graph of detected pupil/iris contrast as a function of the angle between the LED and the camera lens is shown for four different pupil sizes. This graph illustrates the relationship between pupil size, pupil/iris contrast, and LED/camera separation for a given distance. These relationships allow the ambient light level to be estimated in order to achieve the desired iris/pupil contrast, and allow a set of rules to be constructed to control the LED(s). Become.

ある実施形態では、カメラ106は、1つの画像キャプチャ期間当たり、複数の画像をキャプチャするように構成される。これらの実施形態では、デバイスコントローラ120は、異なる照明条件下及び/又は画像キャプチャ条件下で、画像キャプチャ期間内で、例えばLED108の出力を調節することによって、少なくとも2つの画像をキャプチャするようにLED108を制御し得る。例えば、ある画像は、LED108が第1出力レベルにおいて駆動されている間にキャプチャされ得て、第2画像は、LED108が第1出力レベルとは異なる第2出力レベルにおいて駆動されている間に、キャプチャされる。この結果、制御された光のレベルは異なるが周囲光のレベルは共通である、2つの、同時の、又は非常に時間的間隔が狭い画像が得られる。他の実施形態では、露出時間又はセンサゲインのような画像キャプチャの設定は、画像間で変更されてもよい。 In some embodiments, camera 106 is configured to capture multiple images per image capture period. In these embodiments, the device controller 120 causes the LEDs 108 to capture at least two images under different lighting and/or image capture conditions within an image capture period, for example by adjusting the output of the LEDs 108 . can be controlled. For example, one image can be captured while LED 108 is driven at a first output level and a second image can be captured while LED 108 is driven at a second output level different from the first output level. captured. This results in two simultaneous or very closely spaced images with different levels of controlled light but a common level of ambient light. In other embodiments, image capture settings such as exposure time or sensor gain may be changed between images.

ビジョンプロセッサ118は、次に、瞳孔のコントラストが増加した、結果として得られる画像を生成するように、2つの画像に対して画像減算を実行してもよい。この画像減算プロセスでは、2つの画像の対応する画素の画素値が、周囲光の成分を除去し、明瞳孔効果を高めるように減算される。 Vision processor 118 may then perform image subtraction on the two images to produce a resulting image with increased pupillary contrast. In this image subtraction process, the pixel values of corresponding pixels in two images are subtracted to remove the ambient light component and enhance the bright pupil effect.

同様の画像減算プロセスは、第1実施形態について、LED108及び110のうちの1つ又は両方が異なる出力レベルにおいて変調された状態で実行され得る。 A similar image subtraction process can be performed for the first embodiment with one or both of LEDs 108 and 110 modulated at different output levels.

上で記載された発明は、暗瞳孔モードで動作する標準的なアイトラッキングシステムと同等の性能を有しているがパッケージサイズにおいては50パーセント削減した、瞳孔/虹彩のコントラストを使用した効率的なアイトラッキングを提供し得る(第1の実施形態の場合)。この小型化は、ダッシュボードの計器パネル上の空間が貴重である現代の車両においては有利である。第2実施形態(単一のLED)の場合、瞳孔の大きさが小さい状況では、性能が低下するものの、パッケージサイズがさらに削減され得る。
[解釈]
The invention described above provides an efficient eye tracking system using pupil/iris contrast that has comparable performance to standard eye tracking systems operating in dark pupil mode but with a 50 percent reduction in package size. Eye tracking may be provided (for the first embodiment). This miniaturization is advantageous in modern vehicles where space on the dashboard instrument panel is at a premium. For the second embodiment (single LED), the package size can be further reduced at the cost of lower performance in small pupil size situations.
[interpretation]

「赤外線」という用語は、本記載及び明細書の全体にわたって使用される。本明細書の範囲では、赤外線は、近赤外線、赤外線、及び遠赤外線の周波数つまり光波を含む電磁スペクトルの一般的な赤外線領域を表す。 The term "infrared" is used throughout this description and specification. In the scope of this specification, infrared refers to the general infrared region of the electromagnetic spectrum, which includes near-infrared, infrared, and far-infrared frequencies or light waves.

具体的に特段の記載がない限り、以下の議論から明らかなように、本明細書を通して、「処理」、「コンピューティング」、「計算」、「判定」、「分析」又はそれらの類似物のような語を利用した議論は、電子的のような物理的な量として表現されるデータを、物理的な量として同様に表現される他のデータに操作し及び/又は変換する、コンピュータ又はコンピューティングシステム又は類似の電子コンピューティング装置の動作及び/又は処理を表すことが理解されよう。 Unless specifically stated otherwise, as will be apparent from the discussion below, throughout this specification the terms "processing", "computing", "calculating", "determining", "analyzing" or the like Discussions using such terms include computers or computers that manipulate and/or transform data expressed as physical quantities, such as electronic, into other data that are similarly expressed as physical quantities. It will be understood to represent the operations and/or processing of a computing system or similar electronic computing device.

同様に、「コントローラ」又は「プロセッサ」の用語は、例えば、レジスタ及び/又はメモリからの電子データを処理して、その電子データを、例えばレジスタ及び/又はメモリに記憶され得る他の電子データに変換する装置の、任意の装置又はその一部を表し得る。「コンピュータ」又は「コンピューティングマシン」又は「コンピューティングプラットフォーム」は、1つ以上のプロセッサを含み得る。 Similarly, the terms "controller" or "processor" are used to process electronic data, e.g. It may represent any device or part thereof of a converting device. A "computer" or "computing machine" or "computing platform" may include one or more processors.

本明細書を通して「1つの実施形態」、「いくつかの実施形態」、又は「ある実施形態」という言い方は、実施形態に関連して記載された特定の特徴、構造、又は特性が、本発明の少なくとも1つの実施形態に含まれることを意味する。よって、本明細書を通してさまざまな箇所に「1つの実施形態」、「いくつかの実施形態」、又は「ある実施形態」という文言が現れることは、必ずしも全てが同一の実施形態を指すのではない。さらに、特定の特徴、構造、又は特性は、本開示から当業者には明らかなように、1つ以上の実施形態において任意の適切なやり方で組み合わせられてもよい。 References to "one embodiment," "some embodiments," or "an embodiment" throughout this specification may be used to indicate that a particular feature, structure, or characteristic described in connection with an embodiment is the present invention. is meant to be included in at least one embodiment of Thus, the appearances of the phrases "one embodiment," "some embodiments," or "an embodiment" in various places throughout this specification are not necessarily all referring to the same embodiment. . Moreover, the particular features, structures, or characteristics may be combined in any suitable manner in one or more embodiments, as will be apparent to those skilled in the art from this disclosure.

ここで用いられるように、特にそうではないと述べられない限り、共通の物体を記載するために用いられる順序を表す形容詞「第1」、「第2」、「第3」等は、単に類似の物体の異なる例が参照されることを示すだけであり、そのように記載された物体が、時間的、空間的、序列において、又は任意の他の点において、与えられた順序で存在しなければならないことを示唆するようには意図されていない。 As used herein, unless otherwise stated, the order adjectives “first,” “second,” “third,” etc. used to describe common objects are merely analogous. and that the objects so described must be present in the given order in time, space, hierarchy, or in any other respect. It is not intended to imply that

以下の特許請求の範囲及びここでの説明において、備える、備わった、又は備えられているという語のいずれも開放的な語であり、少なくとも後に続く要素/特徴を含むことを意味するのであって、他のものを排除することを意味しない。よって備えるという語は、特許請求の範囲で用いられるときは、その後に列挙された手段又は要素又はステップに限定されるようには解釈されるべきではない。例えば、A及びBを備える装置という表現の範囲は、要素A及びBだけからなる装置に限定されるべきではない。ここで使われているように含むという語のいずれもやはり開放的な語であり、その語の後に続く要素/特徴を少なくとも含むということを意味するが、他の物を排除する意味はない。よって含むは、備えると同義であり、備えるという意味である。 In the claims that follow and in the description herein, any use of the words comprising, comprising, or comprising are open terms and are meant to include at least the following elements/features. , does not mean to exclude others. Thus, the word comprising, when used in the claims, should not be interpreted as being restricted to the means or elements or steps listed thereafter. For example, the scope of the expression device comprising A and B should not be limited to devices consisting of elements A and B only. Any term including as used herein is still an open term meaning including at least the elements/characteristics following the term, but not meant to exclude others. Thus, "to include" is synonymous with "to comprise" and means "to comprise."

本開示の例示的実施形態の上の説明において、本開示のさまざまな特徴は、時として、本開示を効率的にし、1つ以上のさまざまな発明の局面の理解を助けるために、単一の実施形態、図、又はその記載においてまとめられている。しかしこの開示方法は、特許請求の範囲がそれぞれの特許請求の範囲において明示的に記載されたよりも多くの特徴を要求するという意図を反映するようには解釈されるべきではない。むしろ、以下の特許請求の範囲が反映するように、本発明の局面は、単一の前述の開示された実施形態の全ての特徴よりも少ない所に存する。よって詳細な説明の後の特許請求の範囲は、ここで明示的にこの詳細な説明に援用され、それぞれの請求項は、本開示の別々の実施形態として、それ自身で有効である。 In the above description of exemplary embodiments of the present disclosure, various features of the present disclosure are sometimes referred to as a single terminology in order to streamline the disclosure and aid in understanding one or more of the various inventive aspects. summarized in an embodiment, a figure, or a description thereof. This method of disclosure, however, is not to be interpreted as reflecting an intention that the claims require more features than are expressly recited in each claim. Rather, as the following claims reflect, inventive aspects lie in less than all features of a single foregoing disclosed embodiment. Thus, the claims following the detailed description are hereby expressly incorporated into this detailed description, with each claim standing on its own as a separate embodiment of this disclosure.

さらに、当業者に理解されるように、ここで記載されたいくつかの実施形態は、いくつかの特徴を含むが、他の実施形態中に含まれる他の特徴は含まないが、異なる実施形態の特徴の組み合わせも本開示の範囲内にあると意図され、異なる実施形態を形成するものと意図される。例えば、以下の特許請求の範囲において、請求された実施形態の任意のものは、任意の組み合わせにおいて用いられ得る。 Moreover, as will be appreciated by those skilled in the art, some embodiments described herein may include some features, but not other features included in other embodiments, while different embodiments Combinations of the features of are also intended to be within the scope of this disclosure and are intended to form different embodiments. For example, in the following claims, any of the claimed embodiments can be used in any combination.

ここに提供された記載において、多くの具体的な詳細が述べられている。しかし、本開示の実施形態は、これら具体的な詳細なしでも実施され得ることが理解されよう。換言すれば、本記載の理解を不明瞭にさせないために、よく知られた方法、構造、及び技術は詳細には示されていない。 Many specific details are set forth in the description provided herein. However, it is understood that embodiments of the disclosure may be practiced without these specific details. In other words, well-known methods, structures and techniques have not been shown in detail so as not to obscure the understanding of this description.

同様に、結合されるという語は、特許請求の範囲で使われるときには、直接的接続だけに限定されて解釈されるべきではないことに注意されたい。「結合された」及び「接続された」という語が、それらの派生形もあわせて、用いられ得る。これら語は、互いの同義語としては意図されていない。よって装置Bに結合された装置Aという表現の範囲は、装置Aの出力が直接に装置Bの入力に接続されている装置又はシステムに限定されるべきではない。それは、Aの出力及びBの入力の間のパスが存在し、これは、他の装置又は手段を含むパスであってもよいということを意味する。「結合された」は、2つ以上の要素が直接的な物理的、電気的、又は光学的接触のいずれかにあること、又は2つ以上の要素が直接的な接触にはないが、依然として互いに協働又は相互作用することを意味し得る。 Also, it should be noted that the word coupled, when used in the claims, should not be construed as being limited to direct connections only. The terms "coupled" and "connected", as well as their derivatives, may be used. These terms are not intended as synonyms for each other. Thus, the scope of the expression device A coupled to device B should not be limited to devices or systems in which the output of device A is directly connected to the input of device B. That means that there is a path between the output of A and the input of B, which may be a path involving other devices or means. "Coupled" means that two or more elements are in either direct physical, electrical, or optical contact, or that two or more elements are not in direct contact but still It can mean cooperating or interacting with each other.

本明細書に記載された実施形態は、本発明のあらゆる適応又は変形を対象とすることを意図している。本発明は、特定の例示的な実施形態の観点で記載され、説明されてきたが、当業者には、本発明の範囲内にあるさらなる実施形態が容易に想定され得ることが理解されよう。 The embodiments described herein are intended to cover any adaptations or variations of the invention. Although the invention has been described and illustrated in terms of certain exemplary embodiments, it will be appreciated by those skilled in the art that additional embodiments within the scope of the invention can be readily envisioned.

Claims (22)

測定された瞳孔/虹彩のコントラストが、所定の最小瞳孔/虹彩コントラストを超えるように、アイトラッカーにおいて1つ以上の照明装置を制御する方法であって、前記方法は、
所定の画像キャプチャ期間の間、被写体の目の片方又は両方を含む、前記被写体の画像をキャプチャすることと、
前記所定の画像キャプチャ期間の間、1つ以上の照明装置から前記被写体の目の片方又は両方を照らすことであって、
少なくとも1つの照明装置は、明瞳孔効果を発生するようにカメラのレンズの十分近くに配置されている
照らすことと、
キャプチャされた画像における、測定された瞳孔/虹彩のコントラストが、所定の最小瞳孔/虹彩コントラストを超えるような明瞳孔反射強度を発生させるように、前記照明装置のうちの少なくとも1つの出力を選択的に変化させることと
を含む方法。
A method of controlling one or more lighting devices in an eye tracker such that a measured pupil/iris contrast exceeds a predetermined minimum pupil/iris contrast, the method comprising:
capturing an image of the subject, including one or both of the subject's eyes, for a predetermined image capture period;
illuminating one or both of the subject's eyes from one or more illumination devices during the predetermined image capture period,
illuminating, wherein the at least one lighting device is positioned close enough to the lens of the camera to produce a bright pupil effect;
selectively outputting the output of at least one of said illuminators to produce a bright pupil reflection intensity such that the measured pupil/iris contrast in the captured image exceeds a predetermined minimum pupil/iris contrast; and changing to.
前記照明装置のうちの少なくとも1つの前記出力が、前記被写体の目の片方又は両方の虹彩領域に対する瞳孔領域の画素の強度によって求められる瞳孔/虹彩のコントラストの直接的な測定値に基づいて選択的に変化させられる
請求項1に記載の方法。
wherein the output of at least one of the illuminators is selectively based on a direct measure of pupil/iris contrast determined by the intensity of pixels in the pupil region relative to the iris region of one or both eyes of the subject; 2. The method of claim 1, wherein is changed to .
前記照明装置のうちの少なくとも1つの前記出力が、
i.周囲光の測定値、
ii.前記被写体の瞳孔径の測定値、及び/又は
iii.前記被写体の現在の又は最近の視線方向
のうちの1つ以上に基づいて選択的に変化させられる
請求項1に記載の方法。
wherein the output of at least one of the lighting devices is
i. ambient light measurements,
ii. a measurement of the subject's pupil diameter, and/or iii. 2. The method of claim 1, selectively varied based on one or more of the subject's current or recent gaze direction.
前記周囲光の測定値は、前記カメラの露出設定及び/又は前記1つ以上の照明装置の照明設定から求められる
請求項3に記載の方法。
4. The method of claim 3, wherein the ambient light measurements are derived from exposure settings of the camera and/or lighting settings of the one or more lighting devices.
前記照明装置のうちの少なくとも1つの前記出力が、前記被写体の生理学的パラメータに基づいて選択的に変化させられる
請求項1-4のいずれか1項に記載の方法。
5. The method of any one of claims 1-4, wherein the output of at least one of the lighting devices is selectively varied based on a physiological parameter of the subject.
前記照明装置のうちの少なくとも1つの前記出力が、画像キャプチャ期間内に、少なくとも2つの異なるパワーレベルで選択的に変化させられる
請求項1-5のいずれか1項に記載の方法。
6. The method of any one of claims 1-5, wherein the output of at least one of the illumination devices is selectively varied at at least two different power levels during an image capture period.
前記カメラは、画像キャプチャ期間内に少なくとも2つの画像をキャプチャし、前記2つの画像は、異なる照明設定又は画像キャプチャ設定を用いてキャプチャされる
請求項6に記載の方法。
7. The method of claim 6, wherein the camera captures at least two images within an image capture period, the two images captured using different lighting or image capture settings.
瞳孔のコントラストが増加した、結果として得られる画像を生成するように、前記2つの画像に対して画像減算を実行するステップを含む
請求項7に記載の方法。
8. The method of claim 7, comprising performing image subtraction on the two images to produce a resulting image with increased pupillary contrast.
前記アイトラッカーは単一の照明装置を含む
請求項1-8のいずれか1項に記載の方法。
The method of any one of claims 1-8, wherein the eye tracker comprises a single lighting device.
コントローラが、画像キャプチャ期間内に、前記照明装置の照明パワーを変調するように構成される
請求項1-9のいずれか1項に記載の方法。
10. The method of any one of claims 1-9, wherein the controller is arranged to modulate the illumination power of the illumination device during an image capture period.
前記アイトラッカーは、前記カメラから異なる距離に配置される2つの照明装置を含む
請求項1-8のいずれか1項に記載の方法。
The method of any one of claims 1-8, wherein the eye tracker includes two lighting devices positioned at different distances from the camera.
前記照明装置のうちの少なくとも1つの前記出力を選択的に変化させることは、画像キャプチャ期間内に、前記2つの照明装置のうちの1つを非アクティブ化することを含む
請求項11に記載の方法。
12. The method of Claim 11, wherein selectively varying the output of at least one of the lighting devices comprises deactivating one of the two lighting devices during an image capture period. Method.
それぞれの照明装置は、明瞳孔効果を生成するために前記カメラのレンズに十分近くに配置されるが、異なる明瞳孔反射の特性を生成するように前記レンズから異なる距離に配置される
請求項11又は12に記載の方法。
11. Each illuminator is positioned close enough to a lens of the camera to produce a brightpupil effect, but at a different distance from the lens to produce different brightpupil reflection characteristics. Or the method according to 12.
測定された瞳孔/虹彩のコントラストが所定の最小の瞳孔/虹彩のコントラストを超えるように、アイトラッカーにおいて1つ以上の照明装置を制御するためのシステムであって、前記システムは、
所定の画像キャプチャ期間内に、被写体の画像をキャプチャするように構成されたカメラであって、前記画像は前記被写体の目の片方又は両方を含む、カメラと、
前記所定の画像キャプチャ期間内に、前記被写体の目の片方又は両方を選択的に照らすように構成された1つ以上の照明装置であって、前記照明装置のうちの少なくとも1つは、明瞳孔効果を生じるように前記カメラのレンズの十分近くに配置される、照明装置と、
キャプチャされた画像における測定された瞳孔/虹彩のコントラストが、瞳孔/虹彩コントラストの所定の最小値を超えるような明瞳孔反射の強度を生成するように、前記照明装置のうちの少なくとも1つの出力を選択的に変化させるよう構成されたコントローラと
を含むシステム。
A system for controlling one or more lighting devices in an eye tracker such that a measured pupil/iris contrast exceeds a predetermined minimum pupil/iris contrast, said system comprising:
a camera configured to capture an image of a subject within a predetermined image capture period, the image including one or both of the subject's eyes;
one or more lighting devices configured to selectively illuminate one or both eyes of the subject during the predetermined image capture period, at least one of the lighting devices being a bright pupil a lighting device positioned close enough to the lens of the camera to produce an effect;
and adjusting the output of at least one of the illumination devices such that the measured pupil/iris contrast in the captured image produces an intensity of the bright pupillary reflex such that it exceeds a predetermined minimum value of pupil/iris contrast. a controller configured to selectively vary.
1つの照明装置を含む
請求項14に記載のシステム。
15. The system of claim 14, comprising one lighting device.
前記システムは、2つの照明装置を含み、
前記照明装置のそれぞれは、明瞳孔効果を生成するために前記カメラのレンズの十分近くに配置されるが、異なる明瞳孔反射の特性を生成するために前記レンズから異なる距離に配置される照明装置である
請求項14に記載のシステム。
The system includes two lighting devices,
Each of the illuminators is positioned close enough to a lens of the camera to produce a brightpupil effect, but positioned at a different distance from the lens to produce different brightpupil reflection characteristics. 15. The system of claim 14, wherein:
第1の照明装置は前記カメラから3 mm-15 mmの距離に配置され、第2の照明装置は前記カメラから7 mm-50 mmの距離に配置される
請求項16に記載のシステム。
17. The system of claim 16, wherein a first lighting device is positioned at a distance of 3 mm-15 mm from the camera and a second lighting device is positioned at a distance of 7 mm-50 mm from the camera.
前記コントローラは、画像キャプチャ期間内に、前記照明装置のうちの1つを非アクティブ化するように構成される
請求項16又は17に記載のシステム。
18. The system of Claim 16 or 17, wherein the controller is configured to deactivate one of the lighting devices during an image capture period.
前記明瞳孔反射の特性は、前記被写体の目の片方又は両方の虹彩領域に対する瞳孔領域の画素の強度によって求められる瞳孔/虹彩のコントラストの直接的な測定値を含む
請求項14-18のいずれか1項に記載のシステム。
19. Any of claims 14-18, wherein the characteristic of the bright pupillary reflex comprises a direct measure of pupil/iris contrast determined by the intensity of pixels in the pupillary region relative to the iris region of one or both eyes of the subject. 2. The system according to item 1.
アイトラッキングシステムであって、
所定の画像キャプチャ期間内に、被写体の画像をキャプチャするように構成されたカメラであって、前記画像は、前記被写体の目の片方又は両方を含むカメラと、
前記所定の画像キャプチャ期間内に、前記被写体の目の片方又は両方を照らすように構成された1つ以上の照明装置であって、前記照明装置の少なくとも1つの照明装置は、明瞳孔効果を生成するように前記カメラのレンズの十分近くに配置される、照明装置と、
コントローラであって、前記コントローラは、
前記キャプチャされた画像を処理することによって、前記被写体の前記目を追跡するためのアイトラッキングルーチンを実行することであって、前記アイトラッキングルーチンは1つ以上の制御パラメータを求めることを含む、アイトラッキングルーチンを実行することと、
キャプチャされた画像における測定された瞳孔/虹彩のコントラストが、所定の最小の瞳孔/虹彩のコントラストを超えるように明瞳孔反射の強度を生成するように、前記1つ以上の制御パラメータに基づいて前記1つ以上の照明装置の出力を制御することと
を行うように構成されたコントローラと
を備えるアイトラッキングシステム。
An eye tracking system,
a camera configured to capture an image of a subject within a predetermined image capture period, the image including one or both of the subject's eyes;
One or more lighting devices configured to illuminate one or both eyes of the subject within the predetermined image capture period, wherein at least one of the lighting devices produces a bright pupil effect. a lighting device, positioned sufficiently close to the lens of the camera so as to
A controller, said controller comprising:
performing an eye tracking routine for tracking the eye of the subject by processing the captured image, the eye tracking routine including determining one or more control parameters; executing a tracking routine;
based on the one or more control parameters to produce an intensity of the bright pupillary reflex such that the measured pupil/iris contrast in the captured image exceeds a predetermined minimum pupil/iris contrast; and a controller configured to: control the output of one or more lighting devices.
測定された瞳孔/虹彩のコントラストが所定の最小の瞳孔/虹彩のコントラストを超えるように、アイトラッカーにおいて2つ以上の照明装置を制御する方法であって、前記方法は、
所定の画像キャプチャ期間内に、被写体の画像であって、前記画像は前記被写体の目の1つ又は両方を含む、被写体をキャプチャすることと、
2つ以上の照明装置のシステムから、前記所定の画像キャプチャ期間内に、前記被写体の目の片方又は両方を照らすことであって、前記照明装置のうちのそれぞれは、明瞳孔効果を生成するためにカメラのレンズの十分近くに配置されるが、異なる明瞳孔反射の特性を生成するために前記レンズから異なる距離に配置される照明装置で照らすことと、
キャプチャされた画像における測定された瞳孔/虹彩のコントラストが所定の最小の瞳孔/虹彩のコントラストを超えるように、明瞳孔反射の特性を生成するために前記2つ以上の照明装置の出力を選択的に変化させることと
を含む方法。
A method of controlling two or more lighting devices in an eye tracker such that a measured pupil/iris contrast exceeds a predetermined minimum pupil/iris contrast, the method comprising:
capturing an image of a subject, said image including one or both of said subject's eyes, within a predetermined image capture period;
illuminating one or both eyes of the subject within the predetermined image capture period from a system of two or more illuminators, each of the illuminators for producing a bright pupil effect; illuminating with an illuminator positioned close enough to the lens of the camera at , but positioned at different distances from said lens to produce different bright pupillary reflex characteristics;
selectively outputting the outputs of the two or more illuminators to produce a characteristic bright pupil reflex such that the measured pupil/iris contrast in the captured image exceeds a predetermined minimum pupil/iris contrast; and changing to.
前記照明装置のうち少なくとも1つの前記出力が、以前の画像キャプチャ期間からの、前記被写体の目の瞳孔のコントラストの測定値に基づいて、選択的に変化させられる
請求項1-21のいずれか1項に記載のシステム又は方法。
22. Any one of claims 1-21, wherein the output of at least one of the illumination devices is selectively varied based on a measurement of pupillary contrast of the subject's eye from a previous image capture period. A system or method according to paragraph.
JP2022521522A 2019-11-07 2020-11-06 High-performance light pupil eye tracking Active JP7746260B2 (en)

Applications Claiming Priority (5)

Application Number Priority Date Filing Date Title
AU2019904202 2019-11-07
AU2019904202A AU2019904202A0 (en) 2019-11-07 High performance bright pupil eye tracking
AU2020900811A AU2020900811A0 (en) 2020-03-17 High performance bright pupil eye tracking
AU2020900811 2020-03-17
PCT/AU2020/051214 WO2021087573A1 (en) 2019-11-07 2020-11-06 High performance bright pupil eye tracking

Publications (2)

Publication Number Publication Date
JP2023500210A true JP2023500210A (en) 2023-01-05
JP7746260B2 JP7746260B2 (en) 2025-09-30

Family

ID=75848189

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2022521522A Active JP7746260B2 (en) 2019-11-07 2020-11-06 High-performance light pupil eye tracking

Country Status (4)

Country Link
US (1) US20220377223A1 (en)
EP (1) EP4022502A4 (en)
JP (1) JP7746260B2 (en)
WO (1) WO2021087573A1 (en)

Families Citing this family (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2022172724A1 (en) * 2021-02-12 2022-08-18 ソニーセミコンダクタソリューションズ株式会社 Information processing device, information processing method, and information processing program
JP2023041097A (en) * 2021-09-13 2023-03-24 矢崎総業株式会社 detection system
GB2611289A (en) * 2021-09-23 2023-04-05 Continental Automotive Tech Gmbh An image processing system and method thereof
US12258025B2 (en) * 2022-02-01 2025-03-25 Magna Electronics Inc. Vehicular driver monitoring system with event camera
SE546809C2 (en) * 2022-06-22 2025-02-25 Tobii Ab An eye tracking system
US12367652B2 (en) * 2022-09-16 2025-07-22 Ford Global Technologies, Llc Synchronizing image frames by super sampling
US20240179383A1 (en) * 2022-11-30 2024-05-30 Gentex Corporation Monitoring system
CN118921558A (en) * 2023-05-08 2024-11-08 万有引力(宁波)电子科技有限公司 Image processing method, processing device and storage medium
CN119953279A (en) * 2023-11-07 2025-05-09 群创光电股份有限公司 Display System
US20250184614A1 (en) * 2023-12-01 2025-06-05 Ford Global Technologies, Llc Vehicle display system
DE102024200568A1 (en) * 2024-01-23 2025-07-24 Robert Bosch Gesellschaft mit beschränkter Haftung Method for operating a device for tracking a person's gaze direction, device for tracking a person's gaze direction and data glasses

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0618774A (en) * 1992-03-18 1994-01-28 Nikon Corp Camera with eye-gaze detector
JP2008276328A (en) * 2007-04-25 2008-11-13 Denso Corp Face image capturing apparatus
JP2010217231A (en) * 2009-03-13 2010-09-30 Omron Corp Device and method for controlling illumination, illumination device, imaging apparatus and program
JP2016093253A (en) * 2014-11-12 2016-05-26 国立大学法人静岡大学 Control method for pupil detection light source apparatus
JP2018028728A (en) * 2016-08-15 2018-02-22 国立大学法人静岡大学 Eye image processing device
WO2019129353A1 (en) * 2017-12-28 2019-07-04 Tobii Ab Exposure time control

Family Cites Families (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6959102B2 (en) * 2001-05-29 2005-10-25 International Business Machines Corporation Method for increasing the signal-to-noise in IR-based eye gaze trackers
EP2238889B1 (en) 2009-04-01 2011-10-12 Tobii Technology AB Adaptive camera and illuminator eyetracker
GB2511868B (en) 2013-03-15 2020-07-15 Tobii Ab Eye/gaze tracker and method of tracking the position of an eye and/or a gaze point of a subject
EP3042312B1 (en) * 2013-09-03 2021-06-09 Seeing Machines Limited Low power eye tracking system and method
US9736373B2 (en) * 2013-10-25 2017-08-15 Intel Corporation Dynamic optimization of light source power
CN104360732A (en) 2014-10-16 2015-02-18 南京大学 Compensation method and device for improving accuracy of sight line tracking system
WO2017113018A1 (en) * 2015-12-31 2017-07-06 Mirametrix Inc. System and apparatus for gaze tracking
JP6957048B2 (en) * 2017-03-08 2021-11-02 国立大学法人静岡大学 Eye image processing device
US10402644B1 (en) * 2017-10-24 2019-09-03 Wells Fargo Bank, N.A. System and apparatus for improved eye tracking using a mobile device
JP7138168B2 (en) * 2017-10-31 2022-09-15 シーイング マシーンズ リミテッド System and method for improving signal-to-noise ratio in object tracking under low illumination light conditions
US11144755B2 (en) * 2018-03-28 2021-10-12 Tobii Ab Support glint for remote eye tracking

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0618774A (en) * 1992-03-18 1994-01-28 Nikon Corp Camera with eye-gaze detector
JP2008276328A (en) * 2007-04-25 2008-11-13 Denso Corp Face image capturing apparatus
JP2010217231A (en) * 2009-03-13 2010-09-30 Omron Corp Device and method for controlling illumination, illumination device, imaging apparatus and program
JP2016093253A (en) * 2014-11-12 2016-05-26 国立大学法人静岡大学 Control method for pupil detection light source apparatus
JP2018028728A (en) * 2016-08-15 2018-02-22 国立大学法人静岡大学 Eye image processing device
WO2019129353A1 (en) * 2017-12-28 2019-07-04 Tobii Ab Exposure time control

Also Published As

Publication number Publication date
EP4022502A1 (en) 2022-07-06
EP4022502A4 (en) 2023-09-13
JP7746260B2 (en) 2025-09-30
WO2021087573A1 (en) 2021-05-14
US20220377223A1 (en) 2022-11-24

Similar Documents

Publication Publication Date Title
JP7746260B2 (en) High-performance light pupil eye tracking
KR102669768B1 (en) Event camera system for pupil detection and eye tracking
JP7138168B2 (en) System and method for improving signal-to-noise ratio in object tracking under low illumination light conditions
JP7369184B2 (en) Driver attention state estimation
US12198312B2 (en) High frame rate image pre-processing system and method
JP2022123858A (en) Improved occupant monitoring using electrically switched polarization
CN114391129B (en) Determination of gaze direction
JPWO2011105004A1 (en) Pupil detection device and pupil detection method
US11272086B2 (en) Camera system, vehicle and method for configuring light source of camera system
EP4328090A1 (en) Auto dimming mirror
JP7621639B2 (en) Pupil detection device and pupil detection method

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20231010

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20240621

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20240709

A601 Written request for extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A601

Effective date: 20241008

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20241111

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20250218

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20250228

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20250520

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20250529

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20250819

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20250917

R150 Certificate of patent or registration of utility model

Ref document number: 7746260

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150