[go: up one dir, main page]

JP2017219942A - Contact detection device, projector device, electronic blackboard device, digital signage device, projector system, contact detection method, program, and storage medium. - Google Patents

Contact detection device, projector device, electronic blackboard device, digital signage device, projector system, contact detection method, program, and storage medium. Download PDF

Info

Publication number
JP2017219942A
JP2017219942A JP2016112365A JP2016112365A JP2017219942A JP 2017219942 A JP2017219942 A JP 2017219942A JP 2016112365 A JP2016112365 A JP 2016112365A JP 2016112365 A JP2016112365 A JP 2016112365A JP 2017219942 A JP2017219942 A JP 2017219942A
Authority
JP
Japan
Prior art keywords
contact
dimensional information
unit
contact detection
candidate
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2016112365A
Other languages
Japanese (ja)
Inventor
小川 武士
Takeshi Ogawa
武士 小川
二瓶 靖厚
Yasuhiro Nihei
靖厚 二瓶
周 高橋
Shu Takahashi
周 高橋
宏昌 田中
Hiromasa Tanaka
宏昌 田中
伊藤 昌弘
Masahiro Ito
昌弘 伊藤
陽一 市川
Yoichi Ichikawa
陽一 市川
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Ricoh Co Ltd
Original Assignee
Ricoh Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Ricoh Co Ltd filed Critical Ricoh Co Ltd
Priority to JP2016112365A priority Critical patent/JP2017219942A/en
Publication of JP2017219942A publication Critical patent/JP2017219942A/en
Pending legal-status Critical Current

Links

Landscapes

  • Projection Apparatus (AREA)
  • Transforming Electric Information Into Light Information (AREA)

Abstract

PROBLEM TO BE SOLVED: To provide a contact detection device that can deal with a multi-tap.SOLUTION: A contact detection device comprises: a range-finding unit 13 that acquires three-dimensional information on a hand and screen; setting means 50 that sets a contact object surface on the basis of the three-dimensional information on the screen; transformation means 52 that transforms the three-dimensional information on the hand to two-dimensional information by a projective transformation; end part candidate detection means 53 that detects a plurality of end candidates of each of a plurality of fingers on the basis of the two-dimensional information; ranking means 54 that implements comprehensive ranking of a proximity level to the contact object surface with respect to the plurality of end part candidates of each of the plurality of fingers; and determination means 55 that determines whether a portion highest in the ranking of the proximity level to each of the two-dimensional information on the plurality of fingers contacts with the contact object surface.SELECTED DRAWING: Figure 22

Description

本発明は、接触検出装置、プロジェクタ装置、電子黒板装置、デジタルサイネージ装置、プロジェクタシステム、接触検出方法、プログラム及び記憶媒体に関する。   The present invention relates to a contact detection device, a projector device, an electronic blackboard device, a digital signage device, a projector system, a contact detection method, a program, and a storage medium.

近年、対象物に対する物体の接触判定を行う技術の開発が盛んに行われている(例えば特許文献1〜5参照)。   In recent years, technology for performing contact determination of an object with respect to an object has been actively developed (see, for example, Patent Documents 1 to 5).

しかしながら、特許文献1〜5に開示されている技術では、マルチタップに対応することに関して改良の余地があった。   However, the techniques disclosed in Patent Documents 1 to 5 have room for improvement with regard to handling multi-tap.

本発明は、複数の分岐部分を有する物体と対象物の接触を検出する接触検出装置であって、前記複数の分岐部分それぞれの複数の端部候補を検出する検出系と、前記複数の分岐部分それぞれの前記複数の端部候補から前記対象物に最も近接している端部候補である最近接端部候補を得る最近接端部候補取得系と、前記複数の分岐部分それぞれの前記最近接端部候補が前記対象物に接触しているか否かを判定する判定手段と、を備える接触検出装置である。   The present invention relates to a contact detection device for detecting contact between an object having a plurality of branch portions and an object, a detection system for detecting a plurality of end candidates for each of the plurality of branch portions, and the plurality of branch portions. The closest edge candidate acquisition system for obtaining the closest edge candidate that is the edge candidate closest to the object from each of the plurality of edge candidates, and the closest edge of each of the plurality of branch portions Determination means for determining whether or not a candidate for a part is in contact with the object.

本発明によれば、マルチタップに対応できる。   According to the present invention, it is possible to cope with multi-tap.

本発明の一実施形態に係るプロジェクタシステムの概略構成を説明するための図である。It is a figure for demonstrating schematic structure of the projector system which concerns on one Embodiment of this invention. プロジェクタ装置を説明するための図である。It is a figure for demonstrating a projector apparatus. 測距部を説明するための図である。It is a figure for demonstrating a ranging part. 測距部の外観を説明するための図である。It is a figure for demonstrating the external appearance of a ranging part. 撮像部を説明するための図である。It is a figure for demonstrating an imaging part. 処理部によって行われる前処理を説明するためのフローチャートである。It is a flowchart for demonstrating the pre-processing performed by a process part. 処理部によって行われる入力操作情報取得処理を説明するためのフローチャートである。It is a flowchart for demonstrating the input operation information acquisition process performed by a process part. 入力操作情報取得処理を説明するための図(その1)である。It is FIG. (1) for demonstrating input operation information acquisition processing. 射影変換された手領域の一例を説明するための図である。It is a figure for demonstrating an example of the hand area | region by which the projective transformation was carried out. 図9をダウンサンプリングした場合を説明するための図である。It is a figure for demonstrating the case where FIG. 9 is downsampled. 図9に対する凸包処理の結果を説明するための図である。It is a figure for demonstrating the result of the convex hull process with respect to FIG. 図10に対する凸包処理の結果を説明するための図である。It is a figure for demonstrating the result of the convex hull process with respect to FIG. 入力操作情報取得処理を説明するための図(その2)である。It is FIG. (2) for demonstrating input operation information acquisition processing. 入力操作情報取得処理を説明するための図(その3)である。FIG. 10 is a third diagram illustrating the input operation information acquisition process. マルチタップを説明するための図(その1)である。It is FIG. (1) for demonstrating a multi tap. 従来技術のマルチタップの問題点を説明するための図である。It is a figure for demonstrating the problem of the multi tap of a prior art. 本実施形態の接触検出方法を説明するための図(その1)である。It is FIG. (1) for demonstrating the contact detection method of this embodiment. 本実施形態の接触検出方法を説明するための図(その2)である。It is FIG. (2) for demonstrating the contact detection method of this embodiment. 本実施形態の接触検出方法を説明するための図(その3)である。It is FIG. (3) for demonstrating the contact detection method of this embodiment. 本実施形態の接触検出方法を説明するための図(その4)である。It is FIG. (4) for demonstrating the contact detection method of this embodiment. 本実施形態の接触検出方法を説明するための図(その5)である。It is FIG. (5) for demonstrating the contact detection method of this embodiment. 処理部の構成を示すブロック図である。It is a block diagram which shows the structure of a process part. プロジェクタ装置の変形例1を説明するための図である。It is a figure for demonstrating the modification 1 of a projector apparatus. 測距部の変形例1を説明するための図である。It is a figure for demonstrating the modification 1 of a ranging part. 測距部の変形例2を説明するための図である。It is a figure for demonstrating the modification 2 of a ranging part. 測距部の変形例3を説明するための図(その1)である。It is FIG. (1) for demonstrating the modification 3 of a ranging part. 測距部の変形例3を説明するための図(その2)である。It is FIG. (2) for demonstrating the modification 3 of a ranging part. プロジェクタ装置の変形例2を説明するための図である。It is a figure for demonstrating the modification 2 of a projector apparatus. 対象物の表面が段差を含む場合を説明するための図である。It is a figure for demonstrating the case where the surface of a target object contains a level | step difference. 対象物の表面が曲面を含む場合を説明するための図である。It is a figure for demonstrating the case where the surface of a target object contains a curved surface. 電子黒板装置の一例を説明するための図である。It is a figure for demonstrating an example of an electronic blackboard apparatus. デジタルサイネージ装置の一例を説明するための図である。It is a figure for demonstrating an example of a digital signage apparatus.

〔実施形態1〕
以下、本発明の一実施形態を図面に基づいて説明する。図1には、一実施形態に係るプロジェクタシステム100の概略構成が示されている。
Embodiment 1
Hereinafter, an embodiment of the present invention will be described with reference to the drawings. FIG. 1 shows a schematic configuration of a projector system 100 according to an embodiment.

このプロジェクタシステム100は、プロジェクタ装置10と、画像管理装置30とを有している。操作者(ユーザ)は、指、ペン、指し棒などの入力操作手段でスクリーン300の投影面近傍ないしは投影面に接触することで、投影面に投射された画像(以下、「投影画像」ともいう)に対して入力操作を行う。投影画像は、静止画像及び動画像のいずれであっても良い。   The projector system 100 includes a projector device 10 and an image management device 30. An operator (user) touches the vicinity of the projection surface of the screen 300 or an image projected on the projection surface (hereinafter also referred to as a “projection image”) by input operation means such as a finger, a pen, and a pointing stick. ). The projected image may be either a still image or a moving image.

プロジェクタ装置10及び画像管理装置30は、机やテーブル、あるいは専用の台座等(以下では、「載置台400」という。)に載置されている。ここでは、三次元直交座標系を用い、載置台400の載置面に直交する方向をZ軸方向とする。また、プロジェクタ装置10の+Y側にスクリーン300が設置されているものとする。このスクリーン300の−Y側の面が投影面である。なお、投影面として、ホワイトボードのボード面や壁面など様々なものを利用することができる。   The projector device 10 and the image management device 30 are mounted on a desk, a table, a dedicated pedestal or the like (hereinafter referred to as “mounting table 400”). Here, a three-dimensional orthogonal coordinate system is used, and a direction orthogonal to the mounting surface of the mounting table 400 is defined as a Z-axis direction. Further, it is assumed that the screen 300 is installed on the + Y side of the projector device 10. A surface on the −Y side of the screen 300 is a projection surface. In addition, various things, such as a board surface of a white board and a wall surface, can be utilized as a projection surface.

画像管理装置30は、複数の画像データを保持しており、操作者の指示に基づいて投影対象の画像情報(以下では、「投影画像情報」ともいう)などをプロジェクタ装置10に送出する。画像管理装置30とプロジェクタ装置10との間の通信は、USB(Universal Serial Bus)ケーブルなどのケーブルを介した有線通信であっても良いし、無線通信であっても良い。そして、画像管理装置30として、所定のプログラムがインストールされているパーソナルコンピュータ(パソコン)を用いることができる。   The image management device 30 holds a plurality of image data, and sends projection target image information (hereinafter also referred to as “projection image information”) to the projector device 10 based on an instruction from the operator. The communication between the image management device 30 and the projector device 10 may be wired communication via a cable such as a USB (Universal Serial Bus) cable, or may be wireless communication. As the image management apparatus 30, a personal computer (personal computer) in which a predetermined program is installed can be used.

また、画像管理装置30がUSBメモリやSDカードなどの着脱可能な記録媒体のインターフェースを有している場合は、該記録媒体に格納されている画像を投影画像とすることができる。   Further, when the image management apparatus 30 has an interface of a detachable recording medium such as a USB memory or an SD card, an image stored in the recording medium can be used as a projected image.

プロジェクタ装置10は、いわゆるインタラクティブなプロジェクタ装置であり、一例として図2に示されるように、投射部11、測距部13、処理部15などを有している。これらは、不図示の筐体内に収納されている。   The projector device 10 is a so-called interactive projector device, and includes a projection unit 11, a distance measuring unit 13, a processing unit 15, and the like as shown in FIG. 2 as an example. These are housed in a housing (not shown).

本実施形態に係るプロジェクタ装置10では、測距部13と処理部15とによって、本発明の接触検出装置が構成されている。そして、スクリーン300が対象物である。   In the projector device 10 according to the present embodiment, the distance measuring unit 13 and the processing unit 15 constitute a contact detection device of the present invention. The screen 300 is an object.

投射部11は、従来のプロジェクタ装置と同様に、光源、カラーフィルタ、各種光学素子などを有し、処理部15によって制御される。   The projection unit 11 includes a light source, a color filter, various optical elements, and the like, similarly to the conventional projector device, and is controlled by the processing unit 15.

処理部15は、画像管理装置30との間で双方向の通信を行い、投影画像情報を受信すると、所定の画像処理を行い、投射部11を介して、スクリーン300に投影する。   When the processing unit 15 performs bidirectional communication with the image management apparatus 30 and receives projection image information, the processing unit 15 performs predetermined image processing and projects the image onto the screen 300 via the projection unit 11.

測距部13は、一例として図3に示されるように、光射出部131、撮像部132、及び演算部133などを有する。また、測距部13の外観が、一例として図4に示されている。ここでは、光射出部131、撮像部132、及び演算部133は筐体内に収納されている。   As shown in FIG. 3 as an example, the distance measuring unit 13 includes a light emitting unit 131, an imaging unit 132, a calculation unit 133, and the like. The appearance of the distance measuring unit 13 is shown in FIG. 4 as an example. Here, the light emission part 131, the imaging part 132, and the calculating part 133 are accommodated in the housing.

光射出部131は、近赤外光を射出する光源を有し、投影画像に向けて光(検出用光)を射出する。光源は、処理部15によって点灯及び消灯がなされる。この光源としては、LEDや半導体レーザ(LD)などを使用することができる。また、光源から射出された光を調整するための光学素子やフィルタなどを備えていても良い。この場合は、例えば、検出用光の射出方向(角度)を調整したり、検出用光を構造化された光や、強度変調された光や、撮像対象物にテクスチャを付与する光などとすることができる。   The light emitting unit 131 has a light source that emits near-infrared light, and emits light (detection light) toward the projection image. The light source is turned on and off by the processing unit 15. As this light source, an LED, a semiconductor laser (LD), or the like can be used. Further, an optical element or a filter for adjusting light emitted from the light source may be provided. In this case, for example, the emission direction (angle) of the detection light is adjusted, the detection light is structured light, intensity-modulated light, light that gives a texture to the imaging target, or the like. be able to.

撮像部132は、一例として図5に示されるように、撮像素子132a及び撮像光学系132bを有している。撮像素子132aは、エリア型の撮像素子である。また、撮像素子132aの形状は、矩形形状である。撮像光学系132bは、光射出部131から射出され、撮像対象物で反射された光を撮像素子132aに導く。ここでは、撮像素子132aがエリア型であるので、ポリゴンミラーなどの光偏向手段を用いなくても2次元情報を一括して取得することができる。   As shown in FIG. 5 as an example, the imaging unit 132 includes an imaging element 132a and an imaging optical system 132b. The image sensor 132a is an area-type image sensor. The shape of the image sensor 132a is a rectangular shape. The imaging optical system 132b guides the light emitted from the light emitting unit 131 and reflected by the imaging object to the imaging element 132a. Here, since the imaging element 132a is an area type, two-dimensional information can be acquired in a lump without using light deflecting means such as a polygon mirror.

撮像部132の撮像対象物は、投影画像が投影されていない投影面であったり、投影面上に投影された投影画像であったり、さらには入力操作手段と投影画像とであったりする。   The imaging target of the imaging unit 132 may be a projection plane on which no projection image is projected, a projection image projected on the projection plane, or an input operation unit and a projection image.

撮像光学系132bは、いわゆる共軸の光学系であり、光軸が定義されている。なお、撮像光学系132bの光軸を、以下では、便宜上、「測距部13の光軸」ともいう。ここでは、測距部13の光軸に平行な方向をa軸方向、該a軸方向及びX軸方向のいずれにも直交する方向をb軸方向とする。また、撮像光学系132bの画角は、投影画像の全領域が撮像できるように設定されている。   The imaging optical system 132b is a so-called coaxial optical system, and an optical axis is defined. Hereinafter, the optical axis of the imaging optical system 132b is also referred to as “the optical axis of the distance measuring unit 13” for convenience. Here, a direction parallel to the optical axis of the distance measuring unit 13 is an a-axis direction, and a direction orthogonal to both the a-axis direction and the X-axis direction is a b-axis direction. In addition, the angle of view of the imaging optical system 132b is set so that the entire area of the projected image can be captured.

図2に戻り、測距部13は、a軸方向が、Y軸方向に対して反時計回りに傾斜した方向となり、かつ、測距部13の光軸が投影面と交わる位置が、投影画像の中心よりも−Z側となるように配置されている。すなわち、Z軸方向に関して、測距部13の配置位置と、測距部13の光軸が投影画像と交わる位置は、投影画像の中心に対して同じ側にある。   Returning to FIG. 2, the distance measurement unit 13 has a projection image in which the a-axis direction is a direction inclined counterclockwise with respect to the Y-axis direction, and the position at which the optical axis of the distance measurement unit 13 intersects the projection plane. It is arrange | positioned so that it may become -Z side rather than the center. That is, with respect to the Z-axis direction, the arrangement position of the distance measurement unit 13 and the position where the optical axis of the distance measurement unit 13 intersects the projection image are on the same side with respect to the center of the projection image.

演算部133は、光射出部131での光射出のタイミングと、撮像素子132aでの反射光の撮像タイミングとに基づいて、撮像対象物までの距離情報を算出する。すなわち、ここでは距離情報の演算方式としてTOF(Time Of Flight)法を用いる。そして、撮像画像の3次元情報、すなわちデプスマップを取得する。なお、取得されたデプスマップの中心は、測距部13の光軸上にある。   The computing unit 133 calculates distance information to the imaging target based on the light emission timing at the light emitting unit 131 and the imaging timing of the reflected light at the imaging element 132a. That is, here, a TOF (Time Of Flight) method is used as a calculation method of distance information. Then, three-dimensional information of the captured image, that is, a depth map is acquired. The center of the acquired depth map is on the optical axis of the distance measuring unit 13.

演算部133は、所定の時間間隔(フレームレート)で撮像対象物のデプスマップを取得し、処理部15に通知する。   The calculation unit 133 acquires a depth map of the imaging target at a predetermined time interval (frame rate) and notifies the processing unit 15 of the acquired depth map.

そして、処理部15は、演算部133で得られたデプスマップに基づいて、入力操作手段と投影面との接触を検出し、入力操作手段の位置や動きを求め、それに対応する入力操作情報を求める。さらに、処理部15は、該入力操作情報を画像管理装置30に通知する。   The processing unit 15 detects contact between the input operation unit and the projection plane based on the depth map obtained by the calculation unit 133, obtains the position and movement of the input operation unit, and obtains input operation information corresponding thereto. Ask. Further, the processing unit 15 notifies the image management apparatus 30 of the input operation information.

画像管理装置30は、処理部15からの入力操作情報を受け取ると、該入力操作情報に応じた画像制御を行う。これにより、投影画像に入力操作情報が反映されることとなる。   When receiving the input operation information from the processing unit 15, the image management device 30 performs image control according to the input operation information. Thereby, the input operation information is reflected in the projection image.

次に、処理部15によって行われる前処理について図6のフローチャートを用いて説明する。この前処理は、電源投入時や入力操作開始前のように、撮像部132の撮像エリア内に入力操作手段がない状態で行われる処理である。   Next, the preprocessing performed by the processing unit 15 will be described with reference to the flowchart of FIG. This preprocessing is performed in a state where there is no input operation means in the imaging area of the imaging unit 132, such as when the power is turned on or before the input operation is started.

最初のステップS201では、入力操作手段がない状態のデプスマップ、すなわち投影面の3次元情報を、演算部133から取得する。   In the first step S <b> 201, a depth map in a state where there is no input operation means, that is, three-dimensional information of the projection plane is acquired from the calculation unit 133.

次のステップS203では、取得されたデプスマップに基づいて、接触対象面を設定する。ここでは、投影面の3次元情報に対して、−a方向に関して3mm離れた位置を接触対象面とした。   In the next step S203, a contact target surface is set based on the acquired depth map. Here, with respect to the three-dimensional information of the projection plane, a position 3 mm away from the −a direction is defined as the contact target plane.

ところで、演算部133からのデプスマップには測距部13での計測誤差が含まれている。そのため、デプスマップの計測値がスクリーン300の内側(投影面の+Y側)に入ってしまう場合がある。そこで、測距部13での計測誤差分をオフセットとして投影面の3次元情報に加えている。   By the way, the depth map from the calculation unit 133 includes a measurement error in the distance measurement unit 13. Therefore, the measurement value of the depth map may enter the inside of the screen 300 (+ Y side of the projection plane). Therefore, the measurement error in the distance measuring unit 13 is added to the three-dimensional information on the projection plane as an offset.

なお、ここで用いた3mmという値は一例であり、測距部13での計測誤差(例えば、標準偏差σ)程度に設定するのが好ましい。   Note that the value of 3 mm used here is an example, and is preferably set to about a measurement error (for example, standard deviation σ) in the distance measuring unit 13.

また、測距部13での計測誤差が小さい場合や、オフセットを必要としない場合には、投影面の3次元情報そのものを接触対象面とすることができる。   Further, when the measurement error in the distance measuring unit 13 is small or when no offset is required, the three-dimensional information itself of the projection plane can be used as the contact target plane.

また、接触対象面は、その全面が1つの平面であるとして近似式で表現するのではなく、画素毎にデータを持っている。なお、接触対象面が曲面や段差を含む場合には、該接触対象面を微小平面に分割し、該微小平面毎にメディアン処理や平均化処理を施して異常な値を除去し、画素毎にデータを持たせる。   Further, the contact target surface is not expressed by an approximate expression assuming that the entire surface is a single plane, but has data for each pixel. In addition, when the contact target surface includes a curved surface or a step, the contact target surface is divided into minute planes, and an abnormal value is removed for each pixel by performing median processing or averaging processing for each minute plane. Have data.

次のステップS205では、設定された接触対象面の3次元データを画素毎のデータとして保存する。なお、以下では、設定された接触対象面の3次元データを、「接触対象面データ」ともいう。   In the next step S205, the set three-dimensional data of the contact target surface is stored as data for each pixel. Hereinafter, the set three-dimensional data of the contact target surface is also referred to as “contact target surface data”.

ところで、この前処理の実施は、電源投入時や入力操作開始前に限られるものではない。例えば、投影面が経時的に変形する場合には、適宜、入力操作手段がない状態で実施しても良い。   By the way, the implementation of the preprocessing is not limited to when the power is turned on or before the input operation is started. For example, when the projection surface is deformed over time, it may be appropriately implemented without the input operation means.

続いて、インタラクティブ操作時に処理部15によって行われる入力操作情報取得処理について図7のフローチャートを用いて説明する。ここでは、入力操作手段は、操作者の指であるものとするが、これに限定されるものではなく、例えば、ペンあるいは指し棒であっても良い。   Next, input operation information acquisition processing performed by the processing unit 15 during interactive operation will be described with reference to the flowchart of FIG. Here, the input operation means is assumed to be an operator's finger, but is not limited to this, and may be a pen or a pointing stick, for example.

最初のステップS102では、演算部133から新たなデプスマップが送られてきたか否かを判断する。演算部133から新たなデプスマップが送られてきていなければ、ここでの判断は否定され、演算部133から新たなデプスマップが送られてくるのを待つ。一方、演算部133から新たなデプスマップが送られてきていれば、ここでの判断は肯定され、ステップS103に移行する。   In the first step S102, it is determined whether or not a new depth map has been sent from the computing unit 133. If a new depth map has not been sent from the computing unit 133, the determination here is denied, and it waits for a new depth map to be sent from the computing unit 133. On the other hand, if a new depth map has been sent from the calculation unit 133, the determination here is affirmed, and the process proceeds to step S103.

なお、ここでのデプスマップは、撮像部132の撮像エリア内に入力操作手段がある状態のデプスマップである。   Here, the depth map is a depth map in a state where the input operation means is in the imaging area of the imaging unit 132.

このステップS103では、演算部133からのデプスマップと、保存されている接触対象面データとに基づいて、−a方向に関して接触対象面から所定の距離L1(図8参照)以内に入力操作手段があるか否かを判断する。接触対象面から所定の距離L1以内に入力操作手段があれば、ここでの判断は肯定され、ステップS104に移行する。一方、−a方向に関して接触対象面から所定の距離L1以内に物体がなければ、ここでの判断は否定され、ステップS102に戻る。なお、ここでは、L1=100mmとしている。なお、以下では、便宜上、デプスマップにおける入力操作手段の領域を「手領域」ともいう。   In this step S103, based on the depth map from the calculation unit 133 and the stored contact target surface data, the input operation means is within a predetermined distance L1 (see FIG. 8) from the contact target surface with respect to the -a direction. Judge whether there is. If there is an input operation means within a predetermined distance L1 from the contact target surface, the determination here is affirmed and the process proceeds to step S104. On the other hand, if there is no object within the predetermined distance L1 from the contact target surface with respect to the -a direction, the determination here is denied and the process returns to step S102. Here, L1 = 100 mm. Hereinafter, for convenience, the area of the input operation means in the depth map is also referred to as a “hand area”.

すなわち、−a方向に関して接触対象面から距離L1を超える位置にある入力操作手段は接触には無関係であるとみなし、これ以降の処理は実行しない。これにより、過剰な処理が除去され、計算負荷を軽減することができる。   That is, the input operation means located at a position exceeding the distance L1 from the contact target surface with respect to the -a direction is regarded as irrelevant to the contact, and the subsequent processing is not executed. Thereby, excessive processing is removed, and the calculation load can be reduced.

ステップS104では、手領域をデプスマップから抽出する。   In step S104, the hand region is extracted from the depth map.

ところで、本実施形態では、複数の入力操作手段にも対応している。例えば、2つの入力操作手段が存在すれば、少なくとも2つの手領域が抽出される。少なくとも2つというのは、手領域として誤って抽出されるものがあるということである。例えば、腕や肘、または衣服の一部などが、−a方向に関して接触対象面から所定の距離L1以内に入ると、それらは手領域として誤って抽出される。なお、この段階での誤抽出は少ないほうが計算負荷の観点から好ましいが、誤抽出があったとしても不都合はない。   By the way, in this embodiment, it corresponds also to several input operation means. For example, if there are two input operation means, at least two hand regions are extracted. At least two means that there is something that is erroneously extracted as a hand region. For example, when an arm, an elbow, a part of clothes, or the like falls within a predetermined distance L1 from the contact target surface in the −a direction, they are erroneously extracted as a hand region. Note that it is preferable from the viewpoint of calculation load that the number of erroneous extractions at this stage is small, but there is no inconvenience even if there is an erroneous extraction.

また、ここではL1=100mmとしたが、この値は一例である。但し、L1の値が小さすぎると、抽出される手領域が小さくなってしまい、以降の画像処理が困難になり易い。また、L1の値が大きすぎると、誤抽出される数が増えてしまう。発明者等の実験によると、L1の値としては、100mm〜300mmが好適である。   In addition, although L1 = 100 mm here, this value is an example. However, if the value of L1 is too small, the hand area to be extracted becomes small, and subsequent image processing tends to be difficult. If the value of L1 is too large, the number of erroneous extractions increases. According to experiments by the inventors, the value of L1 is preferably 100 mm to 300 mm.

次のステップS105では、抽出された手領域を射影変換する。これにより、3次元情報が2次元情報に変換される。ここでは、測距部13にピンホールカメラモデルを適用し、測距部13の光軸に直交する平面に射影変換を行った。3次元情報を2次元情報とすることで、この後の画像処理を容易にし、計算負荷を軽減している。   In the next step S105, the extracted hand region is projectively transformed. Thereby, three-dimensional information is converted into two-dimensional information. Here, a pinhole camera model is applied to the distance measuring unit 13, and projective transformation is performed on a plane orthogonal to the optical axis of the distance measuring unit 13. By making the three-dimensional information into two-dimensional information, the subsequent image processing is facilitated, and the calculation load is reduced.

図9には、射影変換された手領域の一例が示されている。白い部分が手領域である。この例では、入力操作手段として、大人の手の半分と指のシルエットが現れている。また、図10には、図9に示される例において、デプスマップを1/10にダウンサンプリングした場合が示されている。   FIG. 9 shows an example of a hand region that has undergone projective transformation. The white part is the hand area. In this example, half of an adult's hand and a finger silhouette appear as input operation means. FIG. 10 shows a case where the depth map is down-sampled to 1/10 in the example shown in FIG.

なお、変換された2次元情報に対して、その画像の面積を算出し、所定の範囲内にあるもの以外は、手領域ではないものとして除外した。明らかに面積が小さいものはノイズであると考えられるし、また明らかに面積が大きいものは身体や衣服など、指先を含む部分でないと考えられるからである。この処理により、以降の計算負荷を軽減している。   For the converted two-dimensional information, the area of the image was calculated, and those other than those within a predetermined range were excluded as non-hand regions. This is because a clearly small area is considered to be noise, and a clearly large area is not considered to be a part including a fingertip such as a body or clothes. This processing reduces the subsequent calculation load.

次のステップS106では、手領域の2次元画像に対して凸包処理を行う。ここで凸包処理とは白い部分である手領域の各点を全て含む最小の凸多角形を求める処理である。なお、手領域が複数ある場合には、各手領域に対して凸包処理を行う。図11には、図9に対する凸包処理の結果が示されている。また、図12には、図10に対する凸包処理の結果が示されている。   In the next step S106, convex hull processing is performed on the two-dimensional image of the hand region. Here, the convex hull process is a process for obtaining a minimum convex polygon including all points of the hand region which is a white portion. When there are a plurality of hand regions, a convex hull process is performed on each hand region. FIG. 11 shows the result of the convex hull processing for FIG. FIG. 12 shows the result of the convex hull processing for FIG.

次のステップS107では、手領域毎に指先候補を検出する。ここでは、凸包処理によって得られる複数の頂点を、その手領域における指先候補とする。   In the next step S107, a fingertip candidate is detected for each hand region. Here, a plurality of vertices obtained by the convex hull process are set as fingertip candidates in the hand region.

ここでの処理は、手領域の複数の指領域に対して行われる(図17参照)。なお、i個(iは2〜5)の指領域における、凸包処理による全ての頂点のうちスクリーン300にj番目に近い頂点(すなわち指先候補)をKjと表記する。なお、図17〜図21に示される○は検出された各頂点Kjを表し、○の中の数字は各頂点Kjの番号jを表している。   The processing here is performed for a plurality of finger regions in the hand region (see FIG. 17). In the i finger areas (i is 2 to 5), the vertex closest to the screen 300 (that is, the fingertip candidate) among all the vertices by the convex hull process is denoted as Kj. 17 to 21 indicate each detected vertex Kj, and the number in the circle indicates the number j of each vertex Kj.

ところで、先端部を抽出する方法として、テンプレートを用いたパターンマッチング手法が考えられるが、この手法では、2次元情報がテンプレートと異なる場合には検出率が大きく低下してしまう。また、パターンマッチングを行うためには、テンプレートとして相応の解像度(画素数)を持った画像が必要である。一方、凸包処理であれば、究極としては、先端部に1画素が存在すれば、それは頂点(指先候補)として検出が可能である。   By the way, a pattern matching method using a template is conceivable as a method for extracting the tip portion. However, in this method, when the two-dimensional information is different from the template, the detection rate is greatly reduced. In order to perform pattern matching, an image having a corresponding resolution (number of pixels) is required as a template. On the other hand, in the case of convex hull processing, ultimately, if there is one pixel at the tip, it can be detected as a vertex (fingertip candidate).

例えば、図10のシルエットをみると実際に先端部となる部分は1画素しかないが、図11に示されるように、頂点(すなわち指先候補)としてきちんと検出されていることがわかる。   For example, looking at the silhouette in FIG. 10, it can be seen that the actual tip portion is only one pixel, but as shown in FIG. 11, it is properly detected as a vertex (that is, a fingertip candidate).

次のステップS108では、保存されている接触対象面データを参照し、手領域における全ての指先候補に対して、−a方向に関して、接触対象面から所定の距離L2(図13及び図14参照)以内に入っている指先候補を探索する。ここでは、一例として、L2=30mmとしている。   In the next step S108, the stored contact target surface data is referred to, and for all fingertip candidates in the hand region, a predetermined distance L2 from the contact target surface with respect to the -a direction (see FIGS. 13 and 14). Search for fingertip candidates within. Here, as an example, L2 = 30 mm.

次のステップS109では、探索の結果を参照し、該当する指先候補が存在するか否かを判断する。該当する指先候補が存在すれば、ここでの判断は肯定され、ステップS110に移行する。一方、該当する指先候補が存在しなければ、ここでの判断は否定され、ステップS102に戻る。   In the next step S109, it is determined whether or not there is a corresponding fingertip candidate by referring to the search result. If there is a corresponding fingertip candidate, the determination here is affirmed and the process proceeds to step S110. On the other hand, if there is no corresponding fingertip candidate, the determination here is denied and the process returns to step S102.

次のステップS110では、該当する全ての指先候補に接触対象面に対する近接度の総合的な順位付けを行う。   In the next step S110, all the corresponding fingertip candidates are ranked comprehensively with respect to the contact target surface.

図17には、手領域の4つの指領域(ここでは人差し指領域、中指領域、薬指領域、小指領域)それぞれに5個の頂点が検出された例が示されている。ここでは、4つの指領域の5個の頂点(合計20個の頂点)に接触対象面に対する近接度の総合的な順位付けを行い、その順位付けの結果を示す番号1〜20をこれら20個の頂点にそれぞれ付している。すなわち、これら20個の頂点は、番号jの小さいものほど接触対象面に近接している。   FIG. 17 shows an example in which five vertices are detected in each of four finger regions (here, the index finger region, the middle finger region, the ring finger region, and the little finger region) of the hand region. Here, the overall ranking of the proximity to the contact target surface is performed on five vertices (total of 20 vertices) of the four finger regions, and the numbers 1 to 20 indicating the ranking results are assigned to these 20 It is attached to each vertex. That is, these 20 vertices are closer to the contact target surface as the number j is smaller.

次のステップS111では、指領域毎に接触対象面に最も近接している指先候補(「最近接指先候補」とも呼ぶ)以外の指先候補を除外する。すなわち、接触対象面に対する近接度(例えば接触対象面までのa方向の距離の短さの度合いや、接触対象面への垂線の短さの度合い)が最も高い指先候補以外の指先候補を除外する除外処理を行う。   In the next step S111, fingertip candidates other than the fingertip candidate closest to the contact target surface (also referred to as “nearest fingertip candidate”) are excluded for each finger area. That is, the fingertip candidates other than the fingertip candidate having the highest degree of proximity to the contact target surface (for example, the degree of the short distance in the a direction to the contact target surface and the degree of the perpendicular to the contact target surface) are excluded. Perform exclusion processing.

次のステップS112では、全ての指領域で除外処理が終了したか否かを判断する。除外処理が終了していない場合はステップS111へ戻り、終了した場合はステップS113に移行する。   In the next step S112, it is determined whether or not the exclusion process has been completed for all finger regions. If the exclusion process has not ended, the process returns to step S111, and if it has ended, the process proceeds to step S113.

ステップS113では、残った指先候補に接触対象面に対する最近接度の順位付けを行う。すなわち、複数(例えば4つ)の指領域の最近接指先候補に接触対象面に対する最近接度の順位付けを行う。ステップS113が実行されるとステップS114に移行する。   In step S113, the remaining fingertip candidates are ranked in the closest degree to the contact target surface. That is, the closest degree of the closest fingertip candidates of a plurality of (for example, four) finger regions is ranked according to the closest degree to the contact target surface. When step S113 is executed, the process proceeds to step S114.

ステップS114では、指領域毎の最近接指先候補とスクリーン300の接触/非接触を判定する。詳細は後述する。ステップS114が実行されるとステップS115に移行する。   In step S114, contact / non-contact between the closest fingertip candidate and the screen 300 for each finger area is determined. Details will be described later. When step S114 is executed, the process proceeds to step S115.

ステップS115では、ステップS114で「接触」と判定された最近接指先候補が有るか否かを判断する。ここでの判断が肯定されるとステップS116に移行し、否定されるとステップS102に戻る。   In step S115, it is determined whether there is a closest fingertip candidate determined as “contact” in step S114. If the determination here is affirmed, the process proceeds to step S116, and if the determination is negative, the process returns to step S102.

ステップS116では、最近接指先候補の接触状況や接触位置に基づいて入力操作情報を求める。例えば、1フレームもしくは数フレーム程度の短時間の接触であれば、クリックする入力操作と判断する。また、接触が継続し、かつフレーム間でその位置が移動するのであれば、文字あるいは線を書く入力操作と判断する。そして、このような判断の際、ステップS114で「接触」と判定された最近接指先候補が単数の場合にはシングルタップの入力操作と判断し、複数の場合にはマルチタップの入力操作と判断する。マルチタップの入力操作の具体例として、画面の拡大操作や縮小操作が挙げられる。   In step S116, input operation information is obtained based on the contact status and contact position of the closest fingertip candidate. For example, if the contact is a short time of about one frame or several frames, it is determined that the input operation is a click. If the contact continues and the position moves between frames, it is determined that the input operation is to write a character or a line. In such a determination, if the closest fingertip candidate determined as “contact” in step S114 is single, it is determined as a single-tap input operation, and if it is determined as multiple, it is determined as a multi-tap input operation. To do. Specific examples of the multi-tap input operation include a screen enlargement operation and a reduction operation.

次のステップS117では、得られた入力操作情報を画像管理装置30に通知する。これにより、画像管理装置30は、入力操作情報に応じた画像制御を行う。すなわち、投影画像に入力操作情報が反映される。ステップS117が実行されるとステップS102に戻る。   In the next step S117, the obtained input operation information is notified to the image management apparatus 30. Thereby, the image management apparatus 30 performs image control according to the input operation information. That is, the input operation information is reflected in the projected image. When step S117 is executed, the process returns to step S102.

次に、上記ステップS111〜S113についてより詳細に説明する。ここでは、図17に示されるように手領域の4つの指領域において合計20個の頂点がある。すなわち、上述のように各指領域に対して凸包処理を行うことにより4つの指領域に全体として20個の頂点(K1、K2、・・・、K19、K20)が生成されている。   Next, steps S111 to S113 will be described in more detail. Here, there are a total of 20 vertices in the four finger areas of the hand area as shown in FIG. That is, by performing the convex hull processing on each finger region as described above, twenty vertices (K1, K2,..., K19, K20) are generated as a whole in the four finger regions.

ここで、各指領域において、複数(ここでは5個)の頂点のうち接触対象面に最も近い頂点(最近接頂点)を中心とする範囲であって最近接頂点以外の頂点を除外する範囲を除外範囲と定義する(図18〜図21参照)。   Here, in each finger region, a range that is centered on a vertex (closest vertex) closest to the contact target surface among a plurality of (here, 5) vertices and that excludes vertices other than the closest vertex It is defined as an exclusion range (see FIGS. 18 to 21).

図18において、除外範囲は頂点K1〜K20のうち接触対象面に最も近い頂点K1を中心とした円であり、該円内にある他の頂点K2、K3、K4、K10を除外する前の状態が示されている。   In FIG. 18, the exclusion range is a circle centered on the vertex K1 closest to the contact target surface among the vertices K1 to K20, and the state before excluding other vertices K2, K3, K4, and K10 in the circle It is shown.

図19において、除外範囲は頂点K1〜K20のうち接触対象面に最も近い頂点K1を中心とした円であり、他の頂点K2、K3、K4、K10を除外した後の状態が示されている。   In FIG. 19, the exclusion range is a circle centered on the vertex K1 closest to the contact target surface among the vertices K1 to K20, and shows a state after excluding other vertices K2, K3, K4, and K10. .

図20において、除外範囲は頂点K5〜K9、K11〜K20のうち接触対象面に最も近い頂点K5を中心とした円であり、該円内にある他の頂点K7、K8、K16、K19を除外する前の状態が示されている。   In FIG. 20, the exclusion range is a circle centered on the vertex K5 closest to the contact target surface among the vertices K5 to K9 and K11 to K20, and excludes other vertices K7, K8, K16, and K19 in the circle. The state before doing is shown.

図21において、4つの除外範囲は、それぞれ4つの指領域で接触対象面に最も近い頂点K11、K1、K5、K6を中心とした円であり、他の頂点を除外した後の状態が示されている。   In FIG. 21, the four exclusion ranges are circles centered on the vertices K11, K1, K5, and K6 closest to the contact target surface in each of the four finger regions, and the state after excluding the other vertices is shown. ing.

先ず、図17において20個の頂点のうち接触対象面に最も近い頂点K1を中心とする破線の円内を除外範囲として設定する(図18参照)。この除外範囲に含まれる4つの頂点K2、K3、K4、K10を除外する(図19参照)。これら4つの頂点K2、K3、K4、K10を除外すると、K1の次に接触対象面に近い頂点はK5となる。そこで、次の工程として、K5を中心とする破線の円内を除外範囲として設定し(図20参照)、この除外範囲に含まれる頂点K7、K8、K16、K19を除外する。このような工程を繰り返すことで最終的には図21に示される4つの頂点K1、K5、K6、K11が得られる。これら4つの頂点K1、K5、K6、K11に接触対象面に対する最近接度の順位付けを行い、その順位付けの結果を出力する。   First, in FIG. 17, the inside of a broken circle centering on the vertex K1 closest to the contact target surface among the 20 vertices is set as an exclusion range (see FIG. 18). Four vertices K2, K3, K4, and K10 included in this exclusion range are excluded (see FIG. 19). When these four vertices K2, K3, K4, and K10 are excluded, the vertex closest to the contact target surface after K1 is K5. Therefore, as the next step, the inside of a broken circle centered on K5 is set as an exclusion range (see FIG. 20), and the vertices K7, K8, K16, and K19 included in this exclusion range are excluded. By repeating such steps, the four vertices K1, K5, K6, and K11 shown in FIG. 21 are finally obtained. These four vertices K1, K5, K6, and K11 are ranked in the closest degree to the contact target surface, and the ranking result is output.

そして、この順位付けの結果に基づいて、図21に示される4つの指領域それぞれが接触対象面に接触しているか否かを判定することができる。具体的な判定方法は後述する。なお、ここでは、人差し指領域、中指領域、薬指領域、小指領域それぞれに複数の指先候補となる頂点が検出される場合を例にとって説明したが、要は、5つの指領域(親指領域、人差し指領域、中指領域、薬指領域、小指領域)のうち複数の指領域それぞれに複数の指先候補となる頂点が検出されれば良い。   Then, based on the ranking result, it can be determined whether or not each of the four finger regions shown in FIG. 21 is in contact with the contact target surface. A specific determination method will be described later. Here, the case where a plurality of apexes as fingertip candidates are detected in each of the index finger region, the middle finger region, the ring finger region, and the little finger region has been described as an example, but in short, five finger regions (thumb region, index finger region) The middle finger region, the ring finger region, the little finger region), and a plurality of fingertip candidates may be detected in each of the plurality of finger regions.

以上の説明では、片手の複数の指でマルチタップ入力する場合を例にとって説明したが、両手もしくは複数人の手によりマルチタップ入力する場合にも同様の議論が成立する。   In the above description, the case where multi-tap input is performed with a plurality of fingers of one hand has been described as an example, but the same argument holds when multi-tap input is performed with both hands or a plurality of hands.

以上の説明から明らかなように、処理部15は、接触対象面を設定する機能と、手領域を抽出する機能と、指先候補(端部候補)を検出する機能と、接触を判定する機能を有している。そして、これらの機能は、CPUによるプログラムに従う処理によって実現しても良いし、ハードウェアによって実現しても良いし、CPUによるプログラムに従う処理とハードウェアとによって実現しても良い。   As is clear from the above description, the processing unit 15 has a function of setting a contact target surface, a function of extracting a hand region, a function of detecting a fingertip candidate (end candidate), and a function of determining contact. Have. These functions may be realized by processing according to the program by the CPU, may be realized by hardware, or may be realized by processing according to the program by the CPU and hardware.

本実施形態では、演算部133でのデプスマップを取得する処理、処理部15での接触対象面を設定する処理、及び手領域を抽出する処理は、いずれも3次元処理である。そして、処理部15での接触対象面を設定する処理、及び手領域を抽出する処理は、デプスマップのみを利用した処理である。また、処理部15での端部候補を検出する処理は、2次元処理である。そして、処理部15での接触判定を行う処理は、3次元処理である。   In the present embodiment, the processing for acquiring the depth map in the calculation unit 133, the processing for setting the contact target surface in the processing unit 15, and the processing for extracting the hand region are all three-dimensional processing. And the process which sets the contact target surface in the process part 15, and the process which extracts a hand area are the processes using only a depth map. Moreover, the process which detects the edge part candidate in the process part 15 is a two-dimensional process. And the process which performs the contact determination in the process part 15 is a three-dimensional process.

すなわち、本実施形態では、デプスマップのみを用いて、3次元処理と2次元処理を組み合わせて入力操作手段(例えば手)の複数の分岐部分(例えば指)の端部候補を検出し、さらに分岐部分毎に端部候補を絞りこんで、分岐部分毎に絞り込まれた端部候補(最近接指先候補)の接触判定を同時に行っている。   That is, in the present embodiment, using only a depth map, a combination of three-dimensional processing and two-dimensional processing is used to detect edge candidates of a plurality of branch portions (for example, fingers) of the input operation means (for example, hands), and further branch The edge candidates are narrowed down for each portion, and the contact determination of the edge candidates (nearest fingertip candidates) narrowed down for each branch portion is simultaneously performed.

また、ここでは、L2の値として30mmが用いられているが、この値は一例である。厳密な意味での接触対象面と入力操作手段の先端部の接触ではL2=0mmである。しかしながら、実用上においては、演算部133での計測誤差もあり、また接触していなくても、近接していれば接触とみなす方が使い勝手が良いということもあり、L2の値として数mm〜数10mmの値を設定することが好適である。   Here, 30 mm is used as the value of L2, but this value is an example. In the strict sense, L2 = 0 mm in the contact between the contact target surface and the tip of the input operation means. However, in practice, there is also a measurement error in the calculation unit 133, and even if it is not in contact, it may be more convenient to consider it as contact if it is close, and the value of L2 is several mm to It is preferable to set a value of several tens of mm.

以上の説明から明らかなように、本実施形態によると、測距部13によって本発明の3次元情報取得手段が構成され、処理部15によって設定手段と変換手段と凸包処理手段と端部候補検出手段と除外手段と順位付け手段と判定手段とが構成されている。すなわち、測距部13と処理部15によって本発明の複数点の接触を同時に検出可能な接触検出装置が構成されている。   As is clear from the above description, according to the present embodiment, the distance measurement unit 13 constitutes the three-dimensional information acquisition unit of the present invention, and the processing unit 15 sets the setting unit, the conversion unit, the convex hull processing unit, and the end candidate. A detection means, an exclusion means, a ranking means, and a determination means are configured. In other words, the distance measuring unit 13 and the processing unit 15 constitute a contact detection device capable of simultaneously detecting a plurality of points of contact of the present invention.

また、処理部15によって行われる処理において、本発明の接触検出方法が実施されている。   In the process performed by the processing unit 15, the contact detection method of the present invention is implemented.

以上説明したように、本実施形態に係るプロジェクタ装置10は、投射部11、測距部13、処理部15などを有している。   As described above, the projector device 10 according to the present embodiment includes the projection unit 11, the distance measurement unit 13, the processing unit 15, and the like.

投射部11は、処理部15の指示に基づいて、スクリーン300に画像を投影する。測距部13は、投影画像に向けて検出用の光(検出用光)を射出する光射出部131と、撮像光学系132b及び撮像素子132aを有して、投影画像及び入力操作手段の少なくとも一方を撮像する撮像部132と、該撮像部132の撮像結果からデプスマップを取得する演算部133とを有している。   The projection unit 11 projects an image on the screen 300 based on an instruction from the processing unit 15. The distance measuring unit 13 includes a light emitting unit 131 that emits detection light (detection light) toward the projection image, an imaging optical system 132b, and an imaging element 132a, and includes at least a projection image and an input operation unit. The imaging unit 132 that captures one image and the calculation unit 133 that acquires a depth map from the imaging result of the imaging unit 132 are included.

処理部15は、接触対象面を設定する機能、手領域を抽出する機能、端部候補を検出する機能、及び接触を判定する機能などを有し、測距部13からのデプスマップに基づいて、入力操作手段とスクリーン300の接触を検出し、入力操作手段が示す入力操作情報を求める。   The processing unit 15 has a function of setting a contact target surface, a function of extracting a hand region, a function of detecting edge candidates, a function of determining contact, and the like. Based on the depth map from the distance measuring unit 13 The contact between the input operation means and the screen 300 is detected, and the input operation information indicated by the input operation means is obtained.

入力操作手段とスクリーン300の接触を検出する際に、処理部15は、3次元情報であるデプスマップに基づいて手領域を抽出し、該手領域を2次元情報へ射影変換し、手領域の指領域毎に指先候補を検出する。そして、処理部15は、再び3次元情報に基づいて指先候補を絞り込んで、絞り込まれた指先候補(最近接指先候補)の接触判定を同時に行う。ここでは、指先候補はデプスマップ上にあり、その指先候補に対して接触判定が行われるため、指先位置と接触判定位置は同一である。また、各指先候補に対して接触判定が行われるため、接触と判定されると同時に、それが指先であることが決定される。   When detecting the contact between the input operation means and the screen 300, the processing unit 15 extracts a hand region based on a depth map that is three-dimensional information, performs projective transformation on the hand region to two-dimensional information, A fingertip candidate is detected for each finger area. Then, the processing unit 15 narrows down the fingertip candidates again based on the three-dimensional information, and simultaneously performs contact determination of the narrowed fingertip candidates (nearest fingertip candidates). Here, the fingertip candidate is on the depth map, and contact determination is performed on the fingertip candidate. Therefore, the fingertip position and the contact determination position are the same. Moreover, since contact determination is performed with respect to each fingertip candidate, it is determined that it is a fingertip at the same time that it is determined as contact.

この場合は、入力操作手段とスクリーン300の接触、及びそのときの入力操作手段の位置を精度良く検出することが可能となり、そのため、入力操作情報を精度良く取得することができる。   In this case, it is possible to accurately detect the contact between the input operation unit and the screen 300 and the position of the input operation unit at that time, and therefore it is possible to acquire the input operation information with high accuracy.

処理部15における接触対象面を設定する機能では、スクリーン300から所定の距離だけ離れた位置に接触対象面を設定している。この場合は、測距部13での計測誤差を見込むことにより、計算上、入力操作手段がスクリーン300の内側(投影面の+Y側)に入るのを回避することができる。   In the function of setting the contact target surface in the processing unit 15, the contact target surface is set at a position away from the screen 300 by a predetermined distance. In this case, it is possible to avoid the input operation means from entering the inside of the screen 300 (+ Y side of the projection plane) by calculating the measurement error in the distance measuring unit 13.

処理部15における手領域を抽出する機能では、−a方向に関して接触対象面から所定の距離L1内に入力操作手段があるときに、該入力操作手段が含まれる領域を抽出している。この場合は、端部候補を検出する前段階として、接触対象面からの距離がL1を超える部分は接触に無関係であるとみなし、余分な情報を削除し、処理を軽減することが可能となる。   With the function of extracting the hand region in the processing unit 15, when the input operation unit is within a predetermined distance L1 from the contact target surface with respect to the -a direction, the region including the input operation unit is extracted. In this case, as a step before detecting the edge candidate, it is considered that a portion whose distance from the contact target surface exceeds L1 is irrelevant to the contact, and it is possible to delete unnecessary information and reduce processing. .

処理部15における端部候補を検出する機能では、射影変換によって3次元撮像情報を2次元情報に変換し、該2次元情報に対して凸包処理を行い、端部候補を検出している。この場合は、低解像度の画像であっても、先端部として1ピクセルでも存在すれば、端部候補として検出することが可能となる。   In the function of detecting the end candidate in the processing unit 15, the three-dimensional imaging information is converted into two-dimensional information by projective transformation, the convex hull processing is performed on the two-dimensional information, and the end candidate is detected. In this case, even a low-resolution image can be detected as an edge candidate if there is even one pixel as the tip.

処理部15における接触を判定する機能では、複数の指領域の最近接指先候補(最近接端部候補)が−a方向に関して接触対象面からの距離が所定の値L2以下にあるときに、複数の指領域の最近接指先候補とスクリーン300の接触/非接触を同時に判定している。この場合は、入力操作手段の先端部がスクリーン300に対して非接触状態であっても、接触対象面に接近している場合には接触していると判定することができる。そこで、不特定多数の人々が利用する場合や、入力操作手段が汚れているなどで、スクリーン300に直接接触したくない場合でも接触したと判定することができる。   In the function of determining contact in the processing unit 15, when the closest fingertip candidates (closest edge candidate) of a plurality of finger areas are less than or equal to a predetermined value L2 with respect to the −a direction, The contact / non-contact of the nearest fingertip candidate of the finger region and the screen 300 is simultaneously determined. In this case, even if the tip of the input operation means is in a non-contact state with respect to the screen 300, it can be determined that the input operation means is in contact if it is close to the contact target surface. Therefore, even when an unspecified number of people use it or the input operation means is dirty, it can be determined that the user has touched the screen 300 even if he / she does not want to touch it directly.

また、測距部13の光射出部131は、近赤外光を射出する。この場合は、可視光が多い環境下であっても、演算部133は、精度の高いデプスマップを取得することができる。また、光射出部131から射出された光と、プロジェクタ装置10から投影される画像(可視光)とが干渉して画像が見えにくくなる等の不具合を抑制することができる。   The light emitting unit 131 of the distance measuring unit 13 emits near infrared light. In this case, the arithmetic unit 133 can acquire a depth map with high accuracy even in an environment where there is much visible light. In addition, it is possible to suppress problems such as that the light emitted from the light emitting unit 131 interferes with the image (visible light) projected from the projector device 10 and the image becomes difficult to see.

また、測距部13の撮像素子132aは、2次元撮像素子を有している。この場合は、デプスマップを1ショットで取得することができる。   Further, the image sensor 132a of the distance measuring unit 13 has a two-dimensional image sensor. In this case, the depth map can be acquired in one shot.

また、本実施形態に係るプロジェクタシステム100は、プロジェクタ装置10を備えているため、その結果として、所望の画像表示動作を正しく行うことができる。   Further, since the projector system 100 according to the present embodiment includes the projector device 10, as a result, a desired image display operation can be correctly performed.

なお、上記実施形態において、プロジェクタ装置10と画像管理装置30とが一体化されていても良い。   In the above embodiment, the projector device 10 and the image management device 30 may be integrated.

ところで、例えばWindows10/iOS/Androidのようにマルチタップに対応したOS(オペレーティングシステム)がある。   By the way, there is an OS (operating system) that supports multi-tap, such as Windows 10 / iOS / Android.

このようなマルチタップに対応するためには、図15に示されるように、複数(例えば4つ)の指それぞれの接触判定を行うことが求められる。すなわち、複数の指それぞれが接触しているか否かを同時に判定することが求められる。なお、図15〜図21では、手領域の2次元情報として、便宜上、実際の手を模したものを示している。   In order to cope with such multi-tap, as shown in FIG. 15, it is required to perform contact determination for each of a plurality of (for example, four) fingers. That is, it is required to simultaneously determine whether or not each of a plurality of fingers is in contact. 15 to 21, for the sake of convenience, information imitating an actual hand is shown as the two-dimensional information of the hand region.

しかし、例えば複数の候補点からスクリーンに近い4点を抽出すると、図16に示されるように1本の指に集中して接触判定を行う場合があり、マルチタップに対応できない。   However, for example, if four points close to the screen are extracted from a plurality of candidate points, contact determination may be performed by concentrating on one finger as shown in FIG.

そこで、発明者らは、マルチタップに対応すべく本実施形態の接触検出装置を開発した。   Therefore, the inventors have developed the contact detection device of the present embodiment to cope with multi-tap.

本実施形態の接触検出装置は、複数の分岐部分(ここでは複数の指)を有する物体(ここでは手)とスクリーン300の接触を検出する接触検出装置であって、手及びスクリーン300の3次元情報を取得する測距部13(3次元情報取得手段)と、スクリーン300の3次元情報に基づいて、接触対象面を設定する設定手段50と、手の3次元情報を射影変換によって2次元情報に変換する変換手段52と、2次元情報に基づいて、複数の指それぞれの複数の端部候補(指先候補)を検出する端部候補検出手段53と、複数の指それぞれの複数の端部候補に接触対象面に対する近接度の総合的な順位付けを行う順位付け手段54と、複数の指の2次元情報それぞれの近接度の順位が最も高い端部候補が接触対象面に接触しているか否かを判定する判定手段55と、を備えている。ここで、設定手段50、変換手段52、端部候補検出手段53、順位付け手段54、判定手段55は、それぞれ処理部15の構成要素である(図22参照)。   The contact detection device according to the present embodiment is a contact detection device that detects contact between an object (here, a hand) having a plurality of branch portions (here, a plurality of fingers) and the screen 300, and is a three-dimensional view of the hand and the screen 300. A distance measuring unit 13 (three-dimensional information acquisition unit) that acquires information, a setting unit 50 that sets a contact target surface based on the three-dimensional information on the screen 300, and two-dimensional information by projective transformation of the three-dimensional information of the hand. Conversion means 52 for converting to a plurality of fingers, edge candidate detection means 53 for detecting a plurality of edge candidates (fingertip candidates) for each of a plurality of fingers, and a plurality of edge candidates for each of the plurality of fingers. And a ranking means 54 for comprehensively ranking the degree of proximity to the contact target surface, and whether or not the end candidate having the highest proximity ranking of each of the two-dimensional information of the plurality of fingers is in contact with the contact target surface. Or A determination means 55 for, and a. Here, the setting unit 50, the conversion unit 52, the end candidate detection unit 53, the ranking unit 54, and the determination unit 55 are components of the processing unit 15 (see FIG. 22).

この場合、複数の指それぞれの複数の端部候補を検出することで接触判定の候補点を複数の指に分散させることができる。すなわち、接触判定の候補点が特定の指に集中することを抑制できる。そして、複数の指それぞれの複数の端部候補のうち接触対象面に対する近接度が最も高い端部候補(以下では「最近接端部候補」とも呼ぶ)と接触対象面の接触判定を行うことにより、複数の指それぞれとスクリーン300の接触の有無を同時に精度良く判定することができる。   In this case, the candidate points for contact determination can be distributed to a plurality of fingers by detecting a plurality of edge candidates for each of the plurality of fingers. That is, it is possible to suppress the contact determination candidate points from being concentrated on a specific finger. Then, by performing contact determination between the edge candidate having the highest degree of proximity to the contact target surface (hereinafter also referred to as “nearest edge candidate”) among the plurality of edge candidates of each of the plurality of fingers, The presence / absence of contact between each of the plurality of fingers and the screen 300 can be simultaneously determined with high accuracy.

この結果、マルチタップに対応できる。   As a result, it is possible to support multi-tap.

なお、処理部15において、順位付け手段54は、必須ではない。すなわち、複数の端部候補に総合的な順位付けをしなくても、複数の端部候補の接触対象面に対する近接度を比較することにより各指領域の最近接端部候補を得ることができる。   In the processing unit 15, the ranking means 54 is not essential. In other words, the closest edge candidate of each finger region can be obtained by comparing the proximity of the plurality of edge candidates to the contact target surface without giving a comprehensive ranking to the plurality of edge candidates. .

また、本実施形態では、測距部13と、設定手段50と、変換手段52と、端部候補検出手段53とを含んで本発明の「検出系」が構成されているが、これに限らず、適宜変更可能である。   In the present embodiment, the “detection system” of the present invention is configured to include the distance measuring unit 13, the setting unit 50, the conversion unit 52, and the end candidate detection unit 53. However, the present invention is not limited to this. However, it can be changed as appropriate.

例えば、本発明の「検出系」は、凸包処理に代えて、テンプレートを用いたパターンマッチング手法により、複数の分岐部分それぞれの複数の端部候補を検出するものであっても良い。   For example, the “detection system” of the present invention may detect a plurality of end candidates for each of a plurality of branch portions by a pattern matching method using a template instead of the convex hull processing.

また、順位付け手段54によって複数の指の接触対象面に対する近接度の順位が最も高い端部候補に最近接度の順位付けを行い、判定手段55は、順位付け手段54での順位付けの結果に基づいて判定を行うことが好ましい。   Also, the ranking means 54 ranks the closest candidate to the edge candidate having the highest degree of proximity to the contact target surface of the plurality of fingers, and the determination means 55 determines the ranking result by the ranking means 54. It is preferable to make a determination based on the above.

この際、例えば複数の指の最近接端部候補のうち近接度の順位が上位半数に入るものを「接触している」と判定し、下位半数に入るものを「接触していない」と判定しても良い。また、例えば複数の指の最近接箇所のうち近接度の順位が最高の箇所を「接触している」と判定し、それ以外の箇所を「接触していない」と判定しても良い。また、例えば複数の指の最近接箇所のうち近接度の順位が最低の箇所を「接触していない」と判定し、それ以外の箇所を「接触している」と判定しても良い。   At this time, for example, among the closest end portion candidates of a plurality of fingers, those in which the degree of proximity is in the upper half are determined as “contacting”, and those in the lower half are determined as “not in contact” You may do it. Further, for example, a location having the highest degree of proximity among the closest locations of a plurality of fingers may be determined to be “in contact”, and other locations may be determined to be “not in contact”. Further, for example, it is possible to determine that the position with the lowest degree of proximity among the closest points of a plurality of fingers is determined as “not in contact”, and determine other points as “in contact”.

なお、「最近接度」の順位付けを行わなくても良い。すなわち、図7のステップS113を省略しても良い。この場合、接触判定の方法として、最近接端部候補と接触対象面の距離が基準値(例えば数mm〜30mm)未満の場合に「接触している」と判定し、該基準値以上の場合に「接触していない」と判定しても良い。また、複数の指の最近接端部候補から接触対象面までの距離(例えば最近接端部候補と接触対象面のa方向の距離や、最近接端部候補から接触対象面への垂線の長さ)の平均値を算出し、最近接箇所から接触対象面までの距離が該平均値未満となる指に対して「接触している」と判定し、該平均値以上となる指に対して「接触していない」と判定しても良い。   Note that the ranking of “nearest proximity” may not be performed. That is, step S113 in FIG. 7 may be omitted. In this case, as a method for determining contact, when the distance between the closest edge candidate and the contact target surface is less than a reference value (for example, several mm to 30 mm), it is determined that the contact is made, and when the distance is equal to or greater than the reference value It may be determined that “not in contact”. Also, the distance from the closest edge candidate of the plurality of fingers to the contact target surface (for example, the distance in the a direction between the closest edge candidate and the contact target surface, or the length of the perpendicular from the closest edge candidate to the contact target surface) Is determined to be “in contact” with a finger whose distance from the closest point to the contact target surface is less than the average value. You may determine with "not contacting".

また、接触対象面から所定の距離L2以内に入っている指先候補がある場合(図7のステップS109でYES)に、その指先候補が接触対象面に接触していると見做し(判定し)、図7のステップS113〜S115を省略しても良い。この場合、判定手段55による複数の指領域それぞれの最近接指先候補と接触対象面の接触/非接触の判定は、実質的にステップS109においてなされることになる。   Further, when there is a fingertip candidate within a predetermined distance L2 from the contact target surface (YES in step S109 in FIG. 7), the fingertip candidate is considered to be in contact with the contact target surface (determined). ), Steps S113 to S115 in FIG. 7 may be omitted. In this case, the determination of the contact / non-contact between the closest fingertip candidate of each of the plurality of finger regions and the contact target surface by the determination unit 55 is substantially made in step S109.

また、端部候補検出手段53は、測距部13から接触対象面までの距離に応じた範囲内で複数の端部候補を検出することが好ましい。   Moreover, it is preferable that the edge part candidate detection means 53 detects a some edge part candidate within the range according to the distance from the ranging part 13 to a contact target surface.

この場合、測距部13から接触対象面までの距離に応じて除外範囲を広げることができ、測距部13のノイズ対策となる。   In this case, the exclusion range can be expanded in accordance with the distance from the distance measuring unit 13 to the contact target surface, which is a noise countermeasure for the distance measuring unit 13.

ところで、図18等に示される除外範囲(破線の円内)は、デプスセンサ(3次元情報取得部)から対象物までの距離、図2におけるa方向における距離に応じて設定することが好ましい。大人と子供の別、体格差、性別等により指の太さが異なることや、a方向への立体角は同じとして、上記距離に応じて広がる除外範囲を広げることでデプスセンサ(3次元情報取得部)のノイズ対策となる。   By the way, it is preferable to set the exclusion range (inside the broken circle) shown in FIG. 18 or the like according to the distance from the depth sensor (three-dimensional information acquisition unit) to the object, the distance in the a direction in FIG. Depth sensor (three-dimensional information acquisition part) by expanding the exclusion range that expands according to the above distance, assuming that the thickness of the finger is different depending on the adult and child, physique difference, gender, etc., and the solid angle in the a direction is the same ) Noise countermeasures.

また、3次元情報取得手段としての測距部13は、TOF法を用いている。   Further, the distance measuring unit 13 as the three-dimensional information acquisition unit uses the TOF method.

但し、3次元情報取得手段がTOF法を用いる場合には、若干の変更が必要となる。例えばMicrosoft社のKinect V2のようなTOF方式のデプスセンサや、自身が発光した光の対象物までの飛行時間で距離を計測するようなタイプのデプスセンサであれば詳細にデプス値が得られるものの、室内における微妙な大気の揺らぎやセンサの熱雑音により生じるノイズ成分の影響が大きくなることがわかっている。   However, when the three-dimensional information acquisition means uses the TOF method, a slight change is required. For example, the depth value can be obtained in detail if it is a depth sensor of TOF type such as Microsoft's Kinect V2 or a type of depth sensor that measures the distance to the target object of light emitted by itself, It is known that the influence of noise components caused by subtle atmospheric fluctuations and thermal noise of sensors increases.

そこで、測距部13から接触対象面までの距離をL、複数の指の太さの平均をXとしたとき、複数の端部候補はX/Lよりも大きい値を直径とする円内にあること(該円内を除外範囲として設定すること)により、ノイズ成分の影響を低減できる。なお、Xの値は、手領域(2次元情報)から求めることができる。   Therefore, when the distance from the distance measuring unit 13 to the contact target surface is L, and the average of the thicknesses of the plurality of fingers is X, the plurality of end portion candidates are within a circle whose diameter is larger than X / L. By being present (setting the inside of the circle as an exclusion range), the influence of noise components can be reduced. Note that the value of X can be obtained from the hand region (two-dimensional information).

また、3次元情報取得手段として、パターン投影法やステレオカメラ法を用いても良い。パターン投影法としては、例えばMicrosoft社のKinect V1が挙げられる。   Further, a pattern projection method or a stereo camera method may be used as the three-dimensional information acquisition unit. An example of the pattern projection method is Microsoft's Kinect V1.

この際、3次元情報取得手段から接触対象面までの距離をL、複数の指の太さの平均をX、3次元情報取得手段の焦点距離をfとしたときに、複数の端部候補はXf/Lよりも大きい値を直径とする円内にあることが好ましい。この場合、ノイズ成分の影響を低減できる。なお、Xの値は、手領域(2次元情報)から求めることができる。   At this time, when the distance from the three-dimensional information acquisition unit to the contact target surface is L, the average thickness of the plurality of fingers is X, and the focal length of the three-dimensional information acquisition unit is f, the plurality of edge candidate is It is preferable to be in a circle whose diameter is a value larger than Xf / L. In this case, the influence of noise components can be reduced. Note that the value of X can be obtained from the hand region (two-dimensional information).

また、複数の端部候補は、3次元情報取得手段から接触対象面までの距離が小さいほど多く検出されることが好ましい。   In addition, it is preferable that a plurality of end portion candidates be detected as the distance from the three-dimensional information acquisition unit to the contact target surface decreases.

また、検出系は、2次元情報に対して凸包処理を行う凸包処理手段57を更に含み、複数の端部候補は、該凸包処理によって得られることが好ましい。なお、凸包処理手段57は、処理部15の構成要素とすることができる(図22参照)。   Moreover, it is preferable that the detection system further includes a convex hull processing means 57 that performs a convex hull processing on the two-dimensional information, and the plurality of end candidates are obtained by the convex hull processing. The convex hull processing means 57 can be a component of the processing unit 15 (see FIG. 22).

なお、上記実施形態では、デプスセンサから得られる点群データから凸包にて2次元情報の頂点を算出して手領域を求めており、非常に簡素である。簡素であることからデプスセンサをステレオカメラ方式、パターン投影法やTOF方式としてもすぐに成立するが、あらかじめ機械学習などにより人体のシルエットを得やすいデータを用意してから凸包処理を行っても良い。Kinect V1 であれば、Microsoft社より開発キットが公開されており、関数Nui Skeleton Get Next Frameにより人体のスケルトン画像が得られる。機械学習については多くのライブラリが公開されている。事前に複数の手を含めた画像を用意して機械学習させて得られた結果を用いれば、Microsoft社提供ライブラリと同様なシステムを構築することが可能である。   In the above embodiment, the hand area is obtained by calculating the vertex of the two-dimensional information from the point cloud data obtained from the depth sensor by the convex hull, which is very simple. Because it is simple, the depth sensor can be established immediately as a stereo camera method, pattern projection method, or TOF method. However, convex hull processing may be performed after preparing data that makes it easy to obtain a human silhouette by machine learning or the like. . In the case of Kinect V1, a development kit is released by Microsoft, and a skeleton image of the human body can be obtained by the function Nui Skeleton Get Next Frame. Many libraries are open to the public regarding machine learning. If a result obtained by preparing an image including a plurality of hands and performing machine learning in advance is used, a system similar to a Microsoft-provided library can be constructed.

すなわち、検出系は、凸包処理が行われる前に、手の3次元情報が射影変換された2次元情報に対して機械学習結果を適用する機械学習結果適用手段を更に含んでいても良い。なお、機械学習結果適用手段は、処理部の構成要素とすることができる。   That is, the detection system may further include a machine learning result applying unit that applies the machine learning result to the two-dimensional information obtained by projectively transforming the three-dimensional information of the hand before the convex hull processing is performed. The machine learning result applying unit can be a component of the processing unit.

特に、ステレオカメラの場合、必ずRGBカメラが用意されている。左右いずれかのRGBカメラ画像と機械学習結果を用いればデプスセンサの精度が劣ることによる凸包処理結果の変動を抑制することが可能となる。   In particular, in the case of a stereo camera, an RGB camera is always prepared. By using either the left or right RGB camera image and the machine learning result, it is possible to suppress fluctuations in the convex hull processing result due to the inferior depth sensor accuracy.

また、接触検出装置は、複数の指それぞれの複数の端部候補から接触対象面に対する近接度の順位が最も高い端部候補以外の端部候補を除外する除外処理手段58(除外手段)を更に備えることが好ましい。なお、除外処理手段58は、処理部15の構成要素とすることができる(図22参照)。順位付け手段54と除外処理手段58の少なくとも一方を含んで、本発明の「最近接端部候補取得系」を構成することができる。   The contact detection apparatus further includes an exclusion processing unit 58 (exclusion unit) that excludes end candidates other than the end candidate having the highest degree of proximity to the contact target surface from the plurality of end candidates of each of the plurality of fingers. It is preferable to provide. The exclusion processing unit 58 can be a component of the processing unit 15 (see FIG. 22). By including at least one of the ranking means 54 and the exclusion processing means 58, the “nearest edge candidate acquisition system” of the present invention can be configured.

また、プロジェクタ装置10は、投影面に画像を投影する投射部11と、投影面と手(物体)との接触を検出するための本実施形態の接触検出装置とを備えている。   The projector device 10 includes a projection unit 11 that projects an image on a projection surface, and a contact detection device according to the present embodiment for detecting contact between the projection surface and a hand (object).

この場合、マルチタップ機能を利用可能なプロジェクタ装置を実現できる。   In this case, a projector apparatus that can use the multi-tap function can be realized.

また、プロジェクタ装置10と、該プロジェクタ装置10で得られた入力操作に基づいて、画像制御を行う画像管理装置30(制御装置)とを備えるプロジェクタシステムによれば、マルチタップ機能を利用可能なインタラクティブなシステムを構築できる。   In addition, according to the projector system including the projector device 10 and the image management device 30 (control device) that performs image control based on the input operation obtained by the projector device 10, the interactive system that can use the multi-tap function. A simple system.

また、本実施形態の接触検出方法は、複数の指(分岐部分)を有する手(物体)とスクリーン300(対象物)の接触を検出する接触検出方法であって、手及びスクリーン300の3次元情報を取得する工程と、スクリーン300の3次元情報に基づいて、接触対象面を設定する工程と、手の3次元情報を射影変換によって2次元情報に変換する工程と、該2次元情報に基づいて、複数の指それぞれの複数の端部候補を検出する工程と、複数の指それぞれの複数の端部候補に接触対象面に対する近接度の総合的な順位付けを行う工程と、複数の分岐部分それぞれの複数の端部候補のうち該近接度の順位が最も高い端部候補が接触対象面に接触しているか否かを判定する工程と、を含む。   The contact detection method according to the present embodiment is a contact detection method for detecting contact between a hand (object) having a plurality of fingers (branch portions) and the screen 300 (target object). A step of acquiring information, a step of setting a contact target surface based on the three-dimensional information of the screen 300, a step of converting the three-dimensional information of the hand into two-dimensional information by projective transformation, and the two-dimensional information Detecting a plurality of edge candidates for each of the plurality of fingers, performing a comprehensive ranking of the proximity to the contact target surface on the plurality of edge candidates for each of the plurality of fingers, and a plurality of branch portions. Determining whether or not the end candidate having the highest degree of proximity among the plurality of end candidates is in contact with the contact target surface.

この場合、複数の指それぞれの複数の端部候補を検出することで接触判定の候補点を複数の指に分散させることができる。すなわち、接触判定の候補点が特定の指に集中することを抑制できる。そして、複数の指それぞれの複数の端部候補のうち接触対象面に対する近接度が最も高い端部候補(以下では「最近接端部候補」とも呼ぶ)と接触対象面の接触判定を行うことにより、複数の指それぞれとスクリーン300の接触の有無を同時に精度良く判定することができる。   In this case, the candidate points for contact determination can be distributed to a plurality of fingers by detecting a plurality of edge candidates for each of the plurality of fingers. That is, it is possible to suppress the contact determination candidate points from being concentrated on a specific finger. Then, by performing contact determination between the edge candidate having the highest degree of proximity to the contact target surface (hereinafter also referred to as “nearest edge candidate”) among the plurality of edge candidates of each of the plurality of fingers, The presence / absence of contact between each of the plurality of fingers and the screen 300 can be simultaneously determined with high accuracy.

この結果、マルチタップに対応できる。   As a result, it is possible to support multi-tap.

なお、本実施形態の接触検出方法において、順位付けを行う工程は、必須ではない。すなわち、複数の端部候補に総合的な順位付けをしなくても、複数の端部候補の接触対象面に対する近接度を比較することにより各指領域の最近接端部候補を得ることができる。   In the contact detection method of the present embodiment, the step of ranking is not essential. In other words, the closest edge candidate of each finger region can be obtained by comparing the proximity of the plurality of edge candidates to the contact target surface without giving a comprehensive ranking to the plurality of edge candidates. .

なお、本実施形態では、3次元情報を取得する工程と、接触対象面を設定する工程と、2次元情報に変換する工程と、複数の端部候補を検出する工程とを含んで本発明の「検出する工程」が構成されているが、これに限らず、適宜変更可能である。   In the present embodiment, the present invention includes a step of acquiring three-dimensional information, a step of setting a contact target surface, a step of converting into two-dimensional information, and a step of detecting a plurality of edge candidates. The “detecting step” is configured, but is not limited to this, and can be changed as appropriate.

例えば、本発明の「検出する工程」では、凸包処理に代えて、テンプレートを用いたパターンマッチング手法により、複数の分岐部分それぞれの複数の端部候補を検出しても良い。   For example, in the “detecting step” of the present invention, instead of the convex hull processing, a plurality of edge candidates for each of a plurality of branch portions may be detected by a pattern matching method using a template.

また、本実施形態の接触検出方法を画像管理装置30(コンピュータ)に実行させるプログラムとして、手及びスクリーン300の3次元情報を取得する手順と、スクリーン300の3次元情報に基づいて、接触対象面を設定する手順と、手の3次元情報を射影変換によって2次元情報に変換する手順と、該2次元情報に基づいて、複数の指それぞれの複数の端部候補を検出する手順と、複数の指それぞれの複数の端部候補に接触対象面に対する近接度の総合的な順位付けを行う手順と、複数の分岐部分それぞれの複数の端部候補のうち該近接度の順位が最も高い端部候補が接触対象面に接触しているか否かを判定する手順と、を含むプログラムを提供することができる。   In addition, as a program for causing the image management apparatus 30 (computer) to execute the contact detection method of the present embodiment, a contact target surface is obtained based on a procedure for acquiring three-dimensional information of the hand and the screen 300 and the three-dimensional information of the screen 300. A procedure for converting the three-dimensional information of the hand into two-dimensional information by projective transformation, a procedure for detecting a plurality of edge candidates for each of a plurality of fingers based on the two-dimensional information, A procedure for comprehensively ranking the proximity to the contact target surface for the plurality of edge candidates for each finger, and the edge candidate having the highest proximity ranking among the plurality of edge candidates for each of the plurality of branch portions And a procedure for determining whether or not the object is in contact with the contact target surface.

なお、このプログラムにおいて、順位付けを行う手順は、必須ではない。すなわち、複数の端部候補に総合的な順位付けをしなくても、複数の端部候補の接触対象面に対する近接度を比較することにより各指領域の最近接端部候補を得ることができる。   In this program, the procedure for ranking is not essential. In other words, the closest edge candidate of each finger region can be obtained by comparing the proximity of the plurality of edge candidates to the contact target surface without giving a comprehensive ranking to the plurality of edge candidates. .

さらに、このプログラムが格納された記憶媒体(例えばメモリやハードディスク)を提供することもできる。   Furthermore, a storage medium (for example, a memory or a hard disk) in which the program is stored can be provided.

なお、上記実施形態では、手で直接マルチタッチする場合を例にとって説明したが、例えば手袋をはめた状態でマルチタッチする場合にも同様の議論が成立する。   In the above-described embodiment, the case of direct multi-touch by hand has been described as an example, but the same argument holds for the case of multi-touch while wearing a glove, for example.

また、上記実施形態において、不図示の取付部材を介して測距部13が筐体に対して取り外し可能な状態で外付けされていても良い(図23参照)。この場合、測距部13で取得されたデプスマップは、ケーブル等を介して筐体内の処理部15に通知される。また、この場合、測距部13は、筐体とは離れた位置に配置することもできる。   Moreover, in the said embodiment, the ranging part 13 may be externally attached in the state which can be removed with respect to a housing | casing via the attachment member not shown (refer FIG. 23). In this case, the depth map acquired by the distance measuring unit 13 is notified to the processing unit 15 in the housing via a cable or the like. In this case, the distance measuring unit 13 can be arranged at a position away from the housing.

また、上記実施形態において、処理部15での処理の少なくとも一部を画像管理装置30で行っても良い。例えば、上記入力操作情報取得処理が画像管理装置30で行われる場合、測距部13で取得されたデプスマップは、ケーブル等を介して、又は無線通信により、画像管理装置30に通知される。   In the above embodiment, at least a part of the processing in the processing unit 15 may be performed by the image management apparatus 30. For example, when the input operation information acquisition process is performed by the image management device 30, the depth map acquired by the distance measuring unit 13 is notified to the image management device 30 via a cable or by wireless communication.

また、上記実施形態において、処理部15での処理の少なくとも一部を演算部133で行っても良い。例えば、上記入力操作情報取得処理における接触を検出する処理(ステップS103〜S114)が演算部133で行われても良い。   In the above-described embodiment, at least a part of the processing in the processing unit 15 may be performed by the calculation unit 133. For example, processing (steps S103 to S114) for detecting contact in the input operation information acquisition processing may be performed by the calculation unit 133.

また、上記実施形態において、プロジェクタ装置10が複数の測距部13を有していても良い。例えば、X軸方向に関する画角が非常に大きい場合、超広角な撮像光学系を有する1つの測距部13でその画角をカバーするよりも、画角を抑えた撮像光学系を有する複数の測距部13をX軸方向に沿って並べたほうが低コストな場合がある。すなわち、X軸方向に超広角なプロジェクタ装置を低コストで実現することができる。   In the above embodiment, the projector device 10 may include a plurality of distance measuring units 13. For example, when the angle of view in the X-axis direction is very large, a plurality of imaging optical systems having a reduced angle of view can be used rather than covering the angle of view with a single ranging unit 13 having an ultra-wide-angle imaging optical system. It may be cheaper to arrange the distance measuring units 13 along the X-axis direction. That is, it is possible to realize a projector device having an ultra-wide angle in the X-axis direction at a low cost.

一例として図24には、パターン投影法を用いる測距部13(3次元情報取得手段)の構成例が示されている。ここでは、測距部13の光射出部131は、ある構造化された光を射出する。なお、構造化された光とは、Structured Light法として知られている方法に適した光であって、例えば、ストライプ状の光やマトリックス状の光などがある。照射領域は当然ではあるが、投影画像より広範囲である。射出される光は近赤外光であるため、投影画像が見えにくくなる等の不都合はない。このとき、撮像部132は、撮像対象物で反射されて変形した構造化された光を撮像する。そして、演算部133は、光射出部131から射出された光と、撮像部132で撮像された光とを比較し、三角測量法に基づいてデプスマップを求める。ここでは、撮像部132の焦点距離を、便宜上、測距部13の焦点距離と呼ぶ。   As an example, FIG. 24 shows a configuration example of the distance measuring unit 13 (three-dimensional information acquisition unit) using the pattern projection method. Here, the light emitting unit 131 of the distance measuring unit 13 emits a certain structured light. The structured light is light suitable for a method known as the structured light method, and includes, for example, striped light and matrix light. The irradiation area is naturally wider than the projected image. Since the emitted light is near-infrared light, there is no inconvenience such as difficulty in seeing the projected image. At this time, the imaging unit 132 images the structured light that is reflected and deformed by the imaging object. The computing unit 133 compares the light emitted from the light emitting unit 131 with the light imaged by the imaging unit 132, and obtains a depth map based on the triangulation method. Here, the focal length of the imaging unit 132 is referred to as the focal length of the distance measuring unit 13 for convenience.

また、一例として図25に示されるTOF(Time−Of−Flight)法を用いる測距部13の変形例のように、測距部13の光射出部131は、所定の周波数で強度変調された光を射出しても良い。照射領域は当然ではあるが、投影画像より広範囲である。射出される光は近赤外光であるため、投影画像が見えにくくなる等の不具合はない。撮像部132は、1つの位相差計測可能な2次元撮像素子と撮像光学系を備えている。このとき、撮像部132は、撮像対象物で反射されて位相がずれた光を撮像する。そして、演算部133は、光射出部131から射出された光と、撮像部132で撮像された光とを比較し、時間差もしくは位相差に基づいてデプスマップを求める。   Further, as an example, as in the modification of the distance measuring unit 13 using the TOF (Time-Of-Flight) method shown in FIG. 25, the light emitting unit 131 of the distance measuring unit 13 is intensity-modulated at a predetermined frequency. Light may be emitted. The irradiation area is naturally wider than the projected image. Since the emitted light is near-infrared light, there is no problem such that the projected image is difficult to see. The imaging unit 132 includes a single two-dimensional imaging element capable of measuring a phase difference and an imaging optical system. At this time, the imaging unit 132 images light that is reflected by the imaging object and has a phase shift. The computing unit 133 compares the light emitted from the light emitting unit 131 with the light imaged by the imaging unit 132, and obtains a depth map based on the time difference or the phase difference.

また、一例として図26には、ステレオカメラ法を用いる測距部13の構成例が示されている。ここでは、測距部13の光射出部131は、対象物にテクスチャを付与するための光を射出する。照射領域は当然ではあるが、投影画像より広範囲である。射出される光は近赤外光であるため、投影画像が見えにくくなる等の不具合はない。この場合、撮像対象物に投影されたテクスチャパターンを撮像する2つの撮像部132を有している。そのため、それぞれの撮像部に対応して光軸は2つ存在する。そして、演算部133は、2つの撮像部132が撮像した画像間の視差に基づいてデプスマップを演算する。すなわち、演算部133は、各画像に対してステレオ平行化と呼ばれる処理を行い、2つの光軸が平行であると仮定したときの画像を変換する。そのため、2つの光軸は平行でなくても良い。なお、ステレオ平行化処理がなされた後の光軸は、X軸方向からみると重なっており(図27参照)、上記実施形態における測距部13の光軸に対応する。ここでは、撮像部132の焦点距離を、便宜上、測距部13の焦点距離と呼ぶ。   As an example, FIG. 26 shows a configuration example of the distance measuring unit 13 using the stereo camera method. Here, the light emitting unit 131 of the distance measuring unit 13 emits light for applying a texture to the object. The irradiation area is naturally wider than the projected image. Since the emitted light is near-infrared light, there is no problem such that the projected image is difficult to see. In this case, it has the two imaging parts 132 which image the texture pattern projected on the imaging target object. Therefore, there are two optical axes corresponding to each imaging unit. Then, the calculation unit 133 calculates a depth map based on the parallax between images captured by the two imaging units 132. That is, the arithmetic unit 133 performs a process called stereo parallelization on each image, and converts an image when it is assumed that the two optical axes are parallel. Therefore, the two optical axes do not have to be parallel. Note that the optical axes after the stereo collimation process overlap when viewed from the X-axis direction (see FIG. 27), and correspond to the optical axis of the distance measuring unit 13 in the above embodiment. Here, the focal length of the imaging unit 132 is referred to as the focal length of the distance measuring unit 13 for convenience.

また、上記実施形態では、プロジェクタ装置10が載置台400に載置されて使用される場合について説明したが、これに限定されるものではない。例えば、図28に示されるように、プロジェクタ装置10は、天井に吊り下げて使用されても良い。ここでは、プロジェクタ装置10は、吊り下げ部材で天井に固定されている。   Moreover, although the said embodiment demonstrated the case where the projector apparatus 10 was mounted and used for the mounting base 400, it is not limited to this. For example, as shown in FIG. 28, the projector device 10 may be used by being suspended from a ceiling. Here, the projector device 10 is fixed to the ceiling with a suspension member.

また、上記実施形態において、投影面は平面に限定されない。なお、指先ではなく、指領域の中のスクリーンへの最近接点と投影面とで接触を判定する方式では、投影面が平面でないと、誤検出することがあった。   Moreover, in the said embodiment, a projection surface is not limited to a plane. In the method of determining contact with the projection surface and the closest point to the screen in the finger area instead of the fingertip, there is a case where the projection surface is erroneously detected if it is not a flat surface.

測距部13と処理部15は、一例として図29に示されるように、対象物の表面に段差がある場合にも用いることができる。この場合は、段差部分に先端部でない入力操作手段が触れてしまっても、誤検知なく指先決定、接触判定が可能である。   As shown in FIG. 29 as an example, the distance measuring unit 13 and the processing unit 15 can be used even when there is a step on the surface of the object. In this case, even if the input operation means other than the tip part touches the stepped portion, it is possible to determine the fingertip and determine the contact without erroneous detection.

例えば、段差の角に手の甲が触れると、従来手法であれば、その位置で接触したと判定されてしまうが、本発明では手の甲部分は指先候補とならないため、接触したとは判定されない。あくまで指先候補と接触対象面との距離で指先が決定され、かつ接触が判定されるので、誤検出は発生しない。   For example, if the back of the hand touches the corner of the step, it is determined that the contact is made at that position in the conventional method. However, in the present invention, the back of the hand is not a fingertip candidate, so it is not determined that the contact is made. Since the fingertip is determined based on the distance between the fingertip candidate and the contact target surface, and the contact is determined, no erroneous detection occurs.

この場合においても、全ての端部候補点Kjの3次元情報に対し、接触対象面から−a方向に一定距離(ここでは30mm)以内に入っており、かつ、指領域毎に最も接触対象面に近い端部候補点を探す。該当する端部候補が存在すれば、その端部候補は入力操作手段の先端部であり、かつ、該先端部は接触対象面に接触している。   Even in this case, the three-dimensional information of all the end candidate points Kj is within a certain distance (30 mm in this case) in the -a direction from the contact target surface, and is the most touch target surface for each finger region. Search for an edge candidate point close to. If there is a corresponding end candidate, the end candidate is the tip of the input operation means, and the tip is in contact with the contact target surface.

すなわち、上記実施形態において、接触対象面に段差があっても、接触対象面の3次元情報を基にしているので、高い精度の接触検出が可能である。   That is, in the above embodiment, even if there is a step on the contact target surface, the contact detection can be performed with high accuracy because it is based on the three-dimensional information of the contact target surface.

また、測距部13と処理部15は、一例として図30に示されるように、対象物の表面が曲面を含む場合にも用いることができる。例えば、対象物が、小学校や中学校などで用いられる黒板であっても良い。この場合でも、接触対象面の3次元情報を基にしているので、高い精度の接触検出が可能である。   The distance measuring unit 13 and the processing unit 15 can also be used when the surface of the object includes a curved surface as shown in FIG. 30 as an example. For example, the target object may be a blackboard used in an elementary school or a junior high school. Even in this case, contact detection with high accuracy is possible because it is based on the three-dimensional information of the contact target surface.

また、測距部13と処理部15は、電子黒板装置やデジタルサイネージ装置にも用いることができる。   The distance measuring unit 13 and the processing unit 15 can also be used for an electronic blackboard device or a digital signage device.

図31には、電子黒板装置の一例が示されている。この電子黒板装置500は、各種メニューやコマンド実行結果が表示される映写パネル(対象物)及び座標入力ユニットを収納したパネル部501と、コントローラ及びプロジェクタユニットを収納した収納部と、パネル部501及び収納部を所定の高さで支持するスタンドと、コンピュータ、スキャナ、プリンタ、ビデオプレイヤ等を収納した機器収納部502と、から構成されている(特開2002−278700号公報参照)。測距部13と処理部15を含む接触検出装置は、機器収納部502内に収納されており、該機器収納部502を引き出すことにより、接触検出装置が出現する。そして、接触検出装置は、入力操作手段と映写パネルの接触を検出する。コントローラと処理部15との間の通信は、USBケーブルなどのケーブルを介した有線通信であっても良いし、無線通信であっても良い。   FIG. 31 shows an example of an electronic blackboard device. The electronic blackboard device 500 includes a projection panel (object) on which various menus and command execution results are displayed, a panel unit 501 that stores a coordinate input unit, a storage unit that stores a controller and a projector unit, a panel unit 501, It comprises a stand that supports the storage unit at a predetermined height, and a device storage unit 502 that stores a computer, a scanner, a printer, a video player, and the like (see JP 2002-278700 A). The contact detection device including the distance measurement unit 13 and the processing unit 15 is stored in the device storage unit 502, and the contact detection device appears when the device storage unit 502 is pulled out. The contact detection device detects contact between the input operation means and the projection panel. Communication between the controller and the processing unit 15 may be wired communication via a cable such as a USB cable, or may be wireless communication.

図32には、デジタルサイネージ装置の一例が示されている。このデジタルサイネージ装置600では、ガラスが対象物であり、該ガラスの表面が投影面となる。画像は、ガラスの後方から、プロジェクタ本体によりリアプロジェクションされている。測距部13と処理部15を含む接触検出装置は、手すり上に設置されている。プロジェクタ本体と処理部15との間の通信は、USBケーブルを介した有線通信である。これにより、デジタルサイネージ装置にインタラクティブ機能を持たせることができる。   FIG. 32 shows an example of a digital signage apparatus. In the digital signage apparatus 600, glass is an object, and the surface of the glass is a projection plane. The image is rear projected from the rear of the glass by the projector body. The contact detection device including the distance measuring unit 13 and the processing unit 15 is installed on a handrail. Communication between the projector main body and the processing unit 15 is wired communication via a USB cable. Thereby, an interactive function can be given to the digital signage device.

このように、測距部13と処理部15は、インタラクティブ機能を有する装置や、インタラクティブ機能を付加したい装置に好適である。   Thus, the distance measuring unit 13 and the processing unit 15 are suitable for a device having an interactive function or a device to which an interactive function is to be added.

以下に、発明者らが上記実施形態を発案するに至った思考プロセスを説明する。   Below, the thought process that the inventors have come up with the above embodiment will be described.

近年、スクリーンに投影した投影画像に文字や図などを書き込む機能や、投影画像の拡大、縮小、及びページ送りなどの操作を実行する機能を有するいわゆるインタラクティブなプロジェクタ装置が市販されている。これらの機能は、スクリーンをタッチする操作者の指や、操作者が保持しているペン及び指し棒などを入力操作手段とし、該入力操作手段の先端がスクリーン(対象物)に接触する位置及び動きを検出して、その検出結果をコンピュータなどへ送ることで実現されている。   2. Description of the Related Art In recent years, so-called interactive projector apparatuses having a function of writing characters and drawings on a projected image projected on a screen and a function of executing operations such as enlargement, reduction, and page feed of the projected image are commercially available. These functions use an operator's finger touching the screen, a pen and a pointing rod held by the operator as input operation means, and the position where the tip of the input operation means contacts the screen (object) and This is realized by detecting movement and sending the detection result to a computer or the like.

例えば、特許文献1には、複数のカメラにより撮像された画像を時系列で取得する取得部と、画像に基づいてカメラから対象物までの距離を算出する算出部と、対象物が所定のXY平面に到達した場合に、時系列で取得した複数の画像間で対象物の面積の差が所定の閾値以下であったとき、算出された距離をカメラからXY平面までの距離に補正する補正部と、を有することを特徴とする位置算出システムが開示されている。   For example, in Patent Document 1, an acquisition unit that acquires images captured by a plurality of cameras in time series, a calculation unit that calculates a distance from the camera to the object based on the images, and the object is a predetermined XY. A correction unit that corrects the calculated distance to the distance from the camera to the XY plane when the difference in area of the object between the plurality of images acquired in time series is equal to or less than a predetermined threshold when the plane is reached There is disclosed a position calculation system including:

また、特許文献2には、撮像手段によって撮影された画像から、ディスプレイ画面から所定の範囲内の指先を検出する検出手段と、検出された指先の3次元座標を算出する3次元座標計算手段と、算出された指先の3次元座標とディスプレイ画面上の2次元座標とを対応付ける座標処理手段と、対応付けられたディスプレイ画面上の2次元座標と、指先とディスプレイ画面との間の距離とに応じて、現在表示されている画像の下位階層の画像をディスプレイ画面上に表示する画像表示手段とを備えることを特徴とする画像表示装置が開示されている。   Further, Patent Document 2 discloses a detection unit that detects a fingertip within a predetermined range from a display screen from an image captured by an imaging unit, and a three-dimensional coordinate calculation unit that calculates a three-dimensional coordinate of the detected fingertip. , According to the coordinate processing means for associating the calculated three-dimensional coordinates of the fingertip and the two-dimensional coordinates on the display screen, the two-dimensional coordinates on the associated display screen, and the distance between the fingertip and the display screen Thus, there is disclosed an image display device comprising image display means for displaying an image in a lower hierarchy of the currently displayed image on a display screen.

また、特許文献3には、距離画像センサを用いて、注目時点における所定の面の上に存在する物体の位置を検知する検知手段と、注目時点において、検知された位置及び位置の周辺を撮影した色画像から物体の端部を特定する特定手段と、物体の位置に基づいて、特定された端部の位置を推定する推定手段と、端部の位置に応じて面に対する接触を判定する判定手段とを有する情報処理装置が開示されている。   In Patent Document 3, a distance image sensor is used to detect a position of an object existing on a predetermined surface at a point of interest, and a detected position and a periphery of the position at the point of interest. Identifying means for identifying the edge of the object from the color image, estimation means for estimating the position of the identified edge based on the position of the object, and determination for determining contact with the surface according to the position of the edge An information processing apparatus having a means is disclosed.

また、特許文献4や特許文献5には、画像を投影面に投射するプロジェクタと、投影面の環境の画像を連続取得するデプスカメラと、デプスカメラから、初期状態で得られた深度情報により、初期深度図を構築し、初期深度図により、タッチ動作領域の位置を決定する深度図処理装置と、デプスカメラから、初期状態後に連続して得られた各画像から、決定したタッチ動作領域前の所定間隔内に位置する少なくとも1つの対象の候補ブロブを検知する対象検知装置と、前後に隣り合う画像同士から得られたブロブの重心点の、時間と空間における関係から、各ブロブをそれぞれに対応した点配列に入れる追跡装置と、を有する、仮想タッチスクリーンシステムにおける双方向モードの自動切換システムが開示されている。   Further, in Patent Document 4 and Patent Document 5, a projector that projects an image on a projection surface, a depth camera that continuously acquires an image of an environment on the projection surface, and depth information obtained in an initial state from the depth camera, An initial depth map is constructed, and the depth map processing device that determines the position of the touch motion area based on the initial depth map and the images obtained continuously from the depth camera from the depth camera before the determined touch motion area. Corresponding to each blob based on the relationship in time and space between the object detection device that detects at least one candidate candidate blob located within a predetermined interval and the center of gravity of the blob obtained from adjacent images An automatic switching system in a bi-directional mode in a virtual touch screen system is disclosed having a tracking device in a point array.

しかしながら、特許文献1〜5では、マルチタップに対応することに関して改良の余地があった。   However, Patent Documents 1 to 5 have room for improvement with regard to handling multi-tap.

そこで、発明者らは、マルチタップに対応すべく、上記実施形態を発案するに至った。   Thus, the inventors have come up with the above embodiment to cope with multi-tap.

10…プロジェクタ装置、11…投射部(プロジェクタ装置の一部)、13…測距部(3次元情報取得手段、検出系の一部)、30…画像管理装置(制御装置)、50…設定手段(検出系の一部)、52…変換手段(検出系の一部)、53…端部候補検出手段(検出系の一部)、54…順位付け手段(最近接端部候補取得系の一部)、55…判定手段、57…凸包処理手段(検出系の一部)、58…除外処理手段(除外手段、最近接端部候補取得系の一部)、100…プロジェクタシステム、131…光射出部(3次元情報取得手段の一部)、132…撮像部(3次元情報取得手段の一部)、300…スクリーン(対象物)、500…電子黒板装置、600…デジタルサイネージ装置。   DESCRIPTION OF SYMBOLS 10 ... Projector apparatus, 11 ... Projection part (part of projector apparatus), 13 ... Distance measurement part (three-dimensional information acquisition means, a part of detection system), 30 ... Image management apparatus (control apparatus), 50 ... Setting means (Part of the detection system), 52 ... conversion means (part of the detection system), 53 ... end candidate detection means (part of the detection system), 54 ... ranking means (one of the closest end part candidate acquisition systems) Part), 55 ... determination means, 57 ... convex hull processing means (part of the detection system), 58 ... exclusion processing means (exclusion means, part of the nearest edge candidate acquisition system), 100 ... projector system, 131 ... Light emitting unit (part of three-dimensional information acquisition unit), 132 ... imaging unit (part of three-dimensional information acquisition unit), 300 ... screen (object), 500 ... electronic blackboard device, 600 ... digital signage device.

特開2014−202540号公報JP 2014-202540 A 特開2008−210348号公報JP 2008-210348 A 特開2012−48393号公報JP 2012-48393 A 特開2013−8368号公報JP 2013-8368 A 特開2015−212927号公報Japanese Patent Laying-Open No. 2015-212927

Claims (20)

複数の分岐部分を有する物体と対象物の接触を検出する接触検出装置であって、
前記複数の分岐部分それぞれの複数の端部候補を検出する検出系と、
前記複数の分岐部分それぞれの前記複数の端部候補から前記対象物に最も近接している端部候補である最近接端部候補を得る最近接端部候補取得系と、
前記複数の分岐部分それぞれの前記最近接端部候補が前記対象物に接触しているか否かを判定する判定手段と、を備える接触検出装置。
A contact detection device for detecting contact between an object having a plurality of branch portions and an object,
A detection system for detecting a plurality of edge candidates for each of the plurality of branch portions;
A closest edge candidate acquisition system for obtaining a closest edge candidate that is an edge candidate closest to the object from the plurality of edge candidates of each of the plurality of branch portions;
A contact detection device comprising: a determination unit that determines whether or not the closest end portion candidate of each of the plurality of branch portions is in contact with the object.
前記検出系は、
前記物体及び前記対象物の3次元情報を取得する3次元情報取得手段と、
前記対象物の3次元情報に基づいて、接触対象面を設定する設定手段と、
前記物体の3次元情報を射影変換によって2次元情報に変換する変換手段と、
前記2次元情報に基づいて、前記複数の分岐部分それぞれの複数の端部候補を検出する端部候補検出手段と、を含むことを特徴とする請求項1に記載の接触検出装置。
The detection system is
3D information acquisition means for acquiring 3D information of the object and the object;
Setting means for setting a contact target surface based on the three-dimensional information of the object;
Conversion means for converting the three-dimensional information of the object into two-dimensional information by projective transformation;
The contact detection device according to claim 1, further comprising: an end candidate detection unit that detects a plurality of end candidates of each of the plurality of branch portions based on the two-dimensional information.
前記端部候補検出手段は、前記3次元情報取得手段から前記接触対象面までの距離に応じた範囲内で前記複数の端部候補を検出することを特徴とする請求項2に記載の接触検出装置。   The contact detection according to claim 2, wherein the end candidate detection unit detects the plurality of end candidates within a range corresponding to a distance from the three-dimensional information acquisition unit to the contact target surface. apparatus. 前記3次元情報取得手段は、TOF法を用いることを特徴とする請求項2又は3に記載の接触検出装置。   The contact detection apparatus according to claim 2, wherein the three-dimensional information acquisition unit uses a TOF method. 前記3次元情報取得手段から前記接触対象面までの距離をL、前記複数の分岐部分の太さの平均をXとしたとき、前記複数の端部候補はX/Lよりも大きい値を直径とする円内にあることを特徴とする請求項4に記載の接触検出装置。   When the distance from the three-dimensional information acquisition means to the contact target surface is L, and the average thickness of the plurality of branch portions is X, the plurality of edge candidates have a value larger than X / L as a diameter. The contact detection device according to claim 4, wherein the contact detection device is in a circle. 前記3次元情報取得手段は、パターン投影法又はステレオカメラ法を用いることを特徴とする請求項2又は3に記載の接触検出装置。   The contact detection apparatus according to claim 2, wherein the three-dimensional information acquisition unit uses a pattern projection method or a stereo camera method. 前記3次元情報取得手段から前記接触対象面までの距離をL、前記複数の分岐部分の太さの平均をX、前記3次元情報取得手段の焦点距離をfとしたときに、前記複数の端部候補はXf/Lよりも大きい値を直径とする円内にあることを特徴とする請求項6に記載の接触検出装置。   When the distance from the three-dimensional information acquisition unit to the contact target surface is L, the average thickness of the plurality of branch portions is X, and the focal length of the three-dimensional information acquisition unit is f, the plurality of ends The contact detection device according to claim 6, wherein the part candidate is in a circle whose diameter is a value larger than Xf / L. 前記複数の端部候補は、前記3次元情報取得手段から前記接触対象面までの距離が短いほど多く検出されることを特徴とする請求項2〜7のいずれか一項に記載の接触検出装置。   The contact detection apparatus according to any one of claims 2 to 7, wherein the plurality of edge candidates are detected as the distance from the three-dimensional information acquisition unit to the contact target surface is shorter. . 前記検出系は、前記2次元情報に対して凸包処理を行う凸包処理手段を更に含み、
前記複数の端部候補は、前記凸包処理によって得られることを特徴とする請求項2〜8のいずれか一項に記載の接触検出装置。
The detection system further includes a convex hull processing means for performing a convex hull processing on the two-dimensional information,
The contact detection device according to claim 2, wherein the plurality of end portion candidates are obtained by the convex hull process.
前記検出系は、前記凸包処理が行われる前に前記2次元情報に対して機械学習結果を適用する機械学習結果適用手段を更に含むことを特徴とする請求項9に記載の接触検出装置。   The contact detection apparatus according to claim 9, wherein the detection system further includes a machine learning result application unit that applies a machine learning result to the two-dimensional information before the convex hull processing is performed. 前記最近接端部候補取得系は、前記複数の分岐部分それぞれの前記複数の端部候補に前記対象物に対する近接度の総合的な順位付けを行う順位付け手段を含み、
前記判定手段は、前記順位付け手段での順位付けの結果に基づいて、前記判定を行うことを特徴とする請求項1〜10のいずれか一項に記載の接触検出装置。
The closest edge candidate acquisition system includes ranking means for performing a comprehensive ranking of the proximity to the object to the plurality of edge candidates of each of the plurality of branch portions,
The contact detection apparatus according to claim 1, wherein the determination unit performs the determination based on a ranking result obtained by the ranking unit.
前記最近接端部候補取得系は、前記複数の分岐部分それぞれの前記複数の端部候補から前記対象物に最も近接している端部候補以外の端部候補を除外する除外手段を含むことを特徴とする請求項1〜11のいずれか一項に記載の接触検出装置。   The nearest edge candidate acquisition system includes an exclusion unit that excludes edge candidates other than the edge candidate closest to the object from the plurality of edge candidates of each of the plurality of branch portions. The contact detection device according to any one of claims 1 to 11, wherein the contact detection device is characterized in that 投影面に画像を投影する投影部と、
前記投影面と前記物体との接触を検出するための請求項1〜12のいずれか一項に記載の接触検出装置と、を備えるプロジェクタ装置。
A projection unit that projects an image onto a projection surface;
A contact detection device according to any one of claims 1 to 12, which detects contact between the projection surface and the object.
請求項1〜12のいずれか一項に記載の接触検出装置を備える電子黒板装置。   An electronic blackboard device comprising the contact detection device according to any one of claims 1 to 12. 請求項1〜12のいずれか一項に記載の接触検出装置を備えるデジタルサイネージ装置。   A digital signage apparatus provided with the contact detection apparatus as described in any one of Claims 1-12. 請求項13に記載のプロジェクタ装置と、
前記プロジェクタ装置で得られた入力操作に基づいて、画像制御を行う制御装置と、を備えるプロジェクタシステム。
A projector device according to claim 13;
A projector system comprising: a control device that performs image control based on an input operation obtained by the projector device.
複数の分岐部分を有する物体と対象物の接触を検出する接触検出方法であって、
前記複数の分岐部分それぞれの複数の端部候補を検出する工程と、
前記複数の分岐部分それぞれの前記複数の端部候補から前記対象物に最も近接している端部候補である最近接端部候補を得る工程と、
前記複数の分岐部分それぞれの前記最近接端部候補が前記対象物に接触しているか否かを判定する工程と、を含む接触検出方法。
A contact detection method for detecting contact between an object having a plurality of branch portions and an object,
Detecting a plurality of end candidates for each of the plurality of branch portions;
Obtaining a closest edge candidate that is an edge candidate closest to the object from the plurality of edge candidates of each of the plurality of branch portions;
Determining whether or not the nearest edge candidate of each of the plurality of branch portions is in contact with the object.
前記検出する工程は、
前記物体及び前記対象物の3次元情報を取得するサブ工程と、
前記対象物の3次元情報に基づいて、接触対象面を設定するサブ工程と、
前記物体の3次元情報を射影変換によって2次元情報に変換するサブ工程と、
前記2次元情報に基づいて、前記複数の分岐部分それぞれの複数の端部候補を検出するサブ工程と、を含むことを特徴とする請求項17に記載の接触検出方法。
The detecting step includes
A sub-step of obtaining three-dimensional information of the object and the object;
A sub-step of setting a contact target surface based on the three-dimensional information of the object;
A sub-step of converting the three-dimensional information of the object into two-dimensional information by projective transformation;
The contact detection method according to claim 17, further comprising: a sub-step of detecting a plurality of end portion candidates for each of the plurality of branch portions based on the two-dimensional information.
請求項18に記載の接触検出方法をコンピュータに実行させるプログラムであって、
前記物体及び前記対象物の3次元情報を取得する手順と、
前記対象物の3次元情報に基づいて、接触対象面を設定する手順と、
前記物体の3次元情報を射影変換によって2次元情報に変換する手順と、
前記2次元情報に基づいて、前記複数の分岐部分それぞれの複数の端部候補を検出する手順と、
前記複数の分岐部分それぞれの前記複数の端部候補から前記対象物に最も近接している端部候補である最近接端部候補を得る手順と、
前記複数の分岐部分それぞれの前記最近接端部候補のうち前記近接度の順位が最も高い端部候補が前記接触対象面に接触しているか否かを判定する手順と、を含むプログラム。
A program for causing a computer to execute the contact detection method according to claim 18,
Obtaining three-dimensional information of the object and the object;
A procedure for setting a contact target surface based on the three-dimensional information of the object;
A procedure for converting the three-dimensional information of the object into two-dimensional information by projective transformation;
A procedure for detecting a plurality of end candidates for each of the plurality of branch portions based on the two-dimensional information;
Obtaining a closest edge candidate that is an edge candidate closest to the object from the plurality of edge candidates of each of the plurality of branch portions;
A step of determining whether or not an end candidate having the highest degree of proximity among the closest end candidate of each of the plurality of branch portions is in contact with the contact target surface.
請求項19に記載のプログラムが格納された記憶媒体。   A storage medium storing the program according to claim 19.
JP2016112365A 2016-06-06 2016-06-06 Contact detection device, projector device, electronic blackboard device, digital signage device, projector system, contact detection method, program, and storage medium. Pending JP2017219942A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2016112365A JP2017219942A (en) 2016-06-06 2016-06-06 Contact detection device, projector device, electronic blackboard device, digital signage device, projector system, contact detection method, program, and storage medium.

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2016112365A JP2017219942A (en) 2016-06-06 2016-06-06 Contact detection device, projector device, electronic blackboard device, digital signage device, projector system, contact detection method, program, and storage medium.

Publications (1)

Publication Number Publication Date
JP2017219942A true JP2017219942A (en) 2017-12-14

Family

ID=60656936

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2016112365A Pending JP2017219942A (en) 2016-06-06 2016-06-06 Contact detection device, projector device, electronic blackboard device, digital signage device, projector system, contact detection method, program, and storage medium.

Country Status (1)

Country Link
JP (1) JP2017219942A (en)

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111443831A (en) * 2020-03-30 2020-07-24 北京嘉楠捷思信息技术有限公司 Gesture recognition method and device
US11327608B2 (en) 2020-02-17 2022-05-10 Seiko Epson Corporation Two camera touch operation detection method, device, and system
US11385742B2 (en) 2020-02-17 2022-07-12 Seiko Epson Corporation Position detection method, position detection device, and position detection system
US11700365B2 (en) 2020-02-17 2023-07-11 Seiko Epson Corporation Position detection method, position detection device, and display device
JP7547992B2 (en) 2020-02-10 2024-09-10 株式会社リコー Projection device and operation detection device

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP7547992B2 (en) 2020-02-10 2024-09-10 株式会社リコー Projection device and operation detection device
US11327608B2 (en) 2020-02-17 2022-05-10 Seiko Epson Corporation Two camera touch operation detection method, device, and system
US11385742B2 (en) 2020-02-17 2022-07-12 Seiko Epson Corporation Position detection method, position detection device, and position detection system
US11700365B2 (en) 2020-02-17 2023-07-11 Seiko Epson Corporation Position detection method, position detection device, and display device
CN111443831A (en) * 2020-03-30 2020-07-24 北京嘉楠捷思信息技术有限公司 Gesture recognition method and device

Similar Documents

Publication Publication Date Title
US10310675B2 (en) User interface apparatus and control method
JP6248533B2 (en) Image processing apparatus, image processing method, and image processing program
JP2016162162A (en) Contact detection device, projector device, electronic blackboard device, digital signage device, projector system, and contact detection method
CN103797446A (en) Method for detecting motion of input body and input device using same
JP6723814B2 (en) Information processing apparatus, control method thereof, program, and storage medium
JP6344530B2 (en) Input device, input method, and program
JP6643825B2 (en) Apparatus and method
KR20120068253A (en) Method and apparatus for providing response of user interface
JP2017219942A (en) Contact detection device, projector device, electronic blackboard device, digital signage device, projector system, contact detection method, program, and storage medium.
JP6127564B2 (en) Touch determination device, touch determination method, and touch determination program
US10254893B2 (en) Operating apparatus, control method therefor, and storage medium storing program
JP2016091457A (en) Input device, fingertip-position detection method, and computer program for fingertip-position detection
US10048808B2 (en) Input operation detection device, projection apparatus, interactive whiteboard, digital signage, and projection system
JP6746419B2 (en) Information processing apparatus, control method thereof, and computer program
US20170227353A1 (en) Floor estimation for human computer interfaces
JP6528964B2 (en) INPUT OPERATION DETECTING DEVICE, IMAGE DISPLAY DEVICE, PROJECTOR DEVICE, PROJECTOR SYSTEM, AND INPUT OPERATION DETECTING METHOD
JP6501806B2 (en) INFORMATION PROCESSING APPARATUS, OPERATION DETECTING METHOD, AND COMPUTER PROGRAM
JP2015212927A (en) Input operation detection device, image display device including input operation detection device, and projector system
JP6555958B2 (en) Information processing apparatus, control method therefor, program, and storage medium
US10416814B2 (en) Information processing apparatus to display an image on a flat surface, method of controlling the same, and storage medium
JP2017068468A (en) Information processing apparatus, information processing method, and program
US20240070889A1 (en) Detecting method, detecting device, and recording medium
US20240069647A1 (en) Detecting method, detecting device, and recording medium
JP2018181169A (en) INFORMATION PROCESSING APPARATUS, CONTROL METHOD FOR INFORMATION PROCESSING APPARATUS, COMPUTER PROGRAM, AND STORAGE MEDIUM
CN115981492A (en) Three-dimensional handwriting generation method, device and system