[go: up one dir, main page]

JP2006197443A - Image processing system, projector, program, information storage medium, and image processing method - Google Patents

Image processing system, projector, program, information storage medium, and image processing method Download PDF

Info

Publication number
JP2006197443A
JP2006197443A JP2005008740A JP2005008740A JP2006197443A JP 2006197443 A JP2006197443 A JP 2006197443A JP 2005008740 A JP2005008740 A JP 2005008740A JP 2005008740 A JP2005008740 A JP 2005008740A JP 2006197443 A JP2006197443 A JP 2006197443A
Authority
JP
Japan
Prior art keywords
image
projection
information
imaging
unit
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2005008740A
Other languages
Japanese (ja)
Other versions
JP3994290B2 (en
Inventor
Masanobu Kobayashi
雅暢 小林
Hideki Matsuda
秀樹 松田
Osamu Wada
修 和田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Seiko Epson Corp
Original Assignee
Seiko Epson Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Seiko Epson Corp filed Critical Seiko Epson Corp
Priority to JP2005008740A priority Critical patent/JP3994290B2/en
Priority to US11/295,451 priority patent/US7484855B2/en
Publication of JP2006197443A publication Critical patent/JP2006197443A/en
Application granted granted Critical
Publication of JP3994290B2 publication Critical patent/JP3994290B2/en
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G03PHOTOGRAPHY; CINEMATOGRAPHY; ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ELECTROGRAPHY; HOLOGRAPHY
    • G03BAPPARATUS OR ARRANGEMENTS FOR TAKING PHOTOGRAPHS OR FOR PROJECTING OR VIEWING THEM; APPARATUS OR ARRANGEMENTS EMPLOYING ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ACCESSORIES THEREFOR
    • G03B21/00Projectors or projection-type viewers; Accessories therefor
    • G03B21/005Projectors using an electronic spatial light modulator but not peculiar thereto

Landscapes

  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Transforming Electric Information Into Light Information (AREA)
  • Projection Apparatus (AREA)
  • Image Processing (AREA)

Abstract

【課題】 投写対象物と投写手段との相対的な位置の変化を簡易かつ迅速に検出することが可能な画像処理システム等を提供すること。
【解決手段】 入力画像情報に基づくコンテンツ画像と、当該コンテンツ画像の外部の少なくとも一部に設けられた位置変化検出用画像とを含む編集画像を投写するための編集画像情報を生成する調整部130と、前記編集画像が投写されるスクリーンを撮像して撮像画像を示す撮像情報を生成する撮像部180と、編集画像情報に基づき、編集画像を投写する投写部190と、撮像情報に基づき、投写部190とスクリーンとの相対的な位置が変化したかどうかを判定する判定部160とを含んでプロジェクタを構成する。
【選択図】 図2
PROBLEM TO BE SOLVED: To provide an image processing system and the like capable of easily and quickly detecting a change in relative position between a projection object and a projection means.
An adjustment unit that generates edited image information for projecting an edited image including a content image based on input image information and a position change detection image provided at least at a part of the outside of the content image. An imaging unit 180 that captures the screen on which the edited image is projected and generates imaging information indicating the captured image, a projection unit 190 that projects the edited image based on the edited image information, and a projection based on the imaging information. The projector includes a determination unit 160 that determines whether the relative position between the unit 190 and the screen has changed.
[Selection] Figure 2

Description

本発明は、撮像情報に基づいて投写対象物とプロジェクタとの相対的な位置の変化を検出する画像処理システム、プロジェクタ、プログラム、情報記憶媒体および画像処理方法に関する。   The present invention relates to an image processing system, a projector, a program, an information storage medium, and an image processing method for detecting a change in relative position between a projection target and a projector based on imaging information.

近年、CCDカメラを有するプロジェクタを用いてスクリーン等の投写対象物に画像を投写し、投写された投写画像をCCDカメラで撮像して画像の歪み等のキャリブレーション処理を実行するプロジェクタが提案されている。   In recent years, there has been proposed a projector that projects an image onto a projection object such as a screen using a projector having a CCD camera, captures the projected image with a CCD camera, and executes calibration processing such as image distortion. Yes.

しかし、このような従来のプロジェクタは、キャリブレーション処理実行後に、ユーザーが誤ってプロジェクタまたはスクリーンに衝突したり、ユーザーがスクリーンを指示棒で叩いたりすることによってプロジェクタとスクリーンとの相対的な位置が変化してしまった場合、適切な画像を表示できない。   However, in such a conventional projector, after the calibration process is performed, the user may accidentally collide with the projector or the screen, or the user may hit the screen with a pointing stick, so that the relative position between the projector and the screen is changed. If it has changed, an appropriate image cannot be displayed.

このような場合、ユーザーは、キャリブレーション処理の実行によって適切な画像を表示できているものと思っているため、適切な画像を表示できていないことに気づかないことがある。   In such a case, since the user thinks that an appropriate image can be displayed by executing the calibration process, the user may not be aware that the appropriate image cannot be displayed.

このような課題を解決するためには、プロジェクタは、プロジェクタとスクリーンとの相対的な位置の変化を検出する必要がある。   In order to solve such a problem, the projector needs to detect a change in the relative position between the projector and the screen.

特許文献1では、CCDカメラによる撮像データをフレームメモリに記憶し、フレームメモリの内容の変化から画像の動きを検出するプロジェクタが記載されている。   Patent Document 1 describes a projector that stores image data captured by a CCD camera in a frame memory and detects the movement of an image from a change in the contents of the frame memory.

このようにカメラによる一般的な動き検出方法は、メモリに記憶したt時点における撮像データと、t+1時点における撮像データとを比較することによって動きを検出している。
特開2001−109422号公報
As described above, the general motion detection method using the camera detects the motion by comparing the imaging data at time t stored in the memory with the imaging data at time t + 1.
JP 2001-109422 A

しかし、一般的な動き検出方法の場合、一単位時間前の撮像データを保持しておく必要があり、メモリの使用効率が悪い上、撮像データ同士を比較するための処理が複雑となる。   However, in the case of a general motion detection method, it is necessary to hold imaging data of one unit time ago, and the use efficiency of the memory is poor, and the processing for comparing the imaging data becomes complicated.

また、ユーザーがプロジェクタとスクリーンとの相対的な位置が変化したことに気づいた場合であっても、再度プロジェクタがキャリブレーション処理を実行する必要がある。   Even if the user notices that the relative position between the projector and the screen has changed, the projector needs to execute the calibration process again.

本発明は、上記の課題に鑑みなされたものであり、その目的は、投写対象物と投写手段との相対的な位置の変化を簡易かつ迅速に検出することが可能な画像処理システム、プロジェクタ、プログラム、情報記憶媒体および画像処理方法を提供することにある。   The present invention has been made in view of the above problems, and an object of the present invention is to provide an image processing system, a projector, and a projector that can easily and quickly detect a relative position change between a projection object and a projection unit. To provide a program, an information storage medium, and an image processing method.

上記課題を解決するため、本発明に係る画像処理システムは、入力画像情報に基づくコンテンツ画像と、当該コンテンツ画像の外部の少なくとも一部に設けられた位置変化検出用画像とを含む編集画像を投写するための編集画像情報を生成する調整手段と、
前記編集画像が投写される投写対象物を撮像して撮像画像を示す撮像情報を生成する撮像手段と、
前記入力画像情報に基づき、前記コンテンツ画像を投写するとともに、前記編集画像情報に基づき、前記編集画像を投写する投写手段と、
前記撮像情報に基づき、前記投写手段と前記投写対象物との相対的な位置が変化したかどうかを判定する判定手段と、
を含み、
前記判定手段は、前記撮像画像内の前記投写対象物に相当する投写対象領域における前記位置変化検出用画像の有無を判定することにより、前記相対的な位置の変化を判定することを特徴とする。
In order to solve the above problems, an image processing system according to the present invention projects an edited image including a content image based on input image information and a position change detection image provided at least at a part of the outside of the content image. Adjusting means for generating edited image information for
Imaging means for imaging the projection object on which the edited image is projected and generating imaging information indicating the captured image;
Projecting means for projecting the content image based on the input image information and projecting the edited image based on the edited image information;
A determination unit that determines whether a relative position between the projection unit and the projection target has changed based on the imaging information;
Including
The determination unit determines the relative change in position by determining the presence or absence of the position change detection image in a projection target area corresponding to the projection target in the captured image. .

また、本発明に係るプロジェクタは、上記画像処理システムを有することを特徴とする。   A projector according to the present invention includes the image processing system.

また、本発明に係るプログラムは、撮像手段と、投写手段と、判定手段とを有するコンピュータにより読み取り可能なプログラムであって、
前記コンピュータに、
前記投写手段が、入力画像情報に基づくコンテンツ画像の外部の少なくとも一部に位置変化検出用画像を含む画像を投写し、
前記撮像手段が、前記画像が投写される投写対象物を撮像して撮像画像を示す撮像情報を生成し、
前記判定手段が、前記撮像情報に基づき、前記投写手段と前記投写対象物との相対的な位置が変化したかどうかを判定するための処理を実行させ、
前記撮像手段は、前記投写対象領域を含む撮像範囲で撮像し、
前記判定手段は、前記撮像画像内の前記投写対象物に相当する投写対象領域における前記位置変化検出用画像の有無を判定することにより、前記相対的な位置の変化を判定することを特徴とする。
Further, a program according to the present invention is a program readable by a computer having an imaging unit, a projection unit, and a determination unit,
In the computer,
The projecting means projects an image including a position change detection image on at least a part of the content image based on the input image information;
The imaging means captures a projection object on which the image is projected and generates imaging information indicating the captured image;
The determination unit executes a process for determining whether or not a relative position between the projection unit and the projection target has changed based on the imaging information;
The imaging means captures an image within an imaging range including the projection target area;
The determination unit determines the relative change in position by determining the presence or absence of the position change detection image in a projection target area corresponding to the projection target in the captured image. .

また、本発明に係る情報記憶媒体は、コンピュータにより読み取り可能なプログラムを記憶した情報記憶媒体であって、
上記プログラムを記憶したことを特徴とする。
An information storage medium according to the present invention is an information storage medium storing a computer-readable program,
The program is stored.

また、本発明に係る画像処理方法は、撮像手段と、投写手段と、判定手段とを有するコンピュータによる画像処理方法であって、
前記投写手段が、入力画像情報に基づくコンテンツ画像の外部の少なくとも一部に位置変化検出用画像を含む画像を投写し、
前記撮像手段が、前記画像が投写される投写対象物を撮像して撮像画像を示す撮像情報を生成し、
前記判定手段が、前記撮像情報に基づき、前記投写手段と前記投写対象物との相対的な位置が変化したかどうかを判定し、
前記撮像手段は、前記投写対象物を撮像する際に、前記投写対象領域を含む撮像範囲で撮像し、
前記判定手段は、前記相対的な位置の変化を判定する際に、前記撮像画像内の前記投写対象物に相当する投写対象領域における前記位置変化検出用画像の有無を判定することにより、前記相対的な位置の変化を判定することを特徴とする。
An image processing method according to the present invention is an image processing method by a computer having an imaging means, a projection means, and a determination means,
The projecting means projects an image including a position change detection image on at least a part of the content image based on the input image information;
The imaging means captures a projection object on which the image is projected and generates imaging information indicating the captured image;
The determination means determines whether the relative position of the projection means and the projection object has changed based on the imaging information;
The imaging means captures an image in an imaging range including the projection target area when imaging the projection target object,
When determining the relative position change, the determination unit determines the presence or absence of the position change detection image in a projection target area corresponding to the projection target in the captured image, thereby determining the relative position. It is characterized by determining a change in the general position.

本発明によれば、画像処理システム等は、通常のコンテンツ画像に位置変化検出用画像を付加して投写し、投写対象領域における位置変化検出用画像の有無を判定することによって投写対象物と投写手段との相対的な位置の変化を簡易かつ迅速に検出することができる。   According to the present invention, an image processing system or the like adds a position change detection image to a normal content image and projects it, and determines whether or not there is a position change detection image in the projection target area, thereby projecting the projection object and the projection object. A change in position relative to the means can be detected easily and quickly.

また、前記画像処理システム、前記プロジェクタ、前記プログラム、前記情報記憶媒体および前記画像処理方法において、前記位置変化検出用画像は、前記コンテンツ画像の外部の上下左右にそれぞれ設けられ、
前記判定手段は、前記撮像画像における前記位置変化検出用画像の検出状態に応じて前記相対的な位置の移動方向および移動量の少なくとも一方を判定してもよい。
In the image processing system, the projector, the program, the information storage medium, and the image processing method, the position change detection images are provided on the top, bottom, left, and right outside the content image, respectively.
The determination unit may determine at least one of a movement direction and a movement amount of the relative position according to a detection state of the position change detection image in the captured image.

これによれば、画像処理システム等は、コンテンツ画像の外部の上下左右に位置変化検出用画像を設けることにより、投写対象物等の移動方向を適切に検出できる。   According to this, the image processing system or the like can appropriately detect the moving direction of the projection target or the like by providing the position change detection images on the top, bottom, left, and right outside the content image.

また、前記画像処理システム、前記プロジェクタ、前記プログラム、前記情報記憶媒体および前記画像処理方法において、前記撮像画像における画素ごとの画像信号値の相違に基づき、前記撮像画像内の前記投写対象領域の位置に関する投写対象領域情報を生成する投写対象領域情報生成手段を含み、
前記判定手段は、前記撮像情報と、前記投写対象領域情報情報とに基づき、前記相対的な位置の変化を判定してもよい。
Further, in the image processing system, the projector, the program, the information storage medium, and the image processing method, the position of the projection target area in the captured image based on a difference in image signal values for each pixel in the captured image. Projection target area information generating means for generating projection target area information regarding,
The determination unit may determine the relative position change based on the imaging information and the projection target area information information.

これによれば、画像処理システム等は、投写対象領域を適切に判別して相対的な変化を検出することができる。   According to this, the image processing system or the like can appropriately determine the projection target area and detect a relative change.

また、前記画像処理システム、前記プロジェクタ、前記プログラム、前記情報記憶媒体および前記画像処理方法において、前記調整手段は、前記判定手段によって前記相対的な位置が変化したと判定された場合、前記入力画像情報に対する補正量および前記投写手段に含まれる投写制御部の制御量の少なくとも一方を、前記判定手段の判定結果に応じて調整してもよい。   In the image processing system, the projector, the program, the information storage medium, and the image processing method, when the adjustment unit determines that the relative position has changed by the determination unit, the input image At least one of the correction amount for the information and the control amount of the projection control unit included in the projection unit may be adjusted according to the determination result of the determination unit.

これによれば、画像処理システム等は、再度のキャリブレーション処理を実行することなく、相対的な位置の変化に応じて適切な画像を投写することができる。   According to this, an image processing system or the like can project an appropriate image according to a relative change in position without performing a second calibration process.

また、前記画像処理システム、前記プロジェクタ、前記プログラム、前記情報記憶媒体および前記画像処理方法は、前記撮像画像における画素ごとの画像信号値の相違に基づき、前記撮像画像における前記画像に相当する投写領域の位置に関する投写領域情報を生成する投写領域情報生成手段と、
前記投写対象領域情報と、前記投写領域情報とに基づき、前記投写対象物における前記画像の歪みに対する補正値を導出する補正値導出手段と、
を含み、
前記調整手段は、前記補正値に基づき、前記画像の歪みが補正されるように、前記補正量および前記制御量の少なくとも一方を調整してもよい。
Further, the image processing system, the projector, the program, the information storage medium, and the image processing method are based on a difference in image signal values for each pixel in the captured image, and a projection area corresponding to the image in the captured image Projection area information generating means for generating projection area information related to the position of
Correction value deriving means for deriving a correction value for distortion of the image in the projection target based on the projection target area information and the projection area information;
Including
The adjustment unit may adjust at least one of the correction amount and the control amount so that distortion of the image is corrected based on the correction value.

これによれば、画像処理システム等は、再度のキャリブレーション処理を実行することなく、相対的な位置の変化に応じて歪みのない適切な画像を投写することができる。   According to this, the image processing system or the like can project an appropriate image without distortion in accordance with the relative position change without performing the calibration process again.

また、前記画像処理システム、前記プロジェクタ、前記プログラム、前記情報記憶媒体および前記画像処理方法は、前記判定手段によって前記相対的な位置が変化したと判定された場合、前記相対的な位置が変化したことを、画像、音声、光のうちの少なくとも1つを用いてユーザーに通知する通知手段を含んでもよい。   The image processing system, the projector, the program, the information storage medium, and the image processing method change the relative position when the determination unit determines that the relative position has changed. This may include notification means for notifying the user using at least one of image, sound, and light.

これによれば、画像処理システム等は、相対的な位置が変化したことをユーザーに通知することができる。   According to this, the image processing system or the like can notify the user that the relative position has changed.

以下、本発明を、投写対象物と投写手段との相対的な位置の変化を検出するプロジェクタに適用した場合を例に採り、図面を参照しつつ説明する。なお、以下に示す実施例は、特許請求の範囲に記載された発明の内容を何ら限定するものではない。また、以下の実施例に示す構成の全てが、特許請求の範囲に記載された発明の解決手段として必須であるとは限らない。   Hereinafter, a case where the present invention is applied to a projector that detects a change in the relative position between a projection object and a projection unit will be described as an example with reference to the drawings. In addition, the Example shown below does not limit the content of the invention described in the claim at all. In addition, all of the configurations shown in the following embodiments are not necessarily essential as means for solving the problems described in the claims.

(第1の実施例)
図1は、第1の実施例における画像投写時の状態を示す模式図である。
(First embodiment)
FIG. 1 is a schematic diagram showing a state during image projection in the first embodiment.

画像処理システムを有するプロジェクタ20は、投写対象物の一種であるスクリーン10へ向け画像を投写する。本実施例では、プロジェクタ20は、スクリーン10に正対していない状態となっている。また、プロジェクタ20からの投写光によって形成される投写画像12は、スクリーン10からはみ出している。また、本実施例では、撮像手段の一部であるセンサー60は、投写画像12を含む撮像範囲8で撮像する。   A projector 20 having an image processing system projects an image onto a screen 10 that is a kind of projection object. In the present embodiment, the projector 20 is not facing the screen 10. Further, the projected image 12 formed by the projection light from the projector 20 protrudes from the screen 10. In this embodiment, the sensor 60 that is a part of the imaging unit captures an image within the imaging range 8 including the projected image 12.

また、本実施例では、プロジェクタ20は、センサー60による撮像情報に基づき、スクリーン10のアスペクト比(縦横比)を演算する。そして、プロジェクタ20は、当該アスペクト比と、既知である所望のアスペクト比に基づき、投写画像12に含まれるコンテンツ画像がスクリーン10内に収まり、かつ、所望のアスペクト比となるように、画像の歪み補正を行う。   Further, in the present embodiment, the projector 20 calculates the aspect ratio (aspect ratio) of the screen 10 based on the imaging information by the sensor 60. Then, the projector 20 distorts the image so that the content image included in the projection image 12 fits in the screen 10 and has the desired aspect ratio based on the aspect ratio and the known desired aspect ratio. Make corrections.

さらに、本実施例におけるプロジェクタ20は、このように歪み補正等のキャリブレーション処理を実行した後に、スクリーン10とプロジェクタ20との相対的な位置の変化を検出する。   Furthermore, the projector 20 according to the present embodiment detects a change in the relative position between the screen 10 and the projector 20 after performing the calibration process such as the distortion correction in this way.

次に、このような機能を実装するためのプロジェクタ20の機能ブロックについて説明する。   Next, functional blocks of the projector 20 for implementing such functions will be described.

図2は、第1の実施例におけるプロジェクタ20の機能ブロック図である。   FIG. 2 is a functional block diagram of the projector 20 in the first embodiment.

プロジェクタ20は、PC等からの入力画像情報を入力する画像情報入力部110と、画像の歪みが補正されるように、入力画像情報の補正等を行う調整部130と、補正された画像情報を出力する画像情報出力部112と、補正された画像情報に基づき、画像を投写する投写部190と、キャリブレーション画像情報を生成するキャリブレーション画像情報生成部170とを含んで構成されている。   The projector 20 includes an image information input unit 110 that inputs input image information from a PC or the like, an adjustment unit 130 that corrects input image information so that image distortion is corrected, and the corrected image information. The image information output unit 112 to output, a projection unit 190 that projects an image based on the corrected image information, and a calibration image information generation unit 170 that generates calibration image information are configured.

また、調整部130は、入力画像情報に基づき、当該入力画像情報に基づくコンテンツ画像の外部の上下左右に位置変化検出用画像を含む編集画像を投写するための編集画像情報を生成する。また、調整部130は、画像情報を補正する補正部132と、投写部190の制御情報を生成する制御部134とを含んで構成されている。   Further, the adjustment unit 130 generates edit image information for projecting an edit image including position change detection images on the top, bottom, left, and right outside the content image based on the input image information based on the input image information. The adjustment unit 130 includes a correction unit 132 that corrects image information and a control unit 134 that generates control information for the projection unit 190.

また、プロジェクタ20は、投写画像12を含む領域(撮像範囲8)を、撮像面を介して撮像して撮像情報を生成する撮像部180と、撮像情報に基づき、センサー60の撮像領域におけるスクリーン10の領域を検出する投写対象領域情報生成部140と、センサー60の撮像領域における投写画像12の領域を検出する投写領域情報生成部150と、歪み補正用の補正値等を導出する補正値導出部120と、スクリーン10とプロジェクタ20との相対的な位置の変化を判定する判定部160とを含んで構成されている。なお、撮像部180は、センサー60を含む。   In addition, the projector 20 captures an area including the projection image 12 (imaging range 8) through an imaging surface to generate imaging information, and the screen 10 in the imaging area of the sensor 60 based on the imaging information. Projection area information generating section 140 for detecting the area of the projection area, projection area information generating section 150 for detecting the area of the projected image 12 in the imaging area of the sensor 60, and a correction value deriving section for deriving a correction value for distortion correction. 120 and a determination unit 160 that determines a change in the relative position between the screen 10 and the projector 20. Note that the imaging unit 180 includes a sensor 60.

また、投写部190は、空間光変調器192と、投写画像12の大きさを調整するズーム部196と、投写画像12の投写位置を調整するレンズシフト部198と、ズーム部196等を制御する投写制御部194とを含んで構成されている。   The projection unit 190 controls the spatial light modulator 192, the zoom unit 196 that adjusts the size of the projection image 12, the lens shift unit 198 that adjusts the projection position of the projection image 12, the zoom unit 196, and the like. And a projection control unit 194.

また、上述したプロジェクタ20の各部を実装するためのハードウェアとしては、例えば、以下のものを適用できる。   Further, as hardware for mounting each unit of the projector 20 described above, for example, the following can be applied.

図3は、第1の実施例におけるプロジェクタ20のハードウェアブロック図である。   FIG. 3 is a hardware block diagram of the projector 20 in the first embodiment.

例えば、画像情報入力部110としては、例えばA/Dコンバーター930等、調整部130、判定部160としては、例えば画像処理回路970、RAM950、CPU910等、画像情報出力部112としては、例えばD/Aコンバーター940等、補正値導出部120、投写対象領域情報生成部140、投写領域情報生成部150およびキャリブレーション画像情報生成部170としては、例えば画像処理回路970、RAM950等、撮像部180としては、例えばCCDセンサー、CMOSセンサー、RGBセンサー等、空間光変調器192としては、例えば液晶パネル920、液晶パネル920を駆動する液晶ライトバルブ駆動ドライバを記憶するROM960等を用いて実装できる。   For example, the image information input unit 110 includes, for example, an A / D converter 930, the adjustment unit 130, the determination unit 160 includes, for example, the image processing circuit 970, the RAM 950, the CPU 910, and the image information output unit 112 includes, for example, a D / D As the A converter 940, the correction value deriving unit 120, the projection target region information generating unit 140, the projection region information generating unit 150, and the calibration image information generating unit 170, for example, the image processing circuit 970, the RAM 950, etc. As the spatial light modulator 192 such as a CCD sensor, a CMOS sensor, or an RGB sensor, for example, a liquid crystal panel 920, a ROM 960 that stores a liquid crystal light valve driving driver for driving the liquid crystal panel 920, or the like can be used.

なお、これらの各部はシステムバス980を介して相互に情報をやりとりすることが可能である。   Note that these units can exchange information with each other via the system bus 980.

また、これらの各部は、その一部または全部を、回路のようにハードウェア的に実装してもよいし、ドライバのようにソフトウェア的に実装してもよい。   In addition, some or all of these units may be implemented as hardware such as a circuit, or may be implemented as software such as a driver.

さらに、判定部160等の処理をコンピュータに実行させるためのプログラムを記憶した情報記憶媒体900からプログラムを読み取って判定部160等の処理をコンピュータに実行させてもよい。   Further, the program may be read from the information storage medium 900 that stores the program for causing the computer to execute the process of the determination unit 160 and the like, and the process of the determination unit 160 and the like may be executed by the computer.

このような情報記憶媒体900としては、例えば、CD−ROM、DVD−ROM、ROM、RAM、HDD等を適用でき、そのプログラムの読み取り方式は接触方式であっても、非接触方式であってもよい。   As such an information storage medium 900, for example, a CD-ROM, a DVD-ROM, a ROM, a RAM, an HDD, or the like can be applied, and the program reading method may be a contact method or a non-contact method. Good.

また、情報記憶媒体900に代えて、上述した各部の処理をコンピュータに実行させるためのプログラム等を、伝送路を介してホスト装置等からダウンロードすることによって上述した各部の処理をコンピュータに実行させることも可能である。   Also, in place of the information storage medium 900, a program for causing a computer to execute the processing of each unit described above is downloaded from a host device or the like via a transmission path to cause the computer to execute the processing of each unit described above. Is also possible.

次に、これらの各部を用いた画像処理の流れについて説明する。   Next, the flow of image processing using these units will be described.

図4は、第1の実施例における画像処理の流れを示すフローチャートである。   FIG. 4 is a flowchart showing the flow of image processing in the first embodiment.

まず、プロジェクタ20は、台形歪み補正等のキャリブレーション処理を実行する(ステップS1)。より具体的には、プロジェクタ20は、例えば、以下の手順によってキャリブレーション処理を実行する。   First, the projector 20 executes calibration processing such as trapezoidal distortion correction (step S1). More specifically, the projector 20 executes the calibration process by the following procedure, for example.

まず、キャリブレーション画像情報生成部170は、画像全体が黒の単色のキャリブレーション画像(全黒画像)用の画像情報を生成し、画像情報出力部112は、当該画像情報のデジタル信号を投写部190に出力する。投写部190は、当該デジタル信号に基づき、スクリーン10へ向け全黒画像を投写する。これにより、スクリーン10には、全黒画像が表示される。   First, the calibration image information generation unit 170 generates image information for a single color calibration image (all black image) whose entire image is black, and the image information output unit 112 outputs a digital signal of the image information as a projection unit. To 190. The projection unit 190 projects an all-black image toward the screen 10 based on the digital signal. As a result, an all-black image is displayed on the screen 10.

撮像部180は、投写画像12を含む領域を、撮像面を介して撮像して第1の撮像情報を生成する。ここで、撮像情報は、例えば、輝度値、XYZ値等の輝度値を生成可能な画像信号値をセンサー60の画素ごとに示す情報である。なお、ここで、XYZ値とは、国際照明委員会(CIE)によって定められた国際規格で、機器独立色の一種の画像信号値である。   The imaging unit 180 captures an area including the projected image 12 via the imaging surface to generate first imaging information. Here, the imaging information is information indicating, for each pixel of the sensor 60, an image signal value that can generate a luminance value such as a luminance value or an XYZ value. Here, the XYZ value is an international standard defined by the International Lighting Commission (CIE), and is a kind of image signal value of a device independent color.

図5は、第1の実施例における撮像領域17を示す模式図である。   FIG. 5 is a schematic diagram showing the imaging region 17 in the first embodiment.

撮像領域17は、センサー60が画像を捉える撮像面に相当する領域であり、センサー60の撮像情報を矩形で模式的に示す領域でもある。撮像領域17としては、具体的には、例えば、CCDセンサーの撮像面の領域等が該当する。   The imaging area 17 is an area corresponding to an imaging surface where the sensor 60 captures an image, and is also an area schematically showing imaging information of the sensor 60 in a rectangle. Specifically, the imaging area 17 corresponds to an area on the imaging surface of a CCD sensor, for example.

本実施例では、センサー60の光軸とレンズ198の光軸が同じ方向に向いており、スクリーン10とプロジェクタ20とが正対していない。このため、図5に示すように、センサー60から見た場合、投写画像12の領域である投写領域13は撮像領域17と同様に矩形で見え、スクリーン10の領域である投写対象領域11は歪んで見える。   In this embodiment, the optical axis of the sensor 60 and the optical axis of the lens 198 are oriented in the same direction, and the screen 10 and the projector 20 are not facing each other. For this reason, as shown in FIG. 5, when viewed from the sensor 60, the projection area 13 that is the area of the projected image 12 looks rectangular like the imaging area 17, and the projection target area 11 that is the area of the screen 10 is distorted. It looks in.

また、本実施例では、投写対象領域情報生成部140は、撮像部180からの撮像情報に基づき、投写領域13の対角線の交点、すなわち、投写領域13の中心(必ずしも中心でなくてもよく、中央付近でもよい。)から外側に向かって放射状に輝度値を探索することによって連続して一定の輝度値を有する領域EFGHを投写対象領域11として決定し、撮像領域17における領域EFGHの4隅の位置を示す投写対象領域情報を補正値導出部120に出力する。   Further, in the present embodiment, the projection target area information generation unit 140 is based on the imaging information from the imaging unit 180, and is the intersection of the diagonal lines of the projection area 13, that is, the center of the projection area 13 (not necessarily the center, The region EFGH having a constant luminance value is determined as the projection target region 11 by searching for the luminance value radially outward from the center), and the four corners of the region EFGH in the imaging region 17 are determined. The projection target area information indicating the position is output to the correction value deriving unit 120.

そして、キャリブレーション画像情報生成部170は、投写画像12全体を9等分した中央の領域が白で残りの領域が黒であるキャリブレーション画像(中央白画像)用の画像情報を生成し、画像情報出力部112は、当該画像情報のデジタル信号を投写部190に出力する。投写部190は、当該デジタル信号に基づき、スクリーン10へ向け中央白画像を投写する。撮像部180は、投写された中央白画像を撮像して第2の撮像情報を生成する。   Then, the calibration image information generation unit 170 generates image information for a calibration image (center white image) in which the central area obtained by dividing the entire projection image 12 into nine equal parts is white and the remaining area is black. The information output unit 112 outputs a digital signal of the image information to the projection unit 190. The projection unit 190 projects a central white image toward the screen 10 based on the digital signal. The imaging unit 180 captures the projected central white image and generates second imaging information.

投写領域情報生成部150は、第1および第2の撮像情報に基づき、全黒撮像画像と中央白撮像画像の画素ごとの輝度値を比較し、一定の輝度比である領域ABCDを中央投写領域15として抽出する。投写領域情報生成部150は、撮像領域17における領域ABCDの4隅の位置を示す投写領域情報を補正値導出部120に出力する。   Based on the first and second imaging information, the projection area information generation unit 150 compares the luminance values for each pixel of the all black captured image and the central white captured image, and determines the area ABCD having a constant luminance ratio as the central projection area. 15 is extracted. The projection area information generation unit 150 outputs projection area information indicating the positions of the four corners of the area ABCD in the imaging area 17 to the correction value deriving unit 120.

補正値導出部120は、投写対象領域情報と、投写領域情報に基づき、画像歪み補正用の補正値を導出する。なお、補正値導出部120は、補正値の導出手法として、例えば、特願2004−78412号公報に記載されている画像歪み補正用情報を導出する手法を採用することによって補正値を導出することができる。   The correction value deriving unit 120 derives a correction value for correcting image distortion based on the projection target area information and the projection area information. The correction value deriving unit 120 derives the correction value by employing, for example, a method for deriving image distortion correction information described in Japanese Patent Application No. 2004-78412 as a correction value deriving method. Can do.

そして、調整部130は、当該補正値に基づき、画像の歪みを補正するように画像情報を補正する。これにより、投写部190は、画像の歪みが補正された画像を投写することができる。以上の手順により、キャリブレーション処理は終了する。なお、キャリブレーション処理や台形歪み補正処理は上記手法に限定されず、種々の手法を採用可能である。   Then, the adjustment unit 130 corrects the image information based on the correction value so as to correct image distortion. Thereby, the projection unit 190 can project an image in which the distortion of the image is corrected. The calibration process is completed by the above procedure. The calibration process and the trapezoidal distortion correction process are not limited to the above methods, and various methods can be employed.

図6は、第1の実施例における台形歪み補正後の撮像画像の模式図である。   FIG. 6 is a schematic diagram of a captured image after trapezoidal distortion correction in the first embodiment.

キャリブレーション処理の終了後、調整部130は、初期状態の投写領域13のうち、画像情報の補正によってコンテンツ画像(入力画像情報に基づく画像)が表示されなくなった領域が任意の色(例えば、赤等)である位置変化検出用画像を含む編集画像を投写するための編集画像情報を生成する。   After the calibration process is completed, the adjustment unit 130 sets an area in which the content image (an image based on the input image information) is not displayed due to the correction of the image information in the projection area 13 in the initial state to an arbitrary color (for example, red Etc.) is generated to project an edited image including the position change detection image.

投写部190は、当該編集画像情報に基づき、編集画像を投写する(ステップS2)。   The projection unit 190 projects an edited image based on the edited image information (step S2).

なお、本実施例では、編集画像のうち、台形歪み補正後のコンテンツ画像以外の画像を位置変化検出用画像として用いている。また、位置変化検出用画像はスクリーン10とプロジェクタ20との相対的な位置の変化を検出するための画像である。例えば、図6では、文字ABCDを含む白い矩形領域がコンテンツ画像の領域であり、当該領域の周囲の黒い領域が位置変化検出用画像の領域であり、両者を含む領域が投写領域13(編集画像の領域)である。   In this embodiment, among the edited images, an image other than the content image after the trapezoidal distortion correction is used as the position change detection image. The position change detection image is an image for detecting a relative position change between the screen 10 and the projector 20. For example, in FIG. 6, a white rectangular area including the characters ABCD is a content image area, a black area around the area is a position change detection image area, and an area including both is a projection area 13 (edited image). Area).

また、例えば、スクリーン10のアスペクト比および所望のアスペクト比が4:3である場合、台形歪み補正によって図6に示すようにコンテンツ画像はスクリーン10と一致するように表示され、スクリーン10以外の領域は赤色で表示される。なお、実際には、スクリーン10の後ろには投写画像12の投写光を反射する物体が存在しないため、ユーザーおよびセンサー60にはスクリーン10で反射されたコンテンツ画像のみが捉えられる。   For example, when the aspect ratio and the desired aspect ratio of the screen 10 are 4: 3, the content image is displayed so as to coincide with the screen 10 as shown in FIG. Is displayed in red. Actually, since there is no object that reflects the projection light of the projection image 12 behind the screen 10, only the content image reflected by the screen 10 can be captured by the user and the sensor 60.

また、キャリブレーション処理の終了後、判定部160は、撮像領域17において、コンテンツ画像、すなわち、投写対象領域11の外部の上下左右のそれぞれに位置変化を検出するための注目領域14−1〜14−4を設定する。   In addition, after the calibration process is completed, the determination unit 160 in the imaging area 17, attention areas 14-1 to 14-14 for detecting position changes in the content image, that is, the top, bottom, left, and right outside the projection target area 11. -4 is set.

なお、撮像領域17は、本来は図5のように表示されるが、図6および以下に示す図7〜図10は、説明を分かりやすくするため、スクリーン10の正面から撮像した状態になっている。   The imaging area 17 is originally displayed as shown in FIG. 5, but FIG. 6 and FIGS. 7 to 10 shown below are taken from the front of the screen 10 for easy understanding. Yes.

また、撮像部180は、編集画像が投写されたスクリーン10を含む領域を撮像し、撮像情報を生成する(ステップS3)。   The imaging unit 180 captures an area including the screen 10 on which the edited image is projected, and generates imaging information (step S3).

判定部160は、撮像情報に基づき、撮像画像内の注目領域14における色を判別する(ステップS4)。   The determination unit 160 determines the color in the attention area 14 in the captured image based on the imaging information (step S4).

そして、判定部160は、注目領域14における色が赤色であるかどうかを判定することにより、位置変化があったかどうかを判定する(ステップS5)。   Then, the determination unit 160 determines whether or not there has been a change in position by determining whether or not the color in the attention area 14 is red (step S5).

図7は、第1の実施例における移動後の撮像画像の模式図である。   FIG. 7 is a schematic diagram of a captured image after movement in the first embodiment.

例えば、スクリーン10がセンサー60から見て右側に移動した場合、図7に示すように、位置変化検出用画像の右側の一部がスクリーン10に投写されるようになる。これにより、撮像画像にも当該一部の画像が含まれる。この結果、位置変化検出用画像の赤色がスクリーン10で反射し、撮像画像内の注目領域14−3を含む領域に赤色が表示される。   For example, when the screen 10 moves to the right side as viewed from the sensor 60, a part of the right side of the position change detection image is projected on the screen 10 as shown in FIG. Thereby, the captured image includes the partial image. As a result, the red color of the position change detection image is reflected by the screen 10, and the red color is displayed in an area including the attention area 14-3 in the captured image.

このような場合、判定部160は、注目領域14−3で赤色を検出することにより、位置変化があったと判定する。   In such a case, the determination unit 160 determines that the position has changed by detecting red in the attention area 14-3.

位置変化があった場合、プロジェクタ20は、ステップS1のキャリブレーション処理を再実行する(ステップS6)。   If there is a change in position, the projector 20 re-executes the calibration process in step S1 (step S6).

そして、画像処理終了ではない場合(ステップS7)、プロジェクタ20は、ステップS2〜S7の処理を繰り返し実行する。   If it is not the end of the image processing (step S7), the projector 20 repeatedly executes the processing of steps S2 to S7.

これにより、プロジェクタ20は、常に位置変化の有無を判定して位置変化があった場合には画像の歪み補正等を行うことにより、常に適切な画像を投写できる。   As a result, the projector 20 can always project an appropriate image by determining whether or not the position has changed and correcting the distortion of the image when the position has changed.

以上のように、本実施例によれば、プロジェクタ20は、通常のコンテンツ画像に位置変化検出用画像を付加して投写し、注目領域14における位置変化検出用画像の有無を判定することによってスクリーン10とプロジェクタ20との相対的な位置の変化を簡易かつ迅速に検出することができる。   As described above, according to the present embodiment, the projector 20 projects a normal content image with a position change detection image added thereto, and determines whether or not there is a position change detection image in the attention area 14. A change in the relative position between the projector 10 and the projector 20 can be detected easily and quickly.

すなわち、プロジェクタ20は、スクリーン10による反射という特性を利用することにより、一単位時間前の撮像情報を保持するためのメモリや、差分画像を用いた処理も必要でないため、より効率的に画像処理できる。   That is, the projector 20 uses the characteristic of reflection by the screen 10, so that a memory for holding imaging information of one unit time ago and a process using a difference image are not necessary, so that the image processing can be performed more efficiently. it can.

また、本実施例によれば、プロジェクタ20は、撮像情報に基づく画像信号値(例えば、輝度値等)の差異に基づいて投写対象物(例えば、スクリーン10等)の外形等を判別することができる。   Further, according to the present embodiment, the projector 20 can determine the outer shape of the projection target (for example, the screen 10) based on the difference in the image signal value (for example, the luminance value) based on the imaging information. it can.

また、本実施例によれば、キャリブレーション画像12がスクリーン10よりも大きく投写されている場合であっても、プロジェクタ20は、中央白画像を用いることにより、投写画像12の形状等を判別することができる。   Further, according to the present embodiment, even when the calibration image 12 is projected larger than the screen 10, the projector 20 determines the shape and the like of the projection image 12 by using the central white image. be able to.

さらに、本実施例によれば、プロジェクタ20は、判別したスクリーン10や投写画像12の形状等に基づいて画像の歪みを自動的に補正することができる。   Further, according to the present embodiment, the projector 20 can automatically correct image distortion based on the determined shape of the screen 10 and the projected image 12.

また、本実施例によれば、プロジェクタ20は、投写対象領域11を検出する際に中心から外側に向かって輝度値を比較することにより、スクリーン10上の障害物の影響を受けにくく、より正確に投写対象領域11を検出することができる。   In addition, according to the present embodiment, the projector 20 compares the luminance value from the center toward the outside when detecting the projection target region 11, thereby being less affected by the obstacle on the screen 10 and more accurately. Thus, the projection target area 11 can be detected.

(第2の実施例)
判定部160は、第1の実施例では投写対象領域11の外部に注目領域14を設定したが、投写対象領域11の内部に注目領域14を設定してもよい。
(Second embodiment)
The determination unit 160 sets the attention area 14 outside the projection target area 11 in the first embodiment, but may set the attention area 14 inside the projection target area 11.

図8は、第2の実施例における台形歪み補正後の撮像画像の模式図である。また、図9は、第2の実施例における移動後の撮像画像の模式図である。   FIG. 8 is a schematic diagram of a captured image after trapezoidal distortion correction in the second embodiment. FIG. 9 is a schematic diagram of a captured image after movement in the second embodiment.

このような場合、補正部132は、図8に示すように、スクリーン10(投写対象領域11)よりも小さい領域にコンテンツ画像が表示され、コンテンツ画像の周囲に位置変化検出用画像が付加されるように画像情報を補正する。   In such a case, as shown in FIG. 8, the correction unit 132 displays the content image in an area smaller than the screen 10 (projection target area 11), and adds a position change detection image around the content image. As described above, the image information is corrected.

そして、判定部160は、注目領域14に位置変化検出用画像の赤色が存在している場合はスクリーン10またはプロジェクタ20が動いていないと判定する。例えば、図9に示すように、スクリーン10が右側に移動した場合、コンテンツ画像の左側の注目領域14−1がスクリーン10から外れてしまう。この場合、判定部160は、注目領域14−1に赤色(位置変化検出用画像)を検出できないため、スクリーン10が右側に移動したと判定することができる。   Then, the determination unit 160 determines that the screen 10 or the projector 20 does not move when the red color of the position change detection image exists in the attention area 14. For example, as shown in FIG. 9, when the screen 10 moves to the right side, the attention area 14-1 on the left side of the content image is detached from the screen 10. In this case, since the determination unit 160 cannot detect red (position change detection image) in the attention area 14-1, it can determine that the screen 10 has moved to the right side.

第2の実施例のように、注目領域14は投写対象領域11の内部に設けられてもよい。また、判定部160は、注目領域14に位置変化検出用画像が存在しない場合にスクリーン10が移動したと判定してもよい。   As in the second embodiment, the attention area 14 may be provided inside the projection target area 11. The determination unit 160 may determine that the screen 10 has moved when the position change detection image does not exist in the attention area 14.

以上のように、このような手法によっても、プロジェクタ20は、通常のコンテンツ画像に位置変化検出用画像を付加して投写し、注目領域14における位置変化検出用画像の有無を判定することによってスクリーン10とプロジェクタ20との相対的な位置の変化を簡易かつ迅速に検出することができる。   As described above, even with such a technique, the projector 20 projects a position change detection image added to a normal content image, and determines the presence or absence of the position change detection image in the attention area 14. A change in the relative position between the projector 10 and the projector 20 can be detected easily and quickly.

(第3の実施例)
また、上述した実施例はキャリブレーションの再実行が必要な構成であったが、スクリーン10が移動した場合であっても、プロジェクタ20は、キャリブレーションの再実行を行わずに、投写画像12の大きさを調整することによってスクリーン10にコンテンツ画像を表示することも可能である。
(Third embodiment)
In the above-described embodiment, the calibration needs to be re-executed. However, even when the screen 10 moves, the projector 20 does not re-execute the calibration, and does not re-execute the calibration. It is also possible to display a content image on the screen 10 by adjusting the size.

図10は、第3の実施例における移動後の撮像画像の模式図である。   FIG. 10 is a schematic diagram of a captured image after movement in the third embodiment.

例えば、図6に示す状態でスクリーン10が右に移動した場合、そのままでは図7に示すようにコンテンツ画像の一部が見えなくなってしまうため、プロジェクタ20は、投写画像12の大きさを縮小する。   For example, when the screen 10 moves to the right in the state shown in FIG. 6, a part of the content image becomes invisible as shown in FIG. 7, so the projector 20 reduces the size of the projected image 12. .

より具体的には、判定部160は、注目領域14−3における位置変化検出用画像の占める割合に応じてズーム部196の調整値を決定する。スクリーン10の移動量が大きいほど上記割合が増加するため、判定部160は、例えば、上記割合が増えるほど、縮小率が上がるように、すなわち、投写画像12がより小さくなるように調整値を決定する。   More specifically, the determination unit 160 determines the adjustment value of the zoom unit 196 according to the proportion of the position change detection image in the attention area 14-3. Since the ratio increases as the moving amount of the screen 10 increases, for example, the determination unit 160 determines the adjustment value so that the reduction ratio increases as the ratio increases, that is, the projected image 12 becomes smaller. To do.

制御部134は、当該調整値に基づく制御情報を生成し、投写部190に出力する。投写制御部194は、当該制御情報に基づき、ズーム部196を制御する。   The control unit 134 generates control information based on the adjustment value and outputs the control information to the projection unit 190. The projection control unit 194 controls the zoom unit 196 based on the control information.

これにより、図10に示すように、コンテンツ画像が縮小されてスクリーン10に投写される。   As a result, the content image is reduced and projected onto the screen 10 as shown in FIG.

以上のように、第3の実施例によれば、プロジェクタ20は、スクリーン10が移動した場合であっても、キャリブレーション処理を再実行することなく、コンテンツ画像をスクリーン10に表示することができる。   As described above, according to the third embodiment, the projector 20 can display the content image on the screen 10 without performing the calibration process again even when the screen 10 moves. .

なお、プロジェクタ20は、同様の処理により、投写画像12の大きさだけでなく、投写画像12の位置を変更してもよい。より具体的には、プロジェクタ20は、レンズシフト部198を制御することにより、投写位置を調整できる。   Note that the projector 20 may change not only the size of the projection image 12 but also the position of the projection image 12 by the same processing. More specifically, the projector 20 can adjust the projection position by controlling the lens shift unit 198.

(変形例)
なお、本発明は上述した実施例に限定されず、種々の変形が可能である。
(Modification)
In addition, this invention is not limited to the Example mentioned above, A various deformation | transformation is possible.

例えば、第3の実施例では、プロジェクタ20は、ハードウェア的に投写画像12を縮小したが、画像情報を補正することによってソフトウェア的に縮小してもよい。   For example, in the third embodiment, the projector 20 reduces the projected image 12 by hardware, but may reduce it by software by correcting image information.

また、プロジェクタ20は、スクリーン10が移動した場合に、ユーザーに対するメッセージ画像を投写することにより、ユーザーにスクリーン10が移動したことを通知してもよい。例えば、スクリーン10が右に移動した場合、プロジェクタ20は、「スクリーン10が右に移動しました。スクリーンを左に移動してください。」、「スクリーン10が右に移動しました。プロジェクタを右に移動してください。」といったメッセージを示すメッセージ画像を投写してもよい。また、メッセージ画像を表示する通知手段以外も、例えば、音声や、光を用いてユーザーに通知する通知手段をプロジェクタ20に設けてもよい。   Further, when the screen 10 moves, the projector 20 may notify the user that the screen 10 has moved by projecting a message image for the user. For example, when the screen 10 is moved to the right, the projector 20 is “screen 10 has moved to the right. Please move the screen to the left.”, “The screen 10 has moved to the right. A message image indicating the message “Please move” may be projected. In addition to the notification means for displaying the message image, for example, the projector 20 may be provided with a notification means for notifying the user using sound or light.

これにより、プロジェクタ20は、ユーザーに適切な指示を与えることができ、キャリブレーション処理を再実行しなくて済む。   Thereby, the projector 20 can give an appropriate instruction to the user, and it is not necessary to re-execute the calibration process.

また、投写対象物は、スクリーン10に限定されず、画像を反射する種々の投写対象物を採用可能である。例えば、投写対象物として、ホワイトボード、気球、風船等を採用してもよい。すなわち、例えば、気球に画像を投写して広告を行う場合等にも本発明を適用可能である。   Further, the projection object is not limited to the screen 10, and various projection objects that reflect an image can be adopted. For example, a white board, a balloon, a balloon or the like may be employed as the projection target. That is, for example, the present invention can be applied to the case where an advertisement is made by projecting an image on a balloon.

また、スクリーン10のアスペクト比は所望のアスペクト比と一致している必要はない。例えば、スクリーン10が所望のアスペクト比と比べて横長である場合、調整部130は、コンテンツ画像の両端の余白部分を黒色にし、スクリーン10からはみ出る部分を赤色にした編集画像を用いてもよい。   Further, the aspect ratio of the screen 10 does not need to match the desired aspect ratio. For example, when the screen 10 is horizontally long compared to the desired aspect ratio, the adjustment unit 130 may use an edited image in which the margin portions at both ends of the content image are black and the portion protruding from the screen 10 is red.

また、上述した実施例では、位置変化検出用画像は、コンテンツ画像の周囲に設けられていたが、コンテンツ画像の上下のみ、左右のみに設けられていてもよく、コンテンツ画像の外部の一部に設けられていてもよい。   In the above-described embodiment, the position change detection image is provided around the content image. However, the position change detection image may be provided only on the top and bottom of the content image or only on the left and right. It may be provided.

また、上述した実施例では、判定部160は、注目領域14の色によって位置変化の有無を判定したが、例えば、注目領域14を構成する全画素の輝度値、全画素の輝度値の平均値等によって位置変化の有無を判定してもよい。   In the above-described embodiment, the determination unit 160 determines the presence / absence of a position change based on the color of the attention area 14. For example, the luminance value of all pixels constituting the attention area 14 and the average value of the luminance values of all pixels are used. The presence / absence of a position change may be determined by, for example.

また、プロジェクタ20の構成は図2に示す例に限定されない。例えば、調整部130には補正部132、制御部134のどちらか一方の機能だけを設けてもよい。   Further, the configuration of the projector 20 is not limited to the example shown in FIG. For example, the adjustment unit 130 may be provided with only one function of the correction unit 132 and the control unit 134.

また、上述した実施例では、投写画像12を9等分してその中央の領域である中央領域を基準としたが、プロジェクタ20がスクリーン10内に投写画像の中央領域を捉えることができるものであれば、中央領域の大きさ、位置は任意でよい。   In the above-described embodiment, the projection image 12 is divided into nine parts and the center region, which is the center region, is used as a reference. However, the projector 20 can capture the center region of the projection image in the screen 10. If so, the size and position of the central region may be arbitrary.

また、上述した実施例では、プロジェクタ20は、スクリーン10の位置が変化したことを検出したが、プロジェクタ20の位置が変化したことを検出できることはもちろんである。   In the above-described embodiment, the projector 20 detects that the position of the screen 10 has changed, but it is needless to say that the position of the projector 20 can be detected.

また、判定部160は、投写対象領域11の外部と内部に注目領域14を設定してもよい。   The determination unit 160 may set the attention area 14 outside and inside the projection target area 11.

また、上述した実施例では、画像処理システムとしてプロジェクタ20を用いたが、プロジェクタ20以外の投写型表示装置を用いてもよい。   In the above-described embodiment, the projector 20 is used as the image processing system. However, a projection display device other than the projector 20 may be used.

また、プロジェクタ20としては、例えば、液晶プロジェクタ、DMD(Digital Micromirror Device)を用いたプロジェクタ等を用いてもよい。なお、DMDは米国テキサスインスツルメンツ社の商標である。   Further, as the projector 20, for example, a liquid crystal projector, a projector using a DMD (Digital Micromirror Device), or the like may be used. DMD is a trademark of Texas Instruments Incorporated.

また、上述したプロジェクタ20の機能は、例えば、プロジェクタ単体で実装してもよいし、複数の処理装置で分散して(例えば、プロジェクタとPCとで分散処理)実装してもよい。   Further, the functions of the projector 20 described above may be implemented, for example, by a single projector, or may be implemented by being distributed by a plurality of processing devices (for example, distributed processing by a projector and a PC).

第1の実施例における画像投写時の状態を示す模式図である。It is a schematic diagram which shows the state at the time of the image projection in 1st Example. 第1の実施例におけるプロジェクタの機能ブロック図である。It is a functional block diagram of the projector in a 1st Example. 第1の実施例におけるプロジェクタのハードウェアブロック図である。It is a hardware block diagram of the projector in a 1st Example. 第1の実施例における画像処理の流れを示すフローチャートである。It is a flowchart which shows the flow of the image processing in a 1st Example. 第1の実施例における撮像領域を示す模式図である。It is a schematic diagram which shows the imaging area in a 1st Example. 第1の実施例における台形歪み補正後の撮像画像の模式図である。It is a schematic diagram of the captured image after trapezoid distortion correction in the first embodiment. 第1の実施例における移動後の撮像画像の模式図である。It is a schematic diagram of the captured image after movement in the first embodiment. 第2の実施例における台形歪み補正後の撮像画像の模式図である。It is a schematic diagram of the captured image after trapezoid distortion correction in the second embodiment. 第2の実施例における移動後の撮像画像の模式図である。It is a schematic diagram of the captured image after the movement in a 2nd Example. 第3の実施例における移動後の撮像画像の模式図である。It is a schematic diagram of the captured image after the movement in a 3rd Example.

符号の説明Explanation of symbols

10 スクリーン(投写対象物)、12 投写画像、20 プロジェクタ(画像処理システム)、60 センサー、120 補正値導出部、130 調整部、140 投写対象領域情報生成部、150 投写領域情報生成部、160 判定部、170 キャリブレーション画像情報生成部、180 撮像部、190 投写部、900 情報記憶媒体   10 screen (projection object), 12 projection image, 20 projector (image processing system), 60 sensor, 120 correction value derivation unit, 130 adjustment unit, 140 projection target area information generation unit, 150 projection area information generation unit, 160 determination , 170 Calibration image information generation unit, 180 imaging unit, 190 projection unit, 900 information storage medium

Claims (10)

入力画像情報に基づくコンテンツ画像と、当該コンテンツ画像の外部の少なくとも一部に設けられた位置変化検出用画像とを含む編集画像を投写するための編集画像情報を生成する調整手段と、
前記編集画像が投写される投写対象物を撮像して撮像画像を示す撮像情報を生成する撮像手段と、
前記入力画像情報に基づき、前記コンテンツ画像を投写するとともに、前記編集画像情報に基づき、前記編集画像を投写する投写手段と、
前記撮像情報に基づき、前記投写手段と前記投写対象物との相対的な位置が変化したかどうかを判定する判定手段と、
を含み、
前記判定手段は、前記撮像画像内の前記投写対象物に相当する投写対象領域における前記位置変化検出用画像の有無を判定することにより、前記相対的な位置の変化を判定することを特徴とする画像処理システム。
Adjusting means for generating edit image information for projecting an edit image including a content image based on the input image information and a position change detection image provided at least in part outside the content image;
Imaging means for imaging the projection object on which the edited image is projected and generating imaging information indicating the captured image;
Projecting means for projecting the content image based on the input image information and projecting the edited image based on the edited image information;
A determination unit that determines whether a relative position between the projection unit and the projection target has changed based on the imaging information;
Including
The determination unit determines the relative change in position by determining the presence or absence of the position change detection image in a projection target area corresponding to the projection target in the captured image. Image processing system.
請求項1において、
前記位置変化検出用画像は、前記コンテンツ画像の外部の上下左右にそれぞれ設けられ、
前記判定手段は、前記撮像画像における前記位置変化検出用画像の検出状態に応じて前記相対的な位置の移動方向および移動量の少なくとも一方を判定することを特徴とする画像処理システム。
In claim 1,
The position change detection images are provided on the top, bottom, left, and right outside the content image, respectively.
The determination means determines at least one of a movement direction and a movement amount of the relative position according to a detection state of the position change detection image in the captured image.
請求項1、2のいずれかにおいて、
前記撮像画像における画素ごとの画像信号値の相違に基づき、前記撮像画像内の前記投写対象領域の位置に関する投写対象領域情報を生成する投写対象領域情報生成手段を含み、
前記判定手段は、前記撮像情報と、前記投写対象領域情報情報とに基づき、前記相対的な位置の変化を判定することを特徴とする画像処理システム。
In any one of Claims 1, 2.
Projection target area information generating means for generating projection target area information related to the position of the projection target area in the captured image based on a difference in image signal value for each pixel in the captured image;
The image processing system characterized in that the determination means determines the relative position change based on the imaging information and the projection target area information information.
請求項1〜3のいずれかにおいて、
前記調整手段は、前記判定手段によって前記相対的な位置が変化したと判定された場合、前記入力画像情報に対する補正量および前記投写手段に含まれる投写制御部の制御量の少なくとも一方を、前記判定手段の判定結果に応じて調整することを特徴とする画像処理システム。
In any one of Claims 1-3,
When the determination unit determines that the relative position has changed, the adjustment unit determines at least one of a correction amount for the input image information and a control amount of a projection control unit included in the projection unit. An image processing system that adjusts according to the determination result of the means.
請求項3に従属する請求項4において、
前記撮像画像における画素ごとの画像信号値の相違に基づき、前記撮像画像における前記画像に相当する投写領域の位置に関する投写領域情報を生成する投写領域情報生成手段と、
前記投写対象領域情報と、前記投写領域情報とに基づき、前記投写対象物における前記画像の歪みに対する補正値を導出する補正値導出手段と、
を含み、
前記調整手段は、前記補正値に基づき、前記画像の歪みが補正されるように、前記補正量および前記制御量の少なくとも一方を調整することを特徴とする画像処理システム。
In claim 4 dependent on claim 3,
Projection area information generating means for generating projection area information relating to the position of the projection area corresponding to the image in the captured image based on the difference in image signal value for each pixel in the captured image;
Correction value deriving means for deriving a correction value for distortion of the image in the projection target based on the projection target area information and the projection area information;
Including
The image processing system, wherein the adjustment unit adjusts at least one of the correction amount and the control amount so that distortion of the image is corrected based on the correction value.
請求項1〜5のいずれかにおいて、
前記判定手段によって前記相対的な位置が変化したと判定された場合、前記相対的な位置が変化したことを、画像、音声、光のうちの少なくとも1つを用いてユーザーに通知する通知手段を含むことを特徴とする画像処理システム。
In any one of Claims 1-5,
A notification means for notifying the user using at least one of an image, sound, and light that the relative position has changed when the determination means determines that the relative position has changed; An image processing system comprising:
請求項1〜6のいずれかに記載の画像処理システムを有することを特徴とするプロジェクタ。   A projector comprising the image processing system according to claim 1. 撮像手段と、投写手段と、判定手段とを有するコンピュータにより読み取り可能なプログラムであって、
前記コンピュータに、
前記投写手段が、入力画像情報に基づくコンテンツ画像の外部の少なくとも一部に位置変化検出用画像を含む画像を投写し、
前記撮像手段が、前記画像が投写される投写対象物を撮像して撮像画像を示す撮像情報を生成し、
前記判定手段が、前記撮像情報に基づき、前記投写手段と前記投写対象物との相対的な位置が変化したかどうかを判定するための処理を実行させ、
前記撮像手段は、前記投写対象領域を含む撮像範囲で撮像し、
前記判定手段は、前記撮像画像内の前記投写対象物に相当する投写対象領域における前記位置変化検出用画像の有無を判定することにより、前記相対的な位置の変化を判定することを特徴とするプログラム。
A computer-readable program having an imaging unit, a projection unit, and a determination unit,
In the computer,
The projecting means projects an image including a position change detection image on at least a part of the content image based on the input image information;
The imaging means captures a projection object on which the image is projected and generates imaging information indicating the captured image;
The determination unit executes a process for determining whether or not a relative position between the projection unit and the projection target has changed based on the imaging information;
The imaging means captures an image within an imaging range including the projection target area;
The determination unit determines the relative change in position by determining the presence or absence of the position change detection image in a projection target area corresponding to the projection target in the captured image. program.
コンピュータにより読み取り可能なプログラムを記憶した情報記憶媒体であって、
請求項8に記載のプログラムを記憶したことを特徴とする情報記憶媒体。
An information storage medium storing a computer-readable program,
An information storage medium storing the program according to claim 8.
撮像手段と、投写手段と、判定手段とを有するコンピュータによる画像処理方法であって、
前記投写手段が、入力画像情報に基づくコンテンツ画像の外部の少なくとも一部に位置変化検出用画像を含む画像を投写し、
前記撮像手段が、前記画像が投写される投写対象物を撮像して撮像画像を示す撮像情報を生成し、
前記判定手段が、前記撮像情報に基づき、前記投写手段と前記投写対象物との相対的な位置が変化したかどうかを判定し、
前記撮像手段は、前記投写対象物を撮像する際に、前記投写対象領域を含む撮像範囲で撮像し、
前記判定手段は、前記相対的な位置の変化を判定する際に、前記撮像画像内の前記投写対象物に相当する投写対象領域における前記位置変化検出用画像の有無を判定することにより、前記相対的な位置の変化を判定することを特徴とする画像処理方法。
An image processing method by a computer having an imaging means, a projection means, and a determination means,
The projecting means projects an image including a position change detection image on at least a part of the content image based on the input image information;
The imaging means captures a projection object on which the image is projected and generates imaging information indicating the captured image;
The determination means determines whether the relative position of the projection means and the projection object has changed based on the imaging information;
The imaging means captures an image in an imaging range including the projection target area when imaging the projection target object,
When determining the relative position change, the determination unit determines the presence or absence of the position change detection image in a projection target area corresponding to the projection target in the captured image, thereby determining the relative position. An image processing method characterized by determining a change in position.
JP2005008740A 2005-01-17 2005-01-17 Image processing system, projector, program, information storage medium, and image processing method Expired - Fee Related JP3994290B2 (en)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2005008740A JP3994290B2 (en) 2005-01-17 2005-01-17 Image processing system, projector, program, information storage medium, and image processing method
US11/295,451 US7484855B2 (en) 2005-01-17 2005-12-07 Image processing system, projector, computer-readable medium and image processing method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2005008740A JP3994290B2 (en) 2005-01-17 2005-01-17 Image processing system, projector, program, information storage medium, and image processing method

Publications (2)

Publication Number Publication Date
JP2006197443A true JP2006197443A (en) 2006-07-27
JP3994290B2 JP3994290B2 (en) 2007-10-17

Family

ID=36683507

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2005008740A Expired - Fee Related JP3994290B2 (en) 2005-01-17 2005-01-17 Image processing system, projector, program, information storage medium, and image processing method

Country Status (2)

Country Link
US (1) US7484855B2 (en)
JP (1) JP3994290B2 (en)

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008216351A (en) * 2007-02-28 2008-09-18 Casio Comput Co Ltd Projection apparatus, projection method, and program
WO2013024882A1 (en) * 2011-08-18 2013-02-21 Ricoh Company, Ltd. Image processing apparatus, projector and projector system including image processing apparatus, image processing method
JP2013041167A (en) * 2011-08-18 2013-02-28 Ricoh Co Ltd Image processing device, projector, projector system, image processing method, program thereof, and recording medium with the program stored therein
JP2013083985A (en) * 2012-11-20 2013-05-09 Casio Comput Co Ltd Projection device, projection method, and program
JP2015517244A (en) * 2012-04-24 2015-06-18 ヒューレット−パッカード デベロップメント カンパニー エル.ピー.Hewlett‐Packard Development Company, L.P. Image display system
WO2017169726A1 (en) * 2016-03-28 2017-10-05 ソニー株式会社 Image processing device and method

Families Citing this family (36)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4150924B2 (en) * 2003-07-02 2008-09-17 セイコーエプソン株式会社 Image processing system, projector, program, information storage medium, and image processing method
TWI489873B (en) * 2008-04-08 2015-06-21 Realtek Semiconductor Corp Image detecting device and method
JP5405047B2 (en) * 2008-05-09 2014-02-05 三洋電機株式会社 Projection display device
US8608321B2 (en) 2008-06-17 2013-12-17 The Invention Science Fund I, Llc Systems and methods for projecting in response to conformation
US8820939B2 (en) 2008-06-17 2014-09-02 The Invention Science Fund I, Llc Projection associated methods and systems
US8384005B2 (en) 2008-06-17 2013-02-26 The Invention Science Fund I, Llc Systems and methods for selectively projecting information in response to at least one specified motion associated with pressure applied to at least one projection surface
US20090313150A1 (en) * 2008-06-17 2009-12-17 Searete Llc, A Limited Liability Corporation Of The State Of Delaware Methods associated with projection billing
US20090312854A1 (en) * 2008-06-17 2009-12-17 Searete Llc, A Limited Liability Corporation Of The State Of Delaware Methods and systems for transmitting information associated with the coordinated use of two or more user responsive projectors
US20100066983A1 (en) * 2008-06-17 2010-03-18 Jun Edward K Y Methods and systems related to a projection surface
US8376558B2 (en) * 2008-06-17 2013-02-19 The Invention Science Fund I, Llc Systems and methods for projecting in response to position change of a projection surface
US20110176119A1 (en) * 2008-06-17 2011-07-21 Searete Llc, A Limited Liability Corporation Of The State Of Delaware Methods and systems for projecting in response to conformation
US8641203B2 (en) 2008-06-17 2014-02-04 The Invention Science Fund I, Llc Methods and systems for receiving and transmitting signals between server and projector apparatuses
US20090310098A1 (en) * 2008-06-17 2009-12-17 Searete Llc, A Limited Liability Corporation Of The State Of Delaware Methods and systems for projecting in response to conformation
US20090310039A1 (en) * 2008-06-17 2009-12-17 Searete Llc, A Limited Liability Corporation Of The State Of Delaware Methods and systems for user parameter responsive projection
US8733952B2 (en) 2008-06-17 2014-05-27 The Invention Science Fund I, Llc Methods and systems for coordinated use of two or more user responsive projectors
US8944608B2 (en) * 2008-06-17 2015-02-03 The Invention Science Fund I, Llc Systems and methods associated with projecting in response to conformation
US20090309826A1 (en) 2008-06-17 2009-12-17 Searete Llc, A Limited Liability Corporation Of The State Of Delaware Systems and devices
US8602564B2 (en) * 2008-06-17 2013-12-10 The Invention Science Fund I, Llc Methods and systems for projecting in response to position
US20090310103A1 (en) * 2008-06-17 2009-12-17 Searete Llc, A Limited Liability Corporation Of The State Of Delaware Methods and systems for receiving information associated with the coordinated use of two or more user responsive projectors
US20100066689A1 (en) * 2008-06-17 2010-03-18 Jung Edward K Y Devices related to projection input surfaces
US20090313152A1 (en) * 2008-06-17 2009-12-17 Searete Llc, A Limited Liability Corporation Of The State Of Delaware Systems associated with projection billing
US8308304B2 (en) 2008-06-17 2012-11-13 The Invention Science Fund I, Llc Systems associated with receiving and transmitting information related to projection
US8936367B2 (en) * 2008-06-17 2015-01-20 The Invention Science Fund I, Llc Systems and methods associated with projecting in response to conformation
US20090310040A1 (en) * 2008-06-17 2009-12-17 Searete Llc, A Limited Liability Corporation Of The State Of Delaware Methods and systems for receiving instructions associated with user parameter responsive projection
US8262236B2 (en) * 2008-06-17 2012-09-11 The Invention Science Fund I, Llc Systems and methods for transmitting information associated with change of a projection surface
US8267526B2 (en) 2008-06-17 2012-09-18 The Invention Science Fund I, Llc Methods associated with receiving and transmitting information related to projection
US8723787B2 (en) 2008-06-17 2014-05-13 The Invention Science Fund I, Llc Methods and systems related to an image capture projection surface
TWI439788B (en) * 2010-01-04 2014-06-01 Ind Tech Res Inst System and method for projection correction
JP5991039B2 (en) * 2012-06-18 2016-09-14 株式会社リコー Information processing apparatus and conference system
JP6205777B2 (en) * 2013-03-22 2017-10-04 カシオ計算機株式会社 Projection apparatus, projection method, and program for projection
JP6394005B2 (en) * 2014-03-10 2018-09-26 株式会社リコー Projection image correction apparatus, method and program for correcting original image to be projected
KR102262566B1 (en) * 2014-10-10 2021-06-07 엘지디스플레이 주식회사 Transparent display device
JP6798491B2 (en) * 2015-07-08 2020-12-09 ソニー株式会社 Information processing equipment and methods, and programs
JP6915537B2 (en) 2015-07-08 2021-08-04 ソニーグループ株式会社 Information processing equipment and methods, as well as projection imaging equipment and information processing methods
JP7154877B2 (en) * 2018-08-22 2022-10-18 キヤノン株式会社 Image projection device, image projection device control method, and program
US11178319B2 (en) * 2019-11-18 2021-11-16 Lenovo (Singapore) Pte. Ltd. Computing device

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004260785A (en) * 2002-07-23 2004-09-16 Nec Viewtechnology Ltd Projector with distortion correction function
JP2005292563A (en) * 2004-04-01 2005-10-20 Olympus Corp Projector

Family Cites Families (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001109422A (en) 1999-10-08 2001-04-20 Nippon Avionics Co Ltd Liquid crystal projector with CCD document camera with motion detection image control function
JP4150924B2 (en) 2003-07-02 2008-09-17 セイコーエプソン株式会社 Image processing system, projector, program, information storage medium, and image processing method
JP3705180B2 (en) * 2001-09-27 2005-10-12 セイコーエプソン株式会社 Image display system, program, information storage medium, and image processing method
JP4333269B2 (en) * 2002-11-07 2009-09-16 セイコーエプソン株式会社 Projection device monitoring system and projection device
JP3849654B2 (en) * 2003-02-21 2006-11-22 株式会社日立製作所 Projection display
JP3871061B2 (en) * 2003-03-25 2007-01-24 セイコーエプソン株式会社 Image processing system, projector, program, information storage medium, and image processing method

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004260785A (en) * 2002-07-23 2004-09-16 Nec Viewtechnology Ltd Projector with distortion correction function
JP2005292563A (en) * 2004-04-01 2005-10-20 Olympus Corp Projector

Cited By (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008216351A (en) * 2007-02-28 2008-09-18 Casio Comput Co Ltd Projection apparatus, projection method, and program
WO2013024882A1 (en) * 2011-08-18 2013-02-21 Ricoh Company, Ltd. Image processing apparatus, projector and projector system including image processing apparatus, image processing method
JP2013041167A (en) * 2011-08-18 2013-02-28 Ricoh Co Ltd Image processing device, projector, projector system, image processing method, program thereof, and recording medium with the program stored therein
JP2013042411A (en) * 2011-08-18 2013-02-28 Ricoh Co Ltd Image processing apparatus, projector and projector system comprising the image processing apparatus, image processing method, program thereof, and recording medium having the program recorded thereon
US9759548B2 (en) 2011-08-18 2017-09-12 Ricoh Company, Ltd. Image processing apparatus, projector and projector system including image processing apparatus, image processing method
JP2015517244A (en) * 2012-04-24 2015-06-18 ヒューレット−パッカード デベロップメント カンパニー エル.ピー.Hewlett‐Packard Development Company, L.P. Image display system
JP2013083985A (en) * 2012-11-20 2013-05-09 Casio Comput Co Ltd Projection device, projection method, and program
WO2017169726A1 (en) * 2016-03-28 2017-10-05 ソニー株式会社 Image processing device and method
JPWO2017169726A1 (en) * 2016-03-28 2019-02-07 ソニー株式会社 Image processing apparatus and method
US10839553B2 (en) 2016-03-28 2020-11-17 Sony Corporation Image processing apparatus and method
JP6996493B2 (en) 2016-03-28 2022-01-17 ソニーグループ株式会社 Image processing equipment and methods

Also Published As

Publication number Publication date
US20060158623A1 (en) 2006-07-20
JP3994290B2 (en) 2007-10-17
US7484855B2 (en) 2009-02-03

Similar Documents

Publication Publication Date Title
JP3994290B2 (en) Image processing system, projector, program, information storage medium, and image processing method
US7949202B2 (en) Image processing system, projector, and image processing method
JP4055010B2 (en) Image processing system, projector, program, information storage medium, and image processing method
JP3844076B2 (en) Image processing system, projector, program, information storage medium, and image processing method
JP3871061B2 (en) Image processing system, projector, program, information storage medium, and image processing method
US7422331B2 (en) Image processing system, projector, and image processing method
JP4232042B2 (en) Projection control system, projector, program, information storage medium, and projection control method
EP1519576B1 (en) Image processing system, projector, information storage medium, and image processing method
JP6155717B2 (en) Image processing apparatus, projector, and image processing method
JP2005039769A (en) Image processing system, projector, program, information storage medium, and image processing method
US8328366B2 (en) Projector, computer program product, and exposure adjusting method
JP2008268579A (en) Rear projection display
JP2005341139A (en) Image processing system, projector, program, information storage medium, and image processing method
JP5541031B2 (en) Projector and projector control method
JP2009049693A (en) Image processing system, projector, program, and information storage medium
JP2011199717A (en) Projection type display device and image display method
JP3882927B2 (en) Image processing system, projector, and image processing method
JP5110260B2 (en) Projector, program, information storage medium, and image distortion correction method
JP2005286574A (en) Image processing system, projector, program, information storage medium, and image processing method
US20040150617A1 (en) Image projector having a grid display device
JP6064699B2 (en) Image processing apparatus, projector, and image processing method
JP2012005013A (en) Projector, method for controlling projector, and trapezoidal distortion correction device
JP2004347775A (en) Image processing system, projector, program, information storage medium, and image processing method
JP2012114689A (en) Projector and control method of the same
JP2006217370A (en) Image processing system, projector, program, information storage medium, and image processing method

Legal Events

Date Code Title Description
A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20070516

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20070608

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20070704

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20070717

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20100810

Year of fee payment: 3

R150 Certificate of patent or registration of utility model

Free format text: JAPANESE INTERMEDIATE CODE: R150

Ref document number: 3994290

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20100810

Year of fee payment: 3

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20110810

Year of fee payment: 4

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120810

Year of fee payment: 5

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130810

Year of fee payment: 6

S531 Written request for registration of change of domicile

Free format text: JAPANESE INTERMEDIATE CODE: R313531

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

LAPS Cancellation because of no payment of annual fees