[go: up one dir, main page]

JP2013251592A - Display device and control method for the same - Google Patents

Display device and control method for the same Download PDF

Info

Publication number
JP2013251592A
JP2013251592A JP2012122797A JP2012122797A JP2013251592A JP 2013251592 A JP2013251592 A JP 2013251592A JP 2012122797 A JP2012122797 A JP 2012122797A JP 2012122797 A JP2012122797 A JP 2012122797A JP 2013251592 A JP2013251592 A JP 2013251592A
Authority
JP
Japan
Prior art keywords
image data
image
eye
osd
data
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2012122797A
Other languages
Japanese (ja)
Inventor
Naoki Suzuki
直樹 鈴木
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Seiko Epson Corp
Original Assignee
Seiko Epson Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Seiko Epson Corp filed Critical Seiko Epson Corp
Priority to JP2012122797A priority Critical patent/JP2013251592A/en
Publication of JP2013251592A publication Critical patent/JP2013251592A/en
Pending legal-status Critical Current

Links

Images

Landscapes

  • Transforming Electric Information Into Light Information (AREA)
  • Testing, Inspecting, Measuring Of Stereoscopic Televisions And Televisions (AREA)
  • Controls And Circuits For Display Device (AREA)

Abstract

【課題】入力画像とは別のOSD画像等の画像を、入力画像とともに効果的に表示する。
【解決手段】入力画像データS1に基づいて左目用画像と右目用画像の画像データを出力する画像出力部21と、OSD画像データ10A、10Bを記憶したOSD画像記憶領域11Aと、画像出力部21が出力する画像データにOSD画像データ10A、10Bを合成する表示処理部15と、合成された画像データに基づいて画像を表示する表示部40とを備え、表示処理部15は、画像データが左目用の画像データであった場合にOSD画像データ10Aが記憶されたアドレスを指定し、画像データが右目用の画像データであった場合にOSD画像データ10Bが記憶されたアドレスを指定するアドレス選択部35と、指定されたアドレスからOSD画像データ10A、10Bを読み出して合成する合成処理部31とを備えている。
【選択図】図1
An image such as an OSD image different from an input image is effectively displayed together with the input image.
An image output unit that outputs image data of a left-eye image and a right-eye image based on input image data, an OSD image storage area that stores OSD image data, and an image output unit. Includes a display processing unit 15 that combines the OSD image data 10A and 10B with the image data output from the display unit 40, and a display unit 40 that displays an image based on the combined image data. An address selection unit for designating an address where the OSD image data 10A is stored when the image data is for the right eye, and for designating an address where the OSD image data 10B is stored when the image data is the image data for the right eye 35, and a synthesis processing unit 31 that reads out and synthesizes the OSD image data 10A and 10B from the designated addresses.
[Selection] Figure 1

Description

本発明は、画像を表示する表示装置、及び、表示装置の制御方法に関する。   The present invention relates to a display device that displays an image and a control method of the display device.

従来、入力画像を表示する表示装置が、表示中の画像に重ねて、入力画像とは別の画像を重ねて表示する機能を持つものが知られている(例えば、特許文献1参照)。この種の機能は、例えばOSD表示機能と呼ばれ、設定用のメニュー画面等が、OSD画像として入力画像とともに表示される。特許文献1記載のように、一般的なOSD表示機能では、予め記憶しているOSD画像を入力画像に重畳させる。特許文献1記載の装置は、OSD画像の色を画素単位で合成することにより、多様な色のOSD画像を表示する。
また、近年、3D(立体)画像を表示する表示装置が知られている。この種の表示装置は、メガネ型の偏光フィルターを利用する構成(例えば、特許文献2参照)や、表示面にレンチキュラーレンズを配した構成(例えば、特許文献3参照)によって、見る人の右目と左目に異なる画像を見せることで、立体感のある画像を表示する。
2. Description of the Related Art Conventionally, a display device that displays an input image has a function of displaying an image that is superimposed on an image that is being displayed and that is different from the input image (for example, see Patent Document 1). This type of function is called an OSD display function, for example, and a setting menu screen or the like is displayed as an OSD image together with the input image. As described in Patent Document 1, in a general OSD display function, an OSD image stored in advance is superimposed on an input image. The apparatus described in Patent Document 1 displays OSD images of various colors by synthesizing the colors of the OSD images in units of pixels.
In recent years, display devices that display 3D (stereoscopic) images are known. This type of display device has a configuration using a glasses-type polarizing filter (see, for example, Patent Document 2) and a configuration in which a lenticular lens is disposed on a display surface (for example, see Patent Document 3). By displaying a different image on the left eye, a three-dimensional image is displayed.

特開2008−216460号公報JP 2008-216460 A 特開平7−284128号公報JP 7-284128 A 特開平5−304685号公報JP-A-5-304685

ところで、OSD表示機能のように入力画像とは別の画像を重ねて表示する機能について、入力画像が立体画像である場合にOSD画像等をどのように重ねて表示するかは、従来解決されていない課題であった。立体画像は、対をなす右目用の画像と左目用の画像とで構成される。これに対し、従来のOSD画像等は平面画像である。このため、平面画像どうしを重ねる場合と同じ方法で処理することはできないが、どのように立体画像に平面画像からなるOSD画像等を重ねるか等について検討された例は無かった。
また、立体画像を表示する表示装置の多くは平面画像の表示にも対応している。このため、入力画像が平面画像である場合と立体画像である場合とがある。しかしながら、入力画像が立体画像か平面画像かに応じて、画像を重畳する処理をどのように組み合わせるか等は検討がなされていなかった。
本発明は、上述した事情に鑑みてなされたものであり、入力画像とは別のOSD画像等の画像を、入力画像とともに効果的に表示することが可能な表示装置、及び、表示装置の制御方法を提供することを目的とする。
By the way, regarding the function of displaying an image different from the input image in a superimposed manner, such as the OSD display function, how to display the OSD image or the like when the input image is a stereoscopic image has been conventionally solved. There was no problem. A stereoscopic image is composed of a pair of right-eye images and left-eye images. In contrast, a conventional OSD image or the like is a planar image. For this reason, processing cannot be performed in the same manner as when two planar images are superimposed, but there has been no example of how to superimpose an OSD image composed of a planar image on a stereoscopic image.
Many display devices that display stereoscopic images also support display of planar images. For this reason, the input image may be a planar image or a stereoscopic image. However, it has not been studied how to combine the process of superimposing images depending on whether the input image is a stereoscopic image or a planar image.
The present invention has been made in view of the above-described circumstances, a display device capable of effectively displaying an image such as an OSD image different from the input image together with the input image, and control of the display device. It aims to provide a method.

上記課題を解決するため、本発明は、入力画像データに基づいて、左目用画像及び右目用画像を含む立体画像を表示する表示装置であって、前記入力画像データに基づいて左目用画像の画像データと右目用画像の画像データとを出力する画像出力手段と、前記入力画像データとは別の画像データである左目用の別画像データと、右目用の別画像データとを記憶したメモリーと、前記画像出力手段により出力される画像データに、前記メモリーに記憶された左目用の前記別画像データまたは右目用の前記別画像データを合成する画像処理手段と、前記画像処理手段により合成された画像データに基づいて画像を表示する表示手段と、を備え、前記画像処理手段は、取得した画像データが左目用画像の画像データであった場合に、前記メモリーにおいて左目用の前記別画像データが記憶されたアドレスを指定し、取得した画像データが右目用画像の画像データであった場合に、前記メモリーにおいて右目用の前記別画像データが記憶されたアドレスを指定する読出制御手段と、前記読出制御手段により指定されたアドレスから前記別画像データを読み出して、取得した画像データと合成する処理を行う合成処理手段と、を備えたこと、を特徴とする。
本発明によれば、入力画像データに基づいて左目用画像の画像データと右目用画像の画像データとを出力して立体画像を表示する表示装置が、左目用画像の画像データにはメモリーに記憶した左目用の別画像データを合成し、右目用画像の画像データにはメモリーに記憶した右目用の別画像データを合成する。この処理は、画像処理手段が入力画像の画像データと別画像データとを取得して実行する。この処理において、画像処理手段は、左目用画像の画像データを取得した場合は左目用の別画像データが記憶されたアドレスを指定し、右目用画像の画像データを取得した場合は右目用の別画像データが記憶されたアドレスを指定する。そして、画像処理手段は、指定されたアドレスの別画像データを取得して合成する処理を行う。これにより、入力画像に基づく左目用画像の画像データと右目用画像の画像データとの各々に対し、左目用の別画像データと右目用の別画像データとをそれぞれ合成し、例えば立体画像である入力画像に、別の画像を立体画像として合成して表示することができ、OSD画像等の画像を効果的に表示できる。また、左目用の別画像データと右目用の別画像データとをそれぞれ合成する処理では、処理される入力画像の画像データが左目用か右目用かに応じて、メモリーのアドレスが指定され、対応する別画像データが取得される。従って、左目用の別画像データと右目用の別画像データとをそれぞれ取得して合成する処理を、効率よく行うことができる。
In order to solve the above problems, the present invention is a display device that displays a stereoscopic image including a left-eye image and a right-eye image based on input image data, and an image of a left-eye image based on the input image data. Image output means for outputting data and image data of a right eye image, a memory storing different image data for left eye, which is image data different from the input image data, and different image data for right eye, Image processing means for combining the image data output by the image output means with the separate image data for the left eye or the separate image data for the right eye stored in the memory, and the image combined by the image processing means Display means for displaying an image based on the data, and the image processing means stores in the memory when the acquired image data is image data of a left-eye image. And the address where the separate image data for the left eye is stored and the acquired image data is the image data of the right eye image, the address where the separate image data for the right eye is stored in the memory. It is characterized by comprising: a read control means for designating; and a composition processing means for performing processing for reading out the separate image data from the address designated by the read control means and compositing with the acquired image data.
According to the present invention, the display device that outputs the image data of the left-eye image and the image data of the right-eye image based on the input image data and displays the stereoscopic image is stored in the memory of the image data of the left-eye image. The left image data for the left eye is combined, and the image data for the right eye is combined with the image data for the right eye stored in the memory. This processing is executed by the image processing means acquiring the image data of the input image and the separate image data. In this process, the image processing means designates the address where the image data for the left eye is stored when the image data for the left eye is acquired, and separates for the right eye when the image data for the right eye is acquired. Specifies the address where the image data is stored. Then, the image processing means performs processing for acquiring and synthesizing the separate image data at the designated address. As a result, the left-eye image data and the right-eye image data are respectively synthesized with the left-eye image data and the right-eye image data based on the input image, for example, a stereoscopic image. Another image can be combined with the input image and displayed as a stereoscopic image, and an image such as an OSD image can be effectively displayed. In addition, in the process of combining separate image data for the left eye and separate image data for the right eye, the address of the memory is specified according to whether the image data of the input image to be processed is for the left eye or for the right eye. Another image data to be acquired is acquired. Therefore, it is possible to efficiently perform the process of acquiring and synthesizing the separate image data for the left eye and the separate image data for the right eye.

また、本発明は、上記表示装置であって、前記メモリーは揮発性のメモリーで構成され、それぞれ左目用の前記別画像データと右目用の前記別画像データとを含む複数の前記別画像データを記憶した不揮発性メモリーと、前記不揮発性メモリーから表示対象の前記別画像データを読み出して、読み出した前記別画像データに含まれる左目用の前記別画像データを、前記メモリー内で左目用のデータに対応するアドレスに記憶させ、読み出した前記別画像データに含まれる右目用の前記別画像データを、前記メモリー内で右目用のデータに対応するアドレスに記憶させる別画像管理手段と、を備えたことを特徴とする。
本発明によれば、左目用の別画像データと右目用の別画像データを、それぞれ対応するアドレスに記憶させることで、入力画像データと合成することができる。すなわち、本発明の表示装置は、不揮発性メモリーに記憶した複数の別画像データを使用可能であり、使用する別画像データをメモリー内の対応するアドレスに記憶させることで、その別画像データを入力画像データと合成することができる。このため、別画像データに対して統一した名称を付したり、複数の別画像データのうち使用する別画像データのアドレスを随時指定したりする等、複雑な管理が必要なくなり、別画像データの管理が容易になるという利点がある。
Further, the present invention is the above display device, wherein the memory is constituted by a volatile memory, and each of the plurality of different image data including the different image data for the left eye and the different image data for the right eye is provided. The stored non-volatile memory and the separate image data to be displayed are read from the non-volatile memory, and the separate image data for the left eye included in the read separate image data is converted into left-eye data in the memory. Another image management means for storing the separate image data for the right eye contained in the read separate image data at a corresponding address and storing it in the address corresponding to the data for the right eye in the memory. It is characterized by.
According to the present invention, it is possible to synthesize the image data for the left eye and the image data for the right eye with the input image data by storing them in the corresponding addresses. That is, the display device of the present invention can use a plurality of different image data stored in the non-volatile memory, and the different image data to be used is stored in a corresponding address in the memory to input the different image data. It can be combined with image data. This eliminates the need for complicated management such as assigning a uniform name to different image data, or specifying the address of another image data to be used from time to time. There is an advantage that management becomes easy.

また、本発明は、上記表示装置であって、前記画像出力手段により出力された画像データを一時的に記憶するバッファーを備え、前記画像処理手段は、前記バッファーから画像データを取得して前記別画像データを合成する処理を行い、前記読出制御手段は、前記バッファーから取得した画像データが左目用画像の画像データか右目用画像の画像データかを判定して前記メモリーのアドレスを指定すること、を特徴とする。
本発明によれば、バッファーから画像データを取得し、取得した画像データについて左目用の画像データか右目用の画像データかを判定すれば、取得した画像データに対応する別画像データをメモリーから読み出すことができる。
The present invention is the display device described above, further comprising a buffer for temporarily storing the image data output by the image output unit, wherein the image processing unit acquires the image data from the buffer and performs the separate processing. Performing a process of synthesizing image data, wherein the read control means determines whether the image data acquired from the buffer is image data of a left-eye image or image data of a right-eye image, and designates an address of the memory; It is characterized by.
According to the present invention, when image data is acquired from a buffer and it is determined whether the acquired image data is left-eye image data or right-eye image data, another image data corresponding to the acquired image data is read from the memory. be able to.

また、本発明は、上記表示装置であって、前記画像出力手段は、左目用画像の画像データと右目用画像の画像データとを交互に出力し、出力中の画像データが左目用画像のデータであるか右目用画像のデータであるかを示す識別信号を出力し、前記読出制御手段は、前記識別信号に基づいて前記バッファーから取得した画像データが左目用画像の画像データか右目用画像の画像データかを判定し、前記メモリーのアドレスを指定することを特徴とする。
本発明によれば、交互に出力される左目用画像の画像データと右目用画像の画像データとについて、識別信号に基づいて左目用画像のデータであるか右目用画像のデータであるかが判定され、各々適切なアドレスから別画像データが取得され、合成される。これにより、左目用画像のデータと右目用画像の画像データの各々に対応する別画像データを合成する処理を、速やかに行うことができる。
Further, the present invention is the display device, wherein the image output means alternately outputs image data of the left eye image and image data of the right eye image, and the image data being output is data of the left eye image. The read control means outputs the identification signal indicating whether the image data is the right-eye image data or the right-eye image data. It is determined whether the data is image data, and an address of the memory is designated.
According to the present invention, whether the image data of the left-eye image and the image data of the right-eye image that are alternately output is the data of the left-eye image or the data of the right-eye image based on the identification signal. Then, separate image data is acquired from each appropriate address and synthesized. Thereby, the process which synthesize | combines the separate image data corresponding to each of the data of the image for left eyes, and the image data of the image for right eyes can be performed rapidly.

また、本発明は、上記表示装置であって、前記画像出力手段は、フレームシーケンシャル形式、ラインオルタナティブ形式またはサイドバイサイド形式の立体画像の画像データに基づき、左目用画像の画像データと右目用画像の画像データとを生成して交互に出力し、出力中の画像データが左目用画像のデータであるか右目用画像のデータであるかを示す識別信号を生成して出力することを特徴とする。
本発明によれば、フレームシーケンシャル形式、ラインオルタナティブ形式またはサイドバイサイド形式の立体画像の画像データに基づき交互に出力される左目用画像のデータと右目用画像の画像データの各々に、対応する別画像データを速やかに合成することができる。
Further, the present invention is the display device, wherein the image output means is based on the image data of the stereoscopic image in the frame sequential format, the line alternative format, or the side-by-side format, and the image data of the left-eye image and the image of the right-eye image Data is generated and output alternately, and an identification signal indicating whether the image data being output is data for a left-eye image or data for a right-eye image is generated and output.
According to the present invention, separate image data corresponding to each of the left-eye image data and the right-eye image data that are alternately output based on the frame sequential format, line alternative format, or side-by-side stereoscopic image data. Can be quickly synthesized.

また、上記課題を解決するため、本発明は、入力画像データに基づいて、左目用画像及び右目用画像を含む立体画像を表示する表示装置の制御方法であって、前記入力画像データに基づいて左目用画像の画像データと右目用画像の画像データとを出力し、出力された画像データを取得し、取得した画像データが左目用画像の画像データであった場合に、前記入力画像データとは別の画像データである別画像データが記憶されたメモリーにおいて左目用の前記別画像データが記憶されたアドレスを指定し、取得した画像データが右目用画像の画像データであった場合に、前記メモリーにおいて右目用の前記別画像データが記憶されたアドレスを指定し、指定されたアドレスから別画像データを読み出して、取得した画像データと合成する処理を行い、処理された左目用画像データ及び右目用画像データに基づいて画像を表示すること、を特徴とする。
本発明によれば、入力画像データに基づいて左目用画像の画像データと右目用画像の画像データとを出力して立体画像を表示する表示装置により、左目用画像の画像データにはメモリーに記憶した左目用の別画像データを合成し、右目用画像の画像データにはメモリーに記憶した右目用の別画像データを合成する。この処理は、画像処理手段が入力画像の画像データと別画像データとを取得して実行する。この処理において、画像処理手段は、左目用画像の画像データを取得した場合は左目用の別画像データが記憶されたアドレスを指定し、右目用画像の画像データを取得した場合は右目用の別画像データが記憶されたアドレスを指定する。そして、画像処理手段は、指定されたアドレスの別画像データを取得して合成する処理を行う。これにより、入力画像に基づく左目用画像の画像データと右目用画像の画像データとの各々に対し、左目用の別画像データと右目用の別画像データとをそれぞれ合成し、例えば立体画像である入力画像に、別の画像を立体画像として合成して表示することができ、OSD画像等の画像を効果的に表示できる。また、左目用の別画像データと右目用の別画像データとをそれぞれ合成する処理では、処理される入力画像の画像データが左目用か右目用かに応じて、メモリーのアドレスが指定され、対応する別画像データが取得される。従って、左目用の別画像データと右目用の別画像データとをそれぞれ取得して合成する処理を、効率よく行うことができる。
In order to solve the above-described problem, the present invention provides a control method for a display device that displays a stereoscopic image including a left-eye image and a right-eye image based on input image data, based on the input image data. When the image data of the left-eye image and the image data of the right-eye image are output, the output image data is acquired, and the acquired image data is the image data of the left-eye image, the input image data is When the address where the separate image data for the left eye is stored is specified in the memory storing the separate image data which is another image data, and the acquired image data is the image data of the right eye image, the memory A process for designating an address at which the separate image data for the right eye is stored, reading the separate image data from the specified address, and synthesizing the acquired image data. There, characterized in that, for displaying an image based on the processed left-eye image data and the right-eye image data.
According to the present invention, the image data of the left eye image is stored in the memory by the display device that outputs the image data of the left eye image and the image data of the right eye image based on the input image data and displays the stereoscopic image. The left image data for the left eye is combined, and the image data for the right eye is combined with the image data for the right eye stored in the memory. This processing is executed by the image processing means acquiring the image data of the input image and the separate image data. In this process, the image processing means designates the address where the image data for the left eye is stored when the image data for the left eye is acquired, and separates for the right eye when the image data for the right eye is acquired. Specifies the address where the image data is stored. Then, the image processing means performs processing for acquiring and synthesizing the separate image data at the designated address. As a result, the left-eye image data and the right-eye image data are respectively synthesized with the left-eye image data and the right-eye image data based on the input image, for example, a stereoscopic image. Another image can be combined with the input image and displayed as a stereoscopic image, and an image such as an OSD image can be effectively displayed. In addition, in the process of combining separate image data for the left eye and separate image data for the right eye, the address of the memory is specified according to whether the image data of the input image to be processed is for the left eye or for the right eye. Another image data to be acquired is acquired. Therefore, it is possible to efficiently perform the process of acquiring and synthesizing the separate image data for the left eye and the separate image data for the right eye.

本発明によれば、入力画像に基づく左目用画像の画像データと右目用画像の画像データとの各々に対し、対応する別画像データを合成して、OSD画像等の画像を効果的に表示できる。   According to the present invention, it is possible to effectively display an image such as an OSD image by combining corresponding image data with each of the image data of the left-eye image and the image data of the right-eye image based on the input image. .

第1の実施形態に係るプロジェクターの機能ブロック図である。It is a functional block diagram of the projector which concerns on 1st Embodiment. OSD画像記憶領域の構成を模式的に示す図である。It is a figure which shows typically the structure of an OSD image storage area. プロジェクターの画像処理部の機能ブロック図である。It is a functional block diagram of the image processing part of a projector. プロジェクターが処理するVsync信号と左右識別信号の出力状態を示すタイミングチャートである。It is a timing chart which shows the output state of the Vsync signal and right-and-left identification signal which a projector processes. プロジェクターの画像処理部が出力する画像の例を示す図であり、(A)は左目用画像の例を示し、(B)は右目用画像の例を示す。It is a figure which shows the example of the image which the image process part of a projector outputs, (A) shows the example of the image for left eyes, (B) shows the example of the image for right eyes. プロジェクターの動作を示すフローチャートである。It is a flowchart which shows operation | movement of a projector. 第2の実施形態に係るプロジェクターの画像処理部の機能ブロック図である。It is a functional block diagram of the image processing part of the projector which concerns on 2nd Embodiment. 第3の実施形態に係るプロジェクターの画像処理部の機能ブロック図である。FIG. 10 is a functional block diagram of an image processing unit of a projector according to a third embodiment. 第4の実施形態に係るプロジェクターの画像処理部の機能ブロック図である。It is a functional block diagram of the image processing part of the projector which concerns on 4th Embodiment.

[第1の実施形態]
以下、図面を参照して本発明の実施形態について説明する。
図1は、第1の実施形態に係る表示装置としてのプロジェクター1の全体構成を示すブロック図である。プロジェクター1は、パーソナルコンピューターや各種映像プレーヤー等の外部の画像供給装置(図示略)に接続され、この画像供給装置から入力される入力画像データS1をスクリーンSC等の投射面に投射する装置である。上記の画像供給装置としては、ビデオ再生装置、DVD再生装置、テレビチューナー装置、CATVのセットトップボックス、ビデオゲーム装置等の映像出力装置、パーソナルコンピューター等が挙げられる。本実施形態では、画像供給装置から表示処理部15に、動画像のデジタル画像データが入力画像データS1として入力される場合を例に挙げて説明する。このデジタル画像データには、画像データ自体とともに、当該デジタル画像データのフォーマット(立体映像のフォーマットや、フレームレート等を含む)に関する情報が含まれる。
プロジェクター1は、静止画像および動画像(映像)のいずれであっても表示可能である。以下の説明では、画像供給装置から入力される動画像を表示出力する場合を例に挙げて説明するが、以下の説明において入力画像データS1を表示する処理は、静止画像を表示する場合にもそのまま適用可能である。
また、本実施形態では、スクリーンSCはほぼ直立しており、スクリーン面は矩形形状とされている。
[First Embodiment]
Hereinafter, embodiments of the present invention will be described with reference to the drawings.
FIG. 1 is a block diagram showing an overall configuration of a projector 1 as a display device according to the first embodiment. The projector 1 is connected to an external image supply device (not shown) such as a personal computer or various video players, and projects input image data S1 input from the image supply device onto a projection surface such as a screen SC. . Examples of the image supply device include a video playback device, a DVD playback device, a TV tuner device, a CATV set top box, a video output device such as a video game device, and a personal computer. In the present embodiment, a case where digital image data of a moving image is input as input image data S1 from the image supply apparatus to the display processing unit 15 will be described as an example. The digital image data includes information related to the format of the digital image data (including a stereoscopic video format, a frame rate, and the like) along with the image data itself.
The projector 1 can display either a still image or a moving image (video). In the following description, the case of displaying and outputting a moving image input from the image supply device will be described as an example. However, in the following description, the process of displaying the input image data S1 is also performed when displaying a still image. It can be applied as it is.
In the present embodiment, the screen SC is almost upright, and the screen surface is rectangular.

プロジェクター1は、大きく分けて光学的な画像の形成を行う表示部40(表示手段)と、この表示部40により表示する画像を電気的に処理する画像処理系とからなる。表示部40は、光源部41、光変調装置42、及び投射光学系43から構成されている。光源部41は、キセノンランプ、超高圧水銀ランプ、LED等からなる光源を備えている。また、光源部41は、光源が発した光を光変調装置42に導くリフレクター及び補助リフレクターを備えていてもよく、投射光の光学特性を高めるためのレンズ群(図示略)、偏光板、或いは光源が発した光の光量を光変調装置42に至る経路上で低減させる調光素子等を備えたものであってもよい。
光変調装置42は、光源部41から射出された光を画像データに基づいて変調する変調手段に相当する。光変調装置42は、例えば、RGBの各色に対応した3枚の透過型または反射型の液晶ライトバルブを用いた方式、3枚のデジタルミラーデバイスを用いた方式等により構成される。また、光変調装置42は、光源が発した白色光に含まれる光のうちRGBの光を透過するカラーホイールと、1枚のデジタルミラーデバイス(DMD)とを組み合わせたDMD方式により構成することもできる。本実施形態では、光変調装置42を、液晶ライトバルブを用いた構成とする。光変調装置42は、複数の画素をマトリクス状に配置した透過型液晶パネルを備え、これら複数の画素により画像を形成し、形成した画像によって光源が発した光を変調する。光変調装置42は、後述する光変調装置駆動部17によって駆動され、マトリクス状に配置された各画素における光の透過率を変化させることにより、画像を形成する。
The projector 1 includes a display unit 40 (display unit) that forms an optical image roughly and an image processing system that electrically processes an image displayed by the display unit 40. The display unit 40 includes a light source unit 41, a light modulation device 42, and a projection optical system 43. The light source unit 41 includes a light source including a xenon lamp, an ultrahigh pressure mercury lamp, an LED, and the like. The light source unit 41 may include a reflector and an auxiliary reflector that guide light emitted from the light source to the light modulation device 42, and a lens group (not shown), a polarizing plate, A light control element or the like that reduces the amount of light emitted from the light source on the path to the light modulation device 42 may be provided.
The light modulation device 42 corresponds to a modulation unit that modulates light emitted from the light source unit 41 based on image data. The light modulation device 42 is configured by, for example, a system using three transmissive or reflective liquid crystal light valves corresponding to each color of RGB, a system using three digital mirror devices, and the like. In addition, the light modulation device 42 may be configured by a DMD method in which a color wheel that transmits RGB light among light included in white light emitted from a light source and a single digital mirror device (DMD) are combined. it can. In this embodiment, the light modulation device 42 is configured using a liquid crystal light valve. The light modulation device 42 includes a transmissive liquid crystal panel in which a plurality of pixels are arranged in a matrix, forms an image with the plurality of pixels, and modulates light emitted from a light source with the formed image. The light modulation device 42 is driven by a light modulation device driving unit 17 described later, and forms an image by changing the light transmittance in each pixel arranged in a matrix.

投射光学系43は、投射する画像の拡大・縮小および焦点の調整を行うズームレンズ、ズームの度合いを調整するズーム調整用モーター、フォーカスの調整を行うフォーカス調整用モーター等を備えている。投射光学系43は、光変調装置42で変調された光を、ズームレンズを用いてスクリーンSC上に投射して結像させる。
表示部40には、制御部10の制御に従って投射光学系43が備える各モーターを駆動する投射光学系駆動部18、及び、制御部10の制御に従って光源部41が備える光源を駆動する光源駆動部19が接続されている。
The projection optical system 43 includes a zoom lens that performs enlargement / reduction of a projected image and a focus adjustment, a zoom adjustment motor that adjusts the degree of zoom, a focus adjustment motor that performs focus adjustment, and the like. The projection optical system 43 forms an image by projecting the light modulated by the light modulation device 42 onto the screen SC using a zoom lens.
The display unit 40 includes a projection optical system driving unit 18 that drives each motor included in the projection optical system 43 according to the control of the control unit 10, and a light source driving unit that drives the light source included in the light source unit 41 according to the control of the control unit 10. 19 is connected.

画像処理系は、プロジェクター1全体を統合的に制御する制御部10を中心に構成され、制御部10が処理するデータや制御部10が実行するプログラム等を一時的に記憶するRAM11、制御部10が処理するデータや制御部10により実行されるプログラム等を記憶した不揮発性記憶部12(不揮発性メモリー)、操作パネル51及びリモコン受光部52を介した操作を検出する入力処理部13、制御部10の制御に従って入力画像データS1を処理する表示処理部15(画像処理手段)、及び、表示処理部15から出力される映像信号に基づいて光変調装置42を駆動して描画を行う光変調装置駆動部17を備えている。   The image processing system is configured around a control unit 10 that integrally controls the entire projector 1, and includes a RAM 11 that temporarily stores data processed by the control unit 10, a program executed by the control unit 10, and the control unit 10. A non-volatile storage unit 12 (non-volatile memory) that stores data to be processed by the control unit 10 and a program executed by the control unit 10, an input processing unit 13 that detects an operation via the operation panel 51 and the remote control light receiving unit 52, and a control unit A display processing unit 15 (image processing means) that processes the input image data S1 according to 10 control, and a light modulation device that performs drawing by driving the light modulation device 42 based on the video signal output from the display processing unit 15 A drive unit 17 is provided.

制御部10(別画像管理手段)は、不揮発性記憶部12に記憶された制御プログラムを読み出して実行することにより、プロジェクター1の各部を制御する。制御部10は、入力処理部13から入力される操作信号に基づいて、ユーザーが行った操作の内容を検出し、この操作に応じて表示処理部15、光変調装置駆動部17、投射光学系駆動部18及び光源駆動部19を制御して、スクリーンSCに映像を投射させる。   The control unit 10 (separate image management unit) controls each unit of the projector 1 by reading and executing a control program stored in the nonvolatile storage unit 12. The control unit 10 detects the content of the operation performed by the user based on the operation signal input from the input processing unit 13, and the display processing unit 15, the light modulation device driving unit 17, and the projection optical system according to this operation. The drive unit 18 and the light source drive unit 19 are controlled to project an image on the screen SC.

不揮発性記憶部12は、PROM、EEPROM、フラッシュメモリー等の半導体記憶素子、或いは磁気的記憶装置等により構成され、プログラムやデータを不揮発的に記憶する。不揮発性記憶部12には、上記の制御プログラムやデータの他、OSD画像データ12A(別画像データ)が記憶されている。
OSD画像データ12Aは、例えば、プロジェクター1の機能に係る設定を行うためのメニュー画像(設定用画像)など、入力画像データS1とは別の画像(別画像)の画像データであり、OSD画像データ12Aは入力画像データS1に重畳して、スクリーンSCに表示される。不揮発性記憶部12には複数のOSD画像データ12Aを記憶することも可能である。不揮発性記憶部12に記憶されたOSD画像データ12Aのうち、スクリーンSCに表示するOSD画像データ12Aが、制御部10によって読み出されて、RAM11に記憶される。表示処理部15は、RAM11からOSD画像データ12Aを読み出して、入力画像データS1のフレーム毎の画像データにOSD画像データ12Aを重畳して合成する処理を行い、合成された画像を表示画像データS8として光変調装置駆動部17に出力する。光変調装置駆動部17が表示画像データS8に基づいて光変調装置42の液晶パネルに描画を行うことにより、合成された画像がスクリーンSCに投射される。
OSD画像データ12Aは、入力画像データS1が立体画像であって、左目用の画像と右目用の画像とを含んでいることに対応して、左目用のOSD画像データと右目用のOSD画像データとが対をなして組み合わされている。すなわち、1つのOSD画像データ12Aは、図2を参照して後述するように一対の左目用のOSD画像データ10A(左目用の別画像データ)と右目用のOSD画像データ10B(右目用の別画像データ)を含んでいる。入力画像データS1に含まれる左目用の画像には、左目用のOSD画像データ10Aが合成され、入力画像データS1に含まれる右目用の画像には、右目用のOSD画像データ10Bが合成される。
The nonvolatile storage unit 12 is configured by a semiconductor storage element such as PROM, EEPROM, flash memory, or a magnetic storage device, and stores programs and data in a nonvolatile manner. The non-volatile storage unit 12 stores OSD image data 12A (separate image data) in addition to the control program and data described above.
The OSD image data 12A is image data of an image (different image) different from the input image data S1, such as a menu image (setting image) for performing settings related to the function of the projector 1, and the OSD image data. 12A is superimposed on the input image data S1 and displayed on the screen SC. The nonvolatile storage unit 12 can also store a plurality of OSD image data 12A. Of the OSD image data 12A stored in the nonvolatile storage unit 12, OSD image data 12A to be displayed on the screen SC is read by the control unit 10 and stored in the RAM 11. The display processing unit 15 reads out the OSD image data 12A from the RAM 11, performs a process of superimposing the OSD image data 12A on the image data for each frame of the input image data S1, and synthesizes the combined image, with the display image data S8. Is output to the light modulation device driving unit 17. The light modulation device driving unit 17 performs drawing on the liquid crystal panel of the light modulation device 42 based on the display image data S8, whereby the synthesized image is projected onto the screen SC.
The OSD image data 12A corresponds to the fact that the input image data S1 is a three-dimensional image and includes an image for the left eye and an image for the right eye, and the OSD image data for the left eye and the OSD image data for the right eye. And are paired together. That is, one OSD image data 12A includes a pair of left-eye OSD image data 10A (left-eye separate image data) and right-eye OSD image data 10B (right-eye separate data, as will be described later with reference to FIG. Image data). The left-eye OSD image data 10A is combined with the left-eye image included in the input image data S1, and the right-eye OSD image data 10B is combined with the right-eye image included in the input image data S1. .

RAM11は、DRAM等の揮発性の半導体記憶素子により構成され、プログラムやデータ等を記憶する。また、RAM11には、OSD画像記憶領域11Aが設けられている。制御部10によって不揮発性記憶部12から読み出されたOSD画像データ12Aは、OSD画像記憶領域11Aに記憶される。
図2は、OSD画像記憶領域11Aの構成を模式的に示す図である。
OSD画像記憶領域11Aにおいては、1つのOSD画像データ12Aを構成する左目用のOSD画像データ10Aと右目用のOSD画像データ10Bとが、記憶される。OSD画像データ10Aが記憶される領域の先頭アドレスA、及び、OSD画像データ10Bが記憶される領域の先頭アドレスBは、予め定められ、例えば不揮発性記憶部12に記憶されている。制御部10は、不揮発性記憶部12から読み出したOSD画像データ12Aを、先頭アドレスA、Bに従ってOSD画像記憶領域11Aに記憶させる。従って、左目用のOSD画像データ10Aが必要な場合は、OSD画像記憶領域11AのアドレスAからデータを読み出せばよい。同様に、右目用のOSD画像データ10Bが必要な場合は、OSD画像記憶領域11AのアドレスBからデータを読み出せばよい。
The RAM 11 is composed of a volatile semiconductor storage element such as a DRAM, and stores programs, data, and the like. Further, the RAM 11 is provided with an OSD image storage area 11A. The OSD image data 12A read from the nonvolatile storage unit 12 by the control unit 10 is stored in the OSD image storage area 11A.
FIG. 2 is a diagram schematically showing the configuration of the OSD image storage area 11A.
In the OSD image storage area 11A, the left-eye OSD image data 10A and the right-eye OSD image data 10B constituting one OSD image data 12A are stored. The start address A of the area in which the OSD image data 10A is stored and the start address B of the area in which the OSD image data 10B is stored are determined in advance and stored in the nonvolatile storage unit 12, for example. The control unit 10 stores the OSD image data 12A read from the nonvolatile storage unit 12 in the OSD image storage area 11A according to the head addresses A and B. Therefore, when the OSD image data 10A for the left eye is necessary, the data may be read from the address A in the OSD image storage area 11A. Similarly, when the OSD image data 10B for the right eye is necessary, the data may be read from the address B in the OSD image storage area 11A.

プロジェクター1の本体には、ユーザーが操作を行うための各種スイッチ及びインジケーターランプを備えた操作パネル51が配置されている。操作パネル51は入力処理部13に接続されており、入力処理部13は、制御部10の制御に従い、プロジェクター1の動作状態や設定状態に応じて操作パネル51のインジケーターランプを適宜点灯或いは点滅させる。この操作パネル51のスイッチが操作されると、操作されたスイッチに対応する操作信号が入力処理部13から制御部10に出力される。
また、プロジェクター1は、ユーザーが使用するリモコン5を有する。リモコン5は各種のボタンを備えており、これらのボタンの操作に対応して赤外線信号を送信する。プロジェクター1の本体には、リモコン5が発する赤外線信号を受光するリモコン受光部52が配置されている。リモコン受光部52は、リモコン5から受光した赤外線信号をデコードして、リモコン5における操作内容を示す操作信号を生成し、制御部10に出力する。
In the main body of the projector 1, an operation panel 51 including various switches and indicator lamps for operation by a user is disposed. The operation panel 51 is connected to the input processing unit 13, and the input processing unit 13 appropriately turns on or blinks the indicator lamp of the operation panel 51 according to the operation state or setting state of the projector 1 according to the control of the control unit 10. . When the switch of the operation panel 51 is operated, an operation signal corresponding to the operated switch is output from the input processing unit 13 to the control unit 10.
The projector 1 also has a remote controller 5 that is used by the user. The remote controller 5 includes various buttons, and transmits an infrared signal corresponding to the operation of these buttons. The main body of the projector 1 is provided with a remote control light receiving unit 52 that receives an infrared signal emitted from the remote controller 5. The remote control light receiving unit 52 decodes the infrared signal received from the remote control 5, generates an operation signal indicating the operation content in the remote control 5, and outputs the operation signal to the control unit 10.

図3は、表示処理部15の構成を詳細に示す機能ブロック図である。
表示処理部15は、外部の画像供給装置(図示略)に接続されている。表示処理部15は、制御部10の制御に従って、画像供給装置から入力される入力画像データS1に基づいて表示画像データS8を生成し、光変調装置駆動部17に出力する。
表示処理部15は、入力画像データS1に基づいて出力画像データS2を出力する画像出力部21(画像出力手段)と、画像出力部21が出力する出力画像データS2を一時的に格納する画像バッファー23(バッファー)と、画像バッファー23に格納された出力画像データS2にOSD画像データ10A、10Bを重畳する処理等を行う画像処理部30と、を備えている。また、表示処理部15は、RAM11からOSD画像データ10A、10Bを読み出すOSD読出部25と、OSD読出部25により読み出されたOSD画像データ10A、10Bを一時的に格納するOSD画像バッファー27と、OSD画像バッファー27に格納されたOSD画像データ10A、10Bを適切なタイミングで読み出し、画像処理部30に出力するバッファー制御部29と、を備えている。
FIG. 3 is a functional block diagram illustrating the configuration of the display processing unit 15 in detail.
The display processing unit 15 is connected to an external image supply device (not shown). The display processing unit 15 generates display image data S <b> 8 based on the input image data S <b> 1 input from the image supply device under the control of the control unit 10, and outputs the display image data S <b> 8 to the light modulation device driving unit 17.
The display processing unit 15 includes an image output unit 21 (image output unit) that outputs output image data S2 based on the input image data S1, and an image buffer that temporarily stores the output image data S2 output by the image output unit 21. 23 (buffer), and an image processing unit 30 that performs processing for superimposing the OSD image data 10A and 10B on the output image data S2 stored in the image buffer 23. The display processing unit 15 also includes an OSD reading unit 25 that reads out OSD image data 10A and 10B from the RAM 11, and an OSD image buffer 27 that temporarily stores the OSD image data 10A and 10B read out by the OSD reading unit 25. A buffer control unit 29 that reads out the OSD image data 10A and 10B stored in the OSD image buffer 27 at an appropriate timing and outputs them to the image processing unit 30.

画像出力部21は、入力画像データS1をフレーム毎に、出力画像データS2として画像バッファー23に出力する。本実施形態では、入力画像データS1はフレームシーケンシャル形式の立体画像データであるものとする。この場合、左目用画像のフレームと右目用画像のフレームとが交互に画像出力部21に入力される。画像出力部21は、入力された入力画像データS1のフレームを順次、画像バッファー23に出力する。
また、画像出力部21は、入力画像データS1とともに含まれるクロック信号に従って、Vsync信号S3と左右識別信号S4とを生成して、画像処理部30に出力する。
The image output unit 21 outputs the input image data S1 to the image buffer 23 as output image data S2 for each frame. In the present embodiment, it is assumed that the input image data S1 is stereoscopic image data in a frame sequential format. In this case, the left-eye image frame and the right-eye image frame are alternately input to the image output unit 21. The image output unit 21 sequentially outputs the input frames of the input image data S1 to the image buffer 23.
Further, the image output unit 21 generates a Vsync signal S3 and a left / right identification signal S4 according to a clock signal included together with the input image data S1, and outputs the generated signal to the image processing unit 30.

図4は、プロジェクター1が処理するVsync信号S3と左右識別信号S4の出力状態を示すタイミングチャートである。
図4(A)はVsync信号S3を示す。Vsync信号S3は入力画像データS1の垂直同期信号である。また、図4(B)は左右識別信号S4を示す。左右識別信号S4は、入力画像データS1の各フレームが左目用の画像であるか、右目用の画像であるかを示す信号である。例えば、左右識別信号S4がHighの間に出力されるフレームは左目用の画像であり、左右識別信号S4がLowの間に出力されるフレームは右目用の画像である。左右識別信号S4はVsync信号S3に同期して、入力画像データS1とともに表示処理部15に入力される。画像出力部21は、画像バッファー23に出力画像データS2を出力する際に、この出力画像データS2の各フレームに同期してVsync信号S3及び左右識別信号S4を出力する。
FIG. 4 is a timing chart showing the output states of the Vsync signal S3 and the left / right identification signal S4 processed by the projector 1.
FIG. 4A shows the Vsync signal S3. The Vsync signal S3 is a vertical synchronization signal for the input image data S1. FIG. 4B shows a left / right identification signal S4. The left / right identification signal S4 is a signal indicating whether each frame of the input image data S1 is a left-eye image or a right-eye image. For example, a frame output while the left / right identification signal S4 is High is an image for the left eye, and a frame output while the left / right identification signal S4 is Low is an image for the right eye. The left / right identification signal S4 is input to the display processing unit 15 together with the input image data S1 in synchronization with the Vsync signal S3. When outputting the output image data S2 to the image buffer 23, the image output unit 21 outputs a Vsync signal S3 and a left / right identification signal S4 in synchronization with each frame of the output image data S2.

OSD読出部25(図2)は、RAM11のOSD画像記憶領域11Aに記憶されたOSD画像データ10A、10Bを読み出す。上記のように、OSD画像記憶領域11Aには、不揮発性記憶部12(図1)に記憶された1または複数のOSD画像データ10A、10Bのうち、スクリーンSCに表示する対象として制御部10により指定されたOSD画像データ10A、10Bが記憶されている。
OSD読出部25は、バッファー制御部29によって読出開始アドレスが指定されると、OSD画像記憶領域11Aにおいて指定されたアドレスからデータを読み出してOSD画像バッファー27に出力する。OSD読出部25は、1回の読出動作において、OSD画像データ10A、またはOSD画像データ10Bのいずれかを読み出す。OSD読出部25が読み出したデータはOSD画像バッファー27に記憶される。
バッファー制御部29は、画像処理部30からの要求に応じて、画像処理部30により指定されたアドレスをOSD読出部25に対して読出開始アドレスとして指定し、読み出しを実行させる。そして、バッファー制御部29は、OSD読出部25によって読み出され、OSD画像バッファー27に記憶されたOSD画像データ10AまたはOSD画像データ10Bを読み出して、画像処理部30に出力する。バッファー制御部29がOSD読出部25に対して読み出しを1回要求すると、OSD画像バッファー27にはOSD画像データ10AまたはOSD画像データ10Bのいずれかが読み出され、バッファー制御部29は、OSD画像データ10AまたはOSD画像データ10BのいずれかをOSD画像バッファー27から取得して画像処理部30に出力する。
The OSD reading unit 25 (FIG. 2) reads the OSD image data 10A and 10B stored in the OSD image storage area 11A of the RAM 11. As described above, in the OSD image storage area 11A, the control unit 10 sets the OSD image data 10A and 10B stored in the nonvolatile storage unit 12 (FIG. 1) as a target to be displayed on the screen SC. The designated OSD image data 10A and 10B are stored.
When the reading start address is designated by the buffer control unit 29, the OSD reading unit 25 reads data from the address designated in the OSD image storage area 11A and outputs it to the OSD image buffer 27. The OSD reading unit 25 reads either the OSD image data 10A or the OSD image data 10B in one reading operation. Data read by the OSD reading unit 25 is stored in the OSD image buffer 27.
In response to a request from the image processing unit 30, the buffer control unit 29 specifies the address specified by the image processing unit 30 as a reading start address for the OSD reading unit 25, and causes the reading to be executed. Then, the buffer control unit 29 reads out the OSD image data 10 </ b> A or the OSD image data 10 </ b> B read out by the OSD reading unit 25 and stored in the OSD image buffer 27, and outputs it to the image processing unit 30. When the buffer control unit 29 requests the OSD reading unit 25 to read once, either the OSD image data 10A or the OSD image data 10B is read to the OSD image buffer 27, and the buffer control unit 29 reads the OSD image data. Either the data 10 A or the OSD image data 10 B is acquired from the OSD image buffer 27 and output to the image processing unit 30.

画像処理部30は、画像バッファー23に格納された出力画像データS2の画像データと、バッファー制御部29から入力されるOSD画像データ10A、10Bとを合成して表示画像データS8を生成する合成処理部31(合成処理手段)と、OSD画像記憶領域11AからOSD画像データ10A、10Bを読み出す際の読出開始位置のアドレスを指定するアドレス選択部35(読出制御手段)と、OSD画像記憶領域11Aにおいて左目用のOSD画像データ10Aが記憶されたアドレスを記憶したレジスター36と、OSD画像記憶領域11Aにおいて右目用のOSD画像データ10Bが記憶されたアドレスを記憶したレジスター37と、を備えている。   The image processing unit 30 combines the image data of the output image data S2 stored in the image buffer 23 and the OSD image data 10A and 10B input from the buffer control unit 29 to generate display image data S8. In the section 31 (compositing processing means), the address selection section 35 (reading control means) for designating the address of the reading start position when reading the OSD image data 10A, 10B from the OSD image storage area 11A, and the OSD image storage area 11A A register 36 storing an address where the left-eye OSD image data 10A is stored, and a register 37 storing an address where the right-eye OSD image data 10B is stored in the OSD image storage area 11A are provided.

アドレス選択部35は、画像出力部21が出力する左右識別信号S4に従って、次に画像バッファー23から読み出される画像データが左目用画像の画像データか右目用画像の画像データかを判定し、この判定結果に基づきレジスター36またはレジスター37のいずれか一方を選択する。そして、アドレス選択部35は、選択したレジスターからアドレスを取得して、合成処理部31に対して読出開始アドレスとして出力する。   The address selection unit 35 determines whether the image data to be read next from the image buffer 23 is the image data of the left-eye image or the right-eye image in accordance with the left / right identification signal S4 output from the image output unit 21. Based on the result, either the register 36 or the register 37 is selected. Then, the address selection unit 35 acquires an address from the selected register, and outputs it to the synthesis processing unit 31 as a reading start address.

図5は、画像処理部30が出力する表示画像データS8に基づいて表示される画像の例を示す図であり、(A)は左目用のフレームの例を示し、(B)は右目用のフレームの例を示す。
図5(A)及び(B)に示す例では、左目用のフレーム101にはOSD画像105が配置され、右目用のフレーム103にはOSD画像106が配置されている。OSD画像105に対応するOSD画像データ10Aは、実際にはOSD画像105の周囲の余白を含んでいて、全体としてフレーム101と同じサイズのデータである。従って、左目用画像の画像データとOSD画像データ10Aとは同じサイズの画像データであり、これらを重ね合わせることで、フレーム101の所定の位置にOSD画像105が配置される。同様に、OSD画像データ10Bは、OSD画像106の周囲の余白を含み、フレーム103と同じサイズのデータである。なお、本実施形態において、OSD画像データ10A、10Bの余白領域は透明であってもよいし不透明であってもよい。
FIG. 5 is a diagram illustrating an example of an image displayed based on the display image data S8 output from the image processing unit 30. (A) illustrates an example of a frame for the left eye, and (B) illustrates an image for the right eye. An example of a frame is shown.
In the example shown in FIGS. 5A and 5B, the OSD image 105 is arranged in the left-eye frame 101, and the OSD image 106 is arranged in the right-eye frame 103. The OSD image data 10A corresponding to the OSD image 105 actually includes a margin around the OSD image 105, and is data having the same size as the frame 101 as a whole. Accordingly, the image data of the left-eye image and the OSD image data 10A are image data of the same size, and the OSD image 105 is arranged at a predetermined position of the frame 101 by superimposing them. Similarly, the OSD image data 10 </ b> B is data having the same size as the frame 103, including margins around the OSD image 106. In the present embodiment, the blank area of the OSD image data 10A and 10B may be transparent or opaque.

図5の例では、フレーム101におけるOSD画像105の位置、及び、フレーム103におけるOSD画像105の位置が異なっている。この位置のずれ量は、左右の画像の視差となっている。このため、フレーム101、103がスクリーンSCに投射された投射画像を、例えばメガネ型の偏光フィルターを装着した人が見れば、OSD画像105、106は視差に応じて立体的に見える。また、フレーム101におけるOSD画像105の位置と、フレーム103におけるOSD画像106の位置に視差を設けない場合には、スクリーンSCに投射された投射画像において、OSD画像105、106は平面画像として見える。
このように、プロジェクター1は、入力画像データS1が立体画像の画像データである場合に、OSD画像105、106を平面画像として表示することも、立体画像として表示することも可能である。
また、OSD画像データ10A、10Bがフレーム101、103よりも小さい画像データであってもよい。この場合、OSD画像データ10Aをフレーム101の画像データに重ねる位置、及び、OSD画像データ10Bをフレーム103の画像データに重ねる位置は、予め設定されていてもよい。この場合、フレーム101、103よりも小さい画像データをOSD画像データ10A、10Bとして用いることができる。
In the example of FIG. 5, the position of the OSD image 105 in the frame 101 and the position of the OSD image 105 in the frame 103 are different. This positional shift amount is the parallax between the left and right images. For this reason, if a person wearing a glasses-type polarization filter, for example, sees the projection image in which the frames 101 and 103 are projected on the screen SC, the OSD images 105 and 106 appear three-dimensionally according to the parallax. In addition, when no parallax is provided between the position of the OSD image 105 in the frame 101 and the position of the OSD image 106 in the frame 103, the OSD images 105 and 106 appear as planar images in the projection image projected on the screen SC.
As described above, the projector 1 can display the OSD images 105 and 106 as a planar image or a stereoscopic image when the input image data S1 is image data of a stereoscopic image.
The OSD image data 10A and 10B may be image data smaller than the frames 101 and 103. In this case, the position where the OSD image data 10A is superimposed on the image data of the frame 101 and the position where the OSD image data 10B is superimposed on the image data of the frame 103 may be set in advance. In this case, image data smaller than the frames 101 and 103 can be used as the OSD image data 10A and 10B.

合成処理部31は、アドレス選択部35により指定されたアドレスをバッファー制御部29に指定して、OSD画像データ10A、10Bの読み出しを要求する。そして、バッファー制御部29からOSD画像データ10AまたはOSD画像データ10Bが入力されると、画像バッファー23から出力画像データS2の1フレーム分の画像データを取得する。合成処理部31は、図示しないフレームメモリーに、1フレーム分の画像データを展開し、この画像データに重ねてOSD画像データ10AまたはOSD画像データ10Bを描画することにより、画像を合成(重畳)する。そして、合成処理部31は、合成した画像の画像データをフレームメモリーから読み出して、表示画像データS8として光変調装置駆動部17(図1)に出力する。   The composition processing unit 31 designates the address designated by the address selection unit 35 to the buffer control unit 29 and requests reading of the OSD image data 10A and 10B. When the OSD image data 10A or the OSD image data 10B is input from the buffer control unit 29, the image data for one frame of the output image data S2 is acquired from the image buffer 23. The composition processing unit 31 develops image data for one frame in a frame memory (not shown), and superimposes (superimposes) the images by drawing the OSD image data 10A or the OSD image data 10B on the image data. . Then, the synthesis processing unit 31 reads the image data of the synthesized image from the frame memory, and outputs it as display image data S8 to the light modulation device driving unit 17 (FIG. 1).

図6は、プロジェクター1の動作を示すフローチャートである。
まず、画像出力部21が、制御部10の制御に従って、入力画像データS1に基づいて左目用画像の画像データと右目用画像の画像データとを含む出力画像データS2を出力して画像バッファー23に格納させるとともに、Vsync信号S3及び左右識別信号S4をアドレス選択部35に出力する(ステップST1)。また、制御部10は、不揮発性記憶部12からOSD画像データ12Aを読み出して、RAM11に記憶させる(ステップST2)。このステップST12の処理は、入力画像データS1が入力される前に実行してもよい。
FIG. 6 is a flowchart showing the operation of the projector 1.
First, the image output unit 21 outputs the output image data S2 including the image data of the left-eye image and the image data of the right-eye image based on the input image data S1 under the control of the control unit 10 and outputs it to the image buffer 23. At the same time, the Vsync signal S3 and the left / right identification signal S4 are output to the address selector 35 (step ST1). Further, the control unit 10 reads the OSD image data 12A from the nonvolatile storage unit 12 and stores it in the RAM 11 (step ST2). The process of step ST12 may be executed before the input image data S1 is input.

ここで、アドレス選択部35が、Vsync信号S3及び左右識別信号S4に基づいて、次に画像バッファー23から読み出される画像データが左目用か右目用かを判定する(ステップST3)。
画像バッファー23から次に読み出される画像データが左目用である場合、アドレス選択部35は、左目用のレジスター36からアドレスを取得し、このアドレスを合成処理部31に対して読出開始アドレスとして指定する(ステップST4)。合成処理部31は、バッファー制御部29に対して読出開始アドレスを指定して読み出しを要求し、この要求に応じてOSD読出部25がOSD画像記憶領域11AからOSD画像データ10Aを読み出す(ステップST5)。OSD読出部25が読み出したOSD画像データ10Aが、バッファー制御部29により合成処理部31に入力されると、合成処理部31は、画像バッファー23から取得した画像データにOSD画像データ10Aを重畳する処理を行い、合成した表示画像データS8を光変調装置駆動部17に出力する(ステップST6)。その後、表示画像データS8に基づいて表示部40がスクリーンSCに画像を表示する(ステップST7)。
Here, the address selection unit 35 determines whether the image data to be read next from the image buffer 23 is for the left eye or the right eye based on the Vsync signal S3 and the left / right identification signal S4 (step ST3).
When the image data to be read next from the image buffer 23 is for the left eye, the address selection unit 35 acquires an address from the left eye register 36 and designates this address as a read start address to the synthesis processing unit 31. (Step ST4). The compositing processing unit 31 requests the buffer control unit 29 to specify a reading start address, and requests the reading, and the OSD reading unit 25 reads the OSD image data 10A from the OSD image storage area 11A in response to this request (step ST5). ). When the OSD image data 10 </ b> A read by the OSD reading unit 25 is input to the synthesis processing unit 31 by the buffer control unit 29, the synthesis processing unit 31 superimposes the OSD image data 10 </ b> A on the image data acquired from the image buffer 23. Processing is performed, and the combined display image data S8 is output to the light modulator driving unit 17 (step ST6). Thereafter, the display unit 40 displays an image on the screen SC based on the display image data S8 (step ST7).

一方、画像バッファー23から次に読み出される画像データが右目用である場合、アドレス選択部35は、右目用のレジスター37からアドレスを取得し、このアドレスを合成処理部31に対して読出開始アドレスとして指定する(ステップST8)。合成処理部31は、バッファー制御部29に対して読出開始アドレスを指定して読み出しを要求し、この要求に応じてOSD読出部25がOSD画像記憶領域11AからOSD画像データ10Bを読み出す(ステップST9)。OSD読出部25が読み出したOSD画像データ10Bが、バッファー制御部29により合成処理部31に入力されると、合成処理部31は、画像バッファー23から取得した画像データにOSD画像データ10Bを重畳する処理を行い、合成した表示画像データS8を光変調装置駆動部17に出力し(ステップST10)、ステップST7に移行する。   On the other hand, when the image data to be read next from the image buffer 23 is for the right eye, the address selection unit 35 acquires an address from the register 37 for the right eye and uses this address as a reading start address for the synthesis processing unit 31. Designate (step ST8). The compositing processing unit 31 requests the buffer control unit 29 to specify a reading start address, and requests the reading, and in response to this request, the OSD reading unit 25 reads the OSD image data 10B from the OSD image storage area 11A (step ST9). ). When the OSD image data 10B read by the OSD reading unit 25 is input to the composition processing unit 31 by the buffer control unit 29, the composition processing unit 31 superimposes the OSD image data 10B on the image data acquired from the image buffer 23. Processing is performed, and the combined display image data S8 is output to the light modulator driving unit 17 (step ST10), and the process proceeds to step ST7.

以上のように、本発明を適用した第1の実施形態に係るプロジェクター1は、入力画像データS1に基づいて、左目用画像及び右目用画像を含む立体画像を表示するプロジェクター1であって、入力画像データS1に基づいて左目用画像の画像データと右目用画像の画像データとを出力する画像出力部21と、入力画像データS1とは別の画像データであるOSD画像データ10A、10Bを記憶したOSD画像記憶領域11Aと、画像出力部21により出力される画像データに、OSD画像記憶領域11Aに記憶されたOSD画像データ10AまたはOSD画像データ10Bを合成する表示処理部15と、表示処理部15により合成された画像データに基づいて画像を表示する表示部40と、を備え、表示処理部15は、取得した画像データが左目用画像の画像データであった場合に、OSD画像記憶領域11AにおいてOSD画像データ10Aが記憶されたアドレスを指定し、取得した画像データが右目用画像の画像データであった場合に、OSD画像記憶領域11AにおいてOSD画像データ10Bが記憶されたアドレスを指定するアドレス選択部35と、アドレス選択部35により指定されたアドレスからOSD画像データ10AまたはOSD画像データ10Bを読み出して、取得した画像データと合成する処理を行う合成処理部31と、を備えている。
これにより、プロジェクター1は、左目用画像の画像データにはOSD画像記憶領域11Aに記憶したOSD画像データ10Aを合成し、右目用画像の画像データにはOSD画像記憶領域11Aに記憶したOSD画像データ10Bを合成する。この処理において、アドレス選択部35は、合成処理部31が画像バッファー23から左目用画像の画像データを取得する場合はOSD画像データ10Aが記憶されたアドレスを指定し、右目用画像の画像データを取得する場合はOSD画像データ10Bが記憶されたアドレスを指定する。そして、合成処理部31は、指定されたアドレスの別画像データをバッファー制御部29によって取得して合成する。これにより、入力画像に基づく左目用画像の画像データと右目用画像の画像データとの各々に対し、OSD画像データ10AとOSD画像データ10Bとをそれぞれ合成し、例えば立体画像である入力画像に、OSD画像を立体画像として合成して、効果的に表示できる。
また、OSD画像データ10A、10Bを合成する処理では、入力画像の画像データが左目用か右目用かに応じて、OSD画像記憶領域11Aにおける適切な読出開始アドレスが指定される。従って、OSD画像データ10A、10Bと取得して合成する処理を、効率よく行うことができる。
As described above, the projector 1 according to the first embodiment to which the present invention is applied is a projector 1 that displays a stereoscopic image including a left-eye image and a right-eye image based on the input image data S1. An image output unit 21 that outputs image data of the left-eye image and image data of the right-eye image based on the image data S1, and OSD image data 10A and 10B that are image data different from the input image data S1 are stored. A display processing unit 15 that combines the OSD image data 10A or the OSD image data 10B stored in the OSD image storage region 11A with the OSD image storage region 11A, the image data output by the image output unit 21, and the display processing unit 15 Display unit 40 that displays an image based on the image data synthesized by the display data processing unit 15. Is the image data of the left-eye image, the address where the OSD image data 10A is stored in the OSD image storage area 11A is designated, and the acquired image data is the image data of the right-eye image. The address selection unit 35 that specifies the address where the OSD image data 10B is stored in the image storage area 11A, and the OSD image data 10A or the OSD image data 10B read from the address specified by the address selection unit 35, and the acquired image data And a synthesizing processing unit 31 that performs the synthesizing process.
Thus, the projector 1 combines the OSD image data 10A stored in the OSD image storage area 11A with the image data of the left eye image, and the OSD image data stored in the OSD image storage area 11A as the image data of the right eye. 10B is synthesized. In this processing, the address selection unit 35 specifies the address where the OSD image data 10A is stored when the synthesis processing unit 31 acquires the image data of the left-eye image from the image buffer 23, and sets the image data of the right-eye image. When acquiring, the address where the OSD image data 10B is stored is designated. Then, the composition processing unit 31 acquires and synthesizes another image data at the designated address by the buffer control unit 29. Thus, the OSD image data 10A and the OSD image data 10B are respectively synthesized with the image data of the left-eye image and the image data of the right-eye image based on the input image. The OSD image can be synthesized as a stereoscopic image and displayed effectively.
In the process of combining the OSD image data 10A and 10B, an appropriate read start address in the OSD image storage area 11A is designated depending on whether the image data of the input image is for the left eye or for the right eye. Therefore, it is possible to efficiently perform the process of acquiring and combining with the OSD image data 10A and 10B.

また、OSD画像記憶領域11Aは揮発性のRAM11に設けられ、OSD画像データ10AとOSD画像データ10Bとを含む複数のOSD画像データ12Aを記憶した不揮発性記憶部12を備え、制御部10は、不揮発性記憶部12から表示対象のOSD画像データ12Aを読み出して、読み出したOSD画像データ12Aに含まれるOSD画像データ10Aを左目用のデータに対応するアドレスに記憶させ、OSD画像データ10Bを右目用のデータに対応するアドレスに記憶させる。すなわち、プロジェクター1は、不揮発性記憶部12に記憶した複数のOSD画像データ12Aを使用可能であり、使用するOSD画像データ12AをOSD画像記憶領域11A内の対応するアドレスに記憶させることで、そのOSD画像データ12Aを入力画像データと合成することができる。このため、OSD画像データ12Aに対して統一した名称を付したり、複数のOSD画像データ12Aのうち使用するOSD画像データ12AのOSD画像データ10A、10Bが記憶されたアドレスを随時指定したりする等、複雑な管理が必要なくなり、OSD画像データ12Aの管理が容易になるという利点がある。   The OSD image storage area 11A is provided in the volatile RAM 11, and includes a nonvolatile storage unit 12 that stores a plurality of OSD image data 12A including OSD image data 10A and OSD image data 10B. The OSD image data 12A to be displayed is read from the nonvolatile storage unit 12, the OSD image data 10A included in the read OSD image data 12A is stored at an address corresponding to the data for the left eye, and the OSD image data 10B is used for the right eye. Is stored at an address corresponding to the data. That is, the projector 1 can use a plurality of OSD image data 12A stored in the nonvolatile storage unit 12, and stores the OSD image data 12A to be used at a corresponding address in the OSD image storage area 11A. The OSD image data 12A can be combined with the input image data. For this reason, a unified name is assigned to the OSD image data 12A, and an address at which the OSD image data 10A and 10B of the OSD image data 12A to be used among the plurality of OSD image data 12A is stored is designated as needed. Thus, there is an advantage that complicated management becomes unnecessary and management of the OSD image data 12A becomes easy.

また、画像出力部21により出力された画像データを一時的に記憶する画像バッファー23を備え、合成処理部31は画像バッファー23から画像データを取得してOSD画像データ10A、10Bを合成する処理を行い、アドレス選択部35は、合成処理部31が画像バッファー23から取得する画像データが左目用か右目用かを判定してOSD画像記憶領域11Aにおけるアドレスを指定する。これにより、例えば左右識別信号S4に基づいて、画像バッファー23から取得される画像データが左目用か右目用かを判定すれば、取得される画像データに対応するOSD画像データ10A、10BをOSD画像記憶領域11Aから読み出すことができる。   Also, the image buffer 23 that temporarily stores the image data output by the image output unit 21 is provided, and the composition processing unit 31 performs processing for acquiring the image data from the image buffer 23 and compositing the OSD image data 10A and 10B. The address selection unit 35 determines whether the image data acquired by the synthesis processing unit 31 from the image buffer 23 is for the left eye or the right eye, and designates an address in the OSD image storage area 11A. Thus, for example, if it is determined whether the image data acquired from the image buffer 23 is for the left eye or the right eye based on the left / right identification signal S4, the OSD image data 10A and 10B corresponding to the acquired image data is converted into the OSD image. Data can be read from the storage area 11A.

また、画像出力部21は、左目用画像の画像データと右目用画像の画像データとを交互に出力し、出力中の画像データが左目用画像のデータであるか右目用画像のデータであるかを示す左右識別信号S4を出力し、アドレス選択部35は、左右識別信号S4に基づいて、画像バッファー23から取得される画像データが左目用画像の画像データか右目用画像の画像データかを判定し、OSD画像記憶領域11Aのアドレスを指定する。これにより、交互に出力される左目用画像の画像データと右目用画像の画像データとについて、各々適切なアドレスからOSD画像データ10AまたはOSD画像データ10Bが取得され、合成される。これにより、左目用画像のデータと右目用画像の画像データの各々に対応するOSD画像データ10A、10Bを合成する処理を、速やかに行うことができる。   The image output unit 21 alternately outputs the image data of the left eye image and the image data of the right eye image, and whether the image data being output is the left eye image data or the right eye image data. And the address selection unit 35 determines whether the image data acquired from the image buffer 23 is image data of the left-eye image or right-eye image based on the left-right identification signal S4. Then, the address of the OSD image storage area 11A is designated. As a result, the OSD image data 10A or the OSD image data 10B is acquired from appropriate addresses for the image data of the left-eye image and the image data of the right-eye image that are alternately output and combined. Thereby, the process which synthesize | combines the OSD image data 10A and 10B corresponding to each of the data of the image for left eyes, and the image data of the image for right eyes can be performed rapidly.

[第2の実施形態]
図7は、本発明を適用した第2の実施形態に係る表示処理部15Aの構成を示す機能ブロック図である。
この第2の実施形態では、画像供給装置(図示略)から入力される入力画像データS1が、サイドバイサイド形式の立体画像データである場合を例に挙げて説明する。なお、この第2の実施形態の構成は、入力画像データS1がトップアンドボトム形式の立体画像である場合にも容易に適用可能である。
[Second Embodiment]
FIG. 7 is a functional block diagram showing a configuration of a display processing unit 15A according to the second embodiment to which the present invention is applied.
In the second embodiment, a case where the input image data S1 input from an image supply device (not shown) is side-by-side stereoscopic image data will be described as an example. Note that the configuration of the second embodiment can be easily applied even when the input image data S1 is a top-and-bottom stereoscopic image.

図7に示す表示処理部15Aは、図1に示した表示処理部15に代えて、プロジェクター1を構成する。なお、本第2の実施形態において、第1の実施形態と同様に構成される各部については同符号を付して説明を省略する。
表示処理部15Aは、画像出力部21(図2)に代えて画像出力部21Aを備えている。画像出力部21Aは、入力画像データS1を構成する各フレームを分割して、左目用のフレームの画像データと右目用のフレームの画像データをとを生成する。サイドバイサイド形式の画像は、1フレームの右半分が右目用の画像であり、1フレームの左半分が左目用の画像となっている。サイドバイサイド形式の画像を立体画像として表示するためには、1フレームを右半分と左半分に分離し、分離した各々の画像を横方向に拡大する処理を行い、右目用のフレームと左目用のフレームとを生成する必要がある。
画像出力部21Aは、入力画像データS1のフレームを分離した左半分のフレームを、出力画像データS5として画像バッファー22に出力する。つまり、画像バッファー22は左目用のバッファーメモリーであり、画像バッファー22には入力画像データS1から抽出された左目用のフレームの画像データが順次格納される。また、画像出力部21Aは、入力画像データS1のフレームを分離した右半分のフレームを、出力画像データS6として画像バッファー24に出力する。つまり、画像バッファー24は右目用のバッファーメモリーであり、画像バッファー24には、入力画像データS1から抽出された左目用のフレームの画像データが順次格納される。
A display processing unit 15A illustrated in FIG. 7 constitutes the projector 1 instead of the display processing unit 15 illustrated in FIG. In the second embodiment, the same components as those in the first embodiment are denoted by the same reference numerals and description thereof is omitted.
The display processing unit 15A includes an image output unit 21A instead of the image output unit 21 (FIG. 2). The image output unit 21A divides each frame constituting the input image data S1 to generate left-eye frame image data and right-eye frame image data. In the side-by-side image, the right half of one frame is an image for the right eye, and the left half of one frame is an image for the left eye. In order to display a side-by-side image as a stereoscopic image, one frame is separated into a right half and a left half, and each separated image is expanded in the horizontal direction so that a right eye frame and a left eye frame are displayed. And need to generate.
The image output unit 21A outputs the left half frame obtained by separating the frames of the input image data S1 to the image buffer 22 as output image data S5. That is, the image buffer 22 is a left-eye buffer memory, and the image data of the left-eye frame extracted from the input image data S1 is sequentially stored in the image buffer 22. Further, the image output unit 21A outputs the right half frame obtained by separating the frame of the input image data S1 to the image buffer 24 as the output image data S6. That is, the image buffer 24 is a right-eye buffer memory, and the image data of the left-eye frame extracted from the input image data S1 is sequentially stored in the image buffer 24.

さらに、画像出力部21Aは、Vsync信号S7を生成して、画像処理部30Aに出力する。Vsync信号S7は、入力画像データS1とともに入力される垂直同期信号に基づいて、画像出力部21Aが生成した垂直同期信号である。入力画像データS1がサイドバイサイド形式の画像データである場合、画像出力部21Aによって各フレームが分離されたことでフレーム数が2倍となるので、全てのフレームを表示するために垂直同期周波数が2倍にされる。画像出力部21Aは、入力画像データS1の垂直同期周波数の2倍の周波数を有するVsync信号S7を生成し、画像処理部30Aが有するアドレス選択部35に出力する。   Further, the image output unit 21A generates a Vsync signal S7 and outputs it to the image processing unit 30A. The Vsync signal S7 is a vertical synchronization signal generated by the image output unit 21A based on the vertical synchronization signal input together with the input image data S1. When the input image data S1 is image data in the side-by-side format, the number of frames is doubled because each frame is separated by the image output unit 21A. Therefore, the vertical synchronization frequency is doubled to display all the frames. To be. The image output unit 21A generates a Vsync signal S7 having a frequency twice the vertical synchronization frequency of the input image data S1, and outputs the Vsync signal S7 to the address selection unit 35 included in the image processing unit 30A.

画像処理部30Aは、画像処理部30(図2)に代えて設けられたものである。画像処理部30Aは、画像処理部30と同様にアドレス選択部35、レジスター36、37の各部を備えるほか、合成処理部31と同様に画像データにOSD画像データ10A、10Bを合成する2つの合成処理部32、33を備えている。合成処理部32は、画像バッファー22に格納された左目用の画像データにOSD画像データ10Aを合成する処理を行う。一方、合成処理部34は、画像バッファー24に格納された右目用の画像データにOSD画像データ10Bを合成する処理を行う。   The image processing unit 30A is provided in place of the image processing unit 30 (FIG. 2). Similar to the image processing unit 30, the image processing unit 30 A includes the address selection unit 35 and the registers 36 and 37, and similarly to the synthesis processing unit 31, the image processing unit 30 A combines two OSD image data 10 A and 10 B with image data. Processing units 32 and 33 are provided. The composition processing unit 32 performs processing for compositing the OSD image data 10 </ b> A with the image data for the left eye stored in the image buffer 22. On the other hand, the composition processing unit 34 performs processing for compositing the OSD image data 10 </ b> B with the image data for the right eye stored in the image buffer 24.

アドレス選択部35は、合成処理部32、34の各々に対し、読出開始アドレスを指定する。すなわち、アドレス選択部35は、レジスター36から左目用のフレームに合成されるOSD画像データ10Aが格納されたアドレスを読み出し、合成処理部32に対して読出開始アドレスとして指定する。同様に、アドレス選択部35は、レジスター37から右目用のフレームに合成されるOSD画像データ10Bが格納されたアドレスを読み出し、このアドレスを読出開始アドレスとして合成処理部34に対して指定する。   The address selection unit 35 designates a read start address for each of the synthesis processing units 32 and 34. That is, the address selection unit 35 reads the address where the OSD image data 10A to be combined with the left-eye frame is stored from the register 36, and designates it as the reading start address to the combination processing unit 32. Similarly, the address selection unit 35 reads the address where the OSD image data 10B to be combined with the frame for the right eye is stored from the register 37, and designates this address to the combination processing unit 34 as a read start address.

この構成により、表示処理部15Aは、制御部10の制御に従って以下の動作を実行する。まず、画像出力部21Aによって、入力画像データS1から左目用のフレームの画像データである出力画像データS5と右目用のフレームの画像データである出力画像データS6とを生成する。出力画像データS5は画像バッファー22に順次格納され、出力画像データS6は画像バッファー24に順次格納される。
一方、アドレス選択部35は、合成処理部32、34に対して、それぞれレジスター36、37から読み出したアドレスを読出開始アドレスとして指定する。合成処理部32、34は、アドレス選択部35により指定された読出開始アドレスをバッファー制御部29に対して指定し、OSD画像データの読み出しを要求する。OSD読出部25は、バッファー制御部29に対して指定されたアドレスからデータを読み出して、OSD画像バッファー27に格納する。
With this configuration, the display processing unit 15 </ b> A performs the following operation under the control of the control unit 10. First, the image output unit 21A generates output image data S5 that is image data of the left-eye frame and output image data S6 that is image data of the right-eye frame from the input image data S1. The output image data S5 is sequentially stored in the image buffer 22, and the output image data S6 is sequentially stored in the image buffer 24.
On the other hand, the address selection unit 35 designates the addresses read from the registers 36 and 37 to the synthesis processing units 32 and 34 as read start addresses, respectively. The synthesizing processing units 32 and 34 specify the reading start address specified by the address selection unit 35 to the buffer control unit 29 and request reading of OSD image data. The OSD reading unit 25 reads data from the address designated to the buffer control unit 29 and stores it in the OSD image buffer 27.

ここで、合成処理部32、34が同時にバッファー制御部29からデータを取得することはできないので、合成処理部32、34は交互にバッファー制御部29に対して読み出しを要求する。OSD読出部25は、バッファー制御部29に対して要求されたアドレスからの読み出しを、順次実行する。バッファー制御部29は、OSD読出部25からOSD画像バッファー27に出力されたOSD画像データ10AまたはOSD画像データ10Bを、合成処理部32、34に順に出力する。
合成処理部32は、アドレス選択部35により指定されたアドレスを指定して、バッファー制御部29に読み出しを要求し、この要求に応じて入力されるOSD画像データ10Aを取得する。合成処理部34は、アドレス選択部35により指定されたアドレスを指定して、バッファー制御部29に読み出しを要求し、この要求に応じて入力されるOSD画像データ10Bを取得する。
Here, since the synthesis processing units 32 and 34 cannot acquire data from the buffer control unit 29 at the same time, the synthesis processing units 32 and 34 alternately request the buffer control unit 29 to read. The OSD reading unit 25 sequentially executes reading from addresses requested to the buffer control unit 29. The buffer control unit 29 sequentially outputs the OSD image data 10 </ b> A or the OSD image data 10 </ b> B output from the OSD reading unit 25 to the OSD image buffer 27 to the synthesis processing units 32 and 34.
The composition processing unit 32 designates the address designated by the address selection unit 35, requests the buffer control unit 29 to read, and acquires the OSD image data 10A input in response to this request. The composition processing unit 34 designates the address designated by the address selection unit 35, requests the buffer control unit 29 to read, and acquires the OSD image data 10B input in response to this request.

合成処理部32、34は、画像バッファー22、24から取得した画像データの解像度を変換する処理を行う。すなわち、画像バッファー22、24から取得された画像データは入力画像データS1のフレームを半分にしたものであるから、横(水平)方向の解像度が半分になっている。そこで、合成処理部32、34は、OSD画像データ10A、10Bと合成する前に、画像バッファー22、24から取得した画像データの水平方向の解像度が2倍になるように、画素の補間等により解像度を変換する処理を行う。この処理によって画像バッファー22、24から取得した画像データが水平方向に拡大されて、本来のアスペクト比の画像データとなる。
また、OSD画像データ10A、10Bが、拡大された画像データのサイズに合わせて用意された画像データである場合には、合成処理部32、34が画像データを拡大してからOSD画像データ10A、10Bを合成する処理を行うことが望ましい。
The composition processing units 32 and 34 perform processing for converting the resolution of the image data acquired from the image buffers 22 and 24. That is, since the image data acquired from the image buffers 22 and 24 is obtained by halving the frame of the input image data S1, the resolution in the horizontal (horizontal) direction is halved. Therefore, the synthesis processing units 32 and 34 perform pixel interpolation or the like so that the horizontal resolution of the image data acquired from the image buffers 22 and 24 is doubled before being synthesized with the OSD image data 10A and 10B. Performs resolution conversion processing. By this processing, the image data acquired from the image buffers 22 and 24 is expanded in the horizontal direction to become image data having an original aspect ratio.
If the OSD image data 10A and 10B are image data prepared in accordance with the size of the enlarged image data, the OSD image data 10A, It is desirable to perform processing to synthesize 10B.

そして、合成処理部32は、拡大した画像データにOSD画像データ10Aを配置して合成する処理を行う。また、合成処理部34は、拡大した画像データにOSD画像データ10Bを配置して合成する処理を行う。
合成処理部32、34により合成された画像データは、合成処理部32、34から交互に出力される。このため、画像処理部30Aは、左目用のフレームの画像データと右目用のフレームの画像データとを、表示画像データS8として交互に出力する。これにより、表示処理部15Aを備えたプロジェクター1は、上記第1の実施形態で説明した例と同様に、立体画像にOSD画像を重畳して、スクリーンSCに表示できる。
Then, the composition processing unit 32 performs processing for arranging the OSD image data 10A on the enlarged image data and compositing. Further, the composition processing unit 34 performs processing for arranging the OSD image data 10B on the enlarged image data and compositing.
The image data synthesized by the synthesis processing units 32 and 34 are alternately output from the synthesis processing units 32 and 34. Therefore, the image processing unit 30A alternately outputs the image data of the left eye frame and the image data of the right eye frame as display image data S8. Thereby, the projector 1 provided with the display processing unit 15A can superimpose the OSD image on the stereoscopic image and display it on the screen SC, similarly to the example described in the first embodiment.

このように、本発明を適用した第2の実施形態によれば、プロジェクター1は、サイドバイサイド形式の画像データが入力画像データS1として入力された場合に、この入力画像データS1から左目用のフレームの画像データと右目用のフレームの画像データとを生成し、各画像データに、OSD画像記憶領域11Aから読み出したOSD画像データ10A、10Bを合成してスクリーンSCに表示できる。従って、第1の実施形態と同様に、OSD画像データ10A、10Bを合成する処理を速やかに実行できる。
さらに、図7に示した構成では、左目用のフレームの画像データを合成処理部32により処理し、右目用のフレームの画像データを合成処理部34によって処理するので、より高速に合成処理を行うことが可能である。このため、サイドバイサイド形式の画像が入力され、入力画像データS1のフレームを分離する処理や解像度変換の処理を要する場合であっても、表示の遅延を抑え、スムーズに画像をスクリーンSCに表示できる。また、高速で入力画像データS1を処理できることから、垂直同期周波数を2倍に高める倍速駆動や4倍に高める4倍速駆動等を行う場合にも対応可能であり、より高品質の画像をスクリーンSCに表示できる。
As described above, according to the second embodiment to which the present invention is applied, when side-by-side format image data is input as the input image data S1, the projector 1 generates a frame for the left eye from the input image data S1. Image data and right-eye frame image data can be generated, and the OSD image data 10A and 10B read from the OSD image storage area 11A can be combined with each image data and displayed on the screen SC. Therefore, similarly to the first embodiment, the process of combining the OSD image data 10A and 10B can be quickly executed.
Further, in the configuration shown in FIG. 7, the image data of the left-eye frame is processed by the synthesis processing unit 32, and the image data of the right-eye frame is processed by the synthesis processing unit 34, so that the synthesis process is performed at a higher speed. It is possible. For this reason, even when a side-by-side image is input and processing for separating the frames of the input image data S1 or resolution conversion is required, display delay can be suppressed and the image can be smoothly displayed on the screen SC. In addition, since the input image data S1 can be processed at high speed, it is possible to cope with the case of performing double speed driving that doubles the vertical synchronization frequency, quadruple speed driving that increases the quadruple frequency, etc. Can be displayed.

[第3の実施形態]
図8は、本発明を適用した第3の実施形態に係る表示処理部15Bの構成を示す機能ブロック図である。
この第3の実施形態では、画像供給装置(図示略)から入力される入力画像データS1が、サイドバイサイド形式の立体画像データである場合を例に挙げて説明する。なお、この第3の実施形態の構成は、入力画像データS1がトップアンドボトム形式の立体画像である場合にも容易に適用可能である。
[Third Embodiment]
FIG. 8 is a functional block diagram showing the configuration of the display processing unit 15B according to the third embodiment to which the present invention is applied.
In the third embodiment, a case in which input image data S1 input from an image supply device (not shown) is side-by-side stereoscopic image data will be described as an example. Note that the configuration of the third embodiment can be easily applied even when the input image data S1 is a top-and-bottom stereoscopic image.

図8に示す表示処理部15Bは、図1に示した表示処理部15に代えて、プロジェクター1を構成する。なお、本第3の実施形態において、第1及び第2の実施形態と同様に構成される各部については同符号を付して説明を省略する。
表示処理部15Bは、画像出力部21(図2)に代えて画像出力部21Bを備えている。画像出力部21Bは、画像出力部21A(図7)と同様に、入力画像データS1を構成する各フレームを分割して、左目用のフレームの画像データと右目用のフレームの画像データをとを生成する機能を有する。画像出力部21Bは、入力画像データS1のフレームを分離した左半分のフレームと、入力画像データS1のフレームを分離した右半分のフレームとを、交互に出力画像データS9として拡大処理部26に出力する。
A display processing unit 15B illustrated in FIG. 8 constitutes the projector 1 instead of the display processing unit 15 illustrated in FIG. In the third embodiment, the same components as those in the first and second embodiments are denoted by the same reference numerals and description thereof is omitted.
The display processing unit 15B includes an image output unit 21B instead of the image output unit 21 (FIG. 2). Similarly to the image output unit 21A (FIG. 7), the image output unit 21B divides each frame constituting the input image data S1, and obtains the image data of the left eye frame and the image data of the right eye frame. It has a function to generate. The image output unit 21B alternately outputs the left half frame obtained by separating the frame of the input image data S1 and the right half frame obtained by separation of the frame of the input image data S1 to the enlargement processing unit 26 as output image data S9. To do.

さらに、画像出力部21Bは、Vsync信号S7を生成して、画像処理部30Aに出力する。Vsync信号S7は画像出力部21Aが生成した垂直同期信号であり、サイドバイサイド形式の画像データを分離したことに合わせて、入力画像データS1の垂直同期周波数に比べて2倍の垂直同期周波数となっている。画像出力部21Bは、Vsync信号S7を生成し、拡大処理部26に出力中の画像データが左目用のフレームであるか右目用のフレームであるかを示す左右識別信号S4とともに、画像処理部30に出力する。   Further, the image output unit 21B generates a Vsync signal S7 and outputs it to the image processing unit 30A. The Vsync signal S7 is a vertical synchronization signal generated by the image output unit 21A. In accordance with the separation of the side-by-side image data, the Vsync signal S7 has a vertical synchronization frequency twice that of the input image data S1. Yes. The image output unit 21B generates a Vsync signal S7, and the left and right identification signal S4 indicating whether the image data being output to the enlargement processing unit 26 is a left-eye frame or a right-eye frame, and the image processing unit 30. Output to.

拡大処理部26は、画像出力部21Bが出力した出力画像データS9に含まれる各フレームの画像データの解像度を変換する処理を行う。画像出力部21Bが出力する画像データは入力画像データS1のフレームを半分にしたものであるため、拡大処理部26は、この画像データの水平方向の解像度が2倍になるように、画素の補間等により解像度を変換する処理を行う。処理後の画像データは入力画像データS1と同じ解像度を有する画像データとなり、出力画像データS11として画像バッファー23に出力される。
画像バッファー23は、拡大処理部26から入力される出力画像データS11を一時的に格納する。
The enlargement processing unit 26 performs a process of converting the resolution of the image data of each frame included in the output image data S9 output by the image output unit 21B. Since the image data output from the image output unit 21B is obtained by halving the frame of the input image data S1, the enlargement processing unit 26 interpolates the pixels so that the horizontal resolution of the image data is doubled. A process for converting the resolution is performed. The processed image data becomes image data having the same resolution as the input image data S1, and is output to the image buffer 23 as output image data S11.
The image buffer 23 temporarily stores the output image data S11 input from the enlargement processing unit 26.

画像処理部30は、上記第1の実施形態で説明したものである。画像処理部30は、合成処理部31、アドレス選択部35、及びレジスター36、37の各部を備え、画像バッファー23に格納された出力画像データS11をフレーム毎に取得して、OSD画像データ10A、10Bを重畳して合成する処理を行い、表示画像データS8として光変調装置駆動部17に出力する。   The image processing unit 30 has been described in the first embodiment. The image processing unit 30 includes a compositing processing unit 31, an address selection unit 35, and registers 36 and 37. The image processing unit 30 acquires the output image data S11 stored in the image buffer 23 for each frame, and obtains OSD image data 10A, Processing to superimpose 10B is performed and output to the light modulator driving unit 17 as display image data S8.

このように、本発明を適用した第3の実施形態によれば、プロジェクター1は、サイドバイサイド形式の画像データが入力画像データS1として入力された場合に、この入力画像データS1から左目用のフレームの画像データと右目用のフレームの画像データとを生成し、各画像データにOSD画像記憶領域11Aに記憶したOSD画像データ10A、10Bをそれぞれ合成してスクリーンSCに表示できる。従って、第1の実施形態と同様に、OSD画像データ10A、10Bを合成する処理を速やかに実行できる。   As described above, according to the third embodiment to which the present invention is applied, when side-by-side image data is input as the input image data S1, the projector 1 generates a left-eye frame from the input image data S1. Image data and right-eye frame image data can be generated, and the OSD image data 10A and 10B stored in the OSD image storage area 11A can be combined with each image data and displayed on the screen SC. Therefore, similarly to the first embodiment, the process of combining the OSD image data 10A and 10B can be quickly executed.

さらに、図8に示した構成では、入力画像データS1に基づいて生成した左目用のフレームと右目用のフレームに対し、拡大処理部26によって解像度を拡大する処理を行う。このため、拡大処理部26が出力する出力画像データS11は、フレームシーケンシャル形式の立体画像データの各フレームと同様に処理することができる。従って、1つの合成処理部31を有する画像処理部30を用いて、サイドバイサイド形式の入力画像データS1にOSD画像データ10A、10Bを重畳して、スクリーンSCに表示できる。   Further, in the configuration shown in FIG. 8, the enlargement processing unit 26 performs a process of enlarging the resolution on the left-eye frame and the right-eye frame generated based on the input image data S1. Therefore, the output image data S11 output by the enlargement processing unit 26 can be processed in the same manner as each frame of stereoscopic image data in the frame sequential format. Accordingly, the OSD image data 10A and 10B can be superimposed on the input image data S1 in the side-by-side format and displayed on the screen SC by using the image processing unit 30 having one composition processing unit 31.

[第4の実施形態]
図9は、本発明を適用した第4の実施形態に係る表示処理部15Cの構成を示す機能ブロック図である。
この第4の実施形態では、画像供給装置(図示略)から入力される入力画像データS1がフレームシーケンシャル形式の立体画像データである場合を例に挙げて説明する。
[Fourth Embodiment]
FIG. 9 is a functional block diagram showing a configuration of a display processing unit 15C according to the fourth embodiment to which the present invention is applied.
In the fourth embodiment, a case where the input image data S1 input from an image supply device (not shown) is stereoscopic image data in a frame sequential format will be described as an example.

図9に示す表示処理部15Cは、図1に示した表示処理部15に代えて、プロジェクター1を構成する。なお、本第4の実施形態において、上述した第1、第2及び第3の実施形態と同様に構成される各部については同符号を付して説明を省略する。
表示処理部15Cは、図2に示した画像出力部21、画像バッファー23、OSD読出部25、OSD画像バッファー27、及びバッファー制御部29を備えている。
また、表示処理部15Cは、画像処理部30Aを備えている。画像処理部30Aは、2つの合成処理部32、34と、アドレス選択部35と、レジスター36、37とを備えて構成される。
本実施形態では、合成処理部32、34が、それぞれ画像バッファー23から画像データをフレーム毎に取得する。画像バッファー23には、画像出力部21から左目用のフレームの画像データと右目用のフレームの画像データとが交互に入力され、格納される。合成処理部32は、画像バッファー23から左目用のフレームの画像データを取得し、合成処理部34は画像バッファー23から右目用のフレームの画像データを取得するので、合成処理部32、34は交互に画像データを取得するといえる。
A display processing unit 15C illustrated in FIG. 9 constitutes the projector 1 instead of the display processing unit 15 illustrated in FIG. In the fourth embodiment, the same components as those in the first, second, and third embodiments described above are denoted by the same reference numerals and description thereof is omitted.
The display processing unit 15C includes the image output unit 21, the image buffer 23, the OSD reading unit 25, the OSD image buffer 27, and the buffer control unit 29 illustrated in FIG.
Further, the display processing unit 15C includes an image processing unit 30A. The image processing unit 30 </ b> A includes two synthesis processing units 32 and 34, an address selection unit 35, and registers 36 and 37.
In this embodiment, the composition processing units 32 and 34 acquire image data from the image buffer 23 for each frame. In the image buffer 23, the image data of the left-eye frame and the image data of the right-eye frame are alternately input from the image output unit 21 and stored. Since the composition processing unit 32 acquires the image data of the left eye frame from the image buffer 23, and the composition processing unit 34 acquires the image data of the right eye frame from the image buffer 23, the composition processing units 32 and 34 are alternately arranged. It can be said that image data is acquired.

合成処理部32、34は、バッファー制御部29によりOSD画像データ10A、10Bを取得し、画像バッファー23から取得した画像データにOSD画像データ10A、10Bを合成する。合成処理部32により合成された画像データと、合成処理部34により合成された画像データとは交互に出力されるので、表示画像データS8としては、左目用のフレームの画像データと右目用のフレームの画像データとが交互に出力される。この表示画像データS8に基づき、光変調装置駆動部17が光変調装置42を駆動することで、プロジェクター1は、上記第1の実施形態で説明した例と同様に、立体画像にOSD画像を重畳して、スクリーンSCに表示できる。   The synthesis processing units 32 and 34 acquire the OSD image data 10A and 10B by the buffer control unit 29, and combine the OSD image data 10A and 10B with the image data acquired from the image buffer 23. Since the image data synthesized by the synthesis processing unit 32 and the image data synthesized by the synthesis processing unit 34 are alternately output, the display image data S8 includes the left-eye frame image data and the right-eye frame. Are alternately output. Based on the display image data S8, the light modulation device driving unit 17 drives the light modulation device 42, so that the projector 1 superimposes the OSD image on the stereoscopic image as in the example described in the first embodiment. Can be displayed on the screen SC.

この図9に示す構成では、フレームシーケンシャル形式の立体画像データである入力画像データS1に対し、2つの合成処理部32、34によってOSD画像データ10A、10Bを合成する処理を行う。このため、画像データをフレームメモリーに描画・展開し、これに重畳してOSD画像データ10A、10Bを描画・展開する処理がボトルネックになることがない。
従って、垂直同期周波数を高める倍速駆動、4倍速駆動等を行う場合であっても全フレームにOSD画像データ10A、10Bを合成することが可能であり、より高品質の画像をスクリーンSCに表示できる。
In the configuration shown in FIG. 9, the OSD image data 10A and 10B are synthesized by the two synthesis processing units 32 and 34 with respect to the input image data S1 which is stereoscopic image data in the frame sequential format. Therefore, the process of drawing / developing the image data in the frame memory and superimposing the image data on the OSD image data 10A, 10B is not a bottleneck.
Therefore, it is possible to synthesize the OSD image data 10A and 10B for all frames even when double speed driving, quadruple speed driving, or the like for increasing the vertical synchronization frequency is performed, and a higher quality image can be displayed on the screen SC. .

さらに、図9に示した構成において、合成処理部32、34の一方のみを使用して、第1の実施形態で説明した動作を実行させることも可能である。この場合、例えば合成処理部32が、合成処理部31(図2)と同様に、画像バッファー23に格納された全てのフレームの画像データに対してOSD画像データ10A、10Bを順次合成する処理を行う。この場合、アドレス選択部35は、レジスター36、37から読み出した情報に基づいて、OSD画像データ10A、10Bの読出開始アドレスを、合成処理部32に連続して出力する。
そして、プロジェクター1が倍速駆動や4倍速駆動を行う場合など、OSD画像データ10A、10Bを合成する処理を特に高速に実行する必要が生じた場合に、合成処理部32、34の両方を用いることができる。この場合、上述のように、左目用のフレームの画像データにOSD画像データ10Aを合成する処理と、右目用のフレームの画像データにOSD画像データ10Bを合成する処理とを、別の合成処理部32、34により処理することができる。
Furthermore, in the configuration shown in FIG. 9, it is possible to execute the operation described in the first embodiment using only one of the synthesis processing units 32 and 34. In this case, for example, the synthesis processing unit 32 performs a process of sequentially synthesizing the OSD image data 10A and 10B with the image data of all the frames stored in the image buffer 23, similarly to the synthesis processing unit 31 (FIG. 2). Do. In this case, the address selection unit 35 continuously outputs the reading start addresses of the OSD image data 10A and 10B to the synthesis processing unit 32 based on the information read from the registers 36 and 37.
Then, when it is necessary to execute the processing for combining the OSD image data 10A and 10B at a particularly high speed, such as when the projector 1 performs double speed driving or quadruple speed driving, both the combining processing units 32 and 34 are used. Can do. In this case, as described above, the process of combining the OSD image data 10A with the image data of the left-eye frame and the process of combining the OSD image data 10B with the image data of the right-eye frame are separated from each other. 32, 34 can be processed.

さらに、合成処理部32、34の一方のみを使用してOSD画像データ10A、10Bを合成する動作モードと、合成処理部32、34の両方を使用してOSD画像データ10A、10Bを合成する動作モードとを、制御部10の制御により切り替える構成としてもよい。この場合、制御部10は、プロジェクター1が倍速駆動や4倍速駆動を行う場合など、OSD画像データ10A、10Bを合成する処理を特に高速に実行する必要があるか否かに応じて、動作モードを切り替えてもよい。また、制御部10は、OSD画像データ10A、10Bのサイズや入力画像データS1の解像度により、OSD画像データ10A、10Bを合成する処理の負荷が高いか否かを判定し、この判定結果に応じて、動作モードを切り替える構成としてもよい。   Furthermore, the operation mode for combining the OSD image data 10A and 10B using only one of the combination processing units 32 and 34, and the operation for combining the OSD image data 10A and 10B using both the combination processing units 32 and 34. It is good also as a structure which switches a mode by control of the control part 10. FIG. In this case, the control unit 10 operates according to whether or not the process of combining the OSD image data 10A and 10B needs to be executed at a particularly high speed, such as when the projector 1 performs double speed driving or quadruple speed driving. May be switched. Further, the control unit 10 determines whether or not the processing load for combining the OSD image data 10A and 10B is high depending on the size of the OSD image data 10A and 10B and the resolution of the input image data S1, and according to the determination result. The operation mode may be switched.

なお、上述した各実施形態は本発明を適用した具体的態様の例に過ぎず、本発明を限定するものではなく、上記の各実施形態とは異なる態様として本発明を適用することも可能である。また、上記各実施形態では、表示部40が備える光変調装置42が、光源が発した光を変調する変調手段としてRGBの各色に対応した3枚の透過型または反射型の光変調装置42を用いた構成を例に挙げて説明したが、本発明はこれに限定されるものではなく、例えば、1枚の液晶パネルとカラーホイールを組み合わせた方式、3枚のデジタルミラーデバイス(DMD)を用いた方式、1枚のデジタルミラーデバイスとカラーホイールを組み合わせたDMD方式等により構成してもよい。ここで、変調手段として1枚のみの液晶パネルまたはDMDを用いる場合には、クロスダイクロイックプリズム等の合成光学系に相当する部材は不要である。また、液晶パネル及びDMD以外にも、光源が発した光を変調可能な構成であれば問題なく採用できる。
また、上記各実施形態においては、入力画像データS1がフレームシーケンシャル方式或いはサイドバイサイド形式の立体画像である場合を例に挙げて説明したが、本発明はこれに限定されない。例えば、ラインオルタナティブ形式やトップアンドボトム形式等の立体画像データが入力画像データS1として入力される場合も本発明を適用することが可能である。
Each of the above-described embodiments is merely an example of a specific mode to which the present invention is applied, and does not limit the present invention. The present invention can also be applied as a mode different from each of the above-described embodiments. is there. In each of the above embodiments, the light modulation device 42 included in the display unit 40 includes three transmission type or reflection type light modulation devices 42 corresponding to each color of RGB as modulation means for modulating light emitted from the light source. The configuration used is described as an example, but the present invention is not limited to this. For example, a method using a combination of one liquid crystal panel and a color wheel, and three digital mirror devices (DMD) are used. Alternatively, a DMD method combining a single digital mirror device and a color wheel may be used. Here, when only one liquid crystal panel or DMD is used as the modulation means, a member corresponding to a synthetic optical system such as a cross dichroic prism is unnecessary. In addition to the liquid crystal panel and the DMD, any configuration that can modulate the light emitted from the light source can be used without any problem.
In each of the above embodiments, the case where the input image data S1 is a frame sequential or side-by-side stereoscopic image has been described as an example, but the present invention is not limited to this. For example, the present invention can also be applied when stereoscopic image data in a line alternative format, a top-and-bottom format, or the like is input as the input image data S1.

また、本発明の表示装置は、スクリーンSCに映像を投射するプロジェクターに限定されず、液晶表示パネルに画像/映像を表示する液晶モニターまたは液晶テレビ、或いは、PDP(プラズマディスプレイパネル)に画像/映像を表示するモニター装置またはテレビ受像機、OLED(Organic light−emitting diode)、OEL(Organic Electro−Luminescence)等と呼ばれる有機EL表示パネルに画像/映像を表示するモニター装置またはテレビ受像機等の自発光型の表示装置など、各種の表示装置も本発明の画像表示装置に含まれる。この場合、液晶表示パネル、プラズマディスプレイパネル、有機EL表示パネルが表示手段に相当する。   The display device of the present invention is not limited to a projector that projects an image on the screen SC, and the image / video is displayed on a liquid crystal monitor or a liquid crystal television that displays an image / video on a liquid crystal display panel, or a plasma display panel (PDP). Self-luminous such as a monitor device or a television receiver for displaying an image / video on an organic EL display panel called a monitor device or a television receiver, an OLED (Organic light-emitting diode), an OEL (Organic Electro-Luminescence), etc. Various display devices such as a type display device are also included in the image display device of the present invention. In this case, a liquid crystal display panel, a plasma display panel, and an organic EL display panel correspond to the display means.

また、図1、図2、図7〜図9の各図に示したプロジェクター1の各機能部は、プロジェクター1の機能的構成を示すものであって、具体的な実装形態は特に制限されない。つまり、必ずしも各機能部に個別に対応するハードウェアが実装される必要はなく、一つのプロセッサーがプログラムを実行することで複数の機能部の機能を実現する構成とすることも勿論可能である。また、上記実施形態においてソフトウェアで実現されている機能の一部をハードウェアで実現してもよく、あるいは、ハードウェアで実現されている機能の一部をソフトウェアで実現してもよい。その他、プロジェクター1の具体的な細部構成についても、本発明の趣旨を逸脱しない範囲で任意に変更可能である。   In addition, each functional unit of the projector 1 illustrated in each of FIGS. 1, 2, and 7 to 9 indicates a functional configuration of the projector 1, and a specific mounting form is not particularly limited. That is, it is not always necessary to mount hardware corresponding to each function unit individually, and it is of course possible to adopt a configuration in which the functions of a plurality of function units are realized by one processor executing a program. In addition, in the above embodiment, a part of the function realized by software may be realized by hardware, or a part of the function realized by hardware may be realized by software. In addition, the specific detailed configuration of the projector 1 can be arbitrarily changed without departing from the gist of the present invention.

1…プロジェクター(表示装置)、10…制御部(別画像管理手段)、10A、10B…OSD画像データ(別画像データ)、11…RAM、11A…OSD画像記憶領域(メモリー)、12…不揮発性記憶部(不揮発性メモリー)、15、15A〜15C…表示処理部(画像処理手段)、21、21A、21B…画像出力部(画像出力手段)、22、23、24…画像バッファー(バッファー)、25…OSD読出部、26…拡大処理部、27…OSD画像バッファー、29…バッファー制御部、30、30A…画像処理部(画像処理手段)、31、32、34…合成処理部(合成処理手段)、35…アドレス選択部(読出制御手段)、36、37…レジスター、40…表示部(表示手段)、41…照明光学系、42…光変調装置、43…投射光学系、SC…スクリーン。   DESCRIPTION OF SYMBOLS 1 ... Projector (display apparatus), 10 ... Control part (separate image management means), 10A, 10B ... OSD image data (separate image data), 11 ... RAM, 11A ... OSD image storage area (memory), 12 ... Non-volatile Storage unit (non-volatile memory), 15, 15A to 15C ... display processing unit (image processing unit), 21, 21A, 21B ... image output unit (image output unit), 22, 23, 24 ... image buffer (buffer), 25 ... OSD reading unit, 26 ... enlargement processing unit, 27 ... OSD image buffer, 29 ... buffer control unit, 30, 30A ... image processing unit (image processing unit), 31, 32, 34 ... synthesis processing unit (compositing processing unit) , 35... Address selection section (reading control means), 36, 37... Register, 40... Display section (display means), 41. Shako science-based, SC ... screen.

Claims (6)

入力画像データに基づいて、左目用画像及び右目用画像を含む立体画像を表示する表示装置であって、
前記入力画像データに基づいて左目用画像の画像データと右目用画像の画像データとを出力する画像出力手段と、
前記入力画像データとは別の画像データである左目用の別画像データと、右目用の別画像データとを記憶したメモリーと、
前記画像出力手段により出力される画像データに、前記メモリーに記憶された左目用の前記別画像データまたは右目用の前記別画像データを合成する画像処理手段と、
前記画像処理手段により合成された画像データに基づいて画像を表示する表示手段と、を備え、
前記画像処理手段は、
取得した画像データが左目用画像の画像データであった場合に、前記メモリーにおいて左目用の前記別画像データが記憶されたアドレスを指定し、取得した画像データが右目用画像の画像データであった場合に、前記メモリーにおいて右目用の前記別画像データが記憶されたアドレスを指定する読出制御手段と、
前記読出制御手段により指定されたアドレスから前記別画像データを読み出して、取得した画像データと合成する処理を行う合成処理手段と、を備えたこと、
を特徴とする表示装置。
A display device that displays a stereoscopic image including a left-eye image and a right-eye image based on input image data,
Image output means for outputting the image data of the left-eye image and the image data of the right-eye image based on the input image data;
A memory storing different image data for the left eye, which is image data different from the input image data, and different image data for the right eye;
Image processing means for combining the separate image data for the left eye or the separate image data for the right eye stored in the memory with the image data output by the image output means;
Display means for displaying an image based on the image data synthesized by the image processing means,
The image processing means includes
When the acquired image data is the image data of the image for the left eye, the address where the separate image data for the left eye is stored in the memory is specified, and the acquired image data is the image data of the image for the right eye A read control means for designating an address at which the separate image data for the right eye is stored in the memory;
Synthesis processing means for performing processing for reading out the separate image data from the address designated by the readout control means and synthesizing it with the acquired image data;
A display device.
請求項1記載の表示装置であって、
前記メモリーは揮発性のメモリーで構成され、
それぞれ左目用の前記別画像データと右目用の前記別画像データとを含む複数の前記別画像データを記憶した不揮発性メモリーと、
前記不揮発性メモリーから表示対象の前記別画像データを読み出して、読み出した前記別画像データに含まれる左目用の前記別画像データを、前記メモリー内で左目用のデータに対応するアドレスに記憶させ、読み出した前記別画像データに含まれる右目用の前記別画像データを、前記メモリー内で右目用のデータに対応するアドレスに記憶させる別画像管理手段と、
を備えたことを特徴とする表示装置。
The display device according to claim 1,
The memory is composed of volatile memory,
A non-volatile memory storing a plurality of the different image data each including the separate image data for the left eye and the separate image data for the right eye;
Reading the separate image data to be displayed from the non-volatile memory, storing the separate image data for the left eye included in the read separate image data at an address corresponding to the data for the left eye in the memory, Different image management means for storing the different image data for the right eye contained in the read different image data at an address corresponding to the data for the right eye in the memory;
A display device comprising:
請求項1または2記載の表示装置であって、
前記画像出力手段により出力された画像データを一時的に記憶するバッファーを備え、
前記画像処理手段は、前記バッファーから画像データを取得して前記別画像データを合成する処理を行い、
前記読出制御手段は、前記バッファーから取得した画像データが左目用画像の画像データか右目用画像の画像データかを判定して前記メモリーのアドレスを指定すること、
を特徴とする表示装置。
The display device according to claim 1, wherein
A buffer for temporarily storing the image data output by the image output means;
The image processing means performs processing for acquiring image data from the buffer and synthesizing the different image data,
The read control means determines whether the image data acquired from the buffer is image data of a left-eye image or right-eye image and designates an address of the memory;
A display device.
請求項3記載の表示装置であって、
前記画像出力手段は、左目用画像の画像データと右目用画像の画像データとを交互に出力し、出力中の画像データが左目用画像のデータであるか右目用画像のデータであるかを示す識別信号を出力し、
前記読出制御手段は、前記識別信号に基づいて前記バッファーから取得した画像データが左目用画像の画像データか右目用画像の画像データかを判定し、前記メモリーのアドレスを指定することを特徴とする表示装置。
The display device according to claim 3,
The image output means alternately outputs image data of the left eye image and image data of the right eye image, and indicates whether the image data being output is data of the left eye image or right eye image. Output identification signal,
The reading control unit determines whether the image data acquired from the buffer is image data of a left-eye image or right-eye image based on the identification signal, and designates an address of the memory. Display device.
請求項4記載の表示装置であって、
前記画像出力手段は、フレームシーケンシャル形式、ラインオルタナティブ形式またはサイドバイサイド形式の立体画像の画像データに基づき、左目用画像の画像データと右目用画像の画像データとを生成して交互に出力し、出力中の画像データが左目用画像のデータであるか右目用画像のデータであるかを示す識別信号を生成して出力することを特徴とする表示装置。
The display device according to claim 4,
The image output means generates and alternately outputs image data for the left eye image and image data for the right eye image based on the image data of the stereoscopic image in the frame sequential format, the line alternative format, or the side-by-side format, A display device that generates and outputs an identification signal indicating whether the image data is left-eye image data or right-eye image data.
入力画像データに基づいて、左目用画像及び右目用画像を含む立体画像を表示する表示装置の制御方法であって、
前記入力画像データに基づいて左目用画像の画像データと右目用画像の画像データとを出力し、
出力された画像データを取得し、
取得した画像データが左目用画像の画像データであった場合に、前記入力画像データとは別の画像データである別画像データが記憶されたメモリーにおいて左目用の前記別画像データが記憶されたアドレスを指定し、取得した画像データが右目用画像の画像データであった場合に、前記メモリーにおいて右目用の前記別画像データが記憶されたアドレスを指定し、
指定されたアドレスから別画像データを読み出して、取得した画像データと合成する処理を行い、
処理された左目用画像データ及び右目用画像データに基づいて画像を表示すること、
を特徴とする表示装置の制御方法。
A control method for a display device that displays a stereoscopic image including a left-eye image and a right-eye image based on input image data,
Based on the input image data, output the image data of the image for the left eye and the image data of the image for the right eye,
Get the output image data,
When the acquired image data is the image data of the image for the left eye, the address where the image data for the left eye is stored in the memory in which the image data different from the input image data is stored When the acquired image data is the image data of the right eye image, the address at which the separate image data for the right eye is stored in the memory is specified.
Read another image data from the specified address and combine it with the acquired image data.
Displaying an image based on the processed left-eye image data and right-eye image data;
A control method of a display device characterized by the above.
JP2012122797A 2012-05-30 2012-05-30 Display device and control method for the same Pending JP2013251592A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2012122797A JP2013251592A (en) 2012-05-30 2012-05-30 Display device and control method for the same

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2012122797A JP2013251592A (en) 2012-05-30 2012-05-30 Display device and control method for the same

Publications (1)

Publication Number Publication Date
JP2013251592A true JP2013251592A (en) 2013-12-12

Family

ID=49849918

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2012122797A Pending JP2013251592A (en) 2012-05-30 2012-05-30 Display device and control method for the same

Country Status (1)

Country Link
JP (1) JP2013251592A (en)

Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH08249493A (en) * 1995-03-09 1996-09-27 Sony Corp Stereoscopic video device
JP2011055148A (en) * 2009-08-31 2011-03-17 Toshiba Corp Video combining device, video display apparatus, and video combining method
JP2011114606A (en) * 2009-11-27 2011-06-09 Panasonic Corp Video signal processing apparatus and video signal processing method
JP2012015774A (en) * 2010-06-30 2012-01-19 Toshiba Corp Stereoscopic image processing device and stereoscopic image imaging method
JP2012023648A (en) * 2010-07-16 2012-02-02 Sony Corp Reproduction device, reproduction method, and program
JP2012029220A (en) * 2010-07-27 2012-02-09 Toshiba Corp Stereoscopic video output device and backlight control method
JP2012049987A (en) * 2010-08-30 2012-03-08 Toshiba Corp Stereoscopic glasses and stereoscopic video display system
JP2012083573A (en) * 2010-10-12 2012-04-26 Canon Inc Stereoscopic video processor and method for controlling the same

Patent Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH08249493A (en) * 1995-03-09 1996-09-27 Sony Corp Stereoscopic video device
JP2011055148A (en) * 2009-08-31 2011-03-17 Toshiba Corp Video combining device, video display apparatus, and video combining method
JP2011114606A (en) * 2009-11-27 2011-06-09 Panasonic Corp Video signal processing apparatus and video signal processing method
JP2012015774A (en) * 2010-06-30 2012-01-19 Toshiba Corp Stereoscopic image processing device and stereoscopic image imaging method
JP2012023648A (en) * 2010-07-16 2012-02-02 Sony Corp Reproduction device, reproduction method, and program
JP2012029220A (en) * 2010-07-27 2012-02-09 Toshiba Corp Stereoscopic video output device and backlight control method
JP2012049987A (en) * 2010-08-30 2012-03-08 Toshiba Corp Stereoscopic glasses and stereoscopic video display system
JP2012083573A (en) * 2010-10-12 2012-04-26 Canon Inc Stereoscopic video processor and method for controlling the same

Similar Documents

Publication Publication Date Title
US20080151040A1 (en) Three-dimensional image display apparatus and method and system for processing three-dimensional image signal
JP5740885B2 (en) Display device and display method
JP4827783B2 (en) Image display device
US10182201B2 (en) Image processing device, display device, and image processing method
JP2008209476A (en) Stereoscopic image display device
JP2019144447A (en) Image display unit and method for controlling image display unit
CN103139593A (en) Display apparatus and driving method thereof
US9131226B2 (en) Display device and control method for the display device
US9756276B2 (en) Display apparatus and method for controlling display apparatus
JP5786315B2 (en) Display device, display device control method, and program
JP2013050863A (en) Processor, and method for starting processor
US20120081513A1 (en) Multiple Parallax Image Receiver Apparatus
JP2013251592A (en) Display device and control method for the same
JP5789960B2 (en) Display device, display device control method, and program
JP2016184775A (en) Video processing device, display device, and video processing method
JP5549421B2 (en) Projection apparatus, projection method, and program
US10819942B2 (en) Image display apparatus, control method of image display apparatus, and program
JP2016161753A (en) Video processing device, display device, and video processing method
JP6040604B2 (en) Image output device, image output method, and display device
US8896615B2 (en) Image processing device, projector, and image processing method
JP5516199B2 (en) Image processing apparatus, image processing method, projection apparatus, and program
JP2012129711A (en) Display device and display device control method
JP2020068400A (en) Image output device, image display device and control method for image output device
JP4969684B2 (en) Image display device
JP5703794B2 (en) Stereoscopic image display apparatus and stereoscopic image display method

Legal Events

Date Code Title Description
RD04 Notification of resignation of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7424

Effective date: 20150108

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20150406

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20160212

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20160223

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20160420

RD04 Notification of resignation of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7424

Effective date: 20160610

RD03 Notification of appointment of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7423

Effective date: 20160617

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20160921

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20161116

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20170314