[go: up one dir, main page]

JP2013009160A - Electronic view finder and imaging apparatus using the same - Google Patents

Electronic view finder and imaging apparatus using the same Download PDF

Info

Publication number
JP2013009160A
JP2013009160A JP2011140569A JP2011140569A JP2013009160A JP 2013009160 A JP2013009160 A JP 2013009160A JP 2011140569 A JP2011140569 A JP 2011140569A JP 2011140569 A JP2011140569 A JP 2011140569A JP 2013009160 A JP2013009160 A JP 2013009160A
Authority
JP
Japan
Prior art keywords
image
image display
transmissive
predetermined number
display units
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Withdrawn
Application number
JP2011140569A
Other languages
Japanese (ja)
Inventor
Hiroyuki Koishi
裕之 小石
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nikon Corp
Original Assignee
Nikon Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nikon Corp filed Critical Nikon Corp
Priority to JP2011140569A priority Critical patent/JP2013009160A/en
Publication of JP2013009160A publication Critical patent/JP2013009160A/en
Withdrawn legal-status Critical Current

Links

Images

Landscapes

  • Focusing (AREA)
  • Viewfinders (AREA)
  • Indication In Cameras, And Counting Of Exposures (AREA)
  • Automatic Focus Adjustment (AREA)
  • Studio Devices (AREA)

Abstract

【課題】観察される画像において、3次元的な奥行き感を得る。
【解決手段】電子ビューファインダ2は、互いに重ね合わされた2以上の所定数の透過型画像表示部21〜23と、前記所定数の透過型画像表示部21〜23の後方から照明光を照射する照明部24と、前記所定数の透過型画像表示部21〜23のそれぞれの表示画像が重畳されてなる重畳画像を観察し得るように、前記所定数の透過型画像表示部21〜23を透過した光を導く接眼光学系20と、を備える。
【選択図】図1
A three-dimensional sense of depth is obtained in an observed image.
An electronic viewfinder (2) irradiates illumination light from behind a predetermined number of two or more transmissive image display units (21 to 23) superimposed on each other and the predetermined number of transmissive image display units (21 to 23). It transmits through the predetermined number of transmissive image display units 21 to 23 so that a superimposed image formed by superimposing display images of the illumination unit 24 and the predetermined number of transmissive image display units 21 to 23 can be observed. An eyepiece optical system 20 for guiding the emitted light.
[Selection] Figure 1

Description

本発明は、電子ビューファインダ及びこれを用いた撮像装置に関するものである。   The present invention relates to an electronic viewfinder and an imaging apparatus using the same.

下記特許文献1に開示された従来のカメラの電子ビューファインダでは、単一の画像表示部として反射型液晶が用いられ、前記反射型液晶により表示された画像が接眼光学系を通して観察者の目によって観察される。   In an electronic viewfinder of a conventional camera disclosed in Patent Document 1 below, a reflective liquid crystal is used as a single image display unit, and an image displayed by the reflective liquid crystal is observed by an observer's eyes through an eyepiece optical system. Observed.

特開2003−204455号公報JP 2003-204455 A

しかしながら、前記従来の電子ビューファインダでは、画像を表示するために単一の反射型液晶のみが用いられていたので、観察される画像は平面的であり、その画像では3次元的な奥行き感を得ることができなかった。   However, in the conventional electronic viewfinder, since only a single reflective liquid crystal is used to display an image, the observed image is planar, and the image has a three-dimensional sense of depth. Couldn't get.

これに対し、電子ビューファインダで観察される画像において3次元的な奥行き感が得ることができれば、観察者は、電子ビューファインダによる観察画像から被写体の各部の前後関係を把握し易くなり、より的確に被写体の状況を把握することができる。   On the other hand, if a three-dimensional sense of depth can be obtained in the image observed with the electronic viewfinder, it becomes easier for the observer to grasp the front-rear relationship of each part of the subject from the observation image obtained with the electronic viewfinder. It is possible to grasp the situation of the subject.

本発明は、このような事情に鑑みてなされたもので、観察される画像において3次元的な奥行き感を得ることができる電子ビューファインダ、及び、これを用いた撮像装置を提供することを目的とする。   The present invention has been made in view of such circumstances, and an object thereof is to provide an electronic viewfinder that can obtain a three-dimensional sense of depth in an observed image, and an imaging apparatus using the electronic viewfinder. And

前記課題を解決するための手段として、以下の各態様を提示する。第1の態様による電子ビューファインダは、互いに重ね合わされた2以上の所定数の透過型画像表示部と、前記所定数の透過型画像表示部の後方から照明光を照射する照明部と、前記所定数の透過型画像表示部のそれぞれの表示画像が重畳されてなる重畳画像を観察し得るように、前記所定数の透過型画像表示部を透過した光を導く接眼光学系と、を備えたものである。   The following aspects are presented as means for solving the problems. The electronic viewfinder according to the first aspect includes a predetermined number of two or more transmissive image display units superimposed on each other, an illumination unit that emits illumination light from behind the predetermined number of transmissive image display units, and the predetermined number An eyepiece optical system that guides light transmitted through the predetermined number of transmission type image display units so that a superimposed image formed by superimposing display images of a plurality of transmission type image display units can be observed It is.

第2の態様による撮像装置は、撮影レンズにより結像される被写体像を撮像する撮像素子と、前記第1の態様による電子ビューファインダと、前記撮像素子により撮像された被写体像に基づく各画像を前記所定数の透過型画像表示部にそれぞれ表示させる表示制御部と、を備えたものである。   An imaging device according to a second aspect includes an imaging element that captures a subject image formed by a photographing lens, an electronic viewfinder according to the first aspect, and each image based on the subject image captured by the imaging element. And a display control unit for displaying on each of the predetermined number of transmissive image display units.

第3の態様による撮像装置は、前記第2の態様において、被写体の各部の測距に基づく遠近又は被写体の各部の推定された遠近に応じて、前記被写体像の各部の領域を前記所定数のグループに分け、前記所定数のグループについて前記遠近の近い側から順番をつけ、前記所定数の透過型画像表示部について前記接眼光学系に光学的に近い側から順番をつけたとき、前記表示制御部は、前記各透過型画像表示部に、当該透過型画像表示部の順番と同じ順番のグループの領域の画像を表示させるものである。   The imaging device according to a third aspect is the imaging device according to the second aspect, wherein the predetermined number of regions of each part of the subject image is determined according to a distance based on distance measurement of each part of the subject or an estimated perspective of each part of the subject. The display control is performed when the predetermined number of groups are ordered from the near side of the perspective and the predetermined number of transmissive image display units are ordered from the side optically close to the eyepiece optical system. The unit causes each of the transmissive image display units to display an image of a group area in the same order as the order of the transmissive image display unit.

第4の態様による撮像装置は、前記第2の態様において、(i)被写体の各部の測距に基づく遠近又は被写体の各部の推定された遠近に応じて、前記被写体像の各部の領域を前記所定数のグループに分け、前記所定数のグループについて前記遠近の近い側から順番をつけ、前記所定数の透過型画像表示部について前記接眼光学系に光学的に近い側から順番をつけたとき、前記表示制御部は、前記所定数の透過型画像表示部のうちの少なくとも1つの透過型画像表示部に、当該透過型画像表示部の順番と同じ順番のグループの領域の画像に奥行き感強調処理を施した画像を表示させ、(ii)前記表示制御部は、前記所定数の透過型画像表示部のうちの他の透過型画像表示部に、当該透過型画像表示部の順番と同じ順番のグループの領域の画像又はこの画像に奥行き感強調処理を施した画像を表示させ、(iii)前記奥行き感強調処理は、前記接眼光学系を通して観察される前記重畳画像における奥行き感を高めるための処理であるものである。   The imaging device according to a fourth aspect is the imaging device according to the second aspect, in which the region of each part of the subject image is determined according to (i) perspective based on distance measurement of each part of the subject or estimated perspective of each part of the subject. Dividing into a predetermined number of groups, giving an order from the near side for the predetermined number of groups, and giving an order from the side optically close to the eyepiece optical system for the predetermined number of transmissive image display units, The display control unit performs depth emphasis processing on at least one transmissive image display unit of the predetermined number of transmissive image display units, and images in a group of regions in the same order as the order of the transmissive image display units. (Ii) the display control unit causes the other transmission type image display unit of the predetermined number of transmission type image display units to have the same order as that of the transmission type image display unit. An image of a group area or Images to display image subjected to the perceived depth enhancement processing, but is a process for increasing the depth feeling in (iii) the perceived depth enhancement processing, the superimposed image to be observed through the eyepiece optical system.

第5の態様による撮像装置は、前記第4の態様において、前記奥行き感強調処理は、当該画像の輝度を変更する処理を含むものである。   In the imaging device according to a fifth aspect, in the fourth aspect, the sense of depth emphasis process includes a process of changing the luminance of the image.

第6の態様による撮像装置は、前記第4又は第5の態様において、前記奥行き感強調処理は、当該画像のサイズを変更する処理を含むものである。   In the imaging device according to a sixth aspect, in the fourth or fifth aspect, the depth feeling enhancement process includes a process of changing the size of the image.

第7の態様による撮像装置は、前記第2の態様において、(i)被写体の各部の測距に基づく遠近又は被写体の各部の推定された遠近に応じて、前記被写体像の各部の領域を前記所定数のグループに分け、前記所定数のグループについて前記遠近の近い側から順番をつけ、前記所定数の透過型画像表示部について前記接眼光学系に光学的に近い側から順番をつけたとき、前記表示制御部は、前記所定数の透過型画像表示部のうちの少なくとも1つの透過型画像表示部に、当該透過型画像表示部の順番と同じ順番のグループの領域の画像とこの画像に対して位置ずれ又は視点ずれした画像とを交互に表示させ、(ii)前記表示制御部は、前記所定数の透過型画像表示部のうちの他の透過型画像表示部に、当該透過型画像表示部の順番と同じ順番のグループの領域の画像を静止的に表示させるか、あるいは、当該透過型画像表示部の順番と同じ順番のグループの領域の画像とこの画像に対して位置ずれ又は視点ずれした画像とを交互に表示させるものである。   The imaging device according to a seventh aspect is the imaging device according to the second aspect, wherein in the second aspect, (i) the area of each part of the subject image is determined according to the perspective based on the distance measurement of each part of the subject or the estimated perspective of each part of the subject. Dividing into a predetermined number of groups, giving an order from the near side for the predetermined number of groups, and giving an order from the side optically close to the eyepiece optical system for the predetermined number of transmissive image display units, The display control unit applies to at least one transmissive image display unit of the predetermined number of transmissive image display units an image of a group of regions in the same order as the order of the transmissive image display unit and the image. And (ii) the display control unit displays the transmissive image display on another transmissive image display unit of the predetermined number of transmissive image display units. In the same order as The image of the loop area is displayed statically, or the image of the group area in the same order as the order of the transmissive image display unit and the image whose position or viewpoint is shifted are displayed alternately. It is something to be made.

第8の態様による撮像装置は、前記第7の態様において、前記表示制御部は、前記所定数の透過型画像表示部のうち、前記所定数のグループのうちの前記撮影レンズによる前記被写体像における合焦位置を有する領域を含むグループの順番と同じ順番の透過型画像表示部に、当該グループの領域の画像を静止的に表示させるものである。   In the imaging device according to an eighth aspect, in the seventh aspect, the display control unit in the subject image by the photographing lens of the predetermined number of groups out of the predetermined number of transmissive image display units. The image of the area of the group is displayed statically on the transmission type image display unit in the same order as the order of the group including the area having the focus position.

本発明によれば、観察される画像において3次元的な奥行き感を得ることができる電子ビューファインダ、及び、これを用いた撮像装置を提供することができる。   According to the present invention, it is possible to provide an electronic viewfinder that can obtain a three-dimensional sense of depth in an observed image, and an imaging apparatus using the electronic viewfinder.

本発明の第1の実施の形態による電子カメラを模式的に示す概略断面図である。It is a schematic sectional drawing which shows typically the electronic camera by the 1st Embodiment of this invention. 図1に示す電子カメラを示す概略ブロック図である。It is a schematic block diagram which shows the electronic camera shown in FIG. 図1に示す電子カメラの電子ビューファインダに関する動作を示す概略フローチャートである。It is a schematic flowchart which shows the operation | movement regarding the electronic viewfinder of the electronic camera shown in FIG. 被写体の状況の例を模式的に示す図である。It is a figure which shows typically the example of the condition of a to-be-photographed object. 図1に示す電子カメラの撮像素子により撮像された画像の例を模式的に示す図である。It is a figure which shows typically the example of the image imaged with the image pick-up element of the electronic camera shown in FIG. 図1に示す電子カメラの電子ビューファインダの各透過型画像表示部の表示画像の例を模式的に示す図である。It is a figure which shows typically the example of the display image of each transmissive image display part of the electronic viewfinder of the electronic camera shown in FIG. 本発明の第2の実施の形態による電子カメラの電子ビューファインダに関する動作を示す概略フローチャートである。It is a schematic flowchart which shows the operation | movement regarding the electronic viewfinder of the electronic camera by the 2nd Embodiment of this invention. 本発明の第3の実施の形態による電子カメラの電子ビューファインダに関する動作を示す概略フローチャートである。It is a schematic flowchart which shows the operation | movement regarding the electronic viewfinder of the electronic camera by the 3rd Embodiment of this invention. 本発明の第4の実施の形態による電子カメラを模式的に示す概略断面図である。It is a schematic sectional drawing which shows typically the electronic camera by the 4th Embodiment of this invention. 図9に示す電子カメラの電子ビューファインダに関する動作を示す概略フローチャートである。10 is a schematic flowchart showing an operation related to an electronic viewfinder of the electronic camera shown in FIG. 9.

以下、本発明による電子ビューファインダ及びこれを用いた撮像装置について、図面を参照して説明電子ビューファインダする。   Hereinafter, an electronic viewfinder according to the present invention and an imaging apparatus using the electronic viewfinder will be described with reference to the drawings.

[第1の実施の形態]
図1は、本発明の第1の実施の形態による撮像装置としての電子カメラ1を模式的に示す概略断面図である。
[First Embodiment]
FIG. 1 is a schematic cross-sectional view schematically showing an electronic camera 1 as an imaging apparatus according to the first embodiment of the present invention.

本実施の形態による電子カメラ1は、いわゆるデジタルカメラとして構成されているが、本発明による撮像装置は、デジタルカメラのみならず、ビデオカメラなどの他の撮像装置や、携帯電話に搭載された撮像装置などの種々の撮像装置に適用することができる。また、本実施の形態による電子カメラ1は、本発明の一実施の形態による電子ビューファインダ2を備えている。もっとも、本発明による電子ビューファインダは、撮像装置のみならず、観察装置などの他の種々の装置に搭載してもよい。   The electronic camera 1 according to the present embodiment is configured as a so-called digital camera. However, the imaging apparatus according to the present invention is not limited to a digital camera, but other imaging apparatuses such as a video camera, and imaging mounted on a mobile phone. The present invention can be applied to various imaging devices such as a device. In addition, the electronic camera 1 according to the present embodiment includes an electronic viewfinder 2 according to an embodiment of the present invention. However, the electronic viewfinder according to the present invention may be mounted not only on the imaging apparatus but also on various other apparatuses such as an observation apparatus.

本実施の形態による電子カメラ1は、カメラボディ11の前方に、撮影レンズ12が装着されている。この撮影レンズ12は、交換可能であってもよいし、交換不能であってもよい。   In the electronic camera 1 according to the present embodiment, a photographing lens 12 is mounted in front of the camera body 11. The photographing lens 12 may be exchangeable or non-exchangeable.

撮影レンズ12の光軸上には、ハーフミラー13、シャッタ14及び撮像素子15が順に配置されている。ハーフミラー13を透過した光による被写体像が撮影レンズ12によって撮像素子15上に結像され、その被写体像が撮像素子15により撮像される。ハーフミラー13の反射方向には多点測距センサ16が配置されている。ハーフミラー13を反射した光による被写体像が撮影レンズ12によって多点測距センサ16上に結像される。多点測距センサ16は、撮像素子15の撮像領域に相当する領域の全体に渡り2次元状に多数分布した各測距点での被写体の各部までの測距情報を示す検出信号(測距信号)を出力する。多点測距センサ16としては、公知の多点測距センサを用いることができるが、測距点が多いほど好ましい。カメラボディ11の背面には、背面液晶パネル17が設けられている。なお、ハーフミラー13を可動に構成し、電子ビューファインダ2を使用時には、ハーフミラー13を図1に示す位置に移動させる一方で、本撮影時には、撮影レンズ12から撮像素子15へ向かう光路からハーフミラー13を退避するようにしてもよい。   On the optical axis of the photographing lens 12, a half mirror 13, a shutter 14, and an image sensor 15 are arranged in this order. A subject image by the light transmitted through the half mirror 13 is formed on the image sensor 15 by the photographing lens 12, and the subject image is captured by the image sensor 15. A multipoint ranging sensor 16 is arranged in the reflection direction of the half mirror 13. A subject image by light reflected from the half mirror 13 is formed on the multipoint distance sensor 16 by the photographing lens 12. The multi-point distance sensor 16 is a detection signal (ranging signal) indicating distance measurement information to each part of the subject at each distance measurement point distributed in a two-dimensional manner over the entire area corresponding to the imaging area of the image sensor 15. Signal). As the multipoint ranging sensor 16, a known multipoint ranging sensor can be used, but it is preferable that there are many ranging points. A rear liquid crystal panel 17 is provided on the back surface of the camera body 11. The half mirror 13 is configured to be movable, and when the electronic viewfinder 2 is used, the half mirror 13 is moved to the position shown in FIG. The mirror 13 may be retracted.

本実施の形態では、電子ビューファインダ2は、カメラボディ11の背面に配置され観察者がその片方の目100で覗く接眼窓18と、接眼窓18の内側に配置された接眼レンズ20と、カメラボディ11内において接眼レンズ20の光軸の延長上に設けられ画像を表示する表示部19とを備えている。   In the present embodiment, the electronic viewfinder 2 is arranged on the back surface of the camera body 11 so that an observer can look into the eye 100 with one eye 100, an eyepiece lens 20 disposed inside the eyepiece window 18, and a camera A display unit 19 is provided on the extension of the optical axis of the eyepiece 20 in the body 11 to display an image.

表示部19は、接眼レンズ20に光学的に近い(すなわち、光路に沿って近い)側から順に配置され互いに重ね合わされた3つの2次元状の透過型画像表示部21〜23と、これらの透過型画像表示部21〜23の後方から照明光を照射する照明部としてのバックライト24とを備えている。本実施の形態では、互いに重ね合わされる透過型画像表示部21〜23の数が3つとされているが、本発明では、その数は2つ以上の任意の数にすることができる。   The display unit 19 includes three two-dimensional transmissive image display units 21 to 23 that are arranged in order from the side optically close to the eyepiece lens 20 (that is, close to the optical path) and overlap each other. And a backlight 24 as an illumination unit that emits illumination light from the rear of the type image display units 21 to 23. In the present embodiment, the number of transmissive image display units 21 to 23 superimposed on each other is three, but in the present invention, the number can be any number of two or more.

本実施の形態では、各透過型画像表示部21〜23として透過型液晶表示素子が用いられているが、他の透過型空間光変調素子を用いてもよい。透過型液晶表示素子は、2枚の透明板の間に液晶層、配向膜、透明電極等を挟んだ構造を持つ。各透過型画像表示部21〜23として透過型液晶表示素子を用いる場合、通常の透過型液晶表示素子をそのまま用いて重ね合わせてもよいし、隣り合う2つの透過型液晶表示素子の一方の透明板を1枚の透明板で共用してもよい。   In this embodiment, transmissive liquid crystal display elements are used as the transmissive image display units 21 to 23, but other transmissive spatial light modulation elements may be used. The transmissive liquid crystal display element has a structure in which a liquid crystal layer, an alignment film, a transparent electrode, and the like are sandwiched between two transparent plates. When transmissive liquid crystal display elements are used as the transmissive image display sections 21 to 23, normal transmissive liquid crystal display elements may be used as they are, or may be superimposed on one of the adjacent transmissive liquid crystal display elements. You may share a board with one transparent board.

バックライト24は、エッジライト方式や直下型方式などのいずれの方式のバックライトでもよいし、光源も冷陰極管やLEDや有機EL素子等の平面光源素子などのいずれの光源を採用したバックライトでもよい。   The backlight 24 may be any type of backlight, such as an edge light type or a direct type, and the light source is a backlight that employs any light source such as a cold cathode tube or a flat light source element such as an LED or an organic EL element. But you can.

本実施の形態では、接眼レンズ20が、3つの透過型画像表示部21〜23のそれぞれの表示画像が重畳されてなる重畳画像を観察し得るように、透過型画像表示部21〜23を透過した光を観察者の片方の目100に導く接眼光学系を構成している。   In the present embodiment, the eyepiece 20 transmits through the transmissive image display units 21 to 23 so that the superimposed images formed by superimposing the display images of the three transmissive image display units 21 to 23 can be observed. The eyepiece optical system which guides the performed light to one eye 100 of the observer is configured.

図2は、本実施の形態による電子カメラ1を示す概略ブロック図である。撮影レンズ12は、レンズ制御部31によってフォーカスや絞りが駆動される。撮像素子15としては、例えば、CMOSイメージセンサやCCDイメージセンサなどが用いられる。撮像素子15は、撮像制御部32から出力される制御信号によって駆動され、信号を出力する。撮像素子15から出力される信号は、信号処理部33及びA/D変換部34を介して処理された後、メモリ35に一旦蓄積される。メモリ35は、バス36に接続される。バス36には、レンズ制御部31、撮像制御部32、マイクロプロセッサ37、画像処理部38、画像圧縮部39、電子ビューファインダ2の表示部19を制御する表示制御部40、背面液晶パネル17を制御する背面表示制御部41、記録部42及び多点測距センサ16なども接続される。マイクロプロセッサ37には、レリーズ釦などの操作部43が接続される。また、上記の記録部42には記録媒体42aが着脱自在に装着される。   FIG. 2 is a schematic block diagram showing the electronic camera 1 according to the present embodiment. The photographing lens 12 is driven by the lens control unit 31 for focus and diaphragm. For example, a CMOS image sensor or a CCD image sensor is used as the imaging element 15. The imaging element 15 is driven by a control signal output from the imaging control unit 32 and outputs a signal. A signal output from the image sensor 15 is processed through the signal processing unit 33 and the A / D conversion unit 34 and then temporarily stored in the memory 35. The memory 35 is connected to the bus 36. The bus 36 includes a lens control unit 31, an imaging control unit 32, a microprocessor 37, an image processing unit 38, an image compression unit 39, a display control unit 40 that controls the display unit 19 of the electronic viewfinder 2, and the rear liquid crystal panel 17. The rear display control unit 41, the recording unit 42, the multipoint distance measuring sensor 16 and the like to be controlled are also connected. An operation unit 43 such as a release button is connected to the microprocessor 37. A recording medium 42a is detachably attached to the recording unit 42.

図3は、本実施の形態による電子カメラ1の電子ビューファインダ2に関する動作を示す概略フローチャートである。   FIG. 3 is a schematic flowchart showing an operation related to the electronic viewfinder 2 of the electronic camera 1 according to the present embodiment.

操作部43の操作に応じたマイクロプロセッサ37の指令により、電子ビューファインダ2の動作を開始する場合、マイクロプロセッサ37は、まず、撮像制御部32に撮像の指令を与え、撮像素子15から画像信号を読み出して、撮像を行う(ステップS1)。この画像信号は、信号処理部33により増幅等された後にA/D変換部34によりA/D変換され、画像データとしてメモリ35に蓄積される。なお、電子ビューファインダ2が表示動作を継続している間は、マイクロプロセッサ37の指令下で、表示制御部40は、バックライト24を点灯させる。   When the operation of the electronic viewfinder 2 is started by a command of the microprocessor 37 according to the operation of the operation unit 43, the microprocessor 37 first gives a command for imaging to the imaging control unit 32, and the image signal from the imaging element 15. Is read out and imaged (step S1). This image signal is amplified by the signal processing unit 33 and then A / D converted by the A / D conversion unit 34 and stored in the memory 35 as image data. While the electronic viewfinder 2 continues the display operation, the display control unit 40 turns on the backlight 24 under the instruction of the microprocessor 37.

図4は、ステップS1の撮像時の被写体の状況の例を模式的に示す図である。この例では、観察者の目100から矢印で見たもの(近くの自転車91、遠くの山93、両者の中間の遠さの自動車92を含むもの)が被写体となっている。図4の目100の位置で図中の矢印の方向に電子カメラ1を向けている状態で、ステップS1の撮像を行ったものとすると、その撮像によりメモリ35に蓄積された画像データは、図5に示す画像を示すものとなる。この画像中には、自転車91の像91’、自動車92の像92’及び山93の像93’が含まれている。   FIG. 4 is a diagram schematically illustrating an example of the state of the subject at the time of imaging in step S1. In this example, an object viewed from an observer's eye 100 with an arrow (including a nearby bicycle 91, a distant mountain 93, and an automobile 92 at a distance between them) is the subject. If the electronic camera 1 is pointed in the direction of the arrow in the drawing at the position of the eye 100 in FIG. 4 and the imaging in step S1 is performed, the image data stored in the memory 35 by the imaging is as shown in FIG. The image shown in FIG. The image includes an image 91 ′ of the bicycle 91, an image 92 ′ of the automobile 92, and an image 93 ′ of the mountain 93.

ステップS1の後に、マイクロプロセッサ37は、多点測距センサ16から測距信号を得て、この信号を適宜演算等することによって、撮像画像中の各測距点における被写体の各部までの距離を示す測距データを得る(ステップS2)。   After step S1, the microprocessor 37 obtains a distance measurement signal from the multipoint distance measurement sensor 16, and calculates the distance to each part of the subject at each distance measurement point in the captured image by appropriately calculating this signal. The distance measurement data shown is obtained (step S2).

次いで、マイクロプロセッサ37は、ステップS2で得た測距データに基づいて、被写体の各部の測距に基づく遠近に応じて、被写体像の各部の領域を、透過型画像表示部21〜23の数(本実施の形態では、3つ)と同数のグループに分ける(ステップS3)。すなわち、マイクロプロセッサ37は、被写体像の各部の領域を、相対的に近い部分の領域と、相対的に遠い部分の領域と、相対的にそれらの中間の遠さの部分の領域とに分ける。具体的には、各測距点の距離の分布状況から、近いと判定する距離範囲、遠いと判定する距離範囲、及び、中間の遠さであると判定する距離範囲を決定し(例えば、最短距離と最長距離との間を3等分した3つの距離範囲にそれぞれ決定してもよいし、属する測距点の度数が3等分になる3つの距離範囲にそれぞれ決定してもよい。)、近い距離範囲に属する測距点で代表される領域を相対的に近い部分の領域とし、遠い距離範囲に属する測距点で代表される領域を相対的に遠い部分の領域とし、中間の遠さの距離範囲に属する測距点で代表される領域を相対的に中間の遠さの部分の領域とする。例えば、ステップS1の撮像で得られた画像データが前述した図5に示す画像を示す場合、自転車91の像91’を含む領域は相対的に近い部分の領域に、山93の像93’を含む領域は相対的に遠い部分の領域に、自動車92の像92’を含む領域は相対的に中間の遠さの部分の領域に、それぞれグループ分けされる。   Next, based on the distance measurement data obtained in step S <b> 2, the microprocessor 37 assigns the area of each part of the subject image to the number of the transmissive image display parts 21 to 23 according to the distance based on the distance measurement of each part of the subject. Divide into the same number of groups (three in this embodiment) (step S3). That is, the microprocessor 37 divides the area of each part of the subject image into a relatively near area, a relatively far area, and a relatively far area. Specifically, a distance range determined to be close, a distance range determined to be far, and a distance range determined to be an intermediate distance are determined from the distance distribution status of each distance measuring point (for example, the shortest distance). (The distance may be determined as three distance ranges obtained by dividing the distance between the distance and the longest distance into three equal parts, or may be determined as three distance ranges where the frequency of the distance measuring point to which the distance belongs is divided into three equal parts.) An area represented by a distance measuring point belonging to a near distance range is a relatively near area, an area represented by a distance measuring point belonging to a far distance area is a relatively far area, and an intermediate distance An area represented by a distance measuring point belonging to the distance range is set as a relatively middle distance area. For example, when the image data obtained by the imaging in step S1 shows the image shown in FIG. 5 described above, the image 93 ′ of the mountain 93 is placed in a relatively close region including the image 91 ′ of the bicycle 91. The area including the vehicle 92 is grouped into a relatively far area, and the area including the image 92 ′ of the automobile 92 is grouped into a relatively middle area.

なお、このように被写体の各部の測距に基づく遠近に応じて被写体像の各部の領域をグループに分ける代わりに、ステップS1の撮像で得た画像から、種々の画像認識技術や画像解析技術を利用して被写体の各部の遠近を推定し、この推定された遠近に応じて、被写体像の各部の領域をグループに分けてもよい。この場合、ステップS2は不要となり、多点測距センサ16及びハーフミラー13は必ずしも設ける必要はない。これらの点は、後述する各実施の形態についても同様である。   In addition, instead of dividing the area of each part of the subject image into groups according to the distance based on the distance measurement of each part of the subject as described above, various image recognition techniques and image analysis techniques are used from the image obtained by the imaging in step S1. The perspective of each part of the subject may be estimated by use, and the area of each part of the subject image may be divided into groups according to the estimated perspective. In this case, step S2 is unnecessary, and the multipoint distance measuring sensor 16 and the half mirror 13 are not necessarily provided. These points are the same for each embodiment described later.

ステップS3の後、マイクロプロセッサ37は、ステップS1の撮像で得られた画像データから、ステップS3で分けたグループ毎の領域の画像データを生成する(ステップS4)。   After step S3, the microprocessor 37 generates image data of the area for each group divided in step S3 from the image data obtained by imaging in step S1 (step S4).

次に、表示制御部40は、ステップS4で生成された画像データを用いて、それらの画像データがそれぞれ示す表示画像を対応する透過型画像表示部21〜23にそれぞれ表示させる(ステップS5)。このとき、ステップS3で分けられた3つのグループについて前記遠近の近い側から順番をつけ、3つの透過型画像表示部21〜23について接眼レンズ20に光学的に近い側から順番をつけたとき、表示制御部40は、各透過型画像表示部21〜23に、当該透過型画像表示部の順番と同じ順番のグループの領域の画像を表示させる。本実施の形態では、具体的には、表示制御部40は、1番目の透過型画像表示部21には1番目のグループの領域(相対的に近い部分の領域)の画像を表示させ、2番目の透過型画像表示部22には2番目のグループの領域(相対的に中間の遠さの部分の領域)の画像を表示させ、3番目の透過型画像表示部22には3番目のグループの領域(相対的に遠い部分の領域)の画像を表示させる。   Next, the display control unit 40 uses the image data generated in step S4 to display the display images respectively indicated by the image data on the corresponding transmissive image display units 21 to 23 (step S5). At this time, when the three groups divided in step S3 are ordered from the near side and the three transmission type image display units 21 to 23 are ordered from the side optically close to the eyepiece 20, The display control unit 40 causes the transmissive image display units 21 to 23 to display the images of the group regions in the same order as the order of the transmissive image display units. Specifically, in the present embodiment, the display control unit 40 causes the first transmissive image display unit 21 to display an image of the first group region (region of a relatively close portion). The second transmissive image display unit 22 displays an image of the second group region (region of a relatively intermediate distance), and the third transmissive image display unit 22 displays the third group. The image of the region (region of a relatively far part) is displayed.

図6は、このときの各透過型画像表示部21〜23にそれぞれ表示される表示画像21’〜23’の例を、模式的に示す図である。図6に示す例では、ステップS1の撮像で得られた画像データが前述した図5に示す画像を示す場合の表示画像21’〜23’を示している。この例では、接眼レンズ20(ひいては観察者の目100)に光学的に最も近い1番目の透過型画像表示部21に表示される表示画像21’には、相対的に近い自転車91の像91’が現れ、2番目の透過型画像表示部22に表示される表示画像22’には相対的に中間の遠さの自動車92の像92’が現れ、3番目の透過型画像表示部23に表示される表示画像23’には相対的に中間の遠さの山93の像93’が現れている。   FIG. 6 is a diagram schematically showing examples of display images 21 ′ to 23 ′ displayed on the transmissive image display units 21 to 23 at this time. In the example shown in FIG. 6, display images 21 ′ to 23 ′ in the case where the image data obtained by the imaging in step S <b> 1 show the image shown in FIG. 5 described above are shown. In this example, the image 91 of the bicycle 91 that is relatively close to the display image 21 ′ displayed on the first transmissive image display unit 21 that is optically closest to the eyepiece 20 (and thus the observer's eye 100). 'Appears, and an image 92 ′ of the relatively distant automobile 92 appears in the display image 22 ′ displayed on the second transmissive image display unit 22, and appears on the third transmissive image display unit 23. In the displayed display image 23 ', an image 93' of a mountain 93 at a relatively intermediate distance appears.

なお、1番目の透過型画像表示部21に表示される表示画像21’では、2番目及び3番目のグループの領域(相対的に中間の遠さの部分の領域及び相対的に遠い部分の領域)の透過率は100%にされ、その領域では実質的な表示はない。同様に、2番目の透過型画像表示部22に表示される表示画像22’では、1番目及び3番目のグループの領域(相対的に近い部分の領域及び相対的に遠い部分の領域)の透過率は100%にされ、その領域では実質的な表示はない。同様に3番目の透過型画像表示部23に表示される表示画像23’では、1番目及び2番目のグループの領域(相対的に近い部分の領域及び相対的に中間の遠さの部分の領域)の透過率は100%にされ、その領域では実質的な表示はない。   In the display image 21 ′ displayed on the first transmissive image display unit 21, the second and third group regions (relatively middle and far regions) ) Is 100%, and there is no substantial display in that region. Similarly, in the display image 22 ′ displayed on the second transmissive image display unit 22, transmission of the first and third group areas (relatively close area and relatively far area). The rate is 100% and there is no substantial display in that area. Similarly, in the display image 23 ′ displayed on the third transmissive image display unit 23, the first and second group regions (the relatively close region and the relatively intermediate region) ) Is 100%, and there is no substantial display in that region.

ステップS5の後に、ステップS1へ戻り、ステップS1〜S5の動作が繰り返される。これにより、観察者は、電子ビューファインダ2の接眼窓18から、3つの透過型画像表示部21〜23のそれぞれの表示画像が重畳されてなる重畳画像であるファインダ画像を、動画像として、観察することになる。   After step S5, the process returns to step S1 and the operations of steps S1 to S5 are repeated. Thereby, the observer observes, as a moving image, a finder image that is a superimposed image formed by superimposing display images of the three transmission image display units 21 to 23 from the eyepiece window 18 of the electronic viewfinder 2. Will do.

そして、観察者が、前記ファインダ画像を観察することで、構図等を決定し、操作部43のうちのレリーズ釦の半押し操作により暫定的に決定された露光状態や合焦位置を確認し、必要なら操作部43による操作等によりそれらを再調整した後に、操作部43のうちのレリーズ釦を全押しすると、その撮影条件で本撮影が行われる。この本撮影により撮像素子15から読み出され画像信号は、信号処理及びA/D変換後に、メモリ35に蓄積される。   Then, the observer determines the composition etc. by observing the finder image, and confirms the exposure state and the in-focus position tentatively determined by half-pressing the release button of the operation unit 43, If necessary, after re-adjusting them by an operation by the operation unit 43 or the like, when the release button of the operation unit 43 is fully pressed, the actual shooting is performed under the shooting conditions. The image signal read out from the image sensor 15 by the actual photographing is stored in the memory 35 after the signal processing and A / D conversion.

その後、マイクロプロセッサ37は、操作部43の指令に基づき、メモリ35内の画像信号に対して必要に応じて画像処理部38や画像圧縮部39にて所望の処理を行い、記録部42に処理後の信号を出力させ記録媒体42aに記録する。   Thereafter, the microprocessor 37 performs desired processing on the image signal in the memory 35 in the image processing unit 38 or the image compression unit 39 as necessary based on the command of the operation unit 43, and the processing is performed in the recording unit 42. The later signal is output and recorded on the recording medium 42a.

なお、電子ビューファインダ2に関する前述した表示動作は、例えば、操作部43の操作等に応じて終了される。   Note that the above-described display operation related to the electronic viewfinder 2 is terminated in accordance with, for example, an operation of the operation unit 43 or the like.

本実施の形態では、前述したように、電子ビューファインダ2において、撮像素子15により撮像された被写体像のうち、相対的に近い被写体の部分の画像が接眼レンズ20(ひいては観察者の目100)に光学的に最も近い透過型画像表示部21に表示され、相対的に中間の遠さの被写体の部分の画像が接眼レンズ20に光学的に中間の位置の透過型画像表示部22に表示され、相対的に遠い被写体の部分の画像が接眼レンズ20に光学的に遠い透過型画像表示部23に表示され、それらの表示画像を重畳してなる重畳画像が観察者の目100によって観察される。   In the present embodiment, as described above, in the electronic viewfinder 2, the image of the relatively close subject among the subject images captured by the image sensor 15 is the eyepiece 20 (and thus the observer's eyes 100). Is displayed on the transmissive image display unit 21 that is optically closest to the object, and an image of a relatively middle-distance subject is displayed on the eyepiece 20 on the transmissive image display unit 22 that is optically intermediate. An image of a relatively distant subject portion is displayed on the transmission image display unit 23 optically distant from the eyepiece lens 20, and a superimposed image formed by superimposing these display images is observed by the observer's eyes 100. .

したがって、本実施の形態によれば、電子ビューファインダ2によって、被写体の各部の遠近がそれらの各部の像の表示位置の遠近に置き換えられて表示されることになるので、接眼窓18を覗く観察者の目100が単眼であるものの、3次元的な奥行き感を得ることができる。このため、本実施の形態によれば、観察者は、電子ビューファインダ2による観察画像から被写体の各部の前後関係を把握し易くなり、より的確に被写体の状況を把握することができる。   Therefore, according to the present embodiment, the perspective of each part of the subject is displayed by the electronic viewfinder 2 being replaced with the perspective of the display position of the image of each part, so that observation through the eyepiece window 18 is performed. Although the person's eyes 100 are monocular, a three-dimensional sense of depth can be obtained. For this reason, according to the present embodiment, the observer can easily grasp the front-rear relationship of each part of the subject from the observation image obtained by the electronic viewfinder 2, and can more accurately grasp the state of the subject.

[第2の実施の形態]
図7は、本発明の第2の実施の形態による電子カメラの電子ビューファインダに関する動作を示す概略フローチャートであり、図3に対応している。図7において、図3中のステップと同一又は対応するステップには同一符号を付し、その重複する説明は省略する。
[Second Embodiment]
FIG. 7 is a schematic flowchart showing an operation related to the electronic viewfinder of the electronic camera according to the second embodiment of the present invention, and corresponds to FIG. In FIG. 7, steps that are the same as or correspond to those in FIG. 3 are given the same reference numerals, and redundant descriptions thereof are omitted.

本実施の形態による電子カメラが前記第1の実施の形態による電子カメラ1と異なる所は、電子ビューファインダ2に関する動作のみである。   The electronic camera according to the present embodiment differs from the electronic camera 1 according to the first embodiment only in the operation relating to the electronic viewfinder 2.

すなわち、前記第1の実施の形態では、表示制御部40は、ステップS4で生成されたグループ毎の領域の画像データを、ステップS5でそれぞれそのまま用いて、それらの画像データがそれぞれ示す表示画像を透過型画像表示部21〜23にそれぞれ表示させるのに対し、本実施の形態では、マイクロプロセッサ37は、ステップS4で生成されたグループ毎の領域の画像データのうち、少なくとも1つのグループの領域の画像に奥行き感強調処理を施す(ステップS11)。   In other words, in the first embodiment, the display control unit 40 uses the image data of the area for each group generated in step S4 as it is in step S5, and uses the display images indicated by those image data. In contrast to the display on the transmissive image display units 21 to 23, in the present embodiment, the microprocessor 37 selects at least one area of the group of the image data for each group generated in step S4. Depth emphasis processing is performed on the image (step S11).

そして、本実施の形態では、表示制御部40は、少なくとも1つのグループの領域の画像にステップS11で奥行き感強調処理が施された画像データ、及び、他のグループに関するステップS4で生成された画像データ又はステップS11で奥行き感強調処理が施された画像データを用いて、それらの画像データがそれぞれ示す表示画像を対応する透過型画像表示部21〜23にそれぞれ表示させる(ステップS5)。このとき、ステップS3で分けられた3つのグループについて前記遠近の近い側から順番をつけ、3つの透過型画像表示部21〜23について接眼レンズ20に光学的に近い側から順番をつけたとき、表示制御部40は、透過型画像表示部21〜23のうちの少なくとも1つの透過型画像表示部に、当該透過型画像表示部の順番と同じ順番のグループの領域の画像にステップS11で奥行き感強調処理が施された画像を表示させ、表示制御部40は、透過型画像表示部21〜23のうちの他の透過型画像表示部に、当該透過型画像表示部の順番と同じ順番のグループの領域の画像又はこの画像にステップS11で奥行き感強調処理が施された画像を表示させる。   In the present embodiment, the display control unit 40 includes the image data obtained by performing the depth emphasis processing in step S11 on the image of at least one group region, and the image generated in step S4 regarding another group. Using the data or the image data that has been subjected to the depth emphasis processing in step S11, the display images respectively indicated by the image data are displayed on the corresponding transmissive image display units 21 to 23 (step S5). At this time, when the three groups divided in step S3 are ordered from the near side and the three transmission type image display units 21 to 23 are ordered from the side optically close to the eyepiece 20, In step S11, the display control unit 40 applies a depth sensation to at least one transmissive image display unit among the transmissive image display units 21 to 23 on the group images in the same order as the order of the transmissive image display unit. The image subjected to the enhancement processing is displayed, and the display control unit 40 causes the other transmission type image display units among the transmission type image display units 21 to 23 to have the same order as the order of the transmission type image display units. Or an image that has been subjected to the depth emphasis processing in step S11 is displayed.

前記奥行き感強調処理は、接眼窓18から接眼レンズ20を通して観察される重畳画像における奥行き感を高めるための処理である。この処理の具体例としては、近い方の被写体の部分の画像の輝度を遠い方の被写体の部分の画像の輝度よりも相対的に高める処理や、近い方の被写体の部分の画像のサイズを遠い方の被写体の部分の画像のサイズよりも相対的に大きくする処理や、それらを両方行う処理などを挙げることができる。輝度を変更する処理は、観察者は輝度の高い像を輝度が低い像よりも近くにあるものと感じ易いことに基づいて、前記奥行き感を高めるものである。サイズを変更する処理は、観察者は大きな像は小さな像よりも近くにあるものと感じ易いことに基づいて、前記奥行き感を高めるものである。また、前記奥行き感強調処理は、これらの処理に限定されるものではなく、例えば、陰影を付ける処理などでもよい。   The depth sensation enhancement process is a process for enhancing the sense of depth in the superimposed image observed from the eyepiece window 18 through the eyepiece lens 20. Specific examples of this process include a process of increasing the brightness of the image of the near subject part relative to the brightness of the image of the far subject part, or the size of the image of the near subject part far away. For example, a process of making the image relatively larger than the image size of the portion of the subject, a process of performing both of them, and the like can be given. The process of changing the brightness enhances the sense of depth based on the fact that an observer can easily feel that an image with high brightness is closer to an image with low brightness. The process of changing the size enhances the sense of depth based on the fact that an observer can easily feel that a large image is closer than a small image. Moreover, the depth emphasis process is not limited to these processes, and may be, for example, a process of adding a shadow.

より具体な例について説明すると、本実施の形態では、ステップS11において、マイクロプロセッサ37は、1番目のグループの領域(相対的に近い部分の領域)の画像にその輝度を若干高める処理及びそのサイズを若干大きくする処理の一方又は両方を施し、3番目のグループの領域(相対的に遠い部分の領域)の画像にその輝度を若干低める処理及びそのサイズを若干小さくする処理の一方又は両方を施す。そして、ステップS5において、表示制御部40は、1番目の透過型画像表示部21には1番目のグループの領域(相対的に近い部分の領域)の画像にステップS11で前記処理を施した画像を表示させ、2番目の透過型画像表示部22には2番目のグループの領域(相対的に中間の遠さの部分の領域)の画像を表示させ、3番目の透過型画像表示部23には3番目のグループの領域(相対的に遠い部分の領域)の画像にステップS11で前記処理を施した画像を表示させる。   A more specific example will be described. In the present embodiment, in step S11, the microprocessor 37 slightly increases the brightness of the image of the first group area (relatively close area) and its size. One or both of the processing for slightly increasing the image size, and applying one or both of the processing for slightly reducing the luminance and the size reduction slightly for the image in the third group region (region of a relatively distant portion). . In step S5, the display control unit 40 applies the image to the first transmissive image display unit 21 that has been subjected to the processing in step S11 on the image of the first group region (the relatively close region). Is displayed on the second transmissive image display unit 22, and an image of the second group region (region of a relatively middle distance) is displayed on the second transmissive image display unit 23. Displays the image subjected to the above-described processing in step S11 on the image of the third group region (region of a relatively distant portion).

この場合、前述した図6に示す例に則して説明すると、1番目の透過型画像表示部21に表示される表示画像21’中の自転車91の像91’は、図6に示す像91’よりも輝度が若干高いかサイズが若干大きいかあるいはその両方かのいずれかとなり、2番目の透過型画像表示部22に表示される表示画像22’中の自動車92の像92’は、図6に示す像92’と同一となり、3番目の透過型画像表示部23に表示される表示画像23’中の山93の像93’は、図6に示す像93’よりも輝度が若干低いかサイズが若干小さいかあるいはその両方かのいずれかとなる。   In this case, if it demonstrates in accordance with the example shown in FIG. 6 mentioned above, the image 91 'of the bicycle 91 in the display image 21' displayed on the first transmission type image display unit 21 is the image 91 shown in FIG. The image 92 'of the car 92 in the display image 22' displayed on the second transmissive image display unit 22 and having either a slightly higher brightness than the size, a slightly larger size, or both is shown in FIG. 6 is the same as the image 92 ′ shown in FIG. 6, and the image 93 ′ of the mountain 93 in the display image 23 ′ displayed on the third transmissive image display unit 23 has a slightly lower luminance than the image 93 ′ shown in FIG. Either the size is slightly smaller or both.

本実施の形態によれば、前述した奥行き感強調処理がなされるので、観察者の目100によって観察される重畳画像において得られる3次元的な奥行き感が、前記第1の実施の形態で得られる奥行き感に比べてより高まる。   According to the present embodiment, since the depth emphasis process described above is performed, the three-dimensional depth feeling obtained in the superimposed image observed by the observer's eyes 100 is obtained in the first embodiment. Increased compared to the sense of depth.

[第3の実施の形態]
図8は、本発明の第3の実施の形態による電子カメラの電子ビューファインダに関する動作を示す概略フローチャートであり、図3に対応している。図8において、図3中のステップと同一又は対応するステップには同一符号を付し、その重複する説明は省略する。
[Third Embodiment]
FIG. 8 is a schematic flowchart showing an operation related to the electronic viewfinder of the electronic camera according to the third embodiment of the present invention, and corresponds to FIG. In FIG. 8, the same or corresponding steps as those in FIG. 3 are denoted by the same reference numerals, and redundant description thereof is omitted.

本実施の形態による電子カメラが前記第1の実施の形態による電子カメラ1と異なる所は、電子ビューファインダ2に関する動作のみである。   The electronic camera according to the present embodiment differs from the electronic camera 1 according to the first embodiment only in the operation relating to the electronic viewfinder 2.

すなわち、前記第1の実施の形態では、表示制御部40は、ステップS4で生成されたグループ毎の領域の画像データを、ステップS5でそれぞれそのまま用いて、それらの画像データがそれぞれ示す表示画像を透過型画像表示部21〜23にそれぞれ表示させるのに対し、本実施の形態では、図8中のステップS21,S22の動作を行う。   In other words, in the first embodiment, the display control unit 40 uses the image data of the area for each group generated in step S4 as it is in step S5, and uses the display images indicated by those image data. In contrast to the display on the transmissive image display units 21 to 23, in the present embodiment, the operations of steps S21 and S22 in FIG. 8 are performed.

本実施の形態では、ステップS21において、マイクロプロセッサ37は、ステップS4で生成されたグループ毎の領域の画像データについて、当該画像データが示す画像に対して所定方向に若干位置ずれした画像を示す画像データを生成する。このとき、位置ずれした画像を示す画像データを生成する代わりに、視点が若干ずれた画像(視点ずれした画像)を示す画像データを生成し、後述するステップS22で、位置ずれした画像を示す画像データの代わりに、視点ずれした画像を示す画像データを用いてもよい。   In the present embodiment, in step S21, the microprocessor 37 displays an image indicating an image that is slightly displaced in a predetermined direction with respect to the image indicated by the image data for the image data of the area for each group generated in step S4. Generate data. At this time, instead of generating the image data indicating the misaligned image, the image data indicating the image slightly deviated from the viewpoint (image deviated from the viewpoint) is generated. In step S22 described later, the image indicating the misaligned image is generated. Instead of data, image data indicating an image whose viewpoint is shifted may be used.

そして、本実施の形態では、ステップS21の後にステップS22が行われる。本実施の形態では、ステップS3で分けられた3つのグループについて前記遠近の近い側から順番をつけ、3つの透過型画像表示部21〜23について接眼レンズ20に光学的に近い側から順番をつけたとき、ステップS22において、表示制御部40は、透過型画像表示部21〜23のうちの少なくとも1つの透過型画像表示部に、当該透過型画像表示部の順番と同じ順番のグループの領域の画像(ステップS4で生成した画像)とこの画像に対して位置ずれした画像(ステップS21で生成した画像)とを交互に表示させ、また、表示制御部40は、透過型画像表示部21〜23のうちの他の透過型画像表示部に、当該透過型画像表示部の順番と同じ順番のグループの領域の画像(ステップS4で生成した画像)を静止的に表示させるか、あるいは、当該透過型画像表示部の順番と同じ順番のグループの領域の画像(ステップS4で生成した画像)とこの画像に対して位置ずれした画像(ステップS21で生成した画像)とを交互に表示させる。   In this embodiment, step S22 is performed after step S21. In the present embodiment, the three groups divided in step S3 are ordered from the near side of the perspective, and the three transmission image display units 21 to 23 are ordered from the side optically close to the eyepiece lens 20. In step S22, the display control unit 40 causes the at least one transmissive image display unit among the transmissive image display units 21 to 23 to display the group regions in the same order as the transmissive image display unit. The image (the image generated in step S4) and the image shifted in position with respect to this image (the image generated in step S21) are alternately displayed, and the display control unit 40 includes the transmissive image display units 21 to 23. Whether the image of the group area in the same order as the order of the transmissive image display unit (the image generated in step S4) is displayed on the other transmissive image display unit Alternatively, an image of a group of regions in the same order as the order of the transmissive image display unit (image generated in step S4) and an image that is misaligned with respect to this image (image generated in step S21) are alternately displayed. Let

より具体な例について説明すると、本実施の形態では、ステップS21において、マイクロプロセッサ37は、1番目のグループの領域(相対的に近い部分の領域)の画像に対して若干位置ずれした画像を生成し、2番目のグループの領域(相対的に中間の遠さの部分の領域)の画像に対して若干位置ずれした画像を生成し、3番目のグループの領域(相対的に遠い部分の領域)の画像に対して若干位置ずれした画像を生成する。そして、ステップS22において、表示制御部40は、1番目の透過型画像表示部21には、1番目のグループの領域(相対的に近い部分の領域)の画像とこの画像に対して位置ずれした画像とを交互に表示させるか、あるいは、1番目のグループの領域(相対的に近い部分の領域)の画像を静止的に表示させる。また、ステップS22において、表示制御部40は、2番目の透過型画像表示部22には、2番目のグループの領域(相対的に中間の遠さの部分の領域)の画像とこの画像に対して位置ずれした画像とを交互に表示させるか、あるいは、2番目のグループの領域(相対的に中間の遠さの部分の領域)の画像を静止的に表示させる。さらに、ステップS22において、表示制御部40は、3番目の透過型画像表示部23には、3番目のグループの領域(相対的に遠い部分の領域)の画像とこの画像に対して位置ずれした画像とを交互に表示させるか、あるいは、3番目のグループの領域(相対的に遠い部分の領域)の画像を静止的に表示させる。ただし、表示制御部40は、透過型画像表示部21〜23のうちの少なくとも1つの透過型画像表示部には、前述した静止的表示ではなく交互表示を行わせる。   A more specific example will be described. In the present embodiment, in step S21, the microprocessor 37 generates an image that is slightly shifted from the image of the first group area (the relatively close area). Then, an image slightly shifted from the image of the second group area (relatively far part area) is generated, and the third group area (relatively far part area) is generated. An image slightly shifted from the image is generated. In step S <b> 22, the display control unit 40 shifts the position of the first transmission type image display unit 21 with respect to the image of the first group region (region of a relatively close portion) and the image. Images are displayed alternately or images of the first group area (relatively close area) are displayed statically. In step S22, the display control unit 40 causes the second transmissive image display unit 22 to display an image of the second group area (an area at a relatively intermediate distance) and this image. The images that are misaligned with each other are alternately displayed, or the images of the second group region (region of a relatively intermediate distance) are displayed statically. Further, in step S22, the display control unit 40 is displaced in the third transmission image display unit 23 with respect to the image of the third group area (relatively far part area) and this image. Images are displayed alternately, or images in the third group area (relatively distant area) are displayed statically. However, the display control unit 40 causes at least one of the transmissive image display units 21 to 23 to perform the alternate display instead of the static display described above.

この場合、前述した図6に示す例に則して説明すると、1番目の透過型画像表示部21には、図6に示す自転車91の像91’とこの像91’に対して位置ずれした像とが交互に表示されるか、あるいは、図6に示す自転車91の像91’が静止的に表示される。2番目の透過型画像表示部22には、図6に示す自動車92の像92’とこの像92’に対して位置ずれした像とが交互に表示されるか、あるいは、図6に示す自動車92の像92’が静止的に表示される。3番目の透過型画像表示部23には、図6に示す山93の像93’とこの像93’に対して位置ずれした像とが交互に表示されるか、あるいは、図6に示す山93の像93’が静止的に表示される。ただし、表示制御部40は、透過型画像表示部21〜23のうちの少なくとも1つの透過型画像表示部には、前述した静止的表示ではなく交互表示がなされる。   In this case, to explain in accordance with the example shown in FIG. 6 described above, the first transmission type image display unit 21 is displaced with respect to the image 91 ′ of the bicycle 91 shown in FIG. Images are displayed alternately, or an image 91 ′ of the bicycle 91 shown in FIG. 6 is displayed statically. On the second transmissive image display unit 22, an image 92 ′ of the automobile 92 shown in FIG. 6 and an image displaced from the image 92 ′ are alternately displayed, or the automobile shown in FIG. 92 images 92 'are displayed stationary. On the third transmissive image display unit 23, an image 93 ′ of the mountain 93 shown in FIG. 6 and an image displaced from the image 93 ′ are alternately displayed, or the mountain shown in FIG. 93 images 93 'are displayed stationary. However, in the display control unit 40, at least one of the transmissive image display units 21 to 23 is displayed alternately instead of the static display described above.

交互表示がされている透過型画像表示部の表示画像では、その像がぷるぷると振動しているように見える。例えば、1番目の透過型画像表示部21に交互表示がなされると自転車91の像91’がぷるぷると振動しているように見え、2番目の透過型画像表示部22に交互表示がなされると自動車92の像92’がぷるぷると振動しているように見え、3番目の透過型画像表示部23に交互表示がなされると山93の像93’がぷるぷると振動しているように見える。   In the display image of the transmissive image display unit that is alternately displayed, it appears that the image is vibrating. For example, when the first transmissive image display unit 21 is alternately displayed, the image 91 ′ of the bicycle 91 appears to vibrate when the second transmissive image display unit 22 is alternately displayed. When the image 92 ′ of the car 92 appears to vibrate, the image 93 ′ of the mountain 93 appears to vibrate when it is alternately displayed on the third transmissive image display unit 23.

したがって、本実施の形態によれば、運動視差によって、観察者の目100によって観察される重畳画像において得られる3次元的な奥行き感が、前記第1の実施の形態で得られる奥行き感に比べてより高まる。   Therefore, according to the present embodiment, the three-dimensional sense of depth obtained in the superimposed image observed by the observer's eyes 100 due to motion parallax is compared with the sense of depth obtained in the first embodiment. And more.

ところで、本実施の形態では、ステップS22において、表示制御部40は、透過型画像表示部21〜23のうち、前記3つのグループのうちの撮影レンズ12による被写体像における合焦位置を含むグループの順番と同じ順番の透過型画像表示部にも、当該グループの領域の画像とこの画像に対して位置ずれした画像とを交互に表示してもよい。例えば、今、撮影レンズが自動車92に合焦しているとすれば、被写体像における合焦位置(自動車92の像92’位置)を含むグループの順番と同じ順番の透過型画像表示部22にも、自動車92の像92’とこの像92’に対して位置ずれした像とを交互に表示してもよい。   By the way, in the present embodiment, in step S22, the display control unit 40 includes a group including the in-focus position in the subject image by the photographic lens 12 of the three groups of the transmissive image display units 21 to 23. The image of the group area and the image shifted in position may be alternately displayed on the transmissive image display unit in the same order as the order. For example, if the photographing lens is now focused on the automobile 92, the transmission type image display unit 22 in the same order as the group including the focus position (image 92 ′ position of the automobile 92) in the subject image is displayed. Alternatively, an image 92 ′ of the automobile 92 and an image displaced from the image 92 ′ may be displayed alternately.

しかしながら、ステップS22において、表示制御部40は、透過型画像表示部21〜23のうち、前記3つのグループのうちの撮影レンズ12による被写体像における合焦位置を含むグループの順番と同じ順番の透過型画像表示部には、当該グループの領域の画像を静止的に表示することが好ましい。その理由は、合焦位置がぷるぷると振動しているように見えるよりも、合焦位置が静止しているかのように見えた方が、合焦状態等を確認し易いからである。   However, in step S22, the display control unit 40 transmits in the same order as the order of the groups including the in-focus positions in the subject image by the photographic lens 12 of the three groups of the transmission type image display units 21 to 23. It is preferable that the image of the area of the group is displayed statically on the type image display unit. The reason is that it is easier to confirm the in-focus state or the like when the in-focus position appears to be stationary than when the in-focus position appears to vibrate.

なお、マイクロプロセッサ37にとっては、AF動作等において画像のいずれの位置が合焦位置であるかが既知であるので、その合焦位置が用いられる。   Since the microprocessor 37 knows which position of the image is the focus position in the AF operation or the like, the focus position is used.

[第4の実施の形態]
図9は、本発明の第4の実施の形態による電子カメラ51を模式的に示す概略断面図であり、図1に対応している。図9において、図1中の要素と同一又は対応する要素には同一符号を付し、その重複する説明は省略する。
[Fourth Embodiment]
FIG. 9 is a schematic cross-sectional view schematically showing an electronic camera 51 according to the fourth embodiment of the present invention, and corresponds to FIG. 9, elements that are the same as or correspond to elements in FIG. 1 are given the same reference numerals, and redundant descriptions thereof are omitted.

図10は、本発明の第4の実施の形態による電子カメラ51の電子ビューファインダ2に関する動作を示す概略フローチャートであり、図3に対応している。図10において、図3中のステップと同一又は対応するステップには同一符号を付し、その重複する説明は省略する。   FIG. 10 is a schematic flowchart showing an operation related to the electronic viewfinder 2 of the electronic camera 51 according to the fourth embodiment of the present invention, and corresponds to FIG. 10, steps that are the same as or correspond to steps in FIG. 3 are given the same reference numerals, and redundant descriptions thereof are omitted.

前記第3の実施の形態では、位置ずれした画像データをステップS21で画像処理によって得ているのに対し、本実施の形態では、位置ずれした画像データを光学像をずらすことで得る点で異なるが、本実施の形態によっても前記第3の実施の形態と同様のファインダ画像(重畳画像)を得ることができるようになっている。   In the third embodiment, the misaligned image data is obtained by image processing in step S21, whereas in the present embodiment, the misaligned image data is obtained by shifting the optical image. However, according to the present embodiment, a finder image (superimposed image) similar to that of the third embodiment can be obtained.

本実施の形態では、図9に示すように、ハーフミラー13とシャッタとの間に、透明な平行平板61が配置されている。平行平板61は、マイクロプロセッサ37による制御下の圧電素子等の駆動部62によって、光軸に対して垂直な位置(実線で示す位置)と、光軸に対して所定方向に所定角度だけ傾いた位置(破線で示す位置)とに移動可能になっている。平行平板61が破線で示す位置に位置している際に、撮影レンズ12により撮像素子15上に結像される被写体像の位置は、平行平板61が実線で示す位置に位置している際に、撮影レンズ12により撮像素子15上に結像される被写体像の位置から、所定方向に所定量だけずれる。説明の便宜上、平行平板61が実線で示す位置に位置している際に行われる撮像素子15による撮像を、位置ずれ前の撮像と呼び、平行平板61が破線で示す位置に位置している際に行われる撮像素子15による撮像を、位置ずれ後の撮像と呼ぶ。   In the present embodiment, as shown in FIG. 9, a transparent parallel plate 61 is arranged between the half mirror 13 and the shutter. The parallel plate 61 is tilted by a predetermined angle in a predetermined direction with respect to the optical axis by a driving unit 62 such as a piezoelectric element under the control of the microprocessor 37 (a position indicated by a solid line) with respect to the optical axis. It can move to a position (position indicated by a broken line). When the parallel plate 61 is located at the position indicated by the broken line, the position of the subject image formed on the image sensor 15 by the photographing lens 12 is the same as when the parallel plate 61 is located at the position indicated by the solid line. The position of the subject image formed on the image sensor 15 by the photographing lens 12 is deviated by a predetermined amount in a predetermined direction. For convenience of explanation, imaging by the imaging device 15 performed when the parallel plate 61 is located at the position indicated by the solid line is referred to as imaging before positional deviation, and when the parallel plate 61 is located at the position indicated by the broken line. The imaging performed by the imaging device 15 is called imaging after positional deviation.

本実施の形態では、図10に示すように、ステップS1において位置ずれ前の撮像が行われ、その撮像により得られた画像について、ステップS3,S4の処理が行われる。ステップS4の後に、位置ずれ後の撮像(ステップS31)が行われ、その撮像により得られた画像について、ステップS3,S4とそれぞれ同様のステップS32,S33が行われる。ただし、ステップS32のグループ分けは、ステップS2の測距結果に加えて平行平板61の傾きによる被写体像の位置ずれ量を考慮して行われる。本実施の形態においてステップS4で得た画像データが前記第3の実施の形態においてステップS4で得た画像データに相当し、本実施の形態においてステップS33で得た画像データが前記第3の実施の形態においてステップS21で生成した位置ずれした画像データに相当する。   In the present embodiment, as shown in FIG. 10, imaging before displacement is performed in step S <b> 1, and the processes in steps S <b> 3 and S <b> 4 are performed on the image obtained by the imaging. After step S4, imaging after positional deviation (step S31) is performed, and steps S32 and S33 similar to steps S3 and S4 are performed on the image obtained by the imaging. However, the grouping in step S32 is performed in consideration of the positional deviation amount of the subject image due to the inclination of the parallel plate 61 in addition to the distance measurement result in step S2. The image data obtained in step S4 in the present embodiment corresponds to the image data obtained in step S4 in the third embodiment, and the image data obtained in step S33 in the present embodiment is the third embodiment. This corresponds to the misaligned image data generated in step S21.

そして、本実施の形態では、表示制御部40は、ステップS4で得た画像データとステップS33で得た画像データを用いて、ステップS22と同様のステップS34の動作を行う。   In this embodiment, the display control unit 40 performs the operation of step S34 similar to step S22 using the image data obtained in step S4 and the image data obtained in step S33.

これにより、本実施の形態によっても、前記第3の実施の形態と同様のファインダ画像(重畳画像)を得ることができ、前記第3の実施の形態と同様の利点が得られる。   Thereby, also in this embodiment, a finder image (superimposed image) similar to that of the third embodiment can be obtained, and the same advantages as those of the third embodiment can be obtained.

以上、本発明の各実施の形態及びその変形例について説明したが、本発明はこれらに限定されるものではない。   As mentioned above, although each embodiment of this invention and its modification were demonstrated, this invention is not limited to these.

1,51 電子カメラ
2 電子ビューファインダ
12 撮影レンズ
15 撮像素子
19 表示部
20 接眼レンズ
21〜23 透過型画像表示部
24 バックライト
40 表示制御部
DESCRIPTION OF SYMBOLS 1,51 Electronic camera 2 Electronic viewfinder 12 Shooting lens 15 Imaging element 19 Display unit 20 Eyepiece 21-21 Transmission type image display unit 24 Backlight 40 Display control unit

Claims (8)

互いに重ね合わされた2以上の所定数の透過型画像表示部と、
前記所定数の透過型画像表示部の後方から照明光を照射する照明部と、
前記所定数の透過型画像表示部のそれぞれの表示画像が重畳されてなる重畳画像を観察し得るように、前記所定数の透過型画像表示部を透過した光を導く接眼光学系と、
を備えたことを特徴とする電子ビューファインダ。
Two or more predetermined number of transmissive image display units superimposed on each other;
An illumination unit that emits illumination light from behind the predetermined number of transmissive image display units;
An eyepiece optical system that guides light transmitted through the predetermined number of transmissive image display units, so that a superimposed image formed by superimposing display images of the predetermined number of transmissive image display units can be observed;
An electronic viewfinder characterized by comprising
撮影レンズにより結像される被写体像を撮像する撮像素子と、
請求項1記載の電子ビューファインダと、
前記撮像素子により撮像された被写体像に基づく各画像を前記所定数の透過型画像表示部にそれぞれ表示させる表示制御部と、
を備えたことを特徴とする撮像装置。
An image sensor for imaging a subject image formed by the taking lens;
An electronic viewfinder according to claim 1;
A display control unit for displaying each image based on the subject image captured by the image sensor on the predetermined number of transmissive image display units;
An imaging apparatus comprising:
被写体の各部の測距に基づく遠近又は被写体の各部の推定された遠近に応じて、前記被写体像の各部の領域を前記所定数のグループに分け、前記所定数のグループについて前記遠近の近い側から順番をつけ、前記所定数の透過型画像表示部について前記接眼光学系に光学的に近い側から順番をつけたとき、前記表示制御部は、前記各透過型画像表示部に、当該透過型画像表示部の順番と同じ順番のグループの領域の画像を表示させることを特徴とする請求項2記載の撮像装置。   The area of each part of the subject image is divided into the predetermined number of groups according to the perspective based on the distance measurement of each part of the subject or the estimated perspective of each part of the subject, and the predetermined number of groups from the near side of the perspective. When the order is given and the predetermined number of transmissive image display units are ordered from the side that is optically close to the eyepiece optical system, the display control unit applies the transmissive image display to each transmissive image display unit. The image pickup apparatus according to claim 2, wherein the image of the area of the group in the same order as the order of the display units is displayed. 被写体の各部の測距に基づく遠近又は被写体の各部の推定された遠近に応じて、前記被写体像の各部の領域を前記所定数のグループに分け、前記所定数のグループについて前記遠近の近い側から順番をつけ、前記所定数の透過型画像表示部について前記接眼光学系に光学的に近い側から順番をつけたとき、前記表示制御部は、前記所定数の透過型画像表示部のうちの少なくとも1つの透過型画像表示部に、当該透過型画像表示部の順番と同じ順番のグループの領域の画像に奥行き感強調処理を施した画像を表示させ、
前記表示制御部は、前記所定数の透過型画像表示部のうちの他の透過型画像表示部に、当該透過型画像表示部の順番と同じ順番のグループの領域の画像又はこの画像に奥行き感強調処理を施した画像を表示させ、
前記奥行き感強調処理は、前記接眼光学系を通して観察される前記重畳画像における奥行き感を高めるための処理である、
ことを特徴とする請求項2記載の撮像装置。
The area of each part of the subject image is divided into the predetermined number of groups according to the perspective based on the distance measurement of each part of the subject or the estimated perspective of each part of the subject. When the order is given and the predetermined number of transmissive image display units are ordered from the side optically close to the eyepiece optical system, the display control unit is configured to include at least one of the predetermined number of transmissive image display units. In one transmissive image display unit, an image obtained by performing depth emphasis processing on an image of a group region in the same order as the order of the transmissive image display unit is displayed.
The display control unit displays an image of a group of regions in the same order as the order of the transmissive image display unit or a depth sensation on the other transmissive image display unit among the predetermined number of transmissive image display units. Display an image that has been enhanced,
The depth sensation enhancement process is a process for enhancing the sense of depth in the superimposed image observed through the eyepiece optical system.
The imaging apparatus according to claim 2.
前記奥行き感強調処理は、当該画像の輝度を変更する処理を含むことを特徴とする請求項4記載の撮像装置。   The imaging apparatus according to claim 4, wherein the depth emphasis process includes a process of changing luminance of the image. 前記奥行き感強調処理は、当該画像のサイズを変更する処理を含むことを特徴とする請求項4又は5記載の撮像装置。   The imaging apparatus according to claim 4, wherein the depth emphasis process includes a process of changing a size of the image. 被写体の各部の測距に基づく遠近又は被写体の各部の推定された遠近に応じて、前記被写体像の各部の領域を前記所定数のグループに分け、前記所定数のグループについて前記遠近の近い側から順番をつけ、前記所定数の透過型画像表示部について前記接眼光学系に光学的に近い側から順番をつけたとき、前記表示制御部は、前記所定数の透過型画像表示部のうちの少なくとも1つの透過型画像表示部に、当該透過型画像表示部の順番と同じ順番のグループの領域の画像とこの画像に対して位置ずれ又は視点ずれした画像とを交互に表示させ、
前記表示制御部は、前記所定数の透過型画像表示部のうちの他の透過型画像表示部に、当該透過型画像表示部の順番と同じ順番のグループの領域の画像を静止的に表示させるか、あるいは、当該透過型画像表示部の順番と同じ順番のグループの領域の画像とこの画像に対して位置ずれ又は視点ずれした画像とを交互に表示させる、
ことを特徴とする請求項2記載の撮像装置。
The area of each part of the subject image is divided into the predetermined number of groups according to the perspective based on the distance measurement of each part of the subject or the estimated perspective of each part of the subject. When the order is given and the predetermined number of transmissive image display units are ordered from the side optically close to the eyepiece optical system, the display control unit is configured to include at least one of the predetermined number of transmissive image display units. In one transmissive image display unit, an image of a group of regions in the same order as the order of the transmissive image display unit and an image that is misaligned or viewpoint shifted with respect to this image are alternately displayed.
The display control unit causes the other transmission-type image display units of the predetermined number of transmission-type image display units to statically display the images of the groups in the same order as the order of the transmission-type image display units. Or alternatively, an image of a group of regions in the same order as the order of the transmissive image display unit and an image that is misaligned or viewed with respect to this image are displayed alternately.
The imaging apparatus according to claim 2.
前記表示制御部は、前記所定数の透過型画像表示部のうち、前記所定数のグループのうちの前記撮影レンズによる前記被写体像における合焦位置を有する領域を含むグループの順番と同じ順番の透過型画像表示部に、当該グループの領域の画像を静止的に表示させることを特徴とする請求項7記載の撮像装置。   The display control unit has the same number of transmissions as the order of the group including the region having the in-focus position in the subject image by the photographing lens in the predetermined number of groups of the predetermined number of transmission type image display units. 8. The image pickup apparatus according to claim 7, wherein the image of the area of the group is statically displayed on the type image display unit.
JP2011140569A 2011-06-24 2011-06-24 Electronic view finder and imaging apparatus using the same Withdrawn JP2013009160A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2011140569A JP2013009160A (en) 2011-06-24 2011-06-24 Electronic view finder and imaging apparatus using the same

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2011140569A JP2013009160A (en) 2011-06-24 2011-06-24 Electronic view finder and imaging apparatus using the same

Publications (1)

Publication Number Publication Date
JP2013009160A true JP2013009160A (en) 2013-01-10

Family

ID=47676158

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2011140569A Withdrawn JP2013009160A (en) 2011-06-24 2011-06-24 Electronic view finder and imaging apparatus using the same

Country Status (1)

Country Link
JP (1) JP2013009160A (en)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10109242B2 (en) 2014-03-20 2018-10-23 Fujifilm Corporation Display device and finder device
JP2019003005A (en) * 2017-06-14 2019-01-10 日本放送協会 Focus assist device and program of the same

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10109242B2 (en) 2014-03-20 2018-10-23 Fujifilm Corporation Display device and finder device
JP2019003005A (en) * 2017-06-14 2019-01-10 日本放送協会 Focus assist device and program of the same

Similar Documents

Publication Publication Date Title
JP5341286B1 (en) Depth expansion device
JP4657313B2 (en) Stereoscopic image display apparatus and method, and program
JP5640155B2 (en) Stereoscopic image pickup apparatus and in-focus state confirmation image display method
US11303878B2 (en) Three-dimensional display panel, display method thereof, and display device
KR100815971B1 (en) Variable liquid crystal panel for realizing stereoscopic image and stereoscopic image realization apparatus using the variable liquid crystal panel
JP2012100101A (en) Image processing device, image processing method, and image pickup device
US20120113231A1 (en) 3d camera
JP2010068182A (en) Three-dimensional imaging device, method, and program
JP4895312B2 (en) Three-dimensional display device, method and program
US9462254B2 (en) Light field image capture device and image sensor
CN105051600A (en) Image processing device, imaging device, image processing method, and image processing program
WO2019107295A1 (en) Head-up display device
JP5078781B2 (en) Image display device and imaging device
JP2022128517A (en) ranging camera
US20120307016A1 (en) 3d camera
JP2013009160A (en) Electronic view finder and imaging apparatus using the same
WO2018101170A1 (en) Display device and electronic mirror
JP2013121050A (en) Imaging method, imaging apparatus, and program
JP2007108626A (en) Stereoscopic image forming system
JP2002341473A (en) Three-dimensional image photographing method and three-dimensional image observing device
JP6124684B2 (en) Imaging device, control method thereof, and control program
KR100658718B1 (en) Stereoscopic Imager with Image Capture
JP2007318307A (en) Image processing method, photographing apparatus, and image processing apparatus
JP2002341474A (en) Adapter for taking three-dimensional image and three- dimensional image photographing device
JP3837108B2 (en) 3D display device

Legal Events

Date Code Title Description
A300 Application deemed to be withdrawn because no request for examination was validly filed

Free format text: JAPANESE INTERMEDIATE CODE: A300

Effective date: 20140902