[go: up one dir, main page]

JP2013070154A - Compound-eye imaging device and operation control method therefor - Google Patents

Compound-eye imaging device and operation control method therefor Download PDF

Info

Publication number
JP2013070154A
JP2013070154A JP2011206000A JP2011206000A JP2013070154A JP 2013070154 A JP2013070154 A JP 2013070154A JP 2011206000 A JP2011206000 A JP 2011206000A JP 2011206000 A JP2011206000 A JP 2011206000A JP 2013070154 A JP2013070154 A JP 2013070154A
Authority
JP
Japan
Prior art keywords
face
area
blind spot
image
background object
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Withdrawn
Application number
JP2011206000A
Other languages
Japanese (ja)
Inventor
Hideaki Kokubu
秀昭 國分
Tomokazu Nakamura
友和 中村
Koichi Yahagi
宏一 矢作
Masahiko Sugimoto
雅彦 杉本
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fujifilm Corp
Original Assignee
Fujifilm Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fujifilm Corp filed Critical Fujifilm Corp
Priority to JP2011206000A priority Critical patent/JP2013070154A/en
Publication of JP2013070154A publication Critical patent/JP2013070154A/en
Withdrawn legal-status Critical Current

Links

Images

Landscapes

  • Testing, Inspecting, Measuring Of Stereoscopic Televisions And Televisions (AREA)

Abstract

【目的】背景画像に顔が重ならないようにする。
【構成】視点の異なる位置から被写体を撮像し,複数の被写体像を得る。撮像により得られた被写体像から顔画像が検出され(ステップ42),死角領域が検出される(ステップ43)。死角領域が背景オブジェクトと重なっている場合には(ステップ45でYES),顔の移動指示が与えられる(ステップ47)。死角領域か背景オブジェクトに重畳しなければ(ステップ45でNO),撮像により得られた被写体像を表す画像データが記録される(ステップ50)。
【選択図】図2
[Purpose] To prevent the face from overlapping the background image.
[Structure] The subject is imaged from different viewpoints to obtain a plurality of subject images. A face image is detected from the subject image obtained by imaging (step 42), and a blind spot area is detected (step 43). If the blind spot area overlaps the background object (YES in step 45), a face movement instruction is given (step 47). If it is not superimposed on the blind spot area or the background object (NO in step 45), image data representing the subject image obtained by imaging is recorded (step 50).
[Selection] Figure 2

Description

この発明は,複眼撮像装置およびその動作制御方法に関する。   The present invention relates to a compound eye imaging apparatus and an operation control method thereof.

ディジタル・カメラの背面には,液晶表示装置が設けられている。その液晶表示装置の表示画面に撮像した被写体像が表示される。表示画面は,ディジタル・カメラの背面に形成されているから,撮影者が自分を撮像する場合には,表示画面を見ながら撮像することはできない。このために,重要な背景が自分自身に隠れてしまうことがある。このために,現実の建物や風景を背景として自分撮りにおいて背景に対する被撮影者の立ち位置を所望の関係にするものがある(特許文献1)。また,複数の顔とともに複数の顔枠を表示する場合に,立体視する観察者の立体感を阻害しないようにするもの(特許文献2),対象物を実際の大きさで知覚できるもの(特許文献3),少ない演算量で画像の位置合わせを行うもの(特許文献4)もある。   A liquid crystal display device is provided on the back of the digital camera. The captured subject image is displayed on the display screen of the liquid crystal display device. Since the display screen is formed on the back of the digital camera, when the photographer takes an image of himself / herself, the image cannot be taken while looking at the display screen. Because of this, important backgrounds may be hidden behind you. For this reason, there is a technique in which the standing position of the person to be photographed with respect to the background is set in a desired relationship in the self-portrait with the actual building or landscape as the background (Patent Document 1). In addition, when a plurality of face frames are displayed together with a plurality of faces, the stereoscopic effect of a stereoscopic observer is not disturbed (Patent Document 2), and the object can be perceived at an actual size (Patent Document 2) Document 3), and others that perform image alignment with a small amount of calculation (Patent Document 4).

特開2011-19051号公報JP 2011-19051 A 特開2011-77900号公報JP 2011-77900 A 特開2010-147940号公報JP 2010-147940 A

特許文献1に記載のものでは,人物が写っていない状態の背景画像に対して人物指標を事前に設定しなければならない。また,背景に自分自身を撮影することによる死角領域が重なってしまうと,その死角領域の部分は立体的に見えない。   In the device described in Patent Document 1, a person index must be set in advance for a background image in which no person is shown. Also, if the blind spot area resulting from photographing yourself on the background overlaps, the blind spot area cannot be seen stereoscopically.

この発明は,人物指標などの事前設定が不要であっても,撮影者が自分を撮像する場合に,重要な背景が自分自身に隠れてしまうことを未然に防止することを目的とする。また,この発明は,背景オブジェクトが,自分自身を撮影することにより生じる死角領域と重ならないようにすることを目的とする。   An object of the present invention is to prevent an important background from being concealed by itself when a photographer takes an image of himself / herself even if a preset such as a person index is unnecessary. Another object of the present invention is to prevent a background object from overlapping with a blind spot area generated by photographing itself.

この発明は,異なる視点での撮像を繰り返す複数の撮像装置を備えた複眼撮像装置において,上記複数の撮像装置によって被写体を撮像して得られた複数の被写体像の少なくとも一方から顔領域を検出する顔検出手段,複数の被写体像のうち一方の被写体像には含まれるが他方の被写体像には含まれない死角領域が,上記顔検出手段によって検出された顔領域に隣接して存在するかどうかを判定する死角領域判定手段,上記死角領域判定手段によって死角領域が存在すると判定されたことに応じて,その死角領域が顔領域の背景にある顔領域に隣接した背景オブジェクトの領域と重なるかどうかを判定する重畳判定手段,および上記重畳判定手段によって死角領域が背景オブジェクトの領域と重なると判定されたことに応じて顔または複眼撮像装置自体の移動指示を報知する第1の報知手段を備えていることを特徴とする。   The present invention detects a face region from at least one of a plurality of subject images obtained by imaging a subject with the plurality of imaging devices in a compound eye imaging device including a plurality of imaging devices that repeat imaging from different viewpoints. Whether or not there is a blind spot area that is included in one of the plurality of subject images but not included in the other subject image adjacent to the face area detected by the face detection means. A blind spot area judging means for determining whether or not the blind spot area overlaps a background object area adjacent to the face area in the background of the face area in response to the blind spot area judging means determining that the blind spot area exists. Superimposition determination means for determining whether the blind spot area overlaps the area of the background object by the superimposition determination means. Characterized in that it comprises a first informing means for informing a movement instruction of the device itself.

この発明は,上記複眼撮像装置に適した動作制御方法も提供している。すなわち,この方法は,異なる視点での撮像を繰り返す複数の撮像装置を備えた複眼撮像装置の動作制御方法において,顔検出手段が,上記複数の撮像装置によって被写体を撮像して得られた複数の被写体像の少なくとも一方から顔領域を検出し,死角領域判定手段が,複数の被写体像のうち一方の被写体像には含まれるが他方の被写体像には含まれない死角領域が,上記顔検出手段によって検出された顔領域に隣接して存在するかどうかを判定し,重畳判定手段が,上記死角領域判定手段によって死角領域が存在すると判定されたことに応じて,その死角領域が顔領域の背景にある顔領域に隣接した背景オブジェクトの領域と重なるかどうかを判定し,報知手段が,上記重畳判定手段によって死角領域が背景オブジェクトの領域と重なると判定されたことに応じて顔または複眼撮像装置自体の移動指示を報知するものである。   The present invention also provides an operation control method suitable for the compound eye imaging apparatus. That is, this method is a method for controlling the operation of a compound eye imaging device including a plurality of imaging devices that repeats imaging from different viewpoints. In this method, the face detection means obtains a plurality of images obtained by imaging a subject with the plurality of imaging devices. A face area is detected from at least one of the subject images, and the blind spot area determining means includes a blind spot area that is included in one of the subject images but not included in the other subject image. Is determined to be adjacent to the detected face area, and the blind spot area is detected when the blind spot area is determined to be present by the blind spot area determining means. Is determined whether or not it overlaps with the background object area adjacent to the face area, and the notification means causes the superimposition determination means to overlap the blind spot area with the background object area. It is intended to notify the movement instruction of the face or the compound-eye imaging apparatus itself in response to that is constant.

この発明によると,複数の撮像装置によって被写体を撮像して得られた,異なる視点から撮像された複数の被写体像から顔領域が検出される。検出された顔領域に隣接して死角領域が存在するかどうかが判定される。死角領域が存在すると判定されると,その死角領域が顔領域の背景にある顔領域に隣接した背景オブジェクトの領域と重なるかどうかが判定される。死角領域がそのような背景オブジェクトの領域と重なると判定されると,顔または複眼撮像装置自体の移動指示が報知される。   According to the present invention, a face area is detected from a plurality of subject images captured from different viewpoints obtained by capturing a subject with a plurality of imaging devices. It is determined whether there is a blind spot area adjacent to the detected face area. If it is determined that the blind spot area exists, it is determined whether or not the blind spot area overlaps the area of the background object adjacent to the face area in the background of the face area. If it is determined that the blind spot area overlaps with such a background object area, an instruction to move the face or the compound-eye imaging device itself is notified.

異なる視点から撮像された複数の被写体像があると,立体画像が得られる。しかしながら,死角領域があると,その死角領域は立体的には見えない。死角領域が背景オブジェクトの領域と重なる場合には顔または複眼撮像装置自体を移動するように指示されるので,撮影者は顔が背景オブジェクトに重なってしまうことが分かる。顔を移動して撮像することにより,顔も背景オブジェクトも撮像できるようになる。とくに,背景オブジェクトに死角領域が重ならないようになるので,死角領域によって背景オブジェクトが立体的に見えないということを未然に防止できる。   If there are a plurality of subject images taken from different viewpoints, a stereoscopic image can be obtained. However, if there is a blind spot area, the blind spot area cannot be seen three-dimensionally. When the blind spot area overlaps with the background object area, the user is instructed to move the face or the compound-eye imaging device itself, so that the photographer knows that the face overlaps the background object. By moving the face and picking up images, both the face and the background object can be picked up. In particular, since the blind spot area does not overlap the background object, it is possible to prevent the background object from being viewed stereoscopically by the blind spot area.

上記顔検出手段によって検出された顔領域が,撮影可能な範囲よりも狭い画角である所定の画角に入っているかどうかを判定する画角判定手段をさらに備えてもよい。この場合,上記第1の報知手段は,たとえば,上記画角判定手段によって顔が所定の画角に入っていると判定されたことに応じて,顔または複眼撮像装置自体の移動指示を報知するものである。   There may be further provided an angle of view determination means for determining whether or not the face area detected by the face detection means falls within a predetermined angle of view which is an angle of view narrower than a shootable range. In this case, for example, the first notification means notifies the movement instruction of the face or the compound-eye imaging device itself when the face angle determination means determines that the face is within a predetermined angle of view. Is.

上記重畳判定手段によって死角領域が背景オブジェクトの領域と重なっていないと判定されたことに応じて,撮影許可を報知する第2の報知手段をさらに備えてもよい。   The superimposition determining unit may further include a second notification unit that notifies the photographing permission when it is determined that the blind spot region does not overlap with the background object region.

上記画角判定手段によって顔が所定の画角に入っていると判定されたことに応じて撮影許可を報知する第3の報知手段をさらに備えることが好ましい。   It is preferable to further include third informing means for informing the photographing permission in response to the fact that the face is determined to be within a predetermined angle of view by the angle of view determining means.

上記重畳判定手段によって死角領域が背景オブジェクトの画像と重なっていないと判定されたことに応じて,上記複数の撮像装置において撮像された被写体像を表す画像データを記録媒体に記録する第1の記録制御手段をさらに備えてもよい。   First recording that records image data representing subject images captured by the plurality of imaging devices on a recording medium in response to determining that the blind spot area does not overlap with the image of the background object by the superimposition determination unit. Control means may be further provided.

上記画角判定手段によって顔が所定の画角に入っていると判定されたことに応じて,上記複数の撮像装置において撮像された被写体像を表す画像データを記録媒体に記録する第2の記録制御手段をさらに備えてもよい。   Second recording that records image data representing subject images captured by the plurality of imaging devices on a recording medium in response to determining that the face is within a predetermined angle of view by the angle of view determination means. Control means may be further provided.

上記顔画像によって表される顔と上記背景オブジェクトとの間にある物体との視差が0となるように上記複数の被写体像の視差量を調整する第1の視差量調整手段をさらに備えてもよい。   The image processing apparatus may further include first parallax amount adjusting means for adjusting parallax amounts of the plurality of subject images so that the parallax between the face represented by the face image and the object between the background object becomes zero. Good.

上記顔画像によって表される顔と上記背景オブジェクトとの距離を算出する距離算出手段,および上記距離算出手段によって算出された距離が所定距離以上であることに応じて,顔の画像部分の視差量が所定視差量以下となるように上記複数の被写体像の視差量を調整する第2の視差量調整手段をさらに備えてもよい。   A distance calculation unit that calculates a distance between the face represented by the face image and the background object, and a parallax amount of the image portion of the face according to whether the distance calculated by the distance calculation unit is equal to or greater than a predetermined distance You may further provide the 2nd parallax amount adjustment means which adjusts the parallax amount of said several to-be-photographed image so that may become below a predetermined parallax amount.

上記背景オブジェクトの視差量を算出する背景オブジェクト視差量算出手段,および上記背景オブジェクト視差量算出手段によって算出された視差量が所定量以上であった場合に,2Dの画像データを記録媒体に記録する第3の記録制御手段をさらに備えてもよい。   The background object parallax amount calculating means for calculating the parallax amount of the background object, and the 2D image data is recorded on the recording medium when the parallax amount calculated by the background object parallax amount calculating means is a predetermined amount or more. Third recording control means may be further provided.

上記背景オブジェクトの総面積を算出する第1の面積算出手段,上記背景オブジェクトが上記顔検出手段によって検出された顔によって隠されている部分を除く残りの部分の面積を算出する第2の面積算出手段,および上記第1の面積算出手段によって算出された面積と上記第2の面積算出手段によって算出された面積との面積比を報知する第4の報知手段をさらに備えてもよい。   A first area calculating means for calculating a total area of the background object; a second area calculating for calculating an area of a remaining portion excluding a portion where the background object is hidden by a face detected by the face detecting means; And a fourth notification means for reporting an area ratio between the area calculated by the first area calculation means and the area calculated by the second area calculation means.

上記背景オブジェクトは,たとえば,同一色の物体である。   The background object is an object of the same color, for example.

ディジタル・カメラの電気的構成を示すブロック図である。It is a block diagram which shows the electric constitution of a digital camera. ディジタル・カメラの処理手順を示すフローチャートである。It is a flowchart which shows the process sequence of a digital camera. (A)は左視点画像の一例を,(B)は右視点画像の一例を示している。(A) shows an example of a left viewpoint image, and (B) shows an example of a right viewpoint image. (A)は左視点画像の一例を,(B)は右視点画像の一例を示している。(A) shows an example of a left viewpoint image, and (B) shows an example of a right viewpoint image. (A)は左視点画像の一例を,(B)は右視点画像の一例を示している。(A) shows an example of a left viewpoint image, and (B) shows an example of a right viewpoint image. (A)から(C)は,撮像画像の一例である。(A) to (C) are examples of captured images. 重畳判定処理手順を示すフローチャートである。It is a flowchart which shows a superimposition determination processing procedure. 左視点画像重畳判定処理手順を示すフローチャートである。It is a flowchart which shows the left viewpoint image superimposition determination processing procedure. (A)は左視点色分割画像の一例を,(B)は右視点色分割画像の一例を示している。(A) shows an example of the left viewpoint color division image, and (B) shows an example of the right viewpoint color division image. 視差量調整処理手順を示すフローチャートである。It is a flowchart which shows the parallax amount adjustment process procedure. 被写体距離レンジと視差量との関係を示している。The relationship between the subject distance range and the amount of parallax is shown. (A)は被写体像の一部を,(B)は被写体の位置を示している。(A) shows a part of the subject image, and (B) shows the position of the subject. (A)は被写体像の一部を,(B)は被写体の位置を示している。(A) shows a part of the subject image, and (B) shows the position of the subject. (A)は被写体像の一部を,(B)は被写体の位置を示している。(A) shows a part of the subject image, and (B) shows the position of the subject. (A)は被写体像の一部を,(B)は被写体の位置を示している。(A) shows a part of the subject image, and (B) shows the position of the subject. 被写体距離レンジと視差量との関係を示している。The relationship between the subject distance range and the amount of parallax is shown. 撮像制御処理手順を示すフローチャートである。It is a flowchart which shows an imaging control processing procedure. ディジタル・カメラの処理手順を示すフローチャートである。It is a flowchart which shows the process sequence of a digital camera. 被写体像の一例である。It is an example of a to-be-photographed image.

図1は,この発明の実施例を示すもので,いわゆる複眼ディジタル・カメラの電気的構成を示すブロック図である。   FIG. 1 shows an embodiment of the present invention and is a block diagram showing the electrical configuration of a so-called compound-eye digital camera.

ディジタル・カメラ1の全体の動作は,CPU10によって統括される。ディジタル・スチル・カメラ1には,立体画像生成用の立体撮像モード,通常の二次元撮像を行う撮像モード,二次元再生を行う二次元再生モード,立体画像表示を行う立体再生モード,設定モードなどのモードを設定するモード設定ボタン,二段ストローク・タイプのシャッタ・レリーズ・ボタンなどの各種ボタン類が含まれている操作装置(図示略)が設けられている。操作装置から出力される操作信号は,CPU10に入力する。   The entire operation of the digital camera 1 is controlled by the CPU 10. The digital still camera 1 includes a stereoscopic imaging mode for generating a stereoscopic image, an imaging mode for performing normal two-dimensional imaging, a two-dimensional reproduction mode for performing two-dimensional reproduction, a stereoscopic reproduction mode for displaying a stereoscopic image, a setting mode, and the like. There is provided an operating device (not shown) including various buttons such as a mode setting button for setting the mode and a two-stroke type shutter / release button. An operation signal output from the operation device is input to the CPU 10.

ディジタル・スチル・カメラには,立体画像の閲覧者が左目で見る左視点画像を撮像する左視点撮像装置1および立体画像の閲覧者が右目で見る右視点画像を撮像する右視点撮像装置2が含まれている。   The digital still camera includes a left viewpoint imaging device 1 that captures a left viewpoint image viewed by a viewer of a stereoscopic image with the left eye and a right viewpoint imaging device 2 that captures a right viewpoint image viewed by the viewer of the stereoscopic image with a right eye. include.

左視点撮像装置1には,被写体を撮像し,左視点画像を表わす左視点画像信号を出力するCCD4が含まれている。このCCD4の前方には,モータ・ドライバ5および6によってズーム量およびフォーカス量がそれぞれ制御されるズーム・レンズ2およびフォーカス・レンズ3が設けられている。   The left viewpoint imaging device 1 includes a CCD 4 that images a subject and outputs a left viewpoint image signal representing a left viewpoint image. In front of the CCD 4, there are provided a zoom lens 2 and a focus lens 3 whose zoom amounts and focus amounts are controlled by motor drivers 5 and 6, respectively.

立体撮像モードが設定されると,シャッタ・レリーズ・ボタンの押し下げの前にプレ撮像(スルー画撮像)が行われ,一定周期でCCD4から左視点画像信号が出力される。CCD4から出力された左視点画像信号は,アナログ/ディジタル変換回路7において左視点画像データに変換される。左視点画像データは,画像入力コントローラ8によってディジタル信号処理装置21に入力する。   When the stereoscopic imaging mode is set, pre-imaging (through image imaging) is performed before the shutter release button is pressed, and the left viewpoint image signal is output from the CCD 4 at a constant cycle. The left viewpoint image signal output from the CCD 4 is converted into left viewpoint image data in the analog / digital conversion circuit 7. The left viewpoint image data is input to the digital signal processing device 21 by the image input controller 8.

右視点撮像装置11には,被写体を撮像し,右視点画像を表わす右視点画像信号を出力するCCD14が含まれている。このCCD14の前方には,モータ・ドライバ15および16によってそれぞれズーム量およびフォーカス量が制御されるズーム・レンズ12およびフォーカス・レンズ13が設けられている。   The right viewpoint imaging device 11 includes a CCD 14 that images a subject and outputs a right viewpoint image signal representing a right viewpoint image. In front of the CCD 14, there are provided a zoom lens 12 and a focus lens 13 whose zoom amounts and focus amounts are controlled by motor drivers 15 and 16, respectively.

立体撮像モードでは,プレ撮像において,CCD14からも右視点画像信号が出力される。CCD14から出力された右視点画像信号は,アナログ/ディジタル変換回路17において右視点画像データに変換される。右視点画像データは,画像入力コントローラ18によってディジタル信号処理装置21に入力する。   In the stereoscopic imaging mode, the right viewpoint image signal is also output from the CCD 14 during pre-imaging. The right viewpoint image signal output from the CCD 14 is converted into right viewpoint image data in the analog / digital conversion circuit 17. The right viewpoint image data is input to the digital signal processing device 21 by the image input controller 18.

ディジタル信号処理装置21において左視点画像データおよび右視点画像データに対して所定のディジタル信号処理が行われる。ディジタル信号処理装置21から出力された左視点画像データおよび右視点画像データは,表示制御装置26を介してディジタル・カメラの背面に表示画面が設けられている第1の表示装置27に与えられる。第1の表示装置27の表示画面に撮像により得られた画像が立体的な動画で表示される(スルー画表示)。第1の表示装置27に左視点像データおよび右視点画像データの両方の画像データを与え,被写体像を立体的に表示せずとも,左視点画像データまたは右視点画像データのいずれか一方の画像データを与え,被写体像を二次元的に表示するようにしてもよい。   The digital signal processing device 21 performs predetermined digital signal processing on the left viewpoint image data and the right viewpoint image data. The left viewpoint image data and the right viewpoint image data output from the digital signal processing device 21 are given via a display control device 26 to a first display device 27 provided with a display screen on the back of the digital camera. An image obtained by imaging is displayed as a three-dimensional moving image on the display screen of the first display device 27 (through image display). Both the left viewpoint image data and the right viewpoint image data are given to the first display device 27, and either the left viewpoint image data or the right viewpoint image data is displayed without displaying the subject image stereoscopically. Data may be given to display the subject image two-dimensionally.

ディジタル・カメラには,その前面に表示画面が形成されている第2の表示装置28も含まれている。   The digital camera also includes a second display device 28 having a display screen formed in front of it.

ディジタル信号処理装置21から出力された左視点画像データおよび右視点画像データは,視差量算出装置29および顔検出装置30にも与えられる。視差量算出装置29において左視点画像と右視点画像との視差量が算出される。また,顔検出装置30において,撮像された画像から顔の画像部分が検出される。   The left viewpoint image data and the right viewpoint image data output from the digital signal processing device 21 are also provided to the parallax amount calculation device 29 and the face detection device 30. The parallax amount calculation device 29 calculates the parallax amount between the left viewpoint image and the right viewpoint image. Further, the face detection device 30 detects the face image portion from the captured image.

シャッタ・レリーズ・ボタンの半押しにより,被写体が撮像され,撮像により得られた左視点画像データおよび右視点画像データの少なくとも一方の画像データが積算装置23に入力する。積算装置23において高周波数成分の積算および輝度データの積算が行われる。高周波数成分の積算値にもとづいて,フォーカス・レンズ3および13のフォーカス量が決定される。輝度データの積算値にもとづいて,いわゆる電子シャッタのシャッタ速度が決定される。シャッタ・レリーズ・ボタンの全押しにより,被写体が撮像され,左視点撮像装置1の撮像により得られた左視点画像データおよび右視点撮像装置11の撮像により得られた右視点画像データは,メモリ制御装置19を介してメイン・メモリ20に与えられ,そのメイン・メモリ20に一時的に記憶される。左視点画像データおよび右視点画像データは,メイン・メモリ20から読み出されて圧縮伸張処理装置22に入力する。左視点画像データおよび右視点画像データは,圧縮伸張処理装置22において圧縮され,圧縮された左視点画像データおよび右視点画像データがメモリ制御装置24によってメモリ・カード25に記録される。   The subject is imaged by half-pressing the shutter release button, and at least one of the left viewpoint image data and the right viewpoint image data obtained by the imaging is input to the integrating device 23. In the integrating device 23, high frequency components and luminance data are integrated. The focus amounts of the focus lenses 3 and 13 are determined based on the integrated value of the high frequency components. Based on the integrated value of the luminance data, the shutter speed of the so-called electronic shutter is determined. When the shutter release button is fully pressed, the subject is imaged, and the left viewpoint image data obtained by imaging by the left viewpoint imaging device 1 and the right viewpoint image data obtained by imaging by the right viewpoint imaging device 11 are controlled by the memory. It is given to the main memory 20 via the device 19 and temporarily stored in the main memory 20. The left viewpoint image data and the right viewpoint image data are read from the main memory 20 and input to the compression / decompression processor 22. The left viewpoint image data and the right viewpoint image data are compressed by the compression / decompression processor 22, and the compressed left viewpoint image data and right viewpoint image data are recorded on the memory card 25 by the memory controller 24.

立体再生モードが設定されると,メモリ・カード25に記録されている左視点画像データと右視点画像データとが読み出される。読み出された左視点画像データおよび右視点画像データが圧縮伸張処理装置22において伸張される。伸張された左視点画像データおよび右視点画像データが表示装置26に与えられることにより,立体画像が表示される。   When the stereoscopic playback mode is set, the left viewpoint image data and the right viewpoint image data recorded in the memory card 25 are read. The read left viewpoint image data and right viewpoint image data are decompressed by the compression / decompression processor 22. The expanded left viewpoint image data and right viewpoint image data are given to the display device 26, whereby a stereoscopic image is displayed.

図2は,複眼ディジタル・カメラの処理手順を示すフローチャートである。   FIG. 2 is a flowchart showing the processing procedure of the compound-eye digital camera.

複眼ディジタル・カメラでは,撮像により得られた被写体像は,背面に形成されている表示画面(第1の表示装置27)に表示される。表示画面は,複眼ディジタル・カメラの背面に形成されているので,複眼ディジタル・カメラを持ってユーザが自分自身を撮像する場合,第1の表示装置27の表示画面を見ることはできないので,第1の表示装置27の表示画面に表示されている被写体像を見ながらカメラ・アングルを決定することはできない。このために,背景のうち重要と考えられるオブジェクト(背景オブジェクト)がユーザの陰に隠れてしまうことがある。この実施例では,複眼ディジタル・カメラを持って,ユーザが自分自身を撮像する場合に,背景オブジェクトがユーザの陰に隠れないようにするものである。   In a compound-eye digital camera, a subject image obtained by imaging is displayed on a display screen (first display device 27) formed on the back surface. Since the display screen is formed on the rear surface of the compound-eye digital camera, when the user takes an image of himself / herself with the compound-eye digital camera, the display screen of the first display device 27 cannot be seen. The camera angle cannot be determined while viewing the subject image displayed on the display screen of the first display device 27. For this reason, an object (background object) considered to be important in the background may be hidden behind the user. In this embodiment, a compound eye digital camera is used to prevent the background object from being hidden behind the user when the user images itself.

ユーザは,複眼ディジタル・カメラを持って,自分自身の方に向けて構える。左視点撮像装置および右視点撮像装置によって被写体であるユーザ自身が撮像される(ステップ41)。   The user holds a compound-eye digital camera and faces it. The user who is the subject himself / herself is imaged by the left viewpoint imaging device and the right viewpoint imaging device (step 41).

図3(A)は左視点撮像装置によって撮像された左視点画像60Lの一例,図3(B)は右視点撮像装置によって撮像された右視点画像60Rの一例を示している。   3A shows an example of a left viewpoint image 60L taken by the left viewpoint imaging device, and FIG. 3B shows an example of a right viewpoint image 60R taken by the right viewpoint imaging device.

左視点画像60Lと右視点画像60Rとは異なる視点により撮像されているから,視差が生じている。視差が生じているので,左視点画像60Lと右視点画像60Rとから立体画像を生成できる。左視点画像60Lには,撮像者であるユーザの画像62Lとユーザの後にある自動車の画像61Lとが含まれている。同様に,右視点画像60Rには,左視点画像60Rに含まれているユーザの画像62Lと自動車の画像61Lとに対応しているユーザの画像62Rと自動車の画像61Rとが含まれている。   Since the left viewpoint image 60L and the right viewpoint image 60R are captured from different viewpoints, parallax occurs. Since parallax has occurred, a stereoscopic image can be generated from the left viewpoint image 60L and the right viewpoint image 60R. The left viewpoint image 60L includes an image 62L of the user who is the photographer and an image 61L of the car behind the user. Similarly, the right viewpoint image 60R includes a user image 62R and a car image 61R corresponding to the user image 62L and the car image 61L included in the left viewpoint image 60R.

撮像により左視点画像60Lと右視点画像60Rとが得られると,得られた左視点画像60Lと右視点画像60Rのそれぞれにおいて顔検出処理が行われる(図3ステップ42)。顔検出処理は,テンプレート・マッチングなどを利用できる。   When the left viewpoint image 60L and the right viewpoint image 60R are obtained by imaging, face detection processing is performed on each of the obtained left viewpoint image 60L and right viewpoint image 60R (step 42 in FIG. 3). For face detection processing, template matching or the like can be used.

図4(A)は左視点画像60Lの一例であり,図4(B)は右視点画像60Rの一例である。   4A shows an example of the left viewpoint image 60L, and FIG. 4B shows an example of the right viewpoint image 60R.

左視点画像60Lおよび右視点画像60Rのそれぞれにおいて顔検出処理が行われることにより,顔画像63Lおよび顔画像63Rが検出される。   The face image 63L and the face image 63R are detected by performing face detection processing on each of the left viewpoint image 60L and the right viewpoint image 60R.

図4(A)および図4(B)には,所定の画角で定められている顔存在規定領域64Lおよび64Rも規定されている。この実施例においては,背景オブジェクトがユーザ自身の顔によって隠れないようにするために,背景オブジェクトがユーザ自身の顔によって隠れている場合には顔を移動するようにユーザに報知される。但し,ユーザの顔が撮像可能範囲の端部にある場合に顔を移動させてしまうと,ユーザの顔が撮像されなくなってしまう。このために,顔を移動してもユーザの顔が撮像可能範囲内にあるような場合に,ユーザに顔を移動するように報知される。顔が顔存在規定領域64Lおよび64Rの中に入っている場合に,ユーザに顔を移動するように報知される。   In FIGS. 4A and 4B, face presence defining regions 64L and 64R defined by a predetermined angle of view are also defined. In this embodiment, in order to prevent the background object from being hidden by the user's own face, the user is notified to move the face when the background object is hidden by the user's own face. However, if the face of the user is moved when the user's face is at the end of the imaging range, the user's face will not be captured. For this reason, if the user's face is within the imageable range even if the face is moved, the user is notified to move the face. When the face is in the face presence defining areas 64L and 64R, the user is notified to move the face.

顔が検出されると,左視点画像64Lおよび右視点画像64Rのそれぞれから死角領域が検出される(図2ステップ43)。   When a face is detected, a blind spot area is detected from each of the left viewpoint image 64L and the right viewpoint image 64R (step 43 in FIG. 2).

図5(A)および図5(B)は,左視点画像60Lおよび右視点画像60Rを示している。これらの図において,図3(A)および図3(B)に示すものと同一物には同一符号を付して説明を省略する。   FIGS. 5A and 5B show a left viewpoint image 60L and a right viewpoint image 60R. In these drawings, the same components as those shown in FIGS. 3A and 3B are denoted by the same reference numerals, and description thereof is omitted.

上述したように,左視点画像60Lと右視点画像60Rとは異なる視点から撮像されているから,左視点画像60Lには,左視点画像60Lには含まれているが右視点画像60Rには含まれていない死角領域(右死角領域)63が含まれている。右死角領域63は,顔の画像62Lの左側にあり,自動車の画像61Lに重なっている。同様に,右視点画像60Rには,右視点画像60Rには含まれているが左視点画像60Lには含まれていない死角領域(左死角領域)64が含まれている。左死角領域64は,顔の画像62Rの右側にある。左視点画像60Lと右視点画像60Rとの各画素の対応を検出し,対応の画素が無いものを死角領域の検出となる。   As described above, since the left viewpoint image 60L and the right viewpoint image 60R are captured from different viewpoints, the left viewpoint image 60L is included in the left viewpoint image 60L but is included in the right viewpoint image 60R. A blind spot area 63 (right blind spot area) that is not included is included. The right blind spot area 63 is on the left side of the face image 62L and overlaps the automobile image 61L. Similarly, the right viewpoint image 60R includes a blind spot area (left blind spot area) 64 that is included in the right viewpoint image 60R but not included in the left viewpoint image 60L. The left blind spot area 64 is on the right side of the face image 62R. Correspondence of each pixel between the left viewpoint image 60L and the right viewpoint image 60R is detected, and a blind spot area is detected when there is no corresponding pixel.

死角領域63および64の部分は,左視点画像60Lと右視点画像60Rのうち,一方の画像には含まれているが他方の画像には含まれていないから,その死角領域63および64の部分は,立体的には見えない。この実施例では,図5(A)に示すように顔の画像62Lに隣接する死角領域63または図5(B)に示すように顔の画像62Rに隣接する死角領域64が背景オブジェクトに重なっている場合には,その背景オブジェクトの一部が顔によって隠されているものと考えられる。このために,死角領域63または64が背景オブジェクトに重なっているかどうかの重畳判定処理が行われる(図2ステップ44)。この重畳判定処理について詳しくは,後述する。   The blind spot areas 63 and 64 are included in one of the left viewpoint image 60L and the right viewpoint image 60R, but are not included in the other image. Cannot be seen three-dimensionally. In this embodiment, a blind spot area 63 adjacent to the face image 62L as shown in FIG. 5A or a blind spot area 64 adjacent to the face image 62R as shown in FIG. 5B overlaps the background object. If so, it is considered that a part of the background object is hidden by the face. For this purpose, a process for determining whether or not the blind spot area 63 or 64 overlaps the background object is performed (step 44 in FIG. 2). Details of this superimposition determination process will be described later.

右死角領域63または左死角領域64が背景オブジェクトに重畳していなければ(ステップ45でNO),ユーザ自身の顔によって背景オブジェクトが隠れてしまっていないと考えられる。このために,記録許可がユーザに報知される(ステップ48)。例えば,ユーザは複眼ディジタル・カメラを自分でもって自分自身を撮像しているので,第1の表示装置27の表示画面は見えない。このために第1の表示装置27の表示画面に記録許可を表示してもユーザは分からないので,複眼ディジタル・カメラの前面に設けられている第2の表示装置28の表示画面(LEDでもよい)にユーザへの報知が行われよう。音声による報知でもよい。ユーザによってシャッタ・レリーズ・ボタンが押されると(ステップ49でYES),被写体であるユーザ自身が撮像され,撮像により得られた左視点画像および右視点画像をそれぞれ表す画像データがメモリ・カード25に記録される(ステップ50)。死角領域が背景オブジェクトに重畳していない場合に(ステップ45でNO),被写体であるユーザ自身が撮像され,撮像により得られた左視点画像および右視点画像をそれぞれ表す画像データがメモリ・カード25に記録されるときには背景オブジェクト61の総面積Sが算出され,その総面積Sを表わすデータもメモリ・カード25に記録されるようにするとよい。後述のように,背景オブジェクト61が顔62によって隠れている場合に,その隠れている割合をユーザに知らせることができる。   If the right blind spot area 63 or the left blind spot area 64 is not superimposed on the background object (NO in step 45), it is considered that the background object is not hidden by the user's own face. Therefore, the recording permission is notified to the user (step 48). For example, since the user takes an image of himself / herself with a compound-eye digital camera, the display screen of the first display device 27 cannot be seen. For this reason, even if the recording permission is displayed on the display screen of the first display device 27, the user does not know. Therefore, the display screen (LED may be used) of the second display device 28 provided in front of the compound-eye digital camera. ) Will be notified to the user. Voice notification may be used. When the shutter release button is pressed by the user (YES in step 49), the user who is the subject is imaged, and image data representing the left viewpoint image and the right viewpoint image obtained by the imaging are stored in the memory card 25, respectively. Recorded (step 50). When the blind spot area is not superimposed on the background object (NO in step 45), the user who is the subject is imaged, and the image data representing the left viewpoint image and the right viewpoint image obtained by the imaging are respectively stored in the memory card 25. It is preferable that the total area S of the background object 61 is calculated and data representing the total area S is also recorded on the memory card 25. As will be described later, when the background object 61 is hidden by the face 62, the user can be informed of the ratio of the hidden object.

右死角領域63または左死角領域64が背景オブジェクトに重畳していると(ステップ45でYES),ユーザ自身の顔によって背景オブジェクトが隠れてしまっていると考えられる。このために,顔を移動するようにユーザに報知される(ステップ47)(複眼ディジタル・カメラ自体を移動するようにユーザに報知してもよい)。   If the right blind spot area 63 or the left blind spot area 64 is superimposed on the background object (YES in step 45), it is considered that the background object is hidden by the user's own face. For this purpose, the user is notified to move the face (step 47) (the user may be notified to move the compound-eye digital camera itself).

図6(A)から図6(C)は,第1の表示装置27の表示画面に表示される立体画像(立体画像でなくともよい)の一例である。   6A to 6C are examples of a three-dimensional image (not necessarily a three-dimensional image) displayed on the display screen of the first display device 27. FIG.

図6(A)を参照して,撮像画像60Aに含まれている顔画像62によって背景オブジェクト61が隠れてしまっていると,上述のように顔を移動するようにユーザに報知される。その報知に応じてユーザは,自分の顔を移動する。すると,図6(B)に示すように,撮像画像60Bに含まれる顔画像62が水平方向に動くので,背景オブジェクト61の見える割合が多くなる。依然として,顔画像62によって背景オブジェクト61が隠れていると,再び,顔を移動するようにユーザに報知される。その報知に応じて,ユーザは,再び顔を移動する。図6(C)に示すように,顔画像62が水平方向に動き,背景オブジェクト61が見えるようになる。   Referring to FIG. 6A, when the background object 61 is hidden by the face image 62 included in the captured image 60A, the user is notified to move the face as described above. In response to the notification, the user moves his / her face. Then, as shown in FIG. 6B, since the face image 62 included in the captured image 60B moves in the horizontal direction, the ratio of the background object 61 visible increases. If the background object 61 is still hidden by the face image 62, the user is notified to move the face again. In response to the notification, the user moves the face again. As shown in FIG. 6C, the face image 62 moves in the horizontal direction and the background object 61 becomes visible.

このように,顔の移動指示に応じてユーザが顔を動かすことより,顔と背景オブジェクトとの重なりが少なくなっていくようになる。   As described above, when the user moves the face in accordance with the face movement instruction, the overlap between the face and the background object is reduced.

但し,上述したように,顔の移動後の顔が撮像範囲内にあるように,顔が所定の規定領域64Lおよび64R内に入っている(所定の画角内に入っている)場合に(ステップ46でYES),顔を移動するようにユーザに報知される(ステップ47)。例えば,複眼ディジタル・カメラの前面に設けられている第2の表示装置28の表示画面に,その旨が表示される。音声報知でもよい。顔が所定画角内に入っていない場合には(ステップ46でNO),記録許可がユーザに報知される(ステップ48)。   However, as described above, when the face is within the predetermined specified areas 64L and 64R (within the predetermined angle of view) so that the face after movement is within the imaging range ( If YES in step 46), the user is notified to move the face (step 47). For example, the fact is displayed on the display screen of the second display device 28 provided in front of the compound-eye digital camera. Audio notification may be used. If the face is not within the predetermined angle of view (NO in step 46), the recording permission is notified to the user (step 48).

上述の実施例では,ユーザに記録許可を報知したあとにユーザによるシャッタ・レリーズのオンがあったことに応じて被写体を撮像して得られた画像データがメモリ・カードに記録されているが,ユーザに記録許可を報知せずに自動撮像を行い,得られた画像データをメモリ・カードに記録するようにしてもよい。ユーザは,画角の設定に専念でき,撮影の手間が省ける。   In the above-described embodiment, the image data obtained by imaging the subject in response to the shutter release being turned on by the user after notifying the user of the recording permission is recorded on the memory card. Automatic imaging may be performed without notifying the user of the recording permission, and the obtained image data may be recorded on the memory card. The user can concentrate on the setting of the angle of view and save the trouble of shooting.

図7は,重畳判定処理手順(図2ステップ44の処理手順)を示すフローチャートである。   FIG. 7 is a flowchart showing the superimposition determination processing procedure (the processing procedure of step 44 in FIG. 2).

重畳判定処理は,左視点画像60Lと右視点画像60Rとのそれぞれについて行われる。まず,左視点画像60Lについて重畳判定が行われ(ステップ71),つづいて右視点画像60Rについて重畳判定が行われる(ステップ72)。   The superimposition determination process is performed for each of the left viewpoint image 60L and the right viewpoint image 60R. First, the superimposition determination is performed on the left viewpoint image 60L (step 71), and then the superimposition determination is performed on the right viewpoint image 60R (step 72).

得られた左視点画像の重畳判定処理と右視点画像の重畳判定処理とのそれぞれの判定結果が統合される(ステップ73)。たとえば,複眼ディジタル・カメラに近い背景オブジェクトが顔の陰とならないような処理が行われる。   The obtained determination results of the left viewpoint image superimposition determination process and the right viewpoint image superimposition determination process are integrated (step 73). For example, processing is performed so that a background object close to a compound-eye digital camera is not a shadow of the face.

図8は,左視点画像重畳判定処理手順(図7ステップ71の処理手順)を示すフローチャートである。左視点画像60Lについての重畳判定処理について述べる画,右視点画像60Rについても同様に行われる。   FIG. 8 is a flowchart showing the left viewpoint image superimposition determination processing procedure (the processing procedure of step 71 in FIG. 7). The same processing is performed for the image describing the superimposition determination processing for the left viewpoint image 60L and the right viewpoint image 60R.

まず,左視点画像60Lの色領域分割処理が行われる(ステップ81)。色領域分割処理は,画像に含まれる対象物を色ごとの領域に分割する処理である。右視点画像60Rについても色領域分割処理が行われる。色領域分割処理は,たとえば,k-means法などを利用できる。   First, the color area dividing process of the left viewpoint image 60L is performed (step 81). The color area dividing process is a process of dividing an object included in an image into areas for each color. Color region division processing is also performed on the right viewpoint image 60R. For example, the k-means method can be used for the color region division processing.

図9(A)および図9(B)は,色分割処理が行われた右視点画像(右視点色分割画像)90Lおよび左視点画像(左視点色分割画像)90Rの一例である。   FIGS. 9A and 9B are examples of a right viewpoint image (right viewpoint color division image) 90L and a left viewpoint image (left viewpoint color division image) 90R that have been subjected to color division processing.

図9(A)を参照して,左視点画像60Lについて色分割処理が行われることにより,自動車の色である赤色の領域91L,ユーザの髪の毛の色である黒色の領域92L,ユーザの顔の色である,うす茶色の領域93Lおよび背景の空の色である青色の領域94Lの各領域に分割される。右視点色分割画像90Lには,右死角領域63も図示されている。   Referring to FIG. 9A, by performing color division processing on the left viewpoint image 60L, a red region 91L that is the color of the car, a black region 92L that is the color of the user's hair, The color is divided into a light brown area 93L and a blue area 94L which is the background sky color. The right blind spot area 63 is also shown in the right viewpoint color division image 90L.

同様に,図9(B)を参照して,右視点画像60Rについて色分割処理が行われることにより,自動車の色である赤色の領域91R,ユーザの髪の毛の色である黒色の領域92R,ユーザの顔の色である,うす茶色の領域93Rおよび背景の空の色である青色の領域94Rの各領域に分割される。左視点色分割画像90Rには,左死角領域64も図示されている。   Similarly, referring to FIG. 9B, by performing color division processing on the right viewpoint image 60R, a red region 91R that is the color of the automobile, a black region 92R that is the color of the user's hair, the user Are divided into areas of a light brown area 93R which is the face color and a blue area 94R which is the sky color of the background. The left blind spot area 64 is also shown in the left viewpoint color division image 90R.

右視点死角領域63の色領域が,隣接する色領域と同じ色領域であれば,右視点死角領域63は,右視点死角領域63に隣接する領域の一部であると考えられる。このために,右視点死角領域63の色領域が,隣接する色領域と同じ色領域かどうかが判定される(ステップ82)。但し,その色領域の大きさが所定の大きさ以上であると,空などのようにユーザ自身に隠れてもよい背景オブジェクトであると考えられる。このために,色領域の大きさが所定の大きさ以下かどうかも確認される(ステップ83)。   If the color area of the right viewpoint blind spot area 63 is the same color area as the adjacent color area, the right viewpoint blind spot area 63 is considered to be a part of the area adjacent to the right viewpoint blind spot area 63. For this purpose, it is determined whether the color area of the right-viewpoint blind spot area 63 is the same color area as the adjacent color area (step 82). However, if the size of the color area is equal to or larger than a predetermined size, it is considered that the background object may be hidden by the user such as the sky. For this purpose, it is also confirmed whether the size of the color area is equal to or smaller than a predetermined size (step 83).

右視点死角領域63の色領域が,隣接する色領域と同じ色領域であると(ステップ82でYES),上述のように,その色領域の大きさが所定の大きさ以下かどうかが確認される(ステップ83)。所定の大きさ以下であると(ステップ83でYES),右視点死角領域63は,その色領域によって特定される背景オブジェクトの一部であると決定される(ステップ84)。これにより,右死角領域63が色領域91Lによって特定される背景オブジェクトに重畳していると判定される。図8(A)に示すように,右死角領域63の色領域が,隣接する色領域91Lと同じ色領域と判断され,かつその色領域91Lの大きさが所定の大きさ以下であると,右死角領域63は,色領域91Lで特定される自動車の画像61Lに重なっていると判定される。   If the color area of the right-viewpoint blind spot area 63 is the same color area as the adjacent color area (YES in step 82), it is confirmed whether the size of the color area is equal to or smaller than a predetermined size as described above. (Step 83). If it is less than or equal to the predetermined size (YES in step 83), the right viewpoint blind spot area 63 is determined to be a part of the background object specified by the color area (step 84). Thus, it is determined that the right blind spot area 63 is superimposed on the background object specified by the color area 91L. As shown in FIG. 8A, when the color area of the right blind spot area 63 is determined to be the same color area as the adjacent color area 91L and the size of the color area 91L is equal to or smaller than a predetermined size, The right blind spot area 63 is determined to overlap the automobile image 61L specified by the color area 91L.

右視点死角領域63の色領域が,隣接する色領域と同じ色領域ではない場合には(ステップ82でNO),右視点死角領域63は背景オブジェクトの一部ではないと決定される(ステップ85)。たとえば,右視点死角領域63の色が,右視点死角領域63の右側にある色領域93Lの色と異なると,右視点死角領域63は,色領域93によって特定される背景オブジェクトの一部ではないと判定される。また,右視点死角領域63に隣接する色領域の大きさが所定の大きさよりも大きいと,右視点死角領域63は,右視点死角領域63に隣接する色領域の一部とは決定されない(ステップ85)。   If the color area of the right viewpoint blind spot area 63 is not the same color area as the adjacent color area (NO in step 82), it is determined that the right viewpoint blind spot area 63 is not part of the background object (step 85). ). For example, if the color of the right viewpoint blind spot area 63 is different from the color of the color area 93L on the right side of the right viewpoint blind spot area 63, the right viewpoint blind spot area 63 is not part of the background object specified by the color area 93. It is determined. If the size of the color area adjacent to the right viewpoint blind spot area 63 is larger than a predetermined size, the right viewpoint blind spot area 63 is not determined to be a part of the color area adjacent to the right viewpoint blind spot area 63 (step 85).

上述の処理と同様の処理が図9(B)に示す右視点色分割画像についても行われる。   A process similar to the process described above is also performed for the right-viewpoint color-divided image shown in FIG.

上述の実施例において,左視点画像60Lまたは右視点画像60Rにおいて,顔画像の両側に背景オブジェクトと重畳している死角領域が存在する場合には,顔画像の左側にある背景オブジェクトと顔画像の右側にある背景オブジェクトとのどちらが顔画像に重畳しないようにすれば分からないので,顔の移動指示を報知することなく,撮像許可を報知するようにできる。もっとも,顔画像の両側にある背景オブジェクトのうち,複眼ディジタル・カメラに近い方の背景オブジェクトが顔画像と重畳しないように顔の移動指示を与えるようにしてもよい。顔の移動方向は,顔画像の位置と死角領域との位置関係にもとづいて決定できる。死角領域が顔画像の左側にある場合には,被写体像において顔画像が右側に移動するように報知させ,死角領域が顔画像の右側にある場合には,被写体像において顔画像が左側に移動するように報知させるようにしてもよい。また,背景オブジェクトは,たとえば,同一色の物体と考えられる。   In the above-described embodiment, in the left viewpoint image 60L or the right viewpoint image 60R, when there is a blind spot area superimposed on the background object on both sides of the face image, the background object and the face image on the left side of the face image are displayed. Since it is not known if the background object on the right side is not superimposed on the face image, the imaging permission can be notified without notifying the face movement instruction. Of course, among the background objects on both sides of the face image, a face movement instruction may be given so that the background object closer to the compound-eye digital camera is not superimposed on the face image. The moving direction of the face can be determined based on the positional relationship between the position of the face image and the blind spot area. When the blind spot area is on the left side of the face image, the subject image is notified to move to the right side, and when the blind spot area is on the right side of the face image, the face image is moved to the left side of the subject image. You may make it alert | report so that. Further, the background object is considered to be an object of the same color, for example.

図10から図15(A)および図15(B)は,変形例を示している。   FIGS. 10 to 15A and 15B show modifications.

図10は,視差調整処理手順を示すフローチャートである。この視差調整は,たとえば,シャッタ・レリーズ・ボタンがオンされた(図2のステップ49でYES)ことに応じて行われる。図11は,被写体距離レンジと顔の視差量との関係を示している。図12(A),図13(A),図14(A)および図15(A)は,被写体像(左視点画像または右視点画像)111,121,131および141の一例を示し,図12(B),図13(B),図14(B)および図15(B)は,被写体の位置を示している。   FIG. 10 is a flowchart showing a parallax adjustment processing procedure. This parallax adjustment is performed, for example, in response to the shutter release button being turned on (YES in step 49 in FIG. 2). FIG. 11 shows the relationship between the subject distance range and the amount of facial parallax. FIGS. 12A, 13A, 14A, and 15A show examples of subject images (left viewpoint image or right viewpoint image) 111, 121, 131, and 141. FIG. (B), FIG. 13 (B), FIG. 14 (B), and FIG. 15 (B) show the position of the subject.

この変形例は,ユーザと背景オブジェクトとの距離とにもとづいて視差量を調整するものである。   In this modification, the amount of parallax is adjusted based on the distance between the user and the background object.

まず,顔までの距離および背景オブジェクトまでの距離が算出される(ステップ101)。これらの距離はフォーカス・レンズの移動量などにより算出できる。つづいて,顔と背景オブジェクトとの距離(被写体距離レンジ)が算出される(ステップ102)。顔と背景オブジェクトとの距離にもとづいて視差量が算出される(ステップ103)。算出された視差量となるように,左視点画像60Lと右視点画像60Rとの視差量が調整される(ステップ104)。もっとも,顔と背景オブジェクトとの間にある物体の視差量が0となるように視差量調整処理が行われてもよい。   First, the distance to the face and the distance to the background object are calculated (step 101). These distances can be calculated based on the amount of movement of the focus lens. Subsequently, the distance between the face and the background object (subject distance range) is calculated (step 102). The amount of parallax is calculated based on the distance between the face and the background object (step 103). The amount of parallax between the left viewpoint image 60L and the right viewpoint image 60R is adjusted so as to be the calculated amount of parallax (step 104). However, the parallax amount adjustment processing may be performed so that the parallax amount of the object between the face and the background object becomes zero.

図11を参照して,被写体距離レンジが0のときは,視差量も0である。顔の位置がクロス・ポイントの位置となる。被写体距離レンジが所定の値R1までは,被写体距離レンジが大きくなるにつれて顔の視差量も序々に大きくなる。被写体距離レンジが所定の値R1を以上となると,あらかじめ定められている許容視差量となる。   Referring to FIG. 11, when the subject distance range is zero, the parallax amount is also zero. The face position becomes the position of the cross point. Until the subject distance range reaches a predetermined value R1, the parallax amount of the face gradually increases as the subject distance range increases. When the subject distance range exceeds the predetermined value R1, a predetermined allowable parallax amount is obtained.

顔の視差量が大きくなってしまうと,背景の視差量はそれ以上に大きくなってしまい,立体視しづらい状態となってしまう。顔の視差量が許容視差量に抑えられるので,背景の視差量が大きくなってしまうことを未然に防止できる。顔だけでなく,背景の被写体の破綻無く立体視できるようになる。   If the amount of parallax of the face becomes large, the amount of parallax of the background becomes larger than that, which makes it difficult for stereoscopic viewing. Since the parallax amount of the face is suppressed to the allowable parallax amount, it is possible to prevent the background parallax amount from increasing. Not only the face but also the background subject can be viewed stereoscopically.

図12(A)は,被写体が空以外はユーザのみの被写体像111の一例である。このように被写体が空以外はユーザのみの場合には,ユーザと背景オブジェクトとの距離が0となり,図12(B)に示すようにユーザの画像(顔画像)112がクロス・ポイントの位置となるように視差量調整が行われる。   FIG. 12A is an example of the subject image 111 only for the user except when the subject is empty. In this way, when the subject is only the user other than the sky, the distance between the user and the background object is 0, and the user image (face image) 112 is the position of the cross point as shown in FIG. The parallax amount is adjusted so that

図13(A)は,被写体像121にユーザの画像122とバイクの画像123とが含まれている。図13(B)に示すように,ユーザとバイクとの距離が小さいとそれらの距離差に応じて視差量が調整される。   In FIG. 13A, the subject image 121 includes a user image 122 and a motorcycle image 123. As shown in FIG. 13B, when the distance between the user and the motorcycle is small, the amount of parallax is adjusted in accordance with the distance difference.

図14(A)は,被写体像131にユーザの画像132と建物の画像132とが含まれている。図14(B)に示すように,ユーザと建物との距離が比較的近い場合も,それらの距離差に応じて視差量が調整される。   In FIG. 14A, a subject image 131 includes a user image 132 and a building image 132. As shown in FIG. 14B, even when the distance between the user and the building is relatively close, the amount of parallax is adjusted according to the distance difference.

図15(A)は,被写体像141にユーザの画像142と山の画像142とが含まれている。図15(B)に示すように,ユーザと山との距離が遠いと,これらの距離差に応じて視差量が調整されると,立体視しづらいことがある。このために,上述のように,ユーザの顔の視差量は許容視差量に抑えられる。   In FIG. 15A, the subject image 141 includes a user image 142 and a mountain image 142. As shown in FIG. 15B, if the distance between the user and the mountain is long, stereoscopic viewing may be difficult if the amount of parallax is adjusted according to the distance difference. For this reason, as described above, the parallax amount of the user's face is suppressed to the allowable parallax amount.

図16は,被写体距離レンジと顔の視差量との関係を示すもので,図11に対応している。   FIG. 16 shows the relationship between the subject distance range and the amount of face parallax, and corresponds to FIG.

図11に示す関係では,被写体距離レンジが0の場合には,顔の視差量が0とされているが,図16に示す関係では,被写体距離レンジが0の場合には,顔の視差量は最適視差量となる。被写体距離レンジが所定の距離レンジR1までは顔の視差量は距離レンジが増加するにつれて増加される。所定の距離レンジR1以上となると顔の視差量は許容視差量に抑えられるのは上述したのと同様である。   In the relationship shown in FIG. 11, when the subject distance range is 0, the face parallax amount is 0. However, in the relationship shown in FIG. 16, when the subject distance range is 0, the face parallax amount is 0. Is the optimum amount of parallax. The parallax amount of the face is increased as the distance range increases until the subject distance range reaches a predetermined distance range R1. As described above, the face parallax amount is suppressed to the allowable parallax amount when the distance is equal to or greater than the predetermined distance range R1.

顔の視差量における許容視差量,最適視差量は表示画面の大きさ,解像度などによって変える必要がある。たとえば,水平方向800画素垂直方向640画素の3.5型の表示画面に立体画像を表示する場合には,たとえば,許容視差量は56画素,最適視差量は24画素である。   It is necessary to change the allowable parallax amount and the optimal parallax amount of the face parallax amount according to the size and resolution of the display screen. For example, when a stereoscopic image is displayed on a 3.5-inch display screen having 800 pixels in the horizontal direction and 640 pixels in the vertical direction, for example, the allowable parallax amount is 56 pixels and the optimal parallax amount is 24 pixels.

図17は,他の変形例を示すもので,撮像制御処理手順を示すフローチャートである。ユーザによってシャッタ・レリーズ・ボタンが押されたことにより,図16に示す処理手順が行われる。   FIG. 17 shows another modified example and is a flowchart showing an imaging control processing procedure. When the shutter release button is pressed by the user, the processing procedure shown in FIG. 16 is performed.

上述したように,顔までの距離と背景オブジェクトの距離とが算出され(ステップ101),顔までの距離と背景オブジェクトまでの距離との間の距離(距離レンジ)が算出される(ステップ102)。算出された距離レンジにもとづいて視差量が算出される(ステップ103)。   As described above, the distance to the face and the distance to the background object are calculated (step 101), and the distance (distance range) between the distance to the face and the distance to the background object is calculated (step 102). . A parallax amount is calculated based on the calculated distance range (step 103).

視差量が大きくなりすぎる背景オブジェクトがあれば(ステップ151でYES),立体視が破綻されてしまうので,2D撮像が行われる(ステップ153)。視差量が大きくなりすぎる背景オブジェクトがなければ(ステップ151でNO),3D撮像が行われる(ステップ152)。2D撮像は,左視点撮像装置および右視点撮像装置のうちの一方の撮像装置で撮像すればよいし,3D撮像は,左視点撮像装置および右視点撮像装置の両方の撮像装置で撮像すればよい。   If there is a background object in which the amount of parallax becomes too large (YES in step 151), stereoscopic vision is broken, and 2D imaging is performed (step 153). If there is no background object whose parallax amount is too large (NO in step 151), 3D imaging is performed (step 152). 2D imaging may be performed with one of the left viewpoint imaging device and the right viewpoint imaging device, and 3D imaging may be performed with both the left viewpoint imaging device and the right viewpoint imaging device. .

図18は,他の実施例を示すもので,複眼ディジタル・カメラの処理手順を示すフローチャートである。この処理は,図2に示す処理につづいて行われるものである。図19は,第1の表示装置27の表示画面に表示される撮像画像60Dの一例である。図6(A)から図6(C)の撮像画像60Aから60Cに対応する。   FIG. 18 shows another embodiment, and is a flowchart showing the processing procedure of the compound-eye digital camera. This process is performed following the process shown in FIG. FIG. 19 is an example of a captured image 60D displayed on the display screen of the first display device 27. This corresponds to the captured images 60A to 60C shown in FIGS. 6 (A) to 6 (C).

この実施例は,背景オブジェクトと顔との重なりの程度をユーザに報知するものである。   In this embodiment, the user is notified of the degree of overlap between the background object and the face.

上述したように,背景オブジェクトの総面積Sが記録されており,その総面積Sが利用される。画角が変わってしまうと,撮像範囲の中に含まれている背景オブジェクトが変わってしまうことがあるので,画角が変わっている場合には(ステップ162でYES),他の処理が行われる。   As described above, the total area S of the background object is recorded, and the total area S is used. If the angle of view changes, the background object included in the imaging range may change. If the angle of view changes (YES in step 162), other processing is performed. .

画角が変わっていない場合には(ステップ162でNO),図19に示すように,被写体が撮像され,得られた撮像画像60Dから顔画像62が検出される(ステップ163)。   If the angle of view has not changed (NO in step 162), the subject is imaged as shown in FIG. 19, and the face image 62 is detected from the obtained captured image 60D (step 163).

上述のように,撮像画像60Dの中から背景オブジェクト61が見つけ出され,見つけ出された背景オブジェクト61のうち,顔62によって表示されていない非表示領域と死角領域とが除かれた背景オブジェクトの面積Aが算出される(ステップ164)。算出された面積Aは,立体画像として見える面積を表わしていることとなる。   As described above, the background object 61 is found from the captured image 60D, and among the found background objects 61, the non-display area and the blind spot area that are not displayed by the face 62 are removed. Area A is calculated (step 164). The calculated area A represents an area that can be seen as a stereoscopic image.

背景オブジェクトの表示割合R=A/Sが算出され(ステップ165),算出された表示割合がユーザに報知される(ステップ166)。複眼ディジタル・カメラの前面に表示画面か形成され,その表示画面に表示割合が表示される,あるいは表示割合が音声出力されることとなろう。たとえば,図19に示すものであれば,背景オブジェクト61の割合が80%であることが報知される。ユーザは,その割合を知ることにより,背景オブジェクト61の全体のうち,どの位の割合を立体視できるかが分る。その割合でよければシャッタ・レリーズ・ボタンがオンされ(ステップ167でYES),撮像により得られた画像データ(左視点画像データおよび右視点画像データ)がメモリ・カード25に記録される(ステップ168)。ユーザは,顔と背景オブジェクトとの重なりの程度が分かるので,所望の重なりの程度のときに撮像できるようになる。   The display ratio R = A / S of the background object is calculated (step 165), and the calculated display ratio is notified to the user (step 166). A display screen will be formed in front of the compound-eye digital camera, and the display ratio will be displayed on the display screen, or the display ratio will be output as audio. For example, in the case shown in FIG. 19, it is notified that the ratio of the background object 61 is 80%. By knowing the ratio, the user knows how much of the background object 61 can be viewed stereoscopically. If the ratio is acceptable, the shutter release button is turned on (YES in step 167), and image data (left viewpoint image data and right viewpoint image data) obtained by imaging is recorded in the memory card 25 (step 168). ). Since the user knows the degree of overlap between the face and the background object, the user can take an image when the degree of overlap is desired.

撮像される背景オブジェクト61の割合が所望の割合でなければ(ステップ167でNO),ユーザは顔を動かし,再び背景オブジェクト61の全体のうち立体視できる割合が算出され,かつ表示される(ステップ163〜166)。この場合においても,立体視できる背景オブジェクト61の割合を変えるには顔を動かす旨をユーザに報知してもよい。   If the ratio of the background object 61 to be imaged is not the desired ratio (NO in step 167), the user moves the face, and the ratio of the stereoscopic view of the entire background object 61 is calculated and displayed again (step). 163-166). Even in this case, the user may be notified that the face is moved in order to change the proportion of the background object 61 that can be stereoscopically viewed.

1,2 撮像装置
10 CPU
1, 2 Imaging device
10 CPU

Claims (12)

異なる視点での撮像を繰り返す複数の撮像装置を備えた複眼撮像装置において,
上記複数の撮像装置によって被写体を撮像して得られた複数の被写体像の少なくとも一方から顔領域を検出する顔検出手段,
複数の被写体像のうち一方の被写体像には含まれるが他方の被写体像には含まれない死角領域が,上記顔検出手段によって検出された顔領域に隣接して存在するかどうかを判定する死角領域判定手段,
上記死角領域判定手段によって死角領域が存在すると判定されたことに応じて,その死角領域が顔領域の背景にある顔領域に隣接した背景オブジェクトの領域と重なるかどうかを判定する重畳判定手段,および
上記重畳判定手段によって死角領域が背景オブジェクトの領域と重なると判定されたことに応じて顔または複眼撮像装置自体の移動指示を報知する第1の報知手段,
を備えた複眼撮像装置。
In a compound eye imaging device having multiple imaging devices that repeat imaging from different viewpoints,
Face detection means for detecting a face region from at least one of a plurality of subject images obtained by imaging a subject with the plurality of imaging devices;
A blind spot that determines whether a blind spot area that is included in one of the subject images but not included in the other subject image exists adjacent to the face area detected by the face detection means. Area determination means,
A superimposition judging means for judging whether or not the blind spot area overlaps a background object area adjacent to the face area in the background of the face area in response to the blind spot area judging means that the blind spot area exists, First notifying means for notifying the movement instruction of the face or the compound-eye imaging device itself when it is determined by the superimposition determining means that the blind spot area overlaps the area of the background object;
A compound eye imaging device.
上記顔検出手段によって検出された顔領域が,撮影可能な範囲よりも狭い画角である所定の画角に入っているかどうかを判定する画角判定手段をさらに備え,
上記第1の報知手段は,
上記画角判定手段によって顔が所定の画角に入っていると判定されたことに応じて,顔または複眼撮像装置自体の移動指示を報知するものである,
請求項1に記載の複眼撮像装置。
An angle-of-view determination means for determining whether the face area detected by the face detection means is within a predetermined angle of view that is narrower than an imageable range;
The first notification means includes
In response to a determination that the face is within a predetermined angle of view by the angle of view determination means, a movement instruction for the face or the compound-eye imaging device itself is notified.
The compound eye imaging device according to claim 1.
上記重畳判定手段によって死角領域が背景オブジェクトの領域と重なっていないと判定されたことに応じて,撮影許可を報知する第2の報知手段,
をさらに備えた請求項1または2に記載の複眼撮像装置。
Second notifying means for notifying the photographing permission when it is determined by the superimposition determining means that the blind spot area does not overlap with the background object area;
The compound eye imaging device according to claim 1, further comprising:
上記画角判定手段によって顔が所定の画角に入っていると判定されたことに応じて撮影許可を報知する第3の報知手段,
をさらに備えた請求項2または3に記載の複眼撮像装置。
Third notification means for notifying permission of photographing in response to the fact that the face is determined to be within a predetermined angle of view by the angle of view determination means;
The compound eye imaging device according to claim 2, further comprising:
上記重畳判定手段によって死角領域が背景オブジェクトの画像と重なっていないと判定されたことに応じて,上記複数の撮像装置において撮像された被写体像を表す画像データを記録媒体に記録する第1の記録制御手段,
をさらに備えた請求項1から4のうち,いずれか一項に記載の複眼撮像装置。
First recording that records image data representing subject images captured by the plurality of imaging devices on a recording medium in response to determining that the blind spot area does not overlap with the image of the background object by the superimposition determination unit. Control means,
The compound eye imaging device according to any one of claims 1 to 4, further comprising:
上記画角判定手段によって顔が所定の画角に入っていると判定されたことに応じて,上記複数の撮像装置において撮像された被写体像を表す画像データを記録媒体に記録する第2の記録制御手段,
をさらに備えた請求項2から4のうち,いずれか一項に記載の複眼撮像装置。
Second recording that records image data representing subject images captured by the plurality of imaging devices on a recording medium in response to determining that the face is within a predetermined angle of view by the angle of view determination means. Control means,
The compound eye imaging device according to any one of claims 2 to 4, further comprising:
上記顔画像によって表される顔と上記背景オブジェクトとの間にある物体との視差が0となるように上記複数の被写体像の視差量を調整する第1の視差量調整手段,
をさらに備えた請求項1から6のうち,いずれか一項に記載の複眼撮像装置。
First parallax amount adjusting means for adjusting parallax amounts of the plurality of subject images so that parallax between the face represented by the face image and an object between the background object is zero;
The compound eye imaging device according to any one of claims 1 to 6, further comprising:
上記顔画像によって表される顔と上記背景オブジェクトとの距離を算出する距離算出手段,および
上記距離算出手段によって算出された距離が所定距離以上であることに応じて,顔の画像部分の視差量が所定視差量以下となるように上記複数の被写体像の視差量を調整する第2の視差量調整手段,
をさらに備えた請求項1から7のうち,いずれか一項に記載の複眼撮像装置。
A distance calculating means for calculating a distance between the face represented by the face image and the background object; and a parallax amount of the image portion of the face in accordance with the distance calculated by the distance calculating means being equal to or greater than a predetermined distance Second parallax amount adjusting means for adjusting the parallax amounts of the plurality of subject images so that is equal to or less than a predetermined parallax amount;
The compound eye imaging device according to any one of claims 1 to 7, further comprising:
上記背景オブジェクトの視差量を算出する背景オブジェクト視差量算出手段,および
上記背景オブジェクト視差量算出手段によって算出された視差量が所定量以上であった場合に,2Dの画像データを記録媒体に記録する第3の記録制御手段,
をさらに備えた請求項8に記載の複眼撮像装置。
The background object parallax amount calculating means for calculating the parallax amount of the background object, and the 2D image data is recorded on the recording medium when the parallax amount calculated by the background object parallax amount calculating means is equal to or larger than a predetermined amount. Third recording control means,
The compound eye imaging apparatus according to claim 8, further comprising:
上記背景オブジェクトの総面積を算出する第1の面積算出手段,
上記背景オブジェクトが上記顔検出手段によって検出された顔によって隠されている部分を除く残りの部分の面積を算出する第2の面積算出手段,および
上記第1の面積算出手段によって算出された面積と上記第2の面積算出手段によって算出された面積との面積比を報知する第4の報知手段,
をさらに備えた請求項1から9のうち,いずれか一項に記載の複眼撮像装置。
First area calculating means for calculating a total area of the background object;
A second area calculating means for calculating an area of a remaining portion excluding a portion where the background object is hidden by the face detected by the face detecting means; and an area calculated by the first area calculating means; Fourth informing means for informing an area ratio with the area calculated by the second area calculating means;
The compound eye imaging apparatus according to any one of claims 1 to 9, further comprising:
上記背景オブジェクトは同一色の物体である,請求項1から10のうち,いずれか一項に記載の複眼撮像装置。   The compound eye imaging apparatus according to claim 1, wherein the background object is an object of the same color. 異なる視点での撮像を繰り返す複数の撮像装置を備えた複眼撮像装置の動作制御方法において,
顔検出手段が,上記複数の撮像装置によって被写体を撮像して得られた複数の被写体像の少なくとも一方から顔領域を検出し,
死角領域判定手段が,複数の被写体像のうち一方の被写体像には含まれるが他方の被写体像には含まれない死角領域が,上記顔検出手段によって検出された顔領域に隣接して存在するかどうかを判定し,
重畳判定手段が,上記死角領域判定手段によって死角領域が存在すると判定されたことに応じて,その死角領域が顔領域の背景にある顔領域に隣接した背景オブジェクトの領域と重なるかどうかを判定し,
報知手段が,上記重畳判定手段によって死角領域が背景オブジェクトの領域と重なると判定されたことに応じて顔または複眼撮像装置自体の移動指示を報知する,
複眼撮像装置の動作制御方法。
In a method of controlling the operation of a compound-eye imaging device having a plurality of imaging devices that repeat imaging from different viewpoints,
A face detection unit that detects a face region from at least one of a plurality of subject images obtained by imaging the subject by the plurality of imaging devices;
The blind spot area determining means includes a blind spot area that is included in one of the subject images but not included in the other subject image adjacent to the face area detected by the face detecting means. Whether or not
In response to determining that the blind spot area exists by the blind spot area determining means, the superimposition determination means determines whether the blind spot area overlaps with the background object area adjacent to the face area in the background of the face area. ,
The notification means notifies the movement instruction of the face or the compound-eye imaging device itself when it is determined by the superimposition determination means that the blind spot area overlaps the area of the background object.
Operation control method of compound eye imaging apparatus.
JP2011206000A 2011-09-21 2011-09-21 Compound-eye imaging device and operation control method therefor Withdrawn JP2013070154A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2011206000A JP2013070154A (en) 2011-09-21 2011-09-21 Compound-eye imaging device and operation control method therefor

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2011206000A JP2013070154A (en) 2011-09-21 2011-09-21 Compound-eye imaging device and operation control method therefor

Publications (1)

Publication Number Publication Date
JP2013070154A true JP2013070154A (en) 2013-04-18

Family

ID=48475369

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2011206000A Withdrawn JP2013070154A (en) 2011-09-21 2011-09-21 Compound-eye imaging device and operation control method therefor

Country Status (1)

Country Link
JP (1) JP2013070154A (en)

Similar Documents

Publication Publication Date Title
JP5390707B2 (en) Stereoscopic panorama image synthesis apparatus, imaging apparatus, stereo panorama image synthesis method, recording medium, and computer program
US20120263372A1 (en) Method And Apparatus For Processing 3D Image
JP5814692B2 (en) Imaging apparatus, control method therefor, and program
US20130113875A1 (en) Stereoscopic panorama image synthesizing device, multi-eye imaging device and stereoscopic panorama image synthesizing method
JP5612774B2 (en) Tracking frame initial position setting device and operation control method thereof
CN102959974B (en) Stereoscopic image reproducing device, its disparity adjustment method and camera
JP5526233B2 (en) Stereoscopic image photographing apparatus and control method thereof
JP2011077900A (en) Image processing apparatus, camera, and image processing method
JP5978573B2 (en) Video signal processing apparatus and video signal processing method
US20130162764A1 (en) Image processing apparatus, image processing method, and non-transitory computer-readable medium
JP5425305B2 (en) Stereoscopic image control apparatus, operation control method thereof, and operation control program thereof
JP2011259168A (en) Stereoscopic panoramic image capturing device
CN102986232B (en) Image processing apparatus and method
JP5449551B2 (en) Image output apparatus, method and program
US20120236126A1 (en) Image pickup device, image pickup method, program, and integrated circuit
US9532034B2 (en) Three-dimensional imaging apparatus and three-dimensional image display method
JP5580486B2 (en) Image output apparatus, method and program
JP5571257B2 (en) Image processing apparatus, method, and program
JP2011146825A (en) Stereo image photographing device and method for the same
JP4887461B2 (en) 3D image pickup apparatus and 3D image display method
JP2013070154A (en) Compound-eye imaging device and operation control method therefor
JP2013046343A (en) Image pickup device
JP5579329B2 (en) Stereoscopic image display control method, stereoscopic image display control device, and imaging device
JP2012028871A (en) Stereoscopic image display device, stereoscopic image photographing device, stereoscopic image display method, and stereoscopic image display program
JP2011199728A (en) Image processor, imaging device equipped with the same, and image processing method

Legal Events

Date Code Title Description
A300 Withdrawal of application because of no request for examination

Free format text: JAPANESE INTERMEDIATE CODE: A300

Effective date: 20141202