[go: up one dir, main page]

JP2013090154A - Photography device - Google Patents

Photography device Download PDF

Info

Publication number
JP2013090154A
JP2013090154A JP2011229122A JP2011229122A JP2013090154A JP 2013090154 A JP2013090154 A JP 2013090154A JP 2011229122 A JP2011229122 A JP 2011229122A JP 2011229122 A JP2011229122 A JP 2011229122A JP 2013090154 A JP2013090154 A JP 2013090154A
Authority
JP
Japan
Prior art keywords
image
unit
image data
sub
superimposition
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2011229122A
Other languages
Japanese (ja)
Inventor
Nobusuke Honma
伸祐 本間
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Olympus Imaging Corp
Original Assignee
Olympus Imaging Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Olympus Imaging Corp filed Critical Olympus Imaging Corp
Priority to JP2011229122A priority Critical patent/JP2013090154A/en
Publication of JP2013090154A publication Critical patent/JP2013090154A/en
Pending legal-status Critical Current

Links

Images

Landscapes

  • Indication In Cameras, And Counting Of Exposures (AREA)
  • Studio Devices (AREA)

Abstract

PROBLEM TO BE SOLVED: To provide a photography device making it easy to grasp what a user intends to photograph in photography.SOLUTION: The photography device comprises: an imaging section capable of photographing an image including a plurality of subjects; a main-image generation section for generating a main image on the basis of the image obtained by the imaging section; a sub-image generation section for generating a sub image by performing processing to zoom a desired subject selected from the plurality of subjects on the image obtained by the imaging section; a superposition processing section for generating a superposition image by performing processing to superpose the sub image generated by the sub-image generation section on the main image generated by the main-image generation section; and a picture quality adjustment section for adjusting the picture quality of an area corresponding to the main image of the superposition image and the picture quality of an area corresponding to the sub image of the superposition image individually.

Description

本発明は、撮影装置に関し、特に、複数の画像データを同時撮影することが可能な撮影装置に関するものである。   The present invention relates to a photographing apparatus, and more particularly to a photographing apparatus capable of simultaneously photographing a plurality of image data.

デジタルカメラ等の撮影装置において、一度の撮影で視野の異なる複数の画像データを取得し、当該取得した複数の画像データを個別に記録可能な技術が従来知られている。   2. Description of the Related Art Conventionally, there has been known a technique capable of acquiring a plurality of pieces of image data having different fields of view in a single shooting operation and recording the acquired pieces of image data individually in a photographing apparatus such as a digital camera.

具体的には、例えば、特許文献1には、撮影光学系からの被写体像を光電変換を用いて撮像する撮像素子における第1エリアに対応する画像データに基づいて、前記第1エリアの一部のエリアを第2エリアとして決定し、前記第1エリアに対応する画像データと前記第2エリアに対応する画像データとを前記撮像素子から交互に読み出し、前記第1エリアに対応する画像データと前記第2エリアに対応する画像データとを個別に(別個の画像ファイルとして)記録する、という構成を備えたデジタルカメラが開示されている。   Specifically, for example, Patent Document 1 discloses a part of the first area based on image data corresponding to the first area in an image sensor that captures a subject image from a photographing optical system using photoelectric conversion. Is determined as a second area, image data corresponding to the first area and image data corresponding to the second area are alternately read from the image sensor, and the image data corresponding to the first area and the There is disclosed a digital camera having a configuration in which image data corresponding to a second area is recorded individually (as a separate image file).

日本国特開2004−187124号公報Japanese Unexamined Patent Publication No. 2004-187124

しかし、特許文献1に開示された構成によれば、例えば、前述の第1エリアに対応する画像データ及び第2エリアに対応する画像データとして個別に記録された2つの異なる視野の画像データのうち、一方の視野の画像データを再生して見ただけでは、撮影時におけるユーザの撮影意図を把握し辛い場合がある、という課題が生じている。   However, according to the configuration disclosed in Patent Document 1, for example, among the image data corresponding to the first area and the image data having two different fields of view that are individually recorded as image data corresponding to the second area. However, there is a problem that it may be difficult to grasp the user's intention of shooting at the time of shooting just by reproducing and viewing the image data of one field of view.

本発明は、前述した事情に鑑みてなされたものであり、撮影時におけるユーザの撮影意図を把握し易くすることが可能な撮影装置を提供することを目的としている。   The present invention has been made in view of the above-described circumstances, and an object of the present invention is to provide an imaging apparatus capable of easily grasping a user's intention of shooting at the time of shooting.

本発明の一態様の撮影装置は、複数の被写体を含む画像を撮影可能な撮像部と、前記撮像部により得られた前記画像に基づいてメイン画像を生成するメイン画像生成部と、前記撮像部により得られた前記画像に対し、前記複数の被写体の中から選択された所望の被写体をズームする処理を行うことによりサブ画像を生成するサブ画像生成部と、前記メイン画像生成部により生成された前記メイン画像に対し、前記サブ画像生成部により生成された前記サブ画像を重畳する処理を行うことにより重畳画像を生成する重畳処理部と、前記重畳画像の前記メイン画像に相当する領域の画質と、前記重畳画像の前記サブ画像に相当する領域の画質と、を個別に調整する画質調整部と、を有する。   An imaging device according to an aspect of the present invention includes an imaging unit that can capture an image including a plurality of subjects, a main image generation unit that generates a main image based on the image obtained by the imaging unit, and the imaging unit A sub-image generation unit that generates a sub-image by performing a process of zooming a desired subject selected from the plurality of subjects, and the main image generation unit A superimposition processing unit that generates a superimposed image by performing a process of superimposing the sub image generated by the sub image generation unit on the main image, and an image quality of an area corresponding to the main image of the superimposed image And an image quality adjustment unit for individually adjusting the image quality of a region corresponding to the sub-image of the superimposed image.

本発明における撮影装置によれば、撮影時におけるユーザの撮影意図を把握し易くすることができる。   According to the photographing apparatus of the present invention, it is possible to easily grasp the user's intention of photographing at the time of photographing.

本発明の実施例に係る撮影装置の要部の構成を示すブロック図。1 is a block diagram illustrating a configuration of a main part of a photographing apparatus according to an embodiment of the present invention. 本実施例に係る撮影装置において行われる処理等の一例を示すフローチャート。6 is a flowchart illustrating an example of processing performed in the imaging apparatus according to the present embodiment. 重畳領域の設定に係る処理を説明するための説明図。Explanatory drawing for demonstrating the process which concerns on the setting of a superimposition area | region. 重畳枠の表示態様の一例を示す図。The figure which shows an example of the display mode of a superimposition frame. 追尾枠の生成に係る処理を説明するための説明図。Explanatory drawing for demonstrating the process which concerns on the production | generation of a tracking frame. 追尾枠の表示態様の一例を示す図。The figure which shows an example of the display mode of a tracking frame. 重畳画像データの生成に係る処理等の一例を示すフローチャート。6 is a flowchart illustrating an example of processing related to generation of superimposed image data. メイン画像データに適用されるゲインマップの一例を示す図。The figure which shows an example of the gain map applied to main image data. サブ画像データに適用されるゲインマップの一例を示す図。The figure which shows an example of the gain map applied to sub image data. 図7の処理等により生成される重畳画像データの一例を示す図。The figure which shows an example of the superimposition image data produced | generated by the process of FIG. 重畳画像データの画質調整に用いられるGUIの表示態様の一例を示す図。The figure which shows an example of the display mode of GUI used for the image quality adjustment of superimposition image data. 本実施例に係る撮影装置を用いて撮影を行った際に記録される重畳画像データの一例を示す図。The figure which shows an example of the superimposition image data recorded when image | photographing using the imaging device which concerns on a present Example. 本実施例に係る撮影装置において行われる処理等の、図2とは異なる例を示すフローチャート。3 is a flowchart showing an example different from that shown in FIG. 重畳領域の再設定に係る処理を説明するための説明図。Explanatory drawing for demonstrating the process which concerns on the reset of a superimposition area | region. 再設定された重畳領域の一例を示す図。The figure which shows an example of the overlapping area | region reset.

以下、本発明の実施の形態について、図面を参照しつつ説明を行う。   Embodiments of the present invention will be described below with reference to the drawings.

図1から図15は、本発明の実施例に係るものである。   1 to 15 relate to an embodiment of the present invention.

図1は、本発明の実施例に係る撮影装置の要部の構成を示すブロック図である。   FIG. 1 is a block diagram illustrating a configuration of a main part of a photographing apparatus according to an embodiment of the present invention.

撮影装置1は、例えばデジタルカメラとして構成されており、撮像部11と、画像処理部12と、追尾部13と、重畳処理部14と、重畳領域設定部15と、タッチパネル部16と、記録部17と、表示部18と、を有している。   The photographing apparatus 1 is configured as a digital camera, for example, and includes an imaging unit 11, an image processing unit 12, a tracking unit 13, a superimposition processing unit 14, a superimposition area setting unit 15, a touch panel unit 16, and a recording unit. 17 and a display unit 18.

撮像部11は、例えば、レンズ、絞り機構、シャッター機構、焦点調整機構、及び、撮像素子等からなる撮像系を具備して構成されている。また、撮像部11は、前述の撮像系におけるレンズの視野内に位置する1つ以上の被写体を撮影して画像データを得ることができるように構成されている。   The imaging unit 11 includes, for example, an imaging system including a lens, a diaphragm mechanism, a shutter mechanism, a focus adjustment mechanism, and an imaging element. The imaging unit 11 is configured to capture one or more subjects located within the field of view of the lens in the imaging system described above and obtain image data.

画像処理部12は、メイン画像生成部12aと、サブ画像生成部12bと、を有して構成されている。   The image processing unit 12 includes a main image generation unit 12a and a sub image generation unit 12b.

メイン画像生成部12aは、撮像部11により得られた画像データに対し、ホワイトバランス及びダイナミックレンジ調整等の画像処理を施すことにより、メイン画像データを生成する。   The main image generation unit 12a generates main image data by performing image processing such as white balance and dynamic range adjustment on the image data obtained by the imaging unit 11.

サブ画像生成部12bは、撮像部11により得られた画像データに対し、ホワイトバランス及びダイナミックレンジ調整等の画像処理を施す。また、サブ画像生成部12bは、撮影装置1の動作モードが後述の重畳撮影モードに設定された際に、前述の画像処理を施した画像データの中から、追尾部13の追尾対象となっている被写体を含む追尾枠内の領域を抽出する。そして、サブ画像生成部12bは、前述のように抽出した追尾枠内の領域の画像データが重畳領域設定部15により設定された重畳領域に適合するようなズーム倍率を算出し、当該ズーム倍率で前述の画像処理を施した画像データをデジタルズームすることによりサブ画像データを生成する。   The sub image generation unit 12b performs image processing such as white balance and dynamic range adjustment on the image data obtained by the imaging unit 11. Further, the sub image generation unit 12b becomes a tracking target of the tracking unit 13 from the image data subjected to the above-described image processing when the operation mode of the imaging apparatus 1 is set to a superimposition imaging mode described later. An area within the tracking frame including the subject is extracted. Then, the sub-image generation unit 12b calculates a zoom magnification so that the image data of the region within the tracking frame extracted as described above matches the superimposition region set by the superimposition region setting unit 15, and the zoom magnification Sub-image data is generated by digitally zooming the image data subjected to the above-described image processing.

追尾部13は、撮像部11により得られた画像データに含まれる所望の被写体を追尾可能な機能を具備して構成されている。また、追尾部13は、撮影装置1の動作モードが後述の重畳撮影モードに設定された際に、タッチパネル部16から出力される指示に基づき、表示部18に表示されている各被写体の中から当該指示に応じた1つの被写体を追尾対象の被写体として選択し、さらに、当該選択した追尾対象の被写体を示す追尾枠を生成する処理を行う。なお、このような追尾部13の処理の具体例については、後程説明する。   The tracking unit 13 has a function capable of tracking a desired subject included in the image data obtained by the imaging unit 11. In addition, the tracking unit 13 selects from among the subjects displayed on the display unit 18 based on an instruction output from the touch panel unit 16 when the operation mode of the imaging device 1 is set to a superimposition shooting mode described later. One subject corresponding to the instruction is selected as a subject to be tracked, and a process for generating a tracking frame indicating the selected subject to be tracked is further performed. A specific example of the processing of the tracking unit 13 will be described later.

重畳処理部14は、撮影装置1の動作モードが後述の重畳撮影モードに設定された際に、メイン画像生成部12aにより生成されたメイン画像データと、サブ画像生成部12bにより生成されたサブ画像データと、重畳領域設定部15により設定された重畳領域と、に基づいて後述の処理等を行うことにより重畳画像データを生成し、さらに、当該生成した重畳画像データの画質調整に係る処理を行う。なお、このような重畳処理部14の処理の具体例については、後程説明する。   When the operation mode of the photographing apparatus 1 is set to a superposition photographing mode described later, the superimposing processing unit 14 generates main image data generated by the main image generating unit 12a and a sub image generated by the sub image generating unit 12b. Based on the data and the superimposition region set by the superimposition region setting unit 15, superimposition image data is generated by performing processing described later, and further, processing related to image quality adjustment of the generated superimposition image data is performed. . A specific example of the processing of the superimposition processing unit 14 will be described later.

重畳領域設定部15は、撮影装置1の動作モードが後述の重畳撮影モードに設定された際に、タッチパネル部16から出力される指示に基づいて検出したタッチパネル部16の座標位置に対応する重畳領域を設定し、当該設定した重畳領域に応じた重畳枠を表示部18に表示させるような処理を行う。なお、このような重畳領域設定部15の処理の具体例については、後程説明する。   The superimposition region setting unit 15 is a superimposition region corresponding to the coordinate position of the touch panel unit 16 detected based on an instruction output from the touch panel unit 16 when the operation mode of the photographing apparatus 1 is set to a superimposition photographing mode described later. Is set, and a process of causing the display unit 18 to display a superimposition frame corresponding to the set superimposition area is performed. A specific example of the processing of the superimposition area setting unit 15 will be described later.

タッチパネル部16は、ユーザが指等を接触させて操作を行うことにより、追尾部13及び重畳領域設定部15に対する指示を行うことができるように構成されている。   The touch panel unit 16 is configured to be able to give instructions to the tracking unit 13 and the overlapping region setting unit 15 when the user performs an operation by touching a finger or the like.

記録部17は、例えば、撮影装置1に設けられた不揮発性メモリまたは撮影装置1に対して着脱可能なメモリカード等を具備し、重畳処理部14により生成された重畳画像データ等の様々な画像データを記録(保存)することができるように構成されている。   The recording unit 17 includes, for example, a nonvolatile memory provided in the imaging device 1 or a memory card that can be attached to and detached from the imaging device 1, and various images such as superimposed image data generated by the superimposition processing unit 14. The data can be recorded (saved).

表示部18は、例えば、LCD(液晶ディスプレイ)及びディスプレイ駆動回路等を具備し、重畳処理部14により生成された重畳画像データ等を表示することができるように構成されている。   The display unit 18 includes, for example, an LCD (liquid crystal display), a display driving circuit, and the like, and is configured to display the superimposed image data generated by the superimposition processing unit 14.

なお、本実施例の撮影装置1には、図1に示した各部の他に、例えば、撮影装置1の動作モードの設定の切替に係る指示を行うことが可能なモード切替スイッチ、撮影装置1の電源のオンオフに係る指示を行うことが可能な電源スイッチ、静止画像データの記録に係るレリーズ指示を行うことが可能なレリーズボタン、及び、撮影装置1の各部の基本的な動作に係る制御等を行うCPUというような、不図示の様々な装置が設けられているものとする。   In addition to the components illustrated in FIG. 1, for example, the photographing apparatus 1 of the present embodiment includes a mode changeover switch that can issue an instruction relating to switching of operation mode settings of the photographing apparatus 1, and the photographing apparatus 1. A power switch that can instruct to turn on / off the camera, a release button that can issue a release instruction to record still image data, and controls related to basic operations of each part of the photographing apparatus 1. It is assumed that various devices (not shown) such as a CPU that performs the above are provided.

ここで、本実施例の撮影装置1において行われる処理等について、レリーズ指示がなされた際に取得される静止画像データを用いて重畳画像データが生成される場合を例に挙げて説明を行う。図2は、本実施例に係る撮影装置において行われる処理等の一例を示すフローチャートである。   Here, the process performed in the photographing apparatus 1 of the present embodiment will be described by taking as an example a case where superimposed image data is generated using still image data acquired when a release instruction is issued. FIG. 2 is a flowchart illustrating an example of processing performed in the photographing apparatus according to the present embodiment.

まず、撮影装置1の電源がオンされるに伴い、撮像部11による画像データの取得が開始され、さらに、当該画像データが表示部18にライブビュー表示される(図2のステップS1)。   First, as the photographing apparatus 1 is turned on, image data acquisition by the imaging unit 11 is started, and the image data is displayed in live view on the display unit 18 (step S1 in FIG. 2).

なお、図2のステップS1のライブビュー表示の際には、サブ画像生成部12b、追尾部13、及び、重畳領域設定部15の各部における処理が行われず、さらに、重畳処理部14がメイン画像生成部12aにより生成されたメイン画像データをスルー出力するものとする。すなわち、図2のステップS1において表示部18にライブビュー表示される画像データは、撮像部11により取得された画像データに対し、メイン画像生成部12aによるホワイトバランス及びダイナミックレンジ調整等の画像処理が施されたものに略一致する。   In the live view display in step S1 of FIG. 2, the processing in each part of the sub image generation unit 12b, the tracking unit 13, and the superimposition region setting unit 15 is not performed, and the superimposition processing unit 14 further performs the main image display. The main image data generated by the generation unit 12a is output through. That is, the image data displayed in the live view on the display unit 18 in step S1 of FIG. 2 is subjected to image processing such as white balance and dynamic range adjustment by the main image generation unit 12a on the image data acquired by the imaging unit 11. Approximate to what has been applied.

一方、撮影装置1のCPUは、図2のステップS1によるライブビュー表示の最中に、モード切替スイッチの操作により撮影装置1の動作モードが重畳撮影モードに設定されたか否かを判定する(図2のステップS2)。   On the other hand, the CPU of the photographing apparatus 1 determines whether or not the operation mode of the photographing apparatus 1 is set to the superimposing photographing mode by operating the mode switch during the live view display in step S1 of FIG. 2 (FIG. 2). 2 step S2).

そして、図2のステップS2において、撮影装置1の動作モードが重畳撮影モードに設定されなかった場合には、撮影装置1の動作モードが通常撮影モードに設定される。   In step S2 of FIG. 2, when the operation mode of the photographing apparatus 1 is not set to the superimposed photographing mode, the operation mode of the photographing apparatus 1 is set to the normal photographing mode.

なお、前述の通常撮影モードは、例えば、図2のステップS1により表示部18にライブビュー表示されている画像データの撮影及び記録等を実施するための公知の処理等を利用して実現することが可能な動作モードである。そのため、以降においては、簡単のため、前述の通常撮影モードに関する説明を省略する。   Note that the above-described normal shooting mode is realized by using, for example, a known process for performing shooting and recording of the image data displayed in live view on the display unit 18 in step S1 of FIG. This is an operation mode in which Therefore, in the following, for the sake of simplicity, description regarding the above-described normal shooting mode is omitted.

また、図2のステップS2において、撮影装置1の動作モードが重畳撮影モードに設定されると、重畳領域設定部15は、重畳領域の設定及び重畳枠の表示に係る処理を行う(図2のステップS3)。   2, when the operation mode of the photographing apparatus 1 is set to the superimposition shooting mode, the superimposition area setting unit 15 performs processing related to the setting of the superimposition area and the display of the superposition frame (in FIG. 2). Step S3).

図3は、重畳領域の設定に係る処理を説明するための説明図である。図4は、重畳枠の表示態様の一例を示す図である。   FIG. 3 is an explanatory diagram for explaining a process related to the setting of the overlapping region. FIG. 4 is a diagram illustrating an example of a display mode of the overlapping frame.

具体的には、撮影装置1の動作モードが重畳撮影モードに設定されると、重畳領域設定部15は、左上隅の座標位置を原点(0,0)としてXY座標系(X軸方向及びY軸方向)を規定したタッチパネル部16から出力される指示に基づき、タッチパネル部16におけるタッチ入力操作のタッチ開始位置に相当する座標位置A(Xa,Ya)と、タッチパネル部16におけるタッチ入力操作のタッチ終了位置に相当する座標位置B(Xb,Yb)と、を検出する(図3参照)。なお、本実施例においては、Xb>Xa及びYb>Yaの大小関係が成り立つものとして説明を行う。   Specifically, when the operation mode of the photographing apparatus 1 is set to the superimposing photographing mode, the superimposing region setting unit 15 sets the coordinate position of the upper left corner as the origin (0, 0) as the origin (0, 0) and the XY coordinate system (X-axis direction and Y The coordinate position A (Xa, Ya) corresponding to the touch start position of the touch input operation on the touch panel unit 16 and the touch of the touch input operation on the touch panel unit 16 based on an instruction output from the touch panel unit 16 defining the axial direction) A coordinate position B (Xb, Yb) corresponding to the end position is detected (see FIG. 3). In the present embodiment, the description will be made assuming that the magnitude relationship of Xb> Xa and Yb> Ya holds.

重畳領域設定部15は、タッチパネル部16における座標位置A(Xa,Ya)と座標位置B(Xb,Yb)とを結ぶ対角線を備えた矩形領域を重畳領域として設定する(図3参照)。   The overlapping region setting unit 15 sets a rectangular region having a diagonal line connecting the coordinate position A (Xa, Ya) and the coordinate position B (Xb, Yb) on the touch panel unit 16 as the overlapping region (see FIG. 3).

重畳領域設定部15は、タッチパネル部16の座標位置を表示部18の位置に変換する処理等を行うことにより、前述のように設定した重畳領域に相当する領域を示す重畳枠と、ライブビュー表示されている画像データと、を併せて表示部18に表示させる(図4参照)。   The superimposition area setting unit 15 performs a process of converting the coordinate position of the touch panel unit 16 into the position of the display unit 18, and the like, and a superimposition frame indicating a region corresponding to the superimposition area set as described above, and a live view display The displayed image data is also displayed on the display unit 18 (see FIG. 4).

また、重畳領域設定部15は、図2のステップS3の処理により得られた重畳領域に係る情報を、サブ画像生成部12b、追尾部13、及び、重畳処理部14へ出力する。具体的には、重畳領域設定部15は、例えば、座標位置A(Xa,Ya)と、座標位置B(Xb,Yb)と、タッチパネル部16における重畳領域の矩形の大きさ(面積)と、を含む情報をサブ画像生成部12b、追尾部13、及び、重畳処理部14へ出力する。   The superimposition area setting unit 15 outputs information related to the superimposition area obtained by the process of step S3 in FIG. 2 to the sub-image generation unit 12b, the tracking unit 13, and the superimposition processing unit 14. Specifically, the overlapping area setting unit 15 includes, for example, the coordinate position A (Xa, Ya), the coordinate position B (Xb, Yb), and the size (area) of the rectangle of the overlapping area in the touch panel unit 16; Is output to the sub-image generation unit 12b, the tracking unit 13, and the superimposition processing unit 14.

一方、追尾部13は、重畳領域設定部15から出力される重畳領域に係る情報に基づき、追尾対象の被写体の選択及び追尾枠の生成に係る処理を行う(図2のステップS4)。   On the other hand, the tracking unit 13 performs processing related to selection of a subject to be tracked and generation of a tracking frame based on the information related to the superimposed region output from the superimposed region setting unit 15 (step S4 in FIG. 2).

具体的には、追尾部13は、タッチパネル部16から出力される指示に基づき、当該指示により指定されたタッチパネル部16の座標位置に対応する表示部18の画面内の位置を検出し、さらに、当該検出した表示部18の位置に表示されている1つの被写体を追尾対象の被写体として選択する。   Specifically, the tracking unit 13 detects a position in the screen of the display unit 18 corresponding to the coordinate position of the touch panel unit 16 specified by the instruction based on the instruction output from the touch panel unit 16, and One subject displayed at the detected position of the display unit 18 is selected as a subject to be tracked.

さらに、追尾部13は、追尾対象の被写体として選択した1つの被写体を示すための矩形形状の追尾枠を生成する処理を行う。   Furthermore, the tracking unit 13 performs a process of generating a rectangular tracking frame for indicating one subject selected as the subject to be tracked.

ここで、前述の追尾枠の生成に係る処理について、追尾対象の被写体が(1人の)人物である場合を例に挙げて説明する。なお、本実施例によれば、追尾対象が人物以外の他の被写体であってもよい。図5は、追尾枠の生成に係る処理を説明するための説明図である。図6は、追尾枠の表示態様の一例を示す図である。   Here, the process related to the generation of the tracking frame described above will be described by taking as an example the case where the subject to be tracked is a (one) person. According to the present embodiment, the tracking target may be a subject other than a person. FIG. 5 is an explanatory diagram for explaining processing related to generation of a tracking frame. FIG. 6 is a diagram illustrating an example of a display mode of the tracking frame.

まず、追尾部13は、顔器官検出等の処理を行うことにより、追尾対象の被写体として選択した人物の目及び口の位置を検出する。   First, the tracking unit 13 detects the positions of the eyes and mouth of the person selected as the tracking target subject by performing processing such as face organ detection.

次に、追尾部13は、追尾対象の被写体として選択した人物の目及び口の位置の検出結果に基づき、追尾枠の縦方向の辺の長さを、(目の位置から上の部分の長さ):(目の位置から口の位置までの部分の長さ):(口の位置から下の部分の長さ)=1:1:3の比率になるような長さLVとして設定する(図5参照)。   Next, the tracking unit 13 determines the length of the vertical side of the tracking frame based on the detection result of the positions of the eyes and mouth of the person selected as the subject to be tracked (the length of the portion above the eye position). ): (Length of the part from the position of the eye to the position of the mouth): (length of the part from the position of the mouth to the lower part) is set as a length LV so as to have a ratio of 1: 1: 3 ( (See FIG. 5).

さらに、追尾部13は、重畳領域設定部15から出力される重畳領域の座標位置A(Xa,Ya)及び座標位置B(Xb,Yb)の各座標値を以下の数式(1)に適用することにより、アスペクト比ARの値を算出する。   Further, the tracking unit 13 applies the coordinate values of the coordinate position A (Xa, Ya) and the coordinate position B (Xb, Yb) of the superimposed region output from the superimposed region setting unit 15 to the following formula (1). Thus, the value of the aspect ratio AR is calculated.


AR=(Yb−Ya+1)/(Xb−Xa+1) …(1)

追尾部13は、上記の数式(1)を用いて算出したアスペクト比ARを、前述のように設定された縦方向の辺の長さLVに対して乗算することにより、追尾枠の横方向の辺の長さHVを算出する。

AR = (Yb−Ya + 1) / (Xb−Xa + 1) (1)

The tracking unit 13 multiplies the aspect ratio AR calculated using the above formula (1) by the length LV of the vertical side set as described above, thereby obtaining the horizontal direction of the tracking frame. The side length HV is calculated.

なお、本実施例においては、前述した方法とは異なる他の方法により追尾枠の縦方向及び横方向の辺の長さを設定するようにしてもよい。   In the present embodiment, the lengths of the sides in the vertical and horizontal directions of the tracking frame may be set by another method different from the method described above.

その後、追尾部13は、以上のような手順により算出した縦方向の辺の長さLV及び横方向の辺の長さHVを具備する矩形形状の追尾枠を生成し、さらに、図3のようにXY座標系が規定されたタッチパネル部16における、矩形形状の追尾枠の左上隅の座標位置C(Xc,Yc)と右下隅の座標位置D(Xd,Yd)とを取得する(図5参照)。なお、本実施例においては、Xd>Xc及びYd>Ycの大小関係が成り立つものとして説明を行う。   Thereafter, the tracking unit 13 generates a rectangular tracking frame having the length LV in the vertical direction and the length HV in the horizontal direction calculated by the above procedure, and further, as shown in FIG. The coordinate position C (Xc, Yc) of the upper left corner and the coordinate position D (Xd, Yd) of the lower right corner of the rectangular tracking frame in the touch panel unit 16 in which the XY coordinate system is defined (see FIG. 5). ). In the present embodiment, the description will be made assuming that the magnitude relations of Xd> Xc and Yd> Yc are established.

そして、追尾部13は、タッチパネル部16の座標位置を表示部18の位置に変換する処理等を行うことにより、前述の重畳枠及び追尾枠と、ライブビュー表示されている画像データと、を併せて表示部18の画面内に表示させる(図6参照)。   Then, the tracking unit 13 performs processing such as converting the coordinate position of the touch panel unit 16 to the position of the display unit 18, thereby combining the above-described overlapping frame and tracking frame with the image data displayed in the live view. Are displayed on the screen of the display unit 18 (see FIG. 6).

また、追尾部13は、図2のステップS4の処理により生成した追尾枠に係る情報をサブ画像生成部12bへ出力する。具体的には、追尾部13は、例えば、座標位置C(Xc,Yc)と、座標位置D(Xd,Yd)と、タッチパネル部16における追尾枠の矩形の大きさ(面積)と、を含む情報をサブ画像生成部12bへ出力する。   Further, the tracking unit 13 outputs information related to the tracking frame generated by the process of step S4 in FIG. 2 to the sub-image generation unit 12b. Specifically, the tracking unit 13 includes, for example, a coordinate position C (Xc, Yc), a coordinate position D (Xd, Yd), and a rectangular size (area) of the tracking frame in the touch panel unit 16. The information is output to the sub image generation unit 12b.

一方、撮影装置1のCPUは、重畳枠及び追尾枠の表示に係る処理を継続させながら、レリーズボタンの操作待ちの状態へ移行する(図2のステップS5)。   On the other hand, the CPU of the photographing apparatus 1 shifts to a state waiting for the operation of the release button while continuing the processing related to the display of the superimposition frame and the tracking frame (step S5 in FIG. 2).

その後、撮影装置1のCPUは、レリーズボタンの操作によりレリーズ指示が行われたことを検出すると(図2のステップS5)、当該レリーズ指示の検出タイミングに応じた静止画像データを撮影してメイン画像生成部12a及びサブ画像生成部12bへ出力させるための制御を行う。   Thereafter, when the CPU of the photographing apparatus 1 detects that a release instruction has been performed by operating the release button (step S5 in FIG. 2), the still image data corresponding to the detection timing of the release instruction is photographed and the main image is captured. Control for outputting to the generation unit 12a and the sub-image generation unit 12b is performed.

そして、メイン画像生成部12a、サブ画像生成部12b、及び、重畳処理部14は、レリーズ指示に応じて撮像部11から出力される静止画像データに対して種々の処理を施すことにより重畳画像データを生成する(図2のステップS6)。   Then, the main image generation unit 12a, the sub image generation unit 12b, and the superimposition processing unit 14 perform various processes on the still image data output from the imaging unit 11 according to the release instruction, thereby superimposing image data. Is generated (step S6 in FIG. 2).

ここで、図2のステップS6において行われる処理等の具体例について、主に図7のフローチャートを参照しながら説明する。図7は、重畳画像データの生成に係る処理等の一例を示すフローチャートである。   Here, a specific example of the processing performed in step S6 of FIG. 2 will be described mainly with reference to the flowchart of FIG. FIG. 7 is a flowchart illustrating an example of processing related to generation of superimposed image data.

メイン画像生成部12aは、図2のステップS5のレリーズ指示に応じて撮像部11から出力される静止画像データに対してホワイトバランス及びダイナミックレンジ調整等の画像処理を施すことによりメイン画像データを生成し、当該生成したメイン画像データを重畳処理部14へ出力する(図7のステップS21)。   The main image generation unit 12a generates main image data by performing image processing such as white balance and dynamic range adjustment on the still image data output from the imaging unit 11 in response to the release instruction in step S5 of FIG. Then, the generated main image data is output to the superimposition processing unit 14 (step S21 in FIG. 7).

一方、サブ画像生成部12bは、図2のステップS5のレリーズ指示に応じて撮像部11から出力される静止画像データに対してホワイトバランス及びダイナミックレンジ調整等の画像処理を施し、当該画像処理を施した画像データを用いてサブ画像データを生成し、当該生成したサブ画像データを重畳処理部14へ出力する(図7のステップS22)。   On the other hand, the sub-image generating unit 12b performs image processing such as white balance and dynamic range adjustment on the still image data output from the imaging unit 11 in response to the release instruction in step S5 in FIG. Sub-image data is generated using the applied image data, and the generated sub-image data is output to the superimposition processing unit 14 (step S22 in FIG. 7).

ここで、図7のステップS22において行われる処理の具体例について説明する。   Here, a specific example of the process performed in step S22 of FIG. 7 will be described.

サブ画像生成部12bは、追尾部13から出力される情報に基づき、ホワイトバランス及びダイナミックレンジ調整等の画像処理を施した静止画像データの中から、追尾部13の追尾対象となっている被写体を含む追尾枠内の領域を抽出する。   Based on the information output from the tracking unit 13, the sub-image generation unit 12 b selects a subject to be tracked by the tracking unit 13 from among still image data subjected to image processing such as white balance and dynamic range adjustment. Extract the area within the tracking frame.

さらに、サブ画像生成部12bは、重畳領域設定部15から出力される座標位置A(Xa,Ya)及び座標位置B(Xb,Yb)の情報と、追尾部13から出力される座標位置C(Xc,Yc)及び座標位置D(Xd,Yd)の情報と、に基づいて以下の数式(2)を用いた演算を行うことにより、ズーム倍率ZRを算出する。   Further, the sub-image generation unit 12b outputs information on the coordinate position A (Xa, Ya) and the coordinate position B (Xb, Yb) output from the superimposition region setting unit 15 and the coordinate position C ( The zoom magnification ZR is calculated by performing an operation using the following formula (2) based on the information of Xc, Yc) and the coordinate position D (Xd, Yd).


ZR=(Yb−Ya+1)/(Yd−Yc+1) …(2)

そして、サブ画像生成部12bは、前述の画像処理を施した静止画像データを上記数式(2)の演算結果として得られたズーム倍率ZRでデジタルズームすることによりサブ画像データを生成し、当該生成したサブ画像データを重畳処理部14へ出力する。

ZR = (Yb−Ya + 1) / (Yd−Yc + 1) (2)

Then, the sub-image generation unit 12b generates sub-image data by digitally zooming the still image data subjected to the above-described image processing with the zoom magnification ZR obtained as the calculation result of the formula (2). The sub image data is output to the superimposition processing unit 14.

なお、サブ画像生成部12bは、前述のような処理を図7のステップS22において行うものに限らず、例えば、ズーム倍率ZRでデジタルズームした画像データに対し、当該ズーム倍率ZRに応じた画素補間処理を施したものをサブ画像データとして重畳処理部14へ出力してもよい。   Note that the sub-image generation unit 12b is not limited to performing the above-described processing in step S22 in FIG. 7. For example, pixel interpolation processing corresponding to the zoom magnification ZR is performed on image data digitally zoomed at the zoom magnification ZR. The image subjected to the processing may be output to the superimposition processing unit 14 as sub image data.

一方、重畳処理部14は、重畳領域設定部15から出力される情報に基づき、図7のステップS21により生成されたメイン画像データに対して適用するゲインマップと、図7のステップS22により生成されたサブ画像データに対して適用するゲインマップと、をそれぞれ生成する(図7のステップS23)。   On the other hand, the superimposition processing unit 14 is generated based on the information output from the superimposition region setting unit 15 and applied to the main image data generated in step S21 in FIG. 7 and in step S22 in FIG. A gain map to be applied to the sub image data is generated (step S23 in FIG. 7).

図8は、メイン画像データに適用されるゲインマップの一例を示す図である。図9は、サブ画像データに適用されるゲインマップの一例を示す図である。   FIG. 8 is a diagram illustrating an example of a gain map applied to main image data. FIG. 9 is a diagram illustrating an example of a gain map applied to the sub image data.

具体的には、重畳処理部14は、メイン画像データに適用するゲインマップとして、例えば図8に示すように、メイン画像データのフレームの垂直方向及び水平方向において、重畳領域以外の領域の画素のゲインを1倍とし、かつ、重畳領域の端部の画素から中心部の画素へ向かうにつれてゲインが1倍から0へ漸次変化してゆくようなゲインマップを生成する。   Specifically, as shown in FIG. 8, for example, as shown in FIG. 8, the superimposition processing unit 14 uses pixels in regions other than the superimposition region as gain maps applied to the main image data. A gain map is generated in which the gain is set to 1 and the gain gradually changes from 1 to 0 as it goes from the pixel at the end of the overlap region to the pixel at the center.

また、重畳処理部14は、サブ画像データに適用するゲインマップとして、例えば図9に示すように、サブ画像データのフレームの垂直方向及び水平方向において、重畳領域以外の領域の画素のゲインを0とし、かつ、重畳領域の端部の画素から中心部の画素へ向かうにつれてゲインが0から1倍へ漸次変化してゆくようなゲインマップを生成する。   In addition, the superimposition processing unit 14 sets, as a gain map to be applied to the sub image data, for example, as illustrated in FIG. 9, the gains of pixels in regions other than the superimposition region are set to 0 in the vertical direction and horizontal direction of the sub image data frame. In addition, a gain map is generated such that the gain gradually changes from 0 to 1 as it goes from the pixel at the end of the overlapping region to the pixel at the center.

なお、メイン画像データ及びサブ画像データに適用するゲインマップは、例えば、両方のゲインマップを加算した際に、フレーム全域の各画素のゲイン値が1となるように生成される限りにおいては、図8及び図9に示したものと異なっていてもよい。   The gain map applied to the main image data and the sub image data is, for example, as long as the gain value of each pixel in the entire frame is generated to be 1 when both gain maps are added. 8 and FIG. 9 may be different.

重畳処理部14は、図7のステップS23により生成したゲインマップをメイン画像データ及びサブ画像データにそれぞれ適用し、さらに、ゲインマップを適用したメイン画像データ及びサブ画像データを加算処理することにより、例えば図10に示すような、重畳枠を含む重畳画像データを生成する(図7のステップS24)。図10は、図7の処理等により生成される重畳画像データの一例を示す図である。     The superimposition processing unit 14 applies the gain map generated in step S23 of FIG. 7 to the main image data and the sub image data, respectively, and further performs addition processing on the main image data and the sub image data to which the gain map is applied. For example, as shown in FIG. 10, superimposed image data including a superimposed frame is generated (step S24 in FIG. 7). FIG. 10 is a diagram illustrating an example of superimposed image data generated by the processing of FIG.

そして、図7のステップS24の処理が完了するに伴い、図2のステップS7の処理が続けて行われる。   Then, as the process of step S24 of FIG. 7 is completed, the process of step S7 of FIG. 2 is continuously performed.

画質調整部としての機能を具備する重畳処理部14は、図2のステップS6により生成された重畳画像データの画質調整に係る処理を行う(図2のステップS7)。図11は、重畳画像データの画質調整に用いられるGUIの表示態様の一例を示す図である。   The superimposition processing unit 14 having a function as an image quality adjustment unit performs processing related to image quality adjustment of the superimposed image data generated in step S6 in FIG. 2 (step S7 in FIG. 2). FIG. 11 is a diagram illustrating an example of a display mode of a GUI used for image quality adjustment of superimposed image data.

具体的には、重畳処理部14は、例えば図11に示すように、図2のステップS6の処理により生成された重畳画像データと、メイン画像データに相当する領域の画質の調整を実施可能なGUIとしての画質調整用スライダー101と、サブ画像データに相当する領域の画質の調整を実施可能なGUIとしての画質調整用スライダー102と、を併せて表示部18に表示させる。そして、重畳処理部14は、図2のステップS6の処理により生成された重畳画像データに対し、画質調整用スライダー101及び102の操作に応じた画質調整を個別に施す。   Specifically, as shown in FIG. 11, for example, the superimposition processing unit 14 can adjust the superimposition image data generated by the process of step S6 in FIG. 2 and the image quality of the area corresponding to the main image data. An image quality adjustment slider 101 as a GUI and an image quality adjustment slider 102 as a GUI capable of adjusting the image quality of the area corresponding to the sub image data are displayed together on the display unit 18. Then, the superimposition processing unit 14 individually performs image quality adjustment according to the operation of the image quality adjustment sliders 101 and 102 on the superimposed image data generated by the process of step S6 of FIG.

画質調整用スライダー101は、例えば、彩度の高低、明度の高低、または、コントラストの強弱等のような、メイン画像データの画質調整に係る各パラメータの中から択一的に選択されたパラメータを変化させることが可能なGUIとして構成されている。また、画質調整用スライダー101は、タッチパネル部16の操作に応じて(例えば表示部18の上下方向に沿って)移動し、メイン画像データの画質調整に係る各パラメータの中から択一的に選択されたパラメータの増減に係る指示を行うことが可能なGUIとしてのつまみ部101aを具備して構成されている。そして、このような画質調整用スライダー101が表示部18に表示される構成によれば、重畳処理部14は、タッチパネル部16から出力される指示に基づき、つまみ部101aの現在位置に応じた色調またはコントラストを具備するように、重畳画像データにおけるメイン画像データに相当する領域の画質に係るパラメータを調整(変更)する。   The image quality adjustment slider 101 is a parameter that is alternatively selected from parameters related to image quality adjustment of the main image data such as saturation level, brightness level, contrast strength, and the like. It is configured as a GUI that can be changed. Further, the image quality adjustment slider 101 moves in accordance with the operation of the touch panel unit 16 (for example, along the vertical direction of the display unit 18), and is selectively selected from parameters related to image quality adjustment of the main image data. It is configured to include a knob portion 101a as a GUI capable of giving instructions related to the increase / decrease of the parameter. Then, according to the configuration in which the image quality adjustment slider 101 is displayed on the display unit 18, the superimposition processing unit 14 is based on the instruction output from the touch panel unit 16 and the color tone according to the current position of the knob unit 101 a. Alternatively, parameters related to the image quality of the region corresponding to the main image data in the superimposed image data are adjusted (changed) so as to have contrast.

画質調整用スライダー102は、例えば、彩度の高低、明度の高低、または、コントラストの強弱等のような、サブ画像データの画質調整に係る各パラメータの中から択一的に選択されたパラメータを変化させることが可能なGUIとして構成されている。また、画質調整用スライダー102は、タッチパネル部16の操作に応じて(例えば表示部18の上下方向に沿って)移動し、メイン画像データの画質調整に係る各パラメータの中から択一的に選択されたパラメータの増減に係る指示を行うことが可能なGUIとしてのつまみ部102aを具備して構成されている。そして、このような画質調整用スライダー102が表示部18に表示される構成によれば、重畳処理部14は、タッチパネル部16から出力される指示に基づき、つまみ部102aの現在位置に応じた色調またはコントラストを具備するように、重畳画像データにおけるサブ画像データに相当する領域の画質に係るパラメータを調整(変更)する。   The image quality adjustment slider 102 is a parameter that is alternatively selected from parameters related to the image quality adjustment of the sub image data, such as the saturation level, the brightness level, or the contrast level. It is configured as a GUI that can be changed. Further, the image quality adjustment slider 102 moves according to the operation of the touch panel unit 16 (for example, along the vertical direction of the display unit 18), and is selectively selected from parameters related to image quality adjustment of the main image data. It is configured to include a knob portion 102a as a GUI capable of giving an instruction related to the increase / decrease of the parameter. Then, according to the configuration in which such an image quality adjustment slider 102 is displayed on the display unit 18, the superimposition processing unit 14 is based on an instruction output from the touch panel unit 16 and has a color tone corresponding to the current position of the knob unit 102 a. Alternatively, the parameter relating to the image quality of the region corresponding to the sub image data in the superimposed image data is adjusted (changed) so as to have contrast.

一方、撮影装置1のCPUは、図2のステップS7による画質調整が完了したことを検出すると、図11に例示したような重畳画像データから、重畳枠と、画質調整用スライダー101と、画質調整用スライダー102と、がそれぞれ消去された、図12に示すような重畳画像データを表示部18にレックビュー表示させて記録部17に記録させるように制御を行う(図2のステップS8及びステップS9)。図12は、本実施例に係る撮影装置を用いて撮影を行った際に記録される重畳画像データの一例を示す図である。   On the other hand, when the CPU of the photographing apparatus 1 detects that the image quality adjustment in step S7 in FIG. 2 has been completed, the superimposed frame, the image quality adjustment slider 101, and the image quality adjustment from the superimposed image data illustrated in FIG. Control is performed so that the superimposed image data as shown in FIG. 12 with the recording slider 102 deleted is displayed on the display unit 18 as a rec view and recorded in the recording unit 17 (steps S8 and S9 in FIG. 2). ). FIG. 12 is a diagram illustrating an example of superimposed image data recorded when shooting is performed using the shooting apparatus according to the present embodiment.

続いて、本実施例の撮影装置1において行われる処理等について、レリーズ指示がなされる前に取得される動画像データを用いて重畳画像データが生成される場合を例に挙げて説明を行う。図13は、本実施例に係る撮影装置において行われる処理等の、図2とは異なる例を示すフローチャートである。なお、以降においては、簡単のため、既に述べたものと同様の処理等を適用可能な部分を適宜省略しながら説明を行うものとする。   Subsequently, the processing performed in the photographing apparatus 1 of the present embodiment will be described by taking as an example a case where superimposed image data is generated using moving image data acquired before a release instruction is issued. FIG. 13 is a flowchart illustrating an example different from FIG. 2, such as processing performed in the imaging apparatus according to the present embodiment. In the following, for the sake of simplicity, description will be made while omitting portions to which processing similar to that already described can be applied as appropriate.

まず、撮影装置1の電源がオンされるに伴い、撮像部11による画像データの取得が開始され、さらに、当該画像データが表示部18にライブビュー表示される(図13のステップS31)。   First, as the photographing apparatus 1 is turned on, acquisition of image data by the imaging unit 11 is started, and the image data is displayed in live view on the display unit 18 (step S31 in FIG. 13).

なお、図13のステップS31のライブビュー表示の際には、サブ画像生成部12b、追尾部13、及び、重畳領域設定部15の各部における処理が行われず、さらに、重畳処理部14がメイン画像生成部12aにより生成されたメイン画像データをスルー出力するものとする。すなわち、図13のステップS31において表示部18にライブビュー表示される画像データは、撮像部11により取得された画像データに対し、メイン画像生成部12aによるホワイトバランス及びダイナミックレンジ調整等の画像処理が施されたものに略一致する。   In the live view display in step S31 of FIG. 13, the processes in the sub image generation unit 12b, the tracking unit 13, and the superimposition area setting unit 15 are not performed, and the superimposition processing unit 14 further performs the main image display. The main image data generated by the generation unit 12a is output through. That is, the image data displayed in the live view on the display unit 18 in step S31 of FIG. 13 is subjected to image processing such as white balance and dynamic range adjustment by the main image generation unit 12a on the image data acquired by the imaging unit 11. Approximate to what has been applied.

一方、撮影装置1のCPUは、図13のステップS31によるライブビュー表示の最中に、モード切替スイッチの操作により撮影装置1の動作モードが重畳撮影モードに設定されたか否かを判定する(図13のステップS32)。   On the other hand, the CPU of the photographing apparatus 1 determines whether or not the operation mode of the photographing apparatus 1 is set to the superimposed photographing mode by operating the mode change switch during the live view display in step S31 of FIG. 13 (FIG. 13). 13 step S32).

そして、図13のステップS32において、撮影装置1の動作モードが重畳撮影モードに設定されなかった場合には、撮影装置1の動作モードが通常撮影モードに設定される。   In step S32 of FIG. 13, when the operation mode of the photographing apparatus 1 is not set to the superimposed photographing mode, the operation mode of the photographing apparatus 1 is set to the normal photographing mode.

また、図13のステップS32において、撮影装置1の動作モードが重畳撮影モードに設定されると、重畳領域設定部15は、重畳領域の設定及び重畳枠の表示に係る処理として、図2のステップS3の説明において述べたものと同様の処理を行う(図13のステップS33)。そして、図13のステップS33の処理が重畳領域設定部15において行われることにより、重畳領域に相当する領域を示す重畳枠と、ライブビュー表示されている画像データと、が併せて表示部18に表示される(図4参照)。   Further, when the operation mode of the photographing apparatus 1 is set to the superimposition shooting mode in step S32 of FIG. 13, the superimposition area setting unit 15 performs the process related to the setting of the superimposition area and the display of the superposition frame in step of FIG. Processing similar to that described in the description of S3 is performed (step S33 in FIG. 13). 13 is performed in the superimposition region setting unit 15, the superimposition frame indicating the region corresponding to the superimposition region and the image data displayed in the live view are combined on the display unit 18. Is displayed (see FIG. 4).

また、重畳領域設定部15は、図13のステップS33の処理により得られた重畳領域に係る情報を、サブ画像生成部12b、追尾部13、及び、重畳処理部14へ出力する。具体的には、重畳領域設定部15は、例えば、座標位置A(Xa,Ya)と、座標位置B(Xb,Yb)と、タッチパネル部16における重畳領域の矩形の大きさ(面積)と、を含む情報をサブ画像生成部12b、追尾部13、及び、重畳処理部14へ出力する。   The superimposition area setting unit 15 outputs information related to the superimposition area obtained by the process of step S33 of FIG. 13 to the sub-image generation unit 12b, the tracking unit 13, and the superimposition processing unit 14. Specifically, the overlapping area setting unit 15 includes, for example, the coordinate position A (Xa, Ya), the coordinate position B (Xb, Yb), and the size (area) of the rectangle of the overlapping area in the touch panel unit 16; Is output to the sub-image generation unit 12b, the tracking unit 13, and the superimposition processing unit 14.

一方、追尾部13は、重畳領域設定部15から出力される重畳領域に係る情報に基づき、追尾対象の被写体の選択及び追尾枠の生成に係る処理として、図2のステップS4の説明において述べたものと同様の処理を行う(図13のステップS34)。そして、図13のステップS34の処理が追尾部13において行われることにより、前述の重畳枠及び追尾枠と、ライブビュー表示されている画像データと、が併せて表示部18の画面内に表示される(図6参照)。   On the other hand, the tracking unit 13 is described in the description of step S4 in FIG. 2 as the process related to the selection of the tracking target subject and the generation of the tracking frame based on the information related to the overlapping region output from the overlapping region setting unit 15. Processing similar to that of the above is performed (step S34 in FIG. 13). Then, the tracking unit 13 performs the process of step S34 in FIG. 13 so that the above-described superimposition frame and tracking frame and the image data displayed in live view are displayed together on the screen of the display unit 18. (See FIG. 6).

また、追尾部13は、図13のステップS34の処理により生成した追尾枠に係る情報をサブ画像生成部12bへ出力する。具体的には、追尾部13は、例えば、座標位置C(Xc,Yc)と、座標位置D(Xd,Yd)と、タッチパネル部16における追尾枠の矩形の大きさ(面積)と、を含む情報をサブ画像生成部12bへ出力する。   In addition, the tracking unit 13 outputs information related to the tracking frame generated by the process of step S34 in FIG. 13 to the sub image generation unit 12b. Specifically, the tracking unit 13 includes, for example, a coordinate position C (Xc, Yc), a coordinate position D (Xd, Yd), and a rectangular size (area) of the tracking frame in the touch panel unit 16. The information is output to the sub image generation unit 12b.

そして、メイン画像生成部12a、サブ画像生成部12b、及び、重畳処理部14は、前述の図7の一連の処理(図2のステップS6の処理)と略同様の処理を行うことにより、図10に例示したような、重畳枠を含む重畳画像データを撮像部11から出力される動画像データの各フレーム毎に生成する(図13のステップS35)。   Then, the main image generation unit 12a, the sub image generation unit 12b, and the superimposition processing unit 14 perform processing substantially similar to the above-described series of processing in FIG. 7 (processing in step S6 in FIG. 2). The superimposed image data including the superimposed frame as illustrated in FIG. 10 is generated for each frame of the moving image data output from the imaging unit 11 (step S35 in FIG. 13).

さらに、重畳処理部14は、図13のステップS35により生成された重畳画像データの画質調整に係る処理として、図2のステップS7の説明において述べたものと同様の処理を行う(図13のステップS36)。   Furthermore, the superimposition processing unit 14 performs the same process as that described in the description of step S7 in FIG. 2 as a process related to the image quality adjustment of the superimposed image data generated in step S35 in FIG. 13 (step in FIG. 13). S36).

すなわち、図13のステップS35及びステップS36の処理を経ることにより、図11に例示したような、重畳枠と、メイン画像データに相当する領域の画質の調整を実施可能なGUIとしての画質調整用スライダー101と、サブ画像データに相当する領域の画質の調整を実施可能なGUIとしての画質調整用スライダー102と、を含む重畳画像データが表示部18にライブビュー表示される。そして、このような重畳画像データが表示部18にライブビュー表示される構成によれば、重畳処理部14は、タッチパネル部16から出力される指示に基づき、つまみ部101aの現在位置に応じた色調またはコントラストを具備するように、メイン画像データに相当する領域の画質に係るパラメータを略リアルタイムに調整(変更)し、さらに、つまみ部102aの現在位置に応じた色調またはコントラストを具備するように、サブ画像データに相当する領域の画質に係るパラメータを略リアルタイムに調整(変更)する。   That is, for the image quality adjustment as a GUI capable of adjusting the image quality of the overlapping frame and the area corresponding to the main image data as illustrated in FIG. 11 by performing the processing of step S35 and step S36 of FIG. The superimposed image data including the slider 101 and the image quality adjustment slider 102 as a GUI capable of adjusting the image quality of the area corresponding to the sub image data is displayed in live view on the display unit 18. Then, according to the configuration in which such superimposed image data is displayed in live view on the display unit 18, the superimposition processing unit 14 is based on an instruction output from the touch panel unit 16 and has a color tone corresponding to the current position of the knob unit 101 a. Alternatively, the parameter relating to the image quality of the area corresponding to the main image data is adjusted (changed) in substantially real time so as to have contrast, and further, the color tone or contrast corresponding to the current position of the knob unit 102a is provided. A parameter related to the image quality of the area corresponding to the sub image data is adjusted (changed) in substantially real time.

一方、重畳領域設定部15は、図13のステップS36の処理を経た重畳画像データが表示部18にライブビュー表示されている際に、タッチパネル部16において重畳領域の調整に係る指示がなされたか否かを判定する(図13のステップS37)。   On the other hand, the superimposed region setting unit 15 determines whether or not an instruction related to adjustment of the superimposed region is given on the touch panel unit 16 when the superimposed image data that has undergone the process of step S36 in FIG. Is determined (step S37 in FIG. 13).

具体的には、重畳領域設定部15は、図13のステップS36の処理を経た重畳画像データが表示部18にライブビュー表示されている際に、例えば、矩形の重畳領域(重畳枠)を構成する4つの辺のうちのいずれか1つを跨ぐようなタッチ入力操作がタッチパネル部16において行われたか否かに基づき、重畳領域の調整に係る指示がなされたか否かを判定する。   Specifically, the superimposed region setting unit 15 configures, for example, a rectangular superimposed region (superimposed frame) when the superimposed image data that has undergone the process of step S36 in FIG. It is determined whether or not an instruction related to the adjustment of the superimposition region is made based on whether or not a touch input operation that straddles any one of the four sides is performed on the touch panel unit 16.

そして、重畳領域設定部15は、図13のステップS37において、重畳領域の調整に係る指示がなされていないとの判定結果を得た場合には、後述の図13のステップS39の処理を続けて行う。   When the superimposition area setting unit 15 obtains a determination result that the instruction for adjustment of the superimposition area has not been made in step S37 of FIG. 13, the superimposition area setting unit 15 continues the process of step S39 of FIG. Do.

また、重畳領域設定部15は、図13のステップS37において、重畳領域の調整に係る指示がなされたとの判定結果を得た場合には、重畳領域の再設定及び重畳枠の表示に係る処理を行う(図13のステップS38)。   In addition, in step S37 of FIG. 13, when the determination result that the instruction related to the adjustment of the superimposition area has been given is obtained, the superimposition area setting unit 15 performs the process related to the resetting of the superimposition area and the display of the superposition frame. This is performed (step S38 in FIG. 13).

ここで、図13のステップS38において行われる処理について、前述の座標位置A(Xa,Ya)及び座標位置B(Xb,Yb)を結ぶ対角線を具備する、図14に示すような矩形の重畳領域が現在の重畳領域として設定されている場合を例に挙げて説明する。図14は、重畳領域の再設定に係る処理を説明するための説明図である。   Here, with respect to the processing performed in step S38 in FIG. 13, a rectangular overlapping region as shown in FIG. 14 having a diagonal line connecting the coordinate position A (Xa, Ya) and the coordinate position B (Xb, Yb) described above. A case where is set as the current overlapping region will be described as an example. FIG. 14 is an explanatory diagram for explaining a process related to the resetting of the overlapping area.

座標位置A(Xa,Ya)及び座標位置B(Xb,Yb)を結ぶ対角線を具備する矩形の重畳領域を構成する4つの辺のうちのいずれか1つを跨ぐようなタッチ入力操作が行われたことを検出すると、重畳領域設定部15は、左上隅の座標位置を原点(0,0)としてXY座標系(X軸方向及びY軸方向)を規定したタッチパネル部16から出力される指示に基づき、タッチパネル部16におけるタッチ入力操作のタッチ開始位置に相当する座標位置E(Xe,Ye)と、タッチパネル部16におけるタッチ入力操作のタッチ終了位置に相当する座標位置F(Xf,Yf)と、を検出する(図14参照)。なお、本実施例においては、Xf>Xe及びYe>Yfの大小関係が成り立つものとして説明を行う。   A touch input operation is performed so as to straddle any one of the four sides constituting the rectangular overlapping region having a diagonal line connecting the coordinate position A (Xa, Ya) and the coordinate position B (Xb, Yb). When this is detected, the superimposition area setting unit 15 responds to an instruction output from the touch panel unit 16 that defines the XY coordinate system (X-axis direction and Y-axis direction) with the coordinate position of the upper left corner as the origin (0, 0). Based on the coordinate position E (Xe, Ye) corresponding to the touch start position of the touch input operation on the touch panel unit 16, the coordinate position F (Xf, Yf) corresponding to the touch end position of the touch input operation on the touch panel unit 16, Is detected (see FIG. 14). In the present embodiment, the description will be made assuming that the magnitude relation of Xf> Xe and Ye> Yf is established.

その後、重畳領域設定部15は、矩形の重畳領域(重畳枠)を構成する4つの辺のうち、前述のタッチ開始位置に相当する座標位置E(Xe,Ye)に最も近い位置にある1つの辺を調整対象の辺として設定する。   Thereafter, the superimposing area setting unit 15 selects one of the four sides constituting the rectangular superimposing area (superimposing frame) at the position closest to the coordinate position E (Xe, Ye) corresponding to the touch start position. Set the edge as the edge to be adjusted.

すなわち、図14に示すような座標位置E(Xe,Ye)が検出された場合においては、矩形の重畳領域(重畳枠)を構成する右辺が調整対象の辺として設定される。   That is, when the coordinate position E (Xe, Ye) as shown in FIG. 14 is detected, the right side that forms the rectangular overlapping region (superimposing frame) is set as the adjustment target side.

一方、重畳領域設定部15は、矩形の重畳領域(重畳枠)を構成する4つの辺のうち、右辺または左辺を調整対象の辺として設定した場合において、座標値Xfから座標値Xeを減じて得られる値を、当該調整対象の辺の移動量として設定する。   On the other hand, the superposition area setting unit 15 subtracts the coordinate value Xe from the coordinate value Xf when the right side or the left side is set as the adjustment target side among the four sides constituting the rectangular superposition area (superimposition frame). The obtained value is set as the movement amount of the side to be adjusted.

また、重畳領域設定部15は、矩形の重畳領域(重畳枠)を構成する4つの辺のうち、上辺または下辺を調整対象の辺として設定した場合において、座標値Yeから座標値Yfを減じて得られる値を、当該調整対象の辺の移動量として設定する。   In addition, the superposition region setting unit 15 subtracts the coordinate value Yf from the coordinate value Ye when the upper side or the lower side is set as the adjustment target side among the four sides constituting the rectangular superposition region (superimposition frame). The obtained value is set as the movement amount of the side to be adjusted.

そして、重畳領域設定部15は、座標位置A(Xa,Ya)及び座標位置B(Xb,Yb)に含まれる各座標値のうち、調整対象の辺に対応する1つの座標値に対して移動量の値を加えることにより、移動先の座標位置を取得する。   Then, the superposition region setting unit 15 moves with respect to one coordinate value corresponding to the side to be adjusted among the coordinate values included in the coordinate position A (Xa, Ya) and the coordinate position B (Xb, Yb). The coordinate position of the movement destination is acquired by adding the value of the amount.

具体的には、重畳領域設定部15は、矩形の重畳領域(重畳枠)の左辺を調整対象の辺として設定した場合においては、座標位置A(Xa,Ya)に対応する移動先の座標位置G(Xa+(Xf−Xe),Ya)を取得する。   Specifically, when the left side of the rectangular overlapping area (superimposing frame) is set as the adjustment target side, the overlapping area setting unit 15 sets the coordinate position of the movement destination corresponding to the coordinate position A (Xa, Ya). G (Xa + (Xf−Xe), Ya) is acquired.

重畳領域設定部15は、矩形の重畳領域(重畳枠)の上辺を調整対象の辺として設定した場合においては、座標位置A(Xa,Ya)に対応する移動先の座標位置H(Xa,Ya+(Ye−Yf))を取得する。   When the upper side of the rectangular superposition region (superposition frame) is set as the adjustment target side, the superposition region setting unit 15 sets the coordinate position H (Xa, Ya +) of the movement destination corresponding to the coordinate position A (Xa, Ya). (Ye-Yf)) is acquired.

重畳領域設定部15は、矩形の重畳領域(重畳枠)の右辺を調整対象の辺として設定した場合においては、座標位置B(Xb,Yb)に対応する移動先の座標位置I(Xb+(Xf−Xe),Yb)を取得する。   When the right side of the rectangular superposition region (superimposition frame) is set as the adjustment target side, the superposition region setting unit 15 sets the coordinate position I (Xb + (Xf) of the movement destination corresponding to the coordinate position B (Xb, Yb). -Xe) and Yb) are acquired.

重畳領域設定部15は、矩形の重畳領域(重畳枠)の下辺を調整対象の辺として設定した場合においては、座標位置B(Xb,Yb)に対応する移動先の座標位置J(Xb,Yb+(Ye−Yf))を取得する。   When the lower side of the rectangular superposition region (superimposition frame) is set as the adjustment target side, the superimposition region setting unit 15 moves to the coordinate position J (Xb, Yb +) of the movement destination corresponding to the coordinate position B (Xb, Yb). (Ye-Yf)) is acquired.

すなわち、図14に示すような座標位置E(Xe,Ye)が検出されることにより、矩形の重畳領域(重畳枠)を構成する右辺が調整対象の辺として設定された場合においては、座標位置B(Xb,Yb)に対応する移動先の座標位置I(Xb+(Xf−Xe),Yb)が取得される。   That is, when the coordinate position E (Xe, Ye) as shown in FIG. 14 is detected and the right side constituting the rectangular overlapping region (superimposing frame) is set as the adjustment target side, the coordinate position The coordinate position I (Xb + (Xf−Xe), Yb) of the movement destination corresponding to B (Xb, Yb) is acquired.

そして、重畳領域設定部15は、図14のように現在設定されている重畳領域を、座標位置A(Xa,Ya)と座標位置I(Xb+(Xf−Xe),Yb)とを結ぶ対角線を備えた、図15に示すような矩形領域の重畳領域として再設定する。図15は、再設定された重畳領域の一例を示す図である。   Then, the superimposition area setting unit 15 displays a diagonal line connecting the coordinate position A (Xa, Ya) and the coordinate position I (Xb + (Xf−Xe), Yb) as shown in FIG. Re-set as a rectangular overlapped area as shown in FIG. FIG. 15 is a diagram illustrating an example of the reset overlapping area.

重畳領域設定部15は、タッチパネル部16の座標位置を表示部18の位置に変換する処理等を行うことにより、前述のように再設定した重畳領域に相当する領域を示す重畳枠と、ライブビュー表示されている画像データと、を併せて表示部18に表示させる。   The superimposition area setting unit 15 performs a process of converting the coordinate position of the touch panel unit 16 into the position of the display unit 18, and the like, and a superimposition frame indicating an area corresponding to the superimposition area reset as described above, and a live view The displayed image data is also displayed on the display unit 18 together.

また、重畳領域設定部15は、以上に述べたような図13のステップS38の処理により再設定された重畳領域に係る情報を、サブ画像生成部12b、追尾部13、及び、重畳処理部14へ出力する。具体的には、重畳領域設定部15は、例えば、座標位置A(Xa,Ya)と、座標位置I(Xb+(Xf−Xe),Yb)と、タッチパネル部16における重畳領域の矩形の大きさ(面積)と、を含む情報をサブ画像生成部12b、追尾部13、及び、重畳処理部14へ出力する。   In addition, the superimposition region setting unit 15 uses the sub-image generation unit 12b, the tracking unit 13, and the superimposition processing unit 14 as information on the superimposition region reset by the processing in step S38 in FIG. 13 as described above. Output to. Specifically, the overlapping area setting unit 15, for example, the coordinate position A (Xa, Ya), the coordinate position I (Xb + (Xf−Xe), Yb), and the rectangular size of the overlapping area in the touch panel unit 16. (Area) is output to the sub-image generation unit 12b, the tracking unit 13, and the superimposition processing unit 14.

そして、図13のステップS38の処理により再設定された重畳領域に係る情報に基づく処理が図13のステップS34及びステップS35において行われることにより、追尾枠及び重畳画像データがそれぞれ更新される。すなわち、図13のステップS38の処理により重畳領域が再設定されるに伴い、重畳枠及び追尾枠の矩形の大きさがそれぞれ変更され、当該変更された重畳枠及び追尾枠の大きさに応じた新たなズーム倍率ZRが算出され、当該算出された新たなズーム倍率ZRでデジタルズームされたサブ画像データが生成される。   Then, the tracking frame and the superimposed image data are respectively updated by performing processing based on the information relating to the superposed region reset by the processing in step S38 in FIG. 13 in steps S34 and S35 in FIG. That is, as the overlapping area is reset by the process of step S38 in FIG. 13, the size of the rectangle of the overlapping frame and the tracking frame is changed, and the size of the overlapping frame and the tracking frame is changed. A new zoom magnification ZR is calculated, and sub-image data digitally zoomed with the calculated new zoom magnification ZR is generated.

なお、本実施例においては、図13のステップS38の処理により重畳領域が再設定された際の処理として、前述の処理が行われるものに限らない。具体的には、例えば、図13のステップS38の処理により重畳領域が再設定されるに伴い、重畳枠及び追尾枠の矩形の大きさがそれぞれ変更され、さらに、重畳領域が再設定される以前のズーム倍率ZRを保持したまま、当該変更された重畳枠及び追尾枠の大きさに応じたサブ画像データが生成されるようにしてもよい。   In the present embodiment, the process when the overlapping area is reset by the process of step S38 in FIG. 13 is not limited to the process described above. Specifically, for example, as the overlapping area is reset by the process of step S38 in FIG. 13, the size of the rectangle of the overlapping frame and the tracking frame is changed, and further, before the overlapping area is reset. While maintaining the zoom magnification ZR, sub image data corresponding to the size of the changed overlapping frame and tracking frame may be generated.

一方、撮影装置1のCPUは、レリーズボタンの操作によりレリーズ指示がなされたか否かを判定する(図13のステップS39)。   On the other hand, the CPU of the photographing apparatus 1 determines whether or not a release instruction has been given by operating the release button (step S39 in FIG. 13).

そして、撮影装置1のCPUは、図13のステップS39において、レリーズ指示がなされていないとの判定結果を得た場合には、図13のステップS35の処理を再度行う。   Then, when the CPU of the photographing apparatus 1 obtains a determination result that the release instruction has not been given in step S39 of FIG. 13, it performs the process of step S35 of FIG. 13 again.

また、撮影装置1のCPUは、図13のステップS39において、レリーズ指示がなされたとの判定結果を得た場合には、当該レリーズ指示の検出タイミングに応じたフレームの重畳画像データとして、重畳枠と、画質調整用スライダー101と、画質調整用スライダー102と、がそれぞれ消去された重畳画像データを表示部18にレックビュー表示させて記録部17に記録させるように制御を行う(図13のステップS40及びステップS41)。   When the CPU of the photographing apparatus 1 obtains the determination result that the release instruction has been issued in step S39 in FIG. 13, the CPU 1 of the imaging apparatus 1 uses the superimposed frame as the superimposed image data of the frame corresponding to the detection timing of the release instruction. Then, control is performed so that the superimposed image data from which the image quality adjustment slider 101 and the image quality adjustment slider 102 have been deleted is recorded on the display unit 18 and recorded in the recording unit 17 (step S40 in FIG. 13). And step S41).

以上に述べた本実施例によれば、ユーザの撮影対象となる主たる被写体と、当該主たる被写体に関連する被写体として当該ユーザにより選択された従たる被写体と、の関連性を強調するような重畳画像データを生成し、当該生成した重畳画像データを記録部17に記録可能な構成を具備している。すなわち、以上に述べた本実施例によれば、例えば、記録部17に記録された重畳画像データを再生して閲覧することにより、撮影時におけるユーザの撮影意図を容易に把握することができる。   According to the embodiment described above, the superimposed image that emphasizes the relevance between the main subject to be photographed by the user and the subordinate subject selected by the user as the subject related to the main subject. Data is generated, and the generated superimposed image data can be recorded in the recording unit 17. That is, according to the present embodiment described above, for example, by reproducing and browsing the superimposed image data recorded in the recording unit 17, it is possible to easily grasp the user's shooting intention at the time of shooting.

なお、以上に述べた本実施例によれば、重畳画像データの生成に用いられるメイン画像データ及びサブ画像データを、同じ撮影条件で撮影された1つの画像データに基づいて生成するものに限らず、相互に異なる撮影条件で撮影された2つの画像データに基づいて生成するものであってもよい。具体的には、例えば、露出補正、絞り、シャッタースピード及び感度等の種々のパラメータを組み合わせた2種類の撮影条件を予め設定しておくとともに、当該2種類の撮影条件のうちの一方で撮影された第1の画像データに基づいて生成したメイン画像データと、当該2種類の撮影条件のうちの他方で撮影された第2の画像データに基づいて生成したサブ画像データと、を重畳画像データの生成に用いてもよい。   Note that according to the present embodiment described above, the main image data and the sub image data used for generating the superimposed image data are not limited to those generated based on one image data photographed under the same photographing conditions. Alternatively, it may be generated based on two pieces of image data photographed under mutually different photographing conditions. Specifically, for example, two types of shooting conditions that combine various parameters such as exposure correction, aperture, shutter speed, and sensitivity are set in advance, and one of the two types of shooting conditions is shot. Main image data generated based on the first image data and sub-image data generated based on the second image data photographed under the other of the two types of photographing conditions. It may be used for generation.

また、以上に述べた本実施例によれば、図7に示したような処理を経て重畳画像データを生成するものに限らず、例えば、重畳領域を半透明化する処理を施したメイン画像データを生成し、ズーム倍率ZRでデジタルズームした追尾枠内の領域のみを抜き出す(切り抜く)処理を施したサブ画像データを生成し、当該メイン画像データの重畳領域に当該サブ画像データを合成する(はめ込む)ことにより重畳画像データを生成してもよい。   Further, according to the present embodiment described above, the main image data is not limited to the one that generates the superimposed image data through the process as shown in FIG. Is generated, sub-image data subjected to processing for extracting (cutting out) only the area within the tracking frame that has been digitally zoomed with the zoom magnification ZR is generated, and the sub-image data is synthesized (inserted) into the superimposed area of the main image data. Thus, the superimposed image data may be generated.

なお、本発明は、上述した各実施例に限定されるものではなく、発明の趣旨を逸脱しない範囲内において種々の変更や応用が可能であることは勿論である。   It should be noted that the present invention is not limited to the above-described embodiments, and it is needless to say that various changes and applications can be made without departing from the spirit of the invention.

1 撮影装置
11 撮像部
12 画像処理部
12a メイン画像生成部
12b サブ画像生成部
13 追尾部
14 重畳処理部
15 重畳領域設定部
16 タッチパネル部
17 記録部
18 表示部
DESCRIPTION OF SYMBOLS 1 Imaging device 11 Imaging part 12 Image processing part 12a Main image generation part 12b Sub image generation part 13 Tracking part 14 Superimposition processing part 15 Superimposition area setting part 16 Touch panel part 17 Recording part 18 Display part

Claims (4)

複数の被写体を含む画像を撮影可能な撮像部と、
前記撮像部により得られた前記画像に基づいてメイン画像を生成するメイン画像生成部と、
前記撮像部により得られた前記画像に対し、前記複数の被写体の中から選択された所望の被写体をズームする処理を行うことによりサブ画像を生成するサブ画像生成部と、
前記メイン画像生成部により生成された前記メイン画像に対し、前記サブ画像生成部により生成された前記サブ画像を重畳する処理を行うことにより重畳画像を生成する重畳処理部と、
前記重畳画像の前記メイン画像に相当する領域の画質と、前記重畳画像の前記サブ画像に相当する領域の画質と、を個別に調整する画質調整部と、
を有することを特徴とする撮影装置。
An imaging unit capable of capturing an image including a plurality of subjects;
A main image generation unit that generates a main image based on the image obtained by the imaging unit;
A sub-image generating unit that generates a sub-image by performing a process of zooming a desired subject selected from the plurality of subjects on the image obtained by the imaging unit;
A superimposition processing unit that generates a superimposed image by performing a process of superimposing the sub image generated by the sub image generation unit on the main image generated by the main image generation unit;
An image quality adjustment unit for individually adjusting the image quality of the region corresponding to the main image of the superimposed image and the image quality of the region corresponding to the sub-image of the superimposed image;
A photographing apparatus comprising:
前記サブ画像が重畳される重畳領域を前記メイン画像内の所望の領域に設定可能な重畳領域設定部をさらに有し、
前記サブ画像生成部は、前記重畳領域設定部により設定された前記重畳領域に応じたズーム倍率を算出し、当該算出したズーム倍率で前記所望の被写体をズームする処理を行うことにより前記サブ画像を生成することを特徴とする請求項1に記載の撮影装置。
A superimposition area setting unit capable of setting a superimposition area where the sub-image is superimposed on a desired area in the main image;
The sub-image generation unit calculates a zoom magnification according to the superimposing region set by the superimposing region setting unit, and performs a process of zooming the desired subject with the calculated zoom magnification, thereby subtracting the sub-image. The imaging device according to claim 1, wherein the imaging device is generated.
前記重畳処理部は、前記所望の被写体が前記ズーム倍率でズームされた前記サブ画像を、前記メイン画像内に設定された前記重畳領域に重畳することにより、前記重畳画像を生成することを特徴とする請求項2に記載の撮影装置。   The superimposing processing unit generates the superimposed image by superimposing the sub-image obtained by zooming the desired subject at the zoom magnification on the superimposing region set in the main image. The imaging device according to claim 2. 前記画質調整部による画質の調整が施された前記重畳画像を表示可能な表示部、及び、前記画質調整部による画質の調整が施された前記重畳画像を記録可能な記録部のうちの少なくとも一方をさらに有することを特徴とする請求項1乃至3のいずれか一項に記載の撮影装置。   At least one of a display unit capable of displaying the superimposed image subjected to image quality adjustment by the image quality adjustment unit and a recording unit capable of recording the superimposed image subjected to image quality adjustment performed by the image quality adjustment unit. The imaging apparatus according to claim 1, further comprising:
JP2011229122A 2011-10-18 2011-10-18 Photography device Pending JP2013090154A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2011229122A JP2013090154A (en) 2011-10-18 2011-10-18 Photography device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2011229122A JP2013090154A (en) 2011-10-18 2011-10-18 Photography device

Publications (1)

Publication Number Publication Date
JP2013090154A true JP2013090154A (en) 2013-05-13

Family

ID=48533641

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2011229122A Pending JP2013090154A (en) 2011-10-18 2011-10-18 Photography device

Country Status (1)

Country Link
JP (1) JP2013090154A (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2017054087A (en) * 2015-09-11 2017-03-16 フリュー株式会社 Photo sticker creation apparatus and display method

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2017054087A (en) * 2015-09-11 2017-03-16 フリュー株式会社 Photo sticker creation apparatus and display method

Similar Documents

Publication Publication Date Title
JP5754312B2 (en) Image processing apparatus, image processing method, and program
JP6825073B2 (en) Imaging equipment, control methods, and programs
CN103002216B (en) The image processing apparatus of composograph
JP5950678B2 (en) Imaging apparatus, control method, and program
JP5561019B2 (en) Imaging apparatus, program, and imaging method
CN107205112B (en) Image pickup apparatus, image pickup method, and recording medium
JP2010093422A (en) Imaging apparatus
KR20100039430A (en) Image processor, image processing method, digital camera, and imaging apparatus
CN103888684B (en) Image processing apparatus, image processing method and recording medium
JP2012178820A (en) Electronic apparatus
JPWO2013047483A1 (en) Imaging apparatus, imaging method, and program
JP2020107956A (en) Imaging apparatus, imaging method, and program
JP2020088403A (en) Image processing apparatus, control method thereof, and program
WO2014175130A1 (en) Image pickup apparatus
KR20120002834A (en) Image pickup device for providing a reference image and a reference image providing method thereof
JP5212046B2 (en) Digital camera, image processing apparatus, and image processing program
JP5282530B2 (en) Digital camera
JP2017143354A (en) Image processing apparatus and image processing method
JP5479850B2 (en) Moving image creating apparatus and moving image creating method
JP2017175589A (en) Imaging apparatus, imaging method and program
JP5903658B2 (en) Imaging device
JP2019047145A (en) IMAGE PROCESSING APPARATUS, IMAGING APPARATUS, CONTROL METHOD OF IMAGE PROCESSING APPARATUS, AND PROGRAM
JP2021180366A (en) Image pickup device, its control method, and program
JP2013090154A (en) Photography device
JP5718502B2 (en) Image creating apparatus and image creating method