JP5213639B2 - Image processing device - Google Patents
Image processing device Download PDFInfo
- Publication number
- JP5213639B2 JP5213639B2 JP2008274994A JP2008274994A JP5213639B2 JP 5213639 B2 JP5213639 B2 JP 5213639B2 JP 2008274994 A JP2008274994 A JP 2008274994A JP 2008274994 A JP2008274994 A JP 2008274994A JP 5213639 B2 JP5213639 B2 JP 5213639B2
- Authority
- JP
- Japan
- Prior art keywords
- image
- area
- electronic image
- face
- cut
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000012545 processing Methods 0.000 title claims description 38
- 238000001514 detection method Methods 0.000 claims description 55
- 238000003384 imaging method Methods 0.000 claims description 26
- 230000008859 change Effects 0.000 claims description 7
- 230000004044 response Effects 0.000 claims description 7
- 238000003672 processing method Methods 0.000 claims description 4
- 238000000034 method Methods 0.000 description 50
- 230000008569 process Effects 0.000 description 50
- 238000011156 evaluation Methods 0.000 description 41
- 230000000875 corresponding effect Effects 0.000 description 8
- 102100026338 F-box-like/WD repeat-containing protein TBL1Y Human genes 0.000 description 7
- 101000835691 Homo sapiens F-box-like/WD repeat-containing protein TBL1X Proteins 0.000 description 7
- 101000835690 Homo sapiens F-box-like/WD repeat-containing protein TBL1Y Proteins 0.000 description 7
- 238000007781 pre-processing Methods 0.000 description 6
- 101000800590 Homo sapiens Transducin beta-like protein 2 Proteins 0.000 description 5
- 102100033248 Transducin beta-like protein 2 Human genes 0.000 description 5
- 238000012805 post-processing Methods 0.000 description 5
- 230000004913 activation Effects 0.000 description 4
- 238000006243 chemical reaction Methods 0.000 description 4
- 238000001454 recorded image Methods 0.000 description 4
- 230000006399 behavior Effects 0.000 description 2
- 238000005549 size reduction Methods 0.000 description 2
- 241000282326 Felis catus Species 0.000 description 1
- 241001465754 Metazoa Species 0.000 description 1
- 230000002596 correlated effect Effects 0.000 description 1
- 238000010586 diagram Methods 0.000 description 1
- 230000008034 disappearance Effects 0.000 description 1
- 239000000284 extract Substances 0.000 description 1
- 230000003287 optical effect Effects 0.000 description 1
- 238000005070 sampling Methods 0.000 description 1
- 238000000926 separation method Methods 0.000 description 1
Images
Landscapes
- Image Processing (AREA)
- Studio Devices (AREA)
- Image Analysis (AREA)
Description
この発明は、画像処理装置に関し、特に、ディジタルカメラに適用され、撮像面で捉えられた被写界像を処理する、画像処理装置に関する。 The present invention relates to an image processing apparatus, and more particularly to an image processing apparatus that is applied to a digital camera and processes an object scene image captured on an imaging surface.
この種の装置の一例が、特許文献1に開示されている。この背景技術によれば、互いに異なる複数のサイズをそれぞれ有する複数の顔判別領域が準備される。これらの顔判別領域は、被写界像から顔画像を検出するために撮像面をラスタ走査方向に移動する。顔判別領域に属する部分画像が顔画像と判別されると、この時点の顔判別領域のサイズおよび位置が顔情報として記述される。フォーカスや露光量のような撮像パラメータは、こうして記述された顔位置情報を参照して調整される。
しかし、背景技術では、顔画像の検出結果が被写界像を再現する際の画角に反映されることはなく、被写界像の再現性に限界がある。 However, in the background art, the detection result of the face image is not reflected on the angle of view when the object scene image is reproduced, and the reproducibility of the object scene image is limited.
それゆえに、この発明の主たる目的は、被写界像の再現性を向上させることができる、画像処理装置を提供することである。 Therefore, a main object of the present invention is to provide an image processing apparatus capable of improving the reproducibility of an object scene image.
この発明に従う画像処理装置(10:実施例で相当する参照符号。以下同じ)は、撮像手段(16)から出力された電子画像を取り込む取り込み手段(30, 32)、取り込み手段によって取り込まれた電子画像から1または2以上の特定物体像の集合を検出する検出手段(S31~S63, S89)、検出手段によって検出された集合の規模に基づくサイズを有する切り出しエリアを検出手段によって検出された集合を覆う位置に定義する定義手段(S105~S107)、定義手段によって定義された切り出しエリアが取り込み手段によって取り込まれた電子画像からはみ出すとき当該切り出しエリアのサイズおよび/または位置を変更する変更手段(S109~S111)、および定義手段によって定義されかつ変更手段によって必要に応じて変更された切り出しエリアに属する一部の電子画像を取り込み手段によって取り込まれた電子画像から切り出す切り出し手段(S1, S25, S27)を備える。 The image processing apparatus according to the present invention (10:. Reference numerals corresponding to the same applies hereinafter in the examples), the capturing means for capturing an electronic image output from the imaging means (16) (30, 32), electrons captured by the capture means Detection means (S31 to S63, S89) for detecting a set of one or more specific object images from an image, and a set in which a cut-out area having a size based on the size of the set detected by the detection means is detected by the detection means Definition means (S105 to S107) for defining the covering position, and changing means (S109 to S107) for changing the size and / or position of the clipping area when the clipping area defined by the defining means protrudes from the electronic image captured by the capturing means. S111), and a part of the electronic image belonging to the cut-out area defined by the defining unit and modified as necessary by the changing unit. A clipping means (S1, S25, S27) for clipping from the electronic image captured by the stage is provided.
好ましくは、検出手段は集合を形成する特定物体像に接する枠を定義する枠定義手段(S89)を含み、定義手段は枠定義手段によって定義された枠と集合を形成する特定物体像の数とに基づいて切り出しエリアのサイズおよび位置を決定する決定手段(S105)を含む。 Preferably, the detection means includes frame definition means (S89) for defining a frame that contacts the specific object images forming the set, and the definition means includes the frame defined by the frame definition means and the number of specific object images forming the set. Determining means (S105) for determining the size and position of the cut-out area based on
好ましくは、切り出し手段によって切り出された電子画像を表示する表示手段(36, 38)をさらに備え、撮像手段は電子画像を繰り返し出力し、取り込み手段は電子画像を繰り返し取り込む。 Preferably, the image display device further includes display means (36, 38) for displaying the electronic image cut out by the cut-out means, the imaging means repeatedly outputs the electronic image , and the capturing means repeatedly captures the electronic image .
さらに好ましくは、切り出しエリアを初期設定する初期設定手段(S81)をさらに備え、定義手段は初期設定手段による初期設定の後の既定指示に応答して定義処理を実行する。 More preferably, it further comprises initial setting means (S81) for initial setting of the cutout area, and the definition means executes definition processing in response to a default instruction after the initial setting by the initial setting means.
好ましくは、検出手段によって検出された集合に対応する一部の電子画像を参照して撮像パラメータを調整する調整手段(S91, S9, S15, S17, S23, S75)をさらに備える。 Preferably, adjustment means (S91, S9, S15, S17, S23, S75) for adjusting imaging parameters with reference to a part of electronic images corresponding to the set detected by the detection means is further provided.
好ましくは、特定物体像は人物の顔部の画像に相当する。 Preferably, the specific object image corresponds to an image of a human face.
この発明に従う画像処理プログラムは、撮像手段(16)から出力された電子画像を取り込む取り込み手段(30, 32)を備える画像処理装置(10)のプロセッサ(26)に、取り込み手段によって取り込まれた電子画像から1または2以上の特定物体像の集合を検出する検出ステップ(S31~S63, S89)、検出ステップによって検出された集合の規模に基づくサイズを有する切り出しエリアを検出ステップによって検出された集合を覆う位置に定義する定義ステップ(S105~S107)、定義ステップによって定義された切り出しエリアが取り込み手段によって取り込まれた電子画像からはみ出すとき当該切り出しエリアのサイズおよび/または位置を変更する変更ステップ(S109~S111)、および定義ステップによって定義されかつ変更ステップによって必要に応じて変更された切り出しエリアに属する一部の電子画像を取り込み手段によって取り込まれた電子画像から切り出す切り出しステップ(S1, S25, S27)を実行させるための、画像処理プログラムである。 The image processing program according to the present invention, the processor (26) of the image processing apparatus comprises a capture means (30, 32) for capturing an electronic image output from the imaging means (16) (10), electrons captured by the capture means detecting a set of one or more specific object image from the image (S31 ~ S63, S89), a set of the cut-out area is detected by the detecting step having a size based on the size of the set which is detected by the detecting step Definition steps (S105 to S107) for defining the positions to be covered, and changing steps (S109 to S107) for changing the size and / or position of the clipping area when the clipping area defined by the defining step protrudes from the electronic image captured by the capturing means S 111), and cut, which is modified as necessary by the defined and changed step by defining step For executing a cut-out step (S1, S25, S27) of cutting out the electronic image captured by the capture means part of an electronic image belonging to the rear, an image processing program.
この発明に従う画像処理方法は、撮像手段(16)から出力された電子画像を取り込む取り込み手段(30, 32)を備える画像処理装置(10)によって実行される画像処理方法であって、取り込み手段によって取り込まれた電子画像から1または2以上の特定物体像の集合を検出する検出ステップ(S31~S63, S89)、検出ステップによって検出された集合の規模に基づくサイズを有する切り出しエリアを検出ステップによって検出された集合を覆う位置に定義する定義ステップ(S105~S107)、定義ステップによって定義された切り出しエリアが取り込み手段によって取り込まれた電子画像からはみ出すとき当該切り出しエリアのサイズおよび/または位置を変更する変更ステップ(S109~S111)、および定義ステップによって定義されかつ変更ステップによって必要に応じて変更された切り出しエリアに属する一部の電子画像を取り込み手段によって取り込まれた電子画像から切り出す切り出しステップ(S1, S25, S27)を備える。 An image processing method according to the present invention is an image processing method that is executed by an image processing apparatus (10) including a capturing unit (30, 32) that captures an electronic image output from an imaging unit (16). A detection step (S31 to S63, S89) for detecting a set of one or more specific object images from the captured electronic image, and a cutout area having a size based on the size of the set detected by the detection step is detected by the detection step. A definition step (S105 to S107) for defining the position covering the set, and a change to change the size and / or position of the clipping area when the clipping area defined by the definition step protrudes from the electronic image captured by the capturing means Defined by step (S109 ~ S111) and definition step and changed as needed by change step A cutout step (S1, S25, S27) for cutting out a part of the electronic image belonging to the cutout area from the electronic image taken in by the taking-in means is provided.
この発明によれば、切り出しエリアの位置は特定物体像の集合を覆うように調整され、切り出しエリアのサイズは特定物体像の集合の規模に基づいて調整される。これによって、特定物体像の集合に対する背景画像の割合が適応的に調整され、電子画像の再現性が向上する。 According to the present invention, the position of the cutout area is adjusted so as to cover the set of specific object images, and the size of the cutout area is adjusted based on the scale of the set of specific object images. Thereby, the ratio of the background image to the set of specific object images is adaptively adjusted, and the reproducibility of the electronic image is improved.
この発明の上述の目的,その他の目的,特徴および利点は、図面を参照して行う以下の実施例の詳細な説明から一層明らかとなろう。 The above object, other objects, features and advantages of the present invention will become more apparent from the following detailed description of embodiments with reference to the drawings.
図1を参照して、この実施例のディジタルカメラ10は、ドライバ18aおよび18bによってそれぞれ駆動されるフォーカスレンズ12および絞りユニット14を含む。これらの部材を経た被写界の光学像は、イメージャ16の撮像面に照射され、光電変換を施される。これによって、被写界像を表す電荷が生成される。
Referring to FIG. 1, a
電源が投入されると、CPU26は、撮像タスクの下でスルー画像処理を開始するべく、ドライバ18cに露光動作および間引き読み出し動作の繰り返しを命令する。ドライバ18cは、図示しないSG(Signal Generator)から周期的に発生する垂直同期信号Vsyncに応答して、撮像面を露光し、かつ撮像面で生成された電荷の一部をラスタ走査態様で読み出す。イメージャ16からは、読み出された電荷に基づく低解像度の生画像信号が周期的に出力される。
When the power is turned on, the
前処理回路20は、イメージャ16から出力された生画像信号にCDS(Correlated Double Sampling),AGC(Automatic Gain Control),A/D変換などの処理を施し、ディジタル信号である生画像データを出力する。出力された生画像データは、メモリ制御回路30を通してSDRAM32の生画像エリア32aに書き込まれる。
The preprocessing
後処理回路34は、生画像エリア32aに格納された生画像データをメモリ制御回路30を通して読み出し、読み出された生画像データに白バランス調整,色分離,YUV変換などの処理を施す。これによって生成されたYUV形式の画像データは、メモリ制御回路30を通してSDRAM32のYUV画像エリア32bに書き込まれる。
The
LCDドライバ36は、YUV画像エリア32bに格納された画像データをメモリ制御回路30を通して繰り返し読み出し、読み出された画像データに基づいてLCDモニタ38を駆動する。この結果、被写界のリアルタイム動画像(スルー画像)がモニタ画面に表示される。
The
図2を参照して、撮像面の中央には評価エリアEVAが割り当てられる。評価エリアEVAは水平方向および垂直方向の各々において16分割され、256個の分割エリアが評価エリアEVAを形成する。また、前処理回路20は、上述した処理に加えて、生画像データを簡易的にRGBデータに変換する簡易RGB変換処理を実行する。
Referring to FIG. 2, an evaluation area EVA is allocated at the center of the imaging surface. The evaluation area EVA is divided into 16 in each of the horizontal direction and the vertical direction, and 256 divided areas form the evaluation area EVA. In addition to the processing described above, the preprocessing
AE/AWB評価回路22は、前処理回路20によって生成されたRGBデータのうち評価エリアEVAに属するRGBデータを、垂直同期信号Vsyncが発生する毎に積分する。これによって、256個の積分値つまり256個のAE/AWB評価値が、垂直同期信号Vsyncに応答してAE/AWB評価回路22から出力される。
The AE /
また、AF評価回路24は、前処理回路20から出力されたRGBデータのうち同じ評価エリアEVAに属するGデータの高周波成分を抽出し、抽出された高域周波数成分を垂直同期信号Vsyncが発生する毎に積分する。これによって、256個の積分値つまり256個のAF評価値が、垂直同期信号Vsyncに応答してAF評価回路24から出力される。
The
CPU26は、AE/AWB評価回路22からの出力に基づくスルー画像用AE/AWB処理をスルー画像処理と並列して実行し、適正EV値および適正白バランス調整ゲインを算出する。算出された適正EV値を定義する絞り量および露光時間は、ドライバ18bおよび18cにそれぞれ設定される。また、算出された適正白バランス調整ゲインは、後処理回路34に設定される。この結果、スルー画像の明るさおよび白バランスが適度に調整される。
The
CPU26はまた、スルー画像処理と並列するコンティニュアスAFタスクの下で、AF評価回路24からの出力に基づくスルー画像用AF処理を実行する。フォーカスレンズ12は、AF評価回路24の出力がAF起動条件を満足するとき、ドライバ18aによって合焦点に設定される。これによって、スルー画像のフォーカスが適度に調整される。
The
シャッタボタン28sが半押しされると、CPU26は、コンティニュアスAFタスクを中断し、記録用AF処理を撮像タスクの下で実行する。記録用AF処理もまたAF評価回路24の出力に基づいて実行される。これによって、フォーカスが厳格に調整される。CPU26は続いて、AE/AWB評価回路22の出力に基づいて記録用AE処理を実行し、最適EV値を算出する。算出された最適EV値を定義する絞り量および露光時間は、上述と同様、ドライバ18bおよび18cにそれぞれ設定される。この結果、スルー画像の明るさが厳格に調整される。
When the
シャッタボタン28sが全押しされると、CPU26は、記録処理のために、ドライバ18cに露光動作および全画素読み出し動作を1回ずつ実行することを命令し、さらにI/F40を起動する。ドライバ18cは、垂直同期信号Vsyncに応答して撮像面を露光し、これによって生成された電荷の全てをラスタ走査態様で撮像面から読み出す。イメージャ16からは、高解像度を有する1フレームの生画像信号が出力される。
When the
イメージャ16から出力された生画像信号は前処理回路20によって生画像データに変換され、変換された生画像データはメモリ制御回路30によってSDRAM32の記録画像エリア32cに書き込まれる。CPU26は、記録画像エリア32cに格納された生画像データに基づいて最適白バランス調整ゲインを算出し、算出された最適白バランス調整ゲインを後処理回路34に設定する。
The raw image signal output from the
後処理回路34は、生画像エリア32aに格納された生画像データをメモリ制御回路30を通して読み出し、読み出された生画像データを最適白バランスを有するYUV形式の画像データに変換し、変換された画像データをメモリ制御回路30を通して記録画像エリア32cに書き込む。I/F40は、こうして記録画像エリア32cに格納された画像データをメモリ制御回路30を通して読み出し、読み出された画像データをファイル形式で記録媒体42に記録する。
The
なお、スルー画像処理は、高解像度を有する生画像データが記録画像エリア32cに確保された時点で再開される。コンティニュアスAFタスクもまた、この時点で再起動される。
Note that the through image processing is resumed when raw image data having high resolution is secured in the recorded
CPU26は、スルー画像処理と並列して実行される顔検出タスクの下で、SDRAM32の生画像エリア32aに格納された低解像度の生画像データから人物の顔画像を繰り返し検索する。このような顔検出タスクのために、図3に示す辞書DIC,図4に示す複数の顔検出枠FD_1,FD_2,FD_3,…および図5に示す2つのテーブルTBL1〜TBL2が準備される。
The
図3によれば、複数の顔パターンFP_1,FP_2,…が辞書DICに登録される。また、図4によれば、顔検出枠FD_1,FD_2,FD_3,…は、互いに異なる形状および/または大きさを有する。さらに、図5に示すテーブルTBL1〜TBL2の各々は、顔枠情報を記述するためのテーブルに相当し、顔画像の位置(顔画像が検出された時点の顔検出枠の位置)を記述するカラムと顔画像のサイズ(顔画像が検出された時点の顔検出枠のサイズ)を記述するカラムとによって形成される。 According to FIG. 3, a plurality of face patterns FP_1, FP_2,... Are registered in the dictionary DIC. Further, according to FIG. 4, the face detection frames FD_1, FD_2, FD_3,... Have different shapes and / or sizes. Further, each of the tables TBL1 to TBL2 shown in FIG. 5 corresponds to a table for describing face frame information, and a column describing the position of the face image (the position of the face detection frame at the time when the face image is detected). And a column describing the size of the face image (the size of the face detection frame when the face image is detected).
顔検出タスクにおいては、まずテーブルTBL1が現フレームの顔枠情報を保持する現フレームテーブルとして指定される。ただし、指定されるテーブルは1フレーム毎にテーブルTBL1およびTBL2の間で更新され、現フレームテーブルは次フレームにおいて前フレームテーブルとなる。現フレームテーブルの指定が完了すると、変数Kが“1”に設定され、顔検出枠FD_Kが図6に示す評価エリアEVAの左上つまり顔検出開始位置に設定される。 In the face detection task, first, the table TBL1 is designated as a current frame table that holds face frame information of the current frame. However, the specified table is updated between the tables TBL1 and TBL2 every frame, and the current frame table becomes the previous frame table in the next frame. When the specification of the current frame table is completed, the variable K is set to “1”, and the face detection frame FD_K is set to the upper left of the evaluation area EVA shown in FIG. 6, that is, the face detection start position.
垂直同期信号Vsyncが発生すると、SDRAM32の生画像エリア32aに格納された現フレームの生画像データのうち、顔検出枠FD_Kに属する部分画像データが、図3に示す辞書DICに記述された複数の顔パターンFP_1,FP_2,…の各々と照合される。注目する部分画像がいずれかの顔パターンに適合すると判別されれば、顔検出枠FD_Kの現在位置およびサイズが顔枠情報として現フレームテーブルに記述される。
When the vertical synchronization signal Vsync is generated, among the raw image data of the current frame stored in the
顔検出枠FD_Kは、図6に示す要領でラスタ方向に既定量ずつ移動され、評価エリアEVA上の複数の位置で上述のような照合処理を施される。そして、人物の顔画像が発見される毎に、発見された顔画像に対応する顔枠情報(つまり顔検出枠FD_Kの現在位置およびサイズ)が現フレームテーブルに記述されていく。 The face detection frame FD_K is moved by a predetermined amount in the raster direction in the manner shown in FIG. 6 and subjected to the above collation processing at a plurality of positions on the evaluation area EVA. Each time a person's face image is found, face frame information corresponding to the found face image (that is, the current position and size of the face detection frame FD_K) is described in the current frame table.
顔検出枠FD_Kが評価エリアEVAの右下つまり顔検出終了位置に達すると、変数Kが更新され、更新された変数Kの値に対応する顔検出枠FD_Kが顔検出開始位置に再配置される。上述と同様、顔検出枠FD_Kは評価エリアEVA上をラスタ方向に移動し、照合処理によって検出された顔画像に対応する顔枠情報は現フレームテーブルに記述される。このような顔認識処理は、顔検出枠FD_Kmax(Kmax:末尾の顔検出枠の番号)が顔検出終了位置に達するまで繰り返し実行される。 When the face detection frame FD_K reaches the lower right of the evaluation area EVA, that is, the face detection end position, the variable K is updated, and the face detection frame FD_K corresponding to the updated value of the variable K is rearranged at the face detection start position. . As described above, the face detection frame FD_K moves in the raster direction on the evaluation area EVA, and the face frame information corresponding to the face image detected by the matching process is described in the current frame table. Such face recognition processing is repeatedly executed until the face detection frame FD_Kmax (Kmax: the number of the last face detection frame) reaches the face detection end position.
顔検出枠FD_Kmaxが顔検出終了位置に達すると、指定テーブルが更新され、かつ更新後の指定テーブルが初期化される。さらに、変数Kが“1”に設定される。次フレームの顔認識処理は、垂直同期信号Vsyncの発生に応答して開始される。 When the face detection frame FD_Kmax reaches the face detection end position, the designation table is updated and the updated designation table is initialized. Further, the variable K is set to “1”. The face recognition process for the next frame is started in response to the generation of the vertical synchronization signal Vsync.
上述した撮像タスクと並行して、CPU40は、AE/AWB処理およびAF処理のために参照されるパラメータ調整エリアADJの位置および形状、ならびにLCDドライバ36による画像読み出し処理のためにSDRAM32のYUV画像エリア32bに割り当てられる切り出しエリアCTの位置および形状を、エリア制御タスクの下で定義する。
In parallel with the imaging task described above, the
エリア制御タスクでは、まず切り出しエリアCTが初期化される。切り出しエリアCTは、YUV画像エリア32bに格納される被写界像の全体を覆うように設定される。LCDドライバ36は、初期設定された切り出しエリアCTに属する画像データをYUV画像エリア32bから読み出し、読み出された画像データに基づく被写界像をスルー画像としてLCDモニタ38に表示する。
In the area control task, the cut-out area CT is first initialized. The cutout area CT is set so as to cover the entire object scene image stored in the
垂直同期信号Vsyncが発生すると、顔枠情報が確定している前フレームテーブルが指定され、前フレームテーブルに顔枠情報が記述されているか否かが判別される。 When the vertical synchronization signal Vsync is generated, the previous frame table in which the face frame information is determined is designated, and it is determined whether or not the face frame information is described in the previous frame table.
前フレームテーブルに少なくとも1つの顔枠が記述されていれば、この顔枠の集合に外接する顔集合枠GRPが定義される。さらに、評価エリアEVAを形成する256個の分割エリアのうち顔集合枠GRP内のエリアを覆う一部の分割エリアが、パラメータ調整エリアADJとして定義される。これに対して、前フレームテーブルに1つの顔画像も記述されていなければ、顔集合枠GRPの定義が解除され、評価エリアEVA全体がパラメータ調整エリアADJとして定義される。 If at least one face frame is described in the previous frame table, a face set frame GRP circumscribing the set of face frames is defined. Further, of the 256 divided areas forming the evaluation area EVA, a partial divided area that covers the area within the face collection frame GRP is defined as the parameter adjustment area ADJ. On the other hand, if one face image is not described in the previous frame table, the definition of the face collection frame GRP is canceled and the entire evaluation area EVA is defined as the parameter adjustment area ADJ.
したがって、前フレームテーブルに図7に示す矩形枠KF1およびKF2が記述されている場合、顔枠KF1およびKF2に外接するように顔集合枠GRPが定義される。さらに、顔集合枠GRP内のエリアを覆うようにパラメータ調整エリアADJが定義される。 Therefore, when the rectangular frames KF1 and KF2 shown in FIG. 7 are described in the previous frame table, the face set frame GRP is defined so as to circumscribe the face frames KF1 and KF2. Further, a parameter adjustment area ADJ is defined so as to cover an area in the face collection frame GRP.
上述したスルー画像用AE/AWB処理および記録用AE/AWB処理は、AE/AWB評価回路22から出力された256個のAE/AWB評価値のうち、パラメータ調整エリアADJに属するAE/AWB評価値に基づいて実行される。また、スルー画像用AF処理および記録用AF処理も、AF評価回路24から出力された256個のAF評価値のうち、パラメータ調整エリアADJに属するAF評価値に基づいて実行される。これによって、露光量やフォーカスなどの撮像パラメータの調整精度が向上する。
The through image AE / AWB process and the recording AE / AWB process described above are AE / AWB evaluation values belonging to the parameter adjustment area ADJ among the 256 AE / AWB evaluation values output from the AE /
シャッタボタン28sが操作(半押し)されると、顔集合枠GRPが定義されているか否かが判別される。顔集合枠GRPが定義されていれば、切り出しエリアCTの位置およびサイズが以下の要領で調整される。
When the
まず、係数αtop,αunder,αleftおよびαrightが、顔集合枠GRPのサイズに基づいて決定される。次に、係数βtop,βunder,βleftおよびβrightが、前フレームテーブルに記述された顔枠の数に基づいて決定される。 First, the coefficients αtop, αunder, αleft, and αright are determined based on the size of the face collection frame GRP. Next, the coefficients βtop, βunder, βleft, and βright are determined based on the number of face frames described in the previous frame table.
係数αtop,αunder,αleftおよびαrightは、顔集合枠GRPの位置および/またはサイズに応じて異なる数値を示す。また、係数βtop,βunder,βleftおよびβrightは、顔集合枠GRPを形成する顔枠の数に応じて異なる数値を示す。特に、係数βtop,βunder,βleftおよびβrightの各々は、顔枠数=1に対応して“1.0”を示し、顔枠数が増大するほど“0.0”に近づく特性を有する。 The coefficients αtop, αunder, αleft, and αright indicate different numerical values depending on the position and / or size of the face collection frame GRP. Also, the coefficients βtop, βunder, βleft, and βright indicate different numerical values depending on the number of face frames that form the face aggregate frame GRP. In particular, each of the coefficients βtop, βunder, βleft, and βright indicates “1.0” corresponding to the number of face frames = 1, and has a characteristic of approaching “0.0” as the number of face frames increases.
こうして決定された係数αtop,αunder,αleft,αrightならびに係数βtop,βunder,βleft,βrightは数1に適用され、これによって切り出しエリアCTの位置およびサイズが決定される。
[数1]
D_top=D_fy*αtop*βtop
D_under=D_fy*αunder*βunder
D_left=D_fx*αleft*βleft
D_right=D_fx*αright*βright
ただし、
D_fx:顔集合枠GRPの水平サイズ
D_fy:顔集合枠GRPの垂直サイズ
D_top:顔集合枠GRPの上端から切り出しエリアCTの上端までの距離
D_under:顔集合枠GRPの下端から切り出しエリアCTの下端までの距離
D_left:顔集合枠GRPの左端から切り出しエリアCTの左端までの距離
D_right:顔集合枠GRPの右端から切り出しエリアCTの右端までの距離
The coefficients αtop, αunder, αleft, αright and the coefficients βtop, βunder, βleft, and βright determined in this way are applied to
[Equation 1]
D_top = D_fy * αtop * βtop
D_under = D_fy * αunder * βunder
D_left = D_fx * αleft * βleft
D_right = D_fx * αright * βright
However,
D_fx: Horizontal size of the face set frame GRP D_fy: Vertical size of the face set frame GRP D_top: Distance from the upper end of the face set frame GRP to the upper end of the cutout area CT D_under: From the lower end of the face set frame GRP to the lower end of the cutout area CT Distance D_left: distance from the left end of the face set frame GRP to the left end of the cutout area CT D_right: distance from the right end of the face set frame GRP to the right end of the cutout area CT
数1によって定義された切り出しエリアCTは、顔集合枠GRPとの間で図8(A)に示す位置関係およびサイズ関係を示す。
The cut-out area CT defined by
ただし、切り出しエリアCTのサイズは、既定のアスペクト比(=4:3)に適合するように修正される。したがって、図8(A)に示す切り出しエリアCTが得られた場合、切り出しエリアCTのサイズは、図8(B)に示すように修正される。 However, the size of the cut-out area CT is corrected so as to conform to a predetermined aspect ratio (= 4: 3). Therefore, when the cutout area CT shown in FIG. 8A is obtained, the size of the cutout area CT is corrected as shown in FIG. 8B.
既定のアスペクト比に適合する切り出しエリアCTが得られると、この切り出しエリアCTがYUV画像エリア32bからはみ出すか否か(切り出しエリアCTがエラー条件に合致するか否か)が判別される。切り出しエリアCTがエラー条件に合致すれば、切り出しエリアCTが再定義される。つまり、切り出しエリアCTがYUV画像エリア32bに収まるように、切り出しエリアCTのサイズが縮小される。
When a cutout area CT that conforms to a predetermined aspect ratio is obtained, it is determined whether or not this cutout area CT protrudes from the
したがって、既定のアスペクト比を有する切り出しエリアCTが図9(A)に示す要領でYUV画像エリア32bに配置される場合、切り出しエリアCTのサイズは図9(B)に示すように縮小される。
Therefore, when the cut-out area CT having a predetermined aspect ratio is arranged in the
LCDドライバ36は、シャッタボタン28sが半押し状態にあるとき、こうして定義された切り出しエリアCTに属する画像データをYUV画像エリア32bから読み出し、読み出された画像データに基づく一部の被写界像をLCDモニタ38に全面表示する。したがって、LCDモニタ38に表示されるスルー画像の画角は、シャッタボタン28sが半押しされる前後で変化する。
When the
つまり、図10(A)に示す被写界像がLCDモニタ38に表示されている状態でシャッタボタン28sが半押しされると、図10(B)に示す要領で顔集合枠GRPおよび切り出しエリアCTが定義される。LCDモニタ38には、切り出しエリアCTに属する一部の被写界像が拡大表示される。
That is, when the
また、図11(A)に示す被写界像がLCDモニタ38に表示されている状態でシャッタボタン28sが半押しされると、図11(B)に示す要領で顔集合枠GRPおよび切り出しエリアCTが定義され、定義された切り出しエリアCTに属する一部の被写界像がLCDモニタ38に拡大表示される。
Further, when the
さらに、図12(A)に示す被写界像がLCDモニタ38に表示されている状態でシャッタボタン28sが半押しされると、図12(B)に示す要領で顔集合枠GRPおよび切り出しエリアCTが定義される。この結果、切り出しエリアCTに属する一部の被写界像がLCDモニタ38に拡大表示される。
Further, when the
シャッタボタン28sが全押しされると、I/F40は、切り出しエリアCTに対応する記録用切り出しエリア(図示せず)を記録画像エリア32cに設定し、記録用切り出しエリアに属する一部の画像データを記録画像エリア32cから読み出し、そして読み出された画像データを記録媒体42に記録する。
When the
このように、切り出しエリアCT(および記録用切り出しエリア)の位置は顔枠の集合を覆うように調整され、切り出しエリアCT(および記録用切り出しエリア)のサイズは顔枠の集合の規模に基づいて調整される。これによって、人物の顔部の画像の集合に対する背景画像の割合が適応的に調整され、被写界像の再現性が向上する。 Thus, the position of the cutout area CT (and the recording cutout area) is adjusted to cover the set of face frames, and the size of the cutout area CT (and the cutout area for recording) is based on the size of the set of face frames. Adjusted. As a result, the ratio of the background image to the set of images of the human face is adaptively adjusted, and the reproducibility of the object scene image is improved.
CPU40は、図13〜図14に示す撮像タスク,図15〜図17に示す顔検出タスク,図18に示すコンティニュアスAFタスク,および図19〜図21に示すエリア制御タスクを含む複数のタスクを並列的に実行する。これらのタスクに対応する制御プログラムは、フラッシュメモリ44に記憶される。また、顔検出タスクおよびコンティニュアスAFタスクの起動/停止は、撮像タスクによって制御される。
The
図13を参照して、ステップS1ではスルー画像処理を実行する。この結果、被写界を表すスルー画像がLCDモニタ38に表示される。ステップS3では顔検出タスクを起動し、ステップS5ではコンティニュアスAFタスクを起動する。ステップS7ではシャッタボタン28sが半押しされたか否かを判別し、NOである限り、ステップS9のスルー画像用AE/AWB処理を繰り返す。スルー画像用AE/AWB処理はパラメータ調整エリアADJに属するAE/AWB評価値に基づいて実行され、これによってスルー画像の明るさおよび白バランスが適度に調整される。
Referring to FIG. 13, through image processing is executed in step S1. As a result, a through image representing the scene is displayed on the
ステップS7でYESであれば、ステップS11で顔検出タスクを停止し、ステップS13でコンティニュアスAFタスクを停止する。ステップS15では記録用AF処理を実行し、ステップS17では記録用AE処理を実行する。記録用AF処理はパラメータ調整エリアADJに属するAF評価値に基づいて実行され、記録用AE処理はパラメータ調整エリアADJに属するAE/AWB評価値に基づいて実行される。これによって、スルー画像のフォーカスおよび明るさが厳格に調整される。 If “YES” in the step S7, the face detection task is stopped in a step S11, and the continuous AF task is stopped in a step S13. In step S15, a recording AF process is executed, and in step S17, a recording AE process is executed. The recording AF process is executed based on the AF evaluation value belonging to the parameter adjustment area ADJ, and the recording AE process is executed based on the AE / AWB evaluation value belonging to the parameter adjustment area ADJ. Thereby, the focus and brightness of the through image are strictly adjusted.
ステップS19ではシャッタボタン28sが全押しされたか否かを判別し、ステップS21ではシャッタボタン28sの操作が解除されたか否かを判別する。ステップS19でYESであればステップS23に進み、ステップS21でYESであればステップS3に戻る。ステップS23では、記録用AWB処理を実行し、ステップS25では記録処理を実行する。記録用AWB処理は、パラメータ調整エリアADJに属するAE/AWB評価値に基づいて実行される。これによって、最適な白バランスを有する高解像度の被写界像が記録媒体42に記録される。ステップS27ではスルー画像処理を再開し、その後にステップS3に戻る。
In step S19, it is determined whether or not the
図15を参照して、ステップS31では垂直同期信号Vsyncが発生したか否かを判別する。判別結果がNOからYESに更新されると、AF起動条件が満足されるか否かをステップS33で判別する。ここでNOであればそのままステップS31に戻る一方、YESであればステップS35でスルー画像用AF処理を実行してからステップS71に戻る。 Referring to FIG. 15, in step S31, it is determined whether or not the vertical synchronization signal Vsync is generated. If the determination result is updated from NO to YES, it is determined in step S33 whether or not the AF activation condition is satisfied. If “NO” here, the process directly returns to the step S31 while if “YES”, the through image AF process is executed in a step S35, and then, the process returns to the step S71.
AF起動条件が満足されるか否かの判別処理はパラメータ調整エリアADJに属するAF評価値に基づいて実行され、スルー画像用AF処理もパラメータ調整エリアADJに属するAF評価値に基づいて実行される。これによって、スルー画像のフォーカスが継続的に調整される。 The process for determining whether or not the AF activation condition is satisfied is executed based on the AF evaluation value belonging to the parameter adjustment area ADJ, and the through image AF process is also executed based on the AF evaluation value belonging to the parameter adjustment area ADJ. . As a result, the focus of the through image is continuously adjusted.
図16を参照して、ステップS41では、テーブルTBL1〜TBL2を初期化し、ステップS43ではテーブルTBL1を現フレームテーブルとして指定する。ステップS45では変数Kを“1”に設定し、ステップS47では顔検出枠FD_Kを評価エリアEVAの左上の顔検出開始位置に配置する。 Referring to FIG. 16, in step S41, tables TBL1 and TBL2 are initialized, and in step S43, table TBL1 is designated as the current frame table. In step S45, the variable K is set to “1”, and in step S47, the face detection frame FD_K is arranged at the upper left face detection start position of the evaluation area EVA.
なお、現フレームテーブルは、後述するステップS71の処理によってテーブルTBL1〜TBL2の間で更新される。したがって、現フレームテーブルは次フレームにおいて前フレームテーブルとなる。 The current frame table is updated between the tables TBL1 and TBL2 by the process of step S71 described later. Therefore, the current frame table becomes the previous frame table in the next frame.
ステップS49では垂直同期信号Vsyncが発生したか否かを判別し、判別結果がNOからYESに更新されるとステップS51で変数Lを“1”に設定する。ステップS53では顔検出枠FD_Kに属する部分画像を辞書DICに登録された顔パターンFP_Lと照合し、ステップS55では顔検出枠FD_Kの部分画像が顔パターンFP_Lに適合するか否かを判別する。 In step S49, it is determined whether or not the vertical synchronization signal Vsync is generated. If the determination result is updated from NO to YES, the variable L is set to “1” in step S51. In step S53, the partial image belonging to the face detection frame FD_K is collated with the face pattern FP_L registered in the dictionary DIC. In step S55, it is determined whether or not the partial image in the face detection frame FD_K matches the face pattern FP_L.
ここでNOであればステップS57で変数Lをインクリメントし、インクリメントされた変数Lが定数Lmax(Lmax:辞書DICに登録された顔パターンの総数)を上回るか否かをステップS59で判別する。そして、L≦LmaxであればステップS53に戻る一方、L>LmaxであればステップS63に進む。 If “NO” here, the variable L is incremented in a step S57, and it is determined in a step S59 whether or not the incremented variable L exceeds a constant Lmax (Lmax: total number of face patterns registered in the dictionary DIC). If L ≦ Lmax, the process returns to step S53, while if L> Lmax, the process proceeds to step S63.
ステップS55でYESであればステップS61に進み、顔検出枠FD_Kの現時位置およびサイズを顔枠情報として指定テーブルに記述する。ステップS61の処理が完了すると、ステップS63に進む。 If “YES” in the step S55, the process proceeds to a step S61, and the current position and size of the face detection frame FD_K are described in the designation table as face frame information. When the process of step S61 is completed, the process proceeds to step S63.
ステップS63では、顔検出枠FD_Kが評価エリアEVAの右下の顔検出終了位置に達したか否かを判別する。ここでNOであればステップS65で顔検出枠FD_Kを既定量だけラスタ方向に移動させ、その後にステップS51に戻る。一方、ステップS63でYESであれば、ステップS67で変数Kをインクリメントし、インクリメントされた変数Kが“Kmax”を上回るか否かをステップS69で判別する。 In step S63, it is determined whether or not the face detection frame FD_K has reached the lower right face detection end position of the evaluation area EVA. If “NO” here, the face detection frame FD_K is moved in the raster direction by a predetermined amount in a step S65, and thereafter, the process returns to the step S51. On the other hand, if “YES” in the step S63, the variable K is incremented in a step S67, and it is determined whether or not the incremented variable K exceeds “Kmax” in a step S69.
そして、K≦KmaxであればステップS47に戻る一方、K>KmaxであればステップS71に進む。ステップS71では、指定テーブルを更新しかつ更新された指定テーブルを初期化する。ステップS71の処理が完了すると、ステップS73で変数Kを“1”に設定し、その後にステップS47に戻る。 If K ≦ Kmax, the process returns to step S47 while if K> Kmax, the process proceeds to step S71. In step S71, the specified table is updated and the updated specified table is initialized. When the process of step S71 is completed, the variable K is set to “1” in step S73, and then the process returns to step S47.
図19を参照して、ステップS81では、SDRAM32のYUV画像エリア32bに割り当てられる切り出しエリアCTを初期化する。切り出しエリアCTは、YUV画像エリア32bに格納される被写界像の全体を覆うように設定される。
Referring to FIG. 19, in step S81, the cutout area CT assigned to the
ステップS83では垂直同期信号Vsyncが発生したか否かを判別し、判別結果がNOからYESに更新されるとステップS85で前フレームテーブルを指定する。ステップS87では、前フレームテーブルに少なくとも1つの顔枠が記述されているか否かを判別し、YESであればステップS89〜S91を経てステップS85に進む一方、NOであればステップS93〜S95を経てステップS97に進む。 In step S83, it is determined whether or not the vertical synchronization signal Vsync has been generated. If the determination result is updated from NO to YES, the previous frame table is designated in step S85. In step S87, it is determined whether or not at least one face frame is described in the previous frame table. If YES, the process proceeds to step S85 through steps S89 to S91. If NO, the process proceeds to steps S93 to S95. Proceed to step S97.
ステップS89では、前フレームテーブルに記述された顔枠に外接するように顔集合枠GRPを定義する。ステップS91では、評価エリアEVAを形成する256個の分割エリアのうち顔集合枠GRP内のエリアを覆う一部の分割エリアを調整エリアADJとして定義する。ステップS93では顔集合枠GRPの定義を解除し、ステップS95では評価エリアEVA全体を調整エリアADJとして定義する。 In step S89, the face collection frame GRP is defined so as to circumscribe the face frame described in the previous frame table. In step S91, of the 256 divided areas forming the evaluation area EVA, a partial divided area that covers the area within the face collection frame GRP is defined as the adjustment area ADJ. In step S93, the definition of the face collection frame GRP is canceled, and in step S95, the entire evaluation area EVA is defined as the adjustment area ADJ.
ステップS97ではシャッタボタン28sが操作(半押し)されたか否かを判別し、NOでればステップS83に戻る一方、YESであればステップS99に進む。ステップS99では、顔集合枠GRPが定義済みであるか否かを判別し、NOであればそのままステップS113に進む一方、YESであればステップS101〜S111を経てステップS113に進む。ステップS113では、シャッタボタン28sの操作が解除されたか否かを判別し、判別結果がNOからYESに更新されるとステップS81に戻る。
In step S97, it is determined whether or not the
ステップS101では、顔集合枠GRPのサイズを参照して係数αtop,αunder,αleft,αrightを決定する。ステップS103では、前フレームの被写界像から検出された顔枠の数を参照して係数βtop,βunder,βleft,βrightを決定する。 In step S101, the coefficients αtop, αunder, αleft, and αright are determined with reference to the size of the face collection frame GRP. In step S103, the coefficients βtop, βunder, βleft, and βright are determined with reference to the number of face frames detected from the object scene image of the previous frame.
ステップS105では、決定された係数αtop,αunder,αleft,αrightならびに係数βtop,βunder,βleft,βrightを上述した数1に適用して、切り出しエリアCTのサイズおよび位置を算出する。ステップS107では、ステップS105で算出された切り出しエリアCTのサイズを、既定のアスペクト比(=4:3)に適合するように修正する。
In step S105, the determined coefficients αtop, αunder, αleft, αright and the coefficients βtop, βunder, βleft, βright are applied to the above-described
ステップS109では、こうして定義された切り出しエリアCTがYUV画像エリア32bからはみ出すか否か(切り出しエリアCTがエラー条件に合致するか否か)を判別する。ここでNOであればそのままステップS113に進む一方、YESであれば切り出しエリアCTをステップS111で再定義してからステップS113に進む。ステップS111の処理の結果、切り出しエリアCTがYUV画像エリア32bに収まるように切り出しエリアCTのサイズが縮小される。
In step S109, it is determined whether or not the cutout area CT thus defined protrudes from the
以上の説明から分かるように、イメージャ16から出力された被写界像は、メモリ制御回路30によってSDRAM32に取り込まれる。CPU26は、取り込まれた被写界像から1または2以上の顔画像の集合を検出し(S41~S73, S89)、検出された集合の規模に基づくサイズを有する切り出しエリアCTを、検出された集合を覆う位置に定義する(S105~S111)。CPU26はまた、切り出しエリアCTに属する一部の被写界像をSDRAM32に取り込まれた被写界像から切り出す(S1, S25, S27)。
As can be understood from the above description, the object scene image output from the
このように、切り出しエリアCTの位置は顔画像の集合を覆うように調整され、切り出しエリアCTのサイズは顔画像の集合の規模に基づいて調整される。これによって、顔画像の集合に対する背景画像の割合が適応的に調整され、被写界像の再現性が向上する。 Thus, the position of the cutout area CT is adjusted so as to cover the set of face images, and the size of the cutout area CT is adjusted based on the scale of the set of face images. Thereby, the ratio of the background image to the set of face images is adaptively adjusted, and the reproducibility of the object scene image is improved.
なお、この実施例では、切り出しエリアCTがエラー条件に合致するときに切り出しエリアCTのサイズを縮小するようにしているが、サイズの縮小に代えて或いはサイズの縮小とともに切り出しエリアCTの位置を変更するようにしてもよい。 In this embodiment, the size of the cutout area CT is reduced when the cutout area CT matches the error condition. However, the position of the cutout area CT is changed instead of the size reduction or with the size reduction. You may make it do.
また、この実施例では、既定の物体として人物の顔部を想定しているが、これに代えて犬や猫などの動物の顔部を想定するようにしてもよい。 Further, in this embodiment, a human face is assumed as the default object, but instead, an animal face such as a dog or a cat may be assumed.
さらに、この実施例では、静止画像を記録するいわゆるディジタルスチルカメラを想定しているが、この発明は動画像を記録するディジタルビデオカメラにも適用できる。 Further, in this embodiment, a so-called digital still camera that records still images is assumed, but the present invention can also be applied to a digital video camera that records moving images.
また、この実施例では、シャッタボタン28sが半押しされると、顔検出タスクが停止し(図13のステップS7,S11参照)、切り出しエリアCTが位置およびサイズが確定する(図19〜図21のステップS97〜S111参照)。切り出しエリアCTの位置およびサイズは、シャッタボタン28sの操作が解除されるまで固定される。
In this embodiment, when the
しかし、シャッタボタン28sが半押しされた後も顔検出タスクを起動し続け、半押し状態における顔画像の出現,移動,消失に従って切り出しエリアCTの位置およびサイズを変更するようにしてもよい。この場合、好ましくは、図13に示すステップS11,図19に示すステップS97,および図21に示すステップS113の処理が省略され、さらに、図20のステップS99でNOと判断されたとき、または図21のステップS111の処理が完了したときに、処理が図19に示すステップS83に戻る。
However, the face detection task may continue to be activated even after the
さらに、この実施例では、切り出しエリアCTがYUV画像エリア32bからはみ出すことをエラー条件として規定しているが、これに加えて、これまで検出されていた顔が検出されなくなったこともエラー条件として規定するようにしてもよい。
Furthermore, in this embodiment, it is defined as an error condition that the cut-out area CT protrudes from the
10 …ディジタルカメラ
16 …イメージセンサ
20 …前処理回路
22 …AE/AWB評価回路
24 …AF評価回路
26 …CPU
32 …SDRAM
34 …後処理回路
44 …フラッシュメモリ
DESCRIPTION OF
32 ... SDRAM
34 ...
Claims (8)
前記取り込み手段によって取り込まれた電子画像から1または2以上の特定物体像の集合を検出する検出手段、
前記検出手段によって検出された集合の規模に基づくサイズを有する切り出しエリアを前記検出手段によって検出された集合を覆う位置に定義する定義手段、
前記定義手段によって定義された切り出しエリアが前記取り込み手段によって取り込まれた電子画像からはみ出すとき当該切り出しエリアのサイズおよび/または位置を変更する変更手段、および
前記定義手段によって定義されかつ前記変更手段によって必要に応じて変更された切り出しエリアに属する一部の電子画像を前記取り込み手段によって取り込まれた電子画像から切り出す切り出し手段を備える、画像処理装置。 Capturing means for capturing an electronic image output from the imaging means;
Detecting means for detecting a set of one or more specific object images from the electronic image captured by the capturing means;
Defining means for defining a cutout area having a size based on the size of the set detected by the detecting means at a position covering the set detected by the detecting means;
Changing means for changing the size and / or position of the clipping area when the clipping area defined by the defining means protrudes from the electronic image captured by the capturing means; and defined by the defining means and required by the changing means comprising a clipping means for cutting out from the electronic image captured by the capturing means part of an electronic image belonging to the changed cutout area according to the image processing apparatus.
前記定義手段は前記枠定義手段によって定義された枠と前記集合を形成する特定物体像の数とに基づいて前記切り出しエリアのサイズおよび位置を決定する決定手段を含む、請求項1記載の画像処理装置。 The detecting means includes frame defining means for defining a frame in contact with a specific object image forming the set;
The image processing according to claim 1, wherein the definition unit includes a determination unit that determines a size and a position of the cut-out area based on the frame defined by the frame definition unit and the number of specific object images forming the set. apparatus.
前記撮像手段は前記電子画像を繰り返し出力し、
前記取り込み手段は前記電子画像を繰り返し取り込む、請求項1または2記載の画像処理装置。 Further comprising display means for displaying the electronic image cut out by the cut-out means,
The imaging means repeatedly outputs the electronic image ,
Said fetching means fetches repeat the electronic image, the image processing apparatus according to claim 1 or 2 wherein.
前記定義手段は前記初期設定手段による初期設定の後の既定指示に応答して定義処理を実行する、請求項3記載の画像処理装置。 Further comprising initial setting means for initially setting the cutout area;
Said defining means performs to define processing in response to the default instruction after initialization by the initialization means, the image processing apparatus according to claim 3, wherein.
前記取り込み手段によって取り込まれた電子画像から1または2以上の特定物体像の集合を検出する検出ステップ、
前記検出ステップによって検出された集合の規模に基づくサイズを有する切り出しエリアを前記検出ステップによって検出された集合を覆う位置に定義する定義ステップ、
前記定義ステップによって定義された切り出しエリアが前記取り込み手段によって取り込まれた電子画像からはみ出すとき当該切り出しエリアのサイズおよび/または位置を変更する変更ステップ、および
前記定義ステップによって定義されかつ前記変更ステップによって必要に応じて変更された切り出しエリアに属する一部の電子画像を前記取り込み手段によって取り込まれた電子画像から切り出す切り出しステップを実行させるための、画像処理プログラム。 In a processor of an image processing apparatus including a capturing unit that captures an electronic image output from an imaging unit,
A detection step of detecting a set of one or more specific object images from the electronic image captured by the capturing means;
A definition step for defining a cutout area having a size based on the scale of the set detected by the detection step at a position covering the set detected by the detection step;
A change step for changing the size and / or position of the cut-out area when the cut-out area defined by the definition step protrudes from the electronic image taken by the take-in means; and defined by the definition step and required by the change step an image processing program for executing the cutout step of part of an electronic image belonging to the changed cutout area according excised from electronic images captured by the capture means.
前記取り込み手段によって取り込まれた電子画像から1または2以上の特定物体像の集合を検出する検出ステップ、
前記検出ステップによって検出された集合の規模に基づくサイズを有する切り出しエリアを前記検出ステップによって検出された集合を覆う位置に定義する定義ステップ、
前記定義ステップによって定義された切り出しエリアが前記取り込み手段によって取り込まれた電子画像からはみ出すとき当該切り出しエリアのサイズおよび/または位置を変更する変更ステップ、および
前記定義ステップによって定義されかつ前記変更ステップによって必要に応じて変更された切り出しエリアに属する一部の電子画像を前記取り込み手段によって取り込まれた電子画像から切り出す切り出しステップを備える、画像処理方法。 An image processing method executed by an image processing apparatus including a capturing unit that captures an electronic image output from an imaging unit,
A detection step of detecting a set of one or more specific object images from the electronic image captured by the capturing means;
A definition step for defining a cutout area having a size based on the scale of the set detected by the detection step at a position covering the set detected by the detection step;
A change step for changing the size and / or position of the cut-out area when the cut-out area defined by the definition step protrudes from the electronic image taken by the take-in means; and defined by the definition step and required by the change step modified comprises cutout step of cutting out the electronic image captured by the capturing means part of an electronic image belonging to the cut-out area, the image processing method in accordance with.
Priority Applications (1)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| JP2008274994A JP5213639B2 (en) | 2008-10-26 | 2008-10-26 | Image processing device |
Applications Claiming Priority (1)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| JP2008274994A JP5213639B2 (en) | 2008-10-26 | 2008-10-26 | Image processing device |
Publications (2)
| Publication Number | Publication Date |
|---|---|
| JP2010102596A JP2010102596A (en) | 2010-05-06 |
| JP5213639B2 true JP5213639B2 (en) | 2013-06-19 |
Family
ID=42293175
Family Applications (1)
| Application Number | Title | Priority Date | Filing Date |
|---|---|---|---|
| JP2008274994A Active JP5213639B2 (en) | 2008-10-26 | 2008-10-26 | Image processing device |
Country Status (1)
| Country | Link |
|---|---|
| JP (1) | JP5213639B2 (en) |
Families Citing this family (4)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| JP5810296B2 (en) | 2011-06-07 | 2015-11-11 | パナソニックIpマネジメント株式会社 | Image display device and image display method |
| US10178298B2 (en) | 2012-12-20 | 2019-01-08 | Sony Corporation | Image processing device, image processing method, and recording medium for optimal trimming of a captured image |
| KR102158098B1 (en) * | 2013-01-07 | 2020-09-22 | 삼성전자주식회사 | Method and apparatus for image layout using image recognition |
| JP5832673B2 (en) * | 2013-01-25 | 2015-12-16 | 富士フイルム株式会社 | Imaging apparatus and operation control method thereof |
Family Cites Families (7)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| JP2004193933A (en) * | 2002-12-11 | 2004-07-08 | Canon Inc | Image enlargement display method / device / media / program |
| JP4325385B2 (en) * | 2003-12-09 | 2009-09-02 | 株式会社ニコン | Digital camera and digital camera image acquisition method |
| JP2006174128A (en) * | 2004-12-16 | 2006-06-29 | Matsushita Electric Ind Co Ltd | Imaging apparatus and imaging system |
| JP4702015B2 (en) * | 2005-12-01 | 2011-06-15 | カシオ計算機株式会社 | Image display apparatus and program |
| JP4413235B2 (en) * | 2006-02-22 | 2010-02-10 | 三洋電機株式会社 | Electronic camera |
| JP2007258953A (en) * | 2006-03-22 | 2007-10-04 | Oki Electric Ind Co Ltd | Automatic photography system and instrument |
| JP2008258960A (en) * | 2007-04-05 | 2008-10-23 | Nikon Corp | Digital camera |
-
2008
- 2008-10-26 JP JP2008274994A patent/JP5213639B2/en active Active
Also Published As
| Publication number | Publication date |
|---|---|
| JP2010102596A (en) | 2010-05-06 |
Similar Documents
| Publication | Publication Date | Title |
|---|---|---|
| US8284300B2 (en) | Electronic camera | |
| US8077252B2 (en) | Electronic camera that adjusts a distance from an optical lens to an imaging surface so as to search the focal point | |
| JP4413235B2 (en) | Electronic camera | |
| JP2014081420A (en) | Tracking device and method thereof | |
| JP2012247533A (en) | Electronic camera | |
| US20090059025A1 (en) | Electronic Camera | |
| JP5178441B2 (en) | Electronic camera | |
| JP5213639B2 (en) | Image processing device | |
| JP4853707B2 (en) | Imaging apparatus and program thereof | |
| JP5485781B2 (en) | Electronic camera | |
| JP2009192960A (en) | Electronic camera | |
| JP2012155044A (en) | Electronic camera | |
| JP6172973B2 (en) | Image processing device | |
| JP2011142486A (en) | Electronic camera | |
| JP5297766B2 (en) | Electronic camera | |
| JP5965654B2 (en) | TRACKING DEVICE, IMAGING DEVICE, TRACKING METHOD USED FOR IMAGING DEVICE | |
| EP2091233A2 (en) | Imaging apparatus | |
| JP2013225020A (en) | Electronic camera | |
| JP2010141372A (en) | Object search device | |
| JP2013143755A (en) | Electronic camera | |
| JP5356162B2 (en) | Object image search device | |
| US20120148095A1 (en) | Image processing apparatus | |
| US20110109760A1 (en) | Electronic camera | |
| JP2010217614A (en) | Electronic camera | |
| JP2010128046A (en) | Electronic camera |
Legal Events
| Date | Code | Title | Description |
|---|---|---|---|
| A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20111006 |
|
| A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20120706 |
|
| A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20120710 |
|
| A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20120823 |
|
| TRDD | Decision of grant or rejection written | ||
| A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20130129 |
|
| A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20130226 |
|
| R151 | Written notification of patent or utility model registration |
Ref document number: 5213639 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R151 |
|
| FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20160308 Year of fee payment: 3 |
|
| FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20160308 Year of fee payment: 3 |
|
| S111 | Request for change of ownership or part of ownership |
Free format text: JAPANESE INTERMEDIATE CODE: R313113 |
|
| R350 | Written notification of registration of transfer |
Free format text: JAPANESE INTERMEDIATE CODE: R350 |
|
| R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
| R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
| R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
| R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
| R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
| R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |