[go: up one dir, main page]

JP5213639B2 - Image processing device - Google Patents

Image processing device Download PDF

Info

Publication number
JP5213639B2
JP5213639B2 JP2008274994A JP2008274994A JP5213639B2 JP 5213639 B2 JP5213639 B2 JP 5213639B2 JP 2008274994 A JP2008274994 A JP 2008274994A JP 2008274994 A JP2008274994 A JP 2008274994A JP 5213639 B2 JP5213639 B2 JP 5213639B2
Authority
JP
Japan
Prior art keywords
image
area
electronic image
face
cut
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2008274994A
Other languages
Japanese (ja)
Other versions
JP2010102596A (en
Inventor
一徳 宮田
梨紗 海内
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sanyo Electric Co Ltd
Original Assignee
Sanyo Electric Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sanyo Electric Co Ltd filed Critical Sanyo Electric Co Ltd
Priority to JP2008274994A priority Critical patent/JP5213639B2/en
Publication of JP2010102596A publication Critical patent/JP2010102596A/en
Application granted granted Critical
Publication of JP5213639B2 publication Critical patent/JP5213639B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Image Processing (AREA)
  • Studio Devices (AREA)
  • Image Analysis (AREA)

Description

この発明は、画像処理装置に関し、特に、ディジタルカメラに適用され、撮像面で捉えられた被写界像を処理する、画像処理装置に関する。   The present invention relates to an image processing apparatus, and more particularly to an image processing apparatus that is applied to a digital camera and processes an object scene image captured on an imaging surface.

この種の装置の一例が、特許文献1に開示されている。この背景技術によれば、互いに異なる複数のサイズをそれぞれ有する複数の顔判別領域が準備される。これらの顔判別領域は、被写界像から顔画像を検出するために撮像面をラスタ走査方向に移動する。顔判別領域に属する部分画像が顔画像と判別されると、この時点の顔判別領域のサイズおよび位置が顔情報として記述される。フォーカスや露光量のような撮像パラメータは、こうして記述された顔位置情報を参照して調整される。
特開2007−259423号公報
An example of this type of device is disclosed in Patent Document 1. According to this background art, a plurality of face discrimination areas each having a plurality of different sizes are prepared. These face discrimination regions move the imaging surface in the raster scanning direction in order to detect a face image from the object scene image. When a partial image belonging to the face determination area is determined as a face image, the size and position of the face determination area at this time are described as face information. Imaging parameters such as focus and exposure amount are adjusted with reference to the face position information described in this way.
JP 2007-259423 A

しかし、背景技術では、顔画像の検出結果が被写界像を再現する際の画角に反映されることはなく、被写界像の再現性に限界がある。   However, in the background art, the detection result of the face image is not reflected on the angle of view when the object scene image is reproduced, and the reproducibility of the object scene image is limited.

それゆえに、この発明の主たる目的は、被写界像の再現性を向上させることができる、画像処理装置を提供することである。   Therefore, a main object of the present invention is to provide an image processing apparatus capable of improving the reproducibility of an object scene image.

この発明に従う画像処理装置(10:実施例で相当する参照符号。以下同じ)は、撮像手段(16)から出力された電子画像を取り込む取り込み手段(30, 32)、取り込み手段によって取り込まれた電子画像から1または2以上の特定物体像の集合を検出する検出手段(S31~S63, S89)、検出手段によって検出された集合の規模に基づくサイズを有する切り出しエリアを検出手段によって検出された集合を覆う位置に定義する定義手段(S105~S107)、定義手段によって定義された切り出しエリアが取り込み手段によって取り込まれた電子画像からはみ出すとき当該切り出しエリアのサイズおよび/または位置を変更する変更手段(S109~S111)、および定義手段によって定義されかつ変更手段によって必要に応じて変更された切り出しエリアに属する一部の電子画像を取り込み手段によって取り込まれた電子画像から切り出す切り出し手段(S1, S25, S27)を備える。 The image processing apparatus according to the present invention (10:. Reference numerals corresponding to the same applies hereinafter in the examples), the capturing means for capturing an electronic image output from the imaging means (16) (30, 32), electrons captured by the capture means Detection means (S31 to S63, S89) for detecting a set of one or more specific object images from an image, and a set in which a cut-out area having a size based on the size of the set detected by the detection means is detected by the detection means Definition means (S105 to S107) for defining the covering position, and changing means (S109 to S107) for changing the size and / or position of the clipping area when the clipping area defined by the defining means protrudes from the electronic image captured by the capturing means. S111), and a part of the electronic image belonging to the cut-out area defined by the defining unit and modified as necessary by the changing unit. A clipping means (S1, S25, S27) for clipping from the electronic image captured by the stage is provided.

好ましくは、検出手段は集合を形成する特定物体像に接する枠を定義する枠定義手段(S89)を含み、定義手段は枠定義手段によって定義された枠と集合を形成する特定物体像の数とに基づいて切り出しエリアのサイズおよび位置を決定する決定手段(S105)を含む。   Preferably, the detection means includes frame definition means (S89) for defining a frame that contacts the specific object images forming the set, and the definition means includes the frame defined by the frame definition means and the number of specific object images forming the set. Determining means (S105) for determining the size and position of the cut-out area based on

好ましくは、切り出し手段によって切り出された電子画像を表示する表示手段(36, 38)をさらに備え、撮像手段は電子画像を繰り返し出力し、取り込み手段は電子画像を繰り返し取り込む。 Preferably, the image display device further includes display means (36, 38) for displaying the electronic image cut out by the cut-out means, the imaging means repeatedly outputs the electronic image , and the capturing means repeatedly captures the electronic image .

さらに好ましくは、切り出しエリアを初期設定する初期設定手段(S81)をさらに備え、定義手段は初期設定手段による初期設定の後の既定指示に応答して定義処理を実行する。   More preferably, it further comprises initial setting means (S81) for initial setting of the cutout area, and the definition means executes definition processing in response to a default instruction after the initial setting by the initial setting means.

好ましくは、検出手段によって検出された集合に対応する一部の電子画像を参照して撮像パラメータを調整する調整手段(S91, S9, S15, S17, S23, S75)をさらに備える。 Preferably, adjustment means (S91, S9, S15, S17, S23, S75) for adjusting imaging parameters with reference to a part of electronic images corresponding to the set detected by the detection means is further provided.

好ましくは、特定物体像は人物の顔部の画像に相当する。   Preferably, the specific object image corresponds to an image of a human face.

この発明に従う画像処理プログラムは、撮像手段(16)から出力された電子画像を取り込む取り込み手段(30, 32)を備える画像処理装置(10)のプロセッサ(26)に、取り込み手段によって取り込まれた電子画像から1または2以上の特定物体像の集合を検出する検出ステップ(S31~S63, S89)、検出ステップによって検出された集合の規模に基づくサイズを有する切り出しエリアを検出ステップによって検出された集合を覆う位置に定義する定義ステップ(S105~S107)、定義ステップによって定義された切り出しエリアが取り込み手段によって取り込まれた電子画像からはみ出すとき当該切り出しエリアのサイズおよび/または位置を変更する変更ステップ(S109~S111)、および定義ステップによって定義されかつ変更ステップによって必要に応じて変更された切り出しエリアに属する一部の電子画像を取り込み手段によって取り込まれた電子画像から切り出す切り出しステップ(S1, S25, S27)を実行させるための、画像処理プログラムである。 The image processing program according to the present invention, the processor (26) of the image processing apparatus comprises a capture means (30, 32) for capturing an electronic image output from the imaging means (16) (10), electrons captured by the capture means detecting a set of one or more specific object image from the image (S31 ~ S63, S89), a set of the cut-out area is detected by the detecting step having a size based on the size of the set which is detected by the detecting step Definition steps (S105 to S107) for defining the positions to be covered, and changing steps (S109 to S107) for changing the size and / or position of the clipping area when the clipping area defined by the defining step protrudes from the electronic image captured by the capturing means S 111), and cut, which is modified as necessary by the defined and changed step by defining step For executing a cut-out step (S1, S25, S27) of cutting out the electronic image captured by the capture means part of an electronic image belonging to the rear, an image processing program.

この発明に従う画像処理方法は、撮像手段(16)から出力された電子画像を取り込む取り込み手段(30, 32)を備える画像処理装置(10)によって実行される画像処理方法であって、取り込み手段によって取り込まれた電子画像から1または2以上の特定物体像の集合を検出する検出ステップ(S31~S63, S89)、検出ステップによって検出された集合の規模に基づくサイズを有する切り出しエリアを検出ステップによって検出された集合を覆う位置に定義する定義ステップ(S105~S107)、定義ステップによって定義された切り出しエリアが取り込み手段によって取り込まれた電子画像からはみ出すとき当該切り出しエリアのサイズおよび/または位置を変更する変更ステップ(S109~S111)、および定義ステップによって定義されかつ変更ステップによって必要に応じて変更された切り出しエリアに属する一部の電子画像を取り込み手段によって取り込まれた電子画像から切り出す切り出しステップ(S1, S25, S27)を備える。 An image processing method according to the present invention is an image processing method that is executed by an image processing apparatus (10) including a capturing unit (30, 32) that captures an electronic image output from an imaging unit (16). A detection step (S31 to S63, S89) for detecting a set of one or more specific object images from the captured electronic image, and a cutout area having a size based on the size of the set detected by the detection step is detected by the detection step. A definition step (S105 to S107) for defining the position covering the set, and a change to change the size and / or position of the clipping area when the clipping area defined by the definition step protrudes from the electronic image captured by the capturing means Defined by step (S109 ~ S111) and definition step and changed as needed by change step A cutout step (S1, S25, S27) for cutting out a part of the electronic image belonging to the cutout area from the electronic image taken in by the taking-in means is provided.

この発明によれば、切り出しエリアの位置は特定物体像の集合を覆うように調整され、切り出しエリアのサイズは特定物体像の集合の規模に基づいて調整される。これによって、特定物体像の集合に対する背景画像の割合が適応的に調整され、電子画像の再現性が向上する。 According to the present invention, the position of the cutout area is adjusted so as to cover the set of specific object images, and the size of the cutout area is adjusted based on the scale of the set of specific object images. Thereby, the ratio of the background image to the set of specific object images is adaptively adjusted, and the reproducibility of the electronic image is improved.

この発明の上述の目的,その他の目的,特徴および利点は、図面を参照して行う以下の実施例の詳細な説明から一層明らかとなろう。   The above object, other objects, features and advantages of the present invention will become more apparent from the following detailed description of embodiments with reference to the drawings.

図1を参照して、この実施例のディジタルカメラ10は、ドライバ18aおよび18bによってそれぞれ駆動されるフォーカスレンズ12および絞りユニット14を含む。これらの部材を経た被写界の光学像は、イメージャ16の撮像面に照射され、光電変換を施される。これによって、被写界像を表す電荷が生成される。   Referring to FIG. 1, a digital camera 10 of this embodiment includes a focus lens 12 and an aperture unit 14 driven by drivers 18a and 18b, respectively. The optical image of the object scene that has passed through these members is irradiated onto the imaging surface of the imager 16 and subjected to photoelectric conversion. As a result, a charge representing the object scene image is generated.

電源が投入されると、CPU26は、撮像タスクの下でスルー画像処理を開始するべく、ドライバ18cに露光動作および間引き読み出し動作の繰り返しを命令する。ドライバ18cは、図示しないSG(Signal Generator)から周期的に発生する垂直同期信号Vsyncに応答して、撮像面を露光し、かつ撮像面で生成された電荷の一部をラスタ走査態様で読み出す。イメージャ16からは、読み出された電荷に基づく低解像度の生画像信号が周期的に出力される。   When the power is turned on, the CPU 26 instructs the driver 18c to repeat the exposure operation and the thinning readout operation in order to start the through image processing under the imaging task. In response to a vertical synchronization signal Vsync periodically generated from an SG (Signal Generator) (not shown), the driver 18c exposes the imaging surface and reads out part of the charges generated on the imaging surface in a raster scanning manner. From the imager 16, a low-resolution raw image signal based on the read charges is periodically output.

前処理回路20は、イメージャ16から出力された生画像信号にCDS(Correlated Double Sampling),AGC(Automatic Gain Control),A/D変換などの処理を施し、ディジタル信号である生画像データを出力する。出力された生画像データは、メモリ制御回路30を通してSDRAM32の生画像エリア32aに書き込まれる。   The preprocessing circuit 20 performs processing such as CDS (Correlated Double Sampling), AGC (Automatic Gain Control), and A / D conversion on the raw image signal output from the imager 16, and outputs raw image data that is a digital signal. . The output raw image data is written into the raw image area 32 a of the SDRAM 32 through the memory control circuit 30.

後処理回路34は、生画像エリア32aに格納された生画像データをメモリ制御回路30を通して読み出し、読み出された生画像データに白バランス調整,色分離,YUV変換などの処理を施す。これによって生成されたYUV形式の画像データは、メモリ制御回路30を通してSDRAM32のYUV画像エリア32bに書き込まれる。   The post-processing circuit 34 reads the raw image data stored in the raw image area 32a through the memory control circuit 30, and performs processing such as white balance adjustment, color separation, and YUV conversion on the read raw image data. The YUV format image data thus generated is written into the YUV image area 32 b of the SDRAM 32 through the memory control circuit 30.

LCDドライバ36は、YUV画像エリア32bに格納された画像データをメモリ制御回路30を通して繰り返し読み出し、読み出された画像データに基づいてLCDモニタ38を駆動する。この結果、被写界のリアルタイム動画像(スルー画像)がモニタ画面に表示される。   The LCD driver 36 repeatedly reads the image data stored in the YUV image area 32b through the memory control circuit 30, and drives the LCD monitor 38 based on the read image data. As a result, a real-time moving image (through image) of the object scene is displayed on the monitor screen.

図2を参照して、撮像面の中央には評価エリアEVAが割り当てられる。評価エリアEVAは水平方向および垂直方向の各々において16分割され、256個の分割エリアが評価エリアEVAを形成する。また、前処理回路20は、上述した処理に加えて、生画像データを簡易的にRGBデータに変換する簡易RGB変換処理を実行する。   Referring to FIG. 2, an evaluation area EVA is allocated at the center of the imaging surface. The evaluation area EVA is divided into 16 in each of the horizontal direction and the vertical direction, and 256 divided areas form the evaluation area EVA. In addition to the processing described above, the preprocessing circuit 20 executes simple RGB conversion processing that simply converts raw image data into RGB data.

AE/AWB評価回路22は、前処理回路20によって生成されたRGBデータのうち評価エリアEVAに属するRGBデータを、垂直同期信号Vsyncが発生する毎に積分する。これによって、256個の積分値つまり256個のAE/AWB評価値が、垂直同期信号Vsyncに応答してAE/AWB評価回路22から出力される。   The AE / AWB evaluation circuit 22 integrates RGB data belonging to the evaluation area EVA among the RGB data generated by the preprocessing circuit 20 every time the vertical synchronization signal Vsync is generated. As a result, 256 integral values, that is, 256 AE / AWB evaluation values are output from the AE / AWB evaluation circuit 22 in response to the vertical synchronization signal Vsync.

また、AF評価回路24は、前処理回路20から出力されたRGBデータのうち同じ評価エリアEVAに属するGデータの高周波成分を抽出し、抽出された高域周波数成分を垂直同期信号Vsyncが発生する毎に積分する。これによって、256個の積分値つまり256個のAF評価値が、垂直同期信号Vsyncに応答してAF評価回路24から出力される。   The AF evaluation circuit 24 extracts the high frequency component of the G data belonging to the same evaluation area EVA from the RGB data output from the preprocessing circuit 20, and the vertical synchronization signal Vsync is generated from the extracted high frequency component. Integrate every time. As a result, 256 integral values, that is, 256 AF evaluation values, are output from the AF evaluation circuit 24 in response to the vertical synchronization signal Vsync.

CPU26は、AE/AWB評価回路22からの出力に基づくスルー画像用AE/AWB処理をスルー画像処理と並列して実行し、適正EV値および適正白バランス調整ゲインを算出する。算出された適正EV値を定義する絞り量および露光時間は、ドライバ18bおよび18cにそれぞれ設定される。また、算出された適正白バランス調整ゲインは、後処理回路34に設定される。この結果、スルー画像の明るさおよび白バランスが適度に調整される。   The CPU 26 executes through image AE / AWB processing based on the output from the AE / AWB evaluation circuit 22 in parallel with the through image processing, and calculates an appropriate EV value and an appropriate white balance adjustment gain. The aperture amount and the exposure time that define the calculated appropriate EV value are set in the drivers 18b and 18c, respectively. The calculated appropriate white balance adjustment gain is set in the post-processing circuit 34. As a result, the brightness and white balance of the through image are appropriately adjusted.

CPU26はまた、スルー画像処理と並列するコンティニュアスAFタスクの下で、AF評価回路24からの出力に基づくスルー画像用AF処理を実行する。フォーカスレンズ12は、AF評価回路24の出力がAF起動条件を満足するとき、ドライバ18aによって合焦点に設定される。これによって、スルー画像のフォーカスが適度に調整される。   The CPU 26 also executes through-image AF processing based on the output from the AF evaluation circuit 24 under a continuous AF task in parallel with the through-image processing. The focus lens 12 is set to the focal point by the driver 18a when the output of the AF evaluation circuit 24 satisfies the AF activation condition. As a result, the focus of the through image is appropriately adjusted.

シャッタボタン28sが半押しされると、CPU26は、コンティニュアスAFタスクを中断し、記録用AF処理を撮像タスクの下で実行する。記録用AF処理もまたAF評価回路24の出力に基づいて実行される。これによって、フォーカスが厳格に調整される。CPU26は続いて、AE/AWB評価回路22の出力に基づいて記録用AE処理を実行し、最適EV値を算出する。算出された最適EV値を定義する絞り量および露光時間は、上述と同様、ドライバ18bおよび18cにそれぞれ設定される。この結果、スルー画像の明るさが厳格に調整される。   When the shutter button 28s is half-pressed, the CPU 26 interrupts the continuous AF task and executes the recording AF process under the imaging task. The recording AF process is also executed based on the output of the AF evaluation circuit 24. As a result, the focus is adjusted strictly. Subsequently, the CPU 26 executes a recording AE process based on the output of the AE / AWB evaluation circuit 22 and calculates an optimum EV value. The aperture amount and the exposure time that define the calculated optimal EV value are set in the drivers 18b and 18c, respectively, as described above. As a result, the brightness of the through image is adjusted strictly.

シャッタボタン28sが全押しされると、CPU26は、記録処理のために、ドライバ18cに露光動作および全画素読み出し動作を1回ずつ実行することを命令し、さらにI/F40を起動する。ドライバ18cは、垂直同期信号Vsyncに応答して撮像面を露光し、これによって生成された電荷の全てをラスタ走査態様で撮像面から読み出す。イメージャ16からは、高解像度を有する1フレームの生画像信号が出力される。   When the shutter button 28s is fully pressed, the CPU 26 instructs the driver 18c to execute an exposure operation and an all-pixel reading operation once for recording processing, and further activates the I / F 40. The driver 18c exposes the imaging surface in response to the vertical synchronization signal Vsync, and reads out all the charges generated thereby from the imaging surface in a raster scanning manner. From the imager 16, a one-frame raw image signal having a high resolution is output.

イメージャ16から出力された生画像信号は前処理回路20によって生画像データに変換され、変換された生画像データはメモリ制御回路30によってSDRAM32の記録画像エリア32cに書き込まれる。CPU26は、記録画像エリア32cに格納された生画像データに基づいて最適白バランス調整ゲインを算出し、算出された最適白バランス調整ゲインを後処理回路34に設定する。   The raw image signal output from the imager 16 is converted into raw image data by the preprocessing circuit 20, and the converted raw image data is written into the recorded image area 32 c of the SDRAM 32 by the memory control circuit 30. The CPU 26 calculates an optimum white balance adjustment gain based on the raw image data stored in the recorded image area 32c, and sets the calculated optimum white balance adjustment gain in the post-processing circuit 34.

後処理回路34は、生画像エリア32aに格納された生画像データをメモリ制御回路30を通して読み出し、読み出された生画像データを最適白バランスを有するYUV形式の画像データに変換し、変換された画像データをメモリ制御回路30を通して記録画像エリア32cに書き込む。I/F40は、こうして記録画像エリア32cに格納された画像データをメモリ制御回路30を通して読み出し、読み出された画像データをファイル形式で記録媒体42に記録する。   The post-processing circuit 34 reads the raw image data stored in the raw image area 32a through the memory control circuit 30 and converts the read raw image data into YUV format image data having an optimal white balance. The image data is written into the recorded image area 32c through the memory control circuit 30. The I / F 40 reads out the image data stored in the recording image area 32c in this way through the memory control circuit 30, and records the read image data in the recording medium 42 in a file format.

なお、スルー画像処理は、高解像度を有する生画像データが記録画像エリア32cに確保された時点で再開される。コンティニュアスAFタスクもまた、この時点で再起動される。   Note that the through image processing is resumed when raw image data having high resolution is secured in the recorded image area 32c. The continuous AF task is also restarted at this point.

CPU26は、スルー画像処理と並列して実行される顔検出タスクの下で、SDRAM32の生画像エリア32aに格納された低解像度の生画像データから人物の顔画像を繰り返し検索する。このような顔検出タスクのために、図3に示す辞書DIC,図4に示す複数の顔検出枠FD_1,FD_2,FD_3,…および図5に示す2つのテーブルTBL1〜TBL2が準備される。   The CPU 26 repeatedly searches for a human face image from low-resolution raw image data stored in the raw image area 32a of the SDRAM 32 under a face detection task executed in parallel with the through image processing. For such a face detection task, a dictionary DIC shown in FIG. 3, a plurality of face detection frames FD_1, FD_2, FD_3,..., And two tables TBL1 to TBL2 shown in FIG.

図3によれば、複数の顔パターンFP_1,FP_2,…が辞書DICに登録される。また、図4によれば、顔検出枠FD_1,FD_2,FD_3,…は、互いに異なる形状および/または大きさを有する。さらに、図5に示すテーブルTBL1〜TBL2の各々は、顔枠情報を記述するためのテーブルに相当し、顔画像の位置(顔画像が検出された時点の顔検出枠の位置)を記述するカラムと顔画像のサイズ(顔画像が検出された時点の顔検出枠のサイズ)を記述するカラムとによって形成される。   According to FIG. 3, a plurality of face patterns FP_1, FP_2,... Are registered in the dictionary DIC. Further, according to FIG. 4, the face detection frames FD_1, FD_2, FD_3,... Have different shapes and / or sizes. Further, each of the tables TBL1 to TBL2 shown in FIG. 5 corresponds to a table for describing face frame information, and a column describing the position of the face image (the position of the face detection frame at the time when the face image is detected). And a column describing the size of the face image (the size of the face detection frame when the face image is detected).

顔検出タスクにおいては、まずテーブルTBL1が現フレームの顔枠情報を保持する現フレームテーブルとして指定される。ただし、指定されるテーブルは1フレーム毎にテーブルTBL1およびTBL2の間で更新され、現フレームテーブルは次フレームにおいて前フレームテーブルとなる。現フレームテーブルの指定が完了すると、変数Kが“1”に設定され、顔検出枠FD_Kが図6に示す評価エリアEVAの左上つまり顔検出開始位置に設定される。   In the face detection task, first, the table TBL1 is designated as a current frame table that holds face frame information of the current frame. However, the specified table is updated between the tables TBL1 and TBL2 every frame, and the current frame table becomes the previous frame table in the next frame. When the specification of the current frame table is completed, the variable K is set to “1”, and the face detection frame FD_K is set to the upper left of the evaluation area EVA shown in FIG. 6, that is, the face detection start position.

垂直同期信号Vsyncが発生すると、SDRAM32の生画像エリア32aに格納された現フレームの生画像データのうち、顔検出枠FD_Kに属する部分画像データが、図3に示す辞書DICに記述された複数の顔パターンFP_1,FP_2,…の各々と照合される。注目する部分画像がいずれかの顔パターンに適合すると判別されれば、顔検出枠FD_Kの現在位置およびサイズが顔枠情報として現フレームテーブルに記述される。   When the vertical synchronization signal Vsync is generated, among the raw image data of the current frame stored in the raw image area 32a of the SDRAM 32, partial image data belonging to the face detection frame FD_K is a plurality of data described in the dictionary DIC shown in FIG. Each of the face patterns FP_1, FP_2,. If it is determined that the focused partial image matches any face pattern, the current position and size of the face detection frame FD_K are described in the current frame table as face frame information.

顔検出枠FD_Kは、図6に示す要領でラスタ方向に既定量ずつ移動され、評価エリアEVA上の複数の位置で上述のような照合処理を施される。そして、人物の顔画像が発見される毎に、発見された顔画像に対応する顔枠情報(つまり顔検出枠FD_Kの現在位置およびサイズ)が現フレームテーブルに記述されていく。   The face detection frame FD_K is moved by a predetermined amount in the raster direction in the manner shown in FIG. 6 and subjected to the above collation processing at a plurality of positions on the evaluation area EVA. Each time a person's face image is found, face frame information corresponding to the found face image (that is, the current position and size of the face detection frame FD_K) is described in the current frame table.

顔検出枠FD_Kが評価エリアEVAの右下つまり顔検出終了位置に達すると、変数Kが更新され、更新された変数Kの値に対応する顔検出枠FD_Kが顔検出開始位置に再配置される。上述と同様、顔検出枠FD_Kは評価エリアEVA上をラスタ方向に移動し、照合処理によって検出された顔画像に対応する顔枠情報は現フレームテーブルに記述される。このような顔認識処理は、顔検出枠FD_Kmax(Kmax:末尾の顔検出枠の番号)が顔検出終了位置に達するまで繰り返し実行される。   When the face detection frame FD_K reaches the lower right of the evaluation area EVA, that is, the face detection end position, the variable K is updated, and the face detection frame FD_K corresponding to the updated value of the variable K is rearranged at the face detection start position. . As described above, the face detection frame FD_K moves in the raster direction on the evaluation area EVA, and the face frame information corresponding to the face image detected by the matching process is described in the current frame table. Such face recognition processing is repeatedly executed until the face detection frame FD_Kmax (Kmax: the number of the last face detection frame) reaches the face detection end position.

顔検出枠FD_Kmaxが顔検出終了位置に達すると、指定テーブルが更新され、かつ更新後の指定テーブルが初期化される。さらに、変数Kが“1”に設定される。次フレームの顔認識処理は、垂直同期信号Vsyncの発生に応答して開始される。   When the face detection frame FD_Kmax reaches the face detection end position, the designation table is updated and the updated designation table is initialized. Further, the variable K is set to “1”. The face recognition process for the next frame is started in response to the generation of the vertical synchronization signal Vsync.

上述した撮像タスクと並行して、CPU40は、AE/AWB処理およびAF処理のために参照されるパラメータ調整エリアADJの位置および形状、ならびにLCDドライバ36による画像読み出し処理のためにSDRAM32のYUV画像エリア32bに割り当てられる切り出しエリアCTの位置および形状を、エリア制御タスクの下で定義する。   In parallel with the imaging task described above, the CPU 40 determines the position and shape of the parameter adjustment area ADJ referred to for AE / AWB processing and AF processing, and the YUV image area of the SDRAM 32 for image reading processing by the LCD driver 36. The position and shape of the cut-out area CT assigned to 32b is defined under the area control task.

エリア制御タスクでは、まず切り出しエリアCTが初期化される。切り出しエリアCTは、YUV画像エリア32bに格納される被写界像の全体を覆うように設定される。LCDドライバ36は、初期設定された切り出しエリアCTに属する画像データをYUV画像エリア32bから読み出し、読み出された画像データに基づく被写界像をスルー画像としてLCDモニタ38に表示する。   In the area control task, the cut-out area CT is first initialized. The cutout area CT is set so as to cover the entire object scene image stored in the YUV image area 32b. The LCD driver 36 reads the image data belonging to the initial cut-out area CT from the YUV image area 32b, and displays the object scene image based on the read image data on the LCD monitor 38 as a through image.

垂直同期信号Vsyncが発生すると、顔枠情報が確定している前フレームテーブルが指定され、前フレームテーブルに顔枠情報が記述されているか否かが判別される。   When the vertical synchronization signal Vsync is generated, the previous frame table in which the face frame information is determined is designated, and it is determined whether or not the face frame information is described in the previous frame table.

前フレームテーブルに少なくとも1つの顔枠が記述されていれば、この顔枠の集合に外接する顔集合枠GRPが定義される。さらに、評価エリアEVAを形成する256個の分割エリアのうち顔集合枠GRP内のエリアを覆う一部の分割エリアが、パラメータ調整エリアADJとして定義される。これに対して、前フレームテーブルに1つの顔画像も記述されていなければ、顔集合枠GRPの定義が解除され、評価エリアEVA全体がパラメータ調整エリアADJとして定義される。   If at least one face frame is described in the previous frame table, a face set frame GRP circumscribing the set of face frames is defined. Further, of the 256 divided areas forming the evaluation area EVA, a partial divided area that covers the area within the face collection frame GRP is defined as the parameter adjustment area ADJ. On the other hand, if one face image is not described in the previous frame table, the definition of the face collection frame GRP is canceled and the entire evaluation area EVA is defined as the parameter adjustment area ADJ.

したがって、前フレームテーブルに図7に示す矩形枠KF1およびKF2が記述されている場合、顔枠KF1およびKF2に外接するように顔集合枠GRPが定義される。さらに、顔集合枠GRP内のエリアを覆うようにパラメータ調整エリアADJが定義される。   Therefore, when the rectangular frames KF1 and KF2 shown in FIG. 7 are described in the previous frame table, the face set frame GRP is defined so as to circumscribe the face frames KF1 and KF2. Further, a parameter adjustment area ADJ is defined so as to cover an area in the face collection frame GRP.

上述したスルー画像用AE/AWB処理および記録用AE/AWB処理は、AE/AWB評価回路22から出力された256個のAE/AWB評価値のうち、パラメータ調整エリアADJに属するAE/AWB評価値に基づいて実行される。また、スルー画像用AF処理および記録用AF処理も、AF評価回路24から出力された256個のAF評価値のうち、パラメータ調整エリアADJに属するAF評価値に基づいて実行される。これによって、露光量やフォーカスなどの撮像パラメータの調整精度が向上する。   The through image AE / AWB process and the recording AE / AWB process described above are AE / AWB evaluation values belonging to the parameter adjustment area ADJ among the 256 AE / AWB evaluation values output from the AE / AWB evaluation circuit 22. It is executed based on. The through-image AF process and the recording AF process are also executed based on the AF evaluation values belonging to the parameter adjustment area ADJ among the 256 AF evaluation values output from the AF evaluation circuit 24. This improves the accuracy of adjusting imaging parameters such as exposure amount and focus.

シャッタボタン28sが操作(半押し)されると、顔集合枠GRPが定義されているか否かが判別される。顔集合枠GRPが定義されていれば、切り出しエリアCTの位置およびサイズが以下の要領で調整される。   When the shutter button 28s is operated (half-pressed), it is determined whether or not the face collection frame GRP is defined. If the face collection frame GRP is defined, the position and size of the cut-out area CT are adjusted as follows.

まず、係数αtop,αunder,αleftおよびαrightが、顔集合枠GRPのサイズに基づいて決定される。次に、係数βtop,βunder,βleftおよびβrightが、前フレームテーブルに記述された顔枠の数に基づいて決定される。   First, the coefficients αtop, αunder, αleft, and αright are determined based on the size of the face collection frame GRP. Next, the coefficients βtop, βunder, βleft, and βright are determined based on the number of face frames described in the previous frame table.

係数αtop,αunder,αleftおよびαrightは、顔集合枠GRPの位置および/またはサイズに応じて異なる数値を示す。また、係数βtop,βunder,βleftおよびβrightは、顔集合枠GRPを形成する顔枠の数に応じて異なる数値を示す。特に、係数βtop,βunder,βleftおよびβrightの各々は、顔枠数=1に対応して“1.0”を示し、顔枠数が増大するほど“0.0”に近づく特性を有する。   The coefficients αtop, αunder, αleft, and αright indicate different numerical values depending on the position and / or size of the face collection frame GRP. Also, the coefficients βtop, βunder, βleft, and βright indicate different numerical values depending on the number of face frames that form the face aggregate frame GRP. In particular, each of the coefficients βtop, βunder, βleft, and βright indicates “1.0” corresponding to the number of face frames = 1, and has a characteristic of approaching “0.0” as the number of face frames increases.

こうして決定された係数αtop,αunder,αleft,αrightならびに係数βtop,βunder,βleft,βrightは数1に適用され、これによって切り出しエリアCTの位置およびサイズが決定される。
[数1]
D_top=D_fy*αtop*βtop
D_under=D_fy*αunder*βunder
D_left=D_fx*αleft*βleft
D_right=D_fx*αright*βright
ただし、
D_fx:顔集合枠GRPの水平サイズ
D_fy:顔集合枠GRPの垂直サイズ
D_top:顔集合枠GRPの上端から切り出しエリアCTの上端までの距離
D_under:顔集合枠GRPの下端から切り出しエリアCTの下端までの距離
D_left:顔集合枠GRPの左端から切り出しエリアCTの左端までの距離
D_right:顔集合枠GRPの右端から切り出しエリアCTの右端までの距離
The coefficients αtop, αunder, αleft, αright and the coefficients βtop, βunder, βleft, and βright determined in this way are applied to Equation 1, thereby determining the position and size of the cut-out area CT.
[Equation 1]
D_top = D_fy * αtop * βtop
D_under = D_fy * αunder * βunder
D_left = D_fx * αleft * βleft
D_right = D_fx * αright * βright
However,
D_fx: Horizontal size of the face set frame GRP D_fy: Vertical size of the face set frame GRP D_top: Distance from the upper end of the face set frame GRP to the upper end of the cutout area CT D_under: From the lower end of the face set frame GRP to the lower end of the cutout area CT Distance D_left: distance from the left end of the face set frame GRP to the left end of the cutout area CT D_right: distance from the right end of the face set frame GRP to the right end of the cutout area CT

数1によって定義された切り出しエリアCTは、顔集合枠GRPとの間で図8(A)に示す位置関係およびサイズ関係を示す。   The cut-out area CT defined by Equation 1 indicates the positional relationship and size relationship shown in FIG. 8A with the face collection frame GRP.

ただし、切り出しエリアCTのサイズは、既定のアスペクト比(=4:3)に適合するように修正される。したがって、図8(A)に示す切り出しエリアCTが得られた場合、切り出しエリアCTのサイズは、図8(B)に示すように修正される。   However, the size of the cut-out area CT is corrected so as to conform to a predetermined aspect ratio (= 4: 3). Therefore, when the cutout area CT shown in FIG. 8A is obtained, the size of the cutout area CT is corrected as shown in FIG. 8B.

既定のアスペクト比に適合する切り出しエリアCTが得られると、この切り出しエリアCTがYUV画像エリア32bからはみ出すか否か(切り出しエリアCTがエラー条件に合致するか否か)が判別される。切り出しエリアCTがエラー条件に合致すれば、切り出しエリアCTが再定義される。つまり、切り出しエリアCTがYUV画像エリア32bに収まるように、切り出しエリアCTのサイズが縮小される。   When a cutout area CT that conforms to a predetermined aspect ratio is obtained, it is determined whether or not this cutout area CT protrudes from the YUV image area 32b (whether or not the cutout area CT matches an error condition). If the cutout area CT matches the error condition, the cutout area CT is redefined. That is, the size of the cutout area CT is reduced so that the cutout area CT fits in the YUV image area 32b.

したがって、既定のアスペクト比を有する切り出しエリアCTが図9(A)に示す要領でYUV画像エリア32bに配置される場合、切り出しエリアCTのサイズは図9(B)に示すように縮小される。   Therefore, when the cut-out area CT having a predetermined aspect ratio is arranged in the YUV image area 32b as shown in FIG. 9A, the size of the cut-out area CT is reduced as shown in FIG. 9B.

LCDドライバ36は、シャッタボタン28sが半押し状態にあるとき、こうして定義された切り出しエリアCTに属する画像データをYUV画像エリア32bから読み出し、読み出された画像データに基づく一部の被写界像をLCDモニタ38に全面表示する。したがって、LCDモニタ38に表示されるスルー画像の画角は、シャッタボタン28sが半押しされる前後で変化する。   When the shutter button 28s is in a half-pressed state, the LCD driver 36 reads out the image data belonging to the cutout area CT thus defined from the YUV image area 32b, and a part of the scene image based on the read image data Is fully displayed on the LCD monitor 38. Accordingly, the angle of view of the through image displayed on the LCD monitor 38 changes before and after the shutter button 28s is half-pressed.

つまり、図10(A)に示す被写界像がLCDモニタ38に表示されている状態でシャッタボタン28sが半押しされると、図10(B)に示す要領で顔集合枠GRPおよび切り出しエリアCTが定義される。LCDモニタ38には、切り出しエリアCTに属する一部の被写界像が拡大表示される。   That is, when the shutter button 28s is half-pressed in a state where the object scene image shown in FIG. 10A is displayed on the LCD monitor 38, the face collection frame GRP and the cut-out area are processed as shown in FIG. CT is defined. On the LCD monitor 38, a part of the scene image belonging to the cutout area CT is enlarged and displayed.

また、図11(A)に示す被写界像がLCDモニタ38に表示されている状態でシャッタボタン28sが半押しされると、図11(B)に示す要領で顔集合枠GRPおよび切り出しエリアCTが定義され、定義された切り出しエリアCTに属する一部の被写界像がLCDモニタ38に拡大表示される。   Further, when the shutter button 28s is half-pressed in a state where the object scene image shown in FIG. 11A is displayed on the LCD monitor 38, the face set frame GRP and the cutout area in the manner shown in FIG. 11B. CT is defined, and a part of the scene image belonging to the defined cutout area CT is enlarged and displayed on the LCD monitor 38.

さらに、図12(A)に示す被写界像がLCDモニタ38に表示されている状態でシャッタボタン28sが半押しされると、図12(B)に示す要領で顔集合枠GRPおよび切り出しエリアCTが定義される。この結果、切り出しエリアCTに属する一部の被写界像がLCDモニタ38に拡大表示される。   Further, when the shutter button 28s is half-pressed in a state where the object scene image shown in FIG. 12A is displayed on the LCD monitor 38, the face set frame GRP and the cut-out area as shown in FIG. CT is defined. As a result, a part of the scene image belonging to the cutout area CT is enlarged and displayed on the LCD monitor 38.

シャッタボタン28sが全押しされると、I/F40は、切り出しエリアCTに対応する記録用切り出しエリア(図示せず)を記録画像エリア32cに設定し、記録用切り出しエリアに属する一部の画像データを記録画像エリア32cから読み出し、そして読み出された画像データを記録媒体42に記録する。   When the shutter button 28s is fully pressed, the I / F 40 sets a recording cutout area (not shown) corresponding to the cutout area CT as the recording image area 32c, and some image data belonging to the recording cutout area Is read from the recording image area 32c, and the read image data is recorded on the recording medium.

このように、切り出しエリアCT(および記録用切り出しエリア)の位置は顔枠の集合を覆うように調整され、切り出しエリアCT(および記録用切り出しエリア)のサイズは顔枠の集合の規模に基づいて調整される。これによって、人物の顔部の画像の集合に対する背景画像の割合が適応的に調整され、被写界像の再現性が向上する。   Thus, the position of the cutout area CT (and the recording cutout area) is adjusted to cover the set of face frames, and the size of the cutout area CT (and the cutout area for recording) is based on the size of the set of face frames. Adjusted. As a result, the ratio of the background image to the set of images of the human face is adaptively adjusted, and the reproducibility of the object scene image is improved.

CPU40は、図13〜図14に示す撮像タスク,図15〜図17に示す顔検出タスク,図18に示すコンティニュアスAFタスク,および図19〜図21に示すエリア制御タスクを含む複数のタスクを並列的に実行する。これらのタスクに対応する制御プログラムは、フラッシュメモリ44に記憶される。また、顔検出タスクおよびコンティニュアスAFタスクの起動/停止は、撮像タスクによって制御される。   The CPU 40 has a plurality of tasks including an imaging task shown in FIGS. 13 to 14, a face detection task shown in FIGS. 15 to 17, a continuous AF task shown in FIG. 18, and an area control task shown in FIGS. Are executed in parallel. Control programs corresponding to these tasks are stored in the flash memory 44. The activation / stop of the face detection task and the continuous AF task is controlled by the imaging task.

図13を参照して、ステップS1ではスルー画像処理を実行する。この結果、被写界を表すスルー画像がLCDモニタ38に表示される。ステップS3では顔検出タスクを起動し、ステップS5ではコンティニュアスAFタスクを起動する。ステップS7ではシャッタボタン28sが半押しされたか否かを判別し、NOである限り、ステップS9のスルー画像用AE/AWB処理を繰り返す。スルー画像用AE/AWB処理はパラメータ調整エリアADJに属するAE/AWB評価値に基づいて実行され、これによってスルー画像の明るさおよび白バランスが適度に調整される。   Referring to FIG. 13, through image processing is executed in step S1. As a result, a through image representing the scene is displayed on the LCD monitor 38. In step S3, a face detection task is activated, and in step S5, a continuous AF task is activated. In step S7, it is determined whether or not the shutter button 28s has been half-pressed, and as long as NO, the through image AE / AWB process in step S9 is repeated. The through image AE / AWB process is executed based on the AE / AWB evaluation values belonging to the parameter adjustment area ADJ, and thereby the brightness and white balance of the through image are appropriately adjusted.

ステップS7でYESであれば、ステップS11で顔検出タスクを停止し、ステップS13でコンティニュアスAFタスクを停止する。ステップS15では記録用AF処理を実行し、ステップS17では記録用AE処理を実行する。記録用AF処理はパラメータ調整エリアADJに属するAF評価値に基づいて実行され、記録用AE処理はパラメータ調整エリアADJに属するAE/AWB評価値に基づいて実行される。これによって、スルー画像のフォーカスおよび明るさが厳格に調整される。   If “YES” in the step S7, the face detection task is stopped in a step S11, and the continuous AF task is stopped in a step S13. In step S15, a recording AF process is executed, and in step S17, a recording AE process is executed. The recording AF process is executed based on the AF evaluation value belonging to the parameter adjustment area ADJ, and the recording AE process is executed based on the AE / AWB evaluation value belonging to the parameter adjustment area ADJ. Thereby, the focus and brightness of the through image are strictly adjusted.

ステップS19ではシャッタボタン28sが全押しされたか否かを判別し、ステップS21ではシャッタボタン28sの操作が解除されたか否かを判別する。ステップS19でYESであればステップS23に進み、ステップS21でYESであればステップS3に戻る。ステップS23では、記録用AWB処理を実行し、ステップS25では記録処理を実行する。記録用AWB処理は、パラメータ調整エリアADJに属するAE/AWB評価値に基づいて実行される。これによって、最適な白バランスを有する高解像度の被写界像が記録媒体42に記録される。ステップS27ではスルー画像処理を再開し、その後にステップS3に戻る。   In step S19, it is determined whether or not the shutter button 28s has been fully pressed. In step S21, it is determined whether or not the operation of the shutter button 28s has been released. If YES in step S19, the process proceeds to step S23, and if YES in step S21, the process returns to step S3. In step S23, a recording AWB process is executed, and in step S25, a recording process is executed. The recording AWB process is executed based on the AE / AWB evaluation values belonging to the parameter adjustment area ADJ. As a result, a high-resolution object scene image having an optimal white balance is recorded on the recording medium 42. In step S27, the through image processing is resumed, and then the process returns to step S3.

図15を参照して、ステップS31では垂直同期信号Vsyncが発生したか否かを判別する。判別結果がNOからYESに更新されると、AF起動条件が満足されるか否かをステップS33で判別する。ここでNOであればそのままステップS31に戻る一方、YESであればステップS35でスルー画像用AF処理を実行してからステップS71に戻る。   Referring to FIG. 15, in step S31, it is determined whether or not the vertical synchronization signal Vsync is generated. If the determination result is updated from NO to YES, it is determined in step S33 whether or not the AF activation condition is satisfied. If “NO” here, the process directly returns to the step S31 while if “YES”, the through image AF process is executed in a step S35, and then, the process returns to the step S71.

AF起動条件が満足されるか否かの判別処理はパラメータ調整エリアADJに属するAF評価値に基づいて実行され、スルー画像用AF処理もパラメータ調整エリアADJに属するAF評価値に基づいて実行される。これによって、スルー画像のフォーカスが継続的に調整される。   The process for determining whether or not the AF activation condition is satisfied is executed based on the AF evaluation value belonging to the parameter adjustment area ADJ, and the through image AF process is also executed based on the AF evaluation value belonging to the parameter adjustment area ADJ. . As a result, the focus of the through image is continuously adjusted.

図16を参照して、ステップS41では、テーブルTBL1〜TBL2を初期化し、ステップS43ではテーブルTBL1を現フレームテーブルとして指定する。ステップS45では変数Kを“1”に設定し、ステップS47では顔検出枠FD_Kを評価エリアEVAの左上の顔検出開始位置に配置する。   Referring to FIG. 16, in step S41, tables TBL1 and TBL2 are initialized, and in step S43, table TBL1 is designated as the current frame table. In step S45, the variable K is set to “1”, and in step S47, the face detection frame FD_K is arranged at the upper left face detection start position of the evaluation area EVA.

なお、現フレームテーブルは、後述するステップS71の処理によってテーブルTBL1〜TBL2の間で更新される。したがって、現フレームテーブルは次フレームにおいて前フレームテーブルとなる。   The current frame table is updated between the tables TBL1 and TBL2 by the process of step S71 described later. Therefore, the current frame table becomes the previous frame table in the next frame.

ステップS49では垂直同期信号Vsyncが発生したか否かを判別し、判別結果がNOからYESに更新されるとステップS51で変数Lを“1”に設定する。ステップS53では顔検出枠FD_Kに属する部分画像を辞書DICに登録された顔パターンFP_Lと照合し、ステップS55では顔検出枠FD_Kの部分画像が顔パターンFP_Lに適合するか否かを判別する。   In step S49, it is determined whether or not the vertical synchronization signal Vsync is generated. If the determination result is updated from NO to YES, the variable L is set to “1” in step S51. In step S53, the partial image belonging to the face detection frame FD_K is collated with the face pattern FP_L registered in the dictionary DIC. In step S55, it is determined whether or not the partial image in the face detection frame FD_K matches the face pattern FP_L.

ここでNOであればステップS57で変数Lをインクリメントし、インクリメントされた変数Lが定数Lmax(Lmax:辞書DICに登録された顔パターンの総数)を上回るか否かをステップS59で判別する。そして、L≦LmaxであればステップS53に戻る一方、L>LmaxであればステップS63に進む。   If “NO” here, the variable L is incremented in a step S57, and it is determined in a step S59 whether or not the incremented variable L exceeds a constant Lmax (Lmax: total number of face patterns registered in the dictionary DIC). If L ≦ Lmax, the process returns to step S53, while if L> Lmax, the process proceeds to step S63.

ステップS55でYESであればステップS61に進み、顔検出枠FD_Kの現時位置およびサイズを顔枠情報として指定テーブルに記述する。ステップS61の処理が完了すると、ステップS63に進む。   If “YES” in the step S55, the process proceeds to a step S61, and the current position and size of the face detection frame FD_K are described in the designation table as face frame information. When the process of step S61 is completed, the process proceeds to step S63.

ステップS63では、顔検出枠FD_Kが評価エリアEVAの右下の顔検出終了位置に達したか否かを判別する。ここでNOであればステップS65で顔検出枠FD_Kを既定量だけラスタ方向に移動させ、その後にステップS51に戻る。一方、ステップS63でYESであれば、ステップS67で変数Kをインクリメントし、インクリメントされた変数Kが“Kmax”を上回るか否かをステップS69で判別する。   In step S63, it is determined whether or not the face detection frame FD_K has reached the lower right face detection end position of the evaluation area EVA. If “NO” here, the face detection frame FD_K is moved in the raster direction by a predetermined amount in a step S65, and thereafter, the process returns to the step S51. On the other hand, if “YES” in the step S63, the variable K is incremented in a step S67, and it is determined whether or not the incremented variable K exceeds “Kmax” in a step S69.

そして、K≦KmaxであればステップS47に戻る一方、K>KmaxであればステップS71に進む。ステップS71では、指定テーブルを更新しかつ更新された指定テーブルを初期化する。ステップS71の処理が完了すると、ステップS73で変数Kを“1”に設定し、その後にステップS47に戻る。   If K ≦ Kmax, the process returns to step S47 while if K> Kmax, the process proceeds to step S71. In step S71, the specified table is updated and the updated specified table is initialized. When the process of step S71 is completed, the variable K is set to “1” in step S73, and then the process returns to step S47.

図19を参照して、ステップS81では、SDRAM32のYUV画像エリア32bに割り当てられる切り出しエリアCTを初期化する。切り出しエリアCTは、YUV画像エリア32bに格納される被写界像の全体を覆うように設定される。   Referring to FIG. 19, in step S81, the cutout area CT assigned to the YUV image area 32b of the SDRAM 32 is initialized. The cutout area CT is set so as to cover the entire object scene image stored in the YUV image area 32b.

ステップS83では垂直同期信号Vsyncが発生したか否かを判別し、判別結果がNOからYESに更新されるとステップS85で前フレームテーブルを指定する。ステップS87では、前フレームテーブルに少なくとも1つの顔枠が記述されているか否かを判別し、YESであればステップS89〜S91を経てステップS85に進む一方、NOであればステップS93〜S95を経てステップS97に進む。   In step S83, it is determined whether or not the vertical synchronization signal Vsync has been generated. If the determination result is updated from NO to YES, the previous frame table is designated in step S85. In step S87, it is determined whether or not at least one face frame is described in the previous frame table. If YES, the process proceeds to step S85 through steps S89 to S91. If NO, the process proceeds to steps S93 to S95. Proceed to step S97.

ステップS89では、前フレームテーブルに記述された顔枠に外接するように顔集合枠GRPを定義する。ステップS91では、評価エリアEVAを形成する256個の分割エリアのうち顔集合枠GRP内のエリアを覆う一部の分割エリアを調整エリアADJとして定義する。ステップS93では顔集合枠GRPの定義を解除し、ステップS95では評価エリアEVA全体を調整エリアADJとして定義する。   In step S89, the face collection frame GRP is defined so as to circumscribe the face frame described in the previous frame table. In step S91, of the 256 divided areas forming the evaluation area EVA, a partial divided area that covers the area within the face collection frame GRP is defined as the adjustment area ADJ. In step S93, the definition of the face collection frame GRP is canceled, and in step S95, the entire evaluation area EVA is defined as the adjustment area ADJ.

ステップS97ではシャッタボタン28sが操作(半押し)されたか否かを判別し、NOでればステップS83に戻る一方、YESであればステップS99に進む。ステップS99では、顔集合枠GRPが定義済みであるか否かを判別し、NOであればそのままステップS113に進む一方、YESであればステップS101〜S111を経てステップS113に進む。ステップS113では、シャッタボタン28sの操作が解除されたか否かを判別し、判別結果がNOからYESに更新されるとステップS81に戻る。   In step S97, it is determined whether or not the shutter button 28s has been operated (half-pressed). If NO, the process returns to step S83, and if YES, the process proceeds to step S99. In step S99, it is determined whether or not the face collection frame GRP has been defined. If NO, the process proceeds directly to step S113, while if YES, the process proceeds to steps S113 through S111 to S111. In step S113, it is determined whether or not the operation of the shutter button 28s has been released. If the determination result is updated from NO to YES, the process returns to step S81.

ステップS101では、顔集合枠GRPのサイズを参照して係数αtop,αunder,αleft,αrightを決定する。ステップS103では、前フレームの被写界像から検出された顔枠の数を参照して係数βtop,βunder,βleft,βrightを決定する。   In step S101, the coefficients αtop, αunder, αleft, and αright are determined with reference to the size of the face collection frame GRP. In step S103, the coefficients βtop, βunder, βleft, and βright are determined with reference to the number of face frames detected from the object scene image of the previous frame.

ステップS105では、決定された係数αtop,αunder,αleft,αrightならびに係数βtop,βunder,βleft,βrightを上述した数1に適用して、切り出しエリアCTのサイズおよび位置を算出する。ステップS107では、ステップS105で算出された切り出しエリアCTのサイズを、既定のアスペクト比(=4:3)に適合するように修正する。   In step S105, the determined coefficients αtop, αunder, αleft, αright and the coefficients βtop, βunder, βleft, βright are applied to the above-described equation 1 to calculate the size and position of the cut-out area CT. In step S107, the size of the cut-out area CT calculated in step S105 is corrected so as to conform to a predetermined aspect ratio (= 4: 3).

ステップS109では、こうして定義された切り出しエリアCTがYUV画像エリア32bからはみ出すか否か(切り出しエリアCTがエラー条件に合致するか否か)を判別する。ここでNOであればそのままステップS113に進む一方、YESであれば切り出しエリアCTをステップS111で再定義してからステップS113に進む。ステップS111の処理の結果、切り出しエリアCTがYUV画像エリア32bに収まるように切り出しエリアCTのサイズが縮小される。   In step S109, it is determined whether or not the cutout area CT thus defined protrudes from the YUV image area 32b (whether or not the cutout area CT matches an error condition). If “NO” here, the process proceeds directly to the step S113, whereas if “YES”, the cut-out area CT is redefined in the step S111, and then the process proceeds to the step S113. As a result of the processing in step S111, the size of the cutout area CT is reduced so that the cutout area CT fits in the YUV image area 32b.

以上の説明から分かるように、イメージャ16から出力された被写界像は、メモリ制御回路30によってSDRAM32に取り込まれる。CPU26は、取り込まれた被写界像から1または2以上の顔画像の集合を検出し(S41~S73, S89)、検出された集合の規模に基づくサイズを有する切り出しエリアCTを、検出された集合を覆う位置に定義する(S105~S111)。CPU26はまた、切り出しエリアCTに属する一部の被写界像をSDRAM32に取り込まれた被写界像から切り出す(S1, S25, S27)。   As can be understood from the above description, the object scene image output from the imager 16 is taken into the SDRAM 32 by the memory control circuit 30. The CPU 26 detects a set of one or more face images from the captured scene image (S41 to S73, S89), and detects a cut-out area CT having a size based on the size of the detected set. The position is defined to cover the set (S105 to S111). The CPU 26 also cuts out a part of the scene image belonging to the cutout area CT from the scene image captured in the SDRAM 32 (S1, S25, S27).

このように、切り出しエリアCTの位置は顔画像の集合を覆うように調整され、切り出しエリアCTのサイズは顔画像の集合の規模に基づいて調整される。これによって、顔画像の集合に対する背景画像の割合が適応的に調整され、被写界像の再現性が向上する。   Thus, the position of the cutout area CT is adjusted so as to cover the set of face images, and the size of the cutout area CT is adjusted based on the scale of the set of face images. Thereby, the ratio of the background image to the set of face images is adaptively adjusted, and the reproducibility of the object scene image is improved.

なお、この実施例では、切り出しエリアCTがエラー条件に合致するときに切り出しエリアCTのサイズを縮小するようにしているが、サイズの縮小に代えて或いはサイズの縮小とともに切り出しエリアCTの位置を変更するようにしてもよい。   In this embodiment, the size of the cutout area CT is reduced when the cutout area CT matches the error condition. However, the position of the cutout area CT is changed instead of the size reduction or with the size reduction. You may make it do.

また、この実施例では、既定の物体として人物の顔部を想定しているが、これに代えて犬や猫などの動物の顔部を想定するようにしてもよい。   Further, in this embodiment, a human face is assumed as the default object, but instead, an animal face such as a dog or a cat may be assumed.

さらに、この実施例では、静止画像を記録するいわゆるディジタルスチルカメラを想定しているが、この発明は動画像を記録するディジタルビデオカメラにも適用できる。   Further, in this embodiment, a so-called digital still camera that records still images is assumed, but the present invention can also be applied to a digital video camera that records moving images.

また、この実施例では、シャッタボタン28sが半押しされると、顔検出タスクが停止し(図13のステップS7,S11参照)、切り出しエリアCTが位置およびサイズが確定する(図19〜図21のステップS97〜S111参照)。切り出しエリアCTの位置およびサイズは、シャッタボタン28sの操作が解除されるまで固定される。   In this embodiment, when the shutter button 28s is half-pressed, the face detection task is stopped (see steps S7 and S11 in FIG. 13), and the position and size of the cut-out area CT are determined (FIGS. 19 to 21). Steps S97 to S111). The position and size of the cutout area CT are fixed until the operation of the shutter button 28s is released.

しかし、シャッタボタン28sが半押しされた後も顔検出タスクを起動し続け、半押し状態における顔画像の出現,移動,消失に従って切り出しエリアCTの位置およびサイズを変更するようにしてもよい。この場合、好ましくは、図13に示すステップS11,図19に示すステップS97,および図21に示すステップS113の処理が省略され、さらに、図20のステップS99でNOと判断されたとき、または図21のステップS111の処理が完了したときに、処理が図19に示すステップS83に戻る。   However, the face detection task may continue to be activated even after the shutter button 28s is half-pressed, and the position and size of the cut-out area CT may be changed according to the appearance, movement, and disappearance of the face image in the half-pressed state. In this case, preferably, the processing of step S11 shown in FIG. 13, step S97 shown in FIG. 19, and step S113 shown in FIG. 21 is omitted, and when NO is determined in step S99 of FIG. When the process of step S111 of 21 is completed, the process returns to step S83 shown in FIG.

さらに、この実施例では、切り出しエリアCTがYUV画像エリア32bからはみ出すことをエラー条件として規定しているが、これに加えて、これまで検出されていた顔が検出されなくなったこともエラー条件として規定するようにしてもよい。   Furthermore, in this embodiment, it is defined as an error condition that the cut-out area CT protrudes from the YUV image area 32b, but in addition to this, the fact that the face that has been detected until now is no longer detected is also an error condition. You may make it prescribe | regulate.

この発明の一実施例の構成を示すブロック図である。It is a block diagram which shows the structure of one Example of this invention. 評価エリアを撮像面に割り当てた状態の一例を示す図解図である。It is an illustration figure which shows an example of the state which allocated the evaluation area to the imaging surface. 図1実施例で参照される辞書の一例を示す図解図である。It is an illustration figure which shows an example of the dictionary referred in FIG. 1 Example. 顔認識処理のために用いられる複数の顔検出枠の一例を示す図解図である。It is an illustration figure which shows an example of the several face detection frame used for a face recognition process. 図1実施例によって参照されるテーブルの一例を示す図解図である。It is an illustration figure which shows an example of the table referred by FIG. 1 Example. 顔検出動作の一部を示す図解図である。It is an illustration figure which shows a part of face detection operation | movement. パラメータ調整エリアの設定動作の一例を示す図解図である。It is an illustration figure which shows an example of the setting operation | movement of a parameter adjustment area. (A)は切り出しエリアを定義する動作の一部を示す図解図であり、(B)は切り出しエリアを定義する動作の他の一部を示す図解図である。(A) is an illustration figure which shows a part of operation | movement which defines a cutout area, (B) is an illustration figure which shows another part of operation | movement which defines a cutout area. (A)は切り出しエリアを定義する動作のその他の一部を示す図解図であり、(B)は切り出しエリアを定義する動作のさらにその他の一部を示す図解図である。(A) is an illustration figure which shows the other part of operation | movement which defines a cut-out area, (B) is an illustration figure which shows another part of operation | movement which defines a cut-out area. (A)は被写界の一例を示す図解図であり、(B)は被写界に割り当てられた顔集合エリアおよび切り出しエリアの一例を示す図解図である。(A) is an illustrative view showing an example of a scene, and (B) is an illustrative view showing an example of a face collection area and a cutout area assigned to the scene. (A)は被写界の他の一例を示す図解図であり、(B)は被写界に割り当てられた顔集合エリアおよび切り出し枠の他の一例を示す図解図である。(A) is an illustrative view showing another example of the object scene, and (B) is an illustrative view showing another example of the face collection area and the cutout frame allocated to the object scene. (A)は被写界のその他の一例を示す図解図であり、(B)は被写界に割り当てられた顔集合エリアおよび切り出しエリアのその他の一例を示す図解図である。(A) is an illustrative view showing another example of the object scene, and (B) is an illustrative view showing another example of the face collection area and the cutout area assigned to the object scene. 図1実施例に適用されるCPUの動作の一部を示すフロー図である。It is a flowchart which shows a part of operation | movement of CPU applied to the FIG. 1 Example. 図1実施例に適用されるCPUの動作の他の一部を示すフロー図である。It is a flowchart which shows a part of other operation | movement of CPU applied to the FIG. 1 Example. 図1実施例に適用されるCPUの動作のその他の一部を示すフロー図である。It is a flowchart which shows a part of other operation | movement of CPU applied to the FIG. 1 Example. 図1実施例に適用されるCPUの動作のさらにその他の一部を示すフロー図である。FIG. 12 is a flowchart showing yet another portion of behavior of the CPU applied to the embodiment in FIG. 1. 図1実施例に適用されるCPUの動作の他の一部を示すフロー図である。It is a flowchart which shows a part of other operation | movement of CPU applied to the FIG. 1 Example. 図1実施例に適用されるCPUの動作のその他の一部を示すフロー図である。It is a flowchart which shows a part of other operation | movement of CPU applied to the FIG. 1 Example. 図1実施例に適用されるCPUの動作のさらにその他の一部を示すフロー図である。FIG. 12 is a flowchart showing yet another portion of behavior of the CPU applied to the embodiment in FIG. 1. 図1実施例に適用されるCPUの動作の他の一部を示すフロー図である。It is a flowchart which shows a part of other operation | movement of CPU applied to the FIG. 1 Example. 図1実施例に適用されるCPUの動作のその他の一部を示すフロー図である。It is a flowchart which shows a part of other operation | movement of CPU applied to the FIG. 1 Example.

符号の説明Explanation of symbols

10 …ディジタルカメラ
16 …イメージセンサ
20 …前処理回路
22 …AE/AWB評価回路
24 …AF評価回路
26 …CPU
32 …SDRAM
34 …後処理回路
44 …フラッシュメモリ
DESCRIPTION OF SYMBOLS 10 ... Digital camera 16 ... Image sensor 20 ... Pre-processing circuit 22 ... AE / AWB evaluation circuit 24 ... AF evaluation circuit 26 ... CPU
32 ... SDRAM
34 ... Post-processing circuit 44 ... Flash memory

Claims (8)

撮像手段から出力された電子画像を取り込む取り込み手段、
前記取り込み手段によって取り込まれた電子画像から1または2以上の特定物体像の集合を検出する検出手段、
前記検出手段によって検出された集合の規模に基づくサイズを有する切り出しエリアを前記検出手段によって検出された集合を覆う位置に定義する定義手段、
前記定義手段によって定義された切り出しエリアが前記取り込み手段によって取り込まれた電子画像からはみ出すとき当該切り出しエリアのサイズおよび/または位置を変更する変更手段、および
前記定義手段によって定義されかつ前記変更手段によって必要に応じて変更された切り出しエリアに属する一部の電子画像を前記取り込み手段によって取り込まれた電子画像から切り出す切り出し手段を備える、画像処理装置。
Capturing means for capturing an electronic image output from the imaging means;
Detecting means for detecting a set of one or more specific object images from the electronic image captured by the capturing means;
Defining means for defining a cutout area having a size based on the size of the set detected by the detecting means at a position covering the set detected by the detecting means;
Changing means for changing the size and / or position of the clipping area when the clipping area defined by the defining means protrudes from the electronic image captured by the capturing means; and defined by the defining means and required by the changing means comprising a clipping means for cutting out from the electronic image captured by the capturing means part of an electronic image belonging to the changed cutout area according to the image processing apparatus.
前記検出手段は前記集合を形成する特定物体像に接する枠を定義する枠定義手段を含み、
前記定義手段は前記枠定義手段によって定義された枠と前記集合を形成する特定物体像の数とに基づいて前記切り出しエリアのサイズおよび位置を決定する決定手段を含む、請求項1記載の画像処理装置。
The detecting means includes frame defining means for defining a frame in contact with a specific object image forming the set;
The image processing according to claim 1, wherein the definition unit includes a determination unit that determines a size and a position of the cut-out area based on the frame defined by the frame definition unit and the number of specific object images forming the set. apparatus.
前記切り出し手段によって切り出された電子画像を表示する表示手段をさらに備え、
前記撮像手段は前記電子画像を繰り返し出力し、
前記取り込み手段は前記電子画像を繰り返し取り込む、請求項1または2記載の画像処理装置。
Further comprising display means for displaying the electronic image cut out by the cut-out means,
The imaging means repeatedly outputs the electronic image ,
Said fetching means fetches repeat the electronic image, the image processing apparatus according to claim 1 or 2 wherein.
前記切り出しエリアを初期設定する初期設定手段をさらに備え、
前記定義手段は前記初期設定手段による初期設定の後の既定指示に応答して定義処理を実行する、請求項記載の画像処理装置。
Further comprising initial setting means for initially setting the cutout area;
Said defining means performs to define processing in response to the default instruction after initialization by the initialization means, the image processing apparatus according to claim 3, wherein.
前記検出手段によって検出された集合に対応する一部の電子画像を参照して撮像パラメータを調整する調整手段をさらに備える、請求項1ないしのいずれかに記載の画像処理装置。 The reference part of an electronic image corresponding to the set detected by the detection means further comprise adjusting means for adjusting imaging parameters, the image processing apparatus according to any one of claims 1 to 4. 前記特定物体像は人物の顔部の画像に相当する、請求項1ないしのいずれかに記載の画像処理装置。 The specific object image corresponds to a face image portion of the person, the image processing apparatus according to any one of claims 1 to 5. 撮像手段から出力された電子画像を取り込む取り込み手段を備える画像処理装置のプロセッサに、
前記取り込み手段によって取り込まれた電子画像から1または2以上の特定物体像の集合を検出する検出ステップ、
前記検出ステップによって検出された集合の規模に基づくサイズを有する切り出しエリアを前記検出ステップによって検出された集合を覆う位置に定義する定義ステップ、
前記定義ステップによって定義された切り出しエリアが前記取り込み手段によって取り込まれた電子画像からはみ出すとき当該切り出しエリアのサイズおよび/または位置を変更する変更ステップ、および
前記定義ステップによって定義されかつ前記変更ステップによって必要に応じて変更された切り出しエリアに属する一部の電子画像を前記取り込み手段によって取り込まれた電子画像から切り出す切り出しステップを実行させるための、画像処理プログラム。
In a processor of an image processing apparatus including a capturing unit that captures an electronic image output from an imaging unit,
A detection step of detecting a set of one or more specific object images from the electronic image captured by the capturing means;
A definition step for defining a cutout area having a size based on the scale of the set detected by the detection step at a position covering the set detected by the detection step;
A change step for changing the size and / or position of the cut-out area when the cut-out area defined by the definition step protrudes from the electronic image taken by the take-in means; and defined by the definition step and required by the change step an image processing program for executing the cutout step of part of an electronic image belonging to the changed cutout area according excised from electronic images captured by the capture means.
撮像手段から出力された電子画像を取り込む取り込み手段を備える画像処理装置によって実行される画像処理方法であって、
前記取り込み手段によって取り込まれた電子画像から1または2以上の特定物体像の集合を検出する検出ステップ、
前記検出ステップによって検出された集合の規模に基づくサイズを有する切り出しエリアを前記検出ステップによって検出された集合を覆う位置に定義する定義ステップ、
前記定義ステップによって定義された切り出しエリアが前記取り込み手段によって取り込まれた電子画像からはみ出すとき当該切り出しエリアのサイズおよび/または位置を変更する変更ステップ、および
前記定義ステップによって定義されかつ前記変更ステップによって必要に応じて変更された切り出しエリアに属する一部の電子画像を前記取り込み手段によって取り込まれた電子画像から切り出す切り出しステップを備える、画像処理方法。
An image processing method executed by an image processing apparatus including a capturing unit that captures an electronic image output from an imaging unit,
A detection step of detecting a set of one or more specific object images from the electronic image captured by the capturing means;
A definition step for defining a cutout area having a size based on the scale of the set detected by the detection step at a position covering the set detected by the detection step;
A change step for changing the size and / or position of the cut-out area when the cut-out area defined by the definition step protrudes from the electronic image taken by the take-in means; and defined by the definition step and required by the change step modified comprises cutout step of cutting out the electronic image captured by the capturing means part of an electronic image belonging to the cut-out area, the image processing method in accordance with.
JP2008274994A 2008-10-26 2008-10-26 Image processing device Active JP5213639B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2008274994A JP5213639B2 (en) 2008-10-26 2008-10-26 Image processing device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2008274994A JP5213639B2 (en) 2008-10-26 2008-10-26 Image processing device

Publications (2)

Publication Number Publication Date
JP2010102596A JP2010102596A (en) 2010-05-06
JP5213639B2 true JP5213639B2 (en) 2013-06-19

Family

ID=42293175

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2008274994A Active JP5213639B2 (en) 2008-10-26 2008-10-26 Image processing device

Country Status (1)

Country Link
JP (1) JP5213639B2 (en)

Families Citing this family (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP5810296B2 (en) 2011-06-07 2015-11-11 パナソニックIpマネジメント株式会社 Image display device and image display method
US10178298B2 (en) 2012-12-20 2019-01-08 Sony Corporation Image processing device, image processing method, and recording medium for optimal trimming of a captured image
KR102158098B1 (en) * 2013-01-07 2020-09-22 삼성전자주식회사 Method and apparatus for image layout using image recognition
JP5832673B2 (en) * 2013-01-25 2015-12-16 富士フイルム株式会社 Imaging apparatus and operation control method thereof

Family Cites Families (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004193933A (en) * 2002-12-11 2004-07-08 Canon Inc Image enlargement display method / device / media / program
JP4325385B2 (en) * 2003-12-09 2009-09-02 株式会社ニコン Digital camera and digital camera image acquisition method
JP2006174128A (en) * 2004-12-16 2006-06-29 Matsushita Electric Ind Co Ltd Imaging apparatus and imaging system
JP4702015B2 (en) * 2005-12-01 2011-06-15 カシオ計算機株式会社 Image display apparatus and program
JP4413235B2 (en) * 2006-02-22 2010-02-10 三洋電機株式会社 Electronic camera
JP2007258953A (en) * 2006-03-22 2007-10-04 Oki Electric Ind Co Ltd Automatic photography system and instrument
JP2008258960A (en) * 2007-04-05 2008-10-23 Nikon Corp Digital camera

Also Published As

Publication number Publication date
JP2010102596A (en) 2010-05-06

Similar Documents

Publication Publication Date Title
US8284300B2 (en) Electronic camera
US8077252B2 (en) Electronic camera that adjusts a distance from an optical lens to an imaging surface so as to search the focal point
JP4413235B2 (en) Electronic camera
JP2014081420A (en) Tracking device and method thereof
JP2012247533A (en) Electronic camera
US20090059025A1 (en) Electronic Camera
JP5178441B2 (en) Electronic camera
JP5213639B2 (en) Image processing device
JP4853707B2 (en) Imaging apparatus and program thereof
JP5485781B2 (en) Electronic camera
JP2009192960A (en) Electronic camera
JP2012155044A (en) Electronic camera
JP6172973B2 (en) Image processing device
JP2011142486A (en) Electronic camera
JP5297766B2 (en) Electronic camera
JP5965654B2 (en) TRACKING DEVICE, IMAGING DEVICE, TRACKING METHOD USED FOR IMAGING DEVICE
EP2091233A2 (en) Imaging apparatus
JP2013225020A (en) Electronic camera
JP2010141372A (en) Object search device
JP2013143755A (en) Electronic camera
JP5356162B2 (en) Object image search device
US20120148095A1 (en) Image processing apparatus
US20110109760A1 (en) Electronic camera
JP2010217614A (en) Electronic camera
JP2010128046A (en) Electronic camera

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20111006

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20120706

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20120710

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20120823

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20130129

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20130226

R151 Written notification of patent or utility model registration

Ref document number: 5213639

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20160308

Year of fee payment: 3

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20160308

Year of fee payment: 3

S111 Request for change of ownership or part of ownership

Free format text: JAPANESE INTERMEDIATE CODE: R313113

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250