[go: up one dir, main page]

JP2005056175A - Image estimation device - Google Patents

Image estimation device Download PDF

Info

Publication number
JP2005056175A
JP2005056175A JP2003286763A JP2003286763A JP2005056175A JP 2005056175 A JP2005056175 A JP 2005056175A JP 2003286763 A JP2003286763 A JP 2003286763A JP 2003286763 A JP2003286763 A JP 2003286763A JP 2005056175 A JP2005056175 A JP 2005056175A
Authority
JP
Japan
Prior art keywords
image
evaluation
images
monitor
displayed
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Withdrawn
Application number
JP2003286763A
Other languages
Japanese (ja)
Inventor
Tomoaki Tamura
知章 田村
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Konica Minolta Photo Imaging Inc
Original Assignee
Konica Minolta Photo Imaging Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Konica Minolta Photo Imaging Inc filed Critical Konica Minolta Photo Imaging Inc
Priority to JP2003286763A priority Critical patent/JP2005056175A/en
Publication of JP2005056175A publication Critical patent/JP2005056175A/en
Withdrawn legal-status Critical Current

Links

Images

Landscapes

  • Image Processing (AREA)
  • Studio Circuits (AREA)
  • Image Analysis (AREA)

Abstract

<P>PROBLEM TO BE SOLVED: To rapidly, simply and easily select a photograph having excellent photographing condition. <P>SOLUTION: This image estimation device has an estimation means displaying a plurality of images among inputted photographed images, and estimating expressions of the plurality of images. <P>COPYRIGHT: (C)2005,JPO&NCIPI

Description

この発明は、撮影した画像の評価を行なう画像評価装置に関する。   The present invention relates to an image evaluation apparatus for evaluating a photographed image.

従来より、被写体について視覚的に識別できる画像を記録する技術として、被写体の画像を写真感光材料に記録する写真技術が知られ、この写真は電気信号などを介在させる他の画像記録技術に比較すると、解像力や粒状度において格段に優れることから、例えば写真館、イベント会場等のスタジオにおいて、記念撮影等に多く使用されている。   Conventionally, as a technique for recording an image that can visually identify a subject, a photographic technique for recording an image of a subject on a photographic photosensitive material is known, and this photograph is compared with other image recording techniques that intervene an electrical signal or the like. Because of its outstanding resolution and granularity, it is often used for commemorative photography, for example, in studios such as photo studios and event venues.

ところで、写真によって被写体を撮影すると、現像するまでの間は被写体の写り具合を知ることはできず、写り具合がわかるまでに時間がかかり、写真が気に入らなければ撮影をやり直すことになって多くの時間が無駄になるという問題がある。   By the way, when you shoot a subject with a photo, you can't know how the subject is reflected until you develop it, and it takes time to understand how the subject looks. There is a problem that time is wasted.

このために、例えば、画像を写真感光材料に記録する主カメラと、主カメラの視野の少なくとも一部を視野とする画像を電気信号に変換する補助カメラと、主カメラのシャッタの開放に同期して補助カメラで得た静止画像を表示する表示手段とを備え、複数枚の写真を次々に撮影する場合にあっては写り具合のもっともよい写真を選択した後に焼付・現像を行うものがある(例えば、特許文献1、特許文献2)。
特開平6−273847号公報 特公平7−113733号公報
For this purpose, for example, a main camera that records an image on a photographic material, an auxiliary camera that converts an image having at least a part of the field of view of the main camera into an electric signal, and the shutter of the main camera are synchronized with the opening of the shutter. Display means for displaying still images obtained by an auxiliary camera, and when taking a plurality of pictures one after another, there are those that print and develop after selecting the best picture (Photo For example, Patent Document 1 and Patent Document 2).
JP-A-6-273847 Japanese Examined Patent Publication No. 7-11733

このように、複数枚の写真を次々に撮影する場合にあっては、単に複数枚の写真を並べて表示しているだけであるから、目視によって比較してどれがもっとも写り具合のよい写真かを判断することが困難である。   In this way, when shooting multiple photos one after another, the multiple photos are simply displayed side by side. It is difficult to judge.

また、例えばイベント会場、テーマパーク会場等のスタジオにおいては混雑し、写真館のスタジオにおいても、七・五・三の祝い、学生の入学・卒業、成人式等の時期には特に混雑するために、写り具合のもっともよい写真の選択を迅速にすることができるようにする必要がある。   Also, for example, in event studios and theme park venues, it is crowded, and in photo studios, it is especially crowded during the 7th, 5th and 3rd celebrations, when students enter and graduate, and at the ceremony. There is a need to be able to quickly select the best photo.

この発明は、かかる点に鑑みてなされたもので、写り具合のよい写真の選択を、迅速に、しかも簡単かつ容易に行なうことができる画像評価装置を提供することを目的としている。   The present invention has been made in view of the above points, and an object of the present invention is to provide an image evaluation apparatus capable of quickly, easily and easily selecting a photograph with good image quality.

前記課題を解決し、かつ目的を達成するために、この発明は、以下のように構成した。   In order to solve the above-described problems and achieve the object, the present invention is configured as follows.

請求項1に記載の発明は、入力された撮影画像中の複数の画像を表示し、前記複数の画像の表情を評価する評価手段を備えたことを特徴とする画像評価装置である。   According to a first aspect of the present invention, there is provided an image evaluation apparatus comprising: an evaluation unit that displays a plurality of images in an input photographed image and evaluates facial expressions of the plurality of images.

請求項2に記載の発明は、前記評価手段は、評価を、前記複数の画像から抜き出して並べて表示することを特徴とする請求項1に記載の画像評価装置である。 請求項3に記載の発明は、画像の番号、判定に用いた部位、評価の少なくとも1つを表示することを特徴とする請求項1に記載の画像評価装置である。   The invention according to claim 2 is the image evaluation apparatus according to claim 1, wherein the evaluation unit extracts evaluations from the plurality of images and displays them side by side. The invention according to claim 3 is the image evaluation apparatus according to claim 1, wherein at least one of an image number, a part used for determination, and evaluation is displayed.

請求項4に記載の発明は、前記画像の部位を選択する手段を備えることを特徴とする請求項3に記載の画像評価装置である。   The invention described in claim 4 is the image evaluation apparatus according to claim 3, further comprising means for selecting a part of the image.

請求項5に記載の発明は、前記評価手段は、前記評価の高い画像を選択画面に最初に配置することを特徴とする請求項1に記載の画像評価装置である。   The invention according to claim 5 is the image evaluation apparatus according to claim 1, wherein the evaluation unit first arranges the image with high evaluation on a selection screen.

請求項6に記載の発明は、画像の番号、判定に用いた部位、評価の少なくとも1つを表示することを特徴とする請求項5に記載の画像評価装置である。   The invention described in claim 6 is the image evaluation apparatus according to claim 5, wherein at least one of an image number, a part used for determination, and evaluation is displayed.

請求項7に記載の発明は、前記評価は、数値またはランクであることを特徴とする請求項1乃至請求項5のいずれか1項に記載の画像評価装置である。   The invention described in claim 7 is the image evaluation apparatus according to any one of claims 1 to 5, wherein the evaluation is a numerical value or a rank.

前記構成により、この発明は、以下のような効果を有する。   With the above configuration, the present invention has the following effects.

請求項1に記載の発明によれば、入力された撮影画像中の複数の画像を表示し、複数の画像の表情の良し悪しを評価することができる。従って、例えばユーザが写真プリントの注文画像を速く選ぶことができ、写真館、イベント会場等のスタジオでの撮影の回転率が向上し、しかもユーザの満足度も向上する。   According to the first aspect of the present invention, it is possible to display a plurality of images in the inputted captured image and evaluate the quality of the expressions of the plurality of images. Therefore, for example, the user can quickly select an order image for a photo print, the rotation rate of shooting in a studio such as a photo studio or an event venue is improved, and the user's satisfaction is also improved.

請求項2に記載の発明によれば、評価を、複数の画像から抜き出して並べて表示することで、比較し易いために、複数の画像の表情の良し悪しの評価を迅速に、しかも簡単かつ容易に行なうことができる。   According to the invention described in claim 2, since the evaluation is extracted from a plurality of images and displayed side by side for easy comparison, the evaluation of the quality of the expressions of the plurality of images can be performed quickly, easily and easily. Can be done.

請求項3に記載の発明によれば、画像の番号、判定に用いた部位、評価の少なくとも1つを表示することで、複数の画像の表情の良し悪しの評価を間違いなく、簡単かつ確実に行なうことができる。   According to the invention described in claim 3, by displaying at least one of the image number, the part used for the determination, and the evaluation, the evaluation of the quality of the expression of the plurality of images is definitely and easily and reliably performed. Can be done.

請求項4に記載の発明によれば、タッチパネル等のインターフェイスにより画像の部位を選択して、画像の表情の良し悪しを評価することができる。   According to the fourth aspect of the present invention, it is possible to evaluate the quality of the facial expression of an image by selecting a part of the image with an interface such as a touch panel.

請求項5に記載の発明によれば、評価の高い画像を選択画面に最初に配置することで、例えばユーザが写真プリントの注文画像を選択画面に着目して速く選ぶことができ、写真館、イベント会場等のスタジオでの撮影の回転率が向上し、しかもユーザの満足度も向上する。   According to the invention described in claim 5, by placing an image with high evaluation first on the selection screen, for example, the user can quickly select an order image of a photo print by paying attention to the selection screen, The turnover rate of shooting in a studio such as an event venue is improved, and the user's satisfaction is also improved.

請求項6に記載の発明によれば、選択画面の画像の番号、判定に用いた部位、評価の少なくとも1つを表示することで、複数の画像の表情の良し悪しの評価を間違いなく、簡単かつ確実に行なうことができる。   According to the invention described in claim 6, by displaying at least one of the image number of the selection screen, the part used for the determination, and the evaluation, the evaluation of the quality of the facial expressions of the plurality of images is surely easy. And it can be done reliably.

請求項7に記載の発明によれば、評価が数値またはランクであり、画像の表情の良し悪しの評価を間違いなく、簡単かつ確実に行なうことができる。   According to the seventh aspect of the present invention, the evaluation is a numerical value or a rank, and the evaluation of the quality of the expression of the image can be performed easily and reliably without fail.

以下、この発明の画像評価装置の実施の形態について説明するが、この発明は、この実施の形態に限定されない。また、この発明の実施の形態は、発明の最も好ましい形態を示すものであり、この発明の用語はこれに限定されない。   Hereinafter, although an embodiment of an image evaluation apparatus of the present invention will be described, the present invention is not limited to this embodiment. The embodiment of the present invention shows the most preferable mode of the present invention, and the terminology of the present invention is not limited to this.

図1はこの発明の画像評価装置を適用した写真撮影システムの概略構成図、図2はモニタ画像表示を示す図である。この実施の形態の写真撮影システム1は、例えば写真館、イベント会場等のスタジオにおいて写真感光材料を用いて被写体4を撮影する際に用いるものである。   FIG. 1 is a schematic configuration diagram of a photography system to which an image evaluation apparatus of the present invention is applied, and FIG. 2 is a diagram showing a monitor image display. The photographic system 1 of this embodiment is used when a subject 4 is photographed using a photographic photosensitive material in a studio such as a photo studio or an event venue.

この写真撮影システム1は、写真フィルム、写真乾板等の写真感光材料に画像を記録する主カメラ2と、主カメラ2の視野の少なくとも一部を視野とする補助カメラ3とを備える。主カメラ2と補助カメラ3とは、被写体4に対して主カメラ2と補助カメラ3との間で大きな視差が生じないように、主カメラ2と補助カメラ3とのアングルはほぼ等しくなる。   The photographic system 1 includes a main camera 2 that records an image on a photographic photosensitive material such as a photographic film or a photographic dry plate, and an auxiliary camera 3 that has at least part of the field of view of the main camera 2 as a field of view. The main camera 2 and the auxiliary camera 3 have substantially the same angle so that a large parallax does not occur between the main camera 2 and the auxiliary camera 3 with respect to the subject 4.

主カメラ2は、シャッタ21の開放時に写真感光材料22に画像が記録される。補助カメラ3は、CCDのような撮像素子31を備え、被写体4の画像を電気信号に変換する。この電気信号は主カメラ2が備えるシャッタ21の開放に同期して取り出される。即ち、主カメラ2のシャッタ21の開放時に写真感光材料22に画像が記録されると同時に、補助カメラ3では同じ被写体4に関する1画面分の電気信号を取り出す。   The main camera 2 records an image on the photosensitive material 22 when the shutter 21 is opened. The auxiliary camera 3 includes an image sensor 31 such as a CCD, and converts an image of the subject 4 into an electrical signal. This electric signal is taken out in synchronism with the opening of the shutter 21 provided in the main camera 2. That is, an image is recorded on the photographic photosensitive material 22 when the shutter 21 of the main camera 2 is opened, and at the same time, the auxiliary camera 3 extracts an electrical signal for one screen relating to the same subject 4.

補助カメラ3は、1画面分の電気信号を取り出す構成として、撮像素子31から出力される電気信号の通るゲート部32が設けられ、ゲート部32は同期部33から出力される開放信号が入力されている間に開放される。同期部33は、主カメラ2でのシャッタ21の開放に同期して1画面分の電気信号が通過する期間に開放信号を発生する。   The auxiliary camera 3 is configured to take out an electric signal for one screen, and is provided with a gate portion 32 through which an electric signal output from the image sensor 31 passes. The gate portion 32 receives an open signal output from the synchronization portion 33. It is released while The synchronization unit 33 generates an opening signal in a period in which an electrical signal for one screen passes in synchronization with the opening of the shutter 21 in the main camera 2.

このゲート部32と同期部33は、市販されている電子スチルカメラや一駒撮影が可能なビデオカメラに内蔵されたものを用いることができ、主カメラ2のシャッタ21の開放に同期して1画面分の電気信号を取り出すことができれば補助カメラ2に用いることができる。   As the gate unit 32 and the synchronization unit 33, a commercially available electronic still camera or a built-in video camera capable of single-frame shooting can be used, and 1 is synchronized with the opening of the shutter 21 of the main camera 2. If the electrical signal for the screen can be extracted, it can be used for the auxiliary camera 2.

主カメラ2として用いることができる通常のカメラは、シャッタ21の開放に同調する接点として、フラッシュ同調接点23やモータドライブ同調接点を備え、補助カメラ3として用いる電子スチルカメラは、レリーズ用の端子を備えているから、主カメラ2に設けた接点と補助カメラ3に設けた端子とをケーブルを用いて接続すれば、シャッタ21の開放に同期して1画面分の電気信号を取り出す構成は容易に実現することができる。なお、撮影の動作に同期して撮影するには、フラッシュ同調接点23を記録のトリガとしてもよいし、フラッシュ24の光を検出する素子(図示せず)の信号をトリガとしてもよい。   A normal camera that can be used as the main camera 2 includes a flash tuning contact 23 and a motor drive tuning contact as a contact that is synchronized with the opening of the shutter 21, and an electronic still camera that is used as the auxiliary camera 3 has a release terminal. Therefore, if the contact point provided on the main camera 2 and the terminal provided on the auxiliary camera 3 are connected using a cable, the configuration for taking out an electrical signal for one screen in synchronization with the opening of the shutter 21 is easy. Can be realized. Note that, in order to take a picture in synchronization with the photographing operation, the flash tuning contact 23 may be used as a trigger for recording, or a signal from an element (not shown) for detecting light from the flash 24 may be used as a trigger.

補助カメラ3により撮影された画像は、記録手段としてのディスクドライブ50によってフレキシブルディスクに同数の画像が記録され、フレキシブルディスクに記録された画像は撮影の終了後に、制御装置5に備えられる再生手段であるディスクドライブ51によって読み出される。また、記録手段としてのディスクドライブ50によってハードディスクに記録し、ハードディスクに記録された画像は撮影の終了後に、制御装置5に配信して再生手段であるディスクドライブ51によって読み出されるようにしてもよい。   The same number of images recorded by the auxiliary camera 3 are recorded on the flexible disk by the disk drive 50 as recording means, and the images recorded on the flexible disk are reproduced by the reproduction means provided in the control device 5 after the photographing is completed. Read by a certain disk drive 51. Alternatively, the image may be recorded on the hard disk by the disk drive 50 as the recording means, and the image recorded on the hard disk may be distributed to the control device 5 and read by the disk drive 51 as the reproducing means after the photographing is finished.

補助カメラ3により撮影された画像は、ディスクドライブ50に記録されると同時に表示手段としてのモニタ装置7に表示される。モニタ装置7には、カラー表示の可能なものが望ましく、通常はCRTが用いられるが、液晶表示器や投影形のモニタ装置7であってもよい。モニタ装置7では、主カメラ2で撮影した画像をシャッタ21の開放後に一定時間表示し、補助カメラ3により撮影した画像を表示する時間を一定時間に制限していることによって、主カメラ2で複数枚の写真を次々に撮影したときに、各画像を順次表示することができる。従って、モニタ装置7の画面を見れば主カメラ2で撮影した被写体4の表情をすぐに確認することができる。   An image photographed by the auxiliary camera 3 is recorded on the disk drive 50 and simultaneously displayed on the monitor device 7 as display means. The monitor device 7 is preferably capable of color display, and normally a CRT is used, but a liquid crystal display or a projection type monitor device 7 may be used. In the monitor device 7, an image photographed by the main camera 2 is displayed for a certain period of time after the shutter 21 is opened, and the time for displaying an image photographed by the auxiliary camera 3 is limited to a certain period of time. Each image can be displayed sequentially when one photo is taken after another. Therefore, when the screen of the monitor device 7 is viewed, the facial expression of the subject 4 photographed by the main camera 2 can be confirmed immediately.

制御装置5には操作装置6及びモニタ装置8が接続され、操作装置6の操作によって画像がモニタ装置8に表示される。制御装置5には、画像処理部52、画面分割部53、モニタ駆動部29、制御部11、EEPROM26を備える。主カメラ2で複数枚の写真を撮影したとき、撮影の終了後に再生手段であるディスクドライブ51によって読み出される。即ち、ディスクドライブ51は、記録手段であるフレキシブルディスク、或はハードディスクに記録された静止画像のうちで比較対象となる複数の静止画像を読み出す。   An operation device 6 and a monitor device 8 are connected to the control device 5, and an image is displayed on the monitor device 8 by operation of the operation device 6. The control device 5 includes an image processing unit 52, a screen dividing unit 53, a monitor driving unit 29, a control unit 11, and an EEPROM 26. When a plurality of photographs are taken with the main camera 2, they are read out by the disk drive 51 as a reproducing means after the photographing is finished. That is, the disk drive 51 reads a plurality of still images to be compared among the still images recorded on a flexible disk or a hard disk as recording means.

ディスクドライブ51で読み出した画像は、制御部11により制御される画像処理部52、画面分割部53、モニタ駆動部29によってモニタ装置8に表示される。モニタ装置8には、比較モニタ手段となるモニタ部8a1,8a2、選択モニタ手段となるモニタ部8bを備え、モニタ部8a1,8a2,8bは、比較的大きな画面を有し、カラー表示の可能なものが望ましいから通常はCRTを用いる。   The image read by the disk drive 51 is displayed on the monitor device 8 by the image processing unit 52, the screen dividing unit 53, and the monitor driving unit 29 controlled by the control unit 11. The monitor device 8 includes monitor units 8a1 and 8a2 serving as comparison monitor units and a monitor unit 8b serving as a selection monitor unit. The monitor units 8a1, 8a2 and 8b have a relatively large screen and can be displayed in color. Since CRT is desirable, CRT is usually used.

また、制御部11は画面分割部53、モニタ駆動部29を制御し、モニタ部8a1,8a2に表示される複数の画像の中から所望の画像のみを選択してモニタ部8bに表示させる。なお、制御装置5は単体の装置以外に、パソコンにビデオボードを装着し、制御用ソフトウェアをインストールしたものでもよい。モニタ装置7,8は、液晶、PDP、有機ELなど他の表示装置でもよい。   In addition, the control unit 11 controls the screen dividing unit 53 and the monitor driving unit 29 to select only a desired image from the plurality of images displayed on the monitor units 8a1 and 8a2 and display the selected image on the monitor unit 8b. In addition to the single device, the control device 5 may be one in which a video board is mounted on a personal computer and control software is installed. The monitor devices 7 and 8 may be other display devices such as liquid crystal, PDP, and organic EL.

例えば、図2に示すように、被写体4が8種類の写真を撮影するものとすると、この場合、画面分割部53は、比較モニタ手段となるモニタ部8a1,8a2の画面をそれぞれ等しい大きさを有した4個の領域に分割して表示する。   For example, as shown in FIG. 2, if the subject 4 takes eight types of photographs, in this case, the screen division unit 53 sets the screens of the monitor units 8a1 and 8a2 serving as the comparison monitor means to the same size. It is divided into four areas and displayed.

このように、比較モニタ手段であるモニタ部8a1,8a2は、再生手段により読み出された複数の静止画像を表示する。モニタ部8a1では、4枚の画像1〜4が1枚ずつ順に表示され、モニタ部8a2では、他の4枚の画像5〜8が1枚ずつ順に表示される。   As described above, the monitor units 8a1 and 8a2 which are comparison monitor means display a plurality of still images read by the reproducing means. The monitor unit 8a1 displays four images 1 to 4 one by one in order, and the monitor unit 8a2 displays the other four images 5 to 8 one by one.

ここにおいて、制御部11は、比較モニタ手段であるモニタ部8a1,8a2の各領域に表示されている画像1〜8を適宜選択し、モニタ部8a1,8a2に表示させるように画面分割部53、モニタ駆動部29を制御する。   Here, the control unit 11 appropriately selects the images 1 to 8 displayed in the respective areas of the monitor units 8a1 and 8a2 that are comparison monitor means, and displays them on the monitor units 8a1 and 8a2. The monitor drive unit 29 is controlled.

この実施の形態では、選択モニタ手段となるモニタ部8bが比較モニタ手段となるモニタ部8a1,8a2の間に配置され、モニタ部8bにより選択した静止画像を、選択前のモニタ部8a1,8a2のほぼ中央の領域に表示することで、選択した静止画像が選択されなかった静止画像のどれとも近い位置にあり比較し易いために、写り具合のよい写真の判断を、迅速に、しかも簡単かつ容易に行なうことができる。   In this embodiment, the monitor unit 8b serving as the selection monitor unit is disposed between the monitor units 8a1 and 8a2 serving as the comparison monitor unit, and the still image selected by the monitor unit 8b is stored in the monitor units 8a1 and 8a2 before selection. By displaying in the center area, the selected still image is close to any of the still images that were not selected, making it easy to compare them. Can be done.

制御部11は、CPU11a、ROM11b及びRAM11cを有する。CPU11aは、ROM11bに予め記憶されている制御するためのプログラムを読み出して、RAM11cに展開し、展開したプログラムに従って全体の制御を行う。また、CPU11aは、展開したプログラムに従って、後述する撮影評価処理を始めとする各種処埋を実行する。   The control unit 11 includes a CPU 11a, a ROM 11b, and a RAM 11c. The CPU 11a reads a control program stored in advance in the ROM 11b, expands it in the RAM 11c, and performs overall control according to the expanded program. Further, the CPU 11a executes various processes including a photographing evaluation process described later according to the developed program.

ROM11bは、半導体等の不輝発性メモリで構成されている。ROM11bは、制御プログラム、処理プログラム等の各種プログラムや、各種プログラムで参照されるデータ等を予め記億する。RAM11cは、CPU11aにより実行される各種処理において、ROM11bから読み出されたプログラム及び各種データを一時的に記憶する。   The ROM 11b is composed of a non-luminous memory such as a semiconductor. The ROM 11b stores in advance various programs such as a control program and a processing program, and data referred to by the various programs. The RAM 11c temporarily stores programs and various data read from the ROM 11b in various processes executed by the CPU 11a.

モニタ駆動部29は、モニタ23を駆動して、画像処理部52により出力されたデジタル画像データを表示させる。操作装置6は、電源スイッチ、再生スイッチ、タッチパネル等により構成され、ユーザによる操作信号をCPU11aに出力する。   The monitor driving unit 29 drives the monitor 23 to display the digital image data output from the image processing unit 52. The operation device 6 includes a power switch, a reproduction switch, a touch panel, and the like, and outputs an operation signal from the user to the CPU 11a.

EEPROM26は、不揮発性メモリにより構成され、各種動作に使用する調整データ等が予め記憶されている。この実施の形態において、EEPR0M26は、笑顔評価基準テーブル261及び端正評価基準テーブル262を格納している。   The EEPROM 26 is composed of a nonvolatile memory, and preliminarily stores adjustment data used for various operations. In this embodiment, the EEPR0M 26 stores a smile evaluation reference table 261 and a straightness evaluation reference table 262.

図3(a}は、笑顔評価基準テーブル261内部のデー夕格納例を示す図である。図3(a)に示すように、笑顔評価基準テーブル261は、要素領域261aと、係数領域261bと、評価ポイント領域261cとにより構成されている。要素領域261aは、この構成要素を表すデータ、(例えば、まゆ、目、口)を「要素」として格納する。係数領城261bは、対応する顔の構成要素の係数を表すデータ(例えば、2、5、4)を「係数」として格納する。評価ポイント領域261cは、対応する顔の構成要素の基準画像及びその評価ポイントを格納する。例えば、まゆについては、その角度により、上がっている基準画像は低い評価ポイントに対応付けられており、角度が下がるに従い、高い評価ポイントとなるように基準画像が評価ポイントと対応付けて格納されている。目については、瞳孔の開き具合により、瞳孔が閉じている基準画像は低い評価ポイントに対応付けられており、瞳孔が開くに従い、高い評価ポイントとなるように基準画像が評価ポイントと対応付けて格納されている。目が閉じた状態については、マイナスポイントとなるように基準画像が評価ポイントと対応付けて格納されている。口については、両端の角度が下がっている基準画像は低いポイントに対応付けられており、両端の角度が上がるに従い、高い評価ポイントとなるように基準画像が評価ポイントと対応付けて格納されている。   3A is a diagram illustrating an example of storing data in the smile evaluation criterion table 261. As illustrated in FIG. 3A, the smile evaluation criterion table 261 includes an element region 261a, a coefficient region 261b, and the like. The element region 261a stores data representing this component (for example, eyebrows, eyes, mouth) as “elements.” The coefficient region 261b has a corresponding face. The data (for example, 2, 5, 4) representing the coefficients of the constituent elements are stored as “coefficients.” The evaluation point area 261c stores the reference image of the corresponding facial constituent element and its evaluation points. For eyebrows, the rising reference image is associated with a lower evaluation point depending on the angle, and as the angle decreases, the reference image becomes a higher evaluation point. As for the eyes, the reference image whose pupil is closed is associated with a lower evaluation point due to the degree of opening of the pupil, and the higher the evaluation point as the pupil opens. The reference image is stored in association with the evaluation point, and when the eyes are closed, the reference image is stored in association with the evaluation point so as to be a negative point. The reference image in which is lowered is associated with a low point, and the reference image is stored in association with the evaluation point so as to become a high evaluation point as the angles of both ends increase.

図3(b)は、端正評価基準テーブル262内部のデータ格納例を示す図である。図3(b)に示すように、端正評価基準テーブル262は、要素領域262aと、係数領域262bと、評価ポイント領域262cとにより構成されている。要素領域262aは、顔の構成要素を表すデータ、(例えば、顔1、顔2、まゆ・・・)を「要素」として格納する。係数領域262bは、対応する顔の構成要素の係数を表すデータ、(例えば、1、2、2・・・)を「係数」として格納する。評価ポイント領域262cは、対応する顔の構成要素の基準画像及びその評価ポイントを格納する。   FIG. 3B is a diagram illustrating an example of data storage inside the straightness evaluation criterion table 262. As shown in FIG. 3B, the correct evaluation reference table 262 includes an element area 262a, a coefficient area 262b, and an evaluation point area 262c. The element area 262a stores data representing face components (for example, face 1, face 2, eyebrows,...) As “elements”. The coefficient area 262b stores data (for example, 1, 2, 2,...) Representing the coefficients of the corresponding face components as “coefficients”. The evaluation point area 262c stores the reference image of the corresponding facial component and its evaluation point.

例えば、顔の向きについては、真正面を向いているものを高い評価ポイントとし、顔が左右に向いているもの、首をかしげているものは、その度合いが大きいほど低い評価ポイントとなるように基準画像が評価ポイントと対応付けられて格納されている。まゆは、平坦な基準画像は高い評価ポイント、角度が上がっていたり下がっていたりする基準画像は、その度合いが大きいほど低い評価ポイントとなるように、基準画像が評価ポイントと対応付けて格納されている。目は、瞳孔が開いている基準画像は高い評価ポイント、瞳孔が閉じている基準画像、目が閉じている基準画像は低い評価ポイントとなるように基準画像が評価ポイントと対応付けて格納されている。口は、両端の角度が上がったり下がったりした画像ほど低い評価ポイントとなるように基準画像が評価ポイントと対応付けて格納されている。   For example, with regard to the orientation of the face, those that face directly in front are regarded as high evaluation points, and those that face face to the left and right, and those that are necked, are standardized so that the higher the degree, the lower the evaluation point. Images are stored in association with evaluation points. The eyebrows are stored in association with the evaluation points so that a flat reference image has a high evaluation point, and a reference image with an increasing or decreasing angle has a lower evaluation point as its degree increases. Yes. The reference image is stored in association with the evaluation point so that the reference image with the pupil open has a high evaluation point, the reference image with the pupil closed, and the reference image with the eye closed has a low evaluation point. Yes. In the mouth, a reference image is stored in association with an evaluation point so that an image whose angle at both ends increases or decreases becomes a lower evaluation point.

次に、動作について説明する。まず、CPU11aにより実行される撮影画像評価処理について図4のフローチャートを参照して説明する。   Next, the operation will be described. First, the captured image evaluation process executed by the CPU 11a will be described with reference to the flowchart of FIG.

CPU11aは、再生スイッチが押下されるのを待機し(ステップS1)、再生スイッチが押下されると(ステップS1;YES)、評価モードか否かを判断し(ステップS2)、評価モードでないと判断すると(ステップS2;No)、通常の表示処理を実行する(ステップS3)。即ち、CPU11aは、被写体の撮影して取得した画像に画像処理を施してモニタ装置8に表示させる。   The CPU 11a waits for the playback switch to be pressed (step S1). When the playback switch is pressed (step S1; YES), the CPU 11a determines whether or not the evaluation mode is set (step S2), and determines that the evaluation mode is not set. Then (step S2; No), normal display processing is executed (step S3). That is, the CPU 11a performs image processing on an image obtained by photographing a subject and displays the image on the monitor device 8.

一方、CPU11aは、ステップS2において、評価モードであると判断すると、撮影した複数の画像をCPU11aは、表示する(ステップS4)。このとき、表示された画像は、連写撮影を行って複数の静止画像を表示する。   On the other hand, when the CPU 11a determines that the evaluation mode is set in step S2, the CPU 11a displays a plurality of captured images (step S4). At this time, the displayed image is subjected to continuous shooting and a plurality of still images are displayed.

静止画像の表示後、操作装置6の入力操作により、人物の重み付け評価(後述する笑顔評価値及び端正評価値を算出するにあたり、他の人物に対して重み付けをしてコマ画像の総合評価値を算出する)の指示が入力されると(ステップS5;YES)、CPU11aは、モニタ装置8に重み付け設定画面を表示させ、操作装置6により指定された人物に対して、指定された順番及びその位置情報を取得し、指定された順番で重み付けして評価するものとして設定する(ステップS6)。   After the still image is displayed, an input operation of the controller device 6 is used to evaluate the weight of the person (when calculating a smile evaluation value and a neat evaluation value, which will be described later, the other person is weighted to obtain the overall evaluation value of the frame image. When the instruction of (calculate) is input (step S5; YES), the CPU 11a displays a weighting setting screen on the monitor device 8, and for the person specified by the operation device 6, the specified order and its position. Information is acquired and set to be weighted and evaluated in the specified order (step S6).

次いで、CPU11aは、操作装置6により評価の開始が指示されるのを待機し、評価の開始が指示されると(ステップS7;YES)、撮影したコマ画像のそれぞれにおいて、各被撮影者(人物)の顔画像を抽出して、その位置情報を取得するとともに、各顔画像毎に笑顔評価(表情の笑顔の度合いの評価)、端正評価(表情の端正さの度合いの評価)を行う(ステップS8)。笑顔評価としては、EEPROM26に記憶されている笑顔評価基準テーブル261を参照して、顔画像のまゆ、瞳孔、口の各要素の形状の評価ポイントを算出し、各評価ポイントを係数により重み付けしたものを合算してそのコマ画像のその顔画像における笑顔評価値とする。まゆ、目については、左右双方について評価ポイントを算出して1/2としてもよいし、片方について評価を行うようにしてもよい。端正評価としては、EEPROM26に記憶されている端正評価基準テーブル262を参照して、顔の向き及びまゆ、瞳孔、口の各要素の形状の評価ポイントを算出し、各評価ポイントを係数により重み付けしたものを合算してその顔画像における端正評価値とする。まゆ、目については、左右双方について評価ポイントを算出して1/2としてもよいし、片方について評価を行うようにしてもよい。   Next, the CPU 11a waits for the start of evaluation to be instructed by the operation device 6, and when the start of evaluation is instructed (step S7; YES), each subject person (person) in each captured frame image ) Face image is acquired and its position information is acquired, and smile evaluation (evaluation of the degree of smile of facial expression) and neat evaluation (evaluation of the degree of facial expression neatness) are performed for each face image (step) S8). For smile evaluation, reference is made to the smile evaluation criteria table 261 stored in the EEPROM 26, and the evaluation points of the shape of each element of the eyebrows, pupils and mouth of the face image are calculated, and each evaluation point is weighted by a coefficient. Are combined into a smile evaluation value for the face image of the frame image. For eyebrows and eyes, the evaluation points may be calculated for both the left and right to be ½, or one may be evaluated. As the neatness evaluation, referring to the neatness evaluation standard table 262 stored in the EEPROM 26, the evaluation points of the face orientation and the shape of each element of the eyebrows, the pupil and the mouth are calculated, and each evaluation point is weighted by a coefficient. Those are added together to obtain a positive evaluation value in the face image. For eyebrows and eyes, the evaluation points may be calculated for both the left and right to be ½, or one may be evaluated.

次に、CPU11aは、コマ画像のそれぞれについて、ステップS10で顔画像毎に算出した笑顔評価値の平均値及び端正評価値の平均値を算出して、各コマ画像の総合笑顔評価値及び総合端正評価値とする(ステップS11)ここで、CPU11aは、ステップS8にて人物の重み付け評価が設定されている場合には、各コマ画像の総合笑顔評価値及び総合端正評価値の算出は、所定のアルゴリズムにより、指定された位置情報の位置又はその近辺の位置にある顔画像の笑顔評価値及び端正評価値を、指定された順番に基づいて重み付けして総合笑顔評価値及び総合端正評価値を算出する。   Next, for each of the frame images, the CPU 11a calculates the average smile evaluation value and the average evaluation value calculated for each face image in step S10, and calculates the total smile evaluation value and the total correction value of each frame image. Here, the CPU 11a calculates the total smile evaluation value and the total correct evaluation value of each frame image when a weighted evaluation of the person is set in step S8. The algorithm calculates the total smile evaluation value and the total correct evaluation value by weighting the smile evaluation value and the correct evaluation value of the face image at the position of the specified position information or a position in the vicinity thereof based on the specified order. To do.

次に、CPU11aは、コマ画像のうちの一つ、例えばコマ画像101を解析し、撮影した画像がカジュアルな場面か、フォーマルな画面かを判断する(ステップS10)。具体的には、CPU11aは、室内での撮影か屋外での撮影か、衣服が礼服か否か、または髪型がラフか否か等によりフォーマルな場面かカジュアルな場面かを判断する。当該撮影がカジュアルな場面の撮影であると判断すると(ステップS10;1)、CPU11aは、優先評価値を笑顔評価値として設定する(ステップS11)。一方、ステップS10において、当該撮影がフォーマルな場面の撮影であると判断すると(ステップS10;2)、CPU11aは、優先評価値をフォーマル評価値として設定する(ステップS12)。   Next, the CPU 11a analyzes one of the frame images, for example, the frame image 101, and determines whether the captured image is a casual scene or a formal screen (step S10). Specifically, the CPU 11a determines whether the scene is a formal scene or a casual scene, depending on whether it is indoor shooting or outdoor shooting, whether the clothes are dressed up, whether the hairstyle is rough, or the like. If it is determined that the shooting is for a casual scene (step S10; 1), the CPU 11a sets the priority evaluation value as a smile evaluation value (step S11). On the other hand, if it is determined in step S10 that the shooting is for a formal scene (step S10; 2), the CPU 11a sets the priority evaluation value as the formal evaluation value (step S12).

次に、CPU11aは、各人物の顔画像毎に、コマ画像のうち最も優先評価値の高いコマ画像の顔画像を抽出し(ステップS13)、抽出した各顔画像を集めて、1コマの合成画像に合成する(ステップS14)。人物が一人の場合はステップS13、ステップS14、ステップS15は省略することができる。また、例えば、顔の部位の中から高い評価のものを集めて一つの顔の表情を作成しても良い。   Next, the CPU 11a extracts, for each person's face image, the face image of the frame image having the highest priority evaluation value among the frame images (step S13), collects the extracted face images, and synthesizes one frame. The image is synthesized (step S14). If there is only one person, step S13, step S14, and step S15 can be omitted. Further, for example, high facial expressions may be collected from facial parts to create one facial expression.

次に、CPU11aは、ステップS14で作成した合成画像を最高位として、各コマ画像に優先評価値の高いものから順位を設定する(ステップS15)。そして、CPU11aは、各コマ画像に対応する総合笑顔評価値、総合端正評価値を始めとする評価値情報を順位に従って並べてテキストファイルとして格納する評価値ファイル211を作成する(ステップS16)。また、各コマ画像を前記順位に従って並べて1つの画像ファイルとして、評価ファイル211を関連付けて記録メディアに保存(記憶)させる(ステップS17)。そして、CPU11aは、最高位のコマ画像をモニタ装置8に表示させる(ステップS18)。   Next, the CPU 11a sets the order from the highest priority evaluation value to each frame image with the composite image created in step S14 as the highest rank (step S15). Then, the CPU 11a creates an evaluation value file 211 in which evaluation value information including the total smile evaluation value and the total correct evaluation value corresponding to each frame image is arranged according to the rank and stored as a text file (step S16). In addition, the frame images are arranged in accordance with the ranks, and are stored as an image file in association with the evaluation file 211 (step S17). Then, the CPU 11a displays the highest frame image on the monitor device 8 (step S18).

図5は、図4のステップS16で作成される評価値ファイル211のデータ格納例を示す図である。図5に示すように、評価値ファイル211は、NO領域211aと、NAME領域211bと、SMTILE領域211cと、FORMAL領域211dと、PERSON領域211eと、PERSON NO領域211fと、AREA領域211gと、SMILEP領域211hと、FORMALP領域211iとにより構成されている。   FIG. 5 is a diagram showing a data storage example of the evaluation value file 211 created in step S16 of FIG. As shown in FIG. 5, the evaluation value file 211 includes a NO area 211a, a NAME area 211b, a SMTILE area 211c, a FORMAT area 211d, a PERSON area 211e, a PERSON NO area 211f, an AREA area 211g, and SMILEP. The area 211h and the FORMAT area 211i are configured.

NO領城211aは、ステップS11又は12で設定された優先評価値の順位を表すデータ(例えば、1、2・・・)を「NO」として格納する。NAME領域211bは、コマ画像の名前を示すデータ(例えば、DSC00001.xxx、DSC00002.xxx・・・)を「NAME」として格納する。SMILE領域211cは、当該コマ画像の総合笑顔評価値を表すデータ(例えば、35、25・・・)を「SMILE」として格納する。FORMAL領域211dは、当該コマ画像の総合端正評価値を表すデータ(例えば、32、38・・・)を「FORMAL」として格納する。PERSON領域211eは当該コマ画像に撮影された被撮影者(人物)の人数を表すデータ(例えば、3、3・・・)を「PERSON」として格納する。   The NO castle 211a stores data (for example, 1, 2,...) Indicating the priority evaluation value set in step S11 or 12 as “NO”. The NAME area 211b stores data indicating the name of the frame image (for example, DSC00001.xxx, DSC00002.xxx...) As “NAME”. The SMILE area 211c stores data (for example, 35, 25...) Representing the total smile evaluation value of the frame image as “SMILE”. The FORMAT area 211d stores data (for example, 32, 38...) Representing the overall correct evaluation value of the frame image as “FORMAT”. The PERSON area 211e stores data (for example, 3, 3,...) Representing the number of subjects (persons) photographed in the frame image as “PERSON”.

PERSON NO領域211fは、当該コマ画像に撮影された被撮影者(人物)を特定するために一意的に割り当てられたコード(例えば、001、002、003、・・・)を「PERSON No」として格納する。AREA領域211gは、当該コマ画像中で対応するコードが割り当てられた被撮影者の顔画像の位置情報を示すデータ(例えば、(50.150)−(200.300)、(100,200)−(600,700)、(256.389)−(769,864)、・・・)を「AREA」として格納する。SMILEP領域211hは、対応するPERSON NOが割り当てられた被撮影者の笑顔評価値を示すデータ(例えば、40、30、35、・・・)を「SMILEP」として格納する。FORMALP領域211iは、対応するPERSON NOが割り当てられた被撮影者の端正評価値を示すデータ(例えば、32、29、35、・・・)を「FORMALP」として格納する。   In the PERSON NO area 211f, a code (for example, 001, 002, 003,...) Uniquely assigned to identify the person (person) photographed in the frame image is set as “PERSON No”. Store. The AREA area 211g is data (for example, (50.150) − (200.300), (100, 200) −) indicating position information of the face image of the photographed person to whom the corresponding code is assigned in the frame image. (600,700), (256.389)-(769,864),...) Are stored as “AREA”. The SMILEP area 211h stores data (for example, 40, 30, 35,...) Indicating the smile evaluation value of the subject to whom the corresponding PERSON NO is assigned as “SMILEP”. The FORMAT area 211i stores data (for example, 32, 29, 35,...) Indicating the correct evaluation value of the subject to whom the corresponding PERSON NO is assigned as “FORMALP”.

図6は、図4のステップS17において、記録メデイア21に記憶される画像ファイルのデータ構造の一例を示す図である。図6に示すように、画像ファイルには、当該画像ファイルに対するコメントが格納されているコメント領域、各コマ画像データが格納されているコマ画像データ領域、当該画像に対応した評価値ファイルを格納する評価値ファイル領域により構成されている。各コマ画像データは、ヘッダ領域と画像情報領域を有しており、ヘッダ領域には、各コマ画像データに関する付属情報が格納されている。これら静止画を前提にしたファイルのデータ構造の例であるが、動画形式のファイルにも本発明を適用し、複数のコマの中からの画像評価を容易にすることができる。   FIG. 6 is a diagram showing an example of the data structure of the image file stored in the recording media 21 in step S17 of FIG. As shown in FIG. 6, the image file stores a comment area in which comments for the image file are stored, a frame image data area in which each frame image data is stored, and an evaluation value file corresponding to the image. It consists of an evaluation value file area. Each frame image data has a header area and an image information area. In the header area, auxiliary information regarding each frame image data is stored. This is an example of the data structure of a file based on these still images, but the present invention can also be applied to a file in a moving image format to facilitate image evaluation from a plurality of frames.

MPEGのような動画形式では、情報量を圧縮するため、静止画像と静止画像の間の差分を抽出して符号化して記憶し、再生時はその符号を用いて静止画像間を補完しているが、撮影画像評価処理における各コマ画像に対する評価は、静止画像として最も情報量のある「Iピクチャ(Intra−coded Picture)」で行うことが望ましい。なお、画像ファイルデータ構造はこれに限定されず、例えば評価値ファイル内の情報を、コメント領域に格納するようにしてもよい。   In a moving image format such as MPEG, in order to compress the amount of information, a difference between a still image and a still image is extracted, encoded, and stored, and between the still images is complemented using the code during reproduction. However, it is desirable to evaluate each frame image in the captured image evaluation process using an “I picture (Intra-coded Picture)” having the most information amount as a still image. The image file data structure is not limited to this. For example, information in the evaluation value file may be stored in the comment area.

評価値ファイル211は、動画撮影したコマ画像毎に優先評価値の順位、総合笑顔評価値、総合端正評価値、被撮影者の人数を対応付けて記憶し、また、そのコマ画像に撮影された人物毎の顔の位置情報、笑顔評価値、端正評価値が併せて記憶されている。そして、図6に示すように、評価値ファイル211は、コマ画像データと対応付けて記録メディア28に記憶される。従って、例えば、この記録メディア28を外部の出力装置に装着することにより、外部の出力装置にて、優先評価値の順位で印刷することができる。   The evaluation value file 211 stores the priority evaluation value rank, the overall smile evaluation value, the overall correctness evaluation value, the number of subjects to be photographed in association with each frame image captured by the moving image, and the frame image was captured. The face position information, smile evaluation value, and neat evaluation value for each person are also stored. As shown in FIG. 6, the evaluation value file 211 is stored in the recording medium 28 in association with the frame image data. Therefore, for example, by mounting the recording medium 28 on an external output device, it is possible to print on the external output device in the order of priority evaluation values.

図7は、図4のステップS18においてモニタ装置8に表示される面像表示画面の一例を示す図である。モニタ装置8には、比較モニタ手段であるモニタ部8a1,8a2は、再生手段により読み出された複数の静止画像を表示し、モニタ部8a1では、4枚の画像1〜4が1枚ずつ順に表示され、モニタ部8a2では、他の4枚の画像5〜8が1枚ずつ順に表示される。選択モニタ手段となるモニタ部8bが比較モニタ手段となるモニタ部8a1,8a2の間に配置され、モニタ部8bにより選択した静止画像を、選択前のモニタ部8a1,8a2のほぼ中央の領域に表示する。   FIG. 7 is a diagram showing an example of a surface image display screen displayed on the monitor device 8 in step S18 of FIG. On the monitor device 8, the monitor units 8a1 and 8a2 which are comparison monitor units display a plurality of still images read by the reproducing unit, and the monitor unit 8a1 sequentially displays four images 1 to 4 one by one. The other four images 5 to 8 are displayed one by one on the monitor unit 8a2. The monitor unit 8b serving as the selection monitor unit is disposed between the monitor units 8a1 and 8a2 serving as the comparison monitor unit, and the still image selected by the monitor unit 8b is displayed in a substantially central region of the monitor units 8a1 and 8a2 before selection. To do.

この実施の形態では、入力された撮影画像中の複数の画像を表示し、複数の画像の表情を評価する評価手段を備え、この評価手段は制御部11で構成され、モニタ部8a1,8a2に複数の画像を表示し、複数の画像の表情を評価する。   In this embodiment, there are provided evaluation means for displaying a plurality of images in the inputted photographed image and evaluating the facial expressions of the plurality of images. This evaluation means is constituted by the control unit 11 and is provided in the monitor units 8a1 and 8a2. Display multiple images and evaluate facial expressions of multiple images.

モニタ部8a1の画面8a11,8a12に、図4のステップS10でカジュアルな場面と判断された場合に表示される一例を示す図である。画面8a11には、コマ画像とともに、当該コマ画像の総合笑顔評価値及び総合端正評価値が、総合笑顔評価値を上にして表示されている。コマ画像と共に、優先評価値である総合笑顔評価値のみを表示するようにしてもよい。操作装置6からの操作により、各被撮影者の評価値の表示が指示されると、画面8a12に示すように、各被撮影者の笑顔評価値及び端正評価値が表示される。各被撮影者の笑顔評価値のみを表示するようにしてもよい。   It is a figure which shows an example displayed when it is judged on the screens 8a11 and 8a12 of the monitor part 8a1 as a casual scene by step S10 of FIG. On the screen 8a11, together with the frame image, the total smile evaluation value and the total correctness evaluation value of the frame image are displayed with the total smile evaluation value facing up. Only the overall smile evaluation value, which is the priority evaluation value, may be displayed together with the frame image. When display of the evaluation value of each subject is instructed by an operation from the operation device 6, the smile evaluation value and neat evaluation value of each subject are displayed as shown on the screen 8a12. Only the smile evaluation value of each subject may be displayed.

画面8a13,8a14に、図4のステップS10でフォーマルな場面と判断された場合に表示される一例を示す図である。画面8a13に、コマ画像とともに、当該コマ画像の総合笑顔評価値及び総合端正評価値が、総合端正評価値を上にして表示されている。コマ画像と共に、優先評価値である総合笑顔評価値のみを表示するようにしてもよい。操作装置6からの操作により、各被撮影者の評価値の表示が指示されると、画面8a14に、各被撮影者の笑顔評価値及び端正評価値が表示される。各被撮影者の端正評価値のみを表示するようにしてもよい。 画面8a21,8a22は、図4のステップS6で新婦、新郎の画像に重み付け設定を行い、各被撮影者の評価値の表示が指示された際に表示される一例を示す図である。画面8a21においては、新郎、新婦以外の被撮影者の端正評価値は低いが(20点〜40点)、新郎及び新婦の端正評価値は高いので(70点、80点)、総合端正評価値は74点と高くなる。逆に、画面8a22に示すように、新郎、新婦以外の被撮影者の端正評価値は高いが(80点〜90点)、新郎及び新婦の端正評価値は低いので(40点、30点)、総合端正評価値は50点と低くなる。   It is a figure which shows an example displayed when it is judged on the screens 8a13 and 8a14 that it is a formal scene by step S10 of FIG. On the screen 8a13, together with the frame image, the total smile evaluation value and the total correct evaluation value of the frame image are displayed with the total correct evaluation value facing upward. Only the overall smile evaluation value, which is the priority evaluation value, may be displayed together with the frame image. When display of the evaluation value of each subject is instructed by an operation from the operation device 6, the smile evaluation value and the neat evaluation value of each subject are displayed on the screen 8a14. Only the correct evaluation value of each subject may be displayed. The screens 8a21 and 8a22 are diagrams illustrating an example displayed when weighting is set for the bride and groom images in step S6 of FIG. 4 and display of evaluation values of each subject is instructed. On the screen 8a21, the neat evaluation values of subjects other than the groom and the bride are low (20 to 40 points), but the neat evaluation values of the groom and the bride are high (70 points and 80 points). Increases to 74 points. On the contrary, as shown in the screen 8a22, although the neat evaluation values of the subjects other than the groom and the bride are high (80 to 90 points), the neat evaluation values of the groom and the bride are low (40 points and 30 points). The overall neat evaluation value is as low as 50 points.

この実施の形態では、入力された撮影画像中の複数の画像を表示し、複数の画像の表情の良し悪しを評価することができる。従って、例えばユーザが写真プリントの注文画像を速く選ぶことができ、写真館、イベント会場等のスタジオでの撮影の回転率が向上し、しかもユーザの満足度も向上する。   In this embodiment, it is possible to display a plurality of images in the input captured image and evaluate the quality of the facial expressions of the plurality of images. Therefore, for example, the user can quickly select an order image for a photo print, the rotation rate of shooting in a studio such as a photo studio or an event venue is improved, and the user's satisfaction is also improved.

また、図8は評価を複数の画像から抜き出して並べて表示する実施の形態を示す図である。この実施の形態では、モニタ部8a1の画面8a11〜8a14に評価を複数の画像から抜き出して並べて表示し、画像の番号、判定に用いた部位、評価を表示している。画像の番号として、例えば025番〜028番としており、画像の番号がないとどれか分からなくなる。判定に用いた部位として、例えば目としているが、口等を表示してもよい。評価として、例えば評価ポイントを付けているが、最高ランクに◎、最低ランクに×等でランク付けをしてもよい。評価が数値またはランクであり、画像の表情の良し悪しの評価を間違いなく、簡単かつ確実に行なうことができる。また、評価は、数字だけでなく、ランク別の絵文字や点滅などの警告でユーザの選択を支援するようにしてもよい。   FIG. 8 is a diagram showing an embodiment in which evaluations are extracted from a plurality of images and displayed side by side. In this embodiment, evaluations are extracted from a plurality of images and displayed side by side on the screens 8a11 to 8a14 of the monitor unit 8a1, and the image number, the part used for the determination, and the evaluation are displayed. The image numbers are, for example, number 025 to number 028. If there is no image number, it will be unknown. As a part used for the determination, for example, eyes are used, but a mouth or the like may be displayed. As an evaluation, for example, evaluation points are given, but the highest rank may be ranked with ◎, the lowest rank with ×, etc. The evaluation is a numerical value or a rank, and it is possible to easily and reliably evaluate the quality of the facial expression of the image without fail. In addition, the evaluation may support the user's selection not only by numbers but also by warnings such as pictograms by rank and blinking.

このように、評価を複数の画像から抜き出して並べて表示することで、比較し易いために、複数の画像の表情の良し悪しの評価を迅速に、しかも簡単かつ容易に行なうことができる。さらに、画像の番号、判定に用いた部位、評価の少なくとも1つを表示することで、複数の画像の表情の良し悪しの評価を間違いなく、簡単かつ確実に行なうことができる。   As described above, since the evaluation is extracted from the plurality of images and displayed side by side, it is easy to compare them. Therefore, it is possible to quickly and easily evaluate the quality of the expressions of the plurality of images. Furthermore, by displaying at least one of the image number, the part used for the determination, and the evaluation, it is possible to easily and reliably evaluate the quality of the expressions of the images without fail.

図9は操作装置に備えられる操作画面のタッチパネルを備える実施の形態を示す図である。この実施の形態のタッチパネル60には、操作指示表示61が表示され、この操作指示表示61に従って表示された画像70の各部位71〜75を選択してカーソル76等でタッチすると、画像の番号、判定に用いた部位、評価を表示する。   FIG. 9 is a diagram showing an embodiment provided with a touch panel of an operation screen provided in the operation device. On the touch panel 60 of this embodiment, an operation instruction display 61 is displayed. When each part 71 to 75 of the image 70 displayed according to the operation instruction display 61 is selected and touched with the cursor 76 or the like, the image number, The part and evaluation used for the judgment are displayed.

例えば、まゆ72、目73、口74等をタッチすると、各画像からまゆ72、目73、口74のみを判別し、クローズアップして採点する。目73をタッチすると、図8のように表示される。このように、タッチパネル60により画像の部位を選択して、画像の表情の良し悪しを評価することができる。   For example, when the eyebrows 72, the eyes 73, the mouth 74, etc. are touched, only the eyebrows 72, the eyes 73, the mouth 74 are discriminated from each image, and they are scored in close-up. When the eye 73 is touched, the screen is displayed as shown in FIG. In this way, it is possible to select a part of the image by the touch panel 60 and evaluate the quality of the image.

また、小道具71,75をカーソル76等でタッチすると、小道具71、75の評価が表示される。この小道具71、75の評価は、人(肌色)とかぶさっているかいないか、衣装と色相がはなれているかいないか(同じだと埋もれてしまう)等である。小道具71、75は、色、形を予め登録することで、衣装や人物や背景からの分離は容易である。   When the props 71 and 75 are touched with the cursor 76 or the like, the evaluation of the props 71 and 75 is displayed. The evaluation of the props 71 and 75 is whether or not they are covered with a person (skin color), whether or not the costume and hue are separated (if they are the same, they are buried). The props 71 and 75 can be easily separated from costumes, persons, and backgrounds by registering colors and shapes in advance.

また、この実施の形態では、背景の評価が行なわれる。例えば、背景の3辺77a〜77cに切れ、ランプ78等の余計な映り込みはないか、また衣装、小道具、人物と色相、輝度が離れていないで、区別が容易でないかいなか等で評価する。この小道具、背景の評価は細かく判別する必要はなく、例えばA、B、Cあるいは○、△、×等の3段階のランク付けでもよい。   In this embodiment, the background is evaluated. For example, the evaluation is made based on whether the three sides 77a to 77c of the background are cut off, and there is no extra reflection such as a lamp 78, or whether the clothes, props, hues and brightness are not separated from each other. . The props and backgrounds need not be discriminated in detail, and may be ranked in three stages such as A, B, C, or ◯, Δ, or X, for example.

図10は評価の高い画像を選択画面に最初に配置する実施の形態を示す図である。この実施の形態では、選択モニタ手段であるモニタ部8bと、このモニタ部8bの周囲に比較モニタ手段であるモニタ部8a1〜8a8とを配置し、評価の高い画像をモニタ部8bの選択画面に最初に配置する。これはステップS14で合成した最高位の画像でも良い。このように、選択した評価の高い静止画像を、選択前の複数の静止画像のほぼ中央の領域に表示する。   FIG. 10 is a diagram showing an embodiment in which an image with high evaluation is first arranged on the selection screen. In this embodiment, a monitor unit 8b which is a selection monitor unit and monitor units 8a1 to 8a8 which are comparison monitor units are arranged around the monitor unit 8b, and a highly evaluated image is displayed on the selection screen of the monitor unit 8b. Place it first. This may be the highest level image synthesized in step S14. In this way, the selected still image with a high evaluation is displayed in a substantially central region of the plurality of still images before selection.

例えば、モニタ部8a1〜8a8には、画像と評価の総合点が表示され、モニタ部8a1の画像の総合点が88点であり、評価の高い画像をモニタ部8bの選択画面に最初に表示する。   For example, on the monitor units 8a1 to 8a8, the total score of the image and the evaluation is displayed, the total score of the image of the monitor unit 8a1 is 88 points, and an image with high evaluation is first displayed on the selection screen of the monitor unit 8b. .

画像の総合点は、例えば背景20%、表情50%、小道具30%の重み付けで決めることができる。また、点数表示は、画像の総合点表示に限らず、例えば目、口等の判定に用いた部位別の点数表示、人物の重み付け評価の点数表示等を行なうことができる。   For example, the total point of the image can be determined by weighting the background 20%, the expression 50%, and the prop 30%. Further, the score display is not limited to the total score display of the image, and for example, the score display for each part used for the determination of the eyes, the mouth, etc., the score display of the weighted evaluation of the person, and the like can be performed.

この実施の形態では、評価の高い画像を選択画面に最初に配置することで、例えばユーザが写真プリントの注文画像を選択画面に着目して速く選ぶことができ、写真館、イベント会場等のスタジオでの撮影の回転率が向上し、しかもユーザの満足度も向上する。   In this embodiment, by placing an image with high evaluation on the selection screen first, for example, the user can quickly select an order image of a photo print by paying attention to the selection screen, and a studio such as a photo studio or an event venue. In addition, the rotation rate of shooting is improved and user satisfaction is also improved.

また、選択画面の画像の番号、判定に用いた部位、評価の少なくとも1つを表示することで、複数の画像の表情の良し悪しの評価を間違いなく、簡単かつ確実に行なうことができる。補助カメラの画素数が印刷に適するようであれば主カメラは省略できる。又、補助カメラが動画カメラであっても、そのコマの中から印刷に適するコマを選ぶのが容易となる。このようにこのシステムは将来に渡っても有効に使い続けることができる。   Further, by displaying at least one of the image number of the selection screen, the part used for the determination, and the evaluation, it is possible to easily and reliably evaluate the quality of the expression of the plurality of images without fail. If the number of pixels of the auxiliary camera is suitable for printing, the main camera can be omitted. Even if the auxiliary camera is a moving image camera, it is easy to select a frame suitable for printing from the frames. In this way, this system can continue to be used effectively in the future.

この画像評価装置は、写り具合のよい写真の選択を、迅速に、しかも簡単かつ容易に行なうことができ、例えば写真館、イベント会場等のスタジオにおいて写真感光材料を用いて被写体を撮影する際に用いる写真撮影システム等に適用できる。   This image evaluation device can quickly and easily select a photograph with good image quality. For example, when photographing a subject using a photographic photosensitive material in a studio such as a photo studio or an event venue. It can be applied to the photography system used.

画像評価装置を適用した写真撮影システムの概略構成図である。It is a schematic block diagram of the photography system which applied the image evaluation apparatus. モニタ画像表示を示す図である。It is a figure which shows a monitor image display. 笑顔評価基準テーブル及び端正評価基準テーブル内部のデー夕格納例を示す図である。It is a figure which shows the example of a data evening storage in a smile evaluation reference | standard table and a straightness evaluation reference | standard table. 撮影画像評価処理のフローチャートを示す図である。It is a figure which shows the flowchart of a picked-up image evaluation process. 評価値ファイルのデータ格納例を示す図である。It is a figure which shows the example of data storage of an evaluation value file. 記録メデイアに記憶される画像ファイルのデータ構造の一例を示す図である。It is a figure which shows an example of the data structure of the image file memorize | stored in recording media. モニタ装置に表示される面像表示画面の一例を示す図である。It is a figure which shows an example of the surface image display screen displayed on a monitor apparatus. 評価を複数の画像から抜き出して並べて表示する実施の形態を示す図である。It is a figure which shows embodiment which extracts evaluation from several images and displays it side by side. 操作装置に備えられる操作画面のタッチパネルを備える実施の形態を示す図である。It is a figure which shows embodiment provided with the touchscreen of the operation screen with which an operating device is provided. 評価の高い画像を選択画面に最初に配置する実施の形態を示す図である。It is a figure which shows embodiment which arrange | positions the image with high evaluation first on a selection screen.

符号の説明Explanation of symbols

1 写真撮影システム
2 主カメラ
3 補助カメラ
4 被写体
5 制御装置
6 操作装置
7,8 モニタ装置
11 制御部
29 モニタ駆動部
26 EEPROM
52 ディスクドライブ
53 画面分割部
DESCRIPTION OF SYMBOLS 1 Photographing system 2 Main camera 3 Auxiliary camera 4 Subject 5 Control apparatus 6 Operation apparatus 7, 8 Monitor apparatus 11 Control part 29 Monitor drive part 26 EEPROM
52 Disk drive 53 Screen division

Claims (7)

入力された撮影画像中の複数の画像を表示し、前記複数の画像の表情を評価する評価手段を備えたことを特徴とする画像評価装置。 An image evaluation apparatus comprising: an evaluation unit that displays a plurality of images in an input photographed image and evaluates facial expressions of the plurality of images. 前記評価手段は、評価を、前記複数の画像から抜き出して並べて表示することを特徴とする請求項1に記載の画像評価装置。 The image evaluation apparatus according to claim 1, wherein the evaluation unit extracts evaluations from the plurality of images and displays them side by side. 画像の番号、判定に用いた部位、評価の少なくとも1つを表示することを特徴とする請求項1に記載の画像評価装置。 The image evaluation apparatus according to claim 1, wherein at least one of an image number, a part used for determination, and evaluation is displayed. 前記画像の部位を選択する手段を備えることを特徴とする請求項3に記載の画像評価装置。 The image evaluation apparatus according to claim 3, further comprising means for selecting a part of the image. 前記評価手段は、前記評価の高い画像を選択画面に最初に配置することを特徴とする請求項1に記載の画像評価装置。 The image evaluation apparatus according to claim 1, wherein the evaluation unit first arranges the image with high evaluation on a selection screen. 画像の番号、判定に用いた部位、評価の少なくとも1つを表示することを特徴とする請求項5に記載の画像評価装置。 The image evaluation apparatus according to claim 5, wherein at least one of an image number, a part used for determination, and evaluation is displayed. 前記評価は、数値またはランクであることを特徴とする請求項1乃至請求項5のいずれか1項に記載の画像評価装置。 The image evaluation apparatus according to claim 1, wherein the evaluation is a numerical value or a rank.
JP2003286763A 2003-08-05 2003-08-05 Image estimation device Withdrawn JP2005056175A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2003286763A JP2005056175A (en) 2003-08-05 2003-08-05 Image estimation device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2003286763A JP2005056175A (en) 2003-08-05 2003-08-05 Image estimation device

Publications (1)

Publication Number Publication Date
JP2005056175A true JP2005056175A (en) 2005-03-03

Family

ID=34365963

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2003286763A Withdrawn JP2005056175A (en) 2003-08-05 2003-08-05 Image estimation device

Country Status (1)

Country Link
JP (1) JP2005056175A (en)

Cited By (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008084213A (en) * 2006-09-28 2008-04-10 Sony Corp Image processor, imaging apparatus, image processing method, and program
JP2008234509A (en) * 2007-03-23 2008-10-02 Fujifilm Corp Image evaluation apparatus and method, and program
JP2008245015A (en) * 2007-03-28 2008-10-09 Casio Comput Co Ltd Image processing apparatus and program
JP2008245012A (en) * 2007-03-28 2008-10-09 Casio Comput Co Ltd Image processing apparatus and program
JP2009071344A (en) * 2007-09-10 2009-04-02 Casio Comput Co Ltd Imaging apparatus and program
JP2009217758A (en) * 2008-03-13 2009-09-24 Fujifilm Corp Image evaluation device, method and program
US7693413B2 (en) 2005-07-21 2010-04-06 Sony Corporation Camera system, information processing device, information processing method, and computer program
JP2010158047A (en) * 2010-02-23 2010-07-15 Casio Computer Co Ltd Imaging apparatus, and program
JP2011103128A (en) * 2010-11-29 2011-05-26 Seiko Epson Corp Image selection device and image selection method
JP2013157030A (en) * 2013-05-07 2013-08-15 Olympus Corp Imaging method and imaging apparatus
US8644613B2 (en) 2005-08-31 2014-02-04 Seiko Epson Corporation Image selection device and image selection method
US10269175B2 (en) 2015-07-14 2019-04-23 Samsung Electronics Co., Ltd. Three dimensional content generating apparatus and three dimensional content generating method thereof
JP7435052B2 (en) 2020-03-10 2024-02-21 大日本印刷株式会社 Photographed image evaluation system

Cited By (18)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7693413B2 (en) 2005-07-21 2010-04-06 Sony Corporation Camera system, information processing device, information processing method, and computer program
US8644613B2 (en) 2005-08-31 2014-02-04 Seiko Epson Corporation Image selection device and image selection method
JP2008084213A (en) * 2006-09-28 2008-04-10 Sony Corp Image processor, imaging apparatus, image processing method, and program
US8457365B2 (en) 2007-03-23 2013-06-04 Fujifilm Corporation Device, method and computer readable recording medium containing program for evaluating image
JP2008234509A (en) * 2007-03-23 2008-10-02 Fujifilm Corp Image evaluation apparatus and method, and program
JP2008245015A (en) * 2007-03-28 2008-10-09 Casio Comput Co Ltd Image processing apparatus and program
JP2008245012A (en) * 2007-03-28 2008-10-09 Casio Comput Co Ltd Image processing apparatus and program
US8587687B2 (en) 2007-09-10 2013-11-19 Casio Computer Co., Ltd. Image pickup apparatus performing automatic photographing processing, image pickup method and computer-readable recording medium recorded with program thereof
US8089523B2 (en) 2007-09-10 2012-01-03 Casio Computer Co., Ltd. Image pickup apparatus performing automatic photographing processing, image pickup method and computer-readable recording medium recorded with program thereof
US8610791B2 (en) 2007-09-10 2013-12-17 Casio Computer Co., Ltd. Image pickup apparatus performing automatic photographing processing, image pickup method and computer-readable recording medium recorded with program thereof
JP2009071344A (en) * 2007-09-10 2009-04-02 Casio Comput Co Ltd Imaging apparatus and program
JP2009217758A (en) * 2008-03-13 2009-09-24 Fujifilm Corp Image evaluation device, method and program
JP2010158047A (en) * 2010-02-23 2010-07-15 Casio Computer Co Ltd Imaging apparatus, and program
JP2011103128A (en) * 2010-11-29 2011-05-26 Seiko Epson Corp Image selection device and image selection method
JP2013157030A (en) * 2013-05-07 2013-08-15 Olympus Corp Imaging method and imaging apparatus
US10269175B2 (en) 2015-07-14 2019-04-23 Samsung Electronics Co., Ltd. Three dimensional content generating apparatus and three dimensional content generating method thereof
US11010967B2 (en) 2015-07-14 2021-05-18 Samsung Electronics Co., Ltd. Three dimensional content generating apparatus and three dimensional content generating method thereof
JP7435052B2 (en) 2020-03-10 2024-02-21 大日本印刷株式会社 Photographed image evaluation system

Similar Documents

Publication Publication Date Title
US10469746B2 (en) Camera and camera control method
JP4898532B2 (en) Image processing apparatus, photographing system, blink state detection method, blink state detection program, and recording medium on which the program is recorded
JP4746295B2 (en) Digital camera and photographing method
TWI406564B (en) Photography device and photography method
JP4794584B2 (en) Imaging device, image display device, and program thereof
JP4663699B2 (en) Image display device and image display method
JP2010147808A (en) Imaging apparatus and image processing method in same
JP2008167063A (en) Imaging apparatus and method
TW201102938A (en) Image capturing apparatus, face area detecting method and program recording medium
JP3971240B2 (en) Camera with advice function
JP2005056175A (en) Image estimation device
JP2007324965A (en) Digital camera, photographing control method, and image output system
JP2011160413A (en) Imaging device
JP5604285B2 (en) Imaging device
JP2006201531A (en) Imaging device
JP5826026B2 (en) Imaging apparatus and control method thereof
JP2008245093A (en) Digital camera, digital camera control method and control program
JP2011135527A (en) Digital camera
JP2008054031A (en) Digital camera and display control method
JP2009088710A (en) Imaging apparatus, imaging method, and imaging program
JP2012257112A (en) Imaging apparatus and program
JP4885084B2 (en) Imaging apparatus, imaging method, and imaging program
CN101521748A (en) Image pickup apparatus and image pickup method
JP5167964B2 (en) Display control apparatus, display control method, and program
JP4518985B2 (en) Imaging device

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20060720

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20060830

A761 Written withdrawal of application

Free format text: JAPANESE INTERMEDIATE CODE: A761

Effective date: 20080519