JP3907816B2 - Image processing method - Google Patents
Image processing method Download PDFInfo
- Publication number
- JP3907816B2 JP3907816B2 JP06025998A JP6025998A JP3907816B2 JP 3907816 B2 JP3907816 B2 JP 3907816B2 JP 06025998 A JP06025998 A JP 06025998A JP 6025998 A JP6025998 A JP 6025998A JP 3907816 B2 JP3907816 B2 JP 3907816B2
- Authority
- JP
- Japan
- Prior art keywords
- image
- image data
- focus
- subject
- extracted
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Expired - Fee Related
Links
Images
Landscapes
- Studio Circuits (AREA)
- Editing Of Facsimile Originals (AREA)
- Studio Devices (AREA)
Description
【0001】
【発明の属する技術分野】
本発明は、多段フォーカス画像を利用した画像処理の技術分野に属する。
【0002】
【従来の技術】
現在、ネガフィルム、リバーサルフィルム等の写真フィルム(以下、フィルムとする)に撮影された画像の感光材料(印画紙)への焼き付けは、フィルムの画像を感光材料に投影して感光材料を面露光する、いわゆる直接露光(アナログ露光)が主流である。
【0003】
これに対し、近年では、デジタル露光を利用する焼付装置、すなわち、フィルムに記録された画像を光電的に読み取って、読み取った画像をデジタル信号とした後、種々の画像処理を施して記録用の画像データとし、この画像データに応じて変調した記録光によって感光材料を走査露光して画像(潜像)を記録し、(仕上り)プリントとするデジタルフォトプリンタが実用化された。
【0004】
デジタルフォトプリンタでは、画像をデジタルの画像データとして、画像データ処理によって焼付時の露光条件を決定することができるので、逆光やストロボ撮影等に起因する画像の飛びやツブレの補正、シャープネス(鮮鋭化)処理等を好適に行って、従来の直接露光では得られなかった高品位なプリントを得ることができる。また、画像の合成や分割、文字の合成等も画像データ処理で行うことができ、用途に応じて自由に編集/処理したプリントも出力可能である。
しかも、デジタルフォトプリンタによれば、画像をプリント(写真)として出力するのみならず、画像データをコンピュータ等に供給したり、フロッピーディスク等の記録媒体に保存しておくこともできるので、画像データを、写真以外の様々な用途に利用することができる。
さらに、デジタルフォトプリンタによれば、フィルムに撮影された画像以外にも、デジタルカメラやデジタルビデオカメラ等の撮像デバイスで撮影された画像(画像データ)も、プリントとして出力することができる。
【0005】
このようなデジタルフォトプリンタは、基本的に、フィルムに記録された画像を光電的に読み取るスキャナ(画像読取装置)、および読み取った画像を画像処理して出力用の画像データ(露光条件)とする画像処理装置を有する画像入力装置と、画像入力装置から出力された画像データに応じて感光材料を走査露光して潜像を記録するプリンタ(画像記録装置)、および露光済の感光材料に現像処理を施してプリントとするプロセサ(現像装置)を有する画像出力装置とを有して構成される。
【0006】
スキャナでは、光源から射出された読取光をフィルムに入射して、フィルムに撮影された画像を担持する投影光を得て、この投影光を結像レンズによってCCDセンサ等のイメージセンサに結像して光電変換することにより画像を読み取り、必要に応じて各種の画像処理を施した後に、フィルムの画像データ(画像データ信号)として画像処理装置に送る。
画像処理装置は、スキャナによって読み取られた画像データやデジタルカメラ等から供給された画像データに所定の画像処理を施し、画像記録のための出力画像データ(露光条件)としてプリンタに送る。
プリンタでは、例えば、光ビーム走査露光を利用する装置であれば、画像処理装置から送られた画像データに応じて光ビームを変調して、この光ビームを主走査方向に偏向すると共に、主走査方向と直交する副走査方向に感光材料を搬送することにより、画像を担持する光ビームによって感光材料を露光(焼付け)して潜像を形成し、次いで、プロセサにおいて感光材料に応じた現像処理等を施して、フィルムに撮影された画像が再生されたプリント(写真)とする。
【0007】
【発明が解決しようとする課題】
ところで、あるシーンを光学的に撮影する際には、そのシーンの中に存在する全ての物(被写体)に焦点を合わせることは不可能であり、撮影者(カメラ)からの距離によって、例えば、人物には焦点が合っているが、その背景となっている建造物には焦点が合っていない、あるいは、背景には焦点が合っているが、その手前の人物には焦点が合っていない等が生じる。
【0008】
本発明の目的は、同じシーンを異なる焦点距離で撮影した多段フォーカス画像およびデジタル画像処理を利用することにより、誤抽出を防止した画像の主要部抽出を行なうことができる画像処理方法を提供することにある。
【0009】
【課題を解決するための手段】
前記目的を達成するために、本発明に係る画像処理方法は、同シーンを異なる焦点距離で撮影した複数の画像(多段フォーカス画像)の画像データを得て、各画像毎に合焦している被写体を抽出し、これらの各合焦被写体に注目して主要部の抽出を行い、前記シーンを撮影した画像(多段フォーカス画像)中の各画像における主要部の抽出結果の整合性から前記シーンの主要部を抽出することを特徴とする。
【0010】
また、前記主要部が人物の顔であり、さらに人物の胴体抽出を行なって、その結果を前記主要部抽出に反映させるのが好ましく、さらに、画像中で指示された領域を用いて、前記異なる焦点距離で撮影した複数の画像の画像データを合成して、1つの画像の画像データを生成するのが好ましい。
【0011】
【発明の実施の形態】
以下、本発明の画像処理方法について、添付の図面に示される好適実施例を基に詳細に説明する。
【0012】
図1に、本発明の画像処理方法を利用するデジタルフォトプリンタの一例のブロック図が示される。
図1に示されるデジタルフォトプリンタ(以下、フォトプリンタ10とする)は、基本的に、フィルムFに撮影された画像を光電的に読み取るスキャナ(画像読取装置)12と、読み取られた画像データ(画像情報)の画像処理やフォトプリンタ10全体の操作および制御等を行う、本発明の画像処理方法を実施する画像処理装置14と、画像処理装置14から出力された画像データに応じて変調した光ビームで感光材料(印画紙)を画像露光し、現像処理して(仕上り)プリントとして出力するプリンタ16とを有して構成される。
また、画像処理装置14には、様々な条件の入力(設定)、処理の選択や指示、色/濃度補正などの指示等を入力するためのキーボード18aおよびマウス18bを有する操作系18と、スキャナ12で読み取られた画像、各種の操作指示、条件の設定/登録画面等を表示するディスプレイ20が接続される。
【0013】
スキャナ12は、フィルムF等に撮影された画像を1コマずつ光電的に読み取る装置で、光源22と、可変絞り24と、フィルムFに入射する読取光をフィルムFの面方向で均一にする拡散ボックス28と、結像レンズユニット32と、R(赤)、G(緑)およびB(青)の各画像読取に対応するラインCCDセンサを有するイメージセンサ34と、アンプ(増幅器)36と、A/D(アナログ/デジタル)変換器38とを有して構成される。
【0014】
また、フォトプリンタ10においては、新写真システム(Advanced Photo System)や135サイズのネガ(あるいはリバーサル)フィルム等のフィルムの種類やサイズ、ストリップスやスライド等のフィルムの形態等に応じて、スキャナ12の本体に装着自在な専用のキャリアが用意されており、キャリアを交換することにより、各種のフィルムや処理に対応することができる。フィルムに撮影され、プリント作成に供される画像(コマ)は、このキャリアによって所定の読取位置に搬送される。
このようなスキャナ12において、フィルムFに撮影された画像を読み取る際には、光源22から射出され、可変絞り24によって光量調整された読取光が、キャリアによって所定の読取位置に位置されたフィルムFに入射して、透過することにより、フィルムFに撮影された画像を担持する投影光を得る。
【0015】
図示例のスキャナ12は、スリット走査によってフィルムに撮影された画像を読み取るものであり、フィルムFは、キャリア30によって読取位置に位置されて長手方向(副走査方向)に搬送されつつ、読取光が入射される。フィルムFを透過した投影光は、読取位置に配置された、前記副走査方向と直交する主走査方向に延在するスリットによって規制される。これにより、結果的にフィルムFが主走査方向に延在するスリットによって2次元的にスリット走査され、フィルムFに撮影された各コマの画像が読み取られる。
【0016】
読取光はキャリア30に保持されたフィルムFを透過して画像を担持する投影光となり、この投影光は、結像レンズユニット32によってイメージセンサ34の受光面に結像される。
イメージセンサ34は、R画像の読み取りを行うラインCCDセンサ、G画像の読み取りを行うラインCCDセンサ、B画像の読み取りを行うラインCCDセンサを有する、いわゆる3ラインのカラーCCDセンサで、各ラインCCDセンサは、主走査方向に延在している。フィルムFの投影光は、イメージセンサ34によって、R、GおよびBの3原色に分解されて光電的に読み取られる。
イメージセンサ34の出力信号は、アンプ36で増幅され、A/D変換器38でデジタル信号とされて、画像処理装置14に送られる。
【0017】
なお、本発明を利用するフォトプリンタ10において、スキャナは、このようなスリット走査によるものに限定はされず、1コマの画像の全面を一度に読み取る、面露光を利用するものであってもよい。
この場合には、例えば、エリアCCDセンサを用い、光源とフィルムFとの間に、R、GおよびBの各色フィルタの挿入手段を設け、色フィルタを挿入してエリアCCDセンサで画像を読み取ることを、R、GおよびBの各色フィルタで順次行い、フィルムに撮影された画像を3原色に分解して順次行う。
【0018】
また、本発明を利用するフォトプリンタ10においては、スキャナ12によって読み取ったフィルムFの画像以外にも、反射原稿の画像を読み取るスキャナ、デジタルカメラやデジタルビデオカメラ等の撮像デバイス、インターネット等のコンピュータ通信、フロッピーディスクやMOディスク(光磁気記録媒体)等の画像データ供給源Rから画像データを受け取って、これを再生したプリントを作成してもよい。
【0019】
前述のように、スキャナ12やデジタルカメラ等から出力されたデジタル信号は、画像処理装置14(以下、処理装置14とする)に出力される。
処理装置14は、データ処理部40、画像処理部42、および画像合成部42を有して構成される。
なお、処理装置14には、これ以外にも、処理装置14を含むフォトプリンタ10全体の制御や管理を行うCPU、フォトプリンタ10の作動等に必要な情報を記憶するメモリ等が配置され、また、操作系18やディスプレイ20は、このCPU等(CPUバス)を介して各部位に接続される。
【0020】
スキャナ12から出力されたR,GおよびBの各デジタル信号は、データ処理部40において、暗時補正、欠陥画素補正、シェーディング補正等の所定のデータ処理を施され、さらに、Log変換されて、デジタルの画像データ(濃度データ)とされる。また、画像データがデジタルカメラ等の画像データ供給源Rから供給された場合には、その画像データは、データ処理部40においてフォトプリンタ10に対応する画像データに変換され、必要な処理を施される。
【0021】
画像処理部42は、データ処理部40で処理されたデジタルの画像データに所定の画像処理を施し、さらに、画像処理済の画像データを3D(三次元)−LUT等を用いて変換して、プリンタ16による画像記録やディスプレイ22への表示に対応する画像データとする。
画像処理部42で施される画像処理には特に限定はなく、公知の各種の画像処理が例示されるが、例えば、LUT(ルックアップテーブル)を用いたグレイバランス調整、階調補正、および濃度調整、マトリクス(MTX)による撮影光源種補正や画像の彩度調整、その他、ローパスフィルタ、加算器、LUT、MTX等を用いた、また、これらを適宜組み合わせた平均化処理や補間演算等を用いた、電子変倍処理、覆い焼き処理(濃度ダイナミックレンジの圧縮/伸長)、シャープネス(鮮鋭化)処理等が例示される。
なお、画像処理部42での各種の処理条件は、例えば、出力用の画像データを得るための本読み(本スキャン)に先立って行われる、画像を粗に読み取るプレスキャンの画像データや、プリンタ16への出力用の画像データに対応する画像データを間引いた画像データを用いて設定すればよい。
【0022】
画像処理部42で処理された画像データは、画像合成を実施する場合には画像合成部44に、それ以外の場合には、プリンタ16やディスプレイ20に出力される。
【0023】
フォトプリンタ10において、本発明の画像処理方法を実施する際には、処理装置14には、フィルムFに画像を撮影するカメラやデジタルカメラ等の撮像デバイスで撮影された、同じシーンを異なる焦点距離で撮影した複数の画像、いわゆる多段フォーカス画像の画像データが送られる。
なお、本発明においては、スキャナ12での光電的な読み取りが不要であり、画像合成の際の位置合わせが容易である等の点で、デジタルカメラで撮影された多段フォーカス画像が好適である。
【0024】
また、画像を撮影するカメラには、自動的に焦点距離の異なる画像を複数枚撮影する多段フォーカスモードを設けてもよく、特に、デジタルカメラである場合には、多段フォーカス画像の一枚を基準画像として、その他の画像の画像データは基準画像との差分データとして出力してもよく、あるいはこの差分データを符号化して出力してもよい。
【0025】
本発明の画像処理方法を行う際には、処理装置14には、多段フォーカス画像の画像データ、例えば、図2に模式的に示されるように、焦点距離が近距離の画像データN1、焦点距離が中距離の画像データN2、および焦点距離が遠距離の画像データN3の、同シーンで焦点距離が異なる3種の画像データが供給され、画像合成を行なう場合には、データ処理部40および画像処理部42で前述の所定の処理を施された後、画像合成部44に供給される。
【0026】
画像合成部44は、供給された画像のそれぞれについて、空間周波数、微分フィルタ処理による鮮鋭度またはエッジ強度の定量化等を用いて、画像の鮮鋭度を画素単位で検出し、各画像ごとに、他の画像に比して最も鮮鋭度の高い(いわゆるエッジが立った)被写体、すなわち焦点距離の異なる各画像で焦点(ピント)のあっている被写体(あるいは領域)を抽出する。
図示例であれば、近距離焦点の画像データN1は花に、中距離焦点の画像データN2は人物に、遠距離焦点の画像データN3は背景の山に、それぞれ合焦しているので、各画像でこれらが抽出される。
【0027】
次いで、画像合成部44は、供給された着目すべき被写体(以下、着目被写体とする)の情報に応じて、少なくとも、着目被写体は合焦している画像の画像データを用いて、供給された多段フォーカス画像から、このシーンの1枚の画像を合成し、ディスプレイ20やプリンタ16に出力する。
図2に合成例を示すが、図2の画像aでは人物と花が、画像bは人物と山が、それぞれ着目被写体として指示され、共に、着目被写体は合焦して鮮鋭に再生され、それ以外の被写体はボケている。
【0028】
着目被写体は、顧客(プリント作成依頼者)の依頼等に応じて、オペレータがキーボード18aやマウス18b等を用いた公知の方法で入力すればよいが、好ましい方法として、着目被写体が合焦している画像の焦点距離で指示する方法が例示される。例えば、画像aのように着目被写体が人物と花である場合には、オペレータは、人物に合焦している画像データN2に対応する中距離焦点、および花に合焦している画像データN1に対応する近距離焦点を、着目被写体の情報として指示・入力すればよい。
なお、多段フォーカス画像の各画像データと焦点距離との対応付けは、オペレータが画像ごとに焦点距離(近距離、中距離、遠距離等)を入力してもよく、画像データがデジタルカメラ等の撮像デバイスによるものである場合には、画像ファイルのヘッダに焦点距離の情報を記録しておいてもよく、新写真システムのフィルムFによるものである場合には、フィルムに形成される磁気記録媒体に焦点距離の情報を記録して、これを読み取ってもよい。
【0029】
着目被写体の情報を入力する別の好ましい方法として、マウス18b等を用いて画像のある領域を切り出して、これを着目被写体の情報として指示する方法も例示される。
これらの手段は、併用してもよい。
【0030】
画像合成の方法には特に限定はなく、公知の複数画像(画像データ)の合成方法が各種利用可能ある。
例えば、着目被写体が合焦している1枚の画像を基準画像として、これに他の画像に撮影された合焦している着目被写体の画像(画像データ)を組み込む(置換する)方法が例示される。あるいは、前述のように、着目被写体が焦点距離で指示された場合には、同様の基準画像に、指示された焦点距離の画像で合焦している(最も鮮鋭な)被写体を、全て組み込めばよい。
【0031】
また、シーンの中に無関係な人物やゴミ等の不要な被写体があり、これが、合成した画像中で合焦してしまう場合には、例えば、マウス18b等を用いて不要な被写体(それを含む領域)を指示し、その部分は、多段フォーカス画像中の合焦していない画像を使用して、画像を合成してもよい。
さらに、画像合成の際には、作成された画像を自然な画像とするために、例えば、各被写体のエッジ部(端部)で画像データの重み付けを行って画像を合成して、各被写体の継ぎ目を円滑かつ自然な状態に仕上げてもよい。
【0032】
ここで、多段フォーカス画像は、同シーンであっても焦点距離が異なっているので、実際には、画像中の各被写体の大きさが若干に異なる。従って、画像を合成した際の画像ズレや、それに起因する画像の抜け等を防止するために、基準となる画像は、シーン中に合焦する着目被写体を有する、最も焦点距離の遠い画像を基準とするのが好ましい。
例えば、図2に示される例において、画像aに示されるように、着目被写体として人物と花が指示された場合には、人物が合焦している中距離焦点の画像(画像データN2)を基準画像として、近距離焦点の画像(画像データN1)の花あるいは合焦被写体を組み込む。また、画像bに示されるように、着目被写体として人物と山が指示された場合には、山が合焦している遠距離焦点の画像(画像データN3)を基準として、中距離焦点の画像(画像データN2)の人物あるいは合焦被写体を組み込む。
【0033】
また、多段フォーカス画像の各画像の最も鮮鋭な被写体から、シーン中の各被写体の撮影距離や被写体間の距離を画素単位で求め、この距離の情報を用いて、仮想的な両眼視画像を作成し、立体画像を作成してもよい。
【0034】
ところで、前述の画像処理部42では、必要に応じて画像の主要部(主要被写体)を抽出して、抽出した主要部に応じた画像処理を行うが、本発明においては、多段フォーカス画像が供給された際には、各画像ごとに抽出した合焦被写体(領域)の情報を画像の主要部抽出に利用する。
【0035】
例えば、図3(A)に示されるような画像において、主要部として人物の顔を抽出する際に、花が存在する領域の地面(背景)の色が肌色に近い場合には、従来の主要部抽出では、顔と共に、花を含む領域も顔として誤抽出してしまう場合がある。
【0036】
ここで、多段フォーカス画像の各画像における合焦被写体は、いずれも撮影者からの距離は近似している。また、多段フォーカス画像において、撮影者は、最も重要な被写体に合焦している画像を一枚は撮影するのが通常である。
本方法においては、多段フォーカス画像の各画像において、合焦している被写体に注目して主要部抽出を行い、抽出結果の整合性を見る。
写真では、複数の主要部が存在しても、各主要部の撮影者からの距離は、近似しているのが通常である。例えば、図3(B)に示されるような多段フォーカス画像の、各画像の合焦被写体から主要部となる顔を抽出した際に、主要部は3つの画像中の1つのみに存在するのが適正であり、焦点距離の異なる複数の画像から主要部が抽出された場合には、いずれかは誤抽出と判断できる。
従って、図3(B)に示されるように、中距離焦点の画像(画像データN2)と近距離焦点の画像(画像データN1)の両者から顔が抽出され、最も顔として適正と考えられる抽出部が中距離焦点の画像のものである場合には、近距離焦点の画像から抽出された主要部は不適正であると判断でき、キャンセルすることができる。すなわち、主要部の誤抽出を防止できる。
【0037】
他の顔抽出判定方法として、全画面に顔抽出処理を適用した後、各抽出エリア内での画素別合焦距離の分布を調べ、整合性をチェックすることで誤抽出を低減できる。例えば、図3(A)における花と山を重ねて抽出したエリアについては、合焦距離が大きく異なるエリアに分割されるため、顔ではないと判定され、顔を抽出したエリアについては、合焦距離がほとんど等しく同一エリアとなるため、正しく顔と判定される。
または、所定の合焦距離範囲毎の画素集合により画面を分割し、その分割エリア毎に顔抽出処理を適用することで誤抽出を低減できる。例えば、図3(B)における多段フォーカス画像N1〜N3それぞれの合焦エリア毎に顔抽出処理を適用した場合、画像N2の合焦エリアのみで顔エリアが正しく抽出される。
【0038】
また、ポートレート等では、顔のみならず人物の胴体も適正に仕上げるのが好ましいが、人物の胴体は、物理的に、撮影者からの距離が顔と近いので、顔が合焦している画像から胴体を抽出することにより、抽出の精度および効率を向上することができる。また、通常は、撮影されたシーン中の人物周辺において、撮影者からの距離が顔と近いのは胴体部のみであるので、合焦被写体である胴体が分かれば、顔候補として抽出した領域の周辺に占める背景部の比率を、顔抽出の整合性評価に用いることもできる。
あるいは、焦点距離の情報から撮影倍率を得、これと抽出した合焦している主要部や胴体等のサイズとを比較して、顔抽出の整合性評価に用いてもよい。
さらに、合焦している被写体の焦点距離や形状から、近接撮影、ポートレート、風景写真等の撮影シーンを分析して、シーンの種類に応じて、露光制御、被写体毎のシャープネス強調やぼかし等、画像処理部42における画像処理内容を制御してもよい。
【0039】
なお、以上の方法において、主要部抽出の方法には特に限定はなく、公知の方法が各種利用可能である。
例えば、画像(画素)の色・濃度と連続性から人物の肌と推測される領域を抽出する顔抽出や、特開平8−184925号公報に開示される、画像を閾値を用いて2値化して、例えば高濃度領域と低濃度領域に分別して領域抽出を行い、次いで、各領域の輪郭抽出を行い、これを利用して頭髪部抽出、胴体抽出、顔内部構造抽出(眼部抽出)、背景部抽出等を行う被写体抽出方法が例示される。
さらに、これ以外にも、例えば、特開平4−346332号、同4−346333号、同4−346334号、同5−100328号、同5−158164号、同5−165119号、同5−165120号、同6−67320号、同6−160992号、同6−160993号、同6−160994号、同6−160995号、同8−122944号、同9−80652号、同9−101579号、同9−138470号、同9−138471号の各公報等に開示される、各種の被写体抽出方法が例示される。
【0040】
前述のように、画像処理部42、あるいはさらに画像合成部44で処理された画像(画像データ)は、ディスプレイ20やプリンタ16に出力される。
プリンタ16は、供給された画像データに応じて感光材料(印画紙)を露光して潜像を記録するプリンタ(焼付装置)と、露光済の感光材料に所定の処理を施してプリントとして出力するプロセサ(現像装置)とを有して構成される。
プリンタでは、例えば、感光材料をプリントに応じた所定長に切断した後に、バックプリントを記録し、次いで、感光材料の分光感度特性に応じたR露光、G露光およびB露光の3種の光ビームを処理装置14から出力された画像データに応じて変調して主走査方向に偏向すると共に、主走査方向と直交する副走査方向に感光材料を搬送することにより、前記光ビームで感光材料を2次元的に走査露光して潜像を記録し、プロセサに供給する。感光材料を受け取ったプロセサは、発色現像、漂白定着、水洗等の所定の湿式現像処理を行い、乾燥してプリントとし、フィルム1本分等の所定単位に仕分して集積する。
【0041】
以上、本発明の画像処理方法について詳細に説明したが、本発明は上記実施例に限定はされず、本発明の要旨を逸脱しない範囲において、各種の改良および変更を行ってもよいのはもちろんである。
【0042】
【発明の効果】
以上、詳細に説明したように、本発明によれば、同シーンを異なる焦点距離で撮影した多段フォーカス画像を利用して、誤抽出を防止して正しく主要部の抽出を行なうことができる。
【図面の簡単な説明】
【図1】 本発明の画像処理方法を利用するデジタルフォトプリンタのブロック図である。
【図2】 多段フォーカス画像を利用する画像合成を説明するための概念図である。
【図3】 (A)および(B)は、多段フォーカス画像を用いた主要被写体抽出の方法を説明するための概念図である。
【符号の説明】
10 (デジタル)フォトプリンタ
12 スキャナ
14 (画像)処理装置
16 プリンタ
18 操作系
20 ディスプレイ
22 光源
24 可変絞り
28 拡散ボックス
30 キャリア
32 結像レンズユニット
34 イメージセンサ
36 アンプ
38 A/D変換器
40 データ処理部
42 画像処理部
44 画像合成部[0001]
BACKGROUND OF THE INVENTION
The present invention belongs to the technical field of image processing using multistage focus images.
[0002]
[Prior art]
Currently, printing of images taken on photographic films (hereinafter referred to as films) such as negative films and reversal films onto photosensitive materials (printing paper) is performed by projecting the film images onto photosensitive materials and exposing the photosensitive materials to surface exposure. The so-called direct exposure (analog exposure) is the mainstream.
[0003]
On the other hand, in recent years, a printing apparatus using digital exposure, that is, an image recorded on a film is photoelectrically read, and the read image is converted into a digital signal. A digital photo printer that uses image data, scans and exposes a photosensitive material with recording light modulated in accordance with the image data, records an image (latent image), and produces (finished) print has been put to practical use.
[0004]
In digital photo printers, the exposure conditions during printing can be determined by processing the image data as digital image data, so correction of image skipping and blurring caused by backlighting, flash photography, etc., sharpness (sharpening) ) Processing and the like can be suitably performed to obtain a high-quality print that could not be obtained by conventional direct exposure. In addition, image composition and division, character composition, and the like can be performed by image data processing, and prints that are freely edited / processed according to applications can be output.
Moreover, according to the digital photo printer, not only the image can be output as a print (photograph) but also the image data can be supplied to a computer or stored in a recording medium such as a floppy disk. Can be used for various purposes other than photography.
Furthermore, according to the digital photo printer, in addition to the image photographed on the film, an image (image data) photographed by an imaging device such as a digital camera or a digital video camera can be output as a print.
[0005]
Such a digital photo printer basically has a scanner (image reading device) that photoelectrically reads an image recorded on a film, and performs image processing on the read image to obtain output image data (exposure conditions). An image input device having an image processing device, a printer (image recording device) that scans and exposes a photosensitive material in accordance with image data output from the image input device and records a latent image, and develops the exposed photosensitive material And an image output device having a processor (developing device) for printing.
[0006]
In a scanner, reading light emitted from a light source is incident on a film to obtain projection light carrying an image photographed on the film, and this projection light is imaged on an image sensor such as a CCD sensor by an imaging lens. Then, the image is read by photoelectric conversion, subjected to various image processing as required, and then sent to the image processing apparatus as film image data (image data signal).
The image processing apparatus performs predetermined image processing on image data read by a scanner or image data supplied from a digital camera or the like, and sends it to a printer as output image data (exposure conditions) for image recording.
In a printer, for example, if the apparatus uses light beam scanning exposure, the light beam is modulated in accordance with image data sent from the image processing apparatus, and the light beam is deflected in the main scanning direction. The photosensitive material is conveyed in a sub-scanning direction perpendicular to the direction, and the photosensitive material is exposed (baked) by a light beam carrying an image to form a latent image, and then development processing or the like according to the photosensitive material in the processor And a print (photograph) in which an image photographed on the film is reproduced.
[0007]
[Problems to be solved by the invention]
By the way, when shooting a scene optically, it is impossible to focus on all objects (subjects) present in the scene, and depending on the distance from the photographer (camera), for example, The person is in focus but the background building is not in focus, or the background is in focus but the person in front is not in focus Occurs.
[0008]
An object of the present invention is to provide an image processing method capable of extracting a main part of an image in which erroneous extraction is prevented by using a multistage focus image obtained by photographing the same scene at different focal lengths and digital image processing. It is in.
[0009]
[Means for Solving the Problems]
In order to achieve the above object, an image processing method according to the present invention obtains image data of a plurality of images (multistage focus images) obtained by photographing the scene at different focal lengths, and focuses each image. The subject is extracted, the main part is extracted by paying attention to each of these focused subjects, and the consistency of the extraction result of the main part in each image in the image obtained by photographing the scene (multistage focus image) is extracted. The main part is extracted.
[0010]
In addition, the main part is a person's face, and it is preferable to further extract a person's torso and reflect the result in the main part extraction. It is preferable to generate image data of one image by combining image data of a plurality of images taken at the focal length .
[0011]
DETAILED DESCRIPTION OF THE INVENTION
Hereinafter, the image processing method of the present invention will be described in detail based on preferred embodiments shown in the accompanying drawings.
[0012]
FIG. 1 is a block diagram showing an example of a digital photo printer that uses the image processing method of the present invention.
A digital photo printer (hereinafter referred to as a photo printer 10) shown in FIG. 1 basically includes a scanner (image reading device) 12 that photoelectrically reads an image taken on a film F, and read image data ( An
Further, the
[0013]
The
[0014]
Further, in the
In such a
[0015]
The
[0016]
The reading light passes through the film F held on the
The
The output signal of the
[0017]
In the
In this case, for example, an area CCD sensor is used, and means for inserting R, G, and B color filters are provided between the light source and the film F, and the image is read by the area CCD sensor by inserting the color filters. Are sequentially performed by the R, G, and B color filters, and the image photographed on the film is separated into three primary colors and sequentially performed.
[0018]
Further, in the
[0019]
As described above, the digital signal output from the
The
In addition to this, the
[0020]
The R, G, and B digital signals output from the
[0021]
The image processing unit 42 performs predetermined image processing on the digital image data processed by the data processing unit 40, and further converts the image processed image data using a 3D (three-dimensional) -LUT or the like, The image data corresponds to image recording by the
The image processing performed by the image processing unit 42 is not particularly limited, and various types of known image processing are exemplified. For example, gray balance adjustment using an LUT (lookup table), gradation correction, and density Adjustment, correction of shooting light source type by matrix (MTX), saturation adjustment of image, etc. In addition, use of low pass filter, adder, LUT, MTX, etc., and appropriate combination of these, averaging processing, interpolation calculation, etc. Electronic scaling processing, dodging processing (compression / expansion of density dynamic range), sharpness (sharpening) processing, etc. are exemplified.
The various processing conditions in the image processing unit 42 include, for example, pre-scan image data for roughly reading an image, which is performed prior to main reading (main scanning) for obtaining output image data, or the
[0022]
The image data processed by the image processing unit 42 is output to the
[0023]
In the
In the present invention, a multi-stage focus image photographed with a digital camera is suitable in that photoelectric reading by the
[0024]
In addition, a camera that captures images may be provided with a multi-stage focus mode that automatically captures a plurality of images with different focal lengths. In particular, in the case of a digital camera, one multi-focus image is used as a reference. As the image, image data of other images may be output as difference data from the reference image, or the difference data may be encoded and output.
[0025]
When the image processing method of the present invention is performed, the
[0026]
For each of the supplied images, the
In the illustrated example, the near-focus image data N1 is focused on a flower, the mid-range focus image data N2 is focused on a person, and the far-focus image data N3 is focused on a background mountain. These are extracted in the image.
[0027]
Next, the
FIG. 2 shows an example of composition. In the image a of FIG. 2, a person and a flower are indicated as the subject of interest, and in the image b, a person and a mountain are indicated as the subject of interest. Subjects other than are blurred.
[0028]
The subject of interest may be input by a known method using the
In addition, the correspondence between each image data of the multistage focus image and the focal length may be such that an operator may input a focal length (short distance, middle distance, long distance, etc.) for each image, and the image data may be a digital camera or the like. In the case of using an imaging device, information on the focal length may be recorded in the header of the image file. In the case of using the film F of the new photographic system, a magnetic recording medium formed on the film. The focal length information may be recorded and read.
[0029]
Another preferred method for inputting the information on the subject of interest is a method of cutting out a region of the image using the
These means may be used in combination.
[0030]
There are no particular limitations on the method of image synthesis, and various known methods for synthesizing a plurality of images (image data) can be used.
For example, a method of incorporating (replacing) an image (image data) of a focused subject focused on another image as a reference image with one image focused on the focused subject as an example. Is done. Alternatively, as described above, when the subject of interest is designated by the focal length, if all the subjects that are in focus at the designated focal length (the sharpest) are incorporated in the same reference image, Good.
[0031]
In addition, when there is an unnecessary subject such as an irrelevant person or dust in the scene, and this is in focus in the synthesized image, for example, an unnecessary subject (including it) is used by using the
Further, when combining the images, for example, in order to make the created image a natural image, weighting of the image data is performed at the edge portion (end portion) of each subject, and the images are combined. The seam may be finished in a smooth and natural state.
[0032]
Here, since the focal lengths of the multistage focus images are different even in the same scene, the size of each subject in the image is actually slightly different. Therefore, in order to prevent image misalignment when images are merged, image omission due to the image shift, and the like, the reference image is based on the image with the farthest focal length that has the subject of interest focused in the scene. Is preferable.
For example, in the example shown in FIG. 2, when a person and a flower are instructed as the subject of interest as shown in the image a, a medium-focus image (image data N2) in which the person is focused is displayed. As a reference image, a short-focus image (image data N1) or a focused subject is incorporated. Further, as shown in the image b, when a person and a mountain are instructed as the subject of interest, a medium-distance focus image is used with reference to a long-distance focus image (image data N3) in which the mountain is in focus. A person of (image data N2) or a focused subject is incorporated.
[0033]
In addition, the shooting distance of each subject in the scene and the distance between the subjects are obtained in pixel units from the sharpest subjects in each image of the multistage focus image, and the virtual binocular image is obtained using this distance information. It is also possible to create a stereoscopic image.
[0034]
By the way, the image processing unit 42 described above extracts the main part (main subject) of the image as necessary, and performs image processing according to the extracted main part. In the present invention, a multistage focus image is supplied. When this is done, the information on the focused subject (region) extracted for each image is used to extract the main part of the image .
[0035]
For example, in the image shown in FIG. 3A, when extracting the face of a person as the main part, if the color of the ground (background) in the area where the flower exists is close to the skin color, In part extraction, an area including a flower may be erroneously extracted as a face together with the face.
[0036]
Here, all the in-focus subjects in each image of the multi-stage focus image have an approximate distance from the photographer. In a multi-focus image, the photographer usually takes one image focused on the most important subject.
In this method, in each image of the multistage focus image, the main part is extracted by paying attention to the focused subject, and the consistency of the extraction result is checked.
In a photograph, even if there are a plurality of main parts, the distance from the photographer of each main part is usually approximate. For example, when a face as a main part is extracted from a focused subject of each image of a multistage focus image as shown in FIG. 3B, the main part exists only in one of the three images. If the main part is extracted from a plurality of images having different focal lengths, it can be determined that any one is erroneous extraction.
Therefore, as shown in FIG. 3B, a face is extracted from both the medium-distance focus image (image data N2) and the short-distance focus image (image data N1). parts within the case is of medium-range focus image, the main part extracted from a short focal point of the image can be determined to be unsuitable positive, it can be canceled. That is, it is possible to prevent erroneous extraction of the main part.
[0037]
As another face extraction determination method, after applying the face extraction process to the entire screen, it is possible to reduce erroneous extraction by examining the distribution of the focal distance by pixel in each extraction area and checking the consistency. For example, the area extracted by overlapping flowers and mountains in FIG. 3A is divided into areas with greatly different focus distances, so it is determined that the area is not a face, and the area from which the face is extracted is focused. Since the distance is almost equal and the same area, the face is correctly determined.
Alternatively, erroneous extraction can be reduced by dividing the screen by a set of pixels for each predetermined focusing distance range and applying face extraction processing for each divided area. For example, when the face extraction process is applied to each of the focus areas of the multistage focus images N1 to N3 in FIG. 3B, the face area is correctly extracted only in the focus area of the image N2.
[0038]
In portraits and the like, it is preferable to properly finish not only the face but also the human torso, but since the human torso is physically close to the face from the photographer, the face is in focus. By extracting the trunk from the image, the accuracy and efficiency of extraction can be improved. Normally, only the torso part is close to the face from the photographer around the person in the shot scene, so if the torso that is the in-focus subject is known, the region extracted as the face candidate The ratio of the background portion occupying the periphery can also be used for the consistency evaluation of face extraction.
Alternatively, the photographing magnification may be obtained from the focal length information, and the extracted magnification may be compared with the extracted size of the main part or the body that is focused, and used for the evaluation of the consistency of the face extraction.
Furthermore, it analyzes the shooting scenes such as close-up photography, portraits, landscape photographs, etc. from the focal length and shape of the focused subject, exposure control, sharpness enhancement and blurring for each subject according to the type of scene The image processing content in the image processing unit 42 may be controlled.
[0039]
In the above method, the method for extracting the main part is not particularly limited, and various known methods can be used.
For example, face extraction for extracting a region that is estimated to be human skin from the color / density and continuity of an image (pixel), or binarization of an image using a threshold value disclosed in Japanese Patent Laid-Open No. 8-184925. For example, the region extraction is performed by separating into a high concentration region and a low concentration region, and then the contour extraction of each region is performed, and this is used to extract the hair part, torso, face internal structure extraction (eye part extraction), A subject extraction method for performing background part extraction and the like is exemplified.
Other than these, for example, JP-A-4-346332, 4-346333, 4-346334, 5-100328, 5-158164, 5-165119, 5-165120 No. 6-67320, No. 6-160993, No. 6-160993, No. 6-160994, No. 6-160995, No. 8-122944, No. 9-80652, No. 9-101579, Various subject extraction methods disclosed in the publications of JP-A-9-138470 and JP-A-9-138471 are exemplified.
[0040]
As described above, the image (image data) processed by the image processing unit 42 or the
The
In a printer, for example, after a photosensitive material is cut into a predetermined length corresponding to a print, a backprint is recorded, and then three types of light beams of R exposure, G exposure, and B exposure according to the spectral sensitivity characteristics of the photosensitive material. Is modulated in accordance with the image data output from the
[0041]
The image processing method of the present invention has been described in detail above. However, the present invention is not limited to the above-described embodiments, and various improvements and modifications may be made without departing from the gist of the present invention. It is.
[0042]
【The invention's effect】
As described above in detail, according to the present invention, the main part can be correctly extracted while preventing erroneous extraction by using a multistage focus image obtained by photographing the same scene at different focal lengths.
[Brief description of the drawings]
FIG. 1 is a block diagram of a digital photo printer using an image processing method of the present invention.
FIG. 2 is a conceptual diagram for explaining image composition using a multistage focus image ;
FIGS. 3A and 3B are conceptual diagrams for explaining a method of extracting a main subject using a multistage focus image. FIGS.
[Explanation of symbols]
10 (Digital)
Claims (3)
各画像毎に合焦している被写体を抽出し、これらの各合焦被写体に注目して主要部の抽出を行い、前記シーンを撮影した画像(多段フォーカス画像)中の各画像における主要部の抽出結果の整合性から前記シーンの主要部を抽出することを特徴とする画像処理方法。Obtain image data of multiple images (multistage focus images) of the scene taken at different focal lengths.
A subject that is in focus for each image is extracted, the main part is extracted by paying attention to each focused subject, and the main part in each image in the image (multistage focus image) obtained by photographing the scene is extracted . An image processing method, wherein a main part of the scene is extracted from consistency of extraction results .
Priority Applications (1)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| JP06025998A JP3907816B2 (en) | 1998-03-12 | 1998-03-12 | Image processing method |
Applications Claiming Priority (1)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| JP06025998A JP3907816B2 (en) | 1998-03-12 | 1998-03-12 | Image processing method |
Publications (3)
| Publication Number | Publication Date |
|---|---|
| JPH11261797A JPH11261797A (en) | 1999-09-24 |
| JPH11261797A5 JPH11261797A5 (en) | 2005-04-07 |
| JP3907816B2 true JP3907816B2 (en) | 2007-04-18 |
Family
ID=13136998
Family Applications (1)
| Application Number | Title | Priority Date | Filing Date |
|---|---|---|---|
| JP06025998A Expired - Fee Related JP3907816B2 (en) | 1998-03-12 | 1998-03-12 | Image processing method |
Country Status (1)
| Country | Link |
|---|---|
| JP (1) | JP3907816B2 (en) |
Families Citing this family (20)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| US6538249B1 (en) | 1999-07-09 | 2003-03-25 | Hitachi, Ltd. | Image-formation apparatus using charged particle beams under various focus conditions |
| JP4620271B2 (en) * | 2000-03-14 | 2011-01-26 | 富士フイルム株式会社 | Image processing method |
| US7221395B2 (en) * | 2000-03-14 | 2007-05-22 | Fuji Photo Film Co., Ltd. | Digital camera and method for compositing images |
| JP4389371B2 (en) * | 2000-09-28 | 2009-12-24 | 株式会社ニコン | Image restoration apparatus and image restoration method |
| US6956612B2 (en) * | 2001-07-31 | 2005-10-18 | Hewlett-Packard Development Company, L.P. | User selectable focus regions in an image capturing device |
| JP4275344B2 (en) | 2002-01-22 | 2009-06-10 | 富士フイルム株式会社 | Imaging apparatus, imaging method, and program |
| JP4597063B2 (en) * | 2006-02-10 | 2010-12-15 | キヤノン株式会社 | Imaging apparatus and imaging method |
| JP4942221B2 (en) * | 2006-10-25 | 2012-05-30 | 国立大学法人東京工業大学 | High resolution virtual focal plane image generation method |
| JP2008199378A (en) * | 2007-02-14 | 2008-08-28 | Sony Corp | Imaging apparatus, imaging method, and program |
| JP2007213083A (en) * | 2007-03-15 | 2007-08-23 | Seiko Epson Corp | Image processing system, image processing method, image processing apparatus, and image processing program |
| KR101430471B1 (en) * | 2008-01-07 | 2014-08-18 | 엘지전자 주식회사 | Apparatus and Method for photographing an image |
| US8736751B2 (en) | 2008-08-26 | 2014-05-27 | Empire Technology Development Llc | Digital presenter for displaying image captured by camera with illumination system |
| JP5206421B2 (en) * | 2009-01-07 | 2013-06-12 | カシオ計算機株式会社 | Digital camera, photographing recording method, and photographing control program |
| JP5461896B2 (en) * | 2009-06-15 | 2014-04-02 | オリンパス株式会社 | Imaging system and imaging method |
| JP2011035643A (en) * | 2009-07-31 | 2011-02-17 | Fujifilm Corp | Multiple eye photography method and apparatus, and program |
| JP5822485B2 (en) * | 2011-02-25 | 2015-11-24 | キヤノン株式会社 | Image processing apparatus, image processing method, image processing system, SLO apparatus, and program |
| US8830378B2 (en) | 2011-03-29 | 2014-09-09 | Olympus Corporation | Image capturing system and image capturing method, involving image restoration processing |
| JP5892409B2 (en) * | 2011-09-30 | 2016-03-23 | 株式会社ニデック | Corneal endothelial cell imaging device |
| US20150116202A1 (en) * | 2012-03-07 | 2015-04-30 | Sony Corporation | Image processing device and method, and program |
| CN106550194A (en) * | 2016-12-26 | 2017-03-29 | 珠海格力电器股份有限公司 | Photographing method and device and mobile terminal |
-
1998
- 1998-03-12 JP JP06025998A patent/JP3907816B2/en not_active Expired - Fee Related
Also Published As
| Publication number | Publication date |
|---|---|
| JPH11261797A (en) | 1999-09-24 |
Similar Documents
| Publication | Publication Date | Title |
|---|---|---|
| JP3907816B2 (en) | Image processing method | |
| US7433089B2 (en) | Image processor | |
| US7289664B2 (en) | Method of detecting and correcting the red eye | |
| US7397969B2 (en) | Red eye compensation method, image processing apparatus and method for implementing the red eye compensation method, as well as printing method and printer | |
| US20030031375A1 (en) | Image processing method and apparatus | |
| JP3726223B2 (en) | Image processing device | |
| JPH09181913A (en) | Camera system | |
| JPH11239269A (en) | Image processing method | |
| JPH10233919A (en) | Image processor | |
| JP3576025B2 (en) | Main subject extraction method and apparatus | |
| JPH11289447A (en) | Picture processing method and picture processor | |
| JPH11177802A (en) | Image processor | |
| US7119923B1 (en) | Apparatus and method for image processing | |
| JP3549413B2 (en) | Image processing method and image processing apparatus | |
| JP3783817B2 (en) | Image processing method and image processing apparatus | |
| JP3964796B2 (en) | Red-eye detection and correction method | |
| JP2003189169A (en) | Image processing apparatus | |
| JP3576809B2 (en) | Image processing device | |
| JP2000069277A (en) | Image processing unit | |
| JP3862198B2 (en) | ID photo photographing apparatus, image processing apparatus and ID photo creating system | |
| JP3631370B2 (en) | Image processing method and image processing apparatus | |
| JP2001086332A (en) | Image processor | |
| JP4285868B2 (en) | Main subject extraction method, image processing apparatus, and imaging apparatus | |
| JP3625370B2 (en) | Image processing method and image processing apparatus | |
| JPH11308470A (en) | Print system |
Legal Events
| Date | Code | Title | Description |
|---|---|---|---|
| A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20040309 |
|
| A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20040528 |
|
| A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20051026 |
|
| A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20051108 |
|
| A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20060106 |
|
| A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20060131 |
|
| A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20060403 |
|
| A711 | Notification of change in applicant |
Free format text: JAPANESE INTERMEDIATE CODE: A712 Effective date: 20061215 |
|
| TRDD | Decision of grant or rejection written | ||
| A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20070109 |
|
| A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20070117 |
|
| R150 | Certificate of patent or registration of utility model |
Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
| FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20110126 Year of fee payment: 4 |
|
| FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20110126 Year of fee payment: 4 |
|
| FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20120126 Year of fee payment: 5 |
|
| FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20120126 Year of fee payment: 5 |
|
| FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20130126 Year of fee payment: 6 |
|
| FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20130126 Year of fee payment: 6 |
|
| FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20140126 Year of fee payment: 7 |
|
| R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
| R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
| R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
| R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
| LAPS | Cancellation because of no payment of annual fees |