[go: up one dir, main page]

JP3907816B2 - Image processing method - Google Patents

Image processing method Download PDF

Info

Publication number
JP3907816B2
JP3907816B2 JP06025998A JP6025998A JP3907816B2 JP 3907816 B2 JP3907816 B2 JP 3907816B2 JP 06025998 A JP06025998 A JP 06025998A JP 6025998 A JP6025998 A JP 6025998A JP 3907816 B2 JP3907816 B2 JP 3907816B2
Authority
JP
Japan
Prior art keywords
image
image data
focus
subject
extracted
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP06025998A
Other languages
Japanese (ja)
Other versions
JPH11261797A (en
JPH11261797A5 (en
Inventor
金城  直人
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fujifilm Corp
Original Assignee
Fujifilm Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fujifilm Corp filed Critical Fujifilm Corp
Priority to JP06025998A priority Critical patent/JP3907816B2/en
Publication of JPH11261797A publication Critical patent/JPH11261797A/en
Publication of JPH11261797A5 publication Critical patent/JPH11261797A5/ja
Application granted granted Critical
Publication of JP3907816B2 publication Critical patent/JP3907816B2/en
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Images

Landscapes

  • Studio Circuits (AREA)
  • Editing Of Facsimile Originals (AREA)
  • Studio Devices (AREA)

Description

【0001】
【発明の属する技術分野】
本発明は、多段フォーカス画像を利用した画像処理の技術分野に属する。
【0002】
【従来の技術】
現在、ネガフィルム、リバーサルフィルム等の写真フィルム(以下、フィルムとする)に撮影された画像の感光材料(印画紙)への焼き付けは、フィルムの画像を感光材料に投影して感光材料を面露光する、いわゆる直接露光(アナログ露光)が主流である。
【0003】
これに対し、近年では、デジタル露光を利用する焼付装置、すなわち、フィルムに記録された画像を光電的に読み取って、読み取った画像をデジタル信号とした後、種々の画像処理を施して記録用の画像データとし、この画像データに応じて変調した記録光によって感光材料を走査露光して画像(潜像)を記録し、(仕上り)プリントとするデジタルフォトプリンタが実用化された。
【0004】
デジタルフォトプリンタでは、画像をデジタルの画像データとして、画像データ処理によって焼付時の露光条件を決定することができるので、逆光やストロボ撮影等に起因する画像の飛びやツブレの補正、シャープネス(鮮鋭化)処理等を好適に行って、従来の直接露光では得られなかった高品位なプリントを得ることができる。また、画像の合成や分割、文字の合成等も画像データ処理で行うことができ、用途に応じて自由に編集/処理したプリントも出力可能である。
しかも、デジタルフォトプリンタによれば、画像をプリント(写真)として出力するのみならず、画像データをコンピュータ等に供給したり、フロッピーディスク等の記録媒体に保存しておくこともできるので、画像データを、写真以外の様々な用途に利用することができる。
さらに、デジタルフォトプリンタによれば、フィルムに撮影された画像以外にも、デジタルカメラやデジタルビデオカメラ等の撮像デバイスで撮影された画像(画像データ)も、プリントとして出力することができる。
【0005】
このようなデジタルフォトプリンタは、基本的に、フィルムに記録された画像を光電的に読み取るスキャナ(画像読取装置)、および読み取った画像を画像処理して出力用の画像データ(露光条件)とする画像処理装置を有する画像入力装置と、画像入力装置から出力された画像データに応じて感光材料を走査露光して潜像を記録するプリンタ(画像記録装置)、および露光済の感光材料に現像処理を施してプリントとするプロセサ(現像装置)を有する画像出力装置とを有して構成される。
【0006】
スキャナでは、光源から射出された読取光をフィルムに入射して、フィルムに撮影された画像を担持する投影光を得て、この投影光を結像レンズによってCCDセンサ等のイメージセンサに結像して光電変換することにより画像を読み取り、必要に応じて各種の画像処理を施した後に、フィルムの画像データ(画像データ信号)として画像処理装置に送る。
画像処理装置は、スキャナによって読み取られた画像データやデジタルカメラ等から供給された画像データに所定の画像処理を施し、画像記録のための出力画像データ(露光条件)としてプリンタに送る。
プリンタでは、例えば、光ビーム走査露光を利用する装置であれば、画像処理装置から送られた画像データに応じて光ビームを変調して、この光ビームを主走査方向に偏向すると共に、主走査方向と直交する副走査方向に感光材料を搬送することにより、画像を担持する光ビームによって感光材料を露光(焼付け)して潜像を形成し、次いで、プロセサにおいて感光材料に応じた現像処理等を施して、フィルムに撮影された画像が再生されたプリント(写真)とする。
【0007】
【発明が解決しようとする課題】
ところで、あるシーンを光学的に撮影する際には、そのシーンの中に存在する全ての物(被写体)に焦点を合わせることは不可能であり、撮影者(カメラ)からの距離によって、例えば、人物には焦点が合っているが、その背景となっている建造物には焦点が合っていない、あるいは、背景には焦点が合っているが、その手前の人物には焦点が合っていない等が生じる。
【0008】
本発明の目的は、同じシーンを異なる焦点距離で撮影した多段フォーカス画像およびデジタル画像処理を利用することにより、誤抽出を防止した画像の主要部抽出を行なうことができる画像処理方法を提供することにある。
【0009】
【課題を解決するための手段】
前記目的を達成するために、本発明に係る画像処理方法は、同シーンを異なる焦点距離で撮影した複数の画像(多段フォーカス画像)の画像データを得て、各画像毎に合焦している被写体を抽出し、これらの各合焦被写体に注目して主要部の抽出を行い、前記シーンを撮影した画像(多段フォーカス画像)中の各画像における主要部の抽出結果の整合性から前記シーンの主要部を抽出することを特徴とする。
【0010】
また、前記主要部が人物の顔であり、さらに人物の胴体抽出を行なって、その結果を前記主要部抽出に反映させるのが好ましく、さらに、画像中で指示された領域を用いて、前記異なる焦点距離で撮影した複数の画像の画像データを合成して、1つの画像の画像データを生成するのが好ましい。
【0011】
【発明の実施の形態】
以下、本発明の画像処理方法について、添付の図面に示される好適実施例を基に詳細に説明する。
【0012】
図1に、本発明の画像処理方法を利用するデジタルフォトプリンタの一例のブロック図が示される。
図1に示されるデジタルフォトプリンタ(以下、フォトプリンタ10とする)は、基本的に、フィルムFに撮影された画像を光電的に読み取るスキャナ(画像読取装置)12と、読み取られた画像データ(画像情報)の画像処理やフォトプリンタ10全体の操作および制御等を行う、本発明の画像処理方法を実施する画像処理装置14と、画像処理装置14から出力された画像データに応じて変調した光ビームで感光材料(印画紙)を画像露光し、現像処理して(仕上り)プリントとして出力するプリンタ16とを有して構成される。
また、画像処理装置14には、様々な条件の入力(設定)、処理の選択や指示、色/濃度補正などの指示等を入力するためのキーボード18aおよびマウス18bを有する操作系18と、スキャナ12で読み取られた画像、各種の操作指示、条件の設定/登録画面等を表示するディスプレイ20が接続される。
【0013】
スキャナ12は、フィルムF等に撮影された画像を1コマずつ光電的に読み取る装置で、光源22と、可変絞り24と、フィルムFに入射する読取光をフィルムFの面方向で均一にする拡散ボックス28と、結像レンズユニット32と、R(赤)、G(緑)およびB(青)の各画像読取に対応するラインCCDセンサを有するイメージセンサ34と、アンプ(増幅器)36と、A/D(アナログ/デジタル)変換器38とを有して構成される。
【0014】
また、フォトプリンタ10においては、新写真システム(Advanced Photo System)や135サイズのネガ(あるいはリバーサル)フィルム等のフィルムの種類やサイズ、ストリップスやスライド等のフィルムの形態等に応じて、スキャナ12の本体に装着自在な専用のキャリアが用意されており、キャリアを交換することにより、各種のフィルムや処理に対応することができる。フィルムに撮影され、プリント作成に供される画像(コマ)は、このキャリアによって所定の読取位置に搬送される。
このようなスキャナ12において、フィルムFに撮影された画像を読み取る際には、光源22から射出され、可変絞り24によって光量調整された読取光が、キャリアによって所定の読取位置に位置されたフィルムFに入射して、透過することにより、フィルムFに撮影された画像を担持する投影光を得る。
【0015】
図示例のスキャナ12は、スリット走査によってフィルムに撮影された画像を読み取るものであり、フィルムFは、キャリア30によって読取位置に位置されて長手方向(副走査方向)に搬送されつつ、読取光入射される。フィルムFを透過した投影光は、読取位置に配置された、前記副走査方向と直交する主走査方向に延在するスリットによって規制される。これにより、結果的にフィルムFが主走査方向に延在するスリットによって2次元的にスリット走査され、フィルムFに撮影された各コマの画像が読み取られる。
【0016】
読取光はキャリア30に保持されたフィルムFを透過して画像を担持する投影光となり、この投影光は、結像レンズユニット32によってイメージセンサ34の受光面に結像される。
イメージセンサ34は、R画像の読み取りを行うラインCCDセンサ、G画像の読み取りを行うラインCCDセンサ、B画像の読み取りを行うラインCCDセンサを有する、いわゆる3ラインのカラーCCDセンサで、各ラインCCDセンサは、主走査方向に延在している。フィルムFの投影光は、イメージセンサ34によって、R、GおよびBの3原色に分解されて光電的に読み取られる。
イメージセンサ34の出力信号は、アンプ36で増幅され、A/D変換器38でデジタル信号とされて、画像処理装置14に送られる。
【0017】
なお、本発明を利用するフォトプリンタ10において、スキャナは、このようなスリット走査によるものに限定はされず、1コマの画像の全面を一度に読み取る、面露光を利用するものであってもよい。
この場合には、例えば、エリアCCDセンサを用い、光源とフィルムFとの間に、R、GおよびBの各色フィルタの挿入手段を設け、色フィルタを挿入してエリアCCDセンサで画像を読み取ることを、R、GおよびBの各色フィルタで順次行い、フィルムに撮影された画像を3原色に分解して順次行う。
【0018】
また、本発明を利用するフォトプリンタ10においては、スキャナ12によって読み取ったフィルムFの画像以外にも、反射原稿の画像を読み取るスキャナ、デジタルカメラやデジタルビデオカメラ等の撮像デバイス、インターネット等のコンピュータ通信、フロッピーディスクやMOディスク(光磁気記録媒体)等の画像データ供給源Rから画像データを受け取って、これを再生したプリントを作成してもよい。
【0019】
前述のように、スキャナ12やデジタルカメラ等から出力されたデジタル信号は、画像処理装置14(以下、処理装置14とする)に出力される。
処理装置14は、データ処理部40、画像処理部42、および画像合成部42を有して構成される。
なお、処理装置14には、これ以外にも、処理装置14を含むフォトプリンタ10全体の制御や管理を行うCPU、フォトプリンタ10の作動等に必要な情報を記憶するメモリ等が配置され、また、操作系18やディスプレイ20は、このCPU等(CPUバス)を介して各部位に接続される。
【0020】
スキャナ12から出力されたR,GおよびBの各デジタル信号は、データ処理部40において、暗時補正、欠陥画素補正、シェーディング補正等の所定のデータ処理を施され、さらに、Log変換されて、デジタルの画像データ(濃度データ)とされる。また、画像データがデジタルカメラ等の画像データ供給源Rから供給された場合には、その画像データは、データ処理部40においてフォトプリンタ10に対応する画像データに変換され、必要な処理を施される。
【0021】
画像処理部42は、データ処理部40で処理されたデジタルの画像データに所定の画像処理を施し、さらに、画像処理済の画像データを3D(三次元)−LUT等を用いて変換して、プリンタ16による画像記録やディスプレイ22への表示に対応する画像データとする。
画像処理部42で施される画像処理には特に限定はなく、公知の各種の画像処理が例示されるが、例えば、LUT(ルックアップテーブル)を用いたグレイバランス調整、階調補正、および濃度調整、マトリクス(MTX)による撮影光源種補正や画像の彩度調整、その他、ローパスフィルタ、加算器、LUT、MTX等を用いた、また、これらを適宜組み合わせた平均化処理や補間演算等を用いた、電子変倍処理、覆い焼き処理(濃度ダイナミックレンジの圧縮/伸長)、シャープネス(鮮鋭化)処理等が例示される。
なお、画像処理部42での各種の処理条件は、例えば、出力用の画像データを得るための本読み(本スキャン)に先立って行われる、画像を粗に読み取るプレスキャンの画像データや、プリンタ16への出力用の画像データに対応する画像データを間引いた画像データを用いて設定すればよい。
【0022】
画像処理部42で処理された画像データは、画像合成を実施する場合には画像合成部44に、それ以外の場合には、プリンタ16やディスプレイ20に出力される。
【0023】
フォトプリンタ10において、本発明の画像処理方法を実施する際には、処理装置14には、フィルムFに画像を撮影するカメラやデジタルカメラ等の撮像デバイスで撮影された、同じシーンを異なる焦点距離で撮影した複数の画像、いわゆる多段フォーカス画像の画像データが送られる。
なお、本発明においては、スキャナ12での光電的な読み取りが不要であり、画像合成の際の位置合わせが容易である等の点で、デジタルカメラで撮影された多段フォーカス画像が好適である。
【0024】
また、画像を撮影するカメラには、自動的に焦点距離の異なる画像を複数枚撮影する多段フォーカスモードを設けてもよく、特に、デジタルカメラである場合には、多段フォーカス画像の一枚を基準画像として、その他の画像の画像データは基準画像との差分データとして出力してもよく、あるいはこの差分データを符号化して出力してもよい。
【0025】
本発明の画像処理方法を行う際には、処理装置14には、多段フォーカス画像の画像データ、例えば、図2に模式的に示されるように、焦点距離が近距離の画像データN1、焦点距離が中距離の画像データN2、および焦点距離が遠距離の画像データN3の、同シーンで焦点距離が異なる3種の画像データが供給され、画像合成を行なう場合には、データ処理部40および画像処理部42で前述の所定の処理を施された後、画像合成部44に供給される。
【0026】
画像合成部44は、供給された画像のそれぞれについて、空間周波数、微分フィルタ処理による鮮鋭度またはエッジ強度の定量化等を用いて、画像の鮮鋭度を画素単位で検出し、各画像ごとに、他の画像に比して最も鮮鋭度の高い(いわゆるエッジが立った)被写体、すなわち焦点距離の異なる各画像で焦点(ピント)のあっている被写体(あるいは領域)を抽出する。
図示例であれば、近距離焦点の画像データN1は花に、中距離焦点の画像データN2は人物に、遠距離焦点の画像データN3は背景の山に、それぞれ合焦しているので、各画像でこれらが抽出される。
【0027】
次いで、画像合成部44は、供給された着目すべき被写体(以下、着目被写体とする)の情報に応じて、少なくとも、着目被写体は合焦している画像の画像データを用いて、供給された多段フォーカス画像から、このシーンの1枚の画像を合成し、ディスプレイ20やプリンタ16に出力する。
図2に合成例を示すが、図2の画像aでは人物と花が、画像bは人物と山が、それぞれ着目被写体として指示され、共に、着目被写体は合焦して鮮鋭に再生され、それ以外の被写体はボケている。
【0028】
着目被写体は、顧客(プリント作成依頼者)の依頼等に応じて、オペレータがキーボード18aやマウス18b等を用いた公知の方法で入力すればよいが、好ましい方法として、着目被写体が合焦している画像の焦点距離で指示する方法が例示される。例えば、画像aのように着目被写体が人物と花である場合には、オペレータは、人物に合焦している画像データN2に対応する中距離焦点、および花に合焦している画像データN1に対応する近距離焦点を、着目被写体の情報として指示・入力すればよい。
なお、多段フォーカス画像の各画像データと焦点距離との対応付けは、オペレータが画像ごとに焦点距離(近距離、中距離、遠距離等)を入力してもよく、画像データがデジタルカメラ等の撮像デバイスによるものである場合には、画像ファイルのヘッダに焦点距離の情報を記録しておいてもよく、新写真システムのフィルムFによるものである場合には、フィルムに形成される磁気記録媒体に焦点距離の情報を記録して、これを読み取ってもよい。
【0029】
着目被写体の情報を入力する別の好ましい方法として、マウス18b等を用いて画像のある領域を切り出して、これを着目被写体の情報として指示する方法も例示される。
これらの手段は、併用してもよい。
【0030】
画像合成の方法には特に限定はなく、公知の複数画像(画像データ)の合成方法が各種利用可能ある。
例えば、着目被写体が合焦している1枚の画像を基準画像として、これに他の画像に撮影された合焦している着目被写体の画像(画像データ)を組み込む(置換する)方法が例示される。あるいは、前述のように、着目被写体が焦点距離で指示された場合には、同様の基準画像に、指示された焦点距離の画像で合焦している(最も鮮鋭な)被写体を、全て組み込めばよい。
【0031】
また、シーンの中に無関係な人物やゴミ等の不要な被写体があり、これが、合成した画像中で合焦してしまう場合には、例えば、マウス18b等を用いて不要な被写体(それを含む領域)を指示し、その部分は、多段フォーカス画像中の合焦していない画像を使用して、画像を合成してもよい。
さらに、画像合成の際には、作成された画像を自然な画像とするために、例えば、各被写体のエッジ部(端部)で画像データの重み付けを行って画像を合成して、各被写体の継ぎ目を円滑かつ自然な状態に仕上げてもよい。
【0032】
ここで、多段フォーカス画像は、同シーンであっても焦点距離が異なっているので、実際には、画像中の各被写体の大きさが若干に異なる。従って、画像を合成した際の画像ズレや、それに起因する画像の抜け等を防止するために、基準となる画像は、シーン中に合焦する着目被写体を有する、最も焦点距離の遠い画像を基準とするのが好ましい。
例えば、図2に示される例において、画像aに示されるように、着目被写体として人物と花が指示された場合には、人物が合焦している中距離焦点の画像(画像データN2)を基準画像として、近距離焦点の画像(画像データN1)の花あるいは合焦被写体を組み込む。また、画像bに示されるように、着目被写体として人物と山が指示された場合には、山が合焦している遠距離焦点の画像(画像データN3)を基準として、中距離焦点の画像(画像データN2)の人物あるいは合焦被写体を組み込む。
【0033】
また、多段フォーカス画像の各画像の最も鮮鋭な被写体から、シーン中の各被写体の撮影距離や被写体間の距離を画素単位で求め、この距離の情報を用いて、仮想的な両眼視画像を作成し、立体画像を作成してもよい。
【0034】
ところで、前述の画像処理部42では、必要に応じて画像の主要部(主要被写体)を抽出して、抽出した主要部に応じた画像処理を行うが、本発明においては、多段フォーカス画像が供給された際には、各画像ごとに抽出した合焦被写体(領域)の情報を画像の主要部抽出に利用する。
【0035】
例えば、図3(A)に示されるような画像において、主要部として人物の顔を抽出する際に、花が存在する領域の地面(背景)の色が肌色に近い場合には、従来の主要部抽出では、顔と共に、花を含む領域も顔として誤抽出してしまう場合がある。
【0036】
ここで、多段フォーカス画像の各画像における合焦被写体は、いずれも撮影者からの距離は近似している。また、多段フォーカス画像において、撮影者は、最も重要な被写体に合焦している画像を一枚は撮影するのが通常である。
本方法においては、多段フォーカス画像の各画像において、合焦している被写体に注目して主要部抽出を行い、抽出結果の整合性を見る。
写真では、複数の主要部が存在しても、各主要部の撮影者からの距離は、近似しているのが通常である。例えば、図3(B)に示されるような多段フォーカス画像の、各画像の合焦被写体から主要部となる顔を抽出した際に、主要部は3つの画像中の1つのみに存在するのが適正であり、焦点距離の異なる複数の画像から主要部が抽出された場合には、いずれかは誤抽出と判断できる。
従って、図3(B)に示されるように、中距離焦点の画像(画像データN2)と近距離焦点の画像(画像データN1)の両者から顔が抽出され、最も顔として適正と考えられる抽出部が中距離焦点の画像のものである場合には、近距離焦点の画像から抽出された主要部は不適であると判断でき、キャンセルすることができる。すなわち、主要部の誤抽出を防止できる。
【0037】
他の顔抽出判定方法として、全画面に顔抽出処理を適用した後、各抽出エリア内での画素別合焦距離の分布を調べ、整合性をチェックすることで誤抽出を低減できる。例えば、図3(A)における花と山を重ねて抽出したエリアについては、合焦距離が大きく異なるエリアに分割されるため、顔ではないと判定され、顔を抽出したエリアについては、合焦距離がほとんど等しく同一エリアとなるため、正しく顔と判定される。
または、所定の合焦距離範囲毎の画素集合により画面を分割し、その分割エリア毎に顔抽出処理を適用することで誤抽出を低減できる。例えば、図3(B)における多段フォーカス画像N1〜N3それぞれの合焦エリア毎に顔抽出処理を適用した場合、画像N2の合焦エリアのみで顔エリアが正しく抽出される。
【0038】
また、ポートレート等では、顔のみならず人物の胴体も適正に仕上げるのが好ましいが、人物の胴体は、物理的に、撮影者からの距離が顔と近いので、顔が合焦している画像から胴体を抽出することにより、抽出の精度および効率を向上することができる。また、通常は、撮影されたシーン中の人物周辺において、撮影者からの距離が顔と近いのは胴体部のみであるので、合焦被写体である胴体が分かれば、顔候補として抽出した領域の周辺に占める背景部の比率を、顔抽出の整合性評価に用いることもできる。
あるいは、焦点距離の情報から撮影倍率を得、これと抽出した合焦している主要部や胴体等のサイズとを比較して、顔抽出の整合性評価に用いてもよい。
さらに、合焦している被写体の焦点距離や形状から、近接撮影、ポートレート、風景写真等の撮影シーンを分析して、シーンの種類に応じて、露光制御、被写体毎のシャープネス強調やぼかし等、画像処理部42における画像処理内容を制御してもよい。
【0039】
なお、以上の方法において、主要部抽出の方法には特に限定はなく、公知の方法が各種利用可能である。
例えば、画像(画素)の色・濃度と連続性から人物の肌と推測される領域を抽出する顔抽出や、特開平8−184925号公報に開示される、画像を閾値を用いて2値化して、例えば高濃度領域と低濃度領域に分別して領域抽出を行い、次いで、各領域の輪郭抽出を行い、これを利用して頭髪部抽出、胴体抽出、顔内部構造抽出(眼部抽出)、背景部抽出等を行う被写体抽出方法が例示される。
さらに、これ以外にも、例えば、特開平4−346332号、同4−346333号、同4−346334号、同5−100328号、同5−158164号、同5−165119号、同5−165120号、同6−67320号、同6−160992号、同6−160993号、同6−160994号、同6−160995号、同8−122944号、同9−80652号、同9−101579号、同9−138470号、同9−138471号の各公報等に開示される、各種の被写体抽出方法が例示される。
【0040】
前述のように、画像処理部42、あるいはさらに画像合成部44で処理された画像(画像データ)は、ディスプレイ20やプリンタ16に出力される。
プリンタ16は、供給された画像データに応じて感光材料(印画紙)を露光して潜像を記録するプリンタ(焼付装置)と、露光済の感光材料に所定の処理を施してプリントとして出力するプロセサ(現像装置)とを有して構成される。
プリンタでは、例えば、感光材料をプリントに応じた所定長に切断した後に、バックプリントを記録し、次いで、感光材料の分光感度特性に応じたR露光、G露光およびB露光の3種の光ビームを処理装置14から出力された画像データに応じて変調して主走査方向に偏向すると共に、主走査方向と直交する副走査方向に感光材料を搬送することにより、前記光ビームで感光材料を2次元的に走査露光して潜像を記録し、プロセサに供給する。感光材料を受け取ったプロセサは、発色現像、漂白定着、水洗等の所定の湿式現像処理を行い、乾燥してプリントとし、フィルム1本分等の所定単位に仕分して集積する。
【0041】
以上、本発明の画像処理方法について詳細に説明したが、本発明は上記実施例に限定はされず、本発明の要旨を逸脱しない範囲において、各種の改良および変更を行ってもよいのはもちろんである。
【0042】
【発明の効果】
以上、詳細に説明したように、本発明によれば、同シーンを異なる焦点距離で撮影した多段フォーカス画像を利用して、誤抽出を防止して正しく主要部の抽出を行なうことができる。
【図面の簡単な説明】
【図1】 本発明の画像処理方法を利用するデジタルフォトプリンタのブロック図である。
【図2】 多段フォーカス画像を利用する画像合成を説明するための概念図である。
【図3】 (A)および(B)は、多段フォーカス画像を用いた主要被写体抽出の方法を説明するための概念図である。
【符号の説明】
10 (デジタル)フォトプリンタ
12 スキャナ
14 (画像)処理装置
16 プリンタ
18 操作系
20 ディスプレイ
22 光源
24 可変絞り
28 拡散ボックス
30 キャリア
32 結像レンズユニット
34 イメージセンサ
36 アンプ
38 A/D変換器
40 データ処理部
42 画像処理部
44 画像合成部
[0001]
BACKGROUND OF THE INVENTION
The present invention belongs to the technical field of image processing using multistage focus images.
[0002]
[Prior art]
Currently, printing of images taken on photographic films (hereinafter referred to as films) such as negative films and reversal films onto photosensitive materials (printing paper) is performed by projecting the film images onto photosensitive materials and exposing the photosensitive materials to surface exposure. The so-called direct exposure (analog exposure) is the mainstream.
[0003]
On the other hand, in recent years, a printing apparatus using digital exposure, that is, an image recorded on a film is photoelectrically read, and the read image is converted into a digital signal. A digital photo printer that uses image data, scans and exposes a photosensitive material with recording light modulated in accordance with the image data, records an image (latent image), and produces (finished) print has been put to practical use.
[0004]
In digital photo printers, the exposure conditions during printing can be determined by processing the image data as digital image data, so correction of image skipping and blurring caused by backlighting, flash photography, etc., sharpness (sharpening) ) Processing and the like can be suitably performed to obtain a high-quality print that could not be obtained by conventional direct exposure. In addition, image composition and division, character composition, and the like can be performed by image data processing, and prints that are freely edited / processed according to applications can be output.
Moreover, according to the digital photo printer, not only the image can be output as a print (photograph) but also the image data can be supplied to a computer or stored in a recording medium such as a floppy disk. Can be used for various purposes other than photography.
Furthermore, according to the digital photo printer, in addition to the image photographed on the film, an image (image data) photographed by an imaging device such as a digital camera or a digital video camera can be output as a print.
[0005]
Such a digital photo printer basically has a scanner (image reading device) that photoelectrically reads an image recorded on a film, and performs image processing on the read image to obtain output image data (exposure conditions). An image input device having an image processing device, a printer (image recording device) that scans and exposes a photosensitive material in accordance with image data output from the image input device and records a latent image, and develops the exposed photosensitive material And an image output device having a processor (developing device) for printing.
[0006]
In a scanner, reading light emitted from a light source is incident on a film to obtain projection light carrying an image photographed on the film, and this projection light is imaged on an image sensor such as a CCD sensor by an imaging lens. Then, the image is read by photoelectric conversion, subjected to various image processing as required, and then sent to the image processing apparatus as film image data (image data signal).
The image processing apparatus performs predetermined image processing on image data read by a scanner or image data supplied from a digital camera or the like, and sends it to a printer as output image data (exposure conditions) for image recording.
In a printer, for example, if the apparatus uses light beam scanning exposure, the light beam is modulated in accordance with image data sent from the image processing apparatus, and the light beam is deflected in the main scanning direction. The photosensitive material is conveyed in a sub-scanning direction perpendicular to the direction, and the photosensitive material is exposed (baked) by a light beam carrying an image to form a latent image, and then development processing or the like according to the photosensitive material in the processor And a print (photograph) in which an image photographed on the film is reproduced.
[0007]
[Problems to be solved by the invention]
By the way, when shooting a scene optically, it is impossible to focus on all objects (subjects) present in the scene, and depending on the distance from the photographer (camera), for example, The person is in focus but the background building is not in focus, or the background is in focus but the person in front is not in focus Occurs.
[0008]
An object of the present invention is to provide an image processing method capable of extracting a main part of an image in which erroneous extraction is prevented by using a multistage focus image obtained by photographing the same scene at different focal lengths and digital image processing. It is in.
[0009]
[Means for Solving the Problems]
In order to achieve the above object, an image processing method according to the present invention obtains image data of a plurality of images (multistage focus images) obtained by photographing the scene at different focal lengths, and focuses each image. The subject is extracted, the main part is extracted by paying attention to each of these focused subjects, and the consistency of the extraction result of the main part in each image in the image obtained by photographing the scene (multistage focus image) is extracted. The main part is extracted.
[0010]
In addition, the main part is a person's face, and it is preferable to further extract a person's torso and reflect the result in the main part extraction. It is preferable to generate image data of one image by combining image data of a plurality of images taken at the focal length .
[0011]
DETAILED DESCRIPTION OF THE INVENTION
Hereinafter, the image processing method of the present invention will be described in detail based on preferred embodiments shown in the accompanying drawings.
[0012]
FIG. 1 is a block diagram showing an example of a digital photo printer that uses the image processing method of the present invention.
A digital photo printer (hereinafter referred to as a photo printer 10) shown in FIG. 1 basically includes a scanner (image reading device) 12 that photoelectrically reads an image taken on a film F, and read image data ( An image processing apparatus 14 for performing the image processing method of the present invention, which performs image processing of the image information), operation and control of the entire photo printer 10, and light modulated in accordance with image data output from the image processing apparatus 14 And a printer 16 which exposes a photosensitive material (photographic paper) with a beam, develops it (finished), and outputs it as a print.
Further, the image processing apparatus 14 includes an operation system 18 having a keyboard 18a and a mouse 18b for inputting various settings (settings), processing selection and instructions, instructions for color / density correction, and the like, and a scanner. 12 is connected to a display 20 that displays the image read in step 12, various operation instructions, a condition setting / registration screen, and the like.
[0013]
The scanner 12 is a device that photoelectrically reads an image shot on the film F one frame at a time. The light source 22, the variable aperture 24, and diffusion that makes the reading light incident on the film F uniform in the surface direction of the film F. A box 28, an imaging lens unit 32, an image sensor 34 having a line CCD sensor corresponding to R (red), G (green) and B (blue) image reading, an amplifier 36, and A And a / D (analog / digital) converter 38.
[0014]
Further, in the photo printer 10, the scanner 12 is selected according to the type and size of a film such as a new photographic system (Advanced Photo System) and a 135 size negative (or reversal) film, and the form of a film such as strips and slides. A dedicated carrier that can be attached to the main body is prepared. By exchanging the carrier, various types of films and processing can be handled. Images (frames) photographed on a film and used for print creation are conveyed to a predetermined reading position by this carrier.
In such a scanner 12, when reading an image taken on the film F, the reading light emitted from the light source 22 and adjusted in light amount by the variable aperture 24 is positioned at a predetermined reading position by the carrier. The projection light that carries the image photographed on the film F is obtained by being incident and transmitted.
[0015]
The scanner 12 in the illustrated example reads an image photographed on a film by slit scanning. The film F is positioned at a reading position by a carrier 30 and is conveyed in the longitudinal direction (sub-scanning direction), while reading light is received. Incident. The projection light transmitted through the film F is regulated by a slit disposed in the reading position and extending in the main scanning direction orthogonal to the sub-scanning direction. As a result, the film F is two-dimensionally slit-scanned by the slit extending in the main scanning direction, and the image of each frame photographed on the film F is read.
[0016]
The reading light passes through the film F held on the carrier 30 and becomes projection light that carries an image. This projection light is imaged on the light receiving surface of the image sensor 34 by the imaging lens unit 32.
The image sensor 34 is a so-called three-line color CCD sensor having a line CCD sensor that reads an R image, a line CCD sensor that reads a G image, and a line CCD sensor that reads a B image. Extends in the main scanning direction. The projection light of the film F is separated into the three primary colors R, G and B by the image sensor 34 and is read photoelectrically.
The output signal of the image sensor 34 is amplified by the amplifier 36, converted into a digital signal by the A / D converter 38, and sent to the image processing device 14.
[0017]
In the photo printer 10 using the present invention, the scanner is not limited to the one using the slit scanning as described above, and may use a surface exposure that reads the entire surface of one frame image at a time. .
In this case, for example, an area CCD sensor is used, and means for inserting R, G, and B color filters are provided between the light source and the film F, and the image is read by the area CCD sensor by inserting the color filters. Are sequentially performed by the R, G, and B color filters, and the image photographed on the film is separated into three primary colors and sequentially performed.
[0018]
Further, in the photo printer 10 using the present invention, in addition to the image of the film F read by the scanner 12, a scanner that reads an image of a reflection original, an imaging device such as a digital camera or a digital video camera, and computer communication such as the Internet. Alternatively, image data may be received from an image data supply source R such as a floppy disk or an MO disk (magneto-optical recording medium), and a print may be created by reproducing the image data.
[0019]
As described above, the digital signal output from the scanner 12 or the digital camera is output to the image processing device 14 (hereinafter referred to as the processing device 14).
The processing device 14 includes a data processing unit 40, an image processing unit 42, and an image composition unit 42 .
In addition to this, the processing device 14 includes a CPU for controlling and managing the entire photo printer 10 including the processing device 14, a memory for storing information necessary for the operation of the photo printer 10, and the like. The operation system 18 and the display 20 are connected to each part via the CPU or the like (CPU bus).
[0020]
The R, G, and B digital signals output from the scanner 12 are subjected to predetermined data processing such as dark correction, defective pixel correction, shading correction, and the like in the data processing unit 40, and are further subjected to Log conversion. It is digital image data (density data). When the image data is supplied from an image data supply source R such as a digital camera, the image data is converted into image data corresponding to the photo printer 10 in the data processing unit 40 and subjected to necessary processing. The
[0021]
The image processing unit 42 performs predetermined image processing on the digital image data processed by the data processing unit 40, and further converts the image processed image data using a 3D (three-dimensional) -LUT or the like, The image data corresponds to image recording by the printer 16 and display on the display 22.
The image processing performed by the image processing unit 42 is not particularly limited, and various types of known image processing are exemplified. For example, gray balance adjustment using an LUT (lookup table), gradation correction, and density Adjustment, correction of shooting light source type by matrix (MTX), saturation adjustment of image, etc. In addition, use of low pass filter, adder, LUT, MTX, etc., and appropriate combination of these, averaging processing, interpolation calculation, etc. Electronic scaling processing, dodging processing (compression / expansion of density dynamic range), sharpness (sharpening) processing, etc. are exemplified.
The various processing conditions in the image processing unit 42 include, for example, pre-scan image data for roughly reading an image, which is performed prior to main reading (main scanning) for obtaining output image data, or the printer 16. Setting may be performed using image data obtained by thinning out image data corresponding to image data for output.
[0022]
The image data processed by the image processing unit 42 is output to the image combining unit 44 when image combining is performed, and to the printer 16 and the display 20 in other cases.
[0023]
In the photo printer 10, when the image processing method of the present invention is carried out, the processing device 14 has the same scene captured by an imaging device such as a camera or digital camera that captures an image on the film F at different focal lengths. A plurality of images photographed in Step 1, that is, image data of so-called multistage focus images are sent.
In the present invention, a multi-stage focus image photographed with a digital camera is suitable in that photoelectric reading by the scanner 12 is not required and alignment at the time of image composition is easy.
[0024]
In addition, a camera that captures images may be provided with a multi-stage focus mode that automatically captures a plurality of images with different focal lengths. In particular, in the case of a digital camera, one multi-focus image is used as a reference. As the image, image data of other images may be output as difference data from the reference image, or the difference data may be encoded and output.
[0025]
When the image processing method of the present invention is performed, the processing device 14 includes image data of a multistage focus image, for example, image data N1 having a short focal distance, as shown schematically in FIG. When image data N2 of medium distance and image data N3 of focal distance far away are supplied with three types of image data having different focal distances in the same scene, and the image synthesis is performed, the data processing unit 40 and the image data After the above-described predetermined processing is performed by the processing unit 42, it is supplied to the image composition unit 44.
[0026]
For each of the supplied images, the image composition unit 44 detects the sharpness of the image in units of pixels by using spatial frequency, quantification of the sharpness or edge strength by differential filter processing, and for each image, A subject having the highest sharpness (so-called edged) compared to other images, that is, a subject (or region) in focus in each image having a different focal length is extracted.
In the illustrated example, the near-focus image data N1 is focused on a flower, the mid-range focus image data N2 is focused on a person, and the far-focus image data N3 is focused on a background mountain. These are extracted in the image.
[0027]
Next, the image compositing unit 44 is supplied using image data of an image in which at least the target subject is in focus, according to the supplied information on the target subject (hereinafter referred to as the target subject). One image of this scene is synthesized from the multistage focus image and output to the display 20 or the printer 16.
FIG. 2 shows an example of composition. In the image a of FIG. 2, a person and a flower are indicated as the subject of interest, and in the image b, a person and a mountain are indicated as the subject of interest. Subjects other than are blurred.
[0028]
The subject of interest may be input by a known method using the keyboard 18a, mouse 18b, or the like according to the request of the customer (print creation requester) or the like. As a preferred method, the subject of interest is in focus. A method of instructing by the focal length of the existing image is exemplified. For example, when the subject of interest is a person and a flower as in the image a, the operator has a medium-range focus corresponding to the image data N2 focused on the person and the image data N1 focused on the flower. It is sufficient to instruct and input the short-distance focal point corresponding to as information on the subject of interest.
In addition, the correspondence between each image data of the multistage focus image and the focal length may be such that an operator may input a focal length (short distance, middle distance, long distance, etc.) for each image, and the image data may be a digital camera or the like. In the case of using an imaging device, information on the focal length may be recorded in the header of the image file. In the case of using the film F of the new photographic system, a magnetic recording medium formed on the film. The focal length information may be recorded and read.
[0029]
Another preferred method for inputting the information on the subject of interest is a method of cutting out a region of the image using the mouse 18b or the like and instructing this as information on the subject of interest.
These means may be used in combination.
[0030]
There are no particular limitations on the method of image synthesis, and various known methods for synthesizing a plurality of images (image data) can be used.
For example, a method of incorporating (replacing) an image (image data) of a focused subject focused on another image as a reference image with one image focused on the focused subject as an example. Is done. Alternatively, as described above, when the subject of interest is designated by the focal length, if all the subjects that are in focus at the designated focal length (the sharpest) are incorporated in the same reference image, Good.
[0031]
In addition, when there is an unnecessary subject such as an irrelevant person or dust in the scene, and this is in focus in the synthesized image, for example, an unnecessary subject (including it) is used by using the mouse 18b or the like. The area may be designated, and the image may be synthesized by using an unfocused image in the multistage focused image.
Further, when combining the images, for example, in order to make the created image a natural image, weighting of the image data is performed at the edge portion (end portion) of each subject, and the images are combined. The seam may be finished in a smooth and natural state.
[0032]
Here, since the focal lengths of the multistage focus images are different even in the same scene, the size of each subject in the image is actually slightly different. Therefore, in order to prevent image misalignment when images are merged, image omission due to the image shift, and the like, the reference image is based on the image with the farthest focal length that has the subject of interest focused in the scene. Is preferable.
For example, in the example shown in FIG. 2, when a person and a flower are instructed as the subject of interest as shown in the image a, a medium-focus image (image data N2) in which the person is focused is displayed. As a reference image, a short-focus image (image data N1) or a focused subject is incorporated. Further, as shown in the image b, when a person and a mountain are instructed as the subject of interest, a medium-distance focus image is used with reference to a long-distance focus image (image data N3) in which the mountain is in focus. A person of (image data N2) or a focused subject is incorporated.
[0033]
In addition, the shooting distance of each subject in the scene and the distance between the subjects are obtained in pixel units from the sharpest subjects in each image of the multistage focus image, and the virtual binocular image is obtained using this distance information. It is also possible to create a stereoscopic image.
[0034]
By the way, the image processing unit 42 described above extracts the main part (main subject) of the image as necessary, and performs image processing according to the extracted main part. In the present invention, a multistage focus image is supplied. When this is done, the information on the focused subject (region) extracted for each image is used to extract the main part of the image .
[0035]
For example, in the image shown in FIG. 3A, when extracting the face of a person as the main part, if the color of the ground (background) in the area where the flower exists is close to the skin color, In part extraction, an area including a flower may be erroneously extracted as a face together with the face.
[0036]
Here, all the in-focus subjects in each image of the multi-stage focus image have an approximate distance from the photographer. In a multi-focus image, the photographer usually takes one image focused on the most important subject.
In this method, in each image of the multistage focus image, the main part is extracted by paying attention to the focused subject, and the consistency of the extraction result is checked.
In a photograph, even if there are a plurality of main parts, the distance from the photographer of each main part is usually approximate. For example, when a face as a main part is extracted from a focused subject of each image of a multistage focus image as shown in FIG. 3B, the main part exists only in one of the three images. If the main part is extracted from a plurality of images having different focal lengths, it can be determined that any one is erroneous extraction.
Therefore, as shown in FIG. 3B, a face is extracted from both the medium-distance focus image (image data N2) and the short-distance focus image (image data N1). parts within the case is of medium-range focus image, the main part extracted from a short focal point of the image can be determined to be unsuitable positive, it can be canceled. That is, it is possible to prevent erroneous extraction of the main part.
[0037]
As another face extraction determination method, after applying the face extraction process to the entire screen, it is possible to reduce erroneous extraction by examining the distribution of the focal distance by pixel in each extraction area and checking the consistency. For example, the area extracted by overlapping flowers and mountains in FIG. 3A is divided into areas with greatly different focus distances, so it is determined that the area is not a face, and the area from which the face is extracted is focused. Since the distance is almost equal and the same area, the face is correctly determined.
Alternatively, erroneous extraction can be reduced by dividing the screen by a set of pixels for each predetermined focusing distance range and applying face extraction processing for each divided area. For example, when the face extraction process is applied to each of the focus areas of the multistage focus images N1 to N3 in FIG. 3B, the face area is correctly extracted only in the focus area of the image N2.
[0038]
In portraits and the like, it is preferable to properly finish not only the face but also the human torso, but since the human torso is physically close to the face from the photographer, the face is in focus. By extracting the trunk from the image, the accuracy and efficiency of extraction can be improved. Normally, only the torso part is close to the face from the photographer around the person in the shot scene, so if the torso that is the in-focus subject is known, the region extracted as the face candidate The ratio of the background portion occupying the periphery can also be used for the consistency evaluation of face extraction.
Alternatively, the photographing magnification may be obtained from the focal length information, and the extracted magnification may be compared with the extracted size of the main part or the body that is focused, and used for the evaluation of the consistency of the face extraction.
Furthermore, it analyzes the shooting scenes such as close-up photography, portraits, landscape photographs, etc. from the focal length and shape of the focused subject, exposure control, sharpness enhancement and blurring for each subject according to the type of scene The image processing content in the image processing unit 42 may be controlled.
[0039]
In the above method, the method for extracting the main part is not particularly limited, and various known methods can be used.
For example, face extraction for extracting a region that is estimated to be human skin from the color / density and continuity of an image (pixel), or binarization of an image using a threshold value disclosed in Japanese Patent Laid-Open No. 8-184925. For example, the region extraction is performed by separating into a high concentration region and a low concentration region, and then the contour extraction of each region is performed, and this is used to extract the hair part, torso, face internal structure extraction (eye part extraction), A subject extraction method for performing background part extraction and the like is exemplified.
Other than these, for example, JP-A-4-346332, 4-346333, 4-346334, 5-100328, 5-158164, 5-165119, 5-165120 No. 6-67320, No. 6-160993, No. 6-160993, No. 6-160994, No. 6-160995, No. 8-122944, No. 9-80652, No. 9-101579, Various subject extraction methods disclosed in the publications of JP-A-9-138470 and JP-A-9-138471 are exemplified.
[0040]
As described above, the image (image data) processed by the image processing unit 42 or the image combining unit 44 is output to the display 20 or the printer 16.
The printer 16 exposes the photosensitive material (printing paper) according to the supplied image data and records a latent image, and performs a predetermined process on the exposed photosensitive material and outputs it as a print. And a processor (developing device).
In a printer, for example, after a photosensitive material is cut into a predetermined length corresponding to a print, a backprint is recorded, and then three types of light beams of R exposure, G exposure, and B exposure according to the spectral sensitivity characteristics of the photosensitive material. Is modulated in accordance with the image data output from the processing device 14 and deflected in the main scanning direction, and the photosensitive material is transported in the sub-scanning direction orthogonal to the main scanning direction, so that the photosensitive material 2 A latent image is recorded by scanning exposure in dimension and supplied to the processor. The processor that has received the light-sensitive material is subjected to predetermined wet development processes such as color development, bleach-fixing, and water washing, and is then dried to be printed and sorted into predetermined units such as one film and collected.
[0041]
The image processing method of the present invention has been described in detail above. However, the present invention is not limited to the above-described embodiments, and various improvements and modifications may be made without departing from the gist of the present invention. It is.
[0042]
【The invention's effect】
As described above in detail, according to the present invention, the main part can be correctly extracted while preventing erroneous extraction by using a multistage focus image obtained by photographing the same scene at different focal lengths.
[Brief description of the drawings]
FIG. 1 is a block diagram of a digital photo printer using an image processing method of the present invention.
FIG. 2 is a conceptual diagram for explaining image composition using a multistage focus image ;
FIGS. 3A and 3B are conceptual diagrams for explaining a method of extracting a main subject using a multistage focus image. FIGS.
[Explanation of symbols]
10 (Digital) Photo Printer 12 Scanner 14 (Image) Processing Device 16 Printer 18 Operation System 20 Display 22 Light Source 24 Variable Aperture 28 Diffusion Box 30 Carrier 32 Imaging Lens Unit 34 Image Sensor 36 Amplifier 38 A / D Converter 40 Data Processing Unit 42 Image processing unit 44 Image composition unit

Claims (3)

同シーンを異なる焦点距離で撮影した複数の画像(多段フォーカス画像)の画像データを得て、
各画像毎に合焦している被写体を抽出し、これらの各合焦被写体に注目して主要部の抽出を行い、前記シーンを撮影した画像(多段フォーカス画像)中の各画像における主要部の抽出結果の整合性から前記シーンの主要部を抽出することを特徴とする画像処理方法。
Obtain image data of multiple images (multistage focus images) of the scene taken at different focal lengths.
A subject that is in focus for each image is extracted, the main part is extracted by paying attention to each focused subject, and the main part in each image in the image (multistage focus image) obtained by photographing the scene is extracted . An image processing method, wherein a main part of the scene is extracted from consistency of extraction results .
前記主要部が人物の顔であり、さらに人物の胴体抽出を行なって、その結果を前記主要部抽出に反映させる請求項1に記載の画像処理方法。The image processing method according to claim 1, wherein the main part is a person's face, and the body of the person is further extracted, and the result is reflected in the main part extraction. 画像中で指示された領域に応じて、前記異なる焦点距離で撮影した複数の画像の画像データを合成して、1つの画像の画像データを生成する請求項1または2に記載の画像処理方法。The image processing method according to claim 1 or 2, wherein image data of one image is generated by synthesizing image data of a plurality of images taken at different focal lengths in accordance with a region designated in the image.
JP06025998A 1998-03-12 1998-03-12 Image processing method Expired - Fee Related JP3907816B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP06025998A JP3907816B2 (en) 1998-03-12 1998-03-12 Image processing method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP06025998A JP3907816B2 (en) 1998-03-12 1998-03-12 Image processing method

Publications (3)

Publication Number Publication Date
JPH11261797A JPH11261797A (en) 1999-09-24
JPH11261797A5 JPH11261797A5 (en) 2005-04-07
JP3907816B2 true JP3907816B2 (en) 2007-04-18

Family

ID=13136998

Family Applications (1)

Application Number Title Priority Date Filing Date
JP06025998A Expired - Fee Related JP3907816B2 (en) 1998-03-12 1998-03-12 Image processing method

Country Status (1)

Country Link
JP (1) JP3907816B2 (en)

Families Citing this family (20)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6538249B1 (en) 1999-07-09 2003-03-25 Hitachi, Ltd. Image-formation apparatus using charged particle beams under various focus conditions
JP4620271B2 (en) * 2000-03-14 2011-01-26 富士フイルム株式会社 Image processing method
US7221395B2 (en) * 2000-03-14 2007-05-22 Fuji Photo Film Co., Ltd. Digital camera and method for compositing images
JP4389371B2 (en) * 2000-09-28 2009-12-24 株式会社ニコン Image restoration apparatus and image restoration method
US6956612B2 (en) * 2001-07-31 2005-10-18 Hewlett-Packard Development Company, L.P. User selectable focus regions in an image capturing device
JP4275344B2 (en) 2002-01-22 2009-06-10 富士フイルム株式会社 Imaging apparatus, imaging method, and program
JP4597063B2 (en) * 2006-02-10 2010-12-15 キヤノン株式会社 Imaging apparatus and imaging method
JP4942221B2 (en) * 2006-10-25 2012-05-30 国立大学法人東京工業大学 High resolution virtual focal plane image generation method
JP2008199378A (en) * 2007-02-14 2008-08-28 Sony Corp Imaging apparatus, imaging method, and program
JP2007213083A (en) * 2007-03-15 2007-08-23 Seiko Epson Corp Image processing system, image processing method, image processing apparatus, and image processing program
KR101430471B1 (en) * 2008-01-07 2014-08-18 엘지전자 주식회사 Apparatus and Method for photographing an image
US8736751B2 (en) 2008-08-26 2014-05-27 Empire Technology Development Llc Digital presenter for displaying image captured by camera with illumination system
JP5206421B2 (en) * 2009-01-07 2013-06-12 カシオ計算機株式会社 Digital camera, photographing recording method, and photographing control program
JP5461896B2 (en) * 2009-06-15 2014-04-02 オリンパス株式会社 Imaging system and imaging method
JP2011035643A (en) * 2009-07-31 2011-02-17 Fujifilm Corp Multiple eye photography method and apparatus, and program
JP5822485B2 (en) * 2011-02-25 2015-11-24 キヤノン株式会社 Image processing apparatus, image processing method, image processing system, SLO apparatus, and program
US8830378B2 (en) 2011-03-29 2014-09-09 Olympus Corporation Image capturing system and image capturing method, involving image restoration processing
JP5892409B2 (en) * 2011-09-30 2016-03-23 株式会社ニデック Corneal endothelial cell imaging device
US20150116202A1 (en) * 2012-03-07 2015-04-30 Sony Corporation Image processing device and method, and program
CN106550194A (en) * 2016-12-26 2017-03-29 珠海格力电器股份有限公司 Photographing method and device and mobile terminal

Also Published As

Publication number Publication date
JPH11261797A (en) 1999-09-24

Similar Documents

Publication Publication Date Title
JP3907816B2 (en) Image processing method
US7433089B2 (en) Image processor
US7289664B2 (en) Method of detecting and correcting the red eye
US7397969B2 (en) Red eye compensation method, image processing apparatus and method for implementing the red eye compensation method, as well as printing method and printer
US20030031375A1 (en) Image processing method and apparatus
JP3726223B2 (en) Image processing device
JPH09181913A (en) Camera system
JPH11239269A (en) Image processing method
JPH10233919A (en) Image processor
JP3576025B2 (en) Main subject extraction method and apparatus
JPH11289447A (en) Picture processing method and picture processor
JPH11177802A (en) Image processor
US7119923B1 (en) Apparatus and method for image processing
JP3549413B2 (en) Image processing method and image processing apparatus
JP3783817B2 (en) Image processing method and image processing apparatus
JP3964796B2 (en) Red-eye detection and correction method
JP2003189169A (en) Image processing apparatus
JP3576809B2 (en) Image processing device
JP2000069277A (en) Image processing unit
JP3862198B2 (en) ID photo photographing apparatus, image processing apparatus and ID photo creating system
JP3631370B2 (en) Image processing method and image processing apparatus
JP2001086332A (en) Image processor
JP4285868B2 (en) Main subject extraction method, image processing apparatus, and imaging apparatus
JP3625370B2 (en) Image processing method and image processing apparatus
JPH11308470A (en) Print system

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20040309

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20040528

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20051026

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20051108

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20060106

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20060131

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20060403

A711 Notification of change in applicant

Free format text: JAPANESE INTERMEDIATE CODE: A712

Effective date: 20061215

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20070109

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20070117

R150 Certificate of patent or registration of utility model

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20110126

Year of fee payment: 4

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20110126

Year of fee payment: 4

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120126

Year of fee payment: 5

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120126

Year of fee payment: 5

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130126

Year of fee payment: 6

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130126

Year of fee payment: 6

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20140126

Year of fee payment: 7

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

LAPS Cancellation because of no payment of annual fees