[go: up one dir, main page]

JP2004282686A - Imaging apparatus - Google Patents

Imaging apparatus Download PDF

Info

Publication number
JP2004282686A
JP2004282686A JP2003163430A JP2003163430A JP2004282686A JP 2004282686 A JP2004282686 A JP 2004282686A JP 2003163430 A JP2003163430 A JP 2003163430A JP 2003163430 A JP2003163430 A JP 2003163430A JP 2004282686 A JP2004282686 A JP 2004282686A
Authority
JP
Japan
Prior art keywords
image
dust
imaging device
correction
imaging
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2003163430A
Other languages
Japanese (ja)
Inventor
Tomonori Sato
友則 佐藤
Hiroaki Kubo
広明 久保
Mutsuhiro Yamanaka
睦裕 山中
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Minolta Co Ltd
Original Assignee
Minolta Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Minolta Co Ltd filed Critical Minolta Co Ltd
Priority to JP2003163430A priority Critical patent/JP2004282686A/en
Publication of JP2004282686A publication Critical patent/JP2004282686A/en
Pending legal-status Critical Current

Links

Images

Landscapes

  • Picture Signal Circuits (AREA)
  • Studio Devices (AREA)

Abstract

<P>PROBLEM TO BE SOLVED: To provide an imaging apparatus in which even a comparatively large foreign object can be appropriately corrected. <P>SOLUTION: In the imaging apparatus, a white image resulting from calibration photographing is divided into a plurality of small areas BK, and a dust present area BL including a portion PL wherein luminance is lowered by the influence of dust entering an image pickup part, is detected. An inverted image (image represented with the spatial distribution of gains) Gb is generated from an inverse of a source image Ga corresponding to the dust present area BL. The inverted image Gb and the source image Ga are multiplied to obtain an image Gc in which the influence of the dust is removed. Namely, a dust corrected portion table corresponding to the inverted image Gb is generated and the dust corrected portion table and the photographed image are multiplied to exclude the influence of the dust (foreign object) from the photographed image. As a result, even the comparatively large foreign object can be appropriately corrected. <P>COPYRIGHT: (C)2005,JPO&NCIPI

Description

【0001】
【発明の属する技術分野】
本発明は、撮像素子と撮像光学系とを含む撮像部を有する撮像装置に関する。
【0002】
【従来の技術】
従来のデジタルカメラにおいては、光学レンズ、光学LPF(Low Pass Filter)等にゴミ、チリ、ホコリ(これらを総称して「異物」という)が付着し、これが撮影画像に写り込んでしまって撮影画像の一部分に黒い斑点のようなものが生じる場合がある。
【0003】
ゴミ等が撮像光学系の内部に入り込んでしまう原因としては、工場における製造段階でのゴミ除去の不徹底によるものや、撮像光学系の内部におけるシャッタや絞りなどのメカ部材の磨耗によるもの、レンズ交換式一眼レフタイプのデジタルカメラにおけるレンズ交換時の封入によるものなどが挙げられる。
【0004】
これに関しては、特許文献1や特許文献2に、隣接画素に基づく補間によって異物を目立たなくする技術が開示されている。
【0005】
【特許文献1】
特開2000−312314号公報
【特許文献2】
特開2002−209147号公報
【0006】
【発明が解決しようとする課題】
しかしながら、特許文献1および特許文献2の技術では、ゴミがせいぜい1〜2画素の場合に有効な方法であるため、十数画素に及ぶゴミに対する適用は困難である。
【0007】
一方、ゴミ等はレンズ交換時に光学LPFに付着する場合が多く、この場合には一定の光の回込みがあるためゴミ等の影響で被写体像の情報が全く欠落するわけではない。
【0008】
本発明は、上記課題に鑑みてなされたものであり、比較的大きな異物に対しても適切な異物補正が行える撮像装置を提供することを目的とする。
【0009】
【課題を解決するための手段】
上記の課題を解決するため、請求項1の発明は、撮像素子と、前記撮像素子に被写体像を結像させる撮像光学系とを含む撮像部を有する撮像装置であって、(a)前記撮像素子で取得された画像信号に対して画像処理を行う画像処理手段と、(b)前記撮像部に存在する異物について、前記画像信号に対する前記異物の影響を表す異物情報を記憶する記憶手段とを備え、前記画像処理手段は、(a−1)前記異物情報に基づいて得られるデータ値との乗算処理を伴うデジタル処理により、前記画像信号に対して異物補正を行う異物補正手段、を有する。
【0010】
また、請求項2の発明は、請求項1の発明に係る撮像装置において、前記画像処理手段は、(a−2)乗算処理を行う乗算器と、(a−3)前記乗算器での乗算処理を伴うデジタル処理により、前記画像信号に対してシェーディング補正を行うシェーディング補正手段とを有し、前記異物補正は、前記乗算器または前記乗算器と同一タイプの別の乗算器を利用して行われる。
【0011】
また、請求項3の発明は、請求項1の発明に係る撮像装置において、前記異物補正手段は、前記乗算処理を行う乗算器と、前記異物情報を前記記憶手段から前記乗算器に転送するDMAコントローラとを有する。
【0012】
また、請求項4の発明は、請求項1ないし請求項3のいずれかの発明に係る撮像装置において、撮影前または撮影後に前記異物補正に係るキャリブレーションを行うためのキャリブレーションモードを有し、前記異物情報は、前記キャリブレーションで取得された情報に基づき生成される。
【0013】
また、請求項5の発明は、請求項4の発明に係る撮像装置において、前記異物情報は、前記キャリブレーションで前記撮像素子により取得された撮影画像の情報、または前記撮影画像に関する画素レベルの逆数の情報に基づき生成される。
【0014】
また、請求項6の発明は、請求項1ないし請求項5のいずれかの発明に係る撮像装置において、前記画像処理手段は、(a−4)前記撮像素子で取得した撮影画像を複数のブロックに分割し、ブロックごとに露出評価値を算出する算出手段を有し、前記異物情報は、前記ブロック単位で生成される。
【0015】
また、請求項7の発明は、請求項4または請求項5の発明に係る撮像装置において、前記キャリブレーションでは、無彩色のチャートを撮影する。
【0016】
また、請求項8の発明は、請求項4または請求項5の発明に係る撮像装置において、前記キャリブレーションでは、前記撮像光学系における複数の状態での異物情報を取得する。
【0017】
また、請求項9の発明は、請求項4または請求項5の発明に係る撮像装置において、前記キャリブレーションでは、撮影直前または撮影直後において、前記撮像光学系の状態を保持しつつ露出条件を変更して、前記異物情報を取得する。
【0018】
また、請求項10の発明は、請求項1ないし請求項9のいずれかの発明に係る撮像装置において、前記画像処理手段は、(a−5)前記画像信号に対するノイズ処理の度合いを変更可能なノイズ処理手段をさらに有し、前記ノイズ処理手段は、前記撮像素子で取得した撮影画像のうち前記異物の影響が現れる異物画像部分のノイズ処理の度合いを、前記異物画像部分を除く前記撮影画像と異ならせてノイズ低減処理を行うノイズ低減処理手段を有する。
【0019】
また、請求項11の発明は、請求項10の発明に係る撮像装置において、前記ノイズ低減処理手段は、前記異物補正手段による前記異物画像部分の異物補正の程度に応じた度合いで、ノイズ低減処理を行う手段を有する。
【0020】
また、請求項12の発明は、請求項10または請求項11の発明に係る撮像装置において、前記ノイズ低減処理手段は、前記異物画像部分における輝度変化の程度に応じた度合いで、ノイズ低減処理を行う手段を有する。
【0021】
また、請求項13の発明は、請求項12の発明に係る撮像装置において、(c)本撮影時に前記撮像素子で取得された撮影画像に基づき、前記輝度変化の度合いを検出する輝度変化検出手段をさらに備える。
【0022】
【発明の実施の形態】
<第1実施形態>
<撮像装置の要部構成>
図1は、本発明の第1実施形態に係る撮像装置1の機能ブロックを示す図である。
【0023】
撮像装置1は、デジタルカメラとして構成されており、撮像センサ11と、撮像センサ11に接続する信号処理部2と、信号処理部2に接続する画像処理部3と、カメラ制御部40とを備えている。
【0024】
撮像センサ11は、R(赤)、G(緑)、B(青)の原色透過フィルターが市松状に配列された単板の画素配列を有するエリア撮像センサとして構成されており、全画素読み出しタイプの撮像素子となっている。この撮像センサ11では、電荷の蓄積が完了すると光電変換された信号が遮光された転送路にシフトされ、ここからバッファを介して読み出されて、レンズ群13を含む撮像光学系により結像された被写体像に係る画像信号が出力される。また、撮像センサ11の前には、光学LPF12が設けられている。なお、撮像装置1の撮像部は、撮像センサ11と光学LPF12とレンズ群13とを含んで構成される。
【0025】
信号処理部2は、CDS21とAGC22とA/D変換部23とを有している。
【0026】
撮像センサ11から出力された画像信号は、CDS21でサンプリングされ撮像センサ11のノイズを除去した後、AGC22により感度補正が行われる。
【0027】
A/D変換部23は、14ビットAD変換器で構成されており、AGC22で正規化されたアナログ信号をデジタル化する。デジタル化された画像信号は、画像処理部3で所定の画像処理が施された画像ファイルが生成される。
【0028】
画像処理部3は、CPUおよびメモリを有しており、デジタル処理部3aと画像圧縮部37とビデオエンコーダー38とメモリカードドライバ39とを備えている。
【0029】
デジタル処理部3aは、カラーバランス評価用積算器30と画素補間部31と解像度変換部32とホワイトバランス制御部33とを有している。また、デジタル処理部3aは、シェーディング補正部34とゴミ補正部35とガンマ補正部36とを有している。
【0030】
画像処理部3に入力された画像データは、撮像センサ11の読出しに同期し、例えばSDRAMで構成される画像メモリ41に書込みまれる。以後、この画像メモリ41に格納される画像データにアクセスし、デジタル処理部3aで各種の処理が行われる。
【0031】
画像メモリ41上の画像データは、カラーバランス評価用積算器30によって、色毎(RGB)に小エリア毎の画素積算データが算出される。この小エリアとは、1画面を多分割した分割エリアのことである。このような小エリア内での画素値の積算を行うことにより平均処理を施すのと同等の効果が得られる。このカラーバランス評価用積算器30の演算結果を用いてRGB各画素のゲインデータが求められる。
【0032】
そして、ホワイトバランス制御部33によりRGB各画素が独立にゲイン補正されて、RGBのホワイトバランス補正が行われる。このホワイトバランス補正では、撮影被写体から本来白色と思われる部分を輝度、彩度データ等から推測しその部分のR、G、Bそれぞれの平均、G/R比、G/B比を求めて、このG/R比およびG/B比をR、Bの補正ゲインとして補正制御が行われる。
【0033】
ホワイトバランス補正が行われた画像データは、シェーディング補正部34で画素位置毎に異なるゲインがかかる、いわゆるシェーディング補正が行われる。不揮発性メモリ42には、あらかじめレンズ群13の光学性能より導き出した、各画素のゲインデータが記述されるシェーディング補正テーブルが保管されている。そして、シェーディング補正の際には、シェーディング補正部34において、不揮発性メモリ42から画像メモリ41に転送されたシェーディング補正テーブルと画像データとが乗算され補正が行われることとなる。このシェーディング補正については、後で詳述する。
【0034】
シェーディング補正後には、ゴミ補正部35でゴミ補正(異物補正)が行われる。不揮発性メモリ42には、あらかじめキャリブレーション(後述)によって導き出されたゴミ補正部分テーブルが保管されている。ゴミ補正の際には、シェーディング補正と同様に、不揮発性メモリ42から画像メモリ41に転送されたゴミ補正データと画像データとが乗算されて補正が行われることとなる。このゴミ補正については、後で詳述する。
【0035】
シェーディング補正およびゴミ補正が行われた画像データは、画素補間部31でRGB各画素をそれぞれのフィルターパターンでマスキングした後、高帯域まで画素を持つGについてはメディアン(中間値)フィルターで周辺4画素の中間2値の平均値に置換する。R、Bに関しては平均補間が行われる。
【0036】
補間された画像データにおけるRGBデータは、ガンマ補正部36で各出力機器に適合した非線形変換が行われた後、マトリクス演算によりRGBからY、R−Y、B−Yデータが算出されて画像メモリ41に格納される。
【0037】
そして、このY、R−Y、B−Yデータについては、水平垂直の縮小または間引きが行われ、解像度変換部32で記録画像の画素数に解像度変換が行われる。また、モニタ表示においても、解像度変換部32で間引きが行われ、LCDモニタ43、電子ビューファインダー44で表示するための低解像度画像を作成する。
【0038】
プレビュー(ライブビュー)時は、画像メモリ41から読み出された640*240画素の低解像度画像がビデオエンコーダー38でNTSC/PALにエンコードされ、これをフィールド画像として電子ファインダー44またはLCDモニタ43で画像再生を行う。また、画像記録時は、設定された記録用解像度の画像を画像圧縮部37により圧縮処理を行った後に、メモリーカードドライバー39によりメモリーカード9に圧縮画像が記録される。
【0039】
カメラ制御部40は、CPUおよびメモリを備え、シャッターボタンなどを有するカメラ操作スイッチ49に対して撮影者が行う操作入力を処理する。このカメラ操作スイッチ49への撮影者の操作入力により、キャリブレーションモード(後述)に設定できる。
【0040】
撮像装置1は、本撮影前に被写体を動画的態様でLCDモニタ43などに表示するライブビュー表示時には、シャッター45の光学絞り値が絞りドライバー46によって開放固定となる。また、撮像センサ11の電荷蓄積時間に関しては、撮像センサ11で取得した画像のうち選択された測光エリアで測光される光量データに基づき、カメラ制御部40で露出制御データが演算される。そして、カメラ制御部40で算出された露出制御データに基づいて予め設定されたプログラム線図により、タイミングジェネレーターセンサドライバー47で撮像センサ11の露光時間が適正となるようにフイードバック制御が行われる。
【0041】
また、撮像装置1では、本撮影時に、上記の測光された光量データに基づき予め設定されたプログラム線図により絞りドライバ46とタイミングジェネレーターセンサドライバー47で撮像センサ11ヘの露光量が制御される。
【0042】
<ゴミ補正の原理について>
交換レンズ式の一眼レフデジタルカメラでは、レンズ交換の際に撮像光学系の内部にゴミが入り込み、これが光学レンズや光学LPFに付着する場合には、撮像面にゴミが投影され、撮影画像にゴミの影が写り込んでしまう。その結果、撮影画像の特定部分が常に暗くなるという現象が生じる。
【0043】
また、デジタルカメラでは、撮像光学系の内部のメカ部材(絞り羽根、メカシャッタなど)が磨耗することによりチリが発生する場合や、工場における製造時にチリ、ホコリが入り込む場合にも、上記のゴミの場合と同様に、撮影画像の一部が暗くなるという現象が生じる。
【0044】
撮像装置1の撮像部に存在するゴミ等を除去するには、通常のレンズ固定型デジタルカメラでは、カメラを一旦分解して全ての撮像光学系部材の洗浄を行い、再度組立て直すという作業が必要となる。一方、レンズ交換式のデジタルカメラでも、ゴミを除去するには、特殊な機材が必要となる。
【0045】
そこで、シェーディング補正の特徴である「画素位置で異なるゲインをかけることができる」という性質を応用することにより、撮像光学系(レンズ、光学LPF(Low Pass Filter)等)に付着したゴミ、チリ、ホコリ等(異物)の影響で画像中の一部分が暗くなった撮影画像をデジタル的に補正(異物の影を除去)するゴミ補正を行うこととする。以下では、説明を簡潔にするため、異物の代表としてゴミを取り上げて説明する。
【0046】
図2は、ゴミ補正の原理を説明するための図である。
【0047】
例えば、図2(a)に示すように、画像を複数の小エリアBKにマトリクス状に分割する。この小エリアBKは、例えば水平40(画素)×垂直32(画素)の大きさである。なお、RAW画像データでの解析を考慮すると、水平、垂直ともに偶数の画素数であるのが好ましい。そして、分割された小エリアに基づき、ゴミの影響で輝度が低下する部分PLが存在するゴミ存在エリアBL(平行斜線部)を検出する。
【0048】
ここで、図2(b)に示すように、ゴミ存在エリアBLに対応する原画像Gaと、原画像Gaの各部分の画素レベルの逆数をとることによって生成した補正用画像Gbとを乗算することにより、ゴミの影響が除去された画像Gcを得ることができる。この補正用画像Gbは、原画像Gaの画素レベルの大小関係が反転していることから、以下ではこれを「反転画像Gb」と呼ぶが、通常の意味における「反転画像」、つまり各画素の各色成分がNビット表現されているとともに、原画像Gaの画素レベルxについての、Nビットに対する補数(2N−x)として定義される画像とは異なり、ゲインによって表現された「ゲイン逆転画像」である。このように、反転画像Gbをゲイン表現していることから、反転画像Gbの情報に基づきゴミ補正部分テーブルを生成し、この補正テーブルと、別途に撮影した撮影画像とを乗算することで撮影画像からゴミを消去できることとなる。このゴミ補正部分テーブルの生成を、以下で説明する。
【0049】
図3は、ゴミ補正部分テーブルの生成を説明するための図である。
【0050】
まず、図3(a)に示すように、小エリアBKに分割された画像データ(RAWデータ)から、ゴミ存在エリアBL(太枠部)を検出する。この画像データは、無彩色のチャート、例えば白チャート(白画像)を撮影するキャリブレーションを行うことによって取得される。
【0051】
ここで、ゴミ存在エリアBLにおける仮想線LIの位置での輝度分布を、図3(b)のように考える。この図3(b)の横軸については、図3(a)に示す仮想線LIに沿った水平方向の位置を示しており、縦軸については、輝度値を示している。
【0052】
次に、上記のゴミ存在エリアBLに対する輝度補正を行うため、図3(c)に示すゴミ補正データ(太線部)を生成する。この図3(c)の横軸については、図3(a)に示す仮想線LIに沿った水平方向の位置を示しており、縦軸については、ゲイン値を示している。このゴミ補正データの生成方法を以下で説明する。
【0053】
ゴミ存在エリアBLの周辺に存在する全ての小エリアBLから、RGB各色について画素値の平均値を求める。この平均値に対して、ゴミ存在エリアBL内の全画素による除算を行い、各画素のゲインを求める。この場合、ゲイン値が一定値、例えば等倍ラインKe以下である場合は、等倍とする。また、ゲイン値が上限ラインKuを超える場合には、上限ラインKuでクリップする。これにより、極端に大きいゲイン値を排除できる。
【0054】
図3(c)では、仮想線LI上の画素列に関するゴミ補正データを表しているが、これを二次元に拡張しゴミ存在エリアBL内の画素行列に関するゴミ補正データ(図2の反転画像Gbに相当するもの)を生成する。生成されたゴミ補正データは、ゴミ補正部分テーブルとして不揮発性メモリ42に保存される。このゴミ補正部分テーブルは、画像データ(画像信号)に対するゴミ(異物)の影響を表す異物情報を記憶する記憶手段として働く。
【0055】
<シェーディング補正およびゴミ補正について>
図4は、シェーディング補正およびゴミ補正を説明するための図である。
【0056】
画像メモリ41は、画像データ保存領域M1と、シェーディング補正テーブル保存領域M2と、ゴミ補正全体テーブルM3と、補正後画像データ保存領域M4とに領域分けされている。
【0057】
画像データ保存領域M1には、撮像センサ11で取得された画像データ(RAWデータ)が保存される。
【0058】
シェーディング補正テーブル保存領域M2には、ゲインデータとして構成されるシェーディング補正テーブルが保存されている。このゲインデータの並び(配列)と画像データの並びとの整合性をとる、つまり双方の画素を対応させることにより、各画素データに所定のゲインが乗算できる。すなわち、撮影画像において画像周辺にいくほど高ゲインとなるシェーディング補正テーブルである場合には、画像周辺にいくほど高ゲインを施すことが可能となる、つまりシェーディング補正を行えることとなる。
【0059】
ゴミ補正全体テーブル保存領域M3には、ゴミ全体補正テーブルが保存されている。このゴミ補正全体テーブルは、DMA(direct memory access)チャンネルを利用して転送するため、図3(c)に示すようなゲイン曲線(太線)Gn1で構成されるゴミ補正部分テーブルを全て統合したデータテーブルとなっている。すなわち、撮影画像に相当するデータ量を有するゴミ補正全体テーブルを等倍データ(ゲイン値が1のデータ)で埋めた後に、ゴミ補正全体テーブル保存領域M3においてゴミ存在エリアBLに相当するアドレスに、ゴミ補正部分テーブルを書き込むことによって、ゴミ補正全体テーブルを生成する。なお、ゴミ検出エリアが複数ある場合には、これらのエリアに対応した位置(アドレス)に各ゴミ補正部分テーブルを書き込み処理を行う。
【0060】
まず、シェーディング補正では、画像データとシェーディング補正データとを、それぞれ別のDMAチャンネル(DMAコントローラ)D1、D2により、画像データ保存領域M1およびシェーディング補正テーブル保存領域M2からシェーディング補正部34に転送する。そして、転送された画像データとシェーディング補正データとが、シェーディング補正部34内の乗算器34aにより、テジタル的に乗算処理されることでシェーディング補正が行われる。
【0061】
次に、ゴミ補正では、DMAチャンネルD3によってゴミ補正全体テーブル保存領域M3からゴミ補正データをゴミ補正部35に転送する。そして、転送されたゴミ補正データ(すなわち異物情報に基づいて得られるデータ値)と、シェーディング補正部34から出力されるシェーディング補正後の画像データとが、乗算器34aと同一タイプの乗算器35aにより、デジタル的に乗算処理されることでゴミ補正が行われる。
【0062】
最後に、ゴミ補正部35から出力されるシェーディング補正およびゴミ補正が施された画像データは、DMAチャンネルD4によって補正後画像データ保存領域M4に保存される。
【0063】
以上のように、撮像装置1では、撮影前または撮影後にキャリブレーション作業を行って取得したゴミの位置や濃度をゴミ補正データとしてカメラ内部に記憶させ、本撮影時に取得した撮影画像におけるゴミ存在エリアBLのゲインをデジタル的に上げることで、ゴミの影を除去することとなる。
【0064】
<撮像装置1の動作>
ゴミについては、次のようなの性質が挙げられる。
【0065】
▲1▼場所が移動する。短時間で動くことは無くても、長時間では同じ場所にとどまらない。
【0066】
▲2▼レンズ交換やメカ部材の磨耗などの原因でその数が増える。
【0067】
このように、ゴミは時間経過とともに変化する性質を有するため、定期的にゴミ補正に係るキャリブレーションを行うように撮影者に警告を発することが好ましい。このキャリブレーションに関する警告動作を以下で説明する。
【0068】
図5は、撮像装置1におけるキャリブレーションの警告動作を示すフローチャートである。この動作は、カメラ制御部40より実行される。
【0069】
撮像装置1を起動した後に、撮像装置1に内蔵されるタイマ(不図示)の計時をスタートする(ステップ1)。
【0070】
ステップS2では、キャリブレーションのタイミングであるかを判定する。このタイミングは、例えば、計時開始から一定時間が経過すると生じるように設定する。ここで、キャリブレーションのタイミングである場合には、ステップS3に進み、そうでない場合には、ステップS2を繰り返す。
【0071】
ステップS3では、LCDモニタ43にキャリブレーションを行う旨の警告表示を行う。
【0072】
ステップS4では、キャリブレーションが完了したかを判定する。ここで、キャリブレーションが完了している場合には、ステップS5に進み、完了してない場合には、ステップS3に戻る。
【0073】
ステップS5では、キャリブレーションが正常に終了したかを判定する。ここで、キャリブレーションが成功つまり正常終了した場合には、ステップS6に進み、キャリブレーションが失敗した場合には、ステップS3に戻る。
【0074】
ステップS6では、ステップS1でスタートした計時をリセットする。
【0075】
以上のキャリブレーションの警告動作により、適切に撮影者にキャリブレーションを実行させることができる。
【0076】
なお、実際にはレンズによって、また絞りや焦点距離、焦点位置によって微妙にゴミの位置が、光線の関係で変化する。このため、撮影の直前・直後においてキャリブレーションの警告を行うようにしても良い。
【0077】
以下では、撮像装置1におけるキャリブレーションを行うためのキャリブレーションモードにおける動作を説明する。
【0078】
図6は、キャリブレーションモードでの動作を示すフローチャートである。
【0079】
撮影者によるカメラ操作スイッチ49の操作によってキャリブレーションモードが設定されると、まず白画像(例えば白チャート)を撮影する旨をLCDモニタ43に表示して撮影者に警告する。
【0080】
そして、ズーム駆動および絞り駆動が行われる(ステップS11)。パワーズームレンズの場合には、周辺部分の光量落ちをゴミと誤検出しないように、光量落ちの一番目立たない撮像条件(焦点距離、絞りなどレンズの光学特性から割り出した条件)を自動的に設定し、この撮像条件に基づきレンズおよび絞りを駆動する。なお、手動ズームの場合にはズーム駆動を指示し、単焦点レンズの場合にはその焦点距離での撮影を指示する。
【0081】
次に、撮影者は白画像を撮影することとなるが、この撮影が終了したか否かを判定する(ステップS12)。ここでは、例えばシャッターボタンが撮影者により押下されたかを判断する。ここで、撮影が終了している場合には、ステップS13に進み、終了していない場合には、ステップS12を繰り返す。
【0082】
ステップS13では、撮影された画像が十分に明るいかを判定する。撮影された白画像データは、カラーバランス評価用積算器30で、色成分毎(RGB)に小エリア(ブロック)毎の画素積算データが算出されるが、この露出評価値に基づき明るいかを判断する。
【0083】
ここで、十分明るい場合には、ステップS14に進む。一方、全体が暗い場合には、キャリブレーションエラーとして一旦終了し、再びキャリブレーション撮影を行う旨を警告する。
【0084】
ステップS14では、RGBの輝度差が、予め定められた閾値以下であるかを判定する。この閾値は、ノイズレベルより判断し、余裕分を含めて定められる。ここで、RGBの輝度差が所定の閾値以下である場合には、ステップS15に進む。一方、所定の閾値を超える場合には、キャリブレーションエラーとして一旦終了し、再びキャリブレーション撮影を行う旨を警告する。
【0085】
以上のステップS13およびステップS14の動作により、撮影画像がゴミ補正部分テーブルを作成できる画像かどうかの判断を行える。すなわち、画像中心部分のゴミ検出対象エリアについて、各小エリアのRGBの評価値が一定値以上でかつ、ほぼ等しいという条件を満足する画像が取得されたかの判断が可能となる。
【0086】
次に、撮影画像が白画像(グレー画像)と判定されると、小エリア毎の解析を行う(ステップS15)。
【0087】
ここでは、全ての小エリアについて、例えばG画素に関する画素積算データの平均値を求め、この平均値より輝度が一定値以上低くて暗い小エリアが存在する場合には、この小エリアをゴミ存在エリアとして検出する。ただし、画像の周辺部分については、光学レンズによる周辺光量落ちの可能性もあるため、検出エリアは光学性能を考慮して光量落ちの小さい部分(例えば画像の中心部分)のみに限定する。
【0088】
ステップS16では、ゴミ補正部35で上述したゴミ補正部分テーブルを作成する。
【0089】
ステップS17では、ステップS16で作成されたゴミ補正部分テーブルを、不揮発性メモリ42に保存する。
【0090】
ステップS18では、キャリブレーションの正常終了フラグをセットする。この正常フラグにより、図5のフローチャートに示すステップS5の判定動作が行える。
【0091】
以上の撮像装置1の動作により、キャリブレーション撮影で取得した画像データに基づきゴミ補正部分テーブルを生成し、これに基づくゴミ補正を行うため、比較的大きな異物に対しても適切な異物補正が行える。
【0092】
すなわち、従来は異物が写りこんでいるために不良品として処理されたデジタルカメラが良品として出荷可能となる。また、レンズ交換式の一眼レフデジタルカメラにおいてレンズ交換時にゴミが入り込み、従来では特殊な機材を用いてゴミ除去作業を行う必要がある場合でも、この作業の手間が省ける。さらに、デジタルカメラを長期間使い込み、撮像光学系内部のメカ機材の磨耗で発生したカスが光学系に付着した場合などでも、カメラ自身がゴミ補正を行えるため、良好な撮影画像を得られることとなる。
【0093】
また、シェーディング補正と同様に、乗算器とDMAコントローラとを用いたデジタル処理により異物補正を行うため、簡易な構成で精度の高い補正が可能となる。
【0094】
なお、以上の撮像装置1においては、ゴミ補正データをゴミ補正部35に転送するのに1つのDMAチャンネルD3(図4参照)のみを使用していたが、複数のDMAチャンネルを利用しても良い。
【0095】
図7は、複数のDMAチャンネルを利用したゴミ補正を説明するための図である。
【0096】
画像メモリ41は、図4と同様の構成を有する画像データ保存領域M1と、シェーディング補正テーブル保存領域M2と、補正後画像データ保存領域M4とを有している。
【0097】
また、画像メモリ41は、ゴミ補正全体テーブル保存領域M3(図4)と異なり、4つのテーブル保存領域、すなわちゴミ補正部分テーブル1保存領域M31と、ゴミ補正部分テーブル2保存領域M32と、ゴミ補正部分テーブル3保存領域M33と、ゴミ補正部分テーブル4保存領域M34とを有している。
【0098】
これらのゴミ補正部分テーブル保存領域M31〜34それぞれには、図3(c)に示すようなゲイン値で構成されるゴミ存在エリアBLに対応するゴミ補正部分テーブルが格納されている。ただし、DMAチャンネルの制約などからゴミ補正の個数に制限があるため、位置、大きさ等を考慮してゴミ補正すべきものを選別するのが好ましい。
【0099】
そして、DMAチャンネルD31〜34によって各ゴミ補正部分テーブル保存領域M31〜34からゴミ補正データをゴミ補正部35に転送する。そして、転送されたゴミ補正データと、シェーディング補正部34から出力されたシェーディング補正後の画像データとは、図4の場合と同様に、ゴミ補正部35内の乗算器35aにより、乗算されることでゴミ補正が行われる。この場合、各DMAチャンネルD31〜34では、データ転送の開始タイミングおよび終了タイミングとゴミ補正データの量とをゴミ存在エリアBLのデータに基づき算出し、DMA設定が行われる。
【0100】
以上のように、複数のDMAチャンネルを利用したゴミ補正によっても、比較的大きな異物に対しても適切な異物補正が行えることとなる。
【0101】
<第2実施形態>
<撮像装置の要部構成>
図8は、本発明の第2実施形態に係る撮像装置5の機能ブロックを示す図である。
【0102】
第2実施形態の撮像装置5については、第1実施形態の撮像装置1と類似の構成を有しているが、ノイズ低減処理器51が追加されている点が主に異なっている。このノイズ低減処理器51について、以下で説明する。
【0103】
図9は、ノイズ低減処理器51を説明するための図である。
【0104】
ノイズ低減処理器51には、ガンマ補正部36で非線形変換された後にマトリクス演算により算出されたY、R−Y、B−Yデータが入力され、この画像データの中に含まれる微小なノイズ成分を低減する処理が行われる。そして、ノイズ低減処理器51でノイズ低減されたY、R−Y、B−Yデータが画像メモリ41に格納され、解像度変換部32に入力された後に、第1実施形態と同様の処理が行われる。
【0105】
ノイズ低減処理器51は、LPF(Low Pass Filter)部511と、HPF(High Pass Filter)部と、コアリング処理部513と、乗算器514と、加算器515とを備えており、画像データに対してノイズ低減処理のレベル(度合い)の変更が可能となっている。
【0106】
LPF部511は、例えば5×5のデジタルフィルタとして構成されており、その係数や次数を変えることにより、ダイナミックにノイズの低減量を変更することが可能となっている。例えばSDRAMで構成される画像メモリ41内のノイズ低減テーブル41aにLPF部511で使用する複数のフィルタ係数を予め記憶しておき、DMAチャンネルD5によって各画素で用いるフィルタパターンを規則正しく並べたデータテーブルをLPF部511に送ることで、フィルタ係数を画素ごとに切り替えることができる。
【0107】
HPF部512は、例えば5×5のデジタルフィルタとして構成されている。
【0108】
コアリング処理部513は、図10に示すような入出力特性を有している。すなわち、閾値(−Th)〜0〜閾値Thの入力については「0」に固定されて出力されるとともに、閾値(−Th)以下の入力は(入力値+Th)の出力を行い、閾値Th以上の入力は(入力値−Th)の出力を行うことで、ノイズ低減を図かる。そして、この閾値Thを変更することにより、ダイナミックにノイズ低減量を変えることができる。具体的には、画像メモリ41内のノイズ低減テーブル41aにコアリング処理部513で使用する複数の閾値を予め記憶しておき、DMAチャンネルD5によって各画素で用いる閾値を順序正しく並べたデータテーブルをLFP部511に送ることで、閾値を画素ごとに切り替えられることとなる。
【0109】
乗算器514は、Y信号(輝度信号)の高周波成分に含まれるノイズ成分を抑えるための部位として構成されており、Y信号についてのゲインを制御することでダイナミックにノイズの低減量を変更することが可能となっている。例えば、画像メモリ41内のノイズ低減テーブル41aに乗算器514で使用する複数のゲインデータを予め記憶しておき、DMAチャンネルD5によって各画素で用いるゲインデータを規則正しく並べたデータテーブルを乗算器514に送ることで、Yデータの高周波成分のゲインを画素ごとに切り替えることができる。
【0110】
加算器515は、LPF部511で処理されたYデータと、乗算器514から出力されたYデータとを加算する。この加算器515で加算されたYデータは、DMAチャンネルD6によって画像メモリ41内のYデータ記憶部41bに記憶されることとなる。
【0111】
以上のノイズ低減処理器51によって、撮影画像内における特定部分(特定画素)のノイズ低減量を、周辺部分(周辺画素)に比べて強弱をつけることが可能となる。
【0112】
一方、撮像装置5では、第1実施形態で説明したようにキャリブレーションにより検出されたゴミ存在エリアBL(図3(a))にゲインを乗じることでゴミ補正が行われるが、このゴミ存在エリアBLについてはノイズも局所的に増大される。よって、ゴミ補正は適切に行えるものの、ゴミ補正によるゴミ消去跡が目立ってしまい、部分的に見苦しい画像が生成される場合がある。
【0113】
そこで、このような場合には、ノイズ低減処理器51によって、ゴミ存在エリアBLに対するノイズ低減量を、ゴミ検出エリアBL以外の他の画像部分に比べて強めに設定する。これにより、ゴミ存在エリアBLに対して効果的なノイズ低減を行えることとなる。
【0114】
しかしながら、ゴミ存在エリアBL内に高周波画像が存在する場合には、ノイズ低減処理器51のノイズ低減量を大きくすることにより、ゴミ検出エリアBL内の画像がなまるため、解像度が部分的に低く見苦しい画像が生成されることとなる。具体的には、図11(a)に示すようにゴミの影響により輝度が低下する部分PMを含むゴミ検出エリアBLに高周波成分(4本線で図示)HGが存在する場合に、上述したゴミ補正および高周波ノイズの低減処理を行うことで、図11(b)に示すゴミ存在エリアBLのように高周波成分HGがぼけて画像の品質が低下する。
【0115】
そこで、第2実施形態の撮像装置5では、キャリブレーションにより検出されたゴミ存在エリアBLに関する情報に基づき、ゴミ存在エリアBLに対応する撮影画像の部分にどのような画像が存在するのか、特に周波数成分についての評価値を算出する。そして、この評価値に基づくノイズ低減処理を施すことにより、ゴミ補正が施された自然な画像を生成することとする。撮像装置5の動作を、以下で詳しく説明する。
【0116】
<撮像装置5の動作>
まず、撮像装置5では、ゴミ検出箇所の周波数成分を検知するための評価値を求める。この評価値としては、例えばソベルフィルタ(Sobel Filter)の出力値が利用できるが、これについて以下で説明する。
【0117】
図12は、ソベルフィルタを利用した評価値の算出を説明するための図である。
【0118】
撮像装置5の不揮発性メモリ42には、上下対称、左右対称および斜め左右対称な係数が割り振られたマトリクスで構成される4つのソベルフィルタF1〜F4(ソベルフィルタ群FG)が記憶されている。そして、各ソベルフィルタF1〜F4の出力値は、加算器ADで合計され線分評価値として出力される。このような構成により、4つのソベルフィルタF1〜F4のうち線分の方向と合致するマトリクスを有するフィルタからの出力値が大きくなるため、ソベルフィルタF1〜F4の出力値の総和である線分評価値の大きさを判断すれば、線分の検出、つまり高周波成分の検出を行える。すなわち、ソベルフィルタ群FGおよび加算器ADは、本撮影時に撮像センサ11で取得された画像信号に基づき、画像信号における輝度変化の度合いを検出する輝度変化検出手段として機能することとなる。
【0119】
ここで、キャリブレーションで得られたゴミ検出箇所については、不揮発性メモリ42内に保存されているため、このゴミ存在エリアBL(図3(a))に対応する撮影画像の部分についてソベルフィルタF1〜F4の出力を求めることで、ゴミ補正箇所に高周波画像があるか否かを判断できる。
【0120】
次に、撮像装置5では、ソベルフィルタ群FGにより算出された評価値に基づきノイズ低減処理を行うが、この撮像装置5の一連の動作を以下で説明する。
【0121】
まず、第1実施形態と同様にキャリブレーションを行った後に、公知の撮影シーケンスによる被写体の撮影を行う。そして、撮影されたRAW画像データを画像メモリ41内の画像データ保存領域M1に保存(バッファリング)した後に、画素補間部31で画素補間が行われる。
【0122】
次に、画素補間が行われた画像データに対して、上述したソベルフィルタ群FGによって線分評価値(評価値)を算出し、線分検出を行う。具体的には、不揮発性メモリ42に保存されたゴミ存在エリアBLに関する情報に基づき、ゴミ位置に対応する撮影画像部分についてソベルフィルタ群FGおよび加算器ADにより線分評価値を算出する。この算出については、ゴミの影響が及ぶ範囲内で行うのが好ましい。
【0123】
そして、算出された線分評価値を、ゴミ補正の対象となるゴミ存在エリアBLの面積で除算して、単位面積当たりの平均評価値を算出する。この平均評価値が予め定められた基準値αと比べて大きい場合には、高周波成分が存在すると判断し、ノイズ低減処理器51でのノイズ低減処理を抑えるようにノイズ低減量を低下する設定を行う。一方、平均評価値が基準値α以下となる場合には、高周波成分が存在しない、のっぺりとした画像であると判断し、ノイズ低減処理器51でのノイズ低減処理を十分かけるようにノイズ低減量を上昇する設定を行う。これらの場合には、図9のノイズ低減テーブル41aに記憶されるノイズ低減補正用のデータテーブル(パラメータ)が、上記の平均評価値に応じて切替える処理が行われる。すなわち、撮像センサ11で取得した撮影画像のうちゴミ(異物)の影響が現れるゴミ存在エリアBLの異物画像部分のノイズ処理の度合い(レベル)を、異物画像部分を除く撮影画像と異ならせて、つまり異物画像部分の輝度変化の程度に応じた度合いでノイズ低減処理を行う。
【0124】
以上のようにゴミ存在エリアBLについてのノイズ低減量を設定した後、再びRAW画像データに対し、第1実施形態と同様に画素補間、ガンマ補正、Y、R−Y、B−Yデータに変換するYCC画像変換およびゴミ補正を行った後に、ノイズ低減処理器51によって高周波成分に応じた適切なノイズ低減処理を施し、ゴミ補正が施されたYCC画像を生成する。
【0125】
以上で説明した撮像装置5の動作により、第1実施形態と同様の効果を奏するとともに、ゴミ補正箇所に高周波成分が存在するか否かを判断してノイズ低減処理を行うため、ゴミ補正がされた高品質な画像を生成できる。すなわち、第1実施形態のようにゴミ補正を行った場合には、ゴミ補正された画像部分だけ極端にノイズが増大する画像が作成される場合があるが、第2実施形態においては、ゴミ補正を行いつつも、補正跡のノイズが目立たず、また補正箇所に高周波成分がある場合でも、その高周波成分がノイズ低減処理によってなまることなく自然な画像が得られることとなる。
【0126】
なお、高周波成分を検出するためにソベルフィルタを使用するのは必須でなく、AF評価値に利用されるコントラスト演算器の出力値であるAF評価用コントラスト値を使用するようにしても良い。
【0127】
図13は、AF評価用コントラスト値に基づく評価値を説明するための図である。
【0128】
水平コントラスト演算器においては、注目画素自らの輝度値と、これから水平方向に一定画素離れた同色画素の輝度値との差(|G−G|)を、一定の大きさを有する積算領域Etについて積算することでコントラスト値を算出する。このコントラスト値は、AF動作で合焦状態が近づくにつれて大きくなる特性があるため、AFの評価値として利用できる。なお、積算領域Et内に高周波成分などの特徴点が存在しない場合には、コントラスト値は小さな値となる。
【0129】
このコントラスト演算器で撮影画像を処理することで、画像内の特定部分に特徴点が存在するか否かを判定できることとなる。よって、ゴミ存在エリアBLについてコントラスト値を算出すれば、このゴミ存在エリアBLについて特徴点(高周波成分)があるか否かが判断できる。
【0130】
すなわち、キャリブレーションで得られたゴミ存在エリアBLの情報は不揮発性メモリ42内に保存されているため、このゴミ存在エリアBLに対応する撮影画像の部分についてAF評価用コントラスト値を算出することで、ゴミ補正エリアBLの画像部分に特徴点があるかを判断できることとなる。
【0131】
なお、本撮影前においては、ゴミ補正すべき位置・範囲は検知されているため、AF評価用コントラスト値の積算領域Et(図13)を設定した後でRAW画像をバッファリングする前に、コントラスト演算器においてAF評価用コントラスト値を算出しても良い。ソベルフィルタの場合には画素補間後の使用に制限されてしまうが、AF評価用コントラスト値の場合にはRAW画像に対しても支障なく使用できるため、RAW画像がバッファリングされるまでにAF評価用コントラスト値の算出が終了していれば、その後の処理はソベルフィルタの場合と同様になる。
【0132】
また、撮像装置5においては、本撮像時に取得された画像に限らず、本撮影直前のライブビュー画像に基づきノイズ低減処理の評価値を算出しても良い。この場合、撮影直前のライブビュー画像と、撮影された本画像とは完全に一致することが少ないため、ゴミ存在エリアBLを含む面積の広い画像判定領域を設定するのが好ましい。
【0133】
また、撮影画像においては、ゴミが存在する部分に高周波成分が存在する場合には、一般的にゴミそのものが目立たなくなるが、一方、高周波成分がなくて、のっぺらとした部分ではゴミは目立つ性質がある。
【0134】
そこで、ゴミ存在エリアBLにおける画像の状態、つまり高周波成分の有無を検出し、高周波成分が検出されない場合には、ゴミ補正を行って通常レベルのノイズ低減処理を行う。逆に、高周波成分が検出された場合には、図3(a)に対応する図14のゲイン曲線(太線)Gn2に示すように、図3(a)に示すゲイン曲線Gn1に比べゴミ補正のゲインそのものを低めに抑えてノイズの増大を小さくするとともに、通常レベルのノイズ低減処理を施す。
【0135】
以上のような処理を行うことで、図9に示すノイズ低減処理器51のように画像の部分ごとに異なるノイズ低減処理を行える回路を備えなくても、違和感のないゴミ補正画像が生成できる。すなわち、撮像装置5におけるノイズ低減処理の構成を簡素化できることとなる。
【0136】
<変形例>
◎上記の各実施形態におけるキャリブレションについては、撮像装置が有する計時機能によって一定期間ごとに警告を発するのは必須でなく、レンズ交換を検出して警告を発するしても良い。また、ショックセンサを設けて、一定以上の出力が検出された場合に警告を発しても良い。
【0137】
◎上記の各実施形態については、白チャート(無彩色画像)の撮影によりキャリブレーションを行うのは必須でなく、拡散板を入れてキャリブレーションを行っても良い。
【0138】
また、キャリブレーションでは、撮影直前または撮影直後において、撮像光学系の状態を保持、つまりレンズの焦点距離や絞りなどを変化させずに露出条件を変更して撮影し、ゴミ補正データを取得しても良い。
【0139】
◎上記の各実施形態については、シェーディング補正とゴミ補正とで異なる乗算器を使用するのは必須でなく、シェーディング補正とゴミ補正とで乗算器を兼用しても良い。
【0140】
◎上記の各実施形態におけるゴミ補正部分テーブルについては、キャリブレーション時に取得された撮影画像データの逆数から生成した反転画像に基づき生成するのは必須でなく、キャリブレーション時に取得された撮影画像に基づき生成しても良い。この場合、ゴミ補正時においては、ゴミ補正部分テーブルから読出した補正データの逆数を算出し、この逆数と本撮影時の画像とを乗算することとなる。
【0141】
また、キャリブレーション時には、撮像光学系における複数の状態、例えばレンズの焦点距離や絞りなどを変化させて複数のゴミ補正データを取得するようにしても良い。これにより、撮像光学系の様々な状態に対応した異物補正を行える。
【0142】
◎上記の第2実施形態については、Y信号についてのみノイズ低減処理を行うのは必須でなく、R−Y信号およびB−Y信号についてノイズ低減処理を行っても良い。また、ノイズ低減処理については、図9に示すノイズ低減処理器51が有する複数のノイズ低減部位のうち一部を省略した回路を用いて行っても良い。
【0143】
◎上記の第2実施形態における評価値の算出については、ソベル(Sobel)フィルタを利用するのは必須でなく、Prewittフィルタなどの線分検出フィルタを利用するようにしても良い。
【0144】
◎上記の第2実施形態においては、例えばゴミ存在エリアBL(図3)の平均的な補正ゲインが大きくなる場合にはノイズ低減処理のレベルを大きくし、平均補正ゲインが小さくなる場合にはノイズ低減処理のレベルを小さくするようにしても良い。すなわち、ゴミ存在エリアBLに対応する画像部分の異物補正の程度に応じた度合いで、ノイズ低減処理を行う。これにより、適切なノイズ低減処理が行え、画像品質を向上できる。
【0145】
【発明の効果】
以上説明したように、請求項1ないし請求項5の発明によれば、画像信号に対する異物の影響を表す異物情報に基づいて得られるデータ値との乗算処理を伴うデジタル処理により画像信号に対して異物補正を行うため、比較的大きな異物に対しても適切な異物補正が行える。
【0146】
特に、請求項2の発明においては、異物補正は、シェーディング補正で使用する乗算器またはそれと同一タイプの別の乗算器を利用して行われるため、構成を簡素化でき、コストアップを抑制できる。
【0147】
また、請求項3の発明においては、異物補正手段は乗算処理を行う乗算器と異物情報を記憶手段から乗算器に転送するDMAコントローラとを有するため、構成を簡素化でき、コストアップを抑制できる。
【0148】
また、請求項4の発明においては、異物情報は、撮影前または撮影後に行われるキャリブレーションで取得された情報に基づき生成されるため、異物情報を適切に生成できる。
【0149】
また、請求項5の発明においては、異物情報は、キャリブレーションで撮像素子により取得された撮影画像の情報または撮影画像に関する画素レベルの逆数の情報に基づき生成されるため、異物情報を簡易に生成できる。
【0150】
また、請求項6の発明においては、異物情報が露出評価値を算出するブロック単位で生成されるため、メモリが節約できるとともに構成が簡易になる。
【0151】
また、請求項7の発明においては、キャリブレーションでは無彩色のチャートを撮影するため、異物情報を適切に取得できる。
【0152】
また、請求項8の発明においては、キャリブレーションでは撮像光学系における複数の状態での異物情報を取得するため、撮像光学系の様々な状態に対応した異物補正を行える。
【0153】
また、請求項9の発明においては、キャリブレーションでは撮影直前または撮影直後において撮像光学系の状態を保持しつつ露出条件を変更して異物情報を取得するため、最適な異物情報を取得できる。
【0154】
また、請求項10の発明においては、撮像素子で取得した撮影画像のうち異物の影響が現れる異物画像部分のノイズ処理の度合いを異物画像部分を除く前記撮影画像と異ならせてノイズ低減処理を行うため、異物補正が施された画像について適切なノイズ補正処理を行え、画像品質を向上できる。
【0155】
また、請求項11の発明においては、異物補正手段による異物画像部分の異物補正の程度に応じた度合いでノイズ低減処理を行うため、一層適切なノイズ低減処理を行え、画像品質をより向上できる。
【0156】
また、請求項12の発明においては、異物画像部分における輝度変化の程度に応じた度合いでノイズ低減処理を行うため、一層適切なノイズ低減処理を行え、画像品質をより向上できる。
【0157】
また、請求項13の発明においては、本撮影時に撮像素子で取得された撮影画像に基づき輝度変化の度合いを検出するため、輝度変化の度合いを精度良く検出できる。
【図面の簡単な説明】
【図1】本発明の第1実施形態に係る撮像装置1の機能ブロックを示す図である。
【図2】ゴミ補正の原理を説明するための図である。
【図3】ゴミ補正部分テーブルの生成を説明するための図である。
【図4】シェーディング補正およびゴミ補正を説明するための図である。
【図5】撮像装置1におけるキャリブレーションの警告動作を示すフローチャートである。
【図6】キャリブレーションモードでの動作を示すフローチャートである。
【図7】複数のDMAチャンネルを利用したゴミ補正を説明するための図である。
【図8】本発明の第2実施形態に係る撮像装置5の機能ブロックを示す図である。
【図9】ノイズ低減処理器51を説明するための図である。
【図10】コアリング処理部513の入出力特性を説明するための図である。
【図11】ゴミ存在エリアBLに高周波画像が存在する場合のノイズ低減処理を説明するための図である。
【図12】ソベルフィルタを利用した評価値の算出を説明するための図である。
【図13】AF評価用コントラスト値に基づく評価値を説明するための図である。
【図14】ゴミ補正のゲイン曲線Gn2を説明するための図である。
【符号の説明】
1、5 撮像装置
3 画像処理部
11 撮像センサ
12 光学LPF
13 レンズ群
34 シェーディング補正部
34a、35a 乗算器
35 ゴミ補正部
40 カメラ制御部
41 画像メモリ
41a ノイズ低減テーブル
42 不揮発性メモリ
43 LCDモニタ
51 ノイズ低減処理器
511 LPF部
512 HPF部
513 コアリング処理部
514 乗算器
BL ゴミ存在エリア
D1〜6、D31〜34 DMAチェンネル
F1〜F4 ソベルフィルタ
Gb 反転画像
HG 高周波成分
[0001]
TECHNICAL FIELD OF THE INVENTION
The present invention relates to an imaging device having an imaging unit including an imaging element and an imaging optical system.
[0002]
[Prior art]
In a conventional digital camera, dust, dust, and dust (these are collectively referred to as “foreign matter”) adhere to an optical lens, an optical LPF (Low Pass Filter), and the like, and this is reflected in a photographed image and thus becomes a photographed image. May have black spots on a part of it.
[0003]
Causes of dust entering the imaging optical system include inadequate dust removal at the manufacturing stage in the factory, wear of mechanical members such as shutters and apertures inside the imaging optical system, and lenses. For example, there is an interchangeable single-lens reflex type digital camera that is sealed when a lens is replaced.
[0004]
In this regard, Patent Literature 1 and Patent Literature 2 disclose techniques for making foreign matter less noticeable by interpolation based on adjacent pixels.
[0005]
[Patent Document 1]
JP 2000-212314 A
[Patent Document 2]
JP 2002-209147 A
[0006]
[Problems to be solved by the invention]
However, the techniques of Patent Literature 1 and Patent Literature 2 are effective methods when the dust is at most 1 to 2 pixels, and thus it is difficult to apply the technique to dust having more than ten pixels.
[0007]
On the other hand, dust and the like often adhere to the optical LPF at the time of lens replacement. In this case, since there is a constant turn-in of light, information on the subject image is not completely lost due to the influence of the dust and the like.
[0008]
The present invention has been made in view of the above problems, and has as its object to provide an imaging apparatus capable of appropriately performing foreign matter correction even on a relatively large foreign matter.
[0009]
[Means for Solving the Problems]
In order to solve the above-mentioned problem, the invention according to claim 1 is an imaging apparatus having an imaging unit including an imaging device and an imaging optical system that forms a subject image on the imaging device, wherein (a) the imaging device includes: Image processing means for performing image processing on an image signal obtained by the element; and (b) storage means for storing, for a foreign substance present in the image pickup unit, foreign substance information indicating an influence of the foreign substance on the image signal. The image processing means includes: (a-1) foreign matter correction means for performing foreign matter correction on the image signal by digital processing involving multiplication processing with a data value obtained based on the foreign matter information.
[0010]
According to a second aspect of the present invention, in the imaging device according to the first aspect of the present invention, the image processing means includes: (a-2) a multiplier performing a multiplication process; and (a-3) multiplication by the multiplier. Shading correction means for performing shading correction on the image signal by digital processing accompanying the processing, wherein the foreign matter correction is performed using the multiplier or another multiplier of the same type as the multiplier. Is
[0011]
According to a third aspect of the present invention, in the imaging apparatus according to the first aspect of the present invention, the foreign matter correction unit includes a multiplier that performs the multiplication process and a DMA that transfers the foreign object information from the storage unit to the multiplier. And a controller.
[0012]
Further, the invention according to claim 4 is the imaging apparatus according to any one of claims 1 to 3, wherein the imaging apparatus has a calibration mode for performing calibration related to the foreign matter correction before or after photographing, The foreign substance information is generated based on information acquired by the calibration.
[0013]
According to a fifth aspect of the present invention, in the imaging apparatus according to the fourth aspect of the present invention, the foreign matter information is information of a captured image acquired by the imaging device in the calibration, or a reciprocal of a pixel level of the captured image. It is generated based on the information of
[0014]
According to a sixth aspect of the present invention, in the image pickup apparatus according to any one of the first to fifth aspects, the image processing means includes: (a-4) a plurality of blocks each of the image captured by the image sensor; And calculating means for calculating an exposure evaluation value for each block, and the foreign matter information is generated in units of the blocks.
[0015]
According to a seventh aspect of the present invention, in the imaging apparatus according to the fourth or fifth aspect, in the calibration, an achromatic chart is photographed in the calibration.
[0016]
According to an eighth aspect of the present invention, in the imaging apparatus according to the fourth or fifth aspect, in the calibration, foreign object information in a plurality of states in the imaging optical system is acquired.
[0017]
According to a ninth aspect of the present invention, in the imaging apparatus according to the fourth or fifth aspect, in the calibration, the exposure condition is changed while maintaining the state of the imaging optical system immediately before or immediately after shooting. Then, the foreign substance information is obtained.
[0018]
According to a tenth aspect of the present invention, in the imaging device according to any one of the first to ninth aspects, the image processing means can change a degree of noise processing on the image signal. The image processing apparatus further includes a noise processing unit, wherein the noise processing unit determines a degree of noise processing of a foreign substance image portion in which the influence of the foreign substance appears in the captured image acquired by the imaging device, with the captured image excluding the foreign substance image part. There is a noise reduction processing means for performing noise reduction processing differently.
[0019]
Further, according to an eleventh aspect of the present invention, in the imaging apparatus according to the tenth aspect, the noise reduction processing means performs the noise reduction processing at a degree corresponding to a degree of foreign matter correction of the foreign matter image portion by the foreign matter correcting means. Means for performing the following.
[0020]
According to a twelfth aspect of the present invention, in the imaging device according to the tenth or eleventh aspect, the noise reduction processing means performs the noise reduction processing at a degree corresponding to a degree of a luminance change in the foreign matter image portion. Have means to do so.
[0021]
According to a thirteenth aspect of the present invention, there is provided the image pickup apparatus according to the twelfth aspect, wherein (c) a luminance change detecting means for detecting the degree of the luminance change based on a photographed image acquired by the image sensor at the time of actual photographing. Is further provided.
[0022]
BEST MODE FOR CARRYING OUT THE INVENTION
<First embodiment>
<Main components of imaging device>
FIG. 1 is a diagram illustrating functional blocks of an imaging device 1 according to the first embodiment of the present invention.
[0023]
The imaging device 1 is configured as a digital camera, and includes an imaging sensor 11, a signal processing unit 2 connected to the imaging sensor 11, an image processing unit 3 connected to the signal processing unit 2, and a camera control unit 40. ing.
[0024]
The imaging sensor 11 is configured as an area imaging sensor having a single-plate pixel array in which R (red), G (green), and B (blue) primary color transmission filters are arranged in a checkered pattern, and is an all-pixel readout type. Image sensor. In the image sensor 11, when the accumulation of the electric charge is completed, the photoelectrically converted signal is shifted to a light-shielded transfer path, read out therefrom via a buffer, and formed into an image by an imaging optical system including the lens group 13. An image signal relating to the subject image is output. An optical LPF 12 is provided in front of the image sensor 11. Note that the imaging unit of the imaging device 1 includes an imaging sensor 11, an optical LPF 12, and a lens group 13.
[0025]
The signal processing unit 2 has a CDS 21, an AGC 22, and an A / D conversion unit 23.
[0026]
The image signal output from the image sensor 11 is sampled by the CDS 21 to remove noise from the image sensor 11, and then subjected to sensitivity correction by the AGC 22.
[0027]
The A / D converter 23 is configured by a 14-bit AD converter, and digitizes the analog signal normalized by the AGC 22. From the digitized image signal, an image file subjected to predetermined image processing by the image processing unit 3 is generated.
[0028]
The image processing unit 3 has a CPU and a memory, and includes a digital processing unit 3a, an image compression unit 37, a video encoder 38, and a memory card driver 39.
[0029]
The digital processing unit 3a includes a color balance evaluation integrator 30, a pixel interpolation unit 31, a resolution conversion unit 32, and a white balance control unit 33. Further, the digital processing unit 3a includes a shading correction unit 34, a dust correction unit 35, and a gamma correction unit 36.
[0030]
The image data input to the image processing unit 3 is written in an image memory 41 composed of, for example, an SDRAM in synchronization with the reading of the image sensor 11. Thereafter, the image data stored in the image memory 41 is accessed, and various processes are performed by the digital processing unit 3a.
[0031]
With respect to the image data on the image memory 41, pixel integration data for each small area is calculated for each color (RGB) by the color balance evaluation integrator 30. The small area is a divided area obtained by dividing one screen into many. By performing the integration of the pixel values in such a small area, an effect equivalent to performing the averaging process can be obtained. Using the calculation result of the color balance evaluation integrator 30, gain data of each RGB pixel is obtained.
[0032]
Then, the gain of each of the RGB pixels is independently corrected by the white balance control unit 33, and the RGB white balance is corrected. In this white balance correction, a portion that is originally considered to be white from the photographing subject is estimated from luminance, saturation data, and the like, and the average, G / R ratio, and G / B ratio of R, G, and B of the portion are obtained. Correction control is performed using the G / R ratio and the G / B ratio as R and B correction gains.
[0033]
The image data on which the white balance correction has been performed is subjected to so-called shading correction, in which a different gain is applied to each pixel position by the shading correction unit 34. The non-volatile memory 42 stores a shading correction table in which gain data of each pixel, which is derived from the optical performance of the lens group 13 in advance, is described. Then, at the time of shading correction, the shading correction section 34 multiplies the image data by the shading correction table transferred from the nonvolatile memory 42 to the image memory 41 and performs correction. This shading correction will be described later in detail.
[0034]
After the shading correction, the dust correction unit 35 performs dust correction (foreign matter correction). The non-volatile memory 42 stores a dust correction partial table derived in advance by calibration (described later). At the time of dust correction, similarly to the shading correction, the dust correction data transferred from the nonvolatile memory 42 to the image memory 41 and the image data are multiplied to perform the correction. This dust correction will be described later in detail.
[0035]
The image data subjected to the shading correction and the dust correction are subjected to masking of each of the R, G, and B pixels with the respective filter patterns by the pixel interpolator 31, and then, for G having pixels up to the high band, the surrounding four pixels by a median (intermediate value) filter. Is replaced with the average value of the intermediate two values. Average interpolation is performed on R and B.
[0036]
The RGB data in the interpolated image data is subjected to nonlinear conversion suitable for each output device in the gamma correction unit 36, and then Y, RY, and BY data are calculated from RGB by a matrix operation, and the image data is stored in the image memory. 41.
[0037]
The Y, RY, and BY data are reduced or thinned out horizontally and vertically, and the resolution conversion unit 32 converts the resolution into the number of pixels of the recorded image. In the monitor display as well, thinning is performed by the resolution converter 32, and a low-resolution image to be displayed on the LCD monitor 43 and the electronic viewfinder 44 is created.
[0038]
At the time of preview (live view), a low-resolution image of 640 * 240 pixels read from the image memory 41 is encoded into NTSC / PAL by the video encoder 38, and is converted into a field image by the electronic viewfinder 44 or the LCD monitor 43. Perform playback. Further, at the time of image recording, after the image of the set recording resolution is subjected to compression processing by the image compression unit 37, the compressed image is recorded on the memory card 9 by the memory card driver 39.
[0039]
The camera control unit 40 includes a CPU and a memory, and processes an operation input performed by a photographer on a camera operation switch 49 having a shutter button and the like. A calibration mode (described later) can be set by a photographer's operation input to the camera operation switch 49.
[0040]
During live view display in which the subject is displayed in a moving image manner on the LCD monitor 43 or the like before the main photographing, the optical aperture value of the shutter 45 is fixed at the open state by the aperture driver 46. Regarding the charge accumulation time of the image sensor 11, exposure control data is calculated by the camera control unit 40 based on light amount data measured in a photometry area selected from images acquired by the image sensor 11. Then, the feedback control is performed by the timing generator sensor driver 47 so that the exposure time of the image sensor 11 becomes appropriate by using a program chart set in advance based on the exposure control data calculated by the camera control unit 40.
[0041]
Further, in the image pickup apparatus 1, at the time of actual photographing, the exposure amount to the image pickup sensor 11 is controlled by the aperture driver 46 and the timing generator sensor driver 47 according to a preset program chart based on the light amount data measured as described above.
[0042]
<About the principle of dust correction>
In an interchangeable lens type single-lens reflex digital camera, dust enters the imaging optical system when the lens is replaced, and if the dust adheres to the optical lens or the optical LPF, the dust is projected on the imaging surface, and the dust appears on the captured image. The shadow of is reflected. As a result, a phenomenon occurs in which a specific portion of a captured image is always dark.
[0043]
Also, in a digital camera, the dust is generated when the mechanical members (aperture blades, mechanical shutters, etc.) inside the imaging optical system are worn out, and when dust or dirt enters during manufacturing at a factory. As in the case, a phenomenon occurs in which a part of the captured image becomes dark.
[0044]
In order to remove dust and the like existing in the image pickup unit of the image pickup apparatus 1, it is necessary to disassemble the camera once, clean all image pickup optical system members, and reassemble the camera in a normal lens fixed type digital camera. It becomes. On the other hand, even with a lens-interchangeable digital camera, special equipment is required to remove dust.
[0045]
Therefore, by applying the characteristic of shading correction, that is, "a different gain can be applied at a pixel position", dust, dust, and the like adhering to an imaging optical system (a lens, an optical LPF (Low Pass Filter), etc.) Dust correction for digitally correcting (removing the shadow of a foreign substance) a captured image in which a part of the image has become dark due to the influence of dust or the like (foreign substance) is performed. In the following, in order to simplify the description, dust will be described as a representative of foreign matter.
[0046]
FIG. 2 is a diagram for explaining the principle of dust correction.
[0047]
For example, as shown in FIG. 2A, the image is divided into a plurality of small areas BK in a matrix. The small area BK has a size of, for example, 40 (pixels) horizontally × 32 (pixels) vertically. In consideration of the analysis using the RAW image data, it is preferable that both the horizontal and vertical pixels have an even number of pixels. Then, based on the divided small area, a dust existence area BL (parallel hatched portion) in which a part PL whose luminance is reduced due to the influence of dust exists is detected.
[0048]
Here, as shown in FIG. 2B, the original image Ga corresponding to the dust existing area BL is multiplied by the correction image Gb generated by taking the reciprocal of the pixel level of each part of the original image Ga. This makes it possible to obtain an image Gc from which the influence of dust has been removed. Since the magnitude relationship between the pixel levels of the original image Ga is inverted, this correction image Gb is hereinafter referred to as an “inverted image Gb”. Each color component is represented by N bits, and is different from an image defined as a complement (2N−x) of N bits for the pixel level x of the original image Ga, and is a “gain inverted image” represented by a gain. is there. As described above, since the inverted image Gb is expressed in gain, a dust correction partial table is generated based on the information of the inverted image Gb, and the correction table is multiplied by a separately shot image to obtain a shot image. It is possible to erase trash from. The generation of the dust correction partial table will be described below.
[0049]
FIG. 3 is a diagram for explaining generation of the dust correction partial table.
[0050]
First, as shown in FIG. 3A, a dust presence area BL (thick frame portion) is detected from image data (RAW data) divided into small areas BK. This image data is obtained by performing calibration for photographing an achromatic chart, for example, a white chart (white image).
[0051]
Here, the luminance distribution at the position of the virtual line LI in the dust presence area BL is considered as shown in FIG. The horizontal axis of FIG. 3B indicates the horizontal position along the virtual line LI shown in FIG. 3A, and the vertical axis indicates the luminance value.
[0052]
Next, dust correction data (thick line portion) shown in FIG. 3C is generated in order to perform the brightness correction on the dust existing area BL. The horizontal axis of FIG. 3C indicates a horizontal position along the virtual line LI shown in FIG. 3A, and the vertical axis indicates a gain value. A method of generating the dust correction data will be described below.
[0053]
From all the small areas BL existing around the dust existence area BL, the average value of the pixel values for each of the RGB colors is obtained. The average value is divided by all the pixels in the dust presence area BL to obtain the gain of each pixel. In this case, if the gain value is equal to or less than a fixed value, for example, the equal-size line Ke, the equal-size is set. When the gain value exceeds the upper limit line Ku, clipping is performed at the upper limit line Ku. Thereby, an extremely large gain value can be eliminated.
[0054]
In FIG. 3C, dust correction data relating to a pixel column on the virtual line LI is shown. Is generated). The generated dust correction data is stored in the nonvolatile memory 42 as a dust correction partial table. This dust correction partial table functions as storage means for storing foreign matter information indicating the effect of dust (foreign matter) on image data (image signal).
[0055]
<About shading correction and dust correction>
FIG. 4 is a diagram for explaining shading correction and dust correction.
[0056]
The image memory 41 is divided into an image data storage area M1, a shading correction table storage area M2, a dust correction entire table M3, and a corrected image data storage area M4.
[0057]
Image data (RAW data) acquired by the image sensor 11 is stored in the image data storage area M1.
[0058]
The shading correction table storage area M2 stores a shading correction table configured as gain data. By matching the arrangement (array) of the gain data with the arrangement of the image data, that is, by associating both pixels with each other, each pixel data can be multiplied by a predetermined gain. That is, in the case of a shading correction table in which the higher the gain in the captured image, the higher the gain, the higher the gain near the image, that is, the higher the shading correction.
[0059]
The dust correction entire table storage area M3 stores a dust correction table. Since this dust correction entire table is transferred using a DMA (direct memory access) channel, data obtained by integrating all the dust correction partial tables constituted by a gain curve (thick line) Gn1 as shown in FIG. It is a table. That is, after filling the dust correction entire table having the data amount corresponding to the photographed image with the same size data (data having a gain value of 1), the dust correction entire table storage area M3 stores the address corresponding to the dust existing area BL in the dust correction entire table storage area M3. By writing the dust correction partial table, a dust correction entire table is generated. If there are a plurality of dust detection areas, each dust correction partial table is written to a position (address) corresponding to these areas.
[0060]
First, in the shading correction, the image data and the shading correction data are transferred from the image data storage area M1 and the shading correction table storage area M2 to the shading correction unit 34 using separate DMA channels (DMA controllers) D1 and D2. Then, the transferred image data and the shading correction data are digitally multiplied by a multiplier 34 a in the shading correction unit 34 to perform shading correction.
[0061]
Next, in the dust correction, the dust correction data is transferred to the dust correction unit 35 from the dust correction entire table storage area M3 by the DMA channel D3. Then, the transferred dust correction data (that is, the data value obtained based on the foreign matter information) and the image data after shading correction output from the shading correction unit 34 are output by a multiplier 35a of the same type as the multiplier 34a. The dust correction is performed by multiplying digitally.
[0062]
Finally, the image data subjected to shading correction and dust correction output from the dust correction unit 35 is stored in the corrected image data storage area M4 by the DMA channel D4.
[0063]
As described above, in the imaging apparatus 1, the position and density of dust obtained by performing the calibration work before or after shooting are stored in the camera as dust correction data, and the dust existing area in the shot image obtained at the time of actual shooting is stored. By digitally increasing the gain of BL, the shadow of dust is removed.
[0064]
<Operation of imaging apparatus 1>
Garbage has the following properties.
[0065]
(1) The place moves. It doesn't move in a short time, but stays in the same place for a long time.
[0066]
{Circle around (2)} The number increases due to lens replacement or mechanical member wear.
[0067]
As described above, since dust has a property that changes with time, it is preferable to warn the photographer to periodically perform calibration relating to dust correction. The warning operation regarding the calibration will be described below.
[0068]
FIG. 5 is a flowchart illustrating a calibration warning operation in the imaging apparatus 1. This operation is executed by the camera control unit 40.
[0069]
After the imaging device 1 is started, a timer (not shown) built in the imaging device 1 starts measuring time (step 1).
[0070]
In step S2, it is determined whether it is the timing for calibration. This timing is set to occur, for example, when a certain time has elapsed from the start of time measurement. Here, if it is the timing of the calibration, the process proceeds to step S3; otherwise, step S2 is repeated.
[0071]
In step S3, a warning is displayed on the LCD monitor 43 indicating that calibration is to be performed.
[0072]
In step S4, it is determined whether the calibration has been completed. If the calibration has been completed, the process proceeds to step S5. If the calibration has not been completed, the process returns to step S3.
[0073]
In step S5, it is determined whether the calibration has been completed normally. Here, when the calibration is successful, that is, when the calibration ends normally, the process proceeds to step S6, and when the calibration fails, the process returns to step S3.
[0074]
In step S6, the timer started in step S1 is reset.
[0075]
The above warning operation of the calibration allows the photographer to appropriately execute the calibration.
[0076]
Actually, the position of dust slightly changes depending on the lens, and depending on the aperture, the focal length, and the focal position, in relation to the light rays. For this reason, a warning of calibration may be issued immediately before and immediately after shooting.
[0077]
Hereinafter, an operation in a calibration mode for performing calibration in the imaging apparatus 1 will be described.
[0078]
FIG. 6 is a flowchart showing the operation in the calibration mode.
[0079]
When the photographer operates the camera operation switch 49 to set the calibration mode, first, a warning that the photographer will photograph a white image (eg, a white chart) is displayed on the LCD monitor 43 to warn the photographer.
[0080]
Then, zoom drive and aperture drive are performed (step S11). In the case of a power zoom lens, the imaging conditions (the conditions determined from the optical characteristics of the lens such as the focal length and the aperture) are automatically set so that the light drop in the peripheral portion is not erroneously detected as dust. After setting, the lens and the diaphragm are driven based on the imaging conditions. In the case of manual zooming, zoom driving is instructed, and in the case of a single focus lens, shooting at that focal length is instructed.
[0081]
Next, the photographer shoots a white image, and determines whether or not the shooting has been completed (step S12). Here, for example, it is determined whether the shutter button has been pressed by the photographer. If the shooting has been completed, the process proceeds to step S13. If the shooting has not been completed, step S12 is repeated.
[0082]
In step S13, it is determined whether the captured image is sufficiently bright. In the photographed white image data, pixel integration data for each small area (block) is calculated for each color component (RGB) by a color balance evaluation integrator 30, and it is determined whether the image is bright based on the exposure evaluation value. I do.
[0083]
Here, if it is sufficiently bright, the process proceeds to step S14. On the other hand, when the whole image is dark, the process is temporarily terminated as a calibration error, and a warning that calibration photographing is performed again is warned.
[0084]
In step S14, it is determined whether or not the RGB luminance difference is equal to or smaller than a predetermined threshold. This threshold is determined based on the noise level, and is determined including a margin. If the RGB luminance difference is equal to or smaller than the predetermined threshold, the process proceeds to step S15. On the other hand, if the value exceeds the predetermined threshold, the process is temporarily terminated as a calibration error, and a warning is issued that calibration photography is to be performed again.
[0085]
Through the operations in steps S13 and S14, it can be determined whether or not the captured image is an image for which a dust correction partial table can be created. That is, it is possible to determine whether or not an image satisfying the condition that the RGB evaluation values of the respective small areas are equal to or more than a certain value and are substantially equal in the dust detection target area at the center of the image.
[0086]
Next, when the captured image is determined to be a white image (gray image), analysis is performed for each small area (step S15).
[0087]
Here, for all the small areas, for example, the average value of the pixel integrated data for the G pixel is obtained. If there is a dark small area whose luminance is lower than the average value by a certain value or more, this small area is set to the dust existing area. Detected as However, since there is a possibility that the peripheral light amount of the image is reduced by the optical lens, the detection area is limited to only a portion (for example, a central portion of the image) where the light amount is small in consideration of the optical performance.
[0088]
In step S16, the dust correction unit 35 creates the dust correction partial table described above.
[0089]
In step S17, the dust correction partial table created in step S16 is stored in the non-volatile memory.
[0090]
In step S18, a normal end flag of the calibration is set. With this normal flag, the determination operation of step S5 shown in the flowchart of FIG. 5 can be performed.
[0091]
By the above operation of the imaging apparatus 1, a dust correction partial table is generated based on the image data acquired by the calibration shooting, and the dust correction is performed based on the dust correction partial table. .
[0092]
That is, a digital camera that has been processed as a defective product because a foreign substance is reflected in the image can be shipped as a non-defective product. Further, even in a case where dust enters in a lens exchange type single-lens reflex digital camera at the time of lens exchange and it is conventionally necessary to perform dust removal work using special equipment, this work can be omitted. Furthermore, even if a digital camera is used for a long time and dust generated due to wear of mechanical equipment inside the imaging optical system adheres to the optical system, the camera itself can perform dust correction, so that a good photographed image can be obtained. It becomes.
[0093]
Further, similarly to the shading correction, foreign matter correction is performed by digital processing using a multiplier and a DMA controller, so that highly accurate correction can be performed with a simple configuration.
[0094]
In the above-described imaging apparatus 1, only one DMA channel D3 (see FIG. 4) is used to transfer the dust correction data to the dust correction unit 35. However, even if a plurality of DMA channels are used. good.
[0095]
FIG. 7 is a diagram for explaining dust correction using a plurality of DMA channels.
[0096]
The image memory 41 has an image data storage area M1 having the same configuration as that of FIG. 4, a shading correction table storage area M2, and a corrected image data storage area M4.
[0097]
The image memory 41 is different from the dust correction entire table storage area M3 (FIG. 4) in that four table storage areas, namely, a dust correction partial table 1 storage area M31, a dust correction partial table 2 storage area M32, and a dust correction It has a partial table 3 storage area M33 and a dust correction partial table 4 storage area M34.
[0098]
Each of the dust correction partial table storage areas M31 to M34 stores a dust correction partial table corresponding to the dust presence area BL having a gain value as shown in FIG. However, since the number of dust corrections is limited due to DMA channel restrictions and the like, it is preferable to select the dust correction target in consideration of the position, size, and the like.
[0099]
Then, the dust correction data is transferred from the dust correction partial table storage areas M31 to M34 to the dust correction unit 35 by the DMA channels D31 to D34. Then, the transferred dust correction data and the image data after shading correction output from the shading correction unit 34 are multiplied by the multiplier 35a in the dust correction unit 35 as in the case of FIG. Performs dust correction. In this case, in each of the DMA channels D31 to D34, the start timing and the end timing of the data transfer and the amount of dust correction data are calculated based on the data in the dust presence area BL, and the DMA setting is performed.
[0100]
As described above, even by the dust correction using a plurality of DMA channels, appropriate foreign matter correction can be performed even for a relatively large foreign matter.
[0101]
<Second embodiment>
<Main components of imaging device>
FIG. 8 is a diagram illustrating functional blocks of an imaging device 5 according to the second embodiment of the present invention.
[0102]
The imaging device 5 of the second embodiment has a configuration similar to that of the imaging device 1 of the first embodiment, but differs mainly in that a noise reduction processor 51 is added. The noise reduction processor 51 will be described below.
[0103]
FIG. 9 is a diagram for explaining the noise reduction processor 51.
[0104]
The Y, RY, and BY data calculated by the matrix operation after the nonlinear conversion by the gamma correction unit 36 is input to the noise reduction processor 51, and a minute noise component included in the image data is input. Is performed. Then, the Y, RY, and BY data whose noise has been reduced by the noise reduction processor 51 are stored in the image memory 41 and input to the resolution conversion unit 32, after which the same processing as in the first embodiment is performed. Is
[0105]
The noise reduction processor 51 includes an LPF (Low Pass Filter) unit 511, an HPF (High Pass Filter) unit, a coring processing unit 513, a multiplier 514, and an adder 515, and converts the image data. On the other hand, the level (degree) of the noise reduction processing can be changed.
[0106]
The LPF unit 511 is configured as, for example, a 5 × 5 digital filter, and can dynamically change the noise reduction amount by changing its coefficient or order. For example, a plurality of filter coefficients used in the LPF unit 511 are previously stored in a noise reduction table 41a in an image memory 41 composed of an SDRAM, and a data table in which filter patterns used in each pixel are regularly arranged by a DMA channel D5. By sending the filter coefficient to the LPF unit 511, the filter coefficient can be switched for each pixel.
[0107]
The HPF unit 512 is configured as, for example, a 5 × 5 digital filter.
[0108]
The coring processing unit 513 has input / output characteristics as shown in FIG. That is, the input of the threshold value (−Th) 〜0 to the threshold value Th is fixed to “0” and output, and the input value equal to or less than the threshold value (−Th) outputs (input value + Th) and is equal to or more than the threshold value Th. By inputting (input value -Th), noise is reduced. The noise reduction amount can be dynamically changed by changing the threshold value Th. Specifically, a plurality of thresholds used in the coring processing unit 513 are stored in advance in the noise reduction table 41a in the image memory 41, and a data table in which the thresholds used for each pixel are arranged in order by the DMA channel D5 is stored. By sending the threshold value to the LFP unit 511, the threshold value can be switched for each pixel.
[0109]
The multiplier 514 is configured as a part for suppressing a noise component included in a high frequency component of the Y signal (luminance signal), and dynamically changes a noise reduction amount by controlling a gain of the Y signal. Is possible. For example, a plurality of gain data used in the multiplier 514 is stored in advance in the noise reduction table 41a in the image memory 41, and a data table in which the gain data used in each pixel is regularly arranged by the DMA channel D5 is stored in the multiplier 514. By transmitting, the gain of the high frequency component of the Y data can be switched for each pixel.
[0110]
The adder 515 adds the Y data processed by the LPF unit 511 and the Y data output from the multiplier 514. The Y data added by the adder 515 is stored in the Y data storage unit 41b in the image memory 41 by the DMA channel D6.
[0111]
With the above-described noise reduction processor 51, the noise reduction amount of a specific portion (specific pixel) in a captured image can be made stronger or weaker than that of a peripheral portion (peripheral pixel).
[0112]
On the other hand, in the imaging device 5, as described in the first embodiment, dust correction is performed by multiplying the gain by the dust existing area BL (FIG. 3A) detected by the calibration. For BL, noise is also locally increased. Therefore, although dust correction can be appropriately performed, dust erasure traces due to dust correction are conspicuous, and a partially unsightly image may be generated.
[0113]
Therefore, in such a case, the noise reduction amount for the dust presence area BL is set to be stronger by the noise reduction processor 51 than in the image parts other than the dust detection area BL. Thus, effective noise reduction can be performed on the dust presence area BL.
[0114]
However, when a high-frequency image is present in the dust presence area BL, the image in the dust detection area BL is reduced by increasing the noise reduction amount of the noise reduction processor 51, so that the resolution is partially low. An unsightly image will be generated. Specifically, as shown in FIG. 11A, when a high-frequency component (illustrated by four lines) HG exists in the dust detection area BL including the portion PM where the luminance is reduced due to the influence of dust, the above-described dust correction is performed. By performing the high-frequency noise reduction processing, the high-frequency component HG is blurred as in the dust presence area BL shown in FIG.
[0115]
Therefore, in the imaging device 5 of the second embodiment, based on the information on the dust presence area BL detected by the calibration, what kind of image exists in the portion of the captured image corresponding to the dust presence area BL, An evaluation value for the component is calculated. Then, by performing a noise reduction process based on the evaluation value, a natural image subjected to dust correction is generated. The operation of the imaging device 5 will be described in detail below.
[0116]
<Operation of imaging device 5>
First, the imaging device 5 obtains an evaluation value for detecting a frequency component at a dust detection point. As the evaluation value, for example, an output value of a Sobel Filter can be used, which will be described below.
[0117]
FIG. 12 is a diagram for explaining calculation of an evaluation value using a Sobel filter.
[0118]
The non-volatile memory 42 of the imaging device 5 stores four Sobel filters F1 to F4 (Sobel filter group FG) each configured by a matrix to which vertically symmetric, left-right symmetric, and oblique left-right symmetric coefficients are assigned. The output values of the Sobel filters F1 to F4 are summed by the adder AD and output as a line segment evaluation value. With such a configuration, since the output value from the filter having a matrix that matches the direction of the line segment among the four Sobel filters F1 to F4 increases, the line segment evaluation that is the sum of the output values of the Sobel filters F1 to F4 becomes large. If the magnitude of the value is determined, detection of a line segment, that is, detection of a high-frequency component can be performed. That is, the Sobel filter group FG and the adder AD function as a luminance change detecting unit that detects a degree of a luminance change in the image signal based on the image signal acquired by the image sensor 11 at the time of the main photographing.
[0119]
Here, since the dust detection portion obtained by the calibration is stored in the nonvolatile memory 42, the sobel filter F1 is used for the portion of the photographed image corresponding to the dust presence area BL (FIG. 3A). By obtaining the outputs of F4 to F4, it can be determined whether or not there is a high-frequency image at the dust correction location.
[0120]
Next, the imaging device 5 performs a noise reduction process based on the evaluation value calculated by the Sobel filter group FG. A series of operations of the imaging device 5 will be described below.
[0121]
First, after performing calibration in the same manner as in the first embodiment, the subject is photographed by a known photographing sequence. Then, after storing (buffering) the captured RAW image data in the image data storage area M1 in the image memory 41, the pixel interpolation unit 31 performs pixel interpolation.
[0122]
Next, a line segment evaluation value (evaluation value) is calculated for the image data on which the pixel interpolation has been performed by the above-described Sobel filter group FG, and line segment detection is performed. Specifically, based on the information on the dust presence area BL stored in the nonvolatile memory 42, a line segment evaluation value is calculated by the Sobel filter group FG and the adder AD for the captured image portion corresponding to the dust position. This calculation is preferably performed within a range that is affected by dust.
[0123]
Then, the average evaluation value per unit area is calculated by dividing the calculated line segment evaluation value by the area of the dust presence area BL to be subjected to dust correction. If the average evaluation value is larger than a predetermined reference value α, it is determined that a high-frequency component exists, and a setting for reducing the noise reduction amount so as to suppress the noise reduction processing in the noise reduction processor 51 is performed. Do. On the other hand, if the average evaluation value is equal to or less than the reference value α, it is determined that the image is a clear image having no high-frequency component, and the noise reduction amount is set so that the noise reduction processing in the noise reduction processor 51 is sufficiently performed. Set to rise. In these cases, a process of switching the data table (parameter) for noise reduction correction stored in the noise reduction table 41a of FIG. 9 according to the average evaluation value is performed. That is, the degree (level) of noise processing of the foreign matter image portion in the dust presence area BL in which the influence of dust (foreign matter) appears in the photographed image acquired by the imaging sensor 11 is made different from the photographed image excluding the foreign matter image portion, That is, the noise reduction processing is performed at a degree corresponding to the degree of the luminance change of the foreign matter image portion.
[0124]
After setting the noise reduction amount for the dust-existing area BL as described above, the RAW image data is again converted to pixel interpolation, gamma correction, Y, RY, and BY data as in the first embodiment. After performing the YCC image conversion and the dust correction, the noise reduction processor 51 performs an appropriate noise reduction process according to the high-frequency component to generate a dust corrected YCC image.
[0125]
By the operation of the imaging device 5 described above, the same effects as those of the first embodiment can be obtained, and the dust correction can be performed because the noise reduction process is performed by determining whether a high-frequency component exists in the dust correction portion. High-quality images can be generated. That is, when the dust correction is performed as in the first embodiment, an image in which noise is extremely increased only in the image portion subjected to the dust correction may be created. However, in the second embodiment, the dust correction is performed. However, even if the noise of the correction mark is not conspicuous and the high frequency component is present at the correction location, a natural image can be obtained without the high frequency component being dulled by the noise reduction processing.
[0126]
It is not essential to use a Sobel filter to detect a high-frequency component, and an AF evaluation contrast value that is an output value of a contrast calculator used for an AF evaluation value may be used.
[0127]
FIG. 13 is a diagram for explaining an evaluation value based on the AF evaluation contrast value.
[0128]
In the horizontal contrast calculator, the difference (| G−G |) between the luminance value of the target pixel itself and the luminance value of the same color pixel that is separated by a certain pixel in the horizontal direction is calculated for the integration area Et having a certain size. A contrast value is calculated by multiplying. Since this contrast value has a characteristic that it increases as the in-focus state approaches in the AF operation, it can be used as an AF evaluation value. When no feature point such as a high-frequency component exists in the integration region Et, the contrast value becomes a small value.
[0129]
By processing the captured image with the contrast calculator, it is possible to determine whether or not a feature point exists at a specific portion in the image. Therefore, if the contrast value is calculated for the dust-existing area BL, it can be determined whether or not this dust-existing area BL has a feature point (high-frequency component).
[0130]
That is, since the information of the dust presence area BL obtained by the calibration is stored in the nonvolatile memory 42, the AF evaluation contrast value is calculated for the portion of the captured image corresponding to the dust presence area BL. It can be determined whether there is a feature point in the image portion of the dust correction area BL.
[0131]
Before the actual photographing, since the position / range to be subjected to dust correction has been detected, the contrast is set before the RAW image is buffered after the integration area Et (FIG. 13) of the contrast value for AF evaluation is set. The arithmetic unit may calculate the AF evaluation contrast value. In the case of the Sobel filter, the use after pixel interpolation is restricted. However, in the case of the contrast value for AF evaluation, it can be used without any trouble for a RAW image. If the calculation of the contrast value has been completed, the subsequent processing is the same as in the case of the Sobel filter.
[0132]
Further, in the imaging device 5, the evaluation value of the noise reduction processing may be calculated based on the live view image immediately before the main imaging, not limited to the image acquired at the time of the main imaging. In this case, since the live view image immediately before photographing and the photographed main image rarely coincide completely, it is preferable to set an image determination area having a large area including the dust presence area BL.
[0133]
In a captured image, when a high-frequency component exists in a portion where dust is present, the dust itself generally becomes inconspicuous, but on the other hand, in a portion where there is no high-frequency component and there is no dust, the dust is conspicuous. There is nature.
[0134]
Therefore, the state of the image in the dust presence area BL, that is, the presence or absence of a high-frequency component is detected. If no high-frequency component is detected, dust correction is performed to perform normal-level noise reduction processing. Conversely, when a high frequency component is detected, as shown by a gain curve (bold line) Gn2 in FIG. 14 corresponding to FIG. The gain itself is kept low to reduce the increase in noise, and a normal level noise reduction process is performed.
[0135]
By performing the above-described processing, a dust-corrected image without a sense of incongruity can be generated without providing a circuit capable of performing different noise reduction processing for each part of the image as in the noise reduction processor 51 shown in FIG. That is, the configuration of the noise reduction processing in the imaging device 5 can be simplified.
[0136]
<Modification>
Regarding the calibration in each of the above embodiments, it is not essential to issue a warning at regular intervals by the timekeeping function of the imaging device, and a warning may be issued by detecting lens replacement. Further, a shock sensor may be provided to issue a warning when an output equal to or more than a predetermined value is detected.
[0137]
In each of the above embodiments, it is not essential to perform calibration by photographing a white chart (achromatic image), and calibration may be performed by inserting a diffusion plate.
[0138]
In the calibration, immediately before or immediately after shooting, the state of the imaging optical system is maintained, that is, shooting is performed while changing the exposure condition without changing the focal length and aperture of the lens, and dust correction data is acquired. Is also good.
[0139]
In each of the above embodiments, it is not essential to use different multipliers for shading correction and dust correction, and a multiplier may be used for shading correction and dust correction.
[0140]
◎ Regarding the dust correction partial table in each of the above embodiments, it is not essential to generate the dust correction partial table based on the inverted image generated from the reciprocal of the captured image data acquired at the time of calibration, but based on the captured image acquired at the time of calibration. May be generated. In this case, at the time of dust correction, the reciprocal of the correction data read from the dust correction partial table is calculated, and the reciprocal is multiplied by the image at the time of actual shooting.
[0141]
At the time of calibration, a plurality of dust correction data may be acquired by changing a plurality of states in the imaging optical system, for example, changing the focal length of the lens, the aperture, and the like. This makes it possible to perform foreign matter correction corresponding to various states of the imaging optical system.
[0142]
In the second embodiment, it is not essential to perform the noise reduction processing only on the Y signal, and the noise reduction processing may be performed on the RY signal and the BY signal. In addition, the noise reduction processing may be performed using a circuit in which some of the plurality of noise reduction portions included in the noise reduction processor 51 illustrated in FIG. 9 are omitted.
[0143]
In calculating the evaluation value in the second embodiment, it is not essential to use a Sobel filter, and a line segment detection filter such as a Prewitt filter may be used.
[0144]
In the second embodiment, for example, when the average correction gain of the dust presence area BL (FIG. 3) is increased, the level of the noise reduction processing is increased, and when the average correction gain is reduced, the noise is reduced. The level of the reduction processing may be reduced. That is, the noise reduction processing is performed at a degree corresponding to the degree of foreign matter correction of the image portion corresponding to the dust presence area BL. Thereby, appropriate noise reduction processing can be performed, and image quality can be improved.
[0145]
【The invention's effect】
As described above, according to the first to fifth aspects of the present invention, the image signal is multiplied by the data processing based on the foreign substance information indicating the influence of the foreign substance on the image signal. Since foreign matter correction is performed, appropriate foreign matter correction can be performed even for a relatively large foreign matter.
[0146]
In particular, in the invention of claim 2, foreign matter correction is performed using a multiplier used for shading correction or another multiplier of the same type as that, so that the configuration can be simplified and cost increase can be suppressed.
[0147]
According to the third aspect of the present invention, since the foreign matter correction means has a multiplier for performing multiplication processing and a DMA controller for transferring foreign matter information from the storage means to the multiplier, the configuration can be simplified and cost increase can be suppressed. .
[0148]
According to the fourth aspect of the present invention, the foreign substance information is generated based on information obtained by a calibration performed before or after the photographing, so that the foreign substance information can be appropriately generated.
[0149]
According to the fifth aspect of the present invention, since the foreign substance information is generated based on information of a photographed image acquired by the imaging device in the calibration or information of a reciprocal of a pixel level of the photographed image, the foreign substance information is easily generated. it can.
[0150]
In the invention of claim 6, since the foreign substance information is generated in units of blocks for calculating the exposure evaluation value, the memory can be saved and the configuration is simplified.
[0151]
According to the seventh aspect of the present invention, since the achromatic chart is photographed in the calibration, the foreign substance information can be appropriately acquired.
[0152]
According to the invention of claim 8, since the calibration acquires the foreign substance information in a plurality of states in the imaging optical system, foreign substance correction corresponding to various states of the imaging optical system can be performed.
[0153]
According to the ninth aspect of the invention, in the calibration, the foreign matter information is acquired by changing the exposure condition while maintaining the state of the imaging optical system immediately before or immediately after the photographing, so that optimal foreign matter information can be acquired.
[0154]
According to the tenth aspect of the present invention, the noise reduction processing is performed by making the degree of noise processing of a foreign image portion in which an influence of a foreign object appears in the captured image obtained by the image sensor different from that of the captured image excluding the foreign image portion. Therefore, appropriate noise correction processing can be performed on an image on which foreign matter correction has been performed, and image quality can be improved.
[0155]
According to the eleventh aspect of the present invention, since the noise reduction processing is performed to a degree corresponding to the degree of foreign matter correction of the foreign matter image portion by the foreign matter correction means, more appropriate noise reduction processing can be performed, and image quality can be further improved.
[0156]
In the twelfth aspect of the present invention, since the noise reduction processing is performed at a degree corresponding to the degree of luminance change in the foreign matter image portion, more appropriate noise reduction processing can be performed, and image quality can be further improved.
[0157]
According to the invention of claim 13, since the degree of the luminance change is detected based on the photographed image acquired by the image sensor at the time of the actual photographing, the degree of the luminance change can be detected with high accuracy.
[Brief description of the drawings]
FIG. 1 is a diagram showing functional blocks of an imaging device 1 according to a first embodiment of the present invention.
FIG. 2 is a diagram for explaining the principle of dust correction.
FIG. 3 is a diagram for explaining generation of a dust correction partial table.
FIG. 4 is a diagram for explaining shading correction and dust correction.
FIG. 5 is a flowchart showing a calibration warning operation in the imaging apparatus 1.
FIG. 6 is a flowchart illustrating an operation in a calibration mode.
FIG. 7 is a diagram for explaining dust correction using a plurality of DMA channels.
FIG. 8 is a diagram showing functional blocks of an imaging device 5 according to a second embodiment of the present invention.
FIG. 9 is a diagram for explaining a noise reduction processor 51.
FIG. 10 is a diagram for explaining input / output characteristics of a coring processing unit 513.
FIG. 11 is a diagram for describing noise reduction processing when a high-frequency image exists in the dust presence area BL.
FIG. 12 is a diagram for explaining calculation of an evaluation value using a Sobel filter.
FIG. 13 is a diagram for explaining an evaluation value based on an AF evaluation contrast value.
FIG. 14 is a diagram for explaining a gain curve Gn2 for dust correction.
[Explanation of symbols]
1, 5 imaging device
3 Image processing unit
11 Image sensor
12 Optical LPF
13 lens groups
34 Shading correction unit
34a, 35a Multiplier
35 Dust correction unit
40 Camera control unit
41 Image memory
41a Noise reduction table
42 Non-volatile memory
43 LCD monitor
51 Noise reduction processor
511 LPF section
512 HPF section
513 Coring processing unit
514 Multiplier
BL garbage area
D1-6, D31-34 DMA channel
F1-F4 Sobel filter
Gb inverted image
HG high frequency component

Claims (13)

撮像素子と、前記撮像素子に被写体像を結像させる撮像光学系とを含む撮像部を有する撮像装置であって、
(a)前記撮像素子で取得された画像信号に対して画像処理を行う画像処理手段と、
(b)前記撮像部に存在する異物について、前記画像信号に対する前記異物の影響を表す異物情報を記憶する記憶手段と、
を備え、
前記画像処理手段は、
(a−1)前記異物情報に基づいて得られるデータ値との乗算処理を伴うデジタル処理により、前記画像信号に対して異物補正を行う異物補正手段、
を有することを特徴とする撮像装置。
An imaging device having an imaging unit including an imaging element and an imaging optical system that forms a subject image on the imaging element,
(A) image processing means for performing image processing on an image signal acquired by the image sensor;
(B) storage means for storing, for a foreign substance present in the imaging unit, foreign substance information indicating an influence of the foreign substance on the image signal;
With
The image processing means,
(A-1) foreign matter correction means for performing foreign matter correction on the image signal by digital processing involving multiplication processing with a data value obtained based on the foreign matter information;
An imaging device comprising:
請求項1に記載の撮像装置において、
前記画像処理手段は、
(a−2)乗算処理を行う乗算器と、
(a−3)前記乗算器での乗算処理を伴うデジタル処理により、前記画像信号に対してシェーディング補正を行うシェーディング補正手段と、
を有し、
前記異物補正は、前記乗算器または前記乗算器と同一タイプの別の乗算器を利用して行われることを特徴とする撮像装置。
The imaging device according to claim 1,
The image processing means,
(A-2) a multiplier for performing a multiplication process;
(A-3) shading correction means for performing shading correction on the image signal by digital processing involving multiplication processing in the multiplier;
Has,
The imaging apparatus according to claim 1, wherein the foreign matter correction is performed using the multiplier or another multiplier of the same type as the multiplier.
請求項1に記載の撮像装置において、
前記異物補正手段は、
前記乗算処理を行う乗算器と、
前記異物情報を前記記憶手段から前記乗算器に転送するDMAコントローラと、
を有することを特徴とする撮像装置。
The imaging device according to claim 1,
The foreign matter correction means,
A multiplier for performing the multiplication process;
A DMA controller that transfers the foreign object information from the storage unit to the multiplier;
An imaging device comprising:
請求項1ないし請求項3のいずれかに記載の撮像装置において、
撮影前または撮影後に前記異物補正に係るキャリブレーションを行うためのキャリブレーションモードを有し、
前記異物情報は、前記キャリブレーションで取得された情報に基づき生成されることを特徴とする撮像装置。
The imaging device according to any one of claims 1 to 3,
Having a calibration mode for performing calibration related to the foreign matter correction before or after shooting,
The imaging apparatus according to claim 1, wherein the foreign substance information is generated based on information acquired by the calibration.
請求項4に記載の撮像装置において、
前記異物情報は、前記キャリブレーションで前記撮像素子により取得された撮影画像の情報、または前記撮影画像に関する画素レベルの逆数の情報に基づき生成されることを特徴とする撮像装置。
The imaging device according to claim 4,
The imaging apparatus according to claim 1, wherein the foreign substance information is generated based on information on a captured image acquired by the imaging device in the calibration or information on a reciprocal of a pixel level of the captured image.
請求項1ないし請求項5のいずれかに記載の撮像装置において、
前記画像処理手段は、
(a−4)前記撮像素子で取得した撮影画像を複数のブロックに分割し、ブロックごとに露出評価値を算出する算出手段、
を有し、
前記異物情報は、前記ブロック単位で生成されることを特徴とする撮像装置。
The imaging device according to any one of claims 1 to 5,
The image processing means,
(A-4) calculating means for dividing the captured image obtained by the image sensor into a plurality of blocks, and calculating an exposure evaluation value for each block;
Has,
The imaging apparatus according to claim 1, wherein the foreign object information is generated in the block unit.
請求項4または請求項5に記載の撮像装置において、
前記キャリブレーションでは、無彩色のチャートを撮影することを特徴とする撮像装置。
In the imaging device according to claim 4 or 5,
In the calibration, an achromatic chart is photographed.
請求項4または請求項5に記載の撮像装置において、
前記キャリブレーションでは、前記撮像光学系における複数の状態での異物情報を取得することを特徴とする撮像装置。
In the imaging device according to claim 4 or 5,
The imaging apparatus according to claim 1, wherein the calibration acquires foreign substance information in a plurality of states in the imaging optical system.
請求項4または請求項5に記載の撮像装置において、
前記キャリブレーションでは、撮影直前または撮影直後において、前記撮像光学系の状態を保持しつつ露出条件を変更して、前記異物情報を取得することを特徴とする撮像装置。
In the imaging device according to claim 4 or 5,
In the calibration, immediately before or immediately after photographing, the foreign object information is acquired by changing an exposure condition while maintaining a state of the imaging optical system.
請求項1ないし請求項9のいずれかに記載の撮像装置において、
前記画像処理手段は、
(a−5)前記画像信号に対するノイズ処理の度合いを変更可能なノイズ処理手段、
をさらに有し、
前記ノイズ処理手段は、
前記撮像素子で取得した撮影画像のうち前記異物の影響が現れる異物画像部分のノイズ処理の度合いを、前記異物画像部分を除く前記撮影画像と異ならせてノイズ低減処理を行うノイズ低減処理手段、
を有することを特徴とする撮像装置。
The imaging device according to any one of claims 1 to 9,
The image processing means,
(A-5) noise processing means capable of changing the degree of noise processing on the image signal;
Further having
The noise processing means,
Noise reduction processing means for performing a noise reduction process by making the degree of noise processing of a foreign image portion in which the influence of the foreign substance appears in the captured image obtained by the imaging element different from that of the captured image excluding the foreign image section,
An imaging device comprising:
請求項10に記載の撮像装置において、
前記ノイズ低減処理手段は、
前記異物補正手段による前記異物画像部分の異物補正の程度に応じた度合いで、ノイズ低減処理を行う手段、
を有することを特徴とする撮像装置。
The imaging device according to claim 10,
The noise reduction processing means,
Means for performing noise reduction processing at a degree corresponding to the degree of foreign matter correction of the foreign matter image portion by the foreign matter correction means,
An imaging device comprising:
請求項10または請求項11に記載の撮像装置において、
前記ノイズ低減処理手段は、
前記異物画像部分における輝度変化の程度に応じた度合いで、ノイズ低減処理を行う手段、
を有することを特徴とする撮像装置。
In the imaging device according to claim 10 or 11,
The noise reduction processing means,
Means for performing noise reduction processing at a degree corresponding to the degree of luminance change in the foreign matter image portion,
An imaging device comprising:
請求項12に記載の撮像装置において、
(c)本撮影時に前記撮像素子で取得された撮影画像に基づき、前記輝度変化の度合いを検出する輝度変化検出手段、
をさらに備えることを特徴とする撮像装置。
The imaging device according to claim 12,
(C) a luminance change detecting means for detecting a degree of the luminance change based on a photographed image acquired by the image sensor at the time of actual photographing;
An imaging device, further comprising:
JP2003163430A 2003-01-20 2003-06-09 Imaging apparatus Pending JP2004282686A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2003163430A JP2004282686A (en) 2003-01-20 2003-06-09 Imaging apparatus

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2003011203 2003-01-20
JP2003163430A JP2004282686A (en) 2003-01-20 2003-06-09 Imaging apparatus

Publications (1)

Publication Number Publication Date
JP2004282686A true JP2004282686A (en) 2004-10-07

Family

ID=33301486

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2003163430A Pending JP2004282686A (en) 2003-01-20 2003-06-09 Imaging apparatus

Country Status (1)

Country Link
JP (1) JP2004282686A (en)

Cited By (14)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007158935A (en) * 2005-12-07 2007-06-21 Sony Corp Imaging apparatus and system
JP2007208743A (en) * 2006-02-02 2007-08-16 Canon Inc IMAGING DEVICE, ITS CONTROL METHOD, AND COMPUTER PROGRAM
JP2007274532A (en) * 2006-03-31 2007-10-18 Sony Corp Imaging apparatus, high frequency component detection circuit, high frequency component detection method, and computer program
JP2009005058A (en) * 2007-06-21 2009-01-08 Ricoh Co Ltd Image recording device
JP2009077057A (en) * 2007-09-19 2009-04-09 Olympus Imaging Corp Imaging apparatus, and control method for imaging apparatus
JP2009141906A (en) * 2007-12-10 2009-06-25 Canon Inc Imaging apparatus, control method thereof, and program
JP2011061711A (en) * 2009-09-14 2011-03-24 Nec Corp Imaging apparatus, and image processing method thereof
JP2011197452A (en) * 2010-03-19 2011-10-06 Fujifilm Corp Compound eye imaging apparatus and control method of the same
JP2011211267A (en) * 2010-03-29 2011-10-20 Sony Corp Imaging apparatus, image processing apparatus, image processing method and program
JP2011234172A (en) * 2010-04-28 2011-11-17 Fujitsu Ltd Image processing device, image processing method, computer program for image processing and imaging device
JP2012234193A (en) * 2008-09-10 2012-11-29 Panasonic Corp Camera body and imaging apparatus
JP2016127567A (en) * 2015-01-08 2016-07-11 キヤノン株式会社 Image processor, information processing method and program
JP2018191087A (en) * 2017-04-28 2018-11-29 株式会社デンソーテン Adhesive matter detection device and adhesive matter detection method
JP2019146117A (en) * 2018-02-23 2019-08-29 オムロン株式会社 Image sensor

Cited By (19)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8081251B2 (en) 2005-12-07 2011-12-20 Sony Corporation Imaging device and imaging system
JP2007158935A (en) * 2005-12-07 2007-06-21 Sony Corp Imaging apparatus and system
JP2007208743A (en) * 2006-02-02 2007-08-16 Canon Inc IMAGING DEVICE, ITS CONTROL METHOD, AND COMPUTER PROGRAM
JP2007274532A (en) * 2006-03-31 2007-10-18 Sony Corp Imaging apparatus, high frequency component detection circuit, high frequency component detection method, and computer program
US7889272B2 (en) 2006-03-31 2011-02-15 Sony Corporation Imaging apparatus, high frequency component detection circuit, high frequency component detection method and computer program product
JP2009005058A (en) * 2007-06-21 2009-01-08 Ricoh Co Ltd Image recording device
JP2009077057A (en) * 2007-09-19 2009-04-09 Olympus Imaging Corp Imaging apparatus, and control method for imaging apparatus
JP2009141906A (en) * 2007-12-10 2009-06-25 Canon Inc Imaging apparatus, control method thereof, and program
JP2012234193A (en) * 2008-09-10 2012-11-29 Panasonic Corp Camera body and imaging apparatus
US8786770B2 (en) 2008-09-10 2014-07-22 Panasonic Corporation Camera body and imaging device
US9049359B2 (en) 2008-09-10 2015-06-02 Panasonic Intellectual Property Management Co., Ltd. Camera body
JP2011061711A (en) * 2009-09-14 2011-03-24 Nec Corp Imaging apparatus, and image processing method thereof
JP2011197452A (en) * 2010-03-19 2011-10-06 Fujifilm Corp Compound eye imaging apparatus and control method of the same
JP2011211267A (en) * 2010-03-29 2011-10-20 Sony Corp Imaging apparatus, image processing apparatus, image processing method and program
JP2011234172A (en) * 2010-04-28 2011-11-17 Fujitsu Ltd Image processing device, image processing method, computer program for image processing and imaging device
JP2016127567A (en) * 2015-01-08 2016-07-11 キヤノン株式会社 Image processor, information processing method and program
US10116809B2 (en) 2015-01-08 2018-10-30 Canon Kabushiki Kaisha Image processing apparatus, control method, and computer-readable storage medium, which obtains calibration image information with which to correct image data
JP2018191087A (en) * 2017-04-28 2018-11-29 株式会社デンソーテン Adhesive matter detection device and adhesive matter detection method
JP2019146117A (en) * 2018-02-23 2019-08-29 オムロン株式会社 Image sensor

Similar Documents

Publication Publication Date Title
JP4186699B2 (en) Imaging apparatus and image processing apparatus
CN108632537B (en) Control method and device, imaging device, computer device, and readable storage medium
CA2996751C (en) Calibration of defective image sensor elements
US7176962B2 (en) Digital camera and digital processing system for correcting motion blur using spatial frequency
CN105323474B (en) Picture pick-up device and its control method
JP2005269373A (en) Video signal processing system, and electronic video apparatus
JP3912404B2 (en) Imaging device
JP2004282686A (en) Imaging apparatus
JP4433883B2 (en) White balance correction device, white balance correction method, program, and electronic camera device
JP5084366B2 (en) IMAGING DEVICE AND IMAGING DEVICE CONTROL METHOD
JP2004328117A (en) Digital camera and photographing control method
JP4167200B2 (en) Signal processing apparatus, signal processing method, and digital camera
JP2011071709A (en) Electronic camera
GB2460241A (en) Correction of optical lateral chromatic aberration
JP2008141658A (en) Electronic camera and image processing apparatus
US9912873B2 (en) Image pickup apparatus equipped with display section and method of controlling the same
JP5387341B2 (en) Imaging device
JP2007195122A (en) Imaging apparatus, image processor and image processing method
JP6631099B2 (en) Imaging device
JP2010068046A (en) Imaging apparatus
KR101612853B1 (en) Photographing apparatus, controlling method of photographing apparatus, and recording medium storing program to implement the controlling method
JP5299159B2 (en) Imaging apparatus and program
KR101119971B1 (en) Image pick up apparatus
JP2006253970A (en) Imaging apparatus, shading correction data creation method and program
JP6645099B2 (en) Image processing device

Legal Events

Date Code Title Description
A711 Notification of change in applicant

Free format text: JAPANESE INTERMEDIATE CODE: A712

Effective date: 20050615

RD03 Notification of appointment of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7423

Effective date: 20051206