JP2004282686A - Imaging apparatus - Google Patents
Imaging apparatus Download PDFInfo
- Publication number
- JP2004282686A JP2004282686A JP2003163430A JP2003163430A JP2004282686A JP 2004282686 A JP2004282686 A JP 2004282686A JP 2003163430 A JP2003163430 A JP 2003163430A JP 2003163430 A JP2003163430 A JP 2003163430A JP 2004282686 A JP2004282686 A JP 2004282686A
- Authority
- JP
- Japan
- Prior art keywords
- image
- dust
- imaging device
- correction
- imaging
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000003384 imaging method Methods 0.000 title claims abstract description 120
- 238000012937 correction Methods 0.000 claims description 151
- 238000012545 processing Methods 0.000 claims description 92
- 230000009467 reduction Effects 0.000 claims description 67
- 238000003705 background correction Methods 0.000 claims description 42
- 238000011156 evaluation Methods 0.000 claims description 39
- 230000003287 optical effect Effects 0.000 claims description 36
- 239000000126 substance Substances 0.000 claims description 28
- 238000000034 method Methods 0.000 claims description 23
- 238000003860 storage Methods 0.000 claims description 22
- 230000008569 process Effects 0.000 claims description 18
- 230000008859 change Effects 0.000 claims description 14
- 238000011946 reduction process Methods 0.000 claims description 6
- 238000012546 transfer Methods 0.000 claims description 5
- 239000000428 dust Substances 0.000 abstract description 187
- 238000009826 distribution Methods 0.000 abstract description 2
- 238000010586 diagram Methods 0.000 description 21
- 238000001514 detection method Methods 0.000 description 12
- 238000013500 data storage Methods 0.000 description 9
- 238000006243 chemical reaction Methods 0.000 description 7
- 230000010354 integration Effects 0.000 description 6
- 238000004364 calculation method Methods 0.000 description 5
- 239000011159 matrix material Substances 0.000 description 5
- 230000000694 effects Effects 0.000 description 4
- 230000002093 peripheral effect Effects 0.000 description 4
- 230000006835 compression Effects 0.000 description 3
- 238000007906 compression Methods 0.000 description 3
- 230000006870 function Effects 0.000 description 3
- 239000010813 municipal solid waste Substances 0.000 description 3
- 230000011514 reflex Effects 0.000 description 3
- 238000009825 accumulation Methods 0.000 description 2
- 238000004458 analytical method Methods 0.000 description 2
- 230000002950 deficient Effects 0.000 description 2
- 238000004519 manufacturing process Methods 0.000 description 2
- 238000012935 Averaging Methods 0.000 description 1
- 238000013459 approach Methods 0.000 description 1
- 230000005540 biological transmission Effects 0.000 description 1
- 230000003139 buffering effect Effects 0.000 description 1
- 239000003086 colorant Substances 0.000 description 1
- 230000000295 complement effect Effects 0.000 description 1
- 238000009792 diffusion process Methods 0.000 description 1
- 230000000873 masking effect Effects 0.000 description 1
- 238000005259 measurement Methods 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 238000005375 photometry Methods 0.000 description 1
- 238000001454 recorded image Methods 0.000 description 1
- 230000035945 sensitivity Effects 0.000 description 1
- 230000035939 shock Effects 0.000 description 1
Images
Landscapes
- Picture Signal Circuits (AREA)
- Studio Devices (AREA)
Abstract
Description
【0001】
【発明の属する技術分野】
本発明は、撮像素子と撮像光学系とを含む撮像部を有する撮像装置に関する。
【0002】
【従来の技術】
従来のデジタルカメラにおいては、光学レンズ、光学LPF(Low Pass Filter)等にゴミ、チリ、ホコリ(これらを総称して「異物」という)が付着し、これが撮影画像に写り込んでしまって撮影画像の一部分に黒い斑点のようなものが生じる場合がある。
【0003】
ゴミ等が撮像光学系の内部に入り込んでしまう原因としては、工場における製造段階でのゴミ除去の不徹底によるものや、撮像光学系の内部におけるシャッタや絞りなどのメカ部材の磨耗によるもの、レンズ交換式一眼レフタイプのデジタルカメラにおけるレンズ交換時の封入によるものなどが挙げられる。
【0004】
これに関しては、特許文献1や特許文献2に、隣接画素に基づく補間によって異物を目立たなくする技術が開示されている。
【0005】
【特許文献1】
特開2000−312314号公報
【特許文献2】
特開2002−209147号公報
【0006】
【発明が解決しようとする課題】
しかしながら、特許文献1および特許文献2の技術では、ゴミがせいぜい1〜2画素の場合に有効な方法であるため、十数画素に及ぶゴミに対する適用は困難である。
【0007】
一方、ゴミ等はレンズ交換時に光学LPFに付着する場合が多く、この場合には一定の光の回込みがあるためゴミ等の影響で被写体像の情報が全く欠落するわけではない。
【0008】
本発明は、上記課題に鑑みてなされたものであり、比較的大きな異物に対しても適切な異物補正が行える撮像装置を提供することを目的とする。
【0009】
【課題を解決するための手段】
上記の課題を解決するため、請求項1の発明は、撮像素子と、前記撮像素子に被写体像を結像させる撮像光学系とを含む撮像部を有する撮像装置であって、(a)前記撮像素子で取得された画像信号に対して画像処理を行う画像処理手段と、(b)前記撮像部に存在する異物について、前記画像信号に対する前記異物の影響を表す異物情報を記憶する記憶手段とを備え、前記画像処理手段は、(a−1)前記異物情報に基づいて得られるデータ値との乗算処理を伴うデジタル処理により、前記画像信号に対して異物補正を行う異物補正手段、を有する。
【0010】
また、請求項2の発明は、請求項1の発明に係る撮像装置において、前記画像処理手段は、(a−2)乗算処理を行う乗算器と、(a−3)前記乗算器での乗算処理を伴うデジタル処理により、前記画像信号に対してシェーディング補正を行うシェーディング補正手段とを有し、前記異物補正は、前記乗算器または前記乗算器と同一タイプの別の乗算器を利用して行われる。
【0011】
また、請求項3の発明は、請求項1の発明に係る撮像装置において、前記異物補正手段は、前記乗算処理を行う乗算器と、前記異物情報を前記記憶手段から前記乗算器に転送するDMAコントローラとを有する。
【0012】
また、請求項4の発明は、請求項1ないし請求項3のいずれかの発明に係る撮像装置において、撮影前または撮影後に前記異物補正に係るキャリブレーションを行うためのキャリブレーションモードを有し、前記異物情報は、前記キャリブレーションで取得された情報に基づき生成される。
【0013】
また、請求項5の発明は、請求項4の発明に係る撮像装置において、前記異物情報は、前記キャリブレーションで前記撮像素子により取得された撮影画像の情報、または前記撮影画像に関する画素レベルの逆数の情報に基づき生成される。
【0014】
また、請求項6の発明は、請求項1ないし請求項5のいずれかの発明に係る撮像装置において、前記画像処理手段は、(a−4)前記撮像素子で取得した撮影画像を複数のブロックに分割し、ブロックごとに露出評価値を算出する算出手段を有し、前記異物情報は、前記ブロック単位で生成される。
【0015】
また、請求項7の発明は、請求項4または請求項5の発明に係る撮像装置において、前記キャリブレーションでは、無彩色のチャートを撮影する。
【0016】
また、請求項8の発明は、請求項4または請求項5の発明に係る撮像装置において、前記キャリブレーションでは、前記撮像光学系における複数の状態での異物情報を取得する。
【0017】
また、請求項9の発明は、請求項4または請求項5の発明に係る撮像装置において、前記キャリブレーションでは、撮影直前または撮影直後において、前記撮像光学系の状態を保持しつつ露出条件を変更して、前記異物情報を取得する。
【0018】
また、請求項10の発明は、請求項1ないし請求項9のいずれかの発明に係る撮像装置において、前記画像処理手段は、(a−5)前記画像信号に対するノイズ処理の度合いを変更可能なノイズ処理手段をさらに有し、前記ノイズ処理手段は、前記撮像素子で取得した撮影画像のうち前記異物の影響が現れる異物画像部分のノイズ処理の度合いを、前記異物画像部分を除く前記撮影画像と異ならせてノイズ低減処理を行うノイズ低減処理手段を有する。
【0019】
また、請求項11の発明は、請求項10の発明に係る撮像装置において、前記ノイズ低減処理手段は、前記異物補正手段による前記異物画像部分の異物補正の程度に応じた度合いで、ノイズ低減処理を行う手段を有する。
【0020】
また、請求項12の発明は、請求項10または請求項11の発明に係る撮像装置において、前記ノイズ低減処理手段は、前記異物画像部分における輝度変化の程度に応じた度合いで、ノイズ低減処理を行う手段を有する。
【0021】
また、請求項13の発明は、請求項12の発明に係る撮像装置において、(c)本撮影時に前記撮像素子で取得された撮影画像に基づき、前記輝度変化の度合いを検出する輝度変化検出手段をさらに備える。
【0022】
【発明の実施の形態】
<第1実施形態>
<撮像装置の要部構成>
図1は、本発明の第1実施形態に係る撮像装置1の機能ブロックを示す図である。
【0023】
撮像装置1は、デジタルカメラとして構成されており、撮像センサ11と、撮像センサ11に接続する信号処理部2と、信号処理部2に接続する画像処理部3と、カメラ制御部40とを備えている。
【0024】
撮像センサ11は、R(赤)、G(緑)、B(青)の原色透過フィルターが市松状に配列された単板の画素配列を有するエリア撮像センサとして構成されており、全画素読み出しタイプの撮像素子となっている。この撮像センサ11では、電荷の蓄積が完了すると光電変換された信号が遮光された転送路にシフトされ、ここからバッファを介して読み出されて、レンズ群13を含む撮像光学系により結像された被写体像に係る画像信号が出力される。また、撮像センサ11の前には、光学LPF12が設けられている。なお、撮像装置1の撮像部は、撮像センサ11と光学LPF12とレンズ群13とを含んで構成される。
【0025】
信号処理部2は、CDS21とAGC22とA/D変換部23とを有している。
【0026】
撮像センサ11から出力された画像信号は、CDS21でサンプリングされ撮像センサ11のノイズを除去した後、AGC22により感度補正が行われる。
【0027】
A/D変換部23は、14ビットAD変換器で構成されており、AGC22で正規化されたアナログ信号をデジタル化する。デジタル化された画像信号は、画像処理部3で所定の画像処理が施された画像ファイルが生成される。
【0028】
画像処理部3は、CPUおよびメモリを有しており、デジタル処理部3aと画像圧縮部37とビデオエンコーダー38とメモリカードドライバ39とを備えている。
【0029】
デジタル処理部3aは、カラーバランス評価用積算器30と画素補間部31と解像度変換部32とホワイトバランス制御部33とを有している。また、デジタル処理部3aは、シェーディング補正部34とゴミ補正部35とガンマ補正部36とを有している。
【0030】
画像処理部3に入力された画像データは、撮像センサ11の読出しに同期し、例えばSDRAMで構成される画像メモリ41に書込みまれる。以後、この画像メモリ41に格納される画像データにアクセスし、デジタル処理部3aで各種の処理が行われる。
【0031】
画像メモリ41上の画像データは、カラーバランス評価用積算器30によって、色毎(RGB)に小エリア毎の画素積算データが算出される。この小エリアとは、1画面を多分割した分割エリアのことである。このような小エリア内での画素値の積算を行うことにより平均処理を施すのと同等の効果が得られる。このカラーバランス評価用積算器30の演算結果を用いてRGB各画素のゲインデータが求められる。
【0032】
そして、ホワイトバランス制御部33によりRGB各画素が独立にゲイン補正されて、RGBのホワイトバランス補正が行われる。このホワイトバランス補正では、撮影被写体から本来白色と思われる部分を輝度、彩度データ等から推測しその部分のR、G、Bそれぞれの平均、G/R比、G/B比を求めて、このG/R比およびG/B比をR、Bの補正ゲインとして補正制御が行われる。
【0033】
ホワイトバランス補正が行われた画像データは、シェーディング補正部34で画素位置毎に異なるゲインがかかる、いわゆるシェーディング補正が行われる。不揮発性メモリ42には、あらかじめレンズ群13の光学性能より導き出した、各画素のゲインデータが記述されるシェーディング補正テーブルが保管されている。そして、シェーディング補正の際には、シェーディング補正部34において、不揮発性メモリ42から画像メモリ41に転送されたシェーディング補正テーブルと画像データとが乗算され補正が行われることとなる。このシェーディング補正については、後で詳述する。
【0034】
シェーディング補正後には、ゴミ補正部35でゴミ補正(異物補正)が行われる。不揮発性メモリ42には、あらかじめキャリブレーション(後述)によって導き出されたゴミ補正部分テーブルが保管されている。ゴミ補正の際には、シェーディング補正と同様に、不揮発性メモリ42から画像メモリ41に転送されたゴミ補正データと画像データとが乗算されて補正が行われることとなる。このゴミ補正については、後で詳述する。
【0035】
シェーディング補正およびゴミ補正が行われた画像データは、画素補間部31でRGB各画素をそれぞれのフィルターパターンでマスキングした後、高帯域まで画素を持つGについてはメディアン(中間値)フィルターで周辺4画素の中間2値の平均値に置換する。R、Bに関しては平均補間が行われる。
【0036】
補間された画像データにおけるRGBデータは、ガンマ補正部36で各出力機器に適合した非線形変換が行われた後、マトリクス演算によりRGBからY、R−Y、B−Yデータが算出されて画像メモリ41に格納される。
【0037】
そして、このY、R−Y、B−Yデータについては、水平垂直の縮小または間引きが行われ、解像度変換部32で記録画像の画素数に解像度変換が行われる。また、モニタ表示においても、解像度変換部32で間引きが行われ、LCDモニタ43、電子ビューファインダー44で表示するための低解像度画像を作成する。
【0038】
プレビュー(ライブビュー)時は、画像メモリ41から読み出された640*240画素の低解像度画像がビデオエンコーダー38でNTSC/PALにエンコードされ、これをフィールド画像として電子ファインダー44またはLCDモニタ43で画像再生を行う。また、画像記録時は、設定された記録用解像度の画像を画像圧縮部37により圧縮処理を行った後に、メモリーカードドライバー39によりメモリーカード9に圧縮画像が記録される。
【0039】
カメラ制御部40は、CPUおよびメモリを備え、シャッターボタンなどを有するカメラ操作スイッチ49に対して撮影者が行う操作入力を処理する。このカメラ操作スイッチ49への撮影者の操作入力により、キャリブレーションモード(後述)に設定できる。
【0040】
撮像装置1は、本撮影前に被写体を動画的態様でLCDモニタ43などに表示するライブビュー表示時には、シャッター45の光学絞り値が絞りドライバー46によって開放固定となる。また、撮像センサ11の電荷蓄積時間に関しては、撮像センサ11で取得した画像のうち選択された測光エリアで測光される光量データに基づき、カメラ制御部40で露出制御データが演算される。そして、カメラ制御部40で算出された露出制御データに基づいて予め設定されたプログラム線図により、タイミングジェネレーターセンサドライバー47で撮像センサ11の露光時間が適正となるようにフイードバック制御が行われる。
【0041】
また、撮像装置1では、本撮影時に、上記の測光された光量データに基づき予め設定されたプログラム線図により絞りドライバ46とタイミングジェネレーターセンサドライバー47で撮像センサ11ヘの露光量が制御される。
【0042】
<ゴミ補正の原理について>
交換レンズ式の一眼レフデジタルカメラでは、レンズ交換の際に撮像光学系の内部にゴミが入り込み、これが光学レンズや光学LPFに付着する場合には、撮像面にゴミが投影され、撮影画像にゴミの影が写り込んでしまう。その結果、撮影画像の特定部分が常に暗くなるという現象が生じる。
【0043】
また、デジタルカメラでは、撮像光学系の内部のメカ部材(絞り羽根、メカシャッタなど)が磨耗することによりチリが発生する場合や、工場における製造時にチリ、ホコリが入り込む場合にも、上記のゴミの場合と同様に、撮影画像の一部が暗くなるという現象が生じる。
【0044】
撮像装置1の撮像部に存在するゴミ等を除去するには、通常のレンズ固定型デジタルカメラでは、カメラを一旦分解して全ての撮像光学系部材の洗浄を行い、再度組立て直すという作業が必要となる。一方、レンズ交換式のデジタルカメラでも、ゴミを除去するには、特殊な機材が必要となる。
【0045】
そこで、シェーディング補正の特徴である「画素位置で異なるゲインをかけることができる」という性質を応用することにより、撮像光学系(レンズ、光学LPF(Low Pass Filter)等)に付着したゴミ、チリ、ホコリ等(異物)の影響で画像中の一部分が暗くなった撮影画像をデジタル的に補正(異物の影を除去)するゴミ補正を行うこととする。以下では、説明を簡潔にするため、異物の代表としてゴミを取り上げて説明する。
【0046】
図2は、ゴミ補正の原理を説明するための図である。
【0047】
例えば、図2(a)に示すように、画像を複数の小エリアBKにマトリクス状に分割する。この小エリアBKは、例えば水平40(画素)×垂直32(画素)の大きさである。なお、RAW画像データでの解析を考慮すると、水平、垂直ともに偶数の画素数であるのが好ましい。そして、分割された小エリアに基づき、ゴミの影響で輝度が低下する部分PLが存在するゴミ存在エリアBL(平行斜線部)を検出する。
【0048】
ここで、図2(b)に示すように、ゴミ存在エリアBLに対応する原画像Gaと、原画像Gaの各部分の画素レベルの逆数をとることによって生成した補正用画像Gbとを乗算することにより、ゴミの影響が除去された画像Gcを得ることができる。この補正用画像Gbは、原画像Gaの画素レベルの大小関係が反転していることから、以下ではこれを「反転画像Gb」と呼ぶが、通常の意味における「反転画像」、つまり各画素の各色成分がNビット表現されているとともに、原画像Gaの画素レベルxについての、Nビットに対する補数(2N−x)として定義される画像とは異なり、ゲインによって表現された「ゲイン逆転画像」である。このように、反転画像Gbをゲイン表現していることから、反転画像Gbの情報に基づきゴミ補正部分テーブルを生成し、この補正テーブルと、別途に撮影した撮影画像とを乗算することで撮影画像からゴミを消去できることとなる。このゴミ補正部分テーブルの生成を、以下で説明する。
【0049】
図3は、ゴミ補正部分テーブルの生成を説明するための図である。
【0050】
まず、図3(a)に示すように、小エリアBKに分割された画像データ(RAWデータ)から、ゴミ存在エリアBL(太枠部)を検出する。この画像データは、無彩色のチャート、例えば白チャート(白画像)を撮影するキャリブレーションを行うことによって取得される。
【0051】
ここで、ゴミ存在エリアBLにおける仮想線LIの位置での輝度分布を、図3(b)のように考える。この図3(b)の横軸については、図3(a)に示す仮想線LIに沿った水平方向の位置を示しており、縦軸については、輝度値を示している。
【0052】
次に、上記のゴミ存在エリアBLに対する輝度補正を行うため、図3(c)に示すゴミ補正データ(太線部)を生成する。この図3(c)の横軸については、図3(a)に示す仮想線LIに沿った水平方向の位置を示しており、縦軸については、ゲイン値を示している。このゴミ補正データの生成方法を以下で説明する。
【0053】
ゴミ存在エリアBLの周辺に存在する全ての小エリアBLから、RGB各色について画素値の平均値を求める。この平均値に対して、ゴミ存在エリアBL内の全画素による除算を行い、各画素のゲインを求める。この場合、ゲイン値が一定値、例えば等倍ラインKe以下である場合は、等倍とする。また、ゲイン値が上限ラインKuを超える場合には、上限ラインKuでクリップする。これにより、極端に大きいゲイン値を排除できる。
【0054】
図3(c)では、仮想線LI上の画素列に関するゴミ補正データを表しているが、これを二次元に拡張しゴミ存在エリアBL内の画素行列に関するゴミ補正データ(図2の反転画像Gbに相当するもの)を生成する。生成されたゴミ補正データは、ゴミ補正部分テーブルとして不揮発性メモリ42に保存される。このゴミ補正部分テーブルは、画像データ(画像信号)に対するゴミ(異物)の影響を表す異物情報を記憶する記憶手段として働く。
【0055】
<シェーディング補正およびゴミ補正について>
図4は、シェーディング補正およびゴミ補正を説明するための図である。
【0056】
画像メモリ41は、画像データ保存領域M1と、シェーディング補正テーブル保存領域M2と、ゴミ補正全体テーブルM3と、補正後画像データ保存領域M4とに領域分けされている。
【0057】
画像データ保存領域M1には、撮像センサ11で取得された画像データ(RAWデータ)が保存される。
【0058】
シェーディング補正テーブル保存領域M2には、ゲインデータとして構成されるシェーディング補正テーブルが保存されている。このゲインデータの並び(配列)と画像データの並びとの整合性をとる、つまり双方の画素を対応させることにより、各画素データに所定のゲインが乗算できる。すなわち、撮影画像において画像周辺にいくほど高ゲインとなるシェーディング補正テーブルである場合には、画像周辺にいくほど高ゲインを施すことが可能となる、つまりシェーディング補正を行えることとなる。
【0059】
ゴミ補正全体テーブル保存領域M3には、ゴミ全体補正テーブルが保存されている。このゴミ補正全体テーブルは、DMA(direct memory access)チャンネルを利用して転送するため、図3(c)に示すようなゲイン曲線(太線)Gn1で構成されるゴミ補正部分テーブルを全て統合したデータテーブルとなっている。すなわち、撮影画像に相当するデータ量を有するゴミ補正全体テーブルを等倍データ(ゲイン値が1のデータ)で埋めた後に、ゴミ補正全体テーブル保存領域M3においてゴミ存在エリアBLに相当するアドレスに、ゴミ補正部分テーブルを書き込むことによって、ゴミ補正全体テーブルを生成する。なお、ゴミ検出エリアが複数ある場合には、これらのエリアに対応した位置(アドレス)に各ゴミ補正部分テーブルを書き込み処理を行う。
【0060】
まず、シェーディング補正では、画像データとシェーディング補正データとを、それぞれ別のDMAチャンネル(DMAコントローラ)D1、D2により、画像データ保存領域M1およびシェーディング補正テーブル保存領域M2からシェーディング補正部34に転送する。そして、転送された画像データとシェーディング補正データとが、シェーディング補正部34内の乗算器34aにより、テジタル的に乗算処理されることでシェーディング補正が行われる。
【0061】
次に、ゴミ補正では、DMAチャンネルD3によってゴミ補正全体テーブル保存領域M3からゴミ補正データをゴミ補正部35に転送する。そして、転送されたゴミ補正データ(すなわち異物情報に基づいて得られるデータ値)と、シェーディング補正部34から出力されるシェーディング補正後の画像データとが、乗算器34aと同一タイプの乗算器35aにより、デジタル的に乗算処理されることでゴミ補正が行われる。
【0062】
最後に、ゴミ補正部35から出力されるシェーディング補正およびゴミ補正が施された画像データは、DMAチャンネルD4によって補正後画像データ保存領域M4に保存される。
【0063】
以上のように、撮像装置1では、撮影前または撮影後にキャリブレーション作業を行って取得したゴミの位置や濃度をゴミ補正データとしてカメラ内部に記憶させ、本撮影時に取得した撮影画像におけるゴミ存在エリアBLのゲインをデジタル的に上げることで、ゴミの影を除去することとなる。
【0064】
<撮像装置1の動作>
ゴミについては、次のようなの性質が挙げられる。
【0065】
▲1▼場所が移動する。短時間で動くことは無くても、長時間では同じ場所にとどまらない。
【0066】
▲2▼レンズ交換やメカ部材の磨耗などの原因でその数が増える。
【0067】
このように、ゴミは時間経過とともに変化する性質を有するため、定期的にゴミ補正に係るキャリブレーションを行うように撮影者に警告を発することが好ましい。このキャリブレーションに関する警告動作を以下で説明する。
【0068】
図5は、撮像装置1におけるキャリブレーションの警告動作を示すフローチャートである。この動作は、カメラ制御部40より実行される。
【0069】
撮像装置1を起動した後に、撮像装置1に内蔵されるタイマ(不図示)の計時をスタートする(ステップ1)。
【0070】
ステップS2では、キャリブレーションのタイミングであるかを判定する。このタイミングは、例えば、計時開始から一定時間が経過すると生じるように設定する。ここで、キャリブレーションのタイミングである場合には、ステップS3に進み、そうでない場合には、ステップS2を繰り返す。
【0071】
ステップS3では、LCDモニタ43にキャリブレーションを行う旨の警告表示を行う。
【0072】
ステップS4では、キャリブレーションが完了したかを判定する。ここで、キャリブレーションが完了している場合には、ステップS5に進み、完了してない場合には、ステップS3に戻る。
【0073】
ステップS5では、キャリブレーションが正常に終了したかを判定する。ここで、キャリブレーションが成功つまり正常終了した場合には、ステップS6に進み、キャリブレーションが失敗した場合には、ステップS3に戻る。
【0074】
ステップS6では、ステップS1でスタートした計時をリセットする。
【0075】
以上のキャリブレーションの警告動作により、適切に撮影者にキャリブレーションを実行させることができる。
【0076】
なお、実際にはレンズによって、また絞りや焦点距離、焦点位置によって微妙にゴミの位置が、光線の関係で変化する。このため、撮影の直前・直後においてキャリブレーションの警告を行うようにしても良い。
【0077】
以下では、撮像装置1におけるキャリブレーションを行うためのキャリブレーションモードにおける動作を説明する。
【0078】
図6は、キャリブレーションモードでの動作を示すフローチャートである。
【0079】
撮影者によるカメラ操作スイッチ49の操作によってキャリブレーションモードが設定されると、まず白画像(例えば白チャート)を撮影する旨をLCDモニタ43に表示して撮影者に警告する。
【0080】
そして、ズーム駆動および絞り駆動が行われる(ステップS11)。パワーズームレンズの場合には、周辺部分の光量落ちをゴミと誤検出しないように、光量落ちの一番目立たない撮像条件(焦点距離、絞りなどレンズの光学特性から割り出した条件)を自動的に設定し、この撮像条件に基づきレンズおよび絞りを駆動する。なお、手動ズームの場合にはズーム駆動を指示し、単焦点レンズの場合にはその焦点距離での撮影を指示する。
【0081】
次に、撮影者は白画像を撮影することとなるが、この撮影が終了したか否かを判定する(ステップS12)。ここでは、例えばシャッターボタンが撮影者により押下されたかを判断する。ここで、撮影が終了している場合には、ステップS13に進み、終了していない場合には、ステップS12を繰り返す。
【0082】
ステップS13では、撮影された画像が十分に明るいかを判定する。撮影された白画像データは、カラーバランス評価用積算器30で、色成分毎(RGB)に小エリア(ブロック)毎の画素積算データが算出されるが、この露出評価値に基づき明るいかを判断する。
【0083】
ここで、十分明るい場合には、ステップS14に進む。一方、全体が暗い場合には、キャリブレーションエラーとして一旦終了し、再びキャリブレーション撮影を行う旨を警告する。
【0084】
ステップS14では、RGBの輝度差が、予め定められた閾値以下であるかを判定する。この閾値は、ノイズレベルより判断し、余裕分を含めて定められる。ここで、RGBの輝度差が所定の閾値以下である場合には、ステップS15に進む。一方、所定の閾値を超える場合には、キャリブレーションエラーとして一旦終了し、再びキャリブレーション撮影を行う旨を警告する。
【0085】
以上のステップS13およびステップS14の動作により、撮影画像がゴミ補正部分テーブルを作成できる画像かどうかの判断を行える。すなわち、画像中心部分のゴミ検出対象エリアについて、各小エリアのRGBの評価値が一定値以上でかつ、ほぼ等しいという条件を満足する画像が取得されたかの判断が可能となる。
【0086】
次に、撮影画像が白画像(グレー画像)と判定されると、小エリア毎の解析を行う(ステップS15)。
【0087】
ここでは、全ての小エリアについて、例えばG画素に関する画素積算データの平均値を求め、この平均値より輝度が一定値以上低くて暗い小エリアが存在する場合には、この小エリアをゴミ存在エリアとして検出する。ただし、画像の周辺部分については、光学レンズによる周辺光量落ちの可能性もあるため、検出エリアは光学性能を考慮して光量落ちの小さい部分(例えば画像の中心部分)のみに限定する。
【0088】
ステップS16では、ゴミ補正部35で上述したゴミ補正部分テーブルを作成する。
【0089】
ステップS17では、ステップS16で作成されたゴミ補正部分テーブルを、不揮発性メモリ42に保存する。
【0090】
ステップS18では、キャリブレーションの正常終了フラグをセットする。この正常フラグにより、図5のフローチャートに示すステップS5の判定動作が行える。
【0091】
以上の撮像装置1の動作により、キャリブレーション撮影で取得した画像データに基づきゴミ補正部分テーブルを生成し、これに基づくゴミ補正を行うため、比較的大きな異物に対しても適切な異物補正が行える。
【0092】
すなわち、従来は異物が写りこんでいるために不良品として処理されたデジタルカメラが良品として出荷可能となる。また、レンズ交換式の一眼レフデジタルカメラにおいてレンズ交換時にゴミが入り込み、従来では特殊な機材を用いてゴミ除去作業を行う必要がある場合でも、この作業の手間が省ける。さらに、デジタルカメラを長期間使い込み、撮像光学系内部のメカ機材の磨耗で発生したカスが光学系に付着した場合などでも、カメラ自身がゴミ補正を行えるため、良好な撮影画像を得られることとなる。
【0093】
また、シェーディング補正と同様に、乗算器とDMAコントローラとを用いたデジタル処理により異物補正を行うため、簡易な構成で精度の高い補正が可能となる。
【0094】
なお、以上の撮像装置1においては、ゴミ補正データをゴミ補正部35に転送するのに1つのDMAチャンネルD3(図4参照)のみを使用していたが、複数のDMAチャンネルを利用しても良い。
【0095】
図7は、複数のDMAチャンネルを利用したゴミ補正を説明するための図である。
【0096】
画像メモリ41は、図4と同様の構成を有する画像データ保存領域M1と、シェーディング補正テーブル保存領域M2と、補正後画像データ保存領域M4とを有している。
【0097】
また、画像メモリ41は、ゴミ補正全体テーブル保存領域M3(図4)と異なり、4つのテーブル保存領域、すなわちゴミ補正部分テーブル1保存領域M31と、ゴミ補正部分テーブル2保存領域M32と、ゴミ補正部分テーブル3保存領域M33と、ゴミ補正部分テーブル4保存領域M34とを有している。
【0098】
これらのゴミ補正部分テーブル保存領域M31〜34それぞれには、図3(c)に示すようなゲイン値で構成されるゴミ存在エリアBLに対応するゴミ補正部分テーブルが格納されている。ただし、DMAチャンネルの制約などからゴミ補正の個数に制限があるため、位置、大きさ等を考慮してゴミ補正すべきものを選別するのが好ましい。
【0099】
そして、DMAチャンネルD31〜34によって各ゴミ補正部分テーブル保存領域M31〜34からゴミ補正データをゴミ補正部35に転送する。そして、転送されたゴミ補正データと、シェーディング補正部34から出力されたシェーディング補正後の画像データとは、図4の場合と同様に、ゴミ補正部35内の乗算器35aにより、乗算されることでゴミ補正が行われる。この場合、各DMAチャンネルD31〜34では、データ転送の開始タイミングおよび終了タイミングとゴミ補正データの量とをゴミ存在エリアBLのデータに基づき算出し、DMA設定が行われる。
【0100】
以上のように、複数のDMAチャンネルを利用したゴミ補正によっても、比較的大きな異物に対しても適切な異物補正が行えることとなる。
【0101】
<第2実施形態>
<撮像装置の要部構成>
図8は、本発明の第2実施形態に係る撮像装置5の機能ブロックを示す図である。
【0102】
第2実施形態の撮像装置5については、第1実施形態の撮像装置1と類似の構成を有しているが、ノイズ低減処理器51が追加されている点が主に異なっている。このノイズ低減処理器51について、以下で説明する。
【0103】
図9は、ノイズ低減処理器51を説明するための図である。
【0104】
ノイズ低減処理器51には、ガンマ補正部36で非線形変換された後にマトリクス演算により算出されたY、R−Y、B−Yデータが入力され、この画像データの中に含まれる微小なノイズ成分を低減する処理が行われる。そして、ノイズ低減処理器51でノイズ低減されたY、R−Y、B−Yデータが画像メモリ41に格納され、解像度変換部32に入力された後に、第1実施形態と同様の処理が行われる。
【0105】
ノイズ低減処理器51は、LPF(Low Pass Filter)部511と、HPF(High Pass Filter)部と、コアリング処理部513と、乗算器514と、加算器515とを備えており、画像データに対してノイズ低減処理のレベル(度合い)の変更が可能となっている。
【0106】
LPF部511は、例えば5×5のデジタルフィルタとして構成されており、その係数や次数を変えることにより、ダイナミックにノイズの低減量を変更することが可能となっている。例えばSDRAMで構成される画像メモリ41内のノイズ低減テーブル41aにLPF部511で使用する複数のフィルタ係数を予め記憶しておき、DMAチャンネルD5によって各画素で用いるフィルタパターンを規則正しく並べたデータテーブルをLPF部511に送ることで、フィルタ係数を画素ごとに切り替えることができる。
【0107】
HPF部512は、例えば5×5のデジタルフィルタとして構成されている。
【0108】
コアリング処理部513は、図10に示すような入出力特性を有している。すなわち、閾値(−Th)〜0〜閾値Thの入力については「0」に固定されて出力されるとともに、閾値(−Th)以下の入力は(入力値+Th)の出力を行い、閾値Th以上の入力は(入力値−Th)の出力を行うことで、ノイズ低減を図かる。そして、この閾値Thを変更することにより、ダイナミックにノイズ低減量を変えることができる。具体的には、画像メモリ41内のノイズ低減テーブル41aにコアリング処理部513で使用する複数の閾値を予め記憶しておき、DMAチャンネルD5によって各画素で用いる閾値を順序正しく並べたデータテーブルをLFP部511に送ることで、閾値を画素ごとに切り替えられることとなる。
【0109】
乗算器514は、Y信号(輝度信号)の高周波成分に含まれるノイズ成分を抑えるための部位として構成されており、Y信号についてのゲインを制御することでダイナミックにノイズの低減量を変更することが可能となっている。例えば、画像メモリ41内のノイズ低減テーブル41aに乗算器514で使用する複数のゲインデータを予め記憶しておき、DMAチャンネルD5によって各画素で用いるゲインデータを規則正しく並べたデータテーブルを乗算器514に送ることで、Yデータの高周波成分のゲインを画素ごとに切り替えることができる。
【0110】
加算器515は、LPF部511で処理されたYデータと、乗算器514から出力されたYデータとを加算する。この加算器515で加算されたYデータは、DMAチャンネルD6によって画像メモリ41内のYデータ記憶部41bに記憶されることとなる。
【0111】
以上のノイズ低減処理器51によって、撮影画像内における特定部分(特定画素)のノイズ低減量を、周辺部分(周辺画素)に比べて強弱をつけることが可能となる。
【0112】
一方、撮像装置5では、第1実施形態で説明したようにキャリブレーションにより検出されたゴミ存在エリアBL(図3(a))にゲインを乗じることでゴミ補正が行われるが、このゴミ存在エリアBLについてはノイズも局所的に増大される。よって、ゴミ補正は適切に行えるものの、ゴミ補正によるゴミ消去跡が目立ってしまい、部分的に見苦しい画像が生成される場合がある。
【0113】
そこで、このような場合には、ノイズ低減処理器51によって、ゴミ存在エリアBLに対するノイズ低減量を、ゴミ検出エリアBL以外の他の画像部分に比べて強めに設定する。これにより、ゴミ存在エリアBLに対して効果的なノイズ低減を行えることとなる。
【0114】
しかしながら、ゴミ存在エリアBL内に高周波画像が存在する場合には、ノイズ低減処理器51のノイズ低減量を大きくすることにより、ゴミ検出エリアBL内の画像がなまるため、解像度が部分的に低く見苦しい画像が生成されることとなる。具体的には、図11(a)に示すようにゴミの影響により輝度が低下する部分PMを含むゴミ検出エリアBLに高周波成分(4本線で図示)HGが存在する場合に、上述したゴミ補正および高周波ノイズの低減処理を行うことで、図11(b)に示すゴミ存在エリアBLのように高周波成分HGがぼけて画像の品質が低下する。
【0115】
そこで、第2実施形態の撮像装置5では、キャリブレーションにより検出されたゴミ存在エリアBLに関する情報に基づき、ゴミ存在エリアBLに対応する撮影画像の部分にどのような画像が存在するのか、特に周波数成分についての評価値を算出する。そして、この評価値に基づくノイズ低減処理を施すことにより、ゴミ補正が施された自然な画像を生成することとする。撮像装置5の動作を、以下で詳しく説明する。
【0116】
<撮像装置5の動作>
まず、撮像装置5では、ゴミ検出箇所の周波数成分を検知するための評価値を求める。この評価値としては、例えばソベルフィルタ(Sobel Filter)の出力値が利用できるが、これについて以下で説明する。
【0117】
図12は、ソベルフィルタを利用した評価値の算出を説明するための図である。
【0118】
撮像装置5の不揮発性メモリ42には、上下対称、左右対称および斜め左右対称な係数が割り振られたマトリクスで構成される4つのソベルフィルタF1〜F4(ソベルフィルタ群FG)が記憶されている。そして、各ソベルフィルタF1〜F4の出力値は、加算器ADで合計され線分評価値として出力される。このような構成により、4つのソベルフィルタF1〜F4のうち線分の方向と合致するマトリクスを有するフィルタからの出力値が大きくなるため、ソベルフィルタF1〜F4の出力値の総和である線分評価値の大きさを判断すれば、線分の検出、つまり高周波成分の検出を行える。すなわち、ソベルフィルタ群FGおよび加算器ADは、本撮影時に撮像センサ11で取得された画像信号に基づき、画像信号における輝度変化の度合いを検出する輝度変化検出手段として機能することとなる。
【0119】
ここで、キャリブレーションで得られたゴミ検出箇所については、不揮発性メモリ42内に保存されているため、このゴミ存在エリアBL(図3(a))に対応する撮影画像の部分についてソベルフィルタF1〜F4の出力を求めることで、ゴミ補正箇所に高周波画像があるか否かを判断できる。
【0120】
次に、撮像装置5では、ソベルフィルタ群FGにより算出された評価値に基づきノイズ低減処理を行うが、この撮像装置5の一連の動作を以下で説明する。
【0121】
まず、第1実施形態と同様にキャリブレーションを行った後に、公知の撮影シーケンスによる被写体の撮影を行う。そして、撮影されたRAW画像データを画像メモリ41内の画像データ保存領域M1に保存(バッファリング)した後に、画素補間部31で画素補間が行われる。
【0122】
次に、画素補間が行われた画像データに対して、上述したソベルフィルタ群FGによって線分評価値(評価値)を算出し、線分検出を行う。具体的には、不揮発性メモリ42に保存されたゴミ存在エリアBLに関する情報に基づき、ゴミ位置に対応する撮影画像部分についてソベルフィルタ群FGおよび加算器ADにより線分評価値を算出する。この算出については、ゴミの影響が及ぶ範囲内で行うのが好ましい。
【0123】
そして、算出された線分評価値を、ゴミ補正の対象となるゴミ存在エリアBLの面積で除算して、単位面積当たりの平均評価値を算出する。この平均評価値が予め定められた基準値αと比べて大きい場合には、高周波成分が存在すると判断し、ノイズ低減処理器51でのノイズ低減処理を抑えるようにノイズ低減量を低下する設定を行う。一方、平均評価値が基準値α以下となる場合には、高周波成分が存在しない、のっぺりとした画像であると判断し、ノイズ低減処理器51でのノイズ低減処理を十分かけるようにノイズ低減量を上昇する設定を行う。これらの場合には、図9のノイズ低減テーブル41aに記憶されるノイズ低減補正用のデータテーブル(パラメータ)が、上記の平均評価値に応じて切替える処理が行われる。すなわち、撮像センサ11で取得した撮影画像のうちゴミ(異物)の影響が現れるゴミ存在エリアBLの異物画像部分のノイズ処理の度合い(レベル)を、異物画像部分を除く撮影画像と異ならせて、つまり異物画像部分の輝度変化の程度に応じた度合いでノイズ低減処理を行う。
【0124】
以上のようにゴミ存在エリアBLについてのノイズ低減量を設定した後、再びRAW画像データに対し、第1実施形態と同様に画素補間、ガンマ補正、Y、R−Y、B−Yデータに変換するYCC画像変換およびゴミ補正を行った後に、ノイズ低減処理器51によって高周波成分に応じた適切なノイズ低減処理を施し、ゴミ補正が施されたYCC画像を生成する。
【0125】
以上で説明した撮像装置5の動作により、第1実施形態と同様の効果を奏するとともに、ゴミ補正箇所に高周波成分が存在するか否かを判断してノイズ低減処理を行うため、ゴミ補正がされた高品質な画像を生成できる。すなわち、第1実施形態のようにゴミ補正を行った場合には、ゴミ補正された画像部分だけ極端にノイズが増大する画像が作成される場合があるが、第2実施形態においては、ゴミ補正を行いつつも、補正跡のノイズが目立たず、また補正箇所に高周波成分がある場合でも、その高周波成分がノイズ低減処理によってなまることなく自然な画像が得られることとなる。
【0126】
なお、高周波成分を検出するためにソベルフィルタを使用するのは必須でなく、AF評価値に利用されるコントラスト演算器の出力値であるAF評価用コントラスト値を使用するようにしても良い。
【0127】
図13は、AF評価用コントラスト値に基づく評価値を説明するための図である。
【0128】
水平コントラスト演算器においては、注目画素自らの輝度値と、これから水平方向に一定画素離れた同色画素の輝度値との差(|G−G|)を、一定の大きさを有する積算領域Etについて積算することでコントラスト値を算出する。このコントラスト値は、AF動作で合焦状態が近づくにつれて大きくなる特性があるため、AFの評価値として利用できる。なお、積算領域Et内に高周波成分などの特徴点が存在しない場合には、コントラスト値は小さな値となる。
【0129】
このコントラスト演算器で撮影画像を処理することで、画像内の特定部分に特徴点が存在するか否かを判定できることとなる。よって、ゴミ存在エリアBLについてコントラスト値を算出すれば、このゴミ存在エリアBLについて特徴点(高周波成分)があるか否かが判断できる。
【0130】
すなわち、キャリブレーションで得られたゴミ存在エリアBLの情報は不揮発性メモリ42内に保存されているため、このゴミ存在エリアBLに対応する撮影画像の部分についてAF評価用コントラスト値を算出することで、ゴミ補正エリアBLの画像部分に特徴点があるかを判断できることとなる。
【0131】
なお、本撮影前においては、ゴミ補正すべき位置・範囲は検知されているため、AF評価用コントラスト値の積算領域Et(図13)を設定した後でRAW画像をバッファリングする前に、コントラスト演算器においてAF評価用コントラスト値を算出しても良い。ソベルフィルタの場合には画素補間後の使用に制限されてしまうが、AF評価用コントラスト値の場合にはRAW画像に対しても支障なく使用できるため、RAW画像がバッファリングされるまでにAF評価用コントラスト値の算出が終了していれば、その後の処理はソベルフィルタの場合と同様になる。
【0132】
また、撮像装置5においては、本撮像時に取得された画像に限らず、本撮影直前のライブビュー画像に基づきノイズ低減処理の評価値を算出しても良い。この場合、撮影直前のライブビュー画像と、撮影された本画像とは完全に一致することが少ないため、ゴミ存在エリアBLを含む面積の広い画像判定領域を設定するのが好ましい。
【0133】
また、撮影画像においては、ゴミが存在する部分に高周波成分が存在する場合には、一般的にゴミそのものが目立たなくなるが、一方、高周波成分がなくて、のっぺらとした部分ではゴミは目立つ性質がある。
【0134】
そこで、ゴミ存在エリアBLにおける画像の状態、つまり高周波成分の有無を検出し、高周波成分が検出されない場合には、ゴミ補正を行って通常レベルのノイズ低減処理を行う。逆に、高周波成分が検出された場合には、図3(a)に対応する図14のゲイン曲線(太線)Gn2に示すように、図3(a)に示すゲイン曲線Gn1に比べゴミ補正のゲインそのものを低めに抑えてノイズの増大を小さくするとともに、通常レベルのノイズ低減処理を施す。
【0135】
以上のような処理を行うことで、図9に示すノイズ低減処理器51のように画像の部分ごとに異なるノイズ低減処理を行える回路を備えなくても、違和感のないゴミ補正画像が生成できる。すなわち、撮像装置5におけるノイズ低減処理の構成を簡素化できることとなる。
【0136】
<変形例>
◎上記の各実施形態におけるキャリブレションについては、撮像装置が有する計時機能によって一定期間ごとに警告を発するのは必須でなく、レンズ交換を検出して警告を発するしても良い。また、ショックセンサを設けて、一定以上の出力が検出された場合に警告を発しても良い。
【0137】
◎上記の各実施形態については、白チャート(無彩色画像)の撮影によりキャリブレーションを行うのは必須でなく、拡散板を入れてキャリブレーションを行っても良い。
【0138】
また、キャリブレーションでは、撮影直前または撮影直後において、撮像光学系の状態を保持、つまりレンズの焦点距離や絞りなどを変化させずに露出条件を変更して撮影し、ゴミ補正データを取得しても良い。
【0139】
◎上記の各実施形態については、シェーディング補正とゴミ補正とで異なる乗算器を使用するのは必須でなく、シェーディング補正とゴミ補正とで乗算器を兼用しても良い。
【0140】
◎上記の各実施形態におけるゴミ補正部分テーブルについては、キャリブレーション時に取得された撮影画像データの逆数から生成した反転画像に基づき生成するのは必須でなく、キャリブレーション時に取得された撮影画像に基づき生成しても良い。この場合、ゴミ補正時においては、ゴミ補正部分テーブルから読出した補正データの逆数を算出し、この逆数と本撮影時の画像とを乗算することとなる。
【0141】
また、キャリブレーション時には、撮像光学系における複数の状態、例えばレンズの焦点距離や絞りなどを変化させて複数のゴミ補正データを取得するようにしても良い。これにより、撮像光学系の様々な状態に対応した異物補正を行える。
【0142】
◎上記の第2実施形態については、Y信号についてのみノイズ低減処理を行うのは必須でなく、R−Y信号およびB−Y信号についてノイズ低減処理を行っても良い。また、ノイズ低減処理については、図9に示すノイズ低減処理器51が有する複数のノイズ低減部位のうち一部を省略した回路を用いて行っても良い。
【0143】
◎上記の第2実施形態における評価値の算出については、ソベル(Sobel)フィルタを利用するのは必須でなく、Prewittフィルタなどの線分検出フィルタを利用するようにしても良い。
【0144】
◎上記の第2実施形態においては、例えばゴミ存在エリアBL(図3)の平均的な補正ゲインが大きくなる場合にはノイズ低減処理のレベルを大きくし、平均補正ゲインが小さくなる場合にはノイズ低減処理のレベルを小さくするようにしても良い。すなわち、ゴミ存在エリアBLに対応する画像部分の異物補正の程度に応じた度合いで、ノイズ低減処理を行う。これにより、適切なノイズ低減処理が行え、画像品質を向上できる。
【0145】
【発明の効果】
以上説明したように、請求項1ないし請求項5の発明によれば、画像信号に対する異物の影響を表す異物情報に基づいて得られるデータ値との乗算処理を伴うデジタル処理により画像信号に対して異物補正を行うため、比較的大きな異物に対しても適切な異物補正が行える。
【0146】
特に、請求項2の発明においては、異物補正は、シェーディング補正で使用する乗算器またはそれと同一タイプの別の乗算器を利用して行われるため、構成を簡素化でき、コストアップを抑制できる。
【0147】
また、請求項3の発明においては、異物補正手段は乗算処理を行う乗算器と異物情報を記憶手段から乗算器に転送するDMAコントローラとを有するため、構成を簡素化でき、コストアップを抑制できる。
【0148】
また、請求項4の発明においては、異物情報は、撮影前または撮影後に行われるキャリブレーションで取得された情報に基づき生成されるため、異物情報を適切に生成できる。
【0149】
また、請求項5の発明においては、異物情報は、キャリブレーションで撮像素子により取得された撮影画像の情報または撮影画像に関する画素レベルの逆数の情報に基づき生成されるため、異物情報を簡易に生成できる。
【0150】
また、請求項6の発明においては、異物情報が露出評価値を算出するブロック単位で生成されるため、メモリが節約できるとともに構成が簡易になる。
【0151】
また、請求項7の発明においては、キャリブレーションでは無彩色のチャートを撮影するため、異物情報を適切に取得できる。
【0152】
また、請求項8の発明においては、キャリブレーションでは撮像光学系における複数の状態での異物情報を取得するため、撮像光学系の様々な状態に対応した異物補正を行える。
【0153】
また、請求項9の発明においては、キャリブレーションでは撮影直前または撮影直後において撮像光学系の状態を保持しつつ露出条件を変更して異物情報を取得するため、最適な異物情報を取得できる。
【0154】
また、請求項10の発明においては、撮像素子で取得した撮影画像のうち異物の影響が現れる異物画像部分のノイズ処理の度合いを異物画像部分を除く前記撮影画像と異ならせてノイズ低減処理を行うため、異物補正が施された画像について適切なノイズ補正処理を行え、画像品質を向上できる。
【0155】
また、請求項11の発明においては、異物補正手段による異物画像部分の異物補正の程度に応じた度合いでノイズ低減処理を行うため、一層適切なノイズ低減処理を行え、画像品質をより向上できる。
【0156】
また、請求項12の発明においては、異物画像部分における輝度変化の程度に応じた度合いでノイズ低減処理を行うため、一層適切なノイズ低減処理を行え、画像品質をより向上できる。
【0157】
また、請求項13の発明においては、本撮影時に撮像素子で取得された撮影画像に基づき輝度変化の度合いを検出するため、輝度変化の度合いを精度良く検出できる。
【図面の簡単な説明】
【図1】本発明の第1実施形態に係る撮像装置1の機能ブロックを示す図である。
【図2】ゴミ補正の原理を説明するための図である。
【図3】ゴミ補正部分テーブルの生成を説明するための図である。
【図4】シェーディング補正およびゴミ補正を説明するための図である。
【図5】撮像装置1におけるキャリブレーションの警告動作を示すフローチャートである。
【図6】キャリブレーションモードでの動作を示すフローチャートである。
【図7】複数のDMAチャンネルを利用したゴミ補正を説明するための図である。
【図8】本発明の第2実施形態に係る撮像装置5の機能ブロックを示す図である。
【図9】ノイズ低減処理器51を説明するための図である。
【図10】コアリング処理部513の入出力特性を説明するための図である。
【図11】ゴミ存在エリアBLに高周波画像が存在する場合のノイズ低減処理を説明するための図である。
【図12】ソベルフィルタを利用した評価値の算出を説明するための図である。
【図13】AF評価用コントラスト値に基づく評価値を説明するための図である。
【図14】ゴミ補正のゲイン曲線Gn2を説明するための図である。
【符号の説明】
1、5 撮像装置
3 画像処理部
11 撮像センサ
12 光学LPF
13 レンズ群
34 シェーディング補正部
34a、35a 乗算器
35 ゴミ補正部
40 カメラ制御部
41 画像メモリ
41a ノイズ低減テーブル
42 不揮発性メモリ
43 LCDモニタ
51 ノイズ低減処理器
511 LPF部
512 HPF部
513 コアリング処理部
514 乗算器
BL ゴミ存在エリア
D1〜6、D31〜34 DMAチェンネル
F1〜F4 ソベルフィルタ
Gb 反転画像
HG 高周波成分[0001]
TECHNICAL FIELD OF THE INVENTION
The present invention relates to an imaging device having an imaging unit including an imaging element and an imaging optical system.
[0002]
[Prior art]
In a conventional digital camera, dust, dust, and dust (these are collectively referred to as “foreign matter”) adhere to an optical lens, an optical LPF (Low Pass Filter), and the like, and this is reflected in a photographed image and thus becomes a photographed image. May have black spots on a part of it.
[0003]
Causes of dust entering the imaging optical system include inadequate dust removal at the manufacturing stage in the factory, wear of mechanical members such as shutters and apertures inside the imaging optical system, and lenses. For example, there is an interchangeable single-lens reflex type digital camera that is sealed when a lens is replaced.
[0004]
In this regard,
[0005]
[Patent Document 1]
JP 2000-212314 A
[Patent Document 2]
JP 2002-209147 A
[0006]
[Problems to be solved by the invention]
However, the techniques of
[0007]
On the other hand, dust and the like often adhere to the optical LPF at the time of lens replacement. In this case, since there is a constant turn-in of light, information on the subject image is not completely lost due to the influence of the dust and the like.
[0008]
The present invention has been made in view of the above problems, and has as its object to provide an imaging apparatus capable of appropriately performing foreign matter correction even on a relatively large foreign matter.
[0009]
[Means for Solving the Problems]
In order to solve the above-mentioned problem, the invention according to
[0010]
According to a second aspect of the present invention, in the imaging device according to the first aspect of the present invention, the image processing means includes: (a-2) a multiplier performing a multiplication process; and (a-3) multiplication by the multiplier. Shading correction means for performing shading correction on the image signal by digital processing accompanying the processing, wherein the foreign matter correction is performed using the multiplier or another multiplier of the same type as the multiplier. Is
[0011]
According to a third aspect of the present invention, in the imaging apparatus according to the first aspect of the present invention, the foreign matter correction unit includes a multiplier that performs the multiplication process and a DMA that transfers the foreign object information from the storage unit to the multiplier. And a controller.
[0012]
Further, the invention according to
[0013]
According to a fifth aspect of the present invention, in the imaging apparatus according to the fourth aspect of the present invention, the foreign matter information is information of a captured image acquired by the imaging device in the calibration, or a reciprocal of a pixel level of the captured image. It is generated based on the information of
[0014]
According to a sixth aspect of the present invention, in the image pickup apparatus according to any one of the first to fifth aspects, the image processing means includes: (a-4) a plurality of blocks each of the image captured by the image sensor; And calculating means for calculating an exposure evaluation value for each block, and the foreign matter information is generated in units of the blocks.
[0015]
According to a seventh aspect of the present invention, in the imaging apparatus according to the fourth or fifth aspect, in the calibration, an achromatic chart is photographed in the calibration.
[0016]
According to an eighth aspect of the present invention, in the imaging apparatus according to the fourth or fifth aspect, in the calibration, foreign object information in a plurality of states in the imaging optical system is acquired.
[0017]
According to a ninth aspect of the present invention, in the imaging apparatus according to the fourth or fifth aspect, in the calibration, the exposure condition is changed while maintaining the state of the imaging optical system immediately before or immediately after shooting. Then, the foreign substance information is obtained.
[0018]
According to a tenth aspect of the present invention, in the imaging device according to any one of the first to ninth aspects, the image processing means can change a degree of noise processing on the image signal. The image processing apparatus further includes a noise processing unit, wherein the noise processing unit determines a degree of noise processing of a foreign substance image portion in which the influence of the foreign substance appears in the captured image acquired by the imaging device, with the captured image excluding the foreign substance image part. There is a noise reduction processing means for performing noise reduction processing differently.
[0019]
Further, according to an eleventh aspect of the present invention, in the imaging apparatus according to the tenth aspect, the noise reduction processing means performs the noise reduction processing at a degree corresponding to a degree of foreign matter correction of the foreign matter image portion by the foreign matter correcting means. Means for performing the following.
[0020]
According to a twelfth aspect of the present invention, in the imaging device according to the tenth or eleventh aspect, the noise reduction processing means performs the noise reduction processing at a degree corresponding to a degree of a luminance change in the foreign matter image portion. Have means to do so.
[0021]
According to a thirteenth aspect of the present invention, there is provided the image pickup apparatus according to the twelfth aspect, wherein (c) a luminance change detecting means for detecting the degree of the luminance change based on a photographed image acquired by the image sensor at the time of actual photographing. Is further provided.
[0022]
BEST MODE FOR CARRYING OUT THE INVENTION
<First embodiment>
<Main components of imaging device>
FIG. 1 is a diagram illustrating functional blocks of an
[0023]
The
[0024]
The
[0025]
The
[0026]
The image signal output from the
[0027]
The A /
[0028]
The
[0029]
The
[0030]
The image data input to the
[0031]
With respect to the image data on the
[0032]
Then, the gain of each of the RGB pixels is independently corrected by the white
[0033]
The image data on which the white balance correction has been performed is subjected to so-called shading correction, in which a different gain is applied to each pixel position by the
[0034]
After the shading correction, the
[0035]
The image data subjected to the shading correction and the dust correction are subjected to masking of each of the R, G, and B pixels with the respective filter patterns by the
[0036]
The RGB data in the interpolated image data is subjected to nonlinear conversion suitable for each output device in the
[0037]
The Y, RY, and BY data are reduced or thinned out horizontally and vertically, and the
[0038]
At the time of preview (live view), a low-resolution image of 640 * 240 pixels read from the
[0039]
The
[0040]
During live view display in which the subject is displayed in a moving image manner on the
[0041]
Further, in the
[0042]
<About the principle of dust correction>
In an interchangeable lens type single-lens reflex digital camera, dust enters the imaging optical system when the lens is replaced, and if the dust adheres to the optical lens or the optical LPF, the dust is projected on the imaging surface, and the dust appears on the captured image. The shadow of is reflected. As a result, a phenomenon occurs in which a specific portion of a captured image is always dark.
[0043]
Also, in a digital camera, the dust is generated when the mechanical members (aperture blades, mechanical shutters, etc.) inside the imaging optical system are worn out, and when dust or dirt enters during manufacturing at a factory. As in the case, a phenomenon occurs in which a part of the captured image becomes dark.
[0044]
In order to remove dust and the like existing in the image pickup unit of the
[0045]
Therefore, by applying the characteristic of shading correction, that is, "a different gain can be applied at a pixel position", dust, dust, and the like adhering to an imaging optical system (a lens, an optical LPF (Low Pass Filter), etc.) Dust correction for digitally correcting (removing the shadow of a foreign substance) a captured image in which a part of the image has become dark due to the influence of dust or the like (foreign substance) is performed. In the following, in order to simplify the description, dust will be described as a representative of foreign matter.
[0046]
FIG. 2 is a diagram for explaining the principle of dust correction.
[0047]
For example, as shown in FIG. 2A, the image is divided into a plurality of small areas BK in a matrix. The small area BK has a size of, for example, 40 (pixels) horizontally × 32 (pixels) vertically. In consideration of the analysis using the RAW image data, it is preferable that both the horizontal and vertical pixels have an even number of pixels. Then, based on the divided small area, a dust existence area BL (parallel hatched portion) in which a part PL whose luminance is reduced due to the influence of dust exists is detected.
[0048]
Here, as shown in FIG. 2B, the original image Ga corresponding to the dust existing area BL is multiplied by the correction image Gb generated by taking the reciprocal of the pixel level of each part of the original image Ga. This makes it possible to obtain an image Gc from which the influence of dust has been removed. Since the magnitude relationship between the pixel levels of the original image Ga is inverted, this correction image Gb is hereinafter referred to as an “inverted image Gb”. Each color component is represented by N bits, and is different from an image defined as a complement (2N−x) of N bits for the pixel level x of the original image Ga, and is a “gain inverted image” represented by a gain. is there. As described above, since the inverted image Gb is expressed in gain, a dust correction partial table is generated based on the information of the inverted image Gb, and the correction table is multiplied by a separately shot image to obtain a shot image. It is possible to erase trash from. The generation of the dust correction partial table will be described below.
[0049]
FIG. 3 is a diagram for explaining generation of the dust correction partial table.
[0050]
First, as shown in FIG. 3A, a dust presence area BL (thick frame portion) is detected from image data (RAW data) divided into small areas BK. This image data is obtained by performing calibration for photographing an achromatic chart, for example, a white chart (white image).
[0051]
Here, the luminance distribution at the position of the virtual line LI in the dust presence area BL is considered as shown in FIG. The horizontal axis of FIG. 3B indicates the horizontal position along the virtual line LI shown in FIG. 3A, and the vertical axis indicates the luminance value.
[0052]
Next, dust correction data (thick line portion) shown in FIG. 3C is generated in order to perform the brightness correction on the dust existing area BL. The horizontal axis of FIG. 3C indicates a horizontal position along the virtual line LI shown in FIG. 3A, and the vertical axis indicates a gain value. A method of generating the dust correction data will be described below.
[0053]
From all the small areas BL existing around the dust existence area BL, the average value of the pixel values for each of the RGB colors is obtained. The average value is divided by all the pixels in the dust presence area BL to obtain the gain of each pixel. In this case, if the gain value is equal to or less than a fixed value, for example, the equal-size line Ke, the equal-size is set. When the gain value exceeds the upper limit line Ku, clipping is performed at the upper limit line Ku. Thereby, an extremely large gain value can be eliminated.
[0054]
In FIG. 3C, dust correction data relating to a pixel column on the virtual line LI is shown. Is generated). The generated dust correction data is stored in the
[0055]
<About shading correction and dust correction>
FIG. 4 is a diagram for explaining shading correction and dust correction.
[0056]
The
[0057]
Image data (RAW data) acquired by the
[0058]
The shading correction table storage area M2 stores a shading correction table configured as gain data. By matching the arrangement (array) of the gain data with the arrangement of the image data, that is, by associating both pixels with each other, each pixel data can be multiplied by a predetermined gain. That is, in the case of a shading correction table in which the higher the gain in the captured image, the higher the gain, the higher the gain near the image, that is, the higher the shading correction.
[0059]
The dust correction entire table storage area M3 stores a dust correction table. Since this dust correction entire table is transferred using a DMA (direct memory access) channel, data obtained by integrating all the dust correction partial tables constituted by a gain curve (thick line) Gn1 as shown in FIG. It is a table. That is, after filling the dust correction entire table having the data amount corresponding to the photographed image with the same size data (data having a gain value of 1), the dust correction entire table storage area M3 stores the address corresponding to the dust existing area BL in the dust correction entire table storage area M3. By writing the dust correction partial table, a dust correction entire table is generated. If there are a plurality of dust detection areas, each dust correction partial table is written to a position (address) corresponding to these areas.
[0060]
First, in the shading correction, the image data and the shading correction data are transferred from the image data storage area M1 and the shading correction table storage area M2 to the
[0061]
Next, in the dust correction, the dust correction data is transferred to the
[0062]
Finally, the image data subjected to shading correction and dust correction output from the
[0063]
As described above, in the
[0064]
<Operation of
Garbage has the following properties.
[0065]
(1) The place moves. It doesn't move in a short time, but stays in the same place for a long time.
[0066]
{Circle around (2)} The number increases due to lens replacement or mechanical member wear.
[0067]
As described above, since dust has a property that changes with time, it is preferable to warn the photographer to periodically perform calibration relating to dust correction. The warning operation regarding the calibration will be described below.
[0068]
FIG. 5 is a flowchart illustrating a calibration warning operation in the
[0069]
After the
[0070]
In step S2, it is determined whether it is the timing for calibration. This timing is set to occur, for example, when a certain time has elapsed from the start of time measurement. Here, if it is the timing of the calibration, the process proceeds to step S3; otherwise, step S2 is repeated.
[0071]
In step S3, a warning is displayed on the
[0072]
In step S4, it is determined whether the calibration has been completed. If the calibration has been completed, the process proceeds to step S5. If the calibration has not been completed, the process returns to step S3.
[0073]
In step S5, it is determined whether the calibration has been completed normally. Here, when the calibration is successful, that is, when the calibration ends normally, the process proceeds to step S6, and when the calibration fails, the process returns to step S3.
[0074]
In step S6, the timer started in step S1 is reset.
[0075]
The above warning operation of the calibration allows the photographer to appropriately execute the calibration.
[0076]
Actually, the position of dust slightly changes depending on the lens, and depending on the aperture, the focal length, and the focal position, in relation to the light rays. For this reason, a warning of calibration may be issued immediately before and immediately after shooting.
[0077]
Hereinafter, an operation in a calibration mode for performing calibration in the
[0078]
FIG. 6 is a flowchart showing the operation in the calibration mode.
[0079]
When the photographer operates the
[0080]
Then, zoom drive and aperture drive are performed (step S11). In the case of a power zoom lens, the imaging conditions (the conditions determined from the optical characteristics of the lens such as the focal length and the aperture) are automatically set so that the light drop in the peripheral portion is not erroneously detected as dust. After setting, the lens and the diaphragm are driven based on the imaging conditions. In the case of manual zooming, zoom driving is instructed, and in the case of a single focus lens, shooting at that focal length is instructed.
[0081]
Next, the photographer shoots a white image, and determines whether or not the shooting has been completed (step S12). Here, for example, it is determined whether the shutter button has been pressed by the photographer. If the shooting has been completed, the process proceeds to step S13. If the shooting has not been completed, step S12 is repeated.
[0082]
In step S13, it is determined whether the captured image is sufficiently bright. In the photographed white image data, pixel integration data for each small area (block) is calculated for each color component (RGB) by a color
[0083]
Here, if it is sufficiently bright, the process proceeds to step S14. On the other hand, when the whole image is dark, the process is temporarily terminated as a calibration error, and a warning that calibration photographing is performed again is warned.
[0084]
In step S14, it is determined whether or not the RGB luminance difference is equal to or smaller than a predetermined threshold. This threshold is determined based on the noise level, and is determined including a margin. If the RGB luminance difference is equal to or smaller than the predetermined threshold, the process proceeds to step S15. On the other hand, if the value exceeds the predetermined threshold, the process is temporarily terminated as a calibration error, and a warning is issued that calibration photography is to be performed again.
[0085]
Through the operations in steps S13 and S14, it can be determined whether or not the captured image is an image for which a dust correction partial table can be created. That is, it is possible to determine whether or not an image satisfying the condition that the RGB evaluation values of the respective small areas are equal to or more than a certain value and are substantially equal in the dust detection target area at the center of the image.
[0086]
Next, when the captured image is determined to be a white image (gray image), analysis is performed for each small area (step S15).
[0087]
Here, for all the small areas, for example, the average value of the pixel integrated data for the G pixel is obtained. If there is a dark small area whose luminance is lower than the average value by a certain value or more, this small area is set to the dust existing area. Detected as However, since there is a possibility that the peripheral light amount of the image is reduced by the optical lens, the detection area is limited to only a portion (for example, a central portion of the image) where the light amount is small in consideration of the optical performance.
[0088]
In step S16, the
[0089]
In step S17, the dust correction partial table created in step S16 is stored in the non-volatile memory.
[0090]
In step S18, a normal end flag of the calibration is set. With this normal flag, the determination operation of step S5 shown in the flowchart of FIG. 5 can be performed.
[0091]
By the above operation of the
[0092]
That is, a digital camera that has been processed as a defective product because a foreign substance is reflected in the image can be shipped as a non-defective product. Further, even in a case where dust enters in a lens exchange type single-lens reflex digital camera at the time of lens exchange and it is conventionally necessary to perform dust removal work using special equipment, this work can be omitted. Furthermore, even if a digital camera is used for a long time and dust generated due to wear of mechanical equipment inside the imaging optical system adheres to the optical system, the camera itself can perform dust correction, so that a good photographed image can be obtained. It becomes.
[0093]
Further, similarly to the shading correction, foreign matter correction is performed by digital processing using a multiplier and a DMA controller, so that highly accurate correction can be performed with a simple configuration.
[0094]
In the above-described
[0095]
FIG. 7 is a diagram for explaining dust correction using a plurality of DMA channels.
[0096]
The
[0097]
The
[0098]
Each of the dust correction partial table storage areas M31 to M34 stores a dust correction partial table corresponding to the dust presence area BL having a gain value as shown in FIG. However, since the number of dust corrections is limited due to DMA channel restrictions and the like, it is preferable to select the dust correction target in consideration of the position, size, and the like.
[0099]
Then, the dust correction data is transferred from the dust correction partial table storage areas M31 to M34 to the
[0100]
As described above, even by the dust correction using a plurality of DMA channels, appropriate foreign matter correction can be performed even for a relatively large foreign matter.
[0101]
<Second embodiment>
<Main components of imaging device>
FIG. 8 is a diagram illustrating functional blocks of an
[0102]
The
[0103]
FIG. 9 is a diagram for explaining the
[0104]
The Y, RY, and BY data calculated by the matrix operation after the nonlinear conversion by the
[0105]
The
[0106]
The
[0107]
The
[0108]
The
[0109]
The
[0110]
The
[0111]
With the above-described
[0112]
On the other hand, in the
[0113]
Therefore, in such a case, the noise reduction amount for the dust presence area BL is set to be stronger by the
[0114]
However, when a high-frequency image is present in the dust presence area BL, the image in the dust detection area BL is reduced by increasing the noise reduction amount of the
[0115]
Therefore, in the
[0116]
<Operation of
First, the
[0117]
FIG. 12 is a diagram for explaining calculation of an evaluation value using a Sobel filter.
[0118]
The
[0119]
Here, since the dust detection portion obtained by the calibration is stored in the
[0120]
Next, the
[0121]
First, after performing calibration in the same manner as in the first embodiment, the subject is photographed by a known photographing sequence. Then, after storing (buffering) the captured RAW image data in the image data storage area M1 in the
[0122]
Next, a line segment evaluation value (evaluation value) is calculated for the image data on which the pixel interpolation has been performed by the above-described Sobel filter group FG, and line segment detection is performed. Specifically, based on the information on the dust presence area BL stored in the
[0123]
Then, the average evaluation value per unit area is calculated by dividing the calculated line segment evaluation value by the area of the dust presence area BL to be subjected to dust correction. If the average evaluation value is larger than a predetermined reference value α, it is determined that a high-frequency component exists, and a setting for reducing the noise reduction amount so as to suppress the noise reduction processing in the
[0124]
After setting the noise reduction amount for the dust-existing area BL as described above, the RAW image data is again converted to pixel interpolation, gamma correction, Y, RY, and BY data as in the first embodiment. After performing the YCC image conversion and the dust correction, the
[0125]
By the operation of the
[0126]
It is not essential to use a Sobel filter to detect a high-frequency component, and an AF evaluation contrast value that is an output value of a contrast calculator used for an AF evaluation value may be used.
[0127]
FIG. 13 is a diagram for explaining an evaluation value based on the AF evaluation contrast value.
[0128]
In the horizontal contrast calculator, the difference (| G−G |) between the luminance value of the target pixel itself and the luminance value of the same color pixel that is separated by a certain pixel in the horizontal direction is calculated for the integration area Et having a certain size. A contrast value is calculated by multiplying. Since this contrast value has a characteristic that it increases as the in-focus state approaches in the AF operation, it can be used as an AF evaluation value. When no feature point such as a high-frequency component exists in the integration region Et, the contrast value becomes a small value.
[0129]
By processing the captured image with the contrast calculator, it is possible to determine whether or not a feature point exists at a specific portion in the image. Therefore, if the contrast value is calculated for the dust-existing area BL, it can be determined whether or not this dust-existing area BL has a feature point (high-frequency component).
[0130]
That is, since the information of the dust presence area BL obtained by the calibration is stored in the
[0131]
Before the actual photographing, since the position / range to be subjected to dust correction has been detected, the contrast is set before the RAW image is buffered after the integration area Et (FIG. 13) of the contrast value for AF evaluation is set. The arithmetic unit may calculate the AF evaluation contrast value. In the case of the Sobel filter, the use after pixel interpolation is restricted. However, in the case of the contrast value for AF evaluation, it can be used without any trouble for a RAW image. If the calculation of the contrast value has been completed, the subsequent processing is the same as in the case of the Sobel filter.
[0132]
Further, in the
[0133]
In a captured image, when a high-frequency component exists in a portion where dust is present, the dust itself generally becomes inconspicuous, but on the other hand, in a portion where there is no high-frequency component and there is no dust, the dust is conspicuous. There is nature.
[0134]
Therefore, the state of the image in the dust presence area BL, that is, the presence or absence of a high-frequency component is detected. If no high-frequency component is detected, dust correction is performed to perform normal-level noise reduction processing. Conversely, when a high frequency component is detected, as shown by a gain curve (bold line) Gn2 in FIG. 14 corresponding to FIG. The gain itself is kept low to reduce the increase in noise, and a normal level noise reduction process is performed.
[0135]
By performing the above-described processing, a dust-corrected image without a sense of incongruity can be generated without providing a circuit capable of performing different noise reduction processing for each part of the image as in the
[0136]
<Modification>
Regarding the calibration in each of the above embodiments, it is not essential to issue a warning at regular intervals by the timekeeping function of the imaging device, and a warning may be issued by detecting lens replacement. Further, a shock sensor may be provided to issue a warning when an output equal to or more than a predetermined value is detected.
[0137]
In each of the above embodiments, it is not essential to perform calibration by photographing a white chart (achromatic image), and calibration may be performed by inserting a diffusion plate.
[0138]
In the calibration, immediately before or immediately after shooting, the state of the imaging optical system is maintained, that is, shooting is performed while changing the exposure condition without changing the focal length and aperture of the lens, and dust correction data is acquired. Is also good.
[0139]
In each of the above embodiments, it is not essential to use different multipliers for shading correction and dust correction, and a multiplier may be used for shading correction and dust correction.
[0140]
◎ Regarding the dust correction partial table in each of the above embodiments, it is not essential to generate the dust correction partial table based on the inverted image generated from the reciprocal of the captured image data acquired at the time of calibration, but based on the captured image acquired at the time of calibration. May be generated. In this case, at the time of dust correction, the reciprocal of the correction data read from the dust correction partial table is calculated, and the reciprocal is multiplied by the image at the time of actual shooting.
[0141]
At the time of calibration, a plurality of dust correction data may be acquired by changing a plurality of states in the imaging optical system, for example, changing the focal length of the lens, the aperture, and the like. This makes it possible to perform foreign matter correction corresponding to various states of the imaging optical system.
[0142]
In the second embodiment, it is not essential to perform the noise reduction processing only on the Y signal, and the noise reduction processing may be performed on the RY signal and the BY signal. In addition, the noise reduction processing may be performed using a circuit in which some of the plurality of noise reduction portions included in the
[0143]
In calculating the evaluation value in the second embodiment, it is not essential to use a Sobel filter, and a line segment detection filter such as a Prewitt filter may be used.
[0144]
In the second embodiment, for example, when the average correction gain of the dust presence area BL (FIG. 3) is increased, the level of the noise reduction processing is increased, and when the average correction gain is reduced, the noise is reduced. The level of the reduction processing may be reduced. That is, the noise reduction processing is performed at a degree corresponding to the degree of foreign matter correction of the image portion corresponding to the dust presence area BL. Thereby, appropriate noise reduction processing can be performed, and image quality can be improved.
[0145]
【The invention's effect】
As described above, according to the first to fifth aspects of the present invention, the image signal is multiplied by the data processing based on the foreign substance information indicating the influence of the foreign substance on the image signal. Since foreign matter correction is performed, appropriate foreign matter correction can be performed even for a relatively large foreign matter.
[0146]
In particular, in the invention of
[0147]
According to the third aspect of the present invention, since the foreign matter correction means has a multiplier for performing multiplication processing and a DMA controller for transferring foreign matter information from the storage means to the multiplier, the configuration can be simplified and cost increase can be suppressed. .
[0148]
According to the fourth aspect of the present invention, the foreign substance information is generated based on information obtained by a calibration performed before or after the photographing, so that the foreign substance information can be appropriately generated.
[0149]
According to the fifth aspect of the present invention, since the foreign substance information is generated based on information of a photographed image acquired by the imaging device in the calibration or information of a reciprocal of a pixel level of the photographed image, the foreign substance information is easily generated. it can.
[0150]
In the invention of
[0151]
According to the seventh aspect of the present invention, since the achromatic chart is photographed in the calibration, the foreign substance information can be appropriately acquired.
[0152]
According to the invention of
[0153]
According to the ninth aspect of the invention, in the calibration, the foreign matter information is acquired by changing the exposure condition while maintaining the state of the imaging optical system immediately before or immediately after the photographing, so that optimal foreign matter information can be acquired.
[0154]
According to the tenth aspect of the present invention, the noise reduction processing is performed by making the degree of noise processing of a foreign image portion in which an influence of a foreign object appears in the captured image obtained by the image sensor different from that of the captured image excluding the foreign image portion. Therefore, appropriate noise correction processing can be performed on an image on which foreign matter correction has been performed, and image quality can be improved.
[0155]
According to the eleventh aspect of the present invention, since the noise reduction processing is performed to a degree corresponding to the degree of foreign matter correction of the foreign matter image portion by the foreign matter correction means, more appropriate noise reduction processing can be performed, and image quality can be further improved.
[0156]
In the twelfth aspect of the present invention, since the noise reduction processing is performed at a degree corresponding to the degree of luminance change in the foreign matter image portion, more appropriate noise reduction processing can be performed, and image quality can be further improved.
[0157]
According to the invention of
[Brief description of the drawings]
FIG. 1 is a diagram showing functional blocks of an
FIG. 2 is a diagram for explaining the principle of dust correction.
FIG. 3 is a diagram for explaining generation of a dust correction partial table.
FIG. 4 is a diagram for explaining shading correction and dust correction.
FIG. 5 is a flowchart showing a calibration warning operation in the
FIG. 6 is a flowchart illustrating an operation in a calibration mode.
FIG. 7 is a diagram for explaining dust correction using a plurality of DMA channels.
FIG. 8 is a diagram showing functional blocks of an
FIG. 9 is a diagram for explaining a
FIG. 10 is a diagram for explaining input / output characteristics of a
FIG. 11 is a diagram for describing noise reduction processing when a high-frequency image exists in the dust presence area BL.
FIG. 12 is a diagram for explaining calculation of an evaluation value using a Sobel filter.
FIG. 13 is a diagram for explaining an evaluation value based on an AF evaluation contrast value.
FIG. 14 is a diagram for explaining a gain curve Gn2 for dust correction.
[Explanation of symbols]
1, 5 imaging device
3 Image processing unit
11 Image sensor
12 Optical LPF
13 lens groups
34 Shading correction unit
34a, 35a Multiplier
35 Dust correction unit
40 Camera control unit
41 Image memory
41a Noise reduction table
42 Non-volatile memory
43 LCD monitor
51 Noise reduction processor
511 LPF section
512 HPF section
513 Coring processing unit
514 Multiplier
BL garbage area
D1-6, D31-34 DMA channel
F1-F4 Sobel filter
Gb inverted image
HG high frequency component
Claims (13)
(a)前記撮像素子で取得された画像信号に対して画像処理を行う画像処理手段と、
(b)前記撮像部に存在する異物について、前記画像信号に対する前記異物の影響を表す異物情報を記憶する記憶手段と、
を備え、
前記画像処理手段は、
(a−1)前記異物情報に基づいて得られるデータ値との乗算処理を伴うデジタル処理により、前記画像信号に対して異物補正を行う異物補正手段、
を有することを特徴とする撮像装置。An imaging device having an imaging unit including an imaging element and an imaging optical system that forms a subject image on the imaging element,
(A) image processing means for performing image processing on an image signal acquired by the image sensor;
(B) storage means for storing, for a foreign substance present in the imaging unit, foreign substance information indicating an influence of the foreign substance on the image signal;
With
The image processing means,
(A-1) foreign matter correction means for performing foreign matter correction on the image signal by digital processing involving multiplication processing with a data value obtained based on the foreign matter information;
An imaging device comprising:
前記画像処理手段は、
(a−2)乗算処理を行う乗算器と、
(a−3)前記乗算器での乗算処理を伴うデジタル処理により、前記画像信号に対してシェーディング補正を行うシェーディング補正手段と、
を有し、
前記異物補正は、前記乗算器または前記乗算器と同一タイプの別の乗算器を利用して行われることを特徴とする撮像装置。The imaging device according to claim 1,
The image processing means,
(A-2) a multiplier for performing a multiplication process;
(A-3) shading correction means for performing shading correction on the image signal by digital processing involving multiplication processing in the multiplier;
Has,
The imaging apparatus according to claim 1, wherein the foreign matter correction is performed using the multiplier or another multiplier of the same type as the multiplier.
前記異物補正手段は、
前記乗算処理を行う乗算器と、
前記異物情報を前記記憶手段から前記乗算器に転送するDMAコントローラと、
を有することを特徴とする撮像装置。The imaging device according to claim 1,
The foreign matter correction means,
A multiplier for performing the multiplication process;
A DMA controller that transfers the foreign object information from the storage unit to the multiplier;
An imaging device comprising:
撮影前または撮影後に前記異物補正に係るキャリブレーションを行うためのキャリブレーションモードを有し、
前記異物情報は、前記キャリブレーションで取得された情報に基づき生成されることを特徴とする撮像装置。The imaging device according to any one of claims 1 to 3,
Having a calibration mode for performing calibration related to the foreign matter correction before or after shooting,
The imaging apparatus according to claim 1, wherein the foreign substance information is generated based on information acquired by the calibration.
前記異物情報は、前記キャリブレーションで前記撮像素子により取得された撮影画像の情報、または前記撮影画像に関する画素レベルの逆数の情報に基づき生成されることを特徴とする撮像装置。The imaging device according to claim 4,
The imaging apparatus according to claim 1, wherein the foreign substance information is generated based on information on a captured image acquired by the imaging device in the calibration or information on a reciprocal of a pixel level of the captured image.
前記画像処理手段は、
(a−4)前記撮像素子で取得した撮影画像を複数のブロックに分割し、ブロックごとに露出評価値を算出する算出手段、
を有し、
前記異物情報は、前記ブロック単位で生成されることを特徴とする撮像装置。The imaging device according to any one of claims 1 to 5,
The image processing means,
(A-4) calculating means for dividing the captured image obtained by the image sensor into a plurality of blocks, and calculating an exposure evaluation value for each block;
Has,
The imaging apparatus according to claim 1, wherein the foreign object information is generated in the block unit.
前記キャリブレーションでは、無彩色のチャートを撮影することを特徴とする撮像装置。In the imaging device according to claim 4 or 5,
In the calibration, an achromatic chart is photographed.
前記キャリブレーションでは、前記撮像光学系における複数の状態での異物情報を取得することを特徴とする撮像装置。In the imaging device according to claim 4 or 5,
The imaging apparatus according to claim 1, wherein the calibration acquires foreign substance information in a plurality of states in the imaging optical system.
前記キャリブレーションでは、撮影直前または撮影直後において、前記撮像光学系の状態を保持しつつ露出条件を変更して、前記異物情報を取得することを特徴とする撮像装置。In the imaging device according to claim 4 or 5,
In the calibration, immediately before or immediately after photographing, the foreign object information is acquired by changing an exposure condition while maintaining a state of the imaging optical system.
前記画像処理手段は、
(a−5)前記画像信号に対するノイズ処理の度合いを変更可能なノイズ処理手段、
をさらに有し、
前記ノイズ処理手段は、
前記撮像素子で取得した撮影画像のうち前記異物の影響が現れる異物画像部分のノイズ処理の度合いを、前記異物画像部分を除く前記撮影画像と異ならせてノイズ低減処理を行うノイズ低減処理手段、
を有することを特徴とする撮像装置。The imaging device according to any one of claims 1 to 9,
The image processing means,
(A-5) noise processing means capable of changing the degree of noise processing on the image signal;
Further having
The noise processing means,
Noise reduction processing means for performing a noise reduction process by making the degree of noise processing of a foreign image portion in which the influence of the foreign substance appears in the captured image obtained by the imaging element different from that of the captured image excluding the foreign image section,
An imaging device comprising:
前記ノイズ低減処理手段は、
前記異物補正手段による前記異物画像部分の異物補正の程度に応じた度合いで、ノイズ低減処理を行う手段、
を有することを特徴とする撮像装置。The imaging device according to claim 10,
The noise reduction processing means,
Means for performing noise reduction processing at a degree corresponding to the degree of foreign matter correction of the foreign matter image portion by the foreign matter correction means,
An imaging device comprising:
前記ノイズ低減処理手段は、
前記異物画像部分における輝度変化の程度に応じた度合いで、ノイズ低減処理を行う手段、
を有することを特徴とする撮像装置。In the imaging device according to claim 10 or 11,
The noise reduction processing means,
Means for performing noise reduction processing at a degree corresponding to the degree of luminance change in the foreign matter image portion,
An imaging device comprising:
(c)本撮影時に前記撮像素子で取得された撮影画像に基づき、前記輝度変化の度合いを検出する輝度変化検出手段、
をさらに備えることを特徴とする撮像装置。The imaging device according to claim 12,
(C) a luminance change detecting means for detecting a degree of the luminance change based on a photographed image acquired by the image sensor at the time of actual photographing;
An imaging device, further comprising:
Priority Applications (1)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| JP2003163430A JP2004282686A (en) | 2003-01-20 | 2003-06-09 | Imaging apparatus |
Applications Claiming Priority (2)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| JP2003011203 | 2003-01-20 | ||
| JP2003163430A JP2004282686A (en) | 2003-01-20 | 2003-06-09 | Imaging apparatus |
Publications (1)
| Publication Number | Publication Date |
|---|---|
| JP2004282686A true JP2004282686A (en) | 2004-10-07 |
Family
ID=33301486
Family Applications (1)
| Application Number | Title | Priority Date | Filing Date |
|---|---|---|---|
| JP2003163430A Pending JP2004282686A (en) | 2003-01-20 | 2003-06-09 | Imaging apparatus |
Country Status (1)
| Country | Link |
|---|---|
| JP (1) | JP2004282686A (en) |
Cited By (14)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| JP2007158935A (en) * | 2005-12-07 | 2007-06-21 | Sony Corp | Imaging apparatus and system |
| JP2007208743A (en) * | 2006-02-02 | 2007-08-16 | Canon Inc | IMAGING DEVICE, ITS CONTROL METHOD, AND COMPUTER PROGRAM |
| JP2007274532A (en) * | 2006-03-31 | 2007-10-18 | Sony Corp | Imaging apparatus, high frequency component detection circuit, high frequency component detection method, and computer program |
| JP2009005058A (en) * | 2007-06-21 | 2009-01-08 | Ricoh Co Ltd | Image recording device |
| JP2009077057A (en) * | 2007-09-19 | 2009-04-09 | Olympus Imaging Corp | Imaging apparatus, and control method for imaging apparatus |
| JP2009141906A (en) * | 2007-12-10 | 2009-06-25 | Canon Inc | Imaging apparatus, control method thereof, and program |
| JP2011061711A (en) * | 2009-09-14 | 2011-03-24 | Nec Corp | Imaging apparatus, and image processing method thereof |
| JP2011197452A (en) * | 2010-03-19 | 2011-10-06 | Fujifilm Corp | Compound eye imaging apparatus and control method of the same |
| JP2011211267A (en) * | 2010-03-29 | 2011-10-20 | Sony Corp | Imaging apparatus, image processing apparatus, image processing method and program |
| JP2011234172A (en) * | 2010-04-28 | 2011-11-17 | Fujitsu Ltd | Image processing device, image processing method, computer program for image processing and imaging device |
| JP2012234193A (en) * | 2008-09-10 | 2012-11-29 | Panasonic Corp | Camera body and imaging apparatus |
| JP2016127567A (en) * | 2015-01-08 | 2016-07-11 | キヤノン株式会社 | Image processor, information processing method and program |
| JP2018191087A (en) * | 2017-04-28 | 2018-11-29 | 株式会社デンソーテン | Adhesive matter detection device and adhesive matter detection method |
| JP2019146117A (en) * | 2018-02-23 | 2019-08-29 | オムロン株式会社 | Image sensor |
-
2003
- 2003-06-09 JP JP2003163430A patent/JP2004282686A/en active Pending
Cited By (19)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| US8081251B2 (en) | 2005-12-07 | 2011-12-20 | Sony Corporation | Imaging device and imaging system |
| JP2007158935A (en) * | 2005-12-07 | 2007-06-21 | Sony Corp | Imaging apparatus and system |
| JP2007208743A (en) * | 2006-02-02 | 2007-08-16 | Canon Inc | IMAGING DEVICE, ITS CONTROL METHOD, AND COMPUTER PROGRAM |
| JP2007274532A (en) * | 2006-03-31 | 2007-10-18 | Sony Corp | Imaging apparatus, high frequency component detection circuit, high frequency component detection method, and computer program |
| US7889272B2 (en) | 2006-03-31 | 2011-02-15 | Sony Corporation | Imaging apparatus, high frequency component detection circuit, high frequency component detection method and computer program product |
| JP2009005058A (en) * | 2007-06-21 | 2009-01-08 | Ricoh Co Ltd | Image recording device |
| JP2009077057A (en) * | 2007-09-19 | 2009-04-09 | Olympus Imaging Corp | Imaging apparatus, and control method for imaging apparatus |
| JP2009141906A (en) * | 2007-12-10 | 2009-06-25 | Canon Inc | Imaging apparatus, control method thereof, and program |
| JP2012234193A (en) * | 2008-09-10 | 2012-11-29 | Panasonic Corp | Camera body and imaging apparatus |
| US8786770B2 (en) | 2008-09-10 | 2014-07-22 | Panasonic Corporation | Camera body and imaging device |
| US9049359B2 (en) | 2008-09-10 | 2015-06-02 | Panasonic Intellectual Property Management Co., Ltd. | Camera body |
| JP2011061711A (en) * | 2009-09-14 | 2011-03-24 | Nec Corp | Imaging apparatus, and image processing method thereof |
| JP2011197452A (en) * | 2010-03-19 | 2011-10-06 | Fujifilm Corp | Compound eye imaging apparatus and control method of the same |
| JP2011211267A (en) * | 2010-03-29 | 2011-10-20 | Sony Corp | Imaging apparatus, image processing apparatus, image processing method and program |
| JP2011234172A (en) * | 2010-04-28 | 2011-11-17 | Fujitsu Ltd | Image processing device, image processing method, computer program for image processing and imaging device |
| JP2016127567A (en) * | 2015-01-08 | 2016-07-11 | キヤノン株式会社 | Image processor, information processing method and program |
| US10116809B2 (en) | 2015-01-08 | 2018-10-30 | Canon Kabushiki Kaisha | Image processing apparatus, control method, and computer-readable storage medium, which obtains calibration image information with which to correct image data |
| JP2018191087A (en) * | 2017-04-28 | 2018-11-29 | 株式会社デンソーテン | Adhesive matter detection device and adhesive matter detection method |
| JP2019146117A (en) * | 2018-02-23 | 2019-08-29 | オムロン株式会社 | Image sensor |
Similar Documents
| Publication | Publication Date | Title |
|---|---|---|
| JP4186699B2 (en) | Imaging apparatus and image processing apparatus | |
| CN108632537B (en) | Control method and device, imaging device, computer device, and readable storage medium | |
| CA2996751C (en) | Calibration of defective image sensor elements | |
| US7176962B2 (en) | Digital camera and digital processing system for correcting motion blur using spatial frequency | |
| CN105323474B (en) | Picture pick-up device and its control method | |
| JP2005269373A (en) | Video signal processing system, and electronic video apparatus | |
| JP3912404B2 (en) | Imaging device | |
| JP2004282686A (en) | Imaging apparatus | |
| JP4433883B2 (en) | White balance correction device, white balance correction method, program, and electronic camera device | |
| JP5084366B2 (en) | IMAGING DEVICE AND IMAGING DEVICE CONTROL METHOD | |
| JP2004328117A (en) | Digital camera and photographing control method | |
| JP4167200B2 (en) | Signal processing apparatus, signal processing method, and digital camera | |
| JP2011071709A (en) | Electronic camera | |
| GB2460241A (en) | Correction of optical lateral chromatic aberration | |
| JP2008141658A (en) | Electronic camera and image processing apparatus | |
| US9912873B2 (en) | Image pickup apparatus equipped with display section and method of controlling the same | |
| JP5387341B2 (en) | Imaging device | |
| JP2007195122A (en) | Imaging apparatus, image processor and image processing method | |
| JP6631099B2 (en) | Imaging device | |
| JP2010068046A (en) | Imaging apparatus | |
| KR101612853B1 (en) | Photographing apparatus, controlling method of photographing apparatus, and recording medium storing program to implement the controlling method | |
| JP5299159B2 (en) | Imaging apparatus and program | |
| KR101119971B1 (en) | Image pick up apparatus | |
| JP2006253970A (en) | Imaging apparatus, shading correction data creation method and program | |
| JP6645099B2 (en) | Image processing device |
Legal Events
| Date | Code | Title | Description |
|---|---|---|---|
| A711 | Notification of change in applicant |
Free format text: JAPANESE INTERMEDIATE CODE: A712 Effective date: 20050615 |
|
| RD03 | Notification of appointment of power of attorney |
Free format text: JAPANESE INTERMEDIATE CODE: A7423 Effective date: 20051206 |