JP2009267555A - Imaging apparatus, and imaging method - Google Patents
Imaging apparatus, and imaging method Download PDFInfo
- Publication number
- JP2009267555A JP2009267555A JP2008112144A JP2008112144A JP2009267555A JP 2009267555 A JP2009267555 A JP 2009267555A JP 2008112144 A JP2008112144 A JP 2008112144A JP 2008112144 A JP2008112144 A JP 2008112144A JP 2009267555 A JP2009267555 A JP 2009267555A
- Authority
- JP
- Japan
- Prior art keywords
- image data
- color image
- component
- exposure time
- color
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Withdrawn
Links
- 238000003384 imaging method Methods 0.000 title claims description 75
- 238000000034 method Methods 0.000 claims description 41
- 239000002131 composite material Substances 0.000 claims description 21
- 239000011159 matrix material Substances 0.000 claims description 6
- 239000003086 colorant Substances 0.000 claims description 5
- 230000002194 synthesizing effect Effects 0.000 claims description 3
- 238000006243 chemical reaction Methods 0.000 claims 3
- 230000035945 sensitivity Effects 0.000 abstract description 23
- 238000005516 engineering process Methods 0.000 abstract description 5
- 238000007906 compression Methods 0.000 description 28
- 230000006835 compression Effects 0.000 description 28
- 238000012545 processing Methods 0.000 description 21
- 238000011161 development Methods 0.000 description 13
- 230000006870 function Effects 0.000 description 9
- 238000012986 modification Methods 0.000 description 8
- 230000004048 modification Effects 0.000 description 8
- 230000006866 deterioration Effects 0.000 description 4
- 238000010586 diagram Methods 0.000 description 4
- 239000000203 mixture Substances 0.000 description 3
- 230000003287 optical effect Effects 0.000 description 3
- 230000015572 biosynthetic process Effects 0.000 description 2
- 238000003786 synthesis reaction Methods 0.000 description 2
- 238000009825 accumulation Methods 0.000 description 1
- 238000013144 data compression Methods 0.000 description 1
- 230000006837 decompression Effects 0.000 description 1
- 230000000593 degrading effect Effects 0.000 description 1
- 230000002542 deteriorative effect Effects 0.000 description 1
- 238000007429 general method Methods 0.000 description 1
- 230000008707 rearrangement Effects 0.000 description 1
- 238000010257 thawing Methods 0.000 description 1
Images
Landscapes
- Studio Devices (AREA)
Abstract
Description
本発明は、電子的な手法によって画像を撮影する技術に関し、より詳しくは、複数の露光時間で撮像した画像を合成することによって、ダイナミックレンジの広い画像を撮影する技術に関する。 The present invention relates to a technique for capturing an image by an electronic method, and more particularly to a technique for capturing an image having a wide dynamic range by combining images captured at a plurality of exposure times.
映像を電子的な信号として取り出すことの可能なイメージセンサが開発され、今日では、デジタルカメラやビデオカメラなどに組み込まれて広く普及している。このイメージセンサの感度範囲(ダイナミックレンジ)は、人間の視覚の感度範囲に較べれば、依然としてかなり狭いので、人間の視覚では容易に認識可能な被写体であっても、デジタルカメラなどで撮影すると、明るい部分が白く飛んだ画像となり、暗い部分が黒く潰れた画像となってしまう場合がある。このような被写体では、明るい部分を映そうとして露光時間を短くすると、暗めの部分が全て黒く潰れた画像になってしまい、逆に、暗い部分を映そうとして露光時間を長くすると、明るめの部分が全て白く飛んだ画像になってしまう。 An image sensor capable of taking out an image as an electronic signal has been developed, and is now widely used by being incorporated in a digital camera or a video camera. The sensitivity range (dynamic range) of this image sensor is still very narrow compared to the sensitivity range of human vision, so even a subject that can be easily recognized by human vision is bright when photographed with a digital camera or the like. There is a case where the image is a white portion and the dark portion is a black image. In such a subject, if the exposure time is shortened so that the bright part is projected, the dark part becomes an all-black image, and conversely, if the exposure time is lengthened so that the dark part is projected, the bright part Will all appear white.
そこで、露光時間を多段階(例えば、長中短の3段階)に設定して、各露光時間で撮影した画像を合成することにより、人間の視覚と比較し得るような広い感度範囲の画像を得ようとする技術が提案されている(特許文献1)。また、このように多段階の露光時間で得られた画像を合成する技術では、動きのある被写体を撮影すると、露光時間の長い画像では被写体がぶれて映ってしまうので、合成した画像でも被写体がぶれてしまう。そこで、長い露光時間の画像で被写体が動いているか否かを判断し、被写体が動いていると判断された場合には、画像の合成を断念して、短い露光時間の画像のみを用いることとした技術も提案されている(特許文献2)。 Therefore, by setting the exposure time in multiple stages (for example, three stages, long, medium, and short) and combining images taken at each exposure time, an image with a wide sensitivity range that can be compared with human vision is obtained. A technique to be obtained has been proposed (Patent Document 1). In addition, in the technique for compositing images obtained with multiple exposure times in this way, if a subject with motion is photographed, the subject will appear blurred in an image with a long exposure time. It will be blurred. Therefore, it is determined whether or not the subject is moving in an image with a long exposure time, and if it is determined that the subject is moving, the combination of the images is abandoned and only an image with a short exposure time is used. This technique has also been proposed (Patent Document 2).
しかし、このような多段階の露光時間の画像を合成することで感度範囲の広い画像を撮影する技術は、十分に使い易い撮像技術とはなっていないという問題があった。何故ならば、動きのある被写体を撮影する場合、感度範囲を拡大するために多段階の露光時間で画像を撮影すると、長い露光時間の画像では被写体がぶれてしまうので、良好な合成画像を得ることができない。これを避けるために、被写体がぶれているか否かを判断して、ぶれていた場合には露光時間の短い画像のみを採用することとしたのでは、撮影の度に判断が必要となるだけでなく、感度範囲を拡大することもできない。従って、現状の技術では、被写体がぶれるなどして画質が悪化する場合があることを許容するか、さもなければ、画像の感度範囲が狭いままとなる場合があることを許容しなければならず、十分に使い易い技術とはなっていないという問題があった。 However, there has been a problem that a technique for photographing an image with a wide sensitivity range by combining images having such multi-stage exposure times is not an imaging technique that is sufficiently easy to use. This is because when shooting a moving subject, if the image is shot with multiple exposure times in order to expand the sensitivity range, the subject will be blurred in an image with a long exposure time, so a good composite image is obtained. I can't. To avoid this, it is determined whether or not the subject is blurred, and if it is blurred, only an image with a short exposure time is adopted. And the sensitivity range cannot be expanded. Therefore, the current technology must allow the image quality to deteriorate due to subject blurring, or otherwise allow the image sensitivity range to remain narrow. There was a problem that the technology was not sufficiently easy to use.
この発明は、従来の技術が有する上述した課題を解決するためになされたものであり、感度範囲の広い画像を撮影することが可能で、しかも十分に使い易い撮像技術を提供することを目的とする。 The present invention has been made in order to solve the above-described problems of the prior art, and aims to provide an imaging technique that can capture an image with a wide sensitivity range and is sufficiently easy to use. To do.
上述した課題の少なくとも一部を解決するために、本発明の撮像装置は次の構成を採用した。すなわち、
受光した光を電荷に変換して蓄積する複数の光電素子がマトリックス状に配列された撮像面上に、被写体の映像を露光させて、光の三原色を構成するR成分、G成分、B成分に対応した電荷量を読み出すことにより、該被写体のカラー画像を撮影する撮像装置であって、
前記撮像面への露光時間を複数段階に異ならせて前記被写体を撮影することにより、該露光時間が互いに異なる第1のカラー画像データ、第2のカラー画像データ、および第3のカラー画像データを生成するカラー画像データ生成手段と、
前記第1のカラー画像データ、第2のカラー画像データ、および第3のカラー画像データを1つのカラー画像データに合成することにより、合成カラー画像データを生成する合成カラー画像データ生成手段と、
前記合成されたカラー画像データを出力するカラー画像データ出力手段と
を備え、
前記カラー画像データ生成手段は、前記撮像面上の前記光電素子毎に互いに異ならせて設定された前記R成分、G成分、B成分の何れか1成分に対応する電荷量を読み出すことにより、各画素がRGBの何れか1成分を有する表現形式で、前記第1ないし第3のカラー画像データを生成する手段であり、
前記合成カラー画像データ生成手段は、前記第1ないし第3のカラー画像データをそれぞれ単成分の画像データと読み替えて、1つのカラー画像データとして圧縮することにより、前記合成カラー画像データを生成する手段であることを要旨とする。
In order to solve at least a part of the problems described above, the imaging apparatus of the present invention employs the following configuration. That is,
An image of a subject is exposed on an imaging surface in which a plurality of photoelectric elements that convert received light into charges and accumulate are arranged in a matrix, and the R component, G component, and B component that constitute the three primary colors of light An imaging device that captures a color image of the subject by reading a corresponding charge amount,
The first color image data, the second color image data, and the third color image data having different exposure times are obtained by photographing the subject with different exposure times on the imaging surface in a plurality of stages. Color image data generating means for generating;
Synthesized color image data generating means for generating synthesized color image data by synthesizing the first color image data, the second color image data, and the third color image data into one color image data;
Color image data output means for outputting the synthesized color image data,
The color image data generation unit reads each charge amount corresponding to any one of the R component, the G component, and the B component set differently for each photoelectric element on the imaging surface. Means for generating the first to third color image data in an expression format in which a pixel has any one component of RGB;
The composite color image data generation means generates the composite color image data by replacing the first to third color image data with single-component image data and compressing the data as one color image data. It is a summary.
また、上記の撮像装置に対応する本発明の撮像方法は、
受光した光を電荷に変換して蓄積する複数の光電素子がマトリックス状に配列された撮像面上に、被写体の映像を露光させて、光の三原色を構成するR成分、G成分、B成分に対応した電荷量を読み出すことにより、該被写体のカラー画像を撮影する撮像方法であって、
前記撮像面への露光時間を複数段階に異ならせて前記被写体を撮影することにより、該露光時間が互いに異なる第1のカラー画像データ、第2のカラー画像データ、および第3のカラー画像データを生成する第1の工程と、
前記第1のカラー画像データ、第2のカラー画像データ、および第3のカラー画像データを1つのカラー画像データに合成することにより、合成カラー画像データを生成する第2の工程と、
前記合成されたカラー画像データを出力する第3の工程と
を備え、
前記カラー画像データを生成する第1の工程は、前記撮像面上の前記光電素子毎に互いに異ならせて設定された前記R成分、G成分、B成分の何れか1成分に対応する電荷量を読み出すことにより、各画素がRGBの何れか1成分を有する表現形式で、前記第1ないし第3のカラー画像データを生成する工程であり、
前記合成カラー画像データを生成する第2の工程は、前記第1ないし第3のカラー画像データをそれぞれ単成分の画像データと読み替えて、1つのカラー画像データとして圧縮することにより、前記合成カラー画像データを生成する工程であることを要旨とする。
In addition, the imaging method of the present invention corresponding to the imaging device described above,
An image of a subject is exposed on an imaging surface in which a plurality of photoelectric elements that convert received light into charges and accumulate are arranged in a matrix, and the R component, G component, and B component that constitute the three primary colors of light An imaging method for capturing a color image of the subject by reading a corresponding charge amount,
The first color image data, the second color image data, and the third color image data having different exposure times are obtained by photographing the subject with different exposure times on the imaging surface in a plurality of stages. A first step of generating;
A second step of generating combined color image data by combining the first color image data, the second color image data, and the third color image data into one color image data;
A third step of outputting the combined color image data,
In the first step of generating the color image data, a charge amount corresponding to any one of the R component, G component, and B component set differently for each photoelectric element on the imaging surface is calculated. A step of generating the first to third color image data in an expression format in which each pixel has any one component of RGB by reading;
In the second step of generating the composite color image data, the first to third color image data are respectively read as single-component image data and compressed as one color image data. The gist is that it is a process of generating data.
かかる本発明の撮像装置および撮像方法においては、露光時間が互いに異なる第1ないし第3のカラー画像データを生成した後、これら3つのカラー画像データを1つのカラー画像データに合成した後、得られた合成カラー画像データを、被写体のカラー画像データとして出力する。ここで、第1ないし第3のカラー画像データは、RGBの各成分を含んでいるが、個々の画素についてみれば、何れか1成分しか持たない画像データとなっている。このため、これら第1ないし第3のカラー画像データを、RGBカラー画像データを構成するRGBの各成分の画像データとして取り扱って、1つのカラー画像データとして圧縮することができる。こうして得られた圧縮後のカラー画像データを、合成カラー画像データとして出力する。 In the imaging apparatus and imaging method of the present invention, the first to third color image data having different exposure times are generated, and then these three color image data are synthesized into one color image data, and then obtained. The combined color image data is output as color image data of the subject. Here, the first to third color image data includes each component of RGB, but when viewed for each pixel, the image data has only one component. Therefore, the first to third color image data can be handled as image data of RGB components constituting the RGB color image data and compressed as one color image data. The compressed color image data obtained in this way is output as synthesized color image data.
こうすれば、3つの露光時間で撮影したカラー画像データを、圧縮した1つの合成カラー画像データとして出力することができる。各露光時間のカラー画像データは、個々の画素については1成分しか持っていないので、カラー画像データではあっても、単成分の画像データとデータ量は同じである。このため、3つの露光時間で撮影したカラー画像データ全体でも、画素毎にRGBの3成分を有する一般的なカラー画像データと同じデータ量にしかならない。加えて、画像データの取り扱いに関しても、単成分の画像データと同様に扱うことができるので、一般的なカラー画像データを圧縮する方法と同様にして圧縮することが可能であり、圧縮することで、データ量を更に減少させると同時に、3つのカラー画像データを1つの画像データとして取り扱うことができる。その結果、3つの露光時間で撮影されたカラー画像データを、通常のカラー画像データと同様の手軽さで出力することができるので、感度範囲の広い画像を簡単に出力することが可能となる。 By doing this, it is possible to output color image data photographed with three exposure times as one compressed composite color image data. Since the color image data for each exposure time has only one component for each pixel, the amount of data is the same as that of single-component image data even if it is color image data. For this reason, even the entire color image data photographed with three exposure times has only the same data amount as general color image data having three RGB components for each pixel. In addition, since image data can be handled in the same way as single-component image data, it can be compressed in the same way as general color image data compression methods. Further, the data amount can be further reduced, and at the same time, the three color image data can be handled as one image data. As a result, it is possible to output color image data photographed at three exposure times with the same ease as normal color image data, so that an image with a wide sensitivity range can be easily output.
また、かかる本発明の撮像装置においては、第1ないし第3のカラー画像データを圧縮して合成カラー画像データを生成する際に、次のようにしてもよい。先ず、露光時間が最も短いカラー画像データをG成分の画像データと読み替えて、露光時間が最も長いカラー画像データをB成分の画像データと読み替え、残ったカラー画像データをR成分の画像データと読み替える。そして、それら3つのカラー画像データを、1つのカラー画像データとして扱って、圧縮することとしても良い。 In the image pickup apparatus of the present invention, when the first to third color image data is compressed to generate the combined color image data, the following may be performed. First, color image data with the shortest exposure time is read as G component image data, color image data with the longest exposure time is read as B component image data, and the remaining color image data is read as R component image data. . Then, these three color image data may be handled as one color image data and compressed.
露光時間が短くなるほど、画像は暗く映る。また、人間の視覚は、G色が最も明るく感じ、次いでR色、B色の順で明るく感じる傾向にある。このことから、最も短い露光時間で撮影したカラー画像データをG成分として扱い、中間の露光時間で撮影したカラー画像データをR成分として扱い、最も長い露光時間で撮影したカラー画像データをB成分として扱っておけば、それらを通常のRGBカラー画像データとして表示した場合でも、ある色成分が他の色成分よりも強調されることなく、比較的自然な画像として認識することが可能である。このため、撮影した画像の内容を、容易に確認することが可能となるので好ましい。 The shorter the exposure time, the darker the image. In human vision, the G color tends to feel brightest, and then the R color and B color tend to feel brighter. Therefore, color image data captured with the shortest exposure time is treated as a G component, color image data captured with an intermediate exposure time is treated as an R component, and color image data captured with the longest exposure time is defined as a B component. If handled, even when they are displayed as normal RGB color image data, a certain color component can be recognized as a relatively natural image without being emphasized over other color components. For this reason, the content of the photographed image can be easily confirmed, which is preferable.
また、上述した本発明の撮像装置においては、各露光時間で得られた第1ないし第3のカラー画像データを圧縮する際に、次のようにしても良い。先ず、第1ないし第3のカラー画像データは、画素毎にRGBの何れか1成分を有する画像データとなっているので、同じ成分同士が集まるように画素位置を再配置することによって、第1ないし第3のカラー画像データを、それぞれに変換する。続いて、画素位置が再配置された第1ないし第3のカラー画像データを、単成分の画像データであるかのように扱うことで、1つのカラー画像データとして圧縮してもよい。 In the above-described imaging apparatus of the present invention, the first to third color image data obtained at each exposure time may be compressed as follows. First, since the first to third color image data is image data having any one of RGB components for each pixel, the first to third color image data can be obtained by rearranging the pixel positions so that the same components are gathered together. Alternatively, the third color image data is converted into each. Subsequently, the first to third color image data in which the pixel positions are rearranged may be compressed as one color image data by treating it as if it were single component image data.
第1ないし第3のカラー画像データは、隣接する画素に異なる色成分のデータが記録されているから、高周波数成分を多く含んだ画像データとなっている。そして、このような高周波数成分は、カラー画像データを圧縮する際に失われ易いので、それに伴って画質の劣化を招き易い傾向がある。これに対して、画素位置の再配置を行えば、隣接する画素に記録されているデータは同じ色成分のデータとなるので、画像データに含まれる高周波数成分を大きく減少させることができる。その結果、画質の劣化を伴うことなく、カラー画像データを圧縮して出力することが可能となる。 The first to third color image data are image data containing a lot of high-frequency components because data of different color components are recorded in adjacent pixels. Such high-frequency components are likely to be lost when color image data is compressed, and accordingly, the image quality tends to deteriorate. On the other hand, if the pixel positions are rearranged, the data recorded in the adjacent pixels becomes the data of the same color component, so that the high frequency component included in the image data can be greatly reduced. As a result, it is possible to compress and output color image data without deteriorating image quality.
また、上述した本発明の撮像装置においては、次のようにして、第1ないし第3のカラー画像データを圧縮しても良い。先ず、第1ないし第3のカラー画像データの中からG成分の画素を集めてG成分の画像データを生成する。R成分およびB成分についても同様に、第1ないし第3のカラー画像データの中から、R成分あるいはB成分の画素を集めて、R成分の画像データおよびB成分の画像データを生成する。そして、こうして生成したG成分の画像データ、R成分の画像データ、B成分の画像データを、1つのカラー画像データのG成分、R成分、B成分として扱って、圧縮するようにしても良い。 In the imaging apparatus of the present invention described above, the first to third color image data may be compressed as follows. First, G component image data is generated by collecting G component pixels from the first to third color image data. Similarly, for the R component and the B component, R component or B component pixels are collected from the first to third color image data to generate R component image data and B component image data. The G component image data, R component image data, and B component image data generated in this way may be treated as the G component, R component, and B component of one color image data and compressed.
こうすれば、次の理由から、カラー画像データを圧縮する際の画質の劣化を最小限に抑制して、高画質なカラー画像を得ることができる。先ず、同じ成分同士を集めているために、画像データに含まれる高周波数成分を減少させることができるので、画像データの圧縮に伴う画質の劣化を抑制することができる。また、G成分、R成分、B成分の中で、画質に最も大きく影響するのは、G成分であることが知られており、このことと対応して、カラー画像データを圧縮する技術では、G成分に含まれる情報をできるだけ保存するように圧縮される傾向がある。そこで、第1ないし第3のカラー画像データの中で、画質に最も大きく影響するG成分を取りだして、それらをカラー画像データのG成分として圧縮してやれば、画質の劣化を最小限に抑制した状態で、第1ないし第3のカラー画像データを圧縮することが可能となる。 In this way, for the following reason, it is possible to obtain a high-quality color image while minimizing deterioration in image quality when color image data is compressed. First, since the same components are collected, high frequency components included in the image data can be reduced, so that deterioration in image quality due to compression of the image data can be suppressed. In addition, it is known that the G component has the largest influence on the image quality among the G component, the R component, and the B component. In correspondence with this, the technology for compressing color image data There is a tendency to compress the information contained in the G component so as to preserve it as much as possible. Therefore, if the G component that has the greatest influence on the image quality is extracted from the first to third color image data and compressed as the G component of the color image data, the deterioration of the image quality is minimized. Thus, the first to third color image data can be compressed.
更に本発明は、上述した撮像方法を実現するためのプログラムをコンピュータに読み込ませ、所定の機能を実行させることにより、コンピュータを用いて実現することも可能である。従って、本発明は次のようなプログラムとしての態様も含んでいる。すなわち、上述した撮像方法に対応する本発明のプログラムは、
受光した光を電荷に変換して蓄積する複数の光電素子がマトリックス状に配列された撮像面上に、被写体の映像を露光させて、光の三原色を構成するR成分、G成分、B成分に対応した電荷量を読み出すことにより、該被写体のカラー画像を撮影する方法を、コンピュータを用いて実現するためのプログラムであって、
前記撮像面への露光時間を複数段階に異ならせて前記被写体を撮影することにより、該露光時間が互いに異なる第1のカラー画像データ、第2のカラー画像データ、および第3のカラー画像データを生成する第1の機能と、
前記第1のカラー画像データ、第2のカラー画像データ、および第3のカラー画像データを1つのカラー画像データに合成することにより、合成カラー画像データを生成する第2の機能と、
前記合成されたカラー画像データを出力する第3の機能と
をコンピュータによって実現させると共に、
前記カラー画像データを生成する第1の機能は、前記撮像面上の前記光電素子毎に互いに異ならせて設定された前記R成分、G成分、B成分の何れか1成分に対応する電荷量を読み出すことにより、各画素がRGBの何れか1成分を有する表現形式で、前記第1ないし第3のカラー画像データを生成する機能であり、
前記合成カラー画像データを生成する第2の機能は、前記第1ないし第3のカラー画像データをそれぞれ単成分の画像データと読み替えて、1つのカラー画像データとして圧縮することにより、前記合成カラー画像データを生成する機能であることを要旨とする。
Furthermore, the present invention can be realized using a computer by causing a computer to read a program for realizing the above-described imaging method and executing a predetermined function. Therefore, the present invention also includes the following aspects as a program. That is, the program of the present invention corresponding to the imaging method described above is
An image of a subject is exposed on an imaging surface in which a plurality of photoelectric elements that convert received light into charges and accumulate are arranged in a matrix, and the R component, G component, and B component that constitute the three primary colors of light A program for realizing a method of taking a color image of the subject by reading a corresponding charge amount using a computer,
The first color image data, the second color image data, and the third color image data having different exposure times are obtained by photographing the subject with different exposure times on the imaging surface in a plurality of stages. A first function to generate;
A second function for generating combined color image data by combining the first color image data, the second color image data, and the third color image data into one color image data;
A third function for outputting the synthesized color image data and a computer, and
The first function of generating the color image data is to calculate a charge amount corresponding to any one of the R component, G component, and B component set differently for each photoelectric element on the imaging surface. A function of generating the first to third color image data in an expression format in which each pixel has any one component of RGB by reading;
The second function of generating the composite color image data is to replace the first to third color image data with single-component image data and compress the single color image data as one color image data. The gist is that it is a function to generate data.
このプログラムをコンピュータに読み込んで、上記の各機能を実現させれば、感度範囲の広い画像を簡単に撮影することが可能となる。 If this program is read into a computer and the above functions are realized, an image with a wide sensitivity range can be easily taken.
以下では、上述した本願発明の内容を明確にするために、次のような順序に従って実施例を説明する。
A.装置構成:
B.撮像処理:
C.現像処理:
D.変形例:
D−1.第1の変形例:
D−2.第2の変形例:
Hereinafter, in order to clarify the contents of the present invention described above, examples will be described in the following order.
A. Device configuration:
B. Imaging processing:
C. Development processing:
D. Variations:
D-1. First modification:
D-2. Second modification:
A.装置構成 :
図1は、本実施例の撮像装置100の大まかな構成を示した説明図である。図示されるように、本実施例の撮像装置100には、複数のレンズ群から構成される光学系10と、光学系10によって結像された被写体の像を電気信号に変換する撮像部20と、撮像部20で得られた電気信号を受け取って所定の画像処理を施すことにより、カラー画像データを生成する画像処理部30と、生成されたカラー画像データを出力する画像出力部40などから構成されている。
A. Device configuration :
FIG. 1 is an explanatory diagram showing a rough configuration of the
撮像部20には、受光した光を電荷に変換して蓄積する微細な光電素子が、二次元のマトリックス状に配列されて構成されたイメージセンサ24が搭載されている。また、イメージセンサ24の手前側には、カラーフィルタアレイ22が設けられている。カラーフィルタアレイ22は、R(赤)の微細なカラーフィルタと、G(緑)の微細なカラーフィルタと、B(青)の微細なカラーフィルタとが所定の配置で並べられて構成されており、イメージセンサ24の光電素子の各々には、R色、G色、B色の何れか1つの色成分の光のみが届くようになっている。このため、イメージセンサ24では、RGBの色成分が所定の配置で並べられ、個々の画素については何れか1つの色成分を有するようなモザイク状のカラー画像データが得られることになる。RGBの各色成分の配置については後述する。
The
本実施例の撮像装置100に搭載された画像処理部30は、このようなイメージセンサ24で得られたカラー画像データに対して所定の画像処理を施すことによって、撮影画像のカラー画像データを生成する。図示されているように、画像処理部30には、イメージセンサ24から画像を読み出す画像読み出し部32が搭載されている。詳細には後述するが、画像読み出し部32は、露光時間(イメージセンサ24での電荷の蓄積時間)を異ならせて、3つの画像を読み出すことが可能となっており、読み出した各画像は第1メモリ34、第2メモリ35、第3メモリ36にそれぞれ一旦、記憶される。続いて、これらの3つの画像は画像圧縮部38によって読み出されて、1つのカラー画像データとして圧縮される。本実施例の画像圧縮部38には、RGBの3成分を有するカラー画像データ(RGBカラー画像データ)を圧縮するJPEG圧縮モジュールが用いられており、第1メモリ34の画像はRGBカラー画像データのG成分として、第2メモリ35の画像はR成分として、第3メモリ36の画像はB成分として、それぞれ画像圧縮部38に読み出されて、1つのカラー画像データとして圧縮される。
The
こうしてJPEG圧縮されたカラー画像データは、画像出力部40に供給されて、外部出力端子42あるいはメモリカード44などに出力される。尚、本実施例の撮像装置100では、画像圧縮部38がJPEG圧縮モジュールによって構成されるものとして説明するが、RGBの3成分を1つのカラー画像データとして圧縮することが可能であれば、JPEG圧縮に限らず、他の方法で圧縮を行うモジュールを用いることも可能である。
The JPEG-compressed color image data is supplied to the
図2は、カラーフィルタアレイ22に、RGBの微細なカラーフィルタが所定の配置で並べられている様子を示した説明図である。カラーフィルタアレイ22の中で細かい斜線を付した部分はB色のカラーフィルタであり、粗い斜線を付した部分はR色のカラーフィルタであり、斜線を付していない部分はG色のカラーフィルタである。図示されているように、カラーフィルタアレイ22には、RGBの各カラーフィルタが一定のパターンで繰り返して配置されている。また、個々のカラーフィルタの大きさは、イメージセンサ24を構成する各光電素子と同じ大きさとなっており、各カラーフィルタの位置と、各光電素子の位置とが一致するように構成されている。このため、イメージセンサ24では、RGBの各カラーフィルタの配列と同じパターンで、RGBの各成分がモザイク状に配置された画像データが得られることになる。
FIG. 2 is an explanatory diagram showing a state in which fine RGB color filters are arranged in a predetermined arrangement on the color filter array 22. In the color filter array 22, a portion with fine oblique lines is a B color filter, a portion with coarse oblique lines is an R color filter, and a portion not shaded is a G color filter. It is. As shown in the drawing, the RGB color filters are repeatedly arranged in a fixed pattern in the color filter array 22. The size of each color filter is the same as that of each photoelectric element constituting the
こうして得られたモザイク状の画像データは、個々の画素についてはRGBの何れか1つの成分しか有していないので、形式的には単色成分の画像データ(モノクロ画像データ)と同様に取り扱うことができる。また、各画素に欠落している色成分を周囲の画素から補間することにより、RGBカラー画像データに変換することも可能な画像データとなっている。本実施例の撮像装置100では、この点に着目して、露光時間を3段階に変えて撮影した3つのカラー画像を、モザイク状の画像データの形式で保存し、それらをR成分の画像データ、G成分の画像データ、B成分の画像データとして圧縮することで、感度範囲の広い画像を撮影することを可能としている。しかも、被写体のぶれによる画質の悪化や、感度範囲が広げられない場合があることを気にする必要がない。このため、たいへん使い易い技術となっている。以下では、本実施例の撮像装置100を用いて画像を撮影する処理および、撮影した画像を現像する処理について説明する。
Since the mosaic image data obtained in this way has only one of RGB components for each pixel, it can be handled in the same manner as image data of monochrome components (monochrome image data). it can. In addition, image data that can be converted into RGB color image data by interpolating the color components that are missing in each pixel from surrounding pixels. In the
B.撮像処理 :
図3は、本実施例の撮像装置100で画像の撮影時に行われる撮像処理の流れを示したフローチャートである。かかる処理は、撮像装置100の全体の制御を司っている図示しないCPUによって実行される処理である。撮像処理では、先ず始めに露光時間の設定を取得する(ステップS100)。この露光時間は、撮影しようとする画像の明るさに応じて、1つ設定される露光時間であり、撮像装置100のユーザーが、図示しない操作ボタンを操作することによって設定しても良いし、あるいは撮像装置100が自動で設定しても良い。
B. Imaging processing:
FIG. 3 is a flowchart illustrating the flow of an imaging process performed when an image is captured by the
次に、取得した露光時間に応じて、3段階の露光時間を決定する(ステップS102)。すなわち、撮影しようとする画像に応じてステップS100で設定された露光時間を、中時間の露光時間(中露光時間)として決定し、中露光時間に対して所定比率の露光時間を、それぞれ短露光時間、長露光時間として決定する。 Next, a three-stage exposure time is determined according to the acquired exposure time (step S102). That is, the exposure time set in step S100 according to the image to be photographed is determined as an intermediate exposure time (medium exposure time), and a predetermined ratio of the exposure time to the intermediate exposure time is set to the short exposure time. Time and long exposure time are determined.
そして、シャッターが押されてから短露光時間が経過した時点で、イメージセンサ24から画像データを読み出して、第1メモリ34に記憶する(ステップS104)。続いて、中露光時間の経過時に読み出した画像データは第2メモリ35に記憶し(ステップS106)、更に、長露光時間の経過時に読み出した画像データは第3メモリ36に記憶する(ステップS108)。図2を用いて前述したように、このようにして読み出された画像データは、RGBの各成分がモザイク状に組み合わされたカラー画像データであり、個々の画素については1つの成分しか有していない。このため、単色成分の画像データと同様に取り扱うことが可能である。
Then, when the short exposure time has elapsed since the shutter was pressed, the image data is read from the
そこで、第1メモリ34〜第3メモリ36に記憶された3つのカラー画像データを、それぞれRGBカラー画像データのG成分、R成分、B成分とみなして、JPEG圧縮を行う(ステップS110)。かかる処理は、RGBカラー画像データをJPEG圧縮するモジュールのGchに第1メモリ34の画像データを、Rchに第2メモリ35の画像データを、Bchに第3メモリ36の画像データを供給することによって、容易に実現することができる。
Therefore, the three color image data stored in the
こうして短露光時間、中露光時間、長露光時間のカラー画像データをJPEG圧縮したら、得られたJPEGカラー画像データを、撮影画像のカラー画像データとして、外部出力端子42あるいはメモリカード44などに出力して(ステップS112)、図3の撮像処理を終了する。以上のようにして出力されたカラー画像データは、露光時間の異なる3つのカラー画像データが含まれているが、それぞれのカラー画像データはRGBの各成分がモザイク状に配置された画像データとなっているので、3つのカラー画像データで通常のカラー画像データ1つ分のデータ量しかない。しかも、JPEG圧縮されているので、更にデータ量が小さくなっていると共に、3つのカラー画像データを一体の画像データとして取り扱うことができる。そして必要に応じて、以下に示すような現像処理を行うことにより、感度範囲の広いカラー画像を得ることが可能となっている。
After JPEG compression of the short exposure time, medium exposure time, and long exposure time color image data, the obtained JPEG color image data is output to the
C.現像処理 :
図4は、本実施例の撮像装置100で撮影されたカラー画像データを現像してカラー画像を出力する処理の流れを示したフローチャートである。かかる処理は、パーソナルコンピュータなどを用いて行っても良いし、プリンタなどに搭載されているコンピュータを用いてプリンタ内で実行することも可能である。
C. Development processing:
FIG. 4 is a flowchart showing a flow of processing for developing color image data captured by the
現像処理では、先ず始めに、本実施例の撮像装置100で撮影されたJPEGカラー画像データを読み込む(ステップS200)。JPEGカラー画像データは、撮像装置100の外部出力端子42から直接読み込んでも良いし、あるいはメモリカード44などに記憶されているデータを読み込んでも良い。
In the development process, first, JPEG color image data photographed by the
続いて、読み込んだJPEGカラー画像データを展開する(ステップS202)。JPEGカラー画像データは、既存の専用モジュールを利用することで、直ちに展開することができる。尚、図3を用いて前述したように、撮像装置100から出力されたJPEGカラー画像データは、短露光時間の画像データをG成分の画像データとして扱い、中露光時間の画像データをR成分の画像データとして扱い、長露光時間の画像データをB成分の画像データとして扱って、JPEG圧縮された画像データである。従って、ステップS202で展開して得られたカラー画像データは、G成分が短露光時間の画像データに対応し、R成分が中露光時間の画像データに対応し、B成分が長露光時間の画像データに対応している。また、これらの画像データは、RGBの何れか1つの成分がモザイク状に配列されたカラー画像データとなっている。
Subsequently, the read JPEG color image data is expanded (step S202). JPEG color image data can be immediately developed by using an existing dedicated module. As described above with reference to FIG. 3, the JPEG color image data output from the
次に、展開して得られたカラー画像データを、パーソナルコンピュータあるいはプリンタなどのモニタ画面上に表示する(ステップS204)。展開して得られたカラー画像データのRGBの各成分は、異なる露光時間で撮影されたモザイク状のカラー画像データであるが、短露光時間の画像データをG成分、中露光時間の画像データをR成分、長露光時間の画像データをB成分と扱えば、通常のRGBカラー画像データと同じようにモニタに表示しただけでも、画像の内容を確認することが可能である。 Next, the color image data obtained by the expansion is displayed on a monitor screen of a personal computer or a printer (step S204). The RGB components of the color image data obtained by the development are mosaic color image data photographed at different exposure times. The short exposure time image data is the G component, and the medium exposure time image data is the image data. If the image data of the R component and the long exposure time are handled as the B component, it is possible to confirm the content of the image just by displaying it on the monitor in the same way as normal RGB color image data.
そして、モニタに表示された画像を出力するか否かをユーザーに確認し(ステップS206)、出力する旨がユーザーによって選択された場合には(ステップS206:yes)、以下に説明するカラー画像出力処理を開始する(ステップS250)。これに対して、出力しない旨が選択された場合は(ステップS06:no)、カラー画像出力処理はスキップする。 Then, the user confirms whether or not to output the image displayed on the monitor (step S206), and when the user selects to output (step S206: yes), the color image output described below is performed. Processing is started (step S250). On the other hand, when it is selected not to output (step S06: no), the color image output process is skipped.
図5は、カラー画像出力処理の流れを示すフローチャートである。カラー画像出力処理では、展開して得られたカラー画像データのG成分を、短露光時間の画像データとして記憶し(ステップS252)、R成分を中露光時間の画像データとして記憶し(ステップS254)、B成分を長露光時間の画像データとして記憶する(ステップS256)。ここで記憶される画像データは、各画素にRGBの何れか1成分が記憶されたモザイク状のカラー画像データである。 FIG. 5 is a flowchart showing the flow of color image output processing. In the color image output process, the G component of the color image data obtained by the development is stored as short exposure time image data (step S252), and the R component is stored as medium exposure time image data (step S254). , B component is stored as image data of a long exposure time (step S256). The image data stored here is mosaic color image data in which any one component of RGB is stored in each pixel.
次に、これら各露光時間の画像データを合成して合成画像を生成する(ステップS258)。各露光時間の画像データを合成して合成画像を得るには、周知の方法を用いることができる。本実施例では、次のようにして画像データを合成している。先ず、短露光時間の画像データに、(長露光時間/短露光時間)の比例係数を乗算して、長露光時間相当の画像データに変換する。同様に、中露光時間の画像データにも(長露光時間/中露光時間)の比例係数を乗算して、長露光時間相当の画像データに変換する。次いで、変換後の短露光時間の画像データと、変換後の中露光時間の画像データと、長露光時間の画像データとを加算する。 Next, a composite image is generated by combining the image data of these exposure times (step S258). A well-known method can be used to synthesize image data for each exposure time to obtain a composite image. In the present embodiment, image data is synthesized as follows. First, the image data corresponding to the long exposure time is converted by multiplying the image data of the short exposure time by a proportional coefficient of (long exposure time / short exposure time). Similarly, the medium exposure time image data is multiplied by a proportional coefficient of (long exposure time / medium exposure time) to be converted into image data corresponding to the long exposure time. Next, the converted short exposure time image data, the converted medium exposure time image data, and the long exposure time image data are added.
こうして得られた合成画像の画像データは、感度範囲が拡大された画像データとなっている。何故なら、たとえ短露光時間の画像データでは黒く潰れてしまって階調情報が失われた領域でも、中露光時間あるいは長露光時間の画像データに階調情報が残っていれば、これらの画像データを加算することで、この領域の階調情報を引き継ぐことができる。同様に、長露光時間の画像データでは白く飛んでしまって階調情報が残っていない領域でも、短露光時間あるいは中露光時間の画像データに階調情報が残っていれば、これらの画像データを加算することで、この領域の階調情報を引き継ぐことができる。結局、短露光時間でなければ映らないような明るい領域から、長露光時間でなければ映らないような暗い領域まで、広い感度範囲に亘って階調情報が保存された画像データが得られることになる。 The image data of the composite image obtained in this way is image data with an expanded sensitivity range. This is because even if the image data of the short exposure time is crushed in black and the gradation information is lost, if the gradation information remains in the image data of the medium exposure time or the long exposure time, these image data The gradation information in this area can be taken over by adding. Similarly, even if the image data of the long exposure time is white and the gradation information does not remain, if the gradation information remains in the image data of the short exposure time or the medium exposure time, these image data are By adding, the gradation information in this area can be taken over. Eventually, it is possible to obtain image data in which gradation information is stored over a wide sensitivity range, from a bright area that must be displayed with a short exposure time to a dark area that must be displayed with a long exposure time. Become.
もっとも、このように加算して得られた画像データは、最大階調値が階調値255を越えているので、階調値255に収まるように、最後に階調値を正規化しておく。加算して得られた画像データの階調値が最大になるのは、何れの露光時間の画像データも階調値255を取る場合であるから、最大階調値は、255×(長露光時間/短露光時間)+255×(長露光時間/短露光時間)+255となる。そこで、各露光時間の画像を加算して得られた画像データを、この最大階調値で除算した後、階調値255を乗算する。こうして、階調値が0〜255の範囲に正規化された画像データを、合成画像の画像データとする。 However, since the maximum gradation value exceeds the gradation value 255 in the image data obtained by such addition, the gradation value is finally normalized so that it falls within the gradation value 255. The gradation value of the image data obtained by the addition becomes maximum when the image data of any exposure time has a gradation value of 255. Therefore, the maximum gradation value is 255 × (long exposure time. / Short exposure time) + 255 × (long exposure time / short exposure time) +255. Therefore, the image data obtained by adding the images for each exposure time is divided by the maximum gradation value, and then multiplied by the gradation value 255. Thus, the image data normalized in the range of gradation values from 0 to 255 is used as the image data of the composite image.
図6は、短露光時間の画像、中露光時間の画像、長露光時間の画像を合成して、広い感度範囲を有する合成画像を生成する様子を概念的に示した説明図である。短露光時間の画像では、明るい戸外の映像はハッキリと映っているが、暗い室内の映像は黒く潰れている。また、中露光時間の画像では、窓からの光が届く人物の映像は映っているが、その他の室内の映像は黒く潰れたままとなっており、戸外の映像は半ば飛んでしまっている。更に、長露光時間の画像では、暗い室内の映像は映っているが、人物や戸外の映像は白く飛んでしまっている。これらの画像を上述した方法によって合成することにより、明るい戸外から暗い室内まで明瞭に映像が映った合成画像を得ることが可能となる。 FIG. 6 is an explanatory diagram conceptually showing how a short exposure time image, a medium exposure time image, and a long exposure time image are combined to generate a combined image having a wide sensitivity range. In an image with a short exposure time, a bright outdoor video is clearly shown, but a dark indoor video is crushed black. Moreover, in the image of the medium exposure time, the image of the person who receives the light from the window is shown, but the other indoor images remain crushed in black, and the outdoor image has been blown halfway. Furthermore, in the image with a long exposure time, a dark room image is shown, but a person and an outdoor image are flying white. By synthesizing these images by the method described above, it is possible to obtain a synthesized image in which a video is clearly reflected from a bright outdoor room to a dark room.
図5に示したカラー画像出力処理のステップS258では、以上のようにして、短露光時間、中露光時間、長露光時間で得られた画像データから、合成画像データを生成する処理を行う。尚、前述したように、JPEGカラー画像データを展開して得られた短露光時間の画像データ、中露光時間の画像データ、長露光時間の画像データは、各画素にRGB何れかの成分がモザイク状に配列された画像データである。従って、各露光時間の画像データを合成して得られた画像データも、各画素については、RGBの何れかの成分のみが設定されたモザイク状のカラー画像データとなっている。そこで、合成した画像データの各画素について、欠落している色成分を、周辺の画素の成分から補間して算出する(ステップS260)。その結果、全ての画素にRGBの各色成分が設定されたRGBカラー画像データを得ることができる。 In step S258 of the color image output process shown in FIG. 5, a process for generating composite image data from the image data obtained in the short exposure time, the medium exposure time, and the long exposure time as described above is performed. As described above, the short exposure time image data, the medium exposure time image data, and the long exposure time image data obtained by developing the JPEG color image data have a mosaic of any component of RGB in each pixel. It is image data arranged in a shape. Therefore, the image data obtained by combining the image data of each exposure time is also mosaic color image data in which only one of RGB components is set for each pixel. Therefore, for each pixel of the combined image data, the missing color component is calculated by interpolating from the surrounding pixel components (step S260). As a result, RGB color image data in which RGB color components are set for all pixels can be obtained.
こうして得られたカラー画像データを用いて、カラー画像を出力する(ステップS262)。カラー画像を出力する態様としては、例えばモニタ画面上に表示する態様や、プリンタで印刷する態様など、種々の態様とすることができる。 A color image is output using the color image data thus obtained (step S262). As a mode of outputting a color image, various modes such as a mode of displaying on a monitor screen and a mode of printing with a printer can be used.
続いて、出力されたカラー画像を確認して、合成前の画像を参照するか否かを、現像処理を行っている画像機器(例えば、パーソナルコンピュータやプリンタなど)に対して指定する。例えば、動きのある被写体を撮影して、被写体がぶれて映っていた場合などには、合成前の画像を参照する旨を指定する。すると、この指定を受け取った画像機器は、合成前の画像を参照する必要の有無を判断し(ステップS264)、合成前の画像を参照する必要がないと判断された場合は(ステップS264:no)、図5のカラー画像出力処理を抜けて、図4の現像処理に復帰する。 Subsequently, the output color image is confirmed, and whether or not to refer to the pre-combination image is specified for an image device (for example, a personal computer or a printer) performing the development process. For example, when a moving subject is photographed and the subject is blurred, it is specified that the pre-combination image is referred to. Then, the image device that has received this designation determines whether or not it is necessary to refer to the image before composition (step S264). If it is determined that it is not necessary to refer to the image before composition (step S264: no). ), The color image output process of FIG. 5 is exited, and the process returns to the development process of FIG.
これに対して、合成前の画像を参照する必要があると判断された場合は(ステップS264:yes)、参照する露光時間の画像を指定する(ステップS266)。すなわち、本実施例で扱うJPEGカラー画像データには、各露光時間で得られたカラー画像データが含まれており、JPEGカラー画像データを展開することによって、短露光時間のカラー画像データ、中露光時間のカラー画像データ、長露光時間のカラー画像データがそれぞれ得られている。そこで、何れの露光時間のカラー画像データを参照するかを指定する。 On the other hand, when it is determined that it is necessary to refer to an image before synthesis (step S264: yes), an image having an exposure time to be referred to is designated (step S266). That is, the JPEG color image data handled in the present embodiment includes color image data obtained at each exposure time. By developing the JPEG color image data, color image data having a short exposure time, medium exposure can be obtained. Time color image data and long exposure time color image data are obtained. Therefore, it is designated which color image data of which exposure time is to be referred to.
続いて、指定された露光時間のカラー画像データについて、欠落した色成分を補間する(ステップS268)。すなわち、JPEGカラー画像データを展開して得られた各露光時間の画像データは、個々の画素についてみればRGB何れか1つの色成分しか設定されていないモザイク状の画像データである。そこで、それぞれの画素についての欠落した色成分を、周辺の画素から補間して、RGBの各色成分が揃ったRGBカラー画像データに変換する。そして、得られたRGBカラー画像データに基づいて、例えばモニタ画面上や印刷媒体上などにカラー画像を出力した後(ステップS270)、図5のカラー画像出力処理を抜けて、図4の現像処理に復帰する。もちろん、こうして出力したカラー画像を確認して、別の露光時間の画像を指定可能としても良い。このように、本実施例では、JPEGカラー画像データに、各露光時間で得られたカラー画像データが圧縮されているので、合成して得られた画像が満足のいく画像でなかった場合には、合成に用いた露光時間の画像の中から満足のいく画像を選択することが可能となっている。 Subsequently, the missing color component is interpolated for the color image data of the designated exposure time (step S268). That is, image data for each exposure time obtained by developing JPEG color image data is mosaic image data in which only one color component of RGB is set for each pixel. Therefore, the missing color component for each pixel is interpolated from surrounding pixels and converted to RGB color image data in which each RGB color component is aligned. Then, based on the obtained RGB color image data, for example, after outputting a color image on a monitor screen or a printing medium (step S270), the color image output process of FIG. 5 is exited, and the development process of FIG. Return to. Of course, the color image output in this way may be confirmed so that an image with a different exposure time can be designated. As described above, in this embodiment, the color image data obtained at each exposure time is compressed into the JPEG color image data, so that the image obtained by the synthesis is not a satisfactory image. It is possible to select a satisfactory image from the exposure time images used for the composition.
図4に示したように、現像処理では、上述したカラー画像出力処理から復帰すると、他の画像を現像するか否かをユーザーに確認する(ステップS208)。そして、他の画像を現像する旨がユーザーによって指定された場合は(ステップS208:yes)、再びステップS200に戻って、新たなJPEGカラー画像データを読み込んだ後、上述した一連の処理を行う。これに対して、他の画像を現像しない旨が指定された場合は(ステップS208:no)、図4に示した現像処理を終了する。 As shown in FIG. 4, in the development process, when returning from the color image output process described above, the user is asked whether or not to develop another image (step S208). If the user designates that another image is to be developed (step S208: yes), the process returns to step S200 again, and after reading new JPEG color image data, the above-described series of processing is performed. On the other hand, when it is designated not to develop another image (step S208: no), the developing process shown in FIG. 4 is terminated.
以上に説明したように、本実施例の撮像装置100を用いて画像を撮影すると、自動的に、短露光時間、中露光時間、長露光時間のカラー画像データが撮影されて、それらが1つのカラー画像データにまとめられて、圧縮された状態で出力される。各露光時間のカラー画像データは、RGBの各成分を有しているが、個々の画素について見れば何れか1成分しか設定されていないので、短中長の各露光時間で得られた3つのカラー画像データを合わせても、通常のRGBカラー画像データ1つ分のデータ量に過ぎない。しかも、各露光時間で得られた3つのカラー画像データを、カラー画像データのR成分、G成分、B成分とみなした上で、1つのカラー画像データとして圧縮しているために、データ量は更に小さくなる。加えて、圧縮に際しても、JPEG圧縮などに用いられる既存の圧縮モジュールをそのまま用いることができるので、特別な部品を用いることなく、簡単に且つ迅速に圧縮することができる。その結果、露光時間の異なる3つのカラー画像データが含まれているにも拘わらず、通常のカラー画像データと同じような手軽さで、カラー画像データを出力することが可能となる。
As described above, when an image is captured using the
また、このような、撮像装置100を用いて撮影されたカラー画像データを現像する際には、先ず、圧縮されているカラー画像データを展開して、短露光時間、中露光時間、長露光時間のカラー画像データに分解する。3つのカラー画像データが1つの画像データに圧縮されているとは言え、圧縮の手法自体は一般的な方法を用いることができるので、カラー画像データの解凍に際しても、一般的な解凍モジュールを用いて、簡単に且つ迅速に行うことができる。その後、解凍して得られた短露光時間、中露光時間、長露光時間のカラー画像データを用いて、広い感度範囲を有する画像を合成する。このとき、被写体が動いていたために、ぶれた画像になってしまった場合でも、短中長の各露光時間の画像データがそのまま残っているので、その中から適切な画像データを使用すればよい。
Further, when developing such color image data photographed using the
このように本実施例の撮像装置100では、被写体が動くなどしてぶれた画像になるか否かといったことを気にすることなく撮影することができる。このため、一般的な画像を撮影する場合と何ら異なることなく、広い感度範囲の画像を、簡単に撮影することが可能となる。
As described above, the
また、前述したように、本実施例の撮像装置100では、短中長の各露光時間の画像データを圧縮する際に、短露光時間の画像データはG成分の画像データとみなし、中露光時間の画像データはR成分の画像データとみなし、長露光時間の画像データはB成分の画像データとみなして圧縮している。このようにしておけば、圧縮したカラー画像データを展開した後、そのままモニタに表示するだけでも、写っている画像の概要を確認することができる。このため、被写体がぶれて映っている画像を無駄に合成するといった事態を回避することが可能となる。
Further, as described above, in the
D.変形例 :
上述した撮像装置100には、幾つかの変形例が存在している。以下では、これら変形例の撮像装置100について簡単に説明する。
D. Modified example:
There are several variations of the
D−1.第1の変形例 :
上述した実施例では、短露光時間の画像データ、中露光時間の画像データ、長露光時間の画像データを、そのままJPEG圧縮するものとして説明した。しかし、各露光時間の画像データは、RGBの各成分が、図2に示すようにモザイク状に配列されている画像データとなっている。当然、隣接する画素間で階調値が急激に変化しており、高周波数成分を多く含んだ画像データとなっている。ところが、JPEGなどの圧縮技術では、高周波数成分は失われ易いので、短中長の各露光時間で得られた画像データを圧縮する際に、画質が悪化する可能性がある。そこで、各露光時間の画像データをそのまま圧縮するのではなく、同じ色成分同士が集まるように、画素位置を再配置した後、画像データを圧縮しても良い。
D-1. First modification:
In the above-described embodiments, image data having a short exposure time, image data having a medium exposure time, and image data having a long exposure time are described as being subjected to JPEG compression as they are. However, the image data for each exposure time is image data in which the RGB components are arranged in a mosaic as shown in FIG. Naturally, the gradation value changes abruptly between adjacent pixels, and the image data contains a lot of high frequency components. However, in a compression technique such as JPEG, high frequency components are easily lost, so that there is a possibility that the image quality deteriorates when compressing image data obtained in each short, medium and long exposure time. Therefore, instead of compressing the image data of each exposure time as it is, the image data may be compressed after rearranging the pixel positions so that the same color components are collected.
図7は、画素位置の再配置を行って同じ色成分の画素を集めた後に、画像データを圧縮する第1の変形例を示した説明図である。図示されているように、各露光時間の画像データは、G成分(およびg成分)の画素と、R成分の画素と、B成分の画素とが一定のパターンで配置されて構成されている。そこで、G成分の画素は画像の左上半分の領域に集めてやり、B成分の画素は右上半分の領域に集め、R成分の画素は左下半分の領域に、g成分の画素は右下半分の領域に集めてやる。こうすれば、それぞれの領域では同じ色成分の画素が連続するので、画像の高周波数成分を大きく減少させることができる。そして、このように画素位置を再配置して得られた画像データに対して圧縮を行う。上述したように、画素位置の再配置を行うことで高周波数成分が大きく減少しているために、画質を劣化させることなく、画像データを圧縮することができる。 FIG. 7 is an explanatory diagram showing a first modification example in which image data is compressed after collecting pixels having the same color component by rearranging pixel positions. As shown in the figure, the image data for each exposure time is configured by arranging G component (and g component) pixels, R component pixels, and B component pixels in a fixed pattern. Therefore, G component pixels are collected in the upper left half area, B component pixels are collected in the upper right half area, R component pixels are gathered in the lower left half area, and g component pixels are gathered in the lower right half area. I will collect it in the area. In this way, since pixels of the same color component are continuous in each region, the high frequency component of the image can be greatly reduced. The image data obtained by rearranging the pixel positions in this way is compressed. As described above, since the high frequency components are greatly reduced by rearranging the pixel positions, the image data can be compressed without degrading the image quality.
また、こうして圧縮された画像データを現像する際には、今度は、圧縮時と逆向きに画素位置の再配置を行えばよい。すなわち、圧縮された画像データを展開すると、図7に示した圧縮直前の画像データ(G成分、B成分、R成分、g成分がそれぞれの領域に集められた画像データ)が得られる。そこで、各領域の画素を、圧縮時とは逆方向に再配置を行ってやれば、その後は、図4に示した現像処理と同様にして、カラー画像を現像することが可能となる。その結果、感度範囲が広く高画質なカラー画像を簡単に出力することが可能となる。 Further, when developing the compressed image data, the pixel positions may be rearranged in the opposite direction to that at the time of compression. That is, when the compressed image data is expanded, the image data immediately before compression (image data in which the G component, B component, R component, and g component are collected in the respective regions) shown in FIG. 7 is obtained. Therefore, if the pixels in each region are rearranged in the direction opposite to that at the time of compression, thereafter, it is possible to develop a color image in the same manner as the development processing shown in FIG. As a result, it is possible to easily output a high-quality color image with a wide sensitivity range.
D−2.第2の変形例 :
また、RGBの各色成分の中では、G成分が最も画質に大きな影響を与えることが知られている。このため圧縮技術では、できるだけG成分の情報が保存されるように圧縮される傾向がある。そこで、各露光時間の画像データから、G成分、R成分、B成分を集めた画像データを、それぞれカラー画像データのG成分、R成分、B成分として圧縮するようにしても良い。
D-2. Second modification:
Further, it is known that the G component has the largest influence on the image quality among the RGB color components. For this reason, the compression technique tends to compress the G component information as much as possible. Therefore, image data obtained by collecting G component, R component, and B component from image data for each exposure time may be compressed as G component, R component, and B component of color image data, respectively.
図8は、各露光時間の画像データから成分毎に取り出した画像データを、カラー画像データのG成分、R成分、B成分として圧縮する第2の変形例を示した説明図である。図示した例では、先ず始めに、各露光時間の画像データ内で画素位置の再配置を行うことにより、G成分の画素、B成分の画素、R成分の画素、g成分の画素をそれぞれの領域に集めておく。図8に示した例では、短露光時間の画像データは、図中でG_sと表示したG成分の画像データの領域と、B_sと表示したB成分の画像データの領域と、R_sと表示したR成分の画像データの領域とに再配置されている。中露光時間あるいは長露光時間の画像データについても同様に、図中でG_m、B_m、R_mと表示した各成分の領域、あるいは図中でG_l、B_l、R_lと表示した各成分の領域に再配置されている。 FIG. 8 is an explanatory view showing a second modification in which image data extracted for each component from image data at each exposure time is compressed as G component, R component, and B component of color image data. In the illustrated example, first, by rearranging the pixel positions in the image data of each exposure time, the G component pixel, the B component pixel, the R component pixel, and the g component pixel are respectively displayed in the respective regions. To collect. In the example shown in FIG. 8, the image data of the short exposure time includes the G component image data area indicated as G_s, the B component image data area indicated as B_s, and the R data indicated as R_s. It is rearranged in the area of the component image data. Similarly, image data of medium exposure time or long exposure time is rearranged in each component area indicated as G_m, B_m, R_m in the figure, or in each component area indicated as G_l, B_l, R_l in the figure. Has been.
こうして各成分に再配置された各画像データから、G成分(すなわち、G_s、G_m、G_l)の領域のデータ、R成分(すなわち、R_s、R_m、R_l)の領域のデータ、B成分(すなわち、B_s、B_m、B_l)の領域のデータを抜き出して、それぞれ3つの画像データを生成する。そして、G成分を集めた画像データ、R成分を集めた画像データ、B成分を集めた画像データを、それぞれカラー画像データのG成分、R成分、B成分として圧縮する。 From each image data rearranged in each component in this way, G component (ie G_s, G_m, G_l) region data, R component (ie R_s, R_m, R_l) region data, B component (ie, B_s, B_m, and B_l) data are extracted to generate three pieces of image data. The image data collected from the G component, the image data collected from the R component, and the image data collected from the B component are compressed as the G component, R component, and B component of the color image data, respectively.
前述したように、G成分は、R成分やB成分よりも画質に大きな影響を与えることが知られており、このことと対応して、カラー画像データの圧縮は、G成分の情報ができるだけ保存されるように実行されることが多い。従って、短中長の各露光時間で得られた画像データの中から、画質に大きな影響を与えるG成分を抜き出して、カラー画像データのG成分として圧縮してやれば、圧縮に伴って失われる情報をできるだけ抑制した状態で画像データを圧縮することができる。 As described above, it is known that the G component has a larger influence on the image quality than the R component and the B component. Correspondingly, the compression of color image data preserves G component information as much as possible. Often executed as Therefore, if the G component that greatly affects the image quality is extracted from the image data obtained at the short, medium, and long exposure times, and is compressed as the G component of the color image data, information that is lost along with the compression is extracted. The image data can be compressed while being suppressed as much as possible.
また、第2の変形例においても、圧縮された画像データを現像する際には、今度は、圧縮時と逆向きの処理を行えばよい。すなわち、圧縮された画像データを展開して得られるG成分の画像データは、短中長の各露光時間の画像データのG成分を集めた画像データとなっている。同様に、圧縮された画像データを展開して得られるR成分の画像データは、短中長の各露光時間の画像データのR成分を集めた画像データとなっており、圧縮された画像データを展開して得られるB成分の画像データは、短中長の各露光時間の画像データのB成分を集めた画像データとなっている。そこで、これらのG成分、R成分、B成分の画像データを、短露光時間の画像データ、中露光時間の画像データ、長露光時間の画像データに分配する。その結果、短露光時間の画像データ、中露光時間の画像データ、長露光時間の画像データが得られるので、その後は、図4に示した現像処理と同様にして、カラー画像を現像することが可能となる。各露光時間の画像データのG成分は、圧縮による情報の損失ができるだけ小さく抑制されており、しかも、G成分は他の色成分に比べて画質に大きく影響することから、感度範囲が広く高画質なカラー画像を出力することが可能となる。 Also in the second modified example, when developing the compressed image data, it is only necessary to perform processing in the opposite direction to that at the time of compression. That is, the G component image data obtained by developing the compressed image data is image data obtained by collecting the G components of the short, medium, and long exposure time image data. Similarly, R component image data obtained by developing compressed image data is image data obtained by collecting R components of image data of short, medium, and long exposure times. The B component image data obtained by the development is image data obtained by collecting the B components of the image data of short, medium and long exposure times. Therefore, these G component, R component, and B component image data are distributed to short exposure time image data, medium exposure time image data, and long exposure time image data. As a result, image data having a short exposure time, image data having a medium exposure time, and image data having a long exposure time are obtained. Thereafter, a color image can be developed in the same manner as the development processing shown in FIG. It becomes possible. In the G component of the image data for each exposure time, the loss of information due to compression is suppressed as much as possible, and the G component greatly affects the image quality compared to other color components, so the sensitivity range is wide and the image quality is high. It is possible to output a simple color image.
尚、以上の説明では、短中長の各露光時間の画像データ内で画素位置の再配置を行って、G成分の画素、B成分の画素、R成分の画素、g成分の画素を各領域に集めた画像データに変換した後、それらの画像データから、各成分のデータを集めるものとして説明した。しかし、画像データ内で画素位置の再配置を行うことなく、短中長の各露光時間の画像データから、G成分、B成分、R成分のデータを抜き出すことによって、各成分の画像データを直接生成することとしても良い。 In the above description, the pixel positions are rearranged in the image data of the short, medium, and long exposure times, and the G component pixel, the B component pixel, the R component pixel, and the g component pixel are assigned to each region. In the above description, the data of each component is collected from the image data after being converted into the image data collected. However, the image data of each component is directly extracted by extracting the data of the G component, the B component, and the R component from the image data of the short, medium and long exposure times without rearranging the pixel positions in the image data. It may be generated.
以上、各種の撮像装置100について説明したが、本発明は上記すべての実施例に限られるものではなく、その要旨を逸脱しない範囲において種々の態様で実施することが可能である。
The
10…光学系、 20…撮像部、 22…カラーフィルタアレイ、
24…イメージセンサ、 30…画像処理部、 34…第1メモリ、
35…第2メモリ、 36…第3メモリ、 38…画像圧縮部、
40…画像出力部、 42…外部出力端子、 44…メモリカード、
100…撮像装置
DESCRIPTION OF
24 ... Image sensor, 30 ... Image processing unit, 34 ... First memory,
35 ... 2nd memory, 36 ... 3rd memory, 38 ... Image compression part,
40 ... Image output unit, 42 ... External output terminal, 44 ... Memory card,
100: Imaging device
Claims (5)
前記撮像面への露光時間を複数段階に異ならせて前記被写体を撮影することにより、該露光時間が互いに異なる第1のカラー画像データ、第2のカラー画像データ、および第3のカラー画像データを生成するカラー画像データ生成手段と、
前記第1のカラー画像データ、第2のカラー画像データ、および第3のカラー画像データを1つのカラー画像データに合成することにより、合成カラー画像データを生成する合成カラー画像データ生成手段と、
前記合成されたカラー画像データを出力するカラー画像データ出力手段と
を備え、
前記カラー画像データ生成手段は、前記撮像面上の前記光電素子毎に互いに異ならせて設定された前記R成分、G成分、B成分の何れか1成分に対応する電荷量を読み出すことにより、各画素がRGBの何れか1成分を有する表現形式で、前記第1ないし第3のカラー画像データを生成する手段であり、
前記合成カラー画像データ生成手段は、前記第1ないし第3のカラー画像データをそれぞれ単成分の画像データと読み替えて、1つのカラー画像データとして圧縮することにより、前記合成カラー画像データを生成する手段である撮像装置。 An image of a subject is exposed on an imaging surface in which a plurality of photoelectric elements that convert received light into charges and accumulate are arranged in a matrix, and the R component, G component, and B component that constitute the three primary colors of light An imaging device that captures a color image of the subject by reading a corresponding charge amount,
The first color image data, the second color image data, and the third color image data having different exposure times are obtained by photographing the subject with different exposure times on the imaging surface in a plurality of stages. Color image data generating means for generating;
Synthesized color image data generating means for generating synthesized color image data by synthesizing the first color image data, the second color image data, and the third color image data into one color image data;
Color image data output means for outputting the synthesized color image data,
The color image data generation unit reads each charge amount corresponding to any one of the R component, the G component, and the B component set differently for each photoelectric element on the imaging surface. Means for generating the first to third color image data in an expression format in which a pixel has any one component of RGB;
The composite color image data generation means generates the composite color image data by replacing the first to third color image data with single-component image data and compressing the data as one color image data. An imaging device.
前記合成カラー画像データ生成手段は、前記第1ないし第3のカラー画像データの中で露光時間が最も短いカラー画像データをG成分、露光時間が最も長いカラー画像データをB成分、残余のカラー画像データをR成分の画像データと読み替えて、前記合成カラー画像データを生成する手段である撮像装置。 The imaging apparatus according to claim 1,
The composite color image data generation means includes a G component for the color image data having the shortest exposure time and a B component for the color image data having the longest exposure time among the first to third color image data, and the remaining color image. An imaging apparatus which is means for generating the composite color image data by replacing the data with R component image data.
画素毎にRGBの何れか1成分で表現されたカラー画像データを受け取ると、同じ成分同士が集まるように画素位置を再配置することによって、再配置カラー画像データに変換するカラー画像データ変換手段を備え、
前記カラー画像データ生成手段は、前記第1ないし第3のカラー画像データを生成すると、前記カラー画像データ変換手段に供給する手段であり、
前記合成カラー画像データ生成手段は、前記カラー画像データ変換手段によって画素位置が再配置された前記第1ないし第3のカラー画像データを受け取って、前記合成カラー画像データを生成する手段である撮像装置。 The imaging apparatus according to claim 1 or 2,
When receiving color image data expressed by any one of RGB components for each pixel, color image data conversion means for converting the pixel positions to rearrange color image data by rearranging the same components so as to gather together Prepared,
The color image data generation means is means for supplying the color image data conversion means when generating the first to third color image data,
The composite color image data generation means is an image pickup apparatus which receives the first to third color image data whose pixel positions are rearranged by the color image data conversion means and generates the composite color image data. .
前記合成カラー画像データ生成手段は、前記第1ないし第3のカラー画像データの中からG成分の画素を集めてG成分の画像データを構成し、その他の成分の画素を集めてR成分の画像データおよびB成分の画像データを構成した後、該各成分の画像データから前記合成カラー画像データを生成する手段である撮像装置。 The imaging apparatus according to any one of claims 1 to 3,
The composite color image data generation means collects G component pixels from the first to third color image data to form G component image data, and collects other component pixels to collect R component images. An imaging apparatus which is means for generating the composite color image data from the image data of each component after constructing the data and the image data of the B component.
前記撮像面への露光時間を複数段階に異ならせて前記被写体を撮影することにより、該露光時間が互いに異なる第1のカラー画像データ、第2のカラー画像データ、および第3のカラー画像データを生成する第1の工程と、
前記第1のカラー画像データ、第2のカラー画像データ、および第3のカラー画像データを1つのカラー画像データに合成することにより、合成カラー画像データを生成する第2の工程と、
前記合成されたカラー画像データを出力する第3の工程と
を備え、
前記カラー画像データを生成する第1の工程は、前記撮像面上の前記光電素子毎に互いに異ならせて設定された前記R成分、G成分、B成分の何れか1成分に対応する電荷量を読み出すことにより、各画素がRGBの何れか1成分を有する表現形式で、前記第1ないし第3のカラー画像データを生成する工程であり、
前記合成カラー画像データを生成する第2の工程は、前記第1ないし第3のカラー画像データをそれぞれ単成分の画像データと読み替えて、1つのカラー画像データとして圧縮することにより、前記合成カラー画像データを生成する工程である撮像方法。 An image of a subject is exposed on an imaging surface in which a plurality of photoelectric elements that convert received light into charges and accumulate are arranged in a matrix, and the R component, G component, and B component that constitute the three primary colors of light An imaging method for capturing a color image of the subject by reading a corresponding charge amount,
The first color image data, the second color image data, and the third color image data having different exposure times are obtained by photographing the subject with different exposure times on the imaging surface in a plurality of stages. A first step of generating;
A second step of generating combined color image data by combining the first color image data, the second color image data, and the third color image data into one color image data;
A third step of outputting the combined color image data,
In the first step of generating the color image data, a charge amount corresponding to any one of the R component, G component, and B component set differently for each photoelectric element on the imaging surface is calculated. A step of generating the first to third color image data in an expression format in which each pixel has any one component of RGB by reading;
In the second step of generating the composite color image data, the first to third color image data are respectively read as single-component image data and compressed as one color image data. An imaging method which is a process of generating data.
Priority Applications (1)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| JP2008112144A JP2009267555A (en) | 2008-04-23 | 2008-04-23 | Imaging apparatus, and imaging method |
Applications Claiming Priority (1)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| JP2008112144A JP2009267555A (en) | 2008-04-23 | 2008-04-23 | Imaging apparatus, and imaging method |
Publications (1)
| Publication Number | Publication Date |
|---|---|
| JP2009267555A true JP2009267555A (en) | 2009-11-12 |
Family
ID=41392889
Family Applications (1)
| Application Number | Title | Priority Date | Filing Date |
|---|---|---|---|
| JP2008112144A Withdrawn JP2009267555A (en) | 2008-04-23 | 2008-04-23 | Imaging apparatus, and imaging method |
Country Status (1)
| Country | Link |
|---|---|
| JP (1) | JP2009267555A (en) |
Cited By (3)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| JP2015087144A (en) * | 2013-10-29 | 2015-05-07 | セイコーエプソン株式会社 | Spectrometer and spectroscopic method |
| US9076233B2 (en) | 2012-02-03 | 2015-07-07 | Seiko Epson Corporation | Image processing device and electronic apparatus using the same |
| US10063785B2 (en) | 2014-08-20 | 2018-08-28 | Seiko Epson Corporation | Colorimetry method, colorimetry device, spectral measurement method, spectral measurement device and electronic apparatus |
Citations (3)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| JP2000244938A (en) * | 1999-02-19 | 2000-09-08 | Olympus Optical Co Ltd | Electronic camera |
| JP2005012315A (en) * | 2003-06-17 | 2005-01-13 | Ricoh Co Ltd | Digital camera |
| JP2007082023A (en) * | 2005-09-16 | 2007-03-29 | Casio Comput Co Ltd | Imaging apparatus and imaging method |
-
2008
- 2008-04-23 JP JP2008112144A patent/JP2009267555A/en not_active Withdrawn
Patent Citations (3)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| JP2000244938A (en) * | 1999-02-19 | 2000-09-08 | Olympus Optical Co Ltd | Electronic camera |
| JP2005012315A (en) * | 2003-06-17 | 2005-01-13 | Ricoh Co Ltd | Digital camera |
| JP2007082023A (en) * | 2005-09-16 | 2007-03-29 | Casio Comput Co Ltd | Imaging apparatus and imaging method |
Cited By (3)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| US9076233B2 (en) | 2012-02-03 | 2015-07-07 | Seiko Epson Corporation | Image processing device and electronic apparatus using the same |
| JP2015087144A (en) * | 2013-10-29 | 2015-05-07 | セイコーエプソン株式会社 | Spectrometer and spectroscopic method |
| US10063785B2 (en) | 2014-08-20 | 2018-08-28 | Seiko Epson Corporation | Colorimetry method, colorimetry device, spectral measurement method, spectral measurement device and electronic apparatus |
Similar Documents
| Publication | Publication Date | Title |
|---|---|---|
| KR101247647B1 (en) | Image synthesizing device, image synthesizing method, and recording medium | |
| CN103248901B (en) | Image processing apparatus and use the electronic equipment of this image processing apparatus | |
| KR101303410B1 (en) | Image capture apparatus and image capturing method | |
| JP5622513B2 (en) | Image processing apparatus, image processing method, and imaging apparatus | |
| JP2009147730A (en) | Moving picture generating apparatus, moving picture photographing apparatus, moving picture generating method and program | |
| JP2006165975A (en) | Image pickup element, image pickup device and image processing method | |
| US20100141823A1 (en) | Image Processing Apparatus And Electronic Appliance | |
| JP2013055567A (en) | Imaging apparatus | |
| US7609291B2 (en) | Device and method for producing an enhanced color image using a flash of infrared light | |
| US20110025885A1 (en) | Imaging apparatus, image recording method, and recording medium | |
| US6990240B2 (en) | Image processing apparatus | |
| JP2007006021A (en) | Imaging apparatus and image processing program | |
| JP2010021710A (en) | Imaging device, image processor, and program | |
| JP2009267555A (en) | Imaging apparatus, and imaging method | |
| CN113228612B (en) | Camera device, image data processing method of camera device, and storage medium | |
| JP5530304B2 (en) | Imaging apparatus and captured image display method | |
| JP2010283504A (en) | Imaging device, imaging method, and imaging program | |
| JPH11196299A (en) | Image pickup device | |
| JP2011223146A (en) | Electronic camera | |
| JPH11196317A (en) | Image pickup device | |
| JP4936816B2 (en) | Imaging apparatus and simultaneous display control method | |
| JPH07131721A (en) | Digital still camera | |
| JP5094686B2 (en) | Image processing apparatus, image processing method, and image processing program | |
| JP2006340100A (en) | Photographic device | |
| JP4449692B2 (en) | Electronic camera |
Legal Events
| Date | Code | Title | Description |
|---|---|---|---|
| A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20110405 |
|
| A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20120427 |
|
| A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20120508 |
|
| A761 | Written withdrawal of application |
Free format text: JAPANESE INTERMEDIATE CODE: A761 Effective date: 20120611 |