[go: up one dir, main page]

JP2016054479A - Imaging device, control method and program thereof, and imaging element - Google Patents

Imaging device, control method and program thereof, and imaging element Download PDF

Info

Publication number
JP2016054479A
JP2016054479A JP2015159137A JP2015159137A JP2016054479A JP 2016054479 A JP2016054479 A JP 2016054479A JP 2015159137 A JP2015159137 A JP 2015159137A JP 2015159137 A JP2015159137 A JP 2015159137A JP 2016054479 A JP2016054479 A JP 2016054479A
Authority
JP
Japan
Prior art keywords
pixel
region
pixel region
data
information
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2015159137A
Other languages
Japanese (ja)
Other versions
JP2016054479A5 (en
Inventor
康一 松村
Koichi Matsumura
康一 松村
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to US14/837,864 priority Critical patent/US9906749B2/en
Priority to CN201510545609.1A priority patent/CN105391921B/en
Publication of JP2016054479A publication Critical patent/JP2016054479A/en
Publication of JP2016054479A5 publication Critical patent/JP2016054479A5/ja
Pending legal-status Critical Current

Links

Images

Landscapes

  • Solid State Image Pick-Up Elements (AREA)
  • Transforming Light Signals Into Electric Signals (AREA)
  • Studio Devices (AREA)

Abstract

PROBLEM TO BE SOLVED: To provide an imaging device capable of reducing control information to be transmitted from a control part to a signal processing circuit.SOLUTION: An imaging device includes a pixel part having a first pixel region and a second pixel region, output means for outputting image data obtained from the pixel part with added region information indicating the first pixel region and the second pixel region, and signal processing means for correcting pixel data in the first pixel region using pixel data in the second pixel region for image data read from the pixel part. The signal processing means extracts pixel data in the first pixel region and pixel data in the second pixel region in the image data using region information added to the image data received from the output means.SELECTED DRAWING: Figure 1

Description

本発明は、撮像装置およびその制御方法、プログラムならびに撮像素子に関する。   The present invention relates to an imaging apparatus, a control method thereof, a program, and an imaging element.

近年、撮像素子の多画素化や撮像素子からの読み出し速度の高速化に伴い、撮像素子とこれに接続される信号処理用の回路(DSP, Digital Signal Processor)との間に求められる伝送容量が増大している。このような要求に対して、特許文献1は、撮像素子とDSPの間のデータの送受信において複数の伝送路に分割したパケットを伝送し、回路間のデータ送受信を効率化する技術を開示している。   In recent years, with the increase in the number of pixels in an image sensor and the increase in the reading speed from the image sensor, the transmission capacity required between the image sensor and a signal processing circuit (DSP, Digital Signal Processor) connected thereto is increased. It is increasing. In response to such a request, Patent Document 1 discloses a technique for transmitting packets divided into a plurality of transmission paths in data transmission / reception between the image sensor and the DSP and improving the efficiency of data transmission / reception between circuits. Yes.

特開2012−120158号公報JP 2012-120158 A

ところで、撮像素子、信号処理用の回路および制御部(例えばCPU)を有する撮像システムでは、制御部から各回路に制御情報(例えば、座標情報)を伝送する必要がある。特に、信号処理用の回路は撮像素子から出力された画像のサイズに合わせて画像データを処理するため、撮像素子から出力される画像データの画像サイズを変更する場合、信号処理用の回路は制御部から座標情報等の制御情報を受信する必要がある。さらに、例えば、撮像素子が遮光されたオプティカルブラック領域の画素を有し、信号処理用の回路が当該領域の画素データを用いて有効画素領域の画素データを補正する場合、当該回路は制御部から上述した2つの領域に対する座標情報を受信する必要がある。このとき、制御部は撮像素子および信号処理用の回路に対して同様の制御情報を送信するため、信号処理用の回路で行う処理の増加に伴い、制御部からそれぞれに送信する制御情報が増加してシステムが複雑化することが想定される。   By the way, in an imaging system having an imaging device, a signal processing circuit, and a control unit (for example, CPU), it is necessary to transmit control information (for example, coordinate information) from the control unit to each circuit. In particular, since the signal processing circuit processes the image data in accordance with the size of the image output from the image sensor, the signal processing circuit is controlled when changing the image size of the image data output from the image sensor. It is necessary to receive control information such as coordinate information from the unit. Further, for example, when the imaging element has a light-shielded optical black region pixel, and the signal processing circuit corrects the pixel data of the effective pixel region using the pixel data of the region, the circuit is It is necessary to receive coordinate information for the two areas described above. At this time, since the control unit transmits the same control information to the image sensor and the signal processing circuit, the control information transmitted from the control unit to each increases as the number of processes performed in the signal processing circuit increases. Therefore, it is assumed that the system becomes complicated.

本発明は、上述の従来技術の問題点に鑑みてなされたものであり、制御部から信号処理用の回路に送信する制御情報を削減することが可能な撮像装置およびその制御方法、プログラムならびに撮像素子を提供することを目的とする。   The present invention has been made in view of the above-described problems of the related art, and an imaging apparatus capable of reducing control information transmitted from a control unit to a signal processing circuit, a control method thereof, a program, and an imaging An object is to provide an element.

この課題を解決するため、例えば本発明の撮像装置は以下の構成を備える。すなわち、第1の画素領域と第2の画素領域とを有する画素部と、画素部から得られる画像データに、第1の画素領域および第2の画素領域を示す領域情報を付加して出力する出力手段と、画素部から読み出された画像データに対し、第2の画素領域の画素データを用いて第1の画素領域の画素データを補正する信号処理手段と、を有し、信号処理手段は、出力手段から受信した画像データに付加された領域情報を用いて、画像データにおける第1の画素領域の画素データおよび第2の画素領域の画素データを抽出する、ことを特徴とする。   In order to solve this problem, for example, an imaging apparatus of the present invention has the following configuration. That is, a pixel portion having a first pixel region and a second pixel region, and region information indicating the first pixel region and the second pixel region are added to the image data obtained from the pixel portion and output. Signal processing means for correcting the pixel data of the first pixel region using the pixel data of the second pixel region with respect to the image data read from the pixel unit; Is characterized by extracting the pixel data of the first pixel region and the pixel data of the second pixel region in the image data using the region information added to the image data received from the output means.

本発明によれば、制御部から信号処理用の回路に送信する制御情報を削減することが可能になる。   According to the present invention, it is possible to reduce the control information transmitted from the control unit to the signal processing circuit.

本発明の実施形態に係る撮像装置の一例としてのデジタルカメラの機能構成例を示すブロック図1 is a block diagram illustrating an example of a functional configuration of a digital camera as an example of an imaging apparatus according to an embodiment of the present invention. 本実施形態に係る撮像素子の機能構成例(a)および画像出力部(b)を示すブロック図1 is a block diagram showing a functional configuration example (a) and an image output unit (b) of an image sensor according to the present embodiment. 本実施形態に係るDFEの機能構成例を示すブロック図Block diagram showing a functional configuration example of the DFE according to the present embodiment 本実施形態に係る撮像システムの処理の一連の動作を示すフローチャートThe flowchart which shows a series of operation | movement of the process of the imaging system which concerns on this embodiment. 実施形態1に係るパケット生成処理の一連の動作を示すフローチャート7 is a flowchart showing a series of operations of packet generation processing according to the first embodiment. 実施形態1に係る画像処理について説明するフローチャートA flowchart for describing image processing according to the first embodiment. 実施形態1に係るパケットのフォーマットの一例を示す図The figure which shows an example of the format of the packet which concerns on Embodiment 1. 実施形態1に係る画素部における画素領域の構成例を示す図FIG. 3 is a diagram illustrating a configuration example of a pixel region in a pixel unit according to the first embodiment. 実施形態2に係る画像処理の一連の動作を示すフローチャート7 is a flowchart showing a series of image processing operations according to the second embodiment. 実施形態2に係る画素部における画素領域の構成例を示す図FIG. 10 is a diagram illustrating a configuration example of a pixel region in a pixel unit according to the second embodiment. 実施形態3に係る撮像素子の機能構成例(a)および画像出力部(b)を示すブロック図FIG. 6 is a block diagram illustrating a functional configuration example (a) and an image output unit (b) of an image sensor according to a third embodiment. 実施形態3に係る画像処理の一連の動作を示すフローチャート9 is a flowchart showing a series of image processing operations according to the third embodiment. 実施形態3に係るパケットのフォーマットの一例を示す図The figure which shows an example of the format of the packet which concerns on Embodiment 3. その他の実施形態に係る積層型の撮像センサの一例を示す図The figure which shows an example of the laminated type image sensor which concerns on other embodiment. その他の実施形態に係る撮像装置の一例としての携帯電話機の機能構成例を示すブロック図The block diagram which shows the function structural example of the mobile telephone as an example of the imaging device which concerns on other embodiment.

(実施形態1)
以下、本発明の例示的な実施形態について、図面を参照して詳細に説明する。なお、以下では撮像装置の一例として、互いに接続された撮像素子、信号処理用の回路および制御部を備えたデジタルカメラに本発明を適用した例を説明する。しかし、本発明でいう撮像装置は、デジタルカメラに限らず、このような撮像素子等の構成を備える任意の電子機器にも適用可能である。これらの電子機器には、例えば携帯電話機、ゲーム機、タブレット端末、パーソナルコンピュータ、時計型や眼鏡型の情報端末などが含まれてよい。
(Embodiment 1)
Hereinafter, exemplary embodiments of the present invention will be described in detail with reference to the drawings. In the following, an example in which the present invention is applied to a digital camera including an image sensor, a signal processing circuit, and a control unit that are connected to each other will be described as an example of an imaging apparatus. However, the imaging apparatus referred to in the present invention is not limited to a digital camera, and can be applied to any electronic device having such a configuration of an imaging element or the like. These electronic devices may include, for example, a mobile phone, a game machine, a tablet terminal, a personal computer, a clock-type or glasses-type information terminal.

(デジタルカメラ100の構成)
図1は、本実施形態の撮像装置の一例としてデジタルカメラ100の機能構成例を示すブロック図である。なお、図1に示す機能ブロックの1つ以上は、ASICやプログラマブルロジックアレイ(PLA)などのハードウェアによって実現されてもよいし、CPUやMPU等のプログラマブルプロセッサがソフトウェアを実行することによって実現されてもよい。また、ソフトウェアとハードウェアの組み合わせによって実現されてもよい。従って、以下の説明において、異なる機能ブロックが動作主体として記載されている場合であっても、同じハードウェアが主体として実現されうる。
(Configuration of digital camera 100)
FIG. 1 is a block diagram illustrating a functional configuration example of a digital camera 100 as an example of an imaging apparatus according to the present embodiment. One or more of the functional blocks shown in FIG. 1 may be realized by hardware such as an ASIC or a programmable logic array (PLA), or may be realized by a programmable processor such as a CPU or MPU executing software. May be. Further, it may be realized by a combination of software and hardware. Therefore, in the following description, even when different functional blocks are described as the operation subject, the same hardware can be realized as the subject.

撮像素子の各画素から出力される信号には、一般に、遮光された場合であっても熱等の影響により生じる暗電流が含まれている。このため、撮像素子は、信号レベルの基準信号となる信号(黒基準信号)を得るために、光に反応しないように遮光されたオプティカルブラック画素領域(OB画素領域)を備え、有効画素の信号はそのOB画素領域の画素から得た黒基準信号を基準として演算処理される。例えば、撮像素子上の有効画素領域の上部にOB画素領域を設け、当該OB画素の出力から補正値を算出することにより、有効画素領域の画素から出力された信号に対して、暗電流の影響による水平方向のシェーディングを補正することができる。本実施形態では、DSPが行う画像処理の例として、暗電流に係る補正処理を行う例について説明する。即ち、撮像素子が有効画素領域およびOB画素領域の両方の信号を出力して、DSPが入力した信号に対して暗電流に係る補正処理を行う例を説明する。   A signal output from each pixel of the image sensor generally includes a dark current generated due to the influence of heat or the like even when light is shielded. For this reason, the image sensor includes an optical black pixel region (OB pixel region) that is shielded so as not to react with light in order to obtain a signal (black reference signal) that is a signal level reference signal, and a signal of an effective pixel. Is processed based on the black reference signal obtained from the pixels in the OB pixel area. For example, by providing an OB pixel area above the effective pixel area on the image sensor and calculating a correction value from the output of the OB pixel, the influence of dark current on the signal output from the pixel in the effective pixel area The shading in the horizontal direction due to can be corrected. In the present embodiment, an example of performing correction processing related to dark current will be described as an example of image processing performed by the DSP. That is, an example will be described in which the image sensor outputs signals of both the effective pixel region and the OB pixel region, and the correction process related to the dark current is performed on the signal input by the DSP.

撮像部120は、撮像素子121とDFE(Digital Front End)122を含む。撮像素子121は、図2において後述するように、画素部200、A/D変換部201、画像出力部202およびタイミングジェネレータ(TG)203を含む。撮像素子121は、光学系102により結像された被写体光学像から画像データを生成してDFE122へ出力する。   The imaging unit 120 includes an imaging element 121 and a DFE (Digital Front End) 122. As will be described later with reference to FIG. 2, the imaging element 121 includes a pixel unit 200, an A / D conversion unit 201, an image output unit 202, and a timing generator (TG) 203. The image sensor 121 generates image data from the subject optical image formed by the optical system 102 and outputs the image data to the DFE 122.

DFE122は、信号処理用のプロセッサ(DSP)であり、撮像素子121が出力する画像データに対して画像処理を行い、画像処理を施した画像データを制御部101に出力する。   The DFE 122 is a signal processing processor (DSP), performs image processing on the image data output from the image sensor 121, and outputs the image data subjected to the image processing to the control unit 101.

制御部101は、例えばCPUあるいはMPUを含み、不揮発性メモリ105に格納されたプログラムを揮発性メモリ103の作業エリアに展開し、実行することにより、デジタルカメラ100全体を制御する。制御部101は、ユーザにより設定された撮影条件に従って撮影動作を行うため、撮像素子121や光学系102、DFE122等の各部を制御する。また、後述するように、制御部101は、画素部200から信号を読み出す画素の領域を撮像素子121に対して指示する。   The control unit 101 includes, for example, a CPU or MPU, and controls the entire digital camera 100 by developing and executing a program stored in the nonvolatile memory 105 in the work area of the volatile memory 103. The control unit 101 controls each unit such as the image sensor 121, the optical system 102, and the DFE 122 in order to perform a shooting operation according to the shooting conditions set by the user. As will be described later, the control unit 101 instructs the image sensor 121 to specify a pixel region from which a signal is read from the pixel unit 200.

光学系102は、デジタルカメラ100と電気的に接続され、外部から光を取り込み、画素部200の撮像面に結像させるフォーカスレンズ、ズームレンズ、絞り、シャッターなどを含む。   The optical system 102 is electrically connected to the digital camera 100, and includes a focus lens, a zoom lens, a diaphragm, a shutter, and the like that capture light from the outside and form an image on the imaging surface of the pixel unit 200.

揮発性メモリ103は、デジタルカメラ100の電源を切った後は消えても構わないような一時的なデータを記憶するRAMなどの主記憶装置である。揮発性メモリ103は、制御部101と接続されており、制御部101から提供されるデータを制御部101の指示に応じて保持する。   The volatile memory 103 is a main storage device such as a RAM that stores temporary data that may be erased after the digital camera 100 is turned off. The volatile memory 103 is connected to the control unit 101 and holds data provided from the control unit 101 in accordance with an instruction from the control unit 101.

電力供給部104は、デジタルカメラ100に対して電力を供給する。電力の供給先は、図1に示す制御部101のみに限定されず、デジタルカメラ100を構成する各部に対して電力を供給する。   The power supply unit 104 supplies power to the digital camera 100. The power supply destination is not limited to the control unit 101 illustrated in FIG. 1, and power is supplied to each unit included in the digital camera 100.

不揮発性メモリ105は、半導体メモリや磁気ディスク等から構成される補助記憶装置であり、撮影された画像や映像を記憶するとともに、デジタルカメラ100に設定されるTv値やAv値など、電源を切った後も保持する必要のある情報を記憶する。不揮発性メモリ105は、制御部101と接続されており、制御部101から提供されるデータを制御部101の指示に応じて記憶する。   The non-volatile memory 105 is an auxiliary storage device composed of a semiconductor memory, a magnetic disk, or the like. The non-volatile memory 105 stores captured images and videos, and turns off the power such as Tv value and Av value set in the digital camera 100. It stores information that needs to be retained. The non-volatile memory 105 is connected to the control unit 101 and stores data provided from the control unit 101 in accordance with an instruction from the control unit 101.

アクセサリシュー106は、デジタルカメラ100の上部に配置され、クリップオンタイプのストロボと接続することができる金属接点の集合体である。   The accessory shoe 106 is an assembly of metal contacts that are disposed on the top of the digital camera 100 and can be connected to a clip-on type strobe.

第1シャッタースイッチ107は、デジタルカメラ100に設けられたシャッターボタンの操作途中、いわゆる半押し(撮影準備指示)でオンとなり第1シャッタースイッチ信号SW1を発生する。制御部101は、第1シャッタースイッチ信号SW1により、AF(オートフォーカス)処理、AE(自動露出)処理、AWB(オートホワイトバランス)処理等の動作を開始する。   The first shutter switch 107 is turned on when a shutter button provided in the digital camera 100 is being operated, so-called half-press (shooting preparation instruction), and generates a first shutter switch signal SW1. The control unit 101 starts operations such as AF (autofocus) processing, AE (automatic exposure) processing, and AWB (auto white balance) processing in response to the first shutter switch signal SW1.

第2シャッタースイッチ108は、シャッターボタンの操作完了、いわゆる全押し(撮影指示)でオンとなり、第2シャッタースイッチ信号SW2を発生する。制御部101は、第2シャッタースイッチ信号SW2により、撮像部120からの信号読み出しから不揮発性メモリ105に画像データを書き込むまでの一連の撮影処理の動作を開始する。   The second shutter switch 108 is turned on when the operation of the shutter button is completed, that is, when it is fully pressed (shooting instruction), and generates a second shutter switch signal SW2. In response to the second shutter switch signal SW2, the control unit 101 starts a series of imaging processing operations from reading a signal from the imaging unit 120 to writing image data in the nonvolatile memory 105.

操作部109は、デジタルカメラ100に設定するAv値やTv値等の設定値を設定するためのボタン、ダイヤルあるいはタッチパネル等である。操作部109は、ユーザ操作を検出すると、制御部101に対して操作内容あるいは設定値を通知する。ユーザ操作により設定された各種設定値は、上述したように制御部101の指示のもと不揮発性メモリ105に記憶される。   The operation unit 109 is a button, a dial, a touch panel, or the like for setting a setting value such as an Av value or a Tv value set in the digital camera 100. When the operation unit 109 detects a user operation, the operation unit 109 notifies the control unit 101 of the operation content or the set value. Various setting values set by user operations are stored in the nonvolatile memory 105 under the instruction of the control unit 101 as described above.

電源スイッチ110は、デジタルカメラ100の電源状態のオンまたはオフを切り替えるメカスイッチである。ユーザによるオンまたはオフの切替え操作が検出されると、電力供給部104からデジタルカメラ100の各部に対して電力供給が開始または停止される。   The power switch 110 is a mechanical switch that switches the power state of the digital camera 100 on or off. When the on / off switching operation by the user is detected, power supply from the power supply unit 104 to each unit of the digital camera 100 is started or stopped.

(撮像素子121の構成)
次に、図2(a)を参照して、図1で示した撮像素子121の構成を説明する。
(Configuration of the image sensor 121)
Next, the configuration of the image sensor 121 shown in FIG. 1 will be described with reference to FIG.

撮像素子121は、光学系102により結像された被写体光学像を、2次元に配置された複数の画素で受光し、画素ごとに光電変換してアナログ信号を出力する。撮像素子121は、CCD(Charge-Coupled Device)イメージセンサやCMOS(Complementary Metal Oxide Semiconductor)イメージセンサなどの撮像素子であってよい。撮像素子121の画素部200は、タイミングジェネレータ203により供給されるタイミング信号に従ってアナログ信号を出力する。   The image sensor 121 receives a subject optical image formed by the optical system 102 by a plurality of pixels arranged two-dimensionally, photoelectrically converts each pixel, and outputs an analog signal. The image sensor 121 may be an image sensor such as a CCD (Charge-Coupled Device) image sensor or a CMOS (Complementary Metal Oxide Semiconductor) image sensor. The pixel unit 200 of the image sensor 121 outputs an analog signal in accordance with the timing signal supplied from the timing generator 203.

A/D変換部201は、画素部200により出力されたアナログ信号を、タイミングジェネレータ203によって生成された動作タイミングに従って、デジタル信号に変換する。   The A / D conversion unit 201 converts the analog signal output from the pixel unit 200 into a digital signal according to the operation timing generated by the timing generator 203.

画像出力部202は、A/D変換部201から入力したデジタル信号に、制御部101から取得する制御情報に基づくヘッダ情報を付加して、当該ヘッダ情報を含む画像データを出力する。より具体的には、画像出力部202は、制御部101から制御情報、即ち後述する第1および第2の垂直座標範囲を取得して、当該垂直座標範囲に基づいてヘッダ情報を生成する。画像出力部202は、画像データを出力する際に、デジタル化された画素データを予め定められたデータ長に分割し、これらのデータに生成したヘッダ情報を付加してパケット化を行う。画像出力部202は、パケット化したデータを画像データとしてDFE122へ出力する。   The image output unit 202 adds header information based on control information acquired from the control unit 101 to the digital signal input from the A / D conversion unit 201, and outputs image data including the header information. More specifically, the image output unit 202 acquires control information from the control unit 101, that is, first and second vertical coordinate ranges to be described later, and generates header information based on the vertical coordinate range. When outputting the image data, the image output unit 202 divides the digitized pixel data into predetermined data lengths, adds the generated header information to these data, and performs packetization. The image output unit 202 outputs the packetized data to the DFE 122 as image data.

タイミングジェネレータ203は、制御部101から入力された動作タイミング情報に従って、画素部200とA/D変換部に動作タイミングを供給する。   The timing generator 203 supplies operation timing to the pixel unit 200 and the A / D conversion unit according to the operation timing information input from the control unit 101.

(画像出力部202の構成)
さらに、図2(b)を参照して、図2(a)で示した画像出力部202の構成をより詳細に説明する。
(Configuration of image output unit 202)
Further, the configuration of the image output unit 202 shown in FIG. 2A will be described in more detail with reference to FIG.

画素データ生成部250は、A/D変換部201が出力したデジタル信号を入力し、画素データに変換する。画素データ生成部250は、入力したデジタル信号を、例えばR(赤)、G(緑)、B(青)の色成分ごとに分離したRGB形式で各画素のデータを形成するように、画素データを生成する。   The pixel data generation unit 250 receives the digital signal output from the A / D conversion unit 201 and converts it into pixel data. The pixel data generation unit 250 forms pixel data so as to form data of each pixel in the RGB format in which the input digital signal is separated into, for example, R (red), G (green), and B (blue) color components. Is generated.

行カウンタ部251は、画素データ生成部250が出力した画素データを入力して、予め定められた画素数ごとに行数をカウントアップすることにより画素の行数(画素ライン数)をカウントし、カウントした行数値を比較部252に出力する。   The row counter unit 251 receives the pixel data output from the pixel data generation unit 250, counts the number of rows (number of pixel lines) by counting up the number of rows for each predetermined number of pixels, The counted row value is output to the comparison unit 252.

比較部252は、行カウンタ部251から行数値を入力して、当該行数値を、制御部101から入力する第1の画素領域(例えば、遮光されたOB画素領域)の垂直座標範囲および第2の画素領域(例えば、有効画素領域)の垂直座標範囲と比較する。比較部252は、当該比較により、画素データが第1の画素領域および第2の画素領域に含まれるかを判定し、画素データが図8に示す画像内の第1の画素領域および第2の画素領域に含まれるか否かを示すデータを、ヘッダ情報として生成する。本実施形態では、第1の画素領域および第2の画素領域に含まれるか否かを示すデータを、それぞれ第1の領域情報および第2の領域情報という。   The comparison unit 252 inputs the row value from the row counter unit 251, and inputs the row value from the control unit 101, the vertical coordinate range of the first pixel region (for example, the shielded OB pixel region) and the second To the vertical coordinate range of the pixel region (for example, effective pixel region). Based on the comparison, the comparison unit 252 determines whether the pixel data is included in the first pixel region and the second pixel region, and the pixel data is included in the first pixel region and the second pixel in the image illustrated in FIG. Data indicating whether it is included in the pixel area is generated as header information. In the present embodiment, data indicating whether or not included in the first pixel region and the second pixel region is referred to as first region information and second region information, respectively.

パケット生成部253は、画素データ生成部250から出力された画素データと比較部252から出力されたヘッダ情報に基づいて、パケットを生成する。パケット生成部253は、画素データ生成部250から出力された画素データをパケットのペイロードに格納し、比較部252から出力されたヘッダ情報をさらにペイロードに付加して、パケットを生成する。   The packet generation unit 253 generates a packet based on the pixel data output from the pixel data generation unit 250 and the header information output from the comparison unit 252. The packet generation unit 253 stores the pixel data output from the pixel data generation unit 250 in the payload of the packet, adds the header information output from the comparison unit 252 to the payload, and generates a packet.

パケット出力部254は、パケット生成部253で生成したパケットを、撮像素子121とDFE122を接続する不図示の伝送路に応じた伝送方式に適合させて出力する。   The packet output unit 254 outputs the packet generated by the packet generation unit 253 according to a transmission method according to a transmission path (not shown) that connects the image sensor 121 and the DFE 122.

(DFE122の構成)
図3は、DFE122のより詳細な機能構成例を示している。
(Configuration of DFE122)
FIG. 3 shows a more detailed functional configuration example of the DFE 122.

パケット分離部300は、入力したパケットに含まれるヘッダ情報とペイロードデータを分離する。   The packet separation unit 300 separates header information and payload data included in the input packet.

画素データ抽出部301は、パケット分離部300でパケットから分離されたペイロードデータから画素データを抽出する。   The pixel data extraction unit 301 extracts pixel data from the payload data separated from the packet by the packet separation unit 300.

第1の領域情報抽出部302は、パケット分離部300でパケットから分離されたヘッダ情報に基づいて第1の領域情報を抽出し、補正値算出部303へ出力する。   The first region information extraction unit 302 extracts the first region information based on the header information separated from the packet by the packet separation unit 300 and outputs the first region information to the correction value calculation unit 303.

補正値算出部303は、第1の領域情報抽出部302が抽出した第1の領域情報に基づいて、画素データ抽出部301から入力した画素データが第1の画素領域に含まれるか否かを判定する。そして、第1の画素領域に含まれると判定した画素データの平均値に基づいて、暗電流の影響を補正するための補正値を算出する。算出された補正値は、画素データ処理部305に出力される。なお、本実施形態では、暗電流の影響を補正するための補正値を、画素データの平均値を用いて算出する例について説明しているが、平均値に限定されず、目的に応じて種々の変形及び変更が可能である。   The correction value calculation unit 303 determines whether the pixel data input from the pixel data extraction unit 301 is included in the first pixel region based on the first region information extracted by the first region information extraction unit 302. judge. Then, a correction value for correcting the influence of the dark current is calculated based on the average value of the pixel data determined to be included in the first pixel region. The calculated correction value is output to the pixel data processing unit 305. In the present embodiment, an example in which the correction value for correcting the influence of the dark current is calculated using the average value of the pixel data is described. However, the correction value is not limited to the average value, and various values may be used depending on the purpose. Can be modified and changed.

第2の領域情報抽出部304は、パケット分離部300でパケットから分離されたヘッダ情報から第2の領域情報を抽出し、画素データ処理部305に出力する。   The second region information extraction unit 304 extracts the second region information from the header information separated from the packet by the packet separation unit 300 and outputs the second region information to the pixel data processing unit 305.

画素データ処理部305は、第2の領域情報抽出部304が抽出した第2の領域情報に基づいて、画素データ抽出部301から入力した画素データが第2の画素領域に含まれるかを判定する。そして、第2の画素領域に含まれると判定した画素データに対して、補正値算出部303が算出した補正値を減算処理し、画素データに含まれる暗電流の影響を補正する。画素データ処理部305は、補正処理を完了すると補正後の画像データとして制御部101に出力する。   The pixel data processing unit 305 determines whether the pixel data input from the pixel data extraction unit 301 is included in the second pixel region based on the second region information extracted by the second region information extraction unit 304. . Then, the correction value calculated by the correction value calculation unit 303 is subtracted from the pixel data determined to be included in the second pixel region, and the influence of the dark current included in the pixel data is corrected. When completing the correction process, the pixel data processing unit 305 outputs the corrected image data to the control unit 101.

(撮像処理に係る一連の動作)
次に、図4を参照して、撮像部120による撮像処理に係る一連の動作を説明する。本処理は、例えばデジタルカメラ100の第2シャッタースイッチ108に対するユーザからの撮影指示が検出された場合に開始される。なお、本処理に係る各ステップは、制御部101の指示に応じて実行され、制御部101が不揮発性メモリ105に記憶されたプログラムを揮発性メモリ103の作業用領域に展開し、実行することにより実現される。
(A series of operations related to imaging processing)
Next, with reference to FIG. 4, a series of operations related to imaging processing by the imaging unit 120 will be described. This process is started when, for example, a shooting instruction from the user to the second shutter switch 108 of the digital camera 100 is detected. Note that each step related to this processing is executed in response to an instruction from the control unit 101, and the control unit 101 develops and executes the program stored in the nonvolatile memory 105 in the work area of the volatile memory 103. It is realized by.

S1において、撮像部120は撮像を行う。制御部101は、例えば光学系102の絞りの駆動や露光時間の制御を行って、適切な露光量で画素部200を露光させる。画素部200から読み出されたアナログ信号は、上述したように、デジタル信号に変換されて画素データが生成される。   In S1, the imaging unit 120 performs imaging. The control unit 101 controls the aperture of the optical system 102 and the exposure time, for example, to expose the pixel unit 200 with an appropriate exposure amount. As described above, the analog signal read from the pixel unit 200 is converted into a digital signal to generate pixel data.

S2において、画像出力部202は、画像データを分割したパケットを生成する。図7は、画像出力部202が生成するパケットのフォーマットを示している。パケットは、ヘッダとペイロードから成る。ペイロードに格納される1行分の画素データには、OB画素領域の画素から出力された画素データあるいは有効画素領域の画素から出力された画素データが格納される。ヘッダ情報には、ペイロードに格納された画素データが、第1あるいは第2の画素領域の画素から出力された画素データであるかを示す情報が付加される。画像出力部202は、画像データを1行分の画素データごとに分割して1行分の画素データをペイロードに格納するとともに、ヘッダ情報を付加して、パケットを生成する。パケットの生成処理については図5に示すフローチャートを参照して、別途後述する。画像出力部202は、生成したパケットを、不図示の伝送路を介してDFE122に出力する。   In S2, the image output unit 202 generates a packet obtained by dividing the image data. FIG. 7 shows a format of a packet generated by the image output unit 202. A packet consists of a header and a payload. The pixel data for one row stored in the payload stores pixel data output from the pixels in the OB pixel region or pixel data output from the pixels in the effective pixel region. Information indicating whether the pixel data stored in the payload is the pixel data output from the pixels in the first or second pixel region is added to the header information. The image output unit 202 divides the image data into pixel data for one row, stores the pixel data for one row in the payload, adds header information, and generates a packet. The packet generation process will be described later with reference to the flowchart shown in FIG. The image output unit 202 outputs the generated packet to the DFE 122 via a transmission path (not shown).

S3において、DFE122は、撮像素子121から入力した画像データに対して画像処理を行う。DFE122は、入力したパケットデータを、画素データを格納したペイロードと第1の領域情報および第2の領域情報を格納したヘッダとに分離して、画素データに対して画像処理、即ち暗電流の影響を除去する補正を行う。画像処理の詳細については図6に示すフローチャートを参照して後述する。DFE122は、補正後の画像データを制御部101に出力すると、制御部101は本処理に係る一連の動作を終了する。   In S <b> 3, the DFE 122 performs image processing on the image data input from the image sensor 121. The DFE 122 separates the input packet data into a payload storing pixel data and a header storing first area information and second area information, and performs image processing on the pixel data, that is, influence of dark current. Perform correction to remove. Details of the image processing will be described later with reference to a flowchart shown in FIG. When the DFE 122 outputs the corrected image data to the control unit 101, the control unit 101 ends a series of operations related to this processing.

(パケット生成処理に係る一連の動作)
図5に示すフローチャートを参照して、図4のS2として示したパケット生成処理に係る一連の動作について説明する。
(A series of operations related to packet generation processing)
With reference to the flowchart shown in FIG. 5, a series of operations related to the packet generation process shown as S2 in FIG. 4 will be described.

S21において、画素データ生成部250は、A/D変換部によって出力されたデジタル信号を入力して、例えば上述したRGB形式の画素データを生成し、1画素ごとのデータとして順次出力する。生成された画素データは、行カウンタ部251によって予め定められた画素数を1行として行数がカウントされる。   In S <b> 21, the pixel data generation unit 250 receives the digital signal output from the A / D conversion unit, generates, for example, the above-described RGB format pixel data, and sequentially outputs the data for each pixel. The generated pixel data is counted by setting the number of pixels determined in advance by the row counter unit 251 as one row.

S22において、比較部252は、行カウンタ部251が生成した行数(即ち、画素データの垂直座標)と制御部101から入力された第1の画素領域の垂直座標範囲とを比較して、画素データの垂直座標が第1の画素領域に含まれるかを判定する。比較部252は、処理対象の画素データ(即ち、入力した行数)が、第1の画素領域の垂直座標範囲に含まれると判定した場合、第1の領域情報を更新する。第1の領域情報は、例えば初期値が0に設定された二進数の識別子であり、第1の画素領域の垂直座標範囲に含まれる場合に1が、当該範囲に含まれない場合に0が設定される。   In S <b> 22, the comparison unit 252 compares the number of rows generated by the row counter unit 251 (that is, the vertical coordinate of the pixel data) with the vertical coordinate range of the first pixel region input from the control unit 101. It is determined whether the vertical coordinate of the data is included in the first pixel area. When the comparison unit 252 determines that the pixel data to be processed (that is, the number of input rows) is included in the vertical coordinate range of the first pixel region, the comparison unit 252 updates the first region information. The first area information is, for example, a binary identifier whose initial value is set to 0, and is 1 when included in the vertical coordinate range of the first pixel area, and 0 when not included in the range. Is set.

S23において、比較部252は、行カウンタ部251が生成した行数と制御部101から入力された第2の画素領域の垂直座標範囲とを比較して、画素データの垂直座標が第2の画素領域に含まれるかを判定する。比較部252は、処理対象の画素データが、第2の画素領域の垂直座標範囲に含まれると判定した場合、第2の領域情報を更新する。第2の領域情報は、上述した第1の領域情報と同様に設定される。   In S23, the comparison unit 252 compares the number of rows generated by the row counter unit 251 with the vertical coordinate range of the second pixel region input from the control unit 101, and the vertical coordinate of the pixel data is the second pixel. It is determined whether it is included in the area. When the comparison unit 252 determines that the pixel data to be processed is included in the vertical coordinate range of the second pixel region, the comparison unit 252 updates the second region information. The second area information is set in the same manner as the first area information described above.

S24において、比較部252は、第1の領域情報および第2の領域情報からなるヘッダ情報を生成する。   In S24, the comparison unit 252 generates header information including the first area information and the second area information.

S25において、パケット生成部253は、画素データを含むペイロードデータと、比較部252により生成されたヘッダ情報に基づいてパケットを生成する。   In S <b> 25, the packet generation unit 253 generates a packet based on the payload data including the pixel data and the header information generated by the comparison unit 252.

S26において、パケット出力部254は、S25において生成したパケットをDFE122へ出力する。パケット出力部254は1行分ごとのパケットの送信を繰り返し、画像データ全体についてパケットの送信を終えると、本処理に係る一連の動作を完了する。   In S <b> 26, the packet output unit 254 outputs the packet generated in S <b> 25 to the DFE 122. The packet output unit 254 repeats the packet transmission for each row, and when the packet transmission is completed for the entire image data, the series of operations related to this processing is completed.

(画像処理に係る一連の動作)
次に、図6に示すフローチャートを参照して、図4のS3として示した画像処理について説明する。
(A series of operations related to image processing)
Next, the image processing shown as S3 in FIG. 4 will be described with reference to the flowchart shown in FIG.

S300において、DFE122は、撮像素子121から伝送されたパケットを入力すると、S301において、DFE122のパケット分離部300は、ヘッダ情報とペイロードデータを分離する。   In S300, when the DFE 122 receives a packet transmitted from the image sensor 121, in S301, the packet separation unit 300 of the DFE 122 separates the header information and the payload data.

S302において、画素データ抽出部301は、ペイロードに含まれる画素データを抽出する。   In S302, the pixel data extraction unit 301 extracts pixel data included in the payload.

S303において、第1の領域情報抽出部302は、S301で分離されたヘッダ情報に含まれる第1の領域情報を抽出して、補正値算出部303へ出力する。   In step S <b> 303, the first region information extraction unit 302 extracts the first region information included in the header information separated in step S <b> 301 and outputs the first region information to the correction value calculation unit 303.

S304において、補正値算出部303は、抽出された第1の領域情報に基づいて、S302においてペイロードから抽出された画素データの垂直座標が、第1の垂直領域に含まれるかを判定する。補正値算出部303は、第1の領域情報が1を示すとき、当該画素データが第1の垂直領域に含まれていると判定して処理をS305に進め、第1の領域情報が0を示すとき、当該画素データが第1の垂直領域に含まれていないと判定して、S307に進める。   In S304, the correction value calculation unit 303 determines whether the vertical coordinates of the pixel data extracted from the payload in S302 are included in the first vertical area based on the extracted first area information. When the first area information indicates 1, the correction value calculation unit 303 determines that the pixel data is included in the first vertical area, advances the processing to S305, and sets the first area information to 0. When it is shown, it is determined that the pixel data is not included in the first vertical area, and the process proceeds to S307.

S305において、補正値算出部303は、ペイロードの画素データをカウントすることにより得られる画素データの水平座標と制御部101から入力される第1の水平座標範囲を比較し、画素データの水平座標が第1の水平座標範囲に含まれるか判定する。画素データの水平座標が第1の水平座標範囲に含まれると判定した場合は、S306に処理を進め、含まれないと判定した場合はS307に処理を進める。   In step S305, the correction value calculation unit 303 compares the horizontal coordinate of the pixel data obtained by counting the pixel data of the payload with the first horizontal coordinate range input from the control unit 101, and the horizontal coordinate of the pixel data is It is determined whether it is included in the first horizontal coordinate range. If it is determined that the horizontal coordinate of the pixel data is included in the first horizontal coordinate range, the process proceeds to S306. If it is determined that the pixel data does not include the horizontal coordinate, the process proceeds to S307.

S306において、補正値算出部303は、第1の水平座標範囲に含まれる、第1の画素領域のすべての画素データの平均値を算出して、画像ごとの補正値として生成する。   In S306, the correction value calculation unit 303 calculates an average value of all the pixel data in the first pixel area included in the first horizontal coordinate range, and generates a correction value for each image.

S307において、第2の領域情報抽出部304は、ヘッダ情報に含まれる第2の領域情報を抽出する。   In S307, the second region information extraction unit 304 extracts second region information included in the header information.

S308において、画素データ処理部305は、抽出した第2の領域情報から画素データの垂直座標が第2の垂直領域に含まれているかをS304と同様に判定し、第2の垂直領域に含まれていると判定した場合、S309に処理を進める。   In S308, the pixel data processing unit 305 determines whether the vertical coordinates of the pixel data are included in the second vertical area from the extracted second area information in the same manner as in S304, and is included in the second vertical area. If it is determined that it is, the process proceeds to S309.

S309において、画素データ処理部305は、補正値算出部303が示す水平座標情報と制御部101から入力される第2の水平座標範囲を比較する。画素データの水平座標が入力される水平座標の範囲に含まれると判定した場合、S310に処理を進める。   In step S <b> 309, the pixel data processing unit 305 compares the horizontal coordinate information indicated by the correction value calculation unit 303 with the second horizontal coordinate range input from the control unit 101. If it is determined that the horizontal coordinate of the pixel data is included in the input horizontal coordinate range, the process proceeds to S310.

S310において、画素データ処理部305は、S306で算出した補正値を、第2の領域情報で特定される画素に対して減算処理を行う。画素データ処理部305は、第2の領域情報で特定される画素に対する補正処理を終えると、画像処理に係る一連の動作を終了する。   In step S310, the pixel data processing unit 305 performs a subtraction process on the correction value calculated in step S306 on the pixel specified by the second area information. When the pixel data processing unit 305 finishes the correction process on the pixel specified by the second region information, the pixel data processing unit 305 ends the series of operations related to the image processing.

なお、本実施形態では、画素データを行ごとにパケットに格納し、制御部101が垂直座標範囲を画像出力部202に送信するようにしているが、画素データを列ごとにパケットに格納して、制御部101から水平座標範囲を送信するようにしてもよい。この場合は、行カウンタ部251は列ごとに画素データをカウントし、比較部252はカウンタ値が水平座標範囲に含まれるかを判定すればよい。   In this embodiment, pixel data is stored in a packet for each row, and the control unit 101 transmits the vertical coordinate range to the image output unit 202. However, pixel data is stored in a packet for each column. The horizontal coordinate range may be transmitted from the control unit 101. In this case, the row counter unit 251 counts pixel data for each column, and the comparison unit 252 may determine whether the counter value is included in the horizontal coordinate range.

また、本実施形態における補正処理として、第2の画素領域に含まれる画素データから補正値を減算処理する例を示したが、当該補正処理は減算処理に限らず、目的に応じて種々の変形及び変更が可能である。   Moreover, although the example which subtracts a correction value from the pixel data contained in a 2nd pixel area was shown as a correction process in this embodiment, the said correction process is not restricted to a subtraction process, Various deformation | transformation is carried out according to the objective. And changes are possible.

以上説明したように、本実施形態では、画素データの垂直座標情報を撮像素子121に入力し、撮像素子121が画素データの垂直座標情報を画素データとともに一元的に供給するようにした。このようにすることで、信号処理用の回路であるDFE122は、制御部101から垂直座標に関する情報を受信することなく画像処理を行うことができる。従って、制御部から信号処理用の回路に送信する制御情報を削減することができる。   As described above, in this embodiment, the vertical coordinate information of the pixel data is input to the image sensor 121, and the image sensor 121 supplies the vertical coordinate information of the pixel data together with the pixel data. In this way, the DFE 122, which is a signal processing circuit, can perform image processing without receiving information related to vertical coordinates from the control unit 101. Therefore, control information transmitted from the control unit to the signal processing circuit can be reduced.

(実施形態2)
次に実施形態2について説明する。本実施形態では、DFE122が行う画像処理の例として、暗電流の影響による垂直方向のシェーディングを補正する処理について説明する。本実施形態のデジタルカメラ100は、撮像素子の画素の構成および適用する画像処理が実施形態1と異なるが、その他の構成は実施形態1と同一である。このため、同一の構成については同一の符号を付して重複する説明は省略し、相違点について重点的に説明する。
(Embodiment 2)
Next, Embodiment 2 will be described. In this embodiment, as an example of image processing performed by the DFE 122, processing for correcting shading in the vertical direction due to the influence of dark current will be described. The digital camera 100 of the present embodiment is different from the first embodiment in the configuration of the pixels of the image sensor and the applied image processing, but the other configurations are the same as those in the first embodiment. For this reason, the same reference numerals are assigned to the same components, and redundant descriptions are omitted, and differences will be mainly described.

図10に示すように、本実施形態に係る画素部200は、有効画素領域と水平方向に隣り合うようにOB画素領域を有している。有効画素領域と水平方向に配置されたOB画素領域の画素をDFE122に入力し、DFE122が当該OB画素領域の画素の出力を用いて補正値を算出するとともに有効画素領域に対する補正処理を行う。このようにすることで暗電流の影響による垂直方向のシェーディングを補正する。   As shown in FIG. 10, the pixel unit 200 according to the present embodiment has an OB pixel region adjacent to the effective pixel region in the horizontal direction. The pixels in the OB pixel region arranged in the horizontal direction with the effective pixel region are input to the DFE 122, and the DFE 122 calculates a correction value using the output of the pixel in the OB pixel region and performs a correction process on the effective pixel region. By doing so, the shading in the vertical direction due to the influence of dark current is corrected.

OB画素領域(第1の画素領域)と有効画素領域(第2の画素領域)が水平方向に隣り合うように配置される。第1の画素領域に含まれる画素は、垂直方向の座標範囲および水平方向の座標範囲を示す、第1の画素領域の垂直座標範囲および第1の画素領域の水平座標範囲により特定される。同様に、第2の画素領域に含まれる画素は、第2の画素領域の垂直座標範囲および第2の画素領域の水平座標範囲で特定される。   The OB pixel region (first pixel region) and the effective pixel region (second pixel region) are arranged adjacent to each other in the horizontal direction. The pixels included in the first pixel region are specified by the vertical coordinate range of the first pixel region and the horizontal coordinate range of the first pixel region, which indicate the vertical coordinate range and the horizontal coordinate range. Similarly, the pixels included in the second pixel region are specified by the vertical coordinate range of the second pixel region and the horizontal coordinate range of the second pixel region.

本実施形態に係る画像処理の一連の動作について、図9に示すフローチャートを参照して説明する。なお、図9において、図6と同様の処理には同一のステップ番号を付している。   A series of image processing operations according to the present embodiment will be described with reference to a flowchart shown in FIG. In FIG. 9, the same steps as those in FIG. 6 are given the same step numbers.

DFE122は、図6で説明したS300〜S305の各処理を行う。   The DFE 122 performs each process of S300 to S305 described in FIG.

次に、S901において、補正値算出部303は、画素データの水平座標が第1の水平座標範囲に含まれると判定した場合、各行の画素データの平均値を算出する。補正値算出部303は、算出した行ごとの平均値を、暗電流の影響による垂直方向シェーディングを補正するための補正値として画素データ処理部305へ出力する。   Next, in S901, when the correction value calculation unit 303 determines that the horizontal coordinate of the pixel data is included in the first horizontal coordinate range, the correction value calculation unit 303 calculates the average value of the pixel data of each row. The correction value calculation unit 303 outputs the calculated average value for each row to the pixel data processing unit 305 as a correction value for correcting vertical shading due to the influence of dark current.

その後、図6で説明したS307〜S309の各処理を行う。   Then, each process of S307-S309 demonstrated in FIG. 6 is performed.

さらに、S902において、画素データ処理部305は、S901において算出された行ごとの補正値を用いて、第2の画素領域の画素データのうち、処理対象となる行の画素データに対して補正処理を行う。画素データ処理部305は、例えば第2の画素領域の画素データから補正値を減算処理することで、画像データの暗電流の影響による垂直方向のシェーディングを補正する。   Further, in S902, the pixel data processing unit 305 uses the correction value for each row calculated in S901 to correct the pixel data in the row to be processed among the pixel data in the second pixel region. I do. The pixel data processing unit 305 corrects the shading in the vertical direction due to the influence of the dark current of the image data, for example, by subtracting the correction value from the pixel data of the second pixel region.

以上説明したように本実施形態では、DFE122は、ヘッダ情報に基づいて判定した行ごとの画素データに対して、同一の行の中から特定した画素を用いて補正値を算出し、補正処理を行うようにした。このようにすることで、撮像素子が、OB画素領域を有効画素領域と水平方向に隣り合うように有している場合であっても、信号処理用の回路であるDFE122は、制御部101から垂直座標に関する情報を受信することなく画像処理を行うことができる。従って、制御部から信号処理用の回路に送信する制御情報を削減することができる。   As described above, in this embodiment, the DFE 122 calculates a correction value using pixel specified from the same row for the pixel data for each row determined based on the header information, and performs the correction process. I did it. By doing in this way, even when the imaging device has the OB pixel region so as to be adjacent to the effective pixel region in the horizontal direction, the DFE 122 that is a signal processing circuit is connected to the control unit 101. Image processing can be performed without receiving information about vertical coordinates. Therefore, control information transmitted from the control unit to the signal processing circuit can be reduced.

(実施形態3)
次に実施形態3について説明する。実施形態3では、第1および第2の画素領域に対する水平座標範囲をさらに制御部101から撮像素子121に入力する点が上述の実施形態と異なる。このため、パケットのヘッダ情報を生成する構成およびパケットを受信してヘッダ情報から補正値を算出する構成が異なる。その他の構成は、上述の実施形態と同一であるため、同一の構成については同一の符号を付して重複する説明は省略し、相違点について重点的に説明する。なお、本実施形態における撮像素子は、実施形態2において図10に示した第1および第2の画素領域を有するものとし、DFE122は、実施形態2と同様に暗電流の影響による垂直方向のシェーディングを補正する処理を行う。
(Embodiment 3)
Next, Embodiment 3 will be described. The third embodiment is different from the above-described embodiment in that the horizontal coordinate range for the first and second pixel regions is further input from the control unit 101 to the image sensor 121. For this reason, the structure which produces | generates the header information of a packet and the structure which receives a packet and calculates a correction value from header information differ. Since other configurations are the same as those of the above-described embodiment, the same configurations are denoted by the same reference numerals, and redundant description is omitted, and differences are mainly described. Note that the imaging device in the present embodiment has the first and second pixel regions shown in FIG. 10 in the second embodiment, and the DFE 122 performs vertical shading due to the influence of dark current as in the second embodiment. The process which corrects is performed.

図11(a)は、本実施形態における撮像素子121の機能構成例を示している。上述した実施形態では、図3に示した画像出力部202は、第1の垂直座標範囲と行数から第1の領域情報を生成した。これに対して、本実施形態に係る画像出力部1101は、制御部101から第1および第2の垂直座標範囲に加えて、第1および第2の水平座標範囲を入力する。また、図11(b)は、本実施形態に係る画像出力部1101の機能構成例を示している。画像出力部1101は、第1の垂直座標範囲および第1の水平座標範囲と、処理対象となる画素データの行数および列数から第1の領域情報を生成する。なお、本実施形態においては図13に示すように1画素分の画素データをペイロードとして格納する例について説明する。しかし、上述した実施形態と同様に1行分の画素データをペイロードに格納し、ペイロードに格納された各画素に対する領域情報をそれぞれ示すヘッダを付加するようにしてもよい。   FIG. 11A shows a functional configuration example of the image sensor 121 in the present embodiment. In the embodiment described above, the image output unit 202 illustrated in FIG. 3 generates the first region information from the first vertical coordinate range and the number of rows. In contrast, the image output unit 1101 according to the present embodiment inputs the first and second horizontal coordinate ranges from the control unit 101 in addition to the first and second vertical coordinate ranges. FIG. 11B shows a functional configuration example of the image output unit 1101 according to the present embodiment. The image output unit 1101 generates first area information from the first vertical coordinate range and the first horizontal coordinate range, and the number of rows and columns of pixel data to be processed. In the present embodiment, an example in which pixel data for one pixel is stored as a payload as shown in FIG. 13 will be described. However, similarly to the above-described embodiment, pixel data for one row may be stored in the payload, and a header indicating each region information for each pixel stored in the payload may be added.

画像出力部1101のカウンタ部1102は、画素データ生成部250から入力される画素データに対して1画素が入力されるごとに行および列をカウントし、処理対象の画素の行および列を比較部1103に出力する。比較部1103は、カウンタ部1102から入力した行および列のカウンタ値と、制御部101から入力した第1および第2の画素領域の座標範囲と比較して、ヘッダ情報を生成する。比較部1103は、入力した行のカウンタ値が、第1の垂直座標範囲に含まれるかを判定し、さらに列のカウンタ値が第1の水平座標範囲に含まれるかを判定する。比較部1103は、列のカウンタ値が第1の垂直座標範囲に含まれる場合、第1の領域情報の対応する値を更新する。また、行のカウンタ値が第1の水平座標範囲に含まれる場合、同様に第1の領域情報を更新する。第1の領域情報は、例えば初期値が00に設定された2桁の二進数の識別子であり、垂直座標および水平座標の順にそれぞれが各座標範囲に含まれる場合に1が設定される。従って、行のカウンタ値および列のカウンタ値が第1の画素領域に含まれる場合、第1の領域情報は、11となる。比較部1103は、さらに、当該画素データが第2の画素領域に含まれるかを判定して、第2の領域情報を生成する。このとき、比較部1103は、第2の領域情報の生成を第1の領域情報の生成と同様に行なう。   The counter unit 1102 of the image output unit 1101 counts a row and a column every time one pixel is input with respect to the pixel data input from the pixel data generation unit 250, and compares the row and the column of the processing target pixel. 1103. The comparison unit 1103 compares the row and column counter values input from the counter unit 1102 with the coordinate ranges of the first and second pixel areas input from the control unit 101, and generates header information. The comparison unit 1103 determines whether the input row counter value is included in the first vertical coordinate range, and further determines whether the column counter value is included in the first horizontal coordinate range. When the column counter value is included in the first vertical coordinate range, the comparison unit 1103 updates the corresponding value of the first area information. When the row counter value is included in the first horizontal coordinate range, the first area information is similarly updated. The first area information is, for example, a 2-digit binary identifier whose initial value is set to 00, and is set to 1 when each of the coordinate ranges is included in the order of vertical coordinates and horizontal coordinates. Accordingly, when the row counter value and the column counter value are included in the first pixel area, the first area information is 11. The comparison unit 1103 further determines whether the pixel data is included in the second pixel area, and generates second area information. At this time, the comparison unit 1103 generates the second area information in the same manner as the generation of the first area information.

次に、実施形態の画像処理に係る一連の動作について、図12を参照して説明する。なお、図12において、図6、図9と同様の処理には同一のステップ番号を付している。   Next, a series of operations related to image processing according to the embodiment will be described with reference to FIG. In FIG. 12, the same step numbers are assigned to the processes similar to those in FIGS.

DFE122は、図6で説明したS300〜S304の各処理を行う。   The DFE 122 performs each process of S300 to S304 described in FIG.

次に、S1201において、DFE122の補正値算出部303は、第1の領域情報を参照して、画素データの水平座標が第1の水平領域に含まれているか否かを判定し、第1の水平領域に含まれていると判定した場合、S901に処理を進める。より具体的には、上述した第1の領域情報において、2桁の識別子のうち水平座標に対応する桁の値が1である場合に、補正値算出部303は第1の水平領域に含まれていると判定する。   Next, in S1201, the correction value calculation unit 303 of the DFE 122 refers to the first area information to determine whether or not the horizontal coordinate of the pixel data is included in the first horizontal area, and the first If it is determined that the image is included in the horizontal area, the process proceeds to S901. More specifically, the correction value calculation unit 303 is included in the first horizontal region when the value of the digit corresponding to the horizontal coordinate among the two-digit identifier is 1 in the first region information described above. It is determined that

その後、図9で説明したS901、図6で説明したS307〜S308の各処理を行う。   Then, each process of S901 demonstrated in FIG. 9, and S307-S308 demonstrated in FIG. 6 is performed.

次に、S1203において、補正値算出部303は、第2の領域情報を参照して、画素データの水平座標が第2の水平領域に含まれているかを判定し、第2の水平領域に含まれていると判定した場合、図9で説明したS902の処理を行う。   Next, in S1203, the correction value calculation unit 303 refers to the second area information, determines whether the horizontal coordinate of the pixel data is included in the second horizontal area, and includes it in the second horizontal area. If it is determined that the process has been performed, the process of S902 described with reference to FIG. 9 is performed.

以上説明したように本実施形態では、画素データの垂直座標情報および水平座標情報を撮像素子121に入力し、撮像素子121が画素データの垂直座標情報および水平座標情報を画素データとともに一元的に供給するようにした。このようにすることで、信号処理用の回路であるDFE122は、制御部101から垂直座標および水平座標に関する情報を受信することなく、画像処理を行うことができるため、制御部から信号処理用の回路に送信する制御情報を削減することができる。   As described above, in this embodiment, the vertical coordinate information and horizontal coordinate information of pixel data are input to the image sensor 121, and the image sensor 121 supplies the vertical coordinate information and horizontal coordinate information of the pixel data together with the pixel data. I tried to do it. In this way, the DFE 122, which is a signal processing circuit, can perform image processing without receiving information on the vertical coordinate and the horizontal coordinate from the control unit 101. Control information transmitted to the circuit can be reduced.

(その他の実施形態)
また、本発明は、以下に示す他の実施形態に対しても適用可能である。例えば、図14に示す積層型の撮像素子1400に対して本発明を適用できる。図14に示す様に、本実施形態の撮像素子1400は、第1の半導体チップ1401と第2の半導体チップ1402がチップレベルで積層されている。図14(a)は斜投影図、図14(b)は各チップの上面図を示している。第1の半導体チップ1401には画素部1405を含む領域が含まれ、高速ロジックプロセス用の第2の半導体チップ1402には列AD変換回路や水平走査回路などデジタルデータを含む高速処理が可能な部分1403が含まれる。上述の図1の構成において、例えば、撮像素子121が有する画素部200が第1の半導体チップ1401の画素部1405に対応する。また、撮像素子121に含まれるA/D変換部201や画像出力部202と画素部200以外の他の回路が第2の半導体チップ1402に配置されるように構成すれば良い。
(Other embodiments)
The present invention can also be applied to other embodiments described below. For example, the present invention can be applied to a multilayer imaging device 1400 shown in FIG. As shown in FIG. 14, in the imaging device 1400 of the present embodiment, a first semiconductor chip 1401 and a second semiconductor chip 1402 are stacked at a chip level. FIG. 14A shows an oblique projection, and FIG. 14B shows a top view of each chip. The first semiconductor chip 1401 includes a region including a pixel portion 1405, and the second semiconductor chip 1402 for a high-speed logic process can perform high-speed processing including digital data such as a column AD conversion circuit and a horizontal scanning circuit. 1403 is included. In the configuration of FIG. 1 described above, for example, the pixel portion 200 included in the imaging element 121 corresponds to the pixel portion 1405 of the first semiconductor chip 1401. Further, a circuit other than the A / D conversion unit 201, the image output unit 202, and the pixel unit 200 included in the imaging element 121 may be arranged on the second semiconductor chip 1402.

さらに、本発明は、撮像装置の一例としての図15に示す携帯電話機1500にも適用可能である。図15は、携帯電話機1500の機能構成を示すブロック図である。携帯電話機1500は、音声通話機能の他、電子メール機能や、インターネット接続機能、画像の撮影、再生機能等を有する。通信部1010は、ユーザが契約した通信キャリアに従う通信方式により他の電話機との間で音声データや画像データを通信する。音声処理部1020は、音声通話時において、マイクロフォン1030からの音声データを発信に適した形式に変換して通信部1010に送る。また、音声処理部1020は、通信部1010から送られた通話相手からの音声データを復号し、スピーカ1040に送る。撮像部1050は、被写体の画像を撮影し、画素データを出力する。撮像部1050は各実施形態において上述した撮像素子121を含む。ここで、撮像素子121は、上述した積層型の撮像素子であっても良い。また、撮像部1050と画像処理部1060との間で上述したパケットが送信される。画像処理部1060は、各実施形態で上述したDFE122を含み、画像の撮影時においては、撮像部1050により撮影された画素データを処理し、記録に適した形式に変換して出力する。また、画像処理部1060は、記録された画像の再生時には、再生された画像を処理して表示部1070に送る。表示部1070は、数インチ程度の液晶表示パネルを備え、制御部1090からの指示に応じて各種の画面を表示する。不揮発性メモリ1080は、アドレス帳の情報や、電子メールのデータ、撮像部1050により撮影された画像データ等のデータを記憶する。   Furthermore, the present invention can also be applied to a mobile phone 1500 shown in FIG. 15 as an example of an imaging apparatus. FIG. 15 is a block diagram showing a functional configuration of mobile phone 1500. The mobile phone 1500 has an electronic mail function, an Internet connection function, an image shooting / playback function, and the like in addition to a voice call function. The communication unit 1010 communicates audio data and image data with other telephones by a communication method according to a communication carrier contracted by the user. The voice processing unit 1020 converts voice data from the microphone 1030 into a format suitable for outgoing call and sends it to the communication unit 1010 during a voice call. Also, the voice processing unit 1020 decodes the voice data from the communication partner sent from the communication unit 1010 and sends it to the speaker 1040. The imaging unit 1050 captures an image of a subject and outputs pixel data. The imaging unit 1050 includes the imaging element 121 described above in each embodiment. Here, the imaging element 121 may be the above-described stacked imaging element. Further, the above-described packet is transmitted between the imaging unit 1050 and the image processing unit 1060. The image processing unit 1060 includes the DFE 122 described above in each embodiment, and processes the pixel data photographed by the imaging unit 1050 at the time of photographing an image, converts it into a format suitable for recording, and outputs it. In addition, when the recorded image is reproduced, the image processing unit 1060 processes the reproduced image and sends the processed image to the display unit 1070. The display unit 1070 includes a liquid crystal display panel of about several inches, and displays various screens according to instructions from the control unit 1090. The nonvolatile memory 1080 stores data such as address book information, e-mail data, and image data captured by the imaging unit 1050.

制御部1090は、CPUやメモリ等を有し、不図示のメモリに記憶された制御プログラムに従って携帯電話機1500の各部を制御する。操作部1100は、電源ボタンや番号キー、その他ユーザがデータを入力するための各種の操作キーを備える。メモリIF1110は、メモリカードなどの記録媒体1120に対して各種のデータを記録再生する。外部IF1130は、不揮発性メモリ1080や記録媒体1120に記憶されたデータを外部機器に送信し、また、外部機器から送信されたデータを受信する。外部IF1130は、USB等の有線の通信方式や、無線通信など、公知の通信方式により通信を行う。   The control unit 1090 includes a CPU, a memory, and the like, and controls each unit of the mobile phone 1500 according to a control program stored in a memory (not shown). The operation unit 1100 includes a power button, number keys, and other various operation keys for a user to input data. The memory IF 1110 records and reproduces various data on a recording medium 1120 such as a memory card. The external IF 1130 transmits data stored in the nonvolatile memory 1080 or the recording medium 1120 to the external device, and receives data transmitted from the external device. The external IF 1130 performs communication by a known communication method such as a wired communication method such as USB or wireless communication.

次に、携帯電話機1500における音声通話機能を説明する。通話相手に対して電話をかける場合、ユーザが操作部1100の番号キーを操作して通話相手の番号を入力するか、不揮発性メモリ1080に記憶されたアドレス帳を表示部1070に表示し、通話相手を選択し、発信を指示する。発信が指示されると、制御部1090は通信部1010に対し、通話相手に発信する。通話相手に着信すると、通信部1010は音声処理部1020に対して相手の音声データを出力すると共に、ユーザの音声データを相手に送信する。   Next, a voice call function in the mobile phone 1500 will be described. When making a call to the other party, the user inputs the number of the other party by operating the number key of the operation unit 1100 or displays the address book stored in the nonvolatile memory 1080 on the display unit 1070 and Select the other party and instruct outgoing. When transmission is instructed, control unit 1090 transmits to communication party 1010 to communication unit 1010. When an incoming call is received, the communication unit 1010 outputs the other party's voice data to the voice processing unit 1020 and transmits the user's voice data to the other party.

また、電子メールを送信する場合、ユーザは、操作部1100を用いて、メール作成を指示する。メール作成が指示されると、制御部1090はメール作成用の画面を表示部1070に表示する。ユーザは操作部1100を用いて送信先アドレスや本文を入力し、送信を指示する。制御部1090はメール送信が指示されると、通信部1010に対しアドレスの情報とメール本文のデータを送る。通信部1010は、メールのデータを通信に適した形式に変換し、送信先に送る。また、通信部1010は、電子メールを受信すると、受信したメールのデータを表示に適した形式に変換し、表示部1070に表示する。   When transmitting an e-mail, the user uses the operation unit 1100 to instruct mail creation. When mail creation is instructed, control unit 1090 displays a screen for creating mail on display unit 1070. The user inputs a transmission destination address and text using the operation unit 1100 and instructs transmission. When the mail transmission is instructed, control unit 1090 sends address information and mail body data to communication unit 1010. The communication unit 1010 converts mail data into a format suitable for communication and sends it to a transmission destination. In addition, when receiving the electronic mail, the communication unit 1010 converts the received mail data into a format suitable for display and displays the data on the display unit 1070.

次に、携帯電話機1500における撮影機能について説明する。ユーザが操作部1100を操作して撮影モードを設定した後、静止画或いは動画の撮影を指示すると、撮像部1050は静止画データ或いは動画データを撮影して画像処理部1060に送る。画像処理部1060は撮影された静止画データや動画データを処理し、不揮発性メモリ1080に記憶する。また、画像処理部1060は、撮影された静止画データや動画データをメモリIF1110に送る。メモリIF1110は静止画や動画データを記録媒体1120に記憶する。   Next, a photographing function in the mobile phone 1500 will be described. When the user operates the operation unit 1100 to set the shooting mode and then instructs to shoot a still image or a moving image, the imaging unit 1050 shoots the still image data or the moving image data and sends it to the image processing unit 1060. The image processing unit 1060 processes captured still image data and moving image data, and stores them in the nonvolatile memory 1080. Further, the image processing unit 1060 sends the captured still image data and moving image data to the memory IF 1110. The memory IF 1110 stores still images and moving image data in the recording medium 1120.

また、携帯電話機1500は、この様に撮影された静止画や動画データを含むファイルを、電子メールの添付ファイルとして送信することができる。具体的には、電子メールを送信する際に、不揮発性メモリ1080や記録媒体1120に記憶された画像ファイルを選択し、添付ファイルとして送信を指示する。   In addition, the mobile phone 1500 can transmit a file including still images and moving image data shot in this way as an attached file of an e-mail. Specifically, when an e-mail is transmitted, an image file stored in the nonvolatile memory 1080 or the recording medium 1120 is selected, and transmission is instructed as an attached file.

また、携帯電話機1500は、撮影された静止画や動画データを含むファイルを、外部IF1130によりPCや他の電話機等の外部機器に送信することもできる。ユーザは、操作部1100を操作して、不揮発性メモリ1080や記録媒体1120に記憶された画像ファイルを選択し、送信を指示する。制御部1090は、選択された画像ファイルを不揮発性メモリ1080或いは記録媒体1120から読み出し、外部機器に送信するよう、外部IF1130を制御する。   In addition, the mobile phone 1500 can transmit a file including a captured still image or moving image data to an external device such as a PC or another telephone using the external IF 1130. The user operates the operation unit 1100 to select an image file stored in the nonvolatile memory 1080 or the recording medium 1120 and instruct transmission. The control unit 1090 controls the external IF 1130 so that the selected image file is read from the nonvolatile memory 1080 or the recording medium 1120 and transmitted to the external device.

本発明は、上述の実施形態の1以上の機能を実現するプログラムを、ネットワーク又は記憶媒体を介してシステム又は装置に供給し、そのシステム又は装置のコンピュータにおける1つ以上のプロセッサーがプログラムを読出し実行する処理でも実現可能である。また、1以上の機能を実現する回路(例えば、ASIC)によっても実現可能である。   The present invention supplies a program that realizes one or more functions of the above-described embodiments to a system or apparatus via a network or a storage medium, and one or more processors in a computer of the system or apparatus read and execute the program This process can be realized. It can also be realized by a circuit (for example, ASIC) that realizes one or more functions.

101…制御部、200…画素部、121…撮像素子、202…画像出力部、122…DFE DESCRIPTION OF SYMBOLS 101 ... Control part, 200 ... Pixel part, 121 ... Image sensor, 202 ... Image output part, 122 ... DFE

Claims (21)

第1の画素領域と第2の画素領域とを有する画素部と、
前記画素部から得られる画像データに、前記第1の画素領域および前記第2の画素領域を示す領域情報を付加して出力する出力手段と、
前記画素部から読み出された画像データに対し、前記第2の画素領域の画素データを用いて前記第1の画素領域の画素データを補正する信号処理手段と、を有し、
前記信号処理手段は、前記出力手段から受信した画像データに付加された前記領域情報を用いて、前記画像データにおける前記第1の画素領域の画素データおよび前記第2の画素領域の画素データを抽出する、
ことを特徴とする撮像装置。
A pixel portion having a first pixel region and a second pixel region;
Output means for adding and outputting region information indicating the first pixel region and the second pixel region to the image data obtained from the pixel unit;
Signal processing means for correcting the pixel data of the first pixel region using the pixel data of the second pixel region with respect to the image data read from the pixel unit;
The signal processing means extracts pixel data of the first pixel area and pixel data of the second pixel area in the image data using the area information added to the image data received from the output means. To
An imaging apparatus characterized by that.
前記出力手段は、
前記領域情報を前記画素部から得られた画像データに付加してパケットを生成するパケット生成手段と、
前記パケットを前記信号処理手段に出力するパケット出力手段と、を有する、
ことを特徴とする請求項1に記載の撮像装置。
The output means includes
Packet generating means for generating a packet by adding the region information to the image data obtained from the pixel unit;
Packet output means for outputting the packet to the signal processing means,
The imaging apparatus according to claim 1.
前記出力手段は、
前記領域情報から得られる画像内の領域と前記画像データの領域とを比較して、前記第1の画素領域および前記第2の画素領域を示す情報を生成する比較手段をさらに有し、
前記パケット生成手段は、前記第1の画素領域および前記第2の画素領域を示す情報を前記領域情報として前記画像データに付加してパケットを生成する、
ことを特徴とする請求項2に記載の撮像装置。
The output means includes
Comparing means for comparing the region in the image obtained from the region information with the region of the image data to generate information indicating the first pixel region and the second pixel region;
The packet generation means generates a packet by adding information indicating the first pixel region and the second pixel region to the image data as the region information.
The imaging apparatus according to claim 2.
前記信号処理手段は、
前記出力手段から出力された前記パケットから前記第1の画素領域および第2の画素領域を示す情報を抽出する情報抽出手段と、
前記第1の画素領域および第2の画素領域を示す情報に基づいて、前記パケットから得られる画素データのうち、前記第1の画素領域と前記第2の画素領域に含まれる画素データをそれぞれ抽出する抽出手段と、
前記第1の画素領域に含まれる画素データを用いて、前記第2の画素領域に含まれる画素データを補正するための補正値を算出する算出手段と、を有する、
ことを特徴とする請求項3に記載の撮像装置。
The signal processing means includes
Information extracting means for extracting information indicating the first pixel area and the second pixel area from the packet output from the output means;
Based on information indicating the first pixel region and the second pixel region, pixel data included in the first pixel region and the second pixel region are extracted from pixel data obtained from the packet, respectively. Extraction means to
Calculation means for calculating a correction value for correcting the pixel data included in the second pixel region using the pixel data included in the first pixel region;
The imaging apparatus according to claim 3.
前記領域情報は、前記第1の画素領域の画素と前記第2の画素領域の画素とを特定するための情報として、それぞれの領域の垂直座標範囲または水平座標範囲の少なくともいずれかの情報を含む、
ことを特徴とする請求項1から4のいずれか1項に記載の撮像装置。
The area information includes at least one of a vertical coordinate range and a horizontal coordinate range of each area as information for specifying the pixels of the first pixel area and the pixels of the second pixel area. ,
The imaging apparatus according to any one of claims 1 to 4, wherein the imaging apparatus is characterized in that
前記パケット生成手段は、予め定められた画素データごとに前記画像データを分割し、該分割した画像データに、前記第1の画素領域および前記第2の画素領域を示す情報をヘッダ情報として付加する、
ことを特徴とする、請求項3に記載の撮像装置。
The packet generation unit divides the image data for each predetermined pixel data, and adds information indicating the first pixel region and the second pixel region to the divided image data as header information. ,
The imaging apparatus according to claim 3, wherein:
前記算出手段は、前記第2の画素領域の画素のうち前記第2の画素領域を示す情報により特定された画素の画素データの平均値に基づいて、前記補正値を算出する、
ことを特徴とする請求項4に記載の撮像装置。
The calculation means calculates the correction value based on an average value of pixel data of pixels specified by information indicating the second pixel region among the pixels of the second pixel region.
The imaging apparatus according to claim 4.
前記信号処理手段は、前記第1の画素領域の画素のうち前記第1の画素領域を示す情報により特定された画素の画素データから前記補正値を減算することにより、前記第2の画素領域の画素の出力を補正する補正手段を有する、
ことを特徴とする請求項4に記載の撮像装置。
The signal processing means subtracts the correction value from pixel data of a pixel specified by information indicating the first pixel area among the pixels of the first pixel area, thereby obtaining the second pixel area. Having correction means for correcting the output of the pixel;
The imaging apparatus according to claim 4.
前記第1の画素領域の画素は、有効画素領域の画素であり、前記第2の画素領域の画素は、前記有効画素領域の画素の出力を補正するための画素である、
ことを特徴とする請求項1から8のいずれか1項に記載の撮像装置。
The pixels in the first pixel region are pixels in the effective pixel region, and the pixels in the second pixel region are pixels for correcting the output of the pixels in the effective pixel region.
The image pickup apparatus according to claim 1, wherein the image pickup apparatus is an image pickup apparatus.
前記第2の画素領域の画素は、遮光された領域の画素である、
ことを特徴とする請求項9に記載の撮像装置。
The pixels in the second pixel region are pixels in a light-shielded region.
The imaging apparatus according to claim 9.
前記画素部は、複数の半導体チップが互いに積層された積層型の撮像素子に含まれる、
ことを特徴とする請求項1から10のいずれか1項に記載の撮像装置。
The pixel portion is included in a stacked imaging device in which a plurality of semiconductor chips are stacked on each other.
The image pickup apparatus according to claim 1, wherein the image pickup apparatus is an image pickup apparatus.
第1の画素領域と第2の画素領域とを有する画素部と、
前記画素部から得られる画像データに、前記第1の画素領域および前記第2の画素領域を示す領域情報を付加して出力する出力手段と、を有する、
ことを特徴とする撮像素子。
A pixel portion having a first pixel region and a second pixel region;
Output means for adding image information obtained from the pixel unit to the image data obtained from the first pixel region and the second pixel region, and outputting the image data.
An image sensor characterized by the above.
前記出力手段は、前記領域情報を前記画素部から得られた画像データに付加してパケットを生成するパケット生成手段と、前記パケットを出力するパケット出力手段と、を有する、
ことを特徴とする請求項12に記載の撮像素子。
The output means includes packet generation means for generating a packet by adding the region information to the image data obtained from the pixel unit, and packet output means for outputting the packet.
The imaging device according to claim 12.
前記出力手段は、前記領域情報から得られる画像内の領域と前記画像データの領域とを比較して、前記第1の画素領域および前記第2の画素領域を示す情報を生成する比較手段をさらに有し、
前記パケット生成手段は、前記第1の画素領域および前記第2の画素領域を示す情報を前記領域情報として前記画像データに付加してパケットを生成する、
ことを特徴とする請求項13に記載の撮像素子。
The output means further comprises comparison means for comparing the area in the image obtained from the area information with the area of the image data to generate information indicating the first pixel area and the second pixel area. Have
The packet generation means generates a packet by adding information indicating the first pixel region and the second pixel region to the image data as the region information.
The imaging device according to claim 13.
前記領域情報は、前記第1の画素領域の画素と前記第2の画素領域の画素とを特定するための情報として、それぞれの領域の垂直座標範囲または水平座標範囲の少なくともいずれかの情報を含む、
ことを特徴とする請求項12から14のいずれか1項に記載の撮像素子。
The area information includes at least one of a vertical coordinate range and a horizontal coordinate range of each area as information for specifying the pixels of the first pixel area and the pixels of the second pixel area. ,
The imaging device according to any one of claims 12 to 14, wherein
前記パケット生成手段は、予め定められた画素データごとに前記画像データを分割し、該分割した画像データに、前記第1の画素領域および前記第2の画素領域を示す情報をヘッダ情報として付加する
ことを特徴とする請求項13または14に記載の撮像素子。
The packet generation unit divides the image data for each predetermined pixel data, and adds information indicating the first pixel region and the second pixel region to the divided image data as header information. The image pickup device according to claim 13 or 14,
前記第1の画素領域の画素は、有効画素領域の画素であり、前記第2の画素領域の画素は、前記有効画素領域の画素の出力を補正するための画素である、
ことを特徴とする請求項12から16のいずれか1項に記載の撮像素子。
The pixels in the first pixel region are pixels in the effective pixel region, and the pixels in the second pixel region are pixels for correcting the output of the pixels in the effective pixel region.
The image pickup device according to any one of claims 12 to 16, wherein the image pickup device is provided.
前記第2の画素領域の画素は、遮光された領域の画素である、
ことを特徴とする請求項17に記載の撮像素子。
The pixels in the second pixel region are pixels in a light-shielded region.
The imaging device according to claim 17.
前記撮像素子は、複数の半導体チップが互いに積層された積層型の撮像素子である、
ことを特徴とする請求項12から18のいずれか1項に記載の撮像素子。
The image sensor is a stacked image sensor in which a plurality of semiconductor chips are stacked on each other.
The image pickup device according to any one of claims 12 to 18, wherein the image pickup device is provided.
第1の画素領域と第2の画素領域とを有する画素部を有する撮像装置の制御方法であって、
出力手段が、前記画素部から得られる画像データに、前記第1の画素領域および前記第2の画素領域を示す領域情報を付加して出力する出力工程と、
信号処理手段が、前記画素部から読み出された画像データに対し、前記第2の画素領域の画素データを用いて前記第1の画素領域の画素データを補正する信号処理工程と、を有し、
前記信号処理工程では、前記出力手段から受信した画像データに付加された前記領域情報を用いて、前記画像データにおける前記第1の画素領域の画素データおよび前記第2の画素領域の画素データを抽出する、
ことを特徴とする撮像装置の制御方法。
A method for controlling an imaging apparatus having a pixel portion having a first pixel region and a second pixel region,
An output step in which output means adds and outputs region information indicating the first pixel region and the second pixel region to the image data obtained from the pixel unit;
A signal processing step of correcting the pixel data of the first pixel region using the pixel data of the second pixel region with respect to the image data read from the pixel unit; ,
In the signal processing step, pixel data of the first pixel region and pixel data of the second pixel region in the image data are extracted using the region information added to the image data received from the output unit. To
And a method of controlling the imaging apparatus.
コンピュータを、請求項1から11のいずれか1項に記載の撮像装置の各手段として機能させるためのプログラム。   The program for functioning a computer as each means of the imaging device of any one of Claim 1 to 11.
JP2015159137A 2014-09-02 2015-08-11 Imaging device, control method and program thereof, and imaging element Pending JP2016054479A (en)

Priority Applications (2)

Application Number Priority Date Filing Date Title
US14/837,864 US9906749B2 (en) 2014-09-02 2015-08-27 Image capturing apparatus capable of generating and adding pixel region information to image data, method of controlling the same, and image sensor
CN201510545609.1A CN105391921B (en) 2014-09-02 2015-08-31 Photographic device, the control method of photographic device and imaging sensor

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2014178508 2014-09-02
JP2014178508 2014-09-02

Publications (2)

Publication Number Publication Date
JP2016054479A true JP2016054479A (en) 2016-04-14
JP2016054479A5 JP2016054479A5 (en) 2018-08-30

Family

ID=55745351

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2015159137A Pending JP2016054479A (en) 2014-09-02 2015-08-11 Imaging device, control method and program thereof, and imaging element

Country Status (1)

Country Link
JP (1) JP2016054479A (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2020039992A1 (en) * 2018-08-20 2020-02-27 ソニーセミコンダクタソリューションズ株式会社 Image processing device, and image processing system

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001008103A (en) * 1999-06-21 2001-01-12 Sony Corp Driving circuit for solid state image pickup element and solid state image pickup device
JP2005303588A (en) * 2004-04-09 2005-10-27 Seiko Epson Corp Image processing apparatus and image processing method
JP2011030097A (en) * 2009-07-28 2011-02-10 Sony Corp Imaging element, imaging device, signal processing method and program
US20120120289A1 (en) * 2010-11-12 2012-05-17 Sony Corporation Image outputting apparatus, image outputting method, image processing apparatus, image processing method, program, data structure and imaging apparatus

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001008103A (en) * 1999-06-21 2001-01-12 Sony Corp Driving circuit for solid state image pickup element and solid state image pickup device
JP2005303588A (en) * 2004-04-09 2005-10-27 Seiko Epson Corp Image processing apparatus and image processing method
JP2011030097A (en) * 2009-07-28 2011-02-10 Sony Corp Imaging element, imaging device, signal processing method and program
US20120120289A1 (en) * 2010-11-12 2012-05-17 Sony Corporation Image outputting apparatus, image outputting method, image processing apparatus, image processing method, program, data structure and imaging apparatus
JP2012120158A (en) * 2010-11-12 2012-06-21 Sony Corp Image output device, image output method, image processing device, image processing method, program, data structure, and imaging device

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2020039992A1 (en) * 2018-08-20 2020-02-27 ソニーセミコンダクタソリューションズ株式会社 Image processing device, and image processing system
CN112567727A (en) * 2018-08-20 2021-03-26 索尼半导体解决方案公司 Image processing apparatus and image processing system
JPWO2020039992A1 (en) * 2018-08-20 2021-08-10 ソニーセミコンダクタソリューションズ株式会社 Image processing equipment and image processing system
CN112567727B (en) * 2018-08-20 2023-04-07 索尼半导体解决方案公司 Image processing apparatus and image processing system
US11647284B2 (en) 2018-08-20 2023-05-09 Sony Semiconductor Solutions Corporation Image processing apparatus and image processing system with image combination that implements signal level matching
JP7357620B2 (en) 2018-08-20 2023-10-06 ソニーセミコンダクタソリューションズ株式会社 Image processing device and image processing system
US12058438B2 (en) 2018-08-20 2024-08-06 Sony Semiconductor Solutions Corporation Image processing apparatus and image processing system with gain correction based on correction control information

Similar Documents

Publication Publication Date Title
CN105432068B (en) Photographic device, image capture method and image processing apparatus
CN105814877A (en) Electronic device and method of controlling the same
KR101836432B1 (en) Image pickup apparatus, method for image compensation and computer-readable recording medium
JP2015104021A (en) Imaging device, imaging device, and mobile phone
JP6530658B2 (en) Imaging device, control method therefor, program, and recording medium
US10044956B2 (en) Image capturing apparatus, control method thereof, and storage medium
US10009544B2 (en) Image capturing apparatus, control method of the same and image sensor
JP6558976B2 (en) Imaging apparatus, control method and program thereof, and imaging element
JP2014131190A (en) Image pick-up apparatus, control method thereof, and control program
US9906749B2 (en) Image capturing apparatus capable of generating and adding pixel region information to image data, method of controlling the same, and image sensor
JP2019103066A (en) Electronic device, control method of the same, and imaging device
JP2020184699A (en) Imaging device and its control method
JP6363889B2 (en) Image pickup device, image pickup apparatus, and control method thereof
JP6559014B2 (en) Imaging apparatus, control method thereof, and program
JP4748399B2 (en) Image processing system, image processing apparatus, and image processing method
JP2016054479A (en) Imaging device, control method and program thereof, and imaging element
JP2006166252A (en) Imaging apparatus
JP2013074555A (en) Imaging apparatus and program
JP5482428B2 (en) Imaging apparatus, camera shake correction method, and program
JP2010056768A (en) Photographing system, and photographing device and operation device constituting the same
US20170332013A1 (en) Image capturing apparatus and control method of the same
JP6703784B2 (en) Imaging device, control method thereof, and imaging device
JP6577820B2 (en) Imaging apparatus, control method therefor, and program
JP2024089343A (en) File transfer device and file transfer method
JP5459771B2 (en) Electronic device, image processing method and program

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20180720

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20180720

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20190411

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20190510

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20190626

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20190913