[go: up one dir, main page]

JP4378890B2 - Image reading device - Google Patents

Image reading device Download PDF

Info

Publication number
JP4378890B2
JP4378890B2 JP2001073742A JP2001073742A JP4378890B2 JP 4378890 B2 JP4378890 B2 JP 4378890B2 JP 2001073742 A JP2001073742 A JP 2001073742A JP 2001073742 A JP2001073742 A JP 2001073742A JP 4378890 B2 JP4378890 B2 JP 4378890B2
Authority
JP
Japan
Prior art keywords
image data
image
unit
pixel
data
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2001073742A
Other languages
Japanese (ja)
Other versions
JP2002281234A (en
Inventor
貴之 畑瀬
誠之 荒瀬
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Panasonic Corp
Panasonic Holdings Corp
Original Assignee
Panasonic Corp
Matsushita Electric Industrial Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Panasonic Corp, Matsushita Electric Industrial Co Ltd filed Critical Panasonic Corp
Priority to JP2001073742A priority Critical patent/JP4378890B2/en
Publication of JP2002281234A publication Critical patent/JP2002281234A/en
Application granted granted Critical
Publication of JP4378890B2 publication Critical patent/JP4378890B2/en
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Images

Landscapes

  • Image Input (AREA)
  • Facsimile Heads (AREA)
  • Facsimile Scanning Arrangements (AREA)

Description

【0001】
【発明の属する技術分野】
本発明は、ラインセンサによって撮像対象の画像を読み取る画像読み取り装置に関するものである。
【0002】
【従来の技術】
電子部品実装装置などにおいて電子部品の位置認識を画像処理により行うための撮像手段として、CCDラインセンサが知られている。このCCDラインセンサは受光量に応じた電荷を蓄える受光セルを備えた画素を列状に配列し、その脇にCCD(電荷結合素子)転送路を配列したものである。CCDラインセンサ上に光学系により撮像対象物の光学画像を結像させると、各画素には対象物の光学画像に対応する電荷が蓄えられる。そして各画素の電荷をCCD転送路を使って順次転送し電気信号へと変換して順次出力させることにより、画素の配列方向、すなわち主走査方向の1次元画像データを得ることができる。そして電子部品を主走査方向と直交する副走査方向に相対移動させて得られた複数の1次元画像データを並列させることにより、所望の2次元画像データを求めるものである。
【0003】
ところでこのようなCCDラインセンサを用いて画像を読み取る際には、撮像目的に応じて取得画像の解像度を設定することができるように工夫されているものがある。すなわち、主走査方向に配列された各画素から出力される画像データのうち、読み取り対象となる画像データを予め設定されたパターンで間引くことにより、所望の解像度の画像を得ることができる。
【0004】
【発明が解決しようとする課題】
ところが、従来のCCDラインセンサで上記解像度の設定を行う場合には、画像データの取り込み対象とならない画素も含めて全ての画素の画像データを順次出力させる必要があり、その後に画像データを間引くことが行われる。そのため、間引きによって読み取るデータ量そのものは削減されても全画像データは出力されねばならないため画像データ出力に要する時間は短縮されず、画像読み取り時間も短縮されないので画像読み取り効率が悪いという問題点があった。
【0005】
そこで本発明は、画像読み取り効率を向上させることができる画像読み取り装置を提供することを目的とする。
【0010】
【課題を解決するための手段】
請求項記載の画像読み取り装置は、受光セルとこの受光セルから出力された画像データを保持するデータ保持部とを一組とする画素を複数個直列に並べたラインセンサと、このラインセンサを撮像対象物に対して相対的に移動させる相対移動機構と、前記ラインセンサの任意の画素のデータ保持部から画像データを読み取ることが可能な画素選択部と、前記画素のうち少なくとも隣接する2個の画素のそれぞれの受光セルから出力された画像データを合成した合成画像データを作成し、この合成画像データをこれらの受光セルに接続するデータ保持部の1つに保持させる画像データ合成部と、前記画素選択部を制御することにより前記合成画像データを保持するデータ保持部からこの合成画像データを読み取る制御部とを備えた。
【0011】
請求項記載の画像読み取り装置は、請求項記載の画像読み取り装置であって、前記合成の対象となる画素の数は、画像の解像度によって決定される。
【0012】
請求項記載の画像読み取り装置は、請求項記載の画像読み取り装置であって、前記制御部は、前記画素のうち指定された画像取込領域に対応する画素のデータ保持部から画像データを読み取るように前記画素選択部を制御する。
【0013】
請求項記載の画像読み取り装置は、請求項記載の画像読み取り装置であって、前記相対移動機構は、画像データを合成して出力する場合の前記ラインセンサと撮像対象物との相対移動速度を、画像データを合成して出力しない場合よりも高速にする。
【0014】
本発明によれば、ラインセンサを構成する画素のうち任意の画素のデータ保持部から画像データを読み取ることが可能な画素選択部を備え、この画素選択部を制御して所定間隔おきの画素のデータ保持部から画像データを読み取ることにより、また隣接する複数画素のそれぞれの受光セルから出力された画像データを合成した合成画像データを作成して読み取ることにより、所望の解像度の画像データを得ることができるとともに、必要な画素の画像データだけを出力するので画像読み取り時間を短縮することができる。
【0015】
【発明の実施の形態】
次に本発明の実施の形態を図面を参照して説明する。図1は本発明の一実施の形態の画像読み取り装置が組み込まれた電子部品実装装置の斜視図、図2は本発明の一実施の形態の画像読み取り装置の構成を示すブロック図、図3、図4、図5は本発明の一実施の形態の画像読み取り装置のラインセンサの構成を示す図、図6は本発明の一実施の形態の画像読み取り装置の画像取込領域の説明図である。
【0016】
まず図1を参照して電子部品実装装置について説明する。図1において、基台1の中央部にはX方向に搬送路2が配設されている。搬送路2は基板3を搬送し位置決めする。搬送路2の両側には電子部品を供給する部品供給部4が配設され、それぞれの部品供給部4には多数個のテープフィーダ5が並設されている。テープフィーダ5はテープに保持された電子部品を収納し、このテープをピッチ送りすることによりピックアップ位置に電子部品を供給する。
【0017】
基台1上面の両側端部には2基のY軸テーブル6A,6Bが並行に配設されており、Y軸テーブル6A,6Bには移載ヘッド8が装着されたX軸テーブル7が架設されている。移載ヘッド8は、下端部に電子部品を吸着する複数の吸着ノズル8a(図2)を備えている。Y軸テーブル6A,6BおよびX軸テーブル7を駆動することにより、移載ヘッド8は水平移動し、テープフィーダ5のピックアップ位置から電子部品をピックアップし基板3上へ移送搭載する。
【0018】
搬送路2と部品供給部4の間の移載ヘッド8の移動経路には、電子部品の画像を読み取るカメラ9が配置されている。カメラ9は後述するように、光電セルを備えた複数の画素をY方向に直列に配置したラインセンサ12を備えている。移載ヘッド8の吸着ノズル8aに保持された各電子部品を個別にカメラ9上に位置させた状態で、図示しない照明装置を点灯して下方から各電子部品を照明することにより、電子部品の光学画像が画素上に結像される。そしてこの光学画像を電気信号に変換した画像データが常時出力される。
【0019】
図2においてモータ7aはX軸テーブル7の駆動モータであり、モータ7aはエンコーダ7bを備えている。エンコーダ7bから出力されるパルス信号を後述するカメラ制御部10が受信することにより、したがって移載ヘッド8の吸着ノズル8aに保持された撮像対象物である電子部品の、ラインセンサ12に対する相対位置が位置情報として検出される。エンコーダ7bは撮像対象物のラインセンサ12に対する相対位置を検出する相対位置検出手段となっている。
【0020】
移載ヘッド8を移動させながらカメラ9によって電子部品Pの撮像を行うことにより、カメラ9は電子部品の走査画像を取得する。X軸テーブル7は、撮像対象物である電子部品のカメラ9のラインセンサ12に対して、画素の配列方向(Y方向)と直角に交差する一方向(X方向)に相対移動させる相対移動機構となっている。そして得られた走査画像を画像認識することにより電子部品の識別や位置検出が行われ、電子部品を基板3へ搭載する際にはこの部品位置検出結果に基づいて位置ずれが補正される。
【0021】
図2において、カメラ9はラインセンサ12、画素選択部11、カメラ制御部10より構成される。ラインセンサ12は、Y方向に直列に配列された複数の画素12aを備えている。ラインセンサ12上に光学画像を結像させることにより、各画素に備えられた受光セルが露光して電荷を蓄積する。そしてこの電荷を電気信号として出力させることにより、画像データが読み取られる。
【0022】
ここで図3を参照して、ラインセンサ12の構成を説明する。図3に示すように、ラインセンサ12は画素選択部11に接続されており、受光セル20、シフトゲート21、出力モード切換部22、混合部23、サンプルホールド部24より構成される。これらの構成要素のうち、それぞれ1つの受光セル20、シフトゲート21およびサンプルホールド部24によって図2に示す1つの画素12aが構成される。
【0023】
各構成要素について説明する。受光セル20は露光により電荷を蓄積する。シフトゲート21は受光セル20に蓄積された電荷を電気信号として出力する際の回路の断接を行う。出力モード切換部22は、シフトゲート21を混合部23またはサンプルホールド部24のいずれかに接続する切換を行う。この切換は後述するようにカメラ制御部10からの制御信号により行われ、これにより画像データの出力モードが切り換わる。
【0024】
混合部23は隣接する2つの受光セル20に蓄積された電荷を混合して1つの画像信号に合成し、合成画像データを作成する合成処理を行う。サンプルホールド部24は、受光セル20からシフトゲート21、出力モード切換部22を介して転送された電荷、もしくは混合部23によって合成処理された電荷を電圧値として保持する。すなわちサンプルホールド部24は、受光セル20から画像データとして出力された電荷を保持するデータ保持部となっており、画素12aは受光セル20およびデータ保持部としてのサンプルホールド部24とを一組とする構成となっている。
【0025】
各サンプルホールド部24は、画素選択部11の画素選択回路25と接続されており、画素選択部11をカメラ制御部10によって制御することにより、任意の画素のサンプルホールド部24と接続された画素選択回路25を開閉制御できるようになっている。すなわち画素選択部11は、任意の画素12aのデータ保持部からランダムに画像データを読み取ることが可能となっている。
【0026】
この開閉制御において、カメラ制御部10の指令によって所定間隔の画素選択回路25のみを閉にすることにより、これらの画素選択回路25と接続されたサンプルホールド部24からのみ画像データを出力させることができる。すなわちカメラ制御部10は、画素選択部11を制御して所定間隔おきの画素12aのデータ保持部から画像データを読み取る制御部となっている。画像データを読み取る対象となる画素12aを特定する所定間隔は、後述するように必要とされる画像の解像度によって決定される。
【0027】
ここで画像データの出力モードについて説明する。図3に示すように出力モード切換部22がa側に切り換えられている状態では、シフトゲート21を介して各受光セル20から出力される電荷は、そのままサンプルホールド部24に保持される。そして上述のように画素選択部11を制御して全ての画素選択回路25を閉にすることにより、全ての画素12aから画像信号を出力させる通常モードが実現される。
【0028】
また画素選択部11を制御して、所定間隔のサンプルホールド部24からのみ画像データが出力されるように画素選択回路25の開閉を制御することにより、所定間隔の画素12aからのみ画像データが出力される間引きモードが実現される。この間引きモードを選択すると、画像読み取り対象の画素12aからのみ画像データを出力させることから、出力される画像データ量が削減され、画像読み取り時間を大幅に短縮することができる。
【0029】
これに対し、出力モード切換部22をb側に切り換えることにより、隣接した2つの受光セル20の電荷は混合部23によって1つの画像データに混合され、1つ飛びのサンプルホールド部24に保持される。そしてこれらのサンプルホールド部24に対応した画素選択回路25のみが閉となるようにカメラ制御部10によって画素選択部11を制御することにより、2つの画素の画像データを混合し合成画像データとして出力する合成モードが実現される。すなわちカメラ制御部10は、画素選択部11を制御することにより合成画像データを保持するデータ保持部から、この合成画像データを読み取る制御部となっている。この合成モードを選択すると、合成の対象となる複数の画素からの画像データ出力が同時に行われ、最終的に出力されるのは合成された画像データのみとなるため、実質的に出力される画像データ量が削減されて、全体の画像読み取り時間を大幅に短縮することができる。
【0030】
図4、図5は、それぞれ本実施の形態におけるラインセンサの第2、第3実施の形態を示している。図4に示すラインセンサ12’は、前述の通常モード、間引きモードおよび2画素を対象とした合成モードに加えて、隣接した3つの画素12aの画像データを混合して合成する3画素合成処理ができるようになっている。すなわち図4に示すように、ラインセンサ12’では隣接した3つの画素の両端部の左右2つの画素に出力モード切換部22が接続されている。
【0031】
左側の出力モード切換部22をa側に、右側の出力モード切換部22をb側にそれぞれ切り換えることにより、隣接した3つの受光セル20の電荷が混合部23によって混合される。合成された画像データは、中央のサンプルホールド部24に保持され、画素選択回路25を介して出力される。そして両端部の出力モード切換部22の切換えを上記と逆にして、左側の出力モード切換部22をb側に、右側の出力モード切換部22をa側にそれぞれ切り換えることにより、全ての画素から画像データを出力する通常モードとなる。
【0032】
また図5に示すラインセンサ12’’は、出力モード切換部22および混合部23を2段階に備え、隣接する2画素分の受光セル20から出力された電荷を混合部23によって合成した後に、更にもう1段階の合成処理が行えるようにしたものである。これにより、通常モード、間引きモードのほかに、4画素分の受光セル20の電荷を混合して1つの画像データとする4画素合成処理が可能となっている。
【0033】
すなわち、上述の各実施の形態では、混合部23は、画素12aのうち少なくとも隣接する2個の画素12aのそれぞれの受光セル20から出力された画像データを合成した合成画像データを作成し、この合成画像データをこれらの受光セル20に接続するサンプルホールド部24の1つに保持させる画像データ合成部となっている。そしてカメラ制御部10が画素選択部11を制御することにより、合成画像データを保持するサンプルホールド部24からこの合成画像データが読み取られる。
【0034】
次に図6を参照して、図2に示す電子部品を対象とした画像読み取りについて説明する。画像読み取りに際しては、まず各電子部品を対象とした画像読み取りウインドウ(図6参照)に対応した画像取込領域が、ラインセンサ12に設定される。
【0035】
ここで画像読み取りウインドウは、画像読み取り対象の電子部品を包含するのに必要十分な大きさに設定され、Y方向についてはラインセンサ12の各画素のうち画像信号を出力すべき画素の範囲によって、またX方向については、ラインセンサ12と電子部品との相対位置を示す数値によって決定される。すなわち画像取込領域を設定するための取込領域設定データは、ラインセンサ12の各画素のうち画像信号を出力すべき画素の範囲を示す画像取込領域およびラインセンサ12と電子部品との相対位置を示す数値より構成される。
【0036】
そしてこれらの取込領域設定データに基づいて、カメラ制御部10が画素選択部11を制御することにより、画像読み取りウインドウの画像を得るために必要な画像信号を、ラインセンサ12から出力させる。すなわちカメラ制御部10は、ラインセンサ12の画素12aのうち、指定された画像取込領域に対応する画素12aのサンプルホールド部24から画像データを読み取るように、画素選択部11を制御する。
【0037】
カメラ制御部10はエンコーダ7bからのパルス信号を受信することによりラインセンサ12と電子部品との相対位置を示す位置情報を監視しており、この位置情報に基づいて複数の取込領域設定データを切り替える。すなわち位置情報を監視することにより画像読み取りウインドウの切り替えタイミングとなったことを検知したならば、予め記憶された取込領域設定データの中から、位置情報によって指定される画像読み取りウインドウに対応した画像取込領域を読み取り、この画像取込領域データにしたがって画素選択部11を制御する。
【0038】
またカメラ制御部10は、後述するように出力モード情報を画素選択部11に対して出力する。すなわち、画素選択部11を制御して所定間隔おきの画素のデータ保持部から画像データを読み取る。さらにカメラ制御部10は、画像の取り込みが完了したことを示す取り込み完了信号を画像認識部13に対して出力する。ラインセンサ12から出力された画像信号は、画像認識部13に取り込まれる。画像認識部13は、カメラ制御部10が発信する取込完了信号を受信すると、取り込まれた画像データを部品データ中に含まれるアルゴリズム番号によって指定された認識アルゴリズムに従って認識処理する。
【0039】
入出力制御部14は、カメラ制御部10、画像認識部13と処理・演算部15との間の信号の入出力を制御する。これによりカメラ制御部10は、取込領域設定データを入出力制御部14から受け取り記憶する。処理・演算部15は、以下に説明するデータ記憶部16に記憶されたデータに基づいて、プログラム記憶部17に記憶された処理プログラムを実行することにより、各種処理・演算を実行する。
【0040】
データ記憶部16には、実装データ16a、部品データ16b及び実装スケジュールデータ16cが記憶される。実装データ16aは、実装される部品の実装位置に関するデータであり、部品データ16bは、実装される部品の形状、サイズなど部品固有のデータであり、画像認識部13によって行われる認識処理に用いられるアルゴリズムに付されたアルゴリズム番号を含んでいる。また、実装スケジュールデータ16cは、実装作業手順に関する情報であり、各電子部品の実装順序がこの実装スケジュールデータ16cにより示される。
【0041】
またプログラム記憶部17には、取込領域設定プログラム17a、実装運転プログラム17bが記憶されている。取込領域設定プログラム17aは、後述するように部品データ中の部品のサイズや形状により画像取込領域の大きさや走査間隔を設定すると共に、この情報を取込領域設定データ(画素選択情報、X方向の位置を示す数値)として出力するプログラムである。実装運転プログラム17bは、電子部品を基板へ実装する実装動作のシーケンスプログラムである。
【0042】
ここで、取込領域設定プログラム17aを処理・演算部15で実行することにより、図6に示すように移載ヘッド8によって保持された状態の各電子部品Pa,Pb,Pc,Pdを対象として、画像読み取りウインドウA,B,C,Dが設定される。
【0043】
各画像読み取りウインドウA,B,C,Dに対応して設定されたX方向の数値X1〜X8は、移載ヘッド8をX方向に移動させるX軸テーブル7の機械座標系上の数値(例えばモータ7aのエンコーダ7bから出力されるパルス数)で表された数値である。ここで、(X1,X2)、(X3,X6)、(X4,X5),(X7,X8)は、それぞれ画像読み取りウインドウA,C,B,Dについての画像読み取りの開始、終了のタイミングを示すものである。
【0044】
換言すれば図6に示すX方向の各数値は、ラインセンサ12と移載ヘッド8とのX方向の特定の相対位置関係に対応しており、これらの数値によってラインセンサ12が水平移動中の移載ヘッド8とどのような位置関係にあるか判別することができる。例えば、モータ7aのエンコーダ7bからの位置情報(パルス信号)が、数値X1と一致したならば、電子部品Paを対象とした画像読み取りウインドウAからの画像読みとりを開始すべき位置に到達したことを示している。
【0045】
すなわち、カメラ制御部10にてモータ7aのエンコーダ7bから送られる位置情報を監視し、この位置情報が上述の各数値に一致したならば、それぞれの数値に対応した特定の相対位置関係が実現されたことが検出される。そしてこの検出結果に応じて、各種の動作制御、例えば移載ヘッド8の動作制御や以下に説明するラインセンサ12における画像取込領域の設定更新などが行われる。
【0046】
そして移載ヘッド8をX方向に移動させて撮像を行う画像読み取りにおいて、画像信号の出力対象として選択される画素の範囲、すなわちラインセンサ12の画像取込領域が設定される。例えば、上述のX方向の数値がX1〜X2の範囲にあり画像読み取りウインドウAを対象として画像を読み取る区間においては、図6に示すようにラインセンサ12の画素12a(Y0〜Ye)のうち、画像読み取りウインドウAのY方向の位置に対応して設定された画像取込領域(Y1〜Y2の範囲)の画素12aからのみ画像信号が出力される。さらに移載ヘッド8が移動して、画像読み取りウインドウB,C,Dをそれぞれ対象として画像読み取りを行う際には、同様に各画像読み取りウインドウB,C,Dを対象として設定される画像取込領域の画素からのみ、画像信号が出力される。
【0047】
上記画像読み取りにおいては、各画像読み取りウインドウA,B,C,Dごとに画像認識対象の電子部品の形状や種類に応じて異なる必要解像度が設定されており、ラインセンサ12からの画像データの出力に際しては、通常モード、間引きモード、合成モードが適宜選択される。すなわち、高精度の認識を必要とする電子部品を対象とする画像読み取りウインドウA,B,C,Dについては、高い解像度を実現するために通常モードが選択される。
【0048】
これに対し、解像度があまり必要とされない電子部品を対象とした画像読み取りウインドウA,B,C,Dについては、高速の画像読み取りを実現することを目的として間引きモードが選択される。この場合、間引きの程度を示す所定間隔は、必要とされる解像度によって決定される。すなわち必要解像度が低下するほど大きく間引きすることができ、したがって画像データを出力すべき画素の間隔を大きく設定する。
【0049】
そして、電子部品を保持した移載ヘッド8を移動させるX軸テーブル7の移動速度は、前記所定間隔に応じて設定される。ここで、間引きの程度が大きく画像データを出力すべき画素の間隔が大きいほど、画像読み取りのための移載ヘッド8の移動速度を高速に設定する。すなわちX軸テーブル7は、前記所定間隔に応じてラインセンサ12と電子部品を保持した移載ヘッド8との相対移動速度を調整する。
【0050】
なお間引きモードを選択する替わりに、合成モードを選択してもよい。これにより、データ数を減少させて画像読み取り効率を向上させることができるとともに、間引きモードの場合に発生する隣接画像データ間でのデータの離散度合いを低減させて、より滑らかな画像を得ることができる。
【0051】
この合成モードにおいても、合成の対象となる隣接する画素の数は、必要とされる解像度によって決定される。すなわち必要解像度が低下するほど、合成の対象となる画素の数を大きく設定する。そして合成の対象となる画素の数が大きくなるほど、画像読み取りのための移載ヘッド8の移動速度を高速に設定する。すなわちX軸テーブル7は、画像データを合成して出力する場合のラインセンサ12と撮像対象物との相対移動速度を、画像データを合成して出力しない場合よりも高速にする。
【0052】
上記説明したように本発明は、複数の画素を直列に配列したラインセンサによって走査画像を取得する際に、取得目的の画像に必要とされる解像度に応じて、画像読みとりの対象となる画素を間引く間引きモードや、隣接する複数画素の画像データを合成して1画素分の出力時間で出力する合成モードを選択できるようにしたものである。これにより、解像度を低く設定した場合には画像データの出力に要する時間が短縮され、効率的な画像読みとりを行うことができる。
【0053】
【発明の効果】
本発明によれば、ラインセンサを構成する画素のうち任意の画素のデータ保持部からランダムに画像データを読み取ることが可能な画素選択部を備え、この画素選択部を制御して所定間隔おきの画素のデータ保持部から画像データを読み取るように、また隣接する複数画素のそれぞれの受光セルから出力された画像データを合成した合成画像データを作成して読み取るようにしたので、所望の解像度の画像データを得ることができるとともに、画像読み取り時間を短縮することができる。
【図面の簡単な説明】
【図1】本発明の一実施の形態の画像読み取り装置が組み込まれた電子部品実装装置の斜視図
【図2】本発明の一実施の形態の画像読み取り装置の構成を示すブロック図
【図3】本発明の一実施の形態の画像読み取り装置のラインセンサの構成を示す図
【図4】本発明の一実施の形態の画像読み取り装置のラインセンサの構成を示す図
【図5】本発明の一実施の形態の画像読み取り装置のラインセンサの構成を示す図
【図6】本発明の一実施の形態の画像読み取り装置の画像取込領域の説明図
【符号の説明】
7 X軸テーブル
8 移載ヘッド
9 カメラ
10 カメラ制御部
11 画素選択部
12 ラインセンサ
12a 画素
20 受光セル
21 シフトゲート
22 出力モード切換部
23 混合部
24 サンプルホールド部
25 画素選択回路
[0001]
BACKGROUND OF THE INVENTION
The present invention relates to an image reading apparatus that reads an image to be imaged by a line sensor.
[0002]
[Prior art]
A CCD line sensor is known as an imaging means for performing position recognition of an electronic component by image processing in an electronic component mounting apparatus or the like. In this CCD line sensor, pixels each having a light receiving cell for storing a charge corresponding to the amount of received light are arranged in a line, and a CCD (charge coupled device) transfer path is arranged on the side. When an optical image of the imaging target is formed on the CCD line sensor by the optical system, a charge corresponding to the optical image of the target is stored in each pixel. Then, one-dimensional image data in the pixel arrangement direction, that is, the main scanning direction can be obtained by sequentially transferring the charges of each pixel using the CCD transfer path, converting them into electric signals and sequentially outputting them. Then, desired two-dimensional image data is obtained by paralleling a plurality of one-dimensional image data obtained by relatively moving the electronic component in the sub-scanning direction orthogonal to the main scanning direction.
[0003]
By the way, when an image is read using such a CCD line sensor, there are some which are devised so that the resolution of an acquired image can be set according to the purpose of imaging. That is, an image with a desired resolution can be obtained by thinning out image data to be read out of image data output from each pixel arranged in the main scanning direction with a preset pattern.
[0004]
[Problems to be solved by the invention]
However, when setting the above resolution with a conventional CCD line sensor, it is necessary to sequentially output the image data of all the pixels including the pixels that are not the target of image data capture, and then the image data is thinned out. Is done. For this reason, even if the amount of data read by thinning is reduced, all image data must be output, so the time required for image data output is not shortened, and the image reading time is not shortened. It was.
[0005]
SUMMARY An advantage of some aspects of the invention is that it provides an image reading apparatus capable of improving image reading efficiency.
[0010]
[Means for Solving the Problems]
An image reading apparatus according to claim 1, wherein a line sensor in which a plurality of pixels each including a light receiving cell and a data holding unit for holding image data output from the light receiving cell are arranged in series, and the line sensor A relative movement mechanism that moves relative to the imaging object; a pixel selection unit that can read image data from a data holding unit of an arbitrary pixel of the line sensor; and at least two adjacent pixels among the pixels An image data combining unit that generates combined image data obtained by combining the image data output from each light receiving cell of the pixel, and holds the combined image data in one of the data holding units connected to these light receiving cells; A control unit that reads the composite image data from a data holding unit that holds the composite image data by controlling the pixel selection unit.
[0011]
An image reading apparatus according to a second aspect is the image reading apparatus according to the first aspect , wherein the number of pixels to be combined is determined by a resolution of the image.
[0012]
The image reading apparatus according to claim 3, an image reading apparatus according to claim 1, wherein, the image data from the data holding unit of the pixel corresponding to the specified image capture regions of the pixel The pixel selector is controlled to read.
[0013]
The image reading device according to claim 4 is the image reading device according to claim 1 , wherein the relative movement mechanism is a relative movement speed between the line sensor and the imaging object when the image data is synthesized and output. Is made faster than when image data is synthesized and not output.
[0014]
According to the present invention, the pixel selection unit capable of reading the image data from the data holding unit of any pixel among the pixels constituting the line sensor is provided, and the pixel selection unit is controlled to change the pixels at predetermined intervals. By reading the image data from the data holding unit and by creating and reading composite image data obtained by combining the image data output from the light receiving cells of each of the adjacent pixels, image data with a desired resolution can be obtained. In addition, since only the image data of necessary pixels is output, the image reading time can be shortened.
[0015]
DETAILED DESCRIPTION OF THE INVENTION
Next, embodiments of the present invention will be described with reference to the drawings. 1 is a perspective view of an electronic component mounting apparatus in which an image reading apparatus according to an embodiment of the present invention is incorporated. FIG. 2 is a block diagram illustrating a configuration of the image reading apparatus according to an embodiment of the present invention. 4 and 5 are diagrams showing the configuration of the line sensor of the image reading apparatus according to the embodiment of the present invention, and FIG. 6 is an explanatory diagram of the image capturing area of the image reading apparatus according to the embodiment of the present invention. .
[0016]
First, an electronic component mounting apparatus will be described with reference to FIG. In FIG. 1, a transport path 2 is arranged in the X direction at the center of a base 1. The transport path 2 transports and positions the substrate 3. Component supply units 4 that supply electronic components are disposed on both sides of the conveyance path 2, and a large number of tape feeders 5 are arranged in parallel in each component supply unit 4. The tape feeder 5 stores electronic components held on the tape, and feeds the electronic components to the pickup position by pitch-feeding the tape.
[0017]
Two Y-axis tables 6A and 6B are arranged in parallel at both end portions of the upper surface of the base 1, and an X-axis table 7 on which a transfer head 8 is mounted is installed on the Y-axis tables 6A and 6B. Has been. The transfer head 8 includes a plurality of suction nozzles 8a (FIG. 2) for sucking electronic components at the lower end. By driving the Y-axis tables 6A and 6B and the X-axis table 7, the transfer head 8 moves horizontally, picks up an electronic component from the pickup position of the tape feeder 5, and transfers and mounts it on the substrate 3.
[0018]
On the movement path of the transfer head 8 between the conveyance path 2 and the component supply unit 4, a camera 9 that reads an image of the electronic component is disposed. As will be described later, the camera 9 includes a line sensor 12 in which a plurality of pixels including photoelectric cells are arranged in series in the Y direction. With each electronic component held by the suction nozzle 8a of the transfer head 8 being individually positioned on the camera 9, a lighting device (not shown) is turned on to illuminate each electronic component from below, thereby An optical image is formed on the pixel. Then, image data obtained by converting the optical image into an electrical signal is always output.
[0019]
In FIG. 2, a motor 7a is a drive motor for the X-axis table 7, and the motor 7a includes an encoder 7b. When the camera control unit 10 (to be described later) receives a pulse signal output from the encoder 7b, the relative position of the electronic component that is the imaging target held by the suction nozzle 8a of the transfer head 8 with respect to the line sensor 12 is accordingly changed. It is detected as position information. The encoder 7b is a relative position detection unit that detects a relative position of the imaging target with respect to the line sensor 12.
[0020]
The camera 9 acquires a scanning image of the electronic component by imaging the electronic component P with the camera 9 while moving the transfer head 8. The X-axis table 7 is a relative movement mechanism that relatively moves in one direction (X direction) perpendicular to the pixel arrangement direction (Y direction) with respect to the line sensor 12 of the camera 9 of the electronic component that is the imaging target. It has become. The obtained scanned image is recognized as an image to identify and detect the position of the electronic component. When the electronic component is mounted on the board 3, the position deviation is corrected based on the result of component position detection.
[0021]
In FIG. 2, the camera 9 includes a line sensor 12, a pixel selection unit 11, and a camera control unit 10. The line sensor 12 includes a plurality of pixels 12a arranged in series in the Y direction. By forming an optical image on the line sensor 12, a light receiving cell provided in each pixel is exposed to accumulate electric charges. Then, the image data is read by outputting this electric charge as an electric signal.
[0022]
Here, the configuration of the line sensor 12 will be described with reference to FIG. As shown in FIG. 3, the line sensor 12 is connected to the pixel selection unit 11 and includes a light receiving cell 20, a shift gate 21, an output mode switching unit 22, a mixing unit 23, and a sample hold unit 24. Among these components, one light receiving cell 20, shift gate 21, and sample hold unit 24 constitute one pixel 12a shown in FIG.
[0023]
Each component will be described. The light receiving cell 20 accumulates electric charges by exposure. The shift gate 21 connects and disconnects the circuit when outputting the electric charge accumulated in the light receiving cell 20 as an electric signal. The output mode switching unit 22 performs switching for connecting the shift gate 21 to either the mixing unit 23 or the sample hold unit 24. This switching is performed by a control signal from the camera control unit 10 as will be described later, whereby the image data output mode is switched.
[0024]
The mixing unit 23 mixes the charges accumulated in the two adjacent light receiving cells 20 to combine them into one image signal, and performs a combining process for creating combined image data. The sample hold unit 24 holds the charge transferred from the light receiving cell 20 via the shift gate 21 and the output mode switching unit 22 or the charge synthesized by the mixing unit 23 as a voltage value. That is, the sample hold unit 24 is a data holding unit that holds charges output as image data from the light receiving cell 20, and the pixel 12a includes the light receiving cell 20 and the sample hold unit 24 as a data holding unit as a set. It is the composition to do.
[0025]
Each sample hold unit 24 is connected to the pixel selection circuit 25 of the pixel selection unit 11, and the pixel connected to the sample hold unit 24 of an arbitrary pixel by controlling the pixel selection unit 11 by the camera control unit 10. The selection circuit 25 can be controlled to open and close. That is, the pixel selection unit 11 can read image data randomly from the data holding unit of an arbitrary pixel 12a.
[0026]
In this open / close control, only the pixel selection circuit 25 at a predetermined interval is closed by a command from the camera control unit 10 so that image data is output only from the sample hold unit 24 connected to the pixel selection circuit 25. it can. That is, the camera control unit 10 is a control unit that controls the pixel selection unit 11 and reads image data from the data holding unit of the pixels 12a at predetermined intervals. The predetermined interval for specifying the pixel 12a from which the image data is read is determined by the required image resolution, as will be described later.
[0027]
The image data output mode will be described here. As shown in FIG. 3, in the state where the output mode switching unit 22 is switched to the “a” side, the charge output from each light receiving cell 20 via the shift gate 21 is held in the sample hold unit 24 as it is. Then, by controlling the pixel selection unit 11 and closing all the pixel selection circuits 25 as described above, a normal mode in which image signals are output from all the pixels 12a is realized.
[0028]
Further, by controlling the pixel selection unit 11 to control the opening and closing of the pixel selection circuit 25 so that the image data is output only from the sample hold unit 24 at a predetermined interval, the image data is output only from the pixel 12a at the predetermined interval. The thinning mode is realized. When this thinning mode is selected, image data is output only from the image reading target pixel 12a, so that the amount of image data to be output can be reduced and the image reading time can be greatly shortened.
[0029]
On the other hand, by switching the output mode switching unit 22 to the b side, the charges of the two adjacent light receiving cells 20 are mixed into one image data by the mixing unit 23 and held in the one sample hold unit 24. The Then, by controlling the pixel selection unit 11 by the camera control unit 10 so that only the pixel selection circuit 25 corresponding to the sample hold unit 24 is closed, the image data of the two pixels are mixed and output as composite image data. The synthesis mode is realized. That is, the camera control unit 10 is a control unit that reads the composite image data from the data holding unit that holds the composite image data by controlling the pixel selection unit 11. When this combination mode is selected, image data output from a plurality of pixels to be combined is performed simultaneously, and only the combined image data is finally output. The amount of data is reduced, and the entire image reading time can be greatly shortened.
[0030]
4 and 5 show the second and third embodiments of the line sensor according to the present embodiment, respectively. The line sensor 12 ′ shown in FIG. 4 has a three-pixel synthesis process for mixing and synthesizing image data of three adjacent pixels 12a in addition to the normal mode, the thinning mode, and the synthesis mode for two pixels. It can be done. That is, as shown in FIG. 4, in the line sensor 12 ′, the output mode switching unit 22 is connected to the left and right two pixels at both ends of three adjacent pixels.
[0031]
By switching the left output mode switching unit 22 to the a side and the right output mode switching unit 22 to the b side, the charges of the three adjacent light receiving cells 20 are mixed by the mixing unit 23. The synthesized image data is held in the central sample hold unit 24 and output via the pixel selection circuit 25. Then, the switching of the output mode switching unit 22 at both ends is reversed to the above, and the left output mode switching unit 22 is switched to the b side and the right output mode switching unit 22 is switched to the a side. The normal mode for outputting image data is set.
[0032]
Further, the line sensor 12 '' shown in FIG. 5 includes an output mode switching unit 22 and a mixing unit 23 in two stages, and after the charges output from the light receiving cells 20 for two adjacent pixels are synthesized by the mixing unit 23, Furthermore, it is possible to perform another stage of synthesis processing. As a result, in addition to the normal mode and the thinning mode, four-pixel synthesis processing is possible in which the charges of the light-receiving cells 20 for four pixels are mixed into one image data.
[0033]
That is, in each of the above-described embodiments, the mixing unit 23 creates composite image data by combining the image data output from the light receiving cells 20 of at least two adjacent pixels 12a among the pixels 12a. This is an image data synthesizing unit that holds the synthesized image data in one of the sample hold units 24 connected to these light receiving cells 20. The camera control unit 10 controls the pixel selection unit 11 to read the composite image data from the sample hold unit 24 that stores the composite image data.
[0034]
Next, image reading for the electronic component shown in FIG. 2 will be described with reference to FIG. When reading an image, first, an image capturing area corresponding to an image reading window (see FIG. 6) for each electronic component is set in the line sensor 12.
[0035]
Here, the image reading window is set to a size that is necessary and sufficient to include the electronic component to be read, and the Y direction depends on the range of pixels that should output an image signal among the pixels of the line sensor 12. The X direction is determined by a numerical value indicating the relative position between the line sensor 12 and the electronic component. In other words, the capture area setting data for setting the image capture area includes the image capture area indicating the range of pixels to which an image signal should be output among the pixels of the line sensor 12, and the relative relationship between the line sensor 12 and the electronic component. It consists of a numerical value indicating the position.
[0036]
Then, the camera control unit 10 controls the pixel selection unit 11 based on these capture area setting data, thereby causing the line sensor 12 to output an image signal necessary for obtaining an image of the image reading window. That is, the camera control unit 10 controls the pixel selection unit 11 so as to read the image data from the sample hold unit 24 of the pixel 12a corresponding to the designated image capturing area among the pixels 12a of the line sensor 12.
[0037]
The camera control unit 10 receives position information indicating the relative position between the line sensor 12 and the electronic component by receiving a pulse signal from the encoder 7b, and a plurality of capture area setting data are obtained based on the position information. Switch. In other words, if it is detected that the timing for switching the image reading window is reached by monitoring the position information, the image corresponding to the image reading window specified by the position information is selected from the prestored capture area setting data. The capture area is read, and the pixel selector 11 is controlled according to the image capture area data.
[0038]
The camera control unit 10 outputs output mode information to the pixel selection unit 11 as described later. That is, the pixel selection unit 11 is controlled to read the image data from the pixel data holding unit at predetermined intervals. Furthermore, the camera control unit 10 outputs a capture completion signal indicating that the capture of the image is completed to the image recognition unit 13. The image signal output from the line sensor 12 is captured by the image recognition unit 13. When receiving the capture completion signal transmitted from the camera control unit 10, the image recognition unit 13 recognizes the captured image data in accordance with a recognition algorithm specified by an algorithm number included in the component data.
[0039]
The input / output control unit 14 controls input / output of signals between the camera control unit 10, the image recognition unit 13, and the processing / calculation unit 15. Thereby, the camera control unit 10 receives and stores the capture area setting data from the input / output control unit 14. The processing / arithmetic unit 15 executes various processes / calculations by executing a processing program stored in the program storage unit 17 based on data stored in the data storage unit 16 described below.
[0040]
The data storage unit 16 stores mounting data 16a, component data 16b, and mounting schedule data 16c. The mounting data 16a is data relating to the mounting position of the component to be mounted, and the component data 16b is data unique to the component such as the shape and size of the component to be mounted, and is used for recognition processing performed by the image recognition unit 13. Contains the algorithm number attached to the algorithm. The mounting schedule data 16c is information related to the mounting work procedure, and the mounting order of each electronic component is indicated by the mounting schedule data 16c.
[0041]
The program storage unit 17 stores a capture area setting program 17a and a mounting operation program 17b. The capture area setting program 17a sets the size and scan interval of the image capture area according to the size and shape of the part in the part data as will be described later, and captures this information as well as the capture area setting data (pixel selection information, X This is a program that outputs as a numerical value indicating the position in the direction. The mounting operation program 17b is a sequence program for mounting operation for mounting electronic components on a board.
[0042]
Here, by executing the capture area setting program 17a in the processing / arithmetic unit 15, the electronic parts Pa, Pb, Pc, and Pd held by the transfer head 8 as shown in FIG. Image reading windows A, B, C, and D are set.
[0043]
Numerical values X1 to X8 in the X direction set corresponding to the respective image reading windows A, B, C, and D are numerical values on the machine coordinate system of the X axis table 7 that moves the transfer head 8 in the X direction (for example, (The number of pulses output from the encoder 7b of the motor 7a). Here, (X1, X2), (X3, X6), (X4, X5), and (X7, X8) indicate the start and end timing of image reading for the image reading windows A, C, B, and D, respectively. It is shown.
[0044]
In other words, each numerical value in the X direction shown in FIG. 6 corresponds to a specific relative positional relationship between the line sensor 12 and the transfer head 8 in the X direction, and the line sensor 12 is moving horizontally by these numerical values. The positional relationship with the transfer head 8 can be determined. For example, if the position information (pulse signal) from the encoder 7b of the motor 7a coincides with the numerical value X1, it means that the position where the image reading from the image reading window A for the electronic component Pa is to be started has been reached. Show.
[0045]
That is, when the position information sent from the encoder 7b of the motor 7a is monitored by the camera control unit 10 and this position information matches each of the above numerical values, a specific relative positional relationship corresponding to each numerical value is realized. Is detected. In accordance with the detection result, various types of operation control, for example, operation control of the transfer head 8, and setting update of the image capturing area in the line sensor 12 described below are performed.
[0046]
Then, in the image reading in which the transfer head 8 is moved in the X direction and imaging is performed, a range of pixels selected as an image signal output target, that is, an image capturing area of the line sensor 12 is set. For example, in the section in which the numerical value in the X direction is in the range of X1 to X2 and an image is read for the image reading window A, among the pixels 12a (Y0 to Ye) of the line sensor 12 as shown in FIG. An image signal is output only from the pixel 12a in the image capture area (range Y1 to Y2) set corresponding to the position in the Y direction of the image reading window A. Further, when the transfer head 8 is moved and image reading is performed for each of the image reading windows B, C, and D, the image capturing set similarly for each of the image reading windows B, C, and D is performed. An image signal is output only from the pixels in the region.
[0047]
In the above image reading, different necessary resolutions are set for each of the image reading windows A, B, C, and D depending on the shape and type of electronic components to be recognized, and image data output from the line sensor 12 is output. At this time, the normal mode, the thinning mode, and the synthesis mode are appropriately selected. That is, for the image reading windows A, B, C, and D targeted for electronic components that require high-accuracy recognition, the normal mode is selected in order to achieve high resolution.
[0048]
On the other hand, the thinning mode is selected for the purpose of realizing high-speed image reading for the image reading windows A, B, C, and D targeted for electronic components that do not require much resolution. In this case, the predetermined interval indicating the degree of thinning is determined by the required resolution. That is, as the required resolution decreases, the image data can be thinned out greatly. Therefore, the interval between the pixels for outputting the image data is set large.
[0049]
Then, the moving speed of the X-axis table 7 for moving the transfer head 8 holding the electronic component is set according to the predetermined interval. Here, the moving speed of the transfer head 8 for image reading is set to be higher as the degree of thinning is larger and the interval between pixels from which image data is to be output is larger. That is, the X-axis table 7 adjusts the relative movement speed between the line sensor 12 and the transfer head 8 holding the electronic components according to the predetermined interval.
[0050]
Instead of selecting the thinning mode, the synthesis mode may be selected. As a result, the number of data can be reduced to improve the image reading efficiency, and the degree of data discreteness between adjacent image data that occurs in the thinning mode can be reduced to obtain a smoother image. it can.
[0051]
Also in this synthesis mode, the number of adjacent pixels to be synthesized is determined by the required resolution. That is, as the required resolution decreases, the number of pixels to be combined is set larger. As the number of pixels to be combined increases, the moving speed of the transfer head 8 for image reading is set to be higher. That is, the X-axis table 7 sets the relative movement speed between the line sensor 12 and the imaging object when the image data is synthesized and output as compared with the case where the image data is not synthesized and output.
[0052]
As described above, according to the present invention, when a scanned image is acquired by a line sensor in which a plurality of pixels are arranged in series, a pixel to be read is selected according to a resolution required for an acquisition target image. A thinning-out mode or a combining mode in which image data of a plurality of adjacent pixels are combined and output in an output time for one pixel can be selected. As a result, when the resolution is set low, the time required to output the image data is shortened, and efficient image reading can be performed.
[0053]
【The invention's effect】
According to the present invention, the pixel selection unit capable of reading image data at random from the data holding unit of an arbitrary pixel among the pixels constituting the line sensor is provided, and the pixel selection unit is controlled to be arranged at predetermined intervals. Since the image data is read from the pixel data holding unit, and the composite image data obtained by synthesizing the image data output from the respective light receiving cells of the adjacent pixels is created and read, an image with a desired resolution is obtained. Data can be obtained and the image reading time can be shortened.
[Brief description of the drawings]
FIG. 1 is a perspective view of an electronic component mounting apparatus in which an image reading device according to an embodiment of the present invention is incorporated. FIG. 2 is a block diagram illustrating a configuration of the image reading device according to an embodiment of the invention. FIG. 4 is a diagram showing a configuration of a line sensor of an image reading apparatus according to an embodiment of the present invention. FIG. 4 is a diagram showing a configuration of a line sensor of an image reading apparatus according to an embodiment of the present invention. The figure which shows the structure of the line sensor of the image reading apparatus of one Embodiment. FIG. 6 is explanatory drawing of the image taking-in area | region of the image reading apparatus of one embodiment of this invention.
7 X-axis table 8 Transfer head 9 Camera 10 Camera control unit 11 Pixel selection unit 12 Line sensor 12a Pixel 20 Light receiving cell 21 Shift gate 22 Output mode switching unit 23 Mixing unit 24 Sample hold unit 25 Pixel selection circuit

Claims (4)

受光セルとこの受光セルから出力された画像データを保持するデータ保持部とを一組とする画素を複数個直列に並べたラインセンサと、このラインセンサを撮像対象物に対して相対的に移動させる相対移動機構と、前記ラインセンサの任意の画素のデータ保持部から画像データを読み取ることが可能な画素選択部と、前記画素のうち少なくとも隣接する2個の画素のそれぞれの受光セルから出力された画像データを合成した合成画像データを作成し、この合成画像データをこれらの受光セルに接続するデータ保持部の1つに保持させる画像データ合成部と、前記画素選択部を制御することにより前記合成画像データを保持するデータ保持部からこの合成画像データを読み取る制御部とを備えたことを特徴とする画像読み取り装置。A line sensor in which a plurality of pixels each having a light receiving cell and a data holding unit for holding image data output from the light receiving cell are arranged in series, and the line sensor is moved relative to the object to be imaged. Output from each of the light receiving cells of at least two adjacent pixels among the pixels, and a relative selection mechanism that allows image data to be read from a data holding unit of an arbitrary pixel of the line sensor. The composite image data is generated by combining the image data, and the composite image data is held in one of the data holding units connected to the light receiving cells, and the pixel selection unit is controlled to control the pixel selection unit. An image reading apparatus comprising: a control unit that reads the composite image data from a data holding unit that holds the composite image data. 前記合成の対象となる画素の数は、画像の解像度によって決定されることを特徴とする請求項記載の画像読み取り装置。The number of that the pixel of the synthesis image reading apparatus according to claim 1, characterized in that it is determined by the resolution of the image. 前記制御部は、前記画素のうち指定された画像取込領域に対応する画素のデータ保持部から画像データを読み取るように前記画素選択部を制御することを特徴とする請求項記載の画像読み取り装置。Wherein the control unit, the image reading according to claim 1, wherein the controller controls the pixel selection unit to read the image data from the data holding unit of the pixel corresponding to the specified image capture regions of the pixel apparatus. 前記相対移動機構は、画像データを合成して出力する場合の前記ラインセンサと撮像対象物との相対移動速度を、画像データを合成して出力しない場合よりも高速にすることを特徴とする請求項記載の画像読み取り装置。The relative movement mechanism is characterized in that a relative movement speed between the line sensor and the imaging target when the image data is synthesized and output is higher than that when the image data is not synthesized and output. Item 2. The image reading apparatus according to Item 1 .
JP2001073742A 2001-03-15 2001-03-15 Image reading device Expired - Fee Related JP4378890B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2001073742A JP4378890B2 (en) 2001-03-15 2001-03-15 Image reading device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2001073742A JP4378890B2 (en) 2001-03-15 2001-03-15 Image reading device

Publications (2)

Publication Number Publication Date
JP2002281234A JP2002281234A (en) 2002-09-27
JP4378890B2 true JP4378890B2 (en) 2009-12-09

Family

ID=18931121

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2001073742A Expired - Fee Related JP4378890B2 (en) 2001-03-15 2001-03-15 Image reading device

Country Status (1)

Country Link
JP (1) JP4378890B2 (en)

Family Cites Families (16)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS6231843A (en) * 1985-08-01 1987-02-10 Fuji Photo Film Co Ltd Detection processing method for photographic picture information
JPS62236278A (en) * 1986-04-08 1987-10-16 Hamamatsu Photonics Kk Image sensor capable of random access
JPH03241968A (en) * 1990-02-20 1991-10-29 Canon Inc Picture reader
JPH04175618A (en) * 1990-11-07 1992-06-23 Canon Inc Photoelectric sensor
JPH04373270A (en) * 1991-06-21 1992-12-25 Fujitsu General Ltd Image pickup device
JPH05227362A (en) * 1992-02-10 1993-09-03 Mitsubishi Electric Corp Integrated circuit for close contact image sensor
JPH06197192A (en) * 1992-03-05 1994-07-15 Ricoh Co Ltd Driving method and apparatus for contact image sensor
JP3437208B2 (en) * 1993-03-15 2003-08-18 キヤノン株式会社 Signal processing device
JP3278243B2 (en) * 1993-06-18 2002-04-30 キヤノン株式会社 Photoelectric conversion device
JPH0730714A (en) * 1993-07-09 1995-01-31 Olympus Optical Co Ltd Solid-state image pickup element
JPH1065940A (en) * 1996-06-13 1998-03-06 Olympus Optical Co Ltd Image pickup device
JPH10200804A (en) * 1997-01-07 1998-07-31 Nikon Corp Camera type scanner
JPH11351838A (en) * 1998-06-12 1999-12-24 Nippon Telegr & Teleph Corp <Ntt> Image input method and apparatus and recording medium recording this method
JP2000134540A (en) * 1998-10-29 2000-05-12 Nec Corp Solid-state image pickup device and its driving method
JP2001028668A (en) * 1999-07-14 2001-01-30 Ricoh Co Ltd Scanner and image processing apparatus provided with the scanner
JP2001051360A (en) * 1999-08-06 2001-02-23 Asahi Optical Co Ltd Film scanner

Also Published As

Publication number Publication date
JP2002281234A (en) 2002-09-27

Similar Documents

Publication Publication Date Title
EP2741252B1 (en) Tdi sensor, image capturing apparatus, component testing apparatus, and substrate inspection apparatus
JP6238541B2 (en) High speed imaging method and high speed imaging apparatus
JP2001053496A (en) Electronic component mounting method
JP4381764B2 (en) IMAGING DEVICE AND OBJECT MOVING DEVICE EQUIPPED WITH THE DEVICE
JP2003060395A (en) Electronic component mounting method and mounting device
JP2000099702A (en) Image processing system using line sensor
KR100871132B1 (en) Image reading device and image reading method
JP3336774B2 (en) Electronic component mounting equipment
JP4378890B2 (en) Image reading device
JP4115683B2 (en) Electronic component mounting apparatus and electronic component mounting method
JP4298473B2 (en) Surface mount machine
JP2005072025A (en) Electronic component mounting equipment
WO2001035049A1 (en) Method and apparatus for component recognition
JP3738690B2 (en) Image reading apparatus and image reading method
JP2003223634A (en) Image reading apparatus and image reading method
JP4939391B2 (en) Mounting machine
JP3958604B2 (en) Recognition processing apparatus, recognition processing method, and component mounting apparatus including the recognition processing apparatus
JP2007141966A (en) Imaging device, component mounting machine
JP4538952B2 (en) Electronic component mounting method
JP2004104561A (en) CCD camera device
JPH09282464A (en) Image recognition device and its method
JP4031645B2 (en) Component mounting apparatus and component mounting method
JP2001144497A (en) Electronic component mounting method and device
JPH0719817A (en) Parts inspection device for mounter
JP2001028500A (en) Electronic component mounting equipment

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20070222

RD01 Notification of change of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7421

Effective date: 20070313

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20080403

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20080415

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20090623

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20090805

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20090825

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20090907

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20121002

Year of fee payment: 3

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20121002

Year of fee payment: 3

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20131002

Year of fee payment: 4

S111 Request for change of ownership or part of ownership

Free format text: JAPANESE INTERMEDIATE CODE: R313113

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

LAPS Cancellation because of no payment of annual fees