JP4615715B2 - Camera with object recognition function and data output - Google Patents
Camera with object recognition function and data output Download PDFInfo
- Publication number
- JP4615715B2 JP4615715B2 JP2000544127A JP2000544127A JP4615715B2 JP 4615715 B2 JP4615715 B2 JP 4615715B2 JP 2000544127 A JP2000544127 A JP 2000544127A JP 2000544127 A JP2000544127 A JP 2000544127A JP 4615715 B2 JP4615715 B2 JP 4615715B2
- Authority
- JP
- Japan
- Prior art keywords
- line
- camera
- time
- image
- detecting
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Expired - Lifetime
Links
Images
Classifications
-
- G—PHYSICS
- G07—CHECKING-DEVICES
- G07C—TIME OR ATTENDANCE REGISTERS; REGISTERING OR INDICATING THE WORKING OF MACHINES; GENERATING RANDOM NUMBERS; VOTING OR LOTTERY APPARATUS; ARRANGEMENTS, SYSTEMS OR APPARATUS FOR CHECKING NOT PROVIDED FOR ELSEWHERE
- G07C1/00—Registering, indicating or recording the time of events or elapsed time, e.g. time-recorders for work people
- G07C1/22—Registering, indicating or recording the time of events or elapsed time, e.g. time-recorders for work people in connection with sports or games
- G07C1/24—Race time-recorders
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N7/00—Television systems
- H04N7/18—Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast
- H04N7/188—Capturing isolated or intermittent images triggered by the occurrence of a predetermined event, e.g. an object reaching a predetermined position
Landscapes
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Engineering & Computer Science (AREA)
- Multimedia (AREA)
- Signal Processing (AREA)
- Cameras In General (AREA)
- Closed-Circuit Television Systems (AREA)
- Studio Devices (AREA)
- Television Signal Processing For Recording (AREA)
- Image Analysis (AREA)
Description
【0001】
(発明の分野)
本発明は、運動事象を監視し記録するためのシステムに関し、特定すると、数々の分野において応用を有する時間的逐次作像及び表示のためのカメラ及びシステムに関する。さらに詳しくは、計時されるスポーツ事象を測定し限定されたトラックに沿った様々な場所にて運動を作像するために有用な静止画像作製カメラ及びシステムを提供する。本発明はまた、本願出願人が有する米国特許第5,552,824号及び5,657,077号に記述されるように逐次走査されるライン対象物(または線状対象物)を編集することによって場面を生成するシステム及び方法に関する。
【0002】
標準的な写真技術を採用してレースのゴールラインを監視するシステムは、従来周知である。この種のシステムにあっては、普通高解像作像のために用意された1つまたは複数のカメラで、ゴールラインを観察し、審判またはその他のインタープリータによる後での検査のため逐次の画像を高速度で捕捉する。しかしながら、このプロセスは、例えば写真用フィルム及びペーパ装置、処理薬剤、像拡大装置または投影光学系を、操作、現像及び仕上げのそれぞれの方法とともに採用されるべきことを要するという点において、厄介であり、不経済であり、時間を浪費する。したがって、殆どのレースは人間の審判員に頼り、極度に接近した事象または重要な事象だけ「フォトフィニッシュ」技術に帰る。Specialty Instrument Corporationは、Accultrackなる商標でこの形式の多数の電子、フォトフィニッシュシステムを市販している。米国特許第3,829,869号は、一つのこの種のAccutrackシステムを例示している。
【0003】
「フォトフィニッシュ」技術には種々の問題があるので、競争事象を監視するための数々の他のシステムが開発された。しかしながら、スポーツ事象を計時するためのこれらの他の方法及びシステムは、新たな困難性をもたらす。標準的テレビジョンまたはビデオフォーマットでレースを記録し表示するビデオシステムは普及しているが、これらのシステムの特有な実施形態に拘わらず、電子像の一部は記録媒テープのようなアナログ媒体上に留まる。システムからのアナログデータは、時間に関する連続情報よりなるから、固有の時間間隔に正確に割り当てるのが比較的難しい。記録されたシーケンス内の特定の瞬間にアクセスするのはさらに一層困難である。何故ならば、関連するシステムは、普通、巻かれた型、例えばビデオカセット内に長い物理的長さを有する記録媒体をサーチしなければならない。これは、現在のレースを同時的に記録、観察し、そしてレースの前の部分(または先行のレース)を検討したいと思うユーザーに制限と困難性を与える。何故ならば、一人のユーザーしか任意の一時点に蓄積記録された情報の任意のものにアクセスできないからである。
【0004】
アナログデータでの他の困難性は、それが表示される前にビデオ、テレビジョンまたはコンピューターに有効な信号に変換されねばならないことである。例えば、サーチの完了後、ビデオテープの選択された部分は、普通アクティブメモリに送られ、しかる後コンピューターにより、そしておそらく補助の複雑なグラフィックジェネレータにより処理される。概して、アナログフォーマット及び関連する処理は、レースを検討するに必要な時間を増し、それゆえ判断プロセスを長引かせる。
【0005】
レースシステムにおいて直面する他の問題は、マラソンまたは自転車レースのような、長時間または参加者がゴールする迄続くことがある長時間事象の管理において起こる。ランナーまたは自転車競技者は、グループでゴールラインと交差する場合もあれば、長時間ゴールラインに人がいない場合もある。かくして、ゴールラインにおける関連情報は飛散的であり、相当の長さの「デッド時間」を包含する。アナログシステムにおいては、それにも拘わらず、「デッド時間」は画像記録と事象との時間同期を保つために、その他の理由において一般的に無用であると考えられていても、記録され蓄積され、レースを処理し観察するに必要な時間を増加させる。
【0006】
数種のレースシステムは、記録された情報をデジタル形式に変換することによって、レース中に採取されるデータの管理及びアクセス可能性を改良しようとした。しかし、これらのシステムは、スクリーン上にレースを表示する前に、アナログ形式に戻すことが多かった。例として、米国特許第4,797,751号は、一般の陰極線管(CRT)上に表示を行うためにデジタル及びアナログセクションを有するビデオ記録システムを開示している。米国特許第5,136,283号は、同様に、標準テレビジョンフォーマット上にレースを表示する一部デジタルのシステムを開示している。これらのアナログ/デジタルシステムは、全アナログシステムに固有の諸問題の多くをなお有している。
【0007】
上述の本願出願人が所有する米国特許第5,552,824号及び米国特許第5,657,077号に詳述される線形センサアレイ(または、線状センサアレイ)またはラインカメラも、現在このような作像の目的に適用されている。これらのカメラは、アセンブリラインの作像ならびに体育競技ゴールライン作像に使用された。これらのカメラは、限定された領域、すなわちカメラにより作像された線形(または線状)のストリップについてきわめて正確な時間解像度を有するという利点を与え、そして固定の場所に向けられる時系列のフレームを採ることによって、場面の通例の光学的空間像またはx,y次元像に対し容易に読み取り可能な類似性をもつ二次元の、線形/時間またはt,y次元像が形成され得る。本願出願人の上述の米国特許に述べたように、この種のカメラから得たストリームは、高い時間的及び空間的解像度をリアルタイムで提供するように移動する対象物を検出し処理するように使用し得る。これは、ライン画像データ(または、線状画像データ)のほぼ連続的流れを処理システムへ伝送することを伴い、この処理システムが関係する視野の注釈付け、索引付け、圧縮及び記憶を扱い、それにより関係する視野の小部分が、デジタルアクセスメモリに記憶され、詳細な検査のため、原像の収集から数分または数秒以内に容易に再呼び出しされ得るようになされる。しかしながら、このようなライン作像カメラシステムの有効な使用は、システムを操作する熟練技師によるソフトウエアを介在した費用のかかるデータ処理を必要とし、画像の組み立て、時間同期及び画像フレーム記録及びアクセスを行うためのデータ伝送及び同期に大きな負担がかかる。
【0008】
したがって、本発明の目的は、トラック上の平面と交差する物体の時間的に逐次の場面を記録し、表示するための改良されたカメラ及びシステムを提供することである。
【0009】
(本発明の要約)
本発明のこれら及びその他の諸目的は、以下の記述から明らかとなろう。本発明は、一側面において、空間内の平面を横切る物体の時間的に逐次のシーンを形成するカメラであって、限定された領域内における対象物の出現を認識して画像出力ストリームをトリガする、またはそれにフラグ付けするカメラをその特徴とする。システムは、関与するラインと交差する画像を作像するように向けられる少なくとも一つカメラを備え、そしてこのカメラが、対象物を検出器要素配列上に作像することによって対象物を時間的に逐次的に捕捉し、サンプルされた信号をデジタルライン画像(または、デジタル線状画像)またはフレームに変換し、これがフレームバッファに送られる。各デジタル画像フレームは、時間的瞬間に移動する場面の固定のスライス(または、断片)を一意的に表す。カメラ内にはプロセッサが配置されており、バッファと通信して、時間オフセットされたフレームの対応するピクセルまたはより大きなブロックからの情報を処理して、ライン視野領域(または、線状視野領域)に入った対象物を検出し、それに応答して、画像データ出力ストリームを制御し、あるいは画像ストリームと統合されたデータを生ずる。例えば、一側面においては、カメラは、画像領域内への対象物の到達及び画像領域からの離脱を検出し、その際画像データ出力ストリームを発生またはイネーブルするように、あるいは、ストリームに注釈付けしそしてかかる検出を指示することによってその情報内容を改善させるように動作する。基本的側面においては、カメラは画像領域における、あり得る対象物の進入または離脱を検出し、画像ストリームの関係する部分に注釈付けまたはそれをイネーブルしてもよい。他の側面においては、カメラは検出された画像データに作用して、対象物に基づく判断をなしてもよい。本発明のこの側面においては、プロセッサは、現れている特徴物の形状や配向のような像の特徴、または特徴の継続時間を検査し、対象物の存在を確認する。そのとき対象物の識別しや対象物の可能性の高い交差時間のような他の判断を行って、情報または結果に注釈を施す出力データストリームを出力し、事象データの処理及び結果のリアルタイムの発表を大幅に容易化してもよい。
【0010】
基本的具体例においては、プロセッサは、ゴールラインと交差する1つまたは複数の対象物の開始(すなわち、画像領域に対象物が入ってくること)を検出し、その領域がアクティブな期間中(すなわち、対象物が領域に存在する期間中)のみカメラからの画像データ出力ストリームをイネーブルする。静的(すなわち、動きの無い)または背景の画像フレームは、別個または非重要な処理のためにフラグ付けしてもよいし、データローカルメモリユニットとインターフェースされる別個のポートに送ってもよいし、あるいは単に圧縮し後で、前後のフレームから再構成してもよい。かくして、1つの具体例においては、情報を加えない表示場面のフレームは、一時的または恒久的に除去され、残りのフレームに対する時間基準を保持しながら、平面と交差する物体が存在しないフレームをストリームから効果的に抑制し、それにより、連続的な場面の可視的変化の全てを一括して表示する。あるいは、画像ストリームの静的部分を抑制しあるいは出力ストリームのオン/オフ制御のとして作用するのでなく、プロセッサが、ストリームのアクティブ(またはスタティック)フレームに単にフラグ付けし、それによりカメラ出力を受信する外部プロセッサが、適宜、アクセス、検査またはその他の処理または再構成のため、関係する画像フレームをより有効にコード化し、索引付けしそして適当なメモリ位置に記憶するように動作し得るようになされる。
【0011】
他の具体例においては、フレームの変化により作像領域に競争者の存在が指示されたときフレームデータを処理して、フォトセルの判断を遂行する。この処理は、馬の頭または体、またはランナーの腕、脚及び胴のような特徴物に対応するフレームデータのブロックを分類または比較して、ゴールライン交差の存在及び位置を確認する。プロセッサは、代表的には補間または後補間によりゴールラインの交差時間を求める。ゴールライン交差時間は、例えば馬の鼻やランナーの胴と関連したものとし得る。これらの判断は普通ソフトウエアの特徴点チェックルーチンによりなされるのであるが、このルーチンにより、対象物の本体サイズを事象の予測される速度及びカメラのフレーム速度に係数倍し、正確なゴールライン時間を推定する。ゴールライン時間の判断をトリガする前に物体の特徴を正しい順序で決定することによって、あるいは他の方法で対象物の存在を確認することによって、例えば実際の交差に先行することがある照明によるランナーの影等で誤ってトリガするのを回避する。
【0012】
さらに他の具体例においては、プロセッサはフレームデータを処理して、競争者を識別する番号のような作像対象物上のパターンまたは記号類を検出し、そしてこれらの対象物または符号が検出された出力フレームは、検出された識別子でフラグ付けまたは索引付けされる。ラインカメラは、レースのゴールラインまたはトラックに沿う中間位置のような関与する平面に設置してよい。この場合、フレーム時間は、ゴールラインまたは中間位置のいずれかの被観察平面にてフラグ付けされた識別子で処理してもよく、それにより以前の画像計時システムで必要とされたようなデジタル的に再構成された画像の審判による検査を待つことなく自動化態様で直接表示により、ランキングまたは相対位置、速度またはその他の評価を迅速に示すことができる。このようにしてこのデータで増大されたカメラ出力は、コンピューター化レース管理システムと直接インターフェースされ、それにより所望のフレームが検討のためそれらの索引付け情報により迅速にアクセスされるようになされる。コンピューターコンソールのユーザーは、本発明により提供される種々の機能を命令して、捕捉されたシーンを操作分析し得、さらに詳述すると、平面を横切って移動する物体の場面の任意の部分を表示し、一連のライン交差画像内において各フレームに対する競争者の関連する時間及び/または識別子にアクセスすることができる。
【0013】
本発明に従って構成されたシステムは、他の側面においては、カメラ内プロセッサと通信するカメラ内メモリサブシステムを備え、そこにおいて、対象物を検出し、背景を検出し、且つ、分析のためにカメラから出力されるアクティブな作像部分に対する開始時間及び/または終了時間を制御するためにフレームデータのブロックが処理される。本発明のこの側面に従うと、プロセッサは、作像されたフレームを分析し、フレーム伝送のための遡及的開始時間と予期される終了時間を設定して、保存される画像記録の一体化を保証し得る。カメラ内のタイマーは共通の時間ラインを維持し、伝送される部分のフレームは、時間でラベル付けされる。ゴールライン及びコース中間の追跡及び識別に加えて、カメラ及びシステムは種々のフォトセルによる判断に有用である。
【0014】
本発明のこれら及びその他の側面は、構造の詳細及び特定の好ましい具体例を例示する図面を参照して行った以下の説明からよく理解されよう。
【0015】
(本発明の詳細な説明)
図1は空間上の平面を横切る身体のシーケンス(すなわち、一連の場面)を画像化(または、映像化)し、記録するためのシステムに取り付けられた本発明のしたがったカメラ12を図示しており、トラックのゴールラインFL(finish line)と共に説明のために図示されている。以下に実施例と共に詳しく説明されるように、レース監視システムにおいて、カメラ12aも中間ラインLの画像を撮るために設置されてもよい。(本発明の)他の側面において、自動装置処理ライン(robotic process line)で(人物の)位置の画像を撮るためにシステムが設置されてもよいが、以下の説明の簡略化のため、イベント記録カメラ12を例にして詳しく説明する。
【0016】
図1に示されているように、カメラ12は時間分解画像データストリーム(time-resolved image data stream)を生成するために、ゴールラインが線形の(または、線状の)感知の配列(linear sensing array)に画像化され、その出力が高速で電子的にスキャンまたはサンプリングできるように、ゴールラインの横にカメラを設置するためのスタンドSに取り付けられ、方向付けられる。好まれるものとして、カメラはFL(ゴールライン)の垂直面に配置され、その平面が感知の配列に投射されるように方向付けられる。例えば、カメラはトラックの脇の適当な高さに取り付けられ、特定のケースでは、空中に(または、頭上に)取り付けられてもよい。カメラはレース管理システム10に接続され、そのシステムは多様なディスプレイや記録装置及びインターフェースに接続されたデジタルカメラ12及び画像管理コンピューター16を含む。
【0017】
図1Aにさらに詳細に示されているように、本発明のカメラ12は対物レンズ(または光学部品)15を備え、それは対物レンズ15自身の対象物の視野領域の線状部分18の像を検出器部分の配列20上に造る。検出器部分の配列20は、好まれるものとして、千から数千のピクセルの列を持ったLS−CCD(Line Scan Charge Coupled Device)である。画像化制御器22は連続的な画像データのフレームを取得するために、連続的な時間で検出器部品20で検出された光のレベルをサンプリングし、その出力をゲイン制御検出器増幅器24で増幅し、その処理された信号をA/D変換機でデジタル化する。各々が一列のピクセルを表す1つのフレームは1秒間当り数百以上(好まれるものとして、約400から1000)のレートで撮られ、バッファ25に格納される。バッファ25は、例えば、このサンプリングレートの未処理の画像の何十秒かに相当する、1メガバイトのVRAMで実施することができるだろう。サンプリングされた各画像は個々の瞬間のデジタル情報のフレームを表し、説明のために、線の配列を形成する約千の連続したピクセルの各々に対するピクセル値を持った順序データストリング(ordered data string)の形式を持つものとする。以下に詳細に説明されるが、センサから得られバッファに格納されるフレームはカメラ出力ストリーム(camera output stream)を形成するために、カメラ内でされに処理される。CCD20はモノクロ(グレースケール)でも、カラー(例えば、RGB)でもよいが、以下に述べられる鮮明度に関しては、対象物検出の好まれる実施に関連するいくつかの場合を除いて、モノクロのセンサについて説明される。一般に、カラーによる実施の場合にはスケール値ではなく、光の順序トリプレット(ordered triplet)が利用され、関連するデータ構造の独特な形式に合わせて多様なデータ圧縮方式が利用される。全体として、カラーパレチゼーション(color palletization)、カメラのデータストリーム圧縮、及びシステム10の画像管理等の実施の詳細については前述の本出願人の特許に説明されている。
【0018】
図1のレース管理システムでさらに詳細に示されているように、線Lの画像のためにトラックの他の場所(例えば、走者のスタート位置や順序を検出するためにスタートラインから数十メートルの位置や、競馬において中間の順序やタイムを検出するために1/4マイル表示の位置に)に第2のカメラ12aが配置されてもよい。カメラ12aはまた、その画像データを処理、格納し、職員によって評価されたり、タイミングシステムやディスプレイシステムに送られたりするためにシステム10に接続されるか、または通信可能状態にされる。カメラ12aは長いケーブルや、ラインマッチング、及び信号同期プロトコルやその他の処理の必要性を無くすために、好まれるものとして、無線伝送で通信する。この構成で、カメラ12aは通常、そのデータをカメラ12より早い期間に、またはカメラ12と異なった期間に供給し、システム10の入力画像を処理するデータ処理部分は、任意の時間において、どちらか一方のカメラからの画像データだけを処理すればよいので、システムは一般に、カメラ12aの出力を扱うための管理コンピューターに第2のチャネル、複雑なアドレッシングプロトコルまたはマルチプレクスプロトコルを備える必要性はない。
【0019】
以下にさらに詳細に説明されるが、カメラ12、12aは好まれるものとして、それらの画像出力ストリームを各々が「クロップ(crop)」する。本出願において、「クロップ」とは、カメラが画像がアクティブなとき(すなわち、カメラが必要な画面を撮影しているとき)だけ情報を送信することか、データストリームにストリームのアクティブな部分を示すフラグで注釈をつけることを意味する。後のケースの場合、画像データストリームと共に注釈が受信され、システム10のプロセッサはオペレーターの管理や制御を必要せずに、高いレベルの自動制御で動作する。
【0020】
本発明の基本原理にしたがうと、カメラの画像制御器22は画像の対象物の情報を検出し、それに対して応答し、外部の画像管理システム16への接続のための出力信号線28の画像データ出力に注釈を付けるか、または画像データ出力を制御するために、カメラ内でバッファ25に取得されたフレームを操作するための付加的な機能を実施する。配線28は説明の目的のために実際の配線のように示されているが、それが、例えばローカルラジオ周波数リンク等の、通信リンクでもよく、カメラがそれのデータをRF周波数によって送信してもよいことは理解されなければならない。
【0021】
いくつかの対象物検出操作がここで説明のために示される。イベント記録ラインカメラ(または、イベント記録線状カメラ)によって作られた二次元(線×時間)画像フレームは、画像化される対象物の線LまたはFLの対象物のドウェル時間(dwell time)に比例し、線を横切る対象物の速度に反比例するxまたは幅の寸法で、幅の方向に不鮮明になる(または、にじむ)ことは当業者にとって既知である。逆に言うと、背景のフィールドは、それがその前を通過する競技者によって妨害されない限り、常に同一であり、ラインセンサ20の各ピクセルの位置を横切る固定した色または強度の水平な帯を形成する。これらはバッファ25内の画像フレームとなり、以下で説明される対象物検出器がそれに対し動作する。好まれるものとして、各画像には参照時間(または、基準時間)が記録され、その時間情報はフレームのデジタル情報内に含まれる。好まれる実施例において、各フレームの参照時間はカメラ12が画像を撮影した時間を示す。これは実時間でも、あるいは外部のイベントやトリガ信号の開始に対する時間でもよく、または、スタート検出センサ84(図1)、外部の時間情報源、カメラの内部タイマー、または(好まれるものとして)前述の特許で説明されているシステム時間の同期プロトコルによって導き出されてもよい。
【0022】
一般に、外部コンピューター記憶装置及び画像分析システム16は未処理の画像データにインデックスを付けたり、索引付け、アクセス、画像データに現れる時間の素早い表示や分析のために、テキストを追加したり、画像を識別データとリンクさせたりするためのソフトウエア等を含んでもよい。このタイプのシステムは本出願人の前述の2つの米国特許に詳しく説明されている。
【0023】
周辺の事情を説明すると、外部管理システムのメイン制御コンピューター16は内部メモリ36内に格納された情報のブロックを処理し、ラインフレーム(または、線状フレーム)をディスプレイモニター42上に連続的なデジタルラインフレームの場面及び時間内容を表示するための二次元画像フレームにまとめる中央プロセッサ40を持つ。中央プロセッサ40はまた、好まれるものとして、自動制御動作及びシステム10のメモリ管理を制御し、さらに、ユーザーがリアルタイムの表示や以前に記録された部分を含む、システム10によって取得された全ての場面の表示を命令できるように、キーボード44及びマウス45の入力に応答する。特に、ゴール時間の即時の発表やゴール付近の画像による分析のために、特定の部分に関連した特有の時間にアクセスできるようにすることが考えられる。コンピューターの出力はさらに、結果の発表のための掲示板や、審判による即時の判定のための遠隔のモニター等の外部のディスプレイを駆動するように構成されてもよい。これらのような、多数の所望される外部のレース管理システムが現在、商業上の製品として存在し、それらの動作の説明はここでは必要ないと思われる。
【0024】
本発明のラインカメラシステム(または線状カメラシステム)で作製、記録される時間と位置の決定の理解のための例として、図2は水平軸に沿って移動中の対象物60を図示しており、そこにおいて、カメラ(図示せず)はその軸に実質的に垂直な面の視野の領域(または視野のフィールド(field of view))FOVと共に対象物60に焦点が合わされている。各フレームは対象物60、すなわち線状の対象物を撮影しているので、それらは単独の、且つ独立したデジタルライン画像フレーム(またはデジタル線状画像フレーム)として表される。図2において、システムによって撮影された連続的な対象物は説明のために、対象物60上の連続的な長方形の線62として示されている。各ライン画像62に対し、カメラ12は配列20の多数の検出器部分に対応した線状の対象物の画像をサンプリングすることによってそれぞれのフレームを生成する。すなわち、各ライン対象物(または線状対象物)62はカメラを通して対象物をセンサ20上に投射することによって、検出器の配列20によってサンプリングされ、対象物の長手方向に沿ってデジタル的に細分化された多数のピクセルを持ったデジタル画像フレームを形成する。リアルタイムの観点から言うと、対象物60が対象物平面に沿って移動するとき、ラインフレーム64は最も新しく撮られたフレームを表し、このラインフレーム64の左側にある対象物の部分はこれから撮影され、ラインフレーム64の右側にある線62は既に撮影されていることを表している。一続きの連続的なラインフレームは次に、1つの画像を形成するために互いに組み合わされる。
【0025】
この方法で組み合わされた対象物の場面または合成の画像は、それがコンピューター16に表示されたとき、カメラ12のFOV(視野の領域)を通過する対象物の実際の空間的な画像に類似しており、特に、対象物が比較的一定の速度で動き、フレーム速度が幅方向の寸法が対象物の通常の空間的な画像に対し実質的に拡大または縮小されないように、対象物の予想速度に比例するように選択されたとき、非常に類似する。このような画像において、例えば壁等の、ゴールラインに沿って存在する視野の領域の静止している背景70は連続的な線状画像に同一のものとして画像化されるので、フレームが連続的な線から組み合わされると、背景は静止した物体の決まった色または強度を持った水平の縞になって現れる。
【0026】
図3はゴールラインを通過する数人の走者をこの方法で形成した典型的な画像を図示している。この画像の生成のモードによるアーティファクトと共に、(走者によって隠されていないときは)いくつかの水平の縞として背景が現れており、各走者はゴールラインを通過する走者の身体の連続した片が呈する姿勢で固定している。横方向に沿って生じるわずかな寸法の伸びまたは縮みを除けば、各走者は固定したカメラ位置の展望から撮影された通常の空間的な画像にほぼ類似している。したがって、走者の衣類の色、エントリー番号、顔の特徴、及び他の識別のための特徴は画像として撮影される(または、撮影される可能性が高い)。
【0027】
ここでカメラの動作の説明に戻ると、図1Aのシステム10によって撮影された各デジタルラインフレームはバッファ25に格納され、制御マイクロプロセッサ22はカメラの出力を制御するためにこのライン画像データを操作する。本発明はいくつかの異なった対象物認識及び出力制御を意図しているが、それらの例が以下に説明される。最初に、線FLを通過する対象物の認識について説明する。
【0028】
図4は本発明の基本的なプロトタイプの実施例のこの動作を説明しているフローチャートである。この実施例において、カメラのマイクロプロセッサ22は、線状の視野の領域を横切る対象物の存在を検出するためにバッファ25からの未処理の画像を処理し、正確な時間の記録を保持しながら、ゴールラインがアクティブなときだけ(すなわち、走者がいるときだけ)カメラによって画像フレームが送り出されるように、出力データストリームを制御する。ハードウエアの観点から言うと、マイクロプロセッサはゴールラインの状態を検出するために、ラインフレームを適当なサイズのVRAM(例えば2MB−VRAM)の中にロードし、連続的なライン(すなわち、線状データ)を処理する。そして、アクティブでないフレームや不感時間の画像を単に圧縮したり、消去したり、システムの帯域幅を占有せずにテープにバックアップしたりしながら、動きの可能性があるパターンが検出されると、プロセッサはパターンを確認し、カメラの送信のために過去に遡ってアクティブな画像シーケンスの開始に印をつける。
【0029】
バッファ記憶装置またはVRAMに加え、カメラ内部のマイクロプロセッサ22は、好まれるものとして、32MB以上のRAMを持ち、カメラ自体が数分程度の時間分解されたアクティブなゴールラインの画像を格納することを可能にしてもよい。これはトラックや乗馬競技の通常のゴール期間に比べ十分長く、外部の伝送リンクのミスや装置の故障が発生した場合でも、分析に必要な場面はカメラのメモリに残すことができる。
【0030】
図4に示されているように、対象物検出は画像フィールドに入ってくる対象物の始まりを検出することにより行われる。これはフィールドへの対象物の立ち入りを決定し、それを確認するために、入力されるライン画像フレームをソート/比較処理することによりなされる。最初に、プロセッサは、説明のために8つの画像ラインの組をロードして8×1000ピクセルのサンプル(サンプルストリップ)を形成し、該サンプルを8×8ピクセルのブロックに分割する。したがって、各片(サンプルストリップ)は8×8ピクセルの125個の光−サンプリングブロックから成る。マイクロプロセッサは次に、同様な8つの画像ラインを分割し、2つの125個の光の値のブロックの組を持ち、連続的な画像の光の値の局在的な変化の量を測定するため、各ブロックのピクセル値を直前の対応するブロックのピクセル値と比較する。この比較は、例えば各ブロックのピクセルの値の合計の差を取ってもよい。連続的に検出された光の値の強度(または輝度)の全変化を表す差が、全てのブロックで、閾値T1(例えば合計された全ピクセルの強度の10%)より小さい場合、プロセッサは単に次の8つのラインを取り込み、それをブロックに分割し、再び、同様な比較を実行し、閾値レベルより大きい光の値の変化が検出されるまでこの方法を続ける。
【0031】
一定の強度及び同じ位置で画像化される静止した背景がピクセルのセンサのノイズレベルによって変動することは理解されなければならない。さらに、場面が室内であり、人工的な光によって照明されている場合、光の強度の線周波数に周期的な変動が起きる可能性がある。したがって、変化を検出するために複数の連続的なラインや複数のピクセル平均化ブロック(multi-pixel averaging block)を使用することは、光のレベルの意味のある変化の検出におけるノイズや周期的な光の変動の影響を減らすために有効である。よって、1秒間当り100から120のゼロ交差を持つ50から60Hzの線信号が存在する場合、サンプル周期と照明の明滅のアリアジング(aliasing)が間違った結果を誘発しないことを確実にするために約80から100ミリ秒のブロックが必要となる。検出用の閾値T1は8×8ブロックの予想されるノイズの変動より大きく設定されなければならない。全強度の10パーセントの値は視野の領域への意味のある動きを検出するために適当な閾値である。
【0032】
図4に詳しく示されているように、T1の閾値より大きいブロックの強度の差が検出されたとき、プロセッサはその時のブロックの最初のラインの時間t0に「対象物開始」フラグを設定する。もう1つの実施例において、プロセッサは差の検出のために連続した2個またはn個のブロックの間待ち、画像データに注釈を付けたり、出力制御信号を設定したりする前に、対象物の存在を再確認してもよい。この場合、カメラが計数を開始し、少なくとも、(例えば、)5回連続してブロックの差が続き、閾値より大きい場合、その変化は対象物が視野の領域を横切っているために発生したと認識されてもよい。プロセッサは過去のデータに遡ってアクティブなシーケンスの開始時に「対象物開始」フラグを設定する。フラグデータは外部のライン画像データの処理及びインデックス付けを行うために独立なデータ指示として連続的な画像データストリームと共に送られてもよいし、あるいは、その時間のカメラからの画像データ出力の開始を直接指示するために使用されてもよい。そして、それにより、画像データは対象物が検出されたときだけ送信されることができる。もう1つの実施例では、カメラは最初に検出された変化したフレームより前の時点、例えば0.1秒前の時点から画像データを取得するように設定されてもよく、それにより、ゴールラインのシーケンスは競技者がゴールラインに近づいたときの画像を含むことができ、競技者が(ゴールラインを)通過する最初の部分を表示することができる。したがって、胴体がリボンを通過する前の馬の鼻や、走者の手も表示することができる。通常ゴールラインの通過として考えられているイベントの前に起こる、そのような詳細な情報は、複数の競技者がほぼ同時に通過する場合に、不正確さを取り除くために便利である。例えば、数人の競技者が同時に視野の領域を遮り、重なっている場合でも、競技者の位置を識別するために突き出した手を利用することができるだろう。したがって、アクティブな画像のシーケンスは先頭の競技者の特定の部分を含むように設定されてもよい。
【0033】
図4にさらに示されているように、画像に一度走者が検出されると、プロセッサは付加的な情報を得るために画像フレームに現れた対象物の監視及び分析をする、異なった分析処理に切り替わる。基本的な実施例では、プロセッサは対象物が完全に通過したか、またはゴールラインの動作が終了したことを決定するために、初期の対象物トリガ分析に類似した方法で画像片のサンプリング処理を継続する。この処理に対する、その決定の適当な方法は図4Aに示されている。対象物の終了が検出されたとき、プロセッサは「対象物終了」フラグを設定し、出力制御器が出力ストリームをオフにするか、休止モードに入るようにする。この終了時の決定のために、プロセッサは全てのブロックの組の差が閾値T2より小さいかを検出する。できれば、プロセッサは移動する対象物の通過が終了したと決定する前に、より多いサンプル片に対しT2<T1の異なった閾値を利用するか、均質性の持続のためのもう1つの閾値レベルを利用するか、またはその両方を利用する。この操作はカメラの前の視野の領域に留まる静止した対象物というよりも、馬の胴体等の比較的均質的な対象物によるシーケンスの終了の間違った信号を避ける。カラーカメラによる実施例の場合、検出モジュールはこれらの決定のために検出測定として強度(または、輝度)の代わりに(または強度に加えて)色の変化を利用するように設定されてもよい。動作の終了が検出されたとき、「対象物終了」フラグは静的な信号レベルに達するフレームグループの最初のラインであってもよいし、または、それの後の瞬間的な断片(の信号)の設定でもよい。そして、それは画像出力の伝送を終了させるための出力制御の信号を出すか、あるいは、(クロップ操作がカメラ出力ストリームの物理的な切り替えではなく、フレームへの注釈付けの場合、)フレームにラベルを付ける。
【0034】
まとめると、対象物認識出力制御器は最初に対象物の移動と考えられるものを識別し、移動の存在を確認し、そして過去のデータに遡ってアクティブな画像フレームを識別する。同様に、シーケンスの終わりに、静止している場面と考えられるものを識別し、それを確認し、そして少なくとも最後のアクティブなフレームまで拡張するようにクロップの終了時間を設定する。この方法により、検出、記録、及びゴールラインを通過する動きを判定するために必要な画像の部分だけに注釈がつけられカメラから送信される。そして、これらは対象物検出に基づいてカメラ内部の制御器によって自動的に選択される。比較的小さいアクティブ画像の集合部分がカメラによって予め識別されるので、この方法による自動的な対象物認識は外部のコンソールで画像データを視聴し、選択する人間の監視者や、外部の膨大なロール式の画像バッファ及びクイックアクセスメモリ記憶装置の必要性を無くす。
【0035】
前述されたように、ゴールラインを横切る対象物が存在しないとき、背景の場面は静止している。本出願人の前述の特許にさらに詳細に説明されているが、ライン間圧縮(line-to-line compression)アルゴリズムを使用することによって、静的なシーケンスを符合化するためのデータの量は非常に小さくすることができ、それらをカメラ内で圧縮することにより、外部のバス配線は未処理のラインデータ(または、線状データ)の膨大な流れを扱う必要が無い。本発明のシステムはさらに付加的な操作上の改善を与える。すなわち、カメラ内部のプロセッサは関係のありそうな画像データの短い継続時間だけを効果的に送信し、システム16から判るように、システムは必要なときだけ、それ自体を効果的にオン及びオフすることができる。実際、典型的なゴールラインの通過の時間は30秒以下であるので、カメラ内の32MBのRAMだけでも、カメラは1つのレースの関連するデータの全ての部分を効果的に格納することができるだろう。各ラインフレームはそれが撮影された時間を含んでいるので、最後のフレームから静的な不感時間の場面を再構成するために必要なのは開始と終了の時間だけである。
【0036】
カメラのラインセンサ(または、線状センサ)によって生成される画像データのアクティブな部分にフラグを付けることに加え、本発明はさらに対象物ベースのデータを作り出すために対象物を識別するための内部処理をする事も意図している。これは図5に図式的に示されている。2つの特徴的なデータのタイプが図示されている。一方は競技者が通過するときに、競技者の色、番号、バーコードや他の個人的な特徴を検出するために画像分析のサブルーチンによって処理する対象物識別である。これは後で詳細に説明される。もう1つは、ここで説明されるもので、フォトセル決定(photocell determination)と呼ぶ。本発明の後のケースの側面にしたがうと、もっともらしいゴールタイムを決定するために、カメラ内部のプロセッサは競技者をテンプレートに当てはめるために、対象物を含んだフレームのより詳細な分析を実施し、身体の特定の部分を認識し、種類/イベント特殊補完ルールまたは推定ルールを利用する。
【0037】
これらの方法が適用された場合、例えば馬の場合、プロセッサはゴールラインを通過する馬の身体を検出するために頭上からの画像ラインを処理し、(水平方向の距離のスケールに影響を与える)フレームレート及びイベント速度を修正しながら、身体(すなわち、馬体)の中間点より、特定の(固定)時間または(固定)距離だけ前に起きたフレームによってゴールタイムを特定する。この推定はその種類(の馬)の標準的な大きさや形状に基づいた推定時間を与え、掲示板に表示される初期の発表のために使用することができる。例えば、プロセッサは馬の鼻をその馬の中心から1.6m前にあると設定したり、グレーハウンドの鼻が中心から0.7m前にあると設定したりする。画像出力データストリームに特定の時間を加えることにより、即座の指標がレース管理システムに与えられ、その後に、正確なゴールタイムを決めるために完全なフレーム画像が構成され、再評価される。図3は人間のトラックイベントに対する典型的なゴールの構成を示している。人物に上述の方法が適用された場合、関連する画像の分析はフィールド上の手、腕、または足の初期の出現によって引き起こされる。この場合、画像分析は、例えば、もっともらしいゴールは最初の手足の30から50cm後であると設定したり、胴や腹等の身体の重心を検出するようにさらに画像分析を進めたりして、これらの形状の出現によりゴールタイムを推定する等の、特定のルールによって分析される。レースの職員は画像フレームを調べ、例えば、胴が前方に傾いているかどうかを観察し、実際に合成フレームのどのラインが胴の先頭を含んでいるかを見ることにより正確なゴールタイムを決定する。他のフォトセル通過決定もイベントの速度や競技者の種類に特有のルールを利用することによって容易に実施することができるだろう。
【0038】
ここでカメラの対象物認識及び形状認識の説明に戻ると、上述の説明はピクセル値がスカラー値である場合に関してであることに注意しなければならない。しかしながら、3色のラインカメラが利用された場合、動きの決定はより速い処理、より正確な対象物認識、または特定の形状、識別子の検出を達成するために異なった方法で処理することもできる。単純な対象物検出に対するそのような1つの変更は、より洗練された場面の変化のテストを行うために、連続的なサンプル片のブロックの3つの異なったカラー値を独立に比較し、その差を独立に合計することである。例えば、赤い色が全体を通して無い場合に、赤いピクセルの突然の出現は直ぐに新しい対象物の到着を示すことができる。このカラー比較決定は対象物認識決定のために必要なブロックのサイズを減らす。あるいは、競技者の服装の色や目立つ色の組み合わせによって各自を識別するために、競技者に特定の色のマーカーやユニフォームが割り当てられてもよい。プロセッサはこの場合、好まれるものとして、(例えば、ロイヤルブルー=ジョースミス=競技者番号17等の)画像内の各競技者に関連した色を記憶し、そのデータを出力ストリームに供給するようにプログラムされる。
【0039】
あるいは、レース管理システムは検出された識別子を事前に設定された走者の識別子の表と比較してもよい。この場合、カメラから受信された色の注釈が付けられた画像ストリームは、色を識別子表と照らし合わせ、走者の名前をディスプレイに表示する単純なサブルーチンへ送られる色及び時間の要素を持つ。このような識別子表は初期設定の処理中に、好まれるものとして、外部のレース管理システムによって実施される。例えば、プロセッサがその独特の色を分析及び記録し識別子表を設定するために、独立したハンディタイプのカメラにより各競技者が撮影され、競技者の個人情報を入力が入力されてもよい。この場合、本発明の対象物により制御されるラインカメラは、例えば、カメラの出力データストリームに存在する各ライン画像フレームのプリアンブルに英数字等の必要な識別データを供給するために付加的な処理をする。
【0040】
本発明はさらに、制御器22がその視野上の特定の対象物を識別するために動作するとき、プロセッサが光の変化の決定や色の決定以外の付加的な画像分析を実行することも意図している。そのような付加的な処理は、例えば、比較的狭い画像領域に複数の色が同時に現れたとき、走者の重なった画像を分割し、個々の色を決定するためのエッジ認識及び対象物分割を含んでもよい。本発明はまた、各競技者が画像上で認識できる特別の識別子のマーカーを身に付けた場合のシステムも意図している。したがって、例えば、馬のイベントで使用される場合、マーカーは馬の背中に取り付けられ、カメラが上空からゴールライン(または、トラック中の中間点)の画像を撮ることにより、全てのマーカーがカメラ方向を向き、隣接する走者に邪魔されないようにすることができる。そのようなマーカーは、例えば、特徴のある組み合わせを形成する、特定の向きのバーコードや、異なった色の線またはブロックを含む。カラーマーキングが、素早い、信頼性のある決定を確実にするために形成されてもよい。これは、例えば、カラーバンドに異なった色を配色し、それらがカメラの別々の検出ピクセルに画像化され、検出ピクセルが実質的なドウェル時間を持つことを確実にするような方法で配置または方向付けすることによって達成することができる。例えば、バンドは動きと平行な方向で身に付けられ、それらに画像上の延長されたドウェル時間を与え、それらがセンサの別々のピクセルに画像化されるように移動方向に垂直にオフセット(すなわち、幅)を設けてもよい。それらはまた、サイズが許す限り、移動方向にもオフセットを設け、画像の色の組み合わせの時間分解が行われてもよい。これは、ライン画像が画像センサに沿って狭くて高いブロックでサンプリングされるときや、短い継続時間だけで画像化される場合に、それら(カラーバンド)を容易に検出させる。
【0041】
もう1つの実施例において、プロセッサは競技者のユニフォームのゼッケンを単に読み取るために、光学的文字認識モジュールを組み込んでもよいし、バーコード識別子を認識するためにバーコードリーダーのパターンを使用した画像ラインを処理してもよい。しかしながら、一般に、対象となるマーカーのオクルージョン(occlusion)や間違った読み取りの可能性を減らすために、文字またはバーコード技術の使用よりも、ラインカメラ検出のために構成されたマーク、及び、好まれるものとしてのカラー識別子マーカーの使用が好まれる。
【0042】
イベント認識システムを使用する場合、レースのゴールライン等の対象物によってトリガが掛けられる本発明のラインスキャンカメラシステムは外部システム部分に課せられるリアルタイムの帯域幅の要求を大幅に減らし、必要な画像データの伝送に目立った遅延を起こさずに、1000分の1秒またはそれ以下の位置を記録し分解するために操作されることができるだろう。出力フレームのデータの注釈は、静的時間または不感時間による物理的なクロップを利用しない場合でも、外部のレース管理システムに設置されるデータハンドリング及びRAM記憶装置を減らす結果となる。
【0043】
本発明は代表的な実施例及び特徴で開示され、説明されているが、この分野の技術者にとってさらなる変更や等化物は明白であり、そのような変更、改良、等化物も付随する請求の範囲で規定される本発明の範囲であると見なされる。
【図面の簡単な説明】
【図1】 平面と交差する物体の時間的に逐次のシーンを記録し表示するための本発明に従うカメラを採用したシステムを示す概略線図である。
【図1A】 図1のカメラ及びシステムの詳細図である。
【図2】 離散的にサンプルされたライン対象物から本発明に従って構成された代表的像を示す図である。
【図3】 本発明に従ったシステムによって生成されたレースの場面の典型的な表示を図示している。
【図4】 本発明に従う像出力制御のためのカメラ内検出器の動作を示すフローチャートである。
【図4A】 出力制御のための内部対象物検出処理を例示するフローチャートである。
【図5】 他の情報処理を例示するフローチャートである。
【符号の説明】
10 レース管理システム
12、12a カメラ
15 対物レンズ
16 外部の画像管理システム
18 対象物の視野領域の線状部分
20 ラインセンサ(または、検出器の配列)
22 カメラ内部の画像化制御器
24 ゲイン制御検出器増幅器
25 カメラ内部のバッファ
26 A/D変換機
28 出力信号線
36 内部メモリ
40 中央プロセッサ
42 ディスプレイモニター
44 キーボード
45 マウス
60 移動中の対象物
62 ラインフレーム
64 最も新しいラインフレーム
70 背景[0001]
(Field of Invention)
The present invention relates to a system for monitoring and recording motion events, and more particularly to a camera and system for temporal sequential imaging and display having applications in numerous fields. More particularly, still image production cameras and systems are provided that are useful for measuring timed sporting events and imaging motion at various locations along a limited track. The present invention also provides a system and method for generating a scene by editing sequentially scanned line objects (or linear objects) as described in commonly owned US Pat. Nos. 5,552,824 and 5,657,077. About.
[0002]
Systems that monitor race goal lines using standard photographic techniques are well known in the art. In this type of system, the goal line is observed with one or more cameras, usually prepared for high-resolution imaging, and sequentially used for later inspection by a referee or other interpreter. Images at high speed. However, this process is cumbersome in that it requires, for example, photographic film and paper equipment, processing agents, image magnifiers or projection optics to be employed with each method of manipulation, development and finishing. It is uneconomical and wastes time. Thus, most races rely on human referees and return to the “photofinish” technique only for extremely close or significant events. Specialty Instrument Corporation markets a number of electronic and photofinish systems of this type under the trademark Accultrack. U.S. Pat. No. 3,829,869 illustrates one such Accutrack system.
[0003]
Due to various problems with the “photofinish” technology, a number of other systems for monitoring competitive events have been developed. However, these other methods and systems for timing sporting events introduce new difficulties. While video systems that record and display races in standard television or video formats are widespread, regardless of the specific embodiments of these systems, some of the electronic images are on analog media, such as recording media tape. Stay on. Since analog data from the system consists of continuous information about time, it is relatively difficult to accurately assign to unique time intervals. It is even more difficult to access a specific moment in the recorded sequence. This is because the associated system usually has to search for a recording medium having a long physical length in a rolled mold, for example a video cassette. This places limitations and difficulties on users who want to simultaneously record and observe the current race and consider the previous part of the race (or the previous race). This is because only one user can access any of the information stored and recorded at any one time.
[0004]
Another difficulty with analog data is that it must be converted to a valid signal for video, television or computer before it can be displayed. For example, after the search is complete, the selected portion of the videotape is usually sent to active memory and then processed by the computer and possibly by an auxiliary complex graphics generator. In general, the analog format and associated processing increases the time required to consider a race and therefore lengthens the decision process.
[0005]
Another problem faced in the racing system occurs in the management of long events, such as marathons or bicycle races, which can last long or until participants finish. Runners or cyclists may cross the goal line in a group or may not have people on the goal line for a long time. Thus, the relevant information in the goal line is scattered and includes a considerable amount of “dead time”. In analog systems, nonetheless, “dead time” is recorded and stored, even though it is generally considered useless for other reasons, in order to keep time synchronization between image recording and events, Increase the time required to process and observe the race.
[0006]
Several race systems have sought to improve the management and accessibility of data collected during the race by converting the recorded information into a digital format. However, these systems often reverted to analog form before displaying the race on the screen. As an example, U.S. Pat. No. 4,797,751 discloses a video recording system having digital and analog sections for display on a common cathode ray tube (CRT). U.S. Pat. No. 5,136,283 similarly discloses a partially digital system for displaying races on standard television formats. These analog / digital systems still have many of the problems inherent in all analog systems.
[0007]
The linear sensor array (or linear sensor array) or line camera detailed in US Pat. No. 5,552,824 and US Pat. No. 5,657,077 owned by the above-mentioned applicant are also currently applied for such imaging purposes. Has been. These cameras were used to create an assembly line as well as a sports goal goal line. These cameras offer the advantage of having a very accurate time resolution for a limited area, ie, a linear (or linear) strip imaged by the camera, and time-series frames that are directed to a fixed location. By taking, a two-dimensional, linear / time or t, y-dimensional image with easily readable similarity to a typical optical aerial image or x, y-dimensional image of the scene can be formed. As mentioned in the above-mentioned US patent of the applicant, the stream obtained from this type of camera is used to detect and process moving objects to provide high temporal and spatial resolution in real time. Can do. This involves transmitting a nearly continuous stream of line image data (or line image data) to the processing system, which handles the annotation, indexing, compression and storage of the field of view that this processing system is concerned with; A smaller portion of the field of view that is more relevant is stored in the digital access memory so that it can be easily recalled within minutes or seconds of acquisition of the original image for detailed examination. However, effective use of such a line imaging camera system requires costly data processing through software by skilled technicians operating the system, and image assembly, time synchronization and image frame recording and access. A large burden is imposed on data transmission and synchronization for performing.
[0008]
Accordingly, it is an object of the present invention to provide an improved camera and system for recording and displaying temporally sequential scenes of objects that intersect a plane on a track.
[0009]
(Summary of the Invention)
These and other objects of the invention will become apparent from the following description. In one aspect, the present invention is a camera that forms a temporally sequential scene of an object that crosses a plane in space, and recognizes the appearance of an object within a limited area and triggers an image output stream. Or a camera flagging it. The system comprises at least one camera that is directed to image an image that intersects the lines involved, and the camera temporally images the object by imaging the object on the detector element array. Sequentially capture and convert the sampled signal into a digital line image (or digital linear image) or frame that is sent to the frame buffer. Each digital image frame uniquely represents a fixed slice (or fragment) of the scene that moves at a time instant. A processor is located within the camera and communicates with the buffer to process information from the corresponding pixel or larger block of the time offset frame into the line view area (or linear view area). An incoming object is detected and in response, the image data output stream is controlled, or data integrated with the image stream is produced. For example, in one aspect, the camera detects the arrival and departure of an object into the image area, and generates or enables an image data output stream, or annotates the stream. Then, by instructing such detection, the information content is improved. In a basic aspect, the camera may detect possible object entry or departure in the image area and annotate or enable the relevant part of the image stream. In another aspect, the camera may act on the detected image data to make a determination based on the object. In this aspect of the invention, the processor checks the image features, such as the shape and orientation of the emerging features, or the duration of the features to confirm the presence of the object. At that time, it makes other decisions such as identifying the object and likely crossing time of the object, outputting an output data stream that annotates the information or results, and processing the event data and real-time results Announcement may be greatly facilitated.
[0010]
In a basic implementation, the processor detects the start of one or more objects that intersect the goal line (ie, an object enters the image area) and is active while that area is active ( That is, the image data output stream from the camera is enabled only during the period in which the object is present in the area. Static (ie motionless) or background image frames may be flagged for separate or non-critical processing, or sent to a separate port interfaced with the data local memory unit. Alternatively, it may be simply compressed and then reconstructed from the previous and subsequent frames. Thus, in one embodiment, the frames of the display scene that do not add information are temporarily or permanently removed and stream frames that do not have an object that intersects the plane while maintaining a time reference for the remaining frames. Effectively suppresses all visible changes in successive scenes at once. Alternatively, rather than suppressing the static portion of the image stream or acting as an on / off control for the output stream, the processor simply flags the active (or static) frame of the stream and thereby receives the camera output An external processor is adapted to be able to operate to more effectively encode, index and store relevant image frames for access, inspection or other processing or reconstruction as appropriate. .
[0011]
In another specific example, when the presence of a competitor is instructed in the image forming area due to a change in the frame, the frame data is processed to perform photocell determination. This process classifies or compares blocks of frame data corresponding to features such as horse heads or bodies or runner arms, legs and torso to determine the presence and location of goal line intersections. The processor typically determines the goal line crossing time by interpolation or post-interpolation. The goal line crossing time may be associated with, for example, a horse's nose or a runner's torso. These decisions are usually made by a software feature check routine, which multiplies the body size of the object by the expected rate of the event and the frame rate of the camera to provide an accurate goal line time. Is estimated. Runners with lighting that may precede the actual intersection, for example, by determining the object characteristics in the correct order before triggering the goal line time determination, or otherwise confirming the presence of the object To avoid accidental triggering by the shadow of
[0012]
In yet another embodiment, the processor processes the frame data to detect patterns or symbols on the imaging object, such as numbers that identify competitors, and these objects or signs are detected. The output frame is flagged or indexed with the detected identifier. The line camera may be placed on the plane involved, such as an intermediate position along the race goal line or track. In this case, the frame time may be processed with an identifier flagged at the observed plane, either at the goal line or at an intermediate position, so that it is digitally as required by previous image timing systems. Ranking or relative position, speed or other assessment can be quickly indicated by direct display in an automated manner without waiting for review by the referee of the reconstructed image. The camera output augmented with this data in this way is interfaced directly with the computerized race management system so that the desired frames are quickly accessed with their indexing information for review. The user of the computer console can command various functions provided by the present invention to manipulate and analyze the captured scene, and more specifically, display any portion of the scene of an object moving across the plane. The competitor's associated time and / or identifier for each frame can then be accessed within the series of line crossing images.
[0013]
A system constructed in accordance with the present invention, in another aspect, comprises an in-camera memory subsystem in communication with an in-camera processor, wherein the object is detected, the background is detected, and the camera for analysis. The block of frame data is processed to control the start time and / or end time for the active imaging portion output from. In accordance with this aspect of the invention, the processor analyzes the imaged frame and sets a retrospective start time and an expected end time for frame transmission to ensure the integrity of the stored image record. Can do. The timers in the camera maintain a common time line, and the transmitted portion of the frame is labeled with time. In addition to tracking and identifying goal lines and courses, cameras and systems are useful for making decisions with various photocells.
[0014]
These and other aspects of the invention will be better understood from the following description made with reference to the drawings, which illustrate structural details and specific preferred embodiments.
[0015]
(Detailed Description of the Invention)
FIG. 1 illustrates a camera 12 according to the present invention attached to a system for imaging (or imaging) and recording a sequence of bodies (ie, a series of scenes) across a plane in space. This is shown together with a track goal line FL (finish line) for explanation. As will be described in detail below with the embodiments, in the race monitoring system, the camera 12a may also be installed to take an image of the intermediate line L. In another aspect (of the present invention), a system may be set up to take an image of a (person's) position in a robotic process line, but for simplicity of the following description, The recording camera 12 will be described in detail as an example.
[0016]
As shown in FIG. 1, the camera 12 uses a linear sensing (or linear) sensing array to generate a time-resolved image data stream. array) and attached to a stand S for placing the camera next to the goal line and oriented so that its output can be scanned or sampled electronically at high speed. Preferably, the camera is placed in the vertical plane of the FL (goal line) and oriented so that the plane is projected onto the sensing array. For example, the camera may be mounted at an appropriate height beside the track, and in certain cases may be mounted in the air (or overhead). The camera is connected to a
[0017]
As shown in more detail in FIG. 1A, the camera 12 of the present invention includes an objective lens (or optical component) 15 that detects an image of a
[0018]
As shown in more detail in the race management system of FIG. 1, for the image of line L, other places on the track (eg, tens of meters from the start line to detect the runner's start position and sequence) The second camera 12a may be arranged at a position, a position of 1/4 mile display in order to detect an intermediate order or time in horse racing. The camera 12a also processes or stores its image data and is connected to the
[0019]
As will be described in more detail below, the cameras 12, 12a are preferred and each "crop" their image output stream. In this application, “crop” refers to sending information only when the camera is active (ie, when the camera is shooting the required screen) or to an active portion of the stream in the data stream. It means annotating with a flag. In the latter case, annotations are received along with the image data stream and the processor of
[0020]
In accordance with the basic principles of the present invention, the image controller 22 of the camera detects information on the object of the image, responds to it, and the image of the output signal line 28 for connection to the external
[0021]
A number of object detection operations are now presented for illustration. A two-dimensional (line x time) image frame produced by an event recording line camera (or event recording linear camera) is taken to the dwell time of the object L or FL of the object being imaged. It is known to those skilled in the art that the x or width dimensions are proportional and inversely proportional to the velocity of the object across the line, and are smeared (or blurred) in the width direction. Conversely, the background field is always the same unless it is obstructed by a competitor passing in front of it, forming a fixed color or intensity horizontal band across the position of each pixel of the line sensor 20. To do. These become image frames in the buffer 25, on which the object detector described below operates. Preferably, each image has a reference time (or reference time) recorded therein, and the time information is included in the digital information of the frame. In the preferred embodiment, the reference time for each frame indicates the time that the camera 12 took an image. This may be real time, or the time relative to the start of an external event or trigger signal, or start detection sensor 84 (FIG. 1), external time source, camera internal timer, or (as preferred) May be derived by the system time synchronization protocol described in US Pat.
[0022]
In general, the external computer storage and
[0023]
To explain the surrounding circumstances, the
[0024]
As an example for understanding the determination of the time and position produced and recorded by the line camera system (or linear camera system) of the present invention, FIG. 2 illustrates an
[0025]
The scene or composite image of the object combined in this way is similar to the actual spatial image of the object passing through the FOV (field of view) of the camera 12 when it is displayed on the
[0026]
FIG. 3 illustrates a typical image of several runners passing the goal line formed in this manner. Along with the artifacts from this image generation mode, the background appears as several horizontal stripes (when not hidden by the runner), each runner presenting a continuous piece of the runner's body that passes the goal line. Fixed in posture. Except for the slight dimensional stretch or shrinkage that occurs along the lateral direction, each runner is almost similar to a normal spatial image taken from a fixed camera position perspective. Thus, the runner's clothing color, entry number, facial features, and other identifying features are taken as images (or more likely to be taken).
[0027]
Returning now to the description of camera operation, each digital line frame captured by the
[0028]
FIG. 4 is a flowchart illustrating this operation of the basic prototype embodiment of the present invention. In this embodiment, the camera microprocessor 22 processes the raw image from the buffer 25 to detect the presence of an object across the area of the linear field of view, while maintaining an accurate time record. Control the output data stream so that image frames are sent out by the camera only when the goal line is active (ie only when there is a runner). From a hardware perspective, the microprocessor loads the line frame into an appropriately sized VRAM (eg, 2MB-VRAM) to detect the goal line condition, and produces a continuous line (ie, linear). Data). And when a pattern with possible movement is detected while simply compressing or erasing inactive frames or dead time images, or backing up to tape without taking up system bandwidth, The processor verifies the pattern and marks the start of the active image sequence retroactively for camera transmission.
[0029]
In addition to the buffer storage device or VRAM, the microprocessor 22 inside the camera preferably has a RAM of 32 MB or more, and the camera itself stores an image of an active goal line that has been time-resolved for several minutes. It may be possible. This is sufficiently longer than the usual goal period of a track or riding competition, and even if an external transmission link error or equipment failure occurs, scenes necessary for analysis can be left in the camera memory.
[0030]
As shown in FIG. 4, object detection is performed by detecting the start of an object that enters the image field. This is done by sorting / comparing the incoming line image frames in order to determine the entry of the object into the field and confirm it. First, the processor Load a set of 8 image lines for illustration 8x1000 pixel sample (Sample strip) Forming And the sample 8x8 pixel Divide into blocks. Therefore each piece (Sample strip) Is 8x8 pixel Of 125 Pieces The light-sampling block. The microprocessor then splits the same eight image lines into two 125 Pieces Have a set of blocks of light values, and to measure the amount of local change in the light values of successive images, the pixel value of each block Previous corresponding Compare with the pixel value of the block. This comparison may take, for example, a difference in the sum of the pixel values of each block. The difference representing the total change in the intensity (or luminance) of continuously detected light values is the threshold T for all blocks. 1 If it is smaller (for example 10% of the total pixel intensity), the processor simply takes the next 8 lines, divides it into blocks, performs a similar comparison again, and Continue this method until a change in value is detected.
[0031]
It should be understood that a static background imaged at a constant intensity and at the same location varies with the noise level of the pixel sensor. Furthermore, if the scene is indoors and is illuminated by artificial light, there may be periodic fluctuations in the line frequency of the light intensity. Therefore, using multiple continuous lines or multiple multi-pixel averaging blocks to detect changes can be a noise or periodic phenomenon in detecting meaningful changes in light levels. This is effective for reducing the effects of light fluctuations. Thus, to ensure that aliasing of the sample period and illumination flickering does not induce false results when there is a 50-60 Hz line signal with 100-120 zero crossings per second Approximately 80 to 100 milliseconds of blocks are required. Threshold value T for detection 1 Must be set larger than the expected noise variation of the 8 × 8 block. A value of 10 percent of the total intensity is a suitable threshold for detecting meaningful movement into the field of view.
[0032]
As shown in detail in FIG. 1 When a difference in block strength greater than the threshold is detected, the processor determines the time t for the first line of the current block. 0 Set the “begin object” flag. In another embodiment, the processor waits for two or n consecutive blocks for difference detection, before annotating the image data and setting output control signals. You may reconfirm the existence. In this case, the camera starts counting and if the block difference continues at least 5 consecutive times (for example) and is greater than the threshold, the change has occurred because the object has crossed the field of view. It may be recognized. The processor sets a “start object” flag at the start of an active sequence retroactive to past data. The flag data may be sent with a continuous image data stream as an independent data indication for processing and indexing of external line image data, or the start of image data output from the camera at that time. It may be used for direct indication. Thereby, the image data can be transmitted only when an object is detected. In another embodiment, the camera may be set to acquire image data from a time point before the first detected changed frame, eg, a time point 0.1 seconds before, so that the goal line The sequence can include an image as the athlete approaches the goal line, and can display the first part that the athlete passes through (the goal line). Therefore, the horse's nose before the body passes the ribbon and the runner's hand can also be displayed. Such detailed information, which usually occurs before an event that is considered as passing the goal line, is useful for removing inaccuracies when multiple competitors pass almost simultaneously. For example, even if several athletes simultaneously block and overlap the field of view, the protruding hand could be used to identify the athlete's position. Thus, the sequence of active images may be set to include a specific part of the leading player.
[0033]
As further shown in FIG. 4, once a runner is detected in the image, the processor performs a different analysis process that monitors and analyzes the object appearing in the image frame to obtain additional information. Switch. In a basic embodiment, the processor performs image piece sampling in a manner similar to the initial object trigger analysis to determine that the object has passed completely or that the goal line operation has ended. continue. A suitable method of determination for this process is shown in FIG. 4A. When the end of the object is detected, the processor sets the “end of object” flag so that the output controller turns off the output stream or enters sleep mode. For this termination decision, the processor determines that the difference between all block sets is the threshold T 2 Detect if smaller. If possible, the processor determines T for more sample pieces before determining that the moving object has been passed. 2 <T 1 Different thresholds, another threshold level for maintaining homogeneity, or both. This operation avoids false signals of sequence termination by relatively homogeneous objects such as horse torso rather than stationary objects that remain in the field of view in front of the camera. In the case of a color camera embodiment, the detection module may be configured to utilize a change in color instead of (or in addition to) intensity (or luminance) as a detection measurement for these determinations. When the end of motion is detected, the “object end” flag may be the first line of the frame group that reaches a static signal level, or a momentary fragment after that The setting of may be sufficient. It can then signal the output control to end the transmission of the image output, or label the frame (if the crop operation is annotating the frame rather than physically switching the camera output stream). wear.
[0034]
In summary, the object recognition output controller first identifies what is considered a movement of the object, confirms the existence of the movement, and identifies an active image frame retroactive to past data. Similarly, at the end of the sequence, identify what is considered a stationary scene, confirm it, and set the crop end time to extend to at least the last active frame. In this way, only the parts of the image necessary to detect, record and determine movement through the goal line are annotated and transmitted from the camera. These are automatically selected by the controller inside the camera based on the object detection. Since a relatively small set of active images is identified in advance by the camera, automatic object recognition by this method is a human supervisor who views and selects image data on an external console or a vast number of external rolls. Eliminates the need for an image buffer and quick access memory storage.
[0035]
As described above, the background scene is stationary when there is no object crossing the goal line. As explained in more detail in the above-mentioned patent of the applicant, the amount of data to encode a static sequence is very large by using a line-to-line compression algorithm. By compressing them in the camera, the external bus wiring does not need to handle a huge flow of unprocessed line data (or linear data). The system of the present invention further provides additional operational improvements. That is, the processor inside the camera effectively transmits only a short duration of relevant image data, and as can be seen from the
[0036]
In addition to flagging active portions of image data generated by camera line sensors (or linear sensors), the present invention further includes an internal for identifying objects to produce object-based data. It is also intended to be processed. This is shown schematically in FIG. Two characteristic data types are illustrated. One is object identification that is processed by an image analysis subroutine to detect the athlete's color, number, barcode, and other personal characteristics as the athlete passes. This will be described in detail later. The other is described here and is called photocell determination. In accordance with a later case aspect of the invention, in order to determine a plausible goal time, the processor inside the camera performs a more detailed analysis of the frame containing the object in order to fit the competitor to the template. Recognize specific parts of the body and use type / event special completion rules or estimation rules.
[0037]
When these methods are applied, for example in the case of a horse, the processor processes the image line from above to detect the body of the horse passing the goal line (affecting the horizontal distance scale) While correcting the frame rate and event speed, the goal time is specified by a frame that occurs a specific (fixed) time or (fixed) distance before the midpoint of the body (ie, the horse). This estimate gives an estimated time based on the standard size and shape of that type (horse) and can be used for the initial announcement displayed on the bulletin board. For example, the processor may set the horse's nose to be 1.6 meters before the center of the horse, or set the greyhound's nose to be 0.7 meters from the center. By adding a specific time to the image output data stream, an immediate indication is given to the race management system, after which a complete frame image is constructed and re-evaluated to determine the exact goal time. FIG. 3 shows a typical goal configuration for a human track event. When the method described above is applied to a person, the analysis of the associated image is triggered by the initial appearance of a hand, arm or foot on the field. In this case, for example, the plausible goal is set to be 30 to 50 cm after the first limb, or the image analysis is further advanced so as to detect the center of gravity of the body such as the torso and abdomen. Analysis is performed according to specific rules such as estimating the goal time based on the appearance of these shapes. Race personnel examine the image frame, for example, observe if the torso is tilted forward, and determine the exact goal time by actually observing which line in the composite frame contains the torso head. Other photocell passage decisions could be easily made using rules specific to the speed of the event and the type of competitor.
[0038]
Returning now to the description of camera object recognition and shape recognition, it should be noted that the above description is for the case where the pixel value is a scalar value. However, when a three-color line camera is utilized, motion determination can be processed differently to achieve faster processing, more accurate object recognition, or detection of specific shapes, identifiers. . One such change to simple object detection is to independently compare the three different color values of a block of consecutive sample strips in order to perform a more sophisticated scene change test. Are summed independently. For example, when there is no red color throughout, the sudden appearance of a red pixel can immediately indicate the arrival of a new object. This color comparison decision reduces the block size required for object recognition decision. Alternatively, a specific color marker or uniform may be assigned to the athlete to identify each person by a combination of the athlete's clothing color or conspicuous color. In this case, the processor preferably prefers to store the color associated with each competitor in the image (eg Royal Blue = Joe Smith = player number 17) and provide that data to the output stream. Programmed.
[0039]
Alternatively, the race management system may compare the detected identifier to a pre-configured table of runner identifiers. In this case, the annotated image stream received from the camera has color and time elements that are sent to a simple subroutine that checks the color against the identifier table and displays the runner's name on the display. Such an identifier table is preferably implemented by an external race management system during the initialization process. For example, each competitor may be photographed by an independent handy-type camera and input of the competitor's personal information may be input for the processor to analyze and record its unique color and set up an identifier table. In this case, the line camera controlled by the object of the present invention, for example, performs additional processing to supply the necessary identification data such as alphanumeric characters to the preamble of each line image frame present in the output data stream of the camera. do.
[0040]
The present invention further contemplates that the processor performs additional image analysis other than light change determination and color determination when the controller 22 operates to identify a particular object on its field of view. is doing. Such additional processing includes, for example, when multiple colors appear simultaneously in a relatively narrow image area, segmenting the runner's overlapping images, and performing edge recognition and object segmentation to determine individual colors. May be included. The present invention also contemplates a system where each competitor wears a special identifier marker that can be recognized on the image. Thus, for example, when used in a horse event, the markers are attached to the horse's back, and the camera takes an image of the goal line (or midpoint in the track) from above, so that all markers point in the camera direction. Orientation can be prevented from being disturbed by adjacent runners. Such markers include, for example, barcodes of a particular orientation and lines or blocks of different colors that form a characteristic combination. Color markings may be formed to ensure quick and reliable decisions. This can be done, for example, by arranging different directions in the color band and arranging or orientation in a way that ensures that they are imaged into separate detection pixels of the camera and that the detection pixels have a substantial dwell time. Can be achieved. For example, the bands are worn in a direction parallel to the movement, giving them an extended dwell time on the image, offset perpendicular to the direction of movement so that they are imaged on separate pixels of the sensor (i.e. , Width) may be provided. They may also be offset in the direction of movement and time-resolved color combinations of the image as size allows. This makes them easy to detect (color bands) when line images are sampled in narrow and high blocks along the image sensor or when they are imaged with only a short duration.
[0041]
In another embodiment, the processor may incorporate an optical character recognition module to simply read the athlete's uniform bib, or an image line using a barcode reader pattern to recognize the barcode identifier. May be processed. However, in general, marks configured for line camera detection and preferred over the use of character or barcode technology to reduce the possibility of occlusion and misreading of the marker of interest The use of color identifier markers as things are preferred.
[0042]
When using an event recognition system, the line scan camera system of the present invention, which is triggered by an object such as a race goal line, greatly reduces the real-time bandwidth requirements imposed on the external system portion and requires the necessary image data. Could be manipulated to record and resolve positions that are thousandths of a second or less without noticeable delays in transmission. Annotating data in the output frame results in a reduction in data handling and RAM storage installed in the external race management system, even when physical crops due to static or dead time are not utilized.
[0043]
While the invention has been disclosed and described in exemplary embodiments and features, further modifications and equivalents will be apparent to those skilled in the art, and such modifications, improvements, and equivalents are also claimed by the appended claims. It is considered to be within the scope of the invention as defined by the scope.
[Brief description of the drawings]
FIG. 1 is a schematic diagram illustrating a system employing a camera according to the present invention for recording and displaying temporally sequential scenes of an object that intersects a plane.
1A is a detailed view of the camera and system of FIG.
FIG. 2 shows a representative image constructed in accordance with the present invention from discretely sampled line objects.
FIG. 3 illustrates an exemplary display of a race scene generated by a system according to the present invention.
FIG. 4 is a flowchart showing the operation of the in-camera detector for image output control according to the present invention.
FIG. 4A is a flowchart illustrating an internal object detection process for output control.
FIG. 5 is a flowchart illustrating another information processing.
[Explanation of symbols]
10 Race management system
12, 12a camera
15 Objective lens
16 External image management system
18 Linear part of the visual field of the object
20 line sensor (or detector array)
22 Imaging controller inside the camera
24 Gain control detector amplifier
25 Internal camera buffer
26 A / D converter
28 Output signal line
36 Internal memory
40 central processor
42 Display monitor
44 keyboard
45 mice
60 Moving object
62 Line frame
64 Newest line frame
70 Background
Claims (25)
前記ラインカメラから、連続するライン画像フレームを読み込むステップにして、
各ライン画像フレームが、ラインカメラの対象物画像フィールドの個々の瞬間のライン部分を取り込んだ一列のピクセル値のラインとして表される該ステップと、
複数のサンプルを形成するステップにして、各サンプルが、複数の連続するライン画像フレームからなり、かつ複数のマルチピクセルのブロックに分割され、各ブロックが、前記複数の連続するライン画像フレームにわたり、かつ該ブロックのピクセル値に基づく光の強度を有する該ステップと、
前記複数のサンプルのうちの1つのサンプルの少なくとも1つのブロックの光の強度が、少なくともY個(Yは1より大きい整数)の直前のサンプルにおける対応するブロックの光の強度と、少なくとも第1の閾値だけ異なるときに前記対象物画像フィールド内に対象物が入ったとして検出するステップとを含む方法。A method for detecting an object in an object image field of a line camera, comprising:
From the line camera, in the step of reading the consecutive line images frame,
The step of each line image frame being represented as a line of pixel value lines that capture the individual instant line portions of the line camera object image field ;
In the step that form a plurality of samples, each sample consists of a plurality of successive lines image frame, and is divided into a plurality of blocks of multi-pixel, each block over a plurality of successive lines image frame, And having a light intensity based on the pixel values of the block ;
The intensity of the light of at least one block of one sample of the plurality of samples, and the intensity of light of the corresponding block in the previous sample of at least Y number (Y is an integer greater than 1), at least a first method comprising the steps of detecting a target object enters into the object image field can and that different only the threshold value.
前記複数のサンプルのうちの別の1つのサンプルの各ブロックの光の強度が、少なくともZ個(Zは1より大きい整数)の直前のサンプルにおける対応するブロックの有する光の強度と、第2の閾値に満たないときに前記ラインカメラの対象物画像フィールドから対象物が出たとして検出するステップ、
を更に含む請求項1に記載の方法。After detecting that an object has entered the object image field of the line camera,
The light intensity of each block of another one sample of the plurality of samples is at least Z (Z is an integer greater than 1) , the light intensity of the corresponding block in the immediately preceding sample , and the second steps for detecting the object exiting from the object image field of the line camera when less than the threshold value,
The method of claim 1 further comprising :
ラインカメラの対象物画像フィールドから対象物が出たことを検出した後、前記対象物をもはや含まなくなった最初のサンプルの最初のライン画像フレームに対象物終了フラグ値を設定するステップと、
を更に含む請求項7に記載の方法。After detecting that an object has entered the object image field of the line camera, setting an object start flag value in the first line image frame of the first sample containing the object;
Setting an object end flag value in the first line image frame of the first sample that no longer contains the object after detecting that the object has emerged from the object image field of the line camera;
The method of claim 7 further comprising :
前記対象物の少なくとも1つの特定の部分から前記対象物がゴールラインを横切った時間を推定するステップと、
を更に含む請求項1に記載の方法。Analyzing a line image frame to recognize at least one particular portion of the object after detecting that the object has entered the object image field of the line camera;
Estimating the time that the object has crossed a goal line from at least one particular portion of the object;
The method of claim 1 further comprising :
Applications Claiming Priority (3)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| US09/058,542 | 1998-04-10 | ||
| US09/058,542 US6545705B1 (en) | 1998-04-10 | 1998-04-10 | Camera with object recognition/data output |
| PCT/US1999/007596 WO1999053686A1 (en) | 1998-04-10 | 1999-04-06 | Camera with object recognition/data output |
Publications (3)
| Publication Number | Publication Date |
|---|---|
| JP2002511718A JP2002511718A (en) | 2002-04-16 |
| JP2002511718A5 JP2002511718A5 (en) | 2010-02-18 |
| JP4615715B2 true JP4615715B2 (en) | 2011-01-19 |
Family
ID=22017464
Family Applications (1)
| Application Number | Title | Priority Date | Filing Date |
|---|---|---|---|
| JP2000544127A Expired - Lifetime JP4615715B2 (en) | 1998-04-10 | 1999-04-06 | Camera with object recognition function and data output |
Country Status (4)
| Country | Link |
|---|---|
| US (1) | US6545705B1 (en) |
| JP (1) | JP4615715B2 (en) |
| AU (1) | AU3476299A (en) |
| WO (1) | WO1999053686A1 (en) |
Families Citing this family (195)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| US7739076B1 (en) * | 1999-06-30 | 2010-06-15 | Nike, Inc. | Event and sport performance methods and systems |
| WO2001001706A1 (en) * | 1999-06-30 | 2001-01-04 | Phatrat Technology, Inc. | Event and sport performance methods and systems |
| US6757008B1 (en) * | 1999-09-29 | 2004-06-29 | Spectrum San Diego, Inc. | Video surveillance system |
| US6985875B1 (en) * | 1999-11-05 | 2006-01-10 | Wolf Peter H | Process for providing event photographs for inspection, selection and distribution via a computer network |
| US6585622B1 (en) | 1999-12-03 | 2003-07-01 | Nike, Inc. | Interactive use an athletic performance monitoring and reward method, system, and computer program product |
| US8956228B2 (en) * | 1999-12-03 | 2015-02-17 | Nike, Inc. | Game pod |
| US6542295B2 (en) * | 2000-01-26 | 2003-04-01 | Donald R. M. Boys | Trinocular field glasses with digital photograph capability and integrated focus function |
| AU2001247315A1 (en) * | 2000-03-10 | 2001-09-24 | Sensormatic Electronics Corporation | Method and apparatus for object tracking and detection |
| EP1168830A1 (en) * | 2000-06-30 | 2002-01-02 | Wells & Verne Investments Ltd | Computer aided image capturing system |
| US7101988B2 (en) * | 2000-10-12 | 2006-09-05 | Marical, Inc. | Polyvalent cation-sensing receptor in Atlantic salmon |
| US7173672B2 (en) * | 2001-08-10 | 2007-02-06 | Sony Corporation | System and method for transitioning between real images and virtual images |
| US7091989B2 (en) * | 2001-08-10 | 2006-08-15 | Sony Corporation | System and method for data assisted chroma-keying |
| US20030030658A1 (en) * | 2001-08-10 | 2003-02-13 | Simon Gibbs | System and method for mixed reality broadcast |
| US7339609B2 (en) * | 2001-08-10 | 2008-03-04 | Sony Corporation | System and method for enhancing real-time data feeds |
| JPWO2003034278A1 (en) * | 2001-10-11 | 2005-02-03 | 富士通株式会社 | Mobile object information recognition system and method |
| US7102670B2 (en) * | 2001-10-31 | 2006-09-05 | Hewlett-Packard Development Company, L.P. | Bookmarking captured digital images at an event to all present devices |
| US6690883B2 (en) * | 2001-12-14 | 2004-02-10 | Koninklijke Philips Electronics N.V. | Self-annotating camera |
| US7545949B2 (en) | 2004-06-09 | 2009-06-09 | Cognex Technology And Investment Corporation | Method for setting parameters of a vision detector using production line information |
| US9092841B2 (en) * | 2004-06-09 | 2015-07-28 | Cognex Technology And Investment Llc | Method and apparatus for visual detection and inspection of objects |
| US20050226490A1 (en) * | 2002-01-29 | 2005-10-13 | Phillips Brian S | Method and apparatus for improved vision detector image capture and analysis |
| US20030187820A1 (en) | 2002-03-29 | 2003-10-02 | Michael Kohut | Media management system and process |
| WO2004039078A1 (en) * | 2002-10-28 | 2004-05-06 | Denaro Co., Ltd. | Monitoring system of specific area |
| EP1556148B1 (en) | 2002-10-30 | 2010-01-06 | Nike International Ltd | Clothes with motion capture markers for computer games |
| US8206219B2 (en) | 2002-10-30 | 2012-06-26 | Nike, Inc. | Interactive gaming apparel for interactive gaming |
| US20040101309A1 (en) * | 2002-11-27 | 2004-05-27 | Beyette Fred R. | Optical communication imager |
| US6913199B2 (en) * | 2002-12-18 | 2005-07-05 | Symbol Technologies, Inc. | System and method for verifying optical character recognition of optical code reads |
| US7066388B2 (en) * | 2002-12-18 | 2006-06-27 | Symbol Technologies, Inc. | System and method for verifying RFID reads |
| US6859547B2 (en) * | 2003-01-25 | 2005-02-22 | The Mostert Group | Methods and computer-readable medium for tracking motion |
| DE10336447A1 (en) * | 2003-08-06 | 2005-03-10 | Gerd Hansen | Recording and classification of sport or race data, whereby each participant in an event triggers a time signal at a finishing line and is digitally photographed so that times and identities can be subsequently correlated |
| US20050052535A1 (en) * | 2003-09-10 | 2005-03-10 | Youssef Hamadi | Context sensitive camera |
| US20050251616A1 (en) * | 2004-05-05 | 2005-11-10 | General Electric Company | Facility monitoring system, method, and article of manufacture for obtaining data from non-volatile memory and volatile memory |
| US20050276445A1 (en) | 2004-06-09 | 2005-12-15 | Silver William M | Method and apparatus for automatic visual detection, recording, and retrieval of events |
| US8891852B2 (en) | 2004-06-09 | 2014-11-18 | Cognex Technology And Investment Corporation | Method and apparatus for configuring and testing a machine vision detector |
| US8243986B2 (en) | 2004-06-09 | 2012-08-14 | Cognex Technology And Investment Corporation | Method and apparatus for automatic visual event detection |
| US8127247B2 (en) | 2004-06-09 | 2012-02-28 | Cognex Corporation | Human-machine-interface and method for manipulating data in a machine vision system |
| US11030859B2 (en) | 2004-06-28 | 2021-06-08 | Cfph, Llc | System and method for gaming based upon intermediate points in a race event |
| US7306514B2 (en) | 2004-06-28 | 2007-12-11 | Cfph, Llc | System and method for gaming based upon intermediate points in a race event |
| US8491366B2 (en) | 2004-06-28 | 2013-07-23 | Cfph, Llc | Bets regarding ranges of times at intermediate points in a race |
| US20060064731A1 (en) * | 2004-09-20 | 2006-03-23 | Mitch Kahle | System and method for automated production of personalized videos on digital media of individual participants in large events |
| US9292187B2 (en) | 2004-11-12 | 2016-03-22 | Cognex Corporation | System, method and graphical user interface for displaying and controlling vision system operating parameters |
| US7636449B2 (en) | 2004-11-12 | 2009-12-22 | Cognex Technology And Investment Corporation | System and method for assigning analysis parameters to vision detector using a graphical interface |
| US7720315B2 (en) | 2004-11-12 | 2010-05-18 | Cognex Technology And Investment Corporation | System and method for displaying and using non-numeric graphic elements to control and monitor a vision system |
| WO2006073647A2 (en) * | 2004-12-03 | 2006-07-13 | Sarnoff Corporation | Method and apparatus for unsupervised learning of discriminative edge measures for vehicle matching between non-overlapping cameras |
| US7505607B2 (en) * | 2004-12-17 | 2009-03-17 | Xerox Corporation | Identifying objects tracked in images using active device |
| US20060146132A1 (en) * | 2005-01-05 | 2006-07-06 | Hy Mayerson | Video system having multiple video cameras for capturing events |
| US8169484B2 (en) * | 2005-07-05 | 2012-05-01 | Shai Silberstein | Photography-specific digital camera apparatus and methods useful in conjunction therewith |
| US7652268B2 (en) * | 2006-01-31 | 2010-01-26 | Jp Laboratories, Inc | General purpose, high accuracy dosimeter reader |
| US9418450B2 (en) | 2006-08-31 | 2016-08-16 | Ati Technologies Ulc | Texture compression techniques |
| WO2008089504A1 (en) * | 2007-01-23 | 2008-07-31 | Ten Pin Pix Pty Ltd | Imaging systems and methods |
| US8237099B2 (en) | 2007-06-15 | 2012-08-07 | Cognex Corporation | Method and system for optoelectronic detection and location of objects |
| US8718319B2 (en) * | 2007-06-15 | 2014-05-06 | Cognex Corporation | Method and system for optoelectronic detection and location of objects |
| US8103085B1 (en) | 2007-09-25 | 2012-01-24 | Cognex Corporation | System and method for detecting flaws in objects using machine vision |
| US8246432B2 (en) | 2008-01-28 | 2012-08-21 | Cfph, Llc | Electronic gaming based on intermediate points in an event |
| US9053594B2 (en) | 2008-10-01 | 2015-06-09 | International Business Machines Corporation | Monitoring objects in motion along a static route using sensory detection devices |
| EP2353044B1 (en) * | 2008-10-02 | 2019-12-04 | Yepp Australia Pty Ltd | Imaging system |
| US8760510B2 (en) * | 2008-11-26 | 2014-06-24 | Robert T. Aloe | Apparatus and methods for three-dimensional imaging using a static light screen |
| US8442922B2 (en) | 2008-12-24 | 2013-05-14 | Strands, Inc. | Sporting event image capture, processing and publication |
| JP5570176B2 (en) | 2009-10-19 | 2014-08-13 | キヤノン株式会社 | Image processing system and information processing method |
| US20110269516A1 (en) * | 2009-11-03 | 2011-11-03 | Hoofs Up Left Right Or Evens Pty Ltd. | Game of Chance |
| WO2014145359A1 (en) * | 2013-03-15 | 2014-09-18 | Innovative Timing Systems, Llc | System and method of video verification of rfid tag reads within an event timing system |
| US9405975B2 (en) | 2010-03-26 | 2016-08-02 | Brain Corporation | Apparatus and methods for pulse-code invariant object recognition |
| US8315305B2 (en) | 2010-03-26 | 2012-11-20 | Brain Corporation | Systems and methods for invariant pulse latency coding |
| US9311593B2 (en) | 2010-03-26 | 2016-04-12 | Brain Corporation | Apparatus and methods for polychronous encoding and multiplexing in neuronal prosthetic devices |
| US9122994B2 (en) | 2010-03-26 | 2015-09-01 | Brain Corporation | Apparatus and methods for temporally proximate object recognition |
| US9600760B2 (en) * | 2010-03-30 | 2017-03-21 | Disney Enterprises, Inc. | System and method for utilizing motion fields to predict evolution in dynamic scenes |
| US9906838B2 (en) | 2010-07-12 | 2018-02-27 | Time Warner Cable Enterprises Llc | Apparatus and methods for content delivery and message exchange across multiple content delivery networks |
| PT2418624T (en) | 2010-08-12 | 2019-03-25 | Novomatic Ag | Device and method for controlling and/or monitoring race vehicles on a race course |
| DE202010011317U1 (en) * | 2010-08-12 | 2011-11-21 | Amusys Amusement Systems Electronics Gmbh | Device for detecting, monitoring and / or controlling racing cars |
| DE202010011318U1 (en) | 2010-08-12 | 2011-11-14 | Amusys Amusement Systems Electronics Gmbh | Device for detecting, monitoring and / or controlling racing cars |
| US9193075B1 (en) | 2010-08-26 | 2015-11-24 | Brain Corporation | Apparatus and methods for object detection via optical flow cancellation |
| US8942466B2 (en) | 2010-08-26 | 2015-01-27 | Brain Corporation | Sensory input processing apparatus and methods |
| US8830316B2 (en) | 2010-10-01 | 2014-09-09 | Brimrose Technology Corporation | Unattended spatial sensing |
| US9015093B1 (en) | 2010-10-26 | 2015-04-21 | Michael Lamport Commons | Intelligent control with hierarchical stacked neural networks |
| US8775341B1 (en) | 2010-10-26 | 2014-07-08 | Michael Lamport Commons | Intelligent control with hierarchical stacked neural networks |
| NL2005772C2 (en) * | 2010-11-29 | 2012-05-30 | Amb It Holding Bv | Method and system for detecting an event on a sports track. |
| US8675452B2 (en) * | 2010-12-31 | 2014-03-18 | Flashtiming LLC | Systems and methods for timing athletic events |
| US8990133B1 (en) | 2012-12-20 | 2015-03-24 | Brain Corporation | Apparatus and methods for state-dependent learning in spiking neuron networks |
| US9047568B1 (en) | 2012-09-20 | 2015-06-02 | Brain Corporation | Apparatus and methods for encoding of sensory data using artificial spiking neurons |
| US9070039B2 (en) | 2013-02-01 | 2015-06-30 | Brian Corporation | Temporal winner takes all spiking neuron network sensory processing apparatus and methods |
| US9566710B2 (en) | 2011-06-02 | 2017-02-14 | Brain Corporation | Apparatus and methods for operating robotic devices using selective state space training |
| US9147156B2 (en) | 2011-09-21 | 2015-09-29 | Qualcomm Technologies Inc. | Apparatus and methods for synaptic update in a pulse-coded network |
| US8725658B2 (en) | 2011-09-21 | 2014-05-13 | Brain Corporation | Elementary network description for efficient memory management in neuromorphic systems |
| US8725662B2 (en) | 2011-09-21 | 2014-05-13 | Brain Corporation | Apparatus and method for partial evaluation of synaptic updates based on system events |
| US9104973B2 (en) | 2011-09-21 | 2015-08-11 | Qualcomm Technologies Inc. | Elementary network description for neuromorphic systems with plurality of doublets wherein doublet events rules are executed in parallel |
| US8719199B2 (en) | 2011-09-21 | 2014-05-06 | Brain Corporation | Systems and methods for providing a neural network having an elementary network description for efficient implementation of event-triggered plasticity rules |
| US9412064B2 (en) | 2011-08-17 | 2016-08-09 | Qualcomm Technologies Inc. | Event-based communication in spiking neuron networks communicating a neural activity payload with an efficacy update |
| US9460387B2 (en) | 2011-09-21 | 2016-10-04 | Qualcomm Technologies Inc. | Apparatus and methods for implementing event-based updates in neuron networks |
| US9117176B2 (en) | 2011-09-21 | 2015-08-25 | Qualcomm Technologies Inc. | Round-trip engineering apparatus and methods for neural networks |
| US9146546B2 (en) | 2012-06-04 | 2015-09-29 | Brain Corporation | Systems and apparatus for implementing task-specific learning using spiking neurons |
| US10210452B2 (en) | 2011-09-21 | 2019-02-19 | Qualcomm Incorporated | High level neuromorphic network description apparatus and methods |
| US9213937B2 (en) | 2011-09-21 | 2015-12-15 | Brain Corporation | Apparatus and methods for gating analog and spiking signals in artificial neural networks |
| US9015092B2 (en) | 2012-06-04 | 2015-04-21 | Brain Corporation | Dynamically reconfigurable stochastic learning apparatus and methods |
| US9104186B2 (en) | 2012-06-04 | 2015-08-11 | Brain Corporation | Stochastic apparatus and methods for implementing generalized learning rules |
| US9156165B2 (en) | 2011-09-21 | 2015-10-13 | Brain Corporation | Adaptive critic apparatus and methods |
| US8712939B2 (en) | 2011-09-21 | 2014-04-29 | Brain Corporation | Tag-based apparatus and methods for neural networks |
| US9098811B2 (en) | 2012-06-04 | 2015-08-04 | Brain Corporation | Spiking neuron network apparatus and methods |
| US9651499B2 (en) | 2011-12-20 | 2017-05-16 | Cognex Corporation | Configurable image trigger for a vision system and method for using the same |
| US9774842B2 (en) * | 2012-02-22 | 2017-09-26 | Swiss Timing Ltd | Device for 3D display of photo finish image |
| US9224090B2 (en) | 2012-05-07 | 2015-12-29 | Brain Corporation | Sensory input processing apparatus in a spiking neural network |
| US9129221B2 (en) | 2012-05-07 | 2015-09-08 | Brain Corporation | Spiking neural network feedback apparatus and methods |
| US9412041B1 (en) | 2012-06-29 | 2016-08-09 | Brain Corporation | Retinal apparatus and methods |
| US9111215B2 (en) | 2012-07-03 | 2015-08-18 | Brain Corporation | Conditional plasticity spiking neuron network apparatus and methods |
| US8977582B2 (en) | 2012-07-12 | 2015-03-10 | Brain Corporation | Spiking neuron network sensory processing apparatus and methods |
| US9256215B2 (en) | 2012-07-27 | 2016-02-09 | Brain Corporation | Apparatus and methods for generalized state-dependent learning in spiking neuron networks |
| US9256823B2 (en) | 2012-07-27 | 2016-02-09 | Qualcomm Technologies Inc. | Apparatus and methods for efficient updates in spiking neuron network |
| US9186793B1 (en) | 2012-08-31 | 2015-11-17 | Brain Corporation | Apparatus and methods for controlling attention of a robot |
| US9440352B2 (en) | 2012-08-31 | 2016-09-13 | Qualcomm Technologies Inc. | Apparatus and methods for robotic learning |
| US9311594B1 (en) | 2012-09-20 | 2016-04-12 | Brain Corporation | Spiking neuron network apparatus and methods for encoding of sensory data |
| US9189730B1 (en) | 2012-09-20 | 2015-11-17 | Brain Corporation | Modulated stochasticity spiking neuron network controller apparatus and methods |
| US8793205B1 (en) | 2012-09-20 | 2014-07-29 | Brain Corporation | Robotic learning and evolution apparatus |
| US9367798B2 (en) | 2012-09-20 | 2016-06-14 | Brain Corporation | Spiking neuron network adaptive control apparatus and methods |
| US9082079B1 (en) | 2012-10-22 | 2015-07-14 | Brain Corporation | Proportional-integral-derivative controller effecting expansion kernels comprising a plurality of spiking neurons associated with a plurality of receptive fields |
| US9218563B2 (en) | 2012-10-25 | 2015-12-22 | Brain Corporation | Spiking neuron sensory processing apparatus and methods for saliency detection |
| US9111226B2 (en) | 2012-10-25 | 2015-08-18 | Brain Corporation | Modulated plasticity apparatus and methods for spiking neuron network |
| US9183493B2 (en) | 2012-10-25 | 2015-11-10 | Brain Corporation | Adaptive plasticity apparatus and methods for spiking neuron network |
| US9275326B2 (en) | 2012-11-30 | 2016-03-01 | Brain Corporation | Rate stabilization through plasticity in spiking neuron network |
| US9123127B2 (en) | 2012-12-10 | 2015-09-01 | Brain Corporation | Contrast enhancement spiking neuron network sensory processing apparatus and methods |
| US20140204206A1 (en) * | 2013-01-21 | 2014-07-24 | Chronotrack Systems Corp. | Line scan imaging from a raw video source |
| US9195934B1 (en) | 2013-01-31 | 2015-11-24 | Brain Corporation | Spiking neuron classifier apparatus and methods using conditionally independent subsets |
| US9177245B2 (en) | 2013-02-08 | 2015-11-03 | Qualcomm Technologies Inc. | Spiking network apparatus and method with bimodal spike-timing dependent plasticity |
| US9764468B2 (en) | 2013-03-15 | 2017-09-19 | Brain Corporation | Adaptive predictor apparatus and methods |
| US8996177B2 (en) | 2013-03-15 | 2015-03-31 | Brain Corporation | Robotic training apparatus and methods |
| US9008840B1 (en) | 2013-04-19 | 2015-04-14 | Brain Corporation | Apparatus and methods for reinforcement-guided supervised learning |
| US9242372B2 (en) | 2013-05-31 | 2016-01-26 | Brain Corporation | Adaptive robotic interface apparatus and methods |
| US9792546B2 (en) | 2013-06-14 | 2017-10-17 | Brain Corporation | Hierarchical robotic controller apparatus and methods |
| US9384443B2 (en) | 2013-06-14 | 2016-07-05 | Brain Corporation | Robotic training apparatus and methods |
| US9314924B1 (en) * | 2013-06-14 | 2016-04-19 | Brain Corporation | Predictive robotic controller apparatus and methods |
| US9436909B2 (en) | 2013-06-19 | 2016-09-06 | Brain Corporation | Increased dynamic range artificial neuron network apparatus and methods |
| US9239985B2 (en) | 2013-06-19 | 2016-01-19 | Brain Corporation | Apparatus and methods for processing inputs in an artificial neuron network |
| US9552546B1 (en) | 2013-07-30 | 2017-01-24 | Brain Corporation | Apparatus and methods for efficacy balancing in a spiking neuron network |
| US9579789B2 (en) | 2013-09-27 | 2017-02-28 | Brain Corporation | Apparatus and methods for training of robotic control arbitration |
| US9296101B2 (en) | 2013-09-27 | 2016-03-29 | Brain Corporation | Robotic control arbitration apparatus and methods |
| US9489623B1 (en) | 2013-10-15 | 2016-11-08 | Brain Corporation | Apparatus and methods for backward propagation of errors in a spiking neuron network |
| US9597797B2 (en) | 2013-11-01 | 2017-03-21 | Brain Corporation | Apparatus and methods for haptic training of robots |
| US9463571B2 (en) | 2013-11-01 | 2016-10-11 | Brian Corporation | Apparatus and methods for online training of robots |
| US9248569B2 (en) | 2013-11-22 | 2016-02-02 | Brain Corporation | Discrepancy detection apparatus and methods for machine learning |
| EP3084729A4 (en) | 2013-12-09 | 2017-05-17 | Todd Martin | System and method for event timing and photography |
| US9358685B2 (en) | 2014-02-03 | 2016-06-07 | Brain Corporation | Apparatus and methods for control of robot actions based on corrective user inputs |
| US9364950B2 (en) | 2014-03-13 | 2016-06-14 | Brain Corporation | Trainable modular robotic methods |
| US9987743B2 (en) | 2014-03-13 | 2018-06-05 | Brain Corporation | Trainable modular robotic apparatus and methods |
| US9533413B2 (en) | 2014-03-13 | 2017-01-03 | Brain Corporation | Trainable modular robotic apparatus and methods |
| US9630317B2 (en) | 2014-04-03 | 2017-04-25 | Brain Corporation | Learning apparatus and methods for control of robotic devices via spoofing |
| US9613308B2 (en) | 2014-04-03 | 2017-04-04 | Brain Corporation | Spoofing remote control apparatus and methods |
| WO2015168058A1 (en) * | 2014-04-28 | 2015-11-05 | Lynx System Developers, Inc. | Systems and methods for processing event timing images |
| US9413926B2 (en) * | 2014-04-28 | 2016-08-09 | Lynx System Developers, Inc. | Systems for processing event timing images |
| US9398196B2 (en) * | 2014-04-28 | 2016-07-19 | Lynx System Developers, Inc. | Methods for processing event timing images |
| US10375300B2 (en) | 2014-04-28 | 2019-08-06 | Lynx System Developers, Inc. | Methods for processing event timing data |
| US9346167B2 (en) | 2014-04-29 | 2016-05-24 | Brain Corporation | Trainable convolutional network apparatus and methods for operating a robotic vehicle |
| US10691097B2 (en) * | 2014-05-09 | 2020-06-23 | The Boeing Company | Path repeatable machining for full sized determinant assembly |
| US9713982B2 (en) | 2014-05-22 | 2017-07-25 | Brain Corporation | Apparatus and methods for robotic operation using video imagery |
| US10194163B2 (en) | 2014-05-22 | 2019-01-29 | Brain Corporation | Apparatus and methods for real time estimation of differential motion in live video |
| US9939253B2 (en) | 2014-05-22 | 2018-04-10 | Brain Corporation | Apparatus and methods for distance estimation using multiple image sensors |
| US12333808B2 (en) | 2014-05-31 | 2025-06-17 | Todd Martin | System and method for identifying a brand worn by a person in a sporting event |
| WO2015193049A1 (en) | 2014-06-17 | 2015-12-23 | Swiss Timing Ltd | Automated camera-based time measurement system and method |
| US9848112B2 (en) | 2014-07-01 | 2017-12-19 | Brain Corporation | Optical detection apparatus and methods |
| US10057593B2 (en) | 2014-07-08 | 2018-08-21 | Brain Corporation | Apparatus and methods for distance estimation using stereo imagery |
| US9821470B2 (en) | 2014-09-17 | 2017-11-21 | Brain Corporation | Apparatus and methods for context determination using real time sensor data |
| US9860077B2 (en) | 2014-09-17 | 2018-01-02 | Brain Corporation | Home animation apparatus and methods |
| US9849588B2 (en) | 2014-09-17 | 2017-12-26 | Brain Corporation | Apparatus and methods for remotely controlling robotic devices |
| US9579790B2 (en) | 2014-09-17 | 2017-02-28 | Brain Corporation | Apparatus and methods for removal of learned behaviors in robots |
| US10032280B2 (en) | 2014-09-19 | 2018-07-24 | Brain Corporation | Apparatus and methods for tracking salient features |
| US9630318B2 (en) | 2014-10-02 | 2017-04-25 | Brain Corporation | Feature detection apparatus and methods for training of robotic navigation |
| US9881349B1 (en) | 2014-10-24 | 2018-01-30 | Gopro, Inc. | Apparatus and methods for computerized object identification |
| US9426946B2 (en) | 2014-12-02 | 2016-08-30 | Brain Corporation | Computerized learning landscaping apparatus and methods |
| US9717387B1 (en) | 2015-02-26 | 2017-08-01 | Brain Corporation | Apparatus and methods for programming and training of robotic household appliances |
| GB201508074D0 (en) * | 2015-05-12 | 2015-06-24 | Apical Ltd | People detection |
| US9840003B2 (en) | 2015-06-24 | 2017-12-12 | Brain Corporation | Apparatus and methods for safe navigation of robotic devices |
| US10197664B2 (en) | 2015-07-20 | 2019-02-05 | Brain Corporation | Apparatus and methods for detection of objects using broadband signals |
| US20170102480A1 (en) * | 2015-10-09 | 2017-04-13 | Stratom, Inc. | Field of play boundary detection system |
| EP3182381A1 (en) * | 2015-12-18 | 2017-06-21 | Swiss Timing Ltd. | Measurement system with correction of the arrival time of an athlete in a race |
| US10295972B2 (en) | 2016-04-29 | 2019-05-21 | Brain Corporation | Systems and methods to operate controllable devices with gestures and/or noises |
| FR3052949B1 (en) * | 2016-06-17 | 2019-11-08 | Alexandre Courtes | METHOD AND SYSTEM FOR TAKING VIEWS USING A VIRTUAL SENSOR |
| CN106780823B (en) * | 2016-12-02 | 2018-12-11 | 段义龙 | A kind of two dimensional code directed movement management system |
| WO2018137767A1 (en) * | 2017-01-26 | 2018-08-02 | Telefonaktiebolaget Lm Ericsson (Publ) | Detection systems and methods |
| US10331960B2 (en) | 2017-05-10 | 2019-06-25 | Fotonation Limited | Methods for detecting, identifying and displaying object information with a multi-camera vision system |
| US11615566B2 (en) | 2017-05-10 | 2023-03-28 | Fotonation Limited | Multi-camera vehicle vision system and method |
| US10740627B2 (en) | 2017-05-10 | 2020-08-11 | Fotonation Limited | Multi-camera vision system and method of monitoring |
| GB2581746B (en) | 2017-10-22 | 2022-11-02 | Martin Todd | A sporting event entry system and method |
| US11025942B2 (en) * | 2018-02-08 | 2021-06-01 | Samsung Electronics Co., Ltd. | Progressive compressed domain computer vision and deep learning systems |
| CN109509213B (en) * | 2018-10-25 | 2023-06-27 | 天津师范大学 | A Harris corner detection method applied to asynchronous time-domain vision sensor |
| EP3663963B1 (en) * | 2018-12-04 | 2021-03-10 | Sick Ag | Reading of optical codes |
| EP3667415B1 (en) * | 2018-12-12 | 2022-03-02 | Swiss Timing Ltd. | Method and system for displaying an instant image of the finish of a race from a temporal image such as a photo-finish |
| EP3895061A1 (en) * | 2018-12-13 | 2021-10-20 | Prophesee | Method of tracking objects in a scene |
| JP7161717B2 (en) * | 2018-12-18 | 2022-10-27 | ヒロテック株式会社 | Arrival order determination method, arrival order determination device, and program |
| FR3099270B1 (en) * | 2019-07-22 | 2021-10-29 | Bull Sas | Method of identifying a person in a video, by a number carried by this person, corresponding computer program and device |
| FR3099269B1 (en) * | 2019-07-22 | 2023-08-04 | Bull Sas | Method for identifying a person in a video, by a visual signature of this person, corresponding computer program and device |
| FR3099278B1 (en) * | 2019-07-22 | 2023-08-04 | Bull Sas | Method for video surveillance of the crossing of a line by persons, corresponding computer program and device |
| CN113014913B (en) * | 2019-12-19 | 2022-09-06 | 合肥君正科技有限公司 | Method for detecting shielding of in-vehicle monitoring camera in segmented mode |
| US20230132193A1 (en) * | 2020-03-30 | 2023-04-27 | Sony Semiconductor Solutions Corporation | Image capturing device, image capturing system, and image capturing method |
| US11508078B2 (en) * | 2020-08-05 | 2022-11-22 | Lineage Logistics, LLC | Point cloud annotation for a warehouse environment |
| CN111965726B (en) * | 2020-08-12 | 2023-09-08 | 浙江科技学院 | Inspection system and method for field access device for nuclear power safety |
| EP3982337B1 (en) * | 2020-10-09 | 2023-09-27 | Swiss Timing Ltd | Method and system for improved measurement of time for moving across a finish line |
| EP4300434A1 (en) * | 2022-06-28 | 2024-01-03 | Axis AB | Image processing device and method of detecting objects crossing a crossline and a direction the objects crosses the crossline |
| WO2024257585A1 (en) * | 2023-06-14 | 2024-12-19 | ソニーセミコンダクタソリューションズ株式会社 | Sensor device, data structure, and information processing device |
| CN117412180B (en) * | 2023-12-15 | 2024-03-15 | 杭州三信网络技术有限公司 | Welding machine based on multi-camera linkage target monitoring and target monitoring method |
Family Cites Families (49)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| US3883683A (en) | 1963-07-09 | 1975-05-13 | Us Army | High speed line scanner |
| US3479939A (en) | 1967-02-13 | 1969-11-25 | Jones Precision Photo Finish I | Strip film camera and method of operating same |
| JPS5143410B2 (en) | 1972-04-10 | 1976-11-22 | ||
| US3829869A (en) | 1972-12-29 | 1974-08-13 | Specialty Instr Corp | Photo finish record system |
| JPS5244512A (en) | 1975-10-06 | 1977-04-07 | Nippon Telegr & Teleph Corp <Ntt> | Between-frame coding equipment |
| US4179710A (en) | 1976-02-23 | 1979-12-18 | Nippon Electric Co., Ltd. | Predictive encoder with a non-linear quantizing characteristic |
| FR2351457A1 (en) | 1976-05-12 | 1977-12-09 | Suisse Horlogerie | SPORTS TIMING INSTALLATION |
| US4182330A (en) | 1977-07-25 | 1980-01-08 | Alza Corporation | Means for administering amphipathic medicament |
| US4356167A (en) | 1978-01-27 | 1982-10-26 | Sandoz, Inc. | Liposome drug delivery systems |
| US4235871A (en) | 1978-02-24 | 1980-11-25 | Papahadjopoulos Demetrios P | Method of encapsulating biologically active materials in lipid vesicles |
| US4744989A (en) | 1984-02-08 | 1988-05-17 | E. R. Squibb & Sons, Inc. | Method of preparing liposomes and products produced thereby |
| US4610868A (en) | 1984-03-20 | 1986-09-09 | The Liposome Company, Inc. | Lipid matrix carriers for use in drug delivery systems |
| JPS61107818A (en) | 1984-10-30 | 1986-05-26 | Nec Corp | Entropy coding system and its device |
| US4797751A (en) | 1985-06-19 | 1989-01-10 | Yamaguchi Cinema Corporation | Electronic camera apparatus for recording and reproducing moving object images |
| FR2589604B1 (en) | 1985-11-04 | 1988-01-22 | Longines Francillon Sa Cie Mon | APPARATUS FOR TIMING SPORTS RACES |
| JPS62140033A (en) | 1985-12-13 | 1987-06-23 | Canon Inc | Photometric device |
| US4754342A (en) | 1986-04-11 | 1988-06-28 | Cmx Corporation | Video editing system having virtual memory |
| US4825390A (en) | 1986-04-28 | 1989-04-25 | Texas Instruments, Inc. | Color palette having repeat color data |
| US4799053A (en) | 1986-04-28 | 1989-01-17 | Texas Instruments Incorporated | Color palette having multiplexed color look up table loading |
| KR910000707B1 (en) * | 1986-05-26 | 1991-01-31 | 미쓰비시덴기 가부시기가이샤 | Method and apparatus for encoding transmitting |
| US4823283A (en) | 1986-10-14 | 1989-04-18 | Tektronix, Inc. | Status driven menu system |
| US4742971A (en) | 1986-11-24 | 1988-05-10 | Hub Winch, Inc. | Attachment winch for vehicle wheels |
| DE3716987C1 (en) | 1987-05-21 | 1988-04-28 | Augustin Imhof | Method and device for determining the time between the start and finish of competitors or the like. |
| US4920429A (en) | 1989-01-24 | 1990-04-24 | International Business Machines | Exposure compensation for a line scan camera |
| US5008739A (en) | 1989-02-13 | 1991-04-16 | Eastman Kodak Company | Real-time digital processor for producing full resolution color signals from a multi-color image sensor |
| US5016107A (en) | 1989-05-09 | 1991-05-14 | Eastman Kodak Company | Electronic still camera utilizing image compression and digital storage |
| FR2648594B1 (en) | 1989-06-15 | 1993-03-05 | Omega Electronics Sa | APPARATUS FOR TIMING COURSES |
| JPH0344182A (en) * | 1989-07-11 | 1991-02-26 | Ricoh Co Ltd | Still picture recorder |
| JPH03129987A (en) * | 1989-10-14 | 1991-06-03 | Sony Corp | Method for coding video signal |
| DE3937977C1 (en) | 1989-11-15 | 1990-12-20 | Augustin 7619 Steinach De Imhof | |
| JP2854359B2 (en) * | 1990-01-24 | 1999-02-03 | 富士通株式会社 | Image processing system |
| US5513103A (en) * | 1991-01-10 | 1996-04-30 | Charlson; Cary | Method of acquiring and disseminating handicapping information |
| JP3237124B2 (en) * | 1991-04-19 | 2001-12-10 | ソニー株式会社 | Video signal processing device |
| US5144425A (en) | 1991-08-26 | 1992-09-01 | General Electric Company | Apparatus for hierarchically dividing video signals |
| JPH05173231A (en) * | 1991-12-24 | 1993-07-13 | Purasumitsuku:Kk | Moving body photographing device |
| US5657077A (en) | 1993-02-18 | 1997-08-12 | Deangelis; Douglas J. | Event recording system with digital line camera |
| US5552824A (en) * | 1993-02-18 | 1996-09-03 | Lynx System Developers, Inc. | Line object scene generation apparatus |
| US5473369A (en) * | 1993-02-25 | 1995-12-05 | Sony Corporation | Object tracking apparatus |
| JPH06276526A (en) * | 1993-03-22 | 1994-09-30 | Hitachi Denshi Ltd | Color arrival order and time discrimination device |
| WO1995010915A1 (en) * | 1993-10-12 | 1995-04-20 | Orad, Inc. | Sports event video |
| JPH08322010A (en) * | 1995-05-26 | 1996-12-03 | Furoobell:Kk | Goal line attaining judging device |
| JP3679457B2 (en) * | 1995-05-29 | 2005-08-03 | オリンパス株式会社 | Image handling device |
| JP2819016B2 (en) * | 1995-08-30 | 1998-10-30 | セイコーインスツルメンツ株式会社 | Arrival order judgment device |
| JP3026936U (en) * | 1996-01-19 | 1996-07-30 | セイコー電子工業株式会社 | Arrival order determination device |
| JP4079463B2 (en) * | 1996-01-26 | 2008-04-23 | ソニー株式会社 | Subject detection apparatus and subject detection method |
| JPH09234264A (en) * | 1996-02-28 | 1997-09-09 | Oki Electric Ind Co Ltd | Management system for game attending player |
| EP0805595B1 (en) * | 1996-04-30 | 2002-03-20 | Plusmic Corporation | Moving image judging apparatus |
| JP3675570B2 (en) * | 1996-05-30 | 2005-07-27 | ソニー株式会社 | Image comparison apparatus and method |
| US5966074A (en) * | 1996-12-17 | 1999-10-12 | Baxter; Keith M. | Intruder alarm with trajectory display |
-
1998
- 1998-04-10 US US09/058,542 patent/US6545705B1/en not_active Expired - Lifetime
-
1999
- 1999-04-06 JP JP2000544127A patent/JP4615715B2/en not_active Expired - Lifetime
- 1999-04-06 AU AU34762/99A patent/AU3476299A/en not_active Abandoned
- 1999-04-06 WO PCT/US1999/007596 patent/WO1999053686A1/en active Application Filing
Also Published As
| Publication number | Publication date |
|---|---|
| AU3476299A (en) | 1999-11-01 |
| WO1999053686A1 (en) | 1999-10-21 |
| US6545705B1 (en) | 2003-04-08 |
| JP2002511718A (en) | 2002-04-16 |
Similar Documents
| Publication | Publication Date | Title |
|---|---|---|
| JP4615715B2 (en) | Camera with object recognition function and data output | |
| US5576949A (en) | System for animal evaluation through image acquisition | |
| US5483441A (en) | System for animal evaluation through image acquisition | |
| US20150297949A1 (en) | Automatic sports broadcasting system | |
| CN113435336B (en) | Running intelligent timing system and method based on artificial intelligence | |
| EP1366466B1 (en) | Sport analysis system and method | |
| EP0878965A2 (en) | Method for tracking entering object and apparatus for tracking and monitoring entering object | |
| Van der Aa et al. | Umpm benchmark: A multi-person dataset with synchronized video and motion capture data for evaluation of articulated human motion and interaction | |
| JPH05501770A (en) | Dynamic object recognition method and its image processing system | |
| CN108830968B (en) | Track race automatic timing system and timing method | |
| Pers et al. | Computer vision system for tracking players in sports games | |
| WO2005099423A2 (en) | Automatic event videoing, tracking and content generation system | |
| JP2001175868A (en) | Method and device for human detection | |
| CN107241572A (en) | Student's real training video frequency tracking evaluation system | |
| JP2804949B2 (en) | Moving image processing method | |
| Perš et al. | A system for tracking players in sports games by computer vision | |
| JP3844989B2 (en) | Stroke information measuring device and stroke information measuring method | |
| EP0780003B1 (en) | Method and apparatus for determining the location of a reflective object within a video field | |
| JP3461190B2 (en) | Image monitoring device | |
| JP3462754B2 (en) | Monitoring device | |
| JP2893052B2 (en) | 3D feature point coordinate extraction method | |
| JP4559043B2 (en) | Image monitoring device | |
| Perš et al. | Tracking people in sport: Making use of partially controlled environment | |
| JPH06111018A (en) | Image processing system | |
| CN117499696A (en) | Intelligent guided broadcasting method and system for panoramic video |
Legal Events
| Date | Code | Title | Description |
|---|---|---|---|
| A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20060322 |
|
| A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20060322 |
|
| A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20080711 |
|
| A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20080723 |
|
| A601 | Written request for extension of time |
Free format text: JAPANESE INTERMEDIATE CODE: A601 Effective date: 20081022 |
|
| RD04 | Notification of resignation of power of attorney |
Free format text: JAPANESE INTERMEDIATE CODE: A7424 Effective date: 20081022 |
|
| RD13 | Notification of appointment of power of sub attorney |
Free format text: JAPANESE INTERMEDIATE CODE: A7433 Effective date: 20081022 |
|
| A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20081022 Free format text: JAPANESE INTERMEDIATE CODE: A821 Effective date: 20081022 |
|
| A602 | Written permission of extension of time |
Free format text: JAPANESE INTERMEDIATE CODE: A602 Effective date: 20081202 |
|
| A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20090123 |
|
| A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20090714 |
|
| A601 | Written request for extension of time |
Free format text: JAPANESE INTERMEDIATE CODE: A601 Effective date: 20091014 |
|
| A602 | Written permission of extension of time |
Free format text: JAPANESE INTERMEDIATE CODE: A602 Effective date: 20091021 |
|
| A601 | Written request for extension of time |
Free format text: JAPANESE INTERMEDIATE CODE: A601 Effective date: 20091116 |
|
| A602 | Written permission of extension of time |
Free format text: JAPANESE INTERMEDIATE CODE: A602 Effective date: 20091124 |
|
| A601 | Written request for extension of time |
Free format text: JAPANESE INTERMEDIATE CODE: A601 Effective date: 20091214 |
|
| A602 | Written permission of extension of time |
Free format text: JAPANESE INTERMEDIATE CODE: A602 Effective date: 20091221 |
|
| A524 | Written submission of copy of amendment under article 19 pct |
Free format text: JAPANESE INTERMEDIATE CODE: A524 Effective date: 20091228 |
|
| A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20100817 |
|
| A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20100827 |
|
| TRDD | Decision of grant or rejection written | ||
| A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20100928 |
|
| A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 |
|
| A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20101021 |
|
| R150 | Certificate of patent or registration of utility model |
Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
| FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20131029 Year of fee payment: 3 |
|
| A524 | Written submission of copy of amendment under article 19 pct |
Free format text: JAPANESE INTERMEDIATE CODE: A524 Effective date: 20091228 |
|
| R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
| R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
| R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
| R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
| R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
| R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
| EXPY | Cancellation because of completion of term |