[go: up one dir, main page]

JP2016536076A - 基準レファレンスの位置及び方向を決定するための方法 - Google Patents

基準レファレンスの位置及び方向を決定するための方法 Download PDF

Info

Publication number
JP2016536076A
JP2016536076A JP2016533911A JP2016533911A JP2016536076A JP 2016536076 A JP2016536076 A JP 2016536076A JP 2016533911 A JP2016533911 A JP 2016533911A JP 2016533911 A JP2016533911 A JP 2016533911A JP 2016536076 A JP2016536076 A JP 2016536076A
Authority
JP
Japan
Prior art keywords
tracker
points
geometric information
data
coordinates
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2016533911A
Other languages
English (en)
Inventor
エフド ウディ ダオン
エフド ウディ ダオン
マーチン グレゴリー ベケット
マーチン グレゴリー ベケット
ロドリゲス アルバロ アンドレス メジーナ
ロドリゲス アルバロ アンドレス メジーナ
Original Assignee
ナビゲート サージカル テクノロジーズ インク
ナビゲート サージカル テクノロジーズ インク
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by ナビゲート サージカル テクノロジーズ インク, ナビゲート サージカル テクノロジーズ インク filed Critical ナビゲート サージカル テクノロジーズ インク
Publication of JP2016536076A publication Critical patent/JP2016536076A/ja
Pending legal-status Critical Current

Links

Images

Classifications

    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/05Detecting, measuring or recording for diagnosis by means of electric currents or magnetic fields; Measuring using microwaves or radio waves
    • A61B5/055Detecting, measuring or recording for diagnosis by means of electric currents or magnetic fields; Measuring using microwaves or radio waves involving electronic [EMR] or nuclear [NMR] magnetic resonance, e.g. magnetic resonance imaging
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61CDENTISTRY; APPARATUS OR METHODS FOR ORAL OR DENTAL HYGIENE
    • A61C3/00Dental tools or instruments
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B34/00Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
    • A61B34/20Surgical navigation systems; Devices for tracking or guiding surgical instruments, e.g. for frameless stereotaxis
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B6/00Apparatus or devices for radiation diagnosis; Apparatus or devices for radiation diagnosis combined with radiation therapy equipment
    • A61B6/02Arrangements for diagnosis sequentially in different planes; Stereoscopic radiation diagnosis
    • A61B6/03Computed tomography [CT]
    • A61B6/032Transmission computed tomography [CT]
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B8/00Diagnosis using ultrasonic, sonic or infrasonic waves
    • A61B8/13Tomography
    • A61B8/14Echo-tomography
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B90/00Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
    • A61B90/36Image-producing devices or illumination devices not otherwise provided for
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B90/00Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
    • A61B90/39Markers, e.g. radio-opaque or breast lesions markers
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B90/00Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
    • A61B90/90Identification means for patients or instruments, e.g. tags
    • A61B90/98Identification means for patients or instruments, e.g. tags using electromagnetic means, e.g. transponders
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61CDENTISTRY; APPARATUS OR METHODS FOR ORAL OR DENTAL HYGIENE
    • A61C19/00Dental auxiliary appliances
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B34/00Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
    • A61B34/10Computer-aided planning, simulation or modelling of surgical operations
    • A61B2034/101Computer-aided simulation of surgical operations
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B34/00Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
    • A61B34/20Surgical navigation systems; Devices for tracking or guiding surgical instruments, e.g. for frameless stereotaxis
    • A61B2034/2046Tracking techniques
    • A61B2034/2065Tracking using image or pattern recognition
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B90/00Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
    • A61B90/36Image-producing devices or illumination devices not otherwise provided for
    • A61B2090/363Use of fiducial points
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B90/00Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
    • A61B90/36Image-producing devices or illumination devices not otherwise provided for
    • A61B90/37Surgical systems with images on a monitor during operation
    • A61B2090/371Surgical systems with images on a monitor during operation with simultaneous use of two cameras
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B90/00Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
    • A61B90/39Markers, e.g. radio-opaque or breast lesions markers
    • A61B2090/3966Radiopaque markers visible in an X-ray image
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B90/00Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
    • A61B90/39Markers, e.g. radio-opaque or breast lesions markers
    • A61B2090/3983Reference marker arrangements for use with image guided surgery

Landscapes

  • Health & Medical Sciences (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Surgery (AREA)
  • Engineering & Computer Science (AREA)
  • Animal Behavior & Ethology (AREA)
  • General Health & Medical Sciences (AREA)
  • Public Health (AREA)
  • Veterinary Medicine (AREA)
  • Medical Informatics (AREA)
  • Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
  • Heart & Thoracic Surgery (AREA)
  • Biomedical Technology (AREA)
  • Molecular Biology (AREA)
  • Oral & Maxillofacial Surgery (AREA)
  • Pathology (AREA)
  • Physics & Mathematics (AREA)
  • Epidemiology (AREA)
  • Dentistry (AREA)
  • Radiology & Medical Imaging (AREA)
  • Biophysics (AREA)
  • High Energy & Nuclear Physics (AREA)
  • Robotics (AREA)
  • Electromagnetism (AREA)
  • Pulmonology (AREA)
  • Theoretical Computer Science (AREA)
  • Optics & Photonics (AREA)
  • Processing Or Creating Images (AREA)
  • Apparatus For Radiation Diagnosis (AREA)
  • Dental Tools And Instruments Or Auxiliary Dental Instruments (AREA)

Abstract

基準レファレンスの3次元位置及び方向を決定するための方法は、前記基準レファレンスの一部がトラッカーによって観察できるよう、前記基準レファレンスを配置する段階と、前記トラッカーから、前記トラッカーによって観察できる前記基準レファレンスの一部のスキャンデータを得る段階と、前記基準レファレンス上の位置ポイントに関して設定された幾何学的情報を得る段階であって、前記幾何学的情報は、前記基準レファレンスの構造に対する前記位置ポイントの3次元座標を含む段階と、前記スキャンデータ内で、前記設定された幾何学的情報内の座標を有する少なくとも3つの位置ポイントを識別する段階と、前記手術部位のスキャンデータと、前記設定された幾何学的情報内の前記少なくとも3つの識別された位置ポイントの座標から、前記基準レファレンスの前記3次元位置及び方向を決定する段階とを含む。

Description

本願は、その開示が本明細書に参照として統合されている、2013年8月13日付で出願された米国の仮特許出願の第61/865508号の米国特許法第119条による優先権の利益を主張する。
本発明は、位置モニタリングハードウェア及びソフトウェアに関する。さらに詳細には、本発明は、医療手術過程において基準レファレンスの位置及び方向を決定することに関する。
手術手順を観察し、モニタリングするための視覚的及び他の感覚的システムが業界に公知されている。現在、かかる観察及びモニタリングシステムを用いてコンピュータが補助する手術が可能であり、実際、日常的に行われている。かかる手順において、コンピュータソフトウェアは、患者の臨床映像及び現在の手術手順から観察された手術映像と相互作用し、手術を行う際、外科医を案内する。例えば、1つの公知のシステムにおいて、キャリアアセンブリは患者の顎骨に対し、正確に繰り返せる位置で取り付け要素の上部に少なくとも1つの基準マーカーを有する。その基準マーカーと患者の顎骨の間に位置登録を提供するため、そのキャリアアセンブリを採択し、その位置登録を使用してドリルリングアセンブリを案内するトラッキングシステムを採択することで、人工の歯(インプラント)を移植する。このような相対的に新しいコンピュータ具現技術を備えることで、更なる改良は手術手順の効率性を一層向上させることができる。
基準レファレンスの位置及び方向を3次元に決定するための方法は、前記基準レファレンスの一部がトラッカーによって観察できるよう、前記基準レファレンスを配置する段階と、前記トラッカーから、前記トラッカーによって観察できる前記基準レファレンスの前記一部のスキャンデータを得る段階と、データベースから、前記基準レファレンス上の位置ポイントに関して設定された幾何学的情報を得る段階であって、前記幾何学的情報は、前記基準レファレンスの構造に対する前記位置ポイントの3次元座標を含む段階と、前記スキャンデータ内で、前記設定された幾何学的情報内の少なくとも2つの非平行線に沿って配列された座標を有する少なくとも3つの位置ポイントを識別する段階と、前記スキャンデータと、前記設定された幾何学的情報内の前記少なくとも3つの識別された位置ポイントの座標から、前記基準レファレンスの前記3次元位置及び方向を決定する段階とを含む。前記少なくとも3つの位置ポイントは、多数の位置ポイントを含むことができ、前記多数のポイントは3次元に分布され得る。前記少なくとも3つの位置ポイントは、2つの非平行線に沿って配列された座標を有する4つの位置ポイントであってもよい。前記方法は、前記データベース内に前記設定された幾何学的情報を保存する段階をさらに含むことができる。
図面と共に後述する本発明の実施形態の説明を参照することによって、上記で言及した、若しくは他の特徴及び目的、かかる特徴及び目的を達成するための方法はさらに明確になり、本発明そのものはさらに理解できるであろう。
本発明の実施形態が利用できるネットワークシステムの概略的な模式図である。 コンピューティングシステム(サーバまたはクライアント、または適切であれば両方共)のブロック図であって、このコンピューティングシステムは選択的な入力装置(例えばキーボード、マウス、タッチスクリーンなど)と出力装置、ハードウェア、ネットワークコネクション、1つ以上のプロセッサ並びにデータ及びモジュールのためのメモリ/ストレージを備えており、本発明の実施形態と共にコントローラ及びディスプレイとして利用することができる。 本発明の実施形態に係る手術モニタリングシステムのハードウェアの構成要素を示す図面である。 本発明の実施形態に係る手術モニタリングシステムのハードウェアの構成要素を示す図面である。 本発明の実施形態に係る手術モニタリングシステムのハードウェアの構成要素を示す図面である。 本発明の実施形態に係る手術モニタリングシステムのハードウェアの構成要素を示す図面である。 本発明の実施形態に係る手術モニタリングシステムのハードウェアの構成要素を示す図面である。 本発明の実施形態に係る手術モニタリングシステムのハードウェアの構成要素を示す図面である。 本発明の実施形態に係る手術モニタリングシステムのハードウェアの構成要素を示す図面である。 本発明の実施形態に係る手術モニタリングシステムのハードウェアの構成要素を示す図面である。 本発明の実施形態に係る手術モニタリングシステムのハードウェアの構成要素を示す図面である。 本発明の実施形態に係る手術モニタリングシステムのハードウェアの構成要素を示す図面である。 本発明の位置登録方法の1つの実施形態を示すフローチャート模式図である。 本発明の位置登録方法の1つの実施形態を示すフローチャート模式図である。 本発明の位置登録方法の1つの実施形態を示すフローチャート模式図である。 本発明の1つの実施形態によってトラッキングポールと歯用ドリルを備える歯用基準キーの図面である。 本発明の他の実施形態によって基準キー、内視鏡、生検針を示す内視鏡手術部位の図面である。 一体と統合されたトラッキングマーカーの実施形態を示す生検針の図面である。 図3Aないし図3E及び図3Gないし図3Jの基準レファレンをより詳細に示す図面である。 図3Aないし図3E及び図3Gないし図3Jの基準レファレンの部分を示す図面である。
多数の図面全体において相応する参照記号は相応する部分を示す。たとえ図面が本発明の実施形態を示していても、それら図面は必ずしも同じ割合ではなく、本発明をさらに上手く例示し、説明できるよう、ある特徴は誇張になっていることもある。フローチャートとスクリーンショットもまた、本質上、代表的であるが、本発明の実際の実施形態は、図面に示していない他の特徴及び段階を含むことができる。本明細書で開示された例示は、1つの形態で本発明の実施形態を説明する。しかし、そのような例示は、決して本発明の範囲を制限するものとして解釈されてはならない。
下記に開示された実施形態は、網羅的だったり、後述する詳細な説明に開示されている正確な形態に本発明を制限したりしようとする意図ではない。寧ろ、開示された実施形態における教示を本技術分野における通常の技術者が活用できるよう、実施形態が選択され、説明されている。
後述する詳細な説明は、英数字文字または他の情報を表すコンピュータメモリ内でデータビット上の作動に対するアルゴリズム及び記号表現で部分的に提示されている。前記ハードウェアコンポーネントは特定のスキャニング法を利用し、特定形態と相対的な方向及び大きさを備えているものに示されているが、一般的な場合、通常の技術者であれば本発明の教示内で様々な特定形態、方向及びスキャニング法が使用できることを認識することができる。コンピュータは、映像データを獲得して処理するインターフェースを含み、一般的に命令を行うためのプロセッサと、命令及びデータを保存するためのメモリとを含む。汎用コンピュータが、そのメモリ内に保存されている一連のマシンエンコーディングされた命令を有する場合、かかるエンコーディングされた命令に応じて作動するコンピュータは、特定形態のマシン、即ち、その一連の命令により具現化された作動を行うよう、特別に構成されているコンピュータであり得る。命令の一部は、他のマシンの作動を制御する信号を生成するため、適応することができる。よって、命令の一部はそれらの制御信号を介して作動し、コンピュータ自体から遠く離れている素材を変形させることができる。これら説明及び表現は、データ処理分野における通常の技術者によって、彼らの作業内容をその分野における通常の技術者に最も効率よく伝達するに用いられる手段である。
本明細書において、そして一般的にアルゴリズムは希望する結果を誘導する、一貫性ある一連の段階として認識されている。これらの段階は物理量を物理的に処理するに要求される段階であって、手術部位の周辺物質を表すスキャニングされたデータを観察し、測定する段階である。必ずしも必要なものではないが、通常、それら量は、保存、転送、変形、組合、比較及び他の方法で処理できる電気的若しくは磁気的パルスまたは信号の形態を有する。時々、主に一般的使用との理由で、それら信号を物理的アイテムや顕示に対するレファレンスとしてビット、値、記号、文字、ディスプレイデータ、ターム、数字などで呼ぶことが便利であると判明されたが、物理的なアイテムや顕示においてそれらの信号は、映像の基礎となるデータを確保するよう、具現或いは表現されている。しかし、それら及び類似の用語は全て適切な物理量と関連しており、本明細書でそれら量に適用される便利なラベルとして単に使用されていることに留意すべきである。
一部のアルゴリズムは情報入力と同時に希望する結果を生成するためにデータ構造を利用することができる。データ構造はデータ処理システムによるデータ管理を非常に促進させ、精巧なソフトウェアシステムを介さなければアクセスすることができない。データ構造はメモリの情報コンテンツではなく、寧ろメモリ内に保存された情報に対する物理的構造を付与、若しくは顕示する特定の電子的構造要素を表す。単なる抽象化を飛び越え、データ構造はメモリ内の特定の電気的または磁気的な構造要素であって、時々関連アイテムのデータモデリングの物理的特性である複雑なデータを正確に表し、同時にコンピュータの作動における効率性を増加させる。
さらに、行われる処理作業は、通常、人間オペレーターによって行われる精神的動作に関連している、比較若しくは追加のような用語で時々言及される。本発明の一部分を形成する、本発明で説明した任意の作動において、人間オペレーターのそのような能力は全く必要でないか、若しくは殆どの場合に好ましくなく、かかる作動は機械作動である。本発明の作動を行うための有用な機械は、汎用デジタルコンピュータまたは他の類似の機器を含む。全ての場合において、コンピュータを作動する際の作動方法と、コンピュータ操作自体の方法の間の区別は認識されるべきである。本発明は、電気的または他の(例えば機械的、化学的)物理的信号を処理する際、他の希望する物理的顕示または信号を生成することができるようにコンピュータを作動させる方法及び装置に関するものである。前記コンピュータはソフトウェアモジュールで作動するが、このソフトウェアモジュールは一連の機械命令を表す媒体に保存されている信号の収集所(コレクション)であり、一連の機械命令を通じ、コンピュータプロセッサはアルゴリズム段階を具現する機械命令を行うことができる。かかる機械命令は、プロセッサがその命令を具現するように解析する実際のコンピュータコードであってもよく、代わりとして実際のコンピュータコードを獲得できるように解析される、かかる命令のハイレベルのコーディングであってもよい。ソフトウェアモジュールはまた、ハードウェアコンポーネントを含むことができるが、アルゴリズムの一部の様相は命令の結果としてではなく、回路自体によって行われる。
また、本発明は、それら作動を行うための装置に関する。この装置は、要求される目的のために特別に構成することができ、若しくはコンピュータ内に保存されているコンピュータプログラムによって選択的に起動したり、若しくは再構成される汎用コンピュータを含むことができる。特定のハードウェアを必要とすると明示的に示されない限り、本明細書に提示するアルゴリズムは、任意の特定コンピュータまたは他の装置と本質的に連係していない。一部の場合において、コンピュータプログラムは特定のプロトコルで構成されている信号を介し、他のプログラムまたは装備と通信したり連係したりするが、このプログラムまたは装備は、相互作用できる特定のハードウェアまたはプログラミングを必要としたり、必要としなかったりする。特に、本明細書における教示に従って記録されたプログラムが備えられている多様な汎用マシンを使用することができ、または要求される方法段階を行うためにさらに特化した装置を構成する方が一層好都合であると判明されるかもしれない。様々なこれらマシンのために要求される構造は、下記の説明から明らかになるであろう。
本発明は、「客体指向」ソフトウェア、特に「客体指向」運営体制を取り扱うことができる。前記「客体指向」ソフトウェアは「客体」に編成されるが、それぞれの客体はその客体に転送された「メッセージ」若しくはその客体と一緒に発生する「イベント」に応えて行われる様々な手順(方法)を記述するコンピュータ命令のブロックを含む。例えば、かかる作動は変数の処理、外部イベントによる客体の活性化、及び他の客体への1つ以上のメッセージの伝達を含む。必ずしも必要なわけではないが、物理的客体は、物理的装置から観察されたデータを収集し、ソフトウェアシステムにその観察されたデータを転送できる相応するソフトウェア客体を有する。かかる観察されたデータは単に便利であるという点で物理的客体及び/またはソフトウェア客体からアクセスすることができる。従って、後述する説明で「実際のデータ」が使用される場合、かかる「実際のデータ」は器具自体からあってもよく、または相応するソフトウェア客体若しくはモジュールからあってもよい。
メッセージはプロセスを行う任意の機能と知識を有する客体の間で転送及び受信される。メッセージはユーザーの命令に応じて発生するが、例えば、イベントを生成する「マウス」ポインターでアイコンを活性化させるユーザーによって発生する。また、メッセージはメッセージの受信に応じる客体によって発生し得る。客体のうちの1つの客体がメッセージを受信する際、その客体は受信したメッセージに相応する作動(メッセージ手順)を行い、必要であれば、その作動の結果を返す。それぞれの客体は、客体自体の内部状態(インスタンス変数)が保存される領域を有するが、その領域で他の客体のアクセスは許容されない。客体指向システムの1つの特徴は、継承である。例えば、ディスプレイ上に「円」を描くための客体は、ディスプレイ上に「外形」を描くための他の客体から機能と知識を継承することができる。
プログラマーは、個別のコードブロックを記録することにより、客体指向プログラミング言語で「プログラム化する」が、それぞれのコードブロックは、その方法を定義することで客体を生成する。メッセージにより相互通信するように適合に変わっているこれら客体のコレクションは、客体指向プログラムを含む。客体指向コンピュータプログラミングは、対話型システムのモデリングを容易にするが、このシステムでシステムのそれぞれのコンポーネントは客体を用いてモデリングすることができ、それぞれのコンポーネントの行為はそれに相応する客体の方法によってシミュレーションされ、コンポーネントの間の相互作用は、客体の間に転送されるメッセージによってシミュレーションされる。
オペレーターは、客体のうちの1つの客体にメッセージを転送することで、客体指向プログラムを含む相互関連した客体のコレクションを誘発することができる。メッセージを受信すると予め設定された機能を行うことにより、客体に反応させることができるが、設定された機能は1つ以上の他の客体に追加的なメッセージを転送することを含むことができる。その他の客体は受信したメッセージに応じ、順次に追加的な機能を行うことができるが、追加的な機能はさらに多くのメッセージを転送することを含む。この方式で、メッセージと応答のシーケンスは、無限に続けられることができ、または全てのメッセージが応答され、且つ新しいメッセージが転送されなかったときに終了することができる。客体指向言語を活用するシステムをモデリングする際、プログラマーは、モデリングされたシステムのそれぞれのコンポーネントが1つの誘発にどう反応するかだけについて考えればよく、一部の誘発に応じて行われる作動手順については考える必要がない。かかる作動手順は、本質的にその誘発に応答する客体の間における相互作用の結果から得られ、プログラマーによって予め定められる必要はない。
たとえ客体指向プログラミングが、相互関連したコンポーネントシステムのシミュレーションをさらに直観的になるようにすることはできるとしても、順次に構成されたプログラムの場合のように、通常、1つの客体指向プログラムによって行われる作動手順は、ソフトウェアのリストから直ちに明確になるわけではないため、客体指向プログラムの作動は時々理解し難い。また、客体指向プログラムの作動が非常に明白に顕示されることを観察して、客体指向プログラムがどのように動作するかを決めることも容易ではない。単に相対的に少数の段階のみ観察できるコンピュータ出力を生成するため、プログラムに応じ、コンピュータによって行われる殆どの作動は観察者に見えない。
後述する説明において頻繁に用いられるいくつかの用語は、本明細書の脈絡で特別な意味を有する。用語「客体」は一連のコンピュータ命令及び関連したデータに関するものであって、ユーザーにより、直接的に若しくは間接的に活性化することができる。用語「ウィンドウ環境」、「ウィンドウ実行」及び「客体指向運営体制」は、ラスタースキャンされた動画ディスプレイにおいて、有界領域(bounded region)の内部のように動画ディスプレイで情報が処理され、ディスプレイされるコンピュータユーザーインターフェースを示すために用いられる。用語「ネットワーク」「近距離通信網」、「LAN」、「広域通信網」、若しくは「WAN」はコンピュータの間でメッセージが転送できる方式で接続されている2台以上のコンピュータを意味する。かかるコンピュータネットワークにおいて、1つ以上のコンピュータは、通常、ハードディスクドライブのような大きいストレージ装置とプリンター、若しくはモデムのような周辺装置を作動させる通信ハードウェアを備えたコンピュータである「サーバ」として作動する。「ワークステーション」という用語が用いられる他のコンピュータはユーザーインターフェースを提供し、コンピュータネットワークのユーザーは共有データファイル、共通周辺装置及びワークステーションの相互間通信のようなネットワークリソースにアクセスすることができる。ユーザーはコンピュータプログラムまたはネットワークリソースを活性化し、「プロセス」を生成するが、そのプロセスは入力変数によって決定される特定の作動特性が備えられたコンピュータプログラムの一般的な作動とその環境を全て含む。プロセスに類似しているのがエージェントであるが(たまに知能型エージェントと呼ばれる)、エージェントはユーザーの干渉なく、いくつかの周期的なスケジュールに従い、情報を収集するか、若しくはいくつかの他のサービースを行うプロセスである。一般的にエージェントは、ユーザーによって通常提供されるパラメータを使用し、ホストマシン上でまたはネットワーク上の他の一部のポイントで位置を探索し、そのエージェントの目的に関する情報を収集し、その情報を周期的にユーザーに提供する。
用語「デスクトップ」はそのデスクトップに関連したユーザーに、関連したセッティングを備えている客体のメニュー、若しくはディスプレイを提示する特定のユーザーインターフェースを意味する。デスクトップがネットワークリソースにアクセスする際、通常、遠隔サーバで実行できる応用プログラムが必要となるが、デスクトップは応用プログラムインターフェース、即ちAPIを呼び出して、ユーザーがネットワークリソースにコマンドを提供し、任意の出力を観察できるようにする。用語「ブラウザ」は、ユーザーに必ずしも明白ではないが、デスクトップとネットワークサーバの間にメッセージを転送し、ネットワークユーザーのディスプレイ及びネットワークユーザーとの相互作用に関与するプログラムのことを指す。ブラウザは、コンピュータの汎世界的なネットワーク、即ち「ワールドワイドウェブ」、若しくは簡単に「ウェブ」でテキスト及びグラフィック情報を転送するための通信プロトコルを活用するよう設計されている。本発明に常用できるブラウザの例は、マイクロソフト社で販売しているインターネットエクスプローラー(インターネットエクスプローラーは、マイクロソフト社の商標)、オペラソフトウェアASAで作ったオペラブラウザプログラム、またはモジラファウンデーションで配布しているファイアフォックスブラウザプログラム(ファイアフォックスは、モジラファウンデーションの登録商標)を含む。後述する説明はブラウザのグラフィックユーザーインターフェースという面でその作動を詳細に説明するが、本発明は、グラフィック基盤のブラウザの多い機能を有している、テキスト基盤のインターフェース、さらには音声若しくは視覚的に活性化されたインターフェースにおいても実行することができる。
ブラウザディスプレイ情報は、標準汎用文書記述言語(SGML)若しくはハイパーテキスト文書記述言語(HTML)でフォーマットされているが、この2つの言語は全てスクリプティング言語であって、特定のASCIIテキストコードを使用し、テキスト文書内に非視覚的コードを内蔵している。これらのフォーマットでのファイルは、インターネットのようなグローバル情報ネットワークを含む、コンピュータネットワークを渡り、容易に転送することができ、ブラウザがテキスト、映像をディスプレイできるようにし、音声及び映像の録音物を演奏できるようにする。ウェブは、その通信プロトコルと共にこれらのデータファイルフォーマットを活用し、サーバとワークステーションの間でかかる情報を転送する。ブラウザはまた、拡張性文書記述言語(XML)のファイル内に提供されている情報をディスプレイできるよう、プログラム化できるが、XMLファイルがあれば様々な文書型定義(DTD)を使用することができるため、本質上、SGML若しくはHTMLより汎用的である。データフォマッティング及びスタイルシートフォマッティングが別に含まれているため(フォマッティングは情報をディスプレイする方法として考えられるので、XMLファイルはデータ及び関連した方法を有する)、XMLファイルは客体に類推することができる。
前述で定義したように、用語「個人携帯情報端末」、または「PDA」は、コンピューティング、電話、ファックス、電子メール及びネットワーキングの特徴が結合されている任意の携帯用モバイル機器を意味する。用語「無線広域通信網」、または「WWAN」は、携帯用機器とコンピュータの間でデータ転送のための媒体として機能する無線ネットワークを意味する。用語「同期化」は、有線または無線のうち、1つを経由し、例えば携帯用機器の第1機器と、例えばデスクトップコンピュータの第2機器との間における情報交換を意味する。同期化は2つの機器におけるデータが同一(少なくとも同期化時点で)であることを保障する。
無線広域通信網において、通信はアナログ、デジタルセルラー、または個人携帯通信サービース(PCS)ネットワーク上の無線信号の転送を介して主に行われる。信号は、極超短波及び他の電磁気波を介しても転送することができる。現在、殆どの無線データ通信は、符号分割多重接続(CDMA)、時分割多重接続(TDMA)、世界移動通信システム(GSM)のような2世代技術、3世代技術(ワイドバンド若しくは3G)、4世代(ブロードバンド若しくは4G)、個人デジタルセルラー(PDC)を使用するセルラーシステムを経由したり、または高度携帯電話システム(AMPS)で使用されているセルラーデジタルパケットデータ(CDPD)のようなアナログシステムにおけるパケットデータ技術を通じて発生する。
用語「無線応用通信プロトコル」、即ち「WAP」は、小型ユーザーインターフェースが備えられた携帯用機器及びモバイル機器でウェブ基盤データの伝達及び提示を容易にする汎用仕様を意味する。「モバイルソフトウェア」は、応用プログラムが移動電話またはPDAのようなモバイル機器で具現できるようにするソフトウェア運営体制を指す。モバイルソフトウェアの例は、Java及びJava ME(JavaとJava MEはカリフォルニア州・サンタクララ所在のサンマイクロシステムズ社の商標)、BREW(BREWはカリフォルニア州・サンディエゴ所在のクアラコム社の登録商標)、Windows Mobile(Windowsはワシントン州・レドモンド所在のマイクロソフト社の登録商標)、Palm OS(Palmはカリフォルニア州・サニーベール所在のパーム社の登録商標)、Symbian OS(Symbianは英国・ロンドン所在のシンビアンソフトウェア株式会社の登録商標)、ANDROID OS(ANDROIDはカリフォルニア州・マウンテンビュー所在のグーグル社の登録商標)、iPhone OS(iPhoneはカリフォルニア州・クパチーノ所在のアップル社の登録商標)、及びWindows Phone7がある。「モバイルアプリ」は、モバイルソフトウェアを用いて実行するように記録されたソフトウェアプログラムを指す。
用語「スキャン」、「基準レファレンス」、「基準位置」、「マーカー」、「トラッカー」及び「映像情報」は、本開示において特別な意味を有する。本開示の目的に関連し、用語「スキャン」またはその派生語は、Xレイ、磁気共鳴映像(MRI)、コンピュータ断層撮影(CT)、超音波検査、コーンビームコンピュータ断層撮影(CBCT)または患者の定量的な空間再現を生成する任意のシステムを指す。用語「基準レファレンス」または単純に「基点」は、認識可能な固定ポイントとしてユニークに識別できるスキャン映像における客体またはレファレンスを指す。本明細書において、用語「基準位置」は、基準レファレンスが取り付けられる有用な位置を指す。「基準位置」は、普通、手術部位に近接する。用語「マーカー」または「トラッキングマーカー」は、外科または歯の手術位置に近接したセンサーにより認識できる客体またはレファレンスを指すが、ここでセンサーは、光センサー、無線識別装置(RFID)、音声感知センサー、紫外線若しくは赤外線センサーであってもよい。用語「トラッカー」は、マーカーの位置と、手術中、リアルタイムで連続的にマーカーの方向及び動きを決定できる機器、若しくは機器システムを指す。具現可能な例として、例えばマーカーが印刷されたターゲットで構成されていれば、前記トラッカーはステレオカメラのペアを含むことができる。本明細書において用語「映像情報」は、光学、若しくは別の方法でトラッカーによって取得される情報を説明するために用いられ、マーカーの位置と、手術中、リアルタイムで連続的にマーカーの方向及び移動を決定するため、用いることができる。
図1は、1つの実施形態によるコンピューティング環境100の高水準のブロック図である。図1は、ネットワーク114により接続されているサーバ110と3つのクライアント112を例示している。説明を簡略且つ明確にできるよう、図1に3つのクライアント112のみを示している。コンピューティング環境100の実施形態は、例えばインターネットであるネットワーク114に接続されている数千、若しくは数万のクライアント112を有することができる。ユーザー(不図示)はクライアント112のうちの1つでソフトウェア116を作動させ、サーバ110及び関連した通信装備及びソフトウェア(不図示)を経由し、ネットワーク114にメッセージを送信・受信することができる。
図2はサーバ110、若しくはクライアント112を具現するに適切なコンピュータシステム210のブロック図である。コンピュータシステム210はバス212を含むが、バス212は、中央プロセッサ214、システムメモリ217(普通、RAMであるが、ROM、フラッシュRAM、若しくはその他のメモリも含むことができる)、入力・出力コントローラ218、音声出力インターフェース222を経由するスピーカシステム220のような外部音声装置、ディスプレイアダプタ226を経由するディスプレイスクリーン224、シリアルポート228、230、(キーボードコントローラ233で接続される)キーボード232、ストレージインターフェース234、フロッピーディスク238を収容し、作動するディスクドライブ237、ファイバーチャネルネットワーク290に接続され、作動するホストバスアダプタインターフェースカード235A、SCSIバス239に接続され、作動するホストバスアダプタインターフェースカード235B、及び光ディスク242を収容し、作動する光ディスクドライブ240のような外部装置のコンピューティングシステム210の主要なサブシステムを互いに接続する。また、マウス246(または、他のポイント・クリック機器、シリアルポート228を経由してバス212に接続)、モデム247(シリアルポート230を経由してバス212に接続)、及びネットワークインターフェース248(バス212に直接接続)が含まれている。
バス212は、中央プロセッサ214とシステムメモリ217との間でデータ通信を可能にさせるが、前述した通り、システムメモリはリードオンリーメモリ(ROM、不図示)若しくはフラッシュメモリ(不図示)、そしてランダムアクセスメモリ(RAM、不図示)を含むことができる。一般的にRAMは主メモリであって、運営体制及び応用プログラムがその中にローディングされる。ROM若しくはフラッシュメモリは、他のソフトウェアコードの中でも基本入力・出力システム(BIOS)を含むことができるが、BIOSは、周辺コンポーネントとの相互作用のような基本的なハードウェア作動を制御する。コンピュータシステム210に常駐する応用プログラムは、一般的にハードディスクドライブ(例えば、固定ディスク244)、光ディスク(例えば、光ドライブ240)、フロッピーディスクユニット237、若しくは他のストレージ媒体のようなコンピュータ可読媒体に保存され、その媒体を経由してアクセスされる。さらに、ネットワークモデム247、若しくはネットワークインターフェース248、若しくは他の通信装備(不図示)を経由し、応用プログラムにアクセスする際、応用プログラムは、応用及びデータ通信技術によって変調された電子信号の形であってもよい。
コンピュータシステム210の他のストレージインターフェースと同様に、ストレージインターフェース234は情報の保存及び/または検索のため、固定ディスクドライブ244のような標準コンピュータ可読媒体に接続することができる。固定ディスクドライブ244は、コンピュータシステム210の一部であってもよく、または別個に分離され、他のインターフェースシステムを介してアクセスすることができる。モデム247は、電話接続、またはインターネットサービース提供者(ISP、不図示)を経由するインターネットを介し、遠隔サーバへの直接接続を提供することができる。ネットワークインターフェース248はPOP(相互接続位置)を経由するインターネットへの直接ネットワークリンクを介し、遠隔サーバへの直接接続を提供することができる。ネットワークインターフェース248は無線技術を使用し、かかる接続を提供することができるが、無線技術はデジタルセルラー電話接続、セルラーデジタルパケットデータ(CDPD)接続、デジタル衛星データ接続、若しくは他の接続を含む。
図3A〜Iのハードウェアコンポーネントを含む、他の多くの装置、若しくはサブシステム(不図示)を類似の方式で接続することができるが(例えば、文書スキャナ、デジタルカメラなど)、これらはその代替として近距離通信網、広域通信網、無線通信網、若しくは通信システムを介して関連したコンピュータリソースと通信することができる。従って、一般的に本開示においてはハードウェアコンポーネントがコンピューティングリソースに直接接続されている実施形態を議論することができるが、本技術分野の通常の技術者は、かかるハードウェアはコンピューティングリソースと遠隔で接続できることが分かる。逆に、本開示を実行するため、図2に示す全ての装置が存在する必要はない。装置及びサブシステムは、図2とは異なる方法で相互接続することができる。図2に示したようなコンピュータシステムの作動は、当業界によく知られているので、本出願では詳細に説明しない。本開示を具現できるソフトウェアのソースコード及び/またはオブジェクトコードは、1つ以上のシステムメモリ217、固定ディスク244、光ディスク242、若しくはフロッピー(登録商標)ディスク238のようなコンピュータ可読記憶媒体に保存することができる。コンピュータシステム210に提供される運営体制は多様であるか、または別バージョンのMS−DOS(MS−DOSはワシントン州・レドモンド所在のマイクロソフト社の登録商標)、WINDOWS(WINDOWSはワシントン州・レドモンド所在のマイクロソフト社の登録商標)、OS/2(OS/2はニューヨーク州・アーモンク所在のIBM社の登録商標)、UNIX(UNIXはイギリス・レディング所在のエックスオープン社の登録商業)、Linux(Linuxはオレゴン州・ポートランド所在のリーナストーバルズの登録商標)、若しくは他の公知されたり開発されたりした運営体制のうち、1つであり得る。
さらに、本明細書で説明する信号に関し、通常の技術者であれば、信号が第1ブロックから第2ブロックに直接転送、または信号がそれらブロックの間で変調(例えば、増幅、減衰、遅延、ラッチ、バッファリング、反転、フィルターリング、若しくは他の変更)できることが分かる。前述した実施形態の信号は1つのブロックから次のブロックに転送されることが特徴とされているが、信号の情報及び/または機能の面がブロックの間で転送される限り、本開示の他の実施形態は、そのような直接転送された信号に代わって変調された信号を含むことができる。ある程度、関連した回路の物理的限界(例えば、ある程度の減衰及び遅延が必然的にあるはず)により、第2ブロックにおける信号入力は、第1ブロックからの第1信号出力に由来する第2信号として概念化することができる。従って、本明細書において用いられる第1信号に由来する第2信号は、第1信号、または回路制限若しくは第1信号の情報及び/または最終機能の面を変えない他の回路素子の通過による、第1信号に対する任意の変調を含む。
本発明は、手術ハードウェア及びソフトウェアモニタリングシステム及び方法の実施形態に関するものであって、患者の手術までに余裕がある間、例えば、患者が手術を準備する間、このシステムが手術部位をモデル化できるよう手術計画を可能にする。
前記システムは、図3Aにおいて単一基準キー10で表示されている、特別に構成されるハードウェアピースを使用し、手術の重要領域(critical area)に対してモニタリングシステムのトラッキングマーカー12の方向を一定方向にする。単一基準キー10は意図された手術領域に隣接した位置に取り付けられるが、図3Aの歯の手術領域の例示的な実施形態において、基準キー10は歯の副木14に取り付けられている。トラッキングマーカー12はトラッキングポール11によって基準キー10に接続することができる。手術部位に関する映像情報を獲得する適切なトラッカーに基準レファレンスが直接見える実施形態において(例えば、図5及び図6を参照)、トラッキングマーカーは基準レファレンスに直接取り付けることができる。例えば、歯の手術で、手術領域の近くに基準キー10を確実に位置付けすることができるよう、歯のトラッキングマーカー12を使用することができる。トラッカーによってトラッキングマーカー12から獲得されたデータの持続的な映像処理のため、前記単一基準キー10はレファレンスポイント、即ち、基点として使用することができる。
他の実施形態において、追加のトラッキングマーカー12は基準キー10及びその基準キーに関連した任意のトラッキングポール11、またはトラッキングマーカー12とは独立したアイテムに取り付けることができる。かかるトラッキングマーカーに関する他の実施形態は、図6及び図7を用いて下記で詳細に説明する。
さらに他の実施形態において、手術部位に隣接したアイテム、若しくは器具のうち、少なくとも1つは本発明のモニタリングシステム700のためのトラッカーとして機能し、前記トラッキングマーカー12及び前記手術領域のスキャンデータに対し、任意の追加のトラッキングマーカーの方向及び位置を感知できるように取り付けられるトラッカーを選択的に有することができる。一例として、器具に取り付けられている前記トラッカーは小型デジタルカメラであってもよい。例えば、歯医者用ドリルに取り付けられてもよい。前記アイテム、若しくは器具に取り付けられたトラッカーによって追跡される任意の他のマーカーは、そのトラッカーの視界の中になければならない。
歯の手術の例を用いると、手術部位の初期スキャンを得るため、患者はスキャニングされる。基準キー10の特定の形により、メモリ内に保存されており、例えば、図2のコンピュータ210のプロセッサ214及びメモリ217の適切なコントローラで実行されるコンピュータソフトウェアは、前記スキャンデータから手術部位内で基準キーの相対的な位置を認識することができるので、基準キー10の位置及び方向を参照し、更なる観察を行うことができる。一部の実施形態において、前記基準レファレンスはスキャニングされた際、認識可能な識別象徴として明確なマーキングを含む。他の実施形態において、前記基準レファレンスは、スキャンで見える身体はスキャンの分析から明確に決定できる前面、後面、上面、下面及び左/右が定義されている表面を示し、それによって基準レファレンスの位置はもちろん、その方向までも決定できるようにする非対称的な形を有しているという点で、前記基準レファレンスは、区別される形状を含んでいる。
さらに、前記コンピュータソフトウェアは、歯、顎骨、皮膚及び歯茎組織、他の手術器具などのようにスキャン内の客体を構成するための座標系を生成することができる。前記座標系はスキャンの映像を基点周辺の空間に関連付けし、方向と位置、両方共によってマーカーが付けられた前記器具を位置付けする。続いて、モニタリングシステムにより生成された前記モデルは、境界条件を点検するために使用することができ、トラッカーと協同してリアルタイムでその配置を適切なディスプレイ、例えば、図2のディスプレイ224上に表示する。
1つの実施形態において、前記コンピュータシステムは基準キー10の物理的な構成に関し、設定された知識を有しており、基準キー10を位置付けするため、スキャンのスライス/セクションを点検する。基準キー10を位置付けする作業は、その独特な形状に基づいたり、または基準キー上部、若しくはトラッキングマーカー12のような前記基準キー10への取付物上部ではっきりと識別され、且つ方向性を有するマーキングに基づくことができる。基準キー10を構築する際、放射線不透過性素材、若しくは高密度素材を採択した高い映像処理コントラストを通じ、基準キー10がスキャンではっきりと見えるようにすることができる。他の実施形態において、適切な高密度、若しくは放射線不透過性インク、若しくは素材を使用して、はっきりと識別され、方向性を有するマーキング素材を生成することができる。
基準キー10が識別されると、分割スキャンから前記基準キー10の位置及び方向が決定され、基準キー10内の1つのポイント(地点)が座標系の中央に割り当てられる。そのように選択されたポイントは任意に選択することができ、またはその選択は数々の有用な基準に基づくことができる。モデルは続いて変形マトリクスの形に誘導され、基準システムに関連付けされるが、1つの特定実施形態において、基準キー10が手術部位の座標系に関連付けされる。その結果で生成される仮想の構築物は、意図されている手術の仮想モデリングのための手術手順計画ソフトウェアによって使用され、代替手段として手術ソフトウェアのための映像支援を提供し/提供したり手術手順を行うための経路をグラフに表したりするための目的で、器具を構成するための計測ソフトウェアによって使用されることができる。
いくつかの実施形態において、前記モニタリングハードウェアは前記基準レファレンスへのトラッキング取付物を含む。歯の手術に関連する実施形態において、前記基準キー10への前記トラッキング取付物はトラッキングマーカー12であるが、前記トラッキングマーカー12はトラッキングポール11を介し、基準キー10に取り付けられている。トラッキングマーカー12は、特別な識別パターンを有することができる。例えば、トラッキングマーカー12のような追跡可能な取付物と、さらに関連しているトラッキングポール11は、公知の構成を有するため、トラッキングポール11及び/またはトラッキングマーカー12からの観察データを座標系に正確に図解することができ、それにより、手術手順の進行をモニタリングして、記録することができる。例えば、特に図3Jに示すように、基準キー10は、トラッキングポール11のインサート17に締結されるよう特別に調整されている所定の位置にホール15を有することができる。例えば、かかる配置において、トラッキングポール11は小さい力で基準キー10のホール15内部に取り付けることができ、それにより、かかる取り付けが成功的に完了すると聴覚的な通知を与えることができる。
手術手順において、トラッキングポールの方向を転換することも可能である。例えば、歯の手術が口腔内の反対側の歯を扱う場合、外科医が手を取り替える場合及び/または2番目の外科医が手術の一部を行う場合、手術位置を変更するため、そのような方向転換があり得る。例えば、トラッキングポールの移動は、座標系に対する前記トラッキングポールの再登録のきっかけとなり得るため、その位置をそれに応じて調節することができる。例えば、歯の手術の実施形態の場合、取り付けられたトラッキングマーカー12を備えたトラッキングポール11が基準キー10のホール15から分離され、関連したトラッキングポールを備えた別のトラッキングマーカーが基準キー10の代替ホールに接続されるとき、かかる再登録が自動的に開始される。さらに、ソフトウェアで境界条件が具現され、観察データがその警戒領域にアクセスし/アクセスしたり入ったりする際、ユーザーに通知することができる。
本発明を活用するシステムのさらに他の実施形態において、本明細書で「ハンドピース」(図5及び図6)と命名される手術器具、若しくは手術道具は、座標系内に位置し、追跡できる独特な構成を有することができ、本明細書で説明するような適切なトラッキングマーカーを有することができる。仮想の素材との潜在的な衝突を示すための境界条件を設定することができ、ハンドピースが境界条件にアクセスすると感知された際、スクリーン上に指示が現れたり、或いはアラームサウンドが鳴り得る。それだけでなく、希望する手術領域を示せるよう、ターゲットの境界条件を設定することができ、ハンドピースの経路がターゲット領域を離れる傾向にあるとき、そのハンドピースが希望経路を離れていることを示す表示が、スクリーン上に見えたり、或いはアラームサウンドが鳴り得る。
いくつかのハードウェアコンポーネントの代替的な実施形態が図3G〜Iに示されている。基準キー10´は適切な接続部を備えた接続要素を有しており、トラッキングポール11´が手術部位に対しトラッキングマーカー12´を位置付けするようにする。独特な形状を有しているが、概念的に基準キー10´は、前述の実施形態と非常に同一の方式でポール11´及びトラッキングマーカー12´に対するアンカーとして機能する。前記モニタリングシステムの前記ソフトウェアは、それぞれ特別に識別される基準キー、トラッキングポール、及びトラッキングマーカーの構成に対し予めプログラムされており、その位置計算は変更された構成パラメータによって変更されるだけである。
規制要件及び実質的な考慮事項により、ハードウェアコンポーネントの素材は異なってもよい。一般的にキー、若しくは基準コンポーネントは、通常、放射線不透過性素材で製造されるため、スキャンのノイズを発生しないが、スキャニングされた映像上に認識できるコントラストを生成するため、それに関連した任意の識別パターンを認識することができる。さらに、キー、若しくは基準コンポーネントは一般的に患者に配置されているため、前記素材は軽量であって、患者に置かれた装置への接続に適合しなければならない。例えば、歯の手術の場合、前記基準キーの素材はプラスチック副木への接続に適合しなければならず、トラッキングポールへの接続に適合しなければならない。外科手術の場合、前記基準キーの素材は患者の皮膚、若しくは他の特定組織への取り付けに適していなければならない。
それに限定されるものではないが、例えば、高コントラストのパターン彫刻を採択することで、前記トラッキングマーカーは鮮明に識別される。前記トラッキングマーカーの素材としては、オートクレーブ工程における損傷に耐性があり、コネクト構造への堅くて繰り返し可能、且つ迅速な接続に適合性のある素材が選択される。前記トラッキングマーカー及びそれに連係されたトラッキングポールは、異なる手術位置に対し異なる位置に収容され得る性能を有しており、前記基準キーと同様、トラッキングマーカーとトラッキングポールは、患者の上部、若しくは患者に対し安定して配置されるため、相対的に軽量でなければならない。前記トラッキングポールも同様に、オートクレーブ工程に適合性がなければならず、トラッキングポールの中で共有された形のコネクターを有しなければならない。
前記基準キー、トラッキングポール及びトラッキングマーカーを追跡する際に採択される前記トラッカーは、1.5mサイズの客体を非常に正確に追跡できなければならない。限定されるものではないが、一例として、前記トラッカーはステレオカメラ、若しくはステレオカメラペアである。感覚的な入力を読み取りできるよう、一般的にトラッカーは有線でコンピューティング装置に接続されるが、前記感覚的なデータをコンピューティング装置に転送できるよう、前記トラッカーは選択的に無線接続を有することができる。
ハンドピースのように追跡可能な器具のピースを追加に採択する実施形態において、かかる追跡可能な器具のピースに取り付けられるトラッキングマーカーはまた軽量でなけれなならず、90°の間隔を持つ3つの客体アレイ内で作動できなければならない。また、高コントラストのパターン彫刻と、標準ハンドピースに対し堅く、迅速な装着メカニズムを選択的に有しなければならない。図6及び図7でさらに詳細に記述するよう、他の実施形態において、前記トラッキングマーカーは一体に統合されている。
本発明の別の側面において、図4A〜Cに示すよう、手術活動を追跡するための自動登録方法が提示される。限定されるものではないが、図4A及び図4Bは、スキャンデータから前記基準レファレンスの3次元位置及び方向を決定するための1つの方法のフローチャートである。図4Cは、前記トラッカーにより獲得された映像情報から適切なトラッキングマーカーの存在を確認し、前記映像情報に基づいて前記基準レファレンスの3次元位置及び方向を決定するための方法を示すフローチャートである。
図4A及び図4Bに示すよう、一旦プロセスが始まると(段階402)、前記システムは、例えばCTスキャンからスキャンデータセットを獲得し(段階404)、前記基点及び前記特別なスキャナモデルの知識に基づいてスキャンと共に提供されるか、或いは提供されない、前記基点に関するCTスキャンのデフォルトハンスフィールドユニット(HU)値をチェックし(段階406)、もしかかる閾値が存在しなければ一般化された所定のデフォルト値が採択される(段階408)。続いて、前記基準キー値に関連している予測値の範囲外のハンスフィールドデータ値で分割スキャンを除去することで、前記データが処理され(段階410)、残余ポイントの収集が続く(段階412)。もし前記データが空いていれば(段階414)CT閾値が調整され(段階416)、元の値が復元され(段階418)、分割スキャンの分割処理が続く(段階410)。前記データが空いていなければ、既存データを用いてマスの中央が計算され(段階420)、X・Y・Z軸の計算が行われる(段階422)。もしマスの中央がX・Y・Z軸の交差点になければ(段階424)ユーザーに通知され(段階426)、プロセスが終了する(段階428)。もしマスの中央がX・Y・Z軸の交差点にあれば(段階424)そのデータポイントは設計された基準データと比較される(段階430)。もし累積誤差が、許容される最大誤差より大きければ(段階432)ユーザーに通知され(段階434)、このプロセスは終了する(段階436)。累積誤差が、許容される最大誤差より大きくなければ、X・Y・Z軸の交差点で座標系が定義され(段階438)、スキャンプロファイルはHUユニットに対してアップデートされる(段階440)。
図4Cを参照すると、適切なカメラ若しくは別のセンサーであるトラッカーから映像情報が獲得される(段階442)。トラッキングマーカーが映像情報内に存在するかを決定するため、前記映像情報が分析される(段階444)。もし存在しなければ、この手順を続けるべきかどうかがユーザーに問われる(段階446)。続けない場合、このプロセスは終了する(段階448)。このプロセスが続く場合は、前記映像情報内でトラッキングマーカーが発見されなかったことがユーザーに通知され(段階450)、このプロセスは映像情報を獲得する段階に戻る(段階442)。もし前記映像情報に基づきトラッキングマーカーが発見されたり、若しくは前述した通知により、ユーザーによってトラッキングマーカーが取り付けられたりしたら(段階450)、適切なデータベースから前記基準レファレンスに対する前記トラッキングマーカーのオフセット及び相対的な方向が獲得される(段階452)。用語「データベース」は、本明細書において形式的な多重要素、若しくは多次元データベースで構成されたか否かにかかわらず、かかる情報の任意のソース、量及び配置を説明するために用いられる。本発明のこの実施形態の単純な具現において、オフセット値と相対的な方向を含む単一データセットが十分であり、その単一データセットは、例えばユーザーによって提供されてもよく、またはコントローラのメモリユニット内にあるか、若しくは分離されたデータベース、若しくはメモリ内にあってもよい。
座標系の原点を前記基準レファレンスに定義し、前記映像情報に基づいて前記基準レファレンスの3次元方向を決定できるよう、前記トラッキングマーカーのオフセット及び相対的な方向が使用され(段階454)、登録プロセスが終了する(段階456)。前記基準レファレンスの位置と方向をリアルタイムでモニタリングできるよう、このプロセスは段階454から繰り返され、カメラから新しい映像情報を獲得することができる(段階442)。ユーザーがこのプロセスを終了できるよう、適切なクエリポイントが含まれてもよい。映像データから予め設定された形状を有したりマーキングされたりしたトラッキングマーカーの方向及び位置を決定するための詳細な方法は、本技術分野の技術者に知られているので、ここでは説明しない。前記手術部位に隣接した、トラッキングマーカーを有する任意のアイテムの動きを追跡できるよう、このように誘導された座標系が使用される。他の登録システムも考えられるが、例えば設定されたオフセットではなく、既存の他の感覚的なデータを使用するか、若しくは基点が転送容量を持つようにすることがある。
本発明の実施形態の一例が図5に示されている。所定の歯に取り付けられ、堅く取り付けられたトラッキングマーカー504を有する基準キー502の他にも、例えば歯用ドリルであり得るハンドピースの追加器具、若しくは道具506を前記モニタリングシステムのトラッカーとして機能するカメラ508によって観察することができる。
本発明の実施形態の他の例が図6Aに示されている。例えば、人間の腹や胸であり得る手術部位600は、トラッキングマーカー604を支持できるよう、所定の位置に固定されている基準キー602を有することができる。手術過程において適切なトラッキングマーカーを有する他の装置を手術部位600で使用することができる。非制限的な例として、内視鏡606は別のトラッキングマーカーを有することができ、トラッキングマーカーを有する生検針608は手術部位において提示されることができる。前記システムに対するトラッカーとして機能するセンサー610は、例えばカメラ、赤外線感知器、若しくはレーダーであり得る。特に前記トラッカーは、本発明の実施形態の目的に関する映像情報として用いるための手術部位600の2次元映像を生成する、2次元映像トラッカーであり得るが、前記映像情報は、前記トラッカーの視界内の任意のトラッキングマーカーの2次元映像情報を含む。手術部位600、内視鏡606、生検針608、基準キー602及びトラッキングマーカー604は、全てトラッカー610の視界内にあってもよい。
図6は、生検針608を追跡するために用いられるトラッキングマーカーの1つの実施形態を示す。図7は、例えば生検針608のトラッキングマーカーの他の実施形態を示す。この実施形態において、トラッキングマーカー618は、生検針608の剛性の位置方向部に一体統合されている。本明細書において、素材の1ピースから一緒に作られるアイテムを記述するために「一体統合された」が用いられるが、これは着脱可能若しくは非統合的な結合を通じ、該当アイテムが製造後に一緒に接合されている状況と対比する。この特定実施例において、生検針608の適切な剛性の位置方向部は、そのハンドル612である。ハンドル612は、例えば素材の単一体ピースからモールディング、キャスティング、切削若しくは別の方式で製造することができ、トラッキングマーカー618は、同一素材の一体ピースから作ったり、形成したり、製造することができる。トラッキングマーカー618は、前記生検針608の剛性のハンドル部612が製造される工程と同一工程で形成することができる。
いくつかの実施形態において、ハンドル612そのものは、2つ以上のセクションを含むことができる。組立てられた場合、前記2つ以上のセクションは、剛性の全体を生成するが、この場合、生検針608のポイントである装置の作業端部がハンドル612に対し、どこでどのように3次元的な方向及び位置を有するようになるかについては、この剛性の全体が左右する。トラッキングマーカー618が生検針608のハンドル612の堅い部分に一体統合されており、生検針608のポイントに対し、一体統合されたトラッキングマーカー618の方向及び位置が固定して知られている範囲で、トラッカー610の視界内にあるトラッキングマーカー618の3次元方向及び位置を知っていると、生検針608のポイントの位置及び方向をユーザーに提供することになる。かかる実施形態において、例えば生検針608のハンドル612の2つの半分に基づいて、生検針608の適切な剛性の位置方向部は、トラッキングマーカー618が一体統合されている、ハンドル612のその半分である。
装置の剛性の位置方向部に対する3次元トラッキングマーカーの一体統合は、手術器具に限定されない。適切な剛性の位置方向部を有する任意の医療機器に適用することができ、実際に適切な剛性の位置方向部を有する任意の装置に適用することができる。
他の実施形態において記述されたトラッキングマーカーと同様に、トラッキングマーカーの方向がトラッカー610の視界内にある生検針608の2次元映像から決定できるよう、トラッキングマーカー618は3次元形状を有することができる。他の実施形態において、一体統合されたトラッキングマーカー618は、一体統合されたマーキング部を有するため、その方向がトラッカー610の視界内にある生検針608の2次元映像から決定できる。さらに他の実施形態において、トラッキングマーカーは、その位置、その方向若しくは両方共に決定できるよう、形状及びマーキングを全て有することができる。
さらに他の実施形態において、位置方向マーキング部は、トラッキングマーカー618の上に筆写、陰刻、刻印、陽刻若しくは他の方法で形成することができる。トラッキングマーカー618の位置及び方向を決定するための有用なマーキング部は、発明の名称が「識別マーカーの3次元位置及び方向を決定するためのシステム並びに方向」であり、米国公開特許の第2014/0126767A1号として公開されており、本明細書に参照として完全に統合されている、同時係留中である米国特許出願の第13/713165号に記述されている。
特許出願第13713165号に記述された通り、トラッキングマーカー618上の前記マーキング部は、回転方向に非対称パターンで配列されている多数のコントラスト部を含み、前記コントラスト部のうち、少なくとも1つは、数学的に記述できる曲線部を有する外周部を有する。コントラスト部の外周部は、例えば、楕円若しくは円を含む円錐曲線を含むことができる。前記マーキング部は、前記トラッキングマーカーに一体統合されることができる。他の実施形態において、前記マーキング部は、追跡マーカー618の上に筆写、陰刻、刻印、陽刻若しくは他の方法で形成することができる。前記非対称パターンに対する幾何学的情報は、データーベースに保存することができる。トラッカー610から獲得された映像情報を、トラッキングマーカー618に関する幾何学的情報と比較するため、例えば図2のコンピューター210のプロセッサ214及びメモリ217である適切なコントローラが使用され、トラッキングマーカー618及びこれに連係された生検針608の3次元位置及び方向を決定することができる。
本発明のさらに他の側面から、装置の3次元的に追跡可能な剛性の位置方向部を製造するための方法は、装置の剛性の位置方向部に統合された3次元トラッキングマーカーを一体に形成する段階を含む。前記方法は、前記トラッキングマーカーに統合された位置方向マーキング部を一体に形成する段階をさらに含むことができる。前記方法は、前記3次元トラッキングマーカー上に位置方向マーキング部を、筆写、陰刻、刻印、陽刻若しくは他の方法で形成する段階をさらに含むことができる。
図8Aは、基準キー13を示す。非制限的な例として、図3Aないし図3E及び図3Gないし図3Jに関し、既に説明した基準キー10を選択する。一般的に前記基準キーは、その位置及び方向が3次元で決定できるようにマーキングされたり、形状を有することができる。ここに記述されている実施形態において、基準キー10は、その位置及び方向が3次元で決定できるようにマーキングされている。図8Aに、基準キー10上に5つの識別可能な位置ポイントがA、B、C、D、Eと示されている。これらの識別可能なポイントの間に少なくとも5つの異なる非平行線が引かれてもよい。5つのポイントを結ぶ線から少なくとも4つの異なる独特な三角形が形成され得る。例えば、A、B、Cの少なくとも3つの識別可能なポイントを使用し、基準キー10の位置及び方向が迅速に決定できることは明らかである。図8Aの場合、類似方式で使用できる他の三角形を形成できるよう、類似に適用できる様々な異なるポイントが存在する。
次に、適切なトラッカーによる観察によって一部10´のみを提示できるよう割れていたり、部分的にのみ観察可能な同一タグ10を示す図8Bを説明する。適用しようと設計した任意の特定透過性放射線を適用したトラッカーを使用し、トラッカーによる基準レファレンスの映像的検出可能性を記述するため、用語「観察可能」が用いられる。割れていたり、部分的にのみ観察可能な全ての場合において、ポイントA、B、C及びEのみがトラッカー(図8Aに不図示)に見える。3次元空間においてタグ10´の位置及び方向を完全に決定できるよう、例えばポイントC又はEのうち、いずれの1つと共にポイントAとBがあれば十分である。使用可能なポイントが多ければ多いほど、その位置及び方向を3次元で決定することがさらに正確になる。
図8A及び図8Bから、基準レファレンス10若しくは基準レファレンス10の一部10´の上に、2つの互いに非平行な方向に沿って配置されている2セットのポイントを識別すれば、3次元で基準レファレンス10の位置及び方向を決定できるということは確かである。
一部の実施形態において、基準レファレンス10若しくは基準レファレンス10の一部10´の3次元位置及び方向を完全に決定するため、2つの非平行な直線に沿ってそれぞれ形成されるポイント2つのセット2つとして分布される4つの識別可能なポイントを適用することができる。図8A及び図8Bを参照すると、この実施形態において、一方ではポイントAとBとの間の線と、他方ではポイントCとEとの間の線を適用することができる。
したがって、3つの識別された位置ポイントが適用される実施形態は、特別なケースであって、4つのポイントのうち、2つは同一ポイントであり、要求される2つの非平行線は共通ポイントを共有するケースである。
さらに一般的な場合に、基準レファレンス10若しくは基準レファレンス10´の一部の位置及び方向を完全に決定するに要求される、基準レファレンス10若しくは基準レファレンス10の一部10´上の識別可能なポイントは、2本の直線に沿って位置する必要はないが、これらポイントの間の3次元空間関係が知られていなければならない。
基準レファレンス10若しくは基準レファレンス10の一部10´の位置及び方向を完全に決定するための基本要件は、例えばA、B、Cの少なくとも3つの識別可能な位置ポイントがなければならないということであって、これら位置ポイントは2本の非平行線を定義し、トラッカーによって観察でき、基準レファレンス10若しくは10´の構造に対してこれらの3次元位置が知られている既存のデータベースから識別することができる。1つの実施形態において、前記少なくとも3つの識別可能な位置ポイントに関する基準レファレンス10、10´の特定構造は、トラッカーのオペレーターによって明示されるが、例えば関連するパラメータのデータ入力によるか、或いはその使用前に基準レファレンス10のスキャニングによるか、或いは基準レファレンス10の複製のスキャニングによって明示され、少なくとも3つの位置ポイントを認識すると、それによって基準レファレンス10、10´の位置及び方向を決定することができる。その代わりに、前記システムは、前記少なくとも3つの識別可能な位置ポイントに関する情報及び基準レファレンス10、10´に関する別の映像情報を用いることができる。例えば、基準レファレンス10、10´上の外部縁の少なくとも一部分、若しくは観察可能な特定形状やマーカーが映像認識ソフトウェアによって用いられ、基準レファレンスの特定タイプや実例、若しくは既知の基準レファレンスのデータベースからの基準レファレンスの既知の映像に対するマッチを識別することができるが、前記データベースは、前記相応する特定構造に関する情報と、前記少なくとも3つの識別可能な位置ポイントの関係に関する情報を有する。
一般的に、基準レファレンス10若しくは基準レファレンス10の一部10´上に一般分布で配置された多数の識別可能なポイントを適用することができるが、適用される識別可能なポイントの数が増加すると、この方法の正確性が向上する。
本明細書に記述された他の実施例において、少なくとも3つの予め識別されたポイントがトラッカーによって観察されることができ、基準レファレンスの構造に対するこれら3つの予め識別されたポイントの3次元位置が知られていれば、適用される全体基準レファレンスは、トラッカーによって観察されなくてもよい。前記基準レファレンスの構造は、前記オペレーターによって直接入力されてもよく、適切なデータベースから誘導されてもよい。
さらに詳細に、前記実施形態のうち、任意の実施形態の一般的な基準レファレンスの位置及び方向を3次元で決定するための前述した方法は、基準レファレンスの一部がトラッカーによって観察できるように前記基準レファレンスを配置する段階と、前記トラッカーから、前記トラッカーによって観察できる前記基準レファレンスの一部のスキャンデータを得る段階と、前記基準レファレンス上の位置ポイントに対し、設定された幾何学的情報を得る段階であって、前記幾何学的情報は前記基準レファレンスの構造に対する前記位置ポイントの3次元座標を含む段階と、前記スキャンデータ内で、前記設定された幾何学的情報内の少なくとも2本の非平行線に沿って配置された座標を有する少なくとも3つの位置ポイントを識別する段階と、前記スキャンデータと、前記設定された幾何学的情報内の前記少なくとも3つの識別された位置ポイントの座標から前記基準レファレンスの前記3次元位置及び方向を決定する段階とを含む。前記少なくとも3つの位置ポイントは、多数の位置ポイントを含むことができ、前記多数のポイントは3次元で分布することができる。
本発明は、例示的な設計を有するものと記述されたが、本発明は、本開示の精神及び範囲内でさらに変更することができる。したがって、本出願は、その一般的な原理を用いる本発明の任意の変異や使用若しくは変形を包括することを意図する。さらに、本出願は、本発明が属する技術分野で公知されているか、若しくは通常の慣行内に入るような本開示からの逸脱を包括することを意図している。

Claims (16)

  1. 基準レファレンスの位置及び方向を3次元に決定するための方法であって、
    前記基準レファレンスの一部がトラッカーによって観察できるよう、前記基準レファレンスを配置する段階と、
    前記トラッカーから、前記トラッカーによって観察できる前記基準レファレンスの一部のスキャンデータを得る段階と、
    前記基準レファレンス上の位置ポイントに関して設定された幾何学的情報を得る段階であって、前記幾何学的情報は、前記基準レファレンスの構造に対する前記位置ポイントの3次元座標を含む段階と、
    前記スキャンデータ内で、前記設定された幾何学的情報内の少なくとも2本の非平行線に沿って配列された座標を有する少なくとも3つの位置ポイントを識別する段階と、
    前記スキャンデータと、前記設定された幾何学的情報内の前記少なくとも3つの識別された位置ポイントの座標から、前記基準レファレンスの前記3次元位置及び方向を決定する段階とを含む方法。
  2. 前記少なくとも3つの位置ポイントは、多数の位置ポイントを含む、請求項0に記載の方法。
  3. 前記多数のポイントは、3次元に分布されている、請求項0に記載の方法。
  4. 前記少なくとも3つの位置ポイントは、2本の非平行線に沿って配列された座標を有する4つの位置ポイントである、請求項0に記載の方法。
  5. 前記データベース内に前記設定された幾何学的情報を保存する段階をさらに含む、請求項0に記載の方法。
  6. 前記得る段階は、前記基準レファレンスに対するマッチを見つけるためにデータベースを用いる段階を含む、請求項1に記載の方法。
  7. 前記得る段階は、前記基準レファレンスの複製をスキャニングする段階を含む、請求項1に記載の方法。
  8. 前記得る段階は、オペレーターが前記基準レファレンスに関する関連パラメータを入力する段階を含む、請求項1に記載の方法。
  9. 基準レファレンスの位置及び方向を3次元に決定するためのシステムであって、
    プロセッサに関するデータを含むコンピューティング装置と、
    前記コンピューティング装置に接続され、手術部位から映像データを転送するように構成されているトラッカーとを含み、
    前記メモリは、多数のコンピューティング装置命令を保存し、
    前記多数の方法は、前記基準レファレンス上の位置ポイントに関して設定された幾何学的情報を得るため、前記トラッカーから、前記トラッカーによって観察できる前記基準レファレンスの少なくとも一部を含む映像データを得る命令を含み、
    前記幾何学的情報は、前記映像データ内で前記設定された幾何学的情報内の少なくとも2本の非平行線に沿って配列された座標を有する少なくとも3つの位置ポイントを識別し、前記スキャンデータと、前記設定された幾何学的情報内の前記少なくとも3つの識別された位置ポイントの座標から、前記基準レファレンスの前記3次元位置及び方向を決定できるよう、前記基準レファレンスの前記構造に対する前記位置ポイントの3次元座標を含むシステム。
  10. 前記少なくとも3つの位置ポイントは、多数の位置ポイントを含む、請求項9に記載のシステム。
  11. 前記多数の位置ポイントは、3次元に分布されている、請求項10に記載のシステム。
  12. 前記少なくとも3つの位置ポイントは、2本の非平行線に沿って配列される座標を有する4つの位置ポイントである、請求項9に記載のシステム。
  13. 前記データベース内に前記設定された幾何学的情報を保存する段階をさらに含む、請求項9に記載のシステム。
  14. 前記設定された幾何学的情報を得るための前記命令は、前記基準レファレンスに対するマッチを見つけるためにデータベースを用いる命令を含む、請求項9に記載のシステム。
  15. 前記基準レファレンス上の映像情報を得るために前記トラッカーを用いることにより、設定された幾何学的情報を得る命令をさらに含む、請求項9に記載のシステム。
  16. 関連パラメータのオペレーターの入力により、設定された幾何学的情報を得る命令をさらに含む、請求項9に記載のシステム。
JP2016533911A 2013-08-13 2014-08-12 基準レファレンスの位置及び方向を決定するための方法 Pending JP2016536076A (ja)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
US201361865508P 2013-08-13 2013-08-13
US61/865,508 2013-08-13
PCT/EP2014/067279 WO2015022338A1 (en) 2013-08-13 2014-08-12 Method for determining the location and orientation of a fiducial reference

Publications (1)

Publication Number Publication Date
JP2016536076A true JP2016536076A (ja) 2016-11-24

Family

ID=51352500

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2016533911A Pending JP2016536076A (ja) 2013-08-13 2014-08-12 基準レファレンスの位置及び方向を決定するための方法

Country Status (5)

Country Link
US (1) US9918657B2 (ja)
EP (1) EP3033025A1 (ja)
JP (1) JP2016536076A (ja)
CA (1) CA2919165A1 (ja)
WO (1) WO2015022338A1 (ja)

Families Citing this family (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102006004197A1 (de) * 2006-01-26 2007-08-09 Klett, Rolf, Dr.Dr. Verfahren und Vorrichtung zur Aufzeichnung von Körperbewegungen
WO2018143497A1 (ko) 2017-02-03 2018-08-09 김도현 임플란트 수술 가이드 방법
US10871934B2 (en) 2017-05-04 2020-12-22 Microsoft Technology Licensing, Llc Virtual content displayed with shared anchor
US10154885B1 (en) 2017-05-26 2018-12-18 Medline Industries, Inc. Systems, apparatus and methods for continuously tracking medical items throughout a procedure
US11810473B2 (en) 2019-01-29 2023-11-07 The Regents Of The University Of California Optical surface tracking for medical simulation
US11495142B2 (en) 2019-01-30 2022-11-08 The Regents Of The University Of California Ultrasound trainer with internal optical tracking
US11617625B2 (en) 2019-03-12 2023-04-04 Medline Industries, Lp Systems, apparatus and methods for properly locating items
US12059276B2 (en) 2019-08-21 2024-08-13 Medline Industries, Lp Systems, apparatus and methods for automatically counting medical objects, estimating blood loss and/or communicating between medical equipment

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20040138556A1 (en) * 1991-01-28 2004-07-15 Cosman Eric R. Optical object tracking system
WO2013061318A1 (en) * 2011-10-28 2013-05-02 Navigate Surgical Technologies Inc. Surgical location monitoring system and method

Family Cites Families (75)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6405072B1 (en) 1991-01-28 2002-06-11 Sherwood Services Ag Apparatus and method for determining a location of an anatomical target with reference to a medical apparatus
US5230623A (en) 1991-12-10 1993-07-27 Radionics, Inc. Operating pointer with interactive computergraphics
US5603318A (en) 1992-04-21 1997-02-18 University Of Utah Research Foundation Apparatus and method for photogrammetric surgical localization
US5438991A (en) 1993-10-18 1995-08-08 William Beaumont Hospital Method and apparatus for controlling a radiation treatment field
US6122541A (en) 1995-05-04 2000-09-19 Radionics, Inc. Head band for frameless stereotactic registration
US5828770A (en) 1996-02-20 1998-10-27 Northern Digital Inc. System for determining the spatial position and angular orientation of an object
US9603711B2 (en) 2001-05-25 2017-03-28 Conformis, Inc. Patient-adapted and improved articular implants, designs and related guide tools
US5967777A (en) 1997-11-24 1999-10-19 Klein; Michael Surgical template assembly and method for drilling and installing dental implants
US6529765B1 (en) 1998-04-21 2003-03-04 Neutar L.L.C. Instrumented and actuated guidance fixture for sterotactic surgery
US6327491B1 (en) 1998-07-06 2001-12-04 Neutar, Llc Customized surgical fixture
JP2000046546A (ja) 1998-07-29 2000-02-18 Mitsubishi Electric Corp 標識の認識及び測位装置
US6468265B1 (en) 1998-11-20 2002-10-22 Intuitive Surgical, Inc. Performing cardiac surgery without cardioplegia
US8644907B2 (en) 1999-10-28 2014-02-04 Medtronic Navigaton, Inc. Method and apparatus for surgical navigation
EP1392174B1 (de) 2001-03-26 2010-07-14 ALL-OF-INNOVATION Gesellschaft mit beschränkter Haftung Verfahren und gerätesystem zum materialabtrag oder zur materialbearbeitung
US7176936B2 (en) * 2001-03-27 2007-02-13 Siemens Corporate Research, Inc. Augmented reality guided instrument positioning with modulated guiding graphics
US7457443B2 (en) 2001-05-31 2008-11-25 Image Navigation Ltd. Image guided implantology methods
US7634306B2 (en) 2002-02-13 2009-12-15 Kinamed, Inc. Non-image, computer assisted navigation system for joint replacement surgery with modular implant system
US8010180B2 (en) 2002-03-06 2011-08-30 Mako Surgical Corp. Haptic guidance system and method
US6978167B2 (en) 2002-07-01 2005-12-20 Claron Technology Inc. Video pose tracking system and method
US20060281991A1 (en) 2003-05-09 2006-12-14 Fitzpatrick J M Fiducial marker holder system for surgery
US20050171428A1 (en) 2003-07-21 2005-08-04 Gabor Fichtinger Registration of ultrasound to fluoroscopy for real time optimization of radiation implant procedures
US7651506B2 (en) 2003-10-02 2010-01-26 University Of Florida Research Foundation, Inc. Frameless stereotactic guidance of medical procedures
JP4578817B2 (ja) 2004-02-06 2010-11-10 オリンパス株式会社 外科手術用病変部同定システム
EP1744670A2 (en) 2004-03-22 2007-01-24 Vanderbilt University System and methods for surgical instrument disablement via image-guided position feedback
US20070208252A1 (en) 2004-04-21 2007-09-06 Acclarent, Inc. Systems and methods for performing image guided procedures within the ear, nose, throat and paranasal sinuses
US7720521B2 (en) 2004-04-21 2010-05-18 Acclarent, Inc. Methods and devices for performing procedures within the ear, nose, throat and paranasal sinuses
SG119229A1 (en) 2004-07-30 2006-02-28 Agency Science Tech & Res Method and apparatus for insertion of additional content into video
WO2006047610A2 (en) 2004-10-27 2006-05-04 Cinital Method and apparatus for a virtual scene previewing system
US7894878B2 (en) 2004-12-30 2011-02-22 Board Of Regents, The University Of Texas System Anatomically-referenced fiducial marker for registration of data
EP1898826B1 (en) 2005-04-18 2016-12-07 Image Navigation Ltd Methods and apparatus for dental implantation
CA2607507A1 (en) 2005-04-29 2006-11-09 Vanderbilt University System and methods of using image-guidance for providing an access to a cochlear of a living subject
US9526587B2 (en) 2008-12-31 2016-12-27 Intuitive Surgical Operations, Inc. Fiducial marker design and detection for locating surgical instrument in images
US9867669B2 (en) 2008-12-31 2018-01-16 Intuitive Surgical Operations, Inc. Configuration marker design and detection for instrument tracking
DE102005026654A1 (de) 2005-06-09 2006-12-14 Ife Industrielle Forschung Und Entwicklung Gmbh Vorrichtung und Verfahren zur berührungslosen Vermessung der Geometrie, Raumposition und Raumorientierung von Körpern
WO2007063516A2 (en) 2005-11-30 2007-06-07 Philips Intellectual Property & Standards Gmbh Radar system for remotely measuring a subject' s heartrate
JP4863741B2 (ja) 2006-03-22 2012-01-25 タカタ株式会社 対象物検出システム、駆動装置、車両
US7758345B1 (en) 2006-04-01 2010-07-20 Medical Modeling Inc. Systems and methods for design and manufacture of a modified bone model including an accurate soft tissue model
US7556428B2 (en) 2006-04-14 2009-07-07 Xoran Technologies, Inc. Surgical navigation system including patient tracker with removable registration appendage
US7938777B2 (en) 2006-07-21 2011-05-10 Orthosoft Inc. Non-invasive tracking of bones for surgery
US7653455B2 (en) 2006-07-28 2010-01-26 3M Innovative Properties Company Computer-aided implanting of orthodontic anchorage devices using surgical guides
DE502006007337D1 (de) * 2006-12-11 2010-08-12 Brainlab Ag Mehrbandtracking- und Kalibrier-System
US9220573B2 (en) 2007-01-02 2015-12-29 Medtronic Navigation, Inc. System and method for tracking positions of uniform marker geometries
IL188262A (en) 2007-01-10 2011-10-31 Mediguide Ltd System and method for superimposing a representation of the tip of a catheter on an image acquired by a moving imager
US10206757B2 (en) 2007-01-10 2019-02-19 Nobel Biocare Services Ag Method and system for dental planning and production
TWI396523B (zh) 2007-02-14 2013-05-21 Been Der Yang 用以加速牙科診斷及手術規劃之系統及其方法
US8233963B2 (en) 2007-02-19 2012-07-31 Medtronic Navigation, Inc. Automatic identification of tracked surgical devices using an electromagnetic localization system
US20090012509A1 (en) 2007-04-24 2009-01-08 Medtronic, Inc. Navigated Soft Tissue Penetrating Laser System
US20080319491A1 (en) 2007-06-19 2008-12-25 Ryan Schoenefeld Patient-matched surgical component and methods of use
US8545509B2 (en) 2007-12-18 2013-10-01 Otismed Corporation Arthroplasty system and related methods
US9592100B2 (en) 2007-12-31 2017-03-14 St. Jude Medical, Atrial Fibrillation Division, Inc. Method and apparatus for encoding catheters with markers for identifying with imaging systems
ES2939259T3 (es) 2008-04-02 2023-04-20 Neocis Llc Sistema de implante dental guiado
FR2929794B1 (fr) 2008-04-08 2010-12-31 Leo Vision Procede et systeme de traitement d'images pour l'incrustation d'elements virtuels
ES2608820T3 (es) 2008-08-15 2017-04-17 Stryker European Holdings I, Llc Sistema y método de visualización del interior de un cuerpo
EP2381877B1 (en) 2009-01-29 2018-02-28 Imactis Method and device for navigation of a surgical tool
DE102009009158B4 (de) 2009-02-16 2010-11-04 Siemens Aktiengesellschaft Lokalisierung eines medizinischen Instruments in einem präinvasiv aufgenommenen Tomographie-Bilddatensatz
US10039527B2 (en) 2009-05-20 2018-08-07 Analogic Canada Corporation Ultrasound systems incorporating spatial position sensors and associated methods
GB0908784D0 (en) 2009-05-21 2009-07-01 Renishaw Plc Apparatus for imaging a body part
US10039607B2 (en) * 2009-08-27 2018-08-07 Brainlab Ag Disposable and radiolucent reference array for optical tracking
US20120283637A1 (en) 2009-11-03 2012-11-08 Cohen Cynthia E Injection site marker
WO2011057260A2 (en) 2009-11-09 2011-05-12 Worcester Polytechnic Institute Apparatus and methods for mri-compatible haptic interface
WO2011109041A1 (en) 2010-03-04 2011-09-09 Mako Surgical Corp. System with brake to limit manual movement of member and control system for same
US9226801B2 (en) 2010-03-08 2016-01-05 Ibur, Llc Custom linkable imaging and multifunctional tray
EP2547255B1 (en) 2010-03-18 2015-09-30 Rigshospitalet Optical motion tracking of an object
JP2013523415A (ja) 2010-04-14 2013-06-17 スミス アンド ネフュー インコーポレーテッド 患者立脚型コンピュータ支援外科的処置のためのシステムおよび方法
DE102010042540B4 (de) 2010-10-15 2014-09-04 Scopis Gmbh Verfahren und Vorrichtung zum Kalibrieren einer Abstandsbestimmungsvorrichtung eines optischen Systems
US20120115107A1 (en) 2010-11-04 2012-05-10 Adams Bruce W System and method for automated manufacturing of dental orthotics
US9125624B2 (en) 2010-11-23 2015-09-08 Claronav Inc. Method and apparatus for automated registration and pose tracking
GB201100405D0 (en) 2011-01-11 2011-02-23 Depuy Ireland Surgical instrument and method of marking a surgical instrument
DE102011012460A1 (de) 2011-02-25 2012-08-30 Hicat Gmbh Chirurgisches Instrument mit integrierter Navigationskontrolle
US9572539B2 (en) 2011-04-08 2017-02-21 Imactis Device and method for determining the position of an instrument in relation to medical images
US10426554B2 (en) 2011-04-29 2019-10-01 The Johns Hopkins University System and method for tracking and navigation
US20130063558A1 (en) 2011-09-14 2013-03-14 Motion Analysis Corporation Systems and Methods for Incorporating Two Dimensional Images Captured by a Moving Studio Camera with Actively Controlled Optics into a Virtual Three Dimensional Coordinate System
ES2986328T3 (es) 2011-12-21 2024-11-11 Shachaf Catherine M Método de enfoque automático de imagenología por fluorescencia
US20130261783A1 (en) 2012-03-28 2013-10-03 Navident Technologies, Inc. Method for creating of dynamic patient-specific surgical monitoring system
WO2013144208A1 (en) 2012-03-28 2013-10-03 Navigate Surgical Technologies, Inc. Soft body automatic registration and surgical location monitoring system and method with skin applied fiducial reference

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20040138556A1 (en) * 1991-01-28 2004-07-15 Cosman Eric R. Optical object tracking system
WO2013061318A1 (en) * 2011-10-28 2013-05-02 Navigate Surgical Technologies Inc. Surgical location monitoring system and method

Also Published As

Publication number Publication date
CA2919165A1 (en) 2015-02-19
WO2015022338A1 (en) 2015-02-19
US20160045279A1 (en) 2016-02-18
US9918657B2 (en) 2018-03-20
EP3033025A1 (en) 2016-06-22

Similar Documents

Publication Publication Date Title
JP5972475B2 (ja) 識別マーカーの3次元位置及び方向を決定するためのシステム並びに方法
US9452024B2 (en) Surgical location monitoring system and method
JP2016522016A (ja) インプラントモデリングのための3次元抽出追跡
US9566123B2 (en) Surgical location monitoring system and method
US9554763B2 (en) Soft body automatic registration and surgical monitoring system
JP2016536076A (ja) 基準レファレンスの位置及び方向を決定するための方法
US20140320600A1 (en) System and method for tracking non-visible structure of a body
JP2017074389A (ja) 手術位置モニタリングシステム
US20130261783A1 (en) Method for creating of dynamic patient-specific surgical monitoring system
JP2016529924A (ja) 相互相対的な身体の不可視構造を追跡するためのシステム及び方法
US20160345917A1 (en) Method for making a three-dimensionally trackable apparatus
US20160220316A1 (en) Surgical location monitoring system and method with surgical guidance graphic user interface
JP2016507253A (ja) 天然マーカーを用いる手術位置モニタリングシステム及び方法
WO2014147601A2 (en) Method for determining the location and orientation of a fiducial reference
JP2017512609A (ja) 手術部位のリアルタイムトラッキング及びモデリングのためのシステム並びに方法
US20160166174A1 (en) System and method for real time tracking and modeling of surgical site
US20140228675A1 (en) Surgical location monitoring system and method
WO2016139149A1 (en) Surgical location monitoring system and method with surgical guidance graphic user interface
US20140276955A1 (en) Monolithic integrated three-dimensional location and orientation tracking marker
WO2017029203A1 (en) Method for making a three-dimensionally trackable apparatus

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20160215

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20160726

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20170726

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20180418

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20180420

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20181108