[go: up one dir, main page]

CN114845654A - 用于识别并促进与手术空间中的目标物体意图互动的系统和方法 - Google Patents

用于识别并促进与手术空间中的目标物体意图互动的系统和方法 Download PDF

Info

Publication number
CN114845654A
CN114845654A CN202080087518.7A CN202080087518A CN114845654A CN 114845654 A CN114845654 A CN 114845654A CN 202080087518 A CN202080087518 A CN 202080087518A CN 114845654 A CN114845654 A CN 114845654A
Authority
CN
China
Prior art keywords
target object
robotic instrument
robotic
surgical
surgical space
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN202080087518.7A
Other languages
English (en)
Inventor
W·P·刘
M·H·艾伦
M·阿兹兹安
A·沙德曼
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Intuitive Surgical Operations Inc
Original Assignee
Intuitive Surgical Operations Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Intuitive Surgical Operations Inc filed Critical Intuitive Surgical Operations Inc
Publication of CN114845654A publication Critical patent/CN114845654A/zh
Pending legal-status Critical Current

Links

Images

Classifications

    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B34/00Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
    • A61B34/10Computer-aided planning, simulation or modelling of surgical operations
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B34/00Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
    • A61B34/25User interfaces for surgical systems
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B17/00Surgical instruments, devices or methods
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B34/00Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
    • A61B34/20Surgical navigation systems; Devices for tracking or guiding surgical instruments, e.g. for frameless stereotaxis
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B34/00Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
    • A61B34/30Surgical robots
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B34/00Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
    • A61B34/30Surgical robots
    • A61B34/32Surgical robots operating autonomously
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B34/00Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
    • A61B34/30Surgical robots
    • A61B34/35Surgical robots for telesurgery
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B34/00Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
    • A61B34/30Surgical robots
    • A61B34/37Leader-follower robots
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B34/00Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
    • A61B34/70Manipulators specially adapted for use in surgery
    • A61B34/76Manipulators having means for providing feel, e.g. force or tactile feedback
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B90/00Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
    • A61B90/36Image-producing devices or illumination devices not otherwise provided for
    • A61B90/37Surgical systems with images on a monitor during operation
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B17/00Surgical instruments, devices or methods
    • A61B2017/00017Electrical control of surgical instruments
    • A61B2017/00115Electrical control of surgical instruments with audible or visual output
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B17/00Surgical instruments, devices or methods
    • A61B2017/00017Electrical control of surgical instruments
    • A61B2017/00115Electrical control of surgical instruments with audible or visual output
    • A61B2017/00128Electrical control of surgical instruments with audible or visual output related to intensity or progress of surgical action
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B17/00Surgical instruments, devices or methods
    • A61B2017/00017Electrical control of surgical instruments
    • A61B2017/00203Electrical control of surgical instruments with speech control or speech recognition
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B17/00Surgical instruments, devices or methods
    • A61B2017/00017Electrical control of surgical instruments
    • A61B2017/00207Electrical control of surgical instruments with hand gesture control or hand gesture recognition
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B17/00Surgical instruments, devices or methods
    • A61B2017/00017Electrical control of surgical instruments
    • A61B2017/00216Electrical control of surgical instruments with eye tracking or head position tracking control
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B17/00Surgical instruments, devices or methods
    • A61B2017/00017Electrical control of surgical instruments
    • A61B2017/00221Electrical control of surgical instruments with wireless transmission of data, e.g. by infrared radiation or radiowaves
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B17/00Surgical instruments, devices or methods
    • A61B2017/00017Electrical control of surgical instruments
    • A61B2017/00225Systems for controlling multiple different instruments, e.g. microsurgical systems
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B17/00Surgical instruments, devices or methods
    • A61B2017/0042Surgical instruments, devices or methods with special provisions for gripping
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B17/00Surgical instruments, devices or methods
    • A61B2017/00477Coupling
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B34/00Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
    • A61B34/10Computer-aided planning, simulation or modelling of surgical operations
    • A61B2034/101Computer-aided simulation of surgical operations
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B34/00Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
    • A61B34/10Computer-aided planning, simulation or modelling of surgical operations
    • A61B2034/101Computer-aided simulation of surgical operations
    • A61B2034/105Modelling of the patient, e.g. for ligaments or bones
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B34/00Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
    • A61B34/10Computer-aided planning, simulation or modelling of surgical operations
    • A61B2034/107Visualisation of planned trajectories or target regions
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B34/00Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
    • A61B34/20Surgical navigation systems; Devices for tracking or guiding surgical instruments, e.g. for frameless stereotaxis
    • A61B2034/2046Tracking techniques
    • A61B2034/2065Tracking using image or pattern recognition
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B34/00Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
    • A61B34/20Surgical navigation systems; Devices for tracking or guiding surgical instruments, e.g. for frameless stereotaxis
    • A61B2034/2068Surgical navigation systems; Devices for tracking or guiding surgical instruments, e.g. for frameless stereotaxis using pointers, e.g. pointers having reference marks for determining coordinates of body points
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B34/00Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
    • A61B34/25User interfaces for surgical systems
    • A61B2034/252User interfaces for surgical systems indicating steps of a surgical procedure
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B34/00Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
    • A61B34/25User interfaces for surgical systems
    • A61B2034/254User interfaces for surgical systems being adapted depending on the stage of the surgical procedure
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B34/00Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
    • A61B34/25User interfaces for surgical systems
    • A61B2034/256User interfaces for surgical systems having a database of accessory information, e.g. including context sensitive help or scientific articles
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B34/00Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
    • A61B34/30Surgical robots
    • A61B2034/302Surgical robots specifically adapted for manipulations within body cavities, e.g. within abdominal or thoracic cavities
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B90/00Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
    • A61B90/06Measuring instruments not otherwise provided for
    • A61B2090/064Measuring instruments not otherwise provided for for measuring force, pressure or mechanical tension
    • A61B2090/065Measuring instruments not otherwise provided for for measuring force, pressure or mechanical tension for measuring contact or contact pressure
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B90/00Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
    • A61B90/06Measuring instruments not otherwise provided for
    • A61B2090/067Measuring instruments not otherwise provided for for measuring angles
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B90/00Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
    • A61B90/08Accessories or related features not otherwise provided for
    • A61B2090/0807Indication means
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B90/00Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
    • A61B90/08Accessories or related features not otherwise provided for
    • A61B2090/0807Indication means
    • A61B2090/0811Indication means for the position of a particular part of an instrument with respect to the rest of the instrument, e.g. position of the anvil of a stapling instrument
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B90/00Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
    • A61B90/36Image-producing devices or illumination devices not otherwise provided for
    • A61B90/361Image-producing devices, e.g. surgical cameras
    • A61B2090/3612Image-producing devices, e.g. surgical cameras with images taken automatically
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B90/00Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
    • A61B90/36Image-producing devices or illumination devices not otherwise provided for
    • A61B2090/364Correlation of different images or relation of image positions in respect to the body
    • A61B2090/365Correlation of different images or relation of image positions in respect to the body augmented reality, i.e. correlating a live optical image with another image
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B90/00Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
    • A61B90/36Image-producing devices or illumination devices not otherwise provided for
    • A61B2090/364Correlation of different images or relation of image positions in respect to the body
    • A61B2090/366Correlation of different images or relation of image positions in respect to the body using projection of images directly onto the body
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B90/00Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
    • A61B90/36Image-producing devices or illumination devices not otherwise provided for
    • A61B2090/364Correlation of different images or relation of image positions in respect to the body
    • A61B2090/367Correlation of different images or relation of image positions in respect to the body creating a 3D dataset from 2D images using position information
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B90/00Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
    • A61B90/36Image-producing devices or illumination devices not otherwise provided for
    • A61B90/37Surgical systems with images on a monitor during operation
    • A61B2090/378Surgical systems with images on a monitor during operation using ultrasound
    • A61B2090/3782Surgical systems with images on a monitor during operation using ultrasound transmitter or receiver in catheter or minimal invasive instrument
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B8/00Diagnosis using ultrasonic, sonic or infrasonic waves
    • A61B8/08Clinical applications
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B8/00Diagnosis using ultrasonic, sonic or infrasonic waves
    • A61B8/42Details of probe positioning or probe attachment to the patient
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B90/00Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
    • A61B90/36Image-producing devices or illumination devices not otherwise provided for
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B90/00Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
    • A61B90/36Image-producing devices or illumination devices not otherwise provided for
    • A61B90/361Image-producing devices, e.g. surgical cameras

Landscapes

  • Health & Medical Sciences (AREA)
  • Surgery (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Engineering & Computer Science (AREA)
  • Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
  • Molecular Biology (AREA)
  • General Health & Medical Sciences (AREA)
  • Biomedical Technology (AREA)
  • Heart & Thoracic Surgery (AREA)
  • Medical Informatics (AREA)
  • Veterinary Medicine (AREA)
  • Animal Behavior & Ethology (AREA)
  • Public Health (AREA)
  • Robotics (AREA)
  • Human Computer Interaction (AREA)
  • Gynecology & Obstetrics (AREA)
  • Radiology & Medical Imaging (AREA)
  • Oral & Maxillofacial Surgery (AREA)
  • Pathology (AREA)
  • Manipulator (AREA)

Abstract

示例性系统包括存储指令的存储器和通信地耦合到存储器的处理器。处理器可被配置为执行指令以:检测当目标物体位于手术空间中时计算机辅助手术系统的用户使用附接到计算机辅助手术系统的机器人器械与目标物体互动的意图;确定目标物体在手术空间中的姿势;以及基于所检测到的用户与目标物体互动的意图和目标物体在手术空间中的所确定的姿势,执行关于目标物体的操作。

Description

用于识别并促进与手术空间中的目标物体意图互动的系统和 方法
技术领域
本申请要求以下专利申请的优先权:提交于2019年12月16日,并且名称为“SYSTEMS AND METHODS FOR IDENTIFYING AND FACILITATING AN INTENDED INTERACTIONWITH A TARGET OBJECT IN A SURGICAL SPACE(用于识别和促进与手术空间中的目标物体意图互动的系统和方法)”的美国临时专利申请号62/948,542,提交于2020年1月10日,并且名称为“SYSTEMS AND METHODS FOR FACILITATING A ROBOTIC INSTRUMENT INTERACTINGWITH A TARGET OBJECT IN A SURGICAL SPACE(用于促进机器人器械与手术空间中的目标物体互动的系统和方法)”的美国临时专利申请号62/959,635,以及提交于2020年3月6日,并且名称为“SYSTEMS AND METHODS FOR FACILITATING GUIDED TELEOPERATION OF ANON-ROBOTIC DEVICE IN A SURGICAL SPACE(用于促进手术空间中非机器人装置的引导式遥控操作的系统和方法)”的美国临时专利申请号62/986,373,这些专利申请在此以其全部内容通过引用并入本文。
背景技术
采用机器人和/或远程操作技术的计算机辅助手术系统通常包括立体图像查看器,其被配置为向外科医生提供由成像装置(诸如内窥镜)捕获的手术空间的影像以供显示。当外科医生的眼睛定位在立体图像查看器的查看镜头前时,外科医生可以查看手术空间的影像,同时远程操纵位于手术空间内的一个或多个手术器械。手术器械附接到作为计算机辅助手术系统的一部分被包括的手术器械操纵系统的一个或多个操纵器臂。
除了附接到一个或多个操纵器臂的手术器械外,可以将额外器械插入手术空间中以促进外科医生在手术空间内执行手术程序。例如,可以在手术空间内提供次表面感测装置(例如,超声波装置),以改善外科医生对手术空间的感知并改善手术程序的结果。然而,此类额外器械通常不会被集成到附接到计算机辅助手术系统的操纵器臂的模块中。鉴于此,此类额外器械可能只可用作插入式器械,其依靠例如附接到计算机辅助手术系统的操纵器臂的抓取器手术器械以在手术空间内抓取和移动插入式器械。远程操作的抓取器手术器械与插入式器械互动的操作需要外科医生执行复杂操控以将插入式器械拾取并定位在手术空间内的期望位置。
发明内容
示例性系统包括存储指令的存储器;以及通信地耦合到存储器并被配置为执行指令以进行以下操作的处理器:检测当目标物体位于手术空间中时计算机辅助手术系统的用户使用附接到计算机辅助手术系统的机器人器械与目标物体互动的意图;确定目标物体在手术空间中的姿势;以及基于所检测到的用户与目标物体互动的意图和目标物体在手术空间中的所确定的姿势,执行关于目标物体的操作。
额外的示例性系统包括存储指令的存储器以及通信地耦合到存储器并被配置为执行指令以进行以下操作的处理器:确定非机器人器械位于手术空间中;响应于确定非机器人器械位于手术空间中,确定非机器人器械在手术空间中的姿势;以及基于非机器人器械在手术空间中的所确定的姿势,促进附接到计算机辅助手术系统的机器人器械与非机器人器械互动。
示例性方法包括由与计算机辅助手术系统相关联的处理器检测计算机辅助手术系统的用户的意图以在目标物体位于手术空间中时,使用附接到计算机辅助手术系统的机器人器械与目标物体互动;由处理器确定目标物体在手术空间中的姿势;以及由处理器基于所检测到的用户与目标物体互动的意图和目标物体在手术空间中的所确定的姿势,执行关于目标物体的操作。
附图说明
附图展示了各种实施例并且是本说明书的一部分。所展示的实施例只是示例并且不限制本公开的范围。在整个附图中,相同或类似的附图标记表示相同或类似的要素。
图1展示了根据本文所述原理的示例性计算机辅助手术系统。
图2展示了根据本文所述原理的手术空间的示例性视图。
图3展示了根据本文所述原理的被配置为执行各种操作的示例性系统。
图4至图6展示了描绘根据本文所述原理的可由图3所展示的系统执行的各种操作的示例性流程图。
图7至图9展示了根据本文所述原理的手术空间的示例性图像。
图10展示了根据本文所述原理的用于识别和促进与手术空间中的目标物体的意图互动的示例性方法。
图11和图12展示了描绘根据本文所述原理的可由图3所展示的系统执行的各种操作的额外的示例性流程图。
图13展示了根据本文所述原理的手术空间的额外的示例性图像。
图14和图15展示了描绘根据本文所述原理的可由图3所展示的系统执行的各种操作的额外的示例性流程图。
图16至图19展示了根据本文所述原理的手术空间的额外示例性图像。
图20展示了根据本文所述原理的用于促进机器人器械与手术空间中的目标物体互动的示例性方法。
图21展示了根据本文所述原理的示例性计算装置。
具体实施方式
本文描述了用于识别和促进与手术空间中的目标物体的意图互动的系统和方法。如下面将更详细描述的,示例性系统包括存储指令的存储器和通信连接到存储器的处理器。示例性系统的处理器被配置为执行指令以:检测当目标物体位于手术空间中时计算机辅助手术系统的用户使用附接到计算机辅助手术系统的机器人器械与目标物体互动的意图;确定目标物体在手术空间中的姿势;并基于所检测到的用户与目标物体互动的意图和目标物体在手术空间中的所确定的姿势,执行关于目标物体的操作。
各种优点和益处与本文所述的系统和方法相关联。例如,系统和方法诸如本文所述的那些可以减少计算机辅助手术系统的用户(例如,外科医生和/或与计算机辅助手术系统相关联的另一个用户)与位于手术空间中的目标物体互动和/或使用该目标物体所需的精神和/或身体工作量,诸如通过促进与目标物体的互动的启动。这样一来,系统和方法诸如本文所述的那些可以简化在手术空间内执行的程序和/或改善计算机辅助手术系统的实用性。可由本文所述的系统和方法实现的这些和其他益处将从下面的公开内容中明显看出。
本文所述的示例性系统可被配置为作为多个不同类型的计算机辅助手术系统的一部分或与之结合操作。多个不同类型的计算机辅助手术系统可以是不同类型的,至少因为它们包括不同类型的手术器械操纵系统。例如,第一计算机辅助手术系统可以包括第一类手术器械操纵系统,第二计算机辅助手术系统可以包括第二类手术器械操纵系统,并且第三计算机辅助手术系统可以包括第三类手术器械操纵系统。
每种类型的手术器械操纵系统可以具有不同的架构(例如,操纵器臂架构),具有不同的运动学特征,和/或根据不同的配置参数操作。现在将参考图1描述具有第一类手术器械操纵系统的示例性计算机辅助手术系统。所描述的示例性计算机辅助手术系统是说明性的并且不是限制性的。诸如本文所述的那些系统的系统可以作为所描述的计算机辅助手术系统的一部分或与该系统和/或任何其他合适的计算机辅助手术系统结合来操作。
图1展示了示例性计算机辅助手术系统100(“手术系统100”)。如图所示,手术系统100可以包括彼此通信地耦合的手术器械操纵系统102(“操纵系统102”)、用户控制系统104和辅助系统106。
手术系统100可由手术团队用来对患者108进行计算机辅助手术程序。如图所示,手术团队可包括外科医生110-1、助手110-2、护士110-3和麻醉师110-4,所有这些人可统称为“手术团队成员110”。额外的或可替代的手术团队成员可以在手术会话期间出现,如可服务于特定的实施方式。
虽然图1展示了正在进行的微创手术程序,但手术系统100可类似地用于执行开放手术程序或可类似地受益于手术系统100的准确性和便利性的其他类型的手术程序。此外,应理解的是,在其整个过程中手术系统100可被采用的手术会话不仅可以包括手术程序的操作阶段,如图1所示,而且还可以包括手术程序的术前、术后和/或其他合适的阶段。手术程序可包括其中对患者使用人工和/或器械技术(例如远程操作的器械技术)来调查、诊断或治疗患者的身体状况的任何程序。此外,手术程序可以包括不对活体患者执行的任何程序,诸如校准程序、模拟训练程序和实验或研究程序。
如图1所示,手术器械操纵系统102可包括多个操纵器臂112(例如,操纵器臂112-1至112-4),多个机器人手术器械(“机器人器械”)(未示出)可耦合到这些操纵器臂。如本文所用,“机器人器械”是指可直接附接到(例如,插入)操纵器臂(例如,操纵器臂112-1),使得操纵器臂的移动直接引起该器械的移动的任何器械。每个机器人器械可以由可用于计算机辅助手术程序(例如,通过至少部分地插入患者108体内并被操纵来对患者108执行计算机辅助手术程序)的任何合适的治疗器械(例如,具有组织互动功能的工具)、成像装置(例如,内窥镜)、诊断器械等来实施。在一些示例中,机器人器械中的一个或多个可以包括力感测和/或其他感测能力。
在图1所示的示例中,操纵系统102的操纵器臂112附接到水平延伸的高架吊杆的远端。然而,在某些实施方式中,操纵器臂112可具有其他配置。此外,虽然操纵系统102在本文中被描绘和描述为包括四个操纵器臂112,但将认识到,操纵系统102可以只包括单个操纵器臂112或任何其他数量的操纵器臂,如可服务于特定的实施方式。
操纵器臂112和/或附接到操纵器臂112的机器人器械可以包括一个或多个位移换能器、取向传感器和/或位置传感器(下文中称为“手术系统传感器”),其用于生成原始(例如,未校正的)运动学信息。手术系统100的一个或多个部件可以被配置为使用运动学信息来跟踪和/或控制机器人器械(例如,确定其位置)。
此外,操纵器臂112可各自包括或以其他方式与多个马达相关联,这些马达控制操纵器臂112和/或附接到其的手术器械的移动。例如,操纵器臂112-1可包括或以其他方式与第一内部马达(未明确示出)相关联,该马达被配置为使操纵器臂112-1围绕偏航轴线偏航。同样地,操纵器臂112-1可与第二内部马达(未明确示出)相关联,该马达被配置为驱动操纵器臂112-1并使其围绕俯仰轴线俯仰。同样,操纵器臂112-1可与第三内部马达(未明确示出)相关联,该第三内部马达被配置为使操纵器臂112-1沿插入轴线滑动。操纵器臂112可以各自包括由这些马达中的一个或多个驱动的传动系系统,以便控制操纵器臂112以任何方式的枢转,如可服务于特定的实施方式。因此,如果附接到例如操纵器臂112-1的机器人器械要被机械地移动,则耦合到传动系的马达中的一个或多个可以被通电以移动操纵器臂112-1。
附接到操纵器臂112的机器人器械可以各自定位在手术空间中。在某些示例中,“手术空间”可以完全设置在患者体内,并且可以包括在患者体内计划执行、正在执行或已经执行的手术程序的地方或附近的区域。例如,对于正在对患者内部组织执行的微创手术程序,手术空间可包括组织、组织下的解剖结构,以及(例如用于执行手术程序的机器人器械和/或其他器械位于其中的)围绕组织的空间。在其他示例中,手术空间可以至少部分地设置在患者外部,在对患者计划执行、正在执行或已经执行的手术程序的地方或附近。例如,手术系统100可用于执行开放性外科手术,使得手术空间的一部分(例如,正在进行操作的组织)在患者的内部,而手术空间的另一部分(例如,围绕组织的其中可放置一个或多个器械的空间)在患者的外部。当机器人器械的至少一部分(例如,机器人器械的远侧部分)位于手术空间内时,机器人器械可被称为被定位在或位于手术空间处或该手术空间内。示例性手术空间和/或手术空间的图像将在本文中描述。
用户控制系统104可以被配置为便于外科医生110-1控制操纵器臂112和附接到操纵器臂112的机器人器械。例如,外科医生110-1可以与用户控制系统104互动以远程移动或操纵操纵器臂112和机器人器械。为此,用户控制系统104可以向外科医生110-1提供由成像装置捕获的与患者108相关联的手术空间的影像(例如,高清晰度三维(3D)影像)。在某些示例中,用户控制系统104可以包括具有两个显示器的立体图像查看器,其中与患者108相关并由立体成像系统生成的手术空间的立体图像(例如,3D图像)可以由外科医生110-1查看。外科医生110-1可以利用影像以用附接到操纵器臂112的一个或多个机器人器械执行一个或多个程序。
为了便于控制机器人器械,用户控制系统104可以包括一组主控装置(未示出)。这些主控装置可由外科医生110-1操纵,以控制机器人器械的移动(例如,通过利用机器人和/或远程操作技术)。主控装置可以被配置为检测外科医生110-1的各种手、手腕和手指移动。以这种方式,外科医生110-1可以直观地使用一个或多个机器人器械执行手术程序。
用户控制系统104可以进一步被配置为便于外科医生110-1控制手术系统100的其他部件。例如,外科医生110-1可以与用户控制系统104互动,以改变手术系统100的配置或操作模式、改变手术系统100的显示模式、生成用于控制附接到操纵器臂112的手术器械的额外控制信号、促进从一个机器人器械到另一个的切换控制、促进与手术空间内的其他器械和/或物体的互动,或执行任何其他合适的操作。为此,用户控制系统104还可以包括被配置为接收来自外科医生110-1的输入的一个或多个输入装置(例如,脚踏板、按钮、开关等)。
辅助系统106可以包括被配置为执行手术系统100的主要处理操作的一个或多个计算装置。包括在辅助系统106中的一个或多个计算装置可以控制和/或协调由手术系统100的各种其他部件(例如,操纵系统102和/或用户控制系统104)执行的操作。例如,包括在用户控制系统104中的计算装置可以通过包括在辅助系统106中的一个或多个计算装置向操纵系统102传输指令。作为另一个示例,辅助系统106可以从操纵系统102接收并处理代表由附接到操纵器臂112中的一个的成像装置捕获的影像的图像数据。
在一些示例中,辅助系统106可以被配置为向可能无法访问在用户控制系统104处提供给外科医生110-1的图像的手术团队成员110展示视觉内容。为此,辅助系统106可以包括显示监视器114,其被配置为显示一个或多个用户界面,诸如手术空间的图像(例如,2D图像)、与患者108和/或手术程序相关联的信息,和/或任何其他视觉内容,如可服务于特定的实施方式。例如,显示监视器114可以将手术空间的图像和与图像同时显示的额外内容(例如,目标物体的表示、图形内容、情境信息等)一起显示。在一些实施例中,显示监视器114由触摸屏显示器实施,手术团队成员110可以与该显示器互动(例如,通过触摸手势),以向手术系统100提供用户输入。
操纵系统102、用户控制系统104和辅助系统106可以以任何合适的方式彼此通信地耦合。例如,如图1所示,操纵系统102、用户控制系统104和辅助系统106可以通过控制线116通信地耦合,该控制线116代表如可服务于特定的实施方式的任何有线或无线通信链路。为此,操纵系统102、用户控制系统104和辅助系统106可以各自包括一个或多个有线或无线通信接口,诸如一个或多个局域网接口、Wi-Fi网络接口、蜂窝接口等。
图2展示了手术空间的视图200,其中提供了附接到手术系统100的操纵器臂112的各种机器人器械。如图所示,机器人器械可以包括成像装置202和呈一个或多个手术工具的形式的一个或多个其他机器人器械204(例如,机器人器械204-1至204-3)。虽然图2示出了位于手术空间处的一个成像装置202和其他三个机器人器械204,但在手术程序期间,任何数量、类型和/或组合的机器人器械都可以在手术空间处。在图2所示的示例中,机器人器械204-1和204-2被示为切割型机器人器械,而机器人器械204-3被示为抓取型机器人器械。应理解的是,在某些实施方式中,与图2所示的那些不同的其他类型的机器人器械(例如,诊断工具、治疗工具等)可以在手术程序期间额外地或可替代地在手术空间内提供。组织206代表手术空间处的解剖组织。
成像装置202可以在手术空间处捕获影像。在成像装置202的视野内的机器人器械204和/或组织206中的任一个可以被描绘在成像装置202捕获的影像中。
成像装置202可以提供代表手术空间的可见光数据的数据。例如,成像装置202可以捕获手术空间的可见光图像,这些图像代表由成像装置202感测的可见光。可见光图像可包括使用任何合适的颜色和/或灰度调色板来代表手术空间的基于可见光的视图的图像。
成像装置202还可以提供代表手术空间深度数据的数据,或者可以提供被处理以得出手术空间深度数据的数据。例如,成像装置202可以捕获代表由成像装置202感测的深度的手术空间的图像。可替代地,成像装置202可以捕获手术空间的图像,其可被处理以得出手术空间的深度数据。深度信息可以表示为深度图像(例如,使用Z-缓冲器获得的深度图图像,该图像指示从成像装置202到手术空间的图像上的每个像素点的距离),该图像可以被配置为以任何合适的方式在视觉上指示手术空间中物体的深度,诸如通过使用不同的灰度值来代表不同的深度值。由成像装置(例如,由成像装置202)捕获的图像和/或从由成像装置捕获的图像得出的图像(例如,可见光图像和深度图像)可用于促进检测手术空间内的目标物体,诸如本文所述。
在手术程序期间,可能期望检测位于手术空间内的目标物体。如本文所用,“目标物体”可指可能位于手术空间中的任何物体。例如,目标物体可以对应于手术空间内的解剖结构(例如,组织、骨骼等)、位于手术空间内的机器人器械或可能位于手术空间中的任何其他物体或器械。在某些示例中,目标物体可以对应于可能位于手术空间中的非机器人器械。如本文所用,“非机器人器械”是指可在手术空间内提供,但不直接附接到操纵器臂112中的一个的任何合适的器械。因此,非机器人器械只能在手术空间内通过由用户(例如外科医生110-1、助手110-2等)手动操纵或通过由直接附接到操纵器臂中的一个的机器人器械移动(例如,由机器人器械204-3抓取)来移动。在这方面,非机器人器械可被称为插入式手术器械。非机器人器械的示例可以包括但不限于插入式超声探头、插入式光学相干断层扫描(“OCT”)探头、插入式快速蒸发电离质谱(“REIMS”)装置、缝合针,等等。
图3展示了可根据本文描述的原理实施以识别和促进与手术空间中的目标物体的意图互动的示例性系统300。如图所示,系统300可以包括但不限于选择性地且通信地耦合到彼此的处理设施302和存储设施304。设施302和304可以各自包括硬件和/或软件部件(例如,处理器、存储器、通信接口、存储在存储器中用于由处理器执行的指令等)或由这些硬件和/或软件部件实施。在一些示例中,设施302和304可以由单个装置(例如,单个计算装置)实施。在一些可替代示例中,设施302和304可以分布在多个装置和/或多个位置之间,如可服务于特定的实施方式。
存储设施304可以维护(例如,存储)由处理设施302用于执行本文所述的操作中的任一个的可执行数据。例如,存储设施304可存储可由处理设施302执行以执行本文所述的操作中的任一个的指令306。指令306可以由任何合适的应用程序、软件、代码和/或其他可执行数据实例来实施。
存储设施304也可以维护由处理设施302接收、生成、管理、使用和/或传输的任何数据。例如,存储设施304可以维护与检测位于手术空间中的目标物体和/或促进与目标物体的互动相关联的任何合适数据。此类数据可以包括但不限于与已知目标物体(例如,已知的非机器人器械)的表示相关联的数据、一个或多个目标物体的3D模型、定义基于话音的命令的数据、定义基于手势的命令的数据、图形物体、通知和/或任何其他合适的数据。
处理设施302可以被配置为执行(例如,执行存储在存储设施304中的指令306)与识别和促进与目标物体的意图互动相关联的各种处理操作。例如,处理设施302可以:检测当目标物体位于手术空间中时计算机辅助手术系统的用户使用附接到计算机辅助手术系统的机器人器械与目标物体互动的意图;确定目标物体在手术空间中的姿势;以及基于所检测到的用户与目标物体互动的意图和目标物体在手术空间中的所确定的姿势,执行关于目标物体的操作。可由处理设施302执行的这些和其他操作在本文中描述。
在与手术空间相关联的手术程序期间的任何给定时间,计算机辅助手术系统的用户可能期望与位于手术空间内或可插入手术空间内的目标物体互动和/或使用该目标物体。为了促进与此种目标物体的互动和/或使用该目标物体,在某些示例中,系统300(例如,处理设施302)可以被配置为确定目标物体是否位于手术空间中。系统300可以以任何合适的方式确定目标物体是否位于手术空间中。例如,在某些实施方式中,系统300可以使用基于视觉的图像处理技术(例如,计算机视觉技术)来确定目标物体是否位于手术空间中。在此类示例中,系统300可以被配置为使用任何合适的基于视觉的图像处理技术来跟踪和识别手术空间内的一个或多个物体和/或物体的类型(例如,机器人器械、非机器人器械、组织等)。此类基于视觉的图像处理技术可以包括系统300使用成像装置202来捕获手术空间的影像(例如,一个或多个图像)。系统300可以使用捕获的影像作为基于视觉的图像处理技术的输入,以确定与手术空间中的物体相关联的信息。例如,系统300可以使用捕获的影像,以任何适当的方式确定目标物体是否位于手术空间中。此外,系统300可以使用捕获的影像和任何合适的基于视觉的图像处理技术来确定位于手术空间中的物体的大小、形状、姿势和/或数量。在某些示例中,手术空间中除机器人器械以外的任何物体都可以视作被识别为位于手术空间中的目标物体的候选者。
此外或可替代地,系统300可以被配置为基于手术空间的深度图来确定目标物体是否位于手术空间中。系统300可以被配置为以任何合适的方式使用深度图。例如,系统300可以检测手术空间的当前深度图与手术空间的一个或多个先前深度图之间的差异。基于检测到的差异,系统300可以识别已知的物体形状、物体形状的已知模式(例如,插入模式),和/或任何其他合适的信息,这些信息可能指示目标物体位于手术空间中和/或正在被插入手术空间的过程中。系统300可以使用任何合适数量的深度图来确定目标物体是否位于手术空间中,如可服务于特定的实施方式。在某些示例中,系统300可以将前一帧深度图的序列与当前帧深度图进行比较,以确定目标物体是否位于手术空间中。在某些示例中,系统300可以被配置为持续监测手术空间的深度图,以实时确定目标物体是否位于手术空间中。
图4示出了流程图400,其描绘了在使用深度图来确定目标物体是否位于手术空间中时可由系统300执行的示例性操作。如图4所示,在操作402中,系统300可以获得手术空间的深度图。系统300可以以任何合适的方式获得手术空间的深度图。例如,系统300可以使用成像装置202捕获深度数据,然后系统300可以使用该数据以任何合适的方式生成手术空间的深度图。可替代地,系统300可以从任何合适的来源接收深度图。
在操作404中,系统300可以从深度图中提取物体的表示。物体的表示可具有任何合适的格式,如可服务于特定的实施方式。例如,物体的表示可以对应于物体的表面轮廓、物体的体积重建(例如,物体的点云)、物体的外轮廓形状等。系统300可以以任何合适的方式从生成的深度图中提取物体的表示。例如,系统300可以从包括物体的手术空间的当前深度图中减去手术空间的先前深度图。在此种减法之后留下的深度图数据可以代表手术空间中的物体。作为另一个示例,系统300可以通过将深度图中的点分类为与特定物体或物体类型相关联而分割深度图。被标记为对应于物体的点可以被提取为物体的表示。
在操作406中,系统300可以将物体的提取的表示与已知目标物体的多个表示进行比较。这可以以任何合适的方式完成。例如,系统300可以从存储设施104访问代表多个已知目标物体的数据。然后,系统300可以将提取的表示与包括在已知目标物体的多个表示中的表示中的至少一些进行比较。基于该比较,系统300可以使用任何合适的图像处理技术来确定提取的表示与包括在已知目标物体的多个表示中的表示中的至少一些之间的类似度。在某些示例中,系统300可以将提取的表示与包括在已知目标物体的多个表示中的表示中的每个进行比较。
在操作408中,系统300可以从已知目标物体的多个表示中识别出与物体的提取的表示匹配的已知目标物体的表示。系统300可以以任何合适的方式确定物体的提取的表示和已知目标物体的表示之间是否匹配。例如,当提取的表示和已知目标物体的表示之间的类似度高于预定义的阈值量时,系统300可以确定存在匹配。举例来说,如果提取的表示和已知目标物体的表示之间的类似度高于95%,则系统300可以确定存在匹配。此种类似度百分比可以以任何合适的方式确定。
在某些可替代实施方式中,系统300可以使用图像减法来确定在操作408中提取的表示和已知目标物体的表示之间是否存在匹配。在此类示例中,系统300可以获得与提取的表示中的深度位置对应的图像数据。系统300还可以获得已知目标物体的表示的图像数据。然后,系统300可以从已知目标物体的表示的图像数据中类似定位的像素的像素值中减去提取的表示的图像数据中的像素的像素值。当此种图像减法的结果为零或几乎为零时,提取的表示和已知目标物体的表示可以被认为是完全匹配的。然而,系统300可以被配置为,只要减法的结果在从零开始的一些预定义的阈值内,就确定提取的表示和已知目标物体的表示之间存在匹配。
基于识别的匹配,系统100可以在操作410中将物体识别为位于手术空间中的目标物体。
在某些示例中,确定目标物体位于手术空间中可以包括系统300确定什么类型的目标物体位于手术空间中。系统300可以以任何合适的方式确定位于手术空间中的目标物体的类型。例如,图5展示了流程图500,其描绘了当系统300确定位于手术空间中的非机器人器械的类型时,系统300可以执行的示例性操作。在操作502中,系统300可以访问手术空间的图像(例如,由成像装置202捕获的图像)。
在操作504中,系统300可以从捕获的图像中提取非机器人器械的图像。系统300可以使用任何合适的图像处理技术以任何合适的方式提取图像。例如,系统300可以使用计算机视觉技术和图像分割在捕获的图像中定位非机器人器械的边界(线、曲线等),以确定非机器人器械的表示。在某些示例中,此种表示可以对应于非机器人器械的外轮廓形状和/或任何其他合适的表示,诸如本文所述的那些。当从手术空间内的特别视点查看时,诸如非机器人器械的目标物体的外轮廓形状可以定义目标物体的周边轮廓。基于非机器人器械的表示,系统300可以从捕获的图像的剩余部分提取非机器人器械的图像。
在操作506中,系统300可以将非机器人器械的表示与多个已知非机器人器械的多个表示(例如,多个外轮廓形状)进行比较。包括在多个已知非机器人器械的多个表示中的每个表示可以代表不同类型的非机器人器械。例如,包括在已知非机器人器械的多个表示中的第一表示可以代表第一类非机器人器械,第二表示可以代表第二类非机器人器械,并且第三表示可以代表第三类非机器人器械。
系统300可以以任何合适的方式将非机器人器械的表示与多个已知非机器人器械系统的多个表示进行比较。例如,系统300可以将该表示与第一表示、第二表示和第三表示进行比较,这些表示各自包括在多个已知非机器人器械的多个表示中。基于该比较,系统300可以以任何合适的方式确定非机器人器械的表示与第一表示、第二表示和第三表示中的每个之间的类似度。
从多个已知目标物体的多个表示中,系统300可以在操作508中选择与非机器人器械的表示匹配的表示。系统300可以以任何合适的方式确定所选择的表示与非机器人器械的表示匹配。继续上述示例,系统300可以确定非机器人器械的表示与第三表示之间的类似度相对高于非机器人器械的表示与第一表示和第二表示之间的类似度。因此,系统300可以将第三表示选择为与非机器人器械的表示匹配。
在操作510中,系统300可以基于所选择的匹配表示来确定非机器人器械的类型。这可以以任何合适的方式完成。例如,继续上述示例,系统300可以确定非机器人器械的类型对应于由包括在已知非机器人器械的多个表示中的第三表示所表示的非机器人器械的类型。
在某些可替代示例中,系统300可以被配置为基于由手术系统100的用户提供的信息来确定目标物体位于手术空间中。例如,助手110-2、护士110-3和/或与手术程序相关联的任何其他个人可以将目标物体放在手术空间内,并然后以任何合适的方式输入指示目标物体在手术空间内的信息。在某些示例中,此种信息还可以指示目标物体的类型、目标物体的插入位置,和/或与目标物体相关联的任何其他合适的信息。
在某些示例中,系统300可以被配置为向用户(例如,外科医生110-1)提供通知,该通知指示在手术空间中已检测到目标物体和/或向用户提供任何合适的信息以促进与目标物体的意图互动。系统300可以以任何合适的方式提供此种通知。例如,系统300可以在通过用户控制台104的立体图像查看器显示的界面中提供基于文本的通知。此种基于文本的通知可以告知用户,在手术空间中已检测到目标物体,并可以提供与目标物体相关联的任何其他合适的信息。此外或可替代地,系统300可以被配置为提供任何合适的听觉通知,该听觉通知指示在手术空间中已检测到目标物体。例如,示例性的听觉通知可以包括系统300播放表达“超声探头已被插入”的音频片段。
在某些示例中,系统300可以被配置为检测计算机辅助手术系统的用户的意图,以在目标物体位于手术空间中时,使用附接到计算机辅助手术系统的机器人器械与目标物体互动。系统300可以以任何合适的方式检测用户与目标物体互动的意图。在某些示例中,系统300可以向用户提供通知,其提示用户指示用户是否意图与目标物体互动。例如,系统300可以以任何合适的方式向用户提供指示在手术空间中已检测到目标物体的通知。此种通知也可以以任何合适的方式询问用户是否意图与目标物体互动。然后,系统300可以检测可由用户提供的任何合适的用户输入,以指示用户与目标物体互动的意图。
例如,系统300可以通过检测由手术系统100的用户(例如外科医生110-1、助手110-2等)提供的基于话音的命令来检测用户与目标物体互动的意图。系统300可以使用任何合适的语音识别算法以任何合适的方式检测基于话音的命令。在某些示例中,系统300可以存储(例如,通过存储设施304)一个或多个预定义的基于话音的命令,这些命令被配置为使系统300确定用户意图与目标物体互动。例如,表述“我想使用超声”、“拾取超声探头”等可以对应于系统300可以被配置为用于确定用户与目标物体互动的意图的示例性预定义基于话音的命令,该目标物体对应于插入式超声探头。
此外或可替代地,系统300可以检测由计算机辅助手术系统的用户提供的基于手势的命令。此种基于手势的命令可以包括任何合适的输入(其可以通过与手术系统100相关联的任何合适的用户界面提供)。例如,系统300可以检测到通过外科医生110-1操纵用户控制系统104的主控装置提供的基于手势的命令(例如,引起机器人器械朝向目标物体移动和/或在目标物体的阈值距离内移动的一个或多个命令)。此外或可替代地,系统300可以相对于显示监视器114或可通信地耦合到手术系统100的任何其他装置检测通过输入(例如,触摸输入、鼠标光标输入等)提供的基于手势的命令。
在某些示例中,系统300可以通过检测由用户提供的基于注视的命令来检测用户与目标物体互动的意图。此种基于注视的命令可以由系统300以任何合适的方式检测。例如,系统300可以被配置为以任何合适的方式访问由用户控制系统104的立体图像查看器内提供的成像装置生成的图像。基于生成的图像,系统300可以通过确定用户眼睛的瞳孔和由用户控制系统104内的红外光源提供的红外光引起的角膜反射之间的位置关系来确定用户眼睛的注视点。然后,系统300可以基于确定的位置关系,以任何合适的方式推断出用户眼睛的注视点。
当用户眼睛的注视点在目标物体上停留了预定的时间量时,系统300可以确定计算机辅助手术系统的用户意图与目标物体互动。预定的时间量可以对应于可用于确定用户的意图的任何合适的时间量。例如,在某些实施方式中,预定的时间量可以对应于三秒。在此种示例中,每当用户的注视点停留在目标物体上三秒或更多秒时,系统300可以确定用户意图与目标物体互动。
此外或可替代地,系统300可以被配置为基于与手术空间相关联的程序情境来检测用户的意图。与手术空间相关联的程序情境可以基于与手术空间相关联的任何合适的信息或信息组合来确定。例如,系统300可以基于手术空间的图像、指示程序情境的用户输入、位于手术空间内的一个或多个机器人器械(例如,机器人器械112)的配置和/或一个或多个机器人器械的运动学来检测程序情境。基于检测到的程序情境,系统300可以检测到用户意图与目标物体互动。
为了展示示例,与手术空间相关联的程序情境可与在手术空间内使用插入式超声探头相关联。在此种示例中,系统300可以基于示出超声探头存在于手术空间内的手术空间的捕获图像来确定用户意图与超声探头互动。在另一个示例中,与手术空间相关联的程序情境可以与将在手术空间中执行的缝合操作相关联。在此种示例中,系统300可以基于在手术空间中检测到的缝合针和位于手术空间中并抓取缝合针的针驱动器机器人器械的组合,确定用户意图与非机器人器械(诸如缝合针)互动。
系统300可以在任何合适的时间检测用户与目标物体互动的意图。例如,系统300可以在系统300确定目标物体位于手术空间中之后检测用户的意图。可替代地,系统300可以在系统300确定目标物体位于手术空间中之前和/或独立于系统300确定目标物体位于手术空间中来检测用户与目标物体互动的意图。在某些示例中,系统300可以响应于系统300确定目标物体位于手术空间中来检测用户使用机器人器械与目标物体互动的意图。也就是说,对手术空间中的目标物体的检测可以触发系统300执行操作以检测用户是否意图与目标物体互动。
系统300可进一步被配置为确定目标物体在手术空间内的姿势。如本文所用,目标物体的“姿势”是指目标物体的位置和目标物体在手术空间中的取向的组合。姿势可以被称为六维(6D)姿势,因为有三个自由度与物体的位置相关联,并且有三个自由度与物体的取向相关联。系统300可以以任何合适的方式确定目标物体的姿势。例如,目标物体的姿势可以基于深度数据(例如,在手术空间的深度图中提供)和手术空间内目标物体的确定取向的组合来确定。现在将描述系统300可以确定目标物体的取向的示例性方式。
在某些示例中,系统300可以通过使用目标物体的3D模型来确定目标物体的取向。系统300可以以任何合适的方式使用目标物体的3D模型以促进确定目标物体的取向。例如,图6示出了示例性流程图600,其包括在使用3D模型确定目标物体的取向时可由系统300执行的操作。如图6所示,在操作602中,系统300被配置为访问手术空间中目标物体的图像(例如,由成像装置202捕获的图像)。在操作604中,系统300被配置为从成像装置的视点确定目标物体的表示(例如,外轮廓形状)。系统300可以使用任何合适的图像处理算法来确定目标物体的表示。在操作606中,系统300将目标物体的表示与在已知取向上取向的目标物体的3D模型的2D投影进行比较。在操作608中,系统300被配置为确定目标物体的表示与3D模型的2D投影之间的投影误差。投影误差可以对应于任何可量化的指标,该指标指示目标物体的表示的取向和3D模型的2D投影的取向之间的差异。投影误差越大,目标物体的取向就越不可能是已知取向。因此,当投影误差高于预定义的阈值时,系统300可以确定目标物体不在已知取向上。
在操作610中,系统300被配置为确定投影误差是否小于预定义的阈值。如果对操作610的回答为“是”,那么系统300被配置为在操作612中将目标物体识别为在已知取向上取向。另一方面,如果对操作610的回答为“否”,则系统300被配置为改变3D模型的取向,并生成在额外的已知取向上取向的目标物体的3D模型的额外的2D投影。然后,过程返回到操作606,其中系统300确定目标物体的表示和3D模型的额外2D投影之间的额外投影误差。然后,系统300可以重复操作610,以确定额外投影误差是否小于预定义的阈值。系统300可以重复操作606-610,直到确定目标物体的取向。
除了系统300确定目标物体的取向外,系统300可以确定目标物体在手术空间内的位置。这可以以任何合适的方式完成。例如,系统300可以使用深度数据和/或任何其他合适的数据来确定目标物体在手术空间内的位置。然后,系统300可以基于目标物体的确定取向和目标物体在手术空间内的确定位置的组合来确定目标物体在手术空间内的姿势。
在某些示例中,系统300可以基于目标物体在手术空间内的位置和在目标物体的外表面上设置的一个或多个标志的取向来确定目标物体的姿势。在此类示例中,当从特别视点查看时,一个或多个标志的特别取向可以指示目标物体在手术空间内的特别取向。例如,在非机器人器械的外表面上可以设置两个标志。两个标志的第一取向可以指示非机器人器械的第一取向,两个标志的第二取向可以指示非机器人器械的第二取向,并且两个标志的第三取向可以指示非机器人器械的第三取向。系统300可以以任何合适的方式检测两个标志是否在第一取向、第二取向或第三取向上。例如,系统300可以以任何合适的方式分析手术空间的图像,以从特别视点确定两个标志的取向。
在某些示例中,一个或多个标志也可用于识别位于手术空间中的非机器人器械的类型。例如,标志的特定类型、标志的位置、标志的组合和/或标志的配置可以指示非机器人器械的类型。
在目标物体的外表面上设置的标志可具有任何合适的配置,如可服务于特定的实施方式。为了展示示例,图7示出了手术空间的图像700,其中提供了与患者(例如,患者108)的肾脏704有关的非机器人器械702和机器人器械204-3。如图7所示,非机器人器械702包括标志706,该标志具有一组独特的标志元素,其为深色或浅色方块的独特网格图案。该组独特的标志元素形成独特图案,其促进系统300将标志706与图像700中的其他特征区分开。尽管图7仅示出了一个标志706,但应理解的是,可以在非机器人器械702的外表面上设置任何合适数量的标志706,以促进系统300确定非机器人器械702的姿势。
系统300可以在任何合适的时间检测手术空间内的目标物体的姿势。在某些示例中,系统300可以在检测到用户与目标物体互动的意图之后,检测手术空间内的目标物体的姿势。可替代地,系统300可以在检测到目标物体位于手术空间中之后或检测目标物体位于手术空间中的同时检测姿势。在某些示例中,系统300可以响应于系统300检测到目标物体位于手术空间中来检测目标物体的姿势。也就是说,检测到目标物体位于手术空间中可以触发系统300执行操作以检测目标物体的姿势。
在某些示例中,在关于手术空间执行的手术程序期间,目标物体的姿势可以改变。当目标物体在手术空间内改变位置和/或取向时,系统300可以以任何合适的方式确定目标物体在手术空间中的更新姿势,如本文所述。在某些示例中,系统300可以被配置为在手术程序期间持续监测和更新目标物体的姿势。可替代地,系统300可以周期性地确定目标物体的更新姿势。
基于所检测到的用户与目标物体互动的意图和目标物体在手术空间中的所确定的姿势,系统300可以相对于目标物体执行操作。此种操作可以对应于可促进用户与手术空间中的目标物体互动和/或使用该目标物体的任何合适的行动。例如,可相对于目标物体执行的操作可包括但不限于系统300确定要用于与目标物体互动的最佳机器人器械、指示用户在手术空间内插入特定的机器人器械(例如,抓取器器械)、确定潜在的机器人器械抓取姿势、确定最佳机器人器械抓取姿势、促进机器人器械抓取目标物体、生成机器人器械遵循的最佳运动路径以与目标物体互动(例如,同时考虑到计算机辅助手术系统的配置、计算机辅助手术系统的运动学约束和/或手术空间的环境约束)、提供最佳运动路径的图形表示以供显示给用户、在机器人器械抓取目标物体时促进机器人器械执行操作,和/或执行任何其他合适的操作。
在某些示例中,可能期望在手术空间内重新定位目标物体,以促进系统300对于目标物体执行操作。在此类示例中,系统300可以向计算机辅助手术系统的用户提供指令以在手术空间中重新定位目标物体。系统300可以指示用户以任何合适的方式重新定位目标物体。为了展示示例,当目标物体对应于插入式超声探头时,可能期望旋转插入式超声探头,使得插入式超声探头处于更好的取向上以供机器人器械抓取。因此,系统300可以指示用户,例如,手动扭转附接到插入式超声探头的绳子,以重新定位插入式超声探头。可替代地,系统300可以指示用户使用机器人器械以任何合适的方式抓取和重新定位插入式超声探头。在插入式超声探头被重新定位后,系统300可以以任何合适的方式确定插入式超声探头的更新姿势,诸如本文所述。基于插入式超声探头的所确定的更新姿势,系统300可以相对于插入式超声探头执行任何合适的额外操作。
在某些实施方式中,系统300可以引导手术系统100自动执行操作,以促进用户与目标物体的互动和/或使用该目标物体。如本文所用,表述“自动地”是指执行操作(例如,移动机器人器械)或系列操作而不需要来自用户的进一步输入。例如,示例性系统诸如本文所述的那些中的任一个可被配置为将机器人器械自动移动到目标物体、自动调整机器人器械的抓取姿势、用机器人器械自动抓取目标物体,和/或自动使用机器人器械在手术空间内以任何合适的方式移动目标物体,而不需要来自用户(例如外科医生110-1)的额外输入。
在某些可替代实施方式中,系统300可以被配置为辅助用户使用机器人器械来抓取目标物体。为此,系统300可以被配置为指示手术系统100的用户控制机器人器械以便用机器人器械抓取目标物体。系统300可以以任何合适的方式指示用户。例如,在某些实施方式中,系统300可以被配置为向用户提供视觉指导,以辅助用户控制机器人器械来抓取目标物体。此种视觉指导可以以任何合适的方式提供。例如,系统300可以提供叠加在显示给用户的手术空间的图像(例如,通过用户控制系统104的立体图像查看器显示的图像)上的图形物体。此类图形物体可以指示可促进与目标物体的意图互动的建议的机器人器械移动路径、建议的机器人器械抓取姿势等。
为了展示示例,图8A和图8B示出了正在对患者(例如,患者108)执行外科手术的手术空间的示例性图像800(例如,图像800-1和800-2)。如图8A所示,图像800-1描绘了在包括患者的肾脏704的手术空间中,与机器人器械204-3一起设置的插入式超声探头802。插入式超声探头802被配置为捕获肾脏704的表面下组织的超声图像。然而,因为插入式超声探头802是非机器人器械,所以必须使用诸如机器人器械204-3的机器人器械来抓取插入式超声探头802,以相对于肾脏704充分移动插入式超声探头802来捕获超声图像。因此,机器人器械204-3在图8A和图8B中被示为抓取器型机器人器械,其被配置为抓取和移动插入式超声探头802。
为了促进机器人器械204-3被用于抓取插入式超声探头802,系统300被配置为以任何合适的方式确定插入式超声探头802的姿势,诸如本文所述。在系统300确定插入式超声探头802的姿势后,系统300可被配置为提供视觉指导,以促进用户与插入式超声探头802互动。此种视觉指导的示例在图8B中示出。特别地,图8B描绘了机器人器械遵循的最佳运动路径804以抓取插入式超声探头802。此外,图8B描绘了机器人器械204-3在建议的机器人器械抓取位置的虚拟图像806。通过此种辅助,用户(例如外科医生110-1)可以容易地确定在哪里抓取插入式超声探头802、机器人器械204-3用于抓取插入式超声探头802的最佳取向,以及沿其移动机器人器械204-3以抓取插入式超声探头802的最佳运动路径。
此外或可替代地,系统300可以被配置为提供触觉反馈,以促进手术系统100的用户控制机器人器械来抓取目标物体。此种触觉反馈可以以任何合适的方式提供。例如,随着用户移动机器人器械204-3以便遵循图8所示的最佳运动路径804,每当用户偏离最佳运动路径804时,系统300可以以用户控制系统104的主控装置振动的形式提供触觉反馈。
此外或可替代地,系统300可被配置为提供听觉指导以促进手术系统100的用户控制机器人器械来抓取目标物体。此种听觉指导可以以任何合适的方式提供。例如,随着用户移动机器人器械204-3以便遵循图8所示的最佳运动路径804,每当用户偏离最佳运动路径804时,可以提供“嘟嘟声”噪声形式的听觉指导。
在某些示例中,诸如非机器人器械的目标物体可以包括设置在非机器人器械的外表面上的突起,以促进系统300抓取目标物体。在非机器人器械的外表面上设置有突起的示例中,系统300可以确定突起的姿势,作为系统300确定非机器人器械的姿势的一部分。非机器人器械的突起可以具有任何合适的大小和/或配置,以促进非机器人器械被附接到手术系统100的机器人器械(例如,机器人器械204-3)抓取。为了展示示例,图9示出了手术空间的示例性图像900,其中设置了与肾脏704有关的插入式超声探头902和机器人器械204-3。如图9所示,插入式超声探头902包括在插入式超声探头902的外表面上设置的突起904,其被配置为以任何合适的方式由机器人器械204-3抓取。
在某些示例中,系统300可以使用机器学习来执行本文所述的操作中的任一个。例如,系统300可以使用机器学习来确定目标物体是否位于手术空间中。在某些示例中,系统300可以使用监督机器学习算法来确定目标物体是否位于手术空间中。在此类示例中,监督机器学习算法的训练输入可以包括手术空间的多个图像,在手术空间中定位在其中的目标物体被标记。系统300可以在训练阶段期间以任何合适的方式使用监督机器学习算法,以分析具有标记的目标物体的手术空间的多个图像。在训练阶段之后,系统300可以获得手术空间的图像作为操作输入,该图像可以包括也可以不包括目标物体。系统300可以以任何合适的方式(例如,通过使用深度神经网络)使用监督机器学习算法来分析可能包括目标物体的手术空间的图像,并基于该分析检测目标物体的任何部分是否位于手术空间中。在某些可替代实施方式中,系统300可以使用无监督机器学习算法来执行本文所述的操作中的任一个。
此外或可替代地,在某些示例中,系统300可以使用机器学习来检测目标物体在手术空间中的取向。例如,系统300可以使用监督机器学习算法来检测目标物体的取向。在此类示例中,监督机器学习算法的训练输入可以包括手术空间的多个图像,定位在手术空间中的目标物体的取向被标记。系统300可以在训练阶段期间以任何合适的方式使用监督机器学习算法以分析手术空间的多个图像,其中目标物体的取向被标记。在训练阶段之后,系统300可以获得手术空间的图像,其中目标物体的取向作为操作输入是不知道的。系统300可以以任何合适的方式使用监督机器学习算法来分析其中不知道目标物体的取向的手术空间的图像,并基于该分析来检测目标物体的取向。
此外或可替代地,在某些示例中,系统300可以使用机器学习来确定用户与目标物体互动的意图。例如,系统300可以使用监督机器学习算法来检测用户与目标物体互动的意图。在此类示例中,监督机器学习算法的训练输入可以包括已被标记为其中用户意图与目标物体互动的程序性情境的多个程序情境。此类程序情境可以包括可用于确定用户的意图的与手术空间相关联的任何合适的信息。例如,程序情境可以包括指定机器人器械配置的信息、检测任何合适的基于视觉的命令、基于话音的命令和/或其组合,诸如本文所述。系统300可以在训练阶段期间以任何合适的方式使用监督机器学习算法来分析多个程序情境。在训练阶段之后,系统300可以获得关于当前程序情境的信息作为操作输入。系统300可以以任何合适的方式使用监督机器学习算法来分析关于当前程序情境的信息,并基于该分析检测用户是否意图与目标物体互动。
图10展示了用于识别和促进与手术空间中的目标物体的意图互动的示例性方法。虽然图10展示了根据一个实施例的示例性操作,但其他实施例可以省略、添加、重新排序和/或修改图10所示的操作中的任一个。图10所示的操作中的一个或多个可由系统(诸如系统300)、包括在其中的任何部件和/或其任何实施方式来执行。
在操作1002中,与计算机辅助手术系统(例如,手术系统100)相关联的处理器(例如,实施处理设施302的处理器)可以检测当目标物体位于手术空间中时计算机辅助手术系统的用户使用附接到计算机辅助手术系统的机器人器械与目标物体互动的意图。操作1002可以以本文所述的方式中的任一种执行。
在操作1004中,处理器可以确定目标物体在手术空间中的姿势。操作1004可以以本文所述的方式中的任一种执行。
在操作1006中,处理器可以基于所检测到的用户与目标物体互动的意图和目标物体在手术空间中的所确定的姿势,执行关于目标物体的操作。操作1006可以以本文所述的方式中的任一种执行。
尽管前面的公开内容描述了与识别手术空间中的目标物体相关联的操作,但应理解的是,系统300也可以执行与促进机器人器械和目标物体互动相关联的各种操作。为了促进此种机器人器械的使用,系统300(例如,处理设施302)可以被配置为确定要用于与位于手术空间中的目标物体互动的机器人器械。系统300可以以任何合适的方式确定要用于与目标物体互动的机器人器械。例如,在某些实施方式中,系统300可以访问数据库,其存储指定多个机器人器械的信息。包括在数据库中的信息可以包括与多个机器人器械相关联的任何合适的信息。例如,该信息可包括有关机器人器械类型、抓取能力、衔接能力、尺寸的信息,和/或与多个机器人器械相关联的任何其他合适的信息。此种数据库可以由存储设施304和/或系统300可访问的任何其他合适的存储装置存储。
系统300可以从数据库中的信息确定包括在多个机器人器械中的机器人器械中的至少一些是与目标物体互动的候选者。这可以以任何合适的方式完成。在某些示例中,系统300可以选择特定类型的或具有某些特征的机器人器械作为与目标物体互动的潜在候选者。例如,系统300可以选择包括在多个机器人器械中的所有或某些抓取型机器人器械作为要用于与目标物体互动的可能的候选机器人器械。每个抓取型机器人器械可具有不同的抓取臂配置,其引起不同的抓取特性。例如,抓取型机器人器械的抓取臂的大小、长度、厚度等可引起不同的抓取特性。在此类示例中,系统300可以基于抓取特性/或与手术空间相关联的任何其他合适的信息,将抓取型机器人器械中的一个或多个识别为与目标物体互动的候选者。
在某些示例中,由系统300确定为与目标物体互动的潜在候选者的机器人器械可以当前位于手术空间中。可替代地,由系统300确定为与目标物体互动的潜在候选者的机器人器械中没有一个可以当前位于手术空间中。在某些可替代示例中,由系统300确定为与目标物体互动的潜在候选者的机器人器械可以包括当前位于手术空间中的一个或多个机器人器械和被包括在数据库中识别的多个机器人器械中的一个或多个机器人器械的组合。例如,系统300可以确定,当前位于手术空间中的一个机器人器械是要用于与目标物体互动的候选器械,并且一个或多个额外的机器人器械(其当前不位于手术空间中)也是候选者。
系统300可以从确定的候选机器人器械中并基于存储在数据库中的信息,选择要用于与目标物体互动的机器人器械。系统300可以使用与手术空间和/或机器人器械相关联的任何合适的参数来选择要用于与目标物体互动的机器人器械。例如,系统300可以基于目标物体的意图用途、机器人器械在手术空间中的到达范围、位于手术空间中的额外机器人器械的姿势、位于手术空间中的额外物体(例如解剖结构)的姿势、与目标物体互动所需的移动量和/或任何其他合适的信息来选择机器人器械。系统300可以以任何合适的方式利用此类信息,以促进确定哪种机器人器械是要用于与目标物体互动的最佳机器人器械。
为了展示示例,在某些实施方式中,系统300可以将数值分配给参数,诸如本文所述的可用于选择最佳机器人器械的那些参数。然后,系统300可以对用于每个候选机器人器械的数值求和,并选择具有最高求和数值的候选机器人器械作为最佳机器人器械。例如,系统300可以将第一数值分配给第一候选机器人器械的当前姿势,将第二数值分配给第一候选机器人器械为到达目标物体而必须行进的距离,以及将第三数值分配给第一候选机器人器械的取向必须改变多少以与目标物体互动。系统300可以对第一数值、第二数值和第三数值求和,以确定第一候选机器人器械的总分。以类似的方式,系统300可以为第二候选机器人器械和第三候选机器人器械确定求和的数值。基于确定的求和的总分,系统300可以确定第一候选机器人器械、第二候选机器人器械或第三候选机器人器械中的哪个是要用于与目标物体互动的最佳机器人器械。
在某些实施方式中,可用于选择最佳机器人器械的某些参数可以优先于(例如,加权)其他参数。例如,当前位于手术空间中的候选机器人器械可以优先于当前不位于手术空间中的候选机器人器械。为了展示,图11示出了流程图1100,其具有在某些实施方式中当确定要用于与目标物体互动的机器人器械时可由系统300执行的示例性操作。在操作1102中,系统300可以访问存储指定多个机器人器械的信息的数据库。在操作1104中,系统300可以从数据库中选择机器人器械中的一个或多个作为要用于与目标物体互动的候选机器人器械。在操作1106中,系统可以确定所选择的机器人器械中的至少一个当前是否位于手术空间中。如果对操作1106的回答为“是”,则系统300可以在操作1108中确定所选择的机器人器械中是否有一个以上当前是否位于手术空间中。如果对操作1108的回答为“否”,则系统300可以在操作1110中确定当前在手术空间中的所选择的机器人器械是要用于与目标物体互动的最佳机器人器械。如果对操作1108的回答为“是”,则系统300可以在操作1112中确定当前位于手术空间中的所选择的机器人器械中的哪个是要用于与目标物体互动的最佳机器人器械。例如,系统300可以分析与所选择的机器人器械相关联的到达范围、姿势和/或任何其他合适的信息,以确定手术空间中的哪个更适合与目标物体互动。如果对操作1106的回答为“否”,则系统300可以确定从数据库中选择的机器人器械中的哪个是要用于与目标物体互动的最佳机器人器械。
在某些示例中,系统300可以首先确定候选机器人器械是否已经位于手术空间中,然后再访问存储指定多个机器人器械的信息的数据库。为了展示,图12示出了流程图1200,其具有在某些可替代实施方式中当确定要用于与目标物体互动的机器人器械时,系统300可以执行的示例性操作。在操作1202中,系统300可以确定哪些机器人器械当前位于手术空间中。例如,系统300可以访问影像、深度图数据和/或与手术空间相关联的任何其他合适的信息,以确定什么类型的机器人器械当前位于手术空间中。在操作1204中,系统300可以确定当前位于手术空间中的机器人器械中的任一个是否为要用于与目标物体互动的候选机器人器械。例如,系统300可以确定当前位于手术空间中的机器人器械中的任一个是否为抓取型机器人器械。如果对操作1204的回答为“是”,则系统300可以在操作1206中确定当前位于手术空间中的候选机器人器械是否多于一个。如果对操作1206的回答为“否”,则系统300可以在操作1208中确定当前位于手术空间中的候选机器人器械是要用于与目标物体互动的最佳机器人器械。如果对操作1206的回答为“是”,则系统300可以确定当前位于手术空间中的候选机器人器械中的哪个是要用于与目标物体互动的最佳机器人器械。如果对操作1204的回答为“否”,则系统300可以在操作1212中访问存储指定多个机器人器械的信息的数据库。在操作1214中,系统300可以从数据库中选择一个或多个机器人器械作为要用于与目标物体互动的候选机器人器械。在操作1216中,系统300可以确定从数据库中选择的机器人器械中的哪个是要用于与目标物体互动的最佳机器人器械。
在某些实施例中,系统300可以不访问存储指定多个机器人器械的信息的数据库,以确定要用于与目标物体互动的最佳机器人器械。相反,在某些实施方式中,系统300可以确定最佳机器人器械已经位于手术空间中。为了展示示例,图13示出了手术空间的图像1300,其中非机器人器械702和机器人器械204-1至204-3关于患者(例如,患者108)的肾脏704被提供。如图13所示,机器人器械204-1和204-3是抓取型机器人器械,而机器人器械204-2是切割型机器人器械。鉴于此,系统300可以确定机器人器械204-1和204-3比机器人器械204-2更适合与非机器人器械702互动(例如,抓取)。此外,系统300可以确定机器人器械204-1和机器人器械204-3中的哪个更适合与非机器人器械702互动。例如,系统300可以以任何合适的方式确定机器人器械204-3没有充分到达手术空间内与非机器人器械702互动的位置。然而,系统300可以确定机器人器械204-1已充分到达,和/或机器人器械204-1具有与其他候选机器人器械(诸如机器人器械204-3)的到达参数相比更有利于机器人器械204-1抓取非机器人器械702的到达参数。因此,系统300可以选择机器人器械204-1(而不是机器人器械204-3)作为要用于与非机器人器械702互动的机器人器械。此外或可替代地,系统300可以确定解剖结构的一部分(例如,肾脏704或手术空间内的一些其他组织)被定位,以便阻止机器人器械204-3与非机器人器械702互动。因此,系统300可以基于此种额外或可替代因素,选择机器人器械204-1而不是机器人器械204-3作为最佳机器人器械。
在某些示例中,系统300可以确定要用于与目标物体互动的机器人器械当前不位于手术空间中。例如,系统300可以确定,图13所示的机器人器械204-1至204-3中没有一个对应于要用于与非机器人器械702互动的最佳机器人器械。在此类示例中,系统300可以指示计算机辅助手术系统的用户(例如,助手110-2、护士110-3等)在手术空间中插入不同的机器人器械(例如,从数据库中选择的机器人器械)。
系统300可以指示用户以任何合适的方式插入机器人器械。例如,系统300可以提供任何合适的听觉通知和/或视觉通知,以指示用户关于要插入哪个机器人器械以及在哪里插入机器人器械。为了展示示例,系统300可以通过显示监视器114提供文本和/或图形通知,从而指示助手110-2用更适合与非机器人器械702互动的额外的抓取型机器人器械替换图13所示的机器人器械204-2。基于该通知,助手100-2可以从手术空间移除机器人器械204-2,并沿与图13所示机器人器械204-2相似的插入轨迹插入额外的抓取型机器人器械。在这样做时,额外的抓取型机器人器械可以比机器人器械204-1和204-3更好地定位,以与非机器人器械702互动。
在某些示例中,系统300可以被配置为提供通知,通知被配置为告知计算机辅助手术系统的用户关于哪个机器人器械要用于与位于手术空间中的目标物体互动。系统300可以以任何合适的方式提供此种通知。例如,系统300可以向用户(例如,外科医生110-1)提供听觉通知,其通知用户关于确定的机器人器械。此种听觉通知可以以任何合适的方式提供。例如,听觉通知可以包括“嘟嘟声”,播放带有识别机器人器械的口语的音频片段,和/或任何其他合适的听觉通知。
此外或可替代地,系统300可以被配置为提供视觉通知,视觉通知被配置为通知用户关于使用哪个机器人器械与目标物体互动。例如,系统300可以提供闪烁的光和/或任何合适的图形物体或增强的覆盖物,以用于显示给用户(例如,通过用户控制系统104显示给外科医生110-1),告知用户特定的机器人器械要用于与目标物体互动。
此外或可替代地,系统300可以被配置为提供触觉通知,其被配置为通知用户关于要使用哪个机器人器械与目标物体互动。此种触觉通知可以以任何合适的方式提供。例如,系统300可以使用户控制系统104的主控装置中的一个振动,以告知用户特定的机器人器械要用于与目标物体互动。为了展示示例,如果系统300确定图13所示的机器人器械204-3是要用于与非机器人器械702互动的最佳机器人器械,则系统300可使与机器人器械204-3相关联的用户控制系统104的主控装置振动,以通知外科医生110-1此种确定。
在某些示例中,系统300可以被配置为确定机器人器械可以采取的位置以促进与目标物体的互动,诸如通过确定机器人器械意图采取的位置以促进与目标物体的互动。系统可以以任何合适的方式确定机器人器械意图采取的位置,诸如本文所述的。在某些实施方式中,系统300可以确定机器人器械相对于目标物体意图采取的位置,而无需确定机器人器械意图采取的取向。可替代地,系统300可以被配置为确定机器人器械意图采取的姿势,以促进与目标物体的互动。
机器人器械可以在手术空间内以多个不同的姿势相对于目标物体定位。然而,机器人器械的一些姿势在促进与目标物体的互动方面可能比其他姿势更有效。因此,系统300可以被配置为确定机器人器械要采取的最佳姿势,以促进机器人器械与目标物体的互动。
在某些示例中,系统300可以被配置为确定手术空间中物体的当前姿势,以促进系统300执行诸如本文所述的那些操作的操作。例如,可以基于深度数据(例如,在手术空间的深度图中提供)和手术空间内的目标物体的确定取向的组合来确定手术空间中的目标物体的当前姿势。本文描述了系统300可以确定目标物体的当前姿势的示例性方式。
机器人器械的当前姿势可以由系统300以任何合适的方式确定。例如,机器人器械的当前姿势可以基于与机器人器械相关联的运动学信息、深度数据和机器人器械的确定取向的组合,和/或它们一些组合来确定。在某些示例中,机器人器械意图采取的姿势可以对应于被配置为促进机器人器械抓取目标物体的抓取姿势。现在将描述系统300可以确定机器人器械意图采取以促进与目标物体的互动的姿势的示例性方式。
在某些示例中,确定机器人器械意图采取的姿势可以包括识别与目标物体相关联的信息。例如,系统300可以基于目标物体的意图用途和/或目标物体的姿势来确定机器人器械意图采取的姿势。在某些示例中,系统300可以被配置为在确定机器人器械意图采取的姿势之前识别与目标物体相关联的此类信息。例如,系统300可以首先以任何合适的方式,诸如本文所述的那些,确定目标物体在手术空间中的6D姿势。基于确定的6D姿势,系统300可以确定机器人器械相对于目标物体的姿势意图采取的姿势。
系统300可以确定机器人器械意图采取从而以任何合适的方式与目标物体互动的姿势。例如,图14示出了流程图1400,其描绘了在确定机器人器械的意图姿势时可由系统300执行的示例性操作。在操作1402中,系统300可以访问数据库,数据库包括机器人器械要采取以促进机器人器械与目标物体互动的一组候选取向。此种数据库可以包括任何适当数量的候选取向,如可服务于特定的实施方式。在某些示例中,数据库可以包括目标物体在手术空间中可能具有的每个可能取向的多个候选取向。例如,目标物体在手术空间中的第一取向可以与机器人器械的第一候选取向、第二候选取向和第三候选取向相关联。目标物体在手术空间中的第二取向可与机器人器械的第四候选取向、第五候选取向和第六候选取向相关联。在此类示例中,系统300可以以任何合适的方式确定目标物体的取向。然后,系统300可以从数据库中选择与目标物体的确定取向相关联的对应候选取向,作为机器人器械可能采取的取向。此种数据库可由存储设施304维护和/或可由系统300可访问的任何合适的存储装置维护。
在操作1404中,系统300可以从包括在数据库中的该组候选取向中选择取向。系统300可以以任何合适的方式选择取向。例如,系统300可以分析手术空间内目标物体的当前姿势(例如,取向和位置)。基于目标物体的当前姿势,系统300可以确定该组候选取向包括机器人器械可以采取以促进与目标物体互动的第一候选取向、第二候选取向和第三候选取向。然后,系统300可以选择包括在数据库中的机器人器械的第一候选取向、第二候选取向或第三候选取向中的哪个最有利于机器人器械与目标物体互动。例如,系统300可以以任何合适的方式确定,第一候选取向对于用户来说更容易实现(例如,基于机器人器械在手术空间中的当前取向),引起与目标物体的更好互动(例如,更强的抓取),和/或引起比第二和第三候选取向在手术空间中更好的可见性。因此,系统300可以选择第一候选取向作为要用于机器人器械与目标物体互动的取向。
在操作1406中,系统300可以为机器人器械选择在手术空间内相对于目标物体采取的位置。系统300可以以任何合适的方式选择机器人器械采取的位置。例如,系统300可以分析与手术空间相关联的深度数据,以确定目标物体和/或其他物体(例如,解剖结构、其他机器人器械等)在手术空间内的相对姿势。基于深度数据、机器人器械意图采取的选定取向,和/或任何其他合适的信息,系统300可以选择机器人器械在选定取向时要采取的位置。
在操作1408中,系统300可以基于所选择的取向和所选择的位置来确定机器人器械意图采取的姿势。
在某些示例中,系统300可以基于位于手术空间中的目标物体的类型来确定机器人器械意图采取的姿势。为了展示示例,图13所示的非机器人器械702可对应于从垂直于非机器人器械702的纵向延伸的方向被最佳地抓取的目标物体的类型。因此,系统300可以为机器人器械204-3选择采取与非机器人器械702的纵向延伸相垂直的取向。此外,非机器人器械702的预期意图用途可能需要保持肾脏704表面的可视化。因此,系统300可以选择机器人器械204-3的取向,以便在手术程序期间使肾脏704表面的可视性最大化(例如,当机器人器械204-3在手术空间内抓取并移动非机器人器械702时)。例如,可以在图13所示的非机器人器械702的上侧上提供选定取向和选定位置,以使肾脏704表面的可视性最大化。
在某些示例中,系统300可以被配置为生成机器人器械采取以促进机器人器械与目标物体互动的一组候选取向。图15示出了流程图1500,其描绘了在生成一组候选取向时可由系统300执行的示例性操作。在操作1502中,系统300可以被配置为生成机器人器械采取以促进机器人器械与目标物体互动的一组候选取向。系统300可以以任何合适的方式生成该组候选取向。例如,在某些实施方式中,系统300可以使用机器学习来生成该组候选取向和/或执行本文所述的任何其他操作。
在某些示例中,系统300可以使用监督机器学习算法来生成机器人器械的候选取向的数据库。在此类示例中,监督机器学习算法的训练输入可以包括手术空间的包括机器人器械相对于目标物体的标记取向的多个图像。系统300可以在训练阶段期间以任何合适的方式使用监督机器学习算法,以分析具有机器人器械的标记取向的一个或多个手术空间的多个图像。在训练阶段之后,系统300可以获得目标物体所位于的手术空间的图像作为操作输入。系统300可以以任何合适的方式(例如,通过使用深度神经网络)使用监督机器学习算法来分析包括目标物体的手术空间的图像,并生成一组候选取向。系统300可以从该组候选取向中确定机器人器械采取以与目标物体互动的最佳取向(例如,最佳取向类)。在某些可替代实施方式中,系统300可以使用无监督机器学习算法来执行本文所述的操作中的任一个。
在操作1504中,系统300可以从生成的候选取向中选择取向。系统300可以以任何合适的方式选择取向,诸如本文所述的。
在操作1506中,系统300可以选择机器人器械在手术空间内采取的相对于目标物体的位置。系统300可以以任何合适的方式选择位置,诸如本文所述的。
在操作1508中,系统300可以基于所选择的取向和所选择的位置确定机器人器械意图采取的姿势。
在某些示例中,在机器人器械被移动到确定的姿势之前,用户可视化机器人器械意图采取的姿势可能是有帮助的。因此,在某些示例中,系统300可以被配置为提供机器人器械在确定的姿势中的表示,以用于显示给计算机辅助手术系统的用户。如本文所用,“机器人器械的表示”可对应于任何合适的指示符,该指示符可用于告知用户机器人器械相对于目标物体意图采取的姿势。机器人器械的表示可具有如可满足特定的实施方式的任何合适的形状、大小和/或视觉外观。例如,机器人器械的表示可以是透明的、半透明的、不透明的、彩色的和/或图案化的。在某些示例中,当由与用户相关联的显示装置显示时,机器人器械的表示可以具有三维外观。系统300可以被配置为以任何合适的方式提供机器人器械的此种表示以用于显示。例如,系统300可以提供表示,作为通过用户控制系统104显示给外科医生110-1的手术空间的内窥镜视图上的图形叠加。
为了展示示例,图16示出了手术空间的图像1600,其中非机器人器械702和机器人器械204-1至204-3关于患者(例如,患者108)的肾脏704被提供。如图16所示,图像1600还包括表示1602,其描绘了例如机器人器械204-3要采取以促进机器人器械204-3抓取非机器人器械702的意图姿势。在图16所示的示例中,除了表示1602是虚线外,表示1602被描绘为与机器人器械204-3视觉上类似。然而,应理解的是,在某些实施方式中,表示1602可具有与机器人器械不同的视觉外观。例如,在某些实施方式中,机器人器械的表示在本质上可以是更示意性的,以便具有与机器人器械不同的视觉外观。例如,在某些实施方式中,机器人器械的表示可以通过在手术空间中提供的点线或虚线来表示。可替代地,在某些实施方式中,机器人器械的表示的更示意性的版本可以具有一般的外观(例如,棒状外观)。
在系统300确定机器人器械要采取的位置之后,系统300可以促进机器人器械采取该位置。在某些示例中,促进机器人器械采取位置可以包括促进机器人器械采取姿势。系统300可以以任何合适的方式促进机器人器械采取位置或姿势。例如,在某些实施方式中,系统300可以通过为机器人器械生成要遵循的运动路径以采取确定的位置来促进机器人器械采取位置。系统300可以以任何合适的方式生成运动路径。例如,系统300可以以任何合适的方式确定机器人器械的当前姿势。系统300可以生成运动路径,其在机器人器械的当前姿势开始,并在手术空间内以任何合适的路径延伸到机器人器械要采取的确定的姿势。在某些示例中,系统300可以生成机器人器械遵循以采取确定的姿势的多个运动路径。然后,系统300可以选择包括在多个运动路径中的最佳运动路径以供机器人器械遵循。
系统300可以利用与手术空间相关联的任何合适的信息来促进选择机器人器械要遵循的最佳运动路径。例如,系统300可以考虑到计算机辅助手术系统的配置、计算机辅助手术系统的一个或多个操纵器臂的运动学约束、手术空间的环境约束和/或任何其他合适的信息。
在某些示例中,系统300可以基于与手术空间相关联的碰撞因素来选择最佳运动路径。碰撞因素可以代表与手术空间相关联的可能影响机器人器械沿候选运动路径无阻碍地行进的可行性的任何方面。例如,碰撞因素可以包括与解剖结构相对于运动路径的位置相关联的信息、与另一个机器人器械和/或另一个物体相对于运动路径的位置相关联的信息,等等。系统300可以确定,特定的运动路径将导致机器人器械不期望地接触解剖结构和/或另一个物体(例如,另一个机器人器械)。因此,系统300可以根据此类碰撞因素来确定此种运动路径是不期望的。
此外或可替代地,系统300可以基于机器人器械的运动经济性因素选择最佳运动路径。运动经济性因素可以表示定义机器人器械在手术空间中移动多少以采取给定姿势的任何方面。例如,运动经济性因素可包括机器人器械要行进以与目标物体互动的距离和/或机器人器械要改变的取向的量以采取特别的取向。例如,第一候选运动路径可能引起机器人器械跨手术空间穿越第一距离,并且第二候选运动路径可能引起机器人器械跨手术空间穿越第二距离。第一距离可能比第二距离更大。因此,系统300可以确定第二候选运动路径优于第一候选运动路径。
此外或可替代地,系统300可以基于手术空间的视野因素选择最佳运动路径。视野因素可以指示在给定时间,在手术空间的视野内,有多少给定的运动路径是可查看的。在此类示例中,完全在手术空间的当前视野内的第一候选运动路径可能比需要改变视野以查看全部或部分第二候选运动路径的第二候选运动路径更受欢迎。
在某些示例中,系统300可以确定运动路径中存在障碍物。此种障碍物可以对应于可能阻止机器人器械遵循运动路径的任何物体。例如,障碍物可以包括解剖结构、另一个机器人器械和/或手术空间中的任何其他物体。系统300可以以任何合适的方式确定存在障碍物。例如,系统300可以通过分析手术空间的深度图、与手术空间中的一个或多个机器人器械相关联的运动学和/或任何其他合适的信息来确定存在障碍物。
如果系统300确定在运动路径中存在障碍物,则系统300可以执行操作以促进从运动路径移除障碍物。为了展示示例,图16中的图像1600示出机器人器械204-2直接与表示1602相邻。基于机器人器械204-2的位置,例如,机器人器械204-3可以遵循以采取由表示1602指示的姿势的运动路径可能被机器人器械204-2阻碍。因此,系统300可以执行操作以防止机器人器械204-2阻碍运动路径。例如,系统300可以以任何合适的方式指示用户(例如,外科医生110-1)将机器人器械204-2移动到手术空间内不阻碍运动路径的不同位置。可替代地,系统300可以指示额外的用户(例如,助手110-2)从手术空间移除机器人器械204-2。
在某些示例中,系统300可以自动执行操作以从运动路径移除障碍物。例如,系统300可以在手术空间内自动重新定位机器人器械204-2,使得机器人器械204-2不再阻碍与机器人器械204-3相关联的运动路径。
在某些示例中,系统300可以在手术空间内建立禁飞区/禁航区(no-fly zone)。此种禁飞区可以对应于手术空间的不允许机器人器械行进的区域。系统300可以由于可见性限制、由其他机器人器械引起的障碍物、由解剖结构引起的障碍物和/或出于任何其他合适的原因而建立此种禁飞区。在此类示例中,系统300可以在确定机器人器械遵循以采取姿势的最佳运动路径时考虑禁飞区。
在系统300生成用于机器人器械遵循的运动路径的实施方式中,系统300可以促进机器人器械自动遵循生成的运动路径以摆出姿势。在此类示例中,系统300可以引导计算机辅助手术系统(例如,系统100)沿运动路径自动移动机器人器械,而不需要用户的输入。
在某些实施方式中,系统300可以促进机器人器械以各种程度的自主性自动遵循运动路径。例如,在某些实施方式中,系统300可以引导机器人器械附接到的计算机辅助手术系统,以使机器人器械沿运动路径自动移动,并采取识别的姿势。可替代地,系统300可以引导机器人器械附接到的计算机辅助手术系统使机器人器械沿运动路径自动移动到确定的姿势附近。一旦机器人器械处于确定的姿势附近,用户(例如,外科医生110-1)然后可以采取机器人器械的手动控制和精细定位(例如,通过使用用户控制系统104的主控装置)来调整机器人器械的位置和取向,使得机器人器械采取确定的姿势。
在系统300自动控制机器人器械的示例中,系统300可以自动使机器人器械在任何合适的时间采取与确定的姿势相关联的取向。例如,系统300可以使机器人器械首先采取与确定的姿势相关联的取向,并然后自动遵循运动路径到与确定的姿势相关联的位置。可替代地,系统300可以自动使机器人器械遵循运动路径,然后在机器人器械到达与确定的姿势相关联的位置时采取与确定的姿势相关联的取向。可替代地,系统300可以使机器人器械在遵循运动路径的同时采取与确定的姿势相关联的取向。
在某些可替代实施方式中,系统300可以被配置为促进机器人器械附接到的计算机辅助手术系统的用户(例如,外科医生110-1)沿运动路径移动该机器人器械。系统300可以促进用户以任何合适的方式沿运动路径移动机器人器械。例如,在某些实施方式中,系统300可以被配置为提供虚拟指导,以促进用户沿运动路径移动机器人器械。在某些示例中,此种虚拟指导可以包括系统300提供触觉反馈指导。此种触觉反馈指导可以以任何合适的方式提供。例如,此种触觉反馈指导可以对应于虚拟夹具,诸如手术空间中的触觉隧道,其被配置为指导机器人器械的控制沿运动路径朝向确定的姿势。借助于此种触觉隧道,随着用户沿运动路径移动机器人器械,每当用户偏离运动路径超过某个预定义的阈值量时,系统300就可以以用户控制系统104的主控装置振动的形式提供触觉反馈。
此外或可替代地,系统300可以被配置为提供听觉指导,以促进用户沿运动路径移动机器人器械。此种听觉指导可以以任何合适的方式提供。例如,随着用户移动机器人器械以便遵循运动路径,每当用户偏离运动路径超过某个预定义的阈值量时,系统300可以以“嘟嘟声”噪声或任何其他合适噪声的形式提供听觉指导。
此外或可替代地,系统300可以被配置为提供视觉指导,以辅助用户沿运动路径移动机器人器械。此种视觉指导可以以任何合适的方式提供。例如,此种视觉指导可以包括运动路径的图形描绘。为了展示示例,图17示出了手术空间的示例性图像1700,其中正在对患者(例如,患者108)执行手术程序。如图17所示,图像1700描绘了在包括患者的肾脏704的手术空间中与机器人器械204-1至204-3一起设置的非机器人器械702。如图17所示,图像1700还包括图形描绘1702(例如,图形描绘1702-1和1702-2),其示出了机器人器械204-3可遵循以采取由表示1602描绘的姿势的可能运动路径。在图17所示的示例中,用户可以选择由图形描绘1702-1表示的运动路径或由图形描绘1702-2表示的运动路径以采取姿势。如果用户开始沿图形描绘1702-1所表示的运动路径移动机器人器械204-3,则系统可以自动将机器人器械204-2从图形描绘1702-1所表示的运动路径中移出。可替代地,系统300可以向用户提供通知,以告知用户机器人器械204-2当前阻碍了由图形描绘1702-1表示的运动路径。然后,系统300可以以任何合适的方式指示用户将机器人器械204-2从运动路径移除。另一方面,如果用户沿图形描绘1702-2所表示的运动路径移动机器人器械204-3,则用户可能不必在机器人器械204-3采取姿势之前最初移动机器人器械204-2。
尽管图17示出了可能的运动路径的两个图形描绘1702,但应理解的是,可以提供运动路径的任何合适数量的图形描绘以用于在给定时间显示给用户。例如,在某些实施方式中,可以提供运动路径的仅一个图形描绘以用于在给定时间显示给用户。可替代地,在某些实施方式中,可以提供运动路径的三个或更多个图形描绘以用于同时显示给用户。
在某些示例中,系统300可以要求用户在系统300允许机器人器械遵循运动路径以采取确定的姿势之前确认运动路径是可接受的。例如,系统300可以提供运动路径的图形描绘1702-2以用于显示给用户,并播放带有表述“请确认运动路径是可接受的”的音频片段。然后,用户可以在视觉上检查由图形描绘1702-2表示的运动路径,以确定运动路径是否没有障碍物和/或在其他方面是可接受的。如果用户确定运动路径是可接受的,则用户可以对音频片段提供任何适当的响应。例如,用户可以大声说“是”,以指示图形描绘1702-2所表示的运动路径是可接受的。在此种示例中,系统300可以使用任何合适的语音识别算法来检测用户的响应。然后,系统300可以促进机器人器械204-3以任何合适的方式沿运动路径移动,诸如本文所述的。
在某些示例中,系统300可以沿运动路径生成一个或多个路径点,以促进运动路径的可视化。系统300可以沿运动路径生成任何合适数量的路径点,如可服务于特定的实施方式。在某些示例中,此类路径点可被提供以用于向用户显示,而不是作为运动路径的图形描绘的一部分。例如,在某些实施方式中,图形描绘1702-1和/或图形描绘1702-2可各自包括沿其长度示出的多个路径点。此类路径点可以具有如可服务于特定的实施方式的任何合适的大小和/或形状(例如,圆形、正方形、三角形等)。
在某些示例中,诸如本文所述的那些路径点的路径点可由系统300提供,作为机器人器械沿运动路径的受监督自主移动的一部分。例如,系统300可以促进用户在计算机辅助手术系统沿运动路径自主地移动机器人器械时,在沿运动路径提供的每个路径点处确认运动路径是可接受的。在这样做时,系统300可以接收来自用户的当机器人器械沿运动路径移动经过每个路径点时运动路径是可接受的实时确认。如果在机器人器械沿运动路径移动时,手术空间中发生了会影响运动路径的变化(例如,在系统300生成运动路径后引入了障碍物),则系统300可以关于手术空间中的变化执行任何合适的操作。在某些示例中,系统300可以提供机器人器械沿运动路径移动的表示的增强预览,以促进用户确认运动路径是可接受的。
在某些示例中,系统300可以被配置为当机器人器械采取确定的姿势时向用户提供通知。此种通知可以以任何合适的方式提供。例如,系统300可以被配置为当机器人器械采取确定的姿势时向用户提供视觉通知、听觉通知和/或触觉反馈通知。为了展示示例,用户(例如,外科医生110-1)可以控制机器人器械204-3,以便遵循由图17所示的图形描绘1702-2表示的运动路径。在机器人器械204-3移动到表示702的位置期间或之后的任何适当时间,用户可以旋转机器人器械204-3,使得机器人器械204-3采取表示1602的取向。当机器人器械204-3的位置和取向与表示1602的位置和取向匹配或相差在一些预定义的阈值内时,系统300可以提供例如表示1602的音频音调、视觉外观的改变(例如,颜色、图案等的改变),和/或通过用户控制系统104的主控装置呈振动形式的触觉反馈,以告知用户,机器人器械204-3已采取姿势并准备与非机器人器械702互动(例如,抓取)。
在某些示例中,诸如非机器人器械的目标物体可以包括设置在其外表面上的突起,以促进机器人器械抓取目标物体。在非机器人器械的外表面上设置突起的示例中,在确定机器人器械将采取以与非机器人器械互动的姿势时,系统300可以考虑突起的姿势。可以在非机器人器械的外表面上设置任何合适数量的突起,如可服务于特定的实施方式。例如,在某些实施方式中,可在非机器人器械的外表面上设置两个或更多个突起。在此类示例中,机器人器械可被配置为抓取多个突起中的任一个,以促进在手术空间中移动非机器人器械。此外,非机器人器械的突起可具有任何合适的大小和/或配置,以促进附接到计算机辅助手术系统的机器人器械抓取该非机器人器械。
为了展示,图18A和图18B示出了手术空间的示例性图像(例如,图像1800-1和1800-2),其中在手术空间内设置插入式超声探头902作为一种类型的非机器人成像装置。如图18A所示,在包括肾脏704的手术空间内,插入式超声探头902与机器人器械204-1至204-3一起设置。插入式超声探头902被配置为捕获肾脏704的表面下组织的超声图像。然而,因为插入式超声探头902是非机器人成像装置,所以必须使用机器人器械诸如机器人器械204-1来抓取插入式超声探头902,以相对于肾脏704充分移动插入式超声探头902来捕获超声影像。因此,机器人器械204-1和204-3在图18A和图18B中被示为抓取器型机器人器械,它们是在手术空间内抓取和移动插入式超声探头902的可能候选者。
如图18A和图18B所示,插入式超声探头902包括外表面上的突起04,该突起被配置为由机器人器械204中的一个抓取。为了促进机器人器械204中的一个被用于抓取突起904,系统300可以被配置为确定哪个机器人器械204最适合被用于抓取突起904。这可以以任何合适的方式实现,诸如本文所述的。例如,系统300可以确定机器人器械204相对于插入式超声探头902的当前姿势的当前姿势。基于相对姿势和/或任何其他合适的信息,系统300可以确定机器人器械204-1比机器人器械204-3更适合抓取突起904。这可能是由于各种因素,诸如本文所述的那些因素。例如,系统300可以基于运动经济性因素选择机器人器械204-1,因为机器人器械204-1相对更靠近插入式超声探头902,并且已经处于与插入式超声探头902类似的取向。系统300可以确定机器人器械204-1要采取以促进机器人器械204-1抓取突起904的姿势。这可以以任何合适的方式完成,诸如本文所述的。然后,系统300可以促进机器人器械204-1以任何合适的方式(诸如本文所述的)来采取姿势。
例如,如图18B所示,系统300提供了呈表示1802的形式的视觉指导,以指示机器人器械204-1意图采取的姿势。此外,系统300提供了最佳运动路径的图形描绘1804,以促进用户沿最佳运动路径移动机器人器械204-1。通过此种视觉指导,用户(例如,外科医生110-1)可以容易地确定在哪里抓取插入式超声探头902、机器人器械204-1为抓取插入式超声探头902而采取的最佳姿势(例如,最佳取向和位置),以及沿其移动机器人器械204-1以抓取插入式超声探头902的突起904的最佳运动路径。
当机器人器械抓取目标物体时,系统300可以执行关于目标物体的操作。此种操作可以对应于可以促进使用机器人器械与手术空间中的目标物体互动和/或促进使用该目标物体的任何合适的操作。例如,可关于目标物体执行的操作可包括但不限于,系统300在机器人器械抓取目标物体的同时促进机器人器械移动目标物体和/或执行任何其他合适的操作。
为了展示示例,图19示出了手术空间的图像1900,其中机器人器械204-1至204-3和插入式超声探头902相对于肾脏704设置。如图19所示,插入式超声探头902当前被机器人器械204-1抓取。因此,当对应的操纵器臂移动机器人器械204-1时,插入式超声探头902也相对于肾脏704移动。当插入式超声探头902被机器人器械204-1抓取时,机器人器械204-1可以以任何合适的方式沿肾脏704的表面移动插入式超声探头902以捕获肾脏704的超声影像。例如,图19示出了机器人器械可以遵循以促进捕获超声影像的检测路径1902。
在某些实施方式中,系统300可以引导计算机辅助手术系统自动执行操作,以促进用户与目标物体互动和/或使用该目标物体。例如,示例性系统诸如本文所述的那些中的任一个可被配置为自动使用机器人器械以在手术空间内以任何合适的方式移动目标物体,而不需要来自用户(例如外科医生110-1)的额外输入。因此,在图19所示的示例中,系统300可以自动控制机器人器械204-1,以便在外科医生110-1控制机器人器械204-2和204-3的同时,沿检测路径1902移动插入式超声探头902。
在某些可替代实施方式中,系统300可以被配置为辅助用户控制机器人器械在手术空间内移动目标物体。例如,系统300可以被配置为提供关于在手术空间中移动机器人器械与抓取的目标物体的最佳实践的通知。系统300可以以任何合适的方式向用户提供此类指示和/或通知。例如,在某些实施方式中,系统300可以被配置为向用户提供视觉指导,以辅助用户控制机器人器械和被抓取的目标物体。此种视觉指导可以以任何合适的方式提供。例如,系统300可以提供叠加在显示给用户的手术空间的图像(例如,通过用户控制系统104的立体图像查看器显示的图像)上的图形物体。为了展示,可提供检测路径1902以用于向用户显示为插入式超声探头902相对于肾脏704遵循以捕获超声影像的建议路径的图形描绘。
在某些示例中,手术空间中的目标物体的当前姿势可能不利于与机器人器械互动。因此,在某些实施方式中,系统300可以被配置为执行操作以促进改变手术空间中目标物体的姿势。在某些示例中,此种操作可以包括系统300自动使用机器人器械来改变目标物体的姿势。例如,系统300可以自动抓取目标物体,并将目标物体的姿势改变为更有利于与机器人器械互动的姿势。在某些可替代实施方式中,促进改变目标物体的姿势的此种操作可以包括向计算机辅助手术系统的用户提供指令,以改变手术空间中目标物体的姿势。系统300可以指示用户以任何合适的方式改变目标物体的姿势。
为了展示示例,当目标物体对应于插入式超声探头时,插入式超声探头的外表面上的突起(例如,突起904)当前可能在手术空间的内窥镜视图中不可见。例如,该突起可能背向内窥镜视图并且面向解剖结构。因此,可能期望旋转插入式超声探头,使得插入式超声探头处于更好的取向以用于被机器人器械抓取。在此种示例中,系统300可以指示用户来(例如)手动扭转附接到插入式超声探头的绳子,以重新定位插入式超声探头。可替代地,系统300可以指示用户使用机器人器械以任何合适的方式抓取和重新定位插入式超声探头。
在某些示例中,系统300可以自动控制手术空间中的额外的机器人器械,以促进机器人器械与被抓取的目标物体互动。例如,如果机器人器械204-1当前正在抓取插入式超声探头902,如图19所示,则系统300可以引导计算机辅助手术系统以任何合适的方式自动控制机器人器械204-2和204-3中的一个或多个,以促进插入式超声探头902的使用。作为示例,系统300可以引导计算机辅助手术系统将机器人器械204-2和204-3中的一个或多个从会阻碍插入式超声探头902相对于肾脏704移动的位置自动移动。
此外或可替代地,系统300可引导计算机辅助手术系统自动控制附接到成像装置202的操纵器臂,以促进机器人器械与目标物体的互动。例如,系统300可以引导计算机辅助手术系统自动调整成像装置202的位置和/或操作,以促进机器人器械与目标物体互动。为了展示示例,系统300可以生成机器人器械遵循的运动路径,该路径至少部分地延伸到手术空间的当前视野之外。在此种示例中,当用户沿运动路径移动机器人器械时,系统300可以引导计算机辅助手术系统自动移动成像装置202,以确保当机器人器械沿运动路径的整个长度移动时,机器人器械保持在视野内。
图20展示了用于促进机器人器械与手术空间中的目标物体互动的示例性方法。虽然图20展示了根据一个实施例的示例性操作,但其他实施例可以省略、增加、重新排序和/或修改图20所示的操作中的任一个。图20所示的操作中的一个或多个可由系统诸如系统300、包括在其中的任何部件和/或其任何实施方式来执行。
在操作2002中,与计算机辅助手术系统(例如,手术系统100)相关联的处理器(例如,实施处理设施302的处理器)可以确定要用于与位于手术空间中的目标物体互动的机器人器械。操作2002可以以本文所述的方式中的任一种执行。
在操作2004中,处理器可以确定机器人器械要采取以促进机器人器械与位于手术空间中的目标物体互动的位置。操作2004可以以本文所述的方式中的任一种执行。
在操作2006中,处理器可促进机器人器械采取该位置。操作2006可以以本文所述的方式中的任一种执行。
在一些示例中,可以根据本文所述的原理提供存储计算机可读指令的非临时性计算机可读介质。该指令,当由计算装置的处理器执行时,可引导处理器和/或计算装置执行一个或多个操作,包括本文所述的操作中的一个或多个。此类指令可使用各种已知的计算机可读介质中的任一种来存储和/或传输。
本文提到的非暂时性计算机可读介质可包括参与提供可由计算装置(例如,由计算装置的处理器)读取和/或执行的数据(例如,指令)的任何非暂时性存储介质。例如,非暂时性计算机可读介质可以包括但不限于非易失性存储介质和/或易失性存储介质的任何组合。示例性的非易失性存储介质包括但不限于只读存储器、闪存、固态驱动器、磁存储装置(例如硬盘、软盘、磁带等)、铁电随机存取存储器(“RAM”)和光盘(例如CD、数字视频光盘、蓝光光盘等)。示例性的易失性存储介质包括但不限于RAM(例如,动态RAM)。
图21展示了示例性计算装置2100,其可以被具体配置为执行本文所述的过程中的一个或多个。如图21所示,计算装置2100可以包括通信接口2102、处理器2104、存储装置2106以及经由通信基础设施2110彼此通信连接的输入/输出(“I/O”)模块2108。虽然图21中示出了示例性计算装置2100,但图21所示的部件并不意图是限制性的。在其他实施例中可以使用额外或可替代的部件。现在将对图21所示的计算装置2100的部件进行额外的详细描述。
通信接口2102可以被配置为与一个或多个计算装置通信。通信接口2102的示例包括但不限于有线网络接口(诸如网络接口卡)、无线网络接口(诸如无线网络接口卡)、调制解调器、音频/视频连接以及任何其他合适的接口。
处理器2104通常表示能够处理数据和/或解释、执行和/或引导执行本文所述的指令、过程和/或操作中的一个或多个的任何类型或形式的处理单元。处理器2104可以通过执行存储在存储装置2106中的计算机可执行指令2112(例如,应用程序、软件、代码和/或其他可执行数据实例)来执行操作。
存储装置2106可以包括一个或多个数据存储介质、装置或配置,并且可以采用数据存储介质和/或装置的任何类型、形式和组合。例如,存储装置2106可以包括,但不限于本文所述的非易失性介质和/或易失性介质的任何组合。电子数据,包括本文所述的数据,可以暂时和/或永久地存储在存储装置2106中。例如,代表被配置为引导处理器2104执行本文所述的操作中的任一个的计算机可执行指令2112的数据可以被存储在存储装置2106内。在一些示例中,数据可以被布置在驻留在存储装置2106内的一个或多个数据库中。
I/O模块2108可包括被配置为接收用户输入并提供用户输出的一个或多个I/O模块。一个或多个I/O模块可用于接收单个虚拟体验的输入。I/O模块2108可以包括支持输入和输出能力的任何硬件、固件、软件或其组合。例如,I/O模块2108可以包括用于捕获用户输入的硬件和/或软件,包括但不限于键盘或小键盘、触摸屏部件(例如,触摸屏显示器)、接收器(例如,RF或红外接收器)、运动传感器和/或一个或多个输入按钮。
I/O模块2108可以包括用于向用户呈现输出的一个或多个装置,包括但不限于图形引擎、显示器(例如,显示屏)、一个或多个输出驱动器(例如,显示驱动器)、一个或多个音频扬声器,以及一个或多个音频驱动器。在某些实施例中,I/O模块2108被配置为向显示器提供图形数据以用于向用户呈现。该图形数据可以代表一个或多个图形用户界面和/或如可服务于特定的实施方式的任何其他图形内容。
在一些示例中,本文所述的系统、计算装置和/或其他部件中的任一个可以由计算装置2100实施。例如,存储设施304可以由存储装置2106实施,并且处理设施302可以由处理器2104实施。
在前面的描述中,已参考附图描述了各种示例性实施例。然而,显而易见的是,可以对其进行各种修改和改变,并且可以实施额外的实施例,而不脱离如所附权利要求中阐述的本发明的范围。例如,本文所述的一个实施例的某些特征可以组合或替代本文所述的另一个实施例的特征。因此,应以说明性而非限制性的意义来看待描述和附图。

Claims (32)

1.一种系统,其包括:
存储指令的存储器;以及
处理器,其通信地耦合到所述存储器并被配置为执行所述指令以:
检测当目标物体位于手术空间中时计算机辅助手术系统的用户使用附接到所述计算机辅助手术系统的机器人器械与所述目标物体互动的意图;
确定所述目标物体在所述手术空间中的姿势;以及
基于所检测到的所述用户与所述目标物体互动的意图和所述目标物体在所述手术空间中的所确定的姿势,执行关于所述目标物体的操作。
2.根据权利要求1所述的系统,其中:
所述处理器进一步被配置为执行所述指令以确定所述目标物体位于所述手术空间中;
响应于确定所述目标物体位于所述手术空间中,执行检测所述用户使用所述机器人器械与所述目标物体互动的所述意图;以及
确定所述目标物体位于所述手术空间中包括:
获得所述手术空间的深度图;
从所述手术空间的所述深度图中提取物体的表示;
将所述物体的所提取的表示与已知目标物体的多个表示进行比较;
从已知目标物体的所述多个表示中识别与所述物体的所提取的表示匹配的已知目标物体的表示;以及
基于所识别的匹配将所述物体识别为所述目标物体。
3.根据权利要求1所述的系统,其中检测所述计算机辅助手术系统的所述用户的所述意图包括检测由所述计算机辅助手术系统的所述用户提供的基于话音的命令或基于手势的命令中的至少一个。
4.根据权利要求1所述的系统,其中检测所述计算机辅助手术系统的所述用户的所述意图包括检测由所述计算机辅助手术系统的所述用户提供的基于注视的命令。
5.根据权利要求4所述的系统,其中检测所述基于注视的命令包括:
访问所述计算机辅助手术系统的所述用户的眼睛的图像;
分析所述图像以确定所述计算机辅助手术系统的所述用户在所述手术空间内的注视点;以及
当所述用户的所述注视点在所述目标物体上停留预定时间量时,确定所述计算机辅助手术系统的所述用户意图与所述目标物体互动。
6.根据权利要求1所述的系统,其中检测所述计算机辅助手术系统的所述用户的所述意图包括:
基于所述手术空间的图像、所述机器人器械的配置或所述机器人器械的运动学中的至少一个来确定与所述手术空间相关联的程序情境;以及
基于所述确定的程序情境检测所述计算机辅助手术系统的所述用户与所述目标物体互动的所述意图。
7.根据权利要求1所述的系统,其中所述目标物体对应于位于所述手术空间中的非机器人器械。
8.根据权利要求7所述的系统,其中:
所述非机器人器械包括设置在所述非机器人器械的外表面上的突起,所述突起被配置为由附接到所述计算机辅助手术系统的所述机器人器械抓取;以及
确定所述目标物体的所述姿势包括确定所述非机器人器械上的所述突起的姿势。
9.根据权利要求7所述的系统,其中确定所述目标物体的所述姿势包括检测设置在所述非机器人器械的外表面上的一个或多个标志的取向。
10.根据权利要求1所述的系统,其中确定所述目标物体的所述姿势包括:
访问所述手术空间中的所述目标物体的图像;
从成像装置的视点中确定所述目标物体的表示;
将所确定的表示与在已知取向上取向的所述目标物体的三维(3D)模型的二维(2D)投影进行比较;
基于所述确定的表示与所述3D模型的所述2D投影的所述比较,确定所述确定的表示与所述3D模型的所述投影之间的投影误差;以及
当所述确定的投影误差小于预定义阈值时,将所述目标物体识别为在所述已知取向上取向。
11.根据权利要求10所述的系统,其中所述表示包括所述目标物体的外轮廓形状。
12.根据权利要求1所述的系统,其中关于所述目标物体执行所述操作包括引导附接到所述计算机辅助手术系统的所述机器人器械抓取所述目标物体。
13.根据权利要求1所述的系统,其中关于所述目标物体执行所述操作包括指示所述计算机辅助手术系统的所述用户控制所述机器人器械以便用所述机器人器械抓取所述目标物体。
14.根据权利要求13所述的系统,其中所述处理器被配置为提供视觉指导、听觉指导或触觉反馈指导中的至少一个,以辅助所述计算机辅助手术系统的所述用户控制所述机器人器械抓取所述目标物体。
15.根据权利要求1所述的系统,其中:
关于所述目标物体执行所述操作包括向所述计算机辅助手术系统的所述用户提供指令以将所述目标物体重新定位在所述手术空间中;以及
所述处理器进一步被配置为执行所述指令以:
确定所述手术空间中所述目标物体的更新姿势;以及
基于所述手术空间中所述目标物体的所确定的更新姿势,执行关于所述目标物体的额外操作。
16.根据权利要求1所述的系统,其中所述处理器进一步被配置为执行所述指令以:
确定所述机器人器械采取以促进所述机器人器械与位于所述手术空间中的所述目标物体互动的位置;以及
促进所述机器人器械采取所述位置。
17.根据权利要求16所述的系统,其中:
确定所述机器人器械采取以促进所述机器人器械与所述目标物体互动的所述位置包括确定所述机器人器械采取以促进所述机器人器械与位于所述手术空间中的所述目标物体互动的姿势;以及
促进所述机器人器械采取所述位置包括促进所述机器人器械采取所述姿势。
18.根据权利要求17所述的系统,其中确定机器人器械采取以促进所述机器人器械与位于所述手术空间中的所述目标物体互动的所述姿势包括:
访问数据库,所述数据库包括所述机器人器械采取以促进所述机器人器械与所述目标物体互动的一组候选取向;
从包括在所述数据库中的所述组候选取向中选择取向;
选择所述机器人器械在所述手术空间内相对于所述目标物体采取的位置;以及
基于所选择的取向和所述所选择的位置确定所述姿势。
19.根据权利要求17所述的系统,其中促进所述机器人器械采取所述姿势包括提供所述机器人器械在所述确定的姿势中的表示,以用于显示给所述计算机辅助手术系统的所述用户。
20.根据权利要求17所述的系统,其中促进所述机器人器械采取所述姿势包括生成用于所述机器人器械遵循以采取所述姿势的运动路径。
21.根据权利要求20所述的系统,其中生成用于所述机器人器械遵循以采取所述姿势的所述运动路径基于与所述手术空间相关联的碰撞因素、所述机器人器械的运动经济性因素或所述手术空间的视野因素中的至少一个。
22.根据权利要求20所述的系统,其中生成用于所述机器人器械遵循以采取所述姿势的所述运动路径包括:
确定所生成的运动路径中有障碍物;以及
执行操作以促进从所述生成的运动路径中移除所述障碍物。
23.根据权利要求20所述的系统,其中:
促进所述机器人器械采取所述姿势包括促进所述机器人器械遵循所述运动路径以采取所述姿势;以及
促进所述机器人器械遵循所述运动路径以采取所述姿势包括引导附接到所述机器人器械的计算机辅助手术系统沿所述运动路径自动移动所述机器人器械并采取所述姿势。
24.根据权利要求20所述的系统,其中:
促进所述机器人器械采取所述姿势包括促进所述机器人器械遵循所述运动路径以采取所述姿势;以及
促进所述机器人器械遵循所述运动路径以采取所述姿势包括促进附接到所述机器人器械的所述计算机辅助手术系统的用户沿所述运动路径移动所述机器人器械。
25.根据权利要求24所述的系统,其中促进所述计算机辅助手术系统的所述用户沿所述运动路径移动所述机器人器械包括提供视觉指导、听觉指导或触觉反馈指导中的至少一个以辅助所述用户沿所述运动路径移动所述机器人器械。
26.根据权利要求17所述的系统,其中:
所述目标物体对应于位于所述手术空间中的非机器人器械;以及
所述确定的姿势是促进所述机器人器械抓取所述非机器人器械的抓取姿势。
27.根据权利要求26所述的系统,其中所述抓取姿势促进所述机器人器械抓取设置在所述非机器人器械的外表面上的突起。
28.一种系统,其包括:
存储指令的存储器;以及
处理器,其通信地耦合到所述存储器并被配置为执行所述指令以:
确定非机器人器械位于手术空间中;
响应于确定所述非机器人器械位于所述手术空间中,确定所述非机器人器械在所述手术空间中的姿势;以及
基于所述非机器人器械在所述手术空间中的所确定的姿势,促进附接到计算机辅助手术系统的机器人器械与所述非机器人器械互动。
29.根据权利要求28所述的系统,其中确定所述非机器人器械位于所述手术空间中包括从多种类型的非机器人器械中确定哪种类型的非机器人器械位于所述手术空间中。
30.根据权利要求29所述的系统,其中确定哪种类型的非机器人器械位于所述手术空间中包括:
访问所述手术空间的捕获图像;
从所述手术空间的所述捕获图像中提取所述非机器人器械的图像;
将所述非机器人器械的表示与多个已知非机器人器械的多个表示进行比较;
从所述多个已知非机器人器械的所述多个表示中选择与所述非机器人器械的所述表示匹配的表示;以及
基于所选择的表示,确定所述非机器人器械的所述类型。
31.根据权利要求28所述的系统,其中:
所述非机器人器械包括突起,所述突起被配置为由附接到所述计算机辅助手术系统的机器人器械抓取;以及
确定所述非机器人器械的姿势包括确定所述非机器人器械的所述突起的姿势。
32.一种方法,其包括:
由与计算机辅助手术系统相关联的处理器检测当目标物体位于手术空间中时计算机辅助手术系统的用户使用附接到所述计算机辅助手术系统的机器人器械与所述目标物体互动的意图;
由所述处理器确定所述目标物体在所述手术空间中的姿势;以及
由所述处理器基于所检测到的所述用户与所述目标物体互动的意图和所述目标物体在所述手术空间中的所确定的姿势,执行关于所述目标物体的操作。
CN202080087518.7A 2019-12-16 2020-12-14 用于识别并促进与手术空间中的目标物体意图互动的系统和方法 Pending CN114845654A (zh)

Applications Claiming Priority (7)

Application Number Priority Date Filing Date Title
US201962948542P 2019-12-16 2019-12-16
US62/948,542 2019-12-16
US202062959635P 2020-01-10 2020-01-10
US62/959,635 2020-01-10
US202062986373P 2020-03-06 2020-03-06
US62/986,373 2020-03-06
PCT/US2020/064923 WO2021126786A1 (en) 2019-12-16 2020-12-14 Systems and methods for identifying and facilitating an intended interaction with a target object in a surgical space

Publications (1)

Publication Number Publication Date
CN114845654A true CN114845654A (zh) 2022-08-02

Family

ID=74175960

Family Applications (2)

Application Number Title Priority Date Filing Date
CN202080087518.7A Pending CN114845654A (zh) 2019-12-16 2020-12-14 用于识别并促进与手术空间中的目标物体意图互动的系统和方法
CN202080087491.1A Pending CN114929146A (zh) 2019-12-16 2020-12-14 促进手术空间中的非机器人装置的受指导远程操作的系统

Family Applications After (1)

Application Number Title Priority Date Filing Date
CN202080087491.1A Pending CN114929146A (zh) 2019-12-16 2020-12-14 促进手术空间中的非机器人装置的受指导远程操作的系统

Country Status (4)

Country Link
US (2) US20220409301A1 (zh)
EP (2) EP4076251A1 (zh)
CN (2) CN114845654A (zh)
WO (2) WO2021126786A1 (zh)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN116509545A (zh) * 2023-04-06 2023-08-01 上海微创医疗机器人(集团)股份有限公司 机器人部件位姿显示方法和虚拟导航器

Families Citing this family (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2021011646A2 (en) 2019-07-15 2021-01-21 Stryker Corporation Robotic hand-held surgical instrument systems and methods
CN114845654A (zh) * 2019-12-16 2022-08-02 直观外科手术操作公司 用于识别并促进与手术空间中的目标物体意图互动的系统和方法
US20220354586A1 (en) * 2021-04-21 2022-11-10 The Cleveland Clinic Foundation Robotic surgery
CA3176943A1 (en) * 2022-06-30 2023-12-30 Valorbec, Societe En Commandite Systems and methods for surgical trajectory planning
WO2024020223A1 (en) * 2022-07-22 2024-01-25 Intuitive Surgical Operations, Inc. Changing mode of operation of an instrument based on gesture detection
WO2024150088A1 (en) * 2023-01-13 2024-07-18 Covidien Lp Surgical robotic system and method for navigating surgical instruments

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20180199999A1 (en) * 2016-10-21 2018-07-19 GYS Tech, LLC d/b/a Cardan Robotics Methods and systems for setting trajectories and target locations for image guided surgery
WO2018152183A1 (en) * 2017-02-14 2018-08-23 Intuitive Surgical Operations, Inc. Multi-dimensional visualization in computer-assisted tele-operated surgery
US20180361585A1 (en) * 2015-01-06 2018-12-20 Discovery Robotics Robotic platform with multi-function service module
WO2019210322A1 (en) * 2018-04-27 2019-10-31 Truevision Systems, Inc. Stereoscopic visualization camera and integrated robotics platform

Family Cites Families (21)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6425865B1 (en) * 1998-06-12 2002-07-30 The University Of British Columbia Robotically assisted medical ultrasound
FR2855292B1 (fr) * 2003-05-22 2005-12-09 Inst Nat Rech Inf Automat Dispositif et procede de recalage en temps reel de motifs sur des images, notamment pour le guidage par localisation
US8935003B2 (en) * 2010-09-21 2015-01-13 Intuitive Surgical Operations Method and system for hand presence detection in a minimally invasive surgical system
US8996173B2 (en) * 2010-09-21 2015-03-31 Intuitive Surgical Operations, Inc. Method and apparatus for hand gesture control in a minimally invasive surgical system
US20160220316A1 (en) * 2011-10-28 2016-08-04 Navigate Surgical Technologies, Inc. Surgical location monitoring system and method with surgical guidance graphic user interface
JP2015516228A (ja) * 2012-05-02 2015-06-11 ストライカー グローバル テクノロジー センターStryker Global Technology Center 携帯型追跡システム、携帯型追跡システムを用いる方法
KR20140112207A (ko) * 2013-03-13 2014-09-23 삼성전자주식회사 증강현실 영상 표시 시스템 및 이를 포함하는 수술 로봇 시스템
EP3119318B1 (en) * 2014-03-17 2021-03-10 Intuitive Surgical Operations, Inc. System and method for tissue contact detection and for auto-exposure and illumination control
EP3009091A1 (en) * 2014-10-17 2016-04-20 Imactis Medical system for use in interventional radiology
US10127655B2 (en) * 2015-07-09 2018-11-13 Samsung Medison Co., Ltd. Medical imaging apparatus and method of operating same
CN105455901B (zh) * 2015-11-20 2018-02-02 清华大学 针对手术机器人的避障规划方法和避障规划系统
WO2017098505A1 (en) * 2015-12-07 2017-06-15 M.S.T. Medical Surgery Technologies Ltd. Autonomic system for determining critical points during laparoscopic surgery
EP3777749A3 (en) * 2015-12-31 2021-07-21 Stryker Corporation System and method for preparing surgery on a patient at a target site defined by a virtual object
US11612446B2 (en) * 2016-06-03 2023-03-28 Covidien Lp Systems, methods, and computer-readable program products for controlling a robotically delivered manipulator
WO2018052795A1 (en) * 2016-09-19 2018-03-22 Intuitive Surgical Operations, Inc. Base positioning system for a controllable arm and related methods
US11272985B2 (en) * 2017-11-14 2022-03-15 Stryker Corporation Patient-specific preoperative planning simulation techniques
US20210059762A1 (en) * 2017-12-28 2021-03-04 Changi General Hospital Pte Ltd Motion compensation platform for image guided percutaneous access to bodily organs and structures
US11490969B2 (en) * 2018-03-22 2022-11-08 Medtech S.A. Optical camera positioning tool
US10383692B1 (en) * 2018-04-13 2019-08-20 Taiwan Main Orthopaedic Biotechnology Co., Ltd. Surgical instrument guidance system
CN114845654A (zh) * 2019-12-16 2022-08-02 直观外科手术操作公司 用于识别并促进与手术空间中的目标物体意图互动的系统和方法
CN115551432A (zh) * 2020-03-31 2022-12-30 直观外科手术操作公司 用于促进外科手术空间中的设备的自动操作的系统和方法

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20180361585A1 (en) * 2015-01-06 2018-12-20 Discovery Robotics Robotic platform with multi-function service module
US20180199999A1 (en) * 2016-10-21 2018-07-19 GYS Tech, LLC d/b/a Cardan Robotics Methods and systems for setting trajectories and target locations for image guided surgery
WO2018152183A1 (en) * 2017-02-14 2018-08-23 Intuitive Surgical Operations, Inc. Multi-dimensional visualization in computer-assisted tele-operated surgery
CN110290758A (zh) * 2017-02-14 2019-09-27 直观外科手术操作公司 计算机辅助远程操作手术中的多维可视化
WO2019210322A1 (en) * 2018-04-27 2019-10-31 Truevision Systems, Inc. Stereoscopic visualization camera and integrated robotics platform

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN116509545A (zh) * 2023-04-06 2023-08-01 上海微创医疗机器人(集团)股份有限公司 机器人部件位姿显示方法和虚拟导航器

Also Published As

Publication number Publication date
CN114929146A (zh) 2022-08-19
WO2021126788A1 (en) 2021-06-24
US20230112592A1 (en) 2023-04-13
WO2021126786A1 (en) 2021-06-24
US20220409301A1 (en) 2022-12-29
EP4076251A1 (en) 2022-10-26
EP4076250A1 (en) 2022-10-26

Similar Documents

Publication Publication Date Title
US20230126545A1 (en) Systems and methods for facilitating automated operation of a device in a surgical space
CN114845654A (zh) 用于识别并促进与手术空间中的目标物体意图互动的系统和方法
CN112804958B (zh) 指示器系统
US20220151716A1 (en) Association processes and related systems for manipulators
JP7492506B2 (ja) ナビゲーション支援
EP3977406B1 (en) Composite medical imaging systems and methods
CN113366414B (zh) 用于在计算机辅助操作系统的操作会话期间促进成像装置视点的优化的系统和方法
JP7731287B2 (ja) 外科空間への外科器具の挿入を容易にするシステム及び方法
WO2017098506A1 (en) Autonomic goals-based training and assessment system for laparoscopic surgery
US20250134610A1 (en) Systems and methods for remote mentoring in a robot assisted medical system
CN120769731A (zh) 用于相对于机器人器械校准图像传感器的系统和方法
US20240074810A1 (en) Systems and methods for surgery planning
US20230190135A1 (en) Method and system for using tool width data to estimate measurements in a surgical site
US20220104687A1 (en) Use of computer vision to determine anatomical structure paths

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination