DE10335369B4 - A method of providing non-contact device function control and apparatus for performing the method - Google Patents
A method of providing non-contact device function control and apparatus for performing the method Download PDFInfo
- Publication number
- DE10335369B4 DE10335369B4 DE10335369A DE10335369A DE10335369B4 DE 10335369 B4 DE10335369 B4 DE 10335369B4 DE 10335369 A DE10335369 A DE 10335369A DE 10335369 A DE10335369 A DE 10335369A DE 10335369 B4 DE10335369 B4 DE 10335369B4
- Authority
- DE
- Germany
- Prior art keywords
- virtual
- pointer
- dimensional
- unit
- space
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Expired - Fee Related
Links
Classifications
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/048—Interaction techniques based on graphical user interfaces [GUI]
- G06F3/0481—Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
- G06F3/04815—Interaction with a metaphor-based environment or interaction object displayed as three-dimensional, e.g. changing the user viewpoint with respect to the environment or object
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B90/00—Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
- A61B90/36—Image-producing devices or illumination devices not otherwise provided for
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B17/00—Surgical instruments, devices or methods
- A61B2017/00017—Electrical control of surgical instruments
- A61B2017/00199—Electrical control of surgical instruments with a console, e.g. a control panel with a display
Landscapes
- Engineering & Computer Science (AREA)
- Health & Medical Sciences (AREA)
- Surgery (AREA)
- General Engineering & Computer Science (AREA)
- Life Sciences & Earth Sciences (AREA)
- Theoretical Computer Science (AREA)
- Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
- Heart & Thoracic Surgery (AREA)
- Oral & Maxillofacial Surgery (AREA)
- Pathology (AREA)
- Human Computer Interaction (AREA)
- General Physics & Mathematics (AREA)
- Biomedical Technology (AREA)
- Physics & Mathematics (AREA)
- Medical Informatics (AREA)
- Molecular Biology (AREA)
- Animal Behavior & Ethology (AREA)
- General Health & Medical Sciences (AREA)
- Public Health (AREA)
- Veterinary Medicine (AREA)
- Processing Or Creating Images (AREA)
Abstract
Verfahren
zum Bereitstellen einer berührungslosen
Gerätefunktionssteuerung
für ein
medizinisches Gerät,
welches medizinische Bildinformation in einem Mixed-Reality-Display
(1) darstellt, mit den Schritten:
– Bereitstellen mindestens
eines virtuellen Betätigungselementes
(15a–15f)
mit Gerätesteuerfunktion
in einer virtuellen Position eines dreidimensionalen virtuellen
Raumes;
– Darstellen
des virtuellen Betätigungselementes
(15a–15f) und
eines Zeigerobjektes (17) zusammen mit der medizinischen Bildinformation
im Mixed-Reality-Display (1);
– Lokalisieren eines Zeigerelementes
(19) im dreidimensionalen realen Raum;
– Umsetzen der räumlichen
Position des Zeigerelementes (19) im dreidimensionalen realen Raum
in eine virtuelle Position des Zeigerobjektes (17) im dreidimensionalen
virtuellen Raum; und
– Ausführen der
Gerätesteuerfunktion,
wenn eine vorgegebene räumliche
Beziehung zwischen der virtuellen Position des Zeigerobjektes (17)
und der virtuellen Position des virtuellen Betätigungselementes (15a–15f) im
dreidimensionalen virtuellen Raum gegeben ist.A method for providing a non-contact device function controller for a medical device, which displays medical image information in a mixed reality display (1), comprising the steps of:
- Providing at least one virtual actuator (15a-15f) with device control function in a virtual position of a three-dimensional virtual space;
- Representing the virtual actuator (15a-15f) and a pointer object (17) together with the medical image information in the mixed-reality display (1);
- Locating a pointer element (19) in three-dimensional real space;
- converting the spatial position of the pointer element (19) in the three-dimensional real space into a virtual position of the pointer object (17) in the three-dimensional virtual space; and
- Performing the device control function when a given spatial relationship between the virtual position of the pointer object (17) and the virtual position of the virtual actuator (15a-15f) is given in the three-dimensional virtual space.
Description
Die vorliegende Erfindung betrifft ein Verfahren zum Bereitstellen einer berührungslosen Gerätefunktionssteuerung für medizinische Geräte, sowie eine Gerätefunktionssteuervorrichtung zum Durchführen des Verfahrens.The The present invention relates to a method for providing a contactless Device function control for medical Equipment, and a device function control device to perform of the procedure.
Heutzutage finden bei einer Operation eine Vielzahl medizinischer Geräte Anwendung, die während der Operation mittels Steuerfunktionen eingestellt werden müssen. Einige dieser medizinischen Geräte, bspw. Operationsmikroskope, werden dabei vom Operateur bei seiner Tätigkeit im sterilen OP-Umfeld benutzt. Damit der Operateur Einstellungen eines medizinischen Gerätes selbst vornehmen kann, muss das Bedienfeld des Gerätes steril sein. Das Sterilisieren des Bedienfeldes kann jedoch Schwierigkeiten bereiten. Beispielsweise weist eine Tastatur schwierig zu sterilisierende Kanten und Spalten auf.nowadays find a variety of medical devices in surgery, the while the operation must be adjusted by means of control functions. Some of these medical devices, For example, surgical microscopes are doing by the surgeon at his activity in the sterile surgical environment used. So that the surgeon settings a medical device itself the control panel of the device must be sterile. Sterilization However, the control panel can be difficult. For example a keyboard has difficult to sterilize edges and columns on.
Um ein steriles Bedienen zu ermöglichen, kann eine Tastatur einen sterilisierbaren Überzug besitzen, was jedoch die Bedienbarkeit der Tasten beeinträchtigen kann. Alternativ kann das Bedienfeld auch außerhalb des sterilen OP-Umfeldes angeordnet sein. In diesem Fall kann der Operateur die Einstellung jedoch nicht mehr selbst vornehmen, sondern muss einem Assistenten außerhalb des sterilen OP-Umfeldes Anweisungen zum Vornehmen der gewünschten Einstellung geben, was ggf. einen umständlichen Abstimmungsprozess zwischen dem Operateur und einem Assistenten erforderlich macht.Around a sterile operation can enable a keyboard have a sterilizable coating, but what may affect the operability of the keys. Alternatively, you can the control panel also outside be arranged in the sterile surgical environment. In this case, the Surgeon but no longer make the setting itself, but needs an assistant outside of the sterile surgical environment Instructions for making the desired Give attitude, which may be a cumbersome voting process between the surgeon and an assistant required.
In
der
Ein
Virtual-Retinal-Display mit Eye-Tracking-System ist in
Mit einem Eye-Tracking-System lassen sich jedoch bspw. Funktionen wie das Einstellen eines Schiebereglers nur unzureichend realisieren. Außerdem erfordert das Steuern eines medizinischen Gerätes mittels eines Eye-Tracking-Systems einen unter Umständen langen Gewöhnungsprozess, bevor ein schnelles und sicheres Bedienen des Geräts, wie es bspw. während einer Operation erforderlich ist, möglich ist.With However, an eye-tracking system can, for example, functions such as the setting of a slider only inadequate realize. Furthermore requires controlling a medical device by means of an eye-tracking system one under certain circumstances long habituation process, before a fast and safe operation of the device, like it eg during an operation is required is possible.
Die
Die WO 02/100285 A1 beschreibt ein Führungssystem für Operationen, in welchem reale dreidimensionale Bilder sowie Bedienelemente in einem semitransparenten „head-mounted stereo display" dargestellt werden. Jedoch werden die Bilder und die Bedienelemente in der WO 02/100285 A1 nicht gleichzeitig dargestellt. Stattdessen schaltet das System von der Darstellung der realen Bilder in die Darstellung der Bedienelemente um, wenn eine vorbestimmte Bedingung erfüllt ist The WO 02/100285 A1 describes a guidance system for operations, in which real three-dimensional images as well as controls in a semitransparent "head-mounted stereo display " become. However, the pictures and the controls in the WO 02/100285 A1 not shown simultaneously. Instead, switch the system from the representation of the real pictures into the presentation the operating elements, if a predetermined condition is met
Es ist daher Aufgabe der vorliegenden Erfindung, ein verbessertes Verfahren zum Bereitstellen einer berührungslosen Gerätefunktionssteuerung für medizinische Geräte sowie eine verbesserte Gerätefunktionssteuervorrichtung und ein optisches Beobachtungsgerät zur Verfügung zu stellen.It is therefore an object of the present invention, an improved method to provide a non-contact Device function control for medical equipment and an improved device function control device and to provide an optical observation device.
Diese Aufgabe wird durch ein Verfahren zum Bereitstellen einer berührungslosen Gerätefunktionssteuerung nach Anspruch 1 und eine Gerätefunktionssteuervorrichtung nach Anspruch 8 sowie durch ein optisches Beobachtungsgerät nach Anspruch 13 gelöst. Die abhängigen Ansprüche enthalten vorteilhafte Ausgestaltungen der Erfindung.These Task is achieved by a method for providing a non-contact Device function control according to claim 1 and a device function control device according to claim 8 and by an optical observation device according to claim 13 solved. The dependent ones claims contain advantageous embodiments of the invention.
Ein erfindungsgemäßes Verfahren zum Bereitstellen einer berührungslosen Gerätefunktionssteuerung für ein medizinisches Gerät, welches medizinische Bildinformation in einem Mixed-Reality-Display darstellt, umfasst die Schritte:
- – Bereitstellen mindestens eines virtuellen Betätigungselementes mit Gerätesteuerfunktion in einer virtuellen Position eines dreidimensionalen virtuellen Raumes. Unter einem virtuellen Raum ist dabei eine dreidimensionale computergenerierte Umgebung und unter einem virtuellen Betätigungselement ein computergeneriertes Betätigungselement in der virtuellen Umgebung zu verstehen.
- – Darstellen des virtuellen Betätigungselementes und eines Zeigerobjektes zusammen mit der medizinischen Bildinformation im Mixed-Reality-Display, d.h. einem Display in dem einem Betrachter sowohl Bildinformationen aus dem (dreidimensionalen) realen Raum, wie bspw. die medizinische Bildinformation, als auch aus dem (dreidimensionalen) virtuellen Raum dargeboten werden. Medizinische Bildinformationen können dabei alle auf einer bildgebenden oder -erzeugenden Vorrichtung bzw. einem bildgebenden oder -erzeugenden Verfahren beruhenden medizinischen Bilder, Abbildungen, Darstellungen etc. sein, die auf Daten aus dem realen Raum beruhen. Dabei ist es unerheblich, ob die Bilder, Abbildungen, Darstellungen etc. selbst von einem Computer generiert sind, wie bspw. in der Computertomographie, oder ein direktes Abbild aus dem realen Raum darstellen. Vom Computer generierte Bilder, Abbildungen, Darstellungen etc., die auf insbesondere online erfassten Daten aus dem realen Raum beruhen, sollen im Rahmen der Erfindung nicht als virtuelle Objekte anzusehen sein.
- – Lokalisieren eines Zeigerelementes im dreidimensionalen realen Raum.
- – Umsetzen der dreidimensionalen räumlichen Position des Zeigerelementes im realen Raum in eine dreidimensionale virtuelle Position des Zeigerobjektes im virtuellen Raum.
- – Ausführen der Gerätesteuerfunktion, wenn eine vorgegebene räumliche Beziehung zwischen der virtuellen Position des Zeigerobjektes und der virtuellen Position des virtuellen Betätigungselementes im dreidimensionalen virtuellen Raum gegeben ist.
- - Providing at least one virtual actuator with device control function in a virtual position of a three-dimensional virtual space. Under a virtual space is a three-dimensional computer-generated environment and ver under a virtual actuator ver a computer-generated actuator in the virtual environment stand.
- Representing the virtual actuator and a pointer object together with the medical image information in the mixed-reality display, ie a display in which a viewer both image information from the (three-dimensional) real space, such as the medical image information, as well as from the (three-dimensional ) virtual space. Medical image information may be all medical images, images, representations, etc., based on data from real space, based on an imaging or generating device or an imaging or generating process. It is irrelevant whether the images, images, representations, etc., are themselves generated by a computer, such as in computed tomography, or represent a direct image from real space. Computer-generated images, images, representations, etc., which are based in particular on online recorded data from real space, should not be regarded as virtual objects within the scope of the invention.
- - Locating a pointer element in three-dimensional real space.
- - Implementing the three-dimensional spatial position of the pointer element in real space in a three-dimensional virtual position of the pointer object in the virtual space.
- Performing the device control function when given a given spatial relationship between the virtual position of the pointer object and the virtual position of the virtual actuator in the three-dimensional virtual space.
Als Mixed-Reality-Display kann hierbei insbesondere eine vor den Augen zu tragende brillenartige Vorrichtung (Head Mounted Display, HMD, oder Head Up Display, HUD), etwa in Form einer Netzhautprojektionsvorrichtung (Virtual Retinal Display) oder einer Stereobeobachtungsbrille, oder eine an einem Ausleger (BOOM) befestigte Stereobetrachtungsvorrichtung anzusehen sein. Als Zeigerelement kommt außer einem Stift oder einem chirurgischen Instrument auch ein Körperteil, etwa ein Finger, ein Fuß, ein Arm etc., in Frage. Das Lokalisieren des Zeigerelementes im dreidimensionalen realen Raum kann insbesondere auf optischem Wege erfolgen. Zum Umsetzen der räumlichen Position des Zeigerelementes im realen Raum in die dreidimensionale virtuelle Position des Zeigerobjektes im virtuellen Raum kann eine Koordinatentransformation zum Einsatz kommen.When Mixed-reality display can be especially in front of the eyes spectacle-type device (head mounted display, HMD, or Head Up Display, HUD), such as in the form of a retinal projection device (Virtual Retinal Display) or stereo glasses, or a stereo viewer attached to a boom (BOOM) to be seen. As a pointer element comes except a pen or a surgical instrument also includes a body part, such as a finger, a foot, an arm, etc., in question. Locating the pointer element in the Three-dimensional real space can be done in particular by optical means respectively. To implement the spatial Position of the pointer element in the real space in the three-dimensional virtual position of pointer object in virtual space can be a Coordinate transformation are used.
Da sich im erfindungsgemäßen Verfahren das Positionieren eines realen Gegenstandes, bspw. des Zeigefingers des Operateurs, im realen Raum im Positionieren des Zeigerobjektes im virtuellen Raum widerspiegelt und die Gerätesteuerfunktion durch eine vorgegebene räumliche Beziehung zwischen dem Betätigungselement und dem Zeigerobjekt ausgelöst bzw. ausgeführt wird, lässt sich die natürliche Bewegung beim Betätigen eines realen Betätigungselementes auf das Betätigen eines virtuellen Betätigungselementes leicht übertragen. Das erfindungsgemäße Verfahren ermöglicht so das intuitive Betätigen eines virtuellen Betätigungselementes. Außerdem lassen sich Einstellfunktionen wie das Einstellen eines virtuellen Schiebe- oder Drehreglers mit dem erfindungsgemäßen Verfahren ebenso einfach realisieren wie das Betätigen von Tasten. Da das Betätigen des Betätigungselementes vollständig virtuell, also berührungslos, erfolgt, eignet sich das erfindungsgemäße Verfahren insbesondere zur Anwendung bei Geräten, die im sterilen oder im kontaminierten Umfeld betrieben werden sollen.There in the process according to the invention Positioning a real object, for example the index finger of the surgeon, in real space in positioning the pointer object reflected in the virtual space and the device control function by a given spatial Relationship between the actuator and the pointer object or executed will, lets the natural movement when pressed a real actuator on pressing a virtual actuator easily transmitted. The inventive method allows so the intuitive pressing a virtual actuator. Furthermore can be adjustment functions such as setting a virtual Sliding or rotary controls with the method according to the invention Just as easy to realize as pressing keys. Since pressing the actuating element Completely virtual, so non-contact, takes place, the inventive method is particularly suitable for Application for devices, which are to be operated in a sterile or contaminated environment.
Der dreidimensionalen virtuelle Raum und der dreidimensionalen reale Raum können im erfindungsgemäßen Verfahren eine beliebige Orientierung relativ zueinander aufweisen, d.h. die Darstellung, die ein Betrachter im Display wahrnimmt, braucht keinen Bezug zur Blickrichtung des Betrachters im dreidimensionalen realen Raum zu haben. insbesondere kann die Orientierung des dreidimensionalen virtuellen Raumes fest mit der Blickrichtung des Betrachters verbunden sein, so dass ein Drehen des Kopfes des Betrachters, und damit eine Änderung seiner Blickrichtung, die Orientierung des dreidimensionalen virtuellen Raumes relativ zum dreidimensionalen realen Raum ändert. Mit anderen Worten, der Betrachter sieht unabhängig von der Stellung seines Kopfes immer dieselbe Darstellung im Display (ggf. mit veränderlichen Inhalten). Das mindestens eine virtuelle Betätigungselement kann dabei neben, über oder unter der medizinischen Bildinformation eingeblendet werden, so dass es das Wahrnehmen der medizinischen Bildinformation nicht stört. Alternativ ist es auch möglich, das mindestens eine virtuelle Betätigungselement im dreidimensionalen virtuellen Raum der medizinischen Bildinformation zu überlagern, so dass das Bild immer, d.h. auch während des Bedienens des mindestens einen virtuellen Betätigungselementes, im Zentrum des Blickfeldes des Betrachters liegt.Of the three-dimensional virtual space and the three-dimensional real Space can in the process according to the invention have any orientation relative to each other, i. the Representation that a viewer perceives in the display, does not need Reference to the viewing direction of the viewer in the three-dimensional real To have room. In particular, the orientation of the three-dimensional virtual space firmly connected to the viewing direction of the viewer be, allowing a turning of the viewer's head, and thus a change his line of sight, the orientation of the three-dimensional virtual Space relative to the three-dimensional real space changes. With In other words, the viewer sees regardless of the position of his Head always the same representation in the display (possibly with variable Content). The at least one virtual actuator may be next to, above or be displayed under the medical image information, so that it does not disturb the perception of the medical image information. alternative it is also possible the at least one virtual actuator in three-dimensional superimpose virtual space of medical image information, so that the image always, i. even while operating the at least a virtual actuator, lies in the center of the observer's field of vision.
Alternativ kann die Orientierung des dreidimensionalen virtuellen Raumes fest mit dem dreidimensionalen realen Raum verbunden sein, so dass der im Display dargestellte Ausschnitt des dreidimensionalen virtuellen Raumes von der Blickrichtung des Betrachters abhängt. Der Betrachter sieht dann bspw. bei Verwendung einer Stereobeobachtungsbrille oder eines Virtual-Retinal-Displays einen anderen Ausschnitt des dreidimensionalen virtuellen Raumes, sobald er den Kopf dreht. Dabei ist es ist es möglich, die medizinische Bildinformation fest mit der Blickrichtung des Betrachters zu verknüpfen, so dass sie auch bei einem Drehen des Kopfes immer im Blickfeld des Betrachters bleibt, die virtuellen Betätigungselemente jedoch nur ins Blickfeld gelangen, wenn der Betrachter seinen Kopf dreht. So kann die medizinische Bildinformation, bspw. bei einer Operation die (dreidimensionale) Darstellung des Operationssitus, immer in Blickrichtung verbleiben, während die virtuellen Betätigungselemente nur durch ein Drehen des Kopfes ins Blickfeld gelangen. Auf diese Weise stören die virtuellen Betätigungselemente die Aufmerksamkeit des Betrachters nicht, wenn sie nicht gebraucht werden.Alternatively, the orientation of the three-dimensional virtual space can be firmly connected to the three-dimensional real space, so that the portion of the three-dimensional virtual space shown in the display depends on the viewing direction of the viewer. The viewer then sees, for example, when using a stereo observation goggles or a virtual retinal display another section of the three-dimensional virtual space, as soon as he turns his head. It is possible to link the medical image information firmly with the viewing direction of the observer, so that It always remains in the field of view of the viewer when turning the head, but the virtual actuators only come into view when the viewer turns his head. Thus, the medical image information, for example, in an operation, the (three-dimensional) representation of the surgical site, always remain in the line of sight, while the virtual actuators come into view only by turning the head. In this way, the virtual actuators do not disturb the viewer's attention when not in use.
In einer weiteren Ausgestaltung des erfindungsgemäßen Verfahrens ist sowohl das virtuelle Betätigungselement als auch die räumliche Beziehung zwischen der virtuellen Position des Zeigerobjektes und der virtuellen Position des virtuellen Betätigungselementes, welche die Gerätesteuer funktion auslöst, einem realen Betätigungselement, bspw. einer Taste, einem Schiebe- oder einem Drehschalter, bzw. der beim Betätigen eines entsprechenden realen Betätigungselementes auftretenden räumlichen Beziehung nachempfunden. Es können so eine Vielzahl gängiger Einstellhandlungen, wie etwa das Betätigen einer Taste, das Drehen eines Drehschalters etc., deren Bedienung normalerweise keiner Eingewöhnungsphase bedarf, im dreidimensionalen virtuellen Raum realisiert werden. Das Gerät kann daher ohne lange Eingewöhnungsphase rasch und sicher bedient werden.In a further embodiment of the method according to the invention is both the virtual actuator as well as the spatial Relationship between the virtual position of the pointer object and the virtual position of the virtual actuator, which the Device control function triggers a real actuator, For example, a key, a sliding or a rotary switch, or when pressing a corresponding real actuator occurring spatial relationship modeled. It can so a variety of common Setting actions, such as pressing a key, turning a rotary switch, etc., whose operation is usually no acclimatization phase need to be realized in three-dimensional virtual space. The device can therefore without a long acclimatization phase be served quickly and safely.
Eine zum Durchführen des erfindungsgemäßen Verfahrens geeignete erfindungsgemäße Gerätefunktionssteuervorrichtung für medizinische Geräte, in welchen medizinische Bildinformation in einem Mixed-Reality-Display dargestellt wird, umfasst:
- – eine Funktionssteuereinheit, die mindestens eine Gerätesteuerfunktion sowie mindestens ein der Gerätesteuerfunktion zugeordnetes virtuelles Bedienelement in einer bestimmten Position in einem dreidimensionalen virtuellen Raum bereitstellt und die zum Darstellen des mindestens einen virtuellen Bedienelementes und eines Zeigerobjektes zusammen mit medizinischer Bildinformation in einem Mixed-Reality-Display mit einer Darstellungseinheit verbunden oder verbindbar ist;
- – eine Lokalisationseinheit zum Ermitteln der Position eines Zeigerelementes im dreidimensionalen realen Raum;
- – eine mit der Lokalisationseinheit verbundene und der Darstellungseinheit verbundene oder verbindbare Umsetzungseinheit zum Umsetzen der Position des Zeigerelementes im dreidimensionalen realen Raum in eine Position des Zeigerobjektes im dreidimensionalen virtuellen Raum; und
- – eine mit der Funktionssteuereinheit und der Umsetzungseinheit verbundene Auslöseeinheit zum Auslösen der Gerätesteuerfunktion, wenn eine vorgegebene räumliche Beziehung zwischen der virtuellen Position des Zeigerobjektes und der virtuellen Position des virtuellen Betätigungselementes gegeben ist.
- A function control unit which provides at least one device control function and at least one virtual control element associated with the device control function in a specific position in a three-dimensional virtual space and which displays the at least one virtual control element and a pointer object together with medical image information in a mixed-reality display a presentation unit is connected or connectable;
- A localization unit for determining the position of a pointer element in three-dimensional real space;
- A conversion unit connected to the localization unit and connected or connectable to the presentation unit for converting the position of the pointer element in three-dimensional real space into a position of the pointer object in three-dimensional virtual space; and
- A trigger unit connected to the function control unit and the conversion unit for triggering the device control function when a given spatial relationship exists between the virtual position of the pointer object and the virtual position of the virtual operation element.
Die Verbindung der einzelnen Einheiten, die außer der Lokalisationseinheit und dem Mixed-Reality-Display als Hard- oder als Software realisiert sein können, kann sowohl über Kabel als auch drahtlos ausgeführt sein.The Connection of the individual units, except the localization unit and the Mixed Reality Display as hardware or software could be, can both over Cable as well as wireless be.
In einer Ausgestaltung der erfindungsgemäßen Gerätefunktionssteuervorrichtung umfasst die Lokalisationseinheit eine 3D-Beobachtungskamera und eine Auswerteeinheit zum Ermitteln der Position des Zeigerelementes aus den Bilddaten der 3D-Beobachtungskamera.In an embodiment of the device function control device according to the invention the localization unit comprises a 3D observation camera and an evaluation unit for determining the position of the pointer element from the image data of the 3D observation camera.
In einer alternativen Ausgestaltung umfasst die Lokalisationseinheit einen am Zeigerelement zu befestigenden oder das Zeigerelement bildenden Sender oder Reflektor zum Senden oder Reflektieren eines Lokalisationssignals. Außerdem umfasst sie mindestens drei Empfänger zum Empfang des gesendeten bzw. reflektierten Lokalisationssignals und eine Auswerteeinheit zum Ermitteln der Position des Zeigerelementes aus den empfangenen Signalen.In an alternative embodiment comprises the localization unit a transmitter to be attached to the pointer element or forming the pointer element or reflector for transmitting or reflecting a localization signal. Furthermore it includes at least three recipients for receiving the transmitted or reflected localization signal and an evaluation unit for determining the position of the pointer element from the received signals.
Die Lokalisationseinheit kann insbesondere am Mixed-Reality-Display befestigt sein, so dass die Position des Zeigerelementes im realen Raum mit Bezug auf das Mixed-Reality-Display und damit den Betrachter bestimmt wird. Dies kann die Umsetzung in die Position im dreidimensionalen virtuellen Raum erleichtern, wenn die Positionen im virtuellen Raum ebenfalls auf den Betrachter bezogen sind.The Localization unit may in particular on the mixed reality display be attached, so that the position of the pointer element in the real Space with respect to the mixed reality display and thus the viewer is determined. This can be the implementation in the position in three-dimensional facilitate virtual space when the positions in virtual space also are related to the viewer.
Es ist jedoch auch möglich, die Position des Zeigerelementes mit Bezug auf einen anderen, vorzugsweise fixen Punkt im dreidimensionalen realen Raum zu ermitteln. In diesem Fall ist die Lokalisationseinheit auch zum Ermitteln der Position und der Orientierung des Mixed-Reality-Displays ausgebildet, so dass die Position des Zeigerelementes im Bezug auf das Mixed-Reality-Display berechnet werden kann. Wenn in dem Raum, in dem die Lokalisation stattfinden soll, bereits eine geeignete Lokalisationseinheit vorhanden ist, ermöglicht diese Ausgestaltung das Verwenden der vorhandenen Lokalisationseinheit als Lokalisationseinheit der erfindungsgemäßen Gerätefunktionssteuervorrichtung. Der Bezug der ermittelten Position zum Mixed- Reality-Display kann bspw. mittels einer Software zum Durchführen einer Koordinatentransformation hergestellt werden.It but it is also possible the position of the pointer element with respect to another, preferably determine fixed point in three-dimensional real space. In this Case is the localization unit also for determining the position and the orientation of the mixed reality display, so that calculates the position of the pointer element with respect to the mixed reality display can be. If in the room where the localization take place should a suitable localization unit already exist, allows this embodiment using the existing localization unit as a localization unit of the device function control device according to the invention. The reference of the determined position to the mixed reality display can, for example, by means of a Software for performing a Coordinate transformation are produced.
Das virtuelle Betätigungselement sowie die Beziehung zwischen der virtuellen Position des Zeigerobjektes und der virtuellen Position des virtuellen Betätigungselementes, welche die Gerätesteuerfunktion auslöst, können in einer besonderen Ausgestaltung der erfindungsgemäßen Gerätefunktionssteuervorrichtung einem realen Betätigungselement, bspw. einer Taste, einem Schiebeschalter, einem Drehschalter, etc. bzw. der beim Betätigen eines entsprechenden realen Betätigungselementes auftretenden räumlichen Beziehung nachempfunden sein, was ein besonderes intuitives Bedienen ermöglicht.The virtual actuator, as well as the relationship between the virtual position of the pointer object and the virtual position of the virtual actuator that triggers the device control function, may be described in particular Design of the device function control device according to the invention a real actuator, for example. A button, a slide switch, a rotary switch, etc. or the occurring upon actuation of a corresponding real actuator spatial relationship be modeled, which allows a special intuitive operation.
Ein erfindungsgemäßes optisches Beobachtungsgerät, das insbesondere als Operationsmikroskop ausgestaltet sein kann, umfasst eine erfindungsgemäße Gerätefunktionssteuervorrichtung.One optical according to the invention Monitoring device, which can be configured in particular as a surgical microscope, comprises a device function control device according to the invention.
Weitere Merkmale, Eigenschaften und Vorteile der vorliegenden Erfindung ergeben sich aus der nachfolgenden Beschreibung eines Ausführungsbeispieles, wobei auf die beiliegenden Zeichnungen Bezug genommen wird.Further Features, characteristics and advantages of the present invention result from the following description of an embodiment, with reference to the accompanying drawings.
Als
ein Ausführungsbeispiel
für die
erfindungsgemäße Gerätefunktionssteuervorrichtung
ist in
Die
Gerätefunktionssteuervorrichtung
Außerdem umfasst
die Gerätefunktionssteuervorrichtung
Die
Lokalisationseinheit
Außer an die
Darstellungseinheit
Eine
mögliche
räumliche
Beziehung zwischen den Tasten
Die virtuellen Tasten
The virtual buttons
Um
einem unbeabsichtigten Betätigen
einer virtuellen Taste
Die
Darstellung der Tasten
Im vorliegenden Ausführungsbeispiel wurde als Lokalisationseinheit eine 3D-Kamera zusammen mit einer Bilderkennungseinheit verwendet. Alternativ kann jedoch auch eine Lokalisationseinheit zur Anwendung kommen, die auf einem vom Zeigerelement ausgehenden oder von diesem reflektierten Lokalisationssignal beruht. Am Zeigerelement ist in diesem Fall ein Sender oder Reflektor zum Senden bzw. Reflektieren des Lokalisationssignals angebracht. Zum Empfang des gesendeten oder reflektierten Lokalisationssignals stehen drei oder mehr Empfänger zur Verfügung. Eine Auswerteeinheit ermittelt dann die Position des Zeigerelementes bspw. aus den Laufzeiten oder den Laufzeitdifferenzen der Signale zu den jeweiligen Empfängern.in the present embodiment was a localization unit a 3D camera together with an image recognition unit used. Alternatively, however, also a localization unit are used, which are based on a pointer element or is based on this reflected localization signal. At the pointer element is in this case a transmitter or reflector for transmitting or reflecting of the localization signal. To receive the sent or reflected localization signal, there are three or more receivers Available. An evaluation unit then determines the position of the pointer element For example, from the maturity or the maturity differences of the signals to the respective recipients.
Die
Auslöseeinheit
Mit dem erfindungsgemäße Verfahren lassen sich nicht nur mit der Hand zu betätigende virtuelle Betätigungselemente realisieren, sondern auch virtuelle Fußschalter. Im letzten Fall dient bspw. die Fußspitze als Zeigerelement. With the inventive method not just hand-operated virtual actuators realize, but also virtual footswitch. In the last case serves, for example, the toe as a pointer element.
Claims (14)
Priority Applications (1)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| DE10335369A DE10335369B4 (en) | 2003-07-30 | 2003-07-30 | A method of providing non-contact device function control and apparatus for performing the method |
Applications Claiming Priority (1)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| DE10335369A DE10335369B4 (en) | 2003-07-30 | 2003-07-30 | A method of providing non-contact device function control and apparatus for performing the method |
Publications (2)
| Publication Number | Publication Date |
|---|---|
| DE10335369A1 DE10335369A1 (en) | 2005-03-03 |
| DE10335369B4 true DE10335369B4 (en) | 2007-05-10 |
Family
ID=34111857
Family Applications (1)
| Application Number | Title | Priority Date | Filing Date |
|---|---|---|---|
| DE10335369A Expired - Fee Related DE10335369B4 (en) | 2003-07-30 | 2003-07-30 | A method of providing non-contact device function control and apparatus for performing the method |
Country Status (1)
| Country | Link |
|---|---|
| DE (1) | DE10335369B4 (en) |
Families Citing this family (8)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| DE102006015349A1 (en) * | 2006-04-03 | 2007-10-11 | Siemens Ag | Medical navigation and positioning system containing an operating system and method of operation |
| WO2008076079A1 (en) * | 2006-12-19 | 2008-06-26 | Bracco Imaging S.P.A. | Methods and apparatuses for cursor control in image guided surgery |
| DE102009010263B4 (en) * | 2009-02-24 | 2011-01-20 | Reiner Kunz | Method for navigating an endoscopic instrument during technical endoscopy and associated device |
| CN108700743A (en) | 2016-01-22 | 2018-10-23 | 康宁股份有限公司 | Wide visual field individual's display |
| EP3285107B2 (en) | 2016-08-16 | 2024-02-28 | Leica Instruments (Singapore) Pte. Ltd. | Surgical microscope with gesture control and method for a gesture control of a surgical microscope |
| DE102017108551B4 (en) | 2017-04-21 | 2025-09-04 | Carl Zeiss Meditec Ag | Head-mounted display device, method for operating the same and medical optical observation system |
| US10976551B2 (en) | 2017-08-30 | 2021-04-13 | Corning Incorporated | Wide field personal display device |
| DE102017123894B3 (en) | 2017-10-13 | 2019-02-07 | Carl Zeiss Meditec Ag | Disc for HMD and HMD with at least one disc |
Citations (12)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| DE19836805A1 (en) * | 1998-08-14 | 2000-02-17 | Daum Gmbh | System in form of data glove for scanning human hand movement and entering this in computer and glove is made of stitched flexible material so that it matches human hand back |
| DE19845030A1 (en) * | 1998-09-30 | 2000-04-20 | Siemens Ag | Imaging system for reproduction of medical image information |
| DE20001134U1 (en) * | 2000-01-24 | 2000-05-18 | Peter Fritz | Operations system |
| DE19845028A1 (en) * | 1998-09-30 | 2000-06-08 | Siemens Ag | Magnetic resonance system |
| US6113395A (en) * | 1998-08-18 | 2000-09-05 | Hon; David C. | Selectable instruments with homing devices for haptic virtual reality medical simulation |
| US6175610B1 (en) * | 1998-02-11 | 2001-01-16 | Siemens Aktiengesellschaft | Medical technical system controlled by vision-detected operator activity |
| WO2001095061A2 (en) * | 1999-12-07 | 2001-12-13 | Frauenhofer Institut Fuer Graphische Datenverarbeitung | The extended virtual table: an optical extension for table-like projection systems |
| US6369953B2 (en) * | 1998-01-20 | 2002-04-09 | University Of Washington | Virtual retinal display with eye tracking |
| US6394602B1 (en) * | 1998-06-16 | 2002-05-28 | Leica Microsystems Ag | Eye tracking system |
| WO2002071337A1 (en) * | 2001-03-01 | 2002-09-12 | Volume Interactions Pte Ltd | A display apparatus |
| WO2002100285A1 (en) * | 2001-06-13 | 2002-12-19 | Volume Interactions Pte Ltd | A guide system and a probe therefor |
| WO2003034705A2 (en) * | 2001-10-19 | 2003-04-24 | University Of North Carolina At Chapel Hill | Methods and systems for dynamic virtual convergence and head mountable display |
-
2003
- 2003-07-30 DE DE10335369A patent/DE10335369B4/en not_active Expired - Fee Related
Patent Citations (12)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| US6369953B2 (en) * | 1998-01-20 | 2002-04-09 | University Of Washington | Virtual retinal display with eye tracking |
| US6175610B1 (en) * | 1998-02-11 | 2001-01-16 | Siemens Aktiengesellschaft | Medical technical system controlled by vision-detected operator activity |
| US6394602B1 (en) * | 1998-06-16 | 2002-05-28 | Leica Microsystems Ag | Eye tracking system |
| DE19836805A1 (en) * | 1998-08-14 | 2000-02-17 | Daum Gmbh | System in form of data glove for scanning human hand movement and entering this in computer and glove is made of stitched flexible material so that it matches human hand back |
| US6113395A (en) * | 1998-08-18 | 2000-09-05 | Hon; David C. | Selectable instruments with homing devices for haptic virtual reality medical simulation |
| DE19845030A1 (en) * | 1998-09-30 | 2000-04-20 | Siemens Ag | Imaging system for reproduction of medical image information |
| DE19845028A1 (en) * | 1998-09-30 | 2000-06-08 | Siemens Ag | Magnetic resonance system |
| WO2001095061A2 (en) * | 1999-12-07 | 2001-12-13 | Frauenhofer Institut Fuer Graphische Datenverarbeitung | The extended virtual table: an optical extension for table-like projection systems |
| DE20001134U1 (en) * | 2000-01-24 | 2000-05-18 | Peter Fritz | Operations system |
| WO2002071337A1 (en) * | 2001-03-01 | 2002-09-12 | Volume Interactions Pte Ltd | A display apparatus |
| WO2002100285A1 (en) * | 2001-06-13 | 2002-12-19 | Volume Interactions Pte Ltd | A guide system and a probe therefor |
| WO2003034705A2 (en) * | 2001-10-19 | 2003-04-24 | University Of North Carolina At Chapel Hill | Methods and systems for dynamic virtual convergence and head mountable display |
Non-Patent Citations (1)
| Title |
|---|
| ROSEN,J.M. u.a.: Evolution of virtual reality (Medicine): In: Engineering in Medicine and Biology Magazine, IEEE, Vol. 15, Iss. 2, March- April 1996, S. 16-22 * |
Also Published As
| Publication number | Publication date |
|---|---|
| DE10335369A1 (en) | 2005-03-03 |
Similar Documents
| Publication | Publication Date | Title |
|---|---|---|
| EP2289061B1 (en) | Ophthalmoscope simulator | |
| EP2328501B1 (en) | Medical work station and operating device for manually moving a robot arm of a medical work station | |
| EP0788613B2 (en) | Microscope, in particular for surgical operations | |
| DE60130264T2 (en) | MANAGEMENT SYSTEM | |
| DE19958443C2 (en) | operating device | |
| DE102017108551B4 (en) | Head-mounted display device, method for operating the same and medical optical observation system | |
| DE102013109677A1 (en) | Assistance device for the imaging support of an operator during a surgical procedure | |
| EP3305232B1 (en) | Control device and control method for operating a medical device | |
| DE102006059380A1 (en) | Medical robot system providing a three-dimensional telestration | |
| DE102014106960A1 (en) | Method for displaying a virtual interaction on at least one screen and input device, system and method for a virtual application by means of a computing unit | |
| EP2830526B1 (en) | Medical navigation system with wirelessly connected, touch-sensitive screen | |
| DE10335369B4 (en) | A method of providing non-contact device function control and apparatus for performing the method | |
| DE112019002798T5 (en) | INFORMATION PROCESSING DEVICE, INFORMATION PROCESSING METHOD AND PROGRAM | |
| DE112022002333T5 (en) | Method and apparatus for providing input device repositioning reminders | |
| DE102014219477A1 (en) | Surgery robotic system | |
| DE102008050542A1 (en) | Medical image recording system for obtaining graphic data, has control equipment, which is formed for receiving input signal of control unit operated by operator | |
| DE102020215559A1 (en) | Method for operating a visualization system in a surgical application and visualization system for a surgical application | |
| DE102019118752A1 (en) | Method for adaptive function reassignment of control elements of an image recording system and the associated image recording system | |
| DE102018125956A1 (en) | Method and system for controlling devices in a sterile environment | |
| DE102022111495A1 (en) | Robotic telemanipulation system with adaptable degree of autonomy, use of a robotic telemanipulation system, autonomous medical robotic system | |
| DE102013208762A1 (en) | Intuitive gesture control | |
| WO2022073784A1 (en) | Surgical assistance system and display method | |
| DE102007026120A1 (en) | Graphical pointer element controlling method for medical image information system i.e. picture archiving and communication system, in hospital, involves placing pointer element within segment of user interface fixed by view fixation | |
| DE102021120629B3 (en) | Method and device for controlling the movement of a virtually embodied, real-physical avatar, computer program for carrying out such a method | |
| DE102015011421B4 (en) | Method for visualizing an object field during a surgical procedure and surgical microscope for carrying out the method |
Legal Events
| Date | Code | Title | Description |
|---|---|---|---|
| OP8 | Request for examination as to paragraph 44 patent law | ||
| 8364 | No opposition during term of opposition | ||
| R119 | Application deemed withdrawn, or ip right lapsed, due to non-payment of renewal fee | ||
| R079 | Amendment of ipc main class |
Free format text: PREVIOUS MAIN CLASS: A61B0019000000 Ipc: A61B0034000000 |