[go: up one dir, main page]

DE202014011010U1 - Target tracking systems - Google Patents

Target tracking systems Download PDF

Info

Publication number
DE202014011010U1
DE202014011010U1 DE202014011010.7U DE202014011010U DE202014011010U1 DE 202014011010 U1 DE202014011010 U1 DE 202014011010U1 DE 202014011010 U DE202014011010 U DE 202014011010U DE 202014011010 U1 DE202014011010 U1 DE 202014011010U1
Authority
DE
Germany
Prior art keywords
target
destination
information
uav
moving object
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Lifetime
Application number
DE202014011010.7U
Other languages
German (de)
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
SZ DJI Technology Co Ltd
Original Assignee
SZ DJI Technology Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by SZ DJI Technology Co Ltd filed Critical SZ DJI Technology Co Ltd
Priority to DE202014011010.7U priority Critical patent/DE202014011010U1/en
Publication of DE202014011010U1 publication Critical patent/DE202014011010U1/en
Anticipated expiration legal-status Critical
Expired - Lifetime legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
    • G05D1/0094Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots involving pointing a payload, e.g. camera, weapon, sensor, towards a fixed or moving target
    • GPHYSICS
    • G03PHOTOGRAPHY; CINEMATOGRAPHY; ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ELECTROGRAPHY; HOLOGRAPHY
    • G03BAPPARATUS OR ARRANGEMENTS FOR TAKING PHOTOGRAPHS OR FOR PROJECTING OR VIEWING THEM; APPARATUS OR ARRANGEMENTS EMPLOYING ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ACCESSORIES THEREFOR
    • G03B15/00Special procedures for taking photographs; Apparatus therefor
    • G03B15/006Apparatus mounted on flying objects

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Aviation & Aerospace Engineering (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Remote Sensing (AREA)
  • Automation & Control Theory (AREA)
  • Control Of Position, Course, Altitude, Or Attitude Of Moving Bodies (AREA)

Abstract

System zum Steuern eines unbemannten Luftfahrzeugs (101), UAV, wobei das System Folgendes umfasst: einen oder mehrere Empfänger, die dafür konfiguriert sind, von einer entfernten Steuerung (1) einen oder mehrere Navigationsbefehle, um das UAV entlang einer Flugbahn zu bewegen, und (2) Zielinformationen (116) eines durch eine Bildgebungseinrichtung (104), die über einen Träger (102) an das UAV (101) angeschlossen ist, zu verfolgenden Ziels zu empfangen, wobei der Träger dafür konfiguriert ist, zu ermöglichen, dass sich die Bildgebungseinrichtung (104) im Verhältnis zu dem UAV (101) bewegt, und einen oder mehrere Prozessoren, die dafür konfiguriert sind, auszuwählen zwischen (1) einem automatischen Verfolgungsmodus und (2) einem manuellen Verfolgungsmodus, wobei in dem automatischen Verfolgungsmodus der eine oder die mehreren Prozessoren dafür konfiguriert sind, wenigstens eines von dem UAV (101) oder dem Träger (102) einzustellen, während sich das UAV entlang der Flugbahn entsprechend dem einen oder den mehreren Navigationsbefehlen von der entfernten Steuerung bewegt, um das Ziel entsprechend den Zielinformationen zu verfolgen, um aufrechtzuerhalten, dass das Ziel innerhalb eines durch die Bildgebungseinrichtung aufgenommenen Bildes bleibt.A system for controlling an unmanned aerial vehicle (101), UAV, the system comprising: one or more receivers configured to command one or more navigation commands from a remote controller (1) to move the UAV along a flight path, and (2) to receive destination information (116) of a target to be tracked by an imaging device (104) connected to the UAV (101) via a carrier (102), the carrier being configured to allow the carrier to be tracked Imaging means (104) relative to the UAV (101), and one or more processors configured to select between (1) an automatic tracking mode and (2) a manual tracking mode, wherein in the automatic tracking mode one or more of the following a plurality of processors are configured to adjust at least one of the UAV (101) or the carrier (102) while the UAV travels along the trajectory e In response to the one or more navigation commands, the remote controller moves to track the destination in accordance with the destination information to maintain the destination remaining within an image captured by the imaging device.

Description

ALLGEMEINER STAND DER TECHNIKGENERAL PRIOR ART

Luftfahrzeuge, wie beispielsweise unbemannte Luftfahrzeuge (unmanned aerial vehicles – UAV) können zum Durchführen von Überwachungs-, Aufklärungs- und Erkundungsaufgaben für militärische und zivile Anwendungen verwendet werden. Solche Luftfahrzeuge können eine Nutzlast tragen, die dafür konfiguriert ist, eine spezifische Funktion, wie beispielsweise das Aufnehmen von Bildern des umgebenden Umfeldes, auszuführen.Aircraft, such as unmanned aerial vehicles (UAVs), may be used to perform surveillance, reconnaissance and reconnaissance tasks for military and civil applications. Such aircraft may carry a payload configured to perform a specific function, such as taking pictures of the surrounding environment.

Unter manchen Umständen kann es wünschenswert sein, dass Luftfahrzeuge ein spezifisches Ziel verfolgen. Für Luftfahrzeuge kleiner Größe wird eine solche Verfolgung herkömmlicherweise über Steuerbefehle von einem anwenderbedienten Fernsteuerungsendgerät oder -gerät erreicht. Solche manuelle Verfolgungssteuerung kann unter bestimmten Umständen, wie beispielsweise, wenn sich das bewegliche Objekt oder Ziel schnell bewegt oder wenn das bewegliche Objekt wenigstens teilweise vor der Sicht des Anwenders verborgen ist, schwierig werden. Darüber hinaus erfordert die für eine solche manuelle Verfolgung notwendige Aufmerksamkeit einen zugeordneten Anwender, der eine Kamera an Bord des Luftfahrzeugs steuert, gesondert von einem Anwender, der die Navigation des Luftfahrzeugs steuert, wodurch die Kosten für Luftfotografie und andere Anwendungen der Luftfahrzeuge gesteigert werden.In some circumstances, it may be desirable for aircraft to have a specific destination. For small size aircraft, such tracking is conventionally accomplished via control commands from a user-operated remote control terminal or device. Such manual tracking control may become difficult in certain circumstances, such as when the moving object or target is moving fast or when the moving object is at least partially hidden from the user's view. Moreover, the attention required for such manual tracking requires an associated user controlling a camera on board the aircraft, separate from a user controlling the navigation of the aircraft, thereby increasing the cost of aerial photography and other applications of the aircraft.

KURZDARSTELLUNG DER ERFINDUNGBRIEF SUMMARY OF THE INVENTION

Unter manchen Umständen kann es wünschenswert sein, dass Luftfahrzeuge ein spezifisches Ziel verfolgen. Folglich besteht ein Bedarf an verbesserten UAV-Verfolgungsverfahren und -systemen, die eine automatische oder halbautomatische Verfolgung eines Ziels gewährleisten, wodurch Bediener der Luftfahrzeuge vom manuellen Verfolgen der Ziele entlastet werden. Die vorliegende Erfindung stellt Systeme, Verfahren und Geräte bereit, die mit der Zielverfolgung durch UAV verbunden sind. Das UAV kann dafür konfiguriert sein, Zielinformationen bezüglich eines durch eine an das UAV angeschlossene Bildgebungseinrichtung zu verfolgenden Ziels von einer Leitstation zu empfangen. Die Zielinformationen können durch das UAV verwendet werden, um das Ziel automatisch zu verfolgen, um so eine vorbestimmte Position und/oder Größe des Ziels innerhalb eines oder mehrerer durch die Bildgebungseinrichtung aufgenommener Bilder zu halten. Jegliche Beschreibung der Verfolgung kann visuelle Verfolgung durch die Bildgebungseinrichtung einschließen. Die Leitstation kann dafür konfiguriert sein, Bilder von der Bildgebungseinrichtung anzuzeigen sowie eine Anwendereingabe bezüglich der Zielinformation zu ermöglichen.In some circumstances, it may be desirable for aircraft to have a specific destination. Thus, there is a need for improved UAV tracking methods and systems that ensure automatic or semi-automatic tracking of a target, thereby relieving operators of the aircraft of manually tracking the targets. The present invention provides systems, methods, and devices associated with target tracking by UAV. The UAV may be configured to receive destination information regarding a destination to be followed by an imager connected to the UAV from a control station. The target information may be used by the UAV to automatically track the target so as to maintain a predetermined position and / or size of the target within one or more images captured by the imager. Any description of the tracking may include visual tracking by the imaging device. The control station may be configured to display images from the imaging device as well as to allow user input regarding the destination information.

Nach einem Aspekt der vorliegenden Erfindung wird ein Verfahren zum Steuern eines unbemannten Luftfahrzeugs (UAV) bereitgestellt. Das Verfahren umfasst Folgendes: das Empfangen, von einem entfernten Anwender, eines oder mehrerer Navigationsbefehle, um das UAV entlang einer Flugbahn zu bewegen, das Empfangen, von dem entfernten Anwender, von Zielinformationen eines durch eine Bildgebungseinrichtung an dem UAV zu verfolgenden Ziels und das Verfolgen des Ziels entsprechend den Zielinformationen durch das automatische Einstellen wenigstens eines von dem UAV und der Bildgebungseinrichtung, während sich das UAV entlang der Flugbahn entsprechend dem einen oder den mehreren Navigationsbefehlen von dem entfernten Anwender bewegt.According to one aspect of the present invention, a method for controlling an unmanned aerial vehicle (UAV) is provided. The method includes receiving, from a remote user, one or more navigation commands to move the UAV along a trajectory, receiving, from the remote user, destination information of a target to be tracked by an imager on the UAV, and tracking the target corresponding to the target information by automatically adjusting at least one of the UAV and the imaging device while the UAV moves along the trajectory corresponding to the one or more navigation commands from the remote user.

Nach einem anderen Aspekt der vorliegenden Erfindung wird ein unbemanntes Luftfahrzeug (UAV) mit Verfolgungsfähigkeiten bereitgestellt. Das UAV umfasst Folgendes: einen oder mehrere Empfänger, die, einzeln oder gemeinsam, dafür konfiguriert sind, von einem entfernten Anwender (1) einen oder mehrere Navigationsbefehle, um das UAV entlang einer Flugbahn zu bewegen, und (2) Zielinformationen eines durch eine Bildgebungseinrichtung an dem UAV zu verfolgenden Ziels zu empfangen, und einen oder mehrere Prozessoren, die, einzeln oder gemeinsam, dafür konfiguriert sind, das Ziel entsprechend den Zielinformationen durch das automatische Einstellen wenigstens eines von dem UAV und der Bildgebungseinrichtung zu verfolgen, während sich das UAV entlang der Flugbahn entsprechend dem einen oder den mehreren Navigationsbefehlen von dem entfernten Anwender bewegt.According to another aspect of the present invention, an unmanned aerial vehicle (UAV) with tracking capabilities is provided. The UAV comprises: one or more receivers configured, singly or in common, to command from a remote user (1) one or more navigation commands to move the UAV along a trajectory; and (2) target information by an imaging device receive on the UAV to be tracked destination, and one or more processors configured, singly or in common, to track the destination according to the destination information by automatically adjusting at least one of the UAV and the imager while the UAV is traveling along the trajectory corresponding to the one or more navigation commands from the remote user moves.

Nach einem anderen Aspekt der vorliegenden Erfindung wird ein System zum Steuern eines unbemannten Luftfahrzeugs (UAV) bereitgestellt. Das System umfasst Folgendes: einen oder mehrere Empfänger, die, einzeln oder gemeinsam, dafür konfiguriert sind, von einem entfernten Anwender (1) einen oder mehrere Navigationsbefehle, um das UAV entlang einer Flugbahn zu bewegen, und (2) Zielinformationen eines durch eine Bildgebungseinrichtung an dem UAV zu verfolgenden Ziels zu empfangen, und einen oder mehrere Prozessoren, die, einzeln oder gemeinsam, dafür konfiguriert sind, das Ziel entsprechend den Zielinformationen durch das automatische Einstellen wenigstens eines von dem UAV und der Bildgebungseinrichtung zu verfolgen, während sich das UAV entlang der Flugbahn entsprechend dem einen oder den mehreren Navigationsbefehlen von dem entfernten Anwender bewegt.According to another aspect of the present invention, a system for controlling an unmanned aerial vehicle (UAV) is provided. The system includes: one or more receivers configured, singly or in common, to command from a remote user (1) one or more navigation commands to move the UAV along a trajectory, and (2) target information by an imaging device receive on the UAV to be tracked destination, and one or more processors configured, singly or in common, to track the destination according to the destination information by automatically adjusting at least one of the UAV and the imager while the UAV is traveling along the trajectory corresponding to the one or more navigation commands from the remote user moves.

Bei einigen Ausführungsformen schließt die Bildgebungseinrichtung eine Kamera oder einen Kamerarekorder ein.In some embodiments, the imaging device includes a camera or a camera recorder.

Bei einigen Ausführungsformen sind der eine oder die mehreren Navigationsbefehle dafür eingerichtet, eine Geschwindigkeit, Position oder Lage des UAV zu steuern. In some embodiments, the one or more navigation commands are configured to control a speed, position, or location of the UAV.

Bei einigen Ausführungsformen ist das Ziel unbeweglich im Verhältnis zu einen Referenzobjekt.In some embodiments, the target is immobile relative to a reference object.

Bei einigen Ausführungsformen bewegt sich das Ziel im Verhältnis zu einen Referenzobjekt.In some embodiments, the target moves relative to a reference object.

Bei einigen Ausführungsformen schließen die Zielinformationen anfängliche Zielinformationen ein.In some embodiments, the destination information includes initial destination information.

Bei einigen Ausführungsformen schließen die anfänglichen Zielinformationen eine anfängliche Position oder eine anfängliche Größe des Ziels innerhalb eines durch die Bildgebungseinrichtung aufgenommenen Bildes ein.In some embodiments, the initial target information includes an initial position or an initial size of the target within an image captured by the imaging device.

Bei einigen Ausführungsformen schließen die Zielinformationen Zielartinformationen ein.In some embodiments, the destination information includes destination type information.

Bei einigen Ausführungsformen schließt das Verfolgen des Ziels entsprechend den Zielinformationen ferner das Identifizieren, auf der Grundlage der Zielartinformationen, des zu verfolgenden Ziels von innerhalb eines oder mehrerer durch die Bildgebungseinrichtung aufgenommener Bilder unter Verwendung eines Bilderkennungsalgorithmus ein.In some embodiments, tracking the target in accordance with the target information further includes identifying, based on the target species information, the target to be tracked from within one or more images captured by the imaging device using an image recognition algorithm.

Bei einigen Ausführungsformen schließen die Zielartinformationen Farb-, Textur- oder Musterinformationen ein.In some embodiments, the destination type information includes color, texture, or pattern information.

Bei einigen Ausführungsformen schließen die Zielinformationen erwartete Zielinformationen ein.In some embodiments, the destination information includes expected destination information.

Bei einigen Ausführungsformen schließen die erwarteten Zielinformationen eine erwartete Position oder eine erwartete Größe des Ziels innerhalb eines durch die Bildgebungseinrichtung aufgenommenen Bildes ein.In some embodiments, the expected target information includes an expected position or size of the target within an image captured by the imaging device.

Bei einigen Ausführungsformen ist die erwartete Größe des Ziels die gleiche wie eine anfängliche Größe des Ziels.In some embodiments, the expected size of the target is the same as an initial size of the target.

Bei einigen Ausführungsformen ist die erwartete Position des Ziels die gleiche wie eine anfängliche Position des Ziels.In some embodiments, the expected position of the target is the same as an initial position of the target.

Bei einigen Ausführungsformen schließt das Verfolgen des Ziels entsprechend den Zielinformationen das Halten, innerhalb eines vorbestimmten Toleranzgrades, der erwarteten Position oder der erwarteten Größe des Ziels innerhalb eines oder mehrerer durch die Bildgebungseinrichtung aufgenommener Bilder ein.In some embodiments, following the target in accordance with the target information includes tracking, within a predetermined tolerance level, the expected position, or the expected size of the target within one or more images captured by the imaging device.

Bei einigen Ausführungsformen ist die Bildgebungseinrichtung über einen Träger an das UAV angeschlossen, der dafür konfiguriert ist, zu ermöglichen, dass sich die Bildgebungseinrichtung im Verhältnis zu dem UAV bewegt.In some embodiments, the imaging device is connected to the UAV via a carrier that is configured to allow the imaging device to move relative to the UAV.

Bei einigen Ausführungsformen ist der Träger dafür konfiguriert, zu ermöglichen, dass sich die Bildgebungseinrichtung um wenigstens zwei Achsen im Verhältnis zu dem UAV dreht.In some embodiments, the carrier is configured to allow the imager to rotate about at least two axes relative to the UAV.

Bei einigen Ausführungsformen schließt das Verfolgen des Ziels entsprechend den Zielinformationen das automatische Einstellen wenigstens eines von dem UAV, dem Träger oder der Bildgebungseinrichtung ein, während sich das UAV entlang der Flugbahn entsprechend dem einen oder den mehreren Navigationsbefehlen von dem entfernten Anwender bewegt.In some embodiments, tracking the target according to the destination information includes automatically adjusting at least one of the UAV, the carrier, or the imaging device as the UAV moves along the trajectory corresponding to the one or more navigation commands from the remote user.

Bei einigen Ausführungsformen schließen die Zielinformationen erwartete Zielinformationen ein, und das Verfolgen des Ziels entsprechend den Zielinformationen schließt Folgendes ein: das Bestimmen gegenwärtiger Zielinformationen des Ziels auf der Grundlage eines oder mehrerer durch die Bildgebungseinrichtung aufgenommener Bilder, das Erfassen einer Abweichung der gegenwärtigen Zielinformationen von den erwarteten Zielinformationen und das Berechnen einer Einstellung an dem UAV, dem Träger oder der Bildgebungseinrichtung, um so die Abweichung im Wesentlichen zu berichtigen.In some embodiments, the target information includes expected target information, and tracking the target according to the target information includes determining the current target information of the target based on one or more images captured by the imaging device, detecting a deviation of the current target information from the expected one Destination information and calculating a setting on the UAV, the carrier or the imaging device, so as to substantially correct the deviation.

Bei einigen Ausführungsformen ist die Abweichung mit einer Veränderung bei der Position des Ziels verknüpft, und die berechnete Einstellung ist mit einer Winkelgeschwindigkeit für das UAV verknüpft.In some embodiments, the deviation is associated with a change in the position of the target, and the calculated setting is associated with an angular velocity for the UAV.

Bei einigen Ausführungsformen steht die Winkelgeschwindigkeit im Verhältnis zu einer Gierachse des UAV.In some embodiments, the angular velocity is related to a yaw axis of the UAV.

Bei einigen Ausführungsformen steht die Winkelgeschwindigkeit im Verhältnis zu einer Nickachse des UAV.In some embodiments, the angular velocity is related to a pitch axis of the UAV.

Bei einigen Ausführungsformen ist die Abweichung mit einer Veränderung bei der Position des Ziels verknüpft, und die berechnete Einstellung ist mit einer Winkelgeschwindigkeit für die Bildgebungseinrichtung im Verhältnis zu dem UAV verknüpft.In some embodiments, the deviation is associated with a change in the position of the target, and the calculated setting is associated with an angular velocity for the imaging device relative to the UAV.

Bei einigen Ausführungsformen wird die berechnete Einstellung dazu verwendet, Steuersignale für den Träger zu erzeugen, um so zu veranlassen, dass sich die Bildgebungseinrichtung im Verhältnis zu dem UAV bewegt.In some embodiments, the calculated adjustment is used to generate control signals for the wearer so as to cause the imaging device to move relative to the UAV.

Bei einigen Ausführungsformen ist die Abweichung mit einer Veränderung bei der Größe des Ziels verknüpft, und die Einstellung ist mit einer linearen Geschwindigkeit für das UAV verknüpft.In some embodiments, the deviation is a change in the size of the target and the setting is linked to a linear velocity for the UAV.

Bei einigen Ausführungsformen ist die Abweichung mit einer Veränderung bei der Größe des Ziels verknüpft, und die Einstellung ist mit einem oder mehreren Parametern der Bildgebungseinrichtung verknüpft.In some embodiments, the deviation is associated with a change in the size of the target, and the adjustment is associated with one or more parameters of the imaging device.

Bei einigen Ausführungsformen schließen der eine oder die mehreren Parameter der Bildgebungseinrichtung Brennweite, Zoom oder Brennpunkt ein.In some embodiments, the one or more parameters of the imager include focal length, zoom, or focus.

Bei einigen Ausführungsformen ist die berechnete Einstellung auf einen vorbestimmten Bereich begrenzt.In some embodiments, the calculated adjustment is limited to a predetermined range.

Bei einigen Ausführungsformen entspricht der vorbestimmte Bereich einem vorbestimmten Bereich des Steuerhebelmaßes eines Steuerungssystems.In some embodiments, the predetermined range corresponds to a predetermined range of the control lever amount of a control system.

Bei einigen Ausführungsformen schließt das Steuerungssystem ein Flugregelsystem für das UAV oder ein Steuerungssystem für den Träger ein.In some embodiments, the control system includes a flight control system for the UAV or a control system for the carrier.

Bei einigen Ausführungsformen wird ein Warnsignal bereitgestellt, falls die berechnete Einstellung außerhalb des vorbestimmten Bereichs fällt.In some embodiments, a warning signal is provided if the calculated setting falls outside the predetermined range.

Bei einigen Ausführungsformen umfasst das Verfolgen des Ziels das Vergleichen der berechneten Einstellung mit einem vorbestimmten maximalen Schwellenwert und das Bereitstellen des vorbestimmten maximalen Schwellenwertes, falls die berechnete Einstellung den vorbestimmten maximalen Schwellenwert überschreitet.In some embodiments, tracking the target includes comparing the calculated setting to a predetermined maximum threshold and providing the predetermined maximum threshold if the calculated setting exceeds the predetermined maximum threshold.

Bei einigen Ausführungsformen schließt der vorbestimmte maximale Schwellenwert eine maximale Winkelgeschwindigkeit oder eine maximale lineare Geschwindigkeit für das UAV oder die Bildgebungseinrichtung ein.In some embodiments, the predetermined maximum threshold includes a maximum angular velocity or a maximum linear velocity for the UAV or imager.

Bei einigen Ausführungsformen umfasst das Verfolgen des Ziels das Vergleichen der berechneten Einstellung mit einem vorbestimmten minimalen Schwellenwert und das Bereitstellen des vorbestimmten minimalen Schwellenwertes, falls die berechnete Einstellung geringer ist als der vorbestimmte minimale Schwellenwert.In some embodiments, tracking the target includes comparing the calculated setting to a predetermined minimum threshold and providing the predetermined minimum threshold if the calculated setting is less than the predetermined minimum threshold.

Bei einigen Ausführungsformen schließt der vorbestimmte minimale Schwellenwert eine minimale Winkelgeschwindigkeit oder eine minimale lineare Geschwindigkeit für das UAV oder die Bildgebungseinrichtung ein.In some embodiments, the predetermined minimum threshold includes a minimum angular velocity or a minimum linear velocity for the UAV or imager.

Bei einigen Ausführungsformen werden die Zielinformationen von einem für den entfernten Anwender zugänglichen Fernsteuerungsgerät empfangen.In some embodiments, the destination information is received from a remote control device accessible to the remote user.

Bei einigen Ausführungsformen werden der eine oder die mehreren Navigationsbefehle von dem gleichen Fernsteuerungsgerät empfangen.In some embodiments, the one or more navigation commands are received by the same remote control device.

Bei einigen Ausführungsformen werden der eine oder die mehreren Navigationsbefehle von einem unterschiedlichen Fernsteuerungsgerät empfangen.In some embodiments, the one or more navigation commands are received from a different remote control device.

Bei einigen Ausführungsformen ist das Fernsteuerungsgerät dafür konfiguriert, eine Anwendereingabe von einem Berührungsbildschirm, einem Joystick, einer Tastatur, einer Maus oder einem Stift zu empfangen.In some embodiments, the remote control device is configured to receive a user input from a touch screen, a joystick, a keyboard, a mouse, or a stylus.

Bei einigen Ausführungsformen ist das Fernsteuerungsgerät dafür konfiguriert, eine Anwendereingabe von einem tragbaren Gerät zu empfangen.In some embodiments, the remote control device is configured to receive a user input from a portable device.

Bei einigen Ausführungsformen ist das Fernsteuerungsgerät für Folgendes konfiguriert: ein oder mehrere durch die Bildgebungseinrichtung aufgenommene Bilder von dem UAV zu empfangen, das eine oder die mehreren Bilder anzuzeigen, eine Anwenderauswahl eines Ziels von innerhalb eines angezeigten Bildes zu empfangen, die Zielinformationen des Ziels auf der Grundlage der Anwenderauswahl des Ziels zu erzeugen und die Zielinformationen an das UAV zu übermitteln.In some embodiments, the remote control device is configured to: receive one or more images captured by the imaging device from the UAV, display the one or more images, receive a user selection of a target from within a displayed image, target the destination on the UAV Base the user selection of the target to generate and transmit the target information to the UAV.

Bei einigen Ausführungsformen ist das Fernsteuerungsgerät ferner dafür konfiguriert, den einen oder die mehreren Navigationsbefehle auf der Grundlage von Anwendereingaben zu erzeugen und den einen oder die mehreren Navigationsbefehle an das UAV zu übermitteln.In some embodiments, the remote control device is further configured to generate the one or more navigation commands based on user input and to communicate the one or more navigation commands to the UAV.

Bei einigen Ausführungsformen ist das Fernsteuerungsgerät ferner dafür konfiguriert, Verfolgungsinformationen bezüglich des Ziels zu empfangen und das eine oder die mehreren Bilder mit den Verfolgungsinformationen anzuzeigen.In some embodiments, the remote control device is further configured to receive tracking information regarding the destination and display the one or more images with the tracking information.

Nach einem Aspekt der vorliegenden Erfindung wird ein unbemanntes Luftfahrzeug (UAV) mit Verfolgungsfähigkeiten bereitgestellt. Das UAV umfasst Folgendes: einen oder mehrere Empfänger, die, einzeln oder gemeinsam, dafür konfiguriert sind, von einem entfernten Anwender, anwenderspezifizierte Zielinformationen eines durch eine Bildgebungseinrichtung an dem UAV zu verfolgenden Ziels zu empfangen, wobei die anwenderspezifizierten Zielinformationen eine vorbestimmte Position oder eine vorbestimmte Größe des Ziels innerhalb eines durch die Bildgebungseinrichtung aufgenommenen Bildes einschließen, wobei die Bildgebungseinrichtung über einen Träger an das UAV angeschlossen ist, der dafür konfiguriert ist, zu ermöglichen, dass sich die Bildgebungseinrichtung im Verhältnis zu dem UAV bewegt, und einen oder mehrere Prozessoren, die, einzeln oder gemeinsam, dafür konfiguriert sind, eine Abweichung von der vorbestimmten Position oder der vorbestimmten Größe des Ziels auf der Grundlage eines oder mehrerer durch die Bildgebungseinrichtung aufgenommener Bilder zu erfassen und Befehle zu erzeugen, um das UAV, den Träger oder die Bildgebungseinrichtung automatisch einzustellen, um so die erfasste Abweichung von der vorbestimmten Position oder der vorbestimmten Größe des Ziels im Wesentlichen zu berichtigen.In one aspect of the present invention, an unmanned aerial vehicle (UAV) with tracking capabilities is provided. The UAV comprises: one or more receivers, individually or in common, configured to receive, from a remote user, user-specified destination information of a destination to be tracked by an imager on the UAV, the user-specified destination information being a predetermined position or a predetermined location Size of the target within an image captured by the imager wherein the imaging device is connected to the UAV via a carrier configured to allow the imaging device to move in relation to the UAV, and one or more processors configured to be individually or collectively configured therefor Detecting deviation from the predetermined position or the predetermined size of the target based on one or more images taken by the imaging device and generating commands to automatically adjust the UAV, the carrier or the imaging device so as to detect the detected deviation from the predetermined position or substantially correct the predetermined size of the target.

Nach einem anderen Aspekt der vorliegenden Erfindung wird ein System zum Steuern eines unbemannten Luftfahrzeugs (UAV) bereitgestellt. Das System umfasst Folgendes: einen oder mehrere Empfänger, die, einzeln oder gemeinsam, dafür konfiguriert sind, von einem entfernten Anwender, anwenderspezifizierte Zielinformationen eines durch eine Bildgebungseinrichtung an dem UAV zu verfolgenden Ziels zu empfangen, wobei die anwenderspezifizierten Zielinformationen eine vorbestimmte Position oder eine vorbestimmte Größe des Ziels innerhalb eines durch die Bildgebungseinrichtung aufgenommenen Bildes einschließen, wobei die Bildgebungseinrichtung über einen Träger an das UAV angeschlossen ist, der dafür konfiguriert ist, zu ermöglichen, dass sich die Bildgebungseinrichtung im Verhältnis zu dem UAV bewegt, und einen oder mehrere Prozessoren, die, einzeln oder gemeinsam, dafür konfiguriert sind, eine Abweichung von der vorbestimmten Position oder der vorbestimmten Größe des Ziels auf der Grundlage eines oder mehrerer durch die Bildgebungseinrichtung aufgenommener Bilder zu erfassen und Befehle zu erzeugen, um das UAV, den Träger oder die Bildgebungseinrichtung automatisch einzustellen, um so die erfasste Abweichung von der vorbestimmten Position oder der vorbestimmten Größe des Ziels im Wesentlichen zu berichtigen.According to another aspect of the present invention, a system for controlling an unmanned aerial vehicle (UAV) is provided. The system includes: one or more receivers, individually or collectively, configured to receive, from a remote user, user-specified destination information of a destination to be tracked by an imager on the UAV, the user-specified destination information being a predetermined location or a predetermined location Size of the target within an image captured by the imaging device, the imaging device being connected to the UAV via a carrier configured to allow the imaging device to move relative to the UAV, and one or more processors that , individually or collectively, configured to detect a deviation from the predetermined position or size of the target based on one or more images taken by the imaging device and generate commands to cause the UAV, de n carrier or the imaging device so as to substantially correct the detected deviation from the predetermined position or the predetermined size of the target.

Nach einem anderen Aspekt der vorliegenden Erfindung wird ein Verfahren zum Steuern eines unbemannten Luftfahrzeugs (UAV) bereitgestellt. Das Verfahren umfasst Folgendes: das Empfangen, von einem entfernten Anwender, anwenderspezifizierter Zielinformationen eines durch eine Bildgebungseinrichtung an dem UAV zu verfolgenden Ziels, wobei die anwenderspezifizierten Zielinformationen eine vorbestimmte Position oder eine vorbestimmte Größe des Ziels innerhalb eines durch die Bildgebungseinrichtung aufgenommenen Bildes einschließen, wobei die Bildgebungseinrichtung über einen Träger an das UAV angeschlossen ist, der dafür konfiguriert ist, zu ermöglichen, dass sich die Bildgebungseinrichtung im Verhältnis zu dem UAV bewegt, das Erfassen, durch einen Prozessor an Bord des UAV, einer Abweichung von der vorbestimmten Position oder der vorbestimmten Größe des Ziels auf der Grundlage eines oder mehrerer durch die Bildgebungseinrichtung aufgenommener Bilder und das automatische Einstellen des UAV, des Trägers oder der Bildgebungseinrichtung, um so die erfasste Abweichung von der vorbestimmten Position oder der vorbestimmten Größe des Ziels im Wesentlichen zu berichtigen.According to another aspect of the present invention, a method for controlling an unmanned aerial vehicle (UAV) is provided. The method includes: receiving, from a remote user, user-specified destination information of a target to be tracked by an imager on the UAV, the user specified destination information including a predetermined position or a predetermined size of the target within an image captured by the imager, wherein the Imaging device is connected to the UAV via a carrier configured to allow the imaging device to move in relation to the UAV, detected by a processor aboard the UAV, a deviation from the predetermined position or the predetermined magnitude of the target on the basis of one or more images taken by the imaging device and automatically adjusting the UAV, the carrier or the imaging device so as to determine the detected deviation from the predetermined position or the predetermined one Essentially correct the size of the target.

Bei einigen Ausführungsformen schließt die Bildgebungseinrichtung eine Kamera oder einen Kamerarekorder ein.In some embodiments, the imaging device includes a camera or a camera recorder.

Bei einigen Ausführungsformen umfasst das Verfahren ferner das Empfangen, von dem entfernten Anwender, eines oder mehrerer Befehle, die dafür eingerichtet sind, eine Geschwindigkeit, Position oder Lage des UAV zu steuern.In some embodiments, the method further comprises receiving, from the remote user, one or more commands configured to control a speed, position, or location of the UAV.

Bei einigen Ausführungsformen umfasst das Verfahren ferner das Empfangen, von dem entfernten Anwender, eines oder mehrerer Befehle, die dafür eingerichtet sind, eine Geschwindigkeit, Position oder Lage des Trägers zu steuern.In some embodiments, the method further comprises receiving, from the remote user, one or more commands configured to control a speed, position or attitude of the wearer.

Bei einigen Ausführungsformen umfasst das Verfahren ferner das Empfangen, von dem entfernten Anwender, eines oder mehrerer Befehle, die dafür eingerichtet sind, einen oder mehrere Betriebsparameter der Bildgebungseinrichtung zu steuern.In some embodiments, the method further comprises receiving, from the remote user, one or more commands configured to control one or more operating parameters of the imaging device.

Bei einigen Ausführungsformen schließen der eine oder die mehreren Betriebsparameter der Bildgebungseinrichtung Brennweite, Zoomniveau, Bildgebungsmodus, Bildauflösung, Brennpunkt, Schärfentiefe, Belichtung, Lichtstärke oder Gesichtsfeld ein.In some embodiments, the one or more operating parameters of the imager include focal length, zoom level, imaging mode, image resolution, focus, depth of field, exposure, intensity, or field of view.

Bei einigen Ausführungsformen ist der Träger dafür konfiguriert, zu ermöglichen, dass sich die Bildgebungseinrichtung um wenigstens eine Achse im Verhältnis zu dem UAV dreht.In some embodiments, the carrier is configured to allow the imager to rotate about at least one axis relative to the UAV.

Bei einigen Ausführungsformen ist der Träger dafür konfiguriert, zu ermöglichen, dass sich die Bildgebungseinrichtung um wenigstens zwei Achsen im Verhältnis zu dem UAV dreht.In some embodiments, the carrier is configured to allow the imager to rotate about at least two axes relative to the UAV.

Bei einigen Ausführungsformen schließen die Zielinformationen des Ziels ferner Zielartinformationen ein.In some embodiments, the destination information of the destination further includes destination type information.

Bei einigen Ausführungsformen schließen die Zielartinformationen eine Farbe oder Textur des Ziels ein.In some embodiments, the destination type information includes a color or texture of the destination.

Bei einigen Ausführungsformen schließt die vorbestimmte Position des Ziels eine anfängliche Position oder eine erwartete Position des Ziels ein. In some embodiments, the predetermined position of the target includes an initial position or an expected position of the target.

Bei einigen Ausführungsformen schließt die vorbestimmte Größe des Ziels eine anfängliche Größe oder eine erwartete Größe des Ziels ein.In some embodiments, the predetermined size of the target includes an initial size or an expected size of the target.

Bei einigen Ausführungsformen schließt das Erfassen der Abweichung von der vorbestimmten Position oder der vorbestimmten Größe des Ziels das Vergleichen einer Position oder Größe des Ziels innerhalb des einen oder der mehreren durch die Bildgebungseinrichtung aufgenommenen Bilder mit der vorbestimmten Position beziehungsweise der vorbestimmten Größe ein.In some embodiments, detecting the deviation from the predetermined position or size of the target includes comparing a position or size of the target within the one or more images captured by the imager with the predetermined position or size.

Bei einigen Ausführungsformen schließt das Einstellen des UAV, des Trägers oder der Bildgebungseinrichtung das Berechnen einer Einstellung an dem UAV, dem Träger oder der Bildgebungseinrichtung, um so die Abweichung im Wesentlichen zu berichtigen, ein.In some embodiments, adjusting the UAV, the carrier, or the imaging device includes calculating a setting on the UAV, the carrier, or the imager so as to substantially correct the deviation.

Bei einigen Ausführungsformen ist die Abweichung mit einer Veränderung bei der Position des Ziels verknüpft, und die berechnete Einstellung ist mit einer Winkelgeschwindigkeit für das UAV verknüpft.In some embodiments, the deviation is associated with a change in the position of the target, and the calculated setting is associated with an angular velocity for the UAV.

Bei einigen Ausführungsformen steht die Winkelgeschwindigkeit im Verhältnis zu einer Gierachse des UAV.In some embodiments, the angular velocity is related to a yaw axis of the UAV.

Bei einigen Ausführungsformen steht die Winkelgeschwindigkeit im Verhältnis zu einer Nickachse des UAV.In some embodiments, the angular velocity is related to a pitch axis of the UAV.

Bei einigen Ausführungsformen ist die Abweichung mit einer Veränderung bei der Position des Ziels verknüpft, und die berechnete Einstellung ist mit einer Winkelgeschwindigkeit für die Bildgebungseinrichtung im Verhältnis zu dem UAV verknüpft.In some embodiments, the deviation is associated with a change in the position of the target, and the calculated setting is associated with an angular velocity for the imaging device relative to the UAV.

Bei einigen Ausführungsformen wird die berechnete Einstellung dazu verwendet, Steuersignale für den Träger zu erzeugen, um so zu veranlassen, dass sich die Bildgebungseinrichtung im Verhältnis zu dem UAV bewegt.In some embodiments, the calculated adjustment is used to generate control signals for the wearer so as to cause the imaging device to move relative to the UAV.

Bei einigen Ausführungsformen steht die Winkelgeschwindigkeit im Verhältnis zu einer Gierachse der Bildgebungseinrichtung.In some embodiments, the angular velocity is related to a yaw axis of the imager.

Bei einigen Ausführungsformen steht die Winkelgeschwindigkeit im Verhältnis zu einer Nickachse der Bildgebungseinrichtung.In some embodiments, the angular velocity is related to a pitch axis of the imager.

Bei einigen Ausführungsformen ist die Abweichung mit einer Veränderung bei der Größe des Ziels verknüpft, und die Einstellung ist mit einer linearen Geschwindigkeit für das UAV verknüpft.In some embodiments, the deviation is associated with a change in the size of the target, and the adjustment is associated with a linear velocity for the UAV.

Bei einigen Ausführungsformen ist die Abweichung mit einer Veränderung bei der Größe des Ziels verknüpft, und die Einstellung ist mit einem oder mehreren Parametern der Bildgebungseinrichtung verknüpft.In some embodiments, the deviation is associated with a change in the size of the target, and the adjustment is associated with one or more parameters of the imaging device.

Bei einigen Ausführungsformen schließen der eine oder die mehreren Parameter der Bildgebungseinrichtung Brennweite, Zoomniveau, Bildgebungsmodus, Bildauflösung, Brennpunkt, Schärfentiefe, Belichtung, Lichtstärke oder Gesichtsfeld ein.In some embodiments, the one or more parameters of the imager include focal length, zoom level, imaging mode, image resolution, focus, depth of field, exposure, intensity, or field of view.

Bei einigen Ausführungsformen ist die berechnete Einstellung auf einen vorbestimmten Bereich begrenzt.In some embodiments, the calculated adjustment is limited to a predetermined range.

Bei einigen Ausführungsformen entspricht der vorbestimmte Bereich einem vorbestimmten Bereich des Steuerhebelmaßes eines Steuerungssystems.In some embodiments, the predetermined range corresponds to a predetermined range of the control lever amount of a control system.

Bei einigen Ausführungsformen schließt das Steuerungssystem ein Navigationssteuerungssystem für das UAV oder ein Steuerungssystem für den Träger ein.In some embodiments, the control system includes a navigation control system for the UAV or a control system for the wearer.

Bei einigen Ausführungsformen umfasst das Verfahren ferner das Bereitstellen eines Warnsignals, falls die berechnete Einstellung außerhalb des vorbestimmten Bereichs fällt.In some embodiments, the method further comprises providing a warning signal if the calculated adjustment falls outside the predetermined range.

Bei einigen Ausführungsformen wird das Warnsignal dazu verwendet, ein Audio- oder ein visuelles Signal bereitzustellen.In some embodiments, the warning signal is used to provide an audio or visual signal.

Bei einigen Ausführungsformen wird das Warnsignal dazu verwendet, ein kinetisches Signal bereitzustellen.In some embodiments, the warning signal is used to provide a kinetic signal.

Bei einigen Ausführungsformen umfasst das Verfahren ferner das Übermitteln, im Wesentlichen in Echtzeit, von durch die Bildgebungseinrichtung aufgenommenen Bildern an ein für den entfernten Anwender zugängliches entferntes Anwendergerät.In some embodiments, the method further comprises communicating, in substantially real time, images taken by the imaging device to a remote user device accessible to the remote user.

Bei einigen Ausführungsformen umfasst das entfernte Anwendergerät eine Anzeige zum Anzeigen der durch die Bildgebungseinrichtung aufgenommenen Bilder.In some embodiments, the remote user device includes a display for displaying the images captured by the imaging device.

Bei einigen Ausführungsformen umfasst das entfernte Anwendergerät ein Eingabegerät zum Bereitstellen der Zielinformationen.In some embodiments, the remote user device includes an input device for providing the destination information.

Bei einigen Ausführungsformen schließt das Eingabegerät einen Berührungsbildschirm, einen Joystick, eine Tastatur, eine Maus oder einen Stift ein.In some embodiments, the input device includes a touch screen, a Joystick, a keyboard, a mouse or a pen.

Bei einigen Ausführungsformen schließt das Eingabegerät ein tragbares Gerät ein.In some embodiments, the input device includes a portable device.

Bei einigen Ausführungsformen werden die Zielinformationen auf der Grundlage der übermittelten Bilder bereitgestellt.In some embodiments, the destination information is provided based on the transmitted images.

Bei einigen Ausführungsformen umfasst das Verfahren ferner das Bereitstellen, im Wesentlichen in Echtzeit, von Verfolgungsinformationen des Ziels für das entfernte Anwendergerät.In some embodiments, the method further comprises providing, in real time, tracking information of the destination to the remote user equipment.

Bei einigen Ausführungsformen ist das entfernte Anwendergerät für Folgendes konfiguriert: eine Anwenderauswahl des Ziels von innerhalb eines oder mehrerer auf dem entfernten Anwendergerät angezeigten Bildern zu empfangen und die Zielinformationen des Ziels auf der Grundlage der Anwenderauswahl des Ziels zu erzeugen.In some embodiments, the remote user equipment is configured to: receive a user selection of the destination from within one or more images displayed on the remote user equipment, and generate the destination information of the destination based on the user selection of the destination.

Nach einem anderen Aspekt der vorliegenden Erfindung wird ein Verfahren zum Steuern eines unbemannten Luftfahrzeugs (UAV) bereitgestellt. Das Verfahren umfasst Folgendes: das Anzeigen, über eine Anzeige, eines oder mehrerer durch eine an das UAV angeschlossene Bildgebungseinrichtung aufgenommener Bilder im Wesentlichen in Echtzeit, das Empfangen, über ein Eingabegerät, einer Anwenderauswahl eines Ziels von innerhalb des einen oder der mehreren im Wesentlichen in Echtzeit angezeigten Bilder, das Erzeugen von Zielinformationen des Ziels wenigstens zum Teil auf der Grundlage der Anwenderauswahl des Ziels und das Bereitstellen der Zielinformationen für das UAV, um so zu ermöglichen, dass das UAV autonom das Ziel entsprechend den Zielinformationen verfolgt.According to another aspect of the present invention, a method for controlling an unmanned aerial vehicle (UAV) is provided. The method includes: displaying, in substantially real-time, via a display, one or more images captured by an imager connected to the UAV, receiving, via an input device, a user selection of a target from within the one or more substantially Real-time displayed images, generating target information of the target based at least in part on the user selection of the target, and providing the target information to the UAV so as to allow the UAV to autonomously track the target according to the target information.

Nach einem anderen Aspekt der vorliegenden Erfindung wird ein System zum Steuern eines unbemannten Luftfahrzeugs (UAV) bereitgestellt. Das System umfasst Folgendes: eine Anzeige, die dafür konfiguriert ist, eines oder mehrere durch eine an das UAV angeschlossene Bildgebungseinrichtung aufgenommene Bilder im Wesentlichen in Echtzeit anzuzeigen, ein Eingabegerät, das dafür konfiguriert ist, eine Anwenderauswahl eines Ziels von innerhalb wenigstens eines von dem einen oder den mehreren auf der Anzeige angezeigten Bildern zu empfangen, einen oder mehrere Prozessoren, die, einzeln oder gemeinsam, dafür konfiguriert sind, Zielinformationen des Ziels wenigstens zum Teil auf der Grundlage der Anwenderauswahl des Ziels zu erzeugen, und einen Sender, der dafür konfiguriert ist, die Zielinformationen für das UAV bereitzustellen, um so zu ermöglichen, dass das UAV autonom das Ziel entsprechend den Zielinformationen verfolgt.According to another aspect of the present invention, a system for controlling an unmanned aerial vehicle (UAV) is provided. The system includes: a display configured to display substantially in real time one or more images taken by an imager connected to the UAV, an input device configured to provide user selection of a target from within at least one of the one or to receive the plurality of images displayed on the display, one or more processors that, individually or collectively, are configured to generate destination information of the destination based at least in part on the user selection of the destination, and a sender configured thereto to provide the destination information to the UAV so as to allow the UAV to autonomously track the destination according to the destination information.

Nach einem anderen Aspekt der vorliegenden Erfindung wird eine Vorrichtung zum Steuern eines unbemannten Luftfahrzeugs (UAV) bereitgestellt. Die Vorrichtung umfasst Folgendes: eine Anzeige, die dafür konfiguriert ist, eines oder mehrere durch eine an das UAV angeschlossene Bildgebungseinrichtung aufgenommene Bilder im Wesentlichen in Echtzeit anzuzeigen, ein Eingabegerät, das dafür konfiguriert ist, eine Anwenderauswahl eines Ziels von innerhalb wenigstens eines von dem einen oder den mehreren auf der Anzeige angezeigten Bildern zu empfangen, einen oder mehrere Prozessoren, die, einzeln oder gemeinsam, dafür konfiguriert sind, Zielinformationen des Ziels wenigstens zum Teil auf der Grundlage der Anwenderauswahl des Ziels zu erzeugen, und einen Sender, der dafür konfiguriert ist, die Zielinformationen für das UAV bereitzustellen, um so zu ermöglichen, dass das UAV autonom das Ziel entsprechend den Zielinformationen verfolgt.According to another aspect of the present invention, an apparatus for controlling an unmanned aerial vehicle (UAV) is provided. The apparatus comprises: a display configured to display substantially in real time one or more images taken by an imager connected to the UAV, an input device configured to provide user selection of a target from within at least one of the one or to receive the plurality of images displayed on the display, one or more processors that, individually or collectively, are configured to generate destination information of the destination based at least in part on the user selection of the destination, and a sender configured thereto to provide the destination information to the UAV so as to allow the UAV to autonomously track the destination according to the destination information.

Bei einigen Ausführungsformen schließen die Zielinformationen anfängliche Zielinformationen ein.In some embodiments, the destination information includes initial destination information.

Bei einigen Ausführungsformen schließen die anfänglichen Zielinformationen eine anfängliche Position oder eine anfängliche Größe des Ziels innerhalb eines durch die Bildgebungseinrichtung aufgenommenen Bildes ein.In some embodiments, the initial target information includes an initial position or an initial size of the target within an image captured by the imaging device.

Bei einigen Ausführungsformen werden die Zielinformationen auf der Grundlage der Anwenderauswahl des Ziels erzeugt.In some embodiments, the destination information is generated based on the user selection of the destination.

Bei einigen Ausführungsformen schließen die Zielinformationen Zielartinformationen ein.In some embodiments, the destination information includes destination type information.

Bei einigen Ausführungsformen schließen die Zielartinformationen Farb-, Textur- oder Musterinformationen ein.In some embodiments, the destination type information includes color, texture, or pattern information.

Bei einigen Ausführungsformen werden die Zielartinformationen auf der Grundlage der Anwenderauswahl des Ziels erzeugt.In some embodiments, the destination type information is generated based on the user selection of the destination.

Bei einigen Ausführungsformen schließen die Zielinformationen erwartete Zielinformationen ein.In some embodiments, the destination information includes expected destination information.

Bei einigen Ausführungsformen werden die erwarteten Zielinformationen auf der Grundlage der Anwenderauswahl des Ziels erzeugt.In some embodiments, the expected destination information is generated based on the user selection of the destination.

Bei einigen Ausführungsformen schließen die erwarteten Zielinformationen eine erwartete Position oder eine erwartete Größe des Ziels innerhalb eines durch die Bildgebungseinrichtung aufgenommenen Bildes ein.In some embodiments, the expected target information includes an expected position or size of the target within an image captured by the imaging device.

Bei einigen Ausführungsformen schließen die Zielinformationen nicht erwartete Zielinformationen ein.In some embodiments, the destination information includes unintended destination information.

Bei einigen Ausführungsformen schließt das Eingabegerät einen Berührungsbildschirm, einen Joystick, eine Tastatur, eine Maus, einen Stift oder ein tragbares Gerät ein. In some embodiments, the input device includes a touch screen, a joystick, a keyboard, a mouse, a pen, or a portable device.

Bei einigen Ausführungsformen wird die Anwenderauswahl des Ziels dadurch erreicht, dass ein Anwender einen Bereich des wenigstens einen von dem einen oder den mehreren auf der Anzeige angezeigten Bildern auswählt, wobei der ausgewählte Bereich dem Ziel entspricht.In some embodiments, the user selection of the target is achieved by a user selecting an area of the at least one of the one or more images displayed on the display, the selected area corresponding to the destination.

Bei einigen Ausführungsformen wird die Anwenderauswahl des Ziels dadurch erreicht, dass ein Anwender unmittelbar einen Bereich des wenigstens einen von dem einen oder den mehreren auf der Anzeige angezeigten Bildern berührt, wobei der berührte Bereich dem Ziel entspricht.In some embodiments, user selection of the target is achieved by a user directly touching an area of the at least one of the one or more images displayed on the display, the touched area corresponding to the destination.

Bei einigen Ausführungsformen wählt der Anwender den Bereich unter Verwendung eines Stifts, einer Maus, einer Tastatur oder eines tragbaren Geräts aus.In some embodiments, the user selects the area using a pen, a mouse, a keyboard, or a portable device.

Bei einigen Ausführungsformen schließt das Auswählen des Bereichs das Berühren, Wischen, Kreisen oder Klicken in dem Bereich ein.In some embodiments, selecting the area includes touching, swiping, circling, or clicking in the area.

Bei einigen Ausführungsformen sind der eine oder die mehreren Prozessoren, einzeln oder gemeinsam, ferner dafür konfiguriert, auf der Anzeige als Reaktion auf die Anwenderauswahl des Ziels das ausgewählte Ziel mit einem Auswahlanzeiger anzuzeigen, wobei der Auswahlanzeiger anzeigt, dass das Ziel durch den Anwender ausgewählt worden ist.In some embodiments, the one or more processors, individually or in common, are further configured to display on the display, in response to the user selection of the destination, the selected destination with a selection indicator, the selection indicator indicating that the destination has been selected by the user is.

Bei einigen Ausführungsformen sind der eine oder die mehreren Prozessoren, einzeln oder gemeinsam, ferner dafür konfiguriert, Verfolgungsinformationen bezüglich des Ziels zu empfangen und, auf der Grundlage der Verfolgungsinformationen, das ausgewählte Ziel mit einem Verfolgungsanzeiger innerhalb eines oder mehrerer darauffolgender durch die Bildgebungseinrichtung aufgenommener Bilder anzuzeigen, wobei der Verfolgungsanzeiger, im Wesentlichen in Echtzeit, anzeigt, dass das Ziel durch das UAV entsprechend den Zielinformationen verfolgt wird.In some embodiments, the one or more processors, individually or in common, are further configured to receive tracking information regarding the destination and, based on the tracking information, to display the selected destination with a tracking indicator within one or more subsequent images captured by the imaging device wherein the tracking indicator indicates, in substantially real-time, that the target is being tracked by the UAV in accordance with the target information.

Nach einem anderen Aspekt der vorliegenden Erfindung wird ein Verfahren zum Steuern eines unbemannten Luftfahrzeugs (UAV) bereitgestellt. Das Verfahren umfasst Folgendes: das Empfangen, im Wesentlichen in Echtzeit, eines oder mehrerer durch eine an das UAV angeschlossene Bildgebungseinrichtung aufgenommener Bilder, das Empfangen anwenderspezifizierter Zielinformationen eines Ziels, die eine vorbestimmte Position oder eine vorbestimmte Größe des Ziels innerhalb eines Bildes von dem einen oder den mehreren Bildern einschließen, das Bereitstellen der anwenderspezifizierten Zielinformationen für das UAV und das Anzeigen des einen oder der mehreren Bilder und eines mit dem Ziel verknüpften Verfolgungsanzeigers innerhalb des einen oder der mehreren Bilder, wobei der Verfolgungsanzeiger anzeigt, dass das Ziel durch das UAV im Wesentlichen in Echtzeit entsprechend den anwenderspezifizierten Zielinformationen verfolgt wird.According to another aspect of the present invention, a method for controlling an unmanned aerial vehicle (UAV) is provided. The method includes: receiving, in substantially real-time, one or more images captured by an imager connected to the UAV, receiving user-specified destination information of a target that has a predetermined position or a predetermined size of the target within an image of the one or more images providing the user-specified destination information to the UAV and displaying the one or more images and a tracking pointer associated with the destination within the one or more images, wherein the tracking indicator indicates that the target is substantially through the UAV is tracked in real time according to the user-specified destination information.

Nach einem anderen Aspekt der vorliegenden Erfindung wird eine Vorrichtung zum Steuern eines unbemannten Luftfahrzeugs (UAV) bereitgestellt. Die Vorrichtung umfasst Folgendes: einen Empfänger, der dafür konfiguriert ist, im Wesentlichen in Echtzeit, eines oder mehrere durch eine an das UAV angeschlossene Bildgebungseinrichtung aufgenommene Bilder zu empfangen, ein Eingabegerät, das dafür konfiguriert ist, anwenderspezifizierte Zielinformationen eines Ziels, die eine vorbestimmte Position oder eine vorbestimmte Größe des Ziels innerhalb eines Bildes von dem einen oder den mehreren Bildern einschließen, zu empfangen, einen Sender, um die anwenderspezifizierten Zielinformationen für das UAV bereitzustellen, und eine Anzeige, die dafür konfiguriert ist, das eine oder die mehreren Bilder und einen mit dem Ziel verknüpften Verfolgungsanzeiger innerhalb des einen oder der mehreren Bilder anzuzeigen, wobei der Verfolgungsanzeiger anzeigt, dass das Ziel durch das UAV im Wesentlichen in Echtzeit entsprechend den anwenderspezifizierten Zielinformationen verfolgt wird.According to another aspect of the present invention, an apparatus for controlling an unmanned aerial vehicle (UAV) is provided. The apparatus includes: a receiver configured to receive, in substantially real-time, one or more images captured by an imager connected to the UAV, an input device configured to provide user-specified destination information of a target having a predetermined position or include a predetermined size of the destination within an image of the one or more images, receive a sender to provide the user-specified destination information for the UAV, and a display configured to store the one or more images and an image with the goal of displaying a tracking indicator associated with the target within the one or more images, wherein the tracking indicator indicates that the target is being tracked by the UAV in substantially real time according to the user specified target information.

Nach einem anderen Aspekt der vorliegenden Erfindung wird ein System zum Steuern eines unbemannten Luftfahrzeugs (UAV) bereitgestellt. Das System umfasst Folgendes: einen Empfänger, der dafür konfiguriert ist, im Wesentlichen in Echtzeit, eines oder mehrere durch eine an das UAV angeschlossene Bildgebungseinrichtung aufgenommene Bilder zu empfangen, ein Eingabegerät, das dafür konfiguriert ist, anwenderspezifizierte Zielinformationen eines Ziels, die eine vorbestimmte Position oder eine vorbestimmte Größe des Ziels innerhalb eines Bildes von dem einen oder den mehreren Bildern einschließen, zu empfangen, einen Sender, um die anwenderspezifizierten Zielinformationen für das UAV bereitzustellen, und eine Anzeige, die dafür konfiguriert ist, das eine oder die mehreren Bilder und einen mit dem Ziel verknüpften Verfolgungsanzeiger innerhalb des einen oder der mehreren Bilder anzuzeigen, wobei der Verfolgungsanzeiger anzeigt, dass das Ziel durch das UAV im Wesentlichen in Echtzeit entsprechend den anwenderspezifizierten Zielinformationen verfolgt wird.According to another aspect of the present invention, a system for controlling an unmanned aerial vehicle (UAV) is provided. The system includes: a receiver configured to receive, in substantially real-time, one or more images captured by an imager connected to the UAV, an input device configured to provide user-specified destination information of a target having a predetermined position or include a predetermined size of the destination within an image of the one or more images, receive a sender to provide the user-specified destination information for the UAV, and a display configured to store the one or more images and an image with the goal of displaying a tracking indicator associated with the target within the one or more images, wherein the tracking indicator indicates that the target is being tracked by the UAV in substantially real time according to the user specified target information.

Bei einigen Ausführungsformen ist das Eingabegerät ferner dafür konfiguriert, einen oder mehrere Befehle zu empfangen, die dafür eingerichtet sind, eine Geschwindigkeit, Position, Ausrichtung oder Lage des UAV oder einen oder mehrere Betriebsparameter der Bildgebungseinrichtung zu steuern.In some embodiments, the input device is further configured to receive one or more commands configured for speed, position, alignment or position of the UAV or to control one or more operating parameters of the imager.

Bei einigen Ausführungsformen ist die Bildgebungseinrichtung an das UAV angeschlossen über einen Träger, der dafür konfiguriert ist, zu ermöglichen, dass sich die Bildgebungseinrichtung entlang wenigstens einer Achse im Verhältnis zu dem UAV dreht, und wobei das Eingabegerät ferner dafür konfiguriert ist, einen oder mehrere Befehle zu empfangen, die dafür eingerichtet sind, eine Geschwindigkeit, Position, Ausrichtung oder Lage des Trägers zu steuern.In some embodiments, the imaging device is connected to the UAV via a carrier configured to allow the imaging device to rotate along at least one axis relative to the UAV, and wherein the input device is further configured to execute one or more commands receive, which are adapted to control a speed, position, orientation or position of the carrier.

Bei einigen Ausführungsformen ist der Träger dafür konfiguriert, zu ermöglichen, dass sich die Bildgebungseinrichtung um wenigstens zwei Achsen im Verhältnis zu dem UAV dreht.In some embodiments, the carrier is configured to allow the imager to rotate about at least two axes relative to the UAV.

Bei einigen Ausführungsformen wird das Ziel durch die Bildgebungseinrichtung entsprechend den Zielinformationen verfolgt über eine automatische Einstellung an wenigstens einem von dem UAV, dem Träger oder der Bildgebungseinrichtung.In some embodiments, the target is tracked by the imaging device in accordance with the target information via automatic adjustment to at least one of the UAV, the carrier, or the imaging device.

Bei einigen Ausführungsformen ist ein zweites Eingabegerät eingeschlossen und dafür konfiguriert, einen oder mehrere Befehle zu empfangen, die dafür eingerichtet sind, eine Geschwindigkeit, Position, Ausrichtung oder Lage des UAV oder einen oder mehrere Betriebsparameter der Bildgebungseinrichtung zu steuern.In some embodiments, a second input device is included and configured to receive one or more commands configured to control a speed, position, orientation, or location of the UAV or one or more operating parameters of the imager.

Bei einigen Ausführungsformen ist die Bildgebungseinrichtung an das UAV angeschlossen über einen Träger, der dafür konfiguriert ist, zu ermöglichen, dass sich die Bildgebungseinrichtung entlang wenigstens einer Achse im Verhältnis zu dem UAV dreht, und wobei das System ferner ein zweites Eingabegerät umfasst, das dafür konfiguriert ist, einen oder mehrere Befehle zu empfangen, die dafür eingerichtet sind, eine Geschwindigkeit, Position, Ausrichtung oder Lage des Trägers zu steuern.In some embodiments, the imaging device is connected to the UAV via a carrier configured to allow the imaging device to rotate along at least one axis relative to the UAV, and the system further includes a second input device configured therefor is to receive one or more commands adapted to control a speed, position, orientation or attitude of the wearer.

Bei einigen Ausführungsformen schließen der eine oder die mehreren Betriebsparameter der Bildgebungseinrichtung Brennweite, Zoomniveau, Bildgebungsmodus, Bildauflösung, Brennpunkt, Schärfentiefe, Belichtung, Lichtstärke oder Gesichtsfeld ein.In some embodiments, the one or more operating parameters of the imager include focal length, zoom level, imaging mode, image resolution, focus, depth of field, exposure, intensity, or field of view.

Bei einigen Ausführungsformen wird das Ziel durch die Bildgebungseinrichtung entsprechend den Zielinformationen verfolgt über eine automatische Einstellung an wenigstens einem von dem UAV, dem Träger oder der Bildgebungseinrichtung.In some embodiments, the target is tracked by the imaging device in accordance with the target information via automatic adjustment to at least one of the UAV, the carrier, or the imaging device.

Bei einigen Ausführungsformen schließt die vorbestimmte Position eine anfängliche Position des Ziels ein.In some embodiments, the predetermined position includes an initial position of the target.

Bei einigen Ausführungsformen schließt die vorbestimmte Größe eine anfängliche Größe des Ziels ein.In some embodiments, the predetermined size includes an initial size of the target.

Bei einigen Ausführungsformen schließt die vorbestimmte Position eine erwartete Position des Ziels ein.In some embodiments, the predetermined position includes an expected position of the target.

Bei einigen Ausführungsformen schließt die vorbestimmte Größe eine erwartete Größe des Ziels ein.In some embodiments, the predetermined size includes an expected size of the target.

Bei einigen Ausführungsformen schließen die Zielinformationen ferner Zielartinformationen ein.In some embodiments, the destination information further includes destination type information.

Bei einigen Ausführungsformen werden die Zielinformationen auf der Grundlage einer Anwenderauswahl des Ziels erzeugt.In some embodiments, the destination information is generated based on user selection of the destination.

Bei einigen Ausführungsformen schließt der Verfolgungsanzeiger eine geometrische Form, eine Prüfmarkierung oder einen Pfeil ein.In some embodiments, the tracking indicator includes a geometric shape, a check mark, or an arrow.

Bei einigen Ausführungsformen schließt die geometrische Form einen Kreis, ein Rechteck oder ein Dreieck ein.In some embodiments, the geometric shape includes a circle, a rectangle, or a triangle.

Bei einigen Ausführungsformen wird das Ziel durch die Bildgebungseinrichtung entsprechend den Zielinformationen verfolgt über eine automatische Einstellung an wenigstens einem von dem UAV oder der Bildgebungseinrichtung.In some embodiments, the target is tracked by the imaging device in accordance with the target information via automatic adjustment to at least one of the UAV or the imaging device.

Es sollte sich verstehen, dass unterschiedliche Aspekte der Erfindung einzeln, gemeinsam oder in Kombination miteinander wahrgenommen werden können. Verschiedene Aspekte der hierin beschriebenen Erfindung können auf eine beliebige der unten dargelegten besonderen Anwendungen oder für beliebige andere Arten von beweglichen Objekten angewendet werden. Jegliche Beschreibung hierin von Luftfahrzeugen, wie beispielsweise unbemannten Luftfahrzeugen, kann für ein beliebiges bewegliches Objekt, wie beispielsweise ein beliebiges Fahrzeug, gelten und verwendet werden. Außerdem können die hierin im Zusammenhang von Luftbewegung (z. B. Flug) offenbarten Systeme, Einrichtungen und Verfahren ebenfalls im Zusammenhang anderer Bewegungsarten, wie beispielsweise Bewegung auf dem Boden oder auf dem Wasser, Unterwasserbewegung oder Bewegung im Weltraum, angewendet werden.It should be understood that various aspects of the invention may be perceived individually, in common or in combination with one another. Various aspects of the invention described herein may be applied to any of the particular applications set forth below or to any other types of moving objects. Any description herein of aircraft, such as unmanned aerial vehicles, may apply and be used for any movable object, such as any vehicle. In addition, the systems, devices, and methods disclosed herein in the context of air movement (eg, flight) may also be applied in the context of other types of movement, such as ground or water movement, underwater movement, or space movement.

Zusätzliche Aspekte und Vorteile der vorliegenden Offenbarung werden für die Fachleute dieses Gebiets leicht offensichtlich werden aus der folgenden ausführlichen Beschreibung leicht offensichtlich werden, worin nur Ausführungsbeispiele der vorliegenden Offenbarung gezeigt und beschrieben werden, einfach als Veranschaulichung des besten zum Ausführen der vorliegenden Offenbarung vorgesehenen Modus. Wie zu erkennen sein wird, ist die vorliegende Offenbarung zu anderen und abweichenden Ausführungsformen in der Lage, und ihre verschiedenen Einzelheiten sind zu Modifikationen in verschiedenen offensichtlichen Hinsichten in der Lage, alles, ohne von der Offenbarung abzuweichen. Dementsprechend sind die Zeichnungen und die Beschreibung als von veranschaulichender Natur und nicht als einschränkend zu betrachten.Additional aspects and advantages of the present disclosure will be readily apparent to those skilled in the art from the The following detailed description will be readily apparent, with only exemplary embodiments of the present disclosure shown and described, simply to illustrate the best mode contemplated for carrying out the present disclosure. As will be appreciated, the present disclosure is capable of other and different embodiments, and its various details are capable of modification in various obvious respects, all without departing from the disclosure. Accordingly, the drawings and description are to be considered illustrative rather than limiting.

EINBEZIEHUNG DURCH VERWEISINCLUSION BY REFERENCE

Alle in dieser Beschreibung erwähnten Veröffentlichungen, Patente und Patentanmeldungen werden hierin durch Verweis in dem gleichen Maße aufgenommen, als ob jede(s) einzelne Veröffentlichung, Patent und Patentanmeldung spezifisch und einzeln als durch Verweis aufgenommen angegeben wäre.All publications, patents and patent applications mentioned in this specification are hereby incorporated by reference to the same extent as if each individual publication, patent and patent application were specifically and individually indicated as being incorporated by reference.

KURZE BESCHREIBUNG DER ZEICHNUNGENBRIEF DESCRIPTION OF THE DRAWINGS

Die neuartigen Merkmale der Erfindung werden mit Genauigkeit in den angefügten Ansprüchen dargelegt. Ein besseres Verständnis der Merkmale und Vorteile der vorliegenden Erfindung wird erhalten werden, durch Bezugnahme auf die folgende ausführliche Beschreibung, die illustrative Ausführungsformen darlegt, in denen die Prinzipien der Erfindung benutzt werden, und die beigefügten Zeichnungen, von denen:The novel features of the invention are set forth with particularity in the appended claims. A better understanding of the features and advantages of the present invention will be obtained by reference to the following detailed description, which sets forth illustrative embodiments in which the principles of the invention are used, and the accompanying drawings, of which:

1 ein beispielhaftes Zielverfolgungssystem, nach Ausführungsformen, illustriert, 1 an exemplary tracking system, according to embodiments illustrated,

2 einen beispielhaften Fluss von bildbezogenen Daten zwischen Bestandteilen in einem Verfolgungssystem, nach Ausführungsformen, illustriert, 2 illustrate an exemplary flow of image related data between constituents in a tracking system, according to embodiments;

3 einen beispielhaften Fluss von Steuerdaten zwischen Bestandteilen in einem Verfolgungssystem, nach Ausführungsformen, illustriert, 3 illustrate an exemplary flow of control data between constituents in a tracking system, according to embodiments;

4 einen beispielhaften Prozess zum Umsetzen von Zielverfolgung, nach Ausführungsformen, illustriert, 4 illustrate an example process for implementing goal tracking, according to embodiments;

5 eine beispielhafte Konfiguration eines beweglichen Objekts, eines Trägers und einer Nutzlast, nach Ausführungsformen, illustriert, 5 10 illustrates an exemplary configuration of a moving object, a carrier, and a payload, according to embodiments;

6 ein beispielhaftes Verfolgungsverfahren zum Aufrechterhalten einer erwarteten Position eines Ziels, nach Ausführungsformen, illustriert, 6 an exemplary tracking method for maintaining an expected position of a target, according to embodiments, illustrated,

7 ein beispielhaftes Verfolgungsverfahren zum Aufrechterhalten einer erwarteten Größe eines Ziels, nach Ausführungsformen, illustriert, 7 an exemplary tracking method for maintaining an expected size of a target, according to embodiments, illustrated,

8 einen anderen beispielhaften Prozess zum Umsetzen von Zielverfolgung, nach Ausführungsformen, illustriert, 8th Figure 11 illustrates another example process for implementing target tracking, according to embodiments;

9 einen beispielhaften Prozess zum Steuern eines beweglichen Objekts, um zu navigieren und zu verfolgen, nach Ausführungsformen, illustriert, 9 an exemplary process for controlling a moving object to navigate and track, according to embodiments, illustrated,

10 einen beispielhaften Prozess zum Auswählen eines Ziels, nach Ausführungsformen, illustriert, 10 an exemplary process for selecting a target, according to embodiments illustrated,

11 einen beispielhaften Prozess zum Betrachten eines verfolgten Ziels, nach Ausführungsformen, illustriert, 11 an exemplary process for viewing a tracked goal, according to embodiments, illustrated,

12 eine beispielhafte Leitstation zum Steuern eines beweglichen Objekts, nach Ausführungsformen, illustriert, 12 an exemplary control station for controlling a moving object, according to embodiments, illustrated,

13A bis C beispielhafte Verfahren zum Auswählen eines Ziels unter Verwendung einer Anwenderschnittstelle, nach Ausführungsformen, illustrieren, 13A FIGS. 1A to C illustrate exemplary methods for selecting a target using a user interface, according to embodiments;

14 ein UAV, nach Ausführungsformen, illustriert, 14 a UAV, according to embodiments illustrated,

15 ein bewegliches Objekt, das einen Träger und eine Nutzlast einschließt, nach Ausführungsformen, illustriert, 15 a movable object including a carrier and a payload, according to embodiments illustrated,

16 ein beispielhaftes System zum Verfolgen eines beweglichen Objekts, nach Ausführungsformen, illustriert, 16 an exemplary system for tracking a moving object, according to embodiments illustrated,

17 ein beispielhaftes System zum Steuern eines beweglichen Objekts, nach Ausführungsformen, illustriert, 17 an exemplary system for controlling a moving object, according to embodiments illustrated,

18 einen beispielhaften Anwendungsfall für die vorliegende Erfindung illustriert. 18 illustrates an exemplary use case for the present invention.

AUSFÜHRLICHE BESCHREIBUNG DER ERFINDUNGDETAILED DESCRIPTION OF THE INVENTION

Die vorliegende Erfindung stellt Systeme Verfahren und Einrichtungen bereit, die mit der Zielverfolgung unbemannte Luftfahrzeuge (UAV) verbunden sind. Ein UAV kann dafür konfiguriert sein, Zielinformationen bezüglich eines durch eine an das UAV angeschlossene Bildgebungseinrichtung zu verfolgenden Ziels von einer Leitstation zu empfangen. Die Zielinformationen können durch das UAV verwendet werden, um automatisch zu veranlassen, dass die Bildgebungseinrichtung das Ziel verfolgt, um so eine vorbestimmte Position und/oder Größe des Ziels innerhalb eines oder mehrerer durch die Bildgebungseinrichtung aufgenommener Bilder zu halten. Die Verfolgung es Ziels kann durchgeführt werden, während das UAV gesteuert wird, um entsprechend Anwenderbefehlen und/oder vorbestimmter Navigationsbahnen zu navigieren. Die Leitstation kann dafür konfiguriert sein, Bilder von der Bildgebungseinrichtung anzuzeigen sowie eine Anwendereingabe bezüglich der Zielinformation zu ermöglichen.The present invention provides systems and apparatus associated with tracking Unmanned Aerial Vehicles (UAV). A UAV may be configured to receive destination information regarding a destination to be followed by an imager connected to the UAV from a control station. The target information can be used by the UAV to automatically cause the Imaging device tracks the target so as to maintain a predetermined position and / or size of the target within one or more images captured by the imager. The tracking of the target may be performed while the UAV is being controlled to navigate according to user commands and / or predetermined navigation lanes. The control station may be configured to display images from the imaging device as well as to allow user input regarding the destination information.

Unter Verwendung der hierin bereitgestellten Verfahren und Systeme kann ein einzelner Anwender sowohl die Navigation eines UAV als auch die Verfolgung eines Ziels im Wesentlichen gleichzeitig ohne die Hilfe einer zusätzlichen Person steuern. Der Anwender kann eine Anwenderschnittstelle einer Leitstation benutzen, um das zu verfolgende Ziel und/oder die Art des zu verfolgenden Ziels zu spezifizieren. Solche anwenderspezifizierten Zielinformationen können an das UAV übermittelt werden, welches das Ziel autonom verfolgen kann, zum Beispiel unter Verwendung einer Bildgebungseinrichtung an Bord des UAV. Durch die Bildgebungseinrichtung aufgenommene Bilder (z. B. Bilder und/oder Videos) können in Echtzeit zu Anzeige-, Wiedergabe-, Speicher- oder anderen Zwecken an die Leitstation übermittelt werden. Der Anwender kann ebenfalls unter Verwendung der Leitstation das zu verfolgende Ziel in Echtzeit ändern oder einstellen. Vorteilhafterweise kann eine solche autonome Verfolgung durch das UAV durchgeführt werden, während sich der Anwender andere Tätigkeiten, wie beispielsweise das Steuern der Navigation des UAV oder andere Tätigkeiten, betreibt.Using the methods and systems provided herein, a single user may control both the navigation of a UAV and the tracking of a target substantially simultaneously without the assistance of an additional person. The user can use a user interface of a control station to specify the target to be tracked and / or the type of target to track. Such user-specified destination information may be communicated to the UAV, which may autonomously track the destination, for example using an onboard UAV imaging device. Images captured by the imaging device (eg, images and / or videos) may be communicated to the control station in real time for display, playback, storage, or other purposes. The user can also change or set the target to be tracked in real time using the control station. Advantageously, such autonomous tracking can be performed by the UAV while the user is doing other activities, such as controlling the navigation of the UAV or other activities.

Zum Beispiel kann eine Anwenderin das UAV dafür konfigurieren, sie selbst zu verfolgen, wenn sie eine Vielzahl von Tätigkeiten, wie beispielsweise Wandern oder Radfahren, betreibt. Sie kann unter Verwendung der durch die Leitstation bereitgestellten Anwenderschnittstelle sich selbst als das Verfolgungsziel für das UAV spezifizieren. Zum Beispiel kann sie sich selbst als das Ziel von einem Bild auswählen, das auf einer Anwenderschnittstelle der Leitstation angezeigt wird, zum Beispiel unter Verwendung eines Berührungsbildschirms. Sobald die Zielinformationen an das UAV übermittelt sind, kann die Anwenderin von den mit dem manuellen Verfolgen eines Ziels verbundenen Tätigkeiten auf niederer Ebene, wie beispielsweise dem Einstellen des UAV, des Trägers oder der Bildgebungseinrichtung entlastet werden. Stattdessen kann sie sich auf andere Tätigkeiten, wie beispielsweise das Radfahren, konzentrieren, während das UAV sie automatisch in Echtzeit auf der Grundlage der bereitgestellten Zielinformationen unter Verwendung der hierin bereitgestellten Verfahren verfolgt. Zum Beispiel können die Lage, die Position, die Geschwindigkeit, der Zoom und andere Aspekte des UAV und/oder der Bildgebungseinrichtung automatisch eingestellt werden, um sicherzustellen, dass die Anwenderin eine ausgewiesene Position und/oder Größe innerhalb der durch die Bildgebungseinrichtung aufgenommenen Bilder aufrechterhält. Während des Verfolgungsvorgangs aufgenommene Bilder (z. B. Videos oder Bilder) können zu Anzeige-, Wiedergabe-, Speicher- oder anderen Zwecken in Echtzeit oder im Wesentlichen in Echtzeit zu der Leitstation gestreamt werden. Alles das obige kann durch eine Person auf eine verhältnismäßig einfache Weise erreicht werden, was es für Anwender leichter macht, zuvor schwierig zu erreichende Aufgaben zu erreichen.For example, a user may configure the UAV to track it itself when doing a variety of activities, such as walking or cycling. It may specify itself as the tracking target for the UAV using the user interface provided by the control station. For example, it may select itself as the destination of an image displayed on a user interface of the control station, for example, using a touch screen. Once the target information is transmitted to the UAV, the user may be relieved of the low level activities associated with manually tracking a target, such as adjusting the UAV, the carrier, or the imaging device. Instead, it may focus on other activities, such as cycling, as the UAV automatically tracks them in real time based on the provided destination information using the methods provided herein. For example, the location, position, speed, zoom, and other aspects of the UAV and / or the imaging device may be automatically adjusted to ensure that the user maintains a designated position and / or size within the images captured by the imaging device. Images captured during the tracking process (eg, videos or images) may be streamed to the control station in real time or substantially in real time for display, playback, storage, or other purposes. All of the above can be achieved by a person in a relatively simple manner, making it easier for users to accomplish previously difficult-to-accomplish tasks.

Solche Verfolgungsverfahren und -systeme, wie hierin beschrieben, erleichtern vorteilhafterweise die Automatisierung des Steuerungsanteils auf niederer Ebene des Verfolgungsvorgangs, um so die erforderlichen Anstrengungen und die sich aus manueller Verfolgung ergebenden Fehler zu verringern. Zur gleichen Zeit erlauben es die hierin beschriebenen Verfolgungsverfahren und -systeme Anwendern doch, falls gewünscht, die Steuerung des Verfolgungsvorgangs auf hoher Ebene (z. B. durch das Spezifizieren der Art des zu verfolgenden Ziels) aufrechtzuerhalten.Such tracking methods and systems, as described herein, advantageously facilitate the automation of the low-level control portion of the tracking process so as to reduce the effort required and the errors resulting from manual tracking. At the same time, the tracking methods and systems described herein allow users to maintain high-level tracking control, if desired, (eg, by specifying the type of target being tracked).

1 illustriert ein beispielhaftes Zielverfolgungssystem 100, nach Ausführungsformen. Das System 100 schließt ein bewegliches Objekt 101 und eine Leitstation 112 ein. Das System 100 kann dazu verwendet werden, ein oder mehrere Ziele 116 zu verfolgen. Obwohl das bewegliche Objekt 101 als ein unbemanntes Luftfahrzeug (UAV) abgebildet ist, ist diese Abbildung nicht als begrenzend vorgesehen, und es kann eine beliebige geeignete Art von beweglichem Objekt verwendet werden, wie hierin beschrieben. Eine Person vom Fach würde erkennen, dass jegliche der hierin im Zusammenhang von Flugzeugsystemen beschriebenen Ausführungsformen auf ein beliebiges geeignetes bewegliches Objekt angewendet werden kann. 1 illustrates an exemplary tracking system 100 , according to embodiments. The system 100 closes a moving object 101 and a control station 112 one. The system 100 Can be used to one or more goals 116 to pursue. Although the moving object 101 as an unmanned aerial vehicle (UAV), this mapping is not intended to be limiting, and any suitable type of moving object may be used, as described herein. One skilled in the art would recognize that any of the embodiments described herein in the context of aircraft systems may be applied to any suitable moving object.

Bei einigen Ausführungsformen kann das bewegliche Objekt 101 einen Träger 102 und eine Nutzlast 104 einschließen. Der Träger 102 kann es ermöglichen, dass sich die Nutzlast 104 im Verhältnis zu dem beweglichen Objekt 101 bewegt. Zum Beispiel kann es der Träger 102 ermöglichen, dass sich die Nutzlast 104 um eine, zwei, drei oder mehr Achsen dreht. Alternativ kann es der Träger 102 ermöglichen, dass sich die Nutzlast 104 entlang einer, zweier, dreier oder mehr Achsen dreht. Die Achsen für die Dreh- oder Verschiebungsbewegung können senkrecht zueinander sein oder nicht.In some embodiments, the moving object 101 a carrier 102 and a payload 104 lock in. The carrier 102 it can allow that payload 104 in relation to the moving object 101 emotional. For example, it may be the wearer 102 allow for the payload 104 rotates one, two, three or more axes. Alternatively, it may be the carrier 102 allow for the payload 104 rotates along one, two, three or more axes. The axes for the rotational or displacement movement may be perpendicular to each other or not.

Bei einigen Ausführungsformen kann die Nutzlast 104 derart starr an das bewegliche Objekt 101 gekoppelt oder mit demselben verbunden sein, dass die Nutzlast 104 im Wesentlichen unbeweglich im Verhältnis zu dem beweglichen Objekt 101 bleibt. Zum Beispiel kann der Träger 102, der das bewegliche Objekt und die Nutzlast 104 verbindet, nicht ermöglichen, dass sich die Nutzlast 104 im Verhältnis zu dem beweglichen 101 Objekt 101 bewegt. Alternativ kann die Nutzlast 104 unmittelbar an das bewegliche Objekt 101 gekoppelt sein, ohne einen Träger zu erfordern.In some embodiments, the payload 104 so rigidly to the moving object 101 coupled or connected to the same, that the payload 104 essentially immobile in relation to the moving object 101 remains. For example, the carrier 102 , the moving object and the payload 104 connects, does not allow the payload 104 relative to the moving one 101 object 101 emotional. Alternatively, the payload 104 directly to the moving object 101 be coupled without requiring a carrier.

Bei einigen Ausführungsformen kann die Nutzlast 104 einen oder mehrere Sensoren zum Überwachen oder Verfolgen eines oder mehrerer Ziele 116 einschließen. Beispiele einer solchen Nutzlast können eine Bildaufnahmeeinrichtung oder Bildgebungseinrichtung (z. B. eine Kamera oder einen Kamerarekorder, eine Infrarot-Bildgebungseinrichtung, eine Ultraviolett-Bildgebungseinrichtung oder dergleichen), eine Audioaufnahmeeinrichtung (z. B. ein Parabolspiegelmikrofon), eine Infrarot-Bildgebungseinrichtung oder dergleichen einschließen. Jegliche(r) geeignete(r) Sensor(en) kann/können in die Nutzlast 104 eingeschlossen sein, um jegliche visuellen, akustischen, elektromagnetischen oder jegliche anderen wünschenswerten Signale zu erfassen. Die Sensoren können statische Sensordaten (z. B. eine Fotografie) oder dynamische Sensordaten (z. B. ein Video) bereitstellen. Die Sensoren können Sensordaten kontinuierlich in Echtzeit oder mit hohen Frequenzen erfassen.In some embodiments, the payload 104 one or more sensors for monitoring or tracking one or more targets 116 lock in. Examples of such a payload may include an image capture device or imaging device (eg, a camera or a camera recorder, an infrared imaging device, an ultraviolet imaging device, or the like), an audio capture device (eg, a parabolic mirror microphone), an infrared imaging device, or the like lock in. Any suitable sensor (s) may enter the payload 104 be included to detect any visual, acoustic, electromagnetic or any other desirable signals. The sensors may provide static sensor data (eg, a photograph) or dynamic sensor data (eg, a video). The sensors can acquire sensor data continuously in real time or at high frequencies.

Bei verschiedenen Ausführungsformen kann das durch das bewegliche Objekt 101 verfolgte Ziel 116 jegliche natürliche oder künstliche Objekte oder Strukturen, wie beispielsweise Landschaften (z. B. Berge, Vegetation, Täler, Seen oder Flüsse), Gebäude, Fahrzeuge (z. B. Flugzeuge, Schiffe, Autos, Lastkraftwagen, Busse, Lieferwagen oder Motorrad) einschließen. Das Ziel 116 kann ebenfalls lebende Subjekte, wie beispielsweise Personen oder Tiere, einschließen. Das Ziel 116 kann im Verhältnis zu einem beliebigen geeigneten Bezugsrahmen sich bewegend oder unbeweglich sein. Der Bezugsrahmen kann ein verhältnismäßig fixierter Bezugsrahmen (zum Beispiel das umgebende Umfeld oder die Erde) sein. Alternativ kann der Bezugsrahmen ein sich bewegender Bezugsrahmen (z. B. ein sich bewegendes Fahrzeug) sein. Bei verschiedenen Ausführungsformen kann das Ziel 116 ein passives Ziel oder ein aktives Ziel einschließen. Ein aktives Ziel kann dafür konfiguriert sein, Informationen über das Ziel, wie beispielsweise die GPS-Position des Ziels, an das bewegliche Objekt zu übermitteln. Die Informationen können über drahtlose Kommunikation von einer Kommunikationseinheit des aktiven Ziels zu einer Kommunikationseinheit des beweglichen Objekts übermittelt werden. Beispiele eines aktiven Ziels können ein(e) freundliche(s) Fahrzeug, Gebäude, Truppe oder dergleichen einschließen. Ein passives Ziel ist nicht dafür konfiguriert, Informationen über das Ziel zu übermitteln. Beispiele eines passiven Ziels können ein(e) neutrale(s) oder feindliche(s) Fahrzeug, Gebäude, Truppe und dergleichen einschließen.In various embodiments, this may be due to the moving object 101 pursued goal 116 any natural or artificial objects or structures, such as landscapes (eg mountains, vegetation, valleys, lakes or rivers), buildings, vehicles (eg, airplanes, ships, cars, trucks, buses, vans or motorcycles) , The goal 116 may also include living subjects, such as persons or animals. The goal 116 may be moving or immobile relative to any suitable reference frame. The frame of reference may be a relatively fixed frame of reference (for example, the surrounding environment or the earth). Alternatively, the frame of reference may be a moving frame of reference (eg, a moving vehicle). In various embodiments, the destination may be 116 include a passive goal or an active goal. An active target may be configured to communicate information about the target, such as the GPS position of the target, to the moving object. The information may be communicated via wireless communication from a communication unit of the active destination to a communication unit of the mobile object. Examples of an active destination may include a friendly vehicle, building, troop, or the like. A passive target is not configured to convey information about the target. Examples of a passive target may include a neutral or enemy vehicle, buildings, troop, and the like.

Das bewegliche Objekt 101 kann dafür konfiguriert sein, Steuerdaten zu empfangen, und die Leitstation 112 kann dafür konfiguriert sein, sie bereitzustellen. Die Steuerdaten können dazu verwendet werden, unmittelbar oder mittelbar Aspekte des beweglichen Objekts 101 zu steuern. Bei einigen Ausführungsformen können die Steuerdaten Navigationsbefehle zum Steuern von Navigationsparametern des beweglichen Objekts, wie beispielsweise der Position, Geschwindigkeit, Ausrichtung oder Lage des beweglichen Objekts 101, einschließen. Die Steuerdaten können dazu verwendet werden, den Flug eines UAV zu steuern. Die Steuerdaten können den Betrieb einer oder mehrerer Antriebseinheiten 106 zu beeinflussen, die den Flug des UAV beeinflussen können. In anderen Fällen können die Steuerdaten Befehle zum Steuern einzelner Bestandteile des beweglichen Objekts 101 einschließen. Zum Beispiel können die Steuerdaten Informationen zum Steuern der Operationen des Trägers 102 einschließen. Zum Beispiel können die Steuerdaten dazu verwendet werden, einen Betätigungsmechanismus des Trägers 102 zu steuern, um so eine Winkel- und/oder lineare Bewegung der Nutzlast 104 im Verhältnis zu dem beweglichen Objekt 101 zu veranlassen. Als ein anderes Beispiel können die Steuerdaten dazu verwendet werden, die Bewegung des Trägers 102 ohne die Nutzlast zu steuern. Als ein anderes Beispiel können die Steuerdaten dazu verwendet werden, einen oder mehrere Betriebsparameter für die Nutzlast 104, wie beispielsweise das Aufnehmen von Stand- oder Bewegtbildern, Herein- oder Herauszoomen, Ein- oder Ausschalten, Umschalten von Bildmodi, Ändern der Bildauflösung, Ändern des Brennpunkts, Ändern der Schärfentiefe, Ändern der Belichtungszeit, Ändern der Lichtstärke, Ändern des Blickwinkels oder Gesichtsfelds oder dergleichen, einzustellen. Bei anderen Ausführungsformen können die Steuerdaten dazu verwendet werden, ein Sensorsystem (nicht gezeigt), ein Kommunikationssystem (nicht gezeigt) und dergleichen des beweglichen Objekts 101 zu steuern.The moving object 101 may be configured to receive control data and the control station 112 may be configured to provide it. The control data can be used to directly or indirectly affect aspects of the moving object 101 to control. In some embodiments, the control data may include navigational commands for controlling navigation parameters of the mobile object, such as the position, velocity, orientation, or location of the mobile object 101 , lock in. The control data can be used to control the flight of a UAV. The control data may include the operation of one or more drive units 106 affecting the flight of the UAV. In other cases, the control data may include commands for controlling individual components of the mobile object 101 lock in. For example, the control data may be information for controlling the operations of the wearer 102 lock in. For example, the control data may be used to control an actuating mechanism of the carrier 102 to control, so an angular and / or linear movement of the payload 104 in relation to the moving object 101 to induce. As another example, the control data may be used to determine the motion of the wearer 102 without controlling the payload. As another example, the control data may be used to specify one or more operating parameters for the payload 104 such as taking still or moving pictures, zooming in or out, turning on or off, switching picture modes, changing the picture resolution, changing the focus, changing the depth of field, changing the shutter speed, changing the light level, changing the angle of view or field of view or the like. In other embodiments, the control data may be used for a sensor system (not shown), a communication system (not shown), and the like of the moving object 101 to control.

Bei einigen Ausführungsformen können die Steuerdaten von der Leitstation 112 Zielinformationen einschließen. In einigen Fällen können die Zielinformationen Charakteristika eines spezifischen Ziels, wie beispielsweise eine anfängliche Position (z. B. Koordinaten) und/oder Größe eines Ziels innerhalb eines oder mehrerer durch eine durch das bewegliche Objekt 101 getragene Bildgebungseinrichtung aufgenommener Bilder einschließen. Außerdem oder alternativ können die Zielinformationen Zielartinformationen, wie beispielsweise Charakteristika einer Art oder Kategorie von Zielen, einschließlich von Farbe, Textur, Muster, Größe, Form, Abmessung und dergleichen, einschließen. Die Zielinformationen können eine Datendarstellung eines Bildes des Ziels einschließen. Dies kann ein Bild des Ziels in einem Gesichtsfeld einschließen. Das Gesichtsfeld kann durch die durch die Bildgebungseinrichtung aufgenommenen Bilder definiert oder umschlossen werden.In some embodiments, the control data may be from the control station 112 Include destination information. In some cases, the destination information may include characteristics of a specific destination, such as an initial location (eg, coordinates) and / or size of a destination within one or more of the locations by the moving object 101 include captured imaging of captured images. Additionally or alternatively, the destination information may include destination type information, such as characteristics of a type or category of destinations, including Color, texture, pattern, size, shape, dimension, and the like. The destination information may include a data representation of an image of the destination. This may include an image of the target in a field of view. The field of view may be defined or enclosed by the images taken by the imaging device.

Die Zielinformationen können ebenfalls erwartete Zielinformationen einschließen. Die erwarteten Zielinformationen spezifizieren die Charakteristika, von denen erwartet wird, dass sie das verfolgte Ziel in den durch die Bildgebungseinrichtung aufgenommenen Bildern erfüllt. Die erwarteten Zielinformationen können dazu verwendet werden, das bewegliche Objekt, den Träger und/oder die Bildgebungseinrichtung so einzustellen, dass das verfolgte Ziel in einem oder mehreren Bildern eine Erscheinung nach den erwarteten Zielinformationen aufrechterhält. Zum Beispiel kann das Ziel so verfolgt werden, dass es eine erwartete Position und/oder Größe innerhalb eines oder mehrerer durch die Bildgebungseinrichtung aufgenommener Bilder aufrechterhält. Zum Beispiel kann die erwartete Position des verfolgten Ziels nahe der Mitte des Bildes oder außermittig liegen. Die erwartete Größe des verfolgten Ziels kann um eine bestimmte Anzahl von Pixeln liegen. Die erwarteten Zielinformationen können die gleichen sein wie die anfänglichen Zielinformationen oder nicht. Bei verschiedenen Ausführungsformen können die erwarteten Zielinformationen durch die Leitstation bereitgestellt werden oder nicht. Zum Beispiel können die erwarteten Zielinformationen in der durch eine Verarbeitungseinheit an Bord des beweglichen Objekts ausgeführten Steuerlogik fest codiert, in einem Datenspeicher am Ort des beweglichen Objekts und/oder fern von demselben gespeichert oder von anderen geeigneten Quellen erlangt werden.The destination information may also include expected destination information. The expected target information specifies the characteristics that are expected to satisfy the tracked target in the images captured by the imager. The expected target information may be used to set the moving object, the carrier, and / or the imaging device so that the tracked target in one or more images will maintain a look-up for the expected target information. For example, the target may be tracked to maintain an expected position and / or size within one or more images captured by the imaging device. For example, the expected position of the tracked target may be near the center of the image or off-center. The expected size of the tracked target may be around a certain number of pixels. The expected destination information may be the same as the initial destination information or not. In various embodiments, the expected destination information may or may not be provided by the control station. For example, the expected destination information in the control logic executed by a processing unit aboard the mobile object may be hard-coded, stored in a data memory at and / or remote from the location of the mobile object, or obtained from other suitable sources.

Bei einigen Ausführungsformen können die Zielinformationen (einschließlich spezifischer Zielinformationen und Zielartinformationen) wenigstens zum Teil an der Leitstation 112 erzeugt werden. Zusätzlich oder alternativ können die Zielinformationen auf der Grundlage von Daten aus anderen Quellen erzeugt werden. Zum Beispiel können die Zielartinformationen auf der Grundlage vorhergehender Bilder und/oder aus örtlichen oder fernen Datenspeichern herausgezogener Daten abgeleitet werden. Die Bilder könnten zuvor durch die an das bewegliche Objekt 101 angeschlossene Bildgebungseinrichtung 104 oder andere Einrichtungen aufgenommen worden sein. Die Bilder könnten rechnererzeugt sein. Solche Zielartinformationen können durch den Anwender ausgewählt und/oder automatisch durch Voreinstellung für das bewegliche Objekt bereitgestellt werden.In some embodiments, the destination information (including specific destination information and destination type information) may be at least in part at the control station 112 be generated. Additionally or alternatively, the destination information may be generated based on data from other sources. For example, the destination type information may be derived based on previous images and / or data extracted from local or remote data stores. The images could previously be sent to the moving object 101 connected imaging device 104 or other facilities. The pictures could be computer generated. Such target type information may be selected by the user and / or automatically provided by presetting the moving object.

Die Zielinformationen können durch das bewegliche Objekt 101 dazu verwendet werden, ein oder mehrere Ziele 116 zu verfolgen. Das Verfolgen und jegliche andere zugehörige Datenverarbeitung können wenigstens zum Teil durch einen oder mehrere Prozessoren an Bord des beweglichen Objekts 101 durchgeführt werden. Bei einigen Ausführungsformen können die Zielinformationen dazu verwendet werden, durch das bewegliche Objekt das zu verfolgende Ziel 116 zu identifizieren. Eine solche Identifizierung des Ziels kann auf der Grundlage der anfänglichen Zielinformationen einschließlich der spezifischen Charakteristika eines bestimmten Ziels (z. B. anfängliche Koordinaten eines Ziels innerhalb eines durch das bewegliche Objekt aufgenommenen Bildes) oder allgemeiner Charakteristika einer Art von Ziel (z. B. Farbe und/oder Textur des/der zu verfolgenden Ziels/Ziele) durchgeführt werden. In einigen Fällen kann die Zielidentifizierung jegliche geeignete Bilderkennungs- und/oder -abgleichsalgorithmen einbeziehen. Bei einigen Ausführungsformen schließt die Zielidentifizierung das Vergleichen von zwei oder mehr Bildern ein, um in denselben enthaltene Merkmale zu bestimmen, herauszuziehen und/oder abzugleichen.The destination information can be determined by the moving object 101 be used to one or more goals 116 to pursue. The tracking and any other associated data processing may be performed, at least in part, by one or more processors on board the mobile object 101 be performed. In some embodiments, the target information may be used to determine the target to be tracked by the moving object 116 to identify. Such identification of the target may be based on the initial target information including the specific characteristics of a particular target (eg, initial coordinates of a target within an image captured by the mobile object) or general characteristics of a type of target (eg, color and / or texture of the target (s) to be tracked). In some cases, the destination identifier may include any suitable image recognition and / or matching algorithms. In some embodiments, the destination identifier includes comparing two or more images to determine, extract, and / or match features contained therein.

Sobald ein Ziel identifiziert ist, können die erwarteten Zielinformationen dazu verwendet werden, eine Abweichung von erwarteten Charakteristika des Ziels, wie beispielsweise erwarteter Position und/oder Größe, zu erkennen. Bei einigen Ausführungsformen können gegenwärtige Zielcharakteristika oder -informationen auf der Grundlage eines oder mehrerer durch das bewegliche Objekt aufgenommener Bilder bestimmt werden. Die gegenwärtigen Zielinformationen können mit den durch die Leitstation bereitgestellten erwarteten Zielinformationen verglichen werden, um die Abweichung von denselben zu bestimmen. Eine Änderung bei der Position des Ziels kann erkannt werden durch das Vergleichen von Koordinaten des Ziels (z. B. der Koordinaten eines Mittelpunkts des Ziels) innerhalb eines Bildes mit den Koordinaten der erwarteten Zielposition. Eine Änderung bei der Größe des Ziels kann erkannt werden durch das Vergleichen der Größe der durch das Ziel bedeckten Fläche (z. B. in Pixeln) mit der erwarteten Zielgröße. Bei einigen Ausführungsformen kann eine Änderung bei der Größe durch das Erkennen einer Ausrichtung, von Begrenzungen oder anderen Charakteristika des Ziels erkannt werden.Once a target is identified, the expected target information may be used to detect a deviation from expected characteristics of the target, such as expected position and / or size. In some embodiments, current target characteristics or information may be determined based on one or more images taken by the mobile object. The current destination information may be compared with the expected destination information provided by the control station to determine the deviation therefrom. A change in the position of the target can be detected by comparing coordinates of the target (eg, the coordinates of a center of the target) within an image with the coordinates of the expected target position. A change in the size of the target can be detected by comparing the size of the area covered by the target (eg, in pixels) with the expected target size. In some embodiments, a change in size may be detected by detecting an orientation, limitations, or other characteristics of the target.

Wenigstens zum Teil auf der Grundlage der erkannten Abweichung können Steuersignale erzeugt werden (zum Beispiel durch einen oder mehrere Prozessoren an Bord des beweglichen Objekts), die eine Einstellung bewirken, welche die erkannte Abweichung im Wesentlichen berichtigt. Daher kann die Einstellung dazu verwendet werden, ein oder mehrere erwartete Zielcharakteristika (z. B. Zielposition und/oder -größe) innerhalb der durch das bewegliche Objekt aufgenommenen Bilder im Wesentlichen aufrechtzuerhalten. Bei einigen Ausführungsformen kann die Einstellung im Wesentlichen in Echtzeit durchgeführt werden, da das bewegliche Objekt vom Anwender bereitgestellte Navigationsbefehle (z. B. Schweben oder Bewegen) und/oder vorbestimmte Navigationsbahnen ausführt. Die Einstellung kann ebenfalls im Wesentlichen in Echtzeit durchgeführt werden, da die Bildgebungseinrichtung ein oder mehrere Bilder aufnimmt. Bei einigen Ausführungsformen kann die Einstellung auf der Grundlage anderer Informationen, wie beispielsweise durch einen oder mehrere Sensoren an Bord des beweglichen Objekt (z. B. Näherungssensor oder GPS-Sensor) erfasster Sensordaten, erzeugt werden. Zum Beispiel können Positionsinformationen des verfolgten Ziels durch einen Näherungssensor erfasst und/oder durch das Ziel selbst (z. B. GPS-Position) bereitgestellt werden. Solche Positionsinformationen können, zusätzlich zu der erkannten Abweichung, verwendet werden, um die Einstellung zu erzeugen.At least in part, based on the detected deviation, control signals may be generated (for example, by one or more processors aboard the mobile object) effecting a setting that substantially corrects the detected deviation. Therefore, the adjustment may be used to provide one or more expected target characteristics (eg, target position and / or size) within the target essentially maintain moving object-captured images. In some embodiments, the adjustment may be performed substantially in real time because the moving object is executing user-provided navigation commands (eg, hovering or moving) and / or predetermined navigation lanes. The adjustment can also be made substantially in real time because the imaging device captures one or more images. In some embodiments, the adjustment may be generated based on other information, such as sensor data sensed by one or more sensors aboard the mobile object (eg, proximity sensor or GPS sensor). For example, positional information of the tracked target may be detected by a proximity sensor and / or provided by the target itself (eg, GPS position). Such position information, in addition to the detected deviation, may be used to generate the adjustment.

Die Einstellung kann das bewegliche Objekt, den Träger und/oder die Nutzlast (z. B. die Bildgebungseinrichtung) betreffen. Zum Beispiel kann die Einstellung bewirken, dass das bewegliche Objekt und/oder die Nutzlast (z. B. die Bildgebungseinrichtung) ihre Position, Lage, Ausrichtung, Winkel- und/oder lineare Geschwindigkeit oder dergleichen ändern. Die Einstellung kann veranlassen, dass der Träger die Nutzlast (z. B. die Bildgebungseinrichtung) im Verhältnis zu dem beweglichen Objekt bewegt, wie beispielsweise um eine, zwei, drei oder mehr Achsen oder entlang derselben, bewegt. Darüber hinaus kann die Einstellung eine Einstellung an dem Zoom, dem Brennpunkt oder anderen Betriebsparametern der Nutzlast (z. B. der Bildgebungseinrichtung) selbst (z. B. Herein-/Herauszoomen) einschließen.The adjustment may relate to the moving object, the carrier and / or the payload (eg the imaging device). For example, the adjustment may cause the movable object and / or the payload (eg, the imager) to change position, location, orientation, angular and / or linear velocity, or the like. The adjustment may cause the carrier to move the payload (eg, the imager) relative to the moving object, such as one or two, three, or more axes, or along the same. Additionally, the adjustment may include adjustment to the zoom, focus, or other operating parameters of the payload (eg, the imager) itself (eg, zooming in / out).

Bei einigen Ausführungsformen kann die Einstellung wenigstens zum Teil auf der Grundlage der Art der erkannten Abweichung erzeugt werden. Zum Beispiel kann eine Abweichung von der erwarteten Zielposition eine Drehung des beweglichen Objekts und/oder der Nutzlast (z. B. über den Träger) um eine, zwei oder drei Drehachsen erfordern. Als ein anderes Beispiel kann eine Abweichung von der erwarteten Zielgröße eine Verschiebungsbewegung des beweglichen Objekts entlang einer geeigneten Achse und/oder Änderungen beim Zoom der Bildgebungseinrichtung (z. B. Herein- oder Herauszoomen) erfordern. Falls zum Beispiel die gegenwärtige oder tatsächliche Zielgröße kleiner ist als die erwartete Zielgröße, kann das bewegliche Objekt näher zu dem Ziel bewegt werden müssen und/oder die Bildgebungseinrichtung kann zu dem Ziel herangezoomt werden müssen. Andererseits kann, falls die gegenwärtige oder tatsächliche Zielgröße größer ist als die erwartete Zielgröße, das bewegliche Objekt weiter weg von dem Ziel bewegt werden müssen und/oder die Bildgebungseinrichtung kann von dem Ziel weggezoomt werden müssen.In some embodiments, the adjustment may be generated based at least in part on the nature of the detected deviation. For example, a deviation from the expected target position may require rotation of the moveable object and / or payload (eg, over the carrier) about one, two, or three axes of rotation. As another example, a deviation from the expected target size may require a displacement movement of the moving object along a suitable axis and / or changes in the zoom of the imaging device (eg, zooming in or out). For example, if the current or actual target size is less than the expected target size, the moving object may need to be moved closer to the target and / or the imager may need to be zoomed in to the target. On the other hand, if the current or actual target size is greater than the expected target size, the moving object may need to be moved farther away from the target and / or the imager may have to be zoomed out of the target.

Bei verschiedenen Ausführungsformen kann die Einstellung, um die Abweichung von den erwarteten Zielinformationen im Wesentlichen zu berichtigen, erreicht werden durch das Steuern eines oder mehrerer steuerbarer Objekte, wie beispielsweise des beweglichen Objekts, des Trägers, der Bildgebungseinrichtung oder einer beliebigen Kombination derselben über Steuersignale. Bei einigen Ausführungsformen können die steuerbaren Objekte ausgewählt werden, um eine Einstellung umzusetzen, und die entsprechenden Steuersignale können wenigstens zum Teil auf der Grundlage der Konfigurationen oder Einstellwerte der steuerbaren Objekte erzeugt werden. Zum Beispiel kann eine Einstellung, die eine Drehung um zwei Achsen (z. B. Gierung und Nicken) einschließt, nur durch eine entsprechende Drehung des beweglichen Objekts um die zwei Achsen erreicht werden, falls die Bildgebungseinrichtung starr an das bewegliche Objekt gekoppelt ist und sich folglich nicht im Verhältnis zu dem beweglichen Objekt bewegen kann. Dies kann der Fall sein, wenn die Bildgebungseinrichtung unmittelbar an das bewegliche Objekt gekoppelt ist oder wenn die Bildgebungseinrichtung über einen Träger an das bewegliche Objekt gekoppelt ist, der eine verhältnismäßige Bewegung zwischen der Bildgebungseinrichtung und dem beweglichen Objekt nicht ermöglicht. Die gleiche zweiachsige Einstellung kann erreicht werden durch das Kombinieren einer Einstellung sowohl an dem beweglichen Objekt als auch an dem Träger, falls der Träger ermöglicht, dass sich die Bildgebungseinrichtung um wenigstens eine Achse im Verhältnis zu dem beweglichen Objekt dreht. In diesem Fall kann der Träger gesteuert werden, um die Drehung um eine oder zwei der zwei für die Einstellung erforderlichen Achsen umzusetzen, und das bewegliche Objekt kann gesteuert werden, um die Drehung um eine oder zwei der zwei Achsen umzusetzen. Zum Beispiel kann der Träger ein einachsiges Kardangelenk einschließen, das es ermöglicht, dass sich die Bildgebungseinrichtung um eine der zwei für die Einstellung erforderlichen Achsen dreht, während die Drehung um die verbleibende Achse durch das bewegliche Objekt erreicht wird. Alternativ kann die gleiche zweiachsige Einstellung durch den Träger allein erreicht werden, falls der Träger ermöglicht, dass sich die Bildgebungseinrichtung um zwei oder mehr Achsen im Verhältnis zu dem beweglichen Objekt dreht. Zum Beispiel kann der Träger ein zweiachsiges oder dreiachsiges Kardangelenk einschließen.In various embodiments, the adjustment to substantially correct the deviation from the expected target information may be achieved by controlling one or more controllable objects, such as the moving object, the carrier, the imager, or any combination thereof via control signals. In some embodiments, the controllable objects may be selected to implement an adjustment, and the corresponding control signals may be generated based at least in part on the configurations or set values of the controllable objects. For example, an adjustment involving rotation about two axes (eg, yaw and pitch) can only be achieved by a corresponding rotation of the moveable object about the two axes if the imager is rigidly coupled to the moveable object consequently can not move in relation to the moving object. This may be the case when the imaging device is directly coupled to the mobile object or when the imaging device is coupled to the mobile object via a carrier that does not allow for relative movement between the imaging device and the mobile object. The same biaxial adjustment can be achieved by combining an adjustment on both the moveable object and the support if the support allows the imaging device to rotate about at least one axis relative to the moveable object. In this case, the carrier can be controlled to implement the rotation about one or two of the two axes required for the adjustment, and the movable object can be controlled to implement the rotation about one or two of the two axes. For example, the carrier may include a uniaxial universal joint that allows the imaging device to rotate about one of the two axes required for adjustment while achieving rotation about the remaining axis through the movable object. Alternatively, the same biaxial adjustment may be achieved by the carrier alone if the carrier allows the imager to rotate about two or more axes relative to the moving object. For example, the carrier may include a biaxial or triaxial universal joint.

Als ein anderes Beispiel kann eine Einstellung, um eine Änderung bei der Größe des Ziels zu berichtigen, erreicht werden durch das Steuern des Herein-/Herauszoomens der Bildgebungseinrichtung (z. B. falls die Bildgebungseinrichtung das erforderliche Zoomniveau unterstützt), durch das Steuern der Bewegung des beweglichen Objekts (z. B., um näher zu oder weiter weg von dem Ziel zu kommen) oder durch eine Kombination aus Herein-/Herauszoomen der Bildgebungseinrichtung und der Bewegung des beweglichen Objekts. Ein Prozessor an Bord des beweglichen Objekts kann die Feststellung treffen, welches Objekt oder welche Kombination von Objekten einzustellen ist. Zum Beispiel kann, falls die Bildgebungseinrichtung ein Zoomniveau, das erforderlich ist, um die erforderliche Größe des Ziels innerhalb eines Bildes aufrechtzuerhalten, nicht unterstützt, das bewegliche Objekt gesteuert werden, um sich zu bewegen, an Stelle des Einstellens des Zoomniveaus der Bildgebungseinrichtung oder zusätzlich dazu.As another example, an adjustment to correct for a change in the size of the target may be achieved by controlling the zooming in / out of the imaging device (eg, if the imaging device supports the required zoom level) by controlling the Moving the moving object (eg, to get closer or farther away from the target) or by a combination of zooming in / out of the imaging device and moving the moving object. A processor on board the mobile object may determine which object or combination of objects to set. For example, if the imager does not support a zoom level required to maintain the required size of the target within an image, the moveable object may be controlled to move, instead of or in addition to adjusting the zoom level of the imager ,

Bei einigen Ausführungsformen kann die Einstellung durch das Berücksichtigen anderer Einschränkungen umgesetzt werden. Zum Beispiel kann in Fällen, wobei die Navigationsbahn des beweglichen Objekts vorbestimmt ist, die Einstellung durch den Träger und/oder die Bildgebungseinrichtung umgesetzt werden, ohne die Bewegung des beweglichen Objekts zu beeinflussen. Die Navigationsbahn des beweglichen Objekts kann zum Beispiel vorbestimmt sein, falls ein entfernter Anwender die Navigation des beweglichen Objekts über eine Leitstation steuert oder falls das bewegliche Objekt (z. B. autonom oder halbautonom) entsprechend einer vorgespeicherten Navigationsbahn navigiert.In some embodiments, the adjustment may be implemented by considering other constraints. For example, in cases where the navigation path of the mobile object is predetermined, the adjustment by the carrier and / or the imaging device can be implemented without affecting the movement of the mobile object. For example, the navigation path of the mobile object may be predetermined if a remote user controls navigation of the mobile object via a control station or if the mobile object (eg, autonomous or semi-autonomous) navigates according to a pre-stored navigation path.

Beispiele anderer Einschränkungen können eine maximale und/oder minimale Grenze für Drehwinkel, Winkel- und/oder lineare Geschwindigkeit, Betriebsparameter und dergleichen für das bewegliche Objekt, den Träger und/oder die Nutzlast (z. B. die Bildgebungseinrichtung) einschließen. Solche maximalen und/oder minimalen Schwellenwerte können verwendet werden, um den Bereich der Einstellung zu begrenzen. Zum Beispiel kann die Winkelgeschwindigkeit des beweglichen Objekts und/oder der Bildgebungseinrichtung um eine bestimmte Achse gedeckelt werden durch eine maximale Winkelgeschwindigkeit, die für das bewegliche Objekt, den Träger und/oder die Nutzlast (z. B. die Bildgebungseinrichtung) zulässig ist. Als ein anderes Beispiel kann die lineare Geschwindigkeit des beweglichen Objekts und/oder der Bildgebungseinrichtung gedeckelt werden durch eine maximale lineare Geschwindigkeit, die für das bewegliche Objekt, den Träger und/oder die Nutzlast (z. B. die Bildgebungseinrichtung) zulässig ist. Als ein anderes Beispiel kann die Einstellung für die Brennweite der Bildgebungseinrichtung durch die maximale und/oder minimale Brennweite der bestimmten Bildgebungseinrichtung begrenzt werden. Bei einigen Ausführungsformen können solche Grenzen vorbestimmt sein und hängen von der besonderen Konfiguration des beweglichen Objekts, des Trägers und/oder der Nutzlast (z. B. der Bildgebungseinrichtung) ab. In einigen Fällen können solche Konfigurationen (z. B. durch einen Hersteller, Administrator oder Anwender) konfigurierbar sein.Examples of other limitations may include a maximum and / or minimum limit for rotational angle, angular and / or linear velocity, operating parameters, and the like for the moving object, the carrier, and / or the payload (eg, the imager). Such maximum and / or minimum thresholds may be used to limit the range of adjustment. For example, the angular velocity of the mobile object and / or the imaging device may be capped about a particular axis by a maximum angular velocity that is permissible for the moving object, the carrier, and / or the payload (eg, the imaging device). As another example, the linear velocity of the moving object and / or the imaging device may be capped by a maximum linear velocity that is permissible for the moving object, the carrier, and / or the payload (eg, the imaging device). As another example, the focal length setting of the imaging device may be limited by the maximum and / or minimum focal length of the particular imaging device. In some embodiments, such limits may be predetermined and depend on the particular configuration of the moving object, the carrier, and / or the payload (eg, the imager). In some cases, such configurations (eg, by a manufacturer, administrator, or user) may be configurable.

Bei einigen Ausführungsformen kann das bewegliche Objekt 112 dafür konfiguriert sein, Daten bereitzustellen, und die Leitstation 112 kann dafür konfiguriert sein, sie zu empfangen, wie beispielsweise durch Sensoren an Bord des beweglichen Objekts 101 erfasste Sensordaten und Verfolgungsdaten oder -informationen, die verwendet werden, um Charakteristika eines oder mehrerer durch das bewegliche Objekt verfolgter Ziele anzugeben. Beispiele von Sensordaten können durch eine durch das bewegliche Objekt 101 getragene Bildgebungseinrichtung erfasste Bilddaten oder andere durch andere Sensoren erfasste Daten einschließen. Zum Beispiel kann Echtzeit- oder Nahe-Echtzeit-Video von dem beweglichen Objekt 101 und/oder der Nutzlast 104 (z. B. der Bildgebungseinrichtung) zu der Leitstation 112 gestreamt werden. Die Sensordaten können ebenfalls durch Global-Positioning-System-(GPS-)Sensoren, Bewegungssensoren, Trägheitssensoren, Näherungssensoren oder andere Sensoren erfasste Daten einschließen. Beispiele von Verfolgungsinformationen können relative oder absolute Koordinaten und/oder Größe des Ziels innerhalb eines oder mehrerer von dem beweglichen Objekt empfangener Bilder, Änderungen des Ziels zwischen aufeinanderfolgenden Einzelbildern, GPS-Koordinaten oder andere Positionsinformationen des Ziels und dergleichen einschließen. Bei einigen Ausführungsformen können die Verfolgungsinformationen durch die Leitstation 112 dazu verwendet werden, das Ziel als verfolgt anzuzeigen (z. B. über einen grafischen Verfolgungsanzeiger, wie beispielsweise einen Kasten um das Ziel). Bei verschiedenen Ausführungsformen können die durch die Leitstation empfangenen Daten rohe Daten (z. B. rohe Sensordaten, wie von den Sensoren erfasst) und/oder verarbeitete Daten (z. B. Verfolgungsinformationen, wie durch einen oder mehrere Prozessoren an Bord des beweglichen Objekts verarbeitet) einschließen.In some embodiments, the moving object 112 be configured to provide data, and the control station 112 may be configured to receive them, such as by sensors aboard the moving object 101 sensed sensor data and tracking data or information used to indicate characteristics of one or more targets tracked by the moving object. Examples of sensor data can be through a through the moving object 101 supported imaging device, or other data acquired by other sensors. For example, real-time or near real-time video from the moving object 101 and / or the payload 104 (eg the imaging device) to the control station 112 be streamed. The sensor data may also include data collected by Global Positioning System (GPS) sensors, motion sensors, inertial sensors, proximity sensors, or other sensors. Examples of tracking information may include relative or absolute coordinates and / or size of the target within one or more images received by the mobile object, changes in the destination between successive frames, GPS coordinates or other location information of the destination, and the like. In some embodiments, the tracking information may be provided by the control station 112 used to indicate the target as being tracked (eg, via a graphical tracking indicator, such as a box around the target). In various embodiments, the data received by the control station may process raw data (eg, raw sensor data as detected by the sensors) and / or processed data (eg, tracking information such as by one or more processors aboard the mobile object ) lock in.

Bei einigen Ausführungsformen kann die Leitstation 112 an einem von dem beweglichen Objekt 101, dem Träger 102 und/oder der Nutzlast 104 entfernten oder fernen Ort angeordnet sein. Die Leitstation 112 kann auf einer Stützplattform angeordnet oder an derselben befestigt sein. Alternativ kann die Leitstation 112 ein in der Hand gehaltenes oder tragbares Gerät sein. Zum Beispiel kann die Leitstation 112 ein Smartphone, ein Tablet, ein Laptop, einen Rechner, eine Brille, Handschuhe, einen Helm, ein Mikrofon oder geeignete Kombinationen derselben einschließen.In some embodiments, the control station 112 at one of the moving object 101 , the carrier 102 and / or the payload 104 remote or distant location. The control station 112 can be arranged on a support platform or attached to the same. Alternatively, the control station 112 be a hand-held or portable device. For example, the control station 112 include a smartphone, a tablet, a laptop, a calculator, glasses, gloves, a helmet, a microphone, or suitable combinations thereof.

Die Leitstation 112 kann dafür konfiguriert sein, von dem beweglichen Objekt 101 empfangene Daten über eine Anzeige anzuzeigen. Die angezeigten Daten können Sensordaten, wie beispielsweise Bilder (z. B. Standbilder und Videos), erfasst durch eine durch das bewegliche Objekt 101 getragene Bildgebungseinrichtung, einschließen. Die angezeigten Daten können ebenfalls Verfolgungsinformationen einschließen, die gesondert von den Bilddaten oder eingeblendet oben auf den Bilddaten angezeigt werden, Zum Beispiel kann die Anzeige dafür konfiguriert sein, die Bilder anzuzeigen, wobei das Ziel mit einem Verfolgungsanzeiger, wie beispielsweise einem Kasten, einem Kreis oder einer beliebigen anderen geometrischen Form, die das verfolgte Ziel umschließt, angezeigt oder hervorgehoben wird. Bei einigen Ausführungsformen werden die Bilder und der Verfolgungsanzeiger im Wesentlichen in Echtzeit angezeigt, wenn die Bilddaten und die Verfolgungsinformationen von dem beweglichen Objekt empfangen werden und/oder wenn die Bilddaten erfasst werden. Bei anderen Ausführungsformen kann die Anzeige nach einer gewissen Verzögerung bereitgestellt werden.The control station 112 may be configured for the movable object 101 display received data via an indicator. The displayed data can be sensor data, such as For example, images (eg, still images and videos) captured by a moving object 101 worn imaging device. The displayed data may also include tracking information displayed separately from the image data or displayed on top of the image data. For example, the display may be configured to display the images, with the target including a tracking indicator such as a box, a circle, or any other geometric shape that encloses, is displayed, or highlighted on the tracked target. In some embodiments, the images and the tracking indicator are displayed in substantially real time when the image data and tracking information is received from the mobile object and / or when the image data is captured. In other embodiments, the display may be provided after a certain delay.

Die Leitstation 112 kann dafür konfiguriert sein, eine Anwendereingabe über ein Eingabegerät zu empfangen. Das Eingabegerät kann einen Joystick, eine Tastatur, eine Maus, einen Stift, ein Mikrofon, einen Bild- oder Bewegungssensor, einen Trägheitssensor und dergleichen einschließen. Eine beliebige geeignete Anwendereingabe kann dazu verwendet werden, mit der Leitstation in Wechselwirkung zu treten, wie beispielsweise manuell eingegebene Befehle, Sprachsteuerung, Gestensteuerung oder Positionssteuerung (z. B. über eine Bewegung, Position oder Neigung der Leitstation). Zum Beispiel kann die Leitstation 112 dafür konfiguriert sein, es einem Anwender zu ermöglichen, einen Zustand des beweglichen Objekts, des Trägers, der Nutzlast oder eines beliebigen Bestandteils derselben durch das Handhaben eines Joysticks, das Ändern einer Ausrichtung oder Lage der Leitstation, die Wechselwirkung mit einer grafischen Anwenderschnittstelle unter Verwendung einer Tastatur, einer Maus, eines Fingers oder eines Stifts oder durch die Verwendung beliebiger anderer geeigneter Verfahren zu steuern.The control station 112 may be configured to receive a user input via an input device. The input device may include a joystick, a keyboard, a mouse, a stylus, a microphone, an image or motion sensor, an inertial sensor, and the like. Any suitable user input may be used to interact with the control station, such as manually entered commands, voice control, gesture control, or position control (eg, via movement, position or tilt of the control station). For example, the control station 112 be configured to allow a user, a state of the moving object, the carrier, the payload or any component thereof by manipulating a joystick, changing an orientation of the control station, the interaction with a graphical user interface using a Keyboard, a mouse, a finger or a stylus or by the use of any other suitable method.

Die Leitstation 112 kann ebenfalls dafür konfiguriert sein, es einem Anwender zu ermöglichen, unter Verwendung eines beliebigen geeigneten Verfahrens Zielinformationen einzugeben. Bei einigen Ausführungsformen kann die Leitstation 112 dafür konfiguriert sein, es einem Anwender zu ermöglichen, unmittelbar ein Ziel aus einem oder mehreren Bildern (z. B. Video oder Momentaufnahme), die angezeigt werden, auszuwählen. Zum Beispiel kann der Anwender ein Bild auswählen durch das unmittelbare Berühren des Bildschirms unter Verwendung eines Fingers oder Stifts oder eine Auswahl unter Verwendung einer Maus oder eine Joysticks. Der Anwender kann um das Ziel zeichnen, das Ziel in dem Bild berühren oder das Ziel auf andere Weise auswählen. Maschinelles Sehen oder andere Techniken können verwendet werden, um eine Begrenzung des Ziels zu bestimmen. Anderenfalls kann eine Anwendereingabe die Begrenzung des Ziels definieren. Ein oder mehrere Ziele können auf einmal ausgewählt werden. Bei einigen Ausführungsformen wird das Ziel mit einem Auswahlanzeiger angezeigt, um anzuzeigen, dass der Anwender das Ziel zum Verfolgen ausgewählt hat. Bei einigen anderen Ausführungsformen kann die Leitstation dafür konfiguriert sein, es einem Anwender zu ermöglichen, Zielartinformationen, wie beispielsweise Farbe, Textur, Form, Abmessung oder andere mit einem gewünschten Ziel verbundene Charakteristika einzugeben oder auszuwählen. Zum Beispiel kann der Anwender die Zielartinformationen eintippen, solche Informationen unter Verwendung einer grafischen Anwenderschnittstelle auswählen oder beliebige andere geeignete Verfahren verwenden. Bei einigen anderen Ausführungsformen können die Zielinformationen von anderen Quelle als dem Anwender erhalten werden, wie beispielsweise einem entfernten oder örtlichen Datenspeicher, anderen Datenverarbeitungseinrichtungen, die wirksam mit der Leitstation verbunden oder anderweitig mit derselben in Kommunikation stehen.The control station 112 may also be configured to allow a user to enter destination information using any suitable method. In some embodiments, the control station 112 be configured to allow a user to immediately select a destination from one or more images (eg, video or snapshot) that are displayed. For example, the user may select an image by directly touching the screen using a finger or stylus or a selection using a mouse or a joystick. The user can draw around the target, touch the target in the image, or otherwise select the target. Machine vision or other techniques can be used to determine a boundary of the target. Otherwise, user input may define the bound of the target. One or more destinations can be selected at once. In some embodiments, the destination is displayed with a selection indicator to indicate that the user has selected the destination for tracking. In some other embodiments, the dispatching station may be configured to allow a user to enter or select destination type information such as color, texture, shape, dimension, or other characteristics associated with a desired destination. For example, the user may type in the destination type information, select such information using a graphical user interface, or use any other suitable method. In some other embodiments, the destination information may be obtained from sources other than the user, such as a remote or local data store, other computing devices that are operatively connected to, or otherwise in communication with, the control station.

Bei einigen Ausführungsformen ermöglicht es die Leitstation einem Anwender, zwischen einem manuellen Verfolgungsmodus und einem automatischen Verfolgungsmodus zu wählen. Wenn der manuelle Verfolgungsmodus gewählt ist, kann ein Anwender ein spezifisches zu verfolgendes Ziel spezifizieren. Zum Beispiel kann der Anwender manuell ein Ziel aus einem durch die Leitstation angezeigten auswählen. Die mit dem ausgewählten Ziel verknüpften spezifischen Zielinformationen (z. B. Koordinaten und/oder Größe) werden dann dem beweglichen Objekt als anfängliche Zielinformationen des Ziels bereitgestellt. Andererseits spezifiziert, wenn der automatische Verfolgungsmodus gewählt ist, der Anwender nicht ein spezifisches zu verfolgendes Ziel. Stattdessen kann der Anwender beschreibende Informationen über die Art des zu verfolgenden Ziels spezifizieren, zum Beispiel über die durch die Leitstation bereitgestellte Anwenderschnittstelle. Das bewegliche Objekt kann dann die anfänglichen Zielinformationen eines spezifischen Ziels oder Zielartinformationen dazu verwenden, automatisch das zu verfolgende Ziel zu identifizieren und anschließend das identifizierte Ziel zu verfolgen.In some embodiments, the control station allows a user to choose between a manual tracking mode and an automatic tracking mode. When the manual tracking mode is selected, a user can specify a specific target to track. For example, the user may manually select a destination from one displayed by the control station. The specific destination information (eg, coordinates and / or size) associated with the selected destination is then provided to the mobile object as the initial destination information of the destination. On the other hand, when the automatic tracking mode is selected, the user does not specify a specific target to be tracked. Instead, the user may specify descriptive information about the type of target to track, for example, the user interface provided by the control station. The mobile object may then use the initial destination information of a specific destination or destination type information to automatically identify the destination to be tracked and subsequently track the identified destination.

Im Allgemeinen erfordert das Bereitstellen spezifischer Zielinformationen (z. B. anfänglicher Zielinformationen) mehr Anwendersteuerung der Verfolgung des Ziels und weniger automatisierte Verarbeitung oder Berechnung (z. B. Bild- oder Zielerkennung) durch ein Verarbeitungssystem an Bord des beweglichen Objekts. Andererseits erfordert das Bereitstellen von Zielartinformationen weniger Anwendersteuerung des Verfolgungsvorgangs, aber mehr durch das Verarbeitungssystem an Bord durchgeführte Berechnung. Die angemessene Zuordnung der Steuerung über den Verfolgungsvorgang zwischen Anwender und dem beweglichen Objekt kann eingestellt werden in Abhängigkeit von einer Vielzahl von Faktoren, wie beispielsweise der Umgebung des beweglichen Objekts, der Geschwindigkeit oder Höhe des beweglichen Objekts, Anwenderpräferenzen und verfügbaren Berechnungsressourcen (z. B., CPU oder Speicher) an Bord und/oder außerhalb des beweglichen Objekts oder dergleichen. Zum Beispiel kann dem Anwender verhältnismäßig mehr Steuerung zugeordnet werden, wenn das bewegliche Objekt in einer verhältnismäßig komplexen Umgebung (z. B. mit zahlreichen Gebäuden oder Hindernissen oder innen) navigiert als wenn das bewegliche Objekt in einer verhältnismäßig einfachen Umgebung (z. B. weitem offenem Raum oder außen) navigiert. Als ein anderes Beispiel kann dem Anwender mehr Steuerung zugeordnet werden, wenn sich das bewegliche Objekt auf einer niedrigeren Höhe befindet als wenn sich das bewegliche Objekt auf einer höheren Höhe befindet. Als noch ein anderes Beispiel kann dem beweglichen Objekt mehr Steuerung zugeordnet werden, falls das bewegliche Objekt mit einem Hochgeschwindigkeitsprozessor ausgestattet ist, der dafür eingerichtet ist, komplexe Berechnungen verhältnismäßig schnell durchzuführen. Bei einigen Ausführungsformen kann die Zuordnung der Steuerung über den Verfolgungsvorgang zwischen dem Anwender und dem beweglichen Objekt auf der Grundlage der hierin beschriebenen Faktoren dynamisch eingestellt werden.In general, providing specific destination information (eg, initial destination information) requires more user control of tracking the destination and less automated processing or calculation (eg, image or destination recognition) by a processing system aboard the mobile object. On the other hand, providing destination type information requires less user control of the tracking process, but more on-board processing system performed calculation. The appropriate allocation of control over the tracing process between the user and the moving object can be adjusted depending on a variety of factors, such as the environment of the moving object, the speed or height of the moving object, user preferences and available computational resources (e.g. , CPU or memory) on board and / or outside the moving object or the like. For example, the user may be given relatively more control when navigating the moving object in a relatively complex environment (eg, with numerous buildings or obstacles or inside) than if the moving object were in a relatively simple environment (e.g. open space or outside). As another example, more control may be assigned to the user when the moveable object is at a lower elevation than when the moveable object is at a higher elevation. As yet another example, more control may be assigned to the moving object if the moving object is equipped with a high speed processor configured to perform complex calculations relatively quickly. In some embodiments, the assignment of control over the tracking process between the user and the moving object may be dynamically adjusted based on the factors described herein.

Die Anwendereingabe kann, wenigstens zum Teil dazu verwendet werden, Steuerdaten, wie beispielsweise hierin beschrieben, zu erzeugen. Die Steuerdaten können durch die Leitstation, das bewegliche Objekt, ein drittes Gerät oder eine beliebige Kombination derselben erzeugt werden. Zum Beispiel kann die Handhabung des Anwenders eines Joysticks oder der Leitstation oder eine Wechselwirkung mit einer Anwenderschnittstelle in vorbestimmte Steuerbefehle zum Ändern eines Zustandes oder Parameters des beweglichen Objekts, des Trägers oder der Nutzlast umgesetzt werden. Als ein anderes Beispiel kann eine Auswahl des Anwenders eines Ziels innerhalb eines Bildes, das durch die Leitstation angezeigt wird, dazu verwendet werden, anfängliche und/oder erwartete Zielinformationen zu Verfolgungszwecken, wie beispielsweise eine anfängliche und/oder erwartete Position und/oder Größe des Ziels, zu erzeugen. Alternativ oder zusätzlich können die Steuerdaten auf der Grundlage von aus Nicht-Anwender-Quellen, wie beispielsweise entferntem oder örtlichem Datenspeicher, anderen wirksam mit der Leitstation verbundenen Datenverarbeitungseinrichtungen oder dergleichen, erlangten Informationen erzeugt werden.The user input may be used, at least in part, to generate control data, such as described herein. The control data may be generated by the control station, the moving object, a third device, or any combination thereof. For example, the handling of the user of a joystick or control station, or an interaction with a user interface, may be translated into predetermined control commands for changing a state or parameter of the moving object, the carrier, or the payload. As another example, a selection of the user of a target within an image displayed by the control station may be used to provide initial and / or expected destination information for tracking purposes, such as an initial and / or expected location and / or size of the destination , to create. Alternatively, or additionally, the control data may be generated based on information obtained from non-user sources, such as remote or local data storage, other data processing equipment effectively connected to the control station, or the like.

2 illustriert einen beispielhaften Fluss 200 von bildbezogenen Daten zwischen Bestandteilen in einem Verfolgungssystem, nach Ausführungsformen. Bei einigen Ausführungsformen schließen bildbezogene Daten rohe oder verarbeitete Daten sowie aus den Bilddaten extrahierte oder abgeleitete Daten, wie beispielsweise Verfolgungsinformationen von Zielen, ein. Wie illustriert, können rohe Bilddaten durch einen Bildsensor 204 erfasst werden. Der Bildsensor 204 kann dafür konfiguriert sein, optische Signale in elektronische Signale umzuwandeln. Der Bildsensor 204 kann ladungsgekoppelte Halbleiter-Bauteile (charge-coupled devices – CCD), aktive Pixelsensoren unter Verwendung von komplementärer Metalloxid-Halbleiter-(complementary metal-oxide-semiconductor – CMOS-) oder n-Kanal-Metalloxid-Halbleiter-(N-type metal-oxide-semiconductor – NMOS-, Live-MOS-)Technologien oder beliebige andere Arten von Sensoren einschließen. Der Bildsensor kann an ein bewegliches Objekt, wie beispielsweise ein UAV, angeschlossen sein. Zum Beispiel kann der Bildsensor ein Teil einer Bildgebungseinrichtung (z. B. einer Kamera) sein, die mit oder ohne einen Träger durch ein UAV getragen wird. Der Bildsensor und/oder die Bildgebungseinrichtung können dafür konfiguriert sein, Bilder, Videos oder beliebige andere Bilddaten mit beliebigen geeigneten Parametern, wie beispielsweise Breite, Höhe, Seitenverhältnis, MegaPixelzahl, Auflösung oder Qualität und dergleichen aufzunehmen. Zum Beispiel kann die Bildgebungseinrichtung dafür konfiguriert sein, Videos mit hoher Auflösung oder ultrahoher Auflösung (z. B. 720 p, 1080 p, 1440 p, 2000 p, 2160 p, 2540 p, 4000 p, 4320 p und so weiter) aufzunehmen. 2 illustrates an exemplary flow 200 image-related data between components in a tracking system, according to embodiments. In some embodiments, image related data includes raw or processed data as well as data extracted or derived from the image data, such as tracking information of targets. As illustrated, raw image data can be captured by an image sensor 204 be recorded. The image sensor 204 may be configured to convert optical signals into electronic signals. The image sensor 204 For example, charge-coupled devices (CCDs), active pixel sensors using complementary metal-oxide-semiconductor (CMOS) or n-channel metal oxide semiconductor (N-type metal oxide) semiconductor devices may be used. oxide-semiconductor - NMOS, live MOS) technologies or any other type of sensors. The image sensor may be connected to a moving object, such as a UAV. For example, the image sensor may be part of an imaging device (eg, a camera) carried by a UAV with or without a carrier. The image sensor and / or imaging device may be configured to capture images, videos, or any other image data having any suitable parameters, such as width, height, aspect ratio, mega pixel number, resolution or quality, and the like. For example, the imager may be configured to capture high resolution or ultra high resolution video (e.g., 720p, 1080p, 1440p, 2000p, 2160p, 2540p, 4000p, 4320p, and so forth).

Die durch den Bildsensor 204 erfassten Bilddaten können in einem Datenspeichergerät 202 gespeichert werden. Das Datenspeichergerät 202 kann auf Halbleiter-magnetischen, optischen oder beliebigen anderen geeigneten Technologien beruhen und kann Flash-Speicher, USB-Laufwerke, Speicherkarten, Halbleiterlaufwerke (solid-state drives – SSD), Festplattenlaufwerke (hard disk drives – HDD), Disketten, optische Platten, Magnetbänder und dergleichen einschließen. Zum Beispiel kann das Datenspeichergerät 202 entfernbare Datenspeichergeräte einschließen, die lösbar an eine Bildgebungseinrichtung anschließbar sind, wie beispielsweise Speicherkarten beliebiger geeigneter Formate, wie beispielsweise PC Card, CompactFlash, SmartMedia, Memory Stick, Memory Stick Duo, Memory Stick PRO Duo, Miniature Card, Multimedia Card (MMC), Reduced Size Multimedia Card (RS-MMC), MMCmicro Card (MMCmicro), PS2 Card, Secure Digital (SD) Card, SxS, Universal Flash Storage (UFS), miniSD, microSD, xD-Picture Card, Intelligent Stick (iStick), Serial Flash Module (SFM), NT Card, XQD Card und dergleichen. Das Datenspeichergerät 202 kann ebenfalls externe Festplattenlaufwerke, optische Laufwerke, Bandlaufwerke, Diskettenlaufwerke und andere geeignete Speichergeräte einschließen, die wirksam mit der Bildgebungseinrichtung verbunden werden können.The through the image sensor 204 Captured image data can be stored in a data storage device 202 get saved. The data storage device 202 It can be based on semiconductor magnetic, optical or any other suitable technology and may include flash memories, USB drives, memory cards, solid-state drives (SSDs), hard disk drives (HDDs), floppy disks, optical disks, magnetic tapes and the like. For example, the data storage device 202 removable storage devices that are detachably connectable to an imaging device, such as memory cards of any suitable formats, such as PC Card, Compact Flash, SmartMedia, Memory Stick, Memory Stick Duo, Memory Stick PRO Duo, Miniature Card, Multimedia Card (MMC), Reduced Size Multimedia Card (RS-MMC), MMCmicro Card (MMCmicro), PS2 Card, Secure Digital (SD) Card, SxS, Universal Flash Storage (UFS), miniSD, microSD, xD-Picture Card, Intelligent Stick (iStick), Serial Flash Modules (SFM), NT Card, XQD Card and the like. The data storage device 202 can also external hard drives, optical drives, tape drives, floppy drives and others include suitable storage devices that can be effectively connected to the imaging device.

Die durch den Bildsensor 204 erfassten Bilddaten können durch ein Bildübertragungsmodul 206 zu der Leitstation 212 übertragen werden. Bei einigen Ausführungsformen können die Bilddaten komprimiert oder auf andere Weise verarbeitet werden, bevor sie durch das Bildübertragungsmodul 206 übertragen werden. In anderen Fällen können die Bilddaten nicht komprimiert oder verarbeitet werden, bevor sie übertragen werden. Die übertragenen Bilddaten können auf der Leitstation 212 angezeigt werden, so dass ein Anwender, der die Leitstation 212 bedient, die Bilddaten betrachten und/oder auf der Grundlage der Bilddaten mit der Leitstation 212 in Wechselwirkung treten kann.The through the image sensor 204 Captured image data may be transmitted through an image transmission module 206 to the control station 212 be transmitted. In some embodiments, the image data may be compressed or otherwise processed before passing through the image transmission module 206 be transmitted. In other cases, the image data may not be compressed or processed before being transmitted. The transmitted image data can be displayed on the control station 212 be displayed so that a user who is the control station 212 operated, viewing the image data and / or on the basis of the image data with the control station 212 can interact.

Die durch den Bildsensor 204 erfassten Bilddaten können durch eine Vorverarbeitungseinheit 208 vorverarbeitet werden. Die Vorverarbeitungseinheit 208 kann beliebige Hardware, Software oder eine Kombination derselben einschließen. Beispiele der Vorverarbeitungseinheit 208 können eine feldprogrammierbare Gatteranordnung (FPGA) einschließen. Die Vorverarbeitungseinheit 208 kann wirksam an den Bildsensor 204 angeschlossen sein, um die rohen Bilddaten vorzuverarbeiten, bevor die Bilddaten verarbeitet werden, um eine spezifische Information herauszuziehen. Beispiele von durch die Vorverarbeitungseinheit 208 durchgeführten Aufgaben können Resampling, um die Richtigkeit des Bildkoordinatensystems sicherzustellen, Rauschminderung, Kontrastverbesserung, Skalenraumdarstellung und dergleichen einschließen.The through the image sensor 204 Captured image data can by a preprocessing unit 208 be preprocessed. The preprocessing unit 208 may include any hardware, software, or a combination thereof. Examples of the preprocessing unit 208 may include a field programmable gate array (FPGA). The preprocessing unit 208 can be effective on the image sensor 204 be connected to pre-process the raw image data before the image data is processed to extract specific information. Examples of by the preprocessing unit 208 In order to ensure the accuracy of the image coordinate system, resampling may include noise reduction, contrast enhancement, scale space representation, and the like.

Die Bilddaten, wie durch die Vorverarbeitungseinheit 208, können weiter durch eine Verarbeitungseinheit 210 verarbeitet werden, die (z. B. über eine General-Purpose-Memory-Controller-(GPMC-)Verbindung) wirksam an die Vorverarbeitungseinheit 208 angeschlossen ist. Die Verarbeitungseinheit 210 kann einen oder mehrere ARM-Prozessoren einschließen. Die Verarbeitungseinheit 210 kann dafür konfiguriert sein, beliebige geeignete Ausführungsformen der hierin beschriebenen Verfahren durchzuführen. Beispiele von durch die Verarbeitungseinheit 210 durchgeführten Aufgaben können Merkmalsextraktion auf einem beliebigen geeigneten Komplexitätsniveau, Bildsegmentierung, Datenüberprüfung, Bilderkennung, Bildregistrierung, Bildabgleich und dergleichen einschließen. Bei einigen Ausführungsformen erzeugt die Verarbeitungseinheit 210 Verfolgungsinformationen bezüglich eines Ziels, das durch das bewegliche Objekt verfolgt wird. Die Verfolgungsinformationen können auf der Grundlage von Bildverarbeitung durch eine Verarbeitungseinheit des beweglichen Objekts und/oder auf der Grundlage von Zielinformationen, wie durch die Leitstation bereitgestellt, erzeugt werden. Die Verfolgungsinformationen können zum Beispiel die Position, Größe oder andere Charakteristika eines Ziels innerhalb eines oder mehrerer Bilder einschließen.The image data, as by the preprocessing unit 208 , can continue through a processing unit 210 which are effectively (for example, via a General Purpose Memory Controller (GPMC) connection) to the preprocessing unit 208 connected. The processing unit 210 may include one or more ARM processors. The processing unit 210 may be configured to perform any suitable embodiments of the methods described herein. Examples of by the processing unit 210 Tasks performed may include feature extraction at any suitable level of complexity, image segmentation, data validation, image recognition, image registration, image matching, and the like. In some embodiments, the processing unit generates 210 Tracking information regarding a target being tracked by the moving object. The tracking information may be generated based on image processing by a processing unit of the mobile object and / or based on destination information provided by the control station. The tracking information may include, for example, the position, size, or other characteristics of a target within one or more images.

Die Verfolgungsinformationen, wie durch die Verarbeitungseinheit 210 bestimmt, können über ein Kommunikationsmodul (nicht gezeigt), der Leitstation 212 bereitgestellt werden. Bei einigen Ausführungsformen kann das Kommunikationsmodul von dem oben beschriebenen Bildübertragungsmodul 206 gesondert sein. Bei anderen Ausführungsformen kann das Kommunikationsmodul das Bildübertragungsmodul 206 einschließen oder in demselben eingeschlossen sein. Ein beliebiges Kommunikationsmittel kann für das Kommunikationsmodul und/oder das Bildübertragungsmodul 206 verwendet werden, wie beispielsweise Kabelkommunikation oder drahtlose Kommunikation. Zum Beispiel können das Kommunikationsmodul und/oder das Bildübertragungsmodul 206 eines oder mehrere von lokalen Netzen (local area networks – LAN), landesweiten Netzen (wide area networks – WAN), Infrarot-, Funk, WiFi-, Point-to-Point-(P2P-)Netzen, Telekommunikationsnetzen, Cloud-Kommunikation und dergleichen benutzen. Drahtlose Kommunikation kann näherungsabhängig oder näherungsunabhängig sein. Bei einigen Ausführungsformen kann für Kommunikationen Sichtverbindung erforderlich sein oder nicht. Das Kommunikationsmodul kann ebenfalls dafür konfiguriert sein, zusätzlich zu dem Verfolgungsinformationen Sensordaten von anderen Sensoren an Bord des beweglichen Objekts, durch Verarbeiten der Sensordaten bestimmte Positions- und/oder Bewegungsinformationen, vorbestimmte Steuerdaten, Anwenderbefehle von entfernten Leitstationen und dergleichen zu senden und/oder zu empfangen.The tracking information, as by the processing unit 210 determined, via a communication module (not shown), the control station 212 to be provided. In some embodiments, the communication module may be from the image transmission module described above 206 be separate. In other embodiments, the communication module may include the image transmission module 206 include or be included in it. Any communication means may be for the communication module and / or the image transmission module 206 used, such as cable communication or wireless communication. For example, the communication module and / or the image transmission module 206 one or more of local area networks (LANs), wide area networks (WANs), infra-red, wireless, Wi-Fi, point-to-point (P2P) networks, telecommunications networks, cloud communications, and use the same. Wireless communication can be proximity-dependent or proximity-independent. In some embodiments, communications may or may not be required for communications. The communication module may also be configured to transmit and / or receive, in addition to the tracking information, sensor data from other sensors on board the moving object, position and / or motion information determined by processing the sensor data, predetermined control data, user commands from remote control stations, and the like ,

Bei einigen Ausführungsformen können die Bilddaten, wie durch das Bildübertragungsmodul 206 bereitgestellt, durch die Verfolgungsinformationen, wie durch die Verarbeitungseinheit 210 erzeugt, erweitert oder auf andere Weise mit denselben kombiniert werden, um ein Ziel innerhalb eines Zielanzeigers (z. B. eines Kreises oder Kastens um das Ziel) zu zeigen. Ein Anwender kann die erweiterten Bilddaten betrachten, um das Ziel zu sehen, wie es durch die Bildgebungseinrichtung verfolgt wird. Der Anwender kann ebenfalls auf der Grundlage der erweiterten Bilddaten mit der Leitstation in Wechselwirkung treten. Zum Beispiel kann der Anwender ein anderes Ziel zum Verfolgen aus den erweiterten Bilddaten auswählen (z. B. durch das Berühren eines Bereichs des Bildschirms, der dem anderen Ziel entspricht).In some embodiments, the image data, such as through the image transfer module 206 provided by the tracking information, such as by the processing unit 210 can be created, augmented, or otherwise combined with them to show a target within a target indicator (such as a circle or box around the target). A user may view the extended image data to see the target as it is being tracked by the imaging device. The user can also interact with the control station based on the enhanced image data. For example, the user may select a different destination to track from the extended image data (eg, by touching a portion of the screen that corresponds to the other destination).

Bei einigen Ausführungsformen können die Verfolgungsinformationen der Leitstation 212 als Reaktion auf eine Anforderung durch die Leitstation 212 bereitgestellt werden. Zum Beispiel kann die Leitstation 212 solche Verfolgungsinformationen nur anfordern, wenn ein Anwender einen bestimmten Betrachtungsmodus (z. B. einen Vorschaumodus) auswählt, wobei das verfolgte Ziel hervorgehoben oder auf andere Weise angezeigt wird. Alternativ oder zusätzlich können die Verfolgungsinformationen der Leitstation 212 ohne jegliche Anforderung durch die Leitstation 212 bereitgestellt werden. Zum Beispiel können die Verfolgungsinformationen periodisch (z. B. alle 0,1 Sekunden, 0,2 Sekunden, 0,5 Sekunden, 1 Sekunde oder 2 Sekunden) der Leitstation 212 eingespeichert werden.In some embodiments, the tracking information of the control station 212 in response to a request from the control station 212 to be provided. For example, the control station 212 such tracking information only when a user selects a particular viewing mode (eg, a preview mode) with the tracked target highlighted or otherwise displayed. Alternatively or additionally, the tracking information of the control station 212 without any request from the control station 212 to be provided. For example, the tracking information may be periodically (e.g., every 0.1 seconds, 0.2 seconds, 0.5 seconds, 1 second or 2 seconds) of the control station 212 be stored.

3 illustriert einen beispielhaften Fluss 300 von Steuerdaten zwischen Bestandteilen in einem Verfolgungssystem, nach Ausführungsformen. Wie oben erörtert, können Steuerdaten Informationen, die durch ein bewegliches Objekt (z. B. ein UAV) dazu verwendet werden, ein Ziel zu verfolgen, sowie andere Daten zum Steuern verschiedener Aspekte des beweglichen Objekts oder eines Bestandteils desselben einschließen. Die Steuerdaten können durch einen Anwender 302 erzeugt werden, der mit einer Leitstation 304 in Wechselwirkung tritt. Die erzeugten Steuerdaten können spezifische Zielinformationen (z. B. anfängliche Zielinformationen) 306 und Zielartinformationen 308 einschließen. 3 illustrates an exemplary flow 300 control data between components in a tracking system, according to embodiments. As discussed above, control data may include information used by a moving object (eg, a UAV) to track a destination, as well as other data for controlling various aspects of the moving object or a component thereof. The control data may be provided by a user 302 be generated with a control station 304 interacts. The generated control data may contain specific destination information (eg, initial destination information). 306 and destination type information 308 lock in.

Die spezifischen Zielinformationen 306 können Charakteristika über ein spezifisches Ziel, wie beispielsweise Koordinaten (z. B. Pixelkoordinaten), Größe und dergleichen einschließen. Bei einigen Ausführungsformen können die spezifischen Zielinformationen 306 erzeugt werden, wenn ein Anwender ein spezifisches zu verfolgendes Ziel über eine durch die Leitstation 304 bereitgestellte Anwenderschnittstelle auswählt oder spezifiziert. Zum Beispiel kann es die Leitstation einem Anwender ermöglichen, zwischen einem manuellen Verfolgungsmodus und einem automatischen Verfolgungsmodus zu wählen. Wenn der manuelle Verfolgungsmodus gewählt ist, kann ein Anwender ein spezifisches zu verfolgendes Ziel spezifizieren (z. B. durch das Auswählen eines Ziels aus einem oder mehreren angezeigten Bildern). Auf der Grundlage der Anwenderauswahl können die spezifischen Zielinformationen erzeugt werden.The specific destination information 306 may include characteristics about a specific destination, such as coordinates (eg, pixel coordinates), size, and the like. In some embodiments, the specific destination information 306 are generated when a user has a specific target to be tracked over one by the control station 304 provided user interface selects or specifies. For example, the control station may allow a user to choose between a manual tracking mode and an automatic tracking mode. When the manual tracking mode is selected, a user may specify a specific target to be tracked (eg, by selecting a target from one or more displayed images). Based on the user selection, the specific destination information can be generated.

Die Zielartinformationen 308 können Informationen, die eine Art von zu verfolgenden Zielen beschreiben, anstatt von Informationen über ein spezifisches Ziel einschließen. Solche Zielartinformationen können verschiedene Zielcharakteristika, wie beispielsweise Farbe, Textur, Muster, Größe, Form, Abmessung und dergleichen, einschließen. Bei einigen Ausführungsformen können die Zielinformationen (einschließlich von spezifischen Zielinformationen und Zielartinformationen) wenigstens zum Teil auf eine Anwendereingabe an der Leitstation 304 hin erzeugt werden. Zum Beispiel kann es die Leitstation einem Anwender ermöglichen, zwischen einem manuellen Verfolgungsmodus und einem automatischen Verfolgungsmodus zu wählen. Wenn der automatische Verfolgungsmodus gewählt ist, kann ein Anwender Zielartinformationen eingeben oder auswählen. Außerdem oder alternativ können die Zielinformationen auf der Grundlage von Daten aus anderen Quellen erzeugt werden. Zum Beispiel können die Zielartinformationen auf der Grundlage vorhergehender Bilder abgeleitet und/oder aus örtlichen oder fernen Datenspeichern abgeleitet werden. Bei einigen Ausführungsformen können dem Anwender vordefinierte Zielarten oder -muster zur Auswahl dargestellt werden. Bei einigen anderen Ausführungsformen können die vordefinierten Zielarten oder -muster ohne Anwendereingriff automatisch durch Voreinstellung dem beweglichen Objekt bereitgestellt werden.The destination type information 308 may include information that describes a type of target to pursue, rather than information about a specific target. Such target type information may include various target characteristics such as color, texture, pattern, size, shape, dimension, and the like. In some embodiments, the destination information (including specific destination information and destination type information) may be responsive, at least in part, to a user input at the control station 304 be generated. For example, the control station may allow a user to choose between a manual tracking mode and an automatic tracking mode. When the automatic tracking mode is selected, a user can input or select target type information. Additionally or alternatively, the destination information may be generated based on data from other sources. For example, the destination type information may be derived based on previous images and / or derived from local or remote data stores. In some embodiments, predefined target types or patterns may be presented to the user for selection. In some other embodiments, the predefined target types or patterns may be automatically provided by default to the moving object without user intervention.

Die Zielinformationen können wahlweise erwartete Zielinformationen, wie beispielsweise hierin beschrieben, einschließen. Die erwarteten Zielinformationen können sich mit den anfänglichen Zielinformationen überlappen oder nicht.The destination information may optionally include expected destination information, such as described herein. The expected destination information may or may not overlap with the initial destination information.

Die Zielinformationen (einschließlich der spezifischen Zielinformationen 306 und der Zielartinformationen 308) können, zum Beispiel über ein Kommunikationsmodul (nicht gezeigt), einem Verarbeitungssystem 310 bereitgestellt werden. Das Verarbeitungssystem 310 kann sich an Bord eines beweglichen Objekts (z. B. eines UAV) befinden. Das Verarbeitungssystem 310 kann eine Datenverarbeitungseinheit 312 und eine Befehlssteuereinheit 314 einschließen. Die Datenverarbeitungseinheit 312 kann dafür konfiguriert sein, beliebige Ausführungsformen der hierin beschriebenen Verfahren durchzuführen. Zum Beispiel kann die Datenverarbeitungseinheit 312 dafür konfiguriert sein, ein Ziel auf der Grundlage von Zielinformationen (einschließlich der spezifischen Zielinformationen 306 und/oder der Zielartinformationen 308) zu identifizieren, eine Abweichung von den Zielinformationen zu bestimmen und dergleichen. Die Datenverarbeitungseinheit 312 kann eine Vorverarbeitungseinheit und/oder eine Verarbeitungseinheit, wie beispielsweise ähnlich der in 2 beschriebenen Vorverarbeitungseinheit 208 beziehungsweise Verarbeitungseinheit 210, einschließen. Zum Beispiel kann die Datenverarbeitungseinheit 312 einen FPGA- und/oder einen oder mehrere ARM-Prozessoren einschließen.The destination information (including the specific destination information 306 and the destination type information 308 ), for example, via a communication module (not shown), a processing system 310 to be provided. The processing system 310 may be on board a moving object (eg a UAV). The processing system 310 can be a data processing unit 312 and a command control unit 314 lock in. The data processing unit 312 may be configured to perform any embodiments of the methods described herein. For example, the data processing unit 312 be configured to specify a destination based on destination information (including the specific destination information 306 and / or the destination type information 308 ), to determine a deviation from the destination information, and the like. The data processing unit 312 For example, a preprocessing unit and / or a processing unit, such as similar to those in FIG 2 described preprocessing unit 208 or processing unit 210 , lock in. For example, the data processing unit 312 include an FPGA and / or one or more ARM processors.

Die Datenverarbeitungseinheit 312 kann wirksam an ein Befehlssteuermodul 314 angeschlossen sein, das dafür konfiguriert ist, einen Zustand des beweglichen Objekts zu steuern. Das Befehlssteuermodul 314 kann dafür konfiguriert sein, beliebige Ausführungsformen der hierin beschriebenen Verfahren durchzuführen. Zum Beispiel kann das Befehlssteuermodul 314 dafür konfiguriert sein, Steuerbefehle oder -signale 316 zum Steuern eines Bestandteils des beweglichen Objekts zu erzeugen, um so das Ziel im Wesentlichen auf der Grundlage der Ergebnisse von der Datenverarbeitungseinheit 312 zu verfolgen.The data processing unit 312 can be effective to a command control module 314 be connected, which is configured to control a state of the movable object. The command control module 314 may be configured to perform any embodiments of the methods described herein. For example, the command control module 314 configured for control commands or signals 316 to generate a component of the mobile object, so as to obtain the destination substantially on the basis of Results from the data processing unit 312 to pursue.

Die Steuerbefehle 316 können ebenfalls Befehle für die Antriebsmechanismen des beweglichen Objekts einschließen, um die räumliche Anordnung, Geschwindigkeit und/oder Beschleunigung des beweglichen Objekts in Bezug auf bis zu sechs Freiheitsgrade einzustellen, um eine erkannte Abweichung des Ziels in Bezug auf seine Position und/oder Größe in einem oder mehreren der Bilder zu berichtigen. Die Steuerbefehle 316 können ebenfalls Befehle zum Einstellen des Zustandes eines Trägers einschließen, um so die räumliche Anordnung, Geschwindigkeit und/oder Beschleunigung einer durch das bewegliche Objekt getragenen Nutzlast (z. B. einer Bildgebungseinrichtung) über den Träger einzustellen.The control commands 316 may also include commands for the moving object driving mechanisms to adjust the spatial arrangement, speed and / or acceleration of the moving object with respect to up to six degrees of freedom, to detect a detected deviation of the target with respect to its position and / or size in one or to correct several of the images. The control commands 316 Also, commands may be included to adjust the state of a wearer so as to adjust the spatial location, velocity, and / or acceleration of a payload (eg, imager) carried by the moving object over the wearer.

Die Steuerbefehle 316 können ebenfalls Befehle zum Einstellen des Zustandes eines Trägers einschließen, um so die räumliche Anordnung, Geschwindigkeit und/oder Beschleunigung einer durch das bewegliche Objekt getragenen Nutzlast (z. B. einer Bildgebungseinrichtung) über den Träger einzustellen.The control commands 316 Also, commands may be included to adjust the state of a wearer so as to adjust the spatial location, velocity, and / or acceleration of a payload (eg, imager) carried by the moving object over the wearer.

Die Steuerbefehle 316 können ebenfalls Befehle zum Einstellen eines oder mehrerer Betriebsparameter der Nutzlast, wie beispielsweise das Aufnehmen von Stand- oder Bewegtbildern, Herein- oder Herauszoomen, Ein- oder Ausschalten, Umschalten von Bildmodi, Ändern der Bildauflösung, Ändern des Brennpunkts, Ändern der Schärfentiefe, Ändern der Belichtungszeit, Ändern der Lichtstärke, Ändern des Blickwinkels oder Gesichtsfelds oder dergleichen, einschließen.The control commands 316 may also include commands for setting one or more payload operating parameters, such as taking still or moving pictures, zooming in or out, turning on or off, switching image modes, changing the image resolution, changing the focus, changing the depth of field, changing the Exposure time, changing the light intensity, changing the viewing angle or field of view, or the like.

Alternativ oder zusätzlich können beliebige der obigen Steuerbefehle unmittelbar von der Leitstation 304 dem Verarbeitungssystem 310 bereitgestellt werden. Zum Beispiel kann der Anwender die Leitstation 304 dazu verwenden, das Herein-/Herauszoomen der Bildgebungseinrichtung zu steuern, während die Verarbeitungssystem 310 die Steuerbefehle für das bewegliche Objekt und/oder den Träger erzeugt. Als ein anderes Beispiel kann der Anwender das bewegliche Objekt unmittelbar steuern, während das Verarbeitungssystem 310 die Steuerbefehle für das bewegliche Objekt und/oder die Bildgebungseinrichtung erzeugt. Dies kann es einem Anwender ermöglichen, sich auf das Steuern des beweglichen Objekts zu konzentrieren, ohne sich um die Verfolgung des Ziels zu sorgen, die automatisch durch das Verarbeitungssystem 310 durchgeführt wird.Alternatively or additionally, any of the above control commands may be provided directly by the control station 304 the processing system 310 to be provided. For example, the user may be the control station 304 to control the zoom in / out of the imager while the processing system 310 generates the control commands for the moving object and / or the carrier. As another example, the user may directly control the moving object while the processing system 310 generates the control commands for the moving object and / or the imaging device. This may allow a user to focus on controlling the moving object without worrying about tracking the target automatically through the processing system 310 is carried out.

Bei verschiedenen Ausführungsformen kann sich die Zuordnung der Verfolgungssteuerung zwischen dem Anwender und dem automatischen Verfolgungssystem in Abhängigkeit von einer Vielzahl von Faktoren verändern, wie beispielsweise der Umgebung des beweglichen Objekts, der Geschwindigkeit oder Höhe des beweglichen Objekts, Anwenderpräferenzen und verfügbaren Berechnungsressourcen (z. B., CPU oder Speicher) an Bord und/oder außerhalb des beweglichen Objekts, dergleichen. Zum Beispiel kann dem Anwender verhältnismäßig mehr Steuerung zugeordnet werden, wenn das bewegliche Objekt in einer verhältnismäßig komplexen Umgebung (z. B. mit zahlreichen Gebäuden oder Hindernissen oder innen) navigiert als wenn das bewegliche Objekt in einer verhältnismäßig einfachen Umgebung (z. B. weitem offenem Raum oder außen) navigiert. Als ein anderes Beispiel kann dem Anwender mehr Steuerung zugeordnet werden, wenn sich das bewegliche Objekt auf einer niedrigeren Höhe befindet als wenn sich das bewegliche Objekt auf einer höheren Höhe befindet. Als noch ein anderes Beispiel kann dem beweglichen Objekt mehr Steuerung zugeordnet werden, falls das bewegliche Objekt mit einem Hochgeschwindigkeitsprozessor ausgestattet ist, der dafür eingerichtet ist, komplexe Berechnungen verhältnismäßig schnell durchzuführen. Bei einigen Ausführungsformen kann die Zuordnung der Steuerung über den Verfolgungsvorgang zwischen dem Anwender und dem beweglichen Objekt auf der Grundlage der hierin beschriebenen Faktoren dynamisch eingestellt werden.In various embodiments, the assignment of tracking control between the user and the automatic tracking system may vary depending on a variety of factors, such as the environment of the moving object, the speed or height of the moving object, user preferences, and available computational resources (e.g. , CPU or memory) on board and / or outside of the moving object, the like. For example, the user may be given relatively more control when navigating the moving object in a relatively complex environment (eg, with numerous buildings or obstacles or inside) than if the moving object were in a relatively simple environment (e.g. open space or outside). As another example, more control may be assigned to the user when the moveable object is at a lower elevation than when the moveable object is at a higher elevation. As yet another example, more control may be assigned to the moving object if the moving object is equipped with a high speed processor configured to perform complex calculations relatively quickly. In some embodiments, the assignment of control over the tracking process between the user and the moving object may be dynamically adjusted based on the factors described herein.

Nach einem Aspekt der vorliegenden Erfindung werden Verfahren und Systeme zum Verfolgen eines Ziels durch eine an ein bewegliches Objekt angeschlossene Bildgebungseinrichtung bereitgestellt, um so eine erwartete Position und/oder Größe des Ziels innerhalb eines oder mehrerer durch die Bildgebungseinrichtung aufgenommener Bilder aufrechtzuerhalten.According to one aspect of the present invention, methods and systems for tracking a target are provided by an imaging device connected to a moving object so as to maintain an expected position and / or size of the target within one or more images captured by the imaging device.

4 illustriert einen beispielhaften Prozess 400 zum Umsetzen von Zielverfolgung, nach Ausführungsformen. Aspekte des Prozesses 400 können durch einen oder mehrere Prozessoren an Bord und/oder außerhalb eines beweglichen Objekts, wie hierin beschrieben, wie beispielsweise eines UAV, durchgeführt werden. Einige oder alle Aspekte des Prozesses 400 (ober beliebiger anderer hierin beschriebener Prozesse oder Variationen und/oder Kombinationen derselben) können unter der Steuerung eines oder mehrerer Rechner-/Steuerungssysteme durchgeführt werden, die mit ausführbaren Anweisungen konfiguriert sind und umgesetzt werden können als Code (z. B. ausführbare Anweisungen, ein oder mehrere Rechnerprogramme oder eine oder mehrere Anwendungen), die gemeinsam auf einem oder mehreren Prozessoren ausgeführt werden, durch Hardware oder Kombinationen derselben. Der Code kann auf einem rechnerlesbaren Speichermedium, zum Beispiel in der Form eines Rechnerprogramms, das mehrere durch einen oder mehrere Prozessoren ausführbare Anweisungen umfasst, gespeichert werden. Das rechnerlesbare Speichermedium kann nicht-flüchtig sein. Es ist nicht beabsichtigt, dass die Reihenfolge, in der die Operationen beschrieben werden, als eine Begrenzung aufgefasst wird, und eine beliebige Anzahl der beschriebenen Operationen kann in einer beliebigen Reihenfolge und/oder parallel kombiniert werden, um die Prozesse umzusetzen. 4 illustrates an exemplary process 400 to implement goal tracking, according to embodiments. Aspects of the process 400 may be performed by one or more processors on board and / or outside a moving object as described herein, such as a UAV. Some or all aspects of the process 400 (above any other processes or variations and / or combinations thereof described herein) may be performed under the control of one or more computing / control systems that are configured with executable instructions and may be implemented as code (eg, executable instructions) or multiple computer programs or one or more applications) that are executed together on one or more processors, by hardware or combinations thereof. The code may be stored on a computer-readable storage medium, for example in the form of a computer program comprising a plurality of instructions executable by one or more processors. The computer-readable storage medium may be non-volatile. It is not intended that the order in which the operations will be described be construed as a limitation, and any number of the described operations may be combined in any order and / or in parallel to implement the processes.

Der Prozess 400 schließt das Erfassen 402 von Zielinformationen für ein oder mehrere Ziele ein. Die Zielinformationen können von einer Leitstation, wie beispielsweise hierin beschrieben, empfangen werden. Außerdem oder alternativ können die Zielinformationen von einem Bestandteil (z. B. einem Speicher) an Bord eines beweglichen Objekts (z. B. eines UAV) oder einer von dem beweglichen Objekt entfernten Einrichtung, wie beispielsweise einem anderen beweglichen Objekt (z. B. einem anderen UAV), einem Server oder dergleichen, erhalten werden. In einigen Fällen können die Zielinformationen über ein Ziel durch das Ziel selbst bereitgestellt werden.The process 400 includes capturing 402 of destination information for one or more destinations. The destination information may be received by a control station, such as described herein. Additionally or alternatively, the destination information may be from a component (eg, a memory) aboard a mobile object (eg, a UAV) or a device remote from the mobile object, such as another mobile object (e.g. another UAV), a server or the like. In some cases, the destination information about a destination may be provided by the destination itself.

Bei verschiedenen Ausführungsformen können die Zielinformationen für ein bestimmtes bekanntes Ziel spezifische anfängliche Zielinformationen oder Zielartinformationen über (ein) möglicherweise unbekannte(s) Ziel(e) einschließen. Spezifische Zielinformationen schließen Koordinaten (z. B. Pixelkoordinaten), Größe, Position und andere Informationen über ein Ziel innerhalb eines oder mehrerer Bilder ein. Spezifische Zielinformationen können auf der Grundlage einer Anwenderwechselwirkung mit vorhandenen Bilddaten, wie beispielsweise hierin beschrieben, erzeugt werden. Zum Beispiel können spezifische Zielinformationen erzeugt werden, wenn ein Anwender ein bestimmtes Objekt als Ziel aus einem oder mehreren dem Anwender angezeigten Bildern auswählt. Die spezifischen Zielinformationen könnend die anfängliche Position und/oder Größe des Ziels einschließen, wenn das Ziel durch einen entfernten Anwender von innerhalb eines oder mehrerer Bilder ausgewählt wird.In various embodiments, the destination information for a particular known destination may include specific initial destination information or destination type information about a possibly unknown destination (s). Specific destination information includes coordinates (eg, pixel coordinates), size, location, and other information about a destination within one or more images. Specific destination information may be generated based on user interaction with existing image data, such as described herein. For example, specific destination information may be generated when a user selects a particular object as a destination from one or more images displayed to the user. The specific destination information may include the initial location and / or size of the destination when the destination is selected by a remote user from within one or more images.

Die Zielinformationen können ebenfalls Zielartinformationen, wie beispielsweise Farbe, Textur, Abmessung, Größe, Position und/oder beliebige andere Charakteristika, über eine Art oder Gruppe von möglicherweise unbekannten oder nicht identifizierten Zielen einschließen. Die Zielartinformationen können spezifisch durch einen Anwender eingegeben werden. Alternativ kann der Anwender ein(e) bereits vorhandene(s) Zielmuster oder -art (z. B. ein schwarzes Objekt oder ein rundes Objekt mit einem Radius, größer oder kleiner als ein bestimmter Wert) auswählen. Bei einigen Ausführungsformen kann der Anwender Zielartinformationen bereitstellen durch das Auswählen eines oder mehrerer Ziele von innerhalb eines oder mehrerer Bilder bereitstellen. Merkmale oder Charakteristika der ausgewählten Ziele können dann herausgezogen und/oder verallgemeinert werden, um die Zielartinformationen zu erzeugen, die dazu verwendet werden können, andere Ziele mit ähnlichen Merkmalen oder Charakteristika zu identifizieren. Bei verschiedenen Ausführungsformen kann eine solche Merkmalsextraktion durch eine Leitstation, eine Verarbeitungseinheit auf dem beweglichen Objekt oder eine dritte Einrichtung durchgeführt werden.The target information may also include targeting information such as color, texture, dimension, size, position, and / or any other characteristics about a type or group of potentially unknown or unidentified targets. The target type information can be input specifically by a user. Alternatively, the user may select an already existing target pattern or type (eg, a black object or a round object having a radius greater than or less than a certain value). In some embodiments, the user may provide destination type information by selecting one or more destinations from within one or more images. Features or characteristics of the selected targets may then be extracted and / or generalized to generate the target species information that may be used to identify other targets having similar characteristics or characteristics. In various embodiments, such feature extraction may be performed by a control station, a processing unit on the moving object, or a third device.

Die Zielinformationen (einschließlich von spezifischen Zielinformationen und Zielartinformationen) können wahlweise erwartete Charakteristika einschließen, bei denen sich das Ziel, falls identifiziert alten sollte, wenn das Ziel verfolgt wird. Zum Beispiel können die Zielinformationen eine erwartete Position des Ziels, ausgedrückt durch absolute oder relative Koordinaten innerhalb eines Bildes, einschließen. Das Verfolgungssystem kann dafür konfiguriert sein, das Ziel derart zu verfolgen, dass das Ziel, innerhalb eines vordefinierten Toleranzgrades, über die Zeit an im Wesentlichen der gleichen erwarteten Position gehalten wird. Alternativ oder zusätzlich können die Zielinformationen eine erwartete Größe des Ziels (z. B. ausgedrückt durch eine Anzahl von durch das Ziel eingenommenen Pixeln) einschließen. Das Verfolgungssystem kann dafür konfiguriert sein, das Ziel derart zu verfolgen, dass das Ziel, innerhalb eines vorbestimmten Toleranzgrades, bei im Wesentlichen der gleichen erwarteten Größe gehalten wird. Solche erwarteten Zielinformationen können für ein spezifisches Ziel die gleichen sein oder sich von den anfänglichen Zielinformationen unterscheiden. Die anfänglichen Zielinformationen werden typischerweise dazu verwendet, ein Ziel zu identifizieren. Sobald das Ziel identifiziert ist, können die erwarteten Zielinformationen dazu verwendet werden, jegliche Abweichung von den erwarteten Zielinformationen zu erkennen, so dass eine solche Abweichung berichtigt werden kann. In einigen Fällen können die Zielinformationen ebenfalls andere Werte, wie beispielsweise einen Zeitwert oder eine Verfallszeit, die einen Zeitraum angeben, während dessen das Ziel, falls identifiziert, verfolgt werden sollte, ein Kennzeichen, das angibt, ob die Zielinformationen spezifische Zielinformationen oder Zielartinformationen einschließen, und dergleichen, einschließen.The destination information (including specific destination information and destination type information) may optionally include expected characteristics where the destination, if identified, should be old when the destination is being tracked. For example, the destination information may include an expected location of the destination expressed by absolute or relative coordinates within an image. The tracking system may be configured to track the target such that within a predefined tolerance level, the target is maintained at substantially the same expected position over time. Alternatively or additionally, the target information may include an expected size of the target (eg, expressed by a number of pixels occupied by the target). The tracking system may be configured to track the target such that the target is maintained within a predetermined degree of tolerance at substantially the same expected magnitude. Such expected destination information may be the same for a specific destination or different from the initial destination information. The initial destination information is typically used to identify a destination. Once the target is identified, the expected target information can be used to detect any deviation from the expected target information so that such a bias can be corrected. In some cases, the destination information may also include other values, such as a time value or an expiration time, indicating a period during which the destination, if identified, should be tracked, a flag indicating whether the destination information includes specific destination information or destination type information, and the like.

Bei einigen Ausführungsformen können die erwarteten Zielinformationen, bei denen das Ziel zu halten ist, durch die Leitstation bereitgestellt werden. Zum Beispiel können die erwarteten. Zielinformationen auf der Grundlage einer Anwendereingabe in die Leitstation oder auf der Grundlage einer Konfigurationsdatei oder einem Datenspeicher, örtlich oder entfernt zu der Leitstation, erzeugt werden. Bei einigen anderen Ausführungsformen können die erwarteten Zielinformationen durch das bewegliche Objekt bereitgestellt werden. Zum Beispiel kann das bewegliche Objekt dafür konfiguriert sein, durch Voreinstellung ein Ziel im Wesentlichen bei der Mitte eines Bildes oder um bestimmte Koordinaten des Bildes zu halten. Als ein anderes Beispiel kann das bewegliche Objekt dafür konfiguriert sein, durch Voreinstellung das Ziel, wie durch die Bildgebungseinrichtung aufgenommen, bei einer bestimmten Größe zu halten. Bei noch einigen anderen Ausführungsformen können die erwarteten Zielinformationen durch einige andere Objekte oder eine Einrichtung außerhalb des beweglichen Objekts bereitgestellt werden.In some embodiments, the expected destination information to which the destination is to be maintained may be provided by the control station. For example, the expected. Destination information based on a user input to the control station or on the basis of a configuration file or a data memory, locally or remotely to the control station generated. In some other embodiments, the expected destination information may be provided by the moving object. For example, the movable object may be configured to preset a target substantially at the center of a Image or to hold certain coordinates of the image. As another example, the movable object may be configured to hold by default the target as captured by the imaging device at a particular size. In yet some other embodiments, the expected destination information may be provided by some other objects or a device external to the moving object.

Sobald die Zielinformationen empfangen sind, schließt der Prozess 400 das Identifizieren 404 eines Ziels auf der Grundlage der Zielinformationen, z. B. auf der Grundlage der Zielartinformationen, ein. Es können beliebige geeignete Bilderkennungs- oder -identifizierungstechniken verwendet werden, einschließlich von Herangehensweisen auf der Grundlage von CAD-artigen Objektmodellen (z. B. Kantenerkennung, Primärskizze, Marr, Mohan und Nevatia, Lowe oder Olivier Faugeras), erscheinungsbasierten Modellen (z. B. unter Verwendung von Kantenabgleich, Teile-und-herrsche-Suche, Graustufenabgleich, Gradientenabgleich, Histogramm von Rezeptivfeldreaktionen oder Großmodellbasen), merkmalsbasierten Modellen (z. B. unter Verwendung von Auswertungsbäumen, Hypothesengenerierung und -verifizierung, Lagekonsistenz, Lageakkumulation, Invarianz Geometric Hashing, skaleninvarianter Merkmalstransformation (scale-invariant feature transform – SIFT) oder Beschleunigte Robuste Merkmale (Speeded Up Robust Features – SURF)), genetischen Algorithmen und dergleichen.Once the destination information is received, the process closes 400 identifying 404 a destination based on the destination information, e.g. Based on the destination type information. Any suitable image recognition or identification techniques may be used, including approaches based on CAD-like object models (eg, edge detection, primary sketch, Marr, Mohan and Nevatia, Lowe or Olivier Faugeras), appearance-based models (e.g. using edge matching, divide-and-divide search, grayscale matching, gradient matching, histogram of recipe field reactions or large model bases), feature-based models (eg, using evaluation trees, hypothesis generation and verification, site consistency, lag accumulation, invariance geometric hashing, scale-invariant feature transform (SIFT) or accelerated robustness features (SURF)), genetic algorithms, and the like.

Nachdem das Ziel identifiziert worden ist, können nachfolgende durch die Bildgebungseinrichtung aufgenommene Bilder überwacht werden, um eine Abweichung des Ziels von bestimmten erwarteten Zielinformationen, die das Ziel als erwartete Position und/oder Größe beigehalten sollte, zu erkennen 406. Wie oben erörtert, können die erwarteten Zielinformationen durch eine Leitstation (z. B. auf der Grundlage einer Anwendereingabe), eine Konfigurationsdatei oder einen Speicher, verknüpft mit dem beweglichen Objekt, oder aus einigen anderen Quellen geliefert werden. Die erwarteten Zielinformationen können die gleichen sein wie die anfänglichen Zielinformationen oder nicht. Die Abweichung des Ziels kann erreicht werden durch das Vergleichen der jeweiligen Position, Größe und/oder beliebiger anderer geeigneter Charakteristika in einem oder mehreren Bildern mit erwarteten Charakteristika. Es können beliebige geeignete Bilderkennungs- oder -identifizierungstechniken, wie hierin erörtert, verwendet werdenAfter the target has been identified, subsequent images captured by the imaging device may be monitored to detect a deviation of the target from certain expected target information that the target should maintain as the expected position and / or size 406 , As discussed above, the expected destination information may be provided by a control station (eg, based on user input), a configuration file or memory associated with the mobile object, or from some other sources. The expected destination information may be the same as the initial destination information or not. The deviation of the target can be achieved by comparing the respective position, size, and / or any other suitable characteristics in one or more images with expected characteristics. Any suitable image recognition or identification techniques, as discussed herein, may be used

Bei einigen Ausführungsformen werden die erwarteten Zielinformationen als im Wesentlichen aufrechterhalten betrachtet, wenn die erkannte Abweichung innerhalb bestimmter vordefinierter Toleranzwerte liegt. In solchen Fällen kann die Abweichung als vernachlässigbar betrachtet werden, und es ist keine berichtigende Einstellung erforderlich. Nur wenn die Abweichung den vordefinierten Toleranzwert überschreitet, ist eine berichtigende Einstellung erforderlich. Wenn zum Beispiel die gegenwärtige Position des Ziels innerhalb einer vorbestimmten Anzahl von Pixeln von den erwarteten Koordinaten liegt, kann die Abweichung als vernachlässigbar betrachtet werden, und also ist keine berichtigende Einstellung erforderlich. Ähnlich kann, wenn die gegenwärtige Größe des Ziels innerhalb einer vorbestimmten Anzahl von Pixeln von der erwarteten Größe liegt, die Abweichung als vernachlässigbar betrachtet werden. Der vordefinierte Toleranzgrad kann durch Systemparameter definiert, durch Anwender, welche die Leitstation bedienen, konfiguriert oder auf andere Weise definiert werden.In some embodiments, the expected destination information is considered to be substantially maintained if the detected deviation is within certain predefined tolerance values. In such cases, the deviation may be considered negligible and no adjustment adjustment is required. Only if the deviation exceeds the predefined tolerance, a corrective adjustment is required. For example, if the current position of the target is within a predetermined number of pixels from the expected coordinates, the deviation may be considered negligible and so no corrective adjustment is required. Similarly, if the current size of the target is within a predetermined number of pixels of the expected size, the deviation may be considered negligible. The predefined tolerance level can be defined by system parameters, configured or otherwise defined by users who operate the control station.

Um die Abweichung zu berichtigen und im Wesentlichen die erwarteten Charakteristika des Ziels aufrechtzuerhalten, können Steuersignale oder -befehle erzeugt 408 werden, um das bewegliche Objekt, den Träger und/oder die Bildgebungseinrichtung einzustellen. Bei einigen Ausführungsformen können Abweichungen bei der Position des Ziels berichtigt werden über eine Einstellung an der Lage des beweglichen Objekts und/oder der Bildgebungseinrichtung (über den Träger), wie beispielsweise ausführlicher in 6 erörtert. Zum Beispiel kann eine solche Einstellung das Ändern der Winkelgeschwindigkeit des beweglichen Objekts und/oder der Bildgebungseinrichtung um eine oder mehrere Drehachsen einschließen. Abweichungen bei der Größe des Ziels können berichtigt werden über eine Einstellung an der Position des beweglichen Objekts und/oder an den Betriebsparametern der Bildgebungseinrichtung, wie beispielsweise ausführlicher in 7 erörtert. Zum Beispiel kann eine solche Einstellung das Ändern der linearen Geschwindigkeit des beweglichen Objekts entlang einer Achse einschließen. Alternativ oder zusätzlich kann die Einstellung das Ändern des Zooms, des Brennpunkts oder anderer mit der Bildgebungseinrichtung verknüpfter Charakteristika einschließen.To correct the drift and substantially maintain the expected characteristics of the target, control signals or commands may be generated 408 to adjust the moving object, the carrier and / or the imaging device. In some embodiments, deviations in the position of the target may be corrected via an adjustment to the attitude of the moving object and / or the imaging device (via the carrier), as described in more detail in FIG 6 discussed. For example, such an adjustment may include changing the angular velocity of the moveable object and / or the imaging device about one or more axes of rotation. Variations in the size of the target may be corrected via an adjustment to the position of the moving object and / or to the operating parameters of the imaging device, such as in more detail in FIG 7 discussed. For example, such an adjustment may include changing the linear velocity of the moveable object along an axis. Alternatively, or additionally, the adjustment may include changing the zoom, focus, or other characteristics associated with the imager.

Bei einigen Ausführungsformen kann die Einstellung durch Einschränkungen begrenzt werden, die durch die Systemkonfiguration, durch den Anwender, der eine Leitstation bedient, oder durch andere Instanzen begrenzt werden. Beispiele solcher Einschränkungen können eine maximale und/oder minimale Grenze für Drehwinkel, Winkel- und/oder lineare Geschwindigkeit, Betriebsparameter und dergleichen für das bewegliche Objekt (z. B. das Antriebssystem desselben), den Träger (z. B. ein Betätigungselement desselben), die Bildgebungseinrichtung oder dergleichen einschließen. Solche Schwellenwerte können verwendet werden, um den Bereich der Einstellung zu begrenzen. Zum Beispiel kann eine Einstellung, welche die Winkelgeschwindigkeit des beweglichen Objekts und/oder der Bildgebungseinrichtung im Verhältnis zu dem beweglichen Objekt (über einen Träger) um eine bestimmte Achse betrifft, gedeckelt werden durch eine maximale Winkelgeschwindigkeit, die für das bewegliche Objekt und/oder den Träger zulässig ist. Als ein anderes Beispiel kann eine Einstellung, welche die lineare Geschwindigkeit des beweglichen Objekts und/oder der Bildgebungseinrichtung im Verhältnis zu dem beweglichen Objekt (über einen Träger) betrifft, gedeckelt werden durch eine maximale lineare Geschwindigkeit, die für das bewegliche Objekt und/oder den Träger zulässig ist. Als ein anderes Beispiel kann die Einstellung für die Brennweite der Bildgebungseinrichtung durch die maximale und/oder minimale Brennweite der bestimmten Bildgebungseinrichtung begrenzt werden. Bei einigen Ausführungsformen können solche Grenzen vorbestimmt sein und hängen von der besonderen Konfiguration des beweglichen Objekts, des Trägers und/oder der Bildgebungseinrichtung ab. Bei einigen Ausführungsformen können die Grenzen (z. B. durch einen Hersteller, Administrator oder Anwender) konfigurierbar sein.In some embodiments, the setting may be limited by constraints imposed by the system configuration, by the user serving a control station, or by other entities. Examples of such constraints may include a maximum and / or minimum limit for rotational angle, angular and / or linear velocity, operating parameters, and the like for the moving object (eg, the drive system thereof), the carrier (eg, an actuator thereof). , the imager or the like. Such thresholds may be used to limit the range of adjustment. For example, a setting concerning the angular velocity of the moving object and / or the imaging device relative to the moving object (via a support) about a particular axis may be capped by a maximum angular velocity indicative of the moving object and / or the object Carrier is allowed. As another example, a setting concerning the linear velocity of the moving object and / or the imaging device relative to the moving object (via a carrier) may be capped by a maximum linear velocity indicative of the moving object and / or the Carrier is allowed. As another example, the focal length setting of the imaging device may be limited by the maximum and / or minimum focal length of the particular imaging device. In some embodiments, such limits may be predetermined and depend on the particular configuration of the moving object, the carrier, and / or the imaging device. In some embodiments, the boundaries (eg, by a manufacturer, administrator, or user) may be configurable.

Bei einigen Ausführungsformen können Warnanzeiger bereitgestellt werden, wenn die Einstellung entsprechend den oben beschriebenen Einschränkungen modifiziert wird (z. B. wenn die Winkelgeschwindigkeit des beweglichen Objekts und/oder des Trägers um eine bestimmte Achse gedeckelt wird durch eine maximale Winkelgeschwindigkeit, die für das bewegliche Objekt und/oder den Träger zulässig ist). Beispiele solcher Warnanzeiger können Text-, Audio- (z. B. Sirene oder Piepton), visuelle (z. B. bestimmte Lichtfarbe oder Blinklicht), kinetische (z. B. Vibration oder Bewegung), beliebige andere geeignete Arten von Signalen einschließen. Solche Warnanzeiger können unmittelbar durch das bewegliche Objekt oder einen Bestandteil desselben bereitgestellt werden. Alternativ oder zusätzlich können Warnanzeiger durch die Leitstation (z. B. über die Anzeige) bereitgestellt werden. Im letzteren Fall kann die Leitstation die Warnanzeiger auf der Grundlage von Signalen von dem beweglichen Objekt bereitstellen.In some embodiments, warning indicators may be provided if the adjustment is modified according to the constraints described above (eg, if the angular velocity of the moveable object and / or the beam is capped about a particular axis by a maximum angular velocity for the moveable object and / or the wearer is admissible). Examples of such warning indicators may include text, audio (eg, siren or beep), visual (eg, particular light color or flashing light), kinetic (eg, vibration or motion), any other suitable types of signals. Such warning indicators may be provided directly by the moving object or a component thereof. Alternatively or additionally, warning indicators may be provided by the control station (eg, via the display). In the latter case, the control station can provide the warning indicators based on signals from the moving object.

Bei einigen Ausführungsformen kann die Einstellung im Wesentlichen in Echtzeit durchgeführt werden, wenn das bewegliche Objekt vom Anwender bereitgestellte Navigationsbefehle oder eine vorbestimmte Flugbahn ausführt und/oder wenn die Bildgebungseinrichtung ein oder mehrere Bilder aufnimmt. Bei einigen Ausführungsformen kann die Einstellung auf der Grundlage anderer Informationen, wie beispielsweise durch einen oder mehrere Sensoren an Bord des beweglichen Objekts (z. B. Näherungssensor oder GPS-Sensor) erfassten Sensordaten, erzeugt werden. Zum Beispiel können Positionsinformationen des verfolgten Ziels durch einen Näherungssensor und/oder GPS-Sensor erhalten werden, der durch das Ziel selbst bereitgestellt wird (z. B. eine GPS-Position). Solche Positionsinformationen können, zusätzlich zu der erkannten Abweichung, dazu verwendet werden, die Einstellungssteuersignale zu erzeugen, um das Ziel zu verfolgen, wie beispielsweise hierin beschrieben.In some embodiments, the adjustment may be performed substantially in real time when the moving object is executing user supplied navigation commands or a predetermined trajectory and / or when the imaging device is capturing one or more images. In some embodiments, the adjustment may be generated based on other information, such as sensor data sensed by one or more sensors aboard the mobile object (eg, proximity sensor or GPS sensor). For example, positional information of the tracked target may be obtained by a proximity sensor and / or GPS sensor provided by the target itself (eg, a GPS position). Such position information, in addition to the detected deviation, may be used to generate the adjustment control signals to track the target, as described herein, for example.

Bei verschiedenen Ausführungsformen können die Erkennung 406 der Abweichung von den erwarteten Zielinformationen und/oder die Erzeugung 408 von Steuerbefehlen, um die erkannte Abweichung zu berichtigen, für einen vordefinierten oder unbestimmten Zeitraum wiederholt werden. Bei einigen Ausführungsformen können eine solche Abweichungserkennung und/oder Steuerbefehlserzeugung in bestimmten Abständen (z. B. alle 0,01 Sekunden, 0,1 Sekunden, 0,2 Sekunden, 0,5 Sekunden oder 1 Sekunde) durchgeführt werden.In various embodiments, the recognition 406 the deviation from the expected target information and / or the generation 408 of control commands to correct the detected deviation, be repeated for a predefined or indefinite period. In some embodiments, such deviation detection and / or command generation may be performed at certain intervals (eg, every 0.01 second, 0.1 second, 0.2 second, 0.5 second, or 1 second).

5 illustriert eine beispielhafte Konfiguration 500 eines beweglichen Objekts, eines Trägers und einer Nutzlast, nach Ausführungsformen. Die Konfiguration 500 wird dazu verwendet, beispielhafte Arten der Einstellung an dem beweglichen Objekt 502 und/oder der Nutzlast 506 zu illustrieren, die verwendet werden können, um ein Ziel zu verfolgen. Das bewegliche Objekt 502 und die Nutzlast 506 können beliebige hierin erörterte Ausführungsformen einschließen. Zum Beispiel kann das bewegliche Objekt 502 ein UAV einschließen, und die Nutzlast 506 kann eine Bildgebungseinrichtung einschließen. 5 illustrates an exemplary configuration 500 a movable object, a carrier and a payload, according to embodiments. The configuration 500 is used to illustrate exemplary types of adjustment to the moving object 502 and / or the payload 506 to illustrate that can be used to track a target. The moving object 502 and the payload 506 may include any embodiments discussed herein. For example, the moving object 502 include a UAV, and the payload 506 may include an imaging device.

Das bewegliche Objekt 502 kann dazu in der Lage sein, sich um bis zu drei senkrechte Achsen, wie beispielsweise die Achsen X1 (Nicken) 510, Y1 (Gieren) 508 und Z1 (Rollen) 512, zu drehen. Die Drehungen um die drei Achsen können jeweils als die Nickdrehung 522, Gierdrehung 520 beziehungsweise Rolldrehung 524 bezeichnet werden. Die Winkelgeschwindigkeiten des beweglichen Objekts 502 um die Achsen X1, Y1 und Z1 können jeweils als ωX1, ωY1 beziehungsweise ωZ1 ausgedrückt werden. Das bewegliche Objekt 502 kann ebenfalls zu Verschiebungsbewegungen 528, 526 und 530 entlang der Achsen X1, Y1 und Z1 in der Lage sein. Die linearen Geschwindigkeiten des beweglichen Objekts 502 entlang der Achsen X1, Y1 und Z1 können jeweils als VX1, VY1 beziehungsweise VZ1 ausgedrückt werden.The moving object 502 may be able to move up to three vertical axes, such as the X 1 (pitch) axes 510 , Y 1 (yaw) 508 and Z 1 (roles) 512 to turn. The rotations about the three axes can each be called the pitch rotation 522 , Yaw rotation 520 or roll rotation 524 be designated. The angular velocities of the moving object 502 about the axes X 1, Y 1 and Z 1 may each be as ω X1, Y1 ω or ω are expressed Z1. The moving object 502 can also cause displacement movements 528 . 526 and 530 along the axes X 1 , Y 1 and Z 1 to be able. The linear velocities of the moving object 502 along the axes X 1 , Y 1 and Z 1 may be expressed as V X1 , V Y1 and V Z1 , respectively.

In der beispielhaften Konfiguration ist die Nutzlast 506 über einen Träger 504 an das bewegliche Objekt 502 angeschlossen. Der Träger 504 kann dazu in der Lage sein, zu veranlassen, dass sich die Nutzlast 506 im Verhältnis zu dem beweglichen Objekt um bis zu drei senkrechte Achsen, X2 (Nicken) 516, Y2 (Gieren) 514 und Z2 (Rollen) 518 dreht und/oder entlang derselben bewegt. Die Achsen X2, Y2 und Z1 können jeweils parallel zu den Achsen X1, Y1 und Z1 sein. Bei einigen Ausführungsformen, wobei die Nutzlast ein optisches Modul 507 einschließt, kann die Rollachse Z2 518 im Wesentlichen parallel zu einem Lichtweg oder einer optischen Achse für das optische Modul 507 sein. Das optische Modul 507 kann optisch an einen Bildsensor, wie beispielsweise hierin beschrieben, angeschlossen sein, um Bilder aufzunehmen. Der Träger 504 kann auf der Grundlage von Steuersignalen, die mit dem Träger verbundenen Stellantrieben, wie beispielsweise Elektromotoren, bereitgestellt werden, veranlassen, dass sich die Nutzlast 506 um bis zu drei senkrechte Achsen, X2 (Nicken) 516, Y2 (Gieren) 514 und Z2 (Rollen) 518 dreht. Die Drehungen um die drei Achsen können jeweils als die Nickdrehung 534, Gierdrehung 532 beziehungsweise Rolldrehung 536 bezeichnet werden. Die Winkelgeschwindigkeiten der Nutzlast 506 um die Achsen X2, Y2 und Z2 können jeweils als ωX2, ωY2 beziehungsweise ωZ2 ausgedrückt werden. Der Träger 504 kann ebenfalls veranlassen, dass sich die Nutzlast 506 an Verschiebungsbewegungen 540, 538 und 542 entlang der Achsen X2, Y2 und Z2 im Verhältnis zu dem beweglichem Objekt 502 beteiligt. Die lineare Geschwindigkeit der Nutzlast 506 entlang der Achsen X2, Y2 und Z2 kann jeweils als VX2, VY2 beziehungsweise VZ2 ausgedrückt werden.In the example configuration, the payload is 506 about a carrier 504 to the moving object 502 connected. The carrier 504 may be able to induce the payload 506 in relation to the moving object by up to three vertical axes, X 2 (pitch) 516 , Y 2 (yaw) 514 and Z 2 (roles) 518 turns and / or moves along it. The axes X 2 , Y 2 and Z 1 may each be parallel to the axes X 1 , Y 1 and Z 1 . In some embodiments, the payload is an optical module 507 includes, can the roll axis Z 2 518 substantially parallel to a light path or optical axis for the optical module 507 be. The optical module 507 may be optically connected to an image sensor, such as described herein, to capture images. The carrier 504 On the basis of control signals provided to the carrier associated actuators, such as electric motors, cause the payload 506 up to three vertical axes, X 2 (pitch) 516 , Y 2 (yaw) 514 and Z 2 (roles) 518 rotates. The rotations about the three axes can each be called the pitch rotation 534 , Yaw rotation 532 or roll rotation 536 be designated. The angular velocities of the payload 506 about the axes X 2, Y 2 and Z 2 may each be as ω X2, Y2 ω or ω Z2 are expressed. The carrier 504 can also cause the payload 506 on displacement movements 540 . 538 and 542 along the axes X 2 , Y 2 and Z 2 in relation to the moving object 502 involved. The linear velocity of the payload 506 along the axes X 2 , Y 2 and Z 2 can be expressed as V X2 , V Y2 and V Z2 , respectively.

Bei einigen Ausführungsformen kann der Träger 504 nur ermöglichen, dass sich die Nutzlast 506 um eine Teilmenge der Achsen X2, Y2 und Z2 und/oder entlang derselben im Verhältnis zu dem beweglichen Objekt 502 bewegt. Zum Beispiel kann der Träger 504 nur ermöglichen, dass sich die Nutzlast 506 um X2, Y2, Z2 oder eine beliebige Kombination derselben dreht, ohne zu ermöglichen, dass sich die Nutzlast 506 entlang einer der Achsen bewegt. Zum Beispiel kann der Träger 504 ermöglichen, dass sich die Nutzlast 506 nur um eine der Achsen X2, Y2 und Z2 dreht. Der Träger 504 kann ermöglichen, dass sich die Nutzlast 506 nur um zwei der Achsen X2, Y2 und Z2 dreht. Der Träger 504 kann ermöglichen, dass sich die Nutzlast 506 um alle drei der Achsen X2, Y2 und Z2 dreht.In some embodiments, the carrier 504 only allow the payload 506 around a subset of the axes X 2 , Y 2 and Z 2 and / or along the same relative to the moving object 502 emotional. For example, the carrier 504 only allow the payload 506 to X 2 , Y 2 , Z 2 or any combination of the same turns, without allowing the payload 506 moved along one of the axes. For example, the carrier 504 allow for the payload 506 only one of the axes X 2 , Y 2 and Z 2 rotates. The carrier 504 can allow for the payload 506 only about two of the axes X 2 , Y 2 and Z 2 rotates. The carrier 504 can allow for the payload 506 about all three of the axes X 2 , Y 2 and Z 2 rotates.

In einigen anderen Fällen kann der Träger 504 nur ermöglichen, dass sich die Nutzlast 506 entlang der Achsen X2, Y2, Z2 oder einer beliebigen Kombination derselben bewegt, ohne zu ermöglichen, dass sich die Nutzlast 506 um eine der Achsen dreht. Zum Beispiel kann der Träger 504 ermöglichen, dass sich die Nutzlast 506 entlang nur einer der Achsen X2, Y2, Z2 bewegt. Der Träger 504 kann ermöglichen, dass sich die Nutzlast 506 entlang nur zweier der Achsen X2, Y2, Z2 bewegt. Der Träger 504 kann ermöglichen, dass sich die Nutzlast 506 entlang nur aller drei der Achsen X2, Y2, Z2 bewegt.In some other cases, the wearer may 504 only allow the payload 506 Moved along the axes X 2 , Y 2 , Z 2 or any combination thereof, without allowing the payload 506 rotates about one of the axes. For example, the carrier 504 allow for the payload 506 moved along only one of the axes X 2 , Y 2 , Z 2 . The carrier 504 can allow for the payload 506 moved along only two axes of X 2, Y 2, Z 2nd The carrier 504 can allow for the payload 506 moved along only all three of the axes X 2 , Y 2 , Z 2 .

Bei noch anderen Ausführungsformen kann der Träger 504 ermöglichen, dass die Nutzlast 506 sowohl Dreh- als auch Verschiebungsbewegungen im Verhältnis zu dem beweglichen Objekt ausführt. Zum Beispiel kann der Träger 504 dafür konfiguriert sein, zu ermöglichen, dass sich die Nutzlast 506 entlang einer, zweier oder drei der Achsen X2, Y2, Z2 bewegt und/oder um dieselben dreht.In still other embodiments, the carrier 504 allow that payload 506 performs both rotational and displacement movements in relation to the moving object. For example, the carrier 504 be configured to allow the payload 506 along one, two or three of the axes X 2 , Y 2 , Z 2 moves and / or rotate about the same.

Bei einigen anderen Ausführungsformen kann die Nutzlast 506 unmittelbar ohne einen Träger 504 an das bewegliche Objekt 502 angeschlossen sein, oder der Träger 504 kann nicht ermöglichen, dass sich die Nutzlast 506 im Verhältnis zu dem beweglichen Objekt 502 bewegt. In solchen Fällen sind die Lage, Position und/oder Ausrichtung der Nutzlast 506 im Verhältnis zu dem beweglichen Objekt 502 festgelegt.In some other embodiments, the payload 506 immediately without a carrier 504 to the moving object 502 be connected or the carrier 504 can not allow the payload 506 in relation to the moving object 502 emotional. In such cases, the location, position and / or orientation of the payload 506 in relation to the moving object 502 established.

Bei verschiedenen Ausführungsformen kann eine Einstellung an der Lage, Position und/oder Ausrichtung der Nutzlast 506, gemeinsam oder einzeln, erreicht werden über eine geeignete Einstellung an dem beweglichen Objekt 502, dem Träger 504 und/oder der Nutzlast 506. Zum Beispiel kann eine Drehung von 6ß Grad um eine gegebene Achse (z. B. die Gierachse) für die Nutzlast erreicht werden durch eine 60-Grad-Drehung durch das bewegliche Objekt allein eine 60-Grad-Drehung durch die Nutzlast im Verhältnis zu dem beweglichen Objekt, wie durch den Träger bewirkt, oder eine Kombination einer 40-Grad-Drehung durch das bewegliche Objekt und einer 20-Grad-Drehung durch die Nutzlast im Verhältnis zu dem beweglichen Objekt.In various embodiments, adjustment may be to the location, position, and / or orientation of the payload 506 , common or single, can be achieved via a suitable adjustment on the moving object 502 , the carrier 504 and / or the payload 506 , For example, a rotation of 6 degrees about a given axis (e.g., the yaw axis) for the payload can be achieved by a 60 degree rotation through the moving object alone a 60 degree turn by the payload relative to moving object, as effected by the carrier, or a combination of a 40 degree rotation by the moving object and a 20 degree rotation by the payload relative to the moving object.

Ähnlich kann eine Verschiebungsbewegung für die Nutzlast, gemeinsam oder einzeln, erreicht werden über eine Einstellung an dem beweglichen Objekt 502 und dem Träger 504. Die gewünschte Einstellung kann, zusätzlich oder alternativ, erreicht werden durch eine Einstellung an den Betriebsparametern der Nutzlast. Solche Betriebsparameter der Nutzlast können zum Beispiel ein Niveau des Herein-/Herauszoomens oder eine Brennweite einer Bildgebungseinrichtung einschließen.Similarly, a displacement movement for the payload, commonly or individually, can be achieved via a setting on the moving object 502 and the carrier 504 , The desired setting can be achieved, additionally or alternatively, by adjusting the operating parameters of the payload. Such operating parameters of the payload may include, for example, an in / out zoom level or a focal length of an imager.

6 illustriert ein beispielhaftes Verfolgungsverfahren zum Aufrechterhalten einer erwarteten Position eines Ziels, nach Ausführungsformen. Ein beispielhaftes Bild 600 wird gezeigt, wie beispielsweise durch eine durch ein bewegliches Objekt getragene Bildgebungseinrichtung aufgenommen. Angenommen, dass das Bild eine Breite von W Pixeln und eine Höhe von H Pixeln hat (wobei W und H positive ganze Zahlen sind). Eine Position innerhalb des Bildes kann durch ein Paar von Koordinaten entlang einer horizontalen Achse 601 (entlang der Breite des Bildes) und einer vertikalen Achse 603 (entlang der Höhe des Bildes) definiert werden, wobei die obere linke Ecke des Bildes die Koordinaten (0, 0) hat und die untere rechte Ecke des Bildes die Koordinaten (W, H) hat. 6 FIG. 10 illustrates an exemplary tracking method for maintaining an expected position of a target, according to embodiments. FIG. An exemplary picture 600 is shown as being taken, for example, by an imaging device carried by a moving object. Assume that the image has a width of W pixels and a height of H pixels (where W and H are positive integers). A position within the image may be defined by a pair of coordinates along a horizontal axis 601 (along the width of the image) and a vertical axis 603 (along the height of the image), where the upper left corner of the image has the coordinates (0, 0) and the lower right corner of the image has the coordinates (W, H).

Angenommen, dass ein Ziel, wie in dem Bild 600 aufgenommen, an einer Position P (u, v) 602 angeordnet ist und die erwartete Position P0 (u0, v0) 604 des Ziels ist, die sich von P 602 unterscheidet. Bei einigen Ausführungsformen kann die erwartete Position P0 (u0, v0) des Ziels nahe der Mitte des Bildes liegen, so dass u0 = W/2 und v0 = H/2. Bei einer anderen Ausführungsform kann die erwartete Position des Ziels irgendwo anders innerhalb des Bildes (z. B. außermittig) angeordnet sein. Bei verschiedenen Ausführungsformen kann die erwartete Position des Ziels die gleiche sein wie die anfängliche Position des Ziels (z. B. wie durch die Leitstation bereitgestellt) oder nicht. Angenommen, dass die gegenwärtige Position P von der erwarteten Position P0 derart abweicht, dass die Abweichung einen vorbestimmten Schwellenwert (wie beispielsweise ausgedrückt durch ein Δx von u0 und ein Δy von v0) überschreitet, dann ist eine Einstellung erforderlich, um die Zielposition von P nahe zu der erwarteten Position P0 zu bringen. Suppose that a goal, as in the picture 600 recorded at a position P (u, v) 602 is arranged and the expected position P 0 (u 0 , v 0 ) 604 of the goal, which is different from P 602 different. In some embodiments, the expected position P 0 (u 0 , v 0 ) of the target may be near the center of the image such that u 0 = W / 2 and v 0 = H / 2. In another embodiment, the expected position of the target may be located elsewhere within the image (eg, off-center). In various embodiments, the expected position of the target may be the same as the initial position of the target (eg, as provided by the control station) or not. Assuming that the current position P deviates from the expected position P 0 such that the deviation exceeds a predetermined threshold (such as expressed by a Δx of u 0 and a Δy of v 0 ), then adjustment is required to reach the target position from P close to the expected position P 0 .

Bei einigen Ausführungsformen kann die Abweichung von der erwarteten Zielposition verwendet werden, um eine oder mehrere Winkelgeschwindigkeiten zum Drehen des Gesichtsfeldes der Bildgebungseinrichtung um eine oder mehrere Achsen abzuleiten. Zum Beispiel kann eine Abweichung entlang der horizontalen Achse 601 des Bildes (z. B. zwischen u und u0) verwendet werden, um eine Winkelgeschwindigkeit ωY 610 zum Drehen des Gesichtsfeldes der Bildgebungseinrichtung um die Y-(Gier-)Achse 606 abzuleiten, wie folgt: ωy = α·(u – u0), wobei α ∊ R (reale Zahlen) (1) In some embodiments, the deviation from the expected target position may be used to derive one or more angular velocities for rotating the field of view of the imager about one or more axes. For example, a deviation along the horizontal axis 601 of the image (eg between u and u 0 ) can be used to obtain an angular velocity ω Y 610 for rotating the field of view of the imaging device about the Y (yaw) axis 606 derive as follows: ω y = α · (u - u 0 ), where α ε R (real numbers) (1)

Die Drehung um die Y-Achse für das Gesichtsfeld einer Bildgebungseinrichtung kann durch eine Drehung des beweglichen Objekts, eine Drehung der Nutzlast (über einen Träger) im Verhältnis zu dem beweglichen Objekt oder eine Kombination von beiden erreicht werden. Bei einigen Ausführungsformen kann eine Einstellung an der Nutzlast gewählt werden, wenn eine Einstellung an dem beweglichen Objekt unausführbar oder anderweitig unerwünscht ist, zum Beispiel, wenn die Navigationsbahn des beweglichen Objekts vorbestimmt ist. In der Gleichung (1) ist α eine Konstante, die vordefiniert und/oder auf der Grundlage der Konfiguration des beweglichen Objekts (z. B., wenn die Drehung durch das bewegliche Objekt erreicht wird), die Konfiguration des Trägers (z. B., wenn die Drehung durch den Träger erreicht wird) oder beider (z. B., wenn die Drehung durch eine Kombination des beweglichen Objekts und des Trägers erreicht wird) geeicht werden kann. Bei einigen Ausführungsformen ist α größer als null (α > 0). Bei anderen Ausführungsformen kann α nicht größer als null sein (α ≤ 0). Bei einigen Ausführungsformen kann α dazu verwendet werden, einen berechneten Pixelwert auf ein entsprechendes Steuerhebelmaß oder eine Empfindlichkeit zum Steuern der Winkelgeschwindigkeit um eine bestimmte Achse (z. B. die Gierachse) abzubilden. Im Allgemeinen kann der Steuerhebel dazu verwendet werden, die Winkel- oder lineare Geschwindigkeit eines steuerbaren Objekts (z. B. eines UAV oder Trägers) zu steuern. Ein größeres Steuerhebelmaß entspricht größerer Empfindlichkeit und größerer Geschwindigkeit (für Winkel- oder lineare Bewegung). Bei einigen Ausführungsformen kann das Steuerhebelmaß oder ein Bereich desselben durch Konfigurationsparameter des Flugsteuerungssystems für ein UAV oder Konfigurationsparameter eines Steuerungssystems für einen Träger bestimmt werden. Die oberen und unteren Grenzen des Bereichs des Steuerhebelmaßes können jegliche willkürliche Zahlen einschließen. Zum Beispiel kann der Bereich des Steuerhebelmaßes (1000, –1000) für ein Flugsteuerungssystem und (–1000, 1000) für ein anderes Flugsteuerungssystem betragen.The rotation about the Y axis for the field of view of an imaging device can be achieved by a rotation of the moving object, a rotation of the payload (via a carrier) relative to the moving object, or a combination of both. In some embodiments, adjustment to the payload may be selected when adjustment to the moving object is unfeasible or otherwise undesirable, for example, when the navigation path of the moving object is predetermined. In the equation (1), α is a constant that is predefined and / or based on the configuration of the moving object (for example, when the rotation is achieved by the moving object), the configuration of the carrier (e.g. when the rotation is achieved by the carrier) or both (eg, when the rotation is achieved by a combination of the moving object and the carrier) can be calibrated. In some embodiments, α is greater than zero (α> 0). In other embodiments, α may not be greater than zero (α ≦ 0). In some embodiments, α may be used to map a calculated pixel value to a corresponding control lever amount or sensitivity to control the angular velocity about a particular axis (eg, the yaw axis). In general, the control lever can be used to control the angular or linear velocity of a controllable object (eg, a UAV or carrier). A larger control lever size corresponds to greater sensitivity and greater speed (for angular or linear motion). In some embodiments, the control lever dimension or a portion thereof may be determined by configuration parameters of the flight control system for a UAV or configuration parameters of a control system for a wearer. The upper and lower limits of the range of the control lever measure may include any arbitrary numbers. For example, the range of the control lever amount may be (1000, -1000) for a flight control system and (-1000, 1000) for another flight control system.

Zum Beispiel angenommen, dass die Bilder eine Breite von W = 1024 Pixeln und eine Höhe von H = 768 Pixeln haben. Folglich beträgt die Größe der Bilder 1024·768. Ferner angenommen, dass die erwartete Position des Ziels ein u0 = 512 hat. Folglich gilt (u – u0) ∊ (–512, 512). Angenommen, dass der Bereich des Steuerhebelmaßes um die Gierachse (–1000, 1000) beträgt, dann beträgt das maximale Steuerhebelmaß oder die maximale Empfindlichkeit 1000 und α = 1000/512. Folglich kann der Wert von α durch die durch die Bildgebungseinrichtung bereitgestellte Bildauflösung oder -größe, den Bereich des Steuerhebelmaßes (z. B. um eine bestimmte Drehachse), das maximale Steuerhebelmaß oder die maximale Empfindlichkeit und/oder andere Faktoren beeinflusst werden.For example, assume that the images have a width of W = 1024 pixels and a height of H = 768 pixels. As a result, the size of the images is 1024 × 768. Further assume that the expected position of the target has u 0 = 512. Consequently, (u-u 0 ) ε (-512, 512). Assuming that the range of the control lever amount is around the yaw axis (-1000, 1000), then the maximum control lever amount or the maximum sensitivity is 1000 and α = 1000/512. Thus, the value of α may be affected by the image resolution or size provided by the imager, the range of the control lever amount (eg, about a particular axis of rotation), the maximum control lever amount or the maximum sensitivity, and / or other factors.

Zum Beispiel entspricht, wenn die Drehung durch eine Drehung des beweglichen Objekts erreicht wird, die Y-Achse 606 von 6 der Achse Y1 508 für das bewegliche Objekt, wie in 5 illustriert, und die Gesamtwinkelgeschwindigkeit ωY des Gesichtsfeldes wird ausgedrückt als die Winkelgeschwindigkeit ωY1 für das bewegliche Objekt: ωy = ωy1 = α1·(u – u0), wobei α1 ∊ R (2) For example, when the rotation is achieved by a rotation of the moving object, the Y-axis corresponds 606 from 6 the axis Y 1 508 for the moving object, as in 5 and the total angular velocity ω Y of the visual field is expressed as the angular velocity ω Y1 for the moving object: ω y = ω y1 = α 1 · (u-u 0 ), where α 1 ε R (2)

In der Gleichung (2) ist α1 eine Konstante, die auf der Grundlage der Konfiguration des beweglichen Objekts definiert wird. Bei einigen Ausführungsformen ist α1 größer als null (α1 > 0). Das α1 kann ähnlich dem oben erörterten α definiert werden. Zum Beispiel kann ein Wert von α1 auf der Grundlage von Bildauflösung oder -größe und/oder Bereich des Steuerhebelmaßes für das bewegliche Objekt (z. B. um die Gierachse) definiert werden.In the equation (2), α 1 is a constant defined based on the configuration of the moving object. In some embodiments, α 1 is greater than zero (α 1 > 0). The α 1 can be defined similarly to the α discussed above. For example, a value of α 1 may be defined based on the image resolution or size and / or range of the control lever measure for the moving object (eg, about the yaw axis).

Ähnlich entspricht, wenn die Drehung durch eine Drehung der Nutzlast im Verhältnis zu dem beweglichen Objekt (z. B. über den Träger) erreicht wird, die Y-Achse 606 von 6 der Achse Y2 514 für die Nutzlast, wie in 5 illustriert, und die Gesamtwinkelgeschwindigkeit ωY des Gesichtsfeldes wird ausgedrückt als die Winkelgeschwindigkeit ωY2 für die Nutzlast im Verhältnis zu dem beweglichen Objekt: ωy = ωy2 = α2·(u – u0), wobei α2 ∊ R (3) Similarly, when the rotation is achieved by a rotation of the payload relative to the moving object (eg, via the carrier) will, the Y-axis 606 from 6 the axis Y 2 514 for the payload, as in 5 and the total angular velocity ω Y of the visual field is expressed as the angular velocity ω Y2 for the payload relative to the mobile object: ω y = ω y 2 = α 2 · (u - u 0), where α 2 ε R (3)

In der Gleichung (3) ist α2 eine Konstante, die auf der Grundlage der Konfiguration des Trägers und/oder der Nutzlast definiert wird. Bei einigen Ausführungsformen ist α2 größer als null (α2 > 0). Das α2 kann ähnlich dem oben erörterten α definiert werden. Zum Beispiel kann der Wert von α2 auf der Grundlage von Bildauflösung oder -größe und/oder Bereich des Steuerhebelmaßes für den Träger (z. B. um die Gierachse) definiert werden.In the equation (3), α 2 is a constant defined based on the configuration of the carrier and / or the payload. In some embodiments, α 2 is greater than zero (α 2 > 0). The α 2 can be defined similarly to the α discussed above. For example, the value of α 2 may be defined based on the image resolution or size and / or range of the control lever dimension for the wearer (eg, about the yaw axis).

Im Allgemeinen kann die Winkelgeschwindigkeit des Gesichtsfeldes um die Y-(Gier-)Achse 606 ausgedrückt werden als eine Kombination der Winkelgeschwindigkeit ωY1 für das bewegliche Objekt und der Winkelgeschwindigkeit ωY2 für die Nutzlast im Verhältnis zu dem beweglichen Objekt, beispielsweise wie folgt: ωy = ωy1 + ωy2 (4) In general, the angular velocity of the visual field can be around the Y (yaw) axis 606 are expressed as a combination of the angular velocity ω Y1 for the moving object and the angular velocity ω Y2 for the payload relative to the mobile object, for example as follows: ω y = ω + ω y1 y2 (4)

In der Gleichung (4) kann entweder ωY1 oder ωY2 null sein.In the equation (4), either ω Y1 or ω Y2 may be zero.

Wie hierin illustriert, kann die Richtung der Drehung um die Y-(Gier-)Achse von dem Vorzeichen von u – u0 abhängen. Falls die erwartete Position zum Beispiel rechts von der tatsächlichen Position angeordnet ist (wie in 6 illustriert), dann gilt u – u0 < 0, und das Gesichtsfeld muss sich gegen den Uhrzeigersinn um die Gierachse 606 drehen (z. B. nach links schwenken), um das Ziel zu der erwarteten Position zu bringen. Falls die erwartete Position andererseits links von der tatsächlichen Position angeordnet ist, dann gilt u – u0 > 0, und das Gesichtsfeld muss sich im Uhrzeigersinn um die Gierachse 606 drehen (z. B. nach rechts schwenken), um das Ziel zu der erwarteten Position zu bringen.As illustrated herein, the direction of rotation about the y (yaw) axis may depend on the sign of u-u 0 . For example, if the expected position is located to the right of the actual position (as in FIG 6 illustrated), then u - u 0 <0, and the field of view must be counterclockwise about the yaw axis 606 Turn (eg, turn left) to bring the target to the expected position. On the other hand, if the expected position is located to the left of the actual position, then u - u 0 > 0, and the field of view must be clockwise about the yaw axis 606 turn (eg, turn right) to bring the target to the expected position.

Wie hierin illustriert, kann die Drehgeschwindigkeit (z. B. ein absoluter Wert der Winkelgeschwindigkeit) um eine gegebene Achse (z. B. die Y-(Gier-)Achse) von dem Abstand zwischen der erwarteten und der tatsächlichen Position des Ziels entlang der Achse (d. h., |u – u0|) abhängen. Je weiter der Abstand ist, desto größer ist die Drehgeschwindigkeit. Desgleichen ist, je näher der Abstand ist, desto langsamer die Drehgeschwindigkeit. Wenn die erwartete Position mit der Position entlang der Achse übereinstimmt (z. B. u = u0), dann ist die Drehgeschwindigkeit um die Achse null, und die Drehung hält an.As illustrated herein, the rotational speed (eg, an absolute value of the angular velocity) about a given axis (eg, the Y (yaw) axis) may be determined from the distance between the expected and actual positions of the target along the Axis (ie, | u - u 0 |). The farther the distance, the greater the speed of rotation. Likewise, the closer the distance, the slower the rotation speed. If the expected position coincides with the position along the axis (eg, u = u 0 ), then the rotational speed about the axis is zero and the rotation stops.

Das Verfahren zum Einstellen der Abweichung zwischen der erwarteten Zielposition und der tatsächlichen Zielposition entlang der horizontalen Achse 601, wie oben erörtert, kann auf eine ähnliche Weise angewendet werden, um die Abweichung des Ziels entlang einer anderen Achse 603 zu berichtigen. Zum Beispiel kann eine Abweichung entlang der vertikalen Achse 603 des Bildes (z. B. zwischen v und v0) verwendet werden, um eine Winkelgeschwindigkeit ωx 612 für das Gesichtsfeld der Bildgebungseinrichtung um die X-(Nick-)Achse 608 abzuleiten, wie folgt: ωx = β·(v – v0), wobei β ∊ R (reale Zahlen) (5) The method of adjusting the deviation between the expected target position and the actual target position along the horizontal axis 601 As discussed above, it may be applied in a similar manner to the deviation of the target along another axis 603 to correct. For example, a deviation along the vertical axis 603 of the image (e.g., between v and v 0 ) may be used to obtain an angular velocity ω x 612 for the field of view of the imaging device about the X (pitch) axis 608 derive as follows: ω x = β · (v - v 0 ), where β ∈ R (real numbers) (5)

Die Drehung um die X-Achse für das Gesichtsfeld einer Bildgebungseinrichtung kann durch eine Drehung des beweglichen Objekts, eine Drehung der Nutzlast (über einen Träger) im Verhältnis zu dem beweglichen Objekt oder eine Kombination von beiden erreicht werden. Also ist, in der Gleichung (5), β eine Konstante, die vordefiniert und/oder auf der Grundlage der Konfiguration des beweglichen Objekts (z. B., wenn die Drehung durch das bewegliche Objekt erreicht wird), die Konfiguration des Trägers (z. B., wenn die Drehung durch den Träger erreicht wird) oder beider (z. B., wenn die Drehung durch eine Kombination des beweglichen Objekts und des Trägers erreicht wird) geeicht werden kann. Bei einigen Ausführungsformen ist β größer als null (β > 0). Bei anderen Ausführungsformen kann β nicht größer als null sein (β ≤ 0). Bei einigen Ausführungsformen kann β dazu verwendet werden, einen berechneten Pixelwert auf ein entsprechendes Steuerhebelmaß oder eine Empfindlichkeit zum Steuern der Winkelgeschwindigkeit um eine bestimmte Achse (z. B. die Nickachse) abzubilden. Im Allgemeinen kann der Steuerhebel dazu verwendet werden, die Winkel- oder lineare Geschwindigkeit eines steuerbaren Objekts (z. B. eines UAV oder Trägers) zu steuern. Ein größeres Steuerhebelmaß entspricht größerer Empfindlichkeit und größerer Geschwindigkeit (für Winkel- oder lineare Bewegung). Bei einigen Ausführungsformen kann das Steuerhebelmaß oder ein Bereich desselben durch Konfigurationsparameter des Flugsteuerungssystems für ein UAV oder Konfigurationsparameter eines Steuerungssystems für einen Träger bestimmt werden. Die oberen und unteren Grenzen des Bereichs des Steuerhebelmaßes können jegliche willkürliche Zahlen einschließen. Zum Beispiel kann der Bereich des Steuerhebelmaßes (1000, –1000) für ein Flugsteuerungssystem und (–1000, 1000) für ein anderes Flugsteuerungssystem betragen.The rotation about the X-axis for the field of view of an imaging device can be achieved by a rotation of the moving object, a rotation of the payload (via a carrier) relative to the moving object, or a combination of both. Thus, in Equation (5), β is a constant that is predefined and / or based on the configuration of the moving object (eg, when the rotation is achieved by the moving object), the configuration of the carrier (e.g. B. when the rotation is achieved by the carrier) or both (eg, when the rotation is achieved by a combination of the moving object and the carrier) can be calibrated. In some embodiments, β is greater than zero (β> 0). In other embodiments, β may not be greater than zero (β ≤ 0). In some embodiments, β may be used to map a calculated pixel value to a corresponding control lever amount or sensitivity to control the angular velocity about a particular axis (eg, the pitch axis). In general, the control lever can be used to control the angular or linear velocity of a controllable object (eg, a UAV or carrier). A larger control lever size corresponds to greater sensitivity and greater speed (for angular or linear motion). In some embodiments, the control lever dimension or a portion thereof may be determined by configuration parameters of the flight control system for a UAV or configuration parameters of a control system for a wearer. The upper and lower limits of the range of the control lever measure may include any arbitrary numbers. For example, the range of the control lever amount may be (1000, -1000) for a flight control system and (-1000, 1000) for another flight control system.

Zum Beispiel angenommen, dass die Bilder eine Breite von W = 1024 Pixeln und eine Höhe von H = 768 Pixeln haben. Folglich beträgt die Größe der Bilder 1024·768. Ferner angenommen, dass die erwartete Position des Ziels ein v0 = 384 hat. Folglich gilt (v – v0) ∊ (–384, 384). Angenommen, dass der Bereich des Steuerhebelmaßes um die Nickachse (–1000, 1000) beträgt, dann beträgt das maximale Steuerhebelmaß oder die maximale Empfindlichkeit 1000 und β = 1000/512. Folglich kann der Wert von α durch die durch die Bildgebungseinrichtung bereitgestellte Bildauflösung oder -größe, den Bereich des Steuerhebelmaßes (z. B. um eine bestimmte Drehachse), das maximale Steuerhebelmaß oder die maximale Empfindlichkeit und/oder andere Faktoren beeinflusst werden.For example, assume that the images have a width of W = 1024 pixels and a height of H = 768 pixels. As a result, the size of the images is 1024 × 768. Further assume that the expected position of the target has a v 0 = 384. Consequently, (v - v 0 ) ε (-384, 384). Assuming that the range of the control lever amount is around the pitch axis (-1000, 1000), then the maximum control lever amount or the maximum sensitivity is 1000 and β = 1000/512. Thus, the value of α may be affected by the image resolution or size provided by the imager, the range of the control lever amount (eg, about a particular axis of rotation), the maximum control lever amount or the maximum sensitivity, and / or other factors.

Zum Beispiel entspricht, wenn die Drehung durch eine Drehung des beweglichen Objekts erreicht wird, die X-Achse 608 von 6 der Achse X1 510 für das bewegliche Objekt, wie in 5 illustriert, und die Gesamtwinkelgeschwindigkeit ωX des Gesichtsfeldes wird ausgedrückt als die Winkelgeschwindigkeit ωX1 für das bewegliche Objekt: ωx = ωx1 = β1·(v – v0), wobei β1 ∊ R (6) For example, when the rotation is achieved by a rotation of the moving object, the X-axis corresponds 608 from 6 the axis X 1 510 for the moving object, as in 5 and the total angular velocity ω X of the visual field is expressed as the angular velocity ω X1 for the moving object: ω x = ω x1 = β 1 · (v - v 0 ), where β 1 ε R (6)

In der Gleichung (6) ist β1 eine Konstante, die auf der Grundlage der Konfiguration des beweglichen Objekts definiert wird. Bei einigen Ausführungsformen ist β1 größer als null (β1 > 0). Das β1 kann ähnlich dem oben erörterten β definiert werden. Zum Beispiel kann ein Wert von β1 auf der Grundlage von Bildauflösung oder -größe und/oder Bereich des Steuerhebelmaßes für das bewegliche Objekt (z. B. um die Nickachse) definiert werden.In the equation (6), β 1 is a constant defined based on the configuration of the moving object. In some embodiments, β 1 is greater than zero (β 1 > 0). The β 1 can be defined similarly to the β discussed above. For example, a value of β 1 may be defined based on image resolution or size and / or range of the control lever measure for the moving object (eg, about the pitch axis).

Ähnlich entspricht, wenn die Drehung durch eine Drehung der Nutzlast im Verhältnis zu dem beweglichen Objekt (z. B. über den Träger) erreicht wird, die X-Achse 608 von 6 der Achse X2 516 für die Nutzlast, wie in 5 illustriert, und die Gesamtwinkelgeschwindigkeit ωX des Gesichtsfeldes wird ausgedrückt als die Winkelgeschwindigkeit ωX2 für die Nutzlast im Verhältnis zu dem beweglichen Objekt: ωx = ωx2 = β2·(v – v0), wobei β2 ∊ R (6) Similarly, when rotation is achieved by rotation of the payload relative to the moving object (eg, via the carrier), the X-axis corresponds 608 from 6 the axis X 2 516 for the payload, as in 5 and the total angular velocity ω X of the field of view is expressed as the angular velocity ω X2 for the payload relative to the mobile object: ω x = ω x2 = β 2 · (v - v 0), where β 2 ε R (6)

In der Gleichung (6) ist β2 eine Konstante, die auf der Grundlage der Konfiguration des Trägers und/oder der Nutzlast definiert wird. Bei einigen Ausführungsformen ist β2 größer als null (β2 > 0). Das β2 kann ähnlich dem oben erörterten β definiert werden. Zum Beispiel kann der Wert von β2 auf der Grundlage von Bildauflösung oder -größe und/oder Bereich des Steuerhebelmaßes für den Träger (z. B. um die Nickachse) definiert werden.In the equation (6), β 2 is a constant defined based on the configuration of the carrier and / or the payload. In some embodiments, β 2 is greater than zero (β 2 > 0). The β 2 can be defined similarly to the β discussed above. For example, the value of β 2 may be defined based on the image resolution or size and / or range of the control lever measure for the wearer (eg, about the pitch axis).

Im Allgemeinen kann die Winkelgeschwindigkeit des Gesichtsfeldes um die X-(Nick-)Achse 608 ausgedrückt werden als eine Kombination der Winkelgeschwindigkeit ωX1 für das bewegliche Objekt und der Winkelgeschwindigkeit ωX2 für die Nutzlast im Verhältnis zu dem beweglichen Objekt, beispielsweise wie folgt: ωx = ωx1 + ωx2 (7) In general, the angular velocity of the field of view can be around the X (pitch) axis 608 are expressed as a combination of the angular velocity ω X1 for the moving object and the angular velocity ω X2 for the payload relative to the mobile object, for example as follows: ω x = ω x1 + ω x2 (7)

In der Gleichung (7) kann entweder ωX1 oder ωX2 null sein.In the equation (7), either ω X1 or ω X2 may be zero.

Wie hierin illustriert, kann die Richtung der Drehung um die X-(Nick-)Achse von dem Vorzeichen von v – v0 abhängen. Falls die erwartete Position zum Beispiel oberhalb der tatsächlichen Position angeordnet ist (wie in 6 illustriert), dann gilt v – v0 > 0, und das Gesichtsfeld muss sich im Uhrzeigersinn um die Nickachse 608 drehen (z. B. nach unten nicken), um das Ziel zu der erwarteten Position zu bringen. Falls die erwartete Position andererseits unterhalb der tatsächlichen Position angeordnet ist, dann gilt v – v0 < 0, und das Gesichtsfeld muss sich gegen den Uhrzeigersinn um die Nickachse 608 drehen (z. B. nach oben nicken), um das Ziel zu der erwarteten Position zu bringen.As illustrated herein, the direction of rotation about the X (pitch) axis may depend on the sign of v-v 0 . For example, if the expected position is located above the actual position (as in FIG 6 illustrated), then v - v 0 > 0, and the field of view must be clockwise about the pitch axis 608 rotate (eg, nod down) to bring the target to the expected position. On the other hand, if the expected position is below the actual position, then v - v 0 <0, and the field of view must be counterclockwise about the pitch axis 608 rotate (eg, nod up) to bring the target to the expected position.

Wie hierin illustriert, hängt die Drehgeschwindigkeit (z. B. ein absoluter Wert der Winkelgeschwindigkeit) um eine gegebene Achse (z. B. die X-(Nick-)Achse) von dem Abstand zwischen der erwarteten und der tatsächlichen Position des Ziels entlang der Achse (d. h., |u – u0|) ab. Je weiter der Abstand ist, desto größer ist die Drehgeschwindigkeit. Je näher der Abstand ist, desto langsamer ist die Drehgeschwindigkeit. Wenn die erwartete Position mit der Position entlang der Achse übereinstimmt (z. B. v = v0), dann ist die Drehgeschwindigkeit um die Achse null, und die Drehung hält an.As illustrated herein, the rotational speed (eg, an absolute value of the angular velocity) about a given axis (eg, the X (pitch) axis) depends on the distance between the expected and actual positions of the target along the Axis (ie, | u - u 0 |). The farther the distance, the greater the speed of rotation. The closer the distance, the slower the rotation speed. If the expected position coincides with the position along the axis (eg, v = v 0 ), then the rotational speed about the axis is zero and the rotation stops.

Bei einigen Ausführungsformen können die Werte der Winkelgeschwindigkeiten, wie oben berechnet, durch verschiedene Einschränkungen des Systems eingeschränkt oder anderweitig modifiziert werden. Solche Einschränkungen können die maximale und/oder die minimale Geschwindigkeit, die durch das bewegliche Objekt und/oder die Bildgebungseinrichtung erreicht werden können, den Bereich des Steuerhebelmaßes oder das maximale Steuerhebelmaß oder die maximale Empfindlichkeit des Steuerungssystems für das bewegliche Objekt und/oder den Träger und dergleichen einschließen. Zum Beispiel kann die Drehgeschwindigkeit das Minimum der berechneten Drehgeschwindigkeit und die maximale zulässige Geschwindigkeit sein.In some embodiments, the values of the angular velocities, as calculated above, may be limited or otherwise modified by various limitations of the system. Such limitations may include the maximum and / or minimum speed achievable by the moving object and / or the imaging device, the range of the control lever amount, or the maximum control lever amount or maximum sensitivity of the movable object and / or the support system and control system include such. For example, the rotational speed may be the minimum of the calculated rotational speed and the maximum permitted speed.

Bei einigen Ausführungsformen können Warnanzeiger bereitgestellt werden, wenn die berechneten Winkelgeschwindigkeiten entsprechend den hierin beschriebenen Einschränkungen modifiziert werden müssen. Beispiele solcher Warnanzeiger können Text-, Audio- (z. B. Sirene oder Piepton), visuelle (z. B. bestimmte Lichtfarbe oder Blinklicht), mechanische, beliebige andere geeignete Arten von Signalen einschließen. Solche Warnanzeiger können unmittelbar durch das bewegliche Objekt, den Träger, die Nutzlast oder einen Bestandteil derselben bereitgestellt werden. Alternativ oder zusätzlich können Warnanzeiger durch die Leitstation (z. B. über die Anzeige) bereitgestellt werden. Im letzteren Fall kann die Leitstation die Warnanzeiger auf der Grundlage von Signalen von dem beweglichen Objektbereitstellen.In some embodiments, warning indicators may be provided if the calculated angular velocities need to be modified according to the limitations described herein. Examples of such warning indicators may be textual, audio (eg, siren or beep), visual (eg, certain light color or flashing light), mechanical, any other suitable types of Include signals. Such warning indicators may be provided directly by the moving object, the carrier, the payload or a component thereof. Alternatively or additionally, warning indicators may be provided by the control station (eg, via the display). In the latter case, the control station can provide the warning indicators based on signals from the mobile object.

7 illustriert ein beispielhaftes Verfolgungsverfahren zum Aufrechterhalten einer erwarteten Größe eines Ziels, nach Ausführungsformen. Ein beispielhaftes Bild 700 wird gezeigt, wie beispielsweise durch eine durch ein bewegliches Objekt getragene Bildgebungseinrichtung aufgenommen. Angenommen, dass ein Ziel 702 durch das Bild 700 aufgenommen wird. Die tatsächliche Größe des Ziels innerhalb des Bildes kann s Pixel (wie beispielsweise berechnet als das Produkt der Breite des Ziels und der Höhe des Ziels) betragen. Die erwartete Zielgröße S kann kleiner (z. B. kann das erwartete Ziel durch 704 dargestellt werden und S = s0) oder größer (z. B. kann das erwartete Ziel durch 705 dargestellt werden und S = s1) als die tatsächliche Größe s sein. Die erwartete Größe des Ziels kann die gleiche sein wie die anfängliche Größe des Ziels (z. B. wie durch die Leitstation bereitgestellt) oder nicht. Angenommen, dass die gegenwärtige Größe s derart von der erwarteten Größe s0 oder s1 abweicht, dass die Abweichung einen vorbestimmten Schwellenwert (wie beispielsweise vordefinierte Δs Pixel) überschreitet, dann ist eine Einstellung erforderlich, um die Zielgröße nahe zu der erwarteten Größe s0 oder s1 zu bringen. 7 FIG. 10 illustrates an exemplary tracking method for maintaining an expected size of a target, according to embodiments. An exemplary picture 700 is shown as being taken, for example, by an imaging device carried by a moving object. Suppose that a goal 702 through the picture 700 is recorded. The actual size of the target within the image may be s pixels (such as calculated as the product of the width of the target and the height of the target). The expected target size S may be smaller (eg, the expected target may be due to 704 can be represented and S = s 0 ) or greater (eg, the expected target can be represented by 705 and S = s 1 ) as the actual size s. The expected size of the target may be the same as the initial size of the target (eg as provided by the control station) or not. Assuming that the current size s deviates from the expected size s 0 or s 1 such that the deviation exceeds a predetermined threshold (such as predefined Δs pixels), then adjustment is required to bring the target size close to the expected size s 0 or to bring s 1 .

Obwohl die Anzeigefläche des Bildes und des Ziels als Rechtecke gezeigt werden, ist dies nur zu illustrativen Zwecken und nicht als begrenzend vorgesehen. Stattdessen kann die Anzeigefläche des Bildes und/oder des Ziels bei verschiedenen Ausführungsformen beliebige geeignete Formen, wie beispielsweise Kreise, Ovale, Vielecke und dergleichen, haben. Desgleichen ist, obwohl die hierin erörterten Flächen in Pixeln ausgedrückt werden, dies nur zu illustrativen Zwecken und nicht als begrenzend vorgesehen. Bei anderen Ausführungsformen können die Flächen in beliebigen geeigneten Einheiten, wie beispielsweise MegaPixeln, mm2, cm2, Zoll2 und dergleichen, ausgedrückt werden.Although the display area of the image and the destination are shown as rectangles, this is for illustrative purposes only and not intended to be limiting. Instead, in various embodiments, the display area of the image and / or target may have any suitable shapes, such as circles, ovals, polygons, and the like. Likewise, although the areas discussed herein are expressed in pixels, this is for illustrative purposes only and is not intended to be limiting. In other embodiments, the areas may be expressed in any suitable units, such as mega pixels, mm 2 , cm 2 , inches 2, and the like.

Bei einigen Ausführungsformen kann die Abweichung von der erwarteten Zielgröße dazu verwendet werden, eine oder mehrere lineare Geschwindigkeiten für das bewegliche Objekt und/oder die Bildgebungseinrichtung entlang einer oder mehrerer Achsen abzuleiten. Zum Beispiel kann eine Abweichung bei der Zielgröße zwischen einer tatsächlichen Zielgröße s und der erwarteten Zielgröße S (z. B. S = s0 oder s1) dazu verwendet werden, eine lineare Geschwindigkeit V zum Bewegen des beweglichen Objekts entlang einer Z-(Roll-)Achse 710 zu bestimmen, wie folgt: V = δ·(1 – s/S), wobei δ ∊ R (8) In some embodiments, the deviation from the expected target size may be used to derive one or more linear velocities for the moving object and / or the imaging device along one or more axes. For example, a deviation in the target size between an actual target size s and the expected target size S (eg, S = s 0 or s 1 ) may be used to set a linear velocity V for moving the movable object along a Z (roll -)Axis 710 to determine as follows: V = δ · (1-s / S), where δ ∈ R (8)

In der Gleichung (8) ist δ eine Konstante, die auf der Grundlage der Konfiguration des beweglichen Objekts und/oder eines beliebigen geeigneten steuerbaren Objekts (z. B. eines Trägers), das veranlassen kann, dass sich das Gesichtsfeld zu dem Ziel hin und/oder von demselben weg bewegt, definiert wird. Bei einigen Ausführungsformen ist δ größer als null (δ > 0). Bei anderen Ausführungsformen kann δ nicht größer als null sein (β ≤ 0). Bei einigen Ausführungsformen kann δ dazu verwendet werden, einen berechneten Pixelwert auf ein entsprechendes Steuerhebelmaß oder eine Empfindlichkeit zum Steuern der linearen Geschwindigkeit abzubilden.In Equation (8), δ is a constant that may be based on the configuration of the moving object and / or any suitable controllable object (eg, a carrier) that may cause the field of view to approach the target and / or moved from the same, is defined. In some embodiments, δ is greater than zero (δ> 0). In other embodiments, δ can not be greater than zero (β ≤ 0). In some embodiments, δ may be used to map a calculated pixel value to a corresponding control lever amount or sensitivity to control the linear velocity.

Im Allgemeinen stellt V die Geschwindigkeit des beweglichen Objekts zu dem Ziel hin und/oder von demselben weg dar. Der Geschwindigkeitsvektor zeigt von dem UAV zu dem Ziel. Falls die tatsächliche Größe s des Ziels kleiner ist als die erwartete Größe S, dann gilt V > 0, und das bewegliche Objekt bewegt sich zu dem Ziel hin, um so die Größe des Ziels, wie in den Bildern aufgenommen, zu steigern. Andererseits gilt, falls die tatsächliche Größe s des Ziels größer ist als die erwartete Größe S, dann V < 0, und das bewegliche Objekt bewegt sich von dem Ziel weg, um so die Größe des Ziels, wie in den Bildern aufgenommen, zu verringern.In general, V represents the velocity of the moving object toward and / or from the target. The velocity vector points from the UAV to the target. If the actual size s of the target is smaller than the expected size S, then V> 0, and the moving object moves toward the target so as to increase the size of the target as taken in the images. On the other hand, if the actual size s of the target is larger than the expected size S, then V <0, and the moving object moves away from the target so as to reduce the size of the target as taken in the images.

Zum Beispiel angenommen, dass die Bilder eine Breite von W = 1024 Pixeln und eine Höhe von H = 768 Pixeln haben. Folglich beträgt die Größe der Bilder 1024·768. Angenommen, dass der Bereich des Steuerhebelmaßes zum Steuern der linearen Geschwindigkeit (–1000, 1000) beträgt. Bei einem Ausführungsbeispiel gilt δ = –1000, wenn s/S = 3 und δ = 1000, wenn s/S = 1/3.For example, assume that the images have a width of W = 1024 pixels and a height of H = 768 pixels. As a result, the size of the images is 1024 × 768. Assume that the range of the control lever amount for controlling the linear velocity is (-1000, 1000). In one embodiment, δ = -1000 when s / S = 3 and δ = 1000 when s / S = 1/3.

Bei einigen Ausführungsformen können die Werte der Geschwindigkeiten, wie oben berechnet, durch verschiedene Einschränkungen des Systems eingeschränkt oder anderweitig modifiziert werden. Solche Einschränkungen können die maximale und/oder die minimale Geschwindigkeit, die durch das bewegliche Objekt und/oder die Bildgebungseinrichtung erreicht werden können, die maximale Empfindlichkeit des Steuerungssystems für das bewegliche Objekt und/oder den Träger und dergleichen einschließen. Zum Beispiel kann die Geschwindigkeit für das bewegliche Objekt das Minimum der berechneten Geschwindigkeit und die maximale zulässige Geschwindigkeit sein.In some embodiments, the values of the speeds as calculated above may be limited or otherwise modified by various limitations of the system. Such limitations may include the maximum and / or minimum speed that may be achieved by the moving object and / or the imaging device, the maximum sensitivity of the moving object and / or the carrier control system, and the like. For example, the speed for the moving object may be the minimum of the calculated speed and the maximum allowed speed.

Alternativ oder zusätzlich kann die Abweichung zwischen der tatsächlichen Zielgröße und der erwarteten Zielgröße dazu verwendet werden, eine Einstellung an den Betriebsparametern der Bildgebungseinrichtung, wie beispielsweise Zoomniveau oder Brennweite, um die Abweichung zu berichtigen, abzuleiten. Eine solche Einstellung an der Bildgebungseinrichtung kann notwendig sein, wenn eine Einstellung an dem beweglichen Objekt unausführbar oder anderweitig unerwünscht ist, zum Beispiel, wenn die Navigationsbahn des beweglichen Objekts vorbestimmt ist. Eine beispielhafte Brennweiteneinstellung F kann ausgedrückt werden als: F = γ·(1 – s/S), wobei γ ∊ R (9) Alternatively or additionally, the deviation between the actual target size and the expected target size may be used to derive an adjustment to the operating parameters of the imaging device, such as zoom level or focal length, to correct for the deviation. Such adjustment to the imaging device may be necessary if adjustment to the moving object is unworkable or otherwise undesirable, for example, if the navigation path of the moving object is predetermined. An exemplary focal length setting F can be expressed as: F = γ · (1-s / S), where γ ∈ R (9)

Wobei γ eine Konstante ist, die auf der Grundlage der Konfiguration der Bildgebungseinrichtung definiert wird. Bei einigen Ausführungsformen ist γ größer als null (γ > 0). Bei anderen Ausführungsformen ist γ nicht größer als null (γ ≤ 0). Der Wert von γ kann auf der Grundlage der Art von Linsen und/oder Bildgebungseinrichtungen definiert werden.Where γ is a constant that is defined based on the configuration of the imaging device. In some embodiments, γ is greater than zero (γ> 0). In other embodiments, γ is not greater than zero (γ ≤ 0). The value of γ may be defined based on the type of lenses and / or imaging devices.

Falls die tatsächliche Größe s des Ziels kleiner ist als die erwartete Größe S, dann gilt F > 0, und die Brennweite nimmt um |F| zu, um so die Größe des Ziels, wie in den Bildern aufgenommen, zu steigern. Andererseits gilt, falls die tatsächliche Größe s des Ziels größer ist als die erwartete Größe S, dann F < 0, und die Brennweite nimmt um |F| ab, um so die Größe des Ziels, wie in den Bildern aufgenommen, zu verringern. Zum Beispiel ist bei einer Ausführungsform γ = 10. Dies bedeutet, dass zum Beispiel, wenn die tatsächliche Größe s des Ziels das Doppelte der erwarteten Größe S ist, die Brennweite dementsprechend um 10 mm (d. h., F = 10·(1 – 2/1) = –10) vermindert werden sollte und umgekehrt.If the actual size s of the target is less than the expected size S, then F> 0 and the focal length decreases by | F | to increase the size of the target as recorded in the images. On the other hand, if the actual size s of the target is greater than the expected size S, then F <0, and the focal length decreases by | F | to decrease the size of the target as shown in the pictures. For example, in one embodiment, γ = 10. This means that, for example, if the actual size s of the target is twice the expected size S, the focal length will be 10 mm (ie, F = 10 * (1 - 2 /). 1) = -10) and vice versa.

Bei einigen Ausführungsformen kann die Einstellung an den Betriebsparametern der Bildgebungseinrichtung, wie beispielsweise der Brennweite, durch verschiedene Einschränkungen des Systems eingeschränkt oder anderweitig modifiziert werden. Solche Einschränkungen können die maximale und/oder die minimale Brennweite, die durch die Bildgebungseinrichtung erreicht werden können, einschließen. Als ein Beispiel angenommen, der Brennweitenbereich beträgt (20 mm, 58 mm). Ferner angenommen, dass die anfängliche Brennweite 40 mm beträgt. Dann sollte, wenn s > S, die Brennweite entsprechend der Gleichung (9) vermindert werden, und, wenn s < S, sollte die Brennweite entsprechend der Gleichung (9) gesteigert werden. Jedoch wird eine solche Einstellung durch die untere und die obere Grenze des Brennweitenbereichs (z. B. 20 mm bis 58 mm) begrenzt. Mit anderen Worten, die Brennweite nach der Einstellung sollte nicht weniger als die minimale Brennweite (z. B. 20 mm) und nicht mehr als die maximale Brennweite (z. B. 58 mm) betragen.In some embodiments, the adjustment to the operating parameters of the imager, such as the focal length, may be limited or otherwise modified by various limitations of the system. Such limitations may include the maximum and / or minimum focal length that can be achieved by the imaging device. As an example, assume the focal length range is (20mm, 58mm). Further, assume that the initial focal length is 40 mm. Then, if s> S, the focal length should be decreased according to the equation (9), and if s <S, the focal length should be increased according to the equation (9). However, such a setting is limited by the lower and upper limits of the focal length range (eg, 20 mm to 58 mm). In other words, the focal length after adjustment should be not less than the minimum focal length (eg, 20 mm) and not more than the maximum focal length (eg, 58 mm).

Wie oben in 6 erörtert, können Warnanzeiger bereitgestellt werden, wenn die berechnete Einstellung (z. B. die lineare Geschwindigkeit des beweglichen Objekts oder die Brennweite) entsprechend den hierin beschriebenen Einschränkungen modifiziert werden muss. Beispiele solcher Warnanzeiger können Text-, Audio- (z. B. Sirene oder Piepton), visuelle (z. B. bestimmte Lichtfarbe oder Blinklicht), mechanische, beliebige andere geeignete Arten von Signalen einschließen. Solche Warnanzeiger können unmittelbar durch das bewegliche Objekt, den Träger, die Nutzlast oder einen Bestandteil derselben bereitgestellt werden. Alternativ oder zusätzlich können Warnanzeiger durch die Leitstation (z. B. über die Anzeige) bereitgestellt werden. Im letzteren Fall kann die Leitstation die Warnanzeiger auf der Grundlage von Signalen von dem beweglichen Objekt bereitstellen.As in above 6 Warning indicators may be provided if the calculated setting (eg, the linear velocity of the moving object or the focal length) needs to be modified according to the constraints described herein. Examples of such warning indicators may include text, audio (eg, siren or beep), visual (eg, certain light color or flashing light), mechanical, any other suitable types of signals. Such warning indicators may be provided directly by the moving object, the carrier, the payload or a component thereof. Alternatively or additionally, warning indicators may be provided by the control station (eg, via the display). In the latter case, the control station can provide the warning indicators based on signals from the moving object.

Nach einem anderen Aspekt der vorliegenden Erfindung werden Verfahren und Systeme zum Verfolgen eines Ziels durch eine an ein bewegliches Objekt angeschlossene Bildgebungseinrichtung, während das bewegliche Objekt zum Navigieren durch Navigationsbefehle gesteuert wird, bereitgestellt.According to another aspect of the present invention, methods and systems for tracking a target by an imaging device connected to a moving object while controlling the moving object to navigate by navigation commands are provided.

8 illustriert einen anderen beispielhaften Prozess 800 zum Umsetzen von Zielverfolgung, nach Ausführungsformen. Aspekte des Prozesses 800 können durch einen oder mehrere Prozessoren an Bord und/oder außerhalb eines beweglichen Objekts, wie hierin beschrieben, wie beispielsweise eines UAV, durchgeführt werden. 8th illustrates another example process 800 to implement goal tracking, according to embodiments. Aspects of the process 800 may be performed by one or more processors on board and / or outside a moving object as described herein, such as a UAV.

Der Prozess 800 schließt das Empfangen 802 von Anwendernavigationsbefehlen und Zielinformationen, zum Beispiel von einer entfernten Leitstation, wie hierin beschrieben, ein. Die Navigationsbefehle können zum Steuern von Navigationsparametern des beweglichen Objekts, wie beispielsweise der Position, Geschwindigkeit, Ausrichtung oder Lage des beweglichen Objekts, verwendet werden. In einigen Fällen können die Navigationsbefehle Anweisungen für das bewegliche Objekt einschließen, um einige vorgespeicherte Navigationsbefehle, wie beispielsweise die mit einer vorbestimmten Navigationsbahn verknüpften, auszuführen. Die Navigationsbefehle können dazu verwendet werden, das bewegliche Objekt zu steuern 804, um entsprechend einer anwenderspezifizierten oder vorgespeicherten Navigationsbahn zu navigieren.The process 800 includes receiving 802 user navigation commands and destination information, for example, from a remote control station as described herein. The navigation commands may be used to control navigation parameters of the mobile object, such as the position, velocity, orientation or location of the mobile object. In some cases, the navigation commands may include instructions for the moving object to execute some pre-stored navigation commands, such as those associated with a predetermined navigation path. The navigation commands can be used to control the moving object 804 to navigate according to a user-specified or pre-stored navigation path.

Die Zielinformationen können anfängliche Zielinformationen (z. B. Position und/oder Größe) eines bestimmten Ziels, wie durch einen eine Leitstation bedienenden Anwender ausgewählt, und/oder Zielartinformationen, wie beispielsweise Farbe, Textur, Muster, Größe, Form, Abmessung und dergleichen, einschließen.The destination information may include initial destination information (eg, position and / or size) of a particular destination, such as a user operating a guidance station, and / or destination type information, such as color, texture, pattern, size, shape, dimension, and the like. lock in.

Die Zielinformationen können ebenfalls erwartete Zielinformationen (z. B. Position und/oder Größe) einschließen. Die erwarteten Zielinformationen spezifizieren die Charakteristika, von denen erwartet wird, dass sie das verfolgte Ziel in den durch die Bildgebungseinrichtung aufgenommenen Bildern erfüllt. Die erwarteten Zielinformationen können dazu verwendet werden, das bewegliche Objekt, den Träger und/oder die Bildgebungseinrichtung so einzustellen, dass das verfolgte Ziel in einem oder mehreren Bildern durch die erwarteten Zielinformationen spezifizierte Parameter aufrechterhält. Zum Beispiel kann das Ziel so verfolgt werden, dass es eine erwartete Position und/oder Größe innerhalb eines oder mehrerer durch die Bildgebungseinrichtung aufgenommener Bilder aufrechterhält. Zum Beispiel kann die erwartete Position des verfolgten Ziels nahe der Mitte des Bildes oder außermittig liegen. Die erwartete Größe des verfolgten Ziels kann um eine bestimmte Anzahl von Pixeln (z. B. die anfängliche Zielgröße) liegen. Die erwarteten Zielinformationen können die gleichen sein wie die anfänglichen Zielinformationen oder nicht. Bei verschiedenen Ausführungsformen können die erwarteten Zielinformationen durch die Leitstation bereitgestellt werden oder nicht. Zum Beispiel können die erwarteten Zielinformationen in der durch eine Verarbeitungseinheit an Bord des beweglichen Objekts ausgeführten Steuerlogik fest codiert, in einem Datenspeicher am Ort des beweglichen Objekts und/oder fern von demselben gespeichert oder von anderen geeigneten Quellen erlangt werden. The destination information may also include expected destination information (eg, position and / or size). The expected target information specifies the characteristics that are expected to satisfy the tracked target in the images captured by the imager. The expected target information may be used to set the moving object, the carrier, and / or the imaging device so that the tracked target in one or more images will maintain parameters specified by the expected target information. For example, the target may be tracked to maintain an expected position and / or size within one or more images captured by the imaging device. For example, the expected position of the tracked target may be near the center of the image or off-center. The expected size of the tracked target may be a certain number of pixels (eg, the initial target size). The expected destination information may be the same as the initial destination information or not. In various embodiments, the expected destination information may or may not be provided by the control station. For example, the expected destination information in the control logic executed by a processing unit aboard the mobile object may be hard-coded, stored in a data memory at and / or remote from the location of the mobile object, or obtained from other suitable sources.

Bei einigen Ausführungsformen können die Zielinformationen (einschließlich spezifischer Zielinformationen und Zielartinformationen) wenigstens zum Teil an der Leitstation 112 erzeugt werden. Zusätzlich oder alternativ können die Zielinformationen auf der Grundlage von Daten aus anderen Quellen erzeugt werden. Zum Beispiel können die Zielartinformationen auf der Grundlage vorhergehender Bilder und/oder aus örtlichen oder fernen Datenspeichern herausgezogener Daten abgeleitet werden. Solche Zielartinformationen können durch den Anwender ausgewählt und/oder automatisch durch Voreinstellung für das bewegliche Objekt bereitgestellt werden.In some embodiments, the destination information (including specific destination information and destination type information) may be at least in part at the control station 112 be generated. Additionally or alternatively, the destination information may be generated based on data from other sources. For example, the destination type information may be derived based on previous images and / or data extracted from local or remote data stores. Such target type information may be selected by the user and / or automatically provided by presetting the moving object.

Die Zielinformationen können dazu verwendet werden, das bewegliche Objekt, den Träger und/oder die Bildgebungseinrichtung einzustellen 806, um das Ziel entsprechend den Zielinformationen zu verfolgen. Das Verfolgen und jegliche andere zugehörige Datenverarbeitung können automatisch durch einen oder mehrere Prozessoren an Bord des beweglichen Objekts, einen oder mehrere Prozessoren fern von dem beweglichen Objekt oder eine beliebige geeignete Kombination derselben durchgeführt werden. Bei einigen Ausführungsformen können die Zielinformationen dazu verwendet werden, durch das bewegliche Objekt das zu verfolgende Ziel zu identifizieren. Eine solche Identifizierung des Ziels kann auf der Grundlage der anfänglichen Zielinformationen einschließlich der spezifischen Charakteristika eines bestimmten Ziels (z. B. auf der Grundlage bereitgestellter Koordinaten des Ziels innerhalb eines durch das bewegliche Objekt aufgenommenen Bildes) oder in den Zielinformationen eingeschlossener allgemeiner Zielartinformationen durchgeführt werden.The target information may be used to adjust the moving object, the carrier and / or the imaging device 806 to track the destination according to the destination information. The tracking and any other associated data processing may be automatically performed by one or more processors on board the mobile object, one or more processors remote from the mobile object, or any suitable combination thereof. In some embodiments, the target information may be used to identify the target to be followed by the moving object. Such identification of the destination may be performed based on the initial destination information including the specific characteristics of a particular destination (eg, based on provided coordinates of the destination within an image captured by the mobile object) or general destination type information included in the destination information.

Sobald ein Ziel identifiziert ist, können die erwarteten Zielinformationen (als Teil der Zielinformationen) dazu verwendet werden, eine Abweichung von erwarteten Charakteristika des Ziels, wie beispielsweise erwarteter Position und/oder Größe, zu erkennen. Die Abweichung kann durch das Vergleichen der Charakteristika des Ziels (z. B. Positionen und/oder Größen) innerhalb einer Reihe von durch die beweglichen Objekte aufgenommenen Bildern erkannt werden, um festzustellen, ob sich die Charakteristika durch die Bilder verändern. Die Reihe von Bildern kann durch das bewegliche Objekt zu unterschiedlichen Zeitpunkten aufgenommen werden. Eine Änderung bei der Position des Ziels kann erkannt werden durch das Vergleichen von Koordinaten des Mittelpunkts des Ziels innerhalb eines Bildes mit den Koordinaten der erwarteten Zielposition. Eine Änderung bei der Größe des Ziels kann erkannt werden durch das Vergleichen der Größe der durch das Ziel bedeckten Fläche (z. B. in Pixeln) mit der erwarteten Zielgröße.Once a destination is identified, the expected destination information (as part of the destination information) may be used to detect a departure from expected characteristics of the destination, such as expected location and / or size. The deviation can be detected by comparing the characteristics of the target (e.g., positions and / or magnitudes) within a series of images captured by the moving objects to determine if the characteristics are changing through the images. The series of images can be captured by the moving object at different times. A change in the position of the target can be detected by comparing coordinates of the center of the target within an image with the coordinates of the expected target position. A change in the size of the target can be detected by comparing the size of the area covered by the target (eg, in pixels) with the expected target size.

Wenigstens zum Teil auf der Grundlage der erkannten Abweichung können automatisch (z. B. durch einen oder mehrere Prozessoren an Bord des beweglichen Objekts) Steuersignale erzeugt werden, die für das bewegliche Objekt, den Träger, die Bildgebungseinrichtung und/oder beliebige geeignete Bestandteile derselben gelten. Die Steuersignale können dazu verwendet werden, die erkannte Abweichung im Wesentlichen zu berichtigen. Bei einigen Ausführungsformen kann die Einstellung dazu verwendet werden, ein oder mehrere erwartete Zielcharakteristika (z. B. Zielposition und/oder -größe) innerhalb der durch das bewegliche Objekt aufgenommenen Bilder im Wesentlichen aufrechtzuerhalten, während das bewegliche Objekt entsprechend vom Anwender bereitgestellten Navigationsbefehlen navigiert. Die Einstellung kann im Wesentlichen in Echtzeit durchgeführt werden, da das bewegliche Objekt vom Anwender bereitgestellte Navigationsbefehle oder vorbestimmte Navigationsbahnen ausführt und/oder da die Bildgebungseinrichtung ein oder mehrere Bilder aufnimmt. Bei einigen Ausführungsformen kann die Einstellung auf der Grundlage anderer Informationen, wie beispielsweise durch einen oder mehrere Sensoren an Bord des beweglichen Objekt (z. B. Näherungssensor oder GPS-Sensor) erfasster Sensordaten, erzeugt werden. Zum Beispiel können Positionsinformationen des verfolgten Ziels durch einen Näherungssensor erfasst und/oder durch das Ziel selbst (z. B. GPS-Position) bereitgestellt werden. Solche Positionsinformationen können, zusätzlich zu der erkannten Abweichung, verwendet werden, um die Einstellung zu erzeugen.At least in part, on the basis of the detected deviation, control signals may be generated automatically (eg, by one or more processors on board the mobile object) that are applicable to the moving object, the carrier, the imaging device, and / or any suitable components thereof , The control signals may be used to substantially correct the detected deviation. In some embodiments, the adjustment may be used to substantially maintain one or more expected target characteristics (eg, target position and / or size) within the images captured by the moving object as the movable object navigates according to user supplied navigation commands. The adjustment may be performed substantially in real time because the moving object is executing user supplied navigation commands or predetermined navigation lanes and / or because the imaging device is capturing one or more images. In some embodiments, the adjustment may be generated based on other information, such as sensor data sensed by one or more sensors aboard the mobile object (eg, proximity sensor or GPS sensor). For example, position information of the tracked Target detected by a proximity sensor and / or provided by the target itself (eg GPS position). Such position information, in addition to the detected deviation, may be used to generate the adjustment.

Bei einigen Ausführungsformen, wenn das bewegliche Objekt entsprechend vom Anwender bereitgestellten Navigationsbefehlen oder vorbestimmten Navigationsbahnen navigiert, die Einstellung zur Zielverfolgung auf den Träger und/oder die Bildgebungseinrichtung begrenzt, ohne den Zustand (z. B. Lage, Position, Ausrichtung oder Geschwindigkeit) des beweglichen Objekts selbst zu beeinflussen. Dies kann sein, weil es unausführbar oder anderweitig unerwünscht ist, das bewegliche Objekt einzustellen, während es vom Anwender bereitgestellte Navigationsbefehle oder vorbestimmte Navigationsbahnen ausführt. Zum Beispiel kann eine solche Einstellung veranlassen, dass der Träger die Bildgebungseinrichtung im Verhältnis zu dem beweglichen Objekt, wie beispielsweise um eine, zwei oder mehr Drehachsen oder entlang derselben bewegt, um eine Abweichung von der erwarteten Position des Ziels zu berichtigen. Zusätzlich oder alternativ kann die Einstellung eine Einstellung an der Brennweite oder dem Zoom, dem Brennpunkt oder anderen Betriebsparametern der Bildgebungseinrichtung veranlassen, um eine Abweichung von der erwarteten Größe des Ziels zu berichtigen. Eine Erörterung beispielhafter Verfahren für solche Einstellungen wird in Verbindung mit 6 bis 7 bereitgestellt. Bei anderen Ausführungsformen kann die Einstellung ebenfalls eine Einstellung an dem beweglichen Objekt einschließen.In some embodiments, when the moving object navigates according to user-supplied navigation commands or predetermined navigation lanes, the target tracking setting is limited to the carrier and / or imager without the state (eg, location, position, orientation or velocity) of the mobile To influence the object itself. This may be because it is unworkable or otherwise undesirable to adjust the moving object while executing user-supplied navigation commands or predetermined navigation lanes. For example, such adjustment may cause the wearer to move the imaging device relative to the moving object, such as one or two or more axes of rotation, to correct for a deviation from the expected position of the target. Additionally or alternatively, the adjustment may cause adjustment to the focal length or zoom, focus, or other operating parameters of the imager to correct for a deviation from the expected size of the target. A discussion of exemplary methods for such adjustments will be made in connection with 6 to 7 provided. In other embodiments, the adjustment may also include adjustment to the moving object.

Nach einem anderen Aspekt der vorliegenden Erfindung werden Verfahren und Systeme zum Steuern eines beweglichen Objekts zum Navigieren entsprechend einem oder mehreren Navigationsbefehlen während des Verfolgens eines Ziels bereitgestellt. 9 illustriert einen beispielhaften Prozess 900 zum Steuern eines beweglichen Objekts, um zu navigieren und zu verfolgen, nach Ausführungsformen. Aspekte des Prozesses 900 können durch eine Leitstation, wie beispielsweise hierin beschrieben, durchgeführt werden. Zum Beispiel kann die Leitstation ein in der Hand gehaltenes oder tragbares Gerät sein. Zum Beispiel kann die Leitstation ein Smartphone, ein Tablet, ein Laptop, einen Rechner, eine Brille, Handschuhe, einen Helm, ein Mikrofon oder geeignete Kombinationen derselben einschließen.According to another aspect of the present invention, methods and systems for controlling a moving object to navigate are provided in accordance with one or more navigation commands during the tracking of a destination. 9 illustrates an exemplary process 900 for controlling a moving object to navigate and track, according to embodiments. Aspects of the process 900 may be performed by a control station, such as described herein. For example, the control station may be a hand-held or portable device. For example, the control station may include a smartphone, a tablet, a laptop, a computer, glasses, gloves, a helmet, a microphone, or suitable combinations thereof.

Der Prozess 900 schließt das Empfangen 902 einer Anwendereingabe bezüglich der Navigation oder einer Navigationseingabe ein. Eine solche Navigationseingabe kann dazu verwendet werden, Navigationsbefehle zum Steuern des beweglichen Objekts oder eines Bestandteils desselben zu erzeugen, wie beispielsweise in Verbindung mit 8 beschrieben. Die Navigationseingabe kann über eine durch die Leitstation bereitgestellte Anwenderschnittstelle, wie beispielsweise eine Tastatur, eine Maus, einen Joystick, einen Berührungsbildschirm, Knöpfe, ein Mikrofon, eine Webcam oder dergleichen, bereitgestellt werden. Es kann eine beliebige geeignete Anwendereingabe verwendet werden, um mit der Steuereinrichtung in Wechselwirkung zu treten, wie beispielsweise manuell eingegebene Befehle, Sprachsteuerung, Gestensteuerung oder Positionssteuerung (z. B. über eine Bewegung, Ausrichtung und/oder Lage der Einrichtung).The process 900 includes receiving 902 a user input regarding the navigation or a navigation input. Such navigation input may be used to generate navigational commands for controlling the mobile object or a component thereof, such as in connection with 8th described. The navigation input may be provided via a user interface provided by the control station, such as a keyboard, a mouse, a joystick, a touch screen, buttons, a microphone, a webcam, or the like. Any suitable user input may be used to interact with the controller, such as manually entered commands, voice control, gesture control, or position control (eg, via movement, orientation, and / or location of the device).

Der Prozess 900 schließt das Empfangen 904 einer Anwendereingabe bezüglich der Verfolgung oder einer Verfolgungseingabe ein. Eine solche Verfolgungseingabe kann dazu verwendet werden, Zielinformationen bezüglich eines Ziels oder einer Art von Zielen, die durch das bewegliche Objekt zu verfolgen sind, wie beispielsweise hierin beschrieben, zu erzeugen. Die Verfolgungseingabe kann unter Verwendung der gleichen oder einer anderen Schnittstelle wie diejenige zum Bereitstellen der Navigationseingabe bereitgestellt werden. Zum Beispiel kann die Verfolgungseingabe über einen Berührungsbildschirm bereitgestellt werden, während die Navigationseingabe über einen Joystick oder einen Trägheitssensor, der dafür konfiguriert ist, eine Änderung bei der Lage der Leitstation (z. B. ein Drehen der Leitstation um eine Drehachse) zu erkennen, bereitgestellt werden kann. Als ein anderes Beispiel können sowohl die Navigationseingabe als auch die Verfolgungseingabe über die gleiche Anwenderschnittstelle, wie beispielsweise über einen Berührungsbildschirm, eine Tastatur, eine Maus oder einen Joystick, bereitgestellt werden.The process 900 includes receiving 904 a user input regarding the prosecution or a tracking input. Such tracking input may be used to generate destination information regarding a destination or type of destinations to be tracked by the mobile object, such as described herein. The tracking input may be provided using the same or a different interface as that for providing the navigation input. For example, the tracking input may be provided via a touch screen while the navigation input is provided via a joystick or inertial sensor configured to detect a change in the location of the control station (eg, rotating the control station about a rotation axis) can be. As another example, both navigation input and tracking input may be provided via the same user interface, such as via a touch screen, keyboard, mouse, or joystick.

Bei einigen Ausführungsformen können die Navigationseingabe oder die Verfolgungseingabe jeweils über zwei oder mehr Anwenderschnittstelle bereitgestellt werden. Zum Beispiel kann die Navigationseingabe sowohl über Joystick als auch über Berührungsbildschirm bereitgestellt werden. Als ein anderes Beispiel kann die Verfolgungseingabe über Berührungsbildschirm, Joystick und Tastatur bereitgestellt werden.In some embodiments, the navigation input or the tracking input may each be provided via two or more user interfaces. For example, the navigation input may be provided via both joystick and touch screen. As another example, tracking input may be provided via touch screen, joystick, and keyboard.

Die Navigationseingabe kann dazu verwendet werden, Navigationsbefehle für das bewegliche Objekt zu erzeugen 906. Zum Beispiel können mechanische Signale, die sich aus der Bewegung eines Joysticks durch einen Anwender entlang einer oder mehrerer vordefinierter Achsen oder um dieselben ergeben, in Navigationsbefehle zum Bewegen des beweglichen Objekts entlang der entsprechenden Achsen (z. B. Nicken, Gieren oder Rollen) umgesetzt werden. Als ein anderes Beispiel kann die Wechselwirkung des Anwenders mit einer graphischen Anwenderschnittstelle (z. B. eine Bewegung eines Symbols, das eine -ausrichtung oder Position des beweglichen Objekts darstellt) zu den entsprechenden Navigationsbefehlen umgewandelt werden. Als noch ein anderes Beispiel kann eine Bewegung der Leitstation durch den Anwender entlang einer oder mehrerer vordefinierter Achsen oder um dieselben durch einen oder mehrere Trägheitssensoren erkannt und dazu verwendet werden, Navigationsbefehle zum Bewegen des beweglichen Objekts entlang der entsprechenden Achsen (z. B. Nicken, Gieren oder Rollen) zu erzeugen. Zusätzlich zu der Navigationseingabe können die Navigationsbefehle auf der Grundlage anderer Daten, wie beispielsweise durch das bewegliche Objekt bereitgestellter Sensordaten, erzeugt werden.The navigation input can be used to generate navigational commands for the moving object 906 , For example, mechanical signals resulting from or about the movement of a joystick by a user along one or more predefined axes may be translated into navigation commands for moving the moveable object along the respective axes (eg, pitch, yaw or roll) become. As another example, the interaction of the user with a graphical user interface (e.g., a movement of a symbol representing an orientation or position of the moving object) may be referred to as corresponding navigation commands are converted. As still another example, movement of the control station by the user along one or more predefined axes, or the same through one or more inertial sensors, may be detected and used to provide navigation commands for moving the mobile object along the respective axes (eg, nodding, Yawing or rolling). In addition to the navigation input, the navigation commands may be generated based on other data, such as sensor data provided by the moving object.

Die Verfolgungseingabe kann dazu verwendet werden, Zielinformationen zu erzeugen 908, die durch das bewegliche Objekt dazu verwendet werden können, ein oder mehrere Ziele zu verfolgen. Die Zielinformationen können anfängliche Zielinformationen und/oder erwartete Zielinformationen, wie beispielsweise hierin beschrieben, einschließen. Die anfänglichen Zielinformationen können spezifische Charakteristika eines bestimmten Ziels (z. B. auf der Grundlage bereitgestellter Koordinaten des Ziels innerhalb eines durch das bewegliche Objekt aufgenommenen Bildes) oder allgemeine Charakteristika einer Art von Zielen (z. B. auf der Grundlage bereitgestellter Farbe und/oder Textur des/der zu verfolgenden Ziels/Ziele) einschließen. Die anfänglichen Zielinformationen können dazu verwendet werden, das zu verfolgende Ziel, zum Beispiel, aus einem oder mehreren Bildern zu identifizieren. Die erwarteten Informationen können dazu verwendet werden, eine Abweichung von erwarteten Charakteristika des Ziels, wie beispielsweise einer erwarteten Position und/oder Größe zu erkennen. Bei einigen Ausführungsformen können die erwarteten Informationen wahlweise sein, und einige oder alle der anfänglichen Informationen können als die erwarteten Informationen verwendet werden.The tracking input can be used to generate destination information 908 that can be used by the moving object to track one or more targets. The destination information may include initial destination information and / or expected destination information, such as described herein. The initial destination information may be specific characteristics of a particular destination (eg, based on provided coordinates of the destination within an image captured by the mobile object) or general characteristics of a type of destination (eg, based on color provided and / or Texture of the target (s) to be tracked). The initial target information may be used to identify the target to be tracked, for example, from one or more images. The expected information may be used to detect a deviation from expected characteristics of the target, such as an expected position and / or size. In some embodiments, the expected information may be optional, and some or all of the initial information may be used as the expected information.

Der Prozess 900 schließt ebenfalls das Empfangen von Anwendereingabe und Erzeugungsbefehlen bezüglich der Steuerung des Trägers und/oder von Bildgebungseinrichtungen ein. Beispiele solcher Steuerung schließen das Ändern einer Lage und/oder Ausrichtung der Bildgebungseinrichtung über den Träger, das Einstellen eines oder mehrerer Betriebsparameter (z. B. Zoom) der Bildgebungseinrichtung und dergleichen ein.The process 900 also includes receiving user input and generation commands related to the control of the wearer and / or imaging devices. Examples of such control include changing a position and / or orientation of the imager over the carrier, adjusting one or more operating parameters (eg, zoom) of the imager, and the like.

Bei einigen Ausführungsformen können, wie beispielsweise ausführlicher in 10 beschrieben, die Koordinaten, die Größe und andere Charakteristika eines Ziels durch den Anwender in einer graphischen Anwenderschnittstelle ausgewählt und dazu verwendet werden, anfängliche und/oder erwartete Zielinformationen zu erzeugen.In some embodiments, as described in more detail in, for example, FIG 10 The coordinates, size and other characteristics of a target are selected by the user in a graphical user interface and used to generate initial and / or expected target information.

Bei einigen Ausführungsformen können die erzeugten Navigationsbefehle und/oder Zielinformationen dem beweglichen Objekt bereitgestellt werden 910, wie beispielsweise über ein Kommunikationssystem einer Leitstation. Solche Befehle und Informationen können bereitgestellt werden, während das bewegliche Objekt in Gebrauch ist (d. h. sich bewegt oder auf andere Weise in der vorgesehenen Umgebung operiert). Bei einigen Ausführungsformen können die Navigationsbefehle und Zielinformationen dem beweglichen Objekt unmittelbar von einer Leitstation bereitgestellt werden. Bei einigen anderen Ausführungsformen können die Navigationsbefehle und Zielinformationen einer oder mehreren Zwischeninstanzen (z. B. Relaisstationen oder anderen beweglichen Objekten) bereitgestellt werden, bevor sie das bewegliche Objekt erreichen.In some embodiments, the generated navigation commands and / or destination information may be provided to the mobile object 910 , such as via a communication system of a control station. Such commands and information may be provided while the moving object is in use (ie, moving or otherwise operating in the intended environment). In some embodiments, the navigation commands and destination information may be provided to the mobile object directly from a control station. In some other embodiments, the navigation commands and destination information of one or more intermediary instances (eg, relay stations or other moving objects) may be provided before they reach the moving object.

Bei einigen Ausführungsformen werden alle Schritte des Prozesses 900 durch die gleiche Instanz, wie beispielsweise eine einzige Leitstation, umgesetzt. In einigen anderen Fällen werden die Schritte des Prozesses 900 durch zwei oder mehr gesonderte Instanzen umgesetzt. Solche gesonderten Instanzen können miteinander kommunizieren, zum Beispiel über Kabel- oder drahtlose Verbindungen. Zum Beispiel können das Empfangen 902 einer Navigationseingabe und das Erzeugen 906 von Navigationsbefehlen durch eine erste Einrichtung umgesetzt werden, während das Empfangen 904 einer Verfolgungseingabe und das Erzeugen 908 von Zielinformationen durch eine zweite Einrichtung umgesetzt werden können. Die zweite Einrichtung kann die Zielinformationen an die erste Einrichtung übermitteln, die dafür konfiguriert sein kann, sowohl die Navigationsbefehle als auch die Zielinformationen an das bewegliche Objekt zu übermitteln. Als ein anderes Beispiel können die Empfangsschritte 902 und 904 durch eine Einrichtung ausgeführt werden, während die Erzeugungsschritte 906 und 908 durch eine andere Einrichtung ausgeführt werden können.In some embodiments, all steps of the process 900 implemented by the same entity, such as a single control station. In some other cases, the steps of the process 900 implemented by two or more separate instances. Such separate instances can communicate with each other, for example via cable or wireless connections. For example, the receiving 902 a navigation input and generating 906 of navigation commands are implemented by a first device while receiving 904 a tracking input and generating 908 of destination information can be implemented by a second facility. The second device may transmit the destination information to the first device, which may be configured to transmit both the navigation commands and the destination information to the mobile object. As another example, the receiving steps 902 and 904 be performed by a device during the generating steps 906 and 908 can be performed by another device.

Nach einigen andere Aspekten der vorliegenden Erfindung wird eine interaktive Anwenderschnittstelle zum Auswählen und Betrachten, im Wesentlichen in Echtzeit, von durch ein bewegliches Objekt, wie hierin beschrieben, wie beispielsweise ein UAV, verfolgten Zielen bereitgestellt. Eine solche Anwenderschnittstelle kann durch eine Leitstation, wie beispielsweise hierin beschrieben, bereitgestellt werden. 10 illustriert einen beispielhaften Prozess 1000 zum Auswählen eines Ziels, nach Ausführungsformen. Aspekte des Prozesses 1000 können durch eine Anwenderschnittstelle, wie beispielsweise hierin beschrieben, durchgeführt werden.In accordance with some other aspects of the present invention, an interactive user interface for selecting and viewing, in real time, targets targeted by a moving object as described herein, such as a UAV, is provided. Such a user interface may be provided by a control station, such as described herein. 10 illustrates an exemplary process 1000 for selecting a destination, according to embodiments. Aspects of the process 1000 may be performed by a user interface such as described herein.

Der Prozess 1000 schließt das Anzeigen 1002 eines oder mehrerer durch das bewegliche Objekt aufgenommener Bilder ein. Die Bilder können durch eine Bildgebungseinrichtung aufgenommen werden, die über einen Träger, wie hierin beschrieben, an das bewegliche Objekt angeschlossen ist. Der Träger kann es ermöglichen, dass sich die Bildgebungseinrichtung im Verhältnis zu dem beweglichen Objekt bewegt, oder nicht. Die Bildgebungseinrichtung kann alternativ ohne Träger unmittelbar an das bewegliche Objekt angeschlossen sein. Die Bilder können von dem beweglichen Objekt oder unmittelbar von der Bildgebungseinrichtung an eine Leitstation übermittelt werden. Die so durch die Leitstation empfangenen Bilder können dekomprimiert oder auf andere Weise verarbeitet werden, bevor sie auf einer mit der Leitstation verknüpften Anwenderschnittstelle angezeigt werden. Die Anwenderschnittstelle kann durch eine Anzeige bereitgestellt werden, die integral mit der Leitstation ist. Alternativ kann die Anzeige von der Leitstation gesondert, aber wirksam mit derselben verbunden sein. Die so angezeigten Bilder können statisch (z. B. Standbilder) oder dynamisch (z. B. Videos) sein.The process 1000 closes the ads 1002 one or more images taken by the moving object. The images may be captured by an imaging device connected to the moving object via a carrier as described herein is. The carrier may allow the imaging device to move relative to the moving object or not. The imaging device may alternatively be connected directly to the movable object without a carrier. The images can be transmitted from the moving object or directly from the imaging device to a control station. The images thus received by the control station may be decompressed or otherwise processed before being displayed on a user interface associated with the control station. The user interface may be provided by a display that is integral with the control station. Alternatively, the display may be separate from, but operatively connected to, the control station. The images displayed in this way can be static (eg still images) or dynamic (eg videos).

Bei einigen Ausführungsformen können die Bilder im Wesentlichen in Echtzeit angezeigt oder gestreamt werden, wenn die Bilder von dem beweglichen Objekt und oder der Bildgebungseinrichtung empfangen werden. Bei einigen Ausführungsformen werden die Bilder im Wesentlichen in Echtzeit von dem beweglichen Objekt und oder der Bildgebungseinrichtung übermittelt, wenn die Bilder durch die Bildgebungseinrichtung aufgenommen werden. In anderen Fällen kann es etwas Verzögerung zwischen der Aufnahme und/oder der Übermittlung der Bilder und der Anzeige der Bilder geben.In some embodiments, the images may be displayed or streamed in substantially real time as the images are received by the moving object and / or the imaging device. In some embodiments, the images are transmitted in substantially real time from the moving object and / or the imaging device when the images are captured by the imaging device. In other cases, there may be some delay between taking pictures and / or transmitting the pictures and displaying the pictures.

Bei einigen Ausführungsformen schließt der Prozess 1000 das Empfangen 1004 einer Anwenderauswahl eines Ziels von innerhalb wenigstens eines der angezeigten Bilder ein. Der Anwender kann das Ziel über die gleiche Anwenderschnittstelle auswählen, welche die Bilder anzeigt. Zum Beispiel wird bei einigen Ausführungsformen die Anwenderauswahl dadurch erreicht, dass der Anwender einen Bereich des wenigstens einen von dem einen oder den mehreren auf der Anzeige angezeigten Bildern auswählt, wobei der ausgewählte Bereich dem Ziel entspricht. Zum Beispiel kann der Anwender das Ziel durch das unmittelbare eines Berührungsbildschirms unter Verwendung eines Fingers oder Stifts auswählen. Ale ein anderes Beispiel kann der Anwender das Ziel unter Verwendung einer Maus, eines Joysticks, einer Geste oder eines Sprachbefehls auswählen. Bei noch einer anderen Ausführungsform kann der Anwender das Ziel über eine tragbare Einrichtung, wie beispielsweise einen Helm, eine Brille für virtuelle Realität und dergleichen auswählen. Die Auswahl des Ziels kann eine beliebige geeignete Bewegung einschließen, einschließlich von Berühren oder Tippen, Wischen, Kreisen, Klicken oder dergleichen, verknüpft mit beliebigen geeigneten Eingabeverfahren, wie beispielsweise hierin beschrieben.In some embodiments, the process concludes 1000 the receiving 1004 user selection of a destination from within at least one of the displayed images. The user can select the destination via the same user interface that displays the images. For example, in some embodiments, user selection is achieved by the user selecting an area of the at least one of the one or more images displayed on the display, the selected area corresponding to the destination. For example, the user may select the destination through the immediate touch screen using a finger or stylus. As another example, the user may select the destination using a mouse, joystick, gesture, or voice command. In yet another embodiment, the user may select the destination via a wearable device such as a helmet, virtual reality glasses, and the like. The selection of the target may include any suitable movement, including touch or tap, swipe, circle, click, or the like, associated with any suitable input method, such as described herein.

Bei einigen Ausführungsformen wird das ausgewählte Ziel mit einem Auswahlanzeiger in den Bildern angezeigt, um anzugeben, dass es durch den Anwender ausgewählt ist. Der Auswahlanzeiger kann durch einen Kreis, einen Haken, einen Pfeil, ein Vieleck oder ein beliebiges anderes graphisches Objekt geeigneter Form mit einer/einem beliebigen geeigneten Farbe oder Muster dargestellt werden.In some embodiments, the selected target is displayed with a selection indicator in the images to indicate that it is selected by the user. The selection indicator may be represented by a circle, a hook, an arrow, a polygon, or any other graphic object of suitable shape having any suitable color or pattern.

Das vom Anwender ausgewählte Ziel kann dazu verwendet werden, Zielinformationen zu erzeugen 1006. Zum Beispiel können die Koordinaten und die Pixelgröße des ausgewählten Ziels innerhalb eines Bildes als anfängliche Informationen für das Ziel verwendet oder dazu verwendet werden dieselben zu erzeugen. Alternativ oder zusätzlich können mit dem ausgewählten Ziel verknüpfte Charakteristika dazu verwendet werden, wenigstens einige der Zielartinformationen zu erzeugen. Bei einigen Ausführungsformen können die verbleibenden Zielartinformationen auf der Grundlage einer anderen Anwendereingabe bereitgestellt werden. Zum Beispiel können die Zielartinformationen die Farbe und Textur des zu verfolgenden Ziels einschließen. Die Farbe der Zielartinformationen kann von einem bestimmten durch den Anwender ausgewählten Ziel extrahiert werden, wohingegen die Textur des Ziels manuell durch den Anwender eingegeben oder aus mehreren vorbestimmten Mustern ausgewählt werden kann.The user-selected destination can be used to generate destination information 1006 , For example, the coordinates and pixel size of the selected target within an image may be used as initial information for the target or used to generate the same. Alternatively or additionally, characteristics associated with the selected target may be used to generate at least some of the target species information. In some embodiments, the remaining destination type information may be provided based on another user input. For example, the destination type information may include the color and texture of the target to be tracked. The color of the destination type information may be extracted from a particular user-selected destination, whereas the texture of the destination may be entered manually by the user or selected from a plurality of predetermined patterns.

Bei einigen Ausführungsformen wird es einem Anwender ermöglicht, zwischen einem manuellen Verfolgungsmodus und einem automatischen Verfolgungsmodus zu wählen. Wenn der manuelle Verfolgungsmodus gewählt wird, kann ein Anwender ein spezifisches zu verfolgendes Ziel spezifizieren, wie beispielsweise aus einem durch die Leitstation angezeigten Bild. Andererseits kann, wenn der automatische Verfolgungsmodus gewählt wird, der Anwender die Zielartinformationen anstelle eines spezifischen zu verfolgendes Ziels spezifizieren. Das bewegliche Objekt kann dann die Zielartinformationen dazu verwenden, automatisch das zu verfolgende Ziel zu identifizieren und anschließend das identifizierte Ziel zu verfolgen.In some embodiments, a user is allowed to choose between a manual tracking mode and an automatic tracking mode. When the manual tracking mode is selected, a user can specify a specific target to track, such as an image displayed by the control station. On the other hand, when the automatic tracking mode is selected, the user can specify the target type information instead of a specific target to be tracked. The moving object can then use the target type information to automatically identify the target to be tracked and then track the identified target.

Wahlweise können Informationen über das ausgewählte Ziel dazu verwendet werden, erwartete Zielinformationen zu erzeugen. Zum Beispiel können die anfänglichen Zielinformationen die gleichen sein wie die erwarteten Zielinformationen. Als ein anderes Beispiel können die erwarteten Zielinformationen unter Bezugnahme auf die anfänglichen Zielinformationen ausgedrückt werden. Zum Beispiel kann die erwartete Zielposition unter Verwendung eines Versatzes von der anfänglichen Zielposition ausgedrückt werden. Ähnlich kann die erwartete Zielgröße als ein Verhältnis zwischen der erwarteten Zielgröße und der anfänglichen Zielgröße ausgedrückt werden (z. B. kann die erwartete Zielgröße die doppelte Größe der anfänglichen Zielgröße haben). Bei verschiedenen Ausführungsformen können die Zielinformationen auf der Grundlage eines durch einen Anwender ausgewählten Ziels, von unter Verwendung anderer Anwendereingabeverfahren (z. B. Dateneingabe von einer Tastatur) erlangten Daten und/oder Daten aus Nicht-Anwender-Quellen (z. B. örtlichem oder entferntem Datenspeicher oder anderen geeigneten Datenverarbeitungssystemen) erzeugt werden.Optionally, information about the selected destination can be used to generate expected destination information. For example, the initial destination information may be the same as the expected destination information. As another example, the expected destination information may be expressed with reference to the initial destination information. For example, the expected target position may be expressed using an offset from the initial target position. Similarly, the expected target size may be expressed as a ratio between the expected target size and the initial target size (eg, the expected target size may be double the target size) Size of the initial target size). In various embodiments, the destination information may be based on a user-selected destination, data obtained from other user input methods (e.g., data input from a keyboard), and / or data from non-user sources (e.g., local or remote) remote data store or other suitable data processing system).

Die Zielinformationen können dem beweglichen Objekt zu Verfolgungszwecken bereitgestellt 1008 werden. Zum Beispiel können die anfänglichen Zielinformationen und/oder die Zielartinformationen durch einen oder mehrere Prozessoren auf dem beweglichen Objekt dazu verwendet werden, das zu verfolgende Ziel zu identifizieren. Die erwarteten Zielinformationen können durch das bewegliche Objekt dazu verwendet werden, im Wesentlichen eine vorbestimmte Position, Größe und andere Charakteristika des Ziels während des Verfolgungsvorgangs aufrechtzuerhalten.The destination information may be provided to the mobile object for tracking purposes 1008 become. For example, the initial destination information and / or the destination type information may be used by one or more processors on the mobile object to identify the destination to be tracked. The expected target information may be used by the moving object to substantially maintain a predetermined position, size, and other characteristics of the target during the tracking operation.

Bei verschiedenen Ausführungsformen können ein beliebiger Teil der zum Steuern des Verfolgungsvorgangs verwendeten Zielinformationen durch Anwender und der Rest durch das Verfolgungssystem bereitgestellt werden. Zum Beispiel werden bei einer Ausführungsform anfängliche Zielinformationen über eine Anwenderauswahl eines konkreten Ziels durch einen Anwender bereitgestellt, wohingegen die erwarteten Zielinformationen durch das System durch Voreinstellung bereitgestellt werden. Bei einer anderen Ausführungsform kann ein Anwender die Zielartinformationen bereitstellen, wohingegen das System automatisch auf der Grundlage der Zielartinformationen das Ziel bestimmt und das Ziel unter Verwendung anwenderspezifizierter oder vom System bereitgestellter erwarteter Zielinformationen verfolgt. Bei noch einer anderen Ausführungsform kann ein Anwender alle Zielinformationen einschließlich der anfänglichen und der erwarteten Zielinformationen bereitstellen, und das System verfolgt einfach das spezifizierte Ziel dementsprechend.In various embodiments, any portion of the destination information used to control the tracking process may be provided by users and the rest by the tracking system. For example, in one embodiment, initial destination information about a user selection of a specific destination is provided by a user, whereas the expected destination information is provided by the system by default. In another embodiment, a user may provide the destination type information, whereas the system automatically determines the destination based on the destination type information and tracks the destination using user-specified or system-provided expected destination information. In yet another embodiment, a user may provide all destination information, including the initial and expected destination information, and the system will simply track the specified destination accordingly.

Die spezifische Zuordnung der Verfolgungssteuerung zwischen den Anwendern und dem Verfolgungssystem kann sich in Abhängigkeit von einer Vielzahl von Faktoren verändern, wie beispielsweise der Umgebung des beweglichen Objekts, der Geschwindigkeit oder Höhe des beweglichen Objekts, Anwenderpräferenzen und verfügbaren Berechnungsressourcen (z. B., CPU oder Speicher) an Bord und/oder außerhalb des beweglichen Objekts, dergleichen. Zum Beispiel kann dem Anwender verhältnismäßig mehr Steuerung zugeordnet werden, wenn das bewegliche Objekt in einer verhältnismäßig komplexen Umgebung (z. B. mit zahlreichen Gebäuden oder Hindernissen oder innen) navigiert als wenn das bewegliche Objekt in einer verhältnismäßig einfachen Umgebung (z. B. weitem offenem Raum oder außen) navigiert. Als ein anderes Beispiel kann dem Anwender mehr Steuerung zugeordnet werden, wenn sich das bewegliche Objekt auf einer niedrigeren Höhe befindet als wenn sich das bewegliche Objekt auf einer höheren Höhe befindet. Als noch ein anderes Beispiel kann dem beweglichen Objekt mehr Steuerung zugeordnet werden, falls das bewegliche Objekt mit einem Hochgeschwindigkeitsprozessor ausgestattet ist, der dafür eingerichtet ist, komplexe Berechnungen verhältnismäßig schnell durchzuführen.The specific assignment of tracking control between the users and the tracking system may vary depending on a variety of factors, such as the environment of the moving object, the speed or height of the moving object, user preferences, and available computational resources (eg, CPU or Memory) on board and / or outside the mobile object, the like. For example, the user may be given relatively more control when navigating the moving object in a relatively complex environment (eg, with numerous buildings or obstacles or inside) than if the moving object were in a relatively simple environment (e.g. open space or outside). As another example, more control may be assigned to the user when the moveable object is at a lower elevation than when the moveable object is at a higher elevation. As yet another example, more control may be assigned to the moving object if the moving object is equipped with a high speed processor configured to perform complex calculations relatively quickly.

11 illustriert einen beispielhaften Prozess 1100 zum Betrachten eines verfolgten Ziels, nach Ausführungsformen. Aspekte des Prozesses 1100 können durch die gleiche Leitstation zum Umsetzen des Prozesses 100 oder eine andere durchgeführt werden. 11 illustrates an exemplary process 1100 for considering a pursued goal, according to embodiments. Aspects of the process 1100 can through the same control station to implement the process 100 or another.

Der Prozess 1100 schließt das Empfangen 1102 von durch ein bewegliches Objekt, wie beispielsweise hierin beschrieben (z. B. ein UAV) aufgenommenen Bildern ein. Die Bilder können durch eine (z. B. über einen Träger) an das bewegliche Objekt angeschlossene Bildgebungseinrichtung aufgenommen werden. In einigen Fällen können die Bilder unmittelbar von der Bildgebungseinrichtung, welche die Bilder aufnahm, empfangen werden. Die Bilder können durch eine Leitstation, wie beispielsweise hierin beschrieben, empfangen werden. Bei einigen Ausführungsformen können die Bilder empfangen werden, nachdem Zielinformationen, wie beispielsweise hierin beschrieben, dem beweglichen Objekt bereitgestellt worden sind. Die Zielinformationen können entsprechend einem Prozess, ähnlich dem Prozess 900 oder 1000, wie beispielsweise in 9 oder 10 erörtert, bereitgestellt worden sein. Das bewegliche Objekt kann dafür konfiguriert sein, das Ziel, wie identifiziert und/oder durch die Zielinformationen spezifiziert, entsprechend einem Prozess, ähnlich dem in 4 erörterten Prozess 400, zu verfolgen. Daher können wenigstens einige der empfangenen Bilder das verfolgte Ziel einschließen.The process 1100 includes receiving 1102 of images captured by a moving object such as described herein (eg, a UAV). The images may be captured by an imaging device (eg, via a carrier) connected to the moving object. In some cases, the images may be received directly by the imaging device that captured the images. The images may be received by a control station, such as described herein. In some embodiments, the images may be received after destination information, such as described herein, has been provided to the moving object. The destination information may be according to a process similar to the process 900 or 1000 , such as in 9 or 10 have been discussed. The moving object may be configured to specify the destination as identified and / or specified by the destination information according to a process similar to that in FIG 4 discussed process 400 to pursue. Therefore, at least some of the received images may include the tracked target.

Der Prozess 1100 schließt ebenfalls das Empfangen 1104 von Verfolgungsdaten oder -informationen ein, die dazu verwendet werden, Charakteristika eines oder mehrerer durch das bewegliche Objekt verfolgter Ziele anzugeben. Beispiele von Verfolgungsinformationen können relative oder absolute Koordinaten und/oder Größe des Ziels innerhalb eines oder mehrerer von dem beweglichen Objekt empfangener Bilder, Änderungen oder Versetzungen des Ziels zwischen aufeinanderfolgenden Einzelbildern, GPS-Koordinaten oder andere Positionsinformationen des Ziels und dergleichen einschließen.The process 1100 also includes receiving 1104 of tracking data or information used to indicate characteristics of one or more targets tracked by the moving object. Examples of tracking information may include relative or absolute coordinates and / or size of the target within one or more images received from the mobile object, changes or offsets of the destination between successive frames, GPS coordinates or other location information of the destination, and the like.

Die empfangenen Bilder können mit Verfolgungsdaten angezeigt 1106 werden, um zu zeigen, dass das Ziel durch das bewegliche Objekt verfolgt wird. Zum Beispiel können die Verfolgungsdaten dazu verwendet werden, die Position und/oder Größe des verfolgten Ziels in einigen oder allen der Bilder zu bestimmen. Auf der Grundlage dieser Informationen kann ein Verfolgungsanzeiger, wie beispielsweise ähnlich dem in 10 erörterten Auswahlanzeiger, erzeugt und angezeigt werden. Zum Beispiel kann, wenn die Zielposition innerhalb eines gegebenen Bildes gegeben ist, das Bild mit einem Verfolgungsanzeiger annähernd an der Zielposition und mit einer Größe, die ausreichend groß ist, um das Ziel oder einen Abschnitt desselben abzudecken, angezeigt werden. Beispiele eines Verfolgungsanzeigers können einen Kasten, einen Kreis, ein Oval oder ein graphisches Objekt einer beliebigen anderen geeigneten Form, Farbe oder Größe einschließen.The received images can be displayed with tracking data 1106 be to show that the target is tracked by the moving object. For example, the tracking data may be used to determine the position and / or size of the tracked target in some or all of the images. Based on this information, a tracking indicator, such as similar to the one shown in FIG 10 discussed selection indicators, generated and displayed. For example, given the target position within a given image, the image may be displayed with a tracking indicator approximately at the target position and with a size sufficiently large to cover the target or a portion thereof. Examples of a tracking indicator may include a box, a circle, an oval or a graphic object of any other suitable shape, color or size.

Vorteilhafterweise hilft das Anzeigen eines verfolgten Ziels mit einem solchen Verfolgungsanzeiger den Anwendern, das verfolgte Ziel visuell zu identifizieren, während sie die Bilder betrachten, die durch das bewegliche Objekt aufgenommen und/oder im Wesentlichen in Echtzeit von demselben übermittelt werden. Mit anderen Worten, die Anwender können die Ziele im Wesentlichen gleichzeitig betrachten, wenn sie durch das bewegliche Objekt verfolgt werden. Bei anderen Ausführungsformen kann die Anzeige nach einer gewissen Verzögerung bereitgestellt werden.Advantageously, displaying a tracked target with such a tracking indicator helps the users to visually identify the tracked target as they view the images captured by the moving object and / or communicated therefrom in substantially real time. In other words, the users can view the targets substantially simultaneously as they are tracked by the moving object. In other embodiments, the display may be provided after a certain delay.

Bei einigen Ausführungsformen kann der Anwender, während des Betrachtens des durch das bewegliche Objekt verfolgten Ziels, das verfolgte Ziel (z. B. wie durch den Verfolgungsanzeiger angezeigt) auswählen, um ausführlichere Informationen in Bezug auf das Ziel zu sehen. Der Anwender kann durch Wechselwirkung mit der Anwenderschnittstelle, wo die Bilder angezeigt werden, ebenfalls andere Operationen in Bezug auf das Ziel oder beliebige andere angezeigte Objekte ausführen. Zum Beispiel kann der Anwender durch das Bewegen von Fingern über einen Berührungsbildschirm herein- oder herauszoomen.In some embodiments, while viewing the destination tracked by the moving object, the user may select the tracked destination (eg, as indicated by the tracking indicator) to see more detailed information regarding the destination. The user can also perform other operations on the target or any other displayed objects by interacting with the user interface where the images are displayed. For example, the user may zoom in or out by moving fingers over a touch screen.

Einige solcher Anwenderoperationen können zu Verfolgungsbefehlen umgewandelt und an das bewegliche Objekt gesendet werden. Zum Beispiel können Herein-/Herauszoomaktionen des Anwenders, wie oben beschrieben, zu geeigneten Herein-/Herauszoombefehlen für die Bildgebungseinrichtung und/oder Steuerbefehlen, um das bewegliche Objekt näher zu dem Ziel oder weiter von demselben weg zu bewegen, umgesetzt werden. Alternativ oder zusätzlich kann der Anwender entscheiden, zu einem anderen Ziel zum Verfolgen zu wechseln. Ein solcher Wechsel kann dynamisch ausgeführt werden, wenn der Anwender das andere Ziel auswählt. Die mit dem anderen Ziel verbundenen Zielinformationen können dem beweglichen Objekt dynamisch bereitgestellt werden, zum Beispiel auf eine Weise, ähnlich der in 10 beschriebenen. Als Reaktion kann dann das bewegliche Objekt dynamisch zum Verfolgen des anderen Ziels unter Verwendung der hierin beschriebenen Verfahren, zum Beispiel im Wesentlichen in Echtzeit, wechseln.Some such user operations can be converted to track commands and sent to the moving object. For example, as described above, user zoom-in / zoom-out actions may be translated to appropriate zoom-in / zoom-out commands for the imaging device and / or control commands to move the mobile object closer to or further away from the target. Alternatively or additionally, the user may decide to switch to another destination for tracking. Such a change can be performed dynamically when the user selects the other destination. The destination information associated with the other destination may be dynamically provided to the mobile object, for example, in a manner similar to that in US Pat 10 described. In response, the moving object can then dynamically switch to tracking the other target using the methods described herein, for example, substantially in real time.

12 illustriert eine beispielhafte Leitstation 1200 zum Steuern eines beweglichen Objekts, nach Ausführungsformen. Die Leitstation 1200 schließt einen Anzeigebereich 1202 zum Anzeigen von Sensordaten, wie beispielsweise durch eine(n) an ein bewegliches Objekt, wie beispielsweise ein UAV, gekoppelte(n) Bildgebungseinrichtung oder Bildsensor aufgenommenen Bilddaten, ein. Die Bilddaten können Bilder eines oder mehrerer Objekte 1210 und 1206, wie durch eine Bildgebungseinrichtung oder einen Bildsensor an Bord des beweglichen Objekts aufgenommen, einschließen. Eines oder mehrere der Objekte können ein Ziel 1206 einschließen, das durch das bewegliche Objekt verfolgt wird. Das Ziel kann mit einem Anzeiger 1208 angezeigt werden. Der Anzeiger 1208 kann einen Auswahlanzeiger, wie beispielsweise in 10 erörtert, um anzuzeigen, dass das Ziel durch den Anwender ausgewählt ist, um durch das bewegliche Objekt verfolgt zu werden, und/oder einen Verfolgungsanzeiger, wie beispielsweise in 11 erörtert, um anzuzeigen, dass das Ziel durch das bewegliche Objekt verfolgt wird, einschließen. Der Anzeiger 1208 kann dafür konfiguriert sein, sich mit dem Ziel zu bewegen, wenn dessen Positionen sich über unterschiedliche Bilder verändern. 12 illustrates an exemplary control station 1200 for controlling a moving object, according to embodiments. The control station 1200 closes a display area 1202 for displaying sensor data, such as image data captured by a moving object, such as a UAV, coupled imager or image sensor. The image data may be images of one or more objects 1210 and 1206 as captured by an imaging device or image sensor aboard the mobile object. One or more of the objects can be a target 1206 which is tracked by the moving object. The goal may be with an indicator 1208 are displayed. The scoreboard 1208 can display a selection indicator, such as in 10 discussed to indicate that the destination is selected by the user to be tracked by the moving object, and / or a tracking indicator, such as in FIG 11 discussed to indicate that the target is being tracked by the moving object. The scoreboard 1208 may be configured to move with the target as its positions change across different images.

Die Leitstation 1200 kann ebenfalls ein oder mehrere Eingabegeräte 1204 und 1205 zum Empfangen einer Anwendereingabe einschließen. Ein solches Eingabegerät kann Joysticks 1204, Knöpfe oder Schalter 1205, Tastatur, Maus, Berührungsbildschirm oder beliebige geeignete Mechanismen einschließen. Zum Beispiel können ein oder mehrere Knöpfe oder Schalter 1205 dazu verwendet werden, zwischen unterschiedlichen Eingabemodi, wie beispielsweise Navigationseingabemodus, Zieleingabemodus und dergleichen, zu wechseln. Die Schalter 1205 können ebenfalls dazu verwendet werden, zwischen einem manuellen Verfolgungsmodus und einem automatischen Verfolgungsmodus zu wählen, wie hierin beschrieben. Die mit einigen der Eingabegeräte, wie beispielsweise den Joysticks 1204, verknüpften Funktionalitäten können sich in Abhängigkeit von dem gewählten Eingabemodus verändern. Zum Beispiel können solche Eingabegeräte dazu verwendet werden, eine Navigationseingabe bereitzustellen, wenn der Navigationseingabemodus gewählt ist, und Zielinformationen, wenn der Zieleingabemodus gewählt ist. Als ein anderes Beispiel können die Eingabegeräte dazu verwendet werden, ein spezifisches Ziel auszuwählen, wenn der manuelle Verfolgungsmodus gewählt ist, und Zielartinformationen bereitzustellen, wenn der automatische Verfolgungsmodus gewählt ist.The control station 1200 can also have one or more input devices 1204 and 1205 to receive a user input. Such an input device can be joysticks 1204 , Buttons or switches 1205 , Keyboard, mouse, touch screen, or any suitable mechanism. For example, one or more buttons or switches 1205 be used to switch between different input modes, such as navigation input mode, destination input mode and the like. The switches 1205 may also be used to select between a manual tracking mode and an automatic tracking mode as described herein. The with some of the input devices, such as the joysticks 1204 Associated functionalities may change depending on the selected input mode. For example, such input devices may be used to provide navigation input when the navigation input mode is selected and destination information when the destination input mode is selected. As another example, the input devices may be used to select a specific destination when the manual tracking mode is selected, and destination type information when the automatic tracking mode is selected.

13A bis C illustrieren beispielhafte Verfahren zum Auswählen eines Ziels unter Verwendung einer Anwenderschnittstelle, nach Ausführungsformen. Bei einer solchen Ausführungsform, wie beispielsweise in 13A illustriert, kann es die Anwenderschnittstelle einem Anwender ermöglichen, ein Ziel 1304 durch das Berühren, unter Verwendung einer Hand 1302, eines Bereichs eines Berührungsbildschirms, der dem Ziel entspricht, auszuwählen. Das ausgewählte Ziel 1304 kann durch einen Auswahlanzeiger 1306, wie beispielsweise einen Kreis, der das ausgewählte Ziel 1304 umgibt, angezeigt werden. Bei einer anderen Ausführungsform, wie beispielsweise in 13B illustriert, kann es die Anwenderschnittstelle einem Anwender ermöglichen, ein Ziel 1310 unter Verwendung einer Maus 1308, zum Beispiel durch das Klicken auf einen Bereich eines Bildschirms, der dem Ziel entspricht, auszuwählen. Das ausgewählte Ziel 1310 kann mit einem Auswahlanzeiger 1312 angezeigt werden. Bei noch einer anderen Ausführungsform, wie beispielsweise in 13C illustriert, kann es die Anwenderschnittstelle einem Anwender ermöglichen, ein Ziel 1316 unter Verwendung eines Stifts 1314, zum Beispiel durch das Tippen auf einen Bereich eines Bildschirms, der dem Ziel entspricht, auszuwählen. Das ausgewählte Ziel 1316 kann mit einem Auswahlanzeiger 1318 angezeigt werden. Bei verschiedenen Ausführungsformen kann der Auswahlanzeiger eine beliebige willkürliche Form, wie beispielsweise einen Kreis 1306, ein Rechteck 1312 oder eine Raute 1318, haben. 13A 1-5 illustrate exemplary methods for selecting a destination using a user interface, according to embodiments. In such an embodiment, such as in 13A As illustrated, the user interface may allow a user to target 1304 by touching, using a hand 1302 , an area of a touch screen corresponding to the destination. The selected destination 1304 can by a selection indicator 1306 such as a circle containing the selected target 1304 surrounds, to be displayed. In another embodiment, such as in 13B As illustrated, the user interface may allow a user to target 1310 using a mouse 1308 for example, by clicking on an area of a screen corresponding to the destination. The selected destination 1310 can with a selection indicator 1312 are displayed. In yet another embodiment, such as in 13C As illustrated, the user interface may allow a user to target 1316 using a pen 1314 , for example, by tapping on an area of a screen corresponding to the destination. The selected destination 1316 can with a selection indicator 1318 are displayed. In various embodiments, the selection indicator may be any arbitrary shape, such as a circle 1306 , a rectangle 1312 or a rhombus 1318 , to have.

Die hierin beschriebenen Systeme und Verfahren können durch eine breite Vielfalt von beweglichen Objekten umgesetzt oder auf dieselben angewendet werden. Die hierin beschriebenen Systeme, Einrichtungen und Verfahren können auf eine breite Vielfalt von beweglichen Objekten angewendet werden. Wie zuvor erwähnt, kann jegliche Beschreibung eines Luftfahrzeugs hierin für ein beliebiges bewegliches Objekt gelten und verwendet werden. Ein bewegliches Objekt der vorliegenden Erfindung kann dafür konfiguriert sein, sich innerhalb einer beliebigen geeigneten Umgebung, wie beispielsweise in der Luft (z. B. ein Starrflügelflugzeug, ein Drehflügelflugzeug oder ein Flugzeug, das weder Starrflügel noch Drehflügel hat), im Wasser (z. B. ein Schiff oder ein Unterseeboot), am Boden (z. B. ein Kraftfahrzeug, wie beispielsweise ein Auto, ein Lastkraftwagen, ein Bus, ein Motorrad; eine bewegliche Struktur oder ein Gerüst, wie beispielsweise eine Stange, eine Angelrute; oder ein Zug), unter der Erde (z. B. eine U-Bahn), im Weltraum (z. B. ein Raumfahrzeug, ein Satellit oder eine Sonde) oder einer beliebigen Kombination derselben, zu bewegen. Das bewegliche Objekt kann ein Fahrzeug, wie beispielsweise ein an anderer Stelle hierin beschriebenes Fahrzeug, sein. Bei einigen Ausführungsformen kann das bewegliche Objekt an einem lebenden Subjekt, wie beispielsweise einem Menschen oder einem Tier, angebracht sein. Geeignete Tiere können Primaten, Vögel, Hunde, Katzen, Pferde, Rinder, Schafe, Schweine, Delphine, Nagetiere oder Insekten einschließen.The systems and methods described herein may be implemented or applied to a wide variety of moving objects. The systems, devices, and methods described herein may be applied to a wide variety of moving objects. As previously mentioned, any description of an aircraft herein may apply and be used for any moveable object. A moving object of the present invention may be configured to travel in any suitable environment, such as in the air (e.g., a fixed wing aircraft, a rotary wing aircraft or an aircraft having neither fixed wing nor rotary wing) in the water (e.g. A ship or a submarine) on the ground (eg, a motor vehicle such as a car, a truck, a bus, a motorcycle, a movable structure or a scaffold such as a pole, a fishing rod; Train), in-ground (eg, a subway), in space (eg, a spacecraft, a satellite, or a probe), or any combination thereof. The moveable object may be a vehicle, such as a vehicle described elsewhere herein. In some embodiments, the moving object may be attached to a living subject, such as a human or an animal. Suitable animals may include primates, birds, dogs, cats, horses, cattle, sheep, pigs, dolphins, rodents or insects.

Das bewegliche Objekt kann dazu in der Lage sein, sich innerhalb der Umgebung frei in Bezug auf sechs Freiheitsgrade (z. B. drei Freiheitsgrade in der Verschiebung und drei Freiheitsgrade in der Drehung) zu bewegen. Alternativ kann die Bewegung des beweglichen Objekts in Bezug auf einen oder mehrere Freiheitsgrade eingeschränkt sein, wie beispielsweise durch eine(n) vorbestimmte(n) Weg, Bahn oder Ausrichtung. Die Bewegung kann durch einen beliebigen geeigneten Antriebsmechanismus, wie beispielsweise eine Kraftmaschine oder einen Motor, angetrieben werden. Der Antriebsmechanismus des beweglichen Objekts kann durch eine beliebige geeignete Energiequelle, wie beispielsweise Elektroenergie, magnetische Energie, Sonnenenergie, Windenergie, Gravitationsenergie, chemische Energie, Kernenergie oder eine beliebige geeignete Kombination derselben, gespeist werden. Das bewegliche Objekt kann über ein Antriebssystem, wie an anderer Stelle hierin beschrieben, selbstangetrieben sein. Das Antriebssystem kann wahlweise mit einer Energiequelle, wie beispielsweise Elektroenergie, magnetischer Energie, Sonnenenergie, Windenergie, Gravitationsenergie, chemischer Energie, Kernenergie oder einer beliebigen geeigneten Kombination derselben, laufen. Alternativ kann das bewegliche Objekt durch ein Lebewesen getragen werden.The moving object may be able to move freely within the environment with respect to six degrees of freedom (eg, three degrees of freedom in displacement and three degrees of freedom in rotation). Alternatively, the movement of the moving object may be restricted in one or more degrees of freedom, such as by a predetermined path, path or orientation. The movement may be driven by any suitable drive mechanism, such as an engine or engine. The drive mechanism of the moving object may be powered by any suitable source of energy, such as electric power, magnetic energy, solar energy, wind energy, gravitational energy, chemical energy, nuclear energy, or any suitable combination thereof. The moveable object may be self-propelled via a drive system as described elsewhere herein. The drive system may optionally be run with a source of energy, such as electric power, magnetic energy, solar energy, wind energy, gravitational energy, chemical energy, nuclear energy, or any suitable combination thereof. Alternatively, the movable object may be carried by a living being.

In einigen Fällen kann das bewegliche Objekt ein Fahrzeug sein. Geeignete Fahrzeuge können Wasserfahrzeuge, Luftfahrzeuge, Raumfahrzeuge oder Bodenfahrzeuge einschließen. Zum Beispiel können Luftfahrzeuge Starrflügelflugzeuge (z. B. Flugzeuge, Gleiter), Drehflügelflugzeuge (z. B. Hubschrauber, Drehflügler), Flugzeuge, die sowohl Starrflügel als auch Drehflügel haben, oder Flugzeug, die keines von beiden haben (z. B. Kleinluftschiffe, Heißluftballons) sein. Ein Fahrzeug kann selbstangetrieben, wie beispielsweise durch die Luft, auf oder in dem Wasser, im Weltraum oder auf oder unter der Erde selbstangetrieben, sein. Ein selbstangetriebenes Fahrzeug kann ein Antriebssystem, wie beispielsweise ein Antriebssystem, das ein(e)(n) oder mehrere Kraftmaschinen, Motoren, Räder, Achsen, Magnete, Rotoren, Propeller, Schaufeln, Düsen oder eine beliebige geeignete Kombination derselben einschließt, benutzen. In einigen Fällen kann das Antriebssystem dazu verwendet werden, zu ermöglichen, dass das bewegliche Objekt von einer Oberfläche abhebt, auf einer Oberfläche landet, seine gegenwärtige Position und/oder Ausrichtung beibehält, die Ausrichtung ändert und/oder die Position ändert.In some cases, the moving object may be a vehicle. Suitable vehicles may include watercraft, aircraft, spacecraft or ground vehicles. For example, aircraft may include fixed wing aircraft (eg, airplanes, gliders), rotary wing aircraft (eg, helicopters, rotorcraft), airplanes that have both fixed wings and rotary wings, or aircraft that have neither (eg, small airships , Hot air balloons). A vehicle may be self-propelled, such as by air, on or in the water, in space, or on or under the ground itself. A self-propelled vehicle may use a propulsion system, such as a propulsion system that includes one or more prime movers, motors, wheels, axles, magnets, rotors, propellers, blades, nozzles, or any suitable combination thereof. In some cases, the drive system may be used to allow the moveable object to lift off a surface, land on a surface, maintain its current position and / or orientation, change orientation, and / or change position.

Das bewegliche Objekt durch einen Anwender ferngesteuert oder örtlich durch einen Insassen innerhalb des beweglichen Objekts oder auf demselben gesteuert werden. Bei einigen Ausführungsformen ist das bewegliche Objekt ein unbemanntes bewegliches Objekt, wie beispielsweis ein UAV. Ein unbemanntes bewegliches Objekt, wie beispielsweis ein UAV kann keinen Insassen an Bord des beweglichen Objekts haben. Das bewegliche Objekt kann durch einen Menschen oder ein autonomes Steuerungssystem (z. B. ein Rechnersteuerungssystem) oder eine beliebige geeignete Kombination derselben gesteuert werden. Das bewegliche Objekt kann ein autonomer oder halbautonomer Roboter, wie beispielsweise ein mit einer künstlichen Intelligenz konfigurierter Roboter, sein. The moving object may be controlled remotely or locally by an occupant within or on the moving object. In some embodiments, the moving object is an unmanned moving object, such as a UAV. An unmanned moving object, such as a UAV, may not have an occupant aboard the moving object. The moving object may be controlled by a human or an autonomous control system (eg, a computer control system) or any suitable combination thereof. The moving object may be an autonomous or semi-autonomous robot, such as a robot configured with artificial intelligence.

Das bewegliche Objekt kann beliebige geeignete Größe und/oder Abmessungen haben. Bei einigen Ausführungsformen kann das bewegliche Objekt eine Größe und/oder Abmessungen haben, um einen menschlichen Insassen innerhalb des Fahrzeugs oder auf demselben zu haben. Alternativ kann das bewegliche Objekt eine Größe und/oder Abmessungen haben, kleiner, als dazu in der Lage zu sein einen menschlichen Insassen innerhalb des Fahrzeugs oder auf demselben zu haben. Das bewegliche Objekt kann eine Größe und/oder Abmessungen haben, dafür geeignet, durch einen Menschen angehoben oder getragen zu werden. Alternativ kann das bewegliche Objekt größer sein als eine Größe und/oder Abmessungen, um dafür geeignet zu sein, durch einen Menschen angehoben oder getragen zu werden. In einigen Fällen kann das bewegliche Objekt eine maximale Abmessung (z. B. Länge, Breite, Höhe, Durchmesser, Diagonale), kleiner als oder gleich etwa 2 cm, 5 cm, 10 cm, 50 cm, 1 m, 2 m, 5 m oder 10 m, haben. Die maximale Abmessung kann größer als oder gleich etwa 2 cm, 5 cm, 10 cm, 50 cm, 1 m, 2 m, 5 m oder 10 m sein. Zum Beispiel kann der Abstand zwischen Wellen gegenüberliegender Rotoren des beweglichen Objekts kleiner als oder gleich etwa 2 cm, 5 cm, 10 cm, 50 cm, 1 m, 2 m, 5 m oder 10 m sein. Umgekehrt kann der Abstand zwischen Wellen gegenüberliegender Rotoren des beweglichen Objekts größer als oder gleich etwa 2 cm, 5 cm, 10 cm, 50 cm, 1 m, 2 m, 5 m oder 10 m sein.The movable object may be of any suitable size and / or dimensions. In some embodiments, the moveable object may have a size and / or dimensions to have a human occupant within or on the vehicle. Alternatively, the movable object may have a size and / or dimensions less than to be able to have a human occupant within or on the vehicle. The movable object may have a size and / or dimensions suitable for being lifted or carried by a human. Alternatively, the movable object may be larger than a size and / or dimensions to be suitable for being lifted or carried by a human. In some cases, the moving object may have a maximum dimension (eg, length, width, height, diameter, diagonal) less than or equal to about 2 cm, 5 cm, 10 cm, 50 cm, 1 m, 2 m, 5 m or 10 m. The maximum dimension may be greater than or equal to about 2 cm, 5 cm, 10 cm, 50 cm, 1 m, 2 m, 5 m or 10 m. For example, the distance between waves of opposing rotors of the moving object may be less than or equal to about 2 cm, 5 cm, 10 cm, 50 cm, 1 m, 2 m, 5 m or 10 m. Conversely, the distance between waves of opposing rotors of the moving object may be greater than or equal to about 2 cm, 5 cm, 10 cm, 50 cm, 1 m, 2 m, 5 m or 10 m.

Bei einigen Ausführungsformen kann das bewegliche Objekt ein Volumen von weniger als 100 cm × 100 cm × 100 cm, weniger als 50 cm × 50 cm × 30 cm oder weniger als 5 cm × 5 cm × 3 cm haben. Das Gesamtvolumen des beweglichen Objekts kann kleiner als oder gleich etwa 1 cm3, 2 cm3, 5 cm3, 10 cm3, 20 cm3, 30 cm3, 40 cm3, 50 cm3, 60 cm3, 70 cm3, 80 cm3, 90 cm3, 100 cm3, 150 cm3, 200 cm3, 300 cm3, 500 cm3, 750 cm3, 1000 cm3, 5000 cm3, 10000 cm3, 100000 cm3, 1 m3 oder 10 m3 sein. Umgekehrt kann das Gesamtvolumen des beweglichen Objekts größer als oder gleich etwa 1 cm3, 2 cm3, 5 cm3, 10 cm3, 20 cm3, 30 cm3, 40 cm3, 50 cm3, 60 cm3, 70 cm3, 80 cm3, 90 cm3, 100 cm3, 150 cm3, 200 cm3, 300 cm3, 500 cm3, 750 cm3, 1000 cm3, 5000 cm3, 10000 cm3, 100000 cm3, 1 m3 oder 10 m3 sein.In some embodiments, the moving object may have a volume of less than 100 cm x 100 cm x 100 cm, less than 50 cm x 50 cm x 30 cm, or less than 5 cm x 5 cm x 3 cm. The total volume of the moving object may be less than or equal to about 1 cm 3 , 2 cm 3 , 5 cm 3 , 10 cm 3 , 20 cm 3 , 30 cm 3 , 40 cm 3 , 50 cm 3 , 60 cm 3 , 70 cm 3 , 80 cm 3 , 90 cm 3 , 100 cm 3 , 150 cm 3 , 200 cm 3 , 300 cm 3 , 500 cm 3 , 750 cm 3 , 1000 cm 3 , 5000 cm 3 , 10000 cm 3 , 100000 cm 3 , 1 m be 3 or 10 m 3 . Conversely, the total volume of the moving object may be greater than or equal to about 1 cm 3 , 2 cm 3 , 5 cm 3 , 10 cm 3 , 20 cm 3 , 30 cm 3 , 40 cm 3 , 50 cm 3 , 60 cm 3 , 70 cm 3 , 80 cm 3 , 90 cm 3 , 100 cm 3 , 150 cm 3 , 200 cm 3 , 300 cm 3 , 500 cm 3 , 750 cm 3 , 1000 cm 3 , 5000 cm 3 , 10000 cm 3 , 100000 cm 3 , 1 m 3 or 10 m 3 .

Bei einigen Ausführungsformen kann das bewegliche Objekt eine Grundfläche (die sich auf die durch das bewegliche Objekt eingeschlossene seitliche Querschnittsfläche beziehen kann), kleiner als oder gleich etwa 32000 cm2, 20000 cm2, 10000 cm2, 1000 cm2, 500 cm2, 100 cm2, 50 cm2, 10 cm2 oder 5 cm2, haben. Umgekehrt kann die Grundfläche größer als oder gleich etwa 32000 cm2, 20000 cm2, 10000 cm2, 1000 cm2, 500 cm2, 100 cm2, 50 cm2, 10 cm2 oder 5 cm2 sein.In some embodiments, the moveable object may have a footprint (which may refer to the lateral cross-sectional area enclosed by the moveable object) less than or equal to about 32000 cm 2 , 20000 cm 2 , 10000 cm 2 , 1000 cm 2 , 500 cm 2 , 100 cm 2 , 50 cm 2 , 10 cm 2 or 5 cm 2 . Conversely, the footprint may be greater than or equal to about 32000 cm 2 , 20000 cm 2 , 10000 cm 2 , 1000 cm 2 , 500 cm 2 , 100 cm 2 , 50 cm 2 , 10 cm 2 or 5 cm 2 .

In einigen Fällen kann das bewegliche Objekt nicht mehr als 1000 kg wiegen. Das Gewicht des beweglichen Objekts kann kleiner als oder gleich etwa 1000 kg, 750 kg, 500 kg, 200 kg, 150 kg, 100 kg, 80 kg, 70 kg, 60 kg, 50 kg, 45 kg, 40 kg, 35 kg, 30 kg, 25 kg, 20 kg, 15v12 kg, 10 kg, 9 kg, 8 kg, 7 kg, 6 kg, 5 kg, 4 kg, 3 kg, 2 kg, 1 kg, 0,50 kg, 0,1 kg, 0,05 kg oder 0,01 kg sein. Umgekehrt kann das Gewicht des beweglichen Objekts größer als oder gleich etwa 1000 kg, 750 kg, 500 kg, 200 kg, 150 kg, 100 kg, 80 kg, 70 kg, 60 kg, 50 kg, 45 kg, 40 kg, 35 kg, 30 kg, 25 kg, 20 kg, 15v12 kg, 10 kg, 9 kg, 8 kg, 7 kg, 6 kg, 5 kg, 4 kg, 3 kg, 2 kg, 1 kg, 0,50 kg, 0,1 kg, 0,05 kg oder 0,01 kg sein.In some cases, the moving object can not weigh more than 1000 kg. The weight of the moving object may be less than or equal to approximately 1000 kg, 750 kg, 500 kg, 200 kg, 150 kg, 100 kg, 80 kg, 70 kg, 60 kg, 50 kg, 45 kg, 40 kg, 35 kg, 30 kg, 25 kg, 20 kg, 15 v12 kg, 10 kg, 9 kg, 8 kg, 7 kg, 6 kg, 5 kg, 4 kg, 3 kg, 2 kg, 1 kg, 0.50 kg, 0.1 kg, 0.05 kg or 0.01 kg. Conversely, the weight of the moving object may be greater than or equal to about 1000 kg, 750 kg, 500 kg, 200 kg, 150 kg, 100 kg, 80 kg, 70 kg, 60 kg, 50 kg, 45 kg, 40 kg, 35 kg , 30 kg, 25 kg, 20 kg, 15v12 kg, 10 kg, 9 kg, 8 kg, 7 kg, 6 kg, 5 kg, 4 kg, 3 kg, 2 kg, 1 kg, 0.50 kg, 0, 1 kg, 0.05 kg or 0.01 kg.

Bei einigen Ausführungsformen kann ein bewegliches Objekt im Verhältnis zu einer durch das bewegliche Objekt getragenen Last klein sein. Die Last kann eine Nutzlast und/oder einen Träger einschließen, wie ausführlicher unten beschrieben. Bei einigen Beispielen kann ein Verhältnis eines Gewichts des beweglichen Objekts zu einem Lastgewicht größer als, kleiner als oder gleich etwa 1:1 sein. In einigen Fällen kann ein Verhältnis eines Gewichts des beweglichen Objekts zu einem Lastgewicht größer als, kleiner als oder gleich etwa 1:1 sein. Wahlweise kann ein Verhältnis eines Trägergewichts Objekts zu einem Lastgewicht größer als, kleiner als oder gleich etwa 1:1 sein. Wenn gewünscht, kann das Verhältnis eines Gewichts des beweglichen Objekts zu einem Lastgewicht kleiner als oder gleich etwa 1:2, 1:3, 1:4, 1:5, 1:10 oder noch kleiner sein. Umgekehrt kann das Verhältnis eines Gewichts des beweglichen Objekts zu einem Lastgewicht größer als oder gleich etwa 1:2, 1:3, 1:4, 1:5, 1:10 oder noch größer sein.In some embodiments, a moving object may be small in relation to a load carried by the moving object. The load may include a payload and / or a carrier, as described in more detail below. In some examples, a ratio of a weight of the moving object to a load weight may be greater than, less than, or equal to about 1: 1. In some cases, a ratio of a weight of the moving object to a load weight may be greater than, less than, or equal to about 1: 1. Optionally, a ratio of a carrier weight object to a load weight may be greater than, less than, or equal to about 1: 1. If desired, the ratio of a weight of the moving object to a load weight may be less than or equal to about 1: 2, 1: 3, 1: 4, 1: 5, 1:10, or even less. Conversely, the ratio of a weight of the moving object to a load weight may be greater than or equal to about 1: 2, 1: 3, 1: 4, 1: 5, 1:10, or even greater.

Bei einigen Ausführungsformen kann das bewegliche Objekt einen niedrigen Energieverbrauch haben. Zum Beispiel kann das bewegliche Objekt weniger als etwa 5 W/h, 4 W/h, 3 W/h, 2 W/h, 1 W/h oder weniger verbrauchen. In einigen Fällen kann ein Träger des beweglichen Objekts einen niedrigen Energieverbrauch haben. Zum Beispiel kann der Träger Objekt weniger als etwa 5 W/h, 4 W/h, 3 W/h, 2 W/h, 1 W/h oder weniger verbrauchen. Wahlweise kann eine Nutzlast des beweglichen Objekts einen niedrigen Energieverbrauch, wie beispielsweise weniger als etwa 5 W/h, 4 W/h, 3 W/h, 2 W/h, 1 W/h oder weniger, haben.In some embodiments, the moving object may have low power consumption. For example, the moving object may consume less than about 5 W / h, 4 W / h, 3 W / h, 2 W / h, 1 W / h or less. In some cases, a wearer of the moving object may have a low power consumption. For example, the carrier object may be less than about 5 W / h, 4 W / h, 3 W / h, 2 W / h, 1 Consume W / h or less. Optionally, a payload of the moving object may have a low power consumption, such as less than about 5 W / h, 4 W / h, 3 W / h, 2 W / h, 1 W / h or less.

14 illustriert ein UAV 1400, nach Ausführungsformen. Das UAV kann ein Beispiel eines beweglichen Objekts, wie hierin beschrieben, sein. Das UAV 1400 kann ein Antriebssystem einschließen, das vier Rotoren 1402, 1404, 1406 und 1408 hat. Es kann eine beliebige Anzahl von Rotoren (z. B. ein, zwei, der, vier, fünf sechs oder mehr) bereitgestellt werden. Die Rotoren können Ausführungsformen der an anderer Stelle hierin beschriebenen selbstsichernden Rotoren sein. Die Rotoren, Rotorbaugruppen oder anderen Antriebssysteme des unbemannten Luftfahrzeugs können das unbemannte Luftfahrzeug in die Lage versetzen, zu schweben/die Position zu halten, die Ausrichtung zu ändern und/oder die Position zu ändern. Der Abstand zwischen Wellen gegenüberliegender Rotoren kann eine beliebige geeignete Länge 1410 sein. Zum Beispiel kann die Länge 1410 kleiner als oder gleich 2 m oder kleiner als oder gleich 5 m sein. Bei einigen Ausführungsformen kann die Länge 1410 innerhalb eines Bereichs von 40 cm bis 1 m, von 10 cm bis 2 m oder von 5 cm bis 5 m liegen. Jegliche Beschreibung eines UAV hierin kann für ein bewegliches Objekt, wie beispielsweise ein bewegliches Objekt einer anderen Art, gelten und umgekehrt. 14 illustrates a UAV 1400 , according to embodiments. The UAV may be an example of a moving object as described herein. The UAV 1400 can include a drive system that has four rotors 1402 . 1404 . 1406 and 1408 Has. Any number of rotors (eg, one, two, four, five, six, or more) may be provided. The rotors may be embodiments of the self-locking rotors described elsewhere herein. The unmanned aircraft rotors, rotor assemblies, or other propulsion systems may enable the unmanned aerial vehicle to hover / hold the position, change the orientation, and / or change position. The distance between shafts of opposing rotors may be any suitable length 1410 be. For example, the length 1410 less than or equal to 2 m or less than or equal to 5 m. In some embodiments, the length 1410 within a range of 40 cm to 1 m, from 10 cm to 2 m or from 5 cm to 5 m. Any description of a UAV herein may apply to a moving object, such as a moving object of another type, and vice versa.

Bei einigen Ausführungsformen kann das bewegliche Objekt dafür konfiguriert sein, eine Last zu tragen. Die Last kann eines oder mehreres von Passagieren, Ladung, Ausrüstung, Instrumenten und dergleichen einschließen. Die Last kann innerhalb eines Gehäuses bereitgestellt werden. Das Gehäuse kann von einem Gehäuse des beweglichen Objekts gesondert sein oder ein Teil eines Gehäuses für ein bewegliches Objekt sein. Alternativ kann die Last mit einem Gehäuse versehen sein, während das bewegliche Objekt kein Gehäuse hat. Alternativ können Abschnitte der Last oder die gesamte Last ohne ein Gehäuse bereitgestellt werden. Die Last kann starr im Verhältnis zu dem beweglichen Objekt befestigt sein. Wahlweise kann die Last im Verhältnis zu dem beweglichen Objekt beweglich (z. B. verschiebbar oder drehbar im Verhältnis zu dem beweglichen Objekt) sein.In some embodiments, the moving object may be configured to carry a load. The load may include one or more of passengers, cargo, equipment, instruments, and the like. The load can be provided within a housing. The housing may be separate from a housing of the movable object or may be part of a housing for a movable object. Alternatively, the load may be provided with a housing while the movable object has no housing. Alternatively, portions of the load or the entire load may be provided without a housing. The load may be rigidly mounted relative to the moving object. Optionally, the load may be movable (eg, slidable or rotatable relative to the moving object) relative to the moving object.

Bei einigen Ausführungsformen schließt die Last eine Nutzlast 1412 ein. Die Nutzlast kann dafür konfiguriert sein, keinerlei Operation oder Funktion auszuführen. Alternativ kann die Nutzlast eine Nutzlast sein, die dafür konfiguriert ist, eine Operation oder Funktion auszuführen, ebenfalls als funktionelle Nutzlast bekannt. Zum Beispiel kann die Nutzlast einen oder mehrere Sensoren zum Überwachen eines oder mehrerer Ziele einschließen. Ein beliebiger geeigneter Sensor kann in die Nutzlast eingeschlossen sein, wie beispielsweise ein Bilderfassungssensor (z. B. eine Kamera), eine Audioaufnahmeeinrichtung (z. B. ein Parabolspiegelmikrofon), eine Infrarot-Bildgebungseinrichtung oder eine Ultraviolett-Bildgebungseinrichtung. Der Sensor kann statische Sensordaten (z. B. eine Fotografie) oder dynamische Sensordaten (z. B. ein Video) bereitstellen. Bei einigen Ausführungsformen stellt der Sensor Sensordaten für das Ziel der Nutzlast bereit. Alternativ kann die Nutzlast einen oder mehrere Sender zum Bereitstellen von Signalen für ein oder mehrere Ziele einschließen. Ein beliebiger geeigneter Sender kann verwendet werden, wie beispielsweise eine Beleuchtungsquelle oder eine Schallquelle. Bei einigen Ausführungsformen schließt die Nutzlast eine oder mehrere Sende-/Empfangseinrichtungen, wie beispielsweise zur Kommunikation mit einem von dem beweglichen Objekt entfernten Modul, ein. Wahlweise kann die Nutzlast dafür konfiguriert sein, mit der Umgebung oder einem Ziel in Wechselwirkung zu treten. Zum Beispiel kann die Nutzlast ein Werkzeug, ein Instrument oder einen Mechanismus, das/der dazu in der Lage ist, Objekte zu handhaben, wie beispielsweise einen Roboterarm, einschließen.In some embodiments, the load includes a payload 1412 one. The payload may be configured to perform no operation or function. Alternatively, the payload may be a payload configured to perform an operation or function, also known as a functional payload. For example, the payload may include one or more sensors for monitoring one or more targets. Any suitable sensor may be included in the payload, such as an image capture sensor (eg, a camera), an audio capture device (eg, a parabolic mirror microphone), an infrared imaging device, or an ultraviolet imaging device. The sensor may provide static sensor data (eg, a photograph) or dynamic sensor data (eg, a video). In some embodiments, the sensor provides sensor data for the payload's destination. Alternatively, the payload may include one or more transmitters for providing signals for one or more destinations. Any suitable transmitter may be used, such as a lighting source or a sound source. In some embodiments, the payload includes one or more transceivers, such as for communication with a module remote from the moving object. Optionally, the payload may be configured to interact with the environment or a target. For example, the payload may include a tool, instrument, or mechanism capable of handling objects, such as a robotic arm.

Wahlweise kann die Last einen Träger 1414 einschließen. Der Träger kann für die Nutzlast bereitgestellt werden, und die Nutzlast kann über den Träger an das bewegliche Objekt angeschlossen sein, entweder unmittelbar (z. B. indem sie das bewegliche Objekt unmittelbar berührt) oder mittelbar (z. B. indem sie das bewegliche Objekt nicht berührt). Umgekehrt kann die Nutzlast an dem beweglichen Objekt angebracht sein, ohne einen Träger zu erfordern. Die Nutzlast kann integral mit dem Träger geformt sein. Alternativ kann die Nutzlast lösbar an den Träger angeschlossen sein. Bei einigen Ausführungsformen kann die Nutzlast ein oder mehrere Nutzlastelemente einschließen, und eines oder mehrere der Nutzlastelemente können im Verhältnis zu dem beweglichen Objekt und/oder dem Träger beweglich sein, wie oben beschrieben.Optionally, the load can be a carrier 1414 lock in. The carrier may be provided for the payload, and the payload may be connected to the movable object via the carrier, either directly (eg, by directly touching the moving object) or indirectly (eg, by moving the movable object not touched). Conversely, the payload may be attached to the moving object without requiring a carrier. The payload may be integrally molded with the carrier. Alternatively, the payload may be detachably connected to the carrier. In some embodiments, the payload may include one or more payload elements, and one or more of the payload elements may be movable relative to the moveable object and / or the carrier, as described above.

Der Träger kann integral mit dem beweglichen Objekt geformt sein. Alternativ kann der Träger lösbar an das bewegliche Objekt angeschlossen sein. Der Träger kann unmittelbar an das bewegliche Objekt angeschlossen sein. Der Träger kann eine Stütze für die Nutzlast bereitstellen (z. B. wenigstens einen Teil der Nutzlast tragen). Der Träger kann eine geeignete Anbringungsstruktur (z. B. eine Kardanplattform) einschließen, die dazu in der Lage ist, die Bewegung der Nutzlast zu stabilisieren und/oder zu leiten. Bei einigen Ausführungsformen kann der Träger dafür eingerichtet sein, den Zustand der Nutzlast (z. B. Position und/oder Ausrichtung) im Verhältnis zu dem beweglichen Objekt zu steuern. Zum Beispiel kann der Träger dafür konfiguriert sein, sich im Verhältnis zu dem beweglichen Objekt (z. B. in Bezug auf einen, zwei oder drei Verschiebungsgrade und/oder einen, zwei oder drei Drehungsgrade) derart zu bewegen, dass die Nutzlast ungeachtet der Bewegung des beweglichen Objekts ihre Position und/oder Ausrichtung im Verhältnis zu einem geeigneten Bezugsrahmen aufrechterhält. Der Bezugsrahmen kann ein fixierter Bezugsrahmen (zum Beispiel das umgebende Umfeld) sein. Alternativ kann der Bezugsrahmen ein sich bewegender Bezugsrahmen (z. B. das bewegliche Objekt, ein Nutzlastziel) sein.The carrier may be integrally molded with the movable object. Alternatively, the carrier may be detachably connected to the movable object. The carrier can be connected directly to the moving object. The carrier may provide support for the payload (eg, carry at least a portion of the payload). The carrier may include a suitable attachment structure (eg, a gimbal platform) that is capable of stabilizing and / or directing the movement of the payload. In some embodiments, the carrier may be configured to control the state of the payload (eg, position and / or orientation) relative to the moving object. For example, the carrier may be configured to move relative to the movable object (eg, with respect to one, two or three degrees of displacement and / or one, two or three degrees of rotation) such that the payload maintains its position and / or orientation relative to a suitable reference frame, regardless of the movement of the mobile object. The frame of reference can be a fixed frame of reference (for example, the surrounding environment). Alternatively, the frame of reference may be a moving frame of reference (eg, the moving object, a payload target).

Bei einigen Ausführungsformen kann der Träger dafür konfiguriert sein, eine Bewegung der Nutzlast im Verhältnis zu dem beweglichen Objekt und/oder dem Träger zu ermöglichen. Die Bewegung kann eine Verschiebung in Bezug auf bis zu drei Freiheitsgrade (z. B. entlang einer, zweier oder dreier Achsen) oder eine Drehung in Bezug auf bis zu drei Freiheitsgrade (z. B. um eine, zwei oder drei Achsen) oder eine beliebige geeignete Kombination derselben sein.In some embodiments, the carrier may be configured to facilitate movement of the payload relative to the moveable object and / or the carrier. The movement may be a displacement in relation to up to three degrees of freedom (eg along one, two or three axes) or a rotation in relation to up to three degrees of freedom (eg around one, two or three axes) or one any suitable combination thereof.

In einigen Fällen kann der Träger eine Trägerrahmenbaugruppe und eine Trägerbetätigungsbaugruppe einschließen. Die Trägerrahmenbaugruppe kann eine strukturelle Stütze für die Nutzlast bereitstellen. Die Trägerrahmenbaugruppe kann einzelne Trägerrahmenbestandteile einschließen, von denen einige im Verhältnis zueinander beweglich sein können. Die Trägerbetätigungsbaugruppe kann einen oder mehrere Stellantriebe (z. B. Motoren) einschließen, die eine Bewegung der einzelnen Trägerrahmenbestandteile veranlassen. Die Stellantriebe können die Bewegung mehrerer Trägerrahmenbestandteile gleichzeitig ermöglichen oder können dafür konfiguriert sein, die Bewegung jeweils eines einzelnen Trägerrahmenbestandteils zu ermöglichen. Die Bewegung der Trägerrahmenbestandteile kann eine entsprechende Bewegung der Nutzlast erzeugen. Zum Beispiel kann die Trägerbetätigungsbaugruppe eine Drehung eines oder mehrerer Trägerrahmenbestandteile um eine oder mehrere Drehachsen (z. B. Rollachse, Nickachse oder Gierachse) veranlassen. Die Drehung des einen oder der mehreren Trägerrahmenbestandteile kann bewirken, dass sich eine Nutzlast um eine oder mehrere Drehachsen im Verhältnis zu dem beweglichen Objekt dreht. Alternativ oder in Kombination kann die Trägerbetätigungsbaugruppe eine Verschiebung eines oder mehrerer Trägerrahmenbestandteile entlang einer oder mehrerer Verschiebungsachsen veranlassen und dadurch eine Verschiebung der Nutzlast entlang einer oder mehrerer entsprechender Achsen im Verhältnis zu dem beweglichen Objekt erzeugen.In some cases, the carrier may include a carrier frame assembly and a carrier actuating assembly. The carrier frame assembly may provide structural support for the payload. The support frame assembly may include individual support frame components, some of which may be movable relative to each other. The carrier actuating assembly may include one or more actuators (eg, motors) that cause movement of the individual carrier frame components. The actuators may allow the movement of multiple support frame components simultaneously, or may be configured to facilitate movement of a single support frame component, respectively. The movement of the support frame components can create a corresponding movement of the payload. For example, the carrier actuating assembly may cause rotation of one or more carrier frame components about one or more axes of rotation (eg, roll axis, pitch axis, yaw axis). The rotation of the one or more support frame components may cause a payload to rotate about one or more axes of rotation relative to the movable object. Alternatively or in combination, the carrier actuating assembly may cause a displacement of one or more carrier frame components along one or more displacement axes and thereby generate a displacement of the payload along one or more corresponding axes relative to the movable object.

Bei einigen Ausführungsformen kann die Bewegung des beweglichen Objekts, des Trägers und der Nutzlast im Verhältnis zu einem fixierten Bezugsrahmen (z. B. dem umgebenden Umfeld) und/oder zueinander durch ein Endgerät gesteuert werden. Das Endgerät kann ein Fernsteuergerät an einem von dem beweglichen Objekt, dem Träger und/oder der Nutzlast entfernten Ort sein. Das Endgerät kann auf einer Stützplattform angeordnet oder an derselben befestigt sein. Alternativ kann das Endgerät ein in der Hand gehaltenes oder tragbares Gerät sein. Zum Beispiel kann das Endgerät ein Smartphone, ein Tablet, ein Laptop, einen Rechner, eine Brille, Handschuhe, einen Helm, ein Mikrofon oder geeignete Kombinationen derselben einschließen. Das Endgerät kann eine Anwenderschnittstelle, wie beispielsweise eine Tastatur, eine Maus, einen Joystick, einen Berührungsbildschirm oder eine Anzeige, einschließen. Es kann eine beliebige geeignete Anwendereingabe verwendet werden, um mit dem Endgerät in Wechselwirkung zu treten, wie beispielsweise manuell eingegebene Befehle, Sprachsteuerung, Gestensteuerung oder Positionssteuerung (z. B. über eine Bewegung, Position oder Neigung des Endgeräts).In some embodiments, the movement of the moving object, the carrier, and the payload may be controlled by a terminal relative to a fixed frame of reference (e.g., the surrounding environment) and / or one another. The terminal may be a remote control device at a location remote from the moving object, the carrier and / or the payload. The terminal may be mounted on or secured to a support platform. Alternatively, the terminal may be a hand-held or portable device. For example, the terminal may include a smartphone, a tablet, a laptop, a calculator, glasses, gloves, a helmet, a microphone, or any suitable combination thereof. The terminal may include a user interface such as a keyboard, a mouse, a joystick, a touch screen, or a display. Any suitable user input may be used to interact with the terminal, such as manually entered commands, voice control, gesture control, or position control (eg, about movement, position, or tilt of the terminal).

Das Endgerät kann dazu verwendet werden, einen beliebigen Zustand des beweglichen Objekts, des Trägers und/oder der Nutzlast zu steuern. Zum Beispiel kann das Endgerät dazu verwendet werden, die Position und/oder Ausrichtung des beweglichen Objekts, des Trägers und/oder der Nutzlast im Verhältnis zu einem fixierten Bezugsrahmen und/oder zueinander zu steuern. Bei einigen Ausführungsformen kann das Endgerät dazu verwendet werden, einzelne Elemente des beweglichen Objekts, des Trägers und/oder der Nutzlast, wie beispielsweise die Betätigungsbaugruppe des Trägers, einen Sensor der Nutzlast oder einen Sender der Nutzlast, zu steuern. Das Endgerät kann eine drahtlose Kommunikationseinrichtung einschließen, die dafür eingerichtet ist, mit einem oder mehreren von dem beweglichen Objekt, dem Träger oder der Nutzlast zu kommunizieren.The terminal may be used to control any state of the moving object, the carrier and / or the payload. For example, the terminal may be used to control the position and / or orientation of the moving object, the carrier, and / or the payload in relation to a fixed frame of reference and / or to each other. In some embodiments, the terminal may be used to control individual elements of the moving object, the carrier, and / or the payload, such as the carrier's actuator assembly, a payload sensor, or a payload transmitter. The terminal may include a wireless communication device configured to communicate with one or more of the mobile object, the carrier, or the payload.

Das Endgerät kann eine geeignete Anzeige zum Betrachten von Informationen des beweglichen Objekts, des Trägers und/oder der Nutzlast einschließen. Zum Beispiel kann das Endgerät dafür konfiguriert sein, Informationen des beweglichen Objekts, des Trägers und/oder der Nutzlast in Bezug auf Position, Verschiebungsgeschwindigkeit, Verschiebungsbeschleunigung, Ausrichtung, Winkelgeschwindigkeit, Winkelbeschleunigung oder beliebige geeignete Kombinationen derselben anzuzeigen. Bei einigen Ausführungsformen kann das Endgerät durch die Nutzlast bereitgestellte Informationen, wie beispielsweise durch eine funktionelle Nutzlast bereitgestellte Daten (z. B. durch eine Kamera oder eine andere Bildaufnahmeeinrichtung aufgezeichnete Bilder) anzeigen.The terminal may include an appropriate display for viewing information of the moving object, the carrier and / or the payload. For example, the terminal may be configured to display information of the moving object, the carrier, and / or the payload with respect to position, displacement speed, displacement acceleration, orientation, angular velocity, angular acceleration, or any suitable combination thereof. In some embodiments, the terminal may display information provided by the payload, such as data provided by a functional payload (eg, images recorded by a camera or other image capture device).

Wahlweise kann das gleiche Endgerät sowohl das bewegliche Objekt, den Träger und/oder die Nutzlast oder einen Zustand des beweglichen Objekts, des Trägers und/oder der Nutzlast steuern als auch Informationen von dem beweglichen Objekt, dem Träger und/oder der Nutzlast empfangen und/oder anzeigen. Zum Beispiel kann ein Endgerät die Position der Nutzlast im Verhältnis zu einer Umgebung steuern, während sie durch die Nutzlast aufgenommene Bilder oder Informationen über die Position der Nutzlast anzeigt. Alternativ können unterschiedliche Endgeräte für unterschiedliche Funktionen verwendet werden. Zum Beispiel kann ein erstes Endgerät eine Bewegung oder einen Zustand des beweglichen Objekts, des Trägers und/oder der Nutzlast steuern, während ein zweites Endgerät Informationen von dem beweglichen Objekt, dem Träger und/oder der Nutzlast empfangen und/oder anzeigen kann. Zum Beispiel kann ein erstes Endgerät die Positionierung der Nutzlast im Verhältnis zu einer Umgebung steuern, während ein zweites Endgerät durch die Nutzlast aufgenommene Bilddaten anzeigt.Optionally, the same terminal may control both the moving object, the carrier and / or the payload or a state of the moving object, the carrier and / or the payload as well as receiving and / or displaying information from the moving object, the carrier, and / or the payload. For example, a terminal may control the position of the payload relative to an environment while displaying payload-picked images or payload position information. Alternatively, different terminals can be used for different functions. For example, a first terminal may control a movement or a state of the moving object, the carrier, and / or the payload, while a second terminal may receive and / or display information from the moving object, the carrier, and / or the payload. For example, a first terminal may control the positioning of the payload relative to an environment, while a second terminal may display image data picked up by the payload.

Verschiedene Kommunikationsmodi können zwischen einem beweglichen Objekt und einem integrierten Endgerät, das sowohl das bewegliche Objekt steuert als auch Daten empfängt, oder zwischen dem beweglichen Objekt und mehreren Endgeräten, die sowohl das bewegliche Objekt steuern als auch Daten empfangen, benutzt werden. Zum Beispiel können wenigstens zwei unterschiedliche Kommunikationsmodi zwischen dem beweglichen Objekt und dem Endgerät, das sowohl das bewegliche Objekt steuert als auch Daten empfängt, gebildet werden.Various communication modes may be used between a moving object and an integrated terminal that both controls the moving object and receives data, or between the moving object and a plurality of terminals that both control the moving object and receive data. For example, at least two different communication modes may be formed between the mobile object and the terminal that controls both the mobile object and receives data.

15 illustriert ein bewegliches Objekt 1500, das einen Träger 1502 und eine Nutzlast 1504 einschließt, nach Ausführungsformen. Obwohl das bewegliche Objekt 1500 als ein Flugzeug abgebildet wird, soll diese Abbildung nicht begrenzend sein, und es kann eine beliebige geeignete Art von beweglichem Objekt verwendet werden, wie zuvor hierin beschrieben. Eine Person vom Fach würde erkennen, dass eine beliebige der hierin im Zusammenhang von Flugzeugsystemen beschriebene Ausführungsform auf ein beliebiges geeignetes bewegliches Objekt (z. B. ein UAV) angewendet werden kann. In einigen Fällen kann die Nutzlast 1504 an dem beweglichen Objekt 1500 bereitgestellt werden, ohne den Träger 1502 zu erfordern. Das bewegliche Objekt 1500 kann Antriebsmechanismen 1506, ein Sensorsystem 1508 und ein Kommunikationssystem 1510 einschließen. 15 illustrates a moving object 1500 that a carrier 1502 and a payload 1504 includes, according to embodiments. Although the moving object 1500 as depicted as an airplane, this figure is not intended to be limiting, and any suitable type of moving object may be used as previously described herein. One skilled in the art would recognize that any of the embodiments described herein in the context of aircraft systems may be applied to any suitable moving object (eg, a UAV). In some cases, the payload 1504 on the moving object 1500 be provided without the carrier 1502 to require. The moving object 1500 can drive mechanisms 1506 , a sensor system 1508 and a communication system 1510 lock in.

Die Antriebsmechanismen 1506 können eines oder mehrere von Rotoren, Propeller, Schaufeln, Kraftmaschinen, Motoren, Rädern, Achsen, Magneten oder Düsen, wie zuvor beschrieben, einschließen. Zum Beispiel können die Antriebsmechanismen 1506 selbstsichernde Rotoren, Rotorbaugruppen oder andere rotierende Antriebseinheiten, wie an anderer Stelle hierin offenbart, sein. Das bewegliche Objekt kann einen oder mehr, zwei der mehr, drei oder mehr oder vier oder mehr Antriebsmechanismen haben. Die Antriebsmechanismen können alle von der gleichen Art sein. Alternativ können ein oder mehrere Antriebsmechanismen unterschiedliche Arten von Antriebsmechanismen sein. Die Antriebsmechanismen 1506 können unter Verwendung beliebiger geeigneter Mittel, wie beispielsweise eines Stützelements (z. B. einer Antriebswelle), wie an anderer Stelle hierin beschrieben, an dem beweglichen Objekt 1500 angebracht sein. Die Antriebsmechanismen 1506 können an einem beliebigen geeigneten Abschnitt des beweglichen Objekts 1500, wie beispielsweise an dem Oberteil, dem Unterteil, der Vorderseite, der Rückseite, den Seiten oder beliebigen geeigneten Kombinationen derselben, angebracht sein.The drive mechanisms 1506 may include one or more of rotors, propellers, blades, engines, motors, wheels, axles, magnets, or nozzles as previously described. For example, the drive mechanisms 1506 self-locking rotors, rotor assemblies or other rotary drive units as disclosed elsewhere herein. The moving object may have one or more, two of the more, three or more, or four or more drive mechanisms. The drive mechanisms can all be of the same type. Alternatively, one or more drive mechanisms may be different types of drive mechanisms. The drive mechanisms 1506 may be attached to the movable object using any suitable means, such as a support member (eg, a drive shaft) as described elsewhere herein 1500 to be appropriate. The drive mechanisms 1506 can be attached to any suitable section of the moving object 1500 , such as attached to the top, bottom, front, back, sides, or any suitable combination thereof.

Bei einigen Ausführungsformen können die Antriebsmechanismen 1506 ermöglichen, dass das bewegliche Objekt 1500 vertikal von einer Oberfläche abhebt oder vertikal auf einer Oberfläche landet, ohne jegliche horizontale Bewegung des beweglichen Objekts 1500 zu erfordern (z. B. ohne eine Start- und Landebahn hinabzufahren). Wahlweise können die Antriebsmechanismen 1506 funktionsfähig sein, um zu ermöglichen, dass das bewegliche Objekt 1500 bei einer spezifizierten Position und/oder Ausrichtung in der Luft schwebt. Einer oder mehrere der Antriebsmechanismen 1506 können unabhängig von den anderen Antriebsmechanismen gesteuert werden. Alternativ können die Antriebsmechanismen 1506 dafür konfiguriert sein, gleichzeitig gesteuert zu werden. Zum Beispiel kann das bewegliche Objekt 1500 mehrere horizontal ausgerichtete Rotoren haben, die dem beweglichen Objekt 1500 Auftrieb und/oder Schub bereitstellen können. Die mehreren horizontal ausgerichteten Rotoren können betätigt werden, um dem beweglichen Objekt Fähigkeiten zum vertikalen Abheben, vertikalen Landen und Schweben bereitzustellen. Bei einigen Ausführungsformen können sich einer oder mehrere der horizontal ausgerichteten Rotoren im Uhrzeigersinn drehen, während sich einer oder mehrere der horizontal ausgerichteten Rotoren gegen den Uhrzeigersinn drehen können. Zum Beispiel kann die Anzahl der Rotoren im Uhrzeigersinn gleich der Anzahl der Rotoren gegen den Uhrzeigersinn sein. Die Drehgeschwindigkeit jedes der horizontal ausgerichteten Rotoren kann unabhängig verändert werden, um den durch jeden Rotor erzeugten Auftrieb und/oder Schub zu steuern und dadurch die räumliche Anordnung, Geschwindigkeit und/oder Beschleunigung des beweglichen Objekts 1500 (z. B. in Bezug auf bis zu drei Verschiebungsgrade und bis zu drei Drehungsgrade) einzustellen.In some embodiments, the drive mechanisms 1506 allow the moving object 1500 lifts vertically from a surface or lands vertically on a surface without any horizontal movement of the moving object 1500 to require (for example, without going down a runway). Optionally, the drive mechanisms 1506 be functional in order to allow the moving object 1500 hovering in a specified position and / or orientation in the air. One or more of the drive mechanisms 1506 can be controlled independently of the other drive mechanisms. Alternatively, the drive mechanisms 1506 be configured to be controlled simultaneously. For example, the moving object 1500 have several horizontally oriented rotors that the moving object 1500 Can provide lift and / or thrust. The plurality of horizontally oriented rotors may be actuated to provide vertical lift, vertical landing, and hovering capabilities to the moving object. In some embodiments, one or more of the horizontally oriented rotors may rotate clockwise while one or more of the horizontally oriented rotors may rotate counterclockwise. For example, the number of rotors in the clockwise direction may be equal to the number of rotors in the counterclockwise direction. The rotational speed of each of the horizontally oriented rotors may be independently varied to control the lift and / or thrust generated by each rotor, and thereby the spatial arrangement, speed and / or acceleration of the moving object 1500 (eg with respect to up to three degrees of displacement and up to three degrees of rotation).

Das Sensorsystem 1508 kann einen oder mehrere Sensoren einschließen, welche die räumliche Anordnung, Geschwindigkeit und/oder Beschleunigung des beweglichen Objekts 1500 (z. B. in Bezug auf bis zu drei Verschiebungsgrade und bis zu drei Drehungsgrade) abfühlen können. Der eine oder die mehreren Sensoren können beliebige der zuvor hierin beschriebenen Sensoren, einschließlich von GPS-Sensoren, Bewegungssensoren, Trägheitssensoren, Näherungssensoren oder Bildsensoren, einschließen. Die durch das Sensorsystem 1508 bereitgestellten Sensordaten können dazu verwendet werden, die räumliche Anordnung, Geschwindigkeit und/oder Beschleunigung des beweglichen Objekts 1500 (z. B. unter Verwendung einer geeigneten Verarbeitungseinheit und/oder eine Steuermoduls, wie unten beschrieben) zu steuern. Alternativ kann das Sensorsystem 1508 dazu verwendet werden, Daten bezüglich des das bewegliche Objekt umgebenden Umfeldes, wie beispielsweise Wetterbedingungen, Nähe zu möglichen Hindernissen, Position geografischer Merkmale, Position künstlicher Strukturen und dergleichen, bereitzustellen.The sensor system 1508 may include one or more sensors that determine the spatial arrangement, speed, and / or acceleration of the moving object 1500 (eg, with respect to up to three degrees of displacement and up to three degrees of rotation). The one or the plurality of sensors may include any of the sensors previously described herein, including GPS sensors, motion sensors, inertial sensors, proximity sensors, or image sensors. The through the sensor system 1508 provided sensor data can be used to the spatial arrangement, speed and / or acceleration of the moving object 1500 (eg, using a suitable processing unit and / or a control module as described below). Alternatively, the sensor system 1508 be used to provide data relating to the environment surrounding the moving object, such as weather conditions, proximity to possible obstacles, position of geographical features, position of artificial structures, and the like.

Das Kommunikationssystem 1510 ermöglicht eine Kommunikation mit einem Endgerät 1512, das ein Kommunikationssystem 1514 hat, über drahtlose Signale. Die Kommunikationssysteme 1510, 1514 eine beliebige Anzahl von Sendern, Empfängern und/oder Sende-/Empfangseinrichtungen einschließen, die zur drahtlosen Kommunikation geeignet sind. Die Kommunikation kann eine Einwegkommunikation sein, so dass Daten in nur einer Richtung übermittelt werden können. Zum Beispiel kann die Einwegkommunikation nur einschließen, dass das bewegliche Objekt 1500 Daten an das Endgerät 1512 oder umgekehrt übermittelt. Die Daten können von einem oder mehreren Sendern des Kommunikationssystems 1510 an einen oder mehrere Empfänger des Kommunikationssystems 1514 oder umgekehrt übermittelt werden. Alternativ kann die Kommunikation eine Zweiwegekommunikation sein, so dass Daten in beiden Richtungen zwischen dem beweglichen Objekt 1500 und dem Endgerät 1512 übermittelt werden können. Die Zweiwegekommunikation kann das Übermitteln von Daten von einem oder mehreren Sendern des Kommunikationssystems 1510 an einen oder mehrere Empfänger des Kommunikationssystems 1514 und umgekehrt einschließen.The communication system 1510 allows communication with a terminal 1512 that is a communication system 1514 has, over wireless signals. The communication systems 1510 . 1514 include any number of transmitters, receivers and / or transceivers suitable for wireless communication. The communication can be one-way communication so that data can be transmitted in one direction only. For example, the one-way communication may only include that the moving object 1500 Data to the terminal 1512 or vice versa. The data may be from one or more transmitters of the communication system 1510 to one or more recipients of the communication system 1514 or vice versa. Alternatively, the communication may be two-way communication, allowing data in both directions between the moving object 1500 and the terminal 1512 can be transmitted. Two-way communication may involve transmitting data from one or more transmitters of the communication system 1510 to one or more recipients of the communication system 1514 and vice versa.

Bei einigen Ausführungsformen kann das Endgerät 1512 Steuerdaten einem oder mehreren von dem beweglichen Objekt 1500, dem Träger 1502 und der Nutzlast 1504 bereitstellen und Informationen von einem oder mehreren von dem beweglichen Objekt 1500, dem Träger 1502 und der Nutzlast 1504 (z. B. Positions- und/oder Bewegungsinformationen des beweglichen Objekts, des Trägers oder der Nutzlast; durch die Nutzlast abgefühlte Daten, wie beispielsweise durch eine Nutzlastkamera aufgenommene Bilddaten) empfangen. In einigen Fällen können Steuerdaten von dem Endgerät Anweisungen für relative Positionen, Bewegungen Betätigungen oder Steuerungen des beweglichen Objekts, des Trägers und/oder der Nutzlast einschließen. Zum Beispiel könnend die Steuerdaten zu einer Modifikation der Position und/oder Ausrichtung des beweglichen Objekts (z. B. über eine Steuerung der Antriebsmechanismen 1506) oder einer Bewegung der Nutzlast in Bezug auf das bewegliche Element (z. B. über eine Steuerung des Trägers 1502) führen. Die Steuerdaten von dem Endgerät können zu einer Steuerung der Nutzlast, wie beispielsweise einer Steuerung des Betriebs einer Kamera oder anderen Bildaufnahmeeinrichtung (z. B. Aufnehmen von Stand- oder Bewegtbildern, Herein- oder Herauszoomen, Ein- oder Ausschalten, Umschalten von Bildmodi, Ändern der Bildauflösung, Ändern des Brennpunkts, Ändern der Schärfentiefe, Ändern der Belichtungszeit, Ändern der Lichtstärke, Ändern des Blickwinkels oder Gesichtsfelds), führen. In einigen Fällen können die Kommunikationen von dem beweglichen Objekt, dem Träger und/oder der Nutzlast Informationen von einem oder mehreren Sensoren (z. B. des Sensorsystems 1508 der Nutzlast 1504) einschließen. Die Kommunikationen können abgefühlte Informationen von einer oder mehreren unterschiedlichen Arten von Sensoren (z. B. GPS-Sensoren, Bewegungssensoren, Trägheitssensor, Näherungssensoren oder Bildsensoren) einschließen. Solche Informationen können die Position (z. B. Standort, Ausrichtung, Bewegung oder Beschleunigung des beweglichen Objekts, des Trägers und/oder der Nutzlast. Solche Informationen von einer Nutzlast können durch die Nutzlast erfasste Daten oder einen abgefühlten Zustand der Nutzlast einschließen. Die bereitgestellten durch das Endgerät 1512 übermittelten Steuerdaten können dafür konfiguriert sein, den Zustand eines oder mehrerer von dem beweglichen Objekt 1500, dem Träger 1502 und der Nutzlast 1504 zu steuern. Alternativ oder in Kombination können der Träger 1502 und die Nutzlast 1504 ebenfalls ein Kommunikationsmodul einschließen, das dafür konfiguriert ist, mit dem Endgerät 1512 zu kommunizieren, so dass das Endgerät mit jedem von dem beweglichen Objekt 1500, dem Träger 1502 und der Nutzlast 1504 kommunizieren und dieselben steuern kann.In some embodiments, the terminal may 1512 Control data one or more of the moving object 1500 , the carrier 1502 and the payload 1504 provide and information from one or more of the moving object 1500 , the carrier 1502 and the payload 1504 (eg, positional and / or moving information of the moving object, the carrier or the payload, data sensed by the payload, such as image data taken by a payload camera). In some cases, control data from the terminal may include instructions for relative positions, movements, or controls of the moving object, the carrier, and / or the payload. For example, the control data may be for modifying the position and / or orientation of the moving object (eg, via control of the drive mechanisms 1506 ) or a movement of the payload with respect to the movable element (eg via a control of the carrier 1502 ) to lead. The control data from the terminal may be used to control the payload, such as controlling the operation of a camera or other image capture device (eg, taking still or moving images, zooming in or out, turning on or off, switching image modes, etc.) image resolution, changing the focus, changing the depth of field, changing the exposure time, changing the aperture, changing the angle of view or field of view). In some cases, the communications from the moving object, the carrier, and / or the payload may include information from one or more sensors (eg, the sensor system 1508 the payload 1504 ) lock in. The communications may include sensed information from one or more different types of sensors (eg, GPS sensors, motion sensors, inertial sensors, proximity sensors, or image sensors). Such information may include the location (eg, location, orientation, movement, or acceleration of the moving object, the carrier, and / or the payload.) Such information from a payload may include data acquired by the payload or a sensed state of the payload through the terminal 1512 transmitted control data may be configured to control the state of one or more of the moving object 1500 , the carrier 1502 and the payload 1504 to control. Alternatively or in combination, the carrier may 1502 and the payload 1504 also include a communication module configured to communicate with the terminal 1512 to communicate so that the terminal is connected to each of the moving object 1500 , the carrier 1502 and the payload 1504 communicate and control them.

Bei einigen Ausführungsformen kann das bewegliche Objekt 1500 dafür konfiguriert sein, mit einem anderen entfernten Gerät zusätzlich zu dem Endgerät 1512 oder anstelle des Endgeräts 1512 zu kommunizieren. Das Endgerät 1512 kann ebenfalls dafür konfiguriert sein, mit einem anderen entfernten Gerät sowie dem beweglichen Objekt 1500 zu kommunizieren. Zum Beispiel können das bewegliche Objekt 1500 und/oder das Endgerät 1512 mit einem anderen beweglichen Objekt oder einem Träger oder einer Nutzlast eines beweglichen Objekts kommunizieren. Wenn gewünscht, kann das andere entfernte Gerät ein zweites Endgerät oder eine andere Datenverarbeitungseinrichtung (z. B. ein Rechner, Laptop, Tablet, Smartphone oder ein anderes Mobilgerät) sein. Das entfernte Gerät kann dafür konfiguriert sein, Daten an das bewegliche Objekt 1500 zu übermitteln, Daten von dem beweglichen Objekt 1500 zu empfangen, Daten an das Endgerät 1512 zu übermitteln und/oder Daten von dem Endgerät 1512 zu empfangen. Wahlweise kann das entfernte Gerät mit dem Internet oder einem andere Telekommunikationsnetz verbunden sein, so das von dem beweglichen Objekt 1500 und/oder dem Endgerät 1512 empfangene Daten zu einer Website oder einem Server hochgeladen werden können.In some embodiments, the moving object 1500 be configured with another remote device in addition to the terminal 1512 or instead of the terminal 1512 to communicate. The terminal 1512 may also be configured with another remote device as well as the moving object 1500 to communicate. For example, the moving object 1500 and / or the terminal 1512 communicate with another moving object or a carrier or payload of a moving object. If desired, the other remote device may be a second terminal or other computing device (eg, a computer, laptop, tablet, smartphone, or other mobile device). The remote device may be configured to send data to the moving object 1500 to convey data from the moving object 1500 to receive data to the terminal 1512 to transmit and / or data from the terminal 1512 to recieve. Optionally, the remote device may be connected to the Internet or other telecommunications network, such as the mobile object 1500 and / or the terminal 1512 received data can be uploaded to a website or a server.

16 illustriert ein beispielhaftes System 1600 zum Verfolgen eines beweglichen Objekts, nach Ausführungsformen. Das System 1600 kann in Verbindung mit einer beliebigen geeigneten Ausführungsform der hierin offenbarten Systeme, Einrichtungen und Verfahren verwendet werde. Zum Beispiel kann das System 1600 durch ein bewegliches Objekt umgesetzt oder getragen werden. Das System 1600 kann ein Sensormodul 1602, eine Verarbeitungseinheit 1604, ein nicht-flüchtiges rechnerlesbares Medium 1606, ein Steuermodul 1608 und ein Kommunikationsmodul 1610 einschließen. 16 illustrates an exemplary system 1600 for tracking a moving object, according to embodiments. The system 1600 may be used in conjunction with any suitable embodiment of the systems, devices and methods disclosed herein. For example, the system 1600 be implemented or worn by a moving object. The system 1600 can be a sensor module 1602 , a processing unit 1604 , a non-volatile computer-readable medium 1606 , a control module 1608 and a communication module 1610 lock in.

Das Sensormodul 1602 kann unterschiedliche Arten von Sensoren benutzen, die Informationen bezüglich der beweglichen Objekte auf unterschiedliche Weisen erfassen. Unterschiedliche Arten von Sensoren können unterschiedliche Arten von Signalen oder Signale aus unterschiedlichen Quellen senden. Zum Beispiel können die Sensoren Trägheitssensoren, PGS-Sensoren, Näherungssensoren (z. B. Lidar) oder Sicht-/Bildsensoren (z. B. eine Kamera) einschließen. Das Sensormodul 1602 kann wirksam an eine Verarbeitungseinheit 1604 angeschlossen sein, die mehrere Prozessoren hat. Bei einigen Ausführungsformen kann das Sensormodul wirksam an ein Übertragungsmodul 1612 (z. B. ein WiFi-Bildübertragungsmodul) angeschlossen sein, das dafür konfiguriert ist, Sensordaten unmittelbar an ein geeignetes externes Gerät oder System zu übermitteln. Zum Beispiel kann das Übertragungsmodul 1612 dazu verwendet werden, durch eine Kamera des Sensormoduls 1602 aufgenommene Bilder an ein entferntes Endgerät zu übermitteln.The sensor module 1602 can use different types of sensors that detect information regarding the moving objects in different ways. Different types of sensors can send different types of signals or signals from different sources. For example, the sensors may include inertial sensors, PGS sensors, proximity sensors (eg, lidar), or vision / image sensors (eg, a camera). The sensor module 1602 can be effective to a processing unit 1604 be connected, which has multiple processors. In some embodiments, the sensor module may be operatively connected to a transmission module 1612 (eg, a WiFi image transmission module) configured to transmit sensor data directly to a suitable external device or system. For example, the transmission module 1612 to be used by a camera of the sensor module 1602 to transmit captured images to a remote terminal.

Die Verarbeitungseinheit 1604 kann einen oder mehrere Prozessoren, wie beispielsweise einen programmierbaren Prozessor (z. B. eine zentrale Verarbeitungseinheit (central processing unit – CPU)) haben. Zum Beispiel kann die Verarbeitungseinheit 1604 eine feldprogrammierbare Gatteranordnung (FPGA) und/oder einen oder mehrere ARM-Prozessoren einschließen. Die Verarbeitungseinheit 1604 kann wirksam an ein nicht-flüchtiges rechnerlesbares Medium 1606 angeschlossen sein, Das nicht-flüchtige rechnerlesbare Medium 1606 kann Logik, Code und/oder Programmanweisungen speichern, die durch die Verarbeitungseinheit 1604 zum Durchführen eines oder mehrerer Schritte ausführbar sind. Das nicht-flüchtige rechnerlesbare Medium kann eine oder mehrere Speichereinheiten (z. B. entfernbare Medien oder externen Speicher, wie beispielsweise eine SD-Card oder Direktzugriffsspeicher (random access memory – RAM)) einschließen. Bei einigen Ausführungsformen können Daten von dem Sensormodul 1602 unmittelbar zu den Speichereinheiten des nicht-flüchtigen rechnerlesbaren Mediums 1606 weitergeleitet und innerhalb derselben gespeichert werden. Die Speichereinheiten des nicht-flüchtigen rechnerlesbaren Mediums 1606 können Logik, Code und/oder Programmanweisungen speichern, die durch die Verarbeitungseinheit 1604 ausführbar sind, um eine beliebige geeignete Ausführungsform der hierin beschriebenen Verfahren durchzuführen. Zum Beispiel kann die Verarbeitungseinheit 1604 dafür konfiguriert sein, Anweisungen auszuführen, die einen oder mehrere Prozessoren der Verarbeitungseinheit 1604 dazu veranlassen, die hierin erörterten Verfolgungsfunktionen auszuführen. Die Speichereinheiten können durch die Verarbeitungseinheit 1604 zu verarbeitende Sensordaten von dem Sensormodul speichern. Bei einigen Ausführungsformen können die Speichereinheiten des nicht-flüchtigen rechnerlesbaren Mediums 1606 dazu verwendet werden, die durch die Verarbeitungseinheit 1604 erzeugten Verarbeitungsergebnisse zu speichern.The processing unit 1604 may include one or more processors, such as a programmable processor (eg, a central processing unit (CPU)). For example, the processing unit 1604 a field programmable gate array (FPGA) and / or one or more ARM processors. The processing unit 1604 can effectively connect to a non-volatile computer-readable medium 1606 The non-volatile computer-readable medium 1606 can store logic, code, and / or program statements issued by the processing unit 1604 to perform one or more steps are executable. The non-transitory computer-readable medium may include one or more storage devices (eg, removable media or external storage such as an SD card or random access memory (RAM)). In some embodiments, data may be from the sensor module 1602 directly to the storage units of the non-volatile computer-readable medium 1606 be forwarded and stored within the same. The storage units of the non-volatile computer-readable medium 1606 can store logic, code and / or program statements by the processing unit 1604 are executable to carry out any suitable embodiment of the methods described herein. For example, the processing unit 1604 be configured to execute instructions that include one or more processors of the processing unit 1604 to perform the tracking functions discussed herein. The storage units can be processed by the processing unit 1604 store sensor data to be processed by the sensor module. In some embodiments, the storage units of the non-volatile computer-readable medium 1606 used by the processing unit 1604 store generated processing results.

Bei einigen Ausführungsformen kann die Verarbeitungseinheit 1604 wirksam an ein Steuermodul 1608 angeschlossen sein, das dafür konfiguriert ist, einen Zustand des beweglichen Objekts zu steuern. Zum Beispiel kann das Steuermodul 1608 dafür konfiguriert sein, die Antriebsmechanismen des beweglichen Objekts zu steuern, um die räumliche Anordnung, Geschwindigkeit und/oder Beschleunigung des beweglichen Objekts in Bezug auf sechs Freiheitsgrade einzustellen. Alternativ oder in Kombination kann das Steuermodul 1608 eines oder mehreres von einem Zustand eines Trägers, einer Nutzlast oder eines Sensormoduls steuern.In some embodiments, the processing unit 1604 effective to a control module 1608 be connected, which is configured to control a state of the movable object. For example, the control module 1608 be configured to control the drive mechanisms of the moving object to adjust the spatial arrangement, speed and / or acceleration of the moving object with respect to six degrees of freedom. Alternatively or in combination, the control module 1608 control one or more of a state of a carrier, a payload or a sensor module.

Die Verarbeitungseinheit 1604 kann wirksam an ein Kommunikationsmodul 1610 angeschlossen sein, das dafür konfiguriert ist, Daten an ein oder mehreren externe Geräte (z. B. ein Endgerät, ein Anzeigegerät oder eine andere Fernsteuerung) zu senden und/oder von denselben zu empfangen. Ein beliebiges Kommunikationsmittel kann verwendet werden, wie beispielsweise Kabelkommunikation oder drahtlose Kommunikation. Zum Beispiel kann das Kommunikationsmodul 1610 eines oder mehrere von lokalen Netzen (LAN), landesweiten Netzen (WAN), Infrarot-, Funk-, WiFi-, Point-to-Point-(P2P-)Netzen, Telekommunikationsnetzen, Cloud-Kommunikation und dergleichen benutzen. Wahlweise können Relaisstationen, wie beispielsweise Masten, Satelliten oder Mobilstationen, verwendet werden. Drahtlose Kommunikation kann näherungsabhängig oder näherungsunabhängig sein. Bei einigen Ausführungsformen kann für Kommunikationen Sichtverbindung erforderlich sein oder nicht. Das Kommunikationsmodul 1610 kann eines oder mehreres von Sensordaten von dem Sensormodul und/oder durch die Verarbeitungseinheit 1604 erzeugten Verarbeitungsergebnissen, vorbestimmten Steuerdaten oder Anwenderbefehlen von einem entfernten Endgerät und dergleichen senden und/oder empfangen.The processing unit 1604 can be effective to a communication module 1610 which is configured to send and / or receive data to one or more external devices (eg, a terminal, a display, or other remote control). Any means of communication may be used, such as cable communication or wireless communication. For example, the communication module 1610 use one or more of local area networks (LANs), nationwide networks (WANs), infra-red, wireless, Wi-Fi, point-to-point (P2P) networks, telecommunications networks, cloud communications, and the like. Optionally, relay stations such as masts, satellites or mobile stations may be used. Wireless communication can be proximity-dependent or proximity-independent. In some embodiments, for communications Visual connection may or may not be necessary. The communication module 1610 may include one or more of sensor data from the sensor module and / or by the processing unit 1604 send and / or receive generated processing results, predetermined control data or user commands from a remote terminal and the like.

Die Bestandteile des Systems 1600 können in einer beliebigen geeigneten Konfiguration angeordnet sein. Zum Beispiel können einer oder mehrere der Bestandteile des Systems 1600 an dem beweglichen Objekt, dem Träger, der Nutzlast, dem Endgerät, dem Sensorsystem oder einem zusätzlichen externen Gerät in Kommunikation mit einem oder mehreren der obigen angeordnet sein. Außerdem würde, obwohl 16 eine einzelne Verarbeitungseinheit 1604 und ein einzelnes nicht-flüchtiges rechnerlesbares Medium 1606 abbildet, eine Person vom Fach erkennen, dass dies nicht als begrenzend vorgesehen ist und dass das System 1600 mehrere Verarbeitungseinheiten und/oder nicht-flüchtige rechnerlesbare Medien einschließen kann. Bei einigen Ausführungsformen können eine(s) oder mehrere von dem mehreren Verarbeitungseinheiten und/oder nicht-flüchtigen rechnerlesbaren Medien an unterschiedlichen Orten, wie beispielsweise an dem beweglichen Objekt, dem Träger, der Nutzlast, dem Endgerät, dem Sensormodul, einem zusätzlichen externen Gerät in Kommunikation mit einem oder mehreren der obigen oder geeigneten Kombinationen derselben, angeordnet sein, so dass ein beliebiger geeigneter Aspekt der durch das System 1600 ausgeführten Verarbeitungs- und/oder Speicherfunktionen an einem oder mehreren der zuvor erwähnten Orte stattfinden kann.The components of the system 1600 may be arranged in any suitable configuration. For example, one or more of the components of the system 1600 be arranged on the mobile object, the carrier, the payload, the terminal, the sensor system or an additional external device in communication with one or more of the above. Besides, though 16 a single processing unit 1604 and a single non-transitory computer-readable medium 1606 A person from the subject realizes that this is not intended to be limiting and that the system 1600 multiple processing units and / or non-volatile computer-readable media. In some embodiments, one or more of the plurality of processing units and / or non-transitory computer readable media may be at different locations, such as the moving object, the carrier, the payload, the terminal, the sensor module, an additional external device in FIG Communication with one or more of the above or suitable combinations thereof, such that any suitable aspect of the system 1600 executed processing and / or storage functions can take place at one or more of the aforementioned locations.

17 illustriert ein beispielhaftes System 1700 zum Steuern eines beweglichen Objekts, nach Ausführungsformen. Das System 1700 kann dazu verwendet werden, ein bewegliches Objekt, wie beispielsweise ein UAV, zu steuern. Das System 1700 kann in Kombination mit einer beliebigen geeigneten Ausführungsform der hierin offenbarten Systeme, Einrichtungen und Verfahren verwendet werden. Zum Beispiel kann das System 1700 durch eine Leitstation, wie beispielsweise hierin beschrieben, umgesetzt werden. Das System 1700 kann ein Eingabemodul 1702, eine Verarbeitungseinheit 1704, ein nicht-flüchtiges rechnerlesbares Medium 1706, ein Anzeigemodul 1708 und ein Kommunikationsmodul 1710, alle über einen Bus oder ein ähnliches Netz miteinander verbunden, einschließen. 17 illustrates an exemplary system 1700 for controlling a moving object, according to embodiments. The system 1700 can be used to control a moving object, such as a UAV. The system 1700 may be used in combination with any suitable embodiment of the systems, devices and methods disclosed herein. For example, the system 1700 by a control station, such as described herein. The system 1700 can be an input module 1702 , a processing unit 1704 , a non-volatile computer-readable medium 1706 , a display module 1708 and a communication module 1710 all interconnected via a bus or similar network.

Das Eingabemodul 1702 kann einen oder mehrere Eingabemechanismen zum Empfangen einer Eingabe von einem das Eingabemodul bedienenden Anwender. Solche Eingabemechanismen können einen oder mehrere Joysticks, Schalter, Drehknöpfe, Schiebeschalter, Knöpfe, Wählscheiben, Berührungsbildschirme, Tastenfelder, Tastatur, Maus, Sprachsteuerungen, Gestensteuerungen, Trägheitssensoren und dergleichen einschließen. Ein solches Eingabemodul 1702 kann dazu verwendet werden, eine Anwendereingabe zu empfangen, die dazu verwendet wird, Aspekte des beweglichen Objekts, des Trägers, der Nutzlast oder eines Bestandteils derselben zu steuern. Solche Aspekte können Lage, Position, Ausrichtung, Navigation, Verfolgung und dergleichen einschließen. Zum Beispiel können die Eingabemechanismen durch einen Anwender auf eine oder mehrere Positionen gestellt werden, wobei jede der Positionen einer vorbestimmten Eingabe zum Steuern des UAV entspricht.The input module 1702 may include one or more input mechanisms for receiving input from a user operating the input module. Such input mechanisms may include one or more joysticks, switches, knobs, slide switches, buttons, dials, touch screens, keypads, keyboard, mouse, voice controls, gesture controls, inertial sensors, and the like. Such an input module 1702 can be used to receive a user input that is used to control aspects of the moving object, the carrier, the payload, or a component thereof. Such aspects may include location, location, orientation, navigation, tracking, and the like. For example, the input mechanisms may be set to one or more positions by a user, each of the positions corresponding to a predetermined input for controlling the UAV.

Bei einigen Ausführungsformen können die Eingabemechanismen durch einen Anwender gehandhabt werden, um Steuerbefehle zum Steuern der Navigation des beweglichen Objekts einzugeben. Zum Beispiel kann der Anwender einen Drehknopf, Schalter oder einen ähnlichen Eingabemechanismus benutzen, um einen Flugmodus für das bewegliche Objekt, wie beispielsweise Autopilot oder Navigation nach einer vorbestimmten Navigationsbahn, einzugeben, Als ein anderes Beispiel kann der Anwender die Position, Lage, Ausrichtung oder einen anderen Aspekt des beweglichen Objekts durch das Neigen der Leitstation auf bestimmte Weisen steuern, was durch einen oder mehrere Trägheitssensoren erkannt und verwendet werden kann, um die entsprechenden Navigationsbefehle zu erzeugen. Als noch ein anderes Beispiel kann der Anwender den Eingabemechanismus dazu verwenden, einen Betriebsparameter (z. B. Zoom) der Nutzlast, eine Lage und/oder Position der Nutzlast (z. B. über den Träger) oder andere Aspekte eines beliebigen Objekts an Bord des beweglichen Objekts einzustellen.In some embodiments, the input mechanisms may be manipulated by a user to input control commands for controlling navigation of the moving object. For example, the user may use a knob, switch, or similar input mechanism to enter a flying mode for the moving object, such as autopilot or navigation following a predetermined navigation path. As another example, the user may select the position, attitude, orientation, or controlling other aspect of the moving object by tilting the control station in certain ways, which can be detected and used by one or more inertial sensors to generate the corresponding navigation commands. As yet another example, the user may use the input mechanism to provide an operating parameter (eg, zoom) of the payload, a location and / or position of the payload (eg, about the carrier), or other aspects of any object on board of the moving object.

Bei einigen Ausführungsformen können die Eingabemechanismen durch einen Anwender gehandhabt werden, um einzugeben. Zum Beispiel kann der Anwender einen Drehknopf, Schalter oder einen ähnlichen Eingabemechanismus benutzen, um den passenden Verfolgungsmodus, wie beispielsweise den manuellen Verfolgungsmodus oder den automatischen Verfolgungsmodus, zu wählen. Der Anwender kann die Eingabemechanismen ebenfalls dazu verwenden, ein bestimmtes zu verfolgendes Ziel auszuwählen, Zielartinformationen oder andere ähnliche Informationen zu spezifizieren. Bei verschiedenen Ausführungsformen kann das Eingabemodul durch mehr als eine Einrichtung umgesetzt sein. Zum Beispiel kann das Eingabemodul durch eine standardmäßige Fernsteuerung mit Joystick(s) umgesetzt sein, die wirksam mit einem Mobilgerät (z. B. einem Smartphone) gekoppelt ist, das geeignete mobile Anwendungssoftware (eine „App”) laufen lässt, die Steueranweisungen für das bewegliche Objekt erzeugen kann. Die App kann dafür konfiguriert sein, Eingaben von einem Anwender zu erhalten.In some embodiments, the input mechanisms may be manipulated by a user to enter. For example, the user may use a knob, switch, or similar input mechanism to select the appropriate tracking mode, such as the manual tracking mode or the automatic tracking mode. The user may also use the input mechanisms to select a particular target to track, specify target type information, or other similar information. In various embodiments, the input module may be implemented by more than one device. For example, the input module may be implemented by a standard remote control with joystick (s) operatively coupled to a mobile device (eg, a smartphone) that runs suitable mobile application software (an "app"), the control instructions for the can generate a moving object. The app may be configured to receive input from a user.

Die Verarbeitungseinheit 1704 kann einen oder mehrere Prozessoren, wie beispielsweise einen programmierbaren Prozessor (z. B. eine zentrale Verarbeitungseinheit (CPU) oder einen Mikrocontroller) haben. Die Verarbeitungseinheit 1704 kann wirksam an einen Speicher 1706 angeschlossen sein. Der Speicher 1706 kann flüchtige und/oder nicht-flüchtige Speichermedien einschließen, die dafür konfiguriert sind, Daten und/oder Logik, Code und/oder Programmanweisungen speichern, die durch die Verarbeitungseinheit 1704 zum Durchführen einer oder mehrerer Routinen oder Funktionen ausführbar sind. Der Speicher kann eine oder mehrere Speichereinheiten (z. B. entfernbare Medien oder externen Speicher, wie beispielsweise eine SD-Card oder Direktzugriffsspeicher (RAM)) einschließen. Bei einigen Ausführungsformen können Daten von dem Eingabemodul 1702 unmittelbar zu den Speichereinheiten des Speichers 1706 weitergeleitet und innerhalb derselben gespeichert werden. Die Speichereinheiten des Speichers 1706 können Logik, Code und/oder Programmanweisungen speichern, die durch die Verarbeitungseinheit 1704 ausführbar sind, um eine beliebige geeignete Ausführungsform der hierin beschriebenen Verfahren durchzuführen. Zum Beispiel kann die Verarbeitungseinheit 1704 dafür konfiguriert sein, Anweisungen auszuführen, die einen oder mehrere Prozessoren der Verarbeitungseinheit 1704 dazu veranlassen, von dem beweglichen Objekt empfangene Sensordaten (z. B. Bilder) zu verarbeiten und anzuzeigen, Steuerbefehle einschließlich von Navigationsbefehlen und Zielinformationen auf der Grundlage einer Anwendereingabe zu erzeugen, zu veranlassen, dass das Kommunikationsmodul 1710 Daten sendet und/oder empfängt, und dergleichen. Bei einigen Ausführungsformen können die Speichereinheiten des Speichers 1706 dazu verwendet werden, die durch die Verarbeitungseinheit 1704 erzeugten Verarbeitungsergebnisse zu speichern. Obwohl 17 eine einzelne Verarbeitungseinheit 1704 und einen einzelnen Speicher 1706 abbildet, würde eine Person vom Fach erkennen, dass dies nicht als begrenzend vorgesehen ist und dass das System 1700 mehrere Verarbeitungseinheiten und/oder Speichereinheiten des Speichers einschließen kann. The processing unit 1704 may include one or more processors, such as a programmable processor (eg, a central processing unit (CPU) or a microcontroller). The processing unit 1704 can be effective to a memory 1706 be connected. The memory 1706 may include volatile and / or non-volatile storage media configured to store data and / or logic, code, and / or program instructions issued by the processing unit 1704 to perform one or more routines or functions are executable. The memory may include one or more storage devices (eg, removable media or external storage such as an SD card or Random Access Memory (RAM)). In some embodiments, data may be from the input module 1702 directly to the storage units of the memory 1706 be forwarded and stored within the same. The storage units of the storage 1706 can store logic, code and / or program statements by the processing unit 1704 are executable to carry out any suitable embodiment of the methods described herein. For example, the processing unit 1704 be configured to execute instructions that include one or more processors of the processing unit 1704 cause to process and display sensor data (eg, images) received from the mobile object, to generate control commands including navigation commands and destination information based on user input, to cause the communication module 1710 Sending and / or receiving data, and the like. In some embodiments, the memory units of the memory 1706 used by the processing unit 1704 store generated processing results. Even though 17 a single processing unit 1704 and a single store 1706 A person would discern from the subject that this is not intended to be limiting and that the system 1700 may include multiple processing units and / or memory units of the memory.

Bei einigen Ausführungsformen kann das Anzeigemodul 1708 dafür konfiguriert sein, Informationen des beweglichen Objekts, des Trägers und/oder der Nutzlast in Bezug auf Position, Verschiebungsgeschwindigkeit, Verschiebungsbeschleunigung, Ausrichtung, Winkelgeschwindigkeit, Winkelbeschleunigung oder beliebige geeignete Kombinationen derselben anzuzeigen. Das Anzeigemodul 1708 kann dafür konfiguriert sein, von dem beweglichen Objekt und/oder der Nutzlast empfangene Informationen, wie beispielsweise Sensordaten (z. B. durch eine Kamera oder eine andere Bildaufnahmeeinrichtung aufgezeichnete Bilder), Verfolgungsdaten, wie beispielsweise hierin beschrieben, Steuerungsrückmeldungsdaten und dergleichen, anzuzeigen. Bei einigen Ausführungsformen kann das Anzeigemodul 1708 durch das gleiche Gerät umgesetzt sein, welches das Eingabemodul 1702 umsetzt. Bei anderen Ausführungsformen kann das Anzeigemodul 1708 durch ein Gerät umgesetzt sein, das von dem Gerät, welches das Eingabemodul 1702 umsetzt, gesondert ist (das aber wirksam an dasselbe angeschlossen sein kann).In some embodiments, the display module 1708 be configured to display information of the moving object, the carrier and / or the payload with respect to position, displacement speed, displacement acceleration, orientation, angular velocity, angular acceleration or any suitable combination thereof. The display module 1708 may be configured to display information received from the mobile object and / or the payload, such as sensor data (eg, images captured by a camera or other image capture device), tracking data, such as described herein, control feedback data, and the like. In some embodiments, the display module 1708 be implemented by the same device, which is the input module 1702 implements. In other embodiments, the display module 1708 be implemented by a device that by the device, which is the input module 1702 implements, is separate (but which can be connected to the same effective).

Das Kommunikationsmodul 1710 kann dafür konfiguriert sein, Daten von einer oder mehreren entfernten Einrichtungen (z. B. dem beweglichen Objekt, der Nutzlast, der Basisstation und dergleichen) zu senden und/oder zu empfangen. Zum Beispiel kann das Kommunikationsmodul 1710 dafür konfiguriert sein, Steuerdaten (z. B. Navigationsbefehle, Zielinformationen und Verfolgungssteuerdaten) an externe Systeme oder Einrichtungen, wie beispielsweise bewegliche Objekte, Träger und/oder Nutzlasten zu übermitteln. Das Kommunikationsmodul 1710 kann ebenfalls dafür konfiguriert sein, Daten (z. B. Sensordaten und Verfolgungsinformationen) von solchen externen Systeme oder Einrichtungen zu empfangen. Bei einigen Ausführungsformen kann das Kommunikationsmodul 1710 einen Sender 1712 und einen Empfänger 1714 einschließen, die jeweils dafür konfiguriert sind, Daten zu und von entfernten Einrichtungen zu senden beziehungsweise zu empfangen. Bei einigen Ausführungsformen kann das das Kommunikationsmodul eine Sende-/Empfangseinrichtung einschließen, welche die Funktionalitäten des Senders und des Empfängers kombiniert. Bei einigen Ausführungsformen können der Sender und der Empfänger miteinander sowie mit der Verarbeitungseinheit 1704 kommunizieren. Beliebige geeignete Kommunikationsmittel können verwendet werden, wie beispielsweise hierin beschriebene Kabelkommunikation oder drahtlose Kommunikation.The communication module 1710 may be configured to send and / or receive data from one or more remote devices (eg, the moving object, the payload, the base station, and the like). For example, the communication module 1710 be configured to communicate control data (eg, navigation commands, destination information, and tracking control data) to external systems or devices, such as moving objects, carriers, and / or payloads. The communication module 1710 may also be configured to receive data (eg, sensor data and tracking information) from such external systems or devices. In some embodiments, the communication module 1710 a transmitter 1712 and a receiver 1714 each configured to send and receive data to and from remote devices. In some embodiments, the communication module may include a transceiver that combines the functionalities of the transmitter and the receiver. In some embodiments, the transmitter and the receiver may communicate with each other as well as with the processing unit 1704 communicate. Any suitable communication means may be used, such as cable communication or wireless communication described herein.

Die Verfolgungsverfahren und -systeme, wie hierin beschrieben, können eine Vielzahl von Anwendungen haben. Zum Beispiel illustriert 18 einen beispielhaften Anwendungsfall für die vorliegende Erfindung, wobei eine Anwenderin 1802 ein UAV 1804 konfigurieren kann, um sie automatisch zu verfolgen, während sie eine Vielzahl von Aktivitäten betreibt. Wie in 18 illustriert, kann die Anwenderin dem UAV 1804 unter Verwendung einer Leitstation 1806 Zielinformationen bereitstellen. Die Leitstation 1806 kann eine Anwenderschnittstelle zum Empfangen einer Anwendereingabe zum Erzeugen von Eingabeinformationen, wie beispielsweise hierin beschrieben, bereitstellen. Zum Beispiel kann die Anwenderschnittstelle dafür konfiguriert sein, ein oder mehrere Bilder (z. B. Bilder oder Videos), wie durch eine Bildgebungseinrichtung 1805 an Bord des UAV oder an anderer Stelle aufgenommen, anzuzeigen. Die Bildgebungseinrichtung 1805 kann über einen Träger 1803, wie beispielsweise hierin beschrieben, an das UAV angeschlossen sein. Die Bilder können in Echtzeit oder im Wesentlichen in Echtzeit von dem UAV an die Leitstation übermittelt worden sein. Alternativ können die Bilder zuvor in der Leitstation gespeichert und/oder durch andere Quellen bereitgestellt oder erzeugt werden. Einige der Bilder können den Anwender zeigen. Die Anwenderin kann sich selbst aus einem dieser Bilder auswählen, zum Beispiel durch das Berühren oder anderweitige Auswählen eines Bereichs der Anzeige, welcher der Anwenderin entspricht. In einigen Fällen kann der Anwender Zielartinformationen spezifizieren anstatt spezifische Zielinformationen auszuwählen. Solche Zielartinformationen können dazu verwendet werden, die Art von Zielen zu beschreiben, die verfolgt werden sollten, wie beispielsweise „eine Person mit einem roten Hut”. Die Zielinformationen, wie durch den Anwender spezifiziert, können dem UAV bereitgestellt werden. Bei verschiedenen Ausführungsformen können die Zielinformationen vor dem Betrieb des UAV oder während desselben bereitgestellt werden. Zum Beispiel können die Zielinformationen bereitgestellt werden, wenn das UAV im Flug oder gelandet ist. Bei einigen Ausführungsformen kann der Anwender ebenfalls die Startzeit, Endzeit und/oder Dauer der Verfolgung spezifizieren. Solche Zeitsteuerungsinformationen können dazu verwendet werden, die Zeitsteuerung des Verfolgungsvorgangs zu steuern.The tracking methods and systems as described herein may have a variety of applications. Illustrated, for example 18 an exemplary application for the present invention, wherein a user 1802 a UAV 1804 to automatically track them while doing a variety of activities. As in 18 Illustrated, the user can use the UAV 1804 using a control station 1806 Provide destination information. The control station 1806 may provide a user interface for receiving user input to generate input information, such as described herein. For example, the user interface may be configured to have one or more images (eg, images or videos), such as by an imaging device 1805 recorded on board the UAV or elsewhere. The imaging device 1805 can have a carrier 1803 as described herein, may be connected to the UAV. The images may have been transmitted in real time or substantially in real time from the UAV to the control station. Alternatively, the images may be previously stored in the control station and / or provided or generated by other sources. Some of the pictures can show the user. The user may select herself from one of these images, for example, by touching or otherwise selecting an area of the display that corresponds to the user. In some cases, the user may specify destination type information rather than selecting specific destination information. Such target type information can be used to describe the type of goals that should be tracked, such as "a person with a red hat". The destination information, as specified by the user, may be provided to the UAV. In various embodiments, the destination information may be provided prior to or during the operation of the UAV. For example, the destination information may be provided when the UAV is in flight or landed. In some embodiments, the user may also specify the start time, end time, and / or duration of the tracking. Such timing information may be used to control the timing of the tracking operation.

Die Zielinformationen können durch (einen) Prozessor(en) an Bord des UAV 1804 dazu verwendet werden, den Anwender 1802 automatisch zu verfolgen, zum Beispiel, wenn der Anwender Sport treibt (z. B. Fahrrad fährt oder läuft). Der Anwender kann sich bewegen, um im Wesentlichen auf der Stelle zu bleiben, während er verfolgt wird, während die Bildgebungseinrichtung 1805 an Bord des UAV Bilder des Anwenders aufnimmt, so dass die sich ergebenden Bilder eine vorbestimmte Größe oder Position des Anwenders aufrechterhalten. Zum Beispiel können die Position, Lage, Ausrichtung, Geschwindigkeit, der Zoom und/oder andere Charakteristika des UAV 1804, des Trägers 1803 und/oder der Bildgebungseinrichtung 1805 in Echtzeit eingestellt werden, um den Anwender nachzuverfolgen. Eine solche Einstellung kann automatisch durch den/die Prozessor(en) an Bord des UAV und ohne Anwendereingriff erzeugt werden. Alternativ oder zusätzlich kann die Verfolgung mit einem gewissen Anwendereingriff (z. B. Einstellung des Zooms der Bildgebungseinrichtung) durchgeführt werden. Die vorbestimmte Größe oder Position des Anwenders kann durch den Anwender oder entsprechend einer Systemvoreinstellung spezifiziert werden. Bei einigen Ausführungsformen kann der Anwender ein Objekt tragen oder auf andere Weise mitführen, um die Verfolgung des Anwenders zu erleichtern. Ein solches Objekt kann zum Beispiel eine Kappe oder Kleidung in hellen Farben einschließen.The destination information may be provided by (a) processor (s) on board the UAV 1804 to be used by the user 1802 to track automatically, for example, when the user is doing sports (eg cycling or running). The user can move to remain essentially in place while being tracked while the imaging device 1805 aboard the UAV captures images of the user so that the resulting images maintain a predetermined size or position of the user. For example, the position, location, orientation, speed, zoom, and / or other characteristics of the UAV 1804 , the vehicle 1803 and / or the imaging device 1805 be set in real time to track the user. Such a setting may be automatically generated by the processor (s) aboard the UAV and without user intervention. Alternatively or additionally, the tracking may be performed with some user intervention (eg, adjusting the zoom of the imager). The predetermined size or position of the user may be specified by the user or according to a system preset. In some embodiments, the user may carry or otherwise carry an object to facilitate tracking of the user. Such an object may include, for example, a cap or clothing in light colors.

Bei einigen Ausführungsformen können die während der Verfolgung aufgenommenen Bilder von der Bildgebungseinrichtung oder dem UAV zu Anzeige-, Wiedergabe-, Speicherungs-, Bearbeitungs- oder anderen Zwecken zurück zu der Leitstation oder anderen geeigneten Einrichtungen übermittelt werden. Eine solche Übermittlung kann in Echtzeit oder im Wesentlichen in Echtzeit erfolgen, wenn die Bilder durch die Bildgebungseinrichtung aufgenommen werden. Alternativ kann es eine wesentliche Verzögerung zwischen der Aufnahme und der Übermittlung der Bilder geben. Bei einigen Ausführungsformen werden die Bilder in einem Speicher an Bord des UAV gespeichert, ohne irgendwohin übermittelt zu werden. Der Anwender kann solche Bilder in Echtzeit betrachten und die Zielinformationen oder andere Aspekte des UAV oder eines Bestandteils desselben einstellen, falls notwendig. Die eingestellten Zielinformationen können dem UAV, wie oben erörtert, bereitgestellt werden, und der sich wiederholende Vorgang kann sich fortsetzen, bis die gewünschten Bilder erhalten werden. Bei einigen Ausführungsformen können die Bilder für ein späteres Betrachten oder Wiedergeben gespeichert werden. Bei einigen Ausführungsformen können die Bilder von dem UAV, der Bildgebungseinrichtung und/oder der Leitstation an einen entfernten Server übermittelt werden. Zum Beispiel können die Bilder auf einer sozialen Netzplattform, wie beispielsweise Facebook oder Twitter, geteilt werden.In some embodiments, images captured during tracking may be transmitted back to the control station or other suitable device by the imaging device or UAV for display, playback, storage, processing, or other purposes. Such transmission may occur in real time or substantially in real time as the images are captured by the imaging device. Alternatively, there may be a significant delay between taking and transmitting the images. In some embodiments, the images are stored in memory onboard the UAV without being communicated anywhere. The user can view such images in real time and adjust the target information or other aspects of the UAV or a component thereof, if necessary. The set destination information may be provided to the UAV, as discussed above, and the repeating process may continue until the desired images are obtained. In some embodiments, the images may be stored for later viewing or playback. In some embodiments, the images may be communicated from the UAV, the imager, and / or the control station to a remote server. For example, the images may be shared on a social network platform, such as Facebook or Twitter.

Während hierin bevorzugte Ausführungsformen der vorliegenden Erfindung gezeigt und beschrieben worden sind, wird es für die Personen vom Fach offensichtlich sein, dass solche Ausführungsformen nur als Beispiel bereitgestellt werden. Den Personen vom Fach werden nun zahlreiche Variationen, Änderungen und Ersetzungen einfallen, ohne von der Erfindung abzuweichen. Es sollte sich verstehen, dass verschiedene Alternativen zu den hierin beschriebenen Ausführungsformen der Erfindung beim Praktizieren der Erfindung eingesetzt werden können. Es ist beabsichtigt, dass die folgenden Ansprüche den Rahmen der Erfindung definieren und dass Verfahren und Strukturen innerhalb des Rahmens dieser Ansprüche und deren Äquivalente dadurch abgedeckt werden.While preferred embodiments of the present invention have been shown and described herein, it will be apparent to those skilled in the art that such embodiments are provided by way of example only. Individuals of the art will now come to numerous variations, changes and substitutions without departing from the invention. It should be understood that various alternatives to the embodiments of the invention described herein may be employed in practicing the invention. It is intended that the following claims define the scope of the invention and that methods and structures within the scope of these claims and their equivalents be covered thereby.

Claims (21)

System zum Steuern eines unbemannten Luftfahrzeugs (101), UAV, wobei das System Folgendes umfasst: einen oder mehrere Empfänger, die dafür konfiguriert sind, von einer entfernten Steuerung (1) einen oder mehrere Navigationsbefehle, um das UAV entlang einer Flugbahn zu bewegen, und (2) Zielinformationen (116) eines durch eine Bildgebungseinrichtung (104), die über einen Träger (102) an das UAV (101) angeschlossen ist, zu verfolgenden Ziels zu empfangen, wobei der Träger dafür konfiguriert ist, zu ermöglichen, dass sich die Bildgebungseinrichtung (104) im Verhältnis zu dem UAV (101) bewegt, und einen oder mehrere Prozessoren, die dafür konfiguriert sind, auszuwählen zwischen (1) einem automatischen Verfolgungsmodus und (2) einem manuellen Verfolgungsmodus, wobei in dem automatischen Verfolgungsmodus der eine oder die mehreren Prozessoren dafür konfiguriert sind, wenigstens eines von dem UAV (101) oder dem Träger (102) einzustellen, während sich das UAV entlang der Flugbahn entsprechend dem einen oder den mehreren Navigationsbefehlen von der entfernten Steuerung bewegt, um das Ziel entsprechend den Zielinformationen zu verfolgen, um aufrechtzuerhalten, dass das Ziel innerhalb eines durch die Bildgebungseinrichtung aufgenommenen Bildes bleibt.System for controlling an unmanned aerial vehicle ( 101 ), UAV, the system comprising: one or more receivers configured to move one or more navigation commands from a remote controller (1) to move the UAV along a trajectory, and (2) destination information ( 116 ) by an imaging device ( 104 ), which have a carrier ( 102 ) to the UAV ( 101 ) is to receive to be tracked destination, wherein the carrier is configured to allow the imaging device (10) to 104 ) in relation to the UAV ( 101 ), and one or more processors configured to select between (1) an automatic tracking mode and (2) a manual tracking mode, wherein in the automatic tracking mode the one or more processors are configured for at least one of the UAV ( 101 ) or the carrier ( 102 ) as the UAV moves along the trajectory corresponding to the one or more navigation commands from the remote controller to track the destination in accordance with the destination information to maintain the destination remaining within an image captured by the imager. System nach Anspruch 1, wobei die Zielinformationen eine GPS-Position des Ziels umfassen.The system of claim 1, wherein the destination information comprises a GPS location of the destination. System nach Anspruch 1, wobei die Zielinformationen anfängliche Zielinformationen umfassen.The system of claim 1, wherein the destination information comprises initial destination information. System nach Anspruch 3, wobei die Zielinformationen eine anfängliche Position oder eine anfängliche Größe des Ziels (116) innerhalb eines durch die Bildgebungseinrichtung (104) aufgenommenen Bildes einschließen.The system of claim 3, wherein the destination information is an initial location or an initial size of the destination ( 116 ) within one by the imaging device ( 104 ) included image. System nach Anspruch 1, wobei die Zielinformationen Zielartinformationen umfassen, wobei die Zielartinformationen vorzugsweise Farb-, Textur- oder Musterinformationen umfassen.The system of claim 1, wherein the destination information comprises destination type information, wherein the destination type information preferably comprises color, texture or pattern information. System nach Anspruch 5, wobei das Verfolgen des Ziels entsprechend den Zielinformationen ferner das Identifizieren, auf der Grundlage der Zielartinformationen, des zu verfolgenden Ziels (116) von innerhalb des einen oder der mehreren durch die Bildgebungseinrichtung (104) aufgenommenen Bilder unter Verwendung eines Bilderkennungsalgorithmus umfasst.The system of claim 5, wherein tracking the destination in accordance with the destination information further comprises identifying, based on the destination type information, the destination to be followed ( 116 ) from within the one or more imaging devices ( 104 ) captured images using an image recognition algorithm. System nach Anspruch 1, wobei die Zielinformationen erwartete Zielinformationen einschließen, wobei die erwarteten Zielinformationen eine erwartete Position oder eine erwartete Größe des Ziels (116) innerhalb eines durch die Bildgebungseinrichtung (104) aufgenommenen Bildes umfassen.The system of claim 1, wherein the target information includes expected target information, wherein the expected target information is an expected position or expected size of the target ( 116 ) within one by the imaging device ( 104 ) recorded image. System nach Anspruch 7, wobei die erwartete Größe des Ziels (116) die gleiche ist wie eine anfängliche Größe des Ziels oder wobei die erwartete Position des Ziels die gleiche ist wie eine anfängliche Position des Ziels (116).The system of claim 7, wherein the expected size of the target ( 116 ) is the same as an initial size of the target or where the expected position of the target is the same as an initial position of the target ( 116 ). System nach Anspruch 7, wobei das Verfolgen des Ziels entsprechend den Zielinformationen das Aufrechterhalten, innerhalb eines vorbestimmten Toleranzgrades, der erwarteten Position oder der erwarteten Größe des Ziels (116) innerhalb eines oder mehrerer durch die Bildgebungseinrichtung (104) aufgenommener Bilder einschließt.The system of claim 7, wherein tracking the target in accordance with the target information includes maintaining, within a predetermined tolerance level, the expected position, or the expected size of the target. 116 ) within one or more of the imaging devices ( 104 ) included images. System nach Anspruch 1, wobei der eine oder die mehreren Empfänger dafür konfiguriert sind, die drahtlosen Signale von dem Ziel, die eine Positionsinformation über da Ziel umfassen, im Wesentlichen in Echtzeit zu empfangen.The system of claim 1, wherein the one or more receivers are configured to receive the wireless signals from the target comprising position information about the target substantially in real time. System nach Anspruch 1, wobei die Zielinformationen erwartete Zielinformationen einschließen und wobei das Verfolgen des Ziels (116) entsprechend den Zielinformationen Folgendes umfasst: das Bestimmen gegenwärtiger Zielinformationen des Ziels (116) auf der Grundlage eines oder mehrerer durch die Bildgebungseinrichtung (104) aufgenommener Bilder, das Erkennen einer Abweichung der gegenwärtigen Zielinformationen von den erwarteten Zielinformationen und das Berechnen einer Einstellung an dem UAV (101), dem Träger (102) oder der Bildgebungseinrichtung (104), um so die Abweichung im Wesentlichen zu berichtigen.The system of claim 1, wherein the destination information includes expected destination information and wherein tracking the destination ( 116 ) according to the destination information comprises: determining current destination information of the destination ( 116 ) based on one or more by the imaging device ( 104 ), detecting a deviation of the current destination information from the expected destination information and calculating a setting on the UAV ( 101 ), the carrier ( 102 ) or the imaging device ( 104 ) so as to substantially correct the deviation. System nach Anspruch 11, wobei die Abweichung mit einer Veränderung bei der Position des Ziels (116) verknüpft ist und die berechnete Einstellung mit einer Winkelgeschwindigkeit für die Bildgebungseinrichtung (104) im Verhältnis zu einer Gierachse oder Nickachse der Bildgebungseinrichtung (104) verknüpft ist.The system of claim 11, wherein the deviation is with a change in the position of the target ( 116 ) and the calculated setting is at an angular velocity for the imaging device ( 104 ) relative to a yaw axis or pitch axis of the imaging device ( 104 ) is linked. System nach Anspruch 12, wobei die berechnete Einstellung dafür konfiguriert ist, Steuersignale für den Träger (102) zu erzeugen, umso zu veranlassen, dass sich die Bildgebungseinrichtung (104) im Verhältnis zu dem UAV (101) bewegt.The system of claim 12, wherein the calculated setting is configured to provide control signals to the wearer ( 102 ), so as to cause the imaging device ( 104 ) in relation to the UAV ( 101 ) emotional. System nach Anspruch 11 oder 13, wobei ein Warnsignal bereitgestellt wird, falls die berechnete Einstellung außerhalb des vorbestimmten Bereichs fällt, wobei der vorbestimmte Bereich einem vorbestimmten Bereich des Steuerhebelmaßes eines Steuerungssystems entspricht, das ein Navigationssteuerungssystem für das UAV (101) oder ein Steuerungssystem für den Träger (102) umfasst.A system according to claim 11 or 13, wherein a warning signal is provided if the calculated setting falls outside the predetermined range, the predetermined range corresponding to a predetermined range of the control lever amount of a control system having a navigation control system for the UAV ( 101 ) or a control system for the carrier ( 102 ). System nach Anspruch 11, wobei das Verfolgen des Ziels (116) das Vergleichen der berechneten Einstellung mit einem vorbestimmten maximalen Schwellenwert und das Bereitstellen des vorbestimmten maximalen Schwellenwertes, falls die berechnete Einstellung den vorbestimmten maximalen Schwellenwert überschreitet, umfasst oder Wobei das Verfolgen des Ziels (116) das Vergleichen der berechneten Einstellung mit einem vorbestimmten minimalen Schwellenwert und das Bereitstellen des vorbestimmten minimalen Schwellenwertes, falls die berechnete Einstellung geringer ist als der vorbestimmte minimale Schwellenwert, umfasst.The system of claim 11, wherein tracking the target ( 116 ) comprises comparing the calculated setting with a predetermined maximum threshold and providing the predetermined maximum threshold if the calculated setting exceeds the predetermined maximum threshold, or Wherein the tracking of the target ( 116 ) comparing the calculated setting with a predetermined minimum threshold and providing the predetermined minimum threshold, if the calculated setting is less than the predetermined minimum threshold. System nach Anspruch 1, wobei die Zielinformationen von einem für den entfernten Anwender zugänglichen Fernsteuerungsgerät empfangen werden.The system of claim 1, wherein the destination information is received from a remote control device accessible to the remote user. System nach Anspruch 16, wobei das Fernsteuerungsgerät für Folgendes konfiguriert ist: ein oder mehrere durch die Bildgebungseinrichtung (104) aufgenommene Bilder von dem UAV (101) zu empfangen, das eine oder die mehreren Bilder anzuzeigen, eine Anwenderauswahl eines Ziels von innerhalb eines angezeigten Bildes zu empfangen, die Zielinformationen des Ziels auf der Grundlage der Anwenderauswahl des Ziels (116) zu erzeugen und die Zielinformationen an das UAV (101) zu übermitteln.The system of claim 16, wherein the remote control device is configured to: one or more by the imaging device (10); 104 ) captured images from the UAV ( 101 ) to receive the one or more images, to receive a user selection of a destination from within a displayed image, the destination information of the destination based on the user selection of the destination ( 116 ) and send the target information to the UAV ( 101 ). Vorrichtung zum Steuern eines unbemannten Luftfahrzeugs (101), UAV, die Folgendes umfasst eine Anzeige (1202), die dafür konfiguriert ist, eines oder mehrere durch eine über einen Träger (102) an das UAV (101) angeschlossene Bildgebungseinrichtung (104) aufgenommene Bilder anzuzeigen, ein Eingabegerät (1204, 1205), das dafür konfiguriert ist, eine Anwenderauswahl eines Ziels (1304, 1310, 1316) von innerhalb wenigstens eines von dem einen oder den mehreren auf der Anzeige (1202) angezeigten Bildern zu empfangen, einen oder mehrere Prozessoren, die, einzeln oder gemeinsam, dafür konfiguriert sind, Zielinformationen des Ziels wenigstens zum Teil auf der Grundlage der Anwenderauswahl des Ziels (1304, 1310, 1316) zu erzeugen, und einen Sender, der dafür konfiguriert ist, die Zielinformationen für das UAV (101) bereitzustellen, um so zu ermöglichen, dass das UAV (101) autonom das Ziel (1304, 1310, 1316) entsprechend den Zielinformationen verfolgt, um das Ziel im Wesentlichen innerhalb des Gesichtsfeldes der Bildgebungseinrichtung zu halten.Device for controlling an unmanned aerial vehicle ( 101 ), UAV, which includes an ad ( 1202 ) configured to carry one or more by one via a carrier ( 102 ) to the UAV ( 101 ) connected imaging device ( 104 ), an input device ( 1204 . 1205 ) configured to select a user selection of a destination ( 1304 . 1310 . 1316 ) from within at least one of the one or more on the display ( 1202 receive one or more processors, configured individually or collectively, for target information of the destination based, at least in part, on the user selection of the destination (FIG. 1304 . 1310 . 1316 ) and a sender configured to provide the target information for the UAV ( 101 ) so as to enable the UAV ( 101 ) autonomously the target ( 1304 . 1310 . 1316 ) in accordance with the target information to keep the target substantially within the field of view of the imager. Vorrichtung nach Anspruch 18, wobei die Zielinformationen anfängliche Zielinformationen, Zielartinformationen und/oder erwartete Zielinformationen umfassen.The apparatus of claim 18, wherein the destination information comprises initial destination information, destination type information, and / or expected destination information. Vorrichtung nach Anspruch 18, wobei die Anwenderauswahl des Ziels (1304, 1310, 1316) dadurch erreicht wird, dass ein Anwender einen Bereich des wenigstens einen von dem einen oder den mehreren auf der Anzeige (1202) angezeigten Bildern auswählt, wobei der ausgewählte Bereich dem Ziel (1304, 1310, 1316) entspricht.Apparatus according to claim 18, wherein the user selection of the target ( 1304 . 1310 . 1316 ) is achieved by a user viewing a region of the at least one of the one or more on the display ( 1202 ), with the selected area ( 1304 . 1310 . 1316 ) corresponds. Vorrichtung nach Anspruch 18, wobei der eine oder die mehreren Prozessoren, einzeln oder gemeinsam, dafür konfiguriert sind, auf der Anzeige (1202) das ausgewählte Ziel (1304, 1310, 1316) als Reaktion auf die Anwenderauswahl des Ziels (1304, 1310, 1316) mit einem Auswahlanzeiger (1306, 1310, 1318) anzuzeigen, wobei der Auswahlanzeiger (1306, 1310, 1318) anzeigt, dass das Ziel (1304, 1310, 1316) durch den Anwender ausgewählt worden ist.The apparatus of claim 18, wherein the one or more processors, individually or in common, are configured to display on the display ( 1202 ) the selected destination ( 1304 . 1310 . 1316 ) in response to the user selection of the target ( 1304 . 1310 . 1316 ) with a selection indicator ( 1306 . 1310 . 1318 ), the selection indicator ( 1306 . 1310 . 1318 ) indicates that the destination ( 1304 . 1310 . 1316 ) has been selected by the user.
DE202014011010.7U 2014-07-30 2014-07-30 Target tracking systems Expired - Lifetime DE202014011010U1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
DE202014011010.7U DE202014011010U1 (en) 2014-07-30 2014-07-30 Target tracking systems

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
DE202014011010.7U DE202014011010U1 (en) 2014-07-30 2014-07-30 Target tracking systems

Publications (1)

Publication Number Publication Date
DE202014011010U1 true DE202014011010U1 (en) 2017-05-31

Family

ID=59069275

Family Applications (1)

Application Number Title Priority Date Filing Date
DE202014011010.7U Expired - Lifetime DE202014011010U1 (en) 2014-07-30 2014-07-30 Target tracking systems

Country Status (1)

Country Link
DE (1) DE202014011010U1 (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN112639652A (en) * 2020-05-07 2021-04-09 深圳市大疆创新科技有限公司 Target tracking method and device, movable platform and imaging platform

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN112639652A (en) * 2020-05-07 2021-04-09 深圳市大疆创新科技有限公司 Target tracking method and device, movable platform and imaging platform

Similar Documents

Publication Publication Date Title
US11748898B2 (en) Methods and system for infrared tracking
US20220091607A1 (en) Systems and methods for target tracking
US12236612B2 (en) Methods and system for multi-target tracking
US10645300B2 (en) Methods and apparatus for image processing
US20210009270A1 (en) Methods and system for composing and capturing images
JP2017503226A5 (en)
EP4579190A2 (en) Systems and methods for auto-return
JP6849272B2 (en) Methods for controlling unmanned aerial vehicles, unmanned aerial vehicles, and systems for controlling unmanned aerial vehicles
DE202014011514U1 (en) Camera calibration
DE202014011010U1 (en) Target tracking systems

Legal Events

Date Code Title Description
R207 Utility model specification
R150 Utility model maintained after payment of first maintenance fee after three years
R151 Utility model maintained after payment of second maintenance fee after six years
R152 Utility model maintained after payment of third maintenance fee after eight years
R071 Expiry of right