[go: up one dir, main page]

DE102015208445B4 - System for picking up and delivering objects - Google Patents

System for picking up and delivering objects

Info

Publication number
DE102015208445B4
DE102015208445B4 DE102015208445.0A DE102015208445A DE102015208445B4 DE 102015208445 B4 DE102015208445 B4 DE 102015208445B4 DE 102015208445 A DE102015208445 A DE 102015208445A DE 102015208445 B4 DE102015208445 B4 DE 102015208445B4
Authority
DE
Germany
Prior art keywords
mobile robot
marking
user unit
detecting
marker
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
DE102015208445.0A
Other languages
German (de)
Other versions
DE102015208445A1 (en
Inventor
Marc Schwarzbach
Maximilian Laiacker
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Deutsches Zentrum fuer Luft und Raumfahrt eV
Original Assignee
Deutsches Zentrum fuer Luft und Raumfahrt eV
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Deutsches Zentrum fuer Luft und Raumfahrt eV filed Critical Deutsches Zentrum fuer Luft und Raumfahrt eV
Priority to DE102015208445.0A priority Critical patent/DE102015208445B4/en
Publication of DE102015208445A1 publication Critical patent/DE102015208445A1/en
Application granted granted Critical
Publication of DE102015208445B4 publication Critical patent/DE102015208445B4/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
    • G05D1/10Simultaneous control of position or course in three dimensions
    • G05D1/101Simultaneous control of position or course in three dimensions specially adapted for aircraft
    • G05D1/102Simultaneous control of position or course in three dimensions specially adapted for aircraft specially adapted for vertical take-off of aircraft

Landscapes

  • Engineering & Computer Science (AREA)
  • Aviation & Aerospace Engineering (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Remote Sensing (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Automation & Control Theory (AREA)
  • Control Of Position, Course, Altitude, Or Attitude Of Moving Bodies (AREA)

Abstract

System zur Abholung von Objekten (22) mit
einer Benutzereinheit (10), wobei die Benutzereinheit (10) eine Positionsbestimmungsvorrichtung (26) zur Bestimmung der Position der Benutzereinheit (10) aufweist und eine Erfassungsvorrichtung zur Erfassung des Objekts (22) oder einer daran angebrachten Markierung (20),
einem mit der Benutzereinheit (10) verbindbaren Server (12), der die Position der Benutzereinheit (10) empfängt und an einen mobilen Roboter (32) weiterleitet,
wobei der mobile Roboter (32) zur Position des Objekts (22) bewegbar ist und eine Erfassungsvorrichtung (34) aufweist zur Erfassung des Objekts (22) oder einer daran angebrachten Markierung (20) und eine Aufnahmevorrichtung zur Manipulation des Objekts (22),
dadurch gekennzeichnet, dass die Aufnahmevorrichtung das Objekt (22) magnetisch oder mechanisch, insbesondere greifend, aufnehmen kann und es sich bei dem mobilen Roboter (32) um eine Flugdrohne handelt.
System for collecting objects (22) with
a user unit (10), wherein the user unit (10) has a position determining device (26) for determining the position of the user unit (10) and a detection device for detecting the object (22) or a marking (20) attached thereto,
a server (12) connectable to the user unit (10), which receives the position of the user unit (10) and forwards it to a mobile robot (32),
wherein the mobile robot (32) is movable to the position of the object (22) and has a detection device (34) for detecting the object (22) or a marking (20) attached thereto and a receiving device for manipulating the object (22),
characterized in that the receiving device can receive the object (22) magnetically or mechanically, in particular by gripping, and the mobile robot (32) is an aerial drone.

Description

Die Erfindung betrifft ein System sowie ein Verfahren zur Ablieferung von Objekten an einem Ort und ein System sowie ein Verfahren zur Abholung von Objekten von einem Ort.The invention relates to a system and a method for delivering objects to a location and a system and a method for picking up objects from a location.

Mobile Roboter sind gekennzeichnet durch eine weitgehende Freiheit der Bewegung im Gegensatz zu ortsfest montierten Systemen und können genutzt werden, um Objekte von einer bestimmten Position abzuholen oder Objekte an die bestimmte Position abzuliefern. Dabei besteht die größte Herausforderung darin, die Position des Objekts zu ermitteln und das Objekt zu identifizieren, sowie eine geeignete Position zum Manipulieren, also dem Aufnehmen bzw. Greifen vorzusehen. Bei der Ablieferung von Objekten besteht die Herausforderung in der Bestimmung der Position, an welcher das Objekt abgeliefert werden soll.Mobile robots are characterized by a high degree of freedom of movement, unlike stationary systems, and can be used to pick up objects from a specific location or deliver them to a specific location. The biggest challenge is determining the position of the object, identifying it, and providing a suitable position for manipulation, i.e., picking up or grasping it. When delivering objects, the challenge lies in determining the position where the object should be delivered.

Mobile Roboter finden Einzug in die industrielle Produktion und andere Prozesse. Dabei wird ihre Fähigkeit genutzt größere Distanzen selbstständig zu überwinden. Klassische Beispiele für die Verwendung mobiler Roboter sind die Materialzuführung in der Produktion sowie die Erfüllung von Logistikaufgaben. Weitere Anwendungen sind ebenfalls bekannt wie automatisch fahrende Autos oder Paketauslieferungen mit Flugdrohnen.Mobile robots are finding their way into industrial production and other processes, leveraging their ability to cover large distances independently. Classic examples of the use of mobile robots include material handling in production and the performance of logistics tasks. Other well-known applications include self-driving cars and package deliveries using drones.

Nachteilig ist hierbei jedoch, dass derzeitige Systeme darauf angewiesen sind, dass der mobile Roboter das zu verteilende Objekt entweder manuell zugeführt bekommt oder über ein fest installiertes Zuführungssystem erhält. Für diese sind die genaue Position und Beschaffenheit bekannt, so dass der Vorgang vorprogrammiert werden kann. Eine Änderung des Ablaufs der Objektaufnahme erfordert hierbei eine aufwändige neue Programmierung.The disadvantage, however, is that current systems rely on the mobile robot being fed the object to be distributed either manually or via a permanently installed feeding system. For these systems, the exact position and condition are known, allowing the process to be preprogrammed. Changing the object pickup sequence requires complex reprogramming.

Bei der Ablieferung eines Objekts wird dem mobilen Roboter üblicherweise die Position der Ablieferung vorgegeben. Wird diese Position dabei nicht exakt bestimmt oder entstehen Abweichungen, so können diese bei bisherigen Systemen nicht ausgeglichen werden.When delivering an object, the mobile robot is typically given the delivery position. If this position is not precisely determined or deviations occur, current systems cannot compensate for these.

US 8 948 935 B1 beschreibt ein System sowie ein Verfahren, bei dem von einer Person ein mobiler Roboter angefordert werden kann und bei dieser Anforderung die ungefähre Position der Person an den mobilen Roboter weitergegeben wird. Der mobile Roboter steuert sodann die ungefähre Position an und ermittelt ausgehend von dieser ungefähren Position die exakte Position der Person beispielsweise durch Bilderkennung. Hierbei entsteht das Problem, dass die anfordernde Person nicht identifiziert werden kann, falls im Bereich der ungefähren Position sich eine Vielzahl weiterer Personen aufhalten. Somit ist es dem System nicht möglich, den exakten Ablieferungsort zu bestimmen. Ein autonomes Abliefern an den korrekten Ablieferungsort ist nicht möglich. US 8 948 935 B1 Describes a system and method in which a person can request a mobile robot, and upon request, the person's approximate position is passed on to the mobile robot. The mobile robot then navigates to the approximate position and, based on this approximate position, determines the person's exact position, for example, using image recognition. This creates the problem that the requesting person cannot be identified if there are numerous other people in the vicinity of the approximate position. Therefore, the system cannot determine the exact delivery location. Autonomous delivery to the correct delivery location is not possible.

Auch in der US 8 948 935 B1 ist davon auszugehen, dass das abzuliefernde Objekt manuell oder mit Hilfe eines Zuführungssystems an den mobilen Roboter übergeben wird. Bei der Abholung eines Objekts von einem beliebigen Ort ist ein manuelles Zuführen nicht möglich bzw. kein fest installiertes Zuführsystem vorhanden.Also in the US 8 948 935 B1 It is assumed that the object to be delivered will be transferred to the mobile robot manually or with the help of a feeding system. When picking up an object from any location, manual feeding is not possible or no permanently installed feeding system is available.

WO 2015/177760 A2 beschreibt ein System und Verfahren zur Auslieferung von Briefendungen und Waren mit Hilfe von unbemannten Drohnen. Die Drohne verfügt hierbei über ein Fach, ich welches Objekte eingelegt und herausgenommen werden. WO 2015/177760 A2 Describes a system and method for delivering mail and goods using unmanned drones. The drone has a compartment into which objects can be placed and removed.

Aufgabe der Erfindung ist es ein System sowie ein Verfahren bereitzustellen zur Ablieferung eines Objekts an eine exakte Position sowie zur autonomen Abholung eines Objekts von einer beliebigen Position.The object of the invention is to provide a system and a method for delivering an object to an exact position and for autonomously picking up an object from any position.

Die Aufgabe wird gelöst durch die Systeme der Ansprüche 1 und 2 sowie durch die Verfahren der Ansprüche 10 und 12.The problem is solved by the systems of claims 1 and 2 and by the methods of claims 10 and 12.

Das erfindungsgemäße System zur Abholung von Objekten insbesondere von beliebigen Positionen weist eine Benutzereinheit auf, wobei die Benutzereinheit eine Positionsbestimmungsvorrichtung zur Bestimmung der Position der Benutzereinheit aufweist und eine Erfassungsvorrichtung zur Erfassung des Objekts oder einer daran angebrachten Markierung. Bei der Benutzereinheit kann es sich beispielsweise um ein Telefon, ein Smartphone ein Tablet oder ein spezielles Gerät für diese Verwendung handeln. Die Benutzereinheit wird dabei genutzt von der Person, die das Objekt, welches abgeholt werden soll, bereitstellt. Durch die Erfassungsvorrichtung wird das Objekt selbst oder eine daran angebrachte Markierung derart erfasst, dass diese erfassten Daten zur Identifizierung des Objekts durch einen mobilen Roboter genutzt werden können.The system according to the invention for retrieving objects, in particular from arbitrary positions, comprises a user unit, wherein the user unit comprises a position-determining device for determining the position of the user unit and a detection device for detecting the object or a marker attached thereto. The user unit can be, for example, a telephone, a smartphone, a tablet, or a special device for this use. The user unit is used by the person who provides the object to be picked up. The detection device detects the object itself or a marker attached thereto in such a way that this detected data can be used to identify the object by a mobile robot.

Mit der Benutzereinheit ist erfindungsgemäß ein Server verbindbar, der die Position der Benutzereinheit empfängt und an einen mobilen Roboter weiterleitet. Dabei können insbesondere die Benutzereinheit und der Server identisch sein, so dass die Position der Benutzereinheit von der Benutzereinheit direkt an den mobilen Roboter weitergeleitet wird.According to the invention, a server can be connected to the user unit, which receives the position of the user unit and forwards it to a mobile robot. In particular, the user unit and the server can be identical, so that the position of the user unit is forwarded directly from the user unit to the mobile robot.

Der mobile Roboter ist erfindungsgemäß zu der an ihn weitergeleiteten Position des Objekts bewegbar. Weiter weist der mobile Roboter eine Erfassungsvorrichtung auf zur Erfassung des Objekts oder einer daran angebrachten Markierung. Durch die Erfassungsvorrichtung des mobilen Roboters lässt sich das abzuholende Objekt eindeutig identifizieren.According to the invention, the mobile robot is movable to the position of the object transmitted to it. Furthermore, the mobile robot has a Detection device for detecting the object or a marker attached to it. The mobile robot's detection device allows the object to be picked up to be clearly identified.

Die Markierung kann beispielsweise von dem Server bereitgestellt werden, so dass die Markierung zur Identifizierung ebenfalls an den mobilen Roboter weitergeleitet wird, so dass dieser das Objekt anhand der Markierung identifizieren kann. Alternativ hierzu, falls das Objekt an sich durch die Erfassungsvorrichtung der Benutzereinheit erfasst wird, werden die so erfassten Daten von der Benutzereinheit an den Server und vom Server an den mobilen Roboter übertragen. Somit ist dem mobilen Roboter bereits die äußere Erscheinungsform des abzuholenden Objekts bekannt und kann dieses somit eindeutig auch unter einer Vielzahl weiterer Objekte identifizieren.The marking can, for example, be provided by the server, so that the marking is also forwarded to the mobile robot for identification, allowing the mobile robot to identify the object based on the marking. Alternatively, if the object itself is detected by the detection device of the user unit, the data thus detected is transmitted from the user unit to the server, and from the server to the mobile robot. Thus, the mobile robot already knows the external appearance of the object to be picked up and can therefore clearly identify it among a multitude of other objects.

Bei dem mobilen Roboter des vorstehend beschriebenen Systems handelt es sich um eine Flugdrohne. Die Aufnahmevorrichtung des vorstehend beschriebenen Systems ist ausgebildet, das Objekt mechanisch, insbesondere greifend, oder magnetisch aufzunehmen.The mobile robot of the system described above is an aerial drone. The receiving device of the system described above is designed to pick up the object mechanically, in particular by gripping, or magnetically.

Darüber hinaus betrifft die Erfindung ein System zu Ablieferung von Objekten an frei bestimmbare Positionen, wobei das System erfindungsgemäß eine Benutzereinheit aufweist. Die Benutzereinheit ist mit einer Markierungsvorrichtung zur Erstellung einer Markierung verbindbar. Weiter weist die Benutzereinheit eine Positionsbestimmungsvorrichtung auf zur Bestimmung der Position der Markierung. Erfindungsgemäß ist mit der Benutzereinheit ein Server verbindbar, wobei der Server der Benutzereinheit eine Markierung zur Verfügung stellt, welche von der Benutzereinheit zur Markierungsvorrichtung weitergeleitet werden kann. Außerdem wird durch den Server die erfasste Position der Markierung empfangen und an einen mobilen Roboter weitergeleitet.Furthermore, the invention relates to a system for delivering objects to freely definable positions, wherein the system according to the invention comprises a user unit. The user unit can be connected to a marking device for creating a marking. Furthermore, the user unit has a position-determining device for determining the position of the marking. According to the invention, a server can be connected to the user unit, wherein the server provides the user unit with a marking, which can be forwarded from the user unit to the marking device. Furthermore, the server receives the detected position of the marking and forwards it to a mobile robot.

Der mobile Roboter ist erfindungsgemäß zur Position der erstellten Markierung bewegbar. Weiter weist der mobile Roboter eine Erfassungsvorrichtung auf zur Erfassung der erstellten Markierung. Dabei erfolgt die Steuerung des mobilen Roboters in Abhängigkeit der erstellten Markierung. Sobald also der mobile Roboter die erstelle Markierung durch die Erfassungsvorrichtung erfasst, kann eine exakte Positionierung des mobilen Roboters in Abhängigkeit der Position der erstellten Markierung erfolgen.According to the invention, the mobile robot can be moved to the position of the created marking. Furthermore, the mobile robot has a detection device for detecting the created marking. The mobile robot is controlled based on the created marking. As soon as the mobile robot detects the created marking with the detection device, the mobile robot can be precisely positioned based on the position of the created marking.

Erfindungsgemäß weist der Roboter eine Aufnahmevorrichtung auf, welche ein Objekt aufnehmen kann und am Ort der Markierung abliefert. Somit erfolgt eine exakte Positionierung des mobilen Roboters anhand der Position der erstellten Markierung. Die Markierung dient dabei der eindeutigen Identifizierung des Ablieferorts. Eine autonome Ansteuerung des Ablieferungsorts kann somit erfolgen. According to the invention, the robot has a pick-up device that can pick up an object and deliver it to the marked location. This allows the mobile robot to be precisely positioned based on the position of the created marker. The marker serves to uniquely identify the delivery location. This allows for autonomous control of the delivery location.

Abweichungen des Ablieferungsorts können durch den mobilen Roboter autonom ausgeglichen werden, ohne dass diese Abweichungen bekannt sein müssten und im Programmablauf explizit vorgesehen werden müssen. Ein Umprogrammieren ist daher nicht erforderlich. Dies unterscheidet sich von der US 8 948 935 B1 , da durch die Markierung eine eindeutige Identifizierung des Ablieferungsorts erfolgt und dieser Ort auch nicht durch das mehrfache Auftreten von eventuellen Bezugspunkten konterkariert wird.Deviations in the delivery location can be compensated autonomously by the mobile robot without these deviations having to be known and explicitly planned for in the program sequence. Reprogramming is therefore not necessary. This differs from the US 8 948 935 B1 , since the marking provides a clear identification of the place of delivery and this location is not contradicted by the multiple occurrence of possible reference points.

Vorzugsweise weist das System zur Abholung von Objekten und/oder das System zur Ablieferung von Objekten als Markierung eine optische Markierung, insbesondere einen QR-Code oder eine Bar-Code auf. Alternativ oder zusätzlich hierzu ist die Markierung als elektronische Markierung ausgebildet, insbesondere als RFID. Insbesondere die optischen Markierungen wie zum Beispiel ein QR-Code können einfach übertragen werden und sind eindeutig zu identifizieren. Elektronische Marker wie beispielsweise RFID haben den Vorteil, dass auch bei schlechter bzw. keiner Sicht eine eindeutige Identifizierung und Erfassung des Objekts erfolgen kann.Preferably, the system for picking up objects and/or the system for delivering objects has an optical marker, in particular a QR code or a barcode, as a marker. Alternatively or additionally, the marker is designed as an electronic marker, in particular an RFID tag. Optical markers such as a QR code, in particular, can be easily transmitted and are clearly identifiable. Electronic markers such as RFID have the advantage that the object can be clearly identified and recorded even in poor or no visibility conditions.

In einer optionalen Weiterbildung des vorstehend beschriebenen Systems handelt es sich bei dem mobilen Roboter um eine Flugdrohne.In an optional further development of the system described above, the mobile robot is a flying drone.

In einer optionalen Weiterbildung des vorstehend beschriebenen Systems ist die Aufnahmevorrichtung ausgebildet das Objekt mechanisch oder magnetisch aufzunehmen.In an optional development of the system described above, the receiving device is designed to receive the object mechanically or magnetically.

In einer optionalen Weiterbildung der vorstehend beschriebenen Systeme ist die Positionsbestimmungsvorrichtung als GPS-Modul ausgebildet. Hierbei handelt es sich um ein relativ weit verbreitetes bekanntes und leicht erhältliches Modul zur Positionsbestimmung. Inhärent ist jedoch in dem GPS-System eine gewisse Ungenauigkeit, die jedoch durch die Erfassung des Objekts bzw. der Markierung durch den mobilen Roboter gerade ausgeglichen werden kann. Andere Systeme zur Positionsbestimmung können alternativ oder zusätzlich ebenfalls vorgesehen sein. So kann die Positionsbestimmung der Benutzereinheit beispielsweise durch Funkortung, Triangulation aus den Netzbetreiberzellen oder anderen satellitengestützten Systemen erfolgen.In an optional development of the systems described above, the positioning device is embodied as a GPS module. This is a relatively widely used, well-known, and readily available positioning module. However, the GPS system inherently has a certain degree of inaccuracy, which can be compensated for by the mobile robot detecting the object or marker. Other positioning systems can also be provided alternatively or additionally. For example, the user unit's position can be determined using radio location, triangulation from network operator cells, or other satellite-based systems.

In einer weiteren optionalen Weiterbildung der vorstehend beschriebenen Systeme ist die Benutzereinheit über eine Funkverbindung mit dem Server verbindbar, wobei die Funkverbindung vorzugsweise über GSM, 3G, 4G, LTE, WLAN, Bluetooth oder dergleichen erfolgen kann. Weiterentwicklungen dieser Systeme sind selbstverständlich mitumfasst. Darüber hinaus können die Verbindungen ebenfalls optisch erfolgen, beispielsweise durch eine Infrarotübertragung.In a further optional development of the systems described above, the user unit can be connected to the server via a radio connection, whereby the radio connection is Preferably via GSM, 3G, 4G, LTE, Wi-Fi, Bluetooth, or similar. Further developments of these systems are, of course, also included. Furthermore, the connections can also be made optically, for example, via infrared transmission.

In einer weiteren optionalen Weiterbildung der vorstehend beschriebenen Systeme weist die Benutzereinheit Sensoren auf zur Erfassung der Umgebung. Insbesondere kann die Erfassungsvorrichtung der Benutzereinheit ausgebildet sein als Sensor zur Erfassung der Umgebung. Bevorzugt ist jedoch, dass die Benutzereinheit zusätzliche Sensoren aufweist, wobei besonders bevorzugt die Sensoren in die zur Erfassungsvorrichtung entgegengesetzte Richtung ausgerichtet sind. So kann beispielsweise in dem Zeitpunkt wenn die Erfassungsvorrichtung der Benutzereinheit die Markierung bzw. das Objekt erfasst gleichzeitig durch den in die entgegengesetzte Richtung ausgerichteten Sensor der Luftraum über dem Objekt bzw. der Markierung auf Hindernisse überprüft werden, was besonders vorteilhaft ist, falls der mobile Roboter als Flugdrohne ausgebildet ist und ein Abholen des Objekts oder ein Abliefern des Objekts durch Hindernisse verhindert werden könnte.In a further optional development of the systems described above, the user unit has sensors for detecting the environment. In particular, the detection device of the user unit can be designed as a sensor for detecting the environment. However, it is preferred that the user unit has additional sensors, wherein the sensors are particularly preferably oriented in the opposite direction to the detection device. For example, at the time when the detection device of the user unit detects the marking or object, the airspace above the object or marking can be checked for obstacles at the same time by the sensor oriented in the opposite direction, which is particularly advantageous if the mobile robot is designed as an aerial drone and picking up or delivering the object could be prevented by obstacles.

Vorzugsweise weist der mobile Roboter einen Sensor auf zur Erfassung der Umgebung. Hierbei kann die Erfassungsvorrichtung des mobilen Roboters als Sensor ausgebildet sein, sodass durch die Erfassungsvorrichtung sowohl das Objekt bzw. die Markierung durch den mobilen Roboter erfasst wird und gleichzeitig die Umgebung. Insbesondere können jedoch weitere Sensoren zur Erfassung der Umgebung am mobilen Roboter vorgesehen sein.The mobile robot preferably has a sensor for detecting the environment. The detection device of the mobile robot can be designed as a sensor, so that the detection device detects both the object or marking by the mobile robot and the environment simultaneously. In particular, however, additional sensors for detecting the environment can be provided on the mobile robot.

Bei den Sensoren der Benutzereinheit und/oder bei den Sensoren des mobilen Roboters handelt es sich insbesondere um eine Kamera, eine 3D-Kamera oder einen Laser-Scanner.The sensors of the user unit and/or the sensors of the mobile robot are in particular a camera, a 3D camera or a laser scanner.

Darüber hinaus betrifft die Erfindung als unabhängige und eigenständige Erfindung ein Verfahren zur Lieferung eines Objekts durch einen mobilen Roboter. Das Verfahren umfasst die Schritte: Erstellen einer Markierung, Positionierung der Markierung am vorgesehenen Ort der Lieferung, Erfassen der Markierung und Erfassen der ungefähren Position, Steuern des Roboters, welcher das auszuliefernde Objekt aufgenommen hat zur erfassten ungefähren Position und Ablegen des Objekts durch den Roboter. Somit wird das Objekt an der erfassten ungefähren Position abgeliefert.Furthermore, the invention relates to a method for delivering an object by a mobile robot as an independent and standalone invention. The method comprises the steps of creating a marker, positioning the marker at the intended delivery location, detecting the marker and detecting the approximate position, controlling the robot that has picked up the object to be delivered to the detected approximate position, and having the robot place the object. Thus, the object is delivered to the detected approximate position.

In einer Weiterbildung des Verfahrens wird nachdem der Roboter zur erfassten ungefähren Position gesteuert wurde, zunächst die Markierung durch den mobilen Roboter erfasst. Aus dieser Erfassung wird die genaue Position der Markierung ermittelt. Aufgrund der ermittelten Position wird der mobile Roboter zur genauen Position gesteuert. Somit erfolgt eine zunächst grobe Navigation des mobilen Roboters zur ungefähren erfassten Position. Abweichungen oder Änderungen des Ablieferungsortes können autonom durch den mobilen Roboter ausgeglichen werden durch eine Steuerung des mobilen Roboters in Abhängigkeit der ermittelten genauen Position der Markierung.In a further development of the method, after the robot has been guided to the detected approximate position, the mobile robot first detects the marker. From this detection, the exact position of the marker is determined. Based on the determined position, the mobile robot is guided to the exact position. This initially results in a rough navigation of the mobile robot to the approximate detected position. Deviations or changes in the delivery location can be compensated for autonomously by the mobile robot by controlling the mobile robot based on the determined exact position of the marker.

Darüber hinaus betrifft die Erfindung als eigenständige und unabhängige Erfindung ein Verfahren zur Aufnahme eine Objekts von einem mobilen Roboter, wobei das Verfahren die Schritte umfasst, das zunächst das Objekt erfasst wird sowie die ungefähre Position des Objekts, ein mobiler Roboter zur erfassten ungefähren Position gesteuert wird, durch den mobilen Roboter das Objekt erfasst wird und durch den mobilen Roboter das Objekt aufgenommen wird. Somit ist durch dieses Verfahren eine manuelle Zuführung des Objekts oder ein fest installiertes Zustellsystem nicht mehr erforderlich.Furthermore, the invention relates to a method for picking up an object by a mobile robot as a standalone and independent invention. The method comprises the steps of first detecting the object and its approximate position, controlling a mobile robot to the detected approximate position, detecting the object by the mobile robot, and picking up the object by the mobile robot. Thus, this method eliminates the need for manual feeding of the object or a permanently installed delivery system.

Bei dem mobilen Roboter des vorstehend beschriebenen Verfahrens handelt es sich um eine Flugdrohne. Die Aufnahme des Objekts im Rahmen des vorstehend beschriebenen Verfahrens erfolgt mechanisch, insbesondere greifend, oder magnetisch. The mobile robot of the method described above is an aerial drone. The object is picked up mechanically, in particular by gripping, or magnetically.

In einer Weiterbildung des vorstehend beschriebenen Verfahrens weist dieses nach der Erfassung des Objekts durch den mobilen Roboter die Schritte auf, dass die genaue Position des Objekts ermittelt wird und sodann der mobile Roboter zu dieser ermittelten Position gesteuert wird. Somit erfolgt zunächst eine Grobpositionierung anhand der durch die Benutzereinheit erfassten ungefähren Position und nachfolgend erfolgt eine Feinpositionierung des mobilen Roboters anhand des durch den mobilen Roboter erfassten Objekts. Diese Feinpositionierung des mobilen Roboters erfolgt dabei autonom.In a further development of the method described above, after the object has been detected by the mobile robot, the method comprises the steps of determining the exact position of the object and then controlling the mobile robot to this determined position. Thus, a rough positioning is initially performed based on the approximate position detected by the user unit, followed by a fine positioning of the mobile robot based on the object detected by the mobile robot. This fine positioning of the mobile robot occurs autonomously.

In einer Weiterentwicklung des vorstehend beschriebenen Verfahrens wird zunächst eine Markierung erstellt. Diese Markierung wird an das Objekt angebracht und die ungefähre Position der Markierung wird erfasst und an den mobilen Roboter übertragen. Vom Roboter wird sodann die Markierung erfasst und hieraus die ermittelte Position des Objekts bestimmt. Durch die Verwendung einer Markierung wird der Aufwand zur Identifizierung des Objekts erheblich reduziert, da die Markierung vorbekannte eindeutige Merkmale aufweisen kann. Diese eindeutigen Merkmale der Markierung werden durch den mobilen Roboter erfasst.In a further development of the method described above, a marker is first created. This marker is applied to the object, and its approximate position is recorded and transmitted to the mobile robot. The robot then records the marker and uses this information to determine the object's position. Using a marker significantly reduces the effort required to identify the object, as the marker can have previously known unique features. These unique features of the marker are recorded by the mobile robot.

In einer Weiterbildung des Verfahrens zur Lieferung eines Objekts und/oder des Verfahrens zu Aufnahme eines Objekts wird vorzugsweise die Markierung von einem Server bereitgestellt.In a further development of the method for delivering an object and/or the method for receiving an object, the marking is preferably provided by a server.

In einer Weiterbildung des Verfahrens zur Lieferung eines Objekts und/oder Aufnahme eines Objekts wird aus dem Verhältnis zwischen der Größe der Markierung und dem Objekt bei der Erfassung die Größe des Objekts bestimmt. Insbesondere falls die Markierung von einem Server bereitgestellt wird kann dieser eine bekannte Größe aufweisen, so dass hieraus auf einfache Weise die Größe des Objekts bestimmt werden kann. Dies kann ist insbesondere von Interesse sein bei der Verwendung einer Flugdrohne als mobiler Roboter, da die Aufnahmevorrichtung des mobilen Roboters an die Größe des Objekts angepasst werden muss.In a further development of the method for delivering an object and/or capturing an object, the size of the object is determined from the ratio between the size of the marker and the object during capture. In particular, if the marker is provided by a server, this server may have a known size, so that the size of the object can be easily determined from this. This can be particularly useful when using a drone as a mobile robot, since the mobile robot's capture device must be adapted to the size of the object.

In einer Weiterbildung des Verfahrens zur Lieferung eines Objekts und/oder Aufnahme eines Objekts wird durch die Benutzereinheit die Umgebung des Orts der Lieferung oder des abzuholenden Objekts erfasst. Hierdurch kann beispielsweise sichergestellt werden, dass eine Ablieferung bzw. Abholung des Objekts nicht durch Hindernisse erschwert wird oder unmöglich ist.In a further development of the method for delivering an object and/or picking up an object, the user unit records the surroundings of the location of the delivery or the object to be picked up. This can ensure, for example, that delivery or pickup of the object is not hindered or impossible due to obstacles.

In einer Weiterbildung des Verfahrens zur Lieferung eines Objekts und/oder Aufnahme eines Objekts wird durch den mobilen Roboter die Umgebung der ungefähren Position erfasst, sodass vom mobilen Roboter Hindernisse erkannt werden und autonom umgangen werden können. Vorzugsweise berücksichtig hierbei der mobile Roboter ebenfalls die von der Benutzereinheit erfassten Umgebungsdaten.In a further development of the method for delivering an object and/or picking up an object, the mobile robot detects the surroundings of the approximate position, allowing the mobile robot to detect obstacles and avoid them autonomously. Preferably, the mobile robot also takes into account the environmental data detected by the user unit.

Bevorzugt werden das Verfahren zur Lieferung eines Objekts sowie das Verfahren zu Aufnahme eines Objekts ausgeführt unter Verwendung eines der vorstehend beschriebenen Systeme.Preferably, the method for delivering an object and the method for receiving an object are carried out using one of the systems described above.

Insbesondere können die beschriebenen Verfahren weitergebildet werden, anhand von Merkmalen der vorstehend beschriebenen Systeme. Ebenso können auch die Systeme weitergebildet werden durch Merkmale der Verfahren.In particular, the described methods can be further developed using features of the systems described above. Likewise, the systems can also be further developed using features of the methods.

Das Verfahren zur Lieferung eines Objekts kann vorzugsweise weitergebildet werden durch Merkmale des Verfahrens zu Aufnahme eines Objekts und ebenso kann das Verfahren zu Aufnahme eines Objekts weitergebildet sein durch Merkmale des Verfahrens zur Lieferung eines Objekts.The method for delivering an object can preferably be further developed by features of the method for receiving an object and likewise the method for receiving an object can be further developed by features of the method for delivering an object.

Das Verfahren zur Abholung von Objekten kann insbesondere weitergebildet werden durch die Merkmale des Systems zur Ablieferung von Objekten und ebenso kann das System zur Ablieferung von Objekten vorzugsweise weitergebildet werden durch Merkmale des Systems zur Abholung von Objekten.The method for picking up objects can in particular be further developed by the features of the system for delivering objects and likewise the system for delivering objects can preferably be further developed by features of the system for picking up objects.

Nachfolgend wird die Erfindung anhand einer bevorzugten Ausführungsform unter Bezugnahme auf die anliegenden Zeichnungen näher erläutert.The invention is explained in more detail below using a preferred embodiment with reference to the accompanying drawings.

Es zeigen:

  • 1 das erfindungsgemäße System zur Erstellung einer Markierung,
  • 2 ein erfindungsgemäßes System zur Erfassung einer ungefähren Position,
  • 3 ein erfindungsgemäßes System zur autonomen Ansteuerung der exakten Position eines Objekt,
  • 4 ein erfindungsgemäßes System zur Erfassung einer Markierung des Ablieferortes,
  • 5 ein erfindungsgemäßes System zur autonomen Ansteuerung eines mobilen Roboters eines vorgegebenen markierten Ablieferortes,
  • 6 ein Ablaufdiagramm zur Abholung eines Objekts gemäß dem erfindungsgemäßen Verfahren und
  • 7 ein Ablaufdiagramm einer Ablieferung gemäß dem erfindungsgemäßen Verfahren.
They show:
  • 1 the system according to the invention for creating a marking,
  • 2 an inventive system for detecting an approximate position,
  • 3 an inventive system for autonomously controlling the exact position of an object,
  • 4 an inventive system for detecting a marking of the delivery location,
  • 5 an inventive system for autonomously controlling a mobile robot of a predetermined marked delivery location,
  • 6 a flow chart for picking up an object according to the method according to the invention and
  • 7 a flow chart of a delivery according to the method according to the invention.

Das erfindungsgemäße System zur Abholung eines Objekts weist eine Benutzereinheit 10 auf. Diese ist vorzugsweise über eine Funkverbindung mit einem Server 12 verbindbar. Über die Benutzereinheit 10 fordert ein Benutzer eine Markierung vom Server 12 an. Die Anforderung 14 kann dabei alternativ zu der dargestellten Ausführungsform auch beispielsweise postalisch, per E-Mail oder über ein anderes Kommunikationssystem erfolgen. Im dargestellten Ausführungsbeispiel werden vom Server 12 Daten 16 für eine Markierung an die Benutzereinheit 10 bereitgestellt. Diese überträgt die Daten zu einer Markierungseinheit 18, welche die Markierung 20 erstellt. Die Übertragung von der Benutzereinheit 10 auf die Markierungseinheit 18 erfolgt auf konventionelle Weise per USB oder Funkverbindung. Bei der Markierungseinheit 18 handelt es sich beispielsweise um einen konventionellen Drucker. Im dargestellten Ausführungsbeispiel handelt es sich bei der Markierung 20 um einen QR-Code, der als eindeutige Identifizierung dient. So kann die Markierung auch postalisch übermittelt werden.The system according to the invention for retrieving an object has a user unit 10. This is preferably connectable to a server 12 via a radio link. A user requests a marking from the server 12 via the user unit 10. As an alternative to the illustrated embodiment, the request 14 can also be made, for example, by post, email, or another communication system. In the illustrated embodiment, the server 12 provides data 16 for a marking to the user unit 10. The user unit transmits the data to a marking unit 18, which creates the marking 20. The transmission from the user unit 10 to the marking unit 18 takes place in a conventional manner via USB or radio link. The marking unit 18 is, for example, a conventional printer. In the illustrated embodiment, the marking 20 is a QR code, which serves as a unique identification. The marking can therefore also be transmitted by post.

Die Markierung 20 wird auf ein Objekt 22 aufgebracht, wie in 2 dargestellt. Das Objekt 22 wird an den Ort der Abholung gebracht. Über die Benutzereinheit 10 wird der QR-Code 20 erfasst. Die Benutzereinheit 10 weist eine Positionsbestimmungsvorrichtung 26 auf. Hierbei handelt es sich im Ausführungsbeispiel um ein GPS-Modul, welches die Funksignale 28 von Satelliten 30 erfasst und hieraus die Position der Benutzereinheit 10 zum Zeitpunkt der Erfassung 24 der Markierung 20 ermittelt. Die so ermittelte ungefähre Position des Objekts 22 wird an den Server 12 übertragen.The marking 20 is applied to an object 22 as shown in 2 The object 22 is brought to the pickup location. The QR code 20 is scanned via the user unit 10. The user unit 10 has a position determination ing device 26. In the exemplary embodiment, this is a GPS module that detects the radio signals 28 from satellites 30 and uses them to determine the position of the user unit 10 at the time of detection 24 of the marker 20. The approximate position of the object 22 thus determined is transmitted to the server 12.

Vorzugsweise wird durch die Benutzereinheit 10 bei der Erfassung der Markierung 20 die Umgebung des Orts der Abholung erfasst und dabei eventuelle Hindernisse ausgemacht. Handelt es sich bei der Benutzereinheit 10 beispielsweise um ein Smartphone, welches zwei in entgegengesetzte Richtung aufweisenden Kameras aufweist, so kann eine Kamera der Benutzereinheit 10 den QR-Code 20 erfassen, wohingegen die in entgegengesetzte Richtung weisende Kamera den Luftraum über dem abzuholenden Objekt am Ort der Abholung erfasst zur Erkennung von Hindernissen. Eventuelle Hindernisse können zusammen mit der erfassten Position an den Server 12 und von diesem besonders bevorzugt an den mobilen Roboter 32 übertragen werden, sodass der mobile Roboter 32 bereits vor Ansteuern der ungefähren Position weiß, ob sich eventuell Hindernisse im Bewegungsraum befinden.Preferably, when detecting the marker 20, the user unit 10 detects the surroundings of the pickup location and identifies any obstacles. For example, if the user unit 10 is a smartphone with two cameras pointing in opposite directions, one camera of the user unit 10 can detect the QR code 20, while the camera pointing in the opposite direction scans the airspace above the object to be picked up at the pickup location to detect obstacles. Any obstacles can be transmitted along with the detected position to the server 12, and from there, particularly preferably, to the mobile robot 32, so that the mobile robot 32 already knows whether there are any obstacles in the movement area before approaching the approximate position.

Bei dem Server 12 handelt es sich im Ausführungsbeispiel um denselben Server, der ebenfalls die Markierung bereitgestellt hat. In einem alternativen Ausführungsbeispiel kann es sich hierbei auch um einen anderen Server handeln. In the exemplary embodiment, server 12 is the same server that also provided the marking. In an alternative embodiment, this may also be a different server.

In diesem Fall wird von der Benutzereinheit 10 nicht nur die Position übertragen, sondern auch die erfasste Markierung 20.In this case, the user unit 10 transmits not only the position but also the detected marker 20.

Im Ausführungsbeispiel werden die übermittelten Positionsdaten 35 auf einen mobilen Roboter 32 übertagen. Ebenso werden die Daten der Markierung 36 auf den mobilen Roboter 32 übertragen. Im vorliegenden Ausführungsbeispiel handelt es sich bei dem mobilen Roboter 32 um eine Flugdrohne. Die Flugdrohne 32 wird zum ungefähren Ort, welcher von der Benutzereinheit 10 erfasst wurde, gesteuert. Über eine Erfassungsvorrichtung 34 der Flugdrohne 32 wird die Markierung 20 des Objekts 22 erfasst. Hieraus ermittelt die Flugdrohne 32 insbesondere autonom die exakte Position des Objekts 22, welche von der ungefähren Position, die durch die Benutzereinheit 10 ermittelt wurde, abweichen kann. Entsprechend dem Pfeil 38 steuert die Flugdrohne 32 die exakte Position des Objekts 22 an und nimmt das Objekt auf. Nachfolgend transportiert die Flugdrohne 32 das Objekt 22 an ihren vorgesehenen Ort.In the exemplary embodiment, the transmitted position data 35 is transmitted to a mobile robot 32. The data of the marker 36 is also transmitted to the mobile robot 32. In the present exemplary embodiment, the mobile robot 32 is a drone. The drone 32 is controlled to the approximate location detected by the user unit 10. The marker 20 of the object 22 is detected via a detection device 34 of the drone 32. From this, the drone 32 autonomously determines the exact position of the object 22, which may differ from the approximate position determined by the user unit 10. According to the arrow 38, the drone 32 controls the exact position of the object 22 and picks up the object. The drone 32 then transports the object 22 to its intended location.

Vorzugsweise weist die Flugdrohne 32 einen Sensor auf zur Erfassung der Umgebung der ungefähren Position. Durch diesen Sensor, der mit der Erfassungsvorrichtung 34 der Flugdrohne 32 identisch sein kann, können eventuelle Hindernisse, die eine Abholung des Objekts 22 erschweren oder verhindern, frühzeitig erkannt werden. Hierbei ist es besonders bevorzugt, dass es sich bei dem Sensor zur Erfassung der Umgebung um eine 3D-Kamera oder einen Laser-Scanner handelt.The drone 32 preferably has a sensor for detecting the surroundings of the approximate position. This sensor, which can be identical to the detection device 34 of the drone 32, can detect any obstacles that might hinder or prevent the retrieval of the object 22 at an early stage. It is particularly preferred that the sensor for detecting the surroundings be a 3D camera or a laser scanner.

Im Falle einer Ablieferung erfolgt die Erstellung einer Markierung beispielsweise wie anhand der 1 beschrieben. Die Markierung 20 wird entsprechend 4 am vorgesehenen Ort der Ablieferung aufgebracht. Über eine Benutzereinheit 10 wird die Markierung 20 erfasst. Gleichzeitig oder nachfolgend wird über eine Positionsbestimmungsvorrichtung 26 der Benutzereinheit 10 über Satelliten 30 die ungefähre Position der Benutzereinheit bei der Erfassung der Markierung 20 bestimmt. Andere Alternativen zu Bereitstellung sind ebenfalls möglich.In the case of a delivery, a marking is created, for example, as based on the 1 The marking 20 is described accordingly 4 applied at the intended delivery location. The marking 20 is detected via a user unit 10. Simultaneously or subsequently, the approximate position of the user unit upon detection of the marking 20 is determined via satellites 30 using a positioning device 26 of the user unit 10. Other alternatives to provision are also possible.

Gleichzeig zur Erfassung der Position der Markierung 20 kann durch die Benutzereinheit 10 die Umgebung des vorgesehen Orts der Ablieferung erfasst werden. Hierbei können eventuelle Hindernisse erkannt werden und an den mobilen Roboter 32 weitergegeben werden.At the same time as detecting the position of the marker 20, the user unit 10 can detect the surroundings of the intended delivery location. Any obstacles can be detected and passed on to the mobile robot 32.

Die ungefähre Position wird von der Benutzereinheit 10 an den Server 12 übertragen. Hierbei handelt es sich ebenfalls um den Server, der die Markierung 20 bereitgestellt hat. In einem alternativen Ausführungsbeispiel kann es sich bei dem Server jedoch auch um einen anderen Server handeln. In diesem Fall wird von der Benutzereinheit 10 sowohl die Markierung 20 als auch die ungefähre Position übertragen.The approximate position is transmitted from user device 10 to server 12. This is also the server that provided marker 20. In an alternative embodiment, however, the server may be a different server. In this case, both marker 20 and the approximate position are transmitted from user device 10.

Vom Server 12 werden die Daten der Markierung 36 sowie die ungefähre Position 35 an einen Roboter 32, welcher als Flugdrohne ausgebildet ist, übertragen. Die Flugdrohne 32 weist dabei eine Aufnahmeeinrichtung auf, welche ein Objekt 22 aufgenommen hat.The server 12 transmits the data of the marker 36 and the approximate position 35 to a robot 32, which is configured as a drone. The drone 32 has a recording device that has recorded an object 22.

Gemäß 5 wird die Flugdrohne 32 zur ungefähren Position gesteuert. Durch eine Erfassungsvorrichtung 34 der Flugdrohne 32 wird die ausgelegte Markierung 20 erfasst und aus dieser Erfassung die exakte Position der Markierung 20, also die exakte Position des Ablieferortes insbesondere autonom bestimmt. Aus dieser bestimmten exakten Position wird die Flugdrohne 32 entsprechend dem Pfeil 38 zur exakten Position autonom gesteuert. Die Flugdrohe 32 liefert das Objekt 22 an der exakten Ablieferposition markiert durch die Markierung 20 ab.According to 5 The drone 32 is guided to the approximate position. A detection device 34 of the drone 32 detects the deployed marker 20, and from this detection, the exact position of the marker 20, i.e., the exact position of the delivery location, is determined, particularly autonomously. From this determined exact position, the drone 32 is autonomously guided to the exact position according to arrow 38. The drone 32 delivers the object 22 to the exact delivery position marked by the marker 20.

Vorzugsweise weist die Flugdrohne 32 einen Sensor auf zur Erfassung der Umgebung der ungefähren Position. Durch diesen Sensor, der mit der Erfassungsvorrichtung 34 der Flugdrohne 32 identisch sein kann, können eventuelle Hindernisse, die eine Ablieferung des Objekts 22 erschweren oder verhindern, frühzeitig erkannt werden. Hierbei ist es besonders bevorzugt, dass es sich bei dem Sensor zur Erfassung der Umgebung um eine 3D-Kamera oder einen Laser-Scanner handelt.Preferably, the drone 32 has a sensor for detecting the surroundings of the approximate position. This sensor, which can be identical to the detection device 34 of the drone 32, can detect any obstacles that Detect early on any obstacles that might hinder or prevent delivery of object 22. It is particularly preferred that the sensor for detecting the environment be a 3D camera or a laser scanner.

Gemäß der 6 wird bei der Abholung eines Objekts 22, falls eine Markierung vorhanden ist, die Markierung 20 erfasst (S011). Falls keine Markierung vorhanden ist, wird das Objekt 22 als ein solches erfasst (S012). Nachfolgend wird die Position durch die Benutzereinheit 10 (S02) ermittelt. Dies kann gleichzeitig erfolgen mit der Markierungs-/Objekterfassung oder nacheinander, wobei die Reihenfolge der Schritte (S011/S012) und (S02) nicht wesentlich ist. Durch den unmittelbaren zeitlichen Zusammenhang wird lediglich sichergestellt, dass die von der Benutzereinheit 10 bestimmte Position mit der ungefähren Position der Markierung 20 des Objekts 22 übereinstimmt. Im selben zeitlichen Zusammenhang ist es zusätzlich möglich, dass durch die Benutzereinheit 10 die Umgebung der Markierung 20 bzw. des Objekts 22 erfasst wird, sodass eventuelle Hindernisse frühzeitig erkannt werden und an den Server 12 ebenfalls übertragen werden und von diesem auf die Flugdrohne 32 übertragen werden können.According to the 6 When an object 22 is picked up, if a marker is present, the marker 20 is detected (S011). If no marker is present, the object 22 is detected as such (S012). The position is then determined by the user unit 10 (S02). This can occur simultaneously with the marker/object detection or sequentially, whereby the order of steps (S011/S012) and (S02) is not important. The immediate temporal connection merely ensures that the position determined by the user unit 10 corresponds to the approximate position of the marker 20 of the object 22. In the same temporal connection, it is also possible for the user unit 10 to detect the surroundings of the marker 20 or the object 22, so that any obstacles are detected early and also transmitted to the server 12, from which they can be transmitted to the drone 32.

Die ermittelte Position wird sodann an den Server 12 übertragen (S03) und von dem Server 12 ebenso an die Flugdrohne 23 (S04).The determined position is then transmitted to the server 12 (S03) and from the server 12 to the drone 23 (S04).

Die Flugdrohne 32 steuert die ungefähre Position an, welche durch die Benutzereinheit 10 bestimmt wurde (S05). An der ungefähren Position wird durch die Flugdrohne 32 die Markierung 20 bzw. das Objekt 22 erfasst (S06) und hieraus die exakte Position des Objekts 22 bzw. der Markierung 20 durch die Flugrohne 32 insbesondere autonom bestimmt (S07). Die Flugdrohne 32 steuert die exakte Position insbesondere autonom an (S08) und nimmt das Objekt auf (S09). Insbesondere weist die Flugdrohne 32 einen Sensor auf zur Erfassung der Umgebung, sodass durch die Flugdrohne 32 eventuelle Hindernisse in der Umgebung der Markierung 20 bzw. des Objekts 22 erfasst werden können und sicher umgangen werden können.The drone 32 navigates to the approximate position determined by the user unit 10 (S05). At the approximate position, the drone 32 detects the marker 20 or the object 22 (S06), and from this, the exact position of the object 22 or the marker 20 is determined by the drone 32, in particular autonomously (S07). The drone 32 navigates to the exact position, in particular autonomously (S08), and records the object (S09). In particular, the drone 32 has a sensor for detecting the environment, so that any obstacles in the vicinity of the marker 20 or the object 22 can be detected by the drone 32 and safely avoided.

Das Verfahren zur Ablieferung eines Objekts 22 wird anhand der 7 nachfolgend beschrieben. Zunächst wird eine Markierung 20 erstellt (S10) und die Markierung 20 wird nachfolgend am Lieferort ausgebracht (S11). Mit einer Bedieneinheit 10 wird die Markierung 20 erfasst (S12) sowie die Position der Markierung 20 (S13). Die Schritte der Erfassung der Markierung 20 (S12) sowie die Erfassung der Position der Markierung 20 (S13) können nacheinander in beliebiger Reihenfolge, als auch gleichzeitig erfolgen. Es muss lediglich dabei sichergestellt werden, dass die erfasst Position die ungefähre Position der Markierung 20 wiedergibt. Bei der Erfassung der ungefähren Position der Markierung 20 kann durch die Benutzereinheit 10 gleichzeitig die Umgebung des Orts zur Ablieferung erfasst werden, sodass eventuelle Hindernisse frühzeitig erkannt werden. Die erfassten Umgebungsdaten werden an den Server 12 mit übertragen und von diesem auf den mobilen Roboter 32 übertragen, sodass Hindernisse, welche die Lieferung erschweren oder verhindern können, frühzeitig bekannt sind und bei der Steuerung des mobilen Roboters 32 berücksichtigt werden können.The procedure for the delivery of an object 22 is based on the 7 described below. First, a marking 20 is created (S10) and the marking 20 is then applied to the delivery location (S11). The marking 20 is detected (S12) and the position of the marking 20 (S13) using an operating unit 10. The steps of detecting the marking 20 (S12) and the position of the marking 20 (S13) can be carried out one after the other in any order, or simultaneously. It must only be ensured that the detected position reflects the approximate position of the marking 20. When detecting the approximate position of the marking 20, the user unit 10 can simultaneously detect the surroundings of the delivery location so that any obstacles can be identified at an early stage. The detected environmental data is transmitted to the server 12 and from there to the mobile robot 32 so that obstacles that could complicate or prevent delivery are known at an early stage and can be taken into account when controlling the mobile robot 32.

Die erfasst Position wir an den Server 12 übertragen (S14) und vom Server 12 auf den mobilen Roboter 32 (S15), wobei es sich bei dem mobilen Roboter 32 um eine Flugdrohne handeln kann.The detected position is transmitted to the server 12 (S14) and from the server 12 to the mobile robot 32 (S15), wherein the mobile robot 32 may be a flying drone.

Der mobile Roboter 32 steuert die ungefähre Position, welche von der Benutzereinheit 10 ermittelt wurde an (S16). Sobald der mobile Roboter 32 die ungefähre Position erreicht hat, erfasst dieser die Markierung 20 (S17). Aus der erfassten Markierung 20 ermittelt der mobile Roboter 32 insbesondere autonom die exakte Position der Markierung 20 (S18). Die so ermittelte Position wird durch den mobilen Roboter 32 angesteuert (S19). Der mobile Roboter 32 verfügt vorzugsweise über einen Sensor zur Erfassung der Umgebung, sodass vom mobilen Roboter 32 Hindernisse rechtzeitig erkannt werden und umgangen werden können. Sobald dieser die ermittelte exakte Position den Ablieferort erreicht hat, liefert der mobile Roboter 32 das Objekt 22 ab (S20).The mobile robot 32 moves to the approximate position determined by the user unit 10 (S16). As soon as the mobile robot 32 has reached the approximate position, it detects the marker 20 (S17). From the detected marker 20, the mobile robot 32, in particular autonomously, determines the exact position of the marker 20 (S18). The position thus determined is then moved by the mobile robot 32 (S19). The mobile robot 32 preferably has a sensor for detecting the environment so that the mobile robot 32 can detect obstacles in a timely manner and avoid them. As soon as the mobile robot 32 has reached the determined exact position of the delivery location, the mobile robot 32 delivers the object 22 (S20).

Claims (19)

System zur Abholung von Objekten (22) mit einer Benutzereinheit (10), wobei die Benutzereinheit (10) eine Positionsbestimmungsvorrichtung (26) zur Bestimmung der Position der Benutzereinheit (10) aufweist und eine Erfassungsvorrichtung zur Erfassung des Objekts (22) oder einer daran angebrachten Markierung (20), einem mit der Benutzereinheit (10) verbindbaren Server (12), der die Position der Benutzereinheit (10) empfängt und an einen mobilen Roboter (32) weiterleitet, wobei der mobile Roboter (32) zur Position des Objekts (22) bewegbar ist und eine Erfassungsvorrichtung (34) aufweist zur Erfassung des Objekts (22) oder einer daran angebrachten Markierung (20) und eine Aufnahmevorrichtung zur Manipulation des Objekts (22), dadurch gekennzeichnet, dass die Aufnahmevorrichtung das Objekt (22) magnetisch oder mechanisch, insbesondere greifend, aufnehmen kann und es sich bei dem mobilen Roboter (32) um eine Flugdrohne handelt.A system for retrieving objects (22) with a user unit (10), wherein the user unit (10) has a position-determining device (26) for determining the position of the user unit (10) and a detection device for detecting the object (22) or a marker (20) attached thereto, a server (12) connectable to the user unit (10), which server receives the position of the user unit (10) and forwards it to a mobile robot (32), wherein the mobile robot (32) is movable to the position of the object (22) and has a detection device (34) for detecting the object (22) or a marker (20) attached thereto, and a receiving device for manipulating the object (22), characterized in that the receiving device can pick up the object (22) magnetically or mechanically, in particular by gripping, and the mobile robot (32) is an aerial drone. System zur Ablieferung von Objekten (22) an frei bestimmbaren Positionen mit einer Benutzereinheit (10), eine mit der Benutzereinheit (10) verbindbare Markierungsvorrichtung (18) zur Erstellung einer Markierung (20), wobei die Benutzereinheit (10) eine Positionsbestimmungsvorrichtung (26) zur Bestimmung der Position der Markierung (20) aufweist, einem mit der Benutzereinheit (10) verbindbaren Server (12), der der Benutzereinheit (10) eine Markierung (20) zur Verfügung stellt und die Position der Markierung empfängt und an einen mobilen Roboter (32) weiterleitet, wobei der mobile Roboter (32) zur Position der erstellten Markierung (20) bewegbar ist und eine Erfassungsvorrichtung (34) aufweist zur Erfassung der erstellten Markierung (20), wobei die Steuerung des mobilen Roboters (32) in Abhängigkeit der erfassten erstellten Markierung (20) erfolgt und wobei der mobile Roboter (32) eine Aufnahmevorrichtung aufweist zur Aufnahme und Ablieferung des Objekts (22).System for delivering objects (22) to freely definable positions, comprising a user unit (10), a marking device (18) connectable to the user unit (10) for creating a marking (20), wherein the user unit (10) has a position-determining device (26) for determining the position of the marking (20), a server (12) connectable to the user unit (10), which server provides the user unit (10) with a marking (20) and receives the position of the marking and forwards it to a mobile robot (32), wherein the mobile robot (32) is movable to the position of the created marking (20) and has a detection device (34) for detecting the created marking (20), wherein the control of the mobile robot (32) is dependent on the detected created marking (20), and wherein the mobile robot (32) has a receiving device for receiving and delivering the object (22). System nach Anspruch 1 oder 2, dadurch gekennzeichnet, dass die Markierung (20) als optische Markierung, insbesondere als QR Code (eingetragene Wortmarke der Denso Ware Incorperated) oder als Bar-Code, ausgebildet ist und/oder dass die Markierung (20) als elektronische Markierung (20), insbesondere als RFID, ausgebildet ist.System according to Claim 1 or 2 , characterized in that the marking (20) is designed as an optical marking, in particular as a QR code (registered word mark of Denso Ware Incorporated) or as a bar code, and/or that the marking (20) is designed as an electronic marking (20), in particular as an RFID. System nach einem der Ansprüche 1 bis 3, dadurch gekennzeichnet, dass die Positionsbestimmungsvorrichtung (26) als GPS-Modul ausgebildet ist.System according to one of the Claims 1 until 3 , characterized in that the position determining device (26) is designed as a GPS module. System nach einem der Ansprüche 1 bis 4, dadurch gekennzeichnet, dass die Benutzereinheit (10) über eine Funkverbindung mit dem Server (12) verbindbar ist, insbesondere über GSM, 3G, 4G, LTE, WLAN, Bluetooth (eingetragene Wortmarke der Bluetooth SIG, Inc.) und dergleichen.System according to one of the Claims 1 until 4 , characterized in that the user unit (10) can be connected to the server (12) via a radio connection, in particular via GSM, 3G, 4G, LTE, WLAN, Bluetooth (registered word mark of Bluetooth SIG, Inc.) and the like. System nach einem der Ansprüche 1 bis 5, dadurch gekennzeichnet, dass die Benutzereinheit (10) mindestens einen Sensor aufweist zur Erfassung der Umgebung.System according to one of the Claims 1 until 5 , characterized in that the user unit (10) has at least one sensor for detecting the environment. System nach Anspruch 6, dadurch gekennzeichnet, dass die Sensoren in die zur Erfassungsvorrichtung entgegengesetzte Richtung ausgerichtet sind.System according to Claim 6 , characterized in that the sensors are oriented in the direction opposite to the detection device. System nach einem der Ansprüche 1 bis 7, dadurch gekennzeichnet, dass der mobile Roboter (32) mindestens einen Sensor aufweist zur Erfassung der Umgebung.System according to one of the Claims 1 until 7 , characterized in that the mobile robot (32) has at least one sensor for detecting the environment. System nach Anspruch 6 bis 8, dadurch gekennzeichnet, dass es sich bei dem Sensor um eine Kamera, eine 3D-Kamera oder einen Laser-Scanner handelt.System according to Claim 6 until 8 , characterized in that the sensor is a camera, a 3D camera or a laser scanner. Verfahren zur Lieferung eines Objekts (22) durch einen mobilen Roboter (32) mit den Schritten: a) Erstellen einer Markierung (20) (S10), b) Positionieren der Markierung (20) am vorgesehenen Ort der Lieferung (S11), c) Erfassen der Markierung (20) und erfassen der ungefähren Position (S12, S13), d) Steuern des mobilen Roboters (32), welcher das auszuliefernde Objekt (22) aufgenommen hat, zur erfassten ungefähren Position (S16) und e) Ablegen des Objekts (22) durch den mobilen Roboter (32) (S20).A method for delivering an object (22) by a mobile robot (32), comprising the steps of: a) creating a marker (20) (S10), b) positioning the marker (20) at the intended delivery location (S11), c) detecting the marker (20) and detecting the approximate position (S12, S13), d) controlling the mobile robot (32), which has picked up the object (22) to be delivered, to the detected approximate position (S16), and e) depositing the object (22) by the mobile robot (32) (S20). Verfahren nach Anspruch 10, bei welchem zwischen den Schritten d) und e) folgende Schritte ausgeführt werden: d1) Erfassen der Markierung (20) durch den mobilen Roboter (32) (S12), d2) Ermitteln der genauen Position der Markierung (20) durch den mobilen Roboter (32) und d3) Steuern des mobilen Roboters (32) zur ermittelten Position.Procedure according to Claim 10 , in which the following steps are carried out between steps d) and e): d1) detecting the marking (20) by the mobile robot (32) (S12), d2) determining the exact position of the marking (20) by the mobile robot (32) and d3) controlling the mobile robot (32) to the determined position. Verfahren zur Aufnahme eines Objekts (22) von einem mobilen Roboter (32), wobei es sich bei dem mobilen Roboter (32) um eine Flugdrohne handelt, mit den Schritten: a) Erfassen des Objekts (22) und Erfassen der ungefähren Position (S12, S02), b) Steuern des mobilen Roboters (32) zur erfassten ungefähren Position (S05), c) Erfassen des Objekts (22) durch den mobilen Roboter (32) (S06) und d) magnetisches oder mechanisches, insbesondere greifendes, Aufnehmen des Objekts (22) durch den mobilen Roboter (32) (S09).A method for picking up an object (22) by a mobile robot (32), wherein the mobile robot (32) is an aerial drone, comprising the steps of: a) detecting the object (22) and detecting the approximate position (S12, S02), b) controlling the mobile robot (32) to the detected approximate position (S05), c) detecting the object (22) by the mobile robot (32) (S06), and d) magnetically or mechanically, in particular by gripping, picking up the object (22) by the mobile robot (32) (S09). Verfahren nach Anspruch 12, bei welchem zwischen den Schritten c) und d) folgende Schritte ausgeführt werden: c1) Ermitteln der genauen Position des Objekts (22) durch den mobilen Roboter (32) auf Grundlage der Erfassung des Objekts (22) (S07) und c2) Steuern des mobilen Roboters (32) zur ermittelten Position (S08).Procedure according to Claim 12 , in which the following steps are carried out between steps c) and d): c1) determining the exact position of the object (22) by the mobile robot (32) on the basis of the detection of the object (22) (S07) and c2) controlling the mobile robot (32) to the determined position (S08). Verfahren nach Anspruch 12 oder 13, bei welchem eine Markierung (20) erstellt wird, diese Markierung (20) an das Objekt (22) angebracht wird, die ungefähre Position der Markierung (20) erfasst wird und vom mobilen Roboter (32) die Markierung (20) erfasst wird, um die genaue Position des Objekts (22) zu ermitteln (S07).Procedure according to Claim 12 or 13 in which a marking (20) is created, this marking (20) is attached to the object (22), the approximate position of the marking (20) is detected and the mobile robot (32) detects the marking (20) in order to determine the exact position of the object (22) (S07). Verfahren nach Anspruch 10, 11 oder 14, bei welchem die Markierung (20) von einem Server (12) bereitgestellt wird.Procedure according to Claim 10 , 11 or 14 , in which the marking (20) is provided by a server (12). Verfahren nach Anspruch 10, 11, 14 oder 15, bei welchem aus dem Verhältnis zwischen der Markierung (20) und dem Objekt (22) bei der Erfassung die Größe des Objekts (22) bestimmt wird.Procedure according to Claim 10 , 11 , 14 or 15 , in which the size of the object (22) is determined from the relationship between the marking (20) and the object (22) during detection. Verfahren nach einem der Ansprüche 10 bis 16, bei welchem durch die Benutzereinheit (10) die Umgebung des Orts der Lieferung oder des abzuliefernden Objekts (22) erfasst.Method according to one of the Claims 10 until 16 , in which the user unit (10) detects the surroundings of the place of delivery or the object to be delivered (22). Verfahren nach einem der Ansprüche 10 bis 17, bei welchem durch den mobilen Roboter (32) die Umgebung der ungefähren Position erfasst wird.Procedure according to one of the Claims 10 until 17 , in which the surroundings of the approximate position are detected by the mobile robot (32). Verfahren nach einem der Ansprüche 10 bis 18 unter Verwendung eines Systems nach einem der Ansprüche 1 bis 9.Procedure according to one of the Claims 10 until 18 using a system according to one of the Claims 1 until 9 .
DE102015208445.0A 2015-05-06 2015-05-06 System for picking up and delivering objects Active DE102015208445B4 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
DE102015208445.0A DE102015208445B4 (en) 2015-05-06 2015-05-06 System for picking up and delivering objects

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
DE102015208445.0A DE102015208445B4 (en) 2015-05-06 2015-05-06 System for picking up and delivering objects

Publications (2)

Publication Number Publication Date
DE102015208445A1 DE102015208445A1 (en) 2016-11-10
DE102015208445B4 true DE102015208445B4 (en) 2025-08-07

Family

ID=57179110

Family Applications (1)

Application Number Title Priority Date Filing Date
DE102015208445.0A Active DE102015208445B4 (en) 2015-05-06 2015-05-06 System for picking up and delivering objects

Country Status (1)

Country Link
DE (1) DE102015208445B4 (en)

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102020134898A1 (en) * 2020-12-23 2022-06-23 Sensopart Industriesensorik Gmbh Target for determining a three-dimensional pose of an object
US11810049B2 (en) 2021-08-20 2023-11-07 Ford Global Technologies, Llc Systems and methods to generate a last mile travel route for a delivery robot

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20060126918A1 (en) 2004-12-14 2006-06-15 Honda Motor Co., Ltd. Target object detection apparatus and robot provided with the same
US20140277691A1 (en) 2013-03-15 2014-09-18 Cybernet Systems Corporation Automated warehousing using robotic forklifts
US8948935B1 (en) 2013-01-02 2015-02-03 Google Inc. Providing a medical support device via an unmanned aerial vehicle
WO2015177760A2 (en) 2014-05-23 2015-11-26 Zhou Tiger Unmanned drone, robot system for delivering mail, goods, humanoid security, crisis negotiation, mobile payments, smart humanoid mailbox and wearable personal exoskeleton heavy load flying machine

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20060126918A1 (en) 2004-12-14 2006-06-15 Honda Motor Co., Ltd. Target object detection apparatus and robot provided with the same
US8948935B1 (en) 2013-01-02 2015-02-03 Google Inc. Providing a medical support device via an unmanned aerial vehicle
US20140277691A1 (en) 2013-03-15 2014-09-18 Cybernet Systems Corporation Automated warehousing using robotic forklifts
WO2015177760A2 (en) 2014-05-23 2015-11-26 Zhou Tiger Unmanned drone, robot system for delivering mail, goods, humanoid security, crisis negotiation, mobile payments, smart humanoid mailbox and wearable personal exoskeleton heavy load flying machine

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
D. F. Glas, S. Satake, F. Ferreri, T. Kanda, N. Hagita: The Network Robot System: Enabling Social Human-Robot Interaction in Public Spaces. In: Journal of Human-Robot Interaction, Vol. 1, 2012, No. 2, 5-32.

Also Published As

Publication number Publication date
DE102015208445A1 (en) 2016-11-10

Similar Documents

Publication Publication Date Title
EP3105547B1 (en) Method for determining the absolute position of a mobile unit, and mobile unit
EP3432108B1 (en) Method and control device for autonomous and/or partly autonomous transport vehicle
EP3056923B1 (en) Scanning assembly and method for scanning an object
EP3323770A1 (en) Method for providing the positions of storage areas in a warehouse and an industrial truck
DE102017128543A1 (en) INTERFERENCE ADJUSTMENT DEVICE FOR A MOBILE ROBOT
EP2568310A2 (en) Method, system and device for locating a vehicle relative to a predefined reference system
EP3416401B1 (en) Mobile transport device for transporting data collectors, data collection system and data collection method
DE102015210118B4 (en) Method and device for supporting the parking out of a vehicle
DE102017213601A1 (en) Method of creating an object map for a factory environment
EP3815012B1 (en) Mobile device for inventorying warehouse stocks
DE102015208445B4 (en) System for picking up and delivering objects
EP3333116A1 (en) Method for automatic alignment of an industrial truck in a warehouse and system consisting of an industrial truck and a warehouse
WO2022207215A1 (en) Method and system for load detection in an industrial truck
DE102008064440A1 (en) Navigation for especially unmanned vehicles
EP1172183A2 (en) Device and arrangement for generating corrected motion data for predefined motion of a mobile installation, mobile installation and system comprising mobile installations
DE102019128253B4 (en) Procedure for navigating an industrial truck
DE102021109613A1 (en) Method and system for load detection in an industrial truck
EP2703920B1 (en) Method for teaching a machine controller
DE102017220634B4 (en) Arrangement and procedure
DE102015210757A1 (en) logistics system
EP3839687B1 (en) Method of operating an automated industrial vehicle, and intralogistics system and industrial vehicle for carrying out the method
DE102022118151A1 (en) Driverless transport system
EP3999811B1 (en) Provision and transmission of position data of the surroundings of a motor vehicle
DE102023208369A1 (en) Method for calibrating one or more cameras of a mobile device
EP4608757A1 (en) Method for controlling a drone within a shaft

Legal Events

Date Code Title Description
R012 Request for examination validly filed
R016 Response to examination communication
R016 Response to examination communication
R016 Response to examination communication
R018 Grant decision by examination section/examining division