WO2018179436A1 - 探索支援プログラム、探索支援方法および探索支援装置 - Google Patents
探索支援プログラム、探索支援方法および探索支援装置 Download PDFInfo
- Publication number
- WO2018179436A1 WO2018179436A1 PCT/JP2017/013843 JP2017013843W WO2018179436A1 WO 2018179436 A1 WO2018179436 A1 WO 2018179436A1 JP 2017013843 W JP2017013843 W JP 2017013843W WO 2018179436 A1 WO2018179436 A1 WO 2018179436A1
- Authority
- WO
- WIPO (PCT)
- Prior art keywords
- search
- terminal
- rescue
- wireless terminal
- map
- Prior art date
Links
Images
Classifications
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01S—RADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
- G01S5/00—Position-fixing by co-ordinating two or more direction or position line determinations; Position-fixing by co-ordinating two or more distance determinations
- G01S5/02—Position-fixing by co-ordinating two or more direction or position line determinations; Position-fixing by co-ordinating two or more distance determinations using radio waves
- G01S5/04—Position of source determined by a plurality of spaced direction-finders
-
- G—PHYSICS
- G08—SIGNALLING
- G08B—SIGNALLING OR CALLING SYSTEMS; ORDER TELEGRAPHS; ALARM SYSTEMS
- G08B25/00—Alarm systems in which the location of the alarm condition is signalled to a central station, e.g. fire or police telegraphic systems
- G08B25/01—Alarm systems in which the location of the alarm condition is signalled to a central station, e.g. fire or police telegraphic systems characterised by the transmission medium
- G08B25/04—Alarm systems in which the location of the alarm condition is signalled to a central station, e.g. fire or police telegraphic systems characterised by the transmission medium using a single signalling line, e.g. in a closed loop
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04M—TELEPHONIC COMMUNICATION
- H04M1/00—Substation equipment, e.g. for use by subscribers
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04W—WIRELESS COMMUNICATION NETWORKS
- H04W4/00—Services specially adapted for wireless communication networks; Facilities therefor
- H04W4/02—Services making use of location information
Definitions
- the present invention relates to a search support program, a search support method, and a search support apparatus.
- disaster rescue dogs When searching for victims buried in rubble during disasters, disaster rescue dogs may be used. When the disaster rescue dog enters the disaster-stricken area, the disaster rescue dog starts searching for the disaster victims together with members such as fire fighters. In addition, it has been proposed to use a communication line such as a mobile phone to acquire information from a device that observes the behavior of a pet or the like that the watched person is taking and detect an abnormal state of the watched person. .
- the communication line may become unable to communicate due to congestion, and even if the victim has a mobile phone or the like, rescue may not be requested.
- a member accompanying the disaster rescue dog may visually check the disaster area while the disaster rescue dog searches for the victim. For this reason, it is not known where the victim is buried, and the search for the victim may be inefficient.
- One aspect is to provide a search support program, a search support method, and a search support apparatus that can support efficient search.
- the search support program causes the computer to execute processing for acquiring the positions and reception strengths of the plurality of wireless terminals based on the received radio waves from the plurality of wireless terminals.
- a search assistance program makes a computer perform the process which extracts the radio
- the search support program causes the computer to execute a process for displaying the search range at the position corresponding to the extracted wireless terminal with the enhancement degree corresponding to the corresponding reception intensity.
- FIG. 1 is a diagram illustrating an example of the configuration of the search support system according to the embodiment.
- FIG. 2 is a diagram illustrating an example of terminal position detection by a drone.
- FIG. 3 is a block diagram illustrating an example of the configuration of the server according to the embodiment.
- FIG. 4 is a diagram illustrating an example of the captured image storage unit.
- FIG. 5 is a diagram illustrating an example of a disaster area storage unit.
- FIG. 6 is a diagram illustrating an example of the search target storage unit.
- FIG. 7 is a diagram illustrating an example of a rescue dog information storage unit.
- FIG. 8 is a diagram illustrating an example of a wind direction information storage unit.
- FIG. 9 is a diagram illustrating an example of identification of a disaster area.
- FIG. 1 is a diagram illustrating an example of the configuration of the search support system according to the embodiment.
- FIG. 2 is a diagram illustrating an example of terminal position detection by a drone.
- FIG. 3 is a block
- FIG. 10 is a diagram illustrating an example of the display of the identified disaster area.
- FIG. 11 is a diagram illustrating an example of the display of the detected terminal.
- FIG. 12 is a diagram illustrating an example of the display of the extracted search target terminal.
- FIG. 13 is a diagram illustrating an example of a display of rescue dogs.
- FIG. 14 is a diagram illustrating an example of an enlarged display of a disaster area.
- FIG. 15 is a diagram illustrating an example of a display of a route approaching from the leeward.
- FIG. 16 is a diagram illustrating an example of a detour route display.
- FIG. 17 is a diagram illustrating an example of a rescue dog schedule management display.
- FIG. 18 is a diagram illustrating an example of display of rescue dog search status.
- FIG. 19 is a flowchart illustrating an example of search support processing according to the embodiment.
- FIG. 20 is a diagram illustrating an example of a computer that executes a search support program.
- FIG. 1 is a diagram illustrating an example of a configuration of a search support system according to an embodiment.
- a search support system 1 illustrated in FIG. 1 is a system that supports searching for a plurality of terminals 10, and includes a drone 20, a gateway 30, a rescue dog terminal 40, a command terminal 50, and a server 100. That is, the search support system 1 is a system that supports the search for the victim based on the information of the terminal 10 possessed by the victim buried in the rubble during a disaster. Note that the numbers of the drone 20, the gateway 30, the rescue dog terminal 40, and the command terminal 50 are not limited, and the search support system 1 includes an arbitrary number of the drone 20, the gateway 30, the rescue dog terminal 40, and the command terminal 50. May be.
- the drone 20 and the rescue dog terminal 40 and the server 100 are connected via the gateway 30 and the network N so that they can communicate with each other. Further, the command terminal 50 and the server 100 are connected to each other via a network N so that they can communicate with each other.
- a network N any type of communication network such as the Internet, LAN (Local Area Network), and VPN (Virtual Private Network) can be adopted regardless of wired or wireless.
- the drone 20 and the rescue dog terminal 40 and the gateway 30 are connected by wireless communication such as a wireless LAN or a mobile phone line, for example.
- the terminal 10 is an example of a wireless terminal such as a mobile phone or a smartphone owned by a disaster victim.
- the terminal 10 periodically transmits radio waves in order to communicate with the base station even during standby.
- a present Example demonstrates the case where the drone 20 receives the electromagnetic wave which the terminal 10 transmits, and detects the position of the terminal 10 based on a received electromagnetic wave.
- the drone 20 is, for example, a multicopter which is a kind of small unmanned aerial vehicle (UAV: Unmanned Aero Vehicle). That is, the drone 20 is an example of a flying object.
- the drone 20 includes, for example, a receiver that receives radio waves transmitted by the terminal 10, an imaging device that captures the disaster area, an acquired captured image, and a communication device that transmits the position of the terminal 10 and the reception intensity of the radio waves. And have.
- An antenna having directivity is connected to the receiver, and the approximate direction of the terminal 10 can be specified.
- the drone 20 takes off from the vicinity of the disaster area and images the area including the disaster area from above.
- the drone 20 transmits the captured image including the captured disaster area to the server 100 through the gateway 30 and the network N together with information such as the imaging position, the imaging date and time, and the imaging direction.
- the drone 20 rotates at a plurality of points in the vicinity of the disaster area, thereby sweeping the antenna directivity (beam) and searching for the radio waves of the terminal 10.
- the drone 20 detects the position of the terminal 10 based on the search results of the radio waves of the terminal 10 at a plurality of points.
- FIG. 2 is a diagram illustrating an example of terminal position detection by a drone.
- the drone 20 receives the radio wave 62a from the terminal 10, for example, when the beam 61a is swept by rotating at a point 60a. That is, the drone 20 detects the presence of the terminal 10. Thereafter, the drone 20 moves to the point 60b and rotates again to sweep the beam 61b and receive the radio wave 62b from the terminal 10. Further, the drone 20 moves to the point 60c and rotates again to sweep the beam 61c and receive the radio wave 62c from the terminal 10.
- the drone 20 detects the position of the terminal 10 based on the reception intensity of the radio waves 62a, 62b, 62c at the points 60a, 60b, 60c and the directions of the beams 61a, 61b, 61c. That is, the drone 20 sets the position of the terminal 10 at a point where the direction and distance in which the terminal 10 is detected at a plurality of points overlap.
- the drone 20 similarly detects the position of each of the plurality of terminals 10 and transmits the detected position and reception intensity to the server 100 via the gateway 30 and the network N.
- the reception strength that is, the strength of radio waves depends on the distance to the terminal 10. That is, when the radio wave is strong, the distance from the drone 20 to the terminal 10 is short, and when the radio wave is weak, the distance from the drone 20 to the terminal 10 is long.
- the reception intensity of the radio waves 62a, 62b, and 62c also changes depending on how the victim's terminal 10 is buried in the rubble. That is, the strength of radio waves depends on the state in which the terminal 10 is buried in rubble as another viewpoint. That is, when the radio wave is strong, the terminal 10 is shallowly buried in the rubble and the search range is limited. Therefore, the conductor can determine that the search is immediately performed by the rescue dog.
- the terminal 10 when the radio wave is weak, the terminal 10 is buried deeply in the rubble. For this reason, when displaying the search range on the map based on the reception intensity, the distance is close when the reception intensity is weak by determining the presence or absence of debris based on the captured image captured by the drone 20. You can determine whether it is buried in rubble or just far away. Whether the conductor considers the position of the terminal 10 detected by the drone 20 and the information, and directs the rescue dog he / she leads to rescue or leaves the rescue dog led by another rescue team member Can be judged.
- the gateway 30 is arranged in the vicinity of the disaster area and is connected to the drone 20 and the rescue dog terminal 40 by wireless communication such as a wireless LAN or a mobile phone line. That is, the gateway 30 is a gateway for connecting the drone 20 and the rescue dog terminal 40 to the network N. That is, the gateway 30 relays communication between the drone 20 and the rescue dog terminal 40 and the server 100 via itself and the network N.
- the rescue dog terminal 40 is a wireless terminal equipped in a rescue dog or a rescue crew member who uses the rescue dog.
- the rescue dog terminal 40 includes a positioning sensor for positioning a position such as GPS (Global Positioning System), and a communication device for communicating with the server 100 via the gateway 30 and the network N.
- the rescue dog terminal 40 may be a wireless terminal that periodically transmits position information such as a so-called GPS tracker.
- the rescue crew members are equipped with the rescue dog terminal 40, for example, by using a smartphone or the like, the map information transmitted from the server 100, information related to the rescue dog, or the like may be displayed. .
- the rescue dog terminal 40 periodically transmits, for example, position information measured every minute to the server 100 via the gateway 30 and the network N.
- the command terminal 50 is an information processing apparatus that performs instructions to the drone 20, grasps the search status of rescue dogs equipped with the rescue dog terminal 40, schedule management of rescue dogs, and the like.
- a portable or stationary personal computer can be used for the command terminal 50.
- the command terminal 50 may be a mobile communication terminal such as a tablet terminal or a smartphone.
- the command terminal 50 is connected to the server 100 via the network N, instructs the server 100 to perform various processes, and displays the results of various processes in the server 100.
- the command terminal 50 presents information on the affected area to the conductor by displaying a map in GIS (Geographic Information System) and various information plotted on the map, for example.
- GIS Geographic Information System
- the server 100 is an information processing apparatus that acquires information such as a captured image, position information, and reception intensity from the drone 20 and the rescue dog terminal 40 and provides a GIS function and the like to the command terminal 50.
- the server 100 is an example of a search support device.
- the server 100 acquires the positions and reception strengths of the plurality of terminals 10 based on the received radio waves from the plurality of terminals 10.
- the server 100 extracts the terminal 10 corresponding to the position included in the disaster area from the acquired positions as the search target terminal 10.
- the server 100 causes the command terminal 50 to display a display screen in which the search range is displayed at the position corresponding to the extracted terminal 10 with the enhancement degree corresponding to the corresponding reception intensity. Thereby, the server 100 can assist so that the search can be performed efficiently.
- the server 100 extracts the terminal 10 corresponding to the position included in the disaster area as the search target terminal 10.
- the server 100 acquires the position of the rescue dog terminal 40 mounted on the rescue dog.
- the server 100 causes the command terminal 50 to display a display screen in which the position of the rescue dog terminal 40 mounted on the acquired rescue dog and the position of the search target terminal 10 are displayed on a map.
- the server 100 causes the command terminal 50 to display a display screen displaying data indicating the wind direction observed for one or a plurality of locations on the map along with the display of the position.
- the server 100 can assist so that the search can be performed efficiently.
- FIG. 3 is a block diagram illustrating an example of the configuration of the server according to the embodiment.
- the server 100 includes a communication unit 110, a display unit 111, an operation unit 112, a storage unit 120, and a control unit 130.
- the server 100 may include various functional units included in known computers, for example, functional units such as various input devices and audio output devices, in addition to the functional units illustrated in FIG. 3.
- the communication unit 110 is realized by, for example, a NIC (Network Interface Card).
- the communication unit 110 is connected to the drone 20, the rescue dog terminal 40, and the command terminal 50 via the network N in a wired or wireless manner, and manages information communication between the drone 20, the rescue dog terminal 40 and the command terminal 50. It is a communication interface.
- the communication unit 110 outputs the captured image received from the drone 20, the detected position of the terminal 10, and the reception intensity of the radio wave to the control unit 130.
- the communication unit 110 outputs the position information received from the rescue dog terminal 40 to the control unit 130.
- the communication unit 110 transmits various display information in the GIS input from the control unit 130 to the command terminal 50.
- the display unit 111 is a display device for displaying various information to the administrator of the server 100.
- the display unit 111 is realized by, for example, a liquid crystal display as a display device.
- the display unit 111 displays various screens such as a display screen input from the control unit 130.
- the operation unit 112 is an input device that receives various operations from the administrator of the server 100.
- the operation unit 112 is realized by, for example, a keyboard or a mouse as an input device.
- the operation unit 112 outputs an operation input by the administrator to the control unit 130 as operation information.
- the operation unit 112 may be realized by a touch panel or the like as an input device, and the display device of the display unit 111 and the input device of the operation unit 112 may be integrated.
- the storage unit 120 is realized by, for example, a semiconductor memory element such as a RAM (Random Access Memory) or a flash memory, or a storage device such as a hard disk or an optical disk.
- the storage unit 120 includes a map information storage unit 121, a captured image storage unit 122, a disaster area storage unit 123, a search target storage unit 124, a rescue dog information storage unit 125, and a wind direction information storage unit 126.
- the storage unit 120 stores information used for processing in the control unit 130.
- the map information storage unit 121 stores various GIS map information.
- the map information storage unit 121 stores, for example, topographic maps, attribute information related to features such as buildings, geodetic systems (for example, the world geodetic system (WGS84)), scales, and the like.
- the map information storage unit 121 stores the map information as raster data or vector data, for example.
- the map information storage unit 121 also stores captured images such as aerial photographs and satellite images in a normal state in association with the map. Further, the map information storage unit 121 may store map information to which various types of information described later are added.
- the captured image storage unit 122 stores a captured image captured by the drone 20.
- FIG. 4 is a diagram illustrating an example of the captured image storage unit. As illustrated in FIG. 4, the captured image storage unit 122 includes items such as “image ID (Identifier)”, “imaging position”, “imaging date / time”, “imaging direction”, and “file name”. The captured image storage unit 122 stores, for example, one record for each image ID.
- Imaging ID is an identifier for identifying a captured image.
- the “imaging position” is information indicating a position where the captured image is captured.
- the “imaging position” is represented by longitude and latitude, and is based on a geodetic system such as the world geodetic system (WGS84), for example.
- GSS84 world geodetic system
- Imaging date and time is information indicating the date and time when the captured image was captured.
- Imaging direction is information indicating in which direction the drone 20 has imaged.
- the “imaging direction” can be expressed by, for example, an angle with reference to the north (a round is 360 °).
- the “file name” is information indicating an image file which is data of a captured image stored in a predetermined directory, for example. Note that the captured image storage unit 122 may directly store captured image data instead of the file name.
- the disaster area storage unit 123 stores information on the disaster area specified according to the difference between the captured image captured by the drone 20 and the past captured image at the corresponding position.
- FIG. 5 is a diagram illustrating an example of a disaster area storage unit. As illustrated in FIG. 5, the disaster area storage unit 123 includes items such as “area ID”, “center position”, “range”, and “side direction”. The disaster area storage unit 123 stores, for example, one record for each area ID.
- “Region ID” is an identifier for identifying the affected area.
- “Center position” is information indicating the position of the center of the affected area. The “center position” is represented by longitude and latitude, and is based on a geodetic system such as the world geodetic system (WGS84), for example.
- “Range” is information indicating the range of the affected area. The “range” can be a square, for example, and can be represented by the length of one side of the square.
- the “direction of side” is information indicating the direction of one side of a square in the disaster area, for example.
- the search target storage unit 124 stores the position information, reception intensity, and the like of the terminal 10 extracted as the search target.
- FIG. 6 is a diagram illustrating an example of the search target storage unit. As illustrated in FIG. 6, the search target storage unit 124 includes items such as “terminal ID”, “position information”, “reception strength”, “search range”, and “searched”. The search target storage unit 124 stores, for example, one record for each terminal ID.
- “Terminal ID” is an identifier for identifying the terminal 10 extracted as a search target.
- the “position information” is information indicating the position of the detected terminal 10 received from the drone 20.
- “Position information” is expressed by longitude and latitude, and is based on a geodetic system such as the world geodetic system (WGS84), for example.
- “Reception strength” is information indicating the reception strength of the radio wave received from the detected terminal 10 received from the drone 20.
- “Search range” is information indicating the size of the search range set in accordance with the reception strength. The “search range” is, for example, classified into three levels of strong, medium, and weak reception intensity, and “levels 1 to 3” are set for each.
- “Level 1” has the narrowest search range, for example, a radius of about m.
- “Level 2” can be set to an intermediate search range, for example, a radius of about several tens of meters.
- “Level 3” has the widest search range, for example, a radius of about 20 to 30 m. Note that the search range may be widened when the reception strength is strong. For the “search range”, for example, numerical values such as a radius and a diameter may be directly used.
- “Searched” is information indicating whether or not the rescue dog has searched for the terminal 10 to be searched. “Searched” is “Y” when the terminal 10 has been searched, and “N” when the terminal 10 has not been searched.
- the rescue dog information storage unit 125 stores the current position information and the searched trajectory information in association with each rescue dog.
- FIG. 7 is a diagram illustrating an example of a rescue dog information storage unit. As illustrated in FIG. 7, the rescue dog information storage unit 125 includes items such as “rescue dog terminal ID”, “rescue dog name”, “order”, “position information”, and “trajectory information”. The rescue dog information storage unit 125 stores, for example, one record for each rescue dog terminal ID.
- “Rescue dog terminal ID” is an identifier for identifying the rescue dog terminal 40.
- “Rescue dog name” is information indicating the name of the rescue dog.
- “Order” is information indicating the order in which rescue dogs search.
- “Position information” is information indicating the current position of the rescue dog terminal 40.
- “Position information” is expressed by longitude and latitude, and is based on a geodetic system such as the world geodetic system (WGS84), for example.
- the “trajectory information” is information indicating the travel route searched by the rescue dog, and stores the date and position information in association with each other.
- the wind direction information storage unit 126 stores, for example, information on the wind direction and the like of each point input by a rescue crew member who uses the rescue dog.
- the wind direction information may be obtained from external weather stations.
- FIG. 8 is a diagram illustrating an example of a wind direction information storage unit. As shown in FIG. 8, the wind direction information storage unit 126 includes items such as “point ID”, “position information”, “wind direction”, and “wind force”.
- the wind direction information storage unit 126 stores, for example, one record for each point ID.
- “Point ID” is an identifier for identifying a point where information such as wind direction and wind force is observed.
- Position information is information indicating the position of the observation point.
- Position information is expressed by longitude and latitude, and is based on a geodetic system such as the world geodetic system (WGS84), for example.
- Wind direction is information indicating the wind direction, and for example, a 16-direction stippling formula (for example, notation such as south-southeast) can be used.
- “Wind force” is information indicating the strength of the wind, and can be expressed using, for example, the Japan Meteorological Agency wind class.
- control unit 130 executes, for example, a program stored in an internal storage device using a RAM as a work area by a CPU (Central Processing Unit), an MPU (Micro Processing Unit), or the like. Is realized.
- the control unit 130 may be realized by an integrated circuit such as ASIC (Application Specific Integrated Circuit) or FPGA (Field Programmable Gate Array).
- the control unit 130 includes an acquisition unit 131, an extraction unit 132, a display control unit 133, and a specification unit 134, and realizes or executes functions and operations of information processing described below.
- the internal configuration of the control unit 130 is not limited to the configuration illustrated in FIG. 3, and may be another configuration as long as the information processing described below is performed.
- the display control unit 133 of the server 100 that transmits and displays the GIS map information via the network N to the command terminal 50 may be simply expressed as a map.
- the acquisition unit 131 receives and acquires a captured image of an area including the disaster area from the drone 20 through the gateway 30, the network N, and the communication unit 110 together with information such as an imaging position, an imaging date and an imaging direction.
- the acquisition unit 131 refers to the map information storage unit 121 and obtains a difference from a past captured image corresponding to the acquired captured image, that is, a normal captured image, based on the captured position.
- the acquisition unit 131 identifies a disaster area based on the difference.
- the acquisition unit 131 outputs information on the target area including the identified disaster area to the extraction unit 132.
- the acquisition unit 131 When the acquisition unit 131 specifies the disaster area, the acquisition unit 131 receives the positions and reception strengths of the plurality of terminals 10 transmitted from the drone 20 following the captured image via the gateway 30, the network N, and the communication unit 110. get. The acquisition unit 131 outputs the acquired position and reception intensity of the plurality of terminals 10, that is, the position information and reception intensity of each terminal 10 to the extraction unit 132.
- the acquisition unit 131 receives and acquires position information from the rescue dog terminal 40 via the gateway 30, the network N, and the communication unit 110.
- the acquisition unit 131 outputs the acquired position information of the rescue dog terminal 40 to the extraction unit 132 and stores it in the rescue dog information storage unit 125.
- the rescue dog information storage unit 125 stores past position information of the rescue dog terminal 40 as trajectory information.
- the acquisition part 131 acquires the wind direction information, such as the wind direction of each point and the wind force which the rescue crew member who uses a rescue dog etc. input, for example.
- the acquisition unit 131 stores the acquired wind direction information in the wind direction information storage unit 126. Note that the wind direction information may be obtained from external weather stations.
- FIG. 9 is a diagram illustrating an example of identification of a disaster area.
- the acquisition unit 131 refers to the map information storage unit 121 and acquires a normal captured image 63b corresponding to the acquired captured image 63a.
- the acquisition unit 131 obtains a difference between the captured image 63a and the captured image 63b using, for example, a background difference method.
- the acquisition unit 131 identifies the disaster area 64 based on the obtained difference.
- FIG. 10 is a diagram showing an example of the display of the identified disaster area.
- a map 65 illustrated in FIG. 10 is an example of a display when the disaster areas 64a, 64b, and 64c specified by the acquisition unit 131 are reflected in the GIS.
- the disaster areas 64a, 64b, and 64c are represented by rectangles with respect to the map 65 of the area including the disaster area.
- the extraction unit 132 refers to the map information storage unit 121 and acquires map information based on the information on the target area.
- the extraction unit 132 adds the disaster area included in the target area information to the acquired map information.
- the extraction unit 132 adds the position of each terminal 10 to the map information to which the affected area is added based on the position information of each terminal 10. That is, in the display on the map of GIS, the disaster area and the terminal 10 detected in the target area are displayed on the map.
- FIG. 11 is a diagram illustrating an example of the display of the detected terminal.
- disaster areas 64 a, 64 b, 64 c and detected positions 66 of the detected terminals 10 are shown on a map 65.
- the detection positions 66 other than the disaster areas 64a, 64b, and 64c are positions of the terminal 10 of the person who is not buried in the rubble.
- the terminals 10 at the detection positions 66b and 66c may be distinguished from each other based on the difference that there is no movement and the terminals 10 at the other detection positions 66 have movement.
- the extraction unit 132 extracts the search target terminal 10 in the disaster area for the map information to which the disaster area and the position of each terminal 10 are added. That is, in the example of FIG. 11, the extraction unit 132 extracts the terminals 10 at the detection positions 66 b and 66 c as the search target terminals 10. The extraction unit 132 excludes positions other than the search target terminal 10 from the positions of the terminals 10 added to the map information. That is, the extraction unit 132 extracts the terminal 10 corresponding to the position included in the disaster area as the terminal 10 to be searched. Moreover, the extraction part 132 adds the positional information on the rescue dog terminal 40 to map information.
- the extraction unit 132 adds the location information of the disaster area, the search target terminal 10 in the disaster area, and the location information of the rescue dog terminal 40 to the map information acquired from the map information storage unit 121. Generate information.
- the extraction unit 132 outputs the map information to which the generated various information is added to the display control unit 133.
- the display control unit 133 transmits the input map information to the command terminal 50 through the communication unit 110 and the network N and displays the map information. That is, as the display of the GIS on the command terminal 50, a map to which the disaster area, the position information of the terminal 10 to be searched in the disaster area, and the position information of the rescue dog terminal 40 are added is displayed.
- FIG. 12 is a diagram illustrating an example of the display of the extracted search target terminal.
- the position 67 of the dog terminal 40 is shown.
- the rescue dog is heading toward the disaster area 64c.
- the position 67 of the rescue dog terminal 40 may be displayed with characters indicating the name of the rescue dog in addition to the dog mark. That is, in the display on the map of GIS, the position 67 of the rescue dog terminal 40 mounted on the rescue dog is displayed on the map 65 with characters or marks corresponding to the dog.
- FIG. 13 is a diagram illustrating an example of a display of rescue dogs.
- the disaster areas 64a, 64b, 64c, the detection position 66b of the search target terminal 10 in the disaster area 64b, the detection position 66c of the search target terminal 10 in the disaster area 64c, and the search The position 67 of the rescue dog terminal 40 inside is shown.
- a standby rescue dog icon 68 is displayed on the map 65 as compared to FIG. 12.
- the display control unit 133 When the display control unit 133 receives an instruction to enlarge the vicinity of the damaged area from the command terminal 50 on the GIS, the display control unit 133 causes the command terminal 50 to display map information in which the damaged area is enlarged. Further, the display control unit 133 displays a search range corresponding to the reception intensity of the radio wave on the GIS around the detection position of the search target terminal 10 in the enlarged display. That is, the display control unit 133 displays a search range according to the position of the search target terminal 10 on the map.
- FIG. 14 is a diagram showing an example of an enlarged display of the affected area.
- the search range 70 d of the detection position 66 d in the map 69 is a search range when the reception intensity of the radio wave received from the search target terminal 10 is weak and the search range is “level 3”, which is the widest. It is a display example.
- the display control unit 133 searches in real time based on the position information of the rescue dog terminal 40 even when the rescue dog approaches the detection position of the search target terminal 10 even if the reception intensity is weak. The range may be reduced.
- the position 67 of the rescue dog terminal 40 being searched is approaching the detection position 66e.
- the search range 70e of the detection position 66e is, for example, a display of a search range corresponding to “level 1” having the narrowest search range from the initial “level 3”. That is, the search range 70e indicates that the search progresses and the search range is reduced as the rescue dog approaches the search target terminal 10.
- the display control unit 133 displays the search range at the position corresponding to the extracted terminal 10 with the enhancement degree corresponding to the corresponding reception intensity. Further, the display control unit 133 may display the search range wider or red as the reception intensity is higher.
- FIG. 15 is a diagram illustrating an example of a display of a route approaching from the leeward.
- a map 71 shown in FIG. 15 displays the position 67 of the rescue dog terminal 40 of the rescue dog that is heading toward the detection position 73 of the search target terminal 10 in the disaster area 72.
- the wind direction information 74 is displayed on the map 71, and it can be seen that the rescue dog is heading toward the detection position 73 from the leeward side.
- the display control unit 133 displays the position 67 of the rescue dog terminal 40 mounted on the acquired rescue dog and the position of the terminal 10 to be searched on the map, and one or more locations on the map. Displays data indicating the observed wind direction.
- the display control unit 133 determines whether or not an instruction to display the rescue dog's movement route is received from the command terminal 50 on the GIS. That is, the display control unit 133 determines whether or not to display the rescue dog's movement route on the map. If the display control unit 133 determines to display the travel route of the rescue dog on the map, the display control unit 133 outputs a specific instruction to the specifying unit 134. If the display control unit 133 determines that the travel route of the rescue dog is not displayed on the map, the display control unit 133 determines whether an instruction to end the search is received from the command terminal 50. That is, the display control unit 133 determines whether to end the search.
- the display control unit 133 If it is determined that the search is not terminated, the display control unit 133 returns to the process of acquiring the positions and reception strengths of the plurality of terminals 10 and performs a series of search support processes. If the display control unit 133 determines to end the search, the display support unit 133 ends the search support process.
- the display control unit 133 displays the input movement route of the rescue dog on the GIS map.
- the display control unit 133 determines whether or not to end the above search.
- a specific instruction is input to the specifying unit 134 from the display control unit 133.
- the specifying unit 134 refers to the disaster area storage unit 123, the search target storage unit 124, and the rescue dog information storage unit 125, and the disaster area, the position information of the terminal 10 to be searched, and the rescue Based on the position information of the dog terminal 40, the rescue route of the rescue dog is specified.
- the specifying unit 134 can specify the movement route so as to bypass the disaster area from the current position of the rescue dog.
- the specifying unit 134 outputs the specified moving route of the rescue dog to the display control unit 133.
- FIG. 16 is a diagram showing an example of a display of a detour route.
- the disaster areas 76a to 76e are displayed, and the detection positions 77a, 77b, and 77e of the search target terminal 10 are displayed in the disaster areas 76a, 76b, and 76e.
- the rescue dog that has finished searching for the detection position 77a is going to the detection position 77b.
- the specifying unit 134 specifies the movement route of each of the plurality of rescue dogs so that the area of the search range of the plurality of terminals 10 to be searched is minimized. You may make it do. In this case, the specifying unit 134 outputs each moving route to the display control unit 133 so that each specified moving route can be displayed on the map in association with each corresponding rescue dog.
- the specifying unit 134 may refer to the wind direction information storage unit 126 and specify the movement route of each of the rescue dogs based on the wind direction information in the disaster area, that is, the data indicating the wind direction.
- the server 100 may provide rescue dog schedule management and search records as information on the GIS to the command terminal 50.
- the display on the command terminal 50 in this case will be described with reference to FIGS. 17 and 18. .
- FIG. 17 is a view showing an example of a display of rescue dog schedule management.
- FIG. 17 is a display example of schedule management when three rescue dogs, for example, “John”, “Pochi”, and “Taro” are dispatched to the affected area. Since the search time for rescue dogs is about 20 to 30 minutes per head, a plurality of rescue dogs are rotated and searched. In the example of FIG. 17, the search is performed in the order of “John”, “Pochi”, and “Taro”. Further, when using a plurality of rescue dogs, it is required that the disaster areas searched by the rescue dogs do not overlap. For this reason, the server 100 displays the search status of each rescue dog on the GIS map so that the conductor can know the searched range at a glance.
- FIG. 18 is a diagram showing an example of a display of rescue dog search status.
- an icon 80 indicating the rescue dog “John”, a range 81 where “John” has searched, a detection position 82 of the terminal 10 to be searched, and “John” have searched.
- Wind direction information 83 indicating the wind direction at the time is displayed.
- the map 79 includes an icon 84 indicating the rescue dog “Pochi”, a range 85 where “Pochi” has searched, a detection position 86 of the terminal 10 to be searched, and “Pochi” when searching.
- Wind direction information 87 indicating the wind direction is displayed.
- the conductor looks at the map 79, and the area searched by the rescue dog “Taro” searching third, the area 81 searched by “John”, and “Pochi” searched In order not to overlap with the range 85, a rescue route member who uses the “tallow” can be instructed to move.
- FIG. 19 is a flowchart illustrating an example of search support processing according to the embodiment.
- the acquisition unit 131 of the server 100 receives and acquires the captured image of the area including the disaster area from the drone 20 together with information such as the imaging position, the imaging date and time, and the imaging direction.
- the acquisition unit 131 refers to the map information storage unit 121 and obtains a difference from a past captured image corresponding to the acquired captured image, that is, a normal captured image, based on the captured position.
- the acquisition unit 131 identifies the disaster area based on the difference (step S1).
- the acquisition unit 131 outputs information on the target area including the identified disaster area to the extraction unit 132.
- the acquisition unit 131 receives and acquires the position information and reception strengths of the plurality of terminals 10 from the drone 20 (step S2).
- the acquisition unit 131 outputs the position information and reception intensity of each terminal 10 to the extraction unit 132.
- the acquisition unit 131 receives and acquires position information from the rescue dog terminal 40 (step S3).
- the acquisition unit 131 outputs the acquired position information of the rescue dog terminal 40 to the extraction unit 132 and stores it in the rescue dog information storage unit 125.
- the extraction unit 132 receives information on the target area, position information and reception intensity of each terminal 10, and position information of the rescue dog terminal 40 from the acquisition unit 131.
- the extraction unit 132 refers to the map information storage unit 121 and acquires map information based on the information on the target area.
- the extraction unit 132 adds the disaster area included in the target area information and the position of each terminal 10 to the acquired map information.
- the extraction unit 132 extracts the search target terminal 10 in the disaster area for the map information to which the disaster area and the position of each terminal 10 are added (step S4).
- the extraction unit 132 adds map information obtained by adding, to the map information acquired from the map information storage unit 121, the disaster area, the position information of the terminal 10 to be searched in the disaster area, and the position information of the rescue dog terminal 40. Generate.
- the extraction unit 132 outputs the map information to which the generated various information is added to the display control unit 133.
- the display control unit 133 transmits the input map information to the command terminal 50 for display. That is, the display control unit 133 displays the positions of the search target terminal 10 and the rescue dog terminal 40 on the GIS map (step S5).
- the display control unit 133 When the display control unit 133 receives an instruction to enlarge the vicinity of the damaged area from the command terminal 50 on the GIS, the display control unit 133 causes the command terminal 50 to display map information in which the damaged area is enlarged. In the enlarged display, the display control unit 133 displays a search range corresponding to the position of the search target terminal 10 on the map corresponding to the reception intensity of the radio wave (step S6). In addition, the display control unit 133 refers to the wind direction information storage unit 126 and acquires the wind direction information of the affected area. The display control unit 133 adds the acquired wind direction information to the map information, and displays the wind direction information on the map (step S7).
- the display control unit 133 determines whether or not to display the rescue dog's movement route on the map (step S8). When the display control unit 133 determines to display the travel route of the rescue dog on the map (step S8: Yes), the display control unit 133 outputs a specific instruction to the specifying unit 134.
- the specifying unit 134 refers to the disaster area storage unit 123, the search target storage unit 124, and the rescue dog information storage unit 125, and the disaster area, the position information of the terminal 10 to be searched, and the rescue Based on the position information of the dog terminal 40, the rescue route of the rescue dog is specified.
- the specifying unit 134 outputs the specified moving route of the rescue dog to the display control unit 133.
- the display control unit 133 displays the input travel route of the rescue dog on the map (step S9), and proceeds to step S10.
- step S8 determines whether to end the search. (Step S10). If the display control unit 133 determines not to end the search (step S10: No), the display control unit 133 returns to step S2. If the display control unit 133 determines to end the search (step S10: affirmative), the display support process ends. Thereby, the server 100 can assist so that the search can be performed efficiently. That is, when continuing the search support process, the server 100 can present the positions of the search target terminal 10 and the rescue dog terminal 40 in real time. The server 100 can also change the display in real time for the search range corresponding to the search target terminal 10.
- the search range corresponding to the terminal 10 is reduced, but the present invention is not limited to this.
- the search range of the search target terminal 10 is displayed on a map and the position of the rescue dog terminal 40 mounted on the rescue dog passes the search range, the area of the search range is reduced according to the passed position. You may make it do.
- the position of the rescue dog terminal 40 approaches the circular search range the area of the search range is reduced in a crescent shape. Thereby, information can be presented so that an unsearched range can be easily understood.
- the terminal 10 for which the search by the rescue dog has been completed is displayed on the map as it is, but the present invention is not limited to this.
- the display of the position of the search target wireless terminal is changed.
- the predetermined time can be set to 5 minutes, for example, and the predetermined distance can be set to 5 m, for example. That is, when it is estimated that the rescue dog has found the victim, for example, the display color indicating the terminal 10 is changed, or a predetermined symbol such as an exclamation mark “!” Is displayed.
- the terminal 10 for which the search by the rescue dog has been completed is continuously displayed on the map as it is, but the present invention is not limited to this.
- the position of the terminal 10 to be searched is not displayed.
- the search target terminal 10 that is not displayed is stored by setting the item “searched” in the search target storage unit 124 to “Y”.
- the predetermined distance can be set to 5 m, for example, and the predetermined time can be set to 5 minutes, for example.
- the rescue dog searches for the position of the terminal 10 to be searched but cannot find the victim
- the position of the terminal 10 is not displayed in order to indicate that there is no victim at that position. . Thereby, it can suppress searching for the position of the searched terminal 10 again.
- the rescue dog has searched, but the present invention is not limited to this.
- the search can be supported in the same manner.
- the server 100 acquires the positions and reception strengths of the plurality of terminals 10 based on the received radio waves from the plurality of terminals 10. Moreover, the server 100 extracts the terminal 10 corresponding to the position included in the disaster area among the acquired positions as the search target terminal 10. In addition, the server 100 displays a search range at a position corresponding to the extracted terminal 10 with an enhancement degree corresponding to the corresponding reception intensity. As a result, the server 100 can support efficient search.
- the server 100 displays the search range wider or red as the reception strength increases. As a result, the server 100 can highlight and display the search range.
- the server 100 extracts the terminal 10 corresponding to the position included in the disaster area as the search target terminal 10. Further, the server 100 acquires the position of the rescue dog terminal 40 mounted on the rescue dog. Further, the server 100 displays the position of the rescue dog terminal 40 mounted on the acquired rescue dog and the position of the search target terminal 10 on the map, and was observed at one or more locations on the map. Displays data indicating the wind direction. As a result, the server 100 can support efficient search.
- the position of the rescue dog terminal 40 mounted on the rescue dog is displayed on the map by characters or marks corresponding to the dog.
- the server 100 can display so that the position of the rescue dog can be determined at a glance.
- the disaster area is specified according to the difference between the captured image at a certain position captured by the drone 20 and the past captured image at the corresponding position. As a result, the server 100 can identify the disaster area.
- the position of one or more terminals 10 among the positions of the plurality of terminals 10 is a position detected by the drone 20.
- the server 100 can detect the position of the terminal 10 in real time.
- the server 100 displays the search range of the search target terminal 10 on a map, and when the position of the rescue dog terminal 40 mounted on the rescue dog passes the search range, the search range according to the passed position. Reduce the area. As a result, the server 100 can efficiently manage the search range of the rescue dog.
- the server 100 acquires the positions of the rescue dog terminals 40 mounted on a plurality of rescue dogs. In addition, the server 100 specifies a movement route for each of the rescue dogs so that the area of the search range is minimized. In addition, the server 100 displays each identified travel route on the map in association with each of a plurality of rescue dogs. As a result, the server 100 can efficiently manage the travel route of the rescue dog.
- the server 100 specifies the movement route of each of the rescue dogs based on the data indicating the wind direction. As a result, the server 100 can efficiently manage the travel route of the rescue dog.
- the server 100 also displays the position of the search target terminal 10 when the position of the search target terminal 10 and the position of the rescue dog terminal 40 mounted on the rescue dog are within a predetermined distance for a predetermined time or more. To change. As a result, the server 100 can notify the discovery of the victim.
- the server 100 determines the search target terminal 10 when the position of the search target terminal 10 and the position of the rescue dog terminal 40 mounted on the rescue dog are within a predetermined distance for less than a predetermined time. Hide the position. As a result, the server 100 can more clearly display the position of the unsearched search target terminal 10.
- each component of each part illustrated does not necessarily need to be physically configured as illustrated.
- the specific form of distribution / integration of each unit is not limited to that shown in the figure, and all or a part thereof may be functionally or physically distributed / integrated in arbitrary units according to various loads or usage conditions. Can be configured.
- the display control unit 133 and the specifying unit 134 may be integrated.
- the illustrated processes are not limited to the above-described order, and may be performed at the same time as long as the processing contents do not contradict each other, or may be performed by changing the order.
- each device may be executed entirely or arbitrarily on a CPU (or a microcomputer such as MPU or MCU (Micro Controller Unit)).
- various processing functions may be executed in whole or in any part on a program that is analyzed and executed by a CPU (or a microcomputer such as an MPU or MCU) or on hardware based on wired logic. Needless to say, it is good.
- FIG. 20 is a diagram illustrating an example of a computer that executes a search support program.
- the computer 200 includes a CPU 201 that executes various arithmetic processes, an input device 202 that receives data input, and a monitor 203.
- the computer 200 also includes a medium reading device 204 that reads a program and the like from a storage medium, an interface device 205 for connecting to various devices, and a communication device 206 for connecting to other information processing devices and the like by wire or wirelessly.
- the computer 200 also includes a RAM 207 that temporarily stores various types of information and a hard disk device 208.
- the devices 201 to 208 are connected to a bus 209.
- the hard disk device 208 stores a search support program having the same functions as the processing units of the acquisition unit 131, the extraction unit 132, the display control unit 133, and the specification unit 134 shown in FIG.
- the hard disk device 208 includes a map information storage unit 121, a captured image storage unit 122, a disaster area storage unit 123, a search target storage unit 124, a rescue dog information storage unit 125, a wind direction information storage unit 126, and a search support program.
- Various data for realizing are stored.
- the input device 202 receives input of various information such as operation information from the administrator of the computer 200, for example.
- the monitor 203 displays various screens such as a display screen for the administrator of the computer 200, for example.
- the interface device 205 is connected to, for example, a printing device.
- the communication device 206 has, for example, the same function as the communication unit 110 shown in FIG. 3 and is connected to a network (not shown), and exchanges various types of information with other information processing devices.
- the CPU 201 reads out each program stored in the hard disk device 208, develops it in the RAM 207, and executes it to perform various processes. Also, these programs can cause the computer 200 to function as the acquisition unit 131, the extraction unit 132, the display control unit 133, and the specification unit 134 illustrated in FIG.
- the search support program does not necessarily need to be stored in the hard disk device 208.
- the computer 200 may read and execute a program stored in a storage medium readable by the computer 200.
- the storage medium readable by the computer 200 corresponds to, for example, a portable recording medium such as a CD-ROM, a DVD disk, a USB (Universal Serial Bus) memory, a semiconductor memory such as a flash memory, and a hard disk drive.
- the search support program may be stored in a device connected to a public line, the Internet, a LAN, or the like, and the computer 200 may read and execute the search support program therefrom.
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Signal Processing (AREA)
- Emergency Management (AREA)
- Business, Economics & Management (AREA)
- Remote Sensing (AREA)
- Radar, Positioning & Navigation (AREA)
- Computer Networks & Wireless Communication (AREA)
- Alarm Systems (AREA)
- Emergency Alarm Devices (AREA)
- Position Fixing By Use Of Radio Waves (AREA)
- Mobile Radio Communication Systems (AREA)
Abstract
探索を効率的に行えるよう支援できる探索支援プログラム、探索支援方法および探索支援装置を提供する。探索支援プログラムは、複数の無線端末(10)からの受信電波に基づいて、複数の無線端末の位置と受信強度とを取得する処理をコンピュータ(100)に実行させる。探索支援プログラムは、取得した位置のうち、被災地域内に含まれる位置に対応する無線端末を探索対象の無線端末として抽出する処理をコンピュータに実行させる。探索支援プログラムは、抽出した無線端末に対応する位置に、対応する受信強度に応じた強調度で探索範囲を表示する処理をコンピュータに実行させる。
Description
本発明は、探索支援プログラム、探索支援方法および探索支援装置に関する。
災害時において、瓦礫等に埋まった被災者を探索する場合、災害救助犬が用いられることがある。災害救助犬は、被災地域内に入ると、消防等の隊員とともに被災者の探索を開始する。また、携帯電話等の通信回線を利用して、見守り対象者が連れているペット等の行動を観測する装置から情報を取得して、見守り対象者の異常状態を検知することが提案されている。
しかしながら、災害時には、通信回線は輻輳によって通信できない状況となることがあり、被災者が携帯電話等を所持していても、救助を要請できない場合がある。この様な場合に、例えば、災害救助犬に随伴する隊員が被災地域を目視で確認しつつ、災害救助犬が被災者の探索を行うことがある。このため、どこに被災者が埋まっているか判らず、被災者の探索が非効率的となる場合がある。
一つの側面では、探索を効率的に行えるよう支援できる探索支援プログラム、探索支援方法および探索支援装置を提供することにある。
一つの態様では、探索支援プログラムは、複数の無線端末からの受信電波に基づいて、前記複数の無線端末の位置と受信強度とを取得する処理をコンピュータに実行させる。探索支援プログラムは、取得した位置のうち、被災地域内に含まれる位置に対応する無線端末を探索対象の無線端末として抽出する処理をコンピュータに実行させる。探索支援プログラムは、抽出した前記無線端末に対応する位置に、対応する受信強度に応じた強調度で探索範囲を表示する処理をコンピュータに実行させる。
探索を効率的に行えるよう支援できる。
以下、図面に基づいて、本願の開示する探索支援プログラム、探索支援方法および探索支援装置の実施例を詳細に説明する。なお、本実施例により、開示技術が限定されるものではない。また、以下の実施例は、矛盾しない範囲で適宜組みあわせてもよい。
図1は、実施例の探索支援システムの構成の一例を示す図である。図1に示す探索支援システム1は、複数の端末10の探索を支援するシステムであり、ドローン20と、ゲートウェイ30と、救助犬端末40と、指揮端末50と、サーバ100とを有する。すなわち、探索支援システム1は、災害時に瓦礫に埋もれた被災者が所持する端末10の情報に基づいて、被災者の探索を支援するシステムである。なお、ドローン20、ゲートウェイ30、救助犬端末40および指揮端末50の数は限定されず、探索支援システム1は、任意の数のドローン20、ゲートウェイ30、救助犬端末40および指揮端末50を有してもよい。
ドローン20および救助犬端末40と、サーバ100との間は、ゲートウェイ30およびネットワークNを介して相互に通信可能に接続される。また、指揮端末50とサーバ100との間は、ネットワークNを介して相互に通信可能に接続される。かかるネットワークNには、有線または無線を問わず、インターネットを始め、LAN(Local Area Network)やVPN(Virtual Private Network)などの任意の種類の通信網を採用できる。また、ドローン20および救助犬端末40と、ゲートウェイ30との間は、例えば、無線LANや携帯電話回線等の無線通信により接続される。
端末10は、災害の被災者が所持する携帯電話やスマートフォン等の無線端末の一例である。端末10は、待ち受け時においても定期的に基地局との間で通信を行うために電波を送信している。なお、本実施例では、端末10が送信する電波をドローン20で受信し、受信電波に基づいて、端末10の位置を検出する場合について説明する。
ドローン20は、例えば、小型無人機(UAV:Unmanned Aerial Vehicle)の一種であるマルチコプターである。すなわち、ドローン20は、飛行体の一例である。ドローン20は、例えば、端末10が送信する電波を受信する受信機と、被災地域を撮像する撮像装置と、取得した撮像画像、および、端末10の位置と電波の受信強度とを送信する通信装置とを有する。受信機には、指向性を有するアンテナが接続され、端末10のおおよその方向を特定できる。
ドローン20は、例えば、被災地域近傍から離陸し、被災地域を含む地域を上空から撮像する。ドローン20は、撮像した被災地域を含む地域の撮像画像を、撮像位置、撮像日時および撮像方向といった情報とともに、ゲートウェイ30およびネットワークNを介してサーバ100に送信する。また、ドローン20は、被災地域付近の複数の地点において自転することで、アンテナの指向性(ビーム)を掃引し、端末10の電波を探索する。ドローン20は、複数の地点における端末10の電波の探索結果に基づいて、端末10の位置を検出する。
ここで、図2を用いてドローン20による端末10の位置検出について説明する。図2は、ドローンによる端末の位置検出の一例を示す図である。図2に示すように、ドローン20は、例えば、地点60aにおいて自転することでビーム61aを掃引した際に、端末10からの電波62aを受信する。つまり、ドローン20は、端末10の存在を検出する。その後、ドローン20は、地点60bに移動し、再度自転することでビーム61bを掃引し、端末10からの電波62bを受信する。さらに、ドローン20は、地点60cに移動し、再度自転することでビーム61cを掃引し、端末10からの電波62cを受信する。
ドローン20は、地点60a、60b、60cのそれぞれにおける電波62a、62b、62cの受信強度と、ビーム61a、61b、61cの方向とに基づいて、端末10の位置を検出する。すなわち、ドローン20は、複数地点で端末10を検出した方向と距離とが重なった地点を端末10の位置とする。ドローン20は、複数の端末10のそれぞれについても同様に位置を検出し、検出した位置と受信強度とをゲートウェイ30およびネットワークNを介してサーバ100に送信する。
なお、受信強度、つまり電波の強弱は、端末10までの距離に依存する。すなわち、電波が強い場合には、ドローン20から端末10までの距離は近く、電波が弱い場合には、ドローン20から端末10までの距離は遠い。また、電波62a、62b、62cの受信強度は、被災者の端末10の瓦礫への埋もれ具合によっても変化する。つまり、電波の強弱は、別の観点として、端末10が瓦礫に埋まっている状態にも依存する。すなわち、電波が強い場合には、端末10が瓦礫に浅く埋まっており探索範囲が限られるため、指揮者は、すぐに救助犬による探索を行うと判断することができる。
一方、端末10が瓦礫に埋まっている状態の観点において、電波が弱い場合には、端末10が瓦礫に深く埋まっている。このため、地図上で受信強度に基づいて探索範囲を表示する際には、ドローン20が撮像した撮像画像に基づいて瓦礫の有無を判定することで、受信強度が弱い場合に、距離が近くて瓦礫に埋まっているのか、単に距離が遠いのかを判定することができる。指揮者は、ドローン20で検出した端末10の位置と、これらの情報とを勘案することで、自分が指揮する救助犬を救助に向かわせるか、他の救助隊員が指揮する救助犬に任せるのかを判断することができる。
図1の説明に戻って、ゲートウェイ30は、被災地域近傍に配置され、ドローン20および救助犬端末40と、無線LANや携帯電話回線等の無線通信により接続される。すなわち、ゲートウェイ30は、ドローン20および救助犬端末40がネットワークNに接続するためのゲートウェイとなる。つまり、ゲートウェイ30は、自身およびネットワークNを介して、ドローン20および救助犬端末40と、サーバ100との間の通信を中継する。
救助犬端末40は、救助犬または救助犬を使役する救助隊員に装備される無線端末である。救助犬端末40は、例えばGPS(Global Positioning System)等の位置を測位するための測位センサと、ゲートウェイ30およびネットワークNを介してサーバ100と通信するための通信装置とを有する。救助犬端末40は、救助犬が装備する場合には、例えば、いわゆるGPSトラッカーといったような位置情報を定期的に送信する無線端末を用いることができる。また、救助犬端末40は、救助隊員が装備する場合には、例えば、スマートフォン等を用いることで、サーバ100から送信された地図情報や自身の救助犬に関する情報等を表示できるようにしてもよい。救助犬端末40は、定期的に、例えば1分ごとに測位した位置情報をゲートウェイ30およびネットワークNを介してサーバ100に送信する。
指揮端末50は、ドローン20への指示や、救助犬端末40を装備する救助犬の探索状況の把握、救助犬のスケジュール管理等を行う情報処理装置である。指揮端末50には、例えば、可搬型や据置型のパーソナルコンピュータ等を用いることができる。また、指揮端末50には、タブレット端末やスマートフォン等の移動体通信端末等を用いるようにしてもよい。指揮端末50は、ネットワークNを介してサーバ100と接続され、サーバ100に対して各種処理の指示を行うとともに、サーバ100での各種処理の結果を表示する。指揮端末50は、例えば、GIS(Geographic Information System:地理情報システム)における地図の表示や、地図上にプロットされた各種情報を表示することで、指揮者に対して被災地域の情報を提示する。
サーバ100は、ドローン20および救助犬端末40から撮像画像、位置情報および受信強度等の情報を取得し、指揮端末50に対してGIS機能等を提供する情報処理装置である。なお、サーバ100は、探索支援装置の一例である。サーバ100は、複数の端末10からの受信電波に基づいて、複数の端末10の位置と受信強度とを取得する。サーバ100は、取得した位置のうち、被災地域内に含まれる位置に対応する端末10を探索対象の端末10として抽出する。サーバ100は、抽出した端末10に対応する位置に、対応する受信強度に応じた強調度で探索範囲を表示した表示画面を指揮端末50に表示させる。これにより、サーバ100は、探索を効率的に行えるよう支援できる。
また、サーバ100は、被災地域内に含まれる位置に対応する端末10を探索対象の端末10として抽出する。サーバ100は、救助犬に搭載された救助犬端末40の位置を取得する。サーバ100は、取得した救助犬に搭載された救助犬端末40の位置と、探索対象の端末10の位置とを地図上に表示した表示画面を指揮端末50に表示させる。サーバ100は、位置の表示とともに、地図上の1または複数の箇所について観測された風向きを示すデータを表示した表示画面を指揮端末50に表示させる。これにより、サーバ100は、探索を効率的に行えるよう支援できる。
次に、サーバ100の構成について説明する。図3は、実施例のサーバの構成の一例を示すブロック図である。図3に示すように、サーバ100は、通信部110と、表示部111と、操作部112と、記憶部120と、制御部130とを有する。なお、サーバ100は、図3に示す機能部以外にも既知のコンピュータが有する各種の機能部、例えば各種の入力デバイスや音声出力デバイス等の機能部を有することとしてもかまわない。
通信部110は、例えば、NIC(Network Interface Card)等によって実現される。通信部110は、ネットワークNを介して、ドローン20、救助犬端末40および指揮端末50と有線または無線で接続され、ドローン20、救助犬端末40および指揮端末50との間で情報の通信を司る通信インタフェースである。通信部110は、ドローン20から受信した撮像画像、および、検出した端末10の位置と電波の受信強度を制御部130に出力する。また、通信部110は、救助犬端末40から受信した位置情報を制御部130に出力する。また、通信部110は、制御部130から入力されたGISにおける各種の表示情報を指揮端末50に送信する。
表示部111は、サーバ100の管理者に対して各種情報を表示するための表示デバイスである。表示部111は、例えば、表示デバイスとして液晶ディスプレイ等によって実現される。表示部111は、制御部130から入力された表示画面等の各種画面を表示する。
操作部112は、サーバ100の管理者から各種操作を受け付ける入力デバイスである。操作部112は、例えば、入力デバイスとして、キーボードやマウス等によって実現される。操作部112は、管理者によって入力された操作を操作情報として制御部130に出力する。なお、操作部112は、入力デバイスとして、タッチパネル等によって実現されるようにしてもよく、表示部111の表示デバイスと、操作部112の入力デバイスとは、一体化されるようにしてもよい。
記憶部120は、例えば、RAM(Random Access Memory)、フラッシュメモリ(Flash Memory)等の半導体メモリ素子、ハードディスクや光ディスク等の記憶装置によって実現される。記憶部120は、地図情報記憶部121、撮像画像記憶部122、被災地域記憶部123、探索対象記憶部124、救助犬情報記憶部125および風向情報記憶部126を有する。また、記憶部120は、制御部130での処理に用いる情報を記憶する。
地図情報記憶部121は、GISの各種の地図情報を記憶する。地図情報記憶部121には、例えば、地形図、建物等の地物に関連する属性情報、測地系(例えば世界測地系(WGS84))、縮尺等が記憶される。地図情報記憶部121では、これらの地図情報について、例えば、ラスタデータやベクタデータで記憶される。また、地図情報記憶部121には、平常時における空中写真や衛星画像等の撮像画像も地図と対応付けて記憶される。さらに、地図情報記憶部121では、後述する各種の情報が付加された地図情報が記憶されるようにしてもよい。
撮像画像記憶部122は、ドローン20が撮像した撮像画像を記憶する。図4は、撮像画像記憶部の一例を示す図である。図4に示すように、撮像画像記憶部122は、「画像ID(Identifier)」、「撮像位置」、「撮像日時」、「撮像方向」、「ファイル名」といった項目を有する。撮像画像記憶部122は、例えば、画像IDごとに1レコードとして記憶する。
「画像ID」は、撮像画像を識別する識別子である。「撮像位置」は、撮像画像が撮像された位置を示す情報である。「撮像位置」は、経度緯度で表され、例えば、世界測地系(WGS84)等の測地系に基づくものである。「撮像日時」は、撮像画像が撮像された日時を示す情報である。「撮像方向」は、ドローン20がどちらの方向に向かって撮像したのかを示す情報である。「撮像方向」は、例えば、北を基準とした角度(一周を360°とする。)で表すことができる。「撮像方向」は、例えば、北を0°(=360°)とし、東を90°、南を180°、西を270°となるように表すことができる。「ファイル名」は、例えば所定のディレクトリに格納された、撮像画像のデータである画像ファイルを示す情報である。なお、撮像画像記憶部122は、ファイル名の代わりに、撮像画像のデータを直接記憶するようにしてもよい。
図3の説明に戻って、被災地域記憶部123は、ドローン20によって撮像された撮像画像と、対応する位置における過去の撮像画像との差分に応じて特定された被災地域の情報を記憶する。図5は、被災地域記憶部の一例を示す図である。図5に示すように、被災地域記憶部123は、「地域ID」、「中心位置」、「範囲」、「辺の方向」といった項目を有する。被災地域記憶部123は、例えば、地域IDごとに1レコードとして記憶する。
「地域ID」は、被災地域を識別する識別子である。「中心位置」は、被災地域の中心の位置を示す情報である。「中心位置」は、経度緯度で表され、例えば、世界測地系(WGS84)等の測地系に基づくものである。「範囲」は、被災地域の範囲を示す情報である。「範囲」は、例えば、四角形とすることができ、四角の一辺の長さで表すことができる。「辺の方向」は、例えば、被災地域の四角形のある一辺の方向を示す情報である。「辺の方向」は、例えば、北を0°(=360°)とし、東を90°、南を180°、西を270°となるように表すことができる。また、四角形の各辺のうち0°から90°の範囲にある辺の角度で表すようにしてもよい。
図3の説明に戻って、探索対象記憶部124は、探索対象として抽出された端末10の位置情報や受信強度等を記憶する。図6は、探索対象記憶部の一例を示す図である。図6に示すように、探索対象記憶部124は、「端末ID」、「位置情報」、「受信強度」、「探索範囲」、「探索済」といった項目を有する。探索対象記憶部124は、例えば、端末IDごとに1レコードとして記憶する。
「端末ID」は、探索対象として抽出された端末10を識別する識別子である。「位置情報」は、ドローン20から受信した、検出された端末10の位置を示す情報である。「位置情報」は、経度緯度で表され、例えば、世界測地系(WGS84)等の測地系に基づくものである。「受信強度」は、ドローン20から受信した、検出された端末10から受信した電波の受信強度を示す情報である。「探索範囲」は、受信強度に応じて設定された探索範囲の大きさを示す情報である。「探索範囲」は、例えば、受信強度を強、中、弱の3段階に分類し、それぞれ「レベル1~3」を設定する。「レベル1」は、最も探索範囲が狭く、例えば半径数m程度とすることができる。「レベル2」は、中程度の探索範囲、例えば、半径10数m程度とすることができる。「レベル3」は、最も探索範囲が広く、例えば、半径20~30m程度とすることができる。なお、探索範囲は、受信強度が強い場合に広くするようにしてもよい。また、「探索範囲」は、例えば、半径や直径等の数値を直接用いてもよい。「探索済」は、救助犬が探索対象の端末10を探索済であるか否かを示す情報である。「探索済」は、端末10を探索済である場合には「Y」とし、未探索である場合には「N」とする。
図3の説明に戻って、救助犬情報記憶部125は、救助犬ごとに現在の位置情報と、探索を行った軌跡情報とを対応付けて記憶する。図7は、救助犬情報記憶部の一例を示す図である。図7に示すように、救助犬情報記憶部125は、「救助犬端末ID」、「救助犬名称」、「順番」、「位置情報」、「軌跡情報」といった項目を有する。救助犬情報記憶部125は、例えば、救助犬端末IDごとに1レコードとして記憶する。
「救助犬端末ID」は、救助犬端末40を識別する識別子である。「救助犬名称」は、救助犬の名前を示す情報である。「順番」は、救助犬が探索を行う順番を示す情報である。「位置情報」は、救助犬端末40の現在位置を示す情報である。「位置情報」は、経度緯度で表され、例えば、世界測地系(WGS84)等の測地系に基づくものである。「軌跡情報」は、救助犬が探索を行った移動ルートを示す情報であり、日時と位置情報とを対応付けて記憶する。
図3の説明に戻って、風向情報記憶部126は、例えば、救助犬を使役する救助隊員等が入力した各地点の風向等の情報を記憶する。なお、風向情報は、各地の気象台のデータを外部から取得するようにしてもよい。図8は、風向情報記憶部の一例を示す図である。図8に示すように、風向情報記憶部126は、「地点ID」、「位置情報」、「風向」、「風力」といった項目を有する。風向情報記憶部126は、例えば、地点IDごとに1レコードとして記憶する。
「地点ID」は、風向および風力といった情報を観測した地点を識別する識別子である。「位置情報」は、観測地点の位置を示す情報である。「位置情報」は、経度緯度で表され、例えば、世界測地系(WGS84)等の測地系に基づくものである。「風向」は、風向きを示す情報であり、例えば、16方位の点画式(例えば、南南東といった表記。)を用いることができる。「風力」は、風の強さを示す情報であり、例えば、気象庁風力階級を用いて表すことができる。
図3の説明に戻って、制御部130は、例えば、CPU(Central Processing Unit)やMPU(Micro Processing Unit)等によって、内部の記憶装置に記憶されているプログラムがRAMを作業領域として実行されることにより実現される。また、制御部130は、例えば、ASIC(Application Specific Integrated Circuit)やFPGA(Field Programmable Gate Array)等の集積回路により実現されるようにしてもよい。
制御部130は、取得部131と、抽出部132と、表示制御部133と、特定部134とを有し、以下に説明する情報処理の機能や作用を実現または実行する。なお、制御部130の内部構成は、図3に示した構成に限られず、後述する情報処理を行う構成であれば他の構成であってもよい。なお、以下の説明では、GISの地図情報について、サーバ100の表示制御部133がネットワークNを介して指揮端末50に送信して表示させることを、単に地図を表示すると表現する場合がある。
取得部131は、ゲートウェイ30、ネットワークNおよび通信部110を介して、ドローン20から被災地域を含む地域の撮像画像を、撮像位置、撮像日時および撮像方向といった情報とともに受信して取得する。取得部131は、地図情報記憶部121を参照し、撮像位置に基づいて、取得した撮像画像に対応する過去の撮像画像、つまり平常時の撮像画像との差分を求める。取得部131は、差分に基づいて被災地域を特定する。取得部131は、特定した被災地域を含む対象地域の情報を抽出部132に出力する。
取得部131は、被災地域を特定すると、ゲートウェイ30、ネットワークNおよび通信部110を介して、ドローン20から撮像画像に続いて送信される、複数の端末10の位置と受信強度とを受信して取得する。取得部131は、取得した複数の端末10の位置と受信強度、つまり各端末10の位置情報および受信強度を抽出部132に出力する。
取得部131は、ゲートウェイ30、ネットワークNおよび通信部110を介して、救助犬端末40から位置情報を受信して取得する。取得部131は、取得した救助犬端末40の位置情報を抽出部132に出力するとともに、救助犬情報記憶部125に記憶する。なお、救助犬情報記憶部125には、過去の救助犬端末40の位置情報が軌跡情報として記憶される。また、取得部131は、例えば、救助犬を使役する救助隊員等が入力した各地点の風向や風力等の風向情報を取得する。取得部131は、取得した風向情報を風向情報記憶部126に記憶する。なお、風向情報は、各地の気象台のデータを外部から取得するようにしてもよい。
ここで、図9および図10を用いて被災地域の特定について説明する。図9は、被災地域の特定の一例を示す図である。図9に示すように、取得部131は、地図情報記憶部121を参照し、取得した撮像画像63aに対応する平常時の撮像画像63bを取得する。取得部131は、撮像画像63aと撮像画像63bとの差分を、例えば背景差分手法等を用いて求める。取得部131は、求めた差分に基づいて、被災地域64を特定する。
図10は、特定した被災地域の表示の一例を示す図である。図10に示す地図65は、取得部131が特定した被災地域64a、64b、64cをGISに反映した場合の表示の一例である。図10のGISの地図の表示例では、被災地域を含む地域の地図65に対して、被災地域64a、64b、64cを四角形で表している。
図3の説明に戻って、抽出部132には、取得部131から、対象地域の情報、各端末10の位置情報および受信強度、ならびに、救助犬端末40の位置情報が入力される。抽出部132は、地図情報記憶部121を参照し、対象地域の情報に基づいて、地図情報を取得する。抽出部132は、取得した地図情報に対象地域の情報に含まれる被災地域を付加する。抽出部132は、被災地域が付加された地図情報に、各端末10の位置情報に基づいて、各端末10の位置を付加する。すなわち、GISの地図上の表示では、地図上に被災地域と対象地域内で検出した端末10とが表示される。
この場合におけるGISの地図上での表示の一例について図11を用いて説明する。図11は、検出した端末の表示の一例を示す図である。図11では、地図65上に被災地域64a、64b、64cと、検出した各端末10の検出位置66が示される。この場合、被災地域64b内の検出位置66b、および、被災地域64c内の検出位置66cには、瓦礫に埋まった被災者の端末10があると考えられる。一方、被災地域64a、64b、64c以外の検出位置66は、瓦礫に埋もれていない人物の端末10の位置であることがわかる。なお、検出位置66b、66cの端末10は動きがなく、その他の検出位置66の端末10は動きがあるといった違いに基づいて、これらを区別してもよい。
抽出部132は、被災地域および各端末10の位置が付加された地図情報について、被災地域内における探索対象の端末10を抽出する。すなわち、抽出部132は、図11の例では、検出位置66b、66cの端末10を探索対象の端末10として抽出する。抽出部132は、地図情報に付加された各端末10の位置のうち、探索対象の端末10以外の位置を除外する。すなわち、抽出部132は、被災地域内に含まれる位置に対応する端末10を探索対象の端末10として抽出する。また、抽出部132は、救助犬端末40の位置情報を地図情報に付加する。すなわち、抽出部132は、地図情報記憶部121から取得した地図情報に対して、被災地域、被災地域内における探索対象の端末10の位置情報、および、救助犬端末40の位置情報を付加した地図情報を生成する。抽出部132は、生成した各種情報が付加された地図情報を表示制御部133に出力する。
表示制御部133は、抽出部132から各種情報が付加された地図情報が入力されると、通信部110およびネットワークNを介して、入力された地図情報を指揮端末50に送信して表示させる。つまり、指揮端末50におけるGISの表示としては、被災地域、被災地域内における探索対象の端末10の位置情報、および、救助犬端末40の位置情報が付加された地図が表示される。
この場合におけるGISの地図上での表示の一例について図12を用いて説明する。図12は、抽出した探索対象の端末の表示の一例を示す図である。図12では、地図65上に被災地域64a、64b、64cと、被災地域64b内の探索対象の端末10の検出位置66bと、被災地域64c内の探索対象の端末10の検出位置66cと、救助犬端末40の位置67とが示される。図12の例では、救助犬が被災地域64cに向かっていることがわかる。なお、救助犬端末40の位置67は、犬のマークの他、救助犬の名称を示す文字が表示されるようにしてもよい。すなわち、GISの地図上での表示では、救助犬に搭載された救助犬端末40の位置67は、犬に対応する文字またはマークにより地図65上に表示される。
また、表示制御部133は、救助犬情報記憶部125を参照し、待機中の救助犬を示すアイコンを地図上に表示してもよい。図13は、救助犬の表示の一例を示す図である。図13では、地図65上に被災地域64a、64b、64cと、被災地域64b内の探索対象の端末10の検出位置66bと、被災地域64c内の探索対象の端末10の検出位置66cと、探索中の救助犬端末40の位置67とが示される。さらに、図13では、図12と比較して、地図65上に待機中の救助犬のアイコン68が表示される。
表示制御部133は、GIS上において、指揮端末50から被災地域付近を拡大するように指示を受け付けると、被災地域を拡大した地図情報を指揮端末50に表示させる。また、表示制御部133は、拡大表示において、探索対象の端末10の検出位置を中心として、電波の受信強度に応じた探索範囲をGIS上に表示させる。すなわち、表示制御部133は、地図上に探索対象の端末10の位置に応じた探索範囲を表示させる。
図14は、被災地域の拡大表示の一例を示す図である。図14に示すように、地図69における検出位置66dの探索範囲70dは、探索対象の端末10から受信した電波の受信強度が弱く、探索範囲が最も広い「レベル3」である場合の探索範囲の表示例である。また、表示制御部133は、救助犬端末40の位置情報に基づいて、探索対象の端末10の検出位置に救助犬が近づいた場合には、受信強度が弱い場合であっても、リアルタイムに探索範囲を小さくするようにしてもよい。地図69における検出位置66eでは、探索中の救助犬端末40の位置67が検出位置66eに近づいている。このため、検出位置66eの探索範囲70eは、例えば、当初の「レベル3」から最も探索範囲が狭い「レベル1」に応じた探索範囲の表示としている。つまり、探索範囲70eは、救助犬が探索対象の端末10に近づいていくと、探索が進んで探索範囲が縮小することを表している。
言い換えると、表示制御部133は、抽出した端末10に対応する位置に、対応する受信強度に応じた強調度で探索範囲を表示する。また、表示制御部133は、受信強度が大きいほど、探索範囲を広くまたは赤色で表示するようにしてもよい。
さらに、表示制御部133は、地図情報に被災地域の風向情報を付加してもよい。表示制御部133は、風向情報記憶部126を参照し、被災地域の風向情報を取得する。表示制御部133は、取得した風向情報を地図情報に付加してGISの地図上に風向情報を表示させる。図15は、風下から近づくルートの表示の一例を示す図である。図15に示す地図71には、被災地域72の探索対象の端末10の検出位置73に向かっている救助犬の救助犬端末40の位置67が表示されている。また、地図71には、風向情報74が表示され、救助犬が風下から検出位置73に向かっていることがわかる。
すなわち、表示制御部133は、取得した救助犬に搭載された救助犬端末40の位置67と、探索対象の端末10の位置とを地図上に表示するとともに、地図上の1または複数の箇所について観測された風向きを示すデータを表示する。
表示制御部133は、GIS上において指揮端末50から救助犬の移動ルートを表示する指示を受信したか否かを判定する。すなわち、表示制御部133は、地図上に救助犬の移動ルートを表示するか否かを判定する。表示制御部133は、地図上に救助犬の移動ルートを表示すると判定した場合には、特定部134に特定指示を出力する。表示制御部133は、地図上に救助犬の移動ルートを表示しないと判定した場合には、指揮端末50から探索終了の指示を受け付けたか否かを判定する。つまり、表示制御部133は、探索を終了するか否かを判定する。表示制御部133は、探索を終了しないと判定した場合には、引き続き、複数の端末10の位置と受信強度とを取得する処理に戻り、一連の探索支援処理を行う。表示制御部133は、探索を終了すると判定した場合には、探索支援処理を終了する。
表示制御部133は、特定部134から救助犬の移動ルートが入力されると、入力された救助犬の移動ルートを、GISの地図上に表示させる。表示制御部133は、救助犬の移動ルートを表示すると、上述の探索を終了するか否かの判定処理を行う。
図1の説明に戻って、特定部134には、表示制御部133から特定指示が入力される。特定部134は、特定指示が入力されると、被災地域記憶部123、探索対象記憶部124および救助犬情報記憶部125を参照し、被災地域、探索対象の端末10の位置情報、および、救助犬端末40の位置情報に基づいて、救助犬の移動ルートを特定する。特定部134は、例えば、救助犬の現在位置から被災地域を迂回するように移動ルートを特定することができる。特定部134は、特定した救助犬の移動ルートを表示制御部133に出力する。
図16は、迂回ルートの表示の一例を示す図である。図16に示す地図75では、被災地域76a~76eが表示され、被災地域76a、76b、76eには、探索対象の端末10の検出位置77a、77b、77eが表示されている。ここで、検出位置77aの探索を終えた救助犬は、次に検出位置77bに向かおうとしているとする。この場合、主な移動ルートとして2つのルートがあるが、一方のルート上には被災地域76cがある。被災地域76cには、探索対象の端末10が検出されていないので、特定部134は、被災地域76cを迂回する移動ルート78を特定することができる。
また、特定部134は、例えば、複数の救助犬が同時に探索する場合に、探索対象である複数の端末10の探索範囲の面積が最小となるように、複数の救助犬それぞれの移動ルートを特定するようにしてもよい。この場合、特定部134は、特定したそれぞれの移動ルートを、対応する救助犬それぞれと対応付けて地図上に表示可能なように、それぞれの移動ルートを表示制御部133に出力する。
また、特定部134は、風向情報記憶部126を参照し、被災地域における風向情報、つまり風向きを示すデータに基づいて、複数の救助犬それぞれの移動ルートを特定するようにしてもよい。
また、サーバ100は、救助犬のスケジュール管理や探索記録を指揮端末50にGIS上の情報として提供してもよく、この場合の指揮端末50における表示について、図17および図18を用いて説明する。
図17は、救助犬のスケジュール管理の表示の一例を示す図である。図17は、救助犬として、例えば「ジョン」、「ポチ」、「タロー」の3頭が被災地域に派遣された場合のスケジュール管理の表示例である。救助犬の探索時間は、1頭あたり20~30分程度であるので、複数の救助犬をローテーションして探索を行う。図17の例では、「ジョン」、「ポチ」、「タロー」の順に探索を行う。また、複数の救助犬を用いる際には、それぞれの救助犬が探索した被災地域が重複しないようにすることが求められる。このため、サーバ100は、各救助犬の探索状況をGISの地図上に表示させることで、探索した範囲が指揮者に一目でわかるようにする。
図18は、救助犬の探索状況の表示の一例を示す図である。図18の地図79には、救助犬「ジョン」を示すアイコン80と、「ジョン」が探索を行った範囲81と、探索対象の端末10の検出位置82と、「ジョン」が探索を行った際の風向きを示す風向情報83とが表示されている。また、地図79には、救助犬「ポチ」を示すアイコン84と、「ポチ」が探索を行った範囲85と、探索対象の端末10の検出位置86と、「ポチ」が探索を行った際の風向きを示す風向情報87とが表示されている。指揮者は、地図79を見た上で、3番目に探索を行う救助犬「タロー」が探索を行う範囲が、「ジョン」が探索を行った範囲81、および、「ポチ」が探索を行った範囲85と重ならないように、「タロー」を使役する救助隊員に移動ルートを指示することができる。
次に、実施例の探索支援システム1におけるサーバ100の動作について説明する。図19は、実施例の探索支援処理の一例を示すフローチャートである。
サーバ100の取得部131は、ドローン20から被災地域を含む地域の撮像画像を、撮像位置、撮像日時および撮像方向といった情報とともに受信して取得する。取得部131は、地図情報記憶部121を参照し、撮像位置に基づいて、取得した撮像画像に対応する過去の撮像画像、つまり平常時の撮像画像との差分を求める。取得部131は、差分に基づいて被災地域を特定する(ステップS1)。取得部131は、特定した被災地域を含む対象地域の情報を抽出部132に出力する。
また、取得部131は、被災地域を特定すると、ドローン20から複数の端末10の位置情報と受信強度とを受信して取得する(ステップS2)。取得部131は、各端末10の位置情報および受信強度を抽出部132に出力する。さらに、取得部131は、救助犬端末40から位置情報を受信して取得する(ステップS3)。取得部131は、取得した救助犬端末40の位置情報を抽出部132に出力するとともに、救助犬情報記憶部125に記憶する。
抽出部132には、取得部131から、対象地域の情報、各端末10の位置情報および受信強度、ならびに、救助犬端末40の位置情報が入力される。抽出部132は、地図情報記憶部121を参照し、対象地域の情報に基づいて、地図情報を取得する。抽出部132は、取得した地図情報に対象地域の情報に含まれる被災地域と、各端末10の位置とを付加する。抽出部132は、被災地域および各端末10の位置が付加された地図情報について、被災地域内における探索対象の端末10を抽出する(ステップS4)。
抽出部132は、地図情報記憶部121から取得した地図情報に対して、被災地域、被災地域内における探索対象の端末10の位置情報、および、救助犬端末40の位置情報を付加した地図情報を生成する。抽出部132は、生成した各種情報が付加された地図情報を表示制御部133に出力する。表示制御部133は、抽出部132から各種情報が付加された地図情報が入力されると、入力された地図情報を指揮端末50に送信して表示させる。すなわち、表示制御部133は、GISの地図上に探索対象の端末10および救助犬端末40の位置を表示させる(ステップS5)。
表示制御部133は、GIS上において、指揮端末50から被災地域付近を拡大するように指示を受け付けると、被災地域を拡大した地図情報を指揮端末50に表示させる。表示制御部133は、拡大表示において、電波の受信強度に対応する、地図上に探索対象の端末10の位置に応じた探索範囲を表示させる(ステップS6)。また、表示制御部133は、風向情報記憶部126を参照し、被災地域の風向情報を取得する。表示制御部133は、取得した風向情報を地図情報に付加し、地図上に風向情報を表示させる(ステップS7)。
表示制御部133は、地図上に救助犬の移動ルートを表示するか否かを判定する(ステップS8)。表示制御部133は、地図上に救助犬の移動ルートを表示すると判定した場合には(ステップS8:肯定)、特定部134に特定指示を出力する。
特定部134は、特定指示が入力されると、被災地域記憶部123、探索対象記憶部124および救助犬情報記憶部125を参照し、被災地域、探索対象の端末10の位置情報、および、救助犬端末40の位置情報に基づいて、救助犬の移動ルートを特定する。特定部134は、特定した救助犬の移動ルートを表示制御部133に出力する。表示制御部133は、特定部134から救助犬の移動ルートが入力されると、入力された救助犬の移動ルートを地図上に表示させ(ステップS9)、ステップS10に進む。
表示制御部133は、ステップS8において、地図上に救助犬の移動ルートを表示しないと判定した場合(ステップS8:否定)、または、ステップS9に続いて、探索を終了するか否かを判定する(ステップS10)。表示制御部133は、探索を終了しないと判定した場合には(ステップS10:否定)、ステップS2に戻る。表示制御部133は、探索を終了すると判定した場合には(ステップS10:肯定)、探索支援処理を終了する。これにより、サーバ100は、探索を効率的に行えるよう支援できる。すなわち、サーバ100は、探索支援処理を継続する場合、探索対象の端末10および救助犬端末40の位置をリアルタイムで提示することができる。また、サーバ100は、探索対象の端末10に対応する探索範囲についても、リアルタイムで表示を変更することができる。
なお、上記実施例では、探索対象の端末10に救助犬が近づいた場合に、端末10に対応する探索範囲を小さくしたが、これに限定されない。例えば、探索対象の端末10の探索範囲を地図上に表示し、救助犬に搭載された救助犬端末40の位置が探索範囲を通過する場合に、通過した位置に応じて探索範囲の面積を小さくするようにしてもよい。例えば、円形の探索範囲に対して救助犬端末40の位置が近づいた場合に、三日月状に探索範囲の面積を小さくする。これにより、未探索の範囲が容易にわかるように情報を提示できる。
また、上記実施例では、救助犬による探索が完了した端末10について、そのまま地図上に表示したが、これに限定されない。例えば、探索対象の端末10の位置と、救助犬に搭載された救助犬端末40の位置とが所定時間以上、所定距離以内である場合に、探索対象の無線端末の位置の表示を変化させる。なお、所定時間は、例えば5分とすることができ、所定距離は、例えば5mとすることができる。すなわち、救助犬が被災者を発見したと推定される場合に、例えば、端末10を示す表示の色を変化させたり、所定の記号、例えば感嘆符「!」を表示させたりする。
また、上記実施例では、救助犬による探索が完了した端末10について、そのまま地図上に継続して表示したが、これに限定されない。例えば、探索対象の端末10の位置と、救助犬に搭載された救助犬端末40の位置とが所定距離以内である時間が所定時間未満である場合に、探索対象の端末10の位置を非表示とする。非表示とした探索対象の端末10は、探索対象記憶部124の項目「探索済」を「Y」にすることで記憶する。なお、所定距離は、例えば5mとすることができ、所定時間は例えば5分とすることができる。すなわち、救助犬が探索対象の端末10の位置を探索したが、被災者を発見できかった場合、その位置には被災者がいないことを示すために、当該端末10の位置を非表示とする。これにより、探索済の端末10の位置を再度探索してしまうことを抑止することができる。
また、上記実施例では、救助犬が探索を行ったが、これに限定されない。例えば、救助隊員が探索を行う場合でも、救助隊員が救助犬端末40と同様の端末を持つことで、同じように探索を支援することができる。
このように、サーバ100は、複数の端末10からの受信電波に基づいて、複数の端末10の位置と受信強度とを取得する。また、サーバ100は、取得した位置のうち、被災地域内に含まれる位置に対応する端末10を探索対象の端末10として抽出する。また、サーバ100は、抽出した端末10に対応する位置に、対応する受信強度に応じた強調度で探索範囲を表示する。その結果、サーバ100は、探索を効率的に行えるよう支援できる。
また、サーバ100は、受信強度が大きいほど、探索範囲を広くまたは赤色で表示する。その結果、サーバ100は、探索範囲を強調して表示できる。
また、サーバ100は、被災地域内に含まれる位置に対応する端末10を探索対象の端末10として抽出する。また、サーバ100は、救助犬に搭載された救助犬端末40の位置を取得する。また、サーバ100は、取得した救助犬に搭載された救助犬端末40の位置と、探索対象の端末10の位置とを地図上に表示するとともに、地図上の1または複数の箇所について観測された風向きを示すデータを表示する。その結果、サーバ100は、探索を効率的に行えるよう支援できる。
また、サーバ100では、救助犬に搭載された救助犬端末40の位置は、犬に対応する文字またはマークにより地図上に表示される。その結果、サーバ100は、救助犬の位置を一目で判別できるように表示できる。
また、サーバ100では、被災地域は、ドローン20によって撮像されたある位置における撮像画像と、対応する位置における過去の撮像画像との差分に応じて特定される。その結果、サーバ100は、被災地域を特定できる。
また、サーバ100では、複数の端末10の位置のうち1以上の端末10の位置は、ドローン20により検出された位置である。その結果、サーバ100は、端末10の位置をリアルタイムに検出できる。
また、サーバ100は、探索対象の端末10の探索範囲を地図上に表示し、救助犬に搭載された救助犬端末40の位置が探索範囲を通過する場合に、通過した位置に応じて探索範囲の面積を小さくする。その結果、サーバ100は、救助犬の探索範囲を効率的に管理できる。
また、サーバ100は、複数の救助犬に搭載された救助犬端末40の位置を取得する。また、サーバ100は、探索範囲の面積が最小となるように、複数の救助犬それぞれの移動ルートを特定する。また、サーバ100は、特定したそれぞれの移動ルートを、複数の救助犬それぞれと対応付けて地図上に表示する。その結果、サーバ100は、救助犬の移動ルートを効率的に管理できる。
また、サーバ100は、風向きを示すデータに基づいて、複数の救助犬それぞれの移動ルートを特定する。その結果、サーバ100は、救助犬の移動ルートを効率的に管理できる。
また、サーバ100は、探索対象の端末10の位置と、救助犬に搭載された救助犬端末40の位置とが所定時間以上、所定距離以内である場合に、探索対象の端末10の位置の表示を変化させる。その結果、サーバ100は、被災者の発見を知らせることができる。
また、サーバ100は、探索対象の端末10の位置と、救助犬に搭載された救助犬端末40の位置とが所定距離以内である時間が所定時間未満である場合に、探索対象の端末10の位置を非表示とする。その結果、サーバ100は、未探索の探索対象の端末10の位置をより明確に表示できる。
また、図示した各部の各構成要素は、必ずしも物理的に図示の如く構成されていることを要しない。すなわち、各部の分散・統合の具体的形態は図示のものに限られず、その全部または一部を、各種の負荷や使用状況等に応じて、任意の単位で機能的または物理的に分散・統合して構成することができる。例えば、表示制御部133と特定部134とを統合してもよい。また、図示した各処理は、上記の順番に限定されるものでなく、処理内容を矛盾させない範囲において、同時に実施してもよく、順序を入れ替えて実施してもよい。
さらに、各装置で行われる各種処理機能は、CPU(またはMPU、MCU(Micro Controller Unit)等のマイクロ・コンピュータ)上で、その全部または任意の一部を実行するようにしてもよい。また、各種処理機能は、CPU(またはMPU、MCU等のマイクロ・コンピュータ)で解析実行されるプログラム上、またはワイヤードロジックによるハードウェア上で、その全部または任意の一部を実行するようにしてもよいことは言うまでもない。
ところで、上記の実施例で説明した各種の処理は、予め用意されたプログラムをコンピュータで実行することで実現できる。そこで、以下では、上記の実施例と同様の機能を有するプログラムを実行するコンピュータの一例を説明する。図20は、探索支援プログラムを実行するコンピュータの一例を示す図である。
図20に示すように、コンピュータ200は、各種演算処理を実行するCPU201と、データ入力を受け付ける入力装置202と、モニタ203とを有する。また、コンピュータ200は、記憶媒体からプログラム等を読み取る媒体読取装置204と、各種装置と接続するためのインタフェース装置205と、他の情報処理装置等と有線または無線により接続するための通信装置206とを有する。また、コンピュータ200は、各種情報を一時記憶するRAM207と、ハードディスク装置208とを有する。また、各装置201~208は、バス209に接続される。
ハードディスク装置208には、図3に示した取得部131、抽出部132、表示制御部133および特定部134の各処理部と同様の機能を有する探索支援プログラムが記憶される。また、ハードディスク装置208には、地図情報記憶部121、撮像画像記憶部122、被災地域記憶部123、探索対象記憶部124、救助犬情報記憶部125、風向情報記憶部126、および、探索支援プログラムを実現するための各種データが記憶される。入力装置202は、例えば、コンピュータ200の管理者から操作情報等の各種情報の入力を受け付ける。モニタ203は、例えば、コンピュータ200の管理者に対して表示画面等の各種画面を表示する。インタフェース装置205は、例えば印刷装置等が接続される。通信装置206は、例えば、図3に示した通信部110と同様の機能を有し図示しないネットワークと接続され、他の情報処理装置等と各種情報をやりとりする。
CPU201は、ハードディスク装置208に記憶された各プログラムを読み出して、RAM207に展開して実行することで、各種の処理を行う。また、これらのプログラムは、コンピュータ200を図3に示した取得部131、抽出部132、表示制御部133および特定部134として機能させることができる。
なお、上記の探索支援プログラムは、必ずしもハードディスク装置208に記憶されている必要はない。例えば、コンピュータ200が読み取り可能な記憶媒体に記憶されたプログラムを、コンピュータ200が読み出して実行するようにしてもよい。コンピュータ200が読み取り可能な記憶媒体は、例えば、CD-ROMやDVDディスク、USB(Universal Serial Bus)メモリ等の可搬型記録媒体、フラッシュメモリ等の半導体メモリ、ハードディスクドライブ等が対応する。また、公衆回線、インターネット、LAN等に接続された装置にこの探索支援プログラムを記憶させておき、コンピュータ200がこれらから探索支援プログラムを読み出して実行するようにしてもよい。
1 探索支援システム
10 端末
20 ドローン
30 ゲートウェイ
40 救助犬端末
50 指揮端末
100 サーバ
110 通信部
111 表示部
112 操作部
120 記憶部
121 地図情報記憶部
122 撮像画像記憶部
123 被災地域記憶部
124 探索対象記憶部
125 救助犬情報記憶部
126 風向情報記憶部
130 制御部
131 取得部
132 抽出部
133 表示制御部
134 特定部
N ネットワーク
10 端末
20 ドローン
30 ゲートウェイ
40 救助犬端末
50 指揮端末
100 サーバ
110 通信部
111 表示部
112 操作部
120 記憶部
121 地図情報記憶部
122 撮像画像記憶部
123 被災地域記憶部
124 探索対象記憶部
125 救助犬情報記憶部
126 風向情報記憶部
130 制御部
131 取得部
132 抽出部
133 表示制御部
134 特定部
N ネットワーク
Claims (15)
- 複数の無線端末からの受信電波に基づいて、前記複数の無線端末の位置と受信強度とを取得し、
取得した位置のうち、被災地域内に含まれる位置に対応する無線端末を探索対象の無線端末として抽出し、
抽出した前記無線端末に対応する位置に、対応する受信強度に応じた強調度で探索範囲を表示する、
処理をコンピュータに実行させることを特徴とする探索支援プログラム。 - 受信強度が大きいほど、探索範囲を広くまたは赤色で表示する、
ことを特徴とする請求項1に記載の探索支援プログラム。 - 被災地域内に含まれる位置に対応する無線端末を探索対象の無線端末として抽出し、
救助犬に搭載された無線端末の位置を取得し、
取得した前記救助犬に搭載された無線端末の位置と、前記探索対象の無線端末の位置とを地図上に表示するとともに、前記地図上の1または複数の箇所について観測された風向きを示すデータを表示する、
処理をコンピュータに実行させることを特徴とする探索支援プログラム。 - 前記救助犬に搭載された無線端末の位置は、犬に対応する文字またはマークにより前記地図上に表示される、
ことを特徴とする請求項3に記載の探索支援プログラム。 - 前記被災地域は、飛行体によって撮像されたある位置における撮像画像と、対応する位置における過去の撮像画像との差分に応じて特定される、
ことを特徴とする請求項3に記載の探索支援プログラム。 - 複数の前記無線端末の位置のうち1以上の無線端末の位置は、前記飛行体により検出された位置である、
ことを特徴とする請求項5に記載の探索支援プログラム。 - 前記表示する処理は、前記探索対象の無線端末の探索範囲を地図上に表示し、前記救助犬に搭載された無線端末の位置が前記探索範囲を通過する場合に、通過した位置に応じて前記探索範囲の面積を小さくする、
ことを特徴とする請求項3に記載の探索支援プログラム。 - 前記取得する処理は、複数の救助犬に搭載された無線端末の位置を取得し、
前記探索範囲の面積が最小となるように、前記複数の救助犬それぞれの移動ルートを特定する処理をコンピュータに実行させ、
前記表示する処理は、特定したそれぞれの前記移動ルートを、前記複数の救助犬それぞれと対応付けて地図上に表示する、
ことを特徴とする請求項7に記載の探索支援プログラム。 - 前記特定する処理は、前記風向きを示すデータに基づいて、前記複数の救助犬それぞれの移動ルートを特定する、
ことを特徴とする請求項8に記載の探索支援プログラム。 - 前記表示する処理は、前記探索対象の無線端末の位置と、前記救助犬に搭載された無線端末の位置とが所定時間以上、所定距離以内である場合に、前記探索対象の無線端末の位置の表示を変化させる、
ことを特徴とする請求項3に記載の探索支援プログラム。 - 前記表示する処理は、前記探索対象の無線端末の位置と、前記救助犬に搭載された無線端末の位置とが所定距離以内である時間が所定時間未満である場合に、前記探索対象の無線端末の位置を非表示とする、
ことを特徴とする請求項3に記載の探索支援プログラム。 - 複数の無線端末からの受信電波に基づいて、前記複数の無線端末の位置と受信強度とを取得し、
取得した位置のうち、被災地域内に含まれる位置に対応する無線端末を探索対象の無線端末として抽出し、
抽出した前記無線端末に対応する位置に、対応する受信強度に応じた強調度で探索範囲を表示する、
処理をコンピュータが実行することを特徴とする探索支援方法。 - 被災地域内に含まれる位置に対応する無線端末を探索対象の無線端末として抽出し、
救助犬に搭載された無線端末の位置を取得し、
取得した前記救助犬に搭載された無線端末の位置と、前記探索対象の無線端末の位置とを地図上に表示するとともに、前記地図上の1または複数の箇所について観測された風向きを示すデータを表示する、
処理をコンピュータが実行することを特徴とする探索支援方法。 - 複数の無線端末からの受信電波に基づいて、前記複数の無線端末の位置と受信強度とを取得する取得部と、
取得した位置のうち、被災地域内に含まれる位置に対応する無線端末を探索対象の無線端末として抽出する抽出部と、
抽出した前記無線端末に対応する位置に、対応する受信強度に応じた強調度で探索範囲を表示する表示制御部と、
を有することを特徴とする探索支援装置。 - 被災地域内に含まれる位置に対応する無線端末を探索対象の無線端末として抽出する抽出部と、
救助犬に搭載された無線端末の位置を取得する取得部と、
取得した前記救助犬に搭載された無線端末の位置と、前記探索対象の無線端末の位置とを地図上に表示するとともに、前記地図上の1または複数の箇所について観測された風向きを示すデータを表示する表示制御部と、
を有することを特徴とする探索支援装置。
Priority Applications (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
PCT/JP2017/013843 WO2018179436A1 (ja) | 2017-03-31 | 2017-03-31 | 探索支援プログラム、探索支援方法および探索支援装置 |
JP2019508495A JP6787481B2 (ja) | 2017-03-31 | 2017-03-31 | 探索支援プログラム、探索支援方法および探索支援装置 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
PCT/JP2017/013843 WO2018179436A1 (ja) | 2017-03-31 | 2017-03-31 | 探索支援プログラム、探索支援方法および探索支援装置 |
Publications (1)
Publication Number | Publication Date |
---|---|
WO2018179436A1 true WO2018179436A1 (ja) | 2018-10-04 |
Family
ID=63674681
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
PCT/JP2017/013843 WO2018179436A1 (ja) | 2017-03-31 | 2017-03-31 | 探索支援プログラム、探索支援方法および探索支援装置 |
Country Status (2)
Country | Link |
---|---|
JP (1) | JP6787481B2 (ja) |
WO (1) | WO2018179436A1 (ja) |
Cited By (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP6997902B1 (ja) | 2021-08-02 | 2022-01-18 | 立花 純江 | 災害時の携帯端末 |
JP2023027610A (ja) * | 2021-08-17 | 2023-03-02 | ピクシーダストテクノロジーズ株式会社 | 測位装置、プログラム、および測位方法 |
KR20230133727A (ko) * | 2022-03-11 | 2023-09-19 | (주)가시 | 스마트 스캐너를 장착한 3대의 드론을 사용한 위치 측위 시스템 및 방법 |
Families Citing this family (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP7233391B2 (ja) * | 2020-02-10 | 2023-03-06 | 三菱電機株式会社 | 河川はん濫および被害予測装置 |
Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2005286777A (ja) * | 2004-03-30 | 2005-10-13 | Yamatake Corp | 無線通信システム |
JP2008252388A (ja) * | 2007-03-29 | 2008-10-16 | Nomura Research Institute Ltd | ナビゲーションシステム及び方法 |
JP2016151493A (ja) * | 2015-02-18 | 2016-08-22 | シャープ株式会社 | 位置推定システム |
Family Cites Families (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2006171893A (ja) * | 2004-12-13 | 2006-06-29 | Institute Of National Colleges Of Technology Japan | 災害救助ロボット、及び災害救助支援システム |
JP2014175858A (ja) * | 2013-03-08 | 2014-09-22 | Sharp Corp | 無線通信端末およびプログラム |
JP6059607B2 (ja) * | 2013-06-10 | 2017-01-11 | 株式会社Nttドコモ | 無線タグ捜索方法およびその装置 |
JP6464483B2 (ja) * | 2015-06-09 | 2019-02-06 | 清水建設株式会社 | 緊急通報システム、緊急通報装置、緊急通報方法、プログラム |
JP6440777B2 (ja) * | 2017-06-29 | 2018-12-19 | 三菱電機株式会社 | 測位端末、携帯電話探索システム、携帯電話探索方法、プログラムおよびサーバ |
-
2017
- 2017-03-31 WO PCT/JP2017/013843 patent/WO2018179436A1/ja active Application Filing
- 2017-03-31 JP JP2019508495A patent/JP6787481B2/ja active Active
Patent Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2005286777A (ja) * | 2004-03-30 | 2005-10-13 | Yamatake Corp | 無線通信システム |
JP2008252388A (ja) * | 2007-03-29 | 2008-10-16 | Nomura Research Institute Ltd | ナビゲーションシステム及び方法 |
JP2016151493A (ja) * | 2015-02-18 | 2016-08-22 | シャープ株式会社 | 位置推定システム |
Cited By (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP6997902B1 (ja) | 2021-08-02 | 2022-01-18 | 立花 純江 | 災害時の携帯端末 |
JP2023021504A (ja) * | 2021-08-02 | 2023-02-14 | 立花 純江 | 災害時の携帯端末 |
JP2023027610A (ja) * | 2021-08-17 | 2023-03-02 | ピクシーダストテクノロジーズ株式会社 | 測位装置、プログラム、および測位方法 |
KR20230133727A (ko) * | 2022-03-11 | 2023-09-19 | (주)가시 | 스마트 스캐너를 장착한 3대의 드론을 사용한 위치 측위 시스템 및 방법 |
KR102710105B1 (ko) * | 2022-03-11 | 2024-09-25 | (주)가시 | 스마트 스캐너를 장착한 3대의 드론을 사용한 위치 측위 시스템 및 방법 |
Also Published As
Publication number | Publication date |
---|---|
JPWO2018179436A1 (ja) | 2020-01-09 |
JP6787481B2 (ja) | 2020-11-18 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US11815359B2 (en) | Method, device and system for processing positioning information | |
US20150369623A1 (en) | Graphical representation generation for multiple points of interest | |
US10747634B2 (en) | System and method for utilizing machine-readable codes for testing a communication network | |
EP3165878A1 (en) | Information processing device, information processing method, and program | |
WO2018179436A1 (ja) | 探索支援プログラム、探索支援方法および探索支援装置 | |
CN109275090B (zh) | 信息处理方法、装置、终端及存储介质 | |
KR101724260B1 (ko) | 재난안전 통합 상황관리를 위한 위치기반 실시간 시나리오 설정방법 | |
JP2014527188A (ja) | 地図画像を収集及び提供するためのシステム及び方法 | |
CN104145173A (zh) | 用于定位的视觉ocr | |
US20230247181A1 (en) | Information processing apparatus, information processing method, program, and information collection system | |
US20150294396A1 (en) | Item location indication in indoor environment | |
CN104931051A (zh) | 基于大数据的室内电子地图绘制和导航方法及其系统 | |
US20190011269A1 (en) | Position estimation device, position estimation method, and recording medium | |
US10628976B2 (en) | Information processing system, information processing method, and storage medium | |
US20130159862A1 (en) | Automated network inventory using a user device | |
US20180025461A1 (en) | Dynamic interactive navigation | |
JP6376654B2 (ja) | ルート提示装置、移動端末、ルート提示方法、ルート表示方法、ルート提示プログラム及びルート表示プログラム | |
KR102031332B1 (ko) | 내비게이션 서비스 제공 방법 및 그 장치 | |
WO2018230656A1 (ja) | 地点情報提供システム、地点情報提供方法、およびプログラム | |
JP7307139B2 (ja) | 追跡装置により捕捉される少なくとも1つの無線信号観測結果セットに基づく、追跡装置が対象エリア内にいるかどうかの判定 | |
JP6581878B2 (ja) | ナビゲーションシステム、情報処理装置、プログラム | |
JP6891241B2 (ja) | 地図表示システム、地図表示方法、及びプログラム | |
JP6520535B2 (ja) | 情報配信方法、情報配信プログラムおよび情報配信装置 | |
JP2021189637A (ja) | 情報処理装置、及びコンピュータプログラム | |
JP5362204B2 (ja) | 地図表示システム、地図表示サーバ、地図表示方法、および、コンピュータプログラム |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
121 | Ep: the epo has been informed by wipo that ep was designated in this application |
Ref document number: 17902808 Country of ref document: EP Kind code of ref document: A1 |
|
ENP | Entry into the national phase |
Ref document number: 2019508495 Country of ref document: JP Kind code of ref document: A |
|
NENP | Non-entry into the national phase |
Ref country code: DE |
|
122 | Ep: pct application non-entry in european phase |
Ref document number: 17902808 Country of ref document: EP Kind code of ref document: A1 |