KR20170108552A - Information system for analysis of waterfront structure damage - Google Patents
Information system for analysis of waterfront structure damage Download PDFInfo
- Publication number
- KR20170108552A KR20170108552A KR1020160032637A KR20160032637A KR20170108552A KR 20170108552 A KR20170108552 A KR 20170108552A KR 1020160032637 A KR1020160032637 A KR 1020160032637A KR 20160032637 A KR20160032637 A KR 20160032637A KR 20170108552 A KR20170108552 A KR 20170108552A
- Authority
- KR
- South Korea
- Prior art keywords
- damage
- information
- data
- image
- present
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Withdrawn
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06Q—INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
- G06Q50/00—Information and communication technology [ICT] specially adapted for implementation of business processes of specific business sectors, e.g. utilities or tourism
- G06Q50/10—Services
- G06Q50/26—Government or public services
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B64—AIRCRAFT; AVIATION; COSMONAUTICS
- B64C—AEROPLANES; HELICOPTERS
- B64C39/00—Aircraft not otherwise provided for
- B64C39/02—Aircraft not otherwise provided for characterised by special use
- B64C39/024—Aircraft not otherwise provided for characterised by special use of the remote controlled vehicle type, i.e. RPV
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06Q—INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
- G06Q50/00—Information and communication technology [ICT] specially adapted for implementation of business processes of specific business sectors, e.g. utilities or tourism
- G06Q50/10—Services
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T17/00—Three dimensional [3D] modelling, e.g. data description of 3D objects
- G06T17/05—Geographic models
-
- B64C2201/127—
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10032—Satellite or aerial image; Remote sensing
Landscapes
- Business, Economics & Management (AREA)
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- Tourism & Hospitality (AREA)
- Theoretical Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Strategic Management (AREA)
- Geometry (AREA)
- Marketing (AREA)
- Primary Health Care (AREA)
- General Health & Medical Sciences (AREA)
- Economics (AREA)
- General Business, Economics & Management (AREA)
- Health & Medical Sciences (AREA)
- Software Systems (AREA)
- Human Resources & Organizations (AREA)
- Remote Sensing (AREA)
- Aviation & Aerospace Engineering (AREA)
- Computer Graphics (AREA)
- Development Economics (AREA)
- Educational Administration (AREA)
- Processing Or Creating Images (AREA)
- Image Analysis (AREA)
Abstract
본 발명은 수변구조물 피해정보 분석을 위한 정보시스템 구축방안에 관한 것이다. 본 발명에 따른 수변구조물 피해정보 분석을 위한 정보시스템은, 피해 시점에 촬영된 무인항공기 영상들과 과거에 구축한 동일지역의 레퍼런스 데이터를 저장하는 저장부, 상기 촬영 당시의 위치 및 자세정보를 알 수 있는 각 영상들의 외부표정요소 정보를 입력하는 입력부, 입력된 무인항공기 영상으로부터 외부표정요소를 통하여 개별 촬영 위치를 풋프린트 형태로 확인하는 확인부 및 상기 입력된 무인항공기 영상으로부터 영상정합을 수행하여 3차원 점군 데이터를 생성하고, 상기 레퍼런스 데이터와 비교하여 피해영역을 탐지하는 탐지부를 포함할 수 있다.The present invention relates to a method for constructing an information system for analyzing damage information on a waterfront structure. The information system for analyzing damage information on the waterfront structure according to the present invention includes a storage unit for storing the unmanned aerial photographs taken at the time of the damage and the reference data of the same area constructed in the past, A verification unit for confirming individual photographing positions in a footprint form through an external facial expression element from the input unmanned airplane image, and an image matching unit for performing image matching from the input unmanned airplane image Dimensional point cloud data, and a detection unit for detecting the damaged region by comparing the reference point cloud data with the reference data.
Description
본 발명은 태풍, 호우와 같은 자연재해 발생 시, 댐, 보, 교량, 제방, 옹벽, 절토사면 등 수변 구조물의 피해정보를 신속하게 분석하여 피해복구 의사결정에 필요한 정보를 제공하는 공간정보 기반의 정보시스템을 구축하는 방법과 개발에 관한 것이다.The present invention is based on a spatial information-based system for quickly analyzing damages information on a waterside structure such as a dam, a beam, a bridge, a dam, a retaining wall, and a cut slope when a natural disaster such as a typhoon or a heavy rain occurs, And how to build an information system.
최근 지구온난화로 인한 기후변화가 가속화되면서 국지성 집중호우 및 태풍 피해가 빈번해지고 있다. 이러한 피해상황은 많은 인적물적 피해를 발생시키며 특히 국가 기반 시설들의 피해들은 복구가 늦어지는 경우 추가적인 인명피해와 사회적 불편이 가중된다.Recently, as climate change due to global warming accelerates, localized heavy rain and typhoon damage are frequent. These damages cause many human and material damages, especially when the damage of the national infrastructure is delayed, the additional loss of lives and social inconvenience are increased.
결국 신속한 피해정보의 분석과 적시적인 복구 활동을 지원하기 위한 기술개발은 우리가 매우 중요하게 여겨야 할 단계이다. 기존에는 이러한 피해들의 조사 및 복구가 지방자치단체 단위로 이루어져 왔으며, 조사 담당 공무원 개개인의 피해조사 방식에 따라 때로 객관적인 피해조사가 어려운 경우도 있다.Ultimately, the development of technology to support rapid analysis of damage information and timely recovery activities is a very important step for us. In the past, the investigation and restoration of these damages have been carried out by the local autonomous entities. In some cases, it is sometimes difficult to investigate the objective damage according to the investigation method of individual civil servants.
이러한 인력에 의존해 이루어지는 피해조사의 단점을 개선하기 위해 많은 분야에서 과학기술과 공간정보(GIS) 기술을 활용하여 많은 연구들이 이루어지고 있다.In order to improve the disadvantages of damage investigation based on such manpower, many studies have been carried out using technology of science and space (GIS) in many fields.
현재 많은 기술개발 및 연구들은 항공영상이나 위성영상을 사용하여 피해위치나 전체 영역을 분석하고 있으며, 이는 피해정보의 정확한 분석보다는 어느 정도 정확도의 손실을 감수한 개략적 분석에 치중하고 있다.Currently, many technology developments and studies use aerial images or satellite images to analyze the damage location and the whole area. This focuses on a rough analysis that takes some loss of accuracy rather than an accurate analysis of damage information.
또한 주로 2차원적인 면적정보 산출에 치중하고 있어, 피해복구를 위한 정확한 정보를 전달하는 것에는 한계를 가지고 있다.Also, it mainly focuses on the calculation of two - dimensional area information, and there is a limitation in transmitting accurate information for restoration.
본 발명에서 중점을 두는 부분은 피해영역의 위치와 피해 정보의 양을 정확히 추출하는 것이며, 여기에 3차원 정보를 분석하여 부피 정보를 추출하는 것에 있다.The emphasis of the present invention is to accurately extract the location of the damaged area and the amount of damage information, and to extract the volume information by analyzing the three-dimensional information.
본 발명은 상기와 같은 문제점을 해결하기 위하여 안출된 것으로서, 태풍, 호우, 지진 등의 자연재해 발생 시 댐, 보, 교량, 제방, 옹벽, 절토사면 등 수변구조물의 피해상황을 신속하게 파악하여 피해복구 의사결정에 필요한 분석정보를 제공할 수 있는 것을 목적으로 한다.Disclosure of Invention Technical Problem [8] Accordingly, the present invention has been made in order to solve the above-mentioned problems, and it is an object of the present invention to quickly identify damages of dam structures such as dams, boats, bridges, banks, retaining walls, and slope slopes when a natural disaster such as a typhoon, And to provide analysis information necessary for recovery decision making.
상기의 목적을 이루기 위한 수변구조물 피해정보 분석을 위한 정보시스템은, 피해 시점에 촬영된 무인항공기 영상들과 과거에 구축한 동일지역의 레퍼런스 데이터를 저장하는 저장부, 상기 촬영 당시의 위치 및 자세정보를 알 수 있는 각 영상들의 외부표정요소 정보를 입력하는 입력부, 입력된 무인항공기 영상으로부터 외부표정요소를 통하여 개별 촬영 위치를 풋프린트 형태로 확인하는 확인부 및 상기 입력된 무인항공기 영상으로부터 영상정합을 수행하여 3차원 점군 데이터를 생성하고, 상기 레퍼런스 데이터와 비교하여 피해영역을 탐지하는 탐지부를 포함할 수 있다.The information system for analyzing damage information of the waterfront structure for achieving the above object includes a storage unit for storing the unmanned aerial photographs taken at the time of the damage and the reference data of the same area constructed in the past, An identifying unit for identifying an individual photographing position in a footprint form through an external facial expression element from the input unmanned airplane image, and an image matching unit for obtaining image matching from the input unmanned airplane image, And generating a three-dimensional point cloud data, and comparing the detected point cloud data with the reference data to detect a damaged region.
본 발명의 일실시예에 따르면, 무인항공기로 촬영한 영상정보와 각종 공간정보 DB들을 통해 피해지역의 3차원 정보를 생성 및 분석하고, 레퍼런스 데이터와 비교하여 피해로 판별되는 영역을 자동으로 계산해주는 시스템의 구축방안과 초기 모듈을 제공함으로써, 재난재해 발생 시 직접 현장에 가지 않고도 무인항공기의 영상만을 사용하여 원거리에서 해당 지역의 피해정보를 신속하게 분석하고 정확한 의사결정을 하기 위한 자료를 제공할 수 있다.According to an embodiment of the present invention, three-dimensional information of a damaged area is generated and analyzed through image information captured by an unmanned aerial vehicle and various spatial information databases, and compared with reference data to automatically calculate an area determined to be damaged By providing the system construction method and the initial modules, it is possible to analyze the damage information in the remote area at a distance using the image of the unmanned aerial vehicle without directly going to the scene in case of a disaster, have.
도 1은 본 발명의 일실시예에 따른 수변구조물 피해정보 분석을 위한 정보시스템을 나타내는 블록도이다.
도 2는 본 발명의 일실시예에 따른 무인항공기 촬영 영상 일례를 설명하기 위한 도면이다.
도 3은 본 발명의 일실시예에 따른 외부표정요소를 설명하기 위한 도면이다.
도 4는 본 발명의 일실시예에 따른 피해정보 분석 과정을 설명하기 위한 도면이다.
도 5는 본 발명의 일실시예에 따른 영상매칭 결과를 나타낸 도면이다.
도 6은 본 발명의일실시예에 따른 피해분석시스템의 작동 과정을 나타낸 도면이다.
도 7은 본 발명의 일실시예에 따른 피해정보분석 시스템에 대한 아키텍처 일례를 나타낸 도면이다.
도 8은 본 발명의 일실시예에 따른 피해분석시스템을 구성하는 모듈 종류 및 프로세스를 설명하기 위한 도면이다.
도 9는 본 발명의 일실시예에 따른 피해정보 관리 및 가시화 모듈 요구기능에 대한 정의를 설명하기 위한 도면이다.
도 10은 본 발명의 일실시예에 따른 피해정보 관리 및 가시화 모듈의 도시 및 제어 요구기능 정의를 설명하기 위한 도면이다.
도 11은 본 발명의 일실시예에 따른 무인항공기 영상 관리 모듈을 설명하기 위한 도면이다.
도 12 및 도 13은 본 발명의 일실시예에 따른 UAV영상과 배경지도를 설명하기 위한 도면이다.
도 14는 본 발명의 일실시예에 따른 피해정보 추출 및 분석 모듈의 요구기능에 대한 정의를 설명하기 위한 도면이다.
도 15는 본 발명의 일실시예에 따른 피해정보 추출 및 분석 모듈을 설명하기 위한 도면이다.
도 16은 본 발명의 일실시예에 따른 매칭 결과의 높이(Height) 기준을 도시한 도면이다.
도 17은 본 발명의 일실시예에 따른 매칭 결과의 음영 기준을 도시한 도면이다.
도 18은 본 발명의 일실시예에 따른 피해 영역의 점(point) 형태를 가시화한 도면이다.
도 19는 본 발명의 일실시예에 따른 피해 영역의 선(line) 형태를 가시화한 도면이다.
도 20은 본 발명의 일실시예에 따른 피해 영역의 표면(surface) 형태를 가시화한 도면이다.
도 21은 본 발명의 일실시예에 따른 피해 영역의 정량적 정보 표출을 설명하기 위한 도면이다.1 is a block diagram illustrating an information system for analyzing damage information on a waterfront structure according to an embodiment of the present invention.
2 is a view for explaining an example of an image of an unmanned aerial vehicle according to an embodiment of the present invention.
FIG. 3 is a view for explaining an external facial expression element according to an embodiment of the present invention.
4 is a diagram for explaining a damage information analysis process according to an embodiment of the present invention.
FIG. 5 is a diagram illustrating an image matching result according to an exemplary embodiment of the present invention. Referring to FIG.
6 is a flowchart illustrating an operation of the damage analysis system according to an embodiment of the present invention.
7 is a diagram illustrating an example of an architecture of a damage information analysis system according to an embodiment of the present invention.
8 is a view for explaining a module type and a process of the damage analysis system according to an embodiment of the present invention.
FIG. 9 is a view for explaining definitions of damage information management and visualization module requesting functions according to an embodiment of the present invention.
FIG. 10 is a view for explaining an illustration and a control request function definition of a damage information management and visualization module according to an embodiment of the present invention.
11 is a view for explaining a UAV management module according to an embodiment of the present invention.
12 and 13 are views for explaining a UAV image and a background map according to an embodiment of the present invention.
14 is a diagram for explaining the definition of a required function of the damage information extraction and analysis module according to an embodiment of the present invention.
15 is a diagram for explaining a damage information extracting and analyzing module according to an embodiment of the present invention.
FIG. 16 is a diagram illustrating a height criterion of a matching result according to an embodiment of the present invention.
17 is a diagram illustrating a shading criterion of a matching result according to an embodiment of the present invention.
18 is a diagram showing a point shape of a damaged area according to an embodiment of the present invention.
FIG. 19 is a diagram showing a line shape of a damaged area according to an embodiment of the present invention.
20 is a view showing a surface shape of a damaged area according to an embodiment of the present invention.
FIG. 21 is a view for explaining quantitative information disclosure of a damaged area according to an embodiment of the present invention.
이하에서, 본 발명에 따른 실시예들을 첨부된 도면을 참조하여 상세하게 설명한다. 그러나, 본 발명이 실시예들에 의해 제한되거나 한정되는 것은 아니다. 각 도면에 제시된 동일한 참조 부호는 동일한 부재를 나타낸다.Hereinafter, embodiments according to the present invention will be described in detail with reference to the accompanying drawings. However, the present invention is not limited to or limited by the embodiments. Like reference symbols in the drawings denote like elements.
본 발명에서는 태풍이나 집중호우 시 불어난 강물로 인해 피해가 빈번하게 발생하는 수변구조물 지역을 대상으로 하나, 이에 한정된 것은 아니다.The present invention is not limited to a waterside structure area where damage is frequently caused by typhoons or floods during heavy rainfall.
도 1은 본 발명의 일실시예에 따른 수변구조물 피해정보 분석을 위한 정보시스템을 나타내는 블록도이다.1 is a block diagram illustrating an information system for analyzing damage information on a waterfront structure according to an embodiment of the present invention.
본 발명의 수변구조물 피해정보 분석을 위한 정보시스템(100)(이하, '피해분석 시스템'이라 약칭함, 100)는 저장부(110), 입력부(120), 확인부(130) 및 탐지부(140)를 포함할 수 있다. 또한, 실시예에 따라, 피해분석 시스템(100)은 표시부(150)를 추가하여 구성할 수 있다.An
저장부(110)는 피해 시점에 촬영된 무인항공기 영상들과 과거에 구축한 동일지역의 레퍼런스 데이터를 저장할 수 있다.The storage unit 110 can store the unmanned aerial photographs taken at the time of the damage and the reference data of the same area constructed in the past.
입력부(120)는 상기 촬영 당시의 위치 및 자세정보를 알 수 있는 각 영상들의 외부표정요소 정보를 입력할 수 있다.The input unit 120 may input external facial expression element information of each of the images, which can identify the position and attitude information at the time of photographing.
확인부(130)는 입력된 무인항공기 영상으로부터 외부표정요소를 통하여 개별 촬영 위치를 풋프린트 형태로 확인할 수 있다.The confirmation unit 130 can confirm the individual photographing position in the footprint form through the external facial expression element from the inputted image of the unmanned aerial vehicle.
탐지부(140)는 상기 입력된 무인항공기 영상으로부터 영상정합을 수행하여 3차원 점군 데이터를 생성하고, 상기 레퍼런스 데이터와 비교하여 피해영역을 탐지할 수 있다.The detection unit 140 may perform image matching from the input unmanned airplane image to generate three-dimensional point cloud data, and may compare the reference point cloud data with the reference data to detect the damaged region.
또한, 탐지부(140)는 2차원 형태인 무인항공기 영상들에서 3차원 형태인 점군 데이터를 추출하고, 3차원으로 구축된 상기 레퍼런스 데이터와 비교하되, 상기 점군 데이터 및 상기 레퍼런스 데이터의 높이 차에 대하여 피해로 인한 손실된 영역으로 판단할 수 있다.In addition, the detection unit 140 extracts the point cloud data, which are three-dimensional shapes, from the two-dimensional unmanned airplane images, and compares the point cloud data with the reference data constructed in three dimensions, It can be judged as the lost area due to the damage.
표시부(150)는 상기 피해영역을 탐지하면, 상기 피해영역과 관련된 피해정보 결과를 표시할 수 있다. 또한, 표시부(150)는 상기 피해영역에 대한 피해 위치 및 피해 양을 적어도 포함하도록 피해정보 결과를 표시할 수 있다.The display unit 150 may display the damage information result related to the damage area when the damage area is detected. In addition, the display unit 150 may display the damage information result so as to include at least the damage position and damage amount for the damage area.
본 발명은 교량과 제방 등에 빈번하게 발생하는 시설물의 파손, 유실 피해를 가정하여 피해정보의 정량적 값을 추출할 수 있다. 이를 위해 필요한 데이터는 무인항공기 촬영 영상과 공간정보 DB 두 가지로 나누어질 수 있다.The present invention can extract the quantitative value of damage information on the assumption of damages and loss of facilities frequently occurring in bridges, banks, and the like. The data required for this can be divided into two types: the unmanned aerial photographs and the spatial information database.
도 2는 본 발명의 일실시예에 따른 무인항공기 촬영 영상 일례를 설명하기 위한 도면이다.2 is a view for explaining an example of an image of an unmanned aerial vehicle according to an embodiment of the present invention.
무인항공기 영상은 3차원 정보를 생성하기 위한 영상매칭 기술의 원천자료가 될 수 있으며, 공간정보 DB는 영상매칭을 통해 생성된 3차원 정보와 비교하여 변화탐지를 수행하기 위한 참조자료로 활용될 수 있다.The unmanned aerial vehicle image can be used as a source of the image matching technology for generating 3D information, and the spatial information DB can be used as reference data for performing change detection compared with the 3D information generated through image matching have.
도 3은 본 발명의 일실시예에 따른 외부표정요소를 설명하기 위한 도면이다.FIG. 3 is a view for explaining an external facial expression element according to an embodiment of the present invention.
영상 매칭을 수행하기 위해 무인항공기 영상은 영상 그 자체와 함께 개별 영상의 외부표정요소(Exterior orientation parameters, EOPs)로 구성되며, 외부표정요소는 GPS/INS 센서에서 획득되는 촬영 당시의 센서위치를 나타내며 정확한 측량을 위해 반드시 필요한 정보일 수 있다.In order to perform the image matching, the image of the UAV is composed of the image itself and the exterior orientation parameters (EOPs) of the individual image, and the external facial expression represents the position of the sensor at the time of shooting acquired by the GPS / INS sensor It may be necessary information for accurate measurement.
외부표정요소는 무인항공기 촬영 당시의 위치 좌표와 자세정보로 이루어져 있으며, 모든 영상은 촬영 위치와 자세가 다르므로 각각 개별적으로 가지고 있는 정보일 수 있다.The outer facial element consists of position coordinates and attitude information at the shooting time of the UAV, and all the images can be information that they have individually because they are different in the shooting position and posture.
이와 함께 무인항공기에 탑재한 카메라 자체의 오차를 보정한 캘리브레이션 파일 정보도 포함되어 촬영 과정에서 발생할 수 있는 모든 오류들을 사전에 방지할 수 있다.In addition, the calibration file information corrected for the error of the camera mounted on the unmanned aerial vehicle is also included, so that any errors that may occur during the shooting process can be prevented in advance.
영상매칭 결과와 비교탐지를 수행하는 레퍼런스 데이터는 영상정합 결과로부터 추출되는 점군 데이터와 비교하기 위해 피해발생 이전에 구축된 공간정보를 의미할 수 있다.The reference data that performs the image matching result and the comparison detection may refer to the spatial information constructed before the damage occurrence to compare with the point cloud data extracted from the image matching result.
이러한 레퍼런스로 활용되는 공간정보는 무인항공기 영상, 정사영상, 일반적인 보정이 되지 않은 항공영상, 항공라이다 후처리데이터, DSM(Digital Surface Model) 및 3D 수변구조물 객체모델이 있을 수 있다.The spatial information used as the reference may be an unmanned aerial vehicle image, an orthoimage image, an aerial image not generally corrected, an aerial image data, a digital surface model (DSM), and a 3D watershed structure object model.
이 레퍼런스는 무인항공기 영상매칭 결과와 자동으로 비교하여 변화탐지를 수행하거나, 영상매칭이 수행되지 않을 경우에 육안 및 수동으로 피해지역을 판별하는 근거 데이터로 활용하게 될 수 있다.This reference can be used to perform change detection by automatically comparing with the unmanned aerial vehicle image matching result, or as a grounding data to visually and manually identify the damaged area when image matching is not performed.
결국 본 발명에서 피해분석의 핵심은 무인항공기 영상매칭 기법의 결과와 그 결과를 레퍼런스와 비교하여 피해지역을 산출하는 방법론을 의미할 수 있다.In the end, the main point of the damage analysis in the present invention may be a method of calculating the damage area by comparing the result of the image matching technique of the unmanned aerial vehicle with the reference.
영상매칭 기법은 2차원 형태인 무인항공기 영상들에서 3차원 형태인 점군 데이터를 추출하는 것이 핵심이며, 이를 3차원으로 구축된 레퍼런스 데이터와 비교, 두 데이터의 높이 차는 피해로 인한 손실된 영역으로 판별할 수 있다.In the image matching technique, it is essential to extract point cloud data, which is a three-dimensional shape, from two-dimensional unmanned airplane images. Comparing this with reference data constructed in three dimensions, the height difference between two data is discriminated as a lost area due to damage can do.
도 4는 본 발명의 일실시예에 따른 피해정보 분석 과정을 설명하기 위한 도면이다.4 is a diagram for explaining a damage information analysis process according to an embodiment of the present invention.
수변구조물의 피해를 분석하기 위하여 본 발명에서는 기본적으로 피해 시점에 촬영된 무인항공기 영상들과 과거에 구축한 동일지역의 레퍼런스 데이터를 활용하나, 이에 한정된 것은 아니다.In order to analyze the damage of the waterfront structure, the present invention basically utilizes the unmanned aerial photographs taken at the time of the damage and the reference data of the same area constructed in the past, but is not limited thereto.
촬영된 무인항공기 영상은 사용한 카메라의 보정된 정보와 촬영 당시의 위치 및 자세정보를 알 수 있는 각 영상들의 외부표정요소 정보를 모두 포함한 DB 형태로 입력될 수 있다.The photographed unmanned aerial vehicle image can be input in the form of a DB including both the corrected information of the used camera and the external facial expression information of the respective images, which can know the position and attitude information at the time of photographing.
입력된 무인항공기 영상은 외부표정요소를 사용하여 개별 촬영 위치를 풋프린트(Footprint) 형태로 확인할 수 있으며, 영상매칭이 수행되기 전에는 사용자가 영상으로 피해영역을 확인할 수 있다.The input image of the unmanned aerial vehicle can be confirmed by footprint using the external facial expression element and the user can confirm the damage area by the image before the image matching is performed.
입력된 무인항공기 영상은 영상정합을 수행하여 3차원 점군 데이터를 생성하며, 이 결과는 레퍼런스와 비교하여 피해영역을 탐지할 수 있다.The input unmanned airplane image performs image matching to generate three-dimensional point cloud data, and this result can be compared with the reference to detect the damaged area.
도 5는 본 발명의 일실시예에 따른 영상매칭 결과를 나타낸 도면이다.FIG. 5 is a diagram illustrating an image matching result according to an exemplary embodiment of the present invention. Referring to FIG.
프로세스에서 적용하는 무인항공기 영상매칭은 도 5에 도시된 바와 같이, 여러 장의 동일 영역의 영상을 영상처리 알고리즘을 사용하여 3차원 형태의 형상을 생성하는 기술일 수 있다.As shown in FIG. 5, the image matching of the unmanned aerial vehicle applied in the process may be a technique of generating a three-dimensional shape using an image processing algorithm for images of a plurality of identical areas.
생성되는 3차원 점군 데이터는 상대모델 공간에서의 형상을 재현할 수 있으며, 이는 절대공간 실세계와 동일한 크기(scale)와 좌표(coordinate) 정보를 가지도록 변환해주는 절차를 포함시켜야 하며, 이는 지오레퍼런싱 작업이라 할 수 있다.The generated 3D point cloud data can reproduce the shape in the relative model space and it should include a procedure to convert it to have the same scale and coordinate information as the absolute space real world, It can be said that it is a singing operation.
지오레퍼런싱 작업은 대형 프레임카메라 등을 사용하여 항공사진을 촬영하여 지도를 만드는 공간정보 분야의 기술이며, 컴퓨터 안에서의 가상세계에서 실제 우리가 살아가는 실세계를 동일하게 만들어 주는 기술일 수 있다. Georeferencing is a technology in the space information field that uses aerial photographs taken using a large frame camera to create a map. It can be a technology that makes the actual world in which we live in the virtual world in the computer the same.
도 6은 본 발명의일실시예에 따른 피해분석시스템의 작동 과정을 나타낸 도면이다.6 is a flowchart illustrating an operation of the damage analysis system according to an embodiment of the present invention.
피해분석 시스템(100)은 영상매칭 기술과 변화탐지 기술이 소프트웨어로 구현되어, 무인항공기 영상과 공간정보DB들을 입력데이터로 피해정보를 분석하는 프로그램일 수 있다. 이 프로그램의 결과물은 매칭결과와 레퍼런스 데이터의 높이(Z)값 비교로 추출되는 피해영역의 정량적 부피 값일 수 있다.The
사전에 피해탐지 시나리오를 설정하여 시스템 기반으로 프로세스를 설계하였으며 시나리오는 도 6에 도시된 바와 같다.The process is designed based on the system by setting the damage detection scenario in advance and the scenario is as shown in Fig.
2D 기반의 가시화모듈에서 무인항공기 영상을 입력으로 받아들인 후에는 영상매칭 결과를 가지고 3D 기반의 분석모듈이 수행되어 상기한 피해탐지 및 분석 과정들이 진행될 수 있다.After the 2D-based visualization module receives the unmanned aerial image as an input, the 3D-based analysis module is executed with the image matching result, and the damage detection and analysis processes described above can be performed.
최종 피해정보는 가시화를 위한 피해영역 범위의 폴리곤(Polygon) 정보와 해당 영역의 위치좌표, 길이, 넓이, 부피 등의 정보를 보여줄 수 있다.The final damage information may include polygon information of the damage area range for visualization and information such as position coordinates, length, width, and volume of the corresponding area.
결국 위와 같은 작동 프로세스를 위해서는 각 단계 별로 소프트웨어 일부로 이루어진 모듈을 개발하여야 하며, 개별 모듈은 무인항공기 영상 관리 및 가시화모듈, 다중영상매칭 모듈, 피해정보 분석 모듈로 구성될 수 있다.As a result, for the above-mentioned operation process, a module composed of a software part must be developed for each step, and each module can be composed of an unmanned aerial vehicle image management and visualization module, a multiple image matching module, and a damage information analysis module.
도 7은 본 발명의 일실시예에 따른 피해정보분석 시스템에 대한 아키텍처 일례를 나타낸 도면이다.7 is a diagram illustrating an example of an architecture of a damage information analysis system according to an embodiment of the present invention.
본 발명에서 제안하는 시스템(100)의 구축방안에 대해서 도 7에 도시된 바와 같이 시스템 아키텍처가 설계될 수 있다. 본 아키텍처는 공간정보 DB들이 저장되어 있는 서버시스템을 포함할 수 있다.The system architecture can be designed as shown in FIG. 7 with respect to the construction of the
도 8은 본 발명의 일실시예에 따른 피해분석시스템을 구성하는 모듈 종류 및 프로세스를 설명하기 위한 도면이다.8 is a view for explaining a module type and a process of the damage analysis system according to an embodiment of the present invention.
각 모듈은 별도의 프로그램으로 구현되지만, 종국에 가서 하나의 시스템으로 통합되어 하나의 UI(User Interface)에서 실행되도록 구현될 수 있다.Each module may be implemented as a separate program, but may be implemented to be executed in a single UI (User Interface) in the end and integrated into one system.
먼저 무인항공기 영상과 관련 DB들을 읽어들이는 2D 기반의 영상 입력 및 가시화모듈이 필요하며, 이는 사용자에 의해 자유롭게 데이터 제어가 가능할 수 있다.First, 2D - based image input and visualization module that reads unmanned aircraft images and related DBs is required, and data control can be freely performed by the user.
이와 같은 기능의 수요를 분석하여 2D 기반의 피해정보 관리 및 가시화 모듈의 요구기능을 도 9에 도시된 바와 같이 정의할 수 있다. 도 9는 본 발명의 일실시예에 따른 피해정보 관리 및 가시화 모듈 요구기능에 대한 정의를 설명하기 위한 도면이다.By analyzing the demand of such functions, the 2D-based damage information management and the required functions of the visualization module can be defined as shown in FIG. FIG. 9 is a view for explaining definitions of damage information management and visualization module requesting functions according to an embodiment of the present invention.
또한 피해정보 관리 및 가시화 모듈은 대용량 데이터들을 화면에 도시하고, 이를 사용자가 핸들링할 수 있는 기능을 제공할 수 있다.In addition, the damage information management and visualization module can display a large amount of data on a screen and provide a function for the user to handle it.
이와 같은 요구사항도 반영되어 도 10에 도시된 바와 같이 데이터 도시 및 제어에 관한 요구기능을 정의할 수 있다. 도 10은 본 발명의 일실시예에 따른 피해정보 관리 및 가시화 모듈의 도시 및 제어 요구기능 정의를 설명하기 위한 도면이다.These requirements can also be reflected to define the required functions for data city and control as shown in FIG. FIG. 10 is a view for explaining an illustration and a control request function definition of a damage information management and visualization module according to an embodiment of the present invention.
본 모듈에서 도시하거나 제어하는 2D와 3D 데이터들은 사전에 모두 촬영 및 구축되어 있다고 전제하며, 구축된 데이터들은 본 시스템(100)에서 설계에 반영한 서버시스템에 데이터베이스(DB)로 저장될 수 있다.It is assumed that 2D and 3D data shown or controlled by the module are all photographed and constructed in advance, and the constructed data can be stored in a database (DB) in a server system that is reflected in the design in the
데이터베이스는 오라클(Oracle)로 설계되며, 상황에 따라 구동 시스템과 데이터베이스가 원활하게 원거리 통신이 가능하도록 설계될 수 있다.The database is designed as Oracle, and can be designed to enable long distance communication between the operating system and the database, depending on the situation.
저장되는 데이터들은 데이터 취득일자, 데이터 포함지역의 공간좌표, 데이터 포맷에 따라 구분되어 저장될 수 있다.The data to be stored may be classified according to the data acquisition date, the spatial coordinates of the data containing area, and the data format.
도 11은 본 발명의 일실시예에 따른 무인항공기 영상 관리 모듈을 설명하기 위한 도면이다.11 is a view for explaining a UAV management module according to an embodiment of the present invention.
해당 모듈은 무인항공기로 촬영한 피해지역의 영상 리스트의 입력을 가능하게 하며, 개별 영상들의 위치를 표현해주는 풋프린트(Footprint) 기능을 제공할 수 있다.The module enables the input of the image list of the damaged area photographed by the unmanned aerial vehicle, and can provide a footprint function expressing the position of the individual images.
입력된 무인항공기 영상 세트(set)는 개별 영상 목록과 각 영상이 가진 외부표정요소 값이 모두 표시되는 목록조회 화면과 개별 영상 확대 기능 등으로 구성될 수 있다.The inputted set of the unmanned aerial vehicle image can be composed of a list view screen in which both the individual image list and the external appearance element values of each image are displayed, and the individual image enlarging function.
사용자는 입력된 영상의 목록 조회가 가능하고 선택 영상의 이동, 축소, 확대, 회전 등 기본 뷰잉(Viewing) 기능을 사용할 수 있다. The user can search the list of inputted images and use the basic viewing function such as moving, reducing, enlarging and rotating selected images.
또한 영상관리 모듈의 전체 UI 및 프레임에서 UAV 영상 및 위치는 배경지도 위에 표시되어 영상이 입력되면서 대략적인 위치가 확인이 가능할 수 있다.Also, the UAV image and position in the entire UI and frame of the video management module may be displayed on the background map, and the approximate position can be confirmed while the image is input.
도 12 및 도 13은 본 발명의 일실시예에 따른 UAV영상과 배경지도를 설명하기 위한 도면이다.12 and 13 are views for explaining a UAV image and a background map according to an embodiment of the present invention.
도시된 피해영역으로 의심되는 무인항공기 영상 DB는 영상매칭 단계가 수행되어 3차원 정보를 생성하게 되며, 해당 데이터는 점군(Point) 데이터 혹은 모델(Model) 데이터로 추출될 수 있다.The image matching step of the unmanned aerial vehicle image DB suspected to be the damage region shown in the figure is performed to generate three-dimensional information, and the corresponding data can be extracted as point data or model data.
추출된 데이터는 3차원 데이터를 도시 및 관리할 수 있는 피해정보 추출 및 분석 모듈에서 피해영역의 변화탐지 및 피해정보 분석 및 추출을 수행할 수 있다.The extracted data can detect change of damage area and analyze and extract damage information from the damage information extracting and analyzing module capable of displaying and managing three-dimensional data.
피해정보 추출 및 분석 모듈의 요구기능 정의서와 구현 UI는 도 14에 도시된 바와 같이 설계될 수 있다.The required function definition of the damage information extraction and analysis module and the implementation UI can be designed as shown in FIG.
도 14는 본 발명의 일실시예에 따른 피해정보 추출 및 분석 모듈의 요구기능에 대한 정의를 설명하기 위한 도면이다.14 is a diagram for explaining the definition of a required function of the damage information extraction and analysis module according to an embodiment of the present invention.
상기한 요구기능정의서의 기능들은 자동 피해탐지, 수동 피해탐지 두 가지 방법에 따라 구분 사용되며, 중복되지는 않을 수 있다.The functions of the required function definition described above are classified according to two methods of automatic damage detection and manual damage detection, and may not be duplicated.
피해정보 추출 및 분석모듈의 기능정의서에 따라 도 15에 도시된 바와 같이 UI를 설계할 수 있다. 대표적인 기능들은 도 15에 도시된 바와 같이 다중영상매칭 결과의 도시, 피해지역 탐지 및 가시화, 피해정보 결과의 생성 등일 수 있다.The UI can be designed as shown in FIG. 15 according to the function definition of the damage information extraction and analysis module. Representative functions may be a city of multiple image matching results, detection and visualization of a damaged area, generation of damage information results, etc., as shown in FIG.
도 15는 본 발명의 일실시예에 따른 피해정보 추출 및 분석 모듈을 설명하기 위한 도면이다.15 is a diagram for explaining a damage information extracting and analyzing module according to an embodiment of the present invention.
다중영상매칭의 결과는 사용자 육안으로 쉽게 확인이 되도록 구성될 수 있으며, 추출된 피해정보는 도 15에 도시된 바와 같이 별도 폴리곤으로 구성, 현저하게 구분 가능하도록 표시할 수 있다.The result of the multiple image matching can be easily confirmed by the user's eyes, and the extracted damage information can be displayed separately from the polygon, as shown in FIG.
결과가 처음 로딩이 될 때는 높이(Height) 기준으로 데이터가 도시되어 사용하는 데이터의 고저가 명확하게 보일 수 있다. 높이 기준 데이터 도시는 컬러테이블(Color table) 방식을 사용하며, 데이터의 전체 높이 값 범위를 가지고 가장 높은 Z값을 가진 데이터들은 빨간색, 가장 낮은 Z값을 가진 데이터들은 파란색으로 설정하여 컬러 범위를 계산할 수 있다.When the result is first loaded, the data is shown on the basis of the height, and the level of the data used can be clearly seen. The height reference data table uses the color table method, and the color range is calculated by setting the data of the highest value Z in the range of the full height value of the data to red, and the data having the lowest Z value to blue .
도 16은 본 발명의 일실시예에 따른 매칭 결과의 높이(Height) 기준을 도시한 도면이다.FIG. 16 is a diagram illustrating a height criterion of a matching result according to an embodiment of the present invention.
높이 기준으로 표시되는 이 매칭 결과는 보다 직관적으로 보기를 원하는 사용자들을 위하여 음영 표시로도 볼 수 있도록 도시될 수 있다.This matching result, which is displayed on a height basis, can also be viewed as a shaded display for users intuitively looking.
특히 피해영역을 탐지 및 추출하고 해당 영역을 도시하는 과정에서는 사용자들에게 결과파일을 아래 그림과 같이 TIN을 구성하여 모델 형태로 동질한 색감을 지닌 데이터로 표현할 수 있다.In particular, in the process of detecting and extracting the damaged area and showing the corresponding area, the result file can be expressed as data having the same color in the model form by constituting the TIN as shown in the following figure.
도 17은 본 발명의 일실시예에 따른 매칭 결과의 음영 기준을 도시한 도면이다.17 is a diagram illustrating a shading criterion of a matching result according to an embodiment of the present invention.
피해로 판별된 지역은 영역은 매칭 결과와 비교 레퍼런스의 형상변화 차이를 탐지한 부분이며, 이는 피해로 간주되어 본 발명 시스템(100)에서 피해영역으로 도시할 수 있다.The area determined to be damaged is a part that detects a difference in shape change between the matching result and the reference, which is regarded as a damage, and can be shown as a damaged area in the
먼저 피해로 판별된 영역은 사용자 육안으로 보기 쉽도록 다양한 형태(점, 선, 면)로 구현하여 사용자가 원하는 형태로 피해를 화면상으로 관찰할 수 있다.First, the area identified as the damage is implemented in various shapes (points, lines, and faces) so that the user can easily see the area of the damage, and the damage can be observed on the screen in a form desired by the user.
점(Point)로 피해 영역을 구획하는 방식은 본래 내부적으로 생성되어 있는 점군 데이터들의 변화영역을 범위로 설정하는 방식일 수 있다. 이는 정확한 데이터를 표현한다는 장점은 있지만, 가시화 측면에서 다소 판독이 쉽지 않을 수 있다.The method of dividing a damaged area by a point may be a method of setting a change area of a point group data originally generated internally as a range. This has the advantage of expressing accurate data, but it may not be easy to read in terms of visualization.
도 18은 본 발명의 일실시예에 따른 피해 영역의 점(point) 형태를 가시화한 도면이다.18 is a diagram showing a point shape of a damaged area according to an embodiment of the present invention.
이를 보완하기 위하여 가시화 방식으로 선(Line)을 선택하여 기능을 보완하였으며, 이 선은 내부적으로 TIN(Triangular irregular network) 방식을 선택하여 피해를 표현할 수 있다. TIN 방식은 불규칙한 점군 데이터들을 인접데이터와 연결하여 삼각형 형태의 삼각망을 연속으로 연결하여 데이터를 표현할 수 있다.In order to compensate for this, a line is selected as a visualization method to supplement the function. This line can express the damage by selecting a triangular irregular network (TIN) method internally. The TIN method can represent data by connecting irregular point cloud data to adjacent data and connecting triangular triangular networks continuously.
도 19는 본 발명의 일실시예에 따른 피해 영역의 선(line) 형태를 가시화한 도면이다.FIG. 19 is a diagram showing a line shape of a damaged area according to an embodiment of the present invention.
점 형태의 가시화보다 선 형태가 효과적이긴 하지만 보다 효과적인 방안을 찾기 위해 색(color)을 입히고 면 형태로 피해영역을 표시하는 기능을 추가할 수 있다.Although the line shape is more effective than the point visualization, it is possible to add the function of displaying the damage area in the form of a face and color in order to find a more effective solution.
도 20은 본 발명의 일실시예에 따른 피해 영역의 표면(surface) 형태를 가시화한 도면이다.20 is a view showing a surface shape of a damaged area according to an embodiment of the present invention.
본 발명에서 제안한 방법으로 표현하는 피해정보 분석은 가시화 방식 외에도 피해정보의 정량적인 정보를 별도로 계산하여 사용자에게 전달하는 방식을 채택할 수 있다.In addition to the visualization method, damage information analysis represented by the method proposed by the present invention can adopt a method of calculating quantitative information of damage information separately and transmitting it to a user.
정량적인 정보란 특정지역의 피해가 어느 지점인지(좌표), 넓이가 어느 정도인지, 부피는 어느 정도인지에 관한 정보일 수 있다.Quantitative information can be information about the location (coordinates) of the damage in a particular area, the extent and the volume.
해당 정보는 위에서 가시화한 피해영역 폴리곤(polygon)을 선택할 시 표시가 되며, 표출되는 정보는 분석 일자, 시간, 피해 중심위치의 좌표(xyz), 가장 긴 길이, 넓이 그리고 부피일 수 있다.This information is displayed when selecting the damaged area polygon visualized above, and the displayed information may be the analysis date, time, coordinates (xyz) of the damage center position, the longest length, area and volume.
해당 정보는 팝업 형태로 표현이 되며, 동시에 여러 지역의 피해가 있을 경우에도 각각 계산되어 정보를 확인할 수 있다.The information is represented in a pop-up form, and can be calculated and information can be checked even when there are damage to various areas at the same time.
도 21은 본 발명의 일실시예에 따른 피해 영역의 정량적 정보 표출을 설명하기 위한 도면이다.FIG. 21 is a view for explaining quantitative information disclosure of a damaged area according to an embodiment of the present invention.
계산된 정보는 최종적으로 사용자가 피해 유형을 수동으로 선택함으로써 최종 피해정보로 추출될 수 있다.The calculated information can be finally extracted as final damage information by manually selecting the damage type by the user.
피해유형은 화면상에 보이는 데이터의 모습을 바탕으로 사용자 육안에 의해 판단되며, 선택된 시설물은 세부시설물과 피해유형을 모두 선택할 수 있도록 시스템(100)에 사전에 저장될 수 있다.The damage type is judged by the user's eyes based on the data displayed on the screen, and the selected facility can be stored in advance in the
본 발명은 무인항공기로 촬영한 영상정보와 각종 공간정보DB들을 통해 피해지역의 3차원 정보를 생성 및 분석하고, 레퍼런스 데이터와 비교하여 피해로 판별되는 영역을 자동으로 계산해주는 시스템(100)의 구축방안과 초기 모듈을 고안하였다.The present invention relates to a system (100) for generating and analyzing three-dimensional information of a damaged area through image information photographed by an unmanned aerial vehicle and various spatial information databases, and automatically calculating an area discriminated as a damage by comparing with reference data I have devised a plan and an initial module.
본 발명은 재난재해 발생 시 직접 현장에 가지 않고도 무인항공기의 영상만을 사용하여 원거리에서 해당 지역의 피해정보를 신속하게 분석하고 정확한 의사결정을 하기 위한 자료를 제공해줄 수 있을 것이다.The present invention can provide data for rapidly analyzing damage information of a local area and making accurate decision-making by using only images of an unmanned aerial vehicle without directly going to the scene in case of a disaster disaster.
본 발명의 실시예에 따른 방법은 다양한 컴퓨터 수단을 통하여 수행될 수 있는 프로그램 명령 형태로 구현되어 컴퓨터 판독 가능 매체에 기록될 수 있다. 상기 컴퓨터 판독 가능 매체는 프로그램 명령, 데이터 파일, 데이터 구조 등을 단독으로 또는 조합하여 포함할 수 있다. 상기 매체에 기록되는 프로그램 명령은 실시예를 위하여 특별히 설계되고 구성된 것들이거나 컴퓨터 소프트웨어 당업자에게 공지되어 사용 가능한 것일 수도 있다. 컴퓨터 판독 가능 기록 매체의 예에는 하드 디스크, 플로피 디스크 및 자기 테이프와 같은 자기 매체(magnetic media), CD-ROM, DVD와 같은 광기록 매체(optical media), 플롭티컬 디스크(floptical disk)와 같은 자기-광 매체(magneto-optical media), 및 롬(ROM), 램(RAM), 플래시 메모리 등과 같은 프로그램 명령을 저장하고 수행하도록 특별히 구성된 하드웨어 장치가 포함된다. 프로그램 명령의 예에는 컴파일러에 의해 만들어지는 것과 같은 기계어 코드뿐만 아니라 인터프리터 등을 사용해서 컴퓨터에 의해서 실행될 수 있는 고급 언어 코드를 포함한다. 상기된 하드웨어 장치는 실시예의 동작을 수행하기 위해 하나 이상의 소프트웨어 모듈로서 작동하도록 구성될 수 있으며, 그 역도 마찬가지이다.The method according to an embodiment of the present invention may be implemented in the form of a program command that can be executed through various computer means and recorded in a computer-readable medium. The computer-readable medium may include program instructions, data files, data structures, and the like, alone or in combination. The program instructions to be recorded on the medium may be those specially designed and configured for the embodiments or may be available to those skilled in the art of computer software. Examples of computer-readable media include magnetic media such as hard disks, floppy disks and magnetic tape; optical media such as CD-ROMs and DVDs; magnetic media such as floppy disks; Magneto-optical media, and hardware devices specifically configured to store and execute program instructions such as ROM, RAM, flash memory, and the like. Examples of program instructions include machine language code such as those produced by a compiler, as well as high-level language code that can be executed by a computer using an interpreter or the like. The hardware devices described above may be configured to operate as one or more software modules to perform the operations of the embodiments, and vice versa.
이상과 같이 실시예들이 비록 한정된 실시예와 도면에 의해 설명되었으나, 해당 기술분야에서 통상의 지식을 가진 자라면 상기의 기재로부터 다양한 수정 및 변형이 가능하다. 예를 들어, 설명된 기술들이 설명된 방법과 다른 순서로 수행되거나, 및/또는 설명된 시스템, 구조, 장치, 회로 등의 구성요소들이 설명된 방법과 다른 형태로 결합 또는 조합되거나, 다른 구성요소 또는 균등물에 의하여 대치되거나 치환되더라도 적절한 결과가 달성될 수 있다.While the present invention has been particularly shown and described with reference to exemplary embodiments thereof, it is to be understood that the invention is not limited to the disclosed exemplary embodiments. For example, it is to be understood that the techniques described may be performed in a different order than the described methods, and / or that components of the described systems, structures, devices, circuits, Lt; / RTI > or equivalents, even if it is replaced or replaced.
그러므로, 다른 구현들, 다른 실시예들 및 특허청구범위와 균등한 것들도 후술하는 특허청구범위의 범위에 속한다.Therefore, other implementations, other embodiments, and equivalents to the claims are also within the scope of the following claims.
100 : 수변구조물 피해정보 분석을 위한 정보시스템
110 : 저장부
120 : 입력부
130 : 확인부
140 : 탐지부
150 : 표시부100: Information system for damage information analysis of waterside structures
110:
120: Input unit
130:
140:
150:
Claims (4)
상기 촬영 당시의 위치 및 자세정보를 알 수 있는 각 영상들의 외부표정요소 정보를 입력하는 입력부;
입력된 무인항공기 영상으로부터 외부표정요소를 통하여 개별 촬영 위치를 풋프린트 형태로 확인하는 확인부; 및
상기 입력된 무인항공기 영상으로부터 영상정합을 수행하여 3차원 점군 데이터를 생성하고, 상기 레퍼런스 데이터와 비교하여 피해영역을 탐지하는 탐지부
를 포함하는 수변구조물 피해정보 분석을 위한 정보시스템.A storage unit for storing the unmanned aerial photographs taken at the time of the damage and the reference data of the same area constructed in the past;
An input unit for inputting external facial expression element information of each of images in which position and posture information at the time of photographing can be known;
A confirmation unit for confirming an individual photographing position in the form of a footprint through an external facial expression element from the inputted image of the unmanned aerial vehicle; And
A detection unit for detecting three-dimensional point cloud data by performing image matching from the input unmanned airplane image and comparing the reference point cloud data with the reference data,
Information System for Analysis of Damage Information on Watershed Structures.
상기 탐지부는,
2차원 형태인 무인항공기 영상들에서 3차원 형태인 점군 데이터를 추출하고, 3차원으로 구축된 상기 레퍼런스 데이터와 비교하되,
상기 점군 데이터 및 상기 레퍼런스 데이터의 높이 차에 대하여 피해로 인한 손실된 영역으로 판단하는
수변구조물 피해정보 분석을 위한 정보시스템.The method according to claim 1,
The detection unit detects,
The point cloud data, which are three-dimensional shapes, are extracted from the two-dimensional unmanned airplane images and compared with the reference data constructed in three dimensions,
The height difference between the point cloud data and the reference data is determined as a lost area due to the damage
Information System for Damage Information Analysis of Watershed Structures.
상기 피해영역을 탐지하면, 상기 피해영역과 관련된 피해정보 결과를 표시하는 표시부
를 더 포함하는 수변구조물 피해정보 분석을 위한 정보시스템.The method according to claim 1,
When the damage area is detected, a display unit for displaying a damage information result related to the damage area
And an information system for analyzing the damage information of the waterfront structure.
상기 표시부는,
상기 피해영역에 대한 피해 위치 및 피해 양을 적어도 포함하도록 피해정보 결과를 표시하는
수변구조물 피해정보 분석을 위한 정보시스템.The method of claim 3,
The display unit includes:
The damage information result is displayed so as to include at least the damage position and damage amount for the damage area
Information System for Damage Information Analysis of Watershed Structures.
Priority Applications (1)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| KR1020160032637A KR20170108552A (en) | 2016-03-18 | 2016-03-18 | Information system for analysis of waterfront structure damage |
Applications Claiming Priority (1)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| KR1020160032637A KR20170108552A (en) | 2016-03-18 | 2016-03-18 | Information system for analysis of waterfront structure damage |
Publications (1)
| Publication Number | Publication Date |
|---|---|
| KR20170108552A true KR20170108552A (en) | 2017-09-27 |
Family
ID=60036200
Family Applications (1)
| Application Number | Title | Priority Date | Filing Date |
|---|---|---|---|
| KR1020160032637A Withdrawn KR20170108552A (en) | 2016-03-18 | 2016-03-18 | Information system for analysis of waterfront structure damage |
Country Status (1)
| Country | Link |
|---|---|
| KR (1) | KR20170108552A (en) |
Cited By (2)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| KR20200029843A (en) * | 2018-09-11 | 2020-03-19 | 한국전자통신연구원 | Apparatus and method of generating image for spatial information |
| CN112164049A (en) * | 2020-09-28 | 2021-01-01 | 广东中科瑞泰智能科技有限公司 | Illegal construction monitoring method and device |
-
2016
- 2016-03-18 KR KR1020160032637A patent/KR20170108552A/en not_active Withdrawn
Cited By (2)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| KR20200029843A (en) * | 2018-09-11 | 2020-03-19 | 한국전자통신연구원 | Apparatus and method of generating image for spatial information |
| CN112164049A (en) * | 2020-09-28 | 2021-01-01 | 广东中科瑞泰智能科技有限公司 | Illegal construction monitoring method and device |
Similar Documents
| Publication | Publication Date | Title |
|---|---|---|
| Chen et al. | Automatic building information model reconstruction in high-density urban areas: Augmenting multi-source data with architectural knowledge | |
| Majdik et al. | Air‐ground matching: Appearance‐based GPS‐denied urban localization of micro aerial vehicles | |
| Bulatov et al. | Context-based automatic reconstruction and texturing of 3D urban terrain for quick-response tasks | |
| Qin et al. | 3D change detection at street level using mobile laser scanning point clouds and terrestrial images | |
| Carozza et al. | Markerless vision‐based augmented reality for urban planning | |
| CA2678156C (en) | Measurement apparatus, measurement method, and feature identification apparatus | |
| EP3274964B1 (en) | Automatic connection of images using visual features | |
| Alidoost et al. | An image-based technique for 3D building reconstruction using multi-view UAV images | |
| CA2702729A1 (en) | Geospatial modeling system and related method using multiple sources of geographic information | |
| KR20180092591A (en) | Detect algorithm for structure shape change using UAV image matching technology | |
| Özdemir et al. | A multi-purpose benchmark for photogrammetric urban 3D reconstruction in a controlled environment | |
| Dahlke et al. | True 3D building reconstruction: Façade, roof and overhang modelling from oblique and vertical aerial imagery | |
| CN116051980B (en) | Building identification method, system, electronic equipment and medium based on oblique photography | |
| Li et al. | 3D map system for tree monitoring in hong kong using google street view imagery and deep learning | |
| Stark et al. | Long-term assessment of terrain changes and calculation of erosion rates in an alpine catchment based on SfM-MVS processing of historical aerial images. How camera information and processing strategy affect quantitative analysis | |
| Oliveira et al. | Occlusion detection by height gradient for true orthophoto generation, using LiDAR data | |
| Choi et al. | Precise geometric registration of aerial imagery and LIDAR data | |
| Yao et al. | Research on three-dimensional model reconstruction of slope erosion based on sequence images | |
| KR20170108552A (en) | Information system for analysis of waterfront structure damage | |
| Zeng | Automated Building Information Extraction and Evaluation from High-resolution Remotely Sensed Data | |
| Chen et al. | True orthophoto generation using multi-view aerial images | |
| Meesuk et al. | Using multidimensional views of photographs for flood modelling | |
| KR20160120955A (en) | Module for multi diensional vedio information visualization | |
| Farkoushi et al. | Generating Seamless Three-Dimensional Maps by Integrating Low-Cost Unmanned Aerial Vehicle Imagery and Mobile Mapping System Data | |
| KR100709142B1 (en) | Image-based spatial information construction method and system |
Legal Events
| Date | Code | Title | Description |
|---|---|---|---|
| PA0109 | Patent application |
Patent event code: PA01091R01D Comment text: Patent Application Patent event date: 20160318 |
|
| PG1501 | Laying open of application | ||
| PC1203 | Withdrawal of no request for examination |