[go: up one dir, main page]

KR101320247B1 - Apparatus and method for image matching in augmented reality service system - Google Patents

Apparatus and method for image matching in augmented reality service system Download PDF

Info

Publication number
KR101320247B1
KR101320247B1 KR1020110101011A KR20110101011A KR101320247B1 KR 101320247 B1 KR101320247 B1 KR 101320247B1 KR 1020110101011 A KR1020110101011 A KR 1020110101011A KR 20110101011 A KR20110101011 A KR 20110101011A KR 101320247 B1 KR101320247 B1 KR 101320247B1
Authority
KR
South Korea
Prior art keywords
feature points
image
reference image
terminal
feature
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
KR1020110101011A
Other languages
Korean (ko)
Other versions
KR20130036839A (en
Inventor
서정훈
김창열
전혜민
Original Assignee
(주)필링크
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by (주)필링크 filed Critical (주)필링크
Priority to KR1020110101011A priority Critical patent/KR101320247B1/en
Publication of KR20130036839A publication Critical patent/KR20130036839A/en
Application granted granted Critical
Publication of KR101320247B1 publication Critical patent/KR101320247B1/en
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/222Studio circuitry; Studio devices; Studio equipment
    • H04N5/262Studio circuits, e.g. for mixing, switching-over, change of character of image, other special effects ; Cameras specially adapted for the electronic generation of special effects
    • H04N5/265Mixing
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/20Servers specifically adapted for the distribution of content, e.g. VOD servers; Operations thereof
    • H04N21/23Processing of content or additional data; Elementary server operations; Server middleware
    • H04N21/235Processing of additional data, e.g. scrambling of additional data or processing content descriptors
    • H04N21/2355Processing of additional data, e.g. scrambling of additional data or processing content descriptors involving reformatting operations of additional data, e.g. HTML pages

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Processing Or Creating Images (AREA)

Abstract

본 발명은 증강현실 서비스를 지원하는 시스템에서 영상 정합을 위한 장치 및 방법에 관한 것이다. 본 발명에 따른 영상 정합을 위한 장치는, 객체별 다수의 참조 영상의 특징점들을 해당 객체의 참조 영상 그룹에 저장하는 데이터베이스와, 객체에 대한 촬영 영상과 단말의 위치 정보를 입력받는 통신부와, 상기 입력받은 단말의 위치 정보를 기반으로, 데이터베이스에서 상기 단말이 위치한 영역 내 존재하는 객체별 다수의 참조 영상의 특징점들을 검출하고, 상기 입력받은 촬영 영상의 특징점들을 획득하며, 상기 획득된 촬영 영상의 특징점들과 상기 검출한 객체별 다수의 참조 영상의 특징점들을 비교하는 영상 정합부와, 참조 영상 그룹별로 다수의 참조 영상의 특징점 정합 개수를 합산하고, 참조 영상 그룹별로 다수의 참조 영상의 특징점 개수를 합산하며, 상기 특징점 개수 합산 결과에 대한 특징점 정합 개수 합산 결과의 비(ratio)를 기반으로 가장 큰 정합 유사도를 가지는 하나의 참조 영상 그룹을 선택하고, 상기 선택된 참조 영상 그룹에 대응하는 객체를 상기 촬영 영상의 객체로 결정하는 객체 결정부를 포함하는 것을 특징으로 한다.The present invention relates to an apparatus and method for image matching in a system supporting an augmented reality service. In accordance with another aspect of the present invention, an apparatus for image matching includes: a database for storing feature points of a plurality of reference images for each object in a reference image group of a corresponding object, a communication unit for receiving a photographed image of the object and location information of the terminal, and the input unit; Based on the location information of the terminal, the feature points of a plurality of reference images for each object existing in the region where the terminal is located are obtained from the database, the feature points of the received captured image are acquired, and the feature points of the obtained captured image. And an image matching unit for comparing the feature points of the plurality of reference images for each detected object, the number of feature point matchings of the plurality of reference images for each reference image group, and the number of feature points of the plurality of reference images for each reference image group. Based on a ratio of the feature point match number sum result to the feature point sum sum result Chapter select one reference image group having the largest matching degree of similarity, and wherein the object includes a determination unit determining an object corresponding to the selected reference image group as the object of the photographed image.

Description

증강현실 서비스를 지원하는 시스템에서 영상 정합을 위한 장치 및 방법{APPARATUS AND METHOD FOR IMAGE MATCHING IN AUGMENTED REALITY SERVICE SYSTEM}Apparatus and method for image matching in a system supporting augmented reality service {APPARATUS AND METHOD FOR IMAGE MATCHING IN AUGMENTED REALITY SERVICE SYSTEM}

본 발명은 영상 정합(image matching)에 관한 것으로서, 특히, 증강현실(Augmented Reality) 서비스를 지원하는 시스템에서 영상 정합을 위한 장치 및 방법에 관한 것이다. The present invention relates to image matching, and more particularly, to an apparatus and method for image matching in a system supporting an augmented reality service.

최근 디지털 이미지 처리 기술이 발전함에 따라, 소위 증강현실(Augmented Reality)이라 불리는 기술이 상용화되어 가고 있는 추세이다.Recently, with the development of digital image processing technology, a so-called Augmented Reality (Augmented Reality) technology is becoming a commercial trend.

증강현실이란, 단말기의 카메라 모듈을 통해 대상 객체를 비추게 되면, 화면에 보이는 장면 위에 대상 객체에 대한 부가정보를 실시간으로 동시에 출력하기 위한 기술이다. 여기서, 부가정보는, 화면에 보이는 장면에 포함된 대상 객체에 대한 관련 정보를 의미하며, 예를 들어 대상 객체에 따라 하기 <표 1>과 같은 정보들이 부가정보에 속할 수 있다.Augmented reality is a technology for simultaneously outputting additional information about a target object in real time on a scene displayed on the screen when the target object is illuminated through the camera module of the terminal. Here, the additional information means related information about the target object included in the scene displayed on the screen. For example, the information as shown in Table 1 below may belong to the additional information according to the target object.

대상 객체Target object 부가정보Additional Information 맛집restaurant 메뉴, 가격, 평점Menu, price, rating 편의점Convenience 이벤트 상품, 할인 카드Event items, discount cards 관공서Offices 업무 시간, 가용 서비스Business Hours, Available Services

이와 같이, 증강현실 기술은 현실세계 만으로는 얻기 어려운 부가적인 정보들을 보강하여 현실감 있게 제공할 수 있다. 이에 따라, 증강현실 기술은 다양한 서비스환경에 응용이 가능하며, 특히 유비쿼터스 환경에 적합한 차세대 디스플레이 기술로 각광받고 있다.As such, the augmented reality technology may reinforce additional information that is difficult to obtain only in the real world and provide the information realistically. Accordingly, augmented reality technology can be applied to a variety of service environments, in particular, it is in the spotlight as a next-generation display technology suitable for ubiquitous environment.

이러한 증강현실 기술을 적용하여 서비스를 구현하기 위해서는 사용자가 단말기의 카메라 모듈을 통해 주시하고 있는 대상 객체를 정확히 식별하는 것이 전제되어야 한다. 종래 증강현실 기술은 단말기의 위치 및 방향 정보를 기반으로 대상 객체를 식별하며, 상기 위치 및 방향 정보를 획득하기 위해 사용하는 센서(예를 들어, 위성항법시스템(GPS: Global Positioning System) 센서 및 콤파스(Compass) 센서)의 오차(약 ± 50m 정도)로 인해 객체 식별에 오류가 발생할 수 있다. 구체적으로, 사용자가 단말기의 카메라 모듈을 통해 주시하고 있는 객체가 아닌, 오차범위 내에 존재하는 다른 객체를 대상 객체로 오인 식별할 수 있다. 이 경우, 오인 식별된 다른 객체의 부가정보가 화면에 표시될 수 있으며, 이에 따라 사용자에게 적절한 서비스를 제공할 수 없는 문제점이 있다. In order to implement the service by applying the augmented reality technology, it is premised that the user accurately identifies the target object that the user watches through the camera module of the terminal. Conventional augmented reality technology to identify the target object based on the location and direction information of the terminal, the sensor (for example, GPS (GPS) sensor and compass used to obtain the location and direction information) (Compass sensor) error (approximately ± 50m) may cause an error in object identification. In detail, other objects existing within an error range, other than the object that the user watches through the camera module of the terminal, may be misidentified as the target object. In this case, additional information of the misidentified other object may be displayed on the screen, and thus there is a problem in that an appropriate service cannot be provided to the user.

따라서, 본 발명의 목적은 증강현실 서비스를 지원하는 시스템에서 전방 객체를 정확히 식별하기 위한 장치 및 방법을 제공함에 있다.Accordingly, an object of the present invention is to provide an apparatus and method for accurately identifying a front object in a system supporting an augmented reality service.

본 발명의 다른 목적은 증강현실 서비스를 지원하는 시스템에서 단말기의 촬영 영상과 증강현실 제공서버의 데이터베이스 내 참조 영상들 간 정합을 통해 전방 객체를 정확히 식별하기 위한 새로운 영상 정합 장치 및 방법을 제공함에 있다. Another object of the present invention is to provide a new image matching device and method for accurately identifying a front object through matching between a photographed image of a terminal and a reference image in a database of an augmented reality providing server in a system supporting an augmented reality service. .

본 발명의 또 다른 목적은 증강현실 서비스를 지원하는 시스템에서 영상 정합 정보를 기반으로 전방 객체에 대한 시점 및 거리를 결정하기 위한 장치 및 방법을 제공함에 있다. Another object of the present invention is to provide an apparatus and method for determining a view point and distance for a front object based on image matching information in a system supporting augmented reality service.

상기 목적을 달성하기 위한 본 발명의 제1 견지에 따르면, 영상 정합을 위한 장치는, 객체별 다수의 참조 영상의 특징점들을 해당 객체의 참조 영상그룹에 저장하는 데이터베이스와, 객체에 대한 촬영 영상과 단말의 위치 정보를 입력받는 통신부와, 상기 입력받은 단말의 위치 정보를 기반으로, 데이터베이스에서 상기 단말이 위치한 영역 내 존재하는 객체별 다수의 참조 영상의 특징점들을 검출하고, 상기 입력받은 촬영 영상의 특징점들을 획득하며, 상기 획득된 촬영 영상의 특징점들과 상기 검출한 객체별 다수의 참조 영상의 특징점들을 비교하는 영상 정합부와, 참조 영상 그룹별로 다수의 참조 영상의 특징점 정합 개수를 합산하고, 참조 영상 그룹별로 다수의 참조 영상의 특징점 개수를 합산하며, 상기 특징점 개수 합산 결과에 대한 상기 특징점 정합 개수 합산 결과의 비(ratio)를 기반으로 가장 큰 정합 유사도를 가지는 하나의 참조 영상 그룹을 선택하고, 상기 선택된 참조 영상 그룹에 대응하는 객체를 상기 촬영 영상의 객체로 결정하는 객체 결정부를 포함하는 것을 특징으로 한다.According to a first aspect of the present invention for achieving the above object, an apparatus for image matching includes a database for storing feature points of a plurality of reference images for each object in a reference image group of the object, a captured image of the object, and a terminal. Detects feature points of a plurality of reference images for each object existing in a region where the terminal is located in a database based on the communication unit receiving position information of the terminal and the received position information of the terminal, and detects the characteristic points of the received captured image. And an image matching unit comparing the acquired feature points of the captured image with the feature points of the plurality of reference images for each detected object, the number of feature point matchings of the plurality of reference images for each reference image group, and adding a reference image group. Summing the number of feature points of the plurality of reference images for each of the plurality of reference images, and the feature of the summing result of the number of feature points And an object determiner configured to select one reference image group having the largest match similarity based on a ratio of the matching result sum and determine an object corresponding to the selected reference image group as the object of the captured image. It is characterized by.

본 발명의 제2 견지에 따르면, 영상 정합을 위한 장치는, 객체별 다수의 참조 영상의 특징점들을 해당 객체의 참조 영상 그룹에 저장하는 데이터베이스와, 객체에 대한 촬영 영상과 단말의 위치 정보를 입력받는 통신부와, 상기 입력받은 단말의 위치 정보를 기반으로, 데이터베이스에서 상기 단말이 위치한 영역 내 존재하는 객체별 다수의 참조 영상의 특징점들을 검출하고, 상기 입력받은 촬영 영상의 특징점들을 획득하며, 상기 획득된 촬영 영상의 특징점들과 상기 검출한 객체별 다수의 참조 영상의 특징점들을 비교하는 영상 정합부와, 객체별 다수의 참조 영상의 특징점 개수에 대한 특징점 정합 개수의 비(ratio)를 기반으로 가장 큰 정합 유사도를 가지는 하나의 참조 영상을 선택하고, 상기 선택된 참조 영상이 속한 참조 영상 그룹에 대응하는 객체를 상기 촬영 영상의 객체로 결정하는 객체 결정부를 포함하는 것을 특징으로 한다.According to a second aspect of the present invention, an apparatus for image matching includes receiving a database storing feature points of a plurality of reference images for each object in a reference image group of an object, receiving a captured image of the object, and position information of the terminal. Based on the communication unit and the location information of the received terminal, detects feature points of a plurality of reference images for each object existing in a region where the terminal is located in a database, obtains feature points of the received captured image, and obtains The image matching unit for comparing the feature points of the photographed image and the feature points of the plurality of reference images for each detected object, and the largest matching based on the ratio of the number of feature point matches to the number of feature points of the plurality of reference images for each object. Selecting a reference picture having a similarity degree, the customer corresponding to the reference picture group to which the selected reference picture belongs The object is characterized by comprising a determination unit determining an object of the photographed image.

본 발명의 제3 견지에 따르면, 영상 정합을 위한 장치는, 객체별 하나의 참조 영상의 특징점들을 저장하는 데이터베이스와, 객체에 대한 촬영 영상과 단말의 위치 정보를 입력받는 통신부와, 상기 입력받은 단말의 위치 정보를 기반으로, 데이터베이스에서 상기 단말이 위치한 영역 내 존재하는 객체별 하나의 참조 영상의 특징점들을 검출하고, 상기 입력받은 촬영 영상의 특징점들을 획득하며, 상기 입력받은 촬영 영상의 각 특징점에 대하여, 상기 검출한 객체별 하나의 참조 영상의 특징점들 중 하나의 참조 영상의 특징점들을 대상으로 비교하고, 동일한 방식으로, 상기 입력받은 촬영 영상의 각 특징점에 대하여, 상기 검출한 나머지 참조 영상의 특징점들을 대상으로 비교하는 영상 정합부와, 객체별 하나의 참조 영상의 특징점 개수에 대한 특징점 정합 개수의 비(ratio)를 기반으로 가장 큰 정합 유사도를 가지는 하나의 참조 영상을 선택하고, 상기 선택된 참조 영상에 대응하는 객체를 상기 촬영 영상의 객체로 결정하는 객체 결정부를 포함하는 것을 특징으로 한다.According to a third aspect of the present invention, an apparatus for image matching includes a database storing feature points of one reference image for each object, a communication unit for receiving a captured image of the object and location information of the terminal, and the received terminal. On the basis of the position information of the, from the database to detect the feature points of one reference image for each object existing in the area where the terminal is located, to obtain the feature points of the input image, and for each feature of the input image And comparing the feature points of one reference image among the feature points of the detected one reference image for each object, and, in the same manner, the feature points of the detected remaining reference images with respect to each feature point of the received captured image. Image matching unit for comparison to target and feature points for the number of feature points of one reference image per object And an object determination unit that selects one reference image having the largest matching similarity based on a ratio of the sum number, and determines an object corresponding to the selected reference image as the object of the captured image. .

본 발명의 제4 견지에 따르면, 영상 정합을 위한 장치는, 객체별 하나의 참조 영상의 특징점들을 저장하는 데이터베이스와, 객체에 대한 촬영 영상과 단말의 위치 정보를 입력받는 통신부와, 상기 입력받은 단말의 위치 정보를 기반으로, 데이터베이스에서 상기 단말이 위치한 영역 내 존재하는 객체별 하나의 참조 영상의 특징점들을 검출하고, 상기 입력받은 촬영 영상의 특징점들을 획득하며, 상기 입력받은 촬영 영상의 각 특징점에 대하여, 상기 검출한 모든 객체별 하나의 참조 영상의 특징점들을 대상으로 비교하는 영상 정합부와, 객체별 하나의 참조 영상의 특징점 개수에 대한 특징점 정합 개수의 비(ratio)를 기반으로 가장 큰 정합 유사도를 가지는 하나의 참조 영상을 선택하고, 상기 선택된 참조 영상에 대응하는 객체를 상기 촬영 영상의 객체로 결정하는 객체 결정부를 포함하는 것을 특징으로 한다.According to a fourth aspect of the present invention, an apparatus for image matching includes a database storing feature points of one reference image for each object, a communication unit configured to receive a photographed image of the object and location information of the terminal, and the received terminal. On the basis of the position information of the, from the database to detect the feature points of one reference image for each object existing in the area where the terminal is located, to obtain the feature points of the input image, and for each feature of the input image The image matching unit for comparing the feature points of one reference image for every object detected by the object, and the largest matching similarity based on a ratio of the number of feature point matches to the number of feature points of one reference image for each object An object corresponding to the selected reference image, and an object corresponding to the selected reference image It characterized in that it includes a decision to determine an object.

본 발명은 증강현실 서비스를 지원하는 시스템에서 단말기의 촬영 영상과 증강현실 제공서버의 데이터베이스 내 참조 영상들 간 새로운 영상 정합 기술을 적용함으로써, 전방 객체를 정확히 식별할 수 있으며, 이에 따라 전방 객체에 대한 부가정보를 화면 상에 정확하게 출력할 수 있는 이점이 있다. 추가적으로, 본 발명은 영상 정합 정보를 기반으로 전방 객체에 대한 시점 및 거리를 결정함으로써, 상기 결정된 시점 및 거리정보에 따라 단말의 화면에 표시되는 부가정보의 종류 및 크기를 다르게 설정할 수 있다. The present invention can accurately identify the front object by applying a new image matching technology between the photographed image of the terminal and the reference images in the database of the augmented reality providing server in a system supporting the augmented reality service, and accordingly, There is an advantage that can accurately output the additional information on the screen. In addition, the present invention may determine the type and size of the additional information displayed on the screen of the terminal according to the determined view point and distance information by determining the view point and distance for the front object based on the image registration information.

도 1은 본 발명에 따른 증강현실 서비스를 지원하는 시스템을 개략적으로 나타낸 블럭 구성도,
도 2는 본 발명에 따른 증강현실 서비스를 지원하는 시스템 내 휴대용 단말기의 장치 구성을 개략적으로 나타낸 블럭 구성도,
도 3은 본 발명에 따른 증강현실 서비스를 지원하는 시스템 내 증강현실 제공서버의 장치 구성을 개략적으로 나타낸 블럭 구성도,
도 4는 본 발명의 제1 실시 예에 따른 증강현실 서비스를 지원하는 시스템에서 객체별 하나의 참조 영상의 특징점들을 저장하여 데이터베이스를 구현하는 경우, 촬영 영상과 참조 영상을 정합하기 위한 증강현실 제공서버의 동작 방법을 도시한 흐름도,
도 5는 본 발명의 제1 실시 예에 따른 증강현실 서비스를 지원하는 시스템에서 객체별 하나의 참조 영상의 특징점들을 저장하여 데이터베이스를 구현하는 경우, 촬영 영상과 참조 영상을 정합하기 위한 증강현실 제공서버의 동작 방법을 도시한 예시도,
도 6은 본 발명의 제2 실시 예에 따른 증강현실 서비스를 지원하는 시스템에서 객체별 하나의 참조 영상의 특징점들을 저장하여 데이터베이스를 구현하는 경우, 촬영 영상과 참조 영상을 정합하기 위한 증강현실 제공서버의 동작 방법을 도시한 흐름도,
도 7은 본 발명의 제2 실시 예에 따른 증강현실 서비스를 지원하는 시스템에서 객체별 하나의 참조 영상의 특징점들을 저장하여 데이터베이스를 구현하는 경우, 촬영 영상과 참조 영상을 정합하기 위한 증강현실 제공서버의 동작 방법을 도시한 예시도,
도 8은 본 발명의 제3 실시 예에 따른 증강현실 서비스를 지원하는 시스템에서 객체별 다수의 참조 영상의 특징점들을 저장하여 데이터베이스를 구현하는 경우, 촬영 영상과 참조 영상을 정합하기 위한 증강현실 제공서버의 동작 방법을 도시한 흐름도, 및
도 9는 본 발명의 제4 실시 예에 따른 증강현실 서비스를 지원하는 시스템에서 객체별 다수의 참조 영상의 특징점들을 저장하여 데이터베이스를 구현하는 경우, 촬영 영상과 참조 영상을 정합하기 위한 증강현실 제공서버의 동작 방법을 도시한 흐름도.
1 is a block diagram schematically showing a system supporting an augmented reality service according to the present invention;
2 is a block diagram schematically showing the device configuration of a portable terminal in a system supporting an augmented reality service according to the present invention;
3 is a block diagram schematically showing the device configuration of the augmented reality providing server in the system supporting the augmented reality service according to the present invention;
4 is an augmented reality providing server for matching a captured image and a reference image when a database is implemented by storing feature points of one reference image for each object in a system supporting an augmented reality service according to the first embodiment of the present invention. A flowchart illustrating a method of operation of
5 is an augmented reality providing server for matching a captured image and a reference image when a database is implemented by storing feature points of one reference image for each object in a system supporting an augmented reality service according to the first embodiment of the present invention. An illustration showing the operation method of,
FIG. 6 is an augmented reality providing server for matching a captured image and a reference image when a database is implemented by storing feature points of one reference image for each object in a system supporting an augmented reality service according to a second embodiment of the present invention. A flowchart illustrating a method of operation of
7 is an augmented reality providing server for matching a captured image and a reference image when a database is implemented by storing feature points of one reference image for each object in a system supporting an augmented reality service according to a second embodiment of the present invention. An illustration showing the operation method of,
8 is an augmented reality providing server for matching a captured image and a reference image when a database is implemented by storing feature points of a plurality of reference images for each object in a system supporting an augmented reality service according to a third embodiment of the present invention. A flow chart illustrating a method of operation; and
9 is an augmented reality providing server for matching a captured image and a reference image when a database is implemented by storing feature points of a plurality of reference images for each object in a system supporting an augmented reality service according to a fourth embodiment of the present invention. Flow chart illustrating a method of operation.

이하 본 발명의 바람직한 실시 예를 첨부된 도면의 참조와 함께 상세히 설명한다. 그리고, 본 발명을 설명함에 있어서, 관련된 공지기능 혹은 구성에 대한 구체적인 설명이 본 발명의 요지를 불필요하게 흐릴 수 있다고 판단된 경우 그 상세한 설명은 생략한다.
DETAILED DESCRIPTION OF THE PREFERRED EMBODIMENTS Reference will now be made in detail to the preferred embodiments of the present invention, examples of which are illustrated in the accompanying drawings. In the following description, a detailed description of known functions and configurations incorporated herein will be omitted when it may make the subject matter of the present invention rather unclear.

이하 본 발명은 증강현실 서비스를 지원하는 시스템에서 전방 객체를 정확히 식별하기 위한 장치 및 방법에 대해 설명한다. 특히, 본 발명은 증강현실 서비스를 지원하는 시스템에서 전방 객체를 정확히 식별하기 위한 촬영 영상과 참조 영상 간 새로운 영상 정합 장치 및 방법에 대해 설명한다. 추가적으로, 영상 정합 정보를 기반으로 전방 객체에 대한 시점 및 거리를 결정하기 위한 장치 및 방법에 대해 설명한다.
Hereinafter, an apparatus and method for accurately identifying a front object in a system supporting an augmented reality service will be described. In particular, the present invention describes a new image registration device and method between the captured image and the reference image for accurately identifying the front object in the system supporting the augmented reality service. Additionally, an apparatus and method for determining a viewpoint and a distance for a front object based on image registration information will be described.

이하 설명에서, 촬영 영상은 카메라 모듈을 통해 촬영되는 영상을 의미하고, 참조 영상은 사전에 촬영되어 촬영 영상과의 정합에 이용되는 영상을 의미한다.
In the following description, the photographed image refers to an image photographed through the camera module, and the reference image refers to an image photographed in advance and used to match the photographed image.

이하 설명에서는 하나의 영상에 하나의 객체가 포함되는 것을 예로 들어 설명할 것이나, 하나의 영상에 다수의 객체가 포함되는 경우에도 적용 가능하며, 이 경우 이하 설명에서 사용하는 '객체'는 하나의 영상에 포함되는 다수의 객체 중 화면의 가장 중심에 위치하는 객체를 의미한다고 가정한다.
In the following description, one object is included in one image as an example, but it is applicable to a case in which a plurality of objects are included in one image. In this case, 'object' used in the following description is one image. It is assumed that it refers to an object located at the center of the screen among a plurality of objects included in.

이하 설명에서, 영상 정합(image matching) 기술은, 촬영 영상에 포함된 장면과 동일한 장면을 포함하는 참조 영상을 검색하는 기술로서, 촬영 영상을 데이터베이스 내 참조 영상들과 비교하여 가장 높은 정합 유사도(matching ratio)를 가지는 참조 영상을 촬영 영상에 대한 최종 정합 영상으로 결정한다.
In the following description, an image matching technique is a technique of searching a reference image including a scene identical to a scene included in a photographed image, and comparing the photographed image with reference images in a database to obtain the highest matching similarity. A reference image having a ratio) is determined as the final matched image for the captured image.

본 발명에 따른 영상 정합 기술은, 촬영 영상과 참조 영상에서 특징점(feature point)들을 추출한 후, 상기 추출된 촬영 영상의 특징점들과 참조 영상의 특징점들 간 최단 거리(nearest neighbor) 비교법을 이용하여 정합을 수행한다. 여기서 '특징점'은 영상의 특징이 되는 포인트로서, 실수 형식의 고차원(예: 64차원) 벡터값으로 형성된다. 예를 들어, 상기 최단 거리 비교법으로, 특징점 쌍 별로 동일 차원에서의 두 특징점 값 간 차이의 합(SAD: Sum of Absolute Difference)을 계산하고, 상기 계산된 SAD가 최소가 되는 특징점 쌍을 동일한 특징점으로 간주하는 정합 방식을 사용할 수 있다. In the image matching technique according to the present invention, after feature points are extracted from the captured image and the reference image, the image matching technique is performed using a method of comparing the nearest neighbors between the feature points of the extracted image and the feature image of the reference image. Do this. Here, the 'feature point' is a point that is characteristic of an image and is formed of a high-dimensional (eg, 64-dimensional) vector value of a real type. For example, the shortest distance comparison method calculates a sum of absolute difference (SAD) between two feature points in the same dimension for each pair of feature points, and sets a pair of feature points at which the calculated SAD becomes the minimum. The matching method can be used.

여기서, 상기 SAD는 하기 <수학식 1>을 이용하여 계산할 수 있다. Here, the SAD can be calculated using Equation 1 below.

[수학식 1][Equation 1]

Figure 112011077546690-pat00001
Figure 112011077546690-pat00001

여기서,

Figure 112011077546690-pat00002
는 n차원을 갖는 촬영 영상과 참조 영상의 특징점에 대하여, 동일 차원에서의 두 특징점 값 간 차이의 합을 나타내며, 여기서, 특징점의 차원 수는 달라질 수 있다.
Figure 112011077546690-pat00003
는 촬영 영상의 특징점을 나타내고,
Figure 112011077546690-pat00004
는 참조 영상의 특징점을 나타낸다. here,
Figure 112011077546690-pat00002
Represents the sum of the differences between two feature point values in the same dimension with respect to the feature point of the captured image and the reference image having n dimensions, where the number of dimensions of the feature point may vary.
Figure 112011077546690-pat00003
Indicates a feature point of the captured image,
Figure 112011077546690-pat00004
Denotes a feature point of the reference image.

한편, 촬영 영상 및 참조 영상들 모두 해당 영상정보의 특성에 따라 서로 다른 특징점 개수를 가진다. 일반적으로 복잡한 장면의 영상에서는 많은 특징점들이 추출되고 비교적 단순한 장면의 영상에서는 적은 개수의 특징점들이 추출된다. 이는 각각의 (촬영 영상 - 참조 영상) 쌍이 가지는 특징점 정합 개수를 해당 쌍의 정합 유사도로 해석할 수 없음을 의미하며, 따라서 상기 특징점 정합 개수로는 최적 정합 영상 쌍(best match)을 결정할 수 없다. 또한 하나의 특징점 쌍의 SAD값이, 다른 특징점 쌍들의 SAD값 대비 최소의 값을 가진다고 하더라도, 최소의 SAD값을 갖는 두 특징점은 실제로 동일한 특징점일 수도 있고 아닐 수도 있다. 두 특징점이 동일한 특징점일 경우에만 특징점 정합 개수로 계수하여야 하므로, 본 발명에서는 최소 SAD값을 갖는 두 특징점이 하기 <수학식 2>를 만족하는 경우에만 해당 특징점 쌍을 동일한 특징점으로 간주하기로 한다. On the other hand, both the captured image and the reference image has a different number of feature points according to the characteristics of the image information. In general, many feature points are extracted from an image of a complex scene and a small number of feature points are extracted from an image of a relatively simple scene. This means that the number of feature points matched by each pair (captured image-reference image) cannot be interpreted as the match similarity of the pair, and thus the number of feature point matches cannot determine the best match image pair. In addition, even though the SAD value of one pair of feature points has a minimum value compared to the SAD values of other pairs of feature points, two feature points having the minimum SAD value may or may not actually be the same feature point. Since only two feature points are the same feature point, the number of feature points must be counted. Therefore, the pair of feature points is considered to be the same feature point only when two feature points having the minimum SAD value satisfy the following Equation 2.

[수학식 2]&Quot; (2) &quot;

Figure 112011077546690-pat00005
Figure 112011077546690-pat00005

여기서, 은 변별성 비율(Distinctiveness Ratio)을 의미하며, 0.5~0.9사이의 값을 가질 수 있다. 상기 <수학식 2>는, 촬영 영상의 특징점

Figure 112011077546690-pat00007
가 참조 영상의 특징점
Figure 112011077546690-pat00008
와 갖는 최소 SAD값이, 다른 특징점
Figure 112011077546690-pat00009
와 갖는 두 번째로 작은 SAD값보다 훨씬 작아야만, 최소 SAD값을 가지는 촬영 영상의 특징점과 참조 영상의 특징점
Figure 112011077546690-pat00010
를 동일한 특징점으로 결정한다는 것을 의미한다.here, Is a discriminant ratio and may have a value between 0.5 and 0.9. Equation 2 is a characteristic point of the photographed image.
Figure 112011077546690-pat00007
Feature of the reference image
Figure 112011077546690-pat00008
Has a minimum SAD value
Figure 112011077546690-pat00009
The feature point of the captured image with the minimum SAD value and the feature point of the reference image must be much smaller than the second smallest SAD value
Figure 112011077546690-pat00010
Means to determine the same feature point.

이와 같이, 상기 <수학식 1> 및 <수학식 2>를 기반으로, 촬영 영상 내 각 특징점들에 대하여, 대응되는 참조 영상 내 특징점을 결정할 수 있다.
As described above, based on Equation 1 and Equation 2, for each feature point in the captured image, the feature point in the corresponding reference image may be determined.

도 1은 본 발명에 따른 증강현실 서비스를 지원하는 시스템을 개략적으로 나타낸 블럭 구성도이다.1 is a block diagram schematically showing a system supporting an augmented reality service according to the present invention.

도시된 바와 같이, 본 발명에 따른 증강현실 서비스를 지원하는 시스템은 휴대용 단말기(100), 유무선 통신망(110) 및 증강현실 제공서버(120)를 포함하여 구성된다. As shown, the system supporting the augmented reality service according to the present invention comprises a portable terminal 100, wired and wireless communication network 110 and augmented reality providing server 120.

상기 휴대용 단말기(100)는 유무선 통신망(110)과 연동하여 무선 통신으로 통상적인 음성 통화 및 데이터 통신을 수행하는 단말기로서, 특히 본 발명에 따라 촬영 영상을 기반으로 사용자에게 증강현실 서비스를 제공하는 다양한 기기를 의미한다. 예를 들어, 상기 휴대용 단말기(100)는 셀룰러 폰(Cellular Phone), 스마트폰(Smart Phone), 개인용 컴퓨터(PC: Personal Computer), 노트북 컴퓨터, 개인 휴대 단말기(PDA: Personal Digital Assistant), 휴대형 멀티미디어 플레이어(PMP: Portable Multimedia Player), 플레이스테이션 포터블(PSP: PlayStation Portable) 등이 될 수 있다. The portable terminal 100 is a terminal for performing a general voice call and data communication by wireless communication in conjunction with the wired and wireless communication network 110, in particular, a variety of providing augmented reality service to the user based on the captured image according to the present invention Means appliance. For example, the portable terminal 100 may be a cellular phone, a smart phone, a personal computer (PC), a notebook computer, a personal digital assistant (PDA), a portable multimedia. A player may be a player (PMP: Portable Multimedia Player), a PlayStation Portable (PSP), or the like.

상기 휴대용 단말기(100)는 카메라 모듈을 통해 획득된 촬영 영상을 유무선 통신망(110)을 통해 증강현실 제공서버(120)로 제공하고, 유무선 통신망(110)을 통해 증강현실 제공서버(120)로부터 촬영 영상 내 대상 객체에 대한 부가 정보를 획득하며, 상기 획득된 부가 정보를 촬영 영상과 병합하여 화면에 출력한다. 여기서, 상기 휴대용 단말기(100)는 상기 촬영 영상과 함께 단말 자신의 위치 및 방향 정보를 증강현실 제공서버(120)로 제공한다. 이에 따라 증강현실 제공서버(120)는 상기 촬영 영상에 대해 데이터베이스 내 모든 객체별 참조 영상들과의 정합을 수행하지 않고, 상기 휴대용 단말기(100)가 위치한 영역 내 객체에 대한 참조 영상들만을 정합 대상으로 할 수 있다. 또한, 상기 휴대용 단말기(100)는 증강현실 제공서버(120)로부터 촬영 영상 내 대상 객체에 대한 부가 정보와 함께 해당 객체에 대한 시점 및 거리 정보를 획득하며, 해당 시점 및 거리 정보에 따라 화면에 표시되는 부가정보의 종류 및 크기가 다르게 설정될 수 있다. The portable terminal 100 provides the captured image obtained through the camera module to the augmented reality providing server 120 through the wired / wireless communication network 110, and photographed from the augmented reality providing server 120 through the wired / wireless communication network 110. Additional information about the target object in the image is obtained, and the obtained additional information is merged with the captured image and output on the screen. Here, the portable terminal 100 provides the position and direction information of the terminal itself to the augmented reality providing server 120 together with the captured image. Accordingly, the augmented reality providing server 120 does not match the reference images of all objects in the database with respect to the captured image, but matches only the reference images of the objects in the region where the portable terminal 100 is located. You can do In addition, the portable terminal 100 obtains view and distance information on the object from the augmented reality providing server 120 together with additional information on the target object in the captured image, and displays it on the screen according to the view and distance information. The type and size of the additional information may be set differently.

상기 유무선 통신망(110)은 휴대용 단말기(100)와 증강현실 제공서버(120)를 연결하는 망(Network)을 의미한다. The wired / wireless communication network 110 refers to a network connecting the portable terminal 100 and the augmented reality providing server 120.

상기 증강현실 제공서버(120)는 유무선 통신망(110)과 연동하여 휴대용 단말기(100)로 촬영 영상 내 객체에 대한 부가정보를 제공한다. 이를 위해, 상기 증강현실 제공서버(120)는 참조 영상들의 특징점들과 각 참조 영상들에 대한 정확한 위치정보(위/경도)를 데이터베이스에 미리 저장하고, 휴대용 단말기(100)의 카메라 모듈을 통해 촬영된 영상을 데이터베이스 내 참조 영상들과 정합하여 동일한 참조 영상을 검색하며, 상기 검색된 참조 영상 내 객체에 대한 부가 정보를 획득하여 상기 휴대용 단말기(100)로 전송한다. 이때, 상기 증강현실 제공서버(120)는 휴대용 단말기(100)의 위치 및 방향 정보와 각 참조 영상별 위치 정보를 기반으로 GPS 오차범위 내의 위치를 가지는 참조 영상들을 정합 대상으로 한다. 또한, 증강현실 제공서버(120)는 정합된 참조 영상을 기반으로 해당 객체에 대한 시점 및 거리를 결정하여, 해당 시점 및 거리 정보에 따라 다른 부가 정보를 상기 휴대용 단말기(100)로 전송할 수 있다.
The augmented reality providing server 120 provides additional information on the object in the captured image to the portable terminal 100 in conjunction with the wired and wireless communication network (110). To this end, the augmented reality providing server 120 stores the feature points of the reference images and the exact position information (latitude / longitude) of each reference image in a database in advance, photographed through the camera module of the portable terminal 100 The searched image is matched with reference images in a database to search for the same reference image, and additional information about an object in the searched reference image is obtained and transmitted to the portable terminal 100. In this case, the augmented reality providing server 120 targets reference images having a position within a GPS error range based on the position and orientation information of the portable terminal 100 and the position information for each reference image. Also, the augmented reality providing server 120 may determine a viewpoint and a distance of a corresponding object based on the matched reference image, and transmit other additional information to the portable terminal 100 according to the viewpoint and distance information.

도 2는 본 발명에 따른 증강현실 서비스를 지원하는 시스템 내 휴대용 단말기의 장치 구성을 개략적으로 나타낸 블럭 구성도이다.2 is a block diagram schematically illustrating a device configuration of a portable terminal in a system supporting an augmented reality service according to the present invention.

도시된 바와 같이, 휴대용 단말기는, 제어부(200), 카메라 모듈(202), 영상 처리부(204), 부가정보 병합부(206), 표시부(208), 위치측정부(210), 방향측정부(212), 저장부(214), 입력부(216), 통신부(218)를 포함하여 구성된다. As illustrated, the portable terminal includes a control unit 200, a camera module 202, an image processing unit 204, an additional information merging unit 206, a display unit 208, a position measuring unit 210, and a direction measuring unit ( 212, a storage unit 214, an input unit 216, and a communication unit 218.

상기 도 2를 참조하면, 상기 제어부(200)는 휴대용 단말기의 전반적인 동작을 제어하며, 본 발명에 따라 촬영 영상을 기반으로 사용자에게 증강현실 서비스를 제공하기 위한 기능을 제어 및 처리한다. 특히, 상기 제어부(200)는 카메라 모듈(202)을 통해 획득된 촬영 영상을 통신부(218)를 통해 증강현실 제공서버로 제공하고, 상기 증강현실 제공서버로부터 통신부(218)를 통해 촬영 영상 내 대상 객체에 대한 부가 정보를 획득하며, 부가정보 병합부(206)를 통해 상기 획득된 부가 정보를 촬영 영상과 병합하고, 표시부(208)를 통해 상기 병합된 촬영 영상과 부가 정보를 화면에 출력하기 위한 기능을 제어 및 처리한다. 여기서, 상기 제어부(200)는 상기 촬영 영상과 함께 단말의 위치 및 방향 정보를 통신부(218)를 통해 증강현실 제공서버로 제공한다. Referring to FIG. 2, the controller 200 controls the overall operation of the portable terminal, and controls and processes a function for providing an augmented reality service to a user based on the captured image according to the present invention. In particular, the control unit 200 provides a captured image obtained through the camera module 202 to the augmented reality providing server through the communication unit 218, and the object in the captured image through the communication unit 218 from the augmented reality providing server. Acquiring additional information about an object, merging the obtained additional information with the captured image through the additional information merging unit 206, and outputting the merged captured image and the additional information to the screen through the display unit 208. Control and handle the functions. Here, the control unit 200 provides the position and direction information of the terminal with the captured image to the augmented reality providing server through the communication unit 218.

상기 카메라 모듈(202)은 영상 촬영시에 감지되는 광신호를 전기적 신호로 변환하는 카메라 센서와, 상기 카메라 센서로부터 촬영되는 아날로그 영상신호를 디지털 데이터로 변환하는 신호처리부를 구비하며, 상기 디지털 데이터로 변환된 영상신호를 영상 처리부(204)로 출력한다. The camera module 202 includes a camera sensor for converting an optical signal detected at the time of capturing an image into an electrical signal, and a signal processor for converting an analog image signal photographed from the camera sensor into digital data. The converted video signal is output to the video processor 204.

상기 영상 처리부(204)는 카메라 모듈(202)로부터의 영상신호를 프레임 단위로 처리하여 표시부(208)의 특성 및 크기에 맞춰 표시부(208) 또는 부가정보 병합부(206)로 출력한다. 또한, 상기 영상 처리부(204)는 촬영 영상 내 객체의 부가정보를 획득하기 위해 제어부(200)로 촬영 영상을 출력한다. 상기 영상 처리부(204)는 영상코덱을 구비하며, 상기 영상코덱은 영상신호를 설정된 방식으로 코딩하거나, 코딩된 프레임 영상데이터를 원래의 프레임 영상데이터로 디코딩하는 역할을 수행한다. The image processor 204 processes the image signal from the camera module 202 in units of frames and outputs the image signal to the display unit 208 or the additional information merger 206 according to the characteristics and size of the display unit 208. In addition, the image processor 204 outputs the captured image to the controller 200 to obtain additional information of the object in the captured image. The image processor 204 includes an image codec, and the image codec functions to code an image signal in a set manner or to decode the coded frame image data into original frame image data.

상기 부가정보 병합부(206)는 통신부(218)를 통해 증강현실 제공서버로부터 촬영 영상 내 대상 객체에 대한 부가 정보를 획득하여 상기 영상 처리부(204)로부터의 촬영 영상과 병합하고, 상기 병합된 촬영 영상과 부가 정보를 표시부(208)로 출력한다. The additional information merging unit 206 acquires additional information on the target object in the captured image from the augmented reality providing server through the communication unit 218 and merges it with the captured image from the image processing unit 204, and the merged image. The video and additional information are output to the display unit 208.

상기 표시부(208)는 휴대용 단말기의 동작 중에 발생되는 상태 정보와 제한된 숫자 및 문자들을 디스플레이한다. 특히, 상기 표시부(208)는 상기 영상 처리부(204) 또는 부가정보 병합부(206)로부터의 영상을 화면에 디스플레이한다. The display unit 208 displays status information generated during operation of the portable terminal and limited numbers and letters. In particular, the display unit 208 displays an image from the image processing unit 204 or the additional information merging unit 206 on the screen.

상기 위치측정부(210)는 단말의 위치를 측정하며, 예를 들어 GPS 센서로 구현될 수 있다. The position measuring unit 210 measures the position of the terminal, for example, may be implemented by a GPS sensor.

상기 방향측정부(212)는 단말의 방향을 측정하며, 예를 들어 콤파스 센서로 구현될 수 있다. The direction measuring unit 212 measures the direction of the terminal, for example, may be implemented as a compass sensor.

상기 저장부(214)는 휴대용 단말기의 전반적인 동작을 위한 프로그램 및 각종 데이터를 저장한다.The storage unit 214 stores a program and various data for the overall operation of the portable terminal.

상기 입력부(216)는 다수의 숫자키와 문자키 및 기능키들을 구비하며, 사용자가 누르는 키에 대응하는 데이터를 상기 제어부(200)로 제공한다. The input unit 216 includes a plurality of numeric keys, character keys, and function keys, and provides data corresponding to a key pressed by the user to the controller 200.

상기 통신부(218)는 안테나를 통해 입출력되는 데이터의 무선신호를 송수신 처리하는 기능을 수행한다.
The communication unit 218 performs a function of transmitting and receiving a radio signal of data input and output through an antenna.

도 3은 본 발명에 따른 증강현실 서비스를 지원하는 시스템 내 증강현실 제공서버의 장치 구성을 개략적으로 나타낸 블럭 구성도이다.3 is a block diagram schematically illustrating a device configuration of an augmented reality providing server in a system supporting an augmented reality service according to the present invention.

도시된 바와 같이, 증강현실 제공서버는, 제어부(300), 영상 정합부(302), 데이터베이스(304), 객체 결정부(306), 시점 결정부(308), 거리 결정부(310), 부가정보 획득부(312), 통신부(314)를 포함하여 구성된다. As shown, the augmented reality providing server, the control unit 300, the image matching unit 302, the database 304, the object determination unit 306, the viewpoint determination unit 308, the distance determination unit 310, the addition The information acquisition unit 312 and the communication unit 314 is configured.

상기 도 3을 참조하면, 상기 제어부(300)는 증강현실 제공서버의 전반적인 동작을 제어하며, 본 발명에 따라 휴대용 단말기로 촬영 영상 내 객체에 대한 부가정보를 제공하기 위한 기능을 제어 및 처리한다. 특히, 상기 제어부(300)는 휴대용 단말기로부터의 촬영 영상을 데이터베이스 내 참조 영상들과 정합하여 동일한 참조 영상을 검색하며, 상기 검색된 참조 영상 내 객체에 대한 부가 정보를 획득하여 상기 휴대용 단말기로 전송하기 위한 기능을 제어 및 처리한다. 또한, 상기 제어부(300)는 최종 정합된 참조 영상을 기반으로 해당 객체에 대한 시점 및 거리를 결정하여, 상기 결정된 시점 및 거리 정보에 따라 다른 부가 정보를 상기 휴대용 단말기로 전송하기 위한 기능을 제어 및 처리한다.Referring to FIG. 3, the controller 300 controls the overall operation of the augmented reality providing server, and controls and processes a function for providing additional information about an object in a captured image to a portable terminal according to the present invention. In particular, the controller 300 searches for the same reference image by matching the captured image from the portable terminal with the reference images in the database, and acquires additional information about the object in the searched reference image and transmits it to the portable terminal. Control and handle the functions. In addition, the controller 300 determines a viewpoint and distance of the corresponding object based on the finally matched reference image, and controls a function for transmitting other additional information to the portable terminal according to the determined viewpoint and distance information. Process.

상기 영상 정합부(302)는 통신부(314)를 통해 휴대용 단말기로부터 촬영 영상 및 단말의 위치 및 방향 정보를 입력받고, 상기 입력받은 단말의 위치 및 방향정보를 기반으로, 데이터베이스(304)에서 단말이 위치한 영역 내 객체들에 대한 참조 영상의 특징점들을 결정한다. 상기 영상 정합부(302)는 상기 입력받은 촬영 영상의 특징점들을 획득하고, 상기 입력받은 촬영 영상의 각 특징점에 대하여, 상기 결정한 참조 영상의 특징점들을 대상으로 정합한다. 본 발명에서는 데이터베이스 구현 방식에 따른 촬영 영상과 참조 영상 간 정합 방법을 4가지 실시 예로 제안하고 있으며, 이후 상세히 설명하기로 한다. The image matching unit 302 receives the captured image and the position and direction information of the terminal from the portable terminal through the communication unit 314, and based on the received position and direction information of the terminal, the terminal in the database 304 The feature points of the reference image for the objects in the located area are determined. The image matching unit 302 obtains feature points of the received captured image and matches the feature points of the determined reference image with respect to each feature point of the received captured image. In the present invention, a matching method between a captured image and a reference image according to a database implementation method is proposed as four embodiments, which will be described in detail later.

상기 데이터베이스(304)는 참조 영상들의 특징점들과 각 참조 영상들에 대한 정확한 위치정보(위/경도)를 저장한다. The database 304 stores feature points of reference images and accurate position information (latitude / longitude) of each reference image.

상기 객체 결정부(306)는 참조 영상들의 특징점 정합 개수를 기반으로 하나의 참조 영상을 선택하여 최종 정합 영상으로 결정하며, 상기 선택된 참조 영상에 대응하는 객체를 결정한다. The object determiner 306 selects one reference image to determine a final matched image based on the number of feature point matchings of the reference images, and determines an object corresponding to the selected reference image.

상기 시점 결정부(308)는 상기 결정된 객체에 대한 해당 참조 영상의 시점을 결정한다.The viewpoint determination unit 308 determines the viewpoint of the corresponding reference image with respect to the determined object.

상기 거리 결정부(310)는 상기 결정된 객체에 대한 촬영 영상의 거리를 결정한다.The distance determiner 310 determines a distance of the captured image with respect to the determined object.

상기 부가정보 획득부(312)는 상기 결정된 객체의 부가정보를 획득하며, 이와 같이 획득된 부가정보는 통신부(314)를 통해 단말로 전송한다. 이때, 상기 부가정보 획득부(312)는 상기 결정된 객체에 대한 시점 및 거리를 기반으로, 단말의 화면에 표시되는 부가정보의 종류 및 크기를 다르게 설정하여 단말로 전송할 수 있다.The additional information obtaining unit 312 obtains additional information of the determined object, and the obtained additional information is transmitted to the terminal through the communication unit 314. In this case, the additional information obtaining unit 312 may set different types and sizes of additional information displayed on the screen of the terminal and transmit them to the terminal based on the determined time and distance of the object.

상기 통신부(314)는 입출력되는 데이터의 무선신호를 송수신 처리하는 기능을 수행한다.
The communication unit 314 performs a function of transmitting and receiving a radio signal of input and output data.

한편, 본 발명에서는 객체별 참조 영상의 특징점들을 기반으로 데이터베이스를 구현함에 있어, 두 가지 방식을 고려한다. 즉, 객체별 하나의 참조 영상의 특징점들로 데이터베이스를 구현하는 방식과, 객체별 다수의 참조 영상의 특징점들로 데이터베이스를 구현하는 방식을 고려한다. 상기 데이터베이스를 구현하는 방식에 따라 촬영 영상과 참조 영상을 정합하는 방법이 달라질 수 있다. 데이터베이스 구현 방식에 따른 촬영 영상과 참조 영상 간 정합 방법에 대하여 본 발명에서는 4가지 실시 예를 제안하며, 도 4 내지 도 9를 기반으로 상세하게 살펴보기로 한다. 상기 4가지 실시 예는 독립적으로 사용되거나, 또는 두 개 이상의 실시 예가 결합되어 사용될 수 있다.
Meanwhile, the present invention considers two methods in implementing a database based on the feature points of the object-specific reference image. That is, a method of implementing a database with feature points of one reference image for each object and a method of implementing a database with feature points of a plurality of reference images for each object are considered. The method of matching the captured image and the reference image may vary according to the method of implementing the database. The present invention proposes a matching method between a captured image and a reference image according to a database implementation method, and will be described in detail with reference to FIGS. 4 to 9. The four embodiments may be used independently, or two or more embodiments may be used in combination.

도 4는 본 발명의 제1 실시 예에 따른 증강현실 서비스를 지원하는 시스템에서 객체별 하나의 참조 영상의 특징점들을 저장하여 데이터베이스를 구현하는 경우, 촬영 영상과 참조 영상을 정합하기 위한 증강현실 제공서버의 동작 방법을 도시한 흐름도이다. 4 is an augmented reality providing server for matching a captured image and a reference image when a database is implemented by storing feature points of one reference image for each object in a system supporting an augmented reality service according to the first embodiment of the present invention. A flowchart illustrating a method of operation.

상기 도 4를 참조하면, 증강현실 제공서버는 401단계에서 객체별 하나의 참조 영상의 특징점들을 데이터베이스에 저장한다. Referring to FIG. 4, in operation 401, the AR server stores feature points of one reference image for each object in a database.

이후, 상기 증강현실 제공서버는 403단계에서 단말로부터 객체에 대한 촬영 영상과 상기 단말의 위치 및 방향정보를 입력받는다.In step 403, the augmented reality providing server receives a captured image of an object and position and direction information of the terminal from the terminal.

이후, 상기 증강현실 제공서버는 405단계에서 상기 입력받은 단말의 위치 및 방향정보를 기반으로, 데이터베이스에서 단말이 위치한 영역 내 객체들에 대한 참조 영상의 특징점들을 결정한다. 즉, 단말의 위치 및 방향에 존재하는 객체들에 대한 참조 영상의 특징점들을 결정한다. In step 405, the AR providing server determines the feature points of the reference image for the objects in the region where the terminal is located in the database, based on the received position and direction information of the terminal. That is, the feature points of the reference image for the objects existing in the position and the direction of the terminal are determined.

이후, 상기 증강현실 제공서버는 407단계에서 상기 입력받은 촬영 영상의 특징점들을 획득한다. 여기서, 상기 특징점 획득을 위해, SIFT(Scale Invariant Feature Transform), SURF (Speeded Up Robust Features) 등 다양한 특징점 추출 알고리즘이 사용될 수 있다. In step 407, the AR providing server acquires feature points of the received captured image. Here, various feature point extraction algorithms such as Scale Invariant Feature Transform (SIFT) and Speeded Up Robust Features (SURF) may be used to obtain the feature points.

이후, 상기 증강현실 제공서버는, 409단계 내지 413단계를 통해 상기 입력받은 촬영 영상의 각 특징점을, 상기 결정한 참조 영상 특징점들 중 하나의 참조 영상의 특징점들과 정합하고, 동일한 방식으로, 상기 입력받은 촬영 영상의 각 특징점을, 상기 결정한 나머지 참조 영상의 특징점들과 정합한다. 즉, 상기 입력받은 촬영 영상의 각 특징점에 대하여, 상기 결정한 참조 영상 특징점들 중 하나의 참조 영상의 특징점들을 대상으로, 상기 <수학식 2>를 만족하는 특징점을 결정한다. Thereafter, the AR providing server matches each feature point of the received captured image with the feature points of one reference image among the determined reference image feature points through steps 409 to 413. Each feature point of the received captured image is matched with the feature points of the remaining reference image. That is, for each feature point of the received captured image, a feature point that satisfies Equation 2 is determined based on the feature points of one reference image among the determined reference image feature points.

상세히 설명하면, 상기 증강현실 제공서버는 409단계에서 상기 결정한 참조 영상 특징점들 중 기 선택되지 않은 하나의 참조 영상의 특징점들을 선택하고, 411단계에서 상기 입력받은 촬영 영상의 각 특징점에 대하여, 상기 선택된 하나의 참조 영상의 특징점들을 대상으로 정합한 후, 413단계에서 상기 결정한 모든 참조 영상의 특징점들이 선택되었는지 여부를 검사한다. 만약, 상기 413단계에서, 상기 결정한 모든 참조 영상의 특징점들이 선택되지 않았음이 판단될 시, 상기 증강현실 제공서버는 상기 409단계로 돌아가 이하 단계를 반복 수행하고, 상기 결정한 모든 참조 영상의 특징점들이 선택되었음이 판단될 시, 415단계로 진행한다. In detail, the augmented reality providing server selects the feature points of one reference image that is not selected among the determined reference image feature points in step 409, and selects the selected feature points of the received captured image in step 411. After matching the feature points of one reference image to an object, it is checked whether the feature points of all the determined reference images are selected in step 413. If it is determined in step 413 that the feature points of all the determined reference images are not selected, the augmented reality providing server returns to step 409 and repeats the following steps, and the feature points of all the determined reference images If it is determined that the selection is made, the flow proceeds to step 415.

예를 들어, 도 5와 같이, <수학식 1>을 이용하여, 촬영 영상의 제1 특징점과 제1 객체의 참조 영상의 각 특징점 간 SAD를 계산하고, 상기 계산된 SAD들을 대상으로 상기 <수학식 2>를 만족하는, 최소 SAD를 가지는 특징점 쌍, 즉 촬영 영상의 제1 특징점과 이에 대응하는 제1 객체의 참조 영상의 특징점을 동일한 특징점으로 간주하여 정합한다. 또한, 촬영 영상의 나머지 특징점에 대해서도 동일한 방식을 적용하여, 촬영 영상의 각 특징점을 제1 객체의 참조 영상의 특징점들과 정합한다. 또한, 동일한 방식을 적용하여, 촬영 영상의 각 특징점을 나머지 객체의 참조 영상의 특징점들과 정합한다. For example, as shown in FIG. 5, the SAD is calculated between the first feature point of the photographed image and each feature point of the reference image of the first object, using <Equation 1>, and the <math The pair of feature points having the minimum SAD, that is, the first feature point of the captured image and the corresponding feature point of the reference image of the first object corresponding to Equation 2 > In addition, the same method is applied to the remaining feature points of the captured image to match each feature point of the captured image with the feature points of the reference image of the first object. Also, by applying the same method, each feature point of the captured image is matched with feature points of the reference image of the remaining object.

이후, 상기 증강현실 제공서버는 415단계에서 상기 참조 영상들의 특징점 정합 개수를 기반으로 각 참조 영상의 정합 유사도를 결정한다. In step 415, the AR providing server determines match similarity of each reference image based on the number of feature point matches of the reference images.

여기서, 상기 정합 유사도는 하기 <수학식 3>을 이용하여 결정할 수 있다. Here, the matching similarity may be determined using Equation 3 below.

[수학식 3]&Quot; (3) &quot;

Figure 112011077546690-pat00011
Figure 112011077546690-pat00011

여기서,

Figure 112011077546690-pat00012
는 i번째 참조 영상의 정합 유사도를 나타내고,
Figure 112011077546690-pat00013
는 i번째 참조 영상의 특징점 개수,
Figure 112011077546690-pat00014
는 i번째 참조 영상의 특징점 정합 개수를 나타낸다. here,
Figure 112011077546690-pat00012
Represents the match similarity of the i th reference image,
Figure 112011077546690-pat00013
Is the number of feature points in the i reference image,
Figure 112011077546690-pat00014
Denotes the number of feature point matches of the i-th reference image.

이후, 상기 증강현실 제공서버는 417단계에서 상기 각 참조 영상의 정합 유사도를 기반으로 가장 큰 정합 유사도를 가지는 참조 영상을, 상기 촬영 영상에 대한 최종 정합 영상으로서 선택한다. In step 417, the augmented reality providing server selects a reference image having the largest matching similarity based on the matching similarity of the respective reference images as the final matching image for the captured image.

이후, 상기 증강현실 제공서버는 419단계에서 상기 선택된 참조 영상에 대응하는 객체를 결정한다. In step 419, the augmented reality providing server determines an object corresponding to the selected reference image.

이후, 상기 증강현실 제공서버는 421단계에서 상기 결정된 객체의 부가정보를 획득하여 상기 단말로 전송한다. 이로써, 상기 단말은 해당 객체에 대한 촬영 영상과 부가정보를 병합하여 화면에 표시함으로써, 사용자에게 증강현실 서비스를 제공할 수 있다. In step 421, the augmented reality providing server acquires additional information of the determined object and transmits the additional information to the terminal. As a result, the terminal may provide the augmented reality service to the user by merging the captured image and the additional information of the object on the screen.

이후, 상기 증강현실 제공서버는 본 발명에 따른 알고리즘을 종료한다.
Thereafter, the AR providing server terminates the algorithm according to the present invention.

도 6은 본 발명의 제2 실시 예에 따른 증강현실 서비스를 지원하는 시스템에서 객체별 하나의 참조 영상의 특징점들을 저장하여 데이터베이스를 구현하는 경우, 촬영 영상과 참조 영상을 정합하기 위한 증강현실 제공서버의 동작 방법을 도시한 흐름도이다. FIG. 6 is an augmented reality providing server for matching a captured image and a reference image when a database is implemented by storing feature points of one reference image for each object in a system supporting an augmented reality service according to a second embodiment of the present invention. A flowchart illustrating a method of operation.

상기 도 6을 참조하면, 증강현실 제공서버는 601단계에서 객체별 하나의 참조 영상의 특징점들을 데이터베이스에 저장한다. Referring to FIG. 6, in operation 601, the AR server stores feature points of one reference image for each object in a database.

이후, 상기 증강현실 제공서버는 603단계에서 단말로부터 객체에 대한 촬영 영상과 상기 단말의 위치 및 방향정보를 입력받는다. In step 603, the augmented reality providing server receives a captured image of an object and position and direction information of the terminal from a terminal.

이후, 상기 증강현실 제공서버는 605단계에서 상기 입력받은 단말의 위치 및 방향정보를 기반으로, 데이터베이스에서 단말이 위치한 영역 내 객체들에 대한 참조 영상의 특징점들을 결정한다. 즉, 단말의 위치 및 방향에 존재하는 객체들에 대한 참조 영상의 특징점들을 결정한다. In step 605, the augmented reality providing server determines feature points of reference images of objects in a region where a terminal is located in a database, based on the input position and direction information of the terminal. That is, the feature points of the reference image for the objects existing in the position and the direction of the terminal are determined.

이후, 상기 증강현실 제공서버는 607단계에서 상기 입력받은 촬영 영상의 특징점들을 획득한다. 여기서, 상기 특징점 획득을 위해, SIFT(Scale Invariant Feature Transform), SURF (Speeded Up Robust Features) 등 다양한 특징점 추출 알고리즘이 사용될 수 있다. In step 607, the AR providing server acquires feature points of the received captured image. Here, various feature point extraction algorithms such as Scale Invariant Feature Transform (SIFT) and Speeded Up Robust Features (SURF) may be used to obtain the feature points.

이후, 상기 증강현실 제공서버는 609단계에서 상기 입력받은 촬영 영상의 각 특징점을, 상기 결정한 모든 참조 영상들의 특징점들과 정합한다. 다시 말해, 상기 입력받은 촬영 영상의 각 특징점에 대하여, 상기 결정한 모든 참조 영상들의 특징점들을 대상으로, 상기 <수학식 2>를 만족하는 특징점을 결정한다. In step 609, the AR providing server matches each feature point of the received captured image with the feature points of all the determined reference images. In other words, a feature point that satisfies Equation 2 is determined with respect to each feature point of the determined reference images with respect to each feature point of the received captured image.

예를 들어, 도 7과 같이, <수학식 1>을 이용하여, 촬영 영상의 제1 특징점과 모든 객체의 참조 영상의 각 특징점 간 SAD를 계산하고, 상기 계산된 SAD들을 대상으로 상기 <수학식 2>를 만족하는, 최소 SAD를 가지는 특징점 쌍을 동일한 특징점으로 간주하여 정합한다. 또한, 촬영 영상의 나머지 특징점에 대해서도 동일한 방식을 적용하여, 촬영 영상의 각 특징점을 모든 객체의 참조 영상의 특징점들과 정합한다. For example, as shown in FIG. 7, the SAD is calculated between the first feature point of the photographed image and each feature point of the reference image of all objects by using Equation 1, and the SAD is calculated for the calculated SADs. A pair of feature points having a minimum SAD satisfying 2> are regarded as the same feature point and matched. In addition, the same method is applied to the remaining feature points of the captured image to match each feature point of the captured image with the feature points of the reference images of all objects.

이후, 상기 증강현실 제공서버는 611단계에서 상기 참조 영상들의 특징점 정합 개수를 기반으로 각 참조 영상의 정합 유사도를 결정한다. In step 611, the augmented reality providing server determines matching similarity degree of each reference image based on the number of feature point matchings of the reference images.

여기서, 상기 정합 유사도는 하기 <수학식 4>를 이용하여 결정할 수 있다.Here, the matching similarity may be determined using Equation 4 below.

[수학식 4]&Quot; (4) &quot;

Figure 112011077546690-pat00015
Figure 112011077546690-pat00015

여기서,

Figure 112013044888268-pat00016
는 i번째 참조 영상의 정합 유사도를 나타내고,
Figure 112013044888268-pat00017
는 비교 대상으로 검출된 모든 참조 영상의 특징점 총 개수,
Figure 112013044888268-pat00018
는 촬영 영상의 특징점 개수,
Figure 112013044888268-pat00019
는 i번째 참조 영상의 특징점 개수,
Figure 112013044888268-pat00020
는 i번째 참조 영상의 특징점 정합 개수를 나타낸다. here,
Figure 112013044888268-pat00016
Represents the match similarity of the i th reference image,
Figure 112013044888268-pat00017
Is the total number of feature points of all reference images detected as comparison targets,
Figure 112013044888268-pat00018
Is the number of feature points in the captured image,
Figure 112013044888268-pat00019
Is the number of feature points in the i reference image,
Figure 112013044888268-pat00020
Denotes the number of feature point matches of the i-th reference image.

이후, 상기 증강현실 제공서버는 613단계에서 상기 각 참조 영상의 정합 유사도를 기반으로 가장 큰 정합 유사도를 가지는 참조 영상을, 상기 촬영 영상에 대한 최종 정합 영상으로서 선택한다. In step 613, the augmented reality providing server selects a reference image having the largest matching similarity based on the matching similarity of the respective reference images as the final matching image for the captured image.

이후, 상기 증강현실 제공서버는 615단계에서 상기 선택된 참조 영상에 대응하는 객체를 결정한다. In step 615, the augmented reality providing server determines an object corresponding to the selected reference image.

이후, 상기 증강현실 제공서버는 617단계에서 상기 결정된 객체의 부가정보를 획득하여 상기 단말로 전송한다. 이로써, 상기 단말은 해당 객체에 대한 촬영 영상과 부가정보를 병합하여 화면에 표시함으로써, 사용자에게 증강현실 서비스를 제공할 수 있다. In step 617, the AR server acquires additional information of the determined object and transmits the additional information to the terminal. As a result, the terminal may provide the augmented reality service to the user by merging the captured image and the additional information of the object on the screen.

이후, 상기 증강현실 제공서버는 본 발명에 따른 알고리즘을 종료한다.
Thereafter, the AR providing server terminates the algorithm according to the present invention.

도 8은 본 발명의 제3 실시 예에 따른 증강현실 서비스를 지원하는 시스템에서 객체별 다수의 참조 영상의 특징점들을 저장하여 데이터베이스를 구현하는 경우, 촬영 영상과 참조 영상을 정합하기 위한 증강현실 제공서버의 동작 방법을 도시한 흐름도이다. 8 is an augmented reality providing server for matching a captured image and a reference image when a database is implemented by storing feature points of a plurality of reference images for each object in a system supporting an augmented reality service according to a third embodiment of the present invention. A flowchart illustrating a method of operation.

상기 도 8을 참조하면, 증강현실 제공서버는 801단계에서 객체별 다수의 참조 영상의 특징점들을 데이터베이스 내 해당 객체의 참조 영상 그룹에 저장한다. Referring to FIG. 8, in operation 801, the AR server stores feature points of a plurality of reference images for each object in a reference image group of a corresponding object in a database.

이후, 상기 증강현실 제공서버는 803단계에서 단말로부터 객체에 대한 촬영 영상과 상기 단말의 위치 및 방향정보를 입력받는다.In step 803, the augmented reality providing server receives a captured image of an object and position and direction information of the terminal from a terminal.

이후, 상기 증강현실 제공서버는 805단계에서 상기 입력받은 단말의 위치 및 방향정보를 기반으로, 데이터베이스에서 단말이 위치한 영역 내 객체들에 대한 다수의 참조 영상의 특징점들을 결정한다. 즉, 단말의 위치 및 방향에 존재하는 객체들에 대한 다수의 참조 영상의 특징점들을 결정한다. In step 805, the AR providing server determines the feature points of the plurality of reference images for the objects in the region where the terminal is located in the database, based on the input position and direction information of the terminal. That is, the feature points of the plurality of reference images for the objects existing in the location and direction of the terminal are determined.

이후, 상기 증강현실 제공서버는 807단계에서 상기 입력받은 촬영 영상의 특징점들을 획득한다. 여기서, 상기 특징점 획득을 위해, SIFT(Scale Invariant Feature Transform), SURF (Speeded Up Robust Features) 등 다양한 특징점 추출 알고리즘이 사용될 수 있다. In step 807, the AR providing server acquires feature points of the received captured image. Here, various feature point extraction algorithms such as Scale Invariant Feature Transform (SIFT) and Speeded Up Robust Features (SURF) may be used to obtain the feature points.

이후, 상기 증강현실 제공서버는, 809단계 내지 813단계를 통해 상기 입력받은 촬영 영상의 각 특징점을, 상기 결정한 객체별 다수의 참조 영상의 특징점들 중 하나의 참조 영상의 특징점들과 정합하고, 동일한 방식으로, 상기 입력받은 촬영 영상의 각 특징점을, 상기 결정한 나머지 참조 영상의 특징점들과 정합한다. 즉, 상기 입력받은 촬영 영상의 각 특징점에 대하여, 상기 결정한 객체별 다수의 참조 영상의 특징점들 중 하나의 참조 영상의 특징점들을 대상으로, 상기 <수학식 2>를 만족하는 특징점을 결정한다. Thereafter, the augmented reality providing server matches each feature point of the received captured image with the feature points of one reference image among the feature points of the plurality of reference images for each object determined through steps 809 to 813, and the same. In this way, each feature point of the received captured image is matched with feature points of the determined remaining reference image. That is, for each feature point of the received captured image, a feature point that satisfies Equation 2 is determined based on the feature points of one reference image among the feature points of the plurality of reference images for each object.

상세히 설명하면, 상기 증강현실 제공서버는 809단계에서 상기 결정한 객체별 다수의 참조 영상의 특징점들 중 기 선택되지 않은 하나의 참조 영상의 특징점들을 선택하고, 811단계에서 상기 입력받은 촬영 영상의 각 특징점에 대하여, 상기 선택된 하나의 참조 영상의 특징점들을 대상으로 정합한 후, 813단계에서 상기 결정한 모든 참조 영상의 특징점들이 선택되었는지 여부를 검사한다. 만약, 상기 813단계에서, 상기 결정한 모든 참조 영상의 특징점들이 선택되지 않았음이 판단될 시, 상기 증강현실 제공서버는 상기 809단계로 돌아가 이하 단계를 반복 수행하고, 상기 결정한 모든 참조 영상의 특징점들이 선택되었음이 판단될 시, 815단계로 진행한다. In detail, the augmented reality providing server selects feature points of one reference image that are not selected among the feature points of the plurality of reference images for each object determined in step 809, and each feature point of the received captured image in step 811. In step 813, the feature points of the selected reference image are matched with each other, and then, in step 813, the feature points of all the determined reference images are checked. If it is determined in step 813 that the feature points of all the determined reference images are not selected, the augmented reality providing server returns to step 809 to repeat the following steps, and the feature points of all the determined reference images If it is determined that the selection is made, the flow proceeds to step 815.

이후, 상기 증강현실 제공서버는 815단계에서 상기 객체별 다수의 참조 영상들의 특징점 정합 개수를 기반으로 각 참조 영상의 정합 유사도를 결정한다. In step 815, the augmented reality providing server determines matching similarity of each reference image based on the number of feature point matchings of the plurality of reference images for each object.

여기서, 상기 정합 유사도는 하기 <수학식 5>를 이용하여 결정할 수 있다. Here, the matching similarity may be determined using Equation 5 below.

[수학식 5]&Quot; (5) &quot;

Figure 112011077546690-pat00021
Figure 112011077546690-pat00021

여기서,

Figure 112011077546690-pat00022
는 i번째 참조 영상의 정합 유사도를 나타내고,
Figure 112011077546690-pat00023
는 i번째 참조 영상의 특징점 개수,
Figure 112011077546690-pat00024
는 i번째 참조 영상의 특징점 정합 개수를 나타낸다. 상기 <수학식 6>은, 하나의 참조 영상의 특징점 정합 개수를, 해당 참조 영상의 특징점 개수로 나눔으로써, 해당 참조 영상의 정합 유사도를 결정한다는 것을 의미한다. here,
Figure 112011077546690-pat00022
Represents the match similarity of the i th reference image,
Figure 112011077546690-pat00023
Is the number of feature points in the i reference image,
Figure 112011077546690-pat00024
Denotes the number of feature point matches of the i-th reference image. Equation (6) means that the matching similarity of the reference image is determined by dividing the number of feature point matchings of one reference image by the number of feature points of the reference image.

이후, 상기 증강현실 제공서버는 817단계에서 상기 각 참조 영상의 정합 유사도를 기반으로 가장 큰 정합 유사도를 가지는 참조 영상을, 상기 촬영 영상에 대한 최종 정합 영상으로서 선택한다. In step 817, the augmented reality providing server selects a reference image having the largest matching similarity based on the matching similarity of the respective reference images as the final matching image for the captured image.

이후, 상기 증강현실 제공서버는 819단계에서 상기 선택된 참조 영상이 속한 참조 영상 그룹에 대응하는 객체를 결정한다. In step 819, the augmented reality providing server determines an object corresponding to the reference picture group to which the selected reference picture belongs.

이후, 상기 증강현실 제공서버는 821단계에서 상기 결정된 객체의 부가정보를 획득하여 상기 단말로 전송한다. 이로써, 상기 단말은 해당 객체에 대한 촬영 영상과 부가정보를 병합하여 화면에 표시함으로써, 사용자에게 증강현실 서비스를 제공할 수 있다. In step 821, the augmented reality providing server acquires additional information of the determined object and transmits the additional information to the terminal. As a result, the terminal may provide the augmented reality service to the user by merging the captured image and the additional information of the object on the screen.

이후, 상기 증강현실 제공서버는 본 발명에 따른 알고리즘을 종료한다.
Thereafter, the AR providing server terminates the algorithm according to the present invention.

도 9는 본 발명의 제4 실시 예에 따른 증강현실 서비스를 지원하는 시스템에서 객체별 다수의 참조 영상의 특징점들을 저장하여 데이터베이스를 구현하는 경우, 촬영 영상과 참조 영상을 정합하기 위한 증강현실 제공서버의 동작 방법을 도시한 흐름도이다. 9 is an augmented reality providing server for matching a captured image and a reference image when a database is implemented by storing feature points of a plurality of reference images for each object in a system supporting an augmented reality service according to a fourth embodiment of the present invention. A flowchart illustrating a method of operation.

상기 도 9를 참조하면, 증강현실 제공서버는 901단계에서 객체별 다수의 참조 영상의 특징점들을 데이터베이스 내 해당 객체의 참조 영상 그룹에 저장한다. Referring to FIG. 9, in operation 901, the AR server stores feature points of a plurality of reference images for each object in a reference image group of a corresponding object in a database.

이후, 상기 증강현실 제공서버는 903단계에서 단말로부터 객체에 대한 촬영 영상과 상기 단말의 위치 및 방향정보를 입력받는다.In step 903, the augmented reality providing server receives a captured image of the object and position and direction information of the terminal from the terminal.

이후, 상기 증강현실 제공서버는 905단계에서 상기 입력받은 단말의 위치 및 방향정보를 기반으로, 데이터베이스에서 단말이 위치한 영역 내 객체들에 대한 다수의 참조 영상의 특징점들을 결정한다. 즉, 단말의 위치 및 방향에 존재하는 객체들에 대한 다수의 참조 영상의 특징점들을 결정한다. In step 905, the AR providing server determines the feature points of the plurality of reference images for the objects in the region where the terminal is located in the database, based on the received position and direction information of the terminal. That is, the feature points of the plurality of reference images for the objects existing in the position and the direction of the terminal are determined.

이후, 상기 증강현실 제공서버는 907단계에서 상기 입력받은 촬영 영상의 특징점들을 획득한다. 여기서, 상기 특징점 획득을 위해, SIFT(Scale Invariant Feature Transform), SURF (Speeded Up Robust Features) 등 다양한 특징점 추출 알고리즘이 사용될 수 있다. In operation 907, the AR providing server acquires feature points of the received captured image. Here, various feature point extraction algorithms such as Scale Invariant Feature Transform (SIFT) and Speeded Up Robust Features (SURF) may be used to obtain the feature points.

이후, 상기 증강현실 제공서버는, 909단계 내지 913단계를 통해 상기 입력받은 촬영 영상의 각 특징점을, 상기 결정한 객체별 다수의 참조 영상의 특징점들 중 하나의 참조 영상의 특징점들과 정합하고, 동일한 방식으로, 상기 입력받은 촬영 영상의 각 특징점을, 상기 결정한 나머지 참조 영상의 특징점들과 정합한다. 즉, 상기 입력받은 촬영 영상의 각 특징점에 대하여, 상기 결정한 객체별 다수의 참조 영상의 특징점들 중 하나의 참조 영상의 특징점들을 대상으로, 상기 <수학식 2>를 만족하는 특징점을 결정한다. Thereafter, the augmented reality providing server matches each feature point of the received captured image with the feature points of one reference image among the feature points of the plurality of reference images for each object determined in steps 909 to 913, and the same. In this way, each feature point of the received captured image is matched with feature points of the determined remaining reference image. That is, for each feature point of the received captured image, a feature point that satisfies Equation 2 is determined based on the feature points of one reference image among the feature points of the plurality of reference images for each object.

상세히 설명하면, 상기 증강현실 제공서버는 909단계에서 상기 결정한 객체별 다수의 참조 영상의 특징점들 중 기 선택되지 않은 하나의 참조 영상의 특징점들을 선택하고, 911단계에서 상기 입력받은 촬영 영상의 각 특징점에 대하여, 상기 선택된 하나의 참조 영상의 특징점들을 대상으로 정합한 후, 913단계에서 상기 결정한 모든 참조 영상의 특징점들이 선택되었는지 여부를 검사한다. 만약, 상기 913단계에서, 상기 결정한 모든 참조 영상의 특징점들이 선택되지 않았음이 판단될 시, 상기 증강현실 제공서버는 상기 909단계로 돌아가 이하 단계를 반복 수행하고, 상기 결정한 모든 참조 영상의 특징점들이 선택되었음이 판단될 시, 915단계로 진행한다. In detail, the augmented reality providing server selects feature points of one reference image that are not selected from among the feature points of the plurality of reference images for each object determined in step 909, and each feature point of the received captured image in step 911. In step 913, the feature points of the selected reference image are matched with each other, and then, in operation 913, it is determined whether the feature points of all the determined reference images are selected. If it is determined in step 913 that the feature points of all the determined reference images are not selected, the augmented reality providing server returns to step 909 and repeats the following steps, and the feature points of all the determined reference images If it is determined that the selection is made, the flow proceeds to step 915.

이후, 상기 증강현실 제공서버는 915단계에서 상기 객체별 다수의 참조 영상들의 특징점 정합 개수를 기반으로 참조 영상 그룹별 정합 유사도를 결정한다. In step 915, the augmented reality providing server determines match similarity for each reference image group based on the number of feature point matches of the plurality of reference images for each object.

여기서, 상기 정합 유사도는 하기 <수학식 6>을 이용하여 결정할 수 있다. Here, the matching similarity may be determined using Equation 6 below.

[수학식 6]&Quot; (6) &quot;

Figure 112013044888268-pat00080
Figure 112013044888268-pat00080

여기서,

Figure 112011077546690-pat00026
는 g번째 참조 영상 그룹의 정합 유사도를 나타내고,
Figure 112011077546690-pat00027
은 g번째 참조 영상 그룹의 첫 번째 참조 영상의 인덱스,
Figure 112011077546690-pat00028
은 g번째 참조 영상 그룹의 마지막 번째 참조 영상의 인덱스,
Figure 112011077546690-pat00029
는 g번째 참조 영상 그룹의 i번째 참조 영상의 특징점 개수,
Figure 112011077546690-pat00030
는 g번째 참조 영상 그룹의 i번째 참조 영상의 특징점 정합 개수를 나타낸다. 상기 <수학식 6>은, 하나의 참조 영상 그룹 내 다수의 참조 영상의 특징점 정합 개수를 합산하고, 상기 참조 영상 그룹 내 다수의 참조 영상의 특징점 개수를 합산하며, 특징점 정합 개수의 합산 결과를 특징점 개수의 합산 결과로 나눔으로써, 해당 참조 영상 그룹의 정합 유사도를 결정한다는 것을 의미한다. here,
Figure 112011077546690-pat00026
Represents the match similarity of the g th reference picture group,
Figure 112011077546690-pat00027
Is the index of the first reference picture of the g-th reference picture group,
Figure 112011077546690-pat00028
Is the index of the last reference picture of the g-th reference picture group,
Figure 112011077546690-pat00029
Is the number of feature points of the i th reference picture of the g th reference picture group,
Figure 112011077546690-pat00030
Denotes the number of feature point matches of the i th reference picture of the g th reference picture group. Equation 6 includes summing the number of feature point matches of the plurality of reference images in one reference picture group, summing the number of feature points of the plurality of reference pictures in the reference picture group, and adding the result of the sum of the number of feature point matches. By dividing by the sum result, it means that the matching similarity of the corresponding reference picture group is determined.

이후, 상기 증강현실 제공서버는 917단계에서 상기 참조 영상 그룹별 정합 유사도를 기반으로 가장 큰 정합 유사도를 가지는 참조 영상 그룹을, 상기 촬영 영상에 대한 최종 정합 영상 그룹으로서 선택한다. In step 917, the augmented reality providing server selects a reference image group having the largest matching similarity based on the matching similarity for each reference image group as a final matching image group for the captured image.

이후, 상기 증강현실 제공서버는 919단계에서 상기 선택된 참조 영상 그룹에 대응하는 객체를 결정한다. In operation 919, the augmented reality providing server determines an object corresponding to the selected reference image group.

이후, 상기 증강현실 제공서버는 921단계에서 상기 결정된 객체의 부가정보를 획득하여 상기 단말로 전송한다. 이로써, 상기 단말은 해당 객체에 대한 촬영 영상과 부가정보를 병합하여 화면에 표시함으로써, 사용자에게 증강현실 서비스를 제공할 수 있다. In step 921, the augmented reality providing server acquires additional information of the determined object and transmits the additional information to the terminal. As a result, the terminal may provide the augmented reality service to the user by merging the captured image and the additional information of the object on the screen.

이후, 상기 증강현실 제공서버는 본 발명에 따른 알고리즘을 종료한다.
Thereafter, the AR providing server terminates the algorithm according to the present invention.

한편, 상기 제1 내지 제4 실시 예를 기반으로 촬영 영상에 대한 최종 정합 영상이 선택되면, 전방 객체에 대한 해당 참조 영상의 시점(즉, 카메라 모듈이 객체를 바라보는 각도)을 결정하고, 해당 참조 영상에 대응하는 객체의 부가정보들 중 상기 결정된 시점에 대응하는 부가정보만을 단말로 전송할 수 있다. 즉, 상기 결정된 시점에 따라 다른 부가정보를 단말로 전송할 수 있다. Meanwhile, when the final matched image for the captured image is selected based on the first to fourth embodiments, a viewpoint (ie, an angle at which the camera module views the object) of the reference image with respect to the front object is determined, and Only the additional information corresponding to the determined time point among the additional information of the object corresponding to the reference image may be transmitted to the terminal. That is, other additional information may be transmitted to the terminal according to the determined time point.

여기서, 전방 객체에 대한 해당 참조 영상의 시점은, 예를 들어 해당 참조 영상의 기준 특징점들과 이에 대응하는 촬영 영상의 특징점들의 투영변환행렬(Projection matrix)을 기반으로 결정할 수 있다. 이미 언급한 바와 같이, 증강현실 제공서버 내 데이터베이스에는, 객체별 참조 영상의 특징점들과, 각 참조 영상에 대한 정확한 위치정보(위/경도)가 저장된다. 추가로 상기 데이터베이스는, 참조 영상별로, 해당 참조 영상의 특징점들 중 외부 환경에서의 재현성(repeatability)이 높은 특징점들, 즉 외부 환경의 변화(즉, 촬영 각도, 회전, 조명 등)에도 반복적으로 추출되는 특징점들을 기준 특징점으로 구분하여 사전에 정의할 수 있다. 참조 영상의 기준 특징점들과 이에 대응하는 촬영 영상의 특징점들을 알면, 상기 특징점들을 기반으로 참조 영상을 소정 시점의 촬영 영상으로 변환하기 위한 투영변환행렬을 결정할 수 있으며, 상기 결정된 투영변환행렬의 역행렬을 기반으로 전방 객체에 대한 해당 참조 영상의 시점을 결정할 수 있다.
Here, the viewpoint of the corresponding reference image with respect to the front object may be determined based on, for example, a projection matrix of reference feature points of the reference image and feature points of the photographed image corresponding thereto. As already mentioned, in the database in the augmented reality providing server, feature points of the reference image for each object and accurate position information (latitude / longitude) of each reference image are stored. In addition, the database is repeatedly extracted for each feature of the reference image, that is, feature points having high repeatability in the external environment, that is, changes in the external environment (ie, photographing angle, rotation, lighting, etc.). The feature points to be divided into reference feature points may be defined in advance. Knowing the reference feature points of the reference image and the feature points of the photographed image corresponding thereto, a projection transformation matrix for converting the reference image into the photographed image at a predetermined time can be determined based on the feature points, and the inverse of the determined projection transformation matrix can be determined. Based on this, the viewpoint of the corresponding reference image for the front object may be determined.

또한, 상기 제1 내지 제4 실시 예를 기반으로 촬영 영상에 대한 최종 정합 영상이 선택되면, 전방 객체에 대한 해당 참조 영상의 거리(즉, 카메라 모듈의 시점으로부터의 거리)에 대응하는 촬영 영상의 거리를 결정하고, 상기 결정된 촬영 영상의 거리 정보를 기반으로, 단말의 화면에 표시되는 부가정보의 크기를 다르게 설정할 수 있다. In addition, when the final matched image for the captured image is selected based on the first to fourth embodiments, the captured image corresponding to the distance (ie, the distance from the viewpoint of the camera module) of the reference image with respect to the front object is selected. The distance may be determined and the size of the additional information displayed on the screen of the terminal may be set differently based on the determined distance information of the captured image.

여기서, 전방 객체에 대한 촬영 영상의 거리정보는, 예를 들어 전방 객체에 대한 해당 참조 영상의 거리정보와 해당 참조 영상의 기준 특징점들과 이에 대응하는 촬영 영상의 특징점들을 기반으로 결정할 수 있다. 상기 데이터베이스는, 각 참조 영상에 대하여 카메라 모듈의 시점으로부터의 거리정보를 저장할 수 있다. 해당 참조 영상의 기준 특징점들과 이에 대응하는 촬영 영상의 특징점들 간 원근왜곡(perspective distortion)을 보정한 후, 해당 참조 영상의 기준 특징점들을 연결하여 생성된 바운딩 박스(bounding box)와, 이에 대응하는 촬영 영상의 특징점들을 연결하여 생성된 바운딩 박스를 비교하여, 두 바운딩 박스 간 크기 비율을 결정하고, 상기 결정된 크기 비율과 해당 참조 영상의 거리정보의 곱을 계산함으로써, 전방 객체에 대한 촬영 영상의 거리정보를 결정할 수 있다.
The distance information of the captured image of the front object may be determined based on, for example, distance information of the corresponding reference image of the front object, reference feature points of the reference image, and feature points of the corresponding captured image. The database may store distance information from a viewpoint of a camera module for each reference image. After correcting the perspective distortion between the reference feature points of the reference image and the feature points of the photographed image corresponding thereto, the bounding box generated by connecting the reference feature points of the reference image, and corresponding By comparing the bounding boxes generated by connecting the feature points of the captured image, determining the size ratio between the two bounding boxes, and calculating the product of the determined size ratio and distance information of the corresponding reference image, distance information of the captured image with respect to the front object. Can be determined.

한편 본 발명의 상세한 설명에서는 구체적인 실시 예에 관해 설명하였으나, 본 발명의 범위에서 벗어나지 않는 한도 내에서 여러 가지 변형이 가능함은 물론이다. 그러므로 본 발명의 범위는 설명된 실시 예에 국한되어 정해져서는 아니되며 후술하는 특허청구의 범위뿐만 아니라 이 특허청구의 범위와 균등한 것들에 의해 정해져야 한다. While the present invention has been described in connection with what is presently considered to be the most practical and preferred embodiment, it is to be understood that the invention is not limited to the disclosed embodiments, but is capable of various modifications within the scope of the invention. Therefore, the scope of the present invention should not be limited by the illustrated embodiments, but should be determined by the scope of the appended claims and equivalents thereof.

휴대용 단말기 100, 유무선 통신망 110, 증강현실 제공서버 120Portable terminal 100, wired / wireless communication network 110, augmented reality server 120

Claims (30)

객체에 대한 촬영 영상과 단말의 위치 정보를 입력받는 통신부;
상기 입력받은 단말의 위치 정보를 기반으로, 기저장된 참조 영상들 중 단말이 위치한 영역 내 존재하는 객체들에 대한 참조 영상들을 검출하고, 상기 입력받은 촬영 영상의 특징점들을 획득하며, 상기 획득된 촬영 영상의 특징점들과 상기 검출한 객체별 참조 영상의 특징점들을 비교하는 영상 정합부; 및
특징점 개수에 대한 특징점 정합 개수의 비(ratio)를 기반으로 각 참조 영상의 정합 유사도를 결정하고, 결정된 각 참조 영상의 정합 유사도를 기반으로 가장 큰 정합 유사도를 가지는 하나의 참조 영상을 선택하고, 선택된 참조 영상에 대응하는 객체를 상기 촬영 영상의 객체로 결정하는 객체 결정부;를 포함하는 영상 정합을 위한 장치.
A communication unit configured to receive a captured image of the object and location information of the terminal;
Based on the received location information of the terminal, reference images of objects existing in the region where the terminal is located among the previously stored reference images are obtained, feature points of the received captured image are acquired, and the obtained captured image is obtained. An image matching unit for comparing the feature points of the feature points with the feature points of the detected object-specific reference image; And
Determine the match similarity of each reference image based on the ratio of the number of feature point matches to the number of feature points, select one reference image having the largest match similarity based on the match similarity of the determined reference images, and select And an object determiner configured to determine an object corresponding to a reference image as an object of the captured image.
제1항에 있어서,
객체별 하나의 참조 영상의 특징점들을 저장하는 데이터베이스;를 더 포함하는 것을 특징으로 하는 영상 정합을 위한 장치.
The method of claim 1,
And a database for storing feature points of one reference image for each object.
제2항에 있어서,
상기 영상 정합부는, 상기 입력받은 단말의 위치 정보를 기반으로, 상기 데이터베이스에서 단말이 위치한 영역 내 존재하는 객체별 하나의 참조 영상의 특징점들을 검출하고, 상기 획득한 촬영 영상의 특징점들에 대하여 상기 검출한 객체별 하나의 참조 영상의 특징점들 중 기 선택되지 않은 하나의 참조 영상의 특징점들을 대상으로 비교한 후, 검출한 모든 객체별 하나의 참조 영상의 특징점들에 대한 비교가 수행되었는지 판단하고, 아니면, 검출한 모든 객체별 하나의 참조 영상의 특징점들에 대한 비교를 수행하는 것을 특징으로 하는 영상 정합을 위한 장치.
3. The method of claim 2,
The image matching unit detects feature points of one reference image for each object existing in the region where the terminal is located in the database based on the received position information of the terminal, and detects the feature points of the obtained captured image. After comparing the feature points of one reference image that is not selected among the feature points of one reference image per object, it is determined whether the comparison of the feature points of one reference image for every detected object is performed. And comparing feature points of one reference image for every detected object.
제3항에 있어서,
상기 객체 결정부는, 아래 수학식을 이용하여 상기 정합 유사도를 결정하는 것을 특징으로 하는 영상 정합을 위한 장치.
Figure 112013044888268-pat00081

(여기서,
Figure 112013044888268-pat00082
는 i번째 참조 영상의 정합 유사도를 나타내고,
Figure 112013044888268-pat00083
는 i번째 참조 영상의 특징점 개수,
Figure 112013044888268-pat00084
는 i번째 참조 영상의 특징점 정합 개수를 나타냄.)
The method of claim 3,
The object determining unit is a device for image registration, characterized in that for determining the matching similarity using the following equation.
Figure 112013044888268-pat00081

(here,
Figure 112013044888268-pat00082
Represents the match similarity of the i th reference image,
Figure 112013044888268-pat00083
Is the number of feature points in the i reference image,
Figure 112013044888268-pat00084
Represents the number of feature point matches of the i th reference image.)
제2항에 있어서,
상기 영상 정합부는, 상기 입력받은 단말의 위치 정보를 기반으로, 상기 데이터베이스에서 단말이 위치한 영역 내 존재하는 객체별 하나의 참조 영상의 특징점들을 검출하고, 상기 입력받은 촬영 영상의 각 특징점에 대하여, 상기 검출한 모든 객체별 하나의 참조 영상의 특징점들을 대상으로 비교하는 영상 정합을 위한 장치.
3. The method of claim 2,
The image matching unit detects feature points of one reference image for each object existing in an area in which the terminal is located in the database based on the received position information of the terminal, and for each feature point of the received captured image, An apparatus for image registration in which feature points of one reference image of every detected object are compared with each other.
제5항에 있어서,
상기 객체 결정부는, 아래 수학식을 이용하여 상기 정합 유사도를 결정하는 것을 특징으로 하는 영상 정합을 위한 장치.
Figure 112013044888268-pat00085

(여기서,
Figure 112013044888268-pat00086
는 i번째 참조 영상의 정합 유사도를 나타내고,
Figure 112013044888268-pat00087
는 비교 대상으로 검출된 전체 참조 영상의 특징점 총 개수,
Figure 112013044888268-pat00088
는 촬영 영상의 특징점 개수,
Figure 112013044888268-pat00089
는 i번째 참조 영상의 특징점 개수,
Figure 112013044888268-pat00090
는 i번째 참조 영상의 특징점 정합 개수를 나타냄.)
The method of claim 5,
The object determining unit is a device for image registration, characterized in that for determining the matching similarity using the following equation.
Figure 112013044888268-pat00085

(here,
Figure 112013044888268-pat00086
Represents the match similarity of the i th reference image,
Figure 112013044888268-pat00087
Is the total number of feature points of all reference images detected as comparison targets,
Figure 112013044888268-pat00088
Is the number of feature points in the captured image,
Figure 112013044888268-pat00089
Is the number of feature points in the i reference image,
Figure 112013044888268-pat00090
Represents the number of feature point matches of the i th reference image.)
재1항에 있어서,
객체별 다수의 참조 영상의 특징점들을 해당 객체의 참조 영상 그룹에 저장하는 데이터베이스;를 더 포함하는 것을 특징으로 하는 영상 정합을 위한 장치.
In the first aspect,
And a database for storing feature points of a plurality of reference images for each object in a reference image group of the corresponding object.
제7항에 있어서,
상기 영상 정합부는, 상기 입력받은 단말의 위치 정보를 기반으로, 상기 데이터베이스에서 단말이 위치한 영역 내 존재하는 객체별 다수의 참조 영상의 특징점들을 검출하고, 상기 입력받은 촬영 영상의 각 특징점에 대하여 상기 검출한 객체별 다수의 참조 영상의 특징점들 중 하나의 참조 영상의 특징점들을 대상으로 비교하는 것을 특징으로 하는 영상 정합을 위한 장치.
The method of claim 7, wherein
The image matching unit detects feature points of a plurality of reference images for each object existing in an area in which the terminal is located in the database based on the received position information of the terminal, and detects the feature points of the received captured image. An apparatus for image registration, comprising comparing feature points of one reference image among feature points of a plurality of reference images for each object.
제8항에 있어서,
상기 객체 결정부는, 참조 영상 그룹별로 다수의 참조 영상의 특징점 정합 개수를 합산하고, 참조 영상 그룹별로 다수의 참조 영상의 특징점 개수를 합산하며, 특징점 개수 합산 결과에 대한 상기 특징점 정합 개수 합산 결과의 비(ratio)를 기반으로 가장 큰 정합 유사도를 가지는 하나의 참조 영상 그룹을 선택하고, 상기 선택된 참조 영상 그룹에 대응하는 객체를 결정하는 것을 특징으로 하는 영상 정합을 위한 장치.
9. The method of claim 8,
The object determiner may add the number of feature point matchings of the plurality of reference pictures for each reference picture group, add the number of feature points of the plurality of reference pictures for each reference picture group, and add a ratio of the result of the sum of the feature point match numbers to the result of the number of feature points. and selecting one reference picture group having the largest matching similarity based on a ratio, and determining an object corresponding to the selected reference picture group.
제9항에 있어서,
상기 객체 결정부는 정합 유사도를 아래 수학식을 이용하여 결정하는 것을 특징으로 하는 영상 정합을 위한 장치.
Figure 112013044888268-pat00091

(여기서,
Figure 112013044888268-pat00092
는 g번째 참조 영상 그룹의 정합 유사도를 나타내고,
Figure 112013044888268-pat00093
은 g번째 참조 영상 그룹의 첫 번째 참조 영상의 인덱스,
Figure 112013044888268-pat00094
은 g번째 참조 영상 그룹의 마지막 번째 참조 영상의 인덱스,
Figure 112013044888268-pat00095
는 g번째 참조 영상 그룹의 i번째 참조 영상의 특징점 개수,
Figure 112013044888268-pat00096
는 g번째 참조 영상 그룹의 i번째 참조 영상의 특징점 정합 개수를 나타냄.)
10. The method of claim 9,
And the object determining unit determines the matching similarity using the following equation.
Figure 112013044888268-pat00091

(here,
Figure 112013044888268-pat00092
Represents the match similarity of the g th reference picture group,
Figure 112013044888268-pat00093
Is the index of the first reference picture of the g-th reference picture group,
Figure 112013044888268-pat00094
Is the index of the last reference picture of the g-th reference picture group,
Figure 112013044888268-pat00095
Is the number of feature points of the i th reference picture of the g th reference picture group,
Figure 112013044888268-pat00096
Denotes the number of feature point matches of the i th reference picture of the g th reference picture group.)
제8항에 있어서,
상기 객체 결정부는, 상기 선택된 참조 영상이 속한 참조 영상 그룹에 대응하는 객체를 결정하는 것을 특징으로 하는 영상 정합을 위한 장치.
9. The method of claim 8,
And the object determiner determines an object corresponding to a reference picture group to which the selected reference picture belongs.
제11항에 있어서,
상기 객체 결정부는 정합 유사도를 아래 수학식을 이용하여 결정하는 것을 특징으로 하는 영상 정합을 위한 장치.
Figure 112013044888268-pat00097

(여기서,
Figure 112013044888268-pat00098
는 i번째 참조 영상의 정합 유사도를 나타내고,
Figure 112013044888268-pat00099
는 i번째 참조 영상의 특징점 개수,
Figure 112013044888268-pat00100
는 i번째 참조 영상의 특징점 정합 개수를 나타냄.)
12. The method of claim 11,
And the object determining unit determines the matching similarity using the following equation.
Figure 112013044888268-pat00097

(here,
Figure 112013044888268-pat00098
Represents the match similarity of the i th reference image,
Figure 112013044888268-pat00099
Is the number of feature points in the i reference image,
Figure 112013044888268-pat00100
Represents the number of feature point matches of the i th reference image.)
제1항에 있어서,
상기 결정된 객체의 부가정보를 획득하여 상기 단말로 전송하는 부가정보 획득부;를 더 포함하는 것을 특징으로 하는 영상 정합을 위한 장치.
The method of claim 1,
And an additional information obtaining unit which obtains the additional information of the determined object and transmits the additional information of the determined object to the terminal.
단말로부터 객체에 대한 촬영 영상과 상기 단말의 위치 정보를 입력받는 1단계;
입력받은 단말의 위치 정보를 기반으로, 기저장된 참조 영상의 특징점들 중 상기 단말이 위치한 영역 내 존재하는 객체에 대한 적어도 하나 이상의 참조 영상의 특징점들을 검출하는 2단계;
입력받은 촬영 영상으로부터 특징점을 획득하는 3단계;
획득한 촬영 영상의 특징점들에 대하여 검출한 참조 영상의 특징점들을 비교하는 4단계;
비교에 따라 특징점 개수에 대한 특징점 정합 개수의 비(ratio)를 기반으로 획득한 촬영 영상에 대한 각 참조 영상의 정합 유사도를 결정하는 5단계;
결정된 각 참조 영상의 정합 유사도를 기반으로 가장 큰 정합 유사도를 가지는 하나의 참조 영상을 선택하는 6단계; 및
선택된 참조 영상에 대응하는 객체를 상기 촬영 영상의 객체로 결정하는 7단계;를 포함하는 영상 정합을 위한 장치의 동작 방법.
Step 1 of receiving a photographed image of the object and the location information of the terminal from the terminal;
Detecting at least one feature point of at least one reference image of an object existing in an area in which the terminal is located among feature points of a previously stored reference image based on the received position information of the terminal;
Obtaining a feature point from the input photographed image;
Comparing feature points of the detected reference image with respect to feature points of the obtained captured image;
Determining match similarity of each reference image with respect to the captured image based on a ratio of the number of feature point matches to the number of feature points according to the comparison;
Selecting one reference image having the largest matching similarity based on the matching similarity of the respective reference images; And
And determining an object corresponding to the selected reference image as an object of the captured image. 7.
제14항에 있어서,
상기 1단계 전에, 객체별 하나의 참조 영상의 특징점들을 데이터베이스에 저장하는 단계;를 더 포함하며,
상기 2단계는, 상기 기저장된 참조 영상의 특징점들 중 상기 단말이 위치한 영역 내 존재하는 객체에 대한 하나의 참조 영상의 특징점들을 검출하는 것을 특징으로 하는 영상 정합을 위한 장치의 동작 방법.
15. The method of claim 14,
Before the step 1, storing the feature points of one reference image for each object in a database;
The operation of the apparatus for image registration, characterized in that for detecting the feature points of one reference image for the object existing in the area where the terminal is located among the feature points of the pre-stored reference image.
제15항에 있어서,
상기 4단계는, 상기 획득한 촬영 영상의 각 특징점에 대하여 상기 검출한 객체별 하나의 참조 영상의 특징점들 중 기 선택되지 않은 하나의 참조 영상의 특징점들을 대상으로 비교하는 단계; 및
검출한 모든 객체별 하나의 참조 영상의 특징점들에 대한 비교가 수행되었는지 판단하고, 아니면, 검출한 모든 객체별 하나의 참조 영상의 특징점들에 대한 비교를 수행하는 단계;로 이루어지는 것을 특징으로 하는 영상 정합을 위한 장치의 동작 방법.
16. The method of claim 15,
The fourth step may include comparing feature points of one reference image, which is not selected, among feature points of the detected one reference image with respect to each feature point of the obtained captured image; And
Determining whether the comparison of the feature points of one reference image for every detected object is performed; or otherwise, comparing the feature points of one reference image for every detected object; Method of operation of the device for registration.
제16항에 있어서,
상기 5단계는, 아래 수학식을 이용하여 상기 정합 유사도를 결정하는 단계인 것을 특징으로 하는 영상 정합을 위한 장치의 동작 방법.
Figure 112013044888268-pat00101

(여기서,
Figure 112013044888268-pat00102
는 i번째 참조 영상의 정합 유사도를 나타내고,
Figure 112013044888268-pat00103
는 i번째 참조 영상의 특징점 개수,
Figure 112013044888268-pat00104
는 i번째 참조 영상의 특징점 정합 개수를 나타냄.)
17. The method of claim 16,
The operation of the device for image registration, characterized in that the step of determining the matching similarity using the following equation.
Figure 112013044888268-pat00101

(here,
Figure 112013044888268-pat00102
Represents the match similarity of the i th reference image,
Figure 112013044888268-pat00103
Is the number of feature points in the i reference image,
Figure 112013044888268-pat00104
Represents the number of feature point matches of the i th reference image.)
제15항에 있어서,
상기 4단계는, 상기 획득한 촬영 영상의 각 특징점에 대하여 검출한 모든 객체별 하나의 참조 영상의 특징점들을 대상으로 비교하는 단계인 것을 특징으로 하는 영상 정합을 위한 장치의 동작 방법.
16. The method of claim 15,
Wherein the step 4, the method for operating the device for image registration, characterized in that for comparing the feature points of one reference image for each object detected for each feature point of the obtained captured image.
제18항에 있어서,
상기 제5단계는, 아래식을 이용하여 상기 정합 유사도를 결정하는 단계인 것을 특징으로 하는 영상 정합을 위한 장치의 동작 방법.
Figure 112013044888268-pat00105

(여기서,
Figure 112013044888268-pat00106
는 i번째 참조 영상의 정합 유사도를 나타내고,
Figure 112013044888268-pat00107
는 비교 대상으로 검출된 전체 참조 영상의 특징점 총 개수,
Figure 112013044888268-pat00108
는 촬영 영상의 특징점 개수,
Figure 112013044888268-pat00109
는 i번째 참조 영상의 특징점 개수,
Figure 112013044888268-pat00110
는 i번째 참조 영상의 특징점 정합 개수를 나타냄.)
19. The method of claim 18,
The fifth step is a step of determining the matching similarity using the following equation.
Figure 112013044888268-pat00105

(here,
Figure 112013044888268-pat00106
Represents the match similarity of the i th reference image,
Figure 112013044888268-pat00107
Compare The total number of feature points of all reference images detected as a target,
Figure 112013044888268-pat00108
Is the number of feature points in the captured image,
Figure 112013044888268-pat00109
Is the number of feature points in the i reference image,
Figure 112013044888268-pat00110
Represents the number of feature point matches of the i th reference image.)
제14항에 있어서,
상기 1단계 전에, 객체별 다수의 참조 영상의 특징점들을 해당 객체의 참조 영상 그룹으로 데이터베이스에 저장하는 단계;를 더 포함하며,
상기 2단계는, 상기 기저장된 참조 영상의 특징점들 중 상기 단말이 위치한 영역 내 존재하는 객체에 대한 다수의 참조 영상의 특징점들을 검출하는 것을 특징으로 하는 영상 정합을 위한 장치의 동작 방법.
15. The method of claim 14,
Before the step 1, storing feature points of a plurality of reference images for each object in a database as a reference image group of the corresponding object;
In the step 2, the method of the device for image registration, characterized in that for detecting the feature points of a plurality of reference image for the object existing in the area where the terminal is located among the feature points of the pre-stored reference image.
제20항에 있어서,
상기 4단계는, 획득된 촬영 영상의 특징점들과 상기 검출한 객체별 다수의 참조 영상의 특징점들 중 기 선택되지 않은 하나의 참조 영상의 특징점들을 비교하는 단계; 및
검출한 모든 객체별 다수의 참조 영상의 특징점들에 대한 비교가 수행되었는지 판단하고, 아니면, 검출한 모든 객체별 다수의 참조 영상의 특징점들에 대한 비교를 수행하는 단계;로 이루어지는 것을 특징으로 하는 영상 정합을 위한 장치의 동작 방법.
21. The method of claim 20,
The step 4 may include comparing feature points of the obtained captured image with feature points of one reference image that is not selected among the feature points of the plurality of reference images for each detected object; And
Determining whether the comparison of the feature points of the plurality of reference images of all detected objects has been performed; or otherwise, comparing the feature points of the plurality of reference images of all detected objects with each other; Method of operation of the device for registration.
제21항에 있어서,
상기 5단계는, 아래식을 이용하여 상기 정합 유사도를 결정하는 단계인 것을 특징으로 하는 영상 정합을 위한 장치의 동작 방법.
Figure 112013044888268-pat00111

(여기서,
Figure 112013044888268-pat00112
는 i번째 참조 영상의 정합 유사도를 나타내고,
Figure 112013044888268-pat00113
는 i번째 참조 영상의 특징점 개수,
Figure 112013044888268-pat00114
는 i번째 참조 영상의 특징점 정합 개수를 나타냄.)
The method of claim 21,
Step 5 is a step of determining the matching similarity using the following equation.
Figure 112013044888268-pat00111

(here,
Figure 112013044888268-pat00112
Represents the match similarity of the i th reference image,
Figure 112013044888268-pat00113
Is the number of feature points in the i reference image,
Figure 112013044888268-pat00114
Represents the number of feature point matches of the i th reference image.)
제22항에 있어서,
상기 7단계는, 상기 선택된 참조 영상이 속한 참조 영상 그룹에 대응하는 객체를 결정하는 단계인 것을 특징으로 하는 영상 정합을 위한 장치의 동작 방법.
The method of claim 22,
Step 7 is a method of operating an apparatus for image registration, characterized in that determining the object corresponding to the reference image group to which the selected reference image belongs.
제21항에 있어서,
상기 5단계는, 참조 영상 그룹별로 다수의 참조 영상의 특징점 정합 개수를 합산하는 단계;
참조 영상 그룹별로 다수의 참조 영상의 특징점 개수를 합산하는 단계; 및
특징점 개수 합산 결과에 대한 상기 특징점 정합 개수 합산 결과의 비(ratio)로부터 정합 유사도를 결정하는 단계;로 이루어지는 것을 특징으로 하는 영상 정합을 위한 장치의 동작 방법.
The method of claim 21,
The step 5 may include summing the number of feature point matchings of the plurality of reference pictures for each reference picture group;
Summing the number of feature points of the plurality of reference pictures for each reference picture group; And
And determining matching similarity from the ratio of the feature point number summation result to the feature point number summation result.
제24항에 있어서,
상기 정합 유사도는 아래식을 이용하여 결정하는 것을 특징으로 하는 영상 정합을 위한 장치의 동작 방법.
Figure 112013044888268-pat00115

(여기서,
Figure 112013044888268-pat00116
는 g번째 참조 영상 그룹의 정합 유사도를 나타내고,
Figure 112013044888268-pat00117
은 g번째 참조 영상 그룹의 첫 번째 참조 영상의 인덱스,
Figure 112013044888268-pat00118
은 g번째 참조 영상 그룹의 마지막 번째 참조 영상의 인덱스,
Figure 112013044888268-pat00119
는 g번째 참조 영상 그룹의 i번째 참조 영상의 특징점 개수,
Figure 112013044888268-pat00120
는 g번째 참조 영상 그룹의 i번째 참조 영상의 특징점 정합 개수를 나타냄.)
25. The method of claim 24,
And the matching similarity is determined by using the following equation.
Figure 112013044888268-pat00115

(here,
Figure 112013044888268-pat00116
Represents the match similarity of the g th reference picture group,
Figure 112013044888268-pat00117
Is the index of the first reference picture of the g-th reference picture group,
Figure 112013044888268-pat00118
Is the index of the last reference picture of the g-th reference picture group,
Figure 112013044888268-pat00119
Is the number of feature points of the i th reference picture of the g th reference picture group,
Figure 112013044888268-pat00120
Denotes the number of feature point matches of the i th reference picture of the g th reference picture group.)
제25항에 있어서,
상기 6단계는, 가장 큰 정합 유사도를 가지는 하나의 참조 영상 그룹을 선택하는 단계인 것을 특징으로 하는 영상 정합을 위한 장치의 동작 방법.
26. The method of claim 25,
Step 6 is a method of operating the device for image registration, characterized in that the step of selecting one reference image group having the largest matching similarity.
제26항에 있어서,
상기 7단계는, 선택된 참조 영상 그룹에 대응하는 객체를 결정하는 단계인 것을 특징으로 하는 영상 정합을 위한 장치의 동작 방법.
The method of claim 26,
Step 7 is an operation method of the device for image registration, characterized in that the step of determining the object corresponding to the selected reference image group.
제14항에 있어서,
상기 결정된 객체의 부가정보를 획득하여 상기 단말로 전송하는 8단계;를 더 포함하는 것을 특징으로 영상 정합을 위한 장치의 동작 방법.
15. The method of claim 14,
And obtaining the additional information of the determined object and transmitting the additional information to the terminal. 8.
제28항에 있어서,
상기 8단계는, 상기 결정된 객체의 부가정보를 획득하는 단계;
상기 선택된 참조 영상의 기 결정된 기준 특징점들과 이에 대응하는 촬영 영상의 특징점들을 기반으로 투영변환행렬을 결정하는 단계;
상기 결정된 투영변환행렬의 역행렬을 기반으로 상기 결정된 객체에 대한 해당 참조 영상의 시점을 결정하는 단계; 및
상기 획득된 부가정보 중, 상기 결정된 시점 정보에 대응하는 부가 정보를 상기 단말로 전송하는 단계;를 포함하는 것을 특징으로 하는 영상 정합을 위한 장치의 동작 방법.
29. The method of claim 28,
The eighth step may include obtaining additional information of the determined object;
Determining a projection transformation matrix based on predetermined reference feature points of the selected reference image and feature points of the photographed image corresponding thereto;
Determining a viewpoint of a corresponding reference image for the determined object based on the inverse of the determined projection transformation matrix; And
And transmitting the additional information corresponding to the determined view point information to the terminal among the obtained additional information.
제28항에 있어서,
상기 8단계는, 상기 결정된 객체의 부가정보를 획득하는 단계;
상기 선택된 참조 영상의 기 결정된 기준 특징점들을 연결하여 생성된 바운딩 박스(bounding box)와, 이에 대응하는 촬영 영상의 특징점들을 연결하여 생성된 바운딩 박스를 비교하여, 두 바운딩 박스 간 크기 비율을 결정하는 단계;
상기 결정된 크기 비율과 상기 선택된 참조 영상의 거리정보를 기반으로 상기 결정된 객체에 대한 촬영 영상의 거리를 결정하는 단계; 및
상기 결정된 거리 정보에 따라 상기 획득된 부가정보의 화면 표시 크기를 다르게 설정하여 상기 단말로 전송하는 단계;를 포함하는 것을 특징으로 하는 영상 정합을 위한 장치의 동작 방법.
29. The method of claim 28,
The eighth step may include obtaining additional information of the determined object;
Determining a size ratio between the two bounding boxes by comparing a bounding box generated by connecting the predetermined reference feature points of the selected reference image and a bounding box generated by connecting the feature points of the photographed image corresponding thereto; ;
Determining a distance of a captured image with respect to the determined object based on the determined size ratio and distance information of the selected reference image; And
And setting the screen display size of the acquired additional information differently according to the determined distance information and transmitting the different screen display size to the terminal.
KR1020110101011A 2011-10-05 2011-10-05 Apparatus and method for image matching in augmented reality service system Expired - Fee Related KR101320247B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020110101011A KR101320247B1 (en) 2011-10-05 2011-10-05 Apparatus and method for image matching in augmented reality service system

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020110101011A KR101320247B1 (en) 2011-10-05 2011-10-05 Apparatus and method for image matching in augmented reality service system

Publications (2)

Publication Number Publication Date
KR20130036839A KR20130036839A (en) 2013-04-15
KR101320247B1 true KR101320247B1 (en) 2013-10-22

Family

ID=48438011

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020110101011A Expired - Fee Related KR101320247B1 (en) 2011-10-05 2011-10-05 Apparatus and method for image matching in augmented reality service system

Country Status (1)

Country Link
KR (1) KR101320247B1 (en)

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102326275B1 (en) * 2014-02-25 2021-11-16 삼성전자주식회사 Image displaying method and apparatus
KR101698266B1 (en) * 2014-11-28 2017-01-19 숭실대학교산학협력단 Apparatus and Method for detecting intelligent high-speed multi-object
KR102215118B1 (en) * 2018-12-11 2021-02-09 최재영 Method for providing augmented reality contents using play item and server using the same

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2009070066A (en) 2007-09-12 2009-04-02 Osaka Prefecture Univ Registration method of document and / or image in database and search method thereof
KR20100118161A (en) * 2009-04-28 2010-11-05 한국과학기술원 Method and apparatus for recogniziging objects in an image

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2009070066A (en) 2007-09-12 2009-04-02 Osaka Prefecture Univ Registration method of document and / or image in database and search method thereof
KR20100118161A (en) * 2009-04-28 2010-11-05 한국과학기술원 Method and apparatus for recogniziging objects in an image

Also Published As

Publication number Publication date
KR20130036839A (en) 2013-04-15

Similar Documents

Publication Publication Date Title
US9076069B2 (en) Registering metadata apparatus
US20190147290A1 (en) Storing Information for Access Using A Captured Image
US20100309226A1 (en) Method and system for image-based information retrieval
US7016532B2 (en) Image capture and identification system and process
CN103971400B (en) A kind of method and system of the three-dimension interaction based on identification code
KR101259957B1 (en) System and method for providing supplementary information using image matching
US20120044263A1 (en) Terminal device and method for augmented reality
EP1814060A2 (en) Data capture and identification system and process
KR20120024073A (en) Apparatus and method for providing augmented reality using object list
JP6591594B2 (en) Information providing system, server device, and information providing method
Chen et al. Building book inventories using smartphones
CN113822427A (en) A model training method, image matching method, device and storage medium
KR100777922B1 (en) Personal Authentication and Digital Signature System Using Image Recognition and Its Method
KR101176743B1 (en) Apparatus and method for recognizing object, information content providing apparatus and information content managing server
KR101320247B1 (en) Apparatus and method for image matching in augmented reality service system
US20140195560A1 (en) Two way local feature matching to improve visual search accuracy
JP2016021097A (en) Image processing device, image processing method, and program
CN104871179A (en) Method and system for image capture and facilitated annotation
JP2013238987A (en) Information display device, information input device, information display program, and information input program
Ma et al. A fast C-GIST based image retrieval method for vision-based Indoor localization
KR101823465B1 (en) Apparatus and method for providing map service using image matching
JP2014106641A (en) Image processing apparatus
KR101810533B1 (en) Apparatus and method for inputing a point of interest to map service by using image matching
CN107678655A (en) A kind of image-element extracting method and image-element extraction system
CN113918819A (en) Intelligent information query method, system and device

Legal Events

Date Code Title Description
A201 Request for examination
PA0109 Patent application

St.27 status event code: A-0-1-A10-A12-nap-PA0109

PA0201 Request for examination

St.27 status event code: A-1-2-D10-D11-exm-PA0201

D13-X000 Search requested

St.27 status event code: A-1-2-D10-D13-srh-X000

D14-X000 Search report completed

St.27 status event code: A-1-2-D10-D14-srh-X000

E902 Notification of reason for refusal
PE0902 Notice of grounds for rejection

St.27 status event code: A-1-2-D10-D21-exm-PE0902

R17-X000 Change to representative recorded

St.27 status event code: A-3-3-R10-R17-oth-X000

R17-X000 Change to representative recorded

St.27 status event code: A-3-3-R10-R17-oth-X000

PG1501 Laying open of application

St.27 status event code: A-1-1-Q10-Q12-nap-PG1501

P11-X000 Amendment of application requested

St.27 status event code: A-2-2-P10-P11-nap-X000

P13-X000 Application amended

St.27 status event code: A-2-2-P10-P13-nap-X000

P11-X000 Amendment of application requested

St.27 status event code: A-2-2-P10-P11-nap-X000

P13-X000 Application amended

St.27 status event code: A-2-2-P10-P13-nap-X000

E701 Decision to grant or registration of patent right
PE0701 Decision of registration

St.27 status event code: A-1-2-D10-D22-exm-PE0701

GRNT Written decision to grant
PR0701 Registration of establishment

St.27 status event code: A-2-4-F10-F11-exm-PR0701

PR1002 Payment of registration fee

St.27 status event code: A-2-2-U10-U11-oth-PR1002

Fee payment year number: 1

PG1601 Publication of registration

St.27 status event code: A-4-4-Q10-Q13-nap-PG1601

PN2301 Change of applicant

St.27 status event code: A-5-5-R10-R13-asn-PN2301

St.27 status event code: A-5-5-R10-R11-asn-PN2301

PR1001 Payment of annual fee

St.27 status event code: A-4-4-U10-U11-oth-PR1001

Fee payment year number: 4

P22-X000 Classification modified

St.27 status event code: A-4-4-P10-P22-nap-X000

FPAY Annual fee payment

Payment date: 20171016

Year of fee payment: 5

PR1001 Payment of annual fee

St.27 status event code: A-4-4-U10-U11-oth-PR1001

Fee payment year number: 5

R18-X000 Changes to party contact information recorded

St.27 status event code: A-5-5-R10-R18-oth-X000

LAPS Lapse due to unpaid annual fee
PC1903 Unpaid annual fee

St.27 status event code: A-4-4-U10-U13-oth-PC1903

Not in force date: 20181015

Payment event data comment text: Termination Category : DEFAULT_OF_REGISTRATION_FEE

P22-X000 Classification modified

St.27 status event code: A-4-4-P10-P22-nap-X000

PC1903 Unpaid annual fee

St.27 status event code: N-4-6-H10-H13-oth-PC1903

Ip right cessation event data comment text: Termination Category : DEFAULT_OF_REGISTRATION_FEE

Not in force date: 20181015

R18-X000 Changes to party contact information recorded

St.27 status event code: A-5-5-R10-R18-oth-X000

PN2301 Change of applicant

St.27 status event code: A-5-5-R10-R13-asn-PN2301

St.27 status event code: A-5-5-R10-R11-asn-PN2301