[go: up one dir, main page]

KR102247245B1 - Method to generate label - Google Patents

Method to generate label Download PDF

Info

Publication number
KR102247245B1
KR102247245B1 KR1020200022206A KR20200022206A KR102247245B1 KR 102247245 B1 KR102247245 B1 KR 102247245B1 KR 1020200022206 A KR1020200022206 A KR 1020200022206A KR 20200022206 A KR20200022206 A KR 20200022206A KR 102247245 B1 KR102247245 B1 KR 102247245B1
Authority
KR
South Korea
Prior art keywords
label
layer
class
input
user
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
KR1020200022206A
Other languages
Korean (ko)
Inventor
전승현
김대석
Original Assignee
주식회사 에스아이에이
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 주식회사 에스아이에이 filed Critical 주식회사 에스아이에이
Priority to KR1020200022206A priority Critical patent/KR102247245B1/en
Priority to KR1020210054030A priority patent/KR20210107558A/en
Application granted granted Critical
Publication of KR102247245B1 publication Critical patent/KR102247245B1/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/764Arrangements for image or video recognition or understanding using pattern recognition or machine learning using classification, e.g. of video objects
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/24Classification techniques
    • G06F18/243Classification techniques relating to the number of classes
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F40/00Handling natural language data
    • G06F40/10Text processing
    • G06F40/166Editing, e.g. inserting or deleting
    • G06F40/169Annotation, e.g. comment data or footnotes
    • G06K9/62
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/82Arrangements for image or video recognition or understanding using pattern recognition or machine learning using neural networks

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • Artificial Intelligence (AREA)
  • General Health & Medical Sciences (AREA)
  • Health & Medical Sciences (AREA)
  • Evolutionary Computation (AREA)
  • Computational Linguistics (AREA)
  • Software Systems (AREA)
  • Data Mining & Analysis (AREA)
  • Computing Systems (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Multimedia (AREA)
  • Databases & Information Systems (AREA)
  • Medical Informatics (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • Biomedical Technology (AREA)
  • Biophysics (AREA)
  • Molecular Biology (AREA)
  • Mathematical Physics (AREA)
  • Human Computer Interaction (AREA)
  • Evolutionary Biology (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • User Interface Of Digital Computer (AREA)

Abstract

본 개시의 일 실시예에 따른 컴퓨터 판독가능 저장 매체에 저장된 컴퓨터 프로그램으로서, 상기 컴퓨터 프로그램은 컴퓨팅 장치의 하나 이상의 프로세서에서 실행되는 경우 라벨링을 위한 정보를 표시하는 사용자 인터페이스(UI)를 제공하며, 상기 사용자 인터페이스는: 라벨 대상 객체를 포함하는 이미지를 표시하고, 그리고 상기 라벨 대상 객체를 표시하기 위한 사용자 어노테이션 입력에 대한 응답으로, 상기 라벨 대상 객체에 대한 어노테이션 폼(form)을 표시하는 이미지 레이어; 및 상기 라벨 대상 객체의 라벨에 포함된 둘 이상의 계층 각각에 대한 클래스를 입력하기 위한 사용자 클래스 입력을 허용하는 라벨 레이어를 포함할 수 있다.A computer program stored in a computer-readable storage medium according to an embodiment of the present disclosure, wherein the computer program provides a user interface (UI) for displaying information for labeling when executed on one or more processors of a computing device, the The user interface includes: an image layer that displays an image including a label object object, and displays an annotation form for the label object object in response to a user annotation input for displaying the label object object; And a label layer that allows input of a user class for inputting a class for each of two or more layers included in the label of the label target object.

Description

라벨 생성 방법{METHOD TO GENERATE LABEL}How to create a label {METHOD TO GENERATE LABEL}

본 발명은 라벨을 생성하는 방법에 관한 것으로, 보다 구체적으로 라벨 생성을 위한 정보를 표시하기 위한 사용자 인터페이스 제공 방법에 관한 것이다.The present invention relates to a method of generating a label, and more particularly, to a method of providing a user interface for displaying information for label generation.

기계 학습 알고리즘에 대한 다양한 형태의 연구가 진행되고 있으며, 이에 따라 심층 신경망(deep neural network), 합성곱 신경망(convolutional neural network), 순환 신경망(recurrent neural network)와 같은 다양한 딥러닝 기법들이 컴퓨터 비전, 음성 인식, 자연어 처리 등의 분야에 적용되고 있다.Various types of research on machine learning algorithms are being conducted, and as a result, various deep learning techniques such as deep neural networks, convolutional neural networks, and recurrent neural networks are used in computer vision, It is applied to fields such as speech recognition and natural language processing.

이러한 기계 학습 알고리즘은 복잡한 구조를 가지며 복잡한 연산을 통해 결과를 출력할 수 있다. 기계 학습 알고리즘을 이용하여 데이터를 처리하기 위해서는 기계 학습 알고리즘에 대한 상당한 이해가 선행되어야 하며, 이에 따라 기계 학습 알고리즘을 사용할 수 있는 사용자들은 한정된다.These machine learning algorithms have a complex structure and can output results through complex operations. In order to process data using machine learning algorithms, a considerable understanding of machine learning algorithms must be preceded, and accordingly, users who can use machine learning algorithms are limited.

이에 기계 학습 알고리즘을 사용자들이 쉽게 접근할 수 있도록 하는 당업계의 요구가 존재하며, 기계 학습 알고리즘의 학습을 위한 라벨링된 데이터를 쉽게 생성할 수 있도록 하는 요구가 존재한다.Accordingly, there is a need in the art to allow users to easily access machine learning algorithms, and there is a need to easily generate labeled data for learning of machine learning algorithms.

대한민국 공개 특허 제2016-0012537호는 신경망 학습 방법 및 장치, 데이터 처리 장치를 개시한다.Korean Patent Publication No. 2016-0012537 discloses a neural network learning method and apparatus, and a data processing apparatus.

본 개시는 전술한 배경기술에 대응하여 안출 된 것으로, 라벨링을 위한 정보를 표시하는 방법을 제공하는 것을 목적으로 한다.The present disclosure has been devised in response to the above-described background technology, and an object of the present disclosure is to provide a method of displaying information for labeling.

전술한 바와 같은 과제를 실현하기 위한 본 개시의 일 실시예에 따른 컴퓨터 판독가능 저장 매체에 저장된 컴퓨터 프로그램으로서, 상기 컴퓨터 프로그램은 컴퓨팅 장치의 하나 이상의 프로세서에서 실행되는 경우 라벨링을 위한 정보를 표시하는 사용자 인터페이스(UI)를 제공하며, 상기 사용자 인터페이스는: 라벨 대상 객체를 포함하는 이미지를 표시하고, 그리고 상기 라벨 대상 객체를 표시하기 위한 사용자 어노테이션 입력에 대한 응답으로, 상기 라벨 대상 객체에 대한 어노테이션 폼(form)을 표시하는 이미지 레이어; 및 상기 라벨 대상 객체의 라벨에 포함된 둘 이상의 계층 각각에 대한 클래스를 입력하기 위한 사용자 클래스 입력을 허용하는 라벨 레이어를 포함할 수 있다.A computer program stored in a computer-readable storage medium according to an embodiment of the present disclosure for realizing the above-described problems, wherein the computer program is executed on one or more processors of a computing device, the user displaying information for labeling Provides an interface (UI), wherein the user interface: In response to a user annotation input for displaying an image including a label object object, and for displaying the label object object, an annotation form for the label object object ( an image layer that displays the form); And a label layer that allows input of a user class for inputting a class for each of two or more layers included in the label of the label target object.

라벨 생성 방법을 제공하기 위한 이하의 동작들을 수행하도록 하는 컴퓨터 프로그램 동작들의 대안적인 실시예에서, 상기 라벨 레이어는: 제 1 계층에 대응되는 제 1 클래스 표시 객체, 제 2 계층에 대응되는 제 2 클래스 표시 객체, 계층 추가 객체 및 계층 삭제 객체를 표시할 수 있다.In an alternative embodiment of computer program operations to perform the following operations for providing a label generation method, the label layer comprises: a first class display object corresponding to a first layer, a second class corresponding to a second layer Display objects, layer addition objects, and layer deletion objects can be displayed.

라벨 생성 방법을 제공하기 위한 이하의 동작들을 수행하도록 하는 컴퓨터 프로그램 동작들의 대안적인 실시예에서, 상기 라벨 레이어는: 상기 계층 추가 객체에 대한 사용자 입력에 대한 응답으로 제 3 계층에 대응되는 제 3 클래스 표시 객체를 더 표시하거나, 또는 상기 계층 삭제 객체에 대한 사용자 입력에 대한 응답으로 상기 제 2 계층에 대응되는 상기 제 2 클래스 표시 객체를 삭제할 수 있다.In an alternative embodiment of computer program operations to perform the following operations for providing a label generation method, the label layer is: a third class corresponding to a third layer in response to a user input to the layer addition object. A display object may be further displayed, or the second class display object corresponding to the second layer may be deleted in response to a user input to the layer deletion object.

라벨 생성 방법을 제공하기 위한 이하의 동작들을 수행하도록 하는 컴퓨터 프로그램 동작들의 대안적인 실시예에서, 상기 라벨 레이어는: 제 1 계층에 대응되는 하나 이상의 제 1 템플릿 클래스 및 제 2 계층에 대응되는 하나 이상의 제 2 템플릿 클래스를 표시하는 템플릿 클래스 선택 영역; 을 포함하고, 그리고 상기 제 1 템플릿 클래스 또는 상기 제 2 템플릿 클래스 중 적어도 하나에 대한 사용자 라벨 입력에 응답하여, 상기 제 1 계층에 대응되는 제 1 클래스 표시 객체 또는 상기 제 2 계층에 대응되는 제 2 클래스 표시 객체 중 적어도 하나에 상기 사용자 라벨 입력에 대응되는 상기 제 1 템플릿 클래스 또는 상기 제 2 템플릿 클래스 중 적어도 하나를 각각 표시할 수 있다.In an alternative embodiment of computer program operations for performing the following operations for providing a label generation method, the label layer comprises: one or more first template classes corresponding to a first layer and one or more first template classes corresponding to a second layer. A template class selection area displaying a second template class; Including, And in response to a user label input for at least one of the first template class or the second template class, a first class display object corresponding to the first layer or a second class corresponding to the second layer At least one of the first template class and the second template class corresponding to the user label input may be displayed on at least one of the class display objects, respectively.

라벨 생성 방법을 제공하기 위한 이하의 동작들을 수행하도록 하는 컴퓨터 프로그램 동작들의 대안적인 실시예에서, 상기 템플릿 클래스 선택 영역은: 상기 제 1 계층에 대응되는 제 1 추가 템플릿 클래스 또는 상기 제 2 계층에 대응되는 제 2 추가 템플릿 클래스 중 적어도 하나에 대한 사용자 입력의 응답으로, 상기 추가 템플릿 클래스들을 더 표시할 수 있다.In an alternative embodiment of computer program operations to perform the following operations for providing a label generation method, the template class selection area is: a first additional template class corresponding to the first layer or corresponding to the second layer The additional template classes may be further displayed in response to a user input to at least one of the second additional template classes.

라벨 생성 방법을 제공하기 위한 이하의 동작들을 수행하도록 하는 컴퓨터 프로그램 동작들의 대안적인 실시예에서, 상기 사용자 어노테이션 입력은: 상기 라벨 대상 객체의 영역을 표시하기 위한 영역 선택 입력; 및 상기 어노테이션 폼의 위치, 크기 또는 각도 중 적어도 하나를 변경하기 위한 영역 조정 입력;을 포함할 수 있다.In an alternative embodiment of computer program operations for performing the following operations for providing a label generation method, the user annotation input comprises: a region selection input for indicating a region of the label object object; And a region adjustment input for changing at least one of a position, a size, or an angle of the annotation form.

라벨 생성 방법을 제공하기 위한 이하의 동작들을 수행하도록 하는 컴퓨터 프로그램 동작들의 대안적인 실시예에서, 상기 어노테이션 폼은: 하나 이상의 어노테이션 폼 모양 중 사용자 선택 입력된 하나의 어노테이션 폼 모양으로 표시될 수 있다.In an alternative embodiment of computer program operations for performing the following operations for providing a label generation method, the annotation form may be displayed in the form of one annotation form inputted by a user selection among one or more annotation form forms.

라벨 생성 방법을 제공하기 위한 이하의 동작들을 수행하도록 하는 컴퓨터 프로그램 동작들의 대안적인 실시예에서, 상기 이미지 레이어는: 상기 이미지에 포함된 제 1 어노테이션 폼을 복사하기 위한 사용자의 복사 입력에 대한 응답으로, 상기 제 1 어노테이션 폼과 동일한 형태의 제 2 어노테이션 폼을 추가로 표시할 수 있다.In an alternative embodiment of computer program operations to perform the following operations for providing a label generation method, the image layer is: in response to a user's copy input for copying a first annotation form included in the image. , A second annotation form having the same shape as the first annotation form may be additionally displayed.

라벨 생성 방법을 제공하기 위한 이하의 동작들을 수행하도록 하는 컴퓨터 프로그램 동작들의 대안적인 실시예에서, 상기 이미지 레이어는: 상기 이미지에 포함된 제 1 라벨 대상 객체에 대한 제 1 어노테이션 폼 표시에 대한 응답으로, 상기 제 1 라벨 대상 객체와 관련된 제 2 라벨 대상 객체에 대해, 상기 제 1 어노테이션 폼에 기초한 제 2 어노테이션 폼을 상기 제 2 라벨 대상 객체에 추가로 표시할 수 있다.In an alternative embodiment of computer program operations for performing the following operations for providing a label generation method, the image layer is: in response to displaying a first annotation form for a first label target object included in the image. , With respect to the second label target object related to the first label target object, a second annotation form based on the first annotation form may be additionally displayed on the second label target object.

라벨 생성 방법을 제공하기 위한 이하의 동작들을 수행하도록 하는 컴퓨터 프로그램 동작들의 대안적인 실시예에서, 상기 프로세서는: 상기 이미지에 포함된 제 1 라벨 대상 객체에 대한 제 1 어노테이션 폼 표시 및 제 1 클래스 입력에 대한 응답으로, 상기 제 1 라벨 대상 객체와 동일한 형태의 제 2 라벨 대상 객체에 대해 상기 제 1 클래스를 라벨로 결정하는 동작; 또는 상기 제 1 라벨 대상 객체와 상이한 형태의 제 3 라벨 대상 객체에 대해 상기 제 1 클래스와 상이한 클래스인 제 2 클래스를 라벨로 결정하는 동작을 포함할 수 있다.In an alternative embodiment of computer program operations to perform the following operations for providing a label generation method, the processor comprises: displaying a first annotation form for a first label target object included in the image and inputting a first class In response to, determining the first class as a label for a second label target object having the same shape as the first label target object; Alternatively, for a third label target object having a different type from the first label target object, a second class that is a class different from the first class may be determined as a label.

라벨 생성 방법을 제공하기 위한 이하의 동작들을 수행하도록 하는 컴퓨터 프로그램 동작들의 대안적인 실시예에서, 상기 프로세서는: 상기 어노테이션 폼에 포함된 객체 및 상기 사용자 클래스 입력에 대응되는 라벨을 포함하는 학습 데이터를 생성하는 동작을 포함할 수 있다.In an alternative embodiment of computer program operations for performing the following operations for providing a label generation method, the processor: generates learning data including an object included in the annotation form and a label corresponding to the user class input. It may include an operation to generate.

전술한 바와 같은 과제를 실현하기 위한 본 개시의 일 실시예에 따른 사용자 단말에서 라벨링 정보를 표시하는 방법으로서, 이미지 레이어에 라벨 대상 객체를 포함하는 이미지를 표시하는 단계; 상기 이미지 레이어에 상기 라벨 대상 객체를 표시하기 위한 사용자 어노테이션 입력에 대한 응답으로, 상기 라벨 대상 객체에 대한 어노테이션 폼을 표시하는 단계; 및 라벨 레이어에 상기 라벨 대상 객체의 라벨에 포함된 둘 이상의 계층 각각에 대한 클래스를 입력하기 위한 사용자 클래스 입력을 허용하는 디스플레이 객체를 표시하는 단계를 포함할 수 있다.A method of displaying labeling information in a user terminal according to an embodiment of the present disclosure for realizing the above-described problem, the method comprising: displaying an image including a label object object in an image layer; Displaying an annotation form for the label object object in response to a user annotation input for displaying the label object object on the image layer; And displaying, on the label layer, a display object allowing input of a user class for inputting a class for each of two or more layers included in a label of the label target object.

전술한 바와 같은 과제를 실현하기 위한 본 개시의 일 실시예에 따른 사용자 단말로서, 하나 이상의 코어를 포함하는 프로세서; 메모리; 및 사용자 인터페이스를 제공하는 출력부를 포함하고, 상기 사용자 인터페이스는, 라벨 대상 객체를 포함하는 이미지를 표시하고, 그리고 상기 라벨 대상 객체를 표시하기 위한 사용자 어노테이션 입력에 대한 응답으로, 상기 라벨 대상 객체에 대한 어노테이션 폼을 표시하는 이미지 레이어; 및 상기 라벨 대상 객체의 라벨에 포함된 둘 이상의 계층 각각에 대한 클래스를 입력하기 위한 사용자 클래스 입력을 허용하는 라벨 레이어를 포함할 수 있다.A user terminal according to an embodiment of the present disclosure for realizing the above-described problem, comprising: a processor including one or more cores; Memory; And an output unit providing a user interface, wherein the user interface displays an image including a label object object, and in response to a user annotation input for displaying the label object object, the label object object An image layer that displays an annotation form; And a label layer that allows input of a user class for inputting a class for each of two or more layers included in the label of the label target object.

전술한 바와 같은 과제를 실현하기 위한 본 개시의 일 실시예에 따른 서버로서, 하나 이상의 코어를 포함하는 프로세서; 네트워크부; 및 메모리를 포함하고, 상기 프로세서는 상기 네트워크부를 통해 사용자 단말로 사용자 인터페이스(UI)를 전송할 것을 결정하며, 상기 사용자 인터페이스는: 라벨 대상 객체를 포함하는 이미지를 표시하고, 그리고 상기 라벨 대상 객체를 표시하기 위한 사용자 어노테이션 입력에 대한 응답으로, 상기 라벨 대상 객체에 대한 어노테이션 폼을 표시하는 이미지 레이어; 및 상기 라벨 대상 객체의 라벨에 포함된 둘 이상의 계층 각각에 대한 클래스를 입력하기 위한 사용자 클래스 입력을 허용하는 라벨 레이어를 포함할 수 있다.A server according to an embodiment of the present disclosure for realizing the above-described problem, comprising: a processor including one or more cores; Network unit; And a memory, wherein the processor determines to transmit a user interface (UI) to a user terminal through the network unit, the user interface: displaying an image including a label object object, and displaying the label object object An image layer for displaying an annotation form for the label target object in response to a user annotation input for performing the labeling; And a label layer that allows input of a user class for inputting a class for each of two or more layers included in the label of the label target object.

본 개시는 라벨링 관련 정보를 사용자 인터페이스에 표시하는 방법을 제공할 수 있다.The present disclosure may provide a method of displaying labeling related information on a user interface.

도 1은 본 개시의 일 실시예에 따라 라벨링 정보를 사용자 인터페이스에 표시하기 위한 동작들을 수행하는 컴퓨팅 장치의 블록 구성도를 도시한 도면이다.
도 2는 본 개시의 일 실시예에 따른 라벨링을 위한 이미지 레이어를 예시적으로 도시한 도면이다.
도 3은 본 개시의 일 실시예에 따른 클래스 입력을 허용하기 위한 라벨 레이어를 예시적으로 도시한 도면이다.
도 4는 본 개시의 일 실시예에 따른 라벨링을 위한 이미지 레이어를 예시적으로 도시한 도면이다.
도 5는 본 개시의 일 실시예에 따른 라벨링을 위한 이미지 레이어를 예시적으로 도시한 도면이다.
도 6은 본 개시의 일 실시예에 따른 라벨링을 위한 네트워크 함수 설정 레이어를 예시적으로 도시한 도면이다.
도 7은 본 개시의 일 실시예에 따른 라벨링을 위한 이미지 레이어를 예시적으로 도시한 도면이다.
도 8은 본 개시의 일 실시예에 따른 라벨링을 위한 정보를 표시하는 방법을 예시적으로 나타낸 순서도이다.
도 9는 본 개시의 일 실시예에 따른 컴퓨팅 장치의 블록 구성도이다.
1 is a diagram illustrating a block diagram of a computing device that performs operations for displaying labeling information on a user interface according to an embodiment of the present disclosure.
2 is a diagram illustrating an image layer for labeling according to an embodiment of the present disclosure.
3 is a diagram illustrating a label layer for allowing a class input according to an embodiment of the present disclosure.
4 is a diagram illustrating an image layer for labeling according to an embodiment of the present disclosure.
5 is a diagram illustrating an image layer for labeling according to an embodiment of the present disclosure.
6 is a diagram illustrating an exemplary network function setting layer for labeling according to an embodiment of the present disclosure.
7 is a diagram illustrating an image layer for labeling according to an embodiment of the present disclosure.
8 is a flowchart illustrating a method of displaying information for labeling according to an embodiment of the present disclosure.
9 is a block diagram of a computing device according to an embodiment of the present disclosure.

다양한 실시예들이 이제 도면을 참조하여 설명된다. 본 명세서에서, 다양한 설명들이 본 개시의 이해를 제공하기 위해서 제시된다. 그러나, 이러한 실시예들은 이러한 구체적인 설명 없이도 실행될 수 있음이 명백하다.Various embodiments are now described with reference to the drawings. In this specification, various descriptions are presented to provide an understanding of the present disclosure. However, it is clear that these embodiments may be implemented without this specific description.

본 명세서에서 사용되는 용어 "컴포넌트", "모듈", "시스템" 등은 컴퓨터-관련 엔티티, 하드웨어, 펌웨어, 소프트웨어, 소프트웨어 및 하드웨어의 조합, 또는 소프트웨어의 실행을 지칭한다. 예를 들어, 컴포넌트는 프로세서상에서 실행되는 처리과정(procedure), 프로세서, 객체, 실행 스레드, 프로그램, 및/또는 컴퓨터일 수 있지만, 이들로 제한되는 것은 아니다. 예를 들어, 컴퓨팅 장치에서 실행되는 애플리케이션 및 컴퓨팅 장치 모두 컴포넌트일 수 있다. 하나 이상의 컴포넌트는 프로세서 및/또는 실행 스레드 내에 상주할 수 있다. 일 컴포넌트는 하나의 컴퓨터 내에 로컬화 될 수 있다. 일 컴포넌트는 2개 이상의 컴퓨터들 사이에 분배될 수 있다. 또한, 이러한 컴포넌트들은 그 내부에 저장된 다양한 데이터 구조들을 갖는 다양한 컴퓨터 판독가능한 매체로부터 실행할 수 있다. 컴포넌트들은 예를 들어 하나 이상의 데이터 패킷들을 갖는 신호(예를 들면, 로컬 시스템, 분산 시스템에서 다른 컴포넌트와 상호작용하는 하나의 컴포넌트로부터의 데이터 및/또는 신호를 통해 다른 시스템과 인터넷과 같은 네트워크를 통해 전송되는 데이터)에 따라 로컬 및/또는 원격 처리들을 통해 통신할 수 있다.As used herein, the terms "component", "module", "system" and the like refer to a computer-related entity, hardware, firmware, software, a combination of software and hardware, or execution of software. For example, a component may be, but is not limited to, a process executed on a processor, a processor, an object, a thread of execution, a program, and/or a computer. For example, both an application running on a computing device and a computing device may be components. One or more components may reside within a processor and/or thread of execution. A component can be localized within a single computer. A component can be distributed between two or more computers. In addition, these components can execute from a variety of computer readable media having various data structures stored therein. Components can be, for example, through a signal with one or more data packets (e.g., data from one component interacting with another component in a local system, a distributed system, and/or a signal through another system and a network such as the Internet. Depending on the data being transmitted), it may communicate via local and/or remote processes.

더불어, 용어 "또는"은 배타적 "또는"이 아니라 내포적 "또는"을 의미하는 것으로 의도된다. 즉, 달리 특정되지 않거나 문맥상 명확하지 않은 경우에, "X는 A 또는 B를 이용한다"는 자연적인 내포적 치환 중 하나를 의미하는 것으로 의도된다. 즉, X가 A를 이용하거나; X가 B를 이용하거나; 또는 X가 A 및 B 모두를 이용하는 경우, "X는 A 또는 B를 이용한다"가 이들 경우들 어느 것으로도 적용될 수 있다. 또한, 본 명세서에 사용된 "및/또는"이라는 용어는 열거된 관련 아이템들 중 하나 이상의 아이템의 가능한 모든 조합을 지칭하고 포함하는 것으로 이해되어야 한다.In addition, the term “or” is intended to mean an inclusive “or” rather than an exclusive “or”. That is, unless specified otherwise or is not clear from the context, "X employs A or B" is intended to mean one of the natural inclusive substitutions. That is, X uses A; X uses B; Or when X uses both A and B, "X uses A or B" can be applied to either of these cases. In addition, the term “and/or” as used herein should be understood to refer to and include all possible combinations of one or more of the listed related items.

또한, "포함한다" 및/또는 "포함하는"이라는 용어는, 해당 특징 및/또는 구성요소가 존재함을 의미하는 것으로 이해되어야 한다. 다만, "포함한다" 및/또는 "포함하는"이라는 용어는, 하나 이상의 다른 특징, 구성요소 및/또는 이들의 그룹의 존재 또는 추가를 배제하지 않는 것으로 이해되어야 한다. 또한, 달리 특정되지 않거나 단수 형태를 지시하는 것으로 문맥상 명확하지 않은 경우에, 본 명세서와 청구범위에서 단수는 일반적으로 "하나 또는 그 이상"을 의미하는 것으로 해석되어야 한다.In addition, the terms "comprises" and/or "comprising" should be understood to mean that the corresponding features and/or components are present. However, it is to be understood that the terms "comprising" and/or "comprising" do not exclude the presence or addition of one or more other features, elements, and/or groups thereof. In addition, unless otherwise specified or when the context is not clear to indicate a singular form, the singular in the specification and claims should be interpreted as meaning "one or more" in general.

당업자들은 추가적으로 여기서 개시된 실시예들과 관련되어 설명된 다양한 예시 적 논리적 블록들, 구성들, 모듈들, 회로들, 수단들, 로직들, 및 알고리즘 단계들이 전자 하드웨어, 컴퓨터 소프트웨어, 또는 양쪽 모두의 조합들로 구현될 수 있음을 인식해야 한다. 하드웨어 및 소프트웨어의 상호교환성을 명백하게 예시하기 위해, 다양한 예시 적 컴포넌트들, 블록들, 구성들, 수단들, 로직들, 모듈들, 회로들, 및 단계들은 그들의 기능성 측면에서 일반적으로 위에서 설명되었다. 그러한 기능성이 하드웨어로 또는 소프트웨어로서 구현되는지 여부는 전반적인 시스템에 부과된 특정 어플리케이션(application) 및 설계 제한들에 달려 있다. 숙련된 기술자들은 각각의 특정 어플리케이션들을 위해 다양한 방법들로 설명된 기능성을 구현할 수 있다. 다만, 그러한 구현의 결정들이 본 개시내용의 영역을 벗어나게 하는 것으로 해석되어서는 안된다.Those of skill in the art would further describe the various illustrative logical blocks, configurations, modules, circuits, means, logics, and algorithm steps described in connection with the embodiments disclosed herein, including electronic hardware, computer software, or a combination of both. It should be recognized that it can be implemented as To clearly illustrate the interchangeability of hardware and software, various illustrative components, blocks, configurations, means, logics, modules, circuits, and steps have been described above generally in terms of their functionality. Whether such functionality is implemented in hardware or as software depends on the specific application and design restrictions imposed on the overall system. Skilled technicians can implement the described functionality in various ways for each particular application. However, such implementation decisions should not be interpreted as causing a departure from the scope of the present disclosure.

제시된 실시예들에 대한 설명은 본 개시의 기술 분야에서 통상의 지식을 가진 자가 본 발명을 이용하거나 또는 실시할 수 있도록 제공된다. 이러한 실시예들에 대한 다양한 변형들은 본 개시의 기술 분야에서 통상의 지식을 가진 자에게 명백할 것이다. 여기에 정의된 일반적인 원리들은 본 개시의 범위를 벗어남이 없이 다른 실시예들에 적용될 수 있다. 그리하여, 본 발명은 여기에 제시된 실시예들로 한정되는 것이 아니다. 본 발명은 여기에 제시된 원리들 및 신규한 특징들과 일관되는 최광의의 범위에서 해석되어야 할 것이다.Description of the presented embodiments is provided so that a person of ordinary skill in the art of the present disclosure can use or implement the present invention. Various modifications to these embodiments will be apparent to those of ordinary skill in the art. The general principles defined herein may be applied to other embodiments without departing from the scope of the present disclosure. Thus, the present invention is not limited to the embodiments presented herein. The invention is to be accorded the widest scope consistent with the principles and novel features presented herein.

본 개시의 일 실시예에서 서버는 서버의 서버 환경을 수행하기 위한 다른 구성들이 포함될 수도 있다. 서버는 임의의 형태의 장치는 모두 포함할 수 있다. 서버는 디지털 기기로서, 랩탑 컴퓨터, 노트북 컴퓨터, 데스크톱 컴퓨터, 웹 패드, 이동 전화기와 같이 프로세서를 탑재하고 메모리를 구비한 연산 능력을 갖춘 디지털 기기일 수 있다. 서버는 서비스를 처리하는 웹 서버일 수 있다. 전술한 서버의 종류는 예시일 뿐이며 본 개시는 이에 제한되지 않는다. In an embodiment of the present disclosure, the server may include other components for executing the server environment of the server. The server may include any type of device. The server is a digital device, and may be a digital device equipped with a processor, such as a laptop computer, a notebook computer, a desktop computer, a web pad, and a mobile phone, and equipped with a memory and computing power. The server may be a web server that processes services. The types of servers described above are only examples, and the present disclosure is not limited thereto.

본 명세서에서 신경망, 인공 신경망, 네트워크 함수는 종종 상호 교환 가능하게 사용될 수 있다. In this specification, neural networks, artificial neural networks, and network functions can often be used interchangeably.

도 1은 본 개시의 일 실시예에 따라 라벨링 정보를 사용자 인터페이스에 표시하기 위한 동작들을 수행하는 컴퓨팅 장치의 블록 구성도를 도시한 도면이다.1 is a diagram illustrating a block diagram of a computing device that performs operations for displaying labeling information on a user interface according to an embodiment of the present disclosure.

본 개시의 일 실시예에 따른 라벨 생성 방법 또는 라벨링을 위한 정보를 표시하는 사용자 인터페이스를 제공하기 위한 컴퓨팅 장치(100)는 네트워크부(110), 프로세서(120), 메모리(130), 출력부(140) 및 입력부(150)를 포함할 수 있다.The computing device 100 for providing a label generation method or a user interface for displaying information for labeling according to an embodiment of the present disclosure includes a network unit 110, a processor 120, a memory 130, and an output unit ( 140) and an input unit 150 may be included.

본 개시의 실시예들에서 레이어는, 사용자 인터페이스에 디스플레이 되는, 여러 개의 화상을 겹쳐서 표시하기 위하여 사용하는 층을 의미할 수 있다. 둘 이상의 레이어는 겹쳐서 표시될 수도 있다. 둘 이상의 레이어가 겹쳐서 표시되는 경우, 하나의 레이어에 다른 레이어가 가려져, 보이지 않을 수 있다. 또는, 둘 이상의 레이어가 겹쳐서 표시되고, 상위 레이어가 일부 반 투명하게 표시되는 경우 하위 레이어의 적어도 일부가 보일 수 있다. 둘 이상의 레이어는 동일한 크기일 수 있다. 또한, 둘 이상의 레이어는 상이한 크기일 수도 있다. 레이어는 하나 이상의 영역을 포함할 수 있다. 또한, 레이어는 하나 이상의 디스플레이 객체를 포함할 수 있다.In embodiments of the present disclosure, a layer may mean a layer that is displayed on a user interface and used to overlap and display multiple images. Two or more layers may be overlapped and displayed. When two or more layers are overlapped and displayed, one layer may hide the other layer and may not be visible. Alternatively, when two or more layers are overlapped and the upper layer is partially semi-transparent, at least a part of the lower layer may be visible. Two or more layers may have the same size. Also, two or more layers may have different sizes. The layer may include one or more regions. Also, a layer may include one or more display objects.

본 개시의 실시예들에서 레이어는 복수의 영역으로 분할될 수 있다. 복수의 영역들은 겹쳐지지 않는 화면 상의 일 공간일 수 있다. 하나의 레이어는 하나의 영역만을 포함할 수도 있고, 또는 복수의 영역을 포함할 수도 있다. 하나의 영역은 하나 이상의 디스플레이 객체를 포함할 수 있다.In embodiments of the present disclosure, a layer may be divided into a plurality of regions. The plurality of areas may be one space on the screen that does not overlap. One layer may include only one area or may include a plurality of areas. One area may include one or more display objects.

본 개시의 실시예들에서 객체는 프로그램, 명령어 또는 데이터 각각에 대응되는 그림, 기호 또는 글자의 집합일 수 있다. 본 개시의 일 실시예에 따라 객체는 사용자 선택 입력을 수신하기 위해 사용될 수 있다. 예를 들어, 객체에 대한 사용자 입력을 수신하는 경우, 프로세서(120)는 해당 객체에 대응되어 저장된 명령어 또는 데이터를 실행하여 사용자 인터페이스에 표시할 수 있다. 본 개시의 실시예들에서 객체와 디스플레이 객체는 동일한 의미로 해석될 수 있다.In the embodiments of the present disclosure, the object may be a set of pictures, symbols, or letters corresponding to each program, command, or data. According to an embodiment of the present disclosure, an object may be used to receive a user selection input. For example, when receiving a user input for an object, the processor 120 may execute a command or data stored in correspondence with the object and display it on the user interface. In the embodiments of the present disclosure, an object and a display object may be interpreted as having the same meaning.

본 개시의 실시예들에서, “표시”는 출력부(140)를 통해 사용자에게 데이터가 보여 지도록 하는 동작일 수 있다. “표시”와 “디스플레이”는 상호 교환 가능하게 사용될 수 있다.In the embodiments of the present disclosure, “display” may be an operation of displaying data to a user through the output unit 140. "Display" and "display" can be used interchangeably.

이하에서는 본 개시의 실시예들에 따라 라벨링을 위한 정보를 표시하는 사용자 인터페이스를 제공하는 방법에 관하여 설명한다.Hereinafter, a method of providing a user interface displaying information for labeling according to embodiments of the present disclosure will be described.

네트워크 함수를 이용하여 이미지 등을 연산하는 다양한 방법들에 대한 연구가 수행되고 있다. 네트워크 함수를 학습시키기 위해서는 교사 학습(supervised learning), 비 교사 학습(unsupervised learning) 및 반교사학습(semi supervised learning) 등이 이용될 수 있다. 네트워크 함수를 학습시키기 위한 방법으로, 일반적으로 교사 학습 방법이 가장 많이 이용된다. 교사 학습은 입력 데이터와 입력 데이터에 대한 정답을 알고 있는 상태에서, 네트워크 함수를 학습시키는 방법일 수 있다. 네트워크 함수를 학습시키기 위해서 입력 데이터와 입력 데이터에 대한 정답 쌍을 포함하는 학습 데이터를 생성할 필요가 있다. 학습 데이터를 생성하기 위해서는 입력 데이터에 대해 입력 데이터에 대한 정답을 라벨링할 필요성이 있다. 사람이 입력 데이터에 대해 입력 데이터에 대한 정답을 라벨링 하는데 소요되는 시간 및 비용은 상당히 크다. 즉, 학습 데이터를 구축하는데 소요되는 시간 및 비용이 증가하게 되면, 네트워크 함수의 학습에 소요되는 시간 및 비용 또한 증가할 수 있다. 이에, 학습 데이터를 쉽게 구축하기 위한 연구들에 대한 필요성이 존재한다. 본 발명의 실시예에 따라 학습 데이터를 구축하는 경우, 즉, 입력 데이터에 대해 입력 데이터에 대한 정답 쌍을 라벨링하는 경우, 학습 데이터 구축에 소요되는 시간 및 비용이 감소할 수 있다. 또한, 네트워크 함수의 학습에 대한 심도 있는 이해가 없는 사용자들의 경우에도, 본원 발명의 실시예에 따라 학습 데이터를 쉽게 구축할 수 있다. 본원 발명은 사용자의 편의성을 증대시키고, 그리고 네트워크 함수의 학습에 소요되는 시간 및 비용을 감소시키기 위한 사용자 인터페이스를 제공할 수 있다.Research is being conducted on various methods of calculating images and the like using network functions. In order to learn the network function, supervised learning, unsupervised learning, and semi supervised learning may be used. As a method for learning a network function, a teacher learning method is generally used most. Teacher learning may be a method of learning a network function while knowing the input data and the correct answer to the input data. In order to train a network function, it is necessary to generate training data including input data and a pair of correct answers to the input data. In order to generate training data, it is necessary to label the correct answers to the input data with respect to the input data. The time and cost required for a person to label the correct answer to the input data against the input data is quite large. That is, if the time and cost required to construct the training data increase, the time and cost required to learn the network function may also increase. Accordingly, there is a need for studies to easily construct learning data. In the case of constructing training data according to an embodiment of the present invention, that is, when labeling a pair of correct answers to the input data with respect to the input data, time and cost required for constructing the training data may be reduced. In addition, even for users who do not have an in-depth understanding of learning network functions, learning data can be easily constructed according to an embodiment of the present invention. The present invention can provide a user interface for increasing user convenience and reducing time and cost required for learning a network function.

프로세서(120)는 사용자 인터페이스에 이미지 레이어 및 라벨 레이어를 표시할 수 있다. 도 2는 본 개시의 일 실시예에 따라 이미지 레이어(200)를 도시한다.The processor 120 may display an image layer and a label layer on the user interface. 2 illustrates an image layer 200 according to an embodiment of the present disclosure.

이미지 레이어(200)는 라벨 대상 객체를 포함하는 이미지를 표시할 수 있다. 이미지 레이어(200)의 크기는 이미지와 동일한 크기일 수 있다. 이미지 레이어(200)의 크기는 이미지와 상이한 크기일 수 있다. 이미지 레이어(200)는 이미지 레이어(200)의 크기에 대응되도록 이미지의 크기를 조정하여 표시할 수 있다. 이미지 레이어는 이미지에 포함된 라벨 대상 객체에 대한 시각적 표현을 표시하기 위한 레이어일 수 있다. 시각적 표현은 라벨 대상 객체에 대한 어노테이션 폼(form)일 수 있다. 어노테이션 폼에 관하여 후술하여 설명한다.The image layer 200 may display an image including an object to be labeled. The size of the image layer 200 may be the same size as the image. The size of the image layer 200 may be different from that of the image. The image layer 200 may be displayed by adjusting the size of the image to correspond to the size of the image layer 200. The image layer may be a layer for displaying a visual representation of a label target object included in an image. The visual representation may be an annotation form for the object to be labeled. The annotation form will be described later.

이미지는 네트워크 함수의 연산 대상이 될 수 있다. 이미지는 학습 데이터의 입력이 되는 데이터일 수 있다. 이미지의 적어도 일부의 영역은 학습 데이터의 입력이 되는 데이터일 수 있다. 이미지는 네트워크 함수의 입력 레이어에 입력되는 데이터일 수 있다. 이미지의 적어도 일부의 영역은 네트워크 함수의 입력 레이어에 입력되는 데이터일 수 있다. 이미지는 예를 들어, 위성 영상에 포함된 이미지일 수 있다. 이미지는 메타 데이터를 포함할 수 있다. 메타 데이터는 이미지에 관련한 추가적인 정보를 포함할 수 있다. 메타 데이터는 예를 들어, 위성 영상의 위도, 경도 또는 지리 좌표계 등일 수 있다. 전술한 이미지에 관한 구체적인 기재는 예시일 뿐이며 본 개시는 이에 제한되지 않는다.The image can be the object of operation of the network function. The image may be data used to input training data. At least a portion of the image may be data to be input for training data. The image may be data input to the input layer of the network function. At least a portion of the image may be data input to the input layer of the network function. The image may be, for example, an image included in a satellite image. Images may include metadata. Meta data may include additional information related to the image. The metadata may be, for example, a latitude, longitude, or geographic coordinate system of a satellite image. The specific description of the above-described image is only an example, and the present disclosure is not limited thereto.

이미지는 라벨 대상 객체를 포함할 수 있다. 라벨 대상 객체는 이미지에 포함된 식별 대상이 되는 객체일 수 있다. 라벨 대상 객체는 네트워크 함수를 이용하여 식별하기 위한 대상이 되는 객체일 수 있다. 라벨 대상 객체는 이미지에 포함된 라벨링의 대상이 되는 객체일 수 있다. 예를 들어, 이미지가 위성 영상의 적어도 일부분인 경우, 라벨 대상 객체는 산, 건물, 배 등일 수 있다. 라벨 대상 객체에 관한 구체적인 기재는 예시일 뿐이며 본 개시는 이에 제한되지 않는다.The image may include an object to be labeled. The label target object may be an object to be identified included in the image. The label target object may be an object to be identified using a network function. The object to be labeled may be an object to be labeled included in the image. For example, when the image is at least a part of a satellite image, the object to be labeled may be a mountain, a building, a ship, or the like. The detailed description of the label target object is only an example, and the present disclosure is not limited thereto.

라벨 대상 객체는 라벨과 연관될 수 있다. 이미지에 포함된 둘 이상의 라벨 대상 객체 각각은 라벨과 각각 연관될 수 있다. 이미지에 포함된 라벨 대상 객체 및 라벨은 페어링될 수 있다. 라벨은 라벨 대상 객체의 특징일 수 있다. 라벨 대상 객체와 연관된 라벨은 계층에 대한 클래스를 포함할 수 있다.The label object object may be associated with a label. Each of the two or more label target objects included in the image may be associated with a label, respectively. The label target object and the label included in the image may be paired. The label may be a characteristic of the object to be labeled. The label associated with the label target object may include a class for a hierarchy.

라벨은 하나의 계층에 대한 클래스를 포함할 수 있다. 라벨은 둘 이상의 계층 각각에 대한 클래스를 포함할 수 있다. 예를 들어, 라벨은 제 1 계층 및 제 2 계층 각각에 대한 클래스를 포함할 수 있다. 하나의 계층은 하나 이상의 클래스와 관련될 수 있다. 전술한 라벨에 관한 구체적인 기재는 예시일 뿐이며 본 개시는 이에 제한되지 않는다 Labels can contain classes for one layer. Labels may contain classes for each of two or more layers. For example, the label may include a class for each of the first layer and the second layer. One layer can be associated with more than one class. The specific description of the above label is for illustrative purposes only, and the present disclosure is not limited thereto.

본 개시의 일 실시예에 따라 계층은 클래스들의 상 하위 집합 관계를 나타낼 수 있다. 하나의 계층은 다른 계층들과 상 하위 집합 관계를 가질 수 있다. 예를 들어, 제 1 계층이 제 2 계층에 대한 상위 집합일 수 있다. 제 1 계층과 제 2 계층은 이미지 상에서의 포함 관계를 가질 수 있다. 예를 들어, 위성 영상에서 제 2 계층에 대한 클래스들은 제 1 계층에 대한 클래스에 포함되는 관계일 수 있다. 예를 들어, 이미지는 바다 상에 떠있는 항공 모함을 촬영한 이미지일 수 있다. 항공 모함에는 전투기, 탱크 및 컨테이너가 포함되어 있을 수 있다. 예를 들어, 항공 모함 이미지에 대해서 라벨들은 제 1 계층 및 제 2 계층을 포함할 수 있다. 제 1 계층에 대한 클래스는 바다 및 항공 모함일 수 있다. 제 2 계층에 대한 클래스는 전투기, 탱크 및 컨테이너일 수 있다. 전투기 라벨 대상 객체에 대한 라벨은 '제 1 계층: 항공 모함', '제 2 계층: 전투기'일 수 있다. 또는, 예를 들어, 제 1 계층은 객체의 분류, 제 2 계층은 객체의 소분류일 수 있다. 예를 들어, 제 1 계층에 대한 클래스는 전투기, 탱크 및 컨테이너일 수 있고, 제 2 계층에 대한 클래스는 전투기의 종류, 탱크의 종류 및 컨테이너의 종류일 수 있다. 예를 들어, 전투기의 종류에 따라서, 제 2 계층의 클래스는 'F-22 전투기', 'F-35 전투기'일 수 있다. 즉, F-22 전투기 라벨 대상 객체에 대한 라벨은 '제 1 계층: 전투기', '제 2 계층: F-22 전투기'일 수 있다. 또는, 예를 들어, 제 1 계층에 대한 클래스는 반도체 패널, 컨베이어 벨트일 수 있고, 그리고 제 2 계층에 대한 클래스는 반도체 패널에 포함된 홀(hole), 구리, 도선일 수 있다. 전술한 라벨에 관한 구체적인 기재는 예시일 뿐이며 본 개시는 이에 제한되지 않는다.According to an embodiment of the present disclosure, a hierarchy may represent an upper subset relationship of classes. One layer can have a sub-set relationship with other layers. For example, the first layer may be a superset of the second layer. The first layer and the second layer may have an inclusion relationship on the image. For example, in a satellite image, classes for the second layer may be a relationship included in the class for the first layer. For example, the image may be an image of an aircraft carrier floating on the sea. Aircraft carriers may contain fighters, tanks and containers. For example, for an aircraft carrier image, labels may include a first layer and a second layer. Classes for the first tier may be sea and aircraft carriers. The classes for the second tier can be fighters, tanks and containers. The label for the object to be labeled as a fighter aircraft may be'first layer: aircraft carrier' and'second layer: fighter aircraft'. Alternatively, for example, the first layer may be an object classification, and the second layer may be a sub-classification of objects. For example, a class for the first tier may be a fighter, a tank, and a container, and a class for a second tier may be a type of a fighter, a type of tank, and a container type. For example, depending on the type of fighter, the class of the second tier may be'F-22 fighter' and'F-35 fighter'. That is, the label for the F-22 fighter label target object may be “first layer: fighter” and “second layer: F-22 fighter”. Alternatively, for example, the class for the first layer may be a semiconductor panel and a conveyor belt, and the class for the second layer may be a hole, copper, or conductor included in the semiconductor panel. Specific description of the above-described label is only an example, and the present disclosure is not limited thereto.

본 개시의 일 실시예에 따라 계층은 각각 상이한 성질의 분류를 나타낼 수 있다. 예를 들어, 제 1 계층과 제 2 계층은 각각 다른 성질의 분류를 나타낼 수 있다. 예를 들어, 라벨 대상 객체가 옷인 경우, 제 1 계층에 대한 클래스는 상의, 하의, 드레스, 겉옷이고, 제 2 계층에 대한 클래스는 여성복, 남성복, 그리고 제 3 계층에 대한 클래스는 A 브랜드, B 브랜드일 수도 있다. 예를 들어, 특정 라벨 대상 객체에 대한 라벨은 제 1 계층: 드레스', '제 2 계층: 여성복', 그리고 '제 3 계층: A 브랜드'일 수 있다. 전술한 라벨에 관한 구체적인 기재는 예시일 뿐이며 본 개시는 이에 제한되지 않는다.According to an embodiment of the present disclosure, each layer may represent a classification of a different property. For example, the first layer and the second layer may represent classifications of different properties, respectively. For example, if the object to be labeled is clothes, the class for the first layer is top, bottom, dress, outerwear, the class for the second layer is women's wear, men's wear, and the class for the third layer is A brand, B It could be a brand. For example, a label for a specific label target object may be a first layer: dress,'second layer: women's wear', and'third layer: A brand'. Specific description of the above-described label is only an example, and the present disclosure is not limited thereto.

이미지 레이어(200)는 이미지를 조정하기 위한 디스플레이 객체를 포함할 수 있다. 이미지를 조정하기 위한 디스플레이 객체들은, 이미지의 크기, 대비, 밝기, 그림자, 투명도, 각도 등을 조정하기 위한 디스플레이 객체일 수 있다. 프로세서(120)는 이미지를 조정하기 위한 디스플레이 객체에 대한 사용자 입력에 대한 응답으로 이미지를 확대하거나, 밝기를 조정할 수 있다.The image layer 200 may include a display object for adjusting an image. Display objects for adjusting the image may be display objects for adjusting the size, contrast, brightness, shadow, transparency, angle, and the like of the image. The processor 120 may enlarge an image or adjust brightness in response to a user input to a display object for adjusting the image.

이미지 레이어(200)는 이미지에 포함된 객체들이 이미지 레이어(200)의 중심 부분에 표시되도록 이미지를 조정하여 표시할 수 있다. 프로세서(120)는 이미지를 분석하여, 이미지 내에 객체들이 많이 분포된 부분을 확대하여 이미지 레이어(200)에 표시할 수 있다. 프로세서(120)는 이미지를 분석하여, 이미지 내에 객체들이 많이 분포된 부분을 이미지 레이어(200)의 중심부에 오도록 이미지를 조정하여 이미지 레이어(200)에 표시할 수 있다.The image layer 200 may adjust and display an image so that objects included in the image are displayed at the center of the image layer 200. The processor 120 may analyze the image, enlarge a portion in which many objects are distributed in the image, and display it on the image layer 200. The processor 120 analyzes the image, adjusts the image so that a portion of the image where many objects are distributed is located at the center of the image layer 200 and displays the image on the image layer 200.

이미지 레이어(200)는 사용자의 이미지 조정 입력에 대한 응답으로 이미지를 조정하여 표시할 수 있다. 예를 들어, 이미지를 마우스로 드래그하는 이미지 조정 입력에 대한 응답으로, 이미지 레이어(200)는 드래그 방향 대로 이미지의 위치를 조정하여 표시할 수 있다. 예를 들어, 키보드의 화살표를 이용한 이미지 조정 입력에 대한 응답으로, 이미지 레이어(200)는 키보드의 화살표 방향 대로 이미지의 위치를 조정하여 표시할 수 있다. 전술한 이미지 레이어에 관한 구체적인 기재는 예시일 뿐이며 본 개시는 이에 제한되지 않는다.The image layer 200 may adjust and display an image in response to a user's image adjustment input. For example, in response to an image adjustment input of dragging an image with a mouse, the image layer 200 may adjust and display the position of the image in the dragging direction. For example, in response to an image adjustment input using an arrow on the keyboard, the image layer 200 may adjust and display the position of the image in the direction of the arrow on the keyboard. The detailed description of the above-described image layer is only an example, and the present disclosure is not limited thereto.

이미지 레이어(200)는 미니맵 레이어와 함께 사용자 인터페이스에 표시될 수 있다. 미니맵 레이어는 이미지 레이어(200)와 상이한 레이어일 수 있다. 미니맵 레이어는 이미지 레이어(200)에 중첩되어 표시될 수 있다. 미니맵 레이어는 이미지에 대한 미니맵을 표시할 수 있다. 미니맵은 축소된 전체 이미지일 수 있다. 예를 들어, 이미지가 위성 영상 이미지인 경우, 미니맵은 위성 영상 이미지를 작게 축소한 이미지일 수 있다. 미니맵은 전체 이미지 중에서 이미지 레이어(200)에 표시된 이미지의 일 부분의 좌표를 표시하기 위한 맵일 수 있다. 미니맵을 통해 현재 이미지 레이어(200)에 표시된 영역이 이미지의 어느 부분인지 확인할 수 있다. 미니맵 레이어는 전체 이미지 중에서 현재 이미지 레이어(200)에 표시된 영역에 대한 시각적 표현을 표시할 수 있다. 예를 들어, 위성 영상 이미지 중에서 컨테이너 부분이 확대되어 이미지 레이어(200)에 표시된 경우, 미니맵 레이어는 축소된 위성 영상 이미지 중에서 컨테이너 부분에 빨간색 테두리로 시각적 표현을 표시할 수 있다. 전술한 미니맵에 관한 구체적인 기재는 예시일 뿐이며 본 개시는 이에 제한되지 않는다.The image layer 200 may be displayed in the user interface together with the minimap layer. The minimap layer may be a layer different from the image layer 200. The minimap layer may be displayed by being superimposed on the image layer 200. The minimap layer can display a minimap for an image. The minimap may be a reduced whole image. For example, when the image is a satellite image, the minimap may be an image obtained by reducing the satellite image image. The mini-map may be a map for displaying coordinates of a portion of an image displayed on the image layer 200 among all images. It is possible to check which part of the image is the area currently displayed on the image layer 200 through the mini-map. The minimap layer may display a visual representation of an area displayed on the current image layer 200 among all images. For example, when a container part of the satellite image image is enlarged and displayed on the image layer 200, the minimap layer may display a visual expression with a red border on the container part of the reduced satellite image image. The detailed description of the above-described mini-map is only an example, and the present disclosure is not limited thereto.

이미지 레이어(200)는 미니맵 레이어에서 특정 좌표에 대한 사용자 입력에 대한 응답으로, 해당 좌표가 이미지 레이어(200) 상에 표시되도록 이미지를 조정하여 표시할 수 있다. 예를 들어, 사용자가 미니맵 레이어에서 빨간색 테두리 부분을 다른 영역으로 드래그 하는 경우, 이미지 레이어(200)는 다른 영역이 표시되도록 이미지를 조정하여 표시할 수 있다. 예를 들어, 사용자가 미니맵 레이어에서 특정 좌표를 클릭하면 빨간색 테두리 부분의 중심이 특정 좌표와 오버랩 되도록, 빨간색 테두리 부분이 이동할 수 있고, 그리고 이미지 레이어(200)는 이미지 레이어(200) 상에 해당 부분이 표시되도록 이미지를 조정하여 표시할 수 있다. 전술한 미니맵에 관한 구체적인 기재는 예시일 뿐이며 본 개시는 이에 제한되지 않는다.The image layer 200 may adjust and display an image so that the corresponding coordinates are displayed on the image layer 200 in response to a user input for a specific coordinate in the minimap layer. For example, when a user drags a red border portion from the minimap layer to another area, the image layer 200 may adjust and display the image so that the other area is displayed. For example, when a user clicks a specific coordinate on the minimap layer, the red border portion can be moved so that the center of the red border portion overlaps the specific coordinate, and the image layer 200 corresponds to the image layer 200 You can display it by adjusting the image so that the part is visible. The detailed description of the above-described mini-map is only an example, and the present disclosure is not limited thereto.

사용자 인터페이스는 이미지 레이어(200)와 네트워크 함수 설정 레이어를 함께 표시할 수 있다. 네트워크 함수 설정 레이어에 관하여 도 6 및 도 7을 참조하여 설명한다. 네트워크 함수 설정 레이어(600)는 네트워크 함수에 포함된 하나 이상의 채널에 대한 설정을 변경하도록 할 수 있다.The user interface may display the image layer 200 and the network function setting layer together. The network function setting layer will be described with reference to FIGS. 6 and 7. The network function setting layer 600 may change settings for one or more channels included in the network function.

네트워크 함수는 둘 이상의 채널을 포함할 수 있다. 네트워크 함수는 입력된 이미지를 둘 이상의 채널을 이용하여 연산할 수 있다. 둘 이상의 채널은 각각 상이한 필터를 이용하여 컨벌루셔널 레이어에서의 연산을 수행할 수 있다. 예를 들어, 네트워크 함수는 3개의 채널을 포함할 수 있다. 각각의 채널은 상이한 필터로 구성될 수 있으며, 네트워크 함수는 각각의 색상 채널에 대해서 학습될 수 있다. 예를 들어, 네트워크 함수의 제 1 채널은 이미지의 빨간색 색상, 제 2 채널은 초록색 색상, 제 3 채널은 파란색 색상을 처리할 수 있다(즉, R, G, B 채널). 네트워크 함수는 이미지를 복수의 채널을 이용하여 연산한 결과를 종합하여, 하나의 출력을 연산할 수 있다. 전술한 채널에 관한 구체적인 기재는 예시일 뿐이며 본 개시는 이에 제한되지 않는다.The network function may include more than one channel. The network function can calculate the input image using two or more channels. Two or more channels may each use different filters to perform an operation in the convolutional layer. For example, the network function may include three channels. Each channel can be configured with a different filter, and a network function can be learned for each color channel. For example, a first channel of the network function may process a red color of an image, a second channel may process a green color, and a third channel may process a blue color (ie, R, G, B channels). The network function can calculate one output by synthesizing the result of calculating an image using a plurality of channels. The specific description of the above-described channel is only an example, and the present disclosure is not limited thereto.

네트워크 함수 설정 레이어(600)는 둘 이상의 채널에서 각각 처리하는 이미지의 특성을 변경할 수 있다. 예를 들어, 네트워크 함수에서 빨간색 색상을 제 1 채널에서 처리하고, 파란색 색상은 제 2 채널, 그리고 초록색 색상은 제 3 채널에서 처리하도록 설정되어 있을 수 있다. 네트워크 함수 설정 레이어(600)는 각각의 채널에서 이미지의 특정한 특징을 처리하도록 변경할 수 있다. 예를 들어, 네트워크 함수 설정 레이어(600)에 표시된 디스플레이 객체에 대한 사용자 입력에 대응하여, 프로세서(120)는 제 1 채널에서 빨간색 대신 파란색을 처리하도록 변경할 수 있다. 네트워크 함수 설정 레이어(600)는 이미지의 특정한 특징이 복수개의 채널 중 어느 채널에서 처리되도록 할 지 결정할 수 있다. 예를 들어, 네트워크 함수 설정 레이어(600)에 표시된 디스플레이 객체에 대한 사용자 입력에 대응하여, 프로세서(120)는 이미지의 빨간색 색상에 대해서는 제 1 채널 대신 제 3 채널에서 처리하도록 변경할 수 있다. 도 7에 도시된 왼쪽 이미지(710)는 예를 들어, 네트워크 함수의 제 1, 2 및 3 채널에서 각각 빨간색, 초록색 및 파란색 색상을 처리하도록 설정한 이미지의 예시이다. 도 7에 도시된 오른쪽 이미지(720)는 예를 들어, 네트워크 함수의 제 1, 2 및 3 채널에서 각각 파란색, 초록색 및 빨간색 색상을 처리하도록 설정한 이미지의 예시이다. 전술한 네트워크 함수 설정에 관한 구체적인 기재는 예시일 뿐이며 본 개시는 이에 제한되지 않는다.The network function setting layer 600 may change characteristics of images processed by two or more channels, respectively. For example, in a network function, a red color may be processed in a first channel, a blue color may be processed in a second channel, and a green color may be processed in a third channel. The network function setting layer 600 may be changed to process specific characteristics of an image in each channel. For example, in response to a user input for a display object displayed on the network function setting layer 600, the processor 120 may change the first channel to process blue instead of red. The network function setting layer 600 may determine in which channel among a plurality of channels a specific feature of an image is to be processed. For example, in response to a user input for a display object displayed on the network function setting layer 600, the processor 120 may change the red color of the image to be processed in the third channel instead of the first channel. The left image 710 shown in FIG. 7 is an example of an image set to process red, green, and blue colors, respectively, in the first, second, and third channels of the network function. The right image 720 shown in FIG. 7 is an example of an image set to process blue, green, and red colors, respectively, in the first, second, and third channels of the network function. The detailed description of the above-described network function setting is only an example, and the present disclosure is not limited thereto.

이미지 레이어(200)는 라벨 대상 객체를 표시하기 위한 사용자 어노테이션 입력에 대한 응답으로, 라벨 대상 객체에 대한 어노테이션 폼(210)을 표시할 수 있다. 사용자는 이미지 레이어(200)에 표시된 이미지에 어노테이션 폼(210)을 표시함으로써, 이미지에 포함된 라벨 대상 객체의 위치를 결정하여, 학습 데이터 세트를 구축할 수 있다.The image layer 200 may display the annotation form 210 for the label object object in response to a user annotation input for displaying the label object object. By displaying the annotation form 210 on the image displayed on the image layer 200, the user can determine the location of the label target object included in the image, and build a training data set.

사용자 어노테이션 입력은 라벨 대상 객체의 영역을 표시하기 위한 영역 선택 입력일 수 있다. 라벨 대상 객체의 영역을 표시하여 학습 데이터를 생성함으로써, 프로세서(120)는 네트워크 함수를 이용하여 이미지의 연산을 통해 라벨 대상 객체의 위치 또는 라벨 대상 객체의 식별을 수행할 수 있다. 프로세서(120)는 사용자 어노테이션 입력을 이용하여 라벨 대상 객체의 위치 및 모양을 확인할 수 있다. The user annotation input may be a region selection input for displaying the region of the label target object. By displaying the area of the label object object to generate training data, the processor 120 may perform the identification of the position of the label object object or the label object object through an image operation using a network function. The processor 120 may check the location and shape of the label target object by using the user annotation input.

어노테이션 폼(210)은 하나 이상의 어노테이션 폼 모양 중 사용자 선택 입력된 하나의 어노테이션 폼 모양으로 표시될 수 있다. 예를 들어, 어노테이션 폼 모양은 사각형, 원형, 다각형 등일 수 있다. 도 2에는 예시적으로 사각형의 어노테이션 폼 모양에 기초하여 표시된 어노테이션 폼(210)을 도시하고 있으나, 본 개시는 이에 제한되는 것은 아니며, 다양한 모양으로 라벨 대상 객체 영역의 표시가 가능할 수 있다. 예를 들어, 어노테이션 폼 모양이 사각형인 경우, 사용자의 영역 선택 입력은 한번의 클릭 앤 드래그 입력일 수 있다. 예를 들어, 어노테이션 폼 모양이 다각형인 경우, 사용자의 영역 선택 입력은 복수의 클릭 앤 드래그 입력일 수 있다. 예를 들어, 사용자는 라벨 대상 객체가 비행기인 경우, 비행기 객체의 엣지를 따라서 어노테이션 폼(210)을 형성할 수 있다. 전술한 어노테이션 폼에 관한 구체적인 기재는 예시일 뿐이며 본 개시는 이에 제한되지 않는다.The annotation form 210 may be displayed in the shape of one annotation form input by user selection among one or more annotation form shapes. For example, the shape of the annotation form may be a square, a circle, a polygon, or the like. Although FIG. 2 illustrates an annotation form 210 displayed based on a rectangular annotation form shape, the present disclosure is not limited thereto, and a label target object area may be displayed in various shapes. For example, when the shape of the annotation form is a rectangle, the user's region selection input may be a single click and drag input. For example, when the shape of the annotation form is a polygon, the user's region selection input may be a plurality of click-and-drag inputs. For example, when the label target object is an airplane, the user may form the annotation form 210 along the edge of the airplane object. The detailed description of the above-described annotation form is only an example, and the present disclosure is not limited thereto.

이미지 레이어(200)는 사용자의 어노테이션 폼(210) 입력에 대응하여 라벨 대상 객체의 크기 또는 위치 좌표 중 적어도 하나를 표시할 수 있다. 이미지 레이어(200)는 이미지에 지리 좌표계 등의 메타 데이터가 포함된 경우, 사용자의 어노테이션 폼(210) 입력에 대응하여 라벨 대상 객체의 크기 또는 위치 좌표를 표시할 수 있다. 예를 들어, 이미지 레이어(200)는 어노테이션 폼(210)이 입력된 부분의 미터 단위 크기를 표시할 수 있다. 이미지 레이어(200)는 어노테이션 폼(210)이 입력된 부분의 위도, 경도 등의 좌표를 표시할 수 있다. 예를 들어, 이미지 레이어(200)는 컨테이너 박스에 대한 어노테이션 폼(210) 입력에 대응하여, 컨테이너의 크기인 113m * 219m를 표시할 수 있다. 이미지 레이어(200)는 이미지에 메타 데이터가 포함되지 않은 경우, 사용자의 어노테이션 폼(210) 입력에 대응하여 라벨 대상 객체의 픽셀 단위 크기를 표시할 수 있다. 예를 들어, 컨테이너 박스에 대한 어노테이션 폼(210) 입력에 대응하여, 컨테이너의 이미지 상에서의 픽셀 단위인 120pix * 180pix를 표시할 수 있다. 전술한 어노테이션 폼에 관한 구체적인 기재는 예시일 뿐이며 본 개시는 이에 제한되지 않는다.The image layer 200 may display at least one of the size or position coordinates of the label target object in response to the user's input of the annotation form 210. When the image includes metadata such as a geographic coordinate system, the image layer 200 may display the size or position coordinates of the label target object in response to the user's input of the annotation form 210. For example, the image layer 200 may display the size in meters of a portion to which the annotation form 210 is input. The image layer 200 may display coordinates, such as latitude and longitude, of a portion where the annotation form 210 is input. For example, the image layer 200 may display a container size of 113m * 219m in response to an annotation form 210 input to a container box. When the image does not contain metadata, the image layer 200 may display the size of the label target object in pixels in response to the user's input of the annotation form 210. For example, in response to the annotation form 210 input to the container box, 120pix * 180pix, which is a pixel unit of the container image, may be displayed. The detailed description of the above-described annotation form is only an example, and the present disclosure is not limited thereto.

사용자 어노테이션 입력은 어노테이션 폼(210)의 위치, 크기 또는 각도 중 적어도 하나를 변경하기 위한 영역 조정 입력을 포함할 수 있다. 사용자 어노테이션 입력은 어노테이션 폼(210)을 삭제하기 위한 입력을 포함할 수 있다. 예를 들어, 어노테이션 폼(210)에 대한 사용자의 클릭 앤 드래그 입력에 대응하여 어노테이션 폼(210)이 조정될 수 있다. 예를 들어, 어노테이션 폼(210) 내의 영역에 대한 클릭 앤 드래그 입력에 대한 응답으로 이미지 레이어(200)는 어노테이션 폼(210)을 드래그 방향에 대응되게 이동시켜 표시할 수 있다. 도 4를 참조하여 설명하면, 사용자의 어노테이션 폼에 대한 위치를 조정하기 위한 입력에 대응하여, 이미지 레이어(200)는 제 1 위치(410)의 어노테이션 폼을 제 2 위치(420)로 이동시켜 표시할 수 있다. 예를 들어, 어노테이션 폼(210)의 테두리 또는 모서리에 대한 클릭 앤 드래그 입력에 대한 응답으로 이미지 레이어(200)는 어노테이션 폼(210)을 드래그 방향에 대응되게 크기를 조정하여 표시할 수 있다. 예를 들어, 어노테이션 폼(210) 밖에 어노테이션 폼과 연결된 원 부분에 대한 클릭 앤 드래그 입력에 대한 응답으로 이미지 레이어(200)는 어노테이션 폼(210)을 드래그 방향에 대응되게 각도를 조정하여 표시할 수 있다. 예를 들어, 어노테이션 폼(210)에 대한 클릭 및 키보드 상에서의 Delete키에 대한 입력에 기초하여 이미지 레이어(200)는 어노테이션 폼(210) 표시를 삭제할 수 있다. 전술한 어노테이션 폼에 관한 구체적인 기재는 예시일 뿐이며 본 개시는 이에 제한되지 않는다.The user annotation input may include a region adjustment input for changing at least one of a position, a size, or an angle of the annotation form 210. The user annotation input may include an input for deleting the annotation form 210. For example, the annotation form 210 may be adjusted in response to a user's click-and-drag input on the annotation form 210. For example, in response to a click-and-drag input for an area within the annotation form 210, the image layer 200 may move and display the annotation form 210 in correspondence with the drag direction. Referring to FIG. 4, in response to an input for adjusting the position of the user's annotation form, the image layer 200 moves and displays the annotation form at the first position 410 to the second position 420. can do. For example, in response to a click-and-drag input on a border or corner of the annotation form 210, the image layer 200 may display the annotation form 210 by adjusting its size to correspond to the drag direction. For example, in response to a click-and-drag input on a circle part connected to the annotation form outside the annotation form 210, the image layer 200 may display the annotation form 210 by adjusting the angle corresponding to the drag direction. have. For example, based on a click on the annotation form 210 and an input to the Delete key on a keyboard, the image layer 200 may delete the annotation form 210 display. The detailed description of the above-described annotation form is only an example, and the present disclosure is not limited thereto.

이미지 레이어는 이미지에 포함된 제 1 어노테이션 폼(510)을 복사하기 위한 사용자의 복사 입력에 대한 응답으로, 제 1 어노테이션 폼(510)과 동일한 형태의 제 2 어노테이션 폼(520)을 추가로 표시할 수 있다. 도 5는 어노테이션 폼을 복사하는 예시를 도시한 도면이다. 예를 들어, 제 1 어노테이션 폼(510)의 안쪽 영역에 대한 마우스 오른쪽 버튼으로의 클릭 앤 드래그 입력에 기초하여, 이미지 레이어(200)는 드래그 된 부분에 제 1 어노테이션 폼(510)과 동일한 크기, 모양 및 각도의 제 2 어노테이션 폼(520)을 표시할 수 있다. 이미지에는 둘 이상의 라벨 대상 객체가 포함될 수 있다. 이미지에 포함된 적어도 일부의 라벨 대상 객체들은 동일한 형태의 라벨 대상 객체일 수 있다. 사용자가 동일한 형태의 라벨 대상 객체들에 대해서 각각 어노테이션 폼을 생성하는 경우, 시간이 많이 소요될 수 있다. 특히, 어노테이션 폼이 사각형이 아닌 객체의 모서리를 따라 표시하는 다각형인 경우에는 시간이 더 많이 소요될 수 있다. 따라서, 어노테이션 폼의 복사 기능을 이용하여 동일한 형태의 라벨 대상 객체에 대해서 어노테이션 표시를 쉽고 빠르게 수행할 수 있다. 또한, 어노테이션 폼의 복사 기능을 이용하는 경우, 학습 데이터 생성 효율이 증대될 수 있다. 전술한 어노테이션 폼에 관한 구체적인 기재는 예시일 뿐이며 본 개시는 이에 제한되지 않는다.In response to the user's copy input for copying the first annotation form 510 included in the image, the image layer may additionally display a second annotation form 520 having the same form as the first annotation form 510. I can. 5 is a diagram illustrating an example of copying an annotation form. For example, based on a click-and-drag input with a right mouse button on the inner area of the first annotation form 510, the image layer 200 is the same size as the first annotation form 510 in the dragged portion, A second annotation form 520 having a shape and an angle may be displayed. An image may contain more than one object to be labeled. At least some of the label target objects included in the image may be the label target objects of the same type. When a user creates an annotation form for each of the objects to be labeled with the same type, it may take a lot of time. In particular, it may take more time if the annotation form is a polygon that is displayed along the edge of an object rather than a rectangle. Therefore, it is possible to quickly and easily perform annotation display on the label target object of the same type by using the copy function of the annotation form. In addition, when the copy function of the annotation form is used, the efficiency of generating learning data may be increased. The detailed description of the above-described annotation form is only an example, and the present disclosure is not limited thereto.

이미지 레이어(200)는 이미지에 포함된 제 1 라벨 대상 객체에 대한 제 1 어노테이션 폼 표시에 대한 응답으로, 제 1 라벨 대상 객체와 관련된 제 2 라벨 대상 객체에 대해, 제 1 어노테이션 폼에 기초한 제 2 어노테이션 폼을 제 2 라벨 대상 객체에 추가로 표시할 수 있다. 프로세서(120)는 제 1 라벨 대상 객체에 대한 제 1 어노테이션 폼 표시 입력을 수신할 수 있다. 프로세서(120)는 이미지에 포함된 제 1 라벨 대상 객체와 동일한 형태의 제 2 라벨 대상 객체를 확인할 수 있다. 프로세서(120)는 제 2 라벨 대상 객체에 대해서 제 1 어노테이션 폼과 동일한 형태의 제 2 어노테이션 폼을 표시할 수 있다. 즉, 사용자가 제 2 라벨 대상 객체에 대해서 어노테이션 폼 표시를 별도로 하지 않을 경우에도, 사용자가 제 1 라벨 대상 객체에 대해서 어노테이션 폼을 표시한 경우, 프로세서(120)는 동일한 형태의 제 2 라벨 대상 객체에 자동으로 어노테이션 폼을 표시할 수 있다. 이미지에는 동일한 형태의 복수의 라벨 대상 객체들이 포함될 수 있다. 예를 들어, 위성 영상 이미지에는 동일한 형태의 컨테이너 박스들이 포함될 수 있다. 사용자가 컨테이너 박스들 중 하나의 컨테이너 박스에 대해서만 어노테이션 폼을 표시하더라도, 프로세서(120)는 동일한 형태를 가지는 나머지 다른 컨테이너 박스들에 대해서도 어노테이션 폼을 표시할 수 있다. 이미지에 동일한 형태의 라벨 대상 객체들이 복수 개 포함된 경우가 있을 수 있다. 복수개의 라벨 대상 객체들 각각에 대해서 사용자가 하나씩 각각 어노테이션 폼을 표시하는 경우, 시간 및 비용 소모가 상당할 수 있다. 본 개시의 일 실시예에 따라 프로세서(120)가 하나의 라벨 대상 객체에 대한 입력에 대응하여 나머지 동일한 형태의 라벨 대상 객체들에 대해서도 어노테이션 폼을 생성함으로써, 사용자의 시간 및 비용 소모를 줄일 수 있다. 전술한 어노테이션 폼에 관한 구체적인 기재는 예시일 뿐이며 본 개시는 이에 제한되지 않는다.In response to the display of the first annotation form for the first label target object included in the image, the image layer 200 includes a second label target object related to the first label target object, based on the first annotation form. An annotation form may be additionally displayed on the second label target object. The processor 120 may receive a first annotation form display input for the first label target object. The processor 120 may check the second label target object having the same shape as the first label target object included in the image. The processor 120 may display the second annotation form in the same form as the first annotation form with respect to the second label target object. That is, even if the user does not separately display the annotation form for the second label target object, if the user displays the annotation form for the first label target object, the processor 120 is the same type of the second label target object. You can display the annotation form automatically in the. A plurality of label target objects of the same shape may be included in the image. For example, container boxes of the same shape may be included in a satellite image. Even if the user displays the annotation form for only one of the container boxes, the processor 120 may also display the annotation form for other container boxes having the same shape. There may be a case in which an image includes a plurality of objects to be labeled with the same type. When a user displays an annotation form for each of a plurality of label target objects, one by one, time and cost may be consumed. According to an embodiment of the present disclosure, the processor 120 generates an annotation form for the remaining label target objects of the same type in response to an input for one label target object, thereby reducing the time and cost consumption of the user. . The detailed description of the above-described annotation form is only an example, and the present disclosure is not limited thereto.

이미지 레이어(200)는 이미지 레이어(200)에 포함된 복수의 라벨 대상 객체들에 대한 수도(pseudo) 어노테이션 폼을 생성하여 표시할 수 있다.The image layer 200 may generate and display a pseudo annotation form for a plurality of label target objects included in the image layer 200.

본 개시의 일 실시예에 따라 프로세서(120)는 이미지에 포함된 복수의 라벨 대상 객체 중 일부 라벨 대상 객체에 대한 어노테이션 폼에 대한 사용자 입력을 수신할 수 있다. 프로세서(120)는 어노테이션 폼 사용자 입력을 수신한 라벨 대상 객체들과 관련이 있는 라벨 대상 객체들에, 상기 어노테이션 폼 사용자 입력을 참고하여, 수도 어노테이션 폼을 표시할 수 있다. 예를 들어, 이미지에 3개의 전투기 라벨 대상 객체, 5개의 컨테이너 라벨 대상 객체가 포함되어 있을 수 있다. 프로세서(120)는 적어도 하나의 전투기 라벨 대상 객체 및 적어도 하나의 컨테이너 라벨 대상 객체에 대해서 어노테이션 폼이 입력된 경우, 나머지 동일한 형태를 가지는 2개의 전투기 라벨 대상 객체 및 4개의 컨테이너 라벨 객체에 대해서 수도 어노테이션 폼을 생성하여, 이미지 레이어(200)에 표시할 수 있다. 전술한 수도 어노테이션 폼에 관한 구체적인 기재는 예시일 뿐이며 본 개시는 이에 제한되지 않는다.According to an embodiment of the present disclosure, the processor 120 may receive a user input for an annotation form for some of a plurality of label target objects included in an image. The processor 120 may display a capital annotation form on label target objects related to the label target objects that have received the annotation form user input, with reference to the annotation form user input. For example, the image may include 3 fighter label target objects and 5 container label target objects. When an annotation form is input for at least one fighter label target object and at least one container label target object, the processor 120 may also annotate two fighter label target objects and four container label objects having the same shape. A form may be created and displayed on the image layer 200. The specific description of the aforementioned capital annotation form is only an example, and the present disclosure is not limited thereto.

본 개시의 일 실시예에 따라 프로세서(120)는 이미지에 포함된 라벨 대상 객체들을 식별할 수 있다. 프로세서(120)는 이미지에 포함된 엣지들을 검출할 수 있다. 예를 들어, 프로세서(120) 캐니 엣지 디텍션(canny edge detection), 해리스 코너 디텍션(harris corner detection) 등을 이용하여 이미지에 포함된 엣지들을 검출할 수 있다. 프로세서(120)는 이미지에 포함된 엣지들을 이용하여 이미지에 포함된 객체들을 식별할 수 있다. 프로세서(120)는 식별된 객체들의 엣지를 따라 수도 어노테이션 폼을 생성할 수 있다. 전술한 수도 어노테이션 폼에 관한 구체적인 기재는 예시일 뿐이며 본 개시는 이에 제한되지 않는다.According to an embodiment of the present disclosure, the processor 120 may identify label target objects included in an image. The processor 120 may detect edges included in the image. For example, the processor 120 may detect edges included in the image using canny edge detection, harris corner detection, or the like. The processor 120 may identify objects included in the image using edges included in the image. The processor 120 may generate a capital annotation form along the edges of the identified objects. The specific description of the aforementioned capital annotation form is only an example, and the present disclosure is not limited thereto.

이미지 레이어(200)는 하나 이상의 라벨 대상 객체에 대한 수도 어노테이션 폼을 표시하고, 그리고 수도 어노테이션 폼에 대한 사용자의 정답 또는 오류 입력을 수신할 수 있다. 예를 들어, 이미지 레이어(200)는 이미지에 포함된 둘 이상의 수도 어노테이션 폼들을 차례 대로 하나씩 표시할 수 있다. 프로세서(120)는 수도 어노테이션 폼이 하나씩 표시될 때 마다, 사용자가 해당 수도 어노테이션 폼에 대한 정상 또는 오류 입력을 표시하도록 할 수 있다. 또는, 이미지 레이어(200)는 이미지에 포함된 둘 이상의 수도 어노테이션 폼들을 표시할 수 있다. 프로세서(120)는 이미지 레이어(200)에 표시된 둘 이상의 수도 어노테이션 폼들 중 정상인 수도 어노테이션 폼들만 선택하거나, 또는 오류인 수도 어노테이션 폼들만 선택하도록 할 수도 있다. 전술한 수도 어노테이션 폼에 관한 구체적인 기재는 예시일 뿐이며 본 개시는 이에 제한되지 않는다.The image layer 200 may display a capital annotation form for one or more label target objects, and receive a user's correct answer or an error input for the capital annotation form. For example, the image layer 200 may sequentially display two or more capital annotation forms included in an image one by one. The processor 120 may cause the user to display a normal or error input for the corresponding water supply annotation form each time the water supply annotation form is displayed one by one. Alternatively, the image layer 200 may display two or more number annotation forms included in the image. The processor 120 may select only normal capital annotation forms from among two or more capital annotation forms displayed on the image layer 200 or select only erroneous capital annotation forms. The specific description of the aforementioned capital annotation form is only an example, and the present disclosure is not limited thereto.

사용자 인터페이스는 이미지 레이어(200) 및 라벨 레이어(300)를 표시할 수 있다. 이하에서는 도 3을 참조하여 설명한다. 프로세서(120)는 이미지 레이어(200)에서의 사용자 어노테이션 입력에 대한 응답으로 라벨 레이어(300)를 사용자 인터페이스에 표시할 수 있다.The user interface may display an image layer 200 and a label layer 300. Hereinafter, it will be described with reference to FIG. 3. The processor 120 may display the label layer 300 on the user interface in response to a user annotation input from the image layer 200.

라벨 레이어(300)는 이미지 레이어(200)와 분리된 레이어일 수 있다. 라벨 레이어(300)는 이미지 레이어(200)와 상이한 크기의 레이어일 수 있다. 라벨 레이어(300)는 이미지 레이어(200)보다 작은 크기의 레이어일 수 있다. 라벨 레이어(300)는 이미지 레이어(200)의 상위 레이어일 수 있다. 즉, 라벨 레이어(300)는 이미지 레이어(200) 보다 상위에 표시되어, 라벨 레이어(300)에 의해 이미지 레이어(200)의 적어도 일부가 가려질 수 있다.The label layer 300 may be a layer separated from the image layer 200. The label layer 300 may be a layer having a size different from that of the image layer 200. The label layer 300 may be a layer having a size smaller than that of the image layer 200. The label layer 300 may be an upper layer of the image layer 200. That is, the label layer 300 is displayed above the image layer 200, and at least a part of the image layer 200 may be covered by the label layer 300.

라벨 레이어(300)는 이미지 레이어(200)와 독립적으로 이동될 수 있다. 즉, 라벨 레이어(300)는 플로팅(floating) 레이어일 수 있다. 라벨 레이어(300)의 크기는 사용자 입력에 기초하여 조정될 수 있다. 예를 들어, 이미지 레이어(200)의 오른쪽 하단에 있는 라벨 대상 객체를 확인하고자 할 때, 오른쪽 하단에 위치한 라벨 레이어(300)를 다른 위치로 이동시킬 수 있다. 전술한 라벨 레이어에 관한 구체적인 기재는 예시일 뿐이며 본 개시는 이에 제한되지 않는다.The label layer 300 may be moved independently from the image layer 200. That is, the label layer 300 may be a floating layer. The size of the label layer 300 may be adjusted based on a user input. For example, when it is desired to check the label target object at the lower right of the image layer 200, the label layer 300 located at the lower right may be moved to a different position. The detailed description of the above-described label layer is only an example, and the present disclosure is not limited thereto.

라벨 레이어(300)는 라벨 대상 객체의 라벨에 포함된 둘 이상의 계층 각각에 대한 클래스를 입력하기 위한 사용자 클래스 입력을 허용할 수 있다. 라벨 레이어(300)에서의 사용자 클래스 입력에 기초하여 라벨 대상 객체에 대응되는 학습 데이터를 생성할 수 있다. 라벨 레이어(300)에서의 사용자 클래스 입력에 기초하여 라벨 대상 객체에 대한 네트워크 모델 연산에서의 정답을 결정할 수 있다.The label layer 300 may allow input of a user class to input a class for each of two or more layers included in a label of a label target object. Learning data corresponding to the label target object may be generated based on the user class input in the label layer 300. Based on the user class input in the label layer 300, a correct answer in the network model calculation for the label target object may be determined.

라벨 레이어(300)는 제 1 계층에 대응되는 제 1 클래스 표시 객체(312), 제 2 계층에 대응되는 제 2 클래스 표시 객체(314), 계층 추가 객체(322) 및 계층 삭제 객체(324)를 표시할 수 있다.The label layer 300 includes a first class display object 312 corresponding to a first layer, a second class display object 314 corresponding to a second layer, a layer addition object 322, and a layer deletion object 324. Can be displayed.

클래스 표시 객체(312, 314, 316)는 라벨 대상 객체의 계층들 각각이 어떤 클래스인지를 나타내기 위한 디스플레이 객체일 수 있다. 예를 들어, 라벨 대상 객체에 대해서 제 1 계층에 대한 클래스가 항공 모함, 제 2 계층에 대한 클래스가 컨테이너 박스라는 사용자 입력을 수신한 경우, 제 1 클래스 표시 객체(312)는 항공 모함을 표시할 수 있고, 그리고 제 2 클래스 표시 객체(314)는 컨테이너 박스를 표시할 수 있다. 즉, 클래스 표시 객체(312, 314, 316)는 사용자가 입력하였거나, 또는 수도 라벨로 생성된 라벨을 표시하기 위한 디스플레이 객체일 수 있다. 전술한 클래스 표시 객체에 관한 구체적인 기재는 예시일 뿐이며 본 개시는 이에 제한되지 않는다.The class display objects 312, 314, and 316 may be display objects for indicating which class each of the layers of the label target object is. For example, when receiving a user input that the class for the first layer is an aircraft carrier and the class for the second layer is a container box for the label object object, the first class display object 312 may display an aircraft carrier. And the second class display object 314 may display a container box. That is, the class display objects 312, 314, and 316 may be display objects for displaying a label input by a user or generated as a capital label. The detailed description of the above-described class display object is only an example, and the present disclosure is not limited thereto.

라벨 레이어(300)는 계층 추가 객체(322)에 대한 사용자 입력에 대한 응답으로 제 3 계층에 대응되는 제 3 클래스 표시 객체(316)를 더 표시할 수 있다. 예를 들어, 라벨 대상 객체가 3개의 계층으로 표시될 수 있고, 2개의 계층에 대한 클래스 표시 객체만 라벨 레이어(300)에 표시된 경우, 계층 추가 객체(322)를 이용하여 계층을 추가할 수 있다. 전술한 클래스 표시 객체에 관한 구체적인 기재는 예시일 뿐이며 본 개시는 이에 제한되지 않는다.The label layer 300 may further display a third class display object 316 corresponding to the third layer in response to a user input to the layer addition object 322. For example, when a label target object may be displayed in three layers, and only class display objects for two layers are displayed on the label layer 300, a layer may be added using the layer addition object 322 . The detailed description of the above-described class display object is only an example, and the present disclosure is not limited thereto.

라벨 레이어(300)는 계층 삭제 객체(324)에 대한 사용자 입력에 대한 응답으로 제 2 계층에 대응되는 제 2 클래스 표시 객체(314)를 삭제할 수 있다. 예를 들어, 제 1 계층 및 제 2 계층 각각에 대응되는 클래스 표시 객체들이 라벨 레이어(300)에 표시되어 있고, 그리고 라벨을 하나의 계층으로만 나타내고자 하는 경우, 프로세서(120)는 제 2 계층에 대응되는 제 2 클래스 표시 객체(314)를 삭제하기 위한 사용자 입력을 수신할 수 있다. 라벨 레이어(300)는 사용자의 삭제 입력에 대한 응답으로, 제 1 클래스 표시 객체(312)만 표시할 수 있다. 전술한 클래스 표시 객체에 관한 구체적인 기재는 예시일 뿐이며 본 개시는 이에 제한되지 않는다.The label layer 300 may delete the second class display object 314 corresponding to the second layer in response to a user input to the layer deletion object 324. For example, when class display objects corresponding to each of the first layer and the second layer are displayed on the label layer 300, and if the label is to be displayed in only one layer, the processor 120 may use the second layer. A user input for deleting the second class display object 314 corresponding to. The label layer 300 may display only the first class display object 312 in response to a user's deletion input. The detailed description of the above-described class display object is only an example, and the present disclosure is not limited thereto.

라벨 레이어(300)는 템플릿 클래스 선택 영역(330)을 표시할 수 있다.The label layer 300 may display the template class selection area 330.

본 개시의 일 실시예에 따라 템플릿 클래스 선택 영역(330)은 제 1 계층에 대응되는 하나 이상의 제 1 템플릿 클래스 및 제 2 계층에 대응되는 하나 이상의 제 2 템플릿 클래스를 표시할 수 있다. 템플릿 클래스 선택 영역(330)은 하나 이상의 계층 각각에 대응되는 하나 이상의 템플릿 클래스들을 표시할 수 있다. 프로세서(120)는 템플릿 클래스 선택 영역(330)에 표시된 템플릿 클래스들에 대한 사용자 입력을 수신할 수 있다. 프로세서(120)는 템플릿 클래스 선택 영역(330)에 표시된 복수의 템플릿 클래스들 중 제 1 계층의 제 1 템플릿 클래스 및 제 2 계층의 제 2 템플릿 클래스 각각에 대한 선택 입력을 수신할 수 있다. 예를 들어, 템플릿 클래스 선택 영역(330)은 제 1 계층에 대해서 제 1 템플릿 클래스들(항공 모함, 바다)에 대한 디스플레이 객체들을 표시할 수 있다. 템플릿 클래스 선택 영역(330)은 제 2 계층에 대해서 제 2 템플릿 클래스들(탱크, 컨테이너, 비행기)에 대한 디스플레이 객체들을 표시할 수 있다. 사용자는 제 1 계층에 대해서 하나의 템플릿 클래스를 선택하고, 그리고 제 2 계층에 대해서 하나의 템플릿 클래스를 선택할 수 있다. 전술한 템플릿 클래스에 관한 구체적인 기재는 예시일 뿐이며 본 개시는 이에 제한되지 않는다.According to an embodiment of the present disclosure, the template class selection area 330 may display one or more first template classes corresponding to a first layer and one or more second template classes corresponding to a second layer. The template class selection area 330 may display one or more template classes corresponding to each of one or more layers. The processor 120 may receive a user input for template classes displayed in the template class selection area 330. The processor 120 may receive a selection input for each of the first template class of the first layer and the second template class of the second layer among a plurality of template classes displayed in the template class selection area 330. For example, the template class selection area 330 may display display objects for first template classes (aircraft carrier, sea) for the first layer. The template class selection area 330 may display display objects for second template classes (tank, container, airplane) for the second layer. The user may select one template class for the first layer and one template class for the second layer. Detailed description of the above-described template class is merely an example, and the present disclosure is not limited thereto.

라벨 레이어(300)는 제 1 템플릿 클래스 또는 제 2 템플릿 클래스 중 적어도 하나에 대한 사용자 라벨 입력에 응답하여, 제 1 계층에 대응되는 제 1 클래스 표시 객체(312) 또는 제 2 계층에 대응되는 제 2 클래스 표시 객체(314) 중 적어도 하나에 사용자 라벨 입력에 대응되는 제 1 템플릿 클래스 또는 제 2 템플릿 클래스 중 적어도 하나를 각각 표시할 수 있다. 즉, 라벨 레이어(300)의 클래스 표시 객체(312, 314, 316)는 템플릿 클래스 선택 영역(330)에서의 계층 별 사용자의 템플릿 클래스 선택 입력에 대응되어 클래스를 표시할 수 있다. 전술한 템플릿 클래스에 관한 구체적인 기재는 예시일 뿐이며 본 개시는 이에 제한되지 않는다.The label layer 300 is a first class display object 312 corresponding to the first layer or a second class display object 312 corresponding to the second layer in response to a user label input for at least one of the first template class and the second template class. At least one of a first template class or a second template class corresponding to a user label input may be displayed on at least one of the class display objects 314, respectively. That is, the class display objects 312, 314, and 316 of the label layer 300 may display a class in response to a user's template class selection input for each layer in the template class selection area 330. Detailed description of the above-described template class is merely an example, and the present disclosure is not limited thereto.

본 개시의 일 실시예에 따라 템플릿 클래스 선택 영역(330)은 제 1 계층 및 제 2 계층 각각에 대응되는 템플릿 클래스 쌍을 표시할 수 있다. 예를 들어, 템플릿 클래스 선택 영역(330)은 제 1 계층 및 제 2 계층에 대해서, '항공 모함/탱크', '항공 모함/컨테이너', '항공 모함/비행기' 템플릿 클래스 쌍들을 표시할 수 있다. 프로세서(120)는 복수의 템플릿 클래스 쌍들 중, 하나의 템플릿 클래스에 대한 사용자 라벨 입력을 수신할 수 있다. 사용자는 항공 모함 위에 컨테이너가 올려져 있는 이미지에서, 컨테이너 라벨 대상 객체에 대한 라벨을 결정할 때, 템플릿 클래스 선택 영역(330)의 '항공 모함/컨테이너'를 선택할 수 있다. 전술한 템플릿 클래스에 관한 구체적인 기재는 예시일 뿐이며 본 개시는 이에 제한되지 않는다.According to an embodiment of the present disclosure, the template class selection area 330 may display a template class pair corresponding to each of the first layer and the second layer. For example, the template class selection area 330 may display'aircraft carrier/tank','aircraft carrier/container', and'aircraft carrier/airplane' template class pairs for the first layer and the second layer. . The processor 120 may receive a user label input for one template class from among a plurality of template class pairs. The user may select'aircraft carrier/container' of the template class selection area 330 when determining a label for an object to be labeled with a container from an image in which the container is placed on the aircraft carrier. Detailed description of the above-described template class is merely an example, and the present disclosure is not limited thereto.

템플릿 클래스 선택 영역(330)은 제 1 계층에 대응되는 제 1 추가 템플릿 클래스 또는 상기 제 2 계층에 대응되는 제 2 추가 템플릿 클래스 중 적어도 하나에 대한 사용자 입력의 응답으로, 추가 템플릿 클래스들을 더 표시할 수 있다.The template class selection area 330 may further display additional template classes in response to a user input to at least one of a first additional template class corresponding to the first layer or a second additional template class corresponding to the second layer. I can.

라벨 레이어(300)는 템플릿 클래스 추가 디스플레이 객체(340)를 표시할 수 있다. 템플릿 클래스 추가 디스플레이 객체(340)에 대한 사용자 선택 입력에 대한 응답으로, 사용자가 추가적인 템플릿 클래스를 추가하도록 할 수 있다. 프로세서(120)는 적어도 하나의 계층에 대한 적어도 하나의 추가적인 템플릿 클래스를 입력 받을 수 있다. 또는, 프로세서(120)는 복수의 계층들에 대응되는 추가적인 템플릿 클래스 쌍을 입력 받을 수 있다. 전술한 템플릿 클래스에 관한 구체적인 기재는 예시일 뿐이며 본 개시는 이에 제한되지 않는다.The label layer 300 may display a template class additional display object 340. Add Template Class In response to a user selection input for the display object 340, the user may add an additional template class. The processor 120 may receive at least one additional template class for at least one layer. Alternatively, the processor 120 may receive an additional pair of template classes corresponding to a plurality of layers. Detailed description of the above-described template class is merely an example, and the present disclosure is not limited thereto.

프로세서(120)는 이미지에 포함된 제 1 라벨 대상 객체에 대한 제 1 클래스 입력에 대한 응답으로, 제 1 라벨 대상 객체와 관련된 다른 라벨 대상 객체에 대해 제 1 클래스를 라벨로 결정할 수 있다. 프로세서(120)는 이미지에 포함된 제 1 라벨 대상 객체와 동일한 형태의 라벨 대상 객체를 식별할 수 있다. 프로세서(120)는 이미지에 포함된 제 1 라벨 대상 객체와 동일한 형태의 라벨 대상 객체의 라벨을 제 1 클래스로 결정할 수 있다. 예를 들어, 이미지에 복수의 비행기 라벨 대상 객체가 포함되어 있을 수 있다. 하나의 비행기 라벨 대상 객체에 대한 사용자의 클래스 입력(제 1 계층/제 2 계층: '항공 모함/비행기')에 대응하여, 프로세서(120)는 나머지 동일한 형태의 비행기 라벨 대상 객체들에 대해서도 '항공 모함/비행기'로 제 1 계층 및 제 2 계층의 클래스를 결정할 수 있다. 전술한 라벨링에 관한 구체적인 기재는 예시일 뿐이며 본 개시는 이에 제한되지 않는다.In response to an input of the first class for the first label target object included in the image, the processor 120 may determine the first class as a label for other label target objects related to the first label target object. The processor 120 may identify a label target object having the same shape as the first label target object included in the image. The processor 120 may determine a label of the label target object having the same shape as the first label target object included in the image as the first class. For example, the image may include a plurality of objects to be labeled with an airplane. In response to the user's class input for one plane label object object (first layer/second layer:'aircraft carrier/airplane'), the processor 120 also performs'aircraft labeling' for the remaining plane label object objects of the same type. Classes of the first tier and the second tier may be determined as'mothership/airplane'. The specific description of the above-described labeling is only an example, and the present disclosure is not limited thereto.

프로세서(120)는 이미지에 포함된 제 1 라벨 대상 객체에 대한 제 1 클래스 입력에 대한 응답으로, 제 1 라벨 대상 객체와 관련되지 않은 제 2 라벨 대상 객체에 대해 제 1 클래스와 상이한 클래스인 제 2 클래스를 라벨로 결정할 수 있다. 프로세서(120)는 이미지에 포함된 제 1 라벨 대상 객체와 상이한 형태의 라벨 대상 객체를 식별할 수 있다. 프로세서(120)는 이미지에 포함된 제 1 라벨 대상 객체와 상이한 형태의 라벨 대상 객체의 라벨을 제 1 클래스와 상이한 클래스인 제 2 클래스로 결정할 수 있다. 예를 들어, 이미지에 비행기 라벨 대상 객체 및 컨테이너 라벨 대상 객체가 포함되어 있을 수 있다. 비행기 라벨 대상 객체에 대한 사용자의 클래스 입력(제 1 계층/제 2 계층: '항공 모함/비행기')에 대응하여, 프로세서(120)는 비행기 라벨 대상 객체와 상이한 형태의 컨테이너 라벨 대상 객체에 대해서 다른 클래스인'항공 모함/컨테이너'로 라벨을 결정할 수 있다. 전술한 라벨링에 관한 구체적인 기재는 예시일 뿐이며 본 개시는 이에 제한되지 않는다.In response to the input of the first class for the first label target object included in the image, the processor 120 provides a second label target object that is not related to the first label target object, which is a different class from the first class. Class can be determined by label. The processor 120 may identify a label target object having a different shape from the first label target object included in the image. The processor 120 may determine a label of the label target object in a form different from the first label target object included in the image as a second class that is a class different from the first class. For example, the image may include an airplane label target object and a container label target object. In response to the user's class input (first layer/second layer:'aircraft carrier/airplane') for the airplane label object object, the processor 120 is different for the container label object object of a different type from the airplane label object object. The label can be determined by the class'aircraft carrier/container'. The specific description of the above-described labeling is only an example, and the present disclosure is not limited thereto.

프로세서(120)는 어노테이션 폼에 포함된 객체 및 사용자 클래스 입력에 대응되는 라벨을 포함하는 학습 데이터를 생성할 수 있다.The processor 120 may generate learning data including an object included in the annotation form and a label corresponding to a user class input.

본 개시의 일 실시예에 따라 프로세서(120)는 이미지 전체를 이용하여 학습 데이터 세트를 구축할 수 있다. 즉, 프로세서(120)는 학습 데이터 세트에 이미지 및 이미지에 대응되어 생성된 라벨을 포함시킬 수 있다. 프로세서(120)는 이미지를 학습 데이터 세트의 입력 데이터로 결정할 수 있다. 프로세서(120)는 이미지에 포함된 라벨 대상 객체들 각각에 대한 위치를 표시하는 어노테이션 폼(210) 및 라벨 대상 객체들에 대한 라벨을 학습 데이터 세트의 정답으로 결정할 수 있다. 예를 들어, 프로세서(120)는 위성 영상에서 추출된 위성 영상 이미지를 학습 데이터의 입력 데이터로 결정할 수 있다. 예를 들어, 프로세서(120)는 위성 영상 이미지에 포함된 전투기 라벨 대상 객체에 대한 어노테이션 폼(210) 및 라벨(제 1 계층: 항공 모함 / 제 2 계층: 전투기) 및 컨테이너 라벨 대상 객체에 대한 어노테이션 폼(210) 및 라벨(제 1 계층: 항공 모함 / 제 2 계층: 컨테이너)를 학습 데이터의 정답(즉, 입력 데이터의 라벨)으로 결정할 수 있다. 전술한 학습 데이터 세트에 관한 구체적인 기재는 예시일 뿐이며 본 개시는 이에 제한되지 않는다.According to an embodiment of the present disclosure, the processor 120 may construct a training data set using the entire image. That is, the processor 120 may include an image and a label generated corresponding to the image in the training data set. The processor 120 may determine the image as input data of the training data set. The processor 120 may determine the annotation form 210 indicating the location of each of the label target objects included in the image and the labels for the label target objects as correct answers of the training data set. For example, the processor 120 may determine the satellite image image extracted from the satellite image as input data of the training data. For example, the processor 120 is an annotation form 210 for a fighter label target object included in a satellite image image and an annotation for a label (first layer: aircraft carrier / second layer: fighter) and container label target object. The form 210 and the label (first layer: aircraft carrier / second layer: container) may be determined as the correct answer of the training data (ie, the label of the input data). Detailed description of the above-described training data set is only an example, and the present disclosure is not limited thereto.

본 개시의 일 실시예에 따라 프로세서(120)는 어노테이션 입력을 통해 생성된 어노테이션 폼(210) 부분만을 분리하여 학습 데이터 세트를 구축할 수 있다. 즉, 프로세서(120)는 학습 데이터 세트에 어노테이션 폼(210) 부분 및 어노테이션 폼(210)에 대응되어 생성된 라벨을 포함시킬 수 있다. 예를 들어, 프로세서(120)는 컨테이너 라벨 대상 객체의 어노테이션 폼(210) 부분을 이미지로부터 분리하여 학습 데이터의 입력으로 할 수 있다. 프로세서(120)는 컨테이너 라벨 대상 객체에 대한 라벨(제 1 계층: 항공 모함 / 제 2 계층: 컨테이너)를 학습 데이터의 정답(즉, 입력 데이터의 라벨)으로 결정할 수 있다. 전술한 학습 데이터 세트에 관한 구체적인 기재는 예시일 뿐이며 본 개시는 이에 제한되지 않는다.According to an embodiment of the present disclosure, the processor 120 may construct a training data set by separating only a portion of the annotation form 210 generated through an annotation input. That is, the processor 120 may include a portion of the annotation form 210 and a label generated corresponding to the annotation form 210 in the training data set. For example, the processor 120 may separate a portion of the annotation form 210 of the object object to be labeled with a container from an image to input training data. The processor 120 may determine a label (first layer: aircraft carrier / second layer: container) for the object object to be labeled as a correct answer of the training data (ie, a label of input data). Detailed description of the above-described training data set is only an example, and the present disclosure is not limited thereto.

본 개시의 실시예들에 따른 컴퓨팅 장치(100)는 PC(personal computer), 노트북(note book), 모바일 단말기(mobile terminal), 스마트 폰(smart phone), 태블릿 PC(tablet pc) 등을 포함할 수 있으며, 유/무선 네트워크에 접속할 수 있는 모든 종류의 단말을 포함할 수 있다.The computing device 100 according to the embodiments of the present disclosure includes a personal computer (PC), a notebook (note book), a mobile terminal, a smart phone, a tablet PC, and the like. And all types of terminals that can access wired/wireless networks.

네트워크부(110)는 본 개시의 일 실시예에 따른 라벨 대상 객체를 포함하는 이미지 등을 다른 컴퓨팅 장치, 서버 등과 송수신할 수 있다. 또한, 네트워크부(110)는 복수의 컴퓨팅 장치 사이의 통신을 가능하게 하여 복수의 컴퓨팅 장치 각각에서 라벨링된 데이터들을 이용한 네트워크 함수의 학습이 분산 수행되도록 할 수 있다.The network unit 110 may transmit/receive an image including a label target object according to an embodiment of the present disclosure, such as another computing device, a server, or the like. In addition, the network unit 110 may enable communication between a plurality of computing devices so that learning of a network function using data labeled by each of the plurality of computing devices is distributedly performed.

본 개시의 일 실시예에 따른 네트워크부(110)는 근거리(단거리), 원 거리, 유선 및 무선 등과 같은 현재 사용 및 구현되는 임의의 형태의 유무선 통신 기술에 기반하여 동작할 수 있다.The network unit 110 according to an embodiment of the present disclosure may operate based on any type of wired/wireless communication technology currently used and implemented, such as short-range (short-range), long-range, wired, and wireless communication technologies.

프로세서(120)는 하나 이상의 코어로 구성될 수 있으며, 컴퓨팅 장치의 중앙 처리 장치(CPU: central processing unit), 범용 그래픽 처리 장치 (GPGPU: general purpose graphics processing unit), 텐서 처리 장치(TPU: tensor processing unit) 등의 라벨링을 위한 정보를 표시하기 위한 프로세서를 포함할 수 있다. 프로세서(120)는 메모리(130)에 저장된 컴퓨터 프로그램을 판독하여 본 개시의 일 실시예에 따른 라벨링을 위한 정보를 표시하는 사용자 인터페이스를 제공할 수 있다. 프로세서(120)의 CPU, GPGPU, 및 TPU 중 적어도 하나가 라벨링을 위한 정보를 표시하는 사용자 인터페이스를 제공하거나 또는 생성할 수 있다. 예를 들어, CPU 와 GPGPU가 함께 라벨링을 위한 정보를 표시하는 사용자 인터페이스를 제공할 수 있다. 또한, 본 개시의 일 실시예에서 복수의 컴퓨팅 장치의 프로세서를 함께 사용하여 라벨링을 위한 정보를 표시하는 사용자 인터페이스를 제공할 수 있다. 또한, 본 개시의 일 실시예에 따른 컴퓨팅 장치에서 수행되는 컴퓨터 프로그램은 CPU, GPGPU 또는 TPU 실행가능 프로그램일 수 있다.The processor 120 may be composed of one or more cores, a central processing unit (CPU), a general purpose graphics processing unit (GPGPU), and a tensor processing unit (TPU) of a computing device. unit) may include a processor for displaying information for labeling. The processor 120 may provide a user interface that reads a computer program stored in the memory 130 and displays information for labeling according to an embodiment of the present disclosure. At least one of the CPU, GPGPU, and TPU of the processor 120 may provide or generate a user interface for displaying information for labeling. For example, the CPU and GPGPU can together provide a user interface that displays information for labeling. In addition, according to an embodiment of the present disclosure, a user interface for displaying information for labeling may be provided by using processors of a plurality of computing devices together. In addition, the computer program executed in the computing device according to an embodiment of the present disclosure may be a CPU, a GPGPU, or a TPU executable program.

본 개시의 일 실시예에 따르면, 메모리(130)는 프로세서(120)가 생성하거나 결정한 임의의 형태의 정보 및 네트워크부(110)가 수신한 임의의 형태의 정보를 저장할 수 있다.According to an exemplary embodiment of the present disclosure, the memory 130 may store information in an arbitrary form generated or determined by the processor 120 and information in an arbitrary form received by the network unit 110.

본 개시의 일 실시예에 따르면, 메모리(130)는 플래시 메모리 타입(flash memory type), 하드디스크 타입(hard disk type), 멀티미디어 카드 마이크로 타입(multimedia card micro type), 카드 타입의 메모리(예를 들어 SD 또는 XD 메모리 등), 램(Random Access Memory, RAM), SRAM(Static Random Access Memory), 롬(Read-Only Memory, ROM), EEPROM(Electrically Erasable Programmable Read-Only Memory), PROM(Programmable Read-Only Memory), 자기 메모리, 자기 디스크, 광디스크 중 적어도 하나의 타입의 저장매체를 포함할 수 있다. 컴퓨팅 장치(100)는 인터넷(internet) 상에서 메모리(130)의 저장 기능을 수행하는 웹 스토리지(web storage)와 관련되어 동작할 수도 있다. 전술한 메모리에 대한 기재는 예시일 뿐, 본 개시는 이에 제한되지 않는다.According to an embodiment of the present disclosure, the memory 130 is a flash memory type, a hard disk type, a multimedia card micro type, and a card type memory (for example, SD or XD memory), RAM (Random Access Memory, RAM), SRAM (Static Random Access Memory), ROM (Read-Only Memory, ROM), EEPROM (Electrically Erasable Programmable Read-Only Memory), PROM (Programmable Read) -Only Memory), magnetic memory, magnetic disk, and optical disk. The computing device 100 may operate in connection with a web storage that performs a storage function of the memory 130 on the Internet. The description of the above-described memory is only an example, and the present disclosure is not limited thereto.

본 개시의 일 실시예에 따른 출력부(140)는 라벨링을 위한 정보를 제공하기 위한 임의의 사용자 인터페이스(UI, user interface)를 표시할 수 있다. 출력부(140)는 도 2 내지 도 7에 도시된 바와 같은 사용자 인터페이스를 표시할 수 있다. 이하에서 도시되고 그리고 후술되는 사용자 인터페이스들은 예시일 뿐, 본 개시는 이에 제한되지 않는다.The output unit 140 according to an embodiment of the present disclosure may display an arbitrary user interface (UI) for providing information for labeling. The output unit 140 may display a user interface as illustrated in FIGS. 2 to 7. User interfaces shown below and described below are only examples, and the present disclosure is not limited thereto.

본 개시의 일 실시예에 따른 출력부(140)는 프로세서(120)가 생성하거나 결정한 임의의 형태의 정보 및 네트워크부(110)가 수신한 임의의 형태의 정보를 출력할 수 있다.The output unit 140 according to an embodiment of the present disclosure may output information in an arbitrary form generated or determined by the processor 120 and information in an arbitrary form received by the network unit 110.

본 개시의 일 실시예에서 출력부(140)는 액정 디스플레이(liquid crystal display, LCD), 박막 트랜지스터 액정 디스플레이(thin film transistorliquid crystal display, TFT LCD), 유기 발광 다이오드(organic light-emitting diode, OLED), 플렉시블 디스플레이(flexible display), 3차원 디스플레이(3D display) 중에서 적어도 하나를 포함할 수 있다. 이들 중 일부 디스플레이 모듈은 그를 통해 외부를 볼 수 있도록 투명형 또는 광투과형으로 구성될 수 있다. 이는 투명 디스플레이 모듈이라 지칭될 수 있는데, 상기 투명 디스플레이 모듈의 대표적인 예로는 TOLED(Transparant OLED) 등이 있다.In an embodiment of the present disclosure, the output unit 140 is a liquid crystal display (LCD), a thin film transistor liquid crystal display (TFT LCD), and an organic light-emitting diode (OLED). , It may include at least one of a flexible display (flexible display), a 3D display (3D display). Some of these display modules may be configured as a transparent type or a light-transmitting type so that the outside can be seen through them. This may be referred to as a transparent display module, and a representative example of the transparent display module is TOLED (Transparant OLED).

본 개시의 일 실시예에 따른 입력부(150)를 통해 사용자 입력을 수신할 수 있다. 본 개시의 일 실시예에 따른 입력부(150)는 사용자 입력을 수신 받기 위한 키 및/또는 버튼들을 구비할 수 있다. 입력부(150)를 통한 사용자 입력에 따라 본 개시의 실시예들에 따른 라벨링을 위한 정보를 제공하기 위한 컴퓨터 프로그램이 실행될 수 있다.A user input may be received through the input unit 150 according to an embodiment of the present disclosure. The input unit 150 according to an embodiment of the present disclosure may include keys and/or buttons for receiving a user input. A computer program for providing information for labeling according to embodiments of the present disclosure may be executed according to a user input through the input unit 150.

본 개시의 실시예들에 따른 입력부(150)는 사용자의 버튼 조작 또는 터치 입력을 감지하여 신호를 수신하거나, 카메라 또는 마이크로폰을 통하여 사용자 등의 음성 또는 동작을 수신하여 이를 입력 신호로 변환할 수도 있다. 이를 위해 음성 인식(Speech Recognition) 기술 또는 동작 인식(Motion Recognition) 기술들이 사용될 수 있다.The input unit 150 according to embodiments of the present disclosure may receive a signal by sensing a button manipulation or a touch input of a user, or may receive a voice or motion of a user through a camera or a microphone and convert it into an input signal. . To this end, speech recognition technology or motion recognition technology may be used.

본 개시의 실시예들에 따른 입력부(150)는 컴퓨팅 장치(100)와 연결된 외부 입력 장비로서 구현될 수도 있다. 예를 들어, 입력 장비는 사용자 입력을 수신하기 위한 터치 패드, 터치 펜, 키보드 또는 마우스 중 적어도 하나일 수 있으나, 이는 예시일 뿐이며 본 개시는 이에 제한되는 것은 아니다.The input unit 150 according to embodiments of the present disclosure may be implemented as an external input device connected to the computing device 100. For example, the input device may be at least one of a touch pad, a touch pen, a keyboard, or a mouse for receiving a user input, but this is only an example and the present disclosure is not limited thereto.

본 개시의 일 실시예에 따른 입력부(150)는 사용자 터치 입력을 인식할 수 있다. 본 개시의 일 실시예에 따른 입력부(150)는 출력부(140)와 동일한 구성일 수도 있다. 입력부(150)는 사용자의 선택 입력을 수신하도록 구현되는 터치 스크린으로 구성될 수 있다. 터치 스크린은 접촉식 정전용량 방식, 적외선 광 감지 방식, 표면 초음파(SAW) 방식, 압전 방식, 저항막 방식 중 어느 하나의 방식이 사용될 수 있다. 전술한 터치 스크린에 대한 자세한 기재는 본 발명의 일 실시예에 따른 예시일 뿐이며, 다양한 터치 스크린 패널이 컴퓨팅 장치(100)에 채용될 수 있다. 터치 스크린으로 구성된 입력부(150)는 터치 센서를 포함할 수 있다. 터치 센서는 입력부(150)의 특정 부위에 가해진 압력 또는 입력부(150)의 특정 부위에 발생하는 정전 용량 등의 변화를 전기적인 입력신호로 변환하도록 구성될 수 있다. 터치 센서는 터치 되는 위치 및 면적 뿐만 아니라, 터치 시의 압력까지도 검출할 수 있도록 구성될 수 있다. 터치 센서에 대한 터치 입력이 있는 경우, 그에 대응하는 신호(들)는 터치 제어기로 보내진다. 터치 제어기는 그 신호(들)를 처리한 다음 대응하는 데이터를 프로세서(120)로 전송한다. 이로써, 프로세서(120)는 입력부(150)의 어느 영역이 터치 되었는지 여부 등을 인식할 수 있게 된다The input unit 150 according to an embodiment of the present disclosure may recognize a user touch input. The input unit 150 according to an embodiment of the present disclosure may have the same configuration as the output unit 140. The input unit 150 may be configured as a touch screen implemented to receive a user's selection input. For the touch screen, any one of a contact type capacitive method, an infrared light sensing method, a surface ultrasound (SAW) method, a piezoelectric method, and a resistive film method may be used. Detailed description of the above-described touch screen is only an example according to an embodiment of the present invention, and various touch screen panels may be employed in the computing device 100. The input unit 150 configured as a touch screen may include a touch sensor. The touch sensor may be configured to convert a change in pressure applied to a specific portion of the input unit 150 or a capacitance generated at a specific portion of the input unit 150 into an electrical input signal. The touch sensor may be configured to detect not only a touched position and area, but also a pressure at the time of touch. When there is a touch input to the touch sensor, a signal(s) corresponding thereto is transmitted to the touch controller. The touch controller processes the signal(s) and then transmits the corresponding data to the processor 120. As a result, the processor 120 can recognize whether an area of the input unit 150 has been touched or the like.

본 개시의 일 실시예에서 서버는 서버의 서버 환경을 수행하기 위한 다른 구성들이 포함될 수도 있다. 서버는 임의의 형태의 장치는 모두 포함할 수 있다. 서버는 디지털 기기로서, 랩탑 컴퓨터, 노트북 컴퓨터, 데스크톱 컴퓨터, 웹 패드, 이동 전화기와 같이 프로세서를 탑재하고 메모리를 구비한 연산 능력을 갖춘 디지털 기기일 수 있다.In an embodiment of the present disclosure, the server may include other components for executing the server environment of the server. The server may include any type of device. The server is a digital device, and may be a digital device equipped with a processor, such as a laptop computer, a notebook computer, a desktop computer, a web pad, and a mobile phone, and equipped with a memory and computing power.

본 개시의 일 실시예에 따른 라벨링을 위한 정보를 표시하는 사용자 인터페이스를 사용자 단말로 제공하기 위한 동작을 수행하는 서버(미도시)는 네트워크부, 프로세서 및 메모리를 포함할 수 있다.A server (not shown) performing an operation for providing a user interface displaying information for labeling to a user terminal according to an embodiment of the present disclosure may include a network unit, a processor, and a memory.

서버는 본 개시의 실시예들에 따른 사용자 인터페이스를 생성할 수 있다. 서버는 클라이언트(예를 들어, 사용자 단말)에게 네트워크를 통해 정보를 제공하는 컴퓨팅 시스템일 수 있다. 서버는 생성한 사용자 인터페이스를 사용자 단말로 전송할 수 있다. 이러한 경우, 사용자 단말은 서버에 액세스할 수 있는 임의의 형태의 컴퓨팅 장치(100)일 수 있다. 서버의 프로세서는 네트워크부를 통해 사용자 단말로 사용자 인터페이스를 전송할 수 있다. 본 개시의 실시예들에 따른 서버는 예를 들어, 클라우드 서버일 수 있다. 서버는 서비스를 처리하는 웹 서버일 수 있다. 전술한 서버의 종류는 예시일 뿐이며 본 개시는 이에 제한되지 않는다.The server may generate a user interface according to embodiments of the present disclosure. The server may be a computing system that provides information to a client (eg, a user terminal) through a network. The server may transmit the generated user interface to the user terminal. In this case, the user terminal may be any type of computing device 100 capable of accessing the server. The processor of the server may transmit the user interface to the user terminal through the network unit. The server according to the embodiments of the present disclosure may be, for example, a cloud server. The server may be a web server that processes services. The types of servers described above are only examples, and the present disclosure is not limited thereto.

본 개시의 실시예들에 따른 서버에 포함된 네트워크부, 프로세서 및 메모리 각각은, 전술한 컴퓨팅 장치(100)에 포함된 네트워크부(110), 프로세서(120) 및 메모리(130)와 동일한 역할을 수행하거나 또는 동일하게 구성될 수 있다Each of the network unit, the processor, and the memory included in the server according to the embodiments of the present disclosure plays the same role as the network unit 110, the processor 120, and the memory 130 included in the above-described computing device 100. Can be performed or configured identically

도 8은 본 개시의 일 실시예에 따른 라벨링을 위한 정보를 표시하는 방법을 예시적으로 나타낸 순서도이다.8 is a flowchart illustrating a method of displaying information for labeling according to an embodiment of the present disclosure.

컴퓨팅 장치(100)는 이미지 레이어에 라벨 대상 객체를 포함하는 이미지를 표시(810)할 수 있다.The computing device 100 may display 810 an image including the label target object on the image layer.

컴퓨팅 장치(100)는 이미지 레이어에 라벨 대상 객체를 표시하기 위한 사용자 어노테이션 입력에 대한 응답으로, 라벨 대상 객체에 대한 어노테이션 폼을 표시(820)할 수 있다.The computing device 100 may display 820 an annotation form for the label target object in response to a user annotation input for displaying the label target object on the image layer.

컴퓨팅 장치(100)는 라벨 레이어에 라벨 대상 객체의 라벨에 포함된 둘 이상의 계층 각각에 대한 클래스를 입력하기 위한 사용자 클래스 입력을 허용하는 디스플레이 객체를 표시(830)할 수 있다. 라벨 레이어는 제 1 계층에 대응되는 하나 이상의 제 1 템플릿 클래스 및 제 2 계층에 대응되는 하나 이상의 제 2 템플릿 클래스를 표시하는 템플릿 클래스 선택 영역을 포함할 수 있다.The computing device 100 may display 830 a display object that allows a user class input for inputting a class for each of two or more layers included in a label of the label target object on the label layer. The label layer may include a template class selection area displaying one or more first template classes corresponding to the first layer and one or more second template classes corresponding to the second layer.

컴퓨팅 장치(100)는 라벨 레이어에 계층 추가 객체에 대한 사용자 입력에 대한 응답으로 제 3 계층에 대응되는 제 3 클래스 표시 객체를 더 표시할 수 있다.The computing device 100 may further display a third class display object corresponding to the third layer in response to a user input for the layer addition object on the label layer.

컴퓨팅 장치(100)는 라벨 레이어에 계층 삭제 객체에 대한 사용자 입력에 대한 응답으로 제 2 계층에 대응되는 제 2 클래스 표시 객체를 삭제할 수 있다.The computing device 100 may delete the second class display object corresponding to the second layer in response to a user input for the layer deletion object in the label layer.

컴퓨팅 장치(100)는 제 1 템플릿 클래스 또는 제 2 템플릿 클래스 중 적어도 하나에 대한 사용자 라벨 입력에 응답하여, 라벨 레이어에 제 1 계층에 대응되는 제 1 클래스 표시 객체 또는 제 2 계층에 대응되는 제 2 클래스 표시 객체 중 적어도 하나에 사용자 라벨 입력에 대응되는 제 1 템플릿 클래스 또는 상기 제 2 템플릿 클래스 중 적어도 하나를 각각 표시할 수 있다.In response to a user label input for at least one of the first template class or the second template class, the computing device 100 may display a first class display object corresponding to the first layer or a second class display object corresponding to the second layer in the label layer. At least one of the first template class or the second template class corresponding to the user label input may be displayed on at least one of the class display objects, respectively.

컴퓨팅 장치(100)는 템플릿 클래스 선택 영역에 제 1 계층에 대응되는 제 1 추가 템플릿 클래스 또는 제 2 계층에 대응되는 제 2 추가 템플릿 클래스 중 적어도 하나에 대한 사용자 입력의 응답으로, 추가 템플릿 클래스들을 더 표시할 수 있다.In response to a user input to at least one of a first additional template class corresponding to a first layer or a second additional template class corresponding to a second layer in the template class selection area, the computing device 100 may further add additional template classes. Can be displayed.

컴퓨팅 장치(100)는 이미지 레이어에 이미지에 포함된 제 1 라벨 대상 객체에 대한 제 1 어노테이션 폼 표시에 대한 응답으로, 제 1 라벨 대상 객체와 관련된 제 2 라벨 대상 객체에 대해, 제 1 어노테이션 폼에 기초한 제 2 어노테이션 폼을 제 2 라벨 대상 객체에 추가로 표시할 수 있다.In response to the display of the first annotation form for the first label target object included in the image on the image layer, the computing device 100 provides the first annotation form for the second label target object related to the first label target object. The based second annotation form may be additionally displayed on the second label target object.

컴퓨팅 장치(100)는 이미지에 포함된 제 1 라벨 대상 객체에 대한 제 1 클래스 입력에 대한 응답으로, 제 1 라벨 대상 객체와 관련된 제 2 라벨 대상 객체에 대해 제 1 클래스를 라벨로 결정하거나, 또는 제 1 라벨 대상 객체와 관련되지 않은 제 3 라벨 대상 객체에 대해 제 1 클래스와 상이한 클래스인 제 2 클래스를 라벨로 결정할 수 있다.In response to an input of the first class for the first label target object included in the image, the computing device 100 determines the first class as a label for the second label target object related to the first label target object, or A second class, which is a class different from the first class, for a third label target object not related to the first label target object may be determined as a label.

본 개시의 일 실시예에 따른 사용자 인터페이스는, 사용자 인터페이스를 표시하기 위한 상기와 같은 방법을 구동할 수 있는 로직, 모듈, 회로 또는 수단에 의해 표시될 수 있다.The user interface according to an embodiment of the present disclosure may be displayed by logic, modules, circuits or means capable of driving the above method for displaying the user interface.

데이터 구조는 본 개시의 일 실시예에 따른 학습 데이터를 이용하여 학습된 네트워크 함수 알고리즘에 대응되는 데이터를 저장할 수 있다.The data structure may store data corresponding to a network function algorithm learned by using training data according to an embodiment of the present disclosure.

본 개시의 일 실시예에 따라 데이터 구조를 저장한 컴퓨터 판독가능 매체가 개시된다.A computer-readable medium storing a data structure according to an embodiment of the present disclosure is disclosed.

데이터 구조는 데이터에 효율적인 접근 및 수정을 가능하게 하는 데이터의 조직, 관리, 저장을 의미할 수 있다. 데이터 구조는 특정 문제(예를 들어, 최단 시간으로 데이터 검색, 데이터 저장, 데이터 수정) 해결을 위한 데이터의 조직을 의미할 수 있다. 데이터 구조는 특정한 데이터 처리 기능을 지원하도록 설계된, 데이터 요소들 간의 물리적이거나 논리적인 관계로 정의될 수도 있다. 데이터 요소들 간의 논리적인 관계는 사용자가 생각하는 데이터 요소들 간의 연결관계를 포함할 수 있다. 데이터 요소들 간의 물리적인 관계는 컴퓨터 판독가능 저장매체(예를 들어, 하드 디스크)에 물리적으로 저장되어 있는 데이터 요소들 간의 실제 관계를 포함할 수 있다. 데이터 구조는 구체적으로 데이터의 집합, 데이터 간의 관계, 데이터에 적용할 수 있는 함수 또는 명령어를 포함할 수 있다. 효과적으로 설계된 데이터 구조를 통해 컴퓨팅 장치는 컴퓨팅 장치의 자원을 최소한으로 사용하면서 연산을 수행할 수 있다. 구체적으로 컴퓨팅 장치는 효과적으로 설계된 데이터 구조를 통해 연산, 읽기, 삽입, 삭제, 비교, 교환, 검색의 효율성을 높일 수 있다.Data structure can refer to the organization, management, and storage of data that enables efficient access and modification of data. The data structure may refer to an organization of data for solving a specific problem (eg, data search, data storage, data modification in the shortest time). Data structures may be defined as physical or logical relationships between data elements, designed to support specific data processing functions. The logical relationship between data elements may include a connection relationship between data elements that a user thinks. The physical relationship between the data elements may include an actual relationship between the data elements physically stored in a computer-readable storage medium (eg, hard disk). The data structure may specifically include a set of data, a relationship between data, and a function or instruction applicable to the data. Through an effectively designed data structure, the computing device can perform calculations while using the resources of the computing device to a minimum. Specifically, computing devices can increase the efficiency of computation, reading, insertion, deletion, comparison, exchange, and search through an effectively designed data structure.

데이터 구조는 데이터 구조의 형태에 따라 선형 데이터 구조와 비선형 데이터 구조로 구분될 수 있다. 선형 데이터 구조는 하나의 데이터 뒤에 하나의 데이터만이 연결되는 구조일 수 있다. 선형 데이터 구조는 리스트(List), 스택(Stack), 큐(Queue), 데크(Deque)를 포함할 수 있다. 리스트는 내부적으로 순서가 존재하는 일련의 데이터 집합을 의미할 수 있다. 리스트는 연결 리스트(Linked List)를 포함할 수 있다. 연결 리스트는 각각의 데이터가 포인터를 가지고 한 줄로 연결되어 있는 방식으로 데이터가 연결된 데이터 구조일 수 있다. 연결 리스트에서 포인터는 다음이나 이전 데이터와의 연결 정보를 포함할 수 있다. 연결 리스트는 형태에 따라 단일 연결 리스트, 이중 연결 리스트, 원형 연결 리스트로 표현될 수 있다. 스택은 제한적으로 데이터에 접근할 수 있는 데이터 나열 구조일 수 있다. 스택은 데이터 구조의 한 쪽 끝에서만 데이터를 처리(예를 들어, 삽입 또는 삭제)할 수 있는 선형 데이터 구조일 수 있다. 스택에 저장된 데이터는 늦게 들어갈수록 빨리 나오는 데이터 구조(LIFO-Last in First Out)일 수 있다. 큐는 제한적으로 데이터에 접근할 수 있는 데이터 나열 구조로서, 스택과 달리 늦게 저장된 데이터일수록 늦게 나오는 데이터 구조(FIFO-First in First Out)일 수 있다. 데크는 데이터 구조의 양 쪽 끝에서 데이터를 처리할 수 있는 데이터 구조일 수 있다.The data structure can be classified into a linear data structure and a non-linear data structure according to the shape of the data structure. The linear data structure may be a structure in which only one data is connected after one data. The linear data structure may include a list, a stack, a queue, and a deck. The list may mean a series of data sets in which order exists internally. The list may include a linked list. The linked list may be a data structure in which data is linked in a way that each data has a pointer and is linked in a single line. In the linked list, the pointer may include connection information with the next or previous data. The linked list can be expressed as a single linked list, a double linked list, or a circular linked list. The stack can be a data listing structure that allows limited access to data. The stack may be a linear data structure that can process (eg, insert or delete) data only at one end of the data structure. The data stored in the stack may be a data structure (LIFO-Last in First Out) that comes out sooner as it enters the stack. A queue is a data arrangement structure that allows limited access to data, and unlike a stack, a queue may be a data structure (FIFO-First in First Out) that comes out later as data stored later. A deck can be a data structure that can process data at both ends of the data structure.

비선형 데이터 구조는 하나의 데이터 뒤에 복수개의 데이터가 연결되는 구조일 수 있다. 비선형 데이터 구조는 그래프(Graph) 데이터 구조를 포함할 수 있다. 그래프 데이터 구조는 정점(Vertex)과 간선(Edge)으로 정의될 수 있으며 간선은 서로 다른 두개의 정점을 연결하는 선을 포함할 수 있다. 그래프 데이터 구조 트리(Tree) 데이터 구조를 포함할 수 있다. 트리 데이터 구조는 트리에 포함된 복수개의 정점 중에서 서로 다른 두개의 정점을 연결시키는 경로가 하나인 데이터 구조일 수 있다. 즉 그래프 데이터 구조에서 루프(loop)를 형성하지 않는 데이터 구조일 수 있다.The nonlinear data structure may be a structure in which a plurality of data is connected behind one data. The nonlinear data structure may include a graph data structure. The graph data structure may be defined as a vertex and an edge, and the edge may include a line connecting two different vertices. The graph data structure may include a tree data structure. The tree data structure may be a data structure in which a path connecting two different vertices among a plurality of vertices included in the tree is one. That is, it may be a data structure that does not form a loop in the graph data structure.

본 명세서에 걸쳐, 연산 모델, 신경망, 네트워크 함수, 뉴럴 네트워크(neural network)는 동일한 의미로 사용될 수 있다. (이하에서는 신경망으로 통일하여 기술한다.) 데이터 구조는 신경망을 포함할 수 있다. 그리고 신경망을 포함한 데이터 구조는 컴퓨터 판독가능 매체에 저장될 수 있다. 신경망을 포함한 데이터 구조는 또한 신경망에 입력되는 데이터, 신경망의 가중치, 신경망의 하이퍼 파라미터, 신경망으로부터 획득한 데이터, 신경망의 각 노드 또는 레이어와 연관된 활성 함수, 신경망의 학습을 위한 손실 함수를 포함할 수 있다. 신경망을 포함한 데이터 구조는 상기 개시된 구성들 중 임의의 구성 요소들을 포함할 수 있다. 즉 신경망을 포함한 데이터 구조는 신경망에 입력되는 데이터, 신경망의 가중치, 신경망의 하이퍼 파라미터, 신경망으로부터 획득한 데이터, 신경망의 각 노드 또는 레이어와 연관된 활성 함수, 신경망의 트레이닝을 위한 손실 함수 등 전부 또는 이들의 임의의 조합을 포함하여 구성될 수 있다. 전술한 구성들 이외에도, 신경망을 포함한 데이터 구조는 신경망의 특성을 결정하는 임의의 다른 정보를 포함할 수 있다. 또한, 데이터 구조는 신경망의 연산 과정에 사용되거나 발생되는 모든 형태의 데이터를 포함할 수 있으며 전술한 사항에 제한되는 것은 아니다. 컴퓨터 판독가능 매체는 컴퓨터 판독가능 기록 매체 및/또는 컴퓨터 판독가능 전송 매체를 포함할 수 있다. 신경망은 일반적으로 노드라 지칭될 수 있는 상호 연결된 계산 단위들의 집합으로 구성될 수 있다. 이러한 노드들은 뉴런(neuron)들로 지칭될 수도 있다. 신경망은 적어도 하나 이상의 노드들을 포함하여 구성된다.Throughout this specification, a computational model, a neural network, a network function, and a neural network may be used with the same meaning. (Hereinafter, it will be unified and described as a neural network.) The data structure may include a neural network. In addition, the data structure including the neural network may be stored in a computer-readable medium. The data structure including the neural network may also include data input to the neural network, weights of the neural network, hyperparameters of the neural network, data obtained from the neural network, an active function associated with each node or layer of the neural network, and a loss function for learning the neural network. have. The data structure including the neural network may include any of the components disclosed above. That is, the data structure including the neural network is all or all of the data input to the neural network, the weight of the neural network, the hyper parameter of the neural network, the data obtained from the neural network, the active function associated with each node or layer of the neural network, and the loss function for training the neural network. It may be configured to include any combination of. In addition to the above-described configurations, the data structure including the neural network may include any other information that determines the characteristics of the neural network. In addition, the data structure may include all types of data that are used or generated in a neural network operation process, and is not limited to the above-described matters. Computer-readable media may include computer-readable recording media and/or computer-readable transmission media. A neural network may consist of a set of interconnected computational units, which may generally be referred to as nodes. These nodes may also be referred to as neurons. The neural network is composed of at least one or more nodes.

데이터 구조는 신경망에 입력되는 데이터를 포함할 수 있다. 신경망에 입력되는 데이터를 포함하는 데이터 구조는 컴퓨터 판독가능 매체에 저장될 수 있다. 신경망에 입력되는 데이터는 신경망 학습 과정에서 입력되는 학습 데이터 및/또는 학습이 완료된 신경망에 입력되는 입력 데이터를 포함할 수 있다. 신경망에 입력되는 데이터는 전처리(pre-processing)를 거친 데이터 및/또는 전처리 대상이 되는 데이터를 포함할 수 있다. 전처리는 데이터를 신경망에 입력시키기 위한 데이터 처리 과정을 포함할 수 있다. 따라서 데이터 구조는 전처리 대상이 되는 데이터 및 전처리로 발생되는 데이터를 포함할 수 있다. 전술한 데이터 구조는 예시일 뿐 본 개시는 이에 제한되지 않는다. The data structure may include data input to the neural network. A data structure including data input to the neural network may be stored in a computer-readable medium. The data input to the neural network may include training data input during the neural network training process and/or input data input to the neural network on which the training has been completed. Data input to the neural network may include data that has undergone pre-processing and/or data to be pre-processed. Pre-processing may include a data processing process for inputting data into a neural network. Accordingly, the data structure may include data to be pre-processed and data generated by pre-processing. The above-described data structure is only an example, and the present disclosure is not limited thereto.

데이터 구조는 신경망에 입력되거나, 신경망에서 출력되는 데이터를 포함할 수 있다. 신경망에 입력되거나, 출력되는 데이터를 포함하는 데이터 구조는 컴퓨터 판독가능 매체에 저장될 수 있다. 컴퓨터 판독가능 매체에 저장된 데이터 구조는 신경망의 추론 과정에서 입력되는 데이터, 또는 신경망의 추론 결과 출력되는 출력 데이터를 포함할 수 있다. 또한, 데이터 구조는 특정한 데이터 가공 방법에 의하여 가공되는 데이터를 포함할 수 있으므로, 가공 전 후의 데이터를 포함할 수 있다. 따라서, 데이터 구조는 가공의 대상이 되는 데이터 및 데이터 가공 방법을 통해 가공된 데이터를 포함할 수 있다. The data structure may include data input to or output from the neural network. A data structure including data input to or output from the neural network may be stored in a computer-readable medium. The data structure stored in the computer-readable medium may include data input during an inference process of a neural network or output data output as a result of inference of a neural network. In addition, since the data structure may include data processed by a specific data processing method, it may include data before and after processing. Accordingly, the data structure may include data to be processed and data processed through a data processing method.

데이터 구조는 신경망의 가중치를 포함할 수 있다. (본 명세서에서 가중치, 파라미터는 동일한 의미로 사용될 수 있다.) 그리고 신경망의 가중치를 포함한 데이터 구조는 컴퓨터 판독가능 매체에 저장될 수 있다. 신경망은 복수개의 가중치를 포함할 수 있다. 가중치는 가변적일 수 있으며, 신경망이 원하는 기능을 수행하기 위해, 사용자 또는 알고리즘에 의해 가변 될 수 있다. 예를 들어, 하나의 출력 노드에 하나 이상의 입력 노드가 각각의 링크에 의해 상호 연결된 경우, 출력 노드는 상기 출력 노드와 연결된 입력 노드들에 입력된 값들 및 각각의 입력 노드들에 대응하는 링크에 설정된 파라미터에 기초하여 출력 노드 값을 결정할 수 있다. 전술한 데이터 구조는 예시일 뿐 본 개시는 이에 제한되지 않는다.The data structure may include weights of the neural network. (In the present specification, weights and parameters may have the same meaning.) In addition, a data structure including a weight of a neural network may be stored in a computer-readable medium. The neural network may include a plurality of weights. The weight may be variable and may be changed by a user or an algorithm in order for a neural network to perform a desired function. For example, when one or more input nodes are interconnected to one output node by respective links, the output node includes values input to input nodes connected to the output node and a link corresponding to each input node. The output node value may be determined based on the parameter. The data structure described above is only an example, and the present disclosure is not limited thereto.

제한이 아닌 예로서, 가중치는 신경망 학습 과정에서 가변되는 가중치 및/또는 신경망 학습이 완료된 가중치를 포함할 수 있다. 신경망 학습 과정에서 가변되는 가중치는 학습 사이클이 시작되는 시점의 가중치 및/또는 학습 사이클 동안 가변되는 가중치를 포함할 수 있다. 신경망 학습이 완료된 가중치는 학습 사이클이 완료된 가중치를 포함할 수 있다. 따라서 신경망의 가중치를 포함한 데이터 구조는 신경망 학습 과정에서 가변되는 가중치 및/또는 신경망 학습이 완료된 가중치를 포함한 데이터 구조를 포함할 수 있다. 그러므로 상술한 가중치 및/또는 각 가중치의 조합은 신경망의 가중치를 포함한 데이터 구조에 포함되는 것으로 한다. 전술한 데이터 구조는 예시일 뿐 본 개시는 이에 제한되지 않는다.As an example and not a limitation, the weight may include a weight variable in a neural network training process and/or a weight on which neural network training has been completed. The variable weight in the neural network learning process may include a weight at a time point at which the learning cycle starts and/or a weight variable during the learning cycle. The weight at which the neural network training is completed may include the weight at which the learning cycle is completed. Accordingly, the data structure including the weight of the neural network may include a data structure including a weight variable during the neural network training process and/or a weight on which the neural network training has been completed. Therefore, it is assumed that the above-described weights and/or combinations of weights are included in the data structure including the weights of the neural network. The above-described data structure is only an example, and the present disclosure is not limited thereto.

신경망의 가중치를 포함한 데이터 구조는 직렬화(serialization) 과정을 거친 후 컴퓨터 판독가능 저장 매체(예를 들어, 메모리, 하드 디스크)에 저장될 수 있다. 직렬화는 데이터 구조를 동일하거나 다른 컴퓨팅 장치에 저장하고 나중에 다시 재구성하여 사용할 수 있는 형태로 변환하는 과정일 수 있다. 컴퓨팅 장치는 데이터 구조를 직렬화하여 네트워크를 통해 데이터를 송수신할 수 있다. 직렬화된 신경망의 가중치를 포함한 데이터 구조는 역직렬화(deserialization)를 통해 동일한 컴퓨팅 장치 또는 다른 컴퓨팅 장치에서 재구성될 수 있다. 신경망의 가중치를 포함한 데이터 구조는 직렬화에 한정되는 것은 아니다. 나아가 신경망의 가중치를 포함한 데이터 구조는 컴퓨팅 장치의 자원을 최소한으로 사용하면서 연산의 효율을 높이기 위한 데이터 구조(예를 들어, 비선형 데이터 구조에서 B-Tree, Trie, m-way search tree, AVL tree, Red-Black Tree)를 포함할 수 있다. 전술한 사항은 예시일 뿐 본 개시는 이에 제한되지 않는다.The data structure including the weights of the neural network may be serialized and then stored in a computer-readable storage medium (eg, memory, hard disk). Serialization may be a process of storing data structures on the same or different computing devices and converting them into a form that can be reconstructed and used later. The computing device serializes the data structure to transmit and receive data through a network. The data structure including the weights of the serialized neural network can be reconstructed in the same or different computing devices through deserialization. The data structure including the weights of the neural network is not limited to serialization. Furthermore, the data structure including the weight of the neural network is a data structure to increase the efficiency of operation while using the resources of the computing device to a minimum (e.g., B-Tree, Trie, m-way search tree, AVL tree, Red-Black Tree). The foregoing is only an example, and the present disclosure is not limited thereto.

데이터 구조는 신경망의 하이퍼 파라미터(Hyper-parameter)를 포함할 수 있다. 그리고 신경망의 하이퍼 파라미터를 포함한 데이터 구조는 컴퓨터 판독가능 매체에 저장될 수 있다. 하이퍼 파라미터는 사용자에 의해 가변되는 변수일 수 있다. 하이퍼 파라미터는 예를 들어, 학습률(learning rate), 비용 함수(cost function), 학습 사이클 반복 횟수, 가중치 초기화(Weight initialization)(예를 들어, 가중치 초기화 대상이 되는 가중치 값의 범위 설정), Hidden Unit 개수(예를 들어, 히든 레이어의 개수, 히든 레이어의 노드 수)를 포함할 수 있다. 전술한 데이터 구조는 예시일 뿐 본 개시는 이에 제한되지 않는다.The data structure may include a hyper-parameter of a neural network. In addition, the data structure including the hyper parameter of the neural network may be stored in a computer-readable medium. The hyper parameter may be a variable that is variable by a user. Hyper parameters include, for example, learning rate, cost function, number of iterations of learning cycles, weight initialization (e.g., setting the range of weight values to be weighted to be initialized), Hidden Unit It may include the number (eg, the number of hidden layers, the number of nodes of the hidden layer). The above-described data structure is only an example, and the present disclosure is not limited thereto.

도 9는 본 개시의 일 실시예에 따른 컴퓨팅 장치의 블록 구성도이다.9 is a block diagram of a computing device according to an embodiment of the present disclosure.

도 9는 본 개시의 실시예들이 구현될 수 있는 예시 적인 컴퓨팅 환경에 대한 간략하고 일반적인 개략도를 도시한다.9 shows a simplified and general schematic diagram of an exemplary computing environment in which embodiments of the present disclosure may be implemented.

본 개시가 일반적으로 하나 이상의 컴퓨터 상에서 실행될 수 있는 컴퓨터 실행가능 명령어와 관련하여 전술되었지만, 당업자라면 본 개시가 기타 프로그램 모듈들과 결합되어 및/또는 하드웨어와 소프트웨어의 조합으로써 구현될 수 있다는 것을 잘 알 것이다.While the present disclosure has generally been described above with respect to computer-executable instructions that can be executed on one or more computers, those skilled in the art will appreciate that the present disclosure may be implemented in combination with other program modules and/or as a combination of hardware and software. will be.

일반적으로, 프로그램 모듈은 특정의 태스크를 수행하거나 특정의 추상 데이터 유형을 구현하는 루틴, 프로그램, 컴포넌트, 데이터 구조, 기타 등등을 포함한다. 또한, 당업자라면 본 개시의 방법이 단일-프로세서 또는 멀티프로세서 컴퓨터 시스템, 미니컴퓨터, 메인프레임 컴퓨터는 물론 퍼스널 컴퓨터, 핸드 헬드 컴퓨팅 장치, 마이크로프로세서-기반 또는 프로그램가능 가전 제품, 기타 등등(이들 각각은 하나 이상의 연관된 장치와 연결되어 동작할 수 있음)을 비롯한 다른 컴퓨터 시스템 구성으로 실시될 수 있다는 것을 잘 알 것이다.Generally, program modules include routines, programs, components, data structures, etc. that perform particular tasks or implement particular abstract data types. In addition, to those skilled in the art, the method of the present disclosure is not limited to single-processor or multiprocessor computer systems, minicomputers, mainframe computers, as well as personal computers, handheld computing devices, microprocessor-based or programmable household appliances, etc. (each of which is It will be appreciated that other computer system configurations may be implemented, including one that may operate in connection with one or more associated devices.

본 개시의 설명된 실시예들은 또한 어떤 태스크들이 통신 네트워크를 통해 연결되어 있는 원격 처리 장치들에 의해 수행되는 분산 컴퓨팅 환경에서 실시될 수 있다. 분산 컴퓨팅 환경에서, 프로그램 모듈은 로컬 및 원격 메모리 저장 장치 둘 다에 위치할 수 있다.The described embodiments of the present disclosure may also be practiced in a distributed computing environment where certain tasks are performed by remote processing devices that are connected through a communication network. In a distributed computing environment, program modules may be located in both local and remote memory storage devices.

컴퓨터는 통상적으로 다양한 컴퓨터 판독가능 매체를 포함한다. 컴퓨터에 의해 액세스 가능한 매체는 그 어떤 것이든지 컴퓨터 판독가능 매체가 될 수 있다. 컴퓨터 판독가능 매체는 휘발성 및 비휘발성 매체, 일시적(transitory) 및 비일시적(non-transitory) 매체, 이동식 및 비-이동식 매체를 포함한다. 제한이 아닌 예로서, 컴퓨터 판독가능 매체는 컴퓨터 판독가능 저장 매체 및 컴퓨터 판독가능 전송 매체를 포함할 수 있다. 컴퓨터 판독가능 저장 매체는 컴퓨터 판독가능 명령어, 데이터 구조, 프로그램 모듈 또는 기타 데이터와 같은 정보를 저장하는 임의의 방법 또는 기술로 구현되는 휘발성 및 비휘발성 매체, 일시적 및 비-일시적 매체, 이동식 및 비이동식 매체를 포함한다. 컴퓨터 저장 매체는 RAM, ROM, EEPROM, 플래시 메모리 또는 기타 메모리 기술, CD-ROM, DVD(digital video disk) 또는 기타 광 디스크 저장 장치, 자기 카세트, 자기 테이프, 자기 디스크 저장 장치 또는 기타 자기 저장 장치, 또는 컴퓨터에 의해 액세스될 수 있고 원하는 정보를 저장하는 데 사용될 수 있는 임의의 기타 매체를 포함하지만, 이에 한정되지 않는다.Computers typically include a variety of computer-readable media. Any medium accessible by the computer may be a computer-readable medium. Computer-readable media includes volatile and nonvolatile media, transitory and non-transitory media, and removable and non-removable media. By way of example and not limitation, computer-readable media may include computer-readable storage media and computer-readable transmission media. Computer-readable storage media include volatile and nonvolatile media, temporary and non-transitory media, removable and non-removable media implemented in any method or technology for storing information such as computer readable instructions, data structures, program modules or other data. Includes the medium. Computer storage media include RAM, ROM, EEPROM, flash memory or other memory technology, CD-ROM, digital video disk (DVD) or other optical disk storage device, magnetic cassette, magnetic tape, magnetic disk storage device, or other magnetic storage device, Or any other medium that can be accessed by a computer and used to store the desired information.

컴퓨터 판독가능 전송 매체는 통상적으로 기타 전송 메커니즘(transport mechanism)과 같은 피변조 데이터 신호(modulated data signal)에 컴퓨터 판독가능 명령어, 데이터 구조, 프로그램 모듈 또는 기타 데이터 등을 구현하고 모든 정보 전달 매체를 포함한다. 피변조 데이터 신호라는 용어는 신호 내에 정보를 인코딩하도록 그 신호의 특성들 중 하나 이상을 설정 또는 변경시킨 신호를 의미한다. 제한이 아닌 예로서, 컴퓨터 판독가능 전송 매체는 유선 네트워크 또는 직접 배선 접속(direct-wired connection)과 같은 유선 매체, 그리고 음향, RF, 적외선, 기타 무선 매체와 같은 무선 매체를 포함한다. 상술된 매체들 중 임의의 것의 조합도 역시 컴퓨터 판독가능 전송 매체의 범위 안에 포함되는 것으로 한다.Computer-readable transmission media typically embodies computer-readable instructions, data structures, program modules or other data in a modulated data signal, such as other transport mechanisms, and includes all information delivery media. do. The term modulated data signal refers to a signal in which one or more of the characteristics of the signal is set or changed so as to encode information in the signal. By way of example and not limitation, computer-readable transmission media include wired media such as a wired network or direct-wired connection, and wireless media such as acoustic, RF, infrared, and other wireless media. Combinations of any of the above-described media are also intended to be included within the scope of computer-readable transmission media.

컴퓨터(1102)를 포함하는 본 개시의 여러가지 측면들을 구현하는 예시 적인 환경(1100)이 나타내어져 있으며, 컴퓨터(1102)는 처리 장치(1104), 시스템 메모리(1106) 및 시스템 버스(1108)를 포함한다. 시스템 버스(1108)는 시스템 메모리(1106)(이에 한정되지 않음)를 비롯한 시스템 컴포넌트들을 처리 장치(1104)에 연결시킨다. 처리 장치(1104)는 다양한 상용 프로세서들 중 임의의 프로세서일 수 있다. 듀얼 프로세서 및 기타 멀티프로세서 아키텍처도 역시 처리 장치(1104)로서 이용될 수 있다.An exemplary environment 1100 is shown that implements various aspects of the present disclosure, including a computer 1102, which includes a processing unit 1104, a system memory 1106, and a system bus 1108. do. System bus 1108 couples system components, including but not limited to, system memory 1106 to processing device 1104. The processing unit 1104 may be any of a variety of commercially available processors. Dual processors and other multiprocessor architectures may also be used as processing unit 1104.

시스템 버스(1108)는 메모리 버스, 주변장치 버스, 및 다양한 상용 버스 아키텍처 중 임의의 것을 사용하는 로컬 버스에 추가적으로 상호 연결될 수 있는 몇 가지 유형의 버스 구조 중 임의의 것일 수 있다. 시스템 메모리(1106)는 판독 전용 메모리(ROM)(1110) 및 랜덤 액세스 메모리(RAM)(1112)를 포함한다. 기본 입/출력 시스템(BIOS)은 ROM, EPROM, EEPROM 등의 비휘발성 메모리(1110)에 저장되며, 이 BIOS는 시동 중과 같은 때에 컴퓨터(1102) 내의 구성요소들 간에 정보를 전송하는 일을 돕는 기본적인 루틴을 포함한다. RAM(1112)은 또한 데이터를 캐싱하기 위한 정적 RAM 등의 고속 RAM을 포함할 수 있다.The system bus 1108 may be any of several types of bus structures that may be additionally interconnected to a memory bus, a peripheral bus, and a local bus using any of a variety of commercial bus architectures. System memory 1106 includes read-only memory (ROM) 1110 and random access memory (RAM) 1112. The basic input/output system (BIOS) is stored in non-volatile memory 1110 such as ROM, EPROM, EEPROM, etc. This BIOS is a basic input/output system that helps transfer information between components in the computer 1102, such as during startup. Includes routines. RAM 1112 may also include high speed RAM such as static RAM for caching data.

컴퓨터(1102)는 또한 내장형 하드 디스크 드라이브(HDD)(1114)(예를 들어, EIDE, SATA)-이 내장형 하드 디스크 드라이브(1114)는 또한 적당한 섀시(도시 생략) 내에서 외장형 용도로 구성될 수 있음-, 자기 플로피 디스크 드라이브(FDD)(1116)(예를 들어, 이동식 디스켓(1118)으로부터 판독을 하거나 그에 기록을 하기 위한 것임), 및 광 디스크 드라이브(1120)(예를 들어, CD-ROM 디스크(1122)를 판독하거나 DVD 등의 기타 고용량 광 매체로부터 판독을 하거나 그에 기록을 하기 위한 것임)를 포함한다. 하드 디스크 드라이브(1114), 자기 디스크 드라이브(1116) 및 광 디스크 드라이브(1120)는 각각 하드 디스크 드라이브 인터페이스(1124), 자기 디스크 드라이브 인터페이스(1126) 및 광 드라이브 인터페이스(1128)에 의해 시스템 버스(1108)에 연결될 수 있다. 외장형 드라이브 구현을 위한 인터페이스(1124)는 USB(Universal Serial Bus) 및 IEEE 1394 인터페이스 기술 중 적어도 하나 또는 그 둘 다를 포함한다.The computer 1102 also includes an internal hard disk drive (HDD) 1114 (e.g., EIDE, SATA)-this internal hard disk drive 1114 can also be configured for external use within a suitable chassis (not shown). Yes-, magnetic floppy disk drive (FDD) 1116 (for example, to read from or write to removable diskette 1118), and optical disk drive 1120 (e.g., CD-ROM For reading the disk 1122 or for reading from or writing to other high-capacity optical media such as DVD). The hard disk drive 1114, the magnetic disk drive 1116, and the optical disk drive 1120 are each connected to the system bus 1108 by a hard disk drive interface 1124, a magnetic disk drive interface 1126, and an optical drive interface 1128. ) Can be connected. The interface 1124 for implementing an external drive includes at least one or both of Universal Serial Bus (USB) and IEEE 1394 interface technologies.

이들 드라이브 및 그와 연관된 컴퓨터 판독가능 매체는 데이터, 데이터 구조, 컴퓨터 실행가능 명령어, 기타 등등의 비 휘발성 저장을 제공한다. 컴퓨터(1102)의 경우, 드라이브 및 매체는 임의의 데이터를 적당한 디지털 형식으로 저장하는 것에 대응한다. 상기에서의 컴퓨터 판독가능 매체에 대한 설명이 HDD, 이동식 자기 디스크, 및 CD 또는 DVD 등의 이동식 광 매체를 언급하고 있지만, 당업자라면 집 드라이브(zip drive), 자기 카세트, 플래쉬 메모리 카드, 카트리지, 기타 등등의 컴퓨터에 의해 판독가능한 다른 유형의 매체도 역시 예시 적인 운영 환경에서 사용될 수 있으며 또 임의의 이러한 매체가 본 개시의 방법들을 수행하기 위한 컴퓨터 실행가능 명령어를 포함할 수 있다는 것을 잘 알 것이다.These drives and their associated computer readable media provide non-volatile storage of data, data structures, computer executable instructions, and the like. In the case of computer 1102, drives and media correspond to storing any data in a suitable digital format. Although the description of the computer-readable medium above refers to a removable optical medium such as a HDD, a removable magnetic disk, and a CD or DVD, those skilled in the art may use a zip drive, a magnetic cassette, a flash memory card, a cartridge, etc. It will be appreciated that other types of media readable by a computer, such as the like, may also be used in the exemplary operating environment and that any such media may contain computer executable instructions for performing the methods of the present disclosure.

운영 체제(1130), 하나 이상의 애플리케이션 프로그램(1132), 기타 프로그램 모듈(1134) 및 프로그램 데이터(1136)를 비롯한 다수의 프로그램 모듈이 드라이브 및 RAM(1112)에 저장될 수 있다. 운영 체제, 애플리케이션, 모듈 및/또는 데이터의 전부 또는 그 일부분이 또한 RAM(1112)에 캐싱될 수 있다. 본 개시가 여러가지 상업적으로 이용가능한 운영 체제 또는 운영 체제들의 조합에서 구현될 수 있다는 것을 잘 알 것이다.A number of program modules, including the operating system 1130, one or more application programs 1132, other program modules 1134, and program data 1136, may be stored in the drive and RAM 1112. All or part of the operating system, applications, modules and/or data may also be cached in RAM 1112. It will be appreciated that the present disclosure may be implemented on several commercially available operating systems or combinations of operating systems.

사용자는 하나 이상의 유선/무선 입력 장치, 예를 들어, 키보드(1138) 및 마우스(1140) 등의 포인팅 장치를 통해 컴퓨터(1102)에 명령 및 정보를 입력할 수 있다. 기타 입력 장치(도시 생략)로는 마이크, IR 리모콘, 조이스틱, 게임 패드, 스타일러스 펜, 터치 스크린, 기타 등등이 있을 수 있다. 이들 및 기타 입력 장치가 종종 시스템 버스(1108)에 연결되어 있는 입력 장치 인터페이스(1142)를 통해 처리 장치(1104)에 연결되지만, 병렬 포트, IEEE 1394 직렬 포트, 게임 포트, USB 포트, IR 인터페이스, 기타 등등의 기타 인터페이스에 의해 연결될 수 있다.A user may input commands and information to the computer 1102 through one or more wired/wireless input devices, for example, a pointing device such as a keyboard 1138 and a mouse 1140. Other input devices (not shown) may include a microphone, IR remote control, joystick, game pad, stylus pen, touch screen, and the like. These and other input devices are often connected to the processing unit 1104 through the input device interface 1142, which is connected to the system bus 1108, but the parallel port, IEEE 1394 serial port, game port, USB port, IR interface, It can be connected by other interfaces such as etc.

모니터(1144) 또는 다른 유형의 디스플레이 장치도 역시 비디오 어댑터(1146) 등의 인터페이스를 통해 시스템 버스(1108)에 연결된다. 모니터(1144)에 부가하여, 컴퓨터는 일반적으로 스피커, 프린터, 기타 등등의 기타 주변 출력 장치(도시 생략)를 포함한다.A monitor 1144 or other type of display device is also connected to the system bus 1108 through an interface such as a video adapter 1146. In addition to the monitor 1144, the computer generally includes other peripheral output devices (not shown) such as speakers, printers, and the like.

컴퓨터(1102)는 유선 및/또는 무선 통신을 통한 원격 컴퓨터(들)(1148) 등의 하나 이상의 원격 컴퓨터로의 논리적 연결을 사용하여 네트워크화 된 환경에서 동작할 수 있다. 원격 컴퓨터(들)(1148)는 워크스테이션, 컴퓨팅 디바이스 컴퓨터, 라우터, 퍼스널 컴퓨터, 휴대용 컴퓨터, 마이크로프로세서-기반 오락 기기, 피어 장치 또는 기타 통상의 네트워크 노드일 수 있으며, 일반적으로 컴퓨터(1102)에 대해 기술된 구성요소들 중 다수 또는 그 전부를 포함하지만, 간략함을 위해, 메모리 저장 장치(1150)만이 도시되어 있다. 도시되어 있는 논리적 연결은 근거리 통신망(LAN)(1152) 및/또는 더 큰 네트워크, 예를 들어, 원거리 통신망(WAN)(1154)에의 유선/무선 연결을 포함한다. 이러한 LAN 및 WAN 네트워킹 환경은 사무실 및 회사에서 일반적인 것이며, 인트라넷 등의 전사적 컴퓨터 네트워크(enterprise-wide computer network)를 용이하게 해주며, 이들 모두는 전세계 컴퓨터 네트워크, 예를 들어, 인터넷에 연결될 수 있다.Computer 1102 may operate in a networked environment using logical connections to one or more remote computers, such as remote computer(s) 1148, via wired and/or wireless communication. The remote computer(s) 1148 may be a workstation, a computing device computer, a router, a personal computer, a portable computer, a microprocessor-based entertainment device, a peer device, or other common network node, and is generally connected to the computer 1102. Although it includes many or all of the components described for simplicity, only memory storage device 1150 is shown. The logical connections shown include wired/wireless connections to a local area network (LAN) 1152 and/or to a larger network, eg, a wide area network (WAN) 1154. Such LAN and WAN networking environments are common in offices and companies, and facilitate enterprise-wide computer networks such as intranets, all of which can be connected to worldwide computer networks, for example the Internet.

LAN 네트워킹 환경에서 사용될 때, 컴퓨터(1102)는 유선 및/또는 무선 통신 네트워크 인터페이스 또는 어댑터(1156)를 통해 로컬 네트워크(1152)에 연결된다. 어댑터(1156)는 LAN(1152)에의 유선 또는 무선 통신을 용이하게 해줄 수 있으며, 이 LAN(1152)은 또한 무선 어댑터(1156)와 통신하기 위해 그에 설치되어 있는 무선 액세스 포인트를 포함하고 있다. WAN 네트워킹 환경에서 사용될 때, 컴퓨터(1102)는 모뎀(1158)을 포함할 수 있거나, WAN(1154) 상의 통신 컴퓨팅 디바이스에 연결되거나, 또는 인터넷을 통하는 등, WAN(1154)을 통해 통신을 설정하는 기타 수단을 갖는다. 내장형 또는 외장형 및 유선 또는 무선 장치일 수 있는 모뎀(1158)은 직렬 포트 인터페이스(1142)를 통해 시스템 버스(1108)에 연결된다. 네트워크화 된 환경에서, 컴퓨터(1102)에 대해 설명된 프로그램 모듈들 또는 그의 일부분이 원격 메모리/저장 장치(1150)에 저장될 수 있다. 도시된 네트워크 연결이 예시 적인 것이며 컴퓨터들 사이에 통신 링크를 설정하는 기타 수단이 사용될 수 있다는 것을 잘 알 것이다.When used in a LAN networking environment, the computer 1102 is connected to the local network 1152 via a wired and/or wireless communication network interface or adapter 1156. Adapter 1156 may facilitate wired or wireless communication to LAN 1152, which also includes a wireless access point installed therein to communicate with wireless adapter 1156. When used in a WAN networking environment, the computer 1102 may include a modem 1158, connected to a communication computing device on the WAN 1154, or through the Internet, to establish communication through the WAN 1154. Have other means. Modem 1158, which may be an internal or external and a wired or wireless device, is connected to the system bus 1108 through a serial port interface 1142. In a networked environment, program modules described for the computer 1102 or portions thereof may be stored in the remote memory/storage device 1150. It will be appreciated that the network connections shown are exemplary and other means of establishing communication links between computers may be used.

컴퓨터(1102)는 무선 통신으로 배치되어 동작하는 임의의 무선 장치 또는 개체, 예를 들어, 프린터, 스캐너, 데스크톱 및/또는 휴대용 컴퓨터, PDA(portable data assistant), 통신 위성, 무선 검출가능 태그와 연관된 임의의 장비 또는 장소, 및 전화와 통신을 하는 동작을 한다. 이것은 적어도 Wi-Fi 및 블루투스 무선 기술을 포함한다. 따라서, 통신은 종래의 네트워크에서와 같이 미리 정의된 구조이거나 단순하게 적어도 2개의 장치 사이의 애드혹 통신(ad hoc communication)일 수 있다.Computer 1102 is associated with any wireless device or entity deployed and operated in wireless communication, e.g., a printer, scanner, desktop and/or portable computer, portable data assistant (PDA), communication satellite, wireless detectable tag. It operates to communicate with any device or place, and a phone. This includes at least Wi-Fi and Bluetooth wireless technologies. Accordingly, the communication may be a predefined structure as in a conventional network or may simply be ad hoc communication between at least two devices.

Wi-Fi(Wireless Fidelity)는 유선 없이도 인터넷 등으로의 연결을 가능하게 해준다. Wi-Fi는 이러한 장치, 예를 들어, 컴퓨터가 실내에서 및 실외에서, 즉 기지국의 통화권 내의 아무 곳에서나 데이터를 전송 및 수신할 수 있게 해주는 셀 전화와 같은 무선 기술이다. Wi-Fi 네트워크는 안전하고 신뢰성 있으며 고속인 무선 연결을 제공하기 위해 IEEE 802.11(a,b,g, 기타)이라고 하는 무선 기술을 사용한다. 컴퓨터를 서로에, 인터넷에 및 유선 네트워크(IEEE 802.3 또는 이더넷을 사용함)에 연결시키기 위해 Wi-Fi가 사용될 수 있다. Wi-Fi 네트워크는 비인가 2.4 및 5 GHz 무선 대역에서, 예를 들어, 11Mbps(802.11a) 또는 54 Mbps(802.11b) 데이터 레이트로 동작하거나, 양 대역(듀얼 대역)을 포함하는 제품에서 동작할 수 있다.Wi-Fi (Wireless Fidelity) allows you to connect to the Internet or the like without wires. Wi-Fi is a wireless technology such as a cell phone that allows such devices, for example computers, to transmit and receive data indoors and outdoors, that is, anywhere within the coverage area of a base station. Wi-Fi networks use a wireless technology called IEEE 802.11 (a, b, g, etc.) to provide a secure, reliable and high-speed wireless connection. Wi-Fi can be used to connect computers to each other, to the Internet, and to a wired network (using IEEE 802.3 or Ethernet). Wi-Fi networks can operate in unlicensed 2.4 and 5 GHz radio bands, for example, at a data rate of 11 Mbps (802.11a) or 54 Mbps (802.11b), or in products that include both bands (dual band). have.

본 개시의 기술 분야에서 통상의 지식을 가진 자는 정보 및 신호들이 임의의 다양한 상이한 기술들 및 기법들을 이용하여 표현될 수 있다는 것을 이해할 것이다. 예를 들어, 위의 설명에서 참조될 수 있는 데이터, 지시들, 명령들, 정보, 신호들, 비트들, 심볼들 및 칩들은 전압들, 전류들, 전자기파들, 자기장들 또는 입자들, 광학장들 또는 입자들, 또는 이들의 임의의 결합에 의해 표현될 수 있다.Those of ordinary skill in the art of this disclosure will understand that information and signals may be represented using any of a variety of different technologies and techniques. For example, data, instructions, commands, information, signals, bits, symbols and chips that may be referenced in the above description are voltages, currents, electromagnetic waves, magnetic fields or particles, optical fields. Or particles, or any combination thereof.

본 개시의 기술 분야에서 통상의 지식을 가진 자는 여기에 개시된 실시예들과 관련하여 설명된 다양한 예시 적인 논리 블록들, 모듈들, 프로세서들, 수단들, 회로들 및 알고리즘 단계들이 전자 하드웨어, (편의를 위해, 여기에서 "소프트웨어"로 지칭되는) 다양한 형태들의 프로그램 또는 설계 코드 또는 이들 모두의 결합에 의해 구현될 수 있다는 것을 이해할 것이다. 하드웨어 및 소프트웨어의 이러한 상호 호환성을 명확하게 설명하기 위해, 다양한 예시 적인 컴포넌트들, 블록들, 모듈들, 회로들 및 단계들이 이들의 기능과 관련하여 위에서 일반적으로 설명되었다. 이러한 기능이 하드웨어 또는 소프트웨어로서 구현되는지 여부는 특정한 애플리케이션 및 전체 시스템에 대하여 부과되는 설계 제약들에 따라 좌우된다. 본 개시의 기술 분야에서 통상의 지식을 가진 자는 각각의 특정한 애플리케이션에 대하여 다양한 방식들로 설명된 기능을 구현할 수 있으나, 이러한 구현 결정들은 본 개시의 범위를 벗어나는 것으로 해석되어서는 안 될 것이다.Those of ordinary skill in the art of the present disclosure include various exemplary logical blocks, modules, processors, means, circuits and algorithm steps described in connection with the embodiments disclosed herein, electronic hardware For the sake of clarity, it will be appreciated that it may be implemented by various forms of program or design code or a combination of both (referred to herein as "software"). To clearly illustrate this interchangeability of hardware and software, various illustrative components, blocks, modules, circuits, and steps have been described above generally in terms of their functionality. Whether such functionality is implemented as hardware or software depends on the particular application and design constraints imposed on the overall system. A person of ordinary skill in the art of the present disclosure may implement the described functions in various ways for each specific application, but such implementation decisions should not be interpreted as causing a departure from the scope of the present disclosure.

여기서 제시된 다양한 실시예들은 방법, 장치, 또는 표준 프로그래밍 및/또는 엔지니어링 기술을 사용한 제조 물품(article)으로 구현될 수 있다. 용어 "제조 물품"은 임의의 컴퓨터-판독가능 장치로부터 액세스 가능한 컴퓨터 프로그램 또는 매체(media)를 포함한다. 예를 들어, 컴퓨터-판독가능 매체는 자기 저장 장치(예를 들면, 하드 디스크, 플로피 디스크, 자기 스트립, 등), 광학 디스크(예를 들면, CD, DVD, 등), 스마트 카드, 및 플래쉬 메모리 장치(예를 들면, EEPROM, 카드, 스틱, 키 드라이브, 등)를 포함하지만, 이들로 제한되는 것은 아니다. 또한, 여기서 제시되는 다양한 저장 매체는 정보를 저장하기 위한 하나 이상의 장치 및/또는 다른 기계-판독가능한 매체를 포함한다. The various embodiments presented herein may be implemented as a method, apparatus, or article of manufacture using standard programming and/or engineering techniques. The term “article of manufacture” includes a computer program or media accessible from any computer-readable device. For example, computer-readable media include magnetic storage devices (e.g., hard disks, floppy disks, magnetic strips, etc.), optical disks (e.g., CD, DVD, etc.), smart cards, and flash memory. Devices (eg, EEPROM, card, stick, key drive, etc.). In addition, the various storage media presented herein include one or more devices and/or other machine-readable media for storing information.

제시된 프로세스들에 있는 단계들의 특정한 순서 또는 계층 구조는 예시 적인 접근들의 일례임을 이해하도록 한다. 설계 우선순위들에 기반하여, 본 개시의 범위 내에서 프로세스들에 있는 단계들의 특정한 순서 또는 계층 구조가 재배열될 수 있다는 것을 이해하도록 한다. 첨부된 방법 청구항들은 샘플 순서로 다양한 단계들의 엘리먼트들을 제공하지만 제시된 특정한 순서 또는 계층 구조에 한정되는 것을 의미하지는 않는다.It is to be understood that the specific order or hierarchy of steps in the presented processes is an example of exemplary approaches. Based on the design priorities, it is to be understood that within the scope of this disclosure a specific order or hierarchy of steps in processes may be rearranged. The appended method claims provide elements of the various steps in a sample order, but are not meant to be limited to the specific order or hierarchy presented.

제시된 실시예들에 대한 설명은 임의의 본 개시의 기술 분야에서 통상의 지식을 가진 자가 본 개시를 이용하거나 또는 실시할 수 있도록 제공된다. 이러한 실시예들에 대한 다양한 변형들은 본 개시의 기술 분야에서 통상의 지식을 가진 자에게 명백할 것이다. 여기에 정의된 일반적인 원리들은 본 개시의 범위를 벗어남이 없이 다른 실시예들에 적용될 수 있다. 그리하여, 본 개시는 여기에 제시된 실시예들로 한정되는 것이 아니라, 여기에 제시된 원리들 및 신규한 특징들과 일관되는 최광의의 범위에서 해석되어야 할 것이다.A description of the presented embodiments is provided to enable any person skilled in the art to make or use the present disclosure. Various modifications to these embodiments will be apparent to those of ordinary skill in the art. The general principles defined herein may be applied to other embodiments without departing from the scope of the present disclosure. Thus, the present disclosure is not to be limited to the embodiments presented herein, but is to be construed in the widest scope consistent with the principles and novel features presented herein.

Claims (14)

컴퓨터 판독가능 저장 매체에 저장된 컴퓨터 프로그램으로서, 상기 컴퓨터 프로그램은 컴퓨팅 장치의 하나 이상의 프로세서에서 실행되는 경우 라벨링을 위한 정보를 표시하는 사용자 인터페이스(UI)를 제공하며, 상기 사용자 인터페이스는:
라벨 대상 객체를 포함하는 이미지를 표시하고, 그리고 상기 라벨 대상 객체를 표시하기 위한 사용자 어노테이션 입력에 대한 응답으로, 상기 라벨 대상 객체에 대한 어노테이션 폼(form)을 표시하는 이미지 레이어; 및
상기 라벨 대상 객체의 라벨에 포함된 둘 이상의 계층 각각에 대한 클래스를 입력하기 위한 사용자 클래스 입력을 허용하는 라벨 레이어;
를 포함하고,
상기 라벨 레이어는:
제 1 계층에 대응되는 하나 이상의 제 1 템플릿 클래스 및 제 2 계층에 대응되는 하나 이상의 제 2 템플릿 클래스를 표시하는 템플릿 클래스 선택 영역;
을 포함하고, 그리고
상기 제 1 템플릿 클래스 또는 상기 제 2 템플릿 클래스 중 적어도 하나에 대한 사용자 라벨 입력에 응답하여, 상기 제 1 계층에 대응되는 제 1 클래스 표시 객체 또는 상기 제 2 계층에 대응되는 제 2 클래스 표시 객체 중 적어도 하나에 상기 사용자 라벨 입력에 대응되는 상기 제 1 템플릿 클래스 또는 상기 제 2 템플릿 클래스 중 적어도 하나를 각각 표시하는,
컴퓨터 판독가능 저장 매체에 저장된 컴퓨터 프로그램.
A computer program stored in a computer-readable storage medium, the computer program providing a user interface (UI) for displaying information for labeling when executed on one or more processors of a computing device, the user interface comprising:
An image layer that displays an image including the label object object, and displays an annotation form for the label object object in response to a user annotation input for displaying the label object object; And
A label layer allowing a user class input for inputting a class for each of two or more layers included in the label of the label object object;
Including,
The label layer is:
A template class selection area displaying one or more first template classes corresponding to a first layer and one or more second template classes corresponding to a second layer;
Contains, and
In response to a user label input for at least one of the first template class or the second template class, at least one of a first class display object corresponding to the first layer or a second class display object corresponding to the second layer Displaying at least one of the first template class and the second template class corresponding to the user label input on one, respectively,
A computer program stored on a computer readable storage medium.
제 1 항에 있어서,
상기 라벨 레이어는:
제 1 계층에 대응되는 제 1 클래스 표시 객체, 제 2 계층에 대응되는 제 2 클래스 표시 객체, 계층 추가 객체 및 계층 삭제 객체를 표시하는,
컴퓨터 판독가능 저장 매체에 저장된 컴퓨터 프로그램.
The method of claim 1,
The label layer is:
Displaying a first class display object corresponding to a first layer, a second class display object corresponding to a second layer, a layer addition object, and a layer deletion object,
A computer program stored on a computer readable storage medium.
제 2 항에 있어서,
상기 라벨 레이어는:
상기 계층 추가 객체에 대한 사용자 입력에 대한 응답으로 제 3 계층에 대응되는 제 3 클래스 표시 객체를 더 표시하거나, 또는
상기 계층 삭제 객체에 대한 사용자 입력에 대한 응답으로 상기 제 2 계층에 대응되는 상기 제 2 클래스 표시 객체를 삭제하는,
컴퓨터 판독가능 저장 매체에 저장된 컴퓨터 프로그램.
The method of claim 2,
The label layer is:
In response to a user input for the layer addition object, a third class display object corresponding to the third layer is further displayed, or
Deleting the second class display object corresponding to the second layer in response to a user input to the layer deletion object,
A computer program stored on a computer readable storage medium.
삭제delete 제 1 항에 있어서,
상기 템플릿 클래스 선택 영역은:
상기 제 1 계층에 대응되는 제 1 추가 템플릿 클래스 또는 상기 제 2 계층에 대응되는 제 2 추가 템플릿 클래스 중 적어도 하나에 대한 사용자 입력의 응답으로, 상기 추가 템플릿 클래스들을 더 표시하는,
컴퓨터 판독가능 저장 매체에 저장된 컴퓨터 프로그램.
The method of claim 1,
The template class selection area is:
In response to a user input to at least one of a first additional template class corresponding to the first layer or a second additional template class corresponding to the second layer, further displaying the additional template classes,
A computer program stored on a computer readable storage medium.
제 1 항에 있어서,
상기 사용자 어노테이션 입력은:
상기 라벨 대상 객체의 영역을 표시하기 위한 영역 선택 입력; 및
상기 어노테이션 폼의 위치, 크기 또는 각도 중 적어도 하나를 변경하기 위한 영역 조정 입력;
을 포함하는,
컴퓨터 판독가능 저장 매체에 저장된 컴퓨터 프로그램.
The method of claim 1,
The user annotation input is:
A region selection input for displaying the region of the label object object; And
A region adjustment input for changing at least one of a position, a size, or an angle of the annotation form;
Containing,
A computer program stored on a computer readable storage medium.
제 1 항에 있어서,
상기 어노테이션 폼은:
하나 이상의 어노테이션 폼 모양 중 사용자 선택 입력된 하나의 어노테이션 폼 모양으로 표시되는,
컴퓨터 판독가능 저장 매체에 저장된 컴퓨터 프로그램.
The method of claim 1,
The annotation form is:
Displayed as one user-selected annotation form shape among one or more annotation form shapes,
A computer program stored on a computer readable storage medium.
제 1 항에 있어서,
상기 이미지 레이어는:
상기 이미지에 포함된 제 1 어노테이션 폼을 복사하기 위한 사용자의 복사 입력에 대한 응답으로, 상기 제 1 어노테이션 폼과 동일한 형태의 제 2 어노테이션 폼을 추가로 표시하는,
컴퓨터 판독가능 저장 매체에 저장된 컴퓨터 프로그램.
The method of claim 1,
The image layer is:
In response to a user's copy input for copying the first annotation form included in the image, further displaying a second annotation form having the same form as the first annotation form,
A computer program stored on a computer readable storage medium.
제 1 항에 있어서,
상기 이미지 레이어는:
상기 이미지에 포함된 제 1 라벨 대상 객체에 대한 제 1 어노테이션 폼 표시에 대한 응답으로, 상기 제 1 라벨 대상 객체와 관련된 제 2 라벨 대상 객체에 대해, 상기 제 1 어노테이션 폼에 기초한 제 2 어노테이션 폼을 상기 제 2 라벨 대상 객체에 추가로 표시하는,
컴퓨터 판독가능 저장 매체에 저장된 컴퓨터 프로그램.
The method of claim 1,
The image layer is:
In response to displaying the first annotation form for the first label target object included in the image, a second annotation form based on the first annotation form is provided for the second label target object related to the first label target object. Additionally displayed on the second label target object,
A computer program stored on a computer readable storage medium.
제 1 항에 있어서,
상기 프로세서는:
상기 이미지에 포함된 제 1 라벨 대상 객체에 대한 제 1 클래스 입력에 대한 응답으로,
상기 제 1 라벨 대상 객체와 관련된 제 2 라벨 대상 객체에 대해 상기 제 1 클래스를 라벨로 결정하는 동작; 또는
상기 제 1 라벨 대상 객체와 관련되지 않은 제 3 라벨 대상 객체에 대해 상기 제 1 클래스와 상이한 클래스인 제 2 클래스를 라벨로 결정하는 동작;
을 포함하는,
컴퓨터 판독가능 저장 매체에 저장된 컴퓨터 프로그램.
The method of claim 1,
The processor is:
In response to a first class input for a first label target object included in the image,
Determining the first class as a label for a second label target object related to the first label target object; or
Determining a second class, which is a class different from the first class, as a label for a third label target object not related to the first label target object;
Containing,
A computer program stored on a computer readable storage medium.
제 1 항에 있어서,
상기 프로세서는:
상기 어노테이션 폼에 포함된 객체 및 상기 사용자 클래스 입력에 대응되는 라벨을 포함하는 학습 데이터를 생성하는 동작;
을 포함하는,
컴퓨터 판독가능 저장 매체에 저장된 컴퓨터 프로그램.
The method of claim 1,
The processor is:
Generating learning data including an object included in the annotation form and a label corresponding to the user class input;
Containing,
A computer program stored on a computer readable storage medium.
사용자 단말에서 라벨링 정보를 표시하는 방법으로서,
이미지 레이어에 라벨 대상 객체를 포함하는 이미지를 표시하는 단계;
상기 이미지 레이어에 상기 라벨 대상 객체를 표시하기 위한 사용자 어노테이션 입력에 대한 응답으로, 상기 라벨 대상 객체에 대한 어노테이션 폼을 표시하는 단계; 및
라벨 레이어에 상기 라벨 대상 객체의 라벨에 포함된 둘 이상의 계층 각각에 대한 클래스를 입력하기 위한 사용자 클래스 입력을 허용하는 디스플레이 객체를 표시하는 단계;
를 포함하고,
상기 라벨 레이어는:
제 1 계층에 대응되는 하나 이상의 제 1 템플릿 클래스 및 제 2 계층에 대응되는 하나 이상의 제 2 템플릿 클래스를 표시하는 템플릿 클래스 선택 영역;
을 포함하고, 그리고
상기 제 1 템플릿 클래스 또는 상기 제 2 템플릿 클래스 중 적어도 하나에 대한 사용자 라벨 입력에 응답하여, 상기 제 1 계층에 대응되는 제 1 클래스 표시 객체 또는 상기 제 2 계층에 대응되는 제 2 클래스 표시 객체 중 적어도 하나에 상기 사용자 라벨 입력에 대응되는 상기 제 1 템플릿 클래스 또는 상기 제 2 템플릿 클래스 중 적어도 하나를 각각 표시하는,
사용자 단말에서 라벨링 정보를 표시하는 방법.
As a method of displaying labeling information in a user terminal,
Displaying an image including the label target object on the image layer;
Displaying an annotation form for the label object object in response to a user annotation input for displaying the label object object on the image layer; And
Displaying a display object allowing input of a user class for inputting a class for each of two or more layers included in a label of the label target object on a label layer;
Including,
The label layer is:
A template class selection area displaying one or more first template classes corresponding to a first layer and one or more second template classes corresponding to a second layer;
Contains, and
In response to a user label input for at least one of the first template class or the second template class, at least one of a first class display object corresponding to the first layer or a second class display object corresponding to the second layer Displaying at least one of the first template class and the second template class corresponding to the user label input on one, respectively,
A method of displaying labeling information in a user terminal.
사용자 단말로서,
하나 이상의 코어를 포함하는 프로세서;
메모리; 및
사용자 인터페이스를 제공하는 출력부;
를 포함하고,
상기 사용자 인터페이스는,
라벨 대상 객체를 포함하는 이미지를 표시하고, 그리고 상기 라벨 대상 객체를 표시하기 위한 사용자 어노테이션 입력에 대한 응답으로, 상기 라벨 대상 객체에 대한 어노테이션 폼을 표시하는 이미지 레이어; 및
상기 라벨 대상 객체의 라벨에 포함된 둘 이상의 계층 각각에 대한 클래스를 입력하기 위한 사용자 클래스 입력을 허용하는 라벨 레이어;
를 포함하고,
상기 라벨 레이어는:
제 1 계층에 대응되는 하나 이상의 제 1 템플릿 클래스 및 제 2 계층에 대응되는 하나 이상의 제 2 템플릿 클래스를 표시하는 템플릿 클래스 선택 영역;
을 포함하고, 그리고
상기 제 1 템플릿 클래스 또는 상기 제 2 템플릿 클래스 중 적어도 하나에 대한 사용자 라벨 입력에 응답하여, 상기 제 1 계층에 대응되는 제 1 클래스 표시 객체 또는 상기 제 2 계층에 대응되는 제 2 클래스 표시 객체 중 적어도 하나에 상기 사용자 라벨 입력에 대응되는 상기 제 1 템플릿 클래스 또는 상기 제 2 템플릿 클래스 중 적어도 하나를 각각 표시하는,
사용자 단말.
As a user terminal,
A processor including one or more cores;
Memory; And
An output unit providing a user interface;
Including,
The user interface,
An image layer that displays an image including the label object object, and displays an annotation form for the label object object in response to a user annotation input for displaying the label object object; And
A label layer allowing a user class input for inputting a class for each of two or more layers included in the label of the label object object;
Including,
The label layer is:
A template class selection area displaying one or more first template classes corresponding to a first layer and one or more second template classes corresponding to a second layer;
Contains, and
In response to a user label input for at least one of the first template class or the second template class, at least one of a first class display object corresponding to the first layer or a second class display object corresponding to the second layer Displaying at least one of the first template class and the second template class corresponding to the user label input on one, respectively,
User terminal.
서버로서,
하나 이상의 코어를 포함하는 프로세서;
네트워크부; 및
메모리;
를 포함하고,
상기 프로세서는 상기 네트워크부를 통해 사용자 단말로 사용자 인터페이스(UI)를 전송할 것을 결정하며,
상기 사용자 인터페이스는:
라벨 대상 객체를 포함하는 이미지를 표시하고, 그리고 상기 라벨 대상 객체를 표시하기 위한 사용자 어노테이션 입력에 대한 응답으로, 상기 라벨 대상 객체에 대한 어노테이션 폼을 표시하는 이미지 레이어; 및
상기 라벨 대상 객체의 라벨에 포함된 둘 이상의 계층 각각에 대한 클래스를 입력하기 위한 사용자 클래스 입력을 허용하는 라벨 레이어;
를 포함하고,
상기 라벨 레이어는:
제 1 계층에 대응되는 하나 이상의 제 1 템플릿 클래스 및 제 2 계층에 대응되는 하나 이상의 제 2 템플릿 클래스를 표시하는 템플릿 클래스 선택 영역;
을 포함하고, 그리고
상기 제 1 템플릿 클래스 또는 상기 제 2 템플릿 클래스 중 적어도 하나에 대한 사용자 라벨 입력에 응답하여, 상기 제 1 계층에 대응되는 제 1 클래스 표시 객체 또는 상기 제 2 계층에 대응되는 제 2 클래스 표시 객체 중 적어도 하나에 상기 사용자 라벨 입력에 대응되는 상기 제 1 템플릿 클래스 또는 상기 제 2 템플릿 클래스 중 적어도 하나를 각각 표시하는,
서버.
As a server,
A processor including one or more cores;
Network unit; And
Memory;
Including,
The processor determines to transmit a user interface (UI) to the user terminal through the network unit,
The user interface is:
An image layer that displays an image including the label object object, and displays an annotation form for the label object object in response to a user annotation input for displaying the label object object; And
A label layer allowing a user class input for inputting a class for each of two or more layers included in the label of the label object object;
Including,
The label layer is:
A template class selection area displaying one or more first template classes corresponding to a first layer and one or more second template classes corresponding to a second layer;
Contains, and
In response to a user label input for at least one of the first template class or the second template class, at least one of a first class display object corresponding to the first layer or a second class display object corresponding to the second layer Displaying at least one of the first template class and the second template class corresponding to the user label input on one, respectively,
server.
KR1020200022206A 2020-02-24 2020-02-24 Method to generate label Active KR102247245B1 (en)

Priority Applications (2)

Application Number Priority Date Filing Date Title
KR1020200022206A KR102247245B1 (en) 2020-02-24 2020-02-24 Method to generate label
KR1020210054030A KR20210107558A (en) 2020-02-24 2021-04-27 Method to generate label

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020200022206A KR102247245B1 (en) 2020-02-24 2020-02-24 Method to generate label

Related Child Applications (1)

Application Number Title Priority Date Filing Date
KR1020210054030A Division KR20210107558A (en) 2020-02-24 2021-04-27 Method to generate label

Publications (1)

Publication Number Publication Date
KR102247245B1 true KR102247245B1 (en) 2021-05-03

Family

ID=75910846

Family Applications (2)

Application Number Title Priority Date Filing Date
KR1020200022206A Active KR102247245B1 (en) 2020-02-24 2020-02-24 Method to generate label
KR1020210054030A Withdrawn KR20210107558A (en) 2020-02-24 2021-04-27 Method to generate label

Family Applications After (1)

Application Number Title Priority Date Filing Date
KR1020210054030A Withdrawn KR20210107558A (en) 2020-02-24 2021-04-27 Method to generate label

Country Status (1)

Country Link
KR (2) KR102247245B1 (en)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN114419484A (en) * 2021-12-17 2022-04-29 广州智能科技发展有限公司 Machine vision-based intelligent labeling method, electronic equipment, storage medium and program product
KR102769971B1 (en) * 2024-03-07 2025-02-20 주식회사 포스로직 Method for classification for multiple objects in image and apparatus for performing the method

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102430398B1 (en) * 2021-12-21 2022-08-09 주식회사 인피닉 Annotation method through point designation and a computer program recorded on a recording medium to execute it

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20060041564A1 (en) * 2004-08-20 2006-02-23 Innovative Decision Technologies, Inc. Graphical Annotations and Domain Objects to Create Feature Level Metadata of Images
US20170062016A1 (en) * 2000-09-18 2017-03-02 Sony Corporation System for annotating an object in a video
US20180373980A1 (en) * 2017-06-27 2018-12-27 drive.ai Inc. Method for training and refining an artificial intelligence

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20170062016A1 (en) * 2000-09-18 2017-03-02 Sony Corporation System for annotating an object in a video
US20060041564A1 (en) * 2004-08-20 2006-02-23 Innovative Decision Technologies, Inc. Graphical Annotations and Domain Objects to Create Feature Level Metadata of Images
US20180373980A1 (en) * 2017-06-27 2018-12-27 drive.ai Inc. Method for training and refining an artificial intelligence

Non-Patent Citations (3)

* Cited by examiner, † Cited by third party
Title
Dwibedi, Debidatta, Ishan Misra, and Martial Hebert. Cut, paste and learn: Surprisingly easy synthesis for instance detection. Proceedings of the IEEE International Conference on Computer Vision. 2017 *
Kim, Hui Eun, et al. "Domain-specific data augmentation for on-road object detection based on a deep neural network." 2017 IEEE Intelligent Vehicles Symposium (IV). IEEE, 2017. *
Ratner, Alexander J., et al. "Learning to compose domain-specific transformations for data augmentation." Advances in neural information processing systems. 2017. *

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN114419484A (en) * 2021-12-17 2022-04-29 广州智能科技发展有限公司 Machine vision-based intelligent labeling method, electronic equipment, storage medium and program product
KR102769971B1 (en) * 2024-03-07 2025-02-20 주식회사 포스로직 Method for classification for multiple objects in image and apparatus for performing the method

Also Published As

Publication number Publication date
KR20210107558A (en) 2021-09-01

Similar Documents

Publication Publication Date Title
KR102247245B1 (en) Method to generate label
US20210397942A1 (en) Learning to search user experience designs based on structural similarity
US20220067532A1 (en) Method to Train Model
KR102559913B1 (en) Method for implementing camera movement by using a virtual camera
US20240256831A1 (en) Unsupervised pre-training of neural networks using generative models
KR102247246B1 (en) Method to identify label
CN112424784A (en) Systems, methods, and computer-readable media for improved table identification using neural networks
US11809520B1 (en) Localized visual similarity
KR20210152417A (en) Method for object detection based on anchor-free rpn
KR102681902B1 (en) Method for change detection
KR102783710B1 (en) Method to detect object
KR20220127731A (en) User interface for project analysis
KR102515935B1 (en) Method of creating training data for neural network model
KR102437396B1 (en) Method to train model
US20240281648A1 (en) Performing semantic matching in a data fabric using enriched metadata
KR102556766B1 (en) Method for generating data set
He et al. An unsupervised classifier for remote-sensing imagery based on improved cellular automata
KR102716539B1 (en) Method and computer program for extracting features for recognizing a place using bidirectional hierarchical graph convolution
KR20220029366A (en) Method to train model
KR102606616B1 (en) Method for dynamically displaying artworks dependent on the location of audience
KR102565420B1 (en) Method for performing object segmentation in virtual production environment
KR20210063313A (en) Method to generate data
KR102285240B1 (en) Method to train model
KR102317854B1 (en) User interface for real-time monitoring
KR102366382B1 (en) User interface for editing and automatic evaluation

Legal Events

Date Code Title Description
PA0109 Patent application

Patent event code: PA01091R01D

Comment text: Patent Application

Patent event date: 20200224

PA0201 Request for examination
PA0302 Request for accelerated examination

Patent event date: 20210203

Patent event code: PA03022R01D

Comment text: Request for Accelerated Examination

Patent event date: 20200224

Patent event code: PA03021R01I

Comment text: Patent Application

PE0902 Notice of grounds for rejection

Comment text: Notification of reason for refusal

Patent event date: 20210224

Patent event code: PE09021S01D

E701 Decision to grant or registration of patent right
PE0701 Decision of registration

Patent event code: PE07011S01D

Comment text: Decision to Grant Registration

Patent event date: 20210423

A107 Divisional application of patent
GRNT Written decision to grant
PA0107 Divisional application

Comment text: Divisional Application of Patent

Patent event date: 20210427

Patent event code: PA01071R01D

PR0701 Registration of establishment

Comment text: Registration of Establishment

Patent event date: 20210427

Patent event code: PR07011E01D

PR1002 Payment of registration fee

Payment date: 20210427

End annual number: 3

Start annual number: 1

PG1601 Publication of registration
PR1001 Payment of annual fee

Payment date: 20240321

Start annual number: 4

End annual number: 4