[go: up one dir, main page]

KR102685135B1 - Video editing automation system - Google Patents

Video editing automation system Download PDF

Info

Publication number
KR102685135B1
KR102685135B1 KR1020220015488A KR20220015488A KR102685135B1 KR 102685135 B1 KR102685135 B1 KR 102685135B1 KR 1020220015488 A KR1020220015488 A KR 1020220015488A KR 20220015488 A KR20220015488 A KR 20220015488A KR 102685135 B1 KR102685135 B1 KR 102685135B1
Authority
KR
South Korea
Prior art keywords
text
image
unit
analysis
input
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
KR1020220015488A
Other languages
Korean (ko)
Other versions
KR20230119398A (en
Inventor
이성준
유현수
Original Assignee
피아스페이스 주식회사
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 피아스페이스 주식회사 filed Critical 피아스페이스 주식회사
Priority to KR1020220015488A priority Critical patent/KR102685135B1/en
Publication of KR20230119398A publication Critical patent/KR20230119398A/en
Application granted granted Critical
Publication of KR102685135B1 publication Critical patent/KR102685135B1/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/80Generation or processing of content or additional data by content creator independently of the distribution process; Content per se
    • H04N21/85Assembly of content; Generation of multimedia applications
    • H04N21/854Content authoring
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/70Information retrieval; Database structures therefor; File system structures therefor of video data
    • G06F16/73Querying
    • G06F16/732Query formulation
    • G06F16/7343Query language or query format
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/70Information retrieval; Database structures therefor; File system structures therefor of video data
    • G06F16/73Querying
    • G06F16/738Presentation of query results
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/70Information retrieval; Database structures therefor; File system structures therefor of video data
    • G06F16/78Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually
    • G06F16/783Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually using metadata automatically derived from the content
    • G06F16/7837Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually using metadata automatically derived from the content using objects detected or recognised in the video content
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F40/00Handling natural language data
    • G06F40/20Natural language analysis
    • G06F40/205Parsing
    • G06F40/211Syntactic parsing, e.g. based on context-free grammar [CFG] or unification grammars
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • General Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • Computational Linguistics (AREA)
  • Data Mining & Analysis (AREA)
  • Databases & Information Systems (AREA)
  • Health & Medical Sciences (AREA)
  • Artificial Intelligence (AREA)
  • Library & Information Science (AREA)
  • Mathematical Physics (AREA)
  • General Health & Medical Sciences (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • Software Systems (AREA)
  • Computing Systems (AREA)
  • Molecular Biology (AREA)
  • Evolutionary Computation (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Biophysics (AREA)
  • Biomedical Technology (AREA)
  • Computer Security & Cryptography (AREA)
  • Signal Processing (AREA)
  • Human Computer Interaction (AREA)
  • Acoustics & Sound (AREA)
  • Information Retrieval, Db Structures And Fs Structures Therefor (AREA)

Abstract

본 발명은 영상 편집 자동화 시스템에 관한 것으로 보다 구체적으로는 일반 사용자가 동영상 컨텐츠 편집 또는 영상 편집을 보다 쉽고 편리하고 제작할 수 있도록 기능하는 영상 편집 자동화 시스템에 관한 것이다. 본 발명의 일양태에 따르면, 웹 상에서 영상 컨텐츠를 자동으로 검색하고 편집할 수 있는 영상 편집 자동화 시스템이 제공되고, 이 시스템은, 사용자로부터 입력된 텍스트를 입력받는 텍스트 수신부, 입력된 텍스트를 분석하는 텍스트 분석부, 텍스트 분석부에서 분석된 키워드 결과에 기반하여 웹 상에서 영상을 검색하는 영상 검색부, 검색된 영상으로부터 메타데이터 및 샘플 이미지를 추출하는 샘플 이미지 추출부, 추출된 샘플 이미지를 분석하는 이미지 분석부, 분석된 이미지 정보에 기반하여 사용자 입력 텍스트와의 연관도를 분석하는 연관도 평가부 및 연관도 평가부의 평가 결과에 대응하여 해당하는 영상을 구간별로 다운로드 하는 구간 영상 다운로드부를 포함한다. The present invention relates to an automated video editing system, and more specifically, to an automated video editing system that allows general users to edit video content or edit video more easily and conveniently. According to one aspect of the present invention, an automated video editing system is provided that can automatically search and edit video content on the web, and this system includes a text receiving unit that receives text input from a user, and an analysis unit that analyzes the input text. A text analysis unit, an image search unit that searches for images on the web based on keyword results analyzed in the text analysis unit, a sample image extraction unit that extracts metadata and sample images from the searched images, and an image analysis unit that analyzes the extracted sample images. It includes a correlation evaluation unit that analyzes the correlation with the user input text based on the analyzed image information, and a section video download unit that downloads the corresponding video for each section in response to the evaluation results of the relevance evaluation unit.

Description

영상 편집 자동화 시스템{VIDEO EDITING AUTOMATION SYSTEM}Video editing automation system {VIDEO EDITING AUTOMATION SYSTEM}

본 발명은 영상 편집 자동화 시스템에 관한 것으로 보다 구체적으로는 일반 사용자가 동영상 컨텐츠 편집 또는 영상 편집을 보다 쉽고 편리하고 제작할 수 있도록 기능하는 영상 편집 자동화 시스템에 관한 것이다.The present invention relates to an automated video editing system, and more specifically, to an automated video editing system that allows general users to edit video content or edit video more easily and conveniently.

최근 IT 기술과 멀티미디어 기술의 비약적인 발전에 따라, 전문가 또는 업체가 아닌 일반 개인들도 직접 다양한 종류의 사진 및 동영상을 촬영하여 개인 디지털 콘텐츠를 제작하고, 이렇게 제작한 디지털 콘텐츠를 편집하여 각종 네트워크에 개설된 서버에 업로드함으로써 다른 이들에게 배포, 공유 및 판매 등의 행위가 가능하게 되었다. Recently, with the rapid development of IT and multimedia technologies, ordinary individuals, not professionals or companies, can directly take various types of photos and videos to create personal digital content, and edit the digital content created in this way to post it on various networks. By uploading to a server, it becomes possible to distribute, share, and sell to others.

그러나, 이러한 기술적 발전에도 불구하고, 일반 개인들은 제작한 디지털 콘텐츠 들을 편집없이 원본을 그대로 공유하는 형태가 대부분이며, 이에 디지털 콘텐츠로서 상품가치를 부여하지는 못하는 실정이다. 대다수의 상업화된 디지털 콘텐츠는 편집관련 전문적인 지식을 가진 각 방송사나 콘텐츠 업체에 의해 생산 및 서비스되는 것이 일반적이며, 개인들은 단순히 시청자의 입장에서 제공되는 동영상을 수동적으로 감상하는 것이 현실이다.However, despite these technological developments, most ordinary individuals share the original digital content they produce without editing, and are unable to give it commercial value as digital content. The majority of commercialized digital content is generally produced and serviced by broadcasters or content companies with specialized editing knowledge, and the reality is that individuals simply passively watch the videos provided from the perspective of viewers.

특히 일반인 사용자가 디지털 영상 컨텐츠를 제작함에 있어서, 디지털 영상 컨텐츠에 이용하고자 하는 영상 클립 등을 인터넷 등에 산재되어 있는 웹 페이지로부터 검색해 내고 이를 개별적으로 리뷰하여 원하는 영상을 추출해 내는 일은 많은 노력과 시간이 소요됨에 따라 일반인 사용자가 고품질의 디지털 영상 컨텐츠를 제작하는 것은 용이하지 못하는 문제점이 존재하게 된다.In particular, when ordinary users create digital video content, it takes a lot of effort and time to search for video clips that they want to use in digital video content from web pages scattered on the Internet, review them individually, and extract the desired video. Accordingly, there is a problem that it is not easy for ordinary users to produce high-quality digital video content.

대한민국 공개특허 10-2020-0044435호(2020년 4월 29일)Republic of Korea Patent Publication No. 10-2020-0044435 (April 29, 2020)

본 발명은 전술한 문제점에 기반하여 안출된 발명으로서 일반인 사용자 또는 개인 사용자가 보다 쉽고 편리하고 디지털 영상 컨텐츠를 제작할 수 있도록 사용자가 희망하는 주제 또는 사용자가 제작하고자 하는 디지털 컨텐츠의 스토리라인에 맞추어 인터넷 등에 산재되어 있는 영상 중 적합한 영상을 사용자에게 자동으로 제공할 수 있는 영상 편집 자동화 시스템을 제공하는 것을 목적으로 한다.The present invention is an invention made based on the above-described problems, so that general users or individual users can more easily and conveniently create digital video content, so that it can be used on the Internet, etc. according to the user's desired topic or the storyline of the digital content that the user wants to create. The purpose is to provide an automated video editing system that can automatically provide users with appropriate videos among scattered videos.

전술한 과제를 해결하기 위해 본 발명의 일양태에 따르면, 웹 상에서 영상 컨텐츠를 자동으로 검색하고 편집할 수 있는 영상 편집 자동화 시스템이 제공되고, 이 시스템은, 사용자로부터 입력된 텍스트를 입력받는 텍스트 수신부, 입력된 텍스트를 분석하는 텍스트 분석부, 텍스트 분석부에서 분석된 키워드 결과에 기반하여 웹 상에서 영상을 검색하는 영상 검색부, 검색된 영상으로부터 메타데이터 및 샘플 이미지를 추출하는 샘플 이미지 추출부, 추출된 샘플 이미지를 분석하는 이미지 분석부, 분석된 이미지 정보에 기반하여 사용자 입력 텍스트와의 연관도를 분석하는 연관도 평가부 및 연관도 평가부의 평가 결과에 대응하여 해당하는 영상을 구간별로 다운로드 하는 구간 영상 다운로드부를 포함한다. According to one aspect of the present invention in order to solve the above-described problem, an automated video editing system is provided that can automatically search and edit video content on the web, and this system includes a text receiver that receives text input from the user. , a text analysis unit that analyzes the input text, an image search unit that searches for images on the web based on the keyword results analyzed in the text analysis unit, a sample image extraction unit that extracts metadata and sample images from the searched images, An image analysis unit that analyzes sample images, a relevance evaluation unit that analyzes the correlation with user input text based on the analyzed image information, and a section video that downloads the corresponding video for each section in response to the evaluation results of the relevance evaluation unit. Includes download section.

전술한 양태에서 텍스트 수신부는 사용자가 입력한 텍스트로 이루어진 문장, 파일 업로드를 통해 수신된 텍스트 파일, 키워드들의 집합, 또는 음성인식된 텍스트를 수신하도록 구성되고, 텍스트 분석부는 입력된 텍스트 문장을 분석하여 문장별로 키워드를 추출하도록 구성되고, 텍스트 분석부는 딥러닝 기반 텍스트 마이닝 모델을 포함한다. In the above-described aspect, the text receiving unit is configured to receive a sentence consisting of text input by the user, a text file received through file upload, a set of keywords, or a voice-recognized text, and the text analyzing unit analyzes the input text sentence It is configured to extract keywords for each sentence, and the text analysis unit includes a deep learning-based text mining model.

또한 전술한 어느 하나의 양태에서 이미지 분석부는 이미지 기반 물체 탐지부 및 이미지 기반 텍스트 생성부를 포함하고, 이미지 기반 물체 탐지부는 이미지에 포함된 객체를 딥러닝 분석을 통해 객체의 종류, 크기, 숫자, 위치를 식별하는 딥러닝 기반 객체 감지 모듈을 포함하고, 이미지 기반 텍스트 생성부는 이미지에 포함된 객체 또는 객체를 포함하는 상황을 딥러닝 분석을 통해 상황 정보 텍스트를 출력하는 딥러닝 기반 이미지 캡션 모듈을 포함한다. In addition, in any of the above-described aspects, the image analysis unit includes an image-based object detection unit and an image-based text generation unit, and the image-based object detection unit determines the type, size, number, and location of the object through deep learning analysis of the object included in the image. It includes a deep learning-based object detection module that identifies, and the image-based text generator includes a deep learning-based image caption module that outputs context information text through deep learning analysis of objects included in the image or situations containing the object. .

또한 전술한 어느 하나의 양태에서 연관도 평가부는 텍스트 분석부에서 분석된 문맥(컨텍스트) 정보, 이미지 기반 물체 탐지부에서 분석된 이미지 감지 결과, 이미지 기반 텍스트 생성부에서 생성된 상황 정보 텍스트를 이용하여, 사용자가 입력한 텍스트 문장과 이미지 분석부에서 분석된 분석 결과 사이에서의 연관도를 평가하도록 기능한다. In addition, in any of the above-described aspects, the relevance evaluation unit uses the context information analyzed by the text analysis unit, the image detection result analyzed by the image-based object detection unit, and the context information text generated by the image-based text generation unit. , It functions to evaluate the degree of correlation between the text sentences entered by the user and the analysis results analyzed by the image analysis unit.

또한 전술한 어느 하나의 양태에서 연관도 평가부는 In addition, in any of the above-described aspects, the relevance evaluation unit

- 이미지 기반 물체 탐지부에서 의해 탐지된 물체의 종류, 숫자, 크기의 정보를 포함하는 제1 입력 정보;- First input information including information on the type, number, and size of the object detected by the image-based object detection unit;

- 이미지 기반 텍스트 생성부에서 생성된 상황 정보 텍스트를 포함하는 제2 입력 정보;- Second input information including context information text generated by the image-based text generator;

- 이미지 기반 물체 탐지부와 이미지 기반 텍스트 생성부에 사용된 딥러닝 모델들의 중간 단계에서 얻어지는 이미지 특징맵(feature map)을 포함하는 제3 입력 정보;- Third input information including an image feature map obtained at an intermediate stage of deep learning models used in the image-based object detection unit and the image-based text generation unit;

- 텍스트 분석부의 텍스트 마이닝 모델에서 추출된 키워드 정보를 포함하는 제4 입력 정보;- Fourth input information including keyword information extracted from the text mining model of the text analysis unit;

- 텍스트 분석부의 컨텍스트 분석 모델에서 추출된 컨텍스트(문맥) 정보를 포함하는 제5 입력 정보를 이용하여 사용자가 입력한 텍스트 문장과 이미지 분석부에서 분석된 분석 결과 사이에서의 연관도를 평가하도록 기능한다. - Functions to evaluate the degree of correlation between the text sentence entered by the user and the analysis results analyzed by the image analysis unit using the fifth input information including context information extracted from the context analysis model of the text analysis unit. .

또한 전술한 어느 하나의 양태에서 연관도 평가부는 제1 입력 정보 내지 제3 입력 정보를 조합하여 비교 벡터 A를 생성하고; 제4 입력 정보 및 제5 입력 정보를 조합하여 비교 벡터 B를 생성하고; 비교 벡터 A와 비교 벡터 B 사이의 유사도 점수를 계산하도록 기능하고, 여기서 유사도 점수는 자연어 간 유사도를 평가하는 Word2Vec 모델 또는 이를 변형한 모델이 이용될 수 있다.In addition, in any of the above-described aspects, the relevance evaluation unit generates a comparison vector A by combining the first to third input information; combining the fourth input information and the fifth input information to generate a comparison vector B; It functions to calculate a similarity score between comparison vector A and comparison vector B, where the similarity score may be a Word2Vec model that evaluates similarity between natural languages or a modified model thereof.

본 발명의 실시예에 따르면 사용자는 웹 페이지 화면에 제공된 텍스트 입력창에 원하는 텍스트 문장 또는 검색어 세트를 단순히 입력하면 텍스트 문장 또는 검색어 세트에 적합한 구간 영상이 자동으로 사용자의 편집 작업 템플릿 상에 제공됨에 따라 사용자는 웹상에서 원하는 영상 정보를 취득하고자 수많은 영상을 검색하지 않고 보다 쉽고 편리하게 관련된 구간 영상을 취득할 수 있어 디지털 영상 컨텐츠 제작을 보다 빠르고 고품질로 제작할 수 있다.According to an embodiment of the present invention, when a user simply inputs a desired text sentence or set of search words into a text input box provided on a web page screen, a section image suitable for the text sentence or set of search words is automatically provided on the user's editing work template. Users can obtain relevant section images more easily and conveniently without having to search numerous images to obtain desired image information on the web, enabling faster and higher quality production of digital video content.

도 1은 본 발명의 실시예에 따른 영상 편집 자동화 시스템의 일례를 나타낸 도면;
도 2는 본 발명에 따른 영상 편집 자동화 시스템의 웹 서버에서 사용자에게 제공되는 화면 구성의 일례를 나타내는 도면;
도 3은 본 발명에 따른 영상 편집 자동화 시스템의 웹 서버에서 사용자에게 제공되는 화면 구성의 다른 일례를 나타내는 도면;
도 4은 본 발명에 따른 영상 편집 자동화 시스템의 내부 구조를 기능별로 나타낸 도면; 및
도 5는 본 발명에 따른 영상 편집 자동화 시스템의 동작 흐름을 나타내는 도면이다.
1 is a diagram showing an example of an automated video editing system according to an embodiment of the present invention;
Figure 2 is a diagram showing an example of a screen configuration provided to a user from a web server of an automated video editing system according to the present invention;
Figure 3 is a diagram showing another example of a screen configuration provided to a user from a web server of an automated video editing system according to the present invention;
Figure 4 is a diagram showing the internal structure of the automated video editing system according to the present invention by function; and
Figure 5 is a diagram showing the operational flow of the automated video editing system according to the present invention.

본 발명의 이점 및 특징, 그리고 그것들을 달성하는 방법은 첨부되는 도면과 함께 상세하게 후술되는 실시예를 참조하면 명확해질 것이다. 그러나, 본 발명은 이하에서 개시되는 실시예에 한정되는 것이 아니라 서로 다른 다양한 형태로 구현될 것이다. The advantages and features of the present invention and methods for achieving them will become clear by referring to the embodiments described in detail below along with the accompanying drawings. However, the present invention is not limited to the embodiments disclosed below and will be implemented in various different forms.

본 명세서에서 본 실시예는 본 발명의 개시가 완전하도록 하며, 본 발명이 속하는 기술 분야에서 통상의 지식을 가진 자에게 발명의 범주를 완전하게 알려주기 위해 제공되는 것이다. 그리고 본 발명은 청구항의 범주에 의해 정의될 뿐이다. 따라서, 몇몇 실시예들에서, 잘 알려진 구성 요소, 잘 알려진 동작 및 잘 알려진 기술들은 본 발명이 모호하게 해석되는 것을 피하기 위하여 구체적으로 설명되지 않는다. The examples herein are provided to make the disclosure of the present invention complete and to fully inform those skilled in the art of the scope of the invention. And the present invention is only defined by the scope of the claims. Accordingly, in some embodiments, well-known components, well-known operations and well-known techniques are not specifically described in order to avoid ambiguous interpretation of the present invention.

명세서 전체에 걸쳐 동일 참조 부호는 동일 구성 요소를 지칭한다. 그리고, 본 명세서에서 사용된(언급된) 용어들은 실시예들을 설명하기 위한 것이며 본 발명을 제한하고자 하는 것은 아니다. 본 명세서에서, 단수형은 문구에서 특별히 언급하지 않는 한 복수형도 포함한다. 또한, '포함(또는, 구비)한다'로 언급된 구성 요소 및 동작은 하나 이상의 다른 구성요소 및 동작의 존재 또는 추가를 배제하지 않는다. Like reference numerals refer to like elements throughout the specification. Also, the terms used (mentioned) in this specification are for describing embodiments and are not intended to limit the present invention. As used herein, singular forms also include plural forms, unless specifically stated otherwise in the context. Additionally, components and operations referred to as 'including (or, including)' do not exclude the presence or addition of one or more other components and operations.

다른 정의가 없다면, 본 명세서에서 사용되는 모든 용어(기술 및 과학적 용어를 포함)는 본 발명이 속하는 기술분야에서 통상의 지식을 가진 자에게 공통적으로 이해될 수 있는 의미로 사용될 수 있을 것이다. 또 일반적으로 사용되는 사전에 정의되어 있는 용어들은 정의되어 있지 않은 한 이상적으로 또는 과도하게 해석되지 않는다. Unless otherwise defined, all terms (including technical and scientific terms) used in this specification may be used with meanings that can be commonly understood by those skilled in the art to which the present invention pertains. Additionally, terms defined in commonly used dictionaries are not interpreted ideally or excessively unless they are defined.

이하 첨부된 도면을 참조하여 본 발명의 실시예에 대해 설명하도록 한다.Hereinafter, embodiments of the present invention will be described with reference to the attached drawings.

도 1은 본 발명의 실시예에 따른 영상 편집 자동화 시스템을 나타낸 도면이다. 도 1에 도시된 바와 같이, 본 발명의 영상 편집 자동화 시스템(100)에는 네트워크를 통해 하나 이상의 사용자 단말기와 연결되며, 사용자 단말기의 요청에 따라, 웹 페이지상에서 선택가능한 메인메뉴 및 그 메인메뉴의 선택에 대응하여 결정되는 템플릿을 제공하며, 또한 템플릿을 이용한 디지털 콘텐츠를 생성하는 편집툴을 상기 사용자 단말기에 제공하도록 구성된다.1 is a diagram showing an automated video editing system according to an embodiment of the present invention. As shown in FIG. 1, the video editing automation system 100 of the present invention is connected to one or more user terminals through a network, and includes a main menu selectable on a web page and selection of the main menu according to the request of the user terminal. A template determined in response is provided, and an editing tool for creating digital content using the template is provided to the user terminal.

사용자는 사용자 단말을 이용하여 네트워크를 통해 영상 편집 자동화 시스템에 접속하고, 시스템에서 제공하는 툴을 이용하여 동영상을 검색하고, 검색된 동영상을 편집하고, 디지털 콘텐츠를 생성하도록 하는 컴퓨팅 장치로서, 특히 웹 블라우저 기반으로 제공되는 영상 편집 서비스를 수행할 수 있는 Internet Explorer, Firefox 및 Chrome 등과 같은 웹 브라우저(Web Browser)가 실행가능한 휴대용 단말기, PC, 랩탑 또는 워크스테이션 등이 이용될 수 있다.It is a computing device that allows the user to access the video editing automation system through the network using the user terminal, search for videos using tools provided by the system, edit the searched videos, and create digital content. In particular, web browsers are used to create digital content. A portable terminal, PC, laptop, or workstation capable of running a web browser such as Internet Explorer, Firefox, and Chrome that can perform video editing services provided based on the browser can be used.

따라서, 사용자 단말기에는 연산장치, 저장장치, 입력장치 및 출력장치 등이 구비될 수 있으며, 웹 브라우저를 통해 편집툴을 실행하여 온라인 상에서 디지털 영상 콘텐츠 제작을 수행하게 된다.Accordingly, the user terminal may be equipped with a computing device, a storage device, an input device, an output device, etc., and an editing tool may be executed through a web browser to produce digital video content online.

여기서, 상기 네트워크는 WiFi 및 Zigbee와 같은 근거리 무선 통신망뿐만 아니라, CDMA, WCDMA, Wibro, 3G 및 LTE 와 같은 원거리 무선 통신망을 포함하는 개념으로서, 서로 동일하거나 별개의 망일 수 있다.Here, the network is a concept that includes not only short-range wireless communication networks such as WiFi and Zigbee, but also long-distance wireless communication networks such as CDMA, WCDMA, Wibro, 3G, and LTE, and may be the same or separate networks.

영상 편집 자동화 시스템(100)은 각 사용자 단말기로부터 입력되는 텍스트에 기반하여 인터넷 상에서 사진 및 동영상 등과 같은 소스를 자동으로 검색하고, 검색된 사진및 동영상을 사용자 화면 인터페이스에 제공하여 사용자가 보다 쉽게 디지털 콘텐츠를 생성할 수 있도록 기능하는 고사양의 마이크로프로세서 및 대용량의 저장공간을 구비하는 컴퓨팅 장치, 예를 들면 웹 서버일 수도 있다.The video editing automation system 100 automatically searches for sources such as photos and videos on the Internet based on text input from each user terminal, and provides the searched photos and videos to the user screen interface so that users can more easily access digital content. It may be a computing device, for example, a web server, equipped with a high-performance microprocessor and large storage space capable of generating data.

도 2는 사용자가 영상 편집 자동화 시스템(100)에 웹 브라우저를 통해 접속하였을 때 사용자에게 제공되는 웹페이지 화면의 일례를 나타낸 도면이다. 도 2에 도시된 바와 같이 사용자의 웹 브라우저 화면의 일부분, 도시된 도면에서 화면의 좌측에 사용자로부터 텍스트(또는 문장)를 입력받기 위한 텍스트 입력창이 제공되고, 웹 브라우저 화면의 다른 부분, 도시된 도면에서 화면의 우측에는 사용자가 입력한 텍스트(또는 문장)에 대응하는 검색된 동영상 클립이 나열되는 검색 결과창(1520)이 제공된다. Figure 2 is a diagram showing an example of a web page screen provided to a user when the user accesses the automated video editing system 100 through a web browser. As shown in Figure 2, a part of the user's web browser screen, a text input window for receiving text (or sentences) from the user is provided on the left side of the screen, and another part of the web browser screen, the drawing shown. A search result window 1520 is provided on the right side of the screen in which searched video clips corresponding to the text (or sentence) entered by the user are listed.

이와 같은 웹 페이지 화면에서는 사용자는 텍스트 입력창(1501)에 검색을 희망하는 키워드들 또는 문장을 입력하고 검색 버튼을 누르거나, 파일 업로드 기능을 이용하여 사용자 단말기에 저장된 텍스트 파일을 업로드 한 후 검색 버튼을 눌러 검색을 수행하면, 영상 편집 자동화 시스템(100)은 사용자로부터 입력된 문장을 분석하여 키워드를 추출하거나, 사용자로부터 입력된 키워드를 이용하여 인터넷 웹으로부터 영상을 검색하고 검색된 영상 중 연관도가 높은 순서로 영상을 사용자의 화면에 제공한다.On this web page screen, the user enters keywords or sentences desired to be searched in the text input window 1501 and clicks the search button, or uploads a text file stored in the user terminal using the file upload function and then clicks the search button. When you perform a search by pressing , the automated video editing system 100 extracts keywords by analyzing sentences entered by the user, or searches for images from the Internet web using the keywords entered by the user, and selects highly relevant images among the searched images. Videos are provided to the user's screen in order.

도 3은 사용자가 영상 편집 자동화 시스템(100)에 웹 브라우저를 통해 접속하였을 때 사용자에게 제공되는 웹페이지 화면의 다른 일례를 나타낸 도면이다. 도 3에 도시도니 바와 같이 사용자의 웹 브라우저 화면은 복수의 템플릿(Ta~Td)으로 구성되고 사용자는 제작하고자 하는 동영상 컨텐츠의 스토리라인에 맞게 동영상 클립을 검색할 수 있다. FIG. 3 is a diagram showing another example of a web page screen provided to a user when the user accesses the automated video editing system 100 through a web browser. As shown in FIG. 3, the user's web browser screen is composed of a plurality of templates (Ta to Td), and the user can search for video clips according to the storyline of the video content to be produced.

예를 들면, 이와 같이 제공된 웹 페이지화면에서 각각의 템플릿 별로, 텍스트 입력창에 검색을 희망하는 키워드들 또는 문장을 입력하고 검색 버튼을 누르거나, 파일 업로드 버튼(미도시)을 이용하여 사용자 단말기에 저장된 텍스트 파일을 업로드 한 후 검색 버튼을 눌러 검색을 수행하면, 영상 편집 자동화 시스템(100)은 사용자로부터 입력된 문장을 분석하여 문장별로 키워드 또는 문맥(컨텍스트) 정보를 추출하거나, 사용자로부터 입력된 키워드의 집합으로부터 문맥(컨텍스트) 정보를 추출하고, 문장별로 추출된 키워드 정보 또는 컨텍스트 정보를 이용하여 인터넷 웹으로부터 영상을 검색하고 검색된 영상들 중 연관도가 높은 순서로 사용자의 화면에 제공한다.For example, on the web page screen provided in this way, for each template, enter keywords or sentences you wish to search in the text input box and click the search button, or use the file upload button (not shown) to upload to the user terminal. When a search is performed by pressing the search button after uploading a saved text file, the automated video editing system 100 analyzes sentences entered by the user and extracts keywords or context information for each sentence, or extracts keywords entered by the user. Context information is extracted from the set, images are searched from the Internet web using keyword information or context information extracted for each sentence, and the searched images are provided to the user's screen in the order of highest relevance.

도 4는 전술한 바와 같은 영상 편집 자동화 서비스를 제공하는 영상 편집 자동화 시스템의 내부 구조를 기능별로 도시한 블록도이고, 도 5는 영상 편집 자동화 시스템에서의 처리 절차를 개략적으로 도시한 블록도이다. 도 4 및 도 5를 참조하여 본 발명의 내부 구성 요소 및 내부 구성 요소에서 수행되는 기능에 대해 순차적으로 설명한다. 도시된 바와 같이 본 발명에 따른 영상 편집 자동화 시스템(100)은 사용자로부터 입력된 텍스트를 입력받는 텍스트 수신부(110), 입력된 텍스트를 분석하는 텍스트 분석부(120), 텍스트 분석부(120)에서 분석된 결과(키워드 및/또는 컨텍스트 정보)에 기반하여 웹으로부터 영상을 검색하는 영상 검색부(130); 검색된 영상으로부터 메타데이터 및 샘플 이미지를 추출하는 샘플 이미지 추출부(140); 추출된 샘플 이미지를 분석하는 이미지 분석부(150); 분석된 이미지 정보에 기반하여 사용자 입력 텍스트와의 연관도를 분석하는 연관도 평가부(160); 및 연관도 평가부(160)의 평가 결과에 대응하여 해당하는 영상을 구간별로 다운로드 하는 구간 영상 다운로드부(170)를 포함한다.FIG. 4 is a block diagram showing the internal structure of the video editing automation system that provides the video editing automation service described above by function, and FIG. 5 is a block diagram schematically showing processing procedures in the video editing automation system. The internal components of the present invention and the functions performed by the internal components will be sequentially described with reference to FIGS. 4 and 5. As shown, the automated video editing system 100 according to the present invention includes a text receiver 110 that receives text input from a user, a text analysis unit 120 that analyzes the input text, and a text analysis unit 120. An image search unit 130 that searches for images from the web based on the analysis results (keywords and/or context information); a sample image extraction unit 140 that extracts metadata and sample images from the searched images; An image analysis unit 150 that analyzes the extracted sample image; A correlation evaluation unit 160 that analyzes the correlation with the user input text based on the analyzed image information; and a section video download unit 170 that downloads the corresponding video for each section in response to the evaluation result of the relevance evaluation unit 160.

텍스트 수신부(110)는 도 2 및 도 3에 도시된 바와 같이 화면 구성에서 입력된 텍스트로 이루어진 문장, 파일 업로드를 통해 수신된 텍스트 파일, 또는 키워드 집합을 수신하도록 구성된다. 도시되지 않았지만 본 발명은 이에 한정되는 것은 아니고 사용자 단말로부터 음성을 입력받는 경우 음성인식 기능을 이용하여 사용자가 입력한 음성을 텍스트로 전환하고 전환된 텍스트가 텍스트 수신부(110)에서 수신되도록 구성될 수도 있다.As shown in FIGS. 2 and 3, the text receiving unit 110 is configured to receive a sentence consisting of text input in a screen configuration, a text file received through file upload, or a set of keywords. Although not shown, the present invention is not limited to this, and when a voice is input from a user terminal, the voice input by the user is converted into text using a voice recognition function, and the converted text may be configured to be received in the text receiver 110. there is.

텍스트 수신부(110)로부터 수신된 텍스트로 이루어진 문장은 텍스트 분석부(120)로 전달되고, 텍스트 분석부(120)는 입력된 텍스트를 분석하여 주요 키워드를 추출하도록 구성된다. 이와 같은 키워드 추출을 위해 텍스트 분석부(120)는 인공학습기반의 텍스트 마이닝 모델을 포함할 수 있다.A sentence consisting of text received from the text receiver 110 is transmitted to the text analysis unit 120, and the text analysis unit 120 is configured to analyze the input text and extract main keywords. To extract such keywords, the text analysis unit 120 may include an artificial learning-based text mining model.

텍스트 분석부(120)는 수신된 텍스트 문장으로부터 키워드를 추출하기 위해 텍스트 전처리를 수행한다. 텍스트의 경우 사람이 인지할 수 있는 국문, 영문, 숫자 등 자연 형태의 언어로 구성되어 있다. 텍스트 마이닝을 통한 키워드 제공을 위하여 입력된 텍스트는 컴퓨터가 이해할 수 있는 형태로 표현해야 하는데, 이에 따른 제반 기술을 자연어처리(Natural Language Processing, NLP)라 한다. The text analysis unit 120 performs text preprocessing to extract keywords from the received text sentences. In the case of text, it consists of natural forms of language that humans can perceive, such as Korean letters, English letters, and numbers. In order to provide keywords through text mining, the input text must be expressed in a form that the computer can understand, and the resulting technology is called Natural Language Processing (NLP).

자연어는 컴퓨터 프로그램 언어와 같은 인공 언어와 구별된다. 인공 언어는 인간이 규칙을 정해 컴퓨터가 이해할 수 있도록 만들어진 언어이기 때문에, 누구나 그 규칙을 배우면 이해할 수 있게 되지만 자연어는 인간이 규칙을 정하긴 했지만, 오랜 시간이 흐르면서 관습적 규칙, 비형식적 규칙 등 다양한 변화가 가미됨으로 인해 규칙만으로 이해될 수 없는 특성이 있다. 자연어 처리 과정은 형태소 분석, 통사 분석, 의미 분석, 화용 분석의 4개단계로 구분할 수 있으며, 각 단계는 특정이론을 통해 명확한 이론이 확립된 단계가 아니라 지속해서 이론이 제시되고 검증되는 발전단계에 있다.Natural languages are distinct from artificial languages, such as computer program languages. Artificial language is a language created by humans to set rules so that computers can understand, so anyone can understand it if they learn the rules. However, in natural languages, although humans set rules, over a long period of time, customary rules, informal rules, etc. Because various changes are added, there are characteristics that cannot be understood through rules alone. The natural language processing process can be divided into four stages: morphological analysis, syntactic analysis, semantic analysis, and pragmatic analysis. Each stage is not a stage in which a clear theory is established through a specific theory, but a development stage in which theories are continuously presented and verified. there is.

- 문자열의 처리- Handling of strings

- 자동 띄어쓰기 처리- Automatic spacing processing

텍스트 분석에서 가장 기초적인 작업은 텍스트로부터 단어를 식별하고 추출하는 토큰화(Tokenization)라고 할 수 있다. 한국어는 '어절(語節)'로 토큰의 단위 기준으로 보고, 중국어나 일본어와 같이 어절 경계 표지가 없는 언어와는 달리, 어절과 어절 사이에 공백을 두어 띄어쓰기를 하도록 규정하였다. 한국어에 있어서 잘못된 띄어쓰기는 중의성(ambiguity)을 유발시키거나 텍스트분석에서 잡음(noise)을 일으켜 오히려 토큰화를 방해하며, 가독성을 떨어뜨린다. 이와 같이 한국어에서 띄어쓰기는 텍스트에 대한 사용자 가독성만큼 이나 기계 가독성에도 영향을 주는 중요한 요소이다. 문장 내의 띄어쓰기 오류는 많은 문법적, 의미적 모호성을 일으키며, 때로는 형태소 분석을 불가능하게 만들기도 한다.The most basic task in text analysis is tokenization, which identifies and extracts words from text. Korean considers 'word clauses' as the unit of token, and unlike languages such as Chinese or Japanese that do not have word boundary markers, it stipulates that words should be written with spaces between them. In Korean, incorrect spacing causes ambiguity or noise in text analysis, which actually hinders tokenization and reduces readability. Likewise, spacing in Korean is an important factor that affects machine readability as much as user readability of text. Spacing errors within a sentence cause a lot of grammatical and semantic ambiguity, and sometimes make morphological analysis impossible.

본 발명에서는 사용자가 띄어쓰기를 고려하지 않고 텍스트를 입력하는 경우도 있는 것으로 가정하고, 자동 띄어쓰기를 적용하여 전처리를 수행한다. In the present invention, it is assumed that the user may input text without considering spacing, and preprocessing is performed by applying automatic spacing.

- WPM(Word Piece Model) 처리- WPM (Word Piece Model) processing

WPM은 음성 검색 시스템 구축을 위한 방법으로 언어에 대한 사전 지식 없이 혼잡도(perplexity)를 최소로 하여 어휘를 자동 생성하는 방법이다. 기존의 자연어 처리에서는 형태소 분석, 통사 분석, 의미 분석, 화용 분석 등 4가지로 진행되나, WPM은 국제 발음기호(the International Phonetic Alphabet, PA)기반의 발음 세트(Set)로 유닛을 코드화 시킨 후, 통계적 기법을 활용하여 사용 빈도수에 따라 조합을 하여 새로운 유닛을 생성한다. WPM의 장점은 언어에 독립적이며, 통계적인 방식을 사용하므로 특정 도메인 또는 아직 의미가 파악되지 않는 언어에도 적용할 수 있다. 본 발명에서는 WPM 알고리즘을 적용하여 명사와 조사를 분리키시고 조사를 제거하여 명사만을 추출하게 된다. WPM is a method for building a voice search system that automatically generates vocabulary with minimal perplexity without prior knowledge of the language. Existing natural language processing involves four processes: morphological analysis, syntactic analysis, semantic analysis, and pragmatic analysis, but WPM encodes units into a pronunciation set based on the International Phonetic Alphabet (PA). Using statistical techniques, new units are created by combining them according to frequency of use. The advantage of WPM is that it is language-independent and uses statistical methods, so it can be applied to specific domains or languages whose meaning is not yet understood. In the present invention, the WPM algorithm is applied to separate the noun and the particle and remove the particle to extract only the noun.

또한 명사와 명사가 연속적으로 출현된 경우에는 합성 명사로서 사용가능한지 여부를 데이터베이스에 저장된 데이터세으로부터 검색하고 매칭되는 결과가 발견될 때는 합성명사로서 간주하도록 처린된다.In addition, when a noun and a noun appear consecutively, it is searched from the data stored in the database to determine whether it can be used as a compound noun, and when a matching result is found, it is treated as a compound noun.

텍스트에 대한 전처리가 수행되고 난 후 전처리된 텍스트에 대해 노이즈 필터링을 수행하게 된다. 여기서 노이즈 필터링이라 함은 미리 정의되어 있는 불용어들에 대해 제외하는 처리를 의미한다. 이 후, 텍스트 문장으로부터 키워드 정보 및/또는 컨텍스트 정보를 추출하기 위해 다음과 같은 처리들이 더 이용될 수도 있다.After preprocessing is performed on the text, noise filtering is performed on the preprocessed text. Here, noise filtering refers to the process of excluding predefined stop words. Afterwards, the following processes may be further used to extract keyword information and/or context information from the text sentence.

°형태소(단어) 분석: 의미의 최소단위인 형태소(morpheme)이나 단어에 대한 분석은 텍스트를 분석하는 가장 보편적인 방법으로, 문법적 규칙 혹은 확률에 의한 품사 태깅(part of speech tagging), 개체명 인식(named entity recognition), 철자 교정, 단어 식별(tokenization) 기법 등을 이용° Morpheme (word) analysis: Analysis of morphemes or words, the smallest unit of meaning, is the most common method of analyzing text, including part of speech tagging and entity name recognition based on grammatical rules or probability. (named entity recognition), spelling correction, word identification (tokenization) techniques, etc.

°핵심 어구 추출: 텍스트를 어휘적으로 상호 관련 있는 단어들로 나누는 청킹(chunking)을 통해 핵심 어구를 추출하거나, 개체명 인식, 관계 추출(relation extraction) 등에 활용한다.°Key phrase extraction: Extract key phrases through chunking, dividing the text into lexically related words, or use it for entity name recognition, relationship extraction, etc.

°벡터 공간 모델링: 벡터 공간 모델에서 문서(document)와 단어(term)를 각각 벡터(vector)와 차원(dimension)에 대응시켜 통계적 가중치를 구함. TF-IDF, 카이제곱 검정, 코사인 유사도 등을 통해 단어의 빈도수 분포에서 중요하지 않은 단어를 걸러내고, 문서의 유사도를 추출함°Vector space modeling: In the vector space model, statistical weights are obtained by matching documents and words to vectors and dimensions, respectively. Filter out unimportant words from the word frequency distribution and extract document similarity through TF-IDF, chi-square test, cosine similarity, etc.

°동시출현 단어 분석: 단어들 사이의 의미상의 관계성을 파악하기 위해 일정한 문맥 내에서 두 단어가 동시 출현하는 빈도를 구한 후, 다양한 통계적 방법을 활용하여 유의미한 단어 쌍을 추출°Co-occurrence word analysis: To determine the semantic relationship between words, calculate the frequency of co-occurrence of two words within a certain context and then extract meaningful word pairs using various statistical methods.

°토픽 모델링: 구조화되지 않은 대량의 텍스트로부터 숨겨져 있는 주제 구조를 발견하고 카테고리화 하기 위한 통계적 추론 알고리즘으로, LDA (Latent Dirichlet Allocation) 모델이 주로 활용됨. °Topic modeling: A statistical inference algorithm for discovering and categorizing hidden topic structures in large amounts of unstructured text, the LDA (Latent Dirichlet Allocation) model is mainly used.

°의미연결망 분석: 키워드 동시출현 분석 기법에 기반하거나 그 한계를 넘어 단어 간의 의미 혹은 맥락상의 연결 관계를 정의하고, 해당 연결 관계를 시각화하거나 중요한 컨셉을 네트워크 속의 위상(centrality)에 따라 추출°Semantic network analysis: Based on or beyond the limitations of keyword co-occurrence analysis techniques, define semantic or contextual connections between words, visualize the connections, or extract important concepts according to centrality in the network.

텍스트 분석부(120)를 통해 문장별로 추출된 키워드 세트는 영상 검색부(130)으로 전달되고 영상 검색부(130)는 추출된 키워드를 기반으로 하여 웹크로링 기술을 사용하여 웹 상에서 영상을 검색하고 검색된 영상의 리스트를 생성한다. 또한 영상 검색부(130)는 영상의 리스트 생성시 각각의 영상에 대한 웹페이지에 영상에 대한 메타데이터가 존재하는 경우 메타데이터를 더 저장하도록 동작한다. 메타 데이터는 영상의 제목, 제작자, 장르, 제작일자와 같은 정보를 포함하지만 본 발명이 전술한 메타 데이터 정보에 의해 한정되는 것은 아니다. 한편, 메타 데이터는 동영상 파일의 헤더 정보가 더 포함될 수도 있다.The set of keywords extracted for each sentence through the text analysis unit 120 is delivered to the video search unit 130, and the video search unit 130 searches for videos on the web using web crawling technology based on the extracted keywords. and create a list of searched videos. Additionally, when creating a list of videos, the video search unit 130 operates to store additional metadata if metadata for the video exists on the web page for each video. Metadata includes information such as the title, producer, genre, and production date of the video, but the present invention is not limited to the above-described metadata information. Meanwhile, metadata may further include header information of the video file.

영상 검색부(130)로부터 검색된 영상의 리스트가 작성되고 나면 샘플 이미지 추출부(140)는 각각의 영상의 랜덤한 구간에서 소량의 샘플 이미지들을 추출하고 다운로드를 수행한다. 이는 검색된 영상을 모두 다운로드 받는 경우에 비교하여 네트워크 트랙픽의 부담을 감소시킬 뿐만 아니라 영상을 다운로드할 수 있는 저장공간의 부담을 감소시키기 위함이다.After the list of images searched by the image search unit 130 is created, the sample image extraction unit 140 extracts a small number of sample images from random sections of each image and performs downloading. This is to not only reduce the burden of network traffic compared to downloading all searched videos, but also reduce the burden of storage space where videos can be downloaded.

한편 전술한 설명에서 영상 검색부(130)은 웹상에서 영상을 검색하는 것으로 설명되었지만 본 발명은 이에 한정되는 것은 아니고 jpg, jepg, gif, bmp, png 등의 이미지 파일에 대한 검색을 수행하거나 영상 파일 검색에 추가하여 이미지 검색을 더 수행하도록 구성될 수도 있다.Meanwhile, in the above description, the image search unit 130 was described as searching images on the web, but the present invention is not limited to this and performs a search for image files such as jpg, jepg, gif, bmp, png, or image files. It may also be configured to perform image searches in addition to searches.

샘플 이미지 추출부(140)에서 추출된 샘플 이미지는 이어서 이미지 분석부(150)로 제공된다. 이미지 분석부(150)는 이미지 기반 물체 탐지부(152) 및 이미지 기반 텍스트 생성부(154)를 통해 추출된 샘플 이미지에 대한 분석을 수행한다.The sample image extracted from the sample image extraction unit 140 is then provided to the image analysis unit 150. The image analysis unit 150 performs analysis on the sample image extracted through the image-based object detection unit 152 and the image-based text generation unit 154.

이미지 기반 물체 탐지부(152)는 이미지에 포함된 물체 또는 객체를 딥러닝 분석을 통해 물체의 종류를 식별하는 컴퓨터 비전 기술을 총칭한다. 이와 같은 맥락에서, 이미지 기반 물체 탐지부(152)는 객체 감지(Object detection) 및 객체 인식(Object recognition) 기술을 포함한다. 객체 감지(Object detection)와 객체 인식(Object recognition)은 서로 유사한 객체 식별 기술이지만, 실행 방식에 있어서 차이점이 있다. 객체 감지는 이미지에서 객체의 인스턴스를 찾아내는 프로세스로 딥러닝의 경우 객체 감지는 이미지에서 객체를 식별할 뿐만 아니라 위치까지 파악되는 객체 인식의 서브셋이다. 이를 통해 하나의 이미지에서 여러 객체를 식별하고 각 위치를 파악할 수 있다. 본 발명에서 이미지 기반 물체 탐지부는 이미지에서 객체를 식별할 뿐만 아니라 위치까지 파악하고 이미지 내에서 여러 객체를 식별할 수 있는 딥러닝 기반 또는 머신러닝 기반의 객체 감지 모듈이 이용되는 것이 바람직하다. 이러한 딥러닝 분석은 복수의 히든 레이어가 포함되는 CNN(Convolutional Neural Network), RNN(Recurrent Neural Network) 등의 심층 신경망 방식이 있고, 이를 개선한 다양한 방식들이 계속하여 소개되고 있으며, 적용 분야에 따라 급격한 성능 향상과 다양한 분석 결과를 제공하고 있다.The image-based object detection unit 152 collectively refers to computer vision technology that identifies the type of object or object included in the image through deep learning analysis. In this context, the image-based object detection unit 152 includes object detection and object recognition technology. Object detection and object recognition are similar object identification technologies, but there are differences in how they are implemented. Object detection is the process of finding instances of objects in images. In the case of deep learning, object detection is a subset of object recognition that not only identifies objects in images but also determines their location. This allows you to identify multiple objects in one image and determine their respective locations. In the present invention, the image-based object detection unit preferably uses a deep learning-based or machine learning-based object detection module that can not only identify objects in an image but also determine their location and identify multiple objects in the image. Such deep learning analysis includes deep neural network methods such as CNN (Convolutional Neural Network) and RNN (Recurrent Neural Network), which include multiple hidden layers. Various improved methods are continuously being introduced, and rapid changes are made depending on the field of application. It provides improved performance and various analysis results.

이미지 기반 텍스트 생성부(154)는 추출된 이미지에 포함된 객체나 객체를 포함하는 상황을 딥러닝 분석을 통해 텍스트 정보를 출력한다. 이러한 딥러닝 분석은 딥러닝 기반의 객체 감지 모듈과 유사하게, 복수의 히든 레이어가 포함되는 CNN(Convolutional Neural Network), RNN(Recurrent Neural Network) 등의 심층 신경망 방식이 이용될 수 있다. 따라서 이미지 기반 텍스트 생성부(154)는 영상 내 객체의 종류와 위치, 크기에 대한 기본적인 분석 결과는 물론이고 최근에는 객체의 심리 상태, 객체의 일부에 대한 상세한 설명, 상황에 대한 인지 결과 등을 제공할 수 있으며 이미지를 통해서 상당히 많은 상황 정보를 텍스트와 분석 정보(정확도, 가중치, 부가적인 분석 정보 등)로 제공할 수 있게 된다.The image-based text generator 154 outputs text information through deep learning analysis of objects included in the extracted image or situations containing objects. Similar to deep learning-based object detection modules, this deep learning analysis can use deep neural network methods such as CNN (Convolutional Neural Network) and RNN (Recurrent Neural Network) that include multiple hidden layers. Therefore, the image-based text generator 154 provides not only basic analysis results on the type, location, and size of the object in the image, but also recently provides the psychological state of the object, detailed descriptions of parts of the object, and recognition results for the situation. It is possible to provide a considerable amount of situational information through images in the form of text and analysis information (accuracy, weight, additional analysis information, etc.).

연관도 평가부(160)는 이전 설명한 텍스트 분석부(120)에서 분석된 컨텍스트 정보, 이미지 기반 물체 탐지부(152)에서 분석된 이미지 감지 결과, 이미지 기반 텍스트 생성부(154)에서 생성된 상황 정보 텍스트를 이용하여, 사용자가 입력한 텍스트 문장과 이미지 분석부(150)에서 분석된 분석 결과 사이에서의 연관도를 평가하도록 기능한다.The relevance evaluation unit 160 includes context information analyzed by the previously described text analysis unit 120, image detection results analyzed by the image-based object detection unit 152, and context information generated by the image-based text generation unit 154. It functions to evaluate the degree of correlation between the text sentence input by the user and the analysis result analyzed by the image analysis unit 150 using text.

구체적으로 연관도 평가부(160)는 다음과 같은 입력:Specifically, the relevance evaluation unit 160 inputs the following:

- 입력1: 이미지 기반 물체 탐지부(152)에서 의해 탐지된 물체의 종류, 숫자, 크기의 정보- Input 1: Information on the type, number, and size of the object detected by the image-based object detection unit 152

- 입력2: 이미지 기반 텍스트 생성부(154)에서 생성된 상황 정보 텍스트- Input 2: Context information text generated by the image-based text generator 154

- 입력3: 이미지 기반 물체 탐지부(152)와 이미지 기반 텍스트 생성부(154)에 사용된 딥러닝 모델들의 중간 단계에서 얻어지는 이미지 특징맵(feature map)- Input 3: Image feature map obtained at the intermediate stage of the deep learning models used in the image-based object detection unit 152 and the image-based text generation unit 154.

- 입력4: 텍스트 분석부(120)의 텍스트 마이닝 모델에서 추출된 키워드 정보- Input 4: Keyword information extracted from the text mining model of the text analysis unit 120

- 입력5: 텍스트 분석부(120)의 컨텍스트 분석 모델에서 추출된 컨텍스트(문맥) 정보- Input 5: Context information extracted from the context analysis model of the text analysis unit 120

을 이용하여 연관도를 분석한다. Analyze the correlation using .

연관도 평가부(160)는 입력 1 ~ 입력 3를 조합하여 비교 벡터 A를 생성하고, 또한 입력 4 ~ 입력 5를 조합하여 비교 벡터 B를 생성한 후, 비교 벡터 A와 비교 벡터 B 사이의 유사도 점수를 계산하도록 기능한다. 유사도 점수를 평가하는데 있어서 자연어 간 유사도를 평가하는 Word2Vec 모델 또는 이를 변형한 모델이 이용될 수 있다.The relevance evaluation unit 160 generates comparison vector A by combining input 1 to input 3, and generates comparison vector B by combining input 4 to input 5, and then calculates the similarity between comparison vector A and comparison vector B. Functions to calculate scores. In evaluating the similarity score, the Word2Vec model, which evaluates the similarity between natural languages, or a modified model thereof can be used.

연관도 평가부(160)는 연관도가 높은 것으로 평가된 이미지가 포함된 영상에대해 더 많은 이미지 추출을 시도하도록 샘플 이미지 추출부(140)에 피드백을 제공하는 반면, 낮은 연관도의 이미지가 포함된 영상은 제외함으로써 이미지 분석에 소요되는 시간을 단축하고 최종 결과물의 품질을 높일 수 있도록 구성되는 것이 바람직하다. 이와 같이 본 발명에서는 연관도 평가부를 통해 검색된 영상으로부터 추출된 이미지와 사용자 입력 텍스트로부터 얻어진 정보를 연관도를 분석함으로써 영상에 태그정보가 없이 이미지로부터 직접 분석을 수행할 수 있다는 장점이 더 얻어질 수 있다.The relevance evaluation unit 160 provides feedback to the sample image extraction unit 140 to attempt to extract more images for images containing images evaluated as having a high relevance, while the relevance evaluation unit 160 provides feedback to the sample image extraction unit 140 for images containing images with a low relevance. It is desirable to configure it to shorten the time required for image analysis and improve the quality of the final result by excluding images that are damaged. In this way, in the present invention, the advantage of being able to perform analysis directly from the image without tag information in the image can be obtained by analyzing the correlation between the image extracted from the image searched through the relevance evaluation unit and the information obtained from the user input text. there is.

또한 연관도 평가부(160)는 각각의 영상에 대해 연관도 평가 점수가 부여되고 나면 구간 영상 다운로드부(170)는 연관도가 높은 영상에 대해 구간 영상을 다운로드하고, 다운로드된 구간 영상은 데이터베이스에 저장되는 한편 분석된 결과와 영상에 대한 매칭 정보가 인덱싱 데이터베이스에 함께 저장되어 영상의 재사용성을 높일 수 있다.In addition, after the relevance evaluation unit 160 gives a relevance evaluation score to each image, the section video download unit 170 downloads the section video for the image with a high degree of relevance, and the downloaded section video is stored in the database. Meanwhile, the analysis results and matching information about the image are stored together in the indexing database, thereby increasing the reusability of the image.

구간 영상 다운로드부(170)로부터 구간 영상이 획득 또는 다운로드되고 나면, 다운로드된 구간 영상은 사용자 화면의 영상 편집용 템플릿에 제공되거나 선택된 템플릿의 타임라인에 자동으로 추가되고, 사용자는 웹상에서 원하는 영상 정보를 취득하고자 수많은 영상을 검색하지 않고 보다 쉽고 편리하게 관련된 구간 영상을 취득할 수 있고, 또한 사용자가 제작하고자 하는 디지털 컨텐츠의 스토리라인(또는 편집 템플릿)에 맞추어 구간 영상이 사용자에게 자동으로 제공되어 영상 제작에 도움을 줄 수 있다. Once the section video is acquired or downloaded from the section video download unit 170, the downloaded section video is provided to the video editing template on the user's screen or is automatically added to the timeline of the selected template, and the user can access the desired video information on the web. You can acquire related section videos more easily and conveniently without having to search through numerous videos to acquire them, and section videos are automatically provided to the user according to the storyline (or editing template) of the digital content you want to create. Can help with production.

이상에서 설명된 장치는 하드웨어 구성요소, 소프트웨어 구성요소, 및/또는 하드웨어 구성요소 및 소프트웨어 구성요소의 조합으로 구현될 수 있다. 예를 들어, 실시예들에서 설명된 장치 및 구성요소는, 예를 들어, 프로세서, 콘트롤러, ALU(arithmetic logic unit), 디지털 신호 프로세서(digital signal processor), 마이크로컴퓨터, FPGA(field programmable gate array), PLU(programmable logic unit), 마이크로프로세서, 또는 명령(instruction)을 실행하고 응답할 수 있는 다른 어떠한 장치와 같이, 하나 이상의 범용 컴퓨터 또는 특수 목적 컴퓨터를 이용하여 구현될 수 있다. 처리 장치는 운영 체제(OS) 및 상기 운영 체제 상에서 수행되는 하나 이상의 소프트웨어 애플리케이션을 수행할 수 있다. 또한, 처리 장치는 소프트웨어의 실행에 응답하여, 데이터를 접근, 저장, 조작, 처리 및 생성할 수도 있다. 이해의 편의를 위하여, 처리 장치는 하나가 사용되는 것으로 설명된 경우도 있지만, 해당 기술분야에서 통상의 지식을 가진 자는, 처리 장치가 복수 개의 처리요소(processing element) 및/또는 복수 유형의 처리 요소를 포함할 수 있음을 알수 있다. 예를 들어, 처리 장치는 복수 개의 프로세서 또는 하나의 프로세서 및하나의 콘트롤러를 포함할 수 있다. 또한, 병렬 프로세서(parallel processor)와 같은, 다른 처리 구성(processing configuration)도 가능하다.The device described above may be implemented with hardware components, software components, and/or a combination of hardware components and software components. For example, devices and components described in embodiments may include, for example, a processor, a controller, an arithmetic logic unit (ALU), a digital signal processor, a microcomputer, a field programmable gate array (FPGA), etc. , may be implemented using one or more general-purpose or special-purpose computers, such as a programmable logic unit (PLU), a microprocessor, or any other device capable of executing and responding to instructions. A processing device may execute an operating system (OS) and one or more software applications that run on the operating system. Additionally, a processing device may access, store, manipulate, process, and generate data in response to the execution of software. For ease of understanding, a single processing device may be described as being used; however, those skilled in the art will understand that a processing device includes multiple processing elements and/or multiple types of processing elements. It can be seen that it can include . For example, a processing device may include a plurality of processors or one processor and one controller. Additionally, other processing configurations, such as parallel processors, are possible.

소프트웨어는 컴퓨터 프로그램(computer program), 코드(code), 명령(instruction), 또는 이들 중 하나 이상의 조합을 포함할 수 있으며, 원하는 대로 동작하도록 처리 장치를 구성하거나 독립적으로 또는 결합적으로(collectively)처리 장치를 명령할 수 있다. 소프트웨어 및/또는 데이터는, 처리 장치에 의하여 해석되거나 처리 장치에 명령 또는 데이터를 제공하기 위하여, 어떤 유형의 기계, 구성요소(component), 물리적 장치, 가상 장치(virtual equipment), 컴퓨터 저장매체 또는 장치에 구체화(embody)될 수 있다. 소프트웨어는 네트워크로 연결된 컴퓨터 시스템 상에 분산되어서, 분산된 방법으로 저장되거나 실행될 수도 있다. 소프트웨어 및 데이터는 하나 이상의 컴퓨터 판독 가능 기록 매체에 저장될 수 있다.Software may include a computer program, code, instructions, or a combination of one or more of these, which may configure a processing unit to operate as desired, or may be processed independently or collectively. You can command the device. Software and/or data may be used on any type of machine, component, physical device, virtual equipment, computer storage medium or device to be interpreted by or to provide instructions or data to a processing device. It can be embodied in . Software may be distributed over networked computer systems and stored or executed in a distributed manner. Software and data may be stored on one or more computer-readable recording media.

실시예에 따른 방법은 다양한 컴퓨터 수단을 통하여 수행될 수 있는 프로그램 명령 형태로 구현되어 컴퓨터 판독 가능 매체에 기록될 수 있다. 상기 컴퓨터판독 가능 매체는 프로그램 명령, 데이터 파일, 데이터 구조 등을 단독으로 또는 조합하여 포함할 수 있다. 상기 매체에 기록되는 프로그램 명령은 실시예를 위하여 특별히 설계되고 구성된 것들이거나 컴퓨터 소프트웨어 당업자에게 공지되어 사용 가능한 것일 수도 있다. 컴퓨터 판독 가능 기록 매체의 예에는 하드 디스크, 플로피 디스크 및 자기 테이프와 같은 자기 매체(magnetic media), CD-ROM, DVD와 같은 광기록 매체(optical media), 플롭티컬 디스크(floptical disk)와 같은 자기-광 매체(magneto-optical media), 및 롬(ROM), 램(RAM), 플래시 메모리 등과 같은 프로그램 명령을 저장하고 수행하도록 특별히 구성된 하드웨어 장치가 포함된다. 프로그램 명령의 예에는 컴파일러에 의해 만들어지는 것과 같은 기계어 코드뿐만 아니라 인터프리터 등을 사용해서 컴퓨터에 의해서 실행될 수 있는 고급 언어 코드를 포함한다.The method according to the embodiment may be implemented in the form of program instructions that can be executed through various computer means and recorded on a computer-readable medium. The computer-readable medium may include program instructions, data files, data structures, etc., singly or in combination. Program instructions recorded on the medium may be specially designed and configured for the embodiment or may be known and available to those skilled in the art of computer software. Examples of computer-readable recording media include magnetic media such as hard disks, floppy disks, and magnetic tapes, optical media such as CD-ROMs and DVDs, and magnetic media such as floptical disks. -Includes optical media (magneto-optical media) and hardware devices specifically configured to store and execute program instructions, such as ROM, RAM, flash memory, etc. Examples of program instructions include machine language code, such as that produced by a compiler, as well as high-level language code that can be executed by a computer using an interpreter, etc.

이상과 같이 실시예들이 비록 한정된 실시예와 도면에 의해 설명되었으나, 해당 기술분야에서 통상의 지식을 가진 자라면 상기의 기재로부터 다양한 수정 및 변형이 가능하다. 예를 들어, 설명된 기술들이 설명된 방법과 다른 순서로 수행되거나, 및/또는 설명된 시스템, 구조, 장치, 회로 등의 구성요소들이 설명된 방법과 다른 형태로 결합 또는 조합되거나, 다른 구성요소 또는 균등물에 의하여 대치되거나 치환되더라도 적절한 결과가 달성될 수 있다.As described above, although the embodiments have been described with limited examples and drawings, various modifications and variations can be made by those skilled in the art from the above description. For example, the described techniques are performed in a different order than the described method, and/or components of the described system, structure, device, circuit, etc. are combined or combined in a different form than the described method, or other components are used. Alternatively, appropriate results may be achieved even if substituted or substituted by an equivalent.

그러므로, 다른 구현들, 다른 실시예들 및 특허청구범위와 균등한 것들도 후술하는 특허청구범위의 범위에 속하는 것으로 해석되어야만 한다.Therefore, other implementations, other embodiments, and equivalents of the claims should also be construed as falling within the scope of the claims described below.

100: 영상 편집 자동화 시스템 110: 텍스트 수신부
120: 텍스트 분석부 130: 영상 검색부
140: 샘플 이미지 추출부 150: 이미지 분석부
160: 연관도 평가부 170: 구간 영상 다운로드부
152: 이미지 기반 물체 탐지부 154: 이미지 기반 텍스트 생성부
100: Video editing automation system 110: Text receiver
120: text analysis unit 130: video search unit
140: sample image extraction unit 150: image analysis unit
160: Relevance evaluation unit 170: Section video download unit
152: Image-based object detection unit 154: Image-based text generation unit

Claims (6)

사용자가 입력한 텍스트로 이루어진 문장, 파일 업로드를 통해 수신된 텍스트 파일, 키워드들의 집합, 또는 음성인식된 텍스트를 수신하는 텍스트 수신부(110),
입력된 텍스트 문장을 분석하여 문장별로 키워드를 추출하는 텍스트 분석부(120),
텍스트 분석부(120)는 딥러닝 기반 텍스트 마이닝 모델을 포함하고,
텍스트 분석부(120)에서 분석된 키워드 결과에 기반하여 웹 상에서 영상을 검색하는 영상 검색부(130);
검색된 영상으로부터 메타데이터 및 샘플 이미지를 추출하는 샘플 이미지 추출부(140);
추출된 샘플 이미지를 분석하는 이미지 분석부(150);
이미지 분석부(150)는 이미지 기반 물체 탐지부(152) 및 이미지 기반 텍스트 생성부(154)를 포함하고,
이미지 기반 물체 탐지부(152)는 이미지에 포함된 객체를 딥러닝 분석을 통해 객체의 종류, 크기, 숫자, 위치를 식별하는 딥러닝 기반 객체 감지 모듈을 포함하고,
이미지 기반 텍스트 생성부(154)는 이미지에 포함된 객체 또는 객체를 포함하는 상황을 딥러닝 분석을 통해 상황 정보 텍스트를 출력하는 딥러닝 기반 이미지 캡션 모듈을 포함하고,
분석된 이미지 정보에 기반하여 사용자 입력 텍스트와의 연관도를 분석하는 연관도 평가부(160),
연관도 평가부(160)는
- 이미지 기반 물체 탐지부(152)에서 의해 탐지된 물체의 종류, 숫자, 크기의 정보를 포함하는 제1 입력 정보;
- 이미지 기반 텍스트 생성부(154)에서 생성된 상황 정보 텍스트를 포함하는 제2 입력 정보;
- 이미지 기반 물체 탐지부(152)와 이미지 기반 텍스트 생성부(154)에 사용된 딥러닝 모델들의 중간 단계에서 얻어지는 이미지 특징맵(feature map)을 포함하는 제3 입력 정보;
- 텍스트 분석부(120)의 텍스트 마이닝 모델에서 추출된 키워드 정보를 포함하는 제4 입력 정보;
- 텍스트 분석부(120)의 컨텍스트 분석 모델에서 추출된 컨텍스트(문맥) 정보를 포함하는 제5 입력 정보를 이용하여 사용자가 입력한 텍스트 문장과 이미지 분석부(150)에서 분석된 분석 결과 사이에서의 연관도를 평가하도록 기능하고,
연관도 평가부(160)의 평가 결과에 대응하여 해당하는 영상을 구간별로 다운로드 하는 구간 영상 다운로드부(170)를 포함하는 것을 특징으로 하는 영상 편집 자동화 시스템.
A text receiver 110 that receives a sentence consisting of text input by the user, a text file received through file upload, a set of keywords, or a voice-recognized text;
A text analysis unit 120 that analyzes input text sentences and extracts keywords for each sentence,
The text analysis unit 120 includes a deep learning-based text mining model,
an image search unit 130 that searches for images on the web based on keyword results analyzed by the text analysis unit 120;
a sample image extraction unit 140 that extracts metadata and sample images from the searched images;
An image analysis unit 150 that analyzes the extracted sample image;
The image analysis unit 150 includes an image-based object detection unit 152 and an image-based text generation unit 154,
The image-based object detection unit 152 includes a deep learning-based object detection module that identifies the type, size, number, and location of the object included in the image through deep learning analysis,
The image-based text generator 154 includes a deep learning-based image caption module that outputs context information text through deep learning analysis of objects included in the image or situations containing objects,
A correlation evaluation unit 160 that analyzes the correlation with the user input text based on the analyzed image information,
The relevance evaluation unit 160
- First input information including information on the type, number, and size of the object detected by the image-based object detection unit 152;
- Second input information including context information text generated by the image-based text generator 154;
- Third input information including an image feature map obtained at an intermediate stage of deep learning models used in the image-based object detection unit 152 and the image-based text generation unit 154;
- Fourth input information including keyword information extracted from the text mining model of the text analysis unit 120;
- Between the text sentence entered by the user using the fifth input information including context information extracted from the context analysis model of the text analysis unit 120 and the analysis result analyzed by the image analysis unit 150 Functions to evaluate the degree of correlation,
An automated video editing system comprising a section video download unit 170 that downloads the corresponding video for each section in response to the evaluation result of the relevance evaluation unit 160.
삭제delete 삭제delete 삭제delete 삭제delete 제1항에 있어서,
연관도 평가부(160)는
제1 입력 정보 내지 제3 입력 정보를 조합하여 비교 벡터 A를 생성하고; 제4 입력 정보 및 제5 입력 정보를 조합하여 비교 벡터 B를 생성하고; 비교 벡터 A와 비교 벡터 B 사이의 유사도 점수를 계산하도록 기능하고,
유사도 점수는 자연어 간 유사도를 평가하는 Word2Vec 모델 또는 이를 변형한 모델이 이용되는 것을 특징으로 하는 영상 편집 자동화 시스템.
According to paragraph 1,
The relevance evaluation unit 160
Generate a comparison vector A by combining the first to third input information; combining the fourth input information and the fifth input information to generate a comparison vector B; Functions to calculate a similarity score between comparison vector A and comparison vector B,
An automated video editing system characterized in that the similarity score uses the Word2Vec model, which evaluates the similarity between natural languages, or a modified model thereof.
KR1020220015488A 2022-02-07 2022-02-07 Video editing automation system Active KR102685135B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020220015488A KR102685135B1 (en) 2022-02-07 2022-02-07 Video editing automation system

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020220015488A KR102685135B1 (en) 2022-02-07 2022-02-07 Video editing automation system

Publications (2)

Publication Number Publication Date
KR20230119398A KR20230119398A (en) 2023-08-16
KR102685135B1 true KR102685135B1 (en) 2024-07-15

Family

ID=87848711

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020220015488A Active KR102685135B1 (en) 2022-02-07 2022-02-07 Video editing automation system

Country Status (1)

Country Link
KR (1) KR102685135B1 (en)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2025089599A1 (en) * 2023-10-24 2025-05-01 삼성전자주식회사 Electronic device and method for image processing

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102155768B1 (en) 2019-10-02 2020-09-14 한경훈 Method for providing question and answer data set recommendation service using adpative learning from evoloving data stream for shopping mall

Family Cites Families (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101571240B1 (en) * 2014-04-08 2015-11-24 주식회사 엘지유플러스 Video Creating Apparatus and Method based on Text
KR102144978B1 (en) 2018-10-19 2020-08-14 인하대학교 산학협력단 Customized image recommendation system using shot classification of images
KR102177412B1 (en) * 2018-12-12 2020-11-11 주식회사 인공지능연구원 System and Method for Matching Similarity between Image and Text

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102155768B1 (en) 2019-10-02 2020-09-14 한경훈 Method for providing question and answer data set recommendation service using adpative learning from evoloving data stream for shopping mall

Also Published As

Publication number Publication date
KR20230119398A (en) 2023-08-16

Similar Documents

Publication Publication Date Title
CN109726274B (en) Question generation method, device and storage medium
US9792280B2 (en) Context based synonym filtering for natural language processing systems
CN107818085B (en) Answer selection method and system for reading comprehension by reading robot
US9715531B2 (en) Weighting search criteria based on similarities to an ingested corpus in a question and answer (QA) system
CN109325201A (en) Method, device, device and storage medium for generating entity relationship data
CN107491547A (en) Searching method and device based on artificial intelligence
CN110929038A (en) Entity linking method, device, equipment and storage medium based on knowledge graph
CN111291177A (en) Information processing method and device and computer storage medium
US20240404283A1 (en) Multimodal video summarization
US20220365956A1 (en) Method and apparatus for generating patent summary information, and electronic device and medium
Altadmri et al. A framework for automatic semantic video annotation: Utilizing similarity and commonsense knowledge bases
KR20220138960A (en) Apparatus and metohd for generating named entity recognition model based on knowledge enbedding model
Zhang et al. Disease prediction and early intervention system based on symptom similarity analysis
CN118747293A (en) Document writing intelligent recall method and device and document generation method and device
KR102685135B1 (en) Video editing automation system
CN111259159A (en) Data mining method, device and computer readable storage medium
US10387472B2 (en) Expert stance classification using computerized text analytics
Nagaraj et al. Robust quantification of gender disparity in pre-modern english literature using natural language processing
US11341188B2 (en) Expert stance classification using computerized text analytics
CN118395987A (en) BERT-based landslide hazard assessment named entity identification method of multi-neural network
Shah et al. An automatic text summarization on Naive Bayes classifier using latent semantic analysis
Poornima et al. Text preprocessing on extracted text from audio/video using R
Gupta et al. Natural language processing algorithms for domain-specific data extraction in material science: Reseractor
Munot et al. Conceptual framework for abstractive text summarization
CN113934854B (en) A text knowledge extraction method, device, electronic device and storage medium

Legal Events

Date Code Title Description
PA0109 Patent application

Patent event code: PA01091R01D

Comment text: Patent Application

Patent event date: 20220207

PA0201 Request for examination
PG1501 Laying open of application
E902 Notification of reason for refusal
PE0902 Notice of grounds for rejection

Comment text: Notification of reason for refusal

Patent event date: 20240322

Patent event code: PE09021S01D

E701 Decision to grant or registration of patent right
PE0701 Decision of registration

Patent event code: PE07011S01D

Comment text: Decision to Grant Registration

Patent event date: 20240708

GRNT Written decision to grant
PR0701 Registration of establishment

Comment text: Registration of Establishment

Patent event date: 20240710

Patent event code: PR07011E01D

PR1002 Payment of registration fee

Payment date: 20240710

End annual number: 3

Start annual number: 1

PG1601 Publication of registration