KR102149051B1 - System and method for analyzing document using self confidence based on ocr - Google Patents
System and method for analyzing document using self confidence based on ocr Download PDFInfo
- Publication number
- KR102149051B1 KR102149051B1 KR1020200050181A KR20200050181A KR102149051B1 KR 102149051 B1 KR102149051 B1 KR 102149051B1 KR 1020200050181 A KR1020200050181 A KR 1020200050181A KR 20200050181 A KR20200050181 A KR 20200050181A KR 102149051 B1 KR102149051 B1 KR 102149051B1
- Authority
- KR
- South Korea
- Prior art keywords
- information
- ocr
- recognized
- document analysis
- confidence score
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Images
Classifications
-
- G06K9/00442—
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V30/00—Character recognition; Recognising digital ink; Document-oriented image-based pattern recognition
- G06V30/40—Document-oriented image-based pattern recognition
-
- G06K9/6202—
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/74—Image or video pattern matching; Proximity measures in feature spaces
- G06V10/75—Organisation of the matching processes, e.g. simultaneous or sequential comparisons of image or video features; Coarse-fine approaches, e.g. multi-scale approaches; using context analysis; Selection of dictionaries
- G06V10/751—Comparing pixel values or logical combinations thereof, or feature values having positional relevance, e.g. template matching
-
- G06K2209/01—
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V30/00—Character recognition; Recognising digital ink; Document-oriented image-based pattern recognition
- G06V30/10—Character recognition
Landscapes
- Engineering & Computer Science (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Theoretical Computer Science (AREA)
- Artificial Intelligence (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Multimedia (AREA)
- Computing Systems (AREA)
- Health & Medical Sciences (AREA)
- Databases & Information Systems (AREA)
- Evolutionary Computation (AREA)
- General Health & Medical Sciences (AREA)
- Medical Informatics (AREA)
- Software Systems (AREA)
- Character Discrimination (AREA)
- Character Input (AREA)
Abstract
자기 신뢰도 정보를 이용한 OCR 기반 문서 분석 시스템 및 방법을 개시한다. 본 발명은 OCR 인식에 기반하여 인식된 정보에 대한 신뢰 점수를 제공함으로써 검사자에 의한 확인 작업시간을 감소시킬 수 있다.Disclosed is an OCR-based document analysis system and method using self-reliability information. The present invention can reduce the verification work time by the inspector by providing a confidence score for the recognized information based on OCR recognition.
Description
본 발명은 자기 신뢰도 정보를 이용한 OCR 기반 문서 분석 시스템 및 방법에 관한 발명으로서, 더욱 상세하게는 OCR을 이용하여 인식된 정보에 대한 신뢰 점수를 제공함으로써 검사자에 의한 확인 작업시간을 감소시킬 수 있는 자기 신뢰도 정보를 이용한 OCR 기반 문서 분석 시스템 및 방법에 관한 것이다.The present invention relates to an OCR-based document analysis system and method using self-reliability information, and more specifically, a self-confirmation work time that can be reduced by an inspector by providing a confidence score for information recognized using OCR. It relates to an OCR-based document analysis system and method using reliability information.
개인이나 기업은 경제 활동 중에 수집하는 영수증을 경비보고, 지출결의 등의 회계 처리 혹은 종합소득세 신고 등의 세무 처리를 위한 사후 증빙 서류로 보관하여 관리한다.Individuals and companies maintain and manage receipts collected during economic activities as post-mortem documents for accounting for expense reports, expenditure resolutions, or tax processing such as comprehensive income tax returns.
이렇게 보관 및 관리되는 영수증은 종이로 되어 있기 때문에 근본적으로 원본의 훼손 위험이 있으며, 오손, 분실, 부패에 대한 노출을 예방해야 하는 기술적, 경제적 부담이 있고, 영수증 보관량의 증대에 비례하여 영수증 보관 공간을 늘려야 하는 문제점이 있다.Since the receipts stored and managed in this way are made of paper, there is a risk of fundamentally damaging the original, there is a technical and economic burden to prevent exposure to contamination, loss, and corruption, and the receipt storage space in proportion to the increase in the amount of receipt storage There is a problem that needs to be increased.
또한, 개인이나 기업의 담당자는 수기 입력 방식으로 종래의 영수증으로부터 상기한 회계 처리 혹은 세무 처리에 필요한 정보를 추출하고 분류하여 장부에 기입하거나 회계관리 프로그램이 설치된 PC에 입력, 저장하기 때문에 정보 추출 작업이 불편한 문제점이 있다.In addition, the person in charge of an individual or company extracts and classifies the information necessary for the above accounting or tax processing from the conventional receipt by hand input method and writes it in the ledger or enters and stores it in a PC with an accounting management program installed. There is this inconvenient problem.
한편, 문서에 포함된 글자(텍스트) 이미지는 기계 인코딩을 통해 변환할 수 있는 데, 기계 인코딩을 통해 변환된 글자는 전자적으로 편집, 검색 등이 가능하고, 변환된 글자는 파일 등의 형태로 데이터베이스에 저장할 수도 있게 된다.On the other hand, text (text) images included in documents can be converted through mechanical encoding. Characters converted through mechanical encoding can be electronically edited and searched, and converted characters are converted into a database in the form of a file, etc. You can also save it.
이러한 기계 인코딩은 주로 광학문자인식(OCR)을 통해 수행될 수 있고, 컴퓨터 등을 이용하여 이미지 기반의 텍스트 문서를 자동으로 감지, 식별 및 인코딩할 수 있다.Such mechanical encoding may be performed mainly through optical character recognition (OCR), and image-based text documents may be automatically detected, identified, and encoded using a computer or the like.
한국 등록특허공보 등록번호 제10-1139801호(발명의 명칭: 영수증 판독을 통한 자동 정보 수집 시스템 및 방법)에는 종래의 영수증에 인쇄된 구매 물품, 구매 수량, 사용 금액 등을 OCR을 통해 판독하여 저장함으로써 해당 영수증의 사용자의 구매 정보를 자동으로 수집, 관리하는 구성이 개시되어 있다.In Korean Registered Patent Publication No. 10-1139801 (title of the invention: automatic information collection system and method through receipt reading), the purchased goods, purchase quantities, and usage amounts printed on conventional receipts are read and stored through OCR. By doing so, a configuration for automatically collecting and managing purchase information of the user of the receipt is disclosed.
그러나, 종래 기술에 따른 OCR은 저품질의 프린터 또는 팩스 등에서 인쇄되거나, 해상도가 낮은 촬영수단에서 이미지화되거나, 구겨지거나, 또는 기울어진 상태에서 촬영된 이미지의 경우 OCR의 인식 정확도가 떨어지는 문제점이 있다.However, the OCR according to the prior art has a problem in that the recognition accuracy of the OCR is deteriorated in the case of an image printed on a low-quality printer or fax machine, imaged in a low-resolution photographing means, or photographed in a wrinkled or inclined state.
또한, 종래 기술에 따른 정보 수집 시스템 및 방법은 OCR을 통해 수집된 정보에 대하여 검사자가 인식된 정보에 대하여 이상 유/무를 모두 확인해야만 하는 문제점이 있다.In addition, the information collection system and method according to the prior art have a problem in that the inspector must check all the presence/absence of abnormalities in the information recognized by the inspector for the information collected through OCR.
이러한 문제점을 해결하기 위하여, 본 발명은 OCR 인식에 기반하여 인식된 정보에 대한 신뢰 점수를 제공함으로써 검사자에 의한 확인 작업시간을 감소시킬 수 있는 자기 신뢰도 정보를 이용한 OCR 기반 문서 분석 시스템 및 방법을 제공하는 것을 목적으로 한다.In order to solve this problem, the present invention provides an OCR-based document analysis system and method using self-reliability information that can reduce the verification work time by the inspector by providing a confidence score for the recognized information based on OCR recognition. It aims to do.
상기한 목적을 달성하기 위하여 본 발명의 일 실시 예는 자기 신뢰도 정보를 이용한 OCR 기반 문서 분석 시스템으로서, 객체 탐지 모델을 이용하여 인식 대상 이미지에서 임의의 형식(form), 글자 및 숫자 중 적어도 하나의 객체의 위치를 탐지하고, 탐지된 형식, 글자 및 숫자 객체의 둘레를 따라 사각형상을 표시하여 사각형상의 픽셀 위치 값을 생성하며, OCR 모델을 이용하여 상기 사각형상의 픽셀 안에서 인식되는 글자 및 숫자 정보를 인식하며, 상기 생성된 사각형상의 픽셀 위치 값을 기반으로 인접한 모든 사각형상의 픽셀들을 연결하며, 상기 연결된 사각형상의 픽셀 위치에 상기 OCR 모델을 통해 인식된 글자 및 숫자 정보를 매칭시켜 디스플레이 하는 문서 분석 장치를 포함한다.In order to achieve the above object, an embodiment of the present invention is an OCR-based document analysis system using self-reliability information, and at least one of a form, letter, and number in an image to be recognized using an object detection model. It detects the location of an object, displays a square shape along the perimeter of the detected format, letter and number object to generate a square pixel position value, and uses the OCR model to retrieve the character and number information recognized in the square pixel. A document analysis device that recognizes, connects all adjacent square pixels based on the generated square pixel position value, and matches and displays letter and numeric information recognized through the OCR model with the connected square pixel position. Include.
또한, 상기 실시 예에 따른 문서 분석 장치는 OCR 모델을 이용한 인식률에 기반한 인식된 글자 및 숫자의 신뢰 점수를 산출하고, 산출된 신뢰 점수를 상기 디스플레이 정보에 반영하여 시각적으로 표시되도록 하는 것을 특징으로 한다.In addition, the document analysis apparatus according to the embodiment is characterized in that the reliability score of the recognized letters and numbers is calculated based on the recognition rate using the OCR model, and the calculated confidence score is reflected in the display information to be visually displayed. .
또한, 상기 실시 예에 따른 문서 분석 장치는 신뢰 점수에 따라 정상 인식 영역과, 틀린 영역 및 보정 영역을 포함한 오류발생 영역이 서로 다른 색상의 시각화 정보로 표시되도록 하는 것을 특징으로 한다.In addition, the document analysis apparatus according to the embodiment is characterized in that the normal recognition area, the wrong area, and the error occurrence area including the correction area are displayed as visualization information of different colors according to the confidence score.
또한, 상기 실시 예에 따른 신뢰 점수는 보정 모델을 이용하여 폼, 형상, 위치 중 적어도 하나의 보정 수행에 따라 산출되는 재건율이 추가 반영되는 것을 특징으로 한다.In addition, the confidence score according to the embodiment is characterized in that the reconstruction rate calculated by performing at least one of a form, a shape, and a location is additionally reflected using a correction model.
또한, 상기 실시 예에 따른 문서 분석 장치는 인식 대상 이미지를 수신하는 입력부; 상기 수신된 인식 대상 이미지에서 객체 탐지 모델을 이용하여 형식, 글자 및 숫자 객체 중 적어도 하나의 위치를 탐지하고, 탐지된 형식, 글자 및 숫자 객체의 둘레에 사각형상을 표시하며, 표시된 사각형상의 픽셀 위치 값을 생성하는 객체 탐지 모델링부; OCR 모델을 이용하여 상기 사각형상의 픽셀 내에서 인식되는 글자 및 숫자 정보를 출력하는 OCR 모델링부; 상기 인식된 글자를 항목 DB의 글자 정보로 교정함에 따라 숫자 정보를 갖는 임의의 사각형상의 픽셀 위치를 시작 위치로 하여 좌측 방향과 상측 방향으로 이동하되, 글자 정보가 검색되면 이동중에 검색된 모든 사각형상의 픽셀들을 연결하고, 상기 연결된 사각형상의 픽셀 위치에 상기 OCR 모델을 통해 교정된 글자 및 숫자 정보를 매칭시켜 디스플레이되도록 하는 폼 구성 모델링부; 보정 모델을 이용하여 상기 인식된 글자 및 숫자의 신뢰 점수를 산출하고, 산출된 신뢰 점수를 기반으로 상기 디스플레이에 반영하여 시각적으로 표시되도록 하는 신뢰도 평가부; 및 상기 생성된 사각형상의 픽셀 위치 값, 인식된 글자, 숫자 정보, 신뢰 정보와, 특정 기관에서 사용하는 문서 데이터의 폼을 저장하는 데이터베이스;를 포함하는 것을 특징으로 한다.In addition, the document analysis apparatus according to the embodiment includes an input unit for receiving an image to be recognized; In the received recognition target image, by using an object detection model, the position of at least one of a type, a letter, and a number object is detected, a square shape is displayed around the detected type, letter and number object, and the displayed square pixel position An object detection modeling unit that generates a value; An OCR modeling unit that outputs letter and number information recognized in the square pixel by using an OCR model; As the recognized character is corrected with the character information of the item DB, the pixel position of a random rectangle with numeric information is moved in the left direction and the upper direction as the starting position, but when the character information is searched, all the rectangular pixels searched during movement A form configuration modeling unit that connects them and matches the corrected letter and number information through the OCR model to the connected square pixel positions and displays them; A reliability evaluation unit that calculates a confidence score of the recognized letters and numbers using a correction model, and reflects it on the display based on the calculated confidence score to be visually displayed; And a database storing the generated square pixel position value, recognized letters, number information, trust information, and a form of document data used by a specific institution.
또한, 상기 실시 예에 따른 인식 대상 이미지에 포함된 글자에 대하여 임의의 문서로부터 미리 설정된 글자에 대한 항목 DB 정보를 생성하는 항목 DB 생성부;를 더 포함한다.In addition, it further includes an item DB generation unit for generating item DB information for preset characters from an arbitrary document with respect to the characters included in the recognition target image according to the embodiment.
또한, 상기 실시 예에 따른 폼 구성 모델링부는 상기 탐지된 글자 객체에 대하여 항목 DB 정보와 매칭시키고, 매칭 결과에 따라 인식된 글자가 교정되면, 상기 교정된 글자가 반영되도록 하는 것을 특징으로 한다.In addition, the form configuration modeling unit according to the embodiment may match the detected text object with item DB information, and when the recognized text is corrected according to the matching result, the corrected text is reflected.
또한, 상기 실시 예에 따른 폼 구성 모델링부는 글자 및 숫자의 사각형상 박스의 색상을 정상 인식 영역과, 틀린 영역 및 보정 영역을 포함한 오류발생 영역이 서로 다른 색상으로 표시되는 것을 특징으로 한다.In addition, the form configuration modeling unit according to the embodiment is characterized in that the color of the rectangular box of letters and numbers is displayed in different colors between a normal recognition area and an error area including a wrong area and a correction area.
또한, 본 발명의 일 실시 예에 따른 자기 신뢰도 정보를 이용한 OCR 기반 문서 분석 방법은 a) 문서 분석 장치가 수신된 인식 대상 이미지에서 객체 탐지 모델을 이용하여 임의의 형식, 글자 및 숫자 객체 중 적어도 하나의 위치를 탐지하고, 탐지된 형식, 글자 및 숫자 객체의 둘레에 사각형상을 표시하여 사각형상의 픽셀 위치 값을 생성하는 단계; b) 상기 문서 분석 장치가 OCR 모델을 이용하여 탐지된 사각형상 픽셀 안에서 인식되는 글자 및 숫자 정보를 출력하는 단계; c) 상기 문서 분석 장치가 상기 생성된 사각형상의 픽셀 위치 값과, 상기 인식된 글자 및 숫자 정보를 기반으로 숫자 정보를 갖는 임의의 사각형상의 픽셀 위치를 시작 위치로 하여 좌측 방향과 상측 방향으로 이동하되, 글자 정보가 검색되면 이동중에 검색된 모든 사각형상의 픽셀들을 연결하고, 상기 연결된 사각형상의 픽셀 위치에 상기 OCR 모델을 통해 인식된 글자 및 숫자 정보를 매칭시켜 디스플레이되도록 하는 단계; 및 d) 상기 문서 분석 장치가 보정 모델을 이용하여 상기 인식된 글자 및 숫자의 신뢰 점수를 산출하고, 산출된 신뢰 점수를 기반으로 디스플레이에 반영하여 시각적으로 표시하는 단계;를 포함한다.In addition, the OCR-based document analysis method using self-reliability information according to an embodiment of the present invention includes: a) at least one of an arbitrary format, letter, and numeric object by using an object detection model in a recognition target image received by the document analysis device. Detecting a position of and generating a square pixel position value by displaying a square shape around the detected type, letter and number object; b) outputting, by the document analysis device, character and number information recognized within the detected rectangular pixels using the OCR model; c) The document analysis device moves in the left direction and the upward direction using the generated square pixel position value and a random square pixel position having numerical information based on the recognized letter and number information as a starting position. , When the text information is searched, connecting all the square pixels retrieved while moving, and matching the text and number information recognized through the OCR model to the connected square pixel positions to be displayed; And d) calculating, by the document analysis device, a confidence score of the recognized letters and numbers using a correction model, and visually displaying it by reflecting on a display based on the calculated confidence score.
또한, 상기 실시 예에 따른 c) 단계는 문서 분석 장치가 상기 인식 대상 이미지에서 인식되는 글자 정보와 비교하기 위해, 임의의 문서에서 사용되는 글자(항목) 정보를 정의한 항목 DB를 생성하는 단계;를 더 포함하는 것을 특징으로 한다.In addition, step c) according to the embodiment includes the steps of generating an item DB defining character (item) information used in an arbitrary document in order to compare the character information recognized in the recognition target image by the document analysis device; It characterized in that it further includes.
또한, 상기 실시 예에 따른 c) 단계는 문서 분석 장치가 탐지된 글자 객체에 대하여 항목 DB 정보와 매칭시키고, 매칭 결과에 따라 인식된 글자를 교정하는 단계를 더 포함하는 것을 특징으로 한다.In addition, step c) according to the embodiment may further include the step of matching the detected text object with item DB information, and correcting the recognized text according to the matching result.
또한, 상기 실시 예에 따른 d) 단계의 보정 모델은 폼, 형상, 위치 중 적어도 하나의 보정 수행에 따른 재건율과, 항목 DB 정보와의 매칭 결과에 따른 교정된 글자의 반영 여부에 기반하여 신뢰 점수를 산출하는 것을 특징으로 한다.In addition, the correction model in step d) according to the above embodiment is trusted based on the reconstruction rate according to performing correction of at least one of form, shape, and position, and whether corrected characters are reflected according to the matching result with item DB information. It is characterized by calculating a score.
본 발명은 OCR을 통해 인식된 정보에 대하여 신뢰 점수를 기반으로 정상 인식된 부분과, 틀린 부분 또는 의심되는 부분을 서로 다른 색상의 시각화 정보로 제공함으로써 검사자에 의한 확인 작업시간을 감소시킬 수 있는 장점이 있다.The present invention provides the normally recognized part and the wrong part or suspected part as visualization information of different colors based on the confidence score for the information recognized through OCR, thereby reducing the verification work time by the inspector. There is this.
또한, 본 발명은 병원, 보험사 등의 기관에서 사용하는 다양한 포맷의 영수증에 대하여 정확하고, 신뢰할 수 있는 사용정보를 제공할 수 있는 장점이 있다.In addition, the present invention has the advantage of providing accurate and reliable usage information for receipts in various formats used by institutions such as hospitals and insurance companies.
도 1은 본 발명의 일 실시 예에 따른 자기 신뢰도 정보를 이용한 OCR 기반 문서 분석 시스템을 나타낸 블록도.
도 2는 도 1의 실시 예에 따른 자기 신뢰도 정보를 이용한 OCR 기반 문서 분석 시스템의 항목 DB 생성을 설명하기 위한 예시도.
도 3은 도 1의 실시 예에 따른 자기 신뢰도 정보를 이용한 OCR 기반 문서 분석 시스템의 항목 DB를 나타낸 예시도.
도 4는 도 1의 실시 예에 따른 자기 신뢰도 정보를 이용한 OCR 기반 문서 분석 시스템의 글자 위치 탐지를 설명하기 위한 예시도.
도 5는 도 4의 실시 예에 따른 글자 위치 탐지 결과를 나타낸 예시도.
도 6은 도 4의 실시 예에 따른 글자 위치에서 글자 객체를 인식하는 과정을 나타낸 예시도.
도 7은 도 1의 실시 예에 따른 자기 신뢰도 정보를 이용한 OCR 기반 문서 분석 시스템의 OCR 인식 결과를 나타낸 예시도.
도 8은 도 1의 실시 예에 따른 자기 신뢰도 정보를 이용한 OCR 기반 문서 분석 시스템의 객체 탐지 박스의 연결 과정을 설명하기 위한 예시도.
도 9는 도 7에 따른 연결 과정을 설명하기 위한 예시도.
도 10은 도 1의 실시 예에 따른 자기 신뢰도 정보를 이용한 OCR 기반 문서 분석 시스템의 재구성 이미지를 나타낸 예시도.
도 11은 본 발명의 일 실시 예에 따른 자기 신뢰도 정보를 이용한 OCR 기반 문서 분석 과정을 나타낸 흐름도.1 is a block diagram showing an OCR-based document analysis system using self-reliability information according to an embodiment of the present invention.
FIG. 2 is an exemplary diagram for explaining generation of an item DB in an OCR-based document analysis system using self-reliability information according to the embodiment of FIG. 1;
3 is an exemplary diagram showing an item DB of an OCR-based document analysis system using self-reliability information according to the embodiment of FIG. 1.
FIG. 4 is an exemplary diagram for explaining character position detection in an OCR-based document analysis system using self-reliability information according to the embodiment of FIG. 1;
5 is an exemplary view showing a result of character position detection according to the embodiment of FIG. 4.
6 is an exemplary view showing a process of recognizing a character object at a character position according to the embodiment of FIG. 4.
7 is an exemplary view showing a result of OCR recognition of an OCR-based document analysis system using self-reliability information according to the embodiment of FIG. 1.
FIG. 8 is an exemplary view for explaining a connection process of an object detection box of an OCR-based document analysis system using self-reliability information according to the embodiment of FIG. 1.
9 is an exemplary view for explaining a connection process according to FIG. 7.
10 is an exemplary view showing a reconstructed image of an OCR-based document analysis system using self-reliability information according to the embodiment of FIG. 1.
11 is a flowchart illustrating an OCR-based document analysis process using self-reliability information according to an embodiment of the present invention.
이하에서는 본 발명의 바람직한 실시 예 및 첨부하는 도면을 참조하여 본 발명을 상세히 설명하되, 도면의 동일한 참조부호는 동일한 구성요소를 지칭함을 전제하여 설명하기로 한다.Hereinafter, the present invention will be described in detail with reference to a preferred embodiment of the present invention and the accompanying drawings, but it will be described on the premise that the same reference numerals refer to the same elements.
본 발명의 실시를 위한 구체적인 내용을 설명하기에 앞서, 본 발명의 기술적 요지와 직접적 관련이 없는 구성에 대해서는 본 발명의 기술적 요지를 흩뜨리지 않는 범위 내에서 생략하였음에 유의하여야 할 것이다. Prior to describing specific details for the implementation of the present invention, it should be noted that configurations that are not directly related to the technical gist of the present invention have been omitted within the scope not disturbing the technical gist of the present invention.
또한, 본 명세서 및 청구범위에 사용된 용어 또는 단어는 발명자가 자신의 발명을 최선의 방법으로 설명하기 위해 적절한 용어의 개념을 정의할 수 있다는 원칙에 입각하여 발명의 기술적 사상에 부합하는 의미와 개념으로 해석되어야 할 것이다.In addition, the terms or words used in the specification and claims are based on the principle that the inventor can define the concept of an appropriate term to describe his or her invention in the best way. Should be interpreted as.
본 명세서에서 어떤 부분이 어떤 구성요소를 "포함"한다는 표현은 다른 구성요소를 배제하는 것이 아니라 다른 구성요소를 더 포함할 수 있다는 것을 의미한다.In this specification, the expression that a certain part "includes" a certain component does not exclude other components, but means that other components may be further included.
또한, "‥부", "‥기", "‥모듈" 등의 용어는 적어도 하나의 기능이나 동작을 처리하는 단위를 의미하며, 이는 하드웨어나 소프트웨어, 또는 그 둘의 결합으로 구분될 수 있다.In addition, terms such as "... unit", "... group", and "... module" mean units that process at least one function or operation, which can be classified into hardware, software, or a combination of the two.
또한, "적어도 하나의" 라는 용어는 단수 및 복수를 포함하는 용어로 정의되고, 적어도 하나의 라는 용어가 존재하지 않더라도 각 구성요소가 단수 또는 복수로 존재할 수 있고, 단수 또는 복수를 의미할 수 있음은 자명하다 할 것이다. In addition, the term “at least one” is defined as a term including the singular and plural, and even if the term “at least one” does not exist, each component may exist in the singular or plural, and may mean the singular or plural. Will say self-evident.
또한, 각 구성요소가 단수 또는 복수로 구비되는 것은, 실시 예에 따라 변경가능하다 할 것이다.In addition, it will be said that each component may be provided in singular or plural, and may be changed according to embodiments.
이하, 첨부된 도면을 참조하여 본 발명의 일 실시 예에 따른 자기 신뢰도 정보를 이용한 OCR 기반 문서 분석 시스템 및 방법의 바람직한 실시예를 상세하게 설명한다.Hereinafter, a preferred embodiment of an OCR-based document analysis system and method using self-reliability information according to an embodiment of the present invention will be described in detail with reference to the accompanying drawings.
도 1은 본 발명의 일 실시 예에 따른 자기 신뢰도 정보를 이용한 OCR 기반 문서 분석 시스템을 나타낸 블록도이다.1 is a block diagram showing an OCR-based document analysis system using self-reliability information according to an embodiment of the present invention.
도 1을 참조하면, 본 발명의 일 실시 예에 따른 자기 신뢰도 정보를 이용한 OCR 기반 문서 분석 시스템은 자기 신뢰도 정보를 이용한 OCR 기반 문서 분석 시스템으로서, 객체 탐지 모델을 이용하여 인식 대상 이미지에서 임의의 형식(form), 글자 및 숫자 중 적어도 하나의 객체의 위치를 탐지하고, 탐지된 형식, 글자 및 숫자 객체의 둘레를 따라 사각형상을 표시하여 사각형상의 픽셀 위치 값을 생성하며, OCR 모델을 이용하여 상기 사각형상의 픽셀 안에서 인식되는 글자 및 숫자 정보를 인식하며, 상기 생성된 사각형상의 픽셀 위치 값을 기반으로 인접한 모든 사각형상의 픽셀들을 연결하며, 상기 연결된 사각형상의 픽셀 위치에 상기 OCR 모델을 통해 인식된 글자 및 숫자 정보를 매칭시켜 디스플레이 하는 문서 분석 장치(100)를 포함하여 구성될 수 있다.Referring to FIG. 1, an OCR-based document analysis system using self-reliability information according to an embodiment of the present invention is an OCR-based document analysis system using self-reliability information, and an arbitrary format in an image to be recognized using an object detection model. Detects the location of at least one object among (form), letters and numbers, displays a square shape along the perimeter of the detected format, letter and number object to generate a square pixel position value, and uses the OCR model Recognizes character and number information recognized within a rectangular pixel, connects all adjacent rectangular pixels based on the generated rectangular pixel position value, and recognizes characters and numbers recognized through the OCR model at the connected rectangular pixel positions It may be configured to include a
또한, 문서 분석 장치(100)는 인식률에 따라 인식된 글자 및 숫자의 신뢰 점수를 산출하고, 산출된 신뢰 점수를 디스플레이에 반영하여 시각적으로 표시되도록 할 수 있다.In addition, the
또한, 문서 분석 장치(100)는 재구성 폼이 신뢰 점수에 따라 정상 인식 영역과, 틀린 영역 및 보정 영역을 포함한 오류발생 영역이 서로 다른 색상의 시각화 정보로 표시되도록 할 수 있다.In addition, the
또한, 문서 분석 장치(100)는 신뢰 점수가 보정 모델을 이용하여 폼, 형상, 위치 중 적어도 하나의 보정 수행에 따라 산출되는 재건율이 추가 반영될 수 있도록 한다.In addition, the
이를 위해, 문서 분석 장치(100)는 인식 대상 이미지를 수신하는 입력부(110)를 포함하여 구성될 수 있다.To this end, the
입력부(110)는 네트워크를 통해 접속된 외부 단말로부터 전송되는 이미지 또는 스캐너 등을 통해 스캐닝된 이미지 등을 수신하는 데이터 통신 수단으로 구성될 수 있다.The
또한, 문서 분석 장치(100)는 인식 대상 이미지에 포함된 글자에 대하여 임의의 문서로부터 미리 설정된 글자에 대한 항목 DB(300, 도 3 참조) 정보를 생성하는 항목 DB 생성부(120)를 포함하여 구성될 수 있다.In addition, the
항목 DB 생성부(120)는 도 2와 같이, 예를 들어 병원 영수증 등의 문서(200)에 고정으로 포함되어, 청구 내역, 진료 내역 등의 텍스트로 표시된 항목(210)에 대한 정보를 분석한다.As shown in FIG. 2, the item
또한, 항목 DB 생성부(120)는 도 2에서 분석된 항목에 대하여 도 3과 같은 항목 DB(300)를 생성하여 데이터베이스(170)에 저장되도록 한다.In addition, the item
본 발명에서는 설명의 편의를 위해, 인식 대상 이미지를 병원 영수증과 관련된 이미지를 실시 예로 설명하지만 이에 한정되는 것은 아니고, 약국 영수증, 세금계산서, 견적서, 청구서, 거래 명세서, 각종 계산서 및 영수증 등을 포함할 수 있다.In the present invention, for convenience of explanation, the image to be recognized is described as an example of an image related to a hospital receipt, but is not limited thereto, and includes pharmacy receipts, tax invoices, estimates, bills, transaction statements, various bills and receipts, etc. I can.
또한, 문서 분석 장치(100)는 입력부(110)를 통해 수신된 인식 대상 이미지에서 객체 탐지 모델을 이용하여 이미지에 포함된 임의의 형식(form), 글자 및 숫자 객체의 위치를 탐지하고, 탐지된 형식, 글자 및 숫자 객체의 둘레를 따라 사각형상을 표시하여 사각형상의 픽셀 위치 정보를 생성하는 객체 탐지 모델링부(130)를 포함하여 구성될 수 있다.In addition, the
즉, 객체 탐지 모델링부(130)는 형식, 글자 및 숫자 객체에 대한 상대적인 위치의 인식을 수행하고, 형식, 글자 및 숫자 객체의 위치에 따른 배열을 확인할 수 있도록 탐지된 형식, 글자 및 숫자 객체의 둘레를 따라 사각형상을 표시하며, 표시된 사각형상의 픽셀 위치 값(좌표 정보)을 생성한다.That is, the object
여기서, 객체 탐지 모델은 PSENet(Progressive Scale Expansion Network) 기반의 딥러닝 모델을 이용하여 문서 이미지를 포함한 학습 데이터로부터 형식, 글자 및 숫자 객체와, 그 위치를 탐지하고, 탐지율의 향상을 위해 학습을 수행할 수 있다.Here, the object detection model uses a deep learning model based on PSENet (Progressive Scale Expansion Network) to detect format, letter, and numeric objects and their location from training data including document images, and performs learning to improve detection rate. can do.
즉, 영수증의 원본 이미지를 기반으로 문서의 임의의 부분이 n 등분으로 접혀진 이미지, 문서의 위치가 임의의 각도로 기울어진 이미지, 임의의 조도를 갖는 밝기가 조절된 이미지, 문서에 표시된 내용이 선명하지 않고 끊어진 연결선을 갖는 이미지, 문서의 임의의 부분이 굴곡진 이미지, 숫자와 연결선이 겹쳐진 이미지 등을 기반으로 학습 데이터를 학습할 수 있다.In other words, based on the original image of the receipt, an image in which an arbitrary part of the document is folded into n equal parts, an image in which the position of the document is inclined at an arbitrary angle, an image with an arbitrary brightness adjusted, and the content displayed on the document is clear. Learning data can be learned based on images with broken connecting lines, images in which arbitrary parts of the document are curved, and images overlapping numbers and connecting lines.
이와 같이, 다양한 환경, 예를 들어, 조명, 촬영각도, 촬영시 흔들림, 촬영구도, 사진 해상도 등 다양한 여건에서 촬영될 수 있는 이미지를 감안하여 원본 이미지와 비교하여 다양한 변화를 준 이미지들을 사전에 학습함으로써, 실제 환경에서 수신되는 이미지들에 대한 탐지율 또는 인식율을 향상시킬 수 있다.In this way, images that can be photographed in various environments, such as lighting, shooting angle, shaking during shooting, shooting composition, photo resolution, etc., are compared with the original image to learn in advance the images with various changes. By doing so, it is possible to improve a detection rate or recognition rate for images received in an actual environment.
한편, 본 발명에서는 설명의 편의를 위해, 인식 대상 이미지를 병원 영수증과 관련된 이미지를 실시 예로 설명하지만 이에 한정되는 것은 아니고, 약국 영수증, 세금계산서, 견적서, 청구서, 거래 명세서, 각종 계산서 및 영수증 등을 포함할 수 있다.On the other hand, in the present invention, for convenience of explanation, the image to be recognized is described as an example of an image related to a hospital receipt, but is not limited thereto, and a pharmacy receipt, tax invoice, estimate, bill, transaction statement, various bills and receipts, etc. Can include.
또한, 객체 탐지 모델은 자동 증강(Auto Augmentation)을 통해 다양한 변화를 준 이미지들을 기반으로 탐지를 수행함에 있어서 최적의 규칙을 찾을 수도 있다.In addition, the object detection model may find an optimal rule in performing detection based on images to which various changes have been made through auto augmentation.
또한, 객체 탐지 모델은 탐지된 형식, 글자 및 숫자의 객체에 대하여 사각형상의 픽셀을 설정하고, 설정된 픽셀의 위치 값을 생성할 수 있다.In addition, the object detection model may set a square pixel for an object of a detected type, letter, and number, and generate a position value of the set pixel.
즉, 도 4와 같이, 입력된 문서 이미지(400)에서 임의의 탐지 영역(410)으로부터 탐지된 글자 객체(411)에 대하여 외부 둘레면을 따라 사각형상의 박스로 표시한다.That is, as shown in FIG. 4, the
또한, 객체 탐지 모델은 인식된 객체에 대한 정보를 도 5와 같이, 객체 탐지 결과(420)로 표시함으로써, 사각형상 기반의 패턴 인식도 가능하다.In addition, the object detection model displays information on the recognized object as an
본 실시 예에서는 설명의 편의를 위해 글자 객체로 설명하지만, 이에 한정되는 것은 아니고, 숫자, 영수증의 폼을 구성하는 형식(form)을 객체로 포함할 수 있음은 당업자에게 있어서 자명할 것이다.In the present embodiment, the text object is described for convenience of description, but it is not limited thereto, and it will be apparent to those skilled in the art that a form constituting the form of a number and a receipt may be included as an object.
또한, 형식의 둘레를 따라 표시된 사각형상의 구성(또는 배열) 패턴에 근거하여 후술되는 폼 구성 모델링부(150)가 미리 저장된 기관(병원)의 영수증 구성과 비교하여 어떤 기관의 영수증인지 구분할 수도 있다.In addition, based on a rectangular configuration (or arrangement) pattern displayed along the perimeter of the form, the form
여기서, 형식은 문서 테이블을 구성하는 폼에서 하나의 셀(Cell)로서, 직사각형으로 이루어질 수 있다.Here, the format is one cell in the form constituting the document table, and may be formed in a rectangle.
또한, 문서 분석 장치(100)는 객체 탐지 모델링부(130)에서 탐지된 형식, 글자 및 숫자 객체에 대해 OCR 모델을 이용하여 글자 및 숫자를 인식하는 OCR 모델링부(140)를 포함하여 구성될 수 있다.In addition, the
여기서, OCR 모델링부(140)는 이미지 기반의 텍스트 문서를 자동으로 감지하여 인식하는 구성으로서, 공지의 OCR 모델을 사용하여 구성될 수 있다.Here, the
또한, OCR 모델링부(140)는 OCR 모델을 통해 도 7과 같이 인식된 OCR 인식 결과(430)에 대하여 인식된 예측 정보(431)와, 예측 정보(431)에 대하여 후술되는 폼 구성 모델링부에서 산출된 신뢰 점수(432)에 기반한 신뢰 점수를 함께 제공할 수 있다.In addition, the
여기서, 예측 정보(431)는 인식된 객체에 포함될 글자 및 숫자를 나타낸 것이고, 신뢰 점수(432)는 OCR을 통해 인식하는 과정에서 내용이 선명하지 않거나, 연결된 부분이 끊어진 경우 등을 반영하여 전체부분에서 인식된 부분의 비율을 산출한 인식률일 수 있다.Here, the
또한, 문서 분석 장치(100)는 인식된 글자 정보를 항목 DB(300)와 비교하고, 인식된 글자를 항목 DB(300)의 글자 정보로 교정함에 따라 숫자 정보를 갖는 임의의 사각형상의 픽셀 위치를 시작 위치로 하여 좌측 방향과 상측 방향으로 이동하되, 글자 정보가 검색되면 이동중에 검색된 모든 사각형상의 픽셀들을 연결하고, 상기 연결된 사각형상의 픽셀 위치에 상기 OCR 모델을 통해 교정된 글자 및 숫자 정보를 매칭시켜 디스플레이되도록 하는 폼 구성 모델링부(150)를 포함하여 구성될 수 있다.In addition, the
폼 구성 모델링부(150)는 인식 대상 이미지에서 인식되는 글자 정보와 비교하기 위해, 임의의 문서, 예를 들면, 병원 영수증, 약국 영수증, 거래명세서, 세금 계산서 등에서 사용되는 글자(항목) 정보를 정의한 항목 DB(300)를 생성할 수 있다.The form
또한, 폼 구성 모델링부(150)는 도 6과 같이, 인식된 글자 객체(411)에 대한 자연어 처리(Natural Language Processing, NLP)를 통해 탐지된 글자에 대하여 형태소, 또는 분절음 별로, NLP 객체(411a)를 분석하고, 분석된 결과와 항목 DB(300) 정보 사이의 비교를 기반으로 인식된 글자에 대한 신뢰 점수를 산출할 수도 있다.In addition, as shown in FIG. 6, the form
예를 들어, 인식된 글자가 "MRI 진단-"인 경우, 항목 DB(300)에 저장된 항목에 대한 정보를 검색한 다음, 검색된 항목에 대응하는 항목 DB(300) 정보와의 비교를 통해 신뢰 점수를 산출한다. For example, if the recognized character is "MRI diagnosis-", after searching for information on the item stored in the
즉, 폼 구성 모델링부(150)는 병원 영수증에 새로운 항목이 인식되거나 OCR의 실수로 인해 오탈자, 미인식자 등이 발생하더라도, NLP를 이용하여 상황에 맞게 처리할 수 있도록 한다.That is, even if a new item is recognized on the hospital receipt or a mistake or an unrecognized person occurs due to an OCR mistake, the form
또한, 폼 구성 모델링부(150)에서 산출된 글자에 대한 신뢰 점수는 도 7과 같이, OCR 인식 결과(430)에 인식된 예측 정보(431)와, 폼 구성 모델링부(150)에서 예측 정보(431)에 대하여 산출된 신뢰 점수(432)를 제공할 수 있다.In addition, the confidence score for the letters calculated by the form
또한, 폼 구성 모델링부(150)는 탐지된 글자 및 객체의 위치를 기반으로 임의의 시작 위치에서 좌측방향 및 상측방향으로 인접한 모든 글자 및 숫자들의 객체 위치들을 연결하여 재구성된 폼을 생성한다.In addition, the form
한편, 폼 구성 모델링부(150)는 새로운 항목이 인식된 경우, 숫자 객체의 박스 크기에 대하여 가로, 세로 길이가 인접한 다른 박스의 가로, 세로 길이와 동일하거나 또는 다른 박스의 가로, 세로 길이에 포함되면 연결되도록 한다.On the other hand, when a new item is recognized, the form
도 8을 참조하여 더욱 상세하게 설명하면, 숫자로 인식된 시작 객체 박스(500)를 기준으로 시작 객체 박스(500)의 횡방향 크기(600) 및 종방향 크기(610)를 좌측 객체 박스(510)와 상측 객체 박스(520)의 횡방향 크기(600a) 및 종방향 크기(610a)와 비교하여 동일하거나 또는 좌측 객체 박스(510)와 상측 객체 박스(520)의 횡방향 크기 및 종방향 크기에 포함되면 좌측 연결선(700) 및 상측 연결선(710)으로 연결하여 표시한다.When described in more detail with reference to FIG. 8, the
본 실시 예에서는 설명의 편의를 위해 시작 위치를 중앙부분에 위치한 숫자 객체를 시작 객체 박스(500)로 설명하였지만, 시작 객체 박스(500)의 우측에 위치한 우측 객체 박스(500a), 시작 객체 박스(500)의 하측에 위치한 하측 객체 박스를 시작 위치로 설정할 수도 있다.In the present embodiment, for convenience of explanation, the number object located in the center part of the starting position is described as the starting
예를 들어, 우측 객체 박스(500a)를 시작 위치로 설정하면, "공단 부담금"이 인식(또는 탐지)된 글자 객체는 상측 객체 박스(520a)가 될 수 있다.For example, if the
또한, 폼 구성 모델링부(150)는 상기된 과정을 반복하여 가장 가까운 좌측과 상측만을 연결하고, 연결 후 숫자로부터 시작하여 좌측과 상측에 텍스트, 예를 들면, 글자 객체(항목)가 나올때까지 이동 및 검색을 통해 연결한다.In addition, the form
즉, 도 9에 나타낸 바와 같이, 문서 이미지(800)에서 기준 객체 박스(810)의 좌측과 상측으로 이동 및 검색을 통해 다음 객체와 연결을 수행하는데 있어서, 좌측에 위치한 좌측 객체 박스(820)가 글자이면 좌측 연결선(840)을 통해 연결한다.That is, as shown in FIG. 9, in performing a connection with the next object through movement and search from the
또한, 상측으로 이동 및 검색을 통해 상측 객체 박스(830)가 글자 객체(항목)이면, 상측 연결선(841)을 통해 계속해서 연결한다.In addition, if the
또한, 폼 구성 모델링부(150)는 재구성 폼의 항목이 교정된 글자, 즉 항목 DB(300)에서 선택된 글자들로만 구성되면, 오탈자 또는 미인식된 글자가 없는 것으로 판단하여 OCR 모델링부(140)의 OCR 모델을 통해 인식된 숫자만 인식하고, 인식된 숫자와 항목을 매칭시킬 수도 있다.In addition, the form
상기 폼 구성 모델링부(150)는 탐지된 글자 객체에 대하여 항목 DB(300) 정보와 매칭시키고, 매칭 결과에 따라 인식된 글자가 교정되면, 교정된 글자가 반영되도록 하는 것을 특징으로 한다.The form
또한, 폼 구성 모델링부(150)는 직사각형 인식을 통한 글자 객체 및 숫자 객체를 찾을 뿐만 아니라, 문서 이미지가 기울어진 상태의 이미지인 경우, 꼭지점에 의한 재건을 통해 수평 상태의 문서 이미지로 보정할 수도 있다.In addition, the form
또한, 폼 구성 모델링부(150)는 촬영 각도에 의해 문서 이미지가 사다리꼴 형상의 이미지인 경우, 사다리꼴 보정을 통한 재건을 통해 사각형상의 문서 이미지로 변환할 수도 있다.In addition, when the document image is a trapezoidal image according to the photographing angle, the form
또한, 폼 구성 모델링부(150)는 문서 이미지가 구겨지거나 또는 접혀진 부분을 포함하여 촬영된 경우, 형상 또는 폼을 보정하기 위한 프로그램을 이용하여 사각형상의 문서 이미지로 변환할 수도 있다.In addition, when the document image is photographed including a wrinkled or folded portion, the form
한편, 폼 구성 모델링부(150)가 인식 정확도의 제고를 위한 보정을 수행하여 직사각형상의 충실한 재건과 이를 기반으로 하여 정확한 인식이 이루질 수 있도록 동작하지만, 그에 따른 보정 및 재건을 통해 오류의 발생 가능성도 함께 증가할 수 있다.On the other hand, the form
이를 위해, 문서 분석 장치(100)는 보정 모델을 이용하여 보정 및 재건으로 인한 판단 오류의 위험성 정보, 예를 들면, 보정 및 재건 유형과 갯수 등을 수치화시킨 정보와, 인식된 글자 및 숫자의 신뢰도를 기반으로 신뢰 점수를 산출하고, 산출된 신뢰 점수를 기반으로 사용자가 확인할 수 있도록 폼 구성 모델링부(150)를 통해 디스플레이에 반영함으로써, 시각적으로 표시되도록 하는 신뢰도 평가부(160)를 포함하여 구성될 수 있다.To this end, the
즉, 신뢰도 평가부(160)는 보정 및 재건으로 인한 판단 오류의 위험성 정보, 예를 들면, 보정 및 재건의 유형과, 갯수 등을 수치화시킨 신뢰 점수를 폼 구성 모델링부(150)로 제공한다.That is, the
폼 구성 모델링부(150)는 글자 및 숫자의 사각형상 박스의 색상이 정상 객체 영역과, 틀린 객체 영역 및 보정 영역을 포함한 오류발생 객체 영역이 서로 다른 색상으로 표시한다.The form
즉, 폼 구성 모델링부(150)는 신뢰도 평가부(160)를 통해 제공되는 신뢰 점수에 기반하여 도 10과 같이, 신뢰 점수가 미리 설정된 기준 값 이상인 객체 영역은 재구성 이미지(900)에서 청색으로 표시하여 정상 객체 영역(910, 911)이 확인될 수 있도록 표시한다.That is, the form
또한, 폼 구성 모델링부(150)는 신뢰도 평가부(160)를 통해 제공된 신뢰 점수가 기준 값 이하인 객체 영역은 재구성 이미지(900)에서 적색으로 표시하여 오류발생 객체 영역(920, 921, 922, 923, 924)이 확인될 수 있도록 표시한다.In addition, the form
이러한 폼 구성 모델링부(150)의 서로 다른 색상 표시를 통해 사용자는 신속하고 정확하게 확인할 수 있다.The user can quickly and accurately check through the display of different colors in the form
또한, 문서 분석 장치(100)는 상기 생성된 사각형상의 픽셀 위치 값, 인식된 글자, 숫자 정보, 신뢰 정보와, 특정 기관에서 사용하는 문서 데이터의 폼을 저장하는 데이터베이스(170)를 포함하여 구성될 수 있다.In addition, the
여기서, 특정 기관은 병원, 약국, 회사 등, 영수증 및 회계 관련 문서를 임의의 폼으로 발행하는 모든 곳을 포함할 수 있다.Here, the specific institution may include hospitals, pharmacies, companies, etc., all places that issue receipts and accounting-related documents in an arbitrary form.
다음은 본 발명의 일 실시 예에 따른 자기 신뢰도 정보를 이용한 OCR 기반 문서 분석 방법을 설명한다.The following describes an OCR-based document analysis method using self-reliability information according to an embodiment of the present invention.
도 11은 본 발명의 일 실시 예에 따른 자기 신뢰도 정보를 이용한 OCR 기반 문서 분석 과정을 나타낸 흐름도이다.11 is a flowchart illustrating an OCR-based document analysis process using self-reliability information according to an embodiment of the present invention.
도 1 내지 도 11을 참조하면, 문서 분석 장치(100)는 네트워크를 통해 연결된 외부 단말 또는 팩스 등을 통해 인식 대상 영수증의 이미지를 수신(S100)한다.1 to 11, the
또한, 문서 분석 장치(100)는 수신된 인식 대상 영수증의 이미지에서 객체 탐지 모델을 이용하여 글자 및 숫자의 객체와 위치를 탐지하고, 탐지된 글자 및 숫자의 객체에 사각형상의 박스를 형성하는 객체 탐지 단계를 수행(S200)한다.In addition, the
또한, S200 단계에서, 객체 탐지 모델은 PSENet(Progressive Scale Expansion Network) 기반의 딥러닝 모델을 이용하여 문서 이미지를 포함한 학습 데이터로부터 형식, 글자 및 숫자 객체와, 그 위치를 탐지하고, 탐지율의 향상을 위해 학습을 수행할 수 있다.In addition, in step S200, the object detection model uses a PSENet (Progressive Scale Expansion Network)-based deep learning model to detect format, letter and numeric objects, and their location from training data including document images, and improve detection rate. To be able to perform learning.
또한, 객체 탐지 모델은 원본 이미지, 문서의 임의의 부분이 접혀진 이미지, 문서의 위치가 임의의 각도로 기울어진 이미지, 임의의 조도를 갖는 밝기가 조절된 이미지, 문서에 표시된 내용이 선명하지 않고 끊어진 연결선을 갖는 이미지, 문서의 임의의 부분이 굴곡진 이미지, 숫자와 연결선이 겹쳐진 이미지를 기반으로 학습 데이터를 학습할 수 있다.In addition, the object detection model includes an original image, an image in which an arbitrary part of the document is folded, an image in which the position of the document is inclined at an arbitrary angle, an image with an arbitrary light intensity, and the content displayed in the document is not clear and broken. Learning data can be learned based on an image with a connecting line, an image in which an arbitrary part of a document is curved, and an image in which numbers and connecting lines overlap.
계속해서, 문서 분석 장치(100)는 탐지된 형식, 글자 및 숫자 객체에 대한 사각형상 픽셀 안에서, OCR 모델을 이용하여 글자 및 숫자 정보를 인식하는 OCR 인식 단계(S300)를 수행한다.Subsequently, the
S300 단계를 수행한 다음, 문서 분석 장치(100)는 임의의 문서로부터 고정화 되어 있는 텍스트 정보 즉, 항목에 대한 글자 정보를 항목 DB(300) 정보로 생성하고, 생성된 항목 DB(300) 정보는 데이터베이스(160)에 저장(S400)한다.After performing step S300, the
상기 인식된 글자 정보를 항목 DB(300)와 비교하고, 인식된 글자를 항목 DB(300)의 글자 정보로 교정함에 따라 교정 여부를 결정하기 위한 오탈자 또는 미인식자의 유무를 판단하여 문서 분석 장치(100)는 NLP 기반의 교정을 수행(S500)한다.As the recognized character information is compared with the
즉, S500 단계에서 문서 분석 장치(100)는 자연어 처리(Natural Language Processing, NLP)를 통해 탐지된 글자에 대하여 분석한다.That is, in step S500, the
또한, S500 단계에서 문서 분석 장치(100)는 분석된 글자와 항목 DB(300) 정보 사이의 비교를 기반으로 분석된 글자에 대한 신뢰 점수를 산출하여 출력할 수도 있다.In addition, in step S500, the
계속해서, 문서 분석 장치(100)는 숫자 정보를 갖는 임의의 사각형상의 픽셀 위치를 시작 위치로 하여 좌측 방향과 상측 방향으로 이동하되, 글자 정보가 검색되면 이동중에 검색된 모든 사각형상의 픽셀들을 연결하고, 연결된 사각형상의 픽셀 위치에 상기 OCR 모델을 통해 교정된 글자 및 숫자 정보가 매칭되도록(S600)한다.Subsequently, the
즉, 문서 분석 장치(100)는 시작 위치를 숫자 객체로 하여 시작 위치의 좌측 방향과 상측 방향으로 이동 및 연결한다.That is, the
이때, 시작 위치로부터 가장 가까운 좌측과 상측만을 우선 연결하고, 이후, 인접한 모든 객체들을 연결하며, 글자 객체(항목)가 나올때 까지 숫자 객체들을 검색하며 이동한다.At this time, only the closest left and upper sides are connected from the starting position first, then all adjacent objects are connected, and numeric objects are searched and moved until a text object (item) appears.
또한, 글자 객체를 포함한 항목 검색이 완료되면, 문서 분석 장치(100)는 인식된 글자 및 교정된 글자와 숫자를 항목(attribute) 별로 대응하여 매칭되도록 한다. In addition, when the search for an item including a text object is completed, the
또한, 문서 분석 장치(100)는 인식 정확도의 제고를 위한 보정을 수행하여 직사각형상의 충실한 재건과 이를 기반으로 하는 정확한 인식이 이루질 수 있도록 처리된 보정 및 재건 유형과 갯수 등을 수치화시킨 정보와, 인식된 글자 및 숫자의 신뢰도를 기반으로 신뢰 점수를 산출하고, 산출된 신뢰 점수를 기반으로 사용자가 확인할 수 있도록 디스플레이에 반영하여 시각적으로 표시(S700)되도록 한다.In addition, the
또한, S700 단계에서 문서 분석 장치(100)는 문서 이미지가 기울어진 상태이면, 꼭지점에 의한 재건을 통해 수평 상태의 문서 이미지로 보정하고, 문서 이미지가 사다리꼴 형상의 이미지이면, 사다리꼴 보정을 통한 재건을 통해 사각형상의 문서 이미지로 변환할 수도 있다.In addition, in step S700, if the document image is in an inclined state, the
또한, 문서 이미지가 구겨지거나 또는 접혀진 부분을 포함하면, 형상 또는 폼을 보정하기 위한 프로그램을 이용하여 사각형상의 문서 이미지로 변환함으로써, 폼, 형상, 위치 중 적어도 하나의 보정 수행에 따른 재건율과, 신뢰 점수를 산출할 수 있다.In addition, if the document image includes a wrinkled or folded portion, by converting the document image to a rectangular document image using a program for correcting the shape or form, the reconstruction rate according to the correction of at least one of form, shape, and position, Confidence score can be calculated.
또한 S700 단계에서 문서 분석 장치(100)는 신뢰 점수에 따라 글자 및 숫자의 사각형상 박스의 색상이 정상 객체 영역과, 틀린 객체 영역 및 보정 영역을 포함한 오류발생 객체 영역이 서로 다른 색상으로 표시되도록 한다.In addition, in step S700, the
즉, 도 10과 같이, 신뢰 점수가 미리 설정된 기준 값 이상인 객체 영역은 재구성 이미지(900)에서 청색으로 표시하여 정상 객체 영역(910, 911)이 확인될 수 있도록 표시하고, 신뢰 점수가 기준 값 이하인 객체 영역은 재구성 이미지(900)에서 적색으로 표시하여 오류발생 객체 영역(920, 921, 922, 923, 924)이 확인될 수 있도록 표시되도록 한다.That is, as shown in FIG. 10, an object region having a confidence score equal to or greater than a preset reference value is displayed in blue in the
이러한 폼 구성 모델링부(150)의 서로 다른 색상 표시를 통해 사용자는 신속하고 정확하게 확인할 수 있다.The user can quickly and accurately check through the display of different colors in the form
또한, 인식된 글자, 교정된 글자, 보정 및 재건을 통해 재구성된 폼을 재구성 이미지로 변환하여 최종 결과를 출력(S800)하고, 데이터베이스(170)에 저장되도록 한다.In addition, the recognized text, the corrected text, and the form reconstructed through correction and reconstruction are converted into a reconstructed image, and the final result is output (S800) and stored in the
따라서, OCR을 통해 인식된 정보에 대하여 신뢰 점수를 기반으로 정상 인식된 부분과, 틀린 부분 또는 의심되는 부분을 서로 다른 색상의 시각화 정보로 제공함으로써 사용자에 의한 신속하고 정확한 확인 가능하며, 사용자의 확인 작업시간을 감소시킬 수 있는 장점이 있다.Therefore, the user can quickly and accurately check the information recognized through OCR by providing the normally recognized part, the wrong part or the suspected part as visualization information of different colors based on the confidence score. There is an advantage that can reduce the working time.
또한, 병원, 보험사 등의 기관에서 사용하는 다양한 포맷의 영수증에 대하여 정확하고, 신뢰할 수 있는 사용정보를 제공할 수 있다.In addition, accurate and reliable usage information can be provided for receipts in various formats used by institutions such as hospitals and insurance companies.
상기와 같이, 본 발명의 바람직한 실시 예를 참조하여 설명하였지만 해당 기술 분야의 숙련된 당업자라면 하기의 특허청구범위에 기재된 본 발명의 사상 및 영역으로부터 벗어나지 않는 범위 내에서 본 발명을 다양하게 수정 및 변경시킬 수 있음을 이해할 수 있을 것이다.As described above, the present invention has been described with reference to preferred embodiments of the present invention, but those skilled in the art can variously modify and change the present invention within the scope not departing from the spirit and scope of the present invention described in the following claims. You will understand that you can do it.
또한, 본 발명의 특허청구범위에 기재된 도면번호는 설명의 명료성과 편의를 위해 기재한 것일 뿐 이에 한정되는 것은 아니며, 실시예를 설명하는 과정에서 도면에 도시된 선들의 두께나 구성요소의 크기 등은 설명의 명료성과 편의상 과장되게 도시되어 있을 수 있다.In addition, reference numerals in the claims of the present invention are provided for clarity and convenience of description, and are not limited thereto. In the process of describing the embodiments, the thickness of the lines shown in the drawings, the size of components, etc. May be exaggerated for clarity and convenience of description.
또한, 상술된 용어들은 본 발명에서의 기능을 고려하여 정의된 용어들로서 이는 사용자, 운용자의 의도 또는 관례에 따라 달라질 수 있으므로, 이러한 용어들에 대한 해석은 본 명세서 전반에 걸친 내용을 토대로 내려져야 할 것이다.In addition, the above-described terms are terms defined in consideration of functions in the present invention and may vary according to the intention or custom of users and operators, so interpretation of these terms should be made based on the contents throughout the present specification. .
또한, 명시적으로 도시되거나 설명되지 아니하였다 하여도 본 발명이 속하는 기술분야에서 통상의 지식을 가진 자가 본 발명의 기재사항으로부터 본 발명에 의한 기술적 사상을 포함하는 다양한 형태의 변형을 할 수 있음은 자명하며, 이는 여전히 본 발명의 권리범위에 속한다. In addition, even if not explicitly shown or described, a person having ordinary knowledge in the technical field to which the present invention pertains can make various modifications including the technical idea according to the present invention from the description of the present invention. It is obvious, and this still belongs to the scope of the present invention.
또한, 첨부하는 도면을 참조하여 설명된 상기의 실시예들은 본 발명을 설명하기 위한 목적으로 기술된 것이며 본 발명의 권리범위는 이러한 실시예에 국한되지 아니한다.In addition, the above embodiments described with reference to the accompanying drawings are described for the purpose of describing the present invention, and the scope of the present invention is not limited to these embodiments.
100 : 문서 분석 장치 110 : 입력부
120 : 항목 DB 생성부 130 : 객체 탐지 모델링부
140 : OCR 모델링부 150 : 폼 구성 모델링부
160 : 신뢰도 평가부 170 : 데이터베이스
200 : 문서 210 : 항목
300 : 항목 DB 400 : 문서 이미지
410 : 탐지 영역 411 : 글자 객체
411a : NLP 객체 420 : 객체 탐지 결과
430 : OCR 인식 결과 431 : 예측 정보
432 : 신뢰 점수 500 : 시작 객체 박스
500a : 우측 객체 박스 510 : 좌측 객체 박스
520 : 상측 객체 박스 520a : 상측 객체 박스
600 : 횡방향 크기 610, 610a : 종방향 크기
700 : 좌측 연결선 710 : 상측 연결선
720 : 하측 연결선 800 : 문서 이미지
810 : 기준 객체 박스 810a : 우측 객체 박스
820 : 좌측 객체 박스 830 : 상측 객체 박스
840 : 좌측 연결선 841 : 상측 연결선
900 : 재구성 이미지 910, 911 : 정상 객체 영역
920, 921, 922, 923, 924 : 오류 발생 객체 영역100: document analysis device 110: input unit
120: Item DB generation unit 130: Object detection modeling unit
140: OCR modeling unit 150: Form configuration modeling unit
160: reliability evaluation unit 170: database
200: document 210: item
300: Item DB 400: Document image
410: detection area 411: text object
411a: NLP object 420: Object detection result
430: OCR recognition result 431: prediction information
432: confidence score 500: starting object box
500a: right object box 510: left object box
520:
600:
700: left connecting line 710: upper connecting line
720: lower connecting line 800: document image
810:
820: left object box 830: upper object box
840: left connecting line 841: upper connecting line
900: reconstructed
920, 921, 922, 923, 924: object area with error
Claims (10)
상기 문서 분석 장치(100)는 OCR 모델을 이용한 인식률에 기반한 인식된 글자 및 숫자의 신뢰 점수를 산출하고, 산출된 신뢰 점수를 상기 디스플레이 정보에 반영하여 시각적으로 표시되도록 하며,
상기 신뢰 점수는 보정 모델을 이용하여 폼, 형상, 위치 중 적어도 하나의 보정 수행에 따라 산출되는 재건율이 추가 반영되는 것을 특징으로 하는 자기 신뢰도 정보를 이용한 OCR 기반 문서 분석 시스템.The object detection model is used to detect the location of at least one object among arbitrary forms, letters, and numbers in the recognition target image, and displays a square shape along the perimeter of the detected type, letter, and number object. Generates a pixel position value, recognizes letter and number information recognized in the square pixel using an OCR model, connects all adjacent square pixels based on the generated square pixel position value, and connects the connected square Including a document analysis device 100 for matching and displaying character and number information recognized through the OCR model at a pixel position on the image,
The document analysis device 100 calculates a confidence score of recognized letters and numbers based on a recognition rate using an OCR model, and reflects the calculated confidence score to the display information to be visually displayed,
The confidence score is an OCR-based document analysis system using self-reliability information, characterized in that the reconstruction rate calculated by performing at least one of a form, a shape, and a location using a correction model is additionally reflected.
상기 문서 분석 장치(100)는 신뢰 점수에 따라 정상 인식 영역과, 틀린 영역 및 보정 영역을 포함한 오류발생 영역이 서로 다른 색상의 시각화 정보로 표시되도록 하는 것을 특징으로 하는 자기 신뢰도 정보를 이용한 OCR 기반 문서 분석 시스템.The method of claim 1,
The document analysis device 100 displays a normal recognition area, an error-prone area including an incorrect area and a correction area as visualization information of different colors according to a confidence score, an OCR-based document using self-reliability information. Analysis system.
상기 수신된 인식 대상 이미지에서 객체 탐지 모델을 이용하여 형식, 글자 및 숫자 객체 중 적어도 하나의 위치를 탐지하고, 탐지된 형식, 글자 및 숫자 객체의 둘레에 사각형상을 표시하며, 표시된 사각형상의 픽셀 위치 값을 생성하는 객체 탐지 모델링부(130);
OCR 모델을 이용하여 상기 사각형상의 픽셀 내에서 인식되는 글자 및 숫자 정보를 출력하는 OCR 모델링부(140);
상기 인식된 글자를 항목 DB(300)의 글자 정보로 교정함에 따라 숫자 정보를 갖는 임의의 사각형상의 픽셀 위치를 시작 위치로 하여 좌측 방향과 상측 방향으로 이동하되, 글자 정보가 검색되면 이동중에 검색된 모든 사각형상의 픽셀들을 연결하고, 상기 연결된 사각형상의 픽셀 위치에 상기 OCR 모델을 통해 교정된 글자 및 숫자 정보를 매칭시켜 디스플레이되도록 하는 폼 구성 모델링부(150);
보정 모델을 이용하여 상기 인식된 글자 및 숫자의 신뢰 점수를 산출하고, 산출된 신뢰 점수를 기반으로 상기 디스플레이에 반영하여 시각적으로 표시되도록 하는 신뢰도 평가부(160); 및
상기 생성된 사각형상의 픽셀 위치 값, 인식된 글자, 숫자 정보, 신뢰 정보와, 특정 기관에서 사용하는 문서 데이터의 폼을 저장하는 데이터베이스(170);를 포함하는 자기 신뢰도 정보를 이용한 OCR 기반 문서 분석 시스템.An input unit 110 for receiving an image to be recognized;
In the received recognition target image, by using an object detection model, the position of at least one of a type, a letter, and a number object is detected, a square shape is displayed around the detected type, letter and number object, and the displayed square pixel position An object detection modeling unit 130 that generates a value;
An OCR modeling unit 140 for outputting letter and number information recognized within the rectangular pixel by using an OCR model;
As the recognized character is corrected with the character information of the item DB 300, a pixel position on an arbitrary rectangle having numeric information is used as a starting position and moves in the left direction and upward direction, but when the character information is searched, all searched during movement A form configuration modeling unit 150 that connects square pixels and matches the corrected letter and number information through the OCR model to the positions of the connected square pixels to be displayed;
A reliability evaluation unit 160 for calculating a confidence score of the recognized letters and numbers using a correction model, reflecting on the display based on the calculated confidence score to be visually displayed; And
OCR-based document analysis system using self-reliability information including a database 170 for storing the generated square pixel position value, recognized letter, number information, trust information, and a form of document data used by a specific institution .
상기 인식 대상 이미지에 포함된 글자에 대하여 임의의 문서로부터 미리 설정된 글자에 대한 항목 DB(300) 정보를 생성하는 항목 DB 생성부(120);를 더 포함하고,
상기 폼 구성 모델링부(150)는 상기 탐지된 글자 객체에 대하여 항목 DB(300) 정보와 매칭시키고, 매칭 결과에 따라 인식된 글자가 교정되면, 상기 교정된 글자가 반영되도록 하는 것을 특징으로 하는 자기 신뢰도 정보를 이용한 OCR 기반 문서 분석 시스템.The method of claim 4,
An item DB generation unit 120 for generating item DB 300 information for a preset character from an arbitrary document with respect to the character included in the recognition target image; further includes,
The form configuration modeling unit 150 matches the detected text object with item DB 300 information, and when the recognized text is corrected according to the matching result, the corrected text is reflected. OCR-based document analysis system using reliability information.
상기 폼 구성 모델링부(150)는 글자 및 숫자의 사각형상 박스의 색상을 정상 인식 영역과, 틀린 영역 및 보정 영역을 포함한 오류발생 영역이 서로 다른 색상으로 표시되는 것을 특징으로 하는 자기 신뢰도 정보를 이용한 OCR 기반 문서 분석 시스템.The method according to claim 4 or 5,
The form configuration modeling unit 150 uses self-reliability information, characterized in that the color of the rectangular box of letters and numbers is displayed in different colors between a normal recognition area and an error area including a wrong area and a correction area. OCR-based document analysis system.
b) 상기 문서 분석 장치(100)가 OCR 모델을 이용하여 탐지된 사각형상 픽셀 안에서 인식되는 글자 및 숫자 정보를 출력하는 단계;
c) 상기 문서 분석 장치(100)가 상기 생성된 사각형상의 픽셀 위치 값과, 상기 인식된 글자 및 숫자 정보를 기반으로 숫자 정보를 갖는 임의의 사각형상의 픽셀 위치를 시작 위치로 하여 좌측 방향과 상측 방향으로 이동하되, 글자 정보가 검색되면 이동중에 검색된 모든 사각형상의 픽셀들을 연결하고, 상기 연결된 사각형상의 픽셀 위치에 상기 OCR 모델을 통해 인식된 글자 및 숫자 정보를 매칭시켜 디스플레이되도록 하는 단계; 및
d) 상기 문서 분석 장치(100)가 보정 모델을 이용하여 상기 인식된 글자 및 숫자의 신뢰 점수를 산출하고, 산출된 신뢰 점수를 기반으로 디스플레이에 반영하여 시각적으로 표시하는 단계;를 포함하는 자기 신뢰도 정보를 이용한 OCR 기반 문서 분석 방법.a) The document analysis device 100 detects the location of at least one of an arbitrary format, letter, and number object using an object detection model in the received recognition target image, and a rectangle around the detected format, letter and number object Displaying a shape to generate a square pixel position value;
b) outputting, by the document analysis device 100, character and number information recognized within the detected rectangular pixels using the OCR model;
c) The document analysis device 100 uses the generated square pixel position value and the position of a random square pixel having numeric information based on the recognized letter and number information as a start position, and the left direction and the upper direction Moving to, but if the text information is searched, connecting all the square pixels searched during the movement, and matching the text and number information recognized through the OCR model to the connected square pixel positions to be displayed; And
d) calculating, by the document analysis device 100, a confidence score of the recognized letters and numbers using a correction model, reflecting on a display based on the calculated confidence score, and visually displaying the confidence score including; OCR-based document analysis method using information.
상기 c) 단계는 문서 분석 장치(100)가 상기 인식 대상 이미지에서 인식되는 글자 정보와 비교하기 위해, 임의의 문서에서 사용되는 글자(항목) 정보를 정의한 항목 DB(300)를 생성하는 단계;를 더 포함하는 것을 특징으로 하는 자기 신뢰도 정보를 이용한 OCR 기반 문서 분석 방법.The method of claim 7,
In the step c), the document analyzing apparatus 100 generates an item DB 300 defining character (item) information used in an arbitrary document in order to compare it with the character information recognized in the recognition target image; OCR-based document analysis method using self-reliability information, characterized in that it further comprises.
상기 c) 단계는 문서 분석 장치(100)가 탐지된 글자 객체에 대하여 항목 DB(300) 정보와 매칭시키고, 매칭 결과에 따라 인식된 글자를 교정하는 단계를 더 포함하는 것을 특징으로 하는 자기 신뢰도 정보를 이용한 OCR 기반 문서 분석 방법.The method of claim 8,
The step c) further comprises the step of matching the detected text object with item DB 300 information, and correcting the recognized text according to the matching result. OCR-based document analysis method using.
상기 d) 단계의 보정 모델은 폼, 형상, 위치 중 적어도 하나의 보정 수행에 따른 재건율과, 항목 DB(300) 정보와의 매칭 결과에 따른 교정된 글자의 반영 여부에 기반하여 신뢰 점수를 산출하는 것을 특징으로 하는 자기 신뢰도 정보를 이용한 OCR 기반 문서 분석 방법.The method of claim 9,
The correction model in step d) calculates a confidence score based on the reconstruction rate according to the correction of at least one of form, shape, and location, and whether the corrected characters are reflected according to the matching result with the item DB 300 information. OCR-based document analysis method using self-reliability information, characterized in that.
Priority Applications (3)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| KR1020200050181A KR102149051B1 (en) | 2020-04-24 | 2020-04-24 | System and method for analyzing document using self confidence based on ocr |
| PCT/KR2020/011210 WO2021215589A1 (en) | 2020-04-24 | 2020-08-21 | Ocr-based document analysis system and method |
| JP2022563495A JP7444495B2 (en) | 2020-04-24 | 2020-08-21 | OCR-based document analysis system and method |
Applications Claiming Priority (1)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| KR1020200050181A KR102149051B1 (en) | 2020-04-24 | 2020-04-24 | System and method for analyzing document using self confidence based on ocr |
Publications (1)
| Publication Number | Publication Date |
|---|---|
| KR102149051B1 true KR102149051B1 (en) | 2020-08-28 |
Family
ID=72265939
Family Applications (1)
| Application Number | Title | Priority Date | Filing Date |
|---|---|---|---|
| KR1020200050181A Active KR102149051B1 (en) | 2020-04-24 | 2020-04-24 | System and method for analyzing document using self confidence based on ocr |
Country Status (1)
| Country | Link |
|---|---|
| KR (1) | KR102149051B1 (en) |
Cited By (6)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| CN112348024A (en) * | 2020-10-29 | 2021-02-09 | 北京信工博特智能科技有限公司 | Image-text identification method and system based on deep learning optimization network |
| KR20220077665A (en) | 2020-12-02 | 2022-06-09 | 씨제이올리브네트웍스 주식회사 | Deep learning-based optical character recognizing method for recognizing product information and a system therefor |
| KR102442339B1 (en) * | 2022-03-29 | 2022-09-13 | 주식회사 애자일소다 | OCR conversion device and method of learning materials |
| KR102480238B1 (en) * | 2022-03-22 | 2022-12-21 | 이충열 | Method for processing images obtained from shooting device operatively connected to computing apparatus and system using the same |
| WO2023182658A1 (en) * | 2022-03-22 | 2023-09-28 | 이충열 | Method for processing image acquired from imaging device linked with computing device, and system using same |
| KR102868856B1 (en) | 2025-06-23 | 2025-10-14 | 대성전산 주식회사 | File Separation Device for Archive Service and Driving Method Thereof |
Citations (4)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| KR20060114097A (en) * | 2005-04-27 | 2006-11-06 | 최철규 | Financial Statement Recognition Method and System Using Optical Character Recognition |
| KR101139801B1 (en) | 2010-03-12 | 2012-04-30 | 에스케이마케팅앤컴퍼니 주식회사 | Automatic data gathering system using by reading receipt and method thereof |
| KR20120127571A (en) * | 2009-11-25 | 2012-11-22 | 구글 인코포레이티드 | On-screen guideline-based selective text recognition |
| KR101860569B1 (en) * | 2011-09-08 | 2018-07-03 | 삼성전자주식회사 | Recognition device for text and barcode reconizing text and barcode simultaneously |
-
2020
- 2020-04-24 KR KR1020200050181A patent/KR102149051B1/en active Active
Patent Citations (4)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| KR20060114097A (en) * | 2005-04-27 | 2006-11-06 | 최철규 | Financial Statement Recognition Method and System Using Optical Character Recognition |
| KR20120127571A (en) * | 2009-11-25 | 2012-11-22 | 구글 인코포레이티드 | On-screen guideline-based selective text recognition |
| KR101139801B1 (en) | 2010-03-12 | 2012-04-30 | 에스케이마케팅앤컴퍼니 주식회사 | Automatic data gathering system using by reading receipt and method thereof |
| KR101860569B1 (en) * | 2011-09-08 | 2018-07-03 | 삼성전자주식회사 | Recognition device for text and barcode reconizing text and barcode simultaneously |
Cited By (7)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| CN112348024A (en) * | 2020-10-29 | 2021-02-09 | 北京信工博特智能科技有限公司 | Image-text identification method and system based on deep learning optimization network |
| CN112348024B (en) * | 2020-10-29 | 2024-07-16 | 北京信工博特智能科技有限公司 | Image-text recognition method and system based on deep learning optimization network |
| KR20220077665A (en) | 2020-12-02 | 2022-06-09 | 씨제이올리브네트웍스 주식회사 | Deep learning-based optical character recognizing method for recognizing product information and a system therefor |
| KR102480238B1 (en) * | 2022-03-22 | 2022-12-21 | 이충열 | Method for processing images obtained from shooting device operatively connected to computing apparatus and system using the same |
| WO2023182658A1 (en) * | 2022-03-22 | 2023-09-28 | 이충열 | Method for processing image acquired from imaging device linked with computing device, and system using same |
| KR102442339B1 (en) * | 2022-03-29 | 2022-09-13 | 주식회사 애자일소다 | OCR conversion device and method of learning materials |
| KR102868856B1 (en) | 2025-06-23 | 2025-10-14 | 대성전산 주식회사 | File Separation Device for Archive Service and Driving Method Thereof |
Similar Documents
| Publication | Publication Date | Title |
|---|---|---|
| KR102149050B1 (en) | System and method for analyzing document using artificial intelligence based on ocr | |
| KR102149051B1 (en) | System and method for analyzing document using self confidence based on ocr | |
| KR102149052B1 (en) | System and method for analyzing document using natural language processing based on ocr | |
| JP7444495B2 (en) | OCR-based document analysis system and method | |
| KR102211516B1 (en) | System and method for analyzing document using virtual cell based on ocr | |
| US20230005285A1 (en) | Multi-page document recognition in document capture | |
| RU2651144C2 (en) | Data input from images of the documents with fixed structure | |
| US20160179313A1 (en) | Page-independent multi-field validation in document capture | |
| US20010043740A1 (en) | Character recognizing device, image reading device, character recognizing method, and program product | |
| US7463772B1 (en) | De-warping of scanned images | |
| US20160342834A1 (en) | Using motion tracking and image categorization for document indexing and validation | |
| TWI772199B (en) | Accounting management system for recognizes accounting voucher image to automatically obtain accounting related information | |
| JP2019191665A (en) | Financial statements reading device, financial statements reading method and program | |
| JP4859054B2 (en) | Image processing apparatus, image processing method, program, and recording medium | |
| US11055551B2 (en) | Correction support device and correction support program for optical character recognition result | |
| JP5844564B2 (en) | Form recognition system | |
| CN120236297A (en) | Document information entry method, device and storage medium | |
| CN116563876A (en) | Invoice identification method | |
| US7508978B1 (en) | Detection of grooves in scanned images | |
| US20070206863A1 (en) | Image processing apparatus, image processing method and computer readable medium storing image processing program | |
| JP7696730B2 (en) | Information processing device, information processing method, and program | |
| JP2003223610A (en) | Character recognition device and character recognition method | |
| TWM622650U (en) | Accounting management system that recognizes accounting voucher images to automatically obtain accounting related information | |
| JP6281739B2 (en) | Processing apparatus and program | |
| KR101659886B1 (en) | business card ordering system and method |
Legal Events
| Date | Code | Title | Description |
|---|---|---|---|
| PA0109 | Patent application |
St.27 status event code: A-0-1-A10-A12-nap-PA0109 |
|
| PA0201 | Request for examination |
St.27 status event code: A-1-2-D10-D11-exm-PA0201 |
|
| PA0302 | Request for accelerated examination |
St.27 status event code: A-1-2-D10-D17-exm-PA0302 St.27 status event code: A-1-2-D10-D16-exm-PA0302 |
|
| D13-X000 | Search requested |
St.27 status event code: A-1-2-D10-D13-srh-X000 |
|
| P11-X000 | Amendment of application requested |
St.27 status event code: A-2-2-P10-P11-nap-X000 |
|
| P13-X000 | Application amended |
St.27 status event code: A-2-2-P10-P13-nap-X000 |
|
| R15-X000 | Change to inventor requested |
St.27 status event code: A-3-3-R10-R15-oth-X000 |
|
| R16-X000 | Change to inventor recorded |
St.27 status event code: A-3-3-R10-R16-oth-X000 |
|
| D14-X000 | Search report completed |
St.27 status event code: A-1-2-D10-D14-srh-X000 |
|
| E902 | Notification of reason for refusal | ||
| PE0902 | Notice of grounds for rejection |
St.27 status event code: A-1-2-D10-D21-exm-PE0902 |
|
| E13-X000 | Pre-grant limitation requested |
St.27 status event code: A-2-3-E10-E13-lim-X000 |
|
| P11-X000 | Amendment of application requested |
St.27 status event code: A-2-2-P10-P11-nap-X000 |
|
| P13-X000 | Application amended |
St.27 status event code: A-2-2-P10-P13-nap-X000 |
|
| E701 | Decision to grant or registration of patent right | ||
| PE0701 | Decision of registration |
St.27 status event code: A-1-2-D10-D22-exm-PE0701 |
|
| GRNT | Written decision to grant | ||
| PR0701 | Registration of establishment |
St.27 status event code: A-2-4-F10-F11-exm-PR0701 |
|
| PR1002 | Payment of registration fee |
St.27 status event code: A-2-2-U10-U11-oth-PR1002 Fee payment year number: 1 |
|
| PG1601 | Publication of registration |
St.27 status event code: A-4-4-Q10-Q13-nap-PG1601 |
|
| P22-X000 | Classification modified |
St.27 status event code: A-4-4-P10-P22-nap-X000 |
|
| P22-X000 | Classification modified |
St.27 status event code: A-4-4-P10-P22-nap-X000 |
|
| PR1001 | Payment of annual fee |
St.27 status event code: A-4-4-U10-U11-oth-PR1001 Fee payment year number: 4 |
|
| P22-X000 | Classification modified |
St.27 status event code: A-4-4-P10-P22-nap-X000 |
|
| PR1001 | Payment of annual fee |
St.27 status event code: A-4-4-U10-U11-oth-PR1001 Fee payment year number: 5 |
|
| R18-X000 | Changes to party contact information recorded |
St.27 status event code: A-5-5-R10-R18-oth-X000 |