[go: up one dir, main page]

KR20220129852A - 영상 영역 밖의 정보를 생성하는 영상 처리 장치 및 방법 - Google Patents

영상 영역 밖의 정보를 생성하는 영상 처리 장치 및 방법 Download PDF

Info

Publication number
KR20220129852A
KR20220129852A KR1020210034698A KR20210034698A KR20220129852A KR 20220129852 A KR20220129852 A KR 20220129852A KR 1020210034698 A KR1020210034698 A KR 1020210034698A KR 20210034698 A KR20210034698 A KR 20210034698A KR 20220129852 A KR20220129852 A KR 20220129852A
Authority
KR
South Korea
Prior art keywords
image
frame
screen standard
frames
similarity
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
KR1020210034698A
Other languages
English (en)
Other versions
KR102492430B1 (ko
Inventor
심재완
하헌필
Original Assignee
한국과학기술연구원
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 한국과학기술연구원 filed Critical 한국과학기술연구원
Priority to KR1020210034698A priority Critical patent/KR102492430B1/ko
Publication of KR20220129852A publication Critical patent/KR20220129852A/ko
Application granted granted Critical
Publication of KR102492430B1 publication Critical patent/KR102492430B1/ko
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N7/00Television systems
    • H04N7/01Conversion of standards, e.g. involving analogue television standards or digital television standards processed at pixel level
    • G06T5/002
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T5/00Image enhancement or restoration
    • G06T5/40Image enhancement or restoration using histogram techniques
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T5/00Image enhancement or restoration
    • G06T5/50Image enhancement or restoration using two or more images, e.g. averaging or subtraction
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T5/00Image enhancement or restoration
    • G06T5/70Denoising; Smoothing
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Image Processing (AREA)
  • Television Systems (AREA)

Abstract

본 발명은 영상 영역 밖의 정보를 생성하는 영상 처리 기술에 관한 것으로, 영상 처리 장치가 제 1 화면 규격을 갖는 동영상을 입력받고, 제 1 화면 규격을 기준으로 제 1 화면 규격과 다르게 정의된 제 2 화면 규격과의 차이에 해당하는 영상 영역을 미확보 영역으로 설정하고, 입력된 제 1 화면 규격의 동영상에 포함된 프레임(frame)별로 각각 유사 프레임을 검출하여 유사 프레임 그룹으로 설정하고, 입력된 제 1 화면 규격의 동영상에 포함된 각각의 프레임에 대하여 유사 프레임 그룹을 참조하여 미확보 영역에 대한 영상을 생성하며, 제 1 화면 규격의 동영상에 포함된 원본 영상과 미확보 영역에 대해 생성된 영상으로부터 제 2 화면 규격을 갖는 동영상을 출력한다.

Description

영상 영역 밖의 정보를 생성하는 영상 처리 장치 및 방법{Image processing apparatus and method for generating information beyond image area}
본 발명은 영상 처리 기술에 관한 것으로, 특히 동영상 내의 다양한 프레임을 참조하거나 또는 인공지능에 기반하여 영상 영역 밖의 정보를 생성하는 영상 처리 장치 및 방법, 그 방법을 기록한 기록매체에 관한 것이다.
통신 기술, 영상 처리 기술 및 하드웨어의 발달과 더불어 보다 고품질의 영상을 실시간으로 처리하는 것이 가능해졌다. 이에 따라 영상의 규격에도 많은 변화가 나타나게 되었다. 예를 들어, 과거에는 동영상의 화면비(aspect ratio)가 4:3인 것이 일반적이었으나, 요즘은 16:9와 같은 와이드(wide) 화면비를 선호하는 추세이다. 따라서, 과거에 제작된 동영상을 새로운 화면비를 가진 최신의 장치에서 재생하게 될 경우, 영상 재생 장치의 좌우 영역에 표시할 정보가 없이 해당 영역을 비워놓아야 한다는 현실에 마주하게 된다. 이를 해결하기 위해, 영상의 비율을 변화시키는 스트레치(stretch)나 일부 영역을 잘라내는 크롭(crop)을 사용하지 않는 한, 통상적으로 영상 재생 장치는 영상 정보가 없는 영역을 검은색으로 채워 표시하게 된다. 이렇게 정보가 없어 빈 공간에 검은색으로 채우는 레터박스(letterbox) 또는 필러박스(pillarbox) 방식을 통해 보완하게 되었다.
또한, 과거에 제작된 영상은 화면비뿐만 아니라, 영상 자체의 품질도 좋지 못하였는데, 예를 들어, 해상도(resolution) 내지 비트 레이트(bit rate)가 낮아 고해상도의 화소(pixel) 기반으로 설계된 최신 디스플레이 장치에서 해당 영상을 재생할 경우 화질의 조악함이 두드러지게 된다.
즉, 과거에 제작된 영상을 최신의 장치에서 활용하고자 할 경우 소비자들의 높아진 안목과 기대 수준에 부합하기 어렵다. 따라서, 과거의 저품질 영상을 고품질 영상을 지원하는 최신의 영상 재생 장치에서 활용하기 위한 다양한 아이디어가 제안되고 있다. 이하에서 제시되는 선행기술문헌에는 이러한 영상의 품질 향상을 위한 변환 기술이 소개되어 있다.
"저해상도 영상의 손실 정보 추정 방법과 고해상도 영상 변환 방법", 한국특허공개공보 제2011-0026942호
본 발명이 해결하고자 하는 기술적 과제는, 과거의 화면 규격에 따른 동영상을 최신의 화면 규격에 따른 영상 재생 장치에서 재생함에 있어서 종래의 기술이 단순히 과거의 동영상의 일측면을 기준으로 영상의 크기를 조절하되 나머지 타측면 밖의 영역에는 표시할 정보가 없어 검은색으로 표시하는 레터박스 또는 필러박스 방식을 사용함으로 인해 최신 영상 재생 장치의 자원이 낭비되는 문제를 해결하고, 그로 인해 최신의 기기를 사용하였음에도 불구하고 사용자가 체감하는 품질 만족도가 오히려 저하되는 약점을 극복하고자 한다.
상기 기술적 과제를 해결하기 위하여, 본 발명의 일 실시예에 따른 영상 처리 방법은, (a) 영상 처리 장치가 제 1 화면 규격을 갖는 동영상을 입력받는 단계; (b) 상기 영상 처리 장치가 상기 제 1 화면 규격을 기준으로 상기 제 1 화면 규격과 다르게 정의된 제 2 화면 규격과의 차이에 해당하는 영상 영역을 미확보 영역으로 설정하는 단계; (c) 상기 영상 처리 장치가 입력된 상기 제 1 화면 규격의 동영상에 포함된 프레임(frame)별로 각각 유사 프레임을 검출하여 유사 프레임 그룹으로 설정하는 단계; (d) 상기 영상 처리 장치가 입력된 상기 제 1 화면 규격의 동영상에 포함된 각각의 프레임에 대하여 상기 유사 프레임 그룹을 참조하여 상기 미확보 영역에 대한 영상을 생성하는 단계; 및 (e) 상기 영상 처리 장치가 상기 제 1 화면 규격의 동영상에 포함된 원본 영상과 상기 미확보 영역에 대해 생성된 영상으로부터 상기 제 2 화면 규격을 갖는 동영상을 출력하는 단계;를 포함한다.
일 실시예에 따른 영상 처리 방법에서, 미확보 영역으로 설정하는 상기 (b) 단계는, 상기 제 2 화면 규격을 목표로 하여 화면비(aspect ratio), 해상도(resolution), 및 화각(angle of view) 중 적어도 하나를 포함하는 화면 규격의 차이로 인해 상기 제 1 화면 규격이 보유하지 못하고 있는 영상 영역을 미확보 영역으로 설정할 수 있다.
일 실시예에 따른 영상 처리 방법에서, 유사 프레임 그룹으로 설정하는 상기 (c) 단계는, 특징 매칭(feature matching), 템플릿 매칭(template matching), 및 히스토그램(histogram) 비교 중 적어도 하나를 이용하여 2개의 인접 프레임들을 비교하여 유사도 값을 산출할 수 있다.
일 실시예에 따른 영상 처리 방법에서, 유사 프레임 그룹으로 설정하는 상기 (c) 단계는, (c1) 상기 제 1 화면 규격의 동영상에 포함된 하나의 기준 프레임에 대하여 상기 기준 프레임에 시간적으로 선행하거나 후행하는 인접 프레임들과의 유사도를 각각 산출하는 단계; (c2) 상기 인접 프레임들로부터 산출된 유사도가 임계치 이상인 경우, 임계치 이상의 인접 프레임을 새로운 기준 프레임으로 설정하여 다시 인접 프레임들과의 유사도를 각각 산출하고 새롭게 산출된 유사도가 상기 임계치 이상인지를 검사하는 과정을 연쇄적으로 반복함으로써 유사도가 임계치 이상인 프레임만을 최초의 기준 프레임에 대한 유사 프레임 그룹으로 설정하는 단계; 및 (c3) 상기 제 1 화면 규격의 동영상에 포함된 모든 프레임에 대하여 상기 (c1) 단계 및 상기 (c2) 단계를 수행하여 프레임별로 유사 프레임 그룹을 도출하는 단계;를 포함할 수 있다.
또한, 유사 프레임 그룹으로 설정하는 상기 (c) 단계는, 2개의 인접 프레임들 간의 유사도 값을 해당 프레임의 식별자 쌍(pair)에 매칭시켜 룩업 테이블(look-up table)에 저장하되, 새롭게 2개의 인접 프레임들 간의 유사도를 산출하는 경우 먼저 상기 룩업 테이블을 조회하여 미리 저장된 유사도 값이 존재하는 경우 저장된 해당 유사도 값을 독출하여 사용하고, 미리 저장된 유사도 값이 존재하지 않는 경우에만 유사도를 산출하여 상기 룩업 테이블에 저장할 수 있다.
일 실시예에 따른 영상 처리 방법에서, 유사 프레임 그룹으로 설정하는 상기 (c) 단계는, (c4) 상기 제 1 화면 규격의 동영상에 포함된 모든 프레임에 대하여 순차적으로 인접 프레임들 간의 유사도를 각각 산출하는 단계; 및 (c5) 산출된 유사도가 임계치 이상인 값이 시계열적으로 연속하는 프레임 구간에 대하여 각각의 구간별로 유사도가 임계치 이상인 프레임만을 포함하는 유사 프레임 그룹으로 설정하는 단계;를 포함할 수 있다.
일 실시예에 따른 영상 처리 방법에서, 미확보 영역에 대한 영상을 생성하는 상기 (d) 단계는, (d1) 입력된 상기 제 1 화면 규격의 동영상에 포함된 현재 프레임에 대하여 상기 유사 프레임 그룹 내에 포함된 유사 프레임과 현재 프레임 간의 기하학적 관계를 이용하여 상기 현재 프레임을 확장하는 단계; 및 (d2) 입력된 상기 제 1 화면 규격의 동영상에 포함된 모든 프레임에 대하여 상기 (d1) 단계의 프레임 확장을 수행하여 상기 미확보 영역에 대한 영상을 생성하는 단계;를 포함할 수 있다.
또한, 현재 프레임을 확장하는 상기 (d1) 단계는, 상기 유사 프레임 및 상기 현재 프레임 각각으로부터 특징점(keypoint)을 추출하고 추출된 특징점을 기준으로 양자의 영상을 매칭함으로써 상기 현재 프레임을 확장할 수 있다.
나아가, 미확보 영역에 대한 영상을 생성하는 상기 (d) 단계는, (d3) 상기 (d1) 단계의 프레임 확장을 통해 상기 미확보 영역에 대한 영상이 생성되지 않은 경우 GAN(Generative Adversarial Network) 또는 오토인코더(Autoencoder)를 이용하여 상기 미확보 영역에 대한 영상을 보충하는 단계;를 더 포함할 수 있다.
일 실시예에 따른 영상 처리 방법에서, 제 2 화면 규격을 갖는 동영상을 출력하는 상기 (e) 단계는, (e1) 상기 제 1 화면 규격의 동영상에 포함된 모든 프레임에 대하여 각각 원본 영상과 상기 미확보 영역에 대해 생성된 영상을 결합하여 상기 제 2 화면 규격을 갖는 영상으로 변환하는 단계;를 포함할 수 있다.
또한, 제 2 화면 규격을 갖는 동영상을 출력하는 상기 (e) 단계는, (e2) 상기 미확보 영역에 대해 생성된 영상과 상기 원본 영상 간의 품질 차이가 수용 한계치 이상인 경우 열등한 영상의 해상도(resolution) 또는 비트 레이트(bir rate)를 상기 유사 프레임으로부터 보충하는 단계;를 더 포함할 수 있다.
나아가, 제 2 화면 규격을 갖는 동영상을 출력하는 상기 (e) 단계는, (e3) 상기 미확보 영역에 대해 생성된 영상과 상기 제 1 화면 규격의 동영상에 포함된 원본 영상의 경계를 스무딩(smoothing)하는 단계;를 더 포함할 수 있다.
한편, 이하에서는 상기 기재된 영상 처리 방법들을 컴퓨터에서 실행시키기 위한 프로그램을 기록한 컴퓨터로 읽을 수 있는 기록매체를 제공한다.
상기 기술적 과제를 해결하기 위하여, 본 발명의 일 실시예에 따른 영상 처리 장치는, 제 1 화면 규격을 갖는 동영상을 입력받는 입력부; 입력된 상기 제 1 화면 규격을 갖는 동영상을 상기 제 1 화면 규격과 다르게 정의된 제 2 화면 규격의 동영상으로 변환하는 프로그램을 저장하는 메모리; 및 상기 메모리에 저장된 프로그램을 실행하는 프로세서;를 포함하고, 상기 메모리에 저장된 프로그램은, 상기 제 1 화면 규격을 기준으로 상기 제 1 화면 규격과 다르게 정의된 제 2 화면 규격과의 차이에 해당하는 영상 영역을 미확보 영역으로 설정하고, 입력된 상기 제 1 화면 규격의 동영상에 포함된 프레임(frame)별로 각각 유사 프레임을 검출하여 유사 프레임 그룹으로 설정하고, 입력된 상기 제 1 화면 규격의 동영상에 포함된 각각의 프레임에 대하여 상기 유사 프레임 그룹을 참조하여 상기 미확보 영역에 대한 영상을 생성하며, 상기 제 1 화면 규격의 동영상에 포함된 원본 영상과 상기 미확보 영역에 대해 생성된 영상으로부터 상기 제 2 화면 규격을 갖는 동영상을 출력하는 명령을 포함한다.
일 실시예에 따른 영상 처리 장치에서, 상기 메모리에 저장된 프로그램은, 상기 제 2 화면 규격을 목표로 하여 화면비(aspect ratio), 해상도(resolution), 및 화각(angle of view) 중 적어도 하나를 포함하는 화면 규격의 차이로 인해 상기 제 1 화면 규격이 보유하지 못하고 있는 영상 영역을 미확보 영역으로 설정할 수 있다.
일 실시예에 따른 영상 처리 장치에서, 상기 메모리에 저장된 프로그램은, 상기 제 1 화면 규격의 동영상에 포함된 하나의 기준 프레임에 대하여 상기 기준 프레임에 시간적으로 선행하거나 후행하는 인접 프레임들과의 유사도를 각각 산출하고, 상기 인접 프레임들로부터 산출된 유사도가 임계치 이상인 경우, 임계치 이상의 인접 프레임을 새로운 기준 프레임으로 설정하여 다시 인접 프레임들과의 유사도를 각각 산출하고 새롭게 산출된 유사도가 상기 임계치 이상인지를 검사하는 과정을 연쇄적으로 반복함으로써 유사도가 임계치 이상인 프레임만을 최초의 기준 프레임에 대한 유사 프레임 그룹으로 설정하며, 상기 제 1 화면 규격의 동영상에 포함된 모든 프레임에 대하여 상기 유사도를 각각 산출하는 과정 및 상기 유사 프레임 그룹으로 설정하는 과정을 수행하여 프레임별로 유사 프레임 그룹을 도출할 수 있다.
일 실시예에 따른 영상 처리 장치에서, 상기 메모리에 저장된 프로그램은, 상기 제 1 화면 규격의 동영상에 포함된 모든 프레임에 대하여 순차적으로 인접 프레임들 간의 유사도를 각각 산출하고, 산출된 유사도가 임계치 이상인 값이 시계열적으로 연속하는 프레임 구간에 대하여 각각의 구간별로 유사도가 임계치 이상인 프레임만을 포함하는 유사 프레임 그룹으로 설정할 수 있다.
일 실시예에 따른 영상 처리 장치에서, 상기 메모리에 저장된 프로그램은, 입력된 상기 제 1 화면 규격의 동영상에 포함된 현재 프레임에 대하여 상기 유사 프레임 그룹 내에 포함된 유사 프레임과 현재 프레임 간의 기하학적 관계를 이용하여 상기 유사 프레임 및 상기 현재 프레임 각각으로부터 특징점(keypoint)을 추출하고 추출된 특징점을 기준으로 양자의 영상을 매칭함으로써 상기 현재 프레임을 확장하고, 입력된 상기 제 1 화면 규격의 동영상에 포함된 모든 프레임에 대하여 상기 현재 프레임을 확장하는 과정을 수행하여 상기 미확보 영역에 대한 영상을 생성할 수 있다.
또한, 상기 메모리에 저장된 프로그램은, 상기 현재 프레임을 확장하는 과정을 통해 상기 미확보 영역에 대한 영상이 생성되지 않은 경우 GAN(Generative Adversarial Network) 또는 오토인코더(Autoencoder)를 이용하여 상기 미확보 영역에 대한 영상을 보충할 수 있다.
일 실시예에 따른 영상 처리 장치에서, 상기 메모리에 저장된 프로그램은, 상기 제 1 화면 규격의 동영상에 포함된 모든 프레임에 대하여 각각 원본 영상과 상기 미확보 영역에 대해 생성된 영상을 결합하여 상기 제 2 화면 규격을 갖는 영상으로 변환할 수 있다.
본 발명의 실시예들은, 동영상 내의 인접한 프레임 내의 정보에 기초하여 영상을 확장하되 이와 더블어 인공지능을 통해 확장되지 못한 영역에 대한 영상을 보충함으로써 화면 규격의 변화에 능동적이고 효과적으로 대응할 수 있고, 화면 규격의 변화에 따라 영상 내의 일부 영역에 표시할 정보가 없어 검은색으로 표시하는 레터박스 또는 필러박스를 방지할 수 있으며, 최신 영상 재생 장치의 자원을 충분히 활용함으로써 결과적으로 사용자가 체감하는 품질 만족도를 향상시킬 수 있다.
도 1은 영상 영역 밖의 정보를 획득하여 화면 규격이 변화된 영상을 생성하는 본 발명의 기본 아이디어를 설명하기 위한 예시도이다.
도 2는 본 발명의 일 실시예에 따른 영상 영역 밖의 정보를 생성하는 영상 처리 방법을 도시한 흐름도이다.
도 3은 본 발명의 일 실시예에 따른 영상 처리 방법에서 유사 프레임을 검출하는 과정을 설명하기 위한 도면이다.
도 4는 본 발명의 일 실시예에 따른 영상 처리 방법에서 유사 프레임 그룹을 설정하는 과정을 설명하기 위한 도면이다.
도 5 및 도 6은 본 발명의 일 실시예에 따른 영상 처리 방법에서 미확보 영역에 대한 영상을 생성하는 과정과 이를 위한 프로그램 코드를 예시한 도면이다.
도 7 및 도 8은 각각 딥 뉴럴 네트워크를 이용하여 영상 내의 빈 영역을 보충하는 과정을 설명하기 위한 예시도와 블럭도이다.
도 9는 본 발명의 일 실시예에 따른 영상 영역 밖의 정보를 생성하는 영상 처리 장치를 도시한 블럭도이다.
이하에서는 도면을 참조하여 본 발명의 실시예들을 구체적으로 설명하도록 한다. 다만, 하기의 설명 및 첨부된 도면에서 본 발명의 요지를 흐릴 수 있는 공지 기능 또는 구성에 대한 상세한 설명은 생략한다. 덧붙여, 명세서 전체에서, 어떤 구성 요소를 '포함'한다는 것은, 특별히 반대되는 기재가 없는 한 다른 구성요소를 제외하는 것이 아니라, 다른 구성요소를 더 포함할 수 있는 것을 의미한다.
또한, 제 1, 제 2 등의 용어는 다양한 구성요소들을 설명하는데 사용될 수 있지만, 상기 구성 요소들은 상기 용어들에 의해 한정되어서는 안 된다. 상기 용어들은 하나의 구성 요소를 다른 구성 요소로부터 구별하는 목적으로 사용될 수 있다. 예를 들어, 본 발명의 권리 범위로부터 이탈되지 않은 채 제 1 구성 요소는 제 2 구성 요소로 명명될 수 있고, 유사하게 제 2 구성 요소도 제 1 구성 요소로 명명될 수 있다.
본 발명에서 사용한 용어는 단지 특정한 실시예를 설명하기 위해 사용된 것으로, 본 발명을 한정하려는 의도가 아니다. 단수의 표현은 문맥상 명백하게 다르게 뜻하지 않는 한, 복수의 표현을 포함한다. 본 출원에서, "포함하다" 또는 "구비하다" 등의 용어는 설시된 특징, 숫자, 단계, 동작, 구성요소, 부분품 또는 이들을 조합한 것이 존재함을 지정하려는 것이지, 하나 또는 그 이상의 다른 특징들이나 숫자, 단계, 동작, 구성요소, 부분품 또는 이들을 조합한 것들의 존재 또는 부가 가능성을 미리 배제하지 않는 것으로 이해되어야 한다.
특별히 다르게 정의되지 않는 한, 기술적이거나 과학적인 용어를 포함해서 여기서 사용되는 모든 용어들은 본 발명이 속하는 기술분야에서 통상의 지식을 가진 자에 의해 일반적으로 이해되는 것과 동일한 의미이다. 일반적으로 사용되는 사전에 정의되어 있는 것과 같은 용어들은 관련 기술의 문맥상 가지는 의미와 일치하는 의미인 것으로 해석되어야 하며, 본 출원에서 명백하게 정의하지 않는 한, 이상적이거나 과도하게 형식적인 의미로 해석되지 않는다.
도 1은 영상 영역 밖의 정보를 획득하여 화면 규격이 변화된 영상을 생성하는 본 발명의 기본 아이디어를 설명하기 위한 예시도이다.
도 1의 (A)는 바르셀로나 올림픽 마라톤 결승 동영상의 일부 프레임을 예시한 것으로 현재의 화면비를 변화시켜 와이드 화면비를 갖는 동영상을 생성하고자 한다. 이를 위해, 주어진 재생 시점에 재생되고 있는 영상의 시야(화각) 밖의 정보는 많은 경우에 있어서 재생 시점 전/후의 영상에 담겨있다는 점에 주목하였다. 즉, 특정 재생 시점의 전/후의 프레임(frame) 내에 포함된 정보를 활용하여 상기 특정 재생 시점에 재생되고 있는 영상의 시야(화각)를 확장할 수 있다.
도 1의 (B)를 참조하면, 도 1의 (A)에 예시된 특정 시점의 전/후 프레임으로부터 얻은 정보와 원래의 특정 시점의 프레임을 결합하여 보다 큰 이미지를 생성하였음을 보여준다. 이러한 방식을 통해 특정 시점의 영상 영역 밖의 정보를 얻을 수 있으며, 인접한 전/후 프레임에 대한 탐색을 반복적으로 확장할 경우 보다 큰 이미지의 생성 또한 기대할 수 있다.
나아가, 인공지능을 활용하여 인접한 전/후 프레임으로부터 얻을 수 없는 영역의 정보를 획득하는 것이 가능하다. 도 1의 (C)를 참조하면, 앞서 도 1의 (B)를 통해 예시된 바와 같이 주어진 프레임의 전후 프레임에서 얻은 정보로부터 생성된 큰 이미지보다 더욱 큰 이미지가 생성된 결과를 예시하였다. 이러한 도 1의 (C)의 이미지는 인공지능을 이용하여 화각 밖의 영역을 추정하여 새롭게 생성함으로써 얻을 수 있었다.
즉, 동영상 내의 인접한 프레임 내의 정보와 인공지능을 통해 영상의 보충을 함께 활용함으로써 화면 규격의 변화에 능동적이고 효과적으로 대응할 수 있다. 이하에서 제시되는 본 발명의 실시예들에서는 이러한 아이디어를 구현하는 구체적인 기술적 수단을 도면을 참조하여 설명하도록 한다.
도 2는 본 발명의 일 실시예에 따른 영상 영역 밖의 정보를 생성하는 영상 처리 방법을 도시한 흐름도이다.
S210 단계에서, 영상 처리 장치는 제 1 화면 규격을 갖는 동영상을 입력받는다. 여기서, 동영상은 복수 개의 정지 영상 프레임이 연속하여 연결되어 형성된 집합 데이터로 이해될 수 있다. 따라서, 각각의 프레임들은 시계열적인 관계가 존재하며, 설명의 편의를 위해 특정 시점에서 선택된 하나의 프레임을 기준으로 시간적으로 앞서는 것을 선행 프레임으로, 시간적으로 뒤지는 것을 후행 프레임을 명명하도록 한다.
S220 단계에서, 상기 영상 처리 장치는 상기 제 1 화면 규격을 기준으로 상기 제 1 화면 규격과 다르게 정의된 제 2 화면 규격과의 차이에 해당하는 영상 영역을 미확보 영역으로 설정한다. 이 과정에서는, 상기 제 2 화면 규격을 목표로 하여 화면비(aspect ratio), 해상도(resolution), 및 화각(angle of view) 중 적어도 하나를 포함하는 화면 규격의 차이로 인해 상기 제 1 화면 규격이 보유하지 못하고 있는 영상 영역을 미확보 영역으로 설정할 수 있다. 이러한 과정을 통해 원본 영상이 갖지 못한 정보가 어느 영역에 해당하는지를 특정하게 된다.
S230 단계에서, 상기 영상 처리 장치는 입력된 상기 제 1 화면 규격의 동영상에 포함된 프레임(frame)별로 각각 유사 프레임을 검출하여 유사 프레임 그룹으로 설정한다. 즉, 하나의 기준 프레임과 인접한 선행 프레임 또는 후행 프레임을 탐색하여 기준 프레임과 유사한 프레임들이 존재하는지를 검사하고, 검사 결과, 유사도 값이 미리 설정된 기준을 만족하는 경우, 해당 프레임을 유사 프레임으로서 하나의 그룹으로 묶어 관리하게 된다. 이러한 과정을 동영상 내의 모든 프레임에 대해 수행함으로써 특정 시점의 프레임과 유사도가 높은 유사 프레임 그룹을 도출하게 된다. 이 과정에서는, 특징 매칭(feature matching), 템플릿 매칭(template matching), 및 히스토그램(histogram) 비교 중 적어도 하나를 이용하여 2개의 인접 프레임들을 비교하여 유사도 값을 산출할 수 있다.
본 발명의 일 실시예에 따른 영상 처리 방법에서 유사 프레임을 검출하는 과정을 설명하기 위한 도 3을 참조하면, 시간 축을 따라 5개의 프레임이 예시되었다. 예를 들어, 시간 t에 해당하는 프레임 ft를 기준으로 그에 인접한 시간 t-1 및 t+1에서 각각 프레임 ft-1 및 ft+1을 선택한 후, 기준 프레임 ft와 비교하여 유사도를 산출한다. 만약 산출된 유사도가 미리 설정된 임계치 이상인 경우 다시 해당 인접 프레임에 인접한 시간 t-2 또는 t+2의 프레임 ft-2 및 ft+2에 대해 유사도 평가를 재차 수행하게 된다. 이러한 방식으로 기준 프레임 ft와 유사한 인접 프레임들을 탐색하여 시간적으로 연속하는 유사 프레임만을 유사 프레임 그룹 내에 포함시킨다. 여기서, 유사 프레임 그룹은 이후 기준 프레임 ft에서 화면 규격 밖의 영역에 대한 정보를 얻기 위해 활용될 수 있는 후보들의 집합을 의미한다.
한편, 제 1 화면 규격의 동영상에 포함된 프레임별로 각각 유사 프레임을 검출하여 유사 프레임 그룹으로 설정하기 위해, 구현의 관점에서 다양한 실시예가 활용될 수 있다.
첫 번째 실시예로서, 먼저 제 1 화면 규격의 동영상에 포함된 하나의 기준 프레임에 대하여 기준 프레임에 시간적으로 선행하거나 후행하는 인접 프레임들과의 유사도를 각각 산출한다. 그런 다음, 상기 인접 프레임들로부터 산출된 유사도가 임계치 이상인 경우, 임계치 이상의 인접 프레임을 새로운 기준 프레임으로 설정하여 다시 인접 프레임들과의 유사도를 각각 산출하고 새롭게 산출된 유사도가 상기 임계치 이상인지를 검사하는 과정을 연쇄적으로 반복함으로써 유사도가 임계치 이상인 프레임만을 최초의 기준 프레임에 대한 유사 프레임 그룹으로 설정한다. 이제, 상기 제 1 화면 규격의 동영상에 포함된 모든 프레임에 대하여 상기 인접 프레임들과의 유사도를 각각 산출하는 과정 및 상기 유사 프레임 그룹으로 설정하는 과정을 수행하여 프레임별로 유사 프레임 그룹을 도출할 수 있다.
연산의 반복을 줄이고 데이터 재사용 효율을 높이기 위해, 2개의 인접 프레임들 간의 유사도 값을 해당 프레임의 식별자 쌍(pair)에 매칭시켜 룩업 테이블(look-up table)에 저장하되, 새롭게 2개의 인접 프레임들 간의 유사도를 산출하는 경우 먼저 상기 룩업 테이블을 조회하여 미리 저장된 유사도 값이 존재하는 경우 저장된 해당 유사도 값을 독출하여 사용하고, 미리 저장된 유사도 값이 존재하지 않는 경우에만 유사도를 산출하여 상기 룩업 테이블에 저장하는 것이 바람직하다.
도 4는 본 발명의 일 실시예에 따른 영상 처리 방법에서 유사 프레임 그룹을 설정하는 과정을 설명하기 위한 도면으로 룩업 테이블을 예시하였다. 도 4를 참조하면 연속하는 프레임들에 대해 2개씩 쌍을 지어 프레임의 식별자 쌍을 인덱스(index)로 설정하고, 그에 대응하는 유사도 값을 저장하였다. 유사도 산출 과정이 반복되면서 유사도 값이 기록되고 유사 프레임 그룹의 형성을 위한 검사가 수행된다. 예를 들어, 유사도 판정을 위한 임계치를 '0.7'로 설정하였다고 가정하면, (f1,f2), (f2,f3), (f3,f4)의 연속하는 구간이 '유사 프레임 그룹 #1'을 형성하였음을 확인할 수 있다. 그러나, (f4,f5)에 해당하는 유사도는 임계치 기준을 만족하지 못하였으며, 다시 (f5,f6), (f6,f7)의 연속하는 구간이 '유사 프레임 그룹 #2'를 형성하였다. 따라서, 이렇게 생성된 룩업 테이블을 참조함으로써 특정 시점의 프레임과 유사한 인접 프레임이 어느 것인지를 빠르게 확인할 수 있으며, 이후 영상의 화면 규격을 변경할 경우 원본 영상에서 영역 밖의 정보를 얻기 위한 후보 데이터로서 활용할 수 있다.
제 1 화면 규격의 동영상에 포함된 프레임별로 각각 유사 프레임을 검출하여 유사 프레임 그룹으로 설정하기 위한 두 번째 실시예로서, 시간 순서에 따라 프레임 간의 유사도를 미리 산출하는 방식이 활용 가능하다. 먼저, 제 1 화면 규격의 동영상에 포함된 모든 프레임에 대하여 순차적으로 인접 프레임들 간의 유사도를 각각 산출한다. 그런 다음, 산출된 유사도가 임계치 이상인 값이 시계열적으로 연속하는 프레임 구간에 대하여 각각의 구간별로 유사도가 임계치 이상인 프레임만을 포함하는 유사 프레임 그룹으로 설정할 수 있다. 즉, 앞서 기술한 첫 번째 실시예가 하나의 기준 프레임으로부터 인접한 전/후의 선행/후행 프레임을 탐색하는데 반해, 두 번째 실시예는 일방향으로 인접 프레임간의 유사도를 산출하는 방식으로 동작한다. 이러한 두 번째 실시예에서도 산출된 유사도를 관리하기 위해 앞서 소개한 룩업 테이블이 활용될 수 있음은 물론이다.
다시 도 2로 돌아와, S240 단계에서, 상기 영상 처리 장치는 입력된 상기 제 1 화면 규격의 동영상에 포함된 각각의 프레임에 대하여 상기 유사 프레임 그룹을 참조하여 상기 미확보 영역에 대한 영상을 생성한다. 이 과정에서는, 우선 입력된 상기 제 1 화면 규격의 동영상에 포함된 현재 프레임에 대하여 상기 유사 프레임 그룹 내에 포함된 유사 프레임과 현재 프레임 간의 기하학적 관계를 이용하여 상기 현재 프레임을 확장한다. 그런 다음, 입력된 상기 제 1 화면 규격의 동영상에 포함된 모든 프레임에 대하여 상기된 현재 프레임의 확장 과정을 수행하여 상기 미확보 영역에 대한 영상을 생성할 수 있다.
현재 프레임(기준이 되는 기본 프레임)을 확장하고자 할 때, 현재 프레임과 유사도가 높은 유사 프레임을 복수 개 포함하는 유사 프레임 그룹이 설정되었다고 가정하자. 이러한 유사 프레임 그룹에서 하나의 프레임을 선택하여 현재 프레임을 확장하는 상황에 있어서, 현재 프레임과 유사 프레임에 담긴 내용은 같아도(예를 들어, 이미지에 사람이 달리는 장면이 포함된 프레임), 프레임이 촬영되는 순간에 카메라가 향하는 각도, 원근, 조도 등에 따라서 나타나는 프레임의 특성이 서로 상이할 수 있다. 따라서, 현재 프레임을 확장할 때에는 이러한 프레임의 특성을 맞추는 작업이 필요하다. 예를 들어, 정육면체가 존재할 때 카메라가 향하는 각도에 따라서 정육면체의 모양이 정사각형으로 보이기도 하고, 사다리꼴로 보이기도 하며, 임의의 사각형으로 보이기도 한다.
현재 프레임과 유사 프레임을 하나의 프레임으로 병합하기 위해서는 두 개의 프레임 간의 카메라 각도 및 원근 등을 포함하는 특성 요소에 관한 다양한 보정이 필요하다. 구현의 관점에서, 보정을 위해 이미지를 늘리거나 줄이는 등의 수학적 변환이 필요한데, 이하에서 예시하는 일련의 처리 과정을 이용하여 효과적으로 보정을 수행할 수 있다.
우선, 인공 신경망을 구성한다. 그런 다음, 기본 입체 모형(직육면체, 정육면체, 원기둥, 구 등)과 이의 합체 구성 모형을 다양한 각도 및 원근에서 바라본 영상을 컴퓨터를 활용하여 인공적으로 생성하여 인공 신경망을 통해 학습시킨다. 그러면, 인공 신경망은 각도 및 원근에 대한 개념을 학습하여 임의의 각도 및 원근의 이미지를 입력으로 받았을 때 특정한 각도 및 원근의 이미지로 출력할 수 있는 상태가 된다. 이제, 두 개의 이미지를 입력으로 하여 이미지들 간의 각도 및 원근 차이를 출력하는 인공 신경망을 학습시키고, 이를 이용하여 유사 프레임을 변환하여 각도 및 원근 특징을 기본 프레임과 맞춤으로써 두 개의 프레임을 하나로 병합할 수 있다.
도 5 및 도 6은 본 발명의 일 실시예에 따른 영상 처리 방법에서 미확보 영역에 대한 영상을 생성하는 과정과 이를 위한 프로그램 코드를 예시한 도면이다.
앞서, 도 2의 S240 단계에서, 입력된 제 1 화면 규격의 동영상에 포함된 각각의 프레임에 대하여 유사 프레임 그룹을 참조하여 미확보 영역에 대한 영상을 생성할 수 있음을 설명하였다. 이를 위해, 상기 유사 프레임 및 상기 현재 프레임 각각으로부터 특징점(keypoint)을 추출하고 추출된 특징점을 기준으로 양자의 영상을 매칭함으로써 상기 현재 프레임을 확장할 수 있다. 도 5를 참조하면 주어진 기준 프레임에 인접한 선행 및 후행 프레임에서 얻을 정보로부터 원본 이미지보다 큰 이미지를 생성하는 과정을 예시하였으며, 도 6은 도 5의 이미지로부터 재차 인접한 선행 및 후행 프레임을 확장하여 해당 프레임들로부터 얻은 정보를 활용하여 더욱 큰 이미지를 생성하였음을 보여준다.
한편, 도 6에는 좌측 하단과 우측 상단에 영상 내의 정보가 확보되지 않은 빈 영역이 나타나고 있는 것을 확인할 수 있다. 이하에서는 이를 보완하기 위한 기술적 수단을 소개한다.
도 7 및 도 8은 각각 딥 뉴럴 네트워크를 이용하여 영상 내의 빈 영역을 보충하는 과정을 설명하기 위한 예시도와 블럭도이다.
본 발명의 실시예들은 유사 프레임 그룹을 참조하여 미확보 영역에 대한 영상을 생성하였다. 그럼에도 불구하고 요구되는 화면 규격에 대해 유사 프레임 그룹으로부터 미확보 영역에 대한 정보를 얻지 못할 수 있다. 즉, 입력된 제 1 화면 규격의 동영상에 포함된 현재 프레임에 대하여 유사 프레임 그룹 내에 포함된 유사 프레임과 현재 프레임 간의 기하학적 관계를 이용하여 현재 프레임을 확장하였으나, 상기 미확보 영역에 대한 영상이 생성되지 않은 경우 GAN(Generative Adversarial Network) 또는 오토인코더(Autoencoder)를 이용하여 상기 미확보 영역에 대한 영상을 보충할 수 있다.
도 7을 참조하면, 도 6과 비교할 때, 좌측 상단의 영역(710) 및 우측 하단의 영역(720)이 보충되었음을 확인할 수 있다. 도 8을 참조하면, 먼저 정보가 비어 있는 영상을 포함하여 다수의 인접 영상들을 입력영상(810)으로 입력한다. 그런 다음, 딥 뉴럴 네트워크(820)를 통해 정보가 비어 있는 빈자리 영상에 대한 실마리 정보(830)를 제공받음으로써 정보가 비어 있는 영역을 보충할 수 있는 영상을 새롭게 생성한 후 출력영상(840)으로 출력한다. 이때, 딥 뉴럴 네트워크(820)는 GAN 또는 오토인코더를 이용하여 구현할 수 있다.
이제 마지막으로, 도 2의 S250 단계에서, 상기 영상 처리 장치는 상기 제 1 화면 규격의 동영상에 포함된 원본 영상과 상기 미확보 영역에 대해 생성된 영상으로부터 상기 제 2 화면 규격을 갖는 동영상을 출력한다. 여기서, 상기 제 1 화면 규격의 동영상에 포함된 모든 프레임에 대하여 각각 원본 영상과 상기 미확보 영역에 대해 생성된 영상을 결합하여 상기 제 2 화면 규격을 갖는 영상으로 변환할 수 있다.
앞서 유사성이 높은 프레임으로 판정된 경우는 크게 3가지 유형을 고려할 수 있다. 첫 번째 유형은 촬영 수단(카메라)이 고정된 상태로 영상을 촬영한 경우이고, 두 번째 유형은 촬영 수단을 상/하/좌/우로 움직이며 촬영한 경우이며, 세 번째 유형은 촬영 수단으로 줌인(zoom-in)/줌아웃(zoom-out)하여 촬영한 경우이다.
첫 번째 경우는 스튜디오에서 진행되는 뉴스에서 진행자가 말하는 장면을 예로 들 수 있다. 유사도 비교시 프레임 간 차이가 많이 나는 화소는 버리고, 차이가 많이 나지 않는 화소만을 활용하여 해상도를 향상시킬 수 있다. 예를 들어, 기준 프레임에 시간적으로 연속하는 구간에 4개의 유사 프레임이 존재한다고 판단되었다면, 이러한 유사 프레임으로 구성된 유사 프레임 그룹을 활용하여 1 by 1 화상 정보를 4 by 4 화상 정보로 향상시킬 수 있다.
두 번째 또는 세 번째 경우는 기준 프레임에 인접한 선행 및 후행 프레임에 기초하여 상기 기준 프레임을 확장시킬 수 있다. 예를 들어, 4:3의 화면비를 갖는 영상들을 연결하여 16:9의 화면비를 갖는 영상을 생성할 수 있다.
이상에서 제안한 영상 생성 방법을 사용하여 동영상의 품질을 향상시킬 경우, 해상도가 일관되지 못하거나, 보충된 영상의 일부 영역에서 의도하지 않았음에도 이질적인 색상(예를 들어, 검정색)이 나타나는 문제가 발생할 수 있다. 따라서, 이러한 이질감을 해소하기 위한 영상 후처리 내지 필터링이 요구된다. 구현의 관점에서, 상기 미확보 영역에 대해 생성된 영상과 상기 원본 영상 간의 품질 차이가 수용 한계치 이상인 경우 열등한 영상의 해상도(resolution) 또는 비트 레이트(bir rate)를 상기 유사 프레임으로부터 보충할 수 있다. 또한, 상기 미확보 영역에 대해 생성된 영상과 상기 제 1 화면 규격의 동영상에 포함된 원본 영상의 경계를 스무딩(smoothing)할 수 있다.
도 9는 본 발명의 일 실시예에 따른 영상 영역 밖의 정보를 생성하는 영상 처리 장치(920)를 도시한 블럭도로서, 도 2의 흐름도에 대응하여 하드웨어 구현의 관점에서 각각의 구성요소의 동작 및 기능을 나타내었다. 따라서, 설명의 중복을 피하기 위해 여기서는 그 개괄적인 구성만을 약술하도록 한다.
입력부(921)는 제 1 화면 규격을 갖는 동영상(910)을 입력받는 수단이다. 메모리(923)는 입력부(921)를 통해 입력된 상기 제 1 화면 규격을 갖는 동영상(910)을 상기 제 1 화면 규격과 다르게 정의된 제 2 화면 규격의 동영상(930)으로 변환하는 프로그램을 저장한다. 프로세서(925)는 상기 메모리(923)에 저장된 프로그램을 실행하는 주체이다. 여기서, 상기 메모리(923)에 저장된 프로그램은, 상기 제 1 화면 규격을 기준으로 상기 제 1 화면 규격과 다르게 정의된 제 2 화면 규격과의 차이에 해당하는 영상 영역을 미확보 영역으로 설정하고, 입력된 상기 제 1 화면 규격의 동영상에 포함된 프레임(frame)별로 각각 유사 프레임을 검출하여 유사 프레임 그룹으로 설정하고, 입력된 상기 제 1 화면 규격의 동영상에 포함된 각각의 프레임에 대하여 상기 유사 프레임 그룹을 참조하여 상기 미확보 영역에 대한 영상을 생성하며, 상기 제 1 화면 규격의 동영상에 포함된 원본 영상과 상기 미확보 영역에 대해 생성된 영상으로부터 상기 제 2 화면 규격을 갖는 동영상을 출력하는 명령을 포함한다.
메모리(923)에 저장된 프로그램은, 상기 제 2 화면 규격을 목표로 하여 화면비(aspect ratio), 해상도(resolution), 및 화각(angle of view) 중 적어도 하나를 포함하는 화면 규격의 차이로 인해 상기 제 1 화면 규격이 보유하지 못하고 있는 영상 영역을 미확보 영역으로 설정할 수 있다.
메모리(923)에 저장된 프로그램은, 상기 제 1 화면 규격의 동영상에 포함된 하나의 기준 프레임에 대하여 상기 기준 프레임에 시간적으로 선행하거나 후행하는 인접 프레임들과의 유사도를 각각 산출하고, 상기 인접 프레임들로부터 산출된 유사도가 임계치 이상인 경우, 임계치 이상의 인접 프레임을 새로운 기준 프레임으로 설정하여 다시 인접 프레임들과의 유사도를 각각 산출하고 새롭게 산출된 유사도가 상기 임계치 이상인지를 검사하는 과정을 연쇄적으로 반복함으로써 유사도가 임계치 이상인 프레임만을 최초의 기준 프레임에 대한 유사 프레임 그룹으로 설정하며, 상기 제 1 화면 규격의 동영상에 포함된 모든 프레임에 대하여 상기 유사도를 각각 산출하는 과정 및 상기 유사 프레임 그룹으로 설정하는 과정을 수행하여 프레임별로 유사 프레임 그룹을 도출할 수 있다.
메모리(923)에 저장된 프로그램은, 상기 제 1 화면 규격의 동영상에 포함된 모든 프레임에 대하여 순차적으로 인접 프레임들 간의 유사도를 각각 산출하고, 산출된 유사도가 임계치 이상인 값이 시계열적으로 연속하는 프레임 구간에 대하여 각각의 구간별로 유사도가 임계치 이상인 프레임만을 포함하는 유사 프레임 그룹으로 설정할 수 있다.
메모리(923)에 저장된 프로그램은, 입력된 상기 제 1 화면 규격의 동영상에 포함된 현재 프레임에 대하여 상기 유사 프레임 그룹 내에 포함된 유사 프레임과 현재 프레임 간의 기하학적 관계를 이용하여 상기 유사 프레임 및 상기 현재 프레임 각각으로부터 특징점(keypoint)을 추출하고 추출된 특징점을 기준으로 양자의 영상을 매칭함으로써 상기 현재 프레임을 확장하고, 입력된 상기 제 1 화면 규격의 동영상에 포함된 모든 프레임에 대하여 상기 현재 프레임을 확장하는 과정을 수행하여 상기 미확보 영역에 대한 영상을 생성할 수 있다. 또한, 메모리(923)에 저장된 프로그램은, 상기 현재 프레임을 확장하는 과정을 통해 상기 미확보 영역에 대한 영상이 생성되지 않은 경우 GAN(Generative Adversarial Network) 또는 오토인코더(Autoencoder)를 이용하여 상기 미확보 영역에 대한 영상을 보충할 수 있다.
메모리(923)에 저장된 프로그램은, 상기 제 1 화면 규격의 동영상에 포함된 모든 프레임에 대하여 각각 원본 영상과 상기 미확보 영역에 대해 생성된 영상을 결합하여 상기 제 2 화면 규격을 갖는 영상으로 변환할 수 있다.
본 발명의 실시예들에 따르면, 동영상 내의 인접한 프레임 내의 정보에 기초하여 영상을 확장하되 이와 더블어 인공지능을 통해 확장되지 못한 영역에 대한 영상을 보충함으로써 화면 규격의 변화에 능동적이고 효과적으로 대응할 수 있고, 화면 규격의 변화에 따라 영상 내의 일부 영역에 표시할 정보가 없어 검은색으로 표시하는 레터박스 또는 필러박스를 방지할 수 있으며, 최신 영상 재생 장치의 자원을 충분히 활용함으로써 결과적으로 사용자가 체감하는 품질 만족도를 향상시킬 수 있다.
한편, 본 발명의 실시예들은 컴퓨터로 읽을 수 있는 기록 매체에 컴퓨터가 읽을 수 있는 코드로 구현하는 것이 가능하다. 컴퓨터가 읽을 수 있는 기록 매체는 컴퓨터 시스템에 의하여 읽혀질 수 있는 데이터가 저장되는 모든 종류의 기록 장치를 포함한다.
컴퓨터가 읽을 수 있는 기록 매체의 예로는 ROM, RAM, CD-ROM, 자기 테이프, 플로피디스크, 광 데이터 저장장치 등을 포함한다. 또한, 컴퓨터가 읽을 수 있는 기록 매체는 네트워크로 연결된 컴퓨터 시스템에 분산되어, 분산 방식으로 컴퓨터가 읽을 수 있는 코드가 저장되고 실행될 수 있다. 그리고 본 발명을 구현하기 위한 기능적인(functional) 프로그램, 코드 및 코드 세그먼트들은 본 발명이 속하는 기술 분야의 프로그래머들에 의하여 용이하게 추론될 수 있다.
이상에서 본 발명에 대하여 그 다양한 실시예들을 중심으로 살펴보았다. 본 발명에 속하는 기술 분야에서 통상의 지식을 가진 자는 본 발명이 본 발명의 본질적인 특성에서 벗어나지 않는 범위에서 변형된 형태로 구현될 수 있음을 이해할 수 있을 것이다. 그러므로 개시된 실시예들은 한정적인 관점이 아니라 설명적인 관점에서 고려되어야 한다. 본 발명의 범위는 전술한 설명이 아니라 특허청구범위에 나타나 있으며, 그와 동등한 범위 내에 있는 모든 차이점은 본 발명에 포함된 것으로 해석되어야 할 것이다.
810: 입력영상
820: 딥 뉴럴 네트워크 830: 빈자리 영상 실마리 정보
840: 출력영상
910: 제 1 규격 동영상
920: 영상 처리 장치 921: 입력부
923: 메모리 925: 프로세서
930: 제 2 규격 동영상

Claims (20)

  1. (a) 영상 처리 장치가 제 1 화면 규격을 갖는 동영상을 입력받는 단계;
    (b) 상기 영상 처리 장치가 상기 제 1 화면 규격을 기준으로 상기 제 1 화면 규격과 다르게 정의된 제 2 화면 규격과의 차이에 해당하는 영상 영역을 미확보 영역으로 설정하는 단계;
    (c) 상기 영상 처리 장치가 입력된 상기 제 1 화면 규격의 동영상에 포함된 프레임(frame)별로 각각 유사 프레임을 검출하여 유사 프레임 그룹으로 설정하는 단계;
    (d) 상기 영상 처리 장치가 입력된 상기 제 1 화면 규격의 동영상에 포함된 각각의 프레임에 대하여 상기 유사 프레임 그룹을 참조하여 상기 미확보 영역에 대한 영상을 생성하는 단계; 및
    (e) 상기 영상 처리 장치가 상기 제 1 화면 규격의 동영상에 포함된 원본 영상과 상기 미확보 영역에 대해 생성된 영상으로부터 상기 제 2 화면 규격을 갖는 동영상을 출력하는 단계;를 포함하는, 영상 처리 방법.
  2. 제 1 항에 있어서,
    상기 (b) 단계는,
    상기 제 2 화면 규격을 목표로 하여 화면비(aspect ratio), 해상도(resolution), 및 화각(angle of view) 중 적어도 하나를 포함하는 화면 규격의 차이로 인해 상기 제 1 화면 규격이 보유하지 못하고 있는 영상 영역을 미확보 영역으로 설정하는, 영상 처리 방법.
  3. 제 1 항에 있어서,
    상기 (c) 단계는,
    특징 매칭(feature matching), 템플릿 매칭(template matching), 및 히스토그램(histogram) 비교 중 적어도 하나를 이용하여 2개의 인접 프레임들을 비교하여 유사도 값을 산출하는, 영상 처리 방법.
  4. 제 1 항에 있어서,
    상기 (c) 단계는,
    (c1) 상기 제 1 화면 규격의 동영상에 포함된 하나의 기준 프레임에 대하여 상기 기준 프레임에 시간적으로 선행하거나 후행하는 인접 프레임들과의 유사도를 각각 산출하는 단계;
    (c2) 상기 인접 프레임들로부터 산출된 유사도가 임계치 이상인 경우, 임계치 이상의 인접 프레임을 새로운 기준 프레임으로 설정하여 다시 인접 프레임들과의 유사도를 각각 산출하고 새롭게 산출된 유사도가 상기 임계치 이상인지를 검사하는 과정을 연쇄적으로 반복함으로써 유사도가 임계치 이상인 프레임만을 최초의 기준 프레임에 대한 유사 프레임 그룹으로 설정하는 단계; 및
    (c3) 상기 제 1 화면 규격의 동영상에 포함된 모든 프레임에 대하여 상기 (c1) 단계 및 상기 (c2) 단계를 수행하여 프레임별로 유사 프레임 그룹을 도출하는 단계;를 포함하는, 영상 처리 방법.
  5. 제 4 항에 있어서,
    상기 (c) 단계는,
    2개의 인접 프레임들 간의 유사도 값을 해당 프레임의 식별자 쌍(pair)에 매칭시켜 룩업 테이블(look-up table)에 저장하되,
    새롭게 2개의 인접 프레임들 간의 유사도를 산출하는 경우 먼저 상기 룩업 테이블을 조회하여 미리 저장된 유사도 값이 존재하는 경우 저장된 해당 유사도 값을 독출하여 사용하고, 미리 저장된 유사도 값이 존재하지 않는 경우에만 유사도를 산출하여 상기 룩업 테이블에 저장하는, 영상 처리 방법.
  6. 제 1 항에 있어서,
    상기 (c) 단계는,
    (c4) 상기 제 1 화면 규격의 동영상에 포함된 모든 프레임에 대하여 순차적으로 인접 프레임들 간의 유사도를 각각 산출하는 단계; 및
    (c5) 산출된 유사도가 임계치 이상인 값이 시계열적으로 연속하는 프레임 구간에 대하여 각각의 구간별로 유사도가 임계치 이상인 프레임만을 포함하는 유사 프레임 그룹으로 설정하는 단계;를 포함하는, 영상 처리 방법.
  7. 제 1 항에 있어서,
    상기 (d) 단계는,
    (d1) 입력된 상기 제 1 화면 규격의 동영상에 포함된 현재 프레임에 대하여 상기 유사 프레임 그룹 내에 포함된 유사 프레임과 현재 프레임 간의 기하학적 관계를 이용하여 상기 현재 프레임을 확장하는 단계; 및
    (d2) 입력된 상기 제 1 화면 규격의 동영상에 포함된 모든 프레임에 대하여 상기 (d1) 단계의 프레임 확장을 수행하여 상기 미확보 영역에 대한 영상을 생성하는 단계;를 포함하는, 영상 처리 방법.
  8. 제 7 항에 있어서,
    상기 (d1) 단계는,
    상기 유사 프레임 및 상기 현재 프레임 각각으로부터 특징점(keypoint)을 추출하고 추출된 특징점을 기준으로 양자의 영상을 매칭함으로써 상기 현재 프레임을 확장하는, 영상 처리 방법.
  9. 제 7 항에 있어서,
    (d3) 상기 (d1) 단계의 프레임 확장을 통해 상기 미확보 영역에 대한 영상이 생성되지 않은 경우 GAN(Generative Adversarial Network) 또는 오토인코더(Autoencoder)를 이용하여 상기 미확보 영역에 대한 영상을 보충하는 단계;를 더 포함하는, 영상 처리 방법.
  10. 제 1 항에 있어서,
    상기 (e) 단계는,
    (e1) 상기 제 1 화면 규격의 동영상에 포함된 모든 프레임에 대하여 각각 원본 영상과 상기 미확보 영역에 대해 생성된 영상을 결합하여 상기 제 2 화면 규격을 갖는 영상으로 변환하는 단계;를 포함하는, 영상 처리 방법.
  11. 제 10 항에 있어서,
    (e2) 상기 미확보 영역에 대해 생성된 영상과 상기 원본 영상 간의 품질 차이가 수용 한계치 이상인 경우 열등한 영상의 해상도(resolution) 또는 비트 레이트(bir rate)를 상기 유사 프레임으로부터 보충하는 단계;를 더 포함하는, 영상 처리 방법.
  12. 제 10 항에 있어서,
    (e3) 상기 미확보 영역에 대해 생성된 영상과 상기 제 1 화면 규격의 동영상에 포함된 원본 영상의 경계를 스무딩(smoothing)하는 단계;를 더 포함하는, 영상 처리 방법.
  13. 제 1 항 내지 제 12 항 중에 어느 한 항의 방법을 컴퓨터에서 실행시키기 위한 프로그램을 기록한 컴퓨터로 읽을 수 있는 기록매체.
  14. 제 1 화면 규격을 갖는 동영상을 입력받는 입력부;
    입력된 상기 제 1 화면 규격을 갖는 동영상을 상기 제 1 화면 규격과 다르게 정의된 제 2 화면 규격의 동영상으로 변환하는 프로그램을 저장하는 메모리; 및
    상기 메모리에 저장된 프로그램을 실행하는 프로세서;를 포함하고,
    상기 메모리에 저장된 프로그램은,
    상기 제 1 화면 규격을 기준으로 상기 제 1 화면 규격과 다르게 정의된 제 2 화면 규격과의 차이에 해당하는 영상 영역을 미확보 영역으로 설정하고, 입력된 상기 제 1 화면 규격의 동영상에 포함된 프레임(frame)별로 각각 유사 프레임을 검출하여 유사 프레임 그룹으로 설정하고, 입력된 상기 제 1 화면 규격의 동영상에 포함된 각각의 프레임에 대하여 상기 유사 프레임 그룹을 참조하여 상기 미확보 영역에 대한 영상을 생성하며, 상기 제 1 화면 규격의 동영상에 포함된 원본 영상과 상기 미확보 영역에 대해 생성된 영상으로부터 상기 제 2 화면 규격을 갖는 동영상을 출력하는 명령을 포함하는, 영상 처리 장치.
  15. 제 14 항에 있어서,
    상기 메모리에 저장된 프로그램은,
    상기 제 2 화면 규격을 목표로 하여 화면비(aspect ratio), 해상도(resolution), 및 화각(angle of view) 중 적어도 하나를 포함하는 화면 규격의 차이로 인해 상기 제 1 화면 규격이 보유하지 못하고 있는 영상 영역을 미확보 영역으로 설정하는, 영상 처리 장치.
  16. 제 14 항에 있어서,
    상기 메모리에 저장된 프로그램은,
    상기 제 1 화면 규격의 동영상에 포함된 하나의 기준 프레임에 대하여 상기 기준 프레임에 시간적으로 선행하거나 후행하는 인접 프레임들과의 유사도를 각각 산출하고,
    상기 인접 프레임들로부터 산출된 유사도가 임계치 이상인 경우, 임계치 이상의 인접 프레임을 새로운 기준 프레임으로 설정하여 다시 인접 프레임들과의 유사도를 각각 산출하고 새롭게 산출된 유사도가 상기 임계치 이상인지를 검사하는 과정을 연쇄적으로 반복함으로써 유사도가 임계치 이상인 프레임만을 최초의 기준 프레임에 대한 유사 프레임 그룹으로 설정하며,
    상기 제 1 화면 규격의 동영상에 포함된 모든 프레임에 대하여 상기 유사도를 각각 산출하는 과정 및 상기 유사 프레임 그룹으로 설정하는 과정을 수행하여 프레임별로 유사 프레임 그룹을 도출하는, 영상 처리 장치.
  17. 제 14 항에 있어서,
    상기 메모리에 저장된 프로그램은,
    상기 제 1 화면 규격의 동영상에 포함된 모든 프레임에 대하여 순차적으로 인접 프레임들 간의 유사도를 각각 산출하고,
    산출된 유사도가 임계치 이상인 값이 시계열적으로 연속하는 프레임 구간에 대하여 각각의 구간별로 유사도가 임계치 이상인 프레임만을 포함하는 유사 프레임 그룹으로 설정하는, 영상 처리 장치.
  18. 제 14 항에 있어서,
    상기 메모리에 저장된 프로그램은,
    입력된 상기 제 1 화면 규격의 동영상에 포함된 현재 프레임에 대하여 상기 유사 프레임 그룹 내에 포함된 유사 프레임과 현재 프레임 간의 기하학적 관계를 이용하여 상기 유사 프레임 및 상기 현재 프레임 각각으로부터 특징점(keypoint)을 추출하고 추출된 특징점을 기준으로 양자의 영상을 매칭함으로써 상기 현재 프레임을 확장하고,
    입력된 상기 제 1 화면 규격의 동영상에 포함된 모든 프레임에 대하여 상기 현재 프레임을 확장하는 과정을 수행하여 상기 미확보 영역에 대한 영상을 생성하는, 영상 처리 장치.
  19. 제 18 항에 있어서,
    상기 메모리에 저장된 프로그램은,
    상기 현재 프레임을 확장하는 과정을 통해 상기 미확보 영역에 대한 영상이 생성되지 않은 경우 GAN(Generative Adversarial Network) 또는 오토인코더(Autoencoder)를 이용하여 상기 미확보 영역에 대한 영상을 보충하는, 영상 처리 장치.
  20. 제 14 항에 있어서,
    상기 메모리에 저장된 프로그램은,
    상기 제 1 화면 규격의 동영상에 포함된 모든 프레임에 대하여 각각 원본 영상과 상기 미확보 영역에 대해 생성된 영상을 결합하여 상기 제 2 화면 규격을 갖는 영상으로 변환하는, 영상 처리 장치.
KR1020210034698A 2021-03-17 2021-03-17 영상 영역 밖의 정보를 생성하는 영상 처리 장치 및 방법 Active KR102492430B1 (ko)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020210034698A KR102492430B1 (ko) 2021-03-17 2021-03-17 영상 영역 밖의 정보를 생성하는 영상 처리 장치 및 방법

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020210034698A KR102492430B1 (ko) 2021-03-17 2021-03-17 영상 영역 밖의 정보를 생성하는 영상 처리 장치 및 방법

Publications (2)

Publication Number Publication Date
KR20220129852A true KR20220129852A (ko) 2022-09-26
KR102492430B1 KR102492430B1 (ko) 2023-01-30

Family

ID=83452596

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020210034698A Active KR102492430B1 (ko) 2021-03-17 2021-03-17 영상 영역 밖의 정보를 생성하는 영상 처리 장치 및 방법

Country Status (1)

Country Link
KR (1) KR102492430B1 (ko)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN117274863A (zh) * 2023-09-20 2023-12-22 格兰菲智能科技有限公司 图像绘制质量检测方法、装置、计算机设备、介质和产品

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2025187934A1 (ko) * 2024-03-06 2025-09-12 삼성전자 주식회사 동영상의 출력 영역을 확장하는 방법 및 이를 수행하기 위한 장치

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20110026942A (ko) 2009-09-09 2011-03-16 부경대학교 산학협력단 저해상도 영상의 손실 정보 추정 방법과 고해상도 영상 변환 방법
KR20150011938A (ko) * 2013-07-24 2015-02-03 한국전자통신연구원 멀티-카메라 플랫폼 기반으로 캡쳐된 파노라마 영상의 안정화 방법 및 장치
JP2015070328A (ja) * 2013-09-26 2015-04-13 キヤノン株式会社 撮像装置およびその制御方法
KR20190088406A (ko) * 2018-01-04 2019-07-26 삼성전자주식회사 영상 재생 장치 및 그의 제어 방법

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20110026942A (ko) 2009-09-09 2011-03-16 부경대학교 산학협력단 저해상도 영상의 손실 정보 추정 방법과 고해상도 영상 변환 방법
KR20150011938A (ko) * 2013-07-24 2015-02-03 한국전자통신연구원 멀티-카메라 플랫폼 기반으로 캡쳐된 파노라마 영상의 안정화 방법 및 장치
JP2015070328A (ja) * 2013-09-26 2015-04-13 キヤノン株式会社 撮像装置およびその制御方法
KR20190088406A (ko) * 2018-01-04 2019-07-26 삼성전자주식회사 영상 재생 장치 및 그의 제어 방법

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN117274863A (zh) * 2023-09-20 2023-12-22 格兰菲智能科技有限公司 图像绘制质量检测方法、装置、计算机设备、介质和产品

Also Published As

Publication number Publication date
KR102492430B1 (ko) 2023-01-30

Similar Documents

Publication Publication Date Title
US10958854B2 (en) Computer-implemented method for generating an output video from multiple video sources
Feng et al. SGANVO: Unsupervised deep visual odometry and depth estimation with stacked generative adversarial networks
US10542249B2 (en) Stereoscopic video generation method based on 3D convolution neural network
KR100931311B1 (ko) 프레임 간 깊이 연속성 유지를 위한 깊이 추정 장치 및 그방법
CA2636858A1 (en) Methods and systems for digitally re-mastering of 2d and 3d motion pictures for exhibition with enhanced visual quality
KR20190030870A (ko) 가상 크로마키 배경을 이용하여 영상을 합성하는 장치, 방법 및 컴퓨터 프로그램
US20150036945A1 (en) Reconstruction of Missing Regions Of Images
CN115967823B (zh) 视频封面生成方法、装置、电子设备及可读介质
CN110930310A (zh) 全景图像拼接方法
KR100987412B1 (ko) 멀티프레임을 고려한 비디오 오브젝트 매팅 시스템 및 방법
KR100960694B1 (ko) 다시점 영상 매팅 시스템과 방법 및 이를 수록한 저장매체
CN104661014B (zh) 时空结合的空洞填充方法
KR20220129852A (ko) 영상 영역 밖의 정보를 생성하는 영상 처리 장치 및 방법
CN109600667B (zh) 一种基于网格与帧分组的视频重定向的方法
CN110996173B (zh) 一种图像数据处理方法、装置及存储介质
KR102443630B1 (ko) 영상 비율을 확장 또는 축소하기 위한 영상 리타겟팅 방법 및 장치
JP5421939B2 (ja) 色補正装置、色補正方法及び色補正プログラム
KR101544156B1 (ko) 동영상 리타겟팅 방법 및 이러한 기능이 탑재된 동영상 장치
JP2022190958A (ja) ショット境界検出装置、ショット境界学習装置及びそれらのプログラム
JP2022103836A (ja) 情報処理装置、情報処理方法及びプログラム
CN119206422B (zh) 一种视频空间扩展方法、装置、设备及存储介质
KR101826463B1 (ko) 동영상의 시간 축을 동기화하기 위한 방법 및 장치
US11893688B2 (en) Method of fusing mesh sequences within volumetric video
KR102404894B1 (ko) 다시점 영상 정보원으로부터 출력 시점 생성을 위한 입력 시점 선택 시스템
KR101169786B1 (ko) 내용 기반의 동영상 크기 조절 방법 및 장치

Legal Events

Date Code Title Description
PA0109 Patent application

St.27 status event code: A-0-1-A10-A12-nap-PA0109

PA0201 Request for examination

St.27 status event code: A-1-2-D10-D11-exm-PA0201

D13-X000 Search requested

St.27 status event code: A-1-2-D10-D13-srh-X000

D14-X000 Search report completed

St.27 status event code: A-1-2-D10-D14-srh-X000

E902 Notification of reason for refusal
PE0902 Notice of grounds for rejection

St.27 status event code: A-1-2-D10-D21-exm-PE0902

PG1501 Laying open of application

St.27 status event code: A-1-1-Q10-Q12-nap-PG1501

R17-X000 Change to representative recorded

St.27 status event code: A-3-3-R10-R17-oth-X000

T11-X000 Administrative time limit extension requested

St.27 status event code: U-3-3-T10-T11-oth-X000

P11-X000 Amendment of application requested

St.27 status event code: A-2-2-P10-P11-nap-X000

P13-X000 Application amended

St.27 status event code: A-2-2-P10-P13-nap-X000

E701 Decision to grant or registration of patent right
PE0701 Decision of registration

St.27 status event code: A-1-2-D10-D22-exm-PE0701

PR0701 Registration of establishment

St.27 status event code: A-2-4-F10-F11-exm-PR0701

PR1002 Payment of registration fee

St.27 status event code: A-2-2-U10-U11-oth-PR1002

Fee payment year number: 1

PG1601 Publication of registration

St.27 status event code: A-4-4-Q10-Q13-nap-PG1601

P22-X000 Classification modified

St.27 status event code: A-4-4-P10-P22-nap-X000

PN2301 Change of applicant

St.27 status event code: A-5-5-R10-R13-asn-PN2301

St.27 status event code: A-5-5-R10-R11-asn-PN2301