KR101110276B1 - Image processing device and image processing methods using multiple screens - Google Patents
Image processing device and image processing methods using multiple screens Download PDFInfo
- Publication number
- KR101110276B1 KR101110276B1 KR1020090130435A KR20090130435A KR101110276B1 KR 101110276 B1 KR101110276 B1 KR 101110276B1 KR 1020090130435 A KR1020090130435 A KR 1020090130435A KR 20090130435 A KR20090130435 A KR 20090130435A KR 101110276 B1 KR101110276 B1 KR 101110276B1
- Authority
- KR
- South Korea
- Prior art keywords
- image
- screen
- display device
- shadow
- image processing
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Expired - Fee Related
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/14—Digital output to display device ; Cooperation and interconnection of the display device with other functional units
- G06F3/1423—Digital output to display device ; Cooperation and interconnection of the display device with other functional units controlling a plurality of local displays, e.g. CRT and flat panel display
- G06F3/1446—Digital output to display device ; Cooperation and interconnection of the display device with other functional units controlling a plurality of local displays, e.g. CRT and flat panel display display composed of modules, e.g. video walls
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N5/00—Details of television systems
- H04N5/222—Studio circuitry; Studio devices; Studio equipment
- H04N5/262—Studio circuits, e.g. for mixing, switching-over, change of character of image, other special effects ; Cameras specially adapted for the electronic generation of special effects
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N5/00—Details of television systems
- H04N5/44—Receiver circuitry for the reception of television signals according to analogue transmission standards
- H04N5/445—Receiver circuitry for the reception of television signals according to analogue transmission standards for displaying additional information
- H04N5/44504—Circuit details of the additional information generator, e.g. details of the character or graphics signal generator, overlay mixing circuits
Landscapes
- Engineering & Computer Science (AREA)
- Multimedia (AREA)
- Theoretical Computer Science (AREA)
- Signal Processing (AREA)
- Human Computer Interaction (AREA)
- Physics & Mathematics (AREA)
- General Engineering & Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Computer Graphics (AREA)
- Controls And Circuits For Display Device (AREA)
Abstract
제1 이미지를 표시하도록 되어 있는 제1 영상표시장치, 및 제2 이미지를 특정 방향을 향해 공간 투영하도록 되어 있는 제2 영상표시장치를 포함하는 영상처리장치가 공개된다. 특정 방향은 제1 이미지에 대해 설정된 광원의 방향을 결정하는 하나 이상의 파라미터에 의해 결정된다. 제2 이미지는 제1 이미지의 그림자 형태를 가질 수 있다.An image processing apparatus including a first image display apparatus adapted to display a first image and a second image display apparatus adapted to spatially project a second image toward a specific direction are disclosed. The particular direction is determined by one or more parameters that determine the direction of the light source set for the first image. The second image may have a shadow shape of the first image.
영상처리, 스크린 Image processing, screen
Description
본 발명은 영상처리장치 및 영상처리방법에 관한 것으로서, 특히 여러 개의 스크린을 사용하는 영상처리장치 및 영상처리방법에 관한 것이다.The present invention relates to an image processing apparatus and an image processing method, and more particularly, to an image processing apparatus and an image processing method using a plurality of screens.
부분적 또는 전체적으로 폐쇄된 공간에 적절히 선택된 이미지 또는 동영상을 제공함으로써 그 공간에 있는 사람에게 쾌적한 환경을 제공할 수 있다. 이를 위해 CRT, PDP, LCD, OLED, 프로젝터와 같은 표시장치를 사용하여 이미지 또는 동영상 등을 표시할 수 있다.Providing an appropriately selected image or video in a partially or totally enclosed space can provide a pleasant environment for the person in that space. To this end, an image or video can be displayed using display devices such as CRT, PDP, LCD, OLED, and projector.
이미지 또는 동영상은 저장매체에 미리 저장되어 있다가 표시장치에 한번 또는 반복하여 재생될 수 있다. 상영시간이 긴 동영상을 재생하고자 할 경우에는 이 동영상을 저장하기 위한 저장매체의 용량이 증가되는 문제점이 있다. 반면, 상영시간이 짧은 동영상을 반복하여 재생하는 경우에는 이 동영상을 반복 관찰하는 사람이 지루함을 느끼게 되는 단점이 있다. 또한, 저장된 이미지만을 상영하는 경우에는 관찰자는 현장감이 부족하다고 느낄 수 있다.The image or video may be pre-stored in a storage medium and reproduced once or repeatedly on the display device. If you want to play a video with a long running time, there is a problem that the capacity of the storage medium for storing the video is increased. On the other hand, if a video having a short running time is repeatedly played, a person who observes the video repeatedly feels bored. In addition, when only the stored image is screened, the observer may feel lack of realism.
본 발명이 해결하고자 하는 일 과제는 연관된 이미지를 여러 개의 스크린에 동시에 표시하는 데에 있다.One problem to be solved by the present invention is to display the associated image on several screens at the same time.
그러나, 본 발명의 목적은 위에 언급한 것으로 제한되지 않으며, 언급되지 않은 또 다른 목적들은 아래의 기재로부터 본 발명이 속하는 기술 분야의 통상의 지식을 가진 자에게 명확하게 이해될 수 있을 것이다.However, the object of the present invention is not limited to those mentioned above, and other objects, which are not mentioned above, will be clearly understood by those skilled in the art from the following description.
상술한 과제를 해결하기 위한 본 발명의 일 양상에 따른 영상처리장치는, 제1 이미지를 표시하도록 되어 있는 제1 영상표시장치, 및 제2 이미지를 특정 방향을 향해 공간 투영(spatial projection)하도록 되어 있는 제2 영상표시장치를 포함하며, 상기 특정 방향은 상기 제1 이미지에 대해 설정된 광원의 방향을 결정하는 하나 이상의 파라미터에 의해 결정된다. An image processing apparatus according to an aspect of the present invention for solving the above problems is to perform a spatial projection of the first image display device and the second image to display a first image toward a specific direction And a second image display device, wherein the specific direction is determined by one or more parameters that determine a direction of a light source set for the first image.
상기 하나 이상의 파라미터는 위도, 시각, 날짜, 및 방향각 중 하나 이상을 포함하여 구성될 수 있다. 상기 제1 이미지는 제1 서브이미지를 포함하고, 상기 제2 이미지는 상기 제1 서브이미지의 그림자에 대응되는 제2 서브이미지를 포함할 수 있다. 상기 제2 이미지는 상기 제2 영상표시장치에 의해 투영되는 전체 이미지의 일부분일 수 있다. 상기 제2 이미지는 상기 제2 영상표시장치의 렌즈에 의해 투영되는 전체 이미지이며, 상기 렌즈는 상기 투영 방향에 따라 회전 가능하도록 되어 있을 수 있다.The one or more parameters may comprise one or more of latitude, time of day, date, and direction angle. The first image may include a first subimage, and the second image may include a second subimage corresponding to a shadow of the first subimage. The second image may be a part of the entire image projected by the second image display device. The second image may be an entire image projected by the lens of the second image display device, and the lens may be rotatable in accordance with the projection direction.
본 발명의 다른 양상에 따른 영상처리장치는, 제1 이미지를 표시하도록 되어 있는 제1 영상표시장치, 및 제2 이미지를 포함하는 이미지를 표시하도록 되어 있는 제2 영상표시장치를 포함하며, 상기 제2 이미지의 모양 및 위치는 상기 제1 이미지에 대해 설정된 광원의 방향을 결정하는 하나 이상의 파라미터에 의해 결정된다. 상기 제1 이미지는 제1 서브이미지를 포함하고, 상기 제2 이미지는 상기 제1 서브이미지의 그림자에 대응되는 제2 서브이미지를 포함할 수 있다.An image processing apparatus according to another aspect of the present invention includes a first image display apparatus adapted to display a first image, and a second image display apparatus adapted to display an image including a second image. The shape and position of the two images is determined by one or more parameters that determine the direction of the light source set for the first image. The first image may include a first subimage, and the second image may include a second subimage corresponding to a shadow of the first subimage.
본 발명의 다른 양상에 의한 영상처리방법은, 제1 영상표시장치에서 제1 이미지를 표시하는 단계, 및 제2 영상표시장치에서 제2 이미지를 특정 방향을 향해 공간 투영하는 단계를 포함하며, 상기 특정 방향은 상기 제1 이미지에서 표현되는 빛의 방향을 결정하는 하나 이상의 파라미터에 의해 결정된다. 상기 제1 이미지는 제1 서브이미지를 포함하고, 상기 제2 이미지는 상기 제1 서브이미지의 그림자에 대응되는 제2 서브이미지를 포함할 수 있다.An image processing method according to another aspect of the present invention includes displaying a first image on a first image display device, and spatially projecting the second image toward a specific direction on the second image display device. The particular direction is determined by one or more parameters that determine the direction of light represented in the first image. The first image may include a first subimage, and the second image may include a second subimage corresponding to a shadow of the first subimage.
본 발명의 다른 양상에 의한 영상처리장치는, 데이터 처리부를 포함하고, 상기 데이터 처리부는 제1 영상표시장치에서 표시되는 제1 이미지를 생성하고, 제2 영상표시장치에서 특정 방향을 향해 공간 투영되는 제2 이미지를 생성하도록 되어 있고, 상기 특정 방향은 상기 제1 이미지에 대해 설정된 광원의 방향을 결정하는 하나 이상의 파라미터에 의해 결정된다. 이 영상처리장치는 데이터 획득부, 스크린, 영상표시장치, 및 커버를 선택적으로 더 포함할 수 있다.An image processing apparatus according to another aspect of the present invention includes a data processing unit, wherein the data processing unit generates a first image displayed on a first image display device, and spatially projects a specific direction on the second image display device. A second image is generated, wherein the specific direction is determined by one or more parameters that determine the direction of the light source set for the first image. The image processing apparatus may optionally further include a data acquisition unit, a screen, an image display apparatus, and a cover.
본 발명에 따르면 연관된 이미지를 여러 개의 스크린에 동시에 사실적으로 표시할 수 있다.According to the invention it is possible to realistically display the associated image simultaneously on several screens.
그러나, 본 발명에 의해 달성될 수 있는 효과가 이에 한정되는 것은 아니다.However, the effects that can be achieved by the present invention are not limited thereto.
본 발명의 효과는 이상에서 언급한 것으로 제한되지 않으며, 언급되지 않은 또 다른 효과들은 아래의 기재로부터 본 발명이 속하는 기술 분야의 통상의 지식을 가진 자에게 명확하게 이해될 수 있을 것이다.The effects of the present invention are not limited to those mentioned above, and other effects that are not mentioned will be clearly understood by those skilled in the art from the following description.
본 명세서에는 본 발명의 실시예들을 제공하기 위한 참조번호가 제공된다. 이 참조번호는 본 발명의 명세서에 첨부된 도면에 도시되어 있으며, 발명의 상세한 설명은 첨부된 도면을 참조하여 설명될 수 있다. 각 도면에서 동일한 구성요소는 동일한 참조번호를 갖는다. 발명의 상세한 설명에서 참조번호는 괄호 안에 표시된다. DETAILED DESCRIPTION Herein, reference numerals are provided to provide embodiments of the present invention. The reference numerals are shown in the accompanying drawings of the present invention, the detailed description of the invention can be described with reference to the accompanying drawings. Like elements in each drawing have like reference numerals. In the description of the invention reference numerals are indicated in parentheses.
이하 첨부된 도면을 참조하여 본 발명의 일 실시예에 따른 영상처리장치 및 영상처리방법에 대하여 상세하게 설명한다. 이하의 구체적인 실시예는 본 발명에 따른 영상처리장치 및 영상처리방법을 예시적으로 설명하는 것일 뿐, 본 발명의 범위를 제한하는 것으로 의도되지 아니한다. 본 발명을 설명함에 있어, 관련된 공지 구성 또는 기능에 대한 구체적인 설명이 본 발명의 요지를 흐릴 수 있다고 판단되는 경우에는 그 상세한 설명을 생략한다.Hereinafter, an image processing apparatus and an image processing method according to an embodiment of the present invention will be described in detail with reference to the accompanying drawings. The specific embodiments below are merely illustrative of the image processing apparatus and the image processing method according to the present invention, and are not intended to limit the scope of the present invention. In describing the present invention, when it is determined that the detailed description of the related well-known configuration or function may obscure the gist of the present invention, the detailed description thereof will be omitted.
본 문서에서 '동영상'은 시간에 따라 변화하는 일련의 '이미지'를 나타내는 용어로서 사용될 수 있다. 이에 비해, '이미지'는 특정 시각에 표시되는 정지 영상을 나타내는 용어로서 사용될 수 있다. 본 문서에서 '영상'은 상기 '이미지' 및 ' 동영상'의 개념을 포함할 수 있으며, '영상처리장치' 및 '영상처리방법'이라는 용어는 상기 '이미지' 및/또는 상기 '동영상'과 관련되어 사용될 수 있다.In this document, 'video' may be used as a term for a series of 'images' that change with time. In contrast, 'image' may be used as a term indicating a still image displayed at a specific time. In this document, the term 'image' may include the concepts of 'image' and 'video', and the terms 'image processing apparatus' and 'image processing method' are related to the 'image' and / or the 'video'. Can be used.
실내와 실외를 구분하는 벽에 형성되는 창(窓)을 통해 환기, 채광, 및 외부 전망과 같은 기능이 제공될 수 있다. 일반적으로 이러한 기능을 통해 실내에 있는 사람에게 긍정적인 영향을 줄 수 있다. 본 발명의 일 실시예에 따른 영상표시장치는 창을 통해 보여지는 가상의 외부환경을 이미지 또는 동영상으로써 표시할 수 있다. 이때 상(像)이 맺히는 스크린은 실내에 설치될 수 있다. 여기서 실내는 실외와 부분적 또는 전체적으로 불투명한 벽에 의해 격리된 공간일 수 있다.Through windows formed on the walls separating indoor and outdoor, functions such as ventilation, light, and external views can be provided. In general, these features can have a positive impact on people in the room. The image display device according to an embodiment of the present invention may display a virtual external environment viewed through a window as an image or a video. In this case, the screen in which the image is formed may be installed indoors. Here, the interior may be a space separated from the outside by a partially or wholly opaque wall.
본 발명의 일 실시예에서, PDP 디스플레이, LCD, OLED 디스플레이, CRT 모니터와 같은 영상표시장치는 일반적으로 스크린과 일체의 기기로서 제공될 수 있다. 이때, 스크린은 영상이 표시되는 가상의 면을 지칭할 수 있다. In one embodiment of the present invention, a video display device such as a PDP display, LCD, OLED display, CRT monitor can generally be provided as an integrated device with a screen. In this case, the screen may refer to a virtual surface on which an image is displayed.
이와 다르게, 본 발명의 일 실시예에서, 프로젝터와 같은 영상표시장치는 스크린과 별도의 기기로서 제공될 수 있다. 이때, 스크린은, 예를 들어 백색의 천 또는 종이와 같이 실제로 이미지가 맺힐 수 있는 실존하는 면 및/또는 가상의 면을 지칭할 수 있다.Alternatively, in one embodiment of the present invention, an image display device such as a projector may be provided as a separate device from the screen. In this case, the screen may refer to an existing surface and / or a virtual surface to which an image can actually be formed, for example, a white cloth or paper.
도 1은 본 발명의 일 실시예에 따른 영상표시장치(1)가 설치된 모습을 나타낸 도면이다.1 is a view showing a state in which the
도 1의 (a), (b)를 참조하면, 본 발명의 일 실시예에 따른 영상표시장치(1)는 실내에 설치되거나 또는 벽(15)에 설치될 수 있다. 상기 실내는 벽(15)에 의해 실외와 구분될 수 있다. 상기 실내는 측벽(12), 천장(13), 및 바닥(14)에 의해 실 외와 구분될 수 있다. 도 1의 (a)에서 영상표시장치(1)와 이에 연결되는 스크린(2)이 별도의 장치로 제공된다면, 영상표시장치(1)는 실외에서 제공되고 스크린(2)만이 실내 또는 벽(15) 등에 설치될 수도 있다.Referring to FIGS. 1A and 1B, an
영상표시장치(1)는 PDP 디스플레이, LCD, OLED 디스플레이, CRT 모니터와 같은 장치일 수 있다. 영상표시장치(1)는 측벽(12), 천장(13), 바닥(14), 및 벽(15) 중 어느 하나에 매립되거나, 매달리거나, 또는 그 근처에 가까이에 고정되는 방식으로 설치될 수 있다. 영상표시장치(1)는 스크린(2) 상에 영상을 표시할 수 있다. 이때, 스크린(2)은 영상표시장치(1)와 결합되어 단일의 장치로서 공급될 수도 있고, 또는 별개의 장치로서 공급될 수도 있다. The
도 1의 (b)를 살펴보면, 영상표시장치(1)는 프로젝터와 같은 프로젝션 방식의 장치일 수 있다. 영상표시장치(1)는 측벽(12), 천장(13), 및 바닥(14)의 임의의 한 지점(A)에 설치될 수 있다. 영상표시장치(1)는 벽(15)에 설치된 스크린(2)에 영상을 투영할 수 있다. Referring to FIG. 1B, the
이 실시예의 변형된 예에서, 도 1의 (b)에 도시된 것과는 달리, 벽(15)의 안 쪽에 오목한 공간을 형성하고(미도시), 영상표시장치(1)를 상기 오목한 공간에 설치하여 스크린(2)에 영상을 투영할 수도 있다. 이 경우 영상표시장치(1)는 상기 스크린(2)에 가려 보이지 않을 수 있다.In a modified example of this embodiment, unlike shown in FIG. 1B, a concave space is formed inside the wall 15 (not shown), and the
도 1에 따른 본 발명의 일 실시예에 있어서, 상기 투영된 영상이 마치 실생활에 있어서 실제 창을 통해 보여지는 외부환경의 이미지인 것과 같은 효과를 낼 수 있도록 스크린(2)을 벽(15)에 최대한 가까이 위치시킬 수 있다. 또한, 마치 실 제 창이 존재하는 것처럼 보이기 위해 스크린(2) 주변에 나무 또는 금속과 같은 재료로 형성된 창틀(20) 구조체를 선택적으로 형성할 수도 있다.In an embodiment of the invention according to FIG. 1, the
본 발명의 일 실시예에 있어서, 스크린(2)에 표시되는 영상은 본 발명의 일 실시예에 따른 영상처리장치(도 1에 미도시, 도 2의 참조번호 3 참조)에 의해 생성될 수 있다. 영상처리장치(3)는 영상표시장치(1)와 결합되어 단일의 기기로서 제공될 수 있다. 또는, 영상처리장치(3)는 영상표시장치(1)와 분리된 별개의 기기로서 제공되어, 영상표시장치(1)에 물리적으로 및/또는 전기적으로 연결될 수도 있다.In an embodiment of the present invention, the image displayed on the
본 발명이 상술한 영상표시장치(1)의 구체적인 종류에 의해 한정되지 않는 다는 것을 쉽게 이해할 수 있다.It can be easily understood that the present invention is not limited to the specific type of the
도 2는 본 발명의 일 실시예에 따른 영상표시장치(1) 및 영상처리장치(3)의 구성을 나타내는 블록도이다.2 is a block diagram showing the configuration of an
영상처리장치(3)는 데이터 처리부(301) 및 데이터 획득부(302)를 포함할 수 있다. The
데이터 처리부(301)는 데이터 획득부(302)로부터 이미지 생성에 필요한 각종 정보들을 전달받을 수 있다. 데이터 처리부(301)에 의해 생성되는 이미지는 하나 이상의 이미지 레이어들로 구성된 합성 이미지일 수 있다. 상기 각각의 이미지 레이어는 상기 정보들 중 하나 이상을 이용하여 미리 결정된 규칙에 의해 생성될 수 있다.The
이하, 상기 합성 이미지 생성에 필요한 정보들을 획득하기 위한 데이터 획득부(302)의 구성을 예를 들어 설명한다. 이때, 상기 합성 이미지 생성에 필요한 정 보는 기후, 생태 정보, 시각, 날씨, 태양 복사량, 강수량, 적설량, 기온, 풍향, 풍속, 습도, 파고, 위도, 경도, 날짜, 광원의 방향과 같은 정보들을 포함하는 기상 및/또는 환경 정보일 수 있다.Hereinafter, the configuration of the
첫 번째 구성에서, 데이터 획득부(302)는 통신채널(303) 및 통신망(304)을 통해 상기 합성 이미지 생성에 필요한 정보들을 요청 및/또는 수신할 수 있다. 통신채널(303)은 통신분야에서 잘 알려져 있는 무선채널 또는 유선채널일 수 있다. 데이터 획득부(302)는 통신망(304)에 연결되어 있는 서버(306)로부터 상기 합성 이미지 생성에 필요한 정보를 수신할 수 있다. 통신망(304)은 예를 들어 인터넷일 수 있다. 상기 합성 이미지 생성에 필요한 정보들은 기상청에 의해 서버(306)에게 제공될 수 있다. 서버(306)는 상기 기상청에 의해 관리되거나 또는 상기 기상청과는 다른 주체에 의해 관리될 수 있다.In the first configuration, the
두 번째 구성에서, 데이터 획득부(302)는 통신채널(303)을 통해 센서(305)로부터 상기 합성 이미지 생성에 필요한 정보들을 요청 및/또는 수신할 수 있다. 센서(305)는 상기 합성 이미지 생성에 필요한 정보들을 수집하기에 적합한 잘 알려진 기기들로 구성될 수 있다. 예를 들어, 상기 기기는 온도계, 풍향계, 풍속계, 습도계, GPS 모듈, 시계, 태양광량 측정장치, 강우계, 적설량계, 파고 측정계 등일 수 있다. In a second configuration, the
세 번째 구성에서, 영상처리장치(3)는 사용자 입력부(310)를 더 포함할 수 있다. 사용자 입력부(310)는 키보드, 마우스, 터치패널 등과 같이 종래에 잘 알려진 각종 사용자 입력 수단일 수 있다. 사용자는 사용자 입력부(310)를 통해 상기 합성 이미지 생성에 필요한 각종 정보들, 예를 들어 기후, 생태 정보, 시각, 날씨, 태양 복사량, 강수량, 적설량, 기온, 풍향, 풍속, 습도, 파고, 위도, 경도, 날짜, 광원의 방향과 같은 정보를 입력할 수 있다. 상기 기후, 생태 정보, 위도, 경도와 같은 정보는 지역을 특정하는 정보로서 사용될 수 있다. 사용자 입력부(310)를 통해 입력된 정보는 데이터 획득부(302)에게 전달될 수 있다.In a third configuration, the
데이터 처리부(301)는 상기 합성 이미지 생성에 필요한 정보들을 사용하여 합성 이미지를 생성한 후에, 생성된 합성 이미지를 영상표시장치(1)에게 전달할 수 있다.The
본 발명의 일 실시예에 따르면 영상표시장치(1), 스크린(2), 및 영상처리장치(3)가 일체로 결합되어 있을 수 있다. 또는 본 발명의 다른 실시예에 따르면, 영상표시장치(1)는 스크린(2)과 일체로 결합되어 제공되는 한편, 영상처리장치(3)는 셋톱 박스(set-top box)와 같은 별개의 기기로 제공될 수 있다.According to an embodiment of the present invention, the
프로젝터와 같은 프로젝션 방식의 영상기기에는 영상표시장치(1)와 스크린(2)은 각각 별개의 기기로서 제공될 수 있다. 즉, 예를 들어, 영상표시장치(1)는 프로젝션 렌즈를 포함하는 장치를 의미하고, 스크린(2)은 상기 렌즈를 통해 방출된 영상이 투영될 수 있는 백색 스크린일 수 있다. 이때, 영상처리장치(3)는 영상표시장치(1)와 일체로 결합되어 단일 기기로서 제공될 수도 있고, 아니면 영상처리장치(3)는 셋톱 박스와 같은 별개의 기기로서 제공될 수 있다.In a projection type imaging apparatus such as a projector, the
영상처리장치(3)는 선택적으로 음향 출력부(320)를 더 포함할 수 있다. 이때, 음향 출력부(320)는 데이터 처리부(301)에 연결될 수 있다. 데이터 처리 부(301)는 데이터 획득부(302)로부터 수신한 상기 합성 이미지 생성에 필요한 정보를 사용하여 음향 출력 신호를 음향 출력부(320)에게 전달할 수 있다. 예를 들어, 상기 합성 이미지에 비가 내리는 장면이 포함되는 경우에, 데이터 처리부(301)는 비 내리는 소리를 음향 출력부(320)에게 전달할 수 있다.The
도 2에 도시하고 설명한 데이터 획득부(302)는 통신부라는 용어로 대체될 수 있다.The
도 3 및 도 4는 본 발명의 일 실시예에 따른 합성 이미지 생성 과정을 설명하기 위한 것으로서, 영상처리장치가 하나 이상의 이미지 레이어들로 구성된 합성 이미지를 생성하는 방법을 설명하기 위한 것이다.3 and 4 illustrate a process of generating a composite image according to an exemplary embodiment of the present invention, and illustrate a method of generating a composite image including one or more image layers by the image processing apparatus.
상기 합성 이미지 또는 하나 이상의 이미지 레이어들의 생성에 필요한 정보는 표 1에 나열한 파라미터들로 구성될 수 있다. 표 1에 예시한 파라미터는 예시를 위한 것일 뿐이므로 표 1에 의해 본 발명이 한정되는 것은 아니다.Information necessary for generating the composite image or one or more image layers may be composed of the parameters listed in Table 1. The parameters illustrated in Table 1 are for illustration only, and thus the present invention is not limited by Table 1.
표 1을 살펴보면, 파라미터 Pecology 내지 Pdate 는 서로 다른 속성을 가지며, 이산(離散, discrete)적인 값을 할당 받을 수 있다. 예를 들어, 생태 속성을 갖는 파라미터 Pecology 은 0 내지 5의 정수 값을 가지며, 이 중 예를 들어 Pecology ='대나무(0)'인 경우 대나무가 존재하는 환경을 나타낸다. 파라미터 Prain 내지 Pdate 에 대해서도 마찬가지이다. 표 1에서의 풍속을 나타내는 파라미터 Pwind _ velocity는 수평방향 풍속을 나타낼 수 있다.Referring to Table 1, parameters P ecology to P date have different attributes and may be assigned discrete values. For example, the parameter P ecology having an ecological property has an integer value of 0 to 5, for example, P ecology = 'bamboo (0)' indicates an environment in which bamboo is present. The same is true for the parameters P rain to P date . The parameter P wind _ velocity representing the wind speed in Table 1 may represent the horizontal wind speed.
파라미터 Ptime, Platitude, 및 Pdirection 은 그 속성에 따른 연속적인 값을 가질 수 있다. 예를 들어, 시각 속성을 갖는 파라미터 Ptime 는 '0h'에서 '24h'까지의 실질적으로 연속적인 값을 가질 수 있다. 파라미터 Platitude 및 Pdirection에 대해서도 마찬가지이다. 파라미터 Pdirection과 관련하여 (x, y, z) 축의 원점(o)이 설정될 수 있다. 원점(o)은 본 발명에 따른 스크린(2)의 근처로 설정될 수 있다. 상기 연속적인 값은 본 발명에 따른 영상처리장치 및/또는 상술한 서버 또는 센서에 의해 편의상 양자화되어 저장되거나 전송될 수 있다.The parameters P time , P latitude , and P direction may have consecutive values according to their attributes. For example, the parameter P time having a visual attribute may have a substantially continuous value from '0h' to '24h'. The same applies to the parameters P latitude and P direction . The origin o of the (x, y, z) axis can be set in relation to the parameter P direction . The origin o can be set near the
어떤 파라미터가 이산값을 갖는지 아니면 연속값을 갖는지 여부는 그 파라미터의 속성뿐만 아니라 영상처리장치의 성능에 따라 결정될 수 있다. 예를 들어, 풍속을 나타내는 파라미터 Pwind _ velocity는 그 속성상 연속값을 가질 수 있지만, 그 값의 처리를 단순화하기 위해 표 1과 같이 이산값을 갖는 것으로 할 수도 있다.Whether a parameter has a discrete value or a continuous value may be determined depending on the performance of the image processing apparatus as well as the attribute of the parameter. For example, the parameter P wind _ velocity indicating the wind speed may have a continuous value in its property, but may have a discrete value as shown in Table 1 to simplify the processing of the value.
표 1에 열거한 하나 이상의 파라미터 값을 사용하여 하나의 이미지 레이어를 생성할 수 있다. 이하, 도 3을 참조하여 상기 하나 이상의 파라미터를 사용하여 이미지 레이어를 생성하는 방법을 설명한다. One image layer can be created using one or more parameter values listed in Table 1. Hereinafter, a method of generating an image layer using the one or more parameters will be described with reference to FIG. 3.
도 3의 (a), (b), (c), (d), (e)는 각각 상기 합성 이미지를 구성하는 N(N=5) 개의 이미지 레이어(L1, L2, L3, L4, L5)를 나타낸다. 도 3은 설명을 위해 예시적으로 도시한 것이므로 이에 의해 본 발명의 범위가 제한되지는 않는다. (A), (b), (c), (d), and (e) of FIG. 3 each represent N (N = 5) image layers L1, L2, L3, L4, and L5 constituting the composite image. Indicates. 3 is illustratively illustrated for purposes of illustration, and thus the scope of the present invention is not limited thereto.
예를 들어, 이미지 레이어(L1)에 매핑되는 이미지는 파라미터 Pecology의 값에 따라 생성될 수 있다. 만일 파라미터 Pecology='초원(1)'이 주어지는 경우에는 이미지 레이어(L1)에는 초원의 이미지가 매핑될 수 있다(도 3의 (a-1)). 이와 달리, 파라미터 Pecology ='대나무(0)'가 주어지는 경우에는 이미지 레이어(L1)에는 대나무의 이미지가 매핑될 수 있다(도 3의 (a-2)). 즉, 이미지 레이어(L1)에 매핑되는 이미지는 파라미터 Pecology 에 의해 생성될 수 있다. For example, an image mapped to the image layer L1 may be generated according to the value of the parameter P ecology . If the parameter P ecology = 'meadow 1' is given, an image of a meadow may be mapped to the image layer L1 ((a-1) of FIG. 3). In contrast, when the parameter P ecology = 'bamboo (0)' is given, an image of bamboo may be mapped to the image layer L1 ((a-2) of FIG. 3). That is, an image mapped to the image layer L1 may be generated by the parameter P ecology .
마찬가지로, 이미지 레이어(L2)에 매핑되는 이미지는 파라미터 Prain 의 값에 따라 생성될 수 있다. 만일 파라미터 Prain ='없음(0)'이 주어지는 경우에는 비가 내리지 않는 상태이기 때문에 이미지 레이어(L2)에는 아무런 이미지가 매핑되지 않을 수 있다(도 3의 (b-1)). 이와 달리, 파라미터 Prain ='보통(2)'이 주어지는 경우에는 보통 세기의 비가 내리는 상태이기 때문에 이미지 레이어(L2)에는 보통 세기의 빗줄기 이미지가 매핑될 수 있다(도 3의 (b-2)). 즉, 이미지 레이어(L2)에 매핑되는 이미지는 파라미터 Pecology 에 의해 생성될 수 있다.Similarly, an image mapped to the image layer L2 may be generated according to the value of the parameter P rain . If the parameter P rain = 'none (0)' is given, since no rain falls, no image may be mapped to the image layer L2 ((b-1) of FIG. 3). On the contrary, when the parameter P rain = 'normal (2)' is given, since the rain of the normal intensity falls, the rain layer image of the normal intensity may be mapped to the image layer L2 (FIG. 3B-2). ). That is, the image mapped to the image layer L2 may be generated by the parameter P ecology .
마찬가지로, 이미지 레이어(L3)에 매핑되는 이미지는 파라미터 Pfalling _ leaves 의 값에 따라 생성될 수 있다. 만일 파라미터 Pfalling _ leaves ='없음(0)'가 주어지는 경우에는 떨어지는 낙엽이 없는 상태이기 때문에 이미지 레이어(L3)에는 아무런 이미지가 매핑되지 않을 수 있다(도 3의 (c-1)). 그러나, 파라미터 Pfalling _ leaves ='소량(1)'이 주어지는 경우에는 떨어지는 낙엽이 조금 존재하는 상태이기 때문에 이미지 레이어(L3)에는 약간의 떨어지는 낙엽의 이미지가 매핑될 수 있다(도 3의 (c-2)). 즉, 이미지 레이어(L3)에 매핑되는 이미지는 파라미터 Pfalling _ leaves 에 의해 생성될 수 있다.Similarly, an image mapped to the image layer L3 may be generated according to the value of the parameter P falling _ leaves . If the parameter P falling _ leaves = 'none (0)' is given, since no falling leaves exist, no image may be mapped to the image layer L3 ((c-1) of FIG. 3). However, when the parameter P falling _ leaves = 'a small amount (1)' is given, since some falling leaves exist, an image of some falling leaves may be mapped to the image layer L3 (FIG. 3C). -2)). That is, the image mapped to the image layer L3 may be generated by the parameter P falling _ leaves .
또한, 이미지 레이어(L4)에 매핑되는 이미지는 파라미터 Pshadow 의 값에 따라 생성될 수 있다. 만일 파라미터 Pshadow ='없음(0)'이 주어지는 경우에는 그림자가 존재하지 않는 상태이므로 이미지 레이어(L4)에는 아무런 이미지가 매핑되지 않을 수 있다(도 3의 (d-1)). 그러나, 파라미터 Pshadow ='있음(1)'이 주어지는 경우에는 그림자가 존재하는 상태이므로 이미지 레이어(L4)에는 그림자가 매핑될 수 있다(도 3의 (d-2)). 이때, 그림자를 만들어 내는 물체의 형상에 따라 그 그림자의 형태가 결정되므로, 그림자를 나타내는 이미지 레이어(L4)에 매핑되는 이미지는 이미지 레이어(L1)에서 특정된 파라미터 Pecology 의 값에 따라 결정될 수 있다. 즉, 상술한 예에서는 파라미터 Pecology ='대나무(0)'이므로 이미지 레이어(L4)에 매핑되는 그림자 이미지는 대나무의 형태를 가질 수 있다. 즉, 이미지 레이어(L4)에 매핑되는 이미지는 파라미터 Pshadow 에 의해 생성될 수 있다. In addition, an image mapped to the image layer L4 may be generated according to the value of the parameter P shadow . If the parameter P shadow = 'none (0)' is given, since no shadow exists, no image may be mapped to the image layer L4 ((d-1) of FIG. 3). However, when the parameter P shadow = 'the present (1)' is given, the shadow may be mapped to the image layer (L4) because the shadow exists (Fig. 3 (d-2)). In this case, since the shape of the shadow is determined according to the shape of the object that casts the shadow, the image mapped to the image layer L4 representing the shadow may be determined according to the value of the parameter P ecology specified in the image layer L1. . That is, in the above example, since the parameter P ecology = 'bamboo (0)', the shadow image mapped to the image layer L4 may have the form of bamboo. That is, the image mapped to the image layer L4 may be generated by the parameter P shadow .
또한, 이미지 레이어(L5)에는 태양의 이미지가 매핑될 수 있는데, 이 이미지는 파라미터 Ptime 의 값에 따라 달라질 수 있다. 파라미터 Ptime ='6h'로 주어지는 경우에는 해가 떠오르기 시작하는 상태를 나타내므로 이미지 레이어(L5)에 매핑되는 태양의 이미지는 s1에 위치할 수 있다. 그러나 이와 달리 파라미터 Ptime ='12h'로 주어지는 경우에는 해가 중천에 뜬 상태를 나타내므로 이미지 레이어(L5)에 매핑되는 태양의 이미지는 s2에 위치할 수 있다. 즉, 이미지 레이어(L5)에 매핑되는 태양 이미지의 위치는 Ptime 의 값에 따라 미리 정해진 경로(r1)의 특정 지점이 될 수 있다.In addition, an image of the sun may be mapped to the image layer L5, which may vary according to the value of the parameter P time . When the parameter P time = '6h' indicates that the sun starts to rise, an image of the sun mapped to the image layer L5 may be located at s1. However, in contrast to this, when the parameter P time = '12h' represents the state of the sun rises in midheaven, the image of the sun mapped to the image layer (L5) may be located in s2. That is, the position of the sun image mapped to the image layer L5 may be a specific point of the predetermined path r1 according to the value of P time .
파라미터 Prain ='없음(0)', Pfalling _ leaves ='없음(0)', Pshadow ='없음(0)'이 주어지는 경우, 위에서는 대응하는 이미지 레이어(L2, L3, L4)에 아무런 이미지가 매핑되지 않는 것으로 설명하였지만, 이와 달리 이 경우 상술한 이미지 레이어(L2, L3, L4)가 아예 생성되지 않을 수도 있다.If the parameters P rain = 'none (0)', P falling _ leaves = 'none (0)', and P shadow = 'none (0)' are given, then the corresponding image layers (L2, L3, L4) Although no image is described as being mapped, in this case, the above-described image layers L2, L3, and L4 may not be generated at all.
이미지 레이어(L1)에 매핑되는 대나무의 이미지와 이미지 레이어(L4)에 매핑되는 그림자의 이미지는 서로 대응되는 관계가 있기 때문에 위와 같이 두 개의 이미지 레이어(L1, L4)에 각각 표현되는 것이 아니라 이 중 하나의 이미지 레이어에 통합되어 표현될 수도 있다. Since the image of the bamboo mapped to the image layer L1 and the image of the shadow mapped to the image layer L4 have a corresponding relationship, they are not represented in the two image layers L1 and L4 as above. It may be expressed by being integrated into one image layer.
상술한 본 발명의 일 실시예에 의하면, 이미지 레이어(L1, L2, L3, L4, L5)에 매핑되는 이미지는 각각 파라미터 Pecology, Prain, Pfalling _ leaves, Pshadow, Ptime 에 의해 생성되었다. 그러나, 이미지 레이어(L1)의 이미지는 두 개 이상의 파라미터에 의해 생성될 수도 있다. 예를 들어, 풍속에 관한 파라미터 Pwind _ velocity 가 추가로 주어지는 경우 상술한 이미지 레이어(L1, L2, L3, L4)의 이미지가 변화될 수 있다.According to an embodiment of the present invention described above, the image mapped to the image layer (L1, L2, L3, L4, L5) is generated by the parameters P ecology , P rain , P falling _ leaves , P shadow , P time , respectively It became. However, the image of the image layer L1 may be generated by two or more parameters. For example, an image of a parameter P _ wind velocity is added to the image layer (L1, L2, L3, L4) described above is given by case on the wind speed can be changed.
예를 들어, 풍속에 관한 파라미터 Pwind _ velocity ='없음(0)'이 주어지고, 위와 같이 파라미터 Pecology ='대나무(0)', Prain ='보통(2)', Pfalling _ leaves ='소량(1)', Pshadow ='있음(1)'로 주어진 경우를 설명한다. 이 때에는 대나무가 존재하고 보통 세기의 비가 내리고 있으며 떨어지는 낙엽이 소량 존재하고 그림자가 존재하며 바람은 없는 상태이다. 이 경우, 이미지 레이어(L1)에는 도 3의 (a-2)와 같이 수직으로 뻗어 있는 대나무의 이미지가 매핑될 수 있고, 이미지 레이어(L2)에는 도 3의 (b-2)와 같이 수직으로 내리고 있는 비의 이미지가 매핑될 수 있고, 이미지 레이어(L3)에는 도 3의 (c-2)와 같이 많이 흩어지지 않고 조용히 떨어지고 있는 낙엽의 이미지가 매핑될 수 있다. For example, given the parameters P wind _ velocity = 'none (0)' for wind speed, and the parameters P ecology = 'bamboo (0)', P rain = 'normal (2)', P falling _ leaves = 'A small amount (1)', P shadow = 'with (1)' will be described. At this time, bamboo is present, rain is falling in the middle of the century, there are small amounts of falling leaves, shadows, and no wind. In this case, an image of bamboo extending vertically as shown in (a-2) of FIG. 3 may be mapped to the image layer L1, and vertically as shown in (b-2) of FIG. 3 to the image layer L2. An image of rain falling may be mapped, and an image of fallen leaves falling quietly may be mapped to the image layer L3 as shown in FIG. 3C-2.
그러나 위와 달리 파라미터 Pwind _ velocity ='강함(3)'이 주어지고 파라미터 Pecology. Prain, Pfalling _ leaves, Pshadow 은 위와 동일한 값을 가질 수도 있다. 이 때에는, 바람이 강한 상태이기 때문에 각 이미지 레이어에 매핑되는 이미지는 상술한 이미지와 다를 수 있다. 즉, 이미지 레이어(L1)에는 도 3의 (a-3)과 같이 수평 방향으로 휜 대나무의 이미지가 매핑될 수 있고, 이미지 레이어(L2)에는 도 3의 (b-3)와 같이 사선으로 내리고 있는 비의 이미지가 매핑될 수 있고, 이미지 레이어(L3)에는 도 3의 (c-3)와 같이 공기 중에 이리저리 날리면서 떨어지고 있는 낙엽의 이미지가 매핑될 수 있다.However, unlike above, the parameter P wind _ velocity = 'strong (3)' is given and the parameter P ecology . P rain , P falling _ leaves , and P shadow may have the same value as above. In this case, since the wind is strong, the image mapped to each image layer may be different from the above-described image. That is, an image of bamboo chopped in the horizontal direction may be mapped to the image layer L1 as shown in FIG. 3A-3, and the image layer L2 is lowered diagonally as shown in FIG. 3B-3. An image of rain may be mapped, and an image of fallen leaves falling while flying in the air may be mapped to the image layer L3 as illustrated in FIG. 3C.
또한, 시각에 관한 파라미터 Ptime 가 주어지는 경우에도 특정 이미지 레이어에 매핑되는 이미지가 변경될 수 있다. 예를 들어, 파라미터 Pecology ='대나무(0)', Pshadow ='있음(1)', Ptime ='7h'로 주어지는 경우에는 대나무가 존재하고 그림자가 존재하며 해가 떠오르는 상태를 나타내므로, 이미지 레이어(L4)에는 서쪽을 가리키는 대나무 그림자의 이미지가 매핑될 수 있다(도 3의 (d-2)). 이와 달리, Pecology ='대나무(0)', Pshadow ='있음(1)', Ptime ='12h'로 주어지는 경우에는 대나무가 존재하고 그림자가 존재하며 해가 중천에 뜬 상태를 나타내므로, 이미지 레이어(L4)에는 북쪽을 가리키는 대나무 그림자의 이미지가 매핑될 수 있다(도 3의 (d-3)). 마찬가지로, Ptime ='18h'로 주어지는 경우에 대나무 그림자의 이미지는 동쪽을 향해 뻗어 있을 수 있다(도 3의 (d-4)).In addition, even when the time parameter P time is given, an image mapped to a specific image layer may be changed. For example, given the parameters P ecology = 'bamboo (0)', P shadow = 'with (1)', P time = '7h', bamboo exists, shadow exists, and the sun rises. The image of the bamboo shadow pointing to the west may be mapped to the image layer L4 ((d-2) of FIG. 3). In contrast, if P ecology = 'bamboo (0)', P shadow = 'with (1)', P time = '12h', bamboo is present, shadow is present, and the sun is in the middle In addition, an image of a bamboo shadow pointing north may be mapped to the image layer L4 ((d-3) of FIG. 3). Similarly, given P time = '18h', the image of the bamboo shadow may extend east (FIG. 3 (d-4)).
또한, 따로 도시하지는 않았지만, 태양의 위치에 따라 광량이 달라질 수 있기 때문에 상기 합성 이미지를 구성하는 각 이미지 레이어의 밝기는 파라미터 Ptime 의 값에 따라 변경될 수도 있다. 즉, 태양의 위치를 나타내는 파라미터, 구름의 양을 나타내는 파라미터와 같은 인자에 의해 새로운 이미지 레이어가 생성되는 한편, 상술한 바와 같이 생성된 이미지 레이어의 채도, 명도 등이 변경될 수 있다. In addition, although not shown separately, since the amount of light may vary depending on the position of the sun, the brightness of each image layer constituting the composite image may be changed according to the value of the parameter P time . That is, while a new image layer is generated by a parameter such as a parameter indicating the position of the sun and a parameter indicating the amount of clouds, the saturation, brightness, etc. of the image layer generated as described above may be changed.
위의 설명으로부터 특정 이미지 레이어에 매핑되는 이미지가 2개의 파라미터로부터 생성될 수 있다는 것을 알 수 있다. 그러나 본 발명의 기술분야에 종사하는 기술자라면 상기 이미지가 3개 이상의 파라미터에 의해서도 결정될 수 있다는 것을 쉽게 이해할 수 있다. 예를 들어, 파라미터 Pecology ='대나무(0)', Pwind _ velocity ='강함(3)', Ptime ='12h'로 주어지면, 이미지 레이어(L1)에는 밝고 수평으로 휘어 있는 대나무의 이미지가 매핑될 수 있다(도 3의 (a-3)). 이와 달리, 파라미터 Pecology ='대나무(0)', Pwind _ velocity ='없음(0)', Ptime ='18h'로 주어지면, 이미지 레이어(L1)에는 어둡고 수직으로 뻗어 있는 대나무의 이미지가 매핑될 수 있다(도 3의 (a-4)).It can be seen from the above description that an image mapped to a specific image layer can be generated from two parameters. However, one of ordinary skill in the art appreciates that the image can be determined by more than two parameters. For example, given the parameters P ecology = 'bamboo (0)', P wind _ velocity = 'strong (3)', P time = '12h', the image layer (L1) of the bright and horizontally curved bamboo The image may be mapped ((a-3) of FIG. 3). Alternatively, given the parameters P ecology = 'bamboo (0)', P wind _ velocity = 'none (0)', P time = '18h', the image of bamboo extending dark and vertically to the image layer L1. May be mapped ((a-4) of FIG. 3).
위에 설명하지는 않았지만, 하나의 파라미터에 의해 생성되는 이미지는 다른 파라미터에 의해 영향을 받을 수 있다. 예를 들어, 태양 이미지의 위치는 시각을 나타내는 파라미터 Ptime 에 의해 달라질 수 있을 뿐만 아니라, 날짜를 나타내는 파라미터 Pdate 와 위도를 나타내는 파라미터 Platitude 에 의해 더 변경될 수도 있다. 또는 태양 이미지의 위치는 파라미터 Pdirection에 의해 결정될 수도 있다.Although not described above, an image generated by one parameter may be affected by another parameter. For example, the position of the sun image can be changed not only by the parameter P time representing the time , but also by the parameter P date representing the date and the parameter P latitude representing the latitude . Or the position of the sun image may be determined by the parameter P direction .
또한, 하나의 파라미터는 다른 파라미터보다 더 높은 우선 순위를 가지고 처리될 수도 있다. 예를 들어, 그림자를 나타내는 파라미터 Pshadow ='있음(1)'이 주어지면, 그림자가 존재하는 상태이지만, 시각을 나타내는 파라미터 Ptime 가, 예를 들어 '23h'~'4h'의 값을 갖는다면 태양이 떠오르지 않은 상태이기 때문에 그림자가 존재하지 않을 수 있다. 이때, 파라미터 Pshadow ='있음(1)'는 Pshadow ='없음(0)'으로 변경되거나 무시될 필요가 있다. 따라서, 하나의 파라미터가 특정 값을 가지는 경우에 다른 하나의 파라미터는 그 특정 값에 종속되어 미리 정해진 값으로 변경되거나 또는 무시될 수도 있다.In addition, one parameter may be processed with a higher priority than another parameter. For example, if the parameter P representing shadow is given by '= (1)', the shadow exists, but the parameter P time representing the time has a value of, for example, '23h' to '4h'. If not, the shadow may not exist because the sun is not rising. At this time, the parameter P shadow = 'one (1)' needs to be changed or ignored as P shadow = 'none (0)'. Thus, when one parameter has a specific value, the other parameter may be changed to a predetermined value or ignored depending on the specific value.
도 4는 본 발명의 일 실시예에 따라 한 개 이상의 이미지 레이어를 합성하여 합성 이미지를 생성하는 과정을 설명하기 위한 도면이다.4 is a view for explaining a process of generating a composite image by synthesizing one or more image layers according to an embodiment of the present invention.
도 4의 (a)는 본 발명의 일 실시예에 따라 형성된 합성 이미지의 일 예를 나타낸다. 표 1에 나열된 파라미터 중 Pecology ='대나무(0)', Prain ='보통(2)', Pwind_velocity ='강함(3)', Pfalling _ leaves ='보통(2)', Pshadow ='없음(0)'이 주어지는 경우, 바람이 강하게 불기 때문에 이미지 레이어(L1)에는 한 쪽으로 기울어진 대나무의 이미지가 매핑되고, 이미지 레이어(L2)에는 사선으로 내리고 있는 보통 세기의 빗줄기가 매핑되고, 이미지 레이어(L3)에는 이리 저리 흩날리며 떨어지는 낙엽이 매핑되고, 이미지 레이어(L4)에는 그림자가 없는 상태의 이미지가 매핑된다. 상기 4개의 이미지 레이어(L1, L2, L3, L4)가 합성되는 경우에는 도 4 (a)의 참조번호 401에 도시된 바와 같은 합성 이미지를 얻을 수 있다.4A illustrates an example of a composite image formed according to an embodiment of the present invention. Among the parameters listed in Table 1, P ecology = 'bamboo (0)', P rain = 'normal (2)', P wind_velocity = 'strong (3)', P falling _ leaves = 'normal (2)', P shadow If 'none (0)' is given, the wind blows so strongly that an image of bamboo tilted to one side is mapped to the image layer (L1), and an image of the normal intensity rain straight down is mapped to the image layer (L2). The fallen leaves scattered to and from the image layer L3 are mapped to the image layer L3, and the image of the shadowless state is mapped to the image layer L4. When the four image layers L1, L2, L3, and L4 are synthesized, a synthesized image as shown by
도 4의 (b)는 본 발명의 일 실시예에 따라 형성된 합성 이미지의 다른 예를 나타낸다. 표 1에 나열된 파라미터 중 Pecology ='대나무(0)', Prain ='없음(0)', Pcloud_amount ='없음(0)', Pwind _ velocity ='없음(0)', Pfalling _ leaves ='없음(0)', Pshadow ='있음(1)', Ptime ='14h'가 주어지는 경우, 이미지 레이어(L1)에는 대나무의 이미지가 매핑되고, 이미지 레이어(L2)에는 비가 내리지 않는 이미지가 매핑되며, 이미지 레이어(L3)에는 구름이 없는 이미지가 매핑되고, 이미지 레이어(L4)에는 바람이 없는 상태의 이미지가 매핑되며, 이미지 레이어(L5)에는 떨어지는 낙엽이 없는 상태의 이미지가 매핑되고, 이미지 레이어(L6)에는 그림자가 존재하는 상태의 이미지가 매핑되며, 이미지 레이어(L7)에는 태양이 14h의 위치에 있는 상태의 이미지가 매핑된다. 상기 7개의 이미지 레이어(L1, L2, L3, L4, L5, L6, L7)가 합성되는 경우에는 도 4 (b)의 참조번호 402에 도시된 바와 같은 합성 이미지를 얻을 수 있다.4B illustrates another example of a composite image formed according to an embodiment of the present invention. Among the parameters listed in Table 1, P ecology = 'bamboo (0)', P rain = 'none (0)', P cloud_amount = 'none (0)', P wind _ velocity = 'none (0)', P falling _ If leaves = 'none (0)', P shadow = 'one (1)', P time = '14h', the image of bamboo is mapped to the image layer (L1), and rain on the image layer (L2) Images that do not fall are mapped, images without clouds are mapped to image layer L3, images without wind are mapped to image layer L4, and images without falling leaves are mapped to image layer L5. Are mapped to the image layer L6, and the image of the state where the shadow exists is mapped, and to the image layer L7, the image of the state of the sun at the position of 14h is mapped. When the seven image layers L1, L2, L3, L4, L5, L6, and L7 are synthesized, a synthesized image as shown by
위와 같이 여러 개의 이미지 레이어들을 합성할 때에 하나의 이미지 레이어가 다른 하나의 이미지 레이어를 오버라이트(overwrite)할 수 있다. 예를 들어, 도 4의 (b)의 예에 있어서, 파라미터 Pcloud _ amount ='많음(3)'으로 주어지면 구름의 양이 많은 상태이기 때문에, 비록 태양이 존재하더라도 태양이 구름에 가려져 보이지 않을 수 있다. 이 때, 구름 이미지가 매핑되는 이미지 레이어(L3)는 태양 이미지가 매핑되는 이미지 레이어(L7)를 오버라이트 할 수 있다. 다른 이미지 레이어들에 대해서도 마찬가지이다.When composing multiple image layers as described above, one image layer may overwrite another image layer. For example, in the example of FIG. 4 (b), if the parameter P cloud _ amount = 'high (3)' is a large amount of cloud, the sun is hidden by the cloud even if the sun exists. You may not. In this case, the image layer L3 to which the cloud image is mapped may overwrite the image layer L7 to which the sun image is mapped. The same is true for other image layers.
또한 상술한 바와 같이 하나의 이미지 레이어에 의해 다른 하나의 이미지 레이어가 무시되거나 변경될 수도 있다. 예를 들어, 도 4의 (b)의 예에 있어서, 파라미터 Pcloud _ amount ='많음(3)'으로 주어지면 구름의 양이 많은 상태이기 때문에 이미지 레이어(L6)에는 그림자가 존재하지 않는 상태가 될 수 있다.In addition, as described above, another image layer may be ignored or changed by one image layer. For example, in the example of FIG. 4B, when the parameter P cloud _ amount = 'many (3)', the shadow is not present in the image layer L6 because the cloud amount is large. Can be
도 3 및 도 4에서 예시한 본 발명의 일 실시예에 따른 합성 이미지들은 각각 어느 특정 순간을 나타내는 하나의 합성 이미지이다. 그런데 본 발명의 일 실시예에 따르면, 상기 합성 이미지 또는 하나 이상의 이미지 레이어들의 생성에 필요한 정보에 따라 각 이미지 레이어에 매핑되는 이미지가 시간에 따라 변경될 수 있다.The composite images according to the exemplary embodiment of the present invention illustrated in FIGS. 3 and 4 are one composite image each representing a specific moment. However, according to an embodiment of the present invention, an image mapped to each image layer may change with time according to the information necessary for generating the composite image or one or more image layers.
도 5는 본 발명의 일 실시예에 따라 이미지 레이어에 매핑되는 이미지가 시간에 따라 변경되는 것을 나타낸 것이다. 설명을 위해 각 이미지 레이어를 수평으로 4개의 영역(H1, H2, H3, H4, H5)으로 분할하고 수직으로 4개의 영역(V1, V2, V3, V4)으로 분할하였다.5 illustrates that an image mapped to an image layer changes over time according to an embodiment of the present invention. For the purpose of illustration, each image layer is horizontally divided into four regions (H1, H2, H3, H4, H5) and vertically divided into four regions (V1, V2, V3, V4).
도 5의 (a)는 파라미터 Pwind _ velocity ='강함(3)', Pfalling _ leaves ='소량(1)'이 주어지는 경우에 생성될 수 있는 이미지 레이어에 매핑되는 이미지의 시간에 따른 변화를 도시한 것이다. 상기 주어진 파라미터는 강한 바람이 존재하며 낙엽이 존재하는 상태를 나타낸다. 바람이 불기 때문에 낙엽은 시간이 지남에 따라 수평 방향으로 이동하면서 하강할 수 있다. 도 5의 (a)를 참조하면, 시각(t=1)에서 영역 [H3, V2]에 존재하던 낙엽은 시각(t=2)에서는 영역 [H2, V3]으로 이동하고 시각(t=3)에서는 영역 [H1, V4]로 이동한다. FIG. 5A shows a change over time of an image mapped to an image layer that may be generated when the parameters P wind _ velocity = 'strong (3)' and P falling _ leaves = 'small amount (1)' are given. It is shown. The parameters given above indicate the presence of strong winds and leaves. As the wind blows, the leaves may descend as they move horizontally over time. Referring to FIG. 5A, the fallen leaves that existed in the areas [H3, V2] at time t = 1 move to the areas [H2, V3] at time t = 2, and at time t = 3. Moves to the area [H1, V4].
반면, 도 5의 (b)는 파라미터 Pwind _ velocity ='없음(0)', Pfalling _ leaves ='소량(1)'이 주어지는 경우에 생성될 수 있는 이미지 레이어에 매핑되는 이미지의 시간에 따른 변화를 도시한 것이다. 이 경우, 바람이 없기 때문에 낙엽은 수직 방향으로만 하강할 수 있다. 도 5의 (b)를 참조하면, 시각(t=1)에서 영역 [H3, V2]에 존재하던 낙엽은 시각(t=2)에서는 영역 [H3, V3]으로 이동하고 시각(t=3)에서는 영역 [H3, V4]로 이동한다.On the other hand, FIG. 5B shows the time of an image mapped to an image layer that may be generated when the parameters P wind _ velocity = 'none (0)' and P falling _ leaves = 'small amount (1)' are given. The change is shown. In this case, because there is no wind, the leaves can only descend in the vertical direction. Referring to FIG. 5B, the fallen leaves that existed in the regions [H3, V2] at the time t = 1 move to the regions [H3, V3] at the time t = 2 and the time (t = 3). Moves to the area [H3, V4].
이와 같이 특정 이미지 레이어에 매핑되는 이미지가 시간에 따라 변화되면 전체적으로 합성 이미지가 변화되게 된다. 따라서, 상술한 스크린에는 동영상이 상영될 수 있다.As such, when the image mapped to a specific image layer changes over time, the synthesized image changes as a whole. Therefore, a video may be displayed on the screen described above.
도 5의 (c)는 파라미터 Pdate ='12월23일' 및 Ptime ='6h'~'18h'이 주어지는 경우에 생성될 수 있는 이미지의 시간에 따른 변화를 도시한 것이다. 태양은 6h, 12h, 및 18h에서 각각 영역 [H1, V4], [H3, V2], 및 [H5, V4]에 위치할 수 있다. FIG. 5C illustrates a change over time of an image that may be generated when parameters P date = 'December 23' and P time = '6h' to '18h' are given. The aspect may be located in regions [H1, V4], [H3, V2], and [H5, V4] at 6h, 12h, and 18h, respectively.
이에 비하여 도 5의 (d)는 파라미터 Pdate ='6월23일' 및 Ptime ='6h'~'18h'이 주어지는 경우에 생성될 수 있는 이미지 레이어에 매핑되는 이미지의 시간에 따른 변화를 도시한 것이다. 태양은 6h, 12h, 및 18h에서 각각 영역 [H1, V3], [H3, V1], 및 [H5, V3]에 위치할 수 있다. 도 5의 (c)와 (d)를 살펴보면, 시간에 따라 태양 이미지의 위치가 변화하는 것을 알 수 있으며, 또한 날짜에 따라 태양의 고도가 변경되는 것을 알 수 있다. 도 5의 (c)와 (d)는 북반구에 위치한 지역을 기준으로 설명한 것이다.On the contrary, FIG. 5 (d) shows a change over time of an image mapped to an image layer that may be generated when parameters P date = 'June 23' and P time = '6h' to '18h' are given. It is shown. The aspect may be located in regions [H1, V3], [H3, V1], and [H5, V3] at 6h, 12h, and 18h, respectively. Referring to (c) and (d) of FIG. 5, it can be seen that the position of the sun image changes with time, and the altitude of the sun changes with the date. 5 (c) and 5 (d) illustrate the regions located in the northern hemisphere.
도 3 내지 도 5에 설명한 본 발명의 실시예들을 조합하면, 각종 파라미터를 이용하여 한 개 이상의 이미지 레이어를 생성할 수 있을 뿐만 아니라, 상기 이미지 레이어에 매핑되는 이미지들을 시간에 따라 변화시킴으로써 한 개 이상의 동영상 레이어를 생성할 수 있음을 알 수 있다. 따라서, 본 발명에 따르면 한 개 이상의 이미지 레이어 및 한 개 이상의 동영상 레이어를 합성하여 합성 동영상을 생성할 수 있다. Combining the embodiments of the invention described with reference to FIGS. 3 to 5, one or more image layers can be created using various parameters, as well as one or more by varying the images mapped to the image layers over time. It can be seen that a video layer can be created. Therefore, according to the present invention, one or more image layers and one or more video layers may be synthesized to generate a composite video.
상술한 본 발명의 일 실시예들에 따르면 동영상을 출력하기 위해 소요되는 저장공간을 감소시킬 수 있다. 예를 들어, 이틀 동안 동영상을 상영한다고 가정할 때에, 첫 날에는 낙엽이 떨어지는 대나무의 동영상을 밤낮으로 상영하고, 둘째 날에는 비가 내리는 대나무의 동영상을 밤낮으로 상영할 수 있다. 이때, 종래의 방법에 의하면, 낙엽이 떨어지는 대나무 숲을 묘사하는 하루 분량의 동영상 및 비가 내리는 대나무 숲을 묘사하는 하루 분량의 동영상을 따로 저장해 놓아야 한다. According to the embodiments of the present invention described above, the storage space required for outputting a video can be reduced. For example, assuming that a video is to be screened for two days, a video of bamboo with falling leaves is screened day and night on the first day, and a video of bamboo with rain falls on the second day. In this case, according to the conventional method, the video of the day depicting the bamboo forest in which the fallen leaves and the video of the day depicting the bamboo forest in the rain should be stored separately.
그러나 이때, 본 발명에 따른 일 실시예에 따르며, 대나무에 대응하는 이미지, 비를 나타내는 이미지, 그리고 낙엽이 떨어지는 이미지를 각각 소정의 템플릿 이미지로부터 생성하고, 각 이미지를 시간에 따라 미리 결정된 규칙에 의해 변화시킴으로써 동영상을 생성할 수 있다. 즉, 상기 동영상은 도 3 내지 도 5에서 예로서 설명한 파라미터 값에 대응되는 소정의 템플릿 이미지와, 상기 미리 결정된 규칙에 따라 결정될 수 있다. 따라서 본 발명의 일 실시예 따르면 종래 기술과는 달리 이틀 분량의 이미지를 저장할 저장 공간은 필요하지 않고, 다만 몇 가지 기본 템플릿 이미지를 저장할 공간만이 필요하다. 나아가, 이러한 템플릿 이미지조차 미리 저장해 놓을 필요 없이, 이러한 템플릿 이미지를 상술한 파라미터들과 미리 결정된 규칙에 의해 필요할 때마다 생성할 수 있다. 상술한 파라미터들은 필요할 때마다 도 2에 도시한 영상처리장치(3)에서 요청하거나 수신할 수 있기 때문에 전체적으로 영상처리장치(3)에 필요한 저장공간을 감소시킬 수 있다.However, in this case, according to an embodiment of the present invention, an image corresponding to bamboo, an image representing rain, and an image of falling leaves are each generated from a predetermined template image, and each image is generated according to a predetermined rule according to time. You can create a video by changing it. That is, the video may be determined according to a predetermined template image corresponding to the parameter value described as an example in FIGS. 3 to 5 and the predetermined rule. Therefore, according to an embodiment of the present invention, unlike the prior art, a storage space for storing two days worth of images is not necessary, but only a space for storing some basic template images. Furthermore, even such template images can be generated whenever needed by the above-described parameters and predetermined rules, without having to store them in advance. Since the above-described parameters can be requested or received by the
상기 합성 이미지를 구성하는 기본 단위를 지금까지 '이미지 레이어'로 지칭하였으나, '레이어'라는 용어는 본 발명의 개념 설명을 위해 편의적으로 사용된 것이며 이 용어에 의해 본 발명을 한정하려고 하는 것은 아니다. 즉, 여러 개의 '이미지 레이어'를 결합하여 하나의 합성 이미지를 형성한다는 것은, 여러 개의 '이미지'를 결합하여 하나의 합성 이미지를 형성한다는 것과 동일한 의미로 사용된다는 것을 쉽게 이해할 수 있다.Although the basic unit constituting the composite image has been referred to as an 'image layer' so far, the term 'layer' is used for convenience in describing the concept of the present invention and is not intended to limit the present invention. That is, it can be easily understood that combining a plurality of 'image layers' to form a single composite image is used in the same sense as combining multiple 'images' to form a single composite image.
본 발명에 의한 다른 실시예에 따른 영상처리장치(3)는 환경정보를 획득하도록 되어 있는 데이터 획득부(302) 및 제1 이미지의 위치, 색상, 명도, 채도, 및 모양 중 하나 이상을 상기 환경정보에 따라 처리하도록 되어 있는 데이터 처리부(301)를 포함할 수 있다. The
상기 환경정보는 날씨, 태양 복사량, 강수량, 적설량, 기온, 풍향, 풍속, 습도, 파고, 시각(time), 위도, 및 날짜와 같은 지구 과학적인 정보를 포함할 수 있지만, 이에 한정되는 것은 아니다. The environmental information may include, but is not limited to, earth scientific information such as weather, solar radiation, precipitation, snowfall, temperature, wind direction, wind speed, humidity, wave height, time, latitude, and date.
상기 제1 이미지는 특정 대상물을 묘사한 이미지일 수 있다. 예를 들어, 상기 특정 대상물은 구름, 비, 눈, 번개, 먼지, 태양, 바다, 땅, 동물, 식물, 그림자등과 같은 자연 대상물이거나, 또는 빌딩, 자동차, 비행기, 장독 등과 같은 인공 대상물일 수 있다. The first image may be an image depicting a specific object. For example, the specific object may be a natural object such as clouds, rain, snow, lightning, dust, sun, sea, land, animals, plants, shadows, or artificial objects such as buildings, cars, airplanes, poisons, and the like. have.
상기 데이터 처리부(301)는, 상기 환경정보의 속성이 상기 특정 대상물에 미치는 영향을 묘사하도록, 상기 제1 이미지의 위치, 색상, 명도, 채도, 및 모양 중 하나 이상을 처리하도록 되어 있을 수 있다. 예를 들어, 상기 환경정보가 바람이라고 가정하고 상기 특정 대상물이 식물이라고 가정하면, 상기 바람이 강하면 상기 식물의 모양 및 위치가 변하도록 처리될 수 있다. 다른 예로, 상기 환경정보가 태양과 시각이라고 가정하고 상기 특정 대상물이 그림자라고 가정하면, 상기 그림자는 상기 태양의 위치와 시각에 따라 모양, 위치, 및 명도가 변하도록 처리될 수 있다. The
상기 데이터 획득부(302)는 상기 환경정보를 원격 서버로부터 통신채널을 통해 획득하도록 되어 있을 수 있다. The
상기 데이터 처리부는 상기 제1 이미지와 제2 이미지를 합성하여 합성 이미지를 생성하도록 되어 있을 수 있다. 이때, 상기 제2 이미지도 상술한 바와 같이 상기 제1 이미지와 같은 방식으로 처리될 수 있다.The data processor may be configured to synthesize the first image and the second image to generate a composite image. In this case, the second image may be processed in the same manner as the first image as described above.
상기 제1 이미지 및 상기 제2 이미지는 미리 결정된 모양, 색상, 명도, 채도를 갖는 템플릿 이미지일 수 있다.The first image and the second image may be template images having a predetermined shape, color, brightness, and saturation.
상기 제1 이미지의 위치, 색상, 명도, 채도, 및 모양 중 하나 이상을 시간에 따라 변화시킴으로써 동영상을 제공할 수 있다.The video may be provided by changing one or more of the position, color, brightness, saturation, and shape of the first image over time.
영상처리장치(3)는 메모리를 더 포함할 수 있으며, 상기 제1 이미지의 템플릿과 상기 제2 이미지의 템플릿은 상기 메모리에 미리 저장되어 있을 수 있다. 또한, 영상처리장치(3)는 상기 합성 이미지를 표시하도록 되어 있는 영상표시장치(1)를 더 포함할 수 있다. 영상표시장치(1)에는 스크린(2)이 일체로 형성되어 있거나 또는 따로 분리되어 형성되어 있을 수 있다. 또한, 영상처리장치(3)는 상기 특정 대상물에 의해 발생되는 소리를 출력하도록 되어 있는 음향 출력부(320)를 더 포함할 수 있다.The
상술한 본 발명의 실시예에 대응되는 영상처리방법은 당업자라면 쉽게 도출해낼 수 있을 것이다.The image processing method corresponding to the above-described embodiment of the present invention will be readily apparent to those skilled in the art.
상기 영상처리장치(3)에 의해 생성되는 이미지의 일부는 상기 제1 이미지의 템플릿에 기초되어 생성될 수 있고, 상기 영상처리장치(3)에 의해 생성되는 이미지의 다른 일부는 상기 제2 이미지의 템플릿에 기초되어 생성될 수 있다.A part of the image generated by the
도 6은 본 발명의 일 실시예에 따라 설치된 스크린과 상기 스크린을 가리는 커버의 위치관계를 도시한 것이다.6 illustrates a positional relationship between a screen installed according to an embodiment of the present invention and a cover covering the screen.
도 6의 (a), (b), (c)를 참조하면, 커버(601, 602)는 스크린(2)의 앞에 설치될 수 있으며, 커버(601, 602)는 경첩(610)을 중심으로 회전하여 개폐될 수 있다. 경첩(610)은 도 6과 같이 스크린(2)에 고정 결합될 수 있다. 또는 도 6과는 달리 경첩은 스크린(2)의 경계선 근처에 설치된 별도의 프레임(미도시)에 고정 결합될 수 있다. 스크린(2)은 W*H의 가로 세로 크기를 가질 수 있다. 도 6의 (a)는 커버(601, 602)가 스크린(2)을 모두 가린 상태, (b)는 커버(601, 602)가 스크린(2)의 일부를 가린 상태, (c)는 커버(601, 602)가 스크린(2)을 전혀 가리지 않은 상태의 일 예를 나타낸다.Referring to (a), (b) and (c) of FIG. 6, the
커버(601, 602)는 투명/불투명/반투명의 막 재질로 형성될 수 있다. 또한, 도 6에 도시한 바와 같이 창살 모양의 골조를 더 포함하여 형성될 수 있다. 상기 막은 종이 또는 유리와 같은 종래에 알려진 다양한 재료로 구성될 수 있다. 그러나 본 발명은 위와 같이 제한되지 않으며, 상기 프레임 및 그 안쪽 영역의 구조는 구체적인 실시예에 따라 다양한 방식으로 변형될 수 있다. 예를 들어, 상기 커버(601, 602)는 그 영역을 정의하는 프레임을 포함하며, 상기 프레임의 내부는 비어 있을 수 있다. 즉, 유리창을 끼워 넣지 않은 창문 새시(sash)와 같은 구성을 가질 수 있다. The
커버(602)에는 각각 센서(미도시)가 더 구비되어 있을 수 있다. 상기 센서는 자이로스코프를 이용한 것일 수 있다. 상기 자이로스코프를 이용하면 커버(602)와 스크린(2)이 이루는 각도를 측정할 수 있다. 예를 들어, 도 6의 (a), (b), (c)에서 커버(602)와 스크린(2)이 이루는 각도는 각각 0°, θ°, 180°이다. 이로써 커버(602)와 스크린(2) 간의 상대적인 위치를 측정할 수 있다. 이는 커버(601)에 대해서도 마찬가지이다. Each
다르게는, 센서는, 도 6의 (b) 나타낸 것과 같이, 스크린(2)과 커버(602)의 지점 A 및 지점 B에 설치된 거리 측정 센서일 수 있다. 상기 센서는 스크린(2)과 커버(602)와의 거리를 측정함으로써 스크린(2)과 커버(602)의 상대적인 위치를 측정할 수 있다. 이는 커버(601)에 대해서도 마찬가지이다.Alternatively, the sensor may be a distance measuring sensor installed at points A and B of the
도 7은 본 발명의 다른 실시예에 따라 설치된 스크린과 상기 스크린을 가리는 커버와의 위치관계를 도시한 것이다.7 shows a positional relationship between a screen installed according to another embodiment of the present invention and a cover covering the screen.
도 6의 커버(601, 602)가 경첩에 의해 스크린(2)에 결합된 것인 반면, 도 7의 커버(701, 702)는 슬라이드 방식으로 동작하여 스크린(2)을 가릴 수 있도록 된 구성을 갖는다.While the
도 7의 (a), (b), (c)를 참조하면, 커버(701, 702)는 스크린(2)의 경계선 근처에 구성된 창틀(703)에 결합될 수 있다. 커버(701, 702)는 각각 커버 프레임(701_1, 702_1)과 커버 프레임에 둘러싸인 영역(701_2, 702_2)로 구성될 수 있다. 커버 프레임에 둘러싸인 영역(701_2, 702_2)은 투명/불투명/반투명 필름이 설치될 수 있다. 상기 필름은 종이 또는 유리와 같은 종래에 알려진 다양한 재료로 구성될 수 있다. 또는, 상기 커버 프레임에 둘러싸인 영역(701_2, 702_2)은 비어 있을 수 있다. 즉, 유리창을 끼워 넣지 않은 창문 새시(sash)와 같은 구성을 가질 수 있다.Referring to FIGS. 7A, 7B, and 7C, the
스크린(2)은 W*H의 가로 세로 크기를 가질 수 있다. 도 7의 (a)는 커버(701, 702)가 스크린(2)을 모두 가린 상태(A1, A2), 도 7의 (b)는 커버(701, 702)가 스크린(2)의 일부를 가린 상태(A1, A2, A4), 도 7의 (c)는 커버(701, 702)가 스크린(2)을 최대한 개방한 상태(A3)를 나타낸다. 도 7에서는 커버(701, 702)가 완전히 개방되어도 스크린(2)에는 가려진 부분이 존재한다. 그러나, 커버(701, 702)의 구성을 달리하면 커버(701, 702)가 완전히 개방되었을 때에 스크린(2)의 모든 부분이 노출되도록 할 수 있는 변형된 구성은 당업자에게 자명하게 이해될 수 있다. 도 7에서 영역 'A1'은 커버(701)에 의해 가려진 영역, 영역 'A2'는 커버(702)에 의해 가려진 영역, 영역 'A3'는 커버(701, 702)에 의해 가려지지 않은 영역, 영역 'A4'는 커버(701) 및 커버(702)에 의해 가려진 영역을 나타낸다.The
커버 프레임(701_1)과 창틀(703)에는 센서가 설치될 수 있다. 상기 센서에 의해 커버 프레임(701_1)과 창틀(703)과의 거리(L)를 측정할 수 있다. 상기 거리(L)에 의해 커버(701, 702)가 얼마나 개방되었는지를 알 수 있다.Sensors may be installed on the cover frame 701_1 and the
도 6 및 도 7에 도시한 구조는 이하 설명하는 본 발명의 일 실시예를 설명하기 위한 것으로서, 본 발명이 도 6 또는 도 7에서 도시한 특정 구조에 의해 한정되는 것은 아니다.6 and 7 are for explaining an embodiment of the present invention described below, and the present invention is not limited by the specific structure shown in FIG. 6 or 7.
도 8은 본 발명의 일 실시예에 따른 영상처리장치를 포함하는 영상 시스템의 구성을 나타낸 것이다.8 illustrates a configuration of an image system including an image processing apparatus according to an embodiment of the present invention.
도 8에 도시한 본 발명의 일 실시예에 따른 영상처리장치(3)는 데이터 획득부(302) 및 데이처 처리부(301)를 포함할 수 있다. The
이때, 선택적으로, 영상처리장치(3)는 스크린(2) 및/또는, 커버(4)에 설치된 위치센서(5), 온도/습도 센서(6), 이미지 센서(7), 음향 출력부(320) 중 하나 이상이 일체로 포함된 상태로 제공될 수 있다. 또는 영상처리장치(3)는 스크린(2) 및/또는, 커버(4)에 설치된 위치센서(5), 온도/습도 센서(6), 이미지 센서(7), 음향 출력부(320)와 별개의 장치로서 제공될 수 있다.In this case, the
영상처리장치(3)는 위치센서(5)로부터 측정신호를 입력 받을 수 있도록 구성될 수 있다. The
또한, 영상처리장치(3)는 실내의 온도 및/또는 습도를 측정하기 위한 온도/습도 센서(6)로부터 실내의 온도 및/또는 습도에 관한 정보를 추가적으로 수신할 수 있도록 구성될 수 있다. In addition, the
이미지 센서(7)는 스크린(2)을 관찰하는 관찰자 방향의 이미지를 획득할 수 있도록 구성될 수 있다. 예를 들어, 사용자가 실내에 위치한 경우에, 이미지 센서(7)는 실내의 이미지를 획득할 수 있다.The
도 6 및 도 7에서 설명된 커버(601, 602) 및 커버(701, 702)는 상기 도 8의 커버(4)의 일 실시예일 수 있다.
위치센서(5)는 도 6 및 도 7에서 예로서 설명한 기기로서, 커버(4)와 스크린(2)의 상대적 위치에 관한 정보를 획득하기 위한 센서일 수 있다. 데이터 획득부(302)는 위치센서(5)로부터 스크린(2)과 커버(4) 간의 상대적인 위치 관계에 관한 정보를 수신할 수 있다. 또한, 데이터 획득부(302)는 통신채널(303)을 통해 표 1에 예시하여 나열한 파라미터와 같은, 이미지 생성에 필요한 정보를 획득할 수 있다.The
도 3 내지 도 5에서 설명한 바와 같이, 데이터 처리부(301)는 데이터 획득부(302)로부터 상기 이미지 생성에 필요한 정보를 획득하고, 그 후에 합성 이미지를 생성할 수 있다. 상기 합성 이미지를 구성하는 하나 이상의 이미지가 본질적으로 음향을 동반하는 것이 자연스러운 경우에는 상기 하나 이상의 이미지가 표시될 때에 이에 대응하는 음향이 함께 출력되는 것이 자연스러울 수 있다. 예를 들어, 비가 내리는 이미지에는 비 내리는 음향이 결합될 수 있고, 번개가 치는 이미지에는 천둥 음향이 결합될 수 있다. 표 1에 나열하지는 않았지만 개구리 또는 기타 동물의 이미지를 나타내는 파라미터가 설정되어, 이 파라미터에 관한 이미지가 표시되는 경우에는 그 개구리 또는 기타 동물이 낼 수 있는 음향이 함께 출력될 수 있다. 상술한 음향과 결합되는 이미지가 상기 합성 이미지를 구성하는 경우에는, 상기 음향을 음향 출력부(320)로 출력할 수 있다. As described above with reference to FIGS. 3 to 5, the
이러한 음향 출력의 세기는 커버(4)가 스크린(2)을 덮는 정도에 따라 자동적으로 조절될 수 있다. 여기서 커버(4)는 실내와 실외를 구분하는 창문의 형태-예컨대 도 6 또는 도 7과 같은 형태-를 모방한 형태를 가질 수 있다. 이때, 예를 들어, 비가 내리는 합성 이미지가 스크린(2)에 출력될 때에, 커버(4)가 완전히 개방되면 음향 출력부(320)를 통해 출력되는 비 내리는 소리가 최대가 되도록 하고, 이와 반대로 커버(4)가 스크린(2)을 완전히 가리는 경우에는 음향 출력부(320)를 통해 출력되는 비 내리는 소리가 최소가 되도록 할 수 있다. 즉, 커버(4)가 스크린(2)을 가리는 정도에 따라 비 내리는 소리의 크기를 자동으로 조절할 수 있다. 또한, 이때, 커버(4)가 스크린(2)을 일부 또는 전부 가리는 경우에는, 창문에 비가 부딪히는 소리는 음향 출력부(320)를 통해 출력할 수 있다.The intensity of this sound output can be automatically adjusted according to the extent that the
또한, 커버(4)가 스크린(2)을 가리는 정도에 따라 스크린(2)에 상영되는 이미지가 변형될 수 있다. 예를 들어, 도 6의 (a)와 같이 커버(4)가 스크린(2)을 모두 가리며 표 1의 파라미터 Prain ='보통(2)'이 주어지게 되면, 스크린(2)에는 마치 비가 창문에 부딪혀서 창문을 따라 흘러내리는 듯한 합성 이미지를 보여줄 수 있다. 또한, 예를 들어, 도 7의 (b)와 같이 커버(701, 702)가 스크린(2)의 적어도 일부를 가리는 경우, 표 1의 파라미터 Prain ='보통(2)'이 주어지게 되면, 커버(701, 702)에 의해 가려진 영역 A1, A2, A4에는 빗물이 창문을 타고 흘러 내리는 이미지가 스크린(2)에 표시되도록 할 수 있다. 이러한 합성 이미지를 생성하기 위해서, 데이터 처리부(301)에서는 빗물이 창을 타고 흘러내리는 이미지가 매핑되는 별도의 이미지 레이어를 생성하고, 이 이미지 레이어를 다른 이미지 레이어들과 결합하여 상기 합성 이미지를 생성할 수 있다. 이 이미지 레이어는 다른 이미지 레이어들에 의해 가려지지 않는 것이 바람직하다.In addition, depending on the extent that the
상술한 바와 같이 데이터 획득부(302)가 온도/습도 센서(6)로부터 실내의 온도 및/또는 습도를 수신할 수 있고 센서(305)로부터 실외의 온도에 관한 정보를 수신할 수 있도록 구성되면, 창문 안쪽에 김이 서리는 효과를 줄 수 있다. 예를 들어, 실내보다 실외의 온도가 낮고 실내의 습도가 높은 경우, 실내의 따뜻한 공기 내에 불포화 상태로 존재하던 기체 상태의 H2O가, 실외의 낮은 온도에 의해 차가워진 창문 근처에서 응결되어 창문에 응결되어 김이 서릴 수 있다. 상술한 온도/습도 조건이 만족되고 창문이 부분적으로 또는 완전히 닫힌 경우에, 데이터 처리부(301)는 이러한 현상을 묘사하기 위한 별도의 이미지 레이어를 추가로 생성할 수 있다. 또는, 이러한 구체적인 조건 없이도 데이터 처리부(301)는 김이 서리는 현상을 묘사하기 위한 별도의 이미지 레이어를 추가로 생성할 수 있다.As described above, when the
도 9는 본 발명의 일 실시예에 따라 이미지 센서로부터 실내 이미지를 획득하여 스크린에 표시할 수 있도록 처리하는 과정을 설명하기 위한 것이다.FIG. 9 illustrates a process of obtaining an indoor image from an image sensor and displaying the same on a screen according to an embodiment of the present invention.
도 9의 (a)를 살펴보면, 관찰자(100)는 천정(13), 바닥(14), 벽(15)을 포함하는 실내에서 스크린(2)을 관찰할 수 있다. 이때, 스크린(2)과 스크린(2)에 연결된 영상처리장치(3)(미도시)는 실제로 관찰자(100)가 스크린(2) 위치에 있는 유리창을 보았을 때 볼 수 있는 이미지를 표시할 수 있도록 구성될 수 있다. 실외와 실내의 광학적 밝기의 차이에 따라, 예컨대 실외는 어둡고 실내는 밝은 경우에 실내의 모습이 상기 유리창에 거울처럼 비춰질 수 있다. 이때, 상기 실내의 모습은 반투명한 특성을 가지며, 유리창 바깥의 모습과 겹쳐져 나타날 수 있다. 이러한 이미지를 묘사하여 나타내기 위해 이미지 센서(7)가 실내의 어느 한 곳, 예를 들어 스크린(2) 근처에 설치되어 실내의 모습을 촬영할 수 있다. 이미지 센서(7)는 상기 촬영된 실내의 모습을 영상처리장치(3)에 전달할 수 있다. Referring to FIG. 9A, the
그러나, 이미지 센서(7)가 촬영한 실내의 이미지는 관찰자(100)가 스크린(2)으로 모사되는 유리창을 통해 본 실내의 이미지와는 다를 수 있다. 촬영된 실내의 이미지는 관찰자(100)의 시선의 높이 및 관찰자(100) 시선의 스크린(2)으로부터의 거리에 의해 보정될 수 있다.However, the image of the room taken by the
관찰자(100)와 스크린(2) 사이의 거리는 도 9의 (a)에서는 L1으로 주어지고, 도 9의 (c)에서는 L2로 주어진다(L2>L1). 도 9에 도시한 바와 같이, 관찰자(100)가 스크린(2)에 가까이 다가가면, 마치 관찰자가 스크린(2)과 동일한 위치에 있는 동일한 크기의 거울에 가까이 다가가는 것과 같은 효과를 얻을 수 있다. 따라서, 관찰자(100)와 스크린(2)의 거리가 가까울수록 관찰자(100)는 스크린(2)을 통해 더 많은 영역의 실내 이미지를 관찰할 수 있다. The distance between the
도 9의 (b)는 관찰자(100)가 도 9의 (a)와 같이 스크린에서 L1만큼 떨어진 위치에 있을 때에 스크린(2)에 표시될 수 있는 이미지를 보여준다. 이 예에서, 스크린(2)은 관찰자(100) 자신과 함께 벽에 걸려 있는 이미지(Image1, Image2, Image3)를 모두 보여준다. 또한, 스크린(2)이 유리창의 기능을 제공하기 위한 것이라면, 도 9의 (b)에 나타낸 이미지의 배경(background)에 유리창 바깥의 풍경을 묘사하는 이미지를 겹쳐서 나타낼 수 있다. FIG. 9B shows an image that can be displayed on the
도 9의 (d)는 관찰자(100)가 도 9의 (c)와 같이 스크린에서 L2만큼 떨어진 위치에 있을 때에 스크린(2)에 표시될 수 있는 이미지를 보여준다. 이때. 도 9의 (a)와 (c)를 비교하면 알 수 있듯이, 도 9의 (c)의 관찰자(100)는 도 9의 (a)의 경우보다 더 좁은 영역을 갖는 실내 이미지를 볼 수 있다. 이 예에서, 스크린(2)은 관찰자(100) 자신과 함께 벽에 걸려 있는 이미지 중 일부, 즉 이미지(Image1)의 일부와 이미지(Image2)를 보여준다.FIG. 9D shows an image that can be displayed on the
상술한 바와 같이 이미지 센서(7)가 관찰한 실내의 이미지는 영상처리장치(3)가 생성하는 합성 이미지를 구성하는 이미지 레이어들 중 하나로서 처리될 수 있다.As described above, the indoor image observed by the
상술한 내용으로부터, 스크린(2)과 관찰자(100)의 상대적인 위치 관계를 알 수 있다면 스크린(2)에 표시되는 실내 이미지를 조절할 수 있다는 것을 알 수 있다. 따라서, 관찰자(100)의 몸의 어느 한 부위와 스크린(2)의 주변에 각각 제1 센서(미도시) 및 제2 센서(미도시)를 설치하고, 상기 제1 센서 및 제2 센서가 둘 사이의 상대적인 위치 관계에 관한 정보를 영상처리장치(3)에 전달하면 상술한 기능을 수행할 수 있다는 것을 알 수 있다. 상기 관찰자(100)의 몸의 어느 한 부위는 예컨대 관찰자(100)의 허리띠/안경/모자일 수 있다.From the foregoing, it can be seen that the indoor image displayed on the
또는, 관찰자(100)에는 센서를 설치하지 않고, 스크린(2) 주변에만 센서를 설치하여 상기 센서가 관찰자(100)까지의 거리를 알아내도록 할 수 있다. 이를 위해, 상기 센서로서 적외선 탐지 기능 및 대상물까지의 거리 측정 기능을 가지는 기기를 사용할 수 있다. 또는 근래의 디지털 카메라에서 사용되고 있는 얼굴 인식 기능 및 자동 초점 맞춤 기능을 함께 사용하면 충분히 관찰자(100)의 위치를 파악할 수 있다. 이러한 기능을 수행하기 위한 알고리즘은 데이터 처리부(301)에서 구현될 수 있고, 이러한 알고리즘을 적용하기 위한 이미지를 검출하는 기능은 이미지 센서(7)에서 수행되거나 또는 도시되지 않은 별도의 센서에서 따로 수행될 수 있다.Alternatively, the
본 발명의 일 실시예에 따르면, 영상처리장치(3)는 이미지를 표시하도록 되어 있는 스크린(2), 상기 이미지를 생성하도록 되어 있는 데이터 처리부(301), 및 스크린(2)을 가릴 수 있도록 되어 있는 커버(4)를 포함할 수 있다. 이때, 데이터 처리부(301)는 커버(4)가 스크린(2)을 가리면 상기 이미지를 변화시키도록 되어 있을 수 있다.According to one embodiment of the invention, the
데이터 처리부(301)는 상기 이미지의 영역 중 커버(4)에 의해 가려지는 영역을 필터링(filtering) 하도록 되어 있을 수 있다. 상기 필터링에는 블러링(blurring), 왜곡(distort), 노이즈(noise), 렌더링(rendering), 텍스쳐링(texturing) 및 여기에 언급되지 않은 다양한 효과를 줄 수 있는 기법들이 존재한다. 예를 들어, 상술한 유리창에 김이 서리는 효과는 블러링, 또는 노이즈를 추가하는 필터링을 수행하여 얻을 수 있다. 또한, 여기서 상술한 '필터링'이란 이미지의 칼라 밸런스(color balance), 명도(brightness), 대비(contrast), 채도(saturation), 색조(hue)등을 변화시키는 처리를 포함하는 의미이다.The
상기 이미지는 공기 중에 존재하는 특정 대상물을 묘사한 것일 수 있다. 예를 들어, 나뭇잎, 눈, 비와 같은 눈에 잘 보이는 물체일 수 있고, 또는 먼지나 수증기와 같이 작은 입자도 황사 현상 또는 구름과 같이 심하게 발생하는 경우에는 그 묘사의 대상물이 될 수 있다. 커버(4)에 의해 가려지는 상기 영역에서, 상기 이미지는 상기 특정 대상물이 수평면과 소정의 각도를 형성하는 평면에 접촉되었을 때에 보여지는 이미지로 변환될 수 있다. 즉, 커버(4)에 의해 가려진다는 것은 예를 들어, 창이 유리를 통해 막힌다는 것을 의미한다. 이때, 상기 특정 대상물이 비라고 가정하고 상기 소정의 각도를 형성하는 평면을 상기 유리창이라고 가정하면, 상기 평면에 접촉되었을 때에 보여지는 이미지는 유리창을 타고 흘러 내리는 빗물의 이미지일 수 있다. 실제 건물에서 유리창은 바닥, 벽, 천정 어느 곳이던지 설치될 수 있기 때문에, 여기서 소정의 각도는 그 크기에 제한 없이 다양한 값을 가질 수 있다.The image may depict a specific object present in the air. For example, it may be a visible object such as leaves, snow, or rain, or small particles, such as dust or water vapor, may be objects of description when they occur badly like yellow dust or clouds. In the area covered by the
영상처리장치(3)는 이미지 센서를 더 포함할 수 있다. 데이터 처리부(301)는 상기 이미지 센서에 의해 관찰된 이미지의 일부 또는 전부를 사용하여 제1 이미지 레이어를 생성하고, 상기 이미지는 상기 제1 이미지 레이어 및 다른 하나 이상의 이미지 레이어들을 포함하여 구성될 수 있다. 상기 이미지 센서에 의해 관찰된 이미지는 상술한 실내의 이미지일 수 있다. 상기 다른 하나 이상의 이미지 레이어들은 창문 바깥에 펼쳐지는 풍경일 수 있다.The
영상처리장치(3)는 스크린(2) 앞에 위치하는 관찰자(100)의 위치를 감지하는 센서를 더 포함할 수 있다. 데이터 처리부(301)는 스크린(2)과 관찰자(100)와의 상대적인 위치에 따라 이미지 센서(7)에 의해 관찰된 이미지를 적어도 일부를 잘라내어 크롭(crop) 이미지를 생성하고, 상기 크롭 이미지를 상기 제1 이미지 레이어에 매핑할 수 있다. 이 때, 화면의 크기를 조정하기 위해 상기 크롭 이미지를 줌-인(zoom-in)하거나 줌-아웃(zoom-out)할 수 있다.The
도 10은 본 발명의 일 실시예에 따라 이미지 센서(7)에 의해 관찰된 이미지를 잘라내는 과정을 설명하기 위한 도면이다.10 is a view for explaining a process of cropping an image observed by the
도 10의 (b)는 도 10의 (a)와 같이 설치된 이미지 센서(7)가 촬영한 이미지(300)의 일 예를 나타낸다. 이미지 센서(7)의 화각이 도 10의 (b)와 같이 θ°로 주어질 때에, 이미지 센서(7)가 촬영한 이미지(300)는 이미지(Image1, Image2, Image3) 및 관찰자(100) 및 전등(200)을 모두 포함할 수 있다. 이때, 도 9에서 설명한 바와 같이, 관찰자(100)의 시선의 위치를 고려하여 도 9의 (b), (d)와 같은 이미지를 스크린(2)에 표시하기 위해, 촬영한 이미지(300)의 일부를 잘라낼 수 있다. 즉, 도 10의 (b)에서 점선으로 한정된 영역(C1)을 잘라내면 도 9의 (b)와 같은 이미지를 얻을 수 있다.FIG. 10B illustrates an example of an
또한, 데이터 처리부(301)는 상기 제1 이미지 레이어가 투명도를 가지며, 상기 제1 이미지 레이어가 상기 다른 이미지 레이어들에 의해 가려지지 않게 처리할 수 있다.In addition, the
상술한 본 발명의 실시예에 대응되는 영상처리방법은 당업자라면 쉽게 도출해낼 수 있을 것이다. 예를 들어, 본 발명에 따른 다른 실시예에 의한 영상처리방법은, 스크린(2), 커버(4) 및 데이터 처리부(301)를 구비한 영상처리장치(3)에서 수행될 수 있다. 상기 영상처리방법은 커버(4)가 스크린(2)을 가리는지 여부를 판단하는 단계, 및 커버(4)가 스크린(2)을 가리면 스크린(2)에 표시되는 이미지를 변화시키는 단계를 포함할 수 있다.The image processing method corresponding to the above-described embodiment of the present invention will be readily apparent to those skilled in the art. For example, the image processing method according to another embodiment of the present invention may be performed by the
도 11은 본 발명의 다른 실시예에 따른 영상처리장치를 설명하기 위한 도면이다.11 is a diagram for describing an image processing apparatus according to another exemplary embodiment.
본 발명의 일 실시예에 따른 영상처리장치는 실내와 실외를 구분하는 창의 일부 기능을 대신 수행할 수 있도록 데이터를 수집하고 처리할 수 있다. 도 11을 살펴보면, 실내와 실외는 벽(15)에 의해 구분되며, 창(H1)은 벽(15)에 설치되어 있다. 광원, 예컨대 태양에서 나온 빛은 창(H1)을 통해 입사되어 바닥(14)을 비출 수 있다. 창(H1)을 통해 입사되는 빛에 의해 바닥(14)에는 창 모양의 음영이 형성될 수 있다.The image processing apparatus according to an embodiment of the present invention may collect and process data to perform some functions of a window that distinguishes indoors from outdoors. Referring to FIG. 11, indoor and outdoor are divided by the
태양의 위치는 시각에 따라 변할 수 있으며, 창(H1)을 통해 입사되는 빛의 방향도 시각에 따라 변할 수 있다. 예를 들어, 태양이 위치(S1)에 있는 경우, 바닥(14) 중 영역(P1)을 제외한 부분은 벽(15)에 의한 그림자가 드리워지고, 영역(P1)에는 태양 빛이 비치게 된다. 태양이 위치(S2), 위치(S3)에 있는 경우에는 각각 영역(P2), 영역(P3)에 태양 빛이 비치게 된다. 바닥(14)의 각 지점으로부터 창(H1)까지의 거리는 일정하지 않기 때문에, 태양 빛이 비칠 때에 창(H1)에 의해 형성되는 그림자의 경계 모양이 왜곡될 수 있다. 예들 들어, 도 11에서 창(H1)의 가장자리는 직사각형 모양을 갖는데, 태양의 위치(S1, S2, S3)에 따라 창(H1)에 의해 형성되는 그림자는 마름모꼴 또는 정사각형 등이 될 수 있다(P1, P2, P3). 즉, 광원의 위치에 따라 그림자 경계의 위치 및 모양이 바뀔 수 있다. 상기 광원은 태양이 아니라 가로등과 같은 다른 종류의 광원일 수 있다. 상기 광원의 방향은 원점(o)을 중심으로 설정된 축(x, y, z)으로부터 떨어진 각에 의해 결정될 수 있다.The position of the sun may change with time, and the direction of light incident through the window H1 may also change with time. For example, when the sun is in the position S1, the portion of the
이하, 상술한 현상을 모사하기 위한 본 발명의 구성에 대하여 설명한다.EMBODIMENT OF THE INVENTION Hereinafter, the structure of this invention for simulating the above-mentioned phenomenon is demonstrated.
도 12는 본 발명의 일 실시예에 따른 영상처리장치가 사용될 수 있는 영상처리시스템의 일 예를 설명하기 위한 다이어그램이다.12 is a diagram for explaining an example of an image processing system in which an image processing apparatus according to an embodiment of the present invention may be used.
도 12를 살펴보면, 영상처리시스템(10)은 본 발명의 일 실시예에 따른 영상처리장치(3)을 포함한다. 또한, 영상처리시스템(10)은 제1 영상표시장치(1'), 제1 스크린(2'), 커버(4), 제2 영상표시장치(11), 제2 스크린(22), 위치센서(5), 온도/습도 센서(6), 이미지 센서(7) 중 하나 이상을 더 포함할 수 있다. 이때, 제1 영상표시장치(1')는 제1 스크린(2'), 커버(4), 제2 영상표시장치(11), 제2 스크린(22), 위치센서(5), 온도/습도 센서(6), 이미지 센서(7) 중 하나 이상과 일체의 장치로서 구성되어 제공될 수 있다. 이 문서에서, 제1 영상표시장치(1') 및 제1 스크린(2')은 상술한 실시예들에서 설명한 영상표시장치(1) 및 스크린(2)와 동일한 구성 및 기능을 가질 수 있다. 제2 영상표시장치(11) 및 제2 스크린(22)의 예가 도 13에 도시되어 있다.12, the
도 13은 본 발명의 일 실시예에 따른 영상처리시스템(10)을 설명하기 위한 도면이다.FIG. 13 is a diagram for describing an
도 13의 (a) 및 (b)에는 제1 영상표시장치(1')가 제1 스크린(2')과 일체의 장치로서 제공된 예를 나타냈다. 그러나, 이와 달리 제1 영상표시장치(1')는 제1 스크린(2')과는 별도의 장치로 제공될 수 있으며, 이때 제1 영상표시장치(1')는 프로젝션 방식의 장치일 수 있다. 제1 영상표시장치(1')에는 영상처리장치(3)(미도시)가 연결될 수 있다.13A and 13B show an example in which the first image display device 1 'is provided as an integrated device with the first screen 2'. Alternatively, the first image display device 1 'may be provided as a separate device from the first screen 2', and the first image display device 1 'may be a projection type device. . An image processing apparatus 3 (not shown) may be connected to the first
도 13의 (a) 및 (b)에서 제2 스크린(22)은 바닥(14)에 설치되어 있을 수 있다. 그러나 이와 다르게, 제2 스크린(22)은 측벽(12), 천정(13), 벽(15)에 설치될 수도 있다. 제2 스크린(22)은 단일의 대형 스크린으로 구성되거나, 또는 여러 개의 작은 스크린이 인접하여 구성되는 멀티 스크린들로 구성될 수 있다. In FIGS. 13A and 13B, the
도 13의 (a)에는, 제2 영상표시장치(11)는 제2 스크린(22)과 일체의 장치로서 제공된 예를 나타냈다. 그러나 이와 달리, 제2 영상표시장치(11)는 제2 스크린(22)과 별도의 장치로서 제공될 수도 있다. 제2 영상표시장치(11)에는 영상처리장치(3)(미도시)가 연결될 수 있다.13A illustrates an example in which the second
제2 영상표시장치(11)는 제2 스크린(22)의 일부에 미리 결정된 밝기 이하의 밝기를 갖는 이미지를 표시할 수 있다. 예를 들어, 제2 영상표시장치(11)는 스크린(22)의 영역(P1), 영역(P2), 및 영역(P3) 중 어느 하나를 제외한 영역을 검게 처리할 수 있다. 이와 같이 검게 처리된 영역은, 예를 들어 햇빛에 의한 그림자를 가상으로 구현한 것일 수 있다. 도 12에 도시한 영역(P1), 영역(P2), 및 영역(P3)의 스크린(22) 내에서의 위치 및 그 경계의 모양은 설명을 위한 것일 뿐 이에 의해 본 발명이 한정되지는 않는다.The second
도 13의 (b)를 살펴보면, 제2 영상표시장치(11)는 제2 스크린(22)과 별개의 장치로서 제공된다. 제2 영상표시장치(11)에는 영상처리장치(3)(미도시)가 연결될 수 있다. 도 13의 (b)에서 제2 영상표시장치(11)는 벽(15)에 설치되어 있으나, 이와 달리 측벽(12) 또는 천정(13)에 설치될 수 있다.Referring to FIG. 13B, the second
도 13의 (b)에서, 제2 영상표시장치(11)는 도 13의 (a)와 마찬가지로 스크린(22)의 일부에만 미리 결정된 값 이하의 밝기를 갖는 이미지를 표시할 수 있다. 예를 들어, 제2 영상표시장치(11)는 제2 스크린(22)의 영역(P1), 영역(P2), 및 영역(P3) 중 어느 하나를 제외한 영역을 검게 처리할 수 있다. 이를 위해 적어도 두 가지 방법을 사용할 수 있다.In FIG. 13B, the second
첫 번째 방법에서, 우선, 영상처리장치(3)는 제2 스크린(22) 전체에 대응하는 이미지를 생성한다. 이때, 상기 이미지 중 일부 영역, 예컨대 영역(P1), 영역(P2), 또는 영역(P3)에 대응하는 부분을 제외한 나머지 부분을 검게 처리할 수 있다. 이때 제2 영상표시장치(11)는 항상 제2 스크린(22)의 전체 영역에 이미지를 투영할 수 있다.In the first method, first, the
두 번째 방법에서, 우선, 영상처리장치(3)는 제2 스크린(22) 보다 작은 크기의 이미지를 생성한다. 이때, 영상처리장치(3)는 상기 이미지의 제2 스크린(22) 내에서의 위치를 결정하여 위치 정보를 생성할 수 있다. 제2 영상표시장치(11)는 영상처리장치(3)로부터 상기 위치 정보를 수신하고, 그 다음, 그 안에 구비되어 있는 영상투사용 렌즈를 통해 상기 이미지를 투영할 수 있다. 이때, 제2 영상표시장치(11)는 상기 영상투사용 렌즈를 상기 위치 정보에 따라 회전시킬 수 있다. 상기 회전은 서보 모터 등 임의의 기술을 이용하여 수행할 수 있다. 즉, 제2 영상표시장치(11)는 항상 동일한 크기의 이미지를 투영하지만 그 투영 방향이 변경될 수 있다.In the second method, first, the
도 11을 다시 참조하면, 태양이 각각 위치(S1), 위치(S2), 및 위치(S3)에 있는 경우 창(H1)에 의한 그림자는 각각 영역(P1), 영역(P2), 및 영역(P3)의 경계를 기준으로 형성될 수 있다. 도 13에 나타낸 제2 영상표시장치(11)는 도 11의 상황을 가상으로 재현할 수 있다. 예를 들어, 영상처리장치(3)에서 이미지를 생성하기 위해 표 1에 열거한 파라미터 중 Pdate, Ptime, Platitude를 사용하는 경우에 태양의 위치를 결정할 수 있다. 이때, 만일 창(H1)에 대응되는 제1 스크린(2)의 크기 및 바닥(14)으로부터의 높이(H)를 더 알고 있다면, 창(H1)에 대응되는 그림자가 제2 스크린(22) 중 어느 부분에 생성되어야 하는지 알 수 있다. 또는 어느 방향을 향해 영상을 투사해야 하는지 알 수 있다. 만일 태양이 위치(S1)에 존재하는 것으로 결정된다면 창(H1)에 대응되는 그림자는 제2 스크린(22)의 영역(P1)을 경계로 하여 형성될 수 있다. 마찬가지로 태양이 위치(S2) 및 위치(S3)에 각각 존재하는 것으로 결정된다면, 창(H1)에 대응되는 그림자는 각각 제2 스크린(22)의 영역(P2) 및 영역(P3)을 경계로 하여 형성될 수 있다. 또한, 영상처리장치(3)는 창(H1)에 의한 그림자의 위치뿐만 아니라 그림자의 모양이 표시될 수 있도록 데이터를 처리할 수 있다.Referring back to FIG. 11, when the sun is at position S1, position S2, and position S3, the shadows by window H1 are respectively P1, P2, and P ( It may be formed based on the boundary of P3). The second
도 13에 표시한 바와 같이 원점(o)를 중심으로 (x, y, z) 축이 설정되어 실내 또는 실외의 특정 위치를 정의할 수 있다.As shown in FIG. 13, the (x, y, z) axis is set around the origin o to define a specific location indoors or outdoors.
도 14는 본 발명의 일 실시예에 따라 제2 스크린에 그림자를 표시하는 방법을 설명하기 위한 개념도이다.14 is a conceptual diagram illustrating a method of displaying a shadow on a second screen according to an embodiment of the present invention.
상술한 바와 같이 창(H1) 및 벽(15)에 의해 바닥(14)에 그림자가 드리워질 수 있다. 이때, 햇빛이 비춰지는 영역(P2) 내에는 외부 환경에 따라 전체적으로 또는 부분적으로 다른 물체의 그림자가 드리워질 수 있다.As described above, the
태양(O_4)의 위치가 결정되면, 태양(O_4)으로부터 입사되는 평행광은 창(H1)을 통해 바닥(14)의 특정 영역(P2)을 비출 수 있다. 이때 상기 창(H1)을 통해 입사되는 평행광은 점선(L_1) 및 점선(L_2)에 의해 한정되는 공간(SP)을 통해 입사될 수 있다. 공간(SP) 내에 대상물(O_x)과 같은 불투명 또는 반투명한 대상물(object)이 존재할 경우 영역(P2)에는 대상물(O_x)에 의해 형성되는 그림자(OS_x)가 더 형성될 수 있다.When the position of the sun O_4 is determined, the parallel light incident from the sun O_4 may shine through the window H1 to the specific area P2 of the bottom 14. In this case, the parallel light incident through the window H1 may be incident through the space SP defined by the dotted line L_1 and the dotted line L_2. When an opaque or translucent object such as the object O_x exists in the space SP, the shadow OS_x formed by the object O_x may be further formed in the region P2.
공간(SP)은, 태양의 위치 및 창(H1)의 바닥(14)으로부터의 높이(H)로부터 결정될 수 있다. 공간(SP)은 수학식, 예컨대 o를 원점으로 하며 (x, y, z) 좌표를 포함하는 수학식에 의해 정의될 수 있다. 또한, 창(H1) 밖에 존재하는 대상물(O_1, O_2, O_3, O_4, O_x)의 중심 위치가 각각 (x, y, z) 좌표로 주어질 수 있다. 공간(SP) 내에 대상물(O_x)이 포함되기 때문에, 영역(P2)에 대상물(O_x)에 의해 형성되는 그림자(OS_x)가 형성될 수 있다.The space SP can be determined from the position of the sun and the height H from the bottom 14 of the window H1. The space SP may be defined by a formula, for example, a formula including o as the origin and including (x, y, z) coordinates. In addition, the center positions of the objects O_1, O_2, O_3, O_4 and O_x existing outside the window H1 may be given in (x, y, z) coordinates, respectively. Since the object O_x is included in the space SP, the shadow OS_x formed by the object O_x may be formed in the region P2.
본 발명에 따른 일 실시예에서는 위와 같은 상황을 가정하고, 영역(P2)에 형성되는 이미지를 가상으로 생성할 수 있다. 즉, 예컨대, 도 14와 같이 대상물(O_1, O_2, O_3, O_4, O_x) 등이 실외에 존재하는 것으로 가정하고, 창(H1)의 위치에는 창(H1) 대신 제1 스크린(2')을 설치할 수 있다. 이때, 상술한 실시예들과 같이 실외의 환경을 제1 스크린(2') 상에 가상으로 표시할 수 있다. 또한, 바닥(14)에 제2 스크린(22)을 설치하고, 제2 스크린(22) 상의 영역(P2)에 제2 영상표시장치(11)을 사용하여 빛을 비출 수 있다. 이때, 영역(P2)에는 대상물(O_x)에 의한 그림자 이미지(OS_x)가 포함된 이미지를 표시할 수 있다. 제2 스크린(22) 중 영역(P2)를 제외한 부분은 벽(15)에 의해 형성되는 그림자가 드리워지도록 처리될 수 있다.In one embodiment according to the present invention, the above-described situation may be assumed, and an image formed in the area P2 may be virtually generated. For example, it is assumed that objects O_1, O_2, O_3, O_4, O_x and the like exist outdoors, as shown in FIG. 14, and the
영상처리장치(3)는 태양(O_4)의 위치를, 예컨대 표 1에 열거한 파라미터 중 Pdate, Ptime, Platitude에 의해 결정할 수 있다. 또한, 공간(SP)을 상기 Pdate, Ptime, Platitude 및 제1 스크린(2')의 바닥으로부터의 높이(H) 정보를 사용하여 정의할 수 있다. 또한, 영상처리장치(3)는, 실외에 존재하는 것으로 가정하는 대상물(O_x)의 중심 위치가 상기 정의된 공간(SP) 내에 포함되는 경우에는 대상물(O_x)의 그림자가 영역(P2)에 표시되도록 이미지를 생성할 수 있다.The
도 14에서, 대상물(O_x)은 공간(SP) 내에 완전히 포함되는 것으로 도시하였다. 그러나 이와 달리 만일 대상물(O_x)이 공간(SP) 내에 완전히 포함되지 않을 정도로 큰 경우에는, 대상물(O_x)를 여러 부분으로 분할하여 다시 정의할 수 있다. 그 다음, 각 부분이 공간(SP) 내에 포함되는지 여부를 결정할 수 있다. 이때 공간(SP) 내에 포함되는 상기 각 부분에 의해 형성되는 그림자만이 영역(P2)에 나타나도록 할 수 있다.In FIG. 14, the object O_x is shown to be completely included in the space SP. On the other hand, if the object O_x is large enough not to be completely included in the space SP, the object O_x may be divided into several parts and redefined. Then, it can be determined whether each part is included in the space SP. In this case, only the shadow formed by each of the parts included in the space SP may appear in the area P2.
도 15는 본 발명의 일 실시예에 따라 제1 스크린(2')와 제2 스크린(22)에 이미지를 표시하는 방법을 설명하기 위한 도면이다.FIG. 15 is a diagram for describing a method of displaying an image on a
보통 관찰자(100)의 시야각은 벽(15)에 의해 소정 각도(θ°)로 제한될 수 있다. 따라서, 실외에 있는 모든 대상물의 이미지를 창(H1)을 통해 볼 수 있는 것은 아니다.Usually the viewing angle of the
위의 현상과, 상술한 본 발명의 실시예들에 따른 내용을 고려하면, 대상물(O_x)(참조번호 150)이 공간(SP) 내의 지점 A에 있는 경우에는 제1 스크린(2') 상에서 대상물(O_x)의 이미지를 볼 수 있을 뿐만 아니라 제2 스크린(22)의 영역(P2) 상에서 대상물(O_x)의 그림자 이미지(OS_x)를 볼 수 있다. 그러나, 대상물(O_x)이 공간(SP) 내의 지점 B에 있는 경우에는, 대상물(O_x)이 관찰자(100)의 시야에서 벗어나 있기 때문에, 제1 스크린(2') 상에서는 대상물(O_x)의 이미지를 볼 수 없고, 다만 제2 스크린(22)의 영역(P2) 상에서 대상물(O_x)의 그림자 이미지를 볼 수 있다.Considering the above phenomenon and the contents according to the embodiments of the present invention described above, when the object O_x (reference numeral 150) is at the point A in the space SP, the object on the first screen 2 ' In addition to viewing the image of O_x, the shadow image OS_x of the object O_x may be viewed on the area P2 of the
지금까지 제1 스크린(2')에 표시되는 이미지와 제2 스크린(22)에 표시되는 이미지의 관계를 (x, y, z) 축을 사용하여 정의되는 공간 개념을 도입하여 설명하였으나, 본 발명은 이에 한정되지는 않는다. 즉, 실외에 존재하는 대상물의 공간적인 위치에 상관없이, 제1 스크린(2')에 표시되는 대상물 중 일부 또는 전부를 임의로 선택한 후, 선택된 대상물의 그림자에 해당하는 이미지를 제2 스크린(22)에 표시할 수 있다. 또한, 제1 스크린(2')에 표시되지 않는 대상물의 경우에도 그 그림자에 대응하는 이미지를 제2 스크린(22)에 표시할 수 있다.So far, the relationship between the image displayed on the first screen 2 'and the image displayed on the
도 16은 본 발명의 일 실시예에 따라 제2 스크린에 그림자 이미지를 형성하는 방법을 설명하기 위한 도면이다.16 is a diagram for describing a method of forming a shadow image on a second screen according to an embodiment of the present invention.
도 6 또는 도 7에서 설명된 커버(4)에 관한 구성은 도 13 내지 도 15의 제1 스크린(2')에도 적용될 수 있다. 도 16은 제1 스크린(2')이 도 6과 같이 커버(601, 602)에 의해 가려지는 구성을 예를 들어 도시한 것이다.The configuration of the
도 16의 (a)와 같이 커버(601, 602)가 완전히 개방된 경우에는 커버(601, 602)는 도 14 및 도 15에서 설명된 공간(SP) 내에 포함되지 않는다. 이때, 제2 스크린(22)의 영역(P2)에는 햇빛이 비추어지는 이미지가 표시될 수 있다. 또한, 이와 함께 대상물(O_x)이 공간(SP)에 포함되는 것으로 설정된 경우에는 도 16의 (b)와 같이 대상물(O_x)의 그림자 이미지가 영역(P2)에 표시될 수 있다.When the
도 16의 (c)와 같이 커버(601, 602)가 일부 개방된 경우에는 커버(601, 602)가 도 14 및 도 15에서 설명된 공간(SP) 내에 포함될 수 있다. 이때, 제2 스크린(22)의 영역(P2)에는 도 16의 (d)와 같이 햇빛이 비추어지는 이미지 및 커버(601, 602)에 의해 형성되는 그림자 이미지(S_601, S_602)가 함께 표시될 수 있다. 또한, 대상물(O_x)이 공간(SP)에 포함되는 것으로 설정된 경우에는 대상물(O_x)의 그림자 이미지가 영역(P2)에 표시될 수 있다.When the
본 발명의 일 실시예에 따른 영상처리장치(3)는, 제1 이미지를 표시하도록 되어 있는 제1 영상표시장치(1'), 및 제2 이미지를 특정 방향을 향해 공간 투영하도록 되어 있는 제2 영상표시장치(11)를 포함하며, 상기 특정 방향은 상기 제1 이미지에 대해 설정된 광원의 방향을 결정하는 하나 이상의 파라미터에 의해 결정될 수 있다. 상기 파라미터는 표 1에 열거한 Pdate, Ptime, Platitude, Pdirection 같은 파라미터 또는 일 수 있다. 상기 파라미터에 의해 광원, 예컨대 태양의 방향각이 결정될 수 있다. 상기 태양의 방향각이 (θx, θy, θz)로 결정되면, 상기 특정 방향은 (-θx, -θy, -θz)으로 설정될 수 있다.The
상기 제1 이미지는 제1 서브이미지를 포함하고, 상기 제2 이미지는 상기 제1 서브이미지의 그림자에 대응되는 제2 서브이미지를 포함할 수 있다. 상기 제1 서브이미지 및 상기 제2 서브이미지는 각각 예컨대 도 16에 설명한 대상물(O_x) 및 그림자 이미지(OS_x)일 수 있다.The first image may include a first subimage, and the second image may include a second subimage corresponding to a shadow of the first subimage. The first sub-image and the second sub-image may be, for example, the object O_x and the shadow image OS_x described with reference to FIG. 16.
상기 제2 이미지는 제2 영상표시장치(11)에 의해 투영되는 전체 이미지의 일부분일 수 있다. 상기 전체 이미지는 제2 스크린(22) 전체에 투영되는 이미지로서 벽(15)에 의해 형성되는 그림자의 이미지를 포함할 수 있다. 상기 제2 이미지는 영역(P2)에 표시되는 이미지일 수 있다. 이때, 상기 제2 영상표시장치(11)는 렌즈를 구비할 수 있고, 이 렌즈는 공간 회전되도록 설정되어 있지 않을 수 있다.The second image may be a part of the entire image projected by the second
이와 달리, 상기 제2 이미지는 상기 제2 영상표시장치(11)에 구비된 렌즈를 통해 투영될 수 있다. 이때, 상기 제2 이미지는 상기 렌즈에 의해 투영되는 전체 이미지일 수 있다. 이때, 상기 렌즈의 광축은 상기 투영 방향에 따라 회전 가능하도록 되어 있을 수 있다.Alternatively, the second image may be projected through a lens provided in the second
본 발명의 다른 실시예에 따른 영상처리장치(3)는 데이터 처리부(301)를 포함할 수 있다. 데이터 처리부(301)는 제1 영상표시장치(1')에서 표시되는 제1 이미지를 생성하고, 제2 영상표시장치(11)에서 특정 방향을 향해 공간 투영되는 제2 이미지를 생성하도록 되어 있고, 상기 특정 방향은 상기 제1 이미지에 대해 설정된 광원의 방향을 결정하는 하나 이상의 파라미터에 의해 결정될 수 있다.The
상술한 본 발명의 실시예들을 설명하기 위해 스크린(2)이 유리창의 기능을 대신하는 예를 들어 설명하였으나, 본 발명에 따른 스크린(2)은 본 발명을 적용 가능한 범위 내에서 거울의 기능 대신하도록 구성될 수도 있다.In order to explain the above-described embodiments of the present invention, the
본 발명의 제목이 본 발명의 범위를 한정하는 것으로 의도된 것이 아니며, 본 발명의 청구항의 내용을 포괄할 수 있도록 정정될 수 있다.The title of the present invention is not intended to limit the scope of the present invention, but may be corrected to cover the contents of the claims of the present invention.
본 발명의 일 실시예들에서 설명한 데이터 획득부, 데이터 처리부 등은 전자 회로, 집적 회로, ASIC (Application Specific Integrated Circuit) 등 공지된 다양한 소자들로 구현될 수 있으며, 각각 별개로 구현되거나 2 이상이 하나로 통합되어 구현될 수 있다.The data acquisition unit, the data processing unit, and the like described in the embodiments of the present invention may be implemented by various known elements such as an electronic circuit, an integrated circuit, an application specific integrated circuit (ASIC), and each of them may be implemented separately or two or more. It can be integrated into one.
발명의 상세한 설명은 본 발명의 실시예들을 설명하도록 의도된 것이며, 본 발명에 따라 구현될 수 있는 유일한 실시예를 나타내기 위한 것은 아니다. 본 발명의 상세한 설명은 본 발명의 용이한 이해를 위하여 특정용어를 사용하여 서술될 수 있다. 그러나 본 발명의 이러한 특정용어에 의해 제한되도록 의도한 것은 아니다. 따라서, 상술한 본 발명의 상세한 설명은 모든 면에서 제한적으로 해석되어서는 아니 되고 예시적인 것으로 고려되어야 한다. The detailed description of the invention is intended to describe embodiments of the invention and is not intended to represent the only embodiments that can be implemented in accordance with the invention. The detailed description of the invention may be described using specific terms for easy understanding of the invention. It is not intended, however, to be limited by this specific terminology of the invention. Accordingly, the above detailed description of the invention should not be construed as limiting in all aspects but considered as illustrative.
상술한 실시예들은 각각 본 발명의 구성요소들과 특징들이 소정 형태로 결합된 것이다. 각 구성요소 또는 특징은 다른 구성요소나 특징과 결합되지 않은 형태로 실시될 수 있다. 또한, 일부 구성요소들 및/또는 특징들을 결합하여 본 발명의 실시예를 구성하는 것도 가능하다. 어느 실시예의 일부 구성이나 특징은 본 발명의 사상에 반하지 않는다면 다른 실시예에 포함될 수 있고, 또는 다른 실시예의 대응되는 구성 또는 특징과 교체될 수 있다. 특허청구범위에서 명시적인 인용 관계가 있지 않은 청구항들을 결합하여 실시예를 구성하거나 출원 후의 보정에 의해 새로운 청구항으로 포함시킬 수 있음은 자명하다.Each of the above-described embodiments is a combination of the components and features of the present invention in a predetermined form. Each component or feature may be implemented in a form that is not combined with other components or features. It is also possible to combine some of the components and / or features to form an embodiment of the invention. Some constructions or features of one embodiment may be included in another embodiment if not contrary to the spirit of the present invention, or may be replaced with corresponding constructions or features of another embodiment. It is obvious that the claims may be combined to form an embodiment by combining claims that do not have an explicit citation relationship in the claims or as new claims by post-application correction.
당업자는 본 발명의 실시예에서 설명한 각 구성요소의 재질, 크기 등을 적용 분야에 따라 변경하거나, 개시된 실시형태들을 조합 또는 치환하여 본 발명의 실시예에 명확하게 개시되지 않은 형태로 실시할 수 있으나, 이 역시 본 발명의 범위를 벗어나지 않는 것이다.Those skilled in the art can change the material, size, etc. of each component described in the embodiments of the present invention according to the application field, or combine or replace the disclosed embodiments in a form that is not clearly disclosed in the embodiments of the present invention. This, too, does not depart from the scope of the present invention.
본 발명의 범위는 특허청구범위 합리적 해석을 고려하여 결정되어야 하고, 본 발명의 등가적 범위 내에서의 모든 변경은 본 발명의 범위에 포함된다. 본 발명의 기술 분야에 속하는 기술자라면 본 발명의 실시예들 및 특허청구범위로부터 본 발명의 사상을 용이하게 이해할 수 있을 것이다.The scope of the present invention should be determined in consideration of the reasonable interpretation of the claims, and all modifications within the equivalent scope of the present invention are included in the scope of the present invention. Those skilled in the art will be able to easily understand the spirit of the present invention from the embodiments of the present invention and the claims.
도 1은 본 발명의 일 실시예에 따른 영상표시장치(1)가 설치된 모습을 나타낸 도면이다.1 is a view showing a state in which the
도 2는 본 발명의 일 실시예에 따른 영상표시장치(1) 및 영상처리장치(3)의 구성을 나타내는 블록도이다.2 is a block diagram showing the configuration of an
도 3 및 도 4는 본 발명의 일 실시예에 따른 합성 이미지 생성 과정을 설명하기 위한 도면이다.3 and 4 are views for explaining a composite image generation process according to an embodiment of the present invention.
도 5는 본 발명의 일 실시예에 따라 이미지 레이어에 매핑되는 이미지가 시간에 따라 변경되는 현상을 설명하기 위한 도면이다.FIG. 5 is a diagram for describing a phenomenon in which an image mapped to an image layer is changed with time according to an embodiment of the present invention.
도 6 및 도 7은 본 발명의 일 실시예에 따라 설치된 스크린과 상기 스크린을 가리는 커버의 위치관계를 도시한 것이다.6 and 7 illustrate a positional relationship between a screen installed according to an embodiment of the present invention and a cover covering the screen.
도 8은 본 발명의 일 실시예에 따른 영상처리장치를 포함하는 영상 시스템의 구성을 나타낸 것이다.8 illustrates a configuration of an image system including an image processing apparatus according to an embodiment of the present invention.
도 9는 본 발명의 일 실시예에 따라 이미지 센서로부터 실내 이미지를 획득하여 스크린에 표시할 수 있도록 처리하는 과정을 설명하기 위한 것이다.FIG. 9 illustrates a process of obtaining an indoor image from an image sensor and displaying the same on a screen according to an embodiment of the present invention.
도 10은 본 발명의 일 실시예에 따라 이미지 센서에 의해 관찰된 이미지를 잘라내는 과정을 설명하기 위한 도면이다.10 is a diagram for describing a process of cropping an image observed by an image sensor according to an exemplary embodiment.
도 11은 본 발명의 다른 실시예에 따른 영상처리장치를 설명하기 위한 도면이다.11 is a diagram for describing an image processing apparatus according to another exemplary embodiment.
도 12는 본 발명의 일 실시예에 따른 영상처리장치가 사용될 수 있는 영상처 리시스템의 일 예를 설명하기 위한 다이어그램이다.12 is a diagram for explaining an example of an image processing system in which an image processing apparatus according to an embodiment of the present invention may be used.
도 13은 본 발명의 일 실시예에 따른 영상처리시스템을 설명하기 위한 도면이다.13 is a diagram for describing an image processing system according to an exemplary embodiment.
도 14는 본 발명의 일 실시예에 따라 제2 스크린에 그림자를 표시하는 방법을 설명하기 위한 개념도이다.14 is a conceptual diagram illustrating a method of displaying a shadow on a second screen according to an embodiment of the present invention.
도 15는 본 발명의 일 실시예에 따라 제1 스크린와 제2 스크린에 이미지를 표시하는 방법을 설명하기 위한 도면이다.FIG. 15 is a diagram for describing a method of displaying an image on a first screen and a second screen according to an embodiment of the present invention.
도 16은 본 발명의 일 실시예에 따라 제2 스크린에 그림자 이미지를 형성하는 방법을 설명하기 위한 도면이다.16 is a diagram for describing a method of forming a shadow image on a second screen according to an embodiment of the present invention.
Claims (10)
Priority Applications (1)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| KR1020090130435A KR101110276B1 (en) | 2009-12-24 | 2009-12-24 | Image processing device and image processing methods using multiple screens |
Applications Claiming Priority (1)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| KR1020090130435A KR101110276B1 (en) | 2009-12-24 | 2009-12-24 | Image processing device and image processing methods using multiple screens |
Publications (2)
| Publication Number | Publication Date |
|---|---|
| KR20110073718A KR20110073718A (en) | 2011-06-30 |
| KR101110276B1 true KR101110276B1 (en) | 2012-02-24 |
Family
ID=44404198
Family Applications (1)
| Application Number | Title | Priority Date | Filing Date |
|---|---|---|---|
| KR1020090130435A Expired - Fee Related KR101110276B1 (en) | 2009-12-24 | 2009-12-24 | Image processing device and image processing methods using multiple screens |
Country Status (1)
| Country | Link |
|---|---|
| KR (1) | KR101110276B1 (en) |
Families Citing this family (1)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| CN105278898A (en) * | 2014-07-24 | 2016-01-27 | 西安盈谷网络科技有限公司 | Method for image reading and processing based on 1:1 display |
Citations (2)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| KR100730404B1 (en) * | 2005-06-30 | 2007-06-19 | 광운대학교 산학협력단 | Stereoscopic video display |
| US20080316145A1 (en) * | 2007-06-25 | 2008-12-25 | May Gregory J | Virtual shadow for physical object placed on surface |
-
2009
- 2009-12-24 KR KR1020090130435A patent/KR101110276B1/en not_active Expired - Fee Related
Patent Citations (2)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| KR100730404B1 (en) * | 2005-06-30 | 2007-06-19 | 광운대학교 산학협력단 | Stereoscopic video display |
| US20080316145A1 (en) * | 2007-06-25 | 2008-12-25 | May Gregory J | Virtual shadow for physical object placed on surface |
Also Published As
| Publication number | Publication date |
|---|---|
| KR20110073718A (en) | 2011-06-30 |
Similar Documents
| Publication | Publication Date | Title |
|---|---|---|
| CN112040092B (en) | Real-time virtual scene LED shooting system and method | |
| JP5044817B2 (en) | Image processing method and apparatus for constructing virtual space | |
| GB2238405A (en) | Environmental control system for creating comfortable space | |
| JP4963105B2 (en) | Method and apparatus for storing images | |
| US7043368B1 (en) | Method and system for creating visualizations of future weather conditions | |
| Inanici | Evalution of high dynamic range image-based sky models in lighting simulation | |
| US4805895A (en) | Image forming apparatus and method | |
| US5253051A (en) | Video artificial window apparatus | |
| US20020141659A1 (en) | System and method for creation, processing and visualization of omni-directional images | |
| WO2018101394A1 (en) | Information processing device, information processing method, and program | |
| JP2009282406A (en) | Fixed point observation apparatus and fixed point observation method | |
| KR101110275B1 (en) | Image processing device and image processing methods using screen cover | |
| US9390558B2 (en) | Faux-transparency method and device | |
| KR101110276B1 (en) | Image processing device and image processing methods using multiple screens | |
| Chiou et al. | An HDRi-based data acquisition system for the exterior luminous environment in the daylight simulation model | |
| CN202196562U (en) | Historic site recovering phantom landscape platform | |
| KR101873681B1 (en) | System and method for virtual viewing based aerial photography information | |
| WO2020061186A1 (en) | An apparatus, methodologies and software applications for determining a level of direct sunlight | |
| JP5652126B2 (en) | Image processing apparatus and method, and program | |
| KR20110073715A (en) | Image processing apparatus and image processing method using a plurality of image layers | |
| JP2019125108A (en) | Image processing apparatus, image processing system, and image processing method | |
| Inanici | Applications of image based rendering in lighting simulation: Development and evaluation of image based sky models | |
| CN106249629A (en) | Compound forms open mode decision-making platform | |
| Heck et al. | Copacabana revisited: Photogrammetry-based model for urban sound auralization | |
| Madsen et al. | Probeless illumination estimation for outdoor augmented reality |
Legal Events
| Date | Code | Title | Description |
|---|---|---|---|
| A201 | Request for examination | ||
| PA0109 | Patent application |
St.27 status event code: A-0-1-A10-A12-nap-PA0109 |
|
| PA0201 | Request for examination |
St.27 status event code: A-1-2-D10-D11-exm-PA0201 |
|
| N231 | Notification of change of applicant | ||
| PN2301 | Change of applicant |
St.27 status event code: A-3-3-R10-R11-asn-PN2301 St.27 status event code: A-3-3-R10-R13-asn-PN2301 |
|
| D13-X000 | Search requested |
St.27 status event code: A-1-2-D10-D13-srh-X000 |
|
| D14-X000 | Search report completed |
St.27 status event code: A-1-2-D10-D14-srh-X000 |
|
| E902 | Notification of reason for refusal | ||
| PE0902 | Notice of grounds for rejection |
St.27 status event code: A-1-2-D10-D21-exm-PE0902 |
|
| P11-X000 | Amendment of application requested |
St.27 status event code: A-2-2-P10-P11-nap-X000 |
|
| P13-X000 | Application amended |
St.27 status event code: A-2-2-P10-P13-nap-X000 |
|
| PG1501 | Laying open of application |
St.27 status event code: A-1-1-Q10-Q12-nap-PG1501 |
|
| E701 | Decision to grant or registration of patent right | ||
| PE0701 | Decision of registration |
St.27 status event code: A-1-2-D10-D22-exm-PE0701 |
|
| PN2301 | Change of applicant |
St.27 status event code: A-3-3-R10-R11-asn-PN2301 St.27 status event code: A-3-3-R10-R13-asn-PN2301 |
|
| GRNT | Written decision to grant | ||
| PR0701 | Registration of establishment |
St.27 status event code: A-2-4-F10-F11-exm-PR0701 |
|
| PR1002 | Payment of registration fee |
Fee payment year number: 1 St.27 status event code: A-2-2-U10-U11-oth-PR1002 |
|
| PG1601 | Publication of registration |
St.27 status event code: A-4-4-Q10-Q13-nap-PG1601 |
|
| R18-X000 | Changes to party contact information recorded |
St.27 status event code: A-5-5-R10-R18-oth-X000 |
|
| FPAY | Annual fee payment |
Payment date: 20150119 Year of fee payment: 4 |
|
| PR1001 | Payment of annual fee |
Fee payment year number: 4 St.27 status event code: A-4-4-U10-U11-oth-PR1001 |
|
| FPAY | Annual fee payment |
Payment date: 20160115 Year of fee payment: 5 |
|
| PR1001 | Payment of annual fee |
Fee payment year number: 5 St.27 status event code: A-4-4-U10-U11-oth-PR1001 |
|
| PN2301 | Change of applicant |
St.27 status event code: A-5-5-R10-R11-asn-PN2301 St.27 status event code: A-5-5-R10-R13-asn-PN2301 |
|
| FPAY | Annual fee payment |
Payment date: 20161228 Year of fee payment: 6 |
|
| PR1001 | Payment of annual fee |
Fee payment year number: 6 St.27 status event code: A-4-4-U10-U11-oth-PR1001 |
|
| LAPS | Lapse due to unpaid annual fee | ||
| PC1903 | Unpaid annual fee |
Not in force date: 20180120 Payment event data comment text: Termination Category : DEFAULT_OF_REGISTRATION_FEE St.27 status event code: A-4-4-U10-U13-oth-PC1903 |
|
| P22-X000 | Classification modified |
St.27 status event code: A-4-4-P10-P22-nap-X000 |
|
| PC1903 | Unpaid annual fee |
Ip right cessation event data comment text: Termination Category : DEFAULT_OF_REGISTRATION_FEE Not in force date: 20180120 St.27 status event code: N-4-6-H10-H13-oth-PC1903 |
|
| PN2301 | Change of applicant |
St.27 status event code: A-5-5-R10-R11-asn-PN2301 St.27 status event code: A-5-5-R10-R13-asn-PN2301 |
|
| R18-X000 | Changes to party contact information recorded |
St.27 status event code: A-5-5-R10-R18-oth-X000 |
|
| PN2301 | Change of applicant |
St.27 status event code: A-5-5-R10-R11-asn-PN2301 St.27 status event code: A-5-5-R10-R13-asn-PN2301 |
|
| R18-X000 | Changes to party contact information recorded |
St.27 status event code: A-5-5-R10-R18-oth-X000 |
|
| R18-X000 | Changes to party contact information recorded |
St.27 status event code: A-5-5-R10-R18-oth-X000 |
|
| R18-X000 | Changes to party contact information recorded |
St.27 status event code: A-5-5-R10-R18-oth-X000 |
|
| R18-X000 | Changes to party contact information recorded |
St.27 status event code: A-5-5-R10-R18-oth-X000 |