[go: up one dir, main page]

KR102232462B1 - Autostereoscopic 3d display device - Google Patents

Autostereoscopic 3d display device Download PDF

Info

Publication number
KR102232462B1
KR102232462B1 KR1020140120369A KR20140120369A KR102232462B1 KR 102232462 B1 KR102232462 B1 KR 102232462B1 KR 1020140120369 A KR1020140120369 A KR 1020140120369A KR 20140120369 A KR20140120369 A KR 20140120369A KR 102232462 B1 KR102232462 B1 KR 102232462B1
Authority
KR
South Korea
Prior art keywords
view
image
viewing
viewer
input data
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
KR1020140120369A
Other languages
Korean (ko)
Other versions
KR20160030770A (en
Inventor
안충환
Original Assignee
엘지디스플레이 주식회사
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 엘지디스플레이 주식회사 filed Critical 엘지디스플레이 주식회사
Priority to KR1020140120369A priority Critical patent/KR102232462B1/en
Publication of KR20160030770A publication Critical patent/KR20160030770A/en
Application granted granted Critical
Publication of KR102232462B1 publication Critical patent/KR102232462B1/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B30/00Optical systems or apparatus for producing three-dimensional [3D] effects, e.g. stereoscopic images
    • G02B30/20Optical systems or apparatus for producing three-dimensional [3D] effects, e.g. stereoscopic images by providing first and second parallax images to an observer's left and right eyes
    • G02B30/26Optical systems or apparatus for producing three-dimensional [3D] effects, e.g. stereoscopic images by providing first and second parallax images to an observer's left and right eyes of the autostereoscopic type
    • G02B30/27Optical systems or apparatus for producing three-dimensional [3D] effects, e.g. stereoscopic images by providing first and second parallax images to an observer's left and right eyes of the autostereoscopic type involving lenticular arrays

Landscapes

  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Optics & Photonics (AREA)
  • Testing, Inspecting, Measuring Of Stereoscopic Televisions And Televisions (AREA)

Abstract

본 발명의 무안경 입체영상표시장치는 영상패널이나 3D 필터의 변경 없이 뷰잉 다이아몬드(viewing diamond)의 폭을 양안 간격의 a/n(a, n은 a < n 조건을 만족하는 자연수)배로 설정하는 동시에 뷰잉 다이아몬드를 중첩시키도록 구성하는 것을 특징으로 한다. 그리고, 뷰 데이터 렌더링(view data rendering) 과정을 통해 인접하는 뷰들간 동일하거나 유사한 입력 데이터를 새롭게 매핑(mapping)하는 것을 특징으로 한다.
이때, 줄어든 시청거리는 최적 시청거리 제어를 통해 멀티 뷰의 입력 데이터에서 적어도 일부를 다른 뷰의 입력 데이터로 변환하여 확장하는 것을 특징으로 한다.
The autostereoscopic 3D image display device of the present invention sets the width of a viewing diamond to a/n (a, n is a natural number satisfying the condition of a <n) times the binocular spacing without changing the image panel or 3D filter. At the same time, it is characterized in that it is configured to overlap viewing diamonds. In addition, it is characterized in that the same or similar input data is newly mapped between adjacent views through a view data rendering process.
In this case, the reduced viewing distance may be extended by converting at least a part of the input data of the multi-view into input data of another view through optimal viewing distance control.

Description

무안경 입체영상표시장치{AUTOSTEREOSCOPIC 3D DISPLAY DEVICE}Glasses-free 3D display device {AUTOSTEREOSCOPIC 3D DISPLAY DEVICE}

본 발명은 입체영상표시장치에 관한 것으로, 보다 상세하게는 안경을 착용하지 않는 방식의 무안경 입체영상표시장치에 관한 것이다.The present invention relates to a stereoscopic image display device, and more particularly, to an autostereoscopic stereoscopic image display device in a manner that does not wear glasses.

3D 디스플레이(display)란 간단히 정의를 내리자면 "인위적으로 3D 화면을 재생시켜 주는 시스템의 총체"라고 할 수 있다.A 3D display can be simply defined as "the whole of a system that artificially reproduces a 3D screen."

여기서, 시스템이란 3D로 보여질 수 있는 소프트웨어적인 기술과 그 소프트웨어적 기술로 만든 컨텐츠를 실제로 3D로 구현해내는 하드웨어를 동시에 포함한다. 소프트웨어 영역까지 포함시키는 이유는 3D 디스플레이 하드웨어의 경우 각각의 입체 구현방식마다 별도의 소프트웨어적 방식으로 구성된 컨텐츠가 따로 필요하기 때문이다.Here, the system includes both a software technology that can be viewed in 3D and a hardware that actually implements the contents created by the software technology in 3D. The reason for including the software area is that, in the case of 3D display hardware, content configured in a separate software method is required for each stereoscopic implementation method.

또한, 가상 3D 디스플레이(이하, 입체영상표시장치라 함)는 사람이 입체감을 느끼는 여러 요인 중 우리 눈이 가로방향으로 약 65mm 떨어져 있어서 나타나게 되는 양안시차(binocular disparity)를 이용하여 평면적인 디스플레이 하드웨어에서 말 그대로 가상적으로 입체감을 느낄 수 있게 하는 시스템의 총체이다. 다시 말해 우리의 눈은 양안시차 때문에 똑같은 사물을 바라보더라도 각각 약간은(정확히 말하면 좌우의 공간적 정보를 약간씩 나눠 가지고 있는) 다른 화상을 보게 되고, 이 두 화상이 망막을 통해 뇌로 전달되면 뇌는 이를 정확히 서로 융합시킴으로써 우리가 입체감을 느낄 수 있게 되는데, 그것을 이용하여 2D 디스플레이 장치에서 좌우 화상 2개를 동시에 표시하여 각각의 눈으로 보내는 설계를 통해 가상적인 입체감을 만들어 내는 것이 바로 입체영상표시장치인 것이다.In addition, a virtual 3D display (hereinafter referred to as a three-dimensional image display device) uses binocular disparity that appears when our eyes are about 65 mm apart in the horizontal direction, among several factors that a person feels a three-dimensional effect. It is literally the whole of a system that allows you to feel a three-dimensional effect virtually. In other words, because of binocular parallax, even if our eyes look at the same object, each of them sees slightly different images (to be precise, it has slightly different spatial information on the left and right), and when these two images are transmitted to the brain through the retina, the brain will By precisely fusing each other, we can feel a three-dimensional effect, and it is a three-dimensional image display device that creates a virtual three-dimensional effect through design that simultaneously displays two left and right images on a 2D display device and sends them to each eye. .

이러한 입체영상표시장치에서 하나의 화면으로 두 채널의 화상을 나타내기 위해서는 대부분의 경우 하나의 화면에서 가로나 세로의 한쪽 방향으로 줄을 한 줄씩 바꿔가며 한 채널씩 출력하게 된다. 그렇게 동시에 두 채널의 화상이 하나의 디스플레이 장치에서 출력되면 하드웨어적 구조상 무안경 방식의 경우에는 오른쪽 화상은 그대로 오른쪽 눈으로 들어가고, 왼쪽 화상은 왼쪽 눈으로만 들어가게 된다. 또한, 안경을 착용하는 방식의 경우에는 각각의 방식에 맞는 특수한 안경을 통하여 오른쪽 화상은 왼쪽 눈이 볼 수 없게 가려주고, 왼쪽 화상은 오른쪽 눈이 볼 수 없게 각각 가려주는 방법을 사용한다.In order to display images of two channels on one screen in such a stereoscopic image display device, in most cases, one screen is outputted one channel at a time by changing a line in a horizontal or vertical direction. When images of two channels are simultaneously output from one display device, in the case of a glasses-free system, due to the hardware structure, the right image goes into the right eye as it is, and the left image goes into the left eye only. In addition, in the case of wearing glasses, the right image is covered so that the left eye cannot see it through special glasses suitable for each method, and the left image is covered so that the right eye cannot see it.

이와 같이 사람이 입체감과 깊이감을 느끼는 요인으로 가장 중요하게는 두 눈 사이의 간격에 의한 양안시차를 들 수 있지만, 이외에도 심리적, 기억적 요인에도 깊은 관계가 있고, 이에 따라 입체 구현방식 역시 관찰자에게 어느 정도의 3차원 영상정보를 제공할 수 있는지를 기준으로 통상 부피표현방식(volumetric type), 3차원표현방식(holographic type), 입체감표현방식(stereoscopic type)으로 구분된다.In this way, the most important factor for a person's sense of three-dimensional effect and depth is binocular parallax due to the gap between the two eyes, but there is also a deep relationship to psychological and memory factors. Based on whether 3D image information of a degree can be provided, it is usually classified into a volumetric expression method, a three-dimensional expression method (holographic type), and a stereoscopic type expression method.

부피표현방식은 심리적인 요인과 흡입효과에 의해 깊이방향에 대한 원근감이 느껴지도록 하는 방법으로서, 투시도법, 중첩, 음영과 명암, 움직임 등을 계산에 의해 표시하는 3차원 컴퓨터그래픽, 또는 관찰자에게 시야각이 넓은 대화면을 제공하여 그 공간 내로 빨려 들어가는 것 같은 착시현상을 불러일으키는 이른바 아이맥스 영화 등에 응용되고 있다.The volume expression method is a method to feel the perspective of the depth direction by psychological factors and inhalation effects.Three-dimensional computer graphics that display perspective, superposition, shadows, contrast, movement, etc. by calculation, or viewing angle to the observer It is applied to the so-called IMAX movie, which provides an optical illusion of being sucked into the space by providing this large screen.

가장 완전한 입체영상 구현기술이라 알려져 있는 3차원표현방식은 레이저광 재생 홀로그래피(holography) 내지 백색광 재생 홀로그래피로 대표될 수 있다.The three-dimensional representation method known as the most complete stereoscopic image realization technology can be represented by laser light reproduction holography or white light reproduction holography.

그리고, 입체감표현방식은 양안의 생리적 요인을 이용하여 입체감을 느끼는 방식으로, 전술한 바와 같이 약 65㎜ 떨어져 존재하는 인간의 좌, 우안에 시차정보가 포함된 평면의 연관 영상이 보일 경우에 뇌가 이들을 융합하는 과정에서 표시면 전후의 공간정보를 생성해 입체감을 느끼는 능력, 즉 입체 사진술(stereography)을 이용한 것이다. 이러한 입체감표현방식은 크게 안경을 착용하는 방식과 안경을 착용하지 않는 무안경 방식이 있다.In addition, the three-dimensional expression method is a method of feeling a three-dimensional effect by using physiological factors of both eyes. As described above, when a plane related image containing parallax information is seen in the left and right eyes of a human being approximately 65 mm apart, the brain In the process of fusing them, it uses the ability to feel a three-dimensional effect by generating spatial information before and after the display surface, that is, stereoography. These three-dimensional expression methods are largely divided into a method of wearing glasses and a method of wearing glasses without glasses.

안경을 착용하지 않는 방식으로서 알려진 대표적인 것으로는 원통형의 렌즈를 수직으로 배열한 렌티큘러(lenticular) 렌즈판을 영상패널 전방에 설치하는 렌티큘러 렌즈 방식과 패러렉스 배리어(parallax barrier) 방식이 있다.Typical known methods of not wearing glasses include a lenticular lens method and a parallax barrier method in which a lenticular lens plate in which cylindrical lenses are arranged vertically is installed in front of an image panel.

도 1은 일반적인 렌티큘러 렌즈 방식의 입체영상표시장치의 개념을 설명하기 위한 도면으로써, 렌즈의 배면거리(S)와 시청거리(d) 사이의 관계를 보여주고 있다.1 is a diagram for explaining the concept of a general lenticular lens type 3D image display device, and shows the relationship between the rear distance S of the lens and the viewing distance d.

그리고, 도 2는 일반적인 렌티큘러 렌즈 방식의 입체영상표시장치 및 광 프로파일(profile)을 예를 들어 보여주는 도면이다.In addition, FIG. 2 is a diagram illustrating a general lenticular lens type 3D image display device and an optical profile as an example.

이때, 도 2의 중앙에는 시청영역(viewing zone)을 형성하는 뷰잉 다이아몬드(viewing diamond) 및 광 프로파일과 뷰 데이터를 도시하고 있으며, 도 2의 하단에는 뷰잉 다이아몬드 내에 실제로 인지되는 뷰를 개략적으로 도시하고 있다.At this time, the center of FIG. 2 shows a viewing diamond forming a viewing zone, a light profile, and view data, and a view that is actually perceived in the viewing diamond is schematically shown at the bottom of FIG. have.

도 1 및 도 2를 참조하면, 일반적인 렌티큘러 렌즈 방식의 입체영상표시장치는 상, 하부 기판과 그 사이에 액정이 충진된 액정패널(10), 액정패널(10)의 후면(後面)에 위치하여 광을 조사하는 백라이트 유닛(미도시) 및 입체영상의 구현을 위해 액정패널(10) 전면(前面)에 위치하는 렌티큘러 렌즈판(20)을 포함하여 이루어진다.1 and 2, a general lenticular lens type 3D image display device is located on the upper and lower substrates, and a liquid crystal panel 10 filled with liquid crystal therebetween, and a rear surface of the liquid crystal panel 10. It includes a backlight unit (not shown) that irradiates light and a lenticular lens plate 20 positioned on the front surface of the liquid crystal panel 10 for realizing a three-dimensional image.

렌티큘러 렌즈판(20)은 평평한 기판 상에, 그 상부 표면이 볼록렌즈 형상의 물질층으로 이루어진 다수의 렌티큘라 렌즈(25)가 형성되어 이루어진다.The lenticular lens plate 20 is formed by forming a plurality of lenticular lenses 25 on a flat substrate and having an upper surface of a material layer having a convex lens shape.

이러한 렌티큘러 렌즈판(20)은 좌, 우안 영상을 나누어주는 역할을 수행하고 있으며, 렌티큘러 렌즈판(20)으로부터 최적 시청거리 d에는 좌, 우안 각각으로 좌, 우안에 해당되는 영상들이 정상적으로 도달하는 다이아몬드 형태의 뷰잉 다이아몬드(정시영역)(30)가 형성되어 있다.The lenticular lens plate 20 serves to divide the left and right eye images, and the optimal viewing distance d from the lenticular lens plate 20 is a diamond in which images corresponding to the left and right eyes normally reach the left and right eyes respectively. A shaped viewing diamond (present region) 30 is formed.

뷰잉 다이아몬드(30)의 하나의 폭은 시청자의 양안 간격(e) 크기로 형성되는데, 이는 시청자의 좌안과 우안에 각각 시차가 있는 영상을 입력함으로써 입체영상으로 인식하게 하기 위함이다.One width of the viewing diamond 30 is formed in the size of the viewer's binocular spacing (e), which is to recognize as a stereoscopic image by inputting an image having a parallax on the viewer's left eye and right eye respectively.

이때, 각 뷰잉 다이아몬드(30)에는 대응되는 액정패널(10)의 서브-픽셀의 뷰 데이터, 즉 이미지가 형성된다.At this time, view data, that is, an image, of a sub-pixel of the liquid crystal panel 10 corresponding to each viewing diamond 30 is formed.

뷰 데이터는 양안 간격(e)의 기준만큼 떨어진 카메라에서 촬영된 영상을 의미한다.The view data refers to an image captured by a camera that is separated by a criterion of the binocular spacing (e).

이러한 일반적인 렌티큘러 렌즈 방식의 입체영상표시장치는 액정패널(10)과 렌티큘러 렌즈판(20)이 기구물(미도시) 등에 의해 지지되어, 액정패널(10)과 렌티큘러 렌즈판(20) 사이가 소정 간격(배면 거리; S) 이격되어 있다.In such a general lenticular lens type 3D image display device, the liquid crystal panel 10 and the lenticular lens plate 20 are supported by a device (not shown), so that a predetermined distance between the liquid crystal panel 10 and the lenticular lens plate 20 (Rear distance; S) spaced apart.

이때, 일반적인 렌티큘라 렌즈 방식의 입체영상표시장치에서는 배면 거리(S)를 일정하게 유지하기 위해 갭 글라스(26)가 삽입되어 있다.At this time, in a general lenticular lens type 3D image display device, a gap glass 26 is inserted to keep the rear distance S constant.

전술한 바와 같이, 렌티큘러 렌즈 방식의 입체영상표시장치에서는 초기에 설계된 뷰-맵(view map)에 따라 형성되는 멀티 뷰(multi view) 방식으로 구현되기 때문에 시청자는 정해진 뷰의 영역으로 들어갈 때 3D 영상을 시청할 수 있다.As described above, in a 3D image display device of a lenticular lens type, since it is implemented in a multi view method formed according to an initially designed view map, a 3D image is displayed when the viewer enters the specified view area. You can watch.

이때, 도 2를 참조하여 최적 시청거리 d에서 측정된 광 프로파일을 보면, 뷰잉 다이아몬드(30)의 중앙에서 광의 세기(intensity)가 가장 높고 뷰잉 다이아몬드(30)의 끝으로 갈수록 낮아지는 것을 알 수 있다. 광의 세기의 최고점과 최저점 사이의 차이를 휘도 편차(Luminance Difference; LD)(△L)라고 정의할 수 있으며, 일반적인 렌티큘러 렌즈 방식의 입체영상표시장치에서는 각 뷰에서 휘도 편차가 크게 나타나고 있어 화질 품위에 크게 영향을 주고 있다.At this time, when looking at the optical profile measured at the optimal viewing distance d with reference to FIG. 2, it can be seen that the intensity of the light at the center of the viewing diamond 30 is highest and decreases toward the end of the viewing diamond 30. . The difference between the highest point and the lowest point of the light intensity can be defined as the luminance difference (LD) (△L). It has a great influence.

한편, 시청자가 뷰잉 다이아몬드(30)간에 위치 이동을 함으로써 인지되는 뷰간 영상 차이를 이미지 플리핑(image flipping)이라 하는데, 정시에서 역시, 역시에서 정시로 이동할 때 그 차이가 최대로 인식되게 된다. 따라서, 뷰 수가 늘어날수록 첫 번째 뷰 데이터와 마지막 번째 뷰 데이터 사이에 영상의 차이가 커지고, 이에 따라 이미지 플리핑 현상 또한 심해지게 된다.On the other hand, an image difference between views perceived by the viewer moving the position between the viewing diamonds 30 is referred to as image flipping, and the difference is recognized as the maximum when moving from the right time to the right time as well. Accordingly, as the number of views increases, the difference in the image between the first view data and the last view data increases, and accordingly, the image flipping phenomenon also increases.

본 발명은 상기한 문제를 해결하기 위한 것으로, 영상패널이나 3D 필터의 변경 없이 입체영상의 3D 크로스토크와 휘도 편차 및 이미지 플리핑을 제거하거나 최소화하고, 이를 통해 입체영상의 깊이를 향상시키도록 한 무안경 입체영상표시장치를 제공하는데 목적이 있다.The present invention is to solve the above problem, and eliminate or minimize 3D crosstalk, luminance deviation, and image flipping of a stereoscopic image without changing an image panel or a 3D filter, thereby improving the depth of the stereoscopic image. It is an object to provide an autostereoscopic 3D image display device.

기타, 본 발명의 다른 목적 및 특징들은 후술되는 발명의 구성 및 특허청구범위에서 설명될 것이다.In addition, other objects and features of the present invention will be described in the configuration and claims of the invention to be described later.

상기한 목적을 달성하기 위하여, 본 발명의 일 실시예에 따른 무안경 입체영상표시장치는 영상패널과 영상패널의 전면에 배치되며, 시청거리에 뷰잉 다이아몬드(viewing diamond)를 형성하는 3D 필터 및 영상패널과 3D 필터 사이의 간격을 유지하는 갭 글라스를 포함하며, 뷰잉 다이아몬드의 폭을 양안 간격의 a/n(a, n은 a < n 조건을 만족하는 자연수)배로 설정하는 동시에 뷰잉 다이아몬드를 상호 중첩시키는 것을 특징으로 한다.In order to achieve the above object, the autostereoscopic 3D image display device according to an embodiment of the present invention is disposed on the front side of the image panel and the image panel, and a 3D filter and image to form a viewing diamond at a viewing distance. It includes a gap glass that maintains the gap between the panel and the 3D filter, and sets the width of the viewing diamond to a/n times the binocular spacing (a, n is a natural number that satisfies a <n condition) and overlaps the viewing diamond with each other. It is characterized by letting go.

또한, 본 발명의 일 실시예에 따른 무안경 입체영상표시장치는 뷰잉 다이아몬드에 단일 뷰가 형성되는 최적 시청거리를 d라고 하였을 때, 2d, 3d,....까지 시청거리를 확장하기 위해서 최소한 뷰잉 다이아몬드의 중첩 수는 2중첩, 3중첩,....이상으로 설정하는 것을 특징으로 한다.In addition, in the autostereoscopic 3D image display device according to an embodiment of the present invention, when d is the optimum viewing distance at which a single view is formed on the viewing diamond, at least in order to extend the viewing distance to 2d, 3d, .... It is characterized in that the number of overlapping viewing diamonds is set to 2 overlaps, 3 overlaps, ... or more.

이때, 영상패널은 m(m은 자연수)개의 서브-픽셀에 순차적으로 첫 번째 뷰 내지 m번째 뷰가 할당되어 멀티 뷰의 입력 데이터를 표시할 수 있다.In this case, the image panel may sequentially assign a first view to an m-th view to m (m is a natural number) sub-pixels to display input data of a multi-view.

3D 필터는 입력 데이터의 광축을 분리하여 시청거리에 제 1 뷰 영상 내지 제 k(k는 1 ≤ k ≤ m을 만족하는 자연수) 뷰 영상이 표시되는 뷰잉 다이아몬드를 형성할 수 있다.The 3D filter may form a viewing diamond in which a first view image to a kth (k is a natural number satisfying 1 ≤ k ≤ m) view image is displayed in the viewing distance by separating the optical axis of the input data.

3D 필터는 다수의 렌티큘라 렌즈로 이루어진 렌티큘러 렌즈판을 포함할 수 있다.The 3D filter may include a lenticular lens plate made of a plurality of lenticular lenses.

뷰잉 다이아몬드의 폭을 양안 간격의 a/n배로 설정함에 따라 최적 시청거리가 a/n배만큼 축소될 수 있다.As the width of the viewing diamond is set to a/n times the distance between both eyes, the optimal viewing distance may be reduced by a/n times.

본 발명의 일 실시예에 따른 무안경 입체영상표시장치는 인접하는 뷰들간에 동일하거나 유사한 입력 데이터를 새롭게 매핑(mapping)하는 타이밍 컨트롤러를 추가로 포함할 수 있다.The autostereoscopic 3D display device according to an embodiment of the present invention may further include a timing controller for newly mapping input data that is the same or similar between adjacent views.

이러한 타이밍 컨트롤러는 좌안과 우안 사이에 위치하는 뷰잉 다이아몬드의 입력 데이터를 상기 좌안이나 우안이 인지하는 뷰 영상과 동일하거나 유사한 뷰 영상으로 변환할 수 있다.The timing controller may convert input data of a viewing diamond positioned between the left eye and the right eye into a view image identical to or similar to a view image perceived by the left or right eye.

좌안에서 인지되는 서브-픽셀과 우안에서 인지되는 서브-픽셀은 하나의 서브-픽셀만큼 공간적으로 떨어져 있을 수 있다.The sub-pixel perceived in the left eye and the sub-pixel perceived in the right eye may be spatially separated by one sub-pixel.

입력 데이터의 중첩 수는 뷰잉 다이아몬드의 중첩 수×(양안 간격/뷰잉 다이아몬드의 폭)과 같거나 작게 설정될 수 있다.The number of overlaps of the input data may be set equal to or smaller than the number of overlaps of the viewing diamond x (binocular spacing/width of the viewing diamond).

전체 뷰의 수는 (N+1)×뷰잉 다이아몬드의 중첩 수×(양안 간격/뷰잉 다이아몬드의 폭)(N은 자연수)와 같거나 작게 설정될 수 있다.The total number of views may be set equal to or smaller than (N+1) × number of overlapping viewing diamonds × (binocular spacing/width of viewing diamond) (N is a natural number).

본 발명의 일 실시예에 따른 무안경 입체영상표시장치는 시청자의 양안 위치를 감지하는 시청거리 감지부를 추가로 포함할 수 있다.The autostereoscopic 3D image display device according to an embodiment of the present invention may further include a viewing distance sensing unit that detects the position of both eyes of a viewer.

또한, 본 발명의 일 실시예에 따른 무안경 입체영상표시장치는 시청자의 양안 위치를 미리 설정된 뷰잉 존들에 대한 위치 정보와 비교하여 시청자의 양안이 위치하는 뷰잉 존들이 정상적인 입체 영상이 보이지 않는 뷰잉 존들로 판단되면, 멀티 뷰의 입력 데이터에서 적어도 일부를 다른 뷰의 입력 데이터로 변환하는 시청거리 확장 제어부를 추가로 포함할 수 있다.In addition, the autostereoscopic 3D image display device according to an embodiment of the present invention compares the position of both eyes of the viewer with position information on preset viewing zones, and the viewing zones in which both eyes of the viewer are located are viewing zones in which normal 3D images are not visible. If determined to be, a viewing distance extension control unit for converting at least a part of the input data of the multi-view into input data of another view may be additionally included.

이때, 뷰잉 존들은 상기 영상패널로부터의 제 1 시청거리에 위치하는 뷰잉 존들 및 상기 영상패널로부터의 제 2 시청거리에 위치하는 뷰잉 존들을 포함한다. 제 2 시청거리는 제 1 시청거리보다 더 멀 때, 시청거리 확장 제어부는 멀티 뷰의 입력 데이터에서 적어도 일부는 다른 뷰의 입력 데이터로 변환하여 시청자의 위치가 제 1 시청거리를 따라 위치하는 뷰잉 존들의 뷰 차이와 동일하게, 제 2 시청거리를 따라 위치하는 뷰잉 존들에서 보이는 뷰 영상들의 뷰 차이를 제어할 수 있다.In this case, the viewing zones include viewing zones located at a first viewing distance from the image panel and viewing zones located at a second viewing distance from the image panel. When the second viewing distance is farther than the first viewing distance, the viewing distance extension control unit converts at least a part of the input data of the multi-view into input data of another view, so that the viewer's position is located along the first viewing distance. In the same way as the view difference, it is possible to control the view difference of the view images seen in the viewing zones located along the second viewing distance.

이때, 시청거리 확장 제어부는 시청자의 우안 인지 영상과 좌안 인지 영상 중 어느 하나의 뷰 영상을 우안 인지 영상과 좌안 인지 영상에서 공통으로 보이는 입력 데이터로 변환할 수 있다.In this case, the viewing distance extension control unit may convert any one of the viewer's right-eye perception image and left-eye perception image into input data commonly seen in the right-eye perception image and the left-eye perception image.

그리고, 제 2 시청거리에 위치하는 제 1 뷰잉 존에서 시청자의 우안으로 인식되는 영상의 우측 부분에 제 1 뷰 영상이 보이고, 우안으로 인식되는 영상의 좌측 부분에 제 2 뷰 영상이 보이며, 제 2 시청거리에 위치하는 제 2 뷰잉 존에서 시청자의 좌안으로 인식되는 영상의 우측 부분에 제 2 뷰 영상이 보이고, 좌안으로 인식되는 영상의 좌측 부분에 제 3 뷰 영상이 보일 때, 시청거리 확장 제어부는 영상패널에 공급될 제 3 뷰 입력 데이터를 제 2 뷰 입력 데이터로 변화한 후에 제 1 뷰잉 존에서 시청자의 우안으로 인식되는 영상의 좌측 부분에서 보이는 서브-픽셀들에 기입된 제 2 뷰 입력 데이터를 제 1 뷰 입력 데이터로 변환할 수 있다.And, in the first viewing zone located at the second viewing distance, the first view image is shown on the right part of the image recognized as the right eye of the viewer, the second view image is shown on the left part of the image recognized as the right eye, and the second When the second view image is shown in the right part of the image recognized as the viewer's left eye in the second viewing zone located at the viewing distance, and the third view image is shown in the left part of the image recognized as the left eye, the viewing distance extension control unit After changing the third view input data to be supplied to the image panel into the second view input data, the second view input data written in the sub-pixels visible from the left portion of the image recognized as the viewer's right eye in the first viewing zone is converted into the second view input data. It can be converted into first view input data.

상술한 바와 같이, 본 발명에 따른 무안경 입체영상표시장치는 영상패널이나 3D 필터의 변경 없이 뷰잉 다이아몬드의 폭을 양안 간격의 a/n(a, n은 a < n 조건을 만족하는 자연수)배로 설정하는 동시에 뷰잉 다이아몬드를 중첩시키는 한편, 뷰 데이터 렌더링 과정을 통해 인접하는 뷰들간 동일하거나 유사한 입력 데이터를 새롭게 매핑 하는 것을 특징으로 한다. 이때, 줄어든 시청거리는 최적 시청거리 제어를 통해 멀티 뷰의 입력 데이터에서 적어도 일부를 다른 뷰의 입력 데이터로 변환하여 확장하는 것을 특징으로 한다.As described above, the autostereoscopic 3D image display device according to the present invention increases the width of the viewing diamond by a/n (a, n is a natural number satisfying the condition of a <n) times the width of the viewing diamond without changing the image panel or the 3D filter. It is characterized in that the same or similar input data is newly mapped between adjacent views through a view data rendering process while setting and overlapping the viewing diamonds at the same time. In this case, the reduced viewing distance may be extended by converting at least a part of the input data of the multi-view into input data of another view through optimal viewing distance control.

이에 의해 비용 증가 없이 입체영상의 3D 크로스토크와 휘도 편차 및 이미지 플리핑을 제거하거나 최소화하고, 이를 통해 입체영상의 깊이를 향상시킴에 따라 화질 품위가 향상되는 효과를 제공한다.Accordingly, 3D crosstalk, luminance deviation and image flipping of a 3D image are removed or minimized without increasing cost, and the depth of the 3D image is improved through this, thereby providing an effect of improving the quality of image quality.

도 1은 일반적인 렌티큘러 렌즈 방식의 입체영상표시장치의 개념을 설명하기 위한 도면.
도 2는 일반적인 렌티큘러 렌즈 방식의 입체영상표시장치 및 광 프로파일을 예를 들어 보여주는 도면.
도 3은 본 발명에 따른 무안경 입체영상표시장치의 구성을 개략적으로 보여주는 블록도.
도 4는 본 발명에 따른 무안경 입체영상표시장치를 개략적으로 보여주는 사시도.
도 5는 본 발명의 제 1 실시예에 따른 무안경 입체영상표시장치 및 광 프로파일을 예를 들어 보여주는 도면.
도 6은 본 발명의 제 2 실시예에 따른 무안경 입체영상표시장치 및 광 프로파일을 예를 들어 보여주는 도면.
도 7은 본 발명의 제 2 실시예에 따른 무안경 입체영상표시장치의 뷰 중첩구조 및 광 프로파일을 예를 들어 보여주는 도면.
도 8은 본 발명의 제 2 실시예에 따른 무안경 입체영상표시장치의 다른 뷰 중첩구조 및 광 프로파일을 예를 들어 보여주는 도면.
도 9는 도 7에 도시된 본 발명의 제 2 실시예에 따른 무안경 입체영상표시장치의 뷰 중첩구조에 있어, 뷰 데이터 렌더링을 통해 새롭게 매핑된 광 프로파일 및 뷰 데이터를 예를 들어 보여주는 도면.
도 10은 도 8에 도시된 본 발명의 제 2 실시예에 따른 무안경 입체영상표시장치의 다른 뷰 중첩구조에 있어, 뷰 데이터 렌더링을 통해 새롭게 매핑된 광 프로파일 및 뷰 데이터를 예를 들어 보여주는 도면.
도 11은 도 5에 도시된 본 발명의 제 1 실시예에 따른 무안경 입체영상표시장치에 있어, 뷰-맵이 기입된 픽셀 어레이 및 렌티큘러 렌즈 배치를 예를 들어 보여주는 도면.
도 12는 도 11에 도시된 픽셀 어레이에 입력되는 입력 데이터를 예를 들어 보여주는 도면.
도 13은 뷰 데이터 렌더링을 통해 입력 데이터를 변환하는 예를 보여주는 도면.
도 14a 및 도 14b는 도 5에 도시된 본 발명의 제 1 실시예에 따른 무안경 입체영상표시장치에 있어, 좌안 및 우안에서 인지되는 서브-픽셀과 뷰를 예를 들어 보여주는 도면.
도 15a 및 도 15b는 도 5에 도시된 본 발명의 제 1 실시예에 따른 무안경 입체영상표시장치에 있어, 좌안 및 우안에서 인지되는 입력 데이터를 예를 들어 보여주는 도면.
도 16a 및 도 16b는 도 5에 도시된 본 발명의 제 1 실시예에 따른 무안경 입체영상표시장치에 있어, 양안에서 인지되는 서브-픽셀 및 입력 데이터를 예를 들어 보여주는 도면.
도 17은 도 7에 도시된 본 발명의 제 2 실시예에 따른 무안경 입체영상표시장치에 있어, 픽셀 어레이에 입력되는 입력 데이터를 예를 들어 보여주는 도면.
도 18은 뷰 데이터 렌더링을 통해 입력 데이터를 변환하는 예를 보여주는 도면.
도 19는 도 7에 도시된 본 발명의 제 2 실시예에 따른 무안경 입체영상표시장치에 있어, 픽셀 어레이에 입력되는 입력 데이터의 다른 예를 보여주는 도면.
도 20은 뷰 데이터 렌더링을 통해 입력 데이터를 변환하는 다른 예를 보여주는 도면.
도 21a 및 도 21b는 도 7에 도시된 본 발명의 제 2 실시예에 따른 무안경 입체영상표시장치에 있어, 좌안 및 우안에서 인지되는 서브-픽셀과 뷰를 예를 들어 보여주는 도면.
도 22a 및 도 22b는 도 7에 도시된 본 발명의 제 2 실시예에 따른 무안경 입체영상표시장치에 있어, 좌안 및 우안에서 인지되는 입력 데이터를 예를 들어 보여주는 도면.
도 23a 및 도 23b는 도 7에 도시된 본 발명의 제 2 실시예에 따른 무안경 입체영상표시장치에 있어, 양안에서 인지되는 서브-픽셀 및 입력 데이터를 예를 들어 보여주는 도면.
도 24는 본 발명의 제 3 실시예에 따른 무안경 입체영상표시장치의 뷰 중첩구조 및 광 프로파일을 예를 들어 보여주는 도면.
도 25는 본 발명의 제 3 실시예에 따른 무안경 입체영상표시장치에 있어, 시청자의 위치에 따른 멀티 뷰 영상의 시청영역을 예를 들어 보여주는 도면.
도 26은 도 24에 도시된 본 발명의 제 3 실시예에 따른 무안경 입체영상표시장치에 있어, 뷰-맵이 기입된 픽셀 어레이를 예를 들어 보여주는 도면.
도 27a 및 도 27b는 도 25의 P1 위치에서 시청자의 우안 및 좌안에서 인지되는 서브-픽셀과 뷰를 예를 들어 보여주는 도면.
도 28은 도 25의 P1 위치에서 시청자의 우안 및 좌안에서 인지되는 영상을 예를 들어 보여주는 도면.
도 29a 및 도 29b는 도 25의 P2 위치에서 시청자의 우안 및 좌안에서 인지되는 서브-픽셀과 뷰를 예를 들어 보여주는 도면.
도 30은 도 25의 P2 위치에서 시청자의 우안 및 좌안에서 인지되는 영상을 예를 들어 보여주는 도면.
도 31은 뷰 유지 방법에서 시청자의 우안과 좌안으로 보이는 뷰 영상들 중에서 어느 하나를 공통으로 인지되는 뷰 영상으로 변환하는 일 예를 보여주는 도면.
도 32는 뷰 유지 방법에서 시청자가 P2 위치에 있을 때, 1차 변환된 뷰 영상에 대하여 보상이 필요한 부분을 보여 주는 도면.
도 33은 뷰 유지 방법을 통해 입력 데이터를 변환하는 예를 보여주는 도면.
도 34는 뷰 유지 방법을 통해 변환되어 픽셀 어레이에 입력되는 입력 데이터를 예를 들어 보여주는 도면.
도 35a 및 도 35b는 시청자가 P2 위치에서 도 34에 도시된 픽셀 어레이를 바라볼 때, 시청자의 우안 및 좌안에서 보여지는 서브-픽셀들을 예를 들어 보여주는 도면.
1 is a view for explaining the concept of a stereoscopic image display device of a general lenticular lens type.
2 is a view showing a general lenticular lens type 3D image display device and an optical profile as an example.
3 is a block diagram schematically showing the configuration of an autostereoscopic 3D image display device according to the present invention.
4 is a perspective view schematically showing an autostereoscopic 3D image display device according to the present invention.
5 is a view showing an example of an autostereoscopic 3D image display device and an optical profile according to the first embodiment of the present invention.
6 is a view showing an example of an autostereoscopic 3D image display device and an optical profile according to a second embodiment of the present invention.
7 is a view showing an example of a view overlapping structure and an optical profile of an autostereoscopic 3D display device according to a second embodiment of the present invention.
8 is a view showing, for example, another view overlapping structure and a light profile of the autostereoscopic 3D display device according to the second embodiment of the present invention.
9 is a view showing an example of a newly mapped light profile and view data through view data rendering in the view superposition structure of the autostereoscopic 3D display device according to the second embodiment of the present invention shown in FIG. 7.
FIG. 10 is a view showing, for example, an optical profile and view data newly mapped through view data rendering in another view superposition structure of the autostereoscopic 3D display device according to the second embodiment of the present invention shown in FIG. 8 .
11 is a view showing an example of an arrangement of a pixel array and a lenticular lens in which a view-map is written in the autostereoscopic 3D image display device according to the first embodiment of the present invention shown in FIG. 5.
12 is a diagram illustrating input data input to the pixel array shown in FIG. 11 as an example.
13 is a diagram illustrating an example of converting input data through view data rendering.
14A and 14B are diagrams illustrating, for example, sub-pixels and views perceived by the left and right eyes in the autostereoscopic 3D image display device according to the first embodiment of the present invention shown in FIG. 5.
15A and 15B are diagrams illustrating input data perceived by the left and right eyes in the autostereoscopic 3D image display device according to the first embodiment of the present invention shown in FIG. 5 as an example.
16A and 16B are views showing, for example, sub-pixels and input data perceived by both eyes in the autostereoscopic 3D display device according to the first embodiment of the present invention shown in FIG. 5.
FIG. 17 is a view showing, for example, input data input to a pixel array in the autostereoscopic 3D display device according to the second embodiment of the present invention shown in FIG. 7.
18 is a diagram illustrating an example of converting input data through view data rendering.
FIG. 19 is a view showing another example of input data input to a pixel array in the autostereoscopic 3D display device according to the second embodiment of the present invention shown in FIG. 7.
20 is a diagram illustrating another example of converting input data through view data rendering.
21A and 21B are views showing, for example, sub-pixels and views perceived by the left and right eyes in the autostereoscopic 3D image display device according to the second embodiment of the present invention shown in FIG. 7.
22A and 22B are diagrams illustrating input data perceived by the left and right eyes in the autostereoscopic 3D display device according to the second embodiment of the present invention shown in FIG. 7 as an example.
23A and 23B are views showing, for example, sub-pixels and input data perceived by both eyes in the autostereoscopic 3D display device according to the second embodiment of the present invention shown in FIG. 7.
24 is a view showing an example of a view overlapping structure and an optical profile of an autostereoscopic 3D display device according to a third embodiment of the present invention.
25 is a view showing an example of a viewing area of a multi-view image according to a viewer's position in the autostereoscopic 3D image display device according to the third embodiment of the present invention.
FIG. 26 is a view showing an example of a pixel array in which a view-map is written in the autostereoscopic 3D image display device according to the third embodiment of the present invention shown in FIG. 24;
27A and 27B are views showing, for example, sub-pixels and views perceived by the viewer's right eye and left eye at a position P1 of FIG. 25;
FIG. 28 is a diagram illustrating, for example, images perceived by a viewer's right eye and left eye at a position P1 of FIG. 25;
29A and 29B are views showing, for example, sub-pixels and views perceived by the viewer's right eye and left eye at a position P2 of FIG. 25;
FIG. 30 is a diagram illustrating, for example, images perceived by a viewer's right eye and left eye at a position P2 of FIG. 25;
FIG. 31 is a diagram illustrating an example of converting any one of view images viewed by a viewer's right eye and left eye into a commonly recognized view image in a view maintenance method.
FIG. 32 is a diagram illustrating a portion requiring compensation for a view image converted by a first order when a viewer is at a position P2 in the view maintenance method.
33 is a diagram illustrating an example of converting input data through a view holding method.
34 is a diagram showing input data converted through a view holding method and input to a pixel array, for example.
35A and 35B are diagrams illustrating, for example, sub-pixels viewed from the viewer's right eye and left eye when the viewer views the pixel array shown in FIG. 34 from the P2 position.

이하, 첨부한 도면을 참조하여 본 발명에 따른 무안경 입체영상표시장치의 바람직한 실시예를 본 발명이 속하는 기술분야에서 통상의 지식을 가진 자가 용이하게 실시할 수 있도록 상세히 설명한다.Hereinafter, preferred embodiments of the autostereoscopic 3D display device according to the present invention will be described in detail with reference to the accompanying drawings so that those of ordinary skill in the art can easily implement the present invention.

본 발명의 이점 및 특징, 그리고 그것들을 달성하는 방법은 첨부되는 도면과 함께 상세하게 후술되어 있는 실시예들을 참조하면 명확해질 것이다. 그러나, 본 발명은 이하에서 개시되는 실시예들에 한정되는 것이 아니라 서로 다른 다양한 형태로 구현될 것이며, 단지 본 실시예들은 본 발명의 개시가 완전하도록 하며, 본 발명이 속하는 기술분야에서 통상의 지식을 가진 자에게 발명의 범주를 완전하게 알려주기 위해 제공되는 것이며, 본 발명은 청구항의 범주에 의해 정의될 뿐이다. 명세서 전체에 걸쳐 동일 참조 부호는 동일 구성요소를 지칭한다. 도면에서 층 및 영역들의 크기 및 상대적인 크기는 설명의 명료성을 위해 과장될 수 있다.Advantages and features of the present invention, and a method of achieving them will become apparent with reference to the embodiments described below in detail together with the accompanying drawings. However, the present invention is not limited to the embodiments disclosed below, but will be implemented in a variety of different forms, only the present embodiments are intended to complete the disclosure of the present invention, and common knowledge in the technical field to which the present invention pertains. It is provided to completely inform the scope of the invention to those who have, and the invention is only defined by the scope of the claims. The same reference numerals refer to the same elements throughout the specification. In the drawings, the sizes and relative sizes of layers and regions may be exaggerated for clarity of description.

소자(element) 또는 층이 다른 소자 또는 "위(on)" 또는 "상(on)"으로 지칭되는 것은 다른 소자 또는 층의 바로 위뿐만 아니라 중간에 다른 층 또는 다른 소자를 개재한 경우를 모두 포함한다. 반면, 소자가 "직접 위(directly on)" 또는 "바로 위"로 지칭되는 것은 중간에 다른 소자 또는 층을 개재하지 않는 것을 나타낸다.When an element or layer is another element or referred to as “on” or “on”, it includes not only directly above the other element or layer, but also a case in which another layer or other element is interposed in the middle. do. On the other hand, when a device is referred to as "directly on" or "directly on", it indicates that no other device or layer is interposed therebetween.

공간적으로 상대적인 용어인 "아래(below, beneath)", "하부(lower)", "위(above)", "상부(upper)" 등은 도면에 도시되어 있는 바와 같이 하나의 소자 또는 구성 요소들과 다른 소자 또는 구성 요소들과의 상관관계를 용이하게 기술하기 위해 사용될 수 있다. 공간적으로 상대적인 용어는 도면에 도시되어 있는 방향에 더하여 사용시 또는 동작시 소자의 서로 다른 방향을 포함하는 용어로 이해되어야 한다. 예를 들면, 도면에 도시되어 있는 소자를 뒤집을 경우, 다른 소자의 "아래(below)" 또는 "아래(beneath)"로 기술된 소자는 다른 소자의 "위(above)"에 놓여질 수 있다. 따라서, 예시적인 용어인 "아래"는 아래와 위의 방향을 모두 포함할 수 있다.The terms "below, beneath", "lower", "above", and "upper", which are spatially relative terms, refer to one element or component as shown in the drawing. It can be used to easily describe the correlation between the and other devices or components. Spatially relative terms should be understood as terms including different directions of the device during use or operation in addition to the directions shown in the drawings. For example, if an element shown in the figure is turned over, an element described as “below” or “beneath” another element may be placed “above” another element. Accordingly, the exemplary term “below” may include both directions below and above.

본 명세서에서 사용된 용어는 실시예들을 설명하기 위한 것이며, 따라서 본 발명을 제한하고자 하는 것은 아니다. 본 명세서에서, 단수형은 문구에서 특별히 언급하지 않는 한 복수형도 포함한다. 명세서에서 사용되는 "포함한다(comprise)" 및/또는 "포함하는(comprising)"은 언급된 구성요소, 단계, 동작 및/또는 소자는 하나 이상의 다른 구성요소, 단계, 동작 및/또는 소자의 존재 또는 추가를 배제하지 않는다.The terms used in the present specification are for describing exemplary embodiments, and therefore, are not intended to limit the present invention. In this specification, the singular form also includes the plural form unless specifically stated in the phrase. As used in the specification, "comprise" and/or "comprising" refers to the presence of one or more other components, steps, actions and/or elements in which the recited component, step, operation and/or element Or does not preclude additions.

도 3은 본 발명에 따른 무안경 입체영상표시장치의 구성을 개략적으로 보여주는 블록도이다.3 is a block diagram schematically showing the configuration of an autostereoscopic 3D image display device according to the present invention.

도 3을 참조하면, 본 발명에 따른 무안경 입체영상표시장치는 크게 영상패널(110), 영상패널 구동부(111, 112), 3D 필터(120), 3D 필터 구동부(미도시), 타이밍 컨트롤러(113) 등을 포함하여 구성될 수 있다.Referring to FIG. 3, the autostereoscopic 3D image display device according to the present invention includes an image panel 110, an image panel driver 111, 112, a 3D filter 120, a 3D filter driver (not shown), and a timing controller. 113) and the like.

본 발명에 따른 입체영상표시장치는 액정표시장치(Liquid Crystal Display; LCD), 유기발광표시장치(Organic Light Emitting Diode Display; OLED), 전계발광표시장치(Field Emission Display; FED), 플라즈마영상표시장치(Plasma Display Panel; PDP), 전기발광표시장치(Electroluminescent Display; EL) 등의 평판표시소자로 구현될 수 있다. 본 발명은 아래의 실시예에서 영상패널(110)을 액정표시장치로 구성한 경우를 예시하였지만, 본 발명이 이에 한정되는 것은 아니다.The stereoscopic image display device according to the present invention includes a liquid crystal display (LCD), an organic light emitting diode display (OLED), a field emission display (FED), and a plasma image display device. (Plasma Display Panel; PDP), electroluminescent display (Electroluminescent Display; EL) can be implemented as a flat panel display device. Although the present invention illustrates a case in which the image panel 110 is configured as a liquid crystal display device in the following embodiments, the present invention is not limited thereto.

이때, 영상패널(110)에는 적, 녹 및 청색을 표시하는 다수의 서브-픽셀들이 형성되어 있으며, 이러한 서브-픽셀들은 3D 필터(120)와 작용하여 입체영상을 표시하기 위해, 좌안영상과 우안영상을 표시하는 좌안픽셀과 우안픽셀이 구분되어 있다.At this time, a plurality of sub-pixels displaying red, green, and blue are formed on the image panel 110, and these sub-pixels work with the 3D filter 120 to display a stereoscopic image. A left-eye pixel and a right-eye pixel that display an image are divided.

일 예로, 영상패널(110)을 액정표시장치로 구성하는 경우, 본 발명은 액정 모드, 즉 트위스티드 네마틱(Twisted Nematic; TN) 모드, 인-플레인 스위칭(In Plane Switching; IPS) 모드, 프린지 필드 스위칭(Fringe Field Switching; FFS) 모드 및 수직배향(Vertical Alignment; VA) 모드에 상관없이 적용 가능하다.For example, when the image panel 110 is configured as a liquid crystal display device, the present invention provides a liquid crystal mode, that is, a twisted nematic (TN) mode, an in-plane switching (IPS) mode, and a fringe field. It can be applied regardless of the switching (Fringe Field Switching (FFS) mode) and the vertical alignment (Vertical Alignment (VA) mode).

이때, 도시하지 않았지만, 영상패널(110)은 크게 컬러필터(color filter) 기판과 어레이(array) 기판 및 컬러필터 기판과 어레이 기판 사이에 형성된 액정층으로 구성될 수 있다.In this case, although not shown, the image panel 110 may be largely composed of a color filter substrate and an array substrate, and a liquid crystal layer formed between the color filter substrate and the array substrate.

컬러필터 기판은 적, 녹 및 청의 색상을 구현하는 다수의 서브-컬러필터로 구성된 컬러필터와 서브-컬러필터 사이를 구분하고 액정층을 투과하는 광을 차단하는 블랙매트릭스(Black Matrix; BM), 그리고 액정층에 전압을 인가하는 투명한 공통전극으로 이루어질 수 있다.The color filter substrate is a color filter composed of a plurality of sub-color filters that implement colors of red, green, and blue, and a black matrix (BM) that divides between the sub-color filters and blocks light passing through the liquid crystal layer, In addition, a transparent common electrode for applying a voltage to the liquid crystal layer may be formed.

어레이 기판은 종횡으로 배열되어 다수의 화소영역을 정의하는 다수의 게이트라인(G1, G2, G3,..., Gn)과 데이터라인(D1, D2, D3,..., Dm), 게이트라인(G1, G2, G3,..., Gn)과 데이터라인(D1, D2, D3,..., Dm)의 교차영역에 형성된 스위칭소자인 박막 트랜지스터 및 화소영역에 형성된 화소전극으로 이루어져 있다.The array substrate is arranged vertically and horizontally to define a plurality of pixel regions, a plurality of gate lines (G1, G2, G3,..., Gn), data lines (D1, D2, D3,..., Dm), and gate lines. It is composed of a thin film transistor, which is a switching element formed in an intersection region between (G1, G2, G3,..., Gn) and the data lines D1, D2, D3,..., Dm, and a pixel electrode formed in the pixel region.

박막 트랜지스터는 게이트라인(G1, G2, G3,..., Gn)에 연결된 게이트전극, 데이터라인(D1, D2, D3,..., Dm)에 연결된 소오스전극 및 화소전극에 전기적으로 접속된 드레인전극으로 구성되어 있다. 또한, 박막 트랜지스터는 게이트전극과 소오스/드레인전극 사이의 절연을 위한 게이트절연막 및 게이트전극에 공급되는 게이트 전압에 의해 소오스전극과 드레인전극 간에 전도채널(conductive channel)을 형성하는 액티브층을 포함한다.The thin film transistor is electrically connected to the gate electrode connected to the gate line (G1, G2, G3,..., Gn), the source electrode connected to the data line (D1, D2, D3,..., Dm) and the pixel electrode. It consists of a drain electrode. In addition, the thin film transistor includes a gate insulating layer for insulating the gate electrode and the source/drain electrode, and an active layer forming a conductive channel between the source electrode and the drain electrode by a gate voltage supplied to the gate electrode.

컬러필터 기판의 외면에는 상부 편광판이 부착되고, 어레이 기판의 외면에는 하부 편광판이 부착된다. 상부 편광판의 광투과축과 하부 편광판의 광투과축은 서로 직교되도록 형성될 수 있다. 그리고, 컬러필터 기판과 어레이 기판의 내면에는 액정층의 프리틸트 각(pre-tilt angle)을 설정하기 위한 배향막이 형성되는 한편, 컬러필터 기판과 어레이 기판 사이에는 액정 셀의 셀갭(cell gap)을 유지하기 위한 스페이서가 형성된다.The upper polarizing plate is attached to the outer surface of the color filter substrate, and the lower polarizing plate is attached to the outer surface of the array substrate. The light transmission axis of the upper polarizing plate and the light transmission axis of the lower polarizing plate may be formed to be orthogonal to each other. In addition, an alignment layer for setting the pre-tilt angle of the liquid crystal layer is formed on the inner surfaces of the color filter substrate and the array substrate, while a cell gap of the liquid crystal cell is formed between the color filter substrate and the array substrate. Spacers for holding are formed.

이와 같이 구성되는 영상패널(110)은 타이밍 컨트롤러(113)의 제어 하에 영상을 표시한다.The image panel 110 configured as described above displays an image under the control of the timing controller 113.

영상패널(110)은 타이밍 컨트롤러(113)의 제어 하에 2D 모드에서 2D 영상을 표시하고, 3D 모드에서 멀티 뷰 영상을 표시할 수 있다.The image panel 110 may display a 2D image in 2D mode and a multi-view image in 3D mode under the control of the timing controller 113.

입체영상의 뷰는 시청자의 양안 간격만큼 카메라들을 이격하고 객체에 대한 이미지를 촬영하여 생성할 수 있다. 일 예로, 9대의 카메라를 이용하여 객체를 촬영하는 경우, 영상패널(110)은 9뷰의 입체영상을 표시할 수 있다.The view of the 3D image can be generated by separating the cameras by the distance between the viewer's eyes and taking an image of the object. For example, when an object is photographed using nine cameras, the image panel 110 may display a three-dimensional image of nine views.

영상패널 구동부(111, 112)는 영상패널(110)의 데이터라인(D1, D2, D3,..., Dm)에 2D/3D 영상의 데이터전압들을 공급하기 위한 데이터 구동부(111)와 영상패널(110)의 게이트라인(G1, G2, G3,..., Gn)들에 스캔 펄스(또는 게이트 펄스)를 순차적으로 공급하기 위한 게이트 구동부(112)를 포함한다. 영상패널 구동부(111, 112)는 3D 모드에서 멀티 뷰 영상 데이터 포맷의 데이터로 입력된 좌안 및 우안 영상 데이터를 영상패널(110)의 서브-픽셀들에 공간적으로 분산하여 기입한다.The image panel driver 111, 112 includes a data driver 111 and an image panel for supplying data voltages of 2D/3D images to the data lines D1, D2, D3,..., Dm of the image panel 110. And a gate driver 112 for sequentially supplying scan pulses (or gate pulses) to the gate lines G1, G2, G3,..., Gn of 110. The image panel drivers 111 and 112 spatially distribute and write left-eye and right-eye image data input as data in a multi-view image data format in the 3D mode in sub-pixels of the image panel 110.

이때, 도시하지 않았지만, 호스트 시스템(115)에 연결되는 시청거리 감지부는 센서를 이용하여 시청자의 거리, 시청자의 양안 위치를 감지하여 그 결과를 디지털 데이터로 변화하여 호스트 시스템(115)이나 타이밍 컨트롤러(113)에 공급한다. 센서는 자외선 센서나 고주파 센서 등이 적용될 수 있다.At this time, although not shown, the viewing distance sensing unit connected to the host system 115 detects the distance of the viewer and the position of both eyes of the viewer using a sensor, and converts the result into digital data so that the host system 115 or the timing controller ( 113). As the sensor, an ultraviolet sensor or a high frequency sensor may be applied.

시청거리 감지부는 2개의 센서 출력을 삼각 측량법으로 분석하여 영상패널(110)과 시청자 사이의 거리를 계산하여 그 결과를 호스트 시스템(115)이나 타이밍 컨트롤러(113)에 전송할 수 있다. 시청거리 감지부는 공지된 얼굴 인식 알고리즘을 통해 센서 출력을 분석하여 시청자의 양안 위치를 감지하고, 그 결과를 호스트 시스템(115)이나 타이밍 컨트롤러(113)에 전송할 수 있다.The viewing distance detector may analyze the output of the two sensors by triangulation, calculate the distance between the image panel 110 and the viewer, and transmit the result to the host system 115 or the timing controller 113. The viewing distance detector may analyze the sensor output through a known facial recognition algorithm to detect the position of both eyes of the viewer, and transmit the result to the host system 115 or the timing controller 113.

타이밍 컨트롤러(113)는 데이터 인에이블 신호(Data Enable, DE), 도트 클럭(CLK) 등의 타이밍신호를 입력받아 게이트 구동부(111)와 데이터 구동부(112)의 동작 타이밍을 제어하기 위한 제어신호들(GCS, DCS)을 발생한다.The timing controller 113 receives timing signals such as a data enable signal (Data Enable, DE) and a dot clock (CLK), and control signals for controlling the operation timing of the gate driver 111 and the data driver 112 (GCS, DCS) is generated.

즉, 타이밍 컨트롤러(113)는 멀티 뷰 영상 변환부(114)(또는 호스트 시스템(115))로부터 입력받은 영상 데이터와 타이밍 신호들에 기초하여 소정의 프레임 주파수로 영상패널(110)을 구동시키고, 소정의 프레임 주파수를 기준으로 게이트 구동부 제어신호(GCS), 데이터 구동부 제어신호(DCS)를 발생할 수 있다. 타이밍 컨트롤러(113)는 게이트 구동부 제어신호(GCS)를 게이트 구동부(111)로 공급하고, 영상 데이터(R, G, B)와 데이터 구동부 제어신호(DCS)를 데이터 구동부(112)로 공급한다.That is, the timing controller 113 drives the image panel 110 at a predetermined frame frequency based on the image data and timing signals input from the multi-view image conversion unit 114 (or the host system 115), A gate driver control signal GCS and a data driver control signal DCS may be generated based on a predetermined frame frequency. The timing controller 113 supplies the gate driver control signal GCS to the gate driver 111, and supplies image data R, G, and B and the data driver control signal DCS to the data driver 112.

게이트 구동부(111)를 제어하기 위한 게이트 구동부 제어신호(GCS)는 게이트 스타트 펄스(Gate Start Pulse), 게이트 쉬프트 클럭(Gate Shift Clock) 및 게이트 출력 인에이블 신호(Gate Output Enable) 등을 포함한다. 게이트 스타트 펄스는 첫 번째 게이트 펄스의 타이밍을 제어한다. 게이트 쉬프트 클럭은 게이트 스타트 펄스를 쉬프트 시키기 위한 클럭신호이다. 게이트 출력 인에이블 신호는 게이트 구동부(111)의 출력 타이밍을 제어한다.The gate driver control signal GCS for controlling the gate driver 111 includes a gate start pulse, a gate shift clock, and a gate output enable signal. The gate start pulse controls the timing of the first gate pulse. The gate shift clock is a clock signal for shifting the gate start pulse. The gate output enable signal controls the output timing of the gate driver 111.

데이터 구동부(112)를 제어하기 위한 데이터 구동부 제어신호(DCS)는 소스 스타트 펄스(Source Start Pulse), 소스 샘플링 클럭(Source Sampling Clock), 소스 출력 인에이블 신호(Source Output Enable), 극성제어신호 등을 포함한다. 소스 스타트 펄스는 데이터 구동부(112)의 데이터 샘플링 시작 시점을 제어한다. 소스 샘플링 클럭은 라이징 또는 폴링 에지에 기준 하여 데이터 구동부(112)의 샘플링 동작을 제어하는 클럭신호이다. 데이터 구동부(112)에 입력될 디지털 비디오 데이터가 mini LVDS(Low Voltage Differential Signaling) 인터페이스 규격으로 전송된다면, 소스 스타트 펄스와 소스 샘플링 클럭은 생략될 수 있다. 극성제어신호는 데이터 구동부(112)로부터 출력되는 데이터전압의 극성을 L(L은 자연수) 수평기간 주기로 반전시킨다. 소스 출력 인에이블 신호는 데이터 구동부(112)의 출력 타이밍을 제어한다.The data driver control signal (DCS) for controlling the data driver 112 includes a source start pulse, a source sampling clock, a source output enable signal, and a polarity control signal. Includes. The source start pulse controls the data sampling start point of the data driver 112. The source sampling clock is a clock signal that controls the sampling operation of the data driver 112 based on a rising or falling edge. If digital video data to be input to the data driver 112 is transmitted using the mini LVDS (Low Voltage Differential Signaling) interface standard, the source start pulse and the source sampling clock may be omitted. The polarity control signal inverts the polarity of the data voltage output from the data driver 112 in a horizontal period of L (L is a natural number). The source output enable signal controls the output timing of the data driver 112.

데이터 구동부(112)는 다수의 소스 드라이브 IC를 포함한다. 소스 드라이브 IC들은 타이밍 컨트롤러(113)로부터 입력되는 영상 데이터(R, G, B)를 정극성/부극성 감마보상전압으로 변환하여 정극성/부극성 아날로그 데이터전압들을 발생한다. 소스 드라이브 IC들로부터 출력되는 정극성/부극성 아날로그 데이터전압들은 영상패널(110)의 데이터라인(D1, D2, D3,..., Dm)들에 공급된다.The data driver 112 includes a plurality of source drive ICs. The source drive ICs convert image data (R, G, B) input from the timing controller 113 into positive/negative gamma compensation voltages to generate positive/negative analog data voltages. The positive/negative analog data voltages output from the source drive ICs are supplied to the data lines D1, D2, D3,..., Dm of the image panel 110.

게이트 구동부(111)는 하나 이상의 게이트 드라이브 IC를 포함한다. 게이트 구동부(111)는 쉬프트 레지스터, 쉬프트 레지스터의 출력신호를 액정 셀의 TFT 구동에 적합한 스윙 폭으로 변환하기 위한 레벨 쉬프터 및 출력 버퍼 등을 포함한다. 게이트 구동부(111)는 타이밍 컨트롤러(113)의 제어 하에 데이터 전압에 동기되는 게이트 펄스를 영상패널(110)의 게이트라인(G1, G2, G3,..., Gn)들에 순차적으로 공급한다.The gate driver 111 includes one or more gate drive ICs. The gate driver 111 includes a shift register, a level shifter and an output buffer for converting an output signal of the shift register into a swing width suitable for driving a TFT of a liquid crystal cell. The gate driver 111 sequentially supplies a gate pulse synchronized with the data voltage to the gate lines G1, G2, G3,..., Gn of the image panel 110 under the control of the timing controller 113.

특히, 본 발명에 따른 타이밍 컨트롤러(113)는 뷰 데이터 렌더링 과정을 통해 입력 데이터를 영상패널(110)의 서브-픽셀별로 새롭게 매핑 하는 역할을 수행할 수 있다. 상호 인접하는 뷰들간 동일하거나 유사한 입력 데이터를 새롭게 매핑 함으로써 인지 3D 크로스토크를 제거하거나 감소시킬 뿐만 아니라 시야각을 확장시킬 수 있게 된다.In particular, the timing controller 113 according to the present invention may play a role of newly mapping input data for each sub-pixel of the image panel 110 through a view data rendering process. By newly mapping the same or similar input data between adjacent views, it is possible not only to remove or reduce cognitive 3D crosstalk, but also to expand the viewing angle.

또한, 본 발명에 따른 타이밍 컨트롤러(113)는 시청자의 양안 위치를 미리 설정된 뷰잉 존(viewing zone)들에 대한 위치 정보와 비교하여 시청자의 양안이 위치하는 뷰잉 존들이 정상적인 입체영상이 보이지 않는 뷰잉 존들로 판단되며, 멀티 뷰의 입력 데이터에서 적어도 일부 뷰의 입력 데이터를 다른 뷰의 입력 데이터로 변환하는 시청거리 확장 제어부를 포함할 수 있다.In addition, the timing controller 113 according to the present invention compares the position of both eyes of the viewer with position information on preset viewing zones, and the viewing zones in which both eyes of the viewer are located are viewing zones in which normal 3D images are not visible. It is determined as and may include a viewing distance extension control unit that converts input data of at least some views into input data of another view from the input data of the multi-view.

이러한 타이밍 컨트롤러(113)와 호스트 시스템(115) 사이에는 멀티 뷰 영상변환부(114)가 설치될 수 있다. 멀티 뷰 영상변환부(114)는 3D 모드에서 호스트 시스템(115)으로부터 입력되는 3D 영상의 좌안 및 우안 영상 데이터를 멀티 뷰 영상 데이터 포맷으로 재 정렬하여 타이밍 컨트롤러(113)에 전송한다.A multi-view image conversion unit 114 may be installed between the timing controller 113 and the host system 115. The multi-view image conversion unit 114 rearranges the left-eye and right-eye image data of the 3D image input from the host system 115 in the 3D mode in a multi-view image data format and transmits it to the timing controller 113.

즉, 멀티 뷰 영상변환부(114)는 3D 모드에서 2D 영상 데이터가 입력되면 미리 설정된 2D-3D 영상 변환 알고리즘을 실행하여 2D 영상 데이터로부터 좌안 및 우안 영상 데이터를 생성하고, 그 데이터들을 멀티 뷰 영상 데이터 포맷으로 재 정렬하여 타이밍 컨트롤러(113)에 전송한다.That is, when 2D image data is input in the 3D mode, the multi-view image conversion unit 114 generates left-eye and right-eye image data from 2D image data by executing a preset 2D-3D image conversion algorithm, and converts the data into a multi-view image. It is rearranged in a data format and transmitted to the timing controller 113.

호스트 시스템(115)은 TV(television) 시스템, 셋톱박스, 네비게이션 시스템, DVD 플레이어, 블루레이 플레이어, 개인용 컴퓨터(personal computer), 홈 시어터 시스템, 폰 시스템 중 어느 하나로 구현될 수 있다. 호스트 시스템(115)은 스케일러(scaler)를 이용하여 2D/3D 입력 영상의 디지털 비디오 데이터를 영상패널(110)의 해상도에 맞는 포맷으로 변환하고, 그 데이터와 함께 타이밍 신호를 타이밍 컨트롤러(113)로 전송한다.The host system 115 may be implemented as any one of a TV (television) system, a set-top box, a navigation system, a DVD player, a Blu-ray player, a personal computer, a home theater system, and a phone system. The host system 115 converts the digital video data of the 2D/3D input image into a format suitable for the resolution of the image panel 110 using a scaler, and converts the timing signal together with the data to the timing controller 113. send.

호스트 시스템(115)은 2D 모드에서 2D 영상을 타이밍 컨트롤러(113)에 공급하는 한편, 3D 모드에서 3D 영상 또는 2D 영상 데이터를 멀티 뷰 영상변환부(114)에 공급한다. 호스트 시스템(115)은 유저 인터페이스(User Interface; UI)(미도시)를 통해 입력되는 사용자 데이터에 응답하여 타이밍 컨트롤러(113)에 모드 신호를 전송하여 무안경 입체표시장치의 동자 모드를 2D 모드와 3D 모드에서 스위칭 할 수 있다. 유저 인터페이스는 키패드, 키보드, 마우스, 온 스크린 디스플레이(On Screen Display, OSD), 리모트 컨트롤러, 그래픽 유저 인터페이스(Graphic User Interface; GUI), 터치 UI 등으로 구현될 수 있다. 사용자는 유저 인터페이스를 통해 2D 모드와 3D 모드를 선택할 수 있고, 3D 모드에서 2D-3D 영상 변환을 선택할 수 있다.The host system 115 supplies the 2D image to the timing controller 113 in the 2D mode, while supplying the 3D image or 2D image data to the multi-view image conversion unit 114 in the 3D mode. The host system 115 transmits a mode signal to the timing controller 113 in response to user data input through a user interface (UI) (not shown) to change the autostereoscopic mode of the autostereoscopic display device to the 2D mode. Can be switched in 3D mode. The user interface may be implemented with a keypad, a keyboard, a mouse, an On Screen Display (OSD), a remote controller, a Graphic User Interface (GUI), a touch UI, and the like. The user can select 2D mode and 3D mode through the user interface, and can select 2D-3D image conversion in 3D mode.

즉, 호스트 시스템(115)은 LVDS(Low Voltage Differential Signaling) 인터페이스, TMDS(Transition Minimized Differential Signaling) 인터페이스 등의 인터페이스를 통해 영상 데이터와 타이밍신호들 등을 멀티 뷰 영상변환부(114)에 공급한다. 호스트 시스템(115)은 좌안 영상 데이터와 우안 영상 데이터를 포함하는 3D 영상 데이터를 멀티 뷰 영상변환부(114)에 공급한다. 전술한 바와 같이 타이밍신호들은 수직동기신호, 수평동기신호, 데이터 인에이블 신호(Data Enable), 도트 클럭 등을 포함한다.That is, the host system 115 supplies image data and timing signals to the multi-view image conversion unit 114 through interfaces such as a Low Voltage Differential Signaling (LVDS) interface and a Transition Minimized Differential Signaling (TMDS) interface. The host system 115 supplies 3D image data including left-eye image data and right-eye image data to the multi-view image conversion unit 114. As described above, the timing signals include a vertical synchronization signal, a horizontal synchronization signal, a data enable signal, and a dot clock.

호스트 시스템(115)은 시청거리 감지부로부터 시청자 감지정보를 입력받고, 시청자 감지정보에 따라 최적 뷰의 수를 산출한다. 호스트 시스템(115)은 최적 뷰의 수에 따른 뷰 제어신호를 생성하여 멀티 뷰 영상변환부(114)에 공급한다. 호스트 시스템(115)은 시청자 감지정보의 시청자 수를 입력 어드레스로 받고, 해당 입력 어드레스에 저장된 뷰의 수를 출력하는 룩업테이블을 이용하여 뷰 제어신호를 생성할 수 있다.The host system 115 receives viewer sensing information from the viewing distance sensing unit, and calculates the optimal number of views according to the viewer sensing information. The host system 115 generates a view control signal according to the optimal number of views and supplies it to the multi-view image conversion unit 114. The host system 115 may generate a view control signal using a lookup table that receives the number of viewers of the viewer detection information as an input address and outputs the number of views stored in the corresponding input address.

다음으로, 3D 필터(120)는 이미지의 경로를 광학적으로 분리하는 매개체로서, 영상패널(110)의 좌안픽셀과 우안픽셀로부터 출력된 좌안영상과 우안영상을 투과시키거나 차단시키기 위한 광투과 영역과 광차단 영역을 형성하는 기능을 수행한다.Next, the 3D filter 120 is a medium for optically separating the path of the image, and includes a light transmission region for transmitting or blocking the left and right eye images output from the left and right eye pixels of the image panel 110. It performs the function of forming a light blocking area.

이러한 3D 필터(120)는 다음의 렌티큘러 렌즈 또는 배리어와 같이 기 공지되어 있는 기술들을 이용하여 다양하게 구성될 수 있다. 렌티큘러 렌즈와 배리어는 액정패널을 이용하여 전기적으로 제어되는 스위처블 렌즈(switchable lens)나 스위처블 배리어(switchable barrier)로 구현될 수 있다. 본원 출원인은 미국출원 13/077565, 미국출원 13/325272, 대한민국 출원 10-2010-0030531 등을 통해 스위처블 렌즈나 스위처블 배리어를 제안한 바 있다.The 3D filter 120 may be configured in various ways using known techniques such as the following lenticular lenses or barriers. The lenticular lens and the barrier may be implemented as a switchable lens or a switchable barrier that is electrically controlled using a liquid crystal panel. The applicant of the present application has proposed a switchable lens or a switchable barrier through US application 13/077565, US application 13/325272, and Korean application 10-2010-0030531.

3D 필터 구동부는 타이밍 컨트롤러(113)의 제어 하에 3D 모드에서 영상패널(110)의 픽셀 어레이에 기입되는 영상 데이터와 동기되어 스위처블 렌즈나 스위처블 배리어를 시프트(shift)시킬 수 있다.The 3D filter driver may shift the switchable lens or the switchable barrier in synchronization with image data written to the pixel array of the image panel 110 in the 3D mode under the control of the timing controller 113.

도 4는 본 발명에 따른 무안경 입체영상표시장치를 개략적으로 보여주는 사시도로써, 렌티큘러 렌즈 방식의 입체영상표시장치를 예를 들어 보여주고 있다.4 is a perspective view schematically showing an autostereoscopic 3D image display device according to the present invention, and shows an example of a 3D image display device of a lenticular lens type.

도 4를 참조하면, 렌티큘러 렌즈 방식의 입체영상표시장치는 다수의 서브-픽셀(R, G, B)이 배치되는 영상패널(110) 전면에 소정의 폭(w)을 갖는 다수의 렌티큘라 렌즈(125)를 포함하는 3D 필터인 렌티큘러 렌즈판(120)이 배치된다.Referring to FIG. 4, the lenticular lens type stereoscopic image display device includes a plurality of lenticular lenses having a predetermined width w in front of an image panel 110 on which a plurality of sub-pixels (R, G, B) are arranged. A lenticular lens plate 120 which is a 3D filter including 125 is disposed.

렌티큘러 렌즈판(120)은 평평한 기판 상에, 그 상부 표면이 볼록렌즈 형상의 물질층이 형성되어 이루어진다.The lenticular lens plate 120 is formed by forming a material layer having a convex lens shape on an upper surface thereof on a flat substrate.

이러한 렌티큘러 렌즈판(120)은 좌, 우안 영상을 나누어주는 역할을 수행하며, 렌티큘러 렌즈판(120)으로부터 최적 시청거리 d에는 좌, 우안 각각으로 좌, 우안에 해당되는 영상들이 정상적으로 도달하는 뷰잉 다이아몬드(정시영역)가 형성되어 있다.The lenticular lens plate 120 serves to divide the left and right eye images, and the optimal viewing distance d from the lenticular lens plate 120 is a viewing diamond in which images corresponding to the left and right eyes reach each of the left and right eyes normally. (Presentation area) is formed.

따라서, 영상패널(110)을 투과한 영상 이미지는 렌티큘러 렌즈판(120)을 통과하여 최종 시청자의 좌, 우안으로 다른 이미지 그룹이 들어오게 하여, 3차원의 입체영상을 느낄 수 있게 된다.Accordingly, the image image transmitted through the image panel 110 passes through the lenticular lens plate 120 so that another image group enters the left and right eyes of the final viewer, so that a three-dimensional image can be felt.

이러한 렌티큘러 렌즈 방식의 입체영상표시장치는 영상패널(110)과 렌티큘러 렌즈판(120)이 기구물(미도시) 등에 의해 지지되어, 영상패널(110)과 렌티큘러 렌즈판(120) 사이가 소정 간격(배면 거리) 이격되어 있다.In such a 3D image display device of the lenticular lens type, the image panel 110 and the lenticular lens plate 120 are supported by a device (not shown), so that a predetermined distance between the image panel 110 and the lenticular lens plate 120 ( Rear distance) are separated.

한편, 본 발명에 따르면, 다수의 렌티큘라 렌즈(125)의 배열이 서브-픽셀(R, G, B)의 종 방향(y축 방향)에 대해 제 1 각도(θ)를 갖고 기울어진 형태로 배치되고 있으며, 렌티큘라 렌즈(125)의 서브-픽셀(R, G, B)의 횡 방향(x축 방향)을 따르는 수평 폭(w)은 서브-픽셀(R, G, B)의 정수 배로 설정할 수 있다.Meanwhile, according to the present invention, the arrangement of a plurality of lenticular lenses 125 is inclined with a first angle θ with respect to the longitudinal direction (y-axis direction) of the sub-pixels R, G, and B. The horizontal width (w) along the transverse direction (x-axis direction) of the sub-pixels (R, G, B) of the lenticular lens 125 is an integer multiple of the sub-pixels (R, G, B). Can be set.

즉, 본 발명에 따른 입체영상표시장치는 렌티큘러 렌즈판(120)에 구비되는 렌티큘라 렌즈(125)가 서브-픽셀(R, G, B)의 종 방향을 기준으로 제 1 각도(θ) 기울어져 배치될 수 있다.That is, in the stereoscopic image display device according to the present invention, the lenticular lens 125 provided in the lenticular lens plate 120 is inclined at a first angle θ based on the longitudinal direction of the sub-pixels R, G, B. Can be placed.

따라서, 2D 영상을 표시하는 영상패널(110)에 대해 이러한 렌티큘러 렌즈판(120)의 기울어진 배치에 의해 3D 영상시청을 위한 뷰 수를 조절할 수 있다.Accordingly, the number of views for viewing a 3D image can be adjusted by the inclined arrangement of the lenticular lens plate 120 with respect to the image panel 110 displaying a 2D image.

이러한 렌티큘러 렌즈판(120)에 있어서 렌티큘라 렌즈(125)의 서브-픽셀(R, G, B)의 종 방향을 기준으로 기울어진 제 1 각도 θ는 tan-1((M*Pa)/(N*Pb))라는 식으로 표현된다.In such a lenticular lens plate 120, a first angle θ inclined with respect to the longitudinal direction of the sub-pixels R, G, B of the lenticular lens 125 is tan -1 ((M*Pa)/( N*Pb)).

이때, Pa는 서브-픽셀(R, G, B)의 단축피치, Pb는 서브-픽셀(R, G, B)의 장축피치이며, M과 N은 각각 임의의 자연수로서 렌티큘라 렌즈(125)가 다수의 서브-픽셀(R, G, B)을 하나의 그룹으로 하고, 하나의 그룹을 정확히 대각방향으로 꼭지점을 관통했을 때의 그룹 내의 서브-픽셀(R, G, B)의 횡 방향으로의 서브-픽셀(R, G, B)의 개수 및 서브-픽셀(R, G, B)의 종 방향으로의 서브-픽셀(R, G, B)의 개수로 정의된다. 이때, 통상적으로 M과 N은 M/N ≤ 2의 값을 만족하는 것이 일반적이다.At this time, Pa is the short axis pitch of the sub-pixels (R, G, B), Pb is the long axis pitch of the sub-pixels (R, G, B), and M and N are random natural numbers, respectively, and the lenticular lens 125 In the horizontal direction of the sub-pixels (R, G, B) in the group when a number of sub-pixels (R, G, B) are set as one group, and one group passes through the vertices in exactly diagonal directions. Is defined as the number of sub-pixels R, G, B and the number of sub-pixels R, G, B in the longitudinal direction of the sub-pixels R, G, B. At this time, it is common for M and N to satisfy a value of M/N ≤ 2.

이때, 하나의 그룹 내부에 위치하는 다수의 서브-픽셀(R, G, B)에 부여된 숫자는 렌티큘러 렌즈판(120)의 렌티큘라 렌즈(125)를 제 1 각도(θ)로 기울여 배치한 입체영상표시장치의 3D 영상시청이 가능한 영역으로 정의되는 뷰의 개수가 되며, 각 뷰에 부여된 숫자는 각 뷰 영역에서 3D 영상시청 시 보여지는 서브-픽셀(R, G, B)이 된다.At this time, the number given to a plurality of sub-pixels (R, G, B) located inside one group is arranged by tilting the lenticular lens 125 of the lenticular lens plate 120 at a first angle (θ). It is the number of views defined as an area in which 3D image viewing is possible in the 3D image display device, and the number assigned to each view is the sub-pixels (R, G, B) displayed when viewing a 3D image in each view area.

이렇게 렌티큘러 렌즈판(120)을 구비한 본 발명에 따른 입체영상표시장치는 휘도 향상 측면에서 효과가 있으며, 나아가 뷰 수의 증가를 통해 3D 영상시청을 위한 시야각을 향상시키는 효과를 갖는다.The 3D image display device according to the present invention including the lenticular lens plate 120 is effective in terms of improving luminance, and further has an effect of improving the viewing angle for viewing 3D images by increasing the number of views.

뷰 수의 증가는 렌티큘러 렌즈판(120)에 구비되는 렌티큘라 렌즈(125)를 서브-픽셀(R, G, B)의 종 방향을 기준으로 소정의 각도를 갖도록 배치한 구조 즉, 슬랜티드(slanted) 구조를 적용하여 이루어지게 된다. 이러한 슬랜티드 구조 적용에 의해 한쪽 방향으로의 해상도 저하를 방지할 수 있다.Increasing the number of views is a structure in which the lenticular lenses 125 provided in the lenticular lens plate 120 are arranged to have a predetermined angle with respect to the longitudinal directions of the sub-pixels R, G, B, that is, slanted ( slanted) structure is applied. By applying such a slanted structure, it is possible to prevent a decrease in resolution in one direction.

한편, 본 발명에서는 뷰잉 다이아몬드를 인접한 뷰잉 다이아몬드와 중첩시키도록 구성함으로써 입체영상의 휘도 편차를 개선할 수 있게 되는데, 이를 다음의 본 발명의 제 1 실시예를 통해 상세히 설명한다.Meanwhile, in the present invention, it is possible to improve the luminance deviation of a stereoscopic image by configuring the viewing diamond to overlap the adjacent viewing diamond, which will be described in detail through the first embodiment of the present invention.

도 5는 본 발명의 제 1 실시예에 따른 무안경 입체영상표시장치 및 광 프로파일을 예를 들어 보여주는 도면이다.5 is a view showing an autostereoscopic 3D image display device and an optical profile according to the first embodiment of the present invention as an example.

이때, 도 5의 중앙에는 시청영역, 즉 뷰잉 존을 형성하는 뷰잉 다이아몬드 및 광 프로파일과 뷰 데이터를 도시하고 있으며, 도 5의 하단에는 뷰잉 다이아몬드 내에 실제로 인지되는 뷰를 개략적으로 도시하고 있다. 참고로, 뷰 데이터는 해칭(hatching)을 이용하여 구분되어 있으며, 동일한 해칭은 동일한 뷰 데이터를 의미한다.In this case, the center of FIG. 5 shows a viewing area, that is, a viewing diamond forming a viewing zone, and a light profile and view data, and a lower part of FIG. 5 schematically shows a view that is actually perceived in the viewing diamond. For reference, view data is classified using hatching, and the same hatching means the same view data.

도 5를 참조하면, 본 발명의 제 1 실시예에 따른 무안경 입체영상표시장치는 영상패널(110) 및 입체영상의 구현을 위해 영상패널(110) 전면에 위치하는 3D 필터로써 렌티큘러 렌즈판(120)을 포함하여 이루어진다.Referring to FIG. 5, the autostereoscopic 3D image display device according to the first embodiment of the present invention is a lenticular lens plate as a 3D filter positioned in front of the image panel 110 and the image panel 110 for realization of a 3D image. 120).

이때, 영상패널(110)과 렌티큘러 렌즈판(120)이 기구물(미도시) 등에 의해 지지되어, 영상패널(110)과 렌티큘러 렌즈판(120) 사이가 갭 글라스(126)에 의해 소정 간격(배면 거리; S)만큼 이격 될 수 있다.At this time, the image panel 110 and the lenticular lens plate 120 are supported by a device (not shown), and the gap between the image panel 110 and the lenticular lens plate 120 is separated by a gap glass 126 (rear surface). Distance; can be spaced apart by S).

렌티큘러 렌즈판(120)은 평평한 기판 상에, 그 상부 표면이 볼록렌즈 형상의 물질층으로 이루어진 다수의 렌티큘라 렌즈(125)가 형성되어 이루어질 수 있으나, 전술한 바와 같이 본 발명이 이에 한정되는 것은 아니다.The lenticular lens plate 120 may be formed by forming a plurality of lenticular lenses 125 formed of a material layer having a convex lens shape on a flat substrate, but the present invention is limited thereto as described above. no.

3D 필터는 렌티큘러 렌즈판(120) 이외에 배리어와 같이 기 공지되어 있는 기술들을 이용하여 다양하게 구성될 수 있다.In addition to the lenticular lens plate 120, the 3D filter may be configured in various ways using known techniques such as a barrier.

이러한 렌티큘러 렌즈판(120)은 좌, 우안 영상을 나누어주는 역할을 수행하고 있으며, 렌티큘러 렌즈판(120)으로부터 최적 시청거리 d에는 좌, 우안 각각으로 좌, 우안에 해당되는 영상들이 정상적으로 도달하는 다이아몬드 형태의 뷰잉 다이아몬드(정시영역)(130)가 형성되어 있다.The lenticular lens plate 120 serves to divide the left and right eye images, and the optimal viewing distance d from the lenticular lens plate 120 is a diamond in which images corresponding to the left and right eyes reach each of the left and right eyes normally. A shaped viewing diamond (present region) 130 is formed.

즉, 렌티큘러 렌즈판(120)은 영상패널(110)의 각 서브-픽셀로부터 나온 광을 최종 시청자의 좌, 우안으로 다른 이미지 그룹이 들어오게 하여 최적 시청거리 d에 시청영역을 형성한다. 이 모습이 대게 다이아몬드 형태이기 때문에 뷰잉 다이아몬드(130)라 한다.That is, the lenticular lens plate 120 forms a viewing area at the optimal viewing distance d by allowing different image groups to enter the left and right eyes of the final viewer with light emitted from each sub-pixel of the image panel 110. Since this shape is usually in the form of a diamond, it is called a viewing diamond 130.

뷰잉 다이아몬드(130)의 하나의 폭은 시청자의 양안 간격(e) 크기로 형성되는데, 이는 시청자의 좌안과 우안에 각각 시차가 있는 영상을 입력함으로써 입체영상으로 인식하게 하기 위함이다.One width of the viewing diamond 130 is formed in the size of the viewer's binocular spacing (e), in order to recognize as a stereoscopic image by inputting an image having a parallax on the viewer's left and right eyes respectively.

이때, 각 뷰잉 다이아몬드(130)에는 대응되는 영상패널(110)의 서브-픽셀의 뷰 데이터, 즉 이미지가 형성된다.At this time, view data, that is, an image, of a sub-pixel of the image panel 110 corresponding to each viewing diamond 130 is formed.

뷰 데이터는 양안 간격(e)의 기준만큼 떨어진 카메라에서 촬영된 영상을 의미한다. 예를 들어, 9뷰로 구성된 경우, 9대의 카메라에서 촬영된 영상이 뷰잉 다이아몬드(130)에 각각 첫 번째 뷰부터 9번째 뷰까지 순차적으로 적용이 되며, 첫 번째 뷰 대비 두 번째 뷰가 상대적으로 오른쪽이나 왼쪽에 위치하며, 방향성을 가진다. 뷰잉 다이아몬드(130)는 해당 뷰 데이터가 반영되어 반복적으로 형성된다.The view data refers to an image captured by a camera that is separated by a criterion of the binocular spacing (e). For example, in the case of 9 views, images captured by 9 cameras are sequentially applied to the viewing diamond 130 from the first view to the ninth view, and the second view is relatively right compared to the first view. It is located on the left and has directionality. The viewing diamond 130 is repeatedly formed by reflecting the corresponding view data.

이때, 전술한 바와 같이 최적 시청거리 d에서 측정된 광 프로파일을 보면, 뷰잉 다이아몬드(130)의 중앙에서 광의 세기가 가장 높고 뷰잉 다이아몬드(130)의 끝으로 갈수록 낮아지는 것을 알 수 있다.At this time, as described above, looking at the optical profile measured at the optimal viewing distance d, it can be seen that the intensity of light is highest at the center of the viewing diamond 130 and decreases toward the end of the viewing diamond 130.

다만, 본 발명의 제 1 실시예의 경우에는 기존의 렌티큘러 렌즈 방식의 입체영상표시장치에 비해 뷰잉 다이아몬드(130)를 중첩시키도록 구성함에 따라 기존에 비해 휘도 편차(△L')가 크게 줄어든 것을 알 수 있다.However, in the case of the first embodiment of the present invention, compared to the conventional lenticular lens-type stereoscopic image display device, the luminance deviation (ΔL') is significantly reduced compared to the existing one by configuring the viewing diamond 130 to overlap. I can.

이때, 도 5에 도시된 본 발명의 제 1 실시예는 2중첩을 예로 들고 있으나, 본 발명이 이에 한정되는 것은 아니며, 뷰잉 다이아몬드(130) 상호간 3뷰 이상의 중첩도 가능하다. 여기서, 2중첩은 인접하는 2개의 뷰잉 다이아몬드(130) 사이에 또 하나의 뷰잉 다이아몬드(130)가 삽입되는 구조이다.In this case, although the first embodiment of the present invention shown in FIG. 5 is taken as an example of overlapping, the present invention is not limited thereto, and the viewing diamonds 130 may overlap with each other by 3 or more views. Here, the double overlap is a structure in which another viewing diamond 130 is inserted between two adjacent viewing diamonds 130.

이때, 각 뷰의 광 프로파일의 크기와 폭은 영상패널(110), 렌티큘러 렌즈판(120), 광원, 광학시트 등에 의해 영향을 받게 되며, 인접한 뷰잉 다이아몬드(130)에 해당하는 뷰의 광 프로파일과 겹친 영역의 크기가 3D 크로스토크(CT)에 해당한다.At this time, the size and width of the light profile of each view are affected by the image panel 110, lenticular lens plate 120, light source, optical sheet, etc., and the light profile of the view corresponding to the adjacent viewing diamond 130 The size of the overlapped area corresponds to 3D crosstalk (CT).

즉, 이상적인 경우에는 뷰잉 다이아몬드(130)에 그 뷰의 정보만 눈에 보이게 되나(일 예로, 좌안에서 L-뷰만 볼 수 있고, R-뷰는 볼 수 없음), 뷰 중첩구조의 경우에는 좌안에서 L-뷰 이외에 희미하게 R-뷰도 볼 수 있어, 3D 크로스토크(CT)가 발생하게 된다.That is, in the ideal case, only the information of the view is visible on the viewing diamond 130 (for example, only the L-view can be seen in the left eye, and the R-view cannot be seen), but in the case of the view overlapping structure, in the left eye In addition to the L-view, you can see the R-view dimly, resulting in 3D crosstalk (CT).

이와 같이 본 발명의 제 1 실시예에 따른 무안경 입체영상표시장치의 경우에는 기존에 비해 휘도 편차가 크게 줄어든 반면에 3D 크로스토크가 증가한 것을 알 수 있다. 즉, 휘도 편차와 3D 크로스토크는 서로 상충(trade off) 관계를 가지게 된다.As described above, in the case of the autostereoscopic 3D image display device according to the first embodiment of the present invention, it can be seen that the luminance deviation is significantly reduced compared to the conventional one, while the 3D crosstalk increases. That is, the luminance deviation and the 3D crosstalk have a trade off relationship with each other.

또한, 3D 크로스토크가 증가함에 따라 시청자가 인지하는 3D 깊이 또한 열화되며, 영상이 흐릿하게(blur) 된다.In addition, as the 3D crosstalk increases, the 3D depth perceived by the viewer also deteriorates, and the image becomes blurry.

이 경우 시청자가 인지하는 3D 크로스토크를 줄이기 위해 인접 뷰의 뷰 데이터를 치환할 수 있으나, 뷰잉 다이아몬드(130)의 크기, 즉 폭이 안양 간격으로 형성되어 있기 때문에 좌안을 기준으로 뷰 데이터를 치환할 경우 우안이 영향을 받게 되고, 우안을 기준으로 뷰 데이터를 치환할 경우 좌안이 영향을 받게 된다.In this case, the view data of the adjacent view can be replaced in order to reduce the 3D crosstalk perceived by the viewer, but since the size of the viewing diamond 130, that is, the width is formed at any intervals, it is necessary to replace the view data based on the left eye. In this case, the right eye is affected, and when the view data is replaced based on the right eye, the left eye is affected.

이에 본 발명의 제 2 실시예 내지 제 3 실시예에서는 뷰잉 다이아몬드의 폭을 양안 간격의 a/n(a, n은 a < n 조건을 만족하는 자연수)배와 같이 양안 간격보다 작게 설정하는 동시에 뷰잉 다이아몬드를 중첩시키도록 구성하게 되며, 이를 도면을 참조하여 상세히 설명한다.Accordingly, in the second to third embodiments of the present invention, the width of the viewing diamond is set to be smaller than the binocular spacing, such as a/n (a, n is a natural number that satisfies a <n condition) times the binocular spacing. It is configured to overlap diamonds, which will be described in detail with reference to the drawings.

일반적으로 입체영상표시장치의 최적 시청거리(2.5H ~ 3H; H는 영상패널의 높이)는 입체영상표시장치의 영상패널의 크기에 의해 결정된다.In general, the optimum viewing distance (2.5H ~ 3H; H is the height of the image panel) of the 3D image display device is determined by the size of the image panel of the 3D image display device.

이때, 뷰잉 다이아몬드의 폭을 양안 간격의 a/n배와 같이 양안 간격보다 작게 설정하게 되면, 단일 뷰를 형성하는 뷰잉 다이아몬드의 생성 위치는 기존대비 a/n배로 줄어들어 최적 시청거리가 영상패널 쪽으로 가까워지게 된다.At this time, if the width of the viewing diamond is set smaller than the binocular spacing, such as a/n times the binocular spacing, the generation position of the viewing diamond forming a single view is reduced to a/n times compared to the existing one, so that the optimal viewing distance is closer to the video panel. You lose.

도 6은 본 발명의 제 2 실시예에 따른 무안경 입체영상표시장치 및 광 프로파일을 예를 들어 보여주는 도면으로써, 일 예로 뷰잉 다이아몬드의 폭을 양안 간격의 1/2배로 설정한 경우를 보여주고 있다.6 is a view showing an autostereoscopic 3D image display device and an optical profile according to a second embodiment of the present invention, for example, showing a case in which the width of the viewing diamond is set to 1/2 times the distance between the eyes. .

그리고, 도 7 및 도 8은 도 6에 도시된 본 발명의 제 2 실시예에 따른 무안경 입체영상표시장치의 뷰 중첩구조 및 광 프로파일을 예를 들어 보여주는 도면이다.7 and 8 are views showing an example of a view overlapping structure and an optical profile of the autostereoscopic 3D display device according to the second embodiment of the present invention shown in FIG. 6.

이때, 도 7 및 도 8은 각각 2중첩구조 및 3중첩구조를 예로 들어 보여주고 있다.At this time, FIGS. 7 and 8 each show a two-overlapping structure and a three-overlapping structure as an example.

전술한 바와 같이 도 6, 도 7 및 도 8의 중앙에는 시청영역을 형성하는 뷰잉 다이아몬드 및 광 프로파일과 뷰 데이터를 도시하고 있으며, 도 6, 도 7 및 도 8의 하단에는 뷰잉 다이아몬드 내에 실제로 인지되는 뷰를 개략적으로 도시하고 있다. 참고로, 뷰 데이터는 해칭을 이용하여 구분되어 있으며, 동일한 해칭은 동일한 뷰 데이터를 의미한다.As described above, a viewing diamond forming a viewing area and a light profile and view data are shown in the center of FIGS. 6, 7 and 8, and the bottom of FIGS. 6, 7 and 8 are actually recognized in the viewing diamond. The view is schematically shown. For reference, view data is classified using hatching, and the same hatching means the same view data.

도 6, 도 7 및 도 8을 참조하면, 본 발명의 제 2 실시예에 따른 무안경 입체영상표시장치는 영상패널(210) 및 입체영상의 구현을 위해 영상패널(210) 전면에 위치하는 3D 필터로써 렌티큘러 렌즈판(220)을 포함하여 이루어진다.6, 7 and 8, the autostereoscopic 3D image display device according to the second embodiment of the present invention includes an image panel 210 and a 3D image panel 210 located in front of the image panel 210 for realizing a 3D image. It comprises a lenticular lens plate 220 as a filter.

이때, 영상패널(210)과 렌티큘러 렌즈판(220)이 기구물(미도시) 등에 의해 지지되어, 영상패널(210)과 렌티큘러 렌즈판(220) 사이가 갭 글라스(226)의 두께에 의해 소정 간격(배면 거리; S)만큼 이격 될 수 있다.At this time, the image panel 210 and the lenticular lens plate 220 are supported by a device (not shown), so that a predetermined distance between the image panel 210 and the lenticular lens plate 220 is determined by the thickness of the gap glass 226. It can be separated by (rear distance; S).

렌티큘러 렌즈판(220)은 평평한 기판 상에, 그 상부 표면이 볼록렌즈 형상의 물질층으로 이루어진 다수의 렌티큘라 렌즈(225)가 형성되어 이루어질 수 있으나, 전술한 바와 같이 본 발명이 이에 한정되는 것은 아니다.The lenticular lens plate 220 may be formed by forming a plurality of lenticular lenses 225 made of a material layer having a convex lens shape on a flat substrate, but the present invention is limited thereto as described above. no.

3D 필터는 렌티큘러 렌즈판(220) 이외에 배리어와 같이 기 공지되어 있는 기술들을 이용하여 다양하게 구성될 수 있다.In addition to the lenticular lens plate 220, the 3D filter may be configured in various ways using known techniques such as a barrier.

이러한 렌티큘러 렌즈판(220)은 좌, 우안 영상을 나누어주는 역할을 수행하게 되며, 렌티큘러 렌즈판(220)으로부터 최적 시청거리(Optimal Viewing Distance; OVD) d/2에는 좌, 우안 각각으로 좌, 우안에 해당되는 영상들이 정상적으로 도달하는 다이아몬드 형태의 뷰잉 다이아몬드(정시영역)(230)가 형성되어 있다.The lenticular lens plate 220 serves to divide the left and right eye images, and at the optimal viewing distance (OVD) d/2 from the lenticular lens plate 220, the left and right eyes are divided into left and right eyes, respectively. A diamond-shaped viewing diamond (present region) 230 through which images corresponding to are normally reached is formed.

이때, 본 발명의 제 2 실시예에 따른 뷰잉 다이아몬드(230)는 하나의 폭이 시청자의 양안 간격(e)의 1/2배로 설정되어 있는 것을 특징으로 한다. 다만, 본 발명이 이에 한정되는 것은 아니며, 뷰잉 다이아몬드(230)의 폭을 양안 간격(e)의 a/n(a, n은 a < n 조건을 만족하는 자연수)배와 같이 양안 간격(e)보다 작게 설정하는 어떠한 경우도 가능하다.At this time, the viewing diamond 230 according to the second embodiment of the present invention is characterized in that one width is set to 1/2 times the distance e of both eyes of the viewer. However, the present invention is not limited thereto, and the width of the viewing diamond 230 is equal to a/n (a, n is a natural number satisfying a <n condition) times the binocular spacing (e), and the binocular spacing (e) Any case of setting smaller than is possible.

이를 통해 시청자 양안이 위치하는 뷰잉 다이아몬드(230) 상호간의 영향을 줄여줌으로써 3D 크로스토크의 제거 또는 감소가 가능하게 된다.Through this, it is possible to remove or reduce the 3D crosstalk by reducing the mutual influence of the viewing diamond 230 in which both eyes of the viewer are located.

이때, 본 발명의 제 2 실시예에서는 영상패널(210)이나 3D 필터의 변경 없이, 즉 영상패널(210)의 해상도나 렌티큘러 렌즈(225)의 배면거리 등의 변경 없이 뷰잉 다이아몬드(230)의 폭을 양안 간격(e)보다 줄이는 것을 특징으로 하며, 그 결과 최적 시청거리가 기존대비 줄어(d → d/2)들게 된다.At this time, in the second embodiment of the present invention, the width of the viewing diamond 230 is not changed without changing the image panel 210 or the 3D filter, that is, the resolution of the image panel 210 or the rear distance of the lenticular lens 225. It is characterized by reducing the binocular distance (e), and as a result, the optimal viewing distance is reduced (d → d/2) compared to the existing one.

이와 동시에 본 발명의 제 2 실시예는 뷰잉 다이아몬드(230)를 2개 중첩 또는 3개 중첩시키도록 구성하는 것을 특징으로 하며, 이에 의해 시청자 위치 이동에 의한 휘도 편차(△L", △L'") 또한 감소하게 된다.At the same time, the second embodiment of the present invention is characterized in that two or three viewing diamonds 230 are superimposed, whereby the luminance deviation (ΔL", ΔL'" due to the movement of the viewer's position). ) Also decreases.

이때, 각 뷰잉 다이아몬드(230)에는 대응되는 영상패널(210)의 서브-픽셀의 뷰 데이터, 즉 이미지가 형성된다.At this time, view data, that is, an image, of a sub-pixel of the image panel 210 corresponding to each viewing diamond 230 is formed.

뷰 데이터는 양안 간격(e)의 기준만큼 떨어진 카메라에서 촬영된 영상을 의미한다. 예를 들어, 9뷰로 구성된 경우, 9대의 카메라에서 촬영된 영상이 뷰잉 다이아몬드(230)에 각각 첫 번째 뷰부터 9번째 뷰까지 순차적으로 적용이 되며, 첫 번째 뷰 대비 두 번째 뷰가 상대적으로 오른쪽이나 왼쪽에 위치하며, 방향성을 가진다. 뷰잉 다이아몬드(230)는 해당 뷰 데이터가 반영되어 반복적으로 형성된다.The view data refers to an image captured by a camera that is separated by a criterion of the binocular spacing (e). For example, in the case of 9 views, images captured by 9 cameras are sequentially applied to the viewing diamond 230 from the first view to the ninth view, and the second view is relatively right compared to the first view. It is located on the left and has directionality. The viewing diamond 230 is repeatedly formed by reflecting the corresponding view data.

이때, 전술한 바와 같이 최적 시청거리 d/2에서 측정된 광 프로파일을 보면, 뷰잉 다이아몬드(230)의 중앙에서 광의 세기가 가장 높고 뷰잉 다이아몬드(230)의 끝으로 갈수록 낮아지는 것을 알 수 있다.At this time, as described above, looking at the optical profile measured at the optimal viewing distance d/2, it can be seen that the intensity of light is highest at the center of the viewing diamond 230 and decreases toward the end of the viewing diamond 230.

전술한 바와 같이 도 7 및 도 8은 도 6에서 인접하는 뷰잉 다이아몬드(230)들 사이에 각각 2개 및 3개의 뷰잉 다이아몬드(230)를 중첩시킨 2중첩구조 및 3중첩구조를 나타낸다. 이때, 뷰잉 다이아몬드(230)의 중첩되는 수가 2개, 3개,...로 증가함에 따라 기존에 비해 휘도 편차(△L", △L'")는 크게 줄어드는 한편, 상대적으로 3D 크로스토크는 증가하는 것을 알 수 있다.As described above, FIGS. 7 and 8 show a two-overlapping structure and a three-overlapping structure in which two and three viewing diamonds 230 are overlapped between adjacent viewing diamonds 230 in FIG. 6. At this time, as the number of overlapping viewing diamonds 230 increases to 2, 3, ..., luminance deviations (ΔL", ΔL'") are significantly reduced compared to the existing ones, while 3D crosstalk is relatively It can be seen that it is increasing.

그리고, 뷰잉 다이아몬드(230)가 양안 간격(e)보다 작게 설정됨에 따라 시야각(또는 시청 좌우 폭) 또한 전술한 본 발명의 제 1 실시예보다 줄어들었으나, 시청자의 좌안과 우안 사이에 형성된 뷰잉 다이아몬드(230) 중 일부는 시청자의 양안에 영향을 미치지 못하게 된다.In addition, as the viewing diamond 230 is set smaller than the binocular spacing e, the viewing angle (or viewing left and right width) is also reduced compared to the first embodiment of the present invention, but a viewing diamond formed between the viewer's left and right eyes ( 230), some of them cannot affect both eyes of the viewer.

따라서, 동일한 특성의 광원을 사용할 경우, 뷰잉 다이아몬드(230)간의 간섭이 줄어들게 되어 전체적으로 누적되는 3D 크로스토크는 전술한 본 발명의 제 1 실시예보다 상대적으로 줄어들게 된다.Accordingly, when a light source having the same characteristics is used, interference between the viewing diamonds 230 is reduced, and the accumulated 3D crosstalk is relatively reduced compared to the first embodiment of the present invention.

한편, 이상의 구성만으로는 3D 크로스토크를 완전히 제거하거나 상당한 크기로 줄일 수는 없으며, 이에 뷰 데이터 렌더링 과정을 통해 입력 데이터(또는 영상 데이터; 이하에서는 편의상 입력 데이터와 영상 데이터를 혼용하여 사용하도록 한다)를 영상패널의 서브-픽셀별로 새롭게 매핑 하는 것을 제안하며, 이를 도면을 참조하여 상세히 설명한다.On the other hand, with the above configuration alone, 3D crosstalk cannot be completely removed or reduced to a significant size. Accordingly, input data (or image data; hereinafter, for convenience, input data and image data are mixed and used) through the view data rendering process. It is proposed to newly map each sub-pixel of the image panel, and this will be described in detail with reference to the drawings.

도 9는 도 7에 도시된 본 발명의 제 2 실시예에 따른 무안경 입체영상표시장치의 뷰 중첩구조에 있어, 뷰 데이터 렌더링을 통해 새롭게 매핑된 광 프로파일 및 뷰 데이터를 예를 들어 보여주는 도면이다.9 is a view showing an example of a newly mapped optical profile and view data through view data rendering in the view superposition structure of the autostereoscopic 3D display device according to the second embodiment of the present invention shown in FIG. 7. .

그리고, 도 10은 도 8에 도시된 본 발명의 제 2 실시예에 따른 무안경 입체영상표시장치의 다른 뷰 중첩구조에 있어, 뷰 데이터 렌더링을 통해 새롭게 매핑된 광 프로파일 및 뷰 데이터를 예를 들어 보여주는 도면이다.In addition, FIG. 10 is an example of a newly mapped optical profile and view data through view data rendering in another view overlapping structure of the autostereoscopic 3D display device according to the second embodiment of the present invention shown in FIG. 8. It is a drawing showing.

도 9 및 도 10을 참조하면, 무안경 입체영상표시장치의 구성은 전술한 바와 동일하나, 뷰 데이터 렌더링을 통해 광 프로파일 및 뷰 데이터가 새롭게 매핑된 것을 알 수 있다.9 and 10, the configuration of the autostereoscopic 3D display device is the same as described above, but it can be seen that the optical profile and the view data are newly mapped through view data rendering.

즉, 도 9 및 도 10은 뷰 데이터 렌더링 과정을 통해 입력 데이터를 영상패널(210)의 서브-픽셀별로 새롭게 매핑 함에 따라 시청영역에서 보여지는 광 프로파일과 뷰 데이터 및 인지되는 뷰를 보여주고 있다.That is, FIGS. 9 and 10 show an optical profile, view data, and perceived view shown in the viewing area as input data is newly mapped for each sub-pixel of the image panel 210 through the view data rendering process.

뷰 데이터 렌더링 기술은 기본적으로 인접한 뷰잉 다이아몬드(230)의 간섭으로 인한 인지 3D 크로스토크를 줄이기 위한 데이터 처리 기법이며, 본 발명에서는 뷰잉 다이아몬드(230)의 폭이 줄어든 동시에 뷰잉 다이아몬드(230) 상호간 중첩된 상태에서 인접하는 뷰들간 동일하거나 유사한 입력 데이터를 새롭게 매핑 함으로써 인지 3D 크로스토크를 제거하거나 감소시킬 뿐만 아니라 시야각을 확장시키는 것을 특징으로 한다.The view data rendering technology is basically a data processing technique for reducing perceived 3D crosstalk due to interference of adjacent viewing diamonds 230, and in the present invention, the width of the viewing diamond 230 is reduced and the viewing diamonds 230 are overlapped with each other. In the state, by newly mapping the same or similar input data between adjacent views, not only the perceived 3D crosstalk is removed or reduced, but also the viewing angle is expanded.

시청자가 인지하는 뷰를 보면, 시청자의 좌안과 우안은 색상이 다른, 즉 시차가 있는 영상을 보고 있으며, 뷰와 뷰 사이에 위치한 동일 또는 중간 뷰 영상에 의해 시청자의 이동에 따라 자연스럽게 영상이 변화하게 됨을 알 수 있다.When viewing the view perceived by the viewer, the viewer's left and right eyes are viewing images with different colors, i.e., parallax, and the image naturally changes according to the viewer's movement by the same or intermediate view image located between the view and the view. You can see that it is.

전술한 바와 같이 뷰 데이터는 해칭을 이용하여 구분되어 있으며, 동일한 해칭은 동일한 뷰 데이터를 의미한다. 즉, 일 예로 좌안이 첫 번째 뷰에 위치하고 우안이 5번째 뷰(2중첩의 경우)나 7번째 뷰(3중첩의 경우)에 위치하는 경우, 첫 번째 뷰의 인접하는 좌우의 뷰들에 첫 번째 뷰와 동일한 뷰 데이터가 입력되는 한편, 5번째 뷰나 7번째 뷰의 인접하는 좌우의 뷰들에 5번째 뷰나 7번째 뷰와 동일한 뷰 데이터가 입력되게 된다. 그리고, 그들 사이에는 첫 번째 뷰 또는 5번째 뷰나 7번째 뷰와 동일 또는 중간 뷰 영상의 뷰 데이터가 입력되게 된다.As described above, the view data is classified using hatching, and the same hatching means the same view data. That is, for example, if the left eye is in the first view and the right eye is in the 5th view (in case of overlapping 2) or the 7th view (in case of overlapping 3), the first view is located in the adjacent left and right views of the first view. While the same view data is input, the same view data as the 5th or 7th view is input to the adjacent left and right views of the 5th or 7th view. And, between them, view data of the same or intermediate view image as the first view, the fifth view, or the seventh view is input.

또한, 뷰 데이터 렌더링 기술을 적용하기 전의 도 7 및 도 8과 달리 중간 뷰 영상에 의해 시야각 또한 확보되는 것을 알 수 있다.In addition, unlike FIGS. 7 and 8 before applying the view data rendering technology, it can be seen that the viewing angle is also secured by the intermediate view image.

이하, 전술한 뷰 데이터 렌더링 기술을 적용하여 입력 데이터(또는 영상 데이터)를 변환하는 방식을 도면을 참조하여 상세히 설명한다.Hereinafter, a method of converting input data (or image data) by applying the above-described view data rendering technique will be described in detail with reference to the drawings.

도 11은 도 5에 도시된 본 발명의 제 1 실시예에 따른 무안경 입체영상표시장치에 있어, 뷰-맵이 기입된 픽셀 어레이 및 렌티큘러 렌즈 배치를 예를 들어 보여주는 도면으로써, 16개의 뷰를 이용하는 경우의 픽셀 어레이를 예를 들어 보여주고 있다. 다만, 본 발명이 전술한 뷰 수에 한정되는 것은 아니다.FIG. 11 is a view showing an example of an arrangement of a pixel array and a lenticular lens in which a view-map is written in the autostereoscopic 3D image display device according to the first embodiment of the present invention shown in FIG. 5. An example of a pixel array in use is shown. However, the present invention is not limited to the number of views described above.

이때, 도 11 상단에 표시된 R, G 및 B는 R, G 및 B 서브-픽셀의 위치를 나타낸다.In this case, R, G, and B displayed at the top of FIG. 11 indicate the positions of the R, G, and B sub-pixels.

도 12는 도 11에 도시된 픽셀 어레이에 입력되는 입력 데이터를 예를 들어 보여주는 도면으로써, 본 발명의 뷰 데이터 렌더링 기술에 따라 새롭게 매핑된 입력 데이터를 예를 들어 보여주고 있다.FIG. 12 is a diagram showing input data input to the pixel array shown in FIG. 11 as an example, and shows input data newly mapped according to the view data rendering technique of the present invention as an example.

그리고, 도 13은 뷰 데이터 렌더링을 통해 입력 데이터를 변환하는 예를 보여주는 도면이다.13 is a diagram illustrating an example of converting input data through view data rendering.

이때, 도 12 및 도 13에 도시된 1, 2, 3,... 및 16은 각각 제 1 뷰 영상, 제 2 뷰 영상, 제 3 뷰 영상,... 및 제 16 뷰 영상을 나타낸다.At this time, 1, 2, 3, ... and 16 shown in FIGS. 12 and 13 denote a first view image, a second view image, a third view image, ... and a 16th view image, respectively.

도 11을 참조하면, m(m은 자연수)뷰를 이용하는 경우, 영상패널은 m개의 서브-픽셀들 단위로 m개의 서브-픽셀들에 순서대로 첫 번째 뷰 내지 m번째 뷰가 할당될 수 있다.Referring to FIG. 11, when an m (m is a natural number) view is used, a first view to an m-th view may be sequentially allocated to m sub-pixels in units of m sub-pixels in the image panel.

즉, 영상패널의 m개의 서브-픽셀들 중 제 k(k는 1 ≤ k ≤ m을 만족하는 자연수) 서브-픽셀에 k번째 뷰가 할당된다.That is, the k-th view is allocated to the k-th sub-pixel of the m sub-pixels of the image panel (k is a natural number satisfying 1 ≤ k ≤ m).

일 예로 16개의 뷰를 이용하는 경우, 제 1 서브-픽셀에 첫 번째 뷰(도 13에 도시된 1st view)가 할당되고, 제 2 서브-픽셀에 2번째 뷰(2nd view)가 할당되며, 제 3 서브-픽셀에 3번째 뷰(3rd view)가 할당되고, 제 4 서브-픽셀에 4번째 뷰(4th view)가 할당된다. 그리고, 제 5 서브-픽셀에 5번째 뷰(5th view)가 할당되고, 제 6 서브-픽셀에 6번째 뷰(6th view)가 할당되며, 제 7 서브-픽셀에 7번째 뷰(7th view)가 할당되고, 제 8 서브-픽셀에 8번째 뷰(8th view)가 할당된다. 제 9 서브-픽셀에 9번째 뷰(9th view)가 할당되고, 제 10 서브-픽셀에 10번째 뷰(10th view)가 할당되며, 제 11 서브-픽셀에 11번째 뷰(11th view)가 할당되고, 제 12 서브-픽셀에 12번째 뷰(12th view)가 할당된다. 제 13 서브-픽셀에 13번째 뷰(13th view)가 할당되고, 제 14 서브-픽셀에 14번째 뷰(14th view)가 할당되며, 제 15 서브-픽셀에 15번째 뷰(15th view)가 할당되고, 제 16 서브-픽셀에 16번째 뷰(16th view)가 할당된다.For example, in the case of using 16 views, a first view (1 st view shown in FIG. 13) is assigned to a first sub-pixel, and a second view (2 nd view) is assigned to a second sub-pixel, the third sub-allocate the third view (3 rd view) to the pixel, the fourth sub-pixel is assigned a fourth view to (4 th view). And, the fifth sub-allocate the fifth view (5 th view) to the pixel, and the sixth sub-is assigned a sixth view of a pixel (6 th view), the seventh sub-seventh view of a pixel (7 th view) is assigned to the eighth sub-pixels in view of assigning the eighth (8 th view). A ninth sub-is assigned a 10 second view (10 th view) to a pixel, an eleventh sub-11th view of the pixel (11 th view) 9 second view to a pixel (9 th view) is, the tenth sub-assigned Is allocated, and a 12 th view is allocated to the twelfth sub-pixel. 13th sub-is assigned a 14 second view (14 th view) to the pixel, the 15 sub-15th view of the pixel (15 th view) 13 second view to a pixel (13 th view) is, 14 sub-assigned the allocation is, 16 sub-views assigned to the 16th to the pixel (16 th view).

이를 위해 3D 필터는 서브-픽셀들 대비 소정의 각도로 비스듬하게 형성된 슬랜티드 구조의 렌티큘러 렌즈(125)로 구현될 수 있다. 보다 구체적으로, 슬랜티드 구조의 렌티큘러 렌즈(125)는 서브-픽셀들의 장축 변을 기준으로 소정의 각도만큼 비스듬하게 형성된다.To this end, the 3D filter may be implemented with a lenticular lens 125 having a slanted structure that is obliquely formed at a predetermined angle compared to the sub-pixels. More specifically, the lenticular lens 125 of the slanted structure is formed obliquely by a predetermined angle with respect to the long axis sides of the sub-pixels.

이에 따라 3D 필터는 m개의 서브-픽셀들에 표시된 제 1 내지 제 m 뷰 영상(변환되기 전의 뷰 영상)들 각각을 첫 번째 뷰 내지 m번째 뷰 각각으로 분할한다. 따라서, 3D 필터는 제 k 서브-픽셀에 표시되는 제 k 뷰 영상을 k번째 뷰로 출력한다.Accordingly, the 3D filter divides each of the first to m-th view images (view images before transformation) displayed on the m sub-pixels into each of the first to m-th views. Accordingly, the 3D filter outputs the k-th view image displayed on the k-th sub-pixel as the k-th view.

참고로, 본 발명에서 설명되는 뷰-맵이란, 본 발명에 따른 입체영상표시장치에서 출력되는 입체영상을 시청할 수 있는 시청영역에 대한 좌표정보를 말하는 것으로서, 이러한 시청영역에는 정시영역, 역시영역 및 시청불가 영역이 있다.For reference, the view-map described in the present invention refers to coordinate information on a viewing area in which a 3D image output from the 3D image display device according to the present invention can be viewed. There is an area that cannot be viewed.

여기서, 정시영역은 시청자가 입체영상을 정상적으로 시청할 수 있는 영역으로서 시청자의 우안에는 우안영상이 맺히고, 좌안에는 좌안영상이 맺히는 영역을 말한다.Here, the presenting region refers to a region in which a viewer can normally view a 3D image, and a right eye image is formed in the right eye of the viewer, and a left eye image is formed in the left eye.

또한, 역시영역은 영상의 차이 정보가 전달되기 때문에, 시청자가 입체적으로 영상을 인식할 수는 있으나, 우안에는 좌안영상이 맺히고 좌안에는 우안영상이 맺히는 영역이기 때문에, 시청자가 눈의 피로를 보다 빨리 느끼게 되는 영역이다.Also, since the difference information of the image is transmitted in the area, the viewer can perceive the image in three dimensions, but the left eye image is formed in the right eye and the right eye image is formed in the left eye. This is the area you will feel.

또한, 시청불가 영역은 입체영상의 시청 자체가 불가능한 영역을 말한다In addition, the viewable area refers to an area in which viewing of a 3D image is impossible.

즉, 뷰-맵에는 전술한 3가지 영역들이 표시되는 위치들에 대한 좌표정보(즉, 첫 번째 뷰 내지 m번째 뷰)들이 포함되어 있다.That is, the view-map includes coordinate information (ie, the first view to the m-th view) on positions in which the three areas are displayed.

그러나, 정시영역과 역시영역을 제외한 영역을 시청불가 영역으로 판단할 수 있음으로, 뷰-맵에는 시청불가 영역에 대한 좌표정보가 생략되어 있을 수도 있다.However, since it is possible to determine an area excluding the present area and the still area as an unviewable area, coordinate information for the unviewable area may be omitted in the view-map.

도 12 및 도 13을 참조하면, 본 발명에 따른 뷰 데이터 렌더링 기술을 적용하게 되면, 입력 데이터가 인접하는 뷰들간 동일한 입력 데이터로 새롭게 매핑 되게 된다.Referring to FIGS. 12 and 13, when the view data rendering technique according to the present invention is applied, input data is newly mapped to the same input data between adjacent views.

일 예로 16개의 뷰를 이용하는 경우, 2번째 뷰(도 13에 도시된 2nd view)의 입력 데이터가 제 2 뷰 영상에서 제 1 뷰 영상으로 변환된다. 그리고, 3번째 뷰(3rd view)의 입력 데이터가 제 3 뷰 영상에서 제 2 뷰 영상으로 변환되고, 4번째 뷰(4th view)의 입력 데이터가 제 4 뷰 영상에서 제 2 뷰 영상으로 변환된다. 5번째 뷰(5th view)의 입력 데이터가 제 5 뷰 영상에서 제 3 뷰 영상으로 변환되고, 6번째 뷰(6th view)의 입력 데이터가 제 6 뷰 영상에서 제 3 뷰 영상으로 변환된다. 7번째 뷰(7th view)의 입력 데이터가 제 7 뷰 영상에서 제 4 뷰 영상으로 변환되고, 8번째 뷰(8th view)의 입력 데이터가 제 8 뷰 영상에서 제 4 뷰 영상으로 변환된다. 9번째 뷰(9th view)의 입력 데이터가 제 9 뷰 영상에서 제 5 뷰 영상으로 변환되고, 10번째 뷰(10th view)의 입력 데이터가 제 10 뷰 영상에서 제 5 뷰 영상으로 변환된다. 11번째 뷰(11th view)의 입력 데이터가 제 11 뷰 영상에서 제 6 뷰 영상으로 변환되고, 12번째 뷰(12th view)의 입력 데이터가 제 12 뷰 영상에서 제 6 뷰 영상으로 변환된다. 13번째 뷰(13th view)의 입력 데이터가 제 13 뷰 영상에서 제 7 뷰 영상으로 변환되고, 14번째 뷰(14th view)의 입력 데이터가 제 14 뷰 영상에서 제 7 뷰 영상으로 변환된다. 15번째 뷰(15th view)의 입력 데이터가 제 15 뷰 영상에서 제 8 뷰 영상으로 변환되고, 16번째 뷰(16th view)의 입력 데이터가 제 16 뷰 영상에서 제 8 뷰 영상으로 변환된다.For example, if using 16 view, second input data for the second view (the 2 nd view shown in Fig. 13) is converted to the first view image in a second view image. In addition, the input data of the third view (3 rd view) is converted from the third view image to the second view image, and the input data of the fourth view (4 th view) is converted from the fourth view image to the second view image. do. The fifth input data of the view (5 th view) is converted to the third view image in the fifth view video, 6 input data for the second view (6 th view) is converted to the third view images in a sixth view image. 7, the input data for the second view (7 th view) the input data is a seventh view image is converted in a fourth view image, the eighth view (8 th view) of the is converted into a fourth view image in the eighth view image. 9, input data for the second view (9 th view) is converted to a fifth view image in the ninth view image, the input data of the 10th view (10 th view) is converted to a fifth view image in a tenth view image. 11, first input data of the view (11 th view) is converted to a sixth view image in the 11th view video, 12 the input data for the second view (12 th view) is converted to a sixth view image at the 12th view image. 13th view and input data of the (13 th view) is converted to a seventh view image in the 13th view video, 14 the input data for the second view (14 th view) is converted to a seventh view image at a 14 view imaging. 15, first input data of the view (15 th view) is converted to an eighth view image in the 15th view video, 16 the input data for the second view (16 th view) is converted to the 8-view image in the 16th view image.

이와 같이 16개의 뷰를 이용할 때, 뷰잉 다이아몬드의 2중첩구조이기 때문에 제 1 뷰 영상 내지 제 16 뷰 영상을 입력할 수도 있으나, 단안 내 인지되는 영상간 차이를 줄여 인지 3D 크로스토크를 줄여줄 수 있도록 입력 데이터를 2개씩 중첩시킴으로써 제 1 뷰 내지 제 8 뷰 영상만을 입력할 수 있다.When 16 views are used as described above, since it is a two-overlapping structure of the viewing diamond, the first view image to the 16th view image may be input, but the difference between the images perceived in the monocular can be reduced to reduce the perceived 3D crosstalk. By overlapping the input data by two, only the first to eighth view images can be input.

도 14a 및 도 14b는 도 5에 도시된 본 발명의 제 1 실시예에 따른 무안경 입체영상표시장치에 있어, 좌안 및 우안에서 인지되는 서브-픽셀과 뷰를 예를 들어 보여주는 도면이다.14A and 14B are views illustrating, for example, sub-pixels and views perceived by the left and right eyes in the autostereoscopic 3D image display device according to the first embodiment of the present invention shown in FIG. 5.

그리고, 도 15a 및 도 15b는 도 5에 도시된 본 발명의 제 1 실시예에 따른 무안경 입체영상표시장치에 있어, 좌안 및 우안에서 인지되는 입력 데이터를 예를 들어 보여주는 도면이다.15A and 15B are diagrams illustrating input data recognized by the left and right eyes in the autostereoscopic 3D image display device according to the first embodiment of the present invention shown in FIG. 5 as an example.

이때, 도 14a 및 도 15a는 좌안에서 인지되는 서브-픽셀과 뷰 및 입력 데이터를 예를 들어 보여주고 있으며, 도 14b 및 도 15b는 우안에서 인지되는 서브-픽셀과 뷰 및 입력 데이터를 예를 들어 보여주고 있다.In this case, FIGS. 14A and 15A show sub-pixels perceived in the left eye, views, and input data as an example, and FIGS. 14B and 15B illustrate sub-pixels perceived in the right eye, views, and input data, for example. Is showing.

도 16a 및 도 16b는 도 5에 도시된 본 발명의 제 1 실시예에 따른 무안경 입체영상표시장치에 있어, 양안에서 인지되는 서브-픽셀 및 입력 데이터를 예를 들어 보여주는 도면이다.16A and 16B are diagrams illustrating, for example, sub-pixels and input data recognized by both eyes in the autostereoscopic 3D display device according to the first embodiment of the present invention shown in FIG. 5.

인접하는 뷰 상호간에 3D 크로스토크가 없는 이상적인 경우, 뷰잉 다이아몬드의 2중첩에서 시청자가 인지하는 뷰는 단안 기준으로 2개이다. 따라서, 도 14a 및 도 14b와 같이 좌안과 우안이 인지하는 서브-픽셀을 표현할 수 있다.In an ideal case where there is no 3D crosstalk between adjacent views, the viewer perceives two views on a monocular basis in two overlapping of viewing diamonds. Accordingly, as shown in FIGS. 14A and 14B, sub-pixels recognized by the left eye and the right eye can be expressed.

이때, 도 5에 도시된 본 발명의 제 1 실시예에 따른 무안경 입체영상표시장치는 뷰잉 다이아몬드의 폭을 양안 간격을 기준으로 하고 있어, 뷰잉 다이아몬드의 중첩이 없다면 좌안이 첫 번째 뷰를 인지할 경우 우안은 2번째 뷰를 인지하게 된다.In this case, in the autostereoscopic 3D display device according to the first embodiment of the present invention shown in FIG. 5, the width of the viewing diamond is based on the binocular spacing. If there is no overlap of the viewing diamond, the left eye can recognize the first view. In this case, the right eye perceives the second view.

따라서, 2중첩의 경우에는 좌안과 우안 사이에 뷰잉 다이아몬드가 한 개 더 존재하게 됨에 따라 도 14a 및 도 14b와 같이, 좌안이 첫 번째 뷰를 인지할 경우 우안은 3번째 뷰를 인지하게 된다(양안의 경우 도 16a 참조).Therefore, in the case of double overlap, as one more viewing diamond exists between the left and right eyes, as shown in Figs. 14A and 14B, when the left eye recognizes the first view, the right eye recognizes the third view (binocular In the case, see Fig. 16a).

이 경우 좌안에서 인지되는 서브-픽셀 및 우안에서 인지되는 서브-픽셀은 상호 인접하고 있음을 알 수 있다.In this case, it can be seen that the sub-pixel perceived by the left eye and the sub-pixel perceived by the right eye are adjacent to each other.

이때, 본 발명에 따른 뷰 데이터 렌더링 기술을 적용하면, 2중첩의 경우에는 도 15a 및 도 15b와 같이, 좌안이 제 1 뷰 영상을 볼 경우 우안은 제 2 뷰 영상을 보게 된다(양안의 경우 도 16b 참조).In this case, when the view data rendering technology according to the present invention is applied, as shown in FIGS. 15A and 15B in the case of two overlapping, when the left eye views the first view image, the right eye sees the second view image (Fig. 16b).

이러한 뷰 데이터 렌더링 기술을 본 발명의 제 2 실시예에 적용하면 다음과 같다.When this view data rendering technique is applied to the second embodiment of the present invention, it is as follows.

먼저, 뷰잉 다이아몬드의 2중첩구조에서 뷰 데이터 렌더링 기술을 적용한 경우를 설명하도록 하며, 이하에서는 16개의 뷰를 이용하는 경우에 대해서 설명하고 있지만, 전술한 바와 같이 본 발명이 뷰 수에 한정되는 것은 아니다.First, a case in which a view data rendering technique is applied in a two-overlapping structure of a viewing diamond will be described. Hereinafter, a case in which 16 views are used will be described, but as described above, the present invention is not limited to the number of views.

도 17은 도 7에 도시된 본 발명의 제 2 실시예에 따른 무안경 입체영상표시장치에 있어, 픽셀 어레이에 입력된 입력 데이터를 예를 들어 보여주는 도면으로써, 본 발명의 뷰 데이터 렌더링 기술에 따라 새롭게 매핑된 입력 데이터를 예를 들어 보여주고 있다.17 is a view showing, for example, input data input to a pixel array in the autostereoscopic 3D display device according to the second embodiment of the present invention shown in FIG. 7 according to the view data rendering technology of the present invention. The newly mapped input data is shown as an example.

도 18은 뷰 데이터 렌더링을 통해 입력 데이터를 변환하는 예를 보여주는 도면이다.18 is a diagram illustrating an example of converting input data through view data rendering.

또한, 도 19는 도 7에 도시된 본 발명의 제 2 실시예에 따른 무안경 입체영상표시장치에 있어, 픽셀 어레이에 입력된 입력 데이터의 다른 예를 보여주는 도면이다. 이때, 도 19는 도 17에 비해 뷰 영상 사이에 중간 뷰 영상이 삽입되도록 매핑된 입력 데이터를 예를 들어 보여주고 있다.19 is a view showing another example of input data input to a pixel array in the autostereoscopic 3D image display device according to the second embodiment of the present invention shown in FIG. 7. In this case, compared to FIG. 17, FIG. 19 shows, for example, input data mapped so that an intermediate view image is inserted between view images.

도 20은 뷰 데이터 렌더링을 통해 입력 데이터를 변환하는 다른 예를 보여주는 도면이다.20 is a diagram illustrating another example of converting input data through view data rendering.

이때, 도 17 내지 도 20에 도시된 1, 2, 3,... 및 16은 각각 제 1 뷰 영상, 제 2 뷰 영상, 제 3 뷰 영상,... 및 제 16 뷰 영상을 나타낸다. 그리고, 도 19 및 도 20에 도시된 1.5, 2.5 및 3.5는 각각 제 1 뷰 영상과 제 2 뷰 영상의 중간 뷰 영상, 제 2 뷰 영상과 제 3 뷰 영상의 중간 뷰 영상 및 제 3 뷰 영상과 제 4 뷰 영상의 중간 뷰 영상을 나타낸다.At this time, 1, 2, 3, ... and 16 shown in FIGS. 17 to 20 denote a first view image, a second view image, a third view image, ... and a 16th view image, respectively. In addition, 1.5, 2.5, and 3.5 shown in FIGS. 19 and 20 are an intermediate view image of a first view image and a second view image, an intermediate view image of a second view image and a third view image, and a third view image, respectively. Represents an intermediate view image of the fourth view image.

전술한 바와 같이 영상패널의 m개의 서브-픽셀들 중 제 k(k는 1 ≤ k ≤ m을 만족하는 자연수) 서브-픽셀에 k번째 뷰가 할당될 수 있다.As described above, the k-th view may be allocated to the k-th sub-pixel (k is a natural number satisfying 1≦k≦m) among m sub-pixels of the image panel.

또한, 3D 필터는 m개의 서브-픽셀들에 표시된 제 1 내지 제 m 뷰 영상(변환되기 전의 뷰 영상)들 각각을 첫 번째 뷰 내지 m번째 뷰 각각으로 분할한다. 따라서, 3D 필터는 제 k 서브-픽셀에 표시되는 제 k 뷰 영상을 k번째 뷰로 출력한다.In addition, the 3D filter divides each of the first to m-th view images (view images before transformation) displayed on the m sub-pixels into each of the first to m-th views. Accordingly, the 3D filter outputs the k-th view image displayed on the k-th sub-pixel as the k-th view.

도 17과 도 18 및 도 19와 도 20을 참조하면, 본 발명에 따른 뷰 데이터 렌더링 기술을 적용하게 되면, 입력 데이터가 인접하는 뷰들간 동일하거나 유사(도 19 및 도 20의 경우)한 입력 데이터로 새롭게 매핑 되게 된다.Referring to FIGS. 17 and 18 and 19 and 20, when the view data rendering technology according to the present invention is applied, the input data is the same or similar (in the case of FIGS. 19 and 20) between adjacent views. Is newly mapped.

일 예로 16개의 뷰를 이용하는 경우, 도 17 및 도 18의 경우에는 2번째 뷰(도 18에 도시된 2nd view), 3번째 뷰(3rd view) 및 4번째 뷰(4th view)의 입력 데이터가 각각 제 2 뷰 영상, 제 3 뷰 영상 및 제 4 뷰 영상에서 제 1 뷰 영상으로 변환된다. 그리고, 5번째 뷰(5th view), 6번째 뷰(6th view), 7번째 뷰(7th view) 및 8번째 뷰(8th view)의 입력 데이터가 각각 제 5 뷰 영상, 제 6 뷰 영상, 제 7 뷰 영상 및 제 8 뷰 영상에서 제 2 뷰 영상으로 변환된다. 9번째 뷰(9th view), 10번째 뷰(10th view), 11번째 뷰(11th view) 및 12번째 뷰(12th view)의 입력 데이터가 각각 제 9 뷰 영상, 제 10 뷰 영상, 제 11 뷰 영상 및 제 12 뷰 영상에서 제 3 뷰 영상으로 변환된다. 13번째 뷰(13th view), 14번째 뷰(14th view), 15번째 뷰(15th view) 및 16번째 뷰(16th view)의 입력 데이터가 각각 제 13 뷰 영상, 제 14 뷰 영상, 제 15 뷰 영상 및 제 16 뷰 영상에서 제 4 뷰 영상으로 변환된다.For example, when 16 views are used, in the case of FIGS. 17 and 18, input of a second view (2 nd view shown in FIG. 18), a third view (3 rd view), and a fourth view (4 th view) Data is converted from a second view image, a third view image, and a fourth view image into a first view image, respectively. Then, the fifth view (5 th view), six second view (6 th view), 7 second view (7 th view) and eighth view respectively of input data (8 th view) is a fifth view image, and the sixth view The image, the seventh view image, and the eighth view image are converted into a second view image. 9th view (9 th view), 10 second view (10 th view), 11 second view (11 th view) and 12th view respectively of input data (12 th view) a ninth view image, a tenth view image, The 11th view image and the 12th view image are converted into a third view image. 13th view (13 th view), 14 second view (14 th view), 15 second view (15 th view) and 16th view respectively of input data (16 th view) of claim 13, the view image, the 14 view image, The 15th view image and the 16th view image are converted into a fourth view image.

또한, 도 19 및 도 20의 경우에는 2번째 뷰(도 20에 도시된 2nd view) 및 3번째 뷰(3rd view)의 입력 데이터가 제 2 뷰 영상 및 제 3 뷰 영상에서 제 1 뷰 영상으로 변환되는 반면, 4번째 뷰(4th view)의 입력 데이터는 제 4 뷰 영상에서 제 1 뷰 영상과 제 2 뷰 영상의 중간 뷰 영상인 제 1.5 뷰 영상으로 변환되게 되다. 그리고, 5번째 뷰(5th view), 6번째 뷰(6th view) 및 7번째 뷰(7th view)의 입력 데이터가 각각 제 5 뷰 영상, 제 6 뷰 영상 및 제 7 뷰 영상에서 제 2 뷰 영상으로 변환되는 반면, 8번째 뷰(8th view)의 입력 데이터는 제 8 뷰 영상에서 중간 뷰 영상인 제 2.5 뷰 영상으로 변환되게 된다. 9번째 뷰(9th view), 10번째 뷰(10th view) 및 11번째 뷰(11th view)의 입력 데이터가 각각 제 9 뷰 영상, 제 10 뷰 영상 및 제 11 뷰 영상에서 제 3 뷰 영상으로 변환되는 반면, 12번째 뷰(12th view)의 입력 데이터는 제 12 뷰 영상에서 중간 뷰 영상인 제 3.5 뷰 영상으로 변환되게 된다. 이와 같이 뷰 영상 사이에 중간 뷰 영상을 삽입하는 경우에는 시청자의 이동에 따라 보다 효과적으로 자연스럽게 영상이 변화될 수 있는 이점이 있다.Further, Fig. 19 and (a 2 nd view shown in Fig. 20) Figure 20 is a second view for and the third view (3 rd view) the input data is the second view image and the first view image in a three-view image of the while the transformation, the input data in the fourth view (4 th view) will be converted into the middle view images of the view image of 1.5 in the first view image and a second view image in a fourth image view. Then, the fifth view (5 th view), six second view (6 th view) and seventh view (7 th view) input data, each fifth view image of the sixth view image and a second 7 On the View Image while the conversion to view images, the input data in view of the eighth (8 th view) is converted into the intermediate image view of the view image of 2.5 in the eighth view image. 9th view (9 th view), 10 second view (10 th view) and 11th view the respective input data of (11 th view) 9 view image, a tenth view image and the third-view image in the 11 view image while the transformation, the input data in view of the twelfth (12 th view) is converted into the intermediate image of the view 3.5 view image in the 12th image view. In the case of inserting an intermediate view image between view images as described above, there is an advantage in that the image can be more effectively and naturally changed according to the movement of the viewer.

다만, 13번째 뷰(13th view), 14번째 뷰(14th view), 15번째 뷰(15th view) 및 16번째 뷰(16th view)의 입력 데이터는 각각 제 13 뷰 영상, 제 14 뷰 영상, 제 15 뷰 영상 및 제 16 뷰 영상에서 제 4 뷰 영상으로 변환되게 된다. 즉, 이 경우에는 제 5 뷰 영상이 없기 때문에 16번째 뷰(16th view)의 입력 데이터는 제 4 뷰 영상과 제 5 뷰 영상의 중간 뷰 영상으로 변환되지 않고 마지막 뷰 영상인 제 4 뷰 영상으로 변환되게 된다.However, the 13th view (13 th view), 14 second view (14 th view), 15 second view (15 th view) and 16, input data for the second view (16 th view) is each of the 13 views the image, the 14 views The image, the 15th view image, and the 16th view image are converted into a fourth view image. That is, in this case, the fifth view, since there is no image input data of the 16th view (16 th view) is not converted to an intermediate view image of the fourth view image and a fifth view video last view image of the fourth view image Will be converted.

이와 같이 16개의 뷰를 이용할 때, 뷰잉 다이아몬드의 2중첩구조이기 때문에 제 1 뷰 영상 내지 제 16 뷰 영상을 입력할 수도 있으나, 단안 내 인지되는 영상간 차이를 줄여 인지 3D 크로스토크를 줄여줄 수 있도록 입력 데이터를 4개씩 중첩시킴으로써 제 1 뷰 내지 제 4 뷰 영상만을 입력할 수 있다.When 16 views are used as described above, since it is a two-overlapping structure of the viewing diamond, the first view image to the 16th view image may be input, but the difference between the images perceived in the monocular can be reduced to reduce the perceived 3D crosstalk. By overlapping the input data by four, only the first to fourth view images can be input.

이는 본 발명의 특징 중 하나로 기존 구조에서는 뷰잉 다이아몬드의 중첩 수와 입력 데이터의 수는 동일하였으나, 본 발명에서는 입력 데이터의 중첩 수는 다음과 같은 관계식을 가질 수 있다.This is one of the characteristics of the present invention. In the existing structure, the number of overlapping viewing diamonds and the number of input data were the same, but in the present invention, the number of overlapping input data may have the following relational expression.

입력 데이터의 중첩 수≤뷰잉 다이아몬드(D)의 중첩 수×(양안 간격/D의 폭)Number of overlapping input data ≤ Number of overlapping viewing diamonds (D) × (Binocular spacing/D width)

위에서 입력 데이터의 중첩 수가 D의 중첩 수×(양안 간격/D의 폭)보다 작은 경우는 도 19 및 도 20에 도시된 바와 같이 뷰 영상과 뷰 영상 사이에 중간 뷰 데이터를 입력하여 시청자의 좌우 이동에 따라 뷰 영상이 1뷰 단위가 아닌 0.5 뷰 단위로 변화하는 부분을 추가함으로써 좀 더 자연스러운 영상 변화를 유도할 수 있다. 이러한 중간 뷰 영상의 수는 조절할 수 있다.If the number of overlaps of the input data is less than the number of overlaps of D × (binocular spacing/width of D), as shown in Figs. According to this, a more natural image change can be induced by adding a portion in which the view image changes by 0.5 view units instead of 1 view unit. The number of such intermediate view images can be adjusted.

도 21a 및 도 21b는 도 7에 도시된 본 발명의 제 2 실시예에 따른 무안경 입체영상표시장치에 있어, 좌안 및 우안에서 인지되는 서브-픽셀과 뷰를 예를 들어 보여주는 도면이다.21A and 21B are diagrams illustrating, for example, sub-pixels and views perceived by the left and right eyes in the autostereoscopic 3D image display device according to the second embodiment of the present invention shown in FIG. 7.

그리고, 도 22a 및 도 22b는 도 7에 도시된 본 발명의 제 2 실시예에 따른 무안경 입체영상표시장치에 있어, 좌안 및 우안에서 인지되는 입력 데이터를 예를 들어 보여주는 도면이다.In addition, FIGS. 22A and 22B are diagrams illustrating input data recognized by the left and right eyes in the autostereoscopic 3D image display device according to the second embodiment of the present invention shown in FIG. 7 as an example.

이때, 도 21a 및 도 22a는 좌안에서 인지되는 서브-픽셀과 뷰 및 입력 데이터를 예를 들어 보여주고 있으며, 도 21b 및 도 22b는 우안에서 인지되는 서브-픽셀과 뷰 및 입력 데이터를 예를 들어 보여주고 있다.At this time, FIGS. 21A and 22A show sub-pixels perceived in the left eye, views, and input data as an example, and FIGS. 21B and 22B illustrate sub-pixels perceived in the right eye, views, and input data, for example. Is showing.

도 23a 및 도 23b는 도 7에 도시된 본 발명의 제 2 실시예에 따른 무안경 입체영상표시장치에 있어, 양안에서 인지되는 서브-픽셀 및 입력 데이터를 예를 들어 보여주는 도면이다.23A and 23B are views illustrating, for example, sub-pixels and input data recognized by both eyes in the autostereoscopic 3D display device according to the second embodiment of the present invention shown in FIG. 7.

도 21a 및 도 21b를 참조하면, 도 7에 도시된 본 발명의 제 2 실시예에 따른 무안경 입체영상표시장치는 뷰잉 다이아몬드의 폭이 양안 간격의 1/2배이면서 2중첩구조를 가짐에 따라 단안 기준으로 2개의 뷰를 동시에 인지하게 된다.21A and 21B, the autostereoscopic 3D image display device according to the second embodiment of the present invention illustrated in FIG. 7 has a two-overlapping structure while the width of the viewing diamond is 1/2 times the distance between the eyes. Two views are recognized at the same time on a monocular basis.

그러나, 뷰잉 다이아몬드의 폭이 양안 간격의 1/2배로 줄어드는 동시에 2중첩구조를 가짐에 따라 좌안과 우안 사이에 뷰잉 다이아몬드가 3개 더 존재하게 되며(도 9 참조), 일 예로 좌안이 첫 번째 뷰를 인지할 경우 우안은 양안 간격만큼 떨어진 5번째 뷰를 인지하게 된다(양안의 경우 도 23a 참조).However, as the width of the viewing diamond is reduced to 1/2 of the distance between the eyes and at the same time, as it has a two-overlapping structure, three more viewing diamonds exist between the left and right eyes (see FIG. 9), and as an example, the left eye is the first view. When recognizing is, the right eye perceives the fifth view spaced apart by the distance between the eyes (see FIG. 23A for both eyes).

이때, 본 발명에 따른 뷰 데이터 렌더링 기술을 적용하면, 2중첩의 경우에는 도 22a 및 도 22b와 같이, 좌안이 제 1 뷰 영상을 볼 경우 우안은 양안 간격만큼 떨어져서 제 2 뷰 영상을 보게 된다(양안의 경우 도 23b 참조).In this case, when the view data rendering technology according to the present invention is applied, as shown in FIGS. 22A and 22B in the case of two overlapping, when the left eye views the first view image, the right eye sees the second view image by a distance between the eyes ( For both eyes, see Fig. 23B).

이 경우 전술한 본 발명의 제 1 실시예와는 달리 좌안에서 인지되는 서브-픽셀과 우안에서 인지되는 서브-픽셀은 하나의 서브-픽셀만큼 공간적으로 떨어져 있음을 알 수 있다. 즉, 본 발명의 제 2 실시예(및 후술할 제 3 실시예)에 따른 뷰-맵은 기존 구조대비 좌안과 우안에 매칭되는 서브-픽셀들 상호간에 발생하는 광 간섭의 영향을 적게 받음에 따라 3D 크로스토크를 제거시키거나 감소시킬 수 있게 된다.In this case, unlike the first embodiment of the present invention described above, it can be seen that the sub-pixel perceived by the left eye and the sub-pixel perceived by the right eye are spatially separated by one sub-pixel. That is, the view-map according to the second embodiment of the present invention (and the third embodiment to be described later) is less affected by optical interference between sub-pixels matching the left eye and the right eye compared to the existing structure. It is possible to eliminate or reduce 3D crosstalk.

따라서, 뷰잉 다이아몬드를 양안 간격보다 작게 설정할수록 양안 사이에 위치하는 뷰잉 다이아몬드의 수가 증가하고, 그 결과 좌안과 우안이 인지하는 서브-픽셀간 간격이 물리적으로 증가하게 되어 3D 크로스토크가 감소하게 된다. 또한, 이에 따라 인지되는 영상의 흐릿한 부분이 제거되어 시청자가 인지하는 3D 깊이 또한 향상되게 된다.Accordingly, as the viewing diamond is set smaller than the binocular spacing, the number of viewing diamonds located between the binoculars increases, and as a result, the spacing between the sub-pixels perceived by the left and right eyes increases physically, thereby reducing 3D crosstalk. In addition, the blurred portion of the perceived image is removed accordingly, and the 3D depth perceived by the viewer is also improved.

이와 같이 본 발명에서는 시청영역에서 시청자가 인지하는 3D 크로스토크를 추가적으로 줄이는 동시에 시야각을 확보할 수 있으며, 역시영역에서 정시영역으로 이동하거나 정시영역에서 다시 역시영역으로 이동할 경우 영상간 차이에 의해 발생하는 이미지 플리핑 현상 또한 크게 감소시킬 수 있게 된다. 즉, 기존대비 전체적으로 입력하는 뷰 영상의 수가 줄어들어 이미지 플리핑 현상 또한 감소하게 된다.As described above, in the present invention, it is possible to additionally reduce the 3D crosstalk perceived by the viewer in the viewing area and at the same time secure the viewing angle. Image flipping can also be greatly reduced. That is, the number of view images that are inputted overall is reduced compared to the existing image, and the image flipping phenomenon is also reduced.

이와 같은 뷰 데이터 렌더링 기술은 중첩되는 뷰의 수에 관계없이 적용 가능하다.This view data rendering technique can be applied regardless of the number of overlapping views.

한편, 이상에서 설명한 기본적인 뷰 구조는 영상패널의 해상도, 중첩 수, 시야각 등을 모두 고려하여 설정하게 된다.Meanwhile, the basic view structure described above is set in consideration of all of the resolution, the number of overlaps, and the viewing angle of the image panel.

본 발명에서는 뷰잉 다이아몬드 구조에 의해 전술한 실시예들과 같이 특정된 뷰 구조의 형태를 갖게 되며, 그 특징은 다음과 같다.In the present invention, the viewing diamond structure has the shape of the view structure specified as in the above-described embodiments, and its characteristics are as follows.

전체 뷰의 수≤(N+1)×뷰잉 다이아몬드(D)의 중첩 수×(양안 간격/D의 폭)Total number of views ≤ (N+1) × number of overlapping viewing diamonds (D) × (Binocular spacing/D width)

여기서 N은 자연수이며, N+1인 부분은 좌안과 우안간의 시차를 갖는 뷰 영상을 표시할 수 있는 최소 값이 2이기 때문에 필요하다.Here, N is a natural number, and the portion of N+1 is necessary because the minimum value that can display a view image having a parallax between the left and right eyes is 2.

따라서, 전술한 실시예 이외에도, 본 발명의 내용을 반영하여 다양한 형태의 뷰-맵 구조를 형성할 수 있으며, 이에 따라 적절한 뷰 데이터 렌더링 기술이 적용될 수 있다.Accordingly, in addition to the above-described embodiments, various types of view-map structures may be formed by reflecting the contents of the present invention, and accordingly, an appropriate view data rendering technique may be applied.

한편, 전술한 바와 같이 본 발명의 제 2 실시예의 경우 영상패널로부터 시청자까지의 최적 시청거리가 기존대비 줄어(d → d/2)들게 된다.Meanwhile, as described above, in the case of the second embodiment of the present invention, the optimal viewing distance from the video panel to the viewer is reduced (d → d/2) compared to the existing one.

이는 뷰잉 다이아몬드의 폭을 양안 간격의 a/n배와 같이 양안 간격보다 작게 설정하게 되면, 단일 뷰를 형성하는 뷰잉 다이아몬드의 생성 위치가 기존대비 a/n배로 줄어들기 때문이며, 이에 따라 최적 시청거리가 영상패널 쪽으로 가까워지게 된다.This is because if the width of the viewing diamond is set smaller than the binocular spacing, such as a/n times the binocular spacing, the generation position of the viewing diamond forming a single view is reduced to a/n times compared to the previous one, and accordingly, the optimal viewing distance is reduced. It gets closer to the image panel.

최적 시청거리가 기존대비 줄었다 하더라도 그 효과는 동일하기 때문에 시청거리를 확장하는 방안을 다음과 같이 제시하고자 한다.Even if the optimal viewing distance is reduced compared to the previous one, the effect is the same, so I would like to propose a plan to expand the viewing distance as follows.

일반적인 시청거리의 확장 방법은 영상패널과 3D 필터 사이의 배면거리를 증가시키는 방법과 렌티큘러 렌즈의 피치를 변경하는 방법이 있다.General methods of extending the viewing distance include a method of increasing the rear distance between an image panel and a 3D filter, and a method of changing the pitch of a lenticular lens.

후자의 경우 영상패널의 도트 피치, 즉 해상도와 직접적으로 관련되어 있으며, 2가지 방법의 경우 영상패널의 크기 및 특성에 따라 적절히 사용될 수 있으나, 기본적으로 비용이 증가하는 단점이 있다.In the latter case, it is directly related to the dot pitch, that is, the resolution, of the image panel, and the two methods can be appropriately used according to the size and characteristics of the image panel, but there is a disadvantage in that the cost is basically increased.

이에 본 발명의 제 3 실시예에서는 비용의 증가 없이 최적 시청거리를 제어할 수 있는 방법을 제안하고자 한다.Accordingly, in the third embodiment of the present invention, a method capable of controlling an optimal viewing distance without an increase in cost is proposed.

도 24는 본 발명의 제 3 실시예에 따른 무안경 입체영상표시장치의 뷰 중첩 구조 및 광 프로파일을 예를 들어 보여주는 도면으로써, 뷰 데이터 렌더링을 통해 새롭게 매핑된 광 프로파일 및 뷰 데이터를 예를 들어 보여주고 있다.FIG. 24 is a view showing, for example, a view overlapping structure and a light profile of an autostereoscopic 3D display device according to a third embodiment of the present invention. Is showing.

이때, 도 24는 전술한 도 9에 도시된 본 발명의 제 2 실시예에 따른 무안경 입체영상표시장치의 2중첩구조에 있어, 시청거리를 확장한 경우의 광 프로파일 및 뷰 데이터를 예를 들어 보여주고 있다. 여기서, 시청거리의 확장은 시청자가 영상패널로부터 d/2의 위치에서 d의 위치로 이동하였음을 의미한다.In this case, FIG. 24 is an example of an optical profile and view data when viewing distance is extended in the two-overlapping structure of the autostereoscopic 3D image display device according to the second embodiment of the present invention shown in FIG. 9 described above. Is showing. Here, the expansion of the viewing distance means that the viewer has moved from the position d/2 to the position d from the video panel.

도 24의 중앙에는 시청거리 d/2와 d에서 시청영역을 형성하는 뷰잉 다이아몬드 및 확장된 시청거리 d에서의 광 프로파일과 뷰 데이터를 도시하고 있으며, 도 24의 하단에는 뷰잉 다이아몬드 내에 실제로 인지되는 뷰를 개략적으로 도시하고 있다. 참고로, 뷰 데이터는 해칭을 이용하여 구분되어 있으며, 동일한 해칭은 동일한 뷰 데이터를 의미한다.The center of FIG. 24 shows a viewing diamond forming a viewing area at viewing distances d/2 and d, and a light profile and view data at an extended viewing distance d, and a view actually perceived in the viewing diamond at the bottom of FIG. 24 Schematically shows. For reference, view data is classified using hatching, and the same hatching means the same view data.

도 24를 참조하면, 본 발명의 제 3 실시예에 따른 무안경 입체영상표시장치는 영상패널(310) 및 입체영상의 구현을 위해 영상패널(310) 전면에 위치하는 3D 필터로써 렌티큘러 렌즈판(320)을 포함하여 이루어진다.Referring to FIG. 24, an autostereoscopic 3D image display device according to a third embodiment of the present invention includes an image panel 310 and a 3D filter positioned in front of the image panel 310 for realization of a 3D image. 320).

이때, 영상패널(310)과 렌티큘러 렌즈판(320)이 기구물(미도시) 등에 의해 지지되어, 영상패널(310)과 렌티큘러 렌즈판(320) 사이가 갭 글라스(326)의 두께에 의해 소정 간격(배면 거리; S)만큼 이격 될 수 있다.At this time, the image panel 310 and the lenticular lens plate 320 are supported by a device (not shown), so that a predetermined distance between the image panel 310 and the lenticular lens plate 320 is determined by the thickness of the gap glass 326. It can be separated by (rear distance; S).

렌티큘러 렌즈판(320)은 평평한 기판 상에, 그 상부 표면이 볼록렌즈 형상의 물질층으로 이루어진 다수의 렌티큘라 렌즈(325)가 형성되어 이루어질 수 있으나, 전술한 바와 같이 본 발명이 이에 한정되는 것은 아니다.The lenticular lens plate 320 may be formed by forming a plurality of lenticular lenses 325 formed of a material layer having a convex lens shape on a flat substrate, but the present invention is limited thereto as described above. no.

3D 필터는 렌티큘러 렌즈판(320) 이외에 배리어와 같이 기 공지되어 있는 기술들을 이용하여 다양하게 구성될 수 있다.In addition to the lenticular lens plate 320, the 3D filter may be configured in various ways using known techniques such as a barrier.

이러한 렌티큘러 렌즈판(320)은 좌, 우안 영상을 나누어주는 역할을 수행하게 되며, 렌티큘러 렌즈판(320)으로부터 최적 시청거리 d/2에는 좌, 우안 각각으로 좌, 우안에 해당되는 영상들이 정상적으로 도달하는 다이아몬드 형태의 뷰잉 다이아몬드(정시영역)(330)가 형성되어 있다.The lenticular lens plate 320 serves to divide the left and right eye images, and images corresponding to the left and right eyes normally reach the left and right eyes at the optimal viewing distance d/2 from the lenticular lens plate 320. A diamond-shaped viewing diamond (present region) 330 is formed.

이때, 영상패널(310)이나 3D 필터의 변경 없이 뷰잉 다이아몬드(330)의 폭을 양안 간격(e)보다 1/2배만큼 줄이게 됨에 따라 최적 시청거리가 d/2 지점에 형성되게 된다.In this case, as the width of the viewing diamond 330 is reduced by 1/2 times the binocular spacing (e) without changing the image panel 310 or the 3D filter, the optimum viewing distance is formed at the point d/2.

이에 본 발명의 제 3 실시예의 경우에는 시청거리를 최적 시청거리인 d/2 지점에서 d 지점으로 확장하게 되며, 이에 의하면 여러 개의 광 프로파일 및 뷰가 겹쳐 보이게 된다. 즉, 시청거리가 2배로 증가함에 따라 뷰잉 다이아몬드(330')의 폭이 다시 2배로 증가하게 되며, 광 프로파일이 시청거리에 비례하여 넓어지게 된다.Accordingly, in the case of the third embodiment of the present invention, the viewing distance is extended from the point d/2, which is the optimum viewing distance, to the point d, whereby several optical profiles and views are overlapped. That is, as the viewing distance doubles, the width of the viewing diamond 330 ′ doubles again, and the optical profile widens in proportion to the viewing distance.

또한, 전술한 뷰 데이터 렌더링 과정을 통해 입력 데이터를 영상패널(310)의 서브-픽셀별로 새롭게 매핑 함에 따라 시청영역 d에서 보여지는 광 프로파일과 뷰 데이터 및 인지되는 뷰가 변하게 된다.In addition, as the input data is newly mapped for each sub-pixel of the image panel 310 through the above-described view data rendering process, the light profile, view data, and perceived view shown in the viewing area d are changed.

일 예로, 좌안이 첫 번째 뷰에 위치하고 우안이 5번째 뷰(2중첩의 경우)에 위치하는 경우, 첫 번째 뷰의 인접하는 좌우의 뷰들에 첫 번째 뷰와 동일한 뷰 데이터가 입력되는 한편, 5번째 뷰의 인접하는 좌우의 뷰들에 5번째 뷰와 동일한 뷰 데이터가 입력되게 된다. 그리고, 그들 사이에는 첫 번째 뷰 또는 5번째 뷰와 동일 또는 중간 뷰 영상의 뷰 데이터가 입력되게 된다. 다만, 이는 예시에 불과하며, 영상패널(310)의 사이즈에 따라 광 프로파일 및 뷰가 겹치는 수가 달라지게 된다.For example, if the left eye is in the first view and the right eye is in the 5th view (in the case of overlapping), the same view data as the first view is input to the adjacent left and right views of the first view, while the fifth The same view data as the fifth view is input to the adjacent left and right views of the view. And, between them, view data of the same or intermediate view image as the first view or the fifth view is input. However, this is only an example, and the number of overlapping light profiles and views varies according to the size of the image panel 310.

한편, 시청거리가 달라지면 뷰잉 다이아몬드(330')에 맺히는 양안 위치가 양안 간격과 달라지게 되며, 여러 개의 뷰가 겹침에 따라 시청거리를 고려한 데이터 처리가 필요하다. 본원 출원인은 대한민국 출원 10-2012-0108794를 통해 최적 시청거리 제어방법을 제안한 바 있다.On the other hand, if the viewing distance is different, the position of the binoculars formed on the viewing diamond 330 ′ differs from the binocular spacing, and data processing in consideration of the viewing distance is required as several views overlap. The applicant of the present application has proposed an optimal viewing distance control method through Korean application 10-2012-0108794.

이때, 본 발명에서 시청거리를 확장함에 있어 뷰잉 다이아몬드(330')에 단일 뷰가 형성되는 최적 시청거리를 d라고 하였을 때, 2d, 3d,....까지 시청거리를 확장하기 위해서 최소한 뷰잉 다이아몬드(330')의 중첩 수는 2중첩, 3중첩,....이상으로 설계하는 것을 특징으로 한다. 이는 시청거리가 최적 시청거리보다 확장되거나 축소될 경우, 2D 영역 및 역시영역이 증가하여 정시영역이 줄어들기 때문이다. 해당 2D 영역 및 역시영역은 시청자의 단안(좌안 또는 우안) 기준으로 뷰 데이터를 변환하여 매핑 할 경우 반대측 단안(우안 또는 좌안) 뷰 데이터 또한 함께 변환되므로 2D 영역 및 역시영역을 제어할 수 없다. 뷰잉 다이아몬드(330')를 중첩시킴으로써 2D 영역 및 역시영역으로 인지되는 서브-픽셀의 주변 서브-픽셀의 뷰 데이터를 변환하여 매핑 함으로써 2D 영역 및 역시영역을 정시영역으로 변환 가능하다.At this time, in the present invention, when d is the optimal viewing distance in which a single view is formed on the viewing diamond 330 ′ in expanding the viewing distance in the present invention, at least viewing diamonds are at least in order to extend viewing distances to 2d, 3d, .... It is characterized in that the number of overlaps of (330') is designed to be 2 overlaps, 3 overlaps, .... or more. This is because, when the viewing distance is expanded or reduced than the optimal viewing distance, the 2D area and the still area increase, and the present area decreases. When the view data is converted and mapped based on the viewer's single eye (left or right eye), the corresponding 2D area and the still area are also converted with the opposite side (right or left eye) view data, so the 2D area and the still area cannot be controlled. By overlapping the viewing diamonds 330', the 2D region and the overlying region can be converted into a present region by transforming and mapping the view data of the 2D region and the surrounding sub-pixels of the sub-pixels perceived as the still region.

도 25는 본 발명의 제 3 실시예에 따른 무안경 입체영상표시장치에 있어, 시청자의 위치에 따른 멀티 뷰 영상의 시청영역을 예를 들어 보여주는 도면이다.25 is a diagram illustrating a viewing area of a multi-view image according to a viewer's position in an autostereoscopic 3D image display device according to a third embodiment of the present invention, for example.

이때, d/2 지점이 시청자가 입체영상을 정상적으로 감상할 수 있는 최적 시청거리에 해당한다고 가정한다. 이는 전술한 바와 같이 영상패널이나 3D 필터의 변경 없이 뷰잉 다이아몬드의 폭을 양안 간격의 a/n(a, n은 a < n 조건을 만족하는 자연수)배로 설정하는 동시에 뷰잉 다이아몬드를 중첩시킨 경우에 해당한다. 다만, 이하에서는 설명의 편의를 위해 뷰잉 다이아몬드의 중첩은 고려하지 않는 것으로 한다.In this case, it is assumed that the point d/2 corresponds to the optimum viewing distance at which the viewer can normally enjoy a 3D image. This is the case when the viewing diamond width is set to a/n times the binocular spacing (a, n is a natural number that satisfies a <n condition) and overlapping the viewing diamond as described above without changing the image panel or 3D filter. do. However, in the following, for convenience of description, overlapping of viewing diamonds is not considered.

또한, 도 25는 4뷰 영상 데이터를 표시한 멀티 뷰 영상 시스템을 예시한 것이나, 본 발명이 이에 한정되는 것은 아니다.In addition, although FIG. 25 illustrates a multi-view image system displaying 4-view image data, the present invention is not limited thereto.

도 25에서 마름모꼴 영역은 뷰잉 존을 의미한다. "1"은 영상패널(310)에 표시된 제 1 뷰 영상이 보이는 뷰잉 존이고, "2"는 영상패널(310)에 표시된 제 2 뷰 영상이 보이는 뷰잉 존이다. "3"은 영상패널(310)에 표시된 제 3 뷰 영상이 보이는 뷰잉 존이고, "4"는 영상패널(310)에 표시된 제 4 뷰 영상이 보이는 뷰잉 존이다.In FIG. 25, a rhombic area means a viewing zone. "1" is a viewing zone in which a first view image displayed on the image panel 310 is visible, and "2" is a viewing zone in which a second view image displayed on the image panel 310 is visible. "3" is a viewing zone in which a third view image displayed on the image panel 310 is visible, and "4" is a viewing zone in which a fourth view image displayed on the image panel 310 is visible.

"1, 2"는 제 1 뷰 영상과 제 2 뷰 영상이 함께 보이는 뷰잉 존이고, "2, 3"은 제 2 뷰 영상과 제 3 뷰 영상이 함께 보이는 뷰잉 존이다. "3, 4"는 제 3 뷰 영상과 제 4 뷰 영상이 함께 보이는 뷰잉 존이고, "4, 1"은 제 4 뷰 영상과 제 1 뷰 영상이 함께 보이는 뷰잉 존이다. 즉, "1, 2", "2, 3", "3, 4" 및 "4, 1"은 최적 시청거리 d/2(P1 위치)의 후방(P2 위치)에 위치하는 후방 뷰잉 존이다."1, 2" is a viewing zone in which a first view image and a second view image are viewed together, and "2, 3" is a viewing zone in which a second view image and a third view image are viewed together. "3, 4" is a viewing zone in which a third view image and a fourth view image are viewed together, and "4, 1" is a viewing zone in which a fourth view image and a first view image are viewed together. That is, "1, 2", "2, 3", "3, 4" and "4, 1" are rear viewing zones located behind the optimal viewing distance d/2 (P1 position) (P2 position).

이하에서는 최적 시청거리의 바로 뒤의 P2 위치에 형성되는 뷰잉 존들 및 뷰잉 다이아몬드에 대해서 설명하나, 이는 설명의 편의를 위한 것으로 최적 시청거리의 2배인 d지점 및 이외 다른 지점에서도 동일하게 적용 가능하다.Hereinafter, the viewing zones and viewing diamonds formed at the P2 position immediately after the optimal viewing distance will be described, but this is for convenience of explanation and can be applied equally to the point d and other points that are twice the optimal viewing distance.

제 1 뷰 영상 내지 제 4 뷰 영상은 양안 거리를 두고 이격된 4개의 카메라들을 통해 촬영된 영상 데이터이다. 따라서, 제 1 뷰 영상과 제 2 뷰 영상은 양안 거리만큼 이격된 2개의 카메라들을 통해 동일한 객체를 바라볼 때의 양안시차를 갖는다. 제 2 뷰 영상과 제 3 뷰 영상은 양안 거리만큼 이격된 2개의 카메라들을 통해 동일한 객체를 바라볼 때의 양안시차를 갖는다.The first to fourth view images are image data captured by four cameras spaced apart from each other by a binocular distance. Accordingly, the first view image and the second view image have binocular parallax when looking at the same object through two cameras spaced apart by a binocular distance. The second view image and the third view image have binocular parallax when looking at the same object through two cameras spaced apart by a binocular distance.

도 25와 같은 뷰잉 존들의 위치, 크기, 형태는 타이밍 컨트롤러 및/또는 호스트 시스템 내의 룩업테이블의 메모리에 미리 저장될 수 있다. 호스트 시스템이나 타이밍 컨트롤러는 시청거리 감지부에 의해 감지된 시청자의 위치를 룩업테이블의 뷰잉 존 위치 정보와 비교함으로써 시청자의 우안(RE)과 좌안(LE)이 어느 뷰잉 존에 위치하는지 판단하고, 시청자의 이동 방향과 이동 거리를 판단할 수 있다. 그리고, 호스트 시스템이나 타이밍 컨트롤러는 영상패널 구동회로를 제어하여 시청자의 위치 변화에 따라 멀티 뷰의 영상 데이터(또는 입력 데이터)에서 적어도 일부의 뷰의 영상 데이터를 다른 뷰의 영상 데이터로 변환하는 시청거리 확장 제어부 역할을 할 수 있다.The location, size, and shape of the viewing zones as shown in FIG. 25 may be previously stored in the memory of the timing controller and/or the lookup table in the host system. The host system or timing controller determines which viewing zone the viewer's right eye (RE) and left eye (LE) are located in by comparing the viewer's position detected by the viewing distance sensing unit with the viewing zone position information of the lookup table. It is possible to determine the moving direction and moving distance of In addition, the host system or the timing controller controls the video panel driving circuit to convert at least some of the video data from the multi-view video data (or input data) into video data of another view according to the change of the viewer’s position It can act as an extended control unit.

종래의 무안경 입체영상표시장치의 경우 후방 뷰잉 존들은 시청자의 단안에 여러 뷰 영상이 보이므로 3D 크로스토크로 인하여 시청자가 정상적인 입체 영상을 시청할 수 없는 뷰잉 존들이다. 이에 비하여, 본 발명의 무안경 입체영상표시장치는 시청자가 위치하는 뷰잉 존의 위치를 감지하고, 감지된 시청자의 위치에 따라 멀티 뷰의 영상 데이터를 선택적으로 변환하여 시청자가 어느 위치에서도 정상적인 입체 영상을 감상할 수 있게 한다.In the case of a conventional autostereoscopic 3D image display device, the rear viewing zones are viewing zones in which a viewer cannot view a normal 3D image due to 3D crosstalk because several view images are visible to the viewer's single eye. In contrast, the autostereoscopic 3D image display device of the present invention detects the position of the viewing zone in which the viewer is located, and selectively converts the image data of the multi-view according to the detected position of the viewer, so that the viewer can obtain a normal stereoscopic image at any position. To be able to appreciate.

도 25는 시청자가 P1 위치와 P2 위치에 있을 때 시청자의 좌안 및 우안이 위치하는 뷰잉 존들의 일 예를 보여주는 도면이다. 도 25에서, "1(RE1)"은 P1 선상에 위치하는 최적 시청거리에서 제 1 뷰 영상만이 보여지는 제 1 뷰잉 존이고, 이 제 1 뷰잉 존에 시청자의 우안(RE1)이 위치한다. "2(LE1)"은 P1 선상에 위치하는 최적 시청거리에서 제 2 뷰 영상만이 보여지는 제 2 뷰잉 존이고, 이 제 2 뷰잉 존에 시청자의 좌안(LE1)이 위치한다. "1, 2(RE2)"는 P2 선상을 따라 위치하는 제 1 후방 뷰잉 존으로써 제 1 뷰 영상과 제 2 뷰 영상이 함께 보여지며, 이 제 1 후방 뷰잉 존에 시청자의 우안(RE2)이 위치한다. "2, 3(LE2)"는 P2 선상을 따라 위치하는 제 2 후방 뷰잉 존으로써 제 2 뷰 영상과 제 3 뷰 영상이 함께 보여지며, 이 제 2 후방 뷰잉 존에 시청자의 좌안(LE2)이 위치한다.25 is a diagram illustrating an example of viewing zones in which the viewer's left and right eyes are located when the viewer is in the P1 position and the P2 position. In FIG. 25, "1 (RE1)" is a first viewing zone in which only a first view image is viewed at an optimal viewing distance located on the line P1, and the viewer's right eye RE1 is located in the first viewing zone. "2(LE1)" is a second viewing zone in which only a second view image is viewed at an optimal viewing distance located on the line P1, and the viewer's left eye LE1 is located in the second viewing zone. "1, 2 (RE2)" is the first rear viewing zone located along the P2 line, and the first and second view images are shown together, and the viewer's right eye (RE2) is located in the first rear viewing zone. do. "2, 3 (LE2)" is the second rear viewing zone located along the P2 line, and the second and third view images are shown together, and the viewer's left eye (LE2) is located in the second rear viewing zone. do.

도 26은 도 24에 도시된 본 발명의 제 3 실시예에 따른 무안경 입체영상표시장치에 있어, 뷰-맵이 기입된 픽셀 어레이를 예를 들어 보여주는 도면으로써, 4개의 뷰를 이용하는 경우의 픽셀 어레이를 예를 들어 보여주고 있다. 다만, 전술한 바와 같이 본 발명이 뷰 수에 한정되는 것은 아니다.FIG. 26 is a view showing, for example, a pixel array in which a view-map is written in the autostereoscopic 3D display device according to the third embodiment of the present invention shown in FIG. 24. The array is shown as an example. However, as described above, the present invention is not limited to the number of views.

이때, 도 26 상단에 표시된 R, G 및 B는 R, G 및 B 서브-픽셀의 위치를 나타낸다.In this case, R, G, and B displayed at the top of FIG. 26 indicate positions of R, G, and B sub-pixels.

도 26에 도시된 1, 2, 3 및 4는 각각 제 1 뷰 영상, 제 2 뷰 영상, 제 3 뷰 영상 및 제 4 뷰 영상을 나타낸다.1, 2, 3, and 4 shown in FIG. 26 represent a first view image, a second view image, a third view image, and a fourth view image, respectively.

도 26을 참조하면, m(m은 자연수)뷰를 이용하는 경우, 영상패널은 m개의 서브-픽셀들 단위로 m개의 서브-픽셀들에 순서대로 첫 번째 뷰 내지 m번째 뷰가 할당될 수 있다.Referring to FIG. 26, when an m (m is a natural number) view is used, a first view to an m-th view may be sequentially allocated to m sub-pixels in units of m sub-pixels in the image panel.

이를 위해 3D 필터는 서브-픽셀들 대비 소정의 각도로 비스듬하게 형성된 슬랜티드 구조의 렌티큘러 렌즈로 구현될 수 있다. 보다 구체적으로, 슬랜티드 구조의 렌티큘러 렌즈는 서브-픽셀들의 장축 변을 기준으로 소정의 각도만큼 비스듬하게 형성된다.To this end, the 3D filter may be implemented as a lenticular lens having a slanted structure formed obliquely at a predetermined angle compared to sub-pixels. More specifically, the lenticular lens of the slanted structure is formed obliquely by a predetermined angle with respect to the long axis sides of the sub-pixels.

이에 따라 3D 필터는 m개의 서브-픽셀들에 표시된 제 1 내지 제 m 뷰 영상(변환되기 전의 뷰 영상)들 각각을 첫 번째 뷰 내지 m번째 뷰 각각으로 분할한다. 따라서, 3D 필터는 제 k 서브-픽셀에 표시되는 제 k 뷰 영상을 k번째 뷰로 출력한다.Accordingly, the 3D filter divides each of the first to m-th view images (view images before transformation) displayed on the m sub-pixels into each of the first to m-th views. Accordingly, the 3D filter outputs the k-th view image displayed on the k-th sub-pixel as the k-th view.

도 27a 및 도 27b는 도 25의 P1 위치에서 시청자의 우안 및 좌안에서 인지되는 서브-픽셀과 뷰를 예를 들어 보여주는 도면이다.27A and 27B are views illustrating, for example, sub-pixels and views perceived by the viewer's right eye and left eye at a position P1 of FIG. 25.

즉, 도 27a 및 도 27b는 도 25에서 제 1 뷰잉 존 및 제 2 뷰잉 존에 시청자의 우안 및 좌안이 위치할 때, 각각 시청자의 우안으로 인지되는 서브-픽셀들 및 시청자의 좌안으로 인지되는 서브-픽셀들을 보여주는 있다.That is, FIGS. 27A and 27B show sub-pixels perceived as the viewer's right eye and sub-pixels perceived as the viewer's left eye, respectively, when the viewer's right and left eyes are located in the first viewing zone and the second viewing zone in FIG. 25. -There are showing the pixels.

그리고, 도 28은 도 25의 P1 위치에서 시청자의 우안 및 좌안에서 인지되는 영상을 예를 들어 보여주는 도면이다. 즉, 도 28은 도 25에서 제 1 뷰잉 존 및 제 2 뷰잉 존에 시청자의 우안 및 좌안이 위치할 때, 각각 시청자의 우안에서 인지되는 영상 및 시청자의 좌안에서 인지되는 영상을 보여주고 있다.In addition, FIG. 28 is a diagram illustrating, for example, images perceived by the viewer's right eye and left eye at a position P1 of FIG. 25. That is, FIG. 28 shows an image perceived by the viewer's right eye and an image perceived by the viewer's left eye, respectively, when the viewer's right eye and the left eye are positioned in the first viewing zone and the second viewing zone in FIG. 25.

도 27a와 도 27b 및 도 28을 참조하면, 시청자가 P1 위치에 있고 시청자의 우안(RE1) 및 좌안(LE1)이 제 1 뷰잉 존(1(RE1)) 및 제 2 뷰잉 존(2(LE1))에 위치하면, 시청자의 우안(RE1)은 제 1 뷰 영상(1)을 표시하는 서브-픽셀들만 보고 시청자의 좌안(LE1)은 제 2 뷰 영상(2)을 표시하는 서브-픽셀들만 본다.27A, 27B, and 28, the viewer is in the P1 position, and the viewer's right eye (RE1) and left eye (LE1) are in a first viewing zone (1 (RE1)) and a second viewing zone (2 (LE1)). ), the viewer's right eye RE1 sees only sub-pixels displaying the first view image 1 and the viewer's left eye LE1 sees only sub-pixels displaying the second view image 2.

따라서, P1 위치에서 시청자의 우안(RE1) 및 좌안(LE1)이 제 1 뷰잉 존(1(RE1)) 및 제 2 뷰잉 존(2(LE1))에 위치하면, 그 시청자는 3D 크로스토크 없는 정상적인 입체 영상을 감상할 수 있다.Therefore, if the viewer's right eye (RE1) and left eye (LE1) are located in the first viewing zone (1 (RE1)) and the second viewing zone (2 (LE1)) at the P1 position, the viewer is normal without 3D crosstalk. You can enjoy 3D images.

도 29a 및 도 29b는 도 25의 P2 위치에서 시청자의 우안 및 좌안에서 인지되는 서브-픽셀과 뷰를 예를 들어 보여주는 도면이다.29A and 29B are diagrams illustrating, for example, sub-pixels and views perceived by the viewer's right and left eyes at a position P2 of FIG. 25.

즉, 도 29a 및 도 29b는 도 25에서 제 1 후방 뷰잉 존 및 제 2 후방 뷰잉 존에 시청자의 우안 및 좌안이 위치할 때, 각각 시청자의 우안으로 인지되는 서브-픽셀들 및 시청자의 좌안으로 인지되는 서브-픽셀들을 보여주는 있다.That is, FIGS. 29A and 29B show sub-pixels perceived as the viewer's right eye and the viewer's left eye when the viewer's right and left eyes are located in the first rear viewing zone and the second rear viewing zone in FIG. 25. Is showing sub-pixels.

그리고, 도 30은 도 25의 P2 위치에서 시청자의 우안 및 좌안에서 인지되는 영상을 예를 들어 보여주는 도면이다. 즉, 도 30은 도 25에서 제 1 후방 뷰잉 존 및 제 2 후방 뷰잉 존에 시청자의 우안 및 좌안이 위치할 때, 각각 시청자의 우안에서 인지되는 영상 및 시청자의 좌안에서 인지되는 영상을 보여주고 있다.In addition, FIG. 30 is a diagram illustrating, for example, images perceived by the viewer's right eye and left eye at a position P2 of FIG. 25. That is, FIG. 30 shows an image perceived by the viewer's right eye and an image perceived by the viewer's left eye when the viewer's right and left eyes are located in the first rear viewing zone and the second rear viewing zone in FIG. 25. .

도 29a와 도 29b 및 도 30을 참조하면, 시청자가 P2 위치에 있고 시청자의 우안(RE2) 및 좌안(LE2)이 제 1 후방 뷰잉 존(1, 2(RE2)) 및 제 2 후방 뷰잉 존(2, 3(LE2))에 위치하면, 시청자의 우안(RE1)은 제 1 뷰 영상(1)을 표시하는 서브-픽셀들 및 제 2 뷰 영상(2)을 표시하는 서브-픽셀들을 함께 보고, 시청자의 좌안(LE1)은 제 2 뷰 영상(2)을 표시하는 서브-픽셀들 및 제 3 뷰 영상(3)을 표시하는 서브-픽셀들을 함께 보게 된다.29A, 29B, and 30, the viewer is in the P2 position, and the viewer's right eye (RE2) and left eye (LE2) are the first rear viewing zones 1 and 2 (RE2) and the second rear viewing zone ( 2, 3 (LE2)), the viewer's right eye RE1 sees the sub-pixels displaying the first view image 1 and the sub-pixels displaying the second view image 2 together, The viewer's left eye LE1 sees the sub-pixels displaying the second view image 2 and the sub-pixels displaying the third view image 3 together.

이는 제 1 후방 뷰잉 존(1, 2(RE2)) 및 제 2 후방 뷰잉 존(2, 3(LE2)) 각각이 P1 위치의 뷰잉 존들보다 시청거리가 더 멀어 그 크기가 더 크고, 2개의 뷰 영상의 광 경로가 겹쳐서 지나가는 영역이기 때문이다. 따라서, P2 위치에서 시청자의 우안(RE2) 및 좌안(LE2)이 제 1 후방 뷰잉 존(1, 2(RE2)) 및 제 2 후방 뷰잉 존(2, 3(LE2))에 위치하면 시청자는 3D 크로스토크를 느끼게 된다.This is because the viewing distance of each of the first rear viewing zone (1, 2 (RE2)) and the second rear viewing zone (2, 3 (LE2)) is larger than that of the viewing zones at the P1 position, so that the size is larger and the size of the two views This is because the optical path of the image overlaps and passes through. Therefore, when the viewer's right eye (RE2) and left eye (LE2) are located in the first rear viewing zone (1, 2 (RE2)) and the second rear viewing zone (2, 3 (LE2)) at the P2 position, the viewer is 3D You will feel crosstalk.

이때, 제 1 후방 뷰잉 존(1, 2(RE2))과 제 2 후방 뷰잉 존(2, 3(LE2))의 중심간 간격은 제 1 뷰잉 존(1(RE1)) 및 제 2 뷰잉 존(2(LE1))의 중심간 간격보다 크기가 크다. 따라서, 도 25와 같이 제 1 후방 뷰잉 존(1, 2(RE2))의 중심에 시청자의 우안(RE1)이 위치하면, 제 2 후방 뷰잉 존(2, 3(LE2))의 중심으로부터 우측으로 치우친 위치에 시청자의 좌안(LE2)이 위치한다. 이 경우에, P2 위치에서 시청자의 우안(RE2)은 도 30과와 같이 제 1 뷰 영상(1)과 제 2 뷰 영상(2)을 반씩 본다. 이에 비하여, 시청자의 좌안(LE2)은 제 2 뷰 영상(2)이 표시되는 서브-픽셀들을 제 3 뷰 영상(3)을 표시하는 서브-픽셀들보다 더 많이 보게 된다.At this time, the distance between the centers of the first rear viewing zones 1 and 2 (RE2) and the second rear viewing zones 2 and 3 (LE2) is the first viewing zone 1 (RE1) and the second viewing zone ( 2(LE1)) is larger than the distance between the centers. Therefore, if the viewer's right eye RE1 is located at the center of the first rear viewing zones 1 and 2 (RE2) as shown in FIG. 25, from the center of the second rear viewing zones 2 and 3 (LE2) to the right The viewer's left eye (LE2) is located in a skewed position. In this case, the viewer's right eye RE2 at the position P2 sees the first view image 1 and the second view image 2 in half as shown in FIG. 30. In contrast, the viewer's left eye LE2 sees more sub-pixels displaying the second view image 2 than the sub-pixels displaying the third view image 3.

따라서, 본 발명의 무안경 입체영상표시장치에서는 도 25에서 시청자가 P1 위치로부터 P2 위치 쪽으로 이동할 때 혹은 P1 위치로부터 그 보다 앞의 위치로 이동할 때, 영상패널의 픽셀 어레이에 기입되는 영상 데이터의 일부를 다른 뷰의 영상 데이터로 변환하게 된다. 그 결과, 시청자는 무안경 입체영상표시장치로 입체 영상을 감상할 때 영상패널의 앞뒤로 이동(본 발명의 제 3 실시예에 따라 시청거리를 확장하는 경우도 포함)하더라도 3D 크로스토크 없이 정상적으로 입체 영상을 감상할 수 있다.Accordingly, in the autostereoscopic 3D display device of the present invention, in FIG. 25, when the viewer moves from the position P1 to the position P2 or from the position P1 to a position ahead of it, part of the image data written in the pixel array of the image panel Is converted into image data of another view. As a result, even if the viewer moves the image panel back and forth (including the case of extending the viewing distance according to the third embodiment of the present invention) when viewing a stereoscopic image with an autostereoscopic 3D image display device, the stereoscopic image is normally without 3D crosstalk. You can appreciate.

이때, 본 발명의 무안경 입체영상표시장치에서 최적 시청거리 제어 방법은 시청자의 양안으로 인식되는 뷰들간의 차이를 확장하는 방법(이하, "뷰 확장 방법"이라 함)과, 시청자의 양안으로 인식되는 뷰들간의 차이를 유지하는 방법(이하, "뷰 유지 방법"이라 함)으로 나뉘어진다.At this time, the optimal viewing distance control method in the autostereoscopic 3D image display device of the present invention is a method of expanding the difference between views recognized as both eyes of the viewer (hereinafter referred to as "view expansion method") and recognition as both eyes of the viewer. It is divided into a method of maintaining the difference between the views (hereinafter referred to as "view maintenance method").

전자의 뷰 확장 방법은 P1 위치에서 시청자의 양안에서 보이는 뷰 영상들보다 시청자가 P2로 이동할 때 양안으로 보이는 뷰 영상들의 뷰 차이가 더 크게 되도록 영상패널에 기입되는 영상 데이터의 일부를 다른 뷰의 영상 데이터로 변환하는 방법이다. 뷰 확장 방법은 도 25의 예에서 시청자가 P2로 이동할 때 우안(RE2)으로 제 1 뷰 영상만 보이고 좌안(LE2)으로 제 3 뷰 영상만 보이도록 영상 데이터의 일부를 다른 뷰의 영상 데이터로 변환한다.In the former view expansion method, part of the image data written on the image panel is converted to the image of another view so that the view difference between the view images viewed by both eyes is greater when the viewer moves to P2 than the view images viewed from both eyes of the viewer at the position P1. This is how to convert it to data. In the example of FIG. 25, when a viewer moves to P2, a part of the image data is converted into image data of another view so that only the first view image is visible to the right eye (RE2) and only the third view image is visible to the left eye (LE2). do.

뷰 확장 방법은 시청자의 위치가 P1에서 P2로 멀어질 때 시청자가 인지하는 입체 영상의 깊이 감이 변화될 수 있고, 후술할 도 31 및 도 32와 같이 서브-픽셀들이 변환되는 보상 영역이 중첩되는 부분에서 3D 크로스토크가 인지될 수 있다. 뷰 확장 방법에서 3D 크로스토크 발생 가능 영역의 크기는 종래 기술에 비하여 현저히 작다.In the view expansion method, when the viewer's position moves away from P1 to P2, the sense of depth of the stereoscopic image perceived by the viewer may be changed, and as shown in FIGS. 31 and 32 to be described later, the compensation regions in which sub-pixels are converted are overlapped. 3D crosstalk can be perceived in the part. In the view expansion method, the size of an area in which 3D crosstalk can occur is significantly smaller than that of the prior art.

후자의 뷰 유지 방법은 시청자가 P2로 이동할 때 시청자가 P1 위치에서 시청할 때의 양안 뷰 차이가 유지되도록 영상패널에 기입되는 영상 데이터의 일부를 다른 뷰의 영상 데이터로 변환하는 방법이다. 뷰 유지 방법은 도 25의 예에서 우안(RE2)으로 제 1 뷰 영상만 보이고 좌안(LE2)으로 제 2 뷰 영상만 보이도록 영상 데이터의 일부를 다른 뷰의 영상 데이터로 변환한다.The latter view maintenance method is a method of converting part of the image data written in the image panel into image data of another view so that the difference between the binocular views when the viewer watches from the position P1 is maintained when the viewer moves to P2. In the view maintaining method, in the example of FIG. 25, part of the image data is converted into image data of another view so that only the first view image is visible through the right eye RE2 and only the second view image is visible through the left eye LE2.

뷰 유지 방법은 시청자의 위치에 관계없이 시청자가 인지하는 입체 영상의 깊이 감을 동일하게 유지할 수 있고 3D 크로스토크 없는 입체 영상을 구현할 수 있다.The view maintenance method can maintain the same sense of depth of a 3D image perceived by the viewer regardless of the position of the viewer, and realize a 3D image without 3D crosstalk.

이하, 본 발명의 최적 시청거리 제어 방법 중 뷰 유지 방법에 대해서 도면을 참조하여 상세히 설명한다.Hereinafter, a method of maintaining a view among the optimal viewing distance control method of the present invention will be described in detail with reference to the drawings.

도 31은 뷰 유지 방법에서 시청자의 우안과 좌안으로 보이는 뷰 영상들 중에서 어느 하나를 공통으로 인지되는 뷰 영상으로 변환하는 일 예를 보여주는 도면이다.FIG. 31 is a diagram illustrating an example of converting any one of view images viewed through the viewer's right eye and left eye into a commonly recognized view image in the view maintenance method.

그리고, 도 32는 뷰 유지 방법에서 시청자가 P2 위치에 있을 때, 1차 변환된 뷰 영상에 대하여 보상이 필요한 부분을 보여 주는 도면이다.In addition, FIG. 32 is a diagram illustrating a portion in which compensation is required for a first converted view image when the viewer is at the P2 position in the view maintenance method.

도 33은 뷰 유지 방법을 통해 입력 데이터를 변환하는 예를 보여주는 도면으로써, 도 31 및 도 32와 같은 뷰 유지 방법의 영상변환 과정을 거쳐 변환된 영상과 시청자의 인지 영상을 보여 주는 도면이다.FIG. 33 is a diagram showing an example of converting input data through a view maintaining method. FIG. 33 is a view showing an image converted through an image conversion process of the view maintaining method as shown in FIGS. 31 and 32 and a viewer's perceived image.

도 34는 뷰 유지 방법을 통해 변환되어 픽셀 어레이에 입력되는 입력 데이터를 예를 들어 보여주는 도면이다.34 is a diagram illustrating input data converted through a view holding method and input to a pixel array, for example.

도 35a 및 도 35b는 시청자가 P2 위치에서 도 34에 도시된 픽셀 어레이를 바라 볼 때, 시청자의 우안 및 좌안으로 보여지는 서브-픽셀들을 예를 들어 보여 주는 도면이다.35A and 35B are diagrams illustrating, for example, sub-pixels viewed by the viewer's right eye and left eye when the viewer views the pixel array illustrated in FIG. 34 from the position P2.

뷰 유지 방법은 도 30과 같이 시청자의 우안과 좌안 각각으로 이웃하는 두 개의 뷰 영상들이 함께 인식될 때, 우안으로 보이는 인지 영상과 좌안으로 보이는 인지 영상 중에 어느 하나를 우안과 좌안으로 공통으로 인식되는 영상 데이터로 변환하여 영상패널에 공급한다. 일 예로, 도 30과 같은 우안(RE2) 인지 영상과 좌안(LE2) 인지 영상에서 공통으로 인지되는 영상은 제 2 뷰 영상(2)이다.As shown in Fig. 30, when two view images adjacent to each of the viewer's right and left eyes are recognized together, one of the cognitive image viewed as the right eye and the cognitive image viewed as the left eye is commonly recognized as the right eye and the left eye. Converted into image data and supplied to the image panel. For example, an image commonly recognized in the right-eye (RE2) recognition image and the left-eye (LE2) recognition image as shown in FIG. 30 is the second view image (2).

뷰 유지 방법은 도 30의 좌안(LE2) 인지 영상을 제 2 인지 영상(2)으로 변환하기 위하여 먼저, 도 31과 같이 제 3 뷰 영상(3)을 제 2 뷰 인지 영상(2')으로 변환하여 영상 데이터를 1차 변환한다.In order to convert the left eye (LE2) recognition image of FIG. 30 to the second recognition image (2), the view maintenance method first converts the third view image (3) to a second view recognition image (2') as shown in FIG. Thus, the image data is first transformed.

시청자가 P2 위치에서 도 30과 같이 1차 변환된 영상이 표시된 영상패널을 바라 볼 때, 도 32의 좌측 그림과 같이 우안(RE2) 인지 영상은 제 1 뷰 영상(1) 및 제 2 뷰 영상(2)이 반씩 보이는 영상이고, 좌안(LE2) 인지 영상은 제 2 뷰 인지 영상(2, 2')이다.When the viewer looks at the image panel on which the first transformed image is displayed as shown in FIG. 30 from the position P2, the right eye (RE2) recognition image is the first view image (1) and the second view image ( 2) is a half-view image, and the left eye (LE2) recognition image is the second view recognition image (2, 2').

뷰 유지 방법은 P1 위치에서 사용자가 인식하는 영상과 P2 위치에서 인식하는 영상간의 뷰 차이를 유지하기 위하여 도 32의 우측 그림과 같이 우안 인지 영상의 우반부에 보이는 제 2 뷰 영상(2)을 제 1 영상(1)으로 변환할 필요가 있다. 이를 위하여, 뷰 유지 방법은 도 33 및 도 34와 같이 영상패널의 우반부에 표시되는 제 2 뷰 영상(2) 데이터를 제 1 영상(1) 데이터로 변환한다. 그 결과, 시청자는 도 27a와 도 27b 및 도 34, 도 35a 및 도 35b와 같이 P1 및 P2 위치에서 뷰 차이 없이 그리고 3D 크로스토크 없이 입체 영상을 감상할 수 있게 된다.In the view maintenance method, in order to maintain the difference in view between the image recognized by the user at the position P1 and the image recognized at the position P2, the second view image (2) shown in the right half of the right eye recognition image is provided as shown in the figure on the right of FIG. 1 It is necessary to convert it to video (1). To this end, the view maintenance method converts the second view image 2 data displayed on the right half of the image panel into the first image 1 data as shown in FIGS. 33 and 34. As a result, a viewer can enjoy a 3D image without a difference in view and without 3D crosstalk at positions P1 and P2 as shown in FIGS. 27A and 27B and 34, and 35A and 35B.

뷰 유지 방법은 1차 변환 과정에서 제 1 뷰 영상(1)을 제 2 뷰 인지 영상(2')으로 변환한 후에 시청자의 우안(RE2)과 좌안(LE2)으로 나누어 제 2 뷰 영상(2) 및 제 3 뷰 영상(3)이 보일 수 있도록 영상 데이터를 변환할 수 있다. 이 방법은 시청자가 좌우로 이동하는 상황에서도 시청자에게 뷰 차이 없이 입체 영상을 보여줄 수 있다.The view maintenance method is to convert the first view image (1) into a second view recognition image (2') in the first conversion process, and then divide the viewer's right eye (RE2) and the left eye (LE2) into a second view image (2). And the image data may be converted so that the third view image 3 can be viewed. This method can show a 3D image to the viewer without a difference in view even when the viewer moves from side to side.

이상에서 설명한 바와 같이, 본 발명의 최적 시청거리 제어 방법은 시청자의 우안과 좌안 위치가 어느 뷰잉 존에 위치하는가를 판단하여 시청자의 위치가 변할 때 멀티 뷰 영상에서 일부 영상 데이터를 다른 뷰의 영상 데이터로 변환한다. 그 결과, 본 발명의 최적 시청거리 제어 방법은 시청자가 어느 위치에 있더라도 시청자가 정상적으로 입체 영상을 감상할 수 있는 무안경 입체영상표시장치의 최적 시청거리를 확장할 수 있다.As described above, the optimal viewing distance control method of the present invention determines in which viewing zone the positions of the viewer's right and left eyes are located, and when the viewer's position changes, some image data in the multi-view image is converted to image data in another view. Convert to As a result, the optimal viewing distance control method of the present invention can extend the optimal viewing distance of an autostereoscopic 3D image display device in which the viewer can normally enjoy a 3D image no matter where the viewer is located.

전술한 바와 같이 시청자가 P2 위치의 후방 뷰잉 존들에 위치하면 후방 뷰잉 존들의 크기가 크기 때문에 우안(RE2)으로 함께 보이는 뷰 영상들의 비율과 좌안(LE2)으로 보이는 뷰 영상들의 비율이 다르다. 최적 시청거리 확장을 위해 필요한 데이터 처리를 정확하게 하기 위해서는 확장된 최적 시청거리 선상에 위치하는 뷰잉 존들의 위치를 좌표화 및 비율화 할 필요가 있다.As described above, when the viewer is located in the rear viewing zones at the P2 position, the size of the rear viewing zones is large, so that the ratio of the view images viewed with the right eye RE2 and the ratio of the view images viewed with the left eye LE2 are different. In order to accurately process the data required for the optimal viewing distance extension, it is necessary to coordinate and rationalize the positions of viewing zones located on the extended optimal viewing distance line.

시청자의 좌안과 우안이 위치하는 뷰잉 존의 위치 판단은 전술한 바와 같이 시청 거리 감지부에 의해 감지된 시청자 양안 위치 정보(좌표 값)와 룩업테이블에 저장된 뷰잉 존 위치 정보(좌표 정보)를 비교하는 방법으로 판단할 수 있다. 이렇게 시청자의 양안이 위치하는 뷰잉 존이 판단되면, 시청자의 양안이 위치하는 뷰잉 존들 내에서 우안 또는 좌안의 위치와 그 뷰잉 존들 내에서 보여지는 좌측과 우측 영상의 비율을 파악하여야 한다. 이와 관련된 상세한 설명은 기 출원된 대한민국 출원 10-2012-0108794를 참조할 수 있다.To determine the location of the viewing zone in which the viewer's left and right eyes are located, as described above, the viewer's binocular position information (coordinate value) detected by the viewing distance sensing unit is compared with the viewing zone position information (coordinate information) stored in the lookup table. It can be judged by the method. When the viewing zone in which both eyes of the viewer are located is determined in this way, the position of the right or left eye in the viewing zones in which both eyes of the viewer are located and the ratio of the left and right images shown in the viewing zones should be grasped. For a detailed description of this, refer to the previously filed Korean application 10-2012-0108794.

상기한 설명에 많은 사항이 구체적으로 기재되어 있으나 이것은 발명의 범위를 한정하는 것이라기보다 바람직한 실시예의 예시로서 해석되어야 한다. 따라서 발명은 설명된 실시예에 의하여 정할 것이 아니고 특허청구범위와 특허청구범위에 균등한 것에 의하여 정하여져야 한다.Although many items are specifically described in the above description, this should be construed as an example of a preferred embodiment rather than limiting the scope of the invention. Therefore, the invention should not be determined by the described embodiments, but should be determined by the claims and equivalents to the claims.

110,210,310 : 영상패널 120,220,320 : 렌티큘러 렌즈판
125,225,325 : 렌티큘러 렌즈 126,226,326 : 갭 글라스
130,230,230',230",330,330' : 뷰잉 다이아몬드
110,210,310: image panel 120,220,320: lenticular lens plate
125,225,325: lenticular lens 126,226,326: gap glass
130,230,230',230",330,330': Viewing Diamond

Claims (12)

m(m은 자연수)개의 서브-픽셀에 순차적으로 첫 번째 뷰 내지 m번째 뷰가 할당되어 멀티 뷰의 입력 데이터를 표시하는 영상패널;
상기 영상패널의 전면에 배치되며, 상기 입력 데이터의 광축을 분리하여 시청거리에 제 1 뷰 영상 내지 제 k(k는 1 ≤ k ≤ m을 만족하는 자연수) 뷰 영상이 표시되는 뷰잉 다이아몬드(viewing diamond)를 형성하는 3D 필터; 및
상기 영상패널과 3D 필터 사이의 간격을 유지하는 갭 글라스를 포함하며,
상기 뷰잉 다이아몬드의 폭을 양안 간격의 a/n(a, n은 a < n 조건을 만족하는 자연수)배로 설정하는 동시에 상기 뷰잉 다이아몬드를 상호 중첩시키는 한편,
상기 뷰잉 다이아몬드에 단일 뷰가 형성되는 시청거리를 d라고 하였을 때, 2d, 3d,....까지 시청거리를 확장하기 위해서 최소한 뷰잉 다이아몬드의 중첩 수는 2중첩, 3중첩,....이상으로 설정하는 것이고,
상기 뷰잉 다이아몬드의 폭을 양안 간격의 a/n배로 설정함에 따라 시청거리가 a/n배만큼 축소되는 것을 특징으로 하는 무안경 입체영상표시장치.
an image panel that sequentially assigns a first view to an m-th view to m (m is a natural number) sub-pixels to display input data of a multi-view;
A viewing diamond disposed on the front of the image panel and displaying a first view image to a kth (k is a natural number satisfying 1 ≤ k ≤ m) view image in the viewing distance by separating the optical axis of the input data. ) To form a 3D filter; And
It includes a gap glass to maintain a gap between the image panel and the 3D filter,
While setting the width of the viewing diamond to a/n (a, n is a natural number that satisfies a <n condition) times the distance between the eyes and overlapping the viewing diamonds with each other,
Assuming that the viewing distance at which a single view is formed on the viewing diamond is d, the minimum number of overlapping viewing diamonds is 2 overlaps, 3 overlaps, .... or more in order to extend the viewing distance to 2d, 3d, .... Is set to,
An autostereoscopic 3D image display device, characterized in that the viewing distance is reduced by a/n times as the width of the viewing diamond is set to a/n times the distance between both eyes.
삭제delete 제 1 항에 있어서, 인접하는 뷰들간에 동일하거나 유사한 입력 데이터를 새롭게 매핑(mapping)하는 타이밍 컨트롤러를 추가로 포함하며, 상기 타이밍 컨트롤러는 좌안과 우안 사이에 위치하는 뷰잉 다이아몬드의 입력 데이터를 상기 좌안이나 우안이 인지하는 뷰 영상과 동일하거나 유사한 뷰 영상으로 변환하는 것을 특징으로 하는 무안경 입체영상표시장치.The method of claim 1, further comprising a timing controller for newly mapping the same or similar input data between adjacent views, wherein the timing controller converts input data of a viewing diamond positioned between the left eye and the right eye into the left eye. An autostereoscopic 3D image display device, characterized in that converting a view image identical to or similar to a view image perceived by the right eye. 제 1 항에 있어서, 좌안에서 인지되는 서브-픽셀과 우안에서 인지되는 서브-픽셀은 하나의 서브-픽셀만큼 공간적으로 떨어져 있는 것을 특징으로 하는 무안경 입체영상표시장치.The autostereoscopic 3D image display apparatus of claim 1, wherein the sub-pixel perceived by the left eye and the sub-pixel perceived by the right eye are spatially separated by one sub-pixel. 제 1 항에 있어서, 상기 입력 데이터의 중첩 수는 뷰잉 다이아몬드의 중첩 수×(양안 간격/뷰잉 다이아몬드의 폭)와 같거나 작게 설정되는 것을 특징으로 하는 무안경 입체영상표시장치.The autostereoscopic 3D image display device according to claim 1, wherein the number of overlaps of the input data is set equal to or smaller than the number of overlaps of viewing diamonds x (binocular spacing/width of viewing diamonds). 제 5 항에 있어서, 상기 입력 데이터의 중첩 수가 상기 뷰잉 다이아몬드의 중첩 수×(양안 간격/뷰잉 다이아몬드 폭)보다 작은 경우는 상기 뷰 영상과 뷰 영상 사이에 중간 뷰의 입력 데이터를 입력하여 시청자의 좌우 이동에 따라 뷰 영상이 1뷰 단위가 아닌 0.5 뷰 단위로 변화하는 부분이 추가된 것을 특징으로 하는 무안경 입체영상표시장치.The method of claim 5, wherein when the number of overlaps of the input data is less than the number of overlaps of the viewing diamond × (binocular spacing/viewing diamond width), input data of an intermediate view is input between the view image and the view image to An autostereoscopic 3D image display device, characterized in that a portion in which the view image changes by 0.5 view units instead of 1 view units according to movement is added. 제 1 항에 있어서, 전체 뷰의 수는 (N+1)×뷰잉 다이아몬드의 중첩 수×(양안 간격/뷰잉 다이아몬드의 폭)(N은 자연수)와 같거나 작게 설정되는 것을 특징으로 하는 무안경 입체영상표시장치.The autostereoscopic 3D according to claim 1, wherein the total number of views is set equal to or smaller than (N+1) x the number of overlapping viewing diamonds x (binocular spacing/width of viewing diamond) (N is a natural number). Video display device. 제 1 항에 있어서, 시청자의 양안 위치를 감지하는 시청거리 감지부를 추가로 포함하는 것을 특징으로 하는 무안경 입체영상표시장치.The autostereoscopic 3D image display device according to claim 1, further comprising a viewing distance sensing unit that detects the position of both eyes of the viewer. 제 8 항에 있어서, 상기 시청자의 양안 위치를 미리 설정된 뷰잉 존들에 대한 위치 정보와 비교하여 상기 시청자의 양안이 위치하는 뷰잉 존들이 정상적인 입체 영상이 보이지 않는 뷰잉 존들로 판단되면, 상기 멀티 뷰의 입력 데이터에서 적어도 일부를 다른 뷰의 입력 데이터로 변환하는 시청거리 확장 제어부를 추가로 포함하는 것을 특징으로 하는 무안경 입체영상표시장치.The multi-view input of claim 8, wherein when the viewing zones in which both eyes of the viewer are located are determined as viewing zones in which a normal stereoscopic image is not visible by comparing the position of both eyes of the viewer with position information on preset viewing zones, the multi-view input An autostereoscopic 3D image display device, further comprising a viewing distance extension control unit for converting at least part of the data into input data of another view. 제 9 항에 있어서, 상기 뷰잉 존들은
상기 영상패널로부터의 제 1 시청거리에 위치하는 뷰잉 존들; 및
상기 영상패널로부터의 제 2 시청거리에 위치하는 뷰잉 존들을 포함하고,
상기 제 2 시청거리는 상기 제 1 시청거리보다 더 멀고,
상기 시청거리 확장 제어부는
상기 멀티 뷰의 입력 데이터에서 적어도 일부는 다른 뷰의 입력 데이터로 변환하여 상기 시청자의 위치가 상기 제 1 시청거리를 따라 위치하는 뷰잉 존들의 뷰 차이와 동일하게, 상기 제 2 시청거리를 따라 위치하는 뷰잉 존들에서 보이는 뷰 영상들의 뷰 차이를 제어하는 것을 특징으로 하는 무안경 입체영상표시장치.
The method of claim 9, wherein the viewing zones
Viewing zones located at a first viewing distance from the image panel; And
And viewing zones located at a second viewing distance from the video panel,
The second viewing distance is farther than the first viewing distance,
The viewing distance extension control unit
At least a portion of the multi-view input data is converted into input data of another view, so that the viewer's position is located along the second viewing distance equal to the view difference of the viewing zones located along the first viewing distance. An autostereoscopic 3D image display device, characterized in that controlling a difference in view of view images seen in viewing zones.
제 10 항에 있어서, 상기 시청거리 확장 제어부는
상기 시청자의 우안 인지 영상과 좌안 인지 영상 중 어느 하나의 뷰 영상을 상기 우안 인지 영상과 상기 좌안 인지 영상에서 공통으로 보이는 입력 데이터로 변환하는 것을 특징으로 하는 무안경 입체영상표시장치.
The method of claim 10, wherein the viewing distance expansion control unit
And converting one of the viewer's right-eye perception image and left-eye perception image into input data commonly seen in the right-eye perception image and the left-eye perception image.
제 11 항에 있어서, 상기 제 2 시청거리에 위치하는 제 1 뷰잉 존에서 상기 시청자의 우안으로 인식되는 영상의 우측 부분에 제 1 뷰 영상이 보이고, 상기 우안으로 인식되는 영상의 좌측 부분에 제 2 뷰 영상이 보이며, 상기 제 2 시청거리에 위치하는 제 2 뷰잉 존에서 상기 시청자의 좌안으로 인식되는 영상의 우측 부분에 제 2 뷰 영상이 보이고, 상기 좌안으로 인식되는 영상의 좌측 부분에 제 3 뷰 영상이 보일 때,
상기 시청거리 확장 제어부는
상기 영상패널에 공급될 제 3 뷰 입력 데이터를 제 2 뷰 입력 데이터로 변화한 후에 상기 제 1 뷰잉 존에서 상기 시청자의 우안으로 인식되는 영상의 좌측 부분에서 보이는 서브-픽셀들에 기입된 상기 제 2 뷰 입력 데이터를 제 1 뷰 입력 데이터로 변환하는 것을 특징으로 하는 무안경 입체영상표시장치.
The method of claim 11, wherein a first view image is shown on a right part of an image recognized as the right eye of the viewer in a first viewing zone located at the second viewing distance, and a second view image is shown on a left part of the image recognized as the right eye. The view image is visible, and the second view image is shown on the right side of the image recognized as the viewer's left eye in the second viewing zone located at the second viewing distance, and the third view is on the left side of the image recognized as the left eye. When you see the video,
The viewing distance extension control unit
After changing the third view input data to be supplied to the image panel into second view input data, the second is written in sub-pixels visible in the left portion of the image recognized as the viewer's right eye in the first viewing zone. An autostereoscopic 3D display device, characterized in that converting view input data into first view input data.
KR1020140120369A 2014-09-11 2014-09-11 Autostereoscopic 3d display device Active KR102232462B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020140120369A KR102232462B1 (en) 2014-09-11 2014-09-11 Autostereoscopic 3d display device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020140120369A KR102232462B1 (en) 2014-09-11 2014-09-11 Autostereoscopic 3d display device

Publications (2)

Publication Number Publication Date
KR20160030770A KR20160030770A (en) 2016-03-21
KR102232462B1 true KR102232462B1 (en) 2021-03-25

Family

ID=55650922

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020140120369A Active KR102232462B1 (en) 2014-09-11 2014-09-11 Autostereoscopic 3d display device

Country Status (1)

Country Link
KR (1) KR102232462B1 (en)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102670407B1 (en) * 2016-12-26 2024-05-30 엘지디스플레이 주식회사 Autostereoscopic 3-Dimensional Display

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2013133525A1 (en) * 2012-03-06 2013-09-12 엘지전자 주식회사 Multiple three-dimensional display
KR101380517B1 (en) * 2012-09-28 2014-04-01 엘지디스플레이 주식회사 Multi-view autostereoscopic image display and method of controlling optimal viewing distance

Family Cites Families (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101411738B1 (en) * 2007-11-07 2014-06-26 엘지디스플레이 주식회사 Image display device
KR20130038718A (en) * 2011-10-10 2013-04-18 삼성디스플레이 주식회사 Back-light unit and 3-dimensional display device having the same
KR101925341B1 (en) * 2012-05-25 2019-02-27 엘지디스플레이 주식회사 Autostereoscopic display apparatus and driving method thereof

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2013133525A1 (en) * 2012-03-06 2013-09-12 엘지전자 주식회사 Multiple three-dimensional display
KR101380517B1 (en) * 2012-09-28 2014-04-01 엘지디스플레이 주식회사 Multi-view autostereoscopic image display and method of controlling optimal viewing distance

Also Published As

Publication number Publication date
KR20160030770A (en) 2016-03-21

Similar Documents

Publication Publication Date Title
KR102197382B1 (en) Bendable stereoscopic 3d display device
KR101380517B1 (en) Multi-view autostereoscopic image display and method of controlling optimal viewing distance
KR102218777B1 (en) Autostereoscopic 3d display device
CN103873844B (en) Multiple views automatic stereoscopic display device and control the method for its viewing ratio
CN105744253B (en) Automatic stereo three-dimensional display apparatus
US8743111B2 (en) Stereoscopic image display and method for driving the same
KR102143473B1 (en) Multi view image display apparatus and multi view image display method thereof
US9509984B2 (en) Three dimensional image display method and device utilizing a two dimensional image signal at low-depth areas
CN107257937B (en) Display device and method of controlling the same
CN107580211A (en) Autostereoscopic 3D Displays
KR102279816B1 (en) Autostereoscopic 3d display device
KR102233116B1 (en) Stereopsis image display device and method of driving the same
KR102334031B1 (en) Autostereoscopic 3d display device and driving method thereof
KR102232462B1 (en) Autostereoscopic 3d display device
KR20160024283A (en) Lenticular lens type stereoscopic 3d display device
KR20160021650A (en) Lenticular lens type stereoscopic 3d display device
KR102302455B1 (en) Barrior panel and stereoscopic image display apparatus
KR101981581B1 (en) Display device using polarized glasses and method of driving the same

Legal Events

Date Code Title Description
PA0109 Patent application

Patent event code: PA01091R01D

Comment text: Patent Application

Patent event date: 20140911

PG1501 Laying open of application
A201 Request for examination
PA0201 Request for examination

Patent event code: PA02012R01D

Patent event date: 20190905

Comment text: Request for Examination of Application

Patent event code: PA02011R01I

Patent event date: 20140911

Comment text: Patent Application

E902 Notification of reason for refusal
PE0902 Notice of grounds for rejection

Comment text: Notification of reason for refusal

Patent event date: 20200908

Patent event code: PE09021S01D

E701 Decision to grant or registration of patent right
PE0701 Decision of registration

Patent event code: PE07011S01D

Comment text: Decision to Grant Registration

Patent event date: 20210318

GRNT Written decision to grant
PR0701 Registration of establishment

Comment text: Registration of Establishment

Patent event date: 20210322

Patent event code: PR07011E01D

PR1002 Payment of registration fee

Payment date: 20210322

End annual number: 3

Start annual number: 1

PG1601 Publication of registration
PR1001 Payment of annual fee

Payment date: 20240215

Start annual number: 4

End annual number: 4

PR1001 Payment of annual fee

Payment date: 20250218

Start annual number: 5

End annual number: 5