[go: up one dir, main page]

KR20170030789A - 스마트 디바이스 및 이의 제어방법 - Google Patents

스마트 디바이스 및 이의 제어방법 Download PDF

Info

Publication number
KR20170030789A
KR20170030789A KR1020150128130A KR20150128130A KR20170030789A KR 20170030789 A KR20170030789 A KR 20170030789A KR 1020150128130 A KR1020150128130 A KR 1020150128130A KR 20150128130 A KR20150128130 A KR 20150128130A KR 20170030789 A KR20170030789 A KR 20170030789A
Authority
KR
South Korea
Prior art keywords
smart device
video
light source
diaphragm
detecting
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Withdrawn
Application number
KR1020150128130A
Other languages
English (en)
Inventor
이진술
김종필
Original Assignee
엘지전자 주식회사
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 엘지전자 주식회사 filed Critical 엘지전자 주식회사
Priority to KR1020150128130A priority Critical patent/KR20170030789A/ko
Priority to PCT/KR2016/000500 priority patent/WO2017043710A1/en
Priority to US15/004,810 priority patent/US9936113B2/en
Priority to EP16162524.9A priority patent/EP3141947B1/en
Priority to CN201610353394.8A priority patent/CN106534623B/zh
Publication of KR20170030789A publication Critical patent/KR20170030789A/ko
Withdrawn legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G03PHOTOGRAPHY; CINEMATOGRAPHY; ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ELECTROGRAPHY; HOLOGRAPHY
    • G03BAPPARATUS OR ARRANGEMENTS FOR TAKING PHOTOGRAPHS OR FOR PROJECTING OR VIEWING THEM; APPARATUS OR ARRANGEMENTS EMPLOYING ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ACCESSORIES THEREFOR
    • G03B9/00Exposure-making shutters; Diaphragms
    • G03B9/02Diaphragms
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/50Constructional details
    • H04N23/55Optical parts specially adapted for electronic image sensors; Mounting thereof
    • GPHYSICS
    • G03PHOTOGRAPHY; CINEMATOGRAPHY; ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ELECTROGRAPHY; HOLOGRAPHY
    • G03BAPPARATUS OR ARRANGEMENTS FOR TAKING PHOTOGRAPHS OR FOR PROJECTING OR VIEWING THEM; APPARATUS OR ARRANGEMENTS EMPLOYING ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ACCESSORIES THEREFOR
    • G03B9/00Exposure-making shutters; Diaphragms
    • G03B9/02Diaphragms
    • G03B9/04Single movable plate with two or more apertures of graded size, e.g. sliding plate or pivoting plate
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04MTELEPHONIC COMMUNICATION
    • H04M1/00Substation equipment, e.g. for use by subscribers
    • H04M1/02Constructional features of telephone sets
    • H04M1/0202Portable telephone sets, e.g. cordless phones, mobile phones or bar type handsets
    • H04M1/026Details of the structure or mounting of specific components
    • H04M1/0264Details of the structure or mounting of specific components for a camera module assembly
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/57Mechanical or electrical details of cameras or camera modules specially adapted for being embedded in other devices
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/68Control of cameras or camera modules for stable pick-up of the scene, e.g. compensating for camera body vibrations
    • H04N23/682Vibration or motion blur correction
    • H04N23/685Vibration or motion blur correction performed by mechanical compensation
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/70Circuitry for compensating brightness variation in the scene
    • H04N23/745Detection of flicker frequency or suppression of flicker wherein the flicker is caused by illumination, e.g. due to fluorescent tube illumination or pulsed LED illumination
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/70Circuitry for compensating brightness variation in the scene
    • H04N23/75Circuitry for compensating brightness variation in the scene by influencing optical camera components
    • GPHYSICS
    • G02OPTICS
    • G02FOPTICAL DEVICES OR ARRANGEMENTS FOR THE CONTROL OF LIGHT BY MODIFICATION OF THE OPTICAL PROPERTIES OF THE MEDIA OF THE ELEMENTS INVOLVED THEREIN; NON-LINEAR OPTICS; FREQUENCY-CHANGING OF LIGHT; OPTICAL LOGIC ELEMENTS; OPTICAL ANALOGUE/DIGITAL CONVERTERS
    • G02F1/00Devices or arrangements for the control of the intensity, colour, phase, polarisation or direction of light arriving from an independent light source, e.g. switching, gating or modulating; Non-linear optics
    • G02F1/01Devices or arrangements for the control of the intensity, colour, phase, polarisation or direction of light arriving from an independent light source, e.g. switching, gating or modulating; Non-linear optics for the control of the intensity, phase, polarisation or colour 
    • G02F1/15Devices or arrangements for the control of the intensity, colour, phase, polarisation or direction of light arriving from an independent light source, e.g. switching, gating or modulating; Non-linear optics for the control of the intensity, phase, polarisation or colour  based on an electrochromic effect
    • G02F1/1514Devices or arrangements for the control of the intensity, colour, phase, polarisation or direction of light arriving from an independent light source, e.g. switching, gating or modulating; Non-linear optics for the control of the intensity, phase, polarisation or colour  based on an electrochromic effect characterised by the electrochromic material, e.g. by the electrodeposited material
    • G02F1/1516Devices or arrangements for the control of the intensity, colour, phase, polarisation or direction of light arriving from an independent light source, e.g. switching, gating or modulating; Non-linear optics for the control of the intensity, phase, polarisation or colour  based on an electrochromic effect characterised by the electrochromic material, e.g. by the electrodeposited material comprising organic material
    • G02F1/15165Polymers
    • GPHYSICS
    • G02OPTICS
    • G02FOPTICAL DEVICES OR ARRANGEMENTS FOR THE CONTROL OF LIGHT BY MODIFICATION OF THE OPTICAL PROPERTIES OF THE MEDIA OF THE ELEMENTS INVOLVED THEREIN; NON-LINEAR OPTICS; FREQUENCY-CHANGING OF LIGHT; OPTICAL LOGIC ELEMENTS; OPTICAL ANALOGUE/DIGITAL CONVERTERS
    • G02F1/00Devices or arrangements for the control of the intensity, colour, phase, polarisation or direction of light arriving from an independent light source, e.g. switching, gating or modulating; Non-linear optics
    • G02F1/01Devices or arrangements for the control of the intensity, colour, phase, polarisation or direction of light arriving from an independent light source, e.g. switching, gating or modulating; Non-linear optics for the control of the intensity, phase, polarisation or colour 
    • G02F1/15Devices or arrangements for the control of the intensity, colour, phase, polarisation or direction of light arriving from an independent light source, e.g. switching, gating or modulating; Non-linear optics for the control of the intensity, phase, polarisation or colour  based on an electrochromic effect
    • G02F1/153Constructional details
    • G02F1/1533Constructional details structural features not otherwise provided for
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04MTELEPHONIC COMMUNICATION
    • H04M2250/00Details of telephonic subscriber devices
    • H04M2250/22Details of telephonic subscriber devices including a touch pad, a touch sensor or a touch detector
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04MTELEPHONIC COMMUNICATION
    • H04M2250/00Details of telephonic subscriber devices
    • H04M2250/52Details of telephonic subscriber devices including functional features of a camera

Landscapes

  • Engineering & Computer Science (AREA)
  • Signal Processing (AREA)
  • Multimedia (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Studio Devices (AREA)
  • Nonlinear Science (AREA)
  • User Interface Of Digital Computer (AREA)
  • Optics & Photonics (AREA)

Abstract

본 출원은 컴팩한 카메라 모듈을 포함하는 스마트 디바이스 및 이의 제어방법을 개시한다. 본 출원은 몸체; 상기 몸체에 설치되며, 다양한 정보를 디스플레이도록 구성되는 디스플레이부: 상기 몸체에 설치되며, 외부 피사체에 대한 디지털 영상을 획득하도록 구성되는 카메라; 및 상기 카메라에 포함되며, 상기 카메라의 렌즈에 입사되는 빛의 량을 조절하도록 구성되는 조리개로 이루어지며, 상기 조리개는 단일층으로 이루어지는 박막을 포함하며, 상기 박막에서 형성되어 상기 빛을 통과시키는 개구부의 크기를 조절하도록 구성되는 스마트 디바이스 및 이의 제어방법을 제공한다.

Description

스마트 디바이스 및 이의 제어방법{SMART DEVICE AND METHOD FOR CONTOLLING THE SAME}
본 출원은 스마트 디바이스 및 이의 제어방법에 관한 것으로, 보다 상세하게는 스마트 디바이스의 카메라 모듈 및 이의 제어방법에 관한 것이다.
단말기는 이동 가능 여부에 따라 이동 단말기(mobile/portable terminal) 및 고정 단말기(stationary terminal)로 나뉠 수 있다. 다시 이동 단말기는 사용자의 직접 휴대 가능 여부에 따라 휴대(형) 단말기(handheld terminal) 및 거치형 단말기(vehicle mounted terminal)로 나뉠 수 있다.
이동 단말기의 기능은 다양화 되고 있다. 예를 들면, 데이터와 음성통신, 카메라를 통한 사진촬영 및 비디오 촬영, 음성녹음, 스피커 시스템을 통한 음악파일 재생 그리고 디스플레이부에 이미지나 비디오를 출력하는 기능이 있다. 일부 단말기는 전자게임 플레이 기능이 추가되거나, 멀티미디어 플레이어 기능을 수행한다. 특히 최근의 이동 단말기는 방송과 비디오나 텔레비전 프로그램과 같은 시각적 컨텐츠를 제공하는 멀티캐스트 신호를 수신할 수 있다.
이러한 기능의 수행을 위해 이동 단말기는 기본적으로 다양한 통신 프로토콜을 이용하여 다른 기기들 또는 네트워크에 연결되며, 사용자에게 상시적인 컴퓨팅 환경(ubiquitous computing)을 제공할 수 있다. 즉, 이동 단말기는 네트워크로의 연결성(connectivity) 및 상시적 컴퓨팅을 가능하게 하는 스마트 디바이스로 진화되어 있다. 이와 같은 이동 단말기로서의 스마트 디바이스는 전통적으로 사용자가 손을 쥘 수 있는 크기로 제작되었으며, 사용자는 이를 손에 들고 다니거나 가방 또는 주머니에 넣었었다. 그러나, 기술의 발전에 따라 스마트 디바이스는 최근에는 더욱 작은 크기로 제작되어 사용자의 신체에 직접 착용되는 웨어러블 스마트 디바이스로 발전되어 오고 있다.
한편, 스마트 디바이스는 편리하게 휴대될 수 있으므로, 최근에 사용자는 원하는 영상정보(image information)를 획득하기 위해, 즉 사진 및 비디오를 촬영하기 위해, 스마트 디바이스의 카메라를 자주 이용하고 있다. 따라서, 스마트 디바이스의 카메라 모듈은 더 향상된 기능을 갖도록 개선되고 있다. 특히, 통상적인 카메라와 마찬가지로, 획득되는 사진이나 비디오의 품질을 향상시키기 위해 스마트 디바이스의 카메라 모듈은 조리개를 포함하도록 시도되고 있다. 통상적인 조리개는 빛을 통과시키는 개구부의 크기를 조절하기 위해 다수개의 블레이드들의 어셈블리를 사용하며, 상당히 큰 부피를 가질 수 있다. 그러나, 요구되는 휴대성으로 인해, 스마트 디바이스 및 이의 카메라 모듈의 크기는 제한되어야 하며, 이에 따라 통상적인 조리개는 바로 스마트 디바이스의 카메라 모듈에 적용될 수 없다. 따라서, 스마트 디바이스의 카메라 모듈에 최적화되도록 조리개에 대한 개선이 요구된다.
또한, 조리개가 스마트 카메라 모듈에 적용되면, 획득되는 사진 및 비디오의 품질을 형상시키기 위해 다양한 제어가 상기 조리개를 이용하여 가능해질 수 있다. 따라서, 이와 같은 품질향상을 위해 스마트 디바이스의 제어가 마찬가지로 개선될 필요가 있다.
본 출원은 전술한 문제 및 다른 문제를 해결하는 것을 목적으로 한다. 본 출원의 목적은 향상된 기능과 컴팩트 한 구조를 갖는 카메라 모듈을 포함하는 스마트 디바이스를 제공하는 것이다.
또한, 본 출원의 다른 목적은 획득되는 영상정보의 품질을 향상시킬 수 있는 스마트 디바이스의 제어방법을 제공하는 것이다. .
상술된 또는 다른 목적을 달성하기 위해 본 출원의 일 측면에 따르면, 본 발명은 몸체; 상기 몸체에 설치되며, 다양한 정보를 디스플레이도록 구성되는 디스플레이부: 상기 몸체에 설치되며, 외부 피사체에 대한 디지털 영상을 획득하도록 구성되는 카메라; 및 상기 카메라에 포함되며, 상기 카메라의 렌즈에 입사되는 빛의 량을 조절하도록 구성되는 조리개로 이루어지며, 상기 조리개는 단일층으로 이루어지는 박막을 포함하며, 상기 박막에서 형성되어 상기 빛을 통과시키는 개구부의 크기를 조절하도록 구성되는 스마트 디바이스를 제공한다.
상기 조리개는 상기 박막에서 서로 다른 크기들을 갖는 개구부들을 형성하도록 구성되며, 상기 조리개는 상기 개구부의 크기를 조절하기 위해 상기 박막의 투명도를 부분적으로 조절하도록 구성될 수 있다. 상기 조리개는 상기 박막의 투명도를 조절하기 위해 상기 박막의 색상을 전기에 의해 부분적으로 변경시킬 수 있다.
상기 박막은 전압이 인가되었을 때, 투명한 상태에서 불투명한 상태로 전환되는 전기변색재료(electrochromic material)로 만들질 수 있다. 상기 박막은 PEDOT(Poly(3,4-ethylenedioxythiophene)) 또는 LiCF3SO3 으로 이루어질 수 있다.
상기 조리개는 서로 다른 크기의 개구부들을 각각 가지며, 동심상으로 동일 평면내에 배치되는 다수개의 박막들로 이루어질 수 있다. 상기 다수개의 박막들은 서로 인접하게 배치되는 적어도 한 쌍의 박막들을 가지며, 상기 한쌍의 박막들중 어느 하나의 박막은 상기 어느 하나의 박막의 개구부보다 크게 형성되는 다른 하나의 박막의 개구부내에 배치될 수 있다. 상기 조리개는 상기 서로 다른 개구부들을 갖기 위해 상기 박막들의 투명도들을 개별적으로 조절하도록 구성되며, 상기 박막들의 투명도를 조절하기 위해 상기 박막들을 전기에 의해 선택적으로 변색시킬 수 있다. 상기 조리개는 일정 개구부를 형성하기 위해, 상기 일정 개구부보다 작은 개구부를 갖는 박막들을 투명하게 만들 수 있다. 상기 조리개는 상기 일정 개구부를 포함하는 박막과 상기 일정 개구부보다 큰 개구부들을 포함하는 박막들을 불투명게 만들 수 있다. 상기 조리개는: 소정의 제 1 직경을 갖는 제 1 개구부를 포함하는 제 1 박막; 및 제 1 박막을 감싸며, 상기 제 1 직경보다 큰 제 2 직경을 갖는 제 2 개구부를 포함하는 제 2 박막을 포함할 수 있다.
상기 조리개는 대체적으로 원형으로 각각 형성되는 다수개의 박막들을 포함할 수 있으며, 상기 조리개는 괄호 형상을 각각 갖는 다수개의 박막들을 포함할 수 있으며, 상기 조리개는 나선형으로 연장되는 다수개의 박막들을 포함할 수 있다.
상기 조리개는 상기 박막들과 각각 연결되며, 상기 박막들에 전압을 인가하도록 구성되는 전극을 더 포함할 수 있다. 상기 각각의 박막들은 이들에 전압을 인가하는 전극들과 연결되도록 적어도 한 지점에서 불연속적일 수 있다. 상기 전극들은 서로 소정간격으로 이격되며, 동일 평면내에 배치될 수 있다. 상기 전극들은 순차적으로 적층될 수 있다.
상기 조리개는 상기 박막의 외주부를 감싸며, 상기 렌즈로 빛을 들어가는 것을 차단하도록 구성되는 불투명 막을 더 포함할 수 있다. 상기 조리개는 상기 박막이 그 위에 형성되는 기판을 더 포함하며, 상기 기판은 투명한 재질로 형성될 수 있다.
Ka: 상기 개구부의 직경; Ks: 상기 렌즈를 통과한 빛의 광학적 정보를 전기적 신호로 변환하는 이미지 센서의 대각선 길이일 때, 상기 개구부의 직경과 센서 대각 길이의 비율(Ka/Ks)은 0.05 < |Ka/Ks| < 0.2 의 범위를 가질 수 있다. 상기 카메라 모듈의 F값은 1.4 - 3.5 일 수 있다. 상기 개구부의 직경은 0.46mm - 1.17 mm일 수 있다. 상기 박막들은 상기 개구부들을 형성하는 내주부들(inner circumferences)과 상기 내주부로부터 이격되는 외주부들(outer circumferences)을 가지며, 상기 내주부들과 내주부들 사이의 거리는 0.001mm - 0.27 mm 가 될 수 있다.
한편, 상술된 목적을 달성하기 위한 본 출원의 다른 측면에 따르면, 본 발명은 스마트 디바이스의 카메라 모듈에서 기설정된 조건들을 사용하여 피사체의 비디오를 계속적으로 획득하는 단계; 상기 피사체와 상기 스마트 디바이스 사이의 상대적 움직임을 검출하는 단계; 및 상기 검출된 움직임에 기초하여, 상기 조건들중 적어도 하나를 조절하는 단계로 이루어지는 스마트 디바이스의 제어방법을 제공할 수 있다.
본 출원에 포함된 스마트 디바이스 및 그 제어 방법의 효과에 대해 설명하면 다음과 같다.
본원에 따른 스마트 디바이스에서, 조리개는 전기변색재료를 이용한 박막의 투명도 조절에 의해 개구부의 크기를 빠르고 정확하게 조절할 수 있다. 따라서, 조리개는 이미지의 획득 환경의 변화에 대한 높은 응답성을 가질 수 있다. 또한, 조리개는 개구부의 조절을 단일 층으로 이루어진 박막만을 이용하여 수행하므로, 컴팩트한 크기를 가질 수 있다. 따라서, 이러한 컴팩트한 조리개(300)에 의해 카메라 모듈은 컴팩트해질 수 있으며, 더 나아가 스마트 디바이스 자체도 컴팩트해 질 수 있다.
한편, 본 출원에 따른 제어방법은 상대적 움직임에 따라 획득조건들을 조절하며, 조절된 조건을 바로 비디오의 획득에 적용할 수 있다. 또한, 제어방법은 플리커를 제거하도록 획득조건들을 변경하며, 변경된 조건들은 바로 비디오의 획득에 적용될 수 있다. 따라서, 본원의 제어방법은 획득되고 있는 비디오의 품질을 능동적으로 실시간적 방식으로 향상시킬 수 있다.
본 발명의 적용 가능성의 추가적인 범위는 이하의 상세한 설명으로부터 명백해질 것이다. 그러나 본 발명의 사상 및 범위 내에서 다양한 변경 및 수정은 당업자에게 명확하게 이해될 수 있으므로, 상세한 설명 및 본 발명의 바람직한 실시 예와 같은 특정 실시 예는 단지 예시로 주어진 것으로 이해되어야 한다.
도 1a는 본 출원에서 설명되는 스마트 디바이스의 구성(configuration)을 나타내는 블록도이다.
도 1b 및 도 1c는 스마트 디바이스의 일 예를 서로 다른 방향에서 바라본 사시도들이다.
도 2a는 스마트 디바이스의 카메라 모듈의 일 예를 보여주는 사시도이다.
도 2b는 도 2a에 도시된 카메라 모듈을 보여주는 분해사시도이다.
도 3a 및 도 3b는 카메라 모듈에 포함되는 AF 모듈을 보여주는 분해사시도들(exploded perspective views)이다.
도 3c는 도 3a 및 도 3b에 도시된 부품들이 서로 결합된 AF 모듈을 보여주는 사시도이다.
도 4a 및 도 4b는 카메라 모듈에 포함되는 OIS 모듈을 보여주는 분해 사시도 및 사시도이다.
도 5a 및 도 5b는 OIS 모듈의 작동을 보여주는 사시도 및 개략도이다.
도 6은 조리개의 기능 및 작동을 보여주는 개략도이다.
도 7a 및 도 7b는 본 출원에 따른 조리개의 일 예의 정면 및 배면을 각각 보여주는 평면도들이다.
도 8a 및 도 8b는 도 7a 및 도 7b에 도시된 조리개의 변형례의 정면 및 배면을 각각 보여주는 평면도들이다.
도 9a 및 도 6b는 본 출원에 따른 조리개의 일 예의 정면 및 배면을 각각 보여주는 평면도들이다.
도 10a 및 도 10b는 본 출원에 따른 조리개의 일 예의 정면 및 배면을 각각 보여주는 평면도들이다.
도 11은 조리개의 박막들의 배치를 보여주도록 도 8a의 A-A선을 따라 얻어지는 단면도이다.
도 12는 조리개의 전극들의 배치를 보여주도록 도 8a의 B-B선을 따라 얻어지는 단면도이다.
도 13a-도 13d는 조리개의 작동 및 상기 작동에서 얻어지는 특성값들을 보여주는 평면도들이다.
도 14는 본 출원에서 설명되는 제어방법과 관련되는 스마트 디바이스의 일부 구성(partial configuration)을 나타내는 블록도이다.
도 15는 본 출원에서 설명되는 스마트 디바이스의 제어방법을 보여주는 순서도이다.
도 16은 상기 제어방법에서 피사체의 움직임을 검출하는 단계를 상세하게 보여주는 순서도이다.
도 17은 상기 제어방법에서 플리커를 제거하는 단계를 상세하게는 보여주는 순서도이다.
도 18은 도 17의 플리커 제거단계에서 광원의 종류를 검출하는 단계를 상세하게 보여주는 순서도이다.
도 19는 도 17의 플리커 제거단계에서 사용되는 광원이 자연광원일 때의 추가적으로 비디오의 획득조건을 조절하는 단계를 상세하게 보여주는 순서도이다.
도 20은 상기 제어방법에서 유저 인터페이스를 제공하는 단계 및 이를 이용하여 비디오를 재생하는 단계를 상세하게 보여주는 순서도이다.
도 21은 카메라 모듈의 이미지 센서에서 프레임을 획득하는 과정을 보여주는 개략도(모식도)(schematic view or diagram)이다.
도 22는 상기 제어방법에서 움직임을 측정하는 단계 및 비디오의 획득조건을 조절하는 단계들을 보여주는 개략도이다.
도 23은 피사체의 움직임을 검출하는 단계에서 고려되는 시간에 대한 움직임량을 나타내는 그래프이다.
도 24는 연속적으로 획득되는 프레임들과 상기 측정 및 조절단계들 사이의 관계를 보여주는 개략도이다.
도 25는 상기 측정단계 및 조절단계의 수행을 사용자에게 디스플레이하는 스마트 디바이스를 보여주는 개략도이다.
도 26은 상기 비디오를 재생하는 스마트 디바이스와 스마트 디바이스에서 제공되는 유저 인터페이스를 보여주는 개략도이다.
이하, 첨부된 도면을 참조하여 본 명세서에 개시된 실시 예를 상세히 설명하되, 도면 부호에 관계없이 동일하거나 유사한 구성요소는 동일한 참조 번호를 부여하고 이에 대한 중복되는 설명은 생략하기로 한다. 이하의 설명에서 사용되는 구성요소에 대한 접미사 "모듈" 및 "부"는 명세서 작성의 용이함만이 고려되어 부여되거나 혼용되는 것으로서, 그 자체로 서로 구별되는 의미 또는 역할을 갖는 것은 아니다. 또한, 본 명세서에 개시된 실시 예를 설명함에 있어서 관련된 공지 기술에 대한 구체적인 설명이 본 명세서에 개시된 실시 예의 요지를 흐릴 수 있다고 판단되는 경우 그 상세한 설명을 생략한다. 또한, 첨부된 도면은 본 명세서에 개시된 실시 예를 쉽게 이해할 수 있도록 하기 위한 것일 뿐, 첨부된 도면에 의해 본 명세서에 개시된 기술적 사상이 제한되지 않으며, 본 발명의 사상 및 기술 범위에 포함되는 모든 변경, 균등물 내지 대체물을 포함하는 것으로 이해되어야 한다.
제1, 제2 등과 같이 서수를 포함하는 용어는 다양한 구성요소들을 설명하는데 사용될 수 있지만, 상기 구성요소들은 상기 용어들에 의해 한정되지는 않는다. 상기 용어들은 하나의 구성요소를 다른 구성요소로부터 구별하는 목적으로만 사용된다.
어떤 구성요소가 다른 구성요소에 "연결되어" 있다거나 "접속되어" 있다고 언급된 때에는, 그 다른 구성요소에 직접적으로 연결되어 있거나 또는 접속되어 있을 수도 있지만, 중간에 다른 구성요소가 존재할 수도 있다고 이해되어야 할 것이다. 반면에, 어떤 구성요소가 다른 구성요소에 "직접 연결되어" 있다거나 "직접 접속되어" 있다고 언급된 때에는, 중간에 다른 구성요소가 존재하지 않는 것으로 이해되어야 할 것이다.
단수의 표현은 문맥상 명백하게 다르게 뜻하지 않는 한, 복수의 표현을 포함한다.
본 출원에서,"이루어진다(comprises)", "포함한다(include)" 또는 "가지다(have)" 등의 용어는 명세서상에 기재된 특징, 숫자, 단계, 동작, 구성요소, 부품 또는 이들을 조합한 것이 존재함을 지정하려는 것이지, 하나 또는 그 이상의 다른 특징들이나 숫자, 단계, 동작, 구성요소, 부품 또는 이들을 조합한 것들의 존재 또는 부가 가능성을 미리 배제하지 않는 것으로 이해되어야 한다. 또한, 같은 이유에서, 본 출원은 개시된 발명의 의도된 기술적 목적 및 효과에서 벗어나지 않는 한 앞선 언급된 용어를 사용하여 설명된 관련 특징, 숫자, 단계, 동작, 구성요소, 부품의 조합으로부터도 일부 특징, 숫자, 단계, 동작, 구성요소, 부품등이 생략된 조합도 포괄하고 있음도 이해되어야 한다.
본 명세서에서 언급되는 스마트 디바이스에는 휴대폰, 스마트 폰(smart phone), 노트북 컴퓨터(laptop computer), 디지털방송용 단말기, PDA(personal digital assistants), PMP(portable multimedia player), 네비게이션, 슬레이트 PC(slate PC), 태블릿 PC(tablet PC), 울트라북(ultrabook), 및 웨어러블 디바이스(wearable device, 예를 들어, 스마트 와치(smart wath), 글래스형 단말기 (smart glass), HMD(head mounted display)) 등이 포함될 수 있다. 그러나, 본 명세서에 기재된 실시 예에 따른 구성은 스마트 디바이스에만 적용 가능한 경우를 제외하면, 다른 일반적인 이동 또는 고정 단말기에도 적용될 수도 있음을 본 기술분야의 당업자라면 쉽게 알 수 있을 것이다.
먼저 본 출원에서 설명되는 스마트 디바이스의 일 예의 전체적인 구성이 관련된 도면을 참조하여 다음에서 설명된다. 도 1a은 본 출원과 관련된 스마트 디바이스를 설명하기 위한 블록도이며, 이를 참조하여 스마트 디바이스의 일반적인 구성(configuration)을 설명하면 다음과 같다.
상기 스마트 디바이스(100)는 무선 통신부(110), 입력부(120), 감지부(140), 출력부(150), 인터페이스부(160), 메모리(170), 제어부(180) 및 전원 공급부(190) 등을 포함할 수 있다. 도 1에 도시된 구성요소들은 스마트 디바이스를 구현하는데 있어서 필수적인 것은 아니어서, 본 명세서 상에서 설명되는 스마트 디바이스는 위에서 열거된 구성요소들 보다 많거나, 또는 적은 구성요소들을 가질 수 있다. 또한, 앞서 언급된 구성요소들의 실제 형상 및 구조가 모두 도시되지는 않으며, 중요한 일부 구성요소들의 형상 및 구조만이 도 1a에 뒤따르는 도면들에서 나타난다. 그러나, 스마트 디바이스로서의 기능을 구현하기 위해 비록 모두 도시되지는 않지만 설명된 구성요소들이 스마트 디바이스에 포함될 수 있음을 당업자는 이해 가능하다.
보다 구체적으로, 상기 구성요소들 중 무선 통신부(110)는, 스마트 디바이스(100)와 무선 통신 시스템 사이, 스마트 디바이스(100)와 다른 스마트 디바이스(100) 사이, 또는 스마트 디바이스(100)와 외부서버 사이의 무선 통신을 가능하게 하는 하나 이상의 모듈을 포함할 수 있다. 또한, 상기 무선 통신부(110)는, 스마트 디바이스(100)를 하나 이상의 네트워크에 연결하는 하나 이상의 모듈을 포함할 수 있다.
이러한 무선 통신부(110)는, 방송 수신 모듈(111), 이동통신 모듈(112), 무선 인터넷 모듈(113), 근거리 통신 모듈(114), 위치정보 모듈(115) 중 적어도 하나를 포함할 수 있다.
입력부(120)는, 영상 신호 입력을 위한 카메라(121) 또는 영상 입력부, 오디오 신호 입력을 위한 마이크로폰(microphone, 122), 또는 오디오 입력부, 사용자로부터 정보를 입력받기 위한 사용자 입력부(123, 예를 들어, 터치키(touch key), 푸시키(mechanical key) 등)를 포함할 수 있다. 입력부(120)에서 수집한 음성 데이터나 이미지 데이터는 분석되어 사용자의 제어명령으로 처리될 수 있다.
센싱부(140)는 스마트 디바이스 내 정보, 스마트 디바이스를 둘러싼 주변 환경 정보 및 사용자 정보 중 적어도 하나를 센싱하기 위한 하나 이상의 센서를 포함할 수 있다. 예를 들어, 센싱부(140)는 근접센서(141, proximity sensor), 조도 센서(142, illumination sensor), 터치 센서(touch sensor), 가속도 센서(acceleration sensor), 자기 센서(magnetic sensor), 중력 센서(G-sensor), 자이로스코프 센서(gyroscope sensor), 모션 센서(motion sensor), RGB 센서, 적외선 센서(IR 센서: infrared sensor), 지문인식 센서(finger scan sensor), 초음파 센서(ultrasonic sensor), 광 센서(optical sensor, 예를 들어, 카메라(121 참조)), 마이크로폰(microphone, 122 참조), 배터리 게이지(battery gauge), 환경 센서(예를 들어, 기압계, 습도계, 온도계, 방사능 감지 센서, 열 감지 센서, 가스 감지 센서 등), 화학 센서(예를 들어, 전자 코, 헬스케어 센서, 생체 인식 센서 등) 중 적어도 하나를 포함할 수 있다. 한편, 본 명세서에 개시된 스마트 디바이스는, 이러한 센서들 중 적어도 둘 이상의 센서에서 센싱되는 정보들을 조합하여 활용할 수 있다.
출력부(150)는 시각, 청각 또는 촉각 등과 관련된 출력을 발생시키기 위한 것으로, 디스플레이부(151), 음향 출력부(152), 햅팁 모듈(153), 광 출력부(154) 중 적어도 하나를 포함할 수 있다. 디스플레이부(151)는 터치 센서와 상호 레이어 구조를 이루거나 일체형으로 형성됨으로써, 터치 스크린을 구현할 수 있다. 이러한 터치 스크린은, 스마트 디바이스(100)와 사용자 사이의 입력 인터페이스를 제공하는 사용자 입력부(123)로써 기능함과 동시에, 스마트 디바이스(100)와 사용자 사이의 출력 인터페이스를 제공할 수 있다.
인터페이스부(160)는 스마트 디바이스(100)에 연결되는 다양한 종류의 외부 기기와의 통로 역할을 수행한다. 이러한 인터페이스부(160)는, 유/무선 헤드셋 포트(port), 외부 충전기 포트(port), 유/무선 데이터 포트(port), 메모리 카드(memory card) 포트, 식별 모듈이 구비된 장치를 연결하는 포트(port), 오디오 I/O(Input/Output) 포트(port), 비디오 I/O(Input/Output) 포트(port), 이어폰 포트(port) 중 적어도 하나를 포함할 수 있다. 스마트 디바이스(100)는, 상기 인터페이스부(160)에 외부 기기가 연결되는 것에 대응하여, 연결된 외부 기기와 관련된 적절할 제어를 수행할 수 있다.
또한, 메모리(170)는 스마트 디바이스(100)의 다양한 기능을 지원하는 데이터를 저장한다. 메모리(170)는 스마트 디바이스(100)에서 구동되는 다수의 응용 프로그램(application program 또는 애플리케이션(application)), 스마트 디바이스(100)의 동작을 위한 데이터들, 명령어들을 저장할 수 있다. 이러한 응용 프로그램 중 적어도 일부는, 무선 통신을 통해 외부 서버로부터 다운로드 될 수 있다. 또한 이러한 응용 프로그램 중 적어도 일부는, 스마트 디바이스(100)의 기본적인 기능(예를 들어, 전화 착신, 발신 기능, 메시지 수신, 발신 기능)을 위하여 출고 당시부터 스마트 디바이스(100)상에 존재할 수 있다. 한편, 응용 프로그램은, 메모리(170)에 저장되고, 스마트 디바이스(100) 상에 설치되어, 제어부(180)에 의하여 상기 스마트 디바이스의 동작(또는 기능)을 수행하도록 구동될 수 있다.
제어부(180)는 상기 응용 프로그램과 관련된 동작 외에도, 통상적으로 스마트 디바이스(100)의 전반적인 동작을 제어한다. 제어부(180)는 위에서 살펴본 구성요소들을 통해 입력 또는 출력되는 신호, 데이터, 정보 등을 처리하거나 메모리(170)에 저장된 응용 프로그램을 구동함으로써, 사용자에게 적절한 정보 또는 기능을 제공 또는 처리할 수 있다.
또한, 제어부(180)는 메모리(170)에 저장된 응용 프로그램을 구동하기 위하여, 도 1a와 함께 살펴본 구성요소들 중 적어도 일부를 제어할 수 있다. 나아가, 제어부(180)는 상기 응용 프로그램의 구동을 위하여, 스마트 디바이스(100)에 포함된 구성요소들 중 적어도 둘 이상을 서로 조합하여 동작시킬 수 있다.
전원공급부(190)는 제어부(180)의 제어 하에서, 외부의 전원, 내부의 전원을 인가 받아 스마트 디바이스(100)에 포함된 각 구성요소들에 전원을 공급한다. 이러한 전원공급부(190)는 배터리를 포함하며, 상기 배터리는 내장형 배터리 또는 교체가능한 형태의 배터리가 될 수 있다.
상기 각 구성요소들 중 적어도 일부는, 이하에서 설명되는 다양한 실시 예들에 따른 스마트 디바이스의 동작, 제어, 또는 제어방법을 구현하기 위하여 서로 협력하여 동작할 수 있다. 또한, 상기 스마트 디바이스의 동작, 제어, 또는 제어방법은 상기 메모리(170)에 저장된 적어도 하나의 응용 프로그램의 구동에 의하여 스마트 디바이스 상에서 구현될 수 있다.
뒤따르는 나머지 도면들에서 스마트 디바이스(100)는 바(bar) 형태의 몸체를 가지는 것으로 도시된다. 그러나, 본 출원에서 설명되는 예는 여기에 한정되지 않고, 다양한 구조 및 형태를 가질 수 있다. 예를 들어, 스마트 디바이스(100)는 안경, 시계, 팔찌 및 목걸이와 같은 웨어러블 한 몸체를 가질 수 있다. 즉, 스마트 디바이스(100)의 특정 유형에 대한 구성 및 이에 대한 설명은 해당 스마트 디바이스(100)의 특정 유형 뿐만 아니라 다른 타입의 스마트 디바이스에도 일반적으로 적용될 수 있다.
상술된 스마트 디바이스(100)의 일반적인 구성에 뒤이어, 관련된 도면을 참조하여 스마트 디바이스(100)의 구조가 설명된다. 이와 관련하여, 도 1b 및 도 1c은 스마트 디바이스의 일 예를 서로 다른 방향에서 바라본 사시도들이다. 보다 상세하게는, 도 1b는 스마트 디바이스(100)의 전방부를 보여주는 사시도이며, 도 1c은 스마트 디바이스(100)의 후방부를 보여주는 사시도이다. 도 1b 및 도 1c이 스마트 디바이스(100)의 전체적인 구조를 잘 보여주므로, 특별하게 참조할 도면이 언급될 때를 제외하고는 모든 설명들은 항상 도 1b 및 도 1c를 기본적으로 참조한다.
앞서 설명된 바와 같이, 스마트 디바이스(100)은 전체적으로 바 형태를 갖는 몸체를 가지고 있다. 몸체의 형상은 필요에 따라 다양하게 변화될 수 있다. 여기서, 몸체는 스마트 디바이스(100)를 적어도 하나의 집합체로 보아 이를 지칭하는 개념으로 이해될 수 있다. 따라서, 다음에서 설명되는 모든 구성요소들은 상기 스마트 디바이스(100)의 몸체에 제공 또는 설치되거나 상기 몸체내에 포함된다고 설명될 수 있다.
스마트 디바이스(100)는 외관을 이루는 케이스(예를 들면, 프레임, 하우징, 커버 등)를 포함한다. 도시된 바와 같이, 스마트 디바이스(100)는 프론트 케이스(101)와 리어 케이스(102)를 포함할 수 있다. 프론트 케이스(101)와 리어 케이스(102)의 결합에 의해 형성되는 내부공간에는 각종 전자부품들이 배치될 수 있다. 결합된 이들 케이스들(101,102)은 또한 상기 스마트 디바이스(100)의 외형 또는 이의 몸체의 외형을 형성할 수 있다. 프론트 케이스(101)와 리어 케이스(102) 사이에는 적어도 하나의 미들 케이스가 추가로 배치될 수 있다.
스마트 디바이스(100) 몸체의 전면에는 디스플레이부(151)가 배치되어 정보를 출력할 수 있다. 도시된 바와 같이, 디스플레이부(151)는 프론트 케이스(101)로부터 노출되며 이에 따라 프론트 케이스(101)와 함께 스마트 디바이스(100)의 전면을 형성할 수 있다.
경우에 따라서, 리어 케이스(102)에도 전자부품이 장착될 수 있다. 리어 케이스(102)에 장착 가능한 전자부품은 착탈 가능한 배터리, 식별 모듈, 메모리 카드 등이 있다. 이 경우, 리어 케이스(102)에는 장착된 전자부품을 덮기 위한 후면커버(103)가 착탈 가능하게 결합될 수 있다. 따라서, 후면 커버(103)가 리어 케이스(102)로부터 분리되면, 리어 케이스(102)에 장착된 전자부품은 접근가능하도록 외부로 노출된다.
도시된 바와 같이, 후면커버(103)가 리어 케이스(102)에 결합되면, 리어 케이스(102)의 측면 일부가 노출될 수 있다. 경우에 따라서, 상기 결합시 리어 케이스(102)는 후면커버(103)에 의해 완전히 가려질 수도 있다. 한편, 후면커버(103)에는 카메라(121b)나 음향 출력부(152b)를 외부로 노출시키기 위한 개구부가 구비될 수 있다.
이러한 케이스들(101, 102, 103)은 합성수지를 사출하여 형성되거나 금속, 예를 들어 스테인레스 스틸(STS), 알루미늄(Al), 티타늄(Ti) 등으로 형성될 수도 있다.
스마트 디바이스(100)는, 복수의 케이스가 각종 전자부품들을 수용하는 내부 공간을 마련하는 위의 예와 달리, 하나의 케이스가 상기 내부 공간을 마련하도록 구성될 수도 있다. 이 경우, 합성수지 또는 금속이 측면에서 후면으로 이어지는 유니 바디의 스마트 디바이스(100)가 구현될 수 있다.
한편, 스마트 디바이스(100)는 이의 몸체 내부로 물이 스며들지 않도록 하는 방수부(미도시)를 구비할 수 있다. 예를 들어, 방수부는 윈도우(151a)와 프론트 케이스(101) 사이, 프론트 케이스(101)와 리어 케이스(102) 사이 또는 리어 케이스(102)와 후면 커버(103) 사이에 구비되어, 이들의 결합 시 내부 공간을 밀폐하는 방수부재를 포함할 수 있다.
스마트 디바이스(100)에는 디스플레이부(151), 제1 및 제2 음향 출력부(152a, 152b), 근접 센서(141), 조도 센서(142), 광 출력부(154), 제1 및 제2 카메라(121a, 121b), 제1 및 제2 조작유닛(123a, 123b), 마이크로폰(122), 인터페이스부(160) 등이 구비될 수 있다.
이하에서는, 도 1b 및 도 1c에 도시된 바와 같이, 스마트 디바이스(100) 몸체의 전면에 디스플레이부(151), 제1 음향 출력부(152a), 근접 센서(141), 조도 센서(142), 광 출력부(154), 제1 카메라(121a) 및 제1 조작유닛(123a)이 배치되고, 몸체의 측면에 제2 조작유닛(123b), 마이크로폰(122) 및 인터페이스부(160)이 배치되며, 몸체의 후면에 제2 음향 출력부(152b) 및 제2 카메라(121b)가 배치된 스마트 디바이스(100)를 일 예로 들어 설명한다.
다만, 이들 구성은 이러한 배치에 한정되는 것은 아니다. 이들 구성은 필요에 따라 제외 또는 대체되거나, 다른 면에 배치될 수 있다. 예를 들어, 스마트 디바이스(100)의 몸체의 전면에는 제1 조작유닛(123a)이 구비되지 않을 수 있으며, 제2 음향 출력부(152b)는 몸체의 후면이 아닌 몸체의 측면에 구비될 수 있다.
디스플레이부(151)는 스마트 디바이스(100)에서 처리되는 정보를 표시(출력)한다. 예를 들어, 디스플레이부(151)는 스마트 디바이스(100)에서 구동되는 응용 프로그램의 실행화면 정보, 또는 이러한 실행화면 정보에 따른 UI(User Interface), GUI(Graphic User Interface) 정보를 표시할 수 있다. 또한, 스마트 디바이스(100)가 보조장치에 의해 사용자의 머리에 착용될 때, 디스플레이부(151)는 가상현실을 위한 입체영상을 사용자에게 제공할 수 있다.
디스플레이부(151)는 액정 디스플레이(liquid crystal display, LCD), 박막 트랜지스터 액정 디스플레이(thin film transistor-liquid crystal display, TFT LCD), 유기 발광 다이오드(organic light-emitting diode, OLED), 플렉서블 디스플레이(flexible display), 3차원 디스플레이(3D display), 전자잉크 디스플레이(e-ink display) 중에서 적어도 하나를 포함할 수 있다. 디스플레이부(151)는 디스플레이 모듈(도시안됨)과 상기 디스플레이 모듈을 커버하는 윈도우(151a)를 포함할 수 있다. 디스플레이 모듈은 앞서 설명된 바와 같은 LCD, OLED와 같은 디스플레이 소자로 이루어질 수 있으며, 실제적으로 화상정보를 표시하는 구성요소이다. 윈도우(151a)는 디스플레이 모듈의 사용자에게 노출되는 부분에 배치될 수 있으며, 상기 디스플레이 모듈을 외부로부터 보호할 수 있다. 이러한 보호기능이외에도 윈도우(151a)는 이를 통해 디스플레이 모듈에 표시되는 정보를 사용에게 보여지게 허용해야 한다. 따라서, 윈도우(151a)는 적절한 강도 및 투명도를 갖는 재질로 이루어질 수 있다. 또한, 윈도우(151a)의 배면에 디스플레이 모듈이 직접적으로 부착될 수 있다. 디스플레이 모듈은 여러가지 방법으로 윈도우(151)에 직접 부착될 수 있으며, 접착제가 직접적 부착을 위해 가장 편리하게 사용될 수 있다.
또한, 디스플레이부(151)는 스마트 디바이스(100)의 구현 형태에 따라 2개 이상 존재할 수 있다. 이 경우, 스마트 디바이스(100)에는 복수의 디스플레이부들이 하나의 면에 이격되거나 일체로 배치될 수 있고, 또한 서로 다른 면에 각각 배치될 수도 있다.
디스플레이부(151)는 터치 방식에 의하여 제어 명령을 입력 받을 수 있도록, 디스플레이부(151)에 대한 터치를 감지하는 터치센서(미도시)를 포함할 수 있다. 상기 터치 센서는 저항막 방식, 정전용량 방식, 적외선 방식, 초음파 방식, 자기장 방식 등 여러 가지 터치방식 중 적어도 하나를 이용할 수 있다. 일 예로서, 저항막방식 및 정전용량 방식에서와 같이, 터치 센서는 터치 스크린의 특정 부위에 가해진 압력 또는 특정 부위에 발생하는 정전 용량 등의 변화를 전기적인 입력신호로 변환하도록 구성될 수 있다. 디스플레이부(151)는 터치 센서와 함께 스마트 디바이스에서 일종의 터치입력장치인 터치스크린을 구성할 수 있다. 디스플레이부(151)는 사용자 인터페이스인 터치스크린으로 작동하면서 동시에 소정의 화상정보를 표시할 수 있다. 즉, 디스플레이부(151)는 출력부(150) 뿐만 아니라 입력부(120)으로써도 기능할 수 있다. 디스플레이부(151)에 대하여 터치가 이루어지면, 터치센서는 상기 터치를 감지하고, 제어부(180)는 이에 근거하여 상기 터치에 대응하는 제어명령을 발생시키도록 이루어질 수 있다. 터치 방식에 의하여 입력되는 내용은 문자 또는 숫자이거나, 각종 모드에서의 지시 또는 지정 가능한 메뉴항목 등일 수 있다.
터치센서는, 터치패턴을 구비하는 필름 형태로 구성되어 윈도우(151a)와 윈도우(151a)의 배면상의 디스플레이 모듈사이에 배치되거나, 윈도우(151a)의 배면에 직접 패터닝되는 메탈 와이어가 될 수도 있다. 또는, 터치센서는 디스플레이 모듈와 일체로 형성될 수 있다. 예를 들어, 터치센서는, 디스플레이 모듈의 기판 상에 배치되거나, 디스플레이 모듈의 내부에 구비될 수 있다.
이처럼, 디스플레이부(151)는 터치센서와 함께 터치 스크린을 형성할 수 있으며, 이 경우에 터치 스크린은 사용자 입력부(123, 도 1a 참조)로 기능할 수 있다. 필요에 따라, 터치 스크린인 디스플레이부(151)에 인접하게 물리적 키(예를 들어 푸쉬 키)가 사용자 입력부(123)로써 사용자의 편리한 입력을 위해 추가적으로 제공될 수도 있다.
제 1 음향 출력부(152a)는 통화음을 사용자의 귀에 전달시키는 리시버(receiver)로 구현될 수 있으며, 제2 음향 출력부(152b)는 각종 알람음이나 멀티미디어의 재생음을 출력하는 라우드 스피커(loud speaker)의 형태로 구현될 수 있다.
디스플레이부(151)의 윈도우(151a)에는 제1 음향 출력부(152a)로부터 발생되는 사운드의 방출을 위한 음향홀이 형성될 수 있다. 다만, 본 발명은 이에 한정되는 것은 아니고, 상기 사운드는 구조물 간의 조립틈(예를 들어, 윈도우(151a)와 프론트 케이스(101) 간의 틈)을 따라 방출되도록 구성될 수 있다. 이 경우, 외관상 음향 출력을 위하여 독립적으로 형성되는 홀이 보이지 않거나 숨겨져 스마트 디바이스(100)의 외관이 보다 심플해질 수 있다.
광 출력부(154)는 이벤트의 발생시 이를 알리기 위한 빛을 출력하도록 이루어진다. 상기 이벤트의 예로는 메시지 수신, 호 신호 수신, 부재중 전화, 알람, 일정 알림, 이메일 수신, 애플리케이션을 통한 정보 수신 등을 들 수 있다. 제어부(180)는 사용자의 이벤트 확인이 감지되면, 빛의 출력이 종료되도록 광 출력부(154)를 제어할 수 있다.
제1 카메라(121a)는 촬영 모드 또는 화상통화 모드에서 이미지 센서에 의해 얻어지는 정지영상 또는 동영상의 화상 프레임을 처리한다. 처리된 화상 프레임은 디스플레이부(151)에 표시될 수 있으며, 메모리(170)에 저장될 수 있다.
제1 및 제2 조작유닛(123a, 123b)은 스마트 디바이스(100)의 동작을 제어하기 위한 명령을 입력 받기 위해 조작되는 사용자 입력부(123)의 일 예로서, 조작부(manipulating portion)로도 통칭될 수 있다. 제1 및 제2 조작유닛(123a, 123b)은 터치, 푸시, 스크롤 등 사용자가 촉각적인 느낌을 받으면서 조작하게 되는 방식(tactile manner)이라면 어떤 방식이든 채용될 수 있다. 또한, 제1 및 제2 조작유닛(123a, 123b)은 근접 터치(proximity touch), 호버링(hovering) 터치 등을 통해서 사용자의 촉각적인 느낌이 없이 조작하게 되는 방식으로도 채용될 수 있다.
본 도면에서는 제1 조작유닛(123a)이 터치키(touch key)인 것으로 예시하나, 본 발명이 이에 한정되는 것은 아니다. 예를 들어, 제1 조작유닛(123a)은 푸시키(mechanical key)가 되거나, 터치키와 푸시키의 조합으로 구성될 수 있다.
제1 및 제2 조작유닛(123a, 123b)에 의하여 입력되는 내용은 다양하게 설정될 수 있다. 예를 들어, 제1 조작유닛(123a)은 메뉴, 홈키, 취소, 검색 등의 명령을 입력 받고, 제2 조작유닛(123b)은 제1 또는 제2 음향 출력부(152a, 152b)에서 출력되는 음향의 크기 조절, 디스플레이부(151)의 터치 인식 모드로의 전환 등의 명령을 입력 받을 수 있다.
상기 조작유닛(123a, 123b)은 앞서 설명된 디스플레이부(151)에 적용된 터치 스크린과 유사한 구조의 터치입력장치로 이루어질 수 있다. 조작유닛(123a, 123b)은 터치스크린과는 달리 화상정보의 표시없이 단순하게 명령만을 입력하도록 구성되며, 이와 같은 조작유닛에 적용된 터치입력장치는 터치패드라고 불릴 수 있다.
한편, 스마트 디바이스(100) 몸체의 후면에는 사용자 입력부(123)의 다른 일 예로서, 후면 입력부(미도시)가 구비될 수 있다. 이러한 후면 입력부는 스마트 디바이스(100)의 동작을 제어하기 위한 명령을 입력 받기 위해 조작되는 것으로서, 입력되는 내용은 다양하게 설정될 수 있다. 예를 들어, 전원의 온/오프, 시작, 종료, 스크롤 등과 같은 명령, 제1 및 제2 음향 출력부(152a, 152b)에서 출력되는 음향의 크기 조절, 디스플레이부(151)의 터치 인식 모드로의 전환 등과 같은 명령을 입력 받을 수 있다. 후면 입력부는 터치입력, 푸시입력 또는 이들의 조합에 의한 입력이 가능한 형태로 구현될 수 있다.
후면 입력부는 디바이스(100) 몸체의 두께방향으로 전면의 디스플레이부(151)와 중첩되게 배치될 수 있다. 일 예로, 사용자가 디바이스(100) 몸체를 한 손으로 쥐었을 때 검지를 이용하여 용이하게 조작 가능하도록, 후면 입력부는 디바이스(100) 몸체의 후면 상단부에 배치될 수 있다. 다만, 본 발명은 반드시 이에 한정되는 것은 아니며, 후면 입력부의 위치는 변경될 수 있다.
이처럼 디바이스(100) 몸체의 후면에 후면 입력부가 구비되는 경우, 이를 이용한 새로운 형태의 유저 인터페이스가 구현될 수 있다. 또한, 앞서 설명한 터치 스크린 또는 후면 입력부가 디바이스(100) 몸체의 전면에 구비되는 제1 조작유닛(123a)의 적어도 일부 기능을 대체하여, 상기 몸체의 전면에 제1 조작유닛(123a)이 미배치되는 경우, 디스플레이부(151)가 보다 큰 화면으로 구성될 수 있다.
한편, 스마트 디바이스(100)에는 사용자의 지문을 인식하는 지문인식센서가 구비될 수 있으며, 제어부(180)는 지문인식센서를 통하여 감지되는 지문정보를 인증수단으로 이용할 수 있다. 상기 지문인식센서는 디스플레이부(151) 또는 사용자 입력부(123)에 내장될 수 있다.
마이크로폰(122)은 사용자의 음성, 기타 소리 등을 입력 받도록 이루어진다. 마이크로폰(122)은 복수의 개소에 구비되어 스테레오 음향을 입력 받도록 구성될 수 있다.
인터페이스부(160)는 스마트 디바이스(100)를 외부기기와 연결시킬 수 있는 통로가 된다. 예를 들어, 인터페이스부(160)는 다른 장치(예를 들어, 이어폰, 외장 스피커)와의 연결을 위한 접속단자(예를 들어, USB 포트), 근거리 통신을 위한 포트[예를 들어, 적외선 포트(IrDA Port), 블루투스 포트(Bluetooth Port), 무선 랜 포트(Wireless LAN Port) 등], 또는 스마트 디바이스(100)에 전원을 공급하기 위한 전원공급단자 중 적어도 하나일 수 있다. 이러한 인터페이스부(160)는 SIM(Subscriber Identification Module) 또는 UIM(User Identity Module), 정보 저장을 위한 메모리 카드 등의 외장형 카드를 수용하는 소켓의 형태로 구현될 수도 있다.
스마트 디바이스(100) 몸체의 후면에는 제2카메라(121b)가 배치될 수 있다. 이 경우, 제2카메라(121b)는 제1카메라(121a)와 실질적으로 반대되는 촬영 방향을 가지게 된다.
제2카메라(121b)는 적어도 하나의 라인을 따라 배열되는 복수의 렌즈를 포함할 수 있다. 복수의 렌즈는 행렬(matrix) 형식으로 배열될 수도 있다. 이러한 카메라는, 어레이 카메라로 명명될 수 있다. 제2카메라(121b)가 어레이 카메라로 구성되는 경우, 복수의 렌즈를 이용하여 다양한 방식으로 영상을 촬영할 수 있으며, 보다 나은 품질의 영상을 획득할 수 있다. 제1 카메라(121a)도 이와 같은 어레이 카메라로 구성될 수 있다.
플래시(124)는 제2카메라(121b)에 인접하게 배치될 수 있다. 플래시(124)는 제2카메라(121b)로 피사체를 촬영하는 경우에 피사체를 향하여 빛을 비추게 된다.
스마트 디바이스(100) 몸체에는 제2 음향 출력부(152b)가 추가로 배치될 수 있다. 제2 음향 출력부(152b)는 제1 음향 출력부(152a)와 함께 스테레오 기능을 구현할 수 있으며, 통화시 스피커폰 모드의 구현을 위하여 사용될 수도 있다.
스마트 디바이스(100) 몸체에는 무선 통신을 위한 적어도 하나의 안테나가 구비될 수 있다. 안테나는 상기 몸체에 내장되거나, 케이스에 형성될 수 있다. 예를 들어, 방송 수신 모듈(111, 도 1a 참조)의 일부를 이루는 안테나는 상기 몸체에서 인출 가능하게 구성될 수 있다. 또는, 안테나는 필름 타입으로 형성되어 후면 커버(103)의 내측면에 부착될 수도 있고, 도전성 재질을 포함하는 케이스가 안테나로서 기능하도록 구성될 수도 있다.
스마트 디바이스(100) 몸체에는 스마트 디바이스(100)에 전원을 공급하기 위한 전원 공급부(190, 도 1a 참조)가 구비된다. 전원 공급부(190)는 상기 몸체에 내장되거나, 상기 몸체의 외부에서 착탈 가능하게 구성되는 배터리(191)를 포함할 수 있다.
배터리(191)는 인터페이스부(160)에 연결되는 전원 케이블을 통하여 전원을 공급받도록 구성될 수 있다. 또한, 배터리(191)는 무선충전기기를 통하여 무선충전 가능하도록 구성될 수도 있다. 상기 무선충전은 자기유도방식 또는 공진방식(자기공명방식)에 의하여 구현될 수 있다.
본 도면에서는 후면 커버(103)가 배터리(191)를 덮도록 리어 케이스(102)에 결합되어 배터리(191)의 이탈을 제한하고, 배터리(191)를 외부 충격과 이물질로부터 보호하도록 구성된 것을 예시하고 있다. 배터리(191)가 몸체에 착탈 가능하게 구성되는 경우, 후면 커버(103)는 리어 케이스(102)에 착탈 가능하게 결합될 수 있다.
비록 도 1b 및 도 1c에는 도시되지 않았으나, 기판은 케이스들(101,102)내에 설치될 수 있으며, 각종 전자부품, 특히 제어부(180)를 구성하는 각종 프로세서들이 이들을 보조하는 다른 회로 및 소자들과 함께 장착되는 구성요소이다. 도 1에 도시된 각 구성요소들(110-190)은 제어부(180)에 의해 제어될 수 있도록 상기 기판에 직접 설치되거나, 상기 케이스(101,102)에 또는 그 내부에 설치되어 상기 기판에 전기적으로 연결된다. 예를 들어, 비록 외부에 노출되어 있지만, 윈도우(151)(즉, 터치센서) 및 디스플레이 모듈은 각각 배선을 통해 상기 기판에 연결될 수 있다. 따라서, 제어부(180)는 제어기(controller), 제어장치(controlling device)와 같은 다양한 명칭으로 불릴 수 있으며, 스마트 디바이스(100)의 모든 구성요소들을 제어할 수 있다. 이와 같은 제어되는 구성요소는 도 1에 포함된 구성요소 뿐만 아니라 다음에서 설명될 다른 구성요소들도 포함한다. 따라서, 제어부(180)은 다른 구성요소들의 작동을 제어함으로써 후술되는 본 출원의 제어방법을 적절하게 수행하는 실제적인 구성요소가 될 수 있다. 이러한 이유로, 상기 제어방법에서 수행되는 모든 세부적인 단계들은 모두 제어부(180)의 특징이 될 수 있다.
한편, 스마트 디바이스(100)에는 외관을 보호하거나, 스마트 디바이스(100)의 기능을 보조 또는 확장시키는 액세서리가 추가될 수 있다. 이러한 액세서리의 일 예로, 스마트 디바이스(100)의 적어도 일면을 덮거나 수용하는 커버 또는 파우치를 들 수 있다. 커버 또는 파우치는 디스플레이부(151)와 연동되어 스마트 디바이스(100)의 기능을 확장시키도록 구성될 수 있다. 액세서리의 다른 일 예로, 터치 스크린에 대한 터치입력을 보조 또는 확장하기 위한 터치펜을 들 수 있다.
앞서 설명된 바와 같이 제 1 및 제 2 카메라(121a,121b)는 디지털 카메라로 이루어지며, 컴팩트한 모듈로써 스마트 디바이스(100)에 설치된다. 피사체에 대한 이미지를 필름에 인화하는 통상적인 카메라와는 다르게, 이와 같은 디지털 카메라 모듈은 전자적 소자들을 이용하여 기본적으로 외부 피사체(subject)에 대한 영상(이미지)정보를 획득하도록 구성될 수 있다. 이러한 이미지 정보는 디지털 정지영상(digital still image), 즉 사진 또는 동영상(moving image), 즉 비디오(video)를 포함할 수 있다. 뒤따르는 본원의 상세한 설명에서는 편의를 위해 영상정보는 단순하게 이미지로 표현되며, 설명된 이미지는 정지영상(사진) 뿐만 아니라 동영상(비디오)도 포함한다고 이해되어져야 한다. 다음에서는 제 1 및 제 2 카메라(121a,121b)가 카메라 모듈(200)로써 관련된 도면들을 참조하여 보다 상세하게 설명된다.
도 2a는 스마트 디바이스의 카메라 모듈의 일 예를 보여주는 사시도이며, 도 2b는 도 2a에 도시된 카메라 모듈을 보여주는 분해사시도이다.
도 2a 및 도 2b를 참조하면, 본 출원의 일 예에 따른 카메라 모듈(200)은 디지털 이미지를 획득하기 위해 AF(Auto Focus) 모듈(220) 및 센서 모듈(230)을 포함할 수 있다. 카메라 모듈(200)은 또한 하우징(210), OIS(Optical Image Stabilization) 구동기(240) 및 인쇄회로기판(260)을 포함할 수 있다. 상기 AF 모듈(220)은 제1 렌즈군(221), 제2 렌즈군(미도시), 조리개(225) 및 AF 구동기(227)를 포함하며, 이에 대한 자세한 설명은 도 3a 및 도 3b를 참조하여 나중에 제공될 것이다.
하우징(210)은 스마트 디바이스(100)의 본체 내부에 장착될 수 있다. 그리고, 상기 하우징(210)은 복수의 면을 가진 다면체 형상으로 이루어질 수 있으며, 도시된 바와 같이 육면체 형상으로 이루어질 수 있다.
하우징(210)의 제 1 면(211)은 스마트 디바이스(100)의 외부, 즉 피사체를 향하는 면으로서, 제 1 영역(211a)과 제 2 영역(211b)을 포함한다. 제 1 영역(211a)은 AF 모듈(220)이 빛을 받아들일 수 있는 영역에 대응될 수 있다. 제 1 영역(211a)은 적어도 AF 모듈(220)에 포함된 렌즈들의 지름과 같거나 약간 더 크게 형성될 수 있다. 또한, 상기 제 1 영역(211a)은 빛이 투과해야 하므로 투명하게 형성되거나 개구부로 이루어질 수 있다. 제 2 영역(211b)은 제 1 영역(211a)을 감싸며 제 1 면(211)의 나머지 부분을 차지할 수 있다. 제 2 영역(211b)은 빛이 잘 투과되지 못하도록 불투명하게 형성될 수 있다. 이는 제2 영역(211b)을 통해 빛이 입사하면 AF 모듈(220)으로 들어오는 빛에 대하여 간섭 현상을 일으킬 수 있기 때문이다.
하우징(210)의 제 2 면(미도시)은 제 1 면(211)과 대향되게 배치될 수 있다. 즉, 스마트 디바이스(100) 외부를 향하는 것이 아니라, 디바이스(100) 내부를 향하는 면이 제 2 면이 된다. 제 2 면은 스마트 디바이스(100) 내부에 구비된 인쇄회로기판(250)과 결합될 수 있다. 또한, 하우징(210)은 스마트 디바이스(100) 내부에 배치되는 인쇄회로기판(250)에 장착되기 위하여, 장착 보드(미도시) 및 장착 부재(미도시) 등을 더 포함할 수 있다.
AF 모듈(220)은 하우징(210)의 제 1 면(211a)에 인접하여 배치된다. AF 모듈(220)은 AF 구동기(227)를 이용하여 내부에 탑재된 조리개 모듈(226)을 중심축 방향으로 이동시키면서 자동 초점(Auto Focus) 기능을 수행한다. 여기서, 조리개 모듈(226)은 제 1 렌즈군(221), 제2 렌즈군(미도시) 및 조리개(225)를 포함할 수 있다.
AF 구동기(227)는 구동력을 발생시키는 방식에 따라 크게 VCM(voice coil motor) 방식, PZT(piezoelectric) 방식, 회전모터방식으로 분류될 수 있다. 도시된 바와 같이, 본 출원에 따른 카메라 모듈(200)에서는 PZT 방식을 사용하는 구동기(227)가 이용될 수 있다. 여기서, PZT 방식은 압전소자를 이용하여 전압을 가하면 압전소자의 변형을 통해 구동 소자가 이동하게 되는 방식이다.
센서 모듈(230)은 적외선 필터(231) 및 이미지 센서(233)를 포함할 수 있으며, AF 모듈(220)의 하부면과 결합될 수 있다. 적외선 필터(231)는 조리개 모듈(226)과 이미지 센서(233) 사이에 배치되어, 외부 빛으로부터 방출되는 복사열이 이미지 센서(233)에 전달되지 않도록 차단하는 기능을 수행할 수 있다. 이미지 센서(233)는 AF 모듈(220) 및 적외선 필터(231)를 통과하여 입사되는 광신호를 전기신호로 전환할 수 있다. 이미지 센서(233)로는 CCD(Charge Coupled Device) 또는 CMOS(Complementary Metal Oxide Semiconductor)가 사용될 수 있다.
OIS(Optical Image Stabilization) 구동기(240)는 스마트 디바이스(100) 내부에 배치되는 인쇄회로기판(250)과 결합된다. 그리고, OIS 구동기(240)는 AF 모듈(220)과 센서 모듈(230)이 결합된 모듈 조립체(assembly)를 탑재한다. OIS 구동기(240)는 자기장(magnetic field)을 이용하여 모듈 조립체를 상기 모듈 조립체가 배치되는 평면내에서 설정되는 X축 및/또는 Y축 방향으로 이동시키면서 손떨림 보정 기능을 수행한다. 사용자가 스마트 디바이스(100)를 손에 쥐거나 신체에 착용한 상태에서 촬영하는 경우, 상기 스마트 디바이스(100)가 흔들릴 수 있다. 이때, OIS 구동부(240)는 촬영 중 스마트 디바이스(100) 흔들림에 대응되어 영상이 자동 보정되도록 상기 모듈 조립체를 진동할 수 있다. 상기 진동은 이동 단말기가 흔들리는 방향의 반대 방향으로 발생할 수 있다.
도 3a 및 도 3b는 카메라 모듈에 포함되는 AF 모듈을 보여주는 분해사시도들(exploded perspective views) 및 사시도이며, 도 3c는 도 3a 및 도 3b에 도시된 부품들이 서로 결합된 AF 모듈을 보여주는 사시도이다. 이들 도면들을 참조하여, AF 모듈(220)이 다음에서 보다 상세하게 설명된다.
제 1 렌즈군(221)은 복수의 렌즈를 구비하고, 제 1 렌즈 경통(barrel)을 통해 일체로 형성될 수 있다. 상기 복수의 렌즈는 피사체로부터 들어오는 빛의 포커스를 맞추도록 구성될 수 있다.
제 2 렌즈군(223)은 복수의 렌즈를 구비하고, 제2 렌즈 경통(barrel)을 통해 일체로 형성될 수 있다. 상기 복수의 렌즈는 제1 렌즈군(221) 및 조리개(225)를 통과한 빛을 보상하도록 구성될 수 있다.
조리개(225)는 제 1 렌즈군(221)과 제 2 렌즈군(223) 사이에 배치되어, 광학계로 입사되는 빛의 양을 조절할 수 있다. 상기 조리개(225)의 제 1 면(225a)에는 제1 개구부(opening)가 마련되어, 제1 렌즈군(221)이 제 1 개구부로 삽입될 수 있다. 상기 제 1 개구부는 제 1 렌즈군(221)의 직경과 같거나 조금 더 크게 형성될 수 있다. 또한, 상기 제 1 개구부는 제 1 렌즈 경통과 단단히 결합하기 위한 형상을 구비할 수 있다. 상기 조리개(225)의 제 2 면(225b)에는 제 2 개구부가 마련되어, 제 2 렌즈군(223)이 제 2 개구부로 삽입될 수 있다. 상기 제 2 개구부는 제 2 렌즈군(223)의 직경과 같거나 조금 더 크게 형성될 수 있다. 또한, 상기 제 2 개구부는 제 2 렌즈 경통과 단단히 결합하기 위한 형상을 구비할 수 있다. 이와 같이, 제 1 렌즈군(221) 및 제 2 렌즈군(223)이 조리개(225)의 내부로 삽입되어 일체형 구조를 갖는 조리개 모듈(226)을 형성할 수 있다.
AF 구동기(227)는 프레임(227a) 및 이동 소자(227b)를 포함할 수 있다. 프레임(227a)은 조리개 모듈(226)을 수용하도록 사각형 또는 기타 다양한 모양으로 형성될 수 있다. 이동 소자(227b)는 조리개 모듈(226)의 하부면(225b)과 만나는 프레임(227a) 상에 배치될 수 있다. 또한, 조리개 모듈(226)과 이동 소자(227b) 사이에 별도의 이동 부재(미도시)가 추가로 배치될 수 있다.
이러한 AF 구동기(227)의 프레임(227a) 내에 조리개 모듈(226)이 삽입되어 도 3c와 같은 AF 모듈(220)을 형성한다. 즉, AF 모듈(220)은 제 1 렌즈군(221), 제 2 렌즈군(223), 조리개(225) 및 AF 구동기(227)들이 일체로 결합되는 일체형 구조를 갖는다. 한편, 앞서 설명되고 도시된 예에서는 AF 모듈의 조리개(225)가 제1 렌즈군(221)과 제2 렌즈군(223) 사이에 배치되나 제 1 렌즈군(221) 바로 앞에 배치될 수도 있다. 다른 한편, 앞서 설명된 것과는 다르게, 카메라 모듈(200)은 보다 컴팩트한 구조를 갖기 위해 제 1 렌즈군(221)없이 조리개(225)와 이미지 센서(233)사이에 배치되는 단일의 렌즈 또는 렌즈군(즉, 도면상 제 2 렌즈군(223))만을 가질 수도 있다. 이러한 경우, 상기 단일의 렌즈군은 상술된 제 1 및 제 2 렌즈군(221,223)의 기능들, 빛의 집중 및 보상을 모두 수행할 수 있도록 구성될 수 있다. 앞서 언급된 두가지의 변형들 둘 다에 있어서, 조리개(225)는 결과적으로 렌즈들보다 피사체에 가깝게 배치될 수 있으며, 이에 따라 렌즈들 입사되는 빛의 량을 단독으로 제어할 수 있다. 또한, 조리개(225) 자체도 컴팩트한 구조를 위해 제 1 및 제 2 개구부를 포함하지 않을 수도 있다.
이러한 일체형 구조를 갖는 AF 모듈(220)을 스마트 디바이스(100) 내부에 탑재하여 카메라 모듈(200)의 크기를 소형화할 뿐만 아니라, 카메라 모듈(200)의 조립성을 향상시킬 수 있다. 또한, 이러한 AF 모듈(220)은 AF 구동기(227)를 이용하여 조리개 모듈(226)을 중심축 방향으로 이동하면서 자동 초점 기능을 수행할 수 있다. 즉, 제1 렌즈군(221), 조리개(225) 및 제2 렌즈군(223)이 중심축방향으로 동시에 이동하면서 AF 기능을 수행하는 구조이다. 좀 더 구체적으로 설명하면, AF 구동기(227)의 이동 소자(227b)는, AF 동작 시, AF 구동기(227)로 인가되는 전압에 따라 자신의 두께를 변화하여 조리개 모듈(226)을 중심축 방향으로 이동할 수 있다. 한편, 다른 실시 예로, 이동 소자(227b)는 AF 구동기(227)로 인가되는 전압에 따라 자신의 두께를 변화하여 개재된 이동 부재를 움직이고, 상기 이동 부재의 움직임을 통해 조리개 모듈(226)을 중심축 방향으로 이동할 수도 있다.
도 4a 및 도 4b는 카메라 모듈에 포함되는 OIS 모듈을 보여주는 분해 사시도 및 사시도이며, 도 5a 및 도 5b는 OIS 모듈의 작동을 보여주는 사시도 및 개략도이다. 이들 도면을 참조하여 OIS 모듈이 다음에서 보다 상세하게 설명된다.
도 4a 및 도 4b를 참조하면, OIS 구동기(240)는 프레임(241) 및 자성 소자(미도시)를 포함할 수 있다. 프레임(241)은 AF 모듈(220)과 센서 모듈(230)이 결합된 모듈 조립체(260)를 수용하도록 사각형 또는 기타 다양한 모양으로 형성될 수 있다. 또한, 프레임(241)은 단말기 내부에 배치되는 인쇄회로기판(미도시)과 결합된다. 자성 소자는 모듈 조립체(260)와 만나는 프레임(241)의 일부영역상에 배치될 수 있다. 또한, 모듈 조립체(260)와 자성 소자 사이에 별도의 이동 부재(미도시)가 추가로 배치될 수 있다. 이러한 OIS 구동기(240)의 프레임(241) 내에 모듈 조립체(260)가 탑재되어 OIS 모듈(270)을 형성한다.
도 5a 및 도 5b를 참조하면, OIS 모듈(270)은 OIS 구동기(240)를 이용하여 모듈 조립체(260)를 상기 조립체(260)이 배치되는 평면내에 설정되는 X축 및/또는 Y축 방향으로 동시에 이동하면서 손떨림 보정 기능을 수행할 수 있다. 즉, 렌즈 조립체와 이미지 센서가 동시에 이동하면서 손떨림 보정 기능을 수행하는 구조이다.스마트 디바이스(100)의 내부에 배치되는 흔들림을 감지하는 센서(미도시)에 의해 스마트 디바이스(100)의 흔들림이 감지되고, 상기 센서로부터 정보를 전달 받아 상기 OIS 구동기(240)에 전류가 인가되어, 상기 스마트 디바이스(100)의 흔들림이 보상되도록 한다.
자성 소자는 OIS 구동기(240)로 인가되는 전류의 방향 및 세기에 따라 자기장(magnetic field)을 변화하여 모듈 조립체(260)을 X축 및/또는 Y축 방향으로 이동할 수 있다. 한편, 다른 실시 예로, 자성 소자는 OIS 구동기(240)로 인가되는 전류의 방향 및 세기에 따라 자기장을 변화하여 이동 부재를 움직이고, 상기 이동 부재의 움직임을 통해 모듈 조립체(260)을 X축 및/또는 Y축 방향으로 이동할 수도 있다. 카메라 모듈(200)은 일반적으로 렌즈 조립체만이 이동되는 렌즈 쉬프트 방식(lens shift method)을 이용하여 손떨림 보정 기능을 수행할 수 있다. 더 나아가 본 출원에서 카메라 모듈(200)은 도 5b에 도시된 바와 같이, 렌즈 조립체 및 이미지 센서가 동시에 이동되는 모듈 틸트 방식(module tilt method)을 이용하여 손떨림 보정 기능을 수행할 수 있다.
상술된 바와 같이, 제1 렌즈군(221), 제2 렌즈군(223), 조리개(225) 및 AF 구동기(227)를 포하여 모든 구성요소들이 하나의 모듈로 형성되므로, 카메라 모듈(200)이 보다 작아지고 보다 쉽게 디바이스(100)에 설치될 수 있다.
한편, 앞서 간략하게 설명된 바와 같이, 카메라 모듈(200)에서 이미지는 기본적으로 렌즈(221,223)와 센서(233)사이의 상호작용(interaction)에 의해 획득될 수 있다. 추가적으로 카메라 모듈(200)은 렌즈(221,223)과 센서(233)의 작동을 보조하기 위해 조리개(225)를 포함할 수 있다. 이와 관련하여, 도 6은 조리개, 렌즈 및 센서의 기능 및 작동을 보여주는 개략도이다. 도 6에서, 설명의 편의를 위해 조리개(225)는 조리개(I)로, 센서(233)은 센서(S)로, 렌즈(221,223)은 렌즈(L)로 표시된다. 또한, 도 6은 앞서 설명된 예와는 다르게, 조리개(I)가 피사체에 가장 가깝게 배치되며, 렌즈(L)가 조리개(I)와 센서(S)사이에 배치되는 가장 전형적인 예를 보여준다. 따라서, 다음에서 본원에 따른 디바이스(100)의 구조 및 이의 제어방법은 이러한 배치에 기초하여 설명된다. 그러나 본원의 디바이스(100) 및 제어방법에는 앞서 도 2a-도 5b를 참조하여 설명된 배치도 적용될 수 있다. 또한, 편의를 위해 뒤따르는 설명에서 복수개의 렌즈(221,223)은 단순하게 렌즈(L)로만 표현된다. 도 6을 참조하여, 조리개(I), 렌즈(L) 및 센서(S)사이의 관계가 다음에서 먼저 설명된다.
렌즈(L)는 피사체로부터 입사되는 빛을 어느 한 지점(spot)(P)으로 집중시킬 수 있다. 따라서, 상대적으로 작은 크기를 갖는 센서(S)는 집중된(focused) 지점(P)내에 포함된 피사체의 광학적 정보를 전기적 신호로 변경할 수 있다. 그러나, 렌즈(L)는 입사되는 빛만을 집중하므로, 센서(S)에 도달되는 빛의 량은 렌즈(L)에 의해서 적절하게 조절될 수 없다. 즉, 피사체 주변의 밝기가 렌즈(L)에 입사되는 빛의 량을 직접적으로 결정하며, 렌즈(L)에 입사되는 빛의 량은 센서(S)에 도달되는 빛의 량을 직접적으로 결정할 수 있다. 따라서, 센서(S)에 도달되는 빛의 량은 피사체주변의 밝기에 의해 변화되며, 상기 센서(S)에서 얻어지는 이미지의 밝기도 상기 피사체 주변의 밝기에 따라 변화될 수 있다. 이미지의 밝기는 이미지의 품질에 가장 큰 영향을 미치므로, 단순한 센서(S) 및 렌즈(L)의 조합은 획득되는 이미지의 품질을 적절하게 조절할 수 없다. 이러한 이유로, 조리개(I)는 카메라 모듈(200)에서 렌즈(L)에 입사되는 빛의 량을 조절하도록 구성(configured)될 수 있다. 보다 상세하게는, 조리개(I)는 빛을 통과시키는 개구부(aperture)(A)를 가지며, 상기 개구부(A)의 크기를 조절함으로써 통과되는 빛의 량, 즉 입사되는 빛의 량을 조절할 수 있다. 예를 들어, 개구부(A)는 서로 다른 크기, 즉 서로 다른 직경들(E1,E2,E3)를 갖는 개구부들(A1,A2,A3)중 어느 하나로 조절될 수 있다. 따라서, 실제적으로 입사되는 빛의 직경에 해당하는 렌즈(L)의 유효직경(e)도 상기 직경(E1,E2,E3)중 어느 하나에 따라 서로 다른 유효직경들(e1,e2,e3)중 어느 하나로 조절되며, 결과적으로 렌즈(L)에 입사되는 빛의 량도 조절될 수 있다. 따라서, 어두운 배경에 있는 피사체의 이미지를 얻는 경우, 조리개(I)는 개구부(A)를 상대적으로 큰 직경(E3)의 개구부(A3)로 증가시킬 수 있으며, 이에 따라 보다 밝은 이미지를 얻을 수 있으며, 지나치게 밝은 배경에 있는 피사체의 경우, 조리개(I)는 개구부(A)를 상대적으로 작은 직경(A1)의 개구부(A1)로 감소시킬 수 있으며, 이에 따라 적절한 밝기의 이미지를 얻을 수 있다. 더 나아가, 조리개(I)는 동일한 화각(angle of field)에 대해 심도(depth of field)를 조절할 수 있다. 예를 들어, 조리개(I)의 개구부(A)가 개구부(A3)로 축소되면, 심도는 깊어지며(great), 획득된 이미지에서 피사체 뿐만 아니라 이의 배경도 선명해질 수 있다. 반면, 조리개(I)의 개구부(A)가 개구부(A1)으로 확대되면, 심도는 얕아지며(shallow), 획득된 이미지에서 피사체는 선명하나 배경은 흐려질 수 있다. 즉, 조리개(I)에서 개구부(A)의 크기 조절에 의해 피사체의 배경의 선명도가 조절될 수 있다. 따라서, 조리개(I)는 카메라 모듈(200)에서 획득되는 이미지의 품질을 향상시키는데 핵심적인 부품이 될 수 있다.
그러나, 도시된 바와 같이, 통상적인 조리개(L)는 개구부(A)의 크기를 조절하기 위해 다수개의 블레이드들(B)의 어셈블리로 이루어질 수 있다. 이러한 기계적인 조리개(L)는 따라서 큰 크기를 가지며, 작은 크기가 요구되는 카메라 모듈(200) 및 스마트 디바이스(100)에 적합하지 않다. 따라서, 본 출원에서 카메라 모듈(200)은 보다 단순하고 컴팩트한 구조를 갖도록 개선된 조리개(I)를 포함한다.
도 7a 및 도 7b는 본 출원에 따른 조리개의 일 예의 정면 및 배면을 각각 보여주는 평면도들이며, 도 8a 및 도 8b는 도 7a 및 도 7b에 도시된 조리개의 변형례의 정면 및 배면을 각각 보여주는 평면도들이다. 또한, 도 9a 및 도 6b는 본 출원에 따른 조리개의 일 예의 정면 및 배면을 각각 보여주는 평면도들이며, 도 10a 및 도 10b는 본 출원에 따른 조리개의 일 예의 정면 및 배면을 각각 보여주는 평면도들이다. 이들 도면들을 참조하여, 개선된 조리개(300)가 다음에서 상세하게 설명된다.
도 7a-도 10b에서 도시되는 바와 같이, 조리개(300)는 소정의 두께를 갖는 박막(film)(310)을 포함할 수 있다. 박막(310)은 빛을 통과시키는 개구부(350)를 형성할 수 있으며, 상기 개구부(350)의 크기를 조절할 수 있다. 즉, 이러한 박막(310)을 포함함으로써 조리개(300)는 상기 개구부(350)의 크기를 조절하도록 실질적으로 구성될 수 있다. 렌즈에 입사되는 빛의 량을 조절하기 위해 개구부(350)의 크기가 조절되므로, 박막(310)은 서로 다른 크기들을 갖는 개구부들(351-354)을 실제적으로 형성할 수 있다. 즉, 조리개(300)는 상기 박막(310)에서 서로 다른 크기들을 갖는 개구부들을 형성하도록 구성될 수 있다. 이와 같이, 박막(310)은 조리개(300)의 대부분의 주요 기능들을 수행하므로, 박막(310)의 특징들은 모두 조리개(300)의 특징들로 간주될 수 있다. 따라서, 본원의 상세한 설명내의 박막(310)의 특징들은 모두 조리개(300)의 특징들로도 설명될 수 있다고 이해되어야 한다. 유사하게, 만일 어떤 특징이 조리개(300)의 특징으로 설명된다 하더라도 박막(310)과 관련된다면, 박막(310)의 특징으로도 설명될 수 있다.
보다 상세하게는, 상기 박막(310)의 개구부(350)의 크기는 다양한 방법에 의해 조절될 수 있으나, 본 출원에서 조리개(300)는 개구부(350)의 크기를 조절하기 위해 박막(310)의 투명도를 부분적으로 조절할 수 있다. 예를 들어, 조리개(300)이 박막(310)의 일부를 투명하게 만들고 나머지 부분들을 불투명하게 만들면, 투명한 부위는 빛을 통과시키는 개구부(350)를 형성할 수 있다. 또한, 투명한 부위를 확장 및 축소시킴으로써 개구부(350)의 크기를 조절할 수 있다. 더 나아가, 박막(310)의 투명도는 여러가지 방법에 의해 조절될 수 있다. 본 출원에서는 여러 방법들중에서 조리개(300)는 박막(310)의 투명도를 조절하기 위해 상기 박막(310)의 색상을 전기 또는 전하(electric charge)에 의해 부분적으로 변화시킬 수 있다. 즉, 박막(310)의 일부의 색상이 투명도를 조절하도록 전기에 의해 가역적으로 변화될 수 있다. 보다 상세하게는, 이와 같은 변색을 위해 박막(310)은 전기변색재료(electrochromic material)로 만들어질 수 있다. 전기변색재료는 전압이 이에 인가되면, 투명한 상태에서 불투명한 상태로 전환될 수 있으며, 전압이 인가되지 않으면 투명한 상태로 전환된다. 다른 한편, 전기변색재로는 전압이 이에 인가될 때, 불투명한 상태에서 투명한 상태로 전환될 수 있다. 이와 같은 전기변색재료는 대표적으로 PEDOT(Poly(3,4-ethylenedioxythiophene))으로 이루어질 수 있다. 또한, 전기변색재료는 LiCF3SO3 으로 이루어질 수도 있다.
만일 박막(310)이 전기변색재료로 만들어진 단일의 부재로 이루어지는 경우, 조리개(300)는 연속적으로 박막(310)의 투명도를 변화시킴으로써 원하는 크기들의 개구부(350)를 얻을 수 있다. 즉, 연속적인 투명도 조절에 의해 개구부(350)의 크기를 세밀하게 조절할 수 있다. 그러나, 한편으로 연속적으로 투명도가 변화하도록 전압 인가의 크기 및 전압인가의 부위를 제어하는 것이 실제적으로 어려울 수 있다. 따라서, 조리개(300)는 서로 다른 크기의 개구부들(351-354)을 각각 갖는 다수개의 박막들(311-314)을 포함할 수 있다. 한편, 상기 박막들(311-314)은 실제적으로 박막(310)의 일부에 해당하므로, 상기 박막(310)이 상기 박막들(311-314)를 포함한다고 설명될 수 있다. 같은 이유로, 상기 박막들(311-314)의 특징들은 상기 박막(310) 및 개구부(300)의 특징으로서 간주되고 설명될 수 있다. 이러한 다수개의 박막들(311-314)를 개별적으로 제어함으로써 상기 개구부들(351-354)이 보다 용이하게 형성될 수 있다.
또한, 상기 박막들(311-314)은 서로 다른 크기의 개구부들(351-354)를 포함하고 있으므로, 도시된 바와 같이, 단일의 중심을 공유하도록 동심상(concentric)으로 배치될 수 있다. 이러한 동심상의 배치에 의해 상기 박막들(311-314)는 적은 공간을 차지할 수 있으며, 조리개(300)자체도 컴팩트해질 수 있다. 상기 동심상의 배치는 서로 인접하게 배치되는 적어도 한 쌍의 박막들, 예를 들어, 도 7a의 박막들(312,313)을 포함할 수 있으며, 이들의 관계로부터 보다 잘 이해될 수 있다. 보다 상세하게는, 상기 한쌍의 박막들중 어느 하나의 박막(312)은 상기 어느 하나의 박막(312)의 개구부(352)보다 크게 형성되는 다른 하나의 박막(313)의 개구부(353)내에 배치될 수 있다. 즉, 상기 어느 하나의 박막(312)은 이의 개구부(352)보다 큰 개구부(353)를 갖는 다른 하나의 박막(313)에 의해 감싸질 수 있다.
더 나아가, 다수개의 박막들(311-314)이 단일 층내에 모두 배치되면, 조리개(300)의 두께를 줄일 수 있다. 따라서, 보다 컴팩트한 조리개(300)를 위해서 다수개의 박막들(311-314)은 단일 층(single layer)을 형성할 수 있다. 이러한 배치는 조리개(300)의 박막들(311-314)의 배치를 보여주도록 도 8a의 A-A선을 따라 얻어지는 단면도인 도 11에서 잘 보여진다. 도 11을 참조하면, 다수개의 박막들(311-314)은 실제적으로 동일 평면내에 모두 배치될 수 있다. 이와 같은 동일평면내의 배치로 인해, 박막들(311-314), 즉 박막(310) 자체는 단일의 층으로만 이루어질 수 있다. 또한, 상기 박막(310), 즉 박막들(311-314)은 감소된 두께를 가지므로, 조리개(300)는 이러한 박막들(311-314)을 포함하는 층을 추가적으로 포함할 수 있다. 이와 같은 다수개의 층들은 더 많은 서로 다른 크기의 개구부(350)를 형성할 수 있으므로, 조리개(300)는 개구부(350)의 크기를 보다 세밀하게 조절할 수 있다.
결과적으로, 상기 박막(310) 또는 조리개(300)가 다수개의 박막들(311-314)을 가질 때, 상기 박막들(311-314)은 서로 다른 크기의 개구부들(351-354)을 각각 가지며, 한 개의 층을 형성하면서 동심상으로 동일 평면내에 배치될 수 있다. 비록 도시되지는 않았지만, 이와 같이 구성된 박막들(311-314)사이에는 절연층들이 배치될 수도 있다. 따라서, 상기 절연층에 의해 박막들(311-314)은 서로 전기적으로 절연될 수 있다. 상기 절연층 대신에 상기 박막들(311-314)사이에는 간극(clearance)가 형성될 수 있으며, 전기적 절연은 이러한 간극에 의해서도 제공될 수 있다. 이러한 다수개의 박막들(311-314)의 실제적인 구조는 도 7a-도 10b의 예들을 참조하여 보다 잘 이해될 수 있다. 도 7a-도 10b는 일 예로서 각각 4개의 동심상으로 동일평면내에 배치된 4개의 박막들(311-314)을 포함한다. 또한, 도 7a-도 10b는 모두 불투명한 박막들(311-314)만을 도시한다. 더 나아가, 보다 나은 이해를 위해, 도 13a-도 13d도 다음의 설명에 함께 참조될 수 있다.
도 7a-도 10b에 도시된 실제 예에 있어서, 조리개(300)는 제 1 개구부(351)를 포함하는 제 1 박막(311)과, 제 1 박막(311)을 감싸며 제 2 개구부(352)를 포함하는 제 2 박막(312)를 포함할 수 있다. 상기 제 1 개구부(351)은 소정의 제 1 직경(D1)을 가지며, 상기 제 2 개구부(352)는 상기 제 1 직경(D1)보다 큰 제 2 직경(D2)을 가질 수 있다. 그리고, 제 1 박막(311)은 제 2 개구부(352)내에 배치될 수 있다. 또한, 조리개(300)는 제 2 박막(312)을 감싸며 제 3 개구부(353)를 포함하는 제 3 박막(313)과 상기 제 3 박막(313)을 감싸며 제 4 개구부(354)를 포함하는 제 4 박막(314)를 포함할 수 있다. 상기 제 3 개구부(353)은 상기 제 2 직경(D2)보다 큰 제 3 직경(D3)를 가지며, 상기 제 4 개구부(354)는 상기 제 3 직경(D3)보다 큰 제 4 직경(D4)를 갖는다. 제 2 박막(312)은 제 3 개구부(353)내에 배치될 수 있으며, 제 3 박박(313)은 제 4 개구부(354)내에 배치될 수 있다. 비록 도시된 실제예에서 조리개(300)은 4개의 박막들을 포함하고 있으나, 조리개(300)는 필요한 경우, 4개보다 많거나 적은 갯수의 박막들을 포함할 수 있다.
또한, 상기 다수개의 박막들(311-314)의 작동에 있어서, 조리개(300)는 서로 다른 크기의 개구부들(351-354)을 갖기 위해 상기 박막들(311-314)의 투명도들을 개별적으로 조절하도록 구성될 수 있다. 또한, 상기 박막들(311-314)의 투명도를 조절하기 위해 조리개(300)는 상기 박막들(311-314)의 색상을 전기, 즉 전압 또는 전하에 의해 선택적으로 변화시킬 수 있다. 즉, 박막들(311-314)의 투명도들은 서로 다른 크기의 개구부들(351-354)을 형성하기 위해 개별적으로 조절될 수 있으며, 상기 박막들(311-314)의 색상도 상기 투명도들의 조절을 위해 전기, 즉 전압 또는 전하에 의해 선택적으로 변화될 수 있다. 보다 상세하게는, 조리개(300)는 일정 개구부, 예를 들어, 제 3 개구부(353)를 형성하기 위해, 상기 일정 개구부(353)보다 작은 개구부들(351,352)을 갖는 박막들(311,312)을 투명하게 만들 수 있다. 제 3 개구부(353)를 형성하기 위해 조리개(300)는 또한 상기 일정 개구부, 예를 들어 제 3 개구부(353)를 포함하는 박막(313)과 상기 일정 개구부(353)보다 큰 개구부들(354)을 포함하는 박막(314) 불투명하게 만들 수 있다. 상기 박막들(311,312)을 투명하게 만들기 위해, 앞서 설명된 바와 같이, 상기 박막들(311,312)에는 전압이 인가되지 않을 수 있으며, 상기 박막(313,314)를 불투명하게 만들기 위해 전압이 이들에게 인가될 수 있다. 상기 박막들(311,312)은 상기 일정 개구부, 즉 제 3 개구부(353)내에 배치되므로, 상기 박막들(311,312)를 투명하게 만들면, 상대적으로 불투명한 상기 박막들(313,314)에 의해 제 3 개구부(353)가 렌즈로 빛을 통과시키기 위해 형성될 수 있다.
도 13a-도 13d는 조리개의 실제적인 작동을 보여주는 평면도이며, 이들 도면들을 참조하여 조리개(300)의 작동이 보다 잘 이해될 수 있다.
먼저, 도 13a를 참조하면, 제 1-제 4 박막(311-314) 모두에 전압이 인가되면, 이들 박막들(311-314)은 불투명하게 변할 수 있다. 따라서, 불투명한 박막들(311-314)에 의해 상대적으로 조리개(300) 또는 박막(310)는 제 1 직경(D1)을 갖는 제 1 개구부(351)를 형성할 수 있다. 또한, 도 13b를 참조하면, 제 2-제 4 박막(312-314)는 전압의 인가에 의해 불투명한 반면, 제 1 박막(311)은 전압의 비인가로 인해 투명하게 될 수 있다. 따라서, 불투명한 박막(312-314)에 의해 조리개(300) 또는 박막(310)은 제 2 직경(D2)를 갖는 제 2 개구부(352)를 형성할 수 있다. 도 13c에 도시된 바와 같이, 제 3 및 제 4 박막(313,314)는 전압 인가에 의해 불투명한 반면, 제 1 및 제 2 박막(311,312)은 투명하게 변할 수 있다. 따라서, 불투명한 제 3 및 제 4 박막들(313,314)에 의해 조리개(300) 또는 박막(310)은 제 3 직경(D3)을 갖는 제 3 개구부(353)를 형성할 수 있다. 끝으로, 제 4 박막(314)는 전압인가에 의해 불투명한 반면, 제 1-제 3 박막들(311-313)은 이에 전압이 인가되지 않으므로 투명하게 변한다. 따라서, 불투명한 제 4 박막(314)에 의해 조리개(300) 또는 박막(310)은 제 4 직경(D4)를 갖는 제 4 개구부(354)를 형성할 수 있다. 이러한 실제예의 작동에 나타난 바와 같이, 각각의 박막(311-314) 즉, 박막(310)의 일부들에는 선택적으로 색의 변화들과 투명도의 변화가 발생되며, 이에 따라 서로 다른 개구부들(351-354)이 형성될 수 있다. 결과적으로, 앞서 이미 논의된 바와 같이, 다수개의 박막(311-314)을 포함할 때에도, 조리개(300)는 상기 개구부(350)의 크기를 조절하기 위해 상기 박막(310)의 투명도를 부분적으로 조절하며, 이러한 투명도 조절을 위해 상기 박막(310)의 일부의 색상을 부분적으로 변화시키는 것으로 이해될 수 있다.
앞서 설명된 전체적인 구조 및 작동에 뒤이어, 다음에서는 조리개(300)의 세부적인 특징들이 설명된다. 조리개(300)의 세부적인 특징의 설명을 위해 도 6과 더불어 도 7a-도 10b가 다시 다음에서 참조된다.
도 6에 도시된 바와 같이, 개구부(A)의 형상에 따라 렌즈(L)에 입사되는 빛의 형상이 결정되며, 최종적으로 센서(S)에 도달하는 빛, 즉 지점(spot)(P)도 비록 작은 크기를 가지지만 같은 형상을 가질 수 있다. 도 6의 센서(S)의 부분 확대도에서 나타나는 바와 같이, 집중된 지점(P)의 면적이 센서(S)를 전체적으로 덮을 수 있으면, 센서(S)는 집중된 지점(P)로부터 전기적 신호로서의 이미지를 감지할 수 있다. 따라서, 개구부(A)의 형상은 크게 제한되지 않을 수 있다. 또한, 박막(311-314)의 동심상의 배치로 인해, 개구부(A)의 형상과 박막(311-314)의 형상은 서로 유사할 수 있다. 이러한 이유로, 박막(311-314)의 형상은 개구부(A)의 형상과 마찬가지로 큰 제한 없이 설계될 수 있다.
앞서 설명된 바와 같이, 상기 지점(P)이 센서(S)에 의해 감지될 수 있는 크기를 갖는다면, 개구부(A)는 어떠한 형상도 가질 수 있으며, 그와 같은 형상들중 하나로써 원형 형상을 가질 수 있다. 따라서, 먼저, 도 7a-도 8b에 도시된 바와 같이, 박막들(313-314)은 대체적으로 원형 형상을 가질 수 있다. 따라서, 동심상의 배치, 즉 어느 한 박막의 개구부내에 인접한 다른 박막의 배치에 따라, 원형인 박막들(313-314)로 인해 개구부(351-354)도 대체적으로 원형형상을 가질 수 있다. 또한, 박막들(313-314)는 도 9a 및 도 9b에 도시된 바와 같이, 괄호 형상을 가질수 있다. 이러한 박막들(313-314)에 의해서도 대체적으로 타원형의 개구부(351-354)가 형성될 수 있으며 집중된 지점(focused spot)(P)도 센서(S)에 의해 잘 감지될 수 있다. 또한, 괄호형상의 박막들(313-314)은 서로 두 부분으로 분할되어 있으므로, 도 7a-도 8b의 원형 형상의 하나의 몸체를 포함하는 박막들(313-314)에 비해 형성하기가 용이할 수 있으며, 이에 따라 생산성이 향상될 수 있다. 더 나아가, 도 10a 및 도 10b에 도시된 바와 같이, 조리개(300)는 나선형으로 연장되는 다수개의 박막들(311-314)을 포함할 수 있다. 이러한 도 10a 및 도 10b의 박막들(311-314)은 앞서 설명된 박막들의 전체적인 구조적 특징들을 모두 포함하며, 이의 나선형 형상으로 인해 추가적인 특징들을 포함할 수 있다. 보다 상세하게는, 조리개(300)는 예를 들어, 소정의 제 1 직경(D1)의 개구부(351)를 형성하도록 제 1 끝단(311a)으로부터 제 2 끝단(311b)까지 나선형으로 연장되는 제 1 박막(311)을 가질 수 있다. 또한, 조리개(300)는 상기 제 2 끝단(311b)으로부터 원주방향으로 이격되는 제 1 끝단(312a)으로부터 제 2 끝단(312b)까지 제 1 박막(311)을 감싸면서 나선형으로 연장되며, 상기 제 1 직경(D1)보다 큰 제 2 직경(D2)의 개구부(352)를 형성하는 제 2 박막(312)를 포함할 수 있다. 계속해서, 제 3 및 제 4 박막들(313,314)도 상기 제 2 박막(312)와 같은 방식으로 설명될 수 있다.
조리개(300)는 또한, 상기 박막(310), 또는 박막들(311-314)를 지지하는 기판(substrate)(340)를 포함할 수 있다. 상기 박막(310,311-314)은 상기 기판(340)상에 도포될 수 있다. 상기 기판(340)상에 개구부(350,351-354)가 형성되므로, 이러한 개구부와 마찬가지로 기판(340)도 빛을 통과시킬 수 있어야 한다. 따라서, 기판(340)은 투명한 재질, 예를 들어 유리 또는 투명 플라스틱으로 만들어질 수 있다. 또한, 만일 상기 개구부(350)이외의 조리개(300)의 다른 부분을 통해 빛이 렌즈(L)로 들어가면, 이러한 빛은 개구부(350)를 통해 렌즈(L)로 들어간 빛과 간섭할 수 있으며, 획득되는 이미지의 품질이 저하될 수 있다. 따라서, 조리개(300)는 상기 개구부(350) 이외의 부분을 통해 렌즈로 빛이 들어가는 것을 차단하도록 구성되는 불투명 막(330)를 포함할 수 있다. 불투명막(330)은 상기 박막(350)의 외주부, 보다 정확하게는 최외곽 외주부를 감싸며, 상기 박막(310)과 마찬가지로 기판(340)상에 형성될 수 있다. 또한, 도 7a, 도 8a, 도 9a 및 도 10a에 도시된 바와 같이, 불투명막(330)은 상기 박막(310)의 외주부를 감싸는 링 형상을 가질 수 있다. 이러한 링 형상의 불투명막(330)은 적은 소재를 사용하면서도 효과적으로 빛의 누설(leaking)을 방지할 수 있다. 다른 한편, 도 7b, 도 8b, 도 9b 및 도 10b에 도시된 바와 같이, 불투명막(330)은 박막(350)이 형성된 표면을 제외하고 나머지 기판(340)의 표면 전체에 걸쳐 형성될 수도 있다. 이러한 불투명막(330)은 빛의 누설을 거의 완벽하게 방지할 수 있는 점에서 유리할 수 있다. 개구부(300)는 이러한 도 7a, 도 8a, 도 9a 및 도 10a에 도시된 부분적 불투명박(330) 및 도 7b, 도 8b, 도 9b 및 도 10b에 도시된 완전한 불투명막(330)중 어느 하나를 선택적으로 사용할 수 있다.
앞서 설명된 바와 같이, 박막(310)의 투명도 조절을 위해 전기 변색재료가 사용되며, 상기 전기변색재료는 색상의 변화를 위해 전압의 인가를 요구할 수 있다. 따라서, 조리개(300)는 박막(310)에 전압을 인가하도록 구성되는 전극(320)을 포함할 수 있다. 전압을 인가하기 위해 전극(320)은 외부전원 및 박막(310)에 각각 연결될 수 있다. 또한, 상기 조리개(300)는 앞서 언급된 바와 같이, 다수개의 박막(311-314)들을 포함할 수 있으므로, 상기 조리개(300)는 상기 박막(311-314)에 각각 연결되는 다수개의 전극, 즉 제 1 - 제 4 전극들(321-324)을 포함할 수 있다. 따라서, 이들 전극들(321-324)을 사용하여 조리개(300)는 박막(311-314)의 투명도들을 개별적으로 제어할 수 있다.
또한, 상기 전극들(321-324)은 동심상으로 배치되어 있으며, 이에 따라 인접한 두개의 박막중 상대적으로 안쪽에 배치되는 박막을 상대적으로 바깥쪽에 배치되는 박막이 감싸게 된다. 만일 각각의 박막들(311-314)이 연속적으로 형성되는 몸체를 가지면, 상기 안쪽에 배치된 박막, 예를 들어 제 1 박막(311)에 연결되는 전극, 예를 들어 제 1 전극(321)은 외부전원과 연결되기 위해서는 제 1 박막(311)을 감싸는 제 2-제 4 박막들(312-314)과 연결될 수 있다. 따라서, 제 1 전극(321)을 통해 전압이 인가되는 경우, 제 2-제 4 박막(312-314)에도 전압이 인가되어 조리개(300)가 잘못 작동될 수 있다. 이러한 이유로, 도 7a-도 10b에 도시된 바와 같이, 상기 각각의 박막들(311-314)은 적어도 하나의 지점에서 불연속적으로 된다. 즉, 상기 각각의 박막들(311-314)은 적어도 한 지점에서 끊어지며, 이에 따라 상기 적어도 한 지점에서 간극(clearance)을 형성하도록 개방될 수 있다. 따라서, 이와 같이 형성된 간극을 통해 전극들(321-324)은 해당하는 박막(311-314)에 도달할 수 있으며, 전압의 인가를 위해 각각 연결될 수 있다. 보다 상세하게는, 도 7a 및 도 7b에 도시된 바와 같이, 전극들(321-324)은 서로 동일평면상에 배치될 수 있으며, 또한, 박막들(311-314)과도 동일평면상에 배치될 수 있다. 또한, 도시된 바와 같이 서로 전기적으로 간섭하기 않도록 동일 평면내의 전극들(321-324)은 서로 소정간격으로 이격될 수 있다. 도 9a 및 도 9b에 도시된 바와 같이, 각각의 괄호형상의 박막들(311-314)은 두 부분으로 나뉘어져 있으므로, 상기 두 부분들에 전극들(321-324)이 각각 연결될 수 있다. 예를 들어, 제 4 박막(314)의 경우, 이의 두부분들에 제 4 전극들(324)이 각각 연결될 수 있다. 또한, 앞서 설명된 도 7a 및 도 7b의 전극들과 마찬가지로 도 9a 및 도 9b의 전극들(321-324)도 서로 소정간격으로 이격되며, 동일 평면상에 배치될 수 있다.
앞서 설명된 동일 평면내의 전극들(321-324)은 조리개(300)를 컴팩트하게 유지시키면서 박막들(311-314)에 전압을 인가할 수 있다. 그러나, 도 7a 및 도 7b에 도시된 바와 같이, 박막들(311-314)과 동일 평면내에 다수개의 전극들(321-324)을 배치하기 위해 큰 간극이 요구되며, 이에 따라 개구부(350)의 형상이 비원형 형상에 가까워지고 빛의 누출도 발생할 가능성도 있다. 따라서, 도 8a, 도 8b, 도 10a 및 도 10b에 도시된 바와 같이, 상기 전극들(321-324)은 순차적으로 적층될 수 있다. 이러한 적층된 전극들(321-324)은 도 8a의 전극을 따라, 즉 B-B선을 따라 얻어진 단면도인 도 12에서 보다 잘 보여진다. 도시된 바와 같이, 제 3 전극(323)이 제 4 전극(324) 상에, 제 2 전극(322)이 제 3 전극(323) 상에, 그리고 제 1 전극(321)이 제 2 전극(322) 상에 적층될 수 있다. 이러한 적층된 전극들(321-324)은 많은 공간을 차지하지 않으므로, 박막들(311-314)에 형성되는 간극도 줄여질 수 있다. 따라서, 개구부(350)의 형상이 원형 형상을 가지게 되고 빛의 누출도 방지될 수 있다. 또한, 비록 도시되지는 않았지만 상기 적층된 전극들(321-324)사이에는 절연층이 배치될 수도 있다. 예를 들어, 절연층들이 제 1 및 제 2 전극들(321,322)사이에, 제 2 및 제 3 전극들(322,323)사이에, 그리고 제 3 및 제 4 전극들(323,324)사이에 배치될 수 있다. 따라서, 전기적 간섭이 발생한다 하더라도, 상기 절연층은 그와 같은 전기전 간섭을 전극들(321-324)로부터 확실하게 배제할 수 있다.
한편, 앞서 설명된 바와 같이, 조리개(300)는 획득되는 이미지의 품질을 결정하는 카메라 모듈(200)의 특성(property)들에 영향을 줄 수 있다. 조리개(300)는 이러한 특성들을 고려하여 세부적으로 설계될 수 있으며, 이에 따라 카메라 모듈(200)은 보다 좋은 품질의 이미지를 얻을 수 있다. 따라서, 다음에서는 조리개(300)의 실제적인 설계에 있어서 중요한 특성들의 값들과 상기 특성값들에 의해 결정되는 조리개(300)의 설계치수(dimension)가 보다 상세하게 설명된다.
먼저, 도 6를 참조하여 설명된 바와 같이, 렌즈(L)는 조리개(300)를 통해 입사된 빛을 하나의 지점(spot)(P)로 집중시키며, 지점(P)로부터 센서(S)가 이미지를 전기적 신호로서 획득할 수 있다. 이러한 광학계의 작동에 있어서, 조리개(300)의 개구부(A)의 직경(E)은 렌즈(L)에 입사되는 빛의 량, 즉 이의 유효직경(e)을 결정할 수 있다. 또한, 지점(P)은 도시된 바와 같이 센서(S)에서 적절한 전기적 신호를 획득하도록 센서(S)와 오버랩되는 크기를 가져야 한다. 센서(S)는 일반적으로 직사각형상을 가지고 있으므로, 지점(P)는 적어도 상기 센서(S)의 대각길이(d)에 해당하는 직경을 가질 필요가 있다. 따라서, 개구부 및 렌즈의 직경들(E,e)와 대각길이(d)는 긴밀한 연관관계를 가질 수 있다. 이러한 이유로, 상술된 광학계의 상호관계를 고려할 때, 개구부(A)의 직경(E)과 센서(S)의 대각길이의 비는 카메라 모듈(200)의 설계에 가장 기초적인 특성이 될 수 있다. 또한, 카메라 모듈(200)에서 렌즈(L)는 렌즈(L)의 밝기를 나타내는 특성으로서 F 값(F-number)를 가질 수 있다. F값(N)은 렌즈(L)의 초점 거리가 f이고, 렌즈(L)의 유효직경이 e 일 때 N = f/e로 주어진다. 또한, F값(N)은 실제적으로 fN 또는 f/N (여기서, N은 F값)으로 표시될 수 있다. 일반적인 카메라 모듈(200)에서 렌즈(L)의 초점거리(f)는 고정되므로, F 값은 유효직경(e)에 의해 결정될 수 있다. 또한, 상기 유효직경(e)은 조리개(300)의 개구부(A)의 직경(E)과 같으므로, 최종적으로 F 값은 상기 직경(E)에 반비례 할 수 있다. 즉, 개구부(A)의 크기가 증가되면, F 값은 작아지며 심도는 얕아지고, 개구부(A)의 크기가 감소되면 F 값은 증가되고 심도도 증가될 수 있다. 이와 같은 F 값은 획득되는 이미지의 밝기에 직접적으로 영향을 미치므로, 마찬가지로 조리개(300)에 있어서 중요한 특성이 될 수 있다.
보다 상세하게는, 상기 비율과 F값은 각각 개구부(A)의 직경(E)를 변수로 포함하고 있다. 따라서, 상기 비율과 F값은 상호 연관성을 가지며 설계시에 함께 고려될 수 있다. 즉, 조리개(300)의 설계시에 이들의 값은 함께 결정될 수 있다. 예를 들어, 도 13a에 도시된 바와 같이, 제 1 개구부(351)에 대해, F값(N)은 f3.5 로 설정될 수 있다. 또한, 제 1 개구부(351)에 대해, 상기 개구부의 직경(E)과 센서 대각 길이(d)의 비율(Ka/Ks)은 0.05 < |Ka/Ks| < 0.09 의 범위를 가질 수 있으며, 여기서 Ka: 상기 개구부(A)의 직경(E)이며, Ks: 상기 렌즈(L)를 통과한 빛의 광학적 정보를 전기적 정보를 변환하는 센서(S)의 대각선 길이(d)가 될 수 있다. 또한, 도 13b에 도시된 바와 같이, 제 2 개구부(352)에 대해 F값(N)은 f2.8로 설명될 수 있으며, 비율(Ka/Ks)은 0.05 < |Ka/Ks| < 0.1의 범위를 가질 수 있다. 도 13c에 도시된 바와 같이, 제 3 개구부(353)에 대해, F값(N)은 f1.8로 설정될 수 있으며, 비율(Ka/Ks)은 0.1 < |Ka/Ks| < 0.16의 범위를 가질 수 있다. 끝으로, 도 13d에 도시된 바와 같이, 제 4 개구부(354)에 대해 F값(N)은 f1.4로 설정될 수 있으며, 비율(Ka/Ks)은 0.14 < |Ka/Ks| < 0.2의 범위를 가질 수 있다. 이러한 특성값들을 고려할 때, 비율(Ka/Ks)은 0.05 < |Ka/Ks| < 0.2 의 범위를 가질 수 있으며, F값(N)은 1.4 - 3.5의 범위를 가질 수 있다. 따라서, 필요에 따라 상술된 범위에 포함되는 적절한 비율(Ka/Ks) 및 F값(N)의 값들이 선택되어 조리개(300) 및 카메라 모듈(200)의 설계에 적용될 수 있으며, 이러한 설계에 따라 카메라 모듈(200)에서 획득되는 이미지는 원하는 품질을 가질 수 있다.
또한, 상기 특성값들의 범위로부터 상기 조리개(300)의 실제적인 치수도 설계될 수 있다. 통상적으로 3가지 크기를 갖는 센서들(S)이 카메라 모듈(200)에 적용될 수 있다. 보다 상세하게는, 13 메가픽셀의 센서(S)는 5.867mm의 대각길이(Ks,d)를 가지며, 16 메가픽셀의 센서(S)는 6.864mm의 대각길이(Ks,d)를 가지며, 끝으로 21메가픽셀의 센서(S)는 7.870mm의 대각길이(Ks,d)를 가질 수 있다. 실제적인 대각길이(Ks)가 주어졌으므로, 각각의 개구부들에 대한 비율(Ka/Ks)의 값으로부터 실제적인 개구부의 직경(Ka,E)이 얻어질 수 있다. 또한, 도시된 바와 같이, 동심상의 배열로 인해, 박막들(311-314)은 실제적으로 소정형상의 개구부를 형성하도록 배치된 스트립(strip)으로 이루어진다. 따라서, 개구부(351-354)들을 형성하는 내주부들(inner circumferences)과 상기 내주부로부터 이격되는 외주부들(outer circumferences)사이에 소정의 거리들이 존재하며 이러한 거리들은 도 13a-도 13d에 도시된 바와 같이, 실제적으로 박막(311-314)의 폭, 즉 제 1-제 4 폭(T1-T4)에 해당될 수 있다. 이와 같은 폭들(T1-T4)도 직경(E,Ka), 즉 도 13a-도13d의 직경(D1-D4)와 마찬가지로 중요한 조리개(300)의 치수가 될 수 있으며, 박막들(311-314)의 동심상의 배치를 고려할 때, 직경(D1-D4)로부터 상대적으로 구해질 수 있다.
예를 들어, 도 13a에 도시된 바와 같이, 제 1 개구부(351)에 대해, 제 1 직경(D1)은 0.46mm-0.49mm, 제 1 폭(T1)은 0.001mm-0.07mm 로 설정될 수 있다. 또한, 도 13b에 도시된 바와 같이, 제 2 개구부(352)에 대해, 제 2 직경(D2)은 0.58mm-0.61mm, 제 2 폭(T2)은 0.001mm-0.27mm 로 설정될 수 있다. 도 13c에 도시된 바와 같이, 제 3 개구부(353)에 대해, 제 3 직경(D3)은 0.9mm-0.91mm, 제 3 폭(T3)은 0.001mm-0.22mm 로 설정될 수 있다. 끝으로, 도 13d에 도시된 바와 같이, 제 4 직경(D1)은 1.15mm-1.17mm, 제 4 폭(T1)은 0.001mm-0.25mm 로 설정될 수 있다. 이러한 실제 치수값들을 고려할 때, 개구부(350)의 직경(D)은 0.46mm-1.17mm의 범위를 가질 수 있으며, 폭(T)는 0.001mm-0.27mm의 범위를 가질 수 있다. 따라서, 필요에 따라 상기 범위에 포함되는 적절한 치수 값들이 선택되어 조리개(300) 및 카메라 모듈(200)의 설계에 적용될 수 있으며, 이러한 설계에 따라 카메라 모듈(200)에서 획득되는 이미지는 원하는 품질을 가질 수 있다.
앞서 주어진 설명 및 도면들을 고려할 때, 조리개(300)는 전기변색재료를 이용한 박막(310)의 투명도 조절에 의해 개구부(350)의 크기를 빠르고 정확하게 조절할 수 있다. 따라서, 조리개(300)는 이미지의 획득 환경의 변화에 대한 높은 응답성을 가질 수 있다. 또한, 조리개(300)는 개구부(350)의 조절을 단일 층으로 이루어진 박막(310)만을 이용하여 수행하므로, 컴팩트한 크기를 가질 수 있다. 따라서, 이러한 컴팩트한 조리개(300)에 의해 카메라 모듈(200)은 컴팩트해질 수 있으며, 더 나아가 스마트 디바이스(300) 자체도 컴팩트해 질 수 있다.
한편, 향상된 기능과 컴팩트 한 구조를 갖는 카메라 모듈을 제공하는 것은 앞서 설명된 조리개(100)에 의해 일차적으로 달성될 수 있으나, 추가적인 기술적 목적, 즉 획득되는 이미지의 품질향상이 보다 구체적으로 달성되기 위해서는 조리개(300)의 구조 및 특성을 고려한 적절한 제어에 뒷받침될 필요가 있다. 또한, 스마트 디바이스(100)는 기능을 구현함에 있어서 사용자와의 상호작용을 기본적으로 수반한다. 따라서, 사용자의 사용환경 및 인터페이스(user environment and user interface)를 포함하는 다양한 제어의 최적화를 통해, 상술된 기술적 목적이 보다 효과적이고 효율적으로 달성될 수 있으며, 더 나아가 사용의 용이함 및 편리함등과 같은 스마트 디바이스(100)에 대한 사용자의 경험(user experience)도 함께 현저하게 향상될 수 있다. 이와 같은 이유로, 도 1-도 13에 따른 스마트 디바이스(100)에 대한 제어방법이 개발되었으며, 다음에서 도 1-도 13에 추가적으로 관련된 도면들을 참조하여 설명된다. 특별히 반대되는 설명이 없는 한 도 1-도 13 및 이에 대한 설명들은 다음의 제어방법의 설명 및 도면들에 기본적으로 포함되고 참조된다.
도 14는 본 출원에서 설명되는 제어방법과 관련되는 스마트 디바이스의 일부 구성(partial configuration)을 나타내는 블록도이며, 도 15는 본 출원에서 설명되는 스마트 디바이스의 제어방법을 보여주는 순서도이다. 도 14는 도 15의 제어방법을 실제적으로 수행하도록 설계된 스마트 디바이스(100)의 구성들을 보다 상세하게 도시한다. 따라서, 도 14의 구성들은 제어방법 설명의 편의를 위해 편집된 것이며, 앞서 설명된 도 1의 구성의 일부에 해당한다.
도 14를 참조하면, 스마트 디바이스(100)는 본 출원의 제어방법의 수행을위해 카메라 모듈(200)을 포함할 수 있다. 이러한 카메라 모듈(200)은 앞서 상세하게 설명되었으므로, 다음에서 이에 대한 설명은 생략된다. 또한, 스마트 디바이스(100)는 외부 이미지 센서(144)와 자이로 및 가속도 센서(143)을 포함할 수 있다. 이미지 센서(144)는 카메라 모듈(200)내의 이미지 센서(233)에 추가적으로 제공되는 센서이다. 상기 센서(144)는 피사체에 대한 고해상도 이미지를 획득할 수 있으며, 다양한 용도로 사용될 수 있다. 예를 들어, 얻어진 고해상도 이미지에 대한 영상분석을 통해 피사체의 모션검출이나 증강현실이 제공될 수 있다. 상기 센서(143)은 스마트 디바이스(100)의 내부에 설치되며, 중력 및 가속도의 변화를 감지함으로써 스마트 디바이스(100) 자체의 움직임을 감지할 수 있다
또한, 스마트 디바이스(100)은 제어부(180)로서 프로세서를 포함할 수 있다. 이러한 프로세서는 제어부(180)에 포함되는 다양한 프로세서중 하나에 해당되며, 이미지 처리에 특화될 수 있다. 예를 들어, 상기 프로세서(180)는 AP(Application Processor) 또는 DSP(Digital Signal Processor)가 될 수 있다. 상기 프로세서(180)는 카메라 모듈(200)과 프로세서(180)를 연결시켜주는 인터페이스 모듈(180a)를 포함할 수 있다. 상기 프로세서의 ISP(Image Signal Pipeline) 모듈(180b)은 획득된 로 이미지(raw image)에 대한 다양한 처리를 수행할 수 있다. 예를 들어, ISP 모듈(180b)는 3A 코어 모듈(180c)를 포함할 수 있으며, 상기 모듈(180c)는 획득된 이미지에 대한 AE(Auto Exposure), AWB(Auto White Balance), 및 AF(Auto Focus)를 수행할 수 있다. 광원검출모듈(180d)는 외부의 이미지 센서(144)로부터 획득되는 전기적 신호를 이용하여 광원의 종류를 판단할 수 있다. 또한, 움직임 검출모듈(180e)는 외부 센서(143)으로부터 획득되는 신호를 이용하여 디바이스(100)의 움직임을 검출할 수 있다. 이들 광원검출 및 움직임 검출모듈(180d,180e)의 작동은 나중에 보다 상세하게 설명된다. 후처리 모듈(180f)은 ISP 모듈(180b,c)에서 처리된 이미지에 대한 추가적인 처리를 수행하며, 예를 들어, 획득된 이미지의 흔들림을 보정할 수 있다. 플리커(flicker) 제거모듈(181)은 후술되는 바와 같이 획득되는 이미지 또는 비디오에 발생되는 훼이딩(fading)을 제거하도록 구성된다. 도 14에서는 별도의 칩셋으로 도시되어 있으나, 플리커 제거모듈(181)은 프로세서(180)와 일체로 형성될 수도 있다.
카메라 모듈(200)에서 얻어진 이미지는 인터페이스(180a)를 거쳐 ISP 모듈(180b) 및 후처리 모듈(180c)에서 처리될 수 있다. 또한, 이들 모듈(180b,180c)에서 처리에 사용된 정보는 획득되는 이미지의 품질의 향상을 위해 획득조건들을 조절 및 변경하도록 다시 제거 모듈(181)이나 카메라 모듈(200)로 피드백될 수 있다. 또한, 같은 이유로, 검출모듈들(180d,180e)에서의 결과들도 ISP 모듈(180b) 및 코어 모듈(180b,180c)를 거쳐 제거 모듈(181)이나 카메라 모듈(200)로 피드백될 수 있다.
이와 같은 제어방법을 위한 기본적 구성에 뒤이어 이러한 구성을 이용하는 제어방법이 도 15에 추가적으로 관련된 도면들을 참조하여 설명된다. 상기 추가 관련도면들에서, 도 21은 카메라 모듈의 이미지 센서에서 프레임을 획득하는 과정을 보여주는 개략도(모식도)(schematic view or diagram)이며, 도 22는 상기 제어방법에서 움직임을 측정하는 단계 및 비디오의 획득조건을 조절하는 단계들을 보여주는 개략도이다. 또한, 도 23은 피사체의 움직임을 검출하는 단계에서 고려되는 시간에 대한 움직임량을 나타내는 그래프이며, 도 24는 연속적으로 획득되는 프레임들과 상기 측정 및 조절단계들 사이의 관계를 보여주는 개략도이다. 끝으로, 도 25는 상기 측정단계 및 조절단계의 수행을 사용자에게 디스플레이하는 스마트 디바이스를 보여주는 개략도이다. 다음에서 설명되는 제어방법은 앞서 도 1 및 도 14를 참조하여 설명된 구성요소, 즉 다양한 부품들의 작동을 제어하며, 이러한 작동에 기초하에 의도된 기능들을 제공할 수 있다. 따라서, 제어방법과 관련된 작동 및 기능들은 제어방법의 특징 뿐만 아니라 모두 관련된 해당 구조적 구성요소들의 특징으로도 간주될 수 있다. 특히, 제어부 또는 프로세서(180)는 제어기 및 제어장치와 같은 다양한 명칭으로 불릴 수 있으며, 소정의 작동을 수행하기 위해 스마트 디바이스(100)의 모든 구성요소들을 제어할 수 있다. 따라서, 제어부(180)가 실질적으로 본 출원에서 다음에 설명되는 모든 방법 따른 단계들을 실질적으로 제어하며, 이에 따라 이후 설명된 모든 단계들은 제어부(180)의 특징이 될 수 있다.
본 출원의 제어방법에 있어서, 먼저 도 15를 참조하면, 스마트 디바이스(100)의 카메라 모듈(200)은 기설정된 조건들을 사용하여 피사체의 비디오를 획득할 수 있다(S10). 사진 또는 정지 이미지(still image)와는 달리, 동영상(moving image), 즉 비디오는 소정 시간동안 연속적으로 얻어진 피사체의 이미지들의 총합(accumulation)으로 이루어진다. 따라서, 상기 획득단계(S10)에서 실제적으로 카메라 모듈(200)의 이미지 센서(233)는 비디오를 얻기 위해 소정시간동안 다수개의 영상들을 계속적으로 획득할 수 있다. 또한, 이미지 센서(233)에서 영상들은 하나의 완성된 프레임 단위로 얻어지므로, 상기 획득단계(S10)는 이미지 센서(233)를 이용하여 다수개의 프레임(frame)을 얻는다고 설명될 수도 있다.
앞서 설명된 바와 같이, 이미지의 품질은 렌즈(L: 도 6 참조)에 입사되고 이미지 센서(233)에 도달된 빛의 량에 의해 가장 크게 영향을 받을 수 있다. 이와 같은 빛의 량은 노출(exposure)로 불리며, 노출은 조리개(300)의 개구부(350)의 크기, 프레임 레이트(frame rate), 센서(233)의 감도에 의해 결정될 수 있다. 개구부(350)의 크기는 렌즈(L) 및 센서(233)에서 받는 빛의 량을 직접적으로 결정할 수 있다. 프레임 레이트는 단위시간당 얻어지는 프레임, 즉 이미지의 갯수를 의미하며, 단위로 fps를 사용한다. 또한, 프레임 레이트가 결정되면, 하나의 이미지를 얻기 위해 이미지 센서(233)가 렌즈(L)에 의해 집중된 빛에 노출되는 시간, 즉 노출시간이 상대적으로 결정될 수 있다. 끝으로, 감도(sensitivity)는 이미지 센서(233)에서 감지되는 신호의 세기를 의미할 수 있다. 즉, 감도는 이미지 센서(233)에서 빛으로부터 얼마나 많은 량의 전기적 신호를 감지해내는지를 나타내며, 게인(gain) 또는 ISO으로도 불릴 수 있다. 그러나, 이러한 게인을 조절하는 것은 획득되는 영상에 노이즈를 발생시킬 수 있다. 따라서, 상기 획득단계에서, 비디오는 기설정된 조건들로서 주로 프레임 레이트, 노출시간, 개구부의 크기를 주로 고려하여 획득될 수 있다. 이들 조건들은 모두 소정의 초기값들을 가질 수 있으며, 상기 획득단계(S10)가 시작될 때, 이러한 초기값들이 먼저 적용될 수 있다. 따라서, 뒤따르는 제어방법의 설명에서 언급되는 조건들은 모두 소정의 값들을 가지고 있는 것으로 이해될 수 있다(appreciate). 또한, 이러한 값들은 모두 획득되는 이미지, 즉 비디오의 품질을 향상시키기 위해 변경될 수도 있다는 것도 이해되어야 한다.
스마트 디바이스(100)는 또한, 상기 피사체와 상기 스마트 디바이스(100) 사이의 상대적 움직임을 검출할 수 있다(S20). 앞서 설명된 바와 같이, 비디오는 계속적을 얻어지는 이미지들로 이루어지며, 설명되는 제어방법은 획득이 완료된 비디오가 아닌 현재 획득되고 있는 비디오의 품질을 향상시키기 위한 것이다. 따라서, 상기 검출단계(S20)은 적어도 상기 획득단계(S10)가 수행되는 동안 수행될 수 있다. 또한, 같은 이유로, 비디오의 획득이 중단될 때까지 상기 검출단계(S20)도 획득단계(S10)와 마찬가지로 계속적으로 반복될 수 있다.
도 21에 도시된 바와 같이, 이미지 센서(233)은 하나의 프레임을 형성하는데 있어서 자신의 모든 픽셀들을 한번에 입사되는 빛에 노출시키지 않고, 대신에 첫번째 로우(row) 부터 마지막 로우까지 즉, 로우 바이 로우(row by row)로 순차적으로 노출시킬 수 있다. 따라서, 도시된 바와 같이, 로우들의 노출사이에 미세한 지연(delay)이 발생되며, 이에 따라 획득되는 프레임들 사이에는 미세한 지연의 집적(integration)에 의한 실질적인 지연이 발생될 수 있다. 따라서, 만일 촬영환경이 동적인 경우, 이러한 지연으로 인해 획득되는 이미지, 즉 프레임의 왜곡이 발생될 수 있다. 보다 상세하게는, 피사체가 움직이거나 스마트 디바이스(100)가 움직이는 경우 또는 피사체와 디바이스(100)가 둘 다 움직이는 경우, 피사체와 디바이스(100)사이에는 상대적 움직임, 즉 동적인 촬영환경이 발생될 수 있다. 그러나, 이러한 동적 환경하에서 움직임은 일반적으로 빠르고 연속적으로 발생하므로, 앞서 설명된 지연으로 인해 움직임이 하나의 프레임내에 적절하게 반영될 수 없을 수 있다. 따라서, 동적환경하에서 프레임, 즉 이미지의 품질은 저하될 수 있다.
이와 같은 현상을 제거하거나 억제하기 위해, 스마트 디바이스(100)는 상기 검출단계(S20)에 있어서, 피사체의 움직임을 검출할 수 있다(S21). 또한, 스마트 디바이스(100)는 상기 스마트 디바이스(100) 자신의 움직임을 검출할 수 있다(S22).더 나아가, 보다 정확한 상대적 움직임 검출을 위해, 스마트 디바이스(100)는 자신의 움직임과 피사체의 움직임 둘 다를 측정할 수 있다(S21,S22). 예를 들어, 도 22에 도시된 바와 같이, 피사체는 걷거나 뛸 수 있으며, 이와는 다른 움직임을 발생시킬 수 있다. 또한, 디바이스(100)의 사용자, 즉 촬영자도 마찬가지로 걷거나 뛰거나, 이와는 다른 움직임을 발생시킬 수 있으며, 이러한 사용자의 움직임에 따라 디바이스(100)도 함께 움직일 수 있다.
이러한 움직임들중 먼저 피사체의 움직임을 검출하기 위해, 상기 검출단계(S21)에서 도 16에 도시된 바와 같이, 스마트 디바이스(100)는 상기 획득단계(S10)에서 획득된 비디오, 정확하게는 프레임들로부터 피사체의 움직임 량을 검출할 수 있다(S21a). 이러한 움직임량은 획득된 프레임에 대해 영상분석(image analysis)을 수행함으로써 검출될 수 있다. 또한, 움직임량은 도 23에 도시된 바와같이, 비디오가 획득되는 동안 계속적으로 검출될 수 있으며, 검출된 움직임량은 소정의 임계값과 비교될 수 있다(S21b). 만일 도 23에 도시된 바와 같이, 검출된 움직임 량이 소정의 임계값(V)을 초과하면, 스마트 디바이스(100)은 피사체가 움직이는 것으로 결정할 수 있다(S21c). 만일 검출된 움직임 량이 소정의 임계값을 초과하지 못하면, 스마트 디바이스(100)은 피사체가 움직이지 않는 것으로 결정할 수 있다(S21d). 한편, 스마트 디바이스(100)의 움직임을 검출하기 위해, 상기 검출단계(S22)에서 스마트 디바이스(100)는 센서를 이용하여 자신의 움직임을 직접 감지할 수 있다. 앞서 도 14를 참조하여 설명된 바와 같이, 스마트 디바이스(100)는 자이로 센서 및 가속도 센서(143)를 포함할 수 있으며, 이들 센서들(143)을 이용하여 움직임을 직접 감지하는 것이 가능하다.
만일 상기 검출단계(S20)에서 스마트 디바이스(100)가 디바이스 자신 및 피사체의 어떠한 움직임도 검출하지 못하면, 상기 조건들의 이전에 설정된 값들, 예를 들어, 상기 획득단계(S10)에서의 초기 값들을 계속적으로 유지할 수 있다. 따라서, 상기 획득단계(S10)는 상기 조건들 및 이의 이전 설정값들, 초기값들을 이용하여 계속적으로 비디오를 획득할 수 있다.
한편, 만일 상기 검출단계(S20)에서 스마트 디바이스(100)가 상대적 움직임, 즉 디바이스(100)의 움직임 또는/및 피사체의 움직임을 검출하면, 스마트 디바이스(100)는 상기 검출된 움직임에 기초하여, 상기 조건들중 적어도 하나를 조절할 수 있다(S30). 조절단계(S30)는 실제적으로 상기 조건들, 즉 비디오 획득 조건의 이전에 설정된 값들을 새로운 값들로 변경하는 단계가 될 수 있다. 따라서, 뒤따르는 제어방법의 설명에서, 상기 조건의 조절이나 변경은 실질적으로 상기 조건의 값들을 조절하거나 변경하는 것을 의미한다고 이해될 수 있다. 또한, 검출단계(S20)에 대해서 언급된 것과 같은 이유로, 상기 조절단계(S30)도 적어도 상기 획득단계(S10)가 수행되는 동안 수행될 수 있으며, 비디오의 획득이 중단될 때까지 획득단계(S10)와 마찬가지로 계속적으로 반복될 수 있다.
도 22에 도시된 바와 같이, 프레임 레이트는 단위시간당 획득되는 프레임의 갯수, 즉 n fps (여기서, n은 프레임의 갯수)가 되며, 이에 따라 노출시간은 프레임 레이트의 역수, 즉 1/n sec(여기서, sec은 초(second))가 된다. 따라서, 프레임 레이트가 증가되면, 노출시간은 짧아질 수 있다. 노출시간은 센서(233)에서 하나의 프레임을 형성하는데 주어지는 시간을 의미하므로, 짧은 노출시간은 그와 같은 형성시간, 즉 이미지의 전기적 신호가 센서(233)에서 생성되면서 머무는 시간이 짧다는 것을 의미할 수 있다. 이와 같은 형성시간이 짧아지면, 도 21에서 설명된 지연이 상대적으로 감소될 수 있으며, 영상 왜곡 또한 감소될 수 있다. 한편, 노출시간이 짧아지면, 이는 센서(233)에서 빛을 받으들이는 시간을 단축시키므로, 얻어지는 이미지, 즉 프레임이 어두워질 수 있다. 따라서, 밝기를 보상하기 위해 조리개(300)의 개구부(350)는 더 많은 빛을 센서(233)에 도입하기 위해 확장될 수 있다. 이러한 이유로, 상대적 움직임하에서 프레임 레이트를 증가시키고 개구부(350)를 확장하면 높은 품질의 이미지, 즉 비디오를 얻을 수 있다. 한편, 밝기는 센서(233)의 감도를 증가시킴으로써 보상될 수도 있다. 그러나, 감도를 증가시키면 센서(233)에서 얻어지는 전기신호의 증폭에 의해 노이즈가 발생될 수 있다. 따라서, 이미지 품질을 향상시키기 위한 센서(233)의 감도의 조절은 제한될 수 있다.
이러한 이유들로, 스마트 디바이스(100)가 상기 스마트 디바이스(100)의 움직임 또는/및 상기 피사체의 움직임을 검출하면, 상기 스마트 디바이스(100)는 상기 비디오의 프레임 레이트를 증가시킬 수 있다(S31). 이러한 프레임 레이트의 증가에 의해, 스마트 디바이스(100)은 노출시간을 상대적으로 감소시킬 수 있다(S32). 즉, 상기 조절단계(S30)에 의해 상기 프레임 레이트는 이전에 설정된 값, 예를 들어 상기 획득단계(S10)에서의 초기 값보다 큰 값을 가질 수 있다(S31). 마찬가지로 상기 노출시간은 이전에 설정된 값, 예를 들어 획득단계(S10)에서의 초기 값보다 작은 값을 가질 수 있다(S32). 또한, 프레임 레이트의 증가 및 노출시간의 감소에 의한 밝기의 저하를 보상하기 위해, 스마트 디바이스(100)가 상기 스마트 디바이스(100)의 움직임 또는/및 상기 피사체의 움직임을 검출하면, 스마트 디바이스(100)는 조리개(300)의 개구부(350)를 확장, 즉 개구부(350)의 직경을 증가시킬 수 있다(S33). 즉, 상기 조절단계(S30)에 의해, 상기 개구부의 직경은 이전에 설정된 직경, 예를 들어, 상기 획득단계(S10)에서의 직경보다 커질 수 있다(S33). 따라서, 증가된 개구부(350)의 크기로 인해, 많은 량의 빛이 렌즈(L)로 유입되며, 이에 따라 밝기가 좋은 품질의 이미지를 얻도록 증가될 수 있다. 앞서 설명된 조리개(300)은 높은 응답성으로 인해 이와 같은 증가단계(S33)을 어떠한 지연없이 수행할 수 있으며, 이에 따라 의도된 바와 같은 높은 품질의 이미지, 즉 비디오가 보장될 수 있다. 그러나, 상기 증가단계(S33)를 위해 통상적인 조리개를 포함하여 입사되는 빛의 량을 조절할 수 있는 어떠한 구조도 사용될 수 있다.
더 나아가, 상기 조절단계(S30)에서, 검출되는 움직임의 크기 또는 량에 따라 상기 조건들은 서로 다른 값을 갖도록 조절될 수 있다. 예를 들어, 도 22에 도시된 바와 같이, 피사체 또는/및 촬영자가 걷을 때 발생되는 움직임의 크기보다 피사체 또는/및 촬용자가 뛸 때 발생되는 움직임이 더 클 수 있다. 따라서, 상기 조절단계(S30)에서 움직임이 소정 움직임보다 클 때의 상기 프레임 레이트 및 개구부의 직경은 상기 소정 움직임에 적합하게 설정된 프레임 레이트 및 개구부의 직경보다 크게 설정될 수 있다. 또한, 상기 조절단계(S30)에서 움직임이 소정 움직임보다 클 때의 노출시간은 상기 소정 움직임에서의 노출시간보다 짧게 설정될 수 있다. 예를 들어, 도 22에 도시된 바와 같이, 피사체 또는 촬영자가 걸을 때의 프레임 레이트 및 노출시간은 각각 n fps 및 1/n sec이나 피사체 또는 촬영자가 뛸 때의 프레임 레이트 및 노출시간은 x·n fps 및 1/(x·n) sec 으로 x배 만큼 증가하고 감소할 수 있다. 마찬가지로, 피사체 또는 촬영자가 걸을 때의 개구부 크기보다 피사체 또는 촬영자가 뛸 때의 개구부의 크기가 커질 수 있다. 이러한 추가조절에 의해 비디오 품질은 더욱 향상될 수 있다.
앞서 설명된 조절단계(S30)에서 조절된 조건들은 다시 상기 획득단계(S10)에 적용될 수 있으며, 이러한 조절된 조건에 따라 비디오가 획득될 수 있다.
이미 앞서 간략하게 언급된 바와 같이, 계속적으로 획득되는 비디오의 품질을 향상시키기 위해, 상기 획득단계(S10)과 마찬가지로, 상기 검출 및 조절단계들(S20,S30)은 상기 스마트 디바이스(100)가 비디오를 획득하는 동안 계속적으로 반복될 수 있다. 보다 상세하게는, 만일 상기 검출단계(S30)에서 일단 상대적 움직임을 검출하면, 반복 수행되는 검출단계(S30)에서 움직임이 검출되지 않을 때까지 상기 조절단계(S30)에서 조절된 조건에 의해 상기 획득단계(S10)에서 비디오가 획득될 수 있다. 또한, 만일 반복 수행되는 검출단계(S30)에서 검출된 움직임의 량이 변화되면, 앞서 설명된 바와 같이 상기 조절단계(S30)에서 검출되는 움직임의 크기 및 량에 따라 상기 조건들은 서로 다른 값을 갖도록 조절될 수 있으며, 이러한 조절된 조건에 따라 상기 획득단계(S10)에서 다시 비디오들이 획득될 수 있다. 한편, 반복 수행된 검출단계(S30)에서 움직임이 검출되지 않으면, 상기 조건들은 이전에 설정된 값, 예를 들어 초기 값들로 복귀될 수 있으며, 이러한 이전 설정 값들에 따라 상기 획득단계(S10)가 수행될 수 있다.
더 나아가, 보다 나은 비디오의 품질을 위해, 상기 검출 및 조절단계들(S20,S30)은 실시간적으로 수행될 수 있다. 도 24에 도시된 바와 같이, 상기 검출 및 조절단계들(S20,S30)은 획득된 비디오의 각각의 프레임들에 대해 수행될 수 있다. 또한, 어느 한 프레임(즉, Nth 프레임)에 대한 검출단계 및 조절단계들(S20,S30)은 뒤따르는 프레임(즉, N+1th 프레임)의 획득이 시작되기 이전에 완료될 수 있다. 즉, 상기 획득된 비디오는 제 1 프레임과 상기 제 1 프레임에 뒤이어 획득되는 제 2 프레임을 포함하며, 상기 제 1 프레임에 대해 수행되는 검출 및 수행단계(S20,S30)는 상기 제 2 프레임의 획득이 시작되기 이전에 완료될 수 있다. 따라서, 상기 조절단계(S30)에 의해 조절된 조건들은 새로운 프레임(즉, N+1th 프레임, 제 2 프레임)에 바로 적용될 수 있다. 이와 같은 실시간적인 수행에 의해, 조절된 조건의 적용에 대한 어떠한 지연도 발생되지 않으며, 이에 따라 획득되는 비디오의 품질은 더욱 향상될 수 있다.
또한, 스마트 디바이스(100)는 상기 검출단계(S20)에서 상기 스마트 디바이스 또는/및 상기 피사체의 움직임을 검출하면, 상기 움직임의 검출을 사용자에게 통지할 수 있다(S40). 또한, 스마트 디바이스(100)가 상기 조절단계(S30)에서 상기 조건들을 조절하면, 상기 조건의 조절을 사용자에게 통지할 수 있다(S50). 도 25은 촬영자, 즉 스마트 디바이스(100)와 피사체가 둘다 움직이는 것을 보여준다. 도 25에서 만일 촬영자가 피사체의 비디오를 획득하기 시작하면(S10), 스마트 디바이스(100)는 상대적 움직임을 검출할 수 있다(S20). 또한, 이러한 움직임의 검출(S20)에 의해 스마트 디바이스(100)는 비디오 획득에 적용되는 조건들을 조절할 수 있다(S30). 이러한 검출 및 조절은 도 25에 도시된 바와 같이, 스마트 디바이스(100)의 디스플레이부(151)에 표시될 수 있다. 보다 상세하게는, 상기 검출은 도시된 바와 같이, 소정 크기의 아이콘(1)로 표시될 수 있으며, 마찬가지로 상기 조절도 아이콘(2)로 표시될 수 있다. 다른 한편, 상기 검출 및 조절은 아이콘(1,2) 대신에 텍스트로 상기 디스플레이부(151)에 표시될 수 있다. 이러한 통지단계들(S40,S50)에 의해 사용자는 동적인 촬영환경 및 이에 따른 조건의 조절을 쉽게 파악할 수 있으므로, 스마트 디바이스(100)를 보다 편리하게 사용할 수 있다.
한편, 획득된 비디오가 재생될 때, 여러가지 이유로 플리커(flicker)가 나타날 수 있다. 플리커는 디스플레이의 화면에 주기적으로 발생되는 비져블 훼이딩(visible fading)을 의미하며, 획득된 비디오의 품질을 저하시키는 요인이 될 수 있다. 이러한 플리커의 발생은 특히 비디오가 획득될 때 사용된 광원에 의해 영향받을 수 있다. 예를 들어, 인공광원은 고유한 주파수를 가질 수 있다. 만일 인공광원의 주파수가 상기 획득단계(S10)에서 비디오 획득에 적용되는 프레임 레이트와 동기가 되지 않으면, 센서(233)에서 획득되는 프레임에 밝기의 불균형이 생성될 수 있으며, 이는 부분적 훼이딩인 플리커를 가져올 수 있다. 따라서, 본 발명의 제어방법에 있어서, 스마트 디바이스(100)는 상기 획득단계(S10)에서 사용되는 광원, 즉 이의 종류에 따라 상기 획득된 비디오로부터 플리커(flicker)를 추가적으로 제거할 수 있다(S60).
도 17은 상기 제어방법에서 플리커를 제거하는 단계를 상세하게는 보여주는 순서도이다. 또한, 도 18은 도 17의 플리커 제거단계에서 광원의 종류를 검출하는 단계를 상세하게 보여주는 순서도이며, 도 19는 도 17의 플리커 제거단계에서 사용되는 광원이 자연광원일 때의 추가적으로 비디오의 획득조건을 조절하는 단계를 상세하게 보여주는 순서도이다. 이들 도면들을 참조하여, 다음에서 상기 제거단계(S60)이 상세하게 설명된다.
상기 플리커는 앞서 설명된 디비이스(100)와 피사체 사이의 상대적 움직임에 상관없이, 다른 이유들, 예를 들어 광원의 종류에 의해 발생될 수 있다. 따라서, 상기 제거 단계(S60)은 상기 상대적 움직임이 발생되는 경우 및 상기 상대적 움직임이 발생되지 않는 경우 둘 다에 대해서, 더 나아가 비디오가 획득되는 동안 항상 수행될 수 있다. 즉, 도 15 및 도 17에 서로 "A" 및 "B"로 연결된 바와 같이, 상기 검출단계(S20)에 움직임이 발생되지 않는 경우(A) 및 상기 검출단계(S20)에서 움직임이 발생되고 상기 조절단계(S30)에서 소정의 조건들이 조절된 경우(B) 둘 다에 대해서 상기 제거단계(S60)가 수행될 수 있다. 또한, 검출 및 조절단계(S20,S30)에 대해서 언급된 것과 같은 이유로, 상기 제거단계(S60)도 적어도 상기 획득단계(S10)가 수행되는 동안 수행될 수 있으며, 비디오의 획득이 중단될 때까지 상기 단계들(S10-S30)와 마찬가지로 계속적으로 반복될 수 있다.
상기 제거단계(S60)에서, 먼저 스마트 디바이스(100)는 광원의 종류를 검출할 수 있다(S61). 상기 검출단계(S61)에서 먼저, 스마트 디바이스(100)는 상기 획득된 광원의 밝기를 측정할 수 있다(S61a). 상기 측정단계(S61a)에서 디바이스(100)는 별도의 센서, 예를 들어 조도센서(142:도 1 참조)를 이용하여 외부광원의 조도를 측정할 수 있다. 조도는 일정 면적에 비치는 광속(flux)을 의미하며, 빛의 세기, 즉 밝기를 나타낼 수 있다. 일반적으로 자연광원에 비해 실내에서 제공되는 인공광원의 밝기는 적다. 따라서, 측정된 조도가 일정값이상이면, 스마트 디바이스(100)는 광원을 자연광원으로 판단하며, 측정된 조도가 일정값미만이면, 광원을 인공광원으로 판단할 수 있다. 다른 한편, 상기 검출단계(S61)에서, 스마트 디바이스(100)는 상기 획득된 비디오에서 상기 플리커를 직접적으로 검출할 수 있다(S61b). 상기 검출단계(S61b)에서, 스마트 디바이스(100)는 획득된 비디오에 대한 영상분석을 수행할 수 있다. 수행된 영상분석을 통해 스마트 디바이스(100)는 획득된 비디오에서 훼이딩(fading)이 나타나면, 플리커가 발생된것으로 판단할 수 있다. 또한, 스마트 디바이스(100)는 상기 획득된 비디오에서 플리커, 즉 훼이딩이 존재하면 상기 광원을 인공광원으로 판단하며, 상기 플리커, 즉 훼이딩이 존재하지 않으면 상기 광원을 자연광원으로 판단할 수 있다.
다른 한편(alternatively), 상기 검출단계(S61)에서 스마트 디바이스(100)는 이미지 센서(233)에서 얻어지는 전기적 신호의 주파수를 분석할 수 있다(S61c). 상기 카메라 모듈(233)의 이미지 센서(233)는 이미지의 획득에 사용되므로, 상기 분석단계(S61c)는 상기 이미지 센서(233)와 별도의 이미지 센서(143), 예를 들어 RGB 센서를 사용할 수 있다. 상기 RGB 센서는 고해상도의 이미지, 즉 상대적으로 많은 전기적 신호를 얻도록 구성되므로, 광원의 종류 검출을 위한 주파수 분석에 유용할 수 있다. 도 18에 도시된 바와 같이, 상기 분석단계(S61c)에서 먼저 디바이스(100)는 인공광원과 동기되지 않는 소정의 프레임 레이트로 이미지 센서(143)를 광원에 노출시킬 수 있다(SS61c-1). 여기서 센서의 1회의 노출에 의해 1개의 프레임이 형성되므로, 프레임 레이트는 실제적으로 단위시간당 센서의 노출회수가 되며, 상기 노출단계(S61c-1)은 인공광원과 동기되지 않는 시간당 노출회수를 사용한다고 설명될 수도 있다. 또한, 인공광원은 일반적으로 50Hz 또는 60Hz의 주파수를 갖는다. 따라서, 상기 노출단계(S61c-1)의 프레임 레이트는 이러한 50Hz 또는 60Hz (즉, 50 fps 또는 60 fps)가 아닌 주파수를 가질수 있다. 만일 외부광원이 인공광원인 경우, 이미지 센서(143)에서 얻어지는 이미지 신호의 주파수는 이러한 인공광원의 주파수와 동기화되지 못한다. 주파수의 비동기가 발생되면, 센서(143)에서 최종적으로 얻어지는 신호의 파형 또는 위상이 불연속적이거나 불규칙적이 될 수 있다. 따라서, 이러한 불연속성 및 불규칙성은 외부 광원이 인공광원임을 의미할 수 있다. 이러한 이유로, 상기 분석단계(S61c)에서, 스마트 디바이스(100)는 상기 이미지 센서에서 얻어진 전기적 신호의 불연속성 또는 불규칙성을 검출할 수 있다(S61c-2). 이러한 검출은 이미지 센서(143)에서 최종적으로 얻어진 신호의 주파수 또는 파형 분석을 통해 수행될 수 있다. 만일 상기 획득된 전기적 신호의 파형 또는 위상이 불연속적이거나 불규칙적으로 변화하면, 스마트 디바이스(100)는 상기 광원을 인공광원으로 판단할 수 있다(S61c-3). 만일 상기 획득된 전기적 신호의 파형 또는 위상이 연속적으로 규칙적으로 변화하면, 스마트 디바이스(100)는 상기 광원을 자연광원으로 판단할 수 있다(S61c-4).
만일 상기 검출단계(S61)에서 광원의 종류가 검출되면, 디바이스(100)는 상기 검출된 광원의 종류에 따라 상기 조건, 즉 비디오의 획득조건들을 변경할 수 있다(S62). 앞서 설명된 바와 같이, 상기 제거단계(S60)는 상대적 움직임이 발생되는 경우 및 상기 상대적 움직임이 발생되지 않는 경우 둘 다에 대해서 수행될 수 있다. 따라서, 만일 검출단계(S20) 및 조절단계(S30)에서 상대적 움직임이 검출되고, 조건들이 조절된 경우, 상기 검출단계(S61)에서 디바이스(100)가 외부광원을 인공광원으로 검출하면, 디바이스(100)는 상기 조절단계(S30)에서 조절된 조건들중 적어도 하나를 추가적으로 변경할 수 있다(S62). 또한, 만일 검출단계(S20)에서 어떠한 상대적 움직임도 검출되지 않은 경우, 상기 검출단계(S61)에서 디바이스(100)가 외부광원을 인공광원으로 검출하면, 디바이스(100)는 상기 획득단계(S10)에서의 상기 조건들, 즉 이들의 초기 값들중 적어도 하나를 변경할 수 있다(S62).
상기 플리커는 특히 인공광원의 주파수와 밀접한 관계를 가지므로, 여러 조건들중에서, 이러한 주파수와 연관되는 프레임 레이트 또는 노출시간이 상기 변경단계(S62)에서 변경될 수 있다. 따라서, 상기 변경단계(S62a)에서, 디바이스(100)는 상기 프레임 레이트 또는 노출시간을 상기 인공광원의 주파수와 동기화할 수 있다(S62a). 주파수의 동기화는 대체적으로 동기될 두 주파수들이 같은 값을 갖는 것을 요구할 수 있다. 또한, 동기화는 하나의 주파수를 다른 주파수의 2n배로 증가시키거나 1/2n로 감소시키는 것을 요구할 수 있다. 따라서, 상기 동기화단계(S62a)에서 스마트 디바이스(100)는 상기 조건들중 프레임 레이트를 상기 인공광원의 주파수와 같은 값으로 설정할 수 있다. 또한, 스마트 디바이스(100)는 프레임레이트를 인공광원의 주파수 2n배로 설정하거나 1/2n배로 설정할 수 있으며, 여기서 n=1, 2, 3, 4, ---될 수 있다. 이러한 동기화에 의해 획득되는 프레임의 밝기는 균형잡힐 수 있으며, 인공광원하에서도 획득되는 비디오에 플리커가 발생되지 않는다. 따라서, 도 15 및 도 17에서 서로 "C"로 연결된 바와 같이, 앞서 설명된 변경단계(S62)에서 변경된 조건, 예를 들어 플리커 제거를 위해 변경된 프레임 레이트는 다시 상기 획득단계(S10)에 적용될 수 있으며, 이러한 조절된 조건에 따라 비디오가 획득될 수 있다.
한편, 자연광원은 인공광원에서와 같은 주파수 비동기화로 인한 플리커를 발생시키지 않으므로, 추가적으로 조건들을 변경할 필요가 없을 수 있다. 따라서, 만일 검출단계(S20) 및 조절단계(S30)에서 상대적 움직임이 검출되고, 조건들이 조절된 경우, 상기 검출단계(S61)에서 스마트 디바이스(100)가 외부광원을 자연광원으로 검출하면, 상기 스마트 디바이스(100)은 상기 조절단계(S30)에서 조절된 조건들, 즉 상기 조건들의 조절된 값들을 유지할 수 있다(S63). 또한, 만일 검출단계(S20)에서 어떠한 상대적 움직임도 검출되지 않았던 경우, 스마트 디바이스(100)는 상기 획득단계(S10)에서의 상기 조건들, 즉 이들의 초기 값들을 그대로 유지할 수 있다(S63). 이와 같이 유지된 조절된 값들 또는 초기 값들은 도 15 및 도 17에서 서로 "C"로 연결된 바와 같이, 다시 상기 획득단계(S10)에 적용될 수 있으며, 이러한 조절된 조건에 따라 비디오가 획득될 수 있다. 또한, 자연광원은 플리커를 발생시키지 않으므로, 상기 조건들의 조절된 값들 또는 초기값들이 유지되는 대신에 추가적으로 보다 나은 품질의 이미지 및 비디오를 얻도록 추가적으로 변형될 수 있다.
또한, 비록 검출단계(S61)에 의해 자연광원이 검출된 경우에도, 이러한 자연광원이 인공광원보다 어두울 수 있다. 예를 들어, 늦은 오후에는 야외의 자연광원이 실내의 인공광원보다 오히려 어둡다. 따라서, 획득단계(S10)에서 비디오 획득에 사용되는 광원이 자연광원이라 하더라도 자연광원의 밝기가 소정의 밝기보다 작으면, 추가적으로 비디오 획득에 적용되는 조건들이 조절될 수 있다. 보다 상세하게는, 먼저 도 19에 도시된 바와 같이, 디바이스(100)은 자연광원의 밝기를 소정의 밝기와 비교할 수 있다(S63a). 여기서, 조도가 광원의 밝기를 나타낼 수 있으므로, 디바이스(100)는 실제적으로 측정된 조도를 소정의 조도와 비교할 수 있다. 또한, 밝기 또는 조도는 디바이스(100)의 조도 센서(142)에 의해 측정될 수도 있으며, RGB 센서와 같은 별도의 센서에 의해 측정될 수도 있다. 만일 자연광원의 밝기가 소정 밝기보다 적지 않으면, 자연광원은 충분하기 밝다고 판단되며, 앞선 유지단계(S63)에서의 유지된 조절된 값들 또는 초기 값들이 도 15 및 도 19에서 서로 "C"로 연결된 바와 같이, 비디오의 획득을 위해 다시 상기 획득단계(S10)에 적용될 수 있다. 한편, 만일 자연광원의 밝기가 소정 밝기보다 적으면, 자연광원은 충분하기 밝지않다고 판단될 수 있다. 따라서, 스마트 디바이스(100)는 먼저 상기 비디오의 프레임 레이트를 감소시킬 수 있다(S63b). 상기 감소단계(S63b)에서, 디비아스(100)는 상기 획득단계(S10)의 프레임 레이트의 초기값 또는 상기 조절단계(S30)에 의한 프레임 레이트의 조절된 값을 원하는 값으로 추가적으로 감소시킬 수 있다. 만일 상기 획득단계(S10) 및 조절단계(S30)에 의해 충분하게 낮은 값의 프레임 레이트가 비디오의 획득에 적용되고 있다면, 상기 감소단계(S63b)에서 프레임 레이트는 추가적으로 감소되지 않을 수 있다. 프레임 레이트를 감소하면 상대적으로 노출시간이 길어지므로, 얻어지는 이미지, 즉 프레임의 밝기가 어두운 자연광원을 보상하도록 커질 수 있다. 또한, 스마트 디바이스(100)는 이미지 센서(233)의 게인(gain)을 감소시킬 수 있다(S63c). 게인을 낮추면, 상대적으로 센서(233)에서 얻어지는 신호의 세기가 낮춰질 수 있다. 게인의 감소로 인해 노이즈가 이미지에서 감소되므로 프레임 레이트 감소에 의한 품질저하, 예를 들어 이미지의 왜곡을 어느정도 보상할 수 있다. 이와 같이 감소된 프레임 레이트 및 게인은 도 15 및 도 19에서 서로 "C"로 연결된 바와 같이, 비디오의 획득을 위해 다시 상기 획득단계(S10)에 적용될 수 있다.
이미 앞서 상세하게 설명된 바와 같이, 계속적으로 획득되는 비디오의 품질을 향상시키기 위해, 상기 일련의 단계들(S10-S30)과 마찬가지로, 상기 제거단계(S60)은 상기 스마트 디바이스가 비디오를 획득하는 동안 계속적으로 반복될 수 있다. 더 나아가, 보다 나은 비디오의 품질을 위해, 상기 제거단계(S60)도 실시간적으로 수행될 수 있다. 도 24에 도시된 바와 같이, 제거단계(S60)도 상기 검출 및 조절단계들(S20,S30)와 마찬가지로, 획득된 비디오의 각각의 프레임들에 대해 수행될 수 있으며, 어느 한 프레임(즉, Nth 프레임)에 대한 제거단계(S60)는 뒤따르는 프레임(즉, N+1th 프레임)의 획득이 시작되기 이전에 완료될 수 있다. 따라서, 상기 제거단계(S60)에서 변경된 조건들이 다음 프레임에 바로 적용될 수 있다. 이와 같은 실시간적인 수행에 의해 조절된 조건의 적용에 대한 어떠한 지연도 발생되지 않으며, 비디오의 품질이 향상될 수 있다.
한편, 상기 단계들(S10-S60)과 관련되어 설명된 바와 같이, 비디오의 획득조건들은 더 나은 품질을 위해 상대적 움직임이나 플리커를 고려하여 조절 또는 변경될 수 있다. 따라서, 획득된 비디오는 서로 다른 조건들, 정확하게는 상기 조건들의 서로 다른 값들을 포함하게 된다. 이러한 이유로, 스마트 디바이스(100)는 획득된 비디오를 적절하게 제어하기 위해서는 통상적인 것들과는 다른 인터페이스와 제어방법을 필요로 할 수 있다.
도 20은 상기 제어방법에서 유저 인터페이스를 제공하는 단계 및 이를 이용하여 비디오를 재생하는 단계를 상세하게 보여주는 순서도이다. 또한, 도 26은 상기 비디오를 재생하는 스마트 디바이스와 스마트 디바이스에서 제공되는 유저 인터페이스를 보여주는 개략도이다. 이들 도면들을 참조하여, 획득된 비디오를 위한 인터페이스 및 제어방법이 다음에서 상세하게 설명된다.
먼저, 스마트 디바이스(100)는 상기 피사체의 비디오를 제어하도록 구성되는 유저 인터페이스(10: 도 26 참조)를 사용자에게 제공할 수 있다(S70). 상기 유저 인터페이스(10)는 도 15 및 도 20에서 서로 "D"로 연결된 바와 같이, 비디오의 획득이 완료된 후에 제공될 수 있다. 이러한 인터페이스(10)를 이용하여 사용자는 획득된 비디오를 기본적으로 재생할 수 있다. 또한, 사용자는 상기 인터페이스(10)를 이용하여, 비디오를 편집, 예를 들어 복사, 삭제, 효과부여를 할 수 있다. 이러한 기능들의 수행을 포함하여 비디오에 대한 어떠한 제어가 요구될 때마다 스마트 디바이스(10)는 상기 인터페이스(10)를 제공할 수 있다. 예를 들어, 어떤 어플리케이션에서 획득된 비디오를 이용하는 경우, 스마트 디바이스(10)는 필요할 때마다 인터페이스(10)를 이의 디스플레이부(151)에 어플리케이션의 화면과 함께 표시할 수 있다. 도 26은 획득된 비디오를 재생하는 어플리케이션과 함께 제공된 인터페이스(10)의 일 예를 보여준다.
앞서 설명된 바와 같이, 디바이스(100)는 상기 단계들(S10-S60)를 통해 상기 조건들의 서로 다른 값들을 포함하는 비디오를 획득할 수 있다. 또한, 상기 단계들, 특히 상기 획득, 검출, 조절 및 제거 단계들(S10-S30,S60)은 비디오의 더 나은 품질을 위해 비디오의 획득이 중단될 때까지 계속적이고 반복적으로 실시간적 방식으로 수행될 수 있다. 즉, 상기 조건들, 정확하게는 이들의 값들의 조절 및 변경은 비디오 획득이 종료될 때까지 계속적이고 반복적으로 수행될 수 있다. 따라서, 획득된 비디오는 서로 다른 값들의 조건들을 각각 가지며, 중단없이 연속적으로 획득된 다수개의 파트들로 이루어질 수 있다. 보다 상세하게는, 상기 획득된 비디오는 앞서 설명된 바와 같은 다수개의 파트들을 가지며, 스마트 디바이스(100)에서 한번의 획득 시작 및 한번의 종료에 의해서 획득된 단일 비디오에 해당될 수 있다. 또한, 이와 같은 특징을 갖는 단일 비디오를 적절하게 표시하기 위해, 도시된 바와 같이, 상기 인터페이스(10)는 단일의 프레임 또는 스팬(span)(10a)내에 상기 파트들을 연속적으로 표시하도록 구성될 수 있다.
또한, 앞서 설명된 바와 같이, 조리개(300)에 의한 빛의 량의 보상, 즉 밝기의 보상없이는 프레임 레이트에 대한 조절이 어려울 수 있다. 그러나, 본원의 종래기술에서 설명된 바와 같이, 본원의 조리개(300)와는 달리 통상적인 조리개들은 그 크기로 인해 스마트 디바이스(100)에 적용되기 어렵다. 따라서, 통상적인 스마트 디바이스(100)는 조리개의 부재로 인해, 비디오가 획득되는 동안 프레임레이트를 변경하기 어려울 수 있다. 따라서, 프레임 레이트를 변경하기 위해서는 밝기 보상을 위한 별도의 작동이 요구되므로, 비디오 획득이 중단될 필요가 있다. 이러한 이유로, 통상적인 스마트 디바이스(100)에서 하나의 비디오는 일반적으로 하나의 프레임 레이트를 포함할 수 있다. 이러한 통상적인 비디오와는 달리, 본원의 제어방법에 따른 비디오는 조리개(300)와 이의 능동적인(dynamic) 제어로 인해 서로 다른 프레임 레이트들을 각각 가지며 연속적으로 획득된 다수개의 파트들로 이루어질 수 있다. 따라서, 상기 인터페이스(10)는 단일의 프레임(10a)내에 이와 같은 다수개의 파트들을 연속적으로 표시하도록 구성될 수 있다. 도 26의 인터페이스(10)도 일 예로써 이와 같은 하나의 비디오내의 서로 다른 프레임 레이트들을 보여줄 수 있도록 구성된다. 그러나, 상기 인터페이스(10)는 조절되는 다른 조건들, 예를 들어, 노출시간, 조리개 개구부 크기, 게인등을 보여주도록 추가적으로 구성될 수 있다.
보다 상세하게는, 상기 유저 인터페이스(10)는 소정의 제 1 값을 갖는 조건들을 포함하는 비디오의 제 1 파트를 표시하는 제 1 구간(11)을 포함할 수 있다(S71). 또한, 인터페이스(10)은 상기 제 1 값과 다른 제 2 값들을 갖는 조건들을 포함하며 상기 제 1 파트에 연속적으로 획득되는 비디오의 제 2 파트를 표시하는 제 2 구간(12)를 포함할 수 있다(S71). 또한, 상기 제 2 구간(12)는 상기 제 1 구간(11)에 연속적으로 배치될 수 있다. 제 2 구간(12)은 여러방향으로 배치될 수 있으나, 도시된 바와 같이 사용자에게 용이하게 인식되도록 제 1 구간(11)에 연속적으로 수평방향으로 배치될 수 있다. 또한, 앞서 설명된 바와 같이, 도 26의 예는 조절된 프레임 레이트를 표시하도록 구성되므로, 상기 유저 인터페이스(10)는 소정의 제 1 프레임레이트를 갖는 비디오의 제 1 파트를 나타내는 제 1 구간(11) 및 상기 제 1 프레임 레이트와는 다른 제 2 프레임레이트를 갖도록 상기 제 1 파트에 연속적으로 획득된 제 2 파트를 나타내는 제 2 구간(12)를 포함할 있다. 마찬가지로, 제 2 구간(12)은 제 1 구간(11)에 연속적으로 수형방향으로 배치될 수 있다. 도 26의 예에서 제 1 구간(11)은 움직임이 없는 구간이며, 제 2 구간(12)은 상대적움직임이 발생된 구간이 될 수 있다. 따라서, 상기 조절단계(S30)에 의해 상기 제 2 프레임 레이트는 상기 제 1 프레임 레이트보다 크게 설정될 수 있다.
상기 인터페이스(10)에서 상기 제 1 및 제 2 구간(11,12)의 길이는 해당 비디오의 파트가 획득된 시간 기간(period of time)에 따라 결정될 수 있다. 예를 들어, 동일한 시간 기간동안 획득된 비디오의 제 1 및 제 2 파트에 대해 상기 제 1 및 제 2 구간(11,12)은 동일한 길이를 가질 수 있다. 만일 제 1 파트가 제 2 파트보다 긴 시간의 기간동안 획득된 경우, 제 1 구간(11)의 길이는 제 2 구간(12)의 길이보다 크게 설정될 수 있다. 따라서, 인터페이스(10)를 통해 사용자는 각각의 파트들의 기간들을 시각적으로 알 수 있다. 또한, 상기 제 1 및 제 2 구간(11,12)은 동일한 프레임들의 수마다 설정되는 눈금들(11a,12a)을 포함할 수 있다. 프레임 레이트는 단위시간당 획득된 프레임의 갯수를 의미하므로, 서로 다른 프레임 레이트들을 포함하는 구간들은 서로 다른 갯수의 눈금들(11a,12a)을 포함할 수 있다. 예를 들어, 상기 제 2 구간(12)의 프레임 레이트는 제 1 구간(11)의 프레임레이트보다 크므로, 동일한 길이내에서 상기 제 2 구간(12)은 제 1 구간(11)보다 더 많은 눈금(11a)을 포함할 수 있다. 따라서, 사용자는 인터페이스(10)를 통해 서로 다른 프레임 레이트 및 이들의 크기를 시각적으로 인식할 수 있다.
상기 인터페이스(10)를 이용하여 사용자는 획득된 비디오에 대한 다양한 제어를 자유롭게 수행할 수 있다. 이러한 제어들중 재생이 가장 기본적이므로, 다음에서는 획득된 비디오에 대해 재생이 설명된다. 예를 들어, 도 26는 비디오가 재생되는 화면과 이 화면에 제공된 인터페이스와 이의 부분적 확대를 보여준다. 도시된 바와 같이, 재생되는 동안 비디오는 스마트 디바이스(100)의 디스플레이부(151) 또는 이의 화면(screen)에서 디스플레이 될 수 있다. 보다 상세하게는, 비디오가 재생되는 동안 상기 비디오의 피사체는 상기 디스플레이부(151) 또는 이의 화면내에 디스플레이 될 수 있다.
먼저, 사용자 또는 디바이스(100)는 상기 인터페이스(10)를 이용하여 획득된 비디오를 디스플레이부(151)에서 재생할 수 있다(S80). 획득된 비디오는 서로 다른 값들을 갖는 다수개의 조건들을 포함하므로, 디바이스(100)는 이러한 조건들을 모두 고려하여 비디오를 재생할 수도 있으며, 이들 조건들중 어느 하나에 따라 비디오를 재생할 수도 있다. 상기 조건들중 프레임 레이트 및 이의 값들의 변화는 비디오의 재생속도와 밀접한 관련이 있으며, 이에 따라 사용자에게 쉽게 인지될 수 있다. 따라서, 일 예로써, 다음에서는 프레임 레이트와 이의 서로 다른 값들에 따라 비디오를 재생하는 단계들이 보다 상세하게 설명된다.
앞서 검출 및 조절단계들(S20,S30)에서 설명된 바와 같이, 획득된 비디오는 서로 다른 프레임 레이트들을 갖는 파트들을 포함한다. 보다 상세하게는, 움직임이 발생된 파트는 큰 프레임 레이트를 가질 수 있으며, 움직임이 없는 파트에서는 프레임 레이트가 가장 작아질 수 있다. 일반적으로 움직임이 발생된 파트는 제어, 즉 편집이나 재생을 위해 보다 세밀한 검토를 요구할 수 있다. 따라서, 상기 재생단계(S80)에서, 기본적으로 스마트 디바이스(100)는 서로 다른 프레임 레이트들중 가장 작은 프레임 레이트에 따라 상기 비디오를 재생할 수 있다(S81). 즉, 가장 작은 프레임 레이트가 실제적인 재생속도가 되며, 이러한 단일의 재생속도가 전체 비디오의 재생에 적용될 수 있다. 큰 프레임 레이트를 갖는 파트들은 동일한 단위시간에 상기 가장 적은 프레임 레이트보다 많은 프레임들을 포함할 수 있으며, 이에 따라 큰 프레임레이트를 갖는 파트들에서 하나의 프레임 재생에 할당되는 시간은 가장 적은 프레임 레이트보다 적다. 만일 가장 적은 프레임 레이트에 따른 재생속도가 적용되면, 큰 프레임 레이트들을 갖는 다른 파트들에서 하나의 프레임에 할당되는 재생시간이 상대적으로 증가될 수 있다. 따라서, 상기 가장 작은 프레임 레이트를 갖는 비디오의 파트는 정상적으로 재생되는 반면, 상기 가장 작은 프레임 레이트와는 다른, 즉 이보다 큰 프레임 레이트들을 갖는 나머지 파트들은 느리게 재생될 수 있다. 즉, 재생되는 동안 상기 가장 작은 프레임레이트를 갖는 파트동안 스마트 디바이스(100)의 디스플레이부(151)의 화면에서 피사체는 정상적으로 움직이는 반면, 다른 파트들, 상대적으로 큰 프레임레이트를 갖는 파트들동안 상기 화면내에서 피사체는 느리게 움직이게 된다. 일반적으로 큰 프레임레이트를 갖는 파트들에서는 상대적 움직임이 발생될 수 있으므로, 이러한 느린 움직임에 의해 사용자는 피사체의 움직임을 보다 상세하게 볼 수 있다. 이러한 재생단계(S81)을 도 26 의 실제 예에 적용하면, 스마트 디바이스(100)는 상기 제 1 구간(11), 즉 비디오의 제 1 파트와 상기 제 2 구간(12), 즉 비디오의 제 2 파트 둘 다를 상기 제 1 프레임 레이트에 따라 재생할 수 있다. 예를 들어, 제 1 프레임 레이트가 30 fps이고, 제 2 프레임 레이트가 120 fps인 경우, 120 fps의 상기 제 2 구간(12), 즉 상기 제 2 파트는 30 fps의 제 1 프레임 레이트로 재생될 수 있다. 따라서, 상기 재생단계동안 상기 화면내에서 상기 제 2 구간(12)의 피사체가 상기 제 1 구간(11)의 피사체보다 느리게 움직일 수 있다.
또한, 사용자는 비디오의 제어를 위해 재생속도를 변화시킬 필요가 있을 수 있다. 이러한 속도변화는 다양한 방법으로 수행될 수 있으나, 인터페이스(10)의 조작에 의해 간단하게 수행될 수 있다. 따라서, 사용자는 인터페이스(10)의 길이를 변화시켜 재생 속도를 변화시킬 수 있다(S82). 이러한 길이변화를 위해 디스플레이부(151)에 표시된 인터페이스(10)를 사용자가 손가락을 이용하여 늘이거나 줄일 수 있다. 실제적으로 상기 변화단계(S82)에서, 사용자는 비디오의 소정 파트에서의 재생속도의 변화를 위해 상기 파트에 해당하는 인터페이스의 길이를 변화시킬 수 있다. 또한, 인터페이스의 길이가 변화하면, 일정 갯수의 프레임들에 대한 재생시간이 변화될 수 있다. 보다 상세하게는, 상기 소정파트에 해당하는 인터페이스의 소정 구간의 길이가 증가되면, 이는 길이의 변화전에 그 구간에 포함되어 있던 일정 갯수의 프레임들에 대한 재생시간을 증가시키는 결과를 가져올 수 있다. 따라서, 단위시간당 재생되는 프레임 수가 감소되며, 이에 따라 재생속도가 감소될 수 있다. 한편, 상기 소정파트에 해당하는 인터페이스의 소정 구간의 길이가 감소되면 앞서 설명된 것과 반대의 결과, 즉 재생속도의 증가를 가져온다.
이러한 변화단계(S82)을 도 26의 실제 예에 적용하면, 사용자는 상기 제 1 구간(11) 또는 제 2 구간(12)의 재생속도를 감소시키기 위해 상기 제 1 구간(11) 또는 제 2 구간(12)의 상기 인터페이스내의 길이를 확장시킬 수 있다. 또한, 사용자는 상기 제 1 구간(11) 또는 제 2 구간(12)의 재생속도를 증가시키기 위해 상기 제 1 구간(11) 또는 제 2 구간(12)의 상기 인터페이스내의 길이를 축소시킬 수 있다. 상기 길이의 확장 또는 축소는 실제적으로 인터페이스(10)내의 눈금들(11a,12a)의 간격을 확장하거나 축소할 수 있다. 또한, 길이의 확장에 의해 재생속도가 감소되면, 재생되는 동안 피사체는 상대적으로 느리게 움직일 수 있다. 길이의 축소에 의해 재생속도가 증가되면, 재생되는 동안 피사체는 상대적으로 빠르게 움직일 수 있다.
한편, 앞서 설명된 바와 같이, 가장 작은 프레임레이트에 따른 재생속도로 인해 큰 프레임레이트를 갖는 부분들은 상대적으로 느리게 재생되며, 재생되는 피사체도 상기 화면내에서 느리게 움직일 수 있다. 그러나, 사용자는 전체적인 리뷰를 위해 비디오를 동일한 속도로 연속적으로 재생할 필요가 있을 수 있다. 따라서, 스마트 디바이스(100)는 서로 다른 프레임레이트를 갖는 비디오의 파트들을 재생하는 속도들을 같은 속도로 조절할 수 있다(S83). 상기 조절단계(S83)에서, 실제적으로, 서로 다른 프레임 레이트들을 갖는 비디오의 파트들이 재생되는 동안, 디스플레이부(141)의 화면에서 피사체의 움직이는 속도들은 같은 속도로 조절될 수 있다. 즉, 상기 비디오가 재생되는 동안, 비디오의 모든 파트들, 보다 상세하게는 가장 작은 프레임 레이트를 갖는 비디오의 파트와 이와는 다른, 즉 이보다 큰 프레임 레이트들을 갖는 비디오의 나머지 파트들에서 피사체는 상기 디스플레이부(151)의 화면에서 동일한 속도로 움직일 수 있다.
이러한 속도조절을 위해 다양한 방법이 사용될 수 있으나, 프레임 레이트를 조절하는 것이 단순하고 용이할 수 있다. 즉, 스마트 디바이스(100)는 비디오가 재생되는 동안 상기 비디오의 파트들의 프레임 레이트들을 가장 작은 프레임 레이트로 변경할 수 있다(S83a). 즉, 도 26의 예에서, 상기 스마트 디바이스(100)는 비디오가 재생되는 동안 상기 제 2 구간(12)의 제 2 프레임 레이트를 상기 제 1 구간(11)의 제 1 프레임 레이트로 변경할 수 있다. 보다 상세하게는, 스마트 디바이스(100)는 비디오를 재생하는 동안, 가장 작은 프레임레이트를 갖는 파트와는 다른 프레임 레이트들을 갖는 파트들의 프레임들의 일부를 건너뛸(skip) 수 있다. 만일 임의적으로 프레임들을 건너뛰면, 비디오의 재생이 원활하지 않을 수 있다. 따라서, 스마트 디바이스(100)는 소정 시간당 또는 소정 프레임들당 고정된 개수의 프레임들을 건너뛸 수 있다. 예를 들어, 도 26을 참조하면, 제 1 구간(11), 즉 상기 제 1 파트는 30 fps의 제 1 프레임 레이트를 가질 수 있으며, 제 2 구간(12), 즉 제 2 파트는 120 fps의 제 2 프레임 레이트를 가질 수 있다. 제 1 파트와 비교할 때, 제 2 파트는 1초당 120 프레임, 즉 4배의 프레임들을 포함할 수 있다. 비디오의 재생동안 제 1 구간(11)의 제 1 프레임 레이트와 일치되도록 제 2 구간(12)에서 4개의 프레임마다, 즉 1/30초마다 1개의 프레임만이 재생될 수 있다. 또한, 디바이스(100)는 재생 품질을 고려하여 4개 프레임들중 가장 좋은 프레임을 재생할 수 있다. 이와 같은 선택적 재생은 실질적으로 가장 작은 프레임레이트, 즉 제 1 프레임레이트로 다른 프레임레이트, 즉 제 2 프레임레이트가 변경되는 효과를 가져오며, 피사체는 재생되는 동안 동일한 속도로 움직일 수 있다.
또한, 인터페이스(10)는 동일한 재생속도를 위한 버튼(13)을 포함할 수 있다. 따라서, 재생되는 도중 사용자는 상기 버튼(13)를 토글함으로써 상기 조절단계(S83)에 따른 동일한 재생속도를 편리하게 적용하거나 해제할 수 있다.
앞서 주어진 설명 및 도면에서 이해될 수 있는 바와 같이, 제어방법은 상대적 움직임에 따라 획득조건들을 조절하며, 조절된 조건을 바로 비디오의 획득에 적용할 수 있다. 또한, 제어방법은 플리커를 제거하도록 획득조건들을 변경하며, 변경되 조건들은 바로 비디오의 획득에 적용될 수 있다. 따라서, 본원의 제어방법은 획득되고 있는 비디오의 품질을 능동적으로 실시간적 방식으로 향상시킬 수 있다.
더 나아가, 위의 상세한 설명에서 제어방법은 동적 이미지, 즉 비디오의 획득과 관련하여 설명되었으나, 실질적인 변형없이 바로 정지 이미지, 즉 사진의 획득에 적용될 수도 있다. 예를 들어, 상기 획득, 검출, 조절 및 제거단계들(S10-S30,S60)을 1회 수행함으로써 다음에 획득되는 정지 이미지의 품질 향상을 위해 해당되는 조건들을 조절할 수 있다. 더 나아가, 단순히 검출, 조절 및 제거 단계들(S20,S30,S60)만을 먼저 수행함으로써 뒤따드는 획득단계(S10)에서 보다 향상된 정지 이미지가 획득될 수 있다.
상기의 상세한 설명은 모든 면에서 제한적으로 해석되어서는 아니되고 예시적인 것으로 고려되어야 한다. 본 발명의 범위는 첨부된 청구항의 합리적 해석에 의해 결정되어야 하고, 본 발명의 등가적 범위 내에서의 모든 변경은 본 발명의 범위에 포함된다.
100: 스마트 디바이스 200: 카메라 모듈
300: 조리개 310: 박막
320: 전극 350: 개구부
S10: 획득단계 S20: 검출단계
S30: 조절단계 S60: 플리커 제거단계

Claims (67)

  1. 몸체;
    상기 몸체에 설치되며, 다양한 정보를 디스플레이도록 구성되는 디스플레이부:
    상기 몸체에 설치되며, 외부 피사체에 대한 디지털 영상을 획득하도록 구성되는 카메라; 및
    상기 카메라에 포함되며, 상기 카메라의 렌즈에 입사되는 빛의 량을 조절하도록 구성되는 조리개로 이루어지며,
    상기 조리개는 단일층으로 이루어지는 박막을 포함하며, 상기 박막에서 형성되어 상기 빛을 통과시키는 개구부의 크기를 조절하도록 구성되는 스마트 디바이스.
  2. 제 1 항에 있어서,
    상기 조리개는 상기 박막에서 서로 다른 크기들을 갖는 개구부들을 형성하도록 구성되는 것을 특징으로 하는 스마트 디바이스.
  3. 제 1 항에 있어서,
    상기 조리개는 상기 개구부의 크기를 조절하기 위해 상기 박막의 투명도를 부분적으로 조절하도록 구성되는 것을 특징으로 하는 스마트 디바이스.
  4. 제 3 항에 있어서,
    상기 조리개는 상기 박막의 투명도를 조절하기 위해 상기 박막의 색상을 전기에 의해 부분적으로 변경시키는 것을 특징으로 하는 스마트 디바이스.
  5. 제 1 항에 있어서,
    상기 박막은 전압이 인가되었을 때, 투명한 상태에서 불투명한 상태로 전환되는 전기변색재료(electrochromic material)로 만들어지는 것을 특징으로 하는 스마트 디바이스.
  6. 제 1 항에 있어서,
    상기 박막은 PEDOT(Poly(3,4-ethylenedioxythiophene)) 또는 LiCF3SO3 으로 이루어지는 것을 특징으로 하는 스마트 디바이스.
  7. 제 1 항에 있어서,
    상기 조리개는 서로 다른 크기의 개구부들을 각각 가지며, 동심상으로 동일 평면내에 배치되는 다수개의 박막들로 이루어지는 것을 특징으로 하는 스마트 디바이스.
  8. 제 7 항에 있어서,
    상기 다수개의 박막들은 서로 인접하게 배치되는 적어도 한 쌍의 박막들을 가지며, 상기 한쌍의 박막들중 어느 하나의 박막은 상기 어느 하나의 박막의 개구부보다 크게 형성되는 다른 하나의 박막의 개구부내에 배치되는 것을 특징으로 하는 스마트 디바이스.
  9. 제 7 항에 있어서,
    상기 조리개는 상기 서로 다른 개구부들을 갖기 위해 상기 박막들의 투명도들을 개별적으로 조절하도록 구성되며,
    상기 박막들의 투명도를 조절하기 위해 상기 박막들을 전기에 의해 선택적으로 변색시키는 것을 특징으로 하는 스마트 디바이스.
  10. 제 7 항에 있어서,
    상기 조리개는 일정 개구부를 형성하기 위해, 상기 일정 개구부보다 작은 개구부를 갖는 박막들을 투명하게 만드는 것을 특징으로 하는 스마트 디바이스.
  11. 제 10 항에 있어서,
    상기 조리개는 상기 일정 개구부를 포함하는 박막과 상기 일정 개구부보다 큰 개구부들을 포함하는 박막들을 불투명하게 만드는 것을 특징으로 하는 스마트 디바이스.
  12. 제 1 항 또는 제 7 항에 있어서,
    상기 조리개는:
    소정의 제 1 직경을 갖는 제 1 개구부를 포함하는 제 1 박막; 및
    상기 제 1 박막을 감싸며, 상기 제 1 직경보다 큰 제 2 직경을 갖는 제 2 개구부를 포함하는 제 2 박막을 포함하는 것을 특징으로 하는 스마트 디바이스.
  13. 제 7 항에 있어서,
    상기 조리개는 대체적으로 원형으로 각각 형성되는 다수개의 박막들을 포함하는 것을 특징으로 하는 스마트 디바이스.
  14. 제 7 항에 있어서,
    상기 조리개는 괄호 형상을 각각 갖는 다수개의 박막들을 포함하는 것을 특징으로 하는 스마트 디바이스.
  15. 제 7 항에 있어서,
    상기 조리개는 나선형으로 연장되는 다수개의 박막들을 포함하는 것을 특징으로 하는 스마트 디바이스.
  16. 제 7 항에 있어서,
    상기 조리개는 상기 박막들과 각각 연결되며, 상기 박막들에 전압을 인가하도록 구성되는 전극을 더 포함하는 것을 특징으로 하는 스마트 디바이스.
  17. 제 7 항 및 제 16 항에 있어서,
    상기 각각의 박막들은 이들에 전압을 인가하는 상기 전극들과 연결되도록 적어도 한 지점에서 불연속적인 것을 특징으로 하는 스마트 디바이스.
  18. 제 16 항에 있어서,
    상기 전극들은 서로 소정간격으로 이격되며, 동일 평면내에 배치되는 것을 특징으로 하는 스마트 디바이스.
  19. 제 16 항에 있어서,
    상기 전극들은 순차적으로 적층되는 것을 특징으로 하는 스마트 디바이스.
  20. 제 1 항에 있어서,
    상기 조리개는 상기 박막의 외주부를 감싸며, 상기 렌즈로 빛을 들어가는 것을 차단하도록 구성되는 불투명 막을 더 포함하는 것을 특징으로 하는 스마트 디바이스.
  21. 제 1 항에 있어서,
    상기 조리개는 상기 박막이 그 위에 형성되는 기판을 더 포함하며, 상기 기판은 투명한 재질로 형성되는 것을 특징으로 하는 스마트 디바이스.
  22. 제 1 항에 있어서,
    Ka: 상기 개구부의 직경;
    Ks: 상기 렌즈를 통과한 빛의 광학적 정보를 전기적 신호로 변환하는 이미지 센서의 대각선 길이일 때,
    상기 개구부의 직경과 상기 센서의 대각 길이의 비율(Ka/Ks)은
    0.05 < |Ka/Ks| < 0.2 의 범위를 갖는 것을 특징으로 하는 스마트 디바이스.
  23. 제 1 항에 있어서,
    상기 카메라 모듈의 F값은 1.4 - 3.5 인 것을 특징을 하는 스마트 디바이스.
  24. 제 1 항에 있어서,
    상기 개구부의 직경은 0.46mm - 1.17 mm인 것을 특징으로 하는 스마트 디바이스.
  25. 제 7 항에 있어서,
    상기 박막들은 상기 개구부들을 형성하는 내주부들(inner circumferences)과 상기 내주부로부터 이격되는 외주부들(outer circumferences)을 가지며, 상기 내주부들과 상기 내주부들 사이의 거리는 0.001mm - 0.27 mm 인 것을 특징으로 하는 스마트 디바이스.
  26. 스마트 디바이스의 카메라 모듈에서 기설정된 조건들을 사용하여 피사체의 비디오를 계속적으로 획득하는 단계;
    상기 피사체와 상기 스마트 디바이스 사이의 상대적 움직임을 검출하는 단계; 및
    상기 검출된 움직임에 기초하여, 상기 조건들중 적어도 하나를 조절하는 단계로 이루어지는 스마트 디바이스의 제어방법.
  27. 제 26 항에 있어서,
    상기 획득단계는 상기 카메라 모듈의 이미지 센서에서 다수개의 영상들 또는 프레임을 획득하는 단계로 이루어지는 것을 특징으로 하는 스마트 디바이스의 제어방법.
  28. 제 26 항에 있어서,
    상기 조건들은 프레임 레이트(frame rate), 상기 카메라 모듈의 이미지 센서에서의 노출시간, 상기 카메라 모듈의 조리개의 개구부의 크기를 포함하는 것을 특징으로 하는 스마트 디바이스의 제어방법.
  29. 제 26 항에 있어서,
    상기 검출단계는 상기 스마트 디바이스의 움직임을 검출하는 단계 및/또는 상기 피사체의 움직임을 검출하는 단계를 포함하는 것을 특징으로 하는 스마트 디바이스의 제어방법.
  30. 제 26 항에 있어서,
    상기 검출단계가 상기 스마트 디바이스의 움직임 또는/및 상기 피사체의 움직임을 검출하면, 상기 조절단계는 상기 비디오의 프레임 레이트를 증가시키는 단계를 포함하는 것을 특징으로 하는 스마트 디바이스의 제어방법.
  31. 제 26 항에 있어서,
    상기 검출단계가 상기 스마트 디바이스의 움직임 또는/및 상기 피사체의 움직임을 검출하면, 상기 조절단계는 상기 카메라 모듈의 이미지 센서에서의 노출시간을 감소시키는 단계를 포함하는 것을 특징으로 하는 스마트 디바이스의 제어방법.
  32. 제 26 항에 있어서,
    상기 검출단계가 상기 스마트 디바이스의 움직임 또는/및 상기 피사체의 움직임을 검출하면, 상기 조절단계는 상기 카메라 모듈에 설치된 조리개의 개구부를 확장시키는 단계를 포함하는 것을 특징으로 하는 스마트 디바이스의 제어방법.
  33. 제 26 항에 있어서,
    상기 검출단계가 상기 스마트 디바이스 및 상기 피사체의 어떠한 움직임도 검출하지 못하면, 상기 조건들의 초기 값들을 계속적으로 유지하는 단계를 더 포함하는 것을 특징으로 하는 스마트 디바이스의 제어방법.
  34. 제 29 항에 있어서,
    상기 스마트 디바이스의 움직임을 검출하는 단계는 상기 스마트 디바이스의 자이로 센서 및 가속도 센서에서 상기 스마트 디바이스의 움직임을 직접적으로 감지하는 단계로 이루어지는 것을 특징으로 하는 스마트 디바이스의 제어방법.
  35. 제 29 항에 있어서,
    상기 피사체의 움직임을 검출하는 단계는:
    상기 획득된 비디오로부터 피사체의 움직임 량을 검출하는 단계; 및
    상기 검출된 움직임 량이 소정의 임계값을 초과하면, 상기 피사체가 움직이는 것으로 결정하는 단계를 포함하는 것을 특징으로 하는 스마트 디바이스의 제어방법.
  36. 제 26 항에 있어서,
    상기 검출 및 조절단계들은 상기 스마트 디바이스가 상기 비디오를 획득하는 동안 계속적으로 반복되며, 실시간적으로 수행되는 것을 특징으로 하는 스마트 디바이스의 제어방법.
  37. 제 26 항에 있어서,
    상기 검출 및 조절단계들은 상기 획득된 비디오의 각각의 프레임들에 대해 수행되며, 어느 한 프레임에 대한 상기 검출단계 및 조절단계들은 뒤따르는 프레임의 획득이 시작되기 이전에 완료되는 것을 특징으로 하는 스마트 디바이스의 제어방법.
  38. 제 26 항에 있어서,
    상기 획득단계에서 사용되는 광원에 기초하여 상기 획득된 비디오로부터 플리커(flicker)를 제거하는 단계를 더 포함하는 것을 특징으로 하는 스마트 디바이스의 제어방법.
  39. 제 38 항에 있어서,
    상기 제거단계는:
    상기 광원의 종류를 검출하는 단계:
    상기 검출된 광원의 종류에 따라 상기 조건을 변경하는 단계를 포함하는 것을 특징으로 하는 스마트 디바이스의 제어방법.
  40. 제 39 항에 있어서,
    상기 광원의 종류를 검출하는 단계는 상기 광원의 밝기를 측정하는 단계 또는 상기 획득된 비디오에서 상기 플리커를 직접적으로 검출하는 단계로 이루어지는 것을 특징으로 하는 스마트 디바이스의 제어방법.
  41. 제 39 항에 있어서,
    상기 광원의 종류를 검출하는 단계는:
    인공광원과 동기되지 않는 소정의 프레임 레이트로 이미지 센서를 상기 광원에 노출시키는 단계; 및
    상기 이미지 센서에서 얻어진 전기적 신호의 불연속성 또는 불규칙성을 검출하는 단계를 포함하는 것을 특징으로 하는 스마트 디바이스의 제어방법.
  42. 제 40 항에 있어서,
    상기 광원의 종류를 검출하는 단계는 상기 획득된 비디오에서 상기 플리커가 존재하면 상기 광원을 인공광원으로 판단하는 단계 및 상기 획득된 비디오에서 상기 플리커가 존재하지 않으면 상기 광원을 자연광원으로 판단하는 단계를 포함하는 것을 특징으로 하는 스마트 디바이스의 제어방법.
  43. 제 41 항에 있어서,
    상기 광원의 종류를 검출하는 단계는 상기 획득된 전기적 신호의 파형이 불연속적이거나 불규칙적으로 변화하면, 상기 광원을 인공광원으로 판단하는 단계 및 상기 획득된 전기적 신호의 파형이 연속적으로 규칙적으로 변화하면, 상기 광원을 자연광원으로 판단하는 단계를 포함하는 것을 특징으로 하는 스마트 디바이스의 제어방법.
  44. 제 39 항에 있어서,
    상기 검출단계가 상기 광원을 인공광원으로 검출하면,
    상기 변경단계는 상기 조절단계에서 조절된 조건들중 적어도 하나를 추가적으로 변경하는 단계를 포함하거나,
    상기 변경단계는 만일 상기 움직임 검출단계가 어떠한 움직임도 감지하지 못하면, 상기 획득단계에서의 상기 조건들중 적어도 하나를 변경하는 단계를 포함하는 것을 특징으로 하는 스마트 디바이스의 제어방법.
  45. 제 39 항에 있어서,
    상기 검출단계가 상기 광원을 인공광원으로 검출하면, 상기 변경단계는 상기 비디오의 프레임 레이트를 상기 인공광원의 주파수와 동기화하는 단계를 포함하는 것을 특징으로 하는 스마트 디바이스의 제어방법.
  46. 제 45 항에 있어서,
    상기 동기화 단계는 상기 비디오의 프레임 레이트를 상기 인공광원의 주파수와 같은 값으로 설정, 2n배로 증가, 또는 1/2n배로 감소시키며, 여기서 n=1, 2, 3, 4, ---인 것을 특징으로 하는 스마트 디바이스의 제어방법.
  47. 제 39 항에 있어서,
    상기 검출단계가 상기 광원을 자연광원으로 검출하면,
    상기 변경단계는 상기 조절단계에서 조절된 상기 조건들을 유지하는 단계를 포함하거나,
    상기 변경단계는 만일 상기 움직임 검출단계가 어떠한 움직임도 감지하지 못하면, 상기 획득단계에서의 상기 조건들을 유지하는 단계를 포함하는 것을 특징으로 하는 스마트 디바이스의 제어방법.
  48. 제 39 항에 있어서,
    상기 검출단계가 상기 광원을 자연광원으로 검출할 때, 만일 자연광원의 밝기가 소정 밝기보다 낮으면, 상기 변경단계는 상기 비디오의 프레임 레이트를 감소시키고 상기 카메라 모듈의 이미지 센서의 게인(gain)을 감소시키는 단계를 더 포함하는 것을 특징으로 하는 스마트 디바이스의 제어방법.
  49. 제 26 항에 있어서,
    상기 검출단계가 상기 스마트 디바이스 또는/및 상기 피사체의 움직임을 검출하면, 상기 움직임의 검출을 사용자에게 통지하는 단계를 더 포함하는 것을 특징으로 하는 스마트 디바이스의 제어방법.
  50. 제 26 항에 있어서,
    상기 조절단계가 상기 조건들중 최소한 하나를 조절하면, 상기 조건의 조절을 사용자에게 통지하는 단계를 더 포함하는 것을 특징으로 하는 스마트 디바이스의 제어방법.
  51. 제 49 항 또는 제 50 항에 있어서,
    상기 통지단계는 상기 움직임의 검출 및 상기 조건의 조절을 상기 스마트 디바이스에 표시하는 단계로 이루어지며,
    상기 표시단계는 상기 움직임의 검출 및 상기 조건의 조절을 나타내는 아이콘이나 텍스트를 상기 스마트 디바이스의 디스플레이에 표시하는 단계로 이루어지는 것을 특징으로 하는 스마트 디바이스의 제어방법.
  52. 제 26 항에 있어서,
    상기 조절단계에 의해 서로 다른 조건들을 포함하는 상기 피사체의 비디오를 제어하도록 구성되는 유저 인터페이스를 사용자에게 제공하는 단계를 더 포함하는 것을 특징으로 하는 스마트 디바이스의 제어방법.
  53. 제 52 항에 있어서,
    상기 비디오는 서로 다른 조건들을 각각 가지며 연속적으로 획득된 다수개의 파트들로 이루어지며, 상기 인터페이스는 단일의 스팬(span)내에 상기 파트들을 연속적으로 표시하도록 구성되는 것을 특징으로 하는 스마트 디바이스의 제어방법.
  54. 제 52 항에 있어서,
    상기 유저 인터페이스는:
    소정의 조건들을 갖는 비디오의 제 1 파트를 표시하는 제 1 구간; 및
    상기 제 1 파트의 조건들과 다른 조건들을 갖도록 제 1 파트에 연속적으로 획득된 상기 비디오의 제 2 파트를 표시하며, 상기 제 1 구간에 연속적으로 배치되는 제 2 구간을 포함하는 것을 특징으로 하는 스마트 디바이스의 제어방법.
  55. 제 52 항에 있어서,
    상기 유저 인터페이스는:
    소정의 제 1 프레임레이트를 갖는 상기 비디오의 제 1 파트를 나타내는 제 1 구간; 및
    상기 제 1 프레임 레이트와는 다른 제 2 프레임레이트를 갖도록 상기 제 1 파트에 연속적으로 획득된 상기 비디오의 제 2 파트를 나타내며, 상기 제 1 구간에 연속적으로 배치되는 제 2 구간을 포함하는 것을 특징으로 하는 스마트 디바이스의 제어방법.
  56. 제 54 항 또는 제 55 항에 있어서,
    상기 제 1 및 제 2 구간의 길이는 상기 제 1 및 제 2 파트가 획득된 시간에 따라 결정되는 것을 특징으로 하는 스마트 디바이스의 제어방법.
  57. 제 55 항에 있어서,
    상기 제 1 및 제 2 구간은 동일한 프레임들의 갯수마다 설정되는 눈금들을 포함하는 것을 특징으로 하는 스마트 디바이스의 제어방법.
  58. 제 52 항 또는 제 55 항에 있어서,
    상기 인터페이스를 이용하여 상기 피사체의 비디오를 디스플레이에서 재생하는 단계를 더 포함하는 것을 특징으로 하는 스마트 디바이스의 제어방법.
  59. 제 58 항에 있어서,
    상기 재생단계는 서로 다른 프레임 레이트들중 가장 작은 프레임 레이트에 따라 상기 비디오를 재생하는 단계를 포함하는 것을 특징으로 하는 스마트 디바이스의 제어방법.
  60. 제 58 항에 있어서,
    상기 재생단계는 상기 제 1 구간과 상기 제 2 구간을 상기 제 1 프레임 레이트에 따라 재생하는 단계를 포함하며, 상기 재생단계동안 상기 제 2 구간의 피사체가 상기 제 1 구간의 피사체보다 느리게 움직이는 것을 특징으로 하는 스마트 디바이스의 제어방법.
  61. 제 58 항에 있어서,
    상기 재생단계는 상기 비디오의 소정 파트에서의 재생속도를 변화시키기 위해 상기 소정 파트에 해당하는 인터페이스의 길이를 변화 시키는 단계를 포함하며,
    상기 변화단계는 상기 제 1 구간 또는 제 2 구간의 재생속도를 감소시키기 위해 상기 제 1 구간 또는 제 2 구간의 길이를 확장시키는 단계 또는 상기 제 1 구간 또는 제 2 구간의 재생속도를 증가시키기 위해 상기 제 1 구간 또는 제 2 구간의 길이를 축소시키는 단계를 포함하는 것을 특징으로 하는 스마트 디바이스의 제어방법.
  62. 제 58 항에 있어서,
    상기 재생단계는 상기 피사체가 상기 비디오의 재생동안 동일한 속도로 움직이도록 서로 다른 프레임 레이트들을 갖는 상기 비디오의 파트들을 재생하는 속도들을 동일한 속도로 조절하는 단계를 포함하는 것을 특징으로 하는 스마트 디바이스의 제어방법.
  63. 제 62 항에 있어서,
    상기 조절단계는 상기 비디오가 재생되는 동안 상기 비디오의 파트들의 서로 다른 프레임 레이트들을 상기 프레임 레이트들중 가장 작은 프레임 레이트로 변경하는 단계를 포함하는 것을 특징으로 하는 스마트 디바이스의 제어방법.
  64. 제 62 항에 있어서,
    상기 조절단계는 상기 제 2 구간의 제 2 프레임 레이트를 상기 제 1 구간의 제 1 프레임 레이트로 변경하는 단계를 포함하는 것을 특징을 하는 스마트 디바이스의 제어방법.
  65. 제 63 항에 있어서,
    상기 변경단계는 상기 가장 작은 프레임 레이트 보다 큰 프레임 레이트들을 갖는 상기 비디오의 파트들을 재생하는 동안 프레임들 일부를 건너뛰는 단계로 이루어지는 것을 특징으로 하는 스마트 디바이스의 제어방법.
  66. 제 63 항에 있어서,
    상기 변경단계는 소정 시간당 또는 소정 프레임당 고정된 개수의 프레임들을 건너뛰는 것을 특징으로 하는 스마트 디바이스의 제어방법
  67. 제 26 항 또는 제 39 항에 있어서,
    상기 조절단계 또는 상기 변경단계에서 조절되거나 변경된 조건들에 기초하여 상기 스마트 디바이스의 카메라 모듈에서 상기 피사체의 비디오를 추가적으로 획득단계를 더 포함하는 것을 특징으로 하는 스마트 디바이스의 제어방법.
KR1020150128130A 2015-09-10 2015-09-10 스마트 디바이스 및 이의 제어방법 Withdrawn KR20170030789A (ko)

Priority Applications (5)

Application Number Priority Date Filing Date Title
KR1020150128130A KR20170030789A (ko) 2015-09-10 2015-09-10 스마트 디바이스 및 이의 제어방법
PCT/KR2016/000500 WO2017043710A1 (en) 2015-09-10 2016-01-18 Smart device and controlling method thereof
US15/004,810 US9936113B2 (en) 2015-09-10 2016-01-22 Smart device and controlling method thereof
EP16162524.9A EP3141947B1 (en) 2015-09-10 2016-03-29 Smart device and controlling method thereof
CN201610353394.8A CN106534623B (zh) 2015-09-10 2016-05-25 智能设备及其控制方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020150128130A KR20170030789A (ko) 2015-09-10 2015-09-10 스마트 디바이스 및 이의 제어방법

Publications (1)

Publication Number Publication Date
KR20170030789A true KR20170030789A (ko) 2017-03-20

Family

ID=55699398

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020150128130A Withdrawn KR20170030789A (ko) 2015-09-10 2015-09-10 스마트 디바이스 및 이의 제어방법

Country Status (5)

Country Link
US (1) US9936113B2 (ko)
EP (1) EP3141947B1 (ko)
KR (1) KR20170030789A (ko)
CN (1) CN106534623B (ko)
WO (1) WO2017043710A1 (ko)

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2021167342A3 (en) * 2020-02-19 2021-09-30 Samsung Electronics Co., Ltd. Electronic device including camera module shooting through at least one portion of display device
WO2022030736A1 (ko) * 2020-08-03 2022-02-10 삼성전자 주식회사 조도 측정 방법 및 장치
KR102404860B1 (ko) * 2020-12-17 2022-06-08 (주)캠시스 카메라 모듈 및 그 제조방법
KR20220144446A (ko) * 2021-04-19 2022-10-27 (주)캠시스 조리개를 구비한 카메라 모듈 및 그 제조방법
KR102565025B1 (ko) * 2023-01-06 2023-08-08 구숙희 포커스 촬영을 위한 원형 프레임을 제공하는 스마트폰용 카메라 렌즈 커버
US11743568B2 (en) 2020-09-07 2023-08-29 Samsung Display Co., Ltd. Electronic device and driving method of electronic device

Families Citing this family (15)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102480895B1 (ko) * 2016-02-19 2022-12-26 삼성전자 주식회사 전자 장치 및 전자 장치의 동작 제어 방법
KR102568898B1 (ko) * 2016-10-26 2023-08-22 삼성전자주식회사 디스플레이 장치 및 컨텐츠를 디스플레이하는 방법
KR102289837B1 (ko) * 2017-01-06 2021-08-17 삼성전자주식회사 촬영 방법 및 전자 장치
CN107454452B (zh) * 2017-09-12 2018-03-02 张玉红 卫星接收机上盒节目推荐系统及方法
WO2019062187A1 (zh) * 2017-09-30 2019-04-04 云谷(固安)科技有限公司 显示屏以及电子设备
US20190258144A1 (en) * 2018-02-22 2019-08-22 Perspective Components, Inc. Dynamic camera adjustment mechanism
ES2945726T3 (es) * 2018-09-27 2023-07-06 Huawei Tech Co Ltd Cámara y terminal
CN109819149B (zh) * 2019-02-13 2022-03-15 Oppo广东移动通信有限公司 摄像模组及移动终端
US10924690B2 (en) * 2019-04-17 2021-02-16 Google Llc Electronically controlling optical transmission of a lens of a camera in variable lighting
CN109963064B (zh) * 2019-04-29 2024-03-01 杭州涂鸦信息技术有限公司 一种具有散热功能的智能监控终端
EP3975527B1 (en) * 2019-06-28 2024-05-01 Guangdong Oppo Mobile Telecommunications Corp., Ltd. Electronic device with a display and a cover assembly.
TWI701501B (zh) 2019-07-22 2020-08-11 點晶科技股份有限公司 行動通訊設備、光學組件及其光圈模組
CN112449084B (zh) * 2019-08-28 2022-04-01 Oppo广东移动通信有限公司 摄像头模组以及电子设备
JP7407909B2 (ja) * 2020-03-25 2024-01-04 富士フイルム株式会社 撮像装置、撮像方法、撮像プログラム、及び記録媒体
CN116405759A (zh) * 2021-12-22 2023-07-07 中兴通讯股份有限公司 一种摄像终端、摄像方法及计算机可读存储介质

Family Cites Families (20)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS5621114A (en) 1979-07-27 1981-02-27 Canon Inc Control circuit of electrochromic diaphragm using electrochromic material
JP3194312B2 (ja) 1993-03-19 2001-07-30 ソニー株式会社 絞り装置
US6426492B1 (en) 1999-05-24 2002-07-30 Donnelly Corporation Electro-optic aperture for vehicular imaging system
JP2004274548A (ja) * 2003-03-11 2004-09-30 Konica Minolta Holdings Inc 携帯端末
US20050146634A1 (en) * 2003-12-31 2005-07-07 Silverstein D. A. Cameras, optical systems, imaging methods, and optical filter configuration methods
GB0407414D0 (en) * 2004-04-01 2004-05-05 1 Ltd Variable focal length lens
KR100645635B1 (ko) * 2004-11-30 2006-11-15 삼성전기주식회사 광학 소자를 포함하는 이미지 픽업 모듈
US20070133983A1 (en) * 2005-12-14 2007-06-14 Matilda Traff Light-controlling element for a camera
US7633587B2 (en) 2006-04-18 2009-12-15 Sony Ericsson Mobile Communications Ab Liquid crystal aperture in a camera
US8379115B2 (en) * 2007-11-20 2013-02-19 Motorola Mobility Llc Image capture device with electronic focus
US8643748B2 (en) * 2007-11-20 2014-02-04 Motorola Mobility Llc Compact stationary lens optical zoom image capture system
WO2009117506A2 (en) * 2008-03-18 2009-09-24 Pixeloptics, Inc. Advanced electro-active optic device
WO2010081556A1 (en) * 2009-01-16 2010-07-22 Iplink Limited Improving the depth of field in an imaging system
US20120019713A1 (en) 2010-07-26 2012-01-26 Qualcomm Mems Technologies, Inc. Mems-based aperture and shutter
KR101824439B1 (ko) * 2011-02-16 2018-02-02 주식회사 스테레오피아 모바일 스테레오 카메라 장치 및 그 촬영방법
JP5816679B2 (ja) * 2011-03-22 2015-11-18 富士フイルム株式会社 レンズ装置及びその制御方法
JP5734776B2 (ja) 2011-07-15 2015-06-17 株式会社東芝 カメラモジュール
EP2829054A1 (en) * 2012-03-19 2015-01-28 Sony Mobile Communications AB Smart cameras
US8891042B1 (en) * 2013-09-23 2014-11-18 Lc-Tec Displays Ab Electro-optic liquid crystal camera iris providing angle independent transmission for uniform gray shades
US9491373B2 (en) * 2013-12-10 2016-11-08 Sody Co., Ltd. Light control apparatus for an image sensing optical device

Cited By (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2021167342A3 (en) * 2020-02-19 2021-09-30 Samsung Electronics Co., Ltd. Electronic device including camera module shooting through at least one portion of display device
US11595586B2 (en) 2020-02-19 2023-02-28 Samsung Electronics Co., Ltd. Electronic device including camera module shooting through at least one portion of display device
WO2022030736A1 (ko) * 2020-08-03 2022-02-10 삼성전자 주식회사 조도 측정 방법 및 장치
US11929001B2 (en) 2020-08-03 2024-03-12 Samsung Electronics Co., Ltd. Method and device for measuring illuminance
US11743568B2 (en) 2020-09-07 2023-08-29 Samsung Display Co., Ltd. Electronic device and driving method of electronic device
KR102404860B1 (ko) * 2020-12-17 2022-06-08 (주)캠시스 카메라 모듈 및 그 제조방법
KR20220144446A (ko) * 2021-04-19 2022-10-27 (주)캠시스 조리개를 구비한 카메라 모듈 및 그 제조방법
KR102565025B1 (ko) * 2023-01-06 2023-08-08 구숙희 포커스 촬영을 위한 원형 프레임을 제공하는 스마트폰용 카메라 렌즈 커버

Also Published As

Publication number Publication date
CN106534623B (zh) 2019-11-12
WO2017043710A1 (en) 2017-03-16
EP3141947A1 (en) 2017-03-15
CN106534623A (zh) 2017-03-22
US9936113B2 (en) 2018-04-03
EP3141947B1 (en) 2017-11-22
US20170078543A1 (en) 2017-03-16

Similar Documents

Publication Publication Date Title
KR20170030789A (ko) 스마트 디바이스 및 이의 제어방법
US10015383B2 (en) Mobile terminal
KR101700771B1 (ko) 이동 단말기
KR101708320B1 (ko) 이동 단말기
KR101748260B1 (ko) 카메라 모듈
CN105518516B (zh) 音频换能器的隔离
KR20170006559A (ko) 이동단말기 및 그 제어방법
US9854217B2 (en) Mobile terminal equipped with a camera and controlling method thereof
KR20150124710A (ko) 폴리오 케이스 및 이동 단말기
KR20160019145A (ko) 이동 단말기 및 그 제어 방법
KR20160127606A (ko) 이동 단말기 및 그 제어 방법
US20200124828A1 (en) Mobile terminal
KR102446264B1 (ko) 이동 단말기
KR20170057058A (ko) 이동 단말기 및 이의 제어방법
KR20200034528A (ko) 이동 단말기
KR20160036230A (ko) 이동 단말기 제어방법 및 이동 단말기
KR20170088046A (ko) 회로구조 및 이동 단말기
EP3767927A1 (en) Optical device and mobile terminal
KR20170037123A (ko) 이동단말기 및 그 제어방법
KR20160038409A (ko) 이동 단말기 및 그 제어 방법
KR20150140050A (ko) 이동단말기 및 그 제어방법
KR20150095165A (ko) 이동 단말기 및 그 제어방법
KR102127396B1 (ko) 이미지 획득 장치
KR101575053B1 (ko) 이동 단말기
KR20170037462A (ko) 이동단말기 및 그 제어방법

Legal Events

Date Code Title Description
PA0109 Patent application

Patent event code: PA01091R01D

Comment text: Patent Application

Patent event date: 20150910

PG1501 Laying open of application
PA0201 Request for examination

Patent event code: PA02012R01D

Patent event date: 20200827

Comment text: Request for Examination of Application

Patent event code: PA02011R01I

Patent event date: 20150910

Comment text: Patent Application

PC1202 Submission of document of withdrawal before decision of registration

Comment text: [Withdrawal of Procedure relating to Patent, etc.] Withdrawal (Abandonment)

Patent event code: PC12021R01D

Patent event date: 20210608

WITB Written withdrawal of application