[go: up one dir, main page]

KR20240175670A - Electronic device and method for displaying a content in virtual environment - Google Patents

Electronic device and method for displaying a content in virtual environment Download PDF

Info

Publication number
KR20240175670A
KR20240175670A KR1020230140647A KR20230140647A KR20240175670A KR 20240175670 A KR20240175670 A KR 20240175670A KR 1020230140647 A KR1020230140647 A KR 1020230140647A KR 20230140647 A KR20230140647 A KR 20230140647A KR 20240175670 A KR20240175670 A KR 20240175670A
Authority
KR
South Korea
Prior art keywords
display
content
wearable device
size
user
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
KR1020230140647A
Other languages
Korean (ko)
Inventor
김주영
박은솔
염동현
황선필
김성오
여형석
Original Assignee
삼성전자주식회사
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 삼성전자주식회사 filed Critical 삼성전자주식회사
Priority to PCT/KR2024/003889 priority Critical patent/WO2024258008A1/en
Priority to US18/629,652 priority patent/US20240420410A1/en
Publication of KR20240175670A publication Critical patent/KR20240175670A/en
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • G06F3/013Eye tracking input arrangements
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F1/00Details not covered by groups G06F3/00 - G06F13/00 and G06F21/00
    • G06F1/16Constructional details or arrangements
    • G06F1/1613Constructional details or arrangements for portable computers
    • G06F1/163Wearable computers, e.g. on a belt
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/002Specific input/output arrangements not covered by G06F3/01 - G06F3/16
    • G06F3/005Input arrangements through a video camera
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T19/00Manipulating 3D models or images for computer graphics
    • G06T19/003Navigation within 3D models or images
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/18Eye characteristics, e.g. of the iris

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Human Computer Interaction (AREA)
  • Computer Hardware Design (AREA)
  • Multimedia (AREA)
  • Software Systems (AREA)
  • Health & Medical Sciences (AREA)
  • Ophthalmology & Optometry (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Remote Sensing (AREA)
  • Computer Graphics (AREA)
  • General Health & Medical Sciences (AREA)
  • User Interface Of Digital Computer (AREA)

Abstract

웨어러블 장치(wearable device)는, 사용자의 좌안에 대하여(with respect to) 위치되는 제1 디스플레이(display)를 포함할 수 있다. 상기 웨어러블 장치는, 상기 사용자의 우안에 대하여 위치되는 제2 디스플레이를 포함할 수 있다. 상기 웨어러블 장치는, 카메라(camera)를 포함할 수 있다. 상기 웨어러블 장치는, 프로세서를 포함할 수 있다. 상기 웨어러블 장치는, 인스트럭션들을 저장하는 메모리를 포함할 수 있다. 상기 인스트럭션들은, 상기 프로세서에 의해 실행될 시, 상기 웨어러블 장치가, 콘텐트가 3D 가상 환경(3 dimensional virtual environment)에서 제1 깊이에 위치된 것으로 인식되도록(perceived), 상기 제1 디스플레이 및 상기 제2 디스플레이 상에서 제1 표시 사이즈(displaying size)를 갖는 상기 콘텐트를, 표시하도록, 야기할 수 있다. 상기 인스트럭션들은, 상기 프로세서에 의해 실행될 시, 상기 웨어러블 장치가, 상기 콘텐트가 기준 시간 이상인 시간 구간(time period) 동안 표시되는 경우, 상기 콘텐트가 상기 3D 가상 환경에서 상기 제1 깊이를 초과하는 제2 깊이에 위치된 것으로 인식되도록, 상기 제1 디스플레이 및 상기 제2 디스플레이 상에서 상기 제1 표시 사이즈와 실질적으로 동일한 제2 표시 사이즈로 표시하도록, 야기할 수 있다.A wearable device may include a first display positioned with respect to a left eye of a user. The wearable device may include a second display positioned with respect to a right eye of the user. The wearable device may include a camera. The wearable device may include a processor. The wearable device may include a memory storing instructions. The instructions, when executed by the processor, may cause the wearable device to display content having a first displaying size on the first display and the second display such that the content is perceived as being positioned at a first depth in a 3 dimensional virtual environment. The instructions, when executed by the processor, may cause the wearable device to display the content on the first display and the second display in a second display size substantially equal to the first display size, such that the content is recognized as being located at a second depth exceeding the first depth in the 3D virtual environment when the content is displayed for a time period greater than a reference time.

Figure P1020230140647
Figure P1020230140647

Description

가상 환경 내 콘텐트를 표시하기 위한 전자 장치 및 방법 {ELECTRONIC DEVICE AND METHOD FOR DISPLAYING A CONTENT IN VIRTUAL ENVIRONMENT}ELECTRONIC DEVICE AND METHOD FOR DISPLAYING A CONTENT IN VIRTUAL ENVIRONMENT

아래의 설명들은, 가상 환경(virtual environment) 내 콘텐트(content)를 표시(display)하기 위한 전자 장치 및 방법에 관한 것이다.The descriptions below relate to electronic devices and methods for displaying content within a virtual environment.

강화된(enhanced) 사용자 경험(user experience)을 제공하기 위해, 실제 세계(real-world) 내 외부 객체와 연계로 컴퓨터에 의해 생성된 정보를 표시하는 가상 환경(virtual environment) 서비스를 제공하는 전자 장치가 개발되고 있다. 상기 전자 장치는, 사용자에 의해 착용될 수 있는 웨어러블 장치를 포함할 수 있다. 예를 들면, 상기 전자 장치는, 사용자 단말(user equipment), AR 안경(glasses), 및/또는 머리 착용형 장치(head-mounted device, HMD)를 포함할 수 있다.In order to provide an enhanced user experience, electronic devices are being developed that provide virtual environment services that display computer-generated information in conjunction with external objects in the real world. The electronic devices may include wearable devices that can be worn by a user. For example, the electronic devices may include user equipment, AR glasses, and/or a head-mounted device (HMD).

웨어러블 장치(wearable device)는, 디스플레이(display)를 포함할 수 있다. 상기 웨어러블 장치는 카메라(camera)를 포함할 수 있다. 상기 웨어러블 장치는 프로세서를 포함할 수 있다. 상기 프로세서는, 가상 환경(virtual environment)의 제1 영역 내에서 제1 사이즈(size)를 갖는 콘텐트(content)를, 상기 디스플레이의 표시 영역 중에서 적어도 일부를 통해, 표시하도록 구성될 수 있다. 상기 프로세서는, 상기 카메라에 기반하여, 상기 웨어러블 장치의 사용자(user)가 상기 제1 사이즈를 갖는 상기 콘텐트를 응시하는(gaze at) 시간이 기준 시간 이상인지 여부를 식별하도록 구성될 수 있다. 상기 프로세서는, 상기 시간이 상기 기준 시간 이상임을 식별함에 기반하여, 상기 제1 영역과 상기 가상 환경 내의 상기 사용자에 대응하는 기준 위치로부터 식별되는 깊이(depth)가 다른(differ from) 제2 영역 내에서 상기 제1 사이즈와 다른(different) 제2 사이즈를 갖는 상기 콘텐트를, 상기 디스플레이의 상기 적어도 일부를 통해, 표시하도록 구성될 수 있다.A wearable device may include a display. The wearable device may include a camera. The wearable device may include a processor. The processor may be configured to display content having a first size in a first area of a virtual environment, through at least a portion of a display area of the display. The processor may be configured to identify, based on the camera, whether a time for which a user of the wearable device gazes at the content having the first size is greater than or equal to a reference time. The processor may be configured to display, based on identifying that the time is greater than or equal to the reference time, the content having a second size different from the first size in a second area identified from a reference location corresponding to the user in the virtual environment, through at least a portion of the display.

웨어러블 장치(wearable device)는, 디스플레이(display)를 포함할 수 있다. 상기 웨어러블 장치는 카메라(camera)를 포함할 수 있다. 웨어러블 장치(wearable device)는 프로세서를 포함할 수 있다. 상기 프로세서는, 가상 환경(virtual environment) 내의 제1 영역에서 표시되고, 상기 가상 환경 내의 제1 사이즈를 갖는 콘텐트를, 상기 디스플레이의 적어도 일부를 통해, 표시하도록 구성될 수 있다. 상기 프로세서는, 초점 거리(focal length)의 조정(adjusting)을 위한 기능이 활성화되었는지 여부를 식별하도록 구성될 수 있다. 상기 프로세서는, 상기 기능이 비활성화됨을 식별함에 기반하여, 상기 제1 영역 내에서 상기 제1 사이즈를 갖는 상기 콘텐트를, 상기 적어도 일부를 통해 표시하는 것을 유지하도록 구성될 수 있다. 상기 프로세서는, 상기 기능이 활성화됨을 식별함에 기반하여, 상기 초점 거리의 조정을 위하여, 위치를 상기 제1 영역으로부터 상기 가상 환경 내의 기준 위치로부터 식별되는 깊이(depth)가 다른 제2 영역으로 변경하고, 상기 초점 거리의 조정에 따라 사이즈를 상기 제1 사이즈로부터 제2 사이즈로 변경하고, 상기 제2 영역 내에서 상기 제2 사이즈를 갖는 상기 콘텐트를, 상기 적어도 일부를 통해, 표시하도록, 구성될 수 있다. 상기 기준 위치는, 상기 웨어러블 장치의 사용자(user)에 대응하는 상기 가상 환경 내의 위치를 나타낼 수 있다. A wearable device may include a display. The wearable device may include a camera. The wearable device may include a processor. The processor may be configured to display content, which is displayed in a first area within a virtual environment and has a first size within the virtual environment, through at least a portion of the display. The processor may be configured to identify whether a function for adjusting a focal length is activated. The processor may be configured to maintain displaying the content, which has the first size within the first area, through at least a portion of the display based on identifying that the function is deactivated. The processor may be configured to, based on identifying that the function is activated, change a location from the first area to a second area having a different depth from a reference location within the virtual environment for adjusting the focal length, change a size from the first size to a second size according to the adjustment of the focal length, and display, through at least a portion, the content having the second size within the second area. The reference location may represent a location within the virtual environment corresponding to a user of the wearable device.

웨어러블 장치(wearable device)는, 사용자의 좌안에 대하여(with respect to) 위치되는 제1 디스플레이(display)를 포함할 수 있다. 상기 웨어러블 장치는, 상기 사용자의 우안에 대하여 위치되는 제2 디스플레이를 포함할 수 있다. 상기 웨어러블 장치는, 카메라(camera)를 포함할 수 있다. 상기 웨어러블 장치는, 프로세서를 포함할 수 있다. 상기 웨어러블 장치는, 인스트럭션들을 저장하는 메모리를 포함할 수 있다. 상기 인스트럭션들은, 상기 프로세서에 의해 실행될 시, 상기 웨어러블 장치가, 콘텐트가 3D 가상 환경(3 dimensional virtual environment)에서 제1 깊이에 위치된 것으로 인식되도록(perceived), 상기 제1 디스플레이 및 상기 제2 디스플레이 상에서 제1 표시 사이즈(displaying size)를 갖는 상기 콘텐트를, 표시하도록, 야기할 수 있다. 상기 인스트럭션들은, 상기 프로세서에 의해 실행될 시, 상기 웨어러블 장치가, 상기 콘텐트가 기준 시간 이상인 시간 구간(time period) 동안 표시되는 경우, 상기 콘텐트가 상기 3D 가상 환경에서 상기 제1 깊이를 초과하는 제2 깊이에 위치된 것으로 인식되도록, 상기 제1 디스플레이 및 상기 제2 디스플레이 상에서 상기 제1 표시 사이즈와 실질적으로 동일한 제2 표시 사이즈로 표시하도록, 야기할 수 있다.A wearable device may include a first display positioned with respect to a left eye of a user. The wearable device may include a second display positioned with respect to a right eye of the user. The wearable device may include a camera. The wearable device may include a processor. The wearable device may include a memory storing instructions. The instructions, when executed by the processor, may cause the wearable device to display content having a first displaying size on the first display and the second display such that the content is perceived as being positioned at a first depth in a 3 dimensional virtual environment. The instructions, when executed by the processor, may cause the wearable device to display the content on the first display and the second display in a second display size substantially equal to the first display size, such that the content is recognized as being located at a second depth exceeding the first depth in the 3D virtual environment when the content is displayed for a time period greater than a reference time.

도 1은, 다양한 실시예들에 따른, 네트워크 환경 내의 전자 장치의 블록도이다.
도 2a는 웨어러블 장치(wearable device)의 사시도(perspective view)의 예를 도시한다.
도 2b는 웨어러블 장치 내에 배치된 하나 이상의 하드웨어들의 예를 도시한다.
도 3a 및 도 3b는 웨어러블 장치의 외관의 예를 도시한다.
도 4a 및 도 4b는 가상 환경 내에서 초점 거리(focal length)에 따라 콘텐트(content)를 표시하는 방법의 예들을 도시한다.
도 5는 웨어러블 장치의 예시적인 블록도를 도시한다.
도 6은 가상 환경 내에서 초점 거리(focal length)에 따라 콘텐트(content)를 표시하는 방법에 대한 흐름도의 예를 도시한다.
도 7은 초점 거리에 따른 콘텐트를 나타내기 위한 디스플레이의 표시 영역에 대한 예들을 나타낸다.
도 8은 초점 거리에 대한 능력 정보에 기반하여, 초점 거리를 조정하고, 조정된 결과를 획득하는 방법에 대한 동작 흐름의 예를 도시한다.
도 9는 가상 환경 내에서 초점 거리(focal length)에 따라 다른 사이즈를 갖는 콘텐트(content)를 표시하는 방법에 대한 흐름도의 예를 도시한다.
도 10은 가상 환경 내의 깊이(depth)에 따라 콘텐트(content)를 표시하는 방법에 대한 흐름도의 예를 도시한다.
FIG. 1 is a block diagram of an electronic device within a network environment according to various embodiments.
FIG. 2a illustrates an example of a perspective view of a wearable device.
FIG. 2b illustrates an example of one or more hardware devices arranged within a wearable device.
Figures 3a and 3b illustrate examples of the appearance of a wearable device.
Figures 4a and 4b illustrate examples of how to display content based on focal length within a virtual environment.
Figure 5 illustrates an exemplary block diagram of a wearable device.
Figure 6 illustrates an example flow diagram for a method of displaying content according to focal length within a virtual environment.
Figure 7 shows examples of display areas of a display for displaying content according to focal length.
Figure 8 illustrates an example of an operational flow for a method of adjusting a focal length and obtaining an adjusted result based on capability information about the focal length.
Figure 9 illustrates an example flowchart of a method for displaying content having different sizes depending on focal length within a virtual environment.
Figure 10 illustrates an example flow diagram for a method of displaying content according to depth within a virtual environment.

본 개시에서 사용되는 용어들은 단지 특정한 실시 예를 설명하기 위해 사용된 것으로, 다른 실시 예의 범위를 한정하려는 의도가 아닐 수 있다. 단수의 표현은 문맥상 명백하게 다르게 뜻하지 않는 한, 복수의 표현을 포함할 수 있다. 기술적이거나 과학적인 용어를 포함해서 여기서 사용되는 용어들은 본 개시에 기재된 기술 분야에서 통상의 지식을 가진 자에 의해 일반적으로 이해되는 것과 동일한 의미를 가질 수 있다. 본 개시에 사용된 용어들 중 일반적인 사전에 정의된 용어들은, 관련 기술의 문맥상 가지는 의미와 동일 또는 유사한 의미로 해석될 수 있으며, 본 개시에서 명백하게 정의되지 않는 한, 이상적이거나 과도하게 형식적인 의미로 해석되지 않는다. 경우에 따라서, 본 개시에서 정의된 용어일지라도 본 개시의 실시 예들을 배제하도록 해석될 수 없다.The terms used in this disclosure are only used to describe specific embodiments and may not be intended to limit the scope of other embodiments. The singular expression may include the plural expression unless the context clearly indicates otherwise. The terms used herein, including technical or scientific terms, may have the same meaning as commonly understood by a person having ordinary skill in the art described in this disclosure. Among the terms used in this disclosure, terms defined in general dictionaries may be interpreted as having the same or similar meaning as the meaning they have in the context of the related technology, and shall not be interpreted in an ideal or excessively formal meaning unless explicitly defined in this disclosure. In some cases, even if a term is defined in this disclosure, it cannot be interpreted to exclude embodiments of the present disclosure.

이하에서 설명되는 본 개시의 다양한 실시 예들에서는 하드웨어적인 접근 방법을 예시로서 설명한다. 하지만, 본 개시의 다양한 실시 예들에서는 하드웨어와 소프트웨어를 모두 사용하는 기술을 포함하고 있으므로, 본 개시의 다양한 실시 예들이 소프트웨어 기반의 접근 방법을 제외하는 것은 아니다.In the various embodiments of the present disclosure described below, a hardware-based approach is described as an example. However, since the various embodiments of the present disclosure include techniques using both hardware and software, the various embodiments of the present disclosure do not exclude a software-based approach.

또한, 본 개시에서, 특정 조건의 만족(satisfied), 충족(fulfilled) 여부를 판단하기 위해, 초과 또는 미만의 표현이 사용될 수 있으나, 이는 일 예를 표현하기 위한 기재일 뿐 이상 또는 이하의 기재를 배제하는 것이 아니다. '이상'으로 기재된 조건은 '초과', '이하'로 기재된 조건은 '미만', '이상 및 미만'으로 기재된 조건은 '초과 및 이하'로 대체될 수 있다. 또한, 이하, 'A' 내지 'B'는 A부터(A 포함) B까지의(B 포함) 요소들 중 적어도 하나를 의미한다.In addition, in the present disclosure, in order to determine whether a specific condition is satisfied or fulfilled, the expression "more than" or "less than" may be used, but this is only a description for expressing an example and does not exclude the description of more than or less than. A condition described as "more than" may be replaced with "more than," a condition described as "less than" may be replaced with "less than," and a condition described as "more than and less than" may be replaced with "more than and less than." In addition, hereinafter, "A" to "B" mean at least one of the elements from A to (including A) and from (including B).

도 1은, 다양한 실시예들에 따른, 네트워크 환경 내의 전자 장치의 블록도이다. FIG. 1 is a block diagram of an electronic device within a network environment according to various embodiments.

도 1을 참조하면, 네트워크 환경(100)에서 전자 장치(101)는 제1 네트워크(198)(예: 근거리 무선 통신 네트워크)를 통하여 전자 장치(102)와 통신하거나, 또는 제2 네트워크(199)(예: 원거리 무선 통신 네트워크)를 통하여 전자 장치(104) 또는 서버(108) 중 적어도 하나 와 통신할 수 있다. 일 실시예에 따르면, 전자 장치(101)는 서버(108)를 통하여 전자 장치(104)와 통신할 수 있다. 일 실시예에 따르면, 전자 장치(101)는 프로세서(120), 메모리(130), 입력 모듈(150), 음향 출력 모듈(155), 디스플레이 모듈(160), 오디오 모듈(170), 센서 모듈(176), 인터페이스(177), 연결 단자(178), 햅틱 모듈(179), 카메라 모듈(180), 전력 관리 모듈(188), 배터리(189), 통신 모듈(190), 가입자 식별 모듈(196), 또는 안테나 모듈(197)을 포함할 수 있다. 어떤 실시예에서는, 전자 장치(101)에는, 이 구성요소들 중 적어도 하나(예: 연결 단자(178))가 생략되거나, 하나 이상의 다른 구성요소가 추가될 수 있다. 어떤 실시예에서는, 이 구성요소들 중 일부들(예: 센서 모듈(176), 카메라 모듈(180), 또는 안테나 모듈(197))은 하나의 구성요소(예: 디스플레이 모듈(160))로 통합될 수 있다.Referring to FIG. 1, in a network environment (100), an electronic device (101) may communicate with an electronic device (102) via a first network (198) (e.g., a short-range wireless communication network), or may communicate with at least one of an electronic device (104) or a server (108) via a second network (199) (e.g., a long-range wireless communication network). According to one embodiment, the electronic device (101) may communicate with the electronic device (104) via the server (108). According to one embodiment, the electronic device (101) may include a processor (120), a memory (130), an input module (150), an audio output module (155), a display module (160), an audio module (170), a sensor module (176), an interface (177), a connection terminal (178), a haptic module (179), a camera module (180), a power management module (188), a battery (189), a communication module (190), a subscriber identification module (196), or an antenna module (197). In some embodiments, the electronic device (101) may omit at least one of these components (e.g., the connection terminal (178)), or may have one or more other components added. In some embodiments, some of these components (e.g., the sensor module (176), the camera module (180), or the antenna module (197)) may be integrated into one component (e.g., the display module (160)).

프로세서(120)는, 예를 들면, 소프트웨어(예: 프로그램(140))를 실행하여 프로세서(120)에 연결된 전자 장치(101)의 적어도 하나의 다른 구성요소(예: 하드웨어 또는 소프트웨어 구성요소)를 제어할 수 있고, 다양한 데이터 처리 또는 연산을 수행할 수 있다. 일 실시예에 따르면, 데이터 처리 또는 연산의 적어도 일부로서, 프로세서(120)는 다른 구성요소(예: 센서 모듈(176) 또는 통신 모듈(190))로부터 수신된 명령 또는 데이터를 휘발성 메모리(132)에 저장하고, 휘발성 메모리(132)에 저장된 명령 또는 데이터를 처리하고, 결과 데이터를 비휘발성 메모리(134)에 저장할 수 있다. 일 실시예에 따르면, 프로세서(120)는 메인 프로세서(121)(예: 중앙 처리 장치 또는 어플리케이션 프로세서) 또는 이와는 독립적으로 또는 함께 운영 가능한 보조 프로세서(123)(예: 그래픽 처리 장치, 신경망 처리 장치(NPU: neural processing unit), 이미지 시그널 프로세서, 센서 허브 프로세서, 또는 커뮤니케이션 프로세서)를 포함할 수 있다. 예를 들어, 전자 장치(101)가 메인 프로세서(121) 및 보조 프로세서(123)를 포함하는 경우, 보조 프로세서(123)는 메인 프로세서(121)보다 저전력을 사용하거나, 지정된 기능에 특화되도록 설정될 수 있다. 보조 프로세서(123)는 메인 프로세서(121)와 별개로, 또는 그 일부로서 구현될 수 있다.The processor (120) may control at least one other component (e.g., a hardware or software component) of the electronic device (101) connected to the processor (120) by executing, for example, software (e.g., a program (140)), and may perform various data processing or calculations. According to one embodiment, as at least a part of the data processing or calculations, the processor (120) may store a command or data received from another component (e.g., a sensor module (176) or a communication module (190)) in the volatile memory (132), process the command or data stored in the volatile memory (132), and store result data in the nonvolatile memory (134). According to one embodiment, the processor (120) may include a main processor (121) (e.g., a central processing unit or an application processor) or an auxiliary processor (123) (e.g., a graphic processing unit, a neural processing unit (NPU), an image signal processor, a sensor hub processor, or a communication processor) that can operate independently or together therewith. For example, if the electronic device (101) includes a main processor (121) and a secondary processor (123), the secondary processor (123) may be configured to use lower power than the main processor (121) or to be specialized for a given function. The secondary processor (123) may be implemented separately from the main processor (121) or as a part thereof.

보조 프로세서(123)는, 예를 들면, 메인 프로세서(121)가 인액티브(예: 슬립) 상태에 있는 동안 메인 프로세서(121)를 대신하여, 또는 메인 프로세서(121)가 액티브(예: 어플리케이션 실행) 상태에 있는 동안 메인 프로세서(121)와 함께, 전자 장치(101)의 구성요소들 중 적어도 하나의 구성요소(예: 디스플레이 모듈(160), 센서 모듈(176), 또는 통신 모듈(190))와 관련된 기능 또는 상태들의 적어도 일부를 제어할 수 있다. 일 실시예에 따르면, 보조 프로세서(123)(예: 이미지 시그널 프로세서 또는 커뮤니케이션 프로세서)는 기능적으로 관련 있는 다른 구성요소(예: 카메라 모듈(180) 또는 통신 모듈(190))의 일부로서 구현될 수 있다. 일 실시예에 따르면, 보조 프로세서(123)(예: 신경망 처리 장치)는 인공지능 모델의 처리에 특화된 하드웨어 구조를 포함할 수 있다. 인공지능 모델은 기계 학습을 통해 생성될 수 있다. 이러한 학습은, 예를 들어, 인공지능 모델이 수행되는 전자 장치(101) 자체에서 수행될 수 있고, 별도의 서버(예: 서버(108))를 통해 수행될 수도 있다. 학습 알고리즘은, 예를 들어, 지도형 학습(supervised learning), 비지도형 학습(unsupervised learning), 준지도형 학습(semi-supervised learning) 또는 강화 학습(reinforcement learning)을 포함할 수 있으나, 전술한 예에 한정되지 않는다. 인공지능 모델은, 복수의 인공 신경망 레이어들을 포함할 수 있다. 인공 신경망은 심층 신경망(DNN: deep neural network), CNN(convolutional neural network), RNN(recurrent neural network), RBM(restricted Boltzmann machine), DBN(deep belief network), BRDNN(bidirectional recurrent deep neural network), 심층 Q-네트워크(deep Q-networks) 또는 상기 중 둘 이상의 조합 중 하나일 수 있으나, 전술한 예에 한정되지 않는다. 인공지능 모델은 하드웨어 구조 이외에, 추가적으로 또는 대체적으로, 소프트웨어 구조를 포함할 수 있다.The auxiliary processor (123) may control at least a portion of functions or states associated with at least one of the components of the electronic device (101) (e.g., the display module (160), the sensor module (176), or the communication module (190)), for example, on behalf of the main processor (121) while the main processor (121) is in an inactive (e.g., sleep) state, or together with the main processor (121) while the main processor (121) is in an active (e.g., application execution) state. In one embodiment, the auxiliary processor (123) (e.g., an image signal processor or a communication processor) may be implemented as a part of another functionally related component (e.g., a camera module (180) or a communication module (190)). In one embodiment, the auxiliary processor (123) (e.g., a neural network processing device) may include a hardware structure specialized for processing artificial intelligence models. The artificial intelligence models may be generated through machine learning. Such learning may be performed, for example, in the electronic device (101) itself on which the artificial intelligence model is executed, or may be performed through a separate server (e.g., server (108)). The learning algorithm may include, for example, supervised learning, unsupervised learning, semi-supervised learning, or reinforcement learning, but is not limited to the examples described above. The artificial intelligence model may include a plurality of artificial neural network layers. The artificial neural network may be one of a deep neural network (DNN), a convolutional neural network (CNN), a recurrent neural network (RNN), a restricted Boltzmann machine (RBM), a deep belief network (DBN), a bidirectional recurrent deep neural network (BRDNN), deep Q-networks, or a combination of two or more of the above, but is not limited to the examples described above. In addition to the hardware structure, the artificial intelligence model may additionally or alternatively include a software structure.

메모리(130)는, 전자 장치(101)의 적어도 하나의 구성요소(예: 프로세서(120) 또는 센서 모듈(176))에 의해 사용되는 다양한 데이터를 저장할 수 있다. 데이터는, 예를 들어, 소프트웨어(예: 프로그램(140)) 및, 이와 관련된 명령에 대한 입력 데이터 또는 출력 데이터를 포함할 수 있다. 메모리(130)는, 휘발성 메모리(132) 또는 비휘발성 메모리(134)를 포함할 수 있다. The memory (130) can store various data used by at least one component (e.g., processor (120) or sensor module (176)) of the electronic device (101). The data can include, for example, software (e.g., program (140)) and input data or output data for commands related thereto. The memory (130) can include volatile memory (132) or nonvolatile memory (134).

프로그램(140)은 메모리(130)에 소프트웨어로서 저장될 수 있으며, 예를 들면, 운영 체제(142), 미들 웨어(144) 또는 어플리케이션(146)을 포함할 수 있다. The program (140) may be stored as software in the memory (130) and may include, for example, an operating system (142), middleware (144), or an application (146).

입력 모듈(150)은, 전자 장치(101)의 구성요소(예: 프로세서(120))에 사용될 명령 또는 데이터를 전자 장치(101)의 외부(예: 사용자)로부터 수신할 수 있다. 입력 모듈(150)은, 예를 들면, 마이크, 마우스, 키보드, 키(예: 버튼), 또는 디지털 펜(예: 스타일러스 펜)을 포함할 수 있다. The input module (150) can receive commands or data to be used in a component of the electronic device (101) (e.g., a processor (120)) from an external source (e.g., a user) of the electronic device (101). The input module (150) can include, for example, a microphone, a mouse, a keyboard, a key (e.g., a button), or a digital pen (e.g., a stylus pen).

음향 출력 모듈(155)은 음향 신호를 전자 장치(101)의 외부로 출력할 수 있다. 음향 출력 모듈(155)은, 예를 들면, 스피커 또는 리시버를 포함할 수 있다. 스피커는 멀티미디어 재생 또는 녹음 재생과 같이 일반적인 용도로 사용될 수 있다. 리시버는 착신 전화를 수신하기 위해 사용될 수 있다. 일 실시예에 따르면, 리시버는 스피커와 별개로, 또는 그 일부로서 구현될 수 있다.The audio output module (155) can output an audio signal to the outside of the electronic device (101). The audio output module (155) can include, for example, a speaker or a receiver. The speaker can be used for general purposes such as multimedia playback or recording playback. The receiver can be used to receive an incoming call. According to one embodiment, the receiver can be implemented separately from the speaker or as a part thereof.

디스플레이 모듈(160)은 전자 장치(101)의 외부(예: 사용자)로 정보를 시각적으로 제공할 수 있다. 디스플레이 모듈(160)은, 예를 들면, 디스플레이, 홀로그램 장치, 또는 프로젝터 및 해당 장치를 제어하기 위한 제어 회로를 포함할 수 있다. 일 실시예에 따르면, 디스플레이 모듈(160)은 터치를 감지하도록 설정된 터치 센서, 또는 상기 터치에 의해 발생되는 힘의 세기를 측정하도록 설정된 압력 센서를 포함할 수 있다. The display module (160) can visually provide information to an external party (e.g., a user) of the electronic device (101). The display module (160) can include, for example, a display, a holographic device, or a projector and a control circuit for controlling the device. According to one embodiment, the display module (160) can include a touch sensor configured to detect a touch, or a pressure sensor configured to measure the intensity of a force generated by the touch.

오디오 모듈(170)은 소리를 전기 신호로 변환시키거나, 반대로 전기 신호를 소리로 변환시킬 수 있다. 일 실시예에 따르면, 오디오 모듈(170)은, 입력 모듈(150)을 통해 소리를 획득하거나, 음향 출력 모듈(155), 또는 전자 장치(101)와 직접 또는 무선으로 연결된 외부 전자 장치(예: 전자 장치(102))(예: 스피커 또는 헤드폰)를 통해 소리를 출력할 수 있다.The audio module (170) can convert sound into an electrical signal, or vice versa, convert an electrical signal into sound. According to one embodiment, the audio module (170) can obtain sound through an input module (150), or output sound through an audio output module (155), or an external electronic device (e.g., an electronic device (102)) (e.g., a speaker or a headphone) directly or wirelessly connected to the electronic device (101).

센서 모듈(176)은 전자 장치(101)의 작동 상태(예: 전력 또는 온도), 또는 외부의 환경 상태(예: 사용자 상태)를 감지하고, 감지된 상태에 대응하는 전기 신호 또는 데이터 값을 생성할 수 있다. 일 실시예에 따르면, 센서 모듈(176)은, 예를 들면, 제스처 센서, 자이로 센서, 기압 센서, 마그네틱 센서, 가속도 센서, 그립 센서, 근접 센서, 컬러 센서, IR(infrared) 센서, 생체 센서, 온도 센서, 습도 센서, 또는 조도 센서를 포함할 수 있다. The sensor module (176) can detect an operating state (e.g., power or temperature) of the electronic device (101) or an external environmental state (e.g., user state) and generate an electric signal or data value corresponding to the detected state. According to one embodiment, the sensor module (176) can include, for example, a gesture sensor, a gyro sensor, a barometric pressure sensor, a magnetic sensor, an acceleration sensor, a grip sensor, a proximity sensor, a color sensor, an IR (infrared) sensor, a biometric sensor, a temperature sensor, a humidity sensor, or an illuminance sensor.

인터페이스(177)는 전자 장치(101)가 외부 전자 장치(예: 전자 장치(102))와 직접 또는 무선으로 연결되기 위해 사용될 수 있는 하나 이상의 지정된 프로토콜들을 지원할 수 있다. 일 실시예에 따르면, 인터페이스(177)는, 예를 들면, HDMI(high definition multimedia interface), USB(universal serial bus) 인터페이스, SD카드 인터페이스, 또는 오디오 인터페이스를 포함할 수 있다.The interface (177) may support one or more designated protocols that may be used to directly or wirelessly connect the electronic device (101) with an external electronic device (e.g., the electronic device (102)). According to one embodiment, the interface (177) may include, for example, a high definition multimedia interface (HDMI), a universal serial bus (USB) interface, an SD card interface, or an audio interface.

연결 단자(178)는, 그를 통해서 전자 장치(101)가 외부 전자 장치(예: 전자 장치(102))와 물리적으로 연결될 수 있는 커넥터를 포함할 수 있다. 일 실시예에 따르면, 연결 단자(178)는, 예를 들면, HDMI 커넥터, USB 커넥터, SD 카드 커넥터, 또는 오디오 커넥터(예: 헤드폰 커넥터)를 포함할 수 있다.The connection terminal (178) may include a connector through which the electronic device (101) may be physically connected to an external electronic device (e.g., the electronic device (102)). According to one embodiment, the connection terminal (178) may include, for example, an HDMI connector, a USB connector, an SD card connector, or an audio connector (e.g., a headphone connector).

햅틱 모듈(179)은 전기적 신호를 사용자가 촉각 또는 운동 감각을 통해서 인지할 수 있는 기계적인 자극(예: 진동 또는 움직임) 또는 전기적인 자극으로 변환할 수 있다. 일 실시예에 따르면, 햅틱 모듈(179)은, 예를 들면, 모터, 압전 소자, 또는 전기 자극 장치를 포함할 수 있다.The haptic module (179) can convert an electrical signal into a mechanical stimulus (e.g., vibration or movement) or an electrical stimulus that a user can perceive through a tactile or kinesthetic sense. According to one embodiment, the haptic module (179) can include, for example, a motor, a piezoelectric element, or an electrical stimulation device.

카메라 모듈(180)은 정지 영상 및 동영상을 촬영할 수 있다. 일 실시예에 따르면, 카메라 모듈(180)은 하나 이상의 렌즈들, 이미지 센서들, 이미지 시그널 프로세서들, 또는 플래시들을 포함할 수 있다.The camera module (180) can capture still images and moving images. According to one embodiment, the camera module (180) can include one or more lenses, image sensors, image signal processors, or flashes.

전력 관리 모듈(188)은 전자 장치(101)에 공급되는 전력을 관리할 수 있다. 일 실시예에 따르면, 전력 관리 모듈(188)은, 예를 들면, PMIC(power management integrated circuit)의 적어도 일부로서 구현될 수 있다.The power management module (188) can manage power supplied to the electronic device (101). According to one embodiment, the power management module (188) can be implemented as, for example, at least a part of a power management integrated circuit (PMIC).

배터리(189)는 전자 장치(101)의 적어도 하나의 구성요소에 전력을 공급할 수 있다. 일 실시예에 따르면, 배터리(189)는, 예를 들면, 재충전 불가능한 1차 전지, 재충전 가능한 2차 전지 또는 연료 전지를 포함할 수 있다.The battery (189) can power at least one component of the electronic device (101). In one embodiment, the battery (189) can include, for example, a non-rechargeable primary battery, a rechargeable secondary battery, or a fuel cell.

통신 모듈(190)은 전자 장치(101)와 외부 전자 장치(예: 전자 장치(102), 전자 장치(104), 또는 서버(108)) 간의 직접(예: 유선) 통신 채널 또는 무선 통신 채널의 수립, 및 수립된 통신 채널을 통한 통신 수행을 지원할 수 있다. 통신 모듈(190)은 프로세서(120)(예: 어플리케이션 프로세서)와 독립적으로 운영되고, 직접(예: 유선) 통신 또는 무선 통신을 지원하는 하나 이상의 커뮤니케이션 프로세서를 포함할 수 있다. 일 실시예에 따르면, 통신 모듈(190)은 무선 통신 모듈(192)(예: 셀룰러 통신 모듈, 근거리 무선 통신 모듈, 또는 GNSS(global navigation satellite system) 통신 모듈) 또는 유선 통신 모듈(194)(예: LAN(local area network) 통신 모듈, 또는 전력선 통신 모듈)을 포함할 수 있다. 이들 통신 모듈 중 해당하는 통신 모듈은 제1 네트워크(198)(예: 블루투스, WiFi(wireless fidelity) direct 또는 IrDA(infrared data association)와 같은 근거리 통신 네트워크) 또는 제2 네트워크(199)(예: 레거시 셀룰러 네트워크, 5G 네트워크, 차세대 통신 네트워크, 인터넷, 또는 컴퓨터 네트워크(예: LAN 또는 WAN)와 같은 원거리 통신 네트워크)를 통하여 외부의 전자 장치(104)와 통신할 수 있다. 이런 여러 종류의 통신 모듈들은 하나의 구성요소(예: 단일 칩)로 통합되거나, 또는 서로 별도의 복수의 구성요소들(예: 복수 칩들)로 구현될 수 있다. 무선 통신 모듈(192)은 가입자 식별 모듈(196)에 저장된 가입자 정보(예: 국제 모바일 가입자 식별자(IMSI))를 이용하여 제1 네트워크(198) 또는 제2 네트워크(199)와 같은 통신 네트워크 내에서 전자 장치(101)를 확인 또는 인증할 수 있다. The communication module (190) may support establishment of a direct (e.g., wired) communication channel or a wireless communication channel between the electronic device (101) and an external electronic device (e.g., the electronic device (102), the electronic device (104), or the server (108)), and performance of communication through the established communication channel. The communication module (190) may operate independently from the processor (120) (e.g., the application processor) and may include one or more communication processors that support direct (e.g., wired) communication or wireless communication. According to one embodiment, the communication module (190) may include a wireless communication module (192) (e.g., a cellular communication module, a short-range wireless communication module, or a GNSS (global navigation satellite system) communication module) or a wired communication module (194) (e.g., a local area network (LAN) communication module or a power line communication module). Among these communication modules, a corresponding communication module may communicate with an external electronic device (104) via a first network (198) (e.g., a short-range communication network such as Bluetooth, wireless fidelity (WiFi) direct, or infrared data association (IrDA)) or a second network (199) (e.g., a long-range communication network such as a legacy cellular network, a 5G network, a next-generation communication network, the Internet, or a computer network (e.g., a LAN or WAN)). These various types of communication modules may be integrated into a single component (e.g., a single chip) or implemented as multiple separate components (e.g., multiple chips). The wireless communication module (192) may use subscriber information (e.g., international mobile subscriber identity (IMSI)) stored in the subscriber identification module (196) to identify or authenticate the electronic device (101) within a communication network such as the first network (198) or the second network (199).

무선 통신 모듈(192)은 4G 네트워크 이후의 5G 네트워크 및 차세대 통신 기술, 예를 들어, NR 접속 기술(new radio access technology)을 지원할 수 있다. NR 접속 기술은 고용량 데이터의 고속 전송(eMBB(enhanced mobile broadband)), 단말 전력 최소화와 다수 단말의 접속(mMTC(massive machine type communications)), 또는 고신뢰도와 저지연(URLLC(ultra-reliable and low-latency communications))을 지원할 수 있다. 무선 통신 모듈(192)은, 예를 들어, 높은 데이터 전송률 달성을 위해, 고주파 대역(예: mmWave 대역)을 지원할 수 있다. 무선 통신 모듈(192)은 고주파 대역에서의 성능 확보를 위한 다양한 기술들, 예를 들어, 빔포밍(beamforming), 거대 배열 다중 입출력(massive MIMO(multiple-input and multiple-output)), 전차원 다중입출력(FD-MIMO: full dimensional MIMO), 어레이 안테나(array antenna), 아날로그 빔형성(analog beam-forming), 또는 대규모 안테나(large scale antenna)와 같은 기술들을 지원할 수 있다. 무선 통신 모듈(192)은 전자 장치(101), 외부 전자 장치(예: 전자 장치(104)) 또는 네트워크 시스템(예: 제2 네트워크(199))에 규정되는 다양한 요구사항을 지원할 수 있다. 일 실시예에 따르면, 무선 통신 모듈(192)은 eMBB 실현을 위한 Peak data rate(예: 20Gbps 이상), mMTC 실현을 위한 손실 Coverage(예: 164dB 이하), 또는 URLLC 실현을 위한 U-plane latency(예: 다운링크(DL) 및 업링크(UL) 각각 0.5ms 이하, 또는 라운드 트립 1ms 이하)를 지원할 수 있다.The wireless communication module (192) can support a 5G network and next-generation communication technology after a 4G network, for example, NR access technology (new radio access technology). The NR access technology can support high-speed transmission of high-capacity data (eMBB (enhanced mobile broadband)), terminal power minimization and connection of multiple terminals (mMTC (massive machine type communications)), or high reliability and low latency (URLLC (ultra-reliable and low-latency communications)). The wireless communication module (192) can support, for example, a high-frequency band (e.g., mmWave band) to achieve a high data transmission rate. The wireless communication module (192) may support various technologies for securing performance in a high-frequency band, such as beamforming, massive multiple-input and multiple-output (MIMO), full dimensional MIMO (FD-MIMO), array antenna, analog beam-forming, or large scale antenna. The wireless communication module (192) may support various requirements specified in an electronic device (101), an external electronic device (e.g., electronic device (104)), or a network system (e.g., second network (199)). According to one embodiment, the wireless communication module (192) may support a peak data rate (e.g., 20 Gbps or more) for eMBB realization, a loss coverage (e.g., 164 dB or less) for mMTC realization, or a U-plane latency (e.g., 0.5 ms or less for downlink (DL) and uplink (UL) each, or 1 ms or less for round trip) for URLLC realization.

안테나 모듈(197)은 신호 또는 전력을 외부(예: 외부의 전자 장치)로 송신하거나 외부로부터 수신할 수 있다. 일 실시예에 따르면, 안테나 모듈(197)은 서브스트레이트(예: PCB) 위에 형성된 도전체 또는 도전성 패턴으로 이루어진 방사체를 포함하는 안테나를 포함할 수 있다. 일 실시예에 따르면, 안테나 모듈(197)은 복수의 안테나들(예: 어레이 안테나)을 포함할 수 있다. 이런 경우, 제1 네트워크(198) 또는 제2 네트워크(199)와 같은 통신 네트워크에서 사용되는 통신 방식에 적합한 적어도 하나의 안테나가, 예를 들면, 통신 모듈(190)에 의하여 상기 복수의 안테나들로부터 선택될 수 있다. 신호 또는 전력은 상기 선택된 적어도 하나의 안테나를 통하여 통신 모듈(190)과 외부의 전자 장치 간에 송신되거나 수신될 수 있다. 어떤 실시예에 따르면, 방사체 이외에 다른 부품(예: RFIC(radio frequency integrated circuit))이 추가로 안테나 모듈(197)의 일부로 형성될 수 있다. The antenna module (197) can transmit or receive signals or power to or from the outside (e.g., an external electronic device). According to one embodiment, the antenna module (197) can include an antenna including a radiator formed of a conductor or a conductive pattern formed on a substrate (e.g., a PCB). According to one embodiment, the antenna module (197) can include a plurality of antennas (e.g., an array antenna). In this case, at least one antenna suitable for a communication method used in a communication network, such as the first network (198) or the second network (199), can be selected from the plurality of antennas by, for example, the communication module (190). A signal or power can be transmitted or received between the communication module (190) and the external electronic device through the selected at least one antenna. According to some embodiments, in addition to the radiator, another component (e.g., a radio frequency integrated circuit (RFIC)) can be additionally formed as a part of the antenna module (197).

다양한 실시예에 따르면, 안테나 모듈(197)은 mmWave 안테나 모듈을 형성할 수 있다. 일 실시예에 따르면, mmWave 안테나 모듈은 인쇄 회로 기판, 상기 인쇄 회로 기판의 제1 면(예: 아래 면)에 또는 그에 인접하여 배치되고 지정된 고주파 대역(예: mmWave 대역)을 지원할 수 있는 RFIC, 및 상기 인쇄 회로 기판의 제2 면(예: 윗 면 또는 측 면)에 또는 그에 인접하여 배치되고 상기 지정된 고주파 대역의 신호를 송신 또는 수신할 수 있는 복수의 안테나들(예: 어레이 안테나)을 포함할 수 있다.According to various embodiments, the antenna module (197) may form a mmWave antenna module. According to one embodiment, the mmWave antenna module may include a printed circuit board, an RFIC positioned on or adjacent a first side (e.g., a bottom side) of the printed circuit board and capable of supporting a designated high-frequency band (e.g., a mmWave band), and a plurality of antennas (e.g., an array antenna) positioned on or adjacent a second side (e.g., a top side or a side) of the printed circuit board and capable of transmitting or receiving signals in the designated high-frequency band.

상기 구성요소들 중 적어도 일부는 주변 기기들간 통신 방식(예: 버스, GPIO(general purpose input and output), SPI(serial peripheral interface), 또는 MIPI(mobile industry processor interface))을 통해 서로 연결되고 신호(예: 명령 또는 데이터)를 상호간에 교환할 수 있다.At least some of the above components may be interconnected and exchange signals (e.g., commands or data) with each other via a communication method between peripheral devices (e.g., a bus, a general purpose input and output (GPIO), a serial peripheral interface (SPI), or a mobile industry processor interface (MIPI)).

일 실시예에 따르면, 명령 또는 데이터는 제2 네트워크(199)에 연결된 서버(108)를 통해서 전자 장치(101)와 외부의 전자 장치(104)간에 송신 또는 수신될 수 있다. 외부의 전자 장치(102, 또는 104) 각각은 전자 장치(101)와 동일한 또는 다른 종류의 장치일 수 있다. 일 실시예에 따르면, 전자 장치(101)에서 실행되는 동작들의 전부 또는 일부는 외부의 전자 장치들(102, 104, 또는 108) 중 하나 이상의 외부의 전자 장치들에서 실행될 수 있다. 예를 들면, 전자 장치(101)가 어떤 기능이나 서비스를 자동으로, 또는 사용자 또는 다른 장치로부터의 요청에 반응하여 수행해야 할 경우에, 전자 장치(101)는 기능 또는 서비스를 자체적으로 실행시키는 대신에 또는 추가적으로, 하나 이상의 외부의 전자 장치들에게 그 기능 또는 그 서비스의 적어도 일부를 수행하라고 요청할 수 있다. 상기 요청을 수신한 하나 이상의 외부의 전자 장치들은 요청된 기능 또는 서비스의 적어도 일부, 또는 상기 요청과 관련된 추가 기능 또는 서비스를 실행하고, 그 실행의 결과를 전자 장치(101)로 전달할 수 있다. 전자 장치(101)는 상기 결과를, 그대로 또는 추가적으로 처리하여, 상기 요청에 대한 응답의 적어도 일부로서 제공할 수 있다. 이를 위하여, 예를 들면, 클라우드 컴퓨팅, 분산 컴퓨팅, 모바일 에지 컴퓨팅(MEC: mobile edge computing), 또는 클라이언트-서버 컴퓨팅 기술이 이용될 수 있다. 전자 장치(101)는, 예를 들어, 분산 컴퓨팅 또는 모바일 에지 컴퓨팅을 이용하여 초저지연 서비스를 제공할 수 있다. 다른 실시예에 있어서, 외부의 전자 장치(104)는 IoT(internet of things) 기기를 포함할 수 있다. 서버(108)는 기계 학습 및/또는 신경망을 이용한 지능형 서버일 수 있다. 일 실시예에 따르면, 외부의 전자 장치(104) 또는 서버(108)는 제2 네트워크(199) 내에 포함될 수 있다. 전자 장치(101)는 5G 통신 기술 및 IoT 관련 기술을 기반으로 지능형 서비스(예: 스마트 홈, 스마트 시티, 스마트 카, 또는 헬스 케어)에 적용될 수 있다. In one embodiment, commands or data may be transmitted or received between the electronic device (101) and an external electronic device (104) via a server (108) connected to a second network (199). Each of the external electronic devices (102 or 104) may be the same or a different type of device as the electronic device (101). In one embodiment, all or part of the operations executed in the electronic device (101) may be executed in one or more of the external electronic devices (102, 104, or 108). For example, when the electronic device (101) is to perform a certain function or service automatically or in response to a request from a user or another device, the electronic device (101) may, instead of or in addition to executing the function or service itself, request one or more external electronic devices to perform at least a part of the function or service. One or more external electronic devices that receive the request may execute at least a part of the requested function or service, or an additional function or service related to the request, and transmit the result of the execution to the electronic device (101). The electronic device (101) may process the result as is or additionally and provide it as at least a part of a response to the request. For this purpose, for example, cloud computing, distributed computing, mobile edge computing (MEC), or client-server computing technology may be used. The electronic device (101) may provide an ultra-low latency service by using, for example, distributed computing or mobile edge computing. In another embodiment, the external electronic device (104) may include an IoT (Internet of Things) device. The server (108) may be an intelligent server using machine learning and/or a neural network. According to one embodiment, the external electronic device (104) or the server (108) may be included in the second network (199). The electronic device (101) can be applied to intelligent services (e.g., smart home, smart city, smart car, or healthcare) based on 5G communication technology and IoT-related technology.

도 2a는 웨어러블 장치(wearable device)의 사시도(perspective view)의 예를 도시한다. 도 2b는 웨어러블 장치 내에 배치된 하나 이상의 하드웨어들의 예를 도시한다. FIG. 2a illustrates an example of a perspective view of a wearable device. FIG. 2b illustrates an example of one or more hardware elements arranged within the wearable device.

일 실시예에 따른, 웨어러블 장치(101)는, 사용자의 신체 부위(예, 머리) 상에 착용 가능한(wearable on), 안경의 형태를 가질 수 있다. 도 2a 및 도 2b의 웨어러블 장치(101)는, 도 1의 전자 장치(101)의 일 예일 수 있다. 웨어러블 장치(101)는, HMD(head mounted display)를 포함할 수 있다. 예를 들어, 웨어러블 장치(101)의 하우징은 사용자의 머리의 일부분(예를 들어, 두 눈을 감싸는 얼굴의 일부분)에 밀착되는 형태를 가지는 고무, 및/또는 실리콘과 같은 유연성 소재(flexible material)를 포함할 수 있다. 예를 들어, 웨어러블 장치(101)의 하우징은 사용자의 머리에 감길 수 있는(able to be twined around) 하나 이상의 스트랩들, 및/또는 상기 머리의 귀로 탈착 가능한(attachable to) 하나 이상의 템플들(temples)을 포함할 수 있다.According to one embodiment, the wearable device (101) may have a form of glasses that are wearable on a body part of the user (e.g., the head). The wearable device (101) of FIGS. 2A and 2B may be an example of the electronic device (101) of FIG. 1. The wearable device (101) may include a head mounted display (HMD). For example, the housing of the wearable device (101) may include a flexible material, such as rubber and/or silicone, that is configured to fit closely to a portion of the user's head (e.g., a portion of the face surrounding both eyes). For example, the housing of the wearable device (101) may include one or more straps that are able to be twined around the user's head, and/or one or more temples that are attachable to ears of the head.

도 2a를 참고하면, 일 실시예에 따른, 웨어러블 장치(101)는, 적어도 하나의 디스플레이(250), 및 적어도 하나의 디스플레이(250)를 지지하는 프레임(200)을 포함할 수 있다.Referring to FIG. 2A, according to one embodiment, a wearable device (101) may include at least one display (250) and a frame (200) supporting at least one display (250).

일 실시예에 따른, 웨어러블 장치(101)는 사용자의 신체의 일부 상에 착용될 수 있다. 웨어러블 장치(101)는, 웨어러블 장치(101)를 착용한 사용자에게, 증강 현실(AR), 가상 현실(VR), 또는 증강 현실과 가상 현실을 혼합한 혼합 현실(MR)을 제공할 수 있다. 예를 들면, 웨어러블 장치(101)는, 도 2b의 동작 인식 카메라(260-2, 264)를 통해 획득된 사용자의 지정된 제스처에 응답하여, 도 2b의 적어도 하나의 광학 장치(282, 284)에서 제공되는 가상 현실 영상을 적어도 하나의 디스플레이(250)에 표시할 수 있다. 예를 들어, 디스플레이(250)는, 도 1의 디스플레이 모듈(160)의 적어도 일부를 포함할 수 있다. According to one embodiment, the wearable device (101) may be worn on a part of a user's body. The wearable device (101) may provide augmented reality (AR), virtual reality (VR), or mixed reality (MR) that combines augmented reality and virtual reality to a user wearing the wearable device (101). For example, the wearable device (101) may display a virtual reality image provided from at least one optical device (282, 284) of FIG. 2B on at least one display (250) in response to a designated gesture of the user acquired through the motion recognition camera (260-2, 264) of FIG. 2B. For example, the display (250) may include at least a part of the display module (160) of FIG. 1.

일 실시예에 따르면, 적어도 하나의 디스플레이(250)는, 사용자에게 시각 정보를 제공할 수 있다. 예를 들면, 적어도 하나의 디스플레이(250)는, 투명 또는 반투명한 렌즈를 포함할 수 있다. 적어도 하나의 디스플레이(250)는, 제1 디스플레이(250-1) 및/또는 제1 디스플레이(250-1)로부터 이격된 제2 디스플레이(250-2)를 포함할 수 있다. 예를 들면, 제1 디스플레이(250-1), 및 제2 디스플레이(250-2)는, 사용자의 좌안과 우안에 각각 대응되는 위치에 배치될 수 있다. In one embodiment, at least one display (250) can provide visual information to a user. For example, at least one display (250) can include a transparent or translucent lens. At least one display (250) can include a first display (250-1) and/or a second display (250-2) spaced apart from the first display (250-1). For example, the first display (250-1) and the second display (250-2) can be positioned at positions corresponding to the left and right eyes of the user, respectively.

도 2b를 참조하면, 적어도 하나의 디스플레이(250)는, 적어도 하나의 디스플레이(250)에 포함되는 렌즈를 통해 사용자에게 외부 광으로부터 전달되는 시각적 정보와, 상기 시각적 정보와 구별되는 다른 시각적 정보를 제공할 수 있다. 상기 렌즈는, 프레넬(Fresnel) 렌즈, 팬케이크(pancake) 렌즈, 또는 멀티-채널 렌즈 중 적어도 하나에 기반하여 형성될 수 있다. 예를 들면, 적어도 하나의 디스플레이(250)는, 제1 면(surface)(231), 및 제1 면(231)에 반대인 제2 면(232)을 포함할 수 있다. 적어도 하나의 디스플레이(250)의 제2 면(232) 상에, 표시 영역이 형성될 수 있다. 사용자가 웨어러블 장치(101)를 착용하였을 때, 외부 광은 제1 면(231)으로 입사되고, 제2 면(232)을 통해 투과됨으로써, 사용자에게 전달될 수 있다. 다른 예를 들면, 적어도 하나의 디스플레이(250)는, 외부 광을 통해 전달되는 현실 화면에, 적어도 하나의 광학 장치(282, 284)에서 제공되는 가상 현실 영상이 결합된 증강 현실 영상을, 제2 면(232) 상에 형성된 표시 영역에 표시할 수 있다.Referring to FIG. 2B, at least one display (250) can provide a user with visual information transmitted from external light and other visual information that is distinct from the visual information through a lens included in the at least one display (250). The lens can be formed based on at least one of a Fresnel lens, a pancake lens, or a multi-channel lens. For example, at least one display (250) can include a first surface (231) and a second surface (232) opposite to the first surface (231). A display area can be formed on the second surface (232) of the at least one display (250). When a user wears the wearable device (101), external light can be transmitted to the user by being incident on the first surface (231) and transmitted through the second surface (232). As another example, at least one display (250) can display an augmented reality image combined with a virtual reality image provided from at least one optical device (282, 284) on a real screen transmitted through external light, on a display area formed on the second surface (232).

일 실시예에서, 적어도 하나의 디스플레이(250)는, 적어도 하나의 광학 장치(282, 284)에서 송출된 광을 회절시켜, 사용자에게 전달하는, 적어도 하나의 웨이브가이드(waveguide)(233, 234)를 포함할 수 있다. 적어도 하나의 웨이브가이드(233, 234)는, 글래스, 플라스틱, 또는 폴리머 중 적어도 하나에 기반하여 형성될 수 있다. 적어도 하나의 웨이브가이드(233, 234)의 외부, 또는 내부의 적어도 일부분에, 나노 패턴이 형성될 수 있다. 상기 나노 패턴은, 다각형, 및/또는 곡면 형상의 격자 구조(grating structure)에 기반하여 형성될 수 있다. 적어도 하나의 웨이브가이드(233, 234)의 일 단으로 입사된 광은, 상기 나노 패턴에 의해 적어도 하나의 웨이브가이드(233, 234)의 타 단으로 전파될 수 있다. 적어도 하나의 웨이브가이드(233, 234)는 적어도 하나의 회절 요소(예: DOE(diffractive optical element), HOE(holographic optical element)), 반사 요소(예: 반사 거울) 중 적어도 하나를 포함할 수 있다. 예를 들어, 적어도 하나의 웨이브가이드(233, 234)는, 적어도 하나의 디스플레이(250)에 의해 표시되는 화면을, 사용자의 눈으로 가이드하기 위하여, 웨어러블 장치(101) 내에 배치될 수 있다. 예를 들어, 상기 화면은, 적어도 하나의 웨이브가이드(233, 234) 내에서 발생되는 전반사(total internal reflection, TIR)에 기반하여, 사용자의 눈으로 송신될 수 있다.In one embodiment, at least one display (250) can include at least one waveguide (233, 234) that diffracts light emitted from at least one optical device (282, 284) and transmits the diffracted light to a user. The at least one waveguide (233, 234) can be formed based on at least one of glass, plastic, or polymer. A nano-pattern can be formed on at least a portion of an exterior or interior of the at least one waveguide (233, 234). The nano-pattern can be formed based on a grating structure having a polygonal and/or curved shape. Light incident on one end of the at least one waveguide (233, 234) can be propagated to the other end of the at least one waveguide (233, 234) by the nano-pattern. At least one waveguide (233, 234) may include at least one diffractive element (e.g., a diffractive optical element (DOE), a holographic optical element (HOE)), a reflective element (e.g., a reflective mirror). For example, at least one waveguide (233, 234) may be arranged within the wearable device (101) to guide a screen displayed by at least one display (250) to the user's eyes. For example, the screen may be transmitted to the user's eyes based on total internal reflection (TIR) occurring within the at least one waveguide (233, 234).

웨어러블 장치(101)는, 촬영 카메라(245)를 통해 수집된 현실 영상에 포함된 오브젝트(object)를 분석하고, 분석된 오브젝트 중에서 증강 현실 제공의 대상이 되는 오브젝트에 대응되는 가상 오브젝트(virtual object)를 결합하여, 적어도 하나의 디스플레이(250)에 표시할 수 있다. 가상 오브젝트는, 현실 영상에 포함된 오브젝트에 관련된 다양한 정보에 대한 텍스트, 및 이미지 중 적어도 하나를 포함할 수 있다. 웨어러블 장치(101)는, 스테레오 카메라와 같은 멀티-카메라에 기반하여, 오브젝트를 분석할 수 있다. 상기 오브젝트 분석을 위하여, 웨어러블 장치(101)는 멀티-카메라, IMU(inertial measurement units)(또는 IMU 센서) 및/또는, ToF(time-of-flight)를 이용하여, SLAM(simultaneous localization and mapping)을 실행할 수 있다. 웨어러블 장치(101)를 착용한 사용자는, 적어도 하나의 디스플레이(250)에 표시되는 영상을 시청할 수 있다.The wearable device (101) can analyze an object included in a real image collected through a shooting camera (245), combine a virtual object corresponding to an object to be provided with augmented reality among the analyzed objects, and display the virtual object on at least one display (250). The virtual object can include at least one of text and image for various information related to the object included in the real image. The wearable device (101) can analyze the object based on a multi-camera such as a stereo camera. For the object analysis, the wearable device (101) can execute SLAM (simultaneous localization and mapping) using a multi-camera, an IMU (inertial measurement units) (or an IMU sensor), and/or a ToF (time-of-flight). A user wearing the wearable device (101) can view an image displayed on at least one display (250).

일 실시예에 따르면, 프레임(200)은, 웨어러블 장치(101)가 사용자의 신체 상에 착용될 수 있는 물리적인 구조로 이루어질 수 있다. 일 실시예에 따르면, 프레임(200)은, 사용자가 웨어러블 장치(101)를 착용하였을 때, 제1 디스플레이(250-1) 및 제2 디스플레이(250-2)가 사용자의 좌안 및 우안에 대응되는 위치할 수 있도록, 구성될 수 있다. 프레임(200)은, 적어도 하나의 디스플레이(250)를 지지할 수 있다. 예를 들면, 프레임(200)은, 제1 디스플레이(250-1) 및 제2 디스플레이(250-2)를 사용자의 좌안 및 우안에 대응되는 위치에 위치되도록 지지할 수 있다. According to one embodiment, the frame (200) may be formed as a physical structure that allows the wearable device (101) to be worn on the user's body. According to one embodiment, the frame (200) may be configured so that, when the user wears the wearable device (101), the first display (250-1) and the second display (250-2) may be positioned corresponding to the user's left and right eyes. The frame (200) may support at least one display (250). For example, the frame (200) may support the first display (250-1) and the second display (250-2) to be positioned corresponding to the user's left and right eyes.

도 2a를 참조하면, 프레임(200)은, 사용자가 웨어러블 장치(101)를 착용한 경우, 적어도 일부가 사용자의 신체의 일부분과 접촉되는 영역(220)을 포함할 수 있다. 예를 들면, 프레임(200)의 사용자의 신체의 일부분과 접촉되는 영역(220)은, 웨어러블 장치(101)가 접하는 사용자의 코의 일부분, 사용자의 귀의 일부분 및 사용자의 얼굴의 측면 일부분과 접촉하는 영역을 포함할 수 있다. 일 실시예에 따르면, 프레임(200)은, 사용자의 신체의 일부 상에 접촉되는 노즈 패드(210)를 포함할 수 있다. 웨어러블 장치(101)가 사용자에 의해 착용될 시, 노즈 패드(210)는, 사용자의 코의 일부 상에 접촉될 수 있다. 프레임(200)은, 상기 사용자의 신체의 일부와 구별되는 사용자의 신체의 다른 일부 상에 접촉되는 제1 템플(temple)(204) 및 제2 템플(205)을 포함할 수 있다.Referring to FIG. 2A, the frame (200) may include a region (220) that at least partially contacts a part of the user's body when the user wears the wearable device (101). For example, the region (220) of the frame (200) that contacts a part of the user's body may include a region that contacts a part of the user's nose, a part of the user's ear, and a part of the side of the user's face that the wearable device (101) makes contact with. According to one embodiment, the frame (200) may include a nose pad (210) that contacts a part of the user's body. When the wearable device (101) is worn by the user, the nose pad (210) may contact a part of the user's nose. The frame (200) may include a first temple (204) and a second temple (205) that contact another part of the user's body that is distinct from the part of the user's body.

예를 들면, 프레임(200)은, 제1 디스플레이(250-1)의 적어도 일부를 감싸는 제1 림(rim)(201), 제2 디스플레이(250-2)의 적어도 일부를 감싸는 제2 림(202), 제1 림(201)과 제2 림(202) 사이에 배치되는 브릿지(bridge)(203), 브릿지(203)의 일단으로부터 제1 림(201)의 가장자리 일부를 따라 배치되는 제1 패드(211), 브릿지(203)의 타단으로부터 제2 림(202)의 가장자리 일부를 따라 배치되는 제2 패드(212), 제1 림(201)으로부터 연장되어 착용자의 귀의 일부분에 고정되는 제1 템플(204), 및 제2 림(202)으로부터 연장되어 상기 귀의 반대측 귀의 일부분에 고정되는 제2 템플(205)을 포함할 수 있다. 제1 패드(211), 및 제2 패드(212)는, 사용자의 코의 일부분과 접촉될 수 있고, 제1 템플(204) 및 제2 템플(205)은, 사용자의 안면의 일부분 및 귀의 일부분과 접촉될 수 있다. 템플(204, 205)은, 도 2b의 힌지 유닛들(206, 207)을 통해 림과 회전 가능하게(rotatably) 연결될 수 있다. 제1 템플(204)은, 제1 림(201)과 제1 템플(204)의 사이에 배치된 제1 힌지 유닛(206)을 통해, 제1 림(201)에 대하여 회전 가능하게 연결될 수 있다. 제2 템플(205)은, 제2 림(202)과 제2 템플(205)의 사이에 배치된 제2 힌지 유닛(207)을 통해 제2 림(202)에 대하여 회전 가능하게 연결될 수 있다. 일 실시예에 따른, 웨어러블 장치(101)는 프레임(200)의 표면의 적어도 일부분 상에 형성된, 터치 센서, 그립 센서, 및/또는 근접 센서를 이용하여, 프레임(200)을 터치하는 외부 객체(예, 사용자의 손끝(fingertip)), 및/또는 상기 외부 객체에 의해 수행된 제스처를 식별할 수 있다.For example, the frame (200) may include a first rim (201) that surrounds at least a portion of the first display (250-1), a second rim (202) that surrounds at least a portion of the second display (250-2), a bridge (203) that is arranged between the first rim (201) and the second rim (202), a first pad (211) that is arranged along a portion of an edge of the first rim (201) from one end of the bridge (203), a second pad (212) that is arranged along a portion of an edge of the second rim (202) from the other end of the bridge (203), a first temple (204) that extends from the first rim (201) and is fixed to a portion of an ear of the wearer, and a second temple (205) that extends from the second rim (202) and is fixed to a portion of an ear opposite the ear. The first pad (211) and the second pad (212) may be in contact with a portion of the user's nose, and the first temple (204) and the second temple (205) may be in contact with a portion of the user's face and a portion of the user's ear. The temples (204, 205) may be rotatably connected to the rim through the hinge units (206, 207) of FIG. 2B. The first temple (204) may be rotatably connected to the first rim (201) through the first hinge unit (206) disposed between the first rim (201) and the first temple (204). The second temple (205) may be rotatably connected to the second rim (202) through the second hinge unit (207) disposed between the second rim (202) and the second temple (205). According to one embodiment, the wearable device (101) can identify an external object (e.g., a user's fingertip) touching the frame (200) and/or a gesture performed by the external object by using a touch sensor, a grip sensor, and/or a proximity sensor formed on at least a portion of a surface of the frame (200).

일 실시예에 따르면, 웨어러블 장치(101)는, 다양한 기능들을 수행하는 하드웨어들(예, 도 5의 블록도에 기반하여 후술될 하드웨어들)을 포함할 수 있다. 예를 들면, 상기 하드웨어들은, 배터리 모듈(270), 안테나 모듈(275), 적어도 하나의 광학 장치(282, 284), 스피커들(예, 스피커들(255-1, 255-2)), 마이크(예, 마이크들(265-1, 265-2, 265-3)), 발광 모듈(미도시), 및/또는 PCB(printed circuit board)(290)(예, 인쇄 회로 기판)을 포함할 수 있다. 다양한 하드웨어들은, 프레임(200) 내에 배치될 수 있다.According to one embodiment, the wearable device (101) may include hardwares (e.g., hardwares to be described later based on the block diagram of FIG. 5) that perform various functions. For example, the hardwares may include a battery module (270), an antenna module (275), at least one optical device (282, 284), speakers (e.g., speakers (255-1, 255-2)), microphones (e.g., microphones (265-1, 265-2, 265-3)), a light-emitting module (not shown), and/or a printed circuit board (PCB) (290) (e.g., a printed circuit board). The various hardwares may be arranged within the frame (200).

일 실시예에 따른, 웨어러블 장치(101)의 마이크(예, 마이크들(265-1, 265-2, 265-3))는, 프레임(200)의 적어도 일부분에 배치되어, 소리 신호를 획득할 수 있다. 브릿지(203) 상에 배치된 제1 마이크(265-1), 제2 림(202) 상에 배치된 제2 마이크(265-2), 및 제1 림(201) 상에 배치된 제3 마이크(265-3)가 도 2b 내에 도시되지만, 마이크(265)의 개수, 및 배치가 도 2b의 일 실시예에 제한되는 것은 아니다. 웨어러블 장치(101) 내에 포함된 마이크(265)의 개수가 두 개 이상인 경우, 웨어러블 장치(101)는 프레임(200)의 상이한 부분들 상에 배치된 복수의 마이크들을 이용하여, 소리 신호의 방향을 식별할 수 있다.According to one embodiment, the microphones (e.g., microphones 265-1, 265-2, 265-3) of the wearable device (101) may be disposed on at least a portion of the frame (200) to acquire a sound signal. A first microphone (265-1) disposed on the bridge (203), a second microphone (265-2) disposed on the second rim (202), and a third microphone (265-3) disposed on the first rim (201) are illustrated in FIG. 2B , but the number and arrangement of the microphones (265) are not limited to the embodiment of FIG. 2B . When the number of microphones (265) included in the wearable device (101) is two or more, the wearable device (101) may identify the direction of the sound signal by using a plurality of microphones disposed on different portions of the frame (200).

일 실시예에 따르면, 적어도 하나의 광학 장치(282, 284)는, 다양한 이미지 정보를 사용자에게 제공하기 위하여, 적어도 하나의 디스플레이(250)에 가상 오브젝트를 투영할 수 있다. 예를 들면, 적어도 하나의 광학 장치(282, 284)는, 프로젝터일 수 있다. 적어도 하나의 광학 장치(282, 284)는, 적어도 하나의 디스플레이(250)에 인접하여 배치되거나, 적어도 하나의 디스플레이(250)의 일부로써, 적어도 하나의 디스플레이(250) 내에 포함될 수 있다. 일 실시예에 따르면, 웨어러블 장치(101)는, 제1 디스플레이(250-1)에 대응되는, 제1 광학 장치(282) 및 제2 디스플레이(250-2)에 대응되는, 제2 광학 장치(284)를 포함할 수 있다. 예를 들면, 적어도 하나의 광학 장치(282, 284)는, 제1 디스플레이(250-1)의 가장자리에 배치되는 제1 광학 장치(282) 및 제2 디스플레이(250-2)의 가장자리에 배치되는 제2 광학 장치(284)를 포함할 수 있다. 제1 광학 장치(282)는, 제1 디스플레이(250-1) 상에 배치된 제1 웨이브가이드(233)로 광을 송출할 수 있고, 제2 광학 장치(284)는, 제2 디스플레이(250-2) 상에 배치된 제2 웨이브가이드(234)로 광을 송출할 수 있다.In one embodiment, at least one optical device (282, 284) can project a virtual object onto at least one display (250) to provide various image information to a user. For example, at least one optical device (282, 284) can be a projector. At least one optical device (282, 284) can be positioned adjacent to at least one display (250) or can be included within at least one display (250) as a part of at least one display (250). In one embodiment, the wearable device (101) can include a first optical device (282) corresponding to a first display (250-1) and a second optical device (284) corresponding to a second display (250-2). For example, at least one optical device (282, 284) may include a first optical device (282) disposed at an edge of the first display (250-1) and a second optical device (284) disposed at an edge of the second display (250-2). The first optical device (282) may transmit light to a first waveguide (233) disposed on the first display (250-1), and the second optical device (284) may transmit light to a second waveguide (234) disposed on the second display (250-2).

일 실시예에서, 카메라(260)는, 촬영 카메라(245), 시선 추적 카메라(eye tracking camera, ET 카메라)(260-1), 및/또는 동작 인식 카메라(260-2)를 포함할 수 있다. 촬영 카메라(245), 시선 추적 카메라(260-1) 및 동작 인식 카메라(260-2, 264)는, 프레임(200) 상에서 서로 다른 위치에 배치될 수 있고, 서로 다른 기능을 수행할 수 있다. 시선 추적 카메라(260-1)는, 웨어러블 장치(101)를 착용한 사용자의 시선(gaze)을 나타내는 데이터를 출력할 수 있다. 예를 들어, 웨어러블 장치(101)는 시선 추적 카메라(260-1)를 통하여 획득된, 사용자의 눈동자가 포함된 이미지로부터, 상기 시선을 탐지할 수 있다. 시선 추적 카메라(260-1)가 사용자의 우측 눈을 향하여 배치된 일 예가 도 2b 내에 도시되지만, 실시예가 이에 제한되는 것은 아니며, 시선 추적 카메라(260-1)는, 사용자의 좌측 눈을 향하여 단독으로 배치되거나, 또는 양 눈들 전부를 향하여 배치될 수 있다. In one embodiment, the camera (260) may include a recording camera (245), an eye tracking camera (ET camera) (260-1), and/or a motion recognition camera (260-2). The recording camera (245), the eye tracking camera (260-1), and the motion recognition cameras (260-2, 264) may be positioned at different locations on the frame (200) and may perform different functions. The gaze tracking camera (260-1) may output data representing a gaze of a user wearing the wearable device (101). For example, the wearable device (101) may detect the gaze from an image including the user's pupils obtained through the gaze tracking camera (260-1). An example in which the gaze tracking camera (260-1) is positioned toward the user's right eye is illustrated in FIG. 2B, but the embodiment is not limited thereto, and the gaze tracking camera (260-1) may be positioned solely toward the user's left eye, or toward both eyes.

일 실시예에서, 촬영 카메라(245)는, 증강 현실 또는 혼합 현실 콘텐츠를 구현하기 위해서 가상의 이미지와 정합될 실제의 이미지나 배경을 촬영할 수 있다. 촬영 카메라(245)는, 사용자가 바라보는 위치에 존재하는 특정 사물의 이미지를 촬영하고, 그 이미지를 적어도 하나의 디스플레이(250)로 제공할 수 있다. 적어도 하나의 디스플레이(250)는, 촬영 카메라(245)를 이용해 획득된 상기 특정 사물의 이미지를 포함하는 실제의 이미지나 배경에 관한 정보와, 적어도 하나의 광학 장치(282, 284)를 통해 제공되는 가상 이미지가 겹쳐진 하나의 영상을 표시할 수 있다. 일 실시예에서, 촬영 카메라(245)는, 제1 림(201) 및 제2 림(202) 사이에 배치되는 브릿지(203) 상에 배치될 수 있다.In one embodiment, the capturing camera (245) can capture an actual image or background to be aligned with a virtual image in order to implement augmented reality or mixed reality content. The capturing camera (245) can capture an image of a specific object existing at a location viewed by the user and provide the image to at least one display (250). The at least one display (250) can display one image in which information about a real image or background including an image of the specific object acquired using the capturing camera (245) and a virtual image provided through at least one optical device (282, 284) are superimposed. In one embodiment, the capturing camera (245) can be placed on a bridge (203) disposed between the first rim (201) and the second rim (202).

시선 추적 카메라(260-1)는, 웨어러블 장치(101)를 착용한 사용자의 시선(gaze)을 추적함으로써, 사용자의 시선과 적어도 하나의 디스플레이(250)에 제공되는 시각 정보를 일치시켜 보다 현실적인 증강 현실을 구현할 수 있다. 예를 들어, 웨어러블 장치(101)는, 사용자가 정면을 바라볼 때, 사용자가 위치한 장소에서 사용자의 정면에 관련된 환경 정보를 자연스럽게 적어도 하나의 디스플레이(250)에 표시할 수 있다. 시선 추적 카메라(260-1)는, 사용자의 시선을 결정하기 위하여, 사용자의 동공의 이미지를 캡쳐 하도록, 구성될 수 있다. 예를 들면, 시선 추적 카메라(260-1)는, 사용자의 동공에서 반사된 시선 검출 광을 수신하고, 수신된 시선 검출 광의 위치 및 움직임에 기반하여, 사용자의 시선을 추적할 수 있다. 일 실시예에서, 시선 추적 카메라(260-1)는, 사용자의 좌안과 우안에 대응되는 위치에 배치될 수 있다. 예를 들면, 시선 추적 카메라(260-1)는, 제1 림(201) 및/또는 제2 림(202) 내에서, 웨어러블 장치(101)를 착용한 사용자가 위치하는 방향을 향하도록 배치될 수 있다.The gaze tracking camera (260-1) can implement more realistic augmented reality by tracking the gaze of a user wearing the wearable device (101) and thereby matching the user's gaze with visual information provided to at least one display (250). For example, when the wearable device (101) looks straight ahead, the wearable device (101) can naturally display environmental information related to the user's front at a location where the user is located on at least one display (250). The gaze tracking camera (260-1) can be configured to capture an image of the user's pupil in order to determine the user's gaze. For example, the gaze tracking camera (260-1) can receive gaze detection light reflected from the user's pupil and track the user's gaze based on the position and movement of the received gaze detection light. In one embodiment, the gaze tracking camera (260-1) can be placed at positions corresponding to the user's left and right eyes. For example, the gaze tracking camera (260-1) may be positioned within the first rim (201) and/or the second rim (202) to face the direction in which the user wearing the wearable device (101) is positioned.

동작 인식 카메라(260-2, 264)는, 사용자의 몸통, 손, 또는 얼굴 등 사용자의 신체 전체 또는 일부의 움직임을 인식함으로써, 적어도 하나의 디스플레이(250)에 제공되는 화면에 특정 이벤트를 제공할 수 있다. 동작 인식 카메라(260-2, 264)는, 사용자의 동작을 인식(gesture recognition)하여 상기 동작에 대응되는 신호를 획득하고, 상기 신호에 대응되는 표시를 적어도 하나의 디스플레이(250)에 제공할 수 있다. 프로세서는, 상기 동작에 대응되는 신호를 식별하고, 상기 식별에 기반하여, 지정된 기능을 수행할 수 있다. 일 실시예에서, 동작 인식 카메라(260-2, 264)는, 제1 림(201) 및/또는 제2 림(202)상에 배치될 수 있다.The gesture recognition camera (260-2, 264) can recognize the movement of the user's entire body, such as the user's torso, hand, or face, or a part of the body, and thereby provide a specific event on a screen provided on at least one display (250). The gesture recognition camera (260-2, 264) can recognize the user's gesture (gesture recognition), obtain a signal corresponding to the gesture, and provide a display corresponding to the signal on at least one display (250). The processor can identify the signal corresponding to the gesture, and perform a designated function based on the identification. In one embodiment, the gesture recognition camera (260-2, 264) can be disposed on the first rim (201) and/or the second rim (202).

웨어러블 장치(101) 내에 포함된 카메라(260)는, 상술된 시선 추적 카메라(260-1), 동작 인식 카메라(260-2, 264)에 제한되지 않는다. 예를 들어, 웨어러블 장치(101)는 사용자의 FoV를 향하여 배치된 카메라(260)를 이용하여, 상기 FoV 내에 포함된 외부 객체를 식별할 수 있다. 웨어러블 장치(101)가 외부 객체를 식별하는 것은, 깊이 센서, 및/또는 ToF(time of flight) 센서와 같이, 웨어러블 장치(101), 및 외부 객체 사이의 거리를 식별하기 위한 센서에 기반하여 수행될 수 있다. 상기 FoV를 향하여 배치된 상기 카메라(260)는, 오토포커스 기능, 및/또는 OIS(optical image stabilization) 기능을 지원할 수 있다. 예를 들어, 웨어러블 장치(101)는, 웨어러블 장치(101)를 착용한 사용자의 얼굴을 포함하는 이미지를 획득하기 위하여, 상기 얼굴을 향하여 배치된 카메라(260)(예, FT(face tracking) 카메라)를 포함할 수 있다. The camera (260) included in the wearable device (101) is not limited to the above-described gaze tracking camera (260-1), motion recognition camera (260-2, 264). For example, the wearable device (101) can identify an external object included in the FoV by using the camera (260) positioned toward the user's FoV. The wearable device (101) identifying the external object can be performed based on a sensor for identifying the distance between the wearable device (101) and the external object, such as a depth sensor and/or a ToF (time of flight) sensor. The camera (260) positioned toward the FoV can support an autofocus function and/or an OIS (optical image stabilization) function. For example, the wearable device (101) may include a camera (260) (e.g., a face tracking (FT) camera) positioned toward the face to obtain an image including the face of a user wearing the wearable device (101).

비록 도시되지 않았지만, 일 실시예에 따른, 웨어러블 장치(101)는, 카메라(260)를 이용하여 촬영되는 피사체(예, 사용자의 눈, 얼굴, 및/또는 FoV 내 외부 객체)를 향하여 빛을 방사하는 광원(예, LED)을 더 포함할 수 있다. 상기 광원은 적외선 파장의 LED를 포함할 수 있다. 상기 광원은, 프레임(200), 힌지 유닛들(206, 207) 중 적어도 하나에 배치될 수 있다. Although not shown, in one embodiment, the wearable device (101) may further include a light source (e.g., an LED) that emits light toward a subject (e.g., a user's eye, face, and/or an external object within the FoV) being captured using the camera (260). The light source may include an LED of an infrared wavelength. The light source may be disposed on at least one of the frame (200) and the hinge units (206, 207).

일 실시예에 따르면, 배터리 모듈(270)은, 웨어러블 장치(101)의 전자 부품들에 전력을 공급할 수 있다. 일 실시예에서, 배터리 모듈(270)은, 제1 템플(204) 및/또는 제2 템플(205) 내에 배치될 수 있다. 예를 들면, 배터리 모듈(270)은, 복수의 배터리 모듈(270)들일 수 있다. 복수의 배터리 모듈(270)들은, 각각 제1 템플(204)과 제2 템플(205) 각각에 배치될 수 있다. 일 실시예에서, 배터리 모듈(270)은 제1 템플(204) 및/또는 제2 템플(205)의 단부에 배치될 수 있다. In one embodiment, the battery module (270) may supply power to electronic components of the wearable device (101). In one embodiment, the battery module (270) may be disposed within the first temple (204) and/or the second temple (205). For example, the battery module (270) may be a plurality of battery modules (270). The plurality of battery modules (270) may be disposed within each of the first temple (204) and the second temple (205). In one embodiment, the battery module (270) may be disposed at an end of the first temple (204) and/or the second temple (205).

안테나 모듈(275)은, 신호 또는 전력을 웨어러블 장치(101)의 외부로 송신하거나, 외부로부터 신호 또는 전력을 수신할 수 있다. 일 실시예에서, 안테나 모듈(275)은, 제1 템플(204) 및/또는 제2 템플(205) 내에 배치될 수 있다. 예를 들면, 안테나 모듈(275)은, 제1 템플(204), 및/또는 제2 템플(205)의 일면에 가깝게 배치될 수 있다. The antenna module (275) can transmit signals or power to the outside of the wearable device (101), or receive signals or power from the outside. In one embodiment, the antenna module (275) can be positioned within the first temple (204) and/or the second temple (205). For example, the antenna module (275) can be positioned close to one surface of the first temple (204) and/or the second temple (205).

스피커(255)는, 음향 신호를 웨어러블 장치(101)의 외부로 출력할 수 있다. 음향 출력 모듈은, 스피커로 참조될 수 있다. 일 실시예에서, 스피커(255)는, 웨어러블 장치(101)를 착용한 사용자의 귀에 인접하게 배치되기 위하여, 제1 템플(204), 및/또는 제2 템플(205) 내에 배치될 수 있다. 예를 들면, 스피커(255)는, 제1 템플(204) 내에 배치됨으로써 사용자의 좌측 귀에 인접하게 배치되는, 제2 스피커(255-2), 및 제2 템플(205) 내에 배치됨으로써 사용자의 우측 귀에 인접하게 배치되는, 제1 스피커(255-1)를 포함할 수 있다.The speaker (255) can output an acoustic signal to the outside of the wearable device (101). The acoustic output module may be referred to as a speaker. In one embodiment, the speaker (255) may be positioned within the first temple (204) and/or the second temple (205) so as to be positioned adjacent to an ear of a user wearing the wearable device (101). For example, the speaker (255) may include a second speaker (255-2) positioned within the first temple (204) and thus positioned adjacent to the user's left ear, and a first speaker (255-1) positioned within the second temple (205) and thus positioned adjacent to the user's right ear.

발광 모듈(미도시)은, 적어도 하나의 발광 소자를 포함할 수 있다. 발광 모듈은, 웨어러블 장치(101)의 특정 상태에 관한 정보를 사용자에게 시각적으로 제공하기 위하여, 특정 상태에 대응되는 색상의 빛을 방출하거나, 특정 상태에 대응되는 동작으로 빛을 방출할 수 있다. 예를 들면, 웨어러블 장치(101)가, 충전이 필요한 경우, 적색 광의 빛을 일정한 주기로 방출할 수 있다. 일 실시예에서, 발광 모듈은, 제1 림(201) 및/또는 제2 림(202) 상에 배치될 수 있다.The light-emitting module (not shown) may include at least one light-emitting element. The light-emitting module may emit light of a color corresponding to a specific state or emit light with an action corresponding to a specific state in order to visually provide information about a specific state of the wearable device (101) to the user. For example, when the wearable device (101) requires charging, it may emit red light at a regular cycle. In one embodiment, the light-emitting module may be disposed on the first rim (201) and/or the second rim (202).

도 2b를 참고하면, 일 실시예에 따른, 웨어러블 장치(101)는 PCB(printed circuit board)(290)을 포함할 수 있다. PCB(290)는, 제1 템플(204), 또는 제2 템플(205) 중 적어도 하나에 포함될 수 있다. PCB(290)는, 적어도 두 개의 서브 PCB들 사이에 배치된 인터포저를 포함할 수 있다. PCB(290) 상에서, 웨어러블 장치(101)에 포함된 하나 이상의 하드웨어들(예, 도 5의 상이한 블록들에 의하여 도시된 하드웨어들)이 배치될 수 있다. 웨어러블 장치(101)는, 상기 하드웨어들을 상호연결하기 위한, FPCB(flexible PCB)를 포함할 수 있다.Referring to FIG. 2b, according to one embodiment, the wearable device (101) may include a printed circuit board (PCB) (290). The PCB (290) may be included in at least one of the first temple (204) or the second temple (205). The PCB (290) may include an interposer positioned between at least two sub-PCBs. One or more hardwares included in the wearable device (101) (e.g., hardwares illustrated by different blocks in FIG. 5) may be positioned on the PCB (290). The wearable device (101) may include a flexible PCB (FPCB) for interconnecting the hardwares.

일 실시예에 따른, 웨어러블 장치(101)는, 웨어러블 장치(101)의 자세, 및/또는 웨어러블 장치(101)를 착용한 사용자의 신체 부위(예, 머리)의 자세를 탐지하기 위한 자이로 센서, 중력 센서, 및/또는 가속도 센서 중 적어도 하나를 포함할 수 있다. 중력 센서, 및 가속도 센서 각각은, 서로 수직인 지정된 3차원 축들(예, x축, y축 및 z축)에 기반하여 중력 가속도, 및/또는 가속도를 측정할 수 있다. 자이로 센서는 지정된 3차원 축들(예, x축, y축 및 z축) 각각의 각속도를 측정할 수 있다. 상기 중력 센서, 상기 가속도 센서, 및 상기 자이로 센서 중 적어도 하나가, IMU(inertial measurement unit)로 참조될 수 있다. 일 실시예에 따른, 웨어러블 장치(101)는 IMU에 기반하여 웨어러블 장치(101)의 특정 기능을 실행하거나, 또는 중단하기 위해 수행된 사용자의 모션, 및/또는 제스처를 식별할 수 있다.According to one embodiment, the wearable device (101) may include at least one of a gyro sensor, a gravity sensor, and/or an acceleration sensor for detecting a posture of the wearable device (101) and/or a posture of a body part (e.g., a head) of a user wearing the wearable device (101). Each of the gravity sensor and the acceleration sensor may measure gravitational acceleration and/or acceleration based on designated three-dimensional axes (e.g., x-axis, y-axis, and z-axis) that are perpendicular to each other. The gyro sensor may measure an angular velocity about each of the designated three-dimensional axes (e.g., x-axis, y-axis, and z-axis). At least one of the gravity sensor, the acceleration sensor, and the gyro sensor may be referred to as an inertial measurement unit (IMU). According to one embodiment, the wearable device (101) may identify a user's motion and/or gesture performed to execute or terminate a specific function of the wearable device (101) based on the IMU.

도 3a 및 도 3b는 웨어러블 장치의 외관의 예를 도시한다.Figures 3a and 3b illustrate examples of the appearance of a wearable device.

도 3a 내지 도 3b의 웨어러블 장치(101)는, 도 1의 전자 장치(101)의 일 예일 수 있다. 일 실시예에 따른, 웨어러블 장치(101)의 하우징의 제1 면(310)의 외관의 일 예가 도 3a에 도시되고, 상기 제1 면(310)의 반대되는(opposite to) 제2 면(320)의 외관의 일 예가 도 3b에 도시될 수 있다.The wearable device (101) of FIGS. 3A and 3B may be an example of the electronic device (101) of FIG. 1. According to one embodiment, an example of the appearance of a first side (310) of a housing of the wearable device (101) may be illustrated in FIG. 3A, and an example of the appearance of a second side (320) opposite to the first side (310) may be illustrated in FIG. 3B.

도 3a를 참고하면, 일 실시예에 따른, 웨어러블 장치(101)의 제1 면(310)은, 사용자의 신체 부위(예, 상기 사용자의 얼굴) 상에 부착가능한(attachable) 형태를 가질 수 있다. 비록 도시되지 않았지만, 웨어러블 장치(101)는, 사용자의 신체 부위 상에 고정되기 위한 스트랩, 및/또는 하나 이상의 템플들(예, 도 2a 및 도 2b의 제1 템플(204), 및/또는 제2 템플(205))을 더 포함할 수 있다. 사용자의 양 눈들 중에서 좌측 눈으로 이미지를 출력하기 위한 제1 디스플레이(250-1), 및 상기 양 눈들 중에서 우측 눈으로 이미지를 출력하기 위한 제2 디스플레이(250-2)가 제1 면(310) 상에 배치될 수 있다. 웨어러블 장치(101)는 제1 면(310) 상에 형성되고, 상기 제1 디스플레이(250-1), 및 상기 제2 디스플레이(250-2)로부터 방사되는 광과 상이한 광(예, 외부 광(ambient light))에 의한 간섭을 방지하기 위한, 고무, 또는 실리콘 패킹(packing)을 더 포함할 수 있다.Referring to FIG. 3A, a first surface (310) of a wearable device (101) according to one embodiment may have a form attachable on a body part of a user (e.g., the face of the user). Although not shown, the wearable device (101) may further include a strap for being fixed on a body part of a user, and/or one or more temples (e.g., the first temple (204) and/or the second temple (205) of FIGS. 2A and 2B). A first display (250-1) for outputting an image to a left eye among the user's two eyes, and a second display (250-2) for outputting an image to a right eye among the user's two eyes may be disposed on the first surface (310). The wearable device (101) is formed on the first surface (310) and may further include a rubber or silicone packing to prevent interference by light (e.g., ambient light) different from light radiated from the first display (250-1) and the second display (250-2).

일 실시예에 따른, 웨어러블 장치(101)는, 상기 제1 디스플레이(250-1), 및 상기 제2 디스플레이(250-2) 각각에 인접한 사용자의 양 눈들을 촬영, 및/또는 추적하기 위한 카메라들(260-3, 260-4)을 포함할 수 있다. 예를 들어, 카메라들(260-3, 260-4)은, ET 카메라로 참조될 수 있다. 일 실시예에 따른, 웨어러블 장치(101)는, 사용자의 얼굴을 촬영, 및/또는 인식하기 위한 카메라들(260-5, 260-6)을 포함할 수 있다. 상기 카메라들(260-5, 260-6)은, FT 카메라로 참조될 수 있다.According to one embodiment, the wearable device (101) may include cameras (260-3, 260-4) for capturing and/or tracking both eyes of the user adjacent to each of the first display (250-1) and the second display (250-2). For example, the cameras (260-3, 260-4) may be referred to as ET cameras. According to one embodiment, the wearable device (101) may include cameras (260-5, 260-6) for capturing and/or recognizing the face of the user. The cameras (260-5, 260-6) may be referred to as FT cameras.

도 3b를 참고하면, 도 3a의 제1 면(310)과 반대되는 제2 면(320) 상에, 웨어러블 장치(101)의 외부 환경과 관련된 정보를 획득하기 위한 카메라(예, 카메라들(260-7, 260-8, 260-9, 260-10, 260-11, 260-12)), 및/또는 센서(예, 깊이 센서(330))가 배치될 수 있다. 예를 들어, 카메라들(260-7, 260-8, 260-9, 260-10)은, 외부 객체를 인식하기 위하여, 제2 면(320) 상에 배치될 수 있다. 예를 들어, 카메라들(260-11, 260-12)을 이용하여, 웨어러블 장치(101)는 사용자의 양 눈들 각각으로 송신될 이미지, 및/또는 비디오를 획득할 수 있다. 카메라(260-11)는, 상기 양 눈들 중에서 우측 눈에 대응하는 제2 디스플레이(250-2)를 통해 표시될 이미지를 획득하도록, 웨어러블 장치(101)의 제2 면(320) 상에 배치될 수 있다. 카메라(260-12)는, 상기 양 눈들 중에서 좌측 눈에 대응하는 제1 디스플레이(250-1)를 통해 표시될 이미지를 획득하도록, 웨어러블 장치(101)의제2 면(320) 상에 배치될 수 있다.Referring to FIG. 3b, cameras (e.g., cameras 260-7, 260-8, 260-9, 260-10, 260-11, 260-12)) and/or sensors (e.g., depth sensors (330)) for obtaining information related to the external environment of the wearable device (101) may be disposed on a second surface (320) opposite to the first surface (310) of FIG. 3a. For example, the cameras (260-7, 260-8, 260-9, 260-10) may be disposed on the second surface (320) to recognize external objects. For example, using the cameras (260-11, 260-12), the wearable device (101) may obtain images and/or videos to be transmitted to each of the user's two eyes. The camera (260-11) may be placed on the second face (320) of the wearable device (101) to obtain an image to be displayed through the second display (250-2) corresponding to the right eye among the two eyes. The camera (260-12) may be placed on the second face (320) of the wearable device (101) to obtain an image to be displayed through the first display (250-1) corresponding to the left eye among the two eyes.

일 실시예에 따른, 웨어러블 장치(101)는, 웨어러블 장치(101), 및 외부 객체 사이의 거리를 식별하기 위하여 제2 면(320) 상에 배치된 깊이 센서(330)를 포함할 수 있다. 깊이 센서(330)를 이용하여, 웨어러블 장치(101)는, 웨어러블 장치(101)를 착용한 사용자의 FoV의 적어도 일부분에 대한 공간 정보(spatial information)(예, 깊이 맵(depth map))를 획득할 수 있다.According to one embodiment, the wearable device (101) may include a depth sensor (330) disposed on the second surface (320) to identify a distance between the wearable device (101) and an external object. Using the depth sensor (330), the wearable device (101) may obtain spatial information (e.g., a depth map) for at least a portion of the FoV of a user wearing the wearable device (101).

비록 도시되지 않았지만, 웨어러블 장치(101)의 제2 면(320) 상에, 외부 객체로부터 출력된 소리를 획득하기 위한 마이크가 배치될 수 있다. 마이크의 개수는, 실시예에 따라 하나 이상일 수 있다.Although not shown, a microphone may be placed on the second side (320) of the wearable device (101) to acquire sound output from an external object. The number of microphones may be one or more depending on the embodiment.

상술한 바와 같이, 일 실시예에 따른, 웨어러블 장치(101)는 사용자의 손을 포함하는 신체 부위를 식별하기 위한 하드웨어(예, 카메라들(260-7, 206-8, 260-9, 260-10), 및/또는 깊이 센서(330))를 포함할 수 있다. 웨어러블 장치(101)는 신체 부위의 모션에 의해 나타나는 제스처를 식별할 수 있다. 웨어러블 장치(101)는, 웨어러블 장치(101)를 착용한 사용자에게, 상기 식별된 제스처에 기반하는 UI를 제공할 수 있다. 상기 UI는, 웨어러블 장치(101) 내에 저장된 이미지, 및/또는 비디오를 편집하기 위한 기능을 지원할 수 있다. 웨어러블 장치(101)는 상기 제스처를 보다 정확하게 식별하기 위하여, 웨어러블 장치(101)와 상이한 외부 전자 장치와 통신할 수 있다.As described above, according to one embodiment, the wearable device (101) may include hardware (e.g., cameras (260-7, 206-8, 260-9, 260-10), and/or depth sensor (330)) for identifying a body part including a user's hand. The wearable device (101) may identify a gesture indicated by a motion of the body part. The wearable device (101) may provide a UI based on the identified gesture to a user wearing the wearable device (101). The UI may support a function for editing images and/or videos stored in the wearable device (101). The wearable device (101) may communicate with an external electronic device different from the wearable device (101) in order to more accurately identify the gesture.

도 2a 내지 도 3b의 웨어러블 장치(101)(또는, 도 1의 전자 장치(101))는 가상 환경(virtual environment)을 제공할 수 있다. 예를 들어, 상기 가상 환경은, 웨어러블 장치(101)를 통해 제공되는 확장 현실(extended reality, XR)의 일 예를 나타낼 수 있다. 예를 들어, XR은, 증강 현실(augmented reality, AR), 가상 현실(virtual reality, VR), 및 혼합 현실(mixed reality, MR)을 포함할 수 있다. 예를 들어, AR을 위한 웨어러블 장치(101)는 현실의 객체를 기반으로 정보를 증강하여 제공할 수 있다. 예를 들어, 웨어러블 장치(101)는 사용자에게 현실의 객체를 기반으로 정보를 제공하기 위한 AR 안경(AR glass) 또는 VR 안경을 포함할 수 있다. 예를 들어, 웨어러블 장치(101)는, VST(video see-through) 장치를 포함할 수 있다. The wearable device (101) of FIGS. 2A to 3B (or the electronic device (101) of FIG. 1) can provide a virtual environment. For example, the virtual environment can represent an example of extended reality (XR) provided through the wearable device (101). For example, XR can include augmented reality (AR), virtual reality (VR), and mixed reality (MR). For example, the wearable device (101) for AR can provide augmented information based on a real object. For example, the wearable device (101) can include AR glasses or VR glasses for providing information to a user based on a real object. For example, the wearable device (101) can include a VST (video see-through) device.

웨어러블 장치(101)에 의해 제공되는 상기 가상 환경은, 깊이(depth)가 상이한(different) 가상 객체들을 포함할 수 있다. 상기 가상 객체들은, 콘텐츠(contents)로 참조될 수 있다. 예를 들어, 웨어러블 장치(101)를 착용한 사용자(user)가 상기 콘텐츠를 바라보는 경우, 상기 콘텐츠에 따라 초점 거리가 변경될 수 있다. 상기 초점 거리는, 웨어러블 장치(101)의 상기 사용자의 눈(eye)에 대한 초점 거리를 나타낼 수 있다. 예를 들어, 일반적으로 상기 사용자가 콘텐트를 시청하고 있는 동안, 상기 눈에 대한 상기 콘텐트의 위치가 변경되지 않는 바, 상기 초점 거리는 특정 거리로 고정될 수 있다. 이에 따라, 상기 사용자의 시력(sight)이 악화(deteriorate)될 수 있다. 이와 달리, 상기 깊이가 상이한 가상 객체들을 포함하는 상기 가상 환경을 이용하는 사용자의 경우, 상기 가상 객체들에 따른 다양한 초점 거리들이 이용되는 바, 상기 사용자의 시력은 개선될 수 있다. 그러나, 상기 가상 공간 내에서도, 고정된 콘텐트를 이용하는 경우, 상기 초점 거리가 특정 거리로 고정되는 문제가 여전히 존재할 수 있다. 이하, 본 개시에서는, 상기 가상 환경 내에서 콘텐트를 이용하는 경우에 특정 콘텐트에 대하여 다양한 초점 거리를 이용하기 위한 장치 및 방법이 서술된다. 도 4a 및 도 4b에서는, 사용자의 동적인(dynamic) 초점 거리에 따라 상기 가상 환경 내에서 콘텐트를 표시하는 방법이 서술된다. The virtual environment provided by the wearable device (101) may include virtual objects having different depths. The virtual objects may be referred to as contents. For example, when a user wearing the wearable device (101) views the content, a focal length may change depending on the content. The focal length may represent a focal length of the wearable device (101) with respect to the user's eye. For example, since the location of the content with respect to the eye generally does not change while the user is viewing the content, the focal length may be fixed to a specific distance. Accordingly, the user's eyesight may be deteriorated. In contrast, in the case of a user using the virtual environment including virtual objects having different depths, since various focal lengths are used depending on the virtual objects, the user's eyesight may be improved. However, even within the virtual space, when using fixed content, there may still be a problem that the focal length is fixed to a specific distance. Hereinafter, the present disclosure describes a device and method for using various focal lengths for specific content when using the content within the virtual environment. In FIGS. 4A and 4B, a method for displaying content within the virtual environment according to a dynamic focal length of a user is described.

도 4a 및 도 4b는 가상 환경 내에서 초점 거리(focal length)에 따라 콘텐트(content)를 표시하는 방법의 예들을 도시한다.Figures 4a and 4b illustrate examples of how to display content according to focal length within a virtual environment.

도 4a 및 도 4b의 방법은, 도 2a 내지 도 3b의 웨어러블 장치(101)(또는 도 1의 전자 장치)에 의해 수행될 수 있다. The methods of FIGS. 4a and 4b can be performed by the wearable device (101) of FIGS. 2a to 3b (or the electronic device of FIG. 1).

도 4a 및 도 4b를 참조하면, 사용자(400)는 웨어러블 장치(101)를 착용할 수 있다. 예를 들어, 웨어러블 장치(101)는, HMD를 포함할 수 있다. 예를 들어, 상기 HMD는 사용자(400)의 머리(head) 부분에 착용될 수 있다. 도 4a 및 도 4b는, 2개의 디스플레이들(250-1, 250-2)을 포함하는 HMD를 웨어러블 장치(101)의 예로써 도시하나, 본 개시의 실시예가 이에 제한되는 것은 아니다. 예를 들어, 웨어러블 장치(101)는, 하나의 디스플레이 또는 3개의 디스플레이들을 포함할 수도 있다. 또한, 예를 들어, 웨어러블 장치(101)는, 고정 초점 거리를 갖는 렌즈를 포함할 수도 있다. 고정 초점 거리를 갖는 렌즈를 포함하는 복수의 디스플레이들을 이용하는 경우, 웨어러블 장치(101)는, 상기 복수의 디스플레이들을 이용하여 초점 거리를 조정할 수 있다. 또는, 예를 들어, 웨어러블 장치(101)는, 가변 초점 거리를 갖는 렌즈를 포함할 수도 있다. 가변 초점 거리를 갖는 렌즈를 포함하는 디스플레이를 이용하는 경우, 웨어러블 장치(101)는, 상기 디스플레이 내의 가변 초점 거리를 갖는 렌즈를 조정함으로써, 초점 거리를 조정할 수 있다. 도 4a 및 도 4b를 참조하면, 웨어러블 장치(101)는 가상 환경을 제공할 수 있다. 예를 들어, 상기 가상 환경은, 콘텐트(410)를 포함할 수 있다. 예를 들어, 콘텐트(410)는, 상기 가상 환경 내에 표시되는 가상 객체(virtual object) 또는 시각적 객체(visual object)로 참조될 수 있다. 도 4a 및 도 4b는, 2D(two-dimensional) 객체인 콘텐트(410)를 예로 도시하나, 본 개시의 실시예가 이에 제한되는 것은 아니다. 예를 들어, 본 개시의 실시예는, 3D(three-dimensional) 객체인 콘텐트(410)를 포함할 수 있다. 상술한 예에서, 웨어러블 장치(101)는, 고정 초점 거리를 갖는 렌즈 또는 가변 초점 거리를 갖는 렌즈를 포함하는 적어도 하나의 디스플레이를 통해, 상기 가상 환경 내의 가상 객체의 위치에 따른 깊이(depth)를 표현할 수 있다. Referring to FIGS. 4A and 4B , a user (400) may wear a wearable device (101). For example, the wearable device (101) may include an HMD. For example, the HMD may be worn on the head of the user (400). FIGS. 4A and 4B illustrate an HMD including two displays (250-1, 250-2) as an example of the wearable device (101), but the embodiments of the present disclosure are not limited thereto. For example, the wearable device (101) may include one display or three displays. In addition, for example, the wearable device (101) may include a lens having a fixed focal length. When using a plurality of displays including lenses having fixed focal lengths, the wearable device (101) may adjust the focal length using the plurality of displays. Alternatively, for example, the wearable device (101) may include a lens having a variable focal length. When utilizing a display including a lens having a variable focal length, the wearable device (101) can adjust the focal length by adjusting the lens having a variable focal length within the display. Referring to FIGS. 4A and 4B , the wearable device (101) may provide a virtual environment. For example, the virtual environment may include content (410). For example, the content (410) may be referred to as a virtual object or a visual object displayed within the virtual environment. FIGS. 4A and 4B illustrate content (410) as an example of a two-dimensional (2D) object, but embodiments of the present disclosure are not limited thereto. For example, embodiments of the present disclosure may include content (410) as a three-dimensional (3D) object. In the above-described example, the wearable device (101) can express depth according to the position of a virtual object within the virtual environment through at least one display including a lens having a fixed focal length or a lens having a variable focal length.

도 4a 및 도 4b를 참조하면, 웨어러블 장치(101)를 통해 상기 가상 환경을 이용하는 동안, 웨어러블 장치(101)는 상기 가상 환경 내의 지정된 위치 상에 지정된 사이즈(size)를 갖는 콘텐트(410)를 표시할 수 있다. 예를 들어, 웨어러블 장치(101)는, 상기 가상 환경의 제1 영역(area) 내의 제1 사이즈(420)를 갖는 콘텐트(410)를 표시할 수 있다. 예를 들어, 상기 제1 영역(또는 상기 가상 환경의 제1 깊이(depth))은, 상기 초점 거리가 제1 거리(430)인 상기 가상 환경 내의 위치를 나타낼 수 있다. 웨어러블 장치(101)는, 상기 제1 영역 내의 제1 사이즈(420)를 갖는 콘텐트(410)를, 적어도 하나의 디스플레이(250)를 통해 표시할 수 있다. 예를 들어, 상기 제1 영역 내의 제1 사이즈(420)를 갖는 콘텐트(410)를 표시하기 위해, 웨어러블 장치(101)는, 제1 디스플레이(250-1)의 표시 영역(active area)의 적어도 일부를 통해, 제1 이미지(image)(440-1)를 표시할 수 있다. 또한, 예를 들어, 상기 제1 영역 내의 제1 사이즈(420)를 갖는 콘텐트(410)를 표시하기 위해, 웨어러블 장치(101)는, 제2 디스플레이(250-2)의 표시 영역의 적어도 일부를 통해, 제2 이미지(440-2)를 표시할 수 있다. 상기 제1 영역 내의 제1 사이즈(420)를 갖는 콘텐트(410)를 표시하기 위해, 제1 이미지(440-1) 및 제2 이미지(440-2) 각각이 상기 표시 영역 중에서 차지하는 영역의 면적은 실질적으로 동일할 수 있다. 그러나, 제1 이미지(440-1) 및 제2 이미지(440-2) 각각의 상기 표시 영역 내의 위치는 서로 상이할 수 있다. 이와 관련된 구체적인 내용은 이하 도 7에서 서술된다.Referring to FIGS. 4A and 4B, while using the virtual environment through the wearable device (101), the wearable device (101) may display content (410) having a specified size on a specified location within the virtual environment. For example, the wearable device (101) may display content (410) having a first size (420) within a first area of the virtual environment. For example, the first area (or the first depth of the virtual environment) may indicate a location within the virtual environment where the focal length is a first distance (430). The wearable device (101) may display content (410) having a first size (420) within the first area through at least one display (250). For example, in order to display content (410) having a first size (420) within the first area, the wearable device (101) may display a first image (440-1) through at least a portion of an active area of the first display (250-1). In addition, for example, in order to display content (410) having a first size (420) within the first area, the wearable device (101) may display a second image (440-2) through at least a portion of an active area of the second display (250-2). In order to display content (410) having a first size (420) within the first area, the areas occupied by each of the first image (440-1) and the second image (440-2) within the active area may be substantially the same. However, the positions within the display areas of the first image (440-1) and the second image (440-2) may be different from each other. Specific details related to this are described in FIG. 7 below.

도 4a를 참조하면, 웨어러블 장치(103)는, 상기 제1 영역과 상이한 제2 영역 내의 제1 사이즈(420)를 갖는 콘텐트(410)를, 적어도 하나의 디스플레이(250)를 통해 표시할 수 있다. 예를 들어, 상기 제2 영역(또는 상기 가상 환경의 제2 깊이))은, 상기 초점 거리가 제2 거리(435)인 상기 가상 환경 내의 위치를 나타낼 수 있다. 웨어러블 장치(101)는, 상기 제2 영역 내의 제1 사이즈(420)를 갖는 콘텐트(410)를, 적어도 하나의 디스플레이(250)를 통해 표시할 수 있다. 예를 들어, 상기 제2 영역 내의 제1 사이즈(420)를 갖는 콘텐트(410)를 표시하기 위해, 웨어러블 장치(101)는, 제1 디스플레이(250-1)의 표시 영역(active area)의 적어도 일부를 통해, 이미지(445-1)를 표시할 수 있다. 또한, 예를 들어, 상기 제2 영역 내의 제1 사이즈(420)를 갖는 콘텐트(410)를 표시하기 위해, 웨어러블 장치(101)는, 제2 디스플레이(250-2)의 표시 영역의 적어도 일부를 통해, 이미지(445-2)를 표시할 수 있다. 제1 거리(430)로부터 제2 거리(435)로 변경됨에 따라, 표시 영역에서 이미지(445-1 또는 445-2)가 차지하는 사이즈는 변경될 수 있다. 예를 들어, 이미지(445-1)의 표시 사이즈는 제1 이미지(440-1)의 표시 사이즈보다 작을 수 있다. 또는, 예를 들어, 이미지(445-2)의 표시 사이즈는 제2 이미지(440-2)의 표시 사이즈 보다 작을 수 있다. 이는, 거리(430)로부터 깊이가 더 깊은 제2 거리(435)로 변경됨에 따라, 원근감을 나타내기 위하여, 웨어러블 장치(101)는, 상기 표시 영역에서 이미지(445-1 또는 445-2)가 차지하는 사이즈를 변경할 수 있다. Referring to FIG. 4A, the wearable device (103) can display content (410) having a first size (420) in a second area different from the first area through at least one display (250). For example, the second area (or the second depth of the virtual environment) can indicate a location in the virtual environment where the focal length is the second distance (435). The wearable device (101) can display content (410) having a first size (420) in the second area through at least one display (250). For example, in order to display the content (410) having the first size (420) in the second area, the wearable device (101) can display an image (445-1) through at least a portion of an active area of the first display (250-1). In addition, for example, in order to display content (410) having a first size (420) within the second area, the wearable device (101) may display an image (445-2) through at least a part of the display area of the second display (250-2). As the first distance (430) changes to the second distance (435), the size occupied by the image (445-1 or 445-2) in the display area may change. For example, the display size of the image (445-1) may be smaller than the display size of the first image (440-1). Or, for example, the display size of the image (445-2) may be smaller than the display size of the second image (440-2). This means that, in order to represent perspective, the wearable device (101) can change the size occupied by the image (445-1 or 445-2) in the display area as the depth changes from the distance (430) to the second distance (435) that is deeper.

이와 달리, 이하 도 4b에서는, 본 개시의 실시예들에 따라 사용자(400)의 시력 보호를 위하여, 콘텐트(410)를 표시하는 시간에 따라 콘텐트(410)가 표시되는 영역(또는 깊이)을 변경하고, 변경되는 영역(또는 깊이)에 따라 콘텐트(410)의 상기 가상 환경 내 사이즈를 변경하는 예가 도시된다. 이 때, 상기 가상 환경 내 사이즈를 변경하더라도, 콘텐트(410)를 적어도 하나의 디스플레이(250) 상에서 표시하기 위한 이미지의 사이즈는 실질적으로 동일하게 유지될 수 있다.In contrast, in FIG. 4b below, in order to protect the eyesight of a user (400) according to embodiments of the present disclosure, an example is illustrated in which an area (or depth) in which content (410) is displayed is changed according to the time at which content (410) is displayed, and a size of content (410) within the virtual environment is changed according to the changed area (or depth). In this case, even if the size within the virtual environment is changed, the size of an image for displaying content (410) on at least one display (250) can be substantially maintained the same.

도 4b를 참조하면, 사용자(400)가 웨어러블 장치(101)를 통해 콘텐트(410)를 시청하는 동안, 웨어러블 장치(101)는 콘텐트(410)의 사이즈 및 위치를 변경할 수 있다. 예를 들어, 웨어러블 장치(101)는, 콘텐트(410)에 대한 상기 가상 환경 내의 위치를, 상기 제1 영역으로부터 제2 영역으로 변경할 수 있다. 예를 들어, 상기 제2 영역은, 상기 초점 거리가 제2 거리(460)인 상기 가상 환경 내의 위치를 나타낼 수 있다. 제2 거리(460)는, 제1 거리(430) 보다 먼 거리를 나타낼 수 있다. 또한, 웨어러블 장치(101)는, 콘텐트(410)의 상기 사이즈를, 제1 사이즈(420)로부터 제2 사이즈(450)로 확대할 수 있다. 다시 말해서, 웨어러블 장치(101)는, 변경된 초점 거리의 콘텐트(410)를 표시함에 있어서, 변경된 사이즈를 갖는 콘텐트(410)를 표시할 수 있다. 이 때, 웨어러블 장치(101)는, 상기 제2 영역 내의 제2 사이즈(450)를 갖는 콘텐트(410)를, 적어도 하나의 디스플레이(250)를 통해 표시할 수 있다. 예를 들어, 상기 제2 영역 내의 제2 사이즈(450)를 갖는 콘텐트(410)를 표시하기 위해, 웨어러블 장치(101)는, 제1 디스플레이(250-1)의 표시 영역(active area)의 적어도 일부를 통해, 제3 이미지(image)(470-1)를 표시할 수 있다. 또한, 예를 들어, 상기 제2 영역 내의 제2 사이즈(450)를 갖는 콘텐트(410)를 표시하기 위해, 웨어러블 장치(101)는, 제2 디스플레이(250-2)의 표시 영역의 적어도 일부를 통해, 제4 이미지(470-2)를 표시할 수 있다. 상기 제2 영역 내의 제2 사이즈(450)를 갖는 콘텐트(410)를 표시하기 위해, 제3 이미지(470-1) 및 제4 이미지(470-2) 각각이 상기 표시 영역 중에서 차지하는 영역의 면적은 실질적으로 동일할 수 있다. 그러나, 제3 이미지(470-1) 및 제4 이미지(470-2) 각각의 상기 표시 영역 내의 위치는 서로 상이할 수 있다. 이 때, 제1 디스플레이(250-1)의 제1 이미지(440-1)와 제2 디스플레이(250-2)의 제2 이미지(440-2) 사이의 차이는, 제1 디스플레이(250-1)의 제3 이미지(470-1)와 제2 디스플레이(250-2)의 제4 이미지(470-2) 사이의 차이 보다 클 수 있다. 예를 들어, 상기 차이는, 이미지들(예: 제1 이미지(440-1) 및 제2 이미지(440-2) 또는, 제3 이미지(470-1) 및 제4 이미지(470-2)) 각각의 지정된 위치의 좌표(coordinate) 사이의 차이를 나타낼 수 있다. 이와 관련된 구체적인 내용은 이하 도 7에서 서술된다.Referring to FIG. 4B, while the user (400) views the content (410) through the wearable device (101), the wearable device (101) may change the size and location of the content (410). For example, the wearable device (101) may change the location of the content (410) within the virtual environment from the first area to the second area. For example, the second area may represent a location within the virtual environment where the focal distance is the second distance (460). The second distance (460) may represent a distance that is longer than the first distance (430). In addition, the wearable device (101) may enlarge the size of the content (410) from the first size (420) to the second size (450). In other words, the wearable device (101) can display content (410) having a changed size when displaying content (410) of a changed focal length. At this time, the wearable device (101) can display content (410) having a second size (450) within the second area through at least one display (250). For example, in order to display content (410) having a second size (450) within the second area, the wearable device (101) can display a third image (470-1) through at least a part of the active area of the first display (250-1). In addition, for example, in order to display content (410) having a second size (450) within the second area, the wearable device (101) may display a fourth image (470-2) through at least a portion of the display area of the second display (250-2). In order to display content (410) having a second size (450) within the second area, the areas occupied by each of the third image (470-1) and the fourth image (470-2) within the display area may be substantially the same. However, the positions of each of the third image (470-1) and the fourth image (470-2) within the display area may be different from each other. At this time, the difference between the first image (440-1) of the first display (250-1) and the second image (440-2) of the second display (250-2) may be greater than the difference between the third image (470-1) of the first display (250-1) and the fourth image (470-2) of the second display (250-2). For example, the difference may represent a difference between coordinates of designated positions of each of the images (e.g., the first image (440-1) and the second image (440-2) or the third image (470-1) and the fourth image (470-2)). Specific details related thereto are described below in FIG. 7.

도 4b를 참조하면, 웨어러블 장치(101)는, 상기 초점 거리를 변경하기 위하여, 콘텐트(410)를 표시하는 위치 및 사이즈를 변경할 수 있다. 예를 들어, 웨어러블 장치(101)는, 지정된 범위 내에서 상기 초점 거리를 변경하기 위하여, 콘텐트(410)를 표시하는 위치 및 사이즈를 변경할 수 있다. 예를 들어, 상기 지정된 범위는, 사용자(400)의 초점 거리를 조정하는 능력 정보(capability information)에 기반하여 식별될 수 있다. 예를 들어, 상기 능력 정보는, 사용자(400)의 초점 거리에 대한 최소 거리(minimum length) 및 최대 거리(maximum length), 또는 사용자(400)가 선호하는(preferred) 초점 거리 중 적어도 하나를 포함할 수 있다. 상기 최대 거리는, 사용자(400)의 초점 거리에 대한 한계 거리로 참조될 수도 있다. 예를 들어, 상기 지정된 범위의 최소 거리가 제1 거리(430)고, 최대 거리가 제2 거리(460)인 경우, 웨어러블 장치(101)는 제1 사이즈(420) 내지 제2 사이즈(450) 사이의 사이즈를 갖는 콘텐트(410)를 표시할 수 있다. 이 때, 제1 사이즈(420) 내지 제2 사이즈(450) 사이의 사이즈를 갖는 콘텐트(410)는, 상기 제1 영역과 상기 제2 영역 사이의 상기 가상 환경 내의 위치에 표시될 수 있다. 예를 들어, 콘텐트(410)의 상기 사이즈는, 상기 가상 환경 내의 위치에 기반하여 식별될 수 있다. 예를 들어, 상기 사이즈는, 상기 가상 환경 내에서 사용자(400)에 대응하는 기준 위치로부터 콘텐트(410)의 상기 가상 환경 내의 위치까지의 거리에 선형적으로 비례할 수 있다. 예를 들어, 상기 거리는, 상기 초점 거리와 실질적으로 대응할 수 있다. 도 4b의 예에서, 초점 거리를 제1 거리(430)로부터 제2 거리(460)로 점진적으로(gradually) 멀어지도록 변경하는 경우, 웨어러블 장치(101)는 콘텐트(410)의 상기 사이즈를 제1 사이즈(420)로부터 제2 사이즈(450)로 점진적으로 확대할 수 있다. 이와 반대로, 초점 거리를 제2 거리(460)로부터 제1 거리(430)로 점진적으로 가까워지도록 변경하는 경우, 웨어러블 장치(101)는, 콘텐트(410)의 상기 사이즈를 제2 사이즈(450)로부터 제1 사이즈(420)로 점진적으로 축소할 수 있다. 상술한 바를 참조하면, 웨어러블 장치(101)는, 사용자(400)의 초점 거리가 고정되는 것을 예방하기 위하여, 콘텐트(410)가 표시되는 위치 및 사이즈를 확대 및 축소할 수 있다. Referring to FIG. 4B, the wearable device (101) can change the position and size of displaying the content (410) in order to change the focal length. For example, the wearable device (101) can change the position and size of displaying the content (410) in order to change the focal length within a specified range. For example, the specified range can be identified based on capability information of adjusting the focal length of the user (400). For example, the capability information can include at least one of a minimum length and a maximum length for the focal length of the user (400), or a preferred focal length of the user (400). The maximum length can also be referred to as a limit distance for the focal length of the user (400). For example, when the minimum distance of the specified range is the first distance (430) and the maximum distance is the second distance (460), the wearable device (101) can display content (410) having a size between the first size (420) and the second size (450). At this time, the content (410) having a size between the first size (420) and the second size (450) can be displayed at a location within the virtual environment between the first area and the second area. For example, the size of the content (410) can be identified based on the location within the virtual environment. For example, the size can be linearly proportional to the distance from a reference location corresponding to the user (400) within the virtual environment to the location of the content (410) within the virtual environment. For example, the distance can substantially correspond to the focal length. In the example of FIG. 4B, when the focal length is gradually changed from the first distance (430) to the second distance (460), the wearable device (101) can gradually enlarge the size of the content (410) from the first size (420) to the second size (450). Conversely, when the focal length is gradually changed from the second distance (460) to the first distance (430), the wearable device (101) can gradually reduce the size of the content (410) from the second size (450) to the first size (420). As described above, the wearable device (101) can enlarge and reduce the location and size at which the content (410) is displayed in order to prevent the focal length of the user (400) from being fixed.

상술한 바와 같이, 콘텐트(410)가 표시되는 위치 및 사이즈를 변경하는 동안, 사용자(400)가 인식하는(recognize) 콘텐트(410)는 실질적으로 동일하게 유지될 수 있다. 예를 들어, 상기 제1 영역 내의 제1 사이즈(420)를 갖는 콘텐트(410)를 나타내는 제1 이미지(440-1) 및 제2 이미지(440-2) 각각이 차지하는 표시 영역(또는 디스플레이) 내의 범위는 상기 제2 영역 내의 제2 사이즈(450)를 갖는 콘텐트(410)를 나타내는 제3 이미지(470-1) 및 제4 이미지(470-2) 각각이 차지하는 표시 영역(또는 디스플레이) 내의 범위와 실질적으로 동일할 수 있다. 이에 따라, 콘텐트(410)의 위치 및 사이즈가 상기 지정된 범위 내에서 변경되는 동안, 사용자(400)는, 콘텐트(410)를 시청하기 위한 상기 초점 거리의 변경을 인식하지 못할 수 있다. 다시 말해서, 사용자(400)는, 시청하는 콘텐트(410)의 위치나 사이즈가 변경되지 않고 유지되는 것으로 인식할 수 있다. As described above, while the location and size of the content (410) being displayed are changed, the content (410) recognized by the user (400) may remain substantially the same. For example, the range within the display area (or display) occupied by each of the first image (440-1) and the second image (440-2) representing the content (410) having the first size (420) within the first area may be substantially the same as the range within the display area (or display) occupied by each of the third image (470-1) and the fourth image (470-2) representing the content (410) having the second size (450) within the second area. Accordingly, while the location and size of the content (410) are changed within the specified range, the user (400) may not recognize the change in the focal distance for viewing the content (410). In other words, the user (400) can perceive that the position or size of the content (410) being viewed is maintained without change.

도 4b에서는, 설명의 편의를 위하여, 양안 시차(binocular parallax)(예: 제1 디스플레이(250-1)의 제1 이미지(440-1) 또는 제3 이미지(470-1) 및 제2 디스플레이(250-2)의 제2 이미지(440-2) 또는 제4 이미지(470-2))를 이용하여 상이한 깊이(depth)를 갖는 콘텐트(410)를 표현하는 웨어러블 장치(101)를 예시하나, 본 개시의 실시예가 이에 제한되는 것은 아니다. 예를 들어, 가변 초점 렌즈를 포함하는 웨어러블 장치(101)는, 양안 시차를 이용하지 않더라도 상이한 깊이(또는 초점 거리)를 갖는 콘텐트(410)를 표시할 수도 있다. 가변 초점 렌즈를 포함하는 웨어러블 장치(101)의 경우, 하나의 디스플레이를 통해 콘텐트(410)가 표시되더라도, 상이한 깊이를 갖는 콘텐트(410)가 표현될 수 있다. In FIG. 4B, for convenience of explanation, a wearable device (101) that expresses content (410) having different depths by using binocular parallax (e.g., a first image (440-1) or a third image (470-1) of a first display (250-1) and a second image (440-2) or a fourth image (470-2) of a second display (250-2)) is exemplified, but the embodiments of the present disclosure are not limited thereto. For example, a wearable device (101) including a variable focus lens may display content (410) having different depths (or focal lengths) even without using binocular parallax. In the case of a wearable device (101) including a variable focus lens, even if the content (410) is displayed through one display, the content (410) having different depths may be expressed.

상술한 바를 참조하면, 본 개시의 실시예에 따른 장치 및 방법은, 사용자(400)의 콘텐트(410)를 이용하는 시청 경험은 유지하면서, 가변적인 초점 거리를 이용하여 콘텐트(410)를 표시할 수 있다. 이에 따라, 본 개시의 실시예에 따른 장치 및 방법은, 사용자(400)가 콘텐트(410)를 시청함에 있어서, 초점 거리를 조정하는 능력이 악화되는 것을 예방할 수 있다. 또한, 본 개시의 실시예에 따른 장치 및 방법은, 초점 거리가 변경되더라도 실질적으로 동일한 콘텐트를 시청하는 것과 같은 사용자 경험을 제공할 수 있다. 또한, 본 개시의 실시예에 따른 장치 및 방법은, 추가적인 리소스(resource)의 소모 없이, 사용자(400)의 시력 보호를 위한 훈련(training)을 수행할 수 있다. 상기 훈련과 관련된 구체적인 내용은, 이하 도 8에서 서술된다.As described above, the device and method according to the embodiment of the present disclosure can display the content (410) using a variable focal length while maintaining the viewing experience of the user (400) using the content (410). Accordingly, the device and method according to the embodiment of the present disclosure can prevent the user's (400) ability to adjust the focal length from deteriorating when viewing the content (410). In addition, the device and method according to the embodiment of the present disclosure can provide a user experience similar to viewing substantially the same content even when the focal length is changed. In addition, the device and method according to the embodiment of the present disclosure can perform training for protecting the eyesight of the user (400) without consuming additional resources. Specific details related to the training are described in FIG. 8 below.

도 5는 웨어러블 장치의 예시적인 블록도를 도시한다.Figure 5 illustrates an exemplary block diagram of a wearable device.

도 5의 웨어러블 장치(101)는, 도 1의 전자 장치(101), 도 2a 내지 도 3b의 웨어러블 장치(101)의 일 예일 수 있다. The wearable device (101) of FIG. 5 may be an example of the electronic device (101) of FIG. 1 and the wearable device (101) of FIGS. 2A to 3B.

도 5를 참고하면, 일 실시예에 따른, 웨어러블 장치(101)는 프로세서(120), 메모리(130), 카메라(510), 또는 디스플레이(520) 중 적어도 하나를 포함할 수 있다. 프로세서(120), 메모리(130), 카메라(510), 및 디스플레이(520)는 통신 버스(a communication bus)에 의해 서로 전기적으로 및/또는 작동적으로 연결될 수 있다(electronically and/or operably coupled with each other). 이하에서, 하드웨어 컴포넌트들이 작동적으로 결합된 것은, 하드웨어 컴포넌트들 중 제1 하드웨어 컴포넌트에 의해 제2 하드웨어 컴포넌트가 제어되도록, 하드웨어 컴포넌트들 사이의 직접적인 연결, 또는 간접적인 연결이 유선으로, 또는 무선으로 수립된 것을 의미할 수 있다. 상이한 블록들에 기반하여 도시되었으나, 실시예가 이에 제한되는 것은 아니며, 도 5에 도시된 하드웨어 컴포넌트 중 일부분(예, 프로세서(120) 및 메모리(130)의 적어도 일부분)이 SoC(system on a chip)와 같은 단일 집적 회로(single integrated circuit)에 포함될 수 있다. 웨어러블 장치(101)에 포함된 하드웨어 컴포넌트의 타입 및/또는 개수는 도 5에 도시된 바에 제한되지 않는다. 예를 들어, 웨어러블 장치(101)는 도 5에 도시된 하드웨어 컴포넌트 중 일부만 포함할 수 있다. Referring to FIG. 5, according to one embodiment, a wearable device (101) may include at least one of a processor (120), a memory (130), a camera (510), and a display (520). The processor (120), the memory (130), the camera (510), and the display (520) may be electrically and/or operably coupled with each other by a communication bus. Hereinafter, the hardware components being operably coupled may mean that a direct connection or an indirect connection is established between the hardware components, either wired or wireless, such that a second hardware component is controlled by a first hardware component among the hardware components. Although illustrated based on different blocks, the embodiment is not limited thereto, and some of the hardware components illustrated in FIG. 5 (e.g., at least a portion of the processor (120) and the memory (130)) may be included in a single integrated circuit such as a system on a chip (SoC). The type and/or number of hardware components included in the wearable device (101) are not limited to those illustrated in FIG. 5. For example, the wearable device (101) may include only some of the hardware components illustrated in FIG. 5.

예를 들어, 웨어러블 장치(101)는 외부 전자 장치(미도시)와 유선 네트워크, 및/또는 무선 네트워크에 기반하여 서로 연결될 수 있다. 예를 들어, 상기 유선 네트워크는, 인터넷, LAN(local area network), WAN(wide area network), 또는 이들의 조합과 같은 네트워크를 포함할 수 있다. 예를 들어, 상기 무선 네트워크는, LTE(long term evolution), 5g NR(new radio), WiFi(wireless fidelity), Zigbee, NFC(near field communication), Bluetooth, BLE(Bluetooth low-energy), 또는 이들의 조합과 같은 네트워크를 포함할 수 있다. 웨어러블 장치(101)는 상기 외부 전자 장치가 직접적으로 연결될(directly connected) 수도 있고, 하나 이상의 라우터 및/또는 AP(access point)를 통해 간접적으로 연결될 수도 있다. For example, the wearable device (101) may be connected to an external electronic device (not shown) based on a wired network and/or a wireless network. For example, the wired network may include a network such as the Internet, a local area network (LAN), a wide area network (WAN), or a combination thereof. For example, the wireless network may include a network such as long term evolution (LTE), 5g new radio (NR), wireless fidelity (WiFi), Zigbee, near field communication (NFC), Bluetooth, Bluetooth low-energy (BLE), or a combination thereof. The wearable device (101) may be directly connected to the external electronic device, or may be indirectly connected via one or more routers and/or access points (APs).

일 실시예에 따른, 웨어러블 장치(101)의 프로세서(120)는 하나 이상의 인스트럭션들에 기반하여 데이터를 처리하기 위한 하드웨어 컴포넌트를 포함할 수 있다. 데이터를 처리하기 위한 하드웨어 컴포넌트는, 예를 들어, ALU(arithmetic and logic unit), FPU(floating point unit), FPGA(field programmable gate array)를 포함할 수 있다. 일 예로, 데이터를 처리하기 위한 하드웨어 컴포넌트는, CPU(central processing unit), GPU(graphics processing unit), DSP(digital signal processing), 및/또는 NPU(neural processing unit)를 포함할 수 있다. 프로세서(120)의 개수는 하나 이상일 수 있다. 예를 들어, 프로세서(120)는 듀얼 코어(dual core), 쿼드 코어(quad core) 또는 헥사 코어(hexa core)와 같은 멀티-코어 프로세서의 구조를 가질 수 있다. 도 5의 프로세서(120)는, 도 1의 프로세서(120)의 적어도 일부를 포함할 수 있다.According to one embodiment, the processor (120) of the wearable device (101) may include a hardware component for processing data based on one or more instructions. The hardware component for processing data may include, for example, an arithmetic and logic unit (ALU), a floating point unit (FPU), and a field programmable gate array (FPGA). As an example, the hardware component for processing data may include a central processing unit (CPU), a graphics processing unit (GPU), a digital signal processing (DSP), and/or a neural processing unit (NPU). The number of processors (120) may be one or more. For example, the processor (120) may have a multi-core processor structure such as a dual core, a quad core, or a hexa core. The processor (120) of FIG. 5 may include at least a part of the processor (120) of FIG. 1.

일 실시예에 따른, 웨어러블 장치(101)의 메모리(130)는, 프로세서(120)로 입력되거나, 및/또는 프로세서(120)로부터 출력되는 데이터, 및/또는 인스트럭션을 저장하기 위한 하드웨어 컴포넌트를 포함할 수 있다. 메모리(130)는, 예를 들어, RAM(random-access memory)과 같은 휘발성 메모리(volatile memory), 및/또는 ROM(read-only memory)와 같은 비휘발성 메모리(non-volatile memory)를 포함할 수 있다. 상기 휘발성 메모리는, 예를 들어, DRAM(dynamic RAM), SRAM(static RAM), Cache RAM, PSRAM (pseudo SRAM) 중 적어도 하나를 포함할 수 있다. 상기 비휘발성 메모리는, 예를 들어, PROM(programmable ROM), EPROM (erasable PROM), EEPROM (electrically erasable PROM), 플래시 메모리, 하드디스크, 컴팩트 디스크, eMMC(embedded multimedia card) 중 적어도 하나를 포함할 수 있다. 도 5의 메모리(130)는, 도 1의 메모리(130)의 적어도 일부를 포함할 수 있다.According to one embodiment, the memory (130) of the wearable device (101) may include a hardware component for storing data and/or instructions input to and/or output from the processor (120). The memory (130) may include, for example, a volatile memory such as a random-access memory (RAM), and/or a non-volatile memory such as a read-only memory (ROM). The volatile memory may include, for example, at least one of a dynamic RAM (DRAM), a static RAM (SRAM), a Cache RAM, and a pseudo SRAM (PSRAM). The non-volatile memory may include, for example, at least one of a programmable ROM (PROM), an erasable PROM (EPROM), an electrically erasable PROM (EEPROM), a flash memory, a hard disk, a compact disc, and an embedded multimedia card (eMMC). The memory (130) of FIG. 5 may include at least a part of the memory (130) of FIG. 1.

일 실시예에 따른, 웨어러블 장치(101)의 카메라(510)는, 빛의 색상, 및/또는 밝기를 나타내는 전기 신호를 생성하는 광 센서(예, CCD(charged coupled device) 센서, CMOS(complementary metal oxide semiconductor) 센서)를 하나 이상 포함할 수 있다. 카메라(510)에 포함된 복수의 광 센서들은 2차원 격자(2 dimensional array)의 형태로 배치될 수 있다. 카메라(510)는 복수의 광 센서들 각각의 전기 신호를 실질적으로 동시에 획득하여, 2차원 격자의 광 센서들에 도달한 빛에 대응하고, 2차원으로 배열된 복수의 픽셀들을 포함하는 이미지를 생성할 수 있다. 예를 들어, 카메라(510)를 이용하여 캡쳐한 사진 데이터는 카메라(510)로부터 획득한 하나의 이미지를 의미할 수 있다. 예를 들어, 카메라(510)를 이용하여 캡쳐한 비디오 데이터는, 카메라(510)로부터 지정된 프레임율(frame rate)을 따라 획득한 복수의 이미지들의 시퀀스(sequence)를 의미할 수 있다. 일 실시예에 따른 웨어러블 장치(101)는, 카메라(510)가 빛을 수신하는 방향을 향하여 배치되고, 상기 방향으로 빛을 출력하기 위한 플래시 라이트를 더 포함할 수 있다. 웨어러블 장치(101) 내에 포함된 카메라(510)의 수는, 도 2a 및 도 2b, 및/또는 도 3a 및 도 3b를 참고하여 상술한 바와 같이, 하나 이상일 수 있다.According to one embodiment, the camera (510) of the wearable device (101) may include one or more optical sensors (e.g., a charged coupled device (CCD) sensor, a complementary metal oxide semiconductor (CMOS) sensor) that generate an electrical signal representing a color and/or brightness of light. The plurality of optical sensors included in the camera (510) may be arranged in the form of a two-dimensional array. The camera (510) may acquire the electrical signals of each of the plurality of optical sensors substantially simultaneously, and generate an image corresponding to light reaching the optical sensors of the two-dimensional grid and including a plurality of pixels arranged in a two-dimensional manner. For example, photographic data captured using the camera (510) may mean one image acquired from the camera (510). For example, video data captured using the camera (510) may mean a sequence of a plurality of images acquired from the camera (510) according to a specified frame rate. A wearable device (101) according to one embodiment may further include a camera (510) positioned toward a direction in which the camera receives light and a flash light for outputting light in the direction. The number of cameras (510) included in the wearable device (101) may be one or more, as described above with reference to FIGS. 2A and 2B, and/or FIGS. 3A and 3B.

일 실시예에 따른, 웨어러블 장치(101)의 디스플레이(520)는 사용자에게 시각화 된 정보(예를 들어, 도 4b의 이미지들, 도 7의 이미지들)를 출력할 수 있다. 웨어러블 장치(101) 내에 포함된 디스플레이(520)의 개수는 하나 이상일 수 있다. 예를 들어, 디스플레이(520)는, 프로세서(120), 및/또는 GPU(graphic processing unit)(미도시)에 의해 제어되어, 사용자에게 시각화 된 정보(visualized information)를 출력할 수 있다. 디스플레이(520)는 FPD(flat panel display), 및/또는 전자 종이(electronic paper)를 포함할 수 있다. 상기 FPD는 LCD(liquid crystal display), PDP(plasma display panel), 디지털 미러 디바이스(digital mirror device, DMD), 하나 이상의 LED들(light emitting diodes), 및/또는 마이크로 LED를 포함할 수 있다. 상기 LED는 OLED(organic LED)를 포함할 수 있다. 도 5의 디스플레이(520)는, 도 1의 디스플레이 모듈(160)의 적어도 일부를 포함할 수 있다. 도 5의 디스플레이(520)는, 도 2a 적어도 하나의 디스플레이(250)의 예를 나타낼 수 있다. According to one embodiment, the display (520) of the wearable device (101) can output visualized information (e.g., images of FIG. 4b, images of FIG. 7) to the user. The number of displays (520) included in the wearable device (101) may be one or more. For example, the display (520) may be controlled by the processor (120) and/or a graphic processing unit (GPU) (not shown) to output visualized information to the user. The display (520) may include a flat panel display (FPD) and/or electronic paper. The FPD may include a liquid crystal display (LCD), a plasma display panel (PDP), a digital mirror device (DMD), one or more light emitting diodes (LEDs), and/or micro LEDs. The LEDs may include organic LEDs (OLEDs). The display (520) of FIG. 5 may include at least a portion of the display module (160) of FIG. 1. The display (520) of FIG. 5 may represent an example of at least one display (250) of FIG. 2a.

일 실시예에서, 디스플레이(520)의 적어도 일부분에서, 빛의 투과가 발생될 수 있다. 웨어러블 장치(101)는 사용자에게, 디스플레이(520)를 통해 출력하는 빛과, 디스플레이(520)를 투과하는 빛의 결합을 제공하여, 증강 현실과 관련된 사용자 경험을 제공할 수 있다. 도 2a 및 도 2b, 및/또는 도 3a 및 도 3b를 참고할 때, 일 실시예에 따른, 웨어러블 장치(101)의 디스플레이(520)는, 머리와 같은 사용자의 신체 부위에 착용된 상태 내에서, 사용자의 FoV(field-of-view) 전체를 덮거나, 또는 상기 FoV를 향하여 빛을 방사하기 위한 구조를 가질 수 있다. 비록, 도시되지 않았지만, 웨어러블 장치(101)는 정보를 시각적인 형태, 청각적인 형태 외에 다른 형태로 출력하기 위한 다른 출력 수단을 포함할 수 있다. 예를 들어, 웨어러블 장치(101)는 오디오 신호를 출력하기 위한 적어도 하나의 스피커, 및/또는 진동에 기반하는 햅틱 피드백을 제공하기 위한 모터(또는, 엑추에이터)를 포함할 수 있다. In one embodiment, light transmission may occur through at least a portion of the display (520). The wearable device (101) may provide a user experience related to augmented reality by providing a combination of light output through the display (520) and light transmitting through the display (520) to the user. Referring to FIGS. 2A and 2B and/or 3A and 3B , the display (520) of the wearable device (101) according to one embodiment may have a structure for covering the entire field-of-view (FoV) of the user, or radiating light toward the FoV, while being worn on a body part of the user, such as the head. Although not shown, the wearable device (101) may include other output means for outputting information in forms other than visual or auditory forms. For example, the wearable device (101) may include at least one speaker for outputting an audio signal, and/or a motor (or actuator) for providing haptic feedback based on vibration.

일 실시예에 따른, 웨어러블 장치(101)의 통신 회로(미도시)는, 웨어러블 장치(101), 및 외부 전자 장치 사이의 전기 신호의 송신, 및/또는 수신을 지원하기 위한 하드웨어를 포함할 수 있다. 상기 통신 회로는, 예를 들어, 모뎀(MODEM), 안테나, O/E(optic/electronic) 변환기 중 적어도 하나를 포함할 수 있다. 상기 통신 회로는, 이더넷(ethernet), Bluetooth, BLE(Bluetooth low energy), ZigBee, LTE(long term evolution), 5G NR(new radio)와 같은 다양한 타입의 통신 수단에 기반하여, 전기 신호의 송신, 및/또는 수신을 지원할 수 있다. 도 5의 상기 통신 회로는, 도 1의 통신 모듈(190), 및/또는 안테나 모듈(197)의 적어도 일부를 포함할 수 있다. According to one embodiment, a communication circuit (not shown) of a wearable device (101) may include hardware for supporting transmission and/or reception of an electrical signal between the wearable device (101) and an external electronic device. The communication circuit may include, for example, at least one of a modem, an antenna, and an O/E (optical/electronic) converter. The communication circuit may support transmission and/or reception of an electrical signal based on various types of communication means, such as Ethernet, Bluetooth, BLE (Bluetooth low energy), ZigBee, LTE (long term evolution), and 5G NR (new radio). The communication circuit of FIG. 5 may include at least a part of the communication module (190) and/or the antenna module (197) of FIG. 1.

비록 도시되지 않았지만, 일 실시예에 따른, 웨어러블 장치(101)는 정보를 시각화한 형태 외에 다른 형태로 출력하기 위한 출력 수단을 포함할 수 있다. 예를 들어, 웨어러블 장치(101)는 음성 신호(acoustic signal)를 출력하기 위한 스피커를 포함할 수 있다. 예를 들어, 웨어러블 장치(101)는 진동에 기반하는 햅틱 피드백을 제공하기 위한 모터를 포함할 수 있다.Although not shown, the wearable device (101) according to one embodiment may include output means for outputting information in a form other than a visualized form. For example, the wearable device (101) may include a speaker for outputting an acoustic signal. For example, the wearable device (101) may include a motor for providing haptic feedback based on vibration.

도 5를 참조하면, 일 실시예를 따른, 웨어러블 장치(101)의 메모리(130) 내에서, 웨어러블 장치(101)의 프로세서(120)가 데이터에 수행할 연산, 및/또는 동작을 나타내는 하나 이상의 인스트럭션들(또는 명령어들)이 저장될 수 있다. 하나 이상의 인스트럭션들의 집합은, 프로그램, 펌웨어, 운영 체제, 프로세스, 루틴, 서브-루틴 및/또는 어플리케이션으로 참조될 수 있다. 이하에서, 어플리케이션이 전자 장치(예, 웨어러블 장치(101)) 내에 설치되었다는 것은, 어플리케이션의 형태로 제공된 하나 이상의 인스트럭션들이 메모리(130) 내에 저장된 것으로써, 상기 하나 이상의 어플리케이션들이 전자 장치의 프로세서에 의해 실행 가능한(executable) 포맷(예, 웨어러블 장치(101)의 운영 체제에 의해 지정된 확장자를 가지는 파일)으로 저장된 것을 의미할 수 있다. 일 실시예에 따른, 웨어러블 장치(101)는 메모리(130)에 저장된 하나 이상의 인스트럭션들을 실행하여, 도 6, 도 8, 도 9, 및 도 10의 동작을 수행할 수 있다.Referring to FIG. 5, according to an embodiment, one or more instructions (or commands) representing operations and/or actions to be performed on data by a processor (120) of the wearable device (101) may be stored in the memory (130) of the wearable device (101). A set of one or more instructions may be referred to as a program, firmware, an operating system, a process, a routine, a sub-routine, and/or an application. Hereinafter, when an application is installed in an electronic device (e.g., the wearable device (101)), it may mean that one or more instructions provided in the form of an application are stored in the memory (130), and that the one or more applications are stored in a format executable by the processor of the electronic device (e.g., a file having an extension specified by the operating system of the wearable device (101)). According to one embodiment, the wearable device (101) may perform the operations of FIGS. 6, 8, 9, and 10 by executing one or more instructions stored in the memory (130).

도 5를 참조하면, 메모리(130) 내에 포함된 하나 이상의 인스트럭션들은, 콘텐츠 출력부(contents outputting portion)(531), 시력 보호 출력부(sight protection portion)(533), 및/또는 초점 거리 훈련부(focal length training portion)(535)로 구분될 수 있다. 예를 들어, 콘텐츠 출력부(531), 시력 보호 출력부(533), 및 초점 거리 훈련부(535) 각각은, 프로그램 또는 소프트웨어(software)로 구현될 수 있다. Referring to FIG. 5, one or more instructions included in the memory (130) may be divided into a contents outputting portion (531), a sight protection portion (533), and/or a focal length training portion (535). For example, each of the contents outputting portion (531), the sight protection outputting portion (533), and the focal length training portion (535) may be implemented as a program or software.

예를 들어, 웨어러블 장치(101)는 콘텐츠 출력부(531)를 이용하여, 상기 가상 환경 내에서 적어도 하나의 콘텐트(content)를 표시할 수 있다. 예를 들어, 웨어러블 장치(101)는, 콘텐츠 출력부(531)를 이용하여, 상기 가상 환경 내의 콘텐츠(contents)에 대한 렌더링(rendering) 정보에 기반하여, 상기 콘텐츠를 렌더링할 수 있다. 예를 들어, 상기 렌더링 정보는, 상기 콘텐츠를 위한 z 인덱스(z-index), 밝기, 투명도, 픽셀, 색상 중 적어도 하나를 포함할 수 있다. 웨어러블 장치(101)는, 콘텐츠 출력부(531)를 이용하여 상기 콘텐츠가 렌더링된 이미지를, 디스플레이(520)를 통해 표시할 수 있다.For example, the wearable device (101) can display at least one content within the virtual environment using the content output unit (531). For example, the wearable device (101) can render the content based on rendering information for the content within the virtual environment using the content output unit (531). For example, the rendering information can include at least one of a z-index, brightness, transparency, pixel, and color for the content. The wearable device (101) can display an image in which the content is rendered using the content output unit (531) through the display (520).

예를 들어, 웨어러블 장치(101)는 시력 보호 출력부(533)를 이용하여, 상기 가상 환경 내에서 상기 콘텐츠의 위치 및 사이즈를 변경할 수 있다. 예를 들어, 웨어러블 장치(101)는, 시력 보호 출력부(533)를 이용하여, 사용자(예: 도 4a 및 도 4b의 사용자(400))의 초점 거리를 조정(adjust)할 수 있다. 예를 들어, 상기 초점 거리를 조정하기 위하여, 웨어러블 장치(101)는, 상기 콘텐츠의 위치 및 사이즈를 변경할 수 있다. 예를 들어, 상기 콘텐츠의 사이즈는, 상기 콘텐츠의 위치에 기반하여 식별될 수 있다. 예를 들어, 상기 사이즈는, 상기 가상 환경 내의 상기 사용자에 대응하는 기준 위치로부터 상기 콘텐츠의 위치 사이의 차이에 비례할 수 있다. 예를 들어, 상기 기준 위치는, 상기 사용자의 시선(gaze)이 시작하는 상기 가상 환경 내의 가상의 위치를 나타낼 수 있다. 상기 기준 위치와 상기 콘텐츠의 위치 사이의 상기 차이는, 상기 초점 거리에 대응할 수 있다. 다시 말해서, 상기 초점 거리가 멀어짐에 따라, 상기 콘텐츠의 위치는 상기 기준 위치로부터 멀어질 수 있고, 이에 따라 상기 콘텐츠의 사이즈는 확대될 수 있다. 이와 반대로, 상기 초점 거리가 짧아짐에 따라, 상기 콘텐츠의 위치는 상기 기준 위치로부터 가까워 수 있다. 이에 따라 상기 콘텐츠의 사이즈는 축소될 수 있다. 상기 초점 거리가 조정되는 범위는, 상기 사용자가 초점 거리를 조정하는 능력 정보, 또는 상기 콘텐츠의 특성 중 적어도 하나에 기반하여 식별될 수 있다. 예를 들어, 상기 능력 정보는, 상기 사용자의 초점 거리 조정과 관련된 반응 속도, 상기 사용자의 초점 거리에 대한 최소 거리(minimum length) 및 최대 거리(maximum length), 또는 상기 사용자가 선호하는(preferred) 초점 거리 중 적어도 하나를 포함할 수 있다. 예를 들어, 상기 콘텐츠의 특성은, 상기 콘텐츠의 재생 속도(play speed) 또는 상기 콘텐츠의 타입(type) 중 적어도 하나를 포함할 수 있다. 상기 콘텐츠의 타입은, 글이나 그림과 같은 정적인(static) 타입 또는 동영상과 같은 동적인(dynamic) 타입을 포함할 수 있다. For example, the wearable device (101) can change the position and size of the content within the virtual environment by using the vision-protecting output unit (533). For example, the wearable device (101) can adjust the focal length of a user (e.g., the user (400) of FIGS. 4A and 4B) by using the vision-protecting output unit (533). For example, in order to adjust the focal length, the wearable device (101) can change the position and size of the content. For example, the size of the content can be identified based on the position of the content. For example, the size can be proportional to the difference between the position of the content and a reference position corresponding to the user within the virtual environment. For example, the reference position can represent a virtual position within the virtual environment where the gaze of the user starts. The difference between the reference position and the position of the content can correspond to the focal length. In other words, as the focal length increases, the position of the content may move away from the reference position, and thus the size of the content may increase. Conversely, as the focal length decreases, the position of the content may move closer to the reference position. Accordingly, the size of the content may decrease. The range in which the focal length is adjusted may be identified based on at least one of the user's ability information for adjusting the focal length, or the characteristics of the content. For example, the ability information may include at least one of the user's response speed related to the user's focal length adjustment, the minimum length and the maximum length for the user's focal length, or the user's preferred focal length. For example, the characteristics of the content may include at least one of the play speed of the content or the type of the content. The type of the content may include a static type such as text or an image, or a dynamic type such as a video.

예를 들어, 웨어러블 장치(101)는, 시력 보호 출력부(533)에 기반하여 상기 콘텐츠의 위치 및 사이즈를 변경하는 동안, 콘텐츠 출력부(531)를 이용하여, 실질적으로 동일한 이미지를 출력할 수 있다. 도 4b를 참조하면, 상기 제1 영역 내에서 제1 사이즈(420)를 갖는 콘텐트(410)를 나타내는 제1 이미지(440-1) 및 제2 이미지(440-2) 각각이 디스플레이(520)의 표시 영역 내에서 차지하는 면적은, 상기 제2 영역 내에서 제2 사이즈(450)를 갖는 콘텐트(410)를 나타내는 제3 이미지(470-1) 및 제4 이미지(470-2) 각각이 디스플레이(520)의 표시 영역 내에서 차지하는 면적과 실질적으로 동일할 수 있다. 다시 말해서, 제1 이미지(440-1) 및 제2 이미지(440-2)를 위한 디스플레이(520)의 해상도는, 3 이미지(470-1) 및 제4 이미지(470-2)를 위한 디스플레이(520)의 해상도와 대응할 수 있다. 이와 관련된 구체적인 내용은 이하 도 7에서 서술된다.For example, the wearable device (101) may output substantially the same image using the content output unit (531) while changing the location and size of the content based on the vision protection output unit (533). Referring to FIG. 4B, the area occupied by each of the first image (440-1) and the second image (440-2) representing the content (410) having the first size (420) within the first region within the display area of the display (520) may be substantially the same as the area occupied by each of the third image (470-1) and the fourth image (470-2) representing the content (410) having the second size (450) within the second region within the display area of the display (520). In other words, the resolution of the display (520) for the first image (440-1) and the second image (440-2) may correspond to the resolution of the display (520) for the third image (470-1) and the fourth image (470-2). Specific details related thereto are described in FIG. 7 below.

예를 들어, 웨어러블 장치(101)는 초점 거리 훈련부(535)를 이용하여, 사용자의 초점 거리에 대한 훈련을 수행할 수 있다. 예를 들어, 웨어러블 장치(101)는, 초점 거리 훈련부(535)를 이용하여, 상기 사용자의 초점 거리에 대한 능력 정보를 식별할 수 있다. 예를 들어, 상기 능력 정보는, 상기 사용자의 아이 캘리브레이션(eye-calibration)을 통해 식별될 수 있다. 예를 들어, 상기 아이 캘리브레이션은, 상기 사용자가 웨어러블 장치(101)를 최초로(initial) 착용한 경우, 또는 상기 사용자에 의한 입력에 기반하여 실행될 수 있다. 예를 들어, 웨어러블 장치(101)는, 초점 거리 훈련부(535)를 이용하여, 식별된 상기 능력 정보에 기반하여, 상기 사용자의 초점 거리에 대한 조정을 수행할 수 있다. 예를 들어, 웨어러블 장치(101)는, 상기 능력 정보에 기반하여, 상기 가상 환경 내의 상기 콘텐츠의 위치 및 사이즈를 변경할 수 있다. 예를 들어, 웨어러블 장치(101)는, 상기 능력 정보에 기반하여, 상기 콘텐츠의 위치 및 사이즈가 변경될 범위를 식별할 수 있다. 예를 들어, 웨어러블 장치(101)는, 상기 초점 거리에 대한 조정에 따라 상기 범위 내에서 상기 콘텐츠의 위치 및 사이즈가 변경되는 동안, 초점 거리 훈련부(535)를 이용하여, 상기 초점 거리 조정의 결과(result)를 식별할 수 있다. 예를 들어, 웨어러블 장치(101)는, 사용자의 실제 초점 거리를 식별할 수 있다. 예를 들어, 웨어러블 장치(101)는, 카메라(510)를 이용하여, 상기 사용자의 시선(gaze)을 추적(track)함으로써, 상기 실제 초점 거리를 식별할 수 있다. 예를 들어, 웨어러블 장치(101)는, 상기 실제 초점 거리와 상기 능력 정보에 기반하여 식별된(또는 계산된) 초점 거리 사이의 차이를 식별할 수 있다. 상기 실제 초점 거리와 상기 식별된 초점 거리 사이의 상기 차이는, 상기 결과에 포함될 수 있다. 웨어러블 장치(101)는, 상기 결과를 메모리(130)에 저장할 수 있다. 예를 들어, 웨어러블 장치(101)는, 상기 저장된 결과에 기반하여, 상기 초점 거리에 대한 조정을 수행함으로써, 상기 사용자에 최적화된 조정을 수행할 수 있다. 또한, 웨어러블 장치(101)는, 상기 능력 정보에 기반하여 식별되는 상기 사용자의 한계 초점 거리를 벗어나는 초점 거리에 대응하도록 상기 콘텐트의 상기 가상 환경 내의 위치를 조정함으로써, 상기 초점 거리의 조정 능력에 대한 훈련을 수행할 수 있다. 상기 한계 초점 거리는, 상기 콘텐츠의 위치 및 사이즈가 변경될 범위에 포함될 수 있다. 상기 한계 초점 거리를 벗어나는 초점 거리는, 훈련 범위로 참조될 수 있다. 예를 들어, 웨어러블 장치(101)는, 시력 보호 출력부(533)를 이용하여, 상기 결과에 기반하여 식별되는 상기 훈련 범위에 대하여, 초점 거리의 조정을 수행할 수 있다. 이와 관련된 구체적인 내용은, 이하 도 8에서 서술된다.For example, the wearable device (101) can perform training for the user's focal length using the focal length training unit (535). For example, the wearable device (101) can identify capability information for the user's focal length using the focal length training unit (535). For example, the capability information can be identified through the user's eye calibration. For example, the eye calibration can be executed when the user initially wears the wearable device (101) or based on an input by the user. For example, the wearable device (101) can perform adjustment for the user's focal length based on the identified capability information using the focal length training unit (535). For example, the wearable device (101) can change the location and size of the content within the virtual environment based on the capability information. For example, the wearable device (101) can identify a range in which the position and size of the content will be changed based on the capability information. For example, the wearable device (101) can identify a result of the focal length adjustment using the focal length training unit (535) while the position and size of the content are changed within the range according to the adjustment of the focal length. For example, the wearable device (101) can identify an actual focal length of the user. For example, the wearable device (101) can identify the actual focal length by tracking the gaze of the user using the camera (510). For example, the wearable device (101) can identify a difference between the actual focal length and a focal length identified (or calculated) based on the capability information. The difference between the actual focal length and the identified focal length can be included in the result. The wearable device (101) may store the result in the memory (130). For example, the wearable device (101) may perform an adjustment optimized for the user by performing an adjustment of the focal length based on the stored result. In addition, the wearable device (101) may perform training of the ability to adjust the focal length by adjusting the position of the content in the virtual environment to correspond to a focal length that is out of the user's limit focal length, which is identified based on the ability information. The limit focal length may be included in a range in which the position and size of the content are to be changed. The focal length that is out of the limit focal length may be referred to as a training range. For example, the wearable device (101) may perform an adjustment of the focal length for the training range that is identified based on the result, using the vision protection output unit (533). Specific details related thereto are described in FIG. 8 below.

도 6은 가상 환경 내에서 초점 거리(focal length)에 따라 콘텐트(content)를 표시하는 방법에 대한 흐름도의 예를 도시한다.Figure 6 illustrates an example flow diagram for a method of displaying content according to focal length within a virtual environment.

도 6의 상기 방법 중 적어도 일부는, 도 5의 웨어러블 장치(101)에 의해 수행될 수 있다. 예를 들어, 상기 방법 중 적어도 일부는, 웨어러블 장치(101)의 프로세서(120)에 의해 제어될 수 있다.At least some of the above methods of FIG. 6 may be performed by the wearable device (101) of FIG. 5. For example, at least some of the above methods may be controlled by the processor (120) of the wearable device (101).

도 6을 참조하면, 동작(600)에서, 웨어러블 장치(101)는, 콘텐트(content)를 표시하기 위한 입력을 획득할 수 있다. 도 6에서는 하나의 객체인 상기 콘텐트를 예로 서술되나, 본 개시의 실시예가 이에 제한되는 것은 아니다. 예를 들어, 웨어러블 장치(101)는 복수의 콘텐츠를 표시하기 위한 입력을 획득할 수도 있다. 일 실시예에 따르면, 웨어러블 장치(101)는, 가상 환경(virtual environment)을 표시할 수 있다. 예를 들어, 웨어러블 장치(101)는, 상기 가상 환경을 제공하기 위한 소프트웨어 어플리케이션의 실행에 응답하여, 상기 가상 환경을 표시할 수 있다. 예를 들어, 상기 소프트웨어 어플리케이션은, 상기 가상 환경을 제공하는 하나의 서비스의 예를 나타낼 수 있다. 예를 들어, 상기 소프트웨어 어플리케이션이 실행된 상태 내에서, 웨어러블 장치(101)는, 상기 콘텐트를 표시하기 위한 입력을 획득할 수 있다. 예를 들어, 상기 입력은, 웨어러블 장치(101)를 착용한 사용자(user)의 사용자 입력을 포함할 수 있다. Referring to FIG. 6, in operation (600), the wearable device (101) may obtain an input for displaying content. In FIG. 6, the content as one object is described as an example, but the embodiment of the present disclosure is not limited thereto. For example, the wearable device (101) may obtain an input for displaying a plurality of contents. According to one embodiment, the wearable device (101) may display a virtual environment. For example, the wearable device (101) may display the virtual environment in response to the execution of a software application for providing the virtual environment. For example, the software application may represent an example of one service for providing the virtual environment. For example, while the software application is running, the wearable device (101) may obtain an input for displaying the content. For example, the input may include a user input of a user wearing a wearable device (101).

동작(605)에서, 웨어러블 장치(101)는 상기 가상 환경의 지정된 영역 내에서 지정된 사이즈를 갖는 콘텐트를 표시할 수 있다. 일 실시예에 따르면, 웨어러블 장치(101)는, 상기 입력에 기반하여, 상기 지정된 영역 내에서 상기 지정된 사이즈를 갖는 상기 콘텐트를 표시할 수 있다. 예를 들어, 상기 지정된 영역은, 상기 사용자에 의해 설정된, 상기 콘텐트가 표시될 초기 영역으로 참조될 수 있다. 예를 들어, 상기 지정된 사이즈는, 상기 사용자에 의해 설정된, 상기 콘텐트가 표시되는 초기 사이즈로 참조될 수 있다. 예를 들어, 상기 지정된 사이즈(또는 상기 초기 사이즈)는, 상기 사용자가 상기 콘텐트를 바라보는 방향에 대한(with respect to) 상기 콘텐트의 면적을 나타낼 수 있다. 이하에서는, 설명의 편의를 위하여, 상기 지정된 영역은 제1 영역으로, 상기 지정된 사이즈는 제1 사이즈로 참조될 수 있다. 예를 들어, 웨어러블 장치(101)는, 상기 가상 환경의 상기 제1 영역 내에서 상기 제1 사이즈를 갖는 상기 콘텐트를 표시할 수 있다. 예를 들어, 상기 제1 영역은, 상기 사용자의 초점 거리가 제1 거리인 상기 가상 환경 내의 위치를 나타낼 수 있다. 일 실시예에 따르면, 웨어러블 장치(101)는, 상기 지정된 사이즈 및 지정된 위치에 기반하여, 상기 콘텐트를 표시하기 위한 이미지(또는 이미지들)를 렌더링할 수 있다. 상기 렌더링된 이미지가 디스플레이(520)의 표시 영역을 통해 표시됨으로써, 상기 제1 영역 내에서 상기 제1 사이즈를 갖는 상기 콘텐트가 표시될 수 있다.In operation (605), the wearable device (101) may display content having a specified size within a specified area of the virtual environment. According to one embodiment, the wearable device (101) may display the content having the specified size within the specified area based on the input. For example, the specified area may be referred to as an initial area set by the user in which the content is to be displayed. For example, the specified size may be referred to as an initial size set by the user in which the content is to be displayed. For example, the specified size (or the initial size) may represent an area of the content with respect to a direction in which the user views the content. Hereinafter, for convenience of explanation, the specified area may be referred to as a first area, and the specified size may be referred to as a first size. For example, the wearable device (101) may display the content having the first size within the first area of the virtual environment. For example, the first region may represent a location within the virtual environment where the user's focal length is a first distance. According to one embodiment, the wearable device (101) may render an image (or images) for displaying the content based on the specified size and the specified location. The rendered image may be displayed through the display region of the display (520), thereby displaying the content having the first size within the first region.

일 실시예에 따르면, 상기 제1 영역 내에서 상기 제1 사이즈를 갖는 상기 콘텐트는, 웨어러블 장치(101)의 디스플레이(520)의 표시 영역 중에서 적어도 일부를 통해 표시될 수 있다. 예를 들어, 상기 표시 영역은, 디스플레이(520)를 통해 이미지(image)가 표시될 수 있는 전체 영역을 나타낼 수 있다. 예를 들어, 상기 적어도 일부는, 상기 표시 영역 중에서 상기 제1 영역 내에서 상기 제1 사이즈를 갖는 상기 콘텐트를 표시하기 위한 표시 영역의 부분 또는 전부를 나타낼 수 있다. 디스플레이(520)가 복수의 디스플레이들(예: 도 2의 제1 디스플레이(250-1) 및 제2 디스플레이(250-2))(또는 표시 영역들)을 포함하는 경우, 웨어러블 장치(101)는, 제1 디스플레이(250-1)의 제1 표시 영역 중에서 적어도 일부를 통해 제1 이미지 및 제2 디스플레이(250-2)의 제2 표시 영역 중에서 적어도 일부를 통해 제2 이미지를 표시할 수 있다. 상기 제1 이미지 및 상기 제2 이미지는, 상기 제1 영역 내에서 상기 제1 사이즈를 갖는 상기 콘텐트를 표시하기 위한 이미지를 나타낼 수 있다. 예를 들어, 상기 제1 표시 영역은, 상기 사용자의 좌안에 대하여(with respect to) 위치될 수 있다. 예를 들어, 상기 제2 표시 영역은, 상기 사용자의 우안에 대하여 위치될 수 있다. 상기 좌안 또는 우안에 대하여 위치되는 것은, 상기 사용자의 좌안 또는 우안을 통해 볼 수 있는 영역에 위치됨을 나타낼 수 있다. 상술한 예에서는, 양안 시차(binocular parallax)를 이용하여 상기 콘텐트 및 상기 콘텐트의 깊이(depth)를 나타내는 방법을 이용하는 웨어러블 장치(101)의 예가 서술되나, 본 개시의 실시예가 이에 제한되는 것은 아니다. 예를 들어, 가변 초점 렌즈를 포함하는 웨어러블 장치(101)는, 양안 시차를 이용하지 않더라도, 디스플레이(520) 내부의 상기 가변 초점 렌즈를 이용하여 상이한 깊이(또는 초점 거리)를 갖는 콘텐트를 표시할 수도 있다.According to one embodiment, the content having the first size within the first area may be displayed through at least a portion of a display area of the display (520) of the wearable device (101). For example, the display area may represent the entire area in which an image may be displayed through the display (520). For example, the at least portion may represent a part or the entirety of a display area for displaying the content having the first size within the first area among the display areas. When the display (520) includes a plurality of displays (e.g., the first display (250-1) and the second display (250-2) of FIG. 2) (or display areas), the wearable device (101) may display a first image through at least a portion of a first display area of the first display (250-1) and a second image through at least a portion of a second display area of the second display (250-2). The first image and the second image may represent images for displaying the content having the first size within the first area. For example, the first display area may be positioned with respect to the user's left eye. For example, the second display area may be positioned with respect to the user's right eye. Positioning with respect to the left or right eye may indicate that it is positioned in an area viewable through the user's left or right eye. In the above-described example, an example of a wearable device (101) that uses a method of representing the content and the depth of the content using binocular parallax is described, but the embodiments of the present disclosure are not limited thereto. For example, a wearable device (101) including a variable focus lens may display content having different depths (or focal lengths) by using the variable focus lens within the display (520) even without using binocular parallax.

동작(610)에서, 웨어러블 장치(101)는, 시력 보호 기능이 활성화되었는지 여부를 식별할 수 있다. 상기 시력 보호 기능은, 상기 사용자의 시력 보호를 위하여, 상기 콘텐트의 상기 가상 환경 내의 위치 및 사이즈를 변경하는 기능을 나타낼 수 있다. 이 때, 상기 콘텐트의 상기 위치 및 상기 사이즈가 변경됨에 따라, 상기 사용자가 상기 콘텐트를 시청하는 동안의 초점 거리는 변경될 수 있다. 또한, 상기 사용자가 상기 콘텐트를 시청하는 동안, 상기 콘텐트의 상기 위치에 기반하여 상기 사이즈가 변경됨에 따라, 상기 사용자가 인식(recognition)하는 상기 콘텐트가 외부로 표시되는 사이즈는 일정하게 유지될 수 있다. 상기 외부로 표시되는 사이즈는, 디스플레이(520)의 표시 영역 대비 상기 콘텐트를 위한 영역(예: 상기 적어도 일부)의 비율(또는 해상도)에 기반하여 식별될 수 있다. 다시 말해서, 상기 가상 환경 내의 상기 콘텐트의 상기 위치 및 상기 사이즈는 변경되더라도, 상기 콘텐트가 외부로 표시되는 사이즈는 실질적으로 일정하게 유지될 수 있다. 따라서, 상기 사용자가 상기 콘텐트 시청하는 동안의 상기 사용자의 시청 경험은 일정하게 유지되면서, 상기 사용자의 초점 거리는 동적으로 변경될 수 있다. 이에 따라, 상기 동적인 초점 거리에 따라, 상기 사용자의 시력은 보호될 수 있다. In operation (610), the wearable device (101) can identify whether the vision protection function is activated. The vision protection function can indicate a function of changing the position and size of the content within the virtual environment in order to protect the user's eyesight. At this time, as the position and the size of the content are changed, the focal length while the user views the content can be changed. In addition, as the size is changed based on the position of the content while the user views the content, the size of the content recognized by the user in which it is displayed externally can be maintained constant. The size of the externally displayed can be identified based on the ratio (or resolution) of the area for the content (e.g., at least a portion) to the display area of the display (520). In other words, even if the position and the size of the content within the virtual environment are changed, the size of the content in which it is displayed externally can be maintained substantially constant. Accordingly, while the user's viewing experience while viewing the content remains constant, the user's focal length can be dynamically changed. Accordingly, the user's eyesight can be protected according to the dynamic focal length.

일 실시예에 따르면, 웨어러블 장치(101)는, 상기 가상 환경을 제공하는 상기 소프트웨어 어플리케이션 내에서 상기 시력 보호 기능이 활성화되었는지 여부를 식별할 수 있다. 일 실시예에 따르면, 웨어러블 장치(101)는, 웨어러블 장치(101)의 설정(setting) 내에서 상기 시력 보호 기능이 활성화되었는지 여부를 식별할 수 있다. 다시 말해서, 상기 시력 보호 기능은, 소프트웨어 어플리케이션 별 또는 전체 소프트웨어 어플리케이션들에 대하여 적용될 수 있다. 또한, 예를 들어, 상기 시력 보호 기능은, 콘텐트 별로 설정될 수도 있다.According to one embodiment, the wearable device (101) can identify whether the vision protection function is activated within the software application providing the virtual environment. According to one embodiment, the wearable device (101) can identify whether the vision protection function is activated within the setting of the wearable device (101). In other words, the vision protection function can be applied to each software application or to all software applications. In addition, for example, the vision protection function can be set for each content.

동작(610)에서, 상기 시력 보호 기능이 활성화된 경우, 웨어러블 장치(101)는 동작(620)을 수행할 수 있다. 이와 달리, 동작(610)에서, 상기 시력 보호 기능이 비활성화된 경우, 웨어러블 장치(101)는 동작(615)을 수행할 수 있다.In operation (610), if the vision protection function is activated, the wearable device (101) can perform operation (620). Alternatively, in operation (610), if the vision protection function is deactivated, the wearable device (101) can perform operation (615).

동작(615)에서, 웨어러블 장치(101)는, 상기 콘텐트의 사이즈 및 위치를 유지할 수 있다. 예를 들어, 웨어러블 장치(101)는, 상기 콘텐트의 사이즈를 상기 제1 사이즈로, 상기 위치를 상기 제1 영역으로 유지할 수 있다. 예를 들어, 웨어러블 장치(101)는, 상기 시력 보호 기능이 비활성화됨을 식별함에 응답하여, 상기 제1 영역 내에서 상기 제1 사이즈를 갖는 상기 콘텐트를 표시하는 상태를 유지할 수 있다. In operation (615), the wearable device (101) can maintain the size and position of the content. For example, the wearable device (101) can maintain the size of the content as the first size and the position as the first area. For example, the wearable device (101) can maintain a state of displaying the content having the first size within the first area in response to identifying that the vision protection function is deactivated.

동작(620)에서, 웨어러블 장치(101)는, 상기 콘텐트가 표시되는 시간(또는 시간 구간)이 기준 시간 이상인지 여부를 식별할 수 있다. 일 실시예에 따르면, 웨어러블 장치(101)는, 상기 시력 보호 기능이 활성화됨을 식별함에 응답하여, 상기 콘텐트가 표시되는 상기 시간이 상기 기준 시간 이상인지 여부를 식별할 수 있다. In operation (620), the wearable device (101) can identify whether the time (or time period) at which the content is displayed is longer than or equal to a reference time. According to one embodiment, the wearable device (101) can identify whether the time at which the content is displayed is longer than or equal to the reference time in response to identifying that the vision protection function is activated.

일 실시예에 따르면, 상기 기준 시간은, 상기 사용자가 초점 거리를 조정하는 능력 정보 또는 상기 콘텐트의 특성(characteristic) 중 적어도 하나에 기반하여 식별될 수 있다. 상기 능력 정보는, 상기 사용자의 초점 거리 조정과 관련된 반응 속도, 상기 사용자의 초점 거리에 대한 최소 거리(minimum length) 및 최대 거리(maximum length), 또는 상기 사용자가 선호하는(preferred) 초점 거리 중 적어도 하나를 포함할 수 있다. 예를 들어, 상기 콘텐츠의 특성은, 상기 콘텐츠의 재생 속도(play speed) 또는 상기 콘텐츠의 타입(type) 중 적어도 하나를 포함할 수 있다. 상기 콘텐츠의 타입은, 글이나 그림과 같은 정적인(static) 타입 또는 동영상과 같은 동적인(dynamic) 타입을 포함할 수 있다. 예를 들어, 상기 기준 시간은, 상기 반응 속도가 느린 사람(예: 노인)인 경우, 상기 반응 속도가 빠른 사람(예: 청년)에 비해 길게 설정될 수 있다. 또는, 상기 기준 시간은, 상기 콘텐트가 동적(또는 재생 속도가 빠른 경우)인 경우, 상기 콘텐트가 정적(또는 재생 속도가 느린 경우)인 경우에 비해 길게 설정될 수 있다. In one embodiment, the reference time may be identified based on at least one of the user's ability information for adjusting the focal length or the characteristic of the content. The ability information may include at least one of the user's reaction speed related to the focal length adjustment, the minimum length and the maximum length for the user's focal length, or the user's preferred focal length. For example, the characteristic of the content may include at least one of the play speed of the content or the type of the content. The type of the content may include a static type such as text or an image or a dynamic type such as a video. For example, the reference time may be set longer for a person with a slow reaction speed (e.g., an elderly person) than for a person with a fast reaction speed (e.g., a young person). Alternatively, the reference time may be set longer for a person with a dynamic content (or a fast play speed) than for a person with a static content (or a slow play speed).

동작(620)에서, 상기 시간이 상기 기준 시간 이상인 경우, 웨어러블 장치(101)는 동작(625)을 수행할 수 있다. 이와 달리, 동작(620)에서, 상기 시간이 상기 기준 시간 미만인 경우, 웨어러블 장치(101)는 동작(620)을 다시 수행할 수 있다. 예를 들어, 웨어러블 장치(101)는, 상기 시간이 상기 기준 시간 이상이 되는지 여부를 식별할 수 있다. In operation (620), if the time is greater than or equal to the reference time, the wearable device (101) can perform operation (625). Conversely, in operation (620), if the time is less than or equal to the reference time, the wearable device (101) can perform operation (620) again. For example, the wearable device (101) can identify whether the time is greater than or equal to the reference time.

동작(625)에서, 웨어러블 장치(101)는, 상기 콘텐트의 사이즈 및 위치를 변경할 수 있다. 일 실시예에 따르면, 웨어러블 장치(101)는, 상기 시간이 상기 기준 시간 이상임을 식별함에 응답하여, 상기 콘텐트의 사이즈 및 위치를 변경할 수 있다. 예를 들어, 웨어러블 장치(101)는, 상기 콘텐트의 상기 제1 사이즈 및 상기 제1 영역을, 상기 제1 사이즈와 다른 제2 사이즈 및 상기 제1 영역과 다른 제2 영역으로 각각 변경할 수 있다. 일 실시예에 따르면, 웨어러블 장치(101)는, 상기 능력 정보에 기반하여 상기 제2 사이즈 및 상기 제2 영역을 식별할 수 있다. 예를 들어, 웨어러블 장치(101)는, 상기 사용자가 선호하는 초점 거리를 포함하는 상기 능력 정보에 기반하여, 상기 제2 영역 및 상기 제2 사이즈를 식별할 수 있다. 예를 들어, 상기 제2 영역은, 상기 사용자가 선호하는 초점 거리로 변경하기 위하여, 상기 제1 영역으로부터 변경되는 영역을 나타낼 수 있다. 예를 들어, 상기 제2 영역은, 상기 제1 영역으로부터 선형적으로 변경되는, 상기 초점 거리가 제2 거리를 나타내는 상기 가상 환경 내의 위치를 나타낼 수 있다. 상기 제2 거리는, 상기 사용자가 선호하는 초점 거리 또는 상기 제1 거리와 상기 사용자가 선호하는 초점 거리 사이의 초점 거리를 나타낼 수 있다. 다시 말해서, 상기 제2 영역은, 상기 가상 환경 내의 상기 사용자에 대응하는 기준 위치로부터 식별되는 깊이(depth)가 상기 제1 영역과 다를(differ from) 수 있다. 예를 들어, 상기 가상 환경 내의 상기 사용자에 대응하는 기준 위치로부터 상기 제2 거리가 상기 제1 거리 보다 먼 경우, 상기 제2 사이즈는 상기 제1 사이즈보다 클 수 있다. 상기 제2 사이즈는 상기 제1 사이즈로부터 확대될 수 있다. 또한, 예를 들어, 상기 가상 환경 내의 상기 사용자에 대응하는 기준 위치로부터 상기 제2 거리가 상기 제1 거리 보다 가까운 경우, 상기 제2 사이즈는 상기 제1 사이즈보다 작을 수 있다. 상기 제2 사이즈는 상기 제1 사이즈로부터 축소될 수 있다. 상술한 경우에서도, 상기 사용자가 인식하는 상기 콘텐트가 외부로 표시되는 사이즈는 일정하게 유지될 수 있다. 이와 관련된 구체적인 내용은, 이하 도 7에서 서술된다.In operation (625), the wearable device (101) can change the size and position of the content. According to one embodiment, the wearable device (101) can change the size and position of the content in response to identifying that the time is greater than or equal to the reference time. For example, the wearable device (101) can change the first size and the first area of the content to a second size different from the first size and a second area different from the first area, respectively. According to one embodiment, the wearable device (101) can identify the second size and the second area based on the capability information. For example, the wearable device (101) can identify the second area and the second size based on the capability information including a focal length preferred by the user. For example, the second area can represent an area that is changed from the first area in order to change to a focal length preferred by the user. For example, the second region may represent a location within the virtual environment where the focal distance linearly changes from the first region, and the second distance may represent a focal distance preferred by the user or a focal distance between the first distance and the focal distance preferred by the user. In other words, the second region may differ from the first region in a depth identified from a reference location corresponding to the user within the virtual environment. For example, when the second distance from a reference location corresponding to the user within the virtual environment is further than the first distance, the second size may be larger than the first size. The second size may be enlarged from the first size. Also, for example, when the second distance from a reference location corresponding to the user within the virtual environment is closer than the first distance, the second size may be smaller than the first size. The second size may be reduced from the first size. Even in the above-described cases, the size at which the content recognized by the user is displayed externally may be maintained constant. Specific details related to this are described in Figure 7 below.

일 실시예에 따르면, 상기 콘텐트의 사이즈 및 위치에 대한 상기 변경은, 축소 및 확대를 반복할 수 있다. 예를 들어, 웨어러블 장치(101)는, 상기 콘텐트의 사이즈를 상기 제1 사이즈로부터 상기 제2 사이즈로 확장한 후, 상기 제2 사이즈로부터 상기 제1 사이즈로 다시 축소할 수 있다. 또는, 예를 들어, 웨어러블 장치(101)는, 상기 콘텐트의 사이즈를 상기 제2 사이즈로부터 상기 제1 사이즈로 축소한 후, 상기 제1 사이즈로부터 상기 제2 사이즈로 다시 확대할 수 있다. 또는, 예를 들어, 웨어러블 장치(101)는, 상기 축소 및 상기 확대를 지정된 주기에 따라 반복할 수 있다. In one embodiment, the change in the size and position of the content may be repeated by reducing and enlarging. For example, the wearable device (101) may expand the size of the content from the first size to the second size, and then reduce it from the second size back to the first size. Or, for example, the wearable device (101) may reduce the size of the content from the second size to the first size, and then enlarge it from the first size back to the second size. Or, for example, the wearable device (101) may repeat the reducing and enlarging according to a specified cycle.

도 6을 참조하면, 웨어러블 장치(101)는, 상기 시간이 상기 기준 시간 이상임을 식별할 때마다, 상기 콘텐트의 사이즈 및 위치를 변경할 수 있다. 예를 들어, 웨어러블 장치(101)는, 상기 제1 사이즈 및 상기 제1 위치를 갖는 상기 콘텐트로부터, 상기 제2 사이즈 및 상기 제2 위치를 갖는 상기 콘텐트로 변경할 수 있다. 이 후, 상기 시간이 상기 기준 시간 이상임을 식별함에 응답하여, 웨어러블 장치(101)는, 상기 제2 사이즈 및 상기 제2 위치를 갖는 상기 콘텐트로부터, 제3 사이즈 및 제3 위치를 갖는 상기 콘텐트로 변경할 수 있다. 상기 제1 위치로부터 상기 제2 위치를 거쳐 변경되는 상기 제3 위치는, 선형적으로 변경될 수 있다. 상기 선형적으로 변경되는 것은, 지정된 길이 만큼 변경됨을 나타낼 수 있다. 예를 들어, 상기 지정된 길이는, 센티미터(centimeter) 단위일 수 있다. 다만, 본 개시의 실시예가 이에 제한되는 것은 아니다. 또한, 상기 제1 위치로부터 상기 제3 위치로 변경되는 동안, 상기 콘텐트의 사이즈는, 상기 제1 사이즈로부터 상기 제2 사이즈를 거쳐 상기 제3 사이즈로 선형적으로 변경될 수 있다. 상기 콘텐트의 사이즈는, 선형적으로 변경되는 상기 콘텐트의 위치와 비례하여 선형적으로 변경될 수 있다. 다만, 본 개시의 실시예가 이에 제한되는 것은 아니다. Referring to FIG. 6, the wearable device (101) may change the size and position of the content whenever it identifies that the time is greater than or equal to the reference time. For example, the wearable device (101) may change from the content having the first size and the first position to the content having the second size and the second position. Thereafter, in response to identifying that the time is greater than or equal to the reference time, the wearable device (101) may change from the content having the second size and the second position to the content having a third size and a third position. The third position, which changes from the first position to the second position, may be changed linearly. The linear change may indicate that the change is made by a specified length. For example, the specified length may be in centimeters. However, the embodiments of the present disclosure are not limited thereto. In addition, while changing from the first position to the third position, the size of the content may be linearly changed from the first size to the second size to the third size. The size of the content may be linearly changed in proportion to the position of the content that is linearly changed. However, the embodiments of the present disclosure are not limited thereto.

도 6에서는, 상기 콘텐트가 표시되는 상기 시간이 상기 기준 시간 이상이 경우를 식별함에 응답하여 상기 콘텐트의 사이즈 및 위치를 변경하는 예를 도시하나, 본 개시의 실시예가 이에 제한되는 것은 아니다. FIG. 6 illustrates an example of changing the size and position of the content in response to identifying a case where the time at which the content is displayed is greater than or equal to the reference time, but the embodiments of the present disclosure are not limited thereto.

일 실시예에 따르면, 웨어러블 장치(101)는, 상기 시간이 상기 기준 시간 이상이 경우에, 웨어러블 장치(101)의 사용자가 상기 콘텐트를 응시하는 시간(이하, 응시 시간)이 기준 응시 시간 이상인지 여부를 결정함에 따라, 상기 콘텐트의 사이즈 및 위치를 변경할 수 있다. 이와 관련된 구체적인 내용은, 이하 도 9에서 서술된다. According to one embodiment, the wearable device (101) may change the size and position of the content by determining whether the time for which the user of the wearable device (101) gazes at the content (hereinafter, gaze time) is longer than the reference gaze time, if the time is longer than the reference time. Specific details related thereto are described in FIG. 9 below.

일 실시예에 따르면, 웨어러블 장치(101)는 다른 조건에 기반하여, 상기 콘텐트의 사이즈 및 위치에 대한 변경 여부를 식별할 수 있다. 예를 들어, 웨어러블 장치(101)는, 상기 콘텐트에 대하여 상기 시력 보호 기능이 설정된 경우, 상기 콘텐트의 사이즈 및 위치를 변경하는 것으로 식별할 수 있다. 예를 들어, 상기 콘텐트가 웹 페이지(web page)인 경우, 상기 웹 페이지는 지정된 시간 동안 이용되는 것이 일반적인 바, 상기 콘텐트에 대하여 상기 시력 보호 기능이 설정될 수 있다. 다시 말해서, 상기 시력 보호 기능은 콘텐트 별로 설정될 수 있다. 또한, 예를 들어, 웨어러블 장치(101)는, 상기 콘텐트가 디스플레이(520) 상에 플로팅되는(floated) 시각적 객체인지 여부를 식별할 수 있다. 예를 들어, 상기 플로팅되는 시각적 객체는, 상기 가상 환경 내의 위치와 상관없이, 디스플레이(520)의 표시 영역의 일부에서 항상 표시되는 객체를 나타낼 수 있다. 상기 콘텐트가 상기 플로팅되는 시각적 객체인 경우, 웨어러블 장치(101)는, 상기 콘텐트의 사이즈 및 위치를 변경할 수 있다. According to one embodiment, the wearable device (101) can identify whether the size and position of the content are changed based on other conditions. For example, if the eye protection function is set for the content, the wearable device (101) can identify that the size and position of the content are changed. For example, if the content is a web page, the web page is generally used for a specified period of time, and thus the eye protection function can be set for the content. In other words, the eye protection function can be set for each content. In addition, for example, the wearable device (101) can identify whether the content is a visual object floating on the display (520). For example, the floating visual object can indicate an object that is always displayed in a part of the display area of the display (520) regardless of the location within the virtual environment. If the above content is a floating visual object, the wearable device (101) can change the size and position of the content.

또한, 도 6에서는, 상기 콘텐트가 멀어지면서 확대되거나 가까워지면서 축소되는 예가 서술되었으나 본 개시의 실시예가 이에 제한되는 것은 아니다. 예를 들어, 상기 능력 정보에 포함되는 상기 사용자의 초점 거리에 대한 최소 거리 및 최대 거리에 의해 정의되는 초점 거리의 범위 내에서, 상기 콘텐트의 축소 및 확대가 반복될 수 있다. 다시 말해서, 웨어러블 장치(101)는, 상기 콘텐트의 위치 및 사이즈를 상기 범위 내에서 변경하여 표시할 수 있다. In addition, in FIG. 6, an example in which the content is enlarged as it gets farther away or reduced as it gets closer is described, but the embodiment of the present disclosure is not limited thereto. For example, within a range of focal distances defined by the minimum distance and maximum distance of the focal distance of the user included in the capability information, the reduction and enlargement of the content may be repeated. In other words, the wearable device (101) may change the location and size of the content and display it within the range.

동작(630)에서, 웨어러블 장치(101)는, 변경된 사이즈 및 위치에 기반하여, 상기 콘텐트를 표시할 수 있다. 예를 들어, 웨어러블 장치(101)는, 상기 제2 영역 내에서 상기 제2 사이즈를 갖는 상기 콘텐트를 표시할 수 있다. 일 실시예에 따르면, 웨어러블 장치(101)는, 상기 변경된 사이즈 및 위치에 기반하여, 상기 콘텐트를 표시하기 위한 이미지(또는 이미지들)를 렌더링할 수 있다. 상기 렌더링된 이미지가 디스플레이(520)의 표시 영역을 통해 표시됨으로써, 상기 제2 영역 내에서 상기 제2 사이즈를 갖는 상기 콘텐트가 표시될 수 있다. In operation (630), the wearable device (101) may display the content based on the changed size and position. For example, the wearable device (101) may display the content having the second size within the second area. According to one embodiment, the wearable device (101) may render an image (or images) for displaying the content based on the changed size and position. The rendered image may be displayed through the display area of the display (520), thereby displaying the content having the second size within the second area.

일 실시예에 따르면, 웨어러블 장치(101)는, 상기 콘텐트의 위치가 상기 제1 영역으로부터 상기 제2 영역으로 변경되는 동안, 상기 콘텐트의 z-인덱스(z-index)를 나타내는 값을 유지할 수 있다. 예를 들어, 웨어러블 장치(101)는, 상기 콘텐트의 위치가 상기 제1 영역으로부터 상기 제2 영역으로 변경되는 동안, 상기 값을 상기 제1 영역과 상기 제2 영역 사이에 위치되는 제2 콘텐트의 z-인덱스를 나타내는 제2 값보다 높은 값으로 설정할 수 있다. 다시 말해서, 상기 콘텐트의 z-인덱스를 나타내는 상기 값은, 상기 제2 콘텐트의 z-인덱스를 나타내는 상기 제2 값보다 높은 값일 수 있다. 예를 들어, 상기 z-인덱스는, 높은 값을 가질수록, 상기 가상 환경 내의 상기 사용자에 대응하는 기준 위치에 가깝게 표시될 수 있다. 상기 설정에 기반하여, 상기 콘텐트의 위치가 상기 제1 영역으로부터 상기 제2 영역으로 변경됨에 따라 상기 제2 콘텐트가 상기 콘텐트 상(on)에 표시되는 것을 예방할 수 있다. 일 실시예에 따르면, 웨어러블 장치(101)는, z-인덱스에 기반하여, 상기 콘텐트를 렌더링함으로써, 표시할 수 있다. 예를 들어, 상기 제2 콘텐트의 상기 제2 값이 상기 콘텐트의 상기 값보다 낮기 때문에, 웨어러블 장치(101)는 상기 콘텐트만 렌더링할 수 있다. 이에 따라, 웨어러블 장치(101)는, 상기 콘텐트만 표시될 수 있다. 또는, 예를 들어, 웨어러블 장치(101)는, 상기 콘텐트 및 상기 다제2 콘텐트를 모두 렌더링한 후, 상기 콘텐트보다 낮은 z-인덱스를 갖는 상기 제2 콘텐트는 표시하는 것을 삼가하고(refrain from), 상기 콘텐트만 표시할 수도 있다. 상술한 예에서는, 상기 z-인덱스가 높은 값을 가질수록, 웨어러블 장치(101)가 상기 콘텐트를 상기 기준 위치에 가깝게 표시하는 것으로 서술되나, 본 개시의 실시예가 이에 제한되는 것은 아니다. 예를 들어, 상기 렌더링 방식에 따라, 상기 z-인덱스가 낮은 값을 가질수록, 웨어러블 장치(101)가 상기 콘텐트를 상기 기준 위치에 가깝게 표시할 수도 있다. According to one embodiment, the wearable device (101) may maintain a value indicating a z-index of the content while the location of the content is changed from the first area to the second area. For example, the wearable device (101) may set the value to a value higher than a second value indicating a z-index of second content positioned between the first area and the second area while the location of the content is changed from the first area to the second area. In other words, the value indicating the z-index of the content may be a value higher than the second value indicating the z-index of the second content. For example, the higher the z-index, the closer the second content may be displayed to a reference location corresponding to the user within the virtual environment. Based on the setting, the second content may be prevented from being displayed on the content as the location of the content is changed from the first area to the second area. According to one embodiment, the wearable device (101) may display the content by rendering it based on the z-index. For example, since the second value of the second content is lower than the value of the content, the wearable device (101) may render only the content. Accordingly, the wearable device (101) may display only the content. Or, for example, after rendering both the content and the multi-second content, the wearable device (101) may refrain from displaying the second content having a lower z-index than the content, and display only the content. In the above example, it is described that the wearable device (101) displays the content closer to the reference position as the z-index has a higher value, but the embodiments of the present disclosure are not limited thereto. For example, depending on the rendering method, the lower the z-index value, the closer the wearable device (101) may display the content to the reference position.

일 실시예에 따르면, 상기 제2 영역 내에서 상기 제2 사이즈를 갖는 상기 콘텐트는, 웨어러블 장치(101)의 디스플레이(520)의 표시 영역 중에서 상기 적어도 일부를 통해 표시될 수 있다. 상기 제2 영역 내에서 상기 제2 사이즈를 갖는 상기 콘텐트를 표시하기 위한 상기 적어도 일부는, 상기 제1 영역 내에서 상기 제1 사이즈를 갖는 상기 콘텐트를 표시하기 위한 상기 적어도 일부와 대응할 수 있다. 다시 말해서, 상기 제2 영역 내에서 상기 제2 사이즈를 갖는 상기 콘텐트를 표시하기 위한 상기 적어도 일부의 면적은, 상기 제1 영역 내에서 상기 제1 사이즈를 갖는 상기 콘텐트를 표시하기 위한 상기 적어도 일부의 면적과 대응할 수 있다. 그러나, 상기 제2 영역 내에서 상기 제2 사이즈를 갖는 상기 콘텐트를 표시하기 위한 이미지(또는 이미지들)은, 상기 제1 영역 내에서 상기 제1 사이즈를 갖는 상기 콘텐트를 표시하기 위한 이미지(또는 이미지들)과 상이할 수 있다. 예를 들어, 상기 제2 영역 내에서 상기 제2 사이즈를 갖는 상기 콘텐트를 표시하기 위한 이미지(또는 이미지들)의 상기 표시 영역 내의 위치는, 상기 제1 영역 내에서 상기 제1 사이즈를 갖는 상기 콘텐트를 표시하기 위한 이미지(또는 이미지들)의 상기 표시 영역 내의 위치와 상이할 수 있다. According to one embodiment, the content having the second size in the second area may be displayed through at least a portion of a display area of the display (520) of the wearable device (101). The at least a portion for displaying the content having the second size in the second area may correspond to the at least a portion for displaying the content having the first size in the first area. In other words, an area of the at least a portion for displaying the content having the second size in the second area may correspond to an area of the at least a portion for displaying the content having the first size in the first area. However, an image (or images) for displaying the content having the second size in the second area may be different from an image (or images) for displaying the content having the first size in the first area. For example, a position within the display area of an image (or images) for displaying the content having the second size within the second area may be different from a position within the display area of an image (or images) for displaying the content having the first size within the first area.

상술한 예와 같이, 디스플레이(520)가 복수의 디스플레이들(예: 도 2의 제1 디스플레이(250-1) 및 제2 디스플레이(250-2))(또는 표시 영역들)을 포함할 수 있다. 예를 들어, 상기 제2 영역 내에서 상기 제12 사이즈를 갖는 상기 콘텐트를 표시하기 위하여, 웨어러블 장치(101)는, 제1 디스플레이(250-1)의 상기 제1 표시 영역 중에서 적어도 일부를 통해 제3 이미지 및 제2 디스플레이(250-2)의 상기 제2 표시 영역 중에서 적어도 일부를 통해 제4 이미지를 표시할 수 있다. 상기 제3 이미지 및 상기 제4 이미지는, 상기 제2 영역 내에서 상기 제2 사이즈를 갖는 상기 콘텐트를 표시하기 위한 이미지를 나타낼 수 있다. 예를 들어, 상기 제1 표시 영역은, 상기 사용자의 좌안에 대하여(with respect to) 위치될 수 있다. 예를 들어, 상기 제2 표시 영역은, 상기 사용자의 우안에 대하여 위치될 수 있다. 상기 좌안 또는 우안에 대하여 위치되는 것은, 상기 사용자의 좌안 또는 우안을 통해 볼 수 있는 영역에 위치됨을 나타낼 수 있다. 상술한 예에서는, 양안 시차(binocular parallax)를 이용하여 상기 콘텐트 및 상기 콘텐트의 깊이(depth)를 나타내는 방법을 이용하는 웨어러블 장치(101)의 예가 서술되나, 본 개시의 실시예가 이에 제한되는 것은 아니다. 예를 들어, 가변 초점 렌즈를 포함하는 웨어러블 장치(101)는, 양안 시차를 이용하지 않더라도, 디스플레이(520) 내부의 상기 가변 초점 렌즈를 이용하여 상이한 깊이(또는 초점 거리)를 갖는 콘텐트를 표시할 수도 있다.As in the example described above, the display (520) may include a plurality of displays (or display areas) (e.g., the first display (250-1) and the second display (250-2) of FIG. 2). For example, in order to display the content having the twelfth size within the second area, the wearable device (101) may display a third image through at least a portion of the first display area of the first display (250-1) and a fourth image through at least a portion of the second display area of the second display (250-2). The third image and the fourth image may represent images for displaying the content having the second size within the second area. For example, the first display area may be positioned with respect to the user's left eye. For example, the second display area may be positioned with respect to the user's right eye. Positioned relative to the left or right eye may indicate that it is positioned in an area viewable through the left or right eye of the user. In the above example, an example of a wearable device (101) that uses a method of representing the content and the depth of the content by using binocular parallax is described, but the embodiments of the present disclosure are not limited thereto. For example, a wearable device (101) including a variable focus lens may display content having different depths (or focal lengths) by using the variable focus lens within the display (520), even without using binocular parallax.

도 7은 초점 거리에 따른 콘텐트를 나타내기 위한 디스플레이의 표시 영역에 대한 예들을 나타낸다. Figure 7 shows examples of display areas of a display for displaying content according to focal length.

도 7에서는, 설명의 편의를 위하여, 웨어러블 장치(101)의 디스플레이(520)가 2개의 디스플레이들(250-1, 250-2)(또는 표시 영역들)을 포함하고, 양안 시차에 기반하여 상기 콘텐트의 가상 환경 내의 깊이(depth)를 표현하는 방식을 예로 설명한다. 다만 본 개시의 실시예가 이에 제한되는 것은 아니다. 예를 들어, 가변 초점 렌즈를 포함하는 웨어러블 장치(101)는, 양안 시차를 이용하지 않더라도, 디스플레이(520) 내부의 상기 가변 초점 렌즈를 이용하여 상이한 깊이(또는 초점 거리)를 갖는 콘텐트를 표시할 수도 있다. 상기 깊이는, 웨어러블 장치(101)의 사용자에 대응하는 상기 가상 환경 내의 기준 위치로부터 상기 콘텐트 까지의 거리에 기반하여 식별될 수 있다. In FIG. 7, for convenience of explanation, a method of expressing depth of the content within a virtual environment based on binocular parallax is described as an example in which the display (520) of the wearable device (101) includes two displays (250-1, 250-2) (or display areas). However, the embodiment of the present disclosure is not limited thereto. For example, a wearable device (101) including a variable focus lens may display content having different depths (or focal lengths) by using the variable focus lens within the display (520), even without using binocular parallax. The depth may be identified based on a distance from a reference position within the virtual environment corresponding to a user of the wearable device (101) to the content.

도 7은, 도 6에서 서술된 예시인, 상기 제1 영역 내에서 상기 제1 사이즈를 갖는 상기 콘텐트를 표시하는 예(700) 및 상기 제2 영역 내에서 상기 제2 사이즈를 갖는 상기 콘텐트를 표시하는 예(750)를 도시한다. 상기 제2 영역은, 상기 제1 영역 보다 먼 초점 거리에 대응하는 상기 가상 환경 내의 위치를 나타낼 수 있다. 이에 따라, 상기 제2 사이즈는 상기 제1 사이즈보다 확대된 사이즈일 수 있다. 도 7에서는, 상기 제2 영역이 상기 제1 영역 보다 먼 초점 거리를 나타내는 경우를 예시하나, 본 개시의 실시예가 이에 제한되는 것은 아니다. 예를 들어, 상기 제2 영역이 상기 제1 영역 보다 가까운 초점 거리를 나타낼 수도 있다. 이 경우, 상기 제2 사이즈는 상기 제1 사이즈보다 축소될 수 있다. FIG. 7 illustrates an example (700) of displaying the content having the first size within the first area, which is an example described in FIG. 6, and an example (750) of displaying the content having the second size within the second area. The second area may represent a location within the virtual environment corresponding to a focal distance further than the first area. Accordingly, the second size may be a size that is enlarged compared to the first size. In FIG. 7, the case where the second area represents a focal distance further than the first area is exemplified, but the embodiments of the present disclosure are not limited thereto. For example, the second area may represent a focal distance closer than the first area. In this case, the second size may be reduced compared to the first size.

도 7의 예(700)를 참조하면, 상기 제1 영역 내의 상기 제1 사이즈를 갖는 상기 콘텐트를 표시하기 위하여, 웨어러블 장치(101)는, 제1 디스플레이(250-1)를 통해 제1 이미지(700-1)를 표시하고, 제2 디스플레이(250-2)를 통해 제2 이미지(700-2)를 표시할 수 있다. 예를 들어, 웨어러블 장치(101)는, 제1 디스플레이(250-1)의 제1 표시 영역 중 적어도 일부를 통해 제1 이미지(700-1)를 표시할 수 있다. 또한, 웨어러블 장치(101)는, 제2 디스플레이(250―2)의 제2 표시 영역 중 적어도 일부를 통해 제2 이미지(700-2)를 표시할 수 있다. 제1 이미지(700-1)를 위한 상기 제1 표시 영역의 상기 적어도 일부의 면적(또는 제1 표시 사이즈)은, 제2 이미지(700-2)를 위한 상기 제2 표시 영역의 상기 적어도 일부의 면적(또는 제1 표시 사이즈)과 대응할 수 있다. 이 때, 제1 이미지(700-1)를 위한 상기 제1 표시 영역의 상기 적어도 일부의 위치는, 제2 이미지(700-2)를 위한 상기 제2 표시 영역의 상기 적어도 일부의 위치와 상이할 수 있다. 예를 들어, 제1 이미지(700-1)의 지정된 위치(예: 좌측 상단의 꼭지점)(710)의 좌표(coordinate)는 (x1, y1)일 수 있고, 제2 이미지(700-2)의 지정된 위치(예: 좌측 상단의 꼭지점)(720)의 좌표는 (x2, y2)일 수 있다. 지정된 위치(710)와 지정된 위치(720) 사이의 차이(difference)에 기반하여, 상기 제1 영역 내에 위치되는 상기 제1 사이즈를 갖는 상기 콘텐트가 표시될 수 있다. 다시 말해서, 상기 차이에 기반하여, 상기 콘텐트의 깊이가 식별될 수 있다. 예를 들어, 상기 콘텐트의 상기 깊이는, 이하의 수학식과 같이 참조될 수 있다.Referring to example (700) of FIG. 7, in order to display the content having the first size within the first area, the wearable device (101) may display a first image (700-1) through the first display (250-1) and display a second image (700-2) through the second display (250-2). For example, the wearable device (101) may display the first image (700-1) through at least a part of the first display area of the first display (250-1). Additionally, the wearable device (101) may display the second image (700-2) through at least a part of the second display area of the second display (250-2). The area (or first display size) of at least a portion of the first display area for the first image (700-1) may correspond to the area (or first display size) of at least a portion of the second display area for the second image (700-2). In this case, the position of at least a portion of the first display area for the first image (700-1) may be different from the position of at least a portion of the second display area for the second image (700-2). For example, the coordinate of a specified position (e.g., the upper left corner) (710) of the first image (700-1) may be (x1, y1), and the coordinate of a specified position (e.g., the upper left corner) (720) of the second image (700-2) may be (x2, y2). Based on the difference between the designated location (710) and the designated location (720), the content having the first size located within the first area can be displayed. In other words, based on the difference, the depth of the content can be identified. For example, the depth of the content can be referenced as in the following mathematical equation.

상기 z는 상기 콘텐트의 상기 가상 환경 내의 깊이를, 상기 b는 사용자의 양안 사이의 거리(baseline)를, 상기 f는 상기 콘텐트가 표시될 디스플레이(520)의 렌즈의 초점 거리(focal length)를, 상기 d는 상기 콘텐트를 위한 이미지들의 차이(disparity)를 나타낼 수 있다. 예를 들어, 상기 이미지들의 차이는, 제1 이미지(700-1)의 지정된 위치(710)의 좌표 x1와 제2 이미지(700-2)의 지정된 위치(720)의 좌표 x2 사이의 차이를 나타낼 수 있다. The above z may represent the depth of the content within the virtual environment, the b may represent the distance between the user's two eyes (baseline), the f may represent the focal length of the lens of the display (520) on which the content will be displayed, and the d may represent the disparity between the images for the content. For example, the disparity between the images may represent the difference between the coordinate x1 of the designated location (710) of the first image (700-1) and the coordinate x2 of the designated location (720) of the second image (700-2).

도 7의 예(750)를 참조하면, 상기 제2 영역 내의 상기 제2 사이즈를 갖는 상기 콘텐트를 표시하기 위하여, 웨어러블 장치(101)는, 제1 디스플레이(250-1)를 통해 제3 이미지(750-1)를 표시하고, 제2 디스플레이(250-2)를 통해 제4 이미지(750-2)를 표시할 수 있다. 예를 들어, 웨어러블 장치(101)는, 제1 디스플레이(250-1)의 제1 표시 영역 중 적어도 일부를 통해 제3 이미지(750-1)를 표시할 수 있다. 또한, 웨어러블 장치(101)는, 제2 디스플레이(250―2)의 제2 표시 영역 중 적어도 일부를 통해 제4 이미지(750-2)를 표시할 수 있다. 제3 이미지(750-1)를 위한 상기 제1 표시 영역의 상기 적어도 일부의 면적(또는 제2 표시 사이즈)은, 제4 이미지(750-2)를 위한 상기 제2 표시 영역의 상기 적어도 일부의 면적(또는 제2 표시 사이즈)과 대응할 수 있다. 다시 말해서, 제1 이미지(700-1) 및 제2 이미지(700-2)를 표시하기 위한 상기 제1 표시 사이즈는, 제3 이미지(750-1) 및 제4 이미지(750-2)를 표시하기 위한 상기 제2 표시 사이즈와 실질적으로 동일할 수 있다. 이 때, 제3 이미지(750-1)를 위한 상기 제1 표시 영역의 상기 적어도 일부의 위치는, 제4 이미지(750-2)를 위한 상기 제2 표시 영역의 상기 적어도 일부의 위치와 상이할 수 있다. 예를 들어, 제3 이미지(750-1)의 지정된 위치(예: 좌측 상단의 꼭지점)(760)의 좌표(coordinate)는 (x3, y3)일 수 있고, 제4 이미지(750-2)의 지정된 위치(예: 좌측 상단의 꼭지점)(770)의 좌표는 (x4, y4)일 수 있다. 지정된 위치(760)와 지정된 위치(770) 사이의 다른(another) 차이(difference)에 기반하여, 상기 제2 영역 내에 위치되는 상기 제2 사이즈를 갖는 상기 콘텐트가 표시될 수 있다. 다시 말해서, 상기 차이에 기반하여, 상기 콘텐트의 깊이가 식별될 수 있다.Referring to example (750) of FIG. 7, in order to display the content having the second size within the second area, the wearable device (101) may display a third image (750-1) through the first display (250-1) and display a fourth image (750-2) through the second display (250-2). For example, the wearable device (101) may display the third image (750-1) through at least a part of the first display area of the first display (250-1). Additionally, the wearable device (101) may display the fourth image (750-2) through at least a part of the second display area of the second display (250-2). The area (or second display size) of at least a portion of the first display area for the third image (750-1) may correspond to the area (or second display size) of at least a portion of the second display area for the fourth image (750-2). In other words, the first display size for displaying the first image (700-1) and the second image (700-2) may be substantially the same as the second display size for displaying the third image (750-1) and the fourth image (750-2). In this case, the position of at least a portion of the first display area for the third image (750-1) may be different from the position of at least a portion of the second display area for the fourth image (750-2). For example, the coordinate of a designated location (e.g., the upper left vertex) (760) of the third image (750-1) may be (x3, y3), and the coordinate of a designated location (e.g., the upper left vertex) (770) of the fourth image (750-2) may be (x4, y4). Based on another difference between the designated location (760) and the designated location (770), the content having the second size positioned within the second area may be displayed. In other words, the depth of the content may be identified based on the difference.

예(700)의 지정된 위치(710)와 지정된 위치(720) 사이의 상기 차이(d1)는, 예(750)의 지정된 위치(760)와 지정된 위치(770) 사이의 상기 다른 차이(d2) 보다 클 수 있다. 예를 들어, 상기 차이(d1)는, (x1, y1) 및 (x2, y2)에 기반하여 식별될 수 있다. 예를 들어, 상기 다른 차이(d2)는, (x3, y3) 및 (x4, y4)에 기반하여 식별될 수 있다. 상술한 예에서, 상기 차이(d1)는 상기 다른 차이(d2) 보다 큰 값일 수 있다. 이는, 상기 제1 영역 내에서 상기 제1 사이즈를 갖는 상기 콘텐트가, 상기 제2 영역 내에서 상기 제2 사이즈를 갖는 상기 콘텐트 보다 가까운 초점 거리에 위치되기 때문일 수 있다. 다시 말해서, 초점 거리가 가까운 경우의 제1 디스플레이(250-1)에서 표시되는 이미지(예: 제1 이미지(700-1))와 제2 디스플레이(250-2)에서 표시되는 이미지(예: 제2 이미지(700-2))는, 초점 거리가 먼 경우의 제1 디스플레이(250-1)에서 표시되는 이미지(예: 제3 이미지(750-1))와 제2 디스플레이(250-2)에서 표시되는 이미지(예: 제4 이미지(750-2)) 보다, 서로 더(further) 상이할 수 있다. 예를 들어, 초점 거리가 가까운 경우의 제1 디스플레이(250-1)에서 표시되는 이미지(예: 제1 이미지(700-1))와 제2 디스플레이(250-2)에서 표시되는 이미지(예: 제2 이미지(700-2))가 표시되는 위치들의 차이는, 초점 거리가 먼 경우의 제1 디스플레이(250-1)에서 표시되는 이미지(예: 제3 이미지(750-1))와 제2 디스플레이(250-2)에서 표시되는 이미지(예: 제4 이미지(750-2))가 표시되는 위치들의 차이보다 클 수 있다. 다만, 상술한 예에서도, 각 이미지가 표시 영역 내에서 차지하는 면적의 크기는 실질적으로 동일하게 유지될 수 있다. 이는, 상기 사용자의 초점 거리가 변경되더라도, 상기 사용자가 인식하는 상기 콘텐트의 크기를 일정하게 유지하기 위함일 수 있다. The difference (d1) between the designated location (710) and the designated location (720) of the example (700) may be greater than the other difference (d2) between the designated location (760) and the designated location (770) of the example (750). For example, the difference (d1) may be identified based on (x1, y1) and (x2, y2). For example, the other difference (d2) may be identified based on (x3, y3) and (x4, y4). In the above example, the difference (d1) may be a value greater than the other difference (d2). This may be because the content having the first size within the first area is positioned at a closer focal distance than the content having the second size within the second area. In other words, when the focal distance is close, the image displayed on the first display (250-1) (e.g., the first image (700-1)) and the image displayed on the second display (250-2) (e.g., the second image (700-2)) may be further different from each other than the image displayed on the first display (250-1) (e.g., the third image (750-1)) and the image displayed on the second display (250-2) (e.g., the fourth image (750-2)) when the focal distance is far. For example, the difference between the positions at which an image (e.g., the first image (700-1)) displayed on a first display (250-1) and an image (e.g., the second image (700-2)) displayed on a second display (250-2) when the focal distance is close may be greater than the difference between the positions at which an image (e.g., the third image (750-1)) displayed on a first display (250-1) and an image (e.g., the fourth image (750-2)) displayed on a second display (250-2) when the focal distance is far. However, even in the example described above, the size of the area occupied by each image within the display area may be maintained substantially the same. This may be to maintain the size of the content recognized by the user constant even if the focal distance of the user changes.

일 실시예에 따르면, 웨어러블 장치(101)는, 디스플레이들(250-1, 250-2)에서 표시되는 이미지를 생성함에 있어서, 스케일링(scaling)을 수행할 수 있다. 예를 들어, 상기 스케일링은, 화면 보간(screen interpolation)으로 참조될 수 있다. 예를 들어, 웨어러블 장치(101)는, 상기 가상 환경 내의 상기 콘텐트의 사이즈가 변경되더라도, 디스플레이들(250-1, 250-2)에서 표시되는 상기 이미지의 사이즈를 실질적으로 동일하게 유지할 수 있다. 이 때, 웨어러블 장치(101)는, 기준 사이즈와 비교하여 상대적으로 큰 사이즈를 갖는 상기 콘텐트를 위한 이미지를 생성함에 있어서 다운 스케일링(down scaling)을 수행할 수 있다. 다시 말해서, 상기 가상 환경 내 상기 제2 사이즈를 갖는 상기 콘텐트를 위한 이미지들(예: 제3 이미지(700-3) 및 제4 이미지(700-2))은, 상기 다운 스케일링에 기반하여 상기 제2 사이즈를 갖는 상기 콘텐트의 일부를 포함할 수 있다. 또는, 이 때, 웨어러블 장치(101)는, 상기 기준 사이즈와 비교하여 상대적으로 작은 사이즈를 갖는 상기 콘텐트를 위한 이미지를 생성함에 있어서 업 스케일링(up scaling)을 수행할 수 있다. 다시 말해서, 상기 가상 환경 내 상기 제1 사이즈를 갖는 상기 콘텐트를 위한 이미지들(예: 제1 이미지(700-1) 및 제2 이미지(700-2))은, 상기 제1 사이즈를 갖는 상기 콘텐트 및 상기 콘텐트의 적어도 일부에 대하여 보간된 부분을 더 포함할 수 있다. 설명의 편의를 위하여, 상기 기준 사이즈가 상기 제1 사이즈와 상기 제2 사이즈 사이의 사이즈인 경우가 예시되나, 본 개시의 실시예가 이에 제한되는 것은 아니다. 예를 들어, 상기 제1 사이즈가 상기 기준 사이즈인 경우, 상기 제1 사이즈를 갖는 상기 콘텐트를 위한 이미지들(예: 제1 이미지(700-1) 및 제2 이미지(700-2))은 스케일링 없이 생성될 수 있다. 이 때, 상기 제2 사이즈를 갖는 상기 콘텐트를 위한 이미지들(예: 제3 이미지(700-3) 및 제4 이미지(700-2))은, 상기 다운 스케일링에 기반하여 생성될 수 있다. According to one embodiment, the wearable device (101) may perform scaling when generating an image to be displayed on the displays (250-1, 250-2). For example, the scaling may be referred to as screen interpolation. For example, the wearable device (101) may maintain the size of the image displayed on the displays (250-1, 250-2) substantially the same even if the size of the content within the virtual environment changes. In this case, the wearable device (101) may perform down scaling when generating an image for the content having a relatively large size compared to a reference size. In other words, the images for the content having the second size in the virtual environment (e.g., the third image (700-3) and the fourth image (700-2)) may include a part of the content having the second size based on the downscaling. Alternatively, at this time, the wearable device (101) may perform upscaling when generating an image for the content having a relatively smaller size compared to the reference size. In other words, the images for the content having the first size in the virtual environment (e.g., the first image (700-1) and the second image (700-2)) may further include an interpolated part for the content having the first size and at least a part of the content. For convenience of explanation, a case is exemplified where the reference size is a size between the first size and the second size, but the embodiments of the present disclosure are not limited thereto. For example, when the first size is the reference size, images for the content having the first size (e.g., the first image (700-1) and the second image (700-2)) can be generated without scaling. In this case, images for the content having the second size (e.g., the third image (700-3) and the fourth image (700-2)) can be generated based on the downscaling.

상술한 바를 참조하면, 본 개시의 실시예에 따른 장치 및 방법은, 사용자의 콘텐트를 이용하는 시청 경험은 유지하면서, 가변적인 초점 거리를 이용하여 콘텐트를 표시할 수 있다. 이에 따라, 본 개시의 실시예에 따른 장치 및 방법은, 사용자가 콘텐트를 시청함에 있어서, 초점 거리를 조정하는 능력이 악화되는 것을 예방할 수 있다. 또한, 본 개시의 실시예에 따른 장치 및 방법은, 초점 거리가 변경되더라도 실질적으로 동일한 콘텐트를 시청하는 것과 같은 사용자 경험을 제공할 수 있다. 또한, 본 개시의 실시예에 따른 장치 및 방법은, 추가적인 리소스(resource)의 소모 없이, 사용자의 시력 보호를 위한 훈련(training)을 수행할 수 있다. 상기 훈련과 관련된 구체적인 내용은, 이하 도 8에서 서술된다.As described above, the device and method according to the embodiment of the present disclosure can display content using a variable focal length while maintaining the user's viewing experience using the content. Accordingly, the device and method according to the embodiment of the present disclosure can prevent the user's ability to adjust the focal length from deteriorating when viewing the content. In addition, the device and method according to the embodiment of the present disclosure can provide a user experience similar to viewing substantially the same content even when the focal length is changed. In addition, the device and method according to the embodiment of the present disclosure can perform training for protecting the user's eyesight without consuming additional resources. Specific details related to the training are described in FIG. 8 below.

도 8은 초점 거리에 대한 능력 정보에 기반하여, 초점 거리를 조정하고, 조정된 결과를 획득하는 방법에 대한 동작 흐름의 예를 도시한다.Figure 8 illustrates an example of an operational flow for a method of adjusting a focal length and obtaining an adjusted result based on capability information about the focal length.

도 8의 상기 방법 중 적어도 일부는, 도 5의 웨어러블 장치(101)에 의해 수행될 수 있다. 예를 들어, 상기 방법 중 적어도 일부는, 웨어러블 장치(101)의 프로세서(120)에 의해 제어될 수 있다.At least some of the above methods of FIG. 8 may be performed by the wearable device (101) of FIG. 5. For example, at least some of the above methods may be controlled by the processor (120) of the wearable device (101).

도 8을 참조하면, 동작(800)에서, 웨어러블 장치(101)는 사용자의 초점 거리에 대한 능력 정보를 획득할 수 있다. 예를 들어, 상기 능력 정보는, 상기 사용자가 상기 초점 거리를 조정하는 능력에 대한 정보를 나타낼 수 있다. 예를 들어, 웨어러블 장치(101)는, 상기 사용자가 웨어러블 장치(101)를 착용하거나 상기 사용자의 입력에 기반하여, 아이 캘리브레이션(eye calibration)을 수행할 수 있다. 예를 들어, 상기 사용자가 웨어러블 장치(101)를 최초로(initial) 착용한 경우, 상기 아이 캘리브레이션이 수행될 수 있다. 상기 아이 캘리브레이션은, 상기 사용자의 상기 능력 정보를 측정하는 기능을 나타낼 수 있다. 예를 들어, 상기 아이 캘리브레이션에 기반하여, 상기 사용자의 초점 거리에 대한 최소 거리 및 최대 거리, 상기 사용자가 선호하는(preferred) 초점 거리를 식별할 수 있다. 상기 사용자가 선호하는 초점 거리는, 상기 사용자의 눈이 가장 빠르고 정확하게 조정하는 초점 거리를 나타낼 수 있다. 상기 최대 거리는, 상기 사용자의 초점 거리에 대한 한계 거리로 참조될 수도 있다.Referring to FIG. 8, in operation (800), the wearable device (101) may obtain capability information on the user's focal length. For example, the capability information may indicate information on the user's capability to adjust the focal length. For example, the wearable device (101) may perform eye calibration when the user wears the wearable device (101) or based on the user's input. For example, when the user initially wears the wearable device (101), the eye calibration may be performed. The eye calibration may indicate a function of measuring the capability information of the user. For example, based on the eye calibration, the minimum distance and maximum distance for the user's focal length and the user's preferred focal length may be identified. The user's preferred focal length may indicate the focal length that the user's eyes adjust most quickly and accurately. The maximum distance may also be referred to as a limit distance for the user's focal length.

동작(805)에서, 웨어러블 장치(101)는, 상기 시력 보호 기능이 활성화된 상태 내에서, 상기 콘텐트를 표시할 수 있다. 예를 들어, 웨어러블 장치(101)는, 상기 가상 환경 내의 지정된 영역 내에서 지정된 사이즈를 갖는 상기 콘텐트를 표시할 수 있다. 웨어러블 장치(101)는, 상기 지정된 영역 내에서 상기 지정된 사이즈를 갖는 상기 콘텐트를 표시하는 동안, 상기 시력 보호 기능이 활성화되었는지 여부를 식별할 수 있다. 상술한 바를 참조하면, 상기 지정된 영역 내에서 상기 지정된 사이즈를 갖는 상기 콘텐트를 표시하는 것은 상기 시력 보호 기능의 활성화 여부를 식별하는 것 보다 먼저 수행되거나, 동시에 수행되거나, 또는 후에 수행될 수 있다. 이하의 예에서는 설명의 편의를 위하여, 제1 영역 내에서 제1 사이즈를 갖는 상기 콘텐트가 표시되는 예가 서술된다.In operation (805), the wearable device (101) may display the content within a state in which the vision protection function is activated. For example, the wearable device (101) may display the content having a specified size within a specified area within the virtual environment. The wearable device (101) may identify whether the vision protection function is activated while displaying the content having the specified size within the specified area. As described above, displaying the content having the specified size within the specified area may be performed before, simultaneously with, or after identifying whether the vision protection function is activated. In the following examples, for convenience of explanation, an example in which the content having a first size within a first area is displayed is described.

동작(810)에서, 웨어러블 장치(101)는, 상기 능력 정보에 기반하여, 상기 콘텐트의 사이즈 및 위치를 변경할 수 있다. 예를 들어, 상기 능력 정보는, 상기 아이 캘리브레이션에 기반하여 획득된 상기 사용자에 대한 상기 능력 정보를 나타낼 수 있다. 일 실시예에 따르면, 웨어러블 장치(101)는, 상기 아이 캘리브레이션에 기반하여 획득한 상기 능력 정보에 기반하여, 상기 콘텐트의 사이즈 및 위치를 변경할 수 있다. 예를 들어 상기 능력 정보가 포함하는 상기 사용자의 초점 거리에 대한 범위에 기반하여, 상기 콘텐트의 사이즈 및 위치를 변경할 수 있다. 예를 들어, 상기 범위는, 상기 사용자의 초점 거리에 대한 상기 최소 거리 및 상기 최대 거리에 기반하여 정의될 수 있다. 예를 들어, 웨어러블 장치(101)는, 상기 제1 영역에 대응하는 초점 거리인 제1 거리로부터 상기 범위 내의 상기 제1 거리와 상이한 제2 거리로 변경할 수 있다. 이 때, 웨어러블 장치(101)는, 상기 제2 거리에 대응하는, 상기 콘텐트의 위치 및 사이즈로 변경할 수 있다. 예를 들어, 웨어러블 장치(101)는, 상기 제2 거리에 대응하는, 상기 콘텐트의 사이즈 및 위치를, 제2 사이즈 및 제2 영역으로 변경할 수 있다. 상기 제2 영역은, 상기 가상 환경 내의 상기 사용자에 대응하는 기준 위치로부터 식별되는 깊이(depth)가 상기 제1 영역과 다를(differ from) 수 있다.In operation (810), the wearable device (101) can change the size and position of the content based on the capability information. For example, the capability information may represent the capability information about the user obtained based on the eye calibration. According to one embodiment, the wearable device (101) can change the size and position of the content based on the capability information obtained based on the eye calibration. For example, the size and position of the content can be changed based on a range of the user's focal distance included in the capability information. For example, the range can be defined based on the minimum distance and the maximum distance of the user's focal distance. For example, the wearable device (101) can change from a first distance, which is a focal distance corresponding to the first region, to a second distance that is different from the first distance within the range. At this time, the wearable device (101) can change the position and size of the content corresponding to the second distance. For example, the wearable device (101) may change the size and location of the content corresponding to the second distance to a second size and a second area. The second area may have a depth identified from a reference location corresponding to the user within the virtual environment that is different from the first area.

일 실시예에 따르면, 상기 콘텐트의 사이즈 및 위치에 대한 상기 변경은, 축소 및 확대를 반복할 수 있다. 예를 들어, 웨어러블 장치(101)는, 상기 콘텐트의 사이즈를 상기 제1 사이즈로부터 상기 제2 사이즈로 확장한 후, 상기 제2 사이즈로부터 상기 제1 사이즈로 다시 축소할 수 있다. 또는, 예를 들어, 웨어러블 장치(101)는, 상기 콘텐트의 사이즈를 상기 제2 사이즈로부터 상기 제1 사이즈로 축소한 후, 상기 제1 사이즈로부터 상기 제2 사이즈로 다시 확대할 수 있다. 또는, 예를 들어, 웨어러블 장치(101)는, 상기 축소 및 상기 확대를 지정된 주기에 따라 반복할 수 있다. In one embodiment, the change in the size and position of the content may be repeated by reducing and enlarging. For example, the wearable device (101) may expand the size of the content from the first size to the second size, and then reduce it from the second size back to the first size. Or, for example, the wearable device (101) may reduce the size of the content from the second size to the first size, and then enlarge it from the first size back to the second size. Or, for example, the wearable device (101) may repeat the reducing and enlarging according to a specified cycle.

동작(815)에서, 웨어러블 장치(101)는, 변경된 콘텐트에 대한 상기 사용자의 초점 거리 조정의 결과를 식별할 수 있다. 일 실시예에 따르면, 웨어러블 장치(101)는, 상기 변경된 위치 및 사이즈에 기반하여 상기 콘텐트를 표시할 수 있다. 예를 들어, 웨어러블 장치(101)는, 상기 제2 영역 내에서 상기 제2 사이즈를 갖는 상기 콘텐트를 표시할 수 있다. 상기 제2 영역 내에서 상기 제2 사이즈를 갖는 상기 콘텐트가 표시되는 동안, 웨어러블 장치(101)는, 상기 사용자의 안구의 움직임(movement)을 식별할 수 있다. 예를 들어, 상기 안구의 움직임에 기반하여, 웨어러블 장치(101)는, 상기 초점 거리 조정의 결과를 식별할 수 있다. 예를 들어, 웨어러블 장치(101)는 상기 안구의 움직임에 따라 식별되는 상기 사용자의 실제 초점 거리를 식별할 수 있다. 웨어러블 장치(101)는, 상기 제2 사이즈를 갖는 상기 콘텐트가 표시되는 상기 제2 영역에 대응하는 상기 제2 거리와 상기 실제 초점 거리 사이의 차이를 포함하는 상기 결과를 획득할 수 있다. 예를 들어, 웨어러블 장치(101)는, 상기 결과에 기반하여, 상기 사용자의 안구가 목표하는 초점 거리(예: 제2 거리)와 얼마나 유사하게 움직였는지 여부를 식별할 수 있다. In operation (815), the wearable device (101) can identify a result of the user's focal length adjustment for the changed content. According to one embodiment, the wearable device (101) can display the content based on the changed position and size. For example, the wearable device (101) can display the content having the second size within the second area. While the content having the second size within the second area is displayed, the wearable device (101) can identify a movement of the user's eyes. For example, based on the movement of the eyes, the wearable device (101) can identify a result of the focal length adjustment. For example, the wearable device (101) can identify an actual focal length of the user identified according to the movement of the eyes. The wearable device (101) can obtain the result including the difference between the second distance corresponding to the second area where the content having the second size is displayed and the actual focal length. For example, the wearable device (101) can identify, based on the result, how similarly the user's eyes have moved to a target focal length (e.g., the second distance).

동작(820)에서, 웨어러블 장치(101)는, 상기 식별된 결과를 저장할 수 있다. 일 실시예에 따르면, 웨어러블 장치(101)는, 상기 식별된 결과를 메모리(130) 내에 저장할 수 있다. 예를 들어, 상기 식별된 결과는, 웨어러블 장치(101)가 상기 제2 영역 내에서 상기 제2 사이즈를 갖는 상기 콘텐트의 사이즈 및 위치를 변경하는 경우에 이용될 수 있다. 다시 말해서, 상기 식별된 결과에 기반하여, 상기 능력 정보가 업데이트 될 수 있다. In operation (820), the wearable device (101) can store the identified result. According to one embodiment, the wearable device (101) can store the identified result in the memory (130). For example, the identified result can be used when the wearable device (101) changes the size and position of the content having the second size within the second area. In other words, the capability information can be updated based on the identified result.

도 8의 상기 방법은 상기 초점 거리에 대한 능력 정보를 측정하고, 측정된 능력 정보에 기반하여 콘텐트의 사이즈 및 위치를 변경하고, 변경된 콘텐트를 표시하는 동안 사용자의 실제 초점 거리를 측정함으로써 조정의 결과를 식별하고, 식별된 결과에 기반하여 상기 능력 정보가 업데이트하는 것을 포함할 수 있다. 다만, 본 개시의 실시예가 이에 제한되는 것은 아니다. 일 실시예에 따르면, 웨어러블 장치(101)는, 상기 콘텐트의 사이즈 및 위치는 상기 능력 정보에 기반하여 식별된 상기 초점 거리에 대한 범위를 벗어나는 초점 거리에 대응하도록 변경할 수 있다. 다시 말해서, 상기 콘텐트의 사이즈 및 위치는, 상기 범위 외의 초점 거리를 갖도록 변경될 수 있다. 상기 범위 외의 초점 거리는 훈련 범위로 참조될 수 있다. 일 실시예에 따르면, 웨어러블 장치(101)는, 상기 훈련 범위 내의 초점 거리로 상기 콘텐트의 사이즈 및 위치를 변경함으로써, 상기 초점 거리의 조정 능력에 대한 훈련을 수행할 수 있다. 예를 들어, 상기 훈련이 수행되는 경우, 웨어러블 장치(101)는, 상기 콘텐트의 사이즈 및 위치가 변경된 상기 훈련 범위에 대한 정보를 획득할 수 있다. 예를 들어, 상기 훈련 범위에 대한 정보는, 상기 훈련 범위 내의 초점 거리 및 상기 훈련 범위 내에서 초점 거리가 상기 범위를 벗어난 거리(length)에 대한 정보를 포함할 수 있다. 또한, 웨어러블 장치(101)는, 상기 훈련에 따른 상기 사용자의 조정 능력이 개선될 것으로 예측되는 정도(degree)를 식별할 수 있다. 일 실시예에 따르면, 웨어러블 장치(101)는, 상기 훈련 범위에 대한 정보 및 상기 정도를 나타내는 시각적 객체를, 디스플레이(520)를 통해 표시할 수 있다. 이에 따라, 상기 사용자는, 상기 사용자의 초점 거리에 대한 조정 능력에 대한 훈련 결과를 확인할 수 있다. The method of FIG. 8 may include measuring capability information for the focal length, changing the size and position of the content based on the measured capability information, measuring the actual focal length of the user while displaying the changed content, thereby identifying the result of the adjustment, and updating the capability information based on the identified result. However, the embodiment of the present disclosure is not limited thereto. According to one embodiment, the wearable device (101) may change the size and position of the content to correspond to a focal length outside the range for the focal length identified based on the capability information. In other words, the size and position of the content may be changed to have a focal length outside the range. The focal length outside the range may be referred to as a training range. According to one embodiment, the wearable device (101) may perform training for the ability to adjust the focal length by changing the size and position of the content to a focal length within the training range. For example, when the training is performed, the wearable device (101) can obtain information about the training range in which the size and location of the content are changed. For example, the information about the training range can include information about the focal length within the training range and the distance (length) by which the focal length within the training range is outside the range. In addition, the wearable device (101) can identify the degree to which the user's adjustment ability is expected to improve according to the training. According to one embodiment, the wearable device (101) can display a visual object representing the information about the training range and the degree through the display (520). Accordingly, the user can check the training result for the user's adjustment ability for the focal length.

일 실시예에 따르면, 웨어러블 장치(101)는, 상기 훈련에 기반하여, 상기 사용자의 시력 교정을 수행할 수 있다. 예를 들어, 웨어러블 장치(101)는, 상기 훈련 범위 내에서 상기 초점 거리에 대한 조정을 수행함으로써, 상기 사용자의 시력 교정을 수행할 수 있다. 일 실시예에 따르면, 웨어러블 장치(101)는, 웨어러블 장치(101)의 모드(mode)에 따라, 상기 훈련을 수행할 수 있다. 예를 들어, 웨어러블 장치(101)는, 상기 모드가 훈련 모드(training mode)임을 식별함에 기반하여, 훈련 기능을 활성화할 수 있다. 상기 훈련 기능을 활성화하는 것은, 상기 훈련을 수행하는 것으로 참조될 수 있다. 이와 달리, 웨어러블 장치(101)는, 상기 모드가 다른 모드(예: 일반 모드(normal mode) 또는 컨텐트 집중 모드(content concentration mode))임을 식별함에 기반하여, 상기 훈련 기능을 비활성화할 수 있다. 상기 훈련 기능을 비활성화하는 것은, 상기 훈련을 삼가하는(refrain from) 것 또는 생략하는(skip) 것으로 참조될 수 있다. 또한, 일 실시예에 따르면, 웨어러블 장치(101)는, 지정된 기능이 실행됨을 식별함에 기반하여, 상기 훈련 기능을 비활성화할 수 있다. 예를 들어, 상기 지정된 기능은, 상기 사용자의 눈 보호(eye protection)를 위한 기능을 포함할 수 있다. 예를 들어, 상기 지정된 기능은, 웨어러블 장치(101)의 디스플레이(예: 디스플레이들(250-1, 250-2))를 통해 표시되는 화면에 대한 블루라이트 필터(blue light filter) 기능을 포함할 수 있다. 또는, 예를 들어, 상기 지정된 기능은, 웨어러블 장치(101)의 디스플레이(예: 디스플레이들(250-1, 250-2))를 표시되는 화면에 대한 야간 모드(night mode)(또는 다크 모드(dark mode))를 포함할 수 있다. 또는, 예를 들어, 상기 지정된 기능은, 웨어러블 장치(101)의 배터리 소모를 줄이기 위한 저전력 모드를 포함할 수 있다. 다만, 본 개시의 실시예가 이에 제한되는 것은 아니다. 또한, 일 실시예에 따르면, 웨어러블 장치(101)는, 사용 시간에 기반하여, 상기 훈련 기능을 비활성화할 수 있다. 예를 들어, 상기 사용 시간은, 상기 사용자가 웨어러블 장치(101)를 통해 제공되는 상기 가상 환경을 이용한 시간을 나타낼 수 있다. 예를 들어, 웨어러블 장치(101)는, 상기 사용 시간이 기준 사용 시간을 초과하는 경우, 상기 훈련 기능을 비활성화할 수 있다. 이는, 상기 사용자의 시력 보호를 위함일 수 있다. In one embodiment, the wearable device (101) may perform vision correction of the user based on the training. For example, the wearable device (101) may perform vision correction of the user by performing adjustment of the focal length within the training range. In one embodiment, the wearable device (101) may perform the training according to a mode of the wearable device (101). For example, the wearable device (101) may activate a training function based on identifying that the mode is a training mode. Activating the training function may be referred to as performing the training. Alternatively, the wearable device (101) may deactivate the training function based on identifying that the mode is another mode (e.g., a normal mode or a content concentration mode). Disabling the training function may be referred to as refraining from or skipping the training. In addition, according to one embodiment, the wearable device (101) may disable the training function based on identifying that a designated function is being executed. For example, the designated function may include a function for eye protection of the user. For example, the designated function may include a blue light filter function for a screen displayed through a display of the wearable device (101) (e.g., displays (250-1, 250-2)). Or, for example, the designated function may include a night mode (or dark mode) for a screen displayed through the display of the wearable device (101) (e.g., displays (250-1, 250-2)). Or, for example, the designated function may include a low power mode for reducing battery consumption of the wearable device (101). However, the embodiment of the present disclosure is not limited thereto. In addition, according to one embodiment, the wearable device (101) may deactivate the training function based on the usage time. For example, the usage time may represent the time that the user uses the virtual environment provided through the wearable device (101). For example, the wearable device (101) may deactivate the training function when the usage time exceeds the reference usage time. This may be for the purpose of protecting the user's eyesight.

도 9는 가상 환경 내에서 초점 거리(focal length)에 따라 다른 사이즈를 갖는 콘텐트(content)를 표시하는 방법에 대한 흐름도의 예를 도시한다.Figure 9 illustrates an example flowchart of a method for displaying content having different sizes depending on focal length within a virtual environment.

도 9의 상기 방법 중 적어도 일부는, 도 5의 웨어러블 장치(101)에 의해 수행될 수 있다. 예를 들어, 상기 방법 중 적어도 일부는, 웨어러블 장치(101)의 프로세서(120)에 의해 제어될 수 있다.At least some of the above methods of FIG. 9 may be performed by the wearable device (101) of FIG. 5. For example, at least some of the above methods may be controlled by the processor (120) of the wearable device (101).

도 9를 참조하면, 동작(900)에서, 웨어러블 장치(101)는 가상 환경의 제1 영역 내에서 제1 사이즈를 갖는 콘텐트를 표시할 수 있다. 일 실시예에 따르면, 웨어러블 장치(101)는, 상기 제1 영역 내에서 상기 제1 사이즈를 갖는 상기 콘텐트를 표시하기 위한 입력을 획득할 수 있다. 예를 들어, 웨어러블 장치(101)는, 상기 가상 환경을 제공하기 위한 소프트웨어 어플리케이션의 실행에 응답하여, 상기 가상 환경을 표시할 수 있다. 예를 들어, 상기 소프트웨어 어플리케이션은, 상기 가상 환경을 제공하는 하나의 서비스의 예를 나타낼 수 있다. 예를 들어, 상기 소프트웨어 어플리케이션이 실행된 상태 내에서, 웨어러블 장치(101)는, 상기 콘텐트를 표시하기 위한 입력을 획득할 수 있다. 예를 들어, 상기 입력은, 웨어러블 장치(101)를 착용한 사용자(user)의 사용자 입력을 포함할 수 있다. Referring to FIG. 9, in operation (900), the wearable device (101) may display content having a first size within a first area of a virtual environment. According to one embodiment, the wearable device (101) may obtain an input for displaying the content having the first size within the first area. For example, the wearable device (101) may display the virtual environment in response to the execution of a software application for providing the virtual environment. For example, the software application may represent an example of a service providing the virtual environment. For example, in a state where the software application is executed, the wearable device (101) may obtain an input for displaying the content. For example, the input may include a user input of a user wearing the wearable device (101).

일 실시예에 따르면, 웨어러블 장치(101)는, 상기 입력에 기반하여, 상기 제1 영역 내에서 상기 제1 사이즈를 갖는 상기 콘텐트를 표시할 수 있다. 예를 들어, 상기 제1 영역은, 상기 사용자에 의해 설정된, 상기 콘텐트가 표시될 초기 영역으로 참조될 수 있다. 예를 들어, 상기 제1 사이즈는, 상기 사용자에 의해 설정된, 상기 콘텐트가 표시되는 초기 사이즈로 참조될 수 있다. 예를 들어, 상기 제1 사이즈(또는 상기 초기 사이즈)는, 상기 사용자가 상기 콘텐트를 바라보는 방향에 대한(with respect to) 상기 콘텐트의 면적을 나타낼 수 있다. 예를 들어, 상기 제1 영역은, 상기 사용자의 초점 거리가 제1 거리인 상기 가상 환경 내의 위치를 나타낼 수 있다. 일 실시예에 따르면, 웨어러블 장치(101)는, 상기 제1 사이즈 및 제1 영역에 기반하여, 상기 콘텐트를 표시하기 위한 이미지(또는 이미지들)를 렌더링할 수 있다. 상기 렌더링된 이미지가 디스플레이(520)의 표시 영역을 통해 표시됨으로써, 상기 제1 영역 내에서 상기 제1 사이즈를 갖는 상기 콘텐트가 표시될 수 있다.According to one embodiment, the wearable device (101) may display the content having the first size within the first area based on the input. For example, the first area may be referred to as an initial area set by the user where the content is to be displayed. For example, the first size may be referred to as an initial size set by the user where the content is to be displayed. For example, the first size (or the initial size) may represent an area of the content with respect to a direction in which the user views the content. For example, the first area may represent a location within the virtual environment where the user's focal length is the first distance. According to one embodiment, the wearable device (101) may render an image (or images) for displaying the content based on the first size and the first area. By displaying the rendered image through the display area of the display (520), the content having the first size can be displayed within the first area.

일 실시예에 따르면, 상기 제1 영역 내에서 상기 제1 사이즈를 갖는 상기 콘텐트는, 웨어러블 장치(101)의 디스플레이(520)의 표시 영역 중에서 적어도 일부를 통해 표시될 수 있다. 예를 들어, 상기 표시 영역은, 디스플레이(520)를 통해 이미지(image)가 표시될 수 있는 전체 영역을 나타낼 수 잇다. 예를 들어, 상기 적어도 일부는, 상기 표시 영역 중에서 상기 제1 영역 내에서 상기 제1 사이즈를 갖는 상기 콘텐트를 표시하기 위한 표시 영역의 일부 영역을 나타낼 수 있다. 디스플레이(520)가 복수의 디스플레이들(예: 도 2의 제1 디스플레이(250-1) 및 제2 디스플레이(250-2))(또는 표시 영역들)을 포함하는 경우, 웨어러블 장치(101)는, 제1 디스플레이(250-1)의 제1 표시 영역 중에서 적어도 일부를 통해 제1 이미지 및 제2 디스플레이(250-2)의 제2 표시 영역 중에서 적어도 일부를 통해 제2 이미지를 표시할 수 있다. 상기 제1 이미지 및 상기 제2 이미지는, 상기 제1 영역 내에서 상기 제1 사이즈를 갖는 상기 콘텐트를 표시하기 위한 이미지를 나타낼 수 있다. 예를 들어, 상기 제1 표시 영역은, 상기 사용자의 좌안에 대하여(with respect to) 위치될 수 있다. 예를 들어, 상기 제2 표시 영역은, 상기 사용자의 우안에 대하여 위치될 수 있다. 상기 좌안 또는 우안에 대하여 위치되는 것은, 상기 사용자의 좌안 또는 우안을 통해 볼 수 있는 영역에 위치됨을 나타낼 수 있다. 상술한 예에서는, 양안 시차(binocular parallax)를 이용하여 상기 콘텐트 및 상기 콘텐트의 깊이(depth)를 나타내는 방법을 이용하는 웨어러블 장치(101)의 예가 서술되나, 본 개시의 실시예가 이에 제한되는 것은 아니다. 예를 들어, 가변 초점 렌즈를 포함하는 웨어러블 장치(101)는, 양안 시차를 이용하지 않더라도, 디스플레이(520) 내부의 상기 가변 초점 렌즈를 이용하여 상이한 깊이(또는 초점 거리)를 갖는 콘텐트를 표시할 수도 있다.According to one embodiment, the content having the first size within the first area may be displayed through at least a portion of a display area of the display (520) of the wearable device (101). For example, the display area may represent the entire area in which an image may be displayed through the display (520). For example, the at least a portion may represent a portion of a display area for displaying the content having the first size within the first area among the display areas. When the display (520) includes a plurality of displays (e.g., the first display (250-1) and the second display (250-2) of FIG. 2) (or display areas), the wearable device (101) may display the first image through at least a portion of the first display area of the first display (250-1) and the second image through at least a portion of the second display area of the second display (250-2). The first image and the second image may represent images for displaying the content having the first size within the first area. For example, the first display area may be positioned with respect to the user's left eye. For example, the second display area may be positioned with respect to the user's right eye. Positioning with respect to the left or right eye may indicate that it is positioned in an area viewable through the user's left or right eye. In the above-described example, an example of a wearable device (101) that uses a method of representing the content and the depth of the content using binocular parallax is described, but the embodiments of the present disclosure are not limited thereto. For example, a wearable device (101) including a variable focus lens may display content having different depths (or focal lengths) by using the variable focus lens within the display (520) even without using binocular parallax.

동작(905)에서, 웨어러블 장치(101)는, 응시 시간이 기준 응시 시간 이상인지 여부를 식별할 수 있다. 예를 들어, 웨어러블 장치(101)는, 상기 콘텐트를 응시하는 상기 응시 시간이 상기 기준 응시 시간 이상인지 여부를 식별할 수 있다. 예를 들어, 웨어러블 장치(101)는, 상기 콘텐트가 표시되는 시간이 기준 시간 이상임을 인식한 이후, 상기 응시 시간이 상기 기준 응시 시간 이상인지 여부를 결정할 수 있다. 다만, 본 개시의 실시예가 이에 제한되는 것은 아니다. 예를 들어, 웨어러블 장치(101)는, 상기 시간과 상기 기준 시간의 비교를 수행하지 않고, 상기 응시 시간이 상기 기준 응시 시간 이상인지 여부를 식별할 수 있다. 또는, 예를 들어, 웨어러블 장치(101)는, 상기 시간과 상기 기준 시간 사이의 비교 및 상기 응시 시간이 상기 기준 응시 시간 사이의 비교를 함께 수행할 수 있다In operation (905), the wearable device (101) can identify whether the gaze time is longer than the reference gaze time. For example, the wearable device (101) can identify whether the gaze time of gazing at the content is longer than the reference gaze time. For example, after recognizing that the time for which the content is displayed is longer than the reference time, the wearable device (101) can determine whether the gaze time is longer than the reference gaze time. However, the embodiment of the present disclosure is not limited thereto. For example, the wearable device (101) can identify whether the gaze time is longer than the reference gaze time without performing a comparison between the time and the reference time. Or, for example, the wearable device (101) can perform a comparison between the time and the reference time and a comparison between the gaze time and the reference gaze time together.

일 실시예에 따르면, 웨어러블 장치(101)는 시력 보호 기능이 활성화되었는지 여부를 식별할 수 있다. 상기 시력 보호 기능은, 상기 사용자의 시력 보호를 위하여, 상기 콘텐트의 상기 가상 환경 내의 위치 및 사이즈를 변경하는 기능을 나타낼 수 있다. 이 때, 상기 콘텐트의 상기 위치 및 상기 사이즈가 변경됨에 따라, 상기 사용자가 상기 콘텐트를 시청하는 동안의 초점 거리는 변경될 수 있다. 또한, 상기 사용자가 상기 콘텐트를 시청하는 동안, 상기 콘텐트의 상기 위치에 기반하여 상기 사이즈가 변경됨에 따라, 상기 사용자가 인식(recognition)하는 상기 콘텐트가 외부로 표시되는 사이즈는 일정하게 유지될 수 있다. 상기 외부로 표시되는 사이즈는, 디스플레이(520)의 표시 영역 대비 상기 콘텐트를 위한 영역(예: 상기 적어도 일부)의 비율(또는 해상도)에 기반하여 식별될 수 있다. 다시 말해서, 상기 가상 환경 내의 상기 콘텐트의 상기 위치 및 상기 사이즈는 변경되더라도, 상기 콘텐트가 외부로 표시되는 사이즈는 일정하게 유지될 수 있다. 따라서, 상기 사용자가 상기 콘텐트 시청하는 동안의 상기 사용자의 시청 경험은 일정하게 유지되면서, 상기 사용자의 초점 거리는 동적으로 변경될 수 있다. 이에 따라, 상기 동적인 초점 거리에 따라, 상기 사용자의 시력은 보호될 수 있다. According to one embodiment, the wearable device (101) can identify whether the vision protection function is activated. The vision protection function can indicate a function of changing the position and size of the content within the virtual environment in order to protect the user's eyesight. At this time, as the position and the size of the content are changed, the focal length while the user views the content can be changed. In addition, as the size is changed based on the position of the content while the user views the content, the size of the content recognized by the user in which it is displayed externally can be maintained constant. The size of the externally displayed can be identified based on the ratio (or resolution) of the area for the content (e.g., at least a portion) to the display area of the display (520). In other words, even if the position and the size of the content within the virtual environment are changed, the size of the content in which it is displayed externally can be maintained constant. Accordingly, while the user's viewing experience while viewing the content remains constant, the user's focal length can be dynamically changed. Accordingly, the user's eyesight can be protected according to the dynamic focal length.

일 실시예에 따르면, 웨어러블 장치(101)는, 상기 가상 환경을 제공하는 상기 소프트웨어 어플리케이션 내에서 상기 시력 보호 기능이 활성화되었는지 여부를 식별할 수 있다. 일 실시예에 따르면, 웨어러블 장치(101)는, 웨어러블 장치(101)의 설정(setting) 내에서 상기 시력 보호 기능이 활성화되었는지 여부를 식별할 수 있다. 다시 말해서, 상기 시력 보호 기능은, 소프트웨어 어플리케이션 별 또는 전체 소프트웨어 어플리케이션들에 대하여 적용될 수 있다. 또한, 예를 들어, 상기 시력 보호 기능은, 콘텐트 별로 설정될 수도 있다.According to one embodiment, the wearable device (101) can identify whether the vision protection function is activated within the software application providing the virtual environment. According to one embodiment, the wearable device (101) can identify whether the vision protection function is activated within the setting of the wearable device (101). In other words, the vision protection function can be applied to each software application or to all software applications. In addition, for example, the vision protection function can be set for each content.

일 실시예에 따르면, 상기 시력 보호 기능이 활성화된 경우, 웨어러블 장치(101)는, 상기 응시 시간이 상기 기준 응시 시간 이상인지 여부를 식별할 수 있다. 일 실시예에 따르면, 웨어러블 장치(101)는, 상기 시력 보호 기능이 활성화됨을 식별함에 응답하여, 상기 응시 시간이 상기 기준 응시 시간 이상인지 여부를 식별할 수 있다. 예를 들어, 상기 응시 시간은, 카메라(510)를 통해 추적된(tracked) 상기 사용자의 시선(gaze)이 상기 콘텐트에 대응하는 영역 내에 위치되는 시간을 나타낼 수 있다. 예를 들어, 상기 콘텐트에 대응하는 영역은, 상기 표시 영역 중에서 상기 적어도 일부를 나타낼 수 있다. In one embodiment, when the vision protection function is activated, the wearable device (101) can identify whether the gaze time is greater than or equal to the reference gaze time. In one embodiment, the wearable device (101) can identify whether the gaze time is greater than or equal to the reference gaze time in response to identifying that the vision protection function is activated. For example, the gaze time may represent a time during which the user's gaze tracked through the camera (510) is located within an area corresponding to the content. For example, the area corresponding to the content may represent at least a portion of the display area.

일 실시예에 따르면, 상기 기준 응시 시간은, 상기 사용자가 초점 거리를 조정하는 능력 정보 또는 상기 콘텐트의 특성(characteristic) 중 적어도 하나에 기반하여 식별될 수 있다. 상기 능력 정보는, 상기 사용자의 초점 거리 조정과 관련된 반응 속도, 상기 사용자의 초점 거리에 대한 최소 거리(minimum length) 및 최대 거리(maximum length), 또는 상기 사용자가 선호하는(preferred) 초점 거리 중 적어도 하나를 포함할 수 있다. 예를 들어, 상기 콘텐츠의 특성은, 상기 콘텐츠의 재생 속도(play speed) 또는 상기 콘텐츠의 타입(type) 중 적어도 하나를 포함할 수 있다. 상기 콘텐츠의 타입은, 글이나 그림과 같은 정적인(static) 타입 또는 동영상과 같은 동적인(dynamic) 타입을 포함할 수 있다. 예를 들어, 상기 기준 응시 시간은, 상기 반응 속도가 느린 사람(예: 노인)인 경우, 상기 반응 속도가 빠른 사람(예: 청년)에 비해 길게 설정될 수 있다. 또는, 상기 기준 응시 시간은, 상기 콘텐트가 동적(또는 재생 속도가 빠른 경우)인 경우, 상기 콘텐트가 정적(또는 재생 속도가 느린 경우)인 경우에 비해 길게 설정될 수 있다. According to one embodiment, the reference gaze time may be identified based on at least one of the user's ability information for adjusting the focal length or the characteristic of the content. The ability information may include at least one of the user's reaction speed related to the focal length adjustment, the minimum length and the maximum length for the user's focal length, or the user's preferred focal length. For example, the characteristic of the content may include at least one of the play speed of the content or the type of the content. The type of the content may include a static type such as text or an image or a dynamic type such as a video. For example, the reference gaze time may be set longer for a person with a slow reaction speed (e.g., an elderly person) than for a person with a fast reaction speed (e.g., a young person). Alternatively, the reference gaze time may be set longer for a person with a dynamic content (or a fast play speed) than for a person with a static content (or a slow play speed).

이와 달리, 일 실시예에 따르면, 상기 시력 보호 기능이 비활성화된 경우, 웨어러블 장치(101)는, 상기 콘텐트의 사이즈 및 위치를 유지할 수 있다. 예를 들어, 웨어러블 장치(101)는, 상기 콘텐트의 사이즈를 상기 제1 사이즈로, 상기 위치를 상기 제1 영역으로 유지할 수 있다. 예를 들어, 웨어러블 장치(101)는, 상기 시력 보호 기능이 비활성화됨을 식별함에 응답하여, 상기 제1 영역 내에서 상기 제1 사이즈를 갖는 상기 콘텐트를 표시하는 상태를 유지할 수 있다. In contrast, according to one embodiment, when the vision protection function is deactivated, the wearable device (101) may maintain the size and position of the content. For example, the wearable device (101) may maintain the size of the content as the first size and the position as the first area. For example, the wearable device (101) may maintain a state of displaying the content having the first size within the first area in response to identifying that the vision protection function is deactivated.

동작(910)에서, 웨어러블 장치(101)는, 제2 영역 내에서 제2 사이즈를 갖는 콘텐트를 표시할 수 있다. 예를 들어, 웨어러블 장치(101)는, 상기 응시 시간이 상기 기준 응시 시간 이상임을 식별함에 기반하여, 상기 제1 영역과 상기 가상 환경 내의 상기 사용자에 대응하는 기준 위치로부터 식별되는 깊이(depth)가 다른(differ from) 제2 영역 내에서 상기 제1 사이즈와 다른(different) 제2 사이즈를 갖는 상기 콘텐트를, 상기 디스플레이의 상기 적어도 일부를 통해, 표시할 수 있다. In operation (910), the wearable device (101) may display content having a second size within a second area. For example, the wearable device (101) may display, through at least a portion of the display, the content having a second size different from the first size within a second area having a different depth from the first area and a reference location corresponding to the user within the virtual environment, based on identifying that the gaze time is greater than or equal to the reference gaze time.

일 실시예에 따르면, 웨어러블 장치(101)는, 상기 콘텐트의 사이즈 및 위치를 변경할 수 있다. 예를 들어, 웨어러블 장치(101)는, 상기 응시하는 상기 응시 시간이 상기 기준 응시 시간 이상임을 식별함에 응답하여, 상기 콘텐트의 사이즈 및 위치를 변경할 수 있다. 예를 들어, 웨어러블 장치(101)는, 상기 콘텐트의 상기 제1 사이즈 및 상기 제1 영역을, 상기 제1 사이즈와 다른 상기 제2 사이즈 및 상기 제1 영역과 다른 상기 제2 영역으로 각각 변경할 수 있다. In one embodiment, the wearable device (101) can change the size and position of the content. For example, the wearable device (101) can change the size and position of the content in response to identifying that the gaze time of the gaze is greater than or equal to the reference gaze time. For example, the wearable device (101) can change the first size and the first area of the content to the second size and the second area, which are different from the first size and different from the first area, respectively.

일 실시예에 따르면, 웨어러블 장치(101)는, 상기 능력 정보에 기반하여 상기 제2 사이즈 및 상기 제2 영역을 식별할 수 있다. 예를 들어, 웨어러블 장치(101)는, 상기 사용자가 선호하는 초점 거리를 포함하는 상기 능력 정보에 기반하여, 상기 제2 영역 및 상기 제2 사이즈를 식별할 수 있다. 예를 들어, 상기 제2 영역은, 상기 사용자가 선호하는 초점 거리로 변경하기 위하여, 상기 제1 영역으로부터 변경되는 영역을 나타낼 수 있다. 예를 들어, 상기 제2 영역은, 상기 제1 영역으로부터 선형적으로 변경되는, 상기 초점 거리가 제2 거리를 나타내는 상기 가상 환경 내의 위치를 나타낼 수 있다. 상기 제2 거리는, 상기 사용자가 선호하는 초점 거리 또는 상기 제1 거리와 상기 사용자가 선호하는 초점 거리 사이의 초점 거리를 나타낼 수 있다. 예를 들어, 상기 가상 환경 내의 상기 사용자에 대응하는 기준 위치로부터 상기 제2 거리가 상기 제1 거리 보다 먼 경우, 상기 제2 사이즈는 상기 제1 사이즈보다 클 수 있다. 다시 말해서, 상기 제2 사이즈는 상기 제1 사이즈로부터 확대될 수 있다. 이와 달리, 상기 가상 환경 내의 상기 사용자에 대응하는 기준 위치로부터 상기 제2 거리가 상기 제1 거리 보다 가까운 경우, 상기 제2 사이즈는 상기 제1 사이즈보다 작을 수 있다. 다시 말해서, 상기 제2 사이즈는 상기 제1 사이즈로부터 축소될 수 있다. 상술한 경우에서도, 상기 사용자가 인식하는 상기 콘텐트가 외부로 표시되는 사이즈는 일정하게 유지될 수 있다.In one embodiment, the wearable device (101) can identify the second size and the second area based on the capability information. For example, the wearable device (101) can identify the second area and the second size based on the capability information including the user's preferred focal length. For example, the second area can represent an area that changes from the first area in order to change to the user's preferred focal length. For example, the second area can represent a location in the virtual environment where the focal length linearly changes from the first area, indicating a second distance. The second distance can represent the user's preferred focal length or a focal length between the first distance and the user's preferred focal length. For example, when the second distance from a reference location corresponding to the user in the virtual environment is further than the first distance, the second size can be larger than the first size. In other words, the second size can be enlarged from the first size. In contrast, if the second distance from the reference position corresponding to the user in the virtual environment is closer than the first distance, the second size may be smaller than the first size. In other words, the second size may be reduced from the first size. Even in the above-described case, the size at which the content recognized by the user is displayed externally may be maintained constant.

도 9의 예에서는, 상기 콘텐트를 응시하는 상기 응시 시간이 상기 기준 응시 시간 이상인 경우를 식별함에 응답하여 상기 콘텐트의 사이즈 및 위치를 변경하는 예가 도시되나, 본 개시의 실시예가 이에 제한되는 것은 아니다. 일 실시예에 따르면, 웨어러블 장치(101)는 다른 조건에 기반하여, 상기 콘텐트의 사이즈 및 위치에 대한 변경 여부를 식별할 수 있다. 예를 들어, 웨어러블 장치(101)는, 상기 콘텐트에 대하여 상기 시력 보호 기능이 설정된 경우, 상기 콘텐트의 사이즈 및 위치를 변경하는 것으로 식별할 수 있다. 예를 들어, 상기 콘텐트가 웹 페이지(web page)인 경우, 일반적으로 상기 웹 페이지는 지정된 시간 동안 응시하는 방식으로 이용되는 바, 상기 콘텐트에 대하여 상기 시력 보호 기능이 설정될 수 있다. 또한, 예를 들어, 웨어러블 장치(101)는, 상기 콘텐트가 디스플레이(520) 상에 플로팅되는(floated) 시각적 객체인지 여부를 식별할 수 있다. 예를 들어, 상기 플로팅되는 시각적 객체는, 상기 가상 환경 내의 위치와 상관없이, 디스플레이(520)의 표시 영역의 일부에서 항상 표시되는 객체를 나타낼 수 있다. 상기 콘텐트가 상기 플로팅되는 시각적 객체인 경우, 웨어러블 장치(101)는, 상기 콘텐트의 사이즈 및 위치를 변경할 수 있다. In the example of FIG. 9, an example of changing the size and position of the content in response to identifying that the gaze time of gazing at the content is longer than the reference gaze time is illustrated, but the embodiment of the present disclosure is not limited thereto. According to one embodiment, the wearable device (101) may identify whether to change the size and position of the content based on other conditions. For example, the wearable device (101) may identify that the size and position of the content are changed when the eye protection function is set for the content. For example, when the content is a web page, the eye protection function may be set for the content since the web page is generally used in a manner of gazing at for a specified time. In addition, for example, the wearable device (101) may identify whether the content is a visual object floating on the display (520). For example, the floating visual object may represent an object that is always displayed in a portion of the display area of the display (520), regardless of its location within the virtual environment. If the content is the floating visual object, the wearable device (101) may change the size and location of the content.

또한, 도 9에서는, 상기 콘텐트가 멀어지면서 확대되거나 가까워지면서 축소되는 예가 서술되었으나 본 개시의 실시예가 이에 제한되는 것은 아니다. 예를 들어, 상기 능력 정보에 포함되는 상기 사용자의 초점 거리에 대한 최소 거리 및 최대 거리에 의해 정의되는 초점 거리의 범위 내에서, 상기 콘텐트의 축소 및 확대가 반복될 수 있다. 다시 말해서, 웨어러블 장치(101)는, 상기 콘텐트의 위치 및 사이즈를 상기 범위 내에서 변경하여 표시할 수 있다. In addition, in FIG. 9, an example in which the content is enlarged as it gets farther away or reduced as it gets closer is described, but the embodiment of the present disclosure is not limited thereto. For example, within a range of focal distances defined by the minimum distance and maximum distance of the focal distance of the user included in the capability information, the reduction and enlargement of the content may be repeated. In other words, the wearable device (101) may change the location and size of the content and display it within the range.

일 실시예에 따르면, 웨어러블 장치(101)는, 변경된 상기 제2 사이즈 및 상기 제2 영역에 기반하여, 상기 콘텐트를 표시할 수 있다. 예를 들어, 웨어러블 장치(101)는, 상기 제2 영역 내에서 상기 제2 사이즈를 갖는 상기 콘텐트를 표시할 수 있다. 일 실시예에 따르면, 웨어러블 장치(101)는, 상기 변경된 사이즈 및 위치에 기반하여, 상기 콘텐트를 표시하기 위한 이미지(또는 이미지들)를 렌더링할 수 있다. 상기 렌더링된 이미지가 디스플레이(520)의 표시 영역을 통해 표시됨으로써, 상기 제2 영역 내에서 상기 제2 사이즈를 갖는 상기 콘텐트가 표시될 수 있다. According to one embodiment, the wearable device (101) may display the content based on the changed second size and the second area. For example, the wearable device (101) may display the content having the second size within the second area. According to one embodiment, the wearable device (101) may render an image (or images) for displaying the content based on the changed size and position. The rendered image may be displayed through the display area of the display (520), thereby displaying the content having the second size within the second area.

일 실시예에 따르면, 웨어러블 장치(101)는, 상기 콘텐트의 위치가 상기 제1 영역으로부터 상기 제2 영역으로 변경되는 동안, 상기 콘텐트의 z-인덱스(z-index)를 나타내는 값을 유지할 수 있다. 예를 들어, 웨어러블 장치(101)는, 상기 콘텐트의 위치가 상기 제1 영역으로부터 상기 제2 영역으로 변경되는 동안, 상기 값을 상기 제1 영역과 상기 제2 영역 사이에 위치되는 제2 콘텐트의 z-인덱스를 나타내는 제2 값보다 높은 값으로 설정할 수 있다. 다시 말해서, 상기 콘텐트의 z-인덱스를 나타내는 상기 값은, 상기 다제2 콘텐트의 z-인덱스를 나타내는 상기 제2 값보다 높은 값일 수 있다. 예를 들어, 상기 z-인덱스는, 높은 값을 가질수록, 상기 가상 환경 내의 상기 사용자에 대응하는 기준 위치에 가깝게 표시될 수 있다. 상기 설정에 기반하여, 상기 콘텐트의 위치가 상기 제1 영역으로부터 상기 제2 영역으로 변경됨에 따라 상기 제2 콘텐트가 상기 콘텐트 상(on)에 표시되는 것을 예방할 수 있다. 일 실시예에 따르면, 웨어러블 장치(101)는, z-인덱스에 기반하여, 상기 콘텐트를 렌더링함으로써, 표시할 수 있다. 예를 들어, 상기 제2 콘텐트의 상기 제2 값이 상기 콘텐트의 상기 값보다 낮기 때문에, 웨어러블 장치(101)는 상기 콘텐트만 렌더링할 수 있다. 이에 따라, 웨어러블 장치(101)는, 상기 콘텐트만 표시될 수 있다. 또는, 예를 들어, 웨어러블 장치(101)는, 상기 콘텐트 및 상기 제2 콘텐트를 모두 렌더링한 후, 상기 콘텐트보다 낮은 z-인덱스를 갖는 상기 제2 콘텐트는 표시하는 것을 삼가하고(refrain from), 상기 콘텐트만 표시할 수도 있다. According to one embodiment, the wearable device (101) may maintain a value indicating a z-index of the content while the location of the content is changed from the first area to the second area. For example, the wearable device (101) may set the value to a value higher than a second value indicating a z-index of second content positioned between the first area and the second area while the location of the content is changed from the first area to the second area. In other words, the value indicating the z-index of the content may be a value higher than the second value indicating the z-index of the second content. For example, the higher the z-index, the closer it may be displayed to a reference location corresponding to the user within the virtual environment. Based on the above setting, the second content can be prevented from being displayed on the content as the location of the content changes from the first area to the second area. According to one embodiment, the wearable device (101) can display the content by rendering it based on the z-index. For example, since the second value of the second content is lower than the value of the content, the wearable device (101) can render only the content. Accordingly, the wearable device (101) can display only the content. Alternatively, for example, after rendering both the content and the second content, the wearable device (101) can refrain from displaying the second content having a lower z-index than the content, and display only the content.

일 실시예에 따르면, 상기 제2 영역 내에서 상기 제2 사이즈를 갖는 상기 콘텐트는, 웨어러블 장치(101)의 디스플레이(520)의 표시 영역 중에서 상기 적어도 일부를 통해 표시될 수 있다. 상기 제2 영역 내에서 상기 제2 사이즈를 갖는 상기 콘텐트를 표시하기 위한 상기 적어도 일부는, 상기 제1 영역 내에서 상기 제1 사이즈를 갖는 상기 콘텐트를 표시하기 위한 상기 적어도 일부와 대응할 수 있다. 다시 말해서, 상기 제2 영역 내에서 상기 제2 사이즈를 갖는 상기 콘텐트를 표시하기 위한 상기 적어도 일부의 면적은, 상기 제1 영역 내에서 상기 제1 사이즈를 갖는 상기 콘텐트를 표시하기 위한 상기 적어도 일부의 면적과 대응할 수 있다. 그러나, 상기 제2 영역 내에서 상기 제2 사이즈를 갖는 상기 콘텐트를 표시하기 위한 이미지(또는 이미지들)은, 상기 제1 영역 내에서 상기 제1 사이즈를 갖는 상기 콘텐트를 표시하기 위한 이미지(또는 이미지들)과 상이할 수 있다. 예를 들어, 상기 제2 영역 내에서 상기 제2 사이즈를 갖는 상기 콘텐트를 표시하기 위한 이미지(또는 이미지들)의 상기 표시 영역 내의 위치는, 상기 제1 영역 내에서 상기 제1 사이즈를 갖는 상기 콘텐트를 표시하기 위한 이미지(또는 이미지들)의 상기 표시 영역 내의 위치와 상이할 수 있다. According to one embodiment, the content having the second size in the second area may be displayed through at least a portion of a display area of the display (520) of the wearable device (101). The at least a portion for displaying the content having the second size in the second area may correspond to the at least a portion for displaying the content having the first size in the first area. In other words, an area of the at least a portion for displaying the content having the second size in the second area may correspond to an area of the at least a portion for displaying the content having the first size in the first area. However, an image (or images) for displaying the content having the second size in the second area may be different from an image (or images) for displaying the content having the first size in the first area. For example, a position within the display area of an image (or images) for displaying the content having the second size within the second area may be different from a position within the display area of an image (or images) for displaying the content having the first size within the first area.

상술한 예와 같이, 디스플레이(520)가 복수의 디스플레이들(예: 도 2의 제1 디스플레이(250-1) 및 제2 디스플레이(250-2))(또는 표시 영역들)을 포함할 수 있다. 예를 들어, 상기 제2 영역 내에서 상기 제12 사이즈를 갖는 상기 콘텐트를 표시하기 위하여, 웨어러블 장치(101)는, 제1 디스플레이(250-1)의 상기 제1 표시 영역 중에서 적어도 일부를 통해 제3 이미지 및 제2 디스플레이(250-2)의 상기 제2 표시 영역 중에서 적어도 일부를 통해 제4 이미지를 표시할 수 있다. 상기 제3 이미지 및 상기 제4 이미지는, 상기 제2 영역 내에서 상기 제2 사이즈를 갖는 상기 콘텐트를 표시하기 위한 이미지를 나타낼 수 있다. 예를 들어, 상기 제1 표시 영역은, 상기 사용자의 좌안에 대하여(with respect to) 위치될 수 있다. 예를 들어, 상기 제2 표시 영역은, 상기 사용자의 우안에 대하여 위치될 수 있다. 상기 좌안 또는 우안에 대하여 위치되는 것은, 상기 사용자의 좌안 또는 우안을 통해 볼 수 있는 영역에 위치됨을 나타낼 수 있다. 상술한 예에서는, 양안 시차(binocular parallax)를 이용하여 상기 콘텐트 및 상기 콘텐트의 깊이(depth)를 나타내는 방법을 이용하는 웨어러블 장치(101)의 예가 서술되나, 본 개시의 실시예가 이에 제한되는 것은 아니다. 예를 들어, 가변 초점 렌즈를 포함하는 웨어러블 장치(101)는, 양안 시차를 이용하지 않더라도, 디스플레이(520) 내부의 상기 가변 초점 렌즈를 이용하여 상이한 깊이(또는 초점 거리)를 갖는 콘텐트를 표시할 수도 있다.As in the example described above, the display (520) may include a plurality of displays (or display areas) (e.g., the first display (250-1) and the second display (250-2) of FIG. 2). For example, in order to display the content having the twelfth size within the second area, the wearable device (101) may display a third image through at least a portion of the first display area of the first display (250-1) and a fourth image through at least a portion of the second display area of the second display (250-2). The third image and the fourth image may represent images for displaying the content having the second size within the second area. For example, the first display area may be positioned with respect to the user's left eye. For example, the second display area may be positioned with respect to the user's right eye. Positioned relative to the left or right eye may indicate that it is positioned in an area viewable through the left or right eye of the user. In the above example, an example of a wearable device (101) that uses a method of representing the content and the depth of the content by using binocular parallax is described, but the embodiments of the present disclosure are not limited thereto. For example, a wearable device (101) including a variable focus lens may display content having different depths (or focal lengths) by using the variable focus lens within the display (520), even without using binocular parallax.

도 10은 가상 환경 내의 깊이(depth)에 따라 콘텐트(content)를 표시하는 방법에 대한 흐름도의 예를 도시한다.Figure 10 illustrates an example flow diagram for a method of displaying content according to depth within a virtual environment.

도 10의 상기 방법 중 적어도 일부는, 도 5의 웨어러블 장치(101)에 의해 수행될 수 있다. 예를 들어, 상기 방법 중 적어도 일부는, 웨어러블 장치(101)의 프로세서(120)에 의해 제어될 수 있다.At least some of the above methods of FIG. 10 may be performed by the wearable device (101) of FIG. 5. For example, at least some of the above methods may be controlled by the processor (120) of the wearable device (101).

동작(1010)에서, 웨어러블 장치(101)는, 콘텐트가 3D 가상 환경에서 제1 깊이에 위치된 것으로 인식되도록(perceived) 제1 디스플레이(250-1) 및 제2 디스플레이(250-2) 상에서 제1 표시 사이즈를 갖는 상기 콘텐트를 표시할 수 있다. In operation (1010), the wearable device (101) can display the content having a first display size on the first display (250-1) and the second display (250-2) such that the content is perceived as being located at a first depth in a 3D virtual environment.

예를 들어, 상기 3D 가상 환경은, XR 환경을 제공하는 상기 가상 환경을 나타낼 수 있다. 예를 들어, 상기 제1 깊이는, 웨어러블 장치(101)의 사용자의 상기 초점 거리가 제1 거리(예: 도 4b의 제1 거리(430))인 상기 3D 가상 환경 내의 위치를 나타낼 수 있다. 예를 들어, 상기 제1 깊이는, 상기 3D 가상 환경 내의 제1 영역으로 참조될 수 있다. For example, the 3D virtual environment may represent the virtual environment providing the XR environment. For example, the first depth may represent a location within the 3D virtual environment where the focal length of the user of the wearable device (101) is a first distance (e.g., the first distance (430) of FIG. 4B). For example, the first depth may be referred to as a first area within the 3D virtual environment.

예를 들어, 웨어러블 장치(101)는, 제1 디스플레이(250-1) 및 제2 디스플레이(250-2)의 표시 영역 중에서 적어도 일부를 통해 표시될 수 있다. 예를 들어, 상기 적어도 일부는, 상기 표시 영역 중에서 상기 제1 표시 사이즈를 갖는 상기 콘텐트를 표시하기 위한 표시 영역의 부분 또는 전부를 나타낼 수 있다. 예를 들어, 웨어러블 장치(101)는, 제1 디스플레이(250-1)의 제1 표시 영역 중에서 적어도 일부를 통해 제1 이미지 및 제2 디스플레이(250-2)의 제2 표시 영역 중에서 적어도 일부를 통해 제2 이미지를 표시할 수 있다. 상기 제1 이미지 및 상기 제2 이미지는, 상기 제1 표시 사이즈를 갖는 상기 콘텐트를 표시하기 위한 이미지를 나타낼 수 있다. 예를 들어, 상기 제1 표시 영역은, 상기 사용자의 좌안에 대하여(with respect to) 위치될 수 있다. 예를 들어, 상기 제2 표시 영역은, 상기 사용자의 우안에 대하여 위치될 수 있다. 상기 좌안 또는 우안에 대하여 위치되는 것은, 상기 사용자의 좌안 또는 우안을 통해 볼 수 있는 영역에 위치됨을 나타낼 수 있다.For example, the wearable device (101) may be displayed through at least a portion of the display areas of the first display (250-1) and the second display (250-2). For example, the at least portion may represent a part or all of the display area for displaying the content having the first display size among the display areas. For example, the wearable device (101) may display the first image through at least a portion of the first display area of the first display (250-1) and the second image through at least a portion of the second display area of the second display (250-2). The first image and the second image may represent images for displaying the content having the first display size. For example, the first display area may be positioned with respect to the user's left eye. For example, the second display area may be positioned with respect to the user's right eye. Positioning relative to the left or right eye may indicate that it is positioned in an area viewable through the user's left or right eye.

일 실시예에 따르면, 웨어러블 장치(101)는, 상기 콘텐트를 표시하기 위한 입력을 획득할 수 있다. 예를 들어, 웨어러블 장치(101)는, 상기 3D 가상 환경을 제공하기 위한 소프트웨어 어플리케이션의 실행에 응답하여, 상기 가상 환경을 표시할 수 있다. 예를 들어, 상기 소프트웨어 어플리케이션은, 상기 가상 환경을 제공하는 하나의 서비스의 예를 나타낼 수 있다. 예를 들어, 상기 소프트웨어 어플리케이션이 실행된 상태 내에서, 웨어러블 장치(101)는, 상기 콘텐트를 표시하기 위한 입력을 획득할 수 있다. 예를 들어, 상기 입력은, 웨어러블 장치(101)를 착용한 사용자(user)의 사용자 입력을 포함할 수 있다.According to one embodiment, the wearable device (101) may obtain an input for displaying the content. For example, the wearable device (101) may display the virtual environment in response to the execution of a software application for providing the 3D virtual environment. For example, the software application may represent an example of a service for providing the virtual environment. For example, while the software application is executed, the wearable device (101) may obtain an input for displaying the content. For example, the input may include a user input of a user wearing the wearable device (101).

일 실시예에 따르면, 웨어러블 장치(101)는, 시력 보호 기능이 활성화되었는지 여부를 식별할 수 있다. 상기 시력 보호 기능은, 상기 사용자의 시력 보호를 위하여, 상기 콘텐트의 상기 3D 가상 환경 내의 위치 및 사이즈를 변경하는 기능을 나타낼 수 있다. 이 때, 상기 콘텐트의 상기 위치 및 상기 사이즈가 변경됨에 따라, 상기 사용자가 상기 콘텐트를 시청하는 동안의 초점 거리는 변경될 수 있다. 또한, 상기 사용자가 상기 콘텐트를 시청하는 동안, 상기 콘텐트의 상기 위치에 기반하여 상기 사이즈가 변경됨에 따라, 상기 사용자가 인식(recognition)하는 상기 콘텐트가 외부로 표시되는 사이즈는 일정하게 유지될 수 있다. 상기 외부로 표시되는 사이즈는, 제1 디스플레이(250-1) 및 제2 디스플레이(250-2)의 표시 영역 대비 상기 콘텐트를 위한 영역(예: 상기 적어도 일부)의 비율(또는 해상도)에 기반하여 식별될 수 있다. 다시 말해서, 상기 가상 환경 내의 상기 콘텐트의 상기 위치 및 상기 사이즈는 변경되더라도, 상기 콘텐트가 외부로 표시되는 사이즈는 실질적으로 일정하게 유지될 수 있다. 따라서, 상기 사용자가 상기 콘텐트 시청하는 동안의 상기 사용자의 시청 경험은 일정하게 유지되면서, 상기 사용자의 초점 거리는 동적으로 변경될 수 있다. According to one embodiment, the wearable device (101) can identify whether the vision protection function is activated. The vision protection function may indicate a function of changing the position and size of the content within the 3D virtual environment in order to protect the user's eyesight. At this time, as the position and the size of the content are changed, the focal length while the user views the content may be changed. In addition, as the size is changed based on the position of the content while the user views the content, the size of the content recognized by the user in which it is displayed externally may be maintained constant. The size of the externally displayed content may be identified based on the ratio (or resolution) of the area for the content (e.g., at least a portion) to the display area of the first display (250-1) and the second display (250-2). In other words, even if the position and the size of the content within the virtual environment are changed, the size of the content in which it is displayed externally may be maintained substantially constant. Accordingly, while the user's viewing experience remains constant while the user views the content, the user's focal length can be dynamically changed.

일 실시예에 따르면, 웨어러블 장치(101)는, 상기 3D 가상 환경을 제공하는 상기 소프트웨어 어플리케이션 내에서 상기 시력 보호 기능이 활성화되었는지 여부를 식별할 수 있다. 일 실시예에 따르면, 웨어러블 장치(101)는, 웨어러블 장치(101)의 설정(setting) 내에서 상기 시력 보호 기능이 활성화되었는지 여부를 식별할 수 있다. 다시 말해서, 상기 시력 보호 기능은, 소프트웨어 어플리케이션 별 또는 전체 소프트웨어 어플리케이션들에 대하여 적용될 수 있다. 또한, 예를 들어, 상기 시력 보호 기능은, 콘텐트 별로 설정될 수도 있다.In one embodiment, the wearable device (101) can identify whether the vision protection function is activated within the software application providing the 3D virtual environment. In one embodiment, the wearable device (101) can identify whether the vision protection function is activated within the setting of the wearable device (101). In other words, the vision protection function can be applied to each software application or to all software applications. In addition, for example, the vision protection function can be set for each content.

일 실시예에 따르면, 상기 시력 보호 기능이 비활성화된 경우, 웨어러블 장치(101)는, 상기 콘텐트의 상기 3D 가상 환경 내의 상기 사이즈 및 상기 위치를 유지할 수 있다. 예를 들어, 웨어러블 장치(101)는, 상기 콘텐트의 사이즈를 제1 사이즈로, 상기 위치를 제1 영역으로 유지할 수 있다. 예를 들어, 웨어러블 장치(101)는, 상기 시력 보호 기능이 비활성화됨을 식별함에 응답하여, 상기 제1 영역 내에서 상기 제1 사이즈를 갖는 상기 콘텐트를 표시하는 상태를 유지할 수 있다. In one embodiment, when the vision protection function is disabled, the wearable device (101) can maintain the size and the location of the content within the 3D virtual environment. For example, the wearable device (101) can maintain the size of the content as a first size and the location as a first area. For example, the wearable device (101) can maintain a state of displaying the content having the first size within the first area in response to identifying that the vision protection function is disabled.

일 실시예에 따르면, 상기 시력 보호 기능이 활성화된 경우, 웨어러블 장치(101)는, 상기 콘텐트가 표시되는 시간 구간이 기준 시간 이상인지 여부를 식별할 수 있다. 일 실시예에 따르면, 웨어러블 장치(101)는, 상기 시력 보호 기능이 활성화됨을 식별함에 응답하여, 상기 콘텐트가 표시되는 상기 시간 구간이 상기 기준 시간 이상인지 여부를 식별할 수 있다. According to one embodiment, when the vision protection function is activated, the wearable device (101) can identify whether the time period during which the content is displayed is longer than or equal to a reference time. According to one embodiment, in response to identifying that the vision protection function is activated, the wearable device (101) can identify whether the time period during which the content is displayed is longer than or equal to the reference time.

일 실시예에 따르면, 상기 기준 시간은, 상기 사용자가 초점 거리를 조정하는 능력 정보 또는 상기 콘텐트의 특성(characteristic) 중 적어도 하나에 기반하여 식별될 수 있다. 상기 능력 정보는, 상기 사용자의 초점 거리 조정과 관련된 반응 속도, 상기 사용자의 초점 거리에 대한 최소 거리(minimum length) 및 최대 거리(maximum length), 또는 상기 사용자가 선호하는(preferred) 초점 거리 중 적어도 하나를 포함할 수 있다. 예를 들어, 상기 콘텐츠의 특성은, 상기 콘텐츠의 재생 속도(play speed) 또는 상기 콘텐츠의 타입(type) 중 적어도 하나를 포함할 수 있다. 상기 콘텐츠의 타입은, 글이나 그림과 같은 정적인(static) 타입 또는 동영상과 같은 동적인(dynamic) 타입을 포함할 수 있다. 예를 들어, 상기 기준 시간은, 상기 반응 속도가 느린 사람(예: 노인)인 경우, 상기 반응 속도가 빠른 사람(예: 청년)에 비해 길게 설정될 수 있다. 또는, 상기 기준 시간은, 상기 콘텐트가 동적(또는 재생 속도가 빠른 경우)인 경우, 상기 콘텐트가 정적(또는 재생 속도가 느린 경우)인 경우에 비해 길게 설정될 수 있다. In one embodiment, the reference time may be identified based on at least one of the user's ability information for adjusting the focal length or the characteristic of the content. The ability information may include at least one of the user's reaction speed related to the focal length adjustment, the minimum length and the maximum length for the user's focal length, or the user's preferred focal length. For example, the characteristic of the content may include at least one of the play speed of the content or the type of the content. The type of the content may include a static type such as text or an image or a dynamic type such as a video. For example, the reference time may be set longer for a person with a slow reaction speed (e.g., an elderly person) than for a person with a fast reaction speed (e.g., a young person). Alternatively, the reference time may be set longer for a person with a dynamic content (or a fast play speed) than for a person with a static content (or a slow play speed).

동작(1020)에서, 웨어러블 장치(101)는, 상기 콘텐트가 상기 기준 시간 이상인 상기 시간 구간 동안 표시되는 경우, 상기 콘텐트가 상기 3D 가상 환경에서 상기 제1 깊이를 초과하는 제2 깊이에 위치된 것으로 인식되도록 제1 디스플레이(250-1) 및 제2 디스플레이(250-2) 상에서 상기 제1 표시 사이즈와 실질적으로 동일한(substantially same) 제2 표시 사이즈로 표시할 수 있다. 상기 예에서는, 상기 제1 깊이를 초과하는 상기 제2 깊이에 대한 예사 서술되나, 본 개시의 실시예가 이에 제한되는 것은 아니다. 예를 들어, 상기 제2 깊이는 상기 제1 깊이 이하일 수도 있다. In operation (1020), the wearable device (101) may display the content in a second display size substantially same as the first display size on the first display (250-1) and the second display (250-2) so that the content is recognized as being located at a second depth exceeding the first depth in the 3D virtual environment when the content is displayed for the time period longer than the reference time. In the example, the second depth exceeding the first depth is described as an example, but the embodiments of the present disclosure are not limited thereto. For example, the second depth may be less than or equal to the first depth.

일 실시예에 따르면, 웨어러블 장치(101)는, 상기 3D 가상 환경 내의 위치를 상기 제1 깊이로부터 상기 제2 깊이로 변경하는 동안, 상기 콘텐트의 상기 3D 가상 환경 내의 상기 사이즈를 변경할 수 있다. 일 실시예에 따르면, 웨어러블 장치(101)는, 상기 시간 구간이 상기 기준 시간 이상임을 식별함에 응답하여, 상기 콘텐트의 상기 사이즈를 변경할 수 있다. 예를 들어, 웨어러블 장치(101)는, 상기 콘텐트의 상기 제1 사이즈 및 상기 제1 영역을, 상기 제1 사이즈와 다른 제2 사이즈 및 상기 제1 영역과 다른 제2 영역으로 각각 변경할 수 있다. In one embodiment, the wearable device (101) can change the size of the content within the 3D virtual environment while changing the location within the 3D virtual environment from the first depth to the second depth. In one embodiment, the wearable device (101) can change the size of the content in response to identifying that the time interval is greater than or equal to the reference time. For example, the wearable device (101) can change the first size and the first area of the content to a second size different from the first size and a second area different from the first area, respectively.

일 실시예에 따르면, 상기 콘텐트의 사이즈 및 위치에 대한 상기 변경은, 축소 및 확대를 반복할 수 있다. 예를 들어, 웨어러블 장치(101)는, 상기 콘텐트의 사이즈를 상기 제1 사이즈로부터 상기 제2 사이즈로 확장한 후, 상기 제2 사이즈로부터 상기 제1 사이즈로 다시 축소할 수 있다. 또는, 예를 들어, 웨어러블 장치(101)는, 상기 콘텐트의 사이즈를 상기 제2 사이즈로부터 상기 제1 사이즈로 축소한 후, 상기 제1 사이즈로부터 상기 제2 사이즈로 다시 확대할 수 있다. 또는, 예를 들어, 웨어러블 장치(101)는, 상기 축소 및 상기 확대를 지정된 주기에 따라 반복할 수 있다. In one embodiment, the change in the size and position of the content may be repeated by reducing and enlarging. For example, the wearable device (101) may expand the size of the content from the first size to the second size, and then reduce it from the second size back to the first size. Or, for example, the wearable device (101) may reduce the size of the content from the second size to the first size, and then enlarge it from the first size back to the second size. Or, for example, the wearable device (101) may repeat the reducing and enlarging according to a specified cycle.

상술한 바를 참조하면, 웨어러블 장치(101)는, 상기 3D 가상 환경 내의 상기 위치를 상기 제1 깊이로부터 상기 제2 깊이로 변경하는 동안, 상기 콘텐트가 제1 디스플레이(250-1) 및 제2 디스플레이(250-2) 상에서 표시되는 표시 사이즈를 실질적으로 동일하게 유지할 수 있다. 예를 들어, 웨어러블 장치(101)는, 상기 위치가 상기 제1 깊이로부터 상기 제2 깊이로 변경하더라도, 상기 표시 사이즈를 상기 제1 표시 사이즈로부터 상기 제1 표시 사이즈와 실질적으로 동일한 상기 제2 표시 사이즈로 유지할 수 있다. 다시 말해서, 웨어러블 장치(101)는, 상기 제2 깊이에 위치된 것으로 인식되도록 제1 디스플레이(250-1) 및 제2 디스플레이(250-2) 상에서 상기 제2 표시 사이즈를 갖는 상기 콘텐트를 표시할 수 있다. As described above, the wearable device (101) can maintain the display sizes of the content displayed on the first display (250-1) and the second display (250-2) substantially the same while changing the location within the 3D virtual environment from the first depth to the second depth. For example, the wearable device (101) can maintain the display size from the first display size to the second display size which is substantially the same as the first display size even when the location changes from the first depth to the second depth. In other words, the wearable device (101) can display the content having the second display size on the first display (250-1) and the second display (250-2) so as to be recognized as being located at the second depth.

웨어러블 장치(101)가, 상기 제1 표시 사이즈 및 상기 제2 표시 사이즈를 제1 디스플레이(250-1) 및 제2 디스플레이(250-2)의 표시 영역에서 표시하는 방법에 대한 예는, 상기 도 7이 참조될 수 있다. 또한, 웨어러블 장치(101)가, 상기 사용자의 초점 거리에 대한 결과를 획득하고, 상기 결과에 기반하여 훈련 및 시력 교정을 수행하는 방법에 대한 구체적인 예는, 상기 도 8이 참조될 수 있다. 또한, 웨어러블 장치(101)가, 상기 사용자의 시선이 상기 콘텐트의 상기 제1 표시 사이즈 내에 위치되는 시간에 기반하여, 상기 제2 깊이에서 상기 제2 표시 사이즈를 갖는 상기 콘텐트를 표시하는 방법에 대한 구체적인 예는, 상기 도 9가 참조될 수 있다.For an example of a method in which the wearable device (101) displays the first display size and the second display size in the display areas of the first display (250-1) and the second display (250-2), reference may be made to FIG. 7. In addition, for a specific example of a method in which the wearable device (101) obtains a result for the user's focal length and performs training and vision correction based on the result, reference may be made to FIG. 8. In addition, for a specific example of a method in which the wearable device (101) displays the content having the second display size at the second depth based on the time that the user's gaze is positioned within the first display size of the content, reference may be made to FIG. 9.

상술한 바와 같은, 웨어러블 장치(101)(wearable device)는, 디스플레이(520)(display)를 포함할 수 있다. 상기 웨어러블 장치(101)는 카메라(510)(camera)를 포함할 수 있다. 상기 웨어러블 장치(101)는 프로세서(120)를 포함할 수 있다. 상기 프로세서(120)는, 가상 환경(virtual environment)의 제1 영역 내에서 제1 사이즈(size)를 갖는 콘텐트(content)를, 상기 디스플레이(520)의 표시 영역 중에서 적어도 일부를 통해, 표시하도록 구성될 수 있다. 상기 프로세서(120)는, 상기 카메라(510)에 기반하여, 상기 웨어러블 장치(101)의 사용자(user)가 상기 제1 사이즈를 갖는 상기 콘텐트를 응시하는(gaze at) 시간이 기준 시간 이상인지 여부를 식별하도록 구성될 수 있다. 상기 프로세서(120)는, 상기 시간이 상기 기준 시간 이상임을 식별함에 기반하여, 상기 제1 영역과 상기 가상 환경 내의 상기 사용자에 대응하는 기준 위치로부터 식별되는 깊이(depth)가 다른(differ from) 제2 영역 내에서 상기 제1 사이즈와 다른(different) 제2 사이즈를 갖는 상기 콘텐트를, 상기 디스플레이(520)의 상기 적어도 일부를 통해, 표시하도록 구성될 수 있다. As described above, the wearable device (101) may include a display (520). The wearable device (101) may include a camera (510). The wearable device (101) may include a processor (120). The processor (120) may be configured to display content having a first size in a first area of a virtual environment through at least a portion of a display area of the display (520). The processor (120) may be configured to identify, based on the camera (510), whether a time for which a user of the wearable device (101) gazes at the content having the first size is greater than or equal to a reference time. The processor (120) may be configured to display, through at least a portion of the display (520), the content having a second size different from the first size within a second area having a different depth from a reference location corresponding to the user within the first area and the virtual environment, based on identifying that the time is greater than or equal to the reference time.

일 실시예에 따르면, 상기 제1 영역이 상기 기준 위치로부터 상기 사용자의 초점 거리(focal length)가 제1 거리(length)에 대응하는 상기 가상 환경 내의 제1 위치를 나타내고, 상기 제2 영역이 상기 기준 위치로부터 상기 초점 거리가 상기 제1 거리보다 먼 제2 거리에 대응하는 상기 가상 환경 내의 제2 위치를 나타낼 때, 상기 제2 사이즈는 상기 제1 사이즈보다 클 수 있다. In one embodiment, when the first region represents a first location within the virtual environment where the user's focal length corresponds to a first distance from the reference position, and the second region represents a second location within the virtual environment where the focal length corresponds to a second distance from the reference position that is longer than the first distance, the second size may be larger than the first size.

일 실시예에 따르면, 상기 제1 영역이 상기 기준 위치로부터 상기 사용자의 초점 거리(focal length)가 제1 거리(length)에 대응하는 상기 가상 환경 내의 제1 위치를 나타내고, 상기 제2 영역이 상기 기준 위치로부터 상기 초점 거리가 상기 제1 거리보다 짧은 제2 거리에 대응하는 상기 가상 환경 내의 제2 위치를 나타낼 때, 상기 제2 사이즈는 상기 제1 사이즈보다 작을 수 있다.In one embodiment, when the first region represents a first location within the virtual environment where a focal length of the user from the reference position corresponds to a first distance (length), and the second region represents a second location within the virtual environment where the focal length corresponds to a second distance from the reference position where the focal length is shorter than the first distance, the second size may be smaller than the first size.

일 실시예에 따르면, 상기 프로세서(120)는, 상기 사용자의 초점 거리(focal length)의 조정(adjusting)을 위한 기능(function)이 활성화되었는지 여부를 식별하도록 구성될 수 있다. 상기 프로세서(120)는, 상기 기능이 활성화됨을 식별함에 응답하여, 상기 시간이 상기 기준 시간 이상인지 여부를 식별하도록 구성될 수 있다. 상기 프로세서(120)는, 상기 기능이 비활성화됨을 식별함에 응답하여, 상기 디스플레이(520)의 상기 표시 영역 중에서 상기 적어도 일부를 통해, 상기 제1 영역 내에서 상기 제1 사이즈를 갖는 상기 콘텐트의 표시를 유지하도록, 구성될 수 있다.In one embodiment, the processor (120) may be configured to identify whether a function for adjusting a focal length of the user is activated. The processor (120) may be configured, in response to identifying that the function is activated, to identify whether the time is greater than or equal to the reference time. The processor (120) may be configured, in response to identifying that the function is deactivated, to maintain display of the content having the first size within the first area through the at least a portion of the display area of the display (520).

일 실시예에 따르면, 상기 프로세서(120)는, 상기 콘텐트를 표시하기 위한 입력을 획득하도록 구성될 수 있다. 상기 프로세서(120)는, 상기 입력에 응답하여, 상기 제1 사이즈를 갖는 상기 콘텐트를, 상기 적어도 일부를 통해 표시하도록, 구성될 수 있다. 상기 제1 사이즈 및 상기 제1 영역 각각은, 상기 사용자에 의해 지정될 수 있다.In one embodiment, the processor (120) may be configured to obtain an input for displaying the content. The processor (120) may be configured to, in response to the input, display the content having the first size through at least a portion of the content. Each of the first size and the first area may be specified by the user.

일 실시예에 따르면, 상기 기준 시간은, 상기 콘텐트의 재생 속도(play speed), 또는 상기 사용자의 초점 거리를 조정하는 능력(capability) 정보에 기반하여 식별될 수 있다. 상기 능력 정보는, 상기 사용자의 초점 거리의 범위를 포함할 수 있다. In one embodiment, the reference time may be identified based on the play speed of the content, or the capability information for adjusting the focal distance of the user. The capability information may include a range of the focal distance of the user.

일 실시예에 따르면, 상기 제1 영역 내에서 상기 제1 사이즈를 갖는 상기 콘텐트는, 상기 사용자의 좌안에 대하여(with respect to) 위치되는 상기 디스플레이(520)의 제1 표시 영역에 표시되는 제1 이미지(image) 및 상기 사용자의 우안에 대하여 위치되는 상기 디스플레이(520)의 제2 표시 영역에 표시되는 제2 이미지에 기반하여 표시될 수 있다. 상기 제2 영역 내에서 상기 제2 사이즈를 갖는 상기 콘텐트는, 상기 제1 표시 영역에 표시되는 제3 이미지(image) 및 상기 제2 표시 영역에 표시되는 제4 이미지에 기반하여 표시될 수 있다. According to one embodiment, the content having the first size in the first area may be displayed based on a first image displayed in a first display area of the display (520) positioned with respect to the left eye of the user and a second image displayed in a second display area of the display (520) positioned with respect to the right eye of the user. The content having the second size in the second area may be displayed based on a third image displayed in the first display area and a fourth image displayed in the second display area.

일 실시예에 따르면, 상기 제2 사이즈가 상기 제1 사이즈보다 큰 경우, 상기 제1 이미지의 지정된 위치에 대한 좌표와 상기 제2 이미지의 상기 지정된 위치에 대한 좌표 사이의 차이(difference)는, 상기 제3 이미지의 상기 지정된 위치에 대한 좌표와 상기 제4 이미지의 상기 지정된 위치에 대한 좌표 사이의 차이 보다 클 수 있다. In one embodiment, when the second size is larger than the first size, a difference between a coordinate for a specified location of the first image and a coordinate for a specified location of the second image may be greater than a difference between a coordinate for a specified location of the third image and a coordinate for a specified location of the fourth image.

일 실시예에 따르면, 상기 프로세서(120)는, 상기 사용자에 대한 아이 캘리브레이션(eye calibration)을 수행함에 기반하여, 상기 사용자의 초점 거리에 대한 능력 정보를 획득하도록 구성될 수 있다. 상기 프로세서(120)는, 상기 능력 정보에 기반하여, 상기 콘텐트의 사이즈를 상기 제1 사이즈로부터 상기 제2 사이즈로 변경하고, 상기 콘텐트의 위치를 상기 제1 영역으로부터 상기 제2 영역으로 변경하도록, 구성될 수 있다. 상기 능력 정보는, 상기 사용자의 초점 거리의 범위를 포함할 수 있다.According to one embodiment, the processor (120) may be configured to obtain capability information on a focal length of the user based on performing eye calibration for the user. The processor (120) may be configured to change a size of the content from the first size to the second size and change a location of the content from the first area to the second area based on the capability information. The capability information may include a range of a focal length of the user.

일 실시예에 따르면, 상기 프로세서(120)는, 상기 능력 정보에 기반하여 변경된, 상기 제2 영역 내의 상기 제2 사이즈를 갖는 상기 콘텐트에 대한 사용자의 초점 거리 조정의 결과를 식별하도록, 구성될 수 있다. 상기 결과는, 상기 제2 영역에 기반하여 계산된 상기 사용자의 초점 거리와 상기 사용자의 실제 초점 거리 사이의 차이를 포함할 수 있다. In one embodiment, the processor (120) may be configured to identify a result of a user's adjustment of a focal length for the content having the second size within the second area, based on the capability information. The result may include a difference between a calculated focal length of the user based on the second area and an actual focal length of the user.

일 실시예에 따르면, 상기 프로세서(120)는, 상기 콘텐트의 위치가 상기 제1 영역으로부터 상기 제2 영역으로 변경되는 동안, 상기 콘텐트의 z-인덱스(z-index)를 나타내는 값을 유지하도록, 구성될 수 있다. According to one embodiment, the processor (120) may be configured to maintain a value representing a z-index of the content while the location of the content is changed from the first area to the second area.

일 실시예에 따르면, 상기 프로세서(120)는, 상기 콘텐트가 상기 디스플레이(520) 상에 플로팅되는(floated) 시각적 객체인지 여부를 식별하도록 구성될 수 있다. 상기 프로세서(120)는, 상기 콘텐트가 상기 플로팅되는 시각적 객체임을 식별함에 응답하여, 상기 콘텐트의 사이즈를 상기 제1 사이즈로부터 상기 제2 사이즈로 변경하고, 상기 콘텐트의 위치를 상기 제1 영역으로부터 상기 제2 영역으로 변경하도록, 구성될 수 있다.In one embodiment, the processor (120) may be configured to identify whether the content is a visual object floating on the display (520). The processor (120) may be configured to, in response to identifying that the content is the floating visual object, change a size of the content from the first size to the second size and change a location of the content from the first area to the second area.

일 실시예에 따르면, 상기 시간은, 상기 사용자의 시선이 상기 콘텐트를 나타내는 영역인 상기 적어도 일부 내에 위치되는 시간을 나타낼 수 있다.In one embodiment, the time may represent the time at which the user's gaze is positioned within at least a portion of the area representing the content.

일 실시예에 따르면, 상기 콘텐트는, 상기 가상 환경 내의 2차원 객체(two-dimensional object) 또는 3차원 객체(three-dimensional object)를 포함할 수 있다. In one embodiment, the content may include a two-dimensional object or a three-dimensional object within the virtual environment.

상술한 바와 같은, 웨어러블 장치(101)(wearable device)는, 디스플레이(520)(display)를 포함할 수 있다. 상기 웨어러블 장치(101)는 카메라(510)(camera)를 포함할 수 있다. 웨어러블 장치(101)(wearable device)는 프로세서(120)를 포함할 수 있다. 상기 프로세서(120)는, 가상 환경(virtual environment) 내의 제1 영역에서 표시되고, 상기 가상 환경 내의 제1 사이즈를 갖는 콘텐트를, 상기 디스플레이(520)의 적어도 일부를 통해, 표시하도록 구성될 수 있다. 상기 프로세서(120)는, 초점 거리(focal length)의 조정(adjusting)을 위한 기능이 활성화되었는지 여부를 식별하도록 구성될 수 있다. 상기 프로세서(120)는, 상기 기능이 비활성화됨을 식별함에 기반하여, 상기 제1 영역 내에서 상기 제1 사이즈를 갖는 상기 콘텐트를, 상기 적어도 일부를 통해 표시하는 것을 유지하도록 구성될 수 있다. 상기 프로세서(120)는, 상기 기능이 활성화됨을 식별함에 기반하여, 상기 초점 거리의 조정을 위하여, 위치를 상기 제1 영역으로부터 상기 가상 환경 내의 기준 위치로부터 식별되는 깊이(depth)가 다른 제2 영역으로 변경하고, 상기 초점 거리의 조정에 따라 사이즈를 상기 제1 사이즈로부터 제2 사이즈로 변경하고, 상기 제2 영역 내에서 상기 제2 사이즈를 갖는 상기 콘텐트를, 상기 적어도 일부를 통해, 표시하도록, 구성될 수 있다. 상기 기준 위치는, 상기 웨어러블 장치(101)의 사용자(user)에 대응하는 상기 가상 환경 내의 위치를 나타낼 수 있다. As described above, the wearable device (101) may include a display (520). The wearable device (101) may include a camera (510). The wearable device (101) may include a processor (120). The processor (120) may be configured to display content, which is displayed in a first area within a virtual environment and has a first size within the virtual environment, through at least a portion of the display (520). The processor (120) may be configured to identify whether a function for adjusting a focal length is activated. The processor (120) may be configured to maintain displaying the content, which has the first size within the first area, through at least a portion of the display based on identifying that the function is deactivated. The processor (120) may be configured to, based on identifying that the function is activated, change a location from the first area to a second area having a different depth identified from a reference location within the virtual environment for adjusting the focal length, change a size from the first size to a second size according to the adjustment of the focal length, and display the content having the second size within the second area through at least a portion of the location. The reference location may indicate a location within the virtual environment corresponding to a user of the wearable device (101).

일 실시예에 따르면, 상기 제1 영역이 상기 기준 위치로부터 상기 초점 거리가 제1 거리(length)에 대응하는 상기 가상 환경 내의 위치를 나타내고, 상기 제2 영역이 상기 기준 위치로부터 상기 초점 거리가 상기 제1 거리보다 먼 제2 거리에 대응하는 상기 가상 환경 내의 위치를 나타낼 때, 상기 제2 사이즈는 상기 제1 사이즈보다 클 수 있다. In one embodiment, when the first region represents a position within the virtual environment at which the focal distance from the reference position corresponds to a first distance (length), and the second region represents a position within the virtual environment at which the focal distance from the reference position corresponds to a second distance longer than the first distance, the second size may be larger than the first size.

일 실시예에 따르면, 상기 디스플레이(520)는, 상기 웨어러블 장치(101)의 사용자(user)의 좌안에 대하여(with respect to) 위치되는 제1 표시 영역 및 상기 사용자의 우안에 대하여 위치되는 제2 표시 영역을 포함할 수 있다. 상기 제1 영역 내에서 상기 제1 사이즈를 갖는 상기 콘텐트는, 상기 제1 표시 영역에 표시되는 제1 이미지(image) 및 상기 제2 표시 영역에 표시되는 제2 이미지에 기반하여 표시될 수 있다. 상기 제2 영역 내에서 상기 제2 사이즈를 갖는 상기 콘텐트는, 상기 제1 표시 영역에 표시되는 제3 이미지(image) 및 상기 제2 표시 영역에 표시되는 제4 이미지에 기반하여 표시될 수 있다. According to one embodiment, the display (520) may include a first display area positioned with respect to a left eye of a user of the wearable device (101) and a second display area positioned with respect to a right eye of the user. The content having the first size in the first area may be displayed based on a first image displayed in the first display area and a second image displayed in the second display area. The content having the second size in the second area may be displayed based on a third image displayed in the first display area and a fourth image displayed in the second display area.

일 실시예에 따르면, 상기 제2 사이즈가 상기 제1 사이즈보다 큰 경우, 상기 제1 이미지의 지정된 위치에 대한 좌표와 상기 제2 이미지의 상기 지정된 위치에 대한 좌표 사이의 차이(difference)는, 상기 제3 이미지의 상기 지정된 위치에 대한 좌표와 상기 제4 이미지의 상기 지정된 위치에 대한 좌표 사이의 차이 보다 클 수 있다. In one embodiment, when the second size is larger than the first size, a difference between a coordinate for a specified location of the first image and a coordinate for a specified location of the second image may be greater than a difference between a coordinate for a specified location of the third image and a coordinate for a specified location of the fourth image.

일 실시예에 따르면, 상기 프로세서(120)는, 상기 사용자에 대한 아이 캘리브레이션(eye calibration)을 수행함에 기반하여, 상기 초점 거리에 대한 능력 정보를 획득하도록 구성될 수 있다. 상기 프로세서(120)는, 상기 능력 정보에 기반하여, 상기 사이즈를 상기 제1 사이즈로부터 상기 제2 사이즈로 변경하고, 상기 위치를 상기 제1 영역으로부터 상기 제2 영역으로 변경하도록, 구성될 수 있다. 상기 능력 정보는, 상기 초점 거리의 범위를 포함할 수 있다.According to one embodiment, the processor (120) may be configured to obtain capability information for the focal length based on performing eye calibration for the user. The processor (120) may be configured to change the size from the first size to the second size and change the location from the first area to the second area based on the capability information. The capability information may include a range of the focal length.

일 실시예에 따르면, 상기 프로세서(120)는, 상기 위치가 상기 제1 영역으로부터 상기 제2 영역으로 변경되는 동안, 상기 콘텐트의 z-인덱스(z-index)를 나타내는 값을 유지하도록, 구성될 수 있다.According to one embodiment, the processor (120) may be configured to maintain a value representing a z-index of the content while the location changes from the first area to the second area.

상술한 바와 같은, 웨어러블 장치(101)(wearable device)는, 사용자의 좌안에 대하여(with respect to) 위치되는 제1 디스플레이(250-1)(display)를 포함할 수 있다. 상기 웨어러블 장치(101)는, 상기 사용자의 우안에 대하여 위치되는 제2 디스플레이(250-2)를 포함할 수 있다. 상기 웨어러블 장치(101)는, 카메라(510)(camera)를 포함할 수 있다. 상기 웨어러블 장치(101)는, 프로세서(120)를 포함할 수 있다. 상기 웨어러블 장치(101)는, 인스트럭션들을 저장하는 메모리를 포함할 수 있다. 상기 인스트럭션들은, 상기 프로세서(120)에 의해 실행될 시, 상기 웨어러블 장치가, 콘텐트가 3D 가상 환경(3 dimensional virtual environment)에서 제1 깊이에 위치된 것으로 인식되도록(perceived), 상기 제1 디스플레이(250-1) 및 상기 제2 디스플레이(250-2) 상에서 제1 표시 사이즈(displaying size)를 갖는 상기 콘텐트를, 표시하도록, 야기할 수 있다. 상기 인스트럭션들은, 상기 프로세서(120)에 의해 실행될 시, 상기 웨어러블 장치가, 상기 콘텐트가 기준 시간 이상인 시간 구간(time period) 동안 표시되는 경우, 상기 콘텐트가 상기 3D 가상 환경에서 상기 제1 깊이를 초과하는 제2 깊이에 위치된 것으로 인식되도록, 상기 제1 디스플레이(250-1) 및 상기 제2 디스플레이(250-2) 상에서 상기 제1 표시 사이즈와 실질적으로 동일한 제2 표시 사이즈로 표시하도록, 야기할 수 있다.As described above, the wearable device (101) may include a first display (250-1) positioned with respect to the user's left eye. The wearable device (101) may include a second display (250-2) positioned with respect to the user's right eye. The wearable device (101) may include a camera (510). The wearable device (101) may include a processor (120). The wearable device (101) may include a memory that stores instructions. The instructions, when executed by the processor (120), may cause the wearable device to display the content having a first displaying size on the first display (250-1) and the second display (250-2) such that the content is perceived as being located at a first depth in a 3 dimensional virtual environment. The instructions, when executed by the processor (120), may cause the wearable device to display the content at a second displaying size substantially equal to the first displaying size on the first display (250-1) and the second display (250-2) such that the content is perceived as being located at a second depth in the 3 dimensional virtual environment exceeding the first depth if the content is displayed for a time period greater than a reference time.

일 실시예에 따르면, 상기 3D 가상 환경의 상기 제1 깊이에서 상기 3D 가상 환경 내의 상기 콘텐트의 사이즈는 제1 사이즈를 가질 수 있다. 상기 3D 가상 환경의 상기 제2 깊이에서 상기 3D 가상 환경 내의 상기 콘텐트의 상기 사이즈는 상기 제1 사이즈보다 큰 제2 사이즈를 가질 수 있다.In one embodiment, the size of the content within the 3D virtual environment at the first depth of the 3D virtual environment can have a first size. The size of the content within the 3D virtual environment at the second depth of the 3D virtual environment can have a second size larger than the first size.

일 실시예에 따르면, 상기 제1 깊이는, 상기 사용자의 초점 거리(focal length)가 제1 거리(length)에 대응하는 상기 3D 가상 환경 내의 제1 위치를 나타낼 수 있다. 상기 제2 깊이는 상기 초점 거리가 상기 제1 거리보다 긴 제2 거리에 대응하는 상기 3D 가상 환경 내의 제2 위치를 나타낼 수 있다.In one embodiment, the first depth may represent a first location within the 3D virtual environment where a focal length of the user corresponds to a first length. The second depth may represent a second location within the 3D virtual environment where the focal length corresponds to a second length greater than the first length.

일 실시예에 따르면, 상기 인스트럭션들은, 상기 프로세서(120)에 의해 실행될 시, 상기 웨어러블 장치가, 상기 사용자의 초점 거리(focal length)의 조정(adjusting)을 위한 기능(function)이 활성화되었는지 여부를 식별하도록, 야기할 수 있다. 상기 인스트럭션들은, 상기 프로세서(120)에 의해 실행될 시, 상기 웨어러블 장치가, 상기 기능이 활성화됨을 식별함에 응답하여, 상기 시간 구간이 상기 기준 시간 이상인지 여부를 식별하도록, 야기할 수 있다. 상기 인스트럭션들은, 상기 프로세서(120)에 의해 실행될 시, 상기 웨어러블 장치가, 상기 기능이 비활성화됨을 식별함에 응답하여, 상기 콘텐트가 상기 3D 가상 환경에서 상기 제1 깊이에 위치된 것으로 인식되도록, 상기 제1 디스플레이(250-1) 및 상기 제2 디스플레이(250-2) 상에서 상기 제1 표시 사이즈를 갖는 상기 콘텐트의 표시를 유지하도록, 야기할 수 있다.In one embodiment, the instructions, when executed by the processor (120), may cause the wearable device to identify whether a function for adjusting a focal length of the user is activated. The instructions, when executed by the processor (120), may cause the wearable device, in response to identifying that the function is activated, to identify whether the time interval is greater than or equal to the reference time. The instructions, when executed by the processor (120), may cause the wearable device, in response to identifying that the function is deactivated, to maintain display of the content having the first display size on the first display (250-1) and the second display (250-2) such that the content is recognized as being located at the first depth in the 3D virtual environment.

일 실시예에 따르면, 상기 인스트럭션들은, 상기 프로세서(120)에 의해 실행될 시, 상기 웨어러블 장치가, 상기 콘텐트를 표시하기 위한 입력을 획득하도록, 야기할 수 있다. 상기 인스트럭션들은, 상기 프로세서(120)에 의해 실행될 시, 상기 웨어러블 장치가, 상기 입력에 응답하여, 상기 제1 디스플레이(250-1) 및 상기 제2 디스플레이(250-2) 상에서 상기 제1 표시 사이즈를 갖는 상기 콘텐트를 표시하도록, 야기할 수 있다. 상기 제1 깊이는, 상기 사용자에 의해 지정될 수 있다.In one embodiment, the instructions, when executed by the processor (120), may cause the wearable device to obtain an input for displaying the content. The instructions, when executed by the processor (120), may cause the wearable device to, in response to the input, display the content having the first display size on the first display (250-1) and the second display (250-2). The first depth may be specified by the user.

일 실시예에 따르면, 상기 기준 시간은, 상기 콘텐트의 재생 속도(play speed), 또는 상기 사용자의 초점 거리를 조정하는 능력(capability) 정보에 기반하여 식별될 수 있다. 상기 능력 정보는, 상기 사용자의 초점 거리의 범위를 포함할 수 있다.In one embodiment, the reference time may be identified based on the play speed of the content, or the capability information for adjusting the focal length of the user. The capability information may include a range of the focal length of the user.

일 실시예에 따르면, 상기 제1 디스플레이(250-1) 및 상기 제2 디스플레이(250-2) 상에서 상기 제1 표시 사이즈를 갖는 상기 콘텐트는, 상기 제1 디스플레이(250-1)의 상기 제1 표시 사이즈를 갖는 제1 표시 영역에 표시되는 제1 이미지(image) 및 상기 제2 디스플레이(250-2)의 상기 제1 표시 사이즈를 갖는 제2 표시 영역에 표시되는 제2 이미지에 기반하여 표시될 수 있다. 상기 제1 디스플레이(250-1) 및 상기 제2 디스플레이(250-2) 상에서 상기 제2 표시 사이즈를 갖는 상기 콘텐트는, 상기 제1 디스플레이(250-1)의 상기 제2 표시 사이즈를 갖는 제3 표시 영역에 표시되는 제3 이미지(image) 및 상기 제2 디스플레이(250-2)의 상기 제2 표시 사이즈를 갖는 제4 표시 영역에 표시되는 제4 이미지에 기반하여 표시될 수 있다.According to one embodiment, the content having the first display size on the first display (250-1) and the second display (250-2) may be displayed based on a first image displayed on a first display area of the first display (250-1) having the first display size and a second image displayed on a second display area of the second display (250-2) having the first display size. The content having the second display size on the first display (250-1) and the second display (250-2) may be displayed based on a third image displayed on a third display area of the first display (250-1) having the second display size and a fourth image displayed on a fourth display area of the second display (250-2) having the second display size.

일 실시예에 따르면, 상기 제1 이미지의 지정된 위치에 대한 좌표와 상기 제2 이미지의 상기 지정된 위치에 대한 좌표 사이의 차이(difference)는, 상기 제3 이미지의 상기 지정된 위치에 대한 좌표와 상기 제4 이미지의 상기 지정된 위치에 대한 좌표 사이의 차이 보다 클 수 있다.According to one embodiment, a difference between coordinates for a specified location in the first image and coordinates for the specified location in the second image may be greater than a difference between coordinates for the specified location in the third image and coordinates for the specified location in the fourth image.

일 실시예에 따르면, 상기 인스트럭션들은, 상기 프로세서(120)에 의해 실행될 시, 상기 웨어러블 장치가, 상기 사용자에 대한 아이 캘리브레이션(eye calibration)을 수행함에 기반하여, 상기 사용자의 초점 거리에 대한 능력 정보를 획득하도록, 야기할 수 있다. 상기 인스트럭션들은, 상기 프로세서(120)에 의해 실행될 시, 상기 웨어러블 장치가, 상기 능력 정보에 기반하여, 상기 콘텐트의 상기 3D 가상 환경에서의 위치를 상기 제1 깊이로부터 상기 제2 깊이로 변경하도록, 야기할 수 있다. 상기 능력 정보는, 상기 사용자의 초점 거리의 범위를 포함할 수 있다.In one embodiment, the instructions, when executed by the processor (120), may cause the wearable device to obtain capability information about a focal length of the user based on performing eye calibration for the user. The instructions, when executed by the processor (120), may cause the wearable device to change a location of the content in the 3D virtual environment from the first depth to the second depth based on the capability information. The capability information may include a range of a focal length of the user.

일 실시예에 따르면, 상기 인스트럭션들은, 상기 프로세서(120)에 의해 실행될 시, 상기 웨어러블 장치가, 상기 능력 정보에 기반하여 변경된, 상기 제2 표시 사이즈를 갖는 상기 콘텐트에 대한 사용자의 초점 거리 조정의 결과를 식별하도록, 야기할 수 있다. 상기 결과는, 상기 제2 깊이에 기반하여 계산된 상기 사용자의 초점 거리와 상기 사용자의 실제 초점 거리 사이의 차이를 포함할 수 있다.In one embodiment, the instructions, when executed by the processor (120), may cause the wearable device to identify a result of a user's adjustment of a focal length for the content having the second display size changed based on the capability information. The result may include a difference between the user's focal length calculated based on the second depth and the user's actual focal length.

일 실시예에 따르면, 상기 인스트럭션들은, 상기 프로세서(120)에 의해 실행될 시, 상기 웨어러블 장치가, 상기 콘텐트의 상기 3D 가상 환경에서의 위치가 상기 제1 깊이로부터 상기 제2 깊이로 변경되는 동안, 상기 콘텐트의 z-인덱스(z-index)를 나타내는 값을 유지하도록, 야기할 수 있다. In one embodiment, the instructions, when executed by the processor (120), may cause the wearable device to maintain a value representing a z-index of the content while the location of the content in the 3D virtual environment changes from the first depth to the second depth.

일 실시예에 따르면, 상기 인스트럭션들은, 상기 프로세서(120)에 의해 실행될 시, 상기 웨어러블 장치가, 상기 콘텐트가 상기 제1 디스플레이(250-1) 및 상기 제2 디스플레이(250-2) 상에 플로팅되는(floated) 시각적 객체인지 여부를 식별하도록, 야기할 수 있다. 상기 인스트럭션들은, 상기 프로세서(120)에 의해 실행될 시, 상기 웨어러블 장치가, 상기 콘텐트가 상기 플로팅되는 시각적 객체임을 식별함에 응답하여, 상기 콘텐트의 상기 3D 가상 환경에서의 위치를 상기 제1 깊이로부터 상기 제2 깊이로 변경하도록, 야기할 수 있다.In one embodiment, the instructions, when executed by the processor (120), may cause the wearable device to identify whether the content is a visual object floating on the first display (250-1) and the second display (250-2). The instructions, when executed by the processor (120), may cause the wearable device to, in response to identifying the content as the floating visual object, change a location of the content in the 3D virtual environment from the first depth to the second depth.

일 실시예에 따르면, 상기 인스트럭션들은, 상기 프로세서(120)에 의해 실행될 시, 상기 웨어러블 장치가, 상기 기준 시간 이상인 상기 시간 구간에 응답하여, 상기 카메라(510)에 기반하여, 상기 사용자(user)의 응시 시간(gazing time)이 기준 응시 시간 이상인지 여부를 식별하도록, 야기할 수 있다. 상기 인스트럭션들은, 상기 프로세서(120)에 의해 실행될 시, 상기 웨어러블 장치가, 상기 응시 시간이 상기 기준 응시 시간 이상임을 식별함에 기반하여, 상기 제2 깊이에서 상기 제2 표시 사이즈를 갖는 상기 콘텐트를 표시하도록 야기할 수 있다. 상기 응시 시간은, 상기 사용자의 시선이 상기 제1 표시 사이즈 내에 위치되는 시간을 나타낼 수 있다.In one embodiment, the instructions, when executed by the processor (120), may cause the wearable device to identify, based on the camera (510), whether a gazing time of the user is greater than or equal to a reference gazing time, in response to the time period being greater than or equal to the reference time. The instructions, when executed by the processor (120), may cause the wearable device to display the content having the second display size at the second depth based on identifying that the gazing time is greater than or equal to the reference gazing time. The gazing time may represent a time during which the user's gaze is positioned within the first display size.

일 실시예에 따르면, 상기 콘텐트는, 상기 3D 가상 환경 내의 2차원 객체(two-dimensional object) 또는 3차원 객체(three-dimensional object)를 포함할 수 있다. In one embodiment, the content may include a two-dimensional object or a three-dimensional object within the 3D virtual environment.

본 문서에 개시된 다양한 실시예들에 따른 전자 장치는 다양한 형태의 장치가 될 수 있다. 전자 장치는, 예를 들면, 휴대용 통신 장치(예: 스마트폰), 컴퓨터 장치, 휴대용 멀티미디어 장치, 휴대용 의료 기기, 카메라, 웨어러블 장치, 또는 가전 장치를 포함할 수 있다. 본 문서의 실시예에 따른 전자 장치는 전술한 기기들에 한정되지 않는다.The electronic devices according to various embodiments disclosed in this document may be devices of various forms. The electronic devices may include, for example, portable communication devices (e.g., smartphones), computer devices, portable multimedia devices, portable medical devices, cameras, wearable devices, or home appliance devices. The electronic devices according to embodiments of this document are not limited to the above-described devices.

본 문서의 다양한 실시예들 및 이에 사용된 용어들은 본 문서에 기재된 기술적 특징들을 특정한 실시예들로 한정하려는 것이 아니며, 해당 실시예의 다양한 변경, 균등물, 또는 대체물을 포함하는 것으로 이해되어야 한다. 도면의 설명과 관련하여, 유사한 또는 관련된 구성요소에 대해서는 유사한 참조 부호가 사용될 수 있다. 아이템에 대응하는 명사의 단수 형은 관련된 문맥상 명백하게 다르게 지시하지 않는 한, 상기 아이템 한 개 또는 복수 개를 포함할 수 있다. 본 문서에서, "A 또는 B", "A 및 B 중 적어도 하나", "A 또는 B 중 적어도 하나", "A, B 또는 C", "A, B 및 C 중 적어도 하나", 및 "A, B, 또는 C 중 적어도 하나"와 같은 문구들 각각은 그 문구들 중 해당하는 문구에 함께 나열된 항목들 중 어느 하나, 또는 그들의 모든 가능한 조합을 포함할 수 있다. "제1", "제2", 또는 "첫째" 또는 "둘째"와 같은 용어들은 단순히 해당 구성요소를 다른 해당 구성요소와 구분하기 위해 사용될 수 있으며, 해당 구성요소들을 다른 측면(예: 중요성 또는 순서)에서 한정하지 않는다. 어떤(예: 제1) 구성요소가 다른(예: 제2) 구성요소에, "기능적으로" 또는 "통신적으로"라는 용어와 함께 또는 이런 용어 없이, "커플드" 또는 "커넥티드"라고 언급된 경우, 그것은 상기 어떤 구성요소가 상기 다른 구성요소에 직접적으로(예: 유선으로), 무선으로, 또는 제3 구성요소를 통하여 연결될 수 있다는 것을 의미한다.It should be understood that the various embodiments of this document and the terminology used herein are not intended to limit the technical features described in this document to specific embodiments, but include various modifications, equivalents, or substitutes of the embodiments. In connection with the description of the drawings, similar reference numerals may be used for similar or related components. The singular form of a noun corresponding to an item may include one or more of the items, unless the context clearly dictates otherwise. In this document, each of the phrases "A or B", "at least one of A and B", "at least one of A or B", "A, B, or C", "at least one of A, B, and C", and "at least one of A, B, or C" can include any one of the items listed together in the corresponding phrase, or all possible combinations thereof. Terms such as "first", "second", or "first" or "second" may be used merely to distinguish one component from another, and do not limit the components in any other respect (e.g., importance or order). When a component (e.g., a first component) is referred to as "coupled" or "connected" to another (e.g., a second component), with or without the terms "functionally" or "communicatively," it means that the component can be connected to the other component directly (e.g., wired), wirelessly, or through a third component.

본 문서의 다양한 실시예들에서 사용된 용어 "모듈"은 하드웨어, 소프트웨어 또는 펌웨어로 구현된 유닛을 포함할 수 있으며, 예를 들면, 로직, 논리 블록, 부품, 또는 회로와 같은 용어와 상호 호환적으로 사용될 수 있다. 모듈은, 일체로 구성된 부품 또는 하나 또는 그 이상의 기능을 수행하는, 상기 부품의 최소 단위 또는 그 일부가 될 수 있다. 예를 들면, 일 실시예에 따르면, 모듈은 ASIC(application-specific integrated circuit)의 형태로 구현될 수 있다. The term "module" used in various embodiments of this document may include a unit implemented in hardware, software or firmware, and may be used interchangeably with terms such as logic, logic block, component, or circuit, for example. A module may be an integrally configured component or a minimum unit of the component or a portion thereof that performs one or more functions. For example, according to one embodiment, a module may be implemented in the form of an application-specific integrated circuit (ASIC).

본 문서의 다양한 실시예들은 기기(machine)(예: 전자 장치(101)) 의해 읽을 수 있는 저장 매체(storage medium)(예: 내장 메모리(136) 또는 외장 메모리(138))에 저장된 하나 이상의 명령어들을 포함하는 소프트웨어(예: 프로그램(140))로서 구현될 수 있다. 예를 들면, 기기(예: 전자 장치(101))의 프로세서(예: 프로세서(120))는, 저장 매체로부터 저장된 하나 이상의 명령어들 중 적어도 하나의 명령을 호출하고, 그것을 실행할 수 있다. 이것은 기기가 상기 호출된 적어도 하나의 명령어에 따라 적어도 하나의 기능을 수행하도록 운영되는 것을 가능하게 한다. 상기 하나 이상의 명령어들은 컴파일러에 의해 생성된 코드 또는 인터프리터에 의해 실행될 수 있는 코드를 포함할 수 있다. 기기로 읽을 수 있는 저장 매체는, 비일시적(non-transitory) 저장 매체의 형태로 제공될 수 있다. 여기서, '비일시적'은 저장 매체가 실재(tangible)하는 장치이고, 신호(signal)(예: 전자기파)를 포함하지 않는다는 것을 의미할 뿐이며, 이 용어는 데이터가 저장 매체에 반영구적으로 저장되는 경우와 임시적으로 저장되는 경우를 구분하지 않는다.Various embodiments of the present document may be implemented as software (e.g., a program (140)) including one or more instructions stored in a storage medium (e.g., an internal memory (136) or an external memory (138)) readable by a machine (e.g., an electronic device (101)). For example, a processor (e.g., a processor (120)) of the machine (e.g., an electronic device (101)) may call at least one instruction among the one or more instructions stored from the storage medium and execute it. This enables the machine to operate to perform at least one function according to the called at least one instruction. The one or more instructions may include code generated by a compiler or code executable by an interpreter. The machine-readable storage medium may be provided in the form of a non-transitory storage medium. Here, 'non-transitory' simply means that the storage medium is a tangible device and does not contain signals (e.g. electromagnetic waves), and the term does not distinguish between cases where data is stored semi-permanently or temporarily on the storage medium.

일 실시예에 따르면, 본 문서에 개시된 다양한 실시예들에 따른 방법은 컴퓨터 프로그램 제품(computer program product)에 포함되어 제공될 수 있다. 컴퓨터 프로그램 제품은 상품으로서 판매자 및 구매자 간에 거래될 수 있다. 컴퓨터 프로그램 제품은 기기로 읽을 수 있는 저장 매체(예: compact disc read only memory(CD-ROM))의 형태로 배포되거나, 또는 어플리케이션 스토어(예: 플레이 스토어TM)를 통해 또는 두 개의 사용자 장치들(예: 스마트 폰들) 간에 직접, 온라인으로 배포(예: 다운로드 또는 업로드)될 수 있다. 온라인 배포의 경우에, 컴퓨터 프로그램 제품의 적어도 일부는 제조사의 서버, 어플리케이션 스토어의 서버, 또는 중계 서버의 메모리와 같은 기기로 읽을 수 있는 저장 매체에 적어도 일시 저장되거나, 임시적으로 생성될 수 있다.According to one embodiment, the method according to various embodiments disclosed in the present document may be provided as included in a computer program product. The computer program product may be traded between a seller and a buyer as a commodity. The computer program product may be distributed in the form of a machine-readable storage medium (e.g., a compact disc read only memory (CD-ROM)), or may be distributed online (e.g., downloaded or uploaded) via an application store (e.g., Play Store TM ) or directly between two user devices (e.g., smart phones). In the case of online distribution, at least a part of the computer program product may be at least temporarily stored or temporarily generated in a machine-readable storage medium, such as a memory of a manufacturer's server, a server of an application store, or an intermediary server.

다양한 실시예들에 따르면, 상기 기술한 구성요소들의 각각의 구성요소(예: 모듈 또는 프로그램)는 단수 또는 복수의 개체를 포함할 수 있으며, 복수의 개체 중 일부는 다른 구성요소에 분리 배치될 수도 있다. 다양한 실시예들에 따르면, 전술한 해당 구성요소들 중 하나 이상의 구성요소들 또는 동작들이 생략되거나, 또는 하나 이상의 다른 구성요소들 또는 동작들이 추가될 수 있다. 대체적으로 또는 추가적으로, 복수의 구성요소들(예: 모듈 또는 프로그램)은 하나의 구성요소로 통합될 수 있다. 이런 경우, 통합된 구성요소는 상기 복수의 구성요소들 각각의 구성요소의 하나 이상의 기능들을 상기 통합 이전에 상기 복수의 구성요소들 중 해당 구성요소에 의해 수행되는 것과 동일 또는 유사하게 수행할 수 있다. 다양한 실시예들에 따르면, 모듈, 프로그램 또는 다른 구성요소에 의해 수행되는 동작들은 순차적으로, 병렬적으로, 반복적으로, 또는 휴리스틱하게 실행되거나, 상기 동작들 중 하나 이상이 다른 순서로 실행되거나, 생략되거나, 또는 하나 이상의 다른 동작들이 추가될 수 있다.According to various embodiments, each component (e.g., a module or a program) of the above-described components may include a single or multiple entities, and some of the multiple entities may be separately arranged in other components. According to various embodiments, one or more components or operations of the above-described corresponding components may be omitted, or one or more other components or operations may be added. Alternatively or additionally, the multiple components (e.g., a module or a program) may be integrated into one component. In such a case, the integrated component may perform one or more functions of each of the multiple components identically or similarly to those performed by the corresponding component of the multiple components before the integration. According to various embodiments, the operations performed by the module, program, or other component may be executed sequentially, in parallel, repeatedly, or heuristically, or one or more of the operations may be executed in a different order, omitted, or one or more other operations may be added.

Claims (14)

웨어러블 장치(101)(wearable device)에 있어서,
사용자의 좌안에 대하여(with respect to) 위치되는 제1 디스플레이(250-1)(display);
상기 사용자의 우안에 대하여 위치되는 제2 디스플레이(250-2);
카메라(510)(camera);
프로세서(120); 및
인스트럭션들을 저장하는 메모리를 포함하고,
상기 인스트럭션들은, 상기 프로세서(120)에 의해 실행될 시, 상기 웨어러블 장치가:
콘텐트가 3D 가상 환경(3 dimensional virtual environment)에서 제1 깊이에 위치된 것으로 인식되도록(perceived), 상기 제1 디스플레이(250-1) 및 상기 제2 디스플레이(250-2) 상에서 제1 표시 사이즈(displaying size)를 갖는 상기 콘텐트를, 표시하고; 및
상기 콘텐트가 기준 시간 이상인 시간 구간(time period) 동안 표시되는 경우, 상기 콘텐트가 상기 3D 가상 환경에서 상기 제1 깊이를 초과하는 제2 깊이에 위치된 것으로 인식되도록, 상기 제1 디스플레이(250-1) 및 상기 제2 디스플레이(250-2) 상에서 상기 제1 표시 사이즈와 실질적으로 동일한 제2 표시 사이즈로 표시하도록, 야기하는,
웨어러블 장치(101).
In a wearable device (101),
A first display (250-1) positioned with respect to the user's left eye;
A second display (250-2) positioned against the user's right eye;
camera (510);
Processor (120); and
Contains memory that stores instructions,
The above instructions, when executed by the processor (120), cause the wearable device to:
Displaying the content having a first displaying size on the first display (250-1) and the second display (250-2) so that the content is perceived as being located at a first depth in a 3 dimensional virtual environment; and
When the content is displayed for a time period longer than a reference time, the content is displayed on the first display (250-1) and the second display (250-2) in a second display size that is substantially the same as the first display size so that the content is recognized as being located at a second depth exceeding the first depth in the 3D virtual environment.
Wearable device (101).
청구항 1에 있어서,
상기 3D 가상 환경의 상기 제1 깊이에서 상기 3D 가상 환경 내의 상기 콘텐트의 사이즈는 제1 사이즈를 갖고, 및
상기 3D 가상 환경의 상기 제2 깊이에서 상기 3D 가상 환경 내의 상기 콘텐트의 상기 사이즈는 상기 제1 사이즈보다 큰 제2 사이즈를 갖는,
웨어러블 장치(101).
In claim 1,
The size of the content within the 3D virtual environment at the first depth of the 3D virtual environment has a first size, and
The size of the content within the 3D virtual environment at the second depth of the 3D virtual environment has a second size larger than the first size,
Wearable device (101).
청구항 1에 있어서,
상기 제1 깊이는, 상기 사용자의 초점 거리(focal length)가 제1 거리(length)에 대응하는 상기 3D 가상 환경 내의 제1 위치를 나타내고, 및
상기 제2 깊이는 상기 초점 거리가 상기 제1 거리보다 긴 제2 거리에 대응하는 상기 3D 가상 환경 내의 제2 위치를 나타내는,
웨어러블 장치(101).
In claim 1,
The first depth represents a first location within the 3D virtual environment where the user's focal length corresponds to a first length, and
The second depth represents a second location within the 3D virtual environment corresponding to a second distance where the focal length is longer than the first distance,
Wearable device (101).
청구항 1에 있어서,
상기 인스트럭션들은, 상기 프로세서(120)에 의해 실행될 시, 상기 웨어러블 장치가:
상기 사용자의 초점 거리(focal length)의 조정(adjusting)을 위한 기능(function)이 활성화되었는지 여부를 식별하고;
상기 기능이 활성화됨을 식별함에 응답하여, 상기 시간 구간이 상기 기준 시간 이상인지 여부를 식별하고;
상기 기능이 비활성화됨을 식별함에 응답하여, 상기 콘텐트가 상기 3D 가상 환경에서 상기 제1 깊이에 위치된 것으로 인식되도록, 상기 제1 디스플레이(250-1) 및 상기 제2 디스플레이(250-2) 상에서 상기 제1 표시 사이즈를 갖는 상기 콘텐트의 표시를 유지하도록, 야기하는
웨어러블 장치(101).
In claim 1,
The above instructions, when executed by the processor (120), cause the wearable device to:
Identify whether the function for adjusting the focal length of the user is activated;
In response to identifying that the above function is activated, identifying whether the time interval is greater than or equal to the reference time;
In response to identifying that the above function is disabled, causing display of the content having the first display size on the first display (250-1) and the second display (250-2) so that the content is recognized as being located at the first depth in the 3D virtual environment.
Wearable device (101).
청구항 1에 있어서,
상기 인스트럭션들은, 상기 프로세서(120)에 의해 실행될 시, 상기 웨어러블 장치가:
상기 콘텐트를 표시하기 위한 입력을 획득하고;
상기 입력에 응답하여, 상기 제1 디스플레이(250-1) 및 상기 제2 디스플레이(250-2) 상에서 상기 제1 표시 사이즈를 갖는 상기 콘텐트를 표시하도록, 야기하고,
상기 제1 깊이는, 상기 사용자에 의해 지정되는,
웨어러블 장치(101).
In claim 1,
The above instructions, when executed by the processor (120), cause the wearable device to:
Obtain input for displaying the above content;
In response to the above input, cause the content having the first display size to be displayed on the first display (250-1) and the second display (250-2),
The above first depth is specified by the user,
Wearable device (101).
청구항 1에 있어서,
상기 기준 시간은, 상기 콘텐트의 재생 속도(play speed), 또는 상기 사용자의 초점 거리를 조정하는 능력(capability) 정보에 기반하여 식별되고, 및
상기 능력 정보는, 상기 사용자의 초점 거리의 범위를 포함하는,
웨어러블 장치(101).
In claim 1,
The above reference time is identified based on the play speed of the content or the capability information of adjusting the user's focal distance, and
The above capability information includes the range of the user's focal length,
Wearable device (101).
청구항 1에 있어서,
상기 제1 디스플레이(250-1) 및 상기 제2 디스플레이(250-2) 상에서 상기 제1 표시 사이즈를 갖는 상기 콘텐트는, 상기 제1 디스플레이(250-1)의 상기 제1 표시 사이즈를 갖는 제1 표시 영역에 표시되는 제1 이미지(image) 및 상기 제2 디스플레이(250-2)의 상기 제1 표시 사이즈를 갖는 제2 표시 영역에 표시되는 제2 이미지에 기반하여 표시되고, 및
상기 제1 디스플레이(250-1) 및 상기 제2 디스플레이(250-2) 상에서 상기 제2 표시 사이즈를 갖는 상기 콘텐트는, 상기 제1 디스플레이(250-1)의 상기 제2 표시 사이즈를 갖는 제3 표시 영역에 표시되는 제3 이미지(image) 및 상기 제2 디스플레이(250-2)의 상기 제2 표시 사이즈를 갖는 제4 표시 영역에 표시되는 제4 이미지에 기반하여 표시되는,
웨어러블 장치(101).
In claim 1,
The content having the first display size on the first display (250-1) and the second display (250-2) is displayed based on a first image displayed in a first display area having the first display size of the first display (250-1) and a second image displayed in a second display area having the first display size of the second display (250-2), and
The content having the second display size on the first display (250-1) and the second display (250-2) is displayed based on a third image displayed in a third display area having the second display size of the first display (250-1) and a fourth image displayed in a fourth display area having the second display size of the second display (250-2).
Wearable device (101).
청구항 7에 있어서,
상기 제1 이미지의 지정된 위치에 대한 좌표와 상기 제2 이미지의 상기 지정된 위치에 대한 좌표 사이의 차이(difference)는, 상기 제3 이미지의 상기 지정된 위치에 대한 좌표와 상기 제4 이미지의 상기 지정된 위치에 대한 좌표 사이의 차이 보다 큰,
웨어러블 장치(101).
In claim 7,
The difference between the coordinates for the specified position of the first image and the coordinates for the specified position of the second image is greater than the difference between the coordinates for the specified position of the third image and the coordinates for the specified position of the fourth image.
Wearable device (101).
청구항 1에 있어서,
상기 인스트럭션들은, 상기 프로세서(120)에 의해 실행될 시, 상기 웨어러블 장치가:
상기 사용자에 대한 아이 캘리브레이션(eye calibration)을 수행함에 기반하여, 상기 사용자의 초점 거리에 대한 능력 정보를 획득하고; 및
상기 능력 정보에 기반하여, 상기 콘텐트의 상기 3D 가상 환경에서의 위치를 상기 제1 깊이로부터 상기 제2 깊이로 변경하도록, 야기하고,
상기 능력 정보는, 상기 사용자의 초점 거리의 범위를 포함하는,
웨어러블 장치(101).
In claim 1,
The above instructions, when executed by the processor (120), cause the wearable device to:
Based on performing eye calibration for the user, ability information on the user's focal length is obtained; and
Based on the above capability information, causing the location of the content in the 3D virtual environment to be changed from the first depth to the second depth,
The above capability information includes the range of the user's focal length,
Wearable device (101).
청구항 9에 있어서,
상기 인스트럭션들은, 상기 프로세서(120)에 의해 실행될 시, 상기 웨어러블 장치가:
상기 능력 정보에 기반하여 변경된, 상기 제2 표시 사이즈를 갖는 상기 콘텐트에 대한 사용자의 초점 거리 조정의 결과를 식별하도록, 야기하고,
상기 결과는, 상기 제2 깊이에 기반하여 계산된 상기 사용자의 초점 거리와 상기 사용자의 실제 초점 거리 사이의 차이를 포함하는,
웨어러블 장치(101).
In claim 9,
The above instructions, when executed by the processor (120), cause the wearable device to:
Causing to identify the result of a user's adjustment of the focal length for the content having the second display size changed based on the above capability information,
The above result includes the difference between the user's focal length calculated based on the second depth and the user's actual focal length.
Wearable device (101).
청구항 1에 있어서,
상기 인스트럭션들은, 상기 프로세서(120)에 의해 실행될 시, 상기 웨어러블 장치가:
상기 콘텐트의 상기 3D 가상 환경에서의 위치가 상기 제1 깊이로부터 상기 제2 깊이로 변경되는 동안, 상기 콘텐트의 z-인덱스(z-index)를 나타내는 값을 유지하도록, 야기하는,
웨어러블 장치(101).
In claim 1,
The above instructions, when executed by the processor (120), cause the wearable device to:
causing a value representing a z-index of said content to be maintained while the position of said content in said 3D virtual environment changes from said first depth to said second depth;
Wearable device (101).
청구항 1에 있어서,
상기 인스트럭션들은, 상기 프로세서(120)에 의해 실행될 시, 상기 웨어러블 장치가:
상기 콘텐트가 상기 제1 디스플레이(250-1) 및 상기 제2 디스플레이(250-2) 상에 플로팅되는(floated) 시각적 객체인지 여부를 식별하고, 및
상기 콘텐트가 상기 플로팅되는 시각적 객체임을 식별함에 응답하여, 상기 콘텐트의 상기 3D 가상 환경에서의 위치를 상기 제1 깊이로부터 상기 제2 깊이로 변경하도록, 야기하는,
웨어러블 장치(101).
In claim 1,
The above instructions, when executed by the processor (120), cause the wearable device to:
Identifying whether the content is a visual object floating on the first display (250-1) and the second display (250-2), and
In response to identifying that said content is said floating visual object, causing a location of said content in said 3D virtual environment to change from said first depth to said second depth;
Wearable device (101).
청구항 1에 있어서,
상기 인스트럭션들은, 상기 프로세서(120)에 의해 실행될 시, 상기 웨어러블 장치가:
상기 기준 시간 이상인 상기 시간 구간에 응답하여, 상기 카메라(510)에 기반하여, 상기 사용자(user)의 응시 시간(gazing time)이 기준 응시 시간 이상인지 여부를 식별하고; 및
상기 응시 시간이 상기 기준 응시 시간 이상임을 식별함에 기반하여, 상기 제2 깊이에서 상기 제2 표시 사이즈를 갖는 상기 콘텐트를 표시하도록 야기하고,
상기 응시 시간은, 상기 사용자의 시선이 상기 제1 표시 사이즈 내에 위치되는 시간을 나타내는,
웨어러블 장치(101).
In claim 1,
The above instructions, when executed by the processor (120), cause the wearable device to:
In response to the time interval being longer than the above reference time, identifying whether the gazing time of the user is longer than the reference gazing time based on the camera (510); and
Based on identifying that the above gaze time is greater than or equal to the reference gaze time, causing the content having the second display size to be displayed at the second depth;
The above gaze time indicates the time that the user's gaze is positioned within the first display size.
Wearable device (101).
청구항 1에 있어서,
상기 콘텐트는, 상기 3D 가상 환경 내의 2차원 객체(two-dimensional object) 또는 3차원 객체(three-dimensional object)를 포함하는,
웨어러블 장치(101).
In claim 1,
The content includes a two-dimensional object or a three-dimensional object within the 3D virtual environment.
Wearable device (101).
KR1020230140647A 2023-06-13 2023-10-19 Electronic device and method for displaying a content in virtual environment Pending KR20240175670A (en)

Priority Applications (2)

Application Number Priority Date Filing Date Title
PCT/KR2024/003889 WO2024258008A1 (en) 2023-06-13 2024-03-27 Electronic device and method for displaying content in virtual environment
US18/629,652 US20240420410A1 (en) 2023-06-13 2024-04-08 Electronic device and method for displaying content in virtual environment

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
KR20230075843 2023-06-13
KR1020230075843 2023-06-13

Publications (1)

Publication Number Publication Date
KR20240175670A true KR20240175670A (en) 2024-12-20

Family

ID=94038286

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020230140647A Pending KR20240175670A (en) 2023-06-13 2023-10-19 Electronic device and method for displaying a content in virtual environment

Country Status (1)

Country Link
KR (1) KR20240175670A (en)

Similar Documents

Publication Publication Date Title
KR20240029944A (en) An electronic device for calibrating a virtual object using depth information on a real object, and a method for controlling the same
US20240420410A1 (en) Electronic device and method for displaying content in virtual environment
KR20240175670A (en) Electronic device and method for displaying a content in virtual environment
US12394069B2 (en) Electronic device, method, and storage medium for obtaining image for tracking
US20250173919A1 (en) Device and method for measuring distance with respect to external object
EP4614283A1 (en) Electronic device and method for identifying user input in virtual space
US20250216683A1 (en) Wearable device for guiding user's posture and method thereof
US12260142B2 (en) Electronic device and method for controlling display of at least one external object among one or more external objects
KR20250077326A (en) Device and method for measuring distance with respect to external object
US20250252658A1 (en) Wearable device for changing state of screen, and method therefor
US20250068235A1 (en) Wearable device and method for identifying location of target object
US20240104695A1 (en) Electronic device for controlling resolution of each of plurality of areas included in image acquired from camera and method thereof
US20250199612A1 (en) Wearable device providing immersive experience and method of controlling same
EP4579397A1 (en) Wearable device, method, and computer-readable storage medium, for adjusting gaze information of user
US20250224916A1 (en) Electronic device for adjusting audio signal associated with object shown through display, and method thereof
KR20250030878A (en) Electronic device, method, and storage medium for obtaining image for tracking
KR20250036412A (en) Device and method for providing visual information representing security level
KR20250015644A (en) Electronic device, method, and computer-readable storage medium for changing screen based on switching of virtual space
US20250321636A1 (en) Wearable device, method, and non-transitory computer-readable storage medium for setting depth value of pixels
US20250035932A1 (en) Wearable electronic device including transparent display
KR20240085818A (en) Electronic device and method for identifying user input in a virtual space
KR20250011553A (en) Electronic device and method for displaying a visual object based on object recognition
KR20250011552A (en) Electronic device and method for tracking an external object in virtual environment
KR20240050198A (en) Wearable device for guiding user's posture and method thereof
KR20250007947A (en) Electronic device, method, and computer-readable storage media for controlling order of data sets for controlling led

Legal Events

Date Code Title Description
PA0109 Patent application

Patent event code: PA01091R01D

Comment text: Patent Application

Patent event date: 20231019

PG1501 Laying open of application