WO2018135730A1 - Vr image generation method, vr image processing method, and vr image processing system - Google Patents
Vr image generation method, vr image processing method, and vr image processing system Download PDFInfo
- Publication number
- WO2018135730A1 WO2018135730A1 PCT/KR2017/012090 KR2017012090W WO2018135730A1 WO 2018135730 A1 WO2018135730 A1 WO 2018135730A1 KR 2017012090 W KR2017012090 W KR 2017012090W WO 2018135730 A1 WO2018135730 A1 WO 2018135730A1
- Authority
- WO
- WIPO (PCT)
- Prior art keywords
- information
- image
- user
- specified
- output information
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Ceased
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T19/00—Manipulating 3D models or images for computer graphics
- G06T19/003—Navigation within 3D models or images
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T11/00—2D [Two Dimensional] image generation
- G06T11/60—Editing figures and text; Combining figures or text
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T19/00—Manipulating 3D models or images for computer graphics
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/10—Segmentation; Edge detection
- G06T7/11—Region-based segmentation
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N13/00—Stereoscopic video systems; Multi-view video systems; Details thereof
- H04N13/30—Image reproducers
- H04N13/366—Image reproducers using viewer tracking
- H04N13/383—Image reproducers using viewer tracking for tracking with gaze detection, i.e. detecting the lines of sight of the viewer's eyes
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N21/00—Selective content distribution, e.g. interactive television or video on demand [VOD]
- H04N21/80—Generation or processing of content or additional data by content creator independently of the distribution process; Content per se
- H04N21/81—Monomedia components thereof
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N21/00—Selective content distribution, e.g. interactive television or video on demand [VOD]
- H04N21/80—Generation or processing of content or additional data by content creator independently of the distribution process; Content per se
- H04N21/81—Monomedia components thereof
- H04N21/8146—Monomedia components thereof involving graphical data, e.g. 3D object, 2D graphics
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N21/00—Selective content distribution, e.g. interactive television or video on demand [VOD]
- H04N21/80—Generation or processing of content or additional data by content creator independently of the distribution process; Content per se
- H04N21/81—Monomedia components thereof
- H04N21/816—Monomedia components thereof involving special video data, e.g 3D video
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10004—Still image; Photographic image
- G06T2207/10012—Stereo images
Definitions
- the present invention relates to a VR image generation method, a VR image processing method, and a VR image processing system based on a 3D coordinate system.
- 360-degree panoramic video of the VR (virtual reality) video can be viewed by selecting the direction or point that the user wants to view within the entire video.
- Such VR images can be viewed through a video display device such as a head mount display (HMD).
- HMD head mount display
- the VR image generating method matching the VR image to the three-dimensional coordinate system; Specifying at least one object in the image based on the matched three-dimensional coordinate system while driving control of the VR image; Setting object information including location information, expression time information, and output information based on coordinate values for the specified object; And generating VR image data to which object information is added.
- the step of specifying the object may include specifying an area formed from at least one specific coordinate value selected by the user during the time that the object is expressed in the VR image, or setting the direction based on the origin on the 3D coordinate system.
- region made based on an excitation angle value can be specified.
- the output information may include at least one of caption information, voice information, and additional information.
- the additional information may include at least one of tag information, description information about an object, object related image information, object related advertisement information, and link information.
- the specified area may be moved along the object.
- the VR image processing method driving the VR image matched to the three-dimensional coordinate system; Detecting a line of sight of the user based on an origin of the VR image, and displaying a corresponding field of view of the VR image on the display unit according to the detected line of sight; And processing output information for each specified object based on at least one of object information set for at least one predetermined object in the VR image, gaze information of the user, and a user selection signal.
- the object information includes position information, expression time information, and output information based on coordinate values.
- At least one of direction information and output information indicating a position of the specified object during the time that the object is expressed can be output in the viewing area of the display unit.
- the processing of the output information on the specified object may further include: measuring interest of each object according to the measured time length by operating a virtual timer for each object when the specified object is located in the viewing area of the display unit. It may include. At this time, in the process of processing the output information for the specified object, if the measured interest meets a set condition, at least one of the description information, object-related image information, object-related advertisement information, link information as the output information You can output
- the processing of the output information on the specified object may include: updating interest for each user according to the measured interest for each object; And updating the output information according to the degree of interest.
- the description information about the object as the output information, the object At least one of related image information, object related advertisement information, and link information may be output.
- the VR image processing system for providing the object information set for the VR image and at least one predetermined object in the VR image via a network; And driving the VR image by matching the 3D coordinate system, detecting a user's gaze based on the user's rotation or eye movement at the origin of the VR image, and a corresponding visual field of the VR image according to the detected gaze.
- the VR image server may provide a VR image and object information in a real time streaming transmission method.
- various image processing can be performed using at least one object information set in a VR image based on a 3D coordinate system, thereby providing an improved interactive environment between the user and the image, thereby providing a more realistic and interesting VR image to the user.
- object information set in a VR image based on a 3D coordinate system
- FIG. 1 is a conceptual diagram illustrating a VR image processing system according to an exemplary embodiment of the present invention.
- FIG. 2 is a block diagram illustrating a configuration of a user device according to an embodiment of the present invention.
- FIG. 3 is a flowchart illustrating a method of generating a VR image according to an embodiment of the present invention.
- FIG. 4 is an exemplary diagram for describing specifying an object based on a specific coordinate value in a VR image.
- 5 is an exemplary diagram for describing an angle value having directivity with respect to a user's gaze.
- FIG. 6 is an exemplary diagram for describing specifying a viewing area in a VR image.
- FIG. 7 is a flowchart illustrating a VR image processing method according to an embodiment of the present invention.
- FIG. 8 is a view for explaining movement of the viewing area according to the user's gaze movement.
- 9 is a diagram for explaining interest measurement.
- FIG. 10 is an exemplary diagram for describing output information output in a display screen of a viewing area.
- 11 is an exemplary diagram for describing output information output through a selection signal of a user device.
- FIG. 12 is a flowchart illustrating a method of outputting output information based on measured interests according to an embodiment of the present invention.
- FIG. 13 is a flowchart illustrating a method of outputting output information based on a user selection signal according to an embodiment of the present invention.
- FIG. 14 is an exemplary diagram illustrating a method of outputting object information and direction information based on location information of an object in a VR image.
- FIG. 15 is a conceptual diagram for describing a method of expressing a position of an object based on position information of the object in a VR image.
- Figure 1 is a conceptual diagram showing a VR image processing system according to an embodiment of the present invention.
- the VR image processing system may include a VR image server 100 and a user device 200.
- the VR image server 100 is connected to the user device 200 through a network to the user device 200 for at least one predetermined object (eg, person or object) in the VR image and the VR image.
- Set object information can be provided.
- the VR image server 100 may be provided with a database for storing the VR image and object information.
- the VR image server 100 may be a server computer of a VR image provider.
- the user device 200 is a device that drives a VR image and outputs a part of the image in the corresponding VR image according to the user's eyes.
- the user device 200 may be a head mount display (HMD), a computer, a smartphone, or the like. It may be a configuration consisting of a combination of.
- HMD head mount display
- the user device 200 may include a driving unit 210, a sensing unit 220, a display unit 230, an input unit 240, and a control unit 250.
- the driver 210 is configured to drive the VR image by matching the 3D coordinate system.
- the sensor 220 is a component that detects the gaze of the user based on the rotation of the user (ie, the rotation of the device) or the movement of the eye based on the origin of the VR image.
- the detector 220 may include an angular velocity sensor, a gyro sensor, and the like to detect the rotation of the device.
- the detector 220 may include an eye tracking sensor that detects the direction (eye) or movement of the eye. It can be provided.
- the display unit 230 is configured to display a corresponding viewing area while driving the VR image according to the detected gaze.
- the input unit 240 is configured to receive a selection signal, an operation signal, and the like from the user, and may include various operation buttons and selection buttons.
- an input means such as a mouse or a keyboard may be used.
- the controller 250 controls the driver 210, the detector 220, the display 230, and the inputter 240.
- the controller 250 controls at least one of object information, gaze information of the user, and a user selection signal while driving the VR image. Based on this, output information for each specified object can be processed.
- the user device 200 may be realized through an application stored in a storage medium that executes functions of the driver 210, the detector 220, the display 230, the input 240, and the controller 250.
- the driver 210 the detector 220
- the display 230 the input 240
- the controller 250 the controller 250
- it may be implemented as a combination of hardware for implementing each function.
- the user device 200 may further include a communication unit 260 for communicating with the VR image server 100.
- the apparatus may further include a speaker for outputting an audio signal of the VR image.
- the VR image server 100 may create and edit VR image data by using a VR image authoring tool.
- a VR image authoring tool For example, when specifying an area for an object, an object area may be specified using an input device such as a mouse or a keyboard in an administrator computer connected to the VR video server 100, or may be connected to the manager computer as an input device.
- the object area may be specified by using a pointer or the like that interworks with the user's gaze of the HMD.
- FIG. 3 is a flowchart illustrating a method of generating a VR image according to an embodiment of the present invention.
- FIG. 4 is an exemplary diagram for describing an object specification based on a specific coordinate value in a VR image.
- FIG. 6 is an exemplary diagram for describing an angular value having directionality based on a line of sight, and
- FIG. 6 is an exemplary diagram for describing specifying a viewing area in a VR image.
- the VR image is matched to a 3D coordinate system (S10).
- the VR image is a 360 degree video, for example, by arranging a plurality of (eg, six) photographing apparatuses at an angular interval and primarily generating images obtained through the photographing apparatuses through image processing such as stitching.
- a spherical 360 degree video Since generating the primary VR image is well known, a detailed description thereof will be omitted.
- At least one object in the VR image is specified based on the matched 3D coordinate system (S20).
- specifying the object (S20) may specify an area formed from at least one specific coordinate value selected by the user during the time that the object is expressed in the VR image, or may refer to the origin on the 3D coordinate system.
- the region made based on the angular value having directionality can be specified.
- an object when specifying an object, an object may be specified as shown in FIG. 4.
- 4 is a screen illustrating a part of a viewing area in a VR image. The user may select a specific coordinate value for the object to be specified in the VR image to specify an area formed by the specific coordinate value.
- regions are specified for two objects (people).
- a quadrangular area formed by selecting two or more specific points for example, (x1, y1, z1) and (x4, y4, z4) is specified. Can be.
- the left object when specifying the left object, it is possible to specify a quadrangular area formed by selecting two or more specific points (for example, (x6, y6, z6) and (x7, y7, z7)).
- the area formed by the specific point is not limited to a quadrilateral, but may have a polygonal shape consisting of three or more specific points, or a circle having a predetermined distance from one specific point or about a specific point.
- a polygonal area of a predetermined size may be specified.
- the specific point is specified in the rectangular coordinate system, but the present invention is not limited thereto.
- the specific point may be specified in the spherical coordinate system.
- the value of ⁇ (angle from the z-axis in the positive direction to the straight line formed by the specific point in the visual direction, that is, the angle of the vertical component) and ⁇ value (positive
- region made by specifying four specific points can be specified based on the angle to the straight line which the x-axis of a direction, the straight line which forms an origin and a specific point projected on the xy plane, ie, the angle of a horizontal component).
- r is a constant value as the distance from the origin (that is, the eyes of the user) to the VR image.
- the region of the object to be specified can be specified using a specific point made based on an angle value having a directionality with respect to the origin in the spherical coordinate system.
- a region made based on an angular value having directivity may be specified.
- the angle value ⁇ 1 having the directionality set based on the user's line of sight is upward and downward.
- the angle value ⁇ 1 having the directionality set based on the user's gaze is Determined left and right. Accordingly, a rectangle is formed by two linear components in the horizontal direction in the VR image formed by the upper and lower angle values ⁇ 1 and two linear components in the vertical direction in the VR image formed by the left and right angle values ⁇ 1. Areas of shape may be specified.
- an area of the object may be specified through a function of tracking a specific image (face shape, object shape, etc.) in the VR image.
- the object when the object to be specified moves in the VR image according to time, the object may be specified while moving the specified area along the corresponding object.
- FIG. 6A shows specifying a viewing area in a spherical VR image viewed by the user's eye (for example, a virtual camera), and FIG. 6B shows a specified viewing area.
- the user may specify a view area of the VR image viewed by the user during viewing of the VR image as an area of view by specifying two or more coordinate values on the three-dimensional coordinate system.
- an area made based on an angular value having directivity may be specified as the viewing area.
- location information based on coordinate values for the specified object expression time information including start time and end time at which the object is expressed, and object information including additional output information about the object are set. (S30).
- the output information may include at least one of caption information, voice information, and additional information.
- the caption information may be a caption for the dialogue spoken by the person object or a caption for explaining the object of the object.
- the voice information may include additional sound information about the object.
- the additional information is set to variously use the specified object and may include at least one of tag information, description information about the object, image information related to the object, advertisement information related to the object, and link information.
- the tag information may include type information or name information of an object for searching through a keyword or the like and categorizing by category.
- Descriptive information is information for describing an object. If the object is a person, it may include information such as occupation, age, body, company, education, and representative works. If the object is an object, the information may include information such as product specification and price. have.
- the object-related image information may include recommended image information related to the object, and the advertisement information may include advertisement image information in which the object appears.
- the link information may include related site link information such as Facebook, Twitter, etc. for the object.
- the output information of each object may further include expression time information (ie, expression start time and expression end time) and position information to be expressed in the VR image based on the 3D coordinate system.
- expression time information ie, expression start time and expression end time
- position information to be expressed in the VR image based on the 3D coordinate system.
- VR image data to which the set object information is added is generated (S40).
- the generated VR image data may be stored on the VR image server 100.
- the VR image server 100 may store the VR image and the object information as one integrated data file and provide the same to the user device 200.
- the VR image server 100 may store the VR image and the object information as a data file separating the VR image and the object information.
- the object information may be selectively provided to the user device 200.
- VR image data to which object information generated by the VR image generation method is added may be used to provide various services to a user through image processing.
- FIG. 7 is a flowchart illustrating a VR image processing method according to an embodiment of the present invention.
- the VR image processing method first drives a VR image matched to a 3D coordinate system through a driving unit of the user device (S110). Subsequently, the user's gaze is sensed based on the origin of the VR image while driving the VR image through the sensing unit, and a corresponding viewing area of the VR image is displayed on the display unit according to the detected gaze (S120). Subsequently, the controller processes the output information for each specified object based on at least one of preset object information, gaze information of the user, and a user selection signal through the input unit for at least one predetermined object in the VR image. (S130).
- the object information may include location information, expression time information, and output information based on coordinate values
- the output information may include at least one of caption information, voice information, and additional information
- the additional information may include at least one of tag information, description information about an object, object related image information, object related advertisement information, and link information.
- the specified object (now speaking person) is located in an area outside the viewing area, during the time that the object is expressed (for example, At least one of direction information (for example, an arrow) and output information (for example, a caption) indicating a position of the object may be output to a set position in the viewing area of the display unit.
- direction information for example, an arrow
- output information for example, a caption
- subtitles uttered by the speaker (for example, 'how was your today?') Are displayed as object information. 13 may be output along with direction information such as an arrow indicating a speaker's position (FIG. 13A), a gradually increasing point display (FIG. 13B), and a sequentially blinking dot display.
- direction information such as an arrow indicating a speaker's position (FIG. 13A), a gradually increasing point display (FIG. 13B), and a sequentially blinking dot display.
- the subtitle is not set as the object information for the specified speaker, only the direction information may be displayed for the speaker to be uttered.
- FIG. 15 is a conceptual diagram for describing a method of expressing a position of an object based on position information of the object in a VR image.
- a method of displaying a speaker's position as a specified object based on an arrow is illustrated.
- the user can know the position of the speaker based on the direction of the arrow, so that the user can be induced to identify the speaker by switching the field of view to the direction of the arrow.
- the position of the speaker may be expressed through visual image processing that changes the position / shape of the subtitle, which is object information, without directly displaying the direction information. That is, when the coordinates corresponding to the speaker's position information are not included in the screen range displayed to the user, the position of the caption, which is the object information, is gradually incremented in the direction close to the speaker's position at the set position such as the center, center, or bottom. By repeatedly moving to the designated position, the direction of the speaker can be indicated.
- the direction of the speaker may be indicated by using a gradual change such as subtitle color or density.
- the direction of the speaker may be indicated by changing the color of the subtitle, such as blurring the subtitle when the speaker is far from the direction of the viewer, or changing to a set color (eg, green) as the speaker gets closer.
- the direction of the speaker may be indicated by tilting the subtitle in the direction of the speaker or by gradually increasing the size of the subtitle.
- a virtual timer for each object Operate to measure the interest of each object according to the measured length of time. For example, as shown in FIG. 8, first, an object is included in the field of view when "user gaze-1". Then, when “ user gaze-2 ", the gaze has moved but the object is still included in the field of view. Then, when "user gaze-3”, the gaze moves so that the object is only partially included in the field of view. Then, when "user gaze -4", the gaze moves so that the object is located outside the viewing area. In this case, as shown in FIG.
- a virtual timer is operated to measure the length of time that the object is located in the viewing area.
- the length of time may be measured until at least some of the objects are not included in the field of view, or may be measured until all of the objects are not included in the field of view.
- At least one of description information about the object, image information related to the object, advertisement information related to the object, and link information may be output as output information.
- the output information may display the recommendation image information as the object-related image information with high interest and the product of interest information as the object-related advertisement information on the display screen of the viewing area while driving the VR image.
- output information may be output for one object having the highest interest after the VR image driving ends. For example, for an object of high interest, we recommend an image whose name (product name, person's name, etc.) is included in the title (for example, tag information), or in an image classification category preset for the object. Related videos included may be recommended.
- the VR image server 100 may store user information through user-specific membership and then log in by accessing the VR image server 100 through the user device 200. have. If the non-login user is not registered, the output information may be output according to the measured interest of each object in the reproduced VR image.
- FIG. 12 is a flowchart illustrating a method of outputting output information based on measured interests according to an embodiment of the present invention.
- the user device 200 connects to the VR image server 100, and among the object information about the VR image and the VR image. By requesting at least one, the requested VR image and the object information may be received respectively.
- the user device 200 may request VR image data including object information from the VR image server 100 and receive the requested VR image data.
- the VR image server 100 may provide the VR image and the object information to the connected user apparatus 200 in a real time streaming manner, so that the user apparatus 200 may execute the VR image in real time.
- the VR image server 100 provides the VR image and the object information to the connected user device 200 in a download manner, and after the user device 200 downloads the VR image and the object information to the storage unit, the VR image and the object information are stored in the VR. You can also run an image.
- the user device 200 executes the corresponding VR image (S211). Subsequently, the user device 200 detects the user's gaze while executing the VR image to check the viewing unit range (ie, the display screen of the viewing area) (S212), and further, the object unit range (ie, the object) using the object information. The region specified by step S213). Next, it is determined whether the object part range in the view part is included (S214). If included (Yes) starts to operate the virtual timer (S215). If not included (No), the virtual timer stops operation (S216). Next, the interest of each object is measured according to the measurement time for each object measured by the virtual timer (S217). Subsequently, when execution of the corresponding VR image is ended (S218), output information on the object of interest with high interest may be output according to whether or not the user logs in (S219).
- the user device 200 transmits the measured interest information and the user information to the VR image server 100, and based on the accumulated image interest object for each user as output information from the VR image server 100.
- Recommended video information and advertising information can be provided.
- the user device 100 may add a score based on the interest information measured on a predetermined tag for each object.
- a classification keyword related to the VR image may be designated as a tag.
- Multiple tags per object may exist in the VR image.
- the tag score for each object may be calculated as (timer time per object / total VR video time) ⁇ tag correction value.
- the tag correction value is set to have a larger correction value as the degree of relevance for each tag increases.
- the user device 200 may transmit the tag score for each object as the measured interest information to the VR image server 100 together with the user information.
- the VR image server 100 may transmit output information to the user device 200 by using the accumulated tag information corrected by adding the tag value of the image previously viewed for each user. Accordingly, the user device 200 may output the recommendation image information and the advertisement information of the object of interest based on the accumulated interest of the user.
- the user device 200 may output the recommendation image information and the advertisement information as output information of the object information for the object of high interest measured according to the execution of the VR image ( S220).
- the output information on the selected object may be output using a pointer linked to the user's eye movement.
- the output information includes description information about the object, object related image information, object related advertisement information, and link information. At least one of them may be output.
- FIG. 11A when a pointer is located in the object area, a selection signal is input through the input unit of the user device, and as shown in FIG. 11B, the object is output as the output information. Description information and link information may be displayed.
- FIG. 13 is a flowchart illustrating a method of outputting output information based on a user selection signal according to an embodiment of the present invention.
- the user device 200 accesses the VR image server 100 and requests object information on a VR image. Requested object information can be received. Alternatively, the user device 200 may request VR image data including object information from the VR image server 100 and receive the requested VR image data.
- the user device 200 executes the corresponding VR image (S231). Subsequently, the user device 200 checks the point coordinates of the device pointer linked to the user's line of sight (S232), and outputs the pointer together with the display screen of the viewing area. In this case, the user device 200 checks an object portion range (ie, an area specified as an object) (S233). Next, it is determined whether a pointer within the range of the object portion is located (S234). If the pointer within the range of the object part is not located, the determination step S234 is continuously repeated. If the pointer within the range of the object portion is located, the user device 200 determines whether a specific button is input as the selection signal (S235). If a specific button is input, output information on the corresponding object is output on the display screen (S236). If a specific button is not input, the process is repeated again from step S234. In this case, the user device includes a specific button as an input unit.
- the specific button input step S235 may be replaced with a step of determining whether the pointer in the range of the object unit is positioned for a predetermined time. That is, when the pointer in the range of the object portion is located for a predetermined time, output information about the object is output, and when it is not located for the set time, the process may be repeated from step S234.
- various image processing can be performed using at least one object information set in the VR image based on the three-dimensional coordinate system, thereby providing a more interactive environment between the user and the image, thereby making the user more realistic and realistic. It can provide interesting VR video.
- the method of the present invention as described above can be written in a computer program. And the code and code segments constituting the program can be easily inferred by a computer programmer in the art.
- the written program is stored in a computer-readable recording medium (information storage medium), and read and executed by a computer to implement the method of the present invention.
- the recording medium may include any type of computer readable recording medium.
- VR video server 200 user device
- driver 220 detector
Landscapes
- Engineering & Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- Multimedia (AREA)
- Signal Processing (AREA)
- Software Systems (AREA)
- Computer Graphics (AREA)
- Computer Vision & Pattern Recognition (AREA)
- General Engineering & Computer Science (AREA)
- Computer Hardware Design (AREA)
- Radar, Positioning & Navigation (AREA)
- Remote Sensing (AREA)
- User Interface Of Digital Computer (AREA)
- Processing Or Creating Images (AREA)
Abstract
Description
본 발명은 3차원 좌표계를 기반으로 한 VR 영상 생성 방법, VR 영상 처리 방법 및 VR 영상 처리 시스템에 관한 것이다. The present invention relates to a VR image generation method, a VR image processing method, and a VR image processing system based on a 3D coordinate system.
VR(virtual reality) 영상 중 360도 파노라마 영상은 전체 영상 내에서 사용자가 보고 싶은 방향이나 지점을 선택해 감상할 수 있다. 이러한 VR 영상은 HMD(head mount display)와 같은 영상 표시 장치를 통해 감상할 수 있다. 360-degree panoramic video of the VR (virtual reality) video can be viewed by selecting the direction or point that the user wants to view within the entire video. Such VR images can be viewed through a video display device such as a head mount display (HMD).
그런데, 종래의 VR 영상 처리 기술은 360도 동영상을 가상의 3차원 공간에서 원형으로 펼쳐 사용자가 보고 싶은 방향이나 지점을 단순히 표시 처리하는 일반적인 표시 처리 방식이 적용되고 있었다.However, in the conventional VR image processing technology, a general display processing method in which a 360 degree video is unfolded in a virtual three-dimensional space in a circle and simply displays and displays a direction or a point that a user wants to see is applied.
이에 따라, VR(virtual reality) 기술의 특징이라 할 수 있는 사용자와 영상 간의 향상된 인터랙티브(상호작용) 환경 시스템을 구축하여, 사용자에게 보다 현실감 있고 흥미로운 VR 영상을 제공할 수 있는 영상 생성 기술 및 영상 처리 기술의 개발이 요구되었다.Accordingly, by creating an enhanced interactive (interaction) environment system between the user and the image, which is a characteristic of VR (virtual reality) technology, the image generation technology and image processing that can provide a realistic and interesting VR image to the user Development of technology was required.
본 발명은 3차원 좌표계를 기반으로 VR 영상 내에 설정된 적어도 하나의 객체정보를 이용하여 다양한 영상 처리를 수행할 수 있는 VR 영상 생성 방법, VR 영상 처리 방법 및 VR 영상 처리 시스템을 제공하는 데 목적이 있다. It is an object of the present invention to provide a VR image generation method, a VR image processing method, and a VR image processing system that can perform various image processing using at least one object information set in a VR image based on a 3D coordinate system. .
상기 목적을 달성하기 위해, 본 발명의 일 실시예에 따른 VR 영상 생성 방법은, VR 영상을 3차원 좌표계에 매칭시키는 단계; VR 영상을 구동 제어하면서, 매칭된 3차원 좌표계에 기초하여 영상 내의 적어도 하나의 객체를 특정하는 단계; 특정된 객체에 대해 좌표값에 기반한 위치정보, 발현시간정보, 출력정보를 포함하는 객체정보를 설정하는 단계; 및 객체정보가 부가된 VR 영상 데이터를 생성하는 단계를 포함한다.In order to achieve the above object, the VR image generating method according to an embodiment of the present invention, matching the VR image to the three-dimensional coordinate system; Specifying at least one object in the image based on the matched three-dimensional coordinate system while driving control of the VR image; Setting object information including location information, expression time information, and output information based on coordinate values for the specified object; And generating VR image data to which object information is added.
여기서, 객체를 특정하는 단계는, VR 영상 내에서 해당 객체가 발현되는 시간동안, 사용자에 의해 선택되는 적어도 하나의 특정 좌표값으로부터 이루어지는 영역을 특정하거나, 또는 3차원 좌표계 상의 원점을 기준으로 방향성을 가진 각도값에 기초하여 이루어지는 영역을 특정할 수 있다. Herein, the step of specifying the object may include specifying an area formed from at least one specific coordinate value selected by the user during the time that the object is expressed in the VR image, or setting the direction based on the origin on the 3D coordinate system. The area | region made based on an excitation angle value can be specified.
출력정보는 자막정보, 음성정보, 부가정보 중 적어도 하나를 포함할 수 있다.The output information may include at least one of caption information, voice information, and additional information.
또한, 부가정보는 태그정보, 객체에 대한 설명정보, 객체관련 영상 정보, 객체관련 광고정보, 링크정보 중 적어도 하나를 포함할 수 있다.In addition, the additional information may include at least one of tag information, description information about an object, object related image information, object related advertisement information, and link information.
일례로, 객체를 특정하는 단계에서, 특정하려는 객체가 VR영상 내에서 위치 이동하는 경우, 특정된 영역을 해당 객체를 따라 위치 이동시킬 수 있다. For example, in the step of specifying the object, when the object to be specified is moved in the VR image, the specified area may be moved along the object.
또한, 본 발명의 다른 실시예에 따른 VR 영상 처리 방법은, 3차원 좌표계에 매칭된 VR 영상을 구동시키는 단계; VR 영상의 원점을 기준으로 사용자의 시선을 감지하고, 감지된 시선에 따라 VR 영상 중 대응하는 시야 영역을 표시부에 표시하는 단계; 및 VR 영상 내의 미리 특정된 적어도 하나의 객체에 대해서 설정된 객체정보, 사용자의 시선 정보 및 사용자 선택신호 중 적어도 하나에 기초하여, 각각의 특정된 객체에 대한 출력정보를 처리하는 단계를 포함한다.In addition, the VR image processing method according to another embodiment of the present invention, driving the VR image matched to the three-dimensional coordinate system; Detecting a line of sight of the user based on an origin of the VR image, and displaying a corresponding field of view of the VR image on the display unit according to the detected line of sight; And processing output information for each specified object based on at least one of object information set for at least one predetermined object in the VR image, gaze information of the user, and a user selection signal.
여기서, 객체정보는 좌표값에 기반한 위치정보, 발현시간정보 및 출력정보를 포함한다.Here, the object information includes position information, expression time information, and output information based on coordinate values.
일례로, 특정된 객체에 대한 출력정보를 처리하는 단계에서, 특정된 객체가 시야 영역 밖의 영역에 위치하는 경우, 객체가 발현되는 시간동안 특정된 객체의 위치를 지시하는 방향정보와 출력정보 중 적어도 하나를 표시부의 시야 영역 내에 출력할 수 있다. For example, in the processing of the output information on the specified object, when the specified object is located in an area outside the viewing area, at least one of direction information and output information indicating a position of the specified object during the time that the object is expressed. One can be output in the viewing area of the display unit.
또한, 특정된 객체에 대한 출력정보를 처리하는 단계는, 표시부의 시야 영역 내에 특정된 객체가 위치하는 경우, 객체별로 가상 타이머를 동작시켜 측정된 시간 길이에 따라 객체별 관심도를 측정하는 단계를 더 포함할 수 있다. 이때, 특정된 객체에 대한 출력정보를 처리하는 단계에서, 측정된 관심도가 설정된 조건을 만족하는 경우, 출력정보로서 객체에 대한 설명정보, 객체관련 영상 정보, 객체관련 광고정보, 링크정보 중 적어도 하나를 출력할 수 있다. The processing of the output information on the specified object may further include: measuring interest of each object according to the measured time length by operating a virtual timer for each object when the specified object is located in the viewing area of the display unit. It may include. At this time, in the process of processing the output information for the specified object, if the measured interest meets a set condition, at least one of the description information, object-related image information, object-related advertisement information, link information as the output information You can output
또한, 특정된 객체에 대한 출력정보를 처리하는 단계는, 측정된 객체별 관심도에 따라 이용자별로 관심도를 업데이트하는 단계; 및 관심도에 따라 출력정보를 업데이트하는 단계를 더 포함할 수 있다.The processing of the output information on the specified object may include: updating interest for each user according to the measured interest for each object; And updating the output information according to the degree of interest.
또한, 특정된 객체에 대한 출력정보를 처리하는 단계에서, 사용자의 시선 이동에 연동되는 포인터가 어느 하나의 특정된 객체 영역 내에서 설정된 시간동안 위치하는 경우, 출력정보로서 객체에 대한 설명정보, 객체관련 영상 정보, 객체관련 광고정보, 링크정보 중 적어도 하나를 출력할 수 있다.In addition, in the processing of the output information on the specified object, when the pointer linked to the movement of the user's gaze is positioned for a predetermined time in any one specified object area, the description information about the object as the output information, the object At least one of related image information, object related advertisement information, and link information may be output.
한편, 본 발명의 또 다른 실시예에 따른 VR 영상 처리 시스템은, 네트워크를 통해 VR 영상 및 VR 영상 내의 미리 특정된 적어도 하나의 객체에 대해서 설정된 객체정보를 제공하는 VR 영상 서버; 및 VR 영상을 3차원 좌표계에 매칭시켜 구동시키는 단계와, VR 영상의 원점에서 사용자의 회전이나 눈의 움직임에 기초하여 사용자의 시선을 감지하는 단계와, 감지된 시선에 따라 VR 영상 중 대응하는 시야 영역을 표시하는 단계와, 사용자로부터 선택신호를 입력받는 단계와, 객체정보, 사용자의 시선 정보 및 사용자 선택신호 중 적어도 하나에 기초하여, 각각의 특정된 객체에 대한 출력정보를 처리하는 단계를 실행시키는 저장 매체에 저장된 어플리케이션을 포함할 수 있다.On the other hand, the VR image processing system according to another embodiment of the present invention, a VR image server for providing the object information set for the VR image and at least one predetermined object in the VR image via a network; And driving the VR image by matching the 3D coordinate system, detecting a user's gaze based on the user's rotation or eye movement at the origin of the VR image, and a corresponding visual field of the VR image according to the detected gaze. Displaying an area, receiving a selection signal from a user, and processing output information for each specified object based on at least one of object information, gaze information of the user, and user selection signal; It may include an application stored in the storage medium.
일례로, VR 영상 서버는 VR 영상 및 객체정보를 실시간 스트리밍 전송방식으로 제공할 수 있다. For example, the VR image server may provide a VR image and object information in a real time streaming transmission method.
본 발명에 따르면, 3차원 좌표계를 기반으로 VR 영상 내에 설정된 적어도 하나의 객체정보를 이용하여 다양한 영상 처리를 수행할 수 있으므로, 사용자와 영상 간의 향상된 인터랙티브 환경을 제공하여 사용자에게 보다 현실감 있고 흥미로운 VR 영상을 제공할 수 있다.According to the present invention, various image processing can be performed using at least one object information set in a VR image based on a 3D coordinate system, thereby providing an improved interactive environment between the user and the image, thereby providing a more realistic and interesting VR image to the user. Can be provided.
본 발명에 의한 추가적인 효과는, 이후 실시예에 따라 설명하기로 한다.Further effects by the present invention will be described according to the following examples.
도 1은 본 발명의 일 실시예에 따른 VR 영상 처리 시스템을 나타낸 개념도이다.1 is a conceptual diagram illustrating a VR image processing system according to an exemplary embodiment of the present invention.
도 2는 본 발명의 일 실시예에 따른 사용자 장치의 구성을 나타내는 블록도이다.2 is a block diagram illustrating a configuration of a user device according to an embodiment of the present invention.
도 3은 본 발명의 일 실시예에 따른 VR 영상 생성 방법을 나타내는 순서도이다.3 is a flowchart illustrating a method of generating a VR image according to an embodiment of the present invention.
도 4는 VR 영상 내에서 특정 좌표값에 기반하여 객체를 특정하는 것을 설명하기 위한 예시도이다. 4 is an exemplary diagram for describing specifying an object based on a specific coordinate value in a VR image.
도 5는 이용자의 시선을 기준으로 방향성을 가진 각도값을 설명하기 위한 예시도이다.5 is an exemplary diagram for describing an angle value having directivity with respect to a user's gaze.
도 6은 VR 영상 내에서 시야 영역을 특정하는 것을 설명하기 위한 예시도이다.6 is an exemplary diagram for describing specifying a viewing area in a VR image.
도 7은 본 발명의 일실시예에 따른 VR 영상 처리 방법을 나타내는 순서도이다. 7 is a flowchart illustrating a VR image processing method according to an embodiment of the present invention.
도 8은 이용자의 시선 이동에 따른 시야 영역의 이동을 설명하는 도이다.8 is a view for explaining movement of the viewing area according to the user's gaze movement.
도 9는 관심도 측정을 설명하기 위한 도이다. 9 is a diagram for explaining interest measurement.
도 10은 시야 영역의 표시 화면 내에 출력되는 출력정보를 설명하기 위한 예시도이다.10 is an exemplary diagram for describing output information output in a display screen of a viewing area.
도 11은 사용자 장치의 선택신호를 통해 출력되는 출력정보를 설명하기 위한 예시도이다. 11 is an exemplary diagram for describing output information output through a selection signal of a user device.
도 12는 본 발명의 일 실시예에 따른 측정된 관심도에 기초한 출력정보 출력방법을 나타내는 순서도이다.12 is a flowchart illustrating a method of outputting output information based on measured interests according to an embodiment of the present invention.
도 13은 본 발명의 일 실시예에 따른 사용자 선택신호에 기초한 출력정보 출력방법을 나타내는 순서도이다.13 is a flowchart illustrating a method of outputting output information based on a user selection signal according to an embodiment of the present invention.
도 14는 VR 영상에서 객체의 위치 정보를 기반으로 객체 정보와 방향 정보를 출력하는 방식을 나타내는 예시도이다.14 is an exemplary diagram illustrating a method of outputting object information and direction information based on location information of an object in a VR image.
도 15는 VR 영상에서 객체의 위치 정보를 기반으로 객체의 위치를 표현하는 방식을 설명하기 위한 개념도이다.FIG. 15 is a conceptual diagram for describing a method of expressing a position of an object based on position information of the object in a VR image.
이하, 본 발명의 일부 실시예들을 예시적인 도면을 통해 상세하게 설명한다. 각 도면의 구성요소들에 참조부호를 부가함에 있어서, 동일한 구성요소들에 대해서는 비록 다른 도면상에 표시되더라도 가능한 한 동일한 부호를 가지도록 하고 있음에 유의해야 한다. 또한, 본 발명의 실시예를 설명함에 있어서, 관련된 공지 구성 또는 기능에 대한 구체적인 설명이 본 발명의 실시예에 대한 이해를 방해한다고 판단되는 경우에는 그 상세한 설명은 생략하기로 한다.Hereinafter, some embodiments of the present invention will be described in detail through exemplary drawings. In adding reference numerals to the components of each drawing, it should be noted that the same reference numerals are assigned to the same components as much as possible even though they are shown in different drawings. In addition, in describing the embodiments of the present invention, if it is determined that the detailed description of the related well-known configuration or function interferes with the understanding of the embodiments of the present invention, the detailed description thereof will be omitted.
먼저, 도 1은 본 발명의 일 실시예에 따른 VR 영상 처리 시스템을 나타낸 개념도이다.First, Figure 1 is a conceptual diagram showing a VR image processing system according to an embodiment of the present invention.
도 1에 도시된 바와 같이, 본 발명에 따른 VR 영상 처리 시스템은, VR 영상 서버(100)와 사용자 장치(200)를 포함하여 구성될 수 있다.As shown in FIG. 1, the VR image processing system according to the present invention may include a
먼저, VR 영상 서버(100)는 네트워크를 통해 사용자 장치(200)와 연결되어, 사용자 장치(200)로 VR 영상 및 VR 영상 내의 미리 특정된 적어도 하나의 객체(예로서, 인물 또는 사물)에 대해서 설정된 객체정보를 제공할 수 있다. 이를 위해, VR 영상 서버(100)는 VR 영상 및 객체정보를 저장하는 데이터베이스를 구비할 수 있다. 일례로, VR 영상 서버(100)는 VR 영상 제공 사업자의 서버 컴퓨터일 수 있다. First, the
사용자 장치(200)는 VR 영상을 구동시켜 사용자의 시선에 따라 대응하는 VR 영상 내 일부 영상을 출력하는 장치로서, 예를 들면, HMD(head mount display), 컴퓨터, 스마트폰 등일 수 있으며, 또는 이들의 조합으로 이루어지는 구성일 수도 있다.The
일례로, 도 2에 도시된 바와 같이, 사용자 장치(200)는, 구동부(210), 감지부(220), 표시부(230), 입력부(240), 제어부(250)를 포함할 수 있다. For example, as illustrated in FIG. 2, the
구동부(210)는 VR 영상을 3차원 좌표계에 매칭시켜 구동시키는 구성이다. The driver 210 is configured to drive the VR image by matching the 3D coordinate system.
감지부(220)는 VR 영상의 원점을 기준으로 사용자의 회전(즉, 장치의 회전)이나 눈의 움직임에 기초하여 사용자의 시선을 감지하는 구성이다. 이러한 감지부(220)는 장치의 회전을 감지하기 위해 각속도 센서, 자이로 센서 등을 구비할 수 있으며, 또한, 감지부(220)는 눈의 방향(시선)이나 움직임을 감지하는 아이트래킹 센서 등을 구비할 수 있다. The sensor 220 is a component that detects the gaze of the user based on the rotation of the user (ie, the rotation of the device) or the movement of the eye based on the origin of the VR image. The detector 220 may include an angular velocity sensor, a gyro sensor, and the like to detect the rotation of the device. In addition, the detector 220 may include an eye tracking sensor that detects the direction (eye) or movement of the eye. It can be provided.
표시부(230)는 감지된 시선에 따라 VR 영상 구동 중 대응하는 시야 영역을 표시하는 구성이다. The
입력부(240)는 사용자로부터 선택신호, 조작신호 등을 입력받는 구성으로서, 다양한 조작버튼, 선택버튼 등을 구비할 수 있다. 일례로, 마우스, 키보드 등의 입력수단이 이용될 수 있다.The
제어부(250)는 구동부(210), 감지부(220), 표시부(230) 및 입력부(240)를 제어하는 구성으로서, VR 영상 구동 중 객체정보, 사용자의 시선 정보 및 사용자 선택신호 중 적어도 하나에 기초하여, 각각의 특정된 객체에 대한 출력정보를 처리할 수 있다.The
일례로, 사용자 장치(200)는 구동부(210), 감지부(220), 표시부(230), 입력부(240) 및 제어부(250)의 기능을 실행시키는 저장 매체에 저장된 어플리케이션을 통해 실현될 수 있다. 물론 각 기능을 구현하는 하드웨어의 조합으로 구현될 수도 있다.For example, the
또한, 사용자 장치(200)는 VR 영상 서버(100)와 통신하기 위한 통신부(260)를 더 포함할 수도 있다. 추가적으로, VR 영상의 음성 신호를 출력하기 위한 스피커 등을 더 포함할 수 있다.In addition, the
한편, VR 영상 서버(100)는 VR 영상 저작도구를 이용하여 VR 영상 데이터를 제작하고 편집할 수 있다. 일례로, 객체에 대한 영역을 특정할 때에는, VR 영상 서버(100)에 접속된 관리자 컴퓨터에서 마우스, 키보드 등의 입력장치를 이용하여 객체 영역을 특정할 수 있으며, 또는 입력장치로서 관리자 컴퓨터에 연결된 HMD를 구비해서, HMD의 사용자 시선과 연동되는 포인터 등을 이용하여 객체 영역을 특정할 수도 있다.Meanwhile, the
이어서, 도 3 내지 도 6을 이용하여, 본 발명에 따른 VR 영상 생성 방법을 설명하기로 한다. 도 3은 본 발명의 일 실시예에 따른 VR 영상 생성 방법의 순서도를 나타내며, 도 4는 VR 영상 내에서 특정 좌표값에 기반하여 객체를 특정하는 것을 설명하기 위한 예시도이며, 도 5는 이용자의 시선을 기준으로 방향성을 가진 각도값을 설명하기 위한 예시도이며, 도 6은 VR 영상 내에서 시야 영역을 특정하는 것을 설명하기 위한 예시도이다.Next, the VR image generation method according to the present invention will be described with reference to FIGS. 3 to 6. 3 is a flowchart illustrating a method of generating a VR image according to an embodiment of the present invention. FIG. 4 is an exemplary diagram for describing an object specification based on a specific coordinate value in a VR image. FIG. 6 is an exemplary diagram for describing an angular value having directionality based on a line of sight, and FIG. 6 is an exemplary diagram for describing specifying a viewing area in a VR image.
도 3에 도시된 바와 같이, 본 발명에 따른 VR 영상 생성 방법은, 먼저, VR 영상을 3차원 좌표계에 매칭시킨다(S10). 여기서, VR 영상은 360도 동영상으로서, 예를 들면, 복수(예컨대, 6대)의 촬영장치를 일정 각도 간격으로 배치하고 각 촬영장치를 통해 얻어지는 이미지들을 스티칭 등의 이미지 처리를 통해서 1차적으로 생성되는 구형의 360도 동영상이다. 이러한 1차 VR 영상을 생성하는 것은 공지된 것이므로 구체적인 설명은 생략하기로 한다.As shown in FIG. 3, in the VR image generating method according to the present invention, first, the VR image is matched to a 3D coordinate system (S10). Here, the VR image is a 360 degree video, for example, by arranging a plurality of (eg, six) photographing apparatuses at an angular interval and primarily generating images obtained through the photographing apparatuses through image processing such as stitching. A spherical 360 degree video. Since generating the primary VR image is well known, a detailed description thereof will be omitted.
이어서, VR 영상을 구동 제어하면서, 매칭된 3차원 좌표계에 기초하여 VR 영상 내의 적어도 하나의 객체를 특정한다(S20). Subsequently, while driving control of the VR image, at least one object in the VR image is specified based on the matched 3D coordinate system (S20).
여기서, 객체를 특정하는 것(S20)은, VR 영상 내에서 해당 객체가 발현되는 시간동안, 사용자에 의해 선택되는 적어도 하나의 특정 좌표값으로부터 이루어지는 영역을 특정하거나, 또는 3차원 좌표계 상의 원점을 기준으로 방향성을 가진 각도값에 기초하여 이루어지는 영역을 특정할 수 있다. Here, specifying the object (S20) may specify an area formed from at least one specific coordinate value selected by the user during the time that the object is expressed in the VR image, or may refer to the origin on the 3D coordinate system. The region made based on the angular value having directionality can be specified.
일례로, 객체를 특정할 때, 도 4와 같이, 객체를 특정할 수 있다. 도 4는 VR 영상에서 일부의 시야 영역을 나타내는 화면이다. 사용자는 VR 영상 내에서 특정하고자 하는 객체에 대한 특정 좌표값을 선택하여 특정 좌표값에 의해 이루어지는 영역을 특정할 수 있다. 도 4에서는 두 개의 객체(사람)에 대해서 영역을 특정하고 있다. 예를 들어, 도 4에서 우측 객체를 특정할 때에는, 2개 이상의 특정점(예로써, (x1, y1, z1) 및 (x4, y4, z4))을 선택하여 이루어지는 4각형의 영역을 특정할 수 있다. 마찬가지로, 좌측 객체를 특정할 때에도, 2개 이상의 특정점(예로써, (x6, y6, z6) 및 (x7, y7, z7))을 선택하여 이루어지는 4각형의 영역을 특정할 수 있다. 여기서, 특정점에 의해 형성되는 영역은 4각형으로 한정되는 것이 아니라, 3개 이상의 특정점으로 이루어지는 다각형 형상을 가질 수 있고, 또는 하나의 특정점으로부터 일정 거리를 갖는 원형이나, 특정점을 중심으로 하는 미리 정해진 크기의 다각형 영역을 특정할 수도 있다. For example, when specifying an object, an object may be specified as shown in FIG. 4. 4 is a screen illustrating a part of a viewing area in a VR image. The user may select a specific coordinate value for the object to be specified in the VR image to specify an area formed by the specific coordinate value. In FIG. 4, regions are specified for two objects (people). For example, when specifying the right object in FIG. 4, a quadrangular area formed by selecting two or more specific points (for example, (x1, y1, z1) and (x4, y4, z4)) is specified. Can be. Similarly, when specifying the left object, it is possible to specify a quadrangular area formed by selecting two or more specific points (for example, (x6, y6, z6) and (x7, y7, z7)). Here, the area formed by the specific point is not limited to a quadrilateral, but may have a polygonal shape consisting of three or more specific points, or a circle having a predetermined distance from one specific point or about a specific point. A polygonal area of a predetermined size may be specified.
본 실시 예에서는 특정점을 직교 좌표계로 특정하는 경우를 설명하고 있으나 이에 한정되는 것은 아니며, 예로써, 구면 좌표계로 특정점을 특정할 수도 있다.In the present embodiment, the specific point is specified in the rectangular coordinate system, but the present invention is not limited thereto. For example, the specific point may be specified in the spherical coordinate system.
일례로, 구면 좌표계에 의한 좌표(r, θ, φ) 중 θ값(양의 방향의 z축과 시선방향의 특정점이 이루는 직선까지의 각, 즉 수직방향 성분의 각) 및 φ값(양의 방향의 x축과, 원점과 특정점이 이루는 직선을 xy 평면에 투영시킨 직선까지의 각, 즉 수평방향 성분의 각)을 기초로 4개의 특정점을 특정하여 이루어지는 영역을 특정할 수 있다. 여기서, r은 원점(즉, 이용자의 눈)에서 VR 영상까지의 거리로서 일정한 값이 된다. 이와 같이, 구면 좌표계에서 원점을 기준으로 방향성을 가진 각도값에 기초하여 이루어지는 특정점을 이용하여 특정하고자 하는 객체의 영역을 특정할 수 있다.For example, in the coordinates (r, θ, φ) of the spherical coordinate system, the value of θ (angle from the z-axis in the positive direction to the straight line formed by the specific point in the visual direction, that is, the angle of the vertical component) and φ value (positive The area | region made by specifying four specific points can be specified based on the angle to the straight line which the x-axis of a direction, the straight line which forms an origin and a specific point projected on the xy plane, ie, the angle of a horizontal component). Here, r is a constant value as the distance from the origin (that is, the eyes of the user) to the VR image. In this way, the region of the object to be specified can be specified using a specific point made based on an angle value having a directionality with respect to the origin in the spherical coordinate system.
또는, 도 5와 같이, 방향성을 가진 각도값에 기초하여 이루어지는 영역을 특정할 수도 있다. 예로써, 도 5(a)에서와 같이, 이용자의 눈(즉, 가상 카메라)과 VR 영상을 측면 방향에서 바라봤을 때, 이용자의 시선을 기준으로 설정된 방향성을 가진 각도값(θ1)이 상하로 결정되고, 또한, 도 5(b)에서와 같이, 이용자의 눈(즉, 가상 카메라)과 VR 영상을 상면 방향에서 바라봤을 때, 이용자의 시선을 기준으로 설정된 방향성을 가진 각도값(φ1)이 좌우로 결정된다. 이에 따라, 상하의 각도값(θ1)에 의해 이루어지는 VR 영상에서의 수평방향의 2개의 직선 성분과, 좌우의 각도값(φ1)에 의해 이루어지는 VR 영상에서의 수직방향의 2개의 직선 성분에 의해 이루어지는 직사각형 형상의 영역이 특정될 수 있다.Alternatively, as shown in FIG. 5, a region made based on an angular value having directivity may be specified. For example, as shown in (a) of FIG. 5, when the user's eyes (ie, a virtual camera) and the VR image are viewed from the lateral direction, the angle value θ1 having the directionality set based on the user's line of sight is upward and downward. Also, as shown in FIG. 5 (b), when the user's eye (ie, a virtual camera) and the VR image are viewed from the upper surface direction, the angle value φ 1 having the directionality set based on the user's gaze is Determined left and right. Accordingly, a rectangle is formed by two linear components in the horizontal direction in the VR image formed by the upper and lower angle values θ1 and two linear components in the vertical direction in the VR image formed by the left and right angle values φ1. Areas of shape may be specified.
또는, 객체를 특정할 때, VR 영상에서 특정 이미지(얼굴 모양, 사물 모양 등)를 추적하는 기능을 통해 객체에 대한 영역을 특정할 수도 있다.Alternatively, when specifying an object, an area of the object may be specified through a function of tracking a specific image (face shape, object shape, etc.) in the VR image.
일례로, 객체를 특정하는 단계(S20)에서, 특정하려는 객체가 시간에 따라 VR 영상 내에서 위치 이동하는 경우, 특정된 영역을 해당 객체를 따라 위치 이동시키면서 객체를 특정할 수도 있다. For example, in the step of specifying the object (S20), when the object to be specified moves in the VR image according to time, the object may be specified while moving the specified area along the corresponding object.
또한, VR 영상 내에서 시야 영역(즉, 표시부에 표시되는 표시 화면 영역)을 특정할 때, 도 6과 같이, 시야 영역을 특정할 수도 있다. 도 6의 (a)는 이용자의 눈(예로써, 가상 카메라)이 바라보는 구형상의 VR 영상 내의 시야 영역을 특정하는 것을 나타내고, 도 6의 (b)는 특정된 시야 영역을 나타낸다. 객체 영역을 특정할 때와 유사하게, 이용자는 VR 영상 감상 중 이용자가 바라보는 VR 영상의 시야 영역을 3차원 좌표계 상에서 2개 이상의 좌표값을 특정하여 이루어지는 영역을 시야 영역으로 특정할 수 있다. 또는 방향성을 가진 각도값에 기초하여 이루어지는 영역을 시야 영역으로 특정할 수도 있다. In addition, when specifying the viewing area (that is, the display screen area displayed on the display unit) in the VR image, the viewing area may be specified as shown in FIG. 6. FIG. 6A shows specifying a viewing area in a spherical VR image viewed by the user's eye (for example, a virtual camera), and FIG. 6B shows a specified viewing area. Similarly to the case of specifying the object area, the user may specify a view area of the VR image viewed by the user during viewing of the VR image as an area of view by specifying two or more coordinate values on the three-dimensional coordinate system. Alternatively, an area made based on an angular value having directivity may be specified as the viewing area.
이어서, 도 3에서와 같이, 특정된 객체에 대해 좌표값에 기반한 위치정보, 객체가 발현되는 시작시간과 종료시간을 포함하는 발현시간정보, 객체에 대한 부가적인 출력정보를 포함하는 객체정보를 설정한다(S30). Next, as shown in FIG. 3, location information based on coordinate values for the specified object, expression time information including start time and end time at which the object is expressed, and object information including additional output information about the object are set. (S30).
출력정보는 자막정보, 음성정보, 부가정보 중 적어도 하나를 포함할 수 있다. 여기서, 자막정보는 인물 객체가 말하는 대사에 대한 자막이거나 사물 객체를 설명하기 위한 자막 등일 수 있다. 음성정보는 객체에 대한 추가적인 음향정보를 포함할 수 있다. 또한, 부가정보는 특정된 객체를 다양하게 활용하기 위해 설정되는 것으로서, 태그정보, 객체에 대한 설명정보, 객체관련 영상 정보, 객체관련 광고정보, 링크정보 중 적어도 하나를 포함할 수 있다.The output information may include at least one of caption information, voice information, and additional information. Here, the caption information may be a caption for the dialogue spoken by the person object or a caption for explaining the object of the object. The voice information may include additional sound information about the object. In addition, the additional information is set to variously use the specified object and may include at least one of tag information, description information about the object, image information related to the object, advertisement information related to the object, and link information.
태그정보는 키워드 등을 통해 검색되거나 카테고리별로 분류될 수 있도록 하기 위한 객체의 종류정보나 이름정보를 포함할 수 있다. 설명정보는 객체를 설명하기 위한 정보로서 객체가 인물인 경우 직업, 나이, 신체, 회사, 학력, 대표작품 등의 정보를 포함하며, 객체가 사물인 경우 제품 사양, 가격 등의 정보를 포함할 수 있다. 또한, 객체관련 영상 정보는 객체와 관련된 추천 영상 정보를 포함할 수 있으며, 광고정보는 객체가 출연한 광고 영상 정보를 포함할 수 있다. 또한, 링크정보는 객체에 대한 페이스북, 트위터 등의 관련 사이트 링크 정보를 포함할 수 있다. The tag information may include type information or name information of an object for searching through a keyword or the like and categorizing by category. Descriptive information is information for describing an object. If the object is a person, it may include information such as occupation, age, body, company, education, and representative works. If the object is an object, the information may include information such as product specification and price. have. The object-related image information may include recommended image information related to the object, and the advertisement information may include advertisement image information in which the object appears. In addition, the link information may include related site link information such as Facebook, Twitter, etc. for the object.
또한, 각 객체의 출력정보는 3차원 좌표계를 기반으로 하여 VR 영상 내에서 발현 시간 정보(즉, 발현 시작 시간 및 발현 종료 시간 포함) 및 발현될 위치 정보를 더 포함할 수 있다.In addition, the output information of each object may further include expression time information (ie, expression start time and expression end time) and position information to be expressed in the VR image based on the 3D coordinate system.
이어서, 도 3에서와 같이, 설정된 객체정보가 부가된 VR 영상 데이터를 생성한다(S40). 생성된 VR 영상 데이터는 VR 영상 서버(100) 상에 저장될 수 있다. VR 영상 서버(100)는 VR 영상과 객체정보를 하나의 통합된 데이터 파일로 저장하여 사용자 장치(200)로 제공할 수 있으며, 또는 VR 영상과 객체 정보를 구분한 데이터 파일로 저장하여 VR 영상과 객체 정보를 선택적으로 사용자 장치(200)에 제공할 수 있다.Subsequently, as shown in FIG. 3, VR image data to which the set object information is added is generated (S40). The generated VR image data may be stored on the
이와 같은, VR 영상 생성 방법에 의해 생성된 객체정보가 부가된 VR 영상 데이터는 영상 처리를 통해서 사용자에게 다양한 서비스를 제공하도록 이용될 수 있다.As such, VR image data to which object information generated by the VR image generation method is added may be used to provide various services to a user through image processing.
이어서, 도 7을 이용하여 본 발명에 따른 VR 영상 처리 방법을 설명하기로 한다. 도 7은 본 발명의 일실시예에 따른 VR 영상 처리 방법을 나타내는 순서도이다. Next, the VR image processing method according to the present invention will be described with reference to FIG. 7. 7 is a flowchart illustrating a VR image processing method according to an embodiment of the present invention.
도 7에 도시된 바와 같이, 본 발명에 따른 VR 영상 처리 방법은, 먼저, 사용자 장치의 구동부를 통해 3차원 좌표계에 매칭된 VR 영상을 구동시킨다(S110). 이어서, 감지부를 통해 VR 영상 구동 중 VR 영상의 원점을 기준으로 사용자의 시선을 감지하고, 감지된 시선에 따라 VR 영상 중 대응하는 시야 영역을 표시부에 표시한다(S120). 이어서, 제어부는 VR 영상 내의 미리 특정된 적어도 하나의 객체에 대해서 미리 설정된 객체정보, 사용자의 시선 정보 및 입력부를 통한 사용자 선택신호 중 적어도 하나에 기초하여, 각각의 특정된 객체에 대한 출력정보를 처리한다(S130). 상술한 바와 같이, 객체정보는 좌표값에 기반한 위치정보, 발현시간정보 및 출력정보를 포함하며, 출력정보는 자막정보, 음성정보, 부가정보 중 적어도 하나를 포함할 수 있다. 또한, 부가정보는 태그정보, 객체에 대한 설명정보, 객체관련 영상 정보, 객체관련 광고정보, 링크정보 중 적어도 하나를 포함할 수 있다.As shown in FIG. 7, the VR image processing method according to the present invention first drives a VR image matched to a 3D coordinate system through a driving unit of the user device (S110). Subsequently, the user's gaze is sensed based on the origin of the VR image while driving the VR image through the sensing unit, and a corresponding viewing area of the VR image is displayed on the display unit according to the detected gaze (S120). Subsequently, the controller processes the output information for each specified object based on at least one of preset object information, gaze information of the user, and a user selection signal through the input unit for at least one predetermined object in the VR image. (S130). As described above, the object information may include location information, expression time information, and output information based on coordinate values, and the output information may include at least one of caption information, voice information, and additional information. In addition, the additional information may include at least one of tag information, description information about an object, object related image information, object related advertisement information, and link information.
일례로, 특정된 객체에 대한 출력정보를 처리하는 단계(S130)에서, 특정된 객체(현재 말하는 사람)가 시야 영역 밖의 영역에 위치하는 경우, 해당 객체가 발현되는 시간동안(예로써, 객체가 말하는 시간 동안) 객체의 위치를 지시하는 방향정보(예로써, 화살표시)와 출력정보(예로써, 자막) 중 적어도 하나를 표시부의 시야 영역 내의 설정된 위치에 출력할 수 있다.For example, in the process of processing the output information for the specified object (S130), if the specified object (now speaking person) is located in an area outside the viewing area, during the time that the object is expressed (for example, At least one of direction information (for example, an arrow) and output information (for example, a caption) indicating a position of the object may be output to a set position in the viewing area of the display unit.
예를 들어, 도 14를 참조하면, VR 영상에서 특정된 객체로서 화자가 사용자의 시야 영역 밖에 위치하는 경우, 객체 정보로서 화자에 의해 발화된 자막(예를 들어 'how was your today?')이 화자의 위치를 나타내기 위한 화살표(도 13의 (a)), 점진적으로 커지는 점 표시(도 13의 (b)), 순차적으로 깜빡이는 점 표시 등의 방향 정보와 함께 출력될 수 있다. 이때 특정된 화자에 대해 객체 정보로서 자막이 설정되어 있지 않은 경우에는 발화하는 화자에 대해서 방향 정보만 표시될 수 도 있다. For example, referring to FIG. 14, when the speaker is located outside the user's field of view as an object specified in the VR image, subtitles uttered by the speaker (for example, 'how was your today?') Are displayed as object information. 13 may be output along with direction information such as an arrow indicating a speaker's position (FIG. 13A), a gradually increasing point display (FIG. 13B), and a sequentially blinking dot display. In this case, when the subtitle is not set as the object information for the specified speaker, only the direction information may be displayed for the speaker to be uttered.
도 15는 VR 영상에서 객체의 위치 정보를 기반으로 객체의 위치를 표현하는 방식을 설명하기 위한 개념도이다. 도 15에 도시된 바와 같이, 특정된 객체로서 화자의 위치를 화살표를 기반으로 표시하는 방식이 도시되어 있다. 비록 'hello ~'라는 단어를 발화하는 영상 속 화자가 시야 영역 내에는 없으나, 사용자는 화살표 방향을 기반으로 화자의 위치를 알 수 있어서, 시야를 화살표 방향으로 전환하여 화자를 확인하도록 유도할 수 있다. FIG. 15 is a conceptual diagram for describing a method of expressing a position of an object based on position information of the object in a VR image. As illustrated in FIG. 15, a method of displaying a speaker's position as a specified object based on an arrow is illustrated. Although there is no speaker in the field of view that utters the word 'hello ~', the user can know the position of the speaker based on the direction of the arrow, so that the user can be induced to identify the speaker by switching the field of view to the direction of the arrow. .
또 다른 예로, 방향정보를 직접적으로 표시하지 않고 객체 정보인 자막의 위치/모양 등을 변화시키는 시각적 영상 처리를 통해 화자의 위치를 표현할 수도 있다. 즉, 사용자에게 디스플레이되고 있는 화면 범위 안에 화자의 위치 정보에 대응되는 좌표가 포함되지 않을 경우, 객체 정보인 자막의 위치가 정중앙, 중앙 하단 등의 설정된 위치에서 화자으 위치와 가까운 방향으로 점진적, 또는 지정한 위치로 반복 이동시켜 화자의 방향성을 나타낼 수 있다. 또는 자막 색상, 농도 등의 점진적인 변화 등을 이용하여 화자의 방향성을 나타낼 수 있다. 예를 들면, 내가 보고 있는 방향과 화자가 멀어질 경우 자막이 흐려지게 하거나, 또는 가까워질수록 설정된 색(예로써 초록색)으로 변화하거나 하는 등의 자막의 색을 변화시켜 화자의 방향성을 나타낼 수도 있다. 또는 화자의 방향으로 자막을 기울어지게 하거나 또는 점진적으로 크기 증가시킴으로써 화자의 방향성을 나타낼 수도 있다.As another example, the position of the speaker may be expressed through visual image processing that changes the position / shape of the subtitle, which is object information, without directly displaying the direction information. That is, when the coordinates corresponding to the speaker's position information are not included in the screen range displayed to the user, the position of the caption, which is the object information, is gradually incremented in the direction close to the speaker's position at the set position such as the center, center, or bottom. By repeatedly moving to the designated position, the direction of the speaker can be indicated. Alternatively, the direction of the speaker may be indicated by using a gradual change such as subtitle color or density. For example, the direction of the speaker may be indicated by changing the color of the subtitle, such as blurring the subtitle when the speaker is far from the direction of the viewer, or changing to a set color (eg, green) as the speaker gets closer. . Alternatively, the direction of the speaker may be indicated by tilting the subtitle in the direction of the speaker or by gradually increasing the size of the subtitle.
다시 도 7로 돌아와서, 특정된 객체에 대한 출력정보를 처리하는 단계(S130)는, 도 8 및 도 9에 도시된 바와 같이, 표시부의 시야 영역 내에 특정된 객체가 위치하는 경우, 객체별로 가상 타이머를 동작시켜 측정된 시간 길이에 따라 객체별 관심도를 측정할 수 있다. 예를 들어, 도 8에서와 같이, 먼저 "이용자 시선이동-1"일 때 시야영역 내에 객체가 포함되어 있다. 이어서, "이용자 시선이동-2"일 때, 시선이 이동하였으나 객체는 여전히 시야영역 내에 포함된다. 이어서, "이용자 시선이동-3"일 때, 시선이 이동하여, 객체는 시야 영역 내에 일부만 포함된다. 이어서, "이용자 시선이동 -4"일 때, 시선이 이동하여, 객체는 시야 영역 밖에 위치한다. 이때, 도 9(a)에서와 같이, 시야 영역 내에 객체가 포함된다고 판단될 때, 가상의 타이머를 작동시켜 객체가 시야 영역 내에 위치하는 시간 길이를 측정한다. 이때, 시간 길이는 도 9(b)에서와 같이, 시야 영역 내에 객체의 적어도 일부가 포함되지 않을 때까지 측정하거나, 또는 시야 영역 내에 객체의 전부가 포함되지 않을 때까지 측정하도록 설정할 수 있다. Returning to FIG. 7 again, in operation S130 of processing output information on the specified object, when the specified object is located in the viewing area of the display unit, as shown in FIGS. 8 and 9, a virtual timer for each object Operate to measure the interest of each object according to the measured length of time. For example, as shown in FIG. 8, first, an object is included in the field of view when "user gaze-1". Then, when " user gaze-2 ", the gaze has moved but the object is still included in the field of view. Then, when "user gaze-3", the gaze moves so that the object is only partially included in the field of view. Then, when "user gaze -4", the gaze moves so that the object is located outside the viewing area. In this case, as shown in FIG. 9A, when it is determined that the object is included in the viewing area, a virtual timer is operated to measure the length of time that the object is located in the viewing area. In this case, as shown in FIG. 9B, the length of time may be measured until at least some of the objects are not included in the field of view, or may be measured until all of the objects are not included in the field of view.
만일, 측정된 관심도가 설정된 조건(예로써, 일정 시간)을 만족하는 경우, 출력정보로서 객체에 대한 설명정보, 객체관련 영상 정보, 객체관련 광고정보, 링크정보 중 적어도 하나를 출력할 수 있다. If the measured interest meets a set condition (for example, a predetermined time), at least one of description information about the object, image information related to the object, advertisement information related to the object, and link information may be output as output information.
또한, 도 10에 도시된 바와 같이, 출력정보는 관심도가 높은 객체관련 영상 정보로서 추천 영상 정보 및 객체관련 광고정보로서 관심상품 정보를 VR 영상 구동 중 시야 영역의 표시 화면상에 표시할 수도 있고, 또는, VR 영상 구동 종료 후 가장 관심도가 높은 하나의 객체에 대해서 출력정보를 출력할 수도 있다. 예를 들면, 관심도가 높은 객체에 대해서 객체의 명칭(제품의 이름, 인물의 이름 등)이 제목(예로써, 태그 정보)에 들어가 있는 영상을 추천하거나 또는 해당 객체에 대해 미리 설정된 영상 분류 카테고리에 포함된 관련 영상을 추천할 수도 있다.In addition, as shown in FIG. 10, the output information may display the recommendation image information as the object-related image information with high interest and the product of interest information as the object-related advertisement information on the display screen of the viewing area while driving the VR image. Alternatively, output information may be output for one object having the highest interest after the VR image driving ends. For example, for an object of high interest, we recommend an image whose name (product name, person's name, etc.) is included in the title (for example, tag information), or in an image classification category preset for the object. Related videos included may be recommended.
또한, 특정된 객체에 대한 출력정보를 처리할 때, 측정된 객체별 관심도에 따라 이용자별로 관심도를 업데이트하고, 그 관심도에 따라 출력정보를 업데이트할 수 있다. 이를 위해, 이용자 관리를 위해, VR 영상 서버(100)는 이용자별 회원가입을 통해 이용자 정보를 저장한 후, 사용자 장치(200)를 통해 VR 영상 서버(100)에 접속하여 로그인하는 과정을 거칠 수 있다. 만일, 회원가입 되지 않은 비로그인 이용자의 경우는 재생된 VR 영상에서의 측정된 객체별 관심도에 따라 출력정보를 출력할 수 있다.In addition, when processing the output information for the specified object, the interest of each user can be updated according to the measured interest of each object, and the output information can be updated according to the interest. To this end, in order to manage the user, the
이어서, 도 12를 이용하여, 측정된 관심도에 따른 출력정보를 출력하는 방법을 설명하기로 한다. 도 12는 본 발명의 일 실시예에 따른 측정된 관심도에 기초한 출력정보 출력방법을 나타내는 순서도이다. Next, a method of outputting output information according to the measured interest level will be described with reference to FIG. 12. 12 is a flowchart illustrating a method of outputting output information based on measured interests according to an embodiment of the present invention.
도 12에 도시된 바와 같이, 본 발명에 따른 측정된 관심도에 따른 출력정보 출력 방법은, 먼저, 사용자 장치(200)는 VR 영상 서버(100)에 접속하여 VR 영상 및 VR 영상에 대한 객체정보 중 적어도 하나를 요청하여, 요청한 VR 영상 및 객체정보를 각각 전송받을 수 있다. 또는 사용자 장치(200)는 VR 영상 서버(100)로부터 객체정보가 포함된 VR 영상 데이터를 요청하여, 요청한 VR 영상 데이터를 전송받을 수도 있다. 일례로, VR 영상 서버(100)는 VR 영상 및 객체정보를 접속된 사용자 장치(200)로 실시간 스트리밍 전송방식으로 제공하여, 사용자 장치(200)가 VR 영상을 실시간으로 실행하도록 할 수 있다. 또는, VR 영상 서버(100)는 VR 영상 및 객체정보를 접속된 사용자 장치(200)에 다운로드 방식으로 제공하여, 사용자 장치(200)가 VR 영상 및 객체 정보를 저장부에 모두 내려받은 후, VR 영상을 실행하도록 할 수도 있다.As shown in FIG. 12, in the output information output method according to the measured interest level according to the present invention, first, the
이어서, 사용자 장치(200)는 해당 VR 영상을 실행한다(S211). 이어서, 사용자 장치(200)는 VR 영상 실행 중 사용자 시선을 감지하여 시야부 범위(즉, 시야 영역의 표시화면)를 확인하고(S212), 또한, 객체정보를 이용하여 객체부 범위(즉, 객체로 특정된 영역)를 확인한다(S213). 이어서, 시야부 내 객체부 범위가 포함되는지 판단한다(S214). 만일, 포함된 경우(Yes)는 가상타이머를 작동하기 시작한다(S215). 만일, 포함되지 않는 경우(No)는 가상타이머는 작동을 정지한다(S216). 이어서, 가상타이머에 의해 측정된 객체별 측정 시간에 따라 객체별 관심도를 측정한다(S217). 이어서, 해당 VR 영상의 실행이 종료되면(S218), 로그인 여부에 따라 관심도가 높은 관심 객체에 대한 출력정보를 출력할 수 있다(S219). Next, the
만일, 로그인이 된 이용자의 경우, 사용자 장치(200)는 측정된 관심도 정보 및 이용자 정보를 VR 영상 서버(100)로 전송하여, VR 영상 서버(100)로부터 출력정보로서 이용자별 누적영상 관심객체기반의 추천영상정보 및 광고정보를 제공받을 수 있다. 예를 들어, 사용자 장치(100)는, 객체별 기설정된 태그에 측정된 관심도 정보를 기초로 점수를 가산한다. 이때, VR 영상에 관련된 분류 키워드를 태그로 지정될 수 있다. 객체별 태그는 VR 영상 내에 여러 개 존재할 수 있다. 예로써, 객체별 태그 점수는 (객체별 타이머시간/전체 VR 영상시간)×태그 보정값으로 계산할 수도 있다. 여기서, 태그 보정값은 태그별 관련도가 높을수록 큰 보정값을 갖도록 설정되는 값이다. 이와 같이 사용자 장치(200)는 측정된 관심도 정보로서 객체별 태그 점수를 이용자 정보와 함께 VR 영상 서버(100)로 전송할 수 있다. 한편, VR 영상 서버(100)는 이용자별로 과거에 본 영상의 태그값을 더해 보정된 누적 태그정보를 이용하여 사용자 장치(200)에 출력정보를 전송할 수 있다. 이에 따라, 사용자 장치(200)는 이용자의 누적된 관심도에 기초하여 관심객체에 대한 추천영상정보 및 광고정보를 출력할 수 있다. 한편, 만일, 로그인 되지 않은 이용자의 경우, 사용자 장치(200)는 해당 VR 영상의 실행에 따라 측정된 관심도가 높은 객체에 대해 객체정보의 출력정보로서 추천영상정보 및 광고정보를 출력할 수도 있다(S220). If the user is logged in, the
또한, 도 7에서 특정된 객체에 대한 출력정보를 처리할 때(S130), 사용자의 시선 이동에 연동되는 포인터를 이용하여 선택된 객체에 대한 출력정보를 출력할 수도 있다. 예를 들면, 사용자의 시선 이동에 연동되는 포인터가 어느 하나의 특정된 객체 영역 내에서 설정된 시간동안 위치하는 경우, 출력정보로서 객체에 대한 설명정보, 객체관련 영상 정보, 객체관련 광고정보, 링크정보 중 적어도 하나를 출력할 수 있다. 일례로, 도 11의 (a)에서와 같이, 객체 영역 내에 포인터가 위치할 때, 사용자 장치의 입력부를 통해 선택신호를 입력받음으로써, 도 11의 (b)에서와 같이, 출력정보로서 객체에 대한 설명정보 및 링크정보를 표시할 수 있다. In addition, when processing the output information on the object specified in FIG. 7 (S130), the output information on the selected object may be output using a pointer linked to the user's eye movement. For example, when the pointer linked to the movement of the user's eyes is positioned for a predetermined time in any one specified object area, the output information includes description information about the object, object related image information, object related advertisement information, and link information. At least one of them may be output. For example, as shown in FIG. 11A, when a pointer is located in the object area, a selection signal is input through the input unit of the user device, and as shown in FIG. 11B, the object is output as the output information. Description information and link information may be displayed.
이어서, 도 13을 이용하여, 사용자 시선에 연동되는 포인터를 이용하여 선택된 객체의 출력정보를 출력하는 방법을 설명하기로 한다. 도 13은 본 발명의 일 실시예에 따른 사용자 선택신호에 기초한 출력정보 출력방법을 나타내는 순서도이다. Next, a method of outputting output information of the selected object by using a pointer linked to the user's line of sight will be described with reference to FIG. 13. 13 is a flowchart illustrating a method of outputting output information based on a user selection signal according to an embodiment of the present invention.
도 13에 도시된 바와 같이, 본 발명에 따른 사용자 선택신호에 기초한 출력정보 출력 방법은, 먼저, 사용자 장치(200)는 VR 영상 서버(100)에 접속하여 VR 영상에 대한 객체정보를 요청하여, 요청한 객체정보를 전송받을 수 있다. 또는 사용자 장치(200)는 VR 영상 서버(100)로부터 객체정보가 포함된 VR 영상 데이터를 요청하여, 요청한 VR 영상 데이터를 전송받을 수도 있다. As shown in FIG. 13, in the output information output method based on the user selection signal according to the present invention, first, the
이어서, 사용자 장치(200)는 해당 VR 영상을 실행한다(S231). 이어서, 사용자 장치(200)는 사용자 시선에 연동되는 기기 포인터의 점 좌표를 확인하여(S232), 시야 영역의 표시 화면과 함께 포인터를 출력한다. 이때, 사용자 장치(200)는 객체부 범위(즉, 객체로 특정된 영역)를 확인한다(S233). 이어서, 객체부 범위 내 포인터가 위치하는지 판단한다(S234). 만일, 객체부 범위 내 포인터가 위치하지 않는 경우에는 해당 판단단계(S234)를 지속적으로 반복한다. 만일, 객체부 범위 내 포인터가 위치하는 경우, 사용자 장치(200)는 선택신호로서 특정 버튼이 입력되었는지 판단한다(S235). 만일, 특정 버튼이 입력된 경우, 해당 객체에 대한 출력정보를 표시 화면 내에 출력한다(S236). 만일, 특정 버튼이 입력되지 않은 경우에는 단계 S234 부터 다시 반복한다. 이때, 사용자 장치는 입력부로서 특정버튼을 구비한다.Next, the
여기서, 특정 버튼 입력단계(S235)는, 객체부 범위 내 포인터가 설정된 시간 동안 위치하는지 판단하는 단계로 대체될 수도 있다. 즉, 객체부 범위 내 포인터가 설정된 시간 동안 위치하는 경우 객체에 대한 출력정보를 출력하고, 설정된 시간 동안 위치하지 않는 경우 단계 S234 부터 다시 반복할 수 있다. In this case, the specific button input step S235 may be replaced with a step of determining whether the pointer in the range of the object unit is positioned for a predetermined time. That is, when the pointer in the range of the object portion is located for a predetermined time, output information about the object is output, and when it is not located for the set time, the process may be repeated from step S234.
이와 같은, 본 발명에 따르면, 3차원 좌표계를 기반으로 VR 영상 내에 설정된 적어도 하나의 객체정보를 이용하여 다양한 영상 처리를 수행할 수 있으므로, 사용자와 영상 간의 향상된 인터랙티브 환경을 제공하여 사용자에게 보다 현실감 있고 흥미로운 VR 영상을 제공할 수 있다.As described above, according to the present invention, various image processing can be performed using at least one object information set in the VR image based on the three-dimensional coordinate system, thereby providing a more interactive environment between the user and the image, thereby making the user more realistic and realistic. It can provide interesting VR video.
한편, 전술한 바와 같은 본 발명의 방법은 컴퓨터 프로그램으로 작성이 가능하다. 그리고 상기 프로그램을 구성하는 코드 및 코드 세그먼트는 당해 분야의 컴퓨터 프로그래머에 의하여 용이하게 추론될 수 있다. 또한, 상기 작성된 프로그램은 컴퓨터가 읽을 수 있는 기록매체(정보저장매체)에 저장되고, 컴퓨터에 의하여 판독되고 실행됨으로써 본 발명의 방법을 구현한다. 그리고 상기 기록매체는 컴퓨터가 판독할 수 있는 모든 형태의 기록매체를 포함한다.On the other hand, the method of the present invention as described above can be written in a computer program. And the code and code segments constituting the program can be easily inferred by a computer programmer in the art. In addition, the written program is stored in a computer-readable recording medium (information storage medium), and read and executed by a computer to implement the method of the present invention. The recording medium may include any type of computer readable recording medium.
이상에서 설명한 본 발명은, 본 발명이 속하는 기술 분야에서 통상의 지식을 가진 자에게 있어 본 발명의 기술적 사상을 벗어나지 않는 범위 내에서 여러 가지 치환, 변형 및 변경이 가능하므로 전술한 실시예 및 첨부된 도면에 의해 한정되는 것이 아니다.The present invention described above is capable of various substitutions, modifications, and changes without departing from the technical spirit of the present invention for those skilled in the art to which the present invention pertains. It is not limited by the drawings.
[부호의 설명][Description of the code]
100: VR 영상 서버 200: 사용자 장치100: VR video server 200: user device
210: 구동부 220: 감지부210: driver 220: detector
230: 표시부 240: 입력부230: display unit 240: input unit
250: 제어부250: control unit
Claims (14)
Applications Claiming Priority (2)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| KR1020170010622A KR101949261B1 (en) | 2017-01-23 | 2017-01-23 | method for generating VR video, method for processing VR video, and system for processing VR video |
| KR10-2017-0010622 | 2017-01-23 |
Publications (1)
| Publication Number | Publication Date |
|---|---|
| WO2018135730A1 true WO2018135730A1 (en) | 2018-07-26 |
Family
ID=62908832
Family Applications (1)
| Application Number | Title | Priority Date | Filing Date |
|---|---|---|---|
| PCT/KR2017/012090 Ceased WO2018135730A1 (en) | 2017-01-23 | 2017-10-30 | Vr image generation method, vr image processing method, and vr image processing system |
Country Status (2)
| Country | Link |
|---|---|
| KR (1) | KR101949261B1 (en) |
| WO (1) | WO2018135730A1 (en) |
Cited By (1)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| CN111292424A (en) * | 2018-12-06 | 2020-06-16 | 珀斯特传媒有限公司 | Multi-view 360-degree VR content providing system |
Families Citing this family (6)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| KR102212405B1 (en) * | 2019-02-20 | 2021-02-04 | ㈜브이리얼 | Method, device and program for producing VR video contents |
| KR102148379B1 (en) * | 2019-07-24 | 2020-08-26 | 신용강 | remote clothing store service method |
| KR102270852B1 (en) * | 2019-09-30 | 2021-06-28 | 한국항공대학교산학협력단 | Apparatus and method for providing 360-degree video application using device capable of searching viewport |
| KR102231381B1 (en) * | 2019-11-18 | 2021-03-23 | 김현수 | System and method for manufacturing videos for VR(virtual reality) using multiple two-dimensional images |
| KR102181647B1 (en) * | 2020-08-20 | 2020-11-23 | 신용강 | remote clothing store service method for providing the same environment as an offline clothing store |
| KR102181648B1 (en) * | 2020-08-20 | 2020-11-24 | 신용강 | method and apparatus for providng remote clothing store platform |
Citations (5)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| KR20050083258A (en) * | 2004-02-21 | 2005-08-26 | 삼성전자주식회사 | Information storage medium containing text subtitle data synchronized with av data, and reproducing method and apparatus |
| KR20120091033A (en) * | 2009-09-30 | 2012-08-17 | 마이크로소프트 코포레이션 | Video content-aware advertisement placement |
| KR20160023888A (en) * | 2013-06-25 | 2016-03-03 | 마이크로소프트 테크놀로지 라이센싱, 엘엘씨 | Indicating out-of-view augmented reality images |
| KR101639275B1 (en) * | 2015-02-17 | 2016-07-14 | 서울과학기술대학교 산학협력단 | The method of 360 degrees spherical rendering display and auto video analytics using real-time image acquisition cameras |
| JP2016537903A (en) * | 2013-08-21 | 2016-12-01 | ジョーント・インコーポレイテッドJaunt Inc. | Connecting and recognizing virtual reality content |
Family Cites Families (1)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| KR20020025301A (en) * | 2000-09-28 | 2002-04-04 | 오길록 | Apparatus and Method for Furnishing Augmented-Reality Graphic using Panoramic Image with Supporting Multiuser |
-
2017
- 2017-01-23 KR KR1020170010622A patent/KR101949261B1/en not_active Expired - Fee Related
- 2017-10-30 WO PCT/KR2017/012090 patent/WO2018135730A1/en not_active Ceased
Patent Citations (5)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| KR20050083258A (en) * | 2004-02-21 | 2005-08-26 | 삼성전자주식회사 | Information storage medium containing text subtitle data synchronized with av data, and reproducing method and apparatus |
| KR20120091033A (en) * | 2009-09-30 | 2012-08-17 | 마이크로소프트 코포레이션 | Video content-aware advertisement placement |
| KR20160023888A (en) * | 2013-06-25 | 2016-03-03 | 마이크로소프트 테크놀로지 라이센싱, 엘엘씨 | Indicating out-of-view augmented reality images |
| JP2016537903A (en) * | 2013-08-21 | 2016-12-01 | ジョーント・インコーポレイテッドJaunt Inc. | Connecting and recognizing virtual reality content |
| KR101639275B1 (en) * | 2015-02-17 | 2016-07-14 | 서울과학기술대학교 산학협력단 | The method of 360 degrees spherical rendering display and auto video analytics using real-time image acquisition cameras |
Cited By (1)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| CN111292424A (en) * | 2018-12-06 | 2020-06-16 | 珀斯特传媒有限公司 | Multi-view 360-degree VR content providing system |
Also Published As
| Publication number | Publication date |
|---|---|
| KR101949261B1 (en) | 2019-02-18 |
| KR20180088538A (en) | 2018-08-06 |
Similar Documents
| Publication | Publication Date | Title |
|---|---|---|
| WO2018135730A1 (en) | Vr image generation method, vr image processing method, and vr image processing system | |
| US11430098B2 (en) | Camera body temperature detection | |
| CN108415705B (en) | Webpage generation method and device, storage medium and equipment | |
| AU2011205223C1 (en) | Physical interaction with virtual objects for DRM | |
| TWI610097B (en) | Electronic system, portable display device and guiding device | |
| WO2013051180A1 (en) | Image processing apparatus, image processing method, and program | |
| WO2020130689A1 (en) | Electronic device for recommending play content, and operation method therefor | |
| WO2015122565A1 (en) | Display system for displaying augmented reality image and control method for the same | |
| CN112578971B (en) | Page content display method and device, computer equipment and storage medium | |
| WO2019156332A1 (en) | Device for producing artificial intelligence character for augmented reality and service system using same | |
| WO2021075699A1 (en) | Electronic device and operation method thereof | |
| CN109074154A (en) | Hovering touch input compensation in enhancing and/or virtual reality | |
| WO2013105760A1 (en) | Contents providing system and operating method thereof | |
| CN112965911B (en) | Interface abnormity detection method and device, computer equipment and storage medium | |
| WO2017029918A1 (en) | System, method and program for displaying moving image with specific field of view | |
| WO2016182149A1 (en) | Wearable display device for displaying progress of payment process associated with billing information on display unit and controlling method thereof | |
| CN111179674A (en) | Live broadcast teaching method and device, computer equipment and storage medium | |
| CN110969159B (en) | Image recognition method and device and electronic equipment | |
| CN109844600A (en) | Information processing equipment, information processing method and program | |
| KR20180088005A (en) | authoring tool for generating VR video and apparatus for generating VR video | |
| WO2015182846A1 (en) | Apparatus and method for providing advertisement using pupil tracking | |
| WO2021085812A1 (en) | Electronic apparatus and method for controlling same | |
| WO2022239793A1 (en) | Subject analysis device | |
| CN112000900A (en) | Method and device for recommending scenic spot information, electronic equipment and storage medium | |
| CN114327033A (en) | Virtual reality equipment and media asset playing method |
Legal Events
| Date | Code | Title | Description |
|---|---|---|---|
| 121 | Ep: the epo has been informed by wipo that ep was designated in this application |
Ref document number: 17893174 Country of ref document: EP Kind code of ref document: A1 |
|
| NENP | Non-entry into the national phase |
Ref country code: DE |
|
| 122 | Ep: pct application non-entry in european phase |
Ref document number: 17893174 Country of ref document: EP Kind code of ref document: A1 |