[go: up one dir, main page]

WO2018199351A1 - Method and device for generating image file including sensor data as metadata - Google Patents

Method and device for generating image file including sensor data as metadata Download PDF

Info

Publication number
WO2018199351A1
WO2018199351A1 PCT/KR2017/004401 KR2017004401W WO2018199351A1 WO 2018199351 A1 WO2018199351 A1 WO 2018199351A1 KR 2017004401 W KR2017004401 W KR 2017004401W WO 2018199351 A1 WO2018199351 A1 WO 2018199351A1
Authority
WO
WIPO (PCT)
Prior art keywords
image file
generating
metadata
sensor
background
Prior art date
Application number
PCT/KR2017/004401
Other languages
French (fr)
Korean (ko)
Inventor
최상호
정성엽
Original Assignee
라인 가부시키가이샤
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 라인 가부시키가이샤 filed Critical 라인 가부시키가이샤
Priority to PCT/KR2017/004401 priority Critical patent/WO2018199351A1/en
Publication of WO2018199351A1 publication Critical patent/WO2018199351A1/en

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/76Television signal recording
    • H04N5/765Interface circuits between an apparatus for recording and another apparatus
    • H04N5/77Interface circuits between an apparatus for recording and another apparatus between a recording apparatus and a television camera

Definitions

  • the present disclosure relates to a method and an apparatus for generating an image file according to a shooting command, and more particularly, to a method and an apparatus for generating an image file including sensor data as metadata included in an image file.
  • Image files are metadata that contain information related to shooting conditions such as the type of camera used to take a picture or the shooting speed such as shutter speed, ISO value, and aperture value. In order to generate the, it was necessary to receive additional content such as additional sensor information or additional image files separately.
  • a method of generating content including dynamic effects by synthesizing images and voices or synthesizing images and videos also provides a limited experience to viewers of the content.
  • Korean Patent No. 10-1513999 (published April 21, 2015) separates a selected first object from a plurality of objects included in two-dimensional image data, and first object at a first position and a second position of a background.
  • a method of displaying a two-dimensional image as a three-dimensional image by generating data relating to the arrangement of is described.
  • the sensor data associated with the object from the sensor unit is obtained, and the sensor data is added to the image file generated by photographing the object by the camera as metadata. It can provide a way to create an image file.
  • metadata is extracted from an image file photographing an object including sensor data acquired through the sensor unit as metadata, and based on the extracted metadata, a desired content including dynamic effects is generated. It may provide a method.
  • a method for generating an image file in response to a photographing command for an object through a user terminal comprising: acquiring sensor data associated with the object from at least one sensor in response to the photographing command
  • the object is at least one of a subject and a background around the subject, and the sensor data includes information required to generate a dynamic effect associated with at least one of the subject and the background;
  • generating the desired image file by adding the sensor data as metadata to an image file generated by photographing the object by the camera in response to the photographing command.
  • the sensor data may include at least one of information about a positional relationship between the user terminal and the object and information about a color of the object.
  • the sensor may include at least one of a position sensor, a gyro sensor, a distance sensor, an illuminance sensor, a depth sensor, a motion tracking sensor, and a shape identification unit.
  • the sensor data includes information about a viewpoint of the camera, information about a distance between the user terminal and the ground obtained from the position sensor, and an inclination of the user terminal when generating the desired image file measured by the gyro sensor.
  • a distance from the user terminal measured by the distance sensor to at least one measurement point of the object, an illuminance value upon generation of the desired image file measured by the illuminance sensor, measured by the depth sensor It may include at least one of a depth value of the measurement point, motion tracking related data of the object obtained by the motion tracking sensor, and information about the shape of the object identified by the shape identification unit.
  • the dynamic effect may be a Virtual Reality (VR) effect or an Augmented Reality (AR) effect, a three-dimensional effect, or a motion effect.
  • VR Virtual Reality
  • AR Augmented Reality
  • the method for generating the image file may further include generating a desired content including the dynamic effect based on the metadata included in the desired image file.
  • the generating of the desired content may include: building a virtual space based on the metadata; And synthesizing the virtual space with a user-photographed or user-selected target object.
  • the virtual space may correspond to a target object background around the target object.
  • the target object background may have a spatial similarity to the background.
  • the target object background may have spatial similarity to the background by including the same at least one environment element associated with the background.
  • the environmental element may include a color of at least a part of the background, an object included in the background, a shape of the object, a type of the object, or a positional relationship of the subject with respect to at least a part of the background.
  • the building of the virtual space may include determining a location in the virtual space of at least one thing to be placed in the virtual space based on the metadata; And generating the virtual space by arranging or rendering the object based on the determined position.
  • the building of the virtual space may include determining a shape of an object to be disposed in the virtual space based on the information about the shape of the object included in the metadata; And generating the virtual space by arranging or rendering the object based on the determined shape of the object.
  • the object to be disposed or rendered may be the same object as the object or another object having the same shape as the object.
  • the method of generating the image file may further include building a database based on the metadata included in the desired image file.
  • the metadata may be stored in the desired image file in an Exchangable Image File format (Exif).
  • the generating of the desired content may include: building a virtual space based on the metadata; And synthesizing the virtual space with a user-photographed or user-selected target object.
  • the virtual space may correspond to a target object background around the target object.
  • the target object background may have a spatial similarity to the background.
  • an electronic device that generates an image file in response to a photographing command for an object through a user terminal, wherein the sensor device obtains sensor data related to an object from at least one sensor in response to the photographing command.
  • a sensor data obtaining unit wherein the object is at least one of a subject and a background around the subject, and the sensor data includes information required to generate a dynamic effect associated with at least one of the subject and the background;
  • an image file generator for generating a desired image file by adding the sensor data as metadata to an image file generated by photographing the object by the camera in response to the photographing command.
  • the electronic device may further include a content generation unit configured to generate desired content including the dynamic effect, based on the metadata included in the desired image file.
  • a method of including sensor data as metadata in a generated image file may be provided by only performing photographing without a separate operation or setting for acquiring sensor data.
  • a single image file can be used to generate content having a dynamic effect having a visual commonality with the corresponding image file, it is possible to easily generate content in which the atmosphere at the time of shooting is reproduced.
  • a VR environment or an AR environment representing an atmosphere similar to the atmosphere in which the image file is photographed can be constructed.
  • FIG. 1 illustrates a method of generating an image file including sensor data as metadata and generating content including dynamic effects, according to an embodiment.
  • FIG. 2 illustrates an apparatus for generating an image file including sensor data as metadata and generating content including dynamic effects, according to an embodiment.
  • FIG. 3 is a flowchart illustrating a method of generating an image file including sensor data as metadata and generating content including dynamic effects, according to an exemplary embodiment.
  • FIG. 4 is a flowchart illustrating a method of generating content including dynamic effects based on metadata included in an image file, according to an example.
  • FIG. 5 is a flowchart illustrating a method of building a virtual space included in content in generating content based on metadata included in an image file according to an example.
  • FIG. 6 is a flowchart illustrating a method of building a database based on metadata included in an image file, according to an example.
  • FIG. 7 illustrates a method of generating content having a dynamic effect, according to an example.
  • FIG. 8 illustrates a method of constructing a database based on metadata included in an image file and generating content having a dynamic effect based on the constructed database.
  • FIG. 1 illustrates a method of generating an image file including sensor data as metadata and generating content including dynamic effects, according to an embodiment.
  • FIG. 1 illustrates a method of generating an image file as the object 130 is photographed through the camera 110 of the user terminal 100.
  • the user terminal 100 may be an electronic device including a sensor unit 120 including a camera 110 and at least one sensor.
  • the user terminal 100 may be a smartphone.
  • the object 130 is an object displayed in an image generated by photographing, and may represent at least one of a subject 134 to be photographed and a background 132 around the subject 134.
  • the subject 134 may include at least one object.
  • the background 132 may mean an area excluding the subject 134 in the image of the object 130 generated by photographing. Background 132 may also include at least one object.
  • the sensor unit 120 may acquire sensor data related to the object 130 using at least one sensor.
  • the sensor data may include information required for generating a dynamic effect associated with at least one of the subject 134 and the background 132.
  • sensor data can be used to generate dynamic effects such as Virtual Reality (VR) effects or Augmented Reality (AR) effects, three-dimensional effects, or motion effects on the content of an image (image) or video. Information may be included.
  • VR Virtual Reality
  • AR Augmented Reality
  • Information may be included.
  • the user terminal 100 may generate an image file by capturing the object 130 by the camera 110 in response to the photographing command, and the sensor data obtained by the sensor unit 120 as the metadata as the image. By adding to a file, a desired image file can be generated.
  • the sensor data when photographing the object 130 through the user terminal 100, the sensor data may be included as metadata in the image file generated by the photographing without any additional manipulation or setting for acquiring the sensor data.
  • the user terminal 100 may transmit the generated image file or metadata included in the image file to the content generation device 140.
  • the content generation device 140 may extract metadata from an image file from the user terminal 100, and generate content including dynamic effects using the metadata. Since the generated content includes dynamic effects generated using metadata (sensor data) included in the image file, the generated content may have a visual commonality with the image file.
  • the generated content may be content including a VR effect representing an environment (or virtual space) similar to the background 132 represented by the image file.
  • the generated content may be content including AR effects in which environmental elements associated with the background 132 represented by the image file are synthesized.
  • content having an atmosphere similar to the atmosphere in which the image file is photographed may be generated, and a VR environment or AR environment having an atmosphere similar to the atmosphere in which the image file is photographed may be constructed.
  • the content generating device 140 exists as a separate device outside the user terminal 100 is illustrated.
  • the content generating device 140 is configured inside the user terminal 100. It may be. That is, the user terminal 100 may generate the content to which the dynamic effect is added by using the metadata included in the image file by using the image file generated by photographing.
  • FIG. 2 illustrates an apparatus for generating an image file including sensor data as metadata and generating content including dynamic effects, according to an embodiment.
  • the electronic device 200 generating an image file including the sensor data as metadata, and the content generating device 140 generating content including dynamic effects using the metadata of the generated image file.
  • the electronic device 200 may correspond to the user terminal 100 described above with reference to FIG. 1.
  • the electronic device 200 is a device for photographing the object 130 and acquiring sensor data related to the object 130 according to a photographing command.
  • the electronic device 200 may be a personal computer, a laptop computer, or a laptop computer. It may be a terminal used by a user such as a laptop computer, a tablet, an Internet Of Things device, or a wearable computer.
  • the electronic device 200 may include a communication unit 210, a controller 220, a camera 230, and a sensor unit 240.
  • the camera 230 and the sensor unit 240 may correspond to the camera 110 and the sensor unit 120 described above with reference to FIG. 1.
  • the communication unit 210 may be a device for the electronic device 200 to communicate with another server or a user terminal.
  • the communication unit 210 may be a hardware module or network device driver such as a network interface card, a network interface chip and a networking interface port of the electronic device 200 that transmits / receives data and / or information to another server or user terminal. It may be a software module such as a driver or a networking program.
  • the controller 220 may manage components of the electronic device 200 and may execute a program or application used by the electronic device 200. For example, the controller 220 may control the sensor unit 240 to obtain sensor data according to the received photographing command, and control the camera 230 to photograph the object 130, and to capture an image file. Can be generated. The controller 220 may execute a program or an application required for generating an image file, and may process operations required for executing the program or the application and processing data. In addition, the controller 220 may be configured to process data received from other servers and user terminals. In addition, the controller 220 may be at least one processor of the electronic device 200 or at least one core in the processor.
  • the controller 220 includes a sensor data acquisition unit 222 for controlling the sensor unit 240 to acquire sensor data, and an image file generation unit 224 for generating an image file according to the photographing by the camera 230. can do.
  • the sensor data acquisition unit 222 may acquire sensor data related to the object 130 from the sensor unit 240 including at least one sensor in response to a photographing command for the object 130.
  • the image file generation unit 224 adds the sensor data as metadata to an image file generated by photographing the object 130 by the camera 230 in response to a photographing command for the object 130. You can create a file.
  • the controller 220 may further include a content generator 226 that generates desired content including dynamic effects based on metadata included in the image file generated by the image file generator 224.
  • a content generator 226 that generates desired content including dynamic effects based on metadata included in the image file generated by the image file generator 224.
  • the content generator 226 extracts the metadata from the image file generated by the image file generator 224, which includes sensor data related to the object 130 obtained through the sensor unit 240 as metadata. And based on the extracted metadata, it is possible to generate content including dynamic effects.
  • the above-described configurations 222 through 226 of the controller 220 may be implemented in at least one processor, and the functions and operations of the configurations 222 through 226 may be executed by at least one processor.
  • the camera 230 may be a device for photographing the object 130.
  • the camera 230 may include an image sensor for photographing the object 130 to generate an image (image or image).
  • the sensor unit 240 may include at least one sensor for measuring / acquiring data related to the object 130.
  • the sensor unit 240 may include at least one of a position sensor, a gyro sensor, a distance sensor, an illuminance sensor, a depth sensor, a motion tracking sensor, and a shape identification unit.
  • the electronic device 200 eg, the user terminal 100
  • the positional relationship between the object 130 and the color information of the object 130 may be determined. It may include any sensor.
  • the sensor data may include information about a viewpoint of the camera 230, information about a distance between the electronic device 200 and the ground obtained from the position sensor, and an electronic device at the time of generating a desired image file measured by the gyro sensor.
  • Tilt of 200 distance from the electronic device 200 measured by the distance sensor to at least one measurement point of the object 130, at the time of generation of the image file measured by the illuminance sensor (ie, at the time of shooting)
  • the image file generator 224 may parameterize the acquired sensor data, and generate the image file by adding the parameterized sensor data as metadata of the image file to be generated.
  • the measurement point may represent any point of the object 130 or may represent any point of the object included in the object 130.
  • the motion tracking related data and / or information about the shape may be used to identify what the object 130 (or the objects included in the object 130) is.
  • the electronic device 200 may further include a display unit for outputting data input by a user or displaying content including image files and / or dynamic effects.
  • the display unit may include a touch screen, and in this case, the display unit may be configured to include a function of an input unit for receiving a setting and a request from a user.
  • the electronic device 200 may include a storage unit as a device for storing data or information.
  • the storage may include any memory or storage device.
  • the storage unit may store a program or an application executed by the controller 220 and information related thereto.
  • the storage unit may store content including the generated image file and / or the generated dynamic effect.
  • the content generation device 140 may be a device for generating content including dynamic effects, based on metadata included in the image file generated by the image file generation unit 224.
  • the content generation device 140 may include a communication unit 250 and a control unit 260.
  • the content generation device 140 may be a server or other computing device that generates content that includes dynamic effects.
  • the communication unit 250 may be a component for communicating with other devices, including the electronic device 200.
  • the communication unit 250 may be a network interface card, a network interface chip and a networking interface port of the server 110 that transmits / receives data and / or information to another device (database or other server) including the electronic device 200. It may be a hardware module.
  • the communication unit 250 may be or a software module such as a network device driver or a networking program.
  • the controller 260 may manage the components of the content generation device 140, execute a program or an application used by the content generation device 140 to generate and provide content, and process related data and operations. Can be.
  • the controller 260 may be at least one processor of the content generating device 140 or at least one core in the processor.
  • the controller 260 may include a content generator 266.
  • Operations and functions of the content generator 266 may be the same as those of the content generator 226 described above, and thus a detailed description thereof will be omitted.
  • the content including the dynamic effect may be generated by the electronic device 200 or may be generated by the content generating device 140 external to the electronic device 200.
  • some operations eg, virtual space creation
  • the remaining operations are performed by the electronic device 200. It may also be performed by.
  • FIG. 2 As described above, the description of the technical features described above with reference to FIG. 1 may be applied to FIG. 2 as it is, and thus redundant descriptions thereof will be omitted.
  • FIG. 3 is a flowchart illustrating a method of generating an image file including sensor data as metadata and generating content including dynamic effects, according to an exemplary embodiment.
  • Steps 310 to 330 to be described below illustrate a method of generating an image file including sensor data as metadata by the electronic device 200 (I).
  • steps 340 and 350 to be described below illustrate a method for generating content including dynamic effects by the electronic device 200 or the content generating device 140 (II).
  • steps 340 and 350 are described as being performed by the content generator 226, but steps 340 and 350 may be performed by the content generator 266.
  • the sensor data acquisition unit 222 may acquire sensor data related to the object 130 from at least one sensor (that is, the sensor unit 240) in response to a photographing command.
  • the sensor data may include information required for generating a dynamic effect associated with at least one of the subject 134 and the background 134.
  • the sensor data acquirer 222 may acquire data about the photographing environment of the object 130 through the sensor unit 240. It can be measured.
  • the sensor data acquirer 222 may acquire measured sensor data. .
  • the sensor data acquired by the sensor data acquisition unit 222 may include information about the positional relationship between the electronic device 200 (eg, the user terminal 100) and the object 130. 130 may include at least one of the information about the color. Information regarding the positional relationship between the electronic device 200 and the object 130 at the time of photographing may include at least one object included in the object 130 or the distance of the electronic device 200 with respect to at least a part of the object, the electronic device 200. Height difference) and associated angles.
  • the sensor data may include information about a viewpoint of the camera 230, information about a distance between the electronic device 200 obtained from a position sensor and the ground, and an electronic device 200 when generating a desired image file measured by a gyro sensor. ), The distance from the electronic device 200 measured by the distance sensor to the at least one measurement point of the object 130, the illuminance at the time of generation of the image file measured by the illuminance sensor A value, a depth value of the measurement point measured by the depth sensor, motion tracking related data of the object 130 obtained by the motion tracking sensor, and information about the shape of the object 130 identified by the shape identification unit. It may include one.
  • the image file generator 224 may parameterize the sensor data acquired by the sensor data acquirer 222.
  • the information about the viewpoint of the camera 230 is a viewType.
  • the type of the camera mobile phone camera, wide angle camera, panoramic camera, etc.
  • zooming or not, focusing may be parameterized.
  • the information about the distance between the electronic device 200 and the ground may be parameterized by digitizing the distance between the electronic device 200 and the ground.
  • the inclination of the electronic device 200 is an angle, and an angle with respect to the ground of the electronic device 200 (that is, the camera 230) may be numerically parameterized.
  • each object included in the object 130 may have an ID (eg, an integer value) as the objectId.
  • the type of each object may be parameterized as an objectType.
  • the type of object may represent a specific object (or creature) such as, for example, a wall, sky, floor, ceiling, light source, road, river, sea, animal, person, door, chair, desk, or the like.
  • the shape of the object 130 (or each object) is a shape, for example, an approximate shape of the object, a circle, a ball, a box, or the like may be parameterized.
  • the two-dimensional position in the photographing environment of the object 130 is a map, for example, the x coordinate and the y coordinate may be parameterized.
  • the three-dimensional position in the photographing environment of the object 130 (or each object) is a location, for example, the x coordinate, the y coordinate and the z coordinate may be parameterized.
  • the size of the object 130 (or each thing) is size, for example, the width, the length and the depth may be parameterized.
  • the color of the object 130 is color, for example, the HEX code of the average color of the object 130 (or each object) may be parameterized.
  • any sensor data such as motion tracking data of the object 130 (or each object), illuminance of the shooting environment, and the like may be digitized / coded as an extension and parameterized.
  • the image file generating unit 224 uses sensor data (parameterized) as metadata in the image file generated by photographing the object 130 by the camera 230.
  • sensor data Parameterized
  • the desired image file can be generated.
  • the sensor data may be stored in the generated image file and the metadata may be stored in an Exchangable Image File format (Exif) (eg, may be stored in an extention of Exif). Accordingly, the image file including the sensor data as metadata may be generated only by the photographing command for the object 130 through the electronic device 200.
  • the content generator 226 may extract metadata included in the image file generated in operation 330.
  • the content generator 226 may extract information corresponding to sensor data necessary for generating a dynamic effect related to at least one of the subject 134 and the background 132 among the information included in the metadata.
  • the content generator 226 may generate desired content including dynamic effects based on the extracted metadata.
  • the dynamic effect on the content may be a Virtual Reality (VR) effect or an Augmented Reality (AR) effect, a three-dimensional effect, or a motion effect associated with the object 130.
  • the generated content may have a visual commonality with the image file generated in step 330.
  • the generated content may be content including a VR effect representing an environment (or virtual space) similar to the background 132 represented by the image file.
  • the generated content may be content including AR effects in which environmental elements associated with the background 132 represented by the image file are synthesized.
  • the motion effect may be to cause a shake effect, a rotation effect, or a tilt effect to occur in at least a portion of the generated content.
  • FIG. 3 As described above, the description of the technical features described above with reference to FIGS. 1 and 2 may be applied to FIG. 3 as it is, and thus redundant descriptions thereof will be omitted.
  • FIG. 4 is a flowchart illustrating a method of generating content including dynamic effects based on metadata included in an image file, according to an example.
  • Steps 410 and 420 to be described below may be included in step 350 described above with reference to FIG. 3.
  • the content generator 226 may build a virtual space based on metadata included in the image file.
  • the virtual space may be a space in which the VR effect or the AR effect of the generated content is displayed. Alternatively, the virtual space may be a portion to which the dynamic effect is applied in the generated content.
  • the content generator 226 may build a virtual space based on sensor data related to the subject 134 and the background 132 included in the metadata.
  • the content generator 226 may synthesize the generated virtual space and the user-photographed or user-selected target object.
  • the virtual space may correspond to a target object background around the target object.
  • the target object may be, for example, another object (or subject) photographed by the user.
  • the content generator 226 may generate content by synthesizing the photographed subject and the generated virtual space (eg, an AR effect applied space).
  • the target object may be an object corresponding to a subject who experiences a VR effect (that is, an object corresponding to the center of the viewpoint (eg, corresponding to the center of the viewpoint of the 360 degree camera).
  • the content generator 226 may be a target.
  • Content may be generated by synthesizing the object and the generated virtual space, and the user may experience the VR effect through the virtual space by watching the content using the VR device.
  • the target object background corresponding to the virtual space may have a spatial similarity to the background 132 of the image file.
  • Spatial similarity may indicate visual commonality (similarity) between the virtual space and the background 132. That is, when comparing the generated content with the image file, the user may feel visual similarity (spatial similarity).
  • the target object background may have spatial similarity to the background 132 by including the same at least one environment element associated with the background 132.
  • An environmental element may indicate a color of at least a portion of the background 132, an object included in the background 132, a shape of the object, a type of the object, or a positional relationship of the subject 134 with respect to at least a portion of the background 132. Can be.
  • the target object background includes the same or similar color as the background 132; Include objects that are the same or similar to the objects included in the background 132, or are the same or similar in shape;
  • the position of the target object with respect to the background of the target object is determined to correspond to the position of the subject 134 with respect to the background 132, thereby having a spatial similarity with respect to the background 132.
  • the spatial similarity to the background 132 may be secured by building the target object background using metadata included in the image file.
  • a method of building a virtual space of content including dynamic effects will be described in more detail with reference to FIGS. 5 and 7 to be described later.
  • the content including the VR effect / AR effect of the atmosphere similar to the image file of the object 130 is generated, or the object ( It may be possible to generate an image file reproducing the atmosphere of the image file photographed 130).
  • FIG. 5 is a flowchart illustrating a method of building a virtual space included in content in generating content based on metadata included in an image file according to an example.
  • Steps 510 and 520 to be described below may be included in step 410 described above with reference to FIG. 4.
  • the content generator 226 (or the content generator 266) is disposed in the virtual space based on the information about the shape of the object 130 included in the metadata included in the image file. You can determine the shape of the object to be.
  • the content generator 226 may determine the objects of the object to be placed in the virtual space based on the information about the shape of each object included in the object 130 (the background 132 and / or the object 134) included in the metadata.
  • the shape can be determined.
  • the content generating unit 226 may be the same object as the object 130 (the object included in the object) or another object having the same shape as the object 130 (the object included in the object).
  • an object disposed or rendered in a virtual space may be determined based on an objectType and a shape of metadata of an image file.
  • the content generator 226 may generate a virtual space by arranging or rendering the object based on the determined shape of the object.
  • the object determined according to the information about the shape of the object 130 included in the metadata may be disposed or rendered in the virtual space.
  • the content generating unit 226 (or the content generating unit 266) is in the virtual space of at least one thing to be placed in the virtual space based on metadata included in the image file.
  • the location can be determined.
  • the content generator 226 corresponds to each object in the virtual space based on the location information of each object included in the object 130 (background 132 and / or the subject 134) included in the metadata. You can determine where the thing will be placed. For example, a position where the object (s) are to be disposed in the virtual space may be determined to correspond to the position of the object included in the background 132 and the position of the object included in the subject 134 in the image file. In this case, the content generator 226 may allow the above-described target object to be disposed at a position of the virtual space corresponding to the subject 134.
  • the content generator 226 may generate a virtual space by arranging or rendering a corresponding object based on the location determined in operation 510.
  • FIG. 6 is a flowchart illustrating a method of building a database based on metadata included in an image file, according to an example.
  • the content generator 226 (or the content generator 266) is added to the metadata included in the image file.
  • the content generator 226 may build a database based on the metadata included in the image file by transmitting the image file or metadata included in the image file to a database external to the electronic device 200. have.
  • the database may store metadata included in image files from the plurality of electronic devices 200.
  • the metadata stored in the database may be utilized in content generation including dynamic effects by the content generation unit 226 as big data.
  • FIG. 7 illustrates a method of generating content having a dynamic effect, according to an example.
  • the person 712 may correspond to the subject, and the door 718 and the puppy 716 may not correspond to the subject and correspond to an object included in the background 714.
  • the metadata of the image file 710 may store information regarding the location and shape of two-dimensional and three-dimensional images in the image file 710 of the objects 712 to 716.
  • the distance information to the electronic device 200 and at least the height and inclination information of the electronic device 200 with respect to at least one measurement point (eg, any of the walls) of the background 714 are also stored in the metadata. It may be.
  • the content generating unit 226 uses the metadata so that the object 718 is a rectangular door, the object 716 is a puppy as an animal, and the object 712 ) Can identify you as a person.
  • the content generator 226 may also identify that the object 712 corresponds to the subject. For example, the object in focus or the object close to the center of the image may be identified as the subject.
  • the content generator 226 may generate the content 720 by using (relative) location information and shape information of the image files of the objects 712 to 716 included in the metadata.
  • a rectangular door 728 corresponding to the object 718 may be disposed in the virtual space 724.
  • a cat 726 (determined as an object representing the same type (animal) as the object 716) corresponding to the object 716 may be disposed in the virtual space 724.
  • the object 722 photographed or selected by the user (corresponding to the target object described above) may be disposed in the virtual space 724.
  • the position of the corresponding virtual space 724 in the image file of the objects 712 to 716 is used.
  • Things 722-726 may be arranged. Since the metadata includes information that can indicate a location in space including depth information of the objects 712 to 716, the content generator 226 may be assigned a dynamic effect related to at least one of the objects 722 to 726. Generated content 720 can be generated.
  • the generated content 720 may further have a dynamic effect such as a VR effect or an AR effect, a three-dimensional effect, or a motion effect, while providing an atmosphere similar to that of the image file 710, compared to the image file 710. .
  • a dynamic effect such as a VR effect or an AR effect, a three-dimensional effect, or a motion effect
  • FIG. 8 illustrates a method of constructing a database based on metadata included in an image file and generating content having a dynamic effect based on the constructed database.
  • the illustrated database 810 may correspond to a database constructed based on the metadata described above with reference to FIG. 6.
  • the database 810 may store metadata included in the image files 710-1 to 710 -N itself or the image files 710-1 to 710 -N generated by the one or more electronic devices 200. Can be.
  • the content generator 226 may select an appropriate one from among metadata of the image files 710-1 through 710 -N stored in the database 810, and use the generated content 720 with the dynamic effect.
  • the electronic device 200 may output a user interface configured to allow a user to select appropriate metadata or a virtual space generated through the metadata.
  • the content generator 226 may select the content 720 according to the user's selection through the user interface. In this manner, the user may generate not only the image file photographed by the electronic device 200 but also the content 720 which reproduces the atmosphere of the image file photographed by another user. In other words, metadata encapsulated in an image file may be shared among users through the database 810.
  • the user may generate the content 720 by finely adjusting the dynamic effect or atmosphere to be applied.
  • FIG. 8 As described above, the description of the technical features described above with reference to FIGS. 1 to 7 may be applied to FIG. 8 as it is, and thus redundant descriptions thereof will be omitted.
  • the apparatus described above may be implemented as a hardware component, a software component, and / or a combination of hardware components and software components.
  • the devices and components described in the embodiments may include a processor, a controller, an arithmetic logic unit (ALU), a digital signal processor, a microcomputer, a field programmable gate array (FPGA), a programmable PLU (programmable). It can be implemented using one or more general purpose or special purpose computers, such as logic units, microprocessors, or any other device capable of executing and responding to instructions.
  • the processing device may execute an operating system (OS) and one or more software applications running on the operating system.
  • the processing device may also access, store, manipulate, process, and generate data in response to the execution of the software.
  • OS operating system
  • the processing device may also access, store, manipulate, process, and generate data in response to the execution of the software.
  • processing device includes a plurality of processing elements and / or a plurality of types of processing elements. It can be seen that it may include.
  • the processing device may include a plurality of processors or one processor and one controller.
  • other processing configurations are possible, such as parallel processors.
  • the software may include a computer program, code, instructions, or a combination of one or more of the above, and configure the processing device to operate as desired, or process it independently or collectively. You can command the device.
  • Software and / or data may be any type of machine, component, physical device, virtual equipment, computer storage medium or device in order to be interpreted by or to provide instructions or data to the processing device. It can be embodied in The software may be distributed over networked computer systems so that they may be stored or executed in a distributed manner. Software and data may be stored on one or more computer readable recording media.
  • the method according to the embodiment may be embodied in the form of program instructions that can be executed by various computer means and recorded in a computer readable medium.
  • the medium may be to continuously store a program executable by the computer, or to temporarily store for execution or download.
  • the medium may be a variety of recording means or storage means in the form of a single or several hardware combined, not limited to a medium directly connected to any computer system, it may be distributed on the network. Examples of the medium include magnetic media such as hard disks, floppy disks and magnetic tape, optical recording media such as CD-ROMs and DVDs, magneto-optical media such as floptical disks, And ROM, RAM, flash memory, and the like, configured to store program instructions.
  • examples of another medium may include a recording medium or a storage medium managed by an app store that distributes an application or a site or server that supplies or distributes various software.

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Processing Or Creating Images (AREA)

Abstract

Provided is an image processing method for acquiring depth information of a target image on the basis of a predetermined pattern information including information regarding a shape of an object included in an image and information regarding relative locations between objects included in the image, and applying a dynamic effect to the target image on the basis of the acquired depth information.

Description

센서 데이터를 메타데이터로서 포함하는 이미지 파일 생성 방법 및 장치Method and apparatus for generating image file including sensor data as metadata
본 개시는 촬영 명령에 따라 이미지 파일을 생성하는 방법 및 장치에 관한 것으로, 보다 자세하게는, 이미지 파일에 포함되는 메타데이터로서 센서 데이터를 포함하는 이미지 파일을 생성하는 방법 및 장치와 관련된다.The present disclosure relates to a method and an apparatus for generating an image file according to a shooting command, and more particularly, to a method and an apparatus for generating an image file including sensor data as metadata included in an image file.
이미지(화상)의 경우 2차원의 사물 만을 표현할 수 있으므로, 동영상에서 나타나는 것과 같은 생동감이나 현장감을 표현할 수 없다. 이미지 파일은 메타데이터로서 사진 촬영 시 사용된 카메라의 종류나, 셔터 스피드, ISO 값 및 조리개 값과 같은 촬영 조건과 관련된 정보를 포함하고 있을 뿐이므로, 이러한 이미지 파일에 기반하여 동적 효과를 포함하는 콘텐츠를 생성하기 위해서는, 별도로 추가적인 센서 정보나 추가적인 이미지 파일과 같은 추가 콘텐츠를 수신하는 것이 필수적으로 요구되었다.In the case of an image, only two-dimensional objects can be expressed, and therefore, liveness or realism as shown in a video cannot be expressed. Image files are metadata that contain information related to shooting conditions such as the type of camera used to take a picture or the shooting speed such as shutter speed, ISO value, and aperture value. In order to generate the, it was necessary to receive additional content such as additional sensor information or additional image files separately.
동영상의 경우에는 이미지에 비해 용량이 매우 크고, 제작에 많은 시간이 소요된다는 단점이 있다. 또한, 이미지와 음성을 합성하거나, 이미지와 동영상을 합성하는 것과 같은 방법을 통해 동적 효과를 포함하는 콘텐츠를 생성하는 방법 역시 콘텐츠의 시청자에게 제한적인 경험을 제공할 뿐이다. In the case of a video, the capacity is very large compared to an image, and it takes a long time to produce. In addition, a method of generating content including dynamic effects by synthesizing images and voices or synthesizing images and videos also provides a limited experience to viewers of the content.
따라서, 추가적인 데이터의 입력이나 추가 콘텐츠의 수신 없이, 단일한 촬영을 통해 생성된 이미지 파일을 사용하여 동적 효과를 포함하는 콘텐츠를 생성하기 위한 방법 및 장치가 요구된다. Accordingly, there is a need for a method and apparatus for generating content including dynamic effects using an image file generated through a single shot, without input of additional data or receipt of additional content.
한국등록특허 제10-1513999호(공고일 2015년 4월 21일)는 2차원 이미지 데이터에 포함된 복수의 객체로부터 선택된 제1 객체를 분리하고, 배경의 제1 위치 및 제2 위치에 제1 객체의 배치에 관한 데이터를 생성함으로써 2차원 이미지를 3차원 이미지로 표시하는 방법을 기재하고 있다.Korean Patent No. 10-1513999 (published April 21, 2015) separates a selected first object from a plurality of objects included in two-dimensional image data, and first object at a first position and a second position of a background. A method of displaying a two-dimensional image as a three-dimensional image by generating data relating to the arrangement of is described.
상기에서 설명된 정보는 단지 이해를 돕기 위한 것이며, 종래 기술의 일부를 형성하지 않는 내용을 포함할 수 있으며, 종래 기술이 통상의 기술자에게 제시할 수 있는 것을 포함하지 않을 수 있다.The information described above is merely for the sake of understanding, and may include content that does not form part of the prior art, and may not include what the prior art may suggest to those skilled in the art.
일 실시예는, 촬영 명령에 응답하여, 센서부로부터의 오브젝트와 관련된 센서 데이터를 획득하고, 카메라에 의해 상기 오브젝트를 촬영함으로써 생성되는 이미지 파일에, 획득된 센서 데이터를 메타데이터로서 부가함으로써 소기의 이미지 파일을 생성하는 방법을 제공할 수 있다.In one embodiment, in response to a photographing command, the sensor data associated with the object from the sensor unit is obtained, and the sensor data is added to the image file generated by photographing the object by the camera as metadata. It can provide a way to create an image file.
일 실시예는, 센서부를 통해 획득된 센서 데이터를 메타데이터로서 포함하는 오브젝트를 촬영한 이미지 파일로부터 메타데이터를 추출하고, 추출된 메타데이터에 기반하여, 동적 효과를 포함하는 소기의 콘텐츠를 생성하는 방법을 제공할 수 있다.According to an embodiment of the present disclosure, metadata is extracted from an image file photographing an object including sensor data acquired through the sensor unit as metadata, and based on the extracted metadata, a desired content including dynamic effects is generated. It may provide a method.
일 측면에 있어서, 사용자 단말을 통한, 오브젝트에 대한 촬영 명령에 응답하여 이미지 파일을 생성하는 방법에 있어서, 상기 촬영 명령에 응답하여, 적어도 하나의 센서로부터의 상기 오브젝트와 관련된 센서 데이터를 획득하는 단계 - 상기 오브젝트는 피사체 및 상기 피사체의 주위의 배경 중 적어도 하나이고, 상기 센서 데이터는 상기 피사체 및 상기 배경 중 적어도 하나와 관련된 동적 효과를 생성하기 위해 요구되는 정보를 포함함 -; 및 상기 촬영 명령에 응답하여 카메라에 의해 상기 오브젝트를 촬영함으로써 생성되는 이미지 파일에 상기 센서 데이터를 메타데이터로서 부가함으로써 소기의 이미지 파일을 생성하는 단계를 포함하는, 이미지 파일을 생성하는 방법이 제공된다.In one aspect, a method for generating an image file in response to a photographing command for an object through a user terminal, the method comprising: acquiring sensor data associated with the object from at least one sensor in response to the photographing command The object is at least one of a subject and a background around the subject, and the sensor data includes information required to generate a dynamic effect associated with at least one of the subject and the background; And generating the desired image file by adding the sensor data as metadata to an image file generated by photographing the object by the camera in response to the photographing command. .
센서 데이터는 상기 사용자 단말과 상기 오브젝트 간의 위치 관계에 관한 정보 및 상기 오브젝트의 색상에 관한 정보 중 적어도 하나를 포함할 수 있다. The sensor data may include at least one of information about a positional relationship between the user terminal and the object and information about a color of the object.
상기 센서는 위치 센서, 자이로 센서, 거리 센서, 조도 센서, 깊이 센서, 모션 추적 센서 및 형상 식별부 중 적어도 하나를 포함할 수 있다.The sensor may include at least one of a position sensor, a gyro sensor, a distance sensor, an illuminance sensor, a depth sensor, a motion tracking sensor, and a shape identification unit.
상기 센서 데이터는 상기 카메라의 시점에 관한 정보, 상기 위치 센서로부터 획득된 상기 사용자 단말과 지면 간의 거리에 관한 정보, 상기 자이로 센서에 의해 측정된 상기 소기의 이미지 파일의 생성 시의 상기 사용자 단말의 기울기, 상기 거리 센서에 의해 측정된 상기 사용자 단말로부터 상기 오브젝트의 적어도 하나의 측정 포인트까지의 거리, 상기 조도 센서에 의해 측정된 상기 소기의 이미지 파일의 생성 시의 조도 값, 상기 깊이 센서에 의해 측정된 상기 측정 포인트의 깊이 값, 상기 모션 추적 센서에 의해 획득된 상기 오브젝트의 모션 추적 관련 데이터 및 상기 형상 식별부에 의해 파악된 상기 오브젝트의 형상에 관한 정보 중 적어도 하나를 포함할 수 있다. The sensor data includes information about a viewpoint of the camera, information about a distance between the user terminal and the ground obtained from the position sensor, and an inclination of the user terminal when generating the desired image file measured by the gyro sensor. A distance from the user terminal measured by the distance sensor to at least one measurement point of the object, an illuminance value upon generation of the desired image file measured by the illuminance sensor, measured by the depth sensor It may include at least one of a depth value of the measurement point, motion tracking related data of the object obtained by the motion tracking sensor, and information about the shape of the object identified by the shape identification unit.
상기 동적 효과는 가상 현실(Virtual Reality; VR) 효과 또는 증강 현실(Augmented Reality; AR) 효과, 3차원 효과 또는 모션 효과일 수 있다. The dynamic effect may be a Virtual Reality (VR) effect or an Augmented Reality (AR) effect, a three-dimensional effect, or a motion effect.
상기 이미지 파일을 생성하는 방법은 상기 소기의 이미지 파일에 포함된 상기 메타데이터에 기반하여, 상기 동적 효과를 포함하는 소기의 콘텐츠를 생성하는 단계를 더 포함할 수 있다. The method for generating the image file may further include generating a desired content including the dynamic effect based on the metadata included in the desired image file.
상기 소기의 콘텐츠를 생성하는 단계는, 상기 메타데이터에 기반하여 가상의 공간을 구축하는 단계; 및 상기 가상의 공간과 사용자-촬영된 또는 사용자-선택된 타겟 오브젝트를 합성하는 단계를 포함할 수 있다. The generating of the desired content may include: building a virtual space based on the metadata; And synthesizing the virtual space with a user-photographed or user-selected target object.
상기 가상의 공간은 상기 타겟 오브젝트 주위의 타겟 오브젝트 배경에 해당할 수 있다. The virtual space may correspond to a target object background around the target object.
상기 타겟 오브젝트 배경은 상기 배경에 대해 공간적 유사성을 가질 수 있다. The target object background may have a spatial similarity to the background.
상기 타겟 오브젝트 배경은 상기 배경과 연관된 적어도 하나의 환경 요소를 동일하게 포함함으로써 상기 배경에 대해 공간적 유사성을 가질 수 있다.The target object background may have spatial similarity to the background by including the same at least one environment element associated with the background.
상기 환경 요소는 상기 배경의 적어도 일부의 색상, 상기 배경에 포함된 사물, 상기 사물의 형상, 상기 사물의 타입 또는 상기 배경의 적어도 일부에 대한 상기 피사체의 위치 관계를 포함할 수 있다. The environmental element may include a color of at least a part of the background, an object included in the background, a shape of the object, a type of the object, or a positional relationship of the subject with respect to at least a part of the background.
상기 가상의 공간을 구축하는 단계는, 상기 메타데이터에 기반하여 상기 가상의 공간에 배치될 적어도 하나의 사물의 상기 가상의 공간 내의 위치를 결정하는 단계; 및 상기 결정된 위치에 기반하여 상기 사물을 배치 또는 렌더링함으로써 상기 가상의 공간을 생성하는 단계를 포함할 수 있다. The building of the virtual space may include determining a location in the virtual space of at least one thing to be placed in the virtual space based on the metadata; And generating the virtual space by arranging or rendering the object based on the determined position.
상기 가상의 공간을 구축하는 단계는, 상기 메타데이터에 포함된 상기 오브젝트의 형상에 관한 정보에 기반하여 상기 가상의 공간에 배치될 사물의 형상을 결정하는 단계; 및 상기 결정된 사물의 형상에 기반하여 상기 사물을 배치 또는 렌더링함으로써 상기 가상의 공간을 생성하는 단계를 포함할 수 있다. The building of the virtual space may include determining a shape of an object to be disposed in the virtual space based on the information about the shape of the object included in the metadata; And generating the virtual space by arranging or rendering the object based on the determined shape of the object.
상기 배치 또는 렌더링되는 사물은 상기 오브젝트와 동일한 사물이거나, 상기 오브젝트와 형상이 동일한 다른 사물일 수 있다. The object to be disposed or rendered may be the same object as the object or another object having the same shape as the object.
상기 이미지 파일을 생성하는 방법은, 상기 소기의 이미지 파일에 포함된 상기 메타데이터에 기반한 데이터베이스를 구축하는 단계를 더 포함할 수 있다. The method of generating the image file may further include building a database based on the metadata included in the desired image file.
상기 메타데이터는 교환 이미지 파일 형식(EXchangable Image File format; Exif)으로 상기 소기의 이미지 파일 내에 저장될 수 있다. The metadata may be stored in the desired image file in an Exchangable Image File format (Exif).
다른 일 측면에 있어서, 적어도 하나의 센서를 통해 획득된 오브젝트와 관련된 센서 데이터를 메타데이터로서 포함하는 상기 오브젝트를 촬영한 이미지 파일로부터 상기 메타데이터를 추출하는 단계 - 상기 오브젝트는 피사체 및 상기 피사체의 주위의 배경 중 적어도 하나이고, 상기 센서 데이터는 상기 피사체 및 상기 배경 중 적어도 하나와 관련된 동적 효과를 생성하기 위해 요구되는 정보를 포함함 -; 및 상기 메타데이터에 기반하여, 상기 동적 효과를 포함하는 소기의 콘텐츠를 생성하는 단계를 포함하는 콘텐츠를 생성하는 방법이 제공된다. In another aspect, extracting the metadata from an image file photographing the object that includes sensor data related to an object obtained through at least one sensor as metadata, wherein the object is a subject and a surrounding of the subject. At least one of a background of the sensor data, wherein the sensor data includes information required to generate a dynamic effect associated with at least one of the subject and the background; And generating a desired content including the dynamic effect, based on the metadata.
상기 소기의 콘텐츠를 생성하는 단계는, 상기 메타데이터에 기반하여 가상의 공간을 구축하는 단계; 및 상기 가상의 공간과 사용자-촬영된 또는 사용자-선택된 타겟 오브젝트를 합성하는 단계를 포함할 수 있다. The generating of the desired content may include: building a virtual space based on the metadata; And synthesizing the virtual space with a user-photographed or user-selected target object.
상기 가상의 공간은 상기 타겟 오브젝트 주위의 타겟 오브젝트 배경에 해당할 수 있다. The virtual space may correspond to a target object background around the target object.
상기 타겟 오브젝트 배경은 상기 배경에 대해 공간적 유사성을 가질 수 있다. The target object background may have a spatial similarity to the background.
또 다른 일 측면에 있어서, 사용자 단말을 통한, 오브젝트에 대한 촬영 명령에 응답하여 이미지 파일을 생성하는 전자 장치에 있어서, 상기 촬영 명령에 응답하여, 적어도 하나의 센서로부터의 오브젝트와 관련된 센서 데이터를 획득하는 센서 데이터 획득부 - 상기 오브젝트는 피사체 및 상기 피사체의 주위의 배경 중 적어도 하나이고, 상기 센서 데이터는 상기 피사체 및 상기 배경 중 적어도 하나와 관련된 동적 효과를 생성하기 위해 요구되는 정보를 포함함 -; 및 상기 촬영 명령에 응답하여 카메라에 의해 상기 오브젝트를 촬영함으로써 생성되는 이미지 파일에 상기 센서 데이터를 메타데이터로서 부가함으로써 소기의 이미지 파일을 생성하는 이미지 파일 생성부를 포함하는, 전자 장치가 제공된다. In another aspect, an electronic device that generates an image file in response to a photographing command for an object through a user terminal, wherein the sensor device obtains sensor data related to an object from at least one sensor in response to the photographing command. A sensor data obtaining unit, wherein the object is at least one of a subject and a background around the subject, and the sensor data includes information required to generate a dynamic effect associated with at least one of the subject and the background; And an image file generator for generating a desired image file by adding the sensor data as metadata to an image file generated by photographing the object by the camera in response to the photographing command.
상기 전자 장치는, 상기 소기의 이미지 파일에 포함된 상기 메타데이터에 기반하여, 상기 동적 효과를 포함하는 소기의 콘텐츠를 생성하는 콘텐츠 생성부를 더 포함할 수 있다. The electronic device may further include a content generation unit configured to generate desired content including the dynamic effect, based on the metadata included in the desired image file.
사용자 단말을 통해 오브젝트를 촬영함에 있어서, 센서 데이터를 획득하기 위한 별도의 조작이나 설정 없이 촬영을 수행하는 것만으로, 생성된 이미지 파일 내에 센서 데이터를 메타데이터로서 포함시킬 수 있는 방법이 제공될 수 있다. In photographing an object through a user terminal, a method of including sensor data as metadata in a generated image file may be provided by only performing photographing without a separate operation or setting for acquiring sensor data. .
단일한 이미지 파일을 사용하여 해당 이미지 파일과 시각적인 공통점을 갖는 동적 효과를 갖는 콘텐츠를 생성할 수 있으므로, 촬영 시의 분위기가 재현된 콘텐츠를 용이하게 생성할 수 있다. Since a single image file can be used to generate content having a dynamic effect having a visual commonality with the corresponding image file, it is possible to easily generate content in which the atmosphere at the time of shooting is reproduced.
단일한 이미지 파일 만을 사용하여, 해당 이미지 파일이 촬영된 분위기와 유사한 분위기를 나타내는 VR 환경 또는 AR 환경을 구축할 수 있다.Using only a single image file, a VR environment or an AR environment representing an atmosphere similar to the atmosphere in which the image file is photographed can be constructed.
도 1은 일 실시예에 따른, 센서 데이터를 메타데이터로서 포함하는 이미지 파일을 생성하고, 동적 효과를 포함하는 콘텐츠를 생성하는 방법을 나타낸다.1 illustrates a method of generating an image file including sensor data as metadata and generating content including dynamic effects, according to an embodiment.
도 2는 일 실시예에 따른, 센서 데이터를 메타데이터로서 포함하는 이미지 파일을 생성하고, 동적 효과를 포함하는 콘텐츠를 생성하는 장치를 나타낸다.2 illustrates an apparatus for generating an image file including sensor data as metadata and generating content including dynamic effects, according to an embodiment.
도 3은 일 실시예에 따른, 센서 데이터를 메타데이터로서 포함하는 이미지 파일을 생성하고, 동적 효과를 포함하는 콘텐츠를 생성하는 방법을 나타내는 흐름도이다. 3 is a flowchart illustrating a method of generating an image file including sensor data as metadata and generating content including dynamic effects, according to an exemplary embodiment.
도 4는 일 예에 따른, 이미지 파일에 포함된 메타데이터에 기반하여 동적 효과를 포함하는 콘텐츠를 생성하는 방법을 나타내는 흐름도이다.4 is a flowchart illustrating a method of generating content including dynamic effects based on metadata included in an image file, according to an example.
도 5는 일 예에 따른, 이미지 파일에 포함된 메타데이터에 기반하여 콘텐츠를 생성함에 있어서, 콘텐츠에 포함되는 가상의 공간을 구축하는 방법을 나타내는 흐름도이다.5 is a flowchart illustrating a method of building a virtual space included in content in generating content based on metadata included in an image file according to an example.
도 6은 일 예에 따른, 이미지 파일에 포함된 메타데이터에 기반한 데이터 베이스를 구축하는 방법을 나타내는 흐름도이다.6 is a flowchart illustrating a method of building a database based on metadata included in an image file, according to an example.
도 7는 일 예에 따른, 동적 효과를 갖는 콘텐츠를 생성하는 방법을 나타낸다. 7 illustrates a method of generating content having a dynamic effect, according to an example.
도 8은 일 예에 따른, 이미지 파일에 포함된 메타데이터에 기반한 데이터 베이스를 구축하고, 구축된 데이터베이스에 기반하여 동적 효과를 갖는 콘텐츠를 생성하는 방법을 나타낸다.8 illustrates a method of constructing a database based on metadata included in an image file and generating content having a dynamic effect based on the constructed database.
이하, 본 발명의 실시예를 첨부된 도면을 참조하여 상세하게 설명한다.Hereinafter, exemplary embodiments of the present invention will be described in detail with reference to the accompanying drawings.
도 1은 일 실시예에 따른, 센서 데이터를 메타데이터로서 포함하는 이미지 파일을 생성하고, 동적 효과를 포함하는 콘텐츠를 생성하는 방법을 나타낸다.1 illustrates a method of generating an image file including sensor data as metadata and generating content including dynamic effects, according to an embodiment.
도 1은 사용자 단말(100)의 카메라(110)를 통해 오브젝트(130)를 촬영함에 따라, 이미지 파일을 생성하는 방법을 설명한다.1 illustrates a method of generating an image file as the object 130 is photographed through the camera 110 of the user terminal 100.
사용자 단말(100)은 카메라(110) 및 적어도 하나의 센서를 포함하는 센서부(120)를 포함하는 전자 장치일 수 있고, 예컨대, 도시된 것처럼 스마트폰일 수 있다. The user terminal 100 may be an electronic device including a sensor unit 120 including a camera 110 and at least one sensor. For example, the user terminal 100 may be a smartphone.
오브젝트(130) 촬영에 의해 생성되는 이미지 내에 표시되는 객체로서, 촬영의 대상이 되는 피사체(134) 및 피사체(134)의 주위의 배경(132) 중 적어도 하나를 나타낼 수 있다. 피사체(134)는 적어도 하나의 사물을 포함할 수 있다. 배경(132)은 촬영에 의해 생성되는 오브젝트(130)의 이미지 내에서 피사체(134)를 제외한 영역을 의미할 수 있다. 배경(132) 또한 적어도 하나의 사물을 포함할 수 있다.The object 130 is an object displayed in an image generated by photographing, and may represent at least one of a subject 134 to be photographed and a background 132 around the subject 134. The subject 134 may include at least one object. The background 132 may mean an area excluding the subject 134 in the image of the object 130 generated by photographing. Background 132 may also include at least one object.
사용자 단말(100)의 사용자의 촬영 명령에 응답하여, 센서부(120)는 적어도 하나의 센서를 사용하여 오브젝트(130)와 관련된 센서 데이터를 획득할 수 있다. 센서 데이터는 피사체(134) 및 배경(132) 중 적어도 하나와 관련된 동적 효과를 생성하기 위해 요구되는 정보를 포함할 수 있다. 예컨대, 센서 데이터는 이미지(화상) 또는 동영상의 콘텐츠에 대해 가상 현실(Virtual Reality; VR) 효과 또는 증강 현실(Augmented Reality; AR) 효과, 3차원 효과 또는 모션 효과와 같은 동적 효과를 생성하기 위해 사용되는 정보를 포함할 수 있다. In response to a user's photographing command of the user terminal 100, the sensor unit 120 may acquire sensor data related to the object 130 using at least one sensor. The sensor data may include information required for generating a dynamic effect associated with at least one of the subject 134 and the background 132. For example, sensor data can be used to generate dynamic effects such as Virtual Reality (VR) effects or Augmented Reality (AR) effects, three-dimensional effects, or motion effects on the content of an image (image) or video. Information may be included.
사용자 단말(100)은 상기 촬영 명령에 응답하여 카메라(110)에 의해 오브젝트(130)를 촬영함으로써 이미지 파일을 생성할 수 있고, 센서부(120)에 의해 획득된 센서 데이터를 메타데이터로서 상기 이미지 파일에 부가함으로써 소기의 이미지 파일을 생성할 수 있다.The user terminal 100 may generate an image file by capturing the object 130 by the camera 110 in response to the photographing command, and the sensor data obtained by the sensor unit 120 as the metadata as the image. By adding to a file, a desired image file can be generated.
즉, 사용자 단말(100)을 통해 오브젝트(130)를 촬영할 경우, 센서 데이터를 획득하기 위한 별도의 조작이나 설정 없이도, 촬영에 의해 생성된 이미지 파일 내에 센서 데이터가 메타데이터로서 포함될 수 있다. That is, when photographing the object 130 through the user terminal 100, the sensor data may be included as metadata in the image file generated by the photographing without any additional manipulation or setting for acquiring the sensor data.
사용자 단말(100)은 생성된 이미지 파일 또는 이미지 파일에 포함된 메타데이터를 콘텐츠 생성 장치(140)에 전송할 수 있다. 콘텐츠 생성 장치(140)는 사용자 단말(100)로부터의 이미지 파일로부터 메타데이터를 추출할 수 있고, 메타데이터를 사용하여 동적 효과를 포함하는 콘텐츠를 생성할 수 있다. 생성된 콘텐츠는 상기 이미지 파일에 포함된 메타데이터(센서 데이터)를 사용하여 생성된 동적 효과를 포함하므로, 상기 이미지 파일과 시각적인 공통점을 가질 수 있다. 예를 들면, 생성된 콘텐츠는 이미지 파일이 나타내는 배경(132)과 유사한 환경(또는 가상의 공간)을 나타내는 VR 효과가 포함된 콘텐츠일 수 있다. 또는, 생성된 콘텐츠는 이미지 파일이 나타내는 배경(132)과 연관된 환경 요소들이 합성된 AR 효과가 포함된 콘텐츠일 수 있다. The user terminal 100 may transmit the generated image file or metadata included in the image file to the content generation device 140. The content generation device 140 may extract metadata from an image file from the user terminal 100, and generate content including dynamic effects using the metadata. Since the generated content includes dynamic effects generated using metadata (sensor data) included in the image file, the generated content may have a visual commonality with the image file. For example, the generated content may be content including a VR effect representing an environment (or virtual space) similar to the background 132 represented by the image file. Alternatively, the generated content may be content including AR effects in which environmental elements associated with the background 132 represented by the image file are synthesized.
즉, 단일한 이미지 파일을 사용하여, 해당 이미지 파일이 촬영된 분위기와 유사한 분위기를 갖는 콘텐츠가 생성될 수 있으며, 해당 이미지 파일이 촬영된 분위기와 유사한 분위기의 VR 환경 또는 AR 환경을 구축할 수 있다.That is, by using a single image file, content having an atmosphere similar to the atmosphere in which the image file is photographed may be generated, and a VR environment or AR environment having an atmosphere similar to the atmosphere in which the image file is photographed may be constructed. .
도 1에서는 콘텐츠 생성 장치(140)가 사용자 단말(100)의 외부에 별개의 장치로서 존재하는 예시를 도시하였으나, 도시된 것과는 달리, 콘텐츠 생성 장치(140)는 사용자 단말(100)의 내부의 구성일 수도 있다. 즉, 사용자 단말(100)은 촬영에 의해 생성된 이미지 파일을 사용하여, 해당 이미지 파일에 포함된 메타데이터를 사용하여 동적 효과가 부가된 콘텐츠를 생성할 수도 있다.In FIG. 1, an example in which the content generating device 140 exists as a separate device outside the user terminal 100 is illustrated. However, unlike the illustrated example, the content generating device 140 is configured inside the user terminal 100. It may be. That is, the user terminal 100 may generate the content to which the dynamic effect is added by using the metadata included in the image file by using the image file generated by photographing.
사용자 단말(100)에 대응하는 전자 장치와 콘텐츠 생성 장치(140)의 세부적인 구성과 그 동직에 대해서는 후술될 도 2 내지 도 8을 참조하여 더 자세하게 설명된다. Detailed configurations of the electronic device and the content generation device 140 corresponding to the user terminal 100 and their roles will be described in more detail with reference to FIGS. 2 to 8 to be described later.
도 2는 일 실시예에 따른, 센서 데이터를 메타데이터로서 포함하는 이미지 파일을 생성하고, 동적 효과를 포함하는 콘텐츠를 생성하는 장치를 나타낸다.2 illustrates an apparatus for generating an image file including sensor data as metadata and generating content including dynamic effects, according to an embodiment.
도 2를 참조하여, 센서 데이터를 메타데이터로서 포함하는 이미지 파일을 생성하는 전자 장치(200)와 생성된 이미지 파일의 메타데이터를 사용하여 동적 효과가 포함된 콘텐츠를 생성하는 콘텐츠 생성 장치(140)에 대해 설명한다. 전자 장치(200)는 도 1을 참조하여 전술된 사용자 단말(100)에 대응될 수 있다.Referring to FIG. 2, the electronic device 200 generating an image file including the sensor data as metadata, and the content generating device 140 generating content including dynamic effects using the metadata of the generated image file. Explain about. The electronic device 200 may correspond to the user terminal 100 described above with reference to FIG. 1.
전자 장치(200)는, 촬영 명령에 따라, 오브젝트(130)를 촬영하고 오브젝트(130)와 관련된 센서 데이터를 획득하기 위한 장치로서, PC(personal computer), 노트북 컴퓨터(laptop computer), 랩탑 컴퓨터(laptop computer), 태블릿(tablet), 사물 인터넷(Internet Of Things) 기기, 또는 웨어러블 컴퓨터(wearable computer) 등의 사용자가 사용하는 단말일 수 있다.The electronic device 200 is a device for photographing the object 130 and acquiring sensor data related to the object 130 according to a photographing command. The electronic device 200 may be a personal computer, a laptop computer, or a laptop computer. It may be a terminal used by a user such as a laptop computer, a tablet, an Internet Of Things device, or a wearable computer.
전자 장치(200)는 통신부(210), 제어부(220), 카메라(230) 및 센서부(240)를 포함할 수 있다. 카메라(230) 및 센서부(240)는 도 1을 참조하여 전술된 카메라(110) 및 센서부(120)에 대응할 수 있다. The electronic device 200 may include a communication unit 210, a controller 220, a camera 230, and a sensor unit 240. The camera 230 and the sensor unit 240 may correspond to the camera 110 and the sensor unit 120 described above with reference to FIG. 1.
통신부(210)는 전자 장치(200)가 다른 서버나 사용자 단말과 통신하기 위한 장치일 수 있다. 말하자면, 통신부(210)는 다른 서버나 사용자 단말에 대해 데이터 및/또는 정보를 전송/수신하는, 전자 장치(200)의 네트워크 인터페이스 카드, 네트워크 인터페이스 칩 및 네트워킹 인터페이스 포트 등과 같은 하드웨어 모듈 또는 네트워크 디바이스 드라이버(driver) 또는 네트워킹 프로그램과 같은 소프트웨어 모듈일 수 있다. The communication unit 210 may be a device for the electronic device 200 to communicate with another server or a user terminal. In other words, the communication unit 210 may be a hardware module or network device driver such as a network interface card, a network interface chip and a networking interface port of the electronic device 200 that transmits / receives data and / or information to another server or user terminal. It may be a software module such as a driver or a networking program.
제어부(220)는 전자 장치(200)의 구성 요소들을 관리할 수 있고, 전자 장치(200)가 사용하는 프로그램 또는 어플리케이션을 실행할 수 있다. 예컨대, 제어부(220)는, 수신된 촬영 명령에 따라, 센서부(240)를 제어하여 센서 데이터를 획득하고, 카메라(230)를 제어하여 오브젝트(130)를 촬영하도록 할 수 있으며, 이미지 파일을 생성할 수 있다. 제어부(220)는 이미지 파일 생성을 위해 요구되는 프로그램 또는 어플리케이션을 실행할 수 있고, 상기 프로그램 또는 어플리케이션의 실행 및 데이터의 처리 등에 필요한 연산을 처리할 수 있다. 또한, 제어부(220)는 다른 서버 및 사용자 단말로부터 수신된 데이터를 처리하도록 구성될 수 있다. 또한, 제어부(220)는 전자 장치(200)의 적어도 하나의 프로세서 또는 프로세서 내의 적어도 하나의 코어(core)일 수 있다. The controller 220 may manage components of the electronic device 200 and may execute a program or application used by the electronic device 200. For example, the controller 220 may control the sensor unit 240 to obtain sensor data according to the received photographing command, and control the camera 230 to photograph the object 130, and to capture an image file. Can be generated. The controller 220 may execute a program or an application required for generating an image file, and may process operations required for executing the program or the application and processing data. In addition, the controller 220 may be configured to process data received from other servers and user terminals. In addition, the controller 220 may be at least one processor of the electronic device 200 or at least one core in the processor.
제어부(220)는 센서부(240)를 제어하여 센서 데이터를 획득하도록 하는 센서 데이터 획득부(222) 및 카메라(230)에 의한 촬영에 따라 이미지 파일을 생성하는 이미지 파일 생성부(224)를 포함할 수 있다. The controller 220 includes a sensor data acquisition unit 222 for controlling the sensor unit 240 to acquire sensor data, and an image file generation unit 224 for generating an image file according to the photographing by the camera 230. can do.
센서 데이터 획득부(222)는, 오브젝트(130)에 대한 촬영 명령에 응답하여, 적어도 하나의 센서를 포함하는 센서부(240)로부터의 오브젝트(130)와 관련된 센서 데이터를 획득할 수 있다.The sensor data acquisition unit 222 may acquire sensor data related to the object 130 from the sensor unit 240 including at least one sensor in response to a photographing command for the object 130.
이미지 파일 생성부(224)는, 오브젝트(130)에 대한 촬영 명령에 응답하여 카메라(230)에 의해 오브젝트(130)를 촬영함으로써 생성되는 이미지 파일에 상기 센서 데이터를 메타데이터로서 부가함으로써 소기의 이미지 파일을 생성할 수 있다.The image file generation unit 224 adds the sensor data as metadata to an image file generated by photographing the object 130 by the camera 230 in response to a photographing command for the object 130. You can create a file.
또한, 제어부(220)는 이미지 파일 생성부(224)에 의해 생성된 이미지 파일에 포함된 메타데이터에 기반하여, 동적 효과를 포함하는 소기의 콘텐츠를 생성하는 콘텐츠 생성부(226)를 더 포함할 수 있다. 콘텐츠 생성부(226)는 센서부(240)를 통해 획득된 오브젝트(130)와 관련된 센서 데이터를 메타데이터로서 포함하는 상기 이미지 파일 생성부(224)에 의해 생성된 이미지 파일로부터 상기 메타데이터를 추출할 수 있고, 추출된 메타데이터에 기반하여, 동적 효과를 포함하는 콘텐츠를 생성할 수 있다. In addition, the controller 220 may further include a content generator 226 that generates desired content including dynamic effects based on metadata included in the image file generated by the image file generator 224. Can be. The content generator 226 extracts the metadata from the image file generated by the image file generator 224, which includes sensor data related to the object 130 obtained through the sensor unit 240 as metadata. And based on the extracted metadata, it is possible to generate content including dynamic effects.
제어부(220)의 구성들(222 내지 226)의 더 구체적인 기능 및 동작에 대해서는, 후술될 도 3 내지 도 8을 참조하여 더 자세하게 설명한다. 전술된 제어부(220)의 구성들(222 내지 226)은 적어도 하나의 프로세서 내에서 구현될 수 있는 바, 구성들(222 내지 226)의 기능 및 동작은 적어도 하나의 프로세서에 의해 실행될 수 있다. More specific functions and operations of the components 222 to 226 of the controller 220 will be described in more detail with reference to FIGS. 3 to 8 to be described later. The above-described configurations 222 through 226 of the controller 220 may be implemented in at least one processor, and the functions and operations of the configurations 222 through 226 may be executed by at least one processor.
카메라(230)는 오브젝트(130)를 촬영하기 위한 장치일 수 있다. 카메라(230)는 오브젝트(130)를 촬영하여 이미지(영상 또는 화상)을 생성하기 위한 이미지 센서를 포함할 수 있다.The camera 230 may be a device for photographing the object 130. The camera 230 may include an image sensor for photographing the object 130 to generate an image (image or image).
센서부(240)는 오브젝트(130)와 관련된 데이터를 측정/획득하기 위한 적어도 하나의 센서를 포함할 수 있다. 예컨대, 센서부(240)는 위치 센서, 자이로 센서, 거리 센서, 조도 센서, 깊이 센서, 모션 추적 센서 및 형상 식별부 중 적어도 하나를 포함할 수 있다. 센서부(240)는 이외에도 오브젝트(130)의 형상 및 위치, 전자 장치(200)(예컨대, 사용자 단말(100))과 오브젝트(130)의 위치 관계, 오브젝트(130)의 색상 정보를 파악하기 위한 여하한 센서를 포함할 수 있다.The sensor unit 240 may include at least one sensor for measuring / acquiring data related to the object 130. For example, the sensor unit 240 may include at least one of a position sensor, a gyro sensor, a distance sensor, an illuminance sensor, a depth sensor, a motion tracking sensor, and a shape identification unit. In addition to the shape and location of the object 130, the electronic device 200 (eg, the user terminal 100) and the positional relationship between the object 130 and the color information of the object 130 may be determined. It may include any sensor.
또한, 센서 데이터는, 카메라(230)의 시점에 관한 정보, 위치 센서로부터 획득된 전자 장치(200)와 지면 간의 거리에 관한 정보, 자이로 센서에 의해 측정된 소기의 이미지 파일의 생성 시의 전자 장치(200)의 기울기, 거리 센서에 의해 측정된 전자 장치(200)로부터 오브젝트(130)의 적어도 하나의 측정 포인트까지의 거리, 조도 센서에 의해 측정된 이미지 파일의 생성 시(즉, 촬영 시의)의 조도 값, 깊이 센서에 의해 측정된 상기 측정 포인트의 깊이 값, 모션 추적 센서에 의해 획득된 오브젝트(130)의 모션 추적 관련 데이터 및 형상 식별부에 의해 파악된 오브젝트(130)의 형상에 관한 정보 중 적어도 하나를 포함할 수 있다. 이미지 파일 생성부(224)는 획득된 센서 데이터를 파라미터화할 수 있고, 파라미터화된 센서 데이터를 생성될 이미지 파일의 메타데이터로서 부가함으로써 이미지 파일을 생성할 수 있다. 측정 포인트는 오브젝트(130)의 임의의 포인트을 나타내거나, 오브젝트(130)에 포함된 사물의 임의의 포인트를 나타낼 수 있다. 모션 추적 관련 데이터 및/또는 형상에 관한 정보는 오브젝트(130)(또는 오브젝트(130)에 포함된 사물)이 무엇인지를 식별하기 위해 사용될 수 있다.The sensor data may include information about a viewpoint of the camera 230, information about a distance between the electronic device 200 and the ground obtained from the position sensor, and an electronic device at the time of generating a desired image file measured by the gyro sensor. Tilt of 200, distance from the electronic device 200 measured by the distance sensor to at least one measurement point of the object 130, at the time of generation of the image file measured by the illuminance sensor (ie, at the time of shooting) Information on the shape of the object 130 identified by the illuminance value of the measurement point, the depth value of the measurement point measured by the depth sensor, motion tracking related data of the object 130 obtained by the motion tracking sensor, and the shape identification unit. It may include at least one of. The image file generator 224 may parameterize the acquired sensor data, and generate the image file by adding the parameterized sensor data as metadata of the image file to be generated. The measurement point may represent any point of the object 130 or may represent any point of the object included in the object 130. The motion tracking related data and / or information about the shape may be used to identify what the object 130 (or the objects included in the object 130) is.
도시되지는 않았으나, 전자 장치(200)는 사용자가 입력한 데이터를 출력하거나, 이미지 파일 및/또는 동적 효과가 포함된 콘텐츠를 표시하기 위한 표시부를 더 포함할 수도 있다. 예컨대, 표시부는 터치 스크린을 포함할 수 있으며, 이 경우, 표시부는 사용자로부터의 설정 및 요청을 입력받기 위한 입력부의 기능을 포함하도록 구성될 수 있다.Although not shown, the electronic device 200 may further include a display unit for outputting data input by a user or displaying content including image files and / or dynamic effects. For example, the display unit may include a touch screen, and in this case, the display unit may be configured to include a function of an input unit for receiving a setting and a request from a user.
또한, 도시되지는 않았으나, 전자 장치(200)는 데이터 또는 정보를 저장하기 위한 장치로서 저장부를 포함할 수 있다. 저장부는 여하한 메모리 또는 스토리지 장치를 포함할 수 있다. 저장부에는 제어부(220)가 실행하는 프로그램 또는 어플리케이션 및 이와 관련된 정보가 저장될 수 있다. 예컨대, 저장부는 생성된 이미지 파일 및/또는 생성된 동적 효과를 포함하는 콘텐츠를 저장할 수 있다.Although not shown, the electronic device 200 may include a storage unit as a device for storing data or information. The storage may include any memory or storage device. The storage unit may store a program or an application executed by the controller 220 and information related thereto. For example, the storage unit may store content including the generated image file and / or the generated dynamic effect.
콘텐츠 생성 장치(140)는 이미지 파일 생성부(224)에 의해 생성된 이미지 파일에 포함된 메타데이터에 기반하여, 동적 효과를 포함하는 콘텐츠를 생성하기 위한 장치일 수 있다. 콘텐츠 생성 장치(140)는 통신부(250) 및 제어부(260)를 포함할 수 있다. 콘텐츠 생성 장치(140)는 동적 효과를 포함하는 콘텐츠를 생성하는 서버 또는 기타 컴퓨팅 장치일 수 있다. The content generation device 140 may be a device for generating content including dynamic effects, based on metadata included in the image file generated by the image file generation unit 224. The content generation device 140 may include a communication unit 250 and a control unit 260. The content generation device 140 may be a server or other computing device that generates content that includes dynamic effects.
통신부(250)는 전자 장치(200)을 비롯한 다른 장치와 통신하기 위한 구성일 수 있다. 통신부(250)는 전자 장치(200)을 비롯한 다른 장치(데이터베이스 또는 다른 서버)에 대해 데이터 및/또는 정보를 전송/수신하는 서버(110)의 네트워크 인터페이스 카드, 네트워크 인터페이스 칩 및 네트워킹 인터페이스 포트 등과 같은 하드웨어 모듈일 수 있다. 통신부(250)는 또는 네트워크 디바이스 드라이버(driver) 또는 네트워킹 프로그램과 같은 소프트웨어 모듈일 수 있다.The communication unit 250 may be a component for communicating with other devices, including the electronic device 200. The communication unit 250 may be a network interface card, a network interface chip and a networking interface port of the server 110 that transmits / receives data and / or information to another device (database or other server) including the electronic device 200. It may be a hardware module. The communication unit 250 may be or a software module such as a network device driver or a networking program.
제어부(260)는 콘텐츠 생성 장치(140)의 구성 요소들을 관리할 수 있고, 콘텐츠 생성 장치(140)가 콘텐츠의 생성 및 제공을 위해 사용하는 프로그램 또는 어플리케이션을 실행하고, 관련된 데이터 및 연산을 처리할 수 있다. 제어부(260)는 콘텐츠 생성 장치(140)의 적어도 하나의 프로세서 또는 프로세서 내의 적어도 하나의 코어(core)일 수 있다. 제어부(260)는 콘텐츠 생성부(266)를 포함할 수 있다. The controller 260 may manage the components of the content generation device 140, execute a program or an application used by the content generation device 140 to generate and provide content, and process related data and operations. Can be. The controller 260 may be at least one processor of the content generating device 140 or at least one core in the processor. The controller 260 may include a content generator 266.
콘텐츠 생성부(266)의 동작 및 기능은 전술된 콘텐츠 생성부(226)의 그것과 동일할 수 있으므로, 자세한 설명은 생략한다. 말하자면, 동적 효과를 포함하는 콘텐츠는 전자 장치(200)에 의해 생성될 수도 있고, 전자 장치(200) 외부의 콘텐츠 생성 장치(140)에 의해 생성될 수도 있다. 또는, 콘텐츠의 생성을 위한 일부의 작업(예컨대, 가상의 공간 생성)은 외부의 콘텐츠 생성 장치(140)에 의해 수행되고, 나머지 작업(타겟 오브젝트와 가상의 공간의 합성)은 전자 장치(200)에 의해 수행될 수도 있다. Operations and functions of the content generator 266 may be the same as those of the content generator 226 described above, and thus a detailed description thereof will be omitted. In other words, the content including the dynamic effect may be generated by the electronic device 200 or may be generated by the content generating device 140 external to the electronic device 200. Alternatively, some operations (eg, virtual space creation) for generating content are performed by the external content generation device 140, and the remaining operations (combination of the target object and the virtual space) are performed by the electronic device 200. It may also be performed by.
센서 데이터를 메타데이터로서 포함하는 이미지 파일을 생성하는 구체적인 방법과 메타데이터를 사용하여 동적 효과를 포함하는 콘텐츠를 생성하는 상세한 방법에 대해서는 후술될 도 3 내지 8을 참조하여 더 자세하게 설명된다.A detailed method of generating an image file including sensor data as metadata and a detailed method of generating content including dynamic effects using the metadata will be described in more detail with reference to FIGS. 3 to 8 to be described later.
이상, 도 1을 참조하여 전술된 기술적 특징에 대한 설명은, 도 2에 대해서도 그대로 적용될 수 있으므로 중복되는 설명은 생략한다.As described above, the description of the technical features described above with reference to FIG. 1 may be applied to FIG. 2 as it is, and thus redundant descriptions thereof will be omitted.
도 3은 일 실시예에 따른, 센서 데이터를 메타데이터로서 포함하는 이미지 파일을 생성하고, 동적 효과를 포함하는 콘텐츠를 생성하는 방법을 나타내는 흐름도이다. 3 is a flowchart illustrating a method of generating an image file including sensor data as metadata and generating content including dynamic effects, according to an exemplary embodiment.
후술될 단계들(310 내지 330)은 전자 장치(200)에 의해 센서 데이터를 메타데이터로서 포함하는 이미지 파일을 생성하는 방법을 나타낸다(I). Steps 310 to 330 to be described below illustrate a method of generating an image file including sensor data as metadata by the electronic device 200 (I).
한편, 후술될 단계들(340 및 350)은 전자 장치(200) 또는 콘텐츠 생성 장치(140)에 의해 동적 효과를 포함하는 콘텐츠를 생성하는 방법을 나타낸다(II). 중복된 설명을 피하기 위해, 단계들(340 및 350)은 콘텐츠 생성부(226)에 의해 수행되는 것으로 설명되지만, 단계들(340 및 350)은 콘텐츠 생성부(266)에 의해 수행될 수도 있다.Meanwhile, steps 340 and 350 to be described below illustrate a method for generating content including dynamic effects by the electronic device 200 or the content generating device 140 (II). In order to avoid duplicate description, steps 340 and 350 are described as being performed by the content generator 226, but steps 340 and 350 may be performed by the content generator 266.
단계(310)에서, 센서 데이터 획득부(222)는, 촬영 명령에 응답하여, 적어도 하나의 센서(즉, 센서부(240))로부터의 오브젝트(130)와 관련된 센서 데이터를 획득할 수 있다. 센서 데이터는 피사체(134) 및 배경(134) 중 적어도 하나와 관련된 동적 효과를 생성하기 위해 요구되는 정보를 포함할 수 있다. 예컨대, 센서 데이터 획득부(222)는, 전자 장치(200)의 사용자가 카메라(230)를 제어하기 위한 어플리케이션을 실행할 경우, 센서부(240)를 통해 오브젝트(130)의 촬영 환경에 대한 데이터를 측정할 수 있다. 그리고, 센서 데이터 획득부(222)는 사용자가 카메라(230)를 통한 오브젝트(130)의 촬영을 완료할 경우(예컨대, 촬영(셔터) 버튼을 누르는 경우), 측정된 센서 데이터를 획득할 수 있다.In operation 310, the sensor data acquisition unit 222 may acquire sensor data related to the object 130 from at least one sensor (that is, the sensor unit 240) in response to a photographing command. The sensor data may include information required for generating a dynamic effect associated with at least one of the subject 134 and the background 134. For example, when the user of the electronic device 200 executes an application for controlling the camera 230, the sensor data acquirer 222 may acquire data about the photographing environment of the object 130 through the sensor unit 240. It can be measured. In addition, when the user completes capturing the object 130 through the camera 230 (for example, when the user presses the shutter button), the sensor data acquirer 222 may acquire measured sensor data. .
센서부(240)를 통해, 센서 데이터 획득부(222)에 의해 획득되는 센서 데이터는 전자 장치(200)(예컨대, 사용자 단말(100))와 오브젝트(130) 간의 위치 관계에 관한 정보 및 오브젝트(130)의 색상에 관한 정보 중 적어도 하나를 포함할 수 있다. 촬영 시의 전자 장치(200)과 오브젝트(130) 간의 위치 관계에 관한 정보는 오브젝트(130)에 포함된 적어도 하나의 사물 또는 사물의 적어도 일부에 대한 전자 장치(200)의 거리, 전자 장치(200)와의 높이 차이 및 관련된 각도들을 포함할 수 있다.Through the sensor unit 240, the sensor data acquired by the sensor data acquisition unit 222 may include information about the positional relationship between the electronic device 200 (eg, the user terminal 100) and the object 130. 130 may include at least one of the information about the color. Information regarding the positional relationship between the electronic device 200 and the object 130 at the time of photographing may include at least one object included in the object 130 or the distance of the electronic device 200 with respect to at least a part of the object, the electronic device 200. Height difference) and associated angles.
센서 데이터는, 카메라(230)의 시점에 관한 정보, 위치 센서로부터 획득된 전자 장치(200)와 지면 간의 거리에 관한 정보, 자이로 센서에 의해 측정된 소기의 이미지 파일의 생성 시의 전자 장치(200)의 기울기, 거리 센서에 의해 측정된 전자 장치(200)로부터 오브젝트(130)의 적어도 하나의 측정 포인트까지의 거리, 조도 센서에 의해 측정된 이미지 파일의 생성 시(즉, 촬영 시의)의 조도 값, 깊이 센서에 의해 측정된 상기 측정 포인트의 깊이 값, 모션 추적 센서에 의해 획득된 오브젝트(130)의 모션 추적 관련 데이터 및 형상 식별부에 의해 파악된 오브젝트(130)의 형상에 관한 정보 중 적어도 하나를 포함할 수 있다.The sensor data may include information about a viewpoint of the camera 230, information about a distance between the electronic device 200 obtained from a position sensor and the ground, and an electronic device 200 when generating a desired image file measured by a gyro sensor. ), The distance from the electronic device 200 measured by the distance sensor to the at least one measurement point of the object 130, the illuminance at the time of generation of the image file measured by the illuminance sensor A value, a depth value of the measurement point measured by the depth sensor, motion tracking related data of the object 130 obtained by the motion tracking sensor, and information about the shape of the object 130 identified by the shape identification unit. It may include one.
단계(320)에서, 이미지 파일 생성부(224)는 센서 데이터 획득부(222)에 의해 획득된 센서 데이터를 파라미터화할 수 있다.In operation 320, the image file generator 224 may parameterize the sensor data acquired by the sensor data acquirer 222.
예컨대, 카메라(230)의 시점에 관한 정보는 viewType으로서, 예컨대, 카메라의 유형(휴대폰 카메라, 광각 카메라, 파노라마 카메라 등)과, 줌 여부, 아웃포커싱 여부 등이 파라미터화될 수 있다. 전자 장치(200)와 지면 간의 거리에 관한 정보는 height로서 전자 장치(200)와 지면 간의 거리가 수치화하여 파라미터화될 수 있다. 전자 장치(200)의 기울기는 angle로서 전자 장치(200)(즉, 카메라(230))의 지면에 대한 각도가 수치화하여 파라미터화될 수 있다. For example, the information about the viewpoint of the camera 230 is a viewType. For example, the type of the camera (mobile phone camera, wide angle camera, panoramic camera, etc.), whether zooming or not, focusing may be parameterized. The information about the distance between the electronic device 200 and the ground may be parameterized by digitizing the distance between the electronic device 200 and the ground. The inclination of the electronic device 200 is an angle, and an angle with respect to the ground of the electronic device 200 (that is, the camera 230) may be numerically parameterized.
또한, 오브젝트(130)에 포함된 각각의 사물(즉, 피사체(132) 또는 배경(134)에 포함된 사물)은 objectId로서 각각의 ID(예컨대, 정수 값)를 가질 수 있다. 또한, 형상 식별부에 의해 각 사물의 형상이 파악됨에 따라, 각 사물의 유형이 objectType 로서 파라미터화될 수 있다. 사물의 유형은 예컨대, 벽, 하늘, 바닥, 천장, 광원, 길, 강, 바다, 동물, 사람, 문, 의자, 책상 등과 같은 구체적인 물건(또는 생물)을 나타낼 수 있다. 오브젝트(130)(또는 각각의 사물)의 형상은 shape로서, 예컨대, 사물의 대략적인 모양, 원형(circle), 구형(ball), 상자형(box) 등이 파라미터화될 수 있다. In addition, each object included in the object 130 (that is, the object 132 or the object included in the background 134) may have an ID (eg, an integer value) as the objectId. In addition, as the shape of each object is identified by the shape identification unit, the type of each object may be parameterized as an objectType. The type of object may represent a specific object (or creature) such as, for example, a wall, sky, floor, ceiling, light source, road, river, sea, animal, person, door, chair, desk, or the like. The shape of the object 130 (or each object) is a shape, for example, an approximate shape of the object, a circle, a ball, a box, or the like may be parameterized.
또한, 오브젝트(130)(또는 각각의 사물)의 촬영 환경 내에서의 2차원의 위치는 map으로서, 예컨대, x 좌표, y 좌표가 파라미터화될 수 있다. 오브젝트(130)(또는 각각의 사물)의 촬영 환경 내에서의 3차원의 위치는 location으로서, 예컨대, x 좌표, y 좌표 및 z 좌표가 파라미터화될 수 있다. 오브젝트(130)(또는 각각의 사물)의 크기는 size로서, 예컨대, 너비(width), 길이(height) 및 깊이(depth)가 파라미터화될 수 있다.In addition, the two-dimensional position in the photographing environment of the object 130 (or each object) is a map, for example, the x coordinate and the y coordinate may be parameterized. The three-dimensional position in the photographing environment of the object 130 (or each object) is a location, for example, the x coordinate, the y coordinate and the z coordinate may be parameterized. The size of the object 130 (or each thing) is size, for example, the width, the length and the depth may be parameterized.
또한, 오브젝트(130)(또는 각각의 사물)의 색상은 color로서, 예컨대, 오브젝트(130) (또는 각각의 사물)의 평균 색의 HEX code가 파라미터화될 수 있다 In addition, the color of the object 130 (or each object) is color, for example, the HEX code of the average color of the object 130 (or each object) may be parameterized.
그 밖에, 오브젝트(130)(또는 각각의 사물)의 모션 추적 데이터, 촬영 환경의 조도 등 여하한 센서 데이터는 extension 으로서 수치화/코드화되어 파라미터화될 수 있다. In addition, any sensor data such as motion tracking data of the object 130 (or each object), illuminance of the shooting environment, and the like may be digitized / coded as an extension and parameterized.
단계(330)에서, 이미지 파일 생성부(224)는, 촬영 명령에 응답하여, 카메라(230)에 의해 오브젝트(130)를 촬영함으로써 생성되는 이미지 파일에 (파라미터화 된) 센서 데이터를 메타데이터로서 부가함으로써 소기의 이미지 파일을 생성할 수 있다. 센서 데이터는 생성된 이미지 파일 내에 메타데이터는 교환 이미지 파일 형식(EXchangable Image File format; Exif)으로 저장될 수 있다(예컨대, Exif의 extentsion으로 저장될 수 있음). 따라서, 즉, 전자 장치(200)를 통한 오브젝트(130)에 대한 촬영 명령 만으로, 센서 데이터를 메타데이터로서 포함하는 이미지 파일이 생성될 수 있다. In step 330, in response to the photographing command, the image file generating unit 224 uses sensor data (parameterized) as metadata in the image file generated by photographing the object 130 by the camera 230. By adding, the desired image file can be generated. The sensor data may be stored in the generated image file and the metadata may be stored in an Exchangable Image File format (Exif) (eg, may be stored in an extention of Exif). Accordingly, the image file including the sensor data as metadata may be generated only by the photographing command for the object 130 through the electronic device 200.
단계(340)에서, 콘텐츠 생성부(226)는 단계(330)에서 생성된 이미지 파일에 포함된 메타데이터를 추출할 수 있다. 콘텐츠 생성부(226)는 메타데이터에 포함된 정보 중 피사체(134) 및 배경(132) 중 적어도 하나와 관련된 동적 효과를 생성하기 위해 필요한 센서 데이터에 해당하는 정보를 추출할 수 있다.In operation 340, the content generator 226 may extract metadata included in the image file generated in operation 330. The content generator 226 may extract information corresponding to sensor data necessary for generating a dynamic effect related to at least one of the subject 134 and the background 132 among the information included in the metadata.
단계(350)에서, 콘텐츠 생성부(226)는 추출된 메타데이터에 기반하여, 동적 효과를 포함하는 소기의 콘텐츠를 생성할 수 있다. 콘텐츠에 동적 효과는 오브젝트(130)와 연관된 가상 현실(Virtual Reality; VR) 효과 또는 증강 현실(Augmented Reality; AR) 효과, 3차원 효과 또는 모션 효과일 수 있다. 예컨대, 단계(350)에서, 생성된 콘텐츠는 단계(330)에서 생성된 이미지 파일과 시각적인 공통점을 가질 수 있다. 예를 들면, 생성된 콘텐츠는 이미지 파일이 나타내는 배경(132)과 유사한 환경(또는 가상의 공간)을 나타내는 VR 효과가 포함된 콘텐츠일 수 있다. 또는, 생성된 콘텐츠는 이미지 파일이 나타내는 배경(132)과 연관된 환경 요소들이 합성된 AR 효과가 포함된 콘텐츠일 수 있다. 모션 효과는 생성된 콘텐츠의 적어도 일부에 흔들림 효과, 회전 효과, 또는 기울임 효과가 발생되도록 하는 것일 수 있다.In operation 350, the content generator 226 may generate desired content including dynamic effects based on the extracted metadata. The dynamic effect on the content may be a Virtual Reality (VR) effect or an Augmented Reality (AR) effect, a three-dimensional effect, or a motion effect associated with the object 130. For example, in step 350, the generated content may have a visual commonality with the image file generated in step 330. For example, the generated content may be content including a VR effect representing an environment (or virtual space) similar to the background 132 represented by the image file. Alternatively, the generated content may be content including AR effects in which environmental elements associated with the background 132 represented by the image file are synthesized. The motion effect may be to cause a shake effect, a rotation effect, or a tilt effect to occur in at least a portion of the generated content.
생성된 이미지 파일에 포함된 메타데이터를 사용하여 동적 효과를 포함하는 콘텐츠를 생성하는 더 구체적인 방법에 대해서는 후술될 도 4 내지 8을 참조하여 더 자세하게 설명된다.More specific methods for generating content including dynamic effects using metadata included in the generated image file will be described in more detail with reference to FIGS. 4 to 8 to be described later.
이상, 도 1 및 도 2를 참조하여 전술된 기술적 특징에 대한 설명은, 도 3에 대해서도 그대로 적용될 수 있으므로 중복되는 설명은 생략한다.As described above, the description of the technical features described above with reference to FIGS. 1 and 2 may be applied to FIG. 3 as it is, and thus redundant descriptions thereof will be omitted.
도 4는 일 예에 따른, 이미지 파일에 포함된 메타데이터에 기반하여 동적 효과를 포함하는 콘텐츠를 생성하는 방법을 나타내는 흐름도이다.4 is a flowchart illustrating a method of generating content including dynamic effects based on metadata included in an image file, according to an example.
도 4를 참조하여, 이미지 파일에 포함된 메타데이터에 기반하여 동적 효과를 포함하는 콘텐츠를 생성하는 방법을 더 상세하게 설명한다. 후술될 단계들(410 및 420)은 도 3을 참조하여 전술된 단계(350)에 포함될 수 있다.Referring to FIG. 4, a method of generating content including dynamic effects based on metadata included in an image file will be described in more detail. Steps 410 and 420 to be described below may be included in step 350 described above with reference to FIG. 3.
단계(410)에서, 콘텐츠 생성부(226)(또는, 콘텐츠 생성부(266))는 이미지 파일에 포함된 메타데이터에 기반하여 가상의 공간을 구축할 수 있다. 가상의 공간은 생성되는 콘텐츠의 VR 효과 또는 AR 효과가 나타나는 공간일 수 있다. 또는, 가상의 공간은 생성되는 콘텐츠에서 동적 효과가 적용되는 부분일 수 있다. 콘텐츠 생성부(226)는 메타데이터에 포함된 피사체(134) 및 배경(132)과 관련된 센서 데이터에 기반하여 가상의 공간을 구축할 수 있다. In operation 410, the content generator 226 (or the content generator 266) may build a virtual space based on metadata included in the image file. The virtual space may be a space in which the VR effect or the AR effect of the generated content is displayed. Alternatively, the virtual space may be a portion to which the dynamic effect is applied in the generated content. The content generator 226 may build a virtual space based on sensor data related to the subject 134 and the background 132 included in the metadata.
단계(420)에서, 콘텐츠 생성부(226)는 생성된 가상의 공간과 사용자-촬영된 또는 사용자-선택된 타겟 오브젝트를 합성할 수 있다. 가상의 공간은 타겟 오브젝트 주위의 타겟 오브젝트 배경에 해당할 수 있다. 타겟 오브젝트는 예컨대, 사용자가 촬영한(또는 촬영하는) 다른 오브젝트(또는, 피사체)일 수 있다. 이 때, 이러한 다른 피사체가 촬영됨에 따라, 콘텐츠 생성부(226)는 촬영된 피사체와 생성된 가상의 공간(예컨대, AR 효과가 적용된 공간)을 합성함으로써 콘텐츠를 생성할 수 있다. 또는, 타겟 오브젝트는 VR 효과를 체험하는 주체(즉, 시점의 중심(예컨대, 360도 카메라의 시점의 중심에 대응 가능함)에 해당하는 오브젝트일 수 있다. 이 때, 콘텐츠 생성부(226)는 타겟 오브젝트와 생성된 가상의 공간을 합성함으로써 콘텐츠를 생성할 수 있고, 사용자는 VR 기기를 사용하여 콘텐츠를 시청함으로써 가상의 공간을 통한 VR 효과를 체험할 수 있다.In operation 420, the content generator 226 may synthesize the generated virtual space and the user-photographed or user-selected target object. The virtual space may correspond to a target object background around the target object. The target object may be, for example, another object (or subject) photographed by the user. In this case, as the other subject is photographed, the content generator 226 may generate content by synthesizing the photographed subject and the generated virtual space (eg, an AR effect applied space). Alternatively, the target object may be an object corresponding to a subject who experiences a VR effect (that is, an object corresponding to the center of the viewpoint (eg, corresponding to the center of the viewpoint of the 360 degree camera). In this case, the content generator 226 may be a target. Content may be generated by synthesizing the object and the generated virtual space, and the user may experience the VR effect through the virtual space by watching the content using the VR device.
가상의 공간에 대응하는 타겟 오브젝트 배경은 이미지 파일의 배경(132)에 대해 공간적 유사성을 가질 수 있다. 공간적 유사성은 가상의 공간과 배경(132) 간의 시각적인 공통점(유사성)을 나타낼 수 있다. 즉, 생성된 콘텐츠와 이미지 파일을 비교할 때, 사용자는 시각적인 유사성(공간적인 유사성)을 느낄 수 있다. The target object background corresponding to the virtual space may have a spatial similarity to the background 132 of the image file. Spatial similarity may indicate visual commonality (similarity) between the virtual space and the background 132. That is, when comparing the generated content with the image file, the user may feel visual similarity (spatial similarity).
타겟 오브젝트 배경은 배경(132)과 연관된 적어도 하나의 환경 요소를 동일하게 포함함으로써 배경(132)에 대해 공간적 유사성을 가질 수 있다. 환경 요소는 배경(132)의 적어도 일부의 색상, 배경(132)에 포함된 사물, 상기 사물의 형상, 상기 사물의 타입 또는 배경(132)의 적어도 일부에 대한 피사체(134)의 위치 관계를 나타낼 수 있다. 예컨대, 타겟 오브젝트 배경은, 배경(132)과 동일 또는 유사한 색상을 포함하거나; 배경(132)에 포함된 사물과 동일 또는 유사하거나, 형상이 동일 또는 유사한 사물을 포함하거나; 배경(132)에 대한 피사체(134)의 위치에 대응되도록 타겟 오브젝트 배경에 대한 타겟 오브젝트의 위치가 결정됨으로써, 배경(132)에 대해 공간적 유사성을 가질 수 있다. 이미지 파일에 포함된 메타데이터를 사용하여 타겟 오브젝트 배경이 구축됨으로써 배경(132)에 대한 공간적 유사성이 확보될 수 있다. The target object background may have spatial similarity to the background 132 by including the same at least one environment element associated with the background 132. An environmental element may indicate a color of at least a portion of the background 132, an object included in the background 132, a shape of the object, a type of the object, or a positional relationship of the subject 134 with respect to at least a portion of the background 132. Can be. For example, the target object background includes the same or similar color as the background 132; Include objects that are the same or similar to the objects included in the background 132, or are the same or similar in shape; The position of the target object with respect to the background of the target object is determined to correspond to the position of the subject 134 with respect to the background 132, thereby having a spatial similarity with respect to the background 132. The spatial similarity to the background 132 may be secured by building the target object background using metadata included in the image file.
동적 효과를 포함하는 콘텐츠의 가상의 공간을 구축하는 방법에 대해서는 후술될 도 5 및 도 7을 참조하여 더 자세하게 설명된다. A method of building a virtual space of content including dynamic effects will be described in more detail with reference to FIGS. 5 and 7 to be described later.
전술한 방법에 따라 동적 효과를 포함하는 콘텐츠를 생성함으로써, 오브젝트(130)를 촬영한 이미지 파일과 유사한 분위기의 VR 효과/AR 효과를 포함하는 콘텐츠를 생성하거나, 다른 오브젝트에 대한 촬영을 통해서도 오브젝트(130)를 촬영한 이미지 파일의 분위기를 재현한 이미지 파일의 생성이 가능해질 수 있다.By generating the content including the dynamic effect according to the above-described method, the content including the VR effect / AR effect of the atmosphere similar to the image file of the object 130 is generated, or the object ( It may be possible to generate an image file reproducing the atmosphere of the image file photographed 130).
이상, 도 1 내지 도 3을 참조하여 전술된 기술적 특징에 대한 설명은, 도 4에 대해서도 그대로 적용될 수 있으므로 중복되는 설명은 생략한다.As described above, the description of the technical features described above with reference to FIGS. 1 to 3 may be applied as it is to FIG. 4, and thus redundant descriptions thereof will be omitted.
도 5는 일 예에 따른, 이미지 파일에 포함된 메타데이터에 기반하여 콘텐츠를 생성함에 있어서, 콘텐츠에 포함되는 가상의 공간을 구축하는 방법을 나타내는 흐름도이다.5 is a flowchart illustrating a method of building a virtual space included in content in generating content based on metadata included in an image file according to an example.
후술될 단계들(510 및 520)은 도 4를 참조하여 전술된 단계(410)에 포함될 수 있다. Steps 510 and 520 to be described below may be included in step 410 described above with reference to FIG. 4.
단계(510)에서, 콘텐츠 생성부(226)(또는, 콘텐츠 생성부(266))는 이미지 파일에 포함된 메타데이터에 포함된 오브젝트(130)의 형상에 관한 정보에 기반하여 가상의 공간에 배치될 사물의 형상을 결정할 수 있다. 콘텐츠 생성부(226)는 메타데이터에 포함된 오브젝트(130)(배경(132) 및/또는 피사체(134))에 포함된 각 사물의 형상에 관한 정보에 기반하여 가상의 공간에 배치될 사물의 형상을 결정할 수 있다. 콘텐츠 생성부(226)는 결정된 형상에 따라, 오브젝트(130)(오브젝트에 포함된 사물)와 동일한 사물이거나, 오브젝트(130)(오브젝트에 포함된 사물)와 형상이 동일한 다른 사물을, 가상의 공간 내에 배치 또는 렌더링되는 사물로서 결정할 수 있다. 예컨대, 가상의 공간 내에 배치 또는 렌더링되는 사물은 이미지 파일의 메타데이터의 objectType 과 shape에 기반하여 결정될 수 있다. In operation 510, the content generator 226 (or the content generator 266) is disposed in the virtual space based on the information about the shape of the object 130 included in the metadata included in the image file. You can determine the shape of the object to be. The content generator 226 may determine the objects of the object to be placed in the virtual space based on the information about the shape of each object included in the object 130 (the background 132 and / or the object 134) included in the metadata. The shape can be determined. According to the determined shape, the content generating unit 226 may be the same object as the object 130 (the object included in the object) or another object having the same shape as the object 130 (the object included in the object). Can be determined as an object placed or rendered within. For example, an object disposed or rendered in a virtual space may be determined based on an objectType and a shape of metadata of an image file.
단계(520)에서, 콘텐츠 생성부(226)는 결정된 사물의 형상에 기반하여 해당 사물을 배치 또는 렌더링함으로써 가상의 공간을 생성할 수 있다. 말하자면, 메타데이터에 포함된 오브젝트(130)의 형상에 관한 정보에 따라 결정된 사물이 가상의 공간 내에 배치 또는 렌더링될 수 있다.In operation 520, the content generator 226 may generate a virtual space by arranging or rendering the object based on the determined shape of the object. In other words, the object determined according to the information about the shape of the object 130 included in the metadata may be disposed or rendered in the virtual space.
또한, 단계(510)에서, 콘텐츠 생성부(226)(또는, 콘텐츠 생성부(266))는 이미지 파일에 포함된 메타데이터에 기반하여 가상의 공간에 배치될 적어도 하나의 사물의 가상의 공간 내의 위치를 결정할 수 있다. 콘텐츠 생성부(226)는 메타데이터에 포함된 오브젝트(130)(배경(132) 및/또는 피사체(134))에 포함된 각 사물의 위치 정보에 기반하여 가상의 공간 내에 상기 각 사물에 대응하는 사물이 배치될 위치를 결정할 수 있다. 예컨대, 이미지 파일 내에서 배경(132)에 포함된 사물의 위치와 피사체(134)에 포함된 사물의 위치에 각각 대응하도록 가상의 공간 내에 사물(들)이 배치될 위치가 결정될 수 있다. 이 때, 콘텐츠 생성부(226)는 피사체(134)에 대응하는 가상의 공간의 위치에는 전술된 타겟 오브젝트가 배치되도록 할 수 있다.In addition, in step 510, the content generating unit 226 (or the content generating unit 266) is in the virtual space of at least one thing to be placed in the virtual space based on metadata included in the image file. The location can be determined. The content generator 226 corresponds to each object in the virtual space based on the location information of each object included in the object 130 (background 132 and / or the subject 134) included in the metadata. You can determine where the thing will be placed. For example, a position where the object (s) are to be disposed in the virtual space may be determined to correspond to the position of the object included in the background 132 and the position of the object included in the subject 134 in the image file. In this case, the content generator 226 may allow the above-described target object to be disposed at a position of the virtual space corresponding to the subject 134.
단계(520)에서, 콘텐츠 생성부(226)는 단계(510)에서 결정된 위치에 기반하여 해당 사물을 배치 또는 렌더링함으로써 가상의 공간을 생성할 수 있다.In operation 520, the content generator 226 may generate a virtual space by arranging or rendering a corresponding object based on the location determined in operation 510.
가상의 공간에 배치 또는 렌더링될 사물을 결정하고, 사물을 렌더링 및 배치하는 구체적인 예시에 대해서는 후술될 도 7을 참조하여 더 자세하게 설명된다. A detailed example of determining an object to be arranged or rendered in a virtual space and rendering and placing the object will be described in more detail with reference to FIG. 7 to be described later.
이상, 도 1 내지 도 4를 참조하여 전술된 기술적 특징에 대한 설명은, 도 5에 대해서도 그대로 적용될 수 있으므로 중복되는 설명은 생략한다.As described above, the description of the technical features described above with reference to FIGS. 1 to 4 may be applied as it is to FIG.
도 6은 일 예에 따른, 이미지 파일에 포함된 메타데이터에 기반한 데이터 베이스를 구축하는 방법을 나타내는 흐름도이다.6 is a flowchart illustrating a method of building a database based on metadata included in an image file, according to an example.
도 3을 참조하여 전술된 단계(330)에서 생성된 이미지 파일에 대해, 단계(610)에서, 콘텐츠 생성부(226)(또는, 콘텐츠 생성부(266))는 이미지 파일에 포함된 메타데이터에 기반한 데이터베이스를 구축할 수 있다. 예컨대, 콘텐츠 생성부(226)는 상기 이미지 파일 또는 상기 이미지 파일에 포함된 메타데이터를 전자 장치(200)의 외부의 데이터베이스로 전송함으로써, 상기 이미지 파일에 포함된 메타데이터에 기반한 데이터베이스를 구축할 수 있다. 데이터베이스는 복수의 전자 장치(200)들로부터의 이미지 파일들에 포함된 메타데이터를 저장할 수 있다. 데이터베이스에 저장된 메타데이터는 빅 데이터로서 콘텐츠 생성부(226)에 의한 동적 효과를 포함하는 콘텐츠 생성에 있어서 활용될 수 있다. With respect to the image file generated in step 330 described above with reference to FIG. 3, in step 610, the content generator 226 (or the content generator 266) is added to the metadata included in the image file. You can build a database based on that. For example, the content generator 226 may build a database based on the metadata included in the image file by transmitting the image file or metadata included in the image file to a database external to the electronic device 200. have. The database may store metadata included in image files from the plurality of electronic devices 200. The metadata stored in the database may be utilized in content generation including dynamic effects by the content generation unit 226 as big data.
복수의 이미지 파일들의 메타데이터를 저장하는 데이터베이스로부터의 정보를 사용하여 동적 효과를 포함하는 콘텐츠를 생성하는 구체적인 예시에 대해서는 후술될 도 8을 참조하여 더 자세하게 설명된다. Specific examples of generating content including dynamic effects using information from a database storing metadata of a plurality of image files will be described in more detail with reference to FIG. 8 to be described later.
이상, 도 1 내지 도 5를 참조하여 전술된 기술적 특징에 대한 설명은, 도 6에 대해서도 그대로 적용될 수 있으므로 중복되는 설명은 생략한다.As described above, the description of the technical features described above with reference to FIGS. 1 to 5 may be applied to FIG. 6 as it is, and thus redundant descriptions thereof will be omitted.
도 7는 일 예에 따른, 동적 효과를 갖는 콘텐츠를 생성하는 방법을 나타낸다. 7 illustrates a method of generating content having a dynamic effect, according to an example.
도 7을 참조하여, 센서 데이터를 메타데이터로서 포함하는 이미지 파일(710)의 메타데이터를 사용하여 동적 효과를 포함하는 콘텐츠(720)를 생성하는 방법을 설명한다.Referring to FIG. 7, a method of generating content 720 including dynamic effects using metadata of an image file 710 including sensor data as metadata is described.
이미지 파일(710)에 있어서, 사람(712)은 피사체에 대응하고, 문(718)과 강아지(716)는 피사체에 해당하지 않는 것으로서 배경(714)에 포함된 사물에 해당할 수 있다. 이미지 파일(710)의 메타데이터에는 사물들(712 내지 716)의 이미지 파일(710) 내에서의 2차원 및 3차원의 위치와 그 형상에 관한 정보가 저장되어 있을 수 있다. 또한, 배경(714)의 적어도 하나의 측정 포인트(예컨대, 벽면들 중 임의의 포인트)에 대한 전자 장치(200)까지의 거리 정보와, 전자 장치(200)의 높이 및 기울기 정보도 메타데이터에 저장되어 있을 수 있다.In the image file 710, the person 712 may correspond to the subject, and the door 718 and the puppy 716 may not correspond to the subject and correspond to an object included in the background 714. The metadata of the image file 710 may store information regarding the location and shape of two-dimensional and three-dimensional images in the image file 710 of the objects 712 to 716. In addition, the distance information to the electronic device 200 and at least the height and inclination information of the electronic device 200 with respect to at least one measurement point (eg, any of the walls) of the background 714 are also stored in the metadata. It may be.
콘텐츠 생성부(226)(또는, 콘텐츠 생성부(266))는, 상기 메타데이터를 사용하여, 사물(718)은 사각형의 형상의 문이고, 사물(716)은 동물로서 강아지이며, 사물(712)는 사람임을 식별할 수 있다. 콘텐츠 생성부(226)는 또한, 사물(712)이 피사체에 해당함을 식별할 수 있다. 예컨대, 초점이 가장 잘 맞은 사물 또는 이미지의 중심에 가까운 사물이 피사체로서 식별될 수 있다. 콘텐츠 생성부(226)는 메타데이터에 포함된 사물들(712 내지 716)의 이미지 파일에 대한 (상대적인) 위치 정보와 형상에 대한 정보를 사용하여, 콘텐츠(720)를 생성할 수 있다.The content generating unit 226 (or the content generating unit 266) uses the metadata so that the object 718 is a rectangular door, the object 716 is a puppy as an animal, and the object 712 ) Can identify you as a person. The content generator 226 may also identify that the object 712 corresponds to the subject. For example, the object in focus or the object close to the center of the image may be identified as the subject. The content generator 226 may generate the content 720 by using (relative) location information and shape information of the image files of the objects 712 to 716 included in the metadata.
예컨대, 사물(718)에 대응하는 사각형의 형상의 문(728)을 가상의 공간(724) 내에 배치할 수 있다. 또한, 사물(716)에 대응하는 고양이(726)(사물(716)과 동일한 타입(동물)을 나타내는 사물로서 결정됨)를 가상의 공간(724) 내에 배치할 수 있다. 피사체인 사물(712)에 대응하여서는, 사용자가 촬영하거나 선택한 사물(722)(전술한 타겟 오브젝트에 대응)이 가상의 공간(724) 내에 배치될 수 있다. For example, a rectangular door 728 corresponding to the object 718 may be disposed in the virtual space 724. Also, a cat 726 (determined as an object representing the same type (animal) as the object 716) corresponding to the object 716 may be disposed in the virtual space 724. In response to the object 712, which is the subject, the object 722 photographed or selected by the user (corresponding to the target object described above) may be disposed in the virtual space 724.
메타데이터에 포함된 사물들(712 내지 716)의 이미지 파일 내에서의 공간적인 위치 정보를 사용하여, 사물들(712 내지 716)의 이미지 파일 내에서의 대응하는 가상의 공간(724)의 위치에 사물들(722 내지 726)이 배치될 수 있다. 메타데이터에는 사물들(712 내지 716)의 깊이 정보를 비롯한 공간 상의 위치를 나타낼 수 있는 정보가 포함되므로, 콘텐츠 생성부(226)는 사물들(722 내지 726) 중 적어도 하나와 관련된 동적 효과가 부여된 콘텐츠(720)를 생성할 수 있게 된다.By using spatial position information in the image file of the objects 712 to 716 included in the metadata, the position of the corresponding virtual space 724 in the image file of the objects 712 to 716 is used. Things 722-726 may be arranged. Since the metadata includes information that can indicate a location in space including depth information of the objects 712 to 716, the content generator 226 may be assigned a dynamic effect related to at least one of the objects 722 to 726. Generated content 720 can be generated.
말하자면, 생성된 콘텐츠(720)는 이미지 파일(710)에 비해, 이미지 파일(710)과 유사한 분위기를 제공하면서, VR 효과 또는 AR 효과, 3차원 효과 또는 모션 효과와 같은 동적 효과를 더 가질 수 있다.In other words, the generated content 720 may further have a dynamic effect such as a VR effect or an AR effect, a three-dimensional effect, or a motion effect, while providing an atmosphere similar to that of the image file 710, compared to the image file 710. .
이상, 도 1 내지 도 6를 참조하여 전술된 기술적 특징에 대한 설명은, 도 7에 대해서도 그대로 적용될 수 있으므로 중복되는 설명은 생략한다.As described above, the description of the technical features described above with reference to FIGS. 1 to 6 may be applied as it is to FIG. 7, and thus redundant descriptions thereof will be omitted.
도 8은 일 예에 따른, 이미지 파일에 포함된 메타데이터에 기반한 데이터 베이스를 구축하고, 구축된 데이터베이스에 기반하여 동적 효과를 갖는 콘텐츠를 생성하는 방법을 나타낸다.8 illustrates a method of constructing a database based on metadata included in an image file and generating content having a dynamic effect based on the constructed database.
도시된 데이터베이스(810)는 도 6을 참조하여 전술된 메타데이터에 기반하여 구축된 데이터베이스에 대응할 수 있다.The illustrated database 810 may correspond to a database constructed based on the metadata described above with reference to FIG. 6.
데이터베이스(810)는 하나 이상의 전자 장치(200)들에 의해 생성된 이미지 파일들(710-1 내지 710-N) 자체 또는 이미지 파일들(710-1 내지 710-N)에 포함된 메타데이터를 저장할 수 있다. The database 810 may store metadata included in the image files 710-1 to 710 -N itself or the image files 710-1 to 710 -N generated by the one or more electronic devices 200. Can be.
콘텐츠 생성부(226)는 데이터베이스(810)에 저장된 이미지 파일들(710-1 내지 710-N)의 메타데이터 중 적절한 것을 선택하여 동적 효과를 갖는 콘텐츠(720)를 생성함에 있어서 사용할 수 있다. 예컨대, 콘텐츠(720)를 생성할 때, 전자 장치(200)에는, 사용자가 적절한 메타데이터 또는 해당 메타데이터를 통해 생성되는 가상의 공간을 선택할 수 있도록 구성되는, 사용자 인터페이스가 출력될 수 있다. 콘텐츠 생성부(226)는 상기 사용자 인터페이스를 통한 사용자의 선택에 따라 콘텐츠(720)를 선택할 수 있다. 이를 통해, 사용자는 전자 장치(200)를 통해 자신이 촬영한 이미지 파일 뿐만아니라, 타인이 촬영한 이미지 파일의 분위기를 재현한 콘텐츠(720)를 생성할 수 있다. 즉, 이미지 파일에 모함된 메타데이터는 데이터베이스(810)를 통해 사용자들 간에 공유될 수 있다. 또한, 전자 장치(200)를 통해, 사용자는 적용하고자 하는 동적 효과나 분위기를 보다 세밀하게 조정하여 콘텐츠(720)를 생성할 수 있다.The content generator 226 may select an appropriate one from among metadata of the image files 710-1 through 710 -N stored in the database 810, and use the generated content 720 with the dynamic effect. For example, when generating the content 720, the electronic device 200 may output a user interface configured to allow a user to select appropriate metadata or a virtual space generated through the metadata. The content generator 226 may select the content 720 according to the user's selection through the user interface. In this manner, the user may generate not only the image file photographed by the electronic device 200 but also the content 720 which reproduces the atmosphere of the image file photographed by another user. In other words, metadata encapsulated in an image file may be shared among users through the database 810. In addition, through the electronic device 200, the user may generate the content 720 by finely adjusting the dynamic effect or atmosphere to be applied.
이상, 도 1 내지 도 7을 참조하여 전술된 기술적 특징에 대한 설명은, 도 8에 대해서도 그대로 적용될 수 있으므로 중복되는 설명은 생략한다.As described above, the description of the technical features described above with reference to FIGS. 1 to 7 may be applied to FIG. 8 as it is, and thus redundant descriptions thereof will be omitted.
이상에서 설명된 장치는 하드웨어 구성요소, 소프트웨어 구성요소, 및/또는 하드웨어 구성요소 및 소프트웨어 구성요소의 조합으로 구현될 수 있다. 예를 들어, 실시예들에서 설명된 장치 및 구성요소는, 프로세서, 콘트롤러, ALU(arithmetic logic unit), 디지털 신호 프로세서(digital signal processor), 마이크로컴퓨터, FPGA(field programmable gate array), PLU(programmable logic unit), 마이크로프로세서, 또는 명령(instruction)을 실행하고 응답할 수 있는 다른 어떠한 장치와 같이, 하나 이상의 범용 컴퓨터 또는 특수 목적 컴퓨터를 이용하여 구현될 수 있다. 처리 장치는 운영 체제(OS) 및 상기 운영 체제 상에서 수행되는 하나 이상의 소프트웨어 어플리케이션을 수행할 수 있다. 또한, 처리 장치는 소프트웨어의 실행에 응답하여, 데이터를 접근, 저장, 조작, 처리 및 생성할 수도 있다. 이해의 편의를 위하여, 처리 장치는 하나가 사용되는 것으로 설명된 경우도 있지만, 해당 기술분야에서 통상의 지식을 가진 자는, 처리 장치가 복수 개의 처리 요소(processing element) 및/또는 복수 유형의 처리 요소를 포함할 수 있음을 알 수 있다. 예를 들어, 처리 장치는 복수 개의 프로세서 또는 하나의 프로세서 및 하나의 콘트롤러를 포함할 수 있다. 또한, 병렬 프로세서(parallel processor)와 같은, 다른 처리 구성(processing configuration)도 가능하다.The apparatus described above may be implemented as a hardware component, a software component, and / or a combination of hardware components and software components. For example, the devices and components described in the embodiments may include a processor, a controller, an arithmetic logic unit (ALU), a digital signal processor, a microcomputer, a field programmable gate array (FPGA), a programmable PLU (programmable). It can be implemented using one or more general purpose or special purpose computers, such as logic units, microprocessors, or any other device capable of executing and responding to instructions. The processing device may execute an operating system (OS) and one or more software applications running on the operating system. The processing device may also access, store, manipulate, process, and generate data in response to the execution of the software. For convenience of explanation, one processing device may be described as being used, but one of ordinary skill in the art will appreciate that the processing device includes a plurality of processing elements and / or a plurality of types of processing elements. It can be seen that it may include. For example, the processing device may include a plurality of processors or one processor and one controller. In addition, other processing configurations are possible, such as parallel processors.
소프트웨어는 컴퓨터 프로그램(computer program), 코드(code), 명령(instruction), 또는 이들 중 하나 이상의 조합을 포함할 수 있으며, 원하는 대로 동작하도록 처리 장치를 구성하거나 독립적으로 또는 결합적으로(collectively) 처리 장치를 명령할 수 있다. 소프트웨어 및/또는 데이터는, 처리 장치에 의하여 해석되거나 처리 장치에 명령 또는 데이터를 제공하기 위하여, 어떤 유형의 기계, 구성요소(component), 물리적 장치, 가상 장치(virtual equipment), 컴퓨터 저장 매체 또는 장치에서 구체화(embody)될 수 있다. 소프트웨어는 네트워크로 연결된 컴퓨터 시스템 상에 분산되어서, 분산된 방법으로 저장되거나 실행될 수도 있다. 소프트웨어 및 데이터는 하나 이상의 컴퓨터 판독 가능 기록 매체에 저장될 수 있다.The software may include a computer program, code, instructions, or a combination of one or more of the above, and configure the processing device to operate as desired, or process it independently or collectively. You can command the device. Software and / or data may be any type of machine, component, physical device, virtual equipment, computer storage medium or device in order to be interpreted by or to provide instructions or data to the processing device. It can be embodied in The software may be distributed over networked computer systems so that they may be stored or executed in a distributed manner. Software and data may be stored on one or more computer readable recording media.
실시예에 따른 방법은 다양한 컴퓨터 수단을 통하여 수행될 수 있는 프로그램 명령 형태로 구현되어 컴퓨터 판독 가능 매체에 기록될 수 있다. 이때, 매체는 컴퓨터로 실행 가능한 프로그램을 계속 저장하거나, 실행 또는 다운로드를 위해 임시 저장하는 것일 수도 있다. 또한, 매체는 단일 또는 수개 하드웨어가 결합된 형태의 다양한 기록수단 또는 저장수단일 수 있는데, 어떤 컴퓨터 시스템에 직접 접속되는 매체에 한정되지 않고, 네트워크 상에 분산 존재하는 것일 수도 있다. 매체의 예시로는, 하드 디스크, 플로피 디스크 및 자기 테이프와 같은 자기 매체, CD-ROM 및 DVD와 같은 광기록 매체, 플롭티컬 디스크(floptical disk)와 같은 자기-광 매체(magneto-optical medium), 및 ROM, RAM, 플래시 메모리 등을 포함하여 프로그램 명령어가 저장되도록 구성된 것이 있을 수 있다. 또한, 다른 매체의 예시로, 애플리케이션을 유통하는 앱 스토어나 기타 다양한 소프트웨어를 공급 내지 유통하는 사이트, 서버 등에서 관리하는 기록매체 내지 저장매체도 들 수 있다.The method according to the embodiment may be embodied in the form of program instructions that can be executed by various computer means and recorded in a computer readable medium. In this case, the medium may be to continuously store a program executable by the computer, or to temporarily store for execution or download. In addition, the medium may be a variety of recording means or storage means in the form of a single or several hardware combined, not limited to a medium directly connected to any computer system, it may be distributed on the network. Examples of the medium include magnetic media such as hard disks, floppy disks and magnetic tape, optical recording media such as CD-ROMs and DVDs, magneto-optical media such as floptical disks, And ROM, RAM, flash memory, and the like, configured to store program instructions. In addition, examples of another medium may include a recording medium or a storage medium managed by an app store that distributes an application or a site or server that supplies or distributes various software.
이상과 같이 실시예들이 비록 한정된 실시예와 도면에 의해 설명되었으나, 해당 기술분야에서 통상의 지식을 가진 자라면 상기의 기재로부터 다양한 수정 및 변형이 가능하다. 예를 들어, 설명된 기술들이 설명된 방법과 다른 순서로 수행되거나, 및/또는 설명된 시스템, 구조, 장치, 회로 등의 구성요소들이 설명된 방법과 다른 형태로 결합 또는 조합되거나, 다른 구성요소 또는 균등물에 의하여 대치되거나 치환되더라도 적절한 결과가 달성될 수 있다.Although the embodiments have been described by the limited embodiments and the drawings as described above, various modifications and variations are possible to those skilled in the art from the above description. For example, the described techniques may be performed in a different order than the described method, and / or components of the described systems, structures, devices, circuits, etc. may be combined or combined in a different form than the described method, or other components. Or even if replaced or substituted by equivalents, an appropriate result can be achieved.
그러므로, 다른 구현들, 다른 실시예들 및 특허청구범위와 균등한 것들도 후술하는 특허청구범위의 범위에 속한다.Therefore, other implementations, other embodiments, and equivalents to the claims are within the scope of the claims that follow.

Claims (20)

  1. 사용자 단말을 통한, 오브젝트에 대한 촬영 명령에 응답하여 이미지 파일을 생성하는 방법에 있어서, In the method for generating an image file in response to a photographing command for an object through a user terminal,
    상기 촬영 명령에 응답하여, 적어도 하나의 센서로부터의 상기 오브젝트와 관련된 센서 데이터를 획득하는 단계 - 상기 오브젝트는 피사체 및 상기 피사체의 주위의 배경 중 적어도 하나이고, 상기 센서 데이터는 상기 피사체 및 상기 배경 중 적어도 하나와 관련된 동적 효과를 생성하기 위해 요구되는 정보를 포함함 -; 및In response to the shooting command, obtaining sensor data associated with the object from at least one sensor, wherein the object is at least one of a subject and a background around the subject, wherein the sensor data is selected from among the subject and the background; Includes information required to generate a dynamic effect associated with at least one; And
    상기 촬영 명령에 응답하여 카메라에 의해 상기 오브젝트를 촬영함으로써 생성되는 이미지 파일에 상기 센서 데이터를 메타데이터로서 부가함으로써 소기의 이미지 파일을 생성하는 단계Generating a desired image file by adding the sensor data as metadata to an image file generated by photographing the object by a camera in response to the photographing command
    를 포함하는, 이미지 파일을 생성하는 방법. Including a method of generating an image file.
  2. 제1항에 있어서,The method of claim 1,
    센서 데이터는 상기 사용자 단말과 상기 오브젝트 간의 위치 관계에 관한 정보 및 상기 오브젝트의 색상에 관한 정보 중 적어도 하나를 포함하는, 이미지 파일을 생성하는 방법.The sensor data includes at least one of information about a positional relationship between the user terminal and the object and information about a color of the object.
  3. 제1항에 있어서,The method of claim 1,
    상기 센서는 위치 센서, 자이로 센서, 거리 센서, 조도 센서, 깊이 센서, 모션 추적 센서 및 형상 식별부 중 적어도 하나를 포함하고,The sensor includes at least one of a position sensor, a gyro sensor, a distance sensor, an illuminance sensor, a depth sensor, a motion tracking sensor, and a shape identification unit,
    상기 센서 데이터는 상기 카메라의 시점에 관한 정보, 상기 위치 센서로부터 획득된 상기 사용자 단말과 지면 간의 거리에 관한 정보, 상기 자이로 센서에 의해 측정된 상기 소기의 이미지 파일의 생성 시의 상기 사용자 단말의 기울기, 상기 거리 센서에 의해 측정된 상기 사용자 단말로부터 상기 오브젝트의 적어도 하나의 측정 포인트까지의 거리, 상기 조도 센서에 의해 측정된 상기 소기의 이미지 파일의 생성 시의 조도 값, 상기 깊이 센서에 의해 측정된 상기 측정 포인트의 깊이 값, 상기 모션 추적 센서에 의해 획득된 상기 오브젝트의 모션 추적 관련 데이터 및 상기 형상 식별부에 의해 파악된 상기 오브젝트의 형상에 관한 정보 중 적어도 하나를 포함하는, 이미지 파일을 생성하는 방법. The sensor data includes information about a viewpoint of the camera, information about a distance between the user terminal and the ground obtained from the position sensor, and an inclination of the user terminal when generating the desired image file measured by the gyro sensor. A distance from the user terminal measured by the distance sensor to at least one measurement point of the object, an illuminance value upon generation of the desired image file measured by the illuminance sensor, measured by the depth sensor Generating at least one of a depth value of the measurement point, motion tracking related data of the object obtained by the motion tracking sensor, and information about the shape of the object identified by the shape identification unit; Way.
  4. 제1항에 있어서,The method of claim 1,
    상기 동적 효과는 가상 현실(Virtual Reality; VR) 효과 또는 증강 현실(Augmented Reality; AR) 효과, 3차원 효과 또는 모션 효과인, 이미지 파일을 생성하는 방법. Wherein the dynamic effect is a Virtual Reality (VR) effect or an Augmented Reality (AR) effect, a three-dimensional effect, or a motion effect.
  5. 제1항에 있어서,The method of claim 1,
    상기 소기의 이미지 파일에 포함된 상기 메타데이터에 기반하여, 상기 동적 효과를 포함하는 소기의 콘텐츠를 생성하는 단계Generating desired content including the dynamic effect based on the metadata included in the desired image file
    를 더 포함하는, 이미지 파일을 생성하는 방법.Further comprising, the method of generating an image file.
  6. 제5항에 있어서,The method of claim 5,
    상기 소기의 콘텐츠를 생성하는 단계는,Generating the desired content,
    상기 메타데이터에 기반하여 가상의 공간을 구축하는 단계; 및Building a virtual space based on the metadata; And
    상기 가상의 공간과 사용자-촬영된 또는 사용자-선택된 타겟 오브젝트를 합성하는 단계Compositing the virtual space with a user-photographed or user-selected target object
    를 포함하는, 이미지 파일을 생성하는 방법.Including a method of generating an image file.
  7. 제6항에 있어서,The method of claim 6,
    상기 가상의 공간은 상기 타겟 오브젝트 주위의 타겟 오브젝트 배경에 해당하고, The virtual space corresponds to a target object background around the target object,
    상기 타겟 오브젝트 배경은 상기 배경에 대해 공간적 유사성을 갖는, 이미지 파일을 생성하는 방법.And the target object background has a spatial similarity to the background.
  8. 제7항에 있어서, The method of claim 7, wherein
    상기 타겟 오브젝트 배경은 상기 배경과 연관된 적어도 하나의 환경 요소를 동일하게 포함함으로써 상기 배경에 대해 공간적 유사성을 갖고, The target object background has spatial similarity to the background by including equally at least one environment element associated with the background,
    상기 환경 요소는 상기 배경의 적어도 일부의 색상, 상기 배경에 포함된 사물, 상기 사물의 형상, 상기 사물의 타입 또는 상기 배경의 적어도 일부에 대한 상기 피사체의 위치 관계를 포함하는, 이미지 파일을 생성하는 방법.The environmental element may comprise an image file including a color of at least a portion of the background, an object included in the background, a shape of the object, a type of the object, or a positional relationship of the subject to at least a portion of the background. Way.
  9. 제6항에 있어서,The method of claim 6,
    상기 가상의 공간을 구축하는 단계는,The step of building the virtual space,
    상기 메타데이터에 기반하여 상기 가상의 공간에 배치될 적어도 하나의 사물의 상기 가상의 공간 내의 위치를 결정하는 단계; 및Determining a location in the virtual space of at least one thing to be placed in the virtual space based on the metadata; And
    상기 결정된 위치에 기반하여 상기 사물을 배치 또는 렌더링함으로써 상기 가상의 공간을 생성하는 단계Generating the virtual space by arranging or rendering the thing based on the determined position
    를 포함하는, 이미지 파일을 생성하는 방법.Including a method of generating an image file.
  10. 제6항에 있어서,The method of claim 6,
    상기 가상의 공간을 구축하는 단계는,The step of building the virtual space,
    상기 메타데이터에 포함된 상기 오브젝트의 형상에 관한 정보에 기반하여 상기 가상의 공간에 배치될 사물의 형상을 결정하는 단계; 및 Determining a shape of an object to be disposed in the virtual space based on the information about the shape of the object included in the metadata; And
    상기 결정된 사물의 형상에 기반하여 상기 사물을 배치 또는 렌더링함으로써 상기 가상의 공간을 생성하는 단계Generating the virtual space by arranging or rendering the thing based on the determined shape of the thing;
    를 포함하는, 이미지 파일을 생성하는 방법.Including a method of generating an image file.
  11. 제10항에 있어서,The method of claim 10,
    상기 배치 또는 렌더링되는 사물은 상기 오브젝트와 동일한 사물이거나, 상기 오브젝트와 형상이 동일한 다른 사물인, 이미지 파일을 생성하는 방법.The object to be placed or rendered is the same thing as the object or another object having the same shape as the object.
  12. 제1항에 있어서,The method of claim 1,
    상기 소기의 이미지 파일에 포함된 상기 메타데이터에 기반한 데이터베이스를 구축하는 단계Constructing a database based on the metadata included in the desired image file
    를 더 포함하는, 이미지 파일을 생성하는 방법.Further comprising, the method of generating an image file.
  13. 제1항에 있어서,The method of claim 1,
    상기 메타데이터는 교환 이미지 파일 형식(EXchangable Image File format; Exif)으로 상기 소기의 이미지 파일 내에 저장되는, 이미지 처리 방법.And the metadata is stored in the desired image file in an Exchangable Image File format (Exif).
  14. 제1항 내지 제13항 중 어느 한 항의 방법을 수행하는 프로그램을 기록한 컴퓨터 판독 가능 기록 매체. A computer-readable recording medium having recorded thereon a program for performing the method of any one of claims 1 to 13.
  15. 적어도 하나의 센서를 통해 획득된 오브젝트와 관련된 센서 데이터를 메타데이터로서 포함하는 상기 오브젝트를 촬영한 이미지 파일로부터 상기 메타데이터를 추출하는 단계 - 상기 오브젝트는 피사체 및 상기 피사체의 주위의 배경 중 적어도 하나이고, 상기 센서 데이터는 상기 피사체 및 상기 배경 중 적어도 하나와 관련된 동적 효과를 생성하기 위해 요구되는 정보를 포함함 -; 및Extracting the metadata from an image file photographing the object, the metadata including sensor data related to an object obtained through at least one sensor, wherein the object is at least one of a subject and a background around the subject; The sensor data includes information required to generate a dynamic effect associated with at least one of the subject and the background; And
    상기 메타데이터에 기반하여, 상기 동적 효과를 포함하는 소기의 콘텐츠를 생성하는 단계Generating desired content including the dynamic effect based on the metadata;
    를 포함하는, 콘텐츠를 생성하는 방법.Comprising the content.
  16. 제15항에 있어서,The method of claim 15,
    상기 소기의 콘텐츠를 생성하는 단계는,Generating the desired content,
    상기 메타데이터에 기반하여 가상의 공간을 구축하는 단계; 및Building a virtual space based on the metadata; And
    상기 가상의 공간과 사용자-촬영된 또는 사용자-선택된 타겟 오브젝트를 합성하는 단계Compositing the virtual space with a user-photographed or user-selected target object
    를 포함하는, 콘텐츠를 생성하는 방법.Comprising the content.
  17. 제16항에 있어서,The method of claim 16,
    상기 가상의 공간은 상기 타겟 오브젝트 주위의 타겟 오브젝트 배경에 해당하고, The virtual space corresponds to a target object background around the target object,
    상기 타겟 오브젝트 배경은 상기 배경에 대해 공간적 유사성을 갖는, 콘텐츠를 생성하는 방법.And the target object background has spatial similarity to the background.
  18. 제15항 내지 제17항 중 어느 한 항의 방법을 수행하는 프로그램을 기록한 컴퓨터 판독 가능 기록 매체.A computer-readable recording medium having recorded thereon a program for performing the method of any one of claims 15 to 17.
  19. 사용자 단말을 통한, 오브젝트에 대한 촬영 명령에 응답하여 이미지 파일을 생성하는 전자 장치에 있어서, An electronic device for generating an image file in response to a photographing command for an object through a user terminal,
    상기 촬영 명령에 응답하여, 적어도 하나의 센서로부터의 오브젝트와 관련된 센서 데이터를 획득하는 센서 데이터 획득부 - 상기 오브젝트는 피사체 및 상기 피사체의 주위의 배경 중 적어도 하나이고, 상기 센서 데이터는 상기 피사체 및 상기 배경 중 적어도 하나와 관련된 동적 효과를 생성하기 위해 요구되는 정보를 포함함 -; 및A sensor data acquisition unit for acquiring sensor data related to an object from at least one sensor in response to the photographing command, wherein the object is at least one of a subject and a background around the subject, and the sensor data is the subject and the Includes information required to generate a dynamic effect associated with at least one of the backgrounds; And
    상기 촬영 명령에 응답하여 카메라에 의해 상기 오브젝트를 촬영함으로써 생성되는 이미지 파일에 상기 센서 데이터를 메타데이터로서 부가함으로써 소기의 이미지 파일을 생성하는 이미지 파일 생성부An image file generation unit for generating a desired image file by adding the sensor data as metadata to an image file generated by photographing the object by the camera in response to the photographing command;
    를 포함하는, 전자 장치.Including, the electronic device.
  20. 제19항에 있어서, The method of claim 19,
    상기 소기의 이미지 파일에 포함된 상기 메타데이터에 기반하여, 상기 동적 효과를 포함하는 소기의 콘텐츠를 생성하는 콘텐츠 생성부Content generation unit for generating a desired content including the dynamic effect, based on the metadata included in the desired image file
    를 더 포함하는, 전자 장치.The electronic device further comprises.
PCT/KR2017/004401 2017-04-26 2017-04-26 Method and device for generating image file including sensor data as metadata WO2018199351A1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
PCT/KR2017/004401 WO2018199351A1 (en) 2017-04-26 2017-04-26 Method and device for generating image file including sensor data as metadata

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
PCT/KR2017/004401 WO2018199351A1 (en) 2017-04-26 2017-04-26 Method and device for generating image file including sensor data as metadata

Publications (1)

Publication Number Publication Date
WO2018199351A1 true WO2018199351A1 (en) 2018-11-01

Family

ID=63920379

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/KR2017/004401 WO2018199351A1 (en) 2017-04-26 2017-04-26 Method and device for generating image file including sensor data as metadata

Country Status (1)

Country Link
WO (1) WO2018199351A1 (en)

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20070038944A1 (en) * 2005-05-03 2007-02-15 Seac02 S.R.I. Augmented reality system with real marker object identification
US20070118805A1 (en) * 2002-12-10 2007-05-24 Science Applications International Corporation Virtual environment capture
US20080310707A1 (en) * 2007-06-15 2008-12-18 Microsoft Corporation Virtual reality enhancement using real world data
US20130222369A1 (en) * 2012-02-23 2013-08-29 Charles D. Huston System and Method for Creating an Environment and for Sharing a Location Based Experience in an Environment
US20140146084A1 (en) * 2012-05-14 2014-05-29 Orbotix, Inc. Augmentation of elements in data content

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20070118805A1 (en) * 2002-12-10 2007-05-24 Science Applications International Corporation Virtual environment capture
US20070038944A1 (en) * 2005-05-03 2007-02-15 Seac02 S.R.I. Augmented reality system with real marker object identification
US20080310707A1 (en) * 2007-06-15 2008-12-18 Microsoft Corporation Virtual reality enhancement using real world data
US20130222369A1 (en) * 2012-02-23 2013-08-29 Charles D. Huston System and Method for Creating an Environment and for Sharing a Location Based Experience in an Environment
US20140146084A1 (en) * 2012-05-14 2014-05-29 Orbotix, Inc. Augmentation of elements in data content

Similar Documents

Publication Publication Date Title
WO2017213439A1 (en) Method and apparatus for generating image by using multi-sticker
WO2020171540A1 (en) Electronic device for providing shooting mode based on virtual character and operation method thereof
WO2017204596A1 (en) Facial contour correcting method and device
WO2020171553A1 (en) An electronic device applying bokeh effect to image and controlling method thereof
WO2020080845A1 (en) Electronic device and method for obtaining images
WO2015034269A1 (en) Image processing method and device
WO2019035581A1 (en) Server, display device and control method therefor
WO2018074618A1 (en) Method and system for sharing effect for image
WO2021096339A1 (en) Method for transforming image
WO2021251534A1 (en) Method, apparatus, and system for providing real-time broadcasting platform using motion and face capturing
WO2012091326A2 (en) Three-dimensional real-time street view system using distinct identification information
WO2018066760A1 (en) Method for acquiring optimal spherical image by using multiple cameras
WO2019035551A1 (en) Apparatus for composing objects using depth map and method for the same
WO2019066537A1 (en) Device for displaying content and operation method therefor
US20240406338A1 (en) Information processing device, video processing method, and program
WO2020171558A1 (en) Method of providing augmented reality contents and electronic device therefor
WO2021086018A1 (en) Method for displaying three-dimensional augmented reality
WO2023128100A1 (en) Three-dimensional virtual model provision method and three-dimensional virtual model provision system therefor
WO2018182066A1 (en) Method and apparatus for applying dynamic effect to image
WO2023095971A1 (en) Image generation method using terminal holder, and portable terminal therefor
WO2021125875A1 (en) Electronic device for providing image processing service through network
WO2018199351A1 (en) Method and device for generating image file including sensor data as metadata
WO2023055013A1 (en) Image processing method and image processing device based on neural network
WO2012074174A1 (en) Augmented reality implementation system using original identification information
WO2021075878A1 (en) Augmented reality record service provision method and user terminal

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 17907891

Country of ref document: EP

Kind code of ref document: A1

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 17907891

Country of ref document: EP

Kind code of ref document: A1