[go: up one dir, main page]

WO2018048167A1 - Method for displaying image in multi-view mode - Google Patents

Method for displaying image in multi-view mode Download PDF

Info

Publication number
WO2018048167A1
WO2018048167A1 PCT/KR2017/009674 KR2017009674W WO2018048167A1 WO 2018048167 A1 WO2018048167 A1 WO 2018048167A1 KR 2017009674 W KR2017009674 W KR 2017009674W WO 2018048167 A1 WO2018048167 A1 WO 2018048167A1
Authority
WO
WIPO (PCT)
Prior art keywords
image
camera
target image
mode
view
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Ceased
Application number
PCT/KR2017/009674
Other languages
French (fr)
Korean (ko)
Inventor
임성현
김동균
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
LG Innotek Co Ltd
Original Assignee
LG Innotek Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Priority claimed from KR1020160165385A external-priority patent/KR20180028354A/en
Priority claimed from KR1020160165383A external-priority patent/KR20180028353A/en
Application filed by LG Innotek Co Ltd filed Critical LG Innotek Co Ltd
Priority to EP17849051.2A priority Critical patent/EP3512195A4/en
Priority to CN201780055360.3A priority patent/CN109691091A/en
Priority to US16/331,413 priority patent/US11477372B2/en
Publication of WO2018048167A1 publication Critical patent/WO2018048167A1/en
Anticipated expiration legal-status Critical
Ceased legal-status Critical Current

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/80Camera processing pipelines; Components thereof
    • H04N23/84Camera processing pipelines; Components thereof for processing colour signals
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/80Camera processing pipelines; Components thereof
    • H04N23/84Camera processing pipelines; Components thereof for processing colour signals
    • H04N23/88Camera processing pipelines; Components thereof for processing colour signals for colour balance, e.g. white-balance circuits or colour temperature control
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/222Studio circuitry; Studio devices; Studio equipment
    • H04N5/262Studio circuits, e.g. for mixing, switching-over, change of character of image, other special effects ; Cameras specially adapted for the electronic generation of special effects

Definitions

  • the present invention relates to an image display method in a multi-view mode, and more particularly, to an image obtained by at least one image acquisition unit for around view monitoring (AVM) and an around view generated using the same. view) relates to a method of displaying an image in a multi-view mode.
  • AVM around view monitoring
  • the driver assistance system is a system that assists the driver while driving or parking for the driver's safe driving.
  • the driver assistance system essentially includes a device that provides image information so that the driver can grasp the situation outside the vehicle while sitting in the driver's seat.
  • the apparatus for providing image information includes a camera.
  • a plurality of cameras facing in various directions may be installed outside the vehicle.
  • the acquired images may be differently converted according to various view modes and provided to the driver.
  • the provided images tend to be corrected based on the image according to the view mode displayed on the display screen which the driver can visually confirm. This trend can also be seen in images for around view monitoring (AVM) systems.
  • AVM view monitoring
  • the around view monitoring system is being actively researched recently to provide the driver with a video of the situation around the vehicle equipped with multiple cameras.
  • Several automotive companies in Germany and Japan have already developed and released products.
  • systems that have multiple cameras to give the driver a bird's eye view like the view from the sky have become mainstream.
  • the around view monitoring system may generate an image representing an object, for example, a 360-degree field of view around an object, for example, a vehicle, by using images acquired from a limited number of cameras through a device for providing image information.
  • the lens mounted on the camera may be a fisheye lens or a similar type of wide-angle lens to obtain a wide viewing angle.
  • the images acquired by the lens are different from those based on human vision, and the images to be finally output compared with the direction of the camera lens installed in the vehicle are top view images. Images acquired from the cameras must go through various image signal processing.
  • 1 and 2 show an image according to a conventional technology.
  • the image of FIG. 1 represents an image acquired by a camera installed on a right side of a vehicle
  • the image of FIG. 2 represents an around view image including the left image.
  • the ratio of the dark area due to the shadow of the vehicle and the bright area due to the lighting is different from the around view image, so that the brightness of the bright area due to the illumination is saturated in the image of FIG. This is a result of adjusting light exposure or adjusting white balance based on the image of FIG. 1.
  • An object of the present invention for solving the above problems is to provide a method for displaying a corrected image in the corresponding view mode by properly correcting the image displayed in the specific view mode in the corresponding view mode.
  • an image processing method supporting multiple modes determines whether to convert or match at least one received image in response to a user input, and receives the at least one received according to the conversion or matching. Outputting a target image by converting or matching an image; Extracting brightness information from the target image; And applying an adjustment value corresponding to the brightness information to convert or match the at least one image.
  • the image processing method supporting multiple modes may further include adjusting an exposure time of at least one camera device based on the target image, wherein the adjustment value may vary according to the brightness information and the exposure time. .
  • the image processing method supporting the multi mode may further include receiving the at least one image data obtained from each of the at least one camera device.
  • an image processing method supporting multiple modes may further include outputting an image image by performing color interpolation and first image processing on the Bayer pattern.
  • the first image processing includes calibration, lens distortion correction, color correction, gamma correction, color space conversion, and edge enhancement. It may include performing at least one of (Enhancement).
  • the outputting of the target image may include selecting at least one of the at least one image corresponding to whether to convert or match the target image; Generating a transformed image obtained by removing perspective from the selected image; Extracting from the converted image corresponding to an area to be inserted into the target image; Placing the extracted data in the target image; And transferring the target image to a display device.
  • the transform image may be obtained by performing an inverse perspective mapping transform.
  • the reverse projection image conversion and placement on the target image may be performed together through a lookup table.
  • the applying of the at least one image to conversion or matching may include batch converting at least some data arranged in the lookup table.
  • the at least one image may be transmitted from at least one camera device mounted in a vehicle, and the user input may be input through an interface mounted in the vehicle.
  • the at least one image may be image information of at least one of the front, rear, left, and right sides of the vehicle, and the user input may include a top view, a front view, a rear view, a left side view, and a right side view. And selecting at least one of the combination thereof.
  • the apparatus may include at least one lookup table that is distinguished in correspondence with each of the image information, and the at least one lookup table may include a weight corresponding to the image information.
  • the computer readable recording medium may be recorded by an application program, which is implemented by a processor to realize the image processing method supporting the above-described multiple modes.
  • An image conversion or registration device includes a processing system including at least one processor and at least one memory device in which a computer program is stored, wherein the image conversion or registration device is a user. Determining whether to convert or match at least one image in response to an input of a, and outputting a target image by converting or matching the at least one image according to the conversion or matching; Extracting brightness information from the target image; And applying an adjustment value corresponding to the brightness information to convert or match the at least one image.
  • the processing system further causes the image conversion or matching device to adjust the exposure time of the at least one camera device based on the target image, wherein the adjustment value is in accordance with the brightness information and the exposure time. It can support changing, multiple modes.
  • processing system may cause the image conversion or matching device to perform the step of receiving the at least one image data obtained from each of the at least one camera device.
  • the processing system when the at least one image data is received in a Bayer pattern, the processing system further performs the step of outputting the image image by performing color interpolation and first image processing on the Bayer pattern by the image conversion or matching device. You can do that.
  • the first image processing includes calibration, lens distortion correction, color correction, gamma correction, color space conversion, and edge enhancement. Edge Enhancement) may be performed.
  • the outputting of the target image may include selecting at least one of the at least one image corresponding to whether to convert or match the target image; Generating a transformed image obtained by removing perspective from the selected image; Extracting from the converted image corresponding to an area to be inserted into the target image; Placing the extracted data in the target image; And transferring the target image to a display device.
  • the transform image may be obtained by performing an inverse perspective mapping transform.
  • the reverse projection image conversion and placement on the target image may be performed together through a lookup table.
  • the applying of the at least one image to conversion or matching may include batch converting at least some data arranged in the lookup table.
  • the at least one image may be transmitted from at least one camera device mounted in a vehicle, and the user input may be input through an interface mounted in the vehicle.
  • the at least one image may be image information of at least one of the front, rear, left, and right sides of the vehicle, and the user input may include a top view, a front view, a rear view, a left side view, and a right side view. And selecting at least one of the combination thereof.
  • the apparatus may include at least one lookup table that is distinguished in correspondence with each of the image information, and the at least one lookup table may include a weight corresponding to the image information.
  • an image processing apparatus includes: a conversion or matching unit configured to output a target image by converting or matching at least one image in response to a user input; A brightness controller which receives brightness information of the target image and outputs an adjustment value for updating a look-up table in a conversion or matching unit; And an adjusting unit configured to receive the brightness information and output a control signal for adjusting an exposure time of at least one camera device.
  • the image processing apparatus may include color interpolation, demosaicing, calibration, lens distortion correction, color correction, and gamma correction in a Bayer pattern transmitted from at least one camera device.
  • the apparatus may further include an image processor configured to selectively output the at least one image by performing operations such as gamma correction, color space conversion, and edge enhancement.
  • the control unit may transmit a change amount or a change rate generated in adjusting the exposure time of the at least one camera device to the brightness controller, and the brightness controller determines the adjustment value based on the change rate and the brightness information. Can be.
  • the at least one image may be image information of at least one of the front, rear, left, and right sides of the vehicle, and the user input may include a top view, a front view, a rear view, a left side view, and a right side view. And selecting at least one of the combination thereof.
  • a method of displaying an image in a multiple view mode wherein the plurality of outputs display target images acquired by at least one image acquisition unit in a plurality of output modes. Adjusting brightness of the target image converted to be output in a desired output mode among the modes; And displaying the target image in which the white balance is adjusted.
  • a method of displaying an image in a multiple view mode wherein the plurality of outputs display target images acquired by at least one image acquisition unit in a plurality of output modes. Adjusting the light exposure time of the image acquisition unit by using the target image converted to be output in a desired output mode among modes; And displaying the target images acquired according to the adjustment.
  • a method of displaying an image in a multiple view mode wherein the plurality of outputs display target images acquired by at least one image acquisition unit in a plurality of output modes. Adjusting a white balance of the target image converted to be output in a desired output mode among the modes; And displaying the target image in which the white balance is adjusted.
  • an image corrected to be suitable for a specific view mode can be provided to a user.
  • the present invention can reduce the computation, time required to convert, process the image transmitted from the at least one camera device in response to the user input, and can reduce the degradation of the image image.
  • 1 and 2 show an image according to a conventional technology.
  • FIG. 3 illustrates an image processing method in a multiple view mode.
  • FIG. 4 illustrates a first example of an image processing system in a multiple view mode.
  • FIG. 5 illustrates a second example of an image processing system in a multiple view mode.
  • FIG. 6 is a schematic block diagram of an image display apparatus 100 that executes an image display method in a multiple view mode according to an embodiment of the present invention.
  • FIG. 7 is a front view (a), a right side view (b), a rear view (c), and a left side view (d) in the actual view mode as images displayed by the image display apparatus 100.
  • FIG. 8 is a front view a converted from an image acquired by the image acquisition unit 110 to an image to be displayed in a top view mode.
  • FIG. 9 is an around view image generated by using the four images of FIG. 8.
  • 10 is a front view of a vehicle for explaining the difference between the actual view mode and the top view mode.
  • FIG. 11 is a flowchart illustrating an image display method in a multiple view mode according to another exemplary embodiment of the present invention.
  • FIG. 12 is a flowchart illustrating an image display method in a multiple view mode according to another exemplary embodiment of the present invention.
  • FIG. 13 is a flowchart illustrating a method of displaying an image in a multiple view mode according to another embodiment of the present invention.
  • FIG. 14 is a flowchart illustrating a method of displaying an image in a multiple view mode according to another embodiment of the present invention.
  • first and second may be used to describe various components, but the components should not be limited by the terms. The terms are used only for the purpose of distinguishing one component from another.
  • the first component may be referred to as the second component, and similarly, the second component may also be referred to as the first component.
  • FIG. 3 illustrates an image processing method in a multiple view mode.
  • the image processing method in the multi-view mode may include determining whether to convert or match at least one image in response to a user input, and determine brightness information in an extraction region of at least one image. Collecting and determining a correction criterion 14, and converting or matching at least one image according to the correction criterion 15.
  • the image processing method in the multi-view mode includes adjusting the exposure time of the at least one camera device based on the target image (16) and images corresponding to the adjusted exposure time and the extracted brightness information. May further comprise applying 18 to transform or match.
  • the correction criteria may change in correspondence with the brightness information and the exposure time.
  • the at least one camera whose exposure time is adjusted may be a corresponding camera that captures an image disposed on the target image. For example, when the target image is an image captured by one first camera, the exposure time of the first camera may be adjusted. Alternatively, when the target image is made of at least two cameras including the first camera and the second camera, the exposure time of at least two cameras including the first camera and the second camera may be adjusted.
  • the exposure time of each camera of a single camera or at least one camera may be changed in consideration of an area output from the target image in an image photographed by each camera of the single camera or at least one camera in the target image.
  • the part constituting the target image among the images photographed by each camera may be changed, and the exposure time may be adjusted in consideration of this.
  • the image processing method in the multi-view mode may further include the step 10 of receiving at least one image data obtained from each of the at least one camera device.
  • at least one camera device may include a camera mounted on a vehicle. Imaging equipment capable of capturing at least one of the front, rear, right, and left sides of the vehicle, respectively, may acquire surrounding information of the vehicle.
  • the at least one camera device may output image data composed of a Bayer pattern.
  • a camera apparatus includes an image sensor for converting an optical signal incident through a path formed through at least one lens into an electrical signal.
  • the image sensor is composed of pixels arranged in a pattern for each color.
  • R, G, and B color filters are arranged in a specific pattern on monochrome pixel cells arranged by the number of pixels.
  • the R, G, and B color patterns intersect and are arranged according to the visual characteristics of the user (ie, human), which is called a Bayer pattern.
  • Each pattern is a monochrome pixel that only detects the brightness of black and white, not the color. When outputting data having such a pattern, it is composed of several colors through color interpolation or demosaicing process.
  • the image may be changed into the form of the image.
  • the Bayer pattern has a much smaller amount of data than the image data. Therefore, the size of the data transmitted by the in-vehicle communication network can be reduced, so that even when applied to an autonomous vehicle, the peripheral information obtained from at least one camera device disposed in the vehicle is analyzed. Can be removed.
  • the image processing method in the multi-view mode may further include outputting an image image by performing color interpolation and first image processing on the Bayer pattern.
  • the first image processing may include performing at least one of color correction, gamma correction, color space conversion, and edge enhancement.
  • each camera device mounted on the vehicle may output data in the form of an image after performing color interpolation and first image processing on the Bayer pattern output by the image sensor.
  • the image processing apparatus does not need to perform operations for color interpolation and first image processing.
  • the step of outputting the target image by converting or matching at least one image 14 may include selecting at least one of the at least one image according to whether the image is converted or matched, calibration, and lens distortion correction. (lens distortion correction), or generating a transformed image from which the perspective image is removed from the selected image, extracting corresponding to the area to be inserted into the target image from the converted image, placing the extracted data in the target image, and Delivering the image to a display device.
  • lens distortion correction or generating a transformed image from which the perspective image is removed from the selected image, extracting corresponding to the area to be inserted into the target image from the converted image, placing the extracted data in the target image, and Delivering the image to a display device.
  • a converted image may be generated by removing perspective from an image obtained through a camera device mounted on a vehicle.
  • a transform image can be obtained by performing an inverse perspective mapping transform.
  • the process of converting the images and the process of converting or matching at least two images can be done together through a lookup table. If the vehicle has height and angle with the camera installed, and horizontal and vertical angle of view information of the camera, the relationship between the image plane acquired through the camera and the actual plane (top view target image plane) to be shown to the driver or user can be known. In addition, since the camera device mounted on the vehicle is fixed, when converting or matching the image acquired by the at least one camera device, an area to be converted or matched may be set in advance. Therefore, by arranging such information in the form of a lookup table, it is possible to shorten the calculation process and time for conversion and conversion or matching.
  • the step of applying 18 to converting or matching at least one image may include batch converting at least some data arranged in the lookup table.
  • Each image to be converted or matched is obtained from a camera disposed at different positions, and photographs of objects in different directions. Therefore, the amount of light is different for each image.
  • image information that the image processing apparatus may receive may inevitably vary, and computation amount for correcting the brightness may not decrease. Therefore, by gathering brightness information from the converted or matched image and adjusting the exposure time of the camera device based on it, the data in the lookup table used when converting or matching at least one image can be adjusted to provide better quality. The resulting image can be obtained.
  • At least one image may be transmitted from at least one camera device mounted in a vehicle, and an input of a user or a driver may be input through an interface mounted in the vehicle.
  • a user or driver such as a head unit of a vehicle or a multimedia device (Audio-video-navigation), may select information of a direction or space desired by the user or the driver through an interface that can be manipulated while driving.
  • the at least one image is image information of at least one of the front, rear, left and right sides of the vehicle
  • the user input is a top view, front view, rear view, left side view, and right side view.
  • the image processing apparatus may output image information of at least one of front, rear, left, and right rooms to output an image image of the top view. May be converted or matched, and the front view may output information of the front camera.
  • the top view and the front view may have different brightness because the information shown to the user is different, and the image constituting the information is different.
  • an area extracted for the target image output from the image information acquired by each camera in response to a user input may vary.
  • a large portion of the image information obtained from the camera collecting the front information can be shown to the user.
  • a relatively small portion of the image information obtained from the camera collecting the front information may be shown to the user. That is, according to which image the user wants to check, it is different from which camera the image obtained is used, or among the images acquired by a specific camera, the area extracted for display to the user is different. Therefore, when the image is converted or matched in consideration of the image brightness of the region actually provided to the user, that is, the extraction region extracted for conversion or matching in each of the at least one image, a higher quality image may be provided to the user. .
  • the exposure time of the at least one camera is controlled using brightness information such as a top view image in which at least one image is converted or matched, the brightness difference according to the multiple views may be reduced.
  • the image processing apparatus may include at least one lookup table that is distinguished corresponding to each of the image information, and the at least one lookup table may include a weight corresponding to the image information. This may be necessary since the amount of light may be different for each image since the camera apparatus photographs an object in different directions.
  • FIG. 4 illustrates a first example of an image processing system in a multiple view mode.
  • the image processing system may include a camera device 30, an image processing device 40, and a vehicle multimedia device 20.
  • the camera device 30 outputs a Bayer pattern BP by converting an optical signal collected through the lens assembly 32 and the lens assembly 32 including at least one lens to collect the incoming optical signal into an electrical signal. It may include an image sensor 34 to. The camera device 30 may transfer the Bayer pattern BP output from the image sensor 34 to the image processing device 40 without performing color interpolation, image correction, or the like.
  • the image processing apparatus 40 may include color interpolation, demosaicing, color correction, gamma correction, and color space conversion into a Bayer pattern BP transmitted from the camera apparatus 30.
  • a target image by converting or matching the image processor 42 and the at least one image CI output from the image processor 42, which may selectively perform operations such as space conversion, edge enhancement, and the like.
  • a transform or matching unit 44 that outputs an OI, and receives image information (eg, brightness information BI) of the target image OI output from the transforming or matching unit 44. ) Image information (eg, brightness information BI) of the target image OI output from the variable for updating the table in the table, the brightness control unit 48 outputting the adjustment value LC0, and the conversion or matching unit 44.
  • To adjust the exposure time of the at least one camera device 30 It may include an adjusting unit (46) for outputting a control signal (ETC).
  • the adjuster 46 may transmit the change amount or the change rate ETR generated in adjusting the exposure time of the at least one camera device 30 to the brightness controller 48.
  • the brightness controller 148 may determine the adjustment value LC0 based on the change rate ETR and the image information (eg, the brightness information BI) of the target image OI.
  • the conversion or matching unit 44 through the user interface 22 of the in-vehicle multimedia device 20, the desired view mode (eg, top view, front view, rear view, left room view, right room view and The mode control signal VC for at least one of the combinations thereof may be received.
  • the conversion or matching unit 44 may select and convert or match one or more image images that need to be converted or matched according to a user's input.
  • the conversion or matching unit 44 may perform at least one of calibration, lens distortion correction, and at least one operation for generating a converted image from which perspective is removed from the image. For example, in order to convert an image obtained from a camera module mounted on a vehicle into a top view image, it is necessary to remove perspective effects on objects and objects in the image. If the vehicle has height and angle with the camera installed, and horizontal and vertical angle of view information of the camera, the relationship between the image plane acquired through the camera and the actual plane (top view target image plane) to be shown to the driver or user can be known. Using this relationship, the image plane obtained from the camera can be converted into a plane to be shown to the user.
  • the vehicle multimedia apparatus 20 may include a display device 24 capable of displaying a target image OI transmitted from the conversion or matching unit 44 to a user or a driver.
  • FIG. 5 illustrates a second example of an image processing system in a multiple view mode.
  • the image processing system may include a camera apparatus 50, an image processing apparatus 60, and a vehicle multimedia apparatus 20.
  • the image processing system described with reference to FIG. 5 may be similar to the image processing system described with reference to FIG. 4. The following description will focus on the differences.
  • the camera device 50 converts the optical signal collected through the lens assembly 32 and the lens assembly 32 including at least one lens to collect the incoming optical signal into an electrical signal, and outputs a Bayer pattern BP.
  • the Bayer pattern BP output from the image sensor 34 and the image sensor 34 may output the image image II through color interpolation and image correction.
  • the image processing apparatus 60 that receives at least one video image I-I may include a conversion or matching unit 44, a brightness controller 48, and an adjusting unit 46.
  • the conversion or matching unit 44, the brightness control unit 48, and the adjustment unit 46 may operate similarly to that described with reference to FIG. 3.
  • the in-vehicle multimedia device 20 may include a user interface 24 and a display 22 and operate similarly to that described in FIG. 3.
  • FIG. 6 is a schematic block diagram of an image display apparatus 100 that executes an image display method in a multiple view mode according to an embodiment of the present invention.
  • the image display apparatus includes an image acquisition unit 110, an image conversion unit 120, a control unit 130, an image correction unit 140, and an output unit 150, and further includes a memory 160. It may further include.
  • the image acquisition unit 110 acquires a digital image using an image sensor.
  • the digital image obtained for display through the output unit 150 will be referred to as a target image.
  • the image acquisition unit 110 may be implemented in the form of a camera module that is installed in the form of a component in a camera or an arbitrary device that is installed independently to photograph the subject.
  • the image acquisition unit 110 is preferably installed on the outer surface of the vehicle to capture a view including the ground on which the vehicle is located in the direction of the vehicle, the right direction, the reverse direction, and the left direction in the form of a camera module. Do.
  • the image converting unit 120 receives the target image acquired by the image obtaining unit 110 and converts the image into a form suitable for the view mode, that is, the view mode.
  • the view mode refers to a mode according to a view point (viewpoint) that changes according to the change of the output mode.
  • Conversion of the target image refers to conversion of the target image according to the change of the view mode.
  • the image conversion refers to an image acquired by the virtual image acquisition unit 110 installed at a predetermined height on the vehicle with the target image acquired by the image acquisition unit 110 installed at the rear of the vehicle, that is, the top view mode. It means to convert the image from. Therefore, when outputting the target image acquired by the image acquisition unit 110 in the actual view mode, it is not necessary to convert the target image separately.
  • the actual view mode means that there is no change in the viewpoint. That is, the image acquisition unit 110 at a specific position outputs the acquired target image as it is without conversion.
  • the controller 130 may control the image acquirer 110 to adjust a parameter indicating the attribute based on the target image acquired by the image acquirer 110 or the target image converted by the image converter 120. Can be controlled. For example, the controller 130 may adjust the degree of light exposure of the camera included in the image converter 110 based on a preset reference average brightness TH using the average brightness AVG of the converted target image. .
  • the reference average brightness refers to the average brightness of the reference image compared with the average brightness of the target image.
  • the adjustment of the light exposure is to adjust the exposure time to adjust the shutter speed or the aperture of the camera of the image acquisition unit 110. As a result, the charge accumulation time and the gain of the photodiode can be adjusted by the above adjustment.
  • the image corrector 140 may correct the image acquired by the image acquirer 110 or the target image converted by the image converter 120 according to the corresponding view mode. For example, the image corrector 140 may adjust the white balance of the target image based on a preset average brightness TH using the converted average brightness AVG.
  • the output unit 150 may output the target image corrected by the image corrector 140 in a corresponding view mode.
  • the output unit 150 may be implemented as an LCD display device. Prior to the output, the controller 130 may change the output mode, that is, the view mode.
  • the memory 160 may store the average brightness and the reference average brightness of the target image.
  • the image converter 120, the controller 130, and the image corrector 140 may execute a program command stored in the memory 160.
  • the image converter 120, the controller 130, and the image corrector 140 may include a central processing unit (CPU), a graphics processing unit (GPU), or methods according to the present invention. It may mean a dedicated processor.
  • Memory 160 may also be comprised of volatile storage media and / or non-volatile storage media.
  • the memory 160 may be configured as read only memory (ROM) and / or random access memory (RAM).
  • FIG. 7 is a front view (a), a right side view (b), a rear view (c), and a left side view (d) in the actual view mode as images displayed by the image display apparatus 100.
  • the front view (a), the right side view (b), the rear view (c), and the left side view of the image displayed by the image display apparatus 100 are displayed. Images corresponding to (d) are shown respectively.
  • Camera modules corresponding to the image acquisition unit 110 may be installed at a predetermined height on the front, right side, rear side, and right side of the outside of the vehicle.
  • the location where the camera modules are installed may be a radiator grille, right and left indicator lights and vehicle trunk cover of the vehicle.
  • the camera module may be installed such that the lens surface faces the direction of the ground at an angle to the installation position. Therefore, the images shown in FIG. 7 may appear to be longer in the direction than the actual image.
  • FIG. 8 is a front view a converted from an image acquired by the image acquisition unit 110 to an image to be displayed in a top view mode.
  • the image of the front view (a) converted by the image converter 120 is different from the image of the front view (a) before the conversion displayed in the actual view mode of FIG. 7. have.
  • the image in the top view mode which is directly viewed from a certain height on the vehicle, is a corrected image close to the actual appearance.
  • FIG. 9 is an around view image generated by using the four images of FIG. 8.
  • the around view image refers to an image that is captured by a virtual camera installed on a vehicle.
  • the around view image is mainly used to display the surrounding ground, including the roof of the vehicle, marked with parking lines.
  • the four target images actually photographed and the around view image generated based on the same are different.
  • the ratio of the total area of the entire area to the actual captured image may change in the around view mode.
  • the ratio may change even larger.
  • the area under the A-2 may appear to occupy a high ratio in the entire area as the area closest to the camera, but in FIG. The ratio is reduced.
  • 10 is a front view of a vehicle for explaining the difference between the actual view mode and the top view mode.
  • a camera module installed in a vehicle as the image acquisition unit 100 is illustrated.
  • the actual camera modules L-1 and R-1 are camera modules installed in the left or right indicator light.
  • the camera modules L-2 and R-2 are virtual camera modules.
  • a difference may occur in the appearance of images acquired by the two camera modules due to the difference in the angle at which the actual camera modules and the virtual camera modules photograph the subject.
  • the target images acquired by the actual camera modules may be converted to match the view mode so that the output image according to the view mode is output close to the actual state.
  • FIG. 11 is a flowchart illustrating an image display method in a multiple view mode according to another exemplary embodiment of the present invention.
  • a reference value for adjustment is set, and this reference value may be stored in a memory or the like (S110).
  • the image acquisition unit 110 obtains a target image (S120).
  • the image converter 120 converts the obtained target image to fit the desired output mode, that is, the view mode (S130).
  • the target image is corrected (S140). Correction of the target image may be performed in two ways. As a result, the correction of the target image may result in adjusting the brightness of the target image. As one of them, the controller 130 may calculate the average brightness of the target image and adjust the light exposure of the camera of the image acquisition unit 110 based on the reference average brightness using the calculated average brightness of the target image. . As another one, the image corrector 140 may adjust the white balance of the target image based on the reference average brightness using the average brightness of the target image.
  • the output unit 150 displays the corrected target image (S150).
  • the controller 130 may convert the output mode of the output unit 150.
  • the view mode may be changed by changing the view point at which the target image is output according to the change of the output mode.
  • the adjustment of the camera light amount or the white balance of the target image may be performed by the number of different view modes in which the obtained target image is to be displayed.
  • FIG. 12 is a flowchart illustrating an image display method in a multiple view mode according to another exemplary embodiment of the present invention.
  • a reference value for adjustment is set, and this reference value may be stored in a memory or the like (S210).
  • the image acquisition unit 110 obtains a target image (S220).
  • the image converter 120 converts the obtained target image to fit the desired output mode, that is, the view mode, and in particular, converts the obtained target image into an around view image (S230).
  • FIG. 13 is a flowchart illustrating a method of displaying an image in a multiple view mode according to another embodiment of the present invention.
  • the controller 130 converts an output mode, that is, a view mode, for displaying a target image (S310).
  • the image corrector 140 corrects or reverse corrects the target image to fit the converted view mode (S320).
  • the reverse correction here means returning to the state without the said correction.
  • the image corrector 140 corrects the target image according to the converted view mode according to the conversion of the view mode, and returns the corrected target image to the uncorrected target image when there is no conversion of the view mode. have.
  • the output unit 150 displays the corrected or de-corrected target image.
  • FIG. 14 is a flowchart illustrating a method of displaying an image in a multiple view mode according to another embodiment of the present invention.
  • FIG. 14 illustrates a flowchart of adjusting the light exposure time of the image acquisition unit 110, which may be implemented as a camera module.
  • a threshold (TH) value may be set in advance, and the reference value may be stored in advance in a memory or the like (S410).
  • the target image acquired by the image acquisition unit 110 is input to the control unit 130 (S420).
  • the controller 130 calculates an average brightness (AVG) of the target image (S430).
  • the current exposure time is maintained (S441).
  • the average brightness and the reference value is different (S445) and the average brightness and the reference value are compared (S445), if the average brightness is larger than the reference value, the current exposure time can be reduced by adjustment (S442), and the average brightness is If it is not larger than the reference value, the current exposure time may be increased by adjustment (S443).
  • an image display method in a multi-view mode may adjust brightness of each pixel constituting the target image by using a weight before converting the acquired target image into an image suitable for the corresponding view mode.
  • each pixel has a weight having a fixed weight according to the position of each pixel.
  • each component is illustrated in another block and described as an example, but each component may be configured as one block.
  • each block may be configured in a controller or a processor to perform the above-described series of operations.

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Studio Devices (AREA)
  • Closed-Circuit Television Systems (AREA)
  • Image Processing (AREA)

Abstract

Disclosed is a method for displaying an image in a multi-view mode. A method according to the present embodiment comprises the steps of: adjusting a light exposure time of an image acquisition unit by using a target image converted to be output in a desired output mode among a plurality of output modes; and displaying target images acquired according to the adjustment. Therefore, according to the present invention, an image corrected to be suitable for a specific view mode can be provided to a user.

Description

다중 뷰 모드에서의 영상 디스플레이 방법Image display method in multi view mode

본 발명은 다중 뷰 모드에서의 영상 디스플레이 방법에 관한 것으로, 더욱 상세하게는 어라운드 뷰 모니터링(around view monitoring, AVM)을 위해 적어도 하나의 영상 획득부가 획득한 영상 및 이를 이용하여 생성된 어라운드 뷰(around view) 영상을 다중 뷰 모드에서 디스플레이 하는 방법에 관한 것이다.The present invention relates to an image display method in a multi-view mode, and more particularly, to an image obtained by at least one image acquisition unit for around view monitoring (AVM) and an around view generated using the same. view) relates to a method of displaying an image in a multi-view mode.

자동차 및 교통량의 증가로 인하여 교통사고 급증이 사회 문제화 되면서 사고를 미연에 방지할 수 있는 운전자 보조 시스템에 대한 연구가 활발하게 이루어지고 있다. 운전자 보조 시스템은 운전자의 안전한 운전을 위해 주행 또는 주차 중에 운전자에게 도움을 주는 시스템이다.As the increase of automobiles and traffic volume has caused a sudden increase in traffic accidents, researches on driver assistance systems that can prevent accidents are being actively conducted. The driver assistance system is a system that assists the driver while driving or parking for the driver's safe driving.

운전자 보조 시스템은 운전자가 운전석에 앉은 상태에서 차량 외부의 상황을 파악할 수 있도록 영상 정보를 제공하는 장치를 필수적으로 포함한다. 그리고 영상 정보를 제공하는 장치는 카메라를 포함한다.The driver assistance system essentially includes a device that provides image information so that the driver can grasp the situation outside the vehicle while sitting in the driver's seat. The apparatus for providing image information includes a camera.

상기 영상 정보를 운전자에게 제공하기 위하여 차량 외부에는 여러 방향을 향하는 복수의 카메라들이 설치될 수 있다. 그리고 각 카메라에서 획득된 영상이 운전자에게 제공됨에 있어서, 획득된 영상들은 여러 가지 뷰 모드에 따라 다르게 변환되어서 운전자에게 제공될 수 있다.In order to provide the image information to the driver, a plurality of cameras facing in various directions may be installed outside the vehicle. In addition, since the image acquired from each camera is provided to the driver, the acquired images may be differently converted according to various view modes and provided to the driver.

그런데 기존의 기술에 의하면 상기 제공되는 영상들이 실제 운전자가 시각적으로 확인할 수 있는 디스플레이 화면에 표시되는 뷰 모드에 따른 영상에 기초하지 않고 보정되는 경향이 있었다. 이러한 경향은 어라운드 뷰 모니터링(around view monitoring, AVM) 시스템을 위한 영상에도 찾아 볼 수 있다.However, according to the existing technology, the provided images tend to be corrected based on the image according to the view mode displayed on the display screen which the driver can visually confirm. This trend can also be seen in images for around view monitoring (AVM) systems.

어라운드 뷰 모니터링 시스템은 여러 대의 카메라를 장착하여 차량 주변 상황을 운전자에게 영상으로 제공하기 위해 최근 활발히 연구되고 있는 시스템이다. 독일과 일본의 여러 자동차 회사는 이미 제품으로 개발하여 출시하고 있다. 최근에는 여러 대의 카메라를 장착하여 운전자에게 하늘 위에서 보는 것 같은 조감도(Bird's Eye View)를 제공하는 시스템들이 주류를 이루고 있다.The around view monitoring system is being actively researched recently to provide the driver with a video of the situation around the vehicle equipped with multiple cameras. Several automotive companies in Germany and Japan have already developed and released products. In recent years, systems that have multiple cameras to give the driver a bird's eye view like the view from the sky have become mainstream.

어라운드 뷰 모니터링 시스템은 영상 정보를 제공하는 장치를 통해 제한된 수의 카메라에서 획득되는 이미지를 이용하여 물체, 예를 들면 자동차 주위를 360도의 시야 각으로 표시하는 이미지를 생성할 수 있다. 이때 카메라에 장착되는 렌즈는 넓은 시야각을 얻기 위해 어안렌즈 또는 비슷한 유형의 광각 렌즈가 사용될 수 있다. 그런데, 상기 렌즈에 의해 획득된 이미지들은 사람의 시각에 기초하는 이미지들과 다르고, 자동차에 설치되는 카메라 렌즈의 방향과 비교하여 최종 출력될 이미지가 탑 뷰(top view) 형태의 이미지이기 때문에 복수의 카메라들에서 획득된 이미지들은 각종 영상 신호 처리를 거쳐야 한다.The around view monitoring system may generate an image representing an object, for example, a 360-degree field of view around an object, for example, a vehicle, by using images acquired from a limited number of cameras through a device for providing image information. In this case, the lens mounted on the camera may be a fisheye lens or a similar type of wide-angle lens to obtain a wide viewing angle. However, the images acquired by the lens are different from those based on human vision, and the images to be finally output compared with the direction of the camera lens installed in the vehicle are top view images. Images acquired from the cameras must go through various image signal processing.

이러한 일련의 과정이 필요한 이유는 자동차의 지붕이 정면으로 촬영되도록 자동차에 카메라가 설치될 수 없기 때문이다.This series of processes is necessary because cameras cannot be installed in the car so that the roof of the car is photographed in front.

도 1 및 도 2는 기존의 기술에 따른 영상을 나타내다.1 and 2 show an image according to a conventional technology.

도 1 및 도 2을 참조하면, 도 1의 영상은 차량의 우측면에 설치된 카메라가 획득한 영상을 나타내고, 도 2의 영상은 상기 좌측 영상이 포함된 어라운드 뷰 영상을 나타낸다. 도 1 영상에서 차량의 그림자로 인한 어두운 영역과 조명에 의한 밝은 영역의 비율이, 어라운드 뷰 영상에서는 다르게 나타남으로써 도 2 영상에서는 조명에 의한 밝은 영역의 밝기가 포화되어 백색광으로 나타나 있다. 이는 도 1 영상을 기준으로 광 노출을 조정하거나 화이트 밸런스를 조정함에 따른 결과이다.1 and 2, the image of FIG. 1 represents an image acquired by a camera installed on a right side of a vehicle, and the image of FIG. 2 represents an around view image including the left image. In the image of FIG. 1, the ratio of the dark area due to the shadow of the vehicle and the bright area due to the lighting is different from the around view image, so that the brightness of the bright area due to the illumination is saturated in the image of FIG. This is a result of adjusting light exposure or adjusting white balance based on the image of FIG. 1.

상기와 같은 문제점을 해결하기 위한 본 발명의 목적은, 특정 뷰 모드에서 표시되는 영상을 해당 뷰 모드에서 디스플레이 되는데 적합하게 보정하여 보정된 영상을 해당 뷰 모드에서 디스플레이 하는 방법을 제공하는 데 있다.An object of the present invention for solving the above problems is to provide a method for displaying a corrected image in the corresponding view mode by properly correcting the image displayed in the specific view mode in the corresponding view mode.

본 발명의 일 실시예에 따른 이미지 처리 방법은 적어도 하나의 카메라로부터 획득한 이미지를 복수의 모드에 따른 타겟 이미지를 디스플레이 하는 방법에 있어서, 제1 모드에서 제2 모드로 변경됨 따라 출력되는 영상이 상기 제1 모드의 제1 타겟 이미지에서 상기 제2 모드의 제2 타겟 이미지로 변경되어 출력되는 단계; 및 상기 제2 타겟 이미지의 밝기가 상기 제2 타겟 이미지를 기준으로 조절되는 단계를 포함할 수 있다.In an image processing method according to an embodiment of the present invention, a method of displaying a target image according to a plurality of modes of an image acquired from at least one camera, wherein the output image is changed from the first mode to the second mode. Changing and outputting from the first target image of the first mode to the second target image of the second mode; And adjusting the brightness of the second target image based on the second target image.

본 발명의 다른 실시예에 따른 다중 모드를 지원하는 이미지 처리 방법은 사용자의 입력에 대응하여 적어도 하나의 수신 영상에 대한 변환 또는 정합 여부를 결정하고, 상기 변환 또는 정합 여부에 따라 상기 적어도 하나의 수신 영상을 변환 또는 정합하여 타겟 이미지를 출력하는 단계; 상기 타겟 이미지에서 밝기 정보를 추출하는 단계; 및 상기 밝기 정보에 대응하는 조정값을 상기 적어도 하나의 영상을 변환 또는 정합하는데 적용시키는 단계를 포함할 수 있다.According to another aspect of the present invention, an image processing method supporting multiple modes determines whether to convert or match at least one received image in response to a user input, and receives the at least one received according to the conversion or matching. Outputting a target image by converting or matching an image; Extracting brightness information from the target image; And applying an adjustment value corresponding to the brightness information to convert or match the at least one image.

또한, 다중 모드를 지원하는 이미지 처리 방법은 상기 타겟 이미지를 바탕으로 적어도 하나의 카메라 장치의 노출 시간을 조정하는 단계를 더 포함하고, 상기 조정값은 상기 밝기 정보 및 상기 노출 시간에 따라 변할 수 있다.The image processing method supporting multiple modes may further include adjusting an exposure time of at least one camera device based on the target image, wherein the adjustment value may vary according to the brightness information and the exposure time. .

또한, 다중 모드를 지원하는 이미지 처리 방법은 적어도 하나의 카메라 장치의 각각으로부터 획득된 상기 적어도 하나의 영상 데이터를 수신하는 단계를 더 포함할 수 있다.In addition, the image processing method supporting the multi mode may further include receiving the at least one image data obtained from each of the at least one camera device.

또한, 상기 적어도 하나의 영상 데이터가 베이어 패턴으로 수신되는 경우, 다중 모드를 지원하는 이미지 처리 방법은 상기 베이어 패턴에 색보간 및 제1이미지처리를 수행하여 영상 이미지를 출력하는 단계를 더 포함할 수 있다.In addition, when the at least one image data is received in a Bayer pattern, an image processing method supporting multiple modes may further include outputting an image image by performing color interpolation and first image processing on the Bayer pattern. have.

또한, 제1이미지처리는 캘리브레이션(calibration), 렌즈왜곡보정(lens distortion correction), 색 보정(color correction), 감마 보정(gamma correction), 색 공간 변환(color space conversion), 및 에지 인핸스먼트(Edge Enhancement) 중 적어도 하나를 수행하는 것을 포함할 수 있다.In addition, the first image processing includes calibration, lens distortion correction, color correction, gamma correction, color space conversion, and edge enhancement. It may include performing at least one of (Enhancement).

또한, 상기 타겟 이미지를 출력하는 단계는 상기 변환 또는 정합 여부에 대응하여 상기 적어도 하나의 영상 중 적어도 하나를 선택하는 단계; 및 선택된 영상에서 원근감을 제거한 변환 이미지를 생성하는 단계; 상기 변환된 영상에서 상기 타겟 이미지에 삽입될 영역에 대응하여 추출하는 단계; 추출된 데이터를 상기 타겟 이미지에 배치시키는 단계; 및 상기 타겟 이미지를 디스플레이 장치로 전달하는 단계를 포함할 수 있다.The outputting of the target image may include selecting at least one of the at least one image corresponding to whether to convert or match the target image; Generating a transformed image obtained by removing perspective from the selected image; Extracting from the converted image corresponding to an area to be inserted into the target image; Placing the extracted data in the target image; And transferring the target image to a display device.

또한, 상기 변환 이미지는 역투영 이미지 변환(inverse perspective mapping transform)을 수행하여 얻어질 수 있다.In addition, the transform image may be obtained by performing an inverse perspective mapping transform.

또한, 상기 역투영 이미지 변환 및 상기 타겟 이미지에 배치는 순람표(lookup table)를 통해 함께 이루어질 수 있다.In addition, the reverse projection image conversion and placement on the target image may be performed together through a lookup table.

또한, 상기 적어도 하나의 영상을 변환 또는 정합하는데 적용시키는 단계는 상기 조정값은 상기 순람표(lookup table)에 배열된 적어도 일부의 데이터를 일괄 변환하는 단계를 포함할 수 있다.The applying of the at least one image to conversion or matching may include batch converting at least some data arranged in the lookup table.

또한, 상기 적어도 하나의 영상은 차량에 탑재된 적어도 하나의 카메라 장치로부터 전달되며, 상기 사용자의 입력은 차량에 탑재된 인터페이스를 통해 입력될 수 있다.The at least one image may be transmitted from at least one camera device mounted in a vehicle, and the user input may be input through an interface mounted in the vehicle.

또한, 상기 적어도 하나의 영상은 상기 차량의 전방, 후방, 좌측방, 우측방 중 적어도 하나에 대한 영상 정보이며, 상기 사용자 입력은 탑뷰(top view), 전방뷰, 후방뷰, 좌측방뷰, 우측방뷰 및 그에 따른 조합 중 적어도 하나를 선택하는 것을 포함할 수 있다.The at least one image may be image information of at least one of the front, rear, left, and right sides of the vehicle, and the user input may include a top view, a front view, a rear view, a left side view, and a right side view. And selecting at least one of the combination thereof.

또한, 상기 영상 정보 각각에 대응하여 구별되는 적어도 하나의 순람표(lookup table)를 포함하고, 상기 적어도 하나의 순람표(lookup table)는 상기 영상 정보에 대응하는 가중치를 포함할 수 있다.The apparatus may include at least one lookup table that is distinguished in correspondence with each of the image information, and the at least one lookup table may include a weight corresponding to the image information.

본 발명의 다른 실시예에 따른 컴퓨터 판독 가능한 기록매체는 프로세서에 의해 실행되는 것을 통하여, 전술한 다중 모드를 지원하는 이미지 처리 방법을 실현하는 것을 특징으로 하는 응용 프로그램이 기록될 수 있다.The computer readable recording medium according to another embodiment of the present invention may be recorded by an application program, which is implemented by a processor to realize the image processing method supporting the above-described multiple modes.

본 발명의 또 다른 실시예에 따른 이미지 변환 또는 정합 장치는 적어도 하나의 프로세서와 컴퓨터 프로그램이 저장된 적어도 하나의 메모리 장치를 포함하는 프로세싱 시스템을 포함하고, 상기 프로세싱 시스템은 상기 이미지 변환 또는 정합 장치가 사용자의 입력에 대응하여 적어도 하나의 영상에 대한 변환 또는 정합 여부를 결정하고, 상기 변환 또는 정합 여부에 따라 상기 적어도 하나의 영상을 변환 또는 정합하여 타겟 이미지를 출력하는 단계; 상기 타겟 이미지에서 밝기 정보를 추출하는 단계; 및 상기 밝기 정보에 대응하는 조정값을 상기 적어도 하나의 영상을 변환 또는 정합하는데 적용시키는 단계를 수행하도록 할 수 있다.An image conversion or registration device according to another embodiment of the present invention includes a processing system including at least one processor and at least one memory device in which a computer program is stored, wherein the image conversion or registration device is a user. Determining whether to convert or match at least one image in response to an input of a, and outputting a target image by converting or matching the at least one image according to the conversion or matching; Extracting brightness information from the target image; And applying an adjustment value corresponding to the brightness information to convert or match the at least one image.

또한, 상기 프로세싱 시스템은 상기 이미지 변환 또는 정합 장치가 상기 타겟 이미지를 바탕으로 적어도 하나의 카메라 장치의 노출 시간을 조정하는 단계를 더 수행하도록 하고, 상기 조정값은 상기 밝기 정보 및 상기 노출 시간에 따라 변하는, 다중 모드를 지원할 수 있다.Further, the processing system further causes the image conversion or matching device to adjust the exposure time of the at least one camera device based on the target image, wherein the adjustment value is in accordance with the brightness information and the exposure time. It can support changing, multiple modes.

또한, 상기 프로세싱 시스템은 상기 이미지 변환 또는 정합 장치가 적어도 하나의 카메라 장치의 각각으로부터 획득된 상기 적어도 하나의 영상 데이터를 수신하는 단계를 수행하도록 할 수 있다.In addition, the processing system may cause the image conversion or matching device to perform the step of receiving the at least one image data obtained from each of the at least one camera device.

또한, 상기 적어도 하나의 영상 데이터가 베이어 패턴으로 수신되는 경우, 상기 프로세싱 시스템은 상기 이미지 변환 또는 정합 장치가 상기 베이어 패턴에 색보간 및 제1이미지처리를 수행하여 영상 이미지를 출력하는 단계를 더 수행하도록 할 수 있다.In addition, when the at least one image data is received in a Bayer pattern, the processing system further performs the step of outputting the image image by performing color interpolation and first image processing on the Bayer pattern by the image conversion or matching device. You can do that.

또한, 상기 제1이미지처리는 캘리브레이션(calibration), 렌즈왜곡보정(lens distortion correction), 색 보정(color correction), 감마 보정(gamma correction), 색 공간 변환(color space conversion), 및 에지 인핸스먼트(Edge Enhancement) 중 적어도 하나를 수행하는 것을 포함할 수 있다.In addition, the first image processing includes calibration, lens distortion correction, color correction, gamma correction, color space conversion, and edge enhancement. Edge Enhancement) may be performed.

또한, 상기 타겟 이미지를 출력하는 단계는 상기 변환 또는 정합 여부에 대응하여 상기 적어도 하나의 영상 중 적어도 하나를 선택하는 단계; 및 선택된 영상에서 원근감을 제거한 변환 이미지를 생성하는 단계; 상기 변환된 영상에서 상기 타겟 이미지에 삽입될 영역에 대응하여 추출하는 단계; 추출된 데이터를 상기 타겟 이미지에 배치시키는 단계; 및 상기 타겟 이미지를 디스플레이 장치로 전달하는 단계를 포함할 수 있다.The outputting of the target image may include selecting at least one of the at least one image corresponding to whether to convert or match the target image; Generating a transformed image obtained by removing perspective from the selected image; Extracting from the converted image corresponding to an area to be inserted into the target image; Placing the extracted data in the target image; And transferring the target image to a display device.

또한, 상기 변환 이미지는 역투영 이미지 변환(inverse perspective mapping transform)을 수행하여 얻어질 수 있다.In addition, the transform image may be obtained by performing an inverse perspective mapping transform.

또한, 상기 역투영 이미지 변환 및 상기 타겟 이미지에 배치는 순람표(lookup table)를 통해 함께 이루어질 수 있다.In addition, the reverse projection image conversion and placement on the target image may be performed together through a lookup table.

또한, 상기 적어도 하나의 영상을 변환 또는 정합하는데 적용시키는 단계는 상기 조정값은 상기 순람표(lookup table)에 배열된 적어도 일부의 데이터를 일괄 변환하는 단계를 포함할 수 있다.The applying of the at least one image to conversion or matching may include batch converting at least some data arranged in the lookup table.

또한, 상기 적어도 하나의 영상은 차량에 탑재된 적어도 하나의 카메라 장치로부터 전달되며, 상기 사용자의 입력은 차량에 탑재된 인터페이스를 통해 입력될 수 있다.The at least one image may be transmitted from at least one camera device mounted in a vehicle, and the user input may be input through an interface mounted in the vehicle.

또한, 상기 적어도 하나의 영상은 상기 차량의 전방, 후방, 좌측방, 우측방 중 적어도 하나에 대한 영상 정보이며, 상기 사용자 입력은 탑뷰(top view), 전방뷰, 후방뷰, 좌측방뷰, 우측방뷰 및 그에 따른 조합 중 적어도 하나를 선택하는 것을 포함할 수 있다.The at least one image may be image information of at least one of the front, rear, left, and right sides of the vehicle, and the user input may include a top view, a front view, a rear view, a left side view, and a right side view. And selecting at least one of the combination thereof.

또한, 상기 영상 정보 각각에 대응하여 구별되는 적어도 하나의 순람표(lookup table)를 포함하고, 상기 적어도 하나의 순람표(lookup table)는 상기 영상 정보에 대응하는 가중치를 포함할 수 있다.The apparatus may include at least one lookup table that is distinguished in correspondence with each of the image information, and the at least one lookup table may include a weight corresponding to the image information.

본 발명의 또 다른 실시예에 따른 이미지 처리 장치는 사용자의 입력에 대응하여 적어도 하나의 영상을 변환 또는 정합하여 타겟 이미지를 출력하는 변환 또는 정합부; 상기 타겟 이미지의 밝기 정보를 전달받아 변환 또는 정합부 내 순람표를 갱신하기 위한 조정값을 출력하는 밝기 제어부; 및 상기 밝기 정보를 전달받아 적어도 하나의 카메라 장치의 노출시간을 조정하기 위한 제어신호를 출력하는 조정부를 포함할 수 있다.In accordance with still another aspect of the present invention, an image processing apparatus includes: a conversion or matching unit configured to output a target image by converting or matching at least one image in response to a user input; A brightness controller which receives brightness information of the target image and outputs an adjustment value for updating a look-up table in a conversion or matching unit; And an adjusting unit configured to receive the brightness information and output a control signal for adjusting an exposure time of at least one camera device.

또한, 이미지 처리 장치는 적어도 하나의 카메라 장치로부터 전달되는 베이어 패턴에 색 보간(color interpolation, demosaicing), 캘리브레이션(calibration), 렌즈왜곡보정(lens distortion correction), 색 보정(color correction), 감마 보정(gamma correction), 색 공간 변환(color space conversion), 및 에지 인핸스먼트(Edge Enhancement) 등의 작업을 선택적으로 수행하여 상기 적어도 하나의 영상을 출력할 수 있는 이미지 처리부를 더 포함할 수 있다.In addition, the image processing apparatus may include color interpolation, demosaicing, calibration, lens distortion correction, color correction, and gamma correction in a Bayer pattern transmitted from at least one camera device. The apparatus may further include an image processor configured to selectively output the at least one image by performing operations such as gamma correction, color space conversion, and edge enhancement.

또한, 상기 조정부는 상기 적어도 하나의 카메라 장치의 노출시간을 조정하는 데 있어 발생하는 변화량 또는 변화율을 상기 밝기 제어부로 전달하고, 상기 밝기 제어부는 상기 변화율과 상기 밝기 정보를 바탕으로 상기 조정값을 결정할 수 있다.The control unit may transmit a change amount or a change rate generated in adjusting the exposure time of the at least one camera device to the brightness controller, and the brightness controller determines the adjustment value based on the change rate and the brightness information. Can be.

또한, 상기 적어도 하나의 영상은 상기 차량의 전방, 후방, 좌측방, 우측방 중 적어도 하나에 대한 영상 정보이며, 상기 사용자 입력은 탑뷰(top view), 전방뷰, 후방뷰, 좌측방뷰, 우측방뷰 및 그에 따른 조합 중 적어도 하나를 선택하는 것을 포함할 수 있다.The at least one image may be image information of at least one of the front, rear, left, and right sides of the vehicle, and the user input may include a top view, a front view, a rear view, a left side view, and a right side view. And selecting at least one of the combination thereof.

본 발명의 또 다른 실시예에 따른 다중 뷰 모드에서의 영상 디스플레이 방법은 적어도 하나의 영상 획득부가 획득한 타겟 영상들(target images)을 복수의 출력 모드들로 디스플레이 하는 방법에 있어서, 상기 복수의 출력 모드들 중 희망 출력 모드에서 출력되도록 변환된 타겟 영상의 밝기를 조정하는 단계; 및 화이트 밸런스가 조정된 상기 타겟 영상을 디스플레이 하는 단계를 포함할 수 있다.According to still another aspect of the present invention, there is provided a method of displaying an image in a multiple view mode, wherein the plurality of outputs display target images acquired by at least one image acquisition unit in a plurality of output modes. Adjusting brightness of the target image converted to be output in a desired output mode among the modes; And displaying the target image in which the white balance is adjusted.

본 발명의 또 다른 실시예에 따른 다중 뷰 모드에서의 영상 디스플레이 방법은 적어도 하나의 영상 획득부가 획득한 타겟 영상들(target images)을 복수의 출력 모드들로 디스플레이 하는 방법에 있어서, 상기 복수의 출력 모드들 중 희망 출력 모드에서 출력되도록 변환된 타겟 영상을 이용하여, 상기 영상 획득부의 광 노출 시간을 조정하는 단계; 및 상기 조정에 따라 획득된 타겟 영상들을 디스플레이 하는 단계를 포함할 수 있다.According to still another aspect of the present invention, there is provided a method of displaying an image in a multiple view mode, wherein the plurality of outputs display target images acquired by at least one image acquisition unit in a plurality of output modes. Adjusting the light exposure time of the image acquisition unit by using the target image converted to be output in a desired output mode among modes; And displaying the target images acquired according to the adjustment.

본 발명의 또 다른 실시예에 따른 다중 뷰 모드에서의 영상 디스플레이 방법은 적어도 하나의 영상 획득부가 획득한 타겟 영상들(target images)을 복수의 출력 모드들로 디스플레이 하는 방법에 있어서, 상기 복수의 출력 모드들 중 희망 출력 모드에서 출력되도록 변환된 타겟 영상의 화이트 밸런스를 조정하는 단계; 및 화이트 밸런스가 조정된 상기 타겟 영상을 디스플레이 하는 단계를 포함할 수 있다.According to still another aspect of the present invention, there is provided a method of displaying an image in a multiple view mode, wherein the plurality of outputs display target images acquired by at least one image acquisition unit in a plurality of output modes. Adjusting a white balance of the target image converted to be output in a desired output mode among the modes; And displaying the target image in which the white balance is adjusted.

상기 본 발명의 양태들은 본 발명의 바람직한 실시예들 중 일부에 불과하며, 본원 발명의 기술적 특징들이 반영된 다양한 실시예들이 당해 기술분야의 통상적인 지식을 가진 자에 의해 이하 상술할 본 발명의 상세한 설명을 기반으로 도출되고 이해될 수 있다.The above aspects of the present invention are only some of the preferred embodiments of the present invention, and various embodiments in which the technical features of the present invention are reflected will be described in detail below by those skilled in the art. Can be derived and understood.

본 발명에 따른 장치에 대한 효과에 대해 설명하면 다음과 같다.The effects on the apparatus according to the present invention are described as follows.

본 발명에 의하면, 특정 뷰 모드에 적합하도록 보정된 영상을 사용자에게 제공할 수 있다.According to the present invention, an image corrected to be suitable for a specific view mode can be provided to a user.

또한, 본 발명은 사용자의 입력에 대응하여 적어도 하나의 카메라 장치로부터 전달된 영상을 변환, 가공하는 데 필요한 연산, 시간을 줄일 수 있고, 영상 이미지의 품질 저하를 줄일 수 있다.In addition, the present invention can reduce the computation, time required to convert, process the image transmitted from the at least one camera device in response to the user input, and can reduce the degradation of the image image.

본 발명에서 얻을 수 있는 효과는 이상에서 언급한 효과들로 제한되지 않으며 언급하지 않은 또 다른 효과들은 아래의 기재로부터 본 발명이 속하는 분야에서 통상의 지식을 가진 자에게 명확하게 이해될 수 있을 것이다.Effects obtained in the present invention are not limited to the above-mentioned effects, and other effects not mentioned above may be clearly understood by those skilled in the art from the following description.

도 1 및 도 2는 기존의 기술에 따른 영상을 나타낸다.1 and 2 show an image according to a conventional technology.

도 3는 다중 뷰 모드에서의 영상 처리 방법을 설명한다.3 illustrates an image processing method in a multiple view mode.

도 4은 다중 뷰 모드에서의 영상 처리 시스템의 제1예를 설명한다.4 illustrates a first example of an image processing system in a multiple view mode.

도 5은 다중 뷰 모드에서의 영상 처리 시스템의 제2예를 설명한다.5 illustrates a second example of an image processing system in a multiple view mode.

도 6는 본 발명의 실시예에 따른 다중 뷰 모드에서의 영상 디스플레이 방법을 실행하는 영상 디스플레이 장치(100)의 개략적인 블록도이다.6 is a schematic block diagram of an image display apparatus 100 that executes an image display method in a multiple view mode according to an embodiment of the present invention.

도 7은 영상 디스플레이 장치(100)가 디스플레이 하는 영상들로서 실제 뷰 모드에서의 정면도(a), 우측면도(b), 후면도(c) 및 좌측면도(d)를 각각 나타낸다.7 is a front view (a), a right side view (b), a rear view (c), and a left side view (d) in the actual view mode as images displayed by the image display apparatus 100.

도 8은 영상 획득부(110)가 획득한 영상들 중에서 탑 뷰(top view) 모드에서 디스플레이될 영상으로 변환된 정면도(a)를 나타낸다.FIG. 8 is a front view a converted from an image acquired by the image acquisition unit 110 to an image to be displayed in a top view mode.

도 9은 도 8의 4 개의 영상들을 이용하여 생성된 어라운드 뷰(around view) 영상이다.FIG. 9 is an around view image generated by using the four images of FIG. 8.

도 10는 실제 뷰 모드 및 탑 뷰 모드에서의 차이점을 설명하기 위한 차량의 정면도이다.10 is a front view of a vehicle for explaining the difference between the actual view mode and the top view mode.

도 11은 본 발명의 다른 실시예에 따른 다중 뷰 모드에서의 영상 디스플레이 방법에 관한 흐름도이다.11 is a flowchart illustrating an image display method in a multiple view mode according to another exemplary embodiment of the present invention.

도 12은 본 발명의 또 다른 실시예에 따른 다중 뷰 모드에서의 영상 디스플레이 방법에 관한 흐름도이다.12 is a flowchart illustrating an image display method in a multiple view mode according to another exemplary embodiment of the present invention.

도 13는 본 발명의 또 다른 실시예에 따른 다중 뷰 모드에서의 영상 디스플레이 방법에 관한 흐름도이다.13 is a flowchart illustrating a method of displaying an image in a multiple view mode according to another embodiment of the present invention.

도 14은 본 발명의 또 다른 실시예에 따른 다중 뷰 모드에서의 영상 디스플레이 방법에 관한 흐름도이다.14 is a flowchart illustrating a method of displaying an image in a multiple view mode according to another embodiment of the present invention.

본 발명은 다양한 변경을 가할 수 있고 여러 가지 실시예를 가질 수 있는 바, 특정 실시예들을 도면에 예시하고 상세하게 설명하고자 한다. 그러나, 이는 본 발명을 특정한 실시 형태에 대해 한정하려는 것이 아니며, 본 발명의 사상 및 기술 범위에 포함되는 모든 변경, 균등물 내지 대체물을 포함하는 것으로 이해되어야 한다.As the present invention allows for various changes and numerous embodiments, particular embodiments will be illustrated in the drawings and described in detail in the written description. However, this is not intended to limit the present invention to specific embodiments, it should be understood to include all modifications, equivalents, and substitutes included in the spirit and scope of the present invention.

제1, 제2 등의 용어는 다양한 구성요소들을 설명하는데 사용될 수 있지만, 상기 구성요소들은 상기 용어들에 의해 한정되어서는 안 된다. 상기 용어들은 하나의 구성요소를 다른 구성요소로부터 구별하는 목적으로만 사용된다. 예를 들어, 본 발명의 권리 범위를 벗어나지 않으면서 제1 구성요소는 제2 구성요소로 명명될 수 있고, 유사하게 제2 구성요소도 제1 구성요소로 명명될 수 있다. 및/또는 이라는 용어는 복수의 관련된 기재된 항목들의 조합 또는 복수의 관련된 기재된 항목들 중의 어느 항목을 포함한다.Terms such as first and second may be used to describe various components, but the components should not be limited by the terms. The terms are used only for the purpose of distinguishing one component from another. For example, without departing from the scope of the present invention, the first component may be referred to as the second component, and similarly, the second component may also be referred to as the first component. The term and / or includes a combination of a plurality of related items or any item of a plurality of related items.

어떤 구성요소가 다른 구성요소에 "연결되어" 있다거나 "접속되어" 있다고 언급된 때에는, 그 다른 구성요소에 직접적으로 연결되어 있거나 또는 접속되어 있을 수도 있지만, 중간에 다른 구성요소가 존재할 수도 있다고 이해되어야 할 것이다. 반면에, 어떤 구성요소가 다른 구성요소에 "직접 연결되어" 있다거나 "직접 접속되어" 있다고 언급된 때에는, 중간에 다른 구성요소가 존재하지 않는 것으로 이해되어야 할 것이다.When a component is referred to as being "connected" or "connected" to another component, it may be directly connected to or connected to that other component, but it may be understood that other components may be present in between. Should be. On the other hand, when a component is said to be "directly connected" or "directly connected" to another component, it should be understood that there is no other component in between.

본 출원에서 사용한 용어는 단지 특정한 실시예를 설명하기 위해 사용된 것으로, 본 발명을 한정하려는 의도가 아니다. 단수의 표현은 문맥상 명백하게 다르게 뜻하지 않는 한, 복수의 표현을 포함한다. 본 출원에서, "포함하다" 또는 "가지다" 등의 용어는 명세서상에 기재된 특징, 숫자, 단계, 동작, 구성요소, 부품 또는 이들을 조합한 것이 존재함을 지정하려는 것이지, 하나 또는 그 이상의 다른 특징들이나 숫자, 단계, 동작, 구성요소, 부품 또는 이들을 조합한 것들의 존재 또는 부가 가능성을 미리 배제하지 않는 것으로 이해되어야 한다.The terminology used herein is for the purpose of describing particular example embodiments only and is not intended to be limiting of the present invention. Singular expressions include plural expressions unless the context clearly indicates otherwise. In this application, the terms "comprise" or "have" are intended to indicate that there is a feature, number, step, operation, component, part, or combination thereof described in the specification, and one or more other features. It is to be understood that the present invention does not exclude the possibility of the presence or the addition of numbers, steps, operations, components, components, or a combination thereof.

다르게 정의되지 않는 한, 기술적이거나 과학적인 용어를 포함해서 여기서 사용되는 모든 용어들은 본 발명이 속하는 기술 분야에서 통상의 지식을 가진 자에 의해 일반적으로 이해되는 것과 동일한 의미를 가지고 있다. 일반적으로 사용되는 사전에 정의되어 있는 것과 같은 용어들은 관련 기술의 문맥 상 가지는 의미와 일치하는 의미를 가진 것으로 해석되어야 하며, 본 출원에서 명백하게 정의하지 않는 한, 이상적이거나 과도하게 형식적인 의미로 해석되지 않는다.Unless defined otherwise, all terms used herein, including technical or scientific terms, have the same meaning as commonly understood by one of ordinary skill in the art. Terms such as those defined in the commonly used dictionaries should be construed as having meanings consistent with the meanings in the context of the related art and shall not be construed in ideal or excessively formal meanings unless expressly defined in this application. Do not.

이하, 첨부한 도면들을 참조하여, 본 발명의 바람직한 실시예를 보다 상세하게 설명하고자 한다. 본 발명을 설명함에 있어 전체적인 이해를 용이하게 하기 위하여 도면상의 동일한 구성요소에 대해서는 동일한 참조부호를 사용하고 동일한 구성요소에 대해서 중복된 설명은 생략한다.Hereinafter, with reference to the accompanying drawings, it will be described in detail a preferred embodiment of the present invention. In the following description of the present invention, the same reference numerals are used for the same elements in the drawings and redundant descriptions of the same elements will be omitted.

도 3는 다중 뷰 모드에서의 영상 처리 방법을 설명한다.3 illustrates an image processing method in a multiple view mode.

도 3를 참조하면, 다중 뷰 모드에서의 영상 처리 방법은 사용자의 입력에 대응하여 적어도 하나의 영상에 대한 변환 또는 정합 여부를 결정하는 단계(12), 적어도 하나의 이미지의 추출 영역에서 밝기 정보를 수집하여 보정 기준을 결정하는 단계(14), 및 보정기준에 따라 적어도 하나의 이미지를 보정 후 변환 또는 정합하는 단계(15)를 포함할 수 있다.Referring to FIG. 3, the image processing method in the multi-view mode may include determining whether to convert or match at least one image in response to a user input, and determine brightness information in an extraction region of at least one image. Collecting and determining a correction criterion 14, and converting or matching at least one image according to the correction criterion 15.

또한, 다중 뷰 모드에서의 영상 처리 방법은 타겟 이미지를 바탕으로 적어도 하나의 카메라 장치의 노출 시간을 조정하는 단계(16) 및 조정된 노출 시간에 대한 정보와 추출된 밝기 정보에 대응하는 변수를 이미지를 변환 또는 정합하는 데 적용하는 단계(18)를 더 포함할 수 있다. 이 경우, 보정 기준은 밝기 정보 및 노출 시간에 대응하여 변할 수 있다. 노출시간이 조절되는 적어도 하나의 카메라는 타겟 이미지에 배치되는 영상을 촬영하는 해당 카메라일 수 있다. 예를들면, 타겟 이미지가 하나의 제1 카메라로 촬영된 영상으로 이루어진 경우 제1 카메라의 노출시간을 조절할 수 있다. 또는 타겟 이미지가 제1카메라와 제2카메라를 포함하는 적어도 두개 이상의 카메라로 촬영된 영상으로 이루어진 경우 제1 카메라와 제2 카메라를 포함하는 적어도 두개 이상의 카메라의 노출시간을 각각 조절할 수 있다. 단일 카메라 또는 적어도 하나의 카메라 중 각각의 카메라의 노출시간은 타겟 이미지에서 단일 카메라 또는 적어도 하나의 카메라 중 각각의 카메라가 촬영한 영상에서 타겟 이미지에 출력되는 영역을 고려하여 변경할 수 있다. 특히, 모드 변경에 따라 출력되는 타겟 이미지의 변경이 있는 경우 각각의 카메라가 촬영한 영상 중 타겟 이미지를 구성하는 부분은 변경될 수 있고, 이를 고려하여 노출시간을 조절할 수 있다.Also, the image processing method in the multi-view mode includes adjusting the exposure time of the at least one camera device based on the target image (16) and images corresponding to the adjusted exposure time and the extracted brightness information. May further comprise applying 18 to transform or match. In this case, the correction criteria may change in correspondence with the brightness information and the exposure time. The at least one camera whose exposure time is adjusted may be a corresponding camera that captures an image disposed on the target image. For example, when the target image is an image captured by one first camera, the exposure time of the first camera may be adjusted. Alternatively, when the target image is made of at least two cameras including the first camera and the second camera, the exposure time of at least two cameras including the first camera and the second camera may be adjusted. The exposure time of each camera of a single camera or at least one camera may be changed in consideration of an area output from the target image in an image photographed by each camera of the single camera or at least one camera in the target image. In particular, when there is a change in the target image output according to the mode change, the part constituting the target image among the images photographed by each camera may be changed, and the exposure time may be adjusted in consideration of this.

또한, 다중 뷰 모드에서의 영상 처리 방법은 적어도 하나의 카메라 장치의 각각으로부터 획득된 적어도 하나의 영상 데이터를 수신하는 단계(10)를 더 포함할 수 있다. 예를 들어, 적어도 하나의 카메라 장치는 차량에 탑재된 카메라를 포함할 수 있다. 차량의 전방, 후방, 우측방, 좌측방 중 적어도 하나를 각각 촬영할 수 있는 영상 장비는 차량의 주변 정보를 획득할 수 있다. 실시예에 따라, 이러한 적어도 하나의 카메라 장치는 배이어 패턴으로 구성되는 영상 데이터를 출력할 수 있다.In addition, the image processing method in the multi-view mode may further include the step 10 of receiving at least one image data obtained from each of the at least one camera device. For example, at least one camera device may include a camera mounted on a vehicle. Imaging equipment capable of capturing at least one of the front, rear, right, and left sides of the vehicle, respectively, may acquire surrounding information of the vehicle. According to an embodiment, the at least one camera device may output image data composed of a Bayer pattern.

일반적으로, 카메라 장치는 적어도 하나의 렌즈를 통해 형성되는 경로를 통해 입사되는 광 신호를 전기 신호로 변환하는 이미지 센서를 포함하고 있다. 이러한 이미지 센서는 색 별로 패턴을 이루며 배치된 화소로 구성된다. 예를 들면, 이미지 센서는 화소수 만큼 배열된 단색 화소 셀들 위에 R, G, B 색상 필터들이 특정한 패턴을 가지고 배치되어 있다. R, G, B 색상 패턴은 사용자(즉, 인간)의 시각 특성에 따라 교차하며 배치되는 데 이를 베이어 패턴(Bayer pattern)이라고 한다. 각각의 패턴은 색(color)을 감지하는 것이 아니라 흑백의 밝기만을 감지하는 단색(monochrome) 화소이고, 이러한 패턴을 가지는 데이터를 출력하면, 색 보간(color interpolation 혹은 demosaicing) 과정을 거쳐 여러 색으로 구성되는 이미지 영상의 형태로 바뀔 수 있다.In general, a camera apparatus includes an image sensor for converting an optical signal incident through a path formed through at least one lens into an electrical signal. The image sensor is composed of pixels arranged in a pattern for each color. For example, in an image sensor, R, G, and B color filters are arranged in a specific pattern on monochrome pixel cells arranged by the number of pixels. The R, G, and B color patterns intersect and are arranged according to the visual characteristics of the user (ie, human), which is called a Bayer pattern. Each pattern is a monochrome pixel that only detects the brightness of black and white, not the color. When outputting data having such a pattern, it is composed of several colors through color interpolation or demosaicing process. The image may be changed into the form of the image.

이미지 형태의 데이터보다 베이어 패턴은 데이터 양이 크게 작다. 따라서, 차량 내 통신망에 의해 전달되는 데이터의 크기를 줄일 수 있어 자율 주행 차량에 적용하더라도 차량에 배치된 적어도 하나의 카메라 장치로부터 획득된 주변 정보가 분석되는 데 통신 방식, 통신 속도 등에 의해 발생하는 문제를 제거할 수 있다.The Bayer pattern has a much smaller amount of data than the image data. Therefore, the size of the data transmitted by the in-vehicle communication network can be reduced, so that even when applied to an autonomous vehicle, the peripheral information obtained from at least one camera device disposed in the vehicle is analyzed. Can be removed.

만약, 적어도 하나의 영상 데이터가 베이어 패턴으로 수신되는 경우, 다중 뷰 모드에서의 영상 처리 방법은 베이어 패턴에 색보간 및 제1이미지처리를 수행하여 영상 이미지를 출력하는 단계를 더 포함할 수 있다. 여기서, 제1이미지처리는 색 보정(color correction), 감마 보정(gamma correction), 색 공간 변환(color space conversion), 및 에지 인핸스먼트(Edge Enhancement) 중 적어도 하나를 수행하는 것을 포함할 수 있다.If at least one image data is received in a Bayer pattern, the image processing method in the multi-view mode may further include outputting an image image by performing color interpolation and first image processing on the Bayer pattern. Here, the first image processing may include performing at least one of color correction, gamma correction, color space conversion, and edge enhancement.

실시예에 따라, 차량에 탑재된 각각의 카메라 장치가 이미지 센서가 출력하는 베이어 패턴에 색보간 및 제1이미지처리를 수행한 후 이미지 형태의 데이터를 출력할 수도 있다. 이 경우, 이미지 처리 장치에서는 색 보간 및 제1이미지처리에 대한 작업을 수행할 필요가 없다.According to an exemplary embodiment, each camera device mounted on the vehicle may output data in the form of an image after performing color interpolation and first image processing on the Bayer pattern output by the image sensor. In this case, the image processing apparatus does not need to perform operations for color interpolation and first image processing.

도시되지 않았지만, 적어도 하나의 이미지를 변환 또는 정합하여 타겟 이미지를 출력하는 단계(14)는 변환 또는 정합 여부에 대응하여 적어도 하나의 영상 중 적어도 하나를 선택하는 단계, 캘리브레이션(calibration), 렌즈왜곡보정(lens distortion correction), 또는 선택된 영상에서 원근감을 제거한 변환 이미지를 생성하는 단계, 변환된 영상에서 타겟 이미지에 삽입될 영역에 대응하여 추출하는 단계, 추출된 데이터를 타겟 이미지에 배치시키는 단계, 및 타겟 이미지를 디스플레이 장치로 전달하는 단계를 포함할 수 있다.Although not shown, the step of outputting the target image by converting or matching at least one image 14 may include selecting at least one of the at least one image according to whether the image is converted or matched, calibration, and lens distortion correction. (lens distortion correction), or generating a transformed image from which the perspective image is removed from the selected image, extracting corresponding to the area to be inserted into the target image from the converted image, placing the extracted data in the target image, and Delivering the image to a display device.

차량에 탑재된 카메라 모듈에서 획득된 이미지를 탑뷰 영상의 형태로 변환하기 위해서는 이미지 내에 객체와 사물에 대한 원근 효과를 제거할 필요가 있다. 적어도 하나의 이미지를 변환 또는 정합하는 과정에서 차량에 탑재된 카메라 장치를 통해 얻어진 영상에 원근감을 제거하여 변환된 이미지를 생성할 수 있다. 예를 들어, 이러한 변환 이미지는 역투영 이미지 변환(inverse perspective mapping transform)을 수행하여 얻어질 수 있다.In order to convert an image acquired from a camera module mounted on a vehicle into a top view image, it is necessary to remove perspective effects on objects and objects in the image. In the process of converting or matching at least one image, a converted image may be generated by removing perspective from an image obtained through a camera device mounted on a vehicle. For example, such a transform image can be obtained by performing an inverse perspective mapping transform.

이미지를 변환하는 작업과 적어도 두 개의 이미지를 변환 또는 정합하는 과정, 즉 역투영 이미지 변환 및 타겟 이미지에 배치는 순람표(lookup table)를 통해 함께 이루어질 수 있다. 차량에 카메라가 설치된 높이와 각도, 카메라의 수평, 수직 화각 정보가 있으면, 카메라를 통해 획득되는 영상 평면과 운전자 또는 사용자에게 보여줄 실제 평면(탑뷰 형태의 타겟이미지 평면)과의 관계를 알 수 있다. 또한, 차량에 탑재된 카메라 장치는 고정되어 있으므로, 적어도 하나의 카메라 장치가 획득하는 영상을 변환 또는 정합하는 경우 변환 또는 정합되는 영역을 미리 설정할 수 있다. 따라서, 이러한 정보들을 순람표(lookup table) 형태로 정리해 놓으면, 변환과 변환 또는 정합을 위한 연산 과정과 시간을 단축할 수 있다.The process of converting the images and the process of converting or matching at least two images, that is, reverse projection image conversion and placement on the target image, can be done together through a lookup table. If the vehicle has height and angle with the camera installed, and horizontal and vertical angle of view information of the camera, the relationship between the image plane acquired through the camera and the actual plane (top view target image plane) to be shown to the driver or user can be known. In addition, since the camera device mounted on the vehicle is fixed, when converting or matching the image acquired by the at least one camera device, an area to be converted or matched may be set in advance. Therefore, by arranging such information in the form of a lookup table, it is possible to shorten the calculation process and time for conversion and conversion or matching.

한편, 적어도 하나의 영상을 변환 또는 정합하는데 적용시키는 단계(18)는 조정값은 상기 순람표(lookup table)에 배열된 적어도 일부의 데이터를 일괄 변환하는 단계를 포함할 수 있다. 변환 또는 정합되는 각각의 이미지는 서로 다른 위치에 배치된 카메라로부터 획득된 것이고, 서로 다른 방향의 대상을 촬영한 것이므로, 영상마다 빛의 양이 다를 수 밖에 없다. 기존과 같이 밝기를 조정하기 위해 각각의 카메라가 밝기 조정을 개별적으로 진행할 경우, 이미지 처리 장치가 수신할 수 있는 영상 정보는 계속 달라질 수 밖에 없고, 이를 보정하기 위한 연산량은 줄어들지 않을 수 있다. 따라서, 변환 또는 정합된 이미지로부터 밝기 정보를 수집하여 이를 바탕으로 카메라 장치의 노출 시간을 조정할 뿐만 아니라, 적어도 하나의 이미지를 변환 또는 정합할 때 사용되는 순람표 내 데이터를 조정하면, 보다 나은 품질의 결과 영상을 얻을 수 있다.Meanwhile, the step of applying 18 to converting or matching at least one image may include batch converting at least some data arranged in the lookup table. Each image to be converted or matched is obtained from a camera disposed at different positions, and photographs of objects in different directions. Therefore, the amount of light is different for each image. As described above, when each camera individually adjusts brightness to adjust brightness, image information that the image processing apparatus may receive may inevitably vary, and computation amount for correcting the brightness may not decrease. Therefore, by gathering brightness information from the converted or matched image and adjusting the exposure time of the camera device based on it, the data in the lookup table used when converting or matching at least one image can be adjusted to provide better quality. The resulting image can be obtained.

전술한 바와 같이, 적어도 하나의 영상은 차량에 탑재된 적어도 하나의 카메라 장치로부터 전달될 수 있으며, 사용자 또는 운전자의 입력은 차량에 탑재된 인터페이스를 통해 입력될 수 있다. 예를 들어, 차량의 헤드 유닛 또는 멀티미디어 장치(Audio-video-navigation)와 같은 사용자 또는 운전자가 주행 중 조작이 가능한 인터페이스를 통해 사용자 또는 운전자가 원하는 방향, 공간의 정보를 선택할 수 있다.As described above, at least one image may be transmitted from at least one camera device mounted in a vehicle, and an input of a user or a driver may be input through an interface mounted in the vehicle. For example, a user or driver, such as a head unit of a vehicle or a multimedia device (Audio-video-navigation), may select information of a direction or space desired by the user or the driver through an interface that can be manipulated while driving.

예를 들면, 적어도 하나의 영상은 상기 차량의 전방, 후방, 좌측방, 우측방 중 적어도 하나에 대한 영상 정보이며, 사용자 입력은 탑뷰(top view), 전방뷰, 후방뷰, 좌측방뷰, 우측방뷰 및 그에 따른 조합 중 적어도 하나를 포함할 수 있다. 예를 들어, 사용자가 탑뷰(top view)와 전방뷰를 원하는 경우, 이미지 처리 장치는 탑뷰(top view)의 이미지 영상을 출력하기 위해 전방, 후방, 좌측방, 우측방 중 적어도 하나에 대한 영상 정보를 변환 또는 정합할 수 있고, 전방뷰는 전방 카메라의 정보를 출력할 수 있다. 이 경우, 탑뷰와 전방뷰는 사용자에게 보여지는 정보가 상이하고, 해당 정보를 구성하는 이미지에도 차이가 있어 서로 다른 밝기를 가질 수 있다.For example, the at least one image is image information of at least one of the front, rear, left and right sides of the vehicle, and the user input is a top view, front view, rear view, left side view, and right side view. And a combination thereof. For example, when a user wants a top view and a front view, the image processing apparatus may output image information of at least one of front, rear, left, and right rooms to output an image image of the top view. May be converted or matched, and the front view may output information of the front camera. In this case, the top view and the front view may have different brightness because the information shown to the user is different, and the image constituting the information is different.

또한, 사용자의 입력에 대응하여 각각의 카메라에서 획득된 영상 정보 중 출력되는 타겟 이미지를 위해 추출되는 영역이 달라질 수 있다. 예를 들어, 사용자가 전방뷰를 원하는 경우에는 전방 정보를 수집하는 카메라로부터 획득된 영상 정보 중에 많은 부분을 사용자에게 보여줄 수 있다. 하지만, 사용자가 탑뷰를 원하는 경우에는 전방 정보를 수집하는 카메라로부터 획득된 영상 정보 중에 상대적으로 적은 부분을 사용자에게 보여줄 수 있다. 즉, 사용자가 어떠한 영상을 확인하고자 하는 가에 따라 어떠한 카메라에서 획득된 영상을 사용할 지가 달라지거나, 특정 카메라에서 획득한 영상 중에서도 사용자에게 보여주기 위해 추출되는 영역이 달라지게 된다. 따라서, 사용자에게 실제로 제공되는 영역, 즉 적어도 하나의 영상 각각에서 변환 또는 정합을 위해 추출되는 추출 영역의 이미지 밝기를 고려하여 이미지를 변환 또는 정합하는 경우, 사용자에게 보다 고품질의 이미지를 제공할 수 있다.Also, an area extracted for the target image output from the image information acquired by each camera in response to a user input may vary. For example, when the user wants the front view, a large portion of the image information obtained from the camera collecting the front information can be shown to the user. However, when the user wants the top view, a relatively small portion of the image information obtained from the camera collecting the front information may be shown to the user. That is, according to which image the user wants to check, it is different from which camera the image obtained is used, or among the images acquired by a specific camera, the area extracted for display to the user is different. Therefore, when the image is converted or matched in consideration of the image brightness of the region actually provided to the user, that is, the extraction region extracted for conversion or matching in each of the at least one image, a higher quality image may be provided to the user. .

한편, 적어도 하나의 이미지가 변환 또는 정합된 탑뷰 영상 등의 밝기 정보를 이용하여 적어도 하나의 카메라의 노출시간을 제어할 경우, 다중 뷰에 따른 밝기 차이를 줄일 수 있다.Meanwhile, when the exposure time of the at least one camera is controlled using brightness information such as a top view image in which at least one image is converted or matched, the brightness difference according to the multiple views may be reduced.

한편, 이미지 처리 장치는 영상 정보 각각에 대응하여 구별되는 적어도 하나의 순람표(lookup table)를 포함하고, 적어도 하나의 순람표(lookup table)는 영상 정보에 대응하는 가중치를 포함할 수 있다. 이는 카메라 장치마다 서로 다른 방향의 대상을 촬영한 것이므로, 영상마다 빛의 양이 다를 수 밖에 없기 때문에 필요할 수 있다.The image processing apparatus may include at least one lookup table that is distinguished corresponding to each of the image information, and the at least one lookup table may include a weight corresponding to the image information. This may be necessary since the amount of light may be different for each image since the camera apparatus photographs an object in different directions.

도 4은 다중 뷰 모드에서의 영상 처리 시스템의 제1예를 설명한다.4 illustrates a first example of an image processing system in a multiple view mode.

도 4을 참조하면, 영상 처리 시스템은 카메라 장치(30), 이미지 처리 장치(40), 차량용 멀티미디어 장치(20)를 포함할 수 있다.Referring to FIG. 4, the image processing system may include a camera device 30, an image processing device 40, and a vehicle multimedia device 20.

카메라 장치(30)는 유입되는 광신호를 수집하는 적어도 하나의 렌즈를 포함하는 렌즈어셈블리(32), 렌즈어셈블리(32)를 통해 수집된 광신호를 전기신호로 변환하여 베이어 패턴(BP)을 출력하는 이미지 센서(34)를 포함할 수 있다. 카메라 장치(30)는 색 보간, 이미지 보정 등의 작업없이 이미지 센서(34)에서 출력되는 베이어 패턴(BP)를 이미지 처리 장치(40)로 전달할 수 있다.The camera device 30 outputs a Bayer pattern BP by converting an optical signal collected through the lens assembly 32 and the lens assembly 32 including at least one lens to collect the incoming optical signal into an electrical signal. It may include an image sensor 34 to. The camera device 30 may transfer the Bayer pattern BP output from the image sensor 34 to the image processing device 40 without performing color interpolation, image correction, or the like.

이미지 처리 장치는(40)는 카메라 장치(30)로부터 전달된 베이어 패턴(BP)에 색 보간(color interpolation, demosaicing), 색 보정(color correction), 감마 보정(gamma correction), 색 공간 변환(color space conversion), 및 에지 인핸스먼트(Edge Enhancement) 등의 작업을 선택적으로 수행할 수 있는 이미지 처리부(42), 이미지 처리부(42)에서 출력되는 적어도 하나의 영상(CI)을 변환 또는 정합하여 타겟 이미지(OI)를 출력하는 변환 또는 정합부(44), 변환 또는 정합부(44)에서 출력되는 타겟 이미지(OI)의 이미지 정보(예, 밝기 정보(BI))를 전달받아 변환 또는 정합부(44) 내 순람표를 갱신하기 위한 변수, 조정값(LC0)을 출력하는 밝기 제어부(48), 변환 또는 정합부(44)에서 출력되는 타겟 이미지(OI)의 이미지 정보(예, 밝기 정보(BI))를 전달받아 적어도 하나의 카메라 장치(30)의 노출시간을 조정하기 위한 제어신호(ETC)를 출력하는 조정부(46)를 포함할 수 있다.The image processing apparatus 40 may include color interpolation, demosaicing, color correction, gamma correction, and color space conversion into a Bayer pattern BP transmitted from the camera apparatus 30. a target image by converting or matching the image processor 42 and the at least one image CI output from the image processor 42, which may selectively perform operations such as space conversion, edge enhancement, and the like. A transform or matching unit 44 that outputs an OI, and receives image information (eg, brightness information BI) of the target image OI output from the transforming or matching unit 44. ) Image information (eg, brightness information BI) of the target image OI output from the variable for updating the table in the table, the brightness control unit 48 outputting the adjustment value LC0, and the conversion or matching unit 44. To adjust the exposure time of the at least one camera device 30 It may include an adjusting unit (46) for outputting a control signal (ETC).

조정부(46)는 적어도 하나의 카메라 장치(30)의 노출시간을 조정하는 데 있어 발생하는 변화량 또는 변화율(ETR)을 밝기 제어부(48)로 전달할 수 있다. 밝기 제어부(148)는 변화율(ETR)과 타겟 이미지(OI)의 이미지 정보(예, 밝기 정보(BI))를 바탕으로 조정값(LC0)을 결정할 수 있다.The adjuster 46 may transmit the change amount or the change rate ETR generated in adjusting the exposure time of the at least one camera device 30 to the brightness controller 48. The brightness controller 148 may determine the adjustment value LC0 based on the change rate ETR and the image information (eg, the brightness information BI) of the target image OI.

한편, 변환 또는 정합부(44)는 차량용 멀티미디어 장치(20)의 사용자 인터페이스(22)를 통해 사용자가 원하는 뷰 모드(예, 탑뷰(top view), 전방뷰, 후방뷰, 좌측방뷰, 우측방뷰 및 그에 따른 조합 중 적어도 하나)에 대한 모드제어신호(VC)를 전달받을 수 있다. 변환 또는 정합부(44)는 사용자의 입력에 대응하여 적어도 하나의 이미지 영상 중 변환 또는 정합할 필요가 있는 것을 선택하여 변환 또는 정합할 수 있다.On the other hand, the conversion or matching unit 44 through the user interface 22 of the in-vehicle multimedia device 20, the desired view mode (eg, top view, front view, rear view, left room view, right room view and The mode control signal VC for at least one of the combinations thereof may be received. The conversion or matching unit 44 may select and convert or match one or more image images that need to be converted or matched according to a user's input.

변환 또는 정합부(44)는 캘리브레이션(calibration), 렌즈왜곡보정(lens distortion correction), 이미지에서 원근감을 제거한 변환 이미지를 생성하기 위한 작업 중 적어도 하나의 작업을 수행할 수 있다. 예를 들어, 차량에 탑재된 카메라 모듈에서 획득된 이미지를 탑뷰 영상의 형태로 변환하기 위해서는 이미지 내에 객체와 사물에 대한 원근 효과를 제거할 필요가 있다. 차량에 카메라가 설치된 높이와 각도, 카메라의 수평, 수직 화각 정보가 있으면, 카메라를 통해 획득되는 영상 평면과 운전자 또는 사용자에게 보여줄 실제 평면(탑뷰 형태의 타겟이미지 평면)과의 관계를 알 수 있다. 이러한 관계를 이용하여, 카메라에서 획득된 영상 평면을 사용자에게 보여줄 평면으로 변환할 수 있다.The conversion or matching unit 44 may perform at least one of calibration, lens distortion correction, and at least one operation for generating a converted image from which perspective is removed from the image. For example, in order to convert an image obtained from a camera module mounted on a vehicle into a top view image, it is necessary to remove perspective effects on objects and objects in the image. If the vehicle has height and angle with the camera installed, and horizontal and vertical angle of view information of the camera, the relationship between the image plane acquired through the camera and the actual plane (top view target image plane) to be shown to the driver or user can be known. Using this relationship, the image plane obtained from the camera can be converted into a plane to be shown to the user.

또한, 차량용 멀티미디어 장치(20)는 변환 또는 정합부(44)에서 전달되는 타겟 이미지(OI)를 사용자 또는 운전자에게 표시할 수 있는 디스플레이 장치(24)를 포함할 수 있다.In addition, the vehicle multimedia apparatus 20 may include a display device 24 capable of displaying a target image OI transmitted from the conversion or matching unit 44 to a user or a driver.

도 5은 다중 뷰 모드에서의 영상 처리 시스템의 제2예를 설명한다.5 illustrates a second example of an image processing system in a multiple view mode.

도 5을 참조하면, 영상 처리 시스템은 카메라 장치(50), 이미지 처리 장치(60), 차량용 멀티미디어 장치(20)를 포함할 수 있다. 도5에서 설명하는 영상 처리 시스템은 도4에서 설명하는 영상 처리 시스템과 유사할 수 있다. 이하에서는 차이점을 중심으로 설명한다.Referring to FIG. 5, the image processing system may include a camera apparatus 50, an image processing apparatus 60, and a vehicle multimedia apparatus 20. The image processing system described with reference to FIG. 5 may be similar to the image processing system described with reference to FIG. 4. The following description will focus on the differences.

카메라 장치(50)는 유입되는 광신호를 수집하는 적어도 하나의 렌즈를 포함하는 렌즈어셈블리(32), 렌즈어셈블리(32)를 통해 수집된 광신호를 전기신호로 변환하여 베이어 패턴(BP)을 출력하는 이미지 센서(34) 및 이미지 센서(34)에서 출력되는 베이어 패턴(BP)을 색 보간, 이미지 보정 등의 작업을 통해 영상 이미지(I-I)를 출력할 수 있다.The camera device 50 converts the optical signal collected through the lens assembly 32 and the lens assembly 32 including at least one lens to collect the incoming optical signal into an electrical signal, and outputs a Bayer pattern BP. The Bayer pattern BP output from the image sensor 34 and the image sensor 34 may output the image image II through color interpolation and image correction.

적어도 하나의 영상 이미지(I-I)를 수신하는 이미지 처리 장치(60)는 변환 또는 정합부(44), 밝기 제어부(48), 조정부(46)를 포함할 수 있다. 여기서, 변환 또는 정합부(44), 밝기 제어부(48), 조정부(46)는 도3에서 설명한 것과 유사하게 동작할 수 있다.The image processing apparatus 60 that receives at least one video image I-I may include a conversion or matching unit 44, a brightness controller 48, and an adjusting unit 46. Here, the conversion or matching unit 44, the brightness control unit 48, and the adjustment unit 46 may operate similarly to that described with reference to FIG. 3.

또한, 차량용 멀티미디어 장치(20)는 사용자 인터페이스(24)와 디스플레이(22)를 포함할 수 있고, 도3에서 설명한 것과 유사하게 동작할 수 있다.In addition, the in-vehicle multimedia device 20 may include a user interface 24 and a display 22 and operate similarly to that described in FIG. 3.

도 6는 본 발명의 실시예에 따른 다중 뷰 모드에서의 영상 디스플레이 방법을 실행하는 영상 디스플레이 장치(100)의 개략적인 블록도이다.6 is a schematic block diagram of an image display apparatus 100 that executes an image display method in a multiple view mode according to an embodiment of the present invention.

도 6를 참조하면 영상 디스플레이 장치는 영상 획득부(110), 영상 변환부(120), 제어부(130), 영상 보정부(140) 및 출력부(150)을 포함하고, 추가적으로 메모리(160)를 더 포함할 수 있다.Referring to FIG. 6, the image display apparatus includes an image acquisition unit 110, an image conversion unit 120, a control unit 130, an image correction unit 140, and an output unit 150, and further includes a memory 160. It may further include.

영상 획득부(110)는 이미지 센서를 이용하여 디지털 영상을 획득한다. 여기서, 출력부(150)를 통해 디스플레이 하기 위해 획득된 디지털 영상을 타겟 영상(target image)이라 부르기로 한다. 영상 획득부(110)는 피사체를 촬영하기 위해 독립적으로 설치되는 카메라 또는 임의의 장치에 부품 형태로 설치되는 카메라 모듈 형태로 구현될 수 있다. 특히 영상 획득부(110)는 카메라 모듈 형태로 차량의 진행 방향, 우측 방향, 역 방향, 및 좌측 방향을 향하면서 차량이 위치해 있는 지면을 포함하는 뷰를 촬영하도록 차량의 외부면에 설치되는 것이 바람직하다.The image acquisition unit 110 acquires a digital image using an image sensor. Here, the digital image obtained for display through the output unit 150 will be referred to as a target image. The image acquisition unit 110 may be implemented in the form of a camera module that is installed in the form of a component in a camera or an arbitrary device that is installed independently to photograph the subject. In particular, the image acquisition unit 110 is preferably installed on the outer surface of the vehicle to capture a view including the ground on which the vehicle is located in the direction of the vehicle, the right direction, the reverse direction, and the left direction in the form of a camera module. Do.

영상 변환부(120)는 영상 획득부(110)가 획득한 타겟 영상을 전송 받아 뷰 모드에 맞게, 즉 뷰 모드에 적합한 형태의 영상으로 변환한다. 여기서 뷰 모드는 출력 모드의 변경에 따라 변경되는 뷰 포인트(시점)에 따른 모드를 의미한다.The image converting unit 120 receives the target image acquired by the image obtaining unit 110 and converts the image into a form suitable for the view mode, that is, the view mode. Here, the view mode refers to a mode according to a view point (viewpoint) that changes according to the change of the output mode.

영상 획득부(110)에서 획득된 모든 타겟 영상이 영상 변환부(120)를 통해 변환되는 것은 아니다. 타겟 영상의 변환은 뷰 모드의 변경에 따른 타겟 영상의 변환을 의미한다. 예를 들어 영상의 변환이란, 차량의 후면에 설치된 영상 획득부(110)에서 획득한 타겟 영상을 차량 위의 일정 높이에 설치된 가상의 영상 획득부(110)에 의해 획득된 영상, 즉 탑 뷰 모드에서의 영상으로 변환하는 것을 의미한다. 따라서 영상 획득부(110)에서 획득된 타겟 영상을 실제 뷰 모드로 출력하는 경우에는 타겟 영상을 따로 변환할 필요가 없다. 여기서 실제 뷰 모드란, 뷰 포인트(시점)의 변화가 없는 것을 말한다. 즉 특정 위치의 영상 획득부(110)가 획득한 타겟 영상을 변환 없이 그대로 출력하는 경우를 말한다.Not all target images acquired by the image acquirer 110 may be converted by the image converter 120. Conversion of the target image refers to conversion of the target image according to the change of the view mode. For example, the image conversion refers to an image acquired by the virtual image acquisition unit 110 installed at a predetermined height on the vehicle with the target image acquired by the image acquisition unit 110 installed at the rear of the vehicle, that is, the top view mode. It means to convert the image from. Therefore, when outputting the target image acquired by the image acquisition unit 110 in the actual view mode, it is not necessary to convert the target image separately. In this case, the actual view mode means that there is no change in the viewpoint. That is, the image acquisition unit 110 at a specific position outputs the acquired target image as it is without conversion.

제어부(130)는 영상 획득부(110)에서 획득된 타겟 영상 또는 영상 변환부(120)에서 변환된 타겟 영상의 속성에 기반하여, 그 속성을 나타내는 파라미터를 조정하기 위하여 영상 획득부(110)를 제어할 수 있다. 예를 들어 제어부(130)는 변환된 타겟 영상의 평균 밝기(AVG)를 이용하여 미리 설정된 기준 평균 밝기(TH)를 기반으로 영상 변환부(110)에 구비된 카메라의 광 노출 정도를 조정할 수 있다. 여기서 기준 평균 밝기는 타겟 영상의 평균 밝기와 비교되는 기준 영상의 평균 밝기를 의미한다. 그리고 광 노출의 조정은 노출 시간을 조정하는 것으로서 영상 획득부(110)의 카메라의 셔터 스피드를 조정하거나 조리개를 조정할 수 있다. 결과적으로 상기 조정에 의해 포토 다이오드의 전하 축적 시간 및 게인(gain)이 조정될 수 있다.The controller 130 may control the image acquirer 110 to adjust a parameter indicating the attribute based on the target image acquired by the image acquirer 110 or the target image converted by the image converter 120. Can be controlled. For example, the controller 130 may adjust the degree of light exposure of the camera included in the image converter 110 based on a preset reference average brightness TH using the average brightness AVG of the converted target image. . Here, the reference average brightness refers to the average brightness of the reference image compared with the average brightness of the target image. In addition, the adjustment of the light exposure is to adjust the exposure time to adjust the shutter speed or the aperture of the camera of the image acquisition unit 110. As a result, the charge accumulation time and the gain of the photodiode can be adjusted by the above adjustment.

영상 보정부(140)는 영상 획득부(110)에서 획득된 영상 또는 영상 변환부(120)에서 해당 뷰 모드에 맞게 변환된 타겟 영상을 보정할 수 있다. 예를 들어 영상 보정부(140)는 변환된 타겟 영상의 평균 밝기(AVG)를 이용하여 미리 설정된 평균 밝기(TH)를 기반으로 타겟 영상의 화이트 밸런스를 조정할 수 있다.The image corrector 140 may correct the image acquired by the image acquirer 110 or the target image converted by the image converter 120 according to the corresponding view mode. For example, the image corrector 140 may adjust the white balance of the target image based on a preset average brightness TH using the converted average brightness AVG.

출력부(150)는 영상 보정부(140)가 보정한 타겟 영상을 해당 뷰 모드에서 출력할 수 있다. 출력부(150)는 LCD 디스플레이 장치 등으로 구현될 수 있다. 출력에 앞서 제어부(130)는 출력 모드 즉 뷰 모드를 변경할 수 있다.The output unit 150 may output the target image corrected by the image corrector 140 in a corresponding view mode. The output unit 150 may be implemented as an LCD display device. Prior to the output, the controller 130 may change the output mode, that is, the view mode.

그리고 메모리(160)는 상기 타겟 영상의 평균 밝기 및 기준 평균 밝기를 저장할 수 있다.The memory 160 may store the average brightness and the reference average brightness of the target image.

영상 변환부(120), 제어부(130) 및 영상 보정부(140)는 메모리(160)에 저장된 프로그램 명령(program command)을 실행할 수 있다. 그리고 영상 변환부(120), 제어부(130) 및 영상 보정부(140)는 중앙 처리 장치(central processing unit, CPU), 그래픽 처리 장치(graphics processing unit, GPU) 또는 본 발명에 따른 방법들이 수행되는 전용의 프로세서를 의미할 수 있다.The image converter 120, the controller 130, and the image corrector 140 may execute a program command stored in the memory 160. In addition, the image converter 120, the controller 130, and the image corrector 140 may include a central processing unit (CPU), a graphics processing unit (GPU), or methods according to the present invention. It may mean a dedicated processor.

또한 메모리(160)는 휘발성 저장 매체 및/또는 비휘발성 저장 매체로 구성될 수 있다. 예를 들어, 메모리(160)는 읽기 전용 메모리(read only memory, ROM) 및/또는 랜덤 액세스 메모리(random access memory, RAM)로 구성될 수 있다.Memory 160 may also be comprised of volatile storage media and / or non-volatile storage media. For example, the memory 160 may be configured as read only memory (ROM) and / or random access memory (RAM).

도 7은 영상 디스플레이 장치(100)가 디스플레이 하는 영상들로서 실제 뷰 모드에서의 정면도(a), 우측면도(b), 후면도(c) 및 좌측면도(d)를 각각 나타낸다.7 is a front view (a), a right side view (b), a rear view (c), and a left side view (d) in the actual view mode as images displayed by the image display apparatus 100.

도 7을 참조하면, 영상 디스플레이 장치(100), 더 구체적으로는 영상 획득부(110)가 획득한 영상이 디스플레이 하는 정면도(a), 우측면도(b), 후면도(c) 및 좌측면도(d)에 해당하는 영상들이 각각 나타나 있다. 영상 획득부(110)에 해당하는 카메라 모듈들은 차량 외부의 정면, 우측면, 후면 및 우측면에 일정 높이에 설치될 수 있다. 상기 카메라 모듈들이 설치되는 위치는 차량의 라디에이터(radiator) 그릴, 우측 및 좌측 지시등들 그리고 차량 트렁크 덮개가 될 수 있다. 그리고 상기 카메라 모듈은, 렌즈 면이 설치 위치에서 비스듬하게 지면 쪽의 방향을 향하도록, 설치될 수 있다. 따라서 도 7에 나타나 있는 영상들은 실제 모습보다 상기 방향으로 영상이 길게 늘어져 보일 수 있다.Referring to FIG. 7, the front view (a), the right side view (b), the rear view (c), and the left side view of the image displayed by the image display apparatus 100, more specifically, the image acquisition unit 110 are displayed. Images corresponding to (d) are shown respectively. Camera modules corresponding to the image acquisition unit 110 may be installed at a predetermined height on the front, right side, rear side, and right side of the outside of the vehicle. The location where the camera modules are installed may be a radiator grille, right and left indicator lights and vehicle trunk cover of the vehicle. The camera module may be installed such that the lens surface faces the direction of the ground at an angle to the installation position. Therefore, the images shown in FIG. 7 may appear to be longer in the direction than the actual image.

도 8은 영상 획득부(110)가 획득한 영상들 중에서 탑 뷰(top view) 모드에서 디스플레이될 영상으로 변환된 정면도(a)를 나타낸다. 도 8을 참조하면, 영상 변환부(120)에 의해 변환된 정면도(a)의 영상은 도 7의 실제 뷰 모드에서 디스플레이 되는 변환 전의 정면도(a)의 영상과 차이를 보이고 있음을 알 수 있다. 즉 차량 위의 일정 높이에서 바로 보는 탑 뷰 모드의 영상은 실제 모습에 가깝게 보정된 영상이다.FIG. 8 is a front view a converted from an image acquired by the image acquisition unit 110 to an image to be displayed in a top view mode. Referring to FIG. 8, it can be seen that the image of the front view (a) converted by the image converter 120 is different from the image of the front view (a) before the conversion displayed in the actual view mode of FIG. 7. have. In other words, the image in the top view mode, which is directly viewed from a certain height on the vehicle, is a corrected image close to the actual appearance.

도 9은 도 8의 4 개의 영상들을 이용하여 생성된 어라운드 뷰(around view) 영상이다.FIG. 9 is an around view image generated by using the four images of FIG. 8.

도 9을 참조하면, 탑 뷰 모드에서 디스플레이 되는 어라운드 뷰 영상이 나타나 있다. 상기 설명한 바와 같이 어라운드 뷰 영상은, 차량 위에 설치된 가상의 카메라를 통해 촬영된 듯 한 영상을 의미한다. 어라운드 뷰 영상은 차량의 지붕을 포함하여 주로 주차 선이 표시된 주변의 지면을 디스플레이 하기 위해 이용된다. 상기 도 4와 마찬가지로 실제 촬영된 4 개의 타겟 영상들과 이를 기초로 생성된 어라운드 뷰 영상은 차이를 보이고 있다. 즉 실제 촬영된 영상 속의 일정 영역의 넓이가 전체에서 차지하는 비율이 어라운드 뷰 모드에서는 변동 될 수 있다. 특히 어안 렌즈를 사용하여 타겟 영상을 획득하는 경우에는 상기 비율이 더 크게 변할 수 있다. 예를 들어 도 7에 나타난 (a) 내지 (d)의 도면에서 A-2 하부의 면적은, 카메라와 가장 가까운 영역으로서 전체 영역에서 높은 비율을 차지하는 것처럼 보이나, 실제 탑 뷰의 영상인 도 6에서는 그 비율이 축소되어 나타나 있다.Referring to FIG. 9, an around view image displayed in the top view mode is shown. As described above, the around view image refers to an image that is captured by a virtual camera installed on a vehicle. The around view image is mainly used to display the surrounding ground, including the roof of the vehicle, marked with parking lines. As shown in FIG. 4, the four target images actually photographed and the around view image generated based on the same are different. In other words, the ratio of the total area of the entire area to the actual captured image may change in the around view mode. In particular, when a target image is acquired using a fisheye lens, the ratio may change even larger. For example, in the drawings of (a) to (d) shown in FIG. 7, the area under the A-2 may appear to occupy a high ratio in the entire area as the area closest to the camera, but in FIG. The ratio is reduced.

그리고 이러한 내용은 실제 촬영된 타겟 영상의 속성이 어라운드 뷰 모드의 영상에서도 변동될 수 있음을 의미한다.This means that the attributes of the actually captured target image may be changed even in the image in the around view mode.

도 10는 실제 뷰 모드 및 탑 뷰 모드에서의 차이점을 설명하기 위한 차량의 정면도이다.10 is a front view of a vehicle for explaining the difference between the actual view mode and the top view mode.

도 10를 참조하면, 영상 획득부(100)로서 차량에 설치되는 카메라 모듈이 나타나 있다. 실제 카메라 모듈(L-1, R-1)은 좌측 또는 우측 지시등에 설치된 카메라 모듈이다. 카메라 모듈(L-2, R-2)은 가상의 카메라 모듈이다. 도 10를 참조하면, 실제 카메라 모듈들과 가상의 카메라 모듈들이 피사체를 촬영하는 각도의 차이로 인하여 두 카메라 모듈들이 획득하는 영상들의 모습에는 차이가 발생할 수 있다. 그리고 이러한 차이를 최소한으로 줄여, 뷰 모드에 따라 출력되는 영상이 실제 모습에 가깝게 출력되도록 실제 카메라 모듈들이 획득한 타겟 영상들은 뷰 모드에 맞도록 변환될 수 있다.Referring to FIG. 10, a camera module installed in a vehicle as the image acquisition unit 100 is illustrated. The actual camera modules L-1 and R-1 are camera modules installed in the left or right indicator light. The camera modules L-2 and R-2 are virtual camera modules. Referring to FIG. 10, a difference may occur in the appearance of images acquired by the two camera modules due to the difference in the angle at which the actual camera modules and the virtual camera modules photograph the subject. In order to reduce the difference to a minimum, the target images acquired by the actual camera modules may be converted to match the view mode so that the output image according to the view mode is output close to the actual state.

그럼 본 출원발명의 다른 실시예에 따른 다중 뷰 모드에서의 영상 디스플레이 방법에 대해 설명하기로 한다.Then, an image display method in a multiple view mode according to another embodiment of the present invention will be described.

도 11은 본 발명의 다른 실시예에 따른 다중 뷰 모드에서의 영상 디스플레이 방법에 관한 흐름도이다.11 is a flowchart illustrating an image display method in a multiple view mode according to another exemplary embodiment of the present invention.

먼저 조정을 위한 기준 값이 설정되고, 이 기준 값은 메모리 등에 저장될 수 있다(S110).First, a reference value for adjustment is set, and this reference value may be stored in a memory or the like (S110).

다음으로 영상 획득부(110)는 타겟 영상을 획득한다(S120).Next, the image acquisition unit 110 obtains a target image (S120).

다음으로 영상 변환부(120)는 획득된 타겟 영상을 희망 출력 모드, 즉 뷰 모드에 맞도록 변환한다(S130).Next, the image converter 120 converts the obtained target image to fit the desired output mode, that is, the view mode (S130).

다음으로 타겟 영상을 보정한다(S140). 타겟 영상의 보정은 2가지 방법으로 수행될 수 있다. 결국 타겟 영상의 보정은 타겟 영상의 밝기를 조정하는 것에 귀결될 수 있다. 그 중 하나로서 제어부(130)는 타겟 영상의 평균 밝기를 계산하고, 계산된 타겟 영상의 평균 밝기를 이용하여 상기 기준 평균 밝기에 기반하여 영상 획득부(110)의 카메라의 광 노출을 조정할 수 있다. 나머지 하나로서 영상 보정부(140)는 상기 타겟 영상의 평균 밝기를 이용하여 상기 기준 평균 밝기에 기반하여 타겟 영상의 화이트 밸런스를 조정할 수 있다.Next, the target image is corrected (S140). Correction of the target image may be performed in two ways. As a result, the correction of the target image may result in adjusting the brightness of the target image. As one of them, the controller 130 may calculate the average brightness of the target image and adjust the light exposure of the camera of the image acquisition unit 110 based on the reference average brightness using the calculated average brightness of the target image. . As another one, the image corrector 140 may adjust the white balance of the target image based on the reference average brightness using the average brightness of the target image.

다음으로 출력부(150)는 보정된 타겟 영상을 디스플레이 한다(S150).Next, the output unit 150 displays the corrected target image (S150).

S150에 앞서서 제어부(130)는 출력부(150)의 출력 모드를 변환할 수 있다. 여기서 출력 모드의 변경에 따라 타겟 영상이 출력되는 뷰 포인트가 변경됨으로써 뷰 모드가 변경될 수 있다. 그리고, 카메라 광량의 조정 또는 타겟 영상의 화이트 밸런스 조정은 획득된 상기 타겟 영상이 디스플레이될 서로 다른 뷰 모드의 개수만큼 수행될 수 있다.Prior to S150, the controller 130 may convert the output mode of the output unit 150. Here, the view mode may be changed by changing the view point at which the target image is output according to the change of the output mode. The adjustment of the camera light amount or the white balance of the target image may be performed by the number of different view modes in which the obtained target image is to be displayed.

도 12은 본 발명의 또 다른 실시예에 따른 다중 뷰 모드에서의 영상 디스플레이 방법에 관한 흐름도이다.12 is a flowchart illustrating an image display method in a multiple view mode according to another exemplary embodiment of the present invention.

먼저 조정을 위한 기준 값이 설정되고, 이 기준 값은 메모리 등에 저장될 수 있다(S210).First, a reference value for adjustment is set, and this reference value may be stored in a memory or the like (S210).

다음으로 영상 획득부(110)는 타겟 영상을 획득한다(S220).Next, the image acquisition unit 110 obtains a target image (S220).

다름으로 영상 변환부(120)는 획득된 타겟 영상을 희망 출력 모드, 즉 뷰 모드에 맞도록 변환하는데, 특히 획득된 타겟 영상을 어라운드 뷰 영상으로 변환한다(S230).Alternatively, the image converter 120 converts the obtained target image to fit the desired output mode, that is, the view mode, and in particular, converts the obtained target image into an around view image (S230).

다음으로 S240 및 S250는 상기 S140 및 S150과 공통되므로 이에 대한 설명은 생략하기로 한다.Next, since S240 and S250 are common to the S140 and S150, description thereof will be omitted.

도 13는 본 발명의 또 다른 실시예에 따른 다중 뷰 모드에서의 영상 디스플레이 방법에 관한 흐름도이다.13 is a flowchart illustrating a method of displaying an image in a multiple view mode according to another embodiment of the present invention.

먼저 제어부(130)는 타겟 영상의 디스플레이를 위한 출력 모드 즉, 뷰 모드를 변환한다(S310).First, the controller 130 converts an output mode, that is, a view mode, for displaying a target image (S310).

다음으로 영상 보정부(140)는 변환된 뷰 모드에 맞도록 타겟 영상을 보정 또는 역보정한다(S320). 여기서 역보정이란 상기 보정이 없는 상태로 되돌리는 것을 의미한다. 영상 보정부(140)는 뷰 모드의 변환에 따라 타겟 영상을 변환된 뷰 모드에 맞도록 보정을 하는 한편, 뷰 모드의 변환이 없는 경우가 되면 보정된 타겟 영상을 보정되지 않은 타겟 영상으로 되돌릴 수 있다.Next, the image corrector 140 corrects or reverse corrects the target image to fit the converted view mode (S320). The reverse correction here means returning to the state without the said correction. The image corrector 140 corrects the target image according to the converted view mode according to the conversion of the view mode, and returns the corrected target image to the uncorrected target image when there is no conversion of the view mode. have.

마지막으로 출력부(150)는 보정 또는 역보정된 타겟 영상을 디스플레이 한다.Finally, the output unit 150 displays the corrected or de-corrected target image.

도 14은 본 발명의 또 다른 실시예에 따른 다중 뷰 모드에서의 영상 디스플레이 방법에 관한 흐름도이다.14 is a flowchart illustrating a method of displaying an image in a multiple view mode according to another embodiment of the present invention.

특히 도 14은 카메라 모듈 등으로 구현될 수 있는 영상 획득부(110)의 광 노출 시간을 조정하는 흐름도를 나타낸다. 도 14을 참조하면, 먼저 기준(threshold, TH) 값이 미리 설정되고 이 기준 값은 메모리 등에 미리 저장될 수 있다(S410).In particular, FIG. 14 illustrates a flowchart of adjusting the light exposure time of the image acquisition unit 110, which may be implemented as a camera module. Referring to FIG. 14, a threshold (TH) value may be set in advance, and the reference value may be stored in advance in a memory or the like (S410).

다음으로 영상 획득부(110)에 의해 획득된 타겟 영상이 제어부(130)에 입력된다(S420).Next, the target image acquired by the image acquisition unit 110 is input to the control unit 130 (S420).

다음으로 제어부(130)는 타겟 영상의 평균 밝기(AVG)를 계산한다(S430).Next, the controller 130 calculates an average brightness (AVG) of the target image (S430).

타겟 영상의 평균 밝기와 기준 평균 밝기가 비교하여, 평균 밝기와 기준 값이 같으면(S440), 현재의 노출 시간은 유지된다(S441). 또한 평균 밝기와 기준 값이 다르고(S445), 평균 밝기와 기준 값을 비교하여(S445), 평균 밝기가 기준 값보다 크면 현재의 노출 시간은 조정에 의해 감소될 수 있고(S442), 평균 밝기가 기준 값보다 크지 않으면 현재의 노출 시간은 조정에 의해 증가될 수 있다(S443).When the average brightness and the reference average brightness of the target image are compared, if the average brightness and the reference value are the same (S440), the current exposure time is maintained (S441). In addition, when the average brightness and the reference value is different (S445) and the average brightness and the reference value are compared (S445), if the average brightness is larger than the reference value, the current exposure time can be reduced by adjustment (S442), and the average brightness is If it is not larger than the reference value, the current exposure time may be increased by adjustment (S443).

본 발명의 또 다른 실시예에 따른 다중 뷰 모드에서의 영상 디스플레이 방법은, 획득된 타겟 영상을 해당 뷰 모드에 적합한 영상으로 변환하기 전에 가중치를 이용하여 타겟 영상을 구성하는 각 픽셀의 밝기를 조정할 수 있다. 여기서 각 픽셀은 가중치는 각 픽셀의 위치에 따라 고정된 가중치를 갖는 것이 특징이다.According to another embodiment of the present invention, an image display method in a multi-view mode may adjust brightness of each pixel constituting the target image by using a weight before converting the acquired target image into an image suitable for the corresponding view mode. have. Here, each pixel has a weight having a fixed weight according to the position of each pixel.

본 발명의 도 6에서는 설명의 편의를 위하여, 각 구성을 각각 다른 블록에 도시화하여 예를 들어 설명하였으나, 각각의 구성은 하나의 블록으로 구성될 수 있다. 예를 들면, 각각의 블록은 제어부(controller) 또는 프로세서(processor) 등에 구성되어 전술한 일련의 동작들을 수행할 수 있다.In FIG. 6 of the present invention, for convenience of description, each component is illustrated in another block and described as an example, but each component may be configured as one block. For example, each block may be configured in a controller or a processor to perform the above-described series of operations.

상기와 같이 본 발명에 따르면 기존의 기술에 따른 문제점을 해결할 수 있다. 즉 변환된 뷰 모드에서 출력되는 영상을 기준으로 타겟 영상의 밝기를 조정함으로써 도 2에 나타난 밝기가 포화되는 영역을 방지할 수 있다.According to the present invention as described above can solve the problems according to the existing technology. That is, by adjusting the brightness of the target image based on the image output in the converted view mode, it is possible to prevent the area in which the brightness shown in FIG. 2 is saturated.

이상 본 발명의 바람직한 실시예를 참조하여 설명하였지만, 해당 기술 분야의 숙련된 당업자는 하기의 특허 청구의 범위에 기재된 본 발명의 사상 및 영역으로부터 벗어나지 않는 범위 내에서 본 발명을 다양하게 수정 및 변경시킬 수 있음을 이해할 수 있을 것이다.Although it has been described above with reference to the preferred embodiment of the present invention, those skilled in the art will be able to variously modify and change the present invention without departing from the spirit and scope of the invention described in the claims below. It will be appreciated.

Claims (10)

적어도 하나의 카메라로부터 획득한 이미지를 복수의 모드에 따른 타겟 이미지를 디스플레이 하는 방법에 있어서,In the method for displaying a target image according to a plurality of modes of the image obtained from at least one camera, 제1 모드에서 제2 모드로 변경됨 따라 출력되는 영상이 상기 제1 모드의 제1 타겟 이미지에서 상기 제2 모드의 제2 타겟 이미지로 변경되어 출력되는 단계; 및Changing the output image from the first mode to the second mode from the first target image of the first mode to the second target image of the second mode; And 상기 제2 타겟 이미지의 밝기가 상기 제2 타겟 이미지를 기준으로 조절되는 단계를 포함하는 이미지 처리방법.And adjusting the brightness of the second target image based on the second target image. 제1항에 있어서,The method of claim 1, 밝기가 조절된 상기 제2 타겟 이미지가 출력되는 단계Outputting the second target image whose brightness is adjusted; 를 더 포함하는, 이미지 처리방법.Further comprising, the image processing method. 제1항에 있어서,The method of claim 1, 상기 제2 타겟 이미지를 구성하기 위한 적어도 하나 이상의 카메라로 획득되는 이미지의 밝기 조절을 통해서 상기 제2 타겟 이미지의 밝기가 조절되는, 이미지 처리방법.The brightness of the second target image is adjusted by adjusting the brightness of the image obtained by the at least one camera for constituting the second target image. 제1항에 있어서,The method of claim 1, 상기 제1 타겟 이미지와 상기 제2 타겟 이미지는 제1 카메라의 영상을 포함하고,The first target image and the second target image includes an image of the first camera, 상기 제1 모드일때 제1 카메라의 노출시간과 상기 제 2모드일 때 제1 카메라의 노출시간이 서로 다른, 이미지 처리방법.The exposure time of the first camera in the first mode and the exposure time of the first camera in the second mode are different. 제1항에 있어서,The method of claim 1, 상기 제1 타겟 이미지와 상기 제2 타겟 이미지는 적어도 두개 이상의 카메라의 영상을 포함하고,The first target image and the second target image includes at least two images of the camera, 상기 제1 모드일때의 해당 카메라의 노출시간과 상기 제 2모드일 때의 해당 카메라의 노출시간이 서로 다른, 이미지 처리방법.And an exposure time of the camera in the first mode and an exposure time of the camera in the second mode are different. 제1항에 있어서,The method of claim 1, 상기 제1모드에서의 상기 제1 타겟 이미지는 상기 적어도 하나의 카메라 중 적어도 둘 이상의 카메라로부터 획득된 이미지를 기반으로 변환 또는 정합된 이미지이고,The first target image in the first mode is an image converted or matched based on an image obtained from at least two or more cameras of the at least one camera, 상기 제2모드에서의 상기 제2 타겟 이미지는 상기 적어도 하나의 카메라 중 하나의 카메라로부터 획득된 이미지를 기반으로 하는 이미지인, 이미지 처리방법.And the second target image in the second mode is an image based on an image obtained from one of the at least one cameras. 제1항에 있어서,The method of claim 1, 상기 제1모드에서의 상기 제1 타겟 이미지는 상기 적어도 하나의 카메라 중 하나의 카메라로부터 획득된 이미지를 기반으로 하는 이미지이고,The first target image in the first mode is an image based on an image obtained from one of the at least one camera, 상기 제2모드에서의 상기 제2 타겟 이미지는 상기 적어도 하나의 카메라 중 적어도 둘 이상의 카메라로부터 획득된 이미지를 기반으로 변환 또는 정합된 이미지인, 이미지 처리방법.And the second target image in the second mode is an image converted or matched based on an image obtained from at least two cameras of the at least one camera. 제1항에 있어서,The method of claim 1, 상기 제1모드에서의 상기 제1 타겟 이미지는 상기 적어도 하나의 카메라 중 적어도 둘 이상의 카메라로부터 획득된 이미지를 기반으로 변환 또는 정합된 이미지이고,The first target image in the first mode is an image converted or matched based on an image obtained from at least two or more cameras of the at least one camera, 상기 제2모드에서의 상기 제2 타겟 이미지는 상기 적어도 하나의 카메라 중 적어도 둘 이상의 카메라로부터 획득된 이미지를 기반으로 변환 또는 정합된 이미지인, 이미지 처리방법.And the second target image in the second mode is an image converted or matched based on an image obtained from at least two cameras of the at least one camera. 제1항에 있어서,The method of claim 1, 상기 제1모드에서의 상기 제1 타겟 이미지는 적어도 일부가 상기 제2모드에서의 제2 타겟 이미지의 일부와 중첩되는, 이미지 처리방법.And at least a portion of the first target image in the first mode overlaps with a portion of the second target image in the second mode. 제1항에 있어서,The method of claim 1, 상기 제1 모드 및 제2 모드는 상기 적어도 하나의 카메라로 중 어느 하나로부터 획득된 이미지 또는 상기 적어도 하나의 카메라 각각으로부터 획득된 적어도 하나의 이미지로 이루어진 서로 다른 영상을 출력하는, 이미지 처리방법.And the first mode and the second mode output different images composed of an image obtained from one of the at least one camera or at least one image obtained from each of the at least one camera.
PCT/KR2017/009674 2016-09-08 2017-09-05 Method for displaying image in multi-view mode Ceased WO2018048167A1 (en)

Priority Applications (3)

Application Number Priority Date Filing Date Title
EP17849051.2A EP3512195A4 (en) 2016-09-08 2017-09-05 METHOD FOR DISPLAYING IMAGE IN A MULTIPLE VIEWING MODE
CN201780055360.3A CN109691091A (en) 2016-09-08 2017-09-05 Method for displaying images in multiview mode
US16/331,413 US11477372B2 (en) 2016-09-08 2017-09-05 Image processing method and device supporting multiple modes and improved brightness uniformity, image conversion or stitching unit, and computer readable recording medium realizing the image processing method

Applications Claiming Priority (8)

Application Number Priority Date Filing Date Title
KR10-2016-0115913 2016-09-08
KR10-2016-0115912 2016-09-08
KR20160115913 2016-09-08
KR20160115912 2016-09-08
KR1020160165385A KR20180028354A (en) 2016-09-08 2016-12-06 Method for displaying image in multiple view modes
KR1020160165383A KR20180028353A (en) 2016-09-08 2016-12-06 Method for displaying image in multiple view modes
KR10-2016-0165385 2016-12-06
KR10-2016-0165383 2016-12-06

Publications (1)

Publication Number Publication Date
WO2018048167A1 true WO2018048167A1 (en) 2018-03-15

Family

ID=61561417

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/KR2017/009674 Ceased WO2018048167A1 (en) 2016-09-08 2017-09-05 Method for displaying image in multi-view mode

Country Status (1)

Country Link
WO (1) WO2018048167A1 (en)

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20130208140A1 (en) * 2012-02-15 2013-08-15 Harman Becker Automotive Systems Gmbh Brightness adjustment system
KR20130117564A (en) * 2012-04-18 2013-10-28 현대모비스 주식회사 Device for correcting image obtained from camera for vehicle and method for correcting image using the same
US20140152778A1 (en) * 2011-07-26 2014-06-05 Magna Electronics Inc. Imaging system for vehicle
KR101558586B1 (en) * 2009-06-15 2015-10-07 현대자동차일본기술연구소 VEHICLE VIDEO DISPLAY AND METHOD
KR20150143144A (en) * 2014-06-13 2015-12-23 현대모비스 주식회사 Around view monitoring apparatus and Method of thereof

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101558586B1 (en) * 2009-06-15 2015-10-07 현대자동차일본기술연구소 VEHICLE VIDEO DISPLAY AND METHOD
US20140152778A1 (en) * 2011-07-26 2014-06-05 Magna Electronics Inc. Imaging system for vehicle
US20130208140A1 (en) * 2012-02-15 2013-08-15 Harman Becker Automotive Systems Gmbh Brightness adjustment system
KR20130117564A (en) * 2012-04-18 2013-10-28 현대모비스 주식회사 Device for correcting image obtained from camera for vehicle and method for correcting image using the same
KR20150143144A (en) * 2014-06-13 2015-12-23 현대모비스 주식회사 Around view monitoring apparatus and Method of thereof

Similar Documents

Publication Publication Date Title
JP4869795B2 (en) Imaging control apparatus, imaging system, and imaging control method
US9635273B2 (en) Multi-imager video camera with frame-by-frame view switching
US7245325B2 (en) Photographing device with light quantity adjustment
US11477372B2 (en) Image processing method and device supporting multiple modes and improved brightness uniformity, image conversion or stitching unit, and computer readable recording medium realizing the image processing method
JP6319340B2 (en) Movie imaging device
WO2021137555A1 (en) Electronic device comprising image sensor and method of operation thereof
JP2010093472A (en) Imaging apparatus, and signal processing circuit for the same
WO2017195965A1 (en) Apparatus and method for image processing according to vehicle speed
WO2015083971A1 (en) Electronic apparatus and method of controlling the same
JP4487342B2 (en) Digital camera
WO2015122604A1 (en) Solid-state image sensor, electronic device, and auto focusing method
WO2016060366A1 (en) Imaging apparatus and imaging method
CN109493273A (en) A kind of color consistency adjusting method
WO2021133025A1 (en) Electronic device comprising image sensor and method of operation thereof
WO2021261737A1 (en) Electronic device comprising image sensor, and method for controlling same
JP2013029995A (en) Imaging system
WO2019117549A1 (en) Imaging apparatus, imaging method, and computer program product
JP5545596B2 (en) Image input device
WO2018048167A1 (en) Method for displaying image in multi-view mode
EP3656121A1 (en) Imaging apparatus, imaging method, and computer program product
KR20180028354A (en) Method for displaying image in multiple view modes
JP3397397B2 (en) Imaging device
WO2018070799A1 (en) Image matching method and apparatus
WO2011027994A2 (en) Image-processing apparatus and image-processing method for generating a wide angle image
WO2018012925A1 (en) Image producing method and device

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 17849051

Country of ref document: EP

Kind code of ref document: A1

NENP Non-entry into the national phase

Ref country code: DE

ENP Entry into the national phase

Ref document number: 2017849051

Country of ref document: EP

Effective date: 20190408

WWP Wipo information: published in national office

Ref document number: 2017849051

Country of ref document: EP

WWW Wipo information: withdrawn in national office

Ref document number: 2017849051

Country of ref document: EP