WO2018147599A1 - 차량의 운전을 보조하는 전자 장치 및 방법 - Google Patents
차량의 운전을 보조하는 전자 장치 및 방법 Download PDFInfo
- Publication number
- WO2018147599A1 WO2018147599A1 PCT/KR2018/001450 KR2018001450W WO2018147599A1 WO 2018147599 A1 WO2018147599 A1 WO 2018147599A1 KR 2018001450 W KR2018001450 W KR 2018001450W WO 2018147599 A1 WO2018147599 A1 WO 2018147599A1
- Authority
- WO
- WIPO (PCT)
- Prior art keywords
- vehicle
- lane
- area
- entry
- electronic device
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Ceased
Links
Images
Classifications
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60W—CONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
- B60W30/00—Purposes of road vehicle drive control systems not related to the control of a particular sub-unit, e.g. of systems using conjoint control of vehicle sub-units
- B60W30/18—Propelling the vehicle
- B60W30/18009—Propelling the vehicle related to particular drive situations
- B60W30/18163—Lane change; Overtaking manoeuvres
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/50—Context or environment of the image
- G06V20/56—Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60W—CONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
- B60W30/00—Purposes of road vehicle drive control systems not related to the control of a particular sub-unit, e.g. of systems using conjoint control of vehicle sub-units
- B60W30/18—Propelling the vehicle
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60W—CONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
- B60W40/00—Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models
- B60W40/02—Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models related to ambient conditions
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60W—CONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
- B60W40/00—Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models
- B60W40/10—Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models related to vehicle motion
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60W—CONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
- B60W50/00—Details of control systems for road vehicle drive control not related to the control of a particular sub-unit, e.g. process diagnostic or vehicle driver interfaces
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60W—CONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
- B60W50/00—Details of control systems for road vehicle drive control not related to the control of a particular sub-unit, e.g. process diagnostic or vehicle driver interfaces
- B60W50/08—Interaction between the driver and the control system
- B60W50/14—Means for informing the driver, warning the driver or prompting a driver intervention
-
- G—PHYSICS
- G02—OPTICS
- G02B—OPTICAL ELEMENTS, SYSTEMS OR APPARATUS
- G02B27/00—Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
- G02B27/01—Head-up displays
- G02B27/0101—Head-up displays characterised by optical features
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/24—Classification techniques
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/50—Context or environment of the image
- G06V20/56—Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
- G06V20/588—Recognition of the road, e.g. of lane markings; Recognition of the vehicle driving pattern in relation to the road
-
- G—PHYSICS
- G08—SIGNALLING
- G08G—TRAFFIC CONTROL SYSTEMS
- G08G1/00—Traffic control systems for road vehicles
- G08G1/16—Anti-collision systems
- G08G1/167—Driving aids for lane monitoring, lane changing, e.g. blind spot detection
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60R—VEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
- B60R2300/00—Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle
- B60R2300/20—Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by the type of display used
- B60R2300/205—Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by the type of display used using a head-up display
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60W—CONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
- B60W50/00—Details of control systems for road vehicle drive control not related to the control of a particular sub-unit, e.g. process diagnostic or vehicle driver interfaces
- B60W2050/0062—Adapting control system settings
- B60W2050/0075—Automatic parameter input, automatic initialising or calibrating means
- B60W2050/009—Priority selection
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60W—CONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
- B60W50/00—Details of control systems for road vehicle drive control not related to the control of a particular sub-unit, e.g. process diagnostic or vehicle driver interfaces
- B60W50/08—Interaction between the driver and the control system
- B60W50/14—Means for informing the driver, warning the driver or prompting a driver intervention
- B60W2050/146—Display means
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60Y—INDEXING SCHEME RELATING TO ASPECTS CROSS-CUTTING VEHICLE TECHNOLOGY
- B60Y2400/00—Special features of vehicle units
- B60Y2400/30—Sensors
- B60Y2400/301—Sensors for position or displacement
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60Y—INDEXING SCHEME RELATING TO ASPECTS CROSS-CUTTING VEHICLE TECHNOLOGY
- B60Y2400/00—Special features of vehicle units
- B60Y2400/92—Driver displays
Definitions
- the driver of the vehicle changes the lane being driven.
- the driver checks the left or right side of the vehicle by using a mirror provided in the vehicle.
- the driver performs the change by car.
- an apparatus and a method for assisting the driving of a vehicle so that a driver of the vehicle can change lanes safely provides a computer-readable recording medium having recorded thereon a program for executing the method on a computer.
- the technical problem to be solved is not limited to the above technical problems, and other technical problems may exist.
- FIG. 1 is a diagram illustrating an example of an operation of an electronic device that assists a driver of a vehicle, according to an exemplary embodiment.
- FIG. 2 is a flowchart of a method of assisting an electronic device in driving a vehicle, according to an exemplary embodiment.
- FIG. 3 is a flowchart of a method of recognizing, by an electronic device, an estimated entry lane according to an embodiment.
- FIG. 4 illustrates an embodiment in which the electronic device recognizes an entry scheduled lane.
- FIG. 5 is a flowchart of a method of determining, by an electronic device, an accessible area through candidate areas according to an embodiment.
- FIG 6 illustrates an embodiment in which an electronic device determines an accessible area through candidate areas.
- FIG. 7 is a flowchart of a method of changing, by an electronic device, an accessible area according to an embodiment.
- FIG 8 illustrates an embodiment in which the electronic device changes an accessible area.
- FIG 9 illustrates an embodiment in which the electronic device outputs information on an accessible region and an entry condition.
- 10A and 10B illustrate another embodiment in which an electronic device assists in driving a vehicle.
- FIG. 11 is a block diagram of an electronic device that assists a driver of a vehicle, according to an exemplary embodiment.
- FIG. 12 is a block diagram of an electronic device that assists a driver of a vehicle, according to another exemplary embodiment.
- FIG. 13 is a block diagram of a vehicle according to an exemplary embodiment.
- an apparatus for assisting a driver of a vehicle may include: a sensing unit configured to sense a driving state of at least one external vehicle on an entry scheduled lane that the vehicle intends to enter through a lane change; A processor configured to determine an accessible area on an entry scheduled lane based on the sensed driving state of the at least one external vehicle and to determine an entry condition for entering the vehicle into the accessible area; And an output unit configured to output information about the accessible region and the entry condition.
- a method of assisting a driver of a vehicle may include: sensing a driving state of at least one external vehicle on a planned entry lane that the vehicle intends to enter through a lane change; Determining an accessible area on a planned entry lane based on the sensed driving state of the at least one external vehicle; Determining an entry condition for the vehicle to enter the accessible area; And outputting information on the accessible region and the entry condition.
- a computer-readable recording medium includes a recording medium recording a program for executing the above-described method on a computer.
- FIG. 1 is a diagram illustrating an example of an operation of an electronic device that assists driving of a vehicle, according to an exemplary embodiment.
- the vehicle 1 may include an electronic device 100 (hereinafter, referred to as an electronic device 100) that assists in driving the vehicle 1.
- the electronic device 100 is a device that assists the driving of the vehicle 1 so that a driver can drive the vehicle 1 more conveniently and safely.
- the electronic device 100 may assist the driver to change the lane more conveniently.
- the driver drives the vehicle 1 to change the lane from the current driving lane to the oncoming lane on the highway.
- the electronic device 100 may sense the driving state of the at least one external vehicle on the entry lane to determine the entryable area on the entry lane, and the vehicle 1 may enter the determined entry area. Entry conditions can be determined. Accordingly, the electronic device 100 may output information about the determined entry possibility area and entry conditions. For example, as illustrated in FIG. 1, the electronic device 100 may display information on a speed for entering the vehicle 1 into an accessible area on a center information display.
- the electronic device 100 assists the driving of the vehicle 1 so that the driver may change the lane more conveniently. can do.
- FIG. 2 is a flowchart of a method of assisting an electronic device in driving a vehicle, according to an exemplary embodiment.
- the electronic device 100 may sense a driving state of at least one external vehicle on an entry scheduled lane that the vehicle 1 intends to enter through a lane change. That is, the electronic device 100 may sense the position, the speed, and the acceleration of at least one external vehicle on the approaching lane. For example, the electronic device 100 may sense the position, speed, and acceleration of at least one external vehicle using a distance sensor. In addition, the electronic device 100 may include at least one orientation of at least one external vehicle, shaking conditions such as yaw, roll, and pitch of the at least one external vehicle, and at least (if at least one external vehicle is not an unmanned vehicle). The driver state of one external vehicle may be sensed.
- the electronic device 100 may recognize an entry schedule lane that the vehicle 1 intends to enter through a lane change, and sense the driving state of at least one external vehicle on the recognized entry lane.
- the electronic device 100 may determine an accessible area on the entry schedule lane based on the driving state sensed in operation S210.
- the accessible area may mean an area suitable for the vehicle 1 to enter by changing lanes.
- the electronic device 100 may determine an accessible area in consideration of at least one of a position, a speed, and an acceleration of the at least one external vehicle on the approaching lane.
- the electronic device 100 may calculate a vehicle interval between the external vehicles in consideration of the position of the sensed at least one external vehicle. For example, the electronic device 100 may sense a distance between each of the front vehicle and the rear vehicle and the vehicle 1 among the external vehicles forming the gap between the vehicles. Subsequently, the electronic device 100 may calculate a gap between the front vehicle and the rear vehicle according to trigonometry by using the distance between the front vehicle and the vehicle 1 and the distance between the rear vehicle and the vehicle 1. .
- the electronic device 100 may determine an accessible area in consideration of a gap between the external vehicles.
- the electronic device 100 may determine an area between the external vehicles forming the gap as an accessible area according to whether the gap between the vehicles is equal to or greater than a preset length.
- the preset length may be set in consideration of the length of the overall length of the vehicle 1.
- the electronic device 100 may further determine the entry possible area in consideration of the degree of change in the inter-vehicle spacing as well as the inter-vehicle spacing. For example, when the speed of the front vehicle is reduced or the speed of the rear vehicle is increased to reduce the gap between the vehicles, the electronic device 100 may form an area between the external vehicles that form a reduced gap even if the distance between the vehicles is more than a preset length. Can be excluded from the reachable area.
- the electronic device 100 may further determine the entry possible area on the entry schedule lane in consideration of the driving state of the vehicle 1 as well as the driving state of the sensed at least one external vehicle. For example, even if the gap is more than a predetermined length, when the location of the gap is at least a certain distance from the position of the vehicle 1, the electronic device 100 may close an area between the external vehicles forming the gap. May be excluded from the reachable area. In addition, when the driving speed of the front and rear external vehicles is faster than the traveling speed of the vehicle 1 by a predetermined speed or more, the electronic device 100 may exclude the area between the front and rear vehicles from the accessible area.
- the electronic device 100 may continue to sense the driving state of the external vehicles on the entry scheduled lane. As a result of the sensing, when it is determined that the predetermined accessible area is not accessible, the electronic device 100 may change the accessible area.
- the electronic device 100 may determine an entry condition for entering the vehicle 1 into the accessible area determined in operation S220.
- the entry conditions include a position on the driving lane for the vehicle 1 to enter the accessible area from the driving lane, a time point for the vehicle 1 to enter the accessible area, and entry of the vehicle 1 into the accessible area. At least one of the speed may include, but is not limited thereto.
- the electronic device 100 may output information about an entry possibility area determined in s220 and an entry condition determined in s230.
- the electronic device 100 may output information about at least one of a position, a time point, a speed, an acceleration, and a direction for entering the vehicle-accessible area to the driver.
- the electronic device 100 may display and output, as an image, information for guiding entry into the accessible area according to the entry condition through the display.
- the electronic device 100 may provide, through a head-up-display, information that guides the user to enter the accessible area according to the entry condition. ) Can be projected.
- the electronic device 100 may output voice information for guiding entry into the accessible area according to the entry condition through the sound output device.
- the electronic device 100 may provide the driver with information indicating that entry is not possible in the entry lane.
- FIG. 3 is a flowchart of a method of recognizing, by an electronic device, an estimated entry lane according to an embodiment.
- the electronic device 100 may sense the shape of the driving lane on which the vehicle 1 is driving and the shape of at least one adjacent lane adjacent to the driving lane.
- the electronic device 100 may sense the shape of the driving lane and the shape of at least one lane adjacent to the driving lane using an image sensor.
- the shape of the lane may include the shape of the lane, the lane width, the curvature of the lane, and the like.
- the electronic device 100 may sense the shape of the driving lane and the shape of at least one lane adjacent to the driving lane.
- the electronic device 100 may recognize a change in the shape of the lane, a width of the lane, whether or not the other lane is connected, and a shape of the joint path. Can be.
- the electronic device 100 may select an entry scheduled lane from at least one adjacent lane based on the driving lane sensed in S310 and the shape of the adjacent lane.
- the electronic device 100 may recognize in advance an entrance scheduled lane of the vehicle 1 based on the sensed driving lane and the adjacent lanes, and may select an entrance scheduled lane from at least one adjacent lane.
- the electronic device 100 may recognize a numeric change or a curvature change of the lane based on the driving lane sensed in S310 and the shape of the adjacent lane, and at least one through the recognized numeric change or the curvature change. It is possible to select an approaching lane from among adjacent lanes of.
- the electronic device 100 may sense a marker displayed on a sign, a guard rail, or a driving lane located near the vehicle 1 to determine an entry scheduled lane adjacent to the driving lane.
- the electronic device 100 may sense a landmark such as a building, a bridge, a tunnel, a curb, or a signage in the vicinity of the electronic device 100, and may determine an entrance scheduled lane adjacent to the driving lane.
- the electronic device 100 may sense a driving state of at least one external vehicle on the entry schedule lane selected in operation S320.
- the electronic device 100 may recognize the entry scheduled lane of the vehicle 1 without a separate input by the driver, and as a result, the driver may enter an entry condition for entering the entry-capable area on the recognized entry scheduled lane. To guide to the bar, it can provide a convenience and safety for the driving of the vehicle (1).
- FIG. 4 illustrates an embodiment in which the electronic device recognizes an entry scheduled lane.
- the electronic device 100 may sense the shape of the current driving lane 401 of the vehicle 1 and the shape of at least one adjacent lane 403 and 405 adjacent to the current driving lane 401. As a result of the sensing, the electronic device 100 may recognize that the vehicle 1 is currently required to enter a two-lane highway through the access road. Specifically, as a result of sensing the shape of the current driving lane 401 and the shape of the at least one adjacent lane 403, 405, the electronic device 100 recognizes a change in the number of neighboring lanes and a change in curvature of the current driving lane 401. As a result, it may be recognized that the situation requires entering the lane adjacent to the current driving lane 401.
- the electronic device 100 may select the lane 403 of the at least one adjacent lane 403, 405 as the entry scheduled lane based on the sensed current driving lane 401 and the at least one adjacent lane 403, 405. .
- the electronic device 100 may select the lane 403 which is the closest to the current driving lane 401 as the entry scheduled lane, based on the sensed current driving lane 401 and at least one adjacent lane 403, 405. have.
- FIG. 5 is a flowchart of a method of determining, by an electronic device, an accessible area through candidate areas according to an embodiment.
- the electronic device 100 may determine candidate areas for the accessible area based on driving conditions of the external vehicles on the approaching lane. That is, the electronic device 100 may determine the candidate areas first before determining the accessible area. For example, the electronic device 100 may determine, as candidate regions, areas corresponding to each of the gaps between the external vehicles on the approaching lane.
- the electronic device 100 may classify the candidate regions determined in operation 510 by priority according to a preset criterion.
- the electronic device 100 may classify the N candidate areas into 1st to Nth candidate areas according to a predetermined criterion.
- the electronic device 100 may classify the candidate areas by priority based on the length of the gap interval corresponding to each of the candidate areas.
- the electronic device 100 may determine a candidate area corresponding to a relatively long gap between the candidate areas as a priority candidate area, and determine a candidate area corresponding to a relatively short gap as a next-order entry possible area. have. Therefore, the electronic device 100 may determine a candidate area corresponding to the longest interval between the candidate areas as the highest priority candidate area.
- the electronic device 100 may classify the candidate areas by priority in consideration of the driving state of the vehicle 1.
- the electronic device 100 may classify candidate areas by priority based on a change rate of the traveling speed of the vehicle 1. For example, in the case of the candidate area where the vehicle 1 should enter without changing the change rate of the current driving speed, the electronic device 100 may determine the priority candidate area, and the electronic device 100 determines that the vehicle 1 In the case of the accessible area in which the rate of change of the current traveling speed should be increased, it may be determined as the subordinate candidate area.
- the electronic device 100 may classify the candidate areas by priority in consideration of the length of the gap interval corresponding to each of the candidate areas and the driving state of the vehicle 1 at the same time.
- the electronic device 100 may determine a candidate area into which the vehicle 1 may enter first among the candidate areas having a space interval greater than or equal to a preset value as the highest priority candidate area.
- the electronic device 100 may determine that the candidate area into which the vehicle 1 may enter after the predetermined time is the highest priority candidate area even if the candidate area having the inter-vehicle spacing smaller than the predetermined value gradually increases.
- the electronic device 100 may determine the highest priority candidate area among the classified candidate areas as an entry-capable area.
- FIG 6 illustrates an embodiment in which an electronic device determines an accessible area through candidate areas.
- the electronic device 100 may determine candidate areas for the accessible area based on driving conditions of Cars 1 to 6, which are external vehicles on the approaching lane. That is, the electronic device 100 may include a gap between Car 1 and Car 2, a gap between Car 3 and Car 4, and a gap between Car 5 and Car 6 that satisfy at least a predetermined length among the gaps between Car 1 through Car 6. Areas corresponding to the gap may be determined as candidate areas for the accessible area.
- the electronic device 100 may classify the candidate areas by priority according to a preset criterion, and determine the first, second, and third candidate areas.
- the electronic device 100 may determine an area corresponding to the gap between Car 3 and Car 4 as the first candidate region, and Car 1 and Car Since the inter-vehicle spacing between 2 is the second longest inter-vehicle interval, the area corresponding to the inter-vehicle spacing between Car 1 and Car 2 can be determined as the second-order candidate region, and the inter-vehicle spacing between Car 5 and Car 6 is the third longest inter-vehicle interval.
- the region corresponding to the inter-vehicle spacing between, Car 5 and Car 6 may be determined as the third-order candidate region.
- the electronic device 100 determines the area corresponding to the gap between Car 3 and Car 4 as the first candidate candidate in consideration of the degree of change of the gap between cars due to the change in the speed or acceleration of the vehicle.
- the area corresponding to the gap between Car 1 and Car 2 may be determined as a second priority candidate, and the area corresponding to the gap between Car 5 and Car 6 may be determined as a third priority candidate.
- the electronic device 100 may determine the first-order candidate area, the second-rank candidate area, and the third-rank candidate area by considering the shaking states of the front and rear vehicles that form the gap.
- the electronic device 100 may determine the first priority candidate area among the candidate areas as the entryable area.
- FIG. 7 is a flowchart of a method of changing, by an electronic device, an accessible area according to an embodiment.
- the electronic device 100 may determine an accessible area on the entry schedule lane. For example, the electronic device 100 may determine a first priority candidate area among the candidate areas on the entry schedule lane as the accessible area.
- the electronic device 100 may sense a driving state of the external vehicle around the accessible area determined in operation 710. Even after the electronic device 100 determines the accessible area in S710, the electronic device 100 may continuously sense an external vehicle around the determined accessible area. For example, the electronic device 100 may continuously sense an external vehicle around the determined accessible area until the distance between the vehicle 1 and the accessible area is within a predetermined distance. In addition, the electronic device 100 may sense the direction of the external vehicle, the shaking state, the driver's state of the external vehicle, and the like around the accessible area.
- the electronic device 100 may determine whether the accessible area determined in operation 710 is inaccessible state as a result of sensing in operation S720. For example, as a result of sensing in S720, when the external vehicle enters the accessible area in the lane next to the entry lane, the electronic device 100 may determine the accessible area determined in S710 as the inaccessible state. As another example, when the sensing result in s720 decreases the accessible area due to the speed change of the front and rear external vehicles forming the accessible area, the electronic device 100 cannot enter the accessible area determined in s710. Judging by
- the electronic device 100 may determine the accessible area determined in S710 as an inaccessible state based on the sensing result in S720, the shaking state of the vehicle around the accessible area, or the driver state. For example, when the shaking degree of the vehicle around the accessible area is greater than or equal to a preset value or when the driver sleeps, the electronic device 100 may determine the accessible area determined in S710 as an inaccessible state.
- the electronic device 100 may change an entry area. For example, since the first-order candidate area of the candidate areas on the entry schedule lane cannot be entered, the electronic device 100 may re-determine the second-rank candidate area among the candidate areas as the accessible area.
- the electronic device 100 may determine an entry condition for entering the vehicle 1 into the accessible area.
- FIG 8 illustrates an embodiment in which the electronic device changes an accessible area.
- the electronic device 100 may determine a first priority candidate area among the candidate areas as an accessible area. Subsequently, the electronic device 100 may continuously sense the external vehicle around the accessible area until the vehicle 1 is within a predetermined distance. For example, the electronic device 100 may sense Car 3 and Car 4, which are external vehicles in front of and behind the accessible area, and may sense Car N located in a lane next to the approaching lane.
- the electronic device 100 may continuously sense a speed change, a shaking state, and the like of an external vehicle around the accessible area. Accordingly, the electronic device 100 may anticipate a possible accident due to the shaking state of the external vehicle. As a result of the sensing, the electronic device 100 may sense a driving state in which Car N enters the accessible area. The electronic device 100 may determine that the accessible area is in an inaccessible state.
- the electronic device 100 may change the accessible area and may re-determine the second-order candidate area among the candidate areas as the accessible area.
- FIG 9 illustrates an embodiment in which the electronic device outputs information on an accessible region and an entry condition.
- the electronic device 100 may display and output information about the accessible area and the entry condition on the front window 910 through the head-up display.
- the electronic device 100 may project an image guiding an accessible area and an entry condition among the candidate areas to the front window 910 so that the driver may view the front window 910 when the driver views the front window 910. Can be recognized.
- the electronic device 100 may be disposed at a gap between the external vehicle 912 and the external vehicle 914 that appear in the front window 910.
- a corresponding area may be determined as an accessible area, and a speed of 56 km, which is an entry condition for entering the accessible area, may be determined.
- the electronic device 100 may project an image for guiding an entrance area and an entry condition onto the front window 910.
- the driver may recognize the approachable area and the entry condition while watching the front, and change the driving lane according to the enterable area and the entry condition.
- 10A and 10B illustrate another embodiment in which an electronic device assists in driving a vehicle.
- the driver must drive the vehicle 1 to turn right from the current driving lane to the entry scheduled lane.
- the electronic device 100 included in the vehicle 1 may sense the type of the driving lane being driven and the shape of the at least one lane adjacent to the driving lane and recognize the approaching lane. That is, the electronic device 100 may recognize the closest forward horizontal lane as the entry scheduled lane through the sensed lane.
- the electronic device 100 may sense a driving state of at least one external vehicle on the entry schedule lane. That is, the electronic device 100 may determine the accessible area in consideration of at least one of the position, speed, and acceleration of the sensed at least one external vehicle. As illustrated in FIG. 10, the electronic device 100 senses the positions and speeds of the external vehicles 1010, 1020, and 1030 so as to detect an area corresponding to the gap between the external vehicle 1010 and the external vehicle 1020. It may be determined as an inaccessible area, and areas corresponding to the external vehicle 1020 and the external vehicle 1030 may be determined as an accessible area.
- the electronic device 100 may determine an entry condition for the vehicle 1 to enter the predetermined accessible area. That is, the electronic device 100 may determine a time point at which the vehicle 1 enters an area corresponding to the gap between the external vehicle 1010 and the external vehicle 1020 as 'after 5 seconds'.
- the electronic device 100 may inform the driver of the predetermined accessible area and entry conditions. As shown in FIG. 10A, the electronic device 100 may output a voice for guiding “going forward after 5 seconds and turning right” through the sound output device.
- the electronic device 100 may sense an external vehicle around the predetermined accessible area even after determining and outputting the accessible area and the entry condition in FIG. 10B.
- the electronic device 100 may sense an external vehicle 1040 located in a lane next to the approaching lane.
- the electronic device 100 may sense a driving state in which the external vehicle 1040 enters the accessible area, the electronic device 100 may determine that the accessible area is inaccessible.
- the electronic device 100 may change the accessible area into an area corresponding to the gap between the external vehicle 1040 and the external vehicle 1050.
- the electronic device 100 may re-determine an entry condition for the vehicle 1 to enter the changed accessible area. That is, the electronic device 100 may change the time point at which the vehicle 1 enters the area corresponding to the gap between the external vehicle 1030 and the external vehicle 1050 to 'after 10 seconds'.
- the electronic device 100 may inform the driver of the changed accessible area and the entry condition. As illustrated in FIG. 10B, the electronic device 100 may output a voice for guiding, "After 10 seconds, to go forward and turn right" through the sound output device.
- FIG. 11 is a block diagram of an electronic device that assists a driver of a vehicle, according to an exemplary embodiment.
- the electronic device 100 may include a sensing unit 110, a processor 120, and an output unit 130.
- 11 illustrates only components of the electronic device 100 related to the present embodiment. Accordingly, it will be understood by those skilled in the art that other general purpose components may be further included in addition to the components illustrated in FIG. 11.
- the sensing unit 110 may sense a driving state of at least one external vehicle on an entry scheduled lane that the vehicle 1 intends to enter through a lane change. That is, the electronic device 100 may sense the position, the speed, and the acceleration of at least one external vehicle on the approaching lane.
- the sensing unit 110 may include a plurality of sensors for sensing a driving state of at least one external vehicle.
- the sensing unit 110 may include a distance sensor such as a RADAR sensor and a LIDAR sensor, and an image sensor such as a camera.
- the sensing unit 110 may include one or more actuators configured to modify the position and / or orientation of the plurality of sensors, such that the external vehicle is located in each of the front, rear, and side directions of the vehicle 1. It can sense the driving state of the.
- the sensing unit 110 may sense the shape of the driving lane in which the vehicle 1 is driving and the shape of at least one lane adjacent to the driving lane.
- the sensing unit 110 may sense the shape of the driving lane and the shape of at least one lane adjacent to the driving lane using an image sensor.
- the processor 120 may recognize an entry schedule lane based on the type of the lane sensed by the sensing unit 110, and may select an entry schedule lane from at least one lane adjacent to the driving lane.
- the processor 120 may determine an entry possible area on an entry schedule lane based on a driving state of at least one external vehicle sensed by the sensing unit 110.
- the electronic device 100 may determine an accessible area in consideration of at least one of a location, a speed, and an acceleration of the at least one external vehicle on the approaching lane.
- the processor 120 may determine candidate areas for the accessible area based on driving conditions of external vehicles on the approaching lane. In other words, the processor 120 may determine candidate regions first before determining an accessible region. Subsequently, the processor 120 may classify the determined candidate areas according to priorities according to preset criteria. Subsequently, the processor 120 may determine the highest priority candidate region among the classified candidate regions as the entryable region. According to an embodiment, the processor 120 may be configured of at least one processor.
- the sensing unit 110 may sense a driving state of an external vehicle around the accessible area determined by the processor 120. Even after the accessible area is determined by the processor 120, the sensing unit 110 may continuously sense the external vehicle around the determined accessible area. As a result of the sensing, the processor 120 may determine whether the predetermined accessible area is in an inaccessible state, and when the non-accessible state is in the inaccessible state, the processor 120 may change the accessible area.
- the processor 120 may determine an entry condition for the vehicle 1 to enter the determined entrance area.
- the entry condition is a position on the driving lane for the vehicle 1 to enter the accessible area from the driving lane, a time point for the vehicle 1 to enter the accessible area, and a position for the vehicle 1 to enter the accessible area. It may include at least one of the speed.
- the output unit 130 may output an audio signal or a video signal, and the output unit 130 may include at least one of a display, a head-up display, and a sound output device.
- the output unit 130 may output information about an accessible region and an entry condition determined by the processor 120.
- the display of the output unit 130 may display and output the information for guiding the entry into the accessible area according to the entry condition.
- the head-up display of the output unit 130 may display and output the information on the front window of the vehicle 1 to guide information to enter the accessible area according to the entry condition.
- the sound output device of the output unit 130 may output voice information for guiding the entry into the accessible area according to the entry condition.
- FIG. 12 is a block diagram of an electronic device that assists a driver of a vehicle, according to another exemplary embodiment.
- the electronic device 100 may include a sensing unit 110, a processor 120, an output unit 130, a storage unit 140, an input unit 150, and a communication unit 160.
- the sensing unit 110 may include a plurality of sensors configured to sense information about an environment in which the vehicle 1 is located, and may include one or more actuators configured to modify the position and / or orientation of the sensors. have.
- the sensing unit 110 includes a Global Positioning System (GPS) 224, an Inertial Measurement Unit (IMU) 225, a RADAR sensor 226, a LIDAR sensor 227, and an image sensor 228.
- GPS Global Positioning System
- IMU Inertial Measurement Unit
- RADAR sensor 226, a LIDAR sensor 227 a RADAR sensor 226, a LIDAR sensor 227
- an image sensor 228 may include a camera, a stereo camera, a mono camera, a wide angle camera, or a 3D vision sensor, according to one embodiment.
- the sensing unit 110 may include at least one of a temperature / humidity sensor 232, an infrared sensor 233, an air pressure sensor 235, a proximity sensor 236, and an RGB sensor (illuminance sensor) 237. It may be, but is not limited thereto.
- the sensing unit 110 may be configured in a form in which the image sensor 228 and the RADAR sensor 226 are combined, or in a form in which the image sensor 228 and the LIDAR sensor 227 are combined. Since functions of the respective sensors can be intuitively deduced by those skilled in the art from the names, detailed descriptions thereof will be omitted.
- the sensing unit 110 may include a movement sensing unit 238 capable of sensing the movement of the vehicle 1.
- the motion sensing unit 238 may include a geomagnetic sensor 229, an acceleration sensor 231, and a gyroscope sensor 234.
- the GPS 224 may be a sensor configured to estimate the geographic location of the vehicle 1. That is, the GPS 224 may include a transceiver configured to estimate the position of the vehicle 1 with respect to the earth.
- IMU 225 may be a combination of sensors configured to detect changes in position and orientation of vehicle 1 based on inertial acceleration.
- the combination of sensors may include accelerometers and gyroscopes.
- the RADAR sensor 226 may be a sensor configured to detect objects in the environment in which the vehicle 1 is located using a wireless signal. In addition, the RADAR sensor 226 can be configured to sense the speed and / or direction of the objects.
- the LIDAR sensor 227 may be a sensor configured to detect objects in the environment in which the vehicle 1 is located using a laser. More specifically, LIDAR sensor 227 may include a laser light source and / or laser scanner configured to emit a laser, and a detector configured to detect reflection of the laser. LIDAR sensor 227 may be configured to operate in a coherent (eg, using hetirodyne detection) or incoherent detection mode.
- Image sensor 228 may be a still camera or video camera configured to record an environment outside of vehicle 1.
- the image sensor 228 may include a number of cameras, which may be located at a number of locations on the inside and outside of the vehicle 1.
- the storage unit 140 may include a magnetic disk drive, an optical disk drive, and a flash memory. Alternatively, the storage 140 may be a portable USB data storage device.
- the storage 140 can store system software for executing examples related to the present application. System software for carrying out the examples relating to the present disclosure may be stored on a portable storage medium.
- the communicator 160 may include at least one antenna for wirelessly communicating with another device.
- the communicator 160 may be used to communicate with a cellular network or other wireless protocols and systems wirelessly via Wi-Fi or Bluetooth.
- the communication unit 160 controlled by the processor 120 may transmit and receive a radio signal.
- the processor 120 may execute a program included in the storage 140 in order for the communication unit 160 to transmit and receive a wireless signal with the cellular network.
- the input unit 150 means a means for inputting data for controlling the vehicle 1.
- the input unit 150 includes a key pad, a dome switch, a touch pad (contact capacitive type, pressure resistive type, infrared sensing type, surface ultrasonic conduction type, integral tension) Measurement method, piezo effect method, etc.), a jog wheel, a jog switch, and the like, but are not limited thereto.
- the input unit 150 may include a microphone, which may be configured to receive audio (eg, a voice command) from a passenger of the vehicle 1.
- the output unit 130 may output an audio signal or a video signal
- the output device 280 may include a display 281, a sound output unit 282, and a vibrator 283.
- the display 281 may be a liquid crystal display, a thin film transistor-liquid crystal display, an organic light-emitting diode, a flexible display, or a three-dimensional display (3D). display, an electrophoretic display.
- the output unit 130 may include two or more displays 281.
- the sound output unit 282 outputs audio data received from the communication unit 160 or stored in the storage unit 140.
- the sound output unit 282 may include a speaker, a buzzer, and the like.
- the vibrator 283 may generate physical vibration using electrical energy.
- the input unit 150 and the output unit 130 may include a network interface, and may be implemented as a touch screen.
- the processor 120 controls the sensing unit 110, the communication unit 160, the input unit 150, the storage unit 140, and the output unit 130 by executing programs stored in the storage unit 140. can do.
- FIG. 13 is a block diagram of a vehicle according to an exemplary embodiment.
- the vehicle 1 may include the electronic device 100 and the traveling device 200 according to an embodiment.
- the vehicle 1 shown in FIG. 13 shows only the components related to the present embodiment. Accordingly, it will be understood by those skilled in the art that other general purpose components may be further included in addition to the components illustrated in FIG. 13.
- the electronic device 100 may include a sensing unit 110 and a processor 120.
- the traveling device 200 may include a brake unit 221, a steering unit 222, and a throttle 223.
- the steering unit 222 may be a combination of mechanisms configured to adjust the direction of the vehicle 1.
- Throttle 223 may be a combination of mechanisms configured to control the speed of operation of engine / motor 211 to control the speed of vehicle 1.
- the throttle 223 may adjust the amount of throttle opening to adjust the amount of mixed gas of fuel air flowing into the engine / motor 211, and may control power and thrust by adjusting the throttle opening.
- the brake unit 221 may be a combination of mechanisms configured to decelerate the vehicle 1.
- the brake unit 221 may use friction to reduce the speed of the wheel / tire 214.
- the sensing unit 110 may sense a driving state of at least one external vehicle on an entry scheduled lane that the vehicle 1 intends to enter through a lane change.
- the processor 120 may determine an entry possible area on an entry scheduled lane based on the driving state sensed by the sensing unit 110, and determine an entry condition for the vehicle 1 to enter the determined entrance area. .
- the processor 120 may control the vehicle 1 to enter the accessible area according to the determined entry condition.
- the processor 120 may control the driving device 200 to control the vehicle 1 to enter the accessible area on the scheduled driving lane from the current driving lane. Therefore, the vehicle 1 may drive by itself and change the lane without the driver's intervention.
- the device includes a processor, memory for storing and executing program data, permanent storage such as a disk drive, a communication port for communicating with an external device, a touch panel, a key, a button And a user interface device such as the like.
- Methods implemented by software modules or algorithms may be stored on a computer readable recording medium as computer readable codes or program instructions executable on the processor.
- the computer-readable recording medium may be a magnetic storage medium (eg, read-only memory (ROM), random-access memory (RAM), floppy disk, hard disk, etc.) and an optical reading medium (eg, CD-ROM). ) And DVD (Digital Versatile Disc).
- the computer readable recording medium can be distributed over network coupled computer systems so that the computer readable code is stored and executed in a distributed fashion.
- the medium is readable by the computer, stored in the memory, and can be executed by the processor.
- This embodiment can be represented by functional block configurations and various processing steps. Such functional blocks may be implemented in various numbers of hardware or / and software configurations that perform particular functions.
- an embodiment may include an integrated circuit configuration such as memory, processing, logic, look-up table, etc. that may execute various functions by the control of one or more microprocessors or other control devices. You can employ them.
- the present embodiment includes various algorithms implemented in C, C ++, Java (data structures, processes, routines or other combinations of programming constructs). It may be implemented in a programming or scripting language such as Java), an assembler, or the like.
- the functional aspects may be implemented with an algorithm running on one or more processors.
- the present embodiment may employ the prior art for electronic configuration, signal processing, and / or data processing.
- Terms such as “mechanism”, “element”, “means”, “configuration” can be used widely and are not limited to mechanical and physical configurations. The term may include the meaning of a series of routines of software in conjunction with a processor or the like.
Landscapes
- Engineering & Computer Science (AREA)
- Automation & Control Theory (AREA)
- Physics & Mathematics (AREA)
- Mechanical Engineering (AREA)
- Transportation (AREA)
- General Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- Mathematical Physics (AREA)
- Human Computer Interaction (AREA)
- Multimedia (AREA)
- Data Mining & Analysis (AREA)
- Optics & Photonics (AREA)
- Evolutionary Biology (AREA)
- Evolutionary Computation (AREA)
- General Engineering & Computer Science (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Bioinformatics & Computational Biology (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Artificial Intelligence (AREA)
- Life Sciences & Earth Sciences (AREA)
- Traffic Control Systems (AREA)
Abstract
차량이 차로 변경을 통해 진입하고자 하는 진입 예정 차로 상의 적어도 하나의 외부 차량의 주행 상태를 센싱하는 센싱부; 센싱된 적어도 하나의 외부 차량의 주행 상태에 기초하여, 진입 예정 차로 상의 진입 가능 영역을 결정하고, 진입 가능 영역으로 차량이 진입하기 위한 진입 조건을 결정하는 프로세서; 및 진입 가능 영역 및 진입 조건에 대한 정보를 출력하는 출력부;를 포함하는, 차량의 운전자를 보조하는 전자 장치 및 방법을 나타낸다.
Description
차량의 운전자가 안전하고 편리하게 차로를 변경할 수 있도록 차량의 운전을 보조하는 장치 및 방법에 관한다.
일반적으로 차량이 도로를 주행하는 경우, 차량의 운전자는 주행 중인 차로를 변경하게 된다. 차로 변경 시, 운전자는 차량에 구비되는 거울을 이용하여 차량의 좌측 또는 우측을 확인한다. 또한, 차량이 진입할 수 있는 충분한 공간이 있고 다른 차량과의 충돌 위험이 없다고 판단되는 경우에 운전자는 차로 변경을 수행한다.
하지만, 주행 중 운전자가 차로를 변경하기 위해 거울을 통해 차량의 좌측 또는 우측을 살펴보더라도, 차량의 좌측 또는 우측에 위치한 외부 차량과 차량 간의 거리, 해당 외부 차량의 속도에 관한 정보를 파악하기는 쉽지 않다. 그로 인해 운전자가 차로를 변경하는 경우에, 차량과 외부 차량 간의 접촉 사고가 발생할 가능성이 크다.
차량이 차로를 변경하는 경우에, 차량의 운전자가 안전하게 차로를 변경할 수 있도록 차량의 운전을 보조하는 장치 및 방법을 제공하는 데 있다. 또한, 상기 방법을 컴퓨터에서 실행시키기 위한 프로그램을 기록한 컴퓨터로 읽을 수 있는 기록매체를 제공하는 데 있다. 해결하려는 기술적 과제는 상기된 바와 같은 기술적 과제들로 한정되지 않으며, 또 다른 기술적 과제들이 존재할 수 있다.
도 1은 일 실시예에 따른 차량의 운전자를 보조하는 전자 장치가 동작하는 일 예를 도시하는 도면이다.
도 2는 일 실시예에 따라 전자 장치가 차량의 운전을 보조하는 방법의 흐름도이다.
도 3은 일 실시예에 따라 전자 장치가 진입 예정 차로를 인식하는 방법의 흐름도이다.
도 4는 전자 장치가 진입 예정 차로를 인식하는 실시예를 나타낸다.
도 5는 일 실시예에 따른 전자 장치가 후보 영역들을 통해 진입 가능 영역을 결정하는 방법의 흐름도이다.
도 6은 전자 장치가 후보 영역들을 통해 진입 가능 영역을 결정하는 실시예를 나타낸다.
도 7은 일 실시예에 따른 전자 장치가 진입 가능 영역을 변경하는 방법의 흐름도를 나타낸다.
도 8은 전자 장치가 진입 가능 영역을 변경하는 실시예를 나타낸다.
도 9는 전자 장치가 진입 가능 영역 및 진입 조건에 대한 정보를 출력하는 실시예를 나타낸다.
도 10a 및 10b는 전자 장치가 차량의 운전을 보조하는 다른 실시예를 나타낸다.
도 11은 일 실시예에 따른 차량의 운전자를 보조하는 전자 장치의 블록도를 도시하는 도면이다.
도 12는 다른 실시예에 따른 차량의 운전자를 보조하는 전자 장치의 블록도를 도시하는 도면이다.
도 13은 일 실시예에 따른 차량의 블록도를 도시하는 도면이다.
일 측면에 따른 차량의 운전자를 보조하는 장치는, 차량이 차로 변경을 통해 진입하고자 하는 진입 예정 차로 상의 적어도 하나의 외부 차량의 주행 상태를 센싱하는 센싱부; 센싱된 적어도 하나의 외부 차량의 주행 상태에 기초하여, 진입 예정 차로 상의 진입 가능 영역을 결정하고, 진입 가능 영역으로 차량이 진입하기 위한 진입 조건을 결정하는 프로세서; 및 진입 가능 영역 및 진입 조건에 대한 정보를 출력하는 출력부;를 포함할 수 있다.
다른 측면에 따른 차량의 운전자를 보조하는 방법은, 차량이 차로 변경을 통해 진입하고자 하는 진입 예정 차로 상의 적어도 하나의 외부 차량의 주행 상태를 센싱하는 단계; 센싱된 적어도 하나의 외부 차량의 주행 상태에 기초하여, 진입 예정 차로 상의 진입 가능 영역을 결정하는 단계; 진입 가능 영역으로 차량이 진입하기 위한 진입 조건을 결정하는 단계; 및 진입 가능 영역 및 진입 조건에 대한 정보를 출력하는 단계를 포함할 수 있다.
또 다른 측면에 따른 컴퓨터로 읽을 수 있는 기록매체는 상술한 방법을 컴퓨터에서 실행시키기 위한 프로그램을 기록한 기록매체를 포함한다.
실시 예들에서 사용되는 용어는 본 발명에서의 기능을 고려하면서 가능한 현재 널리 사용되는 일반적인 용어들을 선택하였으나, 이는 당 분야에 종사하는 기술자의 의도 또는 판례, 새로운 기술의 출현 등에 따라 달라질 수 있다. 또한, 특정한 경우는 출원인이 임의로 선정한 용어도 있으며, 이 경우 해당되는 발명의 설명 부분에서 상세히 그 의미를 기재할 것이다. 따라서 본 발명에서 사용되는 용어는 단순한 용어의 명칭이 아닌, 그 용어가 가지는 의미와 본 발명의 전반에 걸친 내용을 토대로 정의되어야 한다.
명세서 전체에서 어떤 부분이 어떤 구성요소를 "포함"한다고 할 때, 이는 특별히 반대되는 기재가 없는 한 다른 구성요소를 제외하는 것이 아니라 다른 구성요소를 더 포함할 수 있음을 의미한다. 또한, 명세서에 기재된 "?부", "?모듈" 등의 용어는 적어도 하나의 기능이나 동작을 처리하는 단위를 의미하며, 이는 하드웨어 또는 소프트웨어로 구현되거나 하드웨어와 소프트웨어의 결합으로 구현될 수 있다.
아래에서는 첨부한 도면을 참고하여 본 발명의 실시 예에 대하여 본 발명이 속하는 기술 분야에서 통상의 지식을 가진 자가 용이하게 실시할 수 있도록 상세히 설명한다. 그러나 본 발명은 여러 가지 상이한 형태로 구현될 수 있으며 여기에서 설명하는 실시 예에 한정되지 않는다.
이하에서는 도면을 참조하여 본 발명의 실시 예들을 상세히 설명한다.
도 1은 일 실시예에 따라 차량의 운전을 보조하는 전자 장치가 동작하는 일 예를 도시하는 도면이다.
차량(1)은 차량(1)의 운전을 보조하는 전자 장치(100)(이하, 전자 장치(100))를 포함할 수 있다. 전자 장치(100)는 운전자가 차량(1)을 보다 편리하고 안전하게 운전할 수 있도록 차량(1)의 운전을 보조하는 장치이다. 구체적으로, 운전자가 차량(1)을 운전하여 현재 주행 차로로부터 진입 예정 차로로 차로 변경을 하고자 하는 경우, 전자 장치(100)는 운전자가 보다 편리하게 차로를 변경할 수 있도록 보조할 수 있다.
일 실시예에 따라, 도 1에 도시된 바와 같이, 차량(1)이 진입로를 통해 고속도로로 진입하는 경우, 운전자는 차량(1)을 운전하여 현재 주행 차로로부터 고속도로 상의 진입 예정 차로로 차로를 변경하여야 한다. 이 경우, 전자 장치(100)는 진입 예정 차로 상의 적어도 하나의 외부 차량의 주행 상태를 센싱하여, 진입 예정 차로 상의 진입 가능 영역을 결정할 수 있고, 차량(1)이 결정된 진입 가능 영역으로 진입하기 위한 진입 조건을 결정할 수 있다. 이에 따라, 전자 장치(100)는 결정된 진입 가능 영역 및 진입 조건에 대한 정보를 출력할 수 있다. 예를 들어, 도 1에 도시된 바와 같이, 전자 장치(100)는 차량(1)이 진입 가능 영역으로 진입하기 위한 속도에 대한 정보를 중앙 정보 디스플레이(center information display)에 표시할 수 있다.
따라서, 운전자는 진입 조건에 따라 차량(1)을 운전하여 진입 가능 영역으로 차로 변경을 할 수 있으므로, 전자 장치(100)는 운전자가 보다 편리하게 차로를 변경할 수 있도록 차량(1)의 운전을 보조할 수 있다.
도 2는 일 실시예에 따라 전자 장치가 차량의 운전을 보조하는 방법의 흐름도이다.
단계 s210에서, 전자 장치(100)는 차량(1)이 차로 변경을 통해 진입하고자 하는 진입 예정 차로 상의 적어도 하나의 외부 차량의 주행 상태를 센싱할 수 있다. 즉, 전자 장치(100)는 진입 예정 차로 상의 적어도 하나의 외부 차량의 위치, 속도, 및 가속도를 센싱할 수 있다. 예를 들어, 전자 장치(100)는 거리 센서(distant sensor)를 이용하여 적어도 하나의 외부 차량의 위치, 속도, 및 가속도를 센싱할 수 있다. 또한, 전자 장치(100)는, 적어도 하나의 외부 차량의 방향(orientation), 적어도 하나의 외부 차량의 yaw, roll 및 pitch와 같은 흔들림 상태, 및 (적어도 하나의 외부 차량이 무인차가 아닌 경우) 적어도 하나의 외부 차량의 운전자 상태 등을 센싱할 수 있다.
또한, 전자 장치(100)는 차량(1)이 차로 변경을 통해 진입하고자 하는 진입 예정 차로를 인식할 수 있고, 인식된 진입 예정 차로 상의 적어도 하나의 외부 차량의 주행 상태를 센싱할 수 있다.
단계 s220에서, 전자 장치(100)는 s210에서 센싱된 주행 상태에 기초하여, 진입 예정 차로 상의 진입 가능 영역을 결정할 수 있다. 진입 가능 영역은 차량(1)이 차로를 변경하여 진입하기에 적합한 영역을 의미할 수 있다. 전자 장치(100)는 진입 예정 차로 상의 적어도 하나의 외부 차량의 위치, 속도, 및 가속도 중 적어도 하나를 고려하여, 진입 가능 영역을 결정할 수 있다.
전자 장치(100)는 센싱된 적어도 하나의 외부 차량의 위치를 고려하여 외부 차량들 간의 차간 간격(vehicle interval)을 계산할 수 있다. 예를 들어, 전자 장치(100)는 차간 간격을 형성하는 외부 차량들 중에서 전방 차량과 후방 차량 각각과 차량(1) 간의 거리를 센싱할 수 있다. 이어서, 전자 장치(100)는, 전방 차량과 차량(1) 간의 거리 및 후방 차량과 차량(1) 간의 거리를 이용하여, 삼각법(trigonometry)에 따라 전방 차량과 후방 차량의 차간 간격을 계산할 수 있다.
전자 장치(100)는 외부 차량들 간의 차간 간격을 고려하여 진입 가능 영역을 결정할 수 있다. 구체적으로, 전자 장치(100)는 차간 간격이 기 설정된 길이 이상인지 여부에 따라, 차간 간격을 형성하는 외부 차량들 사이의 영역을 진입 가능 영역으로 결정할 수 있다. 기 설정된 길이는 차량(1)의 전장의 길이를 고려하여 설정될 수 있다. 또한, 전자 장치(100)는 차간 간격뿐만 아니라 차간 간격의 변화 정도를 더 고려하여, 진입 가능 영역을 결정할 수 있다. 예를 들어, 전방 차량의 속도가 줄어들거나 후방 차량의 속도가 빨라져서 차간 간격이 줄어드는 경우, 전자 장치(100)는 차간 간격이 기 설정된 길이 이상이더라도, 줄어드는 차간 간격을 형성하는 외부 차량들 사이의 영역을 진입 가능 영역에서 제외시킬 수 있다.
전자 장치(100)는 센싱된 적어도 하나의 외부 차량의 주행 상태뿐만 아니라 차량(1)의 주행 상태를 더 고려하여, 진입 예정 차로 상의 진입 가능 영역을 결정할 수 있다. 예를 들어, 차간 간격이 기 설정된 길이 이상이더라도, 차간 간격의 위치가 차량(1)의 위치로부터 일정 거리 이상 떨어져있는 경우, 전자 장치(100)는 차간 간격을 형성하는 외부 차량들 사이의 영역을 진입 가능 영역에서 제외시킬 수 있다. 또한, 전방 및 후방의 외부 차량의 주행 속도가 차량(1)의 주행 속도 보다 일정 속도 이상 빠른 경우, 전자 장치(100)는 전방 및 후방 차량 사이의 영역을 진입 가능 영역에서 제외시킬 수 있다.
또한, 전자 장치(100)는 진입 가능 영역을 결정한 후에도, 진입 예정 차로 상의 외부 차량들에 대한 주행 상태를 계속하여 센싱할 수 있다. 센싱 결과, 전자 장치(100)는 기 결정된 진입 가능 영역이 진입 불가 상태로 판단된 경우, 진입 가능 영역을 변경할 수 있다.
단계 s230에서, 전자 장치(100)는 s220에서 결정된 진입 가능 영역으로 차량(1)이 진입하기 위한 진입 조건을 결정할 수 있다. 진입 조건은, 차량(1)이 주행 차로로부터 진입 가능 영역으로 진입하기 위한 주행 차로 상의 위치, 차량(1)이 진입 가능 영역으로 진입하기 위한 시점, 및 차량(1)이 진입 가능 영역으로 진입하기 위한 속도 중 적어도 하나를 포함할 수 있으나, 이에 한정된 것은 아니다.
단계 s240에서, 전자 장치(100)는 s220에서 결정된 진입 가능 영역 및 s230에서 결정된 진입 조건에 대한 정보를 출력할 수 있다. 구체적으로, 전자 장치(100)는 차량(1)이 진입 가능 영역으로 진입하기 위한 위치, 시점, 속도, 가속도, 및 방향 중 적어도 하나에 대한 정보를 출력하여 운전자에게 제공할 수 있다. 일 예에 따라, 전자 장치(100)는, 디스플레이를 통해, 진입 조건에 따라 진입 가능 영역으로 진입할 것을 안내하는 정보를 영상으로 표시 출력할 수 있다. 다른 예에 따라, 전자 장치(100)는, 헤드 업 디스플레이(head-up-display)를 통해, 진입 조건에 따라 진입 가능 영역으로 진입할 것을 안내하는 정보를 차량(1)의 전면 차창(car window)에 투영시킬 수 있다. 또 다른 예에 따라, 전자 장치(100)는, 음향 출력 장치를 통해, 진입 조건에 따라 진입 가능 영역으로 진입할 것을 안내하는 정보를 음성으로 출력할 수 있다.
다만, 진입 예정 차로 상의 진입 가능 영역이 존재하지 않는 경우, 전자 장치(100)는 진입 예정 차로로 현재 진입이 불가하다는 정보를 운전자에게 제공할 수 있다.
도 3은 일 실시예에 따라 전자 장치가 진입 예정 차로를 인식하는 방법의 흐름도이다.
단계 s310에서, 전자 장치(100)는 차량(1)이 주행 중인 주행 차로의 형태 및 주행 차로와 인접한 적어도 하나의 인접 차로의 형태를 센싱할 수 있다. 예를 들어, 전자 장치(100)는 이미지 센서(image sensor)를 이용하여 주행 차로의 형태 및 주행 차로와 인접한 적어도 하나의 차로의 형태를 센싱할 수 있다. 예를 들어, 차로의 형태는 차로의 모양, 차로 폭, 차로의 곡률 등을 포함할 수 있다. 전자 장치(100)는 주행 차로의 형태 및 주행 차로와 인접한 적어도 하나의 차로의 형태를 센싱할 수 있는 바, 차로 모양의 변화, 차로 폭 변화, 타 차로와의 접합 여부 및 접합로 형태를 인식할 수 있다.
단계 s320에서, 전자 장치(100)는 s310에서 센싱된 주행 차로 및 인접 차로의 형태에 기초하여, 적어도 하나의 인접 차로 중에서 진입 예정 차로를 선택할 수 있다. 전자 장치(100)는 센싱된 주행 차로 및 인접 차로의 형태에 기초하여, 차량(1)의 진입 예정 차로를 미리 인식할 수 있으며, 적어도 하나의 인접 차로 중에서 진입 예정 차로를 선택할 수 있다. 예를 들어, 전자 장치(100)는 s310에서 센싱된 주행 차로 및 인접 차로의 형태에 기초하여, 차로의 숫자 변화 또는 곡률 변화를 인식할 수 있고, 인식된 숫자 변화 또는 곡률 변화를 통해, 적어도 하나의 인접 차로 중에서 진입 예정 차로를 선택할 수 있다.
또한, 일 실시예에 따라, 전자 장치(100)는 차량(1)의 주변에 위치하는 표지판, 가드 레일 또는 주행 차로에 표시된 마커를 센싱하여, 주행 차로와 인접한 진입 예정 차로를 결정할 수 있다. 또한, 전자 장치(100)는 주변의 건물, 다리, 터널, 연석, 또는 간판 등의 랜드마크를 센싱하여, 주행 차로와 인접한 진입 예정 차로를 결정할 수 있다.
단계 s330에서, 전자 장치(100)는 s320에서 선택된 진입 예정 차로 상의 적어도 하나의 외부 차량의 주행 상태를 센싱할 수 있다.
따라서, 전자 장치(100)는, 운전자의 별도의 입력 없이, 차량(1)의 진입 예정 차로를 인식할 수 있고, 결과적으로, 인식된 진입 예정 차로 상의 진입 가능 영역으로 진입하기 위한 진입 조건을 운전자에게 안내할 수 있는 바, 차량(1)의 운전에 대한 편의와 안전을 제공할 수 있다.
도 4는 전자 장치가 진입 예정 차로를 인식하는 실시예를 나타낸다.
전자 장치(100)는 차량(1)의 현재 주행 차로(401)의 형태 및 현재 주행 차로(401)에 인접한 적어도 하나의 인접 차로(403,405)의 형태를 센싱할 수 있다. 센싱 결과, 전자 장치(100)는 현재 차량(1)이 진입로를 통해 2차선의 고속도로로 진입해야 하는 상황임을 인식할 수 있다. 구체적으로, 전자 장치(100)는 현재 주행 차로(401)의 형태 및 적어도 하나의 인접 차로(403,405)의 형태를 센싱한 결과, 주변 차로의 숫자 변화 및 현재 주행 차로(401)의 곡률 변화를 인식하여, 현재 주행 차로(401)에 인접한 차로로 진입해야 하는 상황임을 인식할 수 있다.
이어서, 전자 장치(100)는 센싱된 현재 주행 차로(401) 및 적어도 하나의 인접 차로(403,405)에 기초하여, 적어도 하나의 인접 차로(403,405) 중 차로(403)를 진입 예정 차로로써 선택할 수 있다. 구체적으로, 전자 장치(100)는 센싱된 현재 주행 차로(401) 및 적어도 하나의 인접 차로(403,405)에 기초하여, 현재 주행 차로(401)에 가장 인접한 차로(403)를 진입 예정 차로로 선택할 수 있다.
도 5는 일 실시예에 따른 전자 장치가 후보 영역들을 통해 진입 가능 영역을 결정하는 방법의 흐름도이다.
단계 s510에서, 전자 장치(100)는 진입 예정 차로 상의 외부 차량들의 주행 상태에 기초하여, 진입 가능 영역에 대한 후보 영역들을 결정할 수 있다. 즉, 전자 장치(100)는 진입 가능 영역을 결정하기에 앞서, 후보 영역들을 먼저 결정할 수 있다. 예를 들어, 전자 장치(100)는 진입 예정 차로 상의 외부 차량들 간의 차간 간격들 각각에 대응되는 영역들을 후보 영역들로 결정할 수 있다.
단계 s520에서, 전자 장치(100)는 s510에서 결정된 후보 영역들을 기 설정된 기준에 따라 우선 순위 별로 분류할 수 있다. 구체적으로, 전자 장치(100)는 N개의 후보 영역들을 기 설정된 기준에 따라 1순위 내지 N순위 후보 영역으로 분류할 수 있다.
일 예에 따라, 전자 장치(100)는 후보 영역들 각각에 대응되는 차간 간격의 길이를 기준으로, 후보 영역들을 우선 순위 별로 분류할 수 있다. 구체적으로, 전자 장치(100)는 후보 영역들 중 상대적으로 긴 차간 간격에 대응되는 후보 영역을 선순위 후보 영역으로 결정할 수 있고, 상대적으로 짧은 차간 간격에 대응되는 후보 영역을 후순위 진입 가능 영역으로 결정할 수 있다. 따라서, 전자 장치(100)는 후보 영역들 중 가장 긴 차간 간격에 대응되는 후보 영역을 최우선 순위 후보 영역으로 결정할 수 있다.
다른 예에 따라, 전자 장치(100)는 차량(1)의 주행 상태를 고려하여, 후보 영역들을 우선 순위 별로 분류할 수 있다. 구체적으로, 전자 장치(100)는 차량(1)의 주행 속도의 변화율을 기준으로, 후보 영역들을 우선 순위 별로 분류할 수 있다. 예를 들어, 전자 장치(100)는 차량(1)이 현재 주행 속도의 변화율의 변동 없이 진입하여야 하는 후보 영역의 경우, 선순위 후보 영역으로 결정할 수 있고, 전자 장치(100)는 차량(1)이 현재 주행 속도의 변화율을 크게 하여 진입하여야 하는 진입 가능 영역의 경우, 후순위 후보 영역으로 결정할 수 있다.
또 다른 예에 따라, 전자 장치(100)는 후보 영역들 각각에 대응되는 차간 간격의 길이 및 차량(1)의 주행 상태를 동시에 고려하여, 후보 영역들을 우선 순위 별로 분류할 수 있다. 구체적으로, 전자 장치(100)는 기 설정된 수치 이상의 차간 간격을 갖는 후보 영역들 중, 차량(1)이 가장 먼저 진입 가능한 후보 영역을 최우선 순위 후보 영역으로 결정할 수 있다. 또한, 전자 장치(100)는 기 설정된 수치 미만의 차간 간격을 갖는 후보 영역이라도, 차간 간격이 점차적으로 늘어나서 일정 시간 후 차량(1)이 진입 가능한 후보 영역을 최우선 순위 후보 영역으로 결정할 수 있다.
단계 s530에서, 전자 장치(100)는 분류된 후보 영역들 중 최우선 순위 후보 영역을 진입 가능 영역으로 결정할 수 있다.
도 6은 전자 장치가 후보 영역들을 통해 진입 가능 영역을 결정하는 실시예를 나타낸다.
전자 장치(100)는 진입 예정 차로 상의 외부 차량들인 Car 1 내지 Car 6의 주행 상태에 기초하여, 진입 가능 영역에 대한 후보 영역들을 결정할 수 있다. 즉, 전자 장치(100)는 Car 1 내지 Car 6 간의 차간 간격들 중 기 설정된 길이 이상을 만족시키는 Car 1 및 Car 2 간의 차간 간격, Car 3 및 Car 4 간의 차간 간격, 및 Car 5 및 Car 6 간의 차간 간격에 대응되는 영역들을 진입 가능 영역에 대한 후보 영역들로 결정할 수 있다.
이어서, 전자 장치(100)는 후보 영역들 기 설정된 기준에 따라 우선 순위 별로 분류하여, 1순위 후보 영역, 2순위 후보 영역 및 3순위 후보 영역을 결정할 수 있다. 구체적으로, 전자 장치(100)는 Car 3 및 Car 4 간의 차간 간격이 가장 긴 차간 간격이므로, Car 3 및 Car 4 간의 차간 간격에 대응되는 영역을 1순위 후보 영역으로 결정할 수 있고, Car 1 및 Car 2 간의 차간 간격이 2번째로 긴 차간 간격이므로, Car 1 및 Car 2 간의 차간 간격에 대응되는 영역을 2순위 후보 영역으로 결정할 수 있고 Car 5 및 Car 6 간의 차간 간격이 3번째로 긴 차간 간격이므로, Car 5 및 Car 6 간의 차간 간격에 대응되는 영역을 3순위 후보 영역으로 결정할 수 있다.
또한, 다른 예에 따라, 전자 장치(100)는 차량의 속도 또는 가속도의 변화로 인한 차간 간격의 변화 정도를 고려하여, Car 3 및 Car 4 간의 차간 간격에 대응되는 영역을 1순위 후보 영역으로 결정할 수 있고, Car 1 및 Car 2 간의 차간 간격에 대응되는 영역을 2순위 후보 영역으로 결정할 수 있고, Car 5 및 Car 6 간의 차간 간격에 대응되는 영역을 3순위 후보 영역으로 결정할 수 있다.
또 다른 예에 따라, 전자 장치(100)는 차간 간격을 형성하는 전방 및 후방 차량들의 흔들림 상태를 고려하여, 1순위 후보 영역, 2순위 후보 영역 및 3순위 후보 영역을 결정할 수 있다.
따라서, 전자 장치(100)는 후보 영역들 중 1순위 후보 영역을 진입 가능 영역으로 결정할 수 있다.
도 7은 일 실시예에 따른 전자 장치가 진입 가능 영역을 변경하는 방법의 흐름도를 나타낸다.
단계 s710에서, 전자 장치(100)는 진입 예정 차로 상의 진입 가능 영역을 결정할 수 있다. 예를 들어, 전자 장치(100)는 진입 예정 차로 상의 후보 영역들 중 1순위 후보 영역을 진입 가능 영역으로 결정할 수 있다.
단계 s720에서, 전자 장치(100)는 s710에서 결정된 진입 가능 영역 주변의 외부 차량의 주행 상태를 센싱할 수 있다. 전자 장치(100)는 s710에서 진입 가능 영역을 결정한 후에도, 전자 장치(100)는 결정된 진입 가능 영역 주변의 외부 차량을 계속하여 센싱할 수 있다. 예를 들어, 차량(1)과 진입 가능 영역 간의 거리가 일정 거리 이내가 될 때까지, 전자 장치(100)는 결정된 진입 가능 영역 주변의 외부 차량을 계속하여 센싱할 수 있다. 또한, 전자 장치(100)는 진입 가능 영역 주변의 외부 차량의 방향, 흔들림 상태, 및 외부 차량의 운전자 상태 등을 센싱할 수 있다.
단계 s730에서, 전자 장치(100)는 s720에서의 센싱 결과, s710에서 결정된 진입 가능 영역이 진입 불가 상태인지 여부를 판단할 수 있다. 일 예로, s720에서의 센싱 결과, 진입 예정 차로의 옆 차로에서 외부 차량이 진입 가능 영역으로 진입하는 경우, 전자 장치(100)는 s710에서 결정된 진입 가능 영역을 진입 불가 상태로 판단할 수 있다. 또 다른 예로, s720에서의 센싱 결과, 진입 가능 영역을 형성하는 전방 및 후방의 외부 차량들의 속도 변화로 인해 진입 가능 영역이 줄어드는 경우, 전자 장치(100)는 s710에서 결정된 진입 가능 영역을 진입 불가 상태로 판단할 수 있다.
또한, 전자 장치(100)는 s720에서의 센싱 결과, 진입 가능 영역 주변 차량의 흔들림 상태, 또는 운전자 상태에 기초하여, s710에서 결정된 진입 가능 영역을 진입 불가 상태로 판단할 수 있다. 예를 들어, 전자 장치(100)는 진입 가능 영역 주변 차량의 흔들리는 정도가 기 설정된 수치 이상인 경우, 또는 운전자가 조는 상태인 경우, s710에서 결정된 진입 가능 영역을 진입 불가 상태로 판단할 수 있다.
단계 s740에서는, s730에서 진입 불가 상태로 판단된 경우, 전자 장치(100)는 진입 가능 영역을 변경할 수 있다. 예를 들어, 진입 예정 차로 상의 후보 영역들 중 1순위 후보 영역이 진입 불가 상태이므로, 전자 장치(100)는 후보 영역들 중 2순위 후보 영역을 진입 가능 영역으로 재결정할 수 있다.
단계 s750에서는, s730에서 진입 불가 상태가 아닌 것으로 판단된 경우, 전자 장치(100)는 진입 가능 영역으로 차량(1)이 진입하기 위한 진입 조건을 결정할 수 있다.
도 8은 전자 장치가 진입 가능 영역을 변경하는 실시예를 나타낸다.
도 6에서 살펴보았듯이, 전자 장치(100)는 후보 영역들 중 1순위 후보 영역을 진입 가능 영역으로 결정할 수 있다. 이어서, 전자 장치(100)는 차량(1)이 진입 가능 영역과의 거리가 일정 거리 이내가 될 때까지 계속하여 진입 가능 영역 주변의 외부 차량을 센싱할 수 있다. 예를 들어, 전자 장치(100)는 진입 가능 영역의 전방 및 후방의 외부 차량인 Car 3 및 Car4를 센싱할 수 있고, 진입 예정 차로의 옆 차로에 위치하는 Car N을 센싱할 수 있다.
또한, 전자 장치(100)는 지속적으로 진입 가능 영역 주변의 외부 차량의 속도 변화, 흔들림 상태 등을 센싱할 수 있다. 따라서, 전자 장치(100)는 외부 차량의 흔들림 상태 등으로 인한 발생 가능한 사고를 예상할 수 있다.센싱 결과, 전자 장치(100)는 Car N이 진입 가능 영역으로 진입하는 주행 상태를 센싱할 수 있으므로, 전자 장치(100)는 진입 가능 영역이 진입 불가 상태라고 판단할 수 있다.
따라서, 전자 장치(100)는 진입 가능 영역을 변경할 수 있고, 후보 영역들 중 2순위 후보 영역을 진입 가능 영역으로써 재결정할 수 있다.
도 9는 전자 장치가 진입 가능 영역 및 진입 조건에 대한 정보를 출력하는 실시예를 나타낸다.
전자 장치(100)는 진입 가능 영역 및 진입 조건에 대한 정보를 헤드 업 디스플레이를 통해 전면 차창(910)에 표시 출력할 수 있다. 구체적으로, 전자 장치(100)는 후보 영역들 중 진입 가능 영역 및 진입 조건을 안내하는 영상을 전면 차창(910)에 투영시켜, 운전자가 전면 차창(910)을 바라볼 때 진입 가능 영역 및 진입 조건을 인식하도록 할 수 있다.
도 9에 도시되어 있듯이, 차량(1)이 진입로를 통해 고속도로로 진입하는 상황에서, 전자 장치(100)는 전면 차창(910)에서 나타나는 외부 차량(912) 및 외부 차량(914)의 차간 간격에 해당하는 영역을 진입 가능 영역으로 결정할 수 있고, 진입 가능 영역으로 진입하기 위한 진입 조건인 속력 56km를 결정할 수 있다. 따라서, 도 9와 같이, 전자 장치(100)는 진입 가능 영역 및 진입 조건을 안내하는 영상을 전면 차창(910)에 투영시킬 수 있다.
따라서, 운전자는 전방을 주시한 상태에서 진입 가능 영역 및 진입 조건을 인식할 수 있고, 진입 가능 영역 및 진입 조건에 따라 주행 차로를 변경할 수 있다.
도 10a 및 도 10b는 전자 장치가 차량의 운전을 보조하는 다른 실시예를 나타낸다.
먼저, 도 10a에 도시된 바와 같이, T자형 교차로에서, 운전자는 차량(1)을 운전하여 현재 주행 차로로부터 진입 예정 차로로 우회전하여 진입해야 한다.
이 경우, 차량(1)에 포함된 전자 장치(100)는 주행 중인 주행 차로의 형태 및 주행 차로와 인접한 적어도 하나의 차로의 형태를 센싱하여, 진입 예정 차로를 인식할 수 있다. 즉, 전자 장치(100)는 센싱된 차로의 형태를 통해, 가장 인접한 전방 수평 차로를 진입 예정 차로로 인식할 수 있다.
이어서, 전자 장치(100)는 진입 예정 차로 상의 적어도 하나의 외부 차량의 주행 상태를 센싱할 수 있다. 즉, 전자 장치(100)는 센싱된 적어도 하나의 외부 차량의 위치, 속도, 및 가속도 중 적어도 하나를 고려하여, 진입 가능 영역을 결정할 수 있다. 도 10에 도시되어 있듯이, 전자 장치(100)는 외부 차량(1010,1020,1030)의 위치, 및 속도를 센싱하여, 외부 차량(1010) 및 외부 차량(1020)의 차간 간격에 해당하는 영역을 진입 불가 영역으로 결정할 수 있고, 외부 차량(1020) 및 외부 차량(1030)에 해당하는 영역을 진입 가능 영역으로 결정할 수 있다.
이어서, 전자 장치(100)는 기 결정된 진입 가능 영역으로 차량(1)이 진입하기 위한 진입 조건을 결정할 수 있다. 즉, 전자 장치(100)는 차량(1)이 외부 차량(1010) 및 외부 차량(1020)의 차간 간격에 해당하는 영역에 진입하기 위한 시점을 '5초 후'로 결정할 수 있다.
따라서, 전자 장치(100)는 기 결정된 진입 가능 영역 및 진입 조건을 운전자에게 안내할 수 있다. 도 10a에 도시되어 있듯이, 전자 장치(100)는 "5초 후에 전방으로 진입하여 우회전 할 것"을 안내하는 음성을 음향 출력 장치를 통해 출력할 수 있다.
다만, 도 10b에 도시된 바와 같이, 전자 장치(100)는 도 10b에서 진입 가능 영역 및 진입 조건을 결정하고 출력한 이후에도, 기 결정한 진입 가능 영역 주변의 외부 차량을 센싱할 수 있다. 예를 들어, 전자 장치(100)는 진입 예정 차로의 옆 차로에 위치하는 외부 차량(1040)을 센싱할 수 있다.
센싱 결과, 전자 장치(100)는 외부 차량(1040)이 진입 가능 영역으로 진입하는 주행 상태를 센싱할 수 있으므로, 전자 장치(100)는 진입 가능 영역이 진입 불가 상태라고 판단할 수 있다.
따라서, 전자 장치(100)는 진입 가능 영역을 외부 차량(1040) 및 외부 차량(1050)의 차간 간격에 해당하는 영역으로 변경할 수 있다. 또한, 전자 장치(100)는 변경된 진입 가능 영역으로 차량(1)이 진입하기 위한 진입 조건을 재결정할 수 있다. 즉, 전자 장치(100)는 차량(1)이 외부 차량(1030) 및 외부 차량(1050)의 차간 간격에 해당하는 영역에 진입하기 위한 시점을 '10초 후'로 변경할 수 있다.
이어서, 전자 장치(100)는 변경된 진입 가능 영역 및 진입 조건을 운전자에게 안내할 수 있다. 도 10b에 도시되어 있듯이, 전자 장치(100)는 "10초 후에 전방으로 진입하여 우회전 할 것"을 안내하는 음성을 음향 출력 장치를 통해 출력할 수 있다.
도 11은 일 실시예에 따른 차량의 운전자를 보조하는 전자 장치의 블록도를 도시하는 도면이다.
전자 장치(100)는 일 실시예에 따라, 센싱부(110), 프로세서(120) 및 출력부(130)를 포함할 수 있다. 도 11에 도시된 전자 장치(100)는 본 실시예와 관련된 구성요소들만이 도시되어 있다. 따라서, 도 11에 도시된 구성요소들 외에 다른 범용적인 구성요소들이 더 포함될 수 있음을 본 실시예와 관련된 기술분야에서 통상의 지식을 가진 자라면 이해할 수 있다.
센싱부(110)는 차량(1)이 차로 변경을 통해 진입하고자 하는 진입 예정 차로 상의 적어도 하나의 외부 차량의 주행 상태를 센싱할 수 있다. 즉, 전자 장치(100)는 진입 예정 차로 상의 적어도 하나의 외부 차량의 위치, 속도, 및 가속도를 센싱할 수 있다. 센싱부(110)는 적어도 하나의 외부 차량의 주행 상태를 센싱하기 위한 다수의 센서들을 포함할 수 있다. 예를 들어, 센싱부(110)는 RADAR 센서 및 LIDAR 센서와 같은 거리 센서, 및 카메라와 같은 이미지 센서를 포함할 수 있다. 또한, 센싱부(110)는 다수의 센서들의 위치 및/또는 배향을 수정하도록 구성되는 하나 이상의 액추에이터들을 포함할 수 있는 바, 차량(1)의 전방, 후방, 및 측방 각각의 방향에 위치한 외부 차량의 주행 상태를 센싱할 수 있다.
또한, 센싱부(110)는 차량(1)이 주행 중인 주행 차로의 형태 및 주행 차로와 인접한 적어도 하나의 차로의 형태를 센싱할 수 있다. 예를 들어, 센싱부(110)는 이미지 센서(image sensor)를 이용하여 주행 차로의 형태 및 주행 차로와 인접한 적어도 하나의 차로의 형태를 센싱할 수 있다.
프로세서(120)는 센싱부(110)에 의해 센싱된 차로의 형태에 기초하여, 진입 예정 차로를 미리 인식할 수 있으며, 주행 차로와 인접한 적어도 하나의 차로 중에서 진입 예정 차로를 선택할 수 있다.
프로세서(120)는 센싱부(110)에 의해 센싱된 적어도 하나의 외부 차량의 주행 상태에 기초하여, 진입 예정 차로 상의 진입 가능 영역을 결정할 수 있다. 구체적으로, 전자 장치(100)는 진입 예정 차로 상의 적어도 하나의 외부 차량의 위치, 속도, 및 가속도 중 적어도 하나를 고려하여, 진입 가능 영역을 결정할 수 있다.
프로세서(120)는 진입 예정 차로 상의 외부 차량들의 주행 상태에 기초하여, 진입 가능 영역에 대한 후보 영역들을 결정할 수 있다. 즉, 프로세서(120)는 진입 가능 영역을 결정하기에 앞서, 후보 영역들을 먼저 결정할 수 있다. 이어서, 프로세서(120)는 결정된 후보 영역들을 기 설정된 기준에 따라 우선 순위 별로 분류할 수 있다. 이어서, 프로세서(120)는 분류된 후보 영역들 중 최우선 순위 후보 영역을 진입 가능 영역으로 결정할 수 있다. 일 실시예에 따라, 프로세서(120)는 적어도 하나의 프로세서로 구성될 수 있다.
센싱부(110)는 프로세서(120)에 의해 결정된 진입 가능 영역 주변의 외부 차량의 주행 상태를 센싱할 수 있다. 프로세서(120)에 의해 진입 가능 영역이 결정된 후에도, 센싱부(110)는 결정된 진입 가능 영역 주변의 외부 차량을 계속하여 센싱할 수 있다. 센싱 결과, 프로세서(120)는 기 결정된 진입 가능 영역이 진입 불가 상태인지 여부를 판단할 수 있고, 진입 불가 상태인 경우, 프로세서(120)는 진입 가능 영역을 변경할 수 있다.
프로세서(120)는 결정된 진입 가능 영역으로 차량(1)이 진입하기 위한 진입 조건을 결정할 수 있다. 진입 조건은 차량(1)이 주행 차로로부터 진입 가능 영역으로 진입하기 위한 주행 차로 상의 위치, 차량(1)이 진입 가능 영역으로 진입하기 위한 시점, 및 차량(1)이 진입 가능 영역으로 진입하기 위한 속도 중 적어도 하나를 포함할 수 있다.
출력부(130)는 오디오 신호 또는 비디오 신호를 출력할 수 있으며, 출력부(130)는 디스플레이, 헤드업디스플레이, 및 음향 출력 장치 중 적어도 하나를 포함할 수 있다.
출력부(130)는 프로세서(120)에 의해 결정된 진입 가능 영역 및 진입 조건에 대한 정보를 출력할 수 있다. 일 예에 따라, 출력부(130)의 디스플레이는 진입 조건에 따라 진입 가능 영역으로 진입할 것을 안내하는 정보를 영상으로 표시 출력할 수 있다. 다른 예에 따라, 출력부(130)의 헤드업디스플레이는 진입 조건에 따라 진입 가능 영역으로 진입할 것을 안내하는 정보를 영상으로 차량(1)의 전면 차창에 표시 출력할 수 있다. 또 다른 예에 따라, 출력부(130)의 음향 출력 장치는 진입 조건에 따라 진입 가능 영역으로 진입할 것을 안내하는 정보를 음성으로 출력할 수 있다.
도 12는 다른 실시예에 따른 차량의 운전자를 보조하는 전자 장치의 블록도를 도시하는 도면이다.
전자 장치(100)는 센싱부(110), 프로세서(120), 출력부(130), 저장부(140), 입력부(150), 및 통신부(160)를 포함할 수 있다.
센싱부(110)는 차량(1)이 위치해 있는 환경에 관한 정보를 감지하도록 구성되는 다수의 센서들을 포함할 수 있고, 센서들의 위치 및/또는 배향을 수정하도록 구성되는 하나 이상의 액추에이터들을 포함할 수 있다. 예를 들어, 센싱부(110)는 GPS(Global Positioning System)(224), IMU(Inertial Measurement Unit)(225), RADAR 센서(226), LIDAR 센서(227), 및 이미지 센서(228)를 포함할 수 있다. 이미지 센서(228)는 일 실시예에 따라, 카메라, 스테레오 카메라, 모노 카메라, 와이드 앵글 카메라, 또는 3D 비전 센서를 포함할 수 있다. 또한, 센싱부(110)는 온/습도 센서(232), 적외선 센서(233), 기압 센서(235), 근접 센서(236), 및 RGB 센서(illuminance sensor)(237) 중 적어도 하나를 포함할 수 있으나, 이에 한정되는 것은 아니다. 또한, 센싱부(110)는 이미지 센서(228)와 RADAR 센서(226)가 복합된 형태로 구성되거나, 이미지 센서(228)와 LIDAR 센서(227)가 복합된 형태로 구성될 수 있다. 각 센서들의 기능은 그 명칭으로부터 당업자가 직관적으로 추론할 수 있으므로, 구체적인 설명은 생략하기로 한다.
또한, 센싱부(110)는 차량(1)의 움직임을 센싱할 수 있는 움직임 센싱부(238)를 포함할 수 있다. 움직임 센싱부(238)는 지자기 센서(Magnetic sensor)(229), 가속도 센서(Acceleration sensor)(231), 및 자이로스코프 센서(234)를 포함할 수 있다.
GPS(224)는 차량(1)의 지리적 위치를 추정하도록 구성되는 센서일 수 있다. 즉, GPS(224)는 지구에 대한 차량(1)의 위치를 추정하도록 구성되는 송수신기를 포함할 수 있다.
IMU(225)는 관성 가속도에 기초하여 차량(1)의 위치 및 배향 변화들을 감지하도록 구성되는 센서들의 조합이 될 수 있다. 예를 들어, 센서들의 조합은, 가속도계들 및 자이로스코프들을 포함할 수 있다.
RADAR 센서(226)는 무선 신호를 사용하여 차량(1)이 위치해 있는 환경 내의 물체들을 감지하도록 구성되는 센서일 수 있다. 또한, RADAR 센서(226)는, 물체들의 속도 및/또는 방향을 감지하도록 구성될 수 있다.
LIDAR 센서(227)는 레이저를 사용하여 차량(1)이 위치해 있는 환경 내의 물체들을 감지하도록 구성되는 센서일 수 잇다. 보다 구체적으로, LIDAR 센서(227)는 레이저를 방출하도록 구성되는 레이저 광원 및/또는 레이저 스캐너와, 레이저의 반사를 검출하도록 구성되는 검출기를 포함할 수 잇다. LIDAR 센서(227)는 코히런트(coherent)(예컨대, 헤티로다인 검출을 사용함) 또는 비코히런트(incoherent) 검출 모드에서 동작하도록 구성될 수 있다.
이미지 센서(228)는 차량(1) 외부의 환경을 기록하도록 구성되는 스틸 카메라 또는 비디오 카메라가 될 수 있다. 예를 들어, 이미지 센서(228)는 다수의 카메라들을 포함할 수 있고, 다수의 카메라들은 차량(1)의 내부 및 외부 상의 다수의 위치들에 배치될 수 있다.
저장부(140)는 마그네틱 디스크 드라이브, 광학 디스크 드라이브, 플래쉬 메모리를 포함할 수 있다. 또는 저장부(140)는 휴대 가능한 USB 데이터 저장 장치가 될 수 있다. 저장부(140)는 본원과 관련되는 예들을 실행하기 위한 시스템 소프트웨어를 저장할 수 있다. 본원과 관련되는 예들을 실행하기 위한 시스템 소프트웨어는 휴대 가능한 저장 매체에 저장될 수 있다.
통신부(160)는 다른 디바이스와 무선으로 통신하기 위한 적어도 하나의 안테나를 포함할 수 있다. 예를 들어, 통신부(160)는 와이파이 또는 블루투스를 통해 무선으로 셀룰러 네트워크 또는 다른 무선 프로토콜 및 시스템과 통신하기 위해 이용될 수 있다. 프로세서(120)에 의해 제어되는 통신부(160)는 무선 신호를 송수신할 수 있다. 예를 들어, 프로세서(120)는, 통신부(160)가 셀룰러 네트워크와 무선 신호를 송수신하기 위해, 저장부(140)에 포함된 프로그램을 실행시킬 수 있다.
입력부(150)는 차량(1)을 제어하기 위한 데이터를 입력하는 수단을 의미한다. 예를 들어, 입력부(150)에는 키 패드(key pad), 돔 스위치 (dome switch), 터치 패드(접촉식 정전 용량 방식, 압력식 저항막 방식, 적외선 감지 방식, 표면 초음파 전도 방식, 적분식 장력 측정 방식, 피에조 효과 방식 등), 조그 휠, 조그 스위치 등이 있을 수 있으나 이에 한정되는 것은 아니다. 또한, 입력부(150)는 마이크를 포함할 수 있는 바, 마이크는 차량(1)의 탑승자로부터 오디오(예를 들어, 음성 명령)를 수신하도록 구성될 수 있다.
출력부(130)는 오디오 신호 또는 비디오 신호를 출력할 수 있으며, 출력 장치(280)는 디스플레이(281), 음향 출력부(282), 및 진동부(283)를 포함할 수 있다.
디스플레이(281)는 액정 디스플레이(liquid crystal display), 박막 트랜지스터 액정 디스플레이(thin film transistor-liquid crystal display), 유기 발광 다이오드(organic light-emitting diode), 플렉시블 디스플레이(flexible display), 3차원 디스플레이(3D display), 전기영동 디스플레이(electrophoretic display) 중에서 적어도 하나를 포함할 수 있다. 출력부(130)의 구현 형태에 따라, 출력부(130)는 디스플레이(281)를 2개 이상 포함할 수도 있다.
음향 출력부(282)는 통신부(160)로부터 수신되거나 저장부(140)에 저장된 오디오 데이터를 출력한다. 또한, 음향 출력부(282)에는 스피커(speaker), 버저(Buzzer) 등이 포함될 수 있다.
진동부(283)는 전기적 에너지를 이용하여 물리적 진동을 생성할 수 있다.
입력부(150) 및 출력부(130)는 네트워크 인터페이스를 포함할 수 있고, 터치 스크린으로 구현될 수 있다.
프로세서(120)는, 저장부(140)에 저장된 프로그램들을 실행함으로써, 센싱부(110), 통신부(160), 입력부(150), 저장부(140), 및 출력부(130)를 전반적으로 제어할 수 있다.
도 13은 일 실시예에 따른 차량의 블록도를 도시하는 도면이다.
차량(1)은 일 실시예에 따라, 전자 장치(100) 및 주행 장치(200)를 포함할 수 있다. 도 13에 도시된 차량(1)은 본 실시예와 관련된 구성요소들만이 도시되어 있다. 따라서, 도 13에 도시된 구성요소들 외에 다른 범용적인 구성요소들이 더 포함될 수 있음을 본 실시예와 관련된 기술분야에서 통상의 지식을 가진 자라면 이해할 수 있다.
전자 장치(100)는 센싱부(110) 및 프로세서(120)를 포함할 수 있다.
주행 장치(200)는 브레이크 유닛(221), 조향 유닛(222) 및 스로틀(223)을 포함할 수 있다.
조향 유닛(222)은 차량(1)의 방향을 조절하도록 구성되는 매커니즘들의 조합이 될 수 있다.
스로틀(223)은 엔진/모터(211)의 동작 속도를 제어하여, 차량(1)의 속도를 제어하도록 구성되는 매커니즘들의 조합이 될 수 있다. 또한, 스로틀(223)은 스로틀 개방량을 조절하여 엔진/모터(211)로 유입되는 연료공기의 혼합 가스 양을 조절할 수 있으며, 스로틀 개방량을 조절하여 동력 및 추력을 제어할 수 있다.
브레이크 유닛(221)은 차량(1)을 감속시키도록 구성되는 매커니즘들의 조합이 될 수 있다. 예를 들어, 브레이크 유닛(221)은 휠/타이어(214)의 속도를 줄이기 위해 마찰을 사용할 수 있다.
센싱부(110)는 차량(1)이 차로 변경을 통해 진입하고자 하는 진입 예정 차로 상의 적어도 하나의 외부 차량의 주행 상태를 센싱할 수 있다.
프로세서(120)는 센싱부(110)에 의해 센싱된 주행 상태에 기초하여, 진입 예정 차로 상의 진입 가능 영역을 결정하고, 결정된 진입 가능 영역으로 차량(1)이 진입하기 위한 진입 조건을 결정할 수 있다.
프로세서(120)는 결정된 진입 조건에 따라 차량(1)이 진입 가능 영역으로 진입하도록 제어할 수 있다. 구체적으로, 프로세서(120)는 주행 장치(200)를 제어하여, 차량(1)이 현재 주행 차로에서 진입 예정 차로 상의 진입 가능 영역으로 진입하도록 제어할 수 있다. 따라서, 차량(1)은 운전자의 개입 없이 스스로 주행하여 차로 변경을 수행할 수 있다.
상기 살펴 본 실시예들에 따른 장치는 프로세서, 프로그램 데이터를 저장하고 실행하는 메모리, 디스크 드라이브와 같은 영구 저장부(permanent storage), 외부 장치와 통신하는 통신 포트, 터치 패널, 키(key), 버튼 등과 같은 사용자 인터페이스 장치 등을 포함할 수 있다. 소프트웨어 모듈 또는 알고리즘으로 구현되는 방법들은 상기 프로세서상에서 실행 가능한 컴퓨터가 읽을 수 있는 코드들 또는 프로그램 명령들로서 컴퓨터가 읽을 수 있는 기록 매체 상에 저장될 수 있다. 여기서 컴퓨터가 읽을 수 있는 기록 매체로 마그네틱 저장 매체(예컨대, ROM(read-only memory), RAM(random-access memory), 플로피 디스크, 하드 디스크 등) 및 광학적 판독 매체(예컨대, 시디롬(CD-ROM), 디브이디(DVD: Digital Versatile Disc)) 등이 있다. 컴퓨터가 읽을 수 있는 기록 매체는 네트워크로 연결된 컴퓨터 시스템들에 분산되어, 분산 방식으로 컴퓨터가 판독 가능한 코드가 저장되고 실행될 수 있다. 매체는 컴퓨터에 의해 판독가능하며, 메모리에 저장되고, 프로세서에서 실행될 수 있다.
본 실시 예는 기능적인 블록 구성들 및 다양한 처리 단계들로 나타내어질 수 있다. 이러한 기능 블록들은 특정 기능들을 실행하는 다양한 개수의 하드웨어 또는/및 소프트웨어 구성들로 구현될 수 있다. 예를 들어, 실시 예는 하나 이상의 마이크로프로세서들의 제어 또는 다른 제어 장치들에 의해서 다양한 기능들을 실행할 수 있는, 메모리, 프로세싱, 로직(logic), 룩 업 테이블(look-up table) 등과 같은 직접 회로 구성들을 채용할 수 있다. 구성 요소들이 소프트웨어 프로그래밍 또는 소프트웨어 요소들로 실행될 수 있는 것과 유사하게, 본 실시 예는 데이터 구조, 프로세스들, 루틴들 또는 다른 프로그래밍 구성들의 조합으로 구현되는 다양한 알고리즘을 포함하여, C, C++, 자바(Java), 어셈블러(assembler) 등과 같은 프로그래밍 또는 스크립팅 언어로 구현될 수 있다. 기능적인 측면들은 하나 이상의 프로세서들에서 실행되는 알고리즘으로 구현될 수 있다. 또한, 본 실시 예는 전자적인 환경 설정, 신호 처리, 및/또는 데이터 처리 등을 위하여 종래 기술을 채용할 수 있다. "매커니즘", "요소", "수단", "구성"과 같은 용어는 넓게 사용될 수 있으며, 기계적이고 물리적인 구성들로서 한정되는 것은 아니다. 상기 용어는 프로세서 등과 연계하여 소프트웨어의 일련의 처리들(routines)의 의미를 포함할 수 있다.
Claims (19)
- 차량의 운전을 보조하는 전자 장치에 있어서,상기 차량이 차로 변경을 통해 진입하고자 하는 진입 예정 차로 상의 적어도 하나의 외부 차량의 주행 상태를 센싱하는 센싱부;상기 센싱된 적어도 하나의 외부 차량의 주행 상태에 기초하여, 상기 진입 예정 차로 상의 진입 가능 영역을 결정하고, 상기 진입 가능 영역으로 상기 차량이 진입하기 위한 진입 조건을 결정하는 프로세서; 및상기 진입 가능 영역 및 상기 진입 조건에 대한 정보를 출력하는 출력부를 포함하는 전자 장치.
- 제 1 항에 있어서,상기 프로세서는,상기 진입 가능 영역에 대한 후보 영역들을 결정하고, 기 설정된 기준에 따라 상기 후보 영역들을 우선 순위 별로 분류하고, 분류된 후보 영역들 중 최선순위 후보 영역을 상기 진입 가능 영역으로 선택하는, 전자 장치.
- 제 1 항에 있어서,상기 센싱부는,상기 진입 가능 영역 주변의 외부 차량의 주행 상태를 실시간으로 센싱하고,상기 프로세서는,상기 실시간 센싱 결과, 상기 진입 가능 영역이 진입 불가 상태인지 여부를 판단하고, 진입 불가 상태로 판단된 경우 상기 진입 가능 영역을 변경하는, 전자 장치.
- 제 1 항에 있어서,상기 센싱부는,상기 차량이 주행 중인 주행 차로의 형태, 및 상기 주행 차로와 인접한 적어도 하나의 인접 차로의 형태를 센싱하고,상기 프로세서는,상기 센싱된 주행 차로의 형태 및 상기 적어도 하나의 인접 차로의 형태에 기초하여, 상기 적어도 하나의 인접 차로 중에서 상기 진입 예정 차로를 선택하는, 전자 장치.
- 제 1 항에 있어서,상기 프로세서는,상기 적어도 하나의 외부 차량의 주행 상태 및 상기 차량의 주행 상태를 고려하여, 상기 진입 가능 영역을 결정하는, 전자 장치.
- 제 1 항에 있어서,상기 센싱부는 거리 센서를 포함하고,상기 거리 센서를 이용하여 상기 적어도 하나의 외부 차량의 위치, 속도, 가속도, 흔들림 상태, 및 방향 중 적어도 하나를 센싱하는, 전자 장치.
- 제 1 항에 있어서,상기 진입 조건은,상기 차량이 주행 중인 주행 차로로부터 상기 진입 가능 영역으로 진입하기 위한 상기 주행 차로 상의 위치, 상기 진입 가능 영역으로 진입할 시점, 및 상기 진입 가능 영역으로 진입하기 위한 상기 차량의 속도, 가속도 및 방향 중 적어도 하나를 포함하는, 전자 장치.
- 제 1 항에 있어서,상기 출력부는,상기 진입 조건에 따라 상기 진입 가능 영역으로 진입할 것을 안내하는 정보를 영상으로 표시 출력하는 디스플레이, 상기 진입 조건에 따라 상기 진입 가능 영역으로 진입할 것을 안내하는 정보를 영상으로 상기 차량의 차창(car window)에 투영시키는 헤드업디스플레이(head-up-display), 및 상기 진입 조건에 따라 상기 진입 가능 영역으로 진입할 것을 안내하는 정보를 음성으로 출력하는 음향 출력 장치 중 적어도 하나를 포함하는, 전자 장치.
- 제 1 항에 있어서,상기 프로세서는,상기 차량이 상기 진입 조건에 따라 상기 진입 가능 영역으로 진입하도록 상기 차량의 주행 장치를 제어하는, 전자 장치.
- 차량의 운전자를 보조하는 방법에 있어서,상기 차량이 차로 변경을 통해 진입하고자 하는 진입 예정 차로 상의 적어도 하나의 외부 차량의 주행 상태를 센싱하는 단계;상기 센싱된 적어도 하나의 외부 차량의 주행 상태에 기초하여, 상기 진입 예정 차로 상의 진입 가능 영역을 결정하는 단계;상기 진입 가능 영역으로 상기 차량이 진입하기 위한 진입 조건을 결정하는 단계; 및상기 진입 가능 영역 및 상기 진입 조건에 대한 정보를 출력하는 단계를 포함하는 방법.
- 제 10 항에 있어서,상기 진입 가능 영역을 결정하는 단계는,상기 진입 가능 영역에 대한 후보 영역들을 결정하는 단계;기 설정된 기준에 따라 상기 후보 영역들을 우선 순위 별로 분류하는 단계; 및분류된 후보 영역들 중 최선순위 후보 영역을 상기 진입 가능 영역으로 선택하는 단계를 포함하는, 방법.
- 제 10 항에 있어서,상기 진입 가능 영역을 결정하는 단계는,상기 진입 가능 영역 주변의 외부 차량의 주행 상태를 실시간으로 센싱하는 단계; 및상기 실시간 센싱 결과, 상기 진입 가능 영역이 진입 불가 상태인지 여부를 판단하는 단계; 및진입 불가 상태로 판단된 경우 상기 진입 가능 영역을 변경하는 단계를 포함하는, 방법.
- 제 10 항에 있어서,상기 센싱하는 단계는,상기 차량이 주행 중인 주행 차로의 형태, 및 상기 주행 차로와 인접한 적어도 하나의 차로의 형태를 센싱하는 단계; 및상기 센싱된 주행 차로의 형태 및 상기 적어도 하나의 차로의 형태에 기초하여, 상기 적어도 하나의 차로 중에서 상기 진입 예정 차로를 선택하는 단계를 포함하는, 방법.
- 제 10 항에 있어서,상기 진입 가능 영역을 결정하는 단계는,상기 적어도 하나의 외부 차량의 주행 상태 및 상기 차량의 주행 상태를 고려하여, 상기 진입 가능 영역을 결정하는, 방법.
- 제 10 항에 있어서,상기 센싱하는 단계는,거리 센서를 이용하여 상기 적어도 하나의 외부 차량의 위치, 속도, 가속도, 흔들림 상태, 및 방향 중 적어도 하나를 센싱하는, 방법.
- 제 10 항에 있어서,상기 진입 조건은,상기 차량이 주행 중인 주행 차로로부터 상기 진입 가능 영역으로 진입하기 위한 상기 주행 차로 상의 위치, 상기 진입 가능 영역으로 진입할 시점, 및 상기 진입 가능 영역으로 진입하기 위한 상기 차량의 속도, 가속도 및 방향 중 적어도 하나를 포함하는, 방법.
- 제 10 항에 있어서,상기 출력하는 단계는,상기 진입 조건에 따라 상기 진입 가능 영역으로 진입할 것을 안내하는 영상을 표시 출력하거나, 상기 진입 조건에 따라 상기 진입 가능 영역으로 진입할 것을 안내하는 음성을 출력하는, 방법.
- 제 10 항에 있어서,상기 차량이 상기 진입 조건에 따라 상기 진입 가능 영역으로 진입하도록 상기 차량의 주행 장치를 제어하는 단계를 더 포함하는, 방법.
- 제 10 항 내지 제 18 항 중에 어느 한 항의 방법을 컴퓨터에서 실행시키기 위한 프로그램을 기록한 컴퓨터로 읽을 수 있는 기록매체.
Priority Applications (2)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| EP18750769.4A EP3546310A4 (en) | 2017-02-07 | 2018-02-02 | Electronic device and method for assisting in vehicle driving |
| US16/483,558 US11217100B2 (en) | 2017-02-07 | 2018-02-02 | Electronic device and method for assisting in vehicle driving |
Applications Claiming Priority (2)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| KR10-2017-0016852 | 2017-02-07 | ||
| KR1020170016852A KR102343329B1 (ko) | 2017-02-07 | 2017-02-07 | 차량의 운전을 보조하는 전자 장치 및 방법 |
Publications (1)
| Publication Number | Publication Date |
|---|---|
| WO2018147599A1 true WO2018147599A1 (ko) | 2018-08-16 |
Family
ID=63106965
Family Applications (1)
| Application Number | Title | Priority Date | Filing Date |
|---|---|---|---|
| PCT/KR2018/001450 Ceased WO2018147599A1 (ko) | 2017-02-07 | 2018-02-02 | 차량의 운전을 보조하는 전자 장치 및 방법 |
Country Status (4)
| Country | Link |
|---|---|
| US (1) | US11217100B2 (ko) |
| EP (1) | EP3546310A4 (ko) |
| KR (1) | KR102343329B1 (ko) |
| WO (1) | WO2018147599A1 (ko) |
Families Citing this family (7)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| KR102343329B1 (ko) | 2017-02-07 | 2021-12-24 | 삼성전자주식회사 | 차량의 운전을 보조하는 전자 장치 및 방법 |
| WO2020050502A1 (ko) * | 2018-09-04 | 2020-03-12 | 네이버랩스 주식회사 | 카메라 기반의 차선 변경 가능 시점을 학습하는 방법 및 시스템, 그리고 차선 변경 가능 여부의 알림을 제공하는 방법 및 시스템 |
| KR102231775B1 (ko) * | 2019-07-08 | 2021-03-25 | 네이버랩스 주식회사 | 차선 변경 가능 여부의 알림을 제공하는 방법 및 시스템 |
| JP7091284B2 (ja) * | 2019-06-05 | 2022-06-27 | 本田技研工業株式会社 | 制御装置、プログラム、通信システム、及び制御方法 |
| US12412473B2 (en) | 2019-08-27 | 2025-09-09 | Lg Electronics Inc. | Method for vehicle transmitting signal in wireless communication system and vehicle therefor |
| WO2021061430A1 (en) * | 2019-09-24 | 2021-04-01 | Apple Inc. | Systems and methods for hedging for different gaps in an interaction zone |
| DE102022111538A1 (de) * | 2022-05-09 | 2023-11-09 | Daimler Truck AG | Verfahren und Vorrichtung zur Planung eines Spurwechsels eines Fahrzeugs |
Citations (5)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| JP2006171950A (ja) * | 2004-12-14 | 2006-06-29 | Denso Corp | ヘッドアップディスプレイの表示制御装置およびプログラム |
| KR20120018614A (ko) * | 2010-08-23 | 2012-03-05 | 현대모비스 주식회사 | 차선 변경 보조기능이 구비된 자동차 및 차선변경방법 |
| KR20140074158A (ko) * | 2012-12-06 | 2014-06-17 | 광주과학기술원 | 차선 변경 안내 방법 및 이를 실행하는 장치 |
| KR20150095102A (ko) * | 2014-02-12 | 2015-08-20 | 한국전자통신연구원 | 주행중 운전자의 차로 변경을 보조하는 장치 |
| KR101558786B1 (ko) * | 2014-06-30 | 2015-10-07 | 현대자동차주식회사 | 차량의 주행차로 인식장치 및 방법 |
Family Cites Families (22)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| JP4140239B2 (ja) | 2002-01-16 | 2008-08-27 | 日産自動車株式会社 | 車両用走行制御装置 |
| JP4853525B2 (ja) * | 2009-02-09 | 2012-01-11 | トヨタ自動車株式会社 | 移動領域予測装置 |
| DE102009046274A1 (de) | 2009-11-02 | 2011-05-12 | Robert Bosch Gmbh | Sicherheitsvorrichtung für einen Kraftfahrzeug-Service-Arbeitsplatz |
| JP2012073925A (ja) * | 2010-09-29 | 2012-04-12 | Fuji Heavy Ind Ltd | 車両用運転支援装置 |
| KR101029096B1 (ko) | 2010-11-18 | 2011-04-13 | 김은숙 | 차량의 측면 충돌 회피 방법 |
| DE102011082126B4 (de) | 2011-09-05 | 2020-07-23 | Robert Bosch Gmbh | Sicherheitseinrichtung für kraftfahrzeuge |
| DE102012213568A1 (de) | 2012-08-01 | 2014-02-06 | Robert Bosch Gmbh | Sicherheitseinrichtung für kraftfahrzeuge |
| GB2511748B (en) | 2013-03-11 | 2015-08-12 | Jaguar Land Rover Ltd | Emergency braking system for a vehicle |
| DE102013009400A1 (de) | 2013-06-04 | 2014-12-04 | Volkswagen Aktiengesellschaft | Notfallassistenz zur Fahrzeugführung |
| JP6257989B2 (ja) * | 2013-10-08 | 2018-01-10 | 日産自動車株式会社 | 運転支援装置 |
| US9248832B2 (en) | 2014-01-30 | 2016-02-02 | Mobileye Vision Technologies Ltd. | Systems and methods for detecting traffic signal details |
| JP6369061B2 (ja) | 2014-03-13 | 2018-08-08 | 日産自動車株式会社 | 車線変更支援装置 |
| US9628565B2 (en) | 2014-07-23 | 2017-04-18 | Here Global B.V. | Highly assisted driving platform |
| JP6055865B2 (ja) * | 2014-08-04 | 2016-12-27 | 富士重工業株式会社 | 走行環境危険度判定装置および走行環境危険度報知装置 |
| US20160107642A1 (en) | 2014-10-15 | 2016-04-21 | Continental Automotive Systems, Inc. | Collision avoidance system using driver eye monitoring during gear change |
| CN107251123B (zh) * | 2015-03-12 | 2020-12-08 | 三菱电机株式会社 | 车辆组管理装置、车辆组管理方法和车辆组显示装置 |
| JP2016189097A (ja) * | 2015-03-30 | 2016-11-04 | パイオニア株式会社 | 異常運転検出装置 |
| JP6323385B2 (ja) | 2015-04-20 | 2018-05-16 | トヨタ自動車株式会社 | 車両走行制御装置 |
| JP6078116B2 (ja) * | 2015-07-09 | 2017-02-08 | 富士重工業株式会社 | 車両の運転支援装置 |
| US9864918B2 (en) * | 2015-11-04 | 2018-01-09 | Ford Global Technologies, Llc | Predicting vehicle movements based on driver body language |
| JP2018103766A (ja) * | 2016-12-26 | 2018-07-05 | トヨタ自動車株式会社 | 車両の車線変更支援装置 |
| KR102343329B1 (ko) | 2017-02-07 | 2021-12-24 | 삼성전자주식회사 | 차량의 운전을 보조하는 전자 장치 및 방법 |
-
2017
- 2017-02-07 KR KR1020170016852A patent/KR102343329B1/ko not_active Expired - Fee Related
-
2018
- 2018-02-02 EP EP18750769.4A patent/EP3546310A4/en not_active Ceased
- 2018-02-02 WO PCT/KR2018/001450 patent/WO2018147599A1/ko not_active Ceased
- 2018-02-02 US US16/483,558 patent/US11217100B2/en active Active
Patent Citations (5)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| JP2006171950A (ja) * | 2004-12-14 | 2006-06-29 | Denso Corp | ヘッドアップディスプレイの表示制御装置およびプログラム |
| KR20120018614A (ko) * | 2010-08-23 | 2012-03-05 | 현대모비스 주식회사 | 차선 변경 보조기능이 구비된 자동차 및 차선변경방법 |
| KR20140074158A (ko) * | 2012-12-06 | 2014-06-17 | 광주과학기술원 | 차선 변경 안내 방법 및 이를 실행하는 장치 |
| KR20150095102A (ko) * | 2014-02-12 | 2015-08-20 | 한국전자통신연구원 | 주행중 운전자의 차로 변경을 보조하는 장치 |
| KR101558786B1 (ko) * | 2014-06-30 | 2015-10-07 | 현대자동차주식회사 | 차량의 주행차로 인식장치 및 방법 |
Non-Patent Citations (1)
| Title |
|---|
| See also references of EP3546310A4 * |
Also Published As
| Publication number | Publication date |
|---|---|
| KR102343329B1 (ko) | 2021-12-24 |
| US20200027352A1 (en) | 2020-01-23 |
| EP3546310A1 (en) | 2019-10-02 |
| EP3546310A4 (en) | 2020-01-01 |
| KR20180091533A (ko) | 2018-08-16 |
| US11217100B2 (en) | 2022-01-04 |
Similar Documents
| Publication | Publication Date | Title |
|---|---|---|
| WO2018147599A1 (ko) | 차량의 운전을 보조하는 전자 장치 및 방법 | |
| WO2020036419A1 (en) | Method of assisting autonomous vehicle, and apparatus therefor | |
| WO2020130234A1 (en) | System and method for providing information indicative of autonomous availability | |
| WO2019143040A1 (en) | Device and method for assisting with driving of vehicle | |
| WO2018169164A1 (ko) | 차량의 주행을 보조하는 장치 및 방법 | |
| US10228698B2 (en) | Vehicle control system, vehicle control method, and vehicle control program | |
| WO2020060308A1 (ko) | 전자 장치 및 전자 장치의 차량 제어 방법, 서버 및 서버의 정밀 지도 데이터 제공 방법 | |
| JP6555599B2 (ja) | 表示システム、表示方法、およびプログラム | |
| US10071745B2 (en) | Automated drive assisting system, automated drive assisting method, and computer program | |
| WO2017003013A1 (ko) | 차량 주행 보조 장치, 이의 동작 방법, 및 이를 포함하는 차량 | |
| WO2017196062A1 (en) | Distance sensor, and calibration method performed by device and system including the distance sensor | |
| WO2020122270A1 (ko) | 차량 제어 장치 및 그것을 포함하는 차량 | |
| US11565713B2 (en) | Vehicle control system, vehicle control method, and vehicle control program | |
| WO2020105759A1 (ko) | 통신 장치, 그것의 제어 방법 및 그것을 포함하는 통신 시스템 | |
| WO2021002519A1 (ko) | 차량용 광고 제공 장치 및 차량용 광고 제공 방법 | |
| WO2019112309A1 (ko) | 차량 및 그 제어 방법 | |
| WO2018164377A1 (ko) | 지도 데이터를 생성하는 전자 장치 및 그 동작 방법 | |
| CN112470212A (zh) | 信息处理设备、信息处理方法、程序和移动体 | |
| WO2016186255A1 (ko) | 자동차의 알림 시스템 및 제어 방법 | |
| WO2018110837A1 (ko) | 차량의 운전을 보조하는 전자 장치 및 방법 | |
| WO2018143589A1 (ko) | 차선 정보를 출력하는 방법 및 장치 | |
| JP6558129B2 (ja) | 走行支援システム、走行支援方法及びコンピュータプログラム | |
| WO2019117459A1 (ko) | 컨텐츠를 표시하기 위한 장치 및 방법 | |
| WO2019132174A1 (ko) | 차량 내의 모바일 디바이스를 충전하기 위한 시스템 및 방법 | |
| WO2018186617A1 (ko) | 복수의 센서를 이용하여 객체를 인식하는 전자 기기 및 방법 |
Legal Events
| Date | Code | Title | Description |
|---|---|---|---|
| 121 | Ep: the epo has been informed by wipo that ep was designated in this application |
Ref document number: 18750769 Country of ref document: EP Kind code of ref document: A1 |
|
| ENP | Entry into the national phase |
Ref document number: 2018750769 Country of ref document: EP Effective date: 20190626 |
|
| NENP | Non-entry into the national phase |
Ref country code: DE |