[go: up one dir, main page]

CN119590429A - 车辆控制装置及其方法 - Google Patents

车辆控制装置及其方法 Download PDF

Info

Publication number
CN119590429A
CN119590429A CN202410515489.XA CN202410515489A CN119590429A CN 119590429 A CN119590429 A CN 119590429A CN 202410515489 A CN202410515489 A CN 202410515489A CN 119590429 A CN119590429 A CN 119590429A
Authority
CN
China
Prior art keywords
virtual
frame
time
threshold
processor
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN202410515489.XA
Other languages
English (en)
Inventor
罗珠赫
张允硕
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Hyundai Motor Co
Kia Corp
Original Assignee
Hyundai Motor Co
Kia Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Hyundai Motor Co, Kia Corp filed Critical Hyundai Motor Co
Publication of CN119590429A publication Critical patent/CN119590429A/zh
Pending legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/56Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
    • G06V20/58Recognition of moving objects or obstacles, e.g. vehicles or pedestrians; Recognition of traffic objects, e.g. traffic signs, traffic lights or roads
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S17/00Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
    • G01S17/88Lidar systems specially adapted for specific applications
    • G01S17/93Lidar systems specially adapted for specific applications for anti-collision purposes
    • G01S17/931Lidar systems specially adapted for specific applications for anti-collision purposes of land vehicles
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/187Segmentation; Edge detection involving region growing; involving region merging; involving connected component labelling
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W40/00Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models
    • B60W40/02Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models related to ambient conditions
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W40/00Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models
    • B60W40/02Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models related to ambient conditions
    • B60W40/04Traffic conditions
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S17/00Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
    • G01S17/88Lidar systems specially adapted for specific applications
    • G01S17/89Lidar systems specially adapted for specific applications for mapping or imaging
    • G01S17/8943D imaging with simultaneous measurement of time-of-flight at a 2D array of receiver pixels, e.g. time-of-flight cameras or flash lidar
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/11Region-based segmentation
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • G06T7/246Analysis of motion using feature-based methods, e.g. the tracking of corners or segments
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/60Analysis of geometric attributes
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • G06T7/73Determining position or orientation of objects or cameras using feature-based methods
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/56Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2420/00Indexing codes relating to the type of sensors based on the principle of their operation
    • B60W2420/40Photo, light or radio wave sensitive means, e.g. infrared sensors
    • B60W2420/408Radar; Laser, e.g. lidar
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30196Human being; Person
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30248Vehicle exterior or interior
    • G06T2207/30252Vehicle exterior; Vicinity of vehicle

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Multimedia (AREA)
  • Transportation (AREA)
  • Mechanical Engineering (AREA)
  • Mathematical Physics (AREA)
  • Automation & Control Theory (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Electromagnetism (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Remote Sensing (AREA)
  • Geometry (AREA)
  • Traffic Control Systems (AREA)

Abstract

本公开涉及车辆控制装置及其方法。车辆控制装置可包括传感器和处理器。处理器可以将与第一对象相关联且在第一时间经由传感器获得的第一虚拟框转换成与晚于第一时间的第二时间相关联的第二虚拟框,基于经由传感器在第二时间获得的多个数据点确定与第二虚拟框相关联的多个第三虚拟框,基于以下各项中的至少一项将多个第三虚拟框的至少一部分合并到合并框中:在第二时间的多个第三虚拟框中的两个以上之间的距离,或者第二时间的多个第三虚拟框中的至少一个是否对应于与道路边界分开的第二对象,基于以下各项中的至少一项来保持或取消合并:合并框中包括的两个或更多数据点之间的距离,或第一对象的类型,并输出指示合并的保持或取消的结果的信号。

Description

车辆控制装置及其方法
相关申请的交叉引用
本申请要求于2023年9月11日提交给韩国知识产权局的韩国专利申请第10-2023-0120571号的优先权的权益,通过引用将其全部内容结合在此。
技术领域
本公开涉及车辆控制装置及其方法,并且更具体地,涉及一种用于使用光检测和测距(LiDAR)的技术。
背景技术
正在实施各种研究以通过使用各种传感器识别相对于主车辆的外部对象来辅助主车辆驾驶。
具体地,当主车辆以驾驶辅助装置激活模式或自主驾驶模式驾驶时,可通过使用LiDAR识别外部对象。
在使用LiDAR产生的虚拟框的合并过程中,两个或更多个虚拟框可能被不正确地合并。当通过不正确地合并虚拟框而获得的合并框被映射到外部对象时,可能不正确地识别外部对象的类型、状态或大小。当不正确地识别外部对象的类型、状态或大小时,主车辆的行驶路线可能意外地和不必要地改变。
发明内容
本公开致力于解决在现有技术中出现的上述问题,同时保持由现有技术实现的优势不受影响。
本公开的一方面提供一种合并通过使用传感器(例如,LiDAR)产生的虚拟框或者解除合并合并框的车辆控制装置及其方法。
本公开的一方面提供一种通过在合并虚拟框之前确定是否合并虚拟框来减小处理器的负荷的车辆控制装置及其方法。
本公开的一方面提供一种在识别到行人与道路边界(例如,护栏、中线、路缘石等)分离时精确地识别行人的车辆控制装置及其方法。
本公开要解决的技术问题不限于上述问题,并且本公开所属领域的技术人员从以下描述中将清楚地理解本文中未提及的任何其他技术问题。
根据本公开的一个或多个示例性实施方式,车辆控制装置可包括:传感器和处理器。处理器可以被配置为:将与第一对象相关联并且经由传感器在第一时间获得的第一虚拟框转换成与晚于第一时间的第二时间相关联的第二虚拟框;基于经由传感器在第二时间获得的多个数据点确定与第二虚拟框相关联的多个第三虚拟框;基于以下各项中的至少一者将多个第三虚拟框中的至少一部分合并到合并框中:第二时间时的多个第三虚拟框中的两者或多于两者之间的距离或者第二时间时的多个第三虚拟框中的至少一者是否对应于与道路边界分开的第二对象;基于以下各项中的至少一者来保持或取消对多个第三虚拟框的至少一部分的合并:包括在合并框中的两个或多于两个的数据点之间的距离或第一对象的类型;以及输出指示合并的保持或取消的结果的信号。
处理器可以被配置为通过基于以下各项中的至少一项确定多个第三虚拟框来确定多个第三虚拟框:第二虚拟框与在第二时间的多个第三虚拟框中的每个第三虚拟框重叠了大于第一阈值的比例,或者第二虚拟框中包括的多个第一数据点与在第二时间的多个第三虚拟框中包括的多个第二数据点之间的距离在第二阈值内。
处理器可进一步被配置为:基于以下各项中的至少一者确定第一对象是静止还是移动:第一对象未被遮挡,第一对象的类型是行人,或第二时间时的多个第三虚拟框的数目小于阈值。
多个第三虚拟框中的至少一部分可以包括第四虚拟框和第五虚拟框。处理器可以被配置为通过基于以下取消合并来保持或取消合并:第一对象是静止的,第二虚拟框的宽度或长度中的至少一者大于或等于第一阈值,以及垂直于形成第四虚拟框的线段并且通过在第二时间的第四虚拟框的中心的第一直线与第二时间的第五虚拟框的中心之间的距离大于或等于第二阈值。
多个第三虚拟框中的至少一部分可以包括第四虚拟框和第五虚拟框。处理器可以被配置为通过基于以下各项取消合并来保持或取消合并:第一对象正在移动;在第二时间时的多个第三虚拟框中的每一个的宽度和长度小于或等于第一阈值;以及第四虚拟框的中心与第五虚拟框的中心之间的距离大于或等于第二阈值,第二阈值大于第一阈值。
处理器可以进一步被配置为在第二时间的多个第三虚拟框中确定最接近与车辆控制装置相关联的车辆的第四虚拟框。第四虚拟框的宽度和长度可以大于等于阈值。处理器还可以被配置为:在第二时间的多个第三虚拟框中确定与第二对象相关联的第五虚拟框;取消第四虚拟框和第五虚拟框的合并。
处理器可进一步被配置为:基于以下各项确定第二时间的多个第三虚拟框中彼此最远的第四虚拟框和第五虚拟框:第一对象未被遮挡;第一对象的类型不是特种车辆;以及合并框的宽度或长度中的一者大于或等于第一阈值。
处理器还可以被配置为:基于第四虚拟框中距离第五虚拟框最近的第一数据点与第五虚拟框中距离第四虚拟框最近的第二数据点之间的距离大于第二阈值,取消第四虚拟框和第五虚拟框的合并,第二阈值小于第一阈值。
处理器可进一步被配置为基于以下各项确定与合并框相关联的对象类型:第一对象正在移动;合并框的宽度小于或等于第一阈值;合并框的长度小于或等于第二阈值,第二阈值大于第一阈值;且合并框与离传感器的视场的边界至少阈值距离的区域相关联。
处理器可以被配置成通过基于以下各项取消合并来保持或取消合并:第一对象的类型是行人,并且合并框的宽度或合并框的长度之一大于或等于小于第一阈值的第三阈值。
根据本公开的一个或多个示例性实施方式,一种车辆控制方法可包括:由车辆的一个或多个处理器将与第一对象相关联并且在第一时间经由传感器获得的第一虚拟框转换成与晚于第一时间的第二时间相关联的第二虚拟框;基于在第二时间经由传感器获得的多个数据点确定与第二虚拟框相关联的多个第三虚拟框;基于以下各项中的至少一者将多个第三虚拟框中的至少一部分合并成合并框:第二时间的多个第三虚拟框中的两者或多于两者之间的距离,或者第二时间的多个第三虚拟框中的至少一者是否对应于与道路边界分开的第二对象;以及基于以下各项中的至少一者取消对多个第三虚拟框的至少一部分的合并来保持或取消合并:合并框中包括的两个或多于两个数据点之间的距离,或者第一对象的类型;以及输出指示合并的保持或取消的结果的信号。
确定多个第三虚拟框可以包括基于以下各项中的至少一项来确定多个第三虚拟框:第二虚拟框与第二时间的多个第三虚拟框中的每个第三虚拟框重叠了大于第一阈值的比例,或者第二虚拟框中包括的多个第一数据点与在第二时间的多个第三虚拟框中包括的多个第二数据点之间的距离在第二阈值内。
方法还可包括:基于以下各项中的至少一项确定第一对象是静止的还是移动的:第一对象未被遮挡;第一对象的类型是行人;或者第二时间的多个第三虚拟框的数目小于阈值。
多个第三虚拟框中的至少一部分可以包括第四虚拟框和第五虚拟框。保持或取消合并可以包括:基于以下来取消合并:第一对象是静止的;第二虚拟框的宽度或长度中的至少一者大于或等于第一阈值;以及第一直线和在第二时间的第五虚拟框的中心之间的距离大于或等于第二阈值,第一直线与形成第四虚拟框的线段垂直并且通过第四虚拟框的中心。
多个第三虚拟框中的至少一部分可以包括第四虚拟框和第五虚拟框。保持或取消合并可以包括基于以下各项取消合并:第一对象正在移动;第二时间的多个第三虚拟框的宽度和长度小于或等于第一阈值;以及第四虚拟框的中心和第五虚拟框的中心之间的距离大于或等于比第一阈值大的第二阈值。
该方法可进一步包括在第二时间的多个第三虚拟框中确定最靠近车辆的第四虚拟框。第四虚拟框的宽度和长度可以大于等于阈值。该方法还可以包括:在第二时间的多个第三虚拟框中确定与第二对象关联的第五虚拟框;取消第四虚拟框和第五虚拟框的合并。
该方法可进一步包括:基于以下各项确定第二时间的多个第三虚拟框中彼此最远的第四虚拟框和第五虚拟框:第一对象未被遮挡;第一对象的类型不是特定车辆;以及合并框的宽度或长度中的一者大于或等于第一阈值。
该方法还可以包括:基于第四虚拟框中距离第五虚拟框最近的第一数据点与第五虚拟框中距离第四虚拟框最近的第二数据点之间的距离大于第二阈值,取消第四虚拟框和第五虚拟框的合并,第二阈值小于第一阈值。
该方法可进一步包括基于以下各项确定与合并框相关联的对象类型:第一对象正在移动;合并框的宽度小于或等于第一阈值;合并框的长度小于或等于第二阈值,第二阈值大于第一阈值;以及合并框与距传感器的视场的边界至少阈值距离的区域相关联。
保持或取消合并可以包括:基于以下各项来取消合并:第一对象的类型是行人;以及合并框的宽度或合并框的长度之一大于或等于小于第一阈值的第三阈值。
附图说明
从以下结合附图的详细描述中,本公开的上述和其他目的、特征以及优点将变得更加显而易见:
图1示出了根据本公开的实施方式的车辆控制装置的框图的实施例;
图2示出了在本公开的实施方式中通过使用虚拟框产生合并框的实施例;
图3示出了识别虚拟框之间的距离的实施例;
图4示出了在第二时间点与道路边缘分离的对象和虚拟框不合并的实施例;
图5示出了基于虚拟框中包括的多个点来分离合并框的实施例;
图6示出了分离合并框的结果的实施例。
图7示出了车辆控制方法的流程图的实施例;以及
图8示出了与车辆控制装置相关联的计算系统。
具体实施方式
在下文中,将参考附图详细描述本公开的一个或多个示例性实施方式。在将附图标记添加至各附图的部件时,应当注意,相同的部件具有相同的附图标记,尽管它们在另一附图中示出。此外,在描述本公开的一个或多个示例性实施方式时,当其可能使本公开的主题不必要地模糊不清时,将省略与众所周知的功能或配置相关联的详细描述。
在描述本公开的实施例实施方式的元件时,在本文中可使用术语第一、第二、A、B、(a)、(b)等。这些术语仅用于将一个元件与另一个元件区分开,但不限制相应的元件,而与相应的元件的性质、顺序或优先级无关。此外,除非另外定义,否则在此使用的包括技术术语和科学术语的所有术语将被解释为本公开所属领域的惯用术语。应当理解,本文中使用的术语应被解释为具有与它们在本公开和相关领域的上下文中的含义一致的含义,并且不得以理想化或过于正式的意义进行解释,除非本文中明确如此定义。
在下文中,将参考图1至图8详细描述本公开的一个或多个示例性实施方式。
图1示出了车辆控制装置的框图的实施例。
参照图1,车辆控制装置100可实施在车辆内部或外部,并且包括在车辆控制装置100中的一些部件可实施在车辆内部或外部。此时,车辆控制装置100可以与车辆的内部控制单元集成,并且可以通过单独的装置实现,以便借助于单独的连接装置连接至车辆的控制单元。例如,车辆控制装置100可进一步包括图1中未示出的部件。
参照图1,车辆控制装置100可包括处理器110和LiDAR 120。处理器110或LiDAR120可通过包括通信总线的电子部件彼此电连接或可操作地连接。
在下文中,硬件可操作地联接的事实可包括以下事实:硬件之间的直接或间接连接被有线或无线地建立,使得第二硬件被硬件中的第一硬件控制。尽管示出了不同的框,但是本公开不限于此。
图1中的硬件中的一些可被包括在包括片上系统(SoC)的单个集成电路中。车辆控制装置100中所包括的硬件的类型或数量不限于图1中所示的那些。例如,车辆控制装置100可以包括图1中示出的硬件的仅一些。
车辆控制装置100可包括用于基于一个或多个指令处理数据的硬件。用于处理数据的硬件可以包括处理器110。
例如,用于处理数据的硬件可以包括算术和逻辑单元(ALU)、浮点单元(FPU)、现场可编程门阵列(FPGA)、中央处理单元(CPU)和/或应用处理器(AP)。处理器110可以具有单核处理器的结构,或者可以具有包括双核、四核、六核或八核的多核处理器的结构。
包括在车辆控制装置100中的LiDAR 120可从识别车辆控制装置100周围的对象获得数据集。例如,LiDAR 120可基于从LiDAR 120发射、被周围对象反射并返回的脉冲激光信号来识别周围对象的位置、周围对象的移动方向、周围对象的速度或它们的任意组合中的至少一者。
车辆控制装置100中包括的处理器110可通过LiDAR 120在第一时间点获得虚拟框,该虚拟框与第一时间点指定的对象相对应。例如,处理器110可通过使用通过LiDAR 120在第一时间点获得的多个点在第一时间点获得虚拟框。
处理器110可产生跟踪框,跟踪框通过将在第一时间点的虚拟框转换为在第一时间点之后的第二时间点的虚拟框来获得。
例如,第一时间点、第二时间点或其任何组合中的至少一者可以包括用于通过LiDAR 120获得数据集的时间点。例如,第二时间点可以称为当前时间点(例如,时间点“t”)。例如,第二时间点可包括获得当前帧的时间点。例如,第一时间点可包括紧接在获得当前帧之前的时间点。例如,第一时间点可以包括时间点“t-1”。表达时间点是第一时间点、第二时间点或其任何组合中的至少一者。然而,第一时间点、第二时间点或其任何组合中的至少一者可意指帧号。例如,当第二时间点意味着第t帧时,第一时间点可以意味着第(t-1)帧。
处理器110可通过LiDAR 120在第二时间点获得多个点。例如,处理器110可以在第二时间点获得虚拟框,该虚拟框由通过LiDAR 120在第二时间点获得的多个点形成。例如,第二时间点的虚拟框可以被称为“元框”。例如,第二时间点的虚拟框可包括基于随着从LiDAR 120发射的光从外部对象反射而获得的点而形成的框。
处理器110可以基于在第二时间点获得虚拟框而识别在第二时间点的虚拟框中与跟踪框相关联的虚拟框。
例如,处理器110可以识别跟踪框与在第二时间点获得的虚拟框中的每个虚拟框重叠的比率(例如,比例)。例如,处理器110可以识别跟踪框以指定比率(例如,约25%)以上与在第二时间点获得的虚拟框中的每个虚拟框重叠。
例如,处理器110可以识别包括在跟踪框中的多个第一点与包括在第二时间点的虚拟框中的多个第二点之间的距离。例如,处理器110可确定包括在跟踪框中的多个第一点与包括在第二时间点的虚拟框中的多个第二点之间的距离是否在相关距离内。例如,相关距离可被称为“马氏距离(Mahalanobis distance,马哈拉诺比斯距离)”。
处理器110可以基于以下事实在第二时间点的虚拟框之中识别与跟踪框相关联的虚拟框:跟踪框以指定比率(例如,比例)以上与在第二时间点获得的每个虚拟框重叠,或者包括在跟踪框中的多个第一点与包括在第二时间点的虚拟框中的多个第二点之间的距离被识别为在相关距离内。
例如,处理器110可以通过识别跟踪框与在第二时间点获得的虚拟框中的每个虚拟框以指定比率(例如,比例)以上重叠、或者包括在跟踪框中的多个第一点与包括在第二时间点的虚拟框中的多个第二点之间的距离在相关距离内来识别与跟踪框相关联的虚拟框。
处理器110可以基于第二时间点的虚拟框之间的距离、第二时间点的虚拟框中的至少一个虚拟框是否对应于与道路边界(例如,边缘)分离的对象或其任何组合中的至少一者来合并相关联虚拟框的全部或部分。
例如,当第二时间点的虚拟框之间的距离较长时,处理器110可以不合并第二时间点的虚拟框。稍后将描述不合并第二时间点的虚拟框的操作。
处理器110可以基于指定对象是否被遮挡、指定对象的类型、第二时间点的虚拟框的数目或其任何组合中的至少一者来确定是否合并第二时间点的虚拟框。
例如,处理器110可基于以下事实来确定所指定的对象是否处于移动状态:所指定的对象未被遮挡、所指定的对象的类型被识别为包括行人的第一指定类型、以及第二时间点的虚拟框的数目小于指定数目(例如,3)。例如,处理器110可基于以下事实识别指定对象的静止或移动状态:指定对象未被遮挡、指定对象的类型被识别为包括行人的第一指定类型、以及第二时间点的虚拟框的数目小于指定数目。
处理器110可识别所指定的对象处于静止状态。当指定的对象处于静止状态时,处理器110可执行以下操作。
例如,处理器110可识别跟踪框的宽度或长度。处理器110可识别跟踪框的宽度或长度中的至少一者大于或等于第一参考长度(例如,约30m)。
基于指定对象处于静止状态并且跟踪框的宽度或长度中的至少一者大于或等于第一参考长度的事实,处理器110可以从在第二时间点的虚拟框中识别从第一虚拟框的第一中心点与形成第一虚拟框的线段垂直的第一直线。
例如,通过将通过LiDAR 120获得的多个点投影到由x轴、y轴和z轴中的x轴和y轴形成的平面上,处理器110可以从第二时间点的虚拟框中识别从第一虚拟框的第一中心点与形成第一虚拟框的线段垂直的第一直线。
处理器110可以识别第一直线与在第二时间点的虚拟框中的第二虚拟框的第二中心点之间的距离。处理器110可以基于第一直线与在第二时间点的虚拟框之中的第二虚拟框的第二中心点之间的距离大于或等于第二参考长度(例如,大约20m)的事实而不合并相关联的虚拟框。例如,处理器110可以基于第一直线和在第二时间点的虚拟框中的第二虚拟框的第二中心点之间的距离大于或等于第二参考长度(例如,约20m)的事实,从合并候选中排除这样的虚拟框,即该虚拟框具有第一直线和在第二时间点的虚拟框中的第二虚拟框的第二中心点之间的距离大于或等于第二参考长度(例如,约20m)。在下文中,不合并相关联的虚拟框的操作可以包括从合并候选排除相关联的虚拟框的操作。
处理器110可识别所指定的对象处于移动状态。例如,当指定的对象处于移动状态时,处理器110可执行以下操作。
处理器110可以识别在该第二时间点的虚拟框中的每一个虚拟框的宽度、在该第二时间点的虚拟框中的每一个虚拟框的长度、或其任何组合中的至少一者。例如,处理器110可以基于指定对象处于移动状态并且第二时间点的每个虚拟框的宽度和长度小于或等于第三参考长度(例如,约1m)来识别第二时间点的虚拟框中的第一虚拟框的第一中心点和第二时间点的虚拟框中的第二虚拟框的第二中心点。
处理器110可以识别在第二时间点的虚拟框之中的第一虚拟框的第一中心点与在第二时间点的虚拟框之中的第二虚拟框的第二中心点之间的距离。处理器110可以基于以下事实不合并相关联的虚拟框:在第二时间点的虚拟框之中的第一虚拟框的第一中心点与在第二时间点的虚拟框之中的第二虚拟框的第二中心点之间的距离大于或等于第四参考长度(例如,约1.5m)。
以下,将描述不管指定的对象是否处于移动状态而合并或不合并在第二时间点的虚拟框的实施例。
处理器110可以从在第二时间点的虚拟框中识别最靠近包括车辆控制装置100的主车辆并且具有大于或等于第四参考长度(例如,约1m)的宽度和长度的虚拟框。处理器110可以从在第二时间点的虚拟框中识别具有分配的第一标识符的虚拟框,该第一标识符指示虚拟框最靠近包括车辆控制装置100的主车辆并且具有大于或等于第四参考长度(例如,约1m)的宽度和长度。例如,第一标识符可被称为主索引。
处理器110可以从在第二时间点的虚拟框中识别具有所分配的第二标识符的虚拟框,第二标识符指示与道路边界分离的对象。例如,第二标识符可被称为“ContourSplitFlag”。
处理器110可以不合并第一标识符被分配给的虚拟框和第二标识符被分配给的虚拟框。例如,当试图合并被分配了第一标识符的虚拟框和被分配了第二标识符的虚拟框时,处理器110可以不合并被分配了第一标识符的虚拟框和被分配了第二标识符的虚拟框。例如,处理器110可以从合并候选中排除第二标识符被分配给的虚拟框。
在下文中,将描述通过对在第二时间点的虚拟框合并而产生的合并框解除合并的实施例。
处理器110可以基于第二时间点的虚拟框之间的距离、第二时间点的虚拟框中的至少一个虚拟框是否对应于与道路边界分离的对象或其任何组合中的至少一者来合并相关联的虚拟框中的全部或部分。处理器110可通过合并来产生合并框。处理器110可基于包括在通过合并而产生的合并框中的多个点之间的距离、指定的对象的类型或其任意组合中的至少一者来保持或取消合并。
处理器110可识别所指定的对象是否被遮挡。处理器110可识别指定对象的类型。处理器110可识别合并框的宽度、合并框的长度或其任何组合中的至少一者。
处理器110可识别所指定的对象未被遮挡,所指定的对象的类型被识别为与指示特定车辆的第二指定类型不同的类型,并且合并框的宽度或长度大于或等于第五参考长度(例如,约30m)。
例如,特定车辆可包括1吨卡车、集装箱卡车、重型卡车或其任意组合中的至少一者。例如,特定车辆可包括尺寸大于乘用车辆的车辆。
处理器110可以基于以下事实来识别合并框中包括的第二时间点的虚拟框之间的距离:指定对象未被遮挡,指定对象的类型被识别为与指示特定车辆的第二指定类型不同的类型,并且合并框的宽度或长度大于或等于第五参考长度。
例如,处理器110可以从合并框中所包括的第二时间点的虚拟框中识别各自具有最远距离的两个虚拟框。处理器110可以基于合并框中包括的第二时间点的虚拟框中各自具有最远距离的两个虚拟框中包括的点来识别合并框中包括的第二时间点的虚拟框之间的距离。例如,在合并框中包括的第二时间点的虚拟框中具有最远距离的两个虚拟框可以分别称为“第三虚拟框”和“第四虚拟框”。
例如,处理器110可以识别包括在第三虚拟框中的点。例如,处理器110可以识别包括在第四虚拟框中的点。处理器110可识别第三虚拟框中包括的点和第四虚拟框中包括的点之中的两个最接近的点。例如,包括在第三虚拟框中的点和包括在第四虚拟框中的点之中的两个最接近的点可以分别被称为“第一点”和“第二点”。
处理器110可识别第一点与第二点之间的距离。处理器110可识别第一点与第二点之间的距离超过第六参考长度(例如,约20m)。处理器110可基于第一点与第二点之间的距离超过第六参考长度而取消合并。例如,第六参考长度可以小于第五参考长度。
处理器110可基于指定对象是处于静止状态还是移动状态、指定对象的类型或其任何组合中的至少一者来取消合并。
例如,处理器110可识别所指定的对象是静止状态和移动状态中的移动状态。处理器110可基于指定的对象被识别为处于静止状态和移动状态中的移动状态、合并框的宽度小于或等于第七参考长度(例如,大约4.5m),合并框的长度是超过第七参考长度的第八参考长度(例如,大约20m),并且在距LiDAR 120的视场(FOV)的边界超过指定距离的区域中识别到合并框的事实,来识别与合并框相应的对象的类型。在距离LiDAR 120的FOV的边界为指定距离内的区域可以被称为“FOV边界区域”。
处理器110可基于识别出指定对象的类型是包括行人的第一指定类型来识别合并框的宽度和长度。
处理器110可基于识别出合并框的宽度、合并框的长度或其任何组合中的至少一者大于或等于小于第七参考长度的第九参考长度(例如,约1.5m)而将合并框解除合并。详细地,处理器110可以基于识别出合并框的宽度或合并框的长度之一大于或等于比第七参考长度小的第九参考长度来将合并框解除合并。
处理器110可以基于相关联的虚拟框的全部或部分来获得合并框。处理器110可以将合并框或第二时间点的虚拟框映射到外部对象。处理器110可以基于合并框或在第二时间点的虚拟框到外部对象的映射来识别外部对象的前进方向、外部对象的速度、外部对象的类型或者其任何组合中的至少一者。
如上所述,车辆控制装置100的处理器110可以通过合并在第二时间点的虚拟框或者对合并框解除合并来将虚拟框准确地映射到外部对象。处理器110可以通过将虚拟框准确地映射到外部对象来辅助包括车辆控制装置100的主车辆的操作。
图2示出了通过使用虚拟框来产生合并框的实施例。
图2的操作可由图1的车辆控制装置100执行。例如,图2的操作可由包括在图1的车辆控制装置100中的处理器110执行。
参考图2中的第一实施例201,车辆控制装置中包括的处理器可以通过LiDAR在第一时间点获得与第一时间点的指定对象相对应的虚拟框211。例如,处理器可以通过使用在时间点“t-1”获得的多个点来获得虚拟框211。
参考图2中的第二实施例203,处理器可以产生通过将在第一时间点的虚拟框211转换为在第一时间点之后的第二时间点的虚拟框获得的跟踪框213。例如,第二时间点可被称作当前帧。
参考图2中的第三实施例205,处理器可获得通过LiDAR在第二时间点获得的多个点形成的第二时间点的虚拟框221、223、225和227。
处理器可以基于获得由在第二时间点获得的多个点形成的在第二时间点的虚拟框221、223、225和227,识别跟踪框213以及在第二时间点的虚拟框221、223、225和227中的相关联的虚拟框。
例如,处理器可以基于跟踪点、输出点、中心点、跟踪框213与在第二时间点的虚拟框221、223、225和227重叠的比率(例如,比例)或其任意组合中的至少一者来确定跟踪框213是否与在第二时间点的虚拟框221、223、225和227相关联。
例如,处理器可以基于跟踪框213与第二时间点的虚拟框221、223、225和227之间的相关距离来确定跟踪框213是否与在第二时间点的虚拟框221、223、225和227相关联。
例如,处理器可以基于根据马氏距离获得的相关距离来确定跟踪框213与在第二时间点的虚拟框221、223、225和227是否相关联。例如,当马氏距离小于或等于参考距离(例如,大约0.5m)时,处理器可以确定跟踪框213与在第二时间点的虚拟框221、223、225和227相关联。
例如,处理器可以基于跟踪框213与在第二时间点的虚拟框221、223、225和227重叠了参考比率(例如,约25%)以上的事实来确定跟踪框213与在第二时间点的虚拟框221、223、225和227相关联。
参考图2中的第四实施例207,处理器可以基于相关联的虚拟框221、223、225、以及227来产生合并框230。
例如,处理器可以合并跟踪框213和相关联的虚拟框221、223、225和227。例如,处理器可以合并跟踪框213和相关联的虚拟框221、223、225和227的全部或部分。
处理器可以基于合并相关联的虚拟框221、223、225和227的全部或部分来产生合并框230。
在下文中,稍后将描述用于产生合并框230的车辆控制装置。
图3示出了识别虚拟框之间的距离的实施例。
图3的操作可由图1的车辆控制装置100执行。例如,图3的操作可由包括在图1的车辆控制装置100中的处理器110执行。
图3中的第一实施例301和第二实施例303中的每一个示出了基于在第二时间点的虚拟框之间的距离来合并与跟踪框相关联的虚拟框的全部或部分的实施例。
参考第一实施例301,车辆控制装置中包括的处理器可以识别第二时间点的虚拟框中的与跟踪框310相关联的虚拟框311和313。例如,当对应于跟踪框310的指定对象被识别为处于静止状态时,处理器可以执行在第一实施例301中描述的操作。
处理器110可基于对应于跟踪框310的指定对象是否被遮挡、指定对象的类型、第二时间点的虚拟框的数目或其任何组合中的任一者来确定指定对象是处于静止状态还是移动状态。
处理器可基于以下事实来识别指定对象的静止或移动状态:指定对象未被遮挡,指定对象的类型被识别为包括行人的第一指定类型,以及第二时间点的虚拟框的数目小于指定数目(例如,大约3)。
处理器可识别指定对象处于静止状态,且可识别跟踪框310的宽度319、跟踪框310的长度或其任何组合中的至少一者大于或等于第一参考长度(例如,约30m)。
例如,当对应于跟踪框310的指定对象处于静止状态,且跟踪框310的宽度319大于或等于30m时,且当相关联虚拟框之间的距离大于或等于20m时,处理器可不合并相关联的虚拟框。
例如,处理器可以基于第一虚拟框311与第二虚拟框313相关联的事实,识别从第一虚拟框311的中心点垂直于形成第一虚拟框311的线段的第一直线315。
处理器可识别第一直线315与第二虚拟框313的中心点之间的距离317。处理器可基于识别出第一直线315与第二虚拟框313的中心点之间的距离大于或等于参考距离(例如,大约20m)而不合并第一虚拟框311和第二虚拟框313。
处理器不合并第一虚拟框311和第二虚拟框313的操作可包括处理器从合并候选中排除第一虚拟框311、第二虚拟框313或它们的任意组合中的至少一者的操作。
参考第二实施例303,处理器可识别指定对象未被遮挡,指定对象的类型被识别为包括行人的第一指定类型,第二时间点的虚拟框的数目小于指定数目(例如,3),以及指定对象处于移动状态。
处理器可以识别与跟踪框320相关联的虚拟框321和323。例如,处理器可以识别与跟踪框320相关联的第一虚拟框321和与跟踪框320相关联的第二虚拟框323。
例如,处理器可以识别第一虚拟框321的宽度和长度。处理器可以识别第二虚拟框323的宽度和长度。
处理器可以识别第一虚拟框321的宽度和长度中的每个都小于或等于约1m。处理器可以识别出第二虚拟框323的宽度和长度中的每一个都小于或等于约1m。
处理器可以基于第一虚拟框321和第二虚拟框323的宽度和长度中的每一个都小于或等于约1m的事实来识别第一虚拟框321和第二虚拟框323之间的距离。
例如,处理器可以识别第一虚拟框321的第一中心点和第二虚拟框323的第二中心点。例如,第一虚拟框321的第一中心点、第二虚拟框323的第二中心点、或者其任意组合中的至少一者可以基于以主车辆为中心的坐标系来获得,并且使用包括车辆控制装置的主车辆的位置作为原点。
处理器可以基于识别出第一虚拟框321的第一中心点和第二虚拟框323的第二中心点来识别第一虚拟框321的第一中心点与第二虚拟框323的第二中心点之间的距离325。
处理器可以基于识别出第一虚拟框321的第一中心点与第二虚拟框323的第二中心点之间的距离325大于或等于约1.5m而不合并第一虚拟框321和第二虚拟框323。
处理器不合并第一虚拟框321和第二虚拟框323的操作可包括处理器从合并候选中排除第一虚拟框321、第二虚拟框323或它们的任意组合中的至少一者的操作。
图4示出与道路边界分离的对象和在第二时间点的虚拟框不合并的实施例。
图4的操作可以由图1的车辆控制装置100执行。例如,图4的操作可以由包括在图1的车辆控制装置100中的处理器110执行。
参照图4,车辆控制装置中包括的处理器可以产生跟踪框410,该跟踪框通过将在第一时间点的虚拟框转换为在第一时间点之后的第二时间点的虚拟框而获得。
处理器可获得在第二时间点的虚拟框411、413、415、417、420和430,虚拟框由通过LiDAR在第二时间点获得的多个点形成。
处理器可以在第二时间点的虚拟框411、413、415、417、420和430中识别与跟踪框410相关联的虚拟框411、413、415、417和430。
处理器可以基于以下各项中的至少一项来识别与跟踪框410相关联的虚拟框:跟踪框410与虚拟框重叠的比率(例如,比例)、包括在跟踪框中的点与包括在虚拟框中的点之间的相关距离、或其任何组合。
处理器可从与跟踪框410相关联的虚拟框411、413、415、417和430中识别虚拟框411,该虚拟框具有指示虚拟框411最靠近包括车辆控制装置的主车辆的第一标识符并且具有各自大于或等于第四参考长度(例如,约1m)的宽度和长度。例如,第一标识符可被称为主索引。
合并框的位置参考点、合并框的特征或其任意组合中的至少一者可通过使用被分配第一标识符的虚拟框411来确定。例如,处理器可以基于分配了第一标识符的虚拟框411的位置参考点和虚拟框411的特征来确定合并框的位置参考点、合并框的特征或其任何组合中的至少一者。
处理器可以从在第二时间点的虚拟框中识别具有指示与道路边界分离的对象的第二标识符的虚拟框430。例如,第二标识符可被称为“ContourSplitFlag”。
例如,在图4中,虚拟框420可以包括对应于道路边界的虚拟框。在图4中,虚拟框430可以包括对应于与对应于道路边界的虚拟框420分离的对象的虚拟框。
当尝试合并第二标识符被分配给的虚拟框430和第一标识符被分配给的虚拟框411时,处理器可以从合并候选中排除第二标识符被分配给的虚拟框430。例如,处理器可以不合并第二标识符被分配给的虚拟框430和第一标识符被分配给的虚拟框411。
处理器可以不合并第二标识符被分配给的虚拟框430与第一标识符被分配给的虚拟框411,并且因此可以基于与跟踪框相关联的虚拟框411、413、415和417获得合并框。例如,处理器可以执行合并,同时从与跟踪框410相关联的虚拟框411、413、415、417和430中排除第二标识符被分配给的虚拟框430。
如上所述,车辆控制装置的处理器可以执行合并,同时从与跟踪框410相关联的虚拟框411、413、415、417和430中排除第二标识符被分配给的虚拟框430,从而防止对应于道路边界的虚拟框420的形状异常扩展。
图5示出了基于虚拟框中包括的多个点来分离合并框的实施例。
图5的操作可由图1的车辆控制装置100执行。例如,图5的操作可以由包括在图1的车辆控制装置100中的处理器110执行。
参考图5,包括在车辆控制装置中的处理器可以合并与跟踪框相关联的虚拟框的全部或部分。处理器可以基于合并与跟踪框相关联的虚拟框520和530的全部或部分来产生合并框510。
处理器可以从包括在合并框510中的第二时间点的虚拟框中识别彼此距离最远的虚拟框520和530。
处理器可以基于从在第二时间点的虚拟框中识别彼此距离最远的虚拟框来识别位于相对靠近主车辆的第一虚拟框520。处理器可基于识别在第二时间点的虚拟框中彼此距离最远的虚拟框来识别第二虚拟框530,第二虚拟框530不同于位于相对靠近主车辆的第一虚拟框520。
处理器可识别包括在第一虚拟框520中的点。处理器可从包括在第一虚拟框520中的点中识别最接近第二虚拟框530的第一点521。
处理器可识别包括在第二虚拟框530中的点。处理器可从包括在第二虚拟框530中的点中识别最接近第二虚拟框520的第二点531。
处理器可识别第一点521与第二点531之间的距离。处理器可识别第一点521与第二点531之间沿x轴方向的距离540。
例如,处理器可识别第一点521的坐标。例如,处理器可识别第二点531的坐标。
处理器可以通过使用第一点521的坐标中的x坐标和第二点531的坐标中的x坐标来识别第一点521和第二点531之间的在x轴方向上的距离540。
处理器可识别第一点521与第二点531之间的距离超过小于第五参考长度的第六参考长度(例如,约20m)。处理器可基于第一点521与第二点531之间的距离超过第六参考长度而取消合并。
例如,处理器可基于第一点521与第二点531之间的距离超过第六参考长度来使合并框510解除合并。
处理器可基于第一点521与第二点531之间在x轴方向上的距离540超过第六参考长度的事实而取消合并。
处理器可以基于解除合并而将虚拟框520和530映射到外部对象。
图6示出了分离合并框的结果的实施例。
图6的操作可由图1的车辆控制装置100执行。例如,图6的操作可由包括在图1的车辆控制装置100中的处理器110执行。
图6中的第一实施例600可以包括表示主车辆的周围环境的图像的实施例。
图6中的第二实施例601可以包括输出合并框而不应用本技术的实施例。
图6中的第三实施例602可以包括通过应用本技术将合并框解除合并和输出的实施例。
参考第二实施例601,处理器可以产生合并框620并且可以输出所产生的合并框620。即使当合并框620中包括的虚拟框被定位为彼此远离时,处理器也可以输出合并框620而不将合并框620解除合并。
行人610和护栏可以通过在不将合并框620解除合并的情况下输出合并框620而被输出为一个对象。
参见第三实施例602,处理器可以将合并框620解除合并。处理器可基于将合并框620解除合并来输出第一虚拟框630和第二虚拟框635。
可替代地,处理器可以输出在第二时间点的多个虚拟框,其中这些虚拟框未被合并。
例如,第一虚拟框630可以支持护栏的一部分。例如,第二虚拟框635可对应于行人610。
车辆控制装置中包括的处理器可以通过不合并第一虚拟框630和第二虚拟框635或者对合并框解除合并来准确地将虚拟框630和635映射到外部对象。
图7示出了车辆控制方法的流程图的实施例。
在下文中,将参考图7详细描述车辆控制方法。图7是用于描述车辆控制方法的流程图。
在下文中,假设图1的车辆控制装置100执行图7的过程。此外,在图7的描述中,可以理解,被描述为由装置执行的操作由车辆控制装置100的处理器110控制。
图7的操作中的至少一个可由图1的车辆控制装置100执行。图7中的每个操作可以顺序执行,但不一定必须顺序执行。例如,可以改变操作的顺序,并且可以并行执行至少两个操作。
参考图7,在操作S701中,车辆控制方法可以包括基于通过LiDAR在第一时间点获得与第一时间点的指定对象对应的虚拟框,产生跟踪框的操作,该跟踪框通过将在第一时间点的虚拟框转换为在第一时间点后的第二时间点的虚拟框来获得。
例如,车辆控制方法可以包括基于合并在第一时间点的虚拟框产生跟踪框的操作。
在操作S703中,车辆控制方法可以包括:基于获得由通过LiDAR在第二时间点获得的多个点构成的第二时间点的虚拟框,识别在第二时间点的虚拟框中与跟踪框相关联的虚拟框的操作。
例如,车辆控制方法可以包括基于以下各项中的至少一项确定第二时间点的虚拟框是否与跟踪框相关联的操作:第二时间点的虚拟框与跟踪框重叠的比率(例如,比例)、第二时间点的虚拟框与跟踪框之间的相关距离、或者其任意组合。
在操作S705中,车辆控制方法可以包括以下操作:基于在第二时间点的虚拟框之间的距离、在第二时间点的虚拟框中的至少一个虚拟框是否与从道路边界分离的对象相对应或其任意组合中的至少一者来合并相关联的虚拟框的全部或部分。
例如,车辆控制方法可以包括基于合并相关联的虚拟框的全部或部分来产生合并框的操作。
在操作S707中,车辆控制方法可以包括基于通过合并所产生的合并框中包括的多个点之间的距离、指定对象的类型或者其任意组合中的至少一者来保持或者取消合并的操作。
车辆控制方法可以包括在保持合并时将合并框映射到外部对象或者输出合并框的操作。
该车辆控制方法可以包括如下操作:当取消合并时,将在第二时间点获得的且合并被取消的虚拟框映射到外部对象,或者将合并框分离和输出为在第二时间点的虚拟框。
图8示出了与车辆控制装置相关联的计算系统。
参考图8,计算系统1000可包括经由总线1200彼此连接的至少一个处理器1100、内存1300、用户接口输入装置1400、用户接口输出装置1500、存储装置1600和网络接口1700。
处理器1100可以是处理存储在内存1300和/或存储装置1600中的指令的中央处理单元(CPU)或半导体器件。内存1300和存储装置1600中的每一个可包括各种类型的易失性或非易失性存储介质。例如,内存1300可包括只读存储器(ROM)和随机存取存储器(RAM)。
因此,结合说明书中公开的一个或多个示例性实施方式描述的方法或算法的操作可直接用硬件模块、软件模块或硬件模块和软件模块的组合实现,其由处理器1100执行。软件模块可驻留在存储介质(即,内存1300和/或存储装置1600)上,例如随机存取存储器(RAM)、快闪存储器、只读存储器(ROM)、可擦除且可编程ROM(EPROM)、电EPROM(EEPROM)、寄存器、硬盘驱动器、可移动磁盘或光盘ROM(CD-ROM)。
存储介质可联接到处理器1100。处理器1100可从存储介质读出信息,并可将信息写入存储介质中。可替换地,存储介质可以与处理器1100集成。处理器和存储介质可用专用集成电路(ASIC)来实现。ASIC可设置在用户终端中。可替代地,处理器和存储介质可用用户终端中的单独部件来实现。
以上描述仅是本公开的技术构思的实施例,并且在不背离本公开的本质特征的情况下,本领域技术人员可以进行各种修改和改变。
因此,本公开并非旨在限制而是解释本公开的技术构思,并且本公开的范围和精神不受本文描述的一个或多个示例性实施方式的限制。本公开的保护范围应由所附权利要求解释,并且其所有等同物应被解释为包括在本公开的范围内。
车辆控制装置可以合并通过使用LiDAR产生的虚拟框或者可以将合并框解除合并。
此外,车辆控制装置可以通过在合并虚拟框之前确定是否合并虚拟框来减小处理器的负荷。
此外,当识别到行人与道路边界(诸如护栏、中央区或路缘)分离时,车辆控制装置可以准确地识别行人。
此外,可以提供通过说明书直接或间接理解的各种效果。
在上文中,虽然已经参考一个或多个示例性实施方式和附图描述了本公开,但是本公开不限于此,而是在不背离在所附权利要求中要求保护的本公开的精神和范围的情况下,可由本公开所属领域的技术人员进行各种修改和改变。

Claims (20)

1.一种车辆控制装置,包括:
传感器;以及
处理器,被配置为:
将与第一对象相关联并且在第一时间经由所述传感器获得的第一虚拟框转换成与晚于所述第一时间的第二时间相关联的第二虚拟框;
基于在所述第二时间经由所述传感器获得的多个数据点确定与所述第二虚拟框相关联的多个第三虚拟框;
基于以下各项中的至少一者将所述多个第三虚拟框中的至少一部分合并到合并框中:
在所述第二时间的所述多个第三虚拟框中的两个以上第三虚拟框之间的距离,或
在所述第二时间的所述多个第三虚拟框中的至少一个第三虚拟框是否对应于与道路边界分离的第二对象;
基于以下各项中的至少一项,保持或取消对所述多个第三虚拟框的所述至少一部分的合并:
所述合并框中包括的两个以上数据点之间的距离,或者
所述第一对象的类型;以及
输出指示所述合并的保持或取消的结果的信号。
2.根据权利要求1所述的车辆控制装置,其中,所述处理器被配置成通过基于以下各项中的至少一项确定所述多个第三虚拟框:
所述第二虚拟框与所述第二时间的所述多个第三虚拟框中的每个第三虚拟框重叠大于第一阈值的比例,或者
包括在所述第二虚拟框中的多个第一数据点与包括在所述第二时间的所述多个第三虚拟框中的多个第二数据点之间的距离在第二阈值内。
3.根据权利要求1所述的车辆控制装置,其中,所述处理器进一步被配置为:
基于以下各项中的至少一项来确定所述第一对象是静止的还是移动的:
所述第一对象是否未被遮挡,
所述第一对象的类型是否是行人,或者
所述第二时间的所述多个第三虚拟框的数量是否小于阈值。
4.根据权利要求3所述的车辆控制装置,其中,所述多个第三虚拟框中的所述至少一部分包括第四虚拟框和第五虚拟框,并且其中所述处理器被配置为通过基于以下各项取消所述合并来保持或取消所述合并:
所述第一对象是静止的,
所述第二虚拟框的宽度或长度中的至少一项大于或等于第一阈值,以及
垂直于形成所述第四虚拟框的线段且经过所述第二时间的所述第四虚拟框的中心的第一直线与所述第二时间的所述第五虚拟框的中心之间的距离大于或等于第二阈值。
5.根据权利要求3所述的车辆控制装置,其中,所述多个第三虚拟框中的所述至少一部分包括第四虚拟框和第五虚拟框,并且其中所述处理器被配置为通过基于以下各项取消所述合并来保持或取消所述合并:
所述第一对象正在移动,
所述第二时间的所述多个第三虚拟框中的每一个的宽度和长度小于或等于第一阈值,并且
所述第四虚拟框的中心与所述第五虚拟框的中心之间的距离大于或等于第二阈值,所述第二阈值大于所述第一阈值。
6.根据权利要求1所述的车辆控制装置,其中,所述处理器进一步被配置为:
在所述第二时间的所述多个第三虚拟框中确定最靠近与所述车辆控制装置相关联的车辆的第四虚拟框,其中,所述第四虚拟框的宽度和长度大于或等于阈值;
在所述第二时间的所述多个第三虚拟框中确定与所述第二对象相关联的第五虚拟框;以及
取消所述第四虚拟框和所述第五虚拟框的合并。
7.根据权利要求1所述的车辆控制装置,其中,所述处理器进一步被配置为:
基于以下各项确定所述第二时间的所述多个第三虚拟框中彼此距离最远的第四虚拟框和第五虚拟框:
所述第一对象未被遮挡,
所述第一对象的类型不是特定车辆,以及
所述合并框的宽度或长度中的一者大于或等于第一阈值。
8.根据权利要求7所述的车辆控制装置,其中,所述处理器进一步被配置为:
基于所述第四虚拟框中距离所述第五虚拟框最近的第一数据点与所述第五虚拟框中距离所述第四虚拟框最近的第二数据点之间的距离大于第二阈值,取消所述第四虚拟框和所述第五虚拟框的合并,所述第二阈值小于所述第一阈值。
9.根据权利要求1所述的车辆控制装置,其中,所述处理器进一步被配置为基于以下各项确定与所述合并框相关联的对象类型:
所述第一对象正在移动,
所述合并框的宽度小于或等于第一阈值,
所述合并框的长度小于或等于第二阈值,所述第二阈值大于所述第一阈值,并且
所述合并框与距离所述传感器的视场的边界至少阈值距离的区域相关联。
10.根据权利要求9所述的车辆控制装置,其中,所述处理器被配置为通过基于以下各项取消所述合并来保持或取消所述合并:
所述第一对象的所述类型是行人,以及
所述合并框的宽度或所述合并框的长度中的一者大于或等于小于所述第一阈值的第三阈值。
11.一种车辆控制方法,包括:
由车辆的一个或多个处理器将与第一对象相关联并且在第一时间经由传感器获得的第一虚拟框转换成与晚于所述第一时间的第二时间相关联的第二虚拟框;
基于经由所述传感器在所述第二时间获得的多个数据点确定与所述第二虚拟框相关联的多个第三虚拟框;
基于以下各项中的至少一项将所述多个第三虚拟框中的至少一部分合并到合并框中:
在所述第二时间的所述多个第三虚拟框中的两个以上第三虚拟框之间的距离,或
在所述第二时间的所述多个第三虚拟框中的至少一个是否对应于与道路边界分离的第二对象;以及
基于以下各项中的至少一项,保持或取消对所述多个第三虚拟框的所述至少一部分的所述合并:
所述合并框中包括的两个以上数据点之间的距离,或者
所述第一对象的类型;以及
输出指示所述合并的保持或取消的结果的信号。
12.根据权利要求11所述的车辆控制方法,其中,确定所述多个第三虚拟框包括:基于以下各项中的至少一项来确定所述多个第三虚拟框:
所述第二虚拟框与所述第二时间的所述多个第三虚拟框中的每个第三虚拟框重叠的比例大于第一阈值,或者
包括在所述第二虚拟框中的多个第一数据点与包括在所述第二时间的所述多个第三虚拟框中的多个第二数据点之间的距离在第二阈值内。
13.根据权利要求11所述的车辆控制方法,进一步包括:
基于以下各项中的至少一项来确定所述第一对象是静止的还是移动的:
所述第一对象是否未被遮挡,
所述第一对象的类型是否是行人,或者
所述第二时间的所述多个第三虚拟框的数量是否小于阈值。
14.根据权利要求13所述的车辆控制方法,其中,所述多个第三虚拟框中的所述至少一部分包括第四虚拟框和第五虚拟框,并且其中所述合并的保持或取消包括基于以下各项取消所述合并:
所述第一对象是静止的,
所述第二虚拟框的宽度或长度中的至少一者大于或等于第一阈值,以及
垂直于形成所述第四虚拟框的线段且经过所述第二时间的所述第四虚拟框的中心的第一直线与所述第二时间的所述第五虚拟框的中心之间的距离大于或等于第二阈值。
15.根据权利要求13所述的车辆控制方法,其中,所述多个第三虚拟框中的所述至少一部分包括第四虚拟框和第五虚拟框,并且其中所述合并的保持或取消包括基于以下各项取消所述合并:
所述第一对象正在移动,
所述第二时间的所述多个第三虚拟框的宽度和长度小于或等于第一阈值,并且
所述第四虚拟框的中心与所述第五虚拟框的中心之间的距离大于或等于大于第二阈值,所述第二阈值大于所述第一阈值。
16.根据权利要求11所述的车辆控制方法,进一步包括:
在所述第二时间的多个第三虚拟框中确定最靠近所述车辆的第四虚拟框,其中所述第四虚拟框的宽度和长度大于或等于阈值;
在所述第二时间的所述多个第三虚拟框中确定与所述第二对象相关联的第五虚拟框;以及
取消所述第四虚拟框和所述第五虚拟框的合并。
17.根据权利要求11所述的车辆控制方法,进一步包括:
基于以下各项确定所述第二时间的所述多个第三虚拟框中彼此距离最远的第四虚拟框和第五虚拟框:
所述第一对象未被遮挡,
所述第一对象的类型不是特定车辆,以及
所述合并框的宽度或长度中之一大于或等于第一阈值。
18.根据权利要求17所述的车辆控制方法,进一步包括:
基于所述第四虚拟框中距离所述第五虚拟框最近的第一数据点和所述第五虚拟框中距离所述第四虚拟框最近的第二数据点之间的距离大于第二阈值,取消所述第四虚拟框和所述第五虚拟框的合并,所述第二阈值小于所述第一阈值。
19.根据权利要求11所述的车辆控制方法,进一步包括:基于以下各项确定与所述合并框相关联的对象类型:
所述第一对象正在移动,
所述合并框的宽度小于或等于第一阈值,
所述合并框的长度小于或等于第二阈值,所述第二阈值大于所述第一阈值,并且
所述合并框与距离所述传感器的视场的边界至少阈值距离的区域相关联。
20.根据权利要求19所述的车辆控制方法,其中,所述合并的保持或取消包括基于以下各项取消所述合并:
所述第一对象的类型是行人,以及
所述合并框的宽度或所述合并框的长度中的一者大于或等于小于所述第一阈值的第三阈值。
CN202410515489.XA 2023-09-11 2024-04-26 车辆控制装置及其方法 Pending CN119590429A (zh)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
KR1020230120571A KR20250038020A (ko) 2023-09-11 2023-09-11 차량 제어 장치 및 그 방법
KR10-2023-0120571 2023-09-11

Publications (1)

Publication Number Publication Date
CN119590429A true CN119590429A (zh) 2025-03-11

Family

ID=94691401

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202410515489.XA Pending CN119590429A (zh) 2023-09-11 2024-04-26 车辆控制装置及其方法

Country Status (4)

Country Link
US (1) US20250086807A1 (zh)
KR (1) KR20250038020A (zh)
CN (1) CN119590429A (zh)
DE (1) DE102024203866A1 (zh)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20250038019A (ko) * 2023-09-11 2025-03-19 현대자동차주식회사 차량 제어 장치 및 그 방법

Family Cites Families (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2023116074A (ja) 2022-02-09 2023-08-22 株式会社ディスコ 加工システム

Also Published As

Publication number Publication date
KR20250038020A (ko) 2025-03-19
DE102024203866A1 (de) 2025-03-13
US20250086807A1 (en) 2025-03-13

Similar Documents

Publication Publication Date Title
CN109074742B (zh) 周边认知装置、周边认知方法和计算机可读取的记录介质
US10748014B2 (en) Processing device, object recognition apparatus, device control system, processing method, and computer-readable recording medium
CN111857135A (zh) 用于车辆的避障方法、装置、电子设备和计算机存储介质
CN111971724B (zh) 行动选择装置、计算机能读取的存储介质和行动选择方法
CN108027237B (zh) 周边识别装置
CN119590429A (zh) 车辆控制装置及其方法
US20250050906A1 (en) Autonomous Driving Control Apparatus and Method Thereof
US20250130068A1 (en) Apparatus For Controlling A Vehicle And Method Thereof
CN119590428A (zh) 用于控制车辆的设备及其方法
US11630199B2 (en) Sensor information fusion device and method thereof
CN119590427A (zh) 用于控制车辆的设备及其方法
JP6861911B2 (ja) 情報処理装置、情報処理方法及び情報処理プログラム
JP7126629B1 (ja) 情報統合装置、情報統合方法、及び情報統合プログラム
US20250200958A1 (en) Apparatus for recognizing object and method thereof
US20250308206A1 (en) Apparatus for controlling vehicle and method thereof
US20250124597A1 (en) Apparatus For Recognizing Object And Method Thereof
US20250182496A1 (en) Apparatus for recognizing object and method thereof
CN119611386A (zh) 用于控制车辆的装置及其方法
CN119590431A (zh) 用于控制车辆的设备以及用于控制车辆的方法
CN119611401A (zh) 控制车辆的设备及其方法
CN119636745A (zh) 用于控制车辆的设备及其方法
CN119693910A (zh) 对象识别装置及方法
KR20250034784A (ko) 객체 인식 장치, 및 그 방법
KR20250034220A (ko) 객체 인식 장치, 및 그 방법
KR20220101540A (ko) 영상 데이터 및 레이더 데이터를 융합하여 객체를 검출하는 방법 및 전자장치

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication