[go: up one dir, main page]

CN115082520B - 定位追踪方法、装置、终端设备及计算机可读存储介质 - Google Patents

定位追踪方法、装置、终端设备及计算机可读存储介质 Download PDF

Info

Publication number
CN115082520B
CN115082520B CN202210667956.1A CN202210667956A CN115082520B CN 115082520 B CN115082520 B CN 115082520B CN 202210667956 A CN202210667956 A CN 202210667956A CN 115082520 B CN115082520 B CN 115082520B
Authority
CN
China
Prior art keywords
handle
light sources
data
light
light spots
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN202210667956.1A
Other languages
English (en)
Other versions
CN115082520A (zh
Inventor
孙亚利
包晓
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Goertek Inc
Original Assignee
Goertek Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Goertek Inc filed Critical Goertek Inc
Priority to CN202210667956.1A priority Critical patent/CN115082520B/zh
Priority to PCT/CN2022/102357 priority patent/WO2023240696A1/zh
Publication of CN115082520A publication Critical patent/CN115082520A/zh
Priority to US18/884,575 priority patent/US20250005892A1/en
Application granted granted Critical
Publication of CN115082520B publication Critical patent/CN115082520B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • G06T7/246Analysis of motion using feature-based methods, e.g. the tracking of corners or segments
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/40Extraction of image or video features
    • G06V10/60Extraction of image or video features relating to illumination properties, e.g. using a reflectance or lighting model
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/20Input arrangements for video game devices
    • A63F13/24Constructional details thereof, e.g. game controllers with detachable joystick handles
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/80Analysis of captured images to determine intrinsic or extrinsic camera parameters, i.e. camera calibration
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/20Scenes; Scene-specific elements in augmented reality scenes
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30244Camera pose
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V2201/00Indexing scheme relating to image or video recognition or understanding
    • G06V2201/07Target detection

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Software Systems (AREA)
  • Human Computer Interaction (AREA)
  • Length Measuring Devices By Optical Means (AREA)

Abstract

本发明公开了一种定位追踪方法、装置、终端设备及计算机可读存储介质,应用于配置有图像采集装置的VR头戴设备针对手柄进行定位追踪,包括:通过所述图像采集装置摄取包含有多个光斑的图像,其中,多个所述光斑由所述手柄上的多个光源各自发射不可见光产生;确定所述图像中多个所述光斑在多个所述光源中各自对应的目标光源的第一标识数据;根据所述第一标识数据确定多个所述目标光源相互之间的位置关系,依据所述位置关系计算所述手柄与所述VR头戴设备之间的第一距离参数;将所述第一距离参数转换为所述手柄的空间坐标以对所述手柄进行定位追踪。采用本发明能够达成以定位精度高并且以高刷新率的方式对手柄进行定位追踪的效果。

Description

定位追踪方法、装置、终端设备及计算机可读存储介质
技术领域
本发明涉及虚拟现实技术领域,尤其涉及一种定位追踪方法、装置、终端设备及计算机可读存储介质。
背景技术
随着VR(Virtual Reality)设备的快速发展,对手柄追踪的精确度和定位信息的刷新对于VR设备来说变的越来越至关重要。
目前VR设备中对手柄进行追踪主要方式为电磁定位和光学定位,其中,电磁定位追踪的方式,因为磁场的抗干扰性差,且精度要求越高功耗越大,导致手柄发热进而影响定位精度。另外通过光学对手柄进行追踪的主要方法包括通过激光定位和通过可见光定位,其中通过激光定位主要为设置激光发射装置和激光接收装置,通过激光的接收和发射对手柄进行追踪定位,而通过可见光定位主要通过提取可见光的特征对手柄的位置进行定位,然而,通过激光定位的方式成本高且不适用于VR头戴一体设备,而通过可见光定位手柄时容易受周围环境内其他可见光的影响,会导致对手柄的定位延时较高。
发明内容
本发明本发明实施例通过提供一种定位追踪方法、装置、终端设备及计算机可读存储介质,旨在不提高成本的情况下,提高VR头戴设备对手柄进行定位追踪的刷新频率和准确性。
为实现上述目的,本发明实施例提供一种定位追踪方法,所述定位追踪方法应用于配置有图像采集装置的VR头戴设备针对手柄进行定位追踪,所述手柄配置有多个光源,所述方法包括以下步骤:
通过所述图像采集装置摄取包含有多个光斑的图像,其中,多个所述光斑由所述手柄上的多个光源各自发射不可见光产生;
确定所述图像中多个所述光斑在多个所述光源中各自对应的目标光源的第一标识数据;
根据所述第一标识数据确定多个所述目标光源相互之间的位置关系,依据所述位置关系计算所述手柄与所述VR头戴设备之间的第一距离参数;
将所述第一距离参数转换为所述手柄的空间坐标以对所述手柄进行定位追踪。
进一步地,所述确定所述图像中多个所述光斑在多个所述光源中各自对应的目标光源的第一标识数据的步骤,包括:
检测多个所述光斑各自的特征数据,并获取所述手柄的动作数据;
将多个所述特征数据和所述动作数据进行组合得到组合数据,并将多个所述组合数据与预设的离线特征数据库中的光斑特征数据进行对比得到比对结果;
根据所述对比结果确定多个所述光斑在多个所述光源中各自对应的所述目标光源的所述第一标识数据。
进一步地,所述根据所述对比结果确定多个所述光斑在多个所述光源中各自对应的所述目标光源的所述第一标识数据的步骤,包括:
若所述比对结果为所述组合数据与所述光斑特征数据相似,则将所述光斑特征数据关联的多个光源各自的第二标识数据确定为多个所述光斑各自对应的所述目标光源的所述第一标识数据。
进一步地,所述方法还包括:
在所述手柄执行任意动作进行移动的过程中,通过所述图像采集装置摄取包含有多个光斑的第二图像;
将所述第二图像内多个所述光斑的特征数据,与所述手柄在移动过程中产生的动作数据进行结合以构建得到所述离线特征数据库。
进一步地,所述光源按照预设的布置规则配置在所述手柄上,所述根据所述第一标识数据确定多个所述目标光源相互之间的位置关系的步骤,包括:
获取所述布置规则;
按照所述布置规则确定多个所述光斑在多个所述光源中各自对应的目标光源的位置关系。
进一步地,所述依据所述位置关系计算所述手柄与所述VR头戴设备之间的第一距离参数的步骤,包括:
通过所述位置关系计算多个所述目标光源各自与所述图像采集装置之间的第二距离参数;
对多个所述第二距离参数进行平均值计算,以将计算得到的平均值作为所述手柄与所述VR头戴设备之间的所述第一距离参数。
进一步地,所述将所述距离参数转换为所述手柄的空间坐标以对所述手柄进行定位追踪的步骤,包括:
确定多个所述目标光源各自相对于所述图像采集装置的第一坐标;
将多个所述第一坐标转化为多个所述目标光源各自在3D空间中的第二坐标,其中,所述3D空间为所述VR头戴设备展示的3D空间;
将多个所述第二坐标转化为所述手柄的凝聚点在所述3D空间中的第三坐标,并将所述第三坐标作为所述手柄在所述3D空间中的空间坐标。
此外,为实现上述目的,本发明还提供一种定位追踪装置,本发明定位追踪装置包括:
获取模块,用于通过所述图像采集装置摄取包含有多个光斑的图像,其中,多个所述光斑由所述手柄上的多个光源各自发射不可见光产生;
确定模块,用于确定所述图像中多个所述光斑在多个所述光源中各自对应的目标光源的第一标识数据;
计算模块,用于根据所述第一标识数据确定多个所述目标光源相互之间的位置关系,依据所述位置关系计算所述手柄与所述VR头戴设备之间的第一距离参数;
转换模块,用于将所述第一距离参数转换为所述手柄的空间坐标以对所述手柄进行定位追踪。
此外,为实现上述目的,本发明还提供一种终端设备,所述终端设备包括:存储器、处理器及存储在所述存储器上并可在所述处理器上运行的定位追踪程序,所述定位追踪程序被所述处理器执行时实现如上述中的定位追踪方法的步骤。
此外,为实现上述目的,本发明还提供一种计算机可读存储介质,所述计算机可读存储介质上存储有定位追踪程序,所述定位追踪程序被处理器执行时实现如上所述所述的定位追踪方法的步骤。
本发明实施例提供的定位追踪方法应用于配置有图像采集装置的VR头戴设备针对手柄进行定位追踪,所述手柄配置有多个光源,包括:通过所述图像采集装置摄取包含有多个光斑的图像,其中,多个所述光斑由所述手柄上的多个光源各自发射不可见光产生;确定所述图像中多个所述光斑在多个所述光源中各自对应的目标光源的第一标识数据;根据所述第一标识数据确定多个所述目标光源相互之间的位置关系,依据所述位置关系计算所述手柄与所述VR头戴设备之间的第一距离参数;将所述第一距离参数转换为所述手柄的空间坐标以对所述手柄进行定位追踪。
在本发明实施例中,本发明在配置有图像采集装置的VR头戴设备针对手柄进行定位追踪的过程中,VR头戴设备通过该图像采集装置,在手柄上多个光源各自发射不可见光时产生光斑摄取包含有多个光斑的图像,之后,确定该图像中多个光斑各自在手柄上配置的多个光源中对应的目标光源的第一标识数据,并根据该第一标识数据进一步确定该多个目标光源相互之间的位置关系,从而依据该位置关系计算该手柄与VR头戴设备之间的第一距离参数;最后,将该第一距离参数转换成为该手柄在VR头戴设备所展示3D世界中的空间坐标,以完成对该手柄的定位追踪。
如此,相比于现有VR头戴设备对手柄进行定位追踪的方式,本发明通过获取包含多个光斑的图像,从而确定多个光斑在多个光源中各自对应的光源的标识数据,并依据该标识数据计算各光源距离图像采集装置的距离,进而将该距离转换为手柄在3D空间中的坐标,达到了以定位精度高并且以高刷新率的方式对手柄进行定位追踪的效果,提高用户在使用VR头戴设备过程中的体验感。
附图说明
图1是本发明实施例方案涉及的硬件运行环境的终端设备的结构示意图;
图2为本发明定位追踪方法一实施例的流程示意图;
图3为本发明定位追踪方法一实施例涉及的一种手柄上红外灯珠的布置示意图;
图4为本发明定位追踪方法一实施例涉及的单目测距原理的示意图;
图5为本发明定位追踪方法一实施例涉及的应用流程示意图;
图6为本发明定位追踪方法一实施例涉及的另一应用流程示意图;
图7为本发明本发明定位追踪方法一实施例涉及的功能模块示意图。
本发明目的的实现、功能特点及优点将结合实施例,参照附图做进一步说明。
具体实施方式
应当理解,此处所描述的具体实施例仅仅用以解释本发明,并不用于限定本发明。
参照图1,图1为本发明实施例方案涉及的硬件运行环境的终端设备结构示意图。
本发明实施例所涉及的终端设备具体可以是移动VR头戴设备或者固定式VR头戴设备,且该移动VR头戴设备或者固定式VR头戴设备存在与之配套的手柄,且该手柄上配置有多个用于发射不可见光的光源。
如图1所示,该终端设备可以包括:处理器1001,例如中央处理器(CentralProcessing Unit,CPU),通信总线1002、用户接口1003,网络接口1004,存储器1005。其中,通信总线1002用于实现这些组件之间的连接通信。用户接口1003可以包括显示屏(Display)、输入单元比如键盘(Keyboard),可选用户接口1003还可以包括标准的有线接口、无线接口。网络接口1004可选的可以包括标准的有线接口、无线接口(如无线保真(WIreless-FIdelity,WI-FI)接口)。存储器1005可以是高速的随机存取存储器(RandomAccess Memory,RAM)存储器,也可以是稳定的非易失性存储器(Non-Volatile Memory,NVM),例如磁盘存储器。存储器1005可选的还可以是独立于前述处理器1001的存储装置。
本领域技术人员可以理解,图1中示出的结构并不构成对终端设备的限定,可以包括比图示更多或更少的部件,或者组合某些部件,或者不同的部件布置。
如图1所示,作为一种存储介质的存储器1005中可以包括操作系统、数据存储模块、网络通信模块、用户接口模块以及定位追踪程序。
在图1所示的终端设备中,网络接口1004主要用于与其他设备进行数据通信;用户接口1003主要用于与用户进行数据交互;本发明终端设备中的处理器1001、存储器1005可以设置在终端设备中,所述设备设备通过处理器1001调用存储器1005中存储的定位追踪程序,并执行本发明实施例提供的定位追踪方法。
基于上述终端设备,提供本发明定位追踪方法的各个实施例。
请参照图2,图2为本发明定位追踪方法的第一实施例的流程示意图。
本发明定位追踪方法应用于配置有图像采集装置的VR头戴设备针对手柄进行定位追踪,所述手柄配置有多个光源,在本实施例中,本发明定位追踪方法,可以包括:
步骤S10:通过所述图像采集装置摄取包含有多个光斑的图像,其中,多个所述光斑由所述手柄上的多个光源各自发射不可见光产生;
在本实施例中,终端设备在运行的过程中,与该终端设备配套的手柄上配置的多个光源各自发射不可见光,该终端设备通过内置的图像采集装置摄取包含该手柄上该多个光源发射不可见光产生的多个光斑的图像。
示例性地,例如,VR头戴设备在运行的过程中,与该VR头戴设备配套的手柄上配置的多个红外灯珠各自发射红外光,该VR头戴设备通过内置的红外摄像机摄取包含该手柄上该多个红外灯珠各自发射红外光产生的光斑的单帧图像。
步骤S20:确定所述图像中多个所述光斑在多个所述光源中各自对应的目标光源的第一标识数据;
在本实施例中,终端设备通过识别上述图像中多个光斑各自的特征数据,以及调取上述手柄在移动过程中产生的动作数据,并将该特征数据和该动作数据进行组合,将组合后得到的组合数据与预设的离线特征数据库中的光斑特征数据进行对比,从而判断该图像中多个光斑在多个光源中各自对应的目标光源的标识数据。
示例性地,例如,请参照图6,VR头戴设备通过计算机视觉算法检测上述图像中的光斑数量、多个光斑各自的像素大小及多个光斑组成的形状特征数据,同时该VR头戴设备调取上述手柄中IMU(Inertial Measurement Unit-惯性运动单元)装置采集该手柄移动过程中产生的旋转角度数据和加速度数据组成的动作数据,并将该特征数据和该动作数据组合,将该组合数据与用户预设的离线特征数据库中的光斑特征数据进行对比,从而确定该图像中多个光斑在该手柄上多个红外灯珠中各自对应的目标红外灯珠的编号。
进一步地,再一种可行的实施例中,在上述步骤S20之前,本发明定位追踪方法还包括:
步骤A:在所述手柄执行任意动作进行移动的过程中,通过所述图像采集装置摄取包含有多个光斑的第二图像;
在本实施例中,VR头戴设备在上述手柄执行任意动作进行移动的过程中,调用上述图像采集装置,摄取含有该手柄移动过程中产生的多个光斑的第二图像;
步骤B:将所述第二图像内多个所述光斑的特征数据,与所述手柄在移动过程中产生的动作数据进行结合以构建得到所述离线特征数据库。
在本实施例中,VR头戴设备将上述手柄执行任意动作进行移动中产生的动作数据,和上述第二图像中全部光斑的特征数据进行组合,以构建离线特征数据库,并使该离线特征数据库中包含该手柄中各光源在该手柄执行任意动作进行移动的过程中产生的全部光斑特征数据。
示例性地,例如,请参照图6,VR头戴设备在上述手柄执行任意动作进行移动的过程中,调用上述红外摄像机,摄取包含该手柄移动过程中由该手柄上各红外灯珠发射红外线产生的含有多个光斑的第二图像,并将该手柄在该移动过程中产生的动作数据和该图像中各光斑全部的特征数据进行组合,以构建离线特征数据库,并使该离线特征数据库中包含该手柄中各红外灯珠在该手柄执行任意动作进行移动过程中产生的全部光斑的特征数据。
需要说明的时,在本实施例中,在VR头戴设备获取上述图像之前,需要标定该VR头戴设备内配置的上述红外摄像机摄频率和上述手柄中的IMU装置采集该手柄移动过程中产生的上述动作数据的频率一致,使得该红外摄像机拍摄照片的时间戳和该IMU装置采集该手柄动作数据的时间戳相同。
进一步地,在一种可行的实施例中,上述步骤S20,具体可以包括:
步骤S201:检测多个所述光斑各自的特征数据,并获取所述手柄的动作数据;
在本实施例中,终端设备检测上述图像中多个光斑各自的像素大小和多个光斑组成的形状特征数据,同时,该终端设备调用上述手柄中的传感装置检测并获取该手柄在移动过程中产生的包含旋转角度数据和加速度数据的动作数据。
步骤S202:将多个所述特征数据和所述动作数据进行组合得到组合数据,并将多个所述组合数据与预设的离线特征数据库中的光斑特征数据进行对比得到比对结果;
在本实施例中,终端设备将上述多个特征数据和上述动作数据进行组合,得到上述手柄在按照该动作数据进行移动的过程中,该手柄上多个光源产生的光斑特征的组合数据,并将该组合数据与用户预设的离线特征数据库中的光斑特征数据进行相似度对比得到对比结果。
步骤S203:根据所述对比结果确定多个所述光斑在多个所述光源中各自对应的所述目标光源的所述第一标识数据。
在本实施例中,终端设备依据上述对比中上述组合数据与上述光斑特征数据是否相似,可以确定上述图像内多个光斑在上述手柄上多个光源中各自对应的目标光源的第一标识数据。
示例性地,例如,VR头戴设备通过用户预设的计算机视觉算法计算多个上述光斑各自在上述图像中的形状特征数据,同时,该VR头戴设备调用上述手柄中配置的IMU装置检测并获取该手柄在移动过程中产生的动作数据,之后,该VR头戴设备将上述特征数据和上述动作数据进行组合,得到该手柄在按照上述动作数据移动过程中,该手柄上多个红外灯珠产生的多个光斑的特征的组合数据,并将该组合数据与用户预设的离线特征数据库中的光斑特征数据进行对比,以该组合数据与该光斑特征数据是否相似作为上述对比的比对结果,并依据该比对结果确定上述图像中多个光斑在该手柄上多个红外灯珠中各自对应的目标红外灯珠的编号。
进一步地,在一种可行的实施例中,上述步骤S203,具体可以包括:
步骤S2031:若所述比对结果为所述组合数据与所述光斑特征数据相似,则将所述光斑特征数据关联的多个光源各自的第二标识数据确定为多个所述光斑各自对应的所述目标光源的所述第一标识数据。
在本实施例中,终端设备若对比上述组合数据中的光斑组成的形状特征数据与上述离线特征数据库中对应的光斑特征数据相似,则该终端设备将该光斑特征数据关联的多个光源各自的第二标识数据确定为上述图像中上述光斑各自对应的目标光源的第一标识数据。
示例性地,例如,VR头戴设备将上述组合数据中各光斑组成的形状特征与用户预设的离线特征数据库中上述手柄在该动作数据下移动时形成的光斑特征数据相似,则该VR头戴设备将该光斑特征数据关联的多个红外灯珠各自的编号确定为上述图像中各光斑各自对应的目标红外灯珠的编号。
步骤S30:根据所述第一标识数据确定多个所述目标光源相互之间的位置关系,依据所述位置关系计算所述手柄与所述VR头戴设备之间的第一距离参数;
在本实施例中,终端设备根据上述多个光斑各自对应的的目标光源的第一标识数据,和用户预设的布置规则,确定上述各目标光源之间的位置关系,之后,该终端设备通过用户预设的算法结合该位置关系进行计算,得到该上述手柄与该终端设备之间的第一距离参数。
示例性地,例如,请参照图4,VR头戴设备根据上述多个光斑在多个红外灯珠中各自对应的目标红外灯珠的编号,和用户在上述手柄预设的红外灯珠的布置规则,确定上述多个光斑在多个红外灯珠中各自对应的目标红外灯珠之间的距离和角度,最后,该VR头戴设备依据该用户预设的单目测距公式公式D=(F*W)/P,计算该各目标红外灯珠与该VR头戴设备中配置的红外摄像机之间各自的距离,并将上述各距离做平均值计算,最后将该计算的结果标记为该手柄与该红外摄像机之间的第一距离参数。
进一步地,在一种可行的实施例中,上述步骤S30,具体可以包括:
步骤S301:获取所述布置规则;
在本实施例中,终端设备通过读取用户存储的包含上述手柄中各光源的排列位置和依据该排列位置对该各光源进行编号的数据,以获取该手柄上各光源的布置规则。
需要说明的是,请参照图3,在本实施例中,上述手柄的布置规则为:手柄的第一排红外灯珠做奇数编号,如从LED1至LED15以此编号,相对的,该手柄的第二排红外灯珠做偶数编号,如从LED2至LED16以此编号;该手柄上红外灯珠的排列规则为:手柄前段的圆环上分上下两排布置该红外灯珠,并保持在布置红外灯珠的过程中另红外灯珠处于不均匀分布,主要为两端集中,中间分散的状态,而上述第二排的每个红外灯珠要交叉分布在上述第一排红外灯珠之间,形成三角形分布。
步骤S302:按照所述布置规则确定多个所述光斑在多个所述光源中各自对应的目标光源的位置关系;
在本实施例中,终端设备获取上述的布置规则后,按照该布置规则获取上述图像中由多个光斑在多个光源中各自对应的目标光源之间的距离和角度组成的位置关系数据。
步骤S303:通过所述位置关系计算多个所述光源各自与所述图像采集装置之间的第二距离参数;
在本实施例中,终端设备按照用户预设的算法,结合上述各目标光源之间的位置关系数据,计算得到上述各目标光源与上述图像采集装置之间各自的距离,并将该各距离标记为第二距离参数。
步骤S304:对多个所述第二距离参数进行平均值计算,以将计算得到的平均值作为所述手柄与所述VR头戴设备之间的所述第一距离参数。
在本实施例中,终端设备对上述的各第二距离参数进行平均值计算,将得到各第二距离参数的平均值结果标记为上述手柄与该终端设备之间的距离参数,并将该距离参数标记为该手柄与该终端设备之间的第一距离参数。
示例性地,例如,VR头戴设备通过读取用户存储的包含上述手柄中各红外灯珠的排列位置和依据该排列位置对该各红外灯珠进行编号的方法,以获取包含该方法的该手柄上各红外灯珠的布置规则,从而根据该布置规则确定上述图像中由各光斑在该多个红外灯珠中各自对应的目标红外灯珠之间的距离和角度组成的位置关系数据,之后,该VR头戴设备结合该位置关系数据,按照用户预设的单目测距公式D=(F*W)/P计算得到该各红外灯珠与该红外摄像机之间各自的距离参数D,同时,该VR头戴设备将该各红外灯珠的距离参数D标记为该各红外灯珠与该红外摄像机之间的第二距离参数,最后,该VR头戴设备计算该各第二距离参数的平均值,并将该平均值的结果标记为该手柄与该VR头戴设备之间的第一距离参数。
步骤S40:将所述第一距离参数转换为所述手柄的空间坐标以对所述手柄进行定位追踪。
在本实施例中,终端设备将上述第一距离参数作为深度信息,同时按照用户预设的算法将该第一距离参数转换为上述手柄在该终端设备呈现的3D世界中的空间坐标,并在之后由该终端设备按照该手柄的位置变化持续更新该空间坐标。
示例性地,例如,请参照图5,VR头戴设备通过计算得到上述手柄与该VR头戴设备之间的距离后,将该手柄与该VR头戴设备之间的距离标记为深度信息,同时该VR头戴设备通过用户预设的计算机视觉算法计算得到上述图像中各光斑各自的像素坐标,之后,该VR头戴设备将该各像素坐标结合该深度信息,经过该计算机视觉算法计算以获得该光斑在多个红外灯珠中对应的目标红外灯珠各自的相机坐标,随后,该VR头戴设备将该各相机坐标通过红外摄像机预设的内参矩阵公式,计算并转换为该各目标红外灯珠在上述3D世界中各自的空间坐标,最后,该VR头戴设备结合用户预设的该手柄的凝聚点,将该各目标红外灯珠的空间坐标转化为该凝聚点在该3D世界中的空间坐标以作为该手柄的空间坐标,并由该VR头戴设备按照该手柄的位置持续更新该手柄的空间坐标。
需要说明的是,在本实施例中,相机内参矩阵公式为:
进一步地,在一种可行的实施例中,上述步骤S40,具体可以包括:
步骤S401:确定多个所述目标光源各自相对于所述图像采集装置的第一坐标;
在本实施例中,终端设备按照用户预设的算法计算上述图像中各光斑的像素坐标,并将上述第一距离参数作为深度信息,由终端设备结合上述各像素坐标和该深度信息,按照用户预设的算法进行计算,以确定上述各目标光源各自相对于该图像采集装置的第一坐标。
步骤S402:将多个所述第一坐标转化为多个所述目标光源各自在3D空间中的第二坐标,其中,所述3D空间为所述VR头戴设备展示的3D空间;
在本实施例中,终端设备将上述各第一坐标结合上述图像采集装置预设的内参矩阵公式,计算得到上述多个目标光源各自在该终端设备呈现的上述3D空间中空间坐标,并将该空间坐标记为第二坐标。
步骤S403:将多个所述第二坐标转化为所述手柄的凝聚点在所述3D空间中的第三坐标,并将所述第三坐标作为所述手柄在所述3D空间中的空间坐标。
在本实施例中,终端设备将上述各第二坐标结合用户预设的手柄凝聚点的位置,转化为该凝聚点在上述3D空间中的第三坐标,并将该第三坐标确定为该手柄在上述3D空间中的空间坐标。
示例性地,例如,请参照图5,VR头戴设备按照用户预设的计算机视觉算法,计算得到上述图像中各光斑各自的像素坐标(x,y),并由该VR头戴设备将上述第一距离参数作为深度信息z,结合该图像中各光斑各自的像素坐标,按照用户预设的计算机视觉算法进行计算,以获得该各目标红外灯珠相对于该红外摄像机的各自的相机坐标(x,y,z),并将该相机坐标标记为第一坐标,之后,该VR头戴设备将该多个第一坐标结合该红外摄像机预设的上述内参矩阵公式,计算得到该各目标红外灯珠在该VR头戴设备呈现的3D世界中各自的空间坐标(X,Y,Z),并将该空间坐标标记为第二坐标,最后,该VR头戴设备将该多个第二坐标结合该手柄内该用户预设的凝聚点,转换为该手柄在上述3D空间中的空间坐标(Xo,Yo,Zo),并将该空间坐标标记为第三坐标,由该VR头戴设备将该手柄之后位置的变化通过对该第三坐标进行更新以完成对该手柄位置的追踪。
在本实施例中,首先,终端设备在运行的过程中,与该终端设备配套的手柄上配置的多个光源各自发射不可见光,该终端设备通过内置的图像采集装置摄取包含该手柄上该多个光源发射不可见光产生的多个光斑的图像,然后,该终端设备通过识别上述图像中多个光斑各自的特征数据,以及调取上述手柄在移动过程中产生的动作数据,并将该特征数据和该动作数据进行组合,将组合后得到的组合数据与预设的离线特征数据库中的光斑特征数据进行对比,从而判断该图像中多个光斑在多个光源中各自对应的目标光源的标识数据,再然后,该终端设备根据上述多个光斑各自对应的的目标光源的第一标识数据,和用户预设的布置规则,确定上述各目标光源之间的位置关系,之后该终端设备通过用户预设的算法结合该位置关系计算上述手柄与该终端设备之间的第一距离参数,最后,该终端设备将上述第一距离参数作为深度信息,同时按照用户预设的算法将该第一距离参数转换为上述手柄在该终端设备呈现的3D世界中的空间坐标,并在之后由该终端设备按照该手柄的位置变化持续更新该空间坐标。
相比于现有VR头戴设备中对手柄的追踪方式,本发明通过获取手柄上设置的不同红外光源设备发出的红外线,计算上述不同红外光源设备到摄像机的距离,进而将该距离转换为手柄在VR头戴设备呈现的3D世界中的空间坐标,达到了以定位精度高并且以高刷新率的方式对手柄进行定位追踪的效果,提高用户在使用VR头戴设备过程中的体验感。
进一步地,本发明还提供一种定位追踪装置,请参照图7,图7为本发明定位追踪装置一实施例的功能模块示意图,如图7所示,本发明定位追踪装置包括:
获取模块,用于通过所述图像采集装置摄取包含有多个光斑的图像,其中,多个所述光斑由所述手柄上的多个光源各自发射不可见光产生;
确定模块,用于确定所述图像中多个所述光斑在多个所述光源中各自对应的目标光源的标识数据;
计算模块,用于根据所述第一标识数据确定多个所述目标光源相互之间的位置关系,依据所述位置关系计算所述手柄与所述VR头戴设备之间的距离参数;
转换模块,用于将所述距离参数转换为所述手柄的空间坐标以对所述手柄进行定位追踪。
进一步地,确定模块,包括:
检测获取单元:用于检测多个所述光斑各自的特征数据,并获取所述手柄的动作数据;
组合对比单元:用于将多个所述特征数据和所述动作数据进行组合得到组合数据,并将多个所述组合数据与预设的离线特征数据库中的光斑特征数据进行对比得到比对结果;
确定单元:用于根据所述对比结果确定多个所述光斑在多个所述光源中各自对应的所述目标光源的所述第一标识数据。
进一步地,确定模块,还包括:
确定相似单元:用于若所述比对结果为所述组合数据与所述光斑特征数据相似,则将所述光斑特征数据关联的多个光源各自的第二标识数据确定为多个所述光斑各自对应的所述目标光源的所述第一标识数据。
进一步地,确定模块,还包括:
图像采集单元:用于在所述手柄执行任意动作进行移动的过程中,通过所述图像采集装置摄取包含有多个光斑的第二图像;
构建单元:用于将所述第二图像内多个所述光斑的特征数据,与所述手柄在移动过程中产生的动作数据进行结合以构建得到所述离线特征数据库。
进一步地,计算模块,包括:
获取单元:用于获取所述布置规则;
确定单元:用于按照所述布置规则确定多个所述光斑在多个所述光源中各自对应的目标光源的位置关系;
进一步地,计算模块,还包括:
计算单元:用于通过所述位置关系计算多个所述目标光源各自与所述图像采集装置之间的第二距离参数;
平均单元:用于对多个所述第二距离参数进行平均值计算,以将计算得到的平均值作为所述手柄与所述VR头戴设备之间的所述第一距离参数。
进一步地,转换模块,包括:
第一坐标确定单元:用于确定多个所述目标光源各自相对于所述图像采集装置的第一坐标;
第二坐标转换单元:用于将多个所述第一坐标转化为多个所述目标光源各自在3D空间中的第二坐标,其中,所述3D空间为所述VR头戴设备展示的3D空间;
第三坐标转换单元:用于将多个所述第二坐标转化为所述手柄的凝聚点在所述3D空间中的第三坐标,并将所述第三坐标作为所述手柄在所述3D空间中的空间坐标。
本发明还提供一种终端设备,该终端设备上有可在处理器上运行的定位追踪程序,所述终端设备执行所述定位追踪程序时实现如以上任一项实施例所述的定位追踪方法的步骤。
本发明终端设备的具体实施例与上述定位追踪方法各实施例基本相同,在此不作赘述。
本发明还提供一种计算机可读存储介质,该计算机可读存储介质上存储有定位追踪程序,所述定位追踪程序被处理器执行时实现如以上任一项实施例所述的定位追踪方法的步骤。
本发计算机可读存储介质的具体实施例与定位追踪方法各实施例基本相同,在此不作赘述。
需要说明的是,在本文中,术语“包括”、“包含”或者其任何其他变体意在涵盖非排他性的包含,从而使得包括一系列要素的过程、方法、物品或者系统不仅包括那些要素,而且还包括没有明确列出的其他要素,或者是还包括为这种过程、方法、物品或者系统所固有的要素。在没有更多限制的情况下,由语句“包括一个……”限定的要素,并不排除在包括该要素的过程、方法、物品或者系统中还存在另外的相同要素。
上述本发明实施例序号仅仅为了描述,不代表实施例的优劣。
通过以上的实施方式的描述,本领域的技术人员可以清楚地了解到上述实施例方法可借助软件加必需的通用硬件平台的方式来实现,当然也可以通过硬件,但很多情况下前者是更佳的实施方式。基于这样的理解,本发明的技术方案本质上或者说对现有技术做出贡献的部分可以以软件产品的形式体现出来,该计算机软件产品存储在如上所述的一个存储介质(如ROM/RAM、磁碟、光盘)中,包括若干指令用以使得一台终端设备(可以是手机,计算机,服务器,或者网络设备等)执行本发明各个实施例所述的方法。
以上仅为本发明的优选实施例,并非因此限制本发明的专利范围,凡是利用本发明说明书及附图内容所作的等效结构或等效流程变换,或直接或间接运用在其他相关的技术领域,均同理包括在本发明的专利保护范围内。

Claims (8)

1.一种定位追踪方法,其特征在于,所述定位追踪方法应用于配置有图像采集装置的VR头戴设备针对手柄进行定位追踪,所述手柄配置有多个光源,所述方法包括以下步骤:
通过所述图像采集装置摄取包含有多个光斑的图像,其中,多个所述光斑由所述手柄上的多个光源各自发射不可见光产生;
确定所述图像中多个所述光斑在多个所述光源中各自对应的目标光源的第一标识数据;
根据所述第一标识数据确定多个所述目标光源相互之间的位置关系,依据所述位置关系计算所述手柄与所述VR头戴设备之间的第一距离参数;
将所述第一距离参数转换为手柄凝聚点在3D世界中的空间坐标作为所述手柄的空间坐标以对所述手柄进行定位追踪;
所述确定所述图像中多个所述光斑在多个所述光源中各自对应的目标光源的第一标识数据的步骤,包括:
检测多个所述光斑各自的像素大小和多个光斑组成的形状特征数据,将所述形状特征数据作为特征数据,并获取所述手柄在移动过程中产生的包含旋转角度数据和加速度数据的动作数据;
将多个所述特征数据和所述动作数据进行组合得到组合数据,并将多个所述组合数据与预设的离线特征数据库中的光斑特征数据进行对比得到比对结果;
根据所述比对结果确定多个所述光斑在多个所述光源中各自对应的所述目标光源的所述第一标识数据;
所述依据所述位置关系计算所述手柄与所述VR头戴设备之间的第一距离参数的步骤,包括:
通过所述位置关系计算多个所述目标光源各自与所述图像采集装置之间的距离,并将该距离标记为第二距离参数;
对多个所述第二距离参数进行平均值计算,以将计算得到的平均值作为所述手柄与所述VR头戴设备之间的第一距离参数。
2.如权利要求1所述的定位追踪方法,其特征在于,所述根据所述比对结果确定多个所述光斑在多个所述光源中各自对应的所述目标光源的所述第一标识数据的步骤,包括:
若所述比对结果为所述组合数据与所述光斑特征数据相似,则将所述光斑特征数据关联的多个光源各自的第二标识数据确定为多个所述光斑各自对应的所述目标光源的所述第一标识数据。
3.如权利要求1所述的定位追踪方法,其特征在于,所述方法还包括:
在所述手柄执行任意动作进行移动的过程中,通过所述图像采集装置摄取包含有多个光斑的第二图像;
将所述第二图像内多个所述光斑的特征数据,与所述手柄在移动过程中产生的动作数据进行结合以构建得到所述离线特征数据库。
4.如权利要求1所述的定位追踪方法,其特征在于,所述光源按照预设的布置规则配置在所述手柄上,所述根据所述第一标识数据确定多个所述目标光源相互之间的位置关系的步骤,包括:
获取所述布置规则;
按照所述布置规则确定多个所述光斑在多个所述光源中各自对应的目标光源的位置关系。
5.如权利要求1所述的定位追踪方法,其特征在于,所述将所述第一距离参数转换为手柄凝聚点在3D世界中的空间坐标作为所述手柄的空间坐标以对所述手柄进行定位追踪的步骤,包括:
按照用户预设的算法计算图像中各光斑的像素坐标,并将所述第一距离参数作为深度信息,根据各所述像素坐标和深度信息,按照用户预设的算法进行计算,以确定多个所述目标光源各自相对于所述图像采集装置的第一坐标;
将多个所述第一坐标转化为多个所述目标光源各自在3D空间中的第二坐标,其中,所述3D空间为所述VR头戴设备展示的3D空间;
将多个所述第二坐标转化为所述手柄的凝聚点在所述3D空间中的第三坐标,并将所述第三坐标作为所述手柄在所述3D空间中的空间坐标。
6.一种定位追踪装置,其特征在于,所述装置包括:
获取模块,用于通过图像采集装置摄取包含有多个光斑的图像,其中,多个所述光斑由手柄上的多个光源各自发射不可见光产生;
确定模块,用于确定所述图像中多个所述光斑在多个所述光源中各自对应的目标光源的第一标识数据;
计算模块,用于根据所述第一标识数据确定多个所述目标光源相互之间的位置关系,依据所述位置关系计算所述手柄与VR头戴设备之间的第一距离参数;
转换模块,用于将所述第一距离参数转换为手柄凝聚点在3D世界中的空间坐标作为所述手柄的空间坐标以对所述手柄进行定位追踪;
所述确定模块,包括:
检测获取单元:用于检测多个所述光斑各自的像素大小和多个光斑组成的形状特征数据,将所述形状特征数据作为特征数据,并获取所述手柄在移动过程中产生的包含旋转角度数据和加速度数据的的动作数据;
组合对比单元:用于将多个所述特征数据和所述动作数据进行组合得到组合数据,并将多个所述组合数据与预设的离线特征数据库中的光斑特征数据进行对比得到比对结果;
确定单元:用于根据所述比对结果确定多个所述光斑在多个所述光源中各自对应的所述目标光源的所述第一标识数据;
所述计算模块,包括:
计算单元:用于通过所述位置关系计算多个所述目标光源各自与所述图像采集装置之间的距离,并将该距离标记为第二距离参数;
平均单元:用于对多个所述第二距离参数进行平均值计算,以将计算得到的平均值作为所述手柄与所述VR头戴设备之间的第一距离参数。
7.一种终端设备,其特征在于,所述设备包括:存储器、处理器及存储在所述存储器上并可在所述处理器上运行的定位追踪程序,所述定位追踪程序配置为实现如权利要求1至5中任一项所述的定位追踪方法的步骤。
8.一种计算机可读存储介质,其特征在于,所述计算机可读存储介质上存储有定位追踪程序,所述定位追踪程序被处理器执行时实现如权利要求1至5任一项所述的定位追踪方法的步骤。
CN202210667956.1A 2022-06-14 2022-06-14 定位追踪方法、装置、终端设备及计算机可读存储介质 Active CN115082520B (zh)

Priority Applications (3)

Application Number Priority Date Filing Date Title
CN202210667956.1A CN115082520B (zh) 2022-06-14 2022-06-14 定位追踪方法、装置、终端设备及计算机可读存储介质
PCT/CN2022/102357 WO2023240696A1 (zh) 2022-06-14 2022-06-29 定位追踪方法、装置、终端设备及计算机存储介质
US18/884,575 US20250005892A1 (en) 2022-06-14 2024-09-13 Method for positioning and tracking, apparatus, terminal device, and computer-readable storage medium

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202210667956.1A CN115082520B (zh) 2022-06-14 2022-06-14 定位追踪方法、装置、终端设备及计算机可读存储介质

Publications (2)

Publication Number Publication Date
CN115082520A CN115082520A (zh) 2022-09-20
CN115082520B true CN115082520B (zh) 2024-10-11

Family

ID=83252191

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202210667956.1A Active CN115082520B (zh) 2022-06-14 2022-06-14 定位追踪方法、装置、终端设备及计算机可读存储介质

Country Status (3)

Country Link
US (1) US20250005892A1 (zh)
CN (1) CN115082520B (zh)
WO (1) WO2023240696A1 (zh)

Families Citing this family (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN116433752B (zh) * 2022-11-07 2025-09-26 海信电子科技(深圳)有限公司 检测手柄图像中光斑标识的方法及电子设备
CN115802168B (zh) * 2022-11-29 2025-04-04 南昌黑鲨科技有限公司 一种动态曝光的方法、系统、vr虚拟现实设备及存储介质
CN115937478B (zh) * 2022-12-26 2023-11-17 北京字跳网络技术有限公司 一种标定信息确定方法、装置、电子设备和存储介质
CN120560492A (zh) * 2024-02-29 2025-08-29 北京字跳网络技术有限公司 追踪设备的识别方法、装置、设备和介质

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN112286343A (zh) * 2020-09-16 2021-01-29 青岛小鸟看看科技有限公司 定位追踪方法、平台及头戴显示系统

Family Cites Families (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101716928B1 (ko) * 2013-08-22 2017-03-15 주식회사 만도 차량 카메라의 영상 처리 방법 및 이를 이용하는 영상 처리 장치
US10146334B2 (en) * 2016-06-09 2018-12-04 Microsoft Technology Licensing, Llc Passive optical and inertial tracking in slim form-factor
US10078377B2 (en) * 2016-06-09 2018-09-18 Microsoft Technology Licensing, Llc Six DOF mixed reality input by fusing inertial handheld controller with hand tracking
CN106768361B (zh) * 2016-12-19 2019-10-22 北京小鸟看看科技有限公司 与vr头戴设备配套的手柄的位置追踪方法和系统
US10503247B2 (en) * 2017-05-09 2019-12-10 Microsoft Technology Licensing, Llc Calibration of stereo cameras and handheld object
CN107390953A (zh) * 2017-07-04 2017-11-24 深圳市虚拟现实科技有限公司 虚拟现实手柄空间定位方法
CN108154533A (zh) * 2017-12-08 2018-06-12 北京奇艺世纪科技有限公司 一种位置姿态确定方法、装置及电子设备
CN114332423B (zh) * 2021-12-30 2025-07-11 深圳创维新世界科技有限公司 虚拟现实手柄追踪方法、终端及计算可读存储介质
CN114549285B (zh) * 2022-01-21 2025-06-03 广东虚拟现实科技有限公司 控制器的定位方法、装置、头戴式显示设备及存储介质

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN112286343A (zh) * 2020-09-16 2021-01-29 青岛小鸟看看科技有限公司 定位追踪方法、平台及头戴显示系统

Also Published As

Publication number Publication date
WO2023240696A1 (zh) 2023-12-21
US20250005892A1 (en) 2025-01-02
CN115082520A (zh) 2022-09-20

Similar Documents

Publication Publication Date Title
CN115082520B (zh) 定位追踪方法、装置、终端设备及计算机可读存储介质
EP3788403B1 (en) Field calibration of a structured light range-sensor
US10613228B2 (en) Time-of-flight augmented structured light range-sensor
KR102334139B1 (ko) 적응적 호모그래피 매핑에 기초한 눈 시선 추적
US10091489B2 (en) Image capturing device, image processing method, and recording medium
US12283059B2 (en) Resilient dynamic projection mapping system and methods
JP6601613B2 (ja) 位置推定方法、位置推定装置及び位置推定プログラム
JP2016091457A (ja) 入力装置、指先位置検出方法及び指先位置検出用コンピュータプログラム
CN112184793B (zh) 深度数据的处理方法、装置及可读存储介质
JP6127564B2 (ja) タッチ判定装置、タッチ判定方法、およびタッチ判定プログラム
CN110119190A (zh) 定位方法、装置、识别跟踪系统及计算机可读介质
JP2017004228A (ja) 軌跡推定方法、軌跡推定装置及び軌跡推定プログラム
JP2014137762A (ja) 物体検出装置
TWI526879B (zh) 互動系統、遙控器及其運作方法
WO2022217988A1 (zh) 传感器配置方案确定方法、装置、计算机设备、存储介质及程序
WO2021169704A1 (zh) 手势深度确定方法、装置、设备及存储介质
WO2015159547A1 (ja) 情報処理システム、制御方法、及びプログラム記録媒体
JP2017219942A (ja) 接触検出装置、プロジェクタ装置、電子黒板装置、デジタルサイネージ装置、プロジェクタシステム、接触検出方法、プログラム及び記憶媒体。
WO2018148219A1 (en) Systems and methods for user input device tracking in a spatial operating environment
JP2013149228A (ja) 位置検出装置、および位置検出プログラム
CN113760131B (zh) 投影触控处理方法、装置及计算机可读存储介质
US10366495B2 (en) Multi-spectrum segmentation for computer vision
US20200137289A1 (en) Method and system for head mounted display infrared emitter brightness optimization based on image saturation
CN107704397A (zh) 应用程序测试方法、装置及电子设备
CN106204604A (zh) 投影触控显示装置及其交互方法

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant