[go: up one dir, main page]

CN104350408A - 使用连续运动扫描和时间插值的主动对准 - Google Patents

使用连续运动扫描和时间插值的主动对准 Download PDF

Info

Publication number
CN104350408A
CN104350408A CN201380026472.8A CN201380026472A CN104350408A CN 104350408 A CN104350408 A CN 104350408A CN 201380026472 A CN201380026472 A CN 201380026472A CN 104350408 A CN104350408 A CN 104350408A
Authority
CN
China
Prior art keywords
optical element
data item
clock
aligned
time
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN201380026472.8A
Other languages
English (en)
Other versions
CN104350408B (zh
Inventor
安德烈·比
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Automation Engineering Inc
Original Assignee
Automation Engineering Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Automation Engineering Inc filed Critical Automation Engineering Inc
Publication of CN104350408A publication Critical patent/CN104350408A/zh
Application granted granted Critical
Publication of CN104350408B publication Critical patent/CN104350408B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1694Programme controls characterised by use of sensors other than normal servo-feedback from position, speed or acceleration sensors, perception control, multi-sensor controlled systems, sensor fusion
    • B25J9/1697Vision controlled systems
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B13/00Optical objectives specially designed for the purposes specified below
    • G02B13/001Miniaturised objectives for electronic devices, e.g. portable telephones, webcams, PDAs, small digital cameras
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/62Optical apparatus specially adapted for adjusting optical elements during the assembly of optical systems
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B7/00Mountings, adjusting means, or light-tight connections, for optical elements
    • G02B7/003Alignment of optical elements
    • G02B7/005Motorised alignment
    • YGENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y10TECHNICAL SUBJECTS COVERED BY FORMER USPC
    • Y10STECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y10S901/00Robots
    • Y10S901/46Sensing device
    • Y10S901/47Optical

Landscapes

  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Optics & Photonics (AREA)
  • Engineering & Computer Science (AREA)
  • Robotics (AREA)
  • Mechanical Engineering (AREA)
  • Length Measuring Devices By Optical Means (AREA)
  • Image Analysis (AREA)
  • Studio Devices (AREA)

Abstract

用于将诸如透镜的第一光学元件与诸如图像传感器的第二光学元件主动对准的方法和设备使用连续扫描,即使没有来自光学元件之一的同步信号。在扫描期间,收集关于被扫描的光学元件的计时位置信息,并且然后,诸如通过针对一组位置-时间对拟合曲线以估计在被扫描的光学元件的位置和时间之间的关系。然后可以使用该关系来估计当获取图像数据或其他对准质量指示的数据采样时的被扫描的光学元件的位置。根据这种对准质量-位置数据,可以确定最佳对准位置,并且,可以然后将被扫描的光学元件定位在所确定的对准位置处。

Description

使用连续运动扫描和时间插值的主动对准
对于相关申请的交叉引用
本申请要求名称为“使用连续运动扫描和时间插值的主动对准”的、在2012年4月13日提交的美国临时专利申请No.61/623,932的权益。
技术领域
本发明涉及在制造或测试期间的光学组件的自动机器人对准,并且更具体地涉及包含光学组件通过可能的对准位置的连续运动扫描以优化光学组件的布置的设备和方法。
背景技术
在许多精密制造工艺中使用机器人。例如,机器人用于诸如在蜂窝电话和汽车的倒车摄像头的制造中精确地在数字相机传感器之前对准透镜。在其他示例中,在电信和计算机网络设备的制造中,机器人对准在激光器或者光传感器之前的光纤的端部。该透镜的许多很小,在直径上在几毫米的数量级上,并且因此必须相对于传感器或激光器以经常在大约±5微米或更小的数量级的高精度被定位。
为了控制成本,经常使用不太精确的方法来制造用于透镜的光学元件并且在透镜外壳中安装该光学元件。结果,该光学元件和透镜经常件彼此之间不均匀。即,组件的尺寸和对称性经常透镜或其他光学组件之间彼此不同,导致在组件的焦距和光轴取向上的变化。
为了补偿这样的变化,使用几种已知方法来将每一个透镜相对于其对应的图像传感器定制对准。一种方法包含:向传感器安装具有精细螺纹的支架,并且在互补螺纹的镜筒中安装一组光学元件。然后,当透镜镜筒被以螺纹旋入支架内时,可以调整在光学元件和传感器之间的距离。一旦光学元件被布置得距传感器期望的距离,则可以相对于支架固定镜筒以防止进一步的旋转。不幸的是,该方法允许仅沿着z轴(光轴)的在光学元件和传感器之间的距离的调整。因此,该方法被称为仅使用一个自由度的对准。这样的对准方法不能补偿在光学元件中的所有的可能不对称或在镜筒内的光学元件的不良对准。
由Automation Engineering,Inc.("AEi"),Wilmington,MA开发的一种更复杂的方法包含:使用相机模块或其他光电产品组件几何体通过粘结剂将透镜镜筒(其在该情况下不要求螺纹)附接到图像传感器或其基板或包括该图像传感器的相机外壳,使得多个自由度对准是可能的。机器人在自由空间中调整透镜镜筒相对于图像传感器的位置,机器人然后将透镜镜筒保持在位,直到粘结剂充分固化以防止一旦机器人释放透镜镜筒的令人讨厌的蠕动。使用该方法,可以沿着所有三个线性轴(x、y和z)调整透镜的位置,并且,可以调整透镜的俯仰(围绕x轴的旋转)和横摇(围绕y轴的旋转),以实现相对于传感器的透镜定位和定向,这补偿了在光学元件中的缺陷,并且以该方式,将光学元件相对于图像传感器的位置安装在镜筒内。该方法被称为围绕5自由度对准。
也由Automation Engineering,Inc.开发的该方法的改进包含:机器人将透镜围绕透镜的光轴或围绕z轴旋转以优化图像质量,以补偿在该轴上的角透镜不对称。注意,对于螺纹镜筒对准方法而言,围绕光轴或z轴的对准一般是不可能的,因为非常不可能同时实现期望的透镜至传感器间隔(通过将镜筒以螺纹旋入和旋出)和期望的透镜旋转角(通过旋转镜筒)两者。向5自由度对准方法加上该改进提供了6自由度对准。
“被动对准”涉及使用精密机械夹具、工具和关于组件的表面的物理特性(基准点)等,基于组件的设计规格来将组件彼此对准。例如,透镜的目标设计焦距可以用于相对于传感器定位透镜。然而,被动对准假定组件完美地符合它们的理论设计规格。这当然通常对于真实世界产品并不出现。因此,被动对准方法通常不能充分地补偿在诸如透镜的组件中的件到件的变化,除非每件被独立地测试以确认其实际规格。
相反,“主动对准”涉及在制造期间测量组件的组合的一个或多个关键性能属性,并且在反馈循环中使用被测的属性来控制这种制造。例如,可以在机器人将透镜步进通过一系列离散位置(例如,沿着x、y和z轴)和取向(例如,围绕z轴倾斜、摇动或旋转)的同时,在透镜和图像传感器组合的视角内布置诸如测试图案的可视目标。计算机分析在每一个步骤来自传感器的图像数据,并且基于该分析,计算机控制机器人定位和定向该透镜以获得最佳的图像质量。然后诸如通过粘结剂将该透镜相对于传感器固定在位。因此,主动对准能够补偿在组件中的件到件变化。
虽然主动对准要求被动对准不需要的硬件和软件,但是主动对准可能未必比被动对准更昂贵。例如,经常可以使用在给定的制造台中的较不精确的并且因此较不昂贵的固定和移动平台来执行主动对准。主动对准也可以提供较高的制造产量,这导致降低的制造成本。然而,步进通过所有的测试位置和取向耗费时间。制造商持续地寻求缩短循环时间,并且因此加速制造过程。
Dietrich W.Vook等的名称为“Camera Module with FocusAdjustment Structure and Systems and Methods for Making the Same”美国专利公布No.2005/0007485公开了具有聚焦调整结构的相机模块。公开了可变形的聚焦调整结构。
Andrew Butterfield等的名称为“Positioning Wafer Lenses onElectronic Imagers”的美国专利No.8,063,975公开了在光学路径之外使用粘性的粘结剂来将透镜附接到电子成像器。
Yuesheng Lu等的名称为“Vehicular Camera and Lens Assembly”的美国专利公布No.2012/0019940公开了用于将相机镜头与成像器对准和将相机镜头安装到成像器的各种手段。
发明内容
本发明的一个实施例提供了一种用于将第一光学元件与第二光学元件主动对准的计算机实现的方法。所述方法涉及用处理器执行操作。机器人沿着从开始位置到结束位置的轨迹连续扫描第一光学元件。在机器人从开始位置到结束位置连续扫描第一光学元件的同时,存储第一光学元件的多个时间上间隔的位置。另外,获取多个时间上间隔的对准数据项。多个时间上间隔的对准数据项的每一个对准数据项产生于经过第一光学元件并且被第二光学元件接收的光学信号。每一个对准数据项包含用来指示第一光学元件和第二光学元件之间的光学对准程度的数据。估计期望对准位置。该估计至少部分地基于多个时间上间隔的对准数据项和第一光学元件的多个时间上间隔的位置。机器人将第一光学元件移动到期望对准位置。
对于每一个对准数据项,可以按照与对该对准数据项获取图像数据的计时关系存储第一光学元件的对应的位置。
可选地,对于每一个对准数据项,可以按照与该对准数据项的获取的计时关系来产生同步信号。
对于多个时间上间隔的位置的每一个位置,可以响应于同步信号来存储第一光学元件的位置。
可选地,可以估计在下述部分之间的关系:(a)在第一光学元件和第二光学元件之间的光学对准程度,和(b)第一光学元件的位置。可以基于多个时间上间隔的对准数据项和第一光学元件的多个时间上间隔的位置来估计该关系。估计期望对准位置可以基于该关系。
第二光学元件可以包括数字图像传感器。对于多个时间上间隔的对准数据项的每一个对准数据项,可以从数字图像传感器获取相应的图像的图像数据,并且可以按照与获取该图像数据的计时关系来产生同步信号。
数字图像传感器可以产生同步信号。
对于第一光学元件的多个时间上间隔的位置的每一个位置,可以存储该位置被获取时的对应的获取时间。可以基于第一光学元件的多个时间上间隔的位置和每一个位置的相应的获取时间来估计(a)第一光学元件的位置和(b)时间之间的第一关系。可以估计与时间上间隔的对准数据项的相应的一些被获取时的时间对应的、第一光学元件的多个位置。可以使用时间上间隔的对准数据项被获取时的时间和第一关系来进行该估计。可以估计(a)在第一光学元件和第二光学元件之间的光学对准程度和(b)第一光学元件的位置之间的第二关系。估计可以基于多个时间上间隔的对准数据项和第一光学元件的多个的位置。估计期望对准位置可以涉及基于第二关系来估计期望对准位置。
存储对应的获取时间可以涉及访问第一时钟。获取多个时间上间隔的对准数据项可以涉及对多个时间上间隔的对准数据项的每一个对准数据项访问第二时钟。第二时钟与第一时钟不同。第一时钟可以与第二时钟同步。可选地或替代地,可以计算第一时钟和第二时钟之间的偏差,并且,可以存储偏差。
第一光学元件可以包括透镜,并且第二光学元件可以包括图像传感器。可以定位目标,使得透镜将目标的图像投影在图像传感器上。指示第一光学元件和第二光学元件之间的光学对准程度的数据可以包括从图像传感器获取的图像数据。
估计第二关系可以涉及分析图像数据以计算多个聚焦得分。第一光学元件和第二光学元件之间的光学对准程度可以基于多个聚焦得分。
本发明的另一个实施例提供了一种用于将第一光学元件与第二光学元件主动地对准的系统。该系统包括机器人、运动控制器、测量控制器和对准处理器。机器人被配置为握持第一光学元件。运动控制器被配置为使得机器人沿着从开始位置到结束位置的轨迹连续扫描第一光学元件。在机器人从开始位置到结束位置连续扫描第一光学元件的同时,存储第一光学元件的多个时间上间隔的位置。测量控制器被配置为在机器人从开始位置到结束位置连续扫描第一光学元件的同时获取多个时间上间隔的对准数据项。每一个对准数据项产生于经过第一光学元件并且被第二光学元件接收的光学信号。每一个对准数据项包含用来指示第一光学元件和第二光学元件之间的光学对准程度的数据。对准处理器被配置为至少部分地基于多个时间上间隔的对准数据项和第一光学元件的多个时间上间隔的位置来估计期望对准位置。对准处理器使得机器人将第一光学元件移动到期望对准位置。
运动控制器可以被配置为对多个时间上间隔的对准数据项的每一个对准数据项,按照与对该对准数据项获取图像数据的计时关系存储第一光学元件的对应的位置。
测量控制器可以被配置为对于多个时间上间隔的对准数据项的每一个对准数据项,按照与该对准数据项的获取的计时关系来产生同步信号。运动控制器可以被配置为响应于同步信号来存储第一光学元件的位置。
对准处理器可以被配置为基于多个时间上间隔的对准数据项和第一光学元件的多个时间上间隔的位置估计在下述部分之间的关系:(a)第一光学元件和第二光学元件之间的光学对准程度,和(b)第一光学元件的位置。对准处理器可以被配置为基于该关系来估计期望对准位置。
第二光学元件可以包括数字图像传感器。测量控制器可以被配置为对于多个时间上间隔的对准数据项的每一个对准数据项,从数字图像传感器获取相应的图像的图像数据,并且以与获取该图像数据的计时关系来产生同步信号。
第二光学元件可以包括数字图像传感器,该数字图像传感器被配置为产生同步信号。
运动控制器可以被配置为,对于第一光学元件的多个时间上间隔的位置的每一个位置,存储该位置被获取时的对应的第一获取时间。系统还可以包括曲线拟合器,该曲线拟合器被配置为基于第一光学元件的多个时间上间隔的位置和每一个位置的相应的获取时间来估计(a)第一光学元件的位置和(b)时间之间的第一关系。对准处理器可以被配置为使用时间上间隔的对准数据项的获取时间和第一关系估计与时间上间隔的对准数据项的相应的一些被获取时的时间对应的、第一光学元件的多个位置。对准处理器也可以被配置为基于多个时间上间隔的对准数据项和第一光学元件的多个时间上间隔的位置估计(a)在第一光学元件和第二光学元件之间的光学对准程度和(b)第一光学元件的位置之间的第二关系。对准处理器也可以被配置为基于第二关系来估计期望对准位置。
系统也可以包括耦接到运动控制器的第一时钟和耦接到测量控制器的、与第一时钟不同的第二时钟。运动控制器可以被配置为从第一时钟获得每一个第一获取时间。测量控制器可以被配置为存储与多个时间上间隔的数据项的每一个对准数据项的获取时间对应的、从第二时钟获得的第二获取时间。系统也可以包括耦接到第一时钟和第二时钟的时钟同步器。时钟同步器可以被配置为同步第一时钟与第二时钟。可选地或替代地,时钟同步器可以被配置为计算在第一时钟和第二时钟之间的偏差,并且存储偏差。
第一光学元件可以包括透镜,并且第二光学元件可以包括图像传感器。可以定位目标,使得透镜将目标的图像投影在图像传感器上。指示第一光学元件和第二光学元件之间的光学对准程度的数据可以包括从图像传感器获取的图像数据。
对准处理器可以被配置为,在估计第二关系期间,分析图像数据以计算多个聚焦得分。在第一光学元件和第二光学元件之间的光学对准的程度可以基于多个聚焦得分。
本发明的另一个实施例提供了一种用于将第一光学元件与第二光学元件主动对准计算机程序产品。计算机程序产品包括非暂态计算机可读介质。计算机可读程序代码被存储在介质上。计算机可读程序代码被配置为使得机器人沿着从开始位置到结束位置的轨迹连续扫描第一光学元件。在机器人从开始位置到结束位置连续扫描第一光学元件的同时,存储第一光学元件的多个时间上间隔的位置。获取多个时间上间隔的对准数据项。多个时间上间隔的对准数据项的每一个对准数据项产生于经过第一光学元件并且被第二光学元件接收的光学信号。每一个对准数据项包含用来指示第一光学元件和第二光学元件之间的光学对准程度的数据。至少部分地基于多个时间上间隔的对准数据项和第一光学元件的多个时间上间隔的位置估计期望对准位置。机器人将第一光学元件移动到期望对准位置。
附图说明
通过参考下面结合附图的特定实施例的详细说明,可以更全面地理解本发明,其中:
图1是根据现有技术的机器人主动对准系统的透视示意图示。
图2是根据现有技术的图1的对准目标的图示。
图3是图1的系统的一部分的截面图。
图4是中心聚焦得分对光学元件的z轴位置的假想图。
图5是中心和四角聚焦得分对未对准的光学元件的z轴位置的假想图。
图6是目标、透镜和图像传感器以及透镜围绕两个轴的可能旋转的透视示意图示。
图7是中心和四角聚焦得分对z轴位置的假想图,其除了对准的光学元件之外与图6的图形类似。
图8是图示根据现有技术的当光学元件在步进扫描中的相邻位置之间转换时的光学元件的位置的假想图。
图9是本发明的实施例的示意框图。
图10是图示根据本发明的实施例的、用于计算在被扫描的光学元件的位置和时间之间的关系的曲线拟合的假想图。
图11A和11B包含用于图示由本发明的实施例执行的操作的示意流程图。
具体实施方式
根据本发明的实施例,公开了用于使用连续扫描来将诸如透镜的第一光学元件与诸如图像传感器的第二光学元件主动对准的方法和设备。在扫描期间,本发明的实施例收集关于被扫描的光学元件的计时位置信息(timed position information),并且然后诸如通过针对一组位置-时间对的曲线拟合来估计被扫描的光学元件的位置和时间之间的关系。这种关系可以然后用于估计图像数据或其他对准质量指示数据样本被获取时的时间的被扫描的光学元件的位置。根据这种对准质量与位置数据的对比,可以确定最佳对准位置,并且可以然后将被扫描的光学元件定位在所确定的对准位置处。
一些实施例利用来自图像传感器电路的同步信号来触发记录关于被扫描的光学元件的位置信息。在其中图像传感器电路不产生同步信号的一些实施例中,通过图像捕获组件来综合同步信号。
如上所提及的,为了在组装或测试操作期间将对象对准所建立的方法涉及使用直接与物体之间的对准程度(质量)相关的主动反馈或测量值。例如,透镜或其他光学物体可以与发光二极管最佳地对准以通过使用光束轮廓传感器(beam profiling sensor)产生最高的聚焦光束,以检测何时通过透镜的来自二极管的光束功率密度最高。在图1中示意地图示的另一个示例中,使用自动机器人(由夹子100表示)来通过下述方式在两个对象102和104的组装期间在数字相机传感器104之前最佳对准透镜102:在传感器104被加电并且指向对准目标106的同时评估由传感器104捕获的图像的聚焦的清晰度,同时相对于传感器104将透镜102定位在沿着x、y和z轴的连续位置处和围绕x、y和z轴的连续取向上。分别通过角度θx、θy和θz来指示俯仰(围绕x轴)、横摇(围绕y轴)和围绕z轴(光轴)的横摆旋转。
图2图示了示例性对准目标200。目标200具有由传感器104看到的、在其中心202和角204、206、208和210处的高对比度特征。在图2中所示的示例性目标中,每一个高对比度特征包括在白色背景上的略旋转的黑色方块和诸如棋盘图案或线对的其他高对比度元素。因此,由传感器104成像的、具有最佳图像聚焦质量的透镜102相对于传感器104的位置和取向将是图像在目标200上空间分布的高对比度变化上具有最高观察的图像强度梯度或对比度之处。换句话说,当透镜102步进通过其各个位置和取向,当在图像中检测到最高对比度或强度梯度时,透镜102被定位以提供最佳的聚焦。
使用钉床、加载弹簧的测试探针(“弹簧针”)或其他公知的电路内测试夹具(未示出)暂时向传感器104提供电力,并且将图像传感器104电连接到控制机器人100的计算机108。通过该测试夹具,计算机108从图像传感器104接收图像数据,并且评估图像聚焦质量或另一个图像属性或另一组图像的属性。在一些情况下,分离(但是互连)的计算机(未示出)控制机器人100,并且接收和评估图像数据。接收和评估图像数据的该计算机或计算机108的一部分在此被称为“测量系统”。可选地包括编码器或由计算机使用来测量机器人100的位置的其他装置的控制机器人100的计算机或计算机108的一部分在此被统称为“运动控制系统”。
使用粘结剂(在此由粘结点110表示,但是替代地由粘结剂的环形或其他沉积物表示)来将透镜102粘合到图像传感器104或其基板112,如在图3中更清楚地所示,图3是图1的组件的截面图。在诸如用于诸如蜂窝电话的移动装置的相机模块的典型示例中,透镜至传感器距离114标称为大约150微米加或减大约50微米。粘结剂通常在对准处理开始之前被施加,虽然可以在其后施加另外的粘结剂。对于在对准处理开始之前施加的粘结剂施加足够的粘结剂以适应于可以定位和定向透镜102的末端,同时仍然在透镜102和传感器104或基板112之间提供足够的机械粘合。
一旦找到了提供最佳的图像聚焦质量的位置和取向,则机器人100在粘结剂至少部分地固化的同时将透镜102保持在位。大多数粘结剂在它们固化的同时收缩。因此,在确定提供最佳聚焦的透镜位置和取向后,一些实施例进一步调整透镜位置和取向以补偿预期的粘结剂收缩。可选地,可以向粘结剂施加紫外线光束和/或热量(未示出)以加速固化。
在这些和其他对准示例中,通过将透镜102可能沿着多个轨迹步进通过一系列离散的位置和取向,可以使得寻找最佳对准的实现是有方法的、可重复的和可自动化的。步进通常以比预期更大的透镜-图像传感器间隔来开始,以产生良好聚焦的图像,并且继续到比预期小的透镜-图像传感器间隔以产生良好聚焦的图像。例如,对于预期在大约150μm处产生良好聚焦的图像的透镜102,该步进可以在大约200μm的透镜-图像传感器间隔处开始,并且每一个步骤可以涉及将透镜移动大约10μm,直到透镜102在相对于图像传感器104的大约50μm内或者更近。在每一个步骤处,透镜102被短暂地保持就位,并且获取光学功率、光束密度、所获取的图像传感器聚焦质量或与对准的质量直接相关的另一种属性的测量。使用传统的设备,一个这样的扫描需要大约4秒来完成。通常,使得透镜102接近图像传感器104。然而,透镜102的移动可以在任何一个方向上,即,朝着图像传感器104或背离图像传感器104。
假定将透镜102沿着z轴向由图4中图形中的刻度线400表示的几个位置A、B、C、D、E、F、G和H的每一个逐步地移动,并且计算机108捕获图像,并且计算在这些位置A-H的每一个处的目标106的中心202和四角204、206、208和210的聚焦得分。可以基于测试下的相机捕获的关注区域中从亮到暗或从暗到亮的边缘转换的空间变化率或梯度来计算该聚焦得分。
通过点402来指示假设的中心聚焦得分。计算机108然后计算最佳地拟合点402的多项式方程。曲线404表示点402的假设的最佳拟合的多项式方程的图。因此,该曲线404和方程描述了在光束或图像聚焦质量和透镜位置之间的关系。从多项式方程,计算机108计算应当产生最佳中心聚焦得分408、即在曲线404中的峰值处的透镜102的z轴位置406。峰值408可以表示拟合的方程的局部最大值。计算机108可以然后使得机器人将透镜102定位在所确定的沿着z轴的最佳位置406处,并且允许粘结剂固化。
更复杂的系统可以重复用于改善精度的测试。例如,每一个测试可以确定相对于前一个测试提供改善的聚焦得分的位置和/或取向,并且每一个随后的测试可以以根据前一个测试的结果定位和/或取向的透镜开始,以便迭代地找到提供良好的聚焦得分的位置和取向。
如所述,光学元件可能未完美地被安装在透镜102内。例如,光学元件可能相对于它们的理想取向倾斜。而且,传感器104可能未完美地垂直于z轴或在z轴的中心。结果,产生最佳中心聚焦得分408的沿着z轴的透镜102的位置406(图4)可能未必产生最佳聚焦的角204、206、208和210。因此,当沿着z轴向图像传感器104步进透镜102时,目标200的角204、206、208或210之一在目标200的中心202之前(即,在比目标200的中心202更大的距传感器104的z轴距离处)进入最佳聚焦。类似地,其他角204、206、208和/或210在沿着z轴的透镜102的其他位置处进入最佳聚焦。
当机器人100将透镜102步进通过沿着z轴的位置A-H(图4,400)时,计算机108也分析表示目标200的角204、206、208和210的传感器图像数据的部分,并且对四角的每一个拟合多项式曲线。图5描述了假设的一组曲线500、502、504和506,其表示聚焦得分对于四角204、206、208和210的多项式方程拟合。在这个假设示例中,由聚焦得分曲线506表示的右下角206在比目标200的中心202或其他三角204、208或210的任何一个更小的z轴(透镜至传感器)距离处被最佳地聚焦。类似地,由聚焦得分曲线500表示的左下角208在比中心208或其他三角204、206或210的任何一个更大的z轴透镜至传感器距离处被最佳地聚焦。注意,中心和四角聚焦得分曲线408、500、502、504和506的形状和高度可以因为在透镜102中的诸如不对称的缺陷而不必是相同的。
从与曲线500、502、504和506对应的多项式方程,计算机108确定优化角204、206、208和210的聚焦的透镜102的俯仰和横摇角(θx和θy)。在角聚焦得分曲线500、502、504和506中的每一个峰值和中心聚焦得分曲线404的峰值之间的相应的距离508、510、512和514与透镜102的相应部分相对于理想情况俯仰和横摇的量成比例,并且因此与用于补偿透镜缺陷所需的俯仰和横摇的量成比例。所需的俯仰和横摇的量也取决于在目标200的中心202和用于计算聚焦得分的高对比度特征204、206、208或210之间的距离212。高对比度特征204、206、208或210距目标200的中心202越远,则对于在聚焦得分中的峰值距在中心聚焦得分中的峰值408的给定位移508、510、512或514需要校正更多的俯仰和横摇。
峰值在中心聚焦得分曲线404左部的角聚焦得分曲线(在该假设情况下由曲线504和506例示)对应于当透镜102比当目标200的中心202在最佳聚焦时更接近图像传感器104时在最佳聚焦的角204和206(在该情况下,右上角和右下角)。因此,透镜102应当被俯仰和/或横摇,以便增大在透镜102和将这些角204和206成像的图像传感器104的部分之间的距离。
类似地,峰值在中心聚焦得分曲线404的右面的角聚焦得分曲线(由曲线500和502例示)对应于当透镜102比当目标200的中心202在最佳聚焦时距图像传感器104更远时在最佳聚焦的角208和210(在该情况下,左上角和左下角)。因此,透镜102应当被俯仰和/或横摇,以便减小在透镜102和将这些角208和210成像的图像传感器104的部分之间的距离。
如在图6中示意地所示(为了清楚而使用不同的目标600,但是保持上面的关于透镜缺陷的假设),取决于透镜102围绕y轴横摇的方式(顺时针或逆时针),围绕y轴横摇透镜102同时使得透镜102距将目标600的右上角P和右下角Q成像的图像传感器104的部分更接近或更远。这样的横摇也使得透镜102距将左下角R和左上角S成像的图像传感器104的部分更远或更接近,但是是以与角P和Q的指向相反的指向。因此,围绕y轴在负方向上(即,与箭头602相反)横摇透镜102向右移动聚焦得分曲线504和506,并且其向左移动聚焦得分曲线500和502。
类似地,围绕x轴俯仰透镜102将同时使得透镜102距将左下角R和右下角Q成像的图像传感器104的部分更接近或更远,并且,以相反的指向,取决于透镜102围绕x轴俯仰的方式(顺时针和逆时针),使得透镜102距将左上角S和右上角P成像的图像传感器104的部分更远或更接近。
如刚才所述将透镜102俯仰和横摇一起使得所有的聚焦得分曲线500、502、504和506彼此更接近。
如所述,距离508、510、512和514(图5)指示透镜102应当被俯仰或横摇以补偿未聚焦的角的相对量。对于在中心聚焦得分曲线的峰值408和在角聚焦得分曲线500-506中的峰值之间的给定距离508-514,在目标200的中心202和任何角(例如,206)之间的距离212(图2)越大,则透镜102需要倾斜或摇动得越少。
因此,可以调整透镜102的俯仰和横摇(即两个自由度可用),通过这一点,计算机108可以调整透镜102,使得所有四个角聚焦得分在相同或近乎相同的z轴位置处具有峰值,如图7中所示的假设图中所示。可以使用平面几何来基于距离508-514计算透镜102应当被俯仰和/或横摇的量。取决于在透镜中的缺陷,不可能找到同时最大化所有四个角聚焦得分的单个取向(即,θx和θy)。而且,不可能同时最大化四个角聚焦得分和中心聚焦得分。如图7中所示,在已经调整了透镜102取向后,中心聚焦得分404可以在距峰值角聚焦得分的z轴距离700处具有峰值。
因此,计算机108可以将四个角聚焦得分和中心聚焦得分加权以确定沿着运动轴的位置和围绕该运动轴的取向的最佳折中。基于对特定相机组件的需要来选择这些权重(中心-各角)。在一些实施例中,中心聚焦得分与角聚焦得分的权重比可以是50/50、60/40、75/25、100/0或任何其他适当的权重比。使用权重比100/0对于中心聚焦得分优化,并且其使得四个角聚焦得分曲线峰值重合(或近乎如此),虽然如图7中所示,角聚焦得分可以在与中心聚焦得分峰值不同的z轴位置处具有峰值。
计算机108(图1)可以迭代地执行上述的过程。例如,在第一遍,计算机108可以确定如上所述集体提供了在四个角聚焦得分之间和在中心聚焦得分和角聚焦得分之间的可接受的平衡的透镜102的俯仰和横摇。然后,在第二遍,运动控制系统可以使得机器人100根据第一遍的结果来将透镜102倾斜和摇动,并且再一次执行上述的过程。可选地,可以执行另外的迭代遍。
迄今,已经将在测试下的透镜102的移动路径(轨迹)描述为线性的或有角度的(例如,围绕轴俯仰和横摇)。然而,可以使用其他1维、2维或更多维度的轨迹。示例性轨迹包括线性的、螺旋的、螺线的和框形的。
虽然上述过程可以产生透镜的可接受的位置和取向,但是该过程较慢,因为在每一个测试位置和取向,当捕获图像或其他测量值时,机器人必须停止。图8是用于在两个相邻的测试位置Z1和Z2之间的转换的、相对于时间绘制的沿着z轴的位移的假想图形。在透镜102在位置Z1的同时计算机108已经捕获到图像后,计算机108使机器人100将透镜102移动到位置Z2。作为具有质量和惯性的机械系统,该移动包含加速到转换速率的时间段800,其后跟随减速和稳定的时间段802。如果该系统比未达到临界阻尼,则该透镜位置可能波动(未示出),直到它充分地稳定。
为了在制造和测试应用期间的物体的更有效和高效的主动对准,重要的是能够尽可能块地实现对准。这使得可以在给定时间段中组装和测试的单元数更多。因此,实现位置和取向的最有效和最快的扫描以找到最佳的聚焦对准是理想的。使用各种方法来减少将物体对准所需的时间量。这些方法包括沿着各种轨迹的扫描,诸如线扫描、框扫描和螺旋扫描。根据定义,“扫描”是沿着轨迹的位置和/或取向的序列,其中,对于每个位置和/或取向测量聚焦质量或另一个对准质量度量。可以在机器人停止在每一个位置和/或取向的同时执行该测量,或者,在扫描期间收集的图像数据可以被存储在存储器中,并且在以后被分析,诸如在扫描的剩余部分期间或在已经完成扫描后被分析。与何时分析图像数据无关(即,在机器人在其中捕获图像数据的位置的同时或在机器人已经移动到超过那个位置后),我们参考捕获图像数据的位置和/或取向的对准质量的测量。在“步进扫描”中,透镜或要对准的其他物体依序移动到一组位置和/或取向的每一个位置和/或取向。在要取得测量的每一个位置和/或取向,停止运动,并且然后,捕获图像数据。
用于减小扫描所需的时间的一种方法是不在沿着其轨迹的每个测量位置和/或取向处停止。相反,在机器人处于运动的同时,沿着轨迹连续(即没有停顿)移动透镜或其他物体,并且,在每个测量位置和/或取向处捕获图像数据。这被称为“连续扫描”。只要通过在移动透镜或另外物体的同时获取测量值未显著地减小测量精度,则连续扫描可以显著地减少执行对准扫描所需的时间。例如,可以节省加速时间800和减速和稳定时间802的大部分。在一些实施例中,连续扫描可以节省在步进扫描的连续位置和/或取向之间步进所需的循环时间804的大约35-50%。
在实现连续扫描的一个困难是在获取测量数据的同时记录被对准的物体的位置和/或取向。较之用于控制连续扫描运动和记录对应的物体的位置和/或取向的轨迹的系统,如果使用不同的一组硬件或不同的软件控制系统来实现执行数据收集或对准质量测量的仪器或系统,则尤其困难。
本发明的一些实施例使用输入给关联至每一个测量点的运动控制系统的电信号,在连续扫描期间使测量提取或信息收集与每一个测量点的位置和取向同步。在这样的把透镜与图像传感器对准的系统中,图像传感器电路在每次产生图像时产生视频同步信号。该同步信号被馈送到运动控制系统,并且响应于该同步信号,该运动控制系统记录当捕获每一个图像时的透镜的位置和/或取向。
视频同步脉冲通常由诸如在倒车摄像头中使用的传感器的视频图像传感器产生。然而,在诸如静止数字照像机的其他环境中使用的传感器和相关电路通常不产生视频同步信号,这使得上述对准处理不适合于这些传感器。本发明的一些实施例通过当捕获图像时合成同步信号来解决该问题,如下更详细所述。本发明的其他实施例不要求同步信号。
在图9中示意地示出了本发明的一个实施例。在连续扫描期间,在几个时间的每一个处(优选但非必须,以规则的时间间隔),运动控制系统900记录时间和透镜102的位置和/或取向(或机器人100的位置和/或取向,据之可以确定透镜102的位置和/或取向)。这些加时间戳的位置和/或取向被存储在存储器902中。并行地,测量系统904记录图像数据和每一个图像数据采样被获取的时间。这些加时间戳的图像数据被存储在存储器906中。
运动控制系统900和测量系统904可以使用单个(公共)时钟(未示出)。然而,如果在这两个并行操作(运动和测量)之前运动控制系统900和测量系统904利用独立的时钟908和910,则时钟908和910被时钟同步器912同步,或者在执行该两个并行操作之前、期间或之后,时钟同步器912确定和存储在该两个时钟之间的偏差。注意记录位置和/或取向数据的速率或时间可以与获取图像数据的速率或时间不同。而且,所记录的位置和/或取向数据项的数量可以与所记录的图像的数量不同。这些差别可以是使用独立的时钟908和910的结果,和/或,它们可以是在运动控制系统900和测量系统904的编程上的差别的结果。
如果每一个图像是在位置和/或取向被记录的同时被获取,则对准处理器916可以执行计算,并且如上所述命令运动控制系统900对准透镜102。然而,在大多数情况下,与获取每一个图像同时地记录位置和/或取向是不可能的、不实用的、不方便的或不期望的。在这些情况下,在执行扫描后,曲线拟合器914针对加时间戳的位置和/或取向值902拟合线性方程或其他方程。
图10是示出由运动控制系统900在由刻度线1002表示的几个时间处记录的、表示沿着z轴的位置的假想的一组加时间戳的点1000。图10也示出对这些点1000拟合的假想曲线1004(对应于拟合的方程)。
注意,如果运动控制系统900在机器人达到转换速率后开始记录位置和/或取向数据,并且其在机器人开始减速(如在图10中表示)之前停止记录数据,则机器人100的加速度1006和减速度1008可能不由曲线1004表示,并且较之加速度1006和减速度1008数据被记录和用于曲线拟合,线性曲线可能更拟合到点1000。为了避免必须拟合非线性方程,推荐仅在机器人100在以其转换速率行进的同时收集位置和/或取向数据和图像数据。然而,通过对于方程拟合的适当的调整,在图10的转换速率部分之外的操作是可能的。具体地说,应当使用高阶非线性方程。
应当选择扫描的开始位置或取向,使得机器人100在任何给定的测试中在达到感兴趣的第一位置和/或取向之前具有加速和达到其转换速率的机会。类似地,应当选择扫描的结束位置和/或取向,使得机器人100在测试中在机器人100开始减速之前达到感兴趣的最后位置和/或取向。
然后可以使用拟合到点1000的方程来估计与在扫描期间的任何时间对应并且具体地说与对图像数据906记录的时间戳对应的位置和/或取向。例如,假定在图10中表示的扫描期间记录了8个图像,每一个图像已经在与虚线垂直线1010对应的时间A、B、C、D、E、F、G和H(1012)处被记录。对准处理器916使用这些时间A-H(1012)和拟合的方程来估计在获取图像时的时间处的透镜102的位置和/或取向1014。在此使用术语“估计”,因为拟合的方程和曲线1004表示在扫描期间在时间和透镜102的位置和/或取向之间的关系(“运动轨迹”)的估计。该估计可能是完美的;尽管如此,它在此被称为估计。
在这种估计中的误差可以由几个因素引起,该几个因素包括:时钟不精确或四舍五入、用于测量机器人100的位置和/或取向的编码器918的不准确和机器人100在扫描的转换部分期间移动的速度上的变化。即使向记录的位置和/或取向902分配的时间戳或向记录的图像数据906分配的时间戳包括不准确,使用位置和/或取向的多个数据点1000和使用图像数据的多个数据点402(图4),做平均以消除这些不准确的效果。
在此使用的术语“估计”包括计算。可以执行一个或多个计算来达到估计。在此使用的术语“拟合方程”和“拟合曲线”可以包括估计。曲线拟合是针对一系列数据点构造具有最佳拟合的曲线或数学函数的公知处理,可能受到约束的限制。曲线拟合可以涉及插值或平滑,在插值中,要求对数据的精确拟合,在平滑中,构造近似拟合数据的“平滑”函数。曲线或方程拟合可以包含多项式方程,可能包括对数或指数函数。
对准处理器916(图9)使用它从图像数据计算的透镜的估计的位置和/或取向和聚焦得分实现了如上所述的对准处理。例如,在图10中的8个时间A-H(1012)可对应于在图4中的8个刻度线A-H(400),其表示捕获图像并计算聚焦得分的沿z轴的位置。对准处理器916向运动控制系统900发送命令(经由连接920),以驱动测试过程扫描(以定位和定向机器人100)并且在粘结剂固化的同时最后将透镜定位。
在其中图像传感器104每当它捕获图像时产生同步信号的实施例中,可以向运动控制系统900提供该同步信号,如虚线902所示,并且,运动控制系统900可以响应于同步信号存储透镜102的位置和/或取向(或机器人100的位置和/或取向,从其可以确定透镜102的位置和/或取向)。
在其中图像传感器104不产生同步信号的一些实施例中,测量系统904可以每当测量系统904获取图像数据采样时合成同步信号,并且该合成的同步信号可以被提供到运动控制系统900,如虚线922所示。如上所述,运动控制系统900可以响应于该合成的同步信号来存储透镜102的位置和/或取向(或机器人100的位置和/或取向,据之可以确定透镜102的位置和/或取向)。
图11A和11B包含图示本发明的实施例的操作的流程图。在1100处,定位目标106,因此透镜102将目标106的图像投影在图像传感器104上。在1102处,如果运动控制系统900(图9)和测量系统904利用独立的时钟908和910,则将两个时钟908和910同步,或者记录在该两个时钟之间的偏差,因此,由运动控制系统900记录的时间可以与由测量系统904记录的时间相关。
在1104处,连续扫描开始。机器人100沿着z轴或沿着另一个轴或沿着包含几个横轴的复杂路径来扫描透镜102。在机器人100扫描透镜102的同时,在1106处,运动控制系统900(图9)从编码器918获取数据。该数据指示沿着轨迹来定位或定向透镜(或机器人)。当机器人100移动透镜102时,取得透镜102的位置或取向的几个测量值,由此产生透镜102的多个时间上间隔的位置(为了说明的简化,术语“位置”有时用于表示位置和/或取向)。
也从诸如时钟908(图9)的时钟记录位置或取向的每一个被测量的时间。在1108处,位置测量值与取得该测量值的时间相关联。在1110处,针对透镜102的测量位置对照取得该测量值的时间,曲线拟合器914自动拟合第一方程。该方程表示在扫描期间的在透镜的位置和时间之间的估计关系。
在机器人100(图1)扫描透镜102并且运动控制系统900(图9)获取指示沿着轨迹在何处定位或定向透镜(或机器人)的数据的同时,在1112处,测量系统904从图像传感器104获取一系列时间上间隔的图像(对准数据项)。可以对于每一个图像分析聚焦质量或指示透镜102多好地与图像传感器104对准的另一个度量。因此,每一个图像包含指示在透镜102和图像传感器104之间的光学对准程度的数据。应当在扫描的一部分期间获取对准数据项,该扫描的一部分至少部分地与其间获取透镜位置1106的扫描的一部分重叠。然而,扫描的非重叠部分可以用于获取对准数据项1112和透镜位置1106。
在1114处,测量系统904开始循环,该循环对每一个获取的图像执行一次。在该循环内,在1116处,测量系统904计算聚焦得分或指示在透镜102和图像传感器104之间的光学对准程度的其他值。如所述,该值可以是图像强度梯度、在目标200的部分上的对比度值、简单强度或任何其他适当值。在1118处,测量系统904使用获取图像的时间和表示在透镜位置和时间之间的关系的第一方程来计算在获取图像的时间处的透镜102的位置。在1120处,聚焦得分与其相应的透镜位置相关联。如果存在更多图像,则在1122处,该循环返回到1116,否则控制前进到1124。
在1124处,针对聚焦得分对照相关联的透镜位置(当获取图像时的时间)拟合第二方程。该第二方程表示在下述部分之间的估计的关系:(a)透镜至传感器的光学对准的程度(诸如,聚焦得分),和(b)透镜的位置。对准处理器916然后计算第二方程的局部最大值。该局部最大值提供了透镜102的良好对准位置的估计。如所述,可以修改该对准位置,以诸如补偿粘结剂的预期收缩。无论怎样,结果在此被称为估计的对准位置。机器人然后将透镜102移动到估计的对准位置。
如所述,在1130处,可以迭代如上所述的操作以改善在诸如沿着z轴或围绕y轴的旋转的一个自由度内的估计的对准位置的精度。在1132处,如果需要,则对于自由度的每一个执行这些操作。虽然流程图指示可以在1130处完成用于单个自由度的所有操作并且然后对于另一个自由度在1132处执行任何操作,但是不必是这种情况。换句话说,可以将用于单个自由度的迭代与用于其他自由度的对准过程混和。
透镜102的位置和/或取向被记录的时间,或者替代地,在相继记录之间的时间间隔可以被预编程、被自动确定或是用户可配置的。例如,运动控制系统900(图9)可以基于将方程和要测试的距离或取向(角度)的总的范围拟合的点的期望数量和机器人100移动或旋转的速率来自动确定适当的时间间隔。换句话说,考虑到加速和减速的时间,可以自动选择时间间隔,使得在机器人行进或旋转距离或取向的整个范围所花费的时间中记录期望数量的点。如所述,其间运动控制系统900(图9)记录透镜102的相继位置和/或取向的时间间隔可以但是不必是规则的。类似地,其间测量系统904从图像传感器104获取相继的图像的时间间隔可以但是不必是规则的。因此,如在此使用,术语“时间上间隔”不必然表示以规则的时间间隔。
较之步进扫描所允许的,使用连续扫描允许系统获取更多的每单位时间的图像和/或位置和/或取向采样点。这些另外的点可以用于改善如上所述的曲线拟合的精度,而不负面地影响执行单独的扫描所需的时间。可选地或替代地,时间节省(相比于步进扫描)可以用于缩短整个对准过程或执行一个或多个另外的迭代。
可以根据诸如电荷耦合器件(CCD)或互补金属氧化物半导体(CMOS)的各种技术来制造图像传感器104。另外,图像传感器104输出可以符合各种标准,诸如VGA、NTSC、PAL、SMIA、MIPI或HiSPI。
如在此使用,术语“透镜”表示具有一个或多个传统光学元件的物体。虽然在将透镜与图像传感器对准的上下文中一般地提出了上面的说明,但是在此所述的方法和设备等同地适用于将其他光学元件(诸如光纤)与其他无源光学元件(诸如其他光纤)或与其他光学传感器(诸如光电二极管)或与光学源(诸如发光二极管(LED)和激光器)对准。集体地,在权利要求中将所有这样的透镜、图像传感器、光纤、光电二极管、LED和激光器等称为“光学元件”。虽然已经描述了将诸如透镜的一个光学元件与诸如图像传感器的另一个光学元件的对准,但是可以以适当的修改如所述使用在此所述的方法和设备来将诸如几条光纤的多个光学元件与诸如光学传感器或光学源的单个光学元件对准。而且,被对准的光学元件可以但是不必全部被安装在诸如印刷电路板、集成电路板或集成电路基板的常用基板上。
如在此和在权利要求中使用,“处理器”可以是:单个处理器;多处理器,诸如多核处理器或在单个或多个集成电路基板上或在单个或多个电路板上彼此互连的多个处理器;单个计算机或多个互连的计算机。虽然一些权利要求引用“通过处理器”执行一个或多个操作,但是应当明白:可以通过不同的处理器来执行每一个操作;可以通过单个处理器执行所有的操作;可以通过多个处理器的任何组合来执行操作的任何组合;可以在多个处理器上分布单个操作的执行;并且,这些和其他组合在权利要求的范围内。
如在权利要求中使用,术语“光学元件的位置”表示下述部分的至少一个:光学元件的位置和光学元件的取向。即,术语“位置”表示位置和/或取向。如在此使用,术语“自动”或“自动地”表示没有人为干涉地执行,虽然人可以启动该执行。例如,针对一组数据自动拟合方程要求处理器确定方程的参数,而不用来自人的帮助。
虽然通过上述示例性实施例描述了本发明,但是可以在不偏离在此公开的发明构思的情况下进行对于所说明的实施例的修改和所说明的实施例的改变。而且,可以以上面未列出和/或未明确地要求保护的方式来组合所公开的方面或这些方面的部分。因此,本发明不应当被看作限于所公开的实施例。
可以使用软件、硬件或其组合来实现运动控制系统900、数据存储器902、测量系统904、数据存储器906、曲线拟合器914、对准处理器916、时钟908和910、时钟同步器912和在此所述的其他组件和处理。可以由执行在存储器中存储的指令的处理器来执行这些功能。
虽然已经参考流程图和/或框图来描述了实施例的方面,但是每一个方框的全部或一部分或方框的组合的功能、操作、判定等可以被组合、分离为独立的操作或以其他顺序被执行。每一个方框的全部或一部分或方框的组合可以被实现为计算机程序指令(诸如软件)、硬件(诸如组合逻辑、专用集成电路(ASIC)、现场可编程门阵列(FPGA)或其他硬件)、固件或其组合。可以由执行在存储器中存储的指令或被在存储器中存储的指令控制的处理器实现实施例。存储器可以是适合于存储控制软件或其他指令和数据的随机存取存储器(RAM)、只读存储器(ROM)、快闪存储器或任何其他存储器或其组合。限定本发明的功能的指令可以以许多形式被传递到处理器,该许多形式包括但是不限于:在永久有形非可写入存储介质(例如,在计算机内的只读存储器装置,诸如ROM;或者,被计算机I/O附件可读的装置,诸如CD-ROM或DVD盘)上永久存储的信息;在永久有形可写入存储介质(例如,软盘、可装卸快闪存储器和硬盘驱动器)上可改变地存储的信息,或通过包括有线或无线计算机网络的通信介质被传送到计算机的信息。而且,虽然可以结合各个说明性数据结构描述了实施例,但是可以使用多种数据结构来体现系统。

Claims (23)

1.一种用于把第一光学元件(102)与第二光学元件(104)主动对准的计算机实现的方法,所述方法包括用处理器(108)执行下述操作:
使机器人(100)沿着从开始位置到结束位置的轨迹连续扫描(1104)所述第一光学元件(102);
在所述机器人(100)从所述开始位置到所述结束位置连续扫描所述第一光学元件(102)的同时,存储(1106)所述第一光学元件(102)的多个时间上间隔的位置(1000,902),并获取(1112)多个时间上间隔的对准数据项(906),其中,所述多个时间上间隔的对准数据项的每一个对准数据项产生于经过所述第一光学元件(102)并且被所述第二光学元件(104)接收的光学信号,且包含用来指示所述第一光学元件(102)和所述第二光学元件(104)之间的光学对准程度的数据;
至少部分地基于所述多个时间上间隔的对准数据项(906)和所述第一光学元件(102)的所述多个时间上间隔的位置(1000,902)估计(1128)期望对准位置;以及
使所述机器人(100)把所述第一光学元件(102)移动(1128)到所述期望对准位置。
2.根据权利要求1所述的方法,其中,存储所述第一光学元件(102)的所述多个时间上间隔的位置(1000,902)包括:对所述多个时间上间隔的对准数据项(906)的每一个对准数据项,按照与对该对准数据项获取图像数据的计时关系存储所述第一光学元件的对应的位置。
3.根据权利要求1所述的方法,进一步包括:
对所述多个时间上间隔的对准数据项(906)的每一个对准数据项,按照与该对准数据项的获取的计时关系来产生同步信号(920,922);
其中,存储所述第一光学元件(102)的所述多个时间上间隔的位置(1000,902)包括:对所述多个时间上间隔的位置的每一个位置,响应于所述同步信号(920,922)来存储所述第一光学元件的位置。
4.根据权利要求3所述的方法,进一步包括:
基于所述多个时间上间隔的对准数据项(906)和所述第一光学元件(102)的所述多个时间上间隔的位置(1000,902)估计在下述二者之间的关系(1124):
(a)所述第一光学元件(102)和所述第二光学元件(104)之间的光学对准程度,和
(b)所述第一光学元件(102)的位置;
其中,估计(1128)所述期望对准位置包括基于所述关系来估计所述期望对准位置。
5.根据权利要求3所述的方法,其中:
所述第二光学元件(103)包括数字图像传感器;并且
获取所述多个时间上间隔的对准数据项(906)包括:对所述多个时间上间隔的对准数据项(906)的每一个对准数据项,从所述数字图像传感器获取相应图像的图像数据,并且按照与获取该图像数据的计时关系来产生所述同步信号(920,922)。
6.根据权利要求5所述的方法,其中,产生所述同步信号(920,922)包括:利用所述数字图像传感器(104)产生所述同步信号(920,922)。
7.根据权利要求1所述的方法,进一步包括:
对所述第一光学元件(102)的所述多个时间上间隔的位置(1000,902)的每一个位置,存储获取该位置的对应获取时间;
基于所述第一光学元件(102)的所述多个时间上间隔的位置(1000,902)和每一个位置的相应的获取时间来估计(1110)(a)所述第一光学元件(102)的位置和(b)时间之间的第一关系;
使用所述时间上间隔的对准数据项被获取时的时间和所述第一关系来估计(1118)与所述时间上间隔的对准数据项的相应一些被获取时的时间相对应的所述第一光学元件的多个位置;
基于所述多个时间上间隔的对准数据项(906)和所述第一光学元件的所述多个位置估计(1124)下述二者之间的第二关系:
(a)所述第一光学元件(102)和所述第二光学元件(104)之间的光学对准程度,和
(b)所述第一光学元件(102)的位置;
其中,估计(1128)所述期望对准位置包括:基于所述第二关系来估计所述期望对准位置。
8.根据权利要求7所述的方法,其中:
存储对应获取时间包括:访问第一时钟(908);并且
获取所述多个时间上间隔的对准数据项包括:对所述多个时间上间隔的对准数据项(906)的每一个对准数据项,访问与所述第一时钟(908)不同的第二时钟(910);
并且,所述方法进一步包括:
同步(1102)所述第一时钟(908)与所述第二时钟(910)。
9.根据权利要求7所述的方法,其中:
存储对应获取时间包括:访问第一时钟(908);并且
获取所述多个时间上间隔的对准数据项包括:对所述多个时间上间隔的对准数据项(906)的每一个对准数据项,访问与所述第一时钟(908)不同的第二时钟(910);
并且所述方法进一步包括:
计算(1102)所述第一时钟(908)和所述第二时钟(910)之间的偏差;并且
存储(1102)所述偏差。
10.根据权利要求7所述的方法,其中,所述第一光学元件(102)包括透镜,并且所述第二光学元件(104)包括图像传感器,所述方法进一步包括:
定位(1100)目标(106,200),使得所述透镜(102)把所述目标(106,200)的图像投影在所述图像传感器上;
其中,指示所述第一光学元件(102)和所述第二光学元件(104)之间的光学对准程度的数据(906)包括从所述图像传感器获取的图像数据。
11.根据权利要求10所述的方法,其中,估计所述第二关系包括:
分析所述图像数据以计算(1116)多个聚焦得分;并且
使所述第一光学元件(102)和所述第二光学元件(104)之间的所述光学对准程度基于所述多个聚焦得分。
12.一种用于把第一光学元件(102)与第二光学元件(104)主动对准的系统,所述系统包括:
机器人(100),所述机器人(100)被配置为握持所述第一光学元件(102);
运动控制器(108,900),所述运动控制器(108,900)被配置为使所述机器人(100)沿着从开始位置到结束位置的轨迹连续扫描所述第一光学元件(102),并且,在所述机器人(100)从所述开始位置到所述结束位置连续扫描所述第一光学元件(102)的同时,存储所述第一光学元件(102)的多个时间上间隔的位置(902);
测量控制器(108,904),所述测量控制器(108,904)被配置,使得在所述机器人(100)从所述开始位置到所述结束位置连续扫描所述第一光学元件(102)的同时,获取多个时间上间隔的对准数据项(906),其中,所述多个时间上间隔的对准数据项的每一个对准数据项产生于经过所述第一光学元件(102)并且被所述第二光学元件(104)接收的光学信号,且包含用来指示在所述第一光学元件(102)和所述第二光学元件(104)之间的光学对准程度的数据;以及
对准处理器(108,916),所述对准处理器(108,916)被配置为至少部分地基于所述多个时间上间隔的对准数据项(906)和所述第一光学元件(102)的所述多个时间上间隔的位置(902)来估计期望对准位置,并且使所述机器人(100)把所述第一光学元件(102)移动到所述期望对准位置。
13.根据权利要求12所述的系统,其中,所述运动控制器(108,900)被配置为对所述多个时间上间隔的对准数据项(906)的每一个对准数据项,按照与对该对准数据项获取图像数据的计时关系存储所述第一光学元件(102)的对应的位置。
14.根据权利要求12所述的系统,其中:
所述测量控制器(108,904)被配置为对所述多个时间上间隔的对准数据项(906)的每一个对准数据项,按照与该对准数据项的获取的计时关系来产生同步信号(920,922);并且
所述运动控制器(108,900)被配置为响应于所述同步信号(922)来存储所述第一光学元件的位置。
15.根据权利要求14所述的系统,其中,所述对准处理器(108,916)被配置为:
基于所述多个时间上间隔的对准数据项(906)和所述第一光学元件(102)的所述多个时间上间隔的位置(902)估计在下述二者之间的关系:
(a)所述第一光学元件(102)和所述第二光学元件(104)之间的光学对准程度,和
(b)所述第一光学元件(102)的位置;并且
基于所述关系来估计所述期望对准位置。
16.根据权利要求14所述的系统,其中:
所述第二光学元件(104)包括数字图像传感器;以及
所述测量控制器(108,904)被配置为对所述多个时间上间隔的对准数据项(906)的每一个对准数据项,从所述数字图像传感器获取相应的图像的图像数据,并且按照与获取该图像数据的计时关系来产生所述同步信号(922)。
17.根据权利要求14所述的系统,其中,所述第二光学元件(104)包括数字图像传感器,所述数字图像传感器被配置为产生所述同步信号(920)。
18.根据权利要求12所述的系统,其中:
所述运动控制器(108,900)被配置为,对所述第一光学元件(102)的所述多个时间上间隔的位置(902)的每一个位置,存储获取该位置的对应的第一获取时间;
曲线拟合器(108,914),所述曲线拟合器(108,914)被配置为基于所述第一光学元件(102)的所述多个时间上间隔的位置(902)和每一个位置的相应的获取时间来估计(a)所述第一光学元件(102)的位置和(b)时间之间的第一关系;
所述对准处理器(108,916)被配置为:
使用所述时间上间隔的对准数据项(906)被获取时的时间和所述第一关系估计与所述时间上间隔的对准数据项(906)的相应的一些被获取时的时间相对应的所述第一光学元件(102)的多个位置;
基于所述多个时间上间隔的对准数据项(906)和所述第一光学元件的所述多个位置估计下述二者之间的第二关系:(a)所述第一光学元件(102)和所述第二光学元件(104)之间的光学对准程度,和(b)所述第一光学元件(102)的位置;并且
基于所述第二关系来估计所述期望对准位置。
19.根据权利要求18所述的系统,进一步包括:
耦接到所述运动控制器(108,900)的第一时钟(908);以及
耦接到所述测量控制器(108,904)的、与所述第一时钟(908)不同的第二时钟(910);
其中:
所述运动控制器(108,900)被配置为从所述第一时钟(908)获得每一个第一获取时间;并且
所述测量控制器(108,904)被配置为存储从所述第二时钟(910)获得的、与所述多个时间上间隔的数据项(904)的每一个对准数据项的获取时间相对应的第二获取时间;
并且所述系统进一步包括:
时钟同步器(108,912),所述时钟同步器(108,912)耦接到所述第一时钟(908)和所述第二时钟(910),并且被配置为同步所述第一时钟(908)与所述第二时钟(910)。
20.根据权利要求18所述的系统,进一步包括:
耦接到所述运动控制器(108,900)的第一时钟(908);以及
耦接到所述测量控制器(108,904)的、与所述第一时钟(908)不同的第二时钟(910);
其中:
所述运动控制器(108,900)被配置为从所述第一时钟(908)获得每一个第一获取时间;并且
所述测量控制器(108,904)被配置为存储从所述第二时钟(910)获得的、与所述多个时间上间隔的数据项(906)的每一个对准数据项的获取时间相对应的第二获取时间;
并且所述系统进一步包括:
时钟同步器(108,92),所述时钟同步器(108,92)耦接到所述第一时钟(908)和所述第二时钟(910),并且被配置为计算所述第一时钟(908)和所述第二时钟(910)之间的偏差,并且存储所述偏差。
21.根据权利要求18所述的系统,其中:
所述第一光学元件(102)包括透镜;
所述第二光学元件(104)包括图像传感器;
并且所述系统进一步包括:
目标(106,200),所述目标(106,200)被定位,使得所述透镜把所述目标(106,200)的图像投影在所述图像传感器上;并且
其中,指示所述第一光学元件(102)和所述第二光学元件(104)之间的光学对准程度的数据(906)包括从所述图像传感器获取的图像数据。
22.根据权利要求21所述的系统,其中,所述对准处理器(108,916)被配置为,在估计所述第二关系期间:
分析所述图像数据以计算多个聚焦得分(906);并且
使所述第一光学元件(102)和所述第二光学元件(104)之间的光学对准程度基于所述多个聚焦得分。
23.一种用于把第一光学元件(102)与第二光学元件(104)主动对准的计算机程序产品,所述计算机程序产品包括非暂态计算机可读介质,计算机可读程序代码被存储在所述计算机可读介质上,所述计算机可读程序代码被配置为:
使机器人(100)沿着从开始位置到结束位置的轨迹连续扫描所述第一光学元件(102);
在所述机器人(100)从所述开始位置到所述结束位置连续扫描所述第一光学元件(102)的同时:
存储所述第一光学元件(902)的多个时间上间隔的位置(902);并且
获取多个时间上间隔的对准数据项(906),其中,所述多个时间上间隔的对准数据项(906)的每一个对准数据项:
产生于经过所述第一光学元件(102)并且被所述第二光学元件(104)接收的光学信号;并且
包含用来指示所述第一光学元件(102)和所述第二光学元件(104)之间的光学对准程度的数据;
至少部分地基于所述多个时间上间隔的对准数据项(906)和所述第一光学元件(102)的所述多个时间上间隔的位置估计期望对准位置;以及
使所述机器人(100)把所述第一光学元件(102)移动到所述期望的对准位置。
CN201380026472.8A 2012-04-13 2013-04-12 使用连续运动扫描和时间插值的主动对准 Active CN104350408B (zh)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
US201261623932P 2012-04-13 2012-04-13
US61/623,932 2012-04-13
PCT/US2013/036355 WO2013155403A1 (en) 2012-04-13 2013-04-12 Active alignment using continuous motion sweeps and temporal interpolation

Publications (2)

Publication Number Publication Date
CN104350408A true CN104350408A (zh) 2015-02-11
CN104350408B CN104350408B (zh) 2018-04-06

Family

ID=48227553

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201380026472.8A Active CN104350408B (zh) 2012-04-13 2013-04-12 使用连续运动扫描和时间插值的主动对准

Country Status (4)

Country Link
US (1) US9156168B2 (zh)
EP (1) EP2836869B1 (zh)
CN (1) CN104350408B (zh)
WO (1) WO2013155403A1 (zh)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN106717506A (zh) * 2016-12-18 2017-05-31 叶强 一种海带自动收获机器人
CN114945884A (zh) * 2020-01-22 2022-08-26 Abb瑞士股份有限公司 用于控制机器人的系统和方法、电子设备和计算机可读介质

Families Citing this family (74)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8866920B2 (en) 2008-05-20 2014-10-21 Pelican Imaging Corporation Capturing and processing of images using monolithic camera array with heterogeneous imagers
US11792538B2 (en) 2008-05-20 2023-10-17 Adeia Imaging Llc Capturing and processing of images including occlusions focused on an image sensor by a lens stack array
EP2289235A4 (en) 2008-05-20 2011-12-28 Pelican Imaging Corp RECORDING AND PROCESSING IMAGES BY MONOLITHIC CAMERA ARRANGEMENT WITH HETEROGENIC IMAGE TRANSFORMER
WO2011063347A2 (en) 2009-11-20 2011-05-26 Pelican Imaging Corporation Capturing and processing of images using monolithic camera array with heterogeneous imagers
CN103004180A (zh) 2010-05-12 2013-03-27 派力肯影像公司 成像器阵列和阵列照相机的架构
US8878950B2 (en) 2010-12-14 2014-11-04 Pelican Imaging Corporation Systems and methods for synthesizing high resolution images using super-resolution processes
US8305456B1 (en) 2011-05-11 2012-11-06 Pelican Imaging Corporation Systems and methods for transmitting and receiving array camera image data
US20130265459A1 (en) 2011-06-28 2013-10-10 Pelican Imaging Corporation Optical arrangements for use with an array camera
US20130070060A1 (en) 2011-09-19 2013-03-21 Pelican Imaging Corporation Systems and methods for determining depth from multiple views of a scene that include aliasing using hypothesized fusion
WO2013049699A1 (en) 2011-09-28 2013-04-04 Pelican Imaging Corporation Systems and methods for encoding and decoding light field image files
EP2817955B1 (en) 2012-02-21 2018-04-11 FotoNation Cayman Limited Systems and methods for the manipulation of captured light field image data
US9210392B2 (en) 2012-05-01 2015-12-08 Pelican Imaging Coporation Camera modules patterned with pi filter groups
WO2014005123A1 (en) 2012-06-28 2014-01-03 Pelican Imaging Corporation Systems and methods for detecting defective camera arrays, optic arrays, and sensors
US20140002674A1 (en) 2012-06-30 2014-01-02 Pelican Imaging Corporation Systems and Methods for Manufacturing Camera Modules Using Active Alignment of Lens Stack Arrays and Sensors
EP4567495A3 (en) 2012-08-21 2025-09-10 Adeia Imaging LLC Systems and methods for parallax detection and correction in images captured using array cameras
CN104685513B (zh) 2012-08-23 2018-04-27 派力肯影像公司 根据使用阵列源捕捉的低分辨率图像的基于特征的高分辨率运动估计
WO2014043641A1 (en) 2012-09-14 2014-03-20 Pelican Imaging Corporation Systems and methods for correcting user identified artifacts in light field images
EP4307659A1 (en) 2012-09-28 2024-01-17 Adeia Imaging LLC Generating images from light fields utilizing virtual viewpoints
WO2014078443A1 (en) 2012-11-13 2014-05-22 Pelican Imaging Corporation Systems and methods for array camera focal plane control
WO2014130849A1 (en) 2013-02-21 2014-08-28 Pelican Imaging Corporation Generating compressed light field representation data
US9374512B2 (en) 2013-02-24 2016-06-21 Pelican Imaging Corporation Thin form factor computational array cameras and modular array cameras
US9638883B1 (en) 2013-03-04 2017-05-02 Fotonation Cayman Limited Passive alignment of array camera modules constructed from lens stack arrays and sensors based upon alignment information obtained during manufacture of array camera modules using an active alignment process
WO2014138695A1 (en) 2013-03-08 2014-09-12 Pelican Imaging Corporation Systems and methods for measuring scene information while capturing images using array cameras
US8866912B2 (en) 2013-03-10 2014-10-21 Pelican Imaging Corporation System and methods for calibration of an array camera using a single captured image
US9888194B2 (en) 2013-03-13 2018-02-06 Fotonation Cayman Limited Array camera architecture implementing quantum film image sensors
WO2014164550A2 (en) 2013-03-13 2014-10-09 Pelican Imaging Corporation System and methods for calibration of an array camera
US9106784B2 (en) 2013-03-13 2015-08-11 Pelican Imaging Corporation Systems and methods for controlling aliasing in images captured by an array camera for use in super-resolution processing
US9519972B2 (en) 2013-03-13 2016-12-13 Kip Peli P1 Lp Systems and methods for synthesizing images from image data captured by an array camera using restricted depth of field depth maps in which depth estimation precision varies
US9578259B2 (en) 2013-03-14 2017-02-21 Fotonation Cayman Limited Systems and methods for reducing motion blur in images or video in ultra low light with array cameras
WO2014153098A1 (en) 2013-03-14 2014-09-25 Pelican Imaging Corporation Photmetric normalization in array cameras
US10122993B2 (en) 2013-03-15 2018-11-06 Fotonation Limited Autofocus system for a conventional camera that uses depth information from an array camera
US9445003B1 (en) 2013-03-15 2016-09-13 Pelican Imaging Corporation Systems and methods for synthesizing high resolution images using image deconvolution based on motion and depth information
US9497429B2 (en) 2013-03-15 2016-11-15 Pelican Imaging Corporation Extended color processing on pelican array cameras
US9497370B2 (en) 2013-03-15 2016-11-15 Pelican Imaging Corporation Array camera architecture implementing quantum dot color filters
JP2016524125A (ja) 2013-03-15 2016-08-12 ペリカン イメージング コーポレイション カメラアレイを用いた立体撮像のためのシステムおよび方法
US20150062422A1 (en) * 2013-08-27 2015-03-05 Semiconductor Components Industries, Llc Lens alignment in camera modules using phase detection pixels
WO2015048694A2 (en) 2013-09-27 2015-04-02 Pelican Imaging Corporation Systems and methods for depth-assisted perspective distortion correction
EP3066690A4 (en) 2013-11-07 2017-04-05 Pelican Imaging Corporation Methods of manufacturing array camera modules incorporating independently aligned lens stacks
WO2015074078A1 (en) 2013-11-18 2015-05-21 Pelican Imaging Corporation Estimating depth from projected texture using camera arrays
US9426361B2 (en) 2013-11-26 2016-08-23 Pelican Imaging Corporation Array camera configurations incorporating multiple constituent array cameras
US9766473B1 (en) * 2014-02-03 2017-09-19 Automation Engineering, Inc. Automated UV calibration, motorized optical target and automatic surface finder for optical alignment and assembly robot
US10089740B2 (en) 2014-03-07 2018-10-02 Fotonation Limited System and methods for depth regularization and semiautomatic interactive matting using RGB-D images
US9442293B2 (en) 2014-05-06 2016-09-13 Microsoft Technology Licensing, Llc Composite variable light attenuator
US9521319B2 (en) 2014-06-18 2016-12-13 Pelican Imaging Corporation Array cameras and array camera modules including spectral filters disposed outside of a constituent image sensor
KR20170063827A (ko) 2014-09-29 2017-06-08 포토네이션 케이맨 리미티드 어레이 카메라들의 동적 교정을 위한 시스템들 및 방법들
US9933177B2 (en) 2014-11-04 2018-04-03 Google Llc Enhanced automated environmental control system scheduling using a preference function
EP3068125A1 (en) 2015-03-09 2016-09-14 Delphi Technologies, Inc. A method of manufacturing a multiple view camera system and multiple view camera system
US9942474B2 (en) 2015-04-17 2018-04-10 Fotonation Cayman Limited Systems and methods for performing high speed video capture and depth estimation using array cameras
CN114137672A (zh) 2016-04-15 2022-03-04 赫普塔冈微光有限公司 具有对准间隔件的光电子模块和用于组装所述光电子模块的方法
US10362203B2 (en) * 2017-08-14 2019-07-23 Aptiv Technologies Limited Camera assembly method with adhesive shrink offset based on individual lens characteristic
US10482618B2 (en) 2017-08-21 2019-11-19 Fotonation Limited Systems and methods for hybrid depth regularization
DE112020004391B4 (de) 2019-09-17 2024-08-14 Intrinsic Innovation Llc Systeme und Verfahren zur Oberflächenmodellierung unter Verwendung von Polarisationsmerkmalen
CA3157194C (en) 2019-10-07 2023-08-29 Boston Polarimetrics, Inc. Systems and methods for augmentation of sensor systems and imaging systems with polarization
KR102558903B1 (ko) 2019-11-30 2023-07-24 보스턴 폴라리메트릭스, 인크. 편광 신호를 이용한 투명 물체 분할을 위한 시스템 및 방법
US11089197B1 (en) 2020-01-27 2021-08-10 Aptiv Technologies Limited Camera with phased metalens
EP4081933A4 (en) 2020-01-29 2024-03-20 Intrinsic Innovation LLC SYSTEMS AND METHODS FOR CHARACTERIZING OBJECT POSE DETECTION AND MEASUREMENT SYSTEMS
WO2021154459A1 (en) 2020-01-30 2021-08-05 Boston Polarimetrics, Inc. Systems and methods for synthesizing data for training statistical models on different imaging modalities including polarized images
US11953700B2 (en) 2020-05-27 2024-04-09 Intrinsic Innovation Llc Multi-aperture polarization optical systems using beam splitters
WO2022056191A1 (en) * 2020-09-11 2022-03-17 Impossible Sensing LLC Method and system for advanced autofocusing spectroscopy
US11089188B1 (en) 2020-11-02 2021-08-10 Aptiv Technologies Limited Phased metalens for adjusting a focus of an image
US12069227B2 (en) 2021-03-10 2024-08-20 Intrinsic Innovation Llc Multi-modal and multi-spectral stereo camera arrays
US12020455B2 (en) 2021-03-10 2024-06-25 Intrinsic Innovation Llc Systems and methods for high dynamic range image reconstruction
US11290658B1 (en) 2021-04-15 2022-03-29 Boston Polarimetrics, Inc. Systems and methods for camera exposure control
US11954886B2 (en) 2021-04-15 2024-04-09 Intrinsic Innovation Llc Systems and methods for six-degree of freedom pose estimation of deformable objects
US12067746B2 (en) 2021-05-07 2024-08-20 Intrinsic Innovation Llc Systems and methods for using computer vision to pick up small objects
US12175741B2 (en) 2021-06-22 2024-12-24 Intrinsic Innovation Llc Systems and methods for a vision guided end effector
US12340538B2 (en) 2021-06-25 2025-06-24 Intrinsic Innovation Llc Systems and methods for generating and using visual datasets for training computer vision models
US12172310B2 (en) 2021-06-29 2024-12-24 Intrinsic Innovation Llc Systems and methods for picking objects using 3-D geometry and segmentation
US11689813B2 (en) 2021-07-01 2023-06-27 Intrinsic Innovation Llc Systems and methods for high dynamic range imaging using crossed polarizers
US12293535B2 (en) 2021-08-03 2025-05-06 Intrinsic Innovation Llc Systems and methods for training pose estimators in computer vision
US12140417B2 (en) 2021-12-22 2024-11-12 Aptiv Technologies AG Actively select lenses for camera focus processes
US12405525B2 (en) 2021-12-22 2025-09-02 Aptiv Technologies AG Actively select lenses for camera focus processes
US20230358989A1 (en) * 2022-05-03 2023-11-09 Aptiv Technologies Limited Camera Focusing Including Lens Centration Estimation Using Variable Focal Length Phased Metalens
CN119717298A (zh) * 2024-12-20 2025-03-28 浙江大学 一种用于医用电子内窥镜镜头模组的定心方法及装置

Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO1996007118A2 (en) * 1994-08-31 1996-03-07 Litton Systems, Inc. System and method for aligning and attaching optical fibers to optical waveguides, and products obtained thereby
EP1369743A2 (en) * 2002-06-07 2003-12-10 Brion Technologies, Inc. Characterisation of lithography apparatus
US20050099523A1 (en) * 2003-11-06 2005-05-12 Canon Kabushiki Kaisha Image sensing apparatus, control method therefor, program, and storage medium
US20050264681A1 (en) * 1996-07-26 2005-12-01 Fuji Photo Film Co., Ltd. Automatic focusing device for film scanner
US20060103754A1 (en) * 2004-11-16 2006-05-18 Wenstrand John S System and method for focusing a digital camera
CN1940700A (zh) * 2005-09-26 2007-04-04 宾得株式会社 具有自动对焦系统的照相机
CN101098406A (zh) * 2006-06-30 2008-01-02 索尼株式会社 自动对焦装置、图像捕获装置和自动对焦方法

Family Cites Families (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7330211B2 (en) 2003-07-08 2008-02-12 Micron Technology, Inc. Camera module with focus adjustment structure and systems and methods of making the same
US8063975B2 (en) 2008-10-29 2011-11-22 Jabil Circuit, Inc. Positioning wafer lenses on electronic imagers
EP3438721B1 (en) 2009-03-25 2020-07-08 Magna Electronics Inc. Vehicular camera and lens assembly
US9009952B2 (en) 2011-08-29 2015-04-21 Asm Technology Singapore Pte. Ltd. Apparatus for assembling a lens module and an image sensor to form a camera module, and a method of assembling the same

Patent Citations (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO1996007118A2 (en) * 1994-08-31 1996-03-07 Litton Systems, Inc. System and method for aligning and attaching optical fibers to optical waveguides, and products obtained thereby
WO1996007118A3 (en) * 1994-08-31 1996-07-25 Litton Systems Inc System and method for aligning and attaching optical fibers to optical waveguides, and products obtained thereby
US5926594A (en) * 1994-08-31 1999-07-20 Litton Systems, Inc. System and method for aligning and attaching optical fibers to optical waveguides, and products obtained thereby
US20050264681A1 (en) * 1996-07-26 2005-12-01 Fuji Photo Film Co., Ltd. Automatic focusing device for film scanner
EP1369743A2 (en) * 2002-06-07 2003-12-10 Brion Technologies, Inc. Characterisation of lithography apparatus
US20050099523A1 (en) * 2003-11-06 2005-05-12 Canon Kabushiki Kaisha Image sensing apparatus, control method therefor, program, and storage medium
US20060103754A1 (en) * 2004-11-16 2006-05-18 Wenstrand John S System and method for focusing a digital camera
CN1940700A (zh) * 2005-09-26 2007-04-04 宾得株式会社 具有自动对焦系统的照相机
CN101098406A (zh) * 2006-06-30 2008-01-02 索尼株式会社 自动对焦装置、图像捕获装置和自动对焦方法

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN106717506A (zh) * 2016-12-18 2017-05-31 叶强 一种海带自动收获机器人
CN106717506B (zh) * 2016-12-18 2018-12-21 山东金瓢食品机械股份有限公司 一种海带自动收获机器人
CN114945884A (zh) * 2020-01-22 2022-08-26 Abb瑞士股份有限公司 用于控制机器人的系统和方法、电子设备和计算机可读介质

Also Published As

Publication number Publication date
EP2836869B1 (en) 2020-10-14
US9156168B2 (en) 2015-10-13
WO2013155403A1 (en) 2013-10-17
CN104350408B (zh) 2018-04-06
US20130274923A1 (en) 2013-10-17
EP2836869A1 (en) 2015-02-18

Similar Documents

Publication Publication Date Title
CN104350408A (zh) 使用连续运动扫描和时间插值的主动对准
JP6469368B2 (ja) マシンビジョン検査システム及び高速合焦高さ測定動作を実行する方法
CN115278072B (zh) 一种用于Micro LED检测的自动对焦方法及系统
CN110910459B (zh) 一种对摄像装置的标定方法、装置及标定设备
US20120246899A1 (en) Profile measuring apparatus, method for measuring profile, and method for manufacturing structure
CN1727983B (zh) 选通脉冲照明
CA2801595A1 (en) Optical measurement method and measurement system for determining 3d coordinates on a measurement object surface
CN113115027B (zh) 校准摄像头的方法和系统
US11119382B2 (en) Tunable acoustic gradient lens system with amplitude adjustment corresponding to z-height as indicated by calibration data
CN115086549B (zh) 拍摄方法、拍摄装置、计算机设备、存储介质
CN105635564A (zh) 用于同步自动聚焦的多相机装置和方法
JP2022171677A5 (zh)
US11249225B2 (en) Tunable acoustic gradient lens system utilizing amplitude adjustments for acquiring images focused at different z-heights
JP2017223951A (ja) 微細対象物観察装置
EP3353492A1 (en) Device and method to locate a measurement point with an image capture device
JP5668227B2 (ja) 画像測定装置
CN103297799B (zh) 测试相机部件的光学特征
JP6031265B2 (ja) 部品検査装置
JP6987033B2 (ja) 撮影タイミング制御装置、撮像システムおよび撮像方法
JP6426295B2 (ja) 測距装置、測距方法、及び測距プログラム
CN117917090A (zh) 拍摄装置、拍摄系统、拍摄方法以及程序
TWM561212U (zh) 校正設備
CN113808212A (zh) 一种线扫描图像同步的标定方法和系统
CN120488959A (zh) 一种视觉位移测量方法
CN120063108A (zh) 图像采集设备的控制方法、系统、装置和可读存储介质

Legal Events

Date Code Title Description
C06 Publication
PB01 Publication
C10 Entry into substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant