[go: up one dir, main page]

DE112020004810B4 - Systeme und Verfahren zur Erfassung von Oberflächennormalen mit Polarisation - Google Patents

Systeme und Verfahren zur Erfassung von Oberflächennormalen mit Polarisation Download PDF

Info

Publication number
DE112020004810B4
DE112020004810B4 DE112020004810.1T DE112020004810T DE112020004810B4 DE 112020004810 B4 DE112020004810 B4 DE 112020004810B4 DE 112020004810 T DE112020004810 T DE 112020004810T DE 112020004810 B4 DE112020004810 B4 DE 112020004810B4
Authority
DE
Germany
Prior art keywords
polarization
images
raw
camera
cameras
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
DE112020004810.1T
Other languages
English (en)
Other versions
DE112020004810T5 (de
Inventor
Achuta Kadambi
Kartik Venkataraman
Supreeth Krishna RAO
Agastya KALRA
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Intrinsic Innovation Mountain View Us LLC
Original Assignee
Boston Polarimetrics Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Boston Polarimetrics Inc filed Critical Boston Polarimetrics Inc
Publication of DE112020004810T5 publication Critical patent/DE112020004810T5/de
Application granted granted Critical
Publication of DE112020004810B4 publication Critical patent/DE112020004810B4/de
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S7/00Details of systems according to groups G01S13/00, G01S15/00, G01S17/00
    • G01S7/48Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S17/00
    • G01S7/499Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S17/00 using polarisation effects
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/20Image signal generators
    • H04N13/204Image signal generators using stereoscopic image cameras
    • H04N13/243Image signal generators using stereoscopic image cameras using three or more 2D image sensors
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01BMEASURING LENGTH, THICKNESS OR SIMILAR LINEAR DIMENSIONS; MEASURING ANGLES; MEASURING AREAS; MEASURING IRREGULARITIES OF SURFACES OR CONTOURS
    • G01B11/00Measuring arrangements characterised by the use of optical techniques
    • G01B11/02Measuring arrangements characterised by the use of optical techniques for measuring length, width or thickness
    • G01B11/06Measuring arrangements characterised by the use of optical techniques for measuring length, width or thickness for measuring thickness ; e.g. of sheet material
    • G01B11/0616Measuring arrangements characterised by the use of optical techniques for measuring length, width or thickness for measuring thickness ; e.g. of sheet material of coating
    • G01B11/0641Measuring arrangements characterised by the use of optical techniques for measuring length, width or thickness for measuring thickness ; e.g. of sheet material of coating with measurement of polarization
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01BMEASURING LENGTH, THICKNESS OR SIMILAR LINEAR DIMENSIONS; MEASURING ANGLES; MEASURING AREAS; MEASURING IRREGULARITIES OF SURFACES OR CONTOURS
    • G01B11/00Measuring arrangements characterised by the use of optical techniques
    • G01B11/24Measuring arrangements characterised by the use of optical techniques for measuring contours or curvatures
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01BMEASURING LENGTH, THICKNESS OR SIMILAR LINEAR DIMENSIONS; MEASURING ANGLES; MEASURING AREAS; MEASURING IRREGULARITIES OF SURFACES OR CONTOURS
    • G01B11/00Measuring arrangements characterised by the use of optical techniques
    • G01B11/24Measuring arrangements characterised by the use of optical techniques for measuring contours or curvatures
    • G01B11/25Measuring arrangements characterised by the use of optical techniques for measuring contours or curvatures by projecting a pattern, e.g. one or more lines, moiré fringes on the object
    • G01B11/2545Measuring arrangements characterised by the use of optical techniques for measuring contours or curvatures by projecting a pattern, e.g. one or more lines, moiré fringes on the object with one projection direction and several detection directions, e.g. stereo
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S13/00Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
    • G01S13/88Radar or analogous systems specially adapted for specific applications
    • G01S13/89Radar or analogous systems specially adapted for specific applications for mapping or imaging
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S17/00Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
    • G01S17/87Combinations of systems using electromagnetic waves other than radio waves
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S17/00Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
    • G01S17/88Lidar systems specially adapted for specific applications
    • G01S17/89Lidar systems specially adapted for specific applications for mapping or imaging
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B5/00Optical elements other than lenses
    • G02B5/30Polarising elements
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T17/00Three dimensional [3D] modelling, e.g. data description of 3D objects
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/11Region-based segmentation
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/50Depth or shape recovery
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/50Depth or shape recovery
    • G06T7/521Depth or shape recovery from laser ranging, e.g. using interferometry; from the projection of structured light
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/50Depth or shape recovery
    • G06T7/55Depth or shape recovery from multiple images
    • G06T7/593Depth or shape recovery from multiple images from stereo images
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/60Analysis of geometric attributes
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/82Arrangements for image or video recognition or understanding using pattern recognition or machine learning using neural networks
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/52Surveillance or monitoring of activities, e.g. for recognising suspicious objects
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/60Type of objects
    • G06V20/64Three-dimensional objects
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/20Image signal generators
    • H04N13/204Image signal generators using stereoscopic image cameras
    • H04N13/254Image signal generators using stereoscopic image cameras in combination with electromagnetic radiation sources for illuminating objects
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/20Image signal generators
    • H04N13/257Colour aspects
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2200/00Indexing scheme for image data processing or generation, in general
    • G06T2200/08Indexing scheme for image data processing or generation, in general involving all processing steps from image acquisition to 3D model generation
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10016Video; Image sequence
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10024Color image
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10028Range image; Depth image; 3D point clouds
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20081Training; Learning
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20084Artificial neural networks [ANN]

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Remote Sensing (AREA)
  • Theoretical Computer Science (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Electromagnetism (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Geometry (AREA)
  • Software Systems (AREA)
  • Optics & Photonics (AREA)
  • Computer Graphics (AREA)
  • Evolutionary Computation (AREA)
  • Medical Informatics (AREA)
  • Artificial Intelligence (AREA)
  • Computing Systems (AREA)
  • Databases & Information Systems (AREA)
  • General Health & Medical Sciences (AREA)
  • Health & Medical Sciences (AREA)
  • Length Measuring Devices By Optical Means (AREA)
  • Studio Devices (AREA)
  • Investigating Or Analysing Materials By Optical Means (AREA)
  • Image Analysis (AREA)
  • Investigating Materials By The Use Of Optical Means Adapted For Particular Applications (AREA)
  • Ink Jet (AREA)
  • Details Of Cameras Including Film Mechanisms (AREA)

Abstract

Ein Verfahren zum Durchführen von Oberflächenprofilometrie, wobei das Verfahren umfasst:Empfangen (1102) von einem oder mehreren Polarisationsrohbildern (18) einer gedruckten Schicht eines physikalischen Objekts (1006), das additiv hergestellt wird, wobei das eine oder die mehreren Polarisationsrohbilder (18) bei verschiedenen Polarisationen durch eine oder mehrere Polarisationskameras (10, 10A'-10D') erfasst wurden;Extrahieren (1104) einer oder mehrerer Polarisationsmerkmalskarten in einem oder mehreren Polarisationsdarstellungsräumen aus dem einen oder den mehreren Polarisationsrohbildern (18);Erhalten (1106) einer Grobschichttiefenkarte der gedruckten Schicht;Erzeugen (1108) eines oder mehrerer Oberflächennormalen-Bilder basierend auf der Grobschichttiefenkarte und der einen oder mehreren Polarisationsmerkmalskarten; undErzeugen (1110) einer 3D-Rekonstruktion der gedruckten Schicht basierend auf dem einen oder den mehreren Oberflächennormalen-Bildern,wobei die eine oder die mehreren Polarisationsmerkmalskarten in dem einen oder den mehreren Polarisationsdarstellungsräumen umfassen:ein lineares Polarisationsgradbild (DOLP) in einem DOLP-Darstellungsraum; undein lineares Polarisationswinkelbild (AOLP) in einem AOLP-Darstellungsraum.

Description

  • QUERVERWEIS AUF VERWANDTE ANMELDUNG(EN)
  • Diese Anmeldung beansprucht die Priorität und die Vorteile der vorläufigen US-Patentanmeldung Nr. 62/911,952 , die am 7. Oktober, 2019 beim US-Patent- und Markenamt eingereicht wurde, der vorläufigen US-Patentanmeldung Nr. 62/942,113 , die am 30. November, 2019 beim US-Patent- und Markenamt eingereicht wurde, und der vorläufigen US-Patentanmeldung Nr. 63/001,445 , die am 29. März 2020 beim US-Patent- und Markenamt eingereicht wurde.
  • GEBIET
  • Aspekte von Ausführungsformen der vorliegenden Offenbarung sind im Allgemeinen bezogen auf Bildsensor- und Verarbeitungssysteme und Verfahren zu deren Verwendung.
  • HINTERGRUND
  • Sensorsysteme und bildgebende Systeme wie Radar, Lidar, Kameras (z. B. sichtbares Licht und/oder Infrarot) und dergleichen erfassen Objekte und Merkmale in der Umgebung durch die Wechselwirkung von elektromagnetischer Strahlung mit der Umgebung. Beispielsweise erfassen Kamerasysteme und Lidarsysteme Licht, das von Objekten in einer Szene oder in der Umgebung reflektiert wird. Ebenso senden Radarsysteme elektromagnetische Wellen mit niedrigeren Frequenzen (z. B. Radio- oder Mikrowellenfrequenzen) aus und bestimmen die Eigenschaften der Objekte basierend auf den Reflektionen dieser Signale. Andere Sensorsysteme können andere Formen von Strahlung verwenden, z. B. Druckwellen oder Schallwellen im Falle der Ultraschallbildgebung.
  • Die obigen Informationen, die in diesem Abschnitt „Hintergrund“ offenbart werden, dienen nur dem besseren Verständnis der vorliegenden Offenbarung und können daher Informationen enthalten, die nicht zu dem Stand der Technik gehören, der einem Fachmann bereits bekannt ist.
  • US 2019/0186901 A1 offenbart ein 3D-Abbildungssystem, das einen Tiefensensor verwendet, um eine grobe Tiefenkarte zu erstellen, und dann die grobe Tiefenkarte verwendet, um mehrdeutige Oberflächennormalen zu korrigieren, die aus Polarisationsmerkmalen berechnet werden.
  • US 2019/0143412 A1 schlägt ein 3D-Druckverfahren mit einer Steuerung vor, die die Verformung mindestens eines Teils eines 3D-Objekts regelt, vorzugsweise in Echtzeit während des 3D-Druckverfahrens.
  • US 2016/0344948 A1 offenbart ein Verfahren zur zumindest bereichsweisen Bestimmung einer Kontur mindestens einer additiv gefertigten Bauteilschicht.
  • CN 1 11 402 395 A schlägt ein passives Verfahren zur dreidimensionalen Polarisationsrekonstruktion auf der Grundlage der CNN-Korrektur vor.
  • ZUSAMMENFASSUNG
  • Die Erfindung ist in den unabhängigen Ansprüchen definiert. Besondere Ausführungsformen sind in den abhängigen Ansprüchen aufgeführt.
  • Aspekte von Ausführungsformen der vorliegenden Offenbarung beziehen sich auf Systeme und Verfahren zur Erweiterung von Sensorsystemen und Bildgebungssystemen unter Verwendung von Polarisation. Gemäß einigen Aspekten von Ausführungsformen der vorliegenden Offenbarung werden Sensoren, die konfiguriert sind, um die Polarisation von empfangener elektromagnetischer Strahlung zu erfassen, verwendet, um die Leistung oder das Verhalten anderer Bildgebungsmodalitäten zu erweitern, wie z. B. Kameras, die konfiguriert sind, um die Intensität von Licht ohne Berücksichtigung der Polarisation des Lichts zu erfassen. In einigen Aspekten von Ausführungsformen der vorliegenden Offenbarung werden Sensoren, die konfiguriert sind, um die Polarisation der empfangenen elektromagnetischen Strahlung zu erfassen, verwendet, um Bilder zu erzeugen, die andernfalls mit vergleichbaren Bildgebungssystemen wie Digitalkameras erzeugt werden würden. Einige Aspekte der Ausführungsformen der vorliegenden Offenbarung beziehen sich auf Kamerasysteme, die konfiguriert sind, um die Polarisation von Licht zu erfassen.
  • Erfindungsgemäß ist ein Verfahren zum Durchführen von Oberflächenprofilometrie bereitgestellt, wobei das Verfahren umfasst: Empfangen von einem oder mehreren Polarisationsrohbildern einer gedruckten Schicht eines physikalischen Objekts, das additiv hergestellt wird, wobei das eine oder die mehreren Polarisationsrohbilder bei verschiedenen Polarisationen durch eine oder mehrere Polarisationskameras erfasst wurden; Extrahieren einer oder mehrerer Polarisationsmerkmalskarten in einem oder mehreren Polarisationsdarstellungsräumen aus dem einen oder den mehreren Polarisationsrohbildern; Erhalten einer Grobschichttiefenkarte der gedruckten Schicht; Erzeugen eines oder mehrerer Oberflächennormalen-Bilder basierend auf der Grobschichttiefenkarte und der einen oder mehreren Polarisationsmerkmalskarten; und Erzeugen einer 3D-Rekonstruktion der gedruckten Schicht basierend auf dem einen oder den mehreren Oberflächennormalen-Bildern.
  • Erfindungsgemäß umfassen die eine oder die mehreren Polarisationsmerkmalskarten in dem einen oder den mehreren Polarisationsdarstellungsräumen: ein lineares Polarisationsgradbild (DOLP) in einem DOLP-Darstellungsraum; und ein lineares Polarisationswinkelbild (AOLP) in einem AOLP-Darstellungsraum.
  • In einigen Ausführungsformen umfassen die eine oder mehreren Polarisationskameras: eine erste Polarisationskamera, die konfiguriert ist, einen ersten Teilbereich eines Druckbetts zu erfassen, auf dem sich die gedruckte Schicht des physischen Objekts befindet; und eine zweite Polarisationskamera, die sich in einem Abstand von der ersten Polarisationskamera befindet und konfiguriert ist, um einen zweiten Teilbereich des Druckbetts zu erfassen.
  • In einigen Ausführungsformen umfasst das Erhalten der Grobschichttiefenkarte der gedruckten Schicht: Konstruieren der Grobschichttiefenkarte basierend auf einer Parallaxenverschiebung zwischen Polarisationsrohbildern, die von der ersten und zweiten Polarisationskamera erfasst wurden.
  • In einigen Ausführungsformen umfasst das Erhalten der Grobschichttiefenkarte der gedruckten Schicht: Empfangen eines CAD-Schichtenmodells, das der gedruckten Schicht des physischen Objekts entspricht.
  • In einigen Ausführungsformen umfasst das Erzeugen des einen oder der mehreren Oberflächennormalen-Bilder: Bestimmen einer Pose der gedruckten Schicht in Bezug auf jede der einen oder mehreren Polarisationskameras; Transformieren der Grobschichttiefenkarte in einen oder mehrere Kameraräume, der bzw. die dem einen oder den mehreren Polarisationskameras entspricht bzw. entsprechen, um eine oder mehrere transformierte Grobschichttiefenkarten zu erzeugen; und Korrigieren des einen oder der mehreren Oberflächennormalen-Bilder basierend auf der einen oder den mehreren transformierten Grobschichttiefenkarten.
  • In einigen Ausführungsformen umfasst das Erzeugen der 3D-Rekonstruktion der gedruckten Schicht: Integrieren der Oberflächennormalen des einen oder der mehreren Oberflächennormalen-Bilder über einen Probenraum, um eine Form einer Oberfläche der gedruckten Schicht zu bestimmen.
  • Erfindungsgemäß ist ein Oberflächenprofilometriesystem bereitgestellt, das umfasst: eine oder mehrere Polarisationskameras mit einem Polarisationsfilter, wobei die eine oder mehreren Polarisationskameras konfiguriert sind, um Polarisationsrohbilder bei verschiedenen Polarisationen zu erfassen; und ein Verarbeitungssystem mit einem Prozessor und einem Speicher, der Anweisungen speichert, die, wenn sie von dem Prozessor ausgeführt werden, den Prozessor veranlassen, Folgendes durchzuführen: Empfangen eines oder mehrerer Polarisationsrohbilder einer gedruckten Schicht eines physikalischen Objekts, das additiv hergestellt wird, wobei das eine oder die mehreren Polarisationsrohbilder mit unterschiedlichen Polarisationen von der einen oder den mehreren Polarisationskameras erfasst wurden; Extrahieren einer oder mehrerer Polarisationsmerkmalskarten in einem oder mehreren Polarisationsdarstellungsräumen aus dem einen oder den mehreren Polarisationsrohbildern; Erhalten einer Grobschichttiefenkarte der gedruckten Schicht; Erzeugen eines oder mehrerer Oberflächennormalen-Bilder basierend auf der Grobschichttiefenkarte und der einen oder mehreren Polarisationsmerkmalskarten; und Erzeugen einer 3D-Rekonstruktion der gedruckten Schicht basierend auf dem einen oder den mehreren Oberflächennormalen-Bildem.
  • Erfindungsgemäß umfassen die eine oder die mehreren Polarisationsmerkmalskarten in dem einen oder den mehreren Polarisationsdarstellungsräumen: ein lineares Polarisationsgradbild (DOLP) in einem DOLP-Darstellungsraum; und ein lineares Polarisationswinkelbild (AOLP) in einem AOLP-Darstellungsraum.
  • In einigen Ausführungsformen umfassen die eine oder mehrere Polarisationskameras: eine erste Polarisationskamera, die konfiguriert ist, um einen ersten Teilbereich eines Druckbetts zu erfassen, auf dem sich die gedruckte Schicht des physischen Objekts befindet; und eine zweite Polarisationskamera, die sich in einem Abstand von der ersten Polarisationskamera befindet und konfiguriert ist, um einen zweiten Teilbereich des Druckbetts zu erfassen.
  • In einigen Ausführungsformen umfasst das Ermitteln der Grobschichttiefenkarte der gedruckten Schicht: Konstruieren der Grobschichttiefenkarte basierend auf einer Parallaxenverschiebung zwischen Polarisationsrohbildern, die von der ersten und zweiten Polarisationskamera erfasst wurden.
  • In einigen Ausführungsformen umfasst das Erhalten der Grobschichttiefenkarte der gedruckten Schicht umfasst: Empfangen eines CAD-Schichtenmodells, das der gedruckten Schicht des physischen Objekts entspricht.
  • In einigen Ausführungsformen umfasst das Erzeugen des einen oder der mehreren Oberflächennormalen-Bilder umfasst: Bestimmen einer Pose der gedruckten Schicht in Bezug auf jede der einen oder mehreren Polarisationskameras; Transformieren der Grobschichttiefenkarte in einen oder mehrere Kameraräume, der bzw. die dem einen oder mehreren Polarisationskameras entspricht bzw. entsprechen, um eine oder mehrere transformierte Grobschichttiefenkarten zu erzeugen; und Korrigieren des einen oder der mehreren Oberflächennormalen-Bilder basierend auf der einen oder den mehreren transformierten Grobschichttiefenkarten.
  • In einigen Ausführungsformen umfasst das Erzeugen der 3D-Rekonstruktion der gedruckten Schicht Folgendes: Integrieren der Oberflächennormalen des einen oder der mehreren Oberflächennormalen-Bilder über einen Probenraum, um eine Form einer Oberfläche der gedruckten Schicht zu bestimmen.
  • In einigen Ausführungsformen speichert der Speicher weiterhin Anweisungen, die, wenn sie von dem Prozessor ausgeführt werden, den Prozessor veranlassen, weiterhin auszuführen: Bereitstellen der 3D-Rekonstruktion der gedruckten Schicht an ein 3D-Drucksystem als Steuerungsfeedback, wobei das 3D-Drucksystem konfiguriert ist, um das physische Objekt Schicht für Schicht additiv herzustellen.
  • In einigen Ausführungsformen die Operationen der einen oder mehreren Polarisationskameras, des Verarbeitungssystems und des 3D-Drucksystems über ein Synchronisationssignal synchronisiert werden.
  • Erfindungsgemäß ist ein Verfahren zum Erfassen eines 3D-Bildes eines Gesichts bereitgestellt, wobei das Verfahren umfasst: Empfangen von einem oder mehreren Polarisationsrohbildern des Gesichts, wobei das eine oder die mehreren Polarisationsrohbilder bei unterschiedlichen Polarisationen durch eine Polarisationskamera in einem Abstand von dem Gesicht erfasst wurden; Extrahieren einer oder mehrerer Polarisationsmerkmalskarten in einem oder mehreren Polarisationsdarstellungsräumen aus dem einen oder den mehreren Polarisationsrohbildern; und Erzeugen einer 3D-Rekonstruktion des Gesichts basierend auf der einen oder den mehreren Polarisationsmerkmalskarten über ein neuronales Netz zur Gesichtsrekonstruktion.
  • In einigen Ausführungsformen umfassen die eine oder die mehreren Polarisationsmerkmalskarten in dem einen oder den mehreren Polarisationsdarstellungsräumen: ein lineares Polarisationsgradbild (DOLP) in einem DOLP-Darstellungsraum; und ein lineares Polarisationswinkelbild (AOLP) in einem AOLP-Darstellungsraum.
  • In einigen Ausführungsformen umfassen die eine oder die mehreren Polarisationsmerkmalskarten geschätzte Oberflächennormalen, und wobei das Extrahieren der einen oder mehreren Polarisationsmerkmalskarten umfasst: Erzeugen der geschätzten Oberflächennormalen basierend auf dem einen oder den mehreren Polarisationsrohbildern.
  • In einigen Ausführungsformen ist das neuronale Netz zur Gesichtsrekonstruktion trainiert, um korrigierte Oberflächennormalen basierend auf den geschätzten Oberflächennormalen zu berechnen und um die 3D-Rekonstruktion des Gesichts basierend auf den korrigierten Oberflächennormalen zu erzeugen.
  • In einigen Ausführungsformen umfasst das neuronale Netz zur Gesichtsrekonstruktion ein trainiertes polarisiertes faltendes neuronales Netz (CNN).
  • Erfindungsgemäß ist ein 3D-Bildgebungssystem zum Erfassen eines 3D-Bildes eines Gesichts bereitgestellt, wobei das 3D-Bildgebungssystem umfasst: eine Polarisationskamera, die einen Polarisationsfilter umfasst und konfiguriert ist, um ein oder mehrere Polarisationsrohbilder bei verschiedenen Polarisationen zu erfassen; und ein Verarbeitungssystem mit einem Prozessor und einem Speicher, der Anweisungen speichert, die, wenn sie von dem Prozessor ausgeführt werden, den Prozessor veranlassen, Folgendes durchzuführen: Empfangen von einem oder mehreren Polarisationsrohbildern des Gesichts, wobei das eine oder die mehreren Polarisationsrohbilder bei unterschiedlichen Polarisationen von der Polarisationskamera erfasst wurden; Extrahieren einer oder mehrerer Polarisationsmerkmalskarten in einem oder mehreren Polarisationsdarstellungsräumen aus dem einen oder den mehreren Polarisationsrohbildern; und Erzeugen einer 3D-Rekonstruktion des Gesichts basierend auf der einen oder den mehreren Polarisationsmerkmalskarten über ein neuronales Gesichtsrekonstruktionsnetz.
  • In einigen Ausführungsformen umfassen die eine oder die mehreren Polarisationsmerkmalskarten in dem einen oder den mehreren Polarisationsdarstellungsräumen Folgendes: ein lineares Polarisationsgradbild (DOLP) in einem DOLP-Darstellungsraum; und ein lineares Polarisationswinkelbild (AOLP) in einem AOLP-Darstellungsraum.
  • In einigen Ausführungsformen umfassen die eine oder die mehreren Polarisationsmerkmalskarten geschätzte Oberflächennormalen, und wobei das Extrahieren der einen oder mehreren Polarisationsmerkmalskarten umfasst: Erzeugen der geschätzten Oberflächennormalen basierend auf dem einen oder den mehreren Polarisationsrohbildern.
  • In einigen Ausführungsformen umfassen ist das neuronale Netz zur Gesichtsrekonstruktion trainiert, um korrigierte Oberflächennormalen basierend auf den geschätzten Oberflächennormalen zu berechnen und die 3D-Rekonstruktion des Gesichts basierend auf den korrigierten Oberflächennormalen zu erzeugen.
  • In einigen Ausführungsformen umfasst das neuronale Netz zur Gesichtsrekonstruktion ein trainiertes polarisiertes faltendes neuronales Netz (CNN).
  • Erfindungsgemäß ist ein Verfahren zum Erfassen eines 3D-Bildes eines Gesichts bereitgestellt, wobei das Verfahren umfasst: Empfangen von einem oder mehreren Polarisationsrohbildern des Gesichts, wobei das eine oder die mehreren Polarisationsrohbilder bei unterschiedlichen Polarisationen durch eine Polarisationskamera erfasst wurden; Extrahieren von geschätzten Polarisationsmerkmalen aus dem einen oder den mehreren Polarisationsrohbildern; Erzeugen von geschätzten Oberflächennormalen basierend auf den geschätzten Polarisationsmerkmalen, Erzeugen einer anfänglichen Grobtiefenkarte des Gesichts; Verfeinern der geschätzten Polarisationsmerkmale und der anfänglichen Grobtiefenkarte, um verfeinerte Polarisationsmerkmale und eine verfeinerte Tiefenkarte zu erzeugen; Erzeugen korrigierter Oberflächennormalen basierend auf den verfeinerten Polarisationsmerkmalen und der verfeinerten Tiefenkarte; und Erzeugen einer 3D-Rekonstruktion des Gesichts basierend auf den korrigierten Oberflächennormalen.
  • In einigen Ausführungsformen umfasst das Erzeugen der anfänglichen Grobtiefenkarte des Gesichts: Empfangen eines 2D-Farbbildes des Gesichtes; und Berechnen der anfänglichen Grobtiefenkarte basierend auf dem 2D-Farbbild des Gesichts.
  • In einigen Ausführungsformen umfasst das Erzeugen der anfänglichen Grobtiefenkarte des Gesichts: Empfangen eines 3D-Modells eines generischen menschlichen Gesichts; und Erzeugen der anfänglichen Grobtiefenkarte basierend auf dem 3D-Modell des generischen menschlichen Gesichts.
  • In einigen Ausführungsformen umfasst das Verfahren ferner: Bereitstellen der geschätzten Oberflächennormalen und der korrigierten Oberflächennormalen für ein neuronales Netz zur Gesichtsrekonstruktion als einen Satz von Trainingsdaten.
  • Gemäß einiger Ausführungsformen der vorliegenden Erfindung ist ein Verfahren zum Berechnen einer Vorhersage bereitgestellt, wobei das Verfahren umfasst: Empfangen eines Oberflächennormalen-Bildes, das einem Objekt entspricht, wobei das Oberflächennormalen-Bild Oberflächennormalen-Informationen für jedes Pixel des Bildes umfasst; und Berechnen der Vorhersage basierend auf dem Oberflächennormalen-Bild.
  • In einigen Ausführungsformen kodieren ein roter Farbwert, ein grüner Farbwert und blaue Farbwerte eines Pixels des Oberflächennormalen-Bildes eine x-Achsenkomponente, eine y-Achsenkomponente und eine z-Achsenkomponente einer Oberflächennormalen des Objekts an dem Pixel.
  • In einigen Ausführungsformen die roten, grünen und blauen Farbwerte des Pixels jeweils die x-Achsen-Komponente, die y-Achsen-Komponente und die z-Achsen-Komponente der Oberflächennormalen des Objekts an dem Pixel sind.
  • In einigen Ausführungsformen ist die Vorhersage ein Wahrscheinlichkeitsvektor, wobei das Berechnen der Vorhersage das Liefern des Oberflächennormalen-Bildes an einen trainierten Klassifikator umfasst, und wobei der trainierte Klassifikator konfiguriert ist, um Bildcharakteristiken des Oberflächennormalen-Bildes zu identifizieren und den Wahrscheinlichkeitsvektor auszugeben, wobei jedes Element des Wahrscheinlichkeitsvektors ein Wahrscheinlichkeitswert ist, der einer der möglichen Bildcharakteristiken entspricht.
  • In einigen Ausführungsformen umfasst der trainierte Klassifikator eine Vielzahl von statistischen Modellen, die den möglichen Bildcharakteristiken entsprechen.
  • In einigen Ausführungsformen umfassen die Bildcharakteristiken Gesichtsausdrücke oder Objekttypen.
  • In einigen Ausführungsformen umfasst das Objekt ein Fahrzeug, ein Gesicht oder einen Körper.
  • KURZBESCHREIBUNG DER ZEICHNUNGEN
  • Die beigefügten Zeichnungen veranschaulichen zusammen mit der Beschreibung Beispielausführungsformen der vorliegenden Offenbarung und dienen zusammen mit der Beschreibung zur Erläuterung der Prinzipien der vorliegenden Offenbarung.
    • 1A ist ein schematisches Blockdiagramm eines Systems, das eine Polarisationskamera verwendet gemäß einigen Ausführungsformen der vorliegenden Erfindung.
    • 1B ist eine perspektivische Ansicht eines Polarisationskameramoduls gemäß einigen Ausführungsformen der vorliegenden Offenbarung.
    • 1C ist eine Querschnittsansicht eines Teils eines Polarisationskameramoduls gemäß einer Ausführungsform der vorliegenden Offenbarung.
    • 1D ist eine perspektivische Ansicht eines Stereo-Polarisationskamerasystems gemäß einer Ausführungsform der vorliegenden Offenbarung.
    • 2A, 2B, 2C und 2D stellen den Hintergrund zur Veranschaulichung der Segmentierungskarten bereit, die durch einen vergleichenden Ansatz und semantische Segmentierung oder Instanzsegmentierung basierend auf Polarisationsrohbildern gemäß Aspekten von Ausführungsformen der vorliegenden Offenbarung berechnet wurden.
    • 3 ist eine übersichtliche Darstellung der Interaktion von Licht mit transparenten und nicht transparenten Objekten.
    • 4 ist ein Flussdiagramm eines Verfahrens zum Schätzen von Polarisationsmerkmalen bei Parallaxenmehrdeutigkeit gemäß einer Ausführungsform der vorliegenden Offenbarung.
    • 5A ist eine perspektivische Ansicht eines multispektralen Stereo-Polarisationskamerasystems gemäß einer Ausführungsform der vorliegenden Offenbarung.
    • 5B ist eine Ansicht eines multispektralen Stereo-Polarisationskamerasystems gemäß einer Ausführungsform der vorliegenden Offenbarung entlang einer Richtung parallel zur optischen Achse des multispektralen Stereo-Polarisationskamerasystems.
    • 5C zeigt geschnittene Seitenansichten von beispielhaften einzelnen Polarisationskameras eines multispektralen Stereo-Polarisationskamerasystems gemäß einer Ausführungsform der vorliegenden Offenbarung.
    • 6A ist ein Blockdiagramm der Verarbeitungsschaltung 100 zum Berechnen von Oberflächencharakterisierungsausgaben basierend auf Polarisationsdaten gemäß einer Ausführungsform der vorliegenden Erfindung.
    • 6B ist ein Flussdiagramm eines Verfahrens 600 zum Durchführen einer Oberflächencharakterisierung basierend auf Eingangsbildern zum Berechnen einer Oberflächencharakterisierungsausgabe gemäß einer Ausführungsform der vorliegenden Erfindung.
    • 7A ist ein Blockdiagramm eines Merkmalsextraktors 700 gemäß einer Ausführungsform der vorliegenden Erfindung.
    • 7B ist ein Flussdiagramm, das ein Verfahren gemäß einer Ausführungsform der vorliegenden Erfindung zur Extraktion von Merkmalen aus Polarisationsrohbildern darstellt.
    • 8A ist eine Illustration einer griechischen Büstenstatue, die von einer beispielhaften Implementierung der in dieser Erfindung vorgeschlagenen Bildgebungseinrichtung gescannt wird.
    • 8B ist ein Flussdiagramm eines Verfahrens zur 3D-Oberflächenrekonstruktion mittels Polarisation gemäß einer Ausführungsform der vorliegenden Offenbarung.
    • 9A ist eine Illustration einer flachen Oberfläche mit dem Brechungsindex n, die von einer beispielhaften Implementierung der Bildgebungseinrichtung gemäß einer Ausführungsform der vorliegenden Erfindung abgetastet wird.
    • 9B ist ein Flussdiagramm eines Verfahrens zur 3D-Oberflächenrekonstruktion von flachen oder geometrisch einfachen Oberflächen unter Verwendung von Polarisation gemäß einer Ausführungsform der vorliegenden Offenbarung.
    • 10A ist ein Blockdiagramm von verschiedenen Komponenten des Oberflächenprofilometriesystem gemäß einigen Ausführungsformen der vorliegenden Offenbarung.
    • 10B ist ein schematisches Diagramm zur Veranschaulichung der räumlichen Beziehung zwischen dem einen oder mehreren Polarisationskameramodulen des Oberflächenprofilometriesystems und dem Druckbett gemäß einigen Ausführungsformen der vorliegenden Offenbarung.
    • 10C ist ein Flussdiagramm zur Veranschaulichung eines Verfahrens zum Erweitern eines aktiven Abtastsystems unter Verwendung von Polarisation gemäß einer Ausführungsform der vorliegenden Offenbarung.
    • 11A veranschaulicht das 3D-Bildgebungssystem, das ein neuronales Netz für die 3D-Rekonstruktion verwendet, gemäß einigen Ausführungsformen der vorliegenden Offenbarung.
    • 11B veranschaulicht das 3D-Bildgebungssystem, das eine Grobtiefenkarte für die 3D-Rekonstruktion verwendet, gemäß einigen Ausführungsformen der vorliegenden Offenbarung.
    • 12 ist ein Blockdiagramm eines Prädiktors gemäß einer Ausführungsform der vorliegenden Erfindung.
  • DETAILLIERTE BESCHREIBUNG
  • Die nachstehende detaillierte Beschreibung ist als Beschreibung von Beispielen für ein System und ein Verfahren zur 3D-Bildgebung und -Verarbeitung unter Verwendung von Lichtpolarisation gedacht, die in Übereinstimmung mit der vorliegenden Offenbarung bereitgestellt werden, und soll nicht die einzigen Formen darstellen, in denen die vorliegende Offenbarung konstruiert oder verwendet werden kann. In der Beschreibung werden die Merkmale der vorliegenden Offenbarung in Verbindung mit den dargestellten Ausführungsformen dargelegt. Es versteht sich jedoch von selbst, dass dieselben oder gleichwertige Funktionen und Strukturen auch durch andere Ausführungsformen erreicht werden können, die ebenfalls in den Anwendungsbereich der Offenbarung fallen sollen. Wie an anderer Stelle in diesem Dokument angegeben, sollen gleiche Elementnummern auf gleiche Elemente oder Merkmale hinweisen.
  • 1A ist ein schematisches Blockdiagramm eines Systems, das ein Polarisationskamerasystem gemäß einigen Ausführungsformen der vorliegenden Erfindung verwendet. In der in 1A gezeigten Anordnung enthält eine Szene 1 transparente Objekte 2 (z. B. eine Kugel wie eine Glasmurmel, einen Zylinder wie ein Trinkglas oder einen Becher und eine Ebene wie eine Scheibe aus transparentem Acryl), die vor undurchsichtigen matten Objekten 3 (z. B. einem Baseball und einem Tennisball) angeordnet sind. Eine Polarisationskamera 10 hat ein Objektiv 12 mit einem Sichtfeld, wobei das Objektiv 12 und die Kamera 10 so ausgerichtet sind, dass das Sichtfeld die Szene 1 umfasst. Das Objektiv 12 ist konfiguriert, um Licht (z. B. fokussiertes Licht) von der Szene 1 auf ein lichtempfindliches Medium wie einen Bildsensor 14 (z. B. einen CMOS-Bildsensor (Complementary Metal Oxide Semiconductor) oder einen CCD-Bildsensor (Charge-Coupled Device)) zu richten.
  • Die Polarisationskamera 10 umfasst ferner einen Polarisator oder einen Polarisationsfilter oder eine Polarisationsmaske 16, die im optischen Pfad zwischen der Szene 1 und dem Bildsensor 14 angeordnet ist. Gemäß einigen Ausführungsformen der vorliegenden Offenbarung ist der Polarisator oder die Polarisationsmaske 16 konfiguriert, um die Polarisationskamera 10 zu befähigen, Bilder der Szene 1 zu erfassen, wobei der Polarisator in verschiedenen spezifizierten Winkeln eingestellt ist (z. B. bei 45°-Drehungen oder bei 60°-Drehungen oder bei ungleichmäßig beabstandeten Drehungen).
  • Als ein Beispiel zeigt 1A eine Ausführungsform, bei der die Polarisationsmaske 16 ein Polarisationsmosaik ist, das mit dem Pixelraster des Bildsensors 14 in einer Weise ausgerichtet ist, die einem Rot-Grün-Blau (RGB)-Farbfilter (z. B. einem Bayer-Filter) einer Farbkamera ähnelt. Ähnlich wie ein Farbfilter-Mosaik filtert eintreffendes Licht basierend auf der Wellenlänge, so dass jedes Pixel im Bildsensor 14 Licht in einem bestimmten Bereich des Spektrums (z. B., Rot, Grün oder Blau) entsprechend dem Muster der Farbfilter des Mosaiks empfängt, filtert eine Polarisationsmaske 16, die ein Polarisationsmosaik verwendet, Licht basierend auf der linearen Polarisation, so dass verschiedene Pixel Licht in verschiedenen Winkeln der linearen Polarisation empfangen (z. B. bei 0°, 45°, 90° und 135° oder bei 0°, 60° und 120°). Dementsprechend kann die Polarisationskamera 10 mit einer Polarisationsmaske 16, wie sie in 1A dargestellt ist, gleichzeitig Licht mit vier verschiedenen linearen Polarisationen erfassen. Ein Beispiel für eine Polarisationskamera ist die Blackfly® S Polarisationskamera der Firma FLIR® Systems, Inc. aus Wilsonville, Oregon.
  • Während sich die obige Beschreibung auf einige mögliche Implementierungen einer Polarisationskamera mit einem Polarisationsmosaik bezieht, sind Ausführungsformen der vorliegenden Offenbarung nicht darauf beschränkt und umfassen andere Arten von Polarisationskameras, die in der Lage sind, Bilder mit mehreren verschiedenen Polarisationen zu erfassen. Beispielsweise kann die Polarisationsmaske 16 weniger als vier Polarisationen oder mehr als vier verschiedene Polarisationen aufweisen, oder sie kann Polarisationen in anderen Winkeln als den oben genannten aufweisen (z. B. in Polarisationswinkeln von: 0°, 60° und 120° oder bei Polarisationswinkeln von 0°, 30°, 60°, 90°, 120° und 150°). Als weiteres Beispiel kann die Polarisationsmaske 16 unter Verwendung einer elektronisch gesteuerten Polarisationsmaske, wie z. B. einem elektrooptischen Modulator (der z. B. eine Flüssigkristallschicht enthalten kann), implementiert werden, wobei die Polarisationswinkel der einzelnen Pixel der Maske unabhängig voneinander gesteuert werden können, so dass verschiedene Bereiche des Bildsensors 14 Licht mit unterschiedlichen Polarisationen empfangen. Als weiteres Beispiel kann der elektrooptische Modulator konfiguriert sein, um Licht verschiedener linearer Polarisationen zu transmittieren, wenn verschiedene Bilder aufgenommen werden, z. B. so dass die Kamera Bilder aufnimmt, bei denen die Gesamtheit der Polarisationsmaske nacheinander auf verschiedene lineare Polarisationswinkel eingestellt ist (z. B. nacheinander eingestellt auf: 0 Grad; 45 Grad; 90 Grad; oder 135 Grad). Als weiteres Beispiel kann die Polarisationsmaske 16 einen Polarisationsfilter enthalten, der sich mechanisch dreht, so dass unterschiedliche Polarisationsrohbilder von der Polarisationskamera 10 erfasst werden, wenn der Polarisationsfilter mechanisch in Bezug auf das Objektiv 12 gedreht wird, um Licht mit unterschiedlichen Polarisationswinkeln zum Bildsensor 14 zu transmittieren. Während sich die obigen Beispiele auf die Verwendung eines linearen Polarisationsfilters beziehen, sind Ausführungsformen der vorliegenden Offenbarung nicht darauf beschränkt und umfassen auch die Verwendung von Polarisationskameras, die zirkulare Polarisationsfilter enthalten (z. B. lineare Polarisationsfilter mit einer Viertelwellenplatte). Dementsprechend verwendet eine Polarisationskamera in einigen Ausführungsformen der vorliegenden Offenbarung einen Polarisationsfilter, um mehrere Polarisationsrohbilder bei verschiedenen Polarisationen des Lichts zu erfassen, wie z. B. verschiedene lineare Polarisationswinkel und verschiedene zirkulare Polarisationen (z. B. die Händigkeit).
  • Folglich erfasst die Polarisationskamera 10 mehrere Eingangsbilder 18 (oder Polarisationsrohbilder) der Szene einschließlich der zu prüfenden Oberfläche 2 des zu prüfenden Objekts 1 (auch als beobachtetes Objekt bezeichnet). In einigen Ausführungsformen entspricht jedes der Polarisationsrohbilder 18 einem Bild, das hinter einem Polarisationsfilter oder Polarisator unter einem anderen Polarisationswinkel ϕpol (z. B. 0 Grad, 45 Grad, 90 Grad oder 135 Grad) aufgenommen wurde. Jedes der Polarisations-Rohbilder 18 wird im Wesentlichen aus der gleichen Pose in Bezug auf die Szene 1 aufgenommen (z. B. werden die Bilder, die mit dem Polarisationsfilter bei 0 Grad, 45 Grad, 90 Grad oder 135 Grad aufgenommen werden, alle von derselben Polarisationskamera 100 aufgenommen, die sich am gleichen Ort und in der gleichen Ausrichtung befindet), im Gegensatz zur Aufnahme der Polarisationsrohbilder von unterschiedlichen Orten und Ausrichtungen in Bezug auf die Szene. Die Polarisationskamera 10 kann konfiguriert sein, um Licht in einer Vielzahl verschiedener Bereiche des elektromagnetischen Spektrums zu erfassen, wie beispielsweise den für den Menschen sichtbaren Bereich des elektromagnetischen Spektrums, rote, grüne und blaue Bereiche des für den Menschen sichtbaren Spektrums sowie unsichtbare Bereiche des elektromagnetischen Spektrums wie Infrarot und Ultraviolett.
  • In einigen Ausführungsformen der vorliegenden Offenbarung, wie z. B. in einigen der oben beschriebenen Ausführungsformen, werden die verschiedenen Polarisationsrohbilder von derselben Polarisationskamera 10 erfasst und können daher von im Wesentlichen derselben Pose (z. B. Position und Ausrichtung) in Bezug auf die Szene 1 erfasst werden. Die Ausführungsformen der vorliegenden Offenbarung sind jedoch nicht darauf beschränkt. Beispielsweise kann sich eine Polarisationskamera 10 in Bezug auf die Szene 1 zwischen verschiedenen Polarisationsrohbildern bewegen (z. B. wenn verschiedene Polarisationsrohbilder, die verschiedenen Polarisationswinkeln entsprechen, zu verschiedenen Zeiten aufgenommen werden, wie im Fall eines mechanisch rotierenden Polarisationsfilters), entweder weil sich die Polarisationskamera 10 bewegt hat oder weil sich die Objekte 3 bewegt haben (z. B. wenn sich das Objekt auf einem sich bewegenden Fördersystem befindet). In einigen Ausführungsformen nehmen verschiedene Polarisationskameras Bilder des Objekts zu verschiedenen Zeitpunkten auf, jedoch aus im Wesentlichen derselben Pose in Bezug auf das Objekt (z. B. verschiedene Kameras, die Bilder derselben Oberfläche des Objekts an verschiedenen Punkten des Fördersystems aufnehmen). Dementsprechend werden in einigen Ausführungsformen der vorliegenden Offenbarung verschiedene Polarisationsrohbilder mit der Polarisationskamera 10 in verschiedenen Posen oder der gleichen relativen Pose in Bezug auf die Objekte 2 und 3, die in der Szene 1 abgebildet werden, aufgenommen.
  • Die Polarisationsrohbilder 18 werden einer Verarbeitungsschaltung 100 zugeführt, die im Folgenden näher beschrieben wird und die eine Charakterisierungsausgabe 20 basierend auf den Polarisationsrohbildern 18 berechnet. In der in 1A gezeigten Ausführungsform ist die Charakterisierungsausgabe 20 eine Instanzsegmentierungskarte, die Instanzen verschiedener Objekte 2 und 3 identifiziert, die in der Szene 1 vorhanden sind.
  • 1B ist eine perspektivische Ansicht eines Polarisationskameramoduls gemäß einigen Ausführungsformen der vorliegenden Offenbarung. 1C ist eine Querschnittsansicht eines Teils eines Polarisationskameramoduls gemäß einer Ausführungsform der vorliegenden Offenbarung.
  • Einige Aspekte der Ausführungsformen der vorliegenden Offenbarung beziehen sich auf ein Polarisationskameramodul, bei dem mehrere Polarisationskameras (z. B. mehrere Kameras, bei denen jede Kamera einen Polarisationsfilter in ihrem optischen Pfad hat) nebeneinander und in einem Array angeordnet sind und gesteuert werden können, um Bilder in einer Gruppe aufzunehmen (z. B. kann ein einziger Auslöser verwendet werden, um alle Kameras in dem System zu steuern, um Bilder gleichzeitig oder im Wesentlichen gleichzeitig aufzunehmen). Die Polarisationsfilter in den optischen Pfaden der einzelnen Kameras im Array bewirken, dass unterschiedlich polarisiertes Licht die Bildsensoren der Kameras erreicht. Die einzelnen Polarisationskameras im Kamerasystem haben optische Achsen, die im Wesentlichen senkrecht zueinander stehen, nebeneinander angeordnet sind (so, dass die Parallaxenverschiebung zwischen den Kameras im Wesentlichen vernachlässigbar ist, basierend auf dem geplanten Betriebsabstand des Kamerasystems zu Objekten in der Szene, wobei größere Abstände zwischen den Kameras toleriert werden können, wenn der geplante Betriebsabstand groß ist), und im Wesentlichen das gleiche Sichtfeld haben, so dass die Kameras im Kamerasystem im Wesentlichen die gleiche Ansicht einer Szene 1 erfassen, jedoch mit unterschiedlichen Polarisationen.
  • In der in 1B gezeigten Ausführungsform des Polarisationskameramoduls 10' sind beispielsweise vier Kameras 10A', 10B', 10C' und 10D' in einem 2x2-Raster angeordnet, um ein Kamera-Array oder Kamerasystem zu bilden, wobei die vier Kameras im Wesentlichen parallele optische Achsen haben. Die vier Kameras können gemeinsam gesteuert werden, so dass sie Bilder im Wesentlichen gleichzeitig und mit den gleichen Belichtungseinstellungen aufnehmen (z. B. gleiche Blende, Belichtungsdauer und Verstärkung oder „ISO“-Einstellungen). In verschiedenen Ausführungsformen der vorliegenden Offenbarung enthält jede der separaten Kameras 10A', 10B', 10C' und 10D' einen anderen Polarisationsfilter.
  • 1C zeigt eine Querschnittsansicht von zwei der in 1B gezeigten Polarisationskameras 10A' und 10B'. Wie in 1C zu sehen ist, umfasst jedes Polarisationskamerasystem (10A' und 10B') ein entsprechendes Objektiv, einen entsprechenden Bildsensor und einen entsprechenden Polarisationsfilter. Insbesondere umfasst die Polarisationskamera 10A' das Objektiv 12A', den Bildsensor 14A' und den Polarisationsfilter 16A'. Ebenso umfasst die Polarisationskamera 10B' das Objektiv 12B', den Bildsensor 14B' und den Polarisationsfilter 16B'.
  • In einigen Ausführungsformen der vorliegenden Offenbarung hat jede der Kameras in dem Kamerasystem 10' einen entsprechenden Polarisationsfilter, der so konfiguriert ist, dass er unterschiedlich polarisiertes Licht filtert. Zum Beispiel in der Ausführungsform, die in 1B und 1C dargestellt ist, kann der Polarisationsfilter 16A' der Kamera 10A' ein linearer Polarisationsfilter sein, der in einem Winkel von 0° ausgerichtet ist, der Polarisationsfilter 16B' der Kamera 10B' kann ein linearer Polarisationsfilter sein, der in einem Winkel von 45° ausgerichtet ist, Polarisationsfilter 16C' der Kamera 10C' kann ein linearer Polarisationsfilter sein, der in einem Winkel von 90° ausgerichtet ist, und der Polarisationsfilter 16D' der Kamera 10D' kann ein linearer Polarisationsfilter sein, der in einem Winkel von 135° ausgerichtet ist. In einigen Ausführungsformen können eine oder mehrere der Kameras einen Zirkularpolarisator umfassen. In einigen Ausführungsformen der vorliegenden Offenbarung umfasst das Kamerasystem 10' Polarisationsfilter, die so konfiguriert sind, dass sie Licht in mindestens zwei verschiedenen Polarisationen filtern. In einigen Ausführungsformen der vorliegenden Offenbarung umfasst das Kamerasystem 10' Polarisationsfilter, die konfiguriert sind, um Licht in mindestens drei verschiedenen Polarisationen zu filtern.
  • Obwohl in 1C nicht dargestellt, kann in einigen Ausführungsformen der vorliegenden Offenbarung jede Polarisationskamera auch einen Farbfilter mit einem Mosaikmuster, wie z. B. einen Bayer-Filter, umfassen, so dass einzelne Pixel der Bildsensoren 14 Licht empfangen, das z. B. roten (R), grünen (G) und blauen (B) Bereichen des Spektrums entspricht, so dass jede Kamera Licht in einem sichtbaren Bereich des elektromagnetischen Spektrums in Übereinstimmung mit einem Mosaikmuster erfasst. In einigen Ausführungsformen wird ein Demosaikierungsprozess verwendet, um separate rote, grüne und blaue Kanäle aus den Rohdaten zu berechnen. In einigen Ausführungsformen der vorliegenden Offenbarung kann jede Polarisationskamera ohne Farbfilter oder mit Filtern verwendet werden, die verschiedene andere Bereiche des elektromagnetischen Spektrums, wie z. B. Infrarotlicht, transmittieren oder selektiv transmittieren.
  • 1D ist eine perspektivische Ansicht eines Stereo-Polarisationskamerasystems gemäß einer Ausführungsform der vorliegenden Offenbarung. In einigen Anwendungen werden Stereo-Vision-Techniken verwendet, um mehrere Bilder einer Szene aus verschiedenen Perspektiven zu erfassen. Wie oben erwähnt, werden in einigen Ausführungsformen der vorliegenden Offenbarung einzelne Polarisationskameras innerhalb eines Kamerasystems so nebeneinander angeordnet, dass Parallaxenverschiebungen zwischen den Kameras aufgrund des vorgesehenen Betriebsabstands des Kamerasystems zu den abzubildenden Objekten im Wesentlichen vernachlässigbar sind. Bei Stereo-Polarisationskamerasystemen sind einige der einzelnen Polarisationskameras so voneinander beabstandet, dass Parallaxenverschiebungen signifikant sind und für Objekte innerhalb des vorgesehenen Betriebsabstands des Kamerasystems erkannt werden können. Dies ermöglicht es, die Entfernungen zu verschiedenen Oberflächen in einer Szene (die „Tiefe“) in Abhängigkeit von der Größe einer Parallaxenverschiebung zu ermitteln (z. B. zeigen größere Parallaxenverschiebungen in den Positionen entsprechender Bereiche der Bilder an, dass sich diese entsprechenden Bereiche auf Oberflächen befinden, die näher am Kamerasystem liegen, und kleinere Parallaxenverschiebungen zeigen an, dass sich die entsprechenden Bereiche auf Oberflächen befinden, die weiter vom Kamerasystem entfernt sind). Diese Techniken zur Berechnung der Tiefe auf der Grundlage von Parallaxenverschiebungen werden manchmal als Tiefe aus Stereo bezeichnet.
  • Dementsprechend zeigt 1D ein Stereo-Polarisationskamerasystem 10" mit einem ersten Polarisationskameramodul 10-1" und einem zweiten Polarisationskameramodul 10-2'', die im Wesentlichen parallele optische Achsen haben und entlang einer Grundlinie 10-B beabstandet sind. In der in 1D gezeigten Ausführungsform umfasst das erste Polarisationskameramodul 10-1" die Polarisationskameras 10A'', 10B'', 10C'' und 10D'', die in einer 2x2-Anordnung ähnlich der in 1B und 1C gezeigten angeordnet sind. Ebenso ist das zweite Polarisationskameramodul 10-2'' und umfasst die Polarisationskameras 10E'', 10F'', 10G'' und 10H'' in einem 2x2-Array angeordnet, und das gesamte Stereo-Polarisationskameramodul 10'' umfasst acht einzelne Polarisationskameras (z. B., acht separate Bildsensoren hinter acht separaten Objektiven). In einigen Ausführungsformen der vorliegenden Offenbarung sind die entsprechenden Polarisationskameras der Polarisationskameramodule 10-1'' und 10-2'' konfiguriert, um Polarisationsrohbilder mit im Wesentlichen denselben Polarisationen zu erfassen. Zum Beispiel können die Kameras 10A'' und 10E'' beide lineare Polarisationsfilter mit dem gleichen Winkel von 0° haben, die Kameras 10B'' und 10F'' können beide lineare Polarisationsfilter mit dem gleichen Winkel von 45° haben, die Kameras 10C'' und 10G'' können beide lineare Polarisationsfilter mit einem gleichen Winkel von 90° haben, und die Kameras 10D'' und 10H'' können beide lineare Polarisationsfilter mit einem gleichen Winkel von 135° haben.
  • Ausführungsformen der vorliegenden Offenbarung sind nicht auf die in 1D gezeigte besondere Ausführungsform beschränkt. In einigen Ausführungsformen umfasst ein Stereo-Polarisationskamerasystem drei oder mehr Polarisationskameramodule, wobei jedes Polarisationskameramodul mehrere Polarisationskameras umfasst, die in einem Array angeordnet sind und konfiguriert sind unter Verwendung von Polarisationsfiltern Polarisationsrohbilder unterschiedlicher Polarisationen zu erfassen. Wie oben erwähnt, können in einigen Ausführungsformen der vorliegenden Offenbarung eine oder mehrere der einzelnen Polarisationskameras eines Polarisationskameramoduls einen Farbfilter enthalten, und als solche können eine oder mehrere der Polarisationskameras in einem Stereo-Polarisationskameramodul auch einen Farbfilter enthalten.
  • In einigen Ausführungsformen der vorliegenden Offenbarung umfasst ein Stereo-Polarisationskamerasystem eine Vielzahl von Polarisationskameramodulen, die entlang einer oder mehrerer Grundlinien voneinander beabstandet sind, wobei jedes der Polarisationskameramodule eine einzelne Polarisationskamera umfasst, die konfiguriert ist, um Polarisationsrohbilder mit unterschiedlichen Polarisationen zu erfassen, in Übereinstimmung mit Ausführungsformen wie der oben in Bezug auf 1A beschriebenen. In einigen Ausführungsformen der vorliegenden Offenbarung kann die Polarisationskamera jedes Moduls beispielsweise eine Polarisationsmaske enthalten (z. B. ähnlich der in 1A gezeigten Polarisationsmaske), so dass jede einzelne Polarisationskamera Bilder erfasst, bei denen die Pixel Licht gemäß einem Mosaikmuster verschiedener Polarisationsfilter (z. B. Polarisationsfilter mit unterschiedlichen Winkeln) erfassen. In der in 1A dargestellten Ausführungsform enthält beispielsweise jeder 2×2-Block von Pixeln der Polarisationsmaske lineare Polarisatoren mit linearen Polarisationswinkeln von 0°, 45°, 90° und 135°. In anderen Ausführungsformen der vorliegenden Offenbarung können die einzelnen Polarisationskameras mechanisch oder elektronisch steuerbare Polarisationsfilter enthalten, wie oben in Bezug auf 1A beschrieben, damit die Polarisationskameras Polarisationsrohbilder verschiedener Polarisationen erfassen können.
  • Während die obigen Ausführungsformen spezifizieren, dass die einzelnen Polarisationskameramodule oder die Polarisationskameras, die entlang einer oder mehrerer Grundlinien in dem Stereo-Polarisationskamerasystem voneinander beabstandet sind, im Wesentlichen parallele optische Achsen haben, sind die Ausführungsformen der vorliegenden Offenbarung nicht darauf beschränkt. Beispielsweise sind in einigen Ausführungsformen der vorliegenden Offenbarung die optischen Achsen der Polarisationskameramodule zueinander abgewinkelt, so dass die Polarisationskameramodule unterschiedlich abgewinkelte Ansichten von Objekten im vorgesehenen Arbeitsabstand liefern (z. B. dort, wo sich die optischen Achsen in der Nähe des vorgesehenen Arbeitsabstands vom Stereokamerasystem kreuzen oder schneiden).
  • 2A, 2B, 2C und 2D stellen den Hintergrund zur Veranschaulichung der Segmentierungskarten bereit, die durch einen vergleichenden Ansatz und semantische Segmentierung oder Instanzsegmentierung basierend auf Polarisationsrohbildern gemäß den Aspekten der Ausführungsformen der vorliegenden Offenbarung berechnet werden. 2A ist ein Bild oder ein Intensitätsbild einer Szene mit einer echten transparenten Kugel, die auf einem Fotoausdruck platziert ist, der eine andere Szene mit zwei transparenten Kugeln („Spoofs“) und einigem Hintergrundrauschen zeigt. 2B zeigt eine Segmentierungsmaske, die von einem Maskenregionen-basierten faltenden neuronalen Netz (Mask R-CNN) berechnet wurde, das Instanzen von transparenten Kugeln identifiziert, die über das Intensitätsbild von 2A gelegt wurden, wobei verschiedene Linienmuster verwendet werden, wobei die echte transparente Kugel korrekt als Instanz identifiziert wird und die beiden Spoofs fälschlicherweise als Instanzen identifiziert werden. Mit anderen Worten, der Masken-R-CNN-Algorithmus wurde dazu verleitet, die beiden gefälschten transparenten Kugeln als Instanzen der tatsächlichen transparenten Kugeln in der Szene zu identifizieren.
  • 2C ist ein lineares Polarisationswinkelbild (AOLP), das aus Polarisationsrohbildern berechnet wurde, die gemäß einer Ausführungsform der vorliegenden Erfindung von der Szene aufgenommen wurden. Wie in 2C gezeigt, haben transparente Objekte eine sehr einzigartige Textur im Polarisationsraum wie der AOLP-Domäne, wo es eine geometrieabhängige Signatur an Kanten und ein ausgeprägtes oder einzigartiges oder besonderes Muster gibt, das auf den Oberflächen transparenter Objekte im Winkel der linearen Polarisation entsteht. Mit anderen Worten: Die intrinsische Textur des transparenten Objekts (z. B. im Gegensatz zur extrinsischen Textur, die von den durch das transparente Objekt sichtbaren Hintergrundflächen übernommen wird) ist im Polarisationswinkelbild von 2C besser sichtbar als im Intensitätsbild von 2A.
  • 2D zeigt das Intensitätsbild von 2A mit einer überlagerten Segmentierungsmaske, wie sie unter Verwendung von Polarisationsdaten gemäß einer Ausführungsform der vorliegenden Erfindung berechnet wird, wobei der echte transparente Ball korrekt als Instanz unter Verwendung eines überlagerten Linienmusters identifiziert wird und die beiden Spoofs korrekt als Instanzen ausgeschlossen werden (z. B. enthält 2D im Gegensatz zu 2B keine überlagerten Linienmuster über den beiden Spoofs). Während 2A, 2B, 2C und 2D ein Beispiel für die Erkennung eines echten transparenten Objekts bei Vorhandensein von gefälschten transparenten Objekten zeigen, sind Ausführungsformen der vorliegenden Offenbarung nicht darauf beschränkt und können auch auf andere optisch schwierige Objekte angewandt werden, wie z. B. transparente, lichtdurchlässige und nicht matte oder nicht lambertianische Objekte sowie nicht reflektierende (z. B. matte schwarze Objekte) und mehrweginduzierende Objekte.
  • Dementsprechend beziehen sich einige Aspekte der Ausführungsformen der vorliegenden Offenbarung auf das Extrahieren von Tensoren im Darstellungsraum (oder ersten Tensoren in ersten Darstellungsräumen, wie z. B. Polarisationsmerkmalskarten) aus den Polarisationsrohbildern, die als Eingabe für Oberflächencharakterisierungsalgorithmen oder andere computerbasierte Seh-Algorithmen bereitgestellt werden. Diese ersten Tensoren im ersten Darstellungsraum können Polarisationsmerkmalskarten enthalten, die Informationen bezüglich der Polarisation des von der Szene empfangenen Lichts kodieren, wie das in 2C gezeigte AOLP-Bild, DOLP-Merkmalskarten (Grad der linearen Polarisation) und dergleichen (z. B. andere Kombinationen aus Stokes-Vektoren oder Transformationen einzelner Polarisationsrohbilder). In einigen Ausführungsformen werden diese Polarisationsmerkmalskarten zusammen mit Nicht-Polarisationsmerkmalskarten (z. B. Intensitätsbilder wie das in 2A gezeigte Bild) verwendet, um zusätzliche Informationskanäle für die Verwendung durch semantische Segmentierungsalgorithmen bereitzustellen.
  • Während Ausführungsformen der vorliegenden Erfindung nicht auf die Verwendung mit bestimmten computerbasierten Seh-Algorithmen für die Analyse von Bildern beschränkt sind, beziehen sich einige Aspekte der Ausführungsformen der vorliegenden Erfindung auf Deep-Learning-Frameworks für die polarisationsbasierte Erkennung von optisch anspruchsvollen Objekten (z. B. transparente, transluzente, nicht-lambertsche, mehrweginduzierende Objekte und nicht-reflektierende oder sehr dunkle Objekte), wobei diese Frameworks als polarisierte faltende neuronale Netze (polarisierte CNNs) bezeichnet werden können. Dieses polarisierte CNN-Framework enthält einen Backbone, der für die Verarbeitung der besonderen Textur der Polarisation geeignet ist und mit anderen computerbasierten Seh-Architekturen wie Mask R-CNN (z. B. zur Bildung einer Polarized Mask R-CNN-Architektur) gekoppelt werden kann, um eine Lösung für die genaue und robuste Charakterisierung von transparenten Objekten und anderen optisch schwierigen Objekten zu schaffen. Darüber hinaus kann dieser Ansatz auf Szenen mit einer Mischung aus transparenten und nicht-transparenten (z. B. undurchsichtigen Objekten) angewendet werden und kann zur Charakterisierung von transparenten, durchscheinenden, nicht-lambertschen, Mehrwege-induzierenden, dunklen und undurchsichtigen Oberflächen des oder der zu untersuchenden Objekte verwendet werden.
  • Darstellungsräume für Polarisationsmerkmale
  • Einige Aspekte von Ausführungsformen der vorliegenden Offenbarung beziehen sich auf Systeme und Verfahren zur Extraktion von Merkmalen aus Polarisationsrohbildern in Schritt 650, wobei diese extrahierten Merkmale in Schritt 690 bei der robusten Erkennung von optisch schwierigen Merkmalen in den Oberflächen von Objekten verwendet werden. Im Gegensatz dazu können vergleichende Verfahren, die sich allein auf Intensitätsbilder stützen, diese optisch schwierigen Merkmale oder Oberflächen nicht erkennen (z. B. beim Vergleich des Intensitätsbildes von 2A mit dem AOLP-Bild von 2C, wie oben beschrieben). Der Begriff „erste Tensoren“ in „ersten Darstellungsräumen“ wird hier verwendet, um sich auf Merkmale zu beziehen, die aus den von einer Polarisationskamera aufgenommenen Polarisationsrohbildern 18 berechnet (z. B. extrahiert) werden, wobei diese ersten Darstellungsräume zumindest Polarisationsmerkmalsräume umfassen (z. B. Merkmalsräume wie AOLP und DOLP, die Informationen über die Polarisation des vom Bildsensor erfassten Lichts enthalten) und können auch Nicht-Polarisations-Merkmalsräume umfassen (z. B. Merkmalsräume, die keine Informationen über die Polarisation des den Bildsensor erreichenden Lichts erfordern, wie z. B. Bilder, die nur basierend auf Intensitätsbildern berechnet werden, die ohne jegliche Polarisationsfilter erfasst wurden).
  • Die Wechselwirkung zwischen Licht und transparenten Objekten ist vielfältig und komplex, aber das Material eines Objekts bestimmt seine Transparenz bei sichtbarem Licht. Bei vielen transparenten Haushaltsgegenständen geht der größte Teil des sichtbaren Lichts direkt hindurch und ein kleiner Teil (~4% bis ~8%, je nach Brechungsindex) wird reflektiert. Das liegt daran, dass das Licht im sichtbaren Bereich des Spektrums nicht genügend Energie hat, um die Atome im transparenten Gegenstand anzuregen. Infolgedessen dominiert die Textur (z. B. das Aussehen) von Objekten, die sich hinter dem transparenten Objekt befinden (oder durch das transparente Objekt sichtbar sind), das Aussehen des transparenten Objekts. Betrachtet man beispielsweise eine transparente Glastasse oder einen Becher auf einem Tisch, so dominiert im Allgemeinen das Aussehen der Objekte auf der anderen Seite des Bechers (z. B. die Oberfläche des Tisches) das, was man durch die Tasse sieht. Diese Eigenschaft führt zu einigen Schwierigkeiten, wenn versucht wird, Oberflächenmerkmale von transparenten Objekten wie Glasfenstern und glänzenden, transparenten Farbschichten allein anhand von Intensitätsbildern zu erkennen.
  • 3 ist eine übersichtliche Darstellung der Wechselwirkung von Licht mit transparenten und nicht transparenten (z. B. diffusen und/oder reflektierenden) Objekten. Wie in 3 dargestellt, nimmt eine Polarisationskamera 10 Polarisationsrohbilder einer Szene auf, die ein transparentes Objekt 302 vor einem undurchsichtigen Hintergrundobjekt 303 umfasst. Ein Lichtstrahl 310, der auf den Bildsensor 14 der Polarisationskamera 10 trifft, enthält Polarisationsinformationen sowohl von dem transparenten Objekt 302 als auch von dem Hintergrundobjekt 303. Der kleine Anteil des vom transparenten Objekt 302 reflektierten Lichts 312 ist stark polarisiert und hat daher einen großen Einfluss auf die Polarisationsmessung, im Gegensatz zu dem Licht 313, das vom Hintergrundobjekt 303 reflektiert wird und durch das transparente Objekt 302 hindurchgeht.
  • In ähnlicher Weise kann ein Lichtstrahl, der auf die Oberfläche eines Objekts trifft, auf verschiedene Weise mit der Form der Oberfläche interagieren. Zum Beispiel kann sich eine Oberfläche mit einer glänzenden Farbe im Wesentlichen ähnlich verhalten wie ein transparentes Objekt vor einem undurchsichtigen Objekt, wie in 3 gezeigt, wo Wechselwirkungen zwischen dem Lichtstrahl und einer transparenten oder transluzenten Schicht (oder Klarlackschicht) der glänzenden Farbe dazu führen, dass das von der Oberfläche reflektierte Licht basierend auf den Charakteristiken der transparenten oder transluzenten Schicht (z. B. basierend auf der Dicke und den Oberflächennormalen der Schicht) polarisiert wird, die in dem auf den Bildsensor treffenden Lichtstrahl kodiert sind. Wie weiter unten in Bezug auf die Form-aus-Polarisation-Theorie (SfP) näher erläutert wird, können Variationen in der Form der Oberfläche (z. B. die Richtung der Oberflächennormalen) signifikante Veränderungen in der Polarisation des von der Oberfläche des Objekts reflektierten Lichts verursachen. Zum Beispiel können glatte Oberflächen im Allgemeinen die gleichen Polarisationseigenschaften umfassen, aber ein Kratzer oder eine Delle in der Oberfläche ändert die Richtung der Oberflächennormalen in diesen Bereichen, und Licht, das auf Kratzer oder Dellen trifft, kann anders polarisiert, abgeschwächt oder reflektiert werden als in anderen Bereichen der Oberfläche des Objekts. Modelle für die Wechselwirkungen zwischen Licht und Materie berücksichtigen im Allgemeinen drei grundlegende Aspekte: Geometrie, Beleuchtung und Material. Die Geometrie basiert auf der Form des Materials. Die Beleuchtung umfasst die Richtung und Farbe der Beleuchtung. Das Material kann durch den Brechungsindex oder die Winkelreflexion/- durchlässigkeit des Lichts parametrisiert werden. Diese Winkelreflexion wird als bidirektionale Reflexionsverteilungsfunktion (BRDF) bezeichnet, obwohl andere Funktionsformen bestimmte Szenarien genauer darstellen können. Zum Beispiel wäre die bidirektionale unterirdische Streuverteilungsfunktion (BSSRDF) im Zusammenhang mit Materialien, die eine unterirdische Streuung umfassen (z. B. Marmor oder Wachs), genauer.
  • Ein Lichtstrahl 310, der auf den Bildsensor 16 einer Polarisationskamera 10 trifft, hat drei messbare Komponenten: die Intensität des Lichts (Intensitätsbild/I), den Prozentsatz oder Anteil des Lichts, der linear polarisiert ist (Grad der linearen Polarisation/DOLP/p), und die Richtung dieser linearen Polarisation (Winkel der linearen Polarisation/AOLP/ϕ). Diese Eigenschaften kodieren Informationen über die Oberflächenkrümmung und das Material des abzubildenden Objekts, die vom Prädiktor 710 verwendet werden können, um transparente Objekte zu erkennen, wie im Folgenden näher beschrieben. In einigen Ausführungsformen kann der Prädiktor 710 andere optisch schwierige Objekte basierend auf ähnlichen Polarisationseigenschaften von Licht, das durch lichtdurchlässige Objekte hindurchgeht, und/oder Licht, das mit mehrweginduzierenden Objekten oder mit nicht reflektierenden Objekten (z. B. mattschwarzen Objekten) interagiert, erkennen.
  • Daher beziehen sich einige Aspekte von Ausführungsformen der vorliegenden Erfindung auf das Verwenden eines Merkmalsextraktors 700 zum Berechnen erster Tensoren in einem oder mehreren ersten Darstellungsräumen, die abgeleitete Merkmalskarten basierend auf der Intensität I, dem DOLP p und dem AOLP ϕ enthalten können. Der Merkmalsextraktor 700 kann im Allgemeinen Informationen in erste Darstellungsräume (oder erste Merkmalsräume) extrahieren, die Polarisationsdarstellungsräume (oder Polarisationsmerkmalsräume) umfassen, wie z. B. „Polarisationsbilder“, d. h. Bilder, die basierend auf den Polarisationsrohbildern extrahiert werden, die ansonsten nicht aus Intensitätsbildern berechnet werden könnten (z. B, Bilder, die von einer Kamera aufgenommen wurden, die keinen Polarisationsfilter oder einen anderen Mechanismus zum Erkennen der Polarisation des den Bildsensor erreichenden Lichts enthält), wobei diese Polarisationsbilder DOLP p-Bilder (im DOLP-Darstellungsraum oder Merkmalsraum), AOLP ϕ-Bilder (im AOLP-Darstellungsraum oder Merkmalsraum), andere Kombinationen der aus Stokes-Vektoren berechneten Polarisationsrohbilder sowie andere Bilder (oder allgemeiner erste Tensoren oder erste Merkmalstensoren) der aus Polarisationsrohbildern berechneten Informationen umfassen können. Die ersten Darstellungsräume können auch Nicht-Polarisations-Darstellungsräume wie den Intensitäts-I-Darstellungsraum umfassen.
  • Die Messung von Intensität I, DOLP ρ und AOLP ϕ an jedem Pixel erfordert drei oder mehr Polarisationsrohbilder einer Szene, die hinter Polarisationsfiltern (oder Polarisatoren) unter verschiedenen Winkeln ϕpol aufgenommen wurden (z. B. weil drei unbekannte Werte zu bestimmen sind: Intensität I, DOLP ρ und AOLP ϕ. Beispielsweise nimmt die oben beschriebene FLIR® Blackfly® S Polarisationskamera Polarisationsrohbilder mit Polarisationswinkeln ϕpol von 0 Grad, 45 Grad, 90 Grad oder 135 Grad auf, wodurch vier Polarisationsrohbilder Iϕpol entstehen, die hier als I0, I45, I90 und I135 bezeichnet werden.
  • Die Beziehung zwischen Iϕpol und der Intensität I, DOLP ρ und AOLP ϕ an jedem Pixel kann wie folgt ausgedrückt werden: I ϕ p o l = I ( 1 + ρ  cos ( 2 ( ϕ ϕ p o l ) ) )
    Figure DE112020004810B4_0001
  • Dementsprechend mit vier verschiedenen Polarisationsrohbildern Iϕpol (I0, I45, I90 und I135) kann ein System mit vier Gleichungen verwendet werden, um die Intensität I, DOLP ρ und AOLP ϕ zu bestimmen.
  • Form aus Polarisation (SfP) Theorie (siehe z.B. Gary A. Atkinson und Edwin R. Hancock. Recovery of surface orientation from diffuse polarization. IEEE transactions on image processing, 15(6): 1653-1664, 2006.) stellt fest, dass die Beziehung zwischen dem Brechungsindex (n), dem Azimutwinkel (θa) und dem Zenitwinkel (θz) der Oberflächennormalen eines Objekts und den ϕ- und ρ-Komponenten des von diesem Objekt kommenden Lichtstrahls den folgenden Merkmalen folgt, wenn diffuse Reflexion vorherrscht: ρ = ( n 1 n ) 2 sin 2 ( θ z ) 2 + 2 n 2 ( n + 1 n ) 2 sin 2 θ z + 4  cos  θ z n 2 sin 2 θ z
    Figure DE112020004810B4_0002
    ϕ = θ a
    Figure DE112020004810B4_0003
    und wenn die spiegelnde Reflexion dominant ist: ρ = 2  sin 2 θ z cos θ z n 2 sin 2 θ z n 2 sin 2 θ z n 2 sin 2 θ z + 2  sin 4 θ z
    Figure DE112020004810B4_0004
    ϕ = θ a π 2
    Figure DE112020004810B4_0005
  • Man beachte, dass in beiden Fällen p exponentiell zunimmt, wenn θz steigt, und dass bei gleichem Brechungsindex die spiegelnde Reflexion viel stärker polarisiert ist als die diffuse Reflexion.
  • Dementsprechend beziehen sich einige Aspekte von Ausführungsformen der vorliegenden Offenbarung auf die Anwendung der SfP-Theorie zur Erkennung der Formen von Oberflächen (z. B. der Ausrichtung von Oberflächen) auf der Grundlage der Polarisationsrohbilder 18 der Oberflächen. Dieser Ansatz ermöglicht es, die Formen von Objekten zu charakterisieren, ohne andere Computer-Seh-Techniken zum Bestimmen der Formen von Objekten zu verwenden, wie z. B. Time-of-Flight (ToF) Tiefenabtastung und/oder Stereo-Seh-Techniken, obwohl Ausführungsformen der vorliegenden Offenbarung in Verbindung mit solchen Techniken verwendet werden können.
  • Formal gesehen beziehen sich Aspekte der Ausführungsformen der vorliegenden Offenbarung auf die Berechnung erster Tensoren 50 in ersten Darstellungsräumen, einschließlich der Extraktion erster Tensoren in Polarisationsdarstellungsräumen, wie z. B. das Bilden von Polarisationsbildern (oder das Extrahieren abgeleiteter Polarisationsmerkmalskarten) im Verfahrensschritt 650 basierend auf Polarisationsrohbildern, die von einer Polarisationskamera 10 erfasst wurden.
  • Lichtstrahlen, die von einem transparenten Objekt kommen, haben zwei Komponenten: einen reflektierten Anteil, der die reflektierte Intensität Ir, das reflektierte DOLP ρr und das reflektierte AOLP ϕr umfasst, und den gebrochenen Anteil, der die gebrochene Intensität It, das gebrochene DOLP ρt und das gebrochene AOLP ϕt umfasst. Die Intensität eines einzelnen Pixels im resultierenden Bild kann wie folgt geschrieben werden: I = I r + I t
    Figure DE112020004810B4_0006
  • Wenn ein Polarisationsfilter mit einem linearen Polarisationswinkel Φpol vor der Kamera platziert ist, beträgt der Wert an einem gegebenen Pixel: I ϕ p o l = I r ( 1 + ρ r  cos ( 2 ( ϕ r ϕ p o l ) ) ) + I t ( 1 + ρ t  cos ( 2 ( ϕ t ϕ p o l ) ) )
    Figure DE112020004810B4_0007
  • Lösen des obigen Ausdrucks für die Werte eines Pixels in einem DOLP ρ Bild und eines Pixels in einem AOLP ϕ Bild in Form von Ir, ρr, ϕr, It, ρt, and ϕt: ρ = ( I r ρ r ) 2 + ( I t ρ t ) 2 + 2 I t ρ t I r ρ r cos ( 2 ( ϕ r ϕ t ) ) I r + I t
    Figure DE112020004810B4_0008
    ϕ = arctan ( I r ρ r sin ( 2 ( ϕ r ϕ t ) ) I t ρ t + I r ρ r cos ( 2 ( ϕ r ϕ t ) ) ) + ϕ r
    Figure DE112020004810B4_0009
  • Dementsprechend stellen die obigen Gleichungen (7), (8) und (9) ein Modell zum Bilden erster Tensoren 50 in ersten Darstellungsräumen bereit, die ein Intensitätsbild I, ein DOLP-Bild p und ein AOLP-Bild ϕ gemäß einer Ausführungsform der vorliegenden Offenbarung umfassen, wobei die Verwendung von Polarisationsbildern oder -tensoren in Polarisationsdarstellungsräumen (einschließlich eines DOLP-Bildes ρ und eines AOLP-Bildes ϕ auf der Grundlage der Gleichungen (8) und (9)) die zuverlässige Erkennung von optisch anspruchsvollen Oberflächencharakteristiken von Objekten ermöglicht, die im Allgemeinen von vergleichbaren Systemen, die nur Intensitätsbilder I als Eingabe verwenden, nicht erkannt werden können.
  • Genauer gesagt können erste Tensoren in Polarisationsdarstellungsräumen (unter den abgeleiteten Merkmalskarten 50) wie die Polarisationsbilder DOLP p und AOLP ϕ Oberflächencharakteristiken von Objekten aufzeigen, die sonst in einem Intensitäts-I-Bereich texturlos erscheinen würden. Ein transparentes Objekt kann eine Textur haben, die im Intensitätsbereich I unsichtbar ist, weil diese Intensität streng vom Verhältnis Ir/It abhängt (siehe Gleichung (6)). Im Gegensatz zu undurchsichtigen Objekten, bei denen It=0 ist, lassen transparente Objekte den größten Teil des einfallenden Lichts durch und reflektieren nur einen kleinen Teil des einfallenden Lichts. Ein weiteres Beispiel: Dünne oder kleine Abweichungen in der Form einer ansonsten glatten Oberfläche (oder glatte Abschnitte in einer ansonsten rauen Oberfläche) können im Intensitätsbereich I (z. B. einem Bereich, in dem die Polarisation des Lichts nicht berücksichtigt wird) im Wesentlichen unsichtbar sein oder einen geringen Kontrast umfassen, können aber in einem Polarisationsdarstellungsraum wie DOLP ρ oder AOLP ϕ sehr sichtbar sein oder einen hohen Kontrast umfassen.
  • Eine beispielhafte Methode zum Erfassen der Oberflächentopografie ist daher die Verwendung von Polarisationsmerkmalen in Verbindung mit geometrischer Regularisierung. Die Fresnel-Gleichungen setzen das AOLP ϕ und das DOLP ρ mit Oberflächennormalen in Beziehung. Diese Gleichungen können für die Erkennung von optisch schwierigen Objekten nützlich sein, indem sie die so genannten Polarisationsmuster der Oberfläche der optisch schwierigen Objekte ausnutzen. Ein Polarisationsmuster ist ein Tensor der Größe [M,N,K], wobei M und N die horizontalen bzw. vertikalen Pixeldimensionen sind und K der Polarisationsdatenkanal ist, der unterschiedlich groß sein kann. Wenn beispielsweise die zirkulare Polarisation ignoriert und nur die lineare Polarisation betrachtet wird, wäre K gleich zwei, da die lineare Polarisation sowohl einen Winkel als auch einen Polarisationsgrad (AOLP ϕ und DOLP ρ) hat. Analog zu einem Moire-Muster extrahiert das Merkmalsextraktionsmodul 700 in einigen Ausführungsformen der vorliegenden Offenbarung ein Polarisationsmuster in Polarisationsdarstellungsräumen (z. B. AOLP-Raum und DOLP-Raum).
  • Während die vorangegangene Diskussion spezifische Beispiele für Polarisationsdarstellungsräume basierend auf linearer Polarisation für den Fall liefert, dass eine Polarisationskamera mit einem oder mehreren linearen Polarisationsfiltern verwendet wird, um Polarisationsrohbilder zu erfassen, die verschiedenen Winkeln der linearen Polarisation entsprechen, und um Tensoren in linearen Polarisationsdarstellungsräumen wie DOLP und AOLP zu berechnen, sind die Ausführungsformen der vorliegenden Offenbarung nicht darauf beschränkt. In einigen Ausführungsformen der vorliegenden Offenbarung umfasst eine Polarisationskamera beispielsweise einen oder mehrere zirkulare Polarisationsfilter, die konfiguriert sind, um nur zirkular polarisiertes Licht durchzulassen, und bei denen Polarisationsmuster oder erste Tensoren im zirkularen Polarisationsdarstellungsraum weiter aus den Polarisationsrohbildern extrahiert werden. In einigen Ausführungsformen werden diese zusätzlichen Tensoren im zirkularen Polarisationsdarstellungsraum allein verwendet, und in anderen Ausführungsformen werden sie zusammen mit den Tensoren in linearen Polarisationsdarstellungsräumen wie AOLP und DOLP verwendet. Zum Beispiel kann ein Polarisationsmuster, das Tensoren in Polarisationsdarstellungsräumen umfasst, Tensoren im zirkularen Polarisationsraum, AOLP und DOLP umfassen, wobei das Polarisationsmuster die Dimensionen [M,N,K] haben kann, wobei K drei ist, um den Tensor im zirkularen Polarisationsdarstellungsraum weiter einzuschließen.
  • Dementsprechend beziehen sich einige Aspekte von Ausführungsformen der vorliegenden Offenbarung auf das Bereitstellen von ersten Tensoren in den ersten Darstellungsräumen (z. B. einschließlich Merkmalskarten in Polarisationsdarstellungsräumen), die aus Polarisationsrohbildern extrahiert wurden, als Eingaben für einen Prädiktor zum Berechnen oder Erkennen von Oberflächencharakteristiken von transparenten Objekten und/oder anderen optisch schwierigen Oberflächencharakteristiken von untersuchten Objekten. Diese ersten Tensoren können abgeleitete Merkmalskarten enthalten, die eine Intensitätsmerkmalskarte I, eine Merkmalskarte des linearen Polarisationsgrads (DOLP) p und eine Merkmalskarte des linearen Polarisationswinkels (AOLP) ϕ umfassen können, wobei die Merkmalskarte DOLP ρ und die Merkmalskarte AOLP ϕ Beispiele für Polarisationsmerkmalskarten oder -tensoren in Polarisationsdarstellungsräumen sind, die sich auf Merkmalskarten beziehen, die Informationen bezüglich der Polarisation des von einer Polarisationskamera erfassten Lichts kodieren.
  • In einigen Ausführungsformen werden die Merkmalskarten oder Tensoren in Polarisationsdarstellungsräumen beispielsweise als Eingabe für Erkennungsalgorithmen bereitgestellt, die die SfP-Theorie nutzen, um die Form von Oberflächen von Objekten zu charakterisieren, die von den Polarisationskameras 10 erfasst werden. In einigen Ausführungsformen werden beispielsweise im Fall der diffusen Reflexion die Gleichungen (2) und (3) verwendet, um den Zenitwinkel (θz) und den Azimutwinkel (θa) der Oberflächennormalen einer Oberfläche in der Szene auf der Grundlage des DOLP p und des Brechungsindex n zu berechnen. Ebenso werden im Fall der spiegelnden Reflexion die Gleichungen (3) und (5) zur Berechnung des Zenitwinkels (θz) und des Azimutwinkels (θa) der Oberflächennormalen einer Oberfläche in der Szene auf der Grundlage des DOLP p und des Brechungsindex n verwendet. Ein Beispiel für eine geschlossene Formlösung zur Berechnung des Zenitwinkels (θz) basierend auf Gleichung (2) gemäß einer Ausführungsform der vorliegenden Offenbarung in Übereinstimmung mit den folgenden Schritten: a a = ( n 1 n ) 2 + ρ ( n + 1 n ) 2
    Figure DE112020004810B4_0010
    b b = 4 ρ ( n 2 + 1 ) ( a a 4 ρ )
    Figure DE112020004810B4_0011
    c c = b b 2 + 16 ρ 2 ( 16 ρ 2 a a 2 ) ( n 2 1 ) 2
    Figure DE112020004810B4_0012
    d d = b b c c 2 ( 16 ρ 2 a a 2 )
    Figure DE112020004810B4_0013
    θ Z = a  sin  d d
    Figure DE112020004810B4_0014
  • Weitere Einzelheiten zur Berechnung von Oberflächennormalen auf der Grundlage von Polarisationsrohbildern sind beispielsweise in US 2016 / 0 261 844 A1 und US 2019 / 0 186 901 A1 und Kadambi, A. [et al.], Polarized 3D: High-Quality Depth Sensing with Polarization Cues, 2015 IEEE International Conference on Computer Vision (ICCV), Santiago, Chile, 2015, S. 3370-3378, doi: 10.1109/ICCV.2015.385.
  • Berechnen von Polarisationsmerkmalen aus Multikamera-Arrays
  • Normalerweise werden multipolare Hinweise aus einer monokularen Sichtweise gewonnen. Bestehende Verfahren verwenden multipolare Filter (z. B. eine Polarisationsmaske wie in 1B) oder mehrere CCD- oder CMOS-Sensoren, um verschiedene Polarisationskanäle in einer einzigen Ansicht zu multiplexen (z. B. mehrere Sensoren hinter einem einzigen Linsensystem) oder zeitmultiplexe Systeme (z. B., bei denen verschiedene Polarisationsrohbilder zu verschiedenen Zeiten erfasst werden, wie z. B. nacheinander, was erfordern kann, dass die Szene 1 von einer Erfassung zur nächsten im Wesentlichen oder konstant bleibt, damit die Ansichten gleich sind). Insbesondere die oben beschriebenen Techniken zur Berechnung von Polarisationskennwerten wie dem Winkel der linearen Polarisation (AOLP) ϕ und dem Grad der linearen Polarisation (DOLP) p gehen im Allgemeinen davon aus, dass die Polarisationsrohbilder vom gleichen Standpunkt aus aufgenommen werden.
  • Es gibt jedoch einige Umstände, unter denen die obige Annahme eines einzigen Blickpunkts möglicherweise nicht zutrifft. Zum Beispiel können Polarisationsrohbilder, die verschiedenen Polarisationszuständen entsprechen, von verschiedenen Standpunkten aus erfasst werden, wenn ein Polarisationskamera-Array verwendet wird, das mehrere Polarisationskameras an verschiedenen Standorten umfasst, wie die in den 1C, 1D und 1E gezeigten Ausführungsformen. Wenn die einzelnen Polarisationskameras näher beieinander platziert werden, kann der Fehler zwar verringert werden, aber physikalische Einschränkungen (z. B. die Größe der einzelnen Polarisationskameras, wie die Größe und Form ihrer entsprechenden Verpackung sowie die darin enthaltenen Linsen und Bildsensoren) können die Platzierung der Polarisationskameras begrenzen.
  • Dementsprechend beziehen sich einige Aspekte von Ausführungsformen der vorliegenden Offenbarung auf Systeme und Verfahren zur Berechnung von Polarisationskennwerten wie AOLP ϕ und DOLP ρ aus Polarisationsrohbildern, die aus verschiedenen Blickpunkten aufgenommen wurden, beispielsweise unter Verwendung einer Anordnung von Polarisationskameras. Im Allgemeinen erfordert dies eine Technik zur Entkopplung von Parallaxenmerkmalen aufgrund der unterschiedlichen Positionen der einzelnen Polarisationskameras und den gewünschten Polarisationsmerkmalen. Dies ist eine Herausforderung, da Parallaxenhinweise und Polarisationshinweise insofern miteinander verknüpft sind, als sowohl die Parallaxe zwischen zwei Ansichten als auch die erfasste Polarisation von der Geometrie der Beziehung zwischen den Polarisationskameras und der abgebildeten Oberfläche abhängen. Bei den vergleichenden Ansätzen zum Ermitteln von AOLP und DOLP wird davon ausgegangen, dass die Polarisationskanäle vom gleichen Standpunkt aus erfasst werden, so dass die Anwendung vergleichender Verfahren auf die von der Anordnung von Polarisationskameras erfassten Daten wahrscheinlich zu Fehlern oder Mehrdeutigkeit führt.
  • 4 ist ein Flussdiagramm 400 eines Verfahrens zur Schätzung von Polarisationsmerkmalen bei Parallaxenmehrdeutigkeit gemäß einer Ausführungsform der vorliegenden Offenbarung.
  • In der in 4 gezeigten Ausführungsform werden Polarisationsrohbilder, die von einer Vielzahl verschiedener Blickpunkte, z. B. von einem Array von Polarisationskameras, wie in den 1B, 1C und 1D gezeigt, erfasst wurden, als Eingabe in den Prozess geliefert. In einigen Ausführungsformen der vorliegenden Offenbarung werden Schätzungen des DOLP p und des AOLP ϕ in Übereinstimmung mit Ausführungsformen der vorliegenden Offenbarung von einer Verarbeitungsschaltung 100 durch einen iterativen Prozess berechnet. Es ist zu beachten, dass der geschätzte DOLP p und der geschätzte AOLP ϕ Tensoren (z. B. zweidimensionalen Tensoren) mit Seitenverhältnissen entsprechen, die den Polarisationsrohbildern entsprechen, z. B. wo die Werte des DOLP p-Tensors und des AOLP ϕ-Tensors dem geschätzten Grad der linearen Polarisation und dem Winkel der linearen Polarisation in verschiedenen Bereichen der erfassten Polarisationsrohbilder entsprechen.
  • Im Verfahrensschritt 410 berechnet die Verarbeitungsschaltung einen anfänglichen geschätzten DOLP ρ0 und einen anfänglichen geschätzten AOLP ϕ0 unter Verwendung der Stokes-Vektoren (z. B. gemäß den obigen Gleichungen (10) und (11) oder, genauer gesagt, gemäß den Gleichungen (8) und (9). Diese anfänglichen geschätzten DOLP ρ0 und AOLP ϕ0 werden wahrscheinlich aufgrund der Parallaxenverschiebung zwischen den verschiedenen einzelnen Polarisationskameras des Polarisationskamera-Arrays 10' falsch sein.
  • Im Verfahrensschritt 430 schätzt die Verarbeitungsschaltung 100 die Geometrie der Oberflächen der Szene, die in den Polarisationsrohbildern abgebildet sind. In einigen Ausführungsformen der vorliegenden Offenbarung verwendet die Verarbeitungsschaltung 100 einen auf Ansichtskorrespondenz basierenden Ansatz, um ein Grobmodell der Szene unter Verwendung der Parallaxe aus der Stereosicht der Szene aufgrund des Versatzes zwischen den Positionen der Kameras in der Anordnung zu erzeugen (z. B. unter Verwendung von Tiefe aus Stereotechniken, wie z. B. in
    Kadambi, A. [et al.], Polarized 3D: High-Quality Depth Sensing with Polarization Cues, 2015 IEEE International Conference on Computer Vision (ICCV), Santiago, Chile, 2015, S. 3370-3378, doi: 10.1109/ICCV.2015.385. diskutiert). Im Verfahrensschritt 450 kann diese grobe Geometrie dann unter Verwendung der aktuell berechneten Werte für DOLP pi und AOLP ϕi (anfänglich i=0) verfeinert werden (siehe z. B. US 2016 / 0 261 844 A1 und 10,557,705 und Kadambi, A. [et al.], Polarized 3D: High-Quality Depth Sensing with Polarization Cues, 2015 IEEE International Conference on Computer Vision (ICCV), Santiago, Chile, 2015, S. 3370-3378, doi: 10.1109/ICCV.2015.385.).
  • Die im Verfahrensschritt 450 berechnete geschätzte Geometrie wird dann verwendet, um die geschätzten Werte des DOLP p und des AOLP ϕ zu aktualisieren. Beispielsweise können in einer i-ten Iteration ein zuvor berechneter DOLP ρi-1 und ein zuvor berechneter AOLP ϕi-1 verwendet werden, um die geschätzte Geometrie im Verfahrensschritt 450 zu berechnen, und im Verfahrensschritt 470 verfeinert das Verarbeitungssystem 100 die DOLP- und AOLP-Berechnungen basierend auf der neuen geschätzten Geometrie, um neue Schätzungen DOLP pi und AOLP ϕi zu berechnen.
  • Im Verfahrensschritt 490 bestimmt das Verarbeitungssystem 100, ob es mit einer weiteren Iteration des Prozesses zur Schätzung von DOLP p und AOLP ϕ fortfahren soll. In einigen Ausführungsformen wird eine Änderung des DOLP Δρ auf der Grundlage der Differenz zwischen dem aktualisierten DOLP pi und dem zuvor berechneten DOLP ρi-1 berechnet (z. B. |ρii-1|). Ebenso wird eine Änderung des AOLP Δϕ anhand der Differenz zwischen dem aktualisierten AOLP ϕi und dem zuvor berechneten AOLP ϕi-1 berechnet (z. B. |ϕii-1|). Wenn eine dieser Änderungen der Polarisationshinweise (z. B. sowohl Δρ als auch Δϕ) größer ist als die entsprechenden Schwellenwerte (z. B. ρth und ϕth) für die berechneten Tensoren, wird der Prozess fortgesetzt, indem die aktualisierten DOLP pi und AOLP ϕi verwendet werden, um das Grobmodell im Verfahrensschritt 450 zu verfeinern, und dann die DOLP- und AOLP-Werte basierend auf dieser neuen geschätzten Geometrie aktualisiert werden. Wenn beide Änderungen der Polarisationshinweise unter den entsprechenden Schwellenwerten liegen, ist der Schätzungsprozess abgeschlossen und die geschätzten DOLP ρi und AOLP ϕi werden aus dem Schätzungsprozess ausgegeben und können bei der Berechnung weiterer Verarbeitungsergebnisse, wie z. B. Oberflächennormalenkarten, Instanzsegmentierungskarten etc., verwendet werden.
  • Multispektrales Stereo mit Polarisationsbildgebung
  • In vielen Fällen, z. B. bei der Fernerkundung, können mit multispektralen Bildern von Szenen Informationen erfasst werden, die sonst nicht sichtbar wären. Zum Beispiel kann die multispektrale oder hyper-spektrale Bildgebung Oberflächeneigenschaften von Szenen erkennen, wie z. B. Bodeneigenschaften wie Feuchtigkeit, organischer Gehalt und Salzgehalt, ölverschmutzte Böden, was in der Landwirtschaft nützlich sein kann. Ein weiteres Beispiel ist die multispektrale Bildgebung, die es ermöglicht, getarnte Ziele zu erkennen, z. B. Militärfahrzeuge unter teilweiser Vegetationsdecke oder kleine militärische Objekte in relativ großen Pixeln. Ein weiteres Beispiel: Die multispektrale Bildgebung ermöglicht die Identifizierung und Kartierung von Materialien, z. B. die Feststellung des Vorhandenseins oder Nichtvorhandenseins von Materialien in Reliefs, die Kartierung von Schwermetallen und anderen giftigen Abfällen in Bergbaugebieten. Die multispektrale Bildgebung ermöglicht auch die Erkennung des Vorhandenseins bestimmter Materialien, wie z. B. verschüttetes Wasser/Öl (dies ist von besonderer Bedeutung für Innenraumroboter, damit sie diese Verschüttungen vermeiden bzw. deren Umgehung planen können, und für Staubsaugerroboter zur Erkennung, Lokalisierung und Beseitigung von verschüttetem Wasser und anderem kleinen, dunklen und/oder spiegelnden Schmutz). Die multispektrale Bildgebung kann auch zur Materialinspektion eingesetzt werden, z. B. zur Erkennung von Rissen und Rost in Industrieanlagen wie Industriekesseln und Eisenbahnschienen, bei denen ein Ausfall extrem gefährlich und die Wiederherstellung teuer sein kann.
  • In den oben genannten Beispielen sind computerbasierte Seh-Techniken, die vergleichbare und Standard-Farbbilder (z. B. rote, grüne und blaue Bilder) als Eingabe verwenden, möglicherweise nicht in der Lage, diese Arten von Objekten zu erkennen, aber die Verwendung von multispektraler oder hyper-spektraler Bildgebung, kombiniert mit Polarisationsinformationen, kann zusätzliche Hinweise liefern, die von computerbasierten Seh-Algorithmen und Instanz-Erkennungstechniken (z. B. unter Verwendung von trainierten neuronalen faltenden Netzen) erkannt werden können.
  • Im Allgemeinen misst die spektrale Strahldichte einer Oberfläche die Rate der von einer Oberfläche reflektierten Photonen als Funktion der Oberflächenfläche, der Neigung und der einfallenden Wellenlänge. Die spektrale Strahldichtefunktion der meisten natürlichen Bilder ist eine regelmäßige Funktion der Wellenlängen, die es ermöglicht, diese mit einem niedrigdimensionalen linearen Modell darzustellen. Mit anderen Worten: Die spektrale Darstellung des von der Oberfläche reflektierten Lichts kann als lineare Kombination von spektralen Basisfunktionen dargestellt werden: s i = 0 n w i B i
    Figure DE112020004810B4_0015
    wobei wi die linearen Gewichte sind, Bi die spektrale Basisfunktion darstellt und n die Dimensionalität des System ist. Verwandte Arbeiten auf dem Gebiet der spektralen Strahlungsprofile natürlicher Objekte zeigen, dass die spektrale Strahldichte natürlicher Objekte größtenteils durch fünf oder sechs lineare Basisfunktionen genau dargestellt werden kann.
  • Dementsprechend beziehen sich einige Ausführungsaspekte der vorliegenden Offenbarung auf das Sammeln von Spektralinformationen gleichzeitig mit Polarisationsinformationen unter Verwendung eines Stereobildpaars, wobei jedes Kamerasystem (oder Kameramodul) des Stereopaars eine Kameraanordnung umfasst, die das Erfassen sowohl der Spektral- als auch der Polarisationsinformationen ermöglicht.
  • 5A ist eine perspektivische Ansicht eines multispektralen Stereo-Polarisationskamerasystems gemäß einer Ausführungsform der vorliegenden Offenbarung. Ausführungsformen eines multispektralen Stereo-Polarisationskamerasystems, wie in 5A gezeigt, sind im Wesentlichen ähnlich dem Stereo-Polarisationskamerasystem, das in 1E gezeigt ist, dass 5A ein multispektrales Stereo-Polarisationskamerasystem 510 zeigt, das ein erstes Polarisationskameramodul 510-1'' und ein zweites Polarisationskameramodul 510-2'' hat, die im Wesentlichen parallele optische Achsen haben und entlang einer Grundlinie 510-B voneinander beabstandet sind. In der in 5A gezeigten Ausführungsform umfasst das erste Polarisationskameramodul 510-1''' die Polarisationskameras 510A'', 510B'', 510C'' und 510D'', die in einer 2×2-Anordnung ähnlich der in 1C und 1D gezeigten angeordnet sind. Ebenso umfasst das zweite Polarisationskameramodul 510-2'' die Polarisationskameras 510E'', 510F'', 510G'' und 510H'', die in einem 2x2-Array angeordnet sind, und das gesamte multispektrale Stereo-Polarisationskameramodul 510 umfasst acht einzelne Polarisationskameras (z. B., acht separate Bildsensoren hinter acht separaten Linsen). In einigen Ausführungsformen der vorliegenden Offenbarung sind die entsprechenden Polarisationskameras der Polarisationskameramodule 510-1'' und 510-2'' so konfiguriert, dass sie Polarisationsrohbilder mit im Wesentlichen denselben Polarisationen erfassen. Zum Beispiel können die Kameras 510A'' und 510E'' beide lineare Polarisationsfilter mit dem gleichen Winkel von 0° haben, die Kameras 510B'' und 510F'' können beide lineare Polarisationsfilter mit dem gleichen Winkel von 45° haben, die Kameras 510C'' und 510G'' können beide lineare Polarisationsfilter mit einem gleichen Winkel von 90° haben, und die Kameras 510D'' und 510H'' können beide lineare Polarisationsfilter mit einem gleichen Winkel von 135° haben.
  • 5B ist eine Ansicht eines multispektralen Stereo-Polarisationskamerasystems gemäß einer Ausführungsform der vorliegenden Offenbarung, entlang einer Richtung parallel zur optischen Achse des multispektralen Stereo-Polarisationskamerasystems. 5C zeigt geschnittene Seitenansichten von beispielhaften einzelnen Polarisationskameras eines multispektralen Stereo-Polarisationskamerasystems gemäß einer Ausführungsform der vorliegenden Offenbarung. Wie in 5C gezeigt, enthält jede der einzelnen Polarisationskameras (z. B. 510A'', 510B'', 510E'' und 510F'') einen entsprechenden Farbfilter 518 (z. B., 518A'', 518B'', 518E'' und 518F'') im optischen Pfad der individuellen Polarisationskamera, zusätzlich zu einem entsprechenden Objektiv 512, einem entsprechenden Bildsensor 514 und einem entsprechenden Polarisationsfilter 516. Während in 5C der Farbfilter 518 innerhalb eines Gehäuses und hinter dem Objektiv 512 dargestellt ist, sind die Ausführungsformen der vorliegenden Offenbarung nicht darauf beschränkt. In einigen Ausführungsformen befindet sich der Farbfilter 518 beispielsweise vor dem Objektiv 512. Ebenso befindet sich in einigen Ausführungsformen der Polarisationsfilter vor der Linse 512.
  • In der in 5B gezeigten Ausführungsform enthält jede der einzelnen Polarisationskameras einen Farbfilter, der Licht nur in einem entsprechenden Bereich des sichtbaren Spektrums durchlässt (im Gegensatz zu einem Bayer-Filter, der ein Mosaikmuster aufweist und typischerweise Licht in drei verschiedenen Bereichen des Spektrums durchlässt, die rotem, grünem und blauem Licht entsprechen). Im Ausführungsbeispiel in 5B hat die erste Polarisationskamera 510A'' einen Farbfilter 518A'', der konfiguriert ist, Licht in einem roten (R) Bereich des Spektrums zu transmittieren, die zweite Polarisationskamera 510B'' hat einen Farbfilter 518B'', der konfiguriert ist, Licht in einem ersten grünen (G1) Bereich des Spektrums zu transmittieren, die dritte Polarisationskamera 510C'' hat einen Farbfilter 518C'', der konfiguriert ist, um Licht in einem zweiten grünen (G2) Bereich des Spektrums zu transmittieren (der sich von dem ersten grünen Bereich G1 des Spektrums unterscheiden kann, z. g., mit einer um 15 bis 20 nm verschobenen Spitze), und die vierte Polarisationskamera 510D'' hat einen Farbfilter 518D'', der konfiguriert ist, um Licht in einem blauen (B) Bereich des Spektrums zu transmittieren. Zusammen erfassen die vier Polarisationskameras des ersten Polarisationskameramoduls 510-1'' Licht in vier verschiedenen Polarisationszuständen (z. B. vier verschiedene lineare Polarisationen von 0°, 45°, 90° und 135°) und vier verschiedenen Farben (z. B. R, G1, G2 und B). In der besonderen Ausführungsform, die in 5B zeigt, erfasst die erste Polarisationskamera 510A'' beispielsweise rotes Licht, das bei 0° polarisiert ist, die zweite Polarisationskamera 510B'' erfasst erstes grünes Licht, das bei 45° polarisiert ist, die dritte Polarisationskamera 510C'' erfasst zweites grünes Licht, das bei 90° polarisiert ist, und die vierte Polarisationskamera 510D'' erfasst blaues Licht, das bei 135° polarisiert ist. Die Ausführungsformen der vorliegenden Offenbarung sind jedoch nicht darauf beschränkt. Zum Beispiel können in verschiedenen Ausführungsformen die Farbfilter mit verschiedenen Polarisationsfiltern verbunden sein.
  • In ähnlicher Weise können die einzelnen Polarisationskameras (z. B., Kameras 510E'', 510F'', 510G'' und 510BH'') des zweiten Polarisationskameramoduls 510-2'' einen separaten Farbfilter 518 umfassen, der konfiguriert ist, um Licht in verschiedenen Bereichen des elektromagnetischen Spektrums und unterschiedlich voneinander zu transmittieren. In einer Ausführungsform der vorliegenden Erfindung überträgt jeder der Farbfilter des zweiten Polarisationskameramoduls 510-2'' Licht in einem Bereich des Spektrums, der um einen bestimmten Betrag verschoben ist (z.B., wobei die Spitze des Spektralprofils des Farbfilters entweder zu den längeren Wellenlängen oder zu den kürzeren Wellenlängen um etwa 10 Nanometer bis etwa 20 Nanometer verschoben ist) gegenüber dem entsprechenden Farbfilter im ersten Polarisationskameramodul 510-1''.
  • Im Ausführungsbeispiel in 5B, hat die fünfte Polarisationskamera 510E'' einen Farbfilter 518E'', der konfiguriert ist, um Licht in einem roten (R') Bereich des Spektrums zu transmittieren, das um etwa 10 bis 20 Nanometer gegenüber dem Spektrum R verschoben ist, das von dem entsprechenden Farbfilter 518A'' des entsprechenden Polarisationskameramoduls 510A'' des ersten Polarisationskameramoduls 510-1'' transmittiert wurde. Gleichermaßen, hat die sechste Polarisationskamera 510F'' einen Farbfilter 518F'', der konfiguriert ist, um Licht in einem ersten grünen (G1') Bereich des Spektrums zu transmittieren, das um etwa 10 bis 20 Nanometer gegenüber dem Spektrum G1 verschoben ist, das von dem entsprechenden Farbfilter 518B''' der entsprechenden Polarisationskamera 510B'' des ersten Polarisationskamera-Moduls 510-1'' transmittiert wurde (und, in einigen Ausführungsformen auch ein anderes Spektrum als Spektrum G2). Die siebte Polarisationskamera 510G'' hat einen Farbfilter 518G'', der konfiguriert ist, um Licht in einem zweiten grünen (G2') Bereich des Spektrums zu transmittieren, das um etwa 10 bis 20 Nanometer gegenüber dem Spektrum G2 verschoben ist, das von dem entsprechenden Farbfilter 518C''' der entsprechenden Polarisationskamera 510C'' des ersten Polarisationskameramoduls 510-1'' transmittiert wurde (und, in einigen Ausführungsformen auch ein anderes Spektrum für das Spektrum G1). Die achte Polarisationskamera 510H'' hat einen Farbfilter 518H'', der konfiguriert ist, um Licht in einem blauen (B') Bereich des Spektrums zu transmittieren, das um etwa 10 bis 20 Nanometer gegenüber dem Spektrum B verschoben ist, das von dem entsprechenden Farbfilter 518D''' der entsprechenden Polarisationskamera 510D'' des ersten Polarisationskameramoduls 510- 1'' transmittiert wurde.
  • Zusammen erfassen die vier Polarisationskameras des zweiten Polarisationskameramoduls 510-2'' Licht in vier verschiedenen Polarisationszuständen (z.B., vier verschiedene lineare Polarisationen von 0°, 45°, 90° und 135°) und vier verschiedene Farben (z. B. R', G1', G2' und B'), die sich auch von den vier Farben unterscheiden, die vom ersten Polarisationskameramodul 510-1'' erfasst werden. Infolgedessen ist das in den , und dargestellte multispektrale Stereo-Polarisationskamerasystem 510 so konfiguriert, dass es Licht in acht verschiedenen Farben und unter vier verschiedenen Polarisationswinkeln erfasst.
  • Während einige Ausführungsformen der vorliegenden Offenbarung oben in Bezug auf die 5A, 5B und 5C detailliert beschrieben sind, sind die Ausführungsformen der vorliegenden Offenbarung nicht auf diese beschränkt. Zum Beispiel kann, wie oben erwähnt, in einigen Ausführungsformen der vorliegenden Offenbarung jedes Polarisationskameramodul nur drei Polarisationskameras umfassen. In einigen Ausführungsformen können die drei einzelnen Polarisationskameras entsprechende lineare Polarisatoren mit linearen Polarisationsfiltern bei 0°, 45° und 90° oder bei 0°, 60° und 120° umfassen. In einigen Ausführungsformen haben die drei einzelnen Polarisationskameras des ersten Polarisationskameramoduls entsprechende Farbfilter, um rotes (R), grünes (G) und blaues (B) Licht mit entsprechenden ersten Spektralprofilen zu transmittieren, und die drei einzelnen Polarisationskameras des zweiten Polarisationskameramoduls können entsprechende Farbfilter haben, um rotes (R'), grünes (G') und blaues (B') Licht mit zweiten Spektralprofilen zu transmittieren, die sich von dem ersten Spektralprofil unterscheiden (z. B, wobei jedes der zweiten Spektralprofile gegenüber den entsprechenden ersten Spektralprofilen um 10 bis 20 nm verschoben ist).
  • Während einige Ausführungsformen der vorliegenden Offenbarung oben in Bezug auf Farbfilter beschrieben sind, die verschiedene Bereiche des sichtbaren elektromagnetischen Spektrums durchlassen, sind die Ausführungsformen der vorliegenden Offenbarung nicht darauf beschränkt und können auch die Verwendung von Farbfiltern umfassen, die selektiv Licht in anderen Bereichen des elektromagnetischen Spektrums durchlassen, z. B. Infrarotlicht oder ultraviolettes Licht.
  • In einigen Ausführungsformen der vorliegenden Offenbarung umfassen die beiden unterschiedlichen Polarisationskameramodule des multispektralen Stereo-Polarisationskamerasystems Polarisationskameras, die konfiguriert sind, um Polarisationsrohbilder unterschiedlicher Polarisationszustände (z. B. unterschiedlicher Polarisationswinkel) zu erfassen, wie z. B. unter Verwendung einer Polarisationsmaske, wie in 1B gezeigt, oder eines mechanisch oder elektronisch steuerbaren Polarisationsfilters. Gemäß einigen Ausführungsformen der vorliegenden Offenbarung umfasst jede Polarisationskamera ferner einen Farbfilter, der konfiguriert ist, um Licht in einer Vielzahl von Farben in Übereinstimmung mit einem Mosaikmuster, wie z. B. einem Bayer-Muster, zu filtern, wobei jede Polarisationskamera einen anderen Farbfilter haben kann, um eine multispektrale oder hyperspektrale Erfassung zu ermöglichen. In einigen Ausführungsformen enthält beispielsweise eine erste Polarisationskamera eines Stereopaars einen ersten Farbfilter, der konfiguriert ist, um Licht in den Spektren R, G1, G2, B (oder R, G, B) zu erfassen, wie oben beschrieben, und eine zweite Polarisationskamera des Stereopaars enthält einen zweiten Farbfilter, der konfiguriert ist, um Licht in den Spektren R', G1', G2', B' (oder R', G', B'), wie oben beschrieben, zu erfassen.
  • Einige Aspekte von Ausführungsformen der vorliegenden Offenbarung beziehen sich auf die Erfassung multispektraler Szenen unter Verwendung von Hardware-Anordnungen wie den oben beschriebenen, indem die spektralen Basisfunktionen für die Darstellung bestimmt werden. Durch Schätzung der spektralen Leistungsverteilung der Szenenbeleuchtung und Verwendung der spektralen Reflexionsfunktion der Macbeth-Farbkarte ist es möglich, einen Satz von Basisfunktionen B zu simulieren, die diese Beleuchtung darstellen. Dies ist insbesondere dann möglich, wenn das spektrale Profil des natürlichen Sonnenlichts für den Außenbereich geschätzt werden soll, wie es typischerweise bei der multispektralen Bildgebung für georäumliche Anwendungen der Fall ist. Sobald die spektralen Basisfunktionen bestimmt sind, ist es einfach, die Spektralkoeffizienten für jede Szene zu bestimmen, indem man einfach w (Gewichte) in der folgenden Gleichung auflöst p = T S = T B w
    Figure DE112020004810B4_0016
    wobei p die Pixelwerte in den verschiedenen spektralen (Farb-)Kanälen darstellt (z. B. acht verschiedene Farbkanäle R, G1, G2, B, R', G1', G2' und B'), T die spektralen Empfindlichkeiten der verschiedenen spektralen Kanäle (z. B, die erfassten Werte), B steht für die spektralen Basisfunktionen und w für die Koeffizienten für die Basisfunktionen.
  • Dementsprechend ermöglicht die Anwendung der obigen Gleichung (13) die Berechnung von Polarisationsinformationen pro Pixel sowie von Spektralinformationen.
  • Die von der multispektralen Hardware berechneten multispektralen oder hyperspektralen Informationen, wie die oben beschriebenen, können als Eingaben für andere Objekterkennungs- oder Instanzsegmentierungsalgorithmen (z. B. unter Verwendung von faltenden neuronalen Netzen, die basierend auf markierten multispektralen Polarisationsbild-Trainingsdaten trainiert oder neu trainiert werden) oder als Eingaben für klassische computerbasierte Seh-Algorithmen (z. B., wie z.B. zur Erkennung der Tiefe von Oberflächen auf der Grundlage der Parallaxenverschiebung von multispektralen und Polarisationsmerkmalen) zur Erkennung des Vorhandenseins von Objekten in den Szenen, die von multispektralen Stereo-Polarisationskamerasystemen gemäß den Ausführungsformen der vorliegenden Offenbarung abgebildet werden.
  • Während sich einige Ausführungsformen der vorliegenden Offenbarung, wie oben beschrieben, auf die multispektrale Polarisationsbildgebung aus mehreren Blickpunkten unter Verwendung eines Stereokamerasystems (z. B. eines Stereopaars) beziehen, sind die Ausführungsformen der vorliegenden Offenbarung nicht darauf beschränkt. In einigen Ausführungsformen der vorliegenden Offenbarung überstreicht beispielsweise ein multispektrales Kamerasystem (z. B. unter Verwendung eines Kamerasystems, das konfiguriert ist, um sechs oder mehr verschiedene Spektren zu erfassen, wie R, G, B, R', G' und B', wie oben beschrieben) mehrere Blickpunkte im Laufe der Zeit, z. B. wenn sich ein Objekt von Interesse auf einem Förderband befindet, das durch das Sichtfeld des Kamerasystems läuft, oder wenn sich das Kamerasystem über das Sichtfeld des Objekts von Interesse bewegt.
  • Ein Beispiel für Anwendungen in der Satellitenbildgebung ist der zusätzliche Vorteil, dass die Szene aus mehreren Winkeln betrachtet werden kann, die hoch korreliert sind. Die systematische Art und Weise, in der sich Satelliten in geraden Linien über einem bestimmten Punkt auf dem Boden bewegen, ermöglicht es den Satelliten, hochkorrelierte Multispektral- und Polarisationsdaten der Bodenoberflächen für jeden Blickpunkt über einen großen Bereich von Blickpunkten zu erhalten. Dementsprechend bestimmt in einigen Ausführungsformen der vorliegenden Offenbarung ein Verarbeitungssystem 100 für jeden Punkt auf dem Boden den optimalen Winkel, bei dem das Signal des Polarisationsgrades (DOLP) am stärksten ist, wodurch eine starke Korrelation hinsichtlich seiner Oberflächenorientierung entsteht. Siehe z. B. Gleichungen (2) und (4). Da die Spiegelung im Allgemeinen stark vom Blickpunkt abhängt, werden die meisten Ansichten einer bestimmten Oberfläche nicht spiegelnd sein, so dass Gleichung (2) ausreichen kann, um die Ausrichtung der abgebildeten Oberfläche zu berechnen, ohne dass eine Auswahl zwischen der nicht spiegelnden (oder diffusen) Gleichung und der spiegelnden Gleichung (4) erforderlich ist.
  • Darüber hinaus ermöglicht die Satellitenbildgebung die Erfassung von Bildern von Objekten, die aus sehr unterschiedlichen Blickpunkten aufgenommen wurden. Diese große Grundlinie ermöglicht die Abschätzung grober Entfernungen von Objekten am Boden, indem die multispektrale Bildgebung mit Polarisations- und Parallaxenverschiebungen aufgrund der großen Positionsveränderungen genutzt wird. Die Erkennung dieser groben Entfernungen liefert Informationen für das Katastrophenmanagement, die Überwachung von Stromleitungen und die Sicherheit. So sind Versorgungsunternehmen beispielsweise besorgt über das unkontrollierte Wachstum der Vegetation in und um Stromübertragungs- und -verteilungsleitungen, da die Gefahr von Bränden oder Schäden an den Leitungen besteht. Indem man die Bereiche um die Stromleitungen von verschiedenen Standpunkten aus abbildet, ermöglicht die Erkennung der Parallaxenverschiebung der Objekte bei Betrachtung von verschiedenen Standpunkten aus Schätzungen der Oberflächenhöhe der Vegetation und der Höhe der Übertragungs- und Verteilungsleitungen. Auf diese Weise kann automatisch festgestellt werden, wann die Bodenvegetation kritische Schwellenwerte in Bezug auf die Nähe der Leitungen im Hinblick auf das Wachstum der Vegetation erreicht. Um solche Daten sowohl bei Tag als auch bei Nacht zu überwachen, beziehen sich einige Ausführungsformen der vorliegenden Offenbarung auf die Verschmelzung von Polarisationsdaten mit thermischen Sensoren (z. B. Infrarotsensoren), um klare Wärmesignaturen unabhängig von den Beleuchtungsbedingungen zu erhalten.
  • Bildsegmentierung mit polarimetrischen Merkmalen
  • Einige Aspekte von Ausführungsformen der vorliegenden Offenbarung beziehen sich auf die Durchführung einer Instanzsegmentierung unter Verwendung polarimetrischer Hinweise, die in Übereinstimmung mit Ausführungsformen der vorliegenden Offenbarung erfasst wurden. Einige Techniken zur Durchführung einer Instanzsegmentierung unter Verwendung polarimetrischer Hinweise werden in der vorläufigen US-Patentanmeldung Nr. 62/942,113 , die am 30. November 2019 beim US-Patentamt eingereicht wurde, und in der vorläufigen US-Patentanmeldung Nr. 63/001,445 , die am 29. März 2020 beim US-Patentamt eingereicht wurde, ausführlicher beschrieben.
  • 6A ist ein Blockdiagramm der Verarbeitungsschaltung 100 zur Berechnung von Oberflächencharakterisierungsausgaben auf der Grundlage von Polarisationsdaten gemäß einer Ausführungsform der vorliegenden Erfindung. 6B ist ein Flussdiagramm eines Verfahrens 600 zur Durchführung einer Oberflächencharakterisierung auf der Grundlage von Eingangsbildern, um eine Oberflächencharakterisierungsausgabe gemäß einer Ausführungsform der vorliegenden Erfindung zu berechnen.
  • Gemäß verschiedenen Ausführungsformen der vorliegenden Offenbarung wird die Verarbeitungsschaltung 100 unter Verwendung einer oder mehrerer elektronischer Schaltungen implementiert, die konfiguriert sind, um verschiedene Operationen durchzuführen, wie nachstehend ausführlicher beschrieben. Zu den Arten von elektronischen Schaltungen können eine Zentraleinheit (CPU), eine Grafikverarbeitungseinheit (GPU), ein Beschleuniger für künstliche Intelligenz (KI) (z. B. ein Vektorprozessor, der vektorarithmetische Logikeinheiten enthalten kann, die konfiguriert sind, um gemeinsame Operationen mit neuronalen Netzen, wie z. B. Punktprodukte und Softmax, effizient durchzuführen), ein feldprogrammierbares Gate-Array (FPGA), eine anwendungsspezifische integrierte Schaltung (ASIC), ein digitaler Signalprozessor (DSP) oder Ähnliches gehören. Zum Beispiel sind unter bestimmten Umständen Aspekte der Ausführungsformen der vorliegenden Offenbarung in Programmanweisungen implementiert, die in einem nichtflüchtigen, computerlesbaren Speicher gespeichert sind, wo sie, wenn sie von der elektronischen Schaltung (z. B. einer CPU, einer GPU, einem KI-Beschleuniger oder Kombinationen davon) ausgeführt werden, die hierin beschriebenen Operationen durchführen, um eine Charakterisierungsausgabe 20 aus Eingangspolarisationsrohbildern 18 zu berechnen. Die von der Verarbeitungsschaltung 100 durchgeführten Operationen können von einer einzelnen elektronischen Schaltung (z. B. einer einzelnen CPU, einer einzelnen GPU o. Ä.) durchgeführt werden oder auf mehrere elektronische Schaltungen (z. B. mehrere GPUs oder eine CPU in Verbindung mit einer GPU) verteilt werden. Die mehreren elektronischen Schaltungen können lokal zueinander sein (z. B. auf demselben Chip, in demselben Gehäuse oder in demselben eingebetteten Gerät oder Computersystem) und/oder können voneinander entfernt sein (z. B. in Kommunikation über ein Netzwerk wie ein lokales persönliches Netzwerk wie Bluetooth®, über ein lokales Netzwerk wie ein lokales drahtgebundenes und/oder drahtloses Netzwerk und/oder über ein Weitverkehrsnetzwerk wie das Internet, z. B. in einem Fall, in dem einige Operationen lokal und andere Operationen auf einem von einem Cloud-Computing-Dienst gehosteten Server durchgeführt werden). Eine oder mehrere elektronische Schaltungen, die die Verarbeitungsschaltung 100 implementieren, können hier als Computer oder Computersystem bezeichnet werden, das einen Speicher enthalten kann, in dem Anweisungen gespeichert sind, die, wenn sie von der einen oder den mehreren elektronischen Schaltungen ausgeführt werden, die hier beschriebenen Systeme und Verfahren implementieren.
  • Wie in 6A gezeigt, umfasst eine Verarbeitungsschaltung 100 in einigen Ausführungsformen einen Merkmalsextraktor oder ein Merkmalsextraktionssystem 700 und einen Prädiktor 710 (z. B. einen klassischen computerbasierten Seh-Vorhersagealgorithmus und/oder ein trainiertes statistisches Modell wie ein trainiertes neuronales Netzwerk), der konfiguriert ist, um eine Vorhersageausgabe 20 (z. B. eine statistische Vorhersage) in Bezug auf Oberflächenmerkmale von Objekten basierend auf der Ausgabe des Merkmalsextraktionssystems 700 zu berechnen. Verschiedene Ausführungsformen der vorliegenden Offenbarung werden hier im Zusammenhang mit der Oberflächencharakterisierung unter Umständen beschrieben, in denen Oberflächenmerkmale optisch schwierig zu erkennen sind und/oder in denen polarisationsbasierte Bildgebungsverfahren Informationen über die Oberflächennormalität liefern, die sonst nur schwer zu erhalten sind, wobei die Ausführungsformen der vorliegenden Offenbarung nicht darauf beschränkt sind. Beispielsweise können einige Aspekte der Ausführungsformen der vorliegenden Offenbarung auf Verfahren zur Charakterisierung der Oberflächen von Objekten angewandt werden, die aus Materialien bestehen oder Oberflächeneigenschaften aufweisen, die optisch schwierig zu erfassen sind, wie z. B. Oberflächen von lichtdurchlässigen Objekten, Objekte, die Mehrwegeffekte induzieren, Objekte, die nicht vollständig oder im Wesentlichen matt oder lambertianisch sind, und/oder sehr dunkle Objekte. Zu diesen optisch schwierigen Objekten gehören Objekte und deren Oberflächeneigenschaften, die mit Hilfe von Bildern, die von Kamerasystemen aufgenommen werden, die nicht auf die Polarisation des Lichts reagieren, schwer aufzulösen oder zu erkennen sind (z. B. auf der Grundlage von Bildern, die von Kameras ohne Polarisationsfilter im optischen Pfad aufgenommen wurden, oder bei denen verschiedene Bilder nicht auf unterschiedlichen Polarisationswinkeln basieren). Diese Oberflächenmerkmale können beispielsweise ein Aussehen oder eine Farbe haben, die den Oberflächen, auf denen die Merkmale auftreten, sehr ähnlich sind (z. B. haben Dellen die gleiche Farbe wie das darunter liegende Material, und Kratzer auf transparenten Materialien wie Glas können ebenfalls im Wesentlichen transparent sein). Auch wenn Ausführungsformen der vorliegenden Offenbarung im Zusammenhang mit der Erkennung von optisch schwierigen Oberflächenmerkmalen beschrieben werden, sind Ausführungsformen der vorliegenden Offenbarung nicht darauf beschränkt, nur optisch schwierige Oberflächenfehler zu erkennen. In einigen Ausführungsformen ist beispielsweise ein Prädiktor 710 so konfiguriert (z. B. wird ein statistisches Modell unter Verwendung von Trainingsdaten trainiert), dass er sowohl optisch schwierige Oberflächenmerkmale als auch Oberflächenmerkmale erkennt, die ohne Verwendung von Polarisationsinformationen robust detektierbar sind.
  • Die Polarisation kann zur Erkennung von Oberflächencharakteristiken oder - merkmalen verwendet werden, die bei alleiniger Verwendung von Intensitätsinformationen (z. B. Farbintensitätsinformationen) eine optische Herausforderung darstellen würden. Beispielsweise können mit Hilfe von Polarisationsinformationen Geometrie- und Materialveränderungen an den Oberflächen von Objekten erkannt werden. Materialveränderungen (oder Materialveränderungen), wie z. B. Grenzen zwischen verschiedenen Materialtypen (z. B. ein schwarzes metallisches Objekt auf einer schwarzen Straße oder eine farblose Flüssigkeit auf einer Oberfläche, die beide im Farbraum im Wesentlichen unsichtbar sind, aber im Polarisationsraum entsprechende Polarisationssignaturen aufweisen), können im Polarisationsraum besser sichtbar sein, da Unterschiede in den Brechungsindizes der verschiedenen Materialien Änderungen in der Polarisation des Lichts verursachen. Ebenso verursachen Unterschiede in der Spiegelung verschiedener Materialien unterschiedliche Änderungen des Polarisationsphasen-Drehwinkels, was ebenfalls zu erkennbaren Merkmalen im Polarisationsraum führt, die andernfalls ohne Verwendung eines Polarisationsfilters optisch schwierig zu erkennen wären. Dementsprechend führt dies dazu, dass der Kontrast in Bildern oder Tensoren in Polarisationsdarstellungsräumen erscheint, wo entsprechende Regionen von Tensoren, die im Intensitätsraum berechnet werden (z. B. Farbdarstellungsräume, die die Polarisation des Lichts nicht berücksichtigen), diese Oberflächenmerkmale nicht erfassen können (z. B. wenn diese Oberflächenmerkmale einen geringen Kontrast aufweisen oder in diesen Räumen unsichtbar sind). Beispiele für optisch schwierige Oberflächenmerkmale sind: die besonderen Formen der Oberflächen (z. B. der Grad der Glätte und Abweichungen von idealen oder akzeptablen physikalischen Konstruktionstoleranzen für die Oberflächen); Oberflächenrauhigkeit und Formen der Oberflächenrauhigkeitsmuster (z. B. absichtliche Ätzungen, Kratzer und Kanten in den Oberflächen von transparenten Objekten und bearbeiteten Teilen), Grate und Grate an den Kanten von bearbeiteten Teilen und Formteilen; und ähnliches. Die Polarisierung ist auch nützlich, um Objekte mit identischen Farben, aber unterschiedlichen Materialeigenschaften, wie Streuung oder Brechungsindex, zu erkennen.
  • Darüber hinaus kann, wie oben beschrieben, die Polarisation verwendet werden, um die Oberflächennormalen von Objekten basierend auf dem Grad der linearen Polarisation (DOLP) p und dem Winkel der linearen Polarisation (AOLP) ϕ zu erhalten, die aus den Polarisationsrohbildern basierend auf z. B. den Gleichungen (2), (3), (4) und (5) berechnet werden. Diese Oberflächennormalen liefern wiederum Informationen über die Form der Oberflächen.
  • Wie in 6B gezeigt und unter Bezugnahme auf 1B, erfasst die Verarbeitungsschaltung 100 im Verfahrensschritt 610 Polarisationsrohbilder 18 von Oberflächen in einer Szene 1. In einigen Ausführungsformen steuert die Verarbeitungsschaltung 100 beispielsweise eine oder mehrere Polarisationskameras 10 (z. B. eine oder mehrere einzelne Polarisationskameras, die in Polarisationskamera-Arrays und/oder Stereo-Polarisationskamerasystemen organisiert sein können, die mehrere Polarisationskameramodule umfassen), um Polarisationsrohbilder 18 zu erfassen, die eine Oberfläche eines Objekts in einer Szene 1 darstellen.
  • 7A ist ein Blockdiagramm eines Merkmalsextraktors 700 gemäß einer Ausführungsform der vorliegenden Erfindung. 7B ist ein Flussdiagramm, das ein Verfahren gemäß einer Ausführungsform der vorliegenden Erfindung zur Extraktion von Merkmalen aus Polarisationsrohbildern darstellt. In der in 7A gezeigten Ausführungsform umfasst der Merkmalsextraktor 700 einen Intensitätsextraktor 720, der konfiguriert ist, um ein Intensitätsbild I 52 in einem Intensitätsdarstellungsraum zu extrahieren (z. B. in Übereinstimmung mit Gleichung (7), als ein Beispiel für einen Nicht-Polarisationsdarstellungsraum), und Polarisationsmerkmalsextraktoren 730, die konfiguriert sind, um Merkmale in einem oder mehreren Polarisationsdarstellungsräumen zu extrahieren. In einigen Ausführungsformen der vorliegenden Offenbarung wird der Intensitätsextraktor 720 weggelassen und der Merkmalsextraktor extrahiert kein Intensitätsbild I 52. In der in 7A gezeigten Ausführungsform werden die in den Polarisationsdarstellungsräumen extrahierten Merkmale (z. B. DOLP p und AOLP ϕ) einem Oberflächennormalenberechner 780 zugeführt, um Oberflächennormalen 58 von Objekten in der Szene zu berechnen.
  • Wie in 7B gezeigt, kann die Extraktion von Polarisationsbildern im Verfahrensschritt 650 das Extrahieren eines ersten Tensors in einem ersten Polarisationsdarstellungsraum aus den Polarisationsrohbildern aus einem ersten Stokes-Vektor im Verfahrensschritt 651 umfassen. Im Verfahrensschritt 652 extrahiert der Merkmalsextraktor 700 ferner einen zweiten Tensor in einem zweiten Polarisationsdarstellungsraum aus den Polarisationsrohbildern. Beispielsweise können die Polarisationsmerkmalsextraktoren 730 einen DOLP-Extraktor 740 umfassen, der konfiguriert ist, um ein DOLP-p-Bild 54 (z. B. ein erstes Polarisationsbild oder einen ersten Tensor gemäß Gleichung (8) mit DOLP als erstem Polarisationsdarstellungsraum) zu extrahieren, und einen AOLP-Extraktor 760, der konfiguriert ist, um ein AOLP-ϕ-Bild 56 (z. B, ein zweites Polarisationsbild oder einen zweiten Tensor gemäß Gleichung (9), mit AOLP als zweitem Polarisationsdarstellungsraum) aus den gelieferten Polarisationsrohbildern 18 zu extrahieren. Darüber hinaus extrahiert das Merkmalsextraktionssystem 700 in verschiedenen Ausführungsformen zwei oder mehr verschiedene Tensoren (z. B. n verschiedene Tensoren) in zwei oder mehr Darstellungsräumen (z. B. n Darstellungsräumen), wobei der n-te Tensor im Verfahrensschritt 614 extrahiert wird. Wie oben beschrieben, extrahieren die Polarisationsmerkmalsextraktoren 730 in einigen Ausführungsformen der vorliegenden Offenbarung Polarisationsmerkmale in Polarisationsdarstellungsräumen, die sowohl lineare Polarisationsdarstellungsräume (z. B. Tensoren in den oben erwähnten AOLP- und DOLP-Darstellungsräumen, die aus Polarisationsrohbildern extrahiert werden, die mit einem linearen Polarisationsfilter erfasst wurden) als auch zirkulare Polarisationsdarstellungsräume (z. B. Tensoren, die aus Polarisationsrohbildern extrahiert werden, die mit einem zirkularen Polarisationsfilter erfasst wurden) umfassen. In verschiedenen Ausführungsformen umfassen die Darstellungsräume Polarisationsdarstellungsräume, sind aber nicht auf diese beschränkt.
  • Die Polarisationsdarstellungsräume können Kombinationen von Polarisationsrohbildern in Übereinstimmung mit Stokes-Vektoren umfassen. Als weitere Beispiele können die Polarisationsdarstellungen Modifikationen oder Transformationen von Polarisationsrohbildern in Übereinstimmung mit einem oder mehreren Bildverarbeitungsfiltern (z. B. einem Filter zur Erhöhung des Bildkontrasts oder einem Entrauschungsfilter) umfassen. Die Merkmalskarten 52, 54 und 56 in ersten Polarisationsdarstellungsräumen können dann einem Prädiktor 750 zugeführt werden, um Oberflächenmerkmale basierend auf den Merkmalskarten 50 zu erfassen.
  • Während 7B einen Fall illustriert, in dem zwei oder mehr verschiedene Tensoren aus den Polarisationsrohbildern 18 in mehr als zwei verschiedenen Darstellungsräumen extrahiert werden, sind die Ausführungsformen der vorliegenden Offenbarung nicht darauf beschränkt. Zum Beispiel wird in einigen Ausführungsformen der vorliegenden Offenbarung genau ein Tensor in einem Polarisationsdarstellungsraum aus den Polarisationsrohbildern 18 extrahiert. Beispielsweise ist ein Polarisationsdarstellungsraum von Rohbildern AOLP ϕ und ein anderer ist DOLP p (z. B. kann in einigen Anwendungen AOLP für die Erkennung von Oberflächenmerkmalen transparenter Objekte oder von Oberflächenmerkmalen anderer optisch schwieriger Objekte, wie durchscheinende, nicht lambertianische, mehrweginduzierende und/oder nicht reflektierende Objekte, ausreichend sein).
  • Darüber hinaus werden, wie oben in Bezug auf 7A erläutert, in einigen Ausführungsformen der vorliegenden Offenbarung ein oder mehrere Merkmalsvektoren basierend auf aus anderen Darstellungsräumen berechneten Merkmalen berechnet. In dem in 7A gezeigten Beispiel berechnet der Oberflächennormalen-Rechner 780 die Oberflächennormalen von Oberflächen in der abgebildeten Szene 1 im Oberflächennormalen-Raum (z. B. Azimutwinkel 9_a und Zenitwinkel θ_z) basierend auf den berechneten Tensoren AOLP ϕ und DOLP p. In einigen Ausführungsformen werden die Oberflächennormalen mit kartesischen Koordinaten kodiert (z. B. ein dreidimensionaler Vektor, der die Richtung der Oberflächennormalen angibt). Die berechneten Oberflächennormalen 58 können zu den Merkmalen 50 gehören, die durch den Merkmalsextraktor 700 extrahiert werden.
  • Dementsprechend werden durch die Extraktion von Merkmalen wie Polarisationsmerkmalen, Polarisationsbildern und/oder Oberflächennormalen aus Polarisationsrohbildern 18 erste Tensoren 50 erzeugt, aus denen optisch schwierige Oberflächencharakteristiken aus Bildern von Oberflächen der zu untersuchenden Objekte erfasst werden können. In einigen Ausführungsformen können die vom Merkmalsextraktor 700 extrahierten ersten Tensoren explizit abgeleitete Merkmale sein (z. B. handgefertigt von einem menschlichen Designer), die sich auf zugrundeliegende physikalische Phänomene beziehen, die in den Polarisationsrohbildern gezeigt werden können (z. B. die Berechnung von AOLP- und DOLP-Bildern in linearen Polarisationsräumen und die Berechnung von Tensoren in zirkularen Polarisationsräumen, wie oben beschrieben). In einigen zusätzlichen Ausführungsformen der vorliegenden Offenbarung extrahiert der Merkmalsextraktor 700 andere Nicht-Polarisations-Merkmalskarten oder Nicht-Polarisationsbilder, wie Intensitätskarten für verschiedene Lichtfarben (z. B. rotes, grünes und blaues Licht) und Transformationen der Intensitätskarten (z. B. Anwendung von Bildverarbeitungsfiltern auf die Intensitätskarten). In einigen Ausführungsformen der vorliegenden Offenbarung kann der Merkmalsextraktor 700 konfiguriert sein, um ein oder mehrere Merkmale zu extrahieren, die automatisch erlernt werden (z. B. Merkmale, die nicht manuell von einem Menschen festgelegt werden), und zwar durch einen durchgängig überwachten Trainingsprozess basierend auf markierten Trainingsdaten. In einigen Ausführungsformen können diese gelernten Merkmalsextraktoren tiefe faltende neuronale Netze umfassen, die in Verbindung mit herkömmlichen computerbasierten Seh-Filtern verwendet werden können (z. B. eine Haar-Wavelet-Transformation, ein Canny-Kantendetektor, ein Tiefe-vom-Stereo-Rechner durch Block-Matching und dergleichen).
  • Erweiterung der 3-D-Oberflächenrekonstruktion mit Polarisationsbildgebung
  • Einige Aspekte von Ausführungsformen der vorliegenden Offenbarung beziehen sich auf die Wiederherstellung von qualitativ hochwertigen Rekonstruktionen von geschlossenen Objekten. In einigen Ausführungsformen der vorliegenden Offenbarung wird die Oberflächenrekonstruktion in Verbindung mit hochwertigen dreidimensionalen (3-D) Modellen der Objekte verwendet, z. B. mit CAD-Modellen der zu scannenden Objekte, um Unklarheiten zu beseitigen, die sich aus einem polarisationsbasierten Bildgebungsverfahren ergeben. In früheren Versuchen wurden Methoden für unbekannte Geometrien entwickelt, ohne Zugang zu CAD-Modellen zu haben.
  • Das Erfassen einer qualitativ hochwertigen 3-D-Rekonstruktion eines physischen Objekts, für das bereits ein qualitativ hochwertiges 3-D-Computermodell existiert, ist in einer Vielzahl von Kontexten wichtig, wie z. B. bei der Qualitätskontrolle in der Fertigung und/oder Herstellung von Objekten. Im Falle der additiven Fertigung oder des 3D-Drucks kann ein Konstrukteur beispielsweise ein 3D-Modell eines Objekts erstellen und das 3D-Modell einem 3D-Drucker zur Verfügung stellen, der ein physisches Objekt basierend auf dem 3D-Modell herstellt. Während oder nach dem 3-D-Druckprozess kann das vom 3-D-Drucker hergestellte physische Objekt mit einem Stereo-Polarisationskamerasystem gemäß einigen Ausführungsformen der vorliegenden Offenbarung gescannt werden, und die erfassten Polarisationsdaten können zur Unterstützung der 3-D-Rekonstruktion der Oberflächen des physischen Objekts verwendet werden. Diese 3-D-Rekonstruktion kann dann in einer Software mit dem entworfenen 3-D-Modell verglichen werden, um Fehler im 3-D-Druckprozess zu erkennen. Ähnliche Techniken können auch bei anderen Herstellungsverfahren angewandt werden, z. B. zur Erstellung von 3-D-Rekonstruktionen der Formen von Objekten, die durch andere Herstellungsverfahren wie Spritzguss, Druckguss, Biegen usw. erzeugt werden.
  • Als ein Beispiel wird ein Stereo-Polarisationskamerasystem, wie das oben in Bezug auf 1D beschriebene, verwendet, um ein Objekt abzubilden, das in 3-D rekonstruiert werden soll, z. B. um ein 3-D-Modell des Objekts automatisch aus den erfassten Polarisationsrohbildern zu erstellen. Die Oberfläche des Objekts kann aufgrund praktischer Fertigungsbeschränkungen und/oder aufgrund von Mängeln im Fertigungsprozess spärliche Unregelmäßigkeiten aufweisen und ist möglicherweise nicht ideal glatt. Diese Unregelmäßigkeiten können als Hochfrequenzschwankungen auf der Oberfläche erscheinen. Hochfrequenzschwankungen (HFV) treten in 3 Fällen auf:
  • Erstens könnte es Bereiche auf der Oberfläche des Objekts geben, die gültige Hochfrequenzvariationen aufweisen (z. B. entworfen und beabsichtigt, vorhanden zu sein). Beispielsweise können bei der Nachbildung einer griechischen Büste oder Statue Details in der Nähe der Augen und Haare des gescannten 3-D-Modells auch im hochwertigen 3-D-Modell vorhanden sein, das zur Herstellung des physischen Objekts verwendet wurde.
  • Zweitens kann es Bereiche auf der Objektoberfläche geben, die aufgrund von Fehlern, Defekten oder anderen Beschädigungen der Oberfläche hochfrequente Abweichungen aufweisen. Im Falle des 3D-Drucks oder der additiven Fertigung können beispielsweise aufgrund des schichtweisen Fertigungsprozesses hochfrequente Muster entstehen, die den Oberflächen des Objekts ein „verwaschenes“ Aussehen verleihen. Ein anderes Beispiel ist ein Spritzgussverfahren, bei dem an den Stellen, an denen die beiden Teile der Form aneinanderstoßen, Nähte oder Grate im produzierten Objekt entstehen können. Diese Details werden in dem hochwertigen 3D-Modell nicht wiedergegeben.
  • Drittens können Kombinationen der ersten und der zweiten Form von Hochfrequenzvariationen in unmittelbarer Nähe zueinander auftreten (z. B. kann ein Grat in der Nähe der Haare der Büstenreplik auftreten, wodurch zusätzliche Linien in den Haaren entstehen).
  • Hochfrequenzschwankungen aufgrund von Details sind am realen Objekt erwünscht, HFVs aufgrund von Unregelmäßigkeiten dagegen nicht. Es ist jedoch wichtig, beide Arten von HFVs in der 3D-Rekonstruktion für die Zwecke der Inspektion und Profilometrie wiederherstellen zu können. Während einige dieser HFV-Details sowie Unregelmäßigkeiten von einem handelsüblichen 3D-Scanner möglicherweise nicht wiederhergestellt werden können (aufgrund der schlechten Auflösung, die sich aus Quantisierungsfehlern und anderen Rauschquellen ergibt), können Ausführungsformen der vorliegenden Offenbarung diese Fälle behandeln, wie im Folgenden näher erläutert wird. Einige beispielhafte Implementierungen können ein zusätzliches strukturiertes Beleuchtungsprojektorgerät verwenden, um das Objekt zu beleuchten, wenn das Objekt keine visuellen Merkmale aufweist. Einige Ausführungsformen der vorliegenden Offenbarung beziehen sich auf die Verwendung von passiver Beleuchtung (z. B. basierend auf der Umgebungsbeleuchtung in der Szene).
  • 8A ist eine Illustration einer griechischen Büste, die von einer beispielhaften Implementierung der in dieser Erfindung vorgeschlagenen Bildgebungseinrichtung gescannt wird. Drei Typen von HFV-Details (801A: erwünschte Details wie Haare und Augen; 801B: unerwünschte Flecken und Defekte in der Nähe der Wangen und der Nase; und 801C: eine Kombination der Fälle A und B in unmittelbarer Nähe zueinander) sind vermerkt. Diese HFVs können mit Standard-3D-Bildgebungsverfahren nicht wiederhergestellt werden. Aspekte der Ausführungsformen der vorliegenden Erfindung beziehen sich auf die Behandlung all dieser Fälle. 8B ist ein Flussdiagramm eines Verfahrens zur 3D-Oberflächenrekonstruktion unter Verwendung von Polarisation gemäß einer Ausführungsform der vorliegenden Offenbarung.
  • In einigen Ausführungsformen der vorliegenden Offenbarung werden im Verfahrensschritt 810 Polarisationsrohbilder 18 von einem Objekt aus mehreren Blickpunkten aufgenommen, z. B. mit einem Stereo-Polarisationskamerasystem, wie oben in Bezug auf 1D beschrieben. Aus jedem der aufgenommenen Rohbilder kann ein Satz von vier separaten Polarisationswinkelbildern (0, 45, 90, 135) extrahiert werden. Diese können als PC1 und PC2 bezeichnet werden. In beispielhaften Implementierungen dieses Aufbaus können die Kameras in Standard-Stereokonfigurationen (optische Achsen parallel zueinander) oder in anderen Konfigurationen (z. B. wenn sich die optischen Achsen schneiden) untergebracht sein.
  • Im Verfahrensschritt 820 können Grad und Winkel der linearen Polarisation (DOLP p und AOLP ϕ) aus der Stokes-Vektorformulierung für beide Kameras unter Verwendung von PC1 und PC2 wie oben beschrieben berechnet werden. Diese können als ρC1, ϕC1, ρC2 und ϕC2 bezeichnet werden. Oberflächennormalen (z. B. Zenit θz und Azimut θa) können aus der Polarisation unter Verwendung der Form aus der Polarisation (SFP) mit DOLP ρ und AOLP ϕ erhalten werden, wie oben in Bezug auf die Gleichungen (2), (3), (4) und (5) für beide Kameras C1 und C2 (z. B. basierend auf Polarisations-Rohbildern PC1 und PC2) beschrieben. Diese Oberflächennormalen aus den beiden Blickpunkten können als NPolC1 und NPolC2 bezeichnet werden.
  • Diese Oberflächennormalen leiden jedoch unter der azimutalen θa Mehrdeutigkeit um einen Winkel von π, die durch Verwendung des CAD-Referenzmodells als Einschränkung (z. B. durch Auswahl des azimutalen Winkels θa, der zu einer Oberfläche führt, die den geringeren Abstand oder Fehler in Bezug auf das Referenzmodell aufweist) disambiguiert und korrigiert werden kann. Dementsprechend kann niederfrequentes Rauschen (z. B. Mehrdeutigkeit durch einen Winkel von π) mit Hilfe des Referenzmodells aufgelöst werden.
  • Je nachdem, ob das Objekt dielektrisch oder nicht dielektrisch ist (unter Berücksichtigung der Stärke von DOLP), kann ein geeignetes DOLP-Berechnungsmodell verwendet werden, um den Zenitwinkel wie oben beschrieben zu schätzen. In einigen Ausführungsformen kann davon ausgegangen werden, dass das Material ein Dielektrikum mit einem Brechungsindex von 1,5 ist, da der Brechungsindex von Dielektrika typischerweise im Bereich [1,3; 1,6] liegt und diese Variation eine vernachlässigbare Änderung des DOLP p verursacht. In Fällen, in denen das Material nicht dielektrisch ist, würde die Genauigkeit des geschätzten Zenitwinkels unter Brechungsfehlern leiden. Der Brechungsfehler im Zenit ist ein niederfrequentes Phänomen und kann daher ebenfalls korrigiert werden, indem das Referenzmodell als Grundlage für die Auflösung des Brechungsfehlers verwendet wird.
  • Die Normalen NPolC1 und NPolC2 können beide unabhängig voneinander über einen Stichprobenraum (Ω) integriert werden, um die gesamte Oberfläche des Objekts oder einen Bereich der Oberfläche des Objekts wiederherzustellen (z. B. geben die Oberflächennormalen die Neigung der Oberflächen des Objekts an, so dass die Integration über die Neigungen unter Berücksichtigung der Richtung der Normalen gegenüber der orthogonalen Richtung der Neigung die zugrunde liegende Form des Objekts wiederherstellt). Die aus einer solchen Integration gewonnene Oberfläche sollte mit der durch das CAD-Referenzmodell vorgegebenen Form übereinstimmen. Unterschiede zwischen der aus der Integration gewonnenen Oberfläche und dem Referenzmodell können auf fehlerhafte Teile des physischen Objekts hinweisen.
  • Zusätzlich zur ausschließlichen Verwendung des CAD-Modells zum Auflösen von Mehrdeutigkeiten und Fehlern bei der 3D-Rekonstruktion basierend auf Polarisationsdaten von einer Polarisationskamera (oder einem Polarisationskamera-Array) beziehen sich einige Aspekte von Ausführungsformen der vorliegenden Offenbarung auf die weitere Verbesserung der Qualität der 3D-Rekonstruktion durch Erzwingen der Konsistenz der Blickpunkte zwischen den Kameras des Stereo-Polarisationskamerasystems.
  • Dementsprechend beziehen sich einige Ausführungsformen der vorliegenden Offenbarung auf die Berechnung der geschätzten Oberflächennormalen, wie oben beschrieben, durch den in 8B gezeigten Verfahrensschritt 830, während sich einige Ausführungsformen der vorliegenden Offenbarung auf die weitere Verfeinerung der geschätzten Oberflächennormalen beziehen. Noch immer Bezug nehmend auf 8B wird im Verfahrensschritt 840 das hochwertige CAD-Referenzmodell an der Orientierung des physischen Objekts ausgerichtet, basierend auf visuellen Schlüsselpunkten, die auf dem Objekt in den Polarisationsrohbildern geschätzt werden, die von den beiden Kameras PC1 und PC2 erfasst wurden. Diese Schlüsselpunkte werden mit demselben Satz von Schlüsselpunkten im CAD-Referenzmodell korreliert, um die Pose des Objekts mit sechs Freiheitsgraden (6DoF) in Bezug auf die Kameras mithilfe von Perspective-N-Point (PnP) zu erhalten (siehe z. B. Fischler, M. A.; Bolles, R. C. (1981). „Random Sample Consensus: A Paradigm for Model Fitting with Applications to Image Analysis and Automated Cartography“. Communications of the ACM. 24 (6): 381-395.) und/oder Random Sample Consensus (RANSAC). Die Verwendung mehrerer registrierter Kameras mit unterschiedlichen Blickpunkten ermöglicht eine genauere Posenrekonstruktion als die Verwendung einer einzigen Kamera mit einem einzigen Blickpunkt, obwohl Ausführungsformen der vorliegenden Offenbarung darauf nicht beschränkt sind und auch PnP mit einem Blickpunkt verwendet werden kann. Das CAD-Referenzmodell kann in die Kameraräume transformiert werden, die den verschiedenen Kameramodulen des Stereokamerasystems entsprechen (z. B. durch Transformation der Pose des CAD-Referenzmodells in die Pose des tatsächlichen physischen Objekts in Bezug auf das Kamerasystem), wodurch das Referenzmodell an das physische Objekt angepasst wird. Im Falle von zwei Kameras kann dies als CADC1 und CADC2 bezeichnet werden. Aus CADC1 und CADC2 werden dann Oberflächennormalen extrahiert (z. B. basierend auf den Ausrichtungen der Oberflächen in Bezug auf die virtuellen Kameras, die den Kameramodulen des Stereokamerasystems entsprechen). Diese Referenzflächennormalen können als NCADC1 und NCADC2 bezeichnet werden.
  • Das transformierte CAD-Referenzmodell kann dann als Orientierungshilfe zur Korrektur der hochfrequenten azimutalen π-Mehrdeutigkeit sowie des niederfrequenten Skalierungsfehlers im Zenit aufgrund der refraktiven Verzerrung verwendet werden. Die korrigierten Normalen sind aufgrund von Mehrbild-PnP zwischen den beiden Kameras konsistent, was diesen Ansatz robuster macht. Genauer gesagt werden im Verfahrensschritt 850 die geschätzten Normalen NPolC1 und NPolC2, die (im Verfahrensschritt 830) aus den Polarisationsrohbildern PC1 und PC2 der beiden Kameras berechnet wurden, anschließend korrigiert, um korrigierte Normalen Corrected_NPolC1 und Corrected_NPolC2 zu berechnen. Die relativen Posen zwischen den korrigierten Normalen sollten mit der relativen Pose zwischen den Kameras (NCADC1 und NCADC2) konsistent sein. Dadurch werden zusätzliche Beschränkungen für die Konsistenz der Pose auferlegt, wodurch die SFP-Normalenkorrektur im Allgemeinen robuster wird, insbesondere im Fall von fronto-parallelen Facetten, bei denen der Zenit θz nahe bei 0° (oder 0 Radiant) liegt und die aufgrund der geringen Stärke des DOLP p entlang der Blickrichtung tendenziell verrauschte geschätzte Normalen aufweisen. Es ist jedoch weniger wahrscheinlich, dass eine bestimmte Facette frontal-parallel zu den beiden Kameramodulen eines Stereo-Polarisationskamerasystems liegt, da der Abstand (oder die Basislinie) zwischen den Kameramodulen gegeben ist. Dementsprechend können Regionen mit höherem DOLP-Wert ausgewählt werden, um eine robustere Oberflächennormale für Oberflächen zu erhalten, die zu einer Teilmenge der Kameramodule frontparallel sind.
  • Unter bestimmten Umständen verursacht die Spiegelung Probleme bei der Oberflächenrekonstruktion, da die Information über die Oberflächentextur aufgrund der Übersättigung der Bildintensität verloren geht. Dies führt dazu, dass die geschätzten Normalen auf einem spiegelnden Fleck stark verrauscht sind. Gemäß einigen Ausführungsformen der vorliegenden Offenbarung umfasst das Polarisationskamerasystem mehrere Kameras (z. B. zwei oder mehr), die überlappende Bereiche der Szene von mehreren Blickpunkten aus betrachten (z. B. ein Stereo-Polarisationskamerasystem), die durch eine Grundlinie voneinander getrennt sind. Der Glanz ist im Allgemeinen ein stark vom Blickpunkt abhängiges Problem. Das heißt, es ist weniger wahrscheinlich, dass die Spiegelung von allen Kameras in einer Anordnung wie der in 1D gezeigten beobachtet wird, in der verschiedene Kameras verschiedene Blickpunkte auf die Oberflächen eines Objekts haben.
  • Im Detail beziehen sich einige Aspekte der Ausführungsformen der vorliegenden Offenbarung auf die automatische Wiederherstellung robuster Oberflächennormalen, selbst bei stark spiegelnden Materialien, durch Abbildung der Oberflächen von mehreren Blickpunkten aus. Unter den meisten Beleuchtungsbedingungen ist es sehr unwahrscheinlich, dass ein bestimmter Bereich einer Oberfläche für alle Kameras in einem Stereo-Mehrblick-Kamerasystem spiegelnd erscheint.
  • Dementsprechend kann in einigen Ausführungsformen der vorliegenden Offenbarung ein Abstimmungsmechanismus verwendet werden, um Normalen von einem spiegelnden Fleck, der von einer bestimmten Kamera beobachtet wird, abzulehnen, während die Normalen von den anderen Kameras für den bestimmten Fleck ausgewählt werden, die mit größerer Wahrscheinlichkeit sowohl miteinander als auch mit dem CAD-Modell übereinstimmen. Beispielsweise können die Oberflächennormalen basierend auf den Polarisationsrohbildern berechnet werden, die von jedem der Polarisationskameramodule in der Stereo-Polarisationskameraanordnung erfasst wurden. Wenn die Oberflächennormalen, die basierend auf den Polarisationsrohbildern berechnet werden, in hohem Maße miteinander inkonsistent sind (z. B. mehr als ein Schwellenwert für den Winkelabstand), dann werden die berechneten Oberflächennormalen, die den Oberflächennormalen des Referenzmodells am nächsten liegen, als die korrekten Werte angenommen.
  • In anderen Ausführungsformen der vorliegenden Offenbarung können spiegelnde Flecken automatisch erkannt werden, indem gesättigte Pixel in den Polarisationsrohbildern identifiziert werden. Die Sättigung der Pixel deutet darauf hin, dass der betreffende Fleck möglicherweise spiegelnd ist und daher die Informationen in diesem Bereich ungenau sein können.
  • In noch anderen Ausführungsformen der vorliegenden Offenbarung umfasst das Stereokamerasystem mehr als zwei Polarisationskameramodule (z. B. drei oder mehr Polarisationskameramodule), die die Oberflächen der Objekte aus verschiedenen Blickpunkten aufnehmen. Dementsprechend kann ein Abstimmungsmechanismus verwendet werden, bei dem die Oberflächennormalen, die basierend auf den von den verschiedenen Kameras erfassten Polarisationsrohbildern berechnet werden, basierend auf der Ähnlichkeit geclustert werden (nachdem die Oberflächennormalen so transformiert wurden, dass sie einem gleichen Bezugsrahmen entsprechen, wie z. B. einem der Polarisationskameramodule). Da es unwahrscheinlich ist, dass die meisten Polarisationskameramodule Spiegelungen beobachten, sollten die meisten der berechneten Normalen innerhalb eines Fehlerbereichs konsistent sein. Dementsprechend kann der Clustering-Prozess Ausreißer in den berechneten Oberflächennormalen identifizieren, die durch spiegelnde Artefakte verursacht werden.
  • Eine Pseudocode-Beschreibung eines Algorithmus für die Korrektur von Normalen basierend auf der Abstimmung mit einem CAD-Referenzmodell wird im Folgenden ausführlicher dargestellt. Als Schreibweise:
    • N_P_C1 - Form-aus-Polarisation (SFP) Normalen in Kamera 1
    • N_P_C2 - SFP-Normalen in Kamera 2
    • N_CAD_C1 - Normalen im CAD-Referenzmodell, ausgerichtet an der Objektpose in Bezug auf Kamera 1
    • N_CAD_C2 - Normalen im CAD-Referenzmodell, ausgerichtet an der Objektpose in Bezug auf Kamera 2
    • Trans_C2_C1 - Pose von Kamera 2 in Bezug auf Kamera 1, erhalten durch extrinsische und intrinsische Kamerakalibrierung (z. B. bestimmt durch Bildkalibrierungsziele, die sowohl für Kamera 1 als auch für Kamera 2 sichtbar sind)
    • Trans_CAD_C1 - Transformation, die verwendet wird, um das CAD-Referenzmodell mit dem Objekt im Bildraum von Kamera 1 auszurichten, erhalten durch Multiview-PnP
    • Trans_CAD_C2 - Transformation, die verwendet wird, um das CAD-Referenzmodell mit dem Objekt im Bildraum von Kamera 2 auszurichten, das durch Multiview PnP erhalten wurde
  • (~) - Konsistenzoperator
  • Der Konsistenzoperator (~) kann als eine Abstandsmetrik (z.B. eine auf Cosinusähnlichkeit basierende Winkeldistanzmetrik) modelliert werden, die zwischen den auf Konsistenz verglichenen Normalen berechnet wird. Wenn der Winkelabstand kleiner als ein Schwellenwert ist, sind die verglichenen Normalen miteinander konsistent, andernfalls nicht (!~). Die zu vergleichenden Normalen werden in denselben Koordinatensatz transformiert (in diesem Fall in den Master-Kamera- oder Kamera 1-Bildraum), wobei die oben aufgeführten Transformationen verwendet werden, bevor der Konsistenzoperator (~) angewendet wird.
  • Pseudocode-Implementierung der Abstimmung basierend auf dem vorherigen CAD-Referenzmodell:
  • Für jede Pixelnormale in N_P_C1 (Master-Kamera-Bildraum, in diesem Fall Kamera 1):
    Figure DE112020004810B4_0017
    Figure DE112020004810B4_0018
  • In einigen Ausführungsformen der vorliegenden Offenbarung werden die korrigierten Oberflächennormalen Corrected_N_(Pol_C1) und Corrected_N_(Pol_C2) über den Abtastraum (Ω) integriert, um eine 3-D-Rekonstruktion des vom Stereo-Polarisationskamerasystem abgebildeten Objekts zu erstellen.
  • Während sich die oben beschriebenen Ausführungsformen auf die 3D-Rekonstruktion von 3D-Objekten basierend auf einem hochwertigen 3D-Modell, wie z. B. einem CAD-Konstruktionsmodell, beziehen, beziehen sich einige Aspekte der Ausführungsformen der vorliegenden Offenbarung auch auf die 3D-Rekonstruktion von allgemein flachen Oberflächen oder Oberflächen mit bekannter, einfacher Geometrie unter Verwendung eines polarisierten Mehrblick-Kamerasystems, wie es in 1E gezeigt ist. Der Fall der einfachen Geometrie kann sich auf Umstände beziehen, in denen die zu analysierenden Objekte unbekannt sind, aber beispielsweise durch flache Ebenen, Kugeln und andere einfache parametrische Kurven mit bekannter Geometrie angenähert werden können. Flache Ebenen können z. B. für viele Oberflächen in der Umgebung eines selbstfahrenden Fahrzeugs verwendet werden, wie z. B. die Oberfläche einer Straße, aber auch Wände und Schilder. Darüber hinaus können je nach der für eine bestimmte Anwendung erforderlichen Auflösung und/oder Genauigkeit viele Oberflächen als lokal flach angenähert werden.
  • 9A zeigt eine flache Oberfläche mit dem Brechungsindex n, die mit einer beispielhaften Implementierung der Bildgebungseinrichtung gemäß einer Ausführungsform der vorliegenden Erfindung abgetastet wird. Für bestimmte Anwendungen in der Profilometrie und Inspektion wird diese Oberfläche auf ihre Glätte untersucht. Im Idealfall sollte diese Oberfläche glatt sein. In der Praxis können aufgrund von Defekten/Verschleiß vereinzelte Unregelmäßigkeiten 901 an zufälligen Stellen auf dieser ansonsten ebenen Oberfläche 902 auftreten. Diese Unregelmäßigkeiten manifestieren sich als HFV-Details (High-Frequency-Variation), die mit Standard-3D-Bildgebungsverfahren aufgrund von Rauschen und schlechter Auflösung nicht wiederhergestellt werden können. Die Ausführungsformen der vorliegenden Erfindung sind jedoch in der Lage, diese HFV-Unregelmäßigkeiten wiederherzustellen, indem sie die Polarisation in Verbindung mit der Ebenheit und den Beschränkungen durch mehrere Ansichten nutzen.
  • Dementsprechend beziehen sich einige Ausführungsformen der vorliegenden Offenbarung auf das Erfassen zufälliger, spärlicher Unregelmäßigkeiten auf einer ansonsten im Wesentlichen glatten Oberfläche (z. B. einer im Wesentlichen ebenen Oberfläche). Als motivierendes Beispiel können Ausführungsformen der vorliegenden Offenbarung verwendet werden, um Schlaglöcher in einer Straße mit einem Stereo-Polarisationskamerasystem zu erfassen, so dass ein selbstfahrendes Fahrzeug diese Schlaglöcher vermeiden kann, was aufgrund der Verkehrsbedingungen sinnvoll ist. Als weiteres motivierendes Beispiel können Ausführungsformen der vorliegenden Offenbarung verwendet werden, um Oberflächendefekte in Oberflächen mit allgemein einfacher Geometrie zu erfassen, wie z. B. das Erfassen von Oberflächenunregelmäßigkeiten in der Glätte einer Glasscheibe oder in einem Metallblech.
  • In einigen Ausführungsformen der vorliegenden Offenbarung kann ein Multiview-Polarisationskamerasystem außerdem einen strukturierten Lichtprojektor 903 umfassen, der konfiguriert ist, um gemustertes Licht auf eine Szene zu projizieren, um eine zusätzliche detektierbare Oberflächentextur für die Tiefe von Stereoprozessen bereitzustellen, die zwischen den Ansichten abgeglichen werden (z. B. unter Verwendung von Blockabgleich), um Parallaxenverschiebungen zu messen. In einigen Fällen ist der Projektor für strukturiertes Licht konfiguriert, um Infrarotlicht zu projizieren, und das Kamerasystem umfasst Kameras, die konfiguriert sind, um Infrarotlicht zusammen mit Licht in anderen Spektralbändern zu erfassen. Jede nachfolgende Analyse der Oberflächen kann dann basierend auf den in den anderen Spektralbereichen gesammelten Daten durchgeführt werden, so dass das projizierte Muster nicht versehentlich als Defekt in der Oberfläche des Materials erkannt wird.
  • 9B ist ein Flussdiagramm eines Verfahrens 900 zur 3D-Oberflächenrekonstruktion von flachen oder geometrisch einfachen Oberflächen unter Verwendung von Polarisation gemäß einer Ausführungsform der vorliegenden Offenbarung.
  • In ähnlicher Weise wie oben beschrieben, werden in einigen Ausführungsformen der vorliegenden Offenbarung im Verfahrensschritt 910 Polarisationsrohbilder 18 von einer Szene (z. B. einschließlich im Wesentlichen flacher oder glatter Oberflächen) aus mehreren Blickpunkten erfasst, beispielsweise mit einem Stereo-Polarisationskamerasystem, wie oben in Bezug auf 1D beschrieben. Aus jedem der aufgenommenen Rohbilder kann ein Satz von vier separaten Polarwinkelbildern (0, 45, 90, 135) extrahiert werden. Diese können als PC1 und PC2 bezeichnet werden. In beispielhaften Implementierungen dieses Aufbaus können die Kameras in Standard-Stereokonfigurationen (optische Achsen parallel zueinander) oder in anderen Konfigurationen (z. B. wenn sich die optischen Achsen schneiden) untergebracht sein.
  • Im Verfahrensschritt 920 können Grad und Winkel der linearen Polarisation (DOLP p und AOLP ϕ aus der Stokes-Vektorformulierung für beide Kameras unter Verwendung von PC1 und PC2 wie oben beschrieben berechnet werden. Diese können als ρC1, ϕC1, ρC2 und ϕC2 bezeichnet werden.
  • Im Verfahrensschritt 930 können Oberflächennormalen (z. B. Zenit θz und Azimut θa) aus der Polarisation mittels Form aus Polarisation (SFP) unter Verwendung von DOLP p und AOLP ϕ, wie oben in Bezug auf die Gleichungen (2), (3), (4) und (5) für beide Kameras C1 und C2 (z. B. auf der Grundlage von Polarisations-Rohbildern PC1 und PC2) beschrieben, erhalten werden. Abhängig davon, ob das Objekt dielektrisch oder nicht dielektrisch ist (unter Berücksichtigung der Stärke von DOLP), kann ein geeignetes DOLP-Berechnungsmodell verwendet werden, um den Zenitwinkel wie oben beschrieben zu schätzen. In einigen Ausführungsformen kann angenommen werden, dass das Material ein Dielektrikum mit einem Brechungsindex von 1,5 ist, da der Brechungsindex von Dielektrika typischerweise im Bereich [1,3; 1,6] liegt und diese Variation eine vernachlässigbare Änderung des DOLP p verursacht. In Fällen, in denen das Material nicht dielektrisch ist, würde die Genauigkeit des geschätzten Zenitwinkels unter der Brechungsverzerrung leiden.
  • Diese Oberflächennormalen aus den beiden Blickpunkten können als NPolC1 und NPolC2 bezeichnet werden. Diese Oberflächennormalen leiden jedoch unter der azimutalen θa-Mehrdeutigkeit um einen Winkel von π, die durch die Verwendung der Grobtiefenkarte als Einschränkung (z. B. durch Auswahl des azimutalen Winkels θa, der zu einer Oberfläche führt, die den kleineren Abstand oder Fehler in Bezug auf das Referenzmodell aufweist) disambiguiert und korrigiert werden kann. Dementsprechend kann niederfrequentes Rauschen (z. B. Mehrdeutigkeit durch einen Winkel von π) unter Verwendung der Grobtiefenkarte aufgelöst werden, die aus der Stereoansicht der Szene erstellt wurde.
  • Darüber hinaus wird im Verfahrensschritt 940 eine Grobtiefenkarte (CDM) basierend auf der Parallaxenverschiebung zwischen den Kamerapaaren im Stereo-Polarisationskamerasystem berechnet, basierend auf Tiefe-von-Stereo-Ansätzen (z. B. wo größere Parallaxenverschiebungen Oberflächen anzeigen, die sich näher am Kamerasystem befinden, und kleinere Parallaxenverschiebungen Oberflächen anzeigen, die weiter entfernt sind). Wie bereits erwähnt, enthält das Stereo-Polarisationskamerasystem in einigen Ausführungsformen ein Beleuchtungssystem mit strukturiertem Licht, das die Übereinstimmung der entsprechenden Bildbereiche verbessern kann, wenn die Oberflächen keine intrinsische Textur oder andere visuelle Merkmale aufweisen. Im Verfahrensschritt 940 wird die berechnete Grobtiefenkarte auch an den Bildräumen ausgerichtet, die den Blickpunkten C1 und C2 entsprechen (z. B. unter Verwendung der relativen Pose und der extrinsischen Matrizen aus der Kamerakalibrierung), wobei die Grobtiefenkarten, die diesen Bildräumen entsprechen, als CDMC1 und CDMC2 bezeichnet werden.
  • Im Verfahrensschritt 950 werden die geschätzten Normalen NPolC1 und NPolC2 basierend auf den Normalen korrigiert, die aus dem CDM NCDMC1 und NCDMC2 erhalten werden, um die korrigierten Oberflächennormalen Corrected _NPolC1 und Corrected_NPolC2 zu berechnen. In einigen Ausführungsformen der vorliegenden Offenbarung werden diese Normalen aus dem CDM unter Verwendung der in Kadambi, A. [et al.], Polarized 3D: High-Quality Depth Sensing with Polarization Cues, 2015 IEEE International Conference on Computer Vision (ICCV), Santiago, Chile, 2015, S. 3370-3378, doi: 10.1109/ICCV.2015.385. (siehe oben) beschriebenen Methode der ebenen Hauptkomponente berechnet. In einigen Ausführungsformen werden die aus dem CDM, NCDMC1 und NCDMC2 berechneten Normalen als Orientierungshilfe verwendet, um hochfrequente azimutale Mehrdeutigkeit sowie Brechungsfehler-Zenit-Verzerrung in NPolC1 zu korrigieren, wobei die Konsistenz zwischen mehreren Ansichten mit der Kamera PC2 gemeinsam berücksichtigt wird. Diese korrigierten Normalen sind auch robuster als die sonst verrauschten SFP-Normalen im Falle von frontal-parallelen Facetten sowie von Spiegelungen, wie oben beschrieben. In einigen Ausführungsformen wird auch die Ebenheitspriorität der Oberfläche (oder eine andere einfache geometrische Form der Oberfläche) zur weiteren Verfeinerung der Zenitverzerrung verwendet. Insbesondere sollten die geschätzten Normalen NPolC1 und NPolC2 im Allgemeinen flach sein, und daher sollten die Normalen der wiederhergestellten Oberfläche (abgesehen von Bereichen mit lokalen Oberflächenunregelmäßigkeiten) in jeder der Kameras ungefähr 90 Grad und parallel zueinander sein. In einigen Ausführungsformen der vorliegenden Offenbarung wird ein Abstimmungsschema verwendet, um die Korrektur der Normalen durchzuführen.
  • Im Folgenden wird eine Pseudocode-Beschreibung eines Algorithmus für die Korrektur von Normalen basierend auf einer Abstimmung mit einer flachen Oberfläche im Detail vorgestellt. Als Schreibweise:
    • N_P_C1 - Form-aus-Polarisation (SFP)-Normalen in Kamera 1
    • N_P_C2 - SFP-Normalen in Kamera 2
    • CDM - Grobtiefenkarte
    • N_CDM_C1 - Normalen in CDM im Bildraum von Kamera 1
    • N_CDM_C2 - Normalen in CDM im Bildraum von Kamera 2
    • Trans_C2_C1 - Relative Pose von Kamera 2 in Bezug auf Kamera 1, erhalten durch extrinsische und intrinsische Kamerakalibrierung
    • Trans_CDM_C1 - Transformation zur Ausrichtung des CDM auf das Objekt im Bildraum von Kamera 1
    • Trans_CDM_C2 - Transformation zur Ausrichtung des CDM mit dem Objekt im Bildraum von Kamera 2
  • (~) - Konsistenz-Operator
  • obeys_flatness() - Operator, der prüft, ob die ausgewählten Normalen einer Ebenheitsbedingung entsprechen.
  • Der Konsistenzoperator (~) kann als eine Abstandsmetrik (z. B. eine auf Cosinusähnlichkeit basierende Winkeldistanzmetrik) modelliert werden, die zwischen den auf Konsistenz verglichenen Normalen berechnet wird. Ist der Winkelabstand kleiner als ein Schwellenwert, sind die verglichenen Normalen miteinander konsistent, andernfalls nicht (!~). Die zu vergleichenden Normalen werden mit Hilfe der oben aufgeführten Transformationen in denselben Koordinatenrahmen transformiert (in diesem Fall in den Master-Kamera- oder Kamera 1-Bildraum), bevor der Konsistenzoperator (~) angewendet wird
  • Pseudocode-Implementierung der Abstimmung basierend auf der Ebenheitspriorität:
    • Für jedes normale Pixel in N_P_C1:
      Figure DE112020004810B4_0019
  • In einigen Ausführungsformen werden die korrigierten Oberflächennormalen Corrected_N_(Pol_C1) und Corrected_N_(Pol_C2 ) verwendet, um die Form des Oberflächenobjekts zu rekonstruieren. In einigen Ausführungsformen kann beispielsweise ein Algorithmus zur Umkehrung einer dünnbesetzten Matrix angewendet werden (wie in Kadambi, A. [et al.], Polarized 3D: High-Quality Depth Sensing with Polarization Cues, 2015 IEEE International Conference on Computer Vision (ICCV), Santiago, Chile, 2015, S. 3370-3378, doi: 10.1109/ICCV.2015.385. beschrieben), um die korrigierten Tiefenkoordinaten der Oberfläche zu schätzen. Diese revidierten Tiefenkoordinaten haben eine höhere Auflösung als die ursprüngliche Tiefe, die mit Standard-3D-Bildgebungsverfahren (Stereo, Flugzeit usw.) ermittelt wurde.
  • Oberflächendefekte und -unregelmäßigkeiten können dann basierend auf dem Erfassen von Normalen erfasst werden, die verrauscht oder fehlerhaft sind oder die auf andere Weise die Posenkonsistenz zwischen den verschiedenen Kameramodulen des Stereo-Polarisationskamerasystems beeinträchtigen. Unter bestimmten Umständen sind diese spärlichen Unregelmäßigkeiten besonders offensichtlich, da sie in den für jede der Ansichten berechneten DOLP-Bildern in unterschiedlichen Anteilen auffallen. Mit anderen Worten: Teile der Normalskala, die gegen die Annahme der Ebenheit oder anderweitigen Glätte der Oberfläche verstoßen, können in Wirklichkeit nicht glatte Oberflächen sein, was die Erfassung spärlicher Unregelmäßigkeiten in einer Oberfläche ermöglicht, von der angenommen wird, dass sie generell glatt ist.
  • Ein polarisationsverbessertes Multikamerasystem für Echtzeit-Visualisierung mit Feedback-Steuerung
  • Eine Reihe von industriellen Bildgebungsanwendungen erfordern ein festes Betrachtungsvolumen mit kontrollierten Lichtverhältnissen. Zum Beispiel haben 3D-Drucker ein Druckbett fester Größe, und das Betrachtungsvolumen, das diesem Druckbett entspricht, ist eine kontrollierte Umgebung in Bezug auf Beleuchtung, Temperatur und Feuchtigkeit.
  • Aspekte der vorliegenden Offenbarung beziehen sich auf ein Oberflächenprofilometriesystem, das konfiguriert ist, um die Oberflächenprofile, Schicht für Schicht, der gedruckten Objekte zu erfassen. Dies ermöglicht die Synthese eines 3D-Modells am Ende des Druckauftrags. Dies kann für den Endkunden von großem Nutzen sein, da es ihm ermöglicht, die Abweichung des gedruckten Objekts von seinem Entwurfssoll zu verstehen und somit die Fertigungstoleranzen auf Objektbasis zu erfassen. Bei der Herstellung von kritischen Teilen ist diese Information sogar noch wichtiger. Darüber hinaus ermöglicht das vom Oberflächenprofilometriesystem erfasste schichtweise Oberflächenprofil dem 3D-Drucker, diese Informationen zu nutzen, um gegebenenfalls Korrekturmaßnahmen zu ergreifen, um den Druckprozess zu verbessern und etwaige gedruckte Anomalien zu korrigieren.
  • 10A ist ein Blockdiagramm verschiedener Komponenten des Oberflächenprofilometriesystems1000 gemäß einigen Ausführungsformen der vorliegenden Offenbarung. 10B ist ein schematisches Diagramm, das die räumliche Beziehung des einen oder der mehreren Polarisationskameramodule 10' des Oberflächenprofilometriesystems 1000 und des Druckbetts 1004 gemäß einigen Ausführungsformen der vorliegenden Offenbarung veranschaulicht.
  • Unter Bezugnahme auf die 10A-10B umfasst das Oberflächenprofilometriesystem 1000 in einigen Ausführungsformen ein 3D-Drucksystem 1002 zum Drucken (z. B., (z.B. additive Fertigung) eines physischen Objekts 1006 auf einem Druckbett 1004, ein oder mehrere Polarisationskameramodule 10' zur schichtweisen Aufnahme der Oberflächenprofile der auf dem Druckbett 1004 gedruckten Objekte und ein Verarbeitungssystem 100 zur Verarbeitung der von dem einen oder den mehreren Polarisationskameramodulen 10' aufgenommenen Polarisationsrohbilder 18. Wie oben unter Bezugnahme auf 1B-1C beschrieben, ist jedes der ein oder mehreren Polarisationskameramodule 10' ein Array (z. B. ein 2x2-Array) von Polarisationskameras, wobei jede Polarisationskamera einen linearen Polarisationsfilter mit einem bestimmten Winkel (z. B. 0°, 45°, 90° und 135°) aufweist.
  • Für jede Schicht des Objekts 1006, das vom 3D-Drucksystem 1002 gedruckt wird, empfängt die Verarbeitungsschaltung 100 Polarisationsrohbilder 18, die der gedruckten Schicht des Objekts 1006 entsprechen. Die Verarbeitungsschaltung 100 extrahiert Polarisationsinformationen aus den Polarisationsrohbildern 18 und erzeugt mit Hilfe einer Grobschichttiefenkarte Oberflächennormalen-Bilder (auch als „Normal-Bilder“ bezeichnet). Die Verarbeitungsschaltung 100 erzeugt dann ein entsprechendes 3D-Oberflächenprofil der zu druckenden Schicht. In einigen Beispielen kann dieses 3D-Oberflächenprofil in einer Nachbearbeitungsanalyse verwendet werden, um Abweichungen des gedruckten Objekts 1006 von seinem Entwurfssoll auf Schicht-zu-Schicht-Basis zu bestimmen, was zur Verbesserung des Druckprozesses oder zum besseren Verständnis der Drucktoleranzen genutzt werden kann. Darüber hinaus kann die Verarbeitungsschaltung 100 das 3D-Oberflächenprofil dem Drucksystem 1002 als Feedback zur Verfügung stellen (z. B. als Steuerungsfeedback), wodurch das Drucksystem 1002 in der Lage sein kann, in Echtzeit Korrekturmaßnahmen zu ergreifen (z. B. durch Korrektur gedruckter Anomalien). Der Betrieb des Drucksystems 1002, des einen oder der mehreren Polarisationskameramodule 10' und der Verarbeitungsschaltung 100 kann durch ein Synchronisationssignal synchronisiert werden, das vom Drucksystem 1002 oder einer externen Steuerung geliefert wird. In einigen Beispielen nehmen die ein oder mehreren Polarisationskameramodule 10' die Polarisationsrohbilder auf, sobald eine Schicht des Objekts 1006 gedruckt ist, und die Verarbeitungsschaltung 100 schließt die Verarbeitung dieser Bilder ab, um ein 3D-Profil der Schicht zu erzeugen, bevor das Drucksystem 1002 die nachfolgende Schicht druckt (oder bevor es mit dem Drucken der nachfolgenden Schicht beginnt).
  • Um Details des Objekts 1006 mit ausreichender Auflösung zu erfassen, kann das Oberflächenprofilometriesystem 1000 in einigen Beispielen so nahe am Druckbett 1004 positioniert werden, dass das diagonale Sichtfeld der Kamera einen Winkelschwellenwert (z.B. 100°) überschreitet. In solchen Szenarien kann die Verwendung einer einzelnen Kamera mit einem Objektiv mit großem Sichtfeld zu optischen Verzerrungen oder Problemen mit der Modulationsübertragungsfunktion (MTF) führen, wobei die Verzerrungseffekte des Objektivs bei großen Feldhöhen so stark werden können, dass sich die MTF des Systems erheblich verschlechtert.
  • Dementsprechend wird in einigen Beispielen der aktive Bereich des Druckbetts 1004 in zwei oder mehr Bereiche aufgeteilt, von denen jeder Bereich von einem anderen Polarisationskameramodul 10' so abgedeckt wird, dass das diagonale Sichtfeld des abzudeckenden Bereichs den Winkelschwellenwert (z. B. 100°) nicht überschreitet. Dies kann zu einer guten Kontrolle der Feldverzerrung und der MTF des Systems über alle Feldhöhen hinweg führen. In einigen Beispielen hat jedes benachbarte Paar von Trennwänden einen überlappenden Bereich, der in das Sichtfeld der entsprechenden benachbarten Polarisationskameramodule 10' fällt. Der überlappende Bereich kann bei der Ausrichtung der von den benachbarten Polarisationskameramodulen 10' aufgenommenen Bilder helfen. Die Ausführungsformen der vorliegenden Offenbarung sind jedoch nicht darauf beschränkt, und der Überlappungsbereich kann vernachlässigbar klein oder nicht vorhanden sein, und die Ausrichtung kann ohne die Hilfe eines Überlappungsbereichs durchgeführt werden. Gemäß einigen Beispielen kann die Bildausrichtung basierend auf vorherigen Kalibrierungen durchgeführt werden, wobei die Kenntnis der Position und Ausrichtung der einzelnen Polarisationskameramodule 10' relativ zum Druckbett 1004 verwendet wird. Die vorherigen Kalibrierungen können als extrinsische Rotations- und Translationsmatrix kodiert werden, die im Verarbeitungssystem 100 gespeichert werden kann.
  • In Ausführungsformen, in denen ein einziges Polarisationskameramodul 10' pro Teilbereich verwendet wird, kann die Verarbeitungsschaltung 100 die Grobtiefenkarte aus dem 3D-CAD-Schichtenmodell ableiten, das vom 3D-Drucksystem zum Drucken der Schicht des beobachteten Objekts 1006 verwendet wird. Die Ausführungsformen der vorliegenden Erfindung sind j edoch nicht darauf beschränkt. Gemäß einigen Ausführungsformen kann ein Paar von Polarisationskameramodulen 10' (wie das Stereo-Polarisationskamerasystem 10'', das unter Bezugnahme auf 1D beschrieben wird) von dem Oberflächenprofilometriesystem 1000 verwendet werden, um die Polarisationsmerkmale jedes Teilbereichs des Druckbetts 1004 zu erfassen. In solchen Ausführungsformen kann die Verarbeitungsschaltung 100 die Grobtiefenkarte basierend auf der Parallaxenverschiebung zwischen den von dem Paar (z. B. von dem Stereo-Polarisationskamerasystem 10'') erfassten Polarisationsrohbildern konstruieren, wie oben in Bezug auf 1D beschrieben, oder die Grobtiefenkarten aus dem 3D-CAD-Schichtenmodell ableiten.
  • 10C ist ein Flussdiagramm eines Verfahrens 1100 zur Durchführung der Oberflächenprofilometrie eines Objekts, das einer additiven Fertigung unterzogen wird, basierend auf Polarisationsrohbildern, gemäß einigen Ausführungsformen der vorliegenden Offenbarung.
  • In einigen Ausführungsformen führt die Verarbeitungsschaltung 100 das Verfahren 1100 für jede Schicht oder für jede einer Untermenge von Schichten des zu druckenden Objekts 1006 durch.
  • Im Verfahrensschritt 1102 empfängt die Verarbeitungsschaltung 100 Polarisationsrohbilder, die von einer gedruckten Schicht des 3D-Objekts mit einem oder mehreren Polarisationskameramodulen 10' aufgenommen wurden. Die Verarbeitungsschaltung 100 extrahiert dann im Verfahrensschritt 1104 Polarisationsmerkmalskarten oder Polarisationsbilder aus Polarisationsrohbildern. Dabei berechnet die Verarbeitungsschaltung 100 basierend auf den Polarisationsbildern den Grad und den Winkel der linearen Polarisation (DOLP p und AOLP ϕ aus der Stokes-Vektorformulierung für jede der einen oder mehreren Kameras der Polarisationskameramodule 10' (ähnlich wie im Verfahrensschritt 920 von 9B).
  • Im Verfahrensschritt 1106 erhält die Verarbeitungsschaltung 100 die Grobschichttiefenkarte, die der Schicht des zu druckenden Objekts 1006 entspricht. In einigen Beispielen kann die Grobschichttiefenkarte das CAD-Schichtenmodell sein, das vom Drucksystem 1002 bereitgestellt wird. In Beispielen, in denen das Oberflächenprofilometriesystem 1000 ein Paar von Polarisationskameramodulen 10' (z. B. das Stereo-Polarisationskamerasystem 10'') und nicht ein einzelnes Polarisationskameramodul 10' verwendet, um die Polarisationsmerkmale jedes Teilbereichs des Druckbetts 1004 zu erfassen, kann die Verarbeitungsschaltung 100 die Grobtiefenkarte basierend auf der Parallaxenverschiebung zwischen den von dem Paar erfassten Polarisationsrohbildern konstruieren.
  • Im Verfahrensschritt 1108 erzeugt die Verarbeitungsschaltung 100 Oberflächennormalen-Bilder basierend auf der Grobschichttiefenkarte und den Polarisationsbildern. Wie oben beschrieben, berechnet die Verarbeitungsschaltung 100 in einigen Ausführungsformen Oberflächennormalen (z. B. Zenit θz und Azimut θa) aus den Polarisationsbildern unter Verwendung der SFP-Technik (Shape from Polarization), wie oben in Bezug auf die Gleichungen (2), (3), (4) und (5) für jedes der ein oder mehreren Polarisationskameramodule 10' beschrieben. Die Verarbeitungsschaltung 100 bestimmt dann die Pose der zu bedruckenden Schicht in Bezug auf jedes der einen oder mehreren Polarisationskameramodule 10' unter Verwendung von Perspective-N-Point (PnP) und transformiert die Grobschichttiefenkarte in den/die Kameraraum/Kameraräume, der/die dem einen oder den mehreren Polarisationskameramodulen 10' des Oberflächenprofilometriesystems 1000 entspricht/entsprechen (wie z. B. unter Bezugnahme auf den Verfahrensschritt 840 von 8B beschrieben). Die transformierte(n) Grobschichttiefenkarte(n), die dem einen oder den mehreren Kameramodulen 10' entspricht/entsprechen, wird/werden von der Verarbeitungsschaltung 100 als Führungsvorgaben verwendet, um die hochfrequente azimutale π-Mehrdeutigkeit sowie den niederfrequenten Skalierungsfehler im Zenit aufgrund von Brechungsverzerrungen zu korrigieren und so die entsprechenden einen oder mehreren korrigierten Oberflächennormalen-Bilder zu erzeugen, die gegenüber verrauschten SFP-Normalen in Fällen von fronto-parallelen Facetten und Spiegelungen robust sein können. In Ausführungsformen, in denen das Oberflächenprofilometriesystem 1000 die Grobtiefenkarte basierend auf der Parallaxenverschiebung zwischen den Polarisationsrohbildern konstruiert, die von einem Paar von Polarisationskameramodulen 10' (z. B. dem Stereo-Polarisationskamerasystem 10'') erfasst werden, kann das Grobschichttiefenmodell und die Polarisationshinweise (z. B. DOLP p und AOLP ϕ) unter Verwendung der unter Bezugnahme auf 4 beschriebenen Verfahrensschritte 450-490 verfeinert werden.
  • Im Verfahrensschritt 1110 erzeugt die Verarbeitungsschaltung 100 eine 3D-Rekonstruktion der zu druckenden Schicht basierend auf dem/den korrigierten Oberflächennormalen-Bild(ern). Wie oben beschrieben, kann die korrigierte(n) Oberflächennormale(n) (unabhängig) über einen Probenraum (Ω) integriert werden, um die Form der gesamten Oberfläche der gedruckten Schicht oder eines Teils davon innerhalb des entsprechenden Teilbereichs für jedes Kameramodul 10' wiederherzustellen. In Beispielen, in denen das Druckbett 1004 in zwei oder mehr Teilbereiche mit entsprechenden zwei oder mehr Kameramodulen 10' unterteilt ist, kann die wiederhergestellte Form jedes Teilbereichs mit der (den) wiederhergestellten Form(en) des (der) benachbarten Teilbereichs (Teilbereiche) ausgerichtet und zusammengeführt werden, um die 3D-Rekonstruktion der gesamten gedruckten Schicht zu erhalten. In einigen Beispielen kann die Ausrichtung und Zusammenführung in der Phase der korrigierten Oberflächennormalen-Bilder durchgeführt werden, und das resultierende zusammengeführte Oberflächennormalen-Bild kann der gesamten zu druckenden Schicht entsprechen. Diese 3D-Rekonstruktion kann gemäß einigen Ausführungsformen eine höhere Auflösung haben als die, die mit 3D-Bildgebungsverfahren des verwandten Standes der Technik erzielt werden kann.
  • Es wird erwartet, dass die aus einer solchen Integration gewonnene Oberfläche mit der durch das CAD-Schichtmodell vorgegebenen Form übereinstimmt, und Unterschiede zwischen der aus der Integration gewonnenen Oberfläche und dem CAD-Schichtmodell können auf fehlerhafte Teile der gedruckten Schicht hinweisen.
  • Weitreichende 3D-Gesichtsscans
  • Die Gesichtserkennung ist ein wichtiges biometrisches Erkennungsverfahren, das die Authentifizierung des Benutzers in zahlreichen Sicherheits- und Überwachungsanwendungen ermöglicht. Unter den bestehenden Authentifizierungsmethoden sind 3D-Gesichtsscans potenziell robuster mit niedrigeren Falschakzeptanzraten (FAR) und Falschrückweisungsraten (FRR). Aus diesem Grund ist das Interesse an der 3D-Gesichtsauthentifizierung gestiegen. Allerdings sind 3D-Gesichtsscans mit herkömmlichen Mitteln möglicherweise nicht einfach robust zu implementieren. In mobilen Systemen wird beispielsweise mit aktiver Beleuchtung ein Muster auf das Gesicht eines Benutzers projiziert und dann das projizierte Muster abgetastet, um die Tiefe der wichtigsten Merkmale zu ermitteln. Diese Technologie ist weit verbreitet, hat aber eine Reihe von Problemen, darunter: die zusätzlichen Kosten und den Stromverbrauch, die sich aus der Verwendung aktiver Beleuchtung ergeben, die begrenzte Reichweite der aktiven Beleuchtung sowie die Unfähigkeit, unter allen Umgebungsbedingungen (z. B. Lichtverhältnissen) zuverlässig zu arbeiten.
  • Einige Aspekte der Ausführungsformen der vorliegenden Offenbarung beziehen sich auf ein 3D-Bildgebungssystem, das die Lichtpolarisation und neuronale Netze zur 3D-Abtastung eines Gesichts nutzt.
  • 11A zeigt das 3D-Bildgebungssystem 1100 gemäß einigen Ausführungsformen der vorliegenden Offenbarung.
  • In einigen Ausführungsformen umfasst das 3D-Bildgebungssystem 1100 das Polarisationskameramodul 10', den Merkmalsextraktor 700 und ein neuronales Netz zur Gesichtsrekonstruktion 1104. Das Polarisationskameramodul 10', das in einem Abstand von dem beobachteten Gesicht 1102 angeordnet ist, nimmt das Gesicht 1102 auf und erzeugt ein entsprechendes Polarisationsrohbild 18'. Der Abstand zwischen dem beobachteten Gesicht 1102 und dem Polarisationskameramodul 10' ist nicht besonders begrenzt und kann jeder geeignete Abstand sein, solange die Fähigkeit, das Gesicht 1102 zu erfassen, nicht durch die Optik des Polarisationskameramoduls 10' eingeschränkt wird. Der Merkmalsextraktor 700 berechnet die Merkmalskarten 50, die Oberflächennormalen (z. B. geschätzte Oberflächennormalen) 58 enthalten, basierend auf dem Polarisationsrohbild 18' über den oben in Bezug auf die beschriebenen Prozess. Gemäß einigen Ausführungsformen erzeugt das neuronale Gesichtsrekonstruktionsnetz 1104 eine detaillierte 3D-Rekonstruktion 1106 des beobachteten Gesichts 1102 basierend auf (z. B. ausschließlich basierend auf) den Merkmalskarten 50 (z. B. den Oberflächennormalen 58). In einigen Ausführungsformen wird das neuronale Netz zur Gesichtsrekonstruktion 1104 trainiert, um korrigierte Oberflächennormalen (korrigierte NPolC1 und korrigierte _NPolC2, wie beispielsweise oben in Bezug auf die und beschrieben) basierend auf den geschätzten Oberflächennormalen 58 zu berechnen und die 3D-Rekonstruktion 1106 des Gesichts 1102 basierend auf den korrigierten Oberflächennormalen zu erzeugen.
  • Gemäß einigen Ausführungsformen ist das neuronale Netz zur Gesichtsrekonstruktion 1104, das ein polarisiertes CNN sein kann, darauf trainiert, eine Vielzahl von Merkmalskarten (z. B. Oberflächennormalen) mit detaillierten 3D-Rekonstruktionen von Gesichtern zu korrelieren, aus denen die Merkmalskarten erzeugt wurden.
  • Dementsprechend beziehen sich Aspekte einiger Ausführungsformen der vorliegenden Offenbarung auf ein 3D-Bildgebungssystem, das in der Lage ist, eine Vielzahl von verbesserten/detaillierten 3D-Gesichtsrekonstruktionen basierend auf Gesichtern zu erzeugen, die von einem oder mehreren Polarisationskameramodulen 10' erfasst wurden.
  • 11B zeigt das 3D-Bildgebungssystem 1110 gemäß einigen Ausführungsformen der vorliegenden Offenbarung.
  • In einigen Ausführungsformen umfasst das 3D-Bildgebungssystem 1110 ein oder mehrere Polarisationskameramodule 10' zum Erfassen eines oder mehrerer Polarisationsrohbilder 18 und ein Verarbeitungssystem 100 zum Erzeugen einer 3D-Rekonstruktion 1106' des beobachteten Gesichts 1102' basierend auf dem einen oder mehreren Polarisationsrohbildern 18.
  • In einigen Ausführungsformen umfassen das eine oder die mehreren Polarisationskameramodule 10' mindestens ein erstes und ein zweites Polarisationskameramodul 10-1' und 10-2' (wie das Stereo-Polarisationskamerasystem 10''), die Polarisationsrohbilder 18 von mindestens zwei Blickpunkten erfassen, und das Verarbeitungssystem 100 erzeugt seine eigene Grobtiefenkarte basierend auf den Polarisationsrohbildern 18. In einigen Ausführungsformen berechnet das Verarbeitungssystem 100 eine anfängliche Schätzung von DOLP p und AOLP ϕ für jeden der mindestens zwei Blickpunkte, berechnet geschätzte Oberflächennormalen aus der anfänglichen Schätzung von DOLP p und AOLP ϕ für jeden der mindestens zwei Blickpunkte und schätzt die Gesichtsgeometrie basierend auf den Polarisationsrohbildern 18 (wie z. B. in den Verfahrensschritten 410 und 430 von 4). Dann kann das Verarbeitungssystem 100 für jeden Blickpunkt damit fortfahren, dieses anfängliche grobe Gesichtsmodell aus der Perspektive dieses Blickpunkts und der entsprechenden Polarisationsmerkmale zu verfeinern, um zu verfeinerten/korrigierten Polarisationsmerkmalen zu gelangen (z. B. in Übereinstimmung mit den Verfahrensschritten 450, 470 und 490 von 4). Das Verarbeitungssystem 100 berechnet dann verfeinerte/korrigierte Oberflächennormalen aus den Polarisationsmerkmalen für jeden der mindestens zwei Blickpunkte. In einigen Ausführungsformen integriert das Verarbeitungssystem 100 unabhängig die Oberflächennormalen von jedem Blickpunkt über den Abtastraum (Ω), um eine 3D-Rekonstruktion des Gesichts 1102' aus dieser Perspektive zu synthetisieren.
  • Hier bilden jedes Paar von geschätzten Oberflächennormalen und die entsprechende 3D-Rekonstruktion, die mit einem bestimmten Blickpunkt assoziiert ist, einen Satz von Trainingsdaten für das 3D-Bildgebungssystem 1100 von 11A. Durch Wiederholung dieses Prozesses für verschiedene Gesichter (z.B. eine große Anzahl von Gesichtern) können genügend Trainingsdaten gesammelt werden, um das neuronale Netz 1104 zur Gesichtsrekonstruktion zu trainieren, um 3D-Gesichtsrekonstruktionen basierend auf geschätzten Oberflächennormalen von einem einzelnen Polarisationskameramodul 10' zu erzeugen.
  • Während das 3D-Bildgebungssystem 1110 die anfängliche Grobtiefenkarte des beobachteten Gesichts 1102' basierend auf Triangulation (d.h. der Parallaxenverschiebung zwischen zwei oder mehr Polarisationskameramodulen 10') erzeugen kann, sind Ausführungsformen der vorliegenden Erfindung nicht darauf beschränkt.
  • In einigen Ausführungsformen umfasst das 3D-Bildgebungssystem 1110 beispielsweise einen Generator für Grobtiefenkarten 1112, der das anfängliche grobe Gesichtsmodell basierend auf einem monokularen 2D-Farbbild (z. B. einem RGB- oder RGBG-Bild) des beobachteten Gesichts 1102' erzeugen kann. Dieses 2D-Farbbild kann von einem der Polarisationskameramodule 10' aufgenommen werden, das in der Lage ist, zusätzlich zu den Polarisationsdaten auch Farbinformationen zu erfassen, oder es kann von einer separaten herkömmlichen Farbkamera (z. B. einer RGB-Kamera) aufgenommen werden, die ein ähnliches Sichtfeld hat wie das eine oder mehrere Polarisationskameramodule 10'. Der Generator für Grobtiefenkarten 1112 kann einen Algorithmus zur Tiefenschätzung oder ein neuronales Netz verwenden, das für die Schätzung von Tiefeninformationen basierend auf einem zweidimensionalen Bild (z. B. unter Verwendung des inversen quadratischen Gesetzes) trainiert wurde, und erhält so eine anfängliche Grobtiefenkarte oder ein Modell des beobachteten Gesichts 1102'. In einigen anderen Ausführungsformen kann das 3D-Bildgebungssystem 1110 außerdem einen Tiefensensor enthalten, der konfiguriert ist, um die Tiefe anhand von Fokus/Defokus, Bewegung usw. zu messen, und der Generator für Grobtiefenkarten 1112 kann das anfängliche grobe Gesichtsmodell basierend auf der Eingabe des Tiefensensors erzeugen. Gemäß einigen weiteren Ausführungsformen kann der Generator für Grobtiefenkarten 1112 dem Verarbeitungssystem 100 ein Modell eines allgemeinen menschlichen Gesichts (z. B. ein durchschnittliches menschliches Gesicht oder ein 3D-morphbares Modell (3DMM) eines Gesichts) zur Verfügung stellen, das als anfängliches grobes Gesichtsmodell verwendet wird, das dann wie oben beschrieben verfeinert wird. In solchen Ausführungsformen kann das Verarbeitungssystem 100 das Modell des generischen Gesichts, das von dem Generator für Grobtiefenkarten 1112 bereitgestellt wird, an den Bildräumen ausrichten, die dem/den Blickpunkt(en) des einen oder der mehreren Polarisationskameramodule 10' entsprechen, wie oben unter Bezugnahme auf den Verfahrensschritt 840 von 8B beschrieben.
  • Slope-Net: Verwendung von Oberflächennormalen-Informationen zur Erstellung von Objektsignaturen
  • und Gesichtssignaturen.
  • Das Verstehen von Objekten und Gesichtern ist ein wichtiges Problem, das es zu lösen gilt. Die Anwendungen der Objekterkennung und des Objektverständnisses sind zahlreich, wie z.B. Modedesign, Produkterkennung, Sortierung und mehr. Die Erkennung von Gesichtsemotionen und die Gesichtserkennung können für Anwendungen wie Fahrerüberwachung, Benutzerauthentifizierung (z. B. in den Bereichen automatischer Zahlungsverkehr, Sicherheit usw.), allgemeine Überwachung usw. wichtig sein. Sowohl die Objekterkennung als auch die Gesichtserkennung beruhen auf der Fähigkeit, Pixel aus einem Bild zu entnehmen und sie in eine Signatur oder Darstellung umzuwandeln, die sich von Bild zu Bild nicht ändert. Der Bereich des Repräsentationslernens beim maschinellen Lernen widmet sich derzeit der Aufgabe, komplexe Eingaben auf niedrigdimensionale Mannigfaltigkeiten vorherzusagen. Im Allgemeinen gilt: Je geringer die Dimension der Datenvielfalt, desto einfacher ist es, diese Repräsentationen zu lernen. Standard-RGB-Bilder, die keine Informationen über die Oberflächennormalen enthalten, können eine Vielzahl von szenenspezifischen Informationen über Textur, Beleuchtung usw. enthalten. Die Algorithmen zur Erkennung von Gesichtern und Objekten aus dem Stand der Technik erlernen diese Mannigfaltigkeit durch das Erlernen eines Einbettungsraums, d. h. eines relativ niedrigdimensionalen Raums, in den jedes Bild (das ein hochdimensionaler Vektor ist) in einen niedrigdimensionalen Vektor übersetzt wird. Dieser Lernprozess kann sehr langsam und anfällig für Divergenzen sein.
  • Im Gegensatz dazu enthält ein Bild, das nur die Oberflächennormalen enthält, keine Textur- oder Beleuchtungsinformationen, was die Komplexität der zu erlernenden Mannigfaltigkeit verringert. Dies kann ein schnelleres und genaueres Lernen ermöglichen.
  • Einige Aspekte von Ausführungsformen der vorliegenden Offenbarung beziehen sich auf die Erzeugung von Oberflächennormalen-Bildern verschiedener Objekte und/oder Gesichter und die Zusammenstellung einer oder mehrerer Bibliotheken solcher Oberflächennormalen-Bilder für die spätere Verarbeitung. Gemäß einigen Ausführungsformen kodieren die Rot-, Grün- und Blauwerte jedes Pixels in dem Oberflächennormalen-Bild Informationen über die Oberflächennormale an diesem Pixel. In einigen Ausführungsformen stellen der erste, zweite und dritte Wert der RGB-Werte für ein Pixel jeweils die x-Achsen-Komponente, die y-Achsen-Komponente und die z-Achsen-Komponente der Oberflächennormale an diesem Pixel dar. In einigen Beispielen können der erste, der zweite und der dritte Wert rote, grüne bzw. blaue Werte sein; Ausführungsformen der vorliegenden Erfindung sind jedoch nicht darauf beschränkt, und der erste, der zweite und der dritte Wert können blaue, rote bzw. grüne Werte oder eine andere Reihenfolge dieser Werte sein. Um in der gesamten Bibliothek der Oberflächennormalen-Bilder Konsistenz zu erreichen und eine einfache Verwendung bei der Nachbearbeitung zu ermöglichen, werden die x-, y- und z-Achsenkomponenten der Oberflächennormalen auf dieselben RGB-Werte in allen Oberflächennormalen-Bildern der Bibliothek abgebildet (dies kann als Abbildungskonsistenz bezeichnet werden).
  • Jedes Oberflächennormalen-Bild in der Bibliothek kann mit einer Kennzeichnung oder einem Etikett versehen werden, das das vom Bild erfasste Objekt identifiziert und/oder charakterisiert. Die Oberflächennormalen-Bilder in einer Bibliothek können alle einer bestimmten Klasse von Objekten zugeordnet sein (z. B. Fahrzeuge, Fahrräder, Tiere, Ampeln, Fußgänger, Gesichter usw.). So kann eine Bibliothek beispielsweise Oberflächennormalen-Bilder verschiedener Fahrzeugtypen wie Lastkraftwagen, Sport Utility Vehicles (SUVs), Lieferwagen, Limousinen usw. enthalten, und jedes Oberflächennormalen-Bild in dieser Bibliothek kann zur Identifizierung des Fahrzeugtyps beschriftet sein. In einem anderen Beispiel kann eine Bibliothek Oberflächennormalen-Bilder verschiedener menschlicher Gesichtsausdrücke enthalten, die jeweils mit dem zugehörigen erfassten Ausdruck (z. B. Lachen, Lächeln, Stirnrunzeln, Überraschung, Ekel usw.) beschriftet sind.
  • Die Beschriftung der Oberflächennormalen-Bilder kann manuell erfolgen (z. B. durch einen Menschen) oder von einer Maschine (z. B. einem Computer) durchgeführt werden, wenn synthetische Bilder zur Erzeugung der Oberflächennormalen-Bilder verwendet werden.
  • Jedes Oberflächennormalen-Bild kann mit den oben beschriebenen Techniken erzeugt werden. Beispielsweise kann ein Objekt über ein Polarisationskameramodul 10' oder das Stereo-Polarisationskamerasystem 10'' abgebildet werden, und der Merkmalsextraktor 700 kann das entsprechende Oberflächennormalen-Bild erzeugen, wie oben in Bezug auf die 6A, 7A und 7B beschrieben. In einigen Ausführungsformen werden die Oberflächennormalen für jedes Pixel unter Verwendung kartesischer Koordinaten (z. B. dreidimensionale Vektoren, die eine Richtung der Oberflächennormalen angeben) in den RGB-Werten kodiert.
  • Gemäß einigen Ausführungsformen werden die eine oder mehrere Bibliotheken zum Trainieren verschiedener maschineller Lernalgorithmen (z. B. Prädiktoren/Klassifikatoren) verwendet. In einigen Beispielen kann eine Bibliothek von Oberflächennormalen-Bildern, die menschlichen Gesichtern entsprechen, verwendet werden, um einen Klassifikator (z. B. einen Gesichtsausdrucksklassifikator) zu trainieren, um verschiedene emotionale Zustände zu identifizieren. Dabei wird ein Klassifikator, wie z. B. der Prädiktor 710, so trainiert, dass er die normalen Gesichtsbilder mit den entsprechenden Kennzeichnungen korreliert, die den durch das Bild erfassten emotionalen Zustand anzeigen können. Dieser Klassifikator kann dann verwendet werden, um emotionale Zustände eines erfassten Gesichts allein basierend auf den Oberflächennormalen eines beobachteten Gesichts zu identifizieren. In ähnlicher Weise kann der Klassifikator trainiert werden, um Absichten, Blicke, körperliches Wohlbefinden, Gangart und/oder ähnliches basierend auf Oberflächennormalen-Bildern von menschlichen Gesichtern oder menschlichen Körpern zu erkennen.
  • In anderen Beispielen kann der Klassifikator (z.B. der Prädiktor 710) trainiert werden, um verschiedene Fahrzeugtypen, wie Lastwagen, SUVs, Vans, Limousinen usw., zu identifizieren, indem er Oberflächennormalen-Bilder aus einer Bibliothek verwendet, die gekennzeichnete Normal-Bilder verschiedener Fahrzeugtypen enthält.
  • 12 ist ein Blockdiagramm eines Prädiktors 710 gemäß einer Ausführungsform der vorliegenden Erfindung.
  • Gemäß einigen Ausführungsformen umfasst der Prädiktor 710 einen trainierten Klassifikator, der die Eingabe des Oberflächennormalen-Bildes 50' in eine oder mehrere Kategorien einordnet. Beispielsweise kann der trainierte Klassifikator eine Charakterisierungsausgabe 20 berechnen, die einen Vektor (z. B. einen Wahrscheinlichkeitsvektor) mit einer Länge gleich der Anzahl verschiedener möglicher Bildmerkmale (z. B. Gesichtsausdrücke oder Fahrzeugtypen) enthält, für deren Erkennung der Klassifikator trainiert ist, wobei jeder Wert in dem Vektor einer Wahrscheinlichkeit entspricht, dass das eingegebene Oberflächennormalen-Bild 50' das entsprechende Bildmerkmal darstellt. In einigen Ausführungsformen umfasst der Prädiktor 710 eine Vielzahl von statistischen Modellen (z. B. 712, 714 ... 716 usw.), die verschiedenen Arten von Bildmerkmalen zugeordnet sind, und jedes Modell liefert einen Zuverlässigkeitsgrad, dass das eingegebene Oberflächennormalen-Bild 50' dem zugeordneten Bildmerkmal entspricht. Wenn es sich bei den Bildmerkmalen beispielsweise um Gesichtsausdrücke handelt, kann jedes der Modelle des Prädiktors 710 mit einem entsprechenden Lachen, Lächeln, Stirnrunzeln, Überraschung usw. assoziiert sein, und der Prädiktor 710 kann einen Vektor ausgeben, wobei jedes Element in dem Vektor ein Vertrauens-/Wahrscheinlichkeitswert ist, der einem Lachen, Lächeln, Stirnrunzeln, einer Überraschung usw. entspricht.
  • Der Klassifikator kann auf die Eingabe von Oberflächennormalen-Bildern 50' mit einer festen Größe und einer bestimmten Abbildungskonsistenz trainiert werden. Beispielsweise stellen der erste, zweite und dritte Wert der RGB-Werte für ein Pixel des Oberflächennormalen-Bildes 50'jeweils die x-Achsenkomponente, die y-Achsenkomponente und die z-Achsenkomponente der Oberflächennormale an diesem Pixel dar. Der Klassifikator kann zum Beispiel eine Support-Vektor-Maschine, ein tiefes neuronales Netz (z.B. ein tiefes, vollständig verbundenes neuronales Netz) und ähnliches umfassen.
  • In Ausführungsformen, in denen der Klassifikator ein neuronales Netz wie ein faltendes neuronales Netz (z.B. ein Polarisationsmasken-R-CNN) verwendet, kann der Trainingsprozess das Aktualisieren der Gewichte von Verbindungen zwischen Neuronen verschiedener Schichten des neuronalen Netzes in Übereinstimmung mit einem Backpropagation-Algorithmus und die Verwendung von Gradientenabstieg beinhalten, um die Gewichte iterativ anzupassen, um einen Fehler (oder Verlust) zwischen der Ausgabe des neuronalen Netzes und den markierten Trainingsdaten zu minimieren.
  • Die von den Komponenten des Oberflächenprofilometriesystems und den verschiedenen 3D-Bildgebungssystemen der vorliegenden Offenbarung durchgeführten Operationen können von einer „Verarbeitungsschaltung“ oder einem „Prozessor“ durchgeführt werden, der eine beliebige Kombination von Hardware, Firmware und Software umfassen kann, die zur Verarbeitung von Daten oder digitalen Signalen eingesetzt wird. Die Hardware des Verarbeitungsschaltkreises kann zum Beispiel anwendungsspezifische integrierte Schaltungen (ASICs), allgemeine oder spezielle zentrale Verarbeitungseinheiten (CPUs), digitale Signalprozessoren (DSPs), Grafikverarbeitungseinheiten (GPUs) und programmierbare Logikbausteine wie FPGAs (Field Programmable Gate Arrays) umfassen. In einem Verarbeitungsschaltkreis, wie er hier verwendet wird, wird jede Funktion entweder durch Hardware ausgeführt, die so konfiguriert, d. h. fest verdrahtet ist, dass sie diese Funktion ausführt, oder durch allgemeinere Hardware, wie z. B. eine CPU, die so konfiguriert ist, dass sie in einem nichttransitorischen Speichermedium gespeicherte Anweisungen ausführt. Ein Verarbeitungsschaltkreis kann auf einer einzigen Leiterplatte (PWB) hergestellt werden oder über mehrere miteinander verbundene PWBs verteilt sein. Ein Verarbeitungsschaltkreis kann andere Verarbeitungsschaltkreise enthalten; so kann ein Verarbeitungsschaltkreis beispielsweise zwei Verarbeitungsschaltkreise, ein FPGA und eine CPU, enthalten, die auf einer Leiterplatte miteinander verbunden sind.
  • Es versteht sich, dass, obwohl die Begriffe „erster“, „zweiter“, „dritter“ usw. hier verwendet werden können, um verschiedene Elemente, Komponenten, Regionen, Schichten und/oder Abschnitte zu beschreiben, diese Elemente, Komponenten, Regionen, Schichten und/oder Abschnitte nicht durch diese Begriffe eingeschränkt werden sollten. Diese Begriffe werden verwendet, um ein Element, eine Komponente, einen Bereich, eine Schicht oder einen Abschnitt von einem anderen Element, einer Komponente, einem Bereich, einer Schicht oder einem Abschnitt zu unterscheiden. So könnte ein erstes Element, eine erste Komponente, ein erster Bereich, eine erste Schicht oder ein erster Abschnitt, der im Folgenden erörtert wird, als zweites Element, eine zweite Komponente, ein zweiter Bereich, eine zweite Schicht oder ein zweiter Abschnitt bezeichnet werden, ohne dass dies den Rahmen des erfinderischen Konzepts sprengen würde.
  • Die hier verwendete Terminologie dient der Beschreibung bestimmter Ausführungsformen und ist nicht als Einschränkung des erfinderischen Konzepts zu verstehen. Die hier verwendeten Singularformen „a“ und „an“ schließen auch die Pluralformen ein, sofern aus dem Kontext nicht eindeutig etwas anderes hervorgeht. Es versteht sich ferner, dass die Begriffe „umfassen“, „umfassend“, „aufweisen“ und/oder „aufweisen“, wenn sie in dieser Beschreibung verwendet werden, das Vorhandensein bestimmter Merkmale, ganzer Zahlen, Schritte, Operationen, Elemente und/oder Komponenten spezifizieren, aber das Vorhandensein oder Hinzufügen eines oder mehrerer anderer Merkmale, ganzer Zahlen, Schritte, Operationen, Elemente, Komponenten und/oder Gruppen davon nicht ausschließen. Wie hierin verwendet, schließt der Begriff „und/oder“ alle Kombinationen von einem oder mehreren der aufgeführten Elemente ein. Ferner bezieht sich die Verwendung von „kann“ bei der Beschreibung von Ausführungsformen des erfinderischen Konzepts auf „eine oder mehrere Ausführungsformen des erfinderischen Konzepts“. Auch der Begriff „beispielhaft“ soll sich auf ein Beispiel oder eine Illustration beziehen.
  • Wie hierin verwendet, können die Begriffe „verwenden“, „verwendend“ und „verwendet“ als synonym mit den Begriffen „benutzen“, „benutzend“ bzw. „benutzt“ betrachtet werden.
  • Ferner bezieht sich die Verwendung von „kann“ bei der Beschreibung von Ausführungsformen des erfinderischen Konzepts auf „eine oder mehrere Ausführungsformen des erfinderischen Konzepts“. Auch der Begriff „beispielhaft“ soll sich auf ein Beispiel oder eine Illustration beziehen.
  • Während die vorliegende Erfindung im Zusammenhang mit bestimmten beispielhaften Ausführungsformen beschrieben worden ist, ist es zu verstehen, dass die Erfindung nicht auf die offengelegten Ausführungsformen beschränkt ist, sondern im Gegenteil dazu bestimmt ist, verschiedene Modifikationen und äquivalente Anordnungen abzudecken, die im Rahmen des Geistes und des Umfangs der beigefügten Ansprüche und deren Äquivalente enthalten sind.

Claims (26)

  1. Ein Verfahren zum Durchführen von Oberflächenprofilometrie, wobei das Verfahren umfasst: Empfangen (1102) von einem oder mehreren Polarisationsrohbildern (18) einer gedruckten Schicht eines physikalischen Objekts (1006), das additiv hergestellt wird, wobei das eine oder die mehreren Polarisationsrohbilder (18) bei verschiedenen Polarisationen durch eine oder mehrere Polarisationskameras (10, 10A'-10D') erfasst wurden; Extrahieren (1104) einer oder mehrerer Polarisationsmerkmalskarten in einem oder mehreren Polarisationsdarstellungsräumen aus dem einen oder den mehreren Polarisationsrohbildern (18); Erhalten (1106) einer Grobschichttiefenkarte der gedruckten Schicht; Erzeugen (1108) eines oder mehrerer Oberflächennormalen-Bilder basierend auf der Grobschichttiefenkarte und der einen oder mehreren Polarisationsmerkmalskarten; und Erzeugen (1110) einer 3D-Rekonstruktion der gedruckten Schicht basierend auf dem einen oder den mehreren Oberflächennormalen-Bildern, wobei die eine oder die mehreren Polarisationsmerkmalskarten in dem einen oder den mehreren Polarisationsdarstellungsräumen umfassen: ein lineares Polarisationsgradbild (DOLP) in einem DOLP-Darstellungsraum; und ein lineares Polarisationswinkelbild (AOLP) in einem AOLP-Darstellungsraum.
  2. Das Verfahren nach Anspruch 1, wobei die eine oder mehreren Polarisationskameras umfassen: eine erste Polarisationskamera (10A''-10D''), die konfiguriert ist, einen ersten Teilbereich eines Druckbetts (1004) zu erfassen, auf dem sich die gedruckte Schicht des physischen Objekts (1006) befindet; und eine zweite Polarisationskamera (10E''-10H''), die sich in einem Abstand von der ersten Polarisationskamera (10A''-10D'') befindet und konfiguriert ist, um einen zweiten Teilbereich des Druckbetts zu erfassen (1004).
  3. Das Verfahren nach Anspruch 1 oder 2, wobei das Erhalten der Grobschichttiefenkarte der gedruckten Schicht umfasst: Konstruieren der Grobschichttiefenkarte basierend auf einer Parallaxenverschiebung zwischen Polarisationsrohbildern (18), die von der ersten und zweiten Polarisationskamera (10A''-10H'') erfasst wurden.
  4. Das Verfahren nach Anspruch 1 oder 2, wobei das Erhalten der Grobschichttiefenkarte der gedruckten Schicht umfasst: Empfangen eines CAD-Schichtenmodells, das der gedruckten Schicht des physischen Objekts (1006) entspricht.
  5. Das Verfahren nach einem der vorhergehenden Ansprüche, wobei das Erzeugen des einen oder der mehreren Oberflächennormalen-Bilder umfasst: Bestimmen einer Pose der gedruckten Schicht in Bezug auf jede der einen oder mehreren Polarisationskameras (10, 10A'-10D', 10A''-10H''); Transformieren der Grobschichttiefenkarte in einen oder mehrere Kameraräume, der bzw. die dem einen oder den mehreren Polarisationskameras (10, 10A'-10D', 10A''-10H'') entspricht bzw. entsprechen, um eine oder mehrere transformierte Grobschichttiefenkarten zu erzeugen; und Korrigieren des einen oder der mehreren Oberflächennormalen-Bilder basierend auf der einen oder den mehreren transformierten Grobschichttiefenkarten.
  6. Das Verfahren nach einem der vorhergehenden Ansprüche, wobei das Erzeugen der 3D-Rekonstruktion der gedruckten Schicht umfasst: Integrieren der Oberflächennormalen des einen oder der mehreren Oberflächennormalen-Bilder über einen Probenraum (Ω), um eine Form einer Oberfläche der gedruckten Schicht zu bestimmen.
  7. Ein Oberflächenprofilometriesystem, das umfasst: eine oder mehrere Polarisationskameras (10, 10A'-10D', 10A''-10H'') mit einem Polarisationsfilter (16A', 16B'), wobei die eine oder mehreren Polarisationskameras (10, 10A'-10D', 10A''-10H'') konfiguriert sind, um Polarisationsrohbilder (18) bei verschiedenen Polarisationen zu erfassen; und ein Verarbeitungssystem (100) mit einem Prozessor und einem Speicher, der Anweisungen speichert, die, wenn sie von dem Prozessor ausgeführt werden, den Prozessor veranlassen, Folgendes durchzuführen: Empfangen (1102) eines oder mehrerer Polarisationsrohbilder (18) einer gedruckten Schicht eines physikalischen Objekts (1006), das additiv hergestellt wird, wobei das eine oder die mehreren Polarisationsrohbilder (18) mit unterschiedlichen Polarisationen von der einen oder den mehreren Polarisationskameras (10, 10A'-10D', 10A''-10H'') erfasst wurden; Extrahieren (1104) einer oder mehrerer Polarisationsmerkmalskarten in einem oder mehreren Polarisationsdarstellungsräumen aus dem einen oder den mehreren Polarisationsrohbildern (18); Erhalten (1106) einer Grobschichttiefenkarte der gedruckten Schicht; Erzeugen (1108) eines oder mehrerer Oberflächennormalen-Bilder basierend auf der Grobschichttiefenkarte und der einen oder den mehreren Polarisationsmerkmalskarten; und Erzeugen (1110) einer 3D-Rekonstruktion der gedruckten Schicht basierend auf dem einen oder den mehreren Oberflächennormalen-Bildern, wobei die eine oder die mehreren Polarisationsmerkmalskarten in dem einen oder den mehreren Polarisationsdarstellungsräumen umfassen: ein lineares Polarisationsgradbild (DOLP) in einem DOLP-Darstellungsraum; und ein lineares Polarisationswinkelbild (AOLP) in einem AOLP-Darstellungsraum.
  8. Das Oberflächenprofilometriesystem nach Anspruch 7, wobei die eine oder mehrere Polarisationskameras umfassen: eine erste Polarisationskamera (10A''-10D''), die konfiguriert ist, um einen ersten Teilbereich eines Druckbetts (1004) zu erfassen, auf dem sich die gedruckte Schicht des physischen Objekts (1006) befindet; und eine zweite Polarisationskamera (10E''-10H''), die sich in einem Abstand von der ersten Polarisationskamera (10A''-10D'') befindet und konfiguriert ist, um einen zweiten Teilbereich des Druckbetts (1004) zu erfassen.
  9. Das Oberflächenprofilometriesystem nach Anspruch 7 oder 8, wobei das Ermitteln der Grobschichttiefenkarte der gedruckten Schicht umfasst: Konstruieren der Grobschichttiefenkarte basierend auf einer Parallaxenverschiebung zwischen Polarisationsrohbildern (18), die von der ersten und zweiten Polarisationskamera (10, 10A'-10D', 10A''-10H'') erfasst wurden.
  10. Das Oberflächenprofilometriesystem (1000) nach Anspruch 7 oder 8, wobei das Erhalten der Grobschichttiefenkarte der gedruckten Schicht umfasst: Empfangen eines CAD-Schichtenmodells, das der gedruckten Schicht des physischen Objekts (1006) entspricht.
  11. Das Oberflächenprofilometriesystem nach einem der Ansprüche 7 bis 10, wobei das Erzeugen des einen oder der mehreren Oberflächennormalen-Bilder umfasst: Bestimmen einer Pose der gedruckten Schicht in Bezug auf jede der einen oder mehreren Polarisationskameras (10, 10A'-10D', 10A''-10H''); Transformieren der Grobschichttiefenkarte in einen oder mehrere Kameraräume, der bzw. die dem einen oder mehreren Polarisationskameras (10, 10A'-10D', 10A''-10H'') entspricht bzw. entsprechen, um eine oder mehrere transformierte Grobschichttiefenkarten zu erzeugen; und Korrigieren des einen oder der mehreren Oberflächennormalen-Bilder basierend auf der einen oder den mehreren transformierten Grobschichttiefenkarten.
  12. Das Oberflächenprofilometriesystem nach einem der Ansprüche 7 bis 11, wobei das Erzeugen der 3D-Rekonstruktion der gedruckten Schicht Folgendes umfasst: Integrieren der Oberflächennormalen des einen oder der mehreren Oberflächennormalen-Bilder über einen Probenraum (Ω), um eine Form einer Oberfläche der gedruckten Schicht zu bestimmen.
  13. Das Oberflächenprofilometriesystem nach einem der Ansprüche 7 bis 12, wobei der Speicher weiterhin Anweisungen speichert, die, wenn sie von dem Prozessor ausgeführt werden, den Prozessor veranlassen, weiterhin auszuführen: Bereitstellen der 3D-Rekonstruktion der gedruckten Schicht an ein 3D-Drucksystem (1002) als Steuerungsfeedback, wobei das 3D-Drucksystem (1002) konfiguriert ist, um das physische Objekt (1006) Schicht für Schicht additiv herzustellen.
  14. Das Oberflächenprofilometriesystem nach Anspruch 13, wobei die Operationen der einen oder mehreren Polarisationskameras (10, 10A'-10D', 10A''-10H''), des Verarbeitungssystems (100) und des 3D-Drucksystems (1002) über ein Synchronisationssignal synchronisiert werden.
  15. Ein Verfahren zum Erfassen eines 3D-Bildes eines Gesichts (1102), wobei das Verfahren umfasst: Empfangen von einem oder mehreren Polarisationsrohbildern (18) des Gesichts, wobei das eine oder die mehreren Polarisationsrohbilder (18) bei unterschiedlichen Polarisationen durch eine Polarisationskamera (10') in einem Abstand von dem Gesicht (1102) erfasst wurden; Extrahieren einer oder mehrerer Polarisationsmerkmalskarten (50) in einem oder mehreren Polarisationsdarstellungsräumen aus dem einen oder den mehreren Polarisationsrohbildern (18); und Erzeugen einer 3D-Rekonstruktion des Gesichts (1106) basierend auf der einen oder den mehreren Polarisationsmerkmalskarten über ein neuronales Netz (1104) zur Gesichtsrekonstruktion, wobei die eine oder die mehreren Polarisationsmerkmalskarten (50) geschätzte Oberflächennormalen umfassen, und wobei das Extrahieren der einen oder mehreren Polarisationsmerkmalskarten (50) umfasst: Erzeugen der geschätzten Oberflächennormalen basierend auf dem einen oder den mehreren Polarisationsrohbildern.
  16. Das Verfahren nach Anspruch 15, wobei die eine oder die mehreren Polarisationsmerkmalskarten in dem einen oder den mehreren Polarisationsdarstellungsräumen umfassen: ein lineares Polarisationsgradbild (DOLP) in einem DOLP-Darstellungsraum; und ein lineares Polarisationswinkelbild (AOLP) in einem AOLP-Darstellungsraum.
  17. Das Verfahren nach Anspruch 15 oder 16, wobei das neuronale Netz zur Gesichtsrekonstruktion (1104) trainiert ist, um korrigierte Oberflächennormalen basierend auf den geschätzten Oberflächennormalen zu berechnen und um die 3D-Rekonstruktion des Gesichts basierend auf den korrigierten Oberflächennormalen zu erzeugen.
  18. Das Verfahren nach Anspruch 15, 16 oder 17, wobei das neuronale Netz zur Gesichtsrekonstruktion (1104) ein trainiertes polarisiertes faltendes neuronales Netz (CNN) umfasst.
  19. Ein 3D-Bildgebungssystem (1100) zum Erfassen eines 3D-Bildes eines Gesichts (1102), wobei das 3D-Bildgebungssystem umfasst: eine Polarisationskamera (10'), die einen Polarisationsfilter umfasst und konfiguriert ist, um ein oder mehrere Polarisationsrohbilder (18) bei verschiedenen Polarisationen zu erfassen; und ein Verarbeitungssystem (100) mit einem Prozessor und einem Speicher, der Anweisungen speichert, die, wenn sie von dem Prozessor ausgeführt werden, den Prozessor veranlassen, Folgendes durchzuführen: Empfangen von einem oder mehreren Polarisationsrohbildern (18) des Gesichts (1102), wobei das eine oder die mehreren Polarisationsrohbilder bei unterschiedlichen Polarisationen von der Polarisationskamera erfasst wurden; Extrahieren einer oder mehrerer Polarisationsmerkmalskarten (50) in einem oder mehreren Polarisationsdarstellungsräumen aus dem einen oder den mehreren Polarisationsrohbildern (18); und Erzeugen einer 3D-Rekonstruktion des Gesichts (1106) basierend auf der einen oder den mehreren Polarisationsmerkmalskarten über ein neuronales Netz zur Gesichtsrekonstruktion (1104), wobei die eine oder die mehreren Polarisationsmerkmalskarten (50) geschätzte Oberflächennormalen umfassen, und wobei das Extrahieren der einen oder mehreren Polarisationsmerkmalskarten umfasst: Erzeugen der geschätzten Oberflächennormalen basierend auf dem einen oder den mehreren Polarisationsrohbildern (18).
  20. Das 3D-Bildgebungssystem nach Anspruch 19, wobei die eine oder die mehreren Polarisationsmerkmalskarten (50) in dem einen oder den mehreren Polarisationsdarstellungsräumen Folgendes umfassen: ein lineares Polarisationsgradbild (DOLP) in einem DOLP-Darstellungsraum; und ein lineares Polarisationswinkelbild (AOLP) in einem AOLP-Darstellungsraum.
  21. Das 3D-Bildgebungssystem nach Anspruch 19 oder 20, wobei das neuronale Netz zur Gesichtsrekonstruktion (1104) trainiert ist, um korrigierte Oberflächennormalen basierend auf den geschätzten Oberflächennormalen zu berechnen und die 3D-Rekonstruktion des Gesichts basierend auf den korrigierten Oberflächennormalen zu erzeugen.
  22. Das 3D-Bildgebungssystem nach Anspruch 21, wobei das neuronale Netz zur Gesichtsrekonstruktion (1104) ein trainiertes polarisiertes faltendes neuronales Netz (CNN) umfasst.
  23. Ein Verfahren zum Erfassen eines 3D-Bildes eines Gesichts (1102'), wobei das Verfahren umfasst Empfangen von einem oder mehreren Polarisationsrohbildern (18) des Gesichts (1102'), wobei das eine oder die mehreren Polarisationsrohbilder (18) bei unterschiedlichen Polarisationen durch eine Polarisationskamera (10-1') erfasst wurden; Extrahieren von geschätzten Polarisationsmerkmalen (50) aus dem einen oder den mehreren Polarisationsrohbildern (18); Erzeugen von geschätzten Oberflächennormalen basierend auf den geschätzten Polarisationsmerkmalen; Erzeugen einer anfänglichen Grobtiefenkarte (1112) des Gesichts; Verfeinern der geschätzten Polarisationsmerkmale und der anfänglichen Grobtiefenkarte, um verfeinerte Polarisationsmerkmale und eine verfeinerte Tiefenkarte zu erzeugen; Erzeugen korrigierter Oberflächennormalen basierend auf den verfeinerten Polarisationsmerkmalen und der verfeinerten Tiefenkarte; und Erzeugen einer 3D-Rekonstruktion des Gesichts (1106') basierend auf den korrigierten Oberflächennormalen.
  24. Das Verfahren nach Anspruch 23, wobei das Erzeugen der anfänglichen Grobtiefenkarte des Gesichts umfasst: Empfangen eines 2D-Farbbildes des Gesichtes (1102'); und Berechnen der anfänglichen Grobtiefenkarte basierend auf dem 2D-Farbbild des Gesichts.
  25. Das Verfahren nach Anspruch 23 oder 24, wobei das Erzeugen der anfänglichen Grobtiefenkarte des Gesichts umfasst: Empfangen eines 3D-Modells eines generischen menschlichen Gesichts; und Erzeugen der anfänglichen Grobtiefenkarte basierend auf dem 3D-Modell des generischen menschlichen Gesichts.
  26. Das Verfahren nach Anspruch 23, 24 oder 25, ferner umfassend: Bereitstellen der geschätzten Oberflächennormalen und der korrigierten Oberflächennormalen für ein neuronales Netz zur Gesichtsrekonstruktion (1104) als einen Satz von Trainingsdaten.
DE112020004810.1T 2019-10-07 2020-10-07 Systeme und Verfahren zur Erfassung von Oberflächennormalen mit Polarisation Active DE112020004810B4 (de)

Applications Claiming Priority (7)

Application Number Priority Date Filing Date Title
US201962911952P 2019-10-07 2019-10-07
US62/911,952 2019-10-07
US201962942113P 2019-11-30 2019-11-30
US62/942,113 2019-11-30
US202063001445P 2020-03-29 2020-03-29
US63/001,445 2020-03-29
PCT/US2020/054645 WO2021071995A1 (en) 2019-10-07 2020-10-07 Systems and methods for surface normals sensing with polarization

Publications (2)

Publication Number Publication Date
DE112020004810T5 DE112020004810T5 (de) 2022-07-28
DE112020004810B4 true DE112020004810B4 (de) 2023-10-26

Family

ID=75436889

Family Applications (2)

Application Number Title Priority Date Filing Date
DE112020004810.1T Active DE112020004810B4 (de) 2019-10-07 2020-10-07 Systeme und Verfahren zur Erfassung von Oberflächennormalen mit Polarisation
DE112020004813.6T Active DE112020004813B4 (de) 2019-10-07 2020-10-07 System zur Erweiterung von Sensorsystemen und Bildgebungssystemen mit Polarisation

Family Applications After (1)

Application Number Title Priority Date Filing Date
DE112020004813.6T Active DE112020004813B4 (de) 2019-10-07 2020-10-07 System zur Erweiterung von Sensorsystemen und Bildgebungssystemen mit Polarisation

Country Status (10)

Country Link
US (3) US12099148B2 (de)
EP (2) EP4042101A4 (de)
JP (2) JP7330376B2 (de)
KR (2) KR20230004423A (de)
CN (2) CN114766003B (de)
BR (2) BR112022006617A2 (de)
CA (2) CA3157194C (de)
DE (2) DE112020004810B4 (de)
MX (2) MX2022004162A (de)
WO (2) WO2021071995A1 (de)

Families Citing this family (62)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8866920B2 (en) * 2008-05-20 2014-10-21 Pelican Imaging Corporation Capturing and processing of images using monolithic camera array with heterogeneous imagers
US8878950B2 (en) 2010-12-14 2014-11-04 Pelican Imaging Corporation Systems and methods for synthesizing high resolution images using super-resolution processes
WO2013049699A1 (en) 2011-09-28 2013-04-04 Pelican Imaging Corporation Systems and methods for encoding and decoding light field image files
EP4567495A3 (de) 2012-08-21 2025-09-10 Adeia Imaging LLC Procédé pour détection de profondeur dans des images capturées à l'aide de caméras en réseau
US20170095014A1 (en) * 2015-10-02 2017-04-06 Steven King System and method for creating a custom protective equipment item
US11400956B2 (en) 2017-02-23 2022-08-02 Richard Anthony Bishel Vehicle guidance system
WO2018237079A1 (en) * 2017-06-21 2018-12-27 Seek Thermal, Inc. Design, test, and operation of a small thermal imaging core
FR3093215B1 (fr) * 2019-02-22 2021-08-27 Fogale Nanotech Procédé et dispositif de surveillance de l’environnement d’un robot
CA3157194C (en) * 2019-10-07 2023-08-29 Boston Polarimetrics, Inc. Systems and methods for augmentation of sensor systems and imaging systems with polarization
WO2021154459A1 (en) * 2020-01-30 2021-08-05 Boston Polarimetrics, Inc. Systems and methods for synthesizing data for training statistical models on different imaging modalities including polarized images
US11619722B2 (en) * 2020-02-12 2023-04-04 Ford Global Technologies, Llc Vehicle lidar polarization
EP4127702A4 (de) * 2020-03-24 2024-04-10 Evident Canada, Inc. Komprimierende erfassung für vollmatrixerfassung
US12164033B2 (en) 2020-04-28 2024-12-10 Artilux, Inc. Lidar projection apparatus
FR3113162B1 (fr) * 2020-07-30 2022-07-29 Orphie Procédé et dispositif d’imagerie sous-marine
EP4203477A4 (de) * 2020-09-03 2024-02-28 Sony Group Corporation Bildverarbeitungsvorrichtung und -verfahren
IL279275A (en) * 2020-12-06 2022-07-01 Elbit Systems C4I & Cyber Ltd Device, systems and methods for scene image acquisition
JP2022126206A (ja) * 2021-02-18 2022-08-30 キヤノン株式会社 画像処理装置、画像処理方法及びプログラム
GB2603951A (en) * 2021-02-22 2022-08-24 Imperial College Innovations Ltd Image Processing
US11841832B2 (en) * 2021-03-16 2023-12-12 Nuvolo Technologies Corporation Synchronizing design models
JP2022164390A (ja) * 2021-04-16 2022-10-27 ax株式会社 画像生成装置、画像生成方法、プログラム
TWI787800B (zh) * 2021-04-29 2022-12-21 國立臺灣大學 光場合成方法及系統
US12340538B2 (en) * 2021-06-25 2025-06-24 Intrinsic Innovation Llc Systems and methods for generating and using visual datasets for training computer vision models
US11546508B1 (en) * 2021-07-21 2023-01-03 Black Sesame Technologies Inc. Polarization imaging system with super resolution fusion
CN113705375A (zh) * 2021-08-10 2021-11-26 武汉理工大学 一种船舶航行环境视觉感知设备及方法
US12191806B2 (en) * 2021-09-01 2025-01-07 Arizona Board Of Regents On Behalf Of Arizona State University Autonomous polarimetric imaging for photovoltaic module inspection and methods thereof
JP7695847B2 (ja) * 2021-09-03 2025-06-19 住友重機械工業株式会社 検査装置、射出成形システム、検査方法
JP2023075584A (ja) * 2021-11-19 2023-05-31 キヤノン株式会社 情報処理装置、情報処理方法及びプログラム
CN114367459B (zh) * 2022-01-11 2024-03-08 宁波市全盛壳体有限公司 一种自动涂漆uv固化设备视频识别检测方法
US12249101B2 (en) * 2022-03-31 2025-03-11 Intrinsic Innovation Llc Sensor fusion between radar and optically polarized camera
KR102679399B1 (ko) * 2022-04-25 2024-07-01 재단법인대구경북과학기술원 고화질 영상을 이용한 객체를 검출하는 전자 장치 및 그 방법
CN115223018B (zh) * 2022-06-08 2023-07-04 东北石油大学 伪装对象协同检测方法及装置、电子设备和存储介质
EP4289747B1 (de) * 2022-06-09 2025-02-26 Honeywell International Inc. Aktiver landemarkierer
US12179938B2 (en) 2022-06-09 2024-12-31 Honeywell International Inc. Active landing marker
CN114937140B (zh) * 2022-07-25 2022-11-04 深圳大学 面向大规模场景的图像渲染质量预测与路径规划系统
US12304091B2 (en) 2022-08-10 2025-05-20 Wilder Systems, Inc. Training of artificial intelligence model
US12036684B2 (en) 2022-08-10 2024-07-16 Wilder Systems Inc. User interface and related flow for controlling a robotic arm
US11620764B1 (en) * 2022-08-31 2023-04-04 Illuscio, Inc. Systems and methods for generating point-accurate three-dimensional models with point-accurate color information from a non-cosited capture
US20240104686A1 (en) * 2022-09-23 2024-03-28 Apple Inc. Low-Latency Video Matting
CN115265786B (zh) * 2022-09-30 2023-01-10 长春理工大学 一种自动调节曝光值的强光偏振探测装置及其探测方法
US12267569B2 (en) * 2022-10-14 2025-04-01 Motional Ad Llc Plenoptic sensor devices, systems, and methods
CN115876124A (zh) * 2023-01-09 2023-03-31 中国科学院深圳先进技术研究院 基于偏振结构光相机的高反光表面三维重建方法及装置
DE102023200262A1 (de) * 2023-01-13 2024-07-18 Siemens Aktiengesellschaft Einrichtung zur Steuerung von zumindest einem in ein zur Interaktion mit zumindest einem maschinellen CAD/CAM-basierten Fertigungsprozess, beispielsweise in einem industriellen Umfeld, bildbares System integrierbaren ersten Funksende-/ Funkempfangsgerät, Funksende-/ Funkempfangsgerät, Einrichtung zur Manipulation von an zumindest einer Oberfläche der Einrichtung auftreffenden elektromagnetischen Wellen, System und Verfahren zur Steuerung
US12293592B2 (en) 2023-02-20 2025-05-06 GM Global Technology Operations LLC Vehicle trajectory planning
JP7745854B2 (ja) * 2023-03-28 2025-09-30 Pciソリューションズ株式会社 重量推定装置及び教師データ作成方法
CN116310693B (zh) * 2023-04-06 2025-05-20 福州大学 基于边缘特征融合和高阶空间交互的伪装目标检测方法
KR102822408B1 (ko) * 2023-04-13 2025-06-20 김상진 편광카메라
WO2024225173A1 (en) * 2023-04-26 2024-10-31 Sony Semiconductor Solutions Corporation Information generation apparatus, information generation system, and information generation method
CN116433532B (zh) * 2023-05-06 2023-09-26 合肥工业大学 一种基于注意力引导滤波的红外偏振图像融合去噪方法
US20250014269A1 (en) * 2023-07-07 2025-01-09 Max Adel Rady Method and Device for Generating Enhanced High-Fidelity Three-Dimensional Digital Duplicates of Real-World Objects
CN116630310B (zh) * 2023-07-21 2023-11-17 锋睿领创(珠海)科技有限公司 一种石英玻璃的检测方法、装置、设备及介质
KR102838946B1 (ko) 2023-08-18 2025-07-29 고려대학교산학협력단 Rgb 카메라 및 이벤트 카메라를 이용한 3차원 법선 벡터 예측 방법 및 장치
WO2025085697A1 (en) * 2023-10-17 2025-04-24 Turnco LLC Laser and synthetic profilometry of a positive displacement motor (pdm) and ml methods, systems, and computer medium storing instructions for predicting pdm attributes
WO2025094329A1 (ja) * 2023-11-01 2025-05-08 株式会社ニコン 情報出力方法、情報出力装置、検査方法、検査装置、加工方法及び加工システム
WO2025104855A1 (ja) * 2023-11-15 2025-05-22 日本電信電話株式会社 情報処理装置、情報処理方法、及び情報処理プログラム
TWI882588B (zh) * 2023-12-15 2025-05-01 國家中山科學研究院 用於積層製造之表面輪廓與溫度監測系統
CN117689545B (zh) * 2024-02-02 2024-07-16 荣耀终端有限公司 图像处理方法、电子设备和计算机可读存储介质
CN118424229B (zh) * 2024-07-01 2024-10-25 西北工业大学宁波研究院 一种时序正交型目标探测方法及模块化机载偏振成像系统
CN118982500B (zh) * 2024-07-21 2025-10-03 浙江大学 一种偏振多光谱融合的oled缺陷检测方法
CN119224782A (zh) * 2024-12-02 2024-12-31 国网四川省电力公司电力应急中心 一种机载激光雷达辅助的输电线路状态监测与评估方法
CN119379954B (zh) * 2024-12-30 2025-03-11 中国人民解放军国防科技大学 一种基于偏振法向估计的高保真辐射场重建方法及系统
CN119478004B (zh) * 2025-01-16 2025-04-04 中国人民解放军国防科技大学 单目偏振视觉深度估计方法、装置、设备及介质
CN119757371A (zh) * 2025-02-17 2025-04-04 深圳市志航精密科技有限公司 新能源汽车用电控部件的外观视觉检测方法及装置

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20160261844A1 (en) 2015-03-06 2016-09-08 Massachusetts Institute Of Technology Methods and Apparatus for Enhancing Depth Maps with Polarization Cues
US20160344948A1 (en) 2015-05-19 2016-11-24 MTU Aero Engines AG Method and device for determining a contour, at least in regions, of at least one additively manufactured component layer
US20190143412A1 (en) 2016-02-18 2019-05-16 Velo3D, Inc. Accurate three-dimensional printing
CN111402395A (zh) 2020-02-17 2020-07-10 西安电子科技大学 一种基于cnn校正的被动偏振三维重建方法

Family Cites Families (1090)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US4124798A (en) 1965-12-09 1978-11-07 Thompson Kenneth B Optical viewing apparatus
US4198646A (en) 1978-10-13 1980-04-15 Hughes Aircraft Company Monolithic imager for near-IR
US4323925A (en) 1980-07-07 1982-04-06 Avco Everett Research Laboratory, Inc. Method and apparatus for arraying image sensor modules
JPS5769476A (en) 1980-10-16 1982-04-28 Fuji Xerox Co Ltd Reader control system
JPS6028672Y2 (ja) 1981-09-28 1985-08-30 新日本製鐵株式会社 高炉炉頂装入装置
JPS5925483A (ja) 1982-08-04 1984-02-09 Hitachi Denshi Ltd 固体撮像装置
US4652909A (en) 1982-09-14 1987-03-24 New York Institute Of Technology Television camera and recording system for high definition television having imagers of different frame rate
US4460449A (en) 1983-01-03 1984-07-17 Amerace Corporation Apparatus for making a tool
US4888645A (en) 1984-01-16 1989-12-19 International Business Machines Corporation Method for encoding and decoding a digital image
JPS60228564A (ja) 1984-04-27 1985-11-13 Tokuyama Soda Co Ltd 液晶性組成物
JPS6129851U (ja) 1984-07-26 1986-02-22 日新電機株式会社 比重差選別装置
JPS6140709U (ja) 1984-08-20 1986-03-14 三洋電機株式会社 磁気ヘツド
EP0289885A1 (de) 1987-05-08 1988-11-09 Siemens Aktiengesellschaft Blendensystem zur Erzeugung mehrerer Teilchensonden mit veränderbarem Querschnitt
JPS6437177A (en) 1987-08-03 1989-02-07 Canon Kk Image pickup device
EP0342419B1 (de) 1988-05-19 1992-10-28 Siemens Aktiengesellschaft Verfahren zur Beobachtung einer Szene und Einrichtung zur Durchführung des Verfahrens
JPH02285772A (ja) 1989-04-26 1990-11-26 Toshiba Corp 画像読取装置
US5070414A (en) 1988-09-20 1991-12-03 Kabushiki Kaisha Toshiba Method and apparatus for reading image information formed on material
US4962425A (en) 1988-10-27 1990-10-09 National Research Council Of Canada/Conseil National Deresherches Canada Photometric device
US5157499A (en) 1990-06-29 1992-10-20 Kabushiki Kaisha N A C High-speed video camera using solid-state image sensor
US5144448A (en) 1990-07-31 1992-09-01 Vidar Systems Corporation Scanning apparatus using multiple CCD arrays and related method
JP2505611Y2 (ja) 1990-10-19 1996-07-31 ダイハツ工業株式会社 自動車用樹脂バンパ
JPH0467543U (de) 1990-10-19 1992-06-16
US5463464A (en) 1991-10-04 1995-10-31 Kms Fusion, Inc. Electro-optical system for gauging surface profile deviations using infrared radiation
US5325449A (en) 1992-05-15 1994-06-28 David Sarnoff Research Center, Inc. Method for fusing images and apparatus therefor
JP3032382B2 (ja) 1992-07-13 2000-04-17 シャープ株式会社 デジタル信号のサンプリング周波数変換装置
JPH06129851A (ja) 1992-10-13 1994-05-13 Sumitomo Electric Ind Ltd ステレオカメラの校正方法
US5670935A (en) 1993-02-26 1997-09-23 Donnelly Corporation Rearview vision system for vehicle including panoramic view
WO1994020875A2 (en) 1993-03-03 1994-09-15 Street Graham S B Method and apparatus for image alignment
US5659424A (en) 1993-05-25 1997-08-19 Hitachi, Ltd. Projecting lens and image display device
JPH0715457A (ja) 1993-06-18 1995-01-17 Hitachi Ltd ディジタル通信切替方式
US5475422A (en) 1993-06-21 1995-12-12 Nippon Telegraph And Telephone Corporation Method and apparatus for reconstructing three-dimensional objects
US6095989A (en) 1993-07-20 2000-08-01 Hay; Sam H. Optical recognition methods for locating eyes
US6419638B1 (en) 1993-07-20 2002-07-16 Sam H. Hay Optical recognition methods for locating eyes
JP2761837B2 (ja) 1993-08-19 1998-06-04 株式会社日鉄エレックス 立体像表示装置
EP0677821A3 (de) 1994-04-14 1996-03-06 Hewlett Packard Co Vergrösserung von digitalen Farbbildern zur Nachlaufsynchronisation.
WO1995034044A1 (en) 1994-06-09 1995-12-14 Kollmorgen Instrument Corporation Stereoscopic electro-optical system for automated inspection and/or alignment of imaging devices on a production assembly line
US5517236A (en) 1994-06-22 1996-05-14 Philips Electronics North America Corporation Video surveillance system
JPH0877356A (ja) 1994-09-09 1996-03-22 Fujitsu Ltd 三次元多眼画像の処理方法及び処理装置
US5703961A (en) 1994-12-29 1997-12-30 Worldscape L.L.C. Image transformation and synthesis methods
US20020195548A1 (en) 2001-06-06 2002-12-26 Dowski Edward Raymond Wavefront coding interference contrast imaging systems
US5629524A (en) 1995-02-21 1997-05-13 Advanced Scientific Concepts, Inc. High speed crystallography detector
EP0739039A3 (de) 1995-04-18 1998-03-04 Interuniversitair Micro-Elektronica Centrum Vzw Pixelstruktur, Bildsensor mit diesem Pixel, Struktur und entsprechende zugehörige Schaltung
US5963664A (en) 1995-06-22 1999-10-05 Sarnoff Corporation Method and system for image combination using a parallax-based technique
US6005607A (en) 1995-06-29 1999-12-21 Matsushita Electric Industrial Co., Ltd. Stereoscopic computer graphics image generating apparatus and stereoscopic TV apparatus
US5675377A (en) 1995-06-30 1997-10-07 Telefonaktiebolaget Lm Ericsson True three-dimensional imaging and display system
GB2302978A (en) 1995-07-04 1997-02-05 Sharp Kk LIquid crystal device
AU1074797A (en) 1995-11-07 1997-06-05 California Institute Of Technology Capacitively coupled successive approximation ultra low power analog-to-digital converter
US5757425A (en) 1995-12-19 1998-05-26 Eastman Kodak Company Method and apparatus for independently calibrating light source and photosensor arrays
JP3502713B2 (ja) 1995-12-21 2004-03-02 本田技研工業株式会社 車両用距離測定装置
JPH09181913A (ja) 1995-12-26 1997-07-11 Olympus Optical Co Ltd カメラシステム
US5793900A (en) 1995-12-29 1998-08-11 Stanford University Generating categorical depth maps using passive defocus sensing
US6124974A (en) 1996-01-26 2000-09-26 Proxemics Lenslet array systems and methods
US5973844A (en) 1996-01-26 1999-10-26 Proxemics Lenslet array systems and methods
US6493465B2 (en) 1996-02-21 2002-12-10 Canon Kabushiki Kaisha Matching point extracting method and apparatus therefor
US5867584A (en) 1996-02-22 1999-02-02 Nec Corporation Video object tracking method for interactive multimedia applications
US5832312A (en) 1996-02-22 1998-11-03 Eastman Kodak Company Watertight body for accommodating a photographic camera
US5911008A (en) 1996-04-30 1999-06-08 Nippon Telegraph And Telephone Corporation Scheme for detecting shot boundaries in compressed video data using inter-frame/inter-field prediction coding and intra-frame/intra-field coding
US6084979A (en) 1996-06-20 2000-07-04 Carnegie Mellon University Method for creating virtual reality
US6002743A (en) 1996-07-17 1999-12-14 Telymonde; Timothy D. Method and apparatus for image acquisition from a plurality of cameras
GB9616262D0 (en) 1996-08-02 1996-09-11 Philips Electronics Nv Post-processing generation of focus/defocus effects for computer graphics images
US6141048A (en) 1996-08-19 2000-10-31 Eastman Kodak Company Compact image capture device
US6137535A (en) 1996-11-04 2000-10-24 Eastman Kodak Company Compact digital camera with segmented fields of view
US5808350A (en) 1997-01-03 1998-09-15 Raytheon Company Integrated IR, visible and NIR sensor and methods of fabricating same
JPH10232626A (ja) 1997-02-20 1998-09-02 Canon Inc 立体画像表示装置
JPH10253351A (ja) 1997-03-14 1998-09-25 Kyocera Corp 測距装置
US5801919A (en) 1997-04-04 1998-09-01 Gateway 2000, Inc. Adjustably mounted camera assembly for portable computers
US6097394A (en) 1997-04-28 2000-08-01 Board Of Trustees, Leland Stanford, Jr. University Method and system for light field rendering
US5848115A (en) * 1997-05-02 1998-12-08 General Electric Company Computed tomography metrology
NO304715B1 (no) 1997-05-06 1999-02-01 Dimensions As FremgangsmÕte ved bildebehandling
US6515701B2 (en) 1997-07-24 2003-02-04 Polaroid Corporation Focal plane exposure control system for CMOS area image sensors
US6563537B1 (en) 1997-07-31 2003-05-13 Fuji Photo Film Co., Ltd. Image signal interpolation
JP3430935B2 (ja) 1997-10-20 2003-07-28 富士ゼロックス株式会社 画像読取装置及びレンズ
NO305728B1 (no) 1997-11-14 1999-07-12 Reidar E Tangen Optoelektronisk kamera og fremgangsmÕte ved bildeformatering i samme
JP4243779B2 (ja) 1997-11-14 2009-03-25 株式会社ニコン 拡散板の製造方法および拡散板、並びにマイクロレンズアレイの製造方法およびマイクロレンズアレイ
US6069365A (en) 1997-11-25 2000-05-30 Alan Y. Chow Optical processor based imaging system
JPH11242189A (ja) 1997-12-25 1999-09-07 Olympus Optical Co Ltd 像形成法、像形成装置
US6721008B2 (en) 1998-01-22 2004-04-13 Eastman Kodak Company Integrated CMOS active pixel digital camera
US6833863B1 (en) 1998-02-06 2004-12-21 Intel Corporation Method and apparatus for still image capture during video streaming operations of a tethered digital camera
JPH11223708A (ja) 1998-02-09 1999-08-17 Nikon Corp 圧子およびマイクロ光学素子アレイの製造方法
US6198577B1 (en) 1998-03-10 2001-03-06 Glaxo Wellcome, Inc. Doubly telecentric lens and imaging system for multiwell plates
US6054703A (en) 1998-03-20 2000-04-25 Syscan, Inc. Sensing module for accelerating signal readout from image sensors
US6160909A (en) 1998-04-01 2000-12-12 Canon Kabushiki Kaisha Depth control for stereoscopic images
KR100307883B1 (ko) 1998-04-13 2001-10-19 박호군 정합화소수를이용한유사도측정방법및이를구현하기위한장치
JP3745117B2 (ja) 1998-05-08 2006-02-15 キヤノン株式会社 画像処理装置及び画像処理方法
JP3931936B2 (ja) 1998-05-11 2007-06-20 セイコーエプソン株式会社 マイクロレンズアレイ基板及びその製造方法並びに表示装置
JP3284190B2 (ja) 1998-05-14 2002-05-20 富士重工業株式会社 ステレオカメラの画像補正装置
US6205241B1 (en) 1998-06-01 2001-03-20 Canon Kabushiki Kaisha Compression of stereoscopic images
US6198852B1 (en) 1998-06-01 2001-03-06 Yeda Research And Development Co., Ltd. View synthesis from plural images using a trifocal tensor data structure in a multi-view parallax geometry
US6137100A (en) 1998-06-08 2000-10-24 Photobit Corporation CMOS image sensor with different pixel sizes for different colors
US6069351A (en) 1998-07-16 2000-05-30 Intel Corporation Focal plane processor for scaling information from image sensors
US6903770B1 (en) 1998-07-27 2005-06-07 Sanyo Electric Co., Ltd. Digital camera which produces a single image based on two exposures
US6340994B1 (en) 1998-08-12 2002-01-22 Pixonics, Llc System and method for using temporal gamma and reverse super-resolution to process images for use in digital display systems
DE19838362C1 (de) 1998-08-18 2000-02-10 Deutsch Zentr Luft & Raumfahrt Fokalebenenplatte für eine hochauflösende CCD-Kamera
US6269175B1 (en) 1998-08-28 2001-07-31 Sarnoff Corporation Method and apparatus for enhancing regions of aligned images using flow estimation
US6185529B1 (en) 1998-09-14 2001-02-06 International Business Machines Corporation Speech recognition aided by lateral profile image
US6879735B1 (en) 1998-09-14 2005-04-12 University Of Utah Reasearch Foundation Method of digital image enhancement and sharpening
US6310650B1 (en) 1998-09-23 2001-10-30 Honeywell International Inc. Method and apparatus for calibrating a tiled display
GB2343320B (en) 1998-10-31 2003-03-26 Ibm Camera system for three dimentional images and video
JP3596314B2 (ja) 1998-11-02 2004-12-02 日産自動車株式会社 物体端の位置計測装置および移動体の通行判断装置
US6661427B1 (en) 1998-11-09 2003-12-09 Broadcom Corporation Graphics display system with video scaler
US6611289B1 (en) 1999-01-15 2003-08-26 Yanbin Yu Digital cameras using multiple sensors with multiple lenses
JP3875423B2 (ja) 1999-01-19 2007-01-31 日本放送協会 固体撮像素子およびそれ用の映像信号出力装置
US6603513B1 (en) 1999-02-16 2003-08-05 Micron Technology, Inc. Using a single control line to provide select and reset signals to image sensors in two rows of a digital imaging device
JP3634677B2 (ja) 1999-02-19 2005-03-30 キヤノン株式会社 画像の補間方法、画像処理方法、画像表示方法、画像処理装置、画像表示装置、及びコンピュータプログラム記憶媒体
US6563540B2 (en) 1999-02-26 2003-05-13 Intel Corporation Light sensor with increased dynamic range
US6350804B2 (en) 1999-04-14 2002-02-26 General Electric Co. Compositions with enhanced ductility
US20020063807A1 (en) 1999-04-19 2002-05-30 Neal Margulis Method for Performing Image Transforms in a Digital Display System
US6819358B1 (en) 1999-04-26 2004-11-16 Microsoft Corporation Error calibration for digital image sensors and apparatus using the same
US6292713B1 (en) 1999-05-20 2001-09-18 Compaq Computer Corporation Robotic telepresence system
US6864916B1 (en) 1999-06-04 2005-03-08 The Trustees Of Columbia University In The City Of New York Apparatus and method for high dynamic range imaging using spatially varying exposures
JP2001008235A (ja) 1999-06-25 2001-01-12 Minolta Co Ltd 3次元データの再構成のための画像入力方法及び多眼式データ入力装置
JP2001042042A (ja) 1999-07-27 2001-02-16 Canon Inc 撮像装置
US6801653B1 (en) 1999-08-05 2004-10-05 Sony Corporation Information processing apparatus and method as well as medium
US7015954B1 (en) 1999-08-09 2006-03-21 Fuji Xerox Co., Ltd. Automatic video system using multiple cameras
US6647142B1 (en) 1999-08-19 2003-11-11 Mitsubishi Electric Research Laboratories, Inc. Badge identification system
US6771833B1 (en) 1999-08-20 2004-08-03 Eastman Kodak Company Method and system for enhancing digital images
US6628330B1 (en) 1999-09-01 2003-09-30 Neomagic Corp. Color interpolator and horizontal/vertical edge enhancer using two line buffer and alternating even/odd filters for digital camera
US6358862B1 (en) 1999-09-02 2002-03-19 Micron Technology, Inc Passivation integrity improvements
JP3280001B2 (ja) 1999-09-16 2002-04-30 富士重工業株式会社 ステレオ画像の位置ずれ調整装置
US6639596B1 (en) 1999-09-20 2003-10-28 Microsoft Corporation Stereo reconstruction from multiperspective panoramas
US6628845B1 (en) 1999-10-20 2003-09-30 Nec Laboratories America, Inc. Method for subpixel registration of images
US6774941B1 (en) 1999-10-26 2004-08-10 National Semiconductor Corporation CCD output processing stage that amplifies signals from colored pixels based on the conversion efficiency of the colored pixels
US6671399B1 (en) 1999-10-27 2003-12-30 Canon Kabushiki Kaisha Fast epipolar line adjustment of stereo pairs
US6674892B1 (en) 1999-11-01 2004-01-06 Canon Kabushiki Kaisha Correcting an epipolar axis for skew and offset
JP2001195050A (ja) 1999-11-05 2001-07-19 Mitsubishi Electric Corp グラフィックアクセラレータ
TW521519B (en) 1999-11-26 2003-02-21 Sanyo Electric Co Apparatus and method for converting a two dimensional image to a three dimensional image
JP3950926B2 (ja) 1999-11-30 2007-08-01 エーユー オプトロニクス コーポレイション 画像表示方法、ホスト装置、画像表示装置、およびディスプレイ用インターフェイス
JP3728160B2 (ja) 1999-12-06 2005-12-21 キヤノン株式会社 奥行き画像計測装置及び方法、並びに複合現実感提示システム
KR100307456B1 (ko) 1999-12-08 2001-10-17 김순택 박막 트랜지스터의 제조 방법
US7068851B1 (en) 1999-12-10 2006-06-27 Ricoh Co., Ltd. Multiscale sharpening and smoothing with wavelets
FI107680B (fi) 1999-12-22 2001-09-14 Nokia Oyj Menetelmä videokuvien lähettämiseksi, tiedonsiirtojärjestelmä, lähettävä videopäätelaite ja vastaanottava videopäätelaite
US6502097B1 (en) 1999-12-23 2002-12-31 Microsoft Corporation Data structure for efficient access to variable-size data objects
US6476805B1 (en) 1999-12-23 2002-11-05 Microsoft Corporation Techniques for spatial displacement estimation and multi-resolution operations on light fields
JP2001194114A (ja) 2000-01-14 2001-07-19 Sony Corp 画像処理装置および画像処理方法、並びにプログラム提供媒体
US6842502B2 (en) 2000-02-18 2005-01-11 Dilliam Beaumont Hospital Cone beam computed tomography with a flat panel imager
US6523046B2 (en) 2000-02-25 2003-02-18 Microsoft Corporation Infrastructure and method for supporting generic multimedia metadata
JP2001264033A (ja) 2000-03-17 2001-09-26 Sony Corp 三次元形状計測装置とその方法、三次元モデリング装置とその方法、およびプログラム提供媒体
US6571466B1 (en) 2000-03-27 2003-06-03 Amkor Technology, Inc. Flip chip image sensor package fabrication method
JP2001277260A (ja) 2000-03-30 2001-10-09 Seiko Epson Corp マイクロレンズアレイ、その製造方法及びその製造用原盤並びに表示装置
WO2001075949A1 (fr) 2000-04-04 2001-10-11 Advantest Corporation Appareil d'exposition multifaisceau comprenant une lentille electronique multiaxe, et procede de fabrication d'un dispositif a semi-conducteur
WO2001082593A1 (en) 2000-04-24 2001-11-01 The Government Of The United States Of America, As Represented By The Secretary Of The Navy Apparatus and method for color image fusion
JP2001337263A (ja) 2000-05-25 2001-12-07 Olympus Optical Co Ltd 測距装置
JP4501239B2 (ja) 2000-07-13 2010-07-14 ソニー株式会社 カメラ・キャリブレーション装置及び方法、並びに、記憶媒体
US7245761B2 (en) 2000-07-21 2007-07-17 Rahul Swaminathan Method and apparatus for reducing distortion in images
JP4015944B2 (ja) 2000-07-21 2007-11-28 ザ トラスティース オブ コロンビア ユニバーシティ イン ザ シティ オブ ニューヨーク イメージ・モザイク化のための方法および装置
US7154546B1 (en) 2000-08-07 2006-12-26 Micron Technology, Inc. Pixel optimization for color
US7200261B2 (en) 2000-08-25 2007-04-03 Fujifilm Corporation Parallax image capturing apparatus and parallax image processing apparatus
US7085409B2 (en) 2000-10-18 2006-08-01 Sarnoff Corporation Method and apparatus for synthesizing new video and/or still imagery from a collection of real video and/or still imagery
US6734905B2 (en) 2000-10-20 2004-05-11 Micron Technology, Inc. Dynamic range extension for CMOS image sensors
US6774889B1 (en) 2000-10-24 2004-08-10 Microsoft Corporation System and method for transforming an ordinary computer monitor screen into a touch screen
US7262799B2 (en) 2000-10-25 2007-08-28 Canon Kabushiki Kaisha Image sensing apparatus and its control method, control program, and storage medium
US6476971B1 (en) 2000-10-31 2002-11-05 Eastman Kodak Company Method of manufacturing a microlens array mold and a microlens array
JP3918499B2 (ja) 2000-11-01 2007-05-23 セイコーエプソン株式会社 間隙測定方法、間隙測定装置、形状測定方法、形状測定装置並びに液晶装置の製造方法
US6573912B1 (en) 2000-11-07 2003-06-03 Zaxel Systems, Inc. Internet system for virtual telepresence
US6788338B1 (en) 2000-11-20 2004-09-07 Petko Dimitrov Dinev High resolution video camera apparatus having two image sensors and signal processing
US7490774B2 (en) 2003-11-13 2009-02-17 Metrologic Instruments, Inc. Hand-supportable imaging based bar code symbol reader employing automatic light exposure measurement and illumination control subsystem integrated therein
JP2002171537A (ja) 2000-11-30 2002-06-14 Canon Inc 複眼撮像系、撮像装置および電子機器
WO2002045003A1 (en) 2000-12-01 2002-06-06 Imax Corporation Techniques and systems for developing high-resolution imagery
CA2436607A1 (en) 2000-12-05 2002-06-13 Yeda Research And Development Co. Ltd. Apparatus and method for alignment of spatial or temporal non-overlapping image sequences
JP2002252338A (ja) 2000-12-18 2002-09-06 Canon Inc 撮像装置及び撮像システム
JP2002195910A (ja) 2000-12-26 2002-07-10 Omron Corp 光学部品の検査装置
JP2002209226A (ja) 2000-12-28 2002-07-26 Canon Inc 撮像装置
US7805680B2 (en) 2001-01-03 2010-09-28 Nokia Corporation Statistical metering and filtering of content via pixel-based metadata
JP3957460B2 (ja) 2001-01-15 2007-08-15 沖電気工業株式会社 伝送ヘッダ圧縮装置、動画像符号化装置及び動画像伝送システム
JP2002250607A (ja) 2001-02-27 2002-09-06 Optex Co Ltd 物体検知センサ
CN2488005Y (zh) 2001-03-15 2002-04-24 左耀太 型煤燃烧器
US6635941B2 (en) 2001-03-21 2003-10-21 Canon Kabushiki Kaisha Structure of semiconductor device with improved reliability
JP2002324743A (ja) 2001-04-24 2002-11-08 Canon Inc 露光方法及び装置
US6443579B1 (en) 2001-05-02 2002-09-03 Kenneth Myers Field-of-view controlling arrangements
US20020167537A1 (en) 2001-05-11 2002-11-14 Miroslav Trajkovic Motion-based tracking with pan-tilt-zoom camera
US7235785B2 (en) 2001-05-11 2007-06-26 Irvine Sensors Corp. Imaging device with multiple fields of view incorporating memory-based temperature compensation of an uncooled focal plane array
US20020190991A1 (en) 2001-05-16 2002-12-19 Daniel Efran 3-D instant replay system and method
US7420602B2 (en) 2001-05-29 2008-09-02 Samsung Semiconductor Israel R&D Center (Sirc) Cmos imager for cellular applications and methods of using such
US7738013B2 (en) 2001-05-29 2010-06-15 Samsung Electronics Co., Ltd. Systems and methods for power conservation in a CMOS imager
US6482669B1 (en) 2001-05-30 2002-11-19 Taiwan Semiconductor Manufacturing Company Colors only process to reduce package yield loss
US6525302B2 (en) 2001-06-06 2003-02-25 The Regents Of The University Of Colorado Wavefront coding phase contrast imaging systems
US7113634B2 (en) 2001-07-31 2006-09-26 Canon Kabushiki Kaisha Stereoscopic image forming apparatus, stereoscopic image forming method, stereoscopic image forming system and stereoscopic image forming program
US20030025227A1 (en) 2001-08-02 2003-02-06 Zograph, Llc Reproduction of relief patterns
US8675119B2 (en) 2001-08-09 2014-03-18 Trustees Of Columbia University In The City Of New York Adaptive imaging using digital light processing
EP1289309B1 (de) 2001-08-31 2010-04-21 STMicroelectronics Srl Störschutzfilter für Bayermusterbilddaten
JP2003091726A (ja) 2001-09-17 2003-03-28 Nhk Engineering Services Inc 反射パラメータ取得装置、反射成分分離装置、反射パラメータ取得用プログラム、及び反射成分分離用プログラム
JP3978706B2 (ja) 2001-09-20 2007-09-19 セイコーエプソン株式会社 微細構造体の製造方法
JP2003139910A (ja) 2001-10-30 2003-05-14 Sony Corp 光学素子、その製造方法およびその製造装置、並びにそれを用いた液晶表示装置および画像投影型表示装置
DE10153237A1 (de) 2001-10-31 2003-05-15 Lfk Gmbh Verfahren und Vorrichtung zur automatisierten Bestimmung der Modulations-Transfer-Funktion (MTF) von Focal-Plane-Array (FPA)- Kameras
GB2383245B (en) * 2001-11-05 2005-05-18 Canon Europa Nv Image processing apparatus
JP3705766B2 (ja) 2001-11-28 2005-10-12 独立行政法人科学技術振興機構 画像入力装置
US6927922B2 (en) 2001-12-18 2005-08-09 The University Of Rochester Imaging using a multifocal aspheric lens to obtain extended depth of field
US7212228B2 (en) 2002-01-16 2007-05-01 Advanced Telecommunications Research Institute International Automatic camera calibration method
US7302118B2 (en) 2002-02-07 2007-11-27 Microsoft Corporation Transformation of images
US20030179418A1 (en) 2002-03-19 2003-09-25 Eastman Kodak Company Producing a defective pixel map from defective cluster pixels in an area array image sensor
US8369607B2 (en) 2002-03-27 2013-02-05 Sanyo Electric Co., Ltd. Method and apparatus for processing three-dimensional images
JP2003298920A (ja) 2002-03-29 2003-10-17 Fuji Photo Film Co Ltd デジタルカメラ
US20030188659A1 (en) 2002-04-05 2003-10-09 Canadian Bank Note Company Limited Method and apparatus for reproducing a color image based on monochrome images derived therefrom
AU2003226047A1 (en) 2002-04-10 2003-10-27 Pan-X Imaging, Inc. A digital imaging system
US6856314B2 (en) 2002-04-18 2005-02-15 Stmicroelectronics, Inc. Method and system for 3D reconstruction of multiple views with altering search path and occlusion modeling
US6917702B2 (en) 2002-04-24 2005-07-12 Mitsubishi Electric Research Labs, Inc. Calibration of multiple cameras for a turntable-based 3D scanner
JP3567327B2 (ja) 2002-05-08 2004-09-22 富士写真光機株式会社 撮像レンズ
US6783900B2 (en) 2002-05-13 2004-08-31 Micron Technology, Inc. Color filter imaging array and method of formation
JP2004048644A (ja) 2002-05-21 2004-02-12 Sony Corp 情報処理装置、情報処理システム、及び対話者表示方法
JP2003347192A (ja) 2002-05-24 2003-12-05 Toshiba Corp エネルギービーム露光方法および露光装置
US7013318B2 (en) 2002-05-29 2006-03-14 Raytheon Company Method and system for encapsulating cells
JP2004088713A (ja) 2002-06-27 2004-03-18 Olympus Corp 撮像レンズユニットおよび撮像装置
US7129981B2 (en) 2002-06-27 2006-10-31 International Business Machines Corporation Rendering system and method for images having differing foveal area and peripheral view area resolutions
JP4147059B2 (ja) 2002-07-03 2008-09-10 株式会社トプコン キャリブレーション用データ測定装置、測定方法及び測定プログラム、並びにコンピュータ読取可能な記録媒体、画像データ処理装置
JP2004037924A (ja) 2002-07-04 2004-02-05 Minolta Co Ltd 撮像装置
EP1537550A2 (de) 2002-07-15 2005-06-08 Magna B.S.P. Ltd. Verfahren und vorrichtung zur implementierung eines mehrzweck überwachungssystems
US20040012689A1 (en) 2002-07-16 2004-01-22 Fairchild Imaging Charge coupled devices in tiled arrays
JP2004078296A (ja) 2002-08-09 2004-03-11 Victor Co Of Japan Ltd 画像生成装置
US20070166447A1 (en) 2002-08-27 2007-07-19 Select Milk Producers, Inc. Dairy compositions and method of making
WO2004021151A2 (en) 2002-08-30 2004-03-11 Orasee Corp. Multi-dimensional image system for digital image input and output
US7447380B2 (en) 2002-09-12 2008-11-04 Inoe Technologies, Llc Efficient method for creating a viewpoint from plurality of images
US20040050104A1 (en) 2002-09-18 2004-03-18 Eastman Kodak Company Forming information transfer lens array
US20040207836A1 (en) 2002-09-27 2004-10-21 Rajeshwar Chhibber High dynamic range optical inspection system and method
US7084904B2 (en) 2002-09-30 2006-08-01 Microsoft Corporation Foveated wide-angle imaging system and method for capturing and viewing wide-angle images in real time
US7477781B1 (en) 2002-10-10 2009-01-13 Dalsa Corporation Method and apparatus for adaptive pixel correction of multi-color matrix
US20040075654A1 (en) 2002-10-16 2004-04-22 Silicon Integrated Systems Corp. 3-D digital image processor and method for visibility processing for use in the same
JP4171786B2 (ja) 2002-10-25 2008-10-29 コニカミノルタホールディングス株式会社 画像入力装置
US7742088B2 (en) 2002-11-19 2010-06-22 Fujifilm Corporation Image sensor and digital camera
EP1570683A1 (de) 2002-11-21 2005-09-07 Vision III Imaging, Inc. Kritische einstellung von parallaxbildern für stereoskopische bildanzeigevorrichtung
US20040105021A1 (en) 2002-12-02 2004-06-03 Bolymedia Holdings Co., Ltd. Color filter patterns for image sensors
US20040114807A1 (en) 2002-12-13 2004-06-17 Dan Lelescu Statistical representation and coding of light field data
US6878918B2 (en) 2003-01-09 2005-04-12 Dialdg Semiconductor Gmbh APS pixel with reset noise suppression and programmable binning capability
US7340099B2 (en) 2003-01-17 2008-03-04 University Of New Brunswick System and method for image fusion
DE10301941B4 (de) 2003-01-20 2005-11-17 Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. Kamera und Verfahren zur optischen Aufnahme eines Schirms
US7379592B2 (en) 2003-01-21 2008-05-27 United States Of America As Represented By The Secretary Of The Navy System and method for significant dust detection and enhancement of dust images over land and ocean
US7005637B2 (en) 2003-01-31 2006-02-28 Intevac, Inc. Backside thinning of image array devices
JP4214409B2 (ja) 2003-01-31 2009-01-28 国立大学法人東京工業大学 高解像度カラー画像生成方法、高解像度カラー画像生成装置及び高解像度カラー画像生成プログラム
US7308157B2 (en) 2003-02-03 2007-12-11 Photon Dynamics, Inc. Method and apparatus for optical inspection of a display
US7940799B2 (en) 2003-02-04 2011-05-10 Panasonic Corporation Code conversion method and device thereof
US7595817B1 (en) 2003-02-12 2009-09-29 The Research Foundation Of State University Of New York Linear system based, qualitative independent motion detection from compressed MPEG surveillance video
US20040165090A1 (en) 2003-02-13 2004-08-26 Alex Ning Auto-focus (AF) lens and process
JP2004266369A (ja) 2003-02-21 2004-09-24 Sony Corp 固体撮像装置およびその駆動方法
US7106914B2 (en) 2003-02-27 2006-09-12 Microsoft Corporation Bayesian image super resolution
US7148861B2 (en) 2003-03-01 2006-12-12 The Boeing Company Systems and methods for providing enhanced vision imaging with decreased latency
US8218052B2 (en) 2003-03-07 2012-07-10 Iconix Video, Inc. High frame rate high definition imaging system and method
US7218320B2 (en) 2003-03-13 2007-05-15 Sony Corporation System and method for capturing facial and body motion
US6801719B1 (en) 2003-03-14 2004-10-05 Eastman Kodak Company Camera using beam splitter with micro-lens image amplification
US7206449B2 (en) 2003-03-19 2007-04-17 Mitsubishi Electric Research Laboratories, Inc. Detecting silhouette edges in images
US7425984B2 (en) 2003-04-04 2008-09-16 Stmicroelectronics, Inc. Compound camera and methods for implementing auto-focus, depth-of-field and high-resolution functions
US7373005B2 (en) 2003-04-10 2008-05-13 Micron Technology, Inc. Compression system for integrated sensor devices
US7221445B2 (en) 2003-04-11 2007-05-22 Metrolaser, Inc. Methods and apparatus for detecting and quantifying surface characteristics and material conditions using light scattering
US7097311B2 (en) 2003-04-19 2006-08-29 University Of Kentucky Research Foundation Super-resolution overlay in multi-projector displays
US6958862B1 (en) 2003-04-21 2005-10-25 Foveon, Inc. Use of a lenslet array with a vertically stacked pixel array
US7428330B2 (en) 2003-05-02 2008-09-23 Microsoft Corporation Cyclopean virtual imaging via generalized probabilistic smoothing
SE525665C2 (sv) 2003-05-08 2005-03-29 Forskarpatent I Syd Ab Matris av pixlar samt elektronisk bildanordning innefattande nämnda matris av pixlar
CN1802847A (zh) 2003-05-13 2006-07-12 艾科悉德成像有限公司 用于增强图像分辨率的光学方法和系统
JP2004348674A (ja) 2003-05-26 2004-12-09 Noritsu Koki Co Ltd 領域検出方法及びその装置
US20040239782A1 (en) 2003-05-30 2004-12-02 William Equitz System and method for efficient improvement of image quality in cameras
CN1574894A (zh) 2003-06-02 2005-02-02 宾得株式会社 多焦距成像装置和具有该多焦距成像装置的移动装置
JP2004363478A (ja) 2003-06-06 2004-12-24 Sanyo Electric Co Ltd 半導体装置の製造方法
KR100539234B1 (ko) 2003-06-11 2005-12-27 삼성전자주식회사 투명 고분자 소재를 적용한 씨모스형 이미지 센서 모듈 및그 제조방법
US7362918B2 (en) 2003-06-24 2008-04-22 Microsoft Corporation System and method for de-noising multiple copies of a signal
US6818934B1 (en) 2003-06-24 2004-11-16 Omnivision International Holding Ltd Image sensor having micro-lens array separated with trench structures and method of making
US7315630B2 (en) 2003-06-26 2008-01-01 Fotonation Vision Limited Perfecting of digital image rendering parameters within rendering devices using face detection
US20050117015A1 (en) 2003-06-26 2005-06-02 Microsoft Corp. Foveated panoramic camera system
US7495694B2 (en) 2004-07-28 2009-02-24 Microsoft Corp. Omni-directional camera with calibration and up look angle improvements
US7388609B2 (en) 2003-07-07 2008-06-17 Zoran Corporation Dynamic identification and correction of defective pixels
US7090135B2 (en) 2003-07-07 2006-08-15 Symbol Technologies, Inc. Imaging arrangement and barcode imager for imaging an optical code or target at a plurality of focal planes
US20050007461A1 (en) 2003-07-11 2005-01-13 Novatek Microelectronic Co. Correction system and method of analog front end
JP3731589B2 (ja) 2003-07-18 2006-01-05 ソニー株式会社 撮像装置と同期信号発生装置
US7233737B2 (en) 2003-08-12 2007-06-19 Micron Technology, Inc. Fixed-focus camera module and associated method of assembly
US20050111705A1 (en) 2003-08-26 2005-05-26 Roman Waupotitsch Passive stereo sensing for 3D facial shape biometrics
US7643703B2 (en) 2003-09-03 2010-01-05 Battelle Energy Alliance, Llc Image change detection systems, methods, and articles of manufacture
EP1671258A4 (de) 2003-09-04 2008-03-19 Sarnoff Corp Verfahren und vorrichtung zur durchführung einer iriserkennung aus einem bild
JP4015090B2 (ja) 2003-09-08 2007-11-28 株式会社東芝 立体表示装置および画像表示方法
US7161606B2 (en) 2003-09-08 2007-01-09 Honda Motor Co., Ltd. Systems and methods for directly generating a view using a layered approach
JP4020850B2 (ja) 2003-10-06 2007-12-12 株式会社東芝 磁気記録媒体の製造方法、製造装置、インプリントスタンパ及びその製造方法
US7079251B2 (en) 2003-10-16 2006-07-18 4D Technology Corporation Calibration and error correction in multi-channel imaging
US7924327B2 (en) 2003-10-22 2011-04-12 Panasonic Corporation Imaging apparatus and method for producing the same, portable equipment, and imaging sensor and method for producing the same
US7840067B2 (en) 2003-10-24 2010-11-23 Arcsoft, Inc. Color matching and color correction for images forming a panoramic image
JP4118916B2 (ja) 2003-11-11 2008-07-16 オリンパス株式会社 マルチスペクトル画像撮影装置
JP4235539B2 (ja) 2003-12-01 2009-03-11 独立行政法人科学技術振興機構 画像構成装置及び画像構成方法
US7453510B2 (en) 2003-12-11 2008-11-18 Nokia Corporation Imaging device
US20050128509A1 (en) 2003-12-11 2005-06-16 Timo Tokkonen Image creating method and imaging device
US7328288B2 (en) 2003-12-11 2008-02-05 Canon Kabushiki Kaisha Relay apparatus for relaying communication from CPU to peripheral device
JP3859158B2 (ja) 2003-12-16 2006-12-20 セイコーエプソン株式会社 マイクロレンズ用凹部付き基板、マイクロレンズ基板、透過型スクリーン、およびリア型プロジェクタ
US7511749B2 (en) 2003-12-18 2009-03-31 Aptina Imaging Corporation Color image sensor having imaging element array forming images on respective regions of sensor elements
US7123298B2 (en) 2003-12-18 2006-10-17 Avago Technologies Sensor Ip Pte. Ltd. Color image sensor with imaging elements imaging on respective regions of sensor elements
US7376250B2 (en) 2004-01-05 2008-05-20 Honda Motor Co., Ltd. Apparatus, method and program for moving object detection
US7496293B2 (en) 2004-01-14 2009-02-24 Elbit Systems Ltd. Versatile camera for various visibility conditions
US7773143B2 (en) 2004-04-08 2010-08-10 Tessera North America, Inc. Thin color camera having sub-pixel resolution
US8134637B2 (en) 2004-01-28 2012-03-13 Microsoft Corporation Method and system to increase X-Y resolution in a depth (Z) camera using red, blue, green (RGB) sensing
US7453688B2 (en) 2004-01-29 2008-11-18 Inventec Corporation Multimedia device for portable computers
US7774044B2 (en) 2004-02-17 2010-08-10 Siemens Medical Solutions Usa, Inc. System and method for augmented reality navigation in a medical intervention procedure
US20050185711A1 (en) 2004-02-20 2005-08-25 Hanspeter Pfister 3D television system and method
SE527889C2 (sv) 2004-03-17 2006-07-04 Thomas Jeff Adamo Apparat för avbildning av ett objekt
JP2006047944A (ja) 2004-03-24 2006-02-16 Fuji Photo Film Co Ltd 撮影レンズ
US8090218B2 (en) 2004-03-31 2012-01-03 Canon Kabushiki Kaisha Imaging system performance measurement
US7633511B2 (en) 2004-04-01 2009-12-15 Microsoft Corporation Pop-up light field
JP4665422B2 (ja) 2004-04-02 2011-04-06 ソニー株式会社 撮像装置
US8634014B2 (en) 2004-04-05 2014-01-21 Hewlett-Packard Development Company, L.P. Imaging device analysis systems and imaging device analysis methods
US7091531B2 (en) 2004-04-07 2006-08-15 Micron Technology, Inc. High dynamic range pixel amplifier
US8049806B2 (en) 2004-09-27 2011-11-01 Digitaloptics Corporation East Thin camera and associated methods
US7620265B1 (en) 2004-04-12 2009-11-17 Equinox Corporation Color invariant image fusion of visible and thermal infrared video
JP2005303694A (ja) 2004-04-13 2005-10-27 Konica Minolta Holdings Inc 複眼撮像装置
US7292735B2 (en) 2004-04-16 2007-11-06 Microsoft Corporation Virtual image artifact detection
US7773404B2 (en) 2005-01-07 2010-08-10 Invisage Technologies, Inc. Quantum dot optical devices with enhanced gain and sensitivity and methods of making same
US8218625B2 (en) 2004-04-23 2012-07-10 Dolby Laboratories Licensing Corporation Encoding, decoding and representing high dynamic range images
US20060034531A1 (en) 2004-05-10 2006-02-16 Seiko Epson Corporation Block noise level evaluation method for compressed images and control method of imaging device utilizing the evaluation method
US7835556B2 (en) 2004-05-14 2010-11-16 Koninklijke Philips Electronics N.V. System and method for diagnosing breast cancer
JP4610411B2 (ja) 2004-05-17 2011-01-12 ミツビシ・エレクトリック・リサーチ・ラボラトリーズ・インコーポレイテッド 物体を含むシーンの様式化された画像を生成する方法
US7355793B2 (en) 2004-05-19 2008-04-08 The Regents Of The University Of California Optical system applicable to improving the dynamic range of Shack-Hartmann sensors
US20050265633A1 (en) 2004-05-25 2005-12-01 Sarnoff Corporation Low latency pyramid processor for image processing systems
JP2005354124A (ja) 2004-06-08 2005-12-22 Seiko Epson Corp 複数の低画素密度画像からの高画素密度画像の生成
US20060013318A1 (en) 2004-06-22 2006-01-19 Jennifer Webb Video error detection, recovery, and concealment
US7330593B2 (en) 2004-06-25 2008-02-12 Stmicroelectronics, Inc. Segment based image matching method and system
JP4408755B2 (ja) 2004-06-28 2010-02-03 Necエレクトロニクス株式会社 デインタリーブ装置、移動通信端末及びデインタリーブ方法
JP4479373B2 (ja) 2004-06-28 2010-06-09 ソニー株式会社 イメージセンサ
US7447382B2 (en) 2004-06-30 2008-11-04 Intel Corporation Computing a higher resolution image from multiple lower resolution images using model-based, robust Bayesian estimation
JP2006033228A (ja) 2004-07-14 2006-02-02 Victor Co Of Japan Ltd 画像撮像装置
JP2006033493A (ja) 2004-07-16 2006-02-02 Matsushita Electric Ind Co Ltd 撮像装置
US7189954B2 (en) 2004-07-19 2007-03-13 Micron Technology, Inc. Microelectronic imagers with optical devices and methods of manufacturing such microelectronic imagers
JP2006033570A (ja) 2004-07-20 2006-02-02 Olympus Corp 画像生成装置
US8027531B2 (en) 2004-07-21 2011-09-27 The Board Of Trustees Of The Leland Stanford Junior University Apparatus and method for capturing a scene using staggered triggering of dense camera arrays
GB0416496D0 (en) 2004-07-23 2004-08-25 Council Of The Central Lab Of Imaging device
US7068432B2 (en) 2004-07-27 2006-06-27 Micron Technology, Inc. Controlling lens shape in a microlens array
US20060023197A1 (en) 2004-07-27 2006-02-02 Joel Andrew H Method and system for automated production of autostereoscopic and animated prints and transparencies from digital and non-digital media
DE102004036469A1 (de) 2004-07-28 2006-02-16 Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. Kameramodul, hierauf basierendes Array und Verfahren zu dessen Herstellung
US7333652B2 (en) 2004-08-03 2008-02-19 Sony Corporation System and method for efficiently performing a depth map recovery procedure
US20060028476A1 (en) 2004-08-03 2006-02-09 Irwin Sobel Method and system for providing extensive coverage of an object using virtual cameras
JP2006050263A (ja) 2004-08-04 2006-02-16 Olympus Corp 画像生成方法および装置
US8248458B2 (en) 2004-08-06 2012-08-21 University Of Washington Through Its Center For Commercialization Variable fixation viewing distance scanned light displays
US7430339B2 (en) 2004-08-09 2008-09-30 Microsoft Corporation Border matting by dynamic programming
US7609302B2 (en) 2004-08-11 2009-10-27 Micron Technology, Inc. Correction of non-uniform sensitivity in an image array
US7645635B2 (en) 2004-08-16 2010-01-12 Micron Technology, Inc. Frame structure and semiconductor attach process for use therewith for fabrication of image sensor packages and the like, and resulting packages
US7061693B2 (en) 2004-08-16 2006-06-13 Xceed Imaging Ltd. Optical method and system for extended depth of focus
EP1797523A4 (de) 2004-08-23 2009-07-22 Sarnoff Corp Verfahren und vorrichtung zur herstellung eines kondensierten bildes
CN101427372B (zh) 2004-08-25 2012-12-12 普罗塔里斯菲洛有限责任公司 用于多个相机装置的设备和操作该设备的方法
US7564019B2 (en) 2005-08-25 2009-07-21 Richard Ian Olsen Large dynamic range cameras
US7795577B2 (en) 2004-08-25 2010-09-14 Richard Ian Olsen Lens frame and optical focus assembly for imager module
US7916180B2 (en) 2004-08-25 2011-03-29 Protarius Filo Ag, L.L.C. Simultaneous multiple field of view digital cameras
US8124929B2 (en) 2004-08-25 2012-02-28 Protarius Filo Ag, L.L.C. Imager module optical focus and assembly method
CN100489599C (zh) 2004-08-26 2009-05-20 财团法人秋田企业活性化中心 液晶透镜
JP4057597B2 (ja) 2004-08-26 2008-03-05 独立行政法人科学技術振興機構 光学素子
US20060046204A1 (en) 2004-08-31 2006-03-02 Sharp Laboratories Of America, Inc. Directly patternable microlens
JP2006080852A (ja) 2004-09-09 2006-03-23 Olympus Corp 画像処理装置、電子カメラ、スキャナ、画像処理方法、および画像処理プログラム
US20060055811A1 (en) 2004-09-14 2006-03-16 Frtiz Bernard S Imaging system having modules with adaptive optical elements
US7145124B2 (en) 2004-09-15 2006-12-05 Raytheon Company Multispectral imaging chip using photonic crystals
JP4202991B2 (ja) 2004-09-29 2008-12-24 株式会社東芝 立体画像用データの記録方法及び表示再生方法
JP3977368B2 (ja) 2004-09-30 2007-09-19 クラリオン株式会社 駐車支援システム
DE102004049676A1 (de) 2004-10-12 2006-04-20 Infineon Technologies Ag Verfahren zur rechnergestützten Bewegungsschätzung in einer Vielzahl von zeitlich aufeinander folgenden digitalen Bildern, Anordnung zur rechnergestützten Bewegungsschätzung, Computerprogramm-Element und computerlesbares Speichermedium
JP2006119368A (ja) 2004-10-21 2006-05-11 Konica Minolta Opto Inc 広角光学系、撮像レンズ装置、モニタカメラ及びデジタル機器
JP4534715B2 (ja) 2004-10-22 2010-09-01 株式会社ニコン 撮像装置および画像処理プログラム
DE102004052994C5 (de) 2004-11-03 2010-08-26 Vistec Electron Beam Gmbh Multistrahlmodulator für einen Partikelstrahl und Verwendung des Multistrahlmodulators zur maskenlosen Substratsstrukturierung
KR100603601B1 (ko) 2004-11-08 2006-07-24 한국전자통신연구원 다시점 콘텐츠 생성 장치 및 그 방법
US7598996B2 (en) 2004-11-16 2009-10-06 Aptina Imaging Corporation System and method for focusing a digital camera
US7538326B2 (en) 2004-12-03 2009-05-26 Fluke Corporation Visible light and IR combined image camera with a laser pointer
JP2006165795A (ja) 2004-12-03 2006-06-22 Canon Inc 画像形成装置およびその方法
US7483065B2 (en) 2004-12-15 2009-01-27 Aptina Imaging Corporation Multi-lens imaging systems and methods using optical filters having mosaic patterns
US7728878B2 (en) 2004-12-17 2010-06-01 Mitsubishi Electric Research Labortories, Inc. Method and system for processing multiview videos for view synthesis using side information
US8854486B2 (en) 2004-12-17 2014-10-07 Mitsubishi Electric Research Laboratories, Inc. Method and system for processing multiview videos for view synthesis using skip and direct modes
US20060139475A1 (en) 2004-12-23 2006-06-29 Esch John W Multiple field of view camera arrays
US20110102553A1 (en) 2007-02-28 2011-05-05 Tessera Technologies Ireland Limited Enhanced real-time face models from stereo imaging
EP1851527A2 (de) 2005-01-07 2007-11-07 GestureTek, Inc. Erzeugung von 3d-bildern von gegenständen durch belichtung mit infrarotmustern
US7073908B1 (en) 2005-01-11 2006-07-11 Anthony Italo Provitola Enhancement of depth perception
US7767949B2 (en) 2005-01-18 2010-08-03 Rearden, Llc Apparatus and method for capturing still images and video using coded aperture techniques
US7671321B2 (en) 2005-01-18 2010-03-02 Rearden, Llc Apparatus and method for capturing still images and video using coded lens imaging techniques
US7602997B2 (en) 2005-01-19 2009-10-13 The United States Of America As Represented By The Secretary Of The Army Method of super-resolving images
US8700729B2 (en) 2005-01-21 2014-04-15 Robin Dua Method and apparatus for managing credentials through a wireless network
JP4714749B2 (ja) * 2005-02-02 2011-06-29 インターグラフ ソフトウェアー テクノロジーズ カンパニー 偏光データを用いるリアルタイム画像検出
US7408627B2 (en) 2005-02-08 2008-08-05 Canesta, Inc. Methods and system to quantify depth data accuracy in three-dimensional sensors using single frame capture
US7965314B1 (en) 2005-02-09 2011-06-21 Flir Systems, Inc. Foveal camera systems and methods
US20060187322A1 (en) 2005-02-18 2006-08-24 Janson Wilbert F Jr Digital camera using multiple fixed focal length lenses and multiple image sensors to provide an extended zoom range
US7561191B2 (en) 2005-02-18 2009-07-14 Eastman Kodak Company Camera phone using multiple lenses and image sensors to provide an extended zoom range
CA2600926C (en) 2005-03-11 2009-06-09 Creaform Inc. Auto-referenced system and apparatus for three-dimensional scanning
JP2006258930A (ja) 2005-03-15 2006-09-28 Nikon Corp マイクロレンズの製造方法、及びマイクロレンズ用の型の製造方法
WO2006102181A1 (en) 2005-03-21 2006-09-28 Massachusetts Institute Of Technology (Mit) Real-time, continuous-wave terahertz imaging using a microbolometer focal-plane array
WO2006100903A1 (ja) 2005-03-23 2006-09-28 Matsushita Electric Industrial Co., Ltd. 車載撮像装置
US7297917B2 (en) 2005-03-24 2007-11-20 Micron Technology, Inc. Readout technique for increasing or maintaining dynamic range in image sensors
JP4545190B2 (ja) 2005-03-24 2010-09-15 パナソニック株式会社 撮像装置
US7683950B2 (en) 2005-04-26 2010-03-23 Eastman Kodak Company Method and apparatus for correcting a channel dependent color aberration in a digital image
US7956871B2 (en) 2005-04-28 2011-06-07 Samsung Electronics Co., Ltd. Color disparity correction in image sensors methods and circuits
US7656428B2 (en) 2005-05-05 2010-02-02 Avago Technologies General Ip (Singapore) Pte. Ltd. Imaging device employing optical motion sensor as gyroscope
EP1882449A4 (de) 2005-05-18 2010-05-05 Hitachi Medical Corp Röntgenbild- und bildverarbeitungsprogramm
US8411182B2 (en) 2005-06-02 2013-04-02 Xerox Corporation System for controlling integration times of photosensors in an imaging device
US7968888B2 (en) 2005-06-08 2011-06-28 Panasonic Corporation Solid-state image sensor and manufacturing method thereof
JP2006345233A (ja) 2005-06-09 2006-12-21 Fujifilm Holdings Corp 撮像装置及びデジタルカメラ
KR100813961B1 (ko) 2005-06-14 2008-03-14 삼성전자주식회사 영상 수신장치
US7364306B2 (en) 2005-06-20 2008-04-29 Digital Display Innovations, Llc Field sequential light source modulation for a digital display system
JP4826152B2 (ja) 2005-06-23 2011-11-30 株式会社ニコン 画像合成方法及び撮像装置
US20070102622A1 (en) 2005-07-01 2007-05-10 Olsen Richard I Apparatus for multiple camera devices and method of operating same
ES2375929T3 (es) 2005-07-04 2012-03-07 High Point Pharmaceuticals, Llc Antagonistas del receptor histamina h3.
JP4577126B2 (ja) 2005-07-08 2010-11-10 オムロン株式会社 ステレオ対応づけのための投光パターンの生成装置及び生成方法
US20090268983A1 (en) 2005-07-25 2009-10-29 The Regents Of The University Of California Digital imaging system and method using multiple digital image sensors to produce large high-resolution gapless mosaic images
CA2553473A1 (en) 2005-07-26 2007-01-26 Wa James Tam Generating a depth map from a tw0-dimensional source image for stereoscopic and multiview imaging
CN101533202B (zh) 2005-07-26 2011-04-13 松下电器产业株式会社 复眼方式的摄像装置
JPWO2007013280A1 (ja) 2005-07-29 2009-02-05 株式会社Access プラグインモジュール実行方法、ブラウザ実行方法、メーラ実行方法、プログラム、端末装置、及び、ページデータが記録されたコンピュータ読み取り可能な記録媒体
US7969488B2 (en) 2005-08-03 2011-06-28 Micron Technologies, Inc. Correction of cluster defects in imagers
US7929801B2 (en) 2005-08-15 2011-04-19 Sony Corporation Depth information for auto focus using two pictures and two-dimensional Gaussian scale space theory
US20070041391A1 (en) 2005-08-18 2007-02-22 Micron Technology, Inc. Method and apparatus for controlling imager output data rate
US20070040922A1 (en) 2005-08-22 2007-02-22 Micron Technology, Inc. HDR/AB on multi-way shared pixels
US7964835B2 (en) 2005-08-25 2011-06-21 Protarius Filo Ag, L.L.C. Digital cameras with direct luminance and chrominance detection
US20070258006A1 (en) 2005-08-25 2007-11-08 Olsen Richard I Solid state camera optics frame and assembly
US20070083114A1 (en) 2005-08-26 2007-04-12 The University Of Connecticut Systems and methods for image resolution enhancement
JP4804856B2 (ja) 2005-09-29 2011-11-02 富士フイルム株式会社 単焦点レンズ
WO2007036055A1 (en) 2005-09-30 2007-04-05 Simon Fraser University Methods and apparatus for detecting defects in imaging arrays by image analysis
WO2007044725A2 (en) 2005-10-07 2007-04-19 The Board Of Trustees Of The Leland Stanford Junior University Microscopy arrangements and approaches
JP4773179B2 (ja) 2005-10-14 2011-09-14 富士フイルム株式会社 撮像装置
US8300085B2 (en) 2005-10-14 2012-10-30 Microsoft Corporation Occlusion handling in stereo imaging
US7806604B2 (en) 2005-10-20 2010-10-05 Honeywell International Inc. Face detection and tracking in a wide field of view
KR100730406B1 (ko) 2005-11-16 2007-06-19 광운대학교 산학협력단 중간 요소 영상을 이용한 입체 영상 표시 장치
JP4389865B2 (ja) 2005-11-17 2009-12-24 ソニー株式会社 固体撮像素子の信号処理装置および信号処理方法並びに撮像装置
JP4943695B2 (ja) 2005-11-21 2012-05-30 富士フイルム株式会社 多焦点カメラの撮影光学系
US7599547B2 (en) 2005-11-30 2009-10-06 Microsoft Corporation Symmetric stereo model for handling occlusion
US8275195B2 (en) 2005-11-30 2012-09-25 Telecom Italia S.P.A. Method for determining scattered disparity fields in stereo vision
JP4516516B2 (ja) 2005-12-07 2010-08-04 本田技研工業株式会社 人物検出装置、人物検出方法及び人物検出プログラム
TWI296480B (en) 2005-12-19 2008-05-01 Quanta Comp Inc Image camera of an electronic device
JP4501855B2 (ja) 2005-12-22 2010-07-14 ソニー株式会社 画像信号処理装置、撮像装置、および画像信号処理方法、並びにコンピュータ・プログラム
JP2007180730A (ja) 2005-12-27 2007-07-12 Eastman Kodak Co デジタルカメラおよびデータ管理方法
WO2007077283A1 (en) 2005-12-30 2007-07-12 Nokia Corporation Method and device for controlling auto focusing of a video camera by tracking a region-of-interest
KR100789441B1 (ko) 2005-12-30 2007-12-28 엘에스산전 주식회사 인버터의 전류 검출 장치 및 방법
US7855786B2 (en) 2006-01-09 2010-12-21 Bae Systems Spectral Solutions Llc Single camera multi-spectral imager
US7675080B2 (en) 2006-01-10 2010-03-09 Aptina Imaging Corp. Uniform color filter arrays in a moat
CN101371568B (zh) 2006-01-20 2010-06-30 松下电器产业株式会社 复眼方式的照相机模块及其制造方法
DE102006004802B4 (de) 2006-01-23 2008-09-25 Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. Bilderfassungssystem und Verfahren zur Herstellung mindestens eines Bilderfassungssystems
US7856125B2 (en) 2006-01-31 2010-12-21 University Of Southern California 3D face reconstruction from 2D images
JP4834412B2 (ja) 2006-02-03 2011-12-14 富士フイルム株式会社 固体撮像装置およびこれを用いた電子内視鏡
US8075604B2 (en) 2006-02-16 2011-12-13 Warsaw Orthopedic, Inc. Multi-thread bone screw and method
US20070201859A1 (en) 2006-02-24 2007-08-30 Logitech Europe S.A. Method and system for use of 3D sensors in an image capture device
US7391572B2 (en) 2006-03-01 2008-06-24 International Business Machines Corporation Hybrid optical/electronic structures fabricated by a common molding process
US7924483B2 (en) 2006-03-06 2011-04-12 Smith Scott T Fused multi-array color image sensor
DE102006011707B4 (de) 2006-03-14 2010-11-18 Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. Verfahren und Vorrichtung zum Erzeugen einer strukturfreien fiberskopischen Aufnahme
US7616254B2 (en) 2006-03-16 2009-11-10 Sony Corporation Simple method for calculating camera defocus from an image scene
US8360574B2 (en) 2006-03-20 2013-01-29 High Performance Optics, Inc. High performance selective light wavelength filtering providing improved contrast sensitivity
JP4615468B2 (ja) 2006-03-23 2011-01-19 富士フイルム株式会社 撮影装置
US7606484B1 (en) 2006-03-23 2009-10-20 Flir Systems, Inc. Infrared and near-infrared camera hyperframing
CN101046882A (zh) 2006-03-27 2007-10-03 谷京陆 可直接输出的混合分辨率图像制作技术
US7342212B2 (en) 2006-03-31 2008-03-11 Micron Technology, Inc. Analog vertical sub-sampling in an active pixel sensor (APS) image sensor
US7916934B2 (en) 2006-04-04 2011-03-29 Mitsubishi Electric Research Laboratories, Inc. Method and system for acquiring, encoding, decoding and displaying 3D light fields
US8044994B2 (en) 2006-04-04 2011-10-25 Mitsubishi Electric Research Laboratories, Inc. Method and system for decoding and displaying 3D light fields
TW200740212A (en) 2006-04-10 2007-10-16 Sony Taiwan Ltd A stitching accuracy improvement method with lens distortion correction
US20070242141A1 (en) 2006-04-14 2007-10-18 Sony Corporation And Sony Electronics Inc. Adjustable neutral density filter system for dynamic range compression from scene to imaging sensor
CN101064780B (zh) 2006-04-30 2012-07-04 台湾新力国际股份有限公司 利用透镜失真校正的影像接合准确度改善方法及装置
US20070263114A1 (en) 2006-05-01 2007-11-15 Microalign Technologies, Inc. Ultra-thin digital imaging device of high resolution for mobile electronic devices and method of imaging
US7580620B2 (en) 2006-05-08 2009-08-25 Mitsubishi Electric Research Laboratories, Inc. Method for deblurring images using optimized temporal coding patterns
US8350957B2 (en) 2006-05-09 2013-01-08 Technion Research And Development Foundation Ltd. Imaging systems and methods for recovering object visibility
US9736346B2 (en) 2006-05-09 2017-08-15 Stereo Display, Inc Imaging system improving image resolution of the system with low resolution image sensor
US7889264B2 (en) 2006-05-12 2011-02-15 Ricoh Co., Ltd. End-to-end design of superresolution electro-optic imaging systems
US7916362B2 (en) 2006-05-22 2011-03-29 Eastman Kodak Company Image sensor with improved light sensitivity
US8139142B2 (en) 2006-06-01 2012-03-20 Microsoft Corporation Video manipulation of red, green, blue, distance (RGB-Z) data including segmentation, up-sampling, and background substitution techniques
IES20070229A2 (en) 2006-06-05 2007-10-03 Fotonation Vision Ltd Image acquisition method and apparatus
US8081207B2 (en) 2006-06-06 2011-12-20 Point Grey Research Inc. High accuracy stereo camera
US20070177004A1 (en) 2006-06-08 2007-08-02 Timo Kolehmainen Image creating method and imaging device
US20070291995A1 (en) 2006-06-09 2007-12-20 Rivera Paul G System, Method, and Apparatus for Preventing Identity Fraud Associated With Payment and Identity Cards
JP4631811B2 (ja) 2006-06-12 2011-02-16 株式会社日立製作所 撮像装置
JP5106870B2 (ja) 2006-06-14 2012-12-26 株式会社東芝 固体撮像素子
FR2902530A1 (fr) 2006-06-19 2007-12-21 St Microelectronics Rousset Procede de fabrication de lentilles, notamment pour imageur comprenant un diaphragme
TWI362550B (en) 2007-06-21 2012-04-21 Ether Precision Inc The method for manufacturing the image captures unit
US7925117B2 (en) 2006-06-27 2011-04-12 Honeywell International Inc. Fusion of sensor data and synthetic data to form an integrated image
FR2903155B1 (fr) 2006-07-03 2008-10-17 Poclain Hydraulics Ind Soc Par Circuit hydraulique de recuperation d'energie
KR100793369B1 (ko) 2006-07-06 2008-01-11 삼성전자주식회사 분해능이 향상되는 이미지 센서 및 이를 이용한 이미지감지 방법
US20080024683A1 (en) 2006-07-31 2008-01-31 Niranjan Damera-Venkata Overlapped multi-projector system with dithering
US20080030592A1 (en) 2006-08-01 2008-02-07 Eastman Kodak Company Producing digital image with different resolution portions
JP2008039852A (ja) 2006-08-01 2008-02-21 Agc Techno Glass Co Ltd ガラス光学素子及びその製造方法
US8406562B2 (en) 2006-08-11 2013-03-26 Geo Semiconductor Inc. System and method for automated calibration and correction of display geometry and color
US20080044170A1 (en) 2006-08-16 2008-02-21 Choon Hwee Yap Image Capturing System And Method Of Operating The Same
ATE479980T1 (de) 2006-08-24 2010-09-15 Valeo Vision Verfahren zur bestimmung der durchfahrt eines fahrzeugs durch eine engen durchlass
US8306063B2 (en) 2006-08-29 2012-11-06 EXFO Services Assurance, Inc. Real-time transport protocol stream detection system and method
US8687087B2 (en) 2006-08-29 2014-04-01 Csr Technology Inc. Digital camera with selectively increased dynamic range by control of parameters during image acquisition
KR100746360B1 (ko) 2006-08-31 2007-08-06 삼성전기주식회사 스템퍼 제조방법
NO326372B1 (no) 2006-09-21 2008-11-17 Polight As Polymerlinse
WO2008039802A2 (en) 2006-09-25 2008-04-03 Ophthonix, Incorporated Method for correction of chromatic aberration and achromatic lens
JP4403162B2 (ja) 2006-09-29 2010-01-20 株式会社東芝 立体画像表示装置および立体画像の作製方法
US20080080028A1 (en) 2006-10-02 2008-04-03 Micron Technology, Inc. Imaging method, apparatus and system having extended depth of field
US8031258B2 (en) 2006-10-04 2011-10-04 Omnivision Technologies, Inc. Providing multiple video signals from single sensor
US8883019B2 (en) 2006-10-11 2014-11-11 Polight As Method for manufacturing adjustable lens
JP5244806B2 (ja) 2006-10-11 2013-07-24 ポライト エイエス 小型調整可能レンズの設計
US8073196B2 (en) 2006-10-16 2011-12-06 University Of Southern California Detection and tracking of moving objects from a moving platform in presence of strong parallax
US7702229B2 (en) 2006-10-18 2010-04-20 Eastman Kodak Company Lens array assisted focus detection
JP4349456B2 (ja) 2006-10-23 2009-10-21 ソニー株式会社 固体撮像素子
JP4942221B2 (ja) 2006-10-25 2012-05-30 国立大学法人東京工業大学 高解像度仮想焦点面画像生成方法
US7888159B2 (en) 2006-10-26 2011-02-15 Omnivision Technologies, Inc. Image sensor having curved micro-mirrors over the sensing photodiode and method for fabricating
JP4452951B2 (ja) 2006-11-02 2010-04-21 富士フイルム株式会社 距離画像生成方法及びその装置
KR20080043106A (ko) 2006-11-13 2008-05-16 삼성전자주식회사 광학렌즈 및 그 제조방법
US8059162B2 (en) 2006-11-15 2011-11-15 Sony Corporation Imaging apparatus and method, and method for designing imaging apparatus
US20080118241A1 (en) 2006-11-16 2008-05-22 Tekolste Robert Control of stray light in camera systems employing an optics stack and associated methods
CN201043890Y (zh) 2006-11-17 2008-04-02 中国科学院上海光学精密机械研究所 单孔径多重成像的光学成像测距装置
EP2618102A2 (de) 2006-11-21 2013-07-24 Mantisvision Ltd. Geometrische 3D-Modellierung und 3D-Videoinhaltserzeugung
KR20080047002A (ko) 2006-11-24 2008-05-28 엘지이노텍 주식회사 카메라모듈의 렌즈 어셈블리 및 그 제작 방법
US8559705B2 (en) 2006-12-01 2013-10-15 Lytro, Inc. Interactive refocusing of electronic images
US20100265385A1 (en) 2009-04-18 2010-10-21 Knight Timothy J Light Field Camera Image, File and Configuration Data, and Methods of Using, Storing and Communicating Same
JP4406937B2 (ja) 2006-12-01 2010-02-03 富士フイルム株式会社 撮影装置
JP5040493B2 (ja) 2006-12-04 2012-10-03 ソニー株式会社 撮像装置及び撮像方法
US8242426B2 (en) 2006-12-12 2012-08-14 Dolby Laboratories Licensing Corporation Electronic camera having multiple sensors for capturing high dynamic range images and related methods
US7646549B2 (en) 2006-12-18 2010-01-12 Xceed Imaging Ltd Imaging system and method for providing extended depth of focus, range extraction and super resolved imaging
US8558929B2 (en) 2006-12-20 2013-10-15 Carestream Health, Inc. Imaging array for multiple frame capture
US8213500B2 (en) 2006-12-21 2012-07-03 Sharp Laboratories Of America, Inc. Methods and systems for processing film grain noise
TWI324015B (en) 2006-12-22 2010-04-21 Ind Tech Res Inst Autofocus searching method
US8103111B2 (en) 2006-12-26 2012-01-24 Olympus Imaging Corp. Coding method, electronic camera, recording medium storing coded program, and decoding method
US20080158259A1 (en) 2006-12-28 2008-07-03 Texas Instruments Incorporated Image warping and lateral color correction
US7973823B2 (en) 2006-12-29 2011-07-05 Nokia Corporation Method and system for image pre-processing
US20080158698A1 (en) 2006-12-29 2008-07-03 Chao-Chi Chang Lens barrel array and lens array and the method of making the same
US20080165257A1 (en) 2007-01-05 2008-07-10 Micron Technology, Inc. Configurable pixel array system and method
JP4993578B2 (ja) 2007-01-15 2012-08-08 オリンパスイメージング株式会社 画像ファイル再生装置,画像ファイル加工編集装置
US8655052B2 (en) 2007-01-26 2014-02-18 Intellectual Discovery Co., Ltd. Methodology for 3D scene reconstruction from 2D image sequences
JP5024992B2 (ja) 2007-02-02 2012-09-12 株式会社ジャパンディスプレイセントラル 表示装置
US7667824B1 (en) 2007-02-06 2010-02-23 Alpha Technology, LLC Range gated shearography systems and related methods
US7792423B2 (en) 2007-02-06 2010-09-07 Mitsubishi Electric Research Laboratories, Inc. 4D light field cameras
CN100585453C (zh) 2007-02-09 2010-01-27 奥林巴斯映像株式会社 解码方法及解码装置
JP2008209761A (ja) 2007-02-27 2008-09-11 Nikon Corp 焦点検出装置および撮像装置
JP4386083B2 (ja) 2007-02-27 2009-12-16 トヨタ自動車株式会社 駐車支援装置
JP4185956B2 (ja) 2007-02-27 2008-11-26 トヨタ自動車株式会社 旅行時間演算サーバ、車両用旅行時間演算装置及び旅行時間演算システム
JP4153013B1 (ja) 2007-03-06 2008-09-17 シャープ株式会社 撮像レンズ、撮像ユニットおよびそれを備えた携帯型情報端末
US7755679B2 (en) 2007-03-07 2010-07-13 Altasens, Inc. Apparatus and method for reducing edge effect in an image sensor
US7859588B2 (en) 2007-03-09 2010-12-28 Eastman Kodak Company Method and apparatus for operating a dual lens camera to augment an image
US7683962B2 (en) 2007-03-09 2010-03-23 Eastman Kodak Company Camera using multiple lenses and image sensors in a rangefinder configuration to provide a range map
US7676146B2 (en) 2007-03-09 2010-03-09 Eastman Kodak Company Camera using multiple lenses and image sensors to provide improved focusing capability
US7729602B2 (en) 2007-03-09 2010-06-01 Eastman Kodak Company Camera using multiple lenses and image sensors operable in a default imaging mode
US8593506B2 (en) 2007-03-15 2013-11-26 Yissum Research Development Company Of The Hebrew University Of Jerusalem Method and system for forming a panoramic image of a scene having minimal aspect distortion
JP4915859B2 (ja) 2007-03-26 2012-04-11 船井電機株式会社 物体の距離導出装置
JP2008242658A (ja) 2007-03-26 2008-10-09 Funai Electric Co Ltd 立体物体の撮像装置
US7738017B2 (en) 2007-03-27 2010-06-15 Aptina Imaging Corporation Method and apparatus for automatic linear shift parallax correction for multi-array image systems
US8165418B2 (en) 2007-03-30 2012-04-24 Brother Kogyo Kabushiki Kaisha Image processor
US8055466B2 (en) 2007-03-30 2011-11-08 Mitutoyo Corporation Global calibration for stereo vision probe
TWI433052B (zh) 2007-04-02 2014-04-01 Primesense Ltd 使用投影圖案之深度製圖
US8213711B2 (en) 2007-04-03 2012-07-03 Her Majesty The Queen In Right Of Canada As Represented By The Minister Of Industry, Through The Communications Research Centre Canada Method and graphical user interface for modifying depth maps
US8098941B2 (en) 2007-04-03 2012-01-17 Aptina Imaging Corporation Method and apparatus for parallelization of image compression encoders
CN101281282A (zh) 2007-04-04 2008-10-08 鸿富锦精密工业(深圳)有限公司 镜头模组
JP4310348B2 (ja) 2007-04-04 2009-08-05 シャープ株式会社 固体撮像装置およびそれを備えた電子機器
JP2008258885A (ja) 2007-04-04 2008-10-23 Texas Instr Japan Ltd 撮像装置および撮像装置の駆動方法
JP2010525387A (ja) 2007-04-16 2010-07-22 サンダラー,ナガッパン,ムスサミー 立体視覚
EP2143141A4 (de) 2007-04-18 2011-04-13 Invisage Technologies Inc Materialsysteme und verfahren für optoelektronische anordnungen
US8467628B2 (en) 2007-04-24 2013-06-18 21 Ct, Inc. Method and system for fast dense stereoscopic ranging
KR100869219B1 (ko) 2007-05-03 2008-11-18 동부일렉트로닉스 주식회사 이미지 센서 및 그 제조방법
GB0708655D0 (en) 2007-05-04 2007-06-13 Imp Innovations Ltd Imaging of moving objects
US8462220B2 (en) 2007-05-09 2013-06-11 Aptina Imaging Corporation Method and apparatus for improving low-light performance for small pixel image sensors
US7812869B2 (en) 2007-05-11 2010-10-12 Aptina Imaging Corporation Configurable pixel array system and method
JP4341695B2 (ja) 2007-05-17 2009-10-07 ソニー株式会社 画像入力処理装置、撮像信号処理回路、および、撮像信号のノイズ低減方法
JP4337911B2 (ja) 2007-05-24 2009-09-30 ソニー株式会社 撮像装置、撮像回路、および撮像方法
US20080298674A1 (en) 2007-05-29 2008-12-04 Image Masters Inc. Stereoscopic Panoramic imaging system
KR101210116B1 (ko) 2007-05-31 2012-12-07 아트피셜 머슬, 인코퍼레이션 유연한 전기활성 물질을 이용한 광학 시스템
US8290358B1 (en) 2007-06-25 2012-10-16 Adobe Systems Incorporated Methods and apparatus for light-field imaging
RU2487488C2 (ru) 2007-06-26 2013-07-10 Конинклейке Филипс Электроникс Н.В. Способ и система для кодирования сигнала трехмерного видео, инкапсулированный сигнал трехмерного видео, способ и система для декодера сигнала трехмерного видео
US20100182406A1 (en) 2007-07-12 2010-07-22 Benitez Ana B System and method for three-dimensional object reconstruction from two-dimensional images
US8125619B2 (en) 2007-07-25 2012-02-28 Eminent Electronic Technology Corp. Integrated ambient light sensor and distance sensor
JP5006727B2 (ja) 2007-07-26 2012-08-22 株式会社リコー 画像処理装置およびデジタルカメラ
US8019215B2 (en) 2007-08-06 2011-09-13 Adobe Systems Incorporated Method and apparatus for radiance capture by multiplexing in the frequency domain
EP2034338A1 (de) 2007-08-11 2009-03-11 ETH Zurich Flüssiglinsesystem
EP2026563A1 (de) 2007-08-14 2009-02-18 Deutsche Thomson OHG Vorrichtung und Verfahren zur Erkennung defekter Pixel
US7782364B2 (en) 2007-08-21 2010-08-24 Aptina Imaging Corporation Multi-array sensor with integrated sub-array for parallax detection and photometer functionality
US20090067316A1 (en) 2007-08-30 2009-03-12 Mario Torbarac Method and system for recordable DVDS
US20090066693A1 (en) 2007-09-06 2009-03-12 Roc Carson Encoding A Depth Map Into An Image Using Analysis Of Two Consecutive Captured Frames
US7973834B2 (en) 2007-09-24 2011-07-05 Jianwen Yang Electro-optical foveated imaging and tracking system
US20090079862A1 (en) 2007-09-25 2009-03-26 Micron Technology, Inc. Method and apparatus providing imaging auto-focus utilizing absolute blur value
US20090086074A1 (en) 2007-09-27 2009-04-02 Omnivision Technologies, Inc. Dual mode camera solution apparatus, system, and method
US7940311B2 (en) 2007-10-03 2011-05-10 Nokia Corporation Multi-exposure pattern for enhancing dynamic range of images
JP5172267B2 (ja) 2007-10-09 2013-03-27 富士フイルム株式会社 撮像装置
US8049289B2 (en) 2007-10-11 2011-11-01 Dongbu Hitek Co., Ltd. Image sensor and method for manufacturing the same
US8938009B2 (en) 2007-10-12 2015-01-20 Qualcomm Incorporated Layered encoded bitstream structure
US7956924B2 (en) 2007-10-18 2011-06-07 Adobe Systems Incorporated Fast computational camera based on two arrays of lenses
US7787112B2 (en) 2007-10-22 2010-08-31 Visiongate, Inc. Depth of field extension for optical tomography
US7920193B2 (en) 2007-10-23 2011-04-05 Aptina Imaging Corporation Methods, systems and apparatuses using barrier self-calibration for high dynamic range imagers
US7777804B2 (en) 2007-10-26 2010-08-17 Omnivision Technologies, Inc. High dynamic range sensor with reduced line memory for color interpolation
US20100223237A1 (en) 2007-11-05 2010-09-02 University Of Florida Research Foundation, Inc. Lossless data compression and real-time decompression
US20090128644A1 (en) 2007-11-15 2009-05-21 Camp Jr William O System and method for generating a photograph
US7852461B2 (en) 2007-11-15 2010-12-14 Microsoft International Holdings B.V. Dual mode depth imaging
US20090131800A1 (en) 2007-11-15 2009-05-21 Carestream Health, Inc. Multimodal imaging system for tissue imaging
US8351685B2 (en) 2007-11-16 2013-01-08 Gwangju Institute Of Science And Technology Device and method for estimating depth map, and method for generating intermediate image and method for encoding multi-view video using the same
US8126279B2 (en) 2007-11-19 2012-02-28 The University Of Arizona Lifting-based view compensated compression and remote visualization of volume rendered images
JP5010445B2 (ja) 2007-11-29 2012-08-29 パナソニック株式会社 マイクロレンズアレイ用金型の製造方法
KR20090055803A (ko) 2007-11-29 2009-06-03 광주과학기술원 다시점 깊이맵 생성 방법 및 장치, 다시점 영상에서의변이값 생성 방법
GB2455316B (en) 2007-12-04 2012-08-15 Sony Corp Image processing apparatus and method
WO2009073950A1 (en) 2007-12-13 2009-06-18 Keigo Izuka Camera system and method for amalgamating images to create an omni-focused image
ATE499517T1 (de) 2007-12-21 2011-03-15 Caterpillar Inc Steuern der antriebsgeschwindigkeit einer maschine
TWI353778B (en) 2007-12-21 2011-12-01 Ind Tech Res Inst Moving object detection apparatus and method
US7880807B2 (en) 2007-12-26 2011-02-01 Sony Ericsson Mobile Communications Ab Camera system with mirror arrangement for generating self-portrait panoramic pictures
US8233077B2 (en) 2007-12-27 2012-07-31 Qualcomm Incorporated Method and apparatus with depth map generation
US20110031381A1 (en) 2007-12-28 2011-02-10 Hiok-Nam Tay Light guide array for an image sensor
TWI362628B (en) 2007-12-28 2012-04-21 Ind Tech Res Inst Methof for producing an image with depth by using 2d image
WO2009089127A1 (en) 2008-01-04 2009-07-16 3M Innovative Properties Company Image signatures for use in motion-based three-dimensional reconstruction
JP4413261B2 (ja) 2008-01-10 2010-02-10 シャープ株式会社 撮像装置及び光軸制御方法
JP5198295B2 (ja) 2008-01-15 2013-05-15 富士フイルム株式会社 撮像素子の位置調整方法、カメラモジュール製造方法及び装置、カメラモジュール
US8189065B2 (en) 2008-01-23 2012-05-29 Adobe Systems Incorporated Methods and apparatus for full-resolution light-field capture and rendering
US7962033B2 (en) 2008-01-23 2011-06-14 Adobe Systems Incorporated Methods and apparatus for full-resolution light-field capture and rendering
JP4956452B2 (ja) 2008-01-25 2012-06-20 富士重工業株式会社 車両用環境認識装置
WO2009097552A1 (en) 2008-02-01 2009-08-06 Omnivision Cdm Optics, Inc. Image data fusion systems and methods
GB0802290D0 (en) 2008-02-08 2008-03-12 Univ Kent Canterbury Camera adapter based optical imaging apparatus
US8319301B2 (en) 2008-02-11 2012-11-27 Omnivision Technologies, Inc. Self-aligned filter for an image sensor
JP2009206922A (ja) 2008-02-28 2009-09-10 Funai Electric Co Ltd 複眼撮像装置
CN101520532A (zh) 2008-02-29 2009-09-02 鸿富锦精密工业(深圳)有限公司 复合镜片
US9094675B2 (en) 2008-02-29 2015-07-28 Disney Enterprises Inc. Processing image data from multiple cameras for motion pictures
GB2492247B (en) 2008-03-03 2013-04-10 Videoiq Inc Dynamic object classification
US8072599B2 (en) 2008-03-14 2011-12-06 Teledyne Scientific & Imaging, Llc Real-time, hybrid amplitude-time division polarimetric imaging camera
JP5571651B2 (ja) 2008-03-18 2014-08-13 コーニンクレッカ フィリップス エヌ ヴェ 皮膚撮像装置及び皮膚分析システム
US8098955B2 (en) 2008-03-25 2012-01-17 Point Grey Research Inc. Efficient selection and application of regions of interest in digital imaging
WO2009119229A1 (ja) 2008-03-26 2009-10-01 コニカミノルタホールディングス株式会社 3次元撮像装置及び3次元撮像装置の校正方法
CN101551586A (zh) 2008-04-03 2009-10-07 晶宏半导体股份有限公司 高速摄影方法及其装置
US8497905B2 (en) 2008-04-11 2013-07-30 nearmap australia pty ltd. Systems and methods of capturing large area images in detail including cascaded cameras and/or calibration features
US8259208B2 (en) 2008-04-15 2012-09-04 Sony Corporation Method and apparatus for performing touch-based adjustments within imaging devices
US7843554B2 (en) 2008-04-25 2010-11-30 Rockwell Collins, Inc. High dynamic range sensor system and method
US8280194B2 (en) 2008-04-29 2012-10-02 Sony Corporation Reduced hardware implementation for a two-picture depth map algorithm
US8155456B2 (en) 2008-04-29 2012-04-10 Adobe Systems Incorporated Method and apparatus for block-based compression of light-field images
US8724921B2 (en) 2008-05-05 2014-05-13 Aptina Imaging Corporation Method of capturing high dynamic range images with objects in the scene
JP2009273035A (ja) 2008-05-09 2009-11-19 Toshiba Corp 画像圧縮装置、画像伸張装置及び画像処理装置
US8633996B2 (en) 2008-05-09 2014-01-21 Rambus Inc. Image sensor having nonlinear response
US8208543B2 (en) 2008-05-19 2012-06-26 Microsoft Corporation Quantization and differential coding of alpha image data
US20100097444A1 (en) 2008-10-16 2010-04-22 Peter Lablans Camera System for Creating an Image From a Plurality of Images
US8400505B2 (en) 2008-05-19 2013-03-19 Panasonic Corporation Calibration method, calibration device, and calibration system including the device
US8866920B2 (en) 2008-05-20 2014-10-21 Pelican Imaging Corporation Capturing and processing of images using monolithic camera array with heterogeneous imagers
EP2289235A4 (de) 2008-05-20 2011-12-28 Pelican Imaging Corp Aufnahme und verarbeitung von bildern mittels monolithischer kamera anordnung mit heterogenem bildwandler
US8442355B2 (en) 2008-05-23 2013-05-14 Samsung Electronics Co., Ltd. System and method for generating a multi-dimensional image
US8125559B2 (en) 2008-05-25 2012-02-28 Avistar Communications Corporation Image formation for large photosensor array surfaces
US8131097B2 (en) 2008-05-28 2012-03-06 Aptina Imaging Corporation Method and apparatus for extended depth-of-field image restoration
US8244058B1 (en) 2008-05-30 2012-08-14 Adobe Systems Incorporated Method and apparatus for managing artifacts in frequency domain processing of light-field images
CN101593350B (zh) 2008-05-30 2013-01-09 日电(中国)有限公司 深度自适应视频拼接的方法、装置和系统
JP4435867B2 (ja) * 2008-06-02 2010-03-24 パナソニック株式会社 法線情報を生成する画像処理装置、方法、コンピュータプログラム、および、視点変換画像生成装置
JP2009300268A (ja) 2008-06-13 2009-12-24 Nippon Hoso Kyokai <Nhk> 3次元情報検出装置
KR20100002032A (ko) 2008-06-24 2010-01-06 삼성전자주식회사 영상 생성 방법, 영상 처리 방법, 및 그 장치
US7710667B2 (en) 2008-06-25 2010-05-04 Aptina Imaging Corp. Imaging module with symmetrical lens system and method of manufacture
JPWO2009157273A1 (ja) 2008-06-25 2011-12-08 コニカミノルタオプト株式会社 撮像光学系及び撮像用レンズの製造方法
KR101000531B1 (ko) 2008-06-26 2010-12-14 에스디씨마이크로 주식회사 데이터 전송 범위가 증대되는 무선랜을 이용한 씨씨티브이관리시스템
US7916396B2 (en) 2008-06-27 2011-03-29 Micron Technology, Inc. Lens master devices, lens structures, imaging devices, and methods and apparatuses of making the same
US8326069B2 (en) 2008-06-30 2012-12-04 Intel Corporation Computing higher resolution images from multiple lower resolution images
US7773317B2 (en) 2008-07-01 2010-08-10 Aptina Imaging Corp. Lens system with symmetrical optics
US7920339B2 (en) 2008-07-02 2011-04-05 Aptina Imaging Corporation Method and apparatus providing singlet wafer lens system with field flattener
CN100576934C (zh) 2008-07-03 2009-12-30 浙江大学 基于深度和遮挡信息的虚拟视点合成方法
US8456517B2 (en) 2008-07-09 2013-06-04 Primesense Ltd. Integrated processor for 3D mapping
KR101445185B1 (ko) 2008-07-10 2014-09-30 삼성전자주식회사 복수 개의 영상촬영유닛을 구비한 플렉시블 영상촬영장치및 그 제조방법
CN102112845B (zh) 2008-08-06 2013-09-11 形创有限公司 用于表面特征自适应性三维扫描的系统
CN102124742B (zh) 2008-08-20 2013-09-11 汤姆逊许可公司 精制深度图
CN101656259A (zh) 2008-08-20 2010-02-24 鸿富锦精密工业(深圳)有限公司 影像感测器封装结构、封装方法及相机模组
US7924312B2 (en) 2008-08-22 2011-04-12 Fluke Corporation Infrared and visible-light image registration
US8736751B2 (en) 2008-08-26 2014-05-27 Empire Technology Development Llc Digital presenter for displaying image captured by camera with illumination system
JP5161706B2 (ja) 2008-08-27 2013-03-13 キヤノン株式会社 撮像装置及びその制御方法
US8102428B2 (en) 2008-08-28 2012-01-24 Adobe Systems Incorporated Content-aware video stabilization
JP5105482B2 (ja) 2008-09-01 2012-12-26 船井電機株式会社 光学的条件設計方法及び複眼撮像装置
CN102138102A (zh) 2008-09-01 2011-07-27 兰斯维克托公司 液晶光电装置的晶片级制造
US8098297B2 (en) 2008-09-03 2012-01-17 Sony Corporation Pre- and post-shutter signal image capture and sort for digital camera
KR20100028344A (ko) 2008-09-04 2010-03-12 삼성전자주식회사 휴대단말의 영상 편집 방법 및 장치
US9025136B2 (en) 2008-09-23 2015-05-05 Applied Materials, Inc. System and method for manufacturing three dimensional integrated circuits
JP5238429B2 (ja) 2008-09-25 2013-07-17 株式会社東芝 立体映像撮影装置および立体映像撮影システム
US8553093B2 (en) 2008-09-30 2013-10-08 Sony Corporation Method and apparatus for super-resolution imaging using digital imaging devices
JP5243612B2 (ja) 2008-10-02 2013-07-24 フラウンホッファー−ゲゼルシャフト ツァ フェルダールング デァ アンゲヴァンテン フォアシュンク エー.ファオ 中間画像合成およびマルチビューデータ信号抽出
US9619917B2 (en) 2008-10-03 2017-04-11 Apple Inc. Depth of field for a camera in a media-editing application
US9064476B2 (en) 2008-10-04 2015-06-23 Microsoft Technology Licensing, Llc Image super-resolution using gradient profile prior
US8310525B2 (en) 2008-10-07 2012-11-13 Seiko Epson Corporation One-touch projector alignment for 3D stereo display
US8355534B2 (en) 2008-10-15 2013-01-15 Spinella Ip Holdings, Inc. Digital processing method and system for determination of optical flow
US8416282B2 (en) 2008-10-16 2013-04-09 Spatial Cam Llc Camera for creating a panoramic image
JP2010096723A (ja) 2008-10-20 2010-04-30 Funai Electric Co Ltd 物体の距離導出装置
US8436909B2 (en) 2008-10-21 2013-05-07 Stmicroelectronics S.R.L. Compound camera sensor and related method of processing digital images
US8913657B2 (en) 2008-10-27 2014-12-16 Lg Electronics Inc. Virtual view image synthesis method and apparatus
US8063975B2 (en) 2008-10-29 2011-11-22 Jabil Circuit, Inc. Positioning wafer lenses on electronic imagers
KR101502597B1 (ko) 2008-11-13 2015-03-13 삼성전자주식회사 고심도 입체 영상 표시가 가능한 디스플레이 장치 및 방법
US8644547B2 (en) 2008-11-14 2014-02-04 The Scripps Research Institute Image analysis platform for identifying artifacts in samples and laboratory consumables
AU2008246243B2 (en) 2008-11-19 2011-12-22 Canon Kabushiki Kaisha DVC as generic file format for plenoptic camera
US8279325B2 (en) 2008-11-25 2012-10-02 Lytro, Inc. System and method for acquiring, editing, generating and outputting video data
DK2359593T3 (en) 2008-11-25 2018-09-03 Tetravue Inc High-resolution three-dimensional imaging systems and methods
JP4852591B2 (ja) 2008-11-27 2012-01-11 富士フイルム株式会社 立体画像処理装置、方法及び記録媒体並びに立体撮像装置
US8289440B2 (en) 2008-12-08 2012-10-16 Lytro, Inc. Light field data acquisition devices, and methods of using and manufacturing same
US8013904B2 (en) 2008-12-09 2011-09-06 Seiko Epson Corporation View projection matrix based high performance low latency display pipeline
KR101200490B1 (ko) 2008-12-10 2012-11-12 한국전자통신연구원 영상 정합 장치 및 방법
JP5311016B2 (ja) 2008-12-10 2013-10-09 コニカミノルタ株式会社 ステレオカメラユニット及びステレオマッチング方法
US8149323B2 (en) 2008-12-18 2012-04-03 Qualcomm Incorporated System and method to autofocus assisted by autoexposure control
JP4631966B2 (ja) 2008-12-22 2011-02-16 ソニー株式会社 画像処理装置、および画像処理方法、並びにプログラム
CN101770060B (zh) 2008-12-27 2014-03-26 鸿富锦精密工业(深圳)有限公司 相机模组及其组装方法
US8405742B2 (en) 2008-12-30 2013-03-26 Massachusetts Institute Of Technology Processing images having different focus
US8259212B2 (en) 2009-01-05 2012-09-04 Applied Quantum Technologies, Inc. Multiscale optical system
US20100177411A1 (en) 2009-01-09 2010-07-15 Shashikant Hegde Wafer level lens replication on micro-electrical-mechanical systems
US9354490B2 (en) 2009-01-09 2016-05-31 New York University Method, computer-accessible, medium and systems for facilitating dark flash photography
CN102272796B (zh) 2009-01-09 2014-03-12 柯尼卡美能达控股株式会社 运动向量生成装置以及运动向量生成方法
US8315476B1 (en) 2009-01-20 2012-11-20 Adobe Systems Incorporated Super-resolution with the focused plenoptic camera
US8189089B1 (en) 2009-01-20 2012-05-29 Adobe Systems Incorporated Methods and apparatus for reducing plenoptic camera artifacts
US8300108B2 (en) 2009-02-02 2012-10-30 L-3 Communications Cincinnati Electronics Corporation Multi-channel imaging devices comprising unit cells
US20100194860A1 (en) 2009-02-03 2010-08-05 Bit Cauldron Corporation Method of stereoscopic 3d image capture using a mobile device, cradle or dongle
US8290301B2 (en) 2009-02-06 2012-10-16 Raytheon Company Optimized imaging system for collection of high resolution imagery
US8761491B2 (en) 2009-02-06 2014-06-24 Himax Technologies Limited Stereo-matching processor using belief propagation
KR101776955B1 (ko) 2009-02-10 2017-09-08 소니 주식회사 고체 촬상 장치와 그 제조 방법, 및 전자 기기
JP4915423B2 (ja) 2009-02-19 2012-04-11 ソニー株式会社 画像処理装置、フォーカルプレーン歪み成分算出方法、画像処理プログラム及び記録媒体
WO2010095440A1 (ja) 2009-02-20 2010-08-26 パナソニック株式会社 記録媒体、再生装置、及び集積回路
US8520970B2 (en) 2010-04-23 2013-08-27 Flir Systems Ab Infrared resolution and contrast enhancement with fusion
KR20100099896A (ko) 2009-03-04 2010-09-15 삼성전자주식회사 메타데이터 생성 방법 및 장치, 그 메타데이터를 이용하여 영상을 처리하는 방법 및 장치
US8207759B2 (en) 2009-03-12 2012-06-26 Fairchild Semiconductor Corporation MIPI analog switch for automatic selection of multiple inputs based on clock voltages
JP2012521673A (ja) 2009-03-19 2012-09-13 フレクストロニクス エイピー エルエルシー デュアルセンサカメラ
US8450821B2 (en) 2009-03-26 2013-05-28 Micron Technology, Inc. Method and apparatus providing combined spacer and optical lens element
US8106949B2 (en) 2009-03-26 2012-01-31 Seiko Epson Corporation Small memory footprint light transport matrix capture
US8437537B2 (en) 2009-03-27 2013-05-07 Mitsubishi Electric Research Laboratories, Inc. Method and system for estimating 3D pose of specular objects
US7901095B2 (en) 2009-03-27 2011-03-08 Seiko Epson Corporation Resolution scalable view projection
JP4529010B1 (ja) 2009-03-30 2010-08-25 シャープ株式会社 撮像装置
JP5222205B2 (ja) 2009-04-03 2013-06-26 Kddi株式会社 画像処理装置、方法及びプログラム
US8896697B2 (en) 2009-04-07 2014-11-25 Chen Golan Video motion compensation and stabilization gimbaled imaging system
US20100259610A1 (en) 2009-04-08 2010-10-14 Celsia, Llc Two-Dimensional Display Synced with Real World Object Movement
US8294099B2 (en) 2009-04-10 2012-10-23 Bae Systems Information And Electronic Systems Integration Inc. On-wafer butted microbolometer imaging array
JP5463718B2 (ja) 2009-04-16 2014-04-09 ソニー株式会社 撮像装置
US8717417B2 (en) 2009-04-16 2014-05-06 Primesense Ltd. Three-dimensional mapping and imaging
US8908058B2 (en) 2009-04-18 2014-12-09 Lytro, Inc. Storage and transmission of pictures including multiple frames
US20120249550A1 (en) 2009-04-18 2012-10-04 Lytro, Inc. Selective Transmission of Image Data Based on Device Attributes
ATE551841T1 (de) 2009-04-22 2012-04-15 Raytrix Gmbh Digitales bildgebungsverfahren zum synthetisieren eines bildes unter verwendung der mit einer plenoptischen kamera aufgezeichneten daten
CN101527046B (zh) 2009-04-28 2012-09-05 青岛海信数字多媒体技术国家重点实验室有限公司 一种运动检测方法、装置和系统
KR101671021B1 (ko) 2009-04-30 2016-11-10 삼성전자주식회사 스테레오스코픽 영상 데이터 전송 장치 및 방법
US8358365B2 (en) 2009-05-01 2013-01-22 Samsung Electronics Co., Ltd. Photo detecting device and image pickup device and method thereon
US8271544B2 (en) 2009-05-01 2012-09-18 Creative Technology Ltd Data file having more than one mode of operation
DE102009003110A1 (de) 2009-05-14 2010-11-18 Robert Bosch Gmbh Bildverarbeitungsverfahren zur Bestimmung von Tiefeninformation aus wenigstens zwei mittels eines Stereokamerasystems aufgenommenen Eingangsbildern
US8203633B2 (en) 2009-05-27 2012-06-19 Omnivision Technologies, Inc. Four-channel color filter array pattern
US10091439B2 (en) 2009-06-03 2018-10-02 Flir Systems, Inc. Imager with array of multiple infrared imaging modules
KR20100130423A (ko) 2009-06-03 2010-12-13 삼성전자주식회사 웨이퍼-레벨 렌즈 모듈 및 이를 구비하는 촬상 모듈
US8872910B1 (en) 2009-06-04 2014-10-28 Masoud Vaziri Method and apparatus for a compact and high resolution eye-view recorder
US8745677B2 (en) 2009-06-12 2014-06-03 Cygnus Broadband, Inc. Systems and methods for prioritization of data for intelligent discard in a communication network
CN101931742B (zh) 2009-06-18 2013-04-24 鸿富锦精密工业(深圳)有限公司 影像感测模组及取像模组
US20100321640A1 (en) 2009-06-22 2010-12-23 Industrial Technology Research Institute Projection display chip
JP5254893B2 (ja) 2009-06-26 2013-08-07 キヤノン株式会社 画像変換方法及び装置並びにパターン識別方法及び装置
US8351726B2 (en) 2009-06-29 2013-01-08 DigitalOptics Corporation Europe Limited Adaptive PSF estimation technique using a sharp preview and a blurred image
WO2011008443A2 (en) 2009-06-29 2011-01-20 Lensvector Inc. Wafer level camera module with active optical element
JP2011030184A (ja) 2009-07-01 2011-02-10 Sony Corp 画像処理装置、及び、画像処理方法
US8212197B2 (en) 2009-07-02 2012-07-03 Xerox Corporation Image sensor with integration time compensation
JP2011017764A (ja) 2009-07-07 2011-01-27 Konica Minolta Opto Inc 撮像レンズ,撮像装置及び携帯端末
US8345144B1 (en) 2009-07-15 2013-01-01 Adobe Systems Incorporated Methods and apparatus for rich image capture with focused plenoptic cameras
US20110019243A1 (en) 2009-07-21 2011-01-27 Constant Jr Henry J Stereoscopic form reader
CN101964866B (zh) 2009-07-24 2013-03-20 鸿富锦精密工业(深圳)有限公司 计算摄像型数码相机
GB0912970D0 (en) 2009-07-27 2009-09-02 St Microelectronics Res & Dev Improvements in or relating to a sensor and sensor system for a camera
US8436893B2 (en) 2009-07-31 2013-05-07 3Dmedia Corporation Methods, systems, and computer-readable storage media for selecting image capture positions to generate three-dimensional (3D) images
CN102483485A (zh) 2009-08-03 2012-05-30 高通Mems科技公司 用于光导照明的微结构
US20110032341A1 (en) 2009-08-04 2011-02-10 Ignatov Artem Konstantinovich Method and system to transform stereo content
US8577183B2 (en) 2009-08-05 2013-11-05 Raytheon Company Resolution on demand
US8773652B2 (en) 2009-08-11 2014-07-08 Ether Precision, Inc. Method and device for aligning a lens with an optical system
WO2011017806A1 (en) 2009-08-14 2011-02-17 Genesis Group Inc. Real-time image and video matting
JP2011044801A (ja) 2009-08-19 2011-03-03 Toshiba Corp 画像処理装置
US8154632B2 (en) 2009-08-24 2012-04-10 Lifesize Communications, Inc. Detection of defective pixels in an image sensor
JP2011052064A (ja) 2009-08-31 2011-03-17 Toyobo Co Ltd ポリイミドおよびその製造方法
KR101680300B1 (ko) 2009-08-31 2016-11-28 삼성전자주식회사 액체 렌즈 및 그 제조방법
US9274699B2 (en) 2009-09-03 2016-03-01 Obscura Digital User interface for a large scale multi-user, multi-touch system
US8411146B2 (en) 2009-09-04 2013-04-02 Lockheed Martin Corporation Single camera color and infrared polarimetric imaging
EP2476248A1 (de) 2009-09-07 2012-07-18 Nokia Corp. Vorrichtung
FR2950153B1 (fr) 2009-09-15 2011-12-23 Commissariat Energie Atomique Dispositif optique a membrane deformable a actionnement piezoelectrique
US20140076336A1 (en) 2009-09-17 2014-03-20 Ascentia Health, Inc. Ear insert for relief of tmj discomfort and headaches
US9497386B1 (en) 2009-09-22 2016-11-15 Altia Systems Inc. Multi-imager video camera with automatic exposure control
JP5859441B2 (ja) 2009-10-02 2016-02-10 コーニンクレッカ フィリップス エヌ ヴェKoninklijke Philips N.V. 3dビデオにおける追加のビューを生成するための視点の選択
KR101695809B1 (ko) 2009-10-09 2017-01-13 엘지전자 주식회사 이동 단말기 및 그 제어방법
JP5909187B2 (ja) 2009-10-14 2016-04-26 トムソン ライセンシングThomson Licensing フィルタ処理およびエッジ符号化
DE102009049387B4 (de) 2009-10-14 2016-05-25 Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. Vorrichtung, Bildverarbeitungsvorrichtung und Verfahren zur optischen Abbildung
US8199165B2 (en) 2009-10-14 2012-06-12 Hewlett-Packard Development Company, L.P. Methods and systems for object segmentation in digital images
US8502909B2 (en) 2009-10-19 2013-08-06 Pixar Super light-field lens
WO2011056574A1 (en) 2009-10-26 2011-05-12 Olaf Andrew Hall-Holt Dental imaging system and method
EP2494402B1 (de) 2009-10-30 2018-04-18 Hewlett-Packard Development Company, L.P. Stereoanzeigesysteme
WO2011053711A1 (en) 2009-10-30 2011-05-05 Invisage Technologies, Inc. Systems and methods for color binning
WO2011055654A1 (ja) 2009-11-05 2011-05-12 コニカミノルタオプト株式会社 撮像装置及びこの撮像装置の製造方法
WO2011055655A1 (ja) 2009-11-05 2011-05-12 コニカミノルタオプト株式会社 撮像装置、光学ユニット、ウエハレンズ積層体及びウエハレンズ積層体の製造方法
WO2011058876A1 (ja) 2009-11-13 2011-05-19 富士フイルム株式会社 測距装置、測距方法、測距プログラムおよび測距システムならびに撮像装置
TR200908688A2 (tr) 2009-11-17 2011-06-21 Vestel Elektron�K San. Ve T�C. A.�. Çoklu görüntülü videoda derinlik dengelemeli gürültü azaltımı.
US8643701B2 (en) 2009-11-18 2014-02-04 University Of Illinois At Urbana-Champaign System for executing 3D propagation for depth image-based rendering
JP5399215B2 (ja) 2009-11-18 2014-01-29 シャープ株式会社 多眼カメラ装置および電子情報機器
WO2011063347A2 (en) 2009-11-20 2011-05-26 Pelican Imaging Corporation Capturing and processing of images using monolithic camera array with heterogeneous imagers
WO2011066275A2 (en) 2009-11-25 2011-06-03 Massachusetts Institute Of Technology Actively addressable aperture light field camera
KR101608970B1 (ko) 2009-11-27 2016-04-05 삼성전자주식회사 광 필드 데이터를 이용한 영상 처리 장치 및 방법
US8400555B1 (en) 2009-12-01 2013-03-19 Adobe Systems Incorporated Focused plenoptic camera employing microlenses with different focal lengths
US8730338B2 (en) 2009-12-01 2014-05-20 Nokia Corporation Set of camera modules hinged on a body and functionally connected to a single actuator
JP5446797B2 (ja) 2009-12-04 2014-03-19 株式会社リコー 撮像装置
US8446492B2 (en) 2009-12-10 2013-05-21 Honda Motor Co., Ltd. Image capturing device, method of searching for occlusion region, and program
JP5387377B2 (ja) 2009-12-14 2014-01-15 ソニー株式会社 画像処理装置、および画像処理方法、並びにプログラム
WO2011081646A1 (en) 2009-12-15 2011-07-07 Thomson Licensing Stereo-image quality and disparity/depth indications
KR101281961B1 (ko) 2009-12-21 2013-07-03 한국전자통신연구원 깊이 영상 편집 방법 및 장치
US20110153248A1 (en) 2009-12-23 2011-06-23 Yeming Gu Ophthalmic quality metric system
US8885067B2 (en) 2009-12-24 2014-11-11 Sharp Kabushiki Kaisha Multocular image pickup apparatus and multocular image pickup method
JP4983905B2 (ja) 2009-12-25 2012-07-25 カシオ計算機株式会社 撮像装置、3dモデリングデータ生成方法、および、プログラム
KR101643607B1 (ko) 2009-12-30 2016-08-10 삼성전자주식회사 영상 데이터 생성 방법 및 장치
CN102118551A (zh) 2009-12-31 2011-07-06 鸿富锦精密工业(深圳)有限公司 成像装置
CN102117576A (zh) 2009-12-31 2011-07-06 鸿富锦精密工业(深圳)有限公司 电子相框
CN102131044B (zh) 2010-01-20 2014-03-26 鸿富锦精密工业(深圳)有限公司 相机模组
US8649008B2 (en) 2010-02-04 2014-02-11 University Of Southern California Combined spectral and polarimetry imaging and diagnostics
US8593512B2 (en) 2010-02-05 2013-11-26 Creative Technology Ltd Device and method for scanning an object on a working surface
US8326142B2 (en) 2010-02-12 2012-12-04 Sri International Optical image systems
WO2011099404A1 (en) * 2010-02-15 2011-08-18 Ricoh Company, Ltd. Transparent object detection system and transparent flat plate detection system
JP5387856B2 (ja) 2010-02-16 2014-01-15 ソニー株式会社 画像処理装置、画像処理方法、画像処理プログラムおよび撮像装置
US8648918B2 (en) 2010-02-18 2014-02-11 Sony Corporation Method and system for obtaining a point spread function using motion information
JP5728673B2 (ja) 2010-02-19 2015-06-03 デュアル・アパーチャー・インターナショナル・カンパニー・リミテッド 多開口画像データの処理
KR20110097690A (ko) 2010-02-23 2011-08-31 삼성전자주식회사 다시점 정지 영상 서비스 제공 방법 및 그 장치, 다시점 정지 영상 서비스 수신 방법 및 그 장치
KR101802238B1 (ko) 2010-02-23 2017-11-29 삼성전자주식회사 휴대용 단말기에서 입체 영상 데이터를 생성하기 위한 장치 및 방법
KR20130000401A (ko) 2010-02-28 2013-01-02 오스터하우트 그룹 인코포레이티드 대화형 머리­장착식 아이피스 상의 지역 광고 컨텐츠
US20130278631A1 (en) 2010-02-28 2013-10-24 Osterhout Group, Inc. 3d positioning of augmented reality information
JP5776173B2 (ja) 2010-03-01 2015-09-09 株式会社リコー 撮像装置及び距離測定装置
US8860833B2 (en) 2010-03-03 2014-10-14 Adobe Systems Incorporated Blended rendering of focused plenoptic camera data
WO2011112633A1 (en) 2010-03-09 2011-09-15 Flir Systems, Inc. Imager with multiple sensor arrays
US20110222757A1 (en) 2010-03-10 2011-09-15 Gbo 3D Technology Pte. Ltd. Systems and methods for 2D image and spatial data capture for 3D stereo imaging
US20110221950A1 (en) 2010-03-12 2011-09-15 Doeke Jolt Oostra Camera device, wafer scale package
SG184118A1 (en) 2010-03-17 2012-10-30 Pelican Imaging Corp Fabrication process for mastering imaging lens arrays
WO2011114683A1 (ja) 2010-03-19 2011-09-22 パナソニック株式会社 立体視用画像位置合わせ装置、立体視用画像位置合わせ方法、及びそのプログラム
US8736733B2 (en) 2010-03-19 2014-05-27 Invisage Technologies, Inc. Dark current reduction in image sensors via dynamic electrical biasing
US8310538B2 (en) 2010-03-19 2012-11-13 Fujifilm Corporation Imaging apparatus, method, program, and recording medium used in the program
US8558903B2 (en) 2010-03-25 2013-10-15 Apple Inc. Accelerometer / gyro-facilitated video stabilization
WO2011118135A1 (ja) 2010-03-25 2011-09-29 パナソニック株式会社 送信装置、受信装置、送信方法および受信方法
US8285033B2 (en) 2010-04-01 2012-10-09 Seiko Epson Corporation Bi-affinity filter: a bilateral type filter for color images
WO2011121117A1 (en) 2010-04-02 2011-10-06 Imec Virtual camera system
US8896668B2 (en) 2010-04-05 2014-11-25 Qualcomm Incorporated Combining data from multiple image sensors
US20110242355A1 (en) 2010-04-05 2011-10-06 Qualcomm Incorporated Combining data from multiple image sensors
US20110255786A1 (en) 2010-04-20 2011-10-20 Andrew Hunter Method and apparatus for determining flicker in the illumination of a subject
US8600186B2 (en) 2010-04-26 2013-12-03 City University Of Hong Kong Well focused catadioptric image acquisition
US20110267264A1 (en) 2010-04-29 2011-11-03 Mccarthy John Display system with multiple optical sensors
US9053573B2 (en) 2010-04-29 2015-06-09 Personify, Inc. Systems and methods for generating a virtual camera viewpoint for an image
US20130250150A1 (en) 2010-05-03 2013-09-26 Michael R. Malone Devices and methods for high-resolution image and video capture
US9256974B1 (en) 2010-05-04 2016-02-09 Stephen P Hines 3-D motion-parallax portable display software application
US8885890B2 (en) 2010-05-07 2014-11-11 Microsoft Corporation Depth map confidence filtering
KR20110124473A (ko) 2010-05-11 2011-11-17 삼성전자주식회사 다중시점 영상을 위한 3차원 영상 생성 장치 및 방법
KR101756910B1 (ko) 2010-05-11 2017-07-26 삼성전자주식회사 감쇠 패턴을 포함하는 마스크를 이용한 광 필드 영상 처리 장치 및 방법
CN103004180A (zh) 2010-05-12 2013-03-27 派力肯影像公司 成像器阵列和阵列照相机的架构
JP5545016B2 (ja) 2010-05-12 2014-07-09 ソニー株式会社 撮像装置
US20130147979A1 (en) 2010-05-12 2013-06-13 Pelican Imaging Corporation Systems and methods for extending dynamic range of imager arrays by controlling pixel analog gain
WO2011142774A1 (en) 2010-05-14 2011-11-17 Omnivision Technologies, Inc. Alternative color image array and associated methods
US8576293B2 (en) 2010-05-18 2013-11-05 Aptina Imaging Corporation Multi-channel imager
SG176327A1 (en) 2010-05-20 2011-12-29 Sony Corp A system and method of image processing
US8602887B2 (en) 2010-06-03 2013-12-10 Microsoft Corporation Synthesis of information from multiple audiovisual sources
US20120062697A1 (en) 2010-06-09 2012-03-15 Chemimage Corporation Hyperspectral imaging sensor for tracking moving targets
DE102010024666A1 (de) 2010-06-18 2011-12-22 Hella Kgaa Hueck & Co. Verfahren zur optischen Selbstdiagnose eines Kamerasystems und Vorrichtung zur Durchführung eines solchen Verfahrens
US20110310980A1 (en) 2010-06-22 2011-12-22 Qualcomm Mems Technologies, Inc. Apparatus and methods for processing frames of video data across a display interface using a block-based encoding scheme and a tag id
CN102184720A (zh) 2010-06-22 2011-09-14 上海盈方微电子有限公司 一种支持多层多格式输入的图像合成显示的方法及装置
KR20120000485A (ko) 2010-06-25 2012-01-02 삼성전자주식회사 예측 모드를 이용한 깊이 영상 부호화 장치 및 방법
CN101883291B (zh) 2010-06-29 2012-12-19 上海大学 感兴趣区域增强的视点绘制方法
EP2403234A1 (de) 2010-06-29 2012-01-04 Koninklijke Philips Electronics N.V. Verfahren und System zur Erstellung eines zusammengesetzten Bildes aus von einer Anordnung von Bildaufnahmevorrichtungen erhaltenen Daten
US8493432B2 (en) 2010-06-29 2013-07-23 Mitsubishi Electric Research Laboratories, Inc. Digital refocusing for wide-angle images using axial-cone cameras
JP5492300B2 (ja) 2010-06-30 2014-05-14 富士フイルム株式会社 立体視表示用撮像の際の撮像領域内の障害物を判定する装置、方法およびプログラム
JP5392199B2 (ja) 2010-07-09 2014-01-22 ソニー株式会社 画像処理装置および方法
GB2482022A (en) 2010-07-16 2012-01-18 St Microelectronics Res & Dev Method for measuring resolution and aberration of lens and sensor
US9406132B2 (en) 2010-07-16 2016-08-02 Qualcomm Incorporated Vision-based quality metric for three dimensional video
US8386964B2 (en) 2010-07-21 2013-02-26 Microsoft Corporation Interactive image matting
US20120019700A1 (en) 2010-07-26 2012-01-26 American Technologies Network Corporation Optical system with automatic mixing of daylight and thermal vision digital video signals
US20120026342A1 (en) 2010-07-27 2012-02-02 Xiaoguang Yu Electronic system communicating with image sensor
US20120026451A1 (en) 2010-07-29 2012-02-02 Lensvector Inc. Tunable liquid crystal lens with single sided contacts
US8605136B2 (en) 2010-08-10 2013-12-10 Sony Corporation 2D to 3D user interface content data conversion
CN102375199B (zh) 2010-08-11 2015-06-03 鸿富锦精密工业(深圳)有限公司 相机模组
US8428342B2 (en) 2010-08-12 2013-04-23 At&T Intellectual Property I, L.P. Apparatus and method for providing three dimensional media content
US8836793B1 (en) 2010-08-13 2014-09-16 Opto-Knowledge Systems, Inc. True color night vision (TCNV) fusion
US8493482B2 (en) 2010-08-18 2013-07-23 Apple Inc. Dual image sensor image processing system and method
US8665341B2 (en) 2010-08-27 2014-03-04 Adobe Systems Incorporated Methods and apparatus for rendering output images with simulated artistic effects from focused plenoptic camera data
US8749694B2 (en) 2010-08-27 2014-06-10 Adobe Systems Incorporated Methods and apparatus for rendering focused plenoptic camera data using super-resolved demosaicing
US8724000B2 (en) 2010-08-27 2014-05-13 Adobe Systems Incorporated Methods and apparatus for super-resolution in integral photography
GB2483434A (en) 2010-08-31 2012-03-14 Sony Corp Detecting stereoscopic disparity by comparison with subset of pixel change points
WO2012029298A1 (ja) 2010-08-31 2012-03-08 パナソニック株式会社 撮影装置および画像処理方法
US20120056982A1 (en) 2010-09-08 2012-03-08 Microsoft Corporation Depth camera based on structured light and stereo vision
US9013550B2 (en) 2010-09-09 2015-04-21 Qualcomm Incorporated Online reference generation and tracking for multi-user augmented reality
US9565415B2 (en) 2010-09-14 2017-02-07 Thomson Licensing Method of presenting three-dimensional content with disparity adjustments
US9485492B2 (en) 2010-09-14 2016-11-01 Thomson Licensing Llc Compression methods and apparatus for occlusion data
US9013634B2 (en) 2010-09-14 2015-04-21 Adobe Systems Incorporated Methods and apparatus for video completion
US8780251B2 (en) 2010-09-20 2014-07-15 Canon Kabushiki Kaisha Image capture with focus adjustment
JP5392415B2 (ja) 2010-09-22 2014-01-22 富士通株式会社 ステレオ画像生成装置、ステレオ画像生成方法及びステレオ画像生成用コンピュータプログラム
US20120086803A1 (en) 2010-10-11 2012-04-12 Malzbender Thomas G Method and system for distance estimation using projected symbol sequences
US20140192238A1 (en) 2010-10-24 2014-07-10 Linx Computational Imaging Ltd. System and Method for Imaging and Image Processing
US8531535B2 (en) 2010-10-28 2013-09-10 Google Inc. Methods and systems for processing a video for stabilization and retargeting
JP5657343B2 (ja) 2010-10-28 2015-01-21 株式会社ザクティ 電子機器
WO2012056437A1 (en) 2010-10-29 2012-05-03 École Polytechnique Fédérale De Lausanne (Epfl) Omnidirectional sensor array system
US9137503B2 (en) 2010-11-03 2015-09-15 Sony Corporation Lens and color filter arrangement, super-resolution camera system and method
US9065991B2 (en) 2010-11-04 2015-06-23 Lensvector Inc. Methods of adjustment free manufacture of focus free camera modules
US20120113232A1 (en) 2010-11-10 2012-05-10 Sony Pictures Technologies Inc. Multiple camera system and method for selectable interaxial separation
WO2012064106A2 (en) 2010-11-12 2012-05-18 Samsung Electronics Co., Ltd. Method and apparatus for video stabilization by compensating for view direction of camera
US8576276B2 (en) 2010-11-18 2013-11-05 Microsoft Corporation Head-mounted display device which provides surround video
MY150361A (en) 2010-12-03 2013-12-31 Mimos Berhad Method of image segmentation using intensity and depth information
US20130258067A1 (en) 2010-12-08 2013-10-03 Thomson Licensing System and method for trinocular depth acquisition with triangular sensor
US8878950B2 (en) 2010-12-14 2014-11-04 Pelican Imaging Corporation Systems and methods for synthesizing high resolution images using super-resolution processes
JP5963422B2 (ja) 2010-12-17 2016-08-03 キヤノン株式会社 撮像装置、表示装置、コンピュータプログラムおよび立体像表示システム
US8682107B2 (en) 2010-12-22 2014-03-25 Electronics And Telecommunications Research Institute Apparatus and method for creating 3D content for oriental painting
US9177381B2 (en) 2010-12-22 2015-11-03 Nani Holdings IP, LLC Depth estimate determination, systems and methods
WO2012092246A2 (en) 2010-12-27 2012-07-05 3Dmedia Corporation Methods, systems, and computer-readable storage media for identifying a rough depth map in a scene and for determining a stereo-base distance for three-dimensional (3d) content creation
US8565709B2 (en) 2010-12-30 2013-10-22 Apple Inc. Digital signal filter
TWI535292B (zh) 2010-12-31 2016-05-21 派力肯影像公司 使用具有異質的成像器的整體式相機陣列的影像捕捉和處理
JP5699609B2 (ja) 2011-01-06 2015-04-15 ソニー株式会社 画像処理装置および画像処理方法
US9007683B2 (en) 2011-01-20 2015-04-14 Fivefocal Llc Dual element passively athemalized infrared imaging systems
US8581995B2 (en) 2011-01-25 2013-11-12 Aptina Imaging Corporation Method and apparatus for parallax correction in fused array imaging systems
US8717467B2 (en) 2011-01-25 2014-05-06 Aptina Imaging Corporation Imaging systems with array cameras for depth sensing
JP5594477B2 (ja) 2011-01-26 2014-09-24 Nltテクノロジー株式会社 画像表示装置、画像表示方法、及びプログラム
EP2668617A1 (de) 2011-01-27 2013-12-04 Metaio GmbH Verfahren zur korrespondenzdefinition zwischen einem ersten und einem zweiten bild und verfahren zur bestimmung der position einer kamera
US20120200726A1 (en) 2011-02-09 2012-08-09 Research In Motion Limited Method of Controlling the Depth of Field for a Small Sensor Camera Using an Extension for EDOF
US8717464B2 (en) 2011-02-09 2014-05-06 Blackberry Limited Increased low light sensitivity for image sensors by combining quantum dot sensitivity to visible and infrared light
US8698885B2 (en) 2011-02-14 2014-04-15 Intuitive Surgical Operations, Inc. Methods and apparatus for demosaicing images with highly correlated color channels
US20140176592A1 (en) 2011-02-15 2014-06-26 Lytro, Inc. Configuring two-dimensional image processing based on light-field parameters
KR20130096754A (ko) 2011-02-18 2013-08-30 도소 가부시키가이샤 전해 이산화망간 및 그 제조 방법, 그리고 리튬망간계 복합 산화물의 제조 방법
US8406548B2 (en) 2011-02-28 2013-03-26 Sony Corporation Method and apparatus for performing a blur rendering process on an image
BR112012027306A2 (pt) 2011-02-28 2016-08-02 Fujifilm Corp aparelho de geração de imagem colorida
US8537245B2 (en) 2011-03-04 2013-09-17 Hand Held Products, Inc. Imaging and decoding device with quantum dot imager
CA2769358C (en) 2011-03-08 2016-06-07 Research In Motion Limited Quantum dot image sensor with dummy pixels used for intensity calculations
US9565449B2 (en) 2011-03-10 2017-02-07 Qualcomm Incorporated Coding multiview video plus depth content
KR101792501B1 (ko) 2011-03-16 2017-11-21 한국전자통신연구원 특징기반의 스테레오 매칭 방법 및 장치
US20120249853A1 (en) 2011-03-28 2012-10-04 Marc Krolczyk Digital camera for reviewing related images
US8824821B2 (en) 2011-03-28 2014-09-02 Sony Corporation Method and apparatus for performing user inspired visual effects rendering on an image
US8422770B2 (en) 2011-03-30 2013-04-16 Mckesson Financial Holdings Method, apparatus and computer program product for displaying normalized medical images
US9030528B2 (en) 2011-04-04 2015-05-12 Apple Inc. Multi-zone imaging sensor and lens array
FR2974449A1 (fr) 2011-04-22 2012-10-26 Commissariat Energie Atomique Circuit integre imageur et dispositif de capture d'images stereoscopiques
US20120274626A1 (en) 2011-04-29 2012-11-01 Himax Media Solutions, Inc. Stereoscopic Image Generating Apparatus and Method
US9170723B2 (en) 2011-05-04 2015-10-27 Sony Ericsson Mobile Communications Ab Method, graphical user interface, and computer program product for processing of a light field image
US8305456B1 (en) 2011-05-11 2012-11-06 Pelican Imaging Corporation Systems and methods for transmitting and receiving array camera image data
US8843346B2 (en) 2011-05-13 2014-09-23 Amazon Technologies, Inc. Using spatial information with device interaction
CN102164298B (zh) 2011-05-18 2012-10-03 长春理工大学 全景成像系统中基于立体匹配的元素图像获取方法
US8629901B2 (en) 2011-05-19 2014-01-14 National Taiwan University System and method of revising depth of a 3D image pair
US20120293489A1 (en) 2011-05-20 2012-11-22 Himax Technologies Limited Nonlinear depth remapping system and method thereof
JP5797016B2 (ja) 2011-05-30 2015-10-21 キヤノン株式会社 画像処理装置、画像処理方法、及びプログラム
JP5762142B2 (ja) 2011-05-31 2015-08-12 キヤノン株式会社 撮像装置、画像処理装置およびその方法
US8648919B2 (en) 2011-06-06 2014-02-11 Apple Inc. Methods and systems for image stabilization
US8823813B2 (en) 2011-06-06 2014-09-02 Apple Inc. Correcting rolling shutter using image stabilization
WO2012171185A1 (en) 2011-06-15 2012-12-20 Microsoft Corporation High resolution multispectral image capture
JP2013005259A (ja) 2011-06-17 2013-01-07 Sony Corp 画像処理装置、および画像処理方法、並びにプログラム
US20130265459A1 (en) 2011-06-28 2013-10-10 Pelican Imaging Corporation Optical arrangements for use with an array camera
WO2013003276A1 (en) 2011-06-28 2013-01-03 Pelican Imaging Corporation Optical arrangements for use with an array camera
US8773513B2 (en) 2011-07-01 2014-07-08 Seiko Epson Corporation Context and epsilon stereo constrained correspondence matching
US9300946B2 (en) 2011-07-08 2016-03-29 Personify, Inc. System and method for generating a depth map and fusing images from a camera array
KR101216123B1 (ko) 2011-07-08 2012-12-27 김호 시청자 얼굴 추적정보 생성방법 및 생성장치, 그 기록매체 및 3차원 디스플레이 장치
JP2013024886A (ja) 2011-07-14 2013-02-04 Sanyo Electric Co Ltd 撮像装置
JP5780865B2 (ja) 2011-07-14 2015-09-16 キヤノン株式会社 画像処理装置、撮像システム、画像処理システム
US9363535B2 (en) 2011-07-22 2016-06-07 Qualcomm Incorporated Coding motion depth maps with depth range variation
US9264689B2 (en) 2011-08-04 2016-02-16 Semiconductor Components Industries, Llc Systems and methods for color compensation in multi-view video
WO2013022297A2 (ko) 2011-08-09 2013-02-14 삼성전자 주식회사 다시점 비디오 데이터의 깊이맵 부호화 방법 및 장치, 복호화 방법 및 장치
US8432435B2 (en) 2011-08-10 2013-04-30 Seiko Epson Corporation Ray image modeling for fast catadioptric light field rendering
US8866951B2 (en) 2011-08-24 2014-10-21 Aptina Imaging Corporation Super-resolution imaging systems
US9009952B2 (en) 2011-08-29 2015-04-21 Asm Technology Singapore Pte. Ltd. Apparatus for assembling a lens module and an image sensor to form a camera module, and a method of assembling the same
US8704895B2 (en) 2011-08-29 2014-04-22 Qualcomm Incorporated Fast calibration of displays using spectral-based colorimetrically calibrated multicolor camera
US20130070060A1 (en) 2011-09-19 2013-03-21 Pelican Imaging Corporation Systems and methods for determining depth from multiple views of a scene that include aliasing using hypothesized fusion
US9100639B2 (en) 2011-09-20 2015-08-04 Panasonic Intellectual Property Management Co., Ltd. Light field imaging device and image processing device
WO2013042440A1 (ja) 2011-09-21 2013-03-28 富士フイルム株式会社 画像処理装置、方法、プログラム及び記録媒体並びに立体撮像装置、携帯電子機器、プリンタ及び立体画像再生装置
US8724893B2 (en) 2011-09-27 2014-05-13 Thomson Licensing Method and system for color look up table generation
US8908083B2 (en) 2011-09-28 2014-12-09 Apple Inc. Dynamic autofocus operations
WO2013049699A1 (en) 2011-09-28 2013-04-04 Pelican Imaging Corporation Systems and methods for encoding and decoding light field image files
US8825864B2 (en) 2011-09-29 2014-09-02 Oracle International Corporation System and method for supporting a dynamic resource broker in a transactional middleware machine environment
JP5831105B2 (ja) 2011-09-30 2015-12-09 ソニー株式会社 撮像装置及び撮像方法
EP2766767A4 (de) 2011-10-11 2015-05-13 Pelican Imaging Corp Linsenstapelarrays mit adaptiven optischen elementen
EP2582128A3 (de) 2011-10-12 2013-06-19 Canon Kabushiki Kaisha Bilderfassungsvorrichtung
US20130107061A1 (en) 2011-10-31 2013-05-02 Ankit Kumar Multi-resolution ip camera
JP5149435B1 (ja) 2011-11-04 2013-02-20 株式会社東芝 映像処理装置および映像処理方法
US9692991B2 (en) 2011-11-04 2017-06-27 Qualcomm Incorporated Multispectral imaging system
EP2590138B1 (de) 2011-11-07 2019-09-11 Flir Systems AB Gasvisualisierungsanordnungen, Vorrichtungen und Verfahren
GB201119405D0 (en) 2011-11-10 2011-12-21 Univ East Anglia Spectral estimation method,system and reference target design system
WO2013072875A2 (en) 2011-11-15 2013-05-23 Technion Research & Development Foundation Ltd. Method and system for transmitting light
US20130121559A1 (en) 2011-11-16 2013-05-16 Sharp Laboratories Of America, Inc. Mobile device with three dimensional augmented reality
US20130127988A1 (en) 2011-11-17 2013-05-23 Sen Wang Modifying the viewpoint of a digital image
JP6019568B2 (ja) 2011-11-28 2016-11-02 ソニー株式会社 画像処理装置および方法、記録媒体、並びに、プログラム
US9661310B2 (en) 2011-11-28 2017-05-23 ArcSoft Hanzhou Co., Ltd. Image depth recovering method and stereo image fetching device thereof
EP2600316A1 (de) 2011-11-29 2013-06-05 Inria Institut National de Recherche en Informatique et en Automatique Verfahren, System und Softwareprogramm zum Schießen und Bearbeiten eines Films umfassend mindestens ein Bild einer 3D-computergenerierten Animation
KR101862404B1 (ko) 2011-12-09 2018-05-29 엘지이노텍 주식회사 스테레오 영상의 노이즈 제거장치 및 방법
US9117295B2 (en) 2011-12-20 2015-08-25 Adobe Systems Incorporated Refinement of depth maps by fusion of multiple estimates
KR20130072535A (ko) 2011-12-22 2013-07-02 삼성전기주식회사 비파괴적 결함검사장치 및 이를 이용한 결함검사방법
WO2013099169A1 (ja) 2011-12-27 2013-07-04 パナソニック株式会社 ステレオ撮影装置
US8941722B2 (en) 2012-01-03 2015-01-27 Sony Corporation Automatic intelligent focus control of video
US8854433B1 (en) 2012-02-03 2014-10-07 Aquifi, Inc. Method and system enabling natural user interface gestures with an electronic system
WO2013119706A1 (en) 2012-02-06 2013-08-15 Pelican Imaging Corporation Systems and methods for extending dynamic range of imager arrays by controlling pixel analog gain
US9172889B2 (en) 2012-02-09 2015-10-27 Semiconductor Components Industries, Llc Imaging systems and methods for generating auto-exposed high-dynamic-range images
EP2817955B1 (de) 2012-02-21 2018-04-11 FotoNation Cayman Limited Systeme und verfahren zur manipulation von bilddaten aus einem erfassten lichtfeld
US9230333B2 (en) 2012-02-22 2016-01-05 Raytheon Company Method and apparatus for image processing
JP5860304B2 (ja) 2012-02-23 2016-02-16 キヤノン株式会社 撮像装置及びその制御方法、プログラム、並びに記憶媒体
JP6112824B2 (ja) 2012-02-28 2017-04-12 キヤノン株式会社 画像処理方法および装置、プログラム。
US8831377B2 (en) 2012-02-28 2014-09-09 Lytro, Inc. Compensating for variation in microlens position during light-field image processing
JP5924978B2 (ja) 2012-02-28 2016-05-25 キヤノン株式会社 画像処理装置および画像処理方法
EP2637139A1 (de) 2012-03-05 2013-09-11 Thomson Licensing Verfahren und Vorrichtung für die Zweischichtsegmentierung
EP2834788A4 (de) 2012-04-02 2016-01-13 Intel Corp Systeme, verfahren und computerprogrammprodukte zur laufzeitänderung von bildverzerrungsparametern in einem multikamerasystem
WO2013155403A1 (en) 2012-04-13 2013-10-17 Automation Engineering, Inc. Active alignment using continuous motion sweeps and temporal interpolation
WO2013158636A1 (en) 2012-04-16 2013-10-24 Azizian Mahdi Dual-mode stereo imaging system for tracking and control in surgical and interventional procedures
US8994845B2 (en) 2012-04-27 2015-03-31 Blackberry Limited System and method of adjusting a camera based on image data
US9210392B2 (en) 2012-05-01 2015-12-08 Pelican Imaging Coporation Camera modules patterned with pi filter groups
WO2013166215A1 (en) 2012-05-01 2013-11-07 Pelican Imaging Corporation CAMERA MODULES PATTERNED WITH pi FILTER GROUPS
CN104272729A (zh) 2012-05-02 2015-01-07 皇家飞利浦有限公司 用于处理3d视频的质量度量
EP2820838B1 (de) 2012-05-09 2020-01-08 Lytro, Inc. Optimierung von optischen systemen für verbesserte lichtfelderfassung und -manipulation
US9846960B2 (en) 2012-05-31 2017-12-19 Microsoft Technology Licensing, Llc Automated camera array calibration
US9179126B2 (en) 2012-06-01 2015-11-03 Ostendo Technologies, Inc. Spatio-temporal light field cameras
EP2859528A4 (de) 2012-06-08 2016-02-10 Nokia Technologies Oy Bildkalibrator mit mehreren frames
EP2677734A3 (de) 2012-06-18 2016-01-13 Sony Mobile Communications AB Arraykameraabbildungssystem und Verfahren
WO2014005123A1 (en) 2012-06-28 2014-01-03 Pelican Imaging Corporation Systems and methods for detecting defective camera arrays, optic arrays, and sensors
JP5929553B2 (ja) 2012-06-28 2016-06-08 ソニー株式会社 画像処理装置、撮像装置、画像処理方法およびプログラム
US20140002674A1 (en) 2012-06-30 2014-01-02 Pelican Imaging Corporation Systems and Methods for Manufacturing Camera Modules Using Active Alignment of Lens Stack Arrays and Sensors
US8896594B2 (en) 2012-06-30 2014-11-25 Microsoft Corporation Depth sensing with depth-adaptive illumination
US8792710B2 (en) 2012-07-24 2014-07-29 Intel Corporation Stereoscopic depth reconstruction with probabilistic pixel correspondence search
US9147251B2 (en) 2012-08-03 2015-09-29 Flyby Media, Inc. Systems and methods for efficient 3D tracking of weakly textured planar surfaces for augmented reality applications
US8988566B2 (en) 2012-08-09 2015-03-24 Omnivision Technologies, Inc. Lens array for partitioned image sensor having color filters
WO2014074202A2 (en) 2012-08-20 2014-05-15 The Regents Of The University Of California Monocentric lens designs and associated imaging systems having wide field of view and high resolution
EP4567495A3 (de) 2012-08-21 2025-09-10 Adeia Imaging LLC Procédé pour détection de profondeur dans des images capturées à l'aide de caméras en réseau
CN104685513B (zh) 2012-08-23 2018-04-27 派力肯影像公司 根据使用阵列源捕捉的低分辨率图像的基于特征的高分辨率运动估计
CN104584545B (zh) 2012-08-31 2017-05-31 索尼公司 图像处理装置、图像处理方法、以及信息处理装置
WO2014043641A1 (en) 2012-09-14 2014-03-20 Pelican Imaging Corporation Systems and methods for correcting user identified artifacts in light field images
US9373088B2 (en) 2012-09-17 2016-06-21 The Board Of Trustees Of The Leland Stanford Junior University Brain machine interface utilizing a discrete action state decoder in parallel with a continuous decoder for a neural prosthetic device
US9143673B2 (en) 2012-09-19 2015-09-22 Google Inc. Imaging device with a plurality of pixel arrays
EP4307659A1 (de) 2012-09-28 2024-01-17 Adeia Imaging LLC Erzeugung von bildern aus lichtfeldern mithilfe virtueller blickpunkte
TW201415879A (zh) 2012-10-12 2014-04-16 Wintek Corp 影像擷取裝置
WO2014070927A2 (en) 2012-10-31 2014-05-08 Invisage Technologies, Inc. Expanded-field-of-view image and video capture
US9338370B2 (en) 2012-11-05 2016-05-10 Honeywell International Inc. Visual system having multiple cameras
WO2014078443A1 (en) 2012-11-13 2014-05-22 Pelican Imaging Corporation Systems and methods for array camera focal plane control
KR101954192B1 (ko) 2012-11-15 2019-03-05 엘지전자 주식회사 어레이 카메라, 휴대 단말기 및 그 동작 방법
US9076205B2 (en) 2012-11-19 2015-07-07 Adobe Systems Incorporated Edge direction and curve based image de-blurring
CN104010183B (zh) 2012-11-21 2017-03-01 豪威科技股份有限公司 包括至少一个拜耳型摄像机的阵列系统及关联的方法
CN113472989A (zh) 2012-11-28 2021-10-01 核心光电有限公司 多孔径成像系统以及通过多孔径成像系统获取图像的方法
US9001226B1 (en) 2012-12-04 2015-04-07 Lytro, Inc. Capturing and relighting images using multiple devices
US9088369B2 (en) 2012-12-28 2015-07-21 Synergy Microwave Corporation Self injection locked phase locked looped optoelectronic oscillator
US8851370B2 (en) 2013-01-02 2014-10-07 Jpmorgan Chase Bank, N.A. System and method for secure card with on-board verification
US20140183334A1 (en) 2013-01-03 2014-07-03 Visera Technologies Company Limited Image sensor for light field device and manufacturing method thereof
US9282228B2 (en) 2013-01-05 2016-03-08 The Lightco Inc. Camera methods and apparatus using optical chain modules which alter the direction of received light
KR20140094395A (ko) 2013-01-22 2014-07-30 삼성전자주식회사 복수 개의 마이크로렌즈를 사용하여 촬영하는 촬영 장치 및 그 촬영 방법
US9497380B1 (en) 2013-02-15 2016-11-15 Red.Com, Inc. Dense field imaging
WO2014130849A1 (en) 2013-02-21 2014-08-28 Pelican Imaging Corporation Generating compressed light field representation data
US9374512B2 (en) 2013-02-24 2016-06-21 Pelican Imaging Corporation Thin form factor computational array cameras and modular array cameras
US9853826B2 (en) 2013-02-25 2017-12-26 Qualcomm Incorporated Establishing groups of internet of things (IOT) devices and enabling communication among the groups of IOT devices
US20140240469A1 (en) 2013-02-28 2014-08-28 Motorola Mobility Llc Electronic Device with Multiview Image Capture and Depth Sensing
US20150002734A1 (en) 2013-07-01 2015-01-01 Motorola Mobility Llc Electronic Device with Modulated Light Flash Operation for Rolling Shutter Image Sensor
US9638883B1 (en) 2013-03-04 2017-05-02 Fotonation Cayman Limited Passive alignment of array camera modules constructed from lens stack arrays and sensors based upon alignment information obtained during manufacture of array camera modules using an active alignment process
WO2014138695A1 (en) 2013-03-08 2014-09-12 Pelican Imaging Corporation Systems and methods for measuring scene information while capturing images using array cameras
US8866912B2 (en) 2013-03-10 2014-10-21 Pelican Imaging Corporation System and methods for calibration of an array camera using a single captured image
US9521416B1 (en) 2013-03-11 2016-12-13 Kip Peli P1 Lp Systems and methods for image data compression
WO2014164550A2 (en) 2013-03-13 2014-10-09 Pelican Imaging Corporation System and methods for calibration of an array camera
US9519972B2 (en) 2013-03-13 2016-12-13 Kip Peli P1 Lp Systems and methods for synthesizing images from image data captured by an array camera using restricted depth of field depth maps in which depth estimation precision varies
US9888194B2 (en) 2013-03-13 2018-02-06 Fotonation Cayman Limited Array camera architecture implementing quantum film image sensors
US9106784B2 (en) 2013-03-13 2015-08-11 Pelican Imaging Corporation Systems and methods for controlling aliasing in images captured by an array camera for use in super-resolution processing
WO2014160142A1 (en) 2013-03-13 2014-10-02 Pelican Imaging Corporation Systems and methods for using alignment to increase sampling diversity of cameras in an array camera module
WO2014153098A1 (en) 2013-03-14 2014-09-25 Pelican Imaging Corporation Photmetric normalization in array cameras
US9578259B2 (en) 2013-03-14 2017-02-21 Fotonation Cayman Limited Systems and methods for reducing motion blur in images or video in ultra low light with array cameras
US9445003B1 (en) 2013-03-15 2016-09-13 Pelican Imaging Corporation Systems and methods for synthesizing high resolution images using image deconvolution based on motion and depth information
US9497370B2 (en) 2013-03-15 2016-11-15 Pelican Imaging Corporation Array camera architecture implementing quantum dot color filters
US9633442B2 (en) 2013-03-15 2017-04-25 Fotonation Cayman Limited Array cameras including an array camera module augmented with a separate camera
WO2014149902A1 (en) 2013-03-15 2014-09-25 Pelican Imaging Corporation Systems and methods for providing an array projector
JP2016524125A (ja) 2013-03-15 2016-08-12 ペリカン イメージング コーポレイション カメラアレイを用いた立体撮像のためのシステムおよび方法
US10122993B2 (en) 2013-03-15 2018-11-06 Fotonation Limited Autofocus system for a conventional camera that uses depth information from an array camera
US9497429B2 (en) 2013-03-15 2016-11-15 Pelican Imaging Corporation Extended color processing on pelican array cameras
WO2014144157A1 (en) 2013-03-15 2014-09-18 Pelican Imaging Corporation Optical arrangements for use with an array camera
KR101335761B1 (ko) 2013-04-03 2013-12-09 이재건 저온열화특성이 없는 지르코니아 단결정과 그 육성 방법
US10268885B2 (en) 2013-04-15 2019-04-23 Microsoft Technology Licensing, Llc Extracting true color from a color and infrared sensor
KR101792374B1 (ko) 2013-04-23 2017-10-31 코니카 미놀타 가부시키가이샤 광학 필름, 원 편광판 및 유기 일렉트로루미네센스 표시 장치
RU2667605C2 (ru) 2013-05-10 2018-09-21 Конинклейке Филипс Н.В. Способ кодирования сигнала видеоданных для использования с многовидовым устройством визуализации
JP6201476B2 (ja) 2013-07-18 2017-09-27 凸版印刷株式会社 自由視点画像撮像装置およびその方法
JP5866577B2 (ja) 2013-07-29 2016-02-17 パナソニックIpマネジメント株式会社 光学フィルタおよびそれを用いた偏光撮像装置
KR102103983B1 (ko) 2013-07-31 2020-04-23 삼성전자주식회사 시프트된 마이크로 렌즈 어레이를 구비하는 라이트 필드 영상 획득 장치
US20160182786A1 (en) 2013-09-11 2016-06-23 Lytro, Inc. Hybrid light-field camera
CN103514580B (zh) 2013-09-26 2016-06-08 香港应用科技研究院有限公司 用于获得视觉体验优化的超分辨率图像的方法和系统
WO2015048694A2 (en) 2013-09-27 2015-04-02 Pelican Imaging Corporation Systems and methods for depth-assisted perspective distortion correction
CN106304842A (zh) 2013-10-03 2017-01-04 舒朗科技公司 用于定位和地图创建的增强现实系统和方法
US20150098079A1 (en) 2013-10-09 2015-04-09 Hilti Aktiengesellschaft System and method for camera based position and orientation measurement
US20150104101A1 (en) 2013-10-14 2015-04-16 Apple Inc. Method and ui for z depth image segmentation
EP3066690A4 (de) 2013-11-07 2017-04-05 Pelican Imaging Corporation Verfahren zur herstellung von arraykameramodulen zur bildung unabhängig ausgerichteter linsenstapel
WO2015074078A1 (en) 2013-11-18 2015-05-21 Pelican Imaging Corporation Estimating depth from projected texture using camera arrays
US9426361B2 (en) 2013-11-26 2016-08-23 Pelican Imaging Corporation Array camera configurations incorporating multiple constituent array cameras
US10395113B2 (en) 2014-01-22 2019-08-27 Polaris Sensor Technologies, Inc. Polarization-based detection and mapping method and system
KR102135770B1 (ko) 2014-02-10 2020-07-20 한국전자통신연구원 스테레오 카메라 기반의 3차원 얼굴 복원 방법 및 장치
GB2523149A (en) 2014-02-14 2015-08-19 Nokia Technologies Oy Method, apparatus and computer program product for image-driven cost volume aggregation
US9979878B2 (en) 2014-02-21 2018-05-22 Light Labs Inc. Intuitive camera user interface methods and apparatus
JP6211435B2 (ja) 2014-02-26 2017-10-11 株式会社アドバンテスト 半導体装置の製造方法
US9307159B2 (en) 2014-03-04 2016-04-05 Panasonic Intellectual Property Management Co., Ltd. Polarization image processing apparatus
US10089740B2 (en) 2014-03-07 2018-10-02 Fotonation Limited System and methods for depth regularization and semiautomatic interactive matting using RGB-D images
US20160042548A1 (en) 2014-03-19 2016-02-11 Intel Corporation Facial expression and/or interaction driven avatar apparatus and method
WO2015143037A1 (en) 2014-03-21 2015-09-24 Omron Corporation Method and apparatus for detecting and mitigating optical impairments in an optical system
KR102397254B1 (ko) 2014-03-28 2022-05-12 인튜어티브 서지컬 오퍼레이션즈 인코포레이티드 수술 장면의 정량적인 3차원 영상
US9247117B2 (en) 2014-04-07 2016-01-26 Pelican Imaging Corporation Systems and methods for correcting for warpage of a sensor array in an array camera module by introducing warpage into a focal plane of a lens stack array
GB2525660A (en) 2014-05-01 2015-11-04 Mastercard International Inc Methods, devices and systems for transaction initiation
WO2015183824A1 (en) 2014-05-26 2015-12-03 Pelican Imaging Corporation Autofocus system for a conventional camera that uses depth information from an array camera
US9729865B1 (en) 2014-06-18 2017-08-08 Amazon Technologies, Inc. Object detection and tracking
US9521319B2 (en) 2014-06-18 2016-12-13 Pelican Imaging Corporation Array cameras and array camera modules including spectral filters disposed outside of a constituent image sensor
US9992483B2 (en) 2014-09-03 2018-06-05 Intel Corporation Imaging architecture for depth camera mode with mode switching
KR20170063827A (ko) 2014-09-29 2017-06-08 포토네이션 케이맨 리미티드 어레이 카메라들의 동적 교정을 위한 시스템들 및 방법들
US9766461B2 (en) 2015-01-20 2017-09-19 Microsoft Technology Licensing, Llc Head-mounted display device with stress-resistant components
US9964482B2 (en) 2015-01-26 2018-05-08 The United States Of America As Represented By The Secretary Of The Army Detecting clouds using polarized sunlight
US10798367B2 (en) * 2015-02-27 2020-10-06 Sony Corporation Imaging device, image processing device and image processing method
US20160267486A1 (en) 2015-03-13 2016-09-15 Radiius Corp Smartcard Payment System and Method
US9942474B2 (en) 2015-04-17 2018-04-10 Fotonation Cayman Limited Systems and methods for performing high speed video capture and depth estimation using array cameras
KR20180030773A (ko) 2015-04-17 2018-03-26 포토네이션 케이맨 리미티드 어레이 카메라들을 이용한 고속 비디오 캡처 및 심도 추정을 수행하기 위한 시스템 및 방법
KR102777120B1 (ko) 2015-04-19 2025-03-05 포토내이션 리미티드 Vr/ar 응용에서 심도 증강을 위한 다중-기선 카메라 어레이 시스템 아키텍처
JP6512928B2 (ja) 2015-04-28 2019-05-15 キヤノン株式会社 画像符号化装置、画像処理装置、画像符号化方法
US9679526B2 (en) 2015-06-30 2017-06-13 Nxp Usa, Inc. Display system, an integrated circuit for use in the display system, and a method of displaying at least two images on at least two screens
US20170011405A1 (en) 2015-07-09 2017-01-12 Mastercard International Incorporated Simultaneous multi-factor authentication systems and methods for payment transactions
JP6626295B2 (ja) 2015-09-09 2019-12-25 キヤノン株式会社 画像符号化装置、画像処理装置、画像符号化方法
US11257075B2 (en) 2015-10-20 2022-02-22 Paypal, Inc. Secure multi-factor user authentication on disconnected mobile devices
US20170142405A1 (en) 2015-10-21 2017-05-18 Praxik, LLC. Apparatus, Systems and Methods for Ground Plane Extension
WO2017100903A1 (en) 2015-12-14 2017-06-22 Motion Metrics International Corp. Method and apparatus for identifying fragmented material portions within an image
US9741163B2 (en) 2015-12-22 2017-08-22 Raytheon Company 3-D polarimetric imaging using a microfacet scattering model to compensate for structured scene reflections
DE102016200287A1 (de) 2016-01-13 2017-07-13 Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. Multiaperturabbildungsvorrichtungen, Verfahren zum Herstellen derselben und Abbildungssystem
US20170268990A1 (en) 2016-03-17 2017-09-21 Canon Kabushiki Kaisha Separating diffuse and specular components of a glossy object for shape reconstruction using electronic light diffusing layers (e-glass) and polarized light
US20170337682A1 (en) 2016-05-18 2017-11-23 Siemens Healthcare Gmbh Method and System for Image Registration Using an Intelligent Artificial Agent
US10546297B2 (en) 2016-06-30 2020-01-28 Paypal, Inc. Hardware and token based user authentication
US10502556B2 (en) 2016-07-20 2019-12-10 Mura Inc. Systems and methods for 3D surface measurements
JP6697681B2 (ja) * 2016-08-17 2020-05-27 ソニー株式会社 検査装置、検査方法、およびプログラム
US11199678B2 (en) 2016-09-14 2021-12-14 Fotonation Limited Optical systems for cameras incorporating lens elements formed separately and subsequently bonded to low CTE substrates
US10466036B2 (en) * 2016-10-07 2019-11-05 Arizona Board Of Regents On Behalf Of The University Of Arizona Attachable depth and orientation tracker device and method of depth and orientation tracking using focal plane polarization and color camera
US11832969B2 (en) 2016-12-22 2023-12-05 The Johns Hopkins University Machine learning approach to beamforming
US20180189767A1 (en) 2016-12-29 2018-07-05 Fotonation Limited Systems and methods for utilizing payment card information with a secure biometric processor on a mobile device
US10976239B1 (en) 2017-03-14 2021-04-13 Hart Scientific Consulting International Llc Systems and methods for determining polarization properties with high temporal bandwidth
CN110612427A (zh) 2017-04-01 2019-12-24 惠普发展公司,有限责任合伙企业 表面高度测量系统
US10643382B2 (en) 2017-04-04 2020-05-05 Intel Corporation Application of convolutional neural networks to object meshes
CN106989675B (zh) 2017-05-03 2020-03-31 交通运输部公路科学研究所 基于目标表面特征参数的多光谱成像系统
WO2018210183A1 (zh) * 2017-05-16 2018-11-22 南京三迭纪医药科技有限公司 3d打印设备和方法
US11108951B2 (en) 2017-06-13 2021-08-31 Sony Corporation Image capturing device and imaging element, and image processing method
KR102351542B1 (ko) 2017-06-23 2022-01-17 삼성전자주식회사 시차 보상 기능을 갖는 애플리케이션 프로세서, 및 이를 구비하는 디지털 촬영 장치
JP7207303B2 (ja) 2017-07-12 2023-01-18 ソニーグループ株式会社 撮像装置、画像生成方法、撮像システム
US10732284B2 (en) * 2017-07-28 2020-08-04 The Boeing Company Live metrology of an object during manufacturing or other operations
US10742894B2 (en) * 2017-08-11 2020-08-11 Ut-Battelle, Llc Optical array for high-quality imaging in harsh environments
US10482618B2 (en) 2017-08-21 2019-11-19 Fotonation Limited Systems and methods for hybrid depth regularization
US11373396B2 (en) * 2017-11-06 2022-06-28 Google Llc Systems and methods for improved feature extraction using polarization information
US10643383B2 (en) 2017-11-27 2020-05-05 Fotonation Limited Systems and methods for 3D facial modeling
CN109961406B (zh) 2017-12-25 2021-06-25 深圳市优必选科技有限公司 一种图像处理的方法、装置及终端设备
US11024046B2 (en) 2018-02-07 2021-06-01 Fotonation Limited Systems and methods for depth estimation using generative models
US20210081698A1 (en) 2018-02-09 2021-03-18 Nano Techgalaxy, Inc. D/B/A Galaxy.Ai Systems and methods for physical object analysis
US20200012119A1 (en) 2018-07-06 2020-01-09 Polaris Sensor Technologies, Inc. Reducing glare for objects viewed through transparent surfaces
CN120370238A (zh) 2018-07-30 2025-07-25 海珀菲纳股份有限公司 用于磁共振图像重建的深度学习技术的系统、方法、存储介质以及磁共振成像系统
US11315321B2 (en) 2018-09-07 2022-04-26 Intel Corporation View dependent 3D reconstruction mechanism
US10659751B1 (en) 2018-12-14 2020-05-19 Lyft Inc. Multichannel, multi-polarization imaging for improved perception
US10708557B1 (en) * 2018-12-14 2020-07-07 Lyft Inc. Multispectrum, multi-polarization (MSMP) filtering for improved perception of difficult to perceive colors
KR102083759B1 (ko) 2019-07-31 2020-03-02 (주)이즈미디어 광학기구 정렬 검사장치
US11431884B2 (en) * 2019-09-16 2022-08-30 Meta Platforms Technologies, Llc Polarization capture device for identifying feature of object
DE112020004391B4 (de) * 2019-09-17 2024-08-14 Intrinsic Innovation Llc Systeme und Verfahren zur Oberflächenmodellierung unter Verwendung von Polarisationsmerkmalen
US11461998B2 (en) 2019-09-25 2022-10-04 Samsung Electronics Co., Ltd. System and method for boundary aware semantic segmentation
CA3157194C (en) * 2019-10-07 2023-08-29 Boston Polarimetrics, Inc. Systems and methods for augmentation of sensor systems and imaging systems with polarization
KR102558903B1 (ko) * 2019-11-30 2023-07-24 보스턴 폴라리메트릭스, 인크. 편광 신호를 이용한 투명 물체 분할을 위한 시스템 및 방법
CN111537072B (zh) 2020-04-22 2022-11-11 中国人民解放军国防科技大学 一种阵列式偏振相机的偏振信息测量系统及方法
CN112329256A (zh) 2020-11-13 2021-02-05 北京环境特性研究所 一种涂层材质反射偏振特性分析方法及装置
CN215296170U (zh) 2021-06-11 2021-12-24 中山职业技术学院 一种分光图像采集装置

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20160261844A1 (en) 2015-03-06 2016-09-08 Massachusetts Institute Of Technology Methods and Apparatus for Enhancing Depth Maps with Polarization Cues
US20190186901A1 (en) 2015-03-06 2019-06-20 Massachusetts Institute Of Technology Methods and Apparatus for Enhancing Depth Maps with Polarization Cues
US20160344948A1 (en) 2015-05-19 2016-11-24 MTU Aero Engines AG Method and device for determining a contour, at least in regions, of at least one additively manufactured component layer
US20190143412A1 (en) 2016-02-18 2019-05-16 Velo3D, Inc. Accurate three-dimensional printing
CN111402395A (zh) 2020-02-17 2020-07-10 西安电子科技大学 一种基于cnn校正的被动偏振三维重建方法

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
Kadambi, A. [et al.], Polarized 3D: High-Quality Depth Sensing with Polarization Cues, 2015 IEEE International Conference on Computer Vision (ICCV), Santiago, Chile, 2015, S. 3370-3378, doi: 10.1109/ICCV.2015.385.

Also Published As

Publication number Publication date
US11982775B2 (en) 2024-05-14
BR112022006602A2 (pt) 2022-06-28
DE112020004810T5 (de) 2022-07-28
US12099148B2 (en) 2024-09-24
US20230184912A1 (en) 2023-06-15
EP4042366A1 (de) 2022-08-17
US20220307819A1 (en) 2022-09-29
WO2021071992A1 (en) 2021-04-15
US20210356572A1 (en) 2021-11-18
EP4042101A1 (de) 2022-08-17
KR102538645B1 (ko) 2023-05-31
DE112020004813T5 (de) 2022-07-14
US11525906B2 (en) 2022-12-13
CN114766003B (zh) 2024-03-26
JP2022552833A (ja) 2022-12-20
CN114766003A (zh) 2022-07-19
CA3157194A1 (en) 2021-04-15
JP2022546627A (ja) 2022-11-04
CA3157197A1 (en) 2021-04-15
MX2022004162A (es) 2022-07-12
KR20230004423A (ko) 2023-01-06
CA3157194C (en) 2023-08-29
WO2021071995A8 (en) 2022-05-05
EP4042101A4 (de) 2023-11-22
CN114746717A (zh) 2022-07-12
EP4042366A4 (de) 2023-11-15
JP7330376B2 (ja) 2023-08-21
BR112022006617A2 (pt) 2022-06-28
KR20230006795A (ko) 2023-01-11
DE112020004813B4 (de) 2023-02-09
MX2022004163A (es) 2022-07-19
WO2021071995A1 (en) 2021-04-15

Similar Documents

Publication Publication Date Title
DE112020004810B4 (de) Systeme und Verfahren zur Erfassung von Oberflächennormalen mit Polarisation
DE112020004391B4 (de) Systeme und Verfahren zur Oberflächenmodellierung unter Verwendung von Polarisationsmerkmalen
DE112010004767B4 (de) Punktwolkedaten-Verarbeitungsvorrichtung, Punktwolkedaten-Verarbeitungsverfahren und Punktwolkedaten-Verarbeitungsprogramm
DE112020005932T5 (de) Systeme und verfahren zur segmentierung von transparenten objekten mittels polarisationsmerkmalen
CN103868460B (zh) 基于视差优化算法的双目立体视觉自动测量方法
CN101443817B (zh) 用于确定场景的三维重建时的对应关系的方法和装置
DE19983341B4 (de) Verfahren und Einrichtung zur Erfassung stereoskopischer Bilder unter Verwendung von Bildsensoren
Chen et al. Building change detection with RGB-D map generated from UAV images
CN111079556A (zh) 一种多时相无人机视频图像变化区域检测及分类方法
DE112011100652T5 (de) Dreidimensionale messvorrichtung, verarbei- tungsverfahren und nichtflüchtiges computer- lesbares speichermedium
Parmehr et al. Automatic registration of optical imagery with 3d lidar data using local combined mutual information
Feng et al. Specular highlight removal of light field image combining dichromatic reflection with exemplar patch filling
EP4416688A1 (de) Verfahren zum lokalisieren eines anhängers, verarbeitungseinheit und fahrzeug
Bounareli et al. An integrated system for automated 3D visualization and monitoring of vehicles
Bethmann et al. Object-based semi-global multi-image matching
Gu et al. [Retracted] Wireless Sensor System of UAV Infrared Image and Visible Light Image Registration Fusion
Karaca et al. Ground-based panoramic stereo hyperspectral imaging system with multiband stereo matching
Jiang Stereo vision for facet type cameras
DE112022007192T5 (de) Informationsverarbeitungseinrichtung, erzeugungsverfahren und erzeugungsprogramm
CN118521705A (zh) 基于光场极平面图像颜色一致性的三维重建方法及三维缺陷检测方法
Wang et al. A Quantitative Assessment Framework for Model Quality Evaluation of 3D Scene under Simulation Platform
Wojdecka Reconstructing 3D data of frontal human faces by a passive stereo system with a correlation-based correspondence method

Legal Events

Date Code Title Description
R012 Request for examination validly filed
R016 Response to examination communication
R018 Grant decision by examination section/examining division
R081 Change of applicant/patentee

Owner name: INTRINSIC INNOVATION LLC, MOUNTAIN VIEW, US

Free format text: FORMER OWNER: BOSTON POLARIMETRICS, INC., PALO ALTO, CA, US

R082 Change of representative

Representative=s name: VENNER SHIPLEY GERMANY LLP, DE

R020 Patent grant now final