[go: up one dir, main page]

DE69833998T2 - Bilderzeugungsverfahren und -vorrichtung - Google Patents

Bilderzeugungsverfahren und -vorrichtung Download PDF

Info

Publication number
DE69833998T2
DE69833998T2 DE69833998T DE69833998T DE69833998T2 DE 69833998 T2 DE69833998 T2 DE 69833998T2 DE 69833998 T DE69833998 T DE 69833998T DE 69833998 T DE69833998 T DE 69833998T DE 69833998 T2 DE69833998 T2 DE 69833998T2
Authority
DE
Germany
Prior art keywords
picture elements
subset
output values
image sensor
long
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Lifetime
Application number
DE69833998T
Other languages
English (en)
Other versions
DE69833998D1 (de
Inventor
Peter Seitz
Graham K. Lang
Nicolas Blanc
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Photonfocus AG
Original Assignee
Centre Suisse dElectronique et Microtechnique SA CSEM
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Centre Suisse dElectronique et Microtechnique SA CSEM filed Critical Centre Suisse dElectronique et Microtechnique SA CSEM
Application granted granted Critical
Publication of DE69833998D1 publication Critical patent/DE69833998D1/de
Publication of DE69833998T2 publication Critical patent/DE69833998T2/de
Anticipated expiration legal-status Critical
Expired - Lifetime legal-status Critical Current

Links

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N25/00Circuitry of solid-state image sensors [SSIS]; Control thereof
    • H04N25/50Control of the SSIS exposure
    • H04N25/53Control of the integration time
    • H04N25/533Control of the integration time by using differing integration times for different sensor regions
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N25/00Circuitry of solid-state image sensors [SSIS]; Control thereof
    • H04N25/50Control of the SSIS exposure
    • H04N25/57Control of the dynamic range
    • H04N25/58Control of the dynamic range involving two or more exposures
    • H04N25/587Control of the dynamic range involving two or more exposures acquired sequentially, e.g. using the combination of odd and even image fields
    • H04N25/589Control of the dynamic range involving two or more exposures acquired sequentially, e.g. using the combination of odd and even image fields with different integration times, e.g. short and long exposures
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N25/00Circuitry of solid-state image sensors [SSIS]; Control thereof
    • H04N25/70SSIS architectures; Circuits associated therewith
    • H04N25/76Addressed sensors, e.g. MOS or CMOS sensors

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Studio Devices (AREA)
  • Transforming Light Signals Into Electric Signals (AREA)

Description

  • Die Erfindung bezieht sich auf ein Verfahren zur Erzeugung eines Bildes und auf einen Bildsensor mit einem wirksamen Bereich, der eine Vielzahl von Bildelementen aufweist. Es ermöglicht einen breiten dynamischen Bereich, vermeidet jedoch die Notwendigkeit, ganze Bilder speichern zu müssen. Es verringert die zeitliche Verzerrung auf ein Minimum und eliminiert die räumliche Verzerrung.
  • Es ist möglich, Bildsensoren mittels Halbleitern zu realisieren, indem deren Fähigkeit ausgenützt wird, örtlich einfallende Lichtenergie in eine proportionale Menge elektrischer Ladung umzuwandeln. Spezifischer ausgedrückt, wenn ein Bildelement während der Zeit T der örtlichen Lichtleistung PL ausgesetzt wird, wird ein Ladungssignal Q gemäss der Gleichung Q = PLγT (1)erzeugt, wobei γ die Umwandlungseffizienz von Photonen zu elektrischer Ladung bezeichnet, welche stark vom Spektrum der Wellenlängen des ankommenden Lichtes abhängt. Es ist möglich, diese Ladung Q, die häufig als Photoladung bezeichnet wird, in einer zweidimensionalen Matrixanordnung von Ladungsspeicher-Vorrichtungen zu speichern, wie etwa eine umgekehrt vorgespannte Diode (wie bei Bildsensoren auf der Grundlage von Photodioden) oder wie etwa eine vorgeladene Metalloxid-Halbleiterkapazitanz (wie bei ladungsgekoppelten Vorrichtungen, CCDs).
  • Infolge der beschränkten Speicherkapazität von diesen Speichervorrichtungen ist das Verhältnis der maximal speicherbaren Photoladung zum Detektionsrauschen der Photoladung, welches als dynamischer Bereich bezeichnet wird, ebenfalls beschränkt. Bei typischen CCD- oder Photodioden-Bildsensoren hat der verfügbare dynamische Bereich die Grössenordnung von 1'000 : 1. Unglücklicherweise weisen natürliche Schauplätze (bei welchen die Lichtbedingungen nicht steuerbar sind) und Innenschauplätze mit stark variierender Beleuchtung einen dynamischen Bereich zwischen 100'000 : 1 und 1'000'000 : 1 auf.
  • Es ist möglich, den dynamischen Bereich eines Bildsensors zu vergrössern, indem man die in der Gleichung (1) gezeigte Abhängigkeit von der Belichtungszeit ausnützt. Die Patente US-5,144,442, US-5,168,532, US-5,309,243 und US-5,517,242 beschreiben Verfahren, welche auf der Erfassung von zwei oder mehr Bildern beruhen, wobei jedes eine individuelle Belichtungszeit hat. Mindestens ein vollständiges Bild muss mit diesen Verfahren gespeichert werden, vorzugsweise in digitaler Form durch die Verwendung eines Frame-Speichers. Dies führt zu einem komplizierten und kostenintensiven System. Darüber hinaus ist es nicht möglich, die zwei oder mehr Bilder mit verschiedenen Belichtungszeiten gleichzeitig aufzunehmen, aus diesem Grunde werden die gleichen bewegten Szenen nicht bei verschiedenen Belichtungsstufen dargestellt sondern zu unterschiedlichen Zeitpunkten. Infolgedessen weisen solche Verfahren eine unerwünschte zeitliche Verzerrung auf.
  • Es ist möglich, dieses Problem durch ein Verfahren zu überwinden, welches in US-5,483,365 und US-5,789,737 beschrieben wird. Der in US-5,483,365 verwendete Ansatz besteht darin, dass alternative Bildsensorreihen für unterschiedliche Belichtungszeiten verwendet werden. US-5,789,737 lehrt die Verwendung von mehreren Bildelementen (Bildpunkten, Pixels), von welchen jedes eine eigene Empfindlichkeit aufweist. In beiden Fällen ist es möglich, die Helligkeitsinformationen zeitlich gleichzeitig zu erfassen, nicht jedoch am identischen geometrischen Bildelement-Standort. Dies impliziert eine räumliche Untererhebung (engl. „undersampling") und Verzerrung, welche im Falle von so genannten Spitzenhelligkeiten, das heisst lokalisierten sehr hellen Bildelement-Werten besonders unerwünscht ist, welche üblicherweise durch spiegelartige Reflexionen an Objekten am Schauplatz verursacht werden.
  • Ist einmal eine Vielzahl von Bildern bei verschiedenen Belichtungszeiten aufgenommen worden, müssen sie verschmolzen oder vereinigt werden, um ein einziges Stück Bildpunktinformation mit einem breiten dynamischen Bereich zu bilden. Die Patente US-4,647,975, US-5,168,532 und US-5,671,013 lehren, dass die Informationen vom dazu geeignetsten Bild kopiert werden, gemäss einer Auswahlregel. Dieser Wert wird darauf mit einem geeigneten Faktor multipliziert, welcher für die jeweilige Belichtungszeit eine Korrektur bewirkt. Dieses Verfahren funktioniert gut nur im Falle von idealen Bildsensoren mit einem vollständig linearen Bildelementverhalten, unabhängig von der Beleuchtungsstärke und Belichtungszeit. Im Falle von praktisch verwendeten Bildsensoren trifft dies nicht zu, und die resultierende Reaktionskurve (Ausgabewert gegenüber Beleuchtungsstärke) weist Diskontinuitäten auf. Dies ist insbesondere störend, wenn die resultierenden Bilder weiter verarbeitet werden, was zu falschen Konturen und fehlerhaften Kontrastwerten führt. Eine Verbesserung wird durch US-5,517,242 offenbart, welches einen Algorithmus beansprucht, bei welchem jeder Ausgabewert bei jeder Bildelementstelle innerhalb eines bestimmten Helligkeitsbereiches als eine lineare Kombination der Werten bei zwei verschiedenen Belichtungszeiten berechnet wird, korrigiert mittels eines geeigneten Faktors, welcher die verschiedenen Belichtungszeiten kompensiert. Bei allen diesen Verfahren müssen entweder vollständige Bilder gespeichert werden, oder es ist in jedem Bildelement eine komplizierte und oberflächenintensive elektronische Schaltung erforderlich.
  • Es ist das Ziel der Erfindung, die oben aufgeführten Nachteile der Verfahren und Bildsensoren gemäss dem Stand der Technik zu überwinden. Insbesondere soll die Erfindung einen breiten dynamischen Bereich möglich machen, indessen jedoch die Notwendigkeit einer Speicherung von vollständigen Bildern zu vermeiden. Darüber hinaus soll sie die zeitliche und räumliche Verzerrung auf ein Minimum reduzieren. Dieses Problem wird gelöst durch die Erfindung, wie sie in den unabhängigen Ansprüchen definiert wird.
  • Die Erfindung beruht auf der örtlichen Erfassung von Bildelementinformationen für verschiedene Belichtungszeiten gemäss der Gleichung (1). Die Probleme der Notwendigkeit des Speicherns eines vollständigen Bildes und der zeitlichen und räumlichen Erhebung zu verschiedenen Zeitpunkten oder an verschiedenen Orten werden dadurch überwunden, dass ein Typ von Bildsensor verwendet wird, bei welchem es möglich ist, eine Untermenge von Bildelementen (beispielsweise ein einziges Bildelement oder eine Reihe von Bildelementen) einzeln zurückzusetzen und abzulesen. Eine bevorzugte Ausführungsform ist ein Aktiver-Pixel-Sensor-(APS)-Bildelement, welches gemäss mit Standard-CMOS-Technik fabrizierbar ist. Ein APS dieser Art wird beispielsweise beschrieben in E. R. Fossum, "Active Pixel Sensors: Are they Dinosaurs?", Proc. SPIE 1900 (1993) 2–14.
  • Das Verfahren gemäss der Erfindung zur Erzeugung eines Bildes verwendet einen Bildsensor mit einem wirksamen Bereich, welcher eine Vielzahl von Bildelementen enthält. Das Verfahren beinhaltet:
    • a) in n Abfrageläufen, welche auf einer ersten Untermenge von Bildelementen durchgeführt werden, wobei n eine ganze Zahl und n ≥ 2 ist, das Zurücksetzen der ersten Untermenge von Bildelementen, die Belichtung (der ersten Untermenge von Bildelementen (11) und das Auslesen des/der Ausgabewertes/-werte der ersten Untermenge von Bildelementen;
    • b) das Kombinieren besagter Ausgabewerte zu einem ersten kombinierten Ausgabewert);
    • c) die Wiederholung der Schritte a) und b) für mindestens eine zweite Untermengevon Bildelementen.
  • Um eine vollständige Bildinformation zu bekommen, werden die Schritte a) und b) vorzugsweise wiederholt bis jedes Bildelement mindestens einmal ausgelesen worden ist.
  • Es versteht sich, dass die Untermenge weniger Bildelemente enthält als der ganze Bildsensor. Es ist beispielsweise möglich, dass die Untermenge eine Reihe, eine Kolonne oder ein einzelnes Bildelement des Bildsensors ist. Die Untermengen werden vorzugsweise definiert bevor der Schritt a) des Verfahrens durchgeführt wird, indem der wirksame Bereich des Bildsensors aufgeteilt wird. Es ist möglich, dass die Verarbeitung einer Untermenge von Bildelementen die Verarbeitung der nachfolgenden Untermenge von Bildelementen zeitlich überlappt.
  • Bei einer bevorzugten Ausführungsform der Erfindung ist n = 2 für alle Untermengen von Bildelementen, das heisst, jede Untermenge wird zweimal belichtet und zwar mit einer längeren und einer kürzeren Belichtungszeit. Ein erster Rücksetzbefehl wird einem Bildelement oder allen Bildelementen in einer Reihe erteilt. Nach einer ersten langen Belichtungszeit Tlong wird der Ausgabewert/werden die Ausgabewerte Plong des Bildelements oder aller Bildelemente in dieser Reihe ausgelesen und sofort in analoger oder digitaler Form gespeichert. Unmittelbar danach wird das Bildelement oder die Reihe von Bildelementen zurückgesetzt und während einer zweiten kurzen Belichtungszeit Tshort belichtet. Der Ausgabewert /die Ausgabewerte Pshort des Bildelementen oder der Reihe von Bildelementen wird/werden gelesen. Diese Informationen werden wiederum in analoger oder digitaler Form gespeichert oder es ist möglich, dass diese sofort zusammen mit den vorgängig gespeicherten Bildelement- oder Bildelementreihe-Ausgabewerten verarbeitet werden, dies gemäss der unten dargelegten Vorgehensweise. In Abhängigkeit vom gewünschten Wert von Tlong ist es möglich, das Bildelement oder die Bildelementreihe sofort für einen Maximalwert der Belichtungszeit zurückzusetzen oder es/sie zu einem späteren Zeitpunkt zurückzusetzen. Nachdem dieses Bildelement oder diese Bildelementreihe zweimal zurückgesetzt und gelesen worden ist, wird das nächste Bildelement oder die nächste Bildelementreihe auf die gleiche Art und Weise abgefragt.
  • Beim Verfahren gemäss der Erfindung ist das zum Zurücksetzen und Abfragen der Bildelementreihenfolge in einem Bildsensor verwendete Timing wichtig. Das Verhältnis t = Tlong/Tshort wird so gewählt, dass der dynamische Bereich des Bildsensors wesentlich vergrössert wird, wobei jedoch eine Überlappung zwischen den Bildern sichergestellt wird. So ist es, zum Beispiel, möglich, den dynamischen Bereich eines Bildsensors mittels des Verfahrens gemäss der Erfindung von 70 dB auf 110 dB durch Verwendung eines Verhältnisses von t = 100 zu vergrössern. Während der langen Integrationszeit ist es möglich, viele Bildelemente oder Bildelementreihen ein erstes Mal abzufragen und zurückzusetzen, während einem zweiten (viel kürzeren) Zeitintervall zu belichten, abzufragen und ein zweites Mal zurückzusetzen. Diese Operationen werden vorzugsweise während der langen Abfragezeit von einem Bildelement oder von einer Bildelementreihe an allen anderen Bildelementen oder Bildelementreihen durchgeführt, sodass das Verhältnis t = Tlong/Tshort gleich der gesamten Anzahl von Bildelementen oder Bildelementreihen des Bildsensors ist. Im Vergleich mit dem gegenwärtigen Stand der Technik hat dies drei Vorteile. Erstens, zu jedem Zeitpunkt müssen maximal zwei Bildelementreihen gleichzeitig gespeichert werden, und es ist vollkommen unnötig, ganze Bilder vor der Verarbeitung und vor dem Kombinieren der Daten zu erfassen und zu speichern. Zweitens, die kurze Belichtungszeit erfolgt unmittelbar nach der langen, welches effektiv eine quasi unmittelbare Belichtung sicherstellt. Drittens, der gleiche Bildelementstandort wird für die Erfassung der Bilddaten für die verschiedenen Belichtungszeiten verwendet, wodurch es nicht möglich ist, dass eine räumliche Verzerrung stattfindet.
  • Während der ersten langen Belichtungszeit werden dunkle Objekte detektiert, während sehr helle Objekte nicht detektiert werden aufgrund der Sättigung der entsprechenden Bildelemente; während der zweiten kurzen Belichtungszeit werden helle Objekte detektiert, während sehr dunkle Objekte nicht detektiert werden aufgrund eines zu schwachen Signals. Gemäss der Erfindung werden die Ausgabesignale beider Belichtungen auf eine geeignete Weise kombiniert, um dadurch den dynamischen Bereich des Bildsensors zu vergrössern. Wegen Unvollkommenheiten bei der praktischen Umsetzung des oben beschriebenen Verfahrens und der oben beschriebenen Vorrichtung stehen die beiden für die beiden Belichtungszeiten gemessenen Bildelement-Ausgabewerte Plong und Pshort nicht idealerweise durch das Verhältnis t = Tlong/Tshort miteinander in Beziehung, das heisst, Plong wird nahe bei, jedoch nicht identisch zu, tPshort sein. Aus diesem Grund wird ein Algorithmus benötigt, welcher die beiden Werte auf eine Art und Weise kombiniert, die nicht zu Artefakten bei den nachfolgenden Bildverarbeitungs- und Bildinterpretationsverfahren führt. Aus diesem Grunde ist es wichtig, dass ein Verfahren gefunden wird, welches einen gleichförmigen, weichen Übergang von mit langen Belichtungszeiten ermittelten Werten zu mit kurzen Belichtungszeiten ermittelten Werten sicherstellt.
  • Die Erfindung umfasst das folgende Verfahren zum Erreichen dieses Zieles. Für jedes Bildelement oder für jede Bildelementreihe werden die beiden Bildelementausgabewerte Plong und Pshort durch die Verwendung einer Vereinigungsfunktion f(x1,x2) zu einem einzigen Wert Pout verarbeitet: Pout = f(Plong, t·Pshort)
  • Die Vereinigungsfunktion f(x1,x2) ist vorzugsweise wahrhaft monoton, kontinuierlich und kontinuierlich differenzierbar in beiden unabhängigen Variablen x1 und x2. Sie sollte die folgenden Eigenschaften aufweisen:
    • (i) f(x1,x2) = x1 für x1 ≤ xlow
    • (ii) f(x1,x2) = x2 für x1 ≥ xup, wo 0 ≤ xlow < xup
    • (iii) f(x1,x2) steigt wahrhaft monoton in x1 und x2 an für xlow < x1 < xup
  • Mit anderen Worten, die Vereinigungsfunktion f(x1,x2) gehorcht vorzugsweise die folgenden Regeln:
    • (i) Vorzug wird dem Ausgabewert x1 gegeben, welcher von der langen Belichtung erhalten worden ist, wenn die Ausgabewerte x1,x2 oder eine geeignete Kombination der Ausgabewerte x1,x2, beispielsweise ihr Durchschnitt (x1 + x2)/2, unter einem gegebenen unteren Grenzwert xlow liegen;
    • (ii) Vorzug wird dem Ausgabewert x2 gegeben, welcher von der kürzeren Belichtung erhalten worden ist, wenn die Ausgabewerte x1,x2 oder eine geeignete Kombination der Ausgabewerte x1,x2, beispielsweise ihr Durchschnitt (x1 + x2)/2, über einem gegebenen oberen Grenzwert xup liegen;
    • (iii) Die Vereinigungsfunktion f(x1,x2) steigt in den Ausgabewerten x1,x2 wahrhaft monoton an, wenn die Ausgabewerte x1,x2 zwischen dem unteren Grenzwert xlow und dem oberen Grenzwert xup liegen.
  • Die Parameter xlow und xup werden gemäss den folgenden Kriterien gewählt:
    • • Die untere Grenze xlow ist durch die minimale Beleuchtung gegeben, welche für die kürzere Belichtung benötigt wird. Bei einer schwächeren Beleuchtung entspricht die Sensorausgabe im Wesentlichen dem Rauschen und kann nicht interpretiert werden.
    • • Die obere Grenze xup entspricht dem Ausgangswert, welcher für die maximal zulässige Lichtintensität für die lange Belichtung berechnet worden ist. Bei einer stärkeren Beleuchtung zeigt der Sensor zuerst ein nicht-lineares Ansprechen und wird schliesslich gesättigt sein.
  • Die Parameter xup, xlow weisen entweder voreingestellte Werte auf oder können über die Zeit variieren, z.B., sie werden aufgrund früherer Ausgabesignale bestimmt und gleichen sich so der eigentlichen Beleuchtung des Bildsensors an.
  • Ein bevorzugtes Beispiel einer Vereinigungsfunktion f(x1,x2) für den Bereich xlow < x1 < xup ist die folgende: f(x1,x2) = [cx1 2 + (1 – c)x2 2]½ mit c = (x1 – xup)/(xlow – xup).
  • Die Vereinigungsfunktion weist die folgenden wünschenswerten Eigenschaften auf: Sie gibt dem Wert x1 eine erhöhte Präferenz, wenn x1 nahe bei xlow liegt, und sie gibt dem Wert x2 eine erhöhte Präferenz, wenn x1 nahe bei xup liegt. Sie ist wahrhaft monoton, kontinuierlich und in x1 und x2 kontinuierlich differenzierbar, hemmt Streifenbildung und diskontinuierliche Sprünge bei nachfolgenden Algorithmen, welche die erste räumliche Ableitung der örtlichen Helligkeitswerte berechnen und verwenden. Darüber hinaus ist sie in x1 und x2 symmetrisch.
  • Die obigen Überlegungen für ein Beispiel mit zwei Abfrageläufen, das heisst, n = 2, können für den Fall verallgemeinert werden, bei dem n ≥ 2 ist. Dann wird eine Vereinigungsfunktion f(x1, ....., xn) verwendet, um die n Ausgangswerte P1, ..., Pn zu einem einzigen Wert Pout gemäss der folgenden Formel zu kombinieren: Pout = f(P1, t2·P2, ..., tn·Pn)wobei t2, ...., tn geeignete Skalierungsfaktoren sind.
  • Es ist möglich, die Vereinigungsfunktion entweder in einer digitalen Mehrzweck-Recheneinheit, einer besonders dafür bestimmten digitalen oder analogen Recheneinheit, die vorzugsweise auf dem gleichen Chip wie der Sensor angeordnet ist, auszuwerten, oder die Vereinigungsfunktion mittels einer Nachschlagtabelle zu realisieren, dies entweder teilweise oder vollständig.
  • Der Bildsensor gemäss der Erfindung weist einen wirksamen Bereich auf, welcher eine Vielzahl von Bildelementen umfasst, wobei mindestens zwei Untermengen von Bildelementen einzeln abgefragt werden können, das heisst es ist möglich, diese einzeln zurückzusetzen und auszulesen. Der Bildsensor weist des weiteren Mittel für die individuelle Abfrage von Untermengen von Bildelementen auf, Mittel für die Kombination der Ausgabewerte von diesen Untermengen zu kombinierten Ausgangswerten, sowie Mittel für die elektrische Ausgabe dieser kombinierten Ausgabewerte.
  • Im Folgenden werden die Erfindung und eine bevorzugte Ausführungsform von dieser mit Bezugnahme auf die Zeichnungen genauer beschrieben, wobei:
  • 1 den Ausgabewert eines Bildelements im Verfahren gemäss der Erfindung zeigt;
  • 2 die Architektur eines Bildsensors zeigt, welcher für das Verfahren gemäss der Erfindung geeignet ist;
  • 3 ein Ablaufdiagramm des Verfahrens gemäss der Erfindung zeigt; und
  • 4 eine Ausgabecharakteristik eines Mehrfachbelichtungs-Bildsensors gemäss der Erfindung zeigt.
  • 1 zeigt schematisch den Ausgang P eines gegebenen Bildelements in Funktion der Zeit T beim Verfahren gemäss der Erfindung. Die Figur illustriert ein Beispiel, bei welchem zwei Belichtungen, eine erste Belichtung 31 mit einer langen Belichtungszeit Tlong und eine zweite Belichtung 34 mit einer kurzen Belichtungszeit Tshort an jeder Untermenge von Bildelementen durchgeführt werden. Nach der ersten Belichtung 31 wird der Bildelementausgabewert ausgelesen 32 und ein erstes Mal zurückgesetzt 33. Ein zweites Auzsesen 35 und, wahlweise, ein zweites Zurücksetzen 36 werden im Anschluss an die zweite Belichtung 34 durchgeführt. Daraufhin ist das Bildelement für einen weiteren Abfragezyklus bereit. Es versteht sich, dass andere Varianten des Verfahrens möglich sind, bei welchen, zum Beispiel die erste Belichtungszeit die kürzere ist und die zweite die längere, oder bei welchen mehr als zwei Belichtungen während eines Abfragezyklus' durchgeführt werden.
  • 2 zeigt ein Schema der Architektur eines Bildsensors, welcher dazu geeignet ist, das Verfahren gemäss der Erfindung durchzuführen. In dieser beispielhaften Ausführungsform weist der Bildsensor eine wirksame Oberfläche 1 auf, bestehend aus einer Matrix von 256 × 256 Bildelementen 10, 10', ... angeordnet in Reihen 11, 11', .... und Spalten 12, 12', .... . Ein Reihen-Adressdekodierer 2 und ein Rücksetzungs-Adressdekodierer 3 stehen für die Reihen 11, 11', .... zur Verfügung. Der Rücksetzungs-Adressdekodierer hat die Funktion eines elektronischen Reihenverschlusses. Ein Spalten-Treiber 4 und ein Spalten-Adressdekodierer 5 stehen für die Spalten 12, 12', ... zur Verfügung. Die Bildsignale werden über einen Video-Ausgang 6 ausgegeben.
  • Mit Bezugnahme auf den Bildsensor von 2 zeigt die 3 ein Ablaufdiagramm einer bevorzugten Ausführungsform des Verfahrens gemäss dem gegenwärtigen Stand der Technik. Eine Lesesequenz für ein Gesamtbild mit zwei Belichtungen (siehe 1) ist dargestellt. Bei dieser Ausführungsform sind die Untermengen von Bildelementen die 256 Reihen 11, 11' .... des Bildsensors, jede Untermenge besteht daher aus 256 Bildelementen 10, 10', .... . Die erste abzufragende Untermenge ist beispielsweise die Reihe Nr. 255. Ein erster Rücksetzungsbefehl 21 wird an alle Bildelemente in der Reihe Nr. 255 erteilt. Nach einer ersten, langen Belichtungszeit 22 werden die Ausgabewerte Plong (255,255) bis Plong (255,0) von allen 256 Bildelementen in dieser Reine Nr. 255 ausgelesen 23 und sofort in analoger oder digitaler Form gespeichert. Unmittelbar danach wird die Reihe Nr. 255 zurückgesetzt 25 und während einer zweiten, kurzen Belichtungszeit 26 belichtet. Die Ausgangswerte Pshort (255,255) bis Pshort (255,0) von allen 256 Bildelementen werden ausgelesen 27. Diese Informationen werden wiederum in analoger oder digitaler Form gespeichert, oder es ist möglich, diese zusammen mit den vorgängig gespeicherten Ausgabewerten Plong (255,255) bis Plong (255,0) sofort zu verarbeiten. Nachdem die Reihe Nr. 255 zweimal zurückgesetzt und gelesen worden ist, wird die nächste Reihe Nummer 254 auf die gleiche Art und Weise abgefragt; die entsprechenden Elemente in 3 sind mit den gleichen Referenznummern wie bei der Reihe Nr. 255 und zusätzlichen Apostrophen benannt, beispielsweise steht die Referenznummer 21' für einen ersten Zurücksetzungsbefehl an alle Bildelemente in der Reihe Nr. 254. Diese Schritte werden für jede Reihe durchgeführt, abschliessend mit der Reihe Nr. 0. Darauf ist jedes Bildelement einmal ausgelesen worden, in zwei Abfrageläufen, und ein erstes vollständiges Bild kann aus den verarbeiteten Ausgabewerten P out (255) bis P out (0) aufgebaut werden 29. Dieses Vorgehen kann so viele Male wie gewünscht wiederholt werden.
  • 4 zeigt schematisch eine Ausgabecharakteristik eines Mehrfachbelichtungs-Bildsensors gemäss der Erfindung, das heisst Ausgabewerte P als Funktionen der Lichtintensität I. Wiederum wird eine beispielhafte Ausführungsform mit zwei Belichtungen besprochen. Ein erster Graph 41 in 4 stellt die Ausgabe Plong für die lange Belichtung dar. Für kleine Intensitäten steigt Plong linear mit der Intensität I an; über einem oberen Grenzwert xup flacht die Kurve infolge Sättigung ab. Ein zweiter Graph 42 in 4 stellt die Ausgabe Pshort für die kurze Belichtung dar, und zwar multipliziert mit einem Skalierungsfaktor t, das heisst t·Pshort. Unter einer unteren Grenze xlow ist das Signal zu schwach und daher nutzlos; bei höheren Intensitäten steigt t·Pshort linear mit der Intensität I an. Ein dritter Graph 43 in 4 illustriert ein Beispiel eines kombinierten Ausgabewerts Pout = f(Plong, t·Pshort)
  • Die Vereinigungsfunktion f(x1,x2) weist die folgenden Eigenschaften auf:
    • (i) f(x1,x2) = x1 für x1 ≤ xlow
    • (ii) f(x1,x2) = X2 für x1 ≥ xup, wo 0 ≤ xlow < xup
    • (iii) f(x1,x2) steigt wahrhaft monoton in x1 und x2 an für xlow < x1 < xup
  • Diese Vereinigungsfunktion gibt dem Wert x1 eine erhöhte Präferenz, wenn x1 sich nahe bei xlow befindet, und sie gibt dem Wert x2 eine erhöhte Präferenz, wenn x1 sich nahe bei xup befindet. Aus diesem Grunde zeigt Pout einen weichen Übergang vom Bereich der langen Belichtung zum skalierten Bereich der kurzen Belichtung.
  • Die Erfindung ist nicht auf die oben beschriebenen vorgezogenen Ausführungsformen beschränkt, von welchen es möglich ist, Variationen und Verbesserungen zu erstellen, ohne dass dadurch vom Umfang des Schutzes des vorliegenden Patentes abgewichen wird, wie dies in den beigefügten Patentansprüchen dargelegt wird.

Claims (15)

  1. Verfahren zur Erzeugung eines Bildes mittels eines Bildsensors mit einem wirksamen Bereich (1), der eine Vielzahl von Bildelementen (10, 10', ...) enthält, aufweisend a) in n Abfrageläufen, welche auf einer ersten Untermenge (11) von Bildelementen durchgeführt werden, wobei n eine ganze Zahl und n ≥ 2 ist, das Zurücksetzen (21, 25) der ersten Untermenge von Bildelementen (11), die Belichtung (22, 26) der ersten Untermenge von Bildelementen (11) und das Auslesen (23, 27) des Ausgabewertes/der Ausgabewerte (P (255) long, P (255) short) der ersten Untermenge (11) von Bildelementen; b) das Kombinieren besagter Ausgabewerte (P (255) long, P (255) short) zu einem ersten kombinierten Ausgabewert (P (255) out); c) die Wiederholung der Schritte a) und b) für mindestens eine zweite Untermenge (11') von Bildelementen.
  2. Verfahren nach Anspruch 1, wobei besagte Untermengen Reihen (11, 11', ...), Spalten (12, 12', ...) oder einzelne Bildelemente (10, 10', ...) des Bildsensors sind.
  3. Verfahren nach Anspruch 1 oder 2, wobei vor dem Schritt a) der wirksame Bereich (1) des Bildsensors in Untermengen (11, 11', ...) mit gleicher Anzahl (256) von Bildelementen (10, 10', ...) unterteilt wird.
  4. Verfahren nach einem der Ansprüche 1 bis 3, wobei beim Schritt a) mindestens einer der besagten Ausgabewerte (P (255) long) gespeichert (24, 24', ...) wird.
  5. Verfahren nach einem der Ansprüche 1 bis 4, wobei die Schritte a) und b) wiederholt werden, bis jedes Bildelement (10, 10', ...) mindestens einmal ausgelesen worden ist.
  6. Verfahren nach einem der Ansprüche 1 bis 5, wobei die Verarbeitung einer Untermenge (11) von Bildelementen sich zeitlich mit der Verarbeitung der folgenden Untermenge (11') von Bildelementen überschneidet.
  7. Verfahren nach einem der Ansprüche 1 bis 6, wobei n = 2 ist für alle Untermengen (11, 11', ...) von Bildelementen.
  8. Verfahren nach Anspruch 7, wobei beim Schritt a) eine längere Belichtung (22, 22', ...) und eine kürzere Belichtung (26, 26', ...) durchgeführt werden.
  9. Verfahren nach Anspruch 8, wobei während der besagten längeren Belichtung (22) einer Untermenge (11) Schritte b) für alle anderen Untermengen (11', ...) durchgeführt werden.
  10. Verfahren nach einem der Ansprüche 1 bis 9, wobei beim Schritt b) besagte Ausgabewerte (P1, ..., Pn) zu einem kombinierten Ausgabewert (Pout) kombiniert werden mittels einer Vereinigungsfunktion (f(x1, ..., xn)), welche echt monoton, kontinuierlich und bei allen besagten Ausgabewerten kontinuierlich (P1, ..., Pn) differenzierbar ist.
  11. Verfahren nach Anspruch 10 und einem der Ansprüche 8 oder 9, wobei besagte Vereinigungsfunktion (f(x1,x2)) die folgenden Eigenschaften aufweist: (i) Präferenz wird demjenigen Ausgabewert (x1) gegeben, welcher von der längeren Belichtung (22, 22', ...) erhalten worden ist, wenn besagte Ausgabewerte (x1, x2) oder eine Kombination von besagten Ausgabewerten ((x1 + x2)/2) unter einer gegebenen unteren Grenze (xlow) liegen; (ii) Präferenz wird demjenigen Ausgabewert (x1) gegeben, welcher aus der kürzeren Belichtung (26, 26', ...) erhalten worden ist, wenn besagte Ausgabewerte (x1, x2) oder eine Kombination von besagten Ausgabewerten ((x1 + x2)/2) über einer gegebenen oberen Grenze (xup) liegen; (iii) besagte Vereinigungsfunktion (f(x1,x2) steigt bei besagten Ausgabewerten (x1, x2) echt monoton an, wenn besagte Ausgabewerte (x1, x2) zwischen besagter unteren Grenze (xlow) und besagter oberen Grenze (xup) liegen.
  12. Verfahren nach Anspruch 11, wobei besagte Vereinigungsfunktion (f(x1, x2)) definiert ist durch f(x1, x2) = [cx1 2 + (1 – c)x2 2]½ mit c = (x1 – xup)/(xlow – xup)für xlow < x1 < xup.
  13. Bildsensor, aufweisend einen wirksamen Bereich (1 ), der eine Vielzahl von Bildelementen (10, 10', ...) enthält, wobei mindestens zwei Untermengen (11, 11', ...) von Bildelementen eine individuelle Abfrage ermöglichen; Mittel zur Durchführung, bei n Abfrageläufen ausgeführt auf eine Untermenge (11) von Bildelementen, wobei n eine ganze Zahl ist und n ≥ 2 ist, des Rücksetzen (21, 25) besagter Untermenge von Bildelementen (11), der Belichtung (22, 26) besagter Untermenge (11) von Bildelementen und des Auslesens (23, 27) des Ausgabewertes/der Ausgabewerte (P (255) long, P (255) short) besagter Untermenge (11) von Bildelementen; Mittel zur Kombination besagter Ausgabewerte (P (255) long, P (255) short) zu einem kombinierten Ausgabewert (P (255)out: und Wiederhol-Mittel zum Betreiben der vorhergehenden Mittel, um diese auf jede der besagten Untermengen (11') von Bildelementen anzuwenden.
  14. Bildsensor nach Anspruch 13, wobei besagter Bildsensor ein aktiver Pixel-Sensor (APS) ist.
  15. Bildsensor nach einem der Ansprüche 13 oder 14, wobei besagte Ausgabewerte (Plong, Pshort) kombiniert werden unter Verwendung einer digitalen Mehrzweck-Recheneinheit, einer speziell dafür vorgesehenen digitalen oder analogen Recheneinheit oder einer Nachschlagtabelle.
DE69833998T 1998-11-18 1998-11-18 Bilderzeugungsverfahren und -vorrichtung Expired - Lifetime DE69833998T2 (de)

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
EP98121897A EP1003329B1 (de) 1998-11-18 1998-11-18 Bilderzeugungsverfahren und -vorrichtung

Publications (2)

Publication Number Publication Date
DE69833998D1 DE69833998D1 (de) 2006-05-18
DE69833998T2 true DE69833998T2 (de) 2007-04-05

Family

ID=8232990

Family Applications (1)

Application Number Title Priority Date Filing Date
DE69833998T Expired - Lifetime DE69833998T2 (de) 1998-11-18 1998-11-18 Bilderzeugungsverfahren und -vorrichtung

Country Status (3)

Country Link
US (1) US6927793B1 (de)
EP (1) EP1003329B1 (de)
DE (1) DE69833998T2 (de)

Families Citing this family (22)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE10064184C1 (de) * 2000-12-22 2002-04-04 Fraunhofer Ges Forschung Verfahren und Vorrichtung zur Bilderzeugung unter Verwendung mehrerer Belichtungszeiten
US7079178B2 (en) * 2001-02-20 2006-07-18 Jaroslav Hynecek High dynamic range active pixel CMOS image sensor and data processing system incorporating adaptive pixel reset
ATE396499T1 (de) 2001-10-16 2008-06-15 Suisse Electronique Microtech Photodetektor mit grossem dynamikbereich und erhöhtem arbeitstemperaturbereich
US7071982B2 (en) * 2001-10-24 2006-07-04 Texas Instruments Incorporated Adaptive relative and absolute address coding CMOS imager technique and system architecture
US8054357B2 (en) * 2001-11-06 2011-11-08 Candela Microsystems, Inc. Image sensor with time overlapping image output
EP1460838A1 (de) 2003-03-18 2004-09-22 Thomson Licensing S.A. Bildaufnahmevorrichtung, Verfahren zur Steuerung solcher Vorrichtung und elektrisches Signal erzeugt von einer solchen Vorrichtung
US7315656B2 (en) * 2003-05-22 2008-01-01 The Boeing Company Methods and apparatus for enhanced viewing of aerial refueling operations
JP4392492B2 (ja) * 2003-06-02 2010-01-06 国立大学法人静岡大学 広ダイナミックレンジイメージセンサ
US7554588B2 (en) * 2005-02-01 2009-06-30 TransChip Israel, Ltd. Dual exposure for image sensor
EP1763220A1 (de) 2005-09-07 2007-03-14 CSEM Centre Suisse d'Electronique et de Microtechnique SA Festkörperbildsensor mit hoher Empfindlichkeit und erweitertem Dynamikbereich
KR100809345B1 (ko) 2006-06-16 2008-03-05 삼성전자주식회사 영상 생성 장치 및 방법
JP4293210B2 (ja) * 2006-08-18 2009-07-08 ソニー株式会社 物理量検出装置、物理量検出装置の駆動方法、固体撮像装置、固体撮像装置の駆動方法、及び撮像装置
US8026966B2 (en) 2006-08-29 2011-09-27 Micron Technology, Inc. Method, apparatus and system providing a storage gate pixel with high dynamic range
US7616243B2 (en) * 2007-03-07 2009-11-10 Altasens, Inc. Method and apparatus for improving and controlling dynamic range in an image sensor
US20090073293A1 (en) * 2007-06-27 2009-03-19 Yoel Yaffe CMOS image sensors with increased dynamic range and methods of operating the same
US20090002535A1 (en) * 2007-06-27 2009-01-01 Arizona Board Of Regents On Behalf Of Arizona State University Offset-compensated self-reset cmos image sensors
US20090059039A1 (en) * 2007-08-31 2009-03-05 Micron Technology, Inc. Method and apparatus for combining multi-exposure image data
JP5138521B2 (ja) * 2008-09-19 2013-02-06 富士フイルム株式会社 撮像装置及び撮像方法
CN101909157B (zh) * 2009-06-05 2012-09-05 比亚迪股份有限公司 在图像传感器中获得高动态范围图像的方法及图像传感器
CN102695003B (zh) * 2011-03-25 2015-11-25 比亚迪股份有限公司 用于图像传感器的图像获取方法及图像传感器
CN104486557B (zh) * 2014-12-29 2018-04-06 上海集成电路研发中心有限公司 在图像采集过程中插入短帧的系统及方法
CN108055484B (zh) * 2017-12-14 2021-04-02 豪威科技(上海)有限公司 序列转换模块、高动态范围图像序列转换模块及转换方法

Family Cites Families (15)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US4647975A (en) * 1985-10-30 1987-03-03 Polaroid Corporation Exposure control system for an electronic imaging camera having increased dynamic range
US4734776A (en) * 1986-08-15 1988-03-29 General Electric Company Readout circuit for an optical sensing charge injection device facilitating an extended dynamic range
IL87306A0 (en) * 1988-08-02 1989-01-31 Technion Res & Dev Foundation Wide dynamic range camera
EP0387817A3 (de) * 1989-03-16 1991-12-11 Konica Corporation Elektronische Standbild-Kamera
JP3528184B2 (ja) * 1991-10-31 2004-05-17 ソニー株式会社 画像信号の輝度補正装置及び輝度補正方法
US5309243A (en) * 1992-06-10 1994-05-03 Eastman Kodak Company Method and apparatus for extending the dynamic range of an electronic imaging system
KR0149737B1 (ko) * 1993-07-20 1998-10-15 사토 후미오 고체촬상장치
US6204881B1 (en) * 1993-10-10 2001-03-20 Canon Kabushiki Kaisha Image data processing apparatus which can combine a plurality of images at different exposures into an image with a wider dynamic range
US6493025B1 (en) * 1995-10-05 2002-12-10 Sanyo Electronic Co., Ltd. Image sensing system equipped with interface between image sensing apparatus and computer machinery
JP3962431B2 (ja) * 1995-11-07 2007-08-22 カリフォルニア インスティチュート オブ テクノロジー 高ダイナミックレンジのリニア出力を有する画像センサ
JPH10108081A (ja) * 1996-10-02 1998-04-24 Sony Corp 固体撮像装置およびその信号処理方法並びにカメラ
US6175383B1 (en) * 1996-11-07 2001-01-16 California Institute Of Technology Method and apparatus of high dynamic range image sensor with individual pixel reset
US6011251A (en) * 1997-06-04 2000-01-04 Imec Method for obtaining a high dynamic range read-out signal of a CMOS-based pixel structure and such CMOS-based pixel structure
JPH10243296A (ja) * 1997-02-26 1998-09-11 Nikon Corp 撮像装置、および撮像装置の駆動方法
US6677992B1 (en) * 1997-10-23 2004-01-13 Olympus Corporation Imaging apparatus offering dynamic range that is expandable by weighting two image signals produced during different exposure times with two coefficients whose sum is 1 and adding them up

Also Published As

Publication number Publication date
US6927793B1 (en) 2005-08-09
EP1003329A1 (de) 2000-05-24
EP1003329B1 (de) 2006-03-29
DE69833998D1 (de) 2006-05-18

Similar Documents

Publication Publication Date Title
DE69833998T2 (de) Bilderzeugungsverfahren und -vorrichtung
DE60311107T2 (de) Linear-logarithmisches aktives pixel mit grossem dynamikbereich
EP0864223B1 (de) Lokalautoadaptiver optischer sensor
DE60308242T2 (de) Bildaufnahmevorrichtung
DE60223860T2 (de) Aktiver Bildsensor mit grossem Dynamikbereich
DE69816126T2 (de) Optischer sensor mit breitem dynamischem bereich
DE3687877T2 (de) Kamera und verfahren zur bilderzeugung.
DE60030802T2 (de) Bildsensor mit Messsung der Sättigungszeitmessung zur Erweiterung des Dynamikbereichs
DE68928999T2 (de) Kamera mit breitem dynamischem bereich
DE60104508T2 (de) Verfahren und vorrichtung zum erzeugen eines bildes geringer auflösung aus einem spärlich abgetasteten bild mit erweitertem dynamikbereich
DE69827529T2 (de) Entfernungsmessung mittels kamera
DE3632487C2 (de)
DE19737330C2 (de) Abbildungssystem und Verfahren zum Betreiben desselben
DE60104632T2 (de) Verfahren und System zur Rauschbeseitigung für ein spärlich abgetastetes Bild mit erweitertem Dynamikbereich
DE69831071T2 (de) Cmos bildsensor mit verbessertem füllfaktor
DE69631356T2 (de) Halbleiter-Bildaufnehmer mit gemeinsamer Ausgangsleistung
DE69704896T2 (de) Kamera mit digitaler und analoger Klemmschaltung
DE102006055912B4 (de) Bildaufnahmevorrichtung und Rauschminderungsverfahren dafür
DE102016218843A1 (de) Bilderzeugungspixel mit hohem Dynamikumfang mit verbesserter Auslesung
DE102016218838A1 (de) Bilderzeugungspixel mit hohem Dynamikumfang mit verbesserter Auslesung
DE102020004050A1 (de) Verfahren und schaltungsanordnungen zur verbesserung der global-shutter-effizienz bei rückseitig beleuchteten bildsensorpixeln mit hohem dynamikumfang
DE4329839A1 (de) Abbildungseinrichtung mit zwei Bildsensoren
DE10239889A1 (de) Verfahren zum Reduzieren von kohärentem zeilenweisen und spaltenweisen Festmusterrauschen bei CMOS-Bildsensoren
EP1237357A2 (de) Digitalkamera mit CMOS-Bildsensor verbesserter Dynamik und Verfahren zum Ansteuern eines CMOS-Bildsensors
DE69805555T2 (de) Verfahren zur Erzeugung eines Auslegesignals einer auf CMOS basierender Pixelstruktur und eine solche auf CMOS basierender Pixelstruktur

Legal Events

Date Code Title Description
8364 No opposition during term of opposition
8327 Change in the person/name/address of the patent owner

Owner name: PHOTONFOCUS AG, LACHEN, CH