-
Technisches Gebiet
-
Die Erfindung betrifft ein Verfahren zur optischen Vermessung der dreidimensionalen Geometrie von Objekten und befasst sich mit dem Problem der Verwacklung bei mittels streifenprojektionsbasierten Messmethoden gewonnenen 3D-Daten eines Aufnahmeobjekts sowie mit der Aufgabenstellung der 3D-Vermessung bei relativer Bewegung zwischen der Kamera und dem Objekt während des Messprozesses, insbesondere für zahnmedizinische Zwecke.
-
Stand der Technik
-
Durch eine optische 3D-Vermessung eines oder mehrerer Zähne im Mund eines Patienten können digitale Konstruktionsdaten für die rechnergesteuerte Anfertigung von Zahnersatz ohne die Erstellung eines herkömmlichen Abdrucks gewonnen werden.
-
Für diese Vermessung werden oft Messmethoden verwendet, die auf dem Prinzip der Triangulation basieren. Aus der
EP 0 160 797 ist eine Phase-Shifting-Triangulation bekannt, bei der aus mehreren Aufnahmen mit einem jeweils von einer Aufnahme zum anderen versetzt angeordneten Raster ein 3D-Datensatz gewonnen wird.
-
Bei bekannten Triangulationsverfahren wird von einer Projektionseinrichtung ein einzelner gerader Lichtstrich auf das aufzunehmende Objekt aufprojiziert und das projizierte Bild wird unter einem in Beobachtungsrichtung liegenden Parallaxe-Winkel y mit einer Kamera aufgenommen, so dass eine Aufnahme P vorliegt.
-
Abhängig von der Oberflächenstruktur des Objekts erscheint der Lichtstrich nicht mehr gerade, sondern gegenüber dem geraden Verlauf gekrümmt und verschoben. Aus der Lage und aus dem Verlauf des Lichtstrichs kann auf die Oberflächenstruktur des Aufnahmeobjekts geschlossen werden.
-
Durch ein Verschieben des Lichtstrichs in einer Richtung senkrecht zur Erstreckungsrichtung des Lichtstrichs kann das gesamte Aufnahmeobjekt abgetastet werden, sodass Aufnahmen P1 bis PN entstehen. Die aus jeder der Aufnahmen gewonnenen Höheninformationen des Aufnahmeobjekts können in einem zweidimensionalen Raster im Speicher eines Rechners abgespeichert werden, was einer Projektion der Höheninformationen der Oberfläche des Aufnahmeobjekts auf eine Grundfläche als Referenzebene entspricht. Nach dem Messvorgang liegt ein digitales 3-dimensionales Datenmodell des Aufnahmeobjekts vor, welches z. B. auf einem Monitor als Videostandbild dargestellt werden kann.
-
Aus der Schrift
WO 2004/085956 A2 ist ein Verfahren zur Erstellung eines 3-dimensionalen Bildes eines Aufnahmeobjekts bekannt, welches die zuletzt beschriebene Messmethode dahingehend verbessert, dass während einer Aufnahme Pi die Oberflächenstruktur des Aufnahmeobjekts praktisch gleichzeitig vermessen wird.
-
Der Lichtstrich kann z. B. durch schnelles Bewegen des Lichtstrahls eines Lasers während der Dauer einer Aufnahme erzeugt werden, d. h. der Lichtstrich ist eigentlich aus Lichtpunkten aufgebaut. Während einer Aufnahme Pi wird also ein punktförmiger Lichtstrahl eines Lasers entlang eines 2-dimensionalen Lichtstreifenmusters, bei dem zumindest ein Teil der Lichtstreifen im wesentlichen parallel zueinander, also in einer Richtung R1, verlaufen, über das Aufnahmeobjekt geführt. Zwischen den Lichtstreifen ist dabei ein Zwischenraum vorgesehen.
-
Während einer Aufnahme werden im wesentlichen die Höheninformation des Aufnahmeobjekts entlang mehrerer paralleler, beabstandeter Lichtstreifenstücke oder Striche erfasst.
-
Damit liegen nach einer Aufnahme bereits die Höheninformationen des Aufnahmeobjekts in einer ersten Gruppe von mehreren, beabstandeten Zeilen des 2-dimensionalen Rasters des zu erstellenden 3D-Datensatzes vor.
-
Der Tangentialvektor an die Lichtstreifenstücke steht dabei nicht senkrecht zur Triangulationsebene, welche durch die Projektionsrichtung und die Aufnahmerichtung definiert ist.
-
Während der nächsten Aufnahmen wird der Laserstrahl entlang des vorzugsweise selben Lichtstreifenmusters geführt, jedoch räumlich jeweils gegenüber den vorherigen Aufnahmen etwas in einer Richtung senkrecht zu den parallelen Lichtstreifen in den Zwischenraum der ersten Aufnahme parallelverschoben, so dass jeweils ein anderer, benachbarter Teil des Aufnahmeobjektes erfasst wird. Damit liegen nach jeder Aufnahme die Höheninformationen des Aufnahmeobjekts in einer anderen Gruppe von zueinander beabstandeten Zeilen des 2-dimensionalen Rasters vor.
-
Durch mehrere, entsprechend aufeinander abgestimmte Aufnahmen mit jeweils etwas senkrecht zur Lichtstreifenrichtung versetztem Lichtstreifenmuster kann das gesamte Aufnahmeobjekt durch den Laser abgetastet werden, bis nach mehreren Aufnahmen die vollständige Oberflächenstruktur des Aufnahmeobjekts erfasst ist. Um die gewünschte Genauigkeit der Oberflächenvermessung zu gewährleisten, müssen genügend entsprechend dicht beieinander liegende Scheiben erfasst werden. Durch Zusammenfügen der Aufnahmen liegen für jede Zeile des 2-dimensionalen Rasters die Höheninformationen des Aufnahmeobjekts vor.
-
Bei den beiden beschriebenen Verfahren der während jeweils einer Aufnahme quasi-statischen Streifenprojektion mit einem Strich pro Aufnahme oder mit mehreren beabstandeten Strichen pro Aufnahme, wie aus der
WO 2004/085956 A2 bekannt, werden die mittels der einzelnen Aufnahmen gewonnenen unabhängigen Höheninformationen zu einem Gesamtfeld zusammengeführt, welches die Gesamtheit der gewonnenen 3D-Daten des Aufnahmeobjekts beschreibt bzw. beinhaltet.
-
Kommt es zwischen den einzelnen Aufnahmen zu einer Veränderung der Orientierung zwischen Kamera und Objekt, etwa durch ein Verwackeln, so sind die Koordinatensysteme der Aufnahmen nicht mehr gleich. Da die Änderung der Orientierung zwischen Kamera und Objekt aber unbekannt ist, können die 2-dimensionalen Raster der Aufnahmen Pi nicht korrekt in ein gemeinsames 2-dimensionales Raster des Gesamtfeldes, welches z. B. gleich dem Koordinatensystem der ersten Aufnahme gewählt wird, zusammengefügt werden.
-
Für diese Vermessung bedeutet ein Verwackeln, dass die in den Einzelaufnahmen vermessenen Scheiben des Aufnahmeobjektes von einer Aufnahme zur nächsten Aufnahme nicht mehr parallel zueinander sind.
-
Fügt man die in den Zeilen der 2-dimensionalen Raster der in den verwackelten Einzelaufnahmen enthaltenen Höheninformationen in ein gemeinsames 2-dimensionales Raster zusammen, so ergibt sich eine fehlerhafte Oberflächenstruktur des Aufnahmeobjekts.
-
Um die Aufnahmen dennoch korrekt in ein gemeinsames 2-dimensionales Raster zusammenfügen zu können und ein korrektes 3D-Bild des Aufnahmeobjekts zu erhalten, ist es notwendig die Koordinatentransformationen zu bestimmen, welche die Koordinatensysteme der Einzelaufnahmen auf ein gemeinsames Koordinatensystem abbilden. Dazu müssen die Ausrichtungen und/oder Positionen der 2-dimensionalen Raster der Einzelaufnahmen relativ zueinander bekannt sein.
-
Eine von J. Gühring, „3D-Erfassung und Objektrekonstruktion mittels Streifenprojektion”, Dissertation, Universität Stuttgart, 2002, beschriebene Möglichkeit zur Verwacklungskompensation besteht darin, die Oberfläche des durch die zusammengesetzte Aufnahme P beschriebenen Objekts zu minimieren. Ein solches oder ähnliche Minimierungsverfahren eignen sich für homogene Flächen wie z. B. eine Ebene oder eine Kugeloberfläche gut, für Aufnahmeobjekte mit ausgeprägter Topographie, wie z. B. für Zähne, eignen sich diese Methoden aber nur bedingt.
-
Die
US 5 946 645 A beschreibt ein Verfahren zur dreidimensionalen Vermessung eines Objekts mittels Triangulation. Dabei werden zwei Serien von weitestgehend parallelen Streifen auf das Objekt nacheinander mittels einer beispielsweise tragbaren Kamera projiziert und aufgenommen, wobei die Streifen der zwei Serien zueinander einen Winkel von vorzugsweise 90° einschliessen, so dass zumindest einige Überschneidungen auftreten. Die Profile der Objektoberfläche, die sich aus den jeweiligen Serien ergeben, werden anhand der Überschneidungen der Serien zueinander orientiert und zu einem gemeinsamen 3D-Datensatz zusammengeführt.
-
Die
US 6 542 249 B1 beschreibt ein Verfahren zur dreidimensionalen Vermessung eines Objekts mittels eines handgehaltenen Sensors. Dafür werden in einem ersten Schritt in einer ersten Position des Sensors zum Objekt mehrere Muster, vorzugsweise aber 3 Muster aus je einem Streifen, gleichzeitig auf das Objekt projiziert, aufgenommen und aus den Daten 3D-Daten errechnet. In weiteren Schritten wird dies für weitere Positionen des Sensors wiederholt und anhand von Überlappungsbereiche von benachbarten Aufnahmen werden alle Aufnahmen in einem einzigen 3D-Datensatz zusammengeführt. Hierfür müssen sich die Linien der verschiedenen Aufnahmen im Überlappbereich nicht unbedingt schneiden. Zum Zusammenführen verschiedener Aufnahmen wird zu einem beliebigen Messpunkt einer Aufnahme aus dem Überlappungsbereich der Messpunkt in der weiteren Aufnahme bestimmt, dessen Abweichung vom ersten Messpunkt am geringsten ist.
-
Die sich ergebende Aufgabe besteht also darin, ein Verfahren zur Bestimmung eines dreidimensionalen Bildes eines Aufnahmeobjekts, insbesondere für zahnmedizinische Zwecke, zur Verfügung zu stellen, welches auch bei Verwacklung ein hinreichend korrektes 3D-Modell des Aufnahmeobjekts liefert.
-
Darstellung der Erfindung
-
Diese Aufgabe wird durch die im Folgenden angegebenen Merkmale der Erfindung gelöst.
-
Die Erfindung betrifft ein Verfahren zur optischen Vermessung der dreidimensionalen Geometrie eines Objekts mittels eines Triangulationsverfahrens, wobei auf das aufzunehmende Objekt ein Muster projiziert wird, um einen 3D-Datensatz zu gewinnen und wobei das projizierte Muster in einer Aufnahme aufgenommen wird. In einem ersten Schritt zur Erstellung mindestens einer ersten Aufnahme wird ein erstes Muster und in einem zweiten Schritt zur Erstellung mindestens einer weiteren Aufnahme wird ein gegenüber dem ersten Muster in seiner Lage oder Ausbildung abweichendes weiteres Muster auf das aufzunehmende Objekt projiziert und die Aufnahme erstellt, wobei in einem nachfolgenden Schritt aus der ersten Aufnahme und aus der weiteren Aufnahme erzeugte 3D-Daten zu einem 3D-Datensatz zusammengeführt werden. Das erste und das weitere Muster weisen parallele Lichtstreifen mit einer Ausrichtung in einer ersten Richtung auf. Darüber hinaus wird mindestens eine Korrelationsaufnahme mit einem auf das aufzunehmende Objekt projizierten Korrelationsmuster aufgenommen. Das Korrelationsmuster weist entlang einer zweiten Richtung ausgerichtete Lichtstreifen auf, welche sich um einen vorgegeben Winkel α von mindestens 5° und höchstens 90° von der ersten Richtung, entlang welcher die Muster der ersten und der weiteren Aufnahmen ausgerichtet sind, unterscheiden. Die Korrelationsaufnahme mit Lichtstreifen in zweiter Richtung weist einen größeren Lichtstreifenabstand auf als die erste und weitere Aufnahmen mit Lichtstreifen mit erster Richtung. Die Korrelationsaufnahme und die erste Aufnahme des auf das Objekt projizierten und aufgenommenen ersten Musters und die weitere Aufnahme des auf das Objekt projizierten und aufgenommenen weiteren Musters sind derart zueinander ausgerichtet, dass die erste und zweite Aufnahme mit der Korrelationsaufnahme jeweils zumindest einen gemeinsamen Punkt aufweisen, der am aufzunehmenden Objekt von beiden Mustern aufgenommen wird. Die 3D-Daten aus den Aufnahmen werden anhand der 3D-Daten des zumindest einen gemeinsamen Punktes in den Aufnahmen und in der Korrelationsaufnahme zu dem 3D-Datensatz so zusammengeführt, dass die 3D-Daten aus den Aufnahmen an dem gemeinsamen Punkt in dem 3D-Datensatz mit den 3D-Daten aus der Korrelationsaufnahme übereinstimmen. Die gemeinsamen Punkte sind durch die Kreuzungspunkte der Lichtstreifen des Musters einer Aufnahme mit den Lichtstreifen des Korrelationsmusters der Korrelationsaufnahme gebildet. Die Korrelationsaufnahme wird nur zur Ermittlung der Kreuzungspunkte verwendet.
-
Zusätzlich zu den beiden Aufnahmen wird eine Korrelationsaufnahme durchgeführt und anhand der Kreuzungspunkte des Musters aus der Korrelationsaufnahme mit Mustern der ersten und zweiten Aufnahme eine Lagekorrektur durchgeführt.
-
Ein Vorteil des Verfahrens ist, dass eine Reihe von Aufnahmen mit gleicher Richtung der Lichtstreifen jeweils versetzt um eine Lichtstreifenbreite durchgeführt werden kann, um die Oberfläche des Messobjekts lückenlos zu erfassen, und anschließend eine Korrelationsaufnahme mit einer anderen Richtung der Lichtstreifen durchgeführt werden kann, so dass die Lichtstreifen der Korrelationsaufnahme sich mit den Lichtstreifen der ersten und der zweiten Aufnahme kreuzen. Anhand der gemeinsamen Punkte kann dann die Lagekorrektur durchgeführt werden.
-
Die Ausrichtungen der Lichtstreifen des ersten Musters und des zweiten Musters stimmen überein. Weiterhin wird gewährleistet, dass sich die Muster einer Aufnahme mit den Lichtstreifen des Korrelationsmusters kreuzen und an den Kreuzungspunkten die gemeinsamen Punkte gebildet werden. Durch den größeren Abstand zwischen den Streifen des Korrelationsmusters können die Kreuzungspunkte beim Auswerten der Helligkeitsunterschiede besser erkannt werden.
-
Das bei der vorliegenden Erfindung verwendete Triangulationsverfahren beruht auf dem folgenden Grundprinzip.
-
Ein bestimmter Messpunkt eines Messobjekt wird aus einer Richtung von einem Projektionsstrahl beleuchtet und als Beobachtungsstrahl aus einer anderen Richtung durch einen Sensor aufgenommenen.
-
Dabei erhält man die beiden Winkel zwischen einer Basislänge, die die Lichtquelle mit dem Sensor verbindet, und dem Projektionsstrahl sowie dem Beobachtungsstrahl. Unter Kenntnis der Basislänge kann man dann die Koordinaten des Messpunktes relativ zum Koordinatensystem der Aufnahmevorrichtung bestimmen, die die Lichtquelle und den Sensor umfasst.
-
Zur Bestimmung der Koordinate eines Messpunktes muss eine Projektionskoordinate bekannt sein, die einem Messpunkt einem Bildkoordinate auf dem Sensor zuordnet. Die Messpunkte müssen also in den jeweiligen Streifen zugeordnet sein.
-
Diese Zuordnung kann durch Abzählen der Streifen erfolgen, indem die Folge von Helligkeitswerte auf den Sensor ausgewertet wird und die Nummer des jeweiligen Streifens somit bestimmt wird.
-
Diese Zuordnung kann auch durch ein Binär-Kode-Verfahren (z. B. Gray Code) erfolgen, indem jeder Streifen eine binäre Abfolge von Helligkeitswerten enthält, die die Nummer des Streifens repräsentiert. Beim Auswerten dieses binären Kode kann dann die jeweilige Nummer des Streifens bestimmt werden.
-
Eine höhere Genauigkeit bei der Zuordnung der Projektionskoordinate kann durch das sogenannte Phasenschiebeverfahren (Phase-Shift-Verfahren) erreicht werden, findet bei der vorliegenden Erfindung jedoch keine Anwendung, da beim Phasenschiebeverfahren die 3D-Daten des Messobjekts erst nach der Auswertung von mindestens vier phasenverschobenen Einzelaufnahmen erzeugt werden können.
-
Der Vorteil der Zuordnung durch das Abzählen und durch das Binär-Kode-Verfahren besteht also darin, dass die 3D-Daten des durch das Muster beleuchteten Messbereichs nach jeder einzelnen Aufnahme sofort erzeugt werden können.
-
Ein Vorteil des erfinderischen Verfahrens ist, dass im Vergleich zu den herkömmlichen Verfahren der Fehler durch das Verwackeln der freihändig gehaltenen Aufnahmevorrichtung während der Aufnahme korrigiert wird. Dies ist insbesondere für dentale intraorale Kameras vorteilhaft, die freihändig gehalten werden und 3D-Datensätze von Zahnoberflächen erzeugen. Beim Verwackeln weisen die erstellten 3D-Aufnahmen Bildfehler, in Form von beispielsweise Spitzen oder stufenförmigen Strukturen, auf und die 3D-Aufnahmen müssen wiederholt werden.
-
Durch das Überlagern der gemeinsamen Punkte wird die durch das Verwackeln verursachte Lageänderung des Musters bestimmt und korrigiert.
-
Vorteilhafterweise können mehr als zwei Aufnahmen durchgeführt werden und unter Verwendung der gemeinsamen Punkte mit der Korrelationsaufnahme die daraus erzeugten 3D-Daten zu einem 3D-Datensatz zusammengeführt werden.
-
Dadurch können beispielsweise im ersten Schritt vier Aufnahmen aufgenommen werden und nach dem Verdrehen des Musters eine Korrelationsaufnahme durchgeführt werden. Der Abstand zwischen den Streifen würde dann das Vierfache der Streifenbreite betragen, um die Oberfläche des Messobjekts lückenlos zu vermessen.
-
Vorteilhafterweise kann anhand der 3D-Daten des zumindest einen gemeinsamen Punktes in der Aufnahme und der 3D-Daten des gemeinsamen Punktes in der Korrelationsaufnahme eine Lagebeziehung der 3D-Daten aus der Aufnahme bezüglich der 3D-Daten aus der Korrelationsaufnahme bestimmt werden. Anhand der Lagebeziehung erfolgt eine Lagekorrektur der 3D-Daten aus der Aufnahme. Die korrigierten 3D-Daten aus den mindestens zwei Aufnahmen werden zur Bereitstellung eines 3D-Datensatzes zusammengeführt.
-
Dadurch werden Bildfehler, die durch das Verwackeln der Aufnahmevorrichtung verursacht werden, korrigiert. Die gemeinsamen Punkte zwischen den Aufnahmen und der Korrelationsaufnahme werden als Korrelationspunkte verwendet, um die Lagebeziehung der 3D-Daten aus den verschiedenen Aufnahmen zu bestimmen. Bei Kenntnis der Lagebeziehung wird eine Lagekorrektur der 3D-Daten, beispielsweise durch Koordinatentransformationen, durchgeführt, so dass die gemeinsamen Punkte übereinstimmen.
-
Vorteilhafterweise kann die tatsächliche Lage des mindestens einen gemeinsamen Punktes in den 3D-Daten der Aufnahme einerseits und in den 3D-Daten der Korrelationsaufnahme andererseits über einen Suchalgorithmus ermittelt wird.
-
Dadurch werden die gemeinsamen Punkte in den verschiedenen Aufnahmen automatisch ermittelt.
-
Vorteilhafterweise kann als Suchalgorithmus zur Ermittlung des mindestens einen gemeinsamen Punktes das ICP-Verfahren oder das Topology-Matching-Verfahren verwendet werden.
-
Das sogenannte ICP-Verfahren (Iterative Closest Point) wird zur Ausrichtung von 3D-Daten mit zumindest in Teilbereichen ähnlicher Form verwendet.
-
Das Verfahren aus der Bildverarbeitung ist das sogenannte Topology-Matching-Verfahren, das zum Vergleich der verschiedenen Topologien MRGs (Multiresolutional Reeb Graphs) verwendet. MRGs eignen sich besonders gut als Suchkriterium für ähnliche 3D-Datensätze. Die Berechnung der Ähnlichkeit erfolgt mit diesem Verfahren schnell und effizient, da nach diesem Verfahren die Lageänderung sowie die Rotation nicht berechnet werden muss.
-
Vorteilhafterweise kann das erste Muster und das weitere Muster überschneidungsfrei sein.
-
Dadurch wird gewährleistet, dass die weiteren Muster aus der ersten Gruppe der Aufnahmen parallel zum Muster der ersten Aufnahme jeweils um eine Streifenbreite verschoben werden und somit die Oberfläche des Messobjekts lückenlos erfassen.
-
Vorteilhafterweise können die parallelen Lichtstreifen des weiteren Musters gegenüber den parallelen Lichtstreifen des ersten Musters versetzt sein.
-
Dadurch kann die Oberfläche des Messobjekts mit möglichst wenigen Aufnahmen lückenlos erfasst werden. Vorteilhafterweise wird das Muster um eine Streifenbreite verschoben.
-
Vorteilhafterweise können die Lichtstreifen des weiteren Musters und die Lichtstreifen des ersten Musters um einen vielfachen Betrag der Streifenbreite zueinander beabstandet sein.
-
Die Lichtstreifenbreite der einzelnen Lichtstreifen gibt die Auflösung der 3D-Daten vor. Für eine höhere Auflösung müssen somit mehr einzelne Aufnahmen erfolgen.
-
Vorteilhafterweise kann der Winkel α zwischen der ersten Richtung und der zweiten Richtung 90° betragen.
-
Bei einem Winkel α von 90° können die Kreuzungspunkte am besten ermittelt werden.
-
Vorteilhafterweise können die Richtungsvektoren zur ersten Richtung der Muster zu den Aufnahmen und zweiten Richtung des Musters zur Korrelationsaufnahme in einem Winkel größer als 0° und höchstens 90° zu einer durch das Triangulationsverfahren vorgegebenen Triangulationsebene liegen.
-
Die Triangulationsebene wird durch einen Projektionsstrahl, der auf einen Messpunkt projiziert wird, und einen Beobachtungsstrahl, der vom Messpunktes zu einem Sensor führt, gebildet. Das Streifenprojektionsverfahren erfordert mindestens einen Winkel von 30° zwischen der Richtung der Streifen und der Triangulationsebene, wobei der Winkel von 90° vorteilhaft ist.
-
Vorteilhafterweise kann die erste Richtung der Aufnahmen mit der Triangulationsebene einen Winkel β einschließen und die zweite Richtung der Korrelationsaufnahme mit der Triangulationsebene einen Winkel γ von bis zu +/–60° einschließen.
-
Dadurch ist sowohl der Winkel α zwischen der ersten oder zweiten Richtung für eine genaue Ermittlung der Kreuzungspunkte als auch die Winkel β und γ zwischen der ersten oder zweiten Richtung zur Triangulationsebene für eine fehlerlose Funktionsweise des Streifenprojektionverfahrens ausreichend. Das erfinderische Verfahren ist bei einem Winkel α 90°, bei einem Winkel β von 45° und bei einem Winkel γ von 45°.
-
Vorteilhafterweise kann das Muster der mindestens einen Aufnahme sich teilweise mit dem Korrelationsmuster der Korrelationsaufnahme überschneiden und zumindest drei gemeinsame Punkte aufweisen, die am aufzunehmenden Objekt von dem Muster und von dem Korrelationsmuster aufgenommen werden.
-
Bei einer höheren Anzahl an gemeinsamen Punkten wird die Lagekorrektur verbessert.
-
Das zugrunde liegende Prinzip besteht darin, sich geeignete, teilweise redundante Daten zu verschaffen, mit deren Hilfe es möglich ist, die relativen Lagen der 2-dimensionalen Raster der Einzelaufnahmen zu rekonstruieren. Kennt man diese relativen Lagen, so kann man die Höheninformationen der Einzelaufnahmen geeignet zu einer Gesamtaufnahme zusammenführen.
-
Die redundanten Daten sollten derart beschaffen sein, dass zur Minimierung von Speicherbedarf und Datenbeschaffungszeit mit möglichst wenigen Daten ein möglichst hoher Verknüpfungsgrad zwischen allen Einzelaufnahmen erreicht wird.
-
Der Erfindung liegt die Idee zugrunde, dass während mindestens einer Aufnahme der einzelnen Aufnahmen das Messobjekts mit einer oder mehreren Lichtstreifen abgetastet wird, welche im Wesentlichen entlang einer zweiten Richtung ausgerichtet sind, welche sich um einen Winkel α ungleich Null von der ersten Richtung, entlang welcher die Lichtstreifen der anderen einzelnen Aufnahmen im Wesentlichen ausgerichtet sind, unterscheidet.
-
Diese mindestens eine Aufnahme kann eine der Aufnahmen mit einer anderen Richtung des Musters oder eine Korrelationsaufnahme sein. Im ersten Fall die 3-D-Daten aus allen Aufnahmen zu einem 3D-datensatzes zusammengesetzt. Im zweiten Fall wird die Korrelationsaufnahme nur dazu verwendet die Kreuzungspunkte zu ermitteln und die Lagekorrektur durchzuführen.
-
Da mit der mindestens einen Aufnahme dasselbe Messgebiet wie in den übrigen Aufnahmen vermessen wird, sind in der mindestens einen Aufnahme 3D-Daten des Messobjekts an Punkten enthalten, welche auch in den anderen Aufnahmen vorhanden sind. Bestimmte Oberflächenpunkte des Aufnahmeobjekts, nämlich die Punkte, bei denen sich die Lichtstreifen des zweidimensionalen Musters der mindestens einen Aufnahme mit den Lichtstreifen der zweidimensionalen Muster der anderen Aufnahmen schneiden, werden mindestens zweimal vermessen. Diese Schnittpunkte werden als gemeinsame Punkte bezeichnet.
-
Anhand dieser gemeinsamen Punkte ist es nun möglich, die relativen Lagen der zweidimensionalen Muster aller Aufnahmen in Beziehung zueinander zu setzen, da der Winkel α zwischen der mindestens einen Aufnahme und den übrigen Aufnahmen bis auf den Anteil aus dem Verwackeln bekannt ist. Nach geeigneter Ausrichtung und Anpassung der zweidimensionalen Muster derart, dass eine bestmögliche Übereinstimmung der Höheninformationen in den übereinstimmenden Punkten eines Aufnahmenpaars aus der Korrelationsaufnahme und aus einer der anderen Aufnahmen erreicht wird, lassen sich die 3D-Daten der einzelnen Aufnahmen zu einem gesamten 3D-Datensatz zusammenführen.
-
Vorteilhafterweise kann die erste und/oder die zweite Aufnahme und die Korrelationsaufnahme denselben Messbereich des Objekts erfassen.
-
Dadurch wird gewährleistet, dass Anhaltspunkte zwischen beiden Mustern ermittelt werden können.
-
Vorteilhafterweise kann die erste und/oder die zweite Aufnahme und die Korrelationsaufnahme oder die erste und die weitere Gruppe von Aufnahmen in einem zeitlichen Abstand von mindestens 100 ms zueinander erfolgen.
-
Dadurch wird das Muster zwischen den Aufnahmen nur geringfügig verwackelt.
-
Vorteilhafterweise kann das erste oder das weitere Muster sich teilweise mit dem Korrelationsmuster überschneiden und zumindest drei gemeinsame Punkte aufweisen, die am aufzunehmenden Objekt von beiden Mustern aufgenommen werden.
-
Mit einer höheren Anzahl an gemeinsamen Punkten wird die Lagekorrektur verbessert.
-
Es wäre auch möglich zur optischen Vermessung der dreidimensionalen Geometrie eines Objekts mittels eines Triangulationsverfahrens auf das aufzunehmende Objekt ein Muster zu projizieren, um einen 3D-Datensatz zu gewinnen. Das projizierte Muster wird in einer Aufnahme aufgenommen. In einem ersten Schritt zur Erstellung mindestens einer ersten Aufnahme wird ein erstes Muster und in einem zweiten Schritt zur Erstellung mindestens einer weiteren Aufnahme ein gegenüber dem ersten Muster in seiner Lage oder Ausbildung abweichendes weiteres Muster auf das aufzunehmende Objekt projiziert und die jeweiligen Aufnahmen werden erstellt. In einem nachfolgenden Schritt werden aus der ersten Aufnahme und aus der weiteren Aufnahme gewonnene 3D-Daten zu einem 3D-Datensatz zusammengeführt. Die erste Aufnahme des auf das Objekt projizierten und aufgenommenen ersten Musters und die weitere Aufnahme des auf das Objekt projizierten und aufgenommenen weiteren Musters werden derart zueinander ausgerichtet, dass die beiden Muster sich teilweise überschneiden und zumindest einen gemeinsamen Punkt aufweisen, der am aufzunehmenden Objekt von beiden Mustern aufgenommen wird. Die 3D-Daten aus den Aufnahmen werden anhand der 3D-Daten des zumindest einen gemeinsamen Punktes in den Aufnahmen in einem 3D-Datensatz so zusammengeführt, dass die 3D-Daten aus den Aufnahmen zumindest bezüglich der 3D-Daten des einen gemeinsamen Punktes in dem 3D-Datensatz übereinstimmen.
-
Es kann auch ein Streifenprojektionsverfahren verwendet werden, wobei ein Muster aus parallelen Streifen auf das Messobjekt projiziert wird und dadurch mehrere Messpunkte gleichzeitig vermessen werden können.
-
Das Muster kann aus einem einzelnen Streifen oder aus mehreren parallelen Streifen aufgebaut sein.
-
Das zweite Muster weicht vom ersten Muster in seiner Lage oder Ausbildung ab. Das zweite Muster kann beispielsweise gegenüber dem ersten Muster um einen bestimmten Winkel verdreht sein oder in einer bestimmten Richtung verschoben sein oder eine andere Form aufweisen. Falls das erste und das zweite Muster aus parallelen Streifen gebildet ist und das zweite Muster gegenüber dem ersten Muster senkrecht zu den parallelen Streifen verschoben ist und zusätzlich um einen bestimmten Winkel verdreht ist, entstehen Kreuzungspunkte die sowohl vom ersten als auch vom zweiten Muster beleuchtet werden. Diese gemeinsamen Punkte in den beiden Aufnahmen werden als Korrelationspunkte verwendet, um die 3D-Daten der beiden Aufnahmen zu einem 3D-Datensatz zusammenzusetzen.
-
Die Verdrehung des zweiten Musters gegenüber dem ersten Muster kann durch manuelles Verdrehen der Aufnahmevorrichtung relativ zum Messobjekt zwischen der ersten oder zweiten Aufnahme erzeugt werden oder durch Verdrehen eines Gitters in der Aufnahmevorrichtung, das die Muster erzeugt.
-
Es wird eine so genannte on-the-fly-Messung ermöglicht. Die Aufnahmevorrichtung kann also gleichmäßig relativ zum Messobjekt bewegt werden und die einzelnen Aufnahmen aus den verschiedenen Richtungen werden zu einem gesamten 3D-Datensatz zusammengesetzt. Es ist also nicht notwendig die Aufnahmevorrichtung während einer Aufnahme still zu halten. Es können mehrere Aufnahmen ohne Unterbrechung zeitlich nacheinander aufgenommen werden während die Aufnahmevorrichtung relativ zum Objekt bewegt wird.
-
In weiteren Schritten können mehr als zwei Aufnahmen durchgeführt werden und unter Verwendung der gemeinsamen Punkte dieser Aufnahmen die daraus erzeugten 3D-Daten zu einem 3D-Datensatz zusammengeführt werden.
-
Dadurch kann beispielsweise im ersten Schritt eine erste Aufnahme aufgenommen werden und nach dem Verdrehen des Musters weitere vier Aufnahmen durchgeführt werden, wobei die Streifenbreite 1/4 des Abstandes zwischen den Streifen beträgt und das Muster senkrecht zu den parallelen Streifen um die Streifenbreite verschoben wird, so dass die Oberfläche des Messobjekts lückenlos aufgenommen wird.
-
Anhand der 3D-Daten des zumindest einen gemeinsamen Punktes kann eine Lagebeziehung der 3D-Daten aus der mindestens einen weiteren Aufnahme bezüglich der ersten Aufnahme bestimmt werden. Anhand der Lagebeziehung erfolgt eine Lagekorrektur der 3D-Daten aus der mindestens einen weiteren Aufnahme. Die korrigierten 3D-Daten mindestens einer weiteren Aufnahme und die 3D-Daten der ersten Aufnahme werden in einen 3D-Datensatz zusammengeführt.
-
Dadurch werden Bildfehler, die durch das Verwackeln der Aufnahmevorrichtung verursacht werden, korrigiert. Die gemeinsamen Punkte werden als Korrelationspunkte verwendet, um die Lagebeziehung der 3D-Daten aus den verschiedenen Aufnahmen zu bestimmen. Bei Kenntnis der Lagebeziehung wird eine Lagekorrektur der 3D-Daten, beispielsweise durch Koordinatentransformationen, durchgeführt, so dass die gemeinsamen Punkte übereinstimmen.
-
Die Lage des mindestens einen gemeinsamen Punktes, der am aufzunehmenden Objekt von mindestens zwei Mustern aufgenommen wird, kann in den 3D-Daten der Aufnahme über einen Suchalgorithmus ermittelt werden.
-
Dadurch werden die gemeinsamen Punkte in den verschiedenen Aufnahmen automatisch ermittelt. Die Suchalgorithmen aus der Bildverarbeitung sind in der Lage anhand der charakteristischen Form der einzelnen Aufnahmen deren Lage auf der Oberfläche des Messobjekts zu bestimmen.
-
Das erste Muster kann auch entlang einer ersten Richtung und das weitere Muster entlang einer weiteren zweiten Richtung ausgerichtete parallele Lichtstreifen aufweisen, wobei sich die zweite Richtung der parallelen Lichtstreifen des weiteren Musters gegenüber der ersten Richtung der parallelen Lichtstreifen des ersten Musters um einen vorgegebenen Winkel α von mindestens 5° und höchstens 90° unterscheidet. Die gemeinsamen Punkte sind durch die Kreuzungspunkte der Lichtstreifen der Muster gebildet.
-
Dadurch wird gewährleistet, dass sich die beiden Muster kreuzen und an den Kreuzungspunkten die gemeinsamen Punkte gebildet werden. Bei einem Winkel größer als 5° wird das Auffinden der Kreuzungspunkte erleichtert, wobei bei einem optimalen Winkel von 90° die Kreuzungspunkte am besten ermittelt werden können.
-
Die Lichtstreifen des weiteren Musters mit Lichtstreifen in der zweiten Richtung können auch einen größeren Lichtstreifenabstand aufweisen als die Lichtstreifen des ersten Musters mit Lichtstreifen in der ersten Richtung.
-
Dadurch können die Kreuzungspunkte einfacher ermittelt werden, denn der größere Lichtstreifenabstand verbessert die Analyse der Helligkeitswerte.
-
Es kann auch eine erste Gruppe mit mindestens einer Aufnahme vorgesehen sein, in der ein Muster mit im Wesentlichen entlang einer ersten Richtung ausgerichteten Lichtstreifen enthalten ist und dass mindestens eine zweite Gruppe mit mindestens einer Aufnahme mit einem Muster mit im Wesentlichen entlang einer anderen Richtung ausgerichteten Lichtstreifen enthalten ist, die sich um einen Winkel α > 5° von der ersten Richtung unterscheidet.
-
Dadurch lässt sich die Auflösung des 3D-Datensatzes verbessern. Beispielsweise kann in der ersten Richtung eine Aufnahme erfolgen und in der zweiten Richtung eine Gruppe von Aufnahmen erfolgen, wobei die Streifenmuster jeweils um die Streifenbreite verschoben werden und somit die Oberfläche des Messobjekts lückenlos vermessen wird. Jedes Streifenmuster aus der zweiten Gruppe in der zweiten Richtung weist Kreuzungspunkte mit den einzelnen Aufnahmen aus der ersten Gruppe auf. Folglich kann die Lagekorrektur für jede Aufnahme durchgeführt werden.
-
Die mindestens zweite Gruppe der Aufnahmen mit Lichtstreifen in die zweite Richtung kann auch eine geringere Gruppengröße aufweisen als die erste Gruppe der Aufnahmen mit Lichtstreifen in die erste Richtung.
-
Die Abstände der Lichtstreifen können auch für eine Gruppe von Aufnahmen mit gleich ausgerichteten Lichtstreifen in Richtung R1 oder R2 um ein ganzzahliges Vielfaches größer sein als die Lichtstreifenbreite.
-
Die Lichtstreifenbreite der einzelnen Lichtstreifen gibt die Auflösung der 3D-Daten vor. Für eine höhere Auflösung müssen somit mehr einzelne Aufnahmen erfolgen. Der Abstand zwischen den Lichtstreifen beträgt ein Vielfaches der Lichtstreifenbreite, da bei den einzelnen Aufnahmen mit gleicher Ausrichtung das Muster senkrecht zu den Lichtstreifen jeweils um eine Lichtstreifenbreite verschoben wird. Beispielsweise beträgt der Abstand zwischen den Lichtstreifen das Vierfache der Lichtstreifenbreite bei vier einzelnen Aufnahmen.
-
Der Winkel α zwischen der ersten Richtung und der zweiten Richtung kann auch 90° betragen.
-
Der Winkel von 90° ist für das computergestützte Auffinden von Kreuzungspunkten am besten geeignet.
-
Die Richtungsvektoren der ersten und der zweiten Richtung R2 der Muster können auch in einem Winkel größer als 30° und höchstens 90° zu einer durch das Triangulationsverfahren vorgegebenen Triangulationsebene liegen.
-
Die Triangulationsebene ist durch den Projektionsstrahl und den Beobachtungsstrahl definiert. Für eine fehlerlose Funktionsweise des Streifenprojektion Verfahrens muss der Winkel zwischen den Richtungsvektoren der Lichtstreifen zur Triangulationsebene größer als 0° sein und vorteilhafterweise mindestens einen Winkel von 30° aufweisen. Ein Winkel von 90° ist für die Aufnahme am besten geeignet.
-
Die erste und die zweite Richtung können auch mit der Triangulationsebene einen Winkel β und einen Winkel γ von bis zu +/–60° einschließen.
-
Dadurch ist sowohl der Winkel α zwischen der ersten oder zweiten Richtung für eine genaue Ermittlung der Kreuzungspunkte als auch die Winkel β und γ zwischen der ersten oder zweiten Richtung zur Triangulationsebene für eine fehlerlose Funktionsweise des Streifenprojektionverfahrens ausreichend. Das erfinderische Verfahren ist besonders vorteilhaft, wenn der Winkel α 90°, der Winkel β 45° und der Winkel γ 45° beträgt.
-
Die Verdrehung des Musters um den Winkel α kann auch durch mechanisches Verdrehen eines Gitters innerhalb einer Aufnahmevorrichtung erfolgen.
-
Das Gitter kann entsprechend angesteuert sein um die Richtungen der Lichtstreifen in genau um den Winkel α zu verstellen. Dadurch ist es möglich zwischen den Aufnahmen die Richtung der Lichtstreifen um einen vorgegebenen Winkel α zu verstellen, der möglichst 90° betragen sollte.
-
Die Verdrehung des Musters um den Winkel α kann auch durch das Drehen einer gesamten Aufnahmenvorrichtung erfolgen.
-
Die Aufnahmevorrichtung kann folglich manuell nach der ersten Gruppe von Aufnahmen um einen Winkel α gedreht werden, um eine weitere Aufnahme aufzunehmen, deren Lichtstreifen sich mit den Lichtstreifen der Aufnahmen aus der ersten Gruppe kreuzen. Die Aufnahmevorrichtung sollte möglichst um den Winkel α von 90° gedreht werden. Diese Ausführungsform hat gegenüber der Ausführungsform mit dem verstellbaren Gitter den Vorteil, dass die Winkel β und γ zwischen den Lichtstreifen und der Triangulationsebene gleich bleiben, da die gesamte Aufnahmevorrichtung gedreht wird, und vorteilhafterweise 90° betragen können.
-
Kurzbeschreibung der Zeichnung
-
Ausführungsbeispiele der Erfindung sind in den Zeichnungen dargestellt. Es zeigt die
-
1 eine Skizze eines aus dem Stand der Technik bekannten Verfahrens, umfassend eine dentale intraorale Kamera als eine Aufnahmevorrichtung zu Vermessung von Zähnen,
-
2 einen Ausschnitt der Oberfläche eines Messobjekts mit fünf aus dem Stand der Technik bekannten Aufnahmen unterschiedlicher Ausrichtung,
-
3 eine schematische Darstellung von Mustern zweier Aufnahmen mit einem Winkel α von 40° zwischen einer ersten Richtung und einer zweiten Richtung, wie es aus dem Stand der Technik bekannt ist,
-
4 eine schematische Darstellung von Mustern zweier Aufnahmen mit einem Winkel α von 90° zwischen einer ersten Richtung und einer zweiten Richtung, wie es aus dem Stand der Technik bekannt ist,
-
5 eine schematische Darstellung des erfinderischen Verfahrens mit einem ersten Muster und einem zweiten Muster einer Korrelationsaufnahme beim Winkel α von 45°, wobei der Abstand zwischen den Lichtstreifen beim zweiten Muster größer ist als beim ersten Muster,
-
6 eine schematische Darstellung des Zusammenführens von vier einzelnen Aufnahmen zu einer gesamten Aufnahme mit einer Korrelationsaufnahme bei einem Winkel α von 90° und den Winkeln β und γ zur Triangulationsebene von 45°.
-
Ausführungsbeispiele der Erfindung
-
Die 1 zeigt eine bereits aus dem Stand der Technik bekannte intraorale Dentalkamera als eine Aufnahmevorrichtung 1, die eine Lichtquelle 2, einen Sensor 3, ein Gitter 4 und einen schwenkbaren Spiegel 5 aufweist Die Lichtquelle 1 sendet einen Projektionsstrahl 6 aus, der das Gitter 4 durchleuchtet und vom schwenkbaren Spiegel 5 auf ein aufzunehmendes Objekt 7, nämlich die Oberfläche eines Zahns, umgelenkt wird. Das Gitter weist zur Triangulationsebene 8 senkrecht angeordnete Schlitze 4.1 auf, so dass auf das aufzunehmende Objekt 7 ein strukturiertes Muster 9 projiziert wird, das aus parallelen Lichtstreifen 10 aufgebaut ist. Das strukturierte Muster 9 ist nur schematisch dargestellt und entspricht nicht der tatsächlichen Projektion der Lichtstreifen 10 auf dem aufzunehmendes Objekt 7. Der Projektionsstrahl 6 wird von der Oberfläche des aufzunehmenden Objekts 7 reflektiert und als ein Beobachtungsstrahl 11 zurückgestrahlt. Der Beobachtungsstrahl 11 wird zum Sensor 3 umgeleitet und von diesem detektiert. Die Triangulationsebene 8 wird vom Projektionsstrahl 6 und dem Beobachtungsstrahl 11 aufgespannt. Der Projektionsstrahl 6 weist zum Beobachtungsstrahl 11 einen so genannten Triangulationswinkel 12 auf. Die ausgelieferten Bilddaten werden vom Sensor 3 an einen Computer als Auswerteeinheit 13 weitergeleitet, der einen Monitor als Anzeigeeinheit 14 und eine Tastatur und eine Computermaus als Bedienungseinheiten 15 aufweist.
-
Der schwenkbare Spiegel 5 kann um eine Achse 16 geschwenkt werden und dadurch das Muster 9 in die Richtung 17 in der Triangulationsebene 8 stufenweise verschoben werden. Beim vorliegenden erfinderischen Verfahren werden mehrere Aufnahmen durchgeführt, wobei das Muster 9 jeweils um eine Streifenbreite entlang der Richtung 17 verschoben wird bis die Oberfläche des zu vermessenden Objekts 7 lückenlos erfasst ist. Aus jeder einzelnen Aufnahme werden 3D-Daten mittels der Auswerteeinheit 13 berechnet. Bei der Berechnung findet das wobei Triangulationsverfahren Anwendung, wobei aus den beiden Winkeln zwischen einer Basislänge, die die Lichtquelle mit dem Sensor verbindet, und dem Projektionsstrahl sowie dem Beobachtungsstrahl und den Betrag der Basislänge die Koordinaten eines Messpunktes relativ zum Koordinatensystem der Aufnahmevorrichtung bestimmt werden.
-
Die 3D-Daten der einzelnen Aufnahmen werden anschließend zu einem gesamten 3D-Datensatz zusammengesetzt, der in der Anzeigevorrichtung 14 als eine 3D-Darstellung 18 angezeigt wird.
-
Bei herkömmlichen Triangulationsmessverfahren werden beim Verwackeln der Aufnahmevorrichtung 1 durch den Benutzer während der Aufnahme Bildfehler erzeugt, die als spitzförmige oder stufenförmige Strukturen in der 3D-Darstellung 18 erscheinen. Diese Fehler entstehen dadurch, dass die Lageänderung der Muster durch Verwackeln zwischen den Einzelaufnahmen beim Zusammensetzen des gesamten 3D-Datensatzes nicht berücksichtigt wird.
-
Es ist möglich eine Lagekorrektur für die einzelnen Aufnahmen durchzuführen. Wie aus dem Stand der Technik bekannt kann dies dadurch erfolgen, dass das Gitter 4 um eine Gitterachse 19 in einer Richtung 20 verstellt werden kann. Beim Verstellen des Gitters 4 um die Gitterachse 19 wird auch das projizierte Muster 9 relativ zum aufzunehmenden Objekt 7 gedreht. Folglich werden zunächst mehrere Aufnahmen mit einer ersten Richtung R1 der Lichtstreifen 10 des Musters 9 durchgeführt, um die Oberfläche des Objekts 7 lückenlos zu erfassen und anschließend wird das Gitter 4 verstellt und eine weitere Aufnahme mit einer zweiten Richtung R2 der Lichtstreifen 10' des Musters 9' aufgenommen. Diese weitere Aufnahme weist Kreuzungspunkte zu den vorherigen Aufnahmen auf und wird zur Lagekorrektur verwendet.
-
Dieses aus dem Stand der Technik bekannte Vorgehen wird anhand der 2, 3 und 4 verdeutlicht. Die 2 zeigt eine schematische Darstellung eines Ausschnittes 30 der Oberfläche eines aufzunehmenden Objekts 7 wobei die ersten vier Aufnahmen 31, 32, 33 und 34, die durch gestrichelte Linien zur Darstellung der tatsächlichen Richtung der parallelen Lichtstreifen 10 der einzelnen Muster 9 auf dem Objekt 7 repräsentiert werden, bei einer ersten Stellung des Gitters 4 mit der Richtung R1 aufgenommen werden und anschließend eine weitere Aufnahme 35, die durch eine gestrichelte Linie zur Darstellung der Ausrichtung der Streifenmuster repräsentiert wird, bei einer zweiten Stellung des Gitters 4 mit der Richtung R2 nach dem Verstellen um einen Winkel α von 90° aufgenommen wird.
-
Beim Verwackeln der Aufnahmevorrichtung 1 durch den Benutzer wird auch das projizierte Muster 9 verwackelt, so dass die Lichtstreifen der Aufnahmen 31, 32, 33 und 34 nicht parallel zueinander sind und sich teilweise überschneiden.
-
Die Lichtstreifen der Aufnahme 35 kreuzen die Lichtstreifen der Aufnahmen 31, 32, 33 und 34, wobei an den Kreuzungspunkten 36 3D-Daten sowohl bei der Aufnahme 31 als auch bei der Aufnahme 35 erfasst werden. An den Kreuzungspunkten 37 werden 3D-Daten sowohl bei der Aufnahme 32 als auch bei der Aufnahme 35 erfasst. An den Kreuzungspunkten 38 werden 3D-Daten sowohl bei der Aufnahme 33 als auch bei der Aufnahme 35 erfasst. An den Kreuzungspunkten 39 werden 3D-Daten sowohl bei der Aufnahme 34 als auch bei der Aufnahme 35 erfasst. Diese Kreuzungspunkte sind folglich gemeinsame Punkte der einzelnen Aufnahmen 31, 32, 33 und 34 zu der letzten Aufnahme 35. Nach dem Auffindender gemeinsamen Punkte 36, 37, 38 und 39 in den einzelnen Aufnahmen 31, 32, 33 und 34 wird die relative Lage der Aufnahmen zueinander bestimmt und eine Lagekorrektur durchgeführt, um die Bildfehler zu korrigieren, die durch das Verwackeln der Aufnahmevorrichtung 1 durch den Benutzer verursacht wurden.
-
Die 3 zeigt in schematischer Darstellung eine erste Aufnahme 40 mit einem ersten Muster 9, dessen Lichtstreifen 10 in einer ersten Richtung R1 ausgerichtet sind, und eine zweite Aufnahme 41 mit einem zweiten Muster 9' dessen Lichtstreifen 10' in einer zweiten Richtung R2 ausgerichtet sind. Der Winkel α zwischen der ersten Richtung R1 und der zweiten Richtung R2 beträgt 40°. Das aufzunehmende Objekt 7, nämlich ein Zahn, ist in der Draufsicht zu sehen. Das aufzunehmende Objekt 7 ist so angeordnet, dass es sowohl innerhalb des Messbereichs 42 der ersten Aufnahme 40 als auch innerhalb des Messbereichs 43 der zweiten Aufnahme 41 liegt. Die Lichtstreifen 10 des ersten Musters 9 kreuzen sich mit den Lichtstreifen 10' des zweiten Musters 9' an den Kreuzungspunkten 44, die die gemeinsamen Punkte der Aufnahmen 40 und 41 sind. Anhand der gemeinsamen Punkte 44 kann folglich die relative Lage der zweiten Aufnahme 41 zur ersten Aufnahme 40 bestimmt werden und die 3D-Daten aus den Aufnahmen 40 und 41 unter Berücksichtigung der relativen Lage zu einem gemeinsamen 3D-Datensatz zusammengeführt werden. Der erste Abstand d1 zwischen den Lichtstreifen 10 bei der ersten Aufnahme 40 und der zweite Abstand d2 zwischen den Lichtstreifen 10' der zweiten Aufnahme 41 sind gleich.
-
Es ist notwendig, dass für jede der Aufnahmen 40 und 41 die Richtungen R1 und R2 der Lichtstreifen 10 und 10' nicht parallel zur Triangulationsebene 8 aus 1 liegen, da dies eine Vorraussetzung für die Funktionsweise des Streifenprojektionsverfahrens basierend auf dem Triangulationsverfahren ist. Im vorliegenden Fall beträgt der Winkel β zwischen der Triangulationsebene 8 und der Richtung R1 45° und der Winkel γ zwischen der Triangulationsebene 8 und der Richtung R2 45°.
-
Die 4 zeigt wie in 3 in einer schematischen Darstellung einer ersten Aufnahme 40 mit einem ersten Muster 9 dessen Lichtstreifen 10 in einer ersten Richtung R1 ausgerichtet sind und eine zweite Aufnahme 41 mit einem zweiten Muster 9' dessen Lichtstreifen 10' in einer zweiten Richtung R2 ausgerichtet sind. Der Winkel α zwischen der ersten Richtung R1 und der zweiten Richtung R2 beträgt 90°.
-
Die Schnittpunkte 44 entsprechen den ähnlichen Punkten zwischen den beiden Aufnahmen 40 und 41.
-
Es ist notwendig, dass für jede der Aufnahmen 40 und 41 die Tangentialvektoren der abtastenden Lichtstreifen, also die Richtungen R1 und R2 der Lichtstreifen 10 und 10', nicht parallel zur Triangulationsebene 8 aus 1 liegen. Im vorliegenden Fall beträgt der Winkel β zwischen der Triangulationsebene 8 und der Richtung R1 45° und der Winkel γ zwischen der Triangulationsebene 8 und der Richtung R2 45°.
-
Es ist auch denkbar, dass bei einer ersten Gruppe G1 von Aufnahmen die Lichtstreifen im Wesentlichen entlang der ersten Richtung R1 und bei einer zweiten Gruppe G2 von Aufnahmen die Lichtstreifen im Wesentlichen entlang einer anderen Richtung R2 ausgerichtet sind.
-
Ganz allgemein kann jede Aufnahme, unabhängig davon, ob sie zur Gruppe der Aufnahmen mit Lichtstreifen in Richtung R1 oder zur Gruppe der Aufnahmen mit Lichtstreifen in Richtung R2 gehört, einen oder mehrere Lichtstreifen umfassen.
-
Der Abstand d1 und d2 der im Wesentlichen parallelen Lichtstreifen einer Aufnahme muss nicht für alle Aufnahmen gleich sein.
-
Vorteilhafterweise sind die Abstände der Lichtstreifen für eine Gruppe von Aufnahmen mit Lichtstreifen in Richtung R1 oder R2 gleich.
-
Erfindungsgemäß weist die Gruppe der Aufnahmen mit Lichtstreifen in Richtung R2, welche zur Aufnahme redundanter Daten verwendet wird, einen größeren Lichtstreifenabstand auf. Vorteilhafterweise kann diese Gruppe eine geringere Gruppengröße besitzen als die Gruppe der Aufnahmen mit Lichtstreifen in Richtung R1, welche zur genauen Vermessung der Oberflächenstruktur des Aufnahmeobjekts vorgesehen ist.
-
Die dargestellte Ausführungsform mit einem Winkel α von 90° ist die bevorzugte Ausführungsform, da die gemeinsamen Punkte 44 mittels der computergestützten Analyse der Helligkeitsunterschiede am besten beim Winkel α von 90° erkannt werden können.
-
Die dargestellte Ausführungsform mit dem Winkel β von 45° und dem Winkel γ von 45° ist zugleich die bevorzugte Ausführungsform, da diese Winkel für eine Ausführbarkeit des Streifenprojektionsverfahrens ausreichend sind.
-
Das erfindungsgemäße Verfahren wird anhand der 5 veranschaulicht. Die 5 zeigt wie in 3 und 4 zwei Aufnahmen 40 und 41, wobei der Winkel α zwischen der ersten Richtung R1 und der zweiten Richtung R2 45° beträgt. Der Abstand d2 der zweiten Aufnahme 41 zwischen den Lichtstreifen 10' ist größer als der erste Abstand d1 zwischen den Lichtstreifen 10 der ersten Aufnahme 40. Diese hat den Vorteil, dass die zweite Aufnahme 41 mit der zweiten Richtung R2 eine geringere Anzahl an Lichtstreifen 10' als die Anzahl der Lichtstreifen 10 der ersten Aufnahme 40 aufweist. Es ist somit eine geringere Anzahl an Kreuzungspunkten 44 auszuwerten. Die zweite Aufnahme 41 oder eine zweite Gruppe G2 von Aufnahmen mit der Richtung R2 dient lediglich der Korrelation für die Lagekorrektur, wobei die erste Aufnahme zur 40 oder eine erste Gruppe G1 von Aufnahmen mit der Richtung R1 der genauen Vermessung der Oberflächenstruktur des Aufnahmeobjekts dient.
-
Darüber hinaus wird der Messbereich des aufzunehmenden Objekts 7 vom ersten Muster vollständig erfasst, wobei das zweite Muster 9' den Messbereich des aufzunehmenden Objekts 7 nur teilweise erfasst. Es ergeben sich folglich Kreuzungspunkte 44 lediglich im überlappenden Bereich der beiden Muster 9 und 9', der den Messbereich des aufzunehmenden Objekts 7 nur zum Teil erfasst. Anhand dieser Kreuzungspunkte kann jedoch trotz dessen die Lagebeziehung zwischen den Mustern 9 und 9' ermittelt werden. Es ist also nicht notwendig, dass die weitere Aufnahme 41 in Richtung R2 den Messbereich der ersten Aufnahme 40 vollständig erfasst.
-
Die 6 zeigt schematisch, wie aus vier einzelnen Aufnahmen anhand des erfindungsgemäßen Verfahrens eine gesamte Aufnahme zusammengesetzt wird. In der ersten Aufnahme 50 ist das Muster 9.1 an einer ersten Position und ist aus den Lichtstreifen 10.1 gebildet, die in der Richtung R1 ausgerichtet sind. In der zweiten Aufnahme 51 ist das Muster 9.2 an einer zweiten Position und ist aus den Lichtstreifen 10.2 gebildet, die in der Richtung R1 ausgerichtet sind und gegenüber den Lichtstreifen 10.1 um eine Lichtstreifenbreite t in der Richtung 17 aus 1 verschoben sind. In der dritten Aufnahme 52 ist das Muster 9.3 an einer dritten Position und ist aus den Lichtstreifen 10.3 gebildet, die in der Richtung R1 ausgerichtet sind und gegenüber den Lichtstreifen 10.2 um eine Lichtstreifenbreite t in der Richtung 17 aus 1 verschoben sind. In der vierten Aufnahme 53 ist das Muster 9.4 an einer vierten Position und ist aus den Lichtstreifen 10.4 gebildet, die in der Richtung R1 ausgerichtet sind und gegenüber den Lichtstreifen 10.3 um eine Lichtstreifenbreite t in der Richtung 17 aus 1 verschoben sind.
-
Als fünfte Aufnahme 54 wird eine Korrelationsaufnahme durchgeführt, deren Lichtstreifen 10.5 in der zweiten Richtung R2 ausgerichtet sind. Der Winkel α zwischen R1 und R2 beträgt 90°, wobei der Winkel β 45° und der Winkel γ 45° beträgt.
-
Der Abstand d1 zwischen den Lichtstreifen der Muster 9.1, 9.2, 9.3 und 9.4 beträgt das Vierfache der Lichtstreifenbreite t, so dass die Oberfläche des zu vermessenden Objekts 7 durch die ersten vier Aufnahmen 50, 51, 52 und 53 lückenlos erfasst wird. Die fünfte Aufnahme 54 dient lediglich als Korrelationsaufnahme zum Auffinden der gemeinsamen Kreuzungspunkte 44 zur Korrelation der ersten vier Aufnahmen.
-
Der zweite Abstand d2 zwischen den Lichtstreifen 10.5 der fünften Aufnahme 54 ist in der dargestellten Ausführungsform dem ersten Abstand d1 gleich. Erfindungsgemäß ist dieser Abstand d2 allerdings größer als der erste Abstand d1.
-
Jede einzelne Aufnahme 50, 51, 52 und 53 beinhaltet also lediglich 1/4 der 3D-Daten einer gesamten Aufnahme 55.
-
Durch ein Übereinanderlegen der aus den vier einzelnen Aufnahmen 50, 51, 52 und 53 gewonnenen 3D-Daten ergibt sich ein 3D-Datensatz der gesamten Aufnahme 55 des Messobjekts. Erst die Gesamtheit der vier Aufnahmen deckt im Rahmen der gegebenen Diskretisierung den ganzen Messbereich das zweidimensionalen Rasters 9 ab.
-
Das Zusammenfügen der einzelnen Aufnahmen 50, 51, 52 und 53 zur gesamten Aufnahme 55 ist nur dann sinnvoll möglich bzw. liefert nur dann die im Rahmen der gegebenen Diskretisierung korrekte Oberflächenstruktur des aufzunehmenden Objekts 7, wenn zwischen den einzelnen Aufnahmen 50, 51, 52 und 53 kein Verwackeln stattgefunden hat, d. h. wenn sich die Orientierung zwischen der Aufnahmevorrichtung 1 und dem Objekt 7 während der ganzen Messzeit nicht wesentlich verändert hat und damit die Koordinatensysteme der Aufnahmen 50, 51, 52 und 53 gleich sind. Nur dann lassen sich die 3D-Daten in den Lichtstreifen 10.1, 10.2, 10.3 und 10.4 des zweidimensionalen Rasters der einzelnen Aufnahmen 50, 51, 52 und 53 direkt in Beziehung zueinander setzen und in ein gemeinsames zweidimensionales Raster zur gesamten Aufnahme 55 zusammenfügen, welches die korrekten 3D-Daten des aufzunehmenden Objekts 7 enthält.
-
Kommt es zwischen den einzelnen Aufnahmen 50, 51, 52 und 53 zu einer Veränderung der Orientierung zwischen der Aufnahmevorrichtung 1 und dem Objekt 7, etwa durch ein Verwackeln durch den Benutzer, so sind die Koordinatensysteme der Aufnahmen 50, 51, 52 und 53 nicht mehr gleich. Da die Änderung der Orientierung zwischen der Aufnahmevorrichtung 1 und dem Objekt 7 also unbekannt ist, können die zweidimensionalen Raster der Aufnahmen 50, 51, 52 und 53 nicht korrekt zu einer gemeinsamen Aufnahme 55 des gesamten Messbereichs zusammengefügt werden.
-
Für diese Vermessung bedeutet ein Verwackeln, dass die in den einzelnen Aufnahmen 50, 51, 52 und 53 vermessenen Scheiben des aufzunehmenden Objekts 7 von einer Aufnahme zur nächsten Aufnahme nicht mehr parallel zueinander sind. Dies ist schematisch in 2 dargestellt. Beispielsweise werden während der zweiten Aufnahme 51 Bereiche des Objekts 7 entlang der Lichtstreifen 10.2 abgetastet, die relativ zu den Lichtstreifen 10.1 der ersten Aufnahme 50 gedreht und/oder verschoben sind. Folglich enthält jede Aufnahme 50, 51, 52 und 53 einen Teil der 3D-Daten eines etwas gedrehten und/oder verschobenen Objekts 7.
-
Fügt man die in den Lichtstreifen 10.1, 10.2, 10.3, 10.4 der zweidimensionalen Raster der einzelnen Aufnahmen 50, 51, 52 und 53 enthaltenen 3D-Daten in einer gemeinsamen Aufnahme 55 zusammen, so ergibt sich eine fehlerhafte Oberflächenstruktur des aufzunehmenden Objekts 7.
-
Diese Bilderfehler können durch eine Lagekorrektur verhindert werden. Dazu ist es notwendig die Koordinatentransformationen zu bestimmen, welche die Koordinatensysteme der einzelnen Aufnahmen 50, 51, 52 und 53 auf ein gemeinsames Koordinatensystem abbilden. Dazu müssen die Ausrichtungen und/oder Positionen der zweidimensionalen Raster 9.1, 9.2, 9.3, 9.4 der einzelnen Aufnahmen relativ zueinander bekannt sein. Dies erfolgt durch das Auffinden von Kreuzungspunkten 44, die als Korrelationspunkte dienen.
-
Bezugszeichenliste
-
- 1
- Aufnahmevorrichtung
- 2
- Lichtquelle
- 3
- Sensor
- 4
- Gitter
- 4.1
- Schlitze
- 5
- schwenkbarer Spiegel
- 6
- Projektionsstrahl
- 7
- aufzunehmendes Objekt
- 8
- Triangulationsebene
- 9
- Muster
- 9'
- Muster
- 9.1
- Muster
- 9.2
- Muster
- 9.3
- Muster
- 9.4
- Muster
- 10
- parallele Lichtstreifen
- 10'
- Lichtstreifen
- 10.2
- Lichtstreifen
- 10.3
- Lichtstreifen
- 10.4
- Lichtstreifen
- 10.5
- Lichtstreifen
- 11
- Beobachtungsstrahl
- 12
- Triangulationswinkel
- 13
- Auswerteeinheit
- 14
- Anzeigeeinheit
- 15
- Bedienungseinheiten
- 17
- Richtung
- 18
- 3D-Darstellung
- 19
- Gitterachse
- 20
- Richtung
- 30
- Ausschnitt
- 31
- Aufnahme
- 32
- Aufnahme
- 33
- Aufnahme
- 34
- Aufnahme
- 35
- Aufnahme
- 36
- Kreuzungspunkte
- 37
- Kreuzungspunkte
- 38
- Kreuzungspunkte
- 39
- Kreuzungspunkte
- 40
- erste Aufnahme
- 41
- zweite Aufnahme
- 42
- Messbereich
- 43
- Messbereich
- 44
- Kreuzungspunkte
- 50
- erste Aufnahme
- 51
- zweite Aufnahme
- 52
- dritte Aufnahme
- 53
- vierte Aufnahme
- 54
- fünfte Aufnahme
- 55
- gesamte Aufnahme/gesamter 3D-Datensatz
- R1
- Richtung
- R2
- Richtung
- d1
- erster Abstand
- d2
- zweiter Abstand
- G1
- erste Gruppe
- G2
- zweite Gruppe
- t
- Lichtstreifenbreite