Einsatz der optischen 3D

Transcrição

Einsatz der optischen 3D
Institut für
Prozess- und Werkstofftechnik
Lehrstuhl für Technische Mechanik
Prof. Dr.-Ing. Rolf Mahnken
Einsatz der optischen 3D-Messtechnik
in der Fertigung von Triebwerksbauteilen
- Potenzialabschätzung zur Prüfzeitreduktion -
vorgelegt von
cand. Wirt.-Ing. Andreas Tombers
Matr.-Nr. 6052783
erstellt bei der
MTU Aero Engines GmbH
am Standort
München
Betreuer:
PD Dr.-Ing. habil. F. Ferber, UPB, LTM
Prof. Dr.-Ing. R. Mahnken, UPB, LTM
Dipl.-Ing. B. Großkurth, Fa. MTU Aero Engines
Paderborn, 29.01.2006
AUSGANGSSITUATION
2.4
SEITE 15
Ist-Zustand der Prüfung geometrischer Merkmale
Im Folgenden werden die wichtigsten Maschinen und Techniken vorgestellt, die bei der
MTU in der Serienfertigung zur Prüfung von geometrischen Merkmalen zum Einsatz
kommen.
2.4.1
Koordinatenmessmaschinen
Die Koordinatenmesstechnik ist aus einem modernen Industriebetrieb fast nicht mehr
wegzudenken [NN05a]. Ohne sie könnte die Einhaltung der tendenziell immer kleiner
werdenden Bauteiltoleranzen nur schwer überprüft werden. Die geringe Messunsicherheit, die sich mit diesem Verfahren erzielen lässt, kann bei modernen Maschinen bis zu
1 µm betragen [Neum00]. Unter der Messunsicherheit wird eine Kennzahl verstanden,
die mit dem Messergebnis angegeben wird und die Streuung der Messwerte charakterisiert [DKD98]. Sie definiert demnach einen Wertebereich, innerhalb dessen der wahre
Wert einer Messgröße liegen sollte [NN05b]. Die Möglichkeit, mit hoher Wiederholgenauigkeit einen Prüfprozess von der Messwertaufnahme, der anschließenden Auswertung bis hin zur Übermittlung der Prüfdaten an ein übergeordnetes CAQ-System
vollständig automatisieren zu können, sind weitere Vorteile von Koordinatenmessmaschinen. Um die Maßhaltigkeit der gefertigten Turbinenkomponenten zu gewährleisten,
bildet die Koordinatenmesstechnik auch bei der MTU derzeit das Rückgrat der Qualitätsprüfung von geometrischen Merkmalen. Das Grundprinzip dieser Technik sowie
wichtige Aspekte bezüglich der verwendeten Tastsysteme werden im Weiteren einführend erläutert.
2.4.1.1 Grundlagen der Koordinatenmesstechnik
Das Prinzip einer Koordinatenmessmaschine unterscheidet sich grundlegend von den
herkömmlichen Messverfahren, wie beispielsweise einem Messschieber oder einem
Höhenreißer. Dabei erfolgt die Beschreibung der Gestalt eines Werkstückes durch
idealgeometrische Ersatzelemente (z. B. Kreis, Gerade), die in zuvor ermittelte dreidimensionale Messpunkte von der Bauteiloberfläche eingepasst werden. Die 3D-Punkte,
die ihren Ursprung in einem genauen gerätemäßig verwirklichten kartesischen Koordinatensystem haben, können mit mechanischen Tastern oder berührungslos arbeitenden
optischen Sensoren aufgenommen werden [Weck01]. Derart ermittelte Ersatzelemente
repräsentieren in bester Näherung die reale Werkstückgeometrie. Einzeln für sich genommen oder miteinander verknüpft, lassen sich aus ihnen die interessierenden Prüfmerkmale bestimmen. Die Koordinatenmesstechnik stellt demnach kein direkt maßverkörperndes Messverfahren dar, sondern zählt zu den indirekten Verfahren. Das folgende
Beispiel soll die Technik verdeutlichen. Zur Ermittlung des Prüfmerkmals „Außendurchmesser“ eines runden Werkstückes nimmt die Maschine am Umfang des Bauteils
AUSGANGSSITUATION
SEITE 16
entlang einer Schnittlinie gleichmäßig verteilt eine vorher definierte Anzahl an Objektpunkten auf. Aus diesen Messwerten berechnet eine Auswertesoftware anschließend das
Ersatzformelement „Kreis“ das nach einem festgelegten Verfahren in die Punkte eingepasst wird. Das ausgegebene Messergebnis entspricht dann dem Durchmesser dieses
Kreises.
Koordinatenmessmaschinen werden häufig in Portalbauweise mit drei senkrecht zueinander angeordneten Führungsachsen mit jeweils eigenen Längenmesseinrichtungen
gefertigt. Abbildung 2.6 zeigt ein solches Modell vom Typ Zeiss Prismo, wie es auch
bei der MTU zum Einsatz kommt. Die Achsen werden gebildet durch den Verfahrweg
einer über dem Messtisch stehenden Traverse (Y-Achse) und einer auf der Traverse
beweglichen Pinole, die seitlich (X-Richtung) als auch in der Höhe (Z-Richtung) verfahren werden kann. Am Ende der Pinole befindet sich eine Aufnahme für unterschiedliche Sensoren (Messköpfe).
links: Messkopf
unten: Tasterwechseleinrichtung
rechts: Hauptachsen einer
PortalKoordinatenmessmaschine
X
Z
Y
Quelle: Verfasser
Abbildung 2.6: Portal-Koordinatenmessmaschine
Bei der Messpunktaufnahme wird der Sensor, ein meist kugelförmiger Taster aus Rubin, an der gewünschten Position vorsichtig mit der Bauteiloberfläche in Berührung
gebracht. Eine elektronische Schaltung im Sensorinneren registriert die dabei entstehende Auslenkung des Tasterschaftes und sendet Signale an die Antriebe der Achsen. Die
Signale werden dazu verwendet, um gleich bleibende vorab definierte Antastbedingungen, wie beispielsweise Antastkraft und -geschwindigkeit zu schaffen [NN05c]. Ist
AUSGANGSSITUATION
SEITE 17
dieser Zustand erreicht, wird automatisch die Ablesung der Maßstäbe an den drei Achsen ausgelöst. Die Koordinatenwerte, die sich auf den Mittelpunkt der Tastkugel beziehen, werden anschließend an den Auswerterechner übertragen. Damit der Tastkugelradius und die ebenfalls nicht vernachlässigbare Tasterdurchbiegung aus dem
Messergebnis herausgerechnet werden können, muss jeder Taster zuvor an einem hochgenauen Kugelnormal eingemessen werden. Die dabei gewonnen Daten werden dann
bei allen nachfolgenden Messung berücksichtigt, so als ob theoretisch mit einer Kugel
vom Durchmesser Null und einer Antastkraft von Null gemessen worden wäre
[Neum00].
Geometrisch komplexe Bauteile erlauben es oftmals nicht, alle zur Maßberechnung
benötigten Punkte mit einem einzigen Tastelement zu erfassen. Um dennoch zeitsparend und ohne größere Unterbrechungen messen zu können, sind die Messköpfe oftmals
mit zwei und mehr Tastelementen bestückt. Durch das vorherige einmessen und die
dabei ermittelten Korrekturwerte „erscheint“ es der Maschine so, als ob nur mit einem
einzigen Taster gemessen worden wäre. Im industriellen Umfeld besitzen Koordinatenmessmaschinen außerdem Tasterwechseleinrichtungen mit einem großen Aufnahmeteller und ein Tastermagazin, wodurch es möglich ist, den gesamten Messkopf auszutauschen ohne ihn vorher erneut einmessen zu müssen.
2.4.1.2 Taktile Tastsysteme
Dem Messkopf kommt in der Koordinatenmesstechnik eine besondere Bedeutung zu. Er
stellt das verbindende Element von der Oberfläche der zu messenden Objekte zu den
Maßstäben der Koordinatenmessmaschine dar. Man unterscheidet zum einen zwischen
taktilen (antastenden) und optischen (berührungslos arbeitenden) Messköpfen. Da in der
Serienprüfung bei der MTU ausschließlich taktile Messköpfe zum Einsatz kommen,
wird in diesem Abschnitt auch nur auf diesen Sensortyp eingegangen. Tastende Messköpfe werden wiederum nach der Art der Antastung in schaltende und messende Systeme unterteilt.
Schaltende Sensoren
Schaltende Sensoren erzeugen beim Berühren des Messobjektes lediglich ein Triggersignal, welches bewirkt, dass die Wegmesssysteme der Messmaschinenachsen ausgelesen und die Werte als Kugelmittelpunktskoordinaten gespeichert werden. Realisiert
wird dies durch eine vorgespannte mechanische Dreipunktauflage, die mit dem Tasterschaft verbunden ist und die an den drei Stützpunkten als Schalter ausgebildet ist. Das
Antastsignal wird erzeugt, indem bei Auslenkung des Schaftes mindestens einer der
Schalter öffnet und einen Stromkreis unterbricht [Neum03]. Für die nächste Antastung
muss der Messkopf wieder zurückfahren, bis der/die Schalter wieder geschlossen sind.
Abbildung 2.7 verdeutlicht den Messkopfaufbau.
AUSGANGSSITUATION
SEITE 18
Quelle: [Neum00]
Abbildung 2.7: Prinzipdarstellung eines schaltenden Messkopfes
Bedingt durch die Dreipunktauflage und die sich dadurch ergebende unterschiedliche
Hebellänge beim Auslenken des Taststiftes aus verschiedenen Richtungen, kann die
Antastkraft im Extremfall das Doppelte der einfachen Messkraft betragen. Dies wiederum führt zu unterschiedlichen Tasterdurchbiegungen, die letztendlich nur schwer berücksichtigt werden können. Um diesen Nachteil zu minimieren, werden in höherwertigeren Messköpfen Piezoelemente zur Signalerzeugung eingesetzt, die in nahezu allen
Antastrichtungen gleich empfindlich sind und zudem nur kleinere Messkräfte benötigen.
Messende Sensoren
Diese Art von Messköpfen bieten gegenüber den schaltenden Systemen deutliche Vorteile und werden im Center TT hauptsächlich eingesetzt. Messende Tastsysteme stellen
vom Prinzip her kleine Koordinatenmessmaschinen dar, die im inneren aus drei kartesisch angeordneten Linearführungen mit eigenen Längenmesssystemen mit einem Bereich von wenigen Millimetern bestehen. Vorzugsweise sind die Achsen parallel zu den
Referenzachsen der Koordinatenmessmaschine ausgerichtet. Die bei der Antastung
entstehenden mehr oder weniger großen Auslenkungen in den drei Bewegungsrichtungen werden registriert und mit den Koordinaten der Hauptachsen des Koordinatenmessgerätes zu einem Messwert aufaddiert. Zusätzlich werden dabei der Tastkugelradius
sowie die Tasterdurchbiegung berücksichtigt. Diese Technik der Messwertbildung hat
den Vorteil, dass sie unabhängig von der Auslenkung im Messkopf ist und außerdem
auch erfolgen kann, wenn die Messmaschine still steht. Zudem lässt sich mit messenden
Tastsystemen und entsprechender Steuerungssoftware eine kontinuierliche Abtastung
von Oberflächen entlang einer Linie durchführen, die als Scanning bezeichnet wird.
AUSGANGSSITUATION
SEITE 19
2.4.1.3 Ersatzelemente
Wie eingangs beschrieben, berechnet die Steuerungssoftware einer Koordinatenmessmaschine aus den aufgenommenen Messpunkten Ersatzelemente, die ein geometrisches
Ideal darstellen. Bei Werkstücken, die keine Abweichung von ihrer Sollkontur aufweisen, würde man mit dieser Technik immer einen reproduzierbaren Messwert erhalten.
Da industriell gefertigte Bauteile im Normalfall jedoch mit mehr oder weniger großen
Formabweichungen behaftet sind, hängt das ermittelte Messergebnis zu einem großen
Teil von der Zahl der zufällig verteilten Antastpunkte ab. Den Zusammenhang verdeutlicht Abbildung 2.8.
Quelle: [ChNe03]
Abbildung 2.8: Einfluss der Messpunktanzahl auf das Messergebnis
Zur Einpassung eines Ersatzelements in die Punkte gibt es unterschiedliche Verfahren,
die als Ausgleichsverfahren bezeichnet werden und die, abhängig von der Messaufgabe,
alle ihre Berechtigung haben [Effe02] [Neum04]. Grundvoraussetzung für ein stabiles
Messergebnis ist jedoch eine ausreichend hohe Anzahl an Messpunkten. Im dargestellten Beispiel zeigt sich, dass die Gauß-Einpassung (Kriterium: Kleinste Quadratsumme
der senkrechten Abstände aller Messpunkte auf der Oberfläche des Ersatzelements) mit
vier Messpunkten stark mit der zufälligen Lage der Punkte variiert. Erst die Vielpunktmessung durch Scannen der Kontur liefert ein reproduzierbares Messergebnis. Zur
Bestimmung des für Pass- und Paarungsmaße funktionswichtigen Hüll- und Pferchkreises sind ebenfalls möglichst viele Objektpunkte aufzunehmen.
AUSGANGSSITUATION
SEITE 20
2.4.1.4 Messpraxis
Häufig wiederkehrende Prüfungen mit der Koordinatenmessmaschine werden sinnvollerweise in einem bauteilspezifischen Programm automatisiert. Der manuelle Anteil des
Prüfers besteht dann lediglich in der Aufspannung und Ausrichtung des Bauteils auf
dem Messtisch mittels einer Vorrichtung und dem Aufruf des entsprechenden Messprogramms. Teilweise muss das Werkstück zwischendurch umgespannt werden, um den
verwendeten Tastern alle zu prüfenden Merkmale zugänglich zu machen. Bei der MTU
gibt es deshalb für jedes Bauteil, was auf der Messmaschine geprüft wird, ein so genanntes Aufspannblatt auf dem alle den Messprozess betreffenden Informationen aufgelistet sind. Bestimmte Merkmale werden nicht automatisch ausgewertet sondern erfordern die visuelle Begutachtung durch den Qualitätsprüfer anhand eines Grafikplotts.
Dazu zählt beispielsweise die in Abbildung 2.9 rechts dargestellte Formüberprüfung
eines Räumnutenprofils durch Scannen. Der Taster fährt dabei zunächst die gesamte
Kontur entlang einer horizontalen Profillinie ab. Anschließend wird das ermittelte IstProfil von einer speziellen Auswertesoftware stark vergrößert im DIN A0 Format
geplottet. Der Ausdruck enthält zusätzlich ein im System hinterlegtes und dem Prüfmerkmal zugeordnetes Toleranzband, innerhalb dem sich die Messpunkte befinden
müssen. Unzulässige Abweichungen werden farblich gekennzeichnet und sind sofort
sichtbar.
Quelle: Verfasser
Abbildung 2.9: links: Bestimmung der Lage und des Durchmessers einer Bohrung
rechts: Formscan des Schnittprofils einer Räumnut
Koordinatenmessmaschinen sind in Forschung und Industrie weit verbreitet. Neben den
bereits erwähnten Vorteilen dieses Prüfmittels sind an dieser Stelle auch einige Nachteile zu nennen. Diese ergeben sich in erster Linie durch die Notwendigkeit der mechani-
AUSGANGSSITUATION
SEITE 21
schen Antastung zur Messwertaufnahme1. Wenn auch im geringen Maße besteht dabei
die Gefahr der Bauteilbeeinträchtigung durch den Taster [FrCH99]. Ein konkretes
Beispiel dafür stellt die Erstellung von Profilschnitten an der Beschaufelung der NDVBlisk Stufe 1 dar. Der Taster scannt dabei an verschiedenen Stellen quer zur Schaufellängsachse umlaufend das Bauteil ab. Da die Schaufelflächen eine hohe Oberflächengüte aufweisen, verbleiben nach der Messung entlang der abgetasteten Profillinien deutlich sichtbare Spuren, die zwar keine mechanische Beeinträchtigung des Bauteils
darstellen, aber den Kunden unter Umständen irritieren können. Ein weiterer Nachteil
ist in dem Scanningverfahren an sich zu sehen. Grundsätzlich positiv daran ist, dass die
damit erzielbare Punktedichte größer ist, als man sie in der gleichen Zeit durch Einzelpunktmessungen erreichen könnte. Als Ergebnis der Messung erhält man jedoch einen
linienförmigen Profilschrieb, der immer nur einen kleinen Teilbereich des Bauteils
beschreibt. Messmethoden, die eine flächenhafte Erfassung der zu prüfenden Bauteile
ermöglichen, sind daher wünschenswert.
1
Hiervon ausgenommen sind optische Sensoren, die bei der MTU bislang nicht eingesetzt werden
AUSGANGSSITUATION
2.4.2
SEITE 22
Profilprojektoren
Profilprojektoren sind optische Messgeräte zur Bestimmung der Makroformgestalt
durch Vergleichen oder zur 2D-Koordinaten- und Winkelmessung. Dieses kann sowohl
in Auflicht- als auch in Durchlichtprojektionen geschehen. Nachfolgend wird die bei der
MTU praktizierte Durchlichtprojektionstechnik vorgestellt, mit der sich Merkmale zum
einen indirekt über einen Abdruck oder direkt am Bauteil überprüfen lassen.
2.4.2.1 Abdrücke und Profilschnitte
Die Abdrucktechnik wird vorwiegend für kleine Radien und Fasen angewendet. Die
Tätigkeiten, die dazu vom Prüfer durchgeführt werden, sind in Abbildung 2.10 dargestellt.
4
5
3
2
1
Quelle: Verfasser
Abbildung 2.10: Manuelle Profilschnitterstellung und Überprüfung am Projektor
Zunächst wird aus einem Binder und einem Härter eine kneteartige Formmasse angemischt (1). Dabei handelt es sich um einen unschädlichen Stoff, der auch bei der Erstel-
AUSGANGSSITUATION
SEITE 23
lung von Abdrücken in der Zahnmedizin Anwendung findet. Als nächstes wird das zu
prüfenden Merkmal mit ausreichend Masse eingeformt (2). Dabei ist durch leichten
Andruck zu verhindern, dass an der Kontaktfläche zum Bauteil Luftblasen eingeschlossen werden. Liegen zwei oder mehrere Prüfmerkmale dicht nebeneinander, werden
diese üblicherweise zusammen eingeformt. Nach einer kurzen Aushärtezeit von wenigen Minuten kann der Abdruck vom Bauteil entfernt werden. Mit einem Cutter wird
dann eine dünne Scheibe von ca. 1mm Dicke aus der Abformung geschnitten, die das
Negativprofil des Merkmals genau abbildet (3). Der Profilschnitt (4) wird schließlich
auf die Glasplatte des Objekttisches gelegt und von unten angestrahlt. Eine Abbildungsoptik projiziert die zu prüfende Kontur in einem bekannten Vergrößerungsmaßstab auf
einen Bildschirm, wo sie dann begutachtet werden kann. Die Vergrößerung lässt sich
durch wechseln des Objektivs unterhalb des Schirms verändern und bestimmt die maximal erzielbare Messgenauigkeit am Objekt. Im dargestellten Beispiel handelt es sich
um eine 45° Fase, die auf ihre Winkligkeit geprüft werden soll. Zu diesem Zweck ist der
Schirm drehbar gelagert und mit einem Fadenkreuz sowie einer Winkelskala am Umfang ausgestattet. Indem das Fadenkreuz zunächst mit der ersten und dann mit der zweiten Kante in Deckung gebracht wird, lässt sich durch Differenz der beiden Skalenwerte
der gesuchte Winkel berechnen.
Zur Kontrolle von Kurven und Radien wird wie zuvor das Bild auf den Schirm projiziert, wobei auf dem Schirm eine dem Vergrößerungsmaßstab entsprechende Referenzzeichnung der Kontur auf transparentem Papier oder Folie befestigt wird. Meistens ist
um diese SOLL-Kontur zusätzlich ein Toleranzband eingezeichnet, welches den Bereich markiert, in dem sich die aufprojizierte IST-Kontur bewegen darf. Formabweichungen können so leichter ausgemacht werden.
So lange die Abbildungsoptik eine maßhaltig exakt vorher eingestellte Vergrößerung
liefert, sind mit einem Profilprojektor sehr präzise Messungen und Konturprüfungen
möglich. Messtechnisch schwierig zu erfassende Formen lassen sich damit auf einfache
Weise kontrollieren. Nachteilig ist jedoch der große Einfluss, den der Qualitätsprüfer
auf das ermittelte Messergebnis hat. Die Profilschnitte, die manuell erstellt werden,
fallen mitunter von Person zu Person unterschiedlich aus, da es bislang keine spezielle
Vorrichtung gibt, mit der sich die Scheibchen definiert aus dem Abdruck heraustrennen
lassen. Ein zu schräg angesetzter Schnitt oder übermäßiger Druck mit dem Cutter, der
die nachträgliche Verformung des Abdruckes bewirkt, sind Einflüsse, die dazu führen
können, dass die reale Bauteilkontur nicht mehr wirklichkeitsgetreu repräsentiert wird.
Das ermittelte Prüfergebnis ist deshalb mit Blick auf seine Reproduzierbarkeit mehr als
fraglich anzusehen. Ein letzter Punkt betrifft den Aufwand, der zur Prüfung eines
Merkmals mittels Abdrucknahme getrieben werden muss. Es wird deutlich, dass Profilprojektormessungen der beschriebenen Art zeitaufwendige manuelle Arbeit sind. Aus
diesem Grunde sollten sie nur für solche Merkmale durchgeführt werden, die mit der
AUSGANGSSITUATION
SEITE 24
Koordinatenmessmaschine absolut unzugänglich sind oder immer dann, wenn es um
wenige Einzelmessungen geht.
2.4.2.2 Räumnutenprüfung
Ein weiteres Einsatzfeld der Projektionstechnik ist die Prüfung der Ein- und Austrittskanten2 der Räumnuten am Umfang von Verdichter- oder Turbinenlaufscheiben. Zu
diesem Zweck gibt es bei der MTU einen eigenen Profilprojektor, der es ermöglicht,
Laufscheiben auch ohne die vorherige Abdrucknahme zu prüfen (Abbildung 2.11).
Dazu wird das gesamte Bauteil auf einen in mehreren Richtungen dreh- und schwenkbaren Aufnahmetisch gelegt. Anschließend muss es so ausgerichtet werden, dass die zu
prüfende Nut möglichst mittig unter der Objektivöffnung des Projektors liegt. Mit einer
zusätzlichen Lichtquelle projiziert dann ein Linsen- und Spiegelsystem das Profilbild
auf einen großen Schirm seitlich an der Messmaschine. Ähnlich wie bei der obig beschriebenen Radienprüfung, verwendet man eine vorgezeichnete Referenzkurve der
Nutkontur zur Beurteilung der Maßhaltigkeit.
Quelle: Verfasser
Abbildung 2.11: Profilprojektor zur Räumnutenprüfung
2
Die Begriffe Ein- und Austrittskante entstammen dem Herstellungsprozess der Nuten durch Räumen.
Als Eintrittskante wird die Kante bezeichnet, die der Räumnadel bei der Spanabnahme zugewandt ist.
Entsprechend ist die beim Werkzeugaustritt entstehende Kante die Austrittskante
AUSGANGSSITUATION
2.4.3
SEITE 25
Handmessgeräte und Lehren
Mit der Koordinatenmessmaschine und dem Profilprojektor sind zwei Prüfmittel vorgestellt worden, mit denen sich bereits ein Großteil der Merkmale an Triebwerksbauteilen
kontrollieren lässt. Darüber hinaus kommen zahlreiche weitere Mess- und Prüfmittel
zum Einsatz, die an dieser Stelle nur noch erwähnt und nicht mehr detailliert beschrieben werden. Eine Prüfplanauswertung über mehrere Bauteiltypen hinweg hat ergeben,
dass zur manuellen Geometrieprüfung im Wesentlichen die im Folgenden genannten
Prüfmittel verwendet werden.
Messmittel
Lehren
Tiefenmessschieber
Hackenmessschieber
Außen- und Innenmessschrauben
Tellermessschrauben
3-Punkt Messschrauben
Höhenreißer
Winkelmesser (normal u. optisch)
Schnelltaster
Fühlhebelmessgerät
Grenzlehrdorne
Gewindelehrdorn
Radienlehren
Rachenlehren
Endmaße
Haarlineal
Quelle: Verfasser
Abbildung 2.12: Handmessgeräte und Lehren zur manuellen Merkmalsprüfung
Bei wenigen Bauteilen und auch nur bei wenigen Prüfmerkmalen kommen Messgeräte
zum Einsatz, die in der Serienteilprüfung sonst eher seltener anzutreffen sind. Dazu
zählen beispielsweise das Ultraschall-Wanddickenmessgerät und der Konturograph. Die
Erfordernis solcher Prüfmittel ergibt sich oftmals aus der komplexen Gestalt der Bauteile und der dadurch bedingten ungünstigen Lage einiger Merkmale.
Innerhalb der Prüfungen an Tischarbeitsplätzen werden auch so genannte Sichtprüfungen durchgeführt, die streng genommen nicht zu den Geometrieprüfungen zählen, aber
denen in der Qualitätsprüfung der Bauteile eine hohe Bedeutung zukommt. Sie dienen
in erster Linie zur Kontrolle auf Beschädigungen am Bauteil, die auf maschinelle Art
und Weise nicht detektiert werden können und oftmals nur mit einem geschulten Auge
erkennbar sind. Bei der Sichtprüfung ist deshalb in besonderem Maße die gesammelte
Erfahrung der Qualitätsprüfer ausschlaggebend für die Feststellung von Fehlern an den
Bauteilen. Exemplarisch sind in der folgenden Abbildung typische Sicht- und Maßprüfungen dargestellt.
AUSGANGSSITUATION
SEITE 26
links: Sichtprüfung auf Beschädigungen
an einem Leitkranz und an einer
Laufscheibe mit einem Handtaster
bzw. einer Lupe
rechts: Maßprüfung mit dem Höhenreißer
Quelle: Verfasser
Abbildung 2.13: Tischprüfvorgänge
OPTISCHE 3D-MESSTECHNIK
3
SEITE 27
Optische 3D-Messtechnik
Dieses Kapitel behandelt die optische 3D-Messtechnik mittels Streifenprojektion (engl.:
Projected-Fringe). Beginnend mit einigen grundsätzlichen Aspekten bezüglich des
Ablaufs einer optischen Messung folgt ein technisch orientierter Abschnitt, in dem die
Funktionsweise eines Streifenprojektionssensors erklärt wird. Dazu wird das dem Verfahren zugrunde liegende Prinzip zunächst an einem punkthaft und einem linienhaft
messenden System erläutert. Darauf aufbauend folgt anschließend die Erweiterung auf
das flächenhaft antastende Streifenprojektionsverfahren.
3.1
Messablauf
Im letzten Kapitel wurde gezeigt, dass die Koordinatenmesstechnik heutzutage ein
ausgereiftes und hoch entwickeltes Verfahren zur Prüfung von Bauteilen darstellt. Von
der Grundidee her unterscheidet sich die klassische Koordinatenmesstechnik nur unwesentlich von einer optischen 3D-Messanlage. Beide Verfahren stützen sich zur Maßberechnung und Formbestimmung auf Objektpunkte, die in einem dreidimensionalen
Koordinatensystem definiert sind. Deutlich verschieden sind jedoch die Art der Objektpunktaufnahme, die Objektpunktanzahl sowie die Auswertungs- und Darstellungsmöglichkeiten der Messergebnisse. Im industriellen Einsatz, beispielsweise bei der flächenhaften Vermessung von Kotflügeln oder Autotüren, hat sich seit längerem die
Streifenprojektionstechnik bewährt [Fran05-ol]. Die heutigen Systeme sind mittlerweile
so genau, dass ein Einsatz in der Prüfung von eng tolerierten Triebwerksbauteilen denkbar ist. Nachfolgend wird anhand des Ablaufs einer optischen 3D-Messung das Verfahren näher beschrieben.
3.1.1
Digitalisierung
Die Digitalisierung stellt bei der Bauteilprüfung mittels optischer 3D-Messtechnik den
ersten und zugleich wichtigsten Schritt dar. Unter dem Begriff Digitalisierung versteht
man in diesem Zusammenhang ein Verfahren zur Beschreibung von Messobjekten
durch 3D-Oberflächenkoordinaten im Raum. Um auch komplexe Formen hinreichend
genau erfassen zu können, ist die Aufnahme möglichst vieler Objektpunkte mit geringem Abstand zuneinander erforderlich. Die dreidimensionale Beschreibung einer Fläche
durch viele, im Einzelfall bis zu mehreren Millionen Punkten, nennt man daher auch
Punktewolke. Zu Erzeugen der Punktewolke von einem Bauteil können grundsätzlich
unterschiedliche Verfahren zum Einsatz kommen Die Streifenprojektionstechnik ist
OPTISCHE 3D-MESSTECHNIK
SEITE 28
jedoch die Methode, die eine hohe Genauigkeit mit gleichzeitig geringer Messzeit3
verbindet.
Im ersten Schritt der Vermessung werden Streifenmuster auf das Objekt projiziert und
unter einem bestimmten Winkel mit Hilfe von zwei Kameras erfasst. Der dazu notwendige Projektor und die Kameras bilden eine fest miteinander verbundene und zueinander
ausgerichtete Einheit, die - wie in Abbildung 3.1 gezeigt - in einem einzigen Gehäuse
untergebracht ist und den bereits erwähnten Sensor oder Digitalisierer darstellt.
Quelle: [gom05]
Abbildung 3.1: 3D-Digitalisierer ATOS III 600 der Firma gom
Neben dem Sensor besteht eine optische Messanlage im einfachsten Fall aus einem
Stativ, einer Ansteuereinheit sowie einem schnellen Mess- und Auswerterechner mit
entsprechender Software. Letztere berechnet innerhalb von wenigen Sekunden aus den
Bildern die 3D-Koordinaten von maximal so vielen Objektpunkten wie die Kameras
Pixel haben. Definiert sind die Punkte zunächst in einem dreidimensionalen Koordinatensystem des Sensors. Um ein Objekt rundum erfassen zu können, sind mehrere Einzelaufnahmen von unterschiedlichen Positionen notwendig. Die jeweils dabei berechneten Punktewolken müssen anschließend zu einer einzigen Punktewolke
zusammengefügt werden. Dieses erfolgt über Referenzmarken, die entweder auf das
Objekt aufgeklebt werden oder sich auf einer umgebenden Kulisse befinden. Die genauen Koordinaten der Marken werden mit Hilfe der Photogrammetrie bestimmt, worunter
eine Mess- und Auswertemethodik zu verstehen ist, die es ermöglicht, die Lage, Form
und Größe räumlicher Objekte aus bildhaften Aufzeichnungen zu bestimmen [Breu93].
Über die Marken kann das System zu jeder Teilmessung die zugehörige Sensorposition
zum Aufnahmezeitpunkt bestimmen und die Punktewolken in ein gemeinsames Objektkoordinatensystem transformieren. Voraussetzung dafür ist, dass in jeder Teilansicht
mindestens drei Marken in beiden Kameras gleichzeitig sichtbar sind [TBGW99]. Der
Fortschritt der Digitalisierung kann am Monitor des Messrechners verfolgt werden.
3
Die hier gemeinte Messzeit bezieht sich zunächst auf eine Aufnahme mit dem Sensor.
OPTISCHE 3D-MESSTECHNIK
SEITE 29
Abbildung 3.2 zeigt hierzu die Aufnahme der Punktewolke eines Verdichterlaufrades.
Die unterschiedlichen Positionen, die der Sensor zur Erzeugung der Teilansichten einnehmen muss, werden dabei automatisiert von einem Gelenkroboter angefahren. Rechts
im Bild ist das vollständig digitalisierte Bauteil zu sehen.
Quelle: Verfasser
Abbildung 3.2: links: Automatisierte Bauteildigitalisierung mit einem Roboter
rechts: Vollständig digitalisiertes Verdichterlaufrad
3.1.2
Tesselierung
Die Punktewolke ist eine Möglichkeit eine Körperoberfläche im dreidimensionalen
Raum zu beschreiben. Je dichter deren Punktabstand ist, umso detailgetreuer lässt sich
eine Oberfläche damit abbilden. Grundsätzlich ist jedoch nicht an allen Bauteilstellen
eine hohe Punktdichte erforderlich. Betrachtet man beispielsweise ein ebenes Flächenstück, so wäre es völlig ausreichend dieses über wenige Eckpunkte zu definieren und
die dazwischen liegenden Punkte nicht weiter zu berücksichtigen. Diese Technik, die
Tesselierung4 genannt wird, macht man sich bei der optischen 3D-Messtechnik zu
nutze. Dabei wird die gesamte Messpunktewolke überlappungsfrei in ein Netz von
Polygonflächen (Dreiecksflächen), die über Kontrollpunkte definiert sind, umgerechnet.
In Abhängigkeit der Objektkrümmung besitzt das Polygonnetz unterschiedliche Dichten. Der Punktabstand des Netzes wird dabei dynamisch an die Oberflächenkrümmung
angepasst. An engen Radien oder Kanten ist die Größe der Dreiecke demnach kleiner
als an ebenen Flächen (Abbildung 3.3). Auch wenn die Tesselierung weitgehend automatisiert erfolgen kann, ist zur Erzeugung qualitativ hochwertiger Flächen anfänglich
ein nicht zu unterschätzender Nachbearbeitungsaufwand einzuplanen [Duwe02]. Ver-
4
Anstatt des Begriffs Tesselierung wird synonym häufig auch von Polygonisierung gesprochen
OPTISCHE 3D-MESSTECHNIK
SEITE 30
schiedene Parameter erlauben es dabei, den Vorgang manuell zu optimieren und den
eigenen Erfordernissen anzupassen.
Die geschickte Approximation einer Oberfläche durch kleine zusammenhängende Flächenelemente weist Vorteile gegenüber einer Punktewolke auf. Weil nicht mehr alle
digitalisierten Punkte berücksichtigt werden müssen, lässt sich das Bauteilmodell aufgrund der geringeren Datenmenge mit dem Computer besser verarbeiten. Auch wenn
zur Auswertung und Weiterverarbeitung oftmals leistungsfähige Mehrprozessorrechner
zum Einsatz kommen, wirkt sich ein geringerer Rechenaufwand letztendlich auch spürbar auf die Verarbeitungszeit aus.
Quelle: Verfasser
Abbildung 3.3: Detailausschnitt in der Normalansicht (links) und als Polygonnetz
(rechts)
Des Weiteren ist den Flächenelementen jeweils ein Normalenvektor zugeordnet, der
senkrecht aus der Fläche austritt und in eine bestimmte Richtung zeigt. Diese Eigenschaft kann beispielsweise dazu genutzt werden an einer Bauteilfläche im Rechnermodell die Innen- von der Außenseite zu unterscheiden. Aus einer Punktewolke kann diese
Information nicht abgeleitet werden.
3.1.3
Auswertung
Nachdem die Punktewolke mit Hilfe des Sensors aufgenommen und anschließend Aufbereitet wurde, kann die eigentliche Messung von Prüfmerkmalen erfolgen. Im Falle des
bei MTU verwendeten Meßsystems geschieht dieses mit der gleichen Software, die den
Anwender schon vorher durch den Digitalisierungs- und Tesselierungsprozess geleitet
hat. Das Programm bietet umfangreiche Funktionen um alle denkbaren Geometrieprüfungen durchzuführen. Das grundsätzliche Prinzip hierbei, entspricht der bereits von der
Koordinatenmessmaschine bekannten Generierung von idealen Ersatzelementen als
OPTISCHE 3D-MESSTECHNIK
SEITE 31
Abbild der Wirklichkeit. Der einzige Unterschied besteht darin, dass die Elemente nicht
in wenige Einzelpunkte sondern in ein Polygonnetz eingepasst werden. Dieser Schritt
erfolgt bei dem optischen Messsystem interaktiv und kann am Bildschirm verfolgt
werden. Eine typische Messszene, die sich dem Anwender dabei zeigt, ist in Abbildung
3.4 dargestellt. Kleine Informationsboxen geben Auskunft über die gemessenen Geometrien und zeigen die Ist-Maße an, die dann mit den Zeichnungsmaßen verglichen
werden können.
Quelle: Verfasser
Abbildung 3.4: Bestimmung der Ebenheit einer Bauteilfläche sowie des Durchmessers einer Bohrung und eines Lochkranzes
Die optische 3D-Messtechnik würde in der Serienprüfung von Bauteilen keine Vorteile
bringen, wenn sie nicht weitestgehend automatisierbar wäre. Daher besteht die Möglichkeit mittels Programmen die bisher beschriebenen Arbeitsschritte zusammenzufassen, so dass die Messwertaufnahme und -aufbereitung über die Merkmalsprüfung bis
hin zur anschließenden Zusammenstellung in einem Messprotokoll ohne weiteres Zutun
für ein bestimmtes Bauteil jedes Mal gleichartig erfolgen kann.
OPTISCHE 3D-MESSTECHNIK
SEITE 32
Das Bild zeigt die Kante
einer Verdichterschaufel,
in die nach dem GaußVerfahren ein Zylinder
zur Radiusbestimmung
eingepasst wurde. Besonders gut zu sehen ist,
dass die Ist-Kontur, die
durch das Polygonnetz
repräsentierte wird, an
einigen Stellen den Zylinder durchstößt und
somit eine geringe Formabweichung vorliegt
Quelle: Verfasser
Abbildung 3.5: Zylindereinpassung zur Radiusbestimmung an einer Schaufelkante
3.2
Vergleich mit der Koordinatenmessmaschine
Der dargestellte Messablauf hat die Unterschiede zur klassischen Koordinatenmesstechnik deutlich gemacht. Zusammenfassend sind in den folgenden Punkten die wesentlichen Vorteile der optischen 3D-Messtechnik gegenüber der klassischen Koordinatenmesstechnik zusammengestellt.
•
Berührungslose Datenerfassung
Bei der optischen 3D-Messtechnik erfolgt die Datenaufnahme berührungslos mit
Hilfe eines Sensors. Eine mögliche Beeinträchtigung des Bauteils durch mechanisch tastende Komponenten ist ausgeschlossen.
•
Hohe Punktdichte
Im Gegensatz zur Messmaschine werden die Objektpunkte nicht gezielt angetastet sondern unspezifisch mit einer hohen Dichte aufgenommen. Mehrere Millionen Messpunkte pro Aufnahme sind möglich.
•
Flächenhafte Bauteilerfassung
Aufgrund der hohen Punktdichte lassen sich Messobjekte flächenhaft erfassen,
was zu besser abgesicherten Messergebnissen führt. Die unter Kapitel 2.4.1.3
angesprochene Problematik einer unzureichenden Messpunktanzahl tritt im Normalfall nicht auf.
OPTISCHE 3D-MESSTECHNIK
SEITE 33
•
Offline Datenverarbeitung
Die Messdaten werden vom Sensorsystem gespeichert. Dadurch ist es möglich
die eigentliche Messung von Merkmalen nach der Digitalisierung zu jedem gewünschten Zeitpunkt und auch mehrmals durchzuführen. Das reale Bauteil wird
dazu nicht mehr benötigt. Mit der Koordinatenmessmaschine werden hingegen
einzelne Punkte angefahren und direkt bewertet. Möchte man ein Merkmal noch
einmal Prüfen, müssen die dafür benötigten Punkte erst wieder erneut angetastet
werden.
•
Geringe Genauigkeitsanforderungen an die Sensorführung
An die Sensorführung werden bei der Streifenprojektionstechnik keine besonderen Anforderungen gestellt. Der Sensor kann beispielsweise von einem einfachen Roboter geführt werden, dessen Positioniergenauigkeit eine untergeordnete
Rolle spielt. Das Messobjekt und der Sensor dürfen sich einzig und allein während der Digitalisierung nicht bewegen. Im Vergleich dazu sind bei der Koordinatenmessmaschine hochpräzise Achsführungen eine Grundvoraussetzung für
genaues Messen.
OPTISCHE 3D-MESSTECHNIK
3.3
SEITE 34
Technische Grundlagen
Das Streifenprojektionsverfahren und einige diesbezügliche Grundlagen werden im
Folgenden näher beschrieben. Auf umfangreiche mathematische Betrachtungen, die
zum tieferen Einstieg in die Thematik erforderlich sind, wird an dieser Stelle verzichtet.
Diese können vom interessierten Leser in Standardwerken zur Photogrammetrie und
digitalen Bildverarbeitung nachgelesen werden. Zum grundsätzlichen Verständnis des
Messprinzips sind diese jedoch nicht unbedingt notwendig.
3.3.1
Begriffsbestimmung
Die Streifenprojektionstechnik gehört zur Gruppe der bildgebenden 3D-Messverfahren,
welche unter dem Oberbegriff „Topometrie“ zusammengefasst werden und nach
[Breu93] die folgenden gemeinsamen Merkmale aufweisen:
•
Messprinzip Triangulation
•
Messen mit strukturierter Beleuchtung
•
bildhafte Erfassung von 3D-Messdaten
•
dynamische Messwertaufnahme
•
rechnergestützte Online-Verarbeitung.
Techniken der bildhaften Erfassung von 3D-Messdaten sind von den Verfahren zu
unterscheiden, die zur Erlangung von flächenhaften räumlichen Informationen einen
Messbereich abscannen müssen. Zu diesen zählen beispielsweise die Lasertriangulation
und die Lichtschnitttechnik, deren Funktionsprinzip zum besseren Verständnis des
Streifenprojektionsverfahrens nachfolgend kurz beschrieben wird. Die rechnergestützte
Online-Verarbeitung gilt heute bei vielen Messverfahren als Standard und muss fast
nicht mehr explizit aufgeführt werden. Bei topometrischen 3D-Messtechniken kommt
ihr jedoch eine besondere Bedeutung zu. Ohne den Einsatz leistungsstarker Auswerterechner zur Bewältigung der enorm großen Datenmengen wäre ein wirtschaftlicher
Einsatz der Verfahren undenkbar.
3.3.2
Das Messprinzip der Triangulation
Das Prinzip der Triangulation (von lat.: triangulum = Dreieck) ist in der Messtechnik
seit langem bekannt und wurde schon im sechsten Jahrhundert v. Chr. von Tales von
Milet zur Abstandsbestimmung eingesetzt. Als „Verfahren des Vorwärtseinschneidens“
fand es im 19. Jahrhundert in der Geodäsie (Landvermessung) Anwendung [Pfei93].
Dabei macht man sich den geometrischen Zusammenhang zu nutze, dass der Eckpunkt
OPTISCHE 3D-MESSTECHNIK
SEITE 35
eines Dreiecks eindeutig bestimmt ist, wenn die Länge der gegenüberliegenden Seite
sowie die an sie angrenzenden Winkel gegeben sind. In der praktischen Umsetzung
ermittelt man dazu durch Anpeilen eines Objektes von zwei im Abstand b (Basislinie)
befindlichen Standpunkten P und P` die Winkel a und ß (Abbildung 3.6). Mit dem
Sinussatz kann dann die Länge einer der beiden Peilstrahlen und anschließend der Abstand des Objektes von der Basislinie (Höhe des Dreiecks) berechnet werden. Um mit
dieser einfachen Methode genaue Ergebnisse zu erhalten, müssen a und ß mit einem
geringen Fehler bestimmt werden. Ein Winkelmessgerät was dies ermöglicht ist der
Theodolit, der nicht nur zur Geländeaufnahme sondern auch zur astronomischen Ortsbestimmung verwendet werden kann [NN05d]. Theodoliten bestehen im einfachsten
Fall aus einem Fernrohr mit Fadenkreuz, welches auf einem drehbaren horizontalen und
vertikalen Teilkreis auf einem Stativ gelagert ist. Zur horizontalen Ausrichtung im
Gelände kann eine einfache Dosenlibelle verwendet werden.
m
P
a
O
h
b
m
b
=
sin β sin(180° − α − β )
h=
b ⋅ sin α ⋅ sin β
sin(180° − α − β )
ß
P’
Quelle: Verfasser
Abbildung 3.6: Triangulation in der Landvermessung
3.3.3
Laser-Triangulation
Im industriellen Bereich gewann das Triangulationsprinzip erst mit der Entwicklung der
Leucht- und Laserdioden sowie der optoelektronischen Sensorik an Bedeutung. Dies
ermöglichte die Entwicklung von kleinen Lasertriangulationssensoren (LTS), die bei
Abstandsmessungen im Entfernungsbereich bis zu einigen Metern eine Tiefenauflösung
bis in den µm-Bereich zulassen. Der schematische Aufbau eines eindimensionalen
Triangulationssensors ist in Abbildung 3.7 dargestellt. Dazu ist anzumerken, dass eine
optische Triangulation grundsätzlich durch verschiedenste geometrische Anordnungen
der bestimmenden Komponenten realisiert werden kann und die abgebildete eine mögliche darstellt [Baum02].
OPTISCHE 3D-MESSTECHNIK
SEITE 36
?l
?
Laser
Detektor
?h
Quelle: Verfasser
Abbildung 3.7: Prinzip eines Lasertriangulationssensors
Eine Leucht- oder Laserdiode fokussiert durch eine Projektionsoptik einen Lichtpunkt
auf die Oberfläche des zu messenden Objektes. Das vom Objekt diffus reflektierte Licht
wird über die Abbildungsoptik auf einen Lagedetektor geleitet. Bei einfachen Sensoren
werden hierzu geteilte Photodioden, Lateraleffektdioden (Position Sensitive-Detectors,
PSD) oder Zeilenkameras verwendet [Pfei93][Hüse95]. Verschiebt man das Objekt in
Richtung des einfallenden Laserstrahls, führt dies zu einer Lageänderung auf dem Detektor. Bei einem wie oben dargestellten System zur Längenmessung wäre es wünschenswert, dass eine Längenänderung ? h in linearer Abhängigkeit zur Abstandsänderung ? l steht. Dies ist im Allgemeinen nicht gegeben, so dass herstellerseitig unter
Berücksichtigung der sensorspezifischen Kennlinie eine besondere geometrische Anordnung von Laser, Abbildungsoptik und Detektor erforderlich ist. Ebenfalls baulich
vom Hersteller vorgegeben und als feste Größe zu betrachten ist der Triangulationswinkel ?. Dieser befindet sich zwischen der optischen Achse der Abbildungsoptik und dem
aus dem Laser austretenden Lichtstrahl. Durch ihn bestimmen sich neben weiteren
Einflussfaktoren die Messauflösung und der Messbereich eines Triangulationssensors.
Je größer der Triangulationswinkel gewählt wird (z. B. 60°), desto größer ist der bei
einer Objektverschiebung um ? l registrierte Lichtpunktversatz ? h auf dem Detektor.
Damit steigt auch die Messauflösung bei gleichzeitiger Reduzierung des Messbereichs.
Abbildung 3.8 verdeutlicht den beschriebenen Zusammenhang, der bei allen auf dem
Triangulationsprinzip beruhenden Verfahren zu beobachten ist [Breu93]. Zusätzlich ist
zu beachten, dass bei großen Winkeln ? je nach Oberflächenprofil des Objektes einzelne
Bereiche abgeschattet werden können und damit nicht messbar sind.
OPTISCHE 3D-MESSTECHNIK
SEITE 37
?=35°
?=60°
h
h
Quelle: Verfasser
Abbildung 3.8: Zusammenhang zwischen Triangulationswinkel, Messbereich und
Auflösung: Großer Triangulationswinkel = hohe Auflösung, kleiner
Höhenmessbereich. Kleiner Triangulationswinkel = reduzierte Auflösung, großer Höhenmessbereich.
Durch bewegen des Messstrahls relativ zum Messobjekt (scannen) sind mit dem Lasertriangulationsverfahren auch zwei oder dreidimensionale Konturerfassungen möglich
[Sowa95]. Jedoch ist dies mit großem zeitlichem und auch mechanischem Aufwand
verbunden und daher für die schnelle Erfassung vieler Objektpunkte an großflächigen
Bauteilen nicht prädestiniert [Wior01][Breu93].
3.3.4
Lichtschnittverfahren
Zur optischen Formerfassung weit verbreitet ist das Lichtschnittverfahren, welches das
Ergebnis aus der konsequenten Weiterentwicklung der eindimensionalen Lasertriangulation darstellt. Abbildung 3.9 zeigt hierzu den Aufbau eines Lichtschnittsensors. Unter
einem Winkel von meistens 45° wird ein schmales Lichtband bzw. eine scharfe HellDunkel-Grenze auf die Werkstückoberfläche geworfen.
OPTISCHE 3D-MESSTECHNIK
SEITE 38
Quelle: [Luhm00]
Abbildung 3.9: Prinzipieller Aufbau eines Lichtschnittsensors
Solche Lichtebenen lassen sich im einfachsten Fall dadurch erzeugen, dass ein Glasstab
senkrecht zur Laserstrahlachse positioniert wird. Die auftreffende kollimierte Laserstrahlung wird dann zu einem Linienfächer mit einer gaußschen Intensitätsverteilung
entlang der Linie geformt. Aufwendigere Projektionstechniken erlauben es, Laserlinien
mit nahezu homogener Intensitätsverteilung zu erzeugen, welche das Auflösungsvermögen des Lichtschnittsensors steigern [NN04b]. Das an der Objektoberfläche reflektierte Licht gelangt dann auf den zweidimensionalen CCD-Bildaufnehmer (Chargecoupled Device) einer Videokamera oder eines Detektors. Die dort abgebildete Linie ist
nicht mehr gerade sondern erscheint leicht bis stark gekrümmt. Dieser Lateralversatz im
registrierten Bild stellt bereits ein Maß für die Höhen und Tiefen entlang des Lichtschnittes am angestrahlten Objekt dar. Stellt man sich die projizierte Linie als Aneinanderreihung vieler Einzelpunkte vor, so entspricht dies der bereits beschriebenen Lasertriangulation [Moli88]. Jeder der gedachten Lichtpunkte erzeugt eine Reflexion auf
dem Matrixfeld des CCD-Chips. In den angestrahlten Bildpixeln werden dadurch elektrische Signale ausgelöst anhand, derer sich der genaue Auftreffpunkt auf dem Chip
ermitteln lässt. Mit der zusätzlichen Kenntnis über die genaue Position der Lichtquelle,
der Orientierung der Lichtebene sowie der Position und Orientierung der Kamera, kann
ein Bildverarbeitungssystem die 3D-Koordinaten für jeden einzelnen Punkt des Lichtschnittes berechnen [Wolf97].
Beim Lichtschnittverfahren besteht durch bewegen der Sensoranordnung oder des
Messobjektes ebenfalls die Möglichkeit zur Digitalisierung einer gesamten Kontur.
Analog zu einer scannenden Lichtpunkt-Triangulationseinheit stellt dies sehr hohe
OPTISCHE 3D-MESSTECHNIK
SEITE 39
Anforderungen an die verwendeten Bewegungsachsen hinsichtlich ihrer Positioniergenauigkeit, da mechanische Fehler direkt in das Messergebnis eingehen [BBBC+03]
3.3.5
Bildhafte Triangulation durch strukturierte Beleuchtung
Die bisher vorgestellten Verfahren ermöglichen eine punkt- und linienhafte und, jedoch
unter größerem Aufwand, auch die flächenhafte 3D-Vermessung von Bauteilen. Ausgehend von der Einfachtriangulation über einen Lichtpunkt und die linienhafte Triangulation entlang eines Lichtschnittes, lässt sich die bildhafte Triangulation einer gesamten
Messszene durch den Einsatz von strukturiertem und flächenhaft aufprojiziertem Licht
realisieren [Breu93]. Dieses ist der wesentliche Ansatz, der auch der Streifenprojektionstechnik zugrunde liegt, die eingangs kurz erläutert wurde und die nachfolgend vertieft betrachtet werden soll.
3.3.5.1 Statische Streifenprojektion
Im einfachsten Fall des Streifenprojektionsverfahrens wird ein statisches periodisches
Linienmuster von einem Projektor erzeugt und auf die Oberfläche des Messobjektes
projiziert. Eine Matrixkamera beobachtet das an der Bauteiloberfläche reflektierte Licht
unter einem festen Winkel zur Projektionsrichtung. Der Linienabstand ist dabei so
gewählt, dass die Kamera in der Lage ist sie gerade noch einzeln aufzulösen. Abbildung
3.10 zeigt schematisch eine solche Anordnung. Der Übersicht halber ist nur die Projektion eines einzelnen Streifens dargestellt.
Projektor und Kamera bilden eine fest miteinander verbundene und zueinander ausgerichtete Einheit, die in einem einzigen Gehäuse untergebracht ist und üblicherweise als
Streifenprojektionssensor oder Digitalisierer bezeichnet wird. Bei vielen der kommerziell erhältlichen Systeme hat sich ein Aufbau mit einem in der Mitte befindlichen
Projektor und zwei Beobachtungskameras an den Seiten etabliert. Das zugrunde liegende Messprinzip lässt sich jedoch einfacher an einem Aufbau mit einem Projektor und
nur einer Kamera erklären. Grundsätzlich ist es aber auch auf Mehrkamerasysteme
übertragbar.
OPTISCHE 3D-MESSTECHNIK
SEITE 40
Objektpunkt P(x,y,z)
P
Streifenprojektor
Matrixkamera
v
u
f
Triangulationsbreite
Quelle: Verfasser nach [Wior01]
Abbildung 3.10: Statische Streifenprojektion
Jede Linie auf dem Messobjekt entsteht geometrisch gesehen durch den Schnitt einer
vom Projektor ausgehenden Lichtebene mit der Oberfläche des angestrahlten Bauteils.
Solange die beleuchtete Fläche eben ist, erscheinen die Streifen als gerade parallele
Linien. Gekrümmte Oberflächen lassen ein deformiertes Streifenmuster entstehen. Das
eigentliche Problem, die Berechnung von 3D-Oberflächenkoordinaten, kann in der
dargestellten Anordnung wie folgt gelöst werden. Ein auf dem Lichtstreifen liegender
Objektpunkt P wird über einen Bildstrahl im Matrixfeld der Kamera auf einem Pixel mit
den Koordinaten (u, v) abgebildet. Kennt man die Lage des Bildstrahls und der Lichtebene, bezogen auf ein dem Projektor und der Kamera übergeordnetes Koordinatensystem (Sensorkoordinatensystem), so lässt sich der Ort des gesuchten Punktes ebenfalls
exakt bestimmen, weil Sie eindeutig durch den Durchstoßpunkt der Geraden mit der
Ebene definiert ist. Abbildung 3.11 zeigt zur Verdeutlichung des Problems eine weitere
Messanordnung senkrecht aus der Vogelperspektive. Alle dargestellten Längen sind
wahre Längen und liegen in einer Ebene. Die Koordinate v der Bildebene bleibt dabei,
ohne Beschränkung der Allgemeinheit, unberücksichtigt und kann beispielsweise zu
Null gesetzt werden.
OPTISCHE 3D-MESSTECHNIK
SEITE 41
Messobjekt
?
P
Lichtebene
?a
Bildstrahl
a
ß
a0
?ß
ß0
b
..
.
32
10
-1-2
-3. .
.
Ordnung f
Projektionszentren
Projektionsgitter
u
Pixel(u,v=0)
Quelle: Verfasser nach [Breu93]
Abbildung 3.11: Streifenprojektion
Zwischen der Projektions- und der Abbildungsachse von Projektor und Kamera liegt der
Triangulationswinkel ?. Er kann am Streifenprojektionssensor indirekt durch manuelles
verändern des zentralen Projektionswinkels a 0 und des zentralen Beobachtungswinkels
ß0 eingestellt werden, wodurch sich das verfügbare Messvolumen vergrößert oder verkleinert. Während des Messvorgangs muss jedoch eine starre Fixierung dafür sorgen,
dass Kamera und Projektor ihre relative Lage zueinander nicht verändern und ? konstant
bleibt. Ferner ist das Projektionsgitter zur Erzeugung der Streifenstruktur schematisch
dargestellt. In der Realität kann zu diesem Zweck ein Dia mit hochgenauer Gitterstruktur verwendet werden. Die erreichbare Liniendichte liegt dabei zwischen 4 und 40
Linien/mm.
Die Lage der Lichtebene und des Bildstrahls werden durch die Winkel a und ß beschrieben, die zunächst unbekannt sind und die es zu bestimmen gilt. Zusammen mit der
vom Sensor baulich festgelegten und bekannten Basislänge b bilden sie ein Triangulationsdreieck (rot), welches den Objektpunkt P beinhaltet und seine Lage genau definiert.
Der erste Schritt zur Koordinatenbestimmung von P besteht folglich darin, den Einfallswinkel ß zu berechnen. Dieser ist eine Funktion des zentralen Beobachtungswinkels
ß0, der Pixelkoordinate (u, v) sowie der sog. inneren Orientierung ? ß, die durch mehre-
OPTISCHE 3D-MESSTECHNIK
SEITE 42
re Parameter die Abbildungsgeometrie der Beobachtungskamera beschreibt
[BBBC+03]. Die innere Orientierung wird durch einen Kalibriervorgang bestimmt. Ihr
liegt das Prinzip einer einfachen Lochkamera zugrunde, bei der die Abbildung eines
dreidimensionalen Objektes in die zweidimensionale Bildebene nach dem mathematischen Modell der Zentralprojektion erfolgt. Dabei laufen alle vom Objekt ausgehenden
Bildstrahlen durch einen gemeinsamen Punkt O, der Projektionszentrum genannt wird.
Anschließend treffen sie auf den zugehörigen Bildpunkt in der Abbildungsebene der
Kamera, beispielsweise einem CCD-Chip. Abbildung 3.12 verdeutlicht das Modell der
Zentralperspektive und zeigt die wesentlichen abbildungsrelevanten Parameter.
O
c
H’
h
M’
Objektivachse
v
u
Quelle: Verfasser
Abbildung 3.12: Die Zentralprojektion am Beispiel einer Lochkamera
Die Kamerakonstante c definiert dabei den Abstand des Projektionszentrums O von der
Bildebene. Sie beeinflusst den Abbildungsmaßstab, welcher dem Verhältnis von Aufnahmeentfernung h zu Kamerakonstante c bei gegebenem Objektabstand entspricht. Bei
realen Aufnahmesystemen hängt c von der Brennweite des jeweils verwendeten Objektivs ab. Ein weiterer Parameter ist die Lage des sog. Bildhauptpunktes H’. Zu ihm gelangt man durch fällen des Lotes von der Objektivebene durch das Projektionszentrum
auf die Bildebene. Bei gebräuchlichen Kameras fällt die Lage des Bildhauptpunktes H’
üblicherweise mit dem Bildmittelpunkt M’ zusammen [Luhm00].
Zur inneren Orientierung einer realen Kamera zählen neben den bisher erläuterten Parametern auch solche Abbildungseigenschaften, die vom idealisierten Modell der Zentralprojektion abweichen. Im Vergleich zur Lochkamera besitzen photogrammetrische
Bildsysteme Objektive mit komplizierten Strahlengängen, die zudem herstellungsbedingte Abbildungsfehler in Form von radial-symmetrischen und tangentialen Verzeichnungen aufweisen [Breu93]. Um diesen unerwünschten Einfluss von Anfang an mög-
OPTISCHE 3D-MESSTECHNIK
SEITE 43
lichst gering zu halten, wird in der optischen Messtechnik mit Objektiven von höchster
Präzision und Güte gearbeitet. Darüber hinaus müssen jedoch alle verbleibenden Fehler
und Verzeichnungen, sofern sie nicht aus technischen Datenblättern bekannt sind, so gut
es geht durch Kalibrierung individuell für jedes Aufnahmesystem ermittelt und in Form
von Korrekturparametern oder Funktionen im Kameramodell berücksichtigt werden.
Insgesamt betrachtet kommt der korrekten Bestimmung der inneren Orientierung eine
große Bedeutung zu. Schon kleinste Veränderungen der Abbildungseigenschaften wirken sich deutlich auf die erreichbare Genauigkeit im Objektraum aus. Bei Messaufgaben mit hohen Genauigkeitsanforderungen werden deshalb sämtliche Parameter nur für
eine Aufnahmeserie als konstant vorausgesetzt und vor jeder weiteren Messung neu
ermittelt.
Mit erneutem Blick auf Abbildung 3.11 und auf die eigentliche Aufgabe der Koordinatenbestimmung des Objektpunktes P, stellt die Berechnung des Projektionswinkels a
der auf den Punkt treffenden Lichtebene den zweiten Schritt dar. Dabei wird der Streifenprojektor als eine inverse Kamera aufgefasst, dessen Strahlgeometrie und Linsenverzeichnungen ebenfalls über Parameter der inneren Orientierung, in diesem Fall ? a,
beschrieben werden können. Der Unterschied zur Kamera besteht jedoch darin, dass an
die Stelle von zweidimensionalen Pixelkoordinaten nun eine eindimensionale Streifenordnung f tritt, da die Lichtebenen an sich schon zwei Dimensionen aufweisen. Die
Streifenordnung, die synonym auch als Phase bezeichnet wird, gibt für jede Lichtebene
an, von welcher Stelle des Projektionsgitters aus sie projiziert wurde. Zusammen mit
der inneren Orientierung ? a des Projektors und dem zentralen Projektionswinkel a 0
kann schließlich der zweite gesuchte Winkel a berechnet werden, so dass das Triangulationsdreieck mit der Basislänge b und dem darin eingeschlossenen Punkt P eindeutig
bestimmt ist.
Der Anschaulichkeit halber bezogen sich die bisherigen Betrachtungen auf den in Abbildung 3.11 dargestellten zweidimensionalen Spezialfall, in dem es ausreichte die
Einfallsrichtung des Bildstrahls als auch die Projektionsrichtung der Lichtebene jeweils
mit einem einzigen Winkel zu beschreiben (a bzw. ß). An dieser Stelle sei jedoch angemerkt, dass die beschriebene Vorgehensweise gleichermaßen für den dreidimensionalen Fall angewendet wird, in dem der Bildstrahl und die Achsen von Projektor und
Kamera nicht mehr per Annahme in einer Ebene liegen müssen. Um dann die Lage des
Bildstrahls zur Bildfläche der Kamera beschreiben zu können, wird dieser als dreidimensionaler Vektor im Kamerakoordinatensystem (u, v, w) aufgefasst. Zu den gesuchten Objektkoordinaten eines beliebigen in der Bildfläche dargestellten Objektpunktes
(u, v) gelangt man dann durch den sog. räumlichen Vorwärtsschnitt. Dessen Anwendung setzt neben der inneren Orientierung zusätzlich die äußere Orientierung von
Kamera und Projektor voraus, die deren absolute räumliche Lage in Bezug auf das
Messobjekt definiert [Luhm00].
OPTISCHE 3D-MESSTECHNIK
SEITE 44
Zusammenfassend kann also festgehalten werden, dass bei bekannter innerer und äußerer Orientierung von Kamera und Projektor (kalibriertes Modell) eine geometrisch –
strahlenoptische Verbindung von einem Projektionsursprung f zu dem gesuchten Objektpunkt und weiter bis hin zum Kamerapixel (u, v) hergestellt werden kann und sich
aus dem dadurch aufgespannten Dreieck die Objektkoordinate berechnen lässt. Die
eigentliche Schwierigkeit bei dieser Vorgehensweise liegt jedoch darin, zu jedem in der
Kamera abgebildeten Objektpunkt die zugehörige Projektionsrichtung f der Lichtebene
zu finden, die ihn beleuchtet (Korrespondenzproblem). Dadurch, dass das aufprojizierte
Streifenmuster periodisch mit abwechselnden Hell-Dunkel-Kanten ist und die auf dem
Bauteil sichtbaren Linien kein eindeutiges Unterscheidungsmerkmal aufweisen, kann
eine absolute Ordnungsnummer nicht ohne weiteres angegeben werden. Bei einfachen
Messobjekten und einem nicht zu kleinen Streifenabstand kann sie mitunter manuell aus
dem Kamerabild abgezählt werden. Problematisch ist die Streifenzuordnung jedoch bei
komplexeren Oberflächen, weil dort Unstetigkeiten im Linienverlauf auftreten können,
die eine eindeutige Zuordnung von Projektionsrichtung f zu Pixelkoordinate (u, v)
verhindern. Abbildung 3.13 zeigt zur Verdeutlichung die Messszene einer Turbinenschaufel aus der Blickrichtung der beobachtenden Kamera. Auf dem Schaufelblatt
würde die Auszählung der Streifenordnung wenige Probleme bereiten. Im Bereich des
Schaufelfußes mit seinem charakteristischen Tannenbaumprofil wirkt der Streifenverlauf durch die stark gewölbte Oberfläche unterbrochen und unstetig, so dass ein Abzählen der Streifennummer nicht mehr möglich ist.
Quelle: Verfasser
Abbildung 3.13: Phasensprünge im Streifenmuster auf einer Turbinenschaufel
Im Sinne eines schnellen topometrischen Messverfahrens und vor dem Hintergrund
industrieller Anwendungen stellt die manuelle Auswertung von Streifenbildern keine
praktikable Lösung für das Korrespondenzproblems dar. Aus diesem Grunde mussten
Verfahren entwickelt werden, die es ermöglichen auf automatisiertem Wege mit Me-
OPTISCHE 3D-MESSTECHNIK
SEITE 45
thoden der computergestützten Bildverarbeitung das mit der Kamera erfasste Streifenmuster zu analysieren und die Ergebnisse den weiteren Berechnungsschritten zuzuführen. Mit der nachfolgend beschriebenen Methode des codierten Lichtschnittansatzes und
der Phasen-Shift-Methode werden zwei Verfahren vorgestellt, die in der Praxis häufig
Anwendung finden und die eine eindeutige Bestimmung der gesuchten Streifenordnung
f ermöglichen.
3.3.5.2 Codiertes Lichtschnittverfahren
Das codierte Lichtschnittverfahren (Coded Light Approach) stellt ein absolut messendes
Streifenprojektionsverfahren dar. Ihm liegt eine Raum-Zeit-Codierung der zur Berechnung von Objektkoordinaten notwendigen Phaseninformation f (Projektionsrichtung)
zugrunde [Hau98]. Abbildung 3.14 zeigt schematisch den aus Projektor und Matrixkamera bestehenden Messaufbau.
Messobjekt
1
0
0
1
0
1
0
0
1
0
t
Xp
v
t
Matrixkamera
u
Quelle: Verfasser nach [Luhm00]
Abbildung 3.14: Codierter Lichtansatz
Im Vergleich zur statischen Streifenprojektion erzeugt der Projektor nicht nur ein einziges Streifenbild, sondern eine bestimmte Sequenz von m verschiedenen Binärmustern.
Heute werden dazu üblicherweise spezielle Projektoren mit Liniengittern aus getrennt
schaltbaren LCD-Linien verwendet. Beginnend mit einem Hell-Dunkel-Feld nimmt die
Streifendichte mit jeder Projektion bis hin zur feinsten Auflösung zu. Aus der Sicht
OPTISCHE 3D-MESSTECHNIK
SEITE 46
eines Objektpunktes P wird die Sequenz als eine Hell-Dunkel-Folge wahrgenommen,
die, als Binärwert aufgefasst, eindeutig die dem Punkt zugehörige Projektionsrichtung
beschreibt. Quer zur Streifenrichtung XP lassen sich so insgesamt 2m verschiedene
Projektionsrichtungen durch ein m-stelliges Codewort unterscheiden. Synchron zur
Projektion der unterschiedlichen Streifenmuster nimmt eine Kamera m Bilder vom
angestrahlten Messobjekt auf. Betrachtet man nun den Abbildungsort des Objektpunktes P in der Bildebene der Matrixkamera, so „sieht“ dieser Bildpixel eine Hell-DunkelFolge (im Beispiel 01001), die sich eindeutig der Projektionslinie zuordnen lässt, die
den Objektpunkt beleuchtet. Die Korrespondenz zwischen Bildkoordinate (u, v) und
Projektionsrichtung f ist damit hergestellt und kann zur Berechnung der gesuchten
Oberflächenkoordinate herangezogen werden.
Reale Streifenprojektionssysteme, die nach dem codierten Lichtansatz arbeiten, müssen
in sehr kurzer Zeit für jeden Bildpunkt der Kamera die gesuchte Projektionsrichtung
ermitteln. Dazu werden die m aufgenommenen Bilder zunächst binarisiert und die für
jedes Pixel entstehenden Bitfolgen in einen m-Bit tiefen Bit-Plane-Speicher geschrieben. Über eine Zuordnungstabelle kann dann sehr schnell der Bezug zur entsprechenden
Projektionslinie im Projektor hergestellt werden. Die Binarisierungsschwelle, welche
die zwei Grauwertebereiche für eine 1 bzw. eine 0 definiert, wird mit Hilfe eines Hellbildes und eines Dunkelbildes am Anfang der Messung bestimmt [BBBC+03].
Abbildung 3.15 stellt zusammenfassend den Ablauf zur Ermittlung der Streifenordnung
f dar. Links in der Draufsicht sind die fünf verschiedenen Projektionsgitter aus dem
vorangegangenen Beispiel zu sehen (Abbildung 3.14). Mit m = 5 lassen sich auf der
gesamten Projektionsbreite 25 = 32 eindeutige Projektionsursprünge (Streifenordnungen) codieren, die in Dezimalzahlen von 0 bis 31 durchnummeriert sind. Der im Matrixfeld der Kamera markierte Bildpixel hat nach Beendigung der fünf Projektionen eine
bestimmte Hell-Dunkel-Folge detektiert und diese als fünfstelligen Binärwert im Bitplanespeicher abgelegt. Die nachfolgende Dekodierung besteht in Suche dieses Wertes
in der Zuordnungstabelle und führt schließlich zur Streifenordnung f , welche in diesem
konkreten Fall fünf ist.
OPTISCHE 3D-MESSTECHNIK
SEITE 47
Dezimaläquivalent
1
1
1
1
1
1
0
0
0
0
0
1
1
0
0
1
0
0
1
0
Matrixfeld
der Kamera
0
0
1
1
0
Bitplanespeicher
1
0
0
0
1
1
1
0
0
0
1
1
0
1
0
0
1
5. Projektion
4. Projektion
3. Projektion
Streifenordnung f
2. Projektion
0
0
0
Zuordnungstabelle
f
1. Projektion
0
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
22
23
24
25
26
27
28
29
30
31
Gray-Code
0
1
1
1
1
1
1
1
1
1
1
0
5
1
1
0
0
0
6
1
1
0
1
0
7
1
1
0
1
1
8
1
0
0
1
1
Quelle: Verfasser
Abbildung 3.15: Codierter Lichtansatz mit 5 Musterprojektionen und eindeutiger
Kennzeichnung der Streifenordnung f durch den einschrittigen GrayCode
Die Eindeutigkeit des Binärcodes für jede der 32 Projektionsrichtungen lässt sich auf
die geschickte Wahl der Projektionsgitter sowie ihrer Projektionsreihenfolge zurückführen. Zunächst nicht sofort ersichtlich ist die Besonderheit, dass kein normaler Binärcode
sondern der sog. Gray-Code verwendet wird, weshalb die codierte Lichtschnitttechnik
auch unter dem Namen Graycode-Verfahren anzutreffen ist. Dieser zählt zu den sog.
einschrittigen Codes, was bedeutet, dass beim Übergang auf ein benachbartes Codewort
nur eine Stelle ihren Wert ändert. An den beispielhaft in Abbildung 3.15 eingetragenen
OPTISCHE 3D-MESSTECHNIK
SEITE 48
Codewörtern kann dies anschaulich nachvollzogen werden. Beim codierten Lichtansatz
ist die Einschrittigkeit deshalb wichtig, weil dadurch Detektionsfehler an der HellDunkel-Kante zweier Streifen, die beim Binarisieren entstehen können, nur zu einem
kleinen Fehler im zugeordneten Dezimaläquivalent des Codewortes führen [Lehle98]
[GäLT95]. Letzteres soll an einem konkreten Beispiel erläutert werden. Für den Objektpunkt P ergibt sich nach korrekter Erkennung der Hell-Dunkel-Folge das Codewort
11000 mit dem zugeordneten Dezimaläquivalent 5. Würde nach der vierten Projektion
anstatt einer 0 (dunkel) fälschlicherweise eine 1 (hell) erkannt werden, so wäre zwar
auch die ermittelte Streifenordnung falsch, jedoch maximal um eine Stelle, nämlich 6
anstatt 5.
Streifenprojektionssensoren werden häufig nach dem codierten Lichtschnittverfahren
betrieben. Die Technik hat sich als relativ unempfindlich gegenüber wechselnden Beleuchtungsverhältnissen und Reflexionseigenschaften herausgestellt [Luhm00]. Ein
Nachteil des Verfahrens liegt jedoch darin, dass nicht für jeden in der Kamera abgebildeten Objektpunkt exakte 3D-Koordinaten berechnet werden können. Die Breite eines
Streifens in der letzten und feinsten Projektion ist immer noch so groß, dass sie auf dem
CCD-Feld der Kamera auf mehreren Pixeln (beispielsweise 15) abgebildet wird. Je nach
Anzahl der diskreten Streifenordnungen wird nach Beendigung der Bildsequenz im
ungünstigsten Fall für jeden dieser Pixel das gleiche Codewort und damit auch die
gleiche Projektionsrichtung ermittelt. Da unterschiedliche Abbildungsorte dem Modell
nach keinen identischen Projektionsursprung haben können, extrahiert man mit Verfahren der computergestützten Bilderkennung und -auswertung dasjenige Pixel heraus, für
welche die ermittelte Projektionsrichtung am ehesten zutrifft. Alle angrenzenden Pixel
werden nicht weiter berücksichtigt und stellen quasi ein Loch in der berechneten Punktewolke dar. Da der Streifenabstand sich nicht beliebig verkleinern lässt und außerdem
an die Auflösungsgrenze der Kamera stoßen würde, sind dem codierten Lichtschnittverfahren demnach technische und physikalische Grenzen gesetzt, die verhindern, dass
mehr Punkte ausgewertet werden können. Anders als im zuletzt dargestellten Beispiel
unterscheiden moderne Projektoren zwar weit mehr als nur 32 Projektionsrichtungen,
jedoch wäre die damit erzielbare Punktdichte für viele Anwendungen nach wie vor nicht
ausreichend. Eine Möglichkeit die Genauigkeit von Streifenprojektionssystemen deutlich zu steigern, bietet das im Folgenden vorgestellt Phasen-Schiebe-Verfahren.
3.3.5.3 Phasen-Schiebe-Verfahren
Das Phasen-Schiebe-Verfahren (engl.: Phase-Shift) zählt zu den dynamischen Verfahren der Streifenanalyse. Die Technik ermöglicht es auch solche Punkte auszuwerten, die
nicht unmittelbar auf einer der projizierten Linien liegen [Armb99]. Ähnlich wie bei der
statischen Streifenprojektion wird dabei die Oberfläche des zu messenden Objektes mit
einem Streifenmuster in höchster Auflösung strukturiert. Der Unterschied besteht je-
OPTISCHE 3D-MESSTECHNIK
SEITE 49
doch darin, dass die Linien nicht nur in zwei Graustufen (Abb. 3.16 unten) erzeugt
werden, sondern eine sinusförmige Helligkeitsverteilung aufweisen (Abb. 3.16 oben).
Das entstehende Streifenmuster kann deshalb auch als Interferogramm einer Phase f
mit konstanter Wellenlänge ? aufgefasst werden.
0123456789
·····························
stetiger Phasenwert
································
f =n·2p
f =4p
f =2p
f =0
Intensität I
?
n
diskrete Streifenordnung
Quelle: Verfasser nach [Wolf98]
Abbildung 3.16: oben: Referenzphase mit sinusförmige Helligkeitsverteilung und
konstanter Wellenlänge ?; unten: Binäres Streifenmuster
Die Projektionsrichtung der gedachten Lichtebene, die einen Punkt auf dem Messobjekt
beleuchtet, lässt sich dadurch exakt in Form eines stetigen Phasenwertes f angeben und
nicht nur sprungweise durch eine diskrete Streifenordnung. Theoretisch lassen sich
damit unendlich viele Projektionsrichtungen unterscheiden Wie nachfolgend gezeigt
wird, kann die Ermittlung der Phase für jeden einzelnen Pixel der CCD-Kamera durch
punktweise Intensitätsmessungen und eine nachfolgende einfache Rechenoperation
erfolgen.
OPTISCHE 3D-MESSTECHNIK
SEITE 50
Die Intensität IM an einem beliebigen Messpunkt M im Interferogramm lässt sich allgemein darstellen in der Form
I M = I 0 ⋅ (1 + γ ⋅ cos ϕ M )
mit
I0
Gleichlicht- oder Hintergrundintensität
γ
Streifenmodulation mit 0 < γ < 1
ϕM
gesuchte Phase am Messpunkt M
(1)
Um den gesuchten Phasenwert ϕ M aus der Gleichung mit den drei Unbekannten I 0 , γ
und ϕ M berechnen zu können, sind mindestens zwei weitere Gleichungen dieses Typs
erforderlich. Man erhält sie, indem das Streifenmuster (Referenzphase) (m-1)-mal,
mindestens aber zweimal, um einen konstanten Wert ∆ϕ seitlich verschoben wird. An
der Stelle M können dann m unterschiedliche Intensitäten gemessen werden, so dass
sich aus Gleichung (1) das folgende Gleichungssystem ergibt [Luhm00].
{I n = I 0 ⋅ (1 + γ ⋅ cos(ϕ M
mit
+ ϕ m )}
ϕ m = (n − 1)∆ϕ
n = 1...m
∆ϕ =
2π
m
wobei m ≥ 3
(2)
OPTISCHE 3D-MESSTECHNIK
SEITE 51
Das folgende Beispiel mit drei Verschiebungen der Referenzphase (4-Phasenshift) soll
die Vorgehensweise verdeutlichen.
Mit m = 4 folgt
π
2
Nach Durchführung der Intensitätsmessung von I1 bis I4 in den jeweils Phasenverschobenen Projektionen, ergibt sich das Gleichungssystem zu
∆ϕ =
 I 1 = I 0 ⋅ (1 + γ ⋅ cos(ϕ M )



 I 2 = I 0 ⋅ (1 + γ ⋅ cos(ϕ M + π ) 

2 


 I 3 = I 0 ⋅ (1 + γ ⋅ cos(ϕ M + π ) 

3π 
 I 4 = I 0 ⋅ (1 + γ ⋅ cos(ϕ M + )

2 
Der gesuchte Phasenwert ϕ M berechnet sich daraus zu
ϕ M = arctan
(I 2 − I 4 )
( I 3 − I1 )
(3)
f1
1
f2
f3
f4
I2
Intensität I
I1
0,5
I3
I4
0
0
6,283185307
p/2
7,853975307
ϕM p
9,424765307
Phase
3p/2
10,99555531
2p
12,56634531
Quelle: Verfasser
Abbildung 3.17: Prinzip des 4-Phasenshifts
OPTISCHE 3D-MESSTECHNIK
SEITE 52
Nachteilig an dem vorgestellten Verfahren ist, dass die Phasenwerte keine Absolutwerte
in Bezug auf die gesamte Projektionsbreite darstellen, sondern nur modulo 2p berechnet
werden können. Für jeden Kamerapixel erhält man somit Relativwerte innerhalb einer
Streifenperiode, so dass der Schluss auf die jeweils zugehörige Projektionsrichtung
noch nicht möglich ist. Dieses Problem kann gelöst werden, indem die analoge Phasenschiebetechnik mit dem absolut messenden digitalen Graycode-Verfahren kombiniert
wird. Die folgende Abbildung verdeutlicht das Zusammenspiel beider Verfahren. Dargestellt ist ein 4-Phasenshift, wobei wegen der besseren Darstellbarkeit statt fünf nur
vier Binärmuster projiziert werden und somit nur 16 der zuvor 32 Graycode-Positionen
unterscheidbar sind.
Graycode 0
1
2
3
4
5
6
7
8
9 10 11 12 13 14 15
Linie 0 1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21 22 23 24 25 26 27 28 29 30 31
Bild
1
2
3
4
Phasenshift
5
6
7
8
Graycode Dekodierung
Graycode
15
0
Kameraposition
Phase
Phasenshift Dekodierung
+p
+p/2
0
-p/2
-p
Quelle: Verfasser nach [Wolf98]
Abbildung 3.18: Zusammenwirken von Graycode- und Phasenschiebeverfahren
OPTISCHE 3D-MESSTECHNIK
SEITE 53
Durch die Ermittlung einer eindeutigen Streifenordnung (Liniennummer) liefert das
Graycode-Verfahren genau die Information, die der Phasenschiebetechnik als übergeordneter Maßstab dient. Anders ausgedrückt könnte man sagen, dass man mit der Phasenschiebetechnik nur den Bruchteil der Liniennummer erhält und der ganzzahlige
Anteil vorab durch das Graycode-Verfahren bestimmt wird [Küch99]. Dieses Zusammenspiel wird auch an den jeweiligen Ergebnisfunktionen der Dekodierung deutlich
(Abbildung 3.18 unten). Für den digitalen Graycode ergibt sich eine Treppenfunktion,
welche im dargestellten Beispiel die gesamte Projektionsbreite in 16 unterscheidbare
Bereiche unterteilt. Die Phasenshift Dekodierung hingegen liefert eine wertekontinuierliche Sägezahnfunktion, die jeweils nur innerhalb von zwei Graycode-Positionen eindeutig ist, aber dafür eine theoretisch unendlich große Auflösung ermöglicht. In der
Realität ist die Messauflösung jedoch durch Eigenschaften der Kamera und der Messobjektoberfläche begrenzt. Sie hängt vielmehr zu einem großen Teil von der Qualität der
Sinus-Approximation des analogen Phasenshift Musters durch den Projektor ab
[Fran97].
3.3.5.4 Zweikamerasysteme
Die bisherigen Ausführungen zur Funktionsweise des Streifenprojektionsverfahrens
bezogen sich auf Systeme mit einer Kamera und einem Projektor. Der eingangs vorgestellte Sensor ATOS III besitzt darüber hinaus jedoch eine zusätzliche Kamera, was sich
als Vorteilhaft herausgestellt hat. Das grundlegende Messprinzip ist dabei ähnlich dem
bereits beschriebenen codierten Lichtansatz bzw. Phasenshift-Verfahren.
Ein wesentlicher Vorzug von Zweikamerasystemen ist darin zu sehen, dass der Projektor nicht zwangsläufig in die Berechnung der 3D-Koordinaten einbezogen werden muss.
Die Projektionseinheit dient lediglich dazu, die Oberfläche des Messobjektes zu strukturieren und je nach Codierung binäre und/oder analoge Bildsequenzen zu erzeugen. Die
Kameras links und rechts vom Projektor erfassen synchron dazu die wechselnden Streifenmuster, so dass nach der Dekodierung eine Korrespondenz zwischen einzelnen
Bildpunkten der Aufnahmesysteme hergestellt werden kann. Über den räumlichen
Vorwärtsschnitt lassen sich anschließend die Objektkoordinaten berechnen. Das jeweils
dazu aufgespannte Triangulationsdreieck wird nunmehr durch den Objektpunkt sowie
die den Punkt abbildenden Pixel in Kamera 1 und Kamera 2 definiert. Die Projektorgeometrie bleibt dabei unberücksichtigt. Abbildung 3.19 auf der nächsten Seite zeigt
hierzu den prinzipiellen Messaufbau.
OPTISCHE 3D-MESSTECHNIK
SEITE 54
Quelle: [Armb99]
Abbildung 3.19: Prinzip eines Zweikamera-Streifenprojektionssensors
Weitere Vorteile von Zwei- und Mehrkamerasystemen zur Streifenprojektion können in
der Fachliteratur, beispielsweise unter [Luhm00], nachgelesen werden. An dieser Stelle
noch zu erwähnen ist eine spezielle Besonderheit des ATOS III Sensors, welche die
verwendete Technik zur Phasenwertbestimmung aus den Kamerabildern betrifft. Im
Unterschied zu den meisten kommerziell erhältlichen Systemen kommt hierzu das rein
analoge und absolut messende sog. Heterodynverfahren zum Einsatz. Dieses wird auch
als Mehrwellenlängenverfahren bezeichnet und beruht gleichfalls auf einer aktiven
Streifenmusterprojektion.
3.4
Messpraxis
Abschließend zum Kapitel Optische 3D-Messtechnik sollen an dieser Stelle einige
Aspekte bezüglich des praktischen Einsatzes von Streifenprojektionssytemen erläutert
werden. Diese sind nicht ausschließlich systembedingt und auf Zweikamerasensoren
beschränkt, sondern betreffen darüber hinaus teilweise auch andere optische Messverfahren. Die angesprochenen Themen sind insbesondere für die durchgeführte Potenzialabschätzung von Bedeutung und werden an anderer Stelle dieser Arbeit erneut aufgegriffen.
OPTISCHE 3D-MESSTECHNIK
3.4.1
SEITE 55
Abschattungen
In Kapitel 3.1.1 wurde bereits angesprochen, dass zur vollständigen Digitalisierung
vornehmlich größerer Bauteile mehrere Teilansichten notwendig sind. Zur Erstellung
dieser Einzelaufnahmen kann der Sensor um das Bauteil herumbewegt oder alternativ
das Bauteil im Sensorgesichtsfeld mehrmals gedreht werden. Wünschenswert ist in
jedem Fall ein Messobjekt, das durch eine entsprechende Lagerung global von allen
Seiten gut zugänglich ist. Selbst wenn dies gegeben ist, kann es lokal gesehen dennoch
Bauteilbereiche geben, die sich nicht digitalisieren lassen. Dazu zählen kleinere Bohrungen, Hohlräumen und enge Vertiefungen, die das Streifenprojektionsverfahren an
seine Grenzen bringen können. Bedingt ist dieser Umstand durch den Triangulationswinkel des Sensors und die Tatsache, dass zur Berechnung hochwertiger 3DKoordinaten ein Messpunkt immer im Blickfeld beider Kameras liegen muss. Die
Sichtbarkeit eines Bauteilbereichs für das menschliche Auge sagt deshalb noch nichts
darüber aus, ob die Stelle auch für den Sensor sichtbar ist. Im Einzelfall liefern Testmessungen des betreffenden Objektes hierzu eine sichere Aussage. Ebenfalls zu berücksichtigen ist, dass beim Digitalisieren der Winkel zwischen Sensor und Messobjektoberfläche nach Möglichkeit nicht kleiner als 45° beträgt. Andernfalls wird von den
aufprojizierten Streifen zu wenig Licht in die Kameras reflektiert, so dass mit einer stark
verminderten Qualität der Messdaten zu rechnen ist.
3.4.2
Digitalisierung von kleinen Strukturen
Um diese Problematik zu verdeutlichen, soll zunächst der Sachzusammenhang zwischen dem Messvolumen, der Messpunktauflösung und dem Messobjekt erläutert werden. Streifenprojektionssensoren besitzen einen dreidimensionalen Messbereich - das
Messvolumen - der sich je nach Sensortyp in bestimmten Grenzen verändern lässt. Aus
dem Messvolumen resultiert wiederum ein Messpunktabstand, der die kleinste mögliche
Entfernung zwischen zwei Messpunkten angibt. Bei einem Sensor mit einer 4 Megapixel Kamera und einem eingestellten Messvolumen von 300×300×300 mm3, beträgt der
Messpunktabstand beispielsweise 0,15 mm. Dieser Wert ist nicht mit der Messgenauigkeit5 zu verwechseln, die bei den heutigen Systemen um ein Vielfaches kleiner und in
einer Größenordnung von 3 bis 5 µm anzusiedeln ist. Um Oberflächenstrukturen zu
erfassen, die unterhalb dieses Punktabstands liegen, ist ein kleineres Messvolumen mit
entsprechend höherer Messpunktauflösung (kleinerer Punktabstand) zu wählen. Dadurch steigt zwar die Anzahl der zur Digitalisierung benötigten Einzelaufnahmen, jedoch ist sichergestellt, dass die Messpunktewolke und das daraus erzeugte Polygonnetz
5
Messgenauigkeit: Jede 3D-Koordinate liegt innerhalb einer Kugel vom Radius der Messgenauigkeit
OPTISCHE 3D-MESSTECHNIK
SEITE 56
die Bauteilgeometrie wirklichkeitsnah abbilden und für die spätere Einpassung der
Ersatzelemente genügend Messpunkte vorhanden sind. Details am Messobjekt, die
durch zu wenige Punkte erfasst werden, liefern schlichtweg falsche Messergebnisse
oder lassen sich erst gar nicht auswerten. Eine Möglichkeit auch solche Strukturen zu
erfassen, die kleiner als der Messpunktabstand sind, besteht darin, von der entsprechenden Stelle am Objekt mehrere Aufnahmen aus unterschiedlichen Positionen zu machen.
Dadurch dass die Einzelaufnahmen später in ein gemeinsames Koordinatensystem
transformiert werden, erhöht sich an allen mehrfach digitalisierten Objektbereichen die
Punktdichte, wodurch auch der effektive Punktabstand kleiner wird.
3.4.3
Messen glänzender Oberflächen
Eine generelle Herausforderung für die optische Messtechnik stellt die Vermessung
glänzender Oberflächen dar. Speziell beim Streifenprojektionsverfahren müssen die
Muster mit ausreichendem Kontrast von den Kameras aufgenommen werden. Treten
Spiegelungen und Reflexionen auf, so ist mit einer reduzierten Datenqualität und im
Extremfall mit überhaupt keinen Daten zu rechnen. Die optimale Oberfläche ist daher
hell und matt und reflektiert das vom Projektor einfallende Licht gleichmäßig diffus in
alle Richtungen. Materialien, die diese Eigenschaft aufweisen, sind beispielsweise
Papier oder Gips. Metallische Werkstoffe hingegen besitzen meistens einen hohen sog.
Glanzreflexionsgrad, der für eine gebündelte Reflexion des einfallenden Lichtes in eine
Richtung verantwortlich ist und störende Spiegelungen hervorruft [Boec98]. Eine Möglichkeit um derartige Objekte dennoch mit hoher Genauigkeit vermessen zu können,
stellt die spezielle Präparation der Oberfläche durch Beschichten dar. Ein hierfür häufig
eingesetztes Mittel in der optischen Messtechnik ist Titandioxidpulver, was sich hochfein z. B. mit einer Spraydose aufbringen lässt und die störenden Effekte unterbindet.
Eine zweite Möglichkeit zur Vermessung glänzender Objekte kommt ohne eine Beschichtung aus und besteht in der Separation eines Zweikamerasystems in zwei Einzelkamerasysteme6. Problematische Oberflächenbereiche werden dann unter Einbeziehung
der Projektorgeometrie jeweils von der Kamera digitalisiert, in die keine störenden
Spiegelungen wirken. Liefern beide Kameras gute Daten, erfolgt die Berechnung der
3D-Koordinaten nach dem in Abbildung 3.19 skizzierten Verfahren. In jedem Fall ist zu
berücksichtigen, dass Daten, die nur von einer Kamera erfasst werden, ungenauer sind
und zudem die Auswertezeit erhöhen.
Der bei der MTU geplante Einsatz der optischen 3D-Messtechnik betrifft Triebwerksbauteile, die durchweg mit höchster Präzision gefertigt werden und teilweise extrem
geringe Toleranzen im µm-Bereich aufweisen. Bei allen unter Berücksichtigung der
6
Diese Möglichkeit wird für alle Zweikamerasysteme der Firma gom im Benutzerhandbuch des ATOS
III Sensors ausführlich beschrieben
LITERATURVERZEICHNIS
SEITE 96
Literaturverzeichnis
[Armb99]
Armbruster, Karl: „Handgeführter 3D-Sensor zur Digitalisierung von Körperoberflächen“; Fachtagung Optische Formerfassung, Stuttgart, DGZfP, 5.-6.10.1999
[Baum02]
Baumgartner, Franz.: „Lasertriangulationssensor“; in: NTB Sensordatenbank,
unter: http://www.ntb.ch/Pubs/sensordemo/pdf/NTB_24_LTS.pdf vom 18.08.2005,
2002
[BBBC+03]
Berndt, Dirk et al.: „Leitfaden zu Grundlagen und Anwendung der optischen 3-DMesstechnik“; Erlangen, Fraunhofer-Allianz Vision, 2003, ISBN 3-8167-6297-2
[Boeck98]
Boecker, Ralf: „Problematik glänzender Oberflächen bei der 3D-Topometrie“;
5. ABW-Workshop Optische 3D-Formerfassung, Technische Akademie Esslingen,
20.-21.1.1998
[Breu93]
Breuckmann, Bernd: „Bildverarbeitung und optische Messtechnik in der industriellen Praxis“; München: Franzis Verlag, 1993
[ChNe03]
Christoph, Ralf / Neumann, Hans Joachim: “Multisensor-Koordiatenmesstechnik”;
Landsberg/Lech: Verlag Moderne Industrie, 2003
[DKD98]
N. N.: „Angabe der Messunsicherheit bei Kalibrierungen“; Braunschweig: Deutscher Kalibrierdienst (DKD), 2002; unter:
http://www.dkd.info/de/dkd_schriften/dkd_3/dkd_3.pdf vom 10.11.2005
[Duwe02]
Duwe, Hans-Peter: „Wertschöpfendes Messen - Die Vorteile von Punktewolken für
die Messtechnik“; 7. ABW-Workshop 3D-Bildverarbeitung, Technische Akademie
Esslingen, 5.-6.2.2002
[Effe02]
Effenkammer, Dirk: „Entwicklung einer durchgängigen und CAD-basierten Prozesskette für die Qualitätsprüfung mit Koordinatenmesstechnik“; Berichte aus der
Produktionstechnik, Band 6/2002, Hsg.: Eversheim, W. / Klocke, F. / Pfeifer, T. /
Weck, M.; Aachen, Shaker Verlag, 2002
[Fran05]
Frankowski, Gottfried: „Profi-Messtechnik für die Fertigung“; unter:
http://www.gfmesstechnik.com/german/mainmenu/index01_papers.html vom
10.08.2005
[FrCH99]
Frankowski, Gottfried / Chen, Mai / Huth, Torsten: „Optische 3D-Meßtechnik mit
digitaler Streifenprojektion“; unter:
http://www.gfmesstechnik.com/german/mainmenu/index01_papers.html vom
16.08.2005, 1999
[GäLT95]
Gärtner, H / Lehle, Peter / Tiziani, H. J.: „Dynamische On-Line 3-DKonturerfassung“; in: „3D-Objektvermessung auf kleinere Entfernungen“; Düsseldorf: VDI Technologiezentrum Physikalische Technologien, 1995
[GrGö96]
Greßler, U. / Göppel, R.: „Qualitätsmanagement – Eine Einführung“; Köln: Stam
Verlag, 1996
[Hau98]
Hau, Thomas: „Orientierung und Kalibrierung eines Rangesensors unter Nutzung
geometrischer Objektinformationen“; in Tagungsband: 15. Nutzerseminar des Deutschen Fernerkundungsdatenzentrums der DLR, Köln: Deutsches Zentrum für Luftund Raumfahrt e. V., 1998
LITERATURVERZEICHNIS
SEITE 97
[Hüse95]
Hüser, Dorothee: „Entwicklung von Methoden zur Bestimmung der Messunsicherheit von Triangulationssensoren in der Koordinatenmesstechnik“; Dissertation, veröffentlicht in: PTB-Berichte der Physikalisch-Technischen Bundesanstalt PTB-F-22,
1995, S. 21
[Lehl98]
Lehle, Peter: „Dynamische und Strukturierte Beleuchtung für die optische Messtechnik“; Berichte aus dem Institut für Technische Optik der Universität Stuttgart,
1998, ISBN 3-923560-34-6
[Luhm00]
Luhmann, Thomas: „Nahbereichsphotogrammetrie“; Heidelberg: Herbert Wichmann Verlag, 2000
[Meye01]
Meyer, Stefan: „Merkmalorientierte Prüfumfangsregelung auf Koordinatenmessgeräten“; Berichte aus der Produktionstechnik, Band 2/2002, Aachen: Shaker Verlag,
2001
[Moli88]
Molitor, Martin: „Berührungslose optoelektronische Messautomaten für die Geometrieerfassung an Werkstücken“; Düsseldorf: VDI-Verlag, 1988, ISBN 3-18147308-1, S. 30
[Neum00]
Neumann, Hans Joachim: „Koordinatenmesstechnik im industriellen Einsatz: Zehn
Jahre Innovation“; Landsberg/Lech: Verlag Moderne Industrie, 2000
[Neum04]
Neumann, Hans Joachim: „Präzisionsmesstechnik in der Fertigung mit Koordinatenmessgeräten“; Renningen: expert Verlag, 2004, ISBN 3-8169-2211-2
[NN04a]
N. N.: „Wie Triebwerke funktionieren“; in: MTU-Intranet, München, 2004
[NN04b]
N. N.: „Laser-Lichtschnitt eine – Eine Schlüsselfunktion in der 3Lasermesstechnik“; unter: http://www.sukhamburg.de vom 19.08.2005, außerdem
erschienen in: Quality Engineering, Ausgabe 6/2004, S. 46
[NN05a]
N. N.: „Präzisionsmesstechnik mit Koordinatenmessgeräten“; unter: www.qeonline.de/qe/live/fachartikelarchiv/ha_news/detail/10016520.html vom 24.10.2005;
außerdem erschienen in: Quality Engineering, 9/2002, S. 32
[NN05b]
N. N.: „Messunsicherheit“: unter: http://de.wikipedia.org/wiki/Messunsicherheit
vom 11.11.2005
[NN05c]
N. N.: „Koordinatenmesstechnik“; unter: http://www.fhbochum.de/fb4/institute/ifq/Koordinanatenmesstechnik.htm vom 01.11.2005
[NN05d]
N. N.: „Theodolit“: unter: http://de.wikipedia.org/wiki/Theodolit vom 01.8.2005
[NN05e]
N. N.: „ATOS v 5.4 Benutzerinformation. Gesellschaft für optische Messtechnik –
gom“; Braunschweig, 2005
[Pfei93]
Pfeifer, Tilo: „Optoelektronische Verfahren zur Messung geometrischer Größen in
der Fertigung“; Ehningen bei Böblingen: expert Verlag, 1993, S. 66f
[Sowa95]
Sowa, P.: „Lichtpunkt-Triangulation, in Handbuch OF1 – Verfahren für die optische Formerfassung“; Deutsche Gesellschaft für zerstörungsfreie Prüfung e. V.
(Hrsg.), 1995, ISBN 3-931381-06-4
[Stef03]
Steffens, Klaus: „Grenzen überwinden – Wachstum der neuen Art“; München:
Herbert Utz Verlag GmbH, 2003
[TBGW99]
Thesing, J / Bergmann, D. / Galanulis, K / Winter, D.: „Qualitätssicherung und 3DDigitalisierung mit Photogrammetrie und Streifenprojektion“;
[Weck01]
Weckenmann, Albert: „Wo steht die Koordinatenmesstechnik heute?“; in: Koordinatenmesstechnik: Genauigkeit – Erfahrungen – Innovationen, 2001
LITERATURVERZEICHNIS
SEITE 98
[Wior01]
Wiora, Georg: „Optische 3D-Messtechnik: Präzise Gestaltvermessung mit einem
erweiterten Streifenprojektionsverfahren“; unter: http://www.ub.uniheidelberg.de/archiv/1808 vom 02.07.2005, Heidelberg, 2001
[WLOW+01]
Weckenmann, Albert et al.: „Koordinatenmesstechnik: Genauigkeit – Erfahrungen
– Innovationen“; Tagung Erlangen, 9./10. Oktober 2001 / VDI/VDE-Gesellschaft
Mess- und Automatisierungstechnik; Düsseldorf: VDI-Verlag, 2001
[Wolf97]
Wolf, Henning G. E.: “Getting 3D-Shape by Coded Light Approach in Combination
with Phaseshifting”; Numerisation 3D / Human Modelling, Salon et Congress sur la
Numerisation 3D, Paris, 28.-29.5.1997
[Wolf98]
Wolf, Kai: „Vergleich verschiedener Variationen der Streifenprojektion“; 5. ABWWorkshop Optische 3D-Formerfassung, Technische Akademie Esslingen, 20.21.1.1998
[Wolf99]
Wolf, Henning G. E.: „Systematische Zusammenstellung der Projektionstechniken
zur strukturierten Beleuchtung“; 6. ABW-Workshop 3D-Bildverarbeitung, Technische Akademie Esslingen, 25.-26.1.1999

Documentos relacionados