Einsatz der optischen 3D
Transcrição
Einsatz der optischen 3D
Institut für Prozess- und Werkstofftechnik Lehrstuhl für Technische Mechanik Prof. Dr.-Ing. Rolf Mahnken Einsatz der optischen 3D-Messtechnik in der Fertigung von Triebwerksbauteilen - Potenzialabschätzung zur Prüfzeitreduktion - vorgelegt von cand. Wirt.-Ing. Andreas Tombers Matr.-Nr. 6052783 erstellt bei der MTU Aero Engines GmbH am Standort München Betreuer: PD Dr.-Ing. habil. F. Ferber, UPB, LTM Prof. Dr.-Ing. R. Mahnken, UPB, LTM Dipl.-Ing. B. Großkurth, Fa. MTU Aero Engines Paderborn, 29.01.2006 AUSGANGSSITUATION 2.4 SEITE 15 Ist-Zustand der Prüfung geometrischer Merkmale Im Folgenden werden die wichtigsten Maschinen und Techniken vorgestellt, die bei der MTU in der Serienfertigung zur Prüfung von geometrischen Merkmalen zum Einsatz kommen. 2.4.1 Koordinatenmessmaschinen Die Koordinatenmesstechnik ist aus einem modernen Industriebetrieb fast nicht mehr wegzudenken [NN05a]. Ohne sie könnte die Einhaltung der tendenziell immer kleiner werdenden Bauteiltoleranzen nur schwer überprüft werden. Die geringe Messunsicherheit, die sich mit diesem Verfahren erzielen lässt, kann bei modernen Maschinen bis zu 1 µm betragen [Neum00]. Unter der Messunsicherheit wird eine Kennzahl verstanden, die mit dem Messergebnis angegeben wird und die Streuung der Messwerte charakterisiert [DKD98]. Sie definiert demnach einen Wertebereich, innerhalb dessen der wahre Wert einer Messgröße liegen sollte [NN05b]. Die Möglichkeit, mit hoher Wiederholgenauigkeit einen Prüfprozess von der Messwertaufnahme, der anschließenden Auswertung bis hin zur Übermittlung der Prüfdaten an ein übergeordnetes CAQ-System vollständig automatisieren zu können, sind weitere Vorteile von Koordinatenmessmaschinen. Um die Maßhaltigkeit der gefertigten Turbinenkomponenten zu gewährleisten, bildet die Koordinatenmesstechnik auch bei der MTU derzeit das Rückgrat der Qualitätsprüfung von geometrischen Merkmalen. Das Grundprinzip dieser Technik sowie wichtige Aspekte bezüglich der verwendeten Tastsysteme werden im Weiteren einführend erläutert. 2.4.1.1 Grundlagen der Koordinatenmesstechnik Das Prinzip einer Koordinatenmessmaschine unterscheidet sich grundlegend von den herkömmlichen Messverfahren, wie beispielsweise einem Messschieber oder einem Höhenreißer. Dabei erfolgt die Beschreibung der Gestalt eines Werkstückes durch idealgeometrische Ersatzelemente (z. B. Kreis, Gerade), die in zuvor ermittelte dreidimensionale Messpunkte von der Bauteiloberfläche eingepasst werden. Die 3D-Punkte, die ihren Ursprung in einem genauen gerätemäßig verwirklichten kartesischen Koordinatensystem haben, können mit mechanischen Tastern oder berührungslos arbeitenden optischen Sensoren aufgenommen werden [Weck01]. Derart ermittelte Ersatzelemente repräsentieren in bester Näherung die reale Werkstückgeometrie. Einzeln für sich genommen oder miteinander verknüpft, lassen sich aus ihnen die interessierenden Prüfmerkmale bestimmen. Die Koordinatenmesstechnik stellt demnach kein direkt maßverkörperndes Messverfahren dar, sondern zählt zu den indirekten Verfahren. Das folgende Beispiel soll die Technik verdeutlichen. Zur Ermittlung des Prüfmerkmals „Außendurchmesser“ eines runden Werkstückes nimmt die Maschine am Umfang des Bauteils AUSGANGSSITUATION SEITE 16 entlang einer Schnittlinie gleichmäßig verteilt eine vorher definierte Anzahl an Objektpunkten auf. Aus diesen Messwerten berechnet eine Auswertesoftware anschließend das Ersatzformelement „Kreis“ das nach einem festgelegten Verfahren in die Punkte eingepasst wird. Das ausgegebene Messergebnis entspricht dann dem Durchmesser dieses Kreises. Koordinatenmessmaschinen werden häufig in Portalbauweise mit drei senkrecht zueinander angeordneten Führungsachsen mit jeweils eigenen Längenmesseinrichtungen gefertigt. Abbildung 2.6 zeigt ein solches Modell vom Typ Zeiss Prismo, wie es auch bei der MTU zum Einsatz kommt. Die Achsen werden gebildet durch den Verfahrweg einer über dem Messtisch stehenden Traverse (Y-Achse) und einer auf der Traverse beweglichen Pinole, die seitlich (X-Richtung) als auch in der Höhe (Z-Richtung) verfahren werden kann. Am Ende der Pinole befindet sich eine Aufnahme für unterschiedliche Sensoren (Messköpfe). links: Messkopf unten: Tasterwechseleinrichtung rechts: Hauptachsen einer PortalKoordinatenmessmaschine X Z Y Quelle: Verfasser Abbildung 2.6: Portal-Koordinatenmessmaschine Bei der Messpunktaufnahme wird der Sensor, ein meist kugelförmiger Taster aus Rubin, an der gewünschten Position vorsichtig mit der Bauteiloberfläche in Berührung gebracht. Eine elektronische Schaltung im Sensorinneren registriert die dabei entstehende Auslenkung des Tasterschaftes und sendet Signale an die Antriebe der Achsen. Die Signale werden dazu verwendet, um gleich bleibende vorab definierte Antastbedingungen, wie beispielsweise Antastkraft und -geschwindigkeit zu schaffen [NN05c]. Ist AUSGANGSSITUATION SEITE 17 dieser Zustand erreicht, wird automatisch die Ablesung der Maßstäbe an den drei Achsen ausgelöst. Die Koordinatenwerte, die sich auf den Mittelpunkt der Tastkugel beziehen, werden anschließend an den Auswerterechner übertragen. Damit der Tastkugelradius und die ebenfalls nicht vernachlässigbare Tasterdurchbiegung aus dem Messergebnis herausgerechnet werden können, muss jeder Taster zuvor an einem hochgenauen Kugelnormal eingemessen werden. Die dabei gewonnen Daten werden dann bei allen nachfolgenden Messung berücksichtigt, so als ob theoretisch mit einer Kugel vom Durchmesser Null und einer Antastkraft von Null gemessen worden wäre [Neum00]. Geometrisch komplexe Bauteile erlauben es oftmals nicht, alle zur Maßberechnung benötigten Punkte mit einem einzigen Tastelement zu erfassen. Um dennoch zeitsparend und ohne größere Unterbrechungen messen zu können, sind die Messköpfe oftmals mit zwei und mehr Tastelementen bestückt. Durch das vorherige einmessen und die dabei ermittelten Korrekturwerte „erscheint“ es der Maschine so, als ob nur mit einem einzigen Taster gemessen worden wäre. Im industriellen Umfeld besitzen Koordinatenmessmaschinen außerdem Tasterwechseleinrichtungen mit einem großen Aufnahmeteller und ein Tastermagazin, wodurch es möglich ist, den gesamten Messkopf auszutauschen ohne ihn vorher erneut einmessen zu müssen. 2.4.1.2 Taktile Tastsysteme Dem Messkopf kommt in der Koordinatenmesstechnik eine besondere Bedeutung zu. Er stellt das verbindende Element von der Oberfläche der zu messenden Objekte zu den Maßstäben der Koordinatenmessmaschine dar. Man unterscheidet zum einen zwischen taktilen (antastenden) und optischen (berührungslos arbeitenden) Messköpfen. Da in der Serienprüfung bei der MTU ausschließlich taktile Messköpfe zum Einsatz kommen, wird in diesem Abschnitt auch nur auf diesen Sensortyp eingegangen. Tastende Messköpfe werden wiederum nach der Art der Antastung in schaltende und messende Systeme unterteilt. Schaltende Sensoren Schaltende Sensoren erzeugen beim Berühren des Messobjektes lediglich ein Triggersignal, welches bewirkt, dass die Wegmesssysteme der Messmaschinenachsen ausgelesen und die Werte als Kugelmittelpunktskoordinaten gespeichert werden. Realisiert wird dies durch eine vorgespannte mechanische Dreipunktauflage, die mit dem Tasterschaft verbunden ist und die an den drei Stützpunkten als Schalter ausgebildet ist. Das Antastsignal wird erzeugt, indem bei Auslenkung des Schaftes mindestens einer der Schalter öffnet und einen Stromkreis unterbricht [Neum03]. Für die nächste Antastung muss der Messkopf wieder zurückfahren, bis der/die Schalter wieder geschlossen sind. Abbildung 2.7 verdeutlicht den Messkopfaufbau. AUSGANGSSITUATION SEITE 18 Quelle: [Neum00] Abbildung 2.7: Prinzipdarstellung eines schaltenden Messkopfes Bedingt durch die Dreipunktauflage und die sich dadurch ergebende unterschiedliche Hebellänge beim Auslenken des Taststiftes aus verschiedenen Richtungen, kann die Antastkraft im Extremfall das Doppelte der einfachen Messkraft betragen. Dies wiederum führt zu unterschiedlichen Tasterdurchbiegungen, die letztendlich nur schwer berücksichtigt werden können. Um diesen Nachteil zu minimieren, werden in höherwertigeren Messköpfen Piezoelemente zur Signalerzeugung eingesetzt, die in nahezu allen Antastrichtungen gleich empfindlich sind und zudem nur kleinere Messkräfte benötigen. Messende Sensoren Diese Art von Messköpfen bieten gegenüber den schaltenden Systemen deutliche Vorteile und werden im Center TT hauptsächlich eingesetzt. Messende Tastsysteme stellen vom Prinzip her kleine Koordinatenmessmaschinen dar, die im inneren aus drei kartesisch angeordneten Linearführungen mit eigenen Längenmesssystemen mit einem Bereich von wenigen Millimetern bestehen. Vorzugsweise sind die Achsen parallel zu den Referenzachsen der Koordinatenmessmaschine ausgerichtet. Die bei der Antastung entstehenden mehr oder weniger großen Auslenkungen in den drei Bewegungsrichtungen werden registriert und mit den Koordinaten der Hauptachsen des Koordinatenmessgerätes zu einem Messwert aufaddiert. Zusätzlich werden dabei der Tastkugelradius sowie die Tasterdurchbiegung berücksichtigt. Diese Technik der Messwertbildung hat den Vorteil, dass sie unabhängig von der Auslenkung im Messkopf ist und außerdem auch erfolgen kann, wenn die Messmaschine still steht. Zudem lässt sich mit messenden Tastsystemen und entsprechender Steuerungssoftware eine kontinuierliche Abtastung von Oberflächen entlang einer Linie durchführen, die als Scanning bezeichnet wird. AUSGANGSSITUATION SEITE 19 2.4.1.3 Ersatzelemente Wie eingangs beschrieben, berechnet die Steuerungssoftware einer Koordinatenmessmaschine aus den aufgenommenen Messpunkten Ersatzelemente, die ein geometrisches Ideal darstellen. Bei Werkstücken, die keine Abweichung von ihrer Sollkontur aufweisen, würde man mit dieser Technik immer einen reproduzierbaren Messwert erhalten. Da industriell gefertigte Bauteile im Normalfall jedoch mit mehr oder weniger großen Formabweichungen behaftet sind, hängt das ermittelte Messergebnis zu einem großen Teil von der Zahl der zufällig verteilten Antastpunkte ab. Den Zusammenhang verdeutlicht Abbildung 2.8. Quelle: [ChNe03] Abbildung 2.8: Einfluss der Messpunktanzahl auf das Messergebnis Zur Einpassung eines Ersatzelements in die Punkte gibt es unterschiedliche Verfahren, die als Ausgleichsverfahren bezeichnet werden und die, abhängig von der Messaufgabe, alle ihre Berechtigung haben [Effe02] [Neum04]. Grundvoraussetzung für ein stabiles Messergebnis ist jedoch eine ausreichend hohe Anzahl an Messpunkten. Im dargestellten Beispiel zeigt sich, dass die Gauß-Einpassung (Kriterium: Kleinste Quadratsumme der senkrechten Abstände aller Messpunkte auf der Oberfläche des Ersatzelements) mit vier Messpunkten stark mit der zufälligen Lage der Punkte variiert. Erst die Vielpunktmessung durch Scannen der Kontur liefert ein reproduzierbares Messergebnis. Zur Bestimmung des für Pass- und Paarungsmaße funktionswichtigen Hüll- und Pferchkreises sind ebenfalls möglichst viele Objektpunkte aufzunehmen. AUSGANGSSITUATION SEITE 20 2.4.1.4 Messpraxis Häufig wiederkehrende Prüfungen mit der Koordinatenmessmaschine werden sinnvollerweise in einem bauteilspezifischen Programm automatisiert. Der manuelle Anteil des Prüfers besteht dann lediglich in der Aufspannung und Ausrichtung des Bauteils auf dem Messtisch mittels einer Vorrichtung und dem Aufruf des entsprechenden Messprogramms. Teilweise muss das Werkstück zwischendurch umgespannt werden, um den verwendeten Tastern alle zu prüfenden Merkmale zugänglich zu machen. Bei der MTU gibt es deshalb für jedes Bauteil, was auf der Messmaschine geprüft wird, ein so genanntes Aufspannblatt auf dem alle den Messprozess betreffenden Informationen aufgelistet sind. Bestimmte Merkmale werden nicht automatisch ausgewertet sondern erfordern die visuelle Begutachtung durch den Qualitätsprüfer anhand eines Grafikplotts. Dazu zählt beispielsweise die in Abbildung 2.9 rechts dargestellte Formüberprüfung eines Räumnutenprofils durch Scannen. Der Taster fährt dabei zunächst die gesamte Kontur entlang einer horizontalen Profillinie ab. Anschließend wird das ermittelte IstProfil von einer speziellen Auswertesoftware stark vergrößert im DIN A0 Format geplottet. Der Ausdruck enthält zusätzlich ein im System hinterlegtes und dem Prüfmerkmal zugeordnetes Toleranzband, innerhalb dem sich die Messpunkte befinden müssen. Unzulässige Abweichungen werden farblich gekennzeichnet und sind sofort sichtbar. Quelle: Verfasser Abbildung 2.9: links: Bestimmung der Lage und des Durchmessers einer Bohrung rechts: Formscan des Schnittprofils einer Räumnut Koordinatenmessmaschinen sind in Forschung und Industrie weit verbreitet. Neben den bereits erwähnten Vorteilen dieses Prüfmittels sind an dieser Stelle auch einige Nachteile zu nennen. Diese ergeben sich in erster Linie durch die Notwendigkeit der mechani- AUSGANGSSITUATION SEITE 21 schen Antastung zur Messwertaufnahme1. Wenn auch im geringen Maße besteht dabei die Gefahr der Bauteilbeeinträchtigung durch den Taster [FrCH99]. Ein konkretes Beispiel dafür stellt die Erstellung von Profilschnitten an der Beschaufelung der NDVBlisk Stufe 1 dar. Der Taster scannt dabei an verschiedenen Stellen quer zur Schaufellängsachse umlaufend das Bauteil ab. Da die Schaufelflächen eine hohe Oberflächengüte aufweisen, verbleiben nach der Messung entlang der abgetasteten Profillinien deutlich sichtbare Spuren, die zwar keine mechanische Beeinträchtigung des Bauteils darstellen, aber den Kunden unter Umständen irritieren können. Ein weiterer Nachteil ist in dem Scanningverfahren an sich zu sehen. Grundsätzlich positiv daran ist, dass die damit erzielbare Punktedichte größer ist, als man sie in der gleichen Zeit durch Einzelpunktmessungen erreichen könnte. Als Ergebnis der Messung erhält man jedoch einen linienförmigen Profilschrieb, der immer nur einen kleinen Teilbereich des Bauteils beschreibt. Messmethoden, die eine flächenhafte Erfassung der zu prüfenden Bauteile ermöglichen, sind daher wünschenswert. 1 Hiervon ausgenommen sind optische Sensoren, die bei der MTU bislang nicht eingesetzt werden AUSGANGSSITUATION 2.4.2 SEITE 22 Profilprojektoren Profilprojektoren sind optische Messgeräte zur Bestimmung der Makroformgestalt durch Vergleichen oder zur 2D-Koordinaten- und Winkelmessung. Dieses kann sowohl in Auflicht- als auch in Durchlichtprojektionen geschehen. Nachfolgend wird die bei der MTU praktizierte Durchlichtprojektionstechnik vorgestellt, mit der sich Merkmale zum einen indirekt über einen Abdruck oder direkt am Bauteil überprüfen lassen. 2.4.2.1 Abdrücke und Profilschnitte Die Abdrucktechnik wird vorwiegend für kleine Radien und Fasen angewendet. Die Tätigkeiten, die dazu vom Prüfer durchgeführt werden, sind in Abbildung 2.10 dargestellt. 4 5 3 2 1 Quelle: Verfasser Abbildung 2.10: Manuelle Profilschnitterstellung und Überprüfung am Projektor Zunächst wird aus einem Binder und einem Härter eine kneteartige Formmasse angemischt (1). Dabei handelt es sich um einen unschädlichen Stoff, der auch bei der Erstel- AUSGANGSSITUATION SEITE 23 lung von Abdrücken in der Zahnmedizin Anwendung findet. Als nächstes wird das zu prüfenden Merkmal mit ausreichend Masse eingeformt (2). Dabei ist durch leichten Andruck zu verhindern, dass an der Kontaktfläche zum Bauteil Luftblasen eingeschlossen werden. Liegen zwei oder mehrere Prüfmerkmale dicht nebeneinander, werden diese üblicherweise zusammen eingeformt. Nach einer kurzen Aushärtezeit von wenigen Minuten kann der Abdruck vom Bauteil entfernt werden. Mit einem Cutter wird dann eine dünne Scheibe von ca. 1mm Dicke aus der Abformung geschnitten, die das Negativprofil des Merkmals genau abbildet (3). Der Profilschnitt (4) wird schließlich auf die Glasplatte des Objekttisches gelegt und von unten angestrahlt. Eine Abbildungsoptik projiziert die zu prüfende Kontur in einem bekannten Vergrößerungsmaßstab auf einen Bildschirm, wo sie dann begutachtet werden kann. Die Vergrößerung lässt sich durch wechseln des Objektivs unterhalb des Schirms verändern und bestimmt die maximal erzielbare Messgenauigkeit am Objekt. Im dargestellten Beispiel handelt es sich um eine 45° Fase, die auf ihre Winkligkeit geprüft werden soll. Zu diesem Zweck ist der Schirm drehbar gelagert und mit einem Fadenkreuz sowie einer Winkelskala am Umfang ausgestattet. Indem das Fadenkreuz zunächst mit der ersten und dann mit der zweiten Kante in Deckung gebracht wird, lässt sich durch Differenz der beiden Skalenwerte der gesuchte Winkel berechnen. Zur Kontrolle von Kurven und Radien wird wie zuvor das Bild auf den Schirm projiziert, wobei auf dem Schirm eine dem Vergrößerungsmaßstab entsprechende Referenzzeichnung der Kontur auf transparentem Papier oder Folie befestigt wird. Meistens ist um diese SOLL-Kontur zusätzlich ein Toleranzband eingezeichnet, welches den Bereich markiert, in dem sich die aufprojizierte IST-Kontur bewegen darf. Formabweichungen können so leichter ausgemacht werden. So lange die Abbildungsoptik eine maßhaltig exakt vorher eingestellte Vergrößerung liefert, sind mit einem Profilprojektor sehr präzise Messungen und Konturprüfungen möglich. Messtechnisch schwierig zu erfassende Formen lassen sich damit auf einfache Weise kontrollieren. Nachteilig ist jedoch der große Einfluss, den der Qualitätsprüfer auf das ermittelte Messergebnis hat. Die Profilschnitte, die manuell erstellt werden, fallen mitunter von Person zu Person unterschiedlich aus, da es bislang keine spezielle Vorrichtung gibt, mit der sich die Scheibchen definiert aus dem Abdruck heraustrennen lassen. Ein zu schräg angesetzter Schnitt oder übermäßiger Druck mit dem Cutter, der die nachträgliche Verformung des Abdruckes bewirkt, sind Einflüsse, die dazu führen können, dass die reale Bauteilkontur nicht mehr wirklichkeitsgetreu repräsentiert wird. Das ermittelte Prüfergebnis ist deshalb mit Blick auf seine Reproduzierbarkeit mehr als fraglich anzusehen. Ein letzter Punkt betrifft den Aufwand, der zur Prüfung eines Merkmals mittels Abdrucknahme getrieben werden muss. Es wird deutlich, dass Profilprojektormessungen der beschriebenen Art zeitaufwendige manuelle Arbeit sind. Aus diesem Grunde sollten sie nur für solche Merkmale durchgeführt werden, die mit der AUSGANGSSITUATION SEITE 24 Koordinatenmessmaschine absolut unzugänglich sind oder immer dann, wenn es um wenige Einzelmessungen geht. 2.4.2.2 Räumnutenprüfung Ein weiteres Einsatzfeld der Projektionstechnik ist die Prüfung der Ein- und Austrittskanten2 der Räumnuten am Umfang von Verdichter- oder Turbinenlaufscheiben. Zu diesem Zweck gibt es bei der MTU einen eigenen Profilprojektor, der es ermöglicht, Laufscheiben auch ohne die vorherige Abdrucknahme zu prüfen (Abbildung 2.11). Dazu wird das gesamte Bauteil auf einen in mehreren Richtungen dreh- und schwenkbaren Aufnahmetisch gelegt. Anschließend muss es so ausgerichtet werden, dass die zu prüfende Nut möglichst mittig unter der Objektivöffnung des Projektors liegt. Mit einer zusätzlichen Lichtquelle projiziert dann ein Linsen- und Spiegelsystem das Profilbild auf einen großen Schirm seitlich an der Messmaschine. Ähnlich wie bei der obig beschriebenen Radienprüfung, verwendet man eine vorgezeichnete Referenzkurve der Nutkontur zur Beurteilung der Maßhaltigkeit. Quelle: Verfasser Abbildung 2.11: Profilprojektor zur Räumnutenprüfung 2 Die Begriffe Ein- und Austrittskante entstammen dem Herstellungsprozess der Nuten durch Räumen. Als Eintrittskante wird die Kante bezeichnet, die der Räumnadel bei der Spanabnahme zugewandt ist. Entsprechend ist die beim Werkzeugaustritt entstehende Kante die Austrittskante AUSGANGSSITUATION 2.4.3 SEITE 25 Handmessgeräte und Lehren Mit der Koordinatenmessmaschine und dem Profilprojektor sind zwei Prüfmittel vorgestellt worden, mit denen sich bereits ein Großteil der Merkmale an Triebwerksbauteilen kontrollieren lässt. Darüber hinaus kommen zahlreiche weitere Mess- und Prüfmittel zum Einsatz, die an dieser Stelle nur noch erwähnt und nicht mehr detailliert beschrieben werden. Eine Prüfplanauswertung über mehrere Bauteiltypen hinweg hat ergeben, dass zur manuellen Geometrieprüfung im Wesentlichen die im Folgenden genannten Prüfmittel verwendet werden. Messmittel Lehren Tiefenmessschieber Hackenmessschieber Außen- und Innenmessschrauben Tellermessschrauben 3-Punkt Messschrauben Höhenreißer Winkelmesser (normal u. optisch) Schnelltaster Fühlhebelmessgerät Grenzlehrdorne Gewindelehrdorn Radienlehren Rachenlehren Endmaße Haarlineal Quelle: Verfasser Abbildung 2.12: Handmessgeräte und Lehren zur manuellen Merkmalsprüfung Bei wenigen Bauteilen und auch nur bei wenigen Prüfmerkmalen kommen Messgeräte zum Einsatz, die in der Serienteilprüfung sonst eher seltener anzutreffen sind. Dazu zählen beispielsweise das Ultraschall-Wanddickenmessgerät und der Konturograph. Die Erfordernis solcher Prüfmittel ergibt sich oftmals aus der komplexen Gestalt der Bauteile und der dadurch bedingten ungünstigen Lage einiger Merkmale. Innerhalb der Prüfungen an Tischarbeitsplätzen werden auch so genannte Sichtprüfungen durchgeführt, die streng genommen nicht zu den Geometrieprüfungen zählen, aber denen in der Qualitätsprüfung der Bauteile eine hohe Bedeutung zukommt. Sie dienen in erster Linie zur Kontrolle auf Beschädigungen am Bauteil, die auf maschinelle Art und Weise nicht detektiert werden können und oftmals nur mit einem geschulten Auge erkennbar sind. Bei der Sichtprüfung ist deshalb in besonderem Maße die gesammelte Erfahrung der Qualitätsprüfer ausschlaggebend für die Feststellung von Fehlern an den Bauteilen. Exemplarisch sind in der folgenden Abbildung typische Sicht- und Maßprüfungen dargestellt. AUSGANGSSITUATION SEITE 26 links: Sichtprüfung auf Beschädigungen an einem Leitkranz und an einer Laufscheibe mit einem Handtaster bzw. einer Lupe rechts: Maßprüfung mit dem Höhenreißer Quelle: Verfasser Abbildung 2.13: Tischprüfvorgänge OPTISCHE 3D-MESSTECHNIK 3 SEITE 27 Optische 3D-Messtechnik Dieses Kapitel behandelt die optische 3D-Messtechnik mittels Streifenprojektion (engl.: Projected-Fringe). Beginnend mit einigen grundsätzlichen Aspekten bezüglich des Ablaufs einer optischen Messung folgt ein technisch orientierter Abschnitt, in dem die Funktionsweise eines Streifenprojektionssensors erklärt wird. Dazu wird das dem Verfahren zugrunde liegende Prinzip zunächst an einem punkthaft und einem linienhaft messenden System erläutert. Darauf aufbauend folgt anschließend die Erweiterung auf das flächenhaft antastende Streifenprojektionsverfahren. 3.1 Messablauf Im letzten Kapitel wurde gezeigt, dass die Koordinatenmesstechnik heutzutage ein ausgereiftes und hoch entwickeltes Verfahren zur Prüfung von Bauteilen darstellt. Von der Grundidee her unterscheidet sich die klassische Koordinatenmesstechnik nur unwesentlich von einer optischen 3D-Messanlage. Beide Verfahren stützen sich zur Maßberechnung und Formbestimmung auf Objektpunkte, die in einem dreidimensionalen Koordinatensystem definiert sind. Deutlich verschieden sind jedoch die Art der Objektpunktaufnahme, die Objektpunktanzahl sowie die Auswertungs- und Darstellungsmöglichkeiten der Messergebnisse. Im industriellen Einsatz, beispielsweise bei der flächenhaften Vermessung von Kotflügeln oder Autotüren, hat sich seit längerem die Streifenprojektionstechnik bewährt [Fran05-ol]. Die heutigen Systeme sind mittlerweile so genau, dass ein Einsatz in der Prüfung von eng tolerierten Triebwerksbauteilen denkbar ist. Nachfolgend wird anhand des Ablaufs einer optischen 3D-Messung das Verfahren näher beschrieben. 3.1.1 Digitalisierung Die Digitalisierung stellt bei der Bauteilprüfung mittels optischer 3D-Messtechnik den ersten und zugleich wichtigsten Schritt dar. Unter dem Begriff Digitalisierung versteht man in diesem Zusammenhang ein Verfahren zur Beschreibung von Messobjekten durch 3D-Oberflächenkoordinaten im Raum. Um auch komplexe Formen hinreichend genau erfassen zu können, ist die Aufnahme möglichst vieler Objektpunkte mit geringem Abstand zuneinander erforderlich. Die dreidimensionale Beschreibung einer Fläche durch viele, im Einzelfall bis zu mehreren Millionen Punkten, nennt man daher auch Punktewolke. Zu Erzeugen der Punktewolke von einem Bauteil können grundsätzlich unterschiedliche Verfahren zum Einsatz kommen Die Streifenprojektionstechnik ist OPTISCHE 3D-MESSTECHNIK SEITE 28 jedoch die Methode, die eine hohe Genauigkeit mit gleichzeitig geringer Messzeit3 verbindet. Im ersten Schritt der Vermessung werden Streifenmuster auf das Objekt projiziert und unter einem bestimmten Winkel mit Hilfe von zwei Kameras erfasst. Der dazu notwendige Projektor und die Kameras bilden eine fest miteinander verbundene und zueinander ausgerichtete Einheit, die - wie in Abbildung 3.1 gezeigt - in einem einzigen Gehäuse untergebracht ist und den bereits erwähnten Sensor oder Digitalisierer darstellt. Quelle: [gom05] Abbildung 3.1: 3D-Digitalisierer ATOS III 600 der Firma gom Neben dem Sensor besteht eine optische Messanlage im einfachsten Fall aus einem Stativ, einer Ansteuereinheit sowie einem schnellen Mess- und Auswerterechner mit entsprechender Software. Letztere berechnet innerhalb von wenigen Sekunden aus den Bildern die 3D-Koordinaten von maximal so vielen Objektpunkten wie die Kameras Pixel haben. Definiert sind die Punkte zunächst in einem dreidimensionalen Koordinatensystem des Sensors. Um ein Objekt rundum erfassen zu können, sind mehrere Einzelaufnahmen von unterschiedlichen Positionen notwendig. Die jeweils dabei berechneten Punktewolken müssen anschließend zu einer einzigen Punktewolke zusammengefügt werden. Dieses erfolgt über Referenzmarken, die entweder auf das Objekt aufgeklebt werden oder sich auf einer umgebenden Kulisse befinden. Die genauen Koordinaten der Marken werden mit Hilfe der Photogrammetrie bestimmt, worunter eine Mess- und Auswertemethodik zu verstehen ist, die es ermöglicht, die Lage, Form und Größe räumlicher Objekte aus bildhaften Aufzeichnungen zu bestimmen [Breu93]. Über die Marken kann das System zu jeder Teilmessung die zugehörige Sensorposition zum Aufnahmezeitpunkt bestimmen und die Punktewolken in ein gemeinsames Objektkoordinatensystem transformieren. Voraussetzung dafür ist, dass in jeder Teilansicht mindestens drei Marken in beiden Kameras gleichzeitig sichtbar sind [TBGW99]. Der Fortschritt der Digitalisierung kann am Monitor des Messrechners verfolgt werden. 3 Die hier gemeinte Messzeit bezieht sich zunächst auf eine Aufnahme mit dem Sensor. OPTISCHE 3D-MESSTECHNIK SEITE 29 Abbildung 3.2 zeigt hierzu die Aufnahme der Punktewolke eines Verdichterlaufrades. Die unterschiedlichen Positionen, die der Sensor zur Erzeugung der Teilansichten einnehmen muss, werden dabei automatisiert von einem Gelenkroboter angefahren. Rechts im Bild ist das vollständig digitalisierte Bauteil zu sehen. Quelle: Verfasser Abbildung 3.2: links: Automatisierte Bauteildigitalisierung mit einem Roboter rechts: Vollständig digitalisiertes Verdichterlaufrad 3.1.2 Tesselierung Die Punktewolke ist eine Möglichkeit eine Körperoberfläche im dreidimensionalen Raum zu beschreiben. Je dichter deren Punktabstand ist, umso detailgetreuer lässt sich eine Oberfläche damit abbilden. Grundsätzlich ist jedoch nicht an allen Bauteilstellen eine hohe Punktdichte erforderlich. Betrachtet man beispielsweise ein ebenes Flächenstück, so wäre es völlig ausreichend dieses über wenige Eckpunkte zu definieren und die dazwischen liegenden Punkte nicht weiter zu berücksichtigen. Diese Technik, die Tesselierung4 genannt wird, macht man sich bei der optischen 3D-Messtechnik zu nutze. Dabei wird die gesamte Messpunktewolke überlappungsfrei in ein Netz von Polygonflächen (Dreiecksflächen), die über Kontrollpunkte definiert sind, umgerechnet. In Abhängigkeit der Objektkrümmung besitzt das Polygonnetz unterschiedliche Dichten. Der Punktabstand des Netzes wird dabei dynamisch an die Oberflächenkrümmung angepasst. An engen Radien oder Kanten ist die Größe der Dreiecke demnach kleiner als an ebenen Flächen (Abbildung 3.3). Auch wenn die Tesselierung weitgehend automatisiert erfolgen kann, ist zur Erzeugung qualitativ hochwertiger Flächen anfänglich ein nicht zu unterschätzender Nachbearbeitungsaufwand einzuplanen [Duwe02]. Ver- 4 Anstatt des Begriffs Tesselierung wird synonym häufig auch von Polygonisierung gesprochen OPTISCHE 3D-MESSTECHNIK SEITE 30 schiedene Parameter erlauben es dabei, den Vorgang manuell zu optimieren und den eigenen Erfordernissen anzupassen. Die geschickte Approximation einer Oberfläche durch kleine zusammenhängende Flächenelemente weist Vorteile gegenüber einer Punktewolke auf. Weil nicht mehr alle digitalisierten Punkte berücksichtigt werden müssen, lässt sich das Bauteilmodell aufgrund der geringeren Datenmenge mit dem Computer besser verarbeiten. Auch wenn zur Auswertung und Weiterverarbeitung oftmals leistungsfähige Mehrprozessorrechner zum Einsatz kommen, wirkt sich ein geringerer Rechenaufwand letztendlich auch spürbar auf die Verarbeitungszeit aus. Quelle: Verfasser Abbildung 3.3: Detailausschnitt in der Normalansicht (links) und als Polygonnetz (rechts) Des Weiteren ist den Flächenelementen jeweils ein Normalenvektor zugeordnet, der senkrecht aus der Fläche austritt und in eine bestimmte Richtung zeigt. Diese Eigenschaft kann beispielsweise dazu genutzt werden an einer Bauteilfläche im Rechnermodell die Innen- von der Außenseite zu unterscheiden. Aus einer Punktewolke kann diese Information nicht abgeleitet werden. 3.1.3 Auswertung Nachdem die Punktewolke mit Hilfe des Sensors aufgenommen und anschließend Aufbereitet wurde, kann die eigentliche Messung von Prüfmerkmalen erfolgen. Im Falle des bei MTU verwendeten Meßsystems geschieht dieses mit der gleichen Software, die den Anwender schon vorher durch den Digitalisierungs- und Tesselierungsprozess geleitet hat. Das Programm bietet umfangreiche Funktionen um alle denkbaren Geometrieprüfungen durchzuführen. Das grundsätzliche Prinzip hierbei, entspricht der bereits von der Koordinatenmessmaschine bekannten Generierung von idealen Ersatzelementen als OPTISCHE 3D-MESSTECHNIK SEITE 31 Abbild der Wirklichkeit. Der einzige Unterschied besteht darin, dass die Elemente nicht in wenige Einzelpunkte sondern in ein Polygonnetz eingepasst werden. Dieser Schritt erfolgt bei dem optischen Messsystem interaktiv und kann am Bildschirm verfolgt werden. Eine typische Messszene, die sich dem Anwender dabei zeigt, ist in Abbildung 3.4 dargestellt. Kleine Informationsboxen geben Auskunft über die gemessenen Geometrien und zeigen die Ist-Maße an, die dann mit den Zeichnungsmaßen verglichen werden können. Quelle: Verfasser Abbildung 3.4: Bestimmung der Ebenheit einer Bauteilfläche sowie des Durchmessers einer Bohrung und eines Lochkranzes Die optische 3D-Messtechnik würde in der Serienprüfung von Bauteilen keine Vorteile bringen, wenn sie nicht weitestgehend automatisierbar wäre. Daher besteht die Möglichkeit mittels Programmen die bisher beschriebenen Arbeitsschritte zusammenzufassen, so dass die Messwertaufnahme und -aufbereitung über die Merkmalsprüfung bis hin zur anschließenden Zusammenstellung in einem Messprotokoll ohne weiteres Zutun für ein bestimmtes Bauteil jedes Mal gleichartig erfolgen kann. OPTISCHE 3D-MESSTECHNIK SEITE 32 Das Bild zeigt die Kante einer Verdichterschaufel, in die nach dem GaußVerfahren ein Zylinder zur Radiusbestimmung eingepasst wurde. Besonders gut zu sehen ist, dass die Ist-Kontur, die durch das Polygonnetz repräsentierte wird, an einigen Stellen den Zylinder durchstößt und somit eine geringe Formabweichung vorliegt Quelle: Verfasser Abbildung 3.5: Zylindereinpassung zur Radiusbestimmung an einer Schaufelkante 3.2 Vergleich mit der Koordinatenmessmaschine Der dargestellte Messablauf hat die Unterschiede zur klassischen Koordinatenmesstechnik deutlich gemacht. Zusammenfassend sind in den folgenden Punkten die wesentlichen Vorteile der optischen 3D-Messtechnik gegenüber der klassischen Koordinatenmesstechnik zusammengestellt. • Berührungslose Datenerfassung Bei der optischen 3D-Messtechnik erfolgt die Datenaufnahme berührungslos mit Hilfe eines Sensors. Eine mögliche Beeinträchtigung des Bauteils durch mechanisch tastende Komponenten ist ausgeschlossen. • Hohe Punktdichte Im Gegensatz zur Messmaschine werden die Objektpunkte nicht gezielt angetastet sondern unspezifisch mit einer hohen Dichte aufgenommen. Mehrere Millionen Messpunkte pro Aufnahme sind möglich. • Flächenhafte Bauteilerfassung Aufgrund der hohen Punktdichte lassen sich Messobjekte flächenhaft erfassen, was zu besser abgesicherten Messergebnissen führt. Die unter Kapitel 2.4.1.3 angesprochene Problematik einer unzureichenden Messpunktanzahl tritt im Normalfall nicht auf. OPTISCHE 3D-MESSTECHNIK SEITE 33 • Offline Datenverarbeitung Die Messdaten werden vom Sensorsystem gespeichert. Dadurch ist es möglich die eigentliche Messung von Merkmalen nach der Digitalisierung zu jedem gewünschten Zeitpunkt und auch mehrmals durchzuführen. Das reale Bauteil wird dazu nicht mehr benötigt. Mit der Koordinatenmessmaschine werden hingegen einzelne Punkte angefahren und direkt bewertet. Möchte man ein Merkmal noch einmal Prüfen, müssen die dafür benötigten Punkte erst wieder erneut angetastet werden. • Geringe Genauigkeitsanforderungen an die Sensorführung An die Sensorführung werden bei der Streifenprojektionstechnik keine besonderen Anforderungen gestellt. Der Sensor kann beispielsweise von einem einfachen Roboter geführt werden, dessen Positioniergenauigkeit eine untergeordnete Rolle spielt. Das Messobjekt und der Sensor dürfen sich einzig und allein während der Digitalisierung nicht bewegen. Im Vergleich dazu sind bei der Koordinatenmessmaschine hochpräzise Achsführungen eine Grundvoraussetzung für genaues Messen. OPTISCHE 3D-MESSTECHNIK 3.3 SEITE 34 Technische Grundlagen Das Streifenprojektionsverfahren und einige diesbezügliche Grundlagen werden im Folgenden näher beschrieben. Auf umfangreiche mathematische Betrachtungen, die zum tieferen Einstieg in die Thematik erforderlich sind, wird an dieser Stelle verzichtet. Diese können vom interessierten Leser in Standardwerken zur Photogrammetrie und digitalen Bildverarbeitung nachgelesen werden. Zum grundsätzlichen Verständnis des Messprinzips sind diese jedoch nicht unbedingt notwendig. 3.3.1 Begriffsbestimmung Die Streifenprojektionstechnik gehört zur Gruppe der bildgebenden 3D-Messverfahren, welche unter dem Oberbegriff „Topometrie“ zusammengefasst werden und nach [Breu93] die folgenden gemeinsamen Merkmale aufweisen: • Messprinzip Triangulation • Messen mit strukturierter Beleuchtung • bildhafte Erfassung von 3D-Messdaten • dynamische Messwertaufnahme • rechnergestützte Online-Verarbeitung. Techniken der bildhaften Erfassung von 3D-Messdaten sind von den Verfahren zu unterscheiden, die zur Erlangung von flächenhaften räumlichen Informationen einen Messbereich abscannen müssen. Zu diesen zählen beispielsweise die Lasertriangulation und die Lichtschnitttechnik, deren Funktionsprinzip zum besseren Verständnis des Streifenprojektionsverfahrens nachfolgend kurz beschrieben wird. Die rechnergestützte Online-Verarbeitung gilt heute bei vielen Messverfahren als Standard und muss fast nicht mehr explizit aufgeführt werden. Bei topometrischen 3D-Messtechniken kommt ihr jedoch eine besondere Bedeutung zu. Ohne den Einsatz leistungsstarker Auswerterechner zur Bewältigung der enorm großen Datenmengen wäre ein wirtschaftlicher Einsatz der Verfahren undenkbar. 3.3.2 Das Messprinzip der Triangulation Das Prinzip der Triangulation (von lat.: triangulum = Dreieck) ist in der Messtechnik seit langem bekannt und wurde schon im sechsten Jahrhundert v. Chr. von Tales von Milet zur Abstandsbestimmung eingesetzt. Als „Verfahren des Vorwärtseinschneidens“ fand es im 19. Jahrhundert in der Geodäsie (Landvermessung) Anwendung [Pfei93]. Dabei macht man sich den geometrischen Zusammenhang zu nutze, dass der Eckpunkt OPTISCHE 3D-MESSTECHNIK SEITE 35 eines Dreiecks eindeutig bestimmt ist, wenn die Länge der gegenüberliegenden Seite sowie die an sie angrenzenden Winkel gegeben sind. In der praktischen Umsetzung ermittelt man dazu durch Anpeilen eines Objektes von zwei im Abstand b (Basislinie) befindlichen Standpunkten P und P` die Winkel a und ß (Abbildung 3.6). Mit dem Sinussatz kann dann die Länge einer der beiden Peilstrahlen und anschließend der Abstand des Objektes von der Basislinie (Höhe des Dreiecks) berechnet werden. Um mit dieser einfachen Methode genaue Ergebnisse zu erhalten, müssen a und ß mit einem geringen Fehler bestimmt werden. Ein Winkelmessgerät was dies ermöglicht ist der Theodolit, der nicht nur zur Geländeaufnahme sondern auch zur astronomischen Ortsbestimmung verwendet werden kann [NN05d]. Theodoliten bestehen im einfachsten Fall aus einem Fernrohr mit Fadenkreuz, welches auf einem drehbaren horizontalen und vertikalen Teilkreis auf einem Stativ gelagert ist. Zur horizontalen Ausrichtung im Gelände kann eine einfache Dosenlibelle verwendet werden. m P a O h b m b = sin β sin(180° − α − β ) h= b ⋅ sin α ⋅ sin β sin(180° − α − β ) ß P’ Quelle: Verfasser Abbildung 3.6: Triangulation in der Landvermessung 3.3.3 Laser-Triangulation Im industriellen Bereich gewann das Triangulationsprinzip erst mit der Entwicklung der Leucht- und Laserdioden sowie der optoelektronischen Sensorik an Bedeutung. Dies ermöglichte die Entwicklung von kleinen Lasertriangulationssensoren (LTS), die bei Abstandsmessungen im Entfernungsbereich bis zu einigen Metern eine Tiefenauflösung bis in den µm-Bereich zulassen. Der schematische Aufbau eines eindimensionalen Triangulationssensors ist in Abbildung 3.7 dargestellt. Dazu ist anzumerken, dass eine optische Triangulation grundsätzlich durch verschiedenste geometrische Anordnungen der bestimmenden Komponenten realisiert werden kann und die abgebildete eine mögliche darstellt [Baum02]. OPTISCHE 3D-MESSTECHNIK SEITE 36 ?l ? Laser Detektor ?h Quelle: Verfasser Abbildung 3.7: Prinzip eines Lasertriangulationssensors Eine Leucht- oder Laserdiode fokussiert durch eine Projektionsoptik einen Lichtpunkt auf die Oberfläche des zu messenden Objektes. Das vom Objekt diffus reflektierte Licht wird über die Abbildungsoptik auf einen Lagedetektor geleitet. Bei einfachen Sensoren werden hierzu geteilte Photodioden, Lateraleffektdioden (Position Sensitive-Detectors, PSD) oder Zeilenkameras verwendet [Pfei93][Hüse95]. Verschiebt man das Objekt in Richtung des einfallenden Laserstrahls, führt dies zu einer Lageänderung auf dem Detektor. Bei einem wie oben dargestellten System zur Längenmessung wäre es wünschenswert, dass eine Längenänderung ? h in linearer Abhängigkeit zur Abstandsänderung ? l steht. Dies ist im Allgemeinen nicht gegeben, so dass herstellerseitig unter Berücksichtigung der sensorspezifischen Kennlinie eine besondere geometrische Anordnung von Laser, Abbildungsoptik und Detektor erforderlich ist. Ebenfalls baulich vom Hersteller vorgegeben und als feste Größe zu betrachten ist der Triangulationswinkel ?. Dieser befindet sich zwischen der optischen Achse der Abbildungsoptik und dem aus dem Laser austretenden Lichtstrahl. Durch ihn bestimmen sich neben weiteren Einflussfaktoren die Messauflösung und der Messbereich eines Triangulationssensors. Je größer der Triangulationswinkel gewählt wird (z. B. 60°), desto größer ist der bei einer Objektverschiebung um ? l registrierte Lichtpunktversatz ? h auf dem Detektor. Damit steigt auch die Messauflösung bei gleichzeitiger Reduzierung des Messbereichs. Abbildung 3.8 verdeutlicht den beschriebenen Zusammenhang, der bei allen auf dem Triangulationsprinzip beruhenden Verfahren zu beobachten ist [Breu93]. Zusätzlich ist zu beachten, dass bei großen Winkeln ? je nach Oberflächenprofil des Objektes einzelne Bereiche abgeschattet werden können und damit nicht messbar sind. OPTISCHE 3D-MESSTECHNIK SEITE 37 ?=35° ?=60° h h Quelle: Verfasser Abbildung 3.8: Zusammenhang zwischen Triangulationswinkel, Messbereich und Auflösung: Großer Triangulationswinkel = hohe Auflösung, kleiner Höhenmessbereich. Kleiner Triangulationswinkel = reduzierte Auflösung, großer Höhenmessbereich. Durch bewegen des Messstrahls relativ zum Messobjekt (scannen) sind mit dem Lasertriangulationsverfahren auch zwei oder dreidimensionale Konturerfassungen möglich [Sowa95]. Jedoch ist dies mit großem zeitlichem und auch mechanischem Aufwand verbunden und daher für die schnelle Erfassung vieler Objektpunkte an großflächigen Bauteilen nicht prädestiniert [Wior01][Breu93]. 3.3.4 Lichtschnittverfahren Zur optischen Formerfassung weit verbreitet ist das Lichtschnittverfahren, welches das Ergebnis aus der konsequenten Weiterentwicklung der eindimensionalen Lasertriangulation darstellt. Abbildung 3.9 zeigt hierzu den Aufbau eines Lichtschnittsensors. Unter einem Winkel von meistens 45° wird ein schmales Lichtband bzw. eine scharfe HellDunkel-Grenze auf die Werkstückoberfläche geworfen. OPTISCHE 3D-MESSTECHNIK SEITE 38 Quelle: [Luhm00] Abbildung 3.9: Prinzipieller Aufbau eines Lichtschnittsensors Solche Lichtebenen lassen sich im einfachsten Fall dadurch erzeugen, dass ein Glasstab senkrecht zur Laserstrahlachse positioniert wird. Die auftreffende kollimierte Laserstrahlung wird dann zu einem Linienfächer mit einer gaußschen Intensitätsverteilung entlang der Linie geformt. Aufwendigere Projektionstechniken erlauben es, Laserlinien mit nahezu homogener Intensitätsverteilung zu erzeugen, welche das Auflösungsvermögen des Lichtschnittsensors steigern [NN04b]. Das an der Objektoberfläche reflektierte Licht gelangt dann auf den zweidimensionalen CCD-Bildaufnehmer (Chargecoupled Device) einer Videokamera oder eines Detektors. Die dort abgebildete Linie ist nicht mehr gerade sondern erscheint leicht bis stark gekrümmt. Dieser Lateralversatz im registrierten Bild stellt bereits ein Maß für die Höhen und Tiefen entlang des Lichtschnittes am angestrahlten Objekt dar. Stellt man sich die projizierte Linie als Aneinanderreihung vieler Einzelpunkte vor, so entspricht dies der bereits beschriebenen Lasertriangulation [Moli88]. Jeder der gedachten Lichtpunkte erzeugt eine Reflexion auf dem Matrixfeld des CCD-Chips. In den angestrahlten Bildpixeln werden dadurch elektrische Signale ausgelöst anhand, derer sich der genaue Auftreffpunkt auf dem Chip ermitteln lässt. Mit der zusätzlichen Kenntnis über die genaue Position der Lichtquelle, der Orientierung der Lichtebene sowie der Position und Orientierung der Kamera, kann ein Bildverarbeitungssystem die 3D-Koordinaten für jeden einzelnen Punkt des Lichtschnittes berechnen [Wolf97]. Beim Lichtschnittverfahren besteht durch bewegen der Sensoranordnung oder des Messobjektes ebenfalls die Möglichkeit zur Digitalisierung einer gesamten Kontur. Analog zu einer scannenden Lichtpunkt-Triangulationseinheit stellt dies sehr hohe OPTISCHE 3D-MESSTECHNIK SEITE 39 Anforderungen an die verwendeten Bewegungsachsen hinsichtlich ihrer Positioniergenauigkeit, da mechanische Fehler direkt in das Messergebnis eingehen [BBBC+03] 3.3.5 Bildhafte Triangulation durch strukturierte Beleuchtung Die bisher vorgestellten Verfahren ermöglichen eine punkt- und linienhafte und, jedoch unter größerem Aufwand, auch die flächenhafte 3D-Vermessung von Bauteilen. Ausgehend von der Einfachtriangulation über einen Lichtpunkt und die linienhafte Triangulation entlang eines Lichtschnittes, lässt sich die bildhafte Triangulation einer gesamten Messszene durch den Einsatz von strukturiertem und flächenhaft aufprojiziertem Licht realisieren [Breu93]. Dieses ist der wesentliche Ansatz, der auch der Streifenprojektionstechnik zugrunde liegt, die eingangs kurz erläutert wurde und die nachfolgend vertieft betrachtet werden soll. 3.3.5.1 Statische Streifenprojektion Im einfachsten Fall des Streifenprojektionsverfahrens wird ein statisches periodisches Linienmuster von einem Projektor erzeugt und auf die Oberfläche des Messobjektes projiziert. Eine Matrixkamera beobachtet das an der Bauteiloberfläche reflektierte Licht unter einem festen Winkel zur Projektionsrichtung. Der Linienabstand ist dabei so gewählt, dass die Kamera in der Lage ist sie gerade noch einzeln aufzulösen. Abbildung 3.10 zeigt schematisch eine solche Anordnung. Der Übersicht halber ist nur die Projektion eines einzelnen Streifens dargestellt. Projektor und Kamera bilden eine fest miteinander verbundene und zueinander ausgerichtete Einheit, die in einem einzigen Gehäuse untergebracht ist und üblicherweise als Streifenprojektionssensor oder Digitalisierer bezeichnet wird. Bei vielen der kommerziell erhältlichen Systeme hat sich ein Aufbau mit einem in der Mitte befindlichen Projektor und zwei Beobachtungskameras an den Seiten etabliert. Das zugrunde liegende Messprinzip lässt sich jedoch einfacher an einem Aufbau mit einem Projektor und nur einer Kamera erklären. Grundsätzlich ist es aber auch auf Mehrkamerasysteme übertragbar. OPTISCHE 3D-MESSTECHNIK SEITE 40 Objektpunkt P(x,y,z) P Streifenprojektor Matrixkamera v u f Triangulationsbreite Quelle: Verfasser nach [Wior01] Abbildung 3.10: Statische Streifenprojektion Jede Linie auf dem Messobjekt entsteht geometrisch gesehen durch den Schnitt einer vom Projektor ausgehenden Lichtebene mit der Oberfläche des angestrahlten Bauteils. Solange die beleuchtete Fläche eben ist, erscheinen die Streifen als gerade parallele Linien. Gekrümmte Oberflächen lassen ein deformiertes Streifenmuster entstehen. Das eigentliche Problem, die Berechnung von 3D-Oberflächenkoordinaten, kann in der dargestellten Anordnung wie folgt gelöst werden. Ein auf dem Lichtstreifen liegender Objektpunkt P wird über einen Bildstrahl im Matrixfeld der Kamera auf einem Pixel mit den Koordinaten (u, v) abgebildet. Kennt man die Lage des Bildstrahls und der Lichtebene, bezogen auf ein dem Projektor und der Kamera übergeordnetes Koordinatensystem (Sensorkoordinatensystem), so lässt sich der Ort des gesuchten Punktes ebenfalls exakt bestimmen, weil Sie eindeutig durch den Durchstoßpunkt der Geraden mit der Ebene definiert ist. Abbildung 3.11 zeigt zur Verdeutlichung des Problems eine weitere Messanordnung senkrecht aus der Vogelperspektive. Alle dargestellten Längen sind wahre Längen und liegen in einer Ebene. Die Koordinate v der Bildebene bleibt dabei, ohne Beschränkung der Allgemeinheit, unberücksichtigt und kann beispielsweise zu Null gesetzt werden. OPTISCHE 3D-MESSTECHNIK SEITE 41 Messobjekt ? P Lichtebene ?a Bildstrahl a ß a0 ?ß ß0 b .. . 32 10 -1-2 -3. . . Ordnung f Projektionszentren Projektionsgitter u Pixel(u,v=0) Quelle: Verfasser nach [Breu93] Abbildung 3.11: Streifenprojektion Zwischen der Projektions- und der Abbildungsachse von Projektor und Kamera liegt der Triangulationswinkel ?. Er kann am Streifenprojektionssensor indirekt durch manuelles verändern des zentralen Projektionswinkels a 0 und des zentralen Beobachtungswinkels ß0 eingestellt werden, wodurch sich das verfügbare Messvolumen vergrößert oder verkleinert. Während des Messvorgangs muss jedoch eine starre Fixierung dafür sorgen, dass Kamera und Projektor ihre relative Lage zueinander nicht verändern und ? konstant bleibt. Ferner ist das Projektionsgitter zur Erzeugung der Streifenstruktur schematisch dargestellt. In der Realität kann zu diesem Zweck ein Dia mit hochgenauer Gitterstruktur verwendet werden. Die erreichbare Liniendichte liegt dabei zwischen 4 und 40 Linien/mm. Die Lage der Lichtebene und des Bildstrahls werden durch die Winkel a und ß beschrieben, die zunächst unbekannt sind und die es zu bestimmen gilt. Zusammen mit der vom Sensor baulich festgelegten und bekannten Basislänge b bilden sie ein Triangulationsdreieck (rot), welches den Objektpunkt P beinhaltet und seine Lage genau definiert. Der erste Schritt zur Koordinatenbestimmung von P besteht folglich darin, den Einfallswinkel ß zu berechnen. Dieser ist eine Funktion des zentralen Beobachtungswinkels ß0, der Pixelkoordinate (u, v) sowie der sog. inneren Orientierung ? ß, die durch mehre- OPTISCHE 3D-MESSTECHNIK SEITE 42 re Parameter die Abbildungsgeometrie der Beobachtungskamera beschreibt [BBBC+03]. Die innere Orientierung wird durch einen Kalibriervorgang bestimmt. Ihr liegt das Prinzip einer einfachen Lochkamera zugrunde, bei der die Abbildung eines dreidimensionalen Objektes in die zweidimensionale Bildebene nach dem mathematischen Modell der Zentralprojektion erfolgt. Dabei laufen alle vom Objekt ausgehenden Bildstrahlen durch einen gemeinsamen Punkt O, der Projektionszentrum genannt wird. Anschließend treffen sie auf den zugehörigen Bildpunkt in der Abbildungsebene der Kamera, beispielsweise einem CCD-Chip. Abbildung 3.12 verdeutlicht das Modell der Zentralperspektive und zeigt die wesentlichen abbildungsrelevanten Parameter. O c H’ h M’ Objektivachse v u Quelle: Verfasser Abbildung 3.12: Die Zentralprojektion am Beispiel einer Lochkamera Die Kamerakonstante c definiert dabei den Abstand des Projektionszentrums O von der Bildebene. Sie beeinflusst den Abbildungsmaßstab, welcher dem Verhältnis von Aufnahmeentfernung h zu Kamerakonstante c bei gegebenem Objektabstand entspricht. Bei realen Aufnahmesystemen hängt c von der Brennweite des jeweils verwendeten Objektivs ab. Ein weiterer Parameter ist die Lage des sog. Bildhauptpunktes H’. Zu ihm gelangt man durch fällen des Lotes von der Objektivebene durch das Projektionszentrum auf die Bildebene. Bei gebräuchlichen Kameras fällt die Lage des Bildhauptpunktes H’ üblicherweise mit dem Bildmittelpunkt M’ zusammen [Luhm00]. Zur inneren Orientierung einer realen Kamera zählen neben den bisher erläuterten Parametern auch solche Abbildungseigenschaften, die vom idealisierten Modell der Zentralprojektion abweichen. Im Vergleich zur Lochkamera besitzen photogrammetrische Bildsysteme Objektive mit komplizierten Strahlengängen, die zudem herstellungsbedingte Abbildungsfehler in Form von radial-symmetrischen und tangentialen Verzeichnungen aufweisen [Breu93]. Um diesen unerwünschten Einfluss von Anfang an mög- OPTISCHE 3D-MESSTECHNIK SEITE 43 lichst gering zu halten, wird in der optischen Messtechnik mit Objektiven von höchster Präzision und Güte gearbeitet. Darüber hinaus müssen jedoch alle verbleibenden Fehler und Verzeichnungen, sofern sie nicht aus technischen Datenblättern bekannt sind, so gut es geht durch Kalibrierung individuell für jedes Aufnahmesystem ermittelt und in Form von Korrekturparametern oder Funktionen im Kameramodell berücksichtigt werden. Insgesamt betrachtet kommt der korrekten Bestimmung der inneren Orientierung eine große Bedeutung zu. Schon kleinste Veränderungen der Abbildungseigenschaften wirken sich deutlich auf die erreichbare Genauigkeit im Objektraum aus. Bei Messaufgaben mit hohen Genauigkeitsanforderungen werden deshalb sämtliche Parameter nur für eine Aufnahmeserie als konstant vorausgesetzt und vor jeder weiteren Messung neu ermittelt. Mit erneutem Blick auf Abbildung 3.11 und auf die eigentliche Aufgabe der Koordinatenbestimmung des Objektpunktes P, stellt die Berechnung des Projektionswinkels a der auf den Punkt treffenden Lichtebene den zweiten Schritt dar. Dabei wird der Streifenprojektor als eine inverse Kamera aufgefasst, dessen Strahlgeometrie und Linsenverzeichnungen ebenfalls über Parameter der inneren Orientierung, in diesem Fall ? a, beschrieben werden können. Der Unterschied zur Kamera besteht jedoch darin, dass an die Stelle von zweidimensionalen Pixelkoordinaten nun eine eindimensionale Streifenordnung f tritt, da die Lichtebenen an sich schon zwei Dimensionen aufweisen. Die Streifenordnung, die synonym auch als Phase bezeichnet wird, gibt für jede Lichtebene an, von welcher Stelle des Projektionsgitters aus sie projiziert wurde. Zusammen mit der inneren Orientierung ? a des Projektors und dem zentralen Projektionswinkel a 0 kann schließlich der zweite gesuchte Winkel a berechnet werden, so dass das Triangulationsdreieck mit der Basislänge b und dem darin eingeschlossenen Punkt P eindeutig bestimmt ist. Der Anschaulichkeit halber bezogen sich die bisherigen Betrachtungen auf den in Abbildung 3.11 dargestellten zweidimensionalen Spezialfall, in dem es ausreichte die Einfallsrichtung des Bildstrahls als auch die Projektionsrichtung der Lichtebene jeweils mit einem einzigen Winkel zu beschreiben (a bzw. ß). An dieser Stelle sei jedoch angemerkt, dass die beschriebene Vorgehensweise gleichermaßen für den dreidimensionalen Fall angewendet wird, in dem der Bildstrahl und die Achsen von Projektor und Kamera nicht mehr per Annahme in einer Ebene liegen müssen. Um dann die Lage des Bildstrahls zur Bildfläche der Kamera beschreiben zu können, wird dieser als dreidimensionaler Vektor im Kamerakoordinatensystem (u, v, w) aufgefasst. Zu den gesuchten Objektkoordinaten eines beliebigen in der Bildfläche dargestellten Objektpunktes (u, v) gelangt man dann durch den sog. räumlichen Vorwärtsschnitt. Dessen Anwendung setzt neben der inneren Orientierung zusätzlich die äußere Orientierung von Kamera und Projektor voraus, die deren absolute räumliche Lage in Bezug auf das Messobjekt definiert [Luhm00]. OPTISCHE 3D-MESSTECHNIK SEITE 44 Zusammenfassend kann also festgehalten werden, dass bei bekannter innerer und äußerer Orientierung von Kamera und Projektor (kalibriertes Modell) eine geometrisch – strahlenoptische Verbindung von einem Projektionsursprung f zu dem gesuchten Objektpunkt und weiter bis hin zum Kamerapixel (u, v) hergestellt werden kann und sich aus dem dadurch aufgespannten Dreieck die Objektkoordinate berechnen lässt. Die eigentliche Schwierigkeit bei dieser Vorgehensweise liegt jedoch darin, zu jedem in der Kamera abgebildeten Objektpunkt die zugehörige Projektionsrichtung f der Lichtebene zu finden, die ihn beleuchtet (Korrespondenzproblem). Dadurch, dass das aufprojizierte Streifenmuster periodisch mit abwechselnden Hell-Dunkel-Kanten ist und die auf dem Bauteil sichtbaren Linien kein eindeutiges Unterscheidungsmerkmal aufweisen, kann eine absolute Ordnungsnummer nicht ohne weiteres angegeben werden. Bei einfachen Messobjekten und einem nicht zu kleinen Streifenabstand kann sie mitunter manuell aus dem Kamerabild abgezählt werden. Problematisch ist die Streifenzuordnung jedoch bei komplexeren Oberflächen, weil dort Unstetigkeiten im Linienverlauf auftreten können, die eine eindeutige Zuordnung von Projektionsrichtung f zu Pixelkoordinate (u, v) verhindern. Abbildung 3.13 zeigt zur Verdeutlichung die Messszene einer Turbinenschaufel aus der Blickrichtung der beobachtenden Kamera. Auf dem Schaufelblatt würde die Auszählung der Streifenordnung wenige Probleme bereiten. Im Bereich des Schaufelfußes mit seinem charakteristischen Tannenbaumprofil wirkt der Streifenverlauf durch die stark gewölbte Oberfläche unterbrochen und unstetig, so dass ein Abzählen der Streifennummer nicht mehr möglich ist. Quelle: Verfasser Abbildung 3.13: Phasensprünge im Streifenmuster auf einer Turbinenschaufel Im Sinne eines schnellen topometrischen Messverfahrens und vor dem Hintergrund industrieller Anwendungen stellt die manuelle Auswertung von Streifenbildern keine praktikable Lösung für das Korrespondenzproblems dar. Aus diesem Grunde mussten Verfahren entwickelt werden, die es ermöglichen auf automatisiertem Wege mit Me- OPTISCHE 3D-MESSTECHNIK SEITE 45 thoden der computergestützten Bildverarbeitung das mit der Kamera erfasste Streifenmuster zu analysieren und die Ergebnisse den weiteren Berechnungsschritten zuzuführen. Mit der nachfolgend beschriebenen Methode des codierten Lichtschnittansatzes und der Phasen-Shift-Methode werden zwei Verfahren vorgestellt, die in der Praxis häufig Anwendung finden und die eine eindeutige Bestimmung der gesuchten Streifenordnung f ermöglichen. 3.3.5.2 Codiertes Lichtschnittverfahren Das codierte Lichtschnittverfahren (Coded Light Approach) stellt ein absolut messendes Streifenprojektionsverfahren dar. Ihm liegt eine Raum-Zeit-Codierung der zur Berechnung von Objektkoordinaten notwendigen Phaseninformation f (Projektionsrichtung) zugrunde [Hau98]. Abbildung 3.14 zeigt schematisch den aus Projektor und Matrixkamera bestehenden Messaufbau. Messobjekt 1 0 0 1 0 1 0 0 1 0 t Xp v t Matrixkamera u Quelle: Verfasser nach [Luhm00] Abbildung 3.14: Codierter Lichtansatz Im Vergleich zur statischen Streifenprojektion erzeugt der Projektor nicht nur ein einziges Streifenbild, sondern eine bestimmte Sequenz von m verschiedenen Binärmustern. Heute werden dazu üblicherweise spezielle Projektoren mit Liniengittern aus getrennt schaltbaren LCD-Linien verwendet. Beginnend mit einem Hell-Dunkel-Feld nimmt die Streifendichte mit jeder Projektion bis hin zur feinsten Auflösung zu. Aus der Sicht OPTISCHE 3D-MESSTECHNIK SEITE 46 eines Objektpunktes P wird die Sequenz als eine Hell-Dunkel-Folge wahrgenommen, die, als Binärwert aufgefasst, eindeutig die dem Punkt zugehörige Projektionsrichtung beschreibt. Quer zur Streifenrichtung XP lassen sich so insgesamt 2m verschiedene Projektionsrichtungen durch ein m-stelliges Codewort unterscheiden. Synchron zur Projektion der unterschiedlichen Streifenmuster nimmt eine Kamera m Bilder vom angestrahlten Messobjekt auf. Betrachtet man nun den Abbildungsort des Objektpunktes P in der Bildebene der Matrixkamera, so „sieht“ dieser Bildpixel eine Hell-DunkelFolge (im Beispiel 01001), die sich eindeutig der Projektionslinie zuordnen lässt, die den Objektpunkt beleuchtet. Die Korrespondenz zwischen Bildkoordinate (u, v) und Projektionsrichtung f ist damit hergestellt und kann zur Berechnung der gesuchten Oberflächenkoordinate herangezogen werden. Reale Streifenprojektionssysteme, die nach dem codierten Lichtansatz arbeiten, müssen in sehr kurzer Zeit für jeden Bildpunkt der Kamera die gesuchte Projektionsrichtung ermitteln. Dazu werden die m aufgenommenen Bilder zunächst binarisiert und die für jedes Pixel entstehenden Bitfolgen in einen m-Bit tiefen Bit-Plane-Speicher geschrieben. Über eine Zuordnungstabelle kann dann sehr schnell der Bezug zur entsprechenden Projektionslinie im Projektor hergestellt werden. Die Binarisierungsschwelle, welche die zwei Grauwertebereiche für eine 1 bzw. eine 0 definiert, wird mit Hilfe eines Hellbildes und eines Dunkelbildes am Anfang der Messung bestimmt [BBBC+03]. Abbildung 3.15 stellt zusammenfassend den Ablauf zur Ermittlung der Streifenordnung f dar. Links in der Draufsicht sind die fünf verschiedenen Projektionsgitter aus dem vorangegangenen Beispiel zu sehen (Abbildung 3.14). Mit m = 5 lassen sich auf der gesamten Projektionsbreite 25 = 32 eindeutige Projektionsursprünge (Streifenordnungen) codieren, die in Dezimalzahlen von 0 bis 31 durchnummeriert sind. Der im Matrixfeld der Kamera markierte Bildpixel hat nach Beendigung der fünf Projektionen eine bestimmte Hell-Dunkel-Folge detektiert und diese als fünfstelligen Binärwert im Bitplanespeicher abgelegt. Die nachfolgende Dekodierung besteht in Suche dieses Wertes in der Zuordnungstabelle und führt schließlich zur Streifenordnung f , welche in diesem konkreten Fall fünf ist. OPTISCHE 3D-MESSTECHNIK SEITE 47 Dezimaläquivalent 1 1 1 1 1 1 0 0 0 0 0 1 1 0 0 1 0 0 1 0 Matrixfeld der Kamera 0 0 1 1 0 Bitplanespeicher 1 0 0 0 1 1 1 0 0 0 1 1 0 1 0 0 1 5. Projektion 4. Projektion 3. Projektion Streifenordnung f 2. Projektion 0 0 0 Zuordnungstabelle f 1. Projektion 0 1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21 22 23 24 25 26 27 28 29 30 31 Gray-Code 0 1 1 1 1 1 1 1 1 1 1 0 5 1 1 0 0 0 6 1 1 0 1 0 7 1 1 0 1 1 8 1 0 0 1 1 Quelle: Verfasser Abbildung 3.15: Codierter Lichtansatz mit 5 Musterprojektionen und eindeutiger Kennzeichnung der Streifenordnung f durch den einschrittigen GrayCode Die Eindeutigkeit des Binärcodes für jede der 32 Projektionsrichtungen lässt sich auf die geschickte Wahl der Projektionsgitter sowie ihrer Projektionsreihenfolge zurückführen. Zunächst nicht sofort ersichtlich ist die Besonderheit, dass kein normaler Binärcode sondern der sog. Gray-Code verwendet wird, weshalb die codierte Lichtschnitttechnik auch unter dem Namen Graycode-Verfahren anzutreffen ist. Dieser zählt zu den sog. einschrittigen Codes, was bedeutet, dass beim Übergang auf ein benachbartes Codewort nur eine Stelle ihren Wert ändert. An den beispielhaft in Abbildung 3.15 eingetragenen OPTISCHE 3D-MESSTECHNIK SEITE 48 Codewörtern kann dies anschaulich nachvollzogen werden. Beim codierten Lichtansatz ist die Einschrittigkeit deshalb wichtig, weil dadurch Detektionsfehler an der HellDunkel-Kante zweier Streifen, die beim Binarisieren entstehen können, nur zu einem kleinen Fehler im zugeordneten Dezimaläquivalent des Codewortes führen [Lehle98] [GäLT95]. Letzteres soll an einem konkreten Beispiel erläutert werden. Für den Objektpunkt P ergibt sich nach korrekter Erkennung der Hell-Dunkel-Folge das Codewort 11000 mit dem zugeordneten Dezimaläquivalent 5. Würde nach der vierten Projektion anstatt einer 0 (dunkel) fälschlicherweise eine 1 (hell) erkannt werden, so wäre zwar auch die ermittelte Streifenordnung falsch, jedoch maximal um eine Stelle, nämlich 6 anstatt 5. Streifenprojektionssensoren werden häufig nach dem codierten Lichtschnittverfahren betrieben. Die Technik hat sich als relativ unempfindlich gegenüber wechselnden Beleuchtungsverhältnissen und Reflexionseigenschaften herausgestellt [Luhm00]. Ein Nachteil des Verfahrens liegt jedoch darin, dass nicht für jeden in der Kamera abgebildeten Objektpunkt exakte 3D-Koordinaten berechnet werden können. Die Breite eines Streifens in der letzten und feinsten Projektion ist immer noch so groß, dass sie auf dem CCD-Feld der Kamera auf mehreren Pixeln (beispielsweise 15) abgebildet wird. Je nach Anzahl der diskreten Streifenordnungen wird nach Beendigung der Bildsequenz im ungünstigsten Fall für jeden dieser Pixel das gleiche Codewort und damit auch die gleiche Projektionsrichtung ermittelt. Da unterschiedliche Abbildungsorte dem Modell nach keinen identischen Projektionsursprung haben können, extrahiert man mit Verfahren der computergestützten Bilderkennung und -auswertung dasjenige Pixel heraus, für welche die ermittelte Projektionsrichtung am ehesten zutrifft. Alle angrenzenden Pixel werden nicht weiter berücksichtigt und stellen quasi ein Loch in der berechneten Punktewolke dar. Da der Streifenabstand sich nicht beliebig verkleinern lässt und außerdem an die Auflösungsgrenze der Kamera stoßen würde, sind dem codierten Lichtschnittverfahren demnach technische und physikalische Grenzen gesetzt, die verhindern, dass mehr Punkte ausgewertet werden können. Anders als im zuletzt dargestellten Beispiel unterscheiden moderne Projektoren zwar weit mehr als nur 32 Projektionsrichtungen, jedoch wäre die damit erzielbare Punktdichte für viele Anwendungen nach wie vor nicht ausreichend. Eine Möglichkeit die Genauigkeit von Streifenprojektionssystemen deutlich zu steigern, bietet das im Folgenden vorgestellt Phasen-Schiebe-Verfahren. 3.3.5.3 Phasen-Schiebe-Verfahren Das Phasen-Schiebe-Verfahren (engl.: Phase-Shift) zählt zu den dynamischen Verfahren der Streifenanalyse. Die Technik ermöglicht es auch solche Punkte auszuwerten, die nicht unmittelbar auf einer der projizierten Linien liegen [Armb99]. Ähnlich wie bei der statischen Streifenprojektion wird dabei die Oberfläche des zu messenden Objektes mit einem Streifenmuster in höchster Auflösung strukturiert. Der Unterschied besteht je- OPTISCHE 3D-MESSTECHNIK SEITE 49 doch darin, dass die Linien nicht nur in zwei Graustufen (Abb. 3.16 unten) erzeugt werden, sondern eine sinusförmige Helligkeitsverteilung aufweisen (Abb. 3.16 oben). Das entstehende Streifenmuster kann deshalb auch als Interferogramm einer Phase f mit konstanter Wellenlänge ? aufgefasst werden. 0123456789 ····························· stetiger Phasenwert ································ f =n·2p f =4p f =2p f =0 Intensität I ? n diskrete Streifenordnung Quelle: Verfasser nach [Wolf98] Abbildung 3.16: oben: Referenzphase mit sinusförmige Helligkeitsverteilung und konstanter Wellenlänge ?; unten: Binäres Streifenmuster Die Projektionsrichtung der gedachten Lichtebene, die einen Punkt auf dem Messobjekt beleuchtet, lässt sich dadurch exakt in Form eines stetigen Phasenwertes f angeben und nicht nur sprungweise durch eine diskrete Streifenordnung. Theoretisch lassen sich damit unendlich viele Projektionsrichtungen unterscheiden Wie nachfolgend gezeigt wird, kann die Ermittlung der Phase für jeden einzelnen Pixel der CCD-Kamera durch punktweise Intensitätsmessungen und eine nachfolgende einfache Rechenoperation erfolgen. OPTISCHE 3D-MESSTECHNIK SEITE 50 Die Intensität IM an einem beliebigen Messpunkt M im Interferogramm lässt sich allgemein darstellen in der Form I M = I 0 ⋅ (1 + γ ⋅ cos ϕ M ) mit I0 Gleichlicht- oder Hintergrundintensität γ Streifenmodulation mit 0 < γ < 1 ϕM gesuchte Phase am Messpunkt M (1) Um den gesuchten Phasenwert ϕ M aus der Gleichung mit den drei Unbekannten I 0 , γ und ϕ M berechnen zu können, sind mindestens zwei weitere Gleichungen dieses Typs erforderlich. Man erhält sie, indem das Streifenmuster (Referenzphase) (m-1)-mal, mindestens aber zweimal, um einen konstanten Wert ∆ϕ seitlich verschoben wird. An der Stelle M können dann m unterschiedliche Intensitäten gemessen werden, so dass sich aus Gleichung (1) das folgende Gleichungssystem ergibt [Luhm00]. {I n = I 0 ⋅ (1 + γ ⋅ cos(ϕ M mit + ϕ m )} ϕ m = (n − 1)∆ϕ n = 1...m ∆ϕ = 2π m wobei m ≥ 3 (2) OPTISCHE 3D-MESSTECHNIK SEITE 51 Das folgende Beispiel mit drei Verschiebungen der Referenzphase (4-Phasenshift) soll die Vorgehensweise verdeutlichen. Mit m = 4 folgt π 2 Nach Durchführung der Intensitätsmessung von I1 bis I4 in den jeweils Phasenverschobenen Projektionen, ergibt sich das Gleichungssystem zu ∆ϕ = I 1 = I 0 ⋅ (1 + γ ⋅ cos(ϕ M ) I 2 = I 0 ⋅ (1 + γ ⋅ cos(ϕ M + π ) 2 I 3 = I 0 ⋅ (1 + γ ⋅ cos(ϕ M + π ) 3π I 4 = I 0 ⋅ (1 + γ ⋅ cos(ϕ M + ) 2 Der gesuchte Phasenwert ϕ M berechnet sich daraus zu ϕ M = arctan (I 2 − I 4 ) ( I 3 − I1 ) (3) f1 1 f2 f3 f4 I2 Intensität I I1 0,5 I3 I4 0 0 6,283185307 p/2 7,853975307 ϕM p 9,424765307 Phase 3p/2 10,99555531 2p 12,56634531 Quelle: Verfasser Abbildung 3.17: Prinzip des 4-Phasenshifts OPTISCHE 3D-MESSTECHNIK SEITE 52 Nachteilig an dem vorgestellten Verfahren ist, dass die Phasenwerte keine Absolutwerte in Bezug auf die gesamte Projektionsbreite darstellen, sondern nur modulo 2p berechnet werden können. Für jeden Kamerapixel erhält man somit Relativwerte innerhalb einer Streifenperiode, so dass der Schluss auf die jeweils zugehörige Projektionsrichtung noch nicht möglich ist. Dieses Problem kann gelöst werden, indem die analoge Phasenschiebetechnik mit dem absolut messenden digitalen Graycode-Verfahren kombiniert wird. Die folgende Abbildung verdeutlicht das Zusammenspiel beider Verfahren. Dargestellt ist ein 4-Phasenshift, wobei wegen der besseren Darstellbarkeit statt fünf nur vier Binärmuster projiziert werden und somit nur 16 der zuvor 32 Graycode-Positionen unterscheidbar sind. Graycode 0 1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 Linie 0 1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21 22 23 24 25 26 27 28 29 30 31 Bild 1 2 3 4 Phasenshift 5 6 7 8 Graycode Dekodierung Graycode 15 0 Kameraposition Phase Phasenshift Dekodierung +p +p/2 0 -p/2 -p Quelle: Verfasser nach [Wolf98] Abbildung 3.18: Zusammenwirken von Graycode- und Phasenschiebeverfahren OPTISCHE 3D-MESSTECHNIK SEITE 53 Durch die Ermittlung einer eindeutigen Streifenordnung (Liniennummer) liefert das Graycode-Verfahren genau die Information, die der Phasenschiebetechnik als übergeordneter Maßstab dient. Anders ausgedrückt könnte man sagen, dass man mit der Phasenschiebetechnik nur den Bruchteil der Liniennummer erhält und der ganzzahlige Anteil vorab durch das Graycode-Verfahren bestimmt wird [Küch99]. Dieses Zusammenspiel wird auch an den jeweiligen Ergebnisfunktionen der Dekodierung deutlich (Abbildung 3.18 unten). Für den digitalen Graycode ergibt sich eine Treppenfunktion, welche im dargestellten Beispiel die gesamte Projektionsbreite in 16 unterscheidbare Bereiche unterteilt. Die Phasenshift Dekodierung hingegen liefert eine wertekontinuierliche Sägezahnfunktion, die jeweils nur innerhalb von zwei Graycode-Positionen eindeutig ist, aber dafür eine theoretisch unendlich große Auflösung ermöglicht. In der Realität ist die Messauflösung jedoch durch Eigenschaften der Kamera und der Messobjektoberfläche begrenzt. Sie hängt vielmehr zu einem großen Teil von der Qualität der Sinus-Approximation des analogen Phasenshift Musters durch den Projektor ab [Fran97]. 3.3.5.4 Zweikamerasysteme Die bisherigen Ausführungen zur Funktionsweise des Streifenprojektionsverfahrens bezogen sich auf Systeme mit einer Kamera und einem Projektor. Der eingangs vorgestellte Sensor ATOS III besitzt darüber hinaus jedoch eine zusätzliche Kamera, was sich als Vorteilhaft herausgestellt hat. Das grundlegende Messprinzip ist dabei ähnlich dem bereits beschriebenen codierten Lichtansatz bzw. Phasenshift-Verfahren. Ein wesentlicher Vorzug von Zweikamerasystemen ist darin zu sehen, dass der Projektor nicht zwangsläufig in die Berechnung der 3D-Koordinaten einbezogen werden muss. Die Projektionseinheit dient lediglich dazu, die Oberfläche des Messobjektes zu strukturieren und je nach Codierung binäre und/oder analoge Bildsequenzen zu erzeugen. Die Kameras links und rechts vom Projektor erfassen synchron dazu die wechselnden Streifenmuster, so dass nach der Dekodierung eine Korrespondenz zwischen einzelnen Bildpunkten der Aufnahmesysteme hergestellt werden kann. Über den räumlichen Vorwärtsschnitt lassen sich anschließend die Objektkoordinaten berechnen. Das jeweils dazu aufgespannte Triangulationsdreieck wird nunmehr durch den Objektpunkt sowie die den Punkt abbildenden Pixel in Kamera 1 und Kamera 2 definiert. Die Projektorgeometrie bleibt dabei unberücksichtigt. Abbildung 3.19 auf der nächsten Seite zeigt hierzu den prinzipiellen Messaufbau. OPTISCHE 3D-MESSTECHNIK SEITE 54 Quelle: [Armb99] Abbildung 3.19: Prinzip eines Zweikamera-Streifenprojektionssensors Weitere Vorteile von Zwei- und Mehrkamerasystemen zur Streifenprojektion können in der Fachliteratur, beispielsweise unter [Luhm00], nachgelesen werden. An dieser Stelle noch zu erwähnen ist eine spezielle Besonderheit des ATOS III Sensors, welche die verwendete Technik zur Phasenwertbestimmung aus den Kamerabildern betrifft. Im Unterschied zu den meisten kommerziell erhältlichen Systemen kommt hierzu das rein analoge und absolut messende sog. Heterodynverfahren zum Einsatz. Dieses wird auch als Mehrwellenlängenverfahren bezeichnet und beruht gleichfalls auf einer aktiven Streifenmusterprojektion. 3.4 Messpraxis Abschließend zum Kapitel Optische 3D-Messtechnik sollen an dieser Stelle einige Aspekte bezüglich des praktischen Einsatzes von Streifenprojektionssytemen erläutert werden. Diese sind nicht ausschließlich systembedingt und auf Zweikamerasensoren beschränkt, sondern betreffen darüber hinaus teilweise auch andere optische Messverfahren. Die angesprochenen Themen sind insbesondere für die durchgeführte Potenzialabschätzung von Bedeutung und werden an anderer Stelle dieser Arbeit erneut aufgegriffen. OPTISCHE 3D-MESSTECHNIK 3.4.1 SEITE 55 Abschattungen In Kapitel 3.1.1 wurde bereits angesprochen, dass zur vollständigen Digitalisierung vornehmlich größerer Bauteile mehrere Teilansichten notwendig sind. Zur Erstellung dieser Einzelaufnahmen kann der Sensor um das Bauteil herumbewegt oder alternativ das Bauteil im Sensorgesichtsfeld mehrmals gedreht werden. Wünschenswert ist in jedem Fall ein Messobjekt, das durch eine entsprechende Lagerung global von allen Seiten gut zugänglich ist. Selbst wenn dies gegeben ist, kann es lokal gesehen dennoch Bauteilbereiche geben, die sich nicht digitalisieren lassen. Dazu zählen kleinere Bohrungen, Hohlräumen und enge Vertiefungen, die das Streifenprojektionsverfahren an seine Grenzen bringen können. Bedingt ist dieser Umstand durch den Triangulationswinkel des Sensors und die Tatsache, dass zur Berechnung hochwertiger 3DKoordinaten ein Messpunkt immer im Blickfeld beider Kameras liegen muss. Die Sichtbarkeit eines Bauteilbereichs für das menschliche Auge sagt deshalb noch nichts darüber aus, ob die Stelle auch für den Sensor sichtbar ist. Im Einzelfall liefern Testmessungen des betreffenden Objektes hierzu eine sichere Aussage. Ebenfalls zu berücksichtigen ist, dass beim Digitalisieren der Winkel zwischen Sensor und Messobjektoberfläche nach Möglichkeit nicht kleiner als 45° beträgt. Andernfalls wird von den aufprojizierten Streifen zu wenig Licht in die Kameras reflektiert, so dass mit einer stark verminderten Qualität der Messdaten zu rechnen ist. 3.4.2 Digitalisierung von kleinen Strukturen Um diese Problematik zu verdeutlichen, soll zunächst der Sachzusammenhang zwischen dem Messvolumen, der Messpunktauflösung und dem Messobjekt erläutert werden. Streifenprojektionssensoren besitzen einen dreidimensionalen Messbereich - das Messvolumen - der sich je nach Sensortyp in bestimmten Grenzen verändern lässt. Aus dem Messvolumen resultiert wiederum ein Messpunktabstand, der die kleinste mögliche Entfernung zwischen zwei Messpunkten angibt. Bei einem Sensor mit einer 4 Megapixel Kamera und einem eingestellten Messvolumen von 300×300×300 mm3, beträgt der Messpunktabstand beispielsweise 0,15 mm. Dieser Wert ist nicht mit der Messgenauigkeit5 zu verwechseln, die bei den heutigen Systemen um ein Vielfaches kleiner und in einer Größenordnung von 3 bis 5 µm anzusiedeln ist. Um Oberflächenstrukturen zu erfassen, die unterhalb dieses Punktabstands liegen, ist ein kleineres Messvolumen mit entsprechend höherer Messpunktauflösung (kleinerer Punktabstand) zu wählen. Dadurch steigt zwar die Anzahl der zur Digitalisierung benötigten Einzelaufnahmen, jedoch ist sichergestellt, dass die Messpunktewolke und das daraus erzeugte Polygonnetz 5 Messgenauigkeit: Jede 3D-Koordinate liegt innerhalb einer Kugel vom Radius der Messgenauigkeit OPTISCHE 3D-MESSTECHNIK SEITE 56 die Bauteilgeometrie wirklichkeitsnah abbilden und für die spätere Einpassung der Ersatzelemente genügend Messpunkte vorhanden sind. Details am Messobjekt, die durch zu wenige Punkte erfasst werden, liefern schlichtweg falsche Messergebnisse oder lassen sich erst gar nicht auswerten. Eine Möglichkeit auch solche Strukturen zu erfassen, die kleiner als der Messpunktabstand sind, besteht darin, von der entsprechenden Stelle am Objekt mehrere Aufnahmen aus unterschiedlichen Positionen zu machen. Dadurch dass die Einzelaufnahmen später in ein gemeinsames Koordinatensystem transformiert werden, erhöht sich an allen mehrfach digitalisierten Objektbereichen die Punktdichte, wodurch auch der effektive Punktabstand kleiner wird. 3.4.3 Messen glänzender Oberflächen Eine generelle Herausforderung für die optische Messtechnik stellt die Vermessung glänzender Oberflächen dar. Speziell beim Streifenprojektionsverfahren müssen die Muster mit ausreichendem Kontrast von den Kameras aufgenommen werden. Treten Spiegelungen und Reflexionen auf, so ist mit einer reduzierten Datenqualität und im Extremfall mit überhaupt keinen Daten zu rechnen. Die optimale Oberfläche ist daher hell und matt und reflektiert das vom Projektor einfallende Licht gleichmäßig diffus in alle Richtungen. Materialien, die diese Eigenschaft aufweisen, sind beispielsweise Papier oder Gips. Metallische Werkstoffe hingegen besitzen meistens einen hohen sog. Glanzreflexionsgrad, der für eine gebündelte Reflexion des einfallenden Lichtes in eine Richtung verantwortlich ist und störende Spiegelungen hervorruft [Boec98]. Eine Möglichkeit um derartige Objekte dennoch mit hoher Genauigkeit vermessen zu können, stellt die spezielle Präparation der Oberfläche durch Beschichten dar. Ein hierfür häufig eingesetztes Mittel in der optischen Messtechnik ist Titandioxidpulver, was sich hochfein z. B. mit einer Spraydose aufbringen lässt und die störenden Effekte unterbindet. Eine zweite Möglichkeit zur Vermessung glänzender Objekte kommt ohne eine Beschichtung aus und besteht in der Separation eines Zweikamerasystems in zwei Einzelkamerasysteme6. Problematische Oberflächenbereiche werden dann unter Einbeziehung der Projektorgeometrie jeweils von der Kamera digitalisiert, in die keine störenden Spiegelungen wirken. Liefern beide Kameras gute Daten, erfolgt die Berechnung der 3D-Koordinaten nach dem in Abbildung 3.19 skizzierten Verfahren. In jedem Fall ist zu berücksichtigen, dass Daten, die nur von einer Kamera erfasst werden, ungenauer sind und zudem die Auswertezeit erhöhen. Der bei der MTU geplante Einsatz der optischen 3D-Messtechnik betrifft Triebwerksbauteile, die durchweg mit höchster Präzision gefertigt werden und teilweise extrem geringe Toleranzen im µm-Bereich aufweisen. Bei allen unter Berücksichtigung der 6 Diese Möglichkeit wird für alle Zweikamerasysteme der Firma gom im Benutzerhandbuch des ATOS III Sensors ausführlich beschrieben LITERATURVERZEICHNIS SEITE 96 Literaturverzeichnis [Armb99] Armbruster, Karl: „Handgeführter 3D-Sensor zur Digitalisierung von Körperoberflächen“; Fachtagung Optische Formerfassung, Stuttgart, DGZfP, 5.-6.10.1999 [Baum02] Baumgartner, Franz.: „Lasertriangulationssensor“; in: NTB Sensordatenbank, unter: http://www.ntb.ch/Pubs/sensordemo/pdf/NTB_24_LTS.pdf vom 18.08.2005, 2002 [BBBC+03] Berndt, Dirk et al.: „Leitfaden zu Grundlagen und Anwendung der optischen 3-DMesstechnik“; Erlangen, Fraunhofer-Allianz Vision, 2003, ISBN 3-8167-6297-2 [Boeck98] Boecker, Ralf: „Problematik glänzender Oberflächen bei der 3D-Topometrie“; 5. ABW-Workshop Optische 3D-Formerfassung, Technische Akademie Esslingen, 20.-21.1.1998 [Breu93] Breuckmann, Bernd: „Bildverarbeitung und optische Messtechnik in der industriellen Praxis“; München: Franzis Verlag, 1993 [ChNe03] Christoph, Ralf / Neumann, Hans Joachim: “Multisensor-Koordiatenmesstechnik”; Landsberg/Lech: Verlag Moderne Industrie, 2003 [DKD98] N. N.: „Angabe der Messunsicherheit bei Kalibrierungen“; Braunschweig: Deutscher Kalibrierdienst (DKD), 2002; unter: http://www.dkd.info/de/dkd_schriften/dkd_3/dkd_3.pdf vom 10.11.2005 [Duwe02] Duwe, Hans-Peter: „Wertschöpfendes Messen - Die Vorteile von Punktewolken für die Messtechnik“; 7. ABW-Workshop 3D-Bildverarbeitung, Technische Akademie Esslingen, 5.-6.2.2002 [Effe02] Effenkammer, Dirk: „Entwicklung einer durchgängigen und CAD-basierten Prozesskette für die Qualitätsprüfung mit Koordinatenmesstechnik“; Berichte aus der Produktionstechnik, Band 6/2002, Hsg.: Eversheim, W. / Klocke, F. / Pfeifer, T. / Weck, M.; Aachen, Shaker Verlag, 2002 [Fran05] Frankowski, Gottfried: „Profi-Messtechnik für die Fertigung“; unter: http://www.gfmesstechnik.com/german/mainmenu/index01_papers.html vom 10.08.2005 [FrCH99] Frankowski, Gottfried / Chen, Mai / Huth, Torsten: „Optische 3D-Meßtechnik mit digitaler Streifenprojektion“; unter: http://www.gfmesstechnik.com/german/mainmenu/index01_papers.html vom 16.08.2005, 1999 [GäLT95] Gärtner, H / Lehle, Peter / Tiziani, H. J.: „Dynamische On-Line 3-DKonturerfassung“; in: „3D-Objektvermessung auf kleinere Entfernungen“; Düsseldorf: VDI Technologiezentrum Physikalische Technologien, 1995 [GrGö96] Greßler, U. / Göppel, R.: „Qualitätsmanagement – Eine Einführung“; Köln: Stam Verlag, 1996 [Hau98] Hau, Thomas: „Orientierung und Kalibrierung eines Rangesensors unter Nutzung geometrischer Objektinformationen“; in Tagungsband: 15. Nutzerseminar des Deutschen Fernerkundungsdatenzentrums der DLR, Köln: Deutsches Zentrum für Luftund Raumfahrt e. V., 1998 LITERATURVERZEICHNIS SEITE 97 [Hüse95] Hüser, Dorothee: „Entwicklung von Methoden zur Bestimmung der Messunsicherheit von Triangulationssensoren in der Koordinatenmesstechnik“; Dissertation, veröffentlicht in: PTB-Berichte der Physikalisch-Technischen Bundesanstalt PTB-F-22, 1995, S. 21 [Lehl98] Lehle, Peter: „Dynamische und Strukturierte Beleuchtung für die optische Messtechnik“; Berichte aus dem Institut für Technische Optik der Universität Stuttgart, 1998, ISBN 3-923560-34-6 [Luhm00] Luhmann, Thomas: „Nahbereichsphotogrammetrie“; Heidelberg: Herbert Wichmann Verlag, 2000 [Meye01] Meyer, Stefan: „Merkmalorientierte Prüfumfangsregelung auf Koordinatenmessgeräten“; Berichte aus der Produktionstechnik, Band 2/2002, Aachen: Shaker Verlag, 2001 [Moli88] Molitor, Martin: „Berührungslose optoelektronische Messautomaten für die Geometrieerfassung an Werkstücken“; Düsseldorf: VDI-Verlag, 1988, ISBN 3-18147308-1, S. 30 [Neum00] Neumann, Hans Joachim: „Koordinatenmesstechnik im industriellen Einsatz: Zehn Jahre Innovation“; Landsberg/Lech: Verlag Moderne Industrie, 2000 [Neum04] Neumann, Hans Joachim: „Präzisionsmesstechnik in der Fertigung mit Koordinatenmessgeräten“; Renningen: expert Verlag, 2004, ISBN 3-8169-2211-2 [NN04a] N. N.: „Wie Triebwerke funktionieren“; in: MTU-Intranet, München, 2004 [NN04b] N. N.: „Laser-Lichtschnitt eine – Eine Schlüsselfunktion in der 3Lasermesstechnik“; unter: http://www.sukhamburg.de vom 19.08.2005, außerdem erschienen in: Quality Engineering, Ausgabe 6/2004, S. 46 [NN05a] N. N.: „Präzisionsmesstechnik mit Koordinatenmessgeräten“; unter: www.qeonline.de/qe/live/fachartikelarchiv/ha_news/detail/10016520.html vom 24.10.2005; außerdem erschienen in: Quality Engineering, 9/2002, S. 32 [NN05b] N. N.: „Messunsicherheit“: unter: http://de.wikipedia.org/wiki/Messunsicherheit vom 11.11.2005 [NN05c] N. N.: „Koordinatenmesstechnik“; unter: http://www.fhbochum.de/fb4/institute/ifq/Koordinanatenmesstechnik.htm vom 01.11.2005 [NN05d] N. N.: „Theodolit“: unter: http://de.wikipedia.org/wiki/Theodolit vom 01.8.2005 [NN05e] N. N.: „ATOS v 5.4 Benutzerinformation. Gesellschaft für optische Messtechnik – gom“; Braunschweig, 2005 [Pfei93] Pfeifer, Tilo: „Optoelektronische Verfahren zur Messung geometrischer Größen in der Fertigung“; Ehningen bei Böblingen: expert Verlag, 1993, S. 66f [Sowa95] Sowa, P.: „Lichtpunkt-Triangulation, in Handbuch OF1 – Verfahren für die optische Formerfassung“; Deutsche Gesellschaft für zerstörungsfreie Prüfung e. V. (Hrsg.), 1995, ISBN 3-931381-06-4 [Stef03] Steffens, Klaus: „Grenzen überwinden – Wachstum der neuen Art“; München: Herbert Utz Verlag GmbH, 2003 [TBGW99] Thesing, J / Bergmann, D. / Galanulis, K / Winter, D.: „Qualitätssicherung und 3DDigitalisierung mit Photogrammetrie und Streifenprojektion“; [Weck01] Weckenmann, Albert: „Wo steht die Koordinatenmesstechnik heute?“; in: Koordinatenmesstechnik: Genauigkeit – Erfahrungen – Innovationen, 2001 LITERATURVERZEICHNIS SEITE 98 [Wior01] Wiora, Georg: „Optische 3D-Messtechnik: Präzise Gestaltvermessung mit einem erweiterten Streifenprojektionsverfahren“; unter: http://www.ub.uniheidelberg.de/archiv/1808 vom 02.07.2005, Heidelberg, 2001 [WLOW+01] Weckenmann, Albert et al.: „Koordinatenmesstechnik: Genauigkeit – Erfahrungen – Innovationen“; Tagung Erlangen, 9./10. Oktober 2001 / VDI/VDE-Gesellschaft Mess- und Automatisierungstechnik; Düsseldorf: VDI-Verlag, 2001 [Wolf97] Wolf, Henning G. E.: “Getting 3D-Shape by Coded Light Approach in Combination with Phaseshifting”; Numerisation 3D / Human Modelling, Salon et Congress sur la Numerisation 3D, Paris, 28.-29.5.1997 [Wolf98] Wolf, Kai: „Vergleich verschiedener Variationen der Streifenprojektion“; 5. ABWWorkshop Optische 3D-Formerfassung, Technische Akademie Esslingen, 20.21.1.1998 [Wolf99] Wolf, Henning G. E.: „Systematische Zusammenstellung der Projektionstechniken zur strukturierten Beleuchtung“; 6. ABW-Workshop 3D-Bildverarbeitung, Technische Akademie Esslingen, 25.-26.1.1999