Mobile Vermessung

Transcrição

Mobile Vermessung
HARDWARE & TECHNOLOGIE
Bei der Aspen Movie Map des MIT handelt es sich um einen Vorläufer von Google Maps aus dem Jahr 1978 (Quelle: MIT Architecture Maschine Group)
Mobile Vermessung
Im Bereich der Vermessung hat sich in den letzten Jahren einiges getan. Ein Novum
dabei ist die Verschmelzung von GIS und Vermessung hinsichtlich Auskunftssystem,
Bearbeitung und Datenvisualisierung. Stichwort: Mobile Mapping. Ein Blick über die
Entwicklungen zu dieser Technologie.
Text: Ute Weigand
D
ie Verkehrs- und Energieinfrastruktur ist mittlerweile von so
gewaltiger volkswirtschaftlicher
Bedeutung, dass sich deren Pflege, Bewirtschaftung und Bestandsaufnahme zu einem zentralen Thema entwickelt hat.
Hierbei spielt die Vermessung eine große
Rolle. Konventionelle Methoden, die nur
mittels GNSS oder Tachymetrie arbeiten,
sind dafür oft zu aufwendig oder zu langwierig. Damit hat die Notwendigkeit einer
schnellen und genauen Erfassung von
Geodaten entlang von Straßen, Schienen
sowie Überlandleitungen zur Entwicklung
von mobilen Vermessungssystemen geführt. Die moderne Technologie − mit
2
gis.Business 5-6/2014
Einbindung von GNSS-Empfängern − ermöglicht die Kombination hochgenauer
Vermessungsarbeit mit mobilen Geoinformationssystemen, um die Ergebnisse in
Echtzeit darzustellen und bearbeiten zu
können.
Rückblick
Erste experimentelle mobile Bildaufnahmen im Straßenraum für Navigationsund Vermessungszwecke wurden erstmals
vor über drei Jahrzehnten durchgeführt:
Die 1978 von der MIT Architecture Machine Group entwickelte „Aspen Movie
Map“ ermöglichte es dem Anwender,
durch die Straßen von Aspen, Colorado,
G40541 H&T Vermessung Cmw
zu navigieren(1). In dem interaktiven Projekt wurde der Eindruck visueller Nahtlosigkeit mittels Input aus aufgenommenen
Videodiscs erreicht. Mit den „Moviemaps“
war es nicht nur möglich, sich wie bei Panoramen rundum umzusehen, sondern es
erlaubte auch, „unterwegs zu sein“ und
sich auf eine Reise über vorher aufgenommene Strecken mit einer gewissen Steuerung der Geschwindigkeit und Richtung
zu machen.
Mit dem Aufkommen von Virtual-Reality-Systemen erfuhren die Ende der
1990er-Jahre populären Panoramen-Ansichten erneutes Interesse. Das machte sich
nicht nur im Kunst- und Gamingsektor
oder bei Militärtrainings, sondern auch in
Architektur und dem Vermessungswesen
bemerkbar.
Rund 20 Jahre zurück liegt die Entwicklung erster stereobildbasierter MobileMapping-Prototypsysteme.
3D-Laserscanner für den geodätischen
Bereich wurden allerdings erst Anfang des
21. Jahrhunderts konstruiert. Davor gab es
kaum technologische Neuerungen. Die
Voraussetzung zur Entwicklung von LaserEntfernungsmessern wurde in den 1960erJahren mit LiDAR (Light Detection and
Ranging) geschaffen. Und obwohl LiDAR
bereits in den 1980er-Jahren im Flugzeug
oder Helikopter zur Erfassung von Höhenprofilen und seit den 1990er-Jahren
zum flächendeckenden Scannen von
Oberflächenmodellen eingesetzt wurde,
dauerte es weitere zehn Jahre, bis ab 2005
das erste kommerzielle System zum Mobile
Mapping zur Verfügung stand.
So mancher Vermessungsingenieur hatte es sich schon in einer Ingenieursgesellschaft bequem eingerichtet, mit der bis
dato üblichen Technik. Wie etwa Gerd
Meixner und Bernd Zimmermann aus
Amtzell im Allgäu. Das änderte sich
schlagartig, als sie im März 2007 auf dem
3D-Forum Lindau einer Präsentation von
Leica Geosystems lauschten. Das Unternehmen stellte erstmals einen 3D-Laserscanner vor. Meixner war sofort fasziniert,
schnell war klar: „Das ist die Zukunft der
Vermessung.“ Der Ingenieur und sein
Kompagnon investierten und hatten ein
Problem: Nun waren sie eines der ersten
Vermessungsbüros europaweit mit einem
3D-Laserscanner, aber keiner konnte das
Gerät richtig bedienen. So holten sie den
3D-Spezialisten Benjamin Sattes mit an
Bord, der mit dem Scanner umgehen
konnte, und gründeten die Z&M 3D Welt
GmbH. Allerdings gab es noch gar keinen
richtigen Markt für eine solche Dienstleistung. Doch auch das änderte sich: „Wir
waren in ganz Europa unterwegs, um zu
zeigen, was in der 3D-Laservermessung
steckt“, erzählt Sattes. „Damit haben wir
ein richtiges Erdbeben ausgelöst.“ Inzwischen dominiert Laserscanning die mobile
Messtechnik.
Die Positionierung und Orientierung
der eingesetzten Messsensorik erfolgt
durch die Integration von GNSS und
IMU (Inertial Measurement Unit), indem
durch Post-Processing eine hochpräzise
Festlegung der Bewegungstrajektorie möglich ist. Abhängig von der GNNS-Konfiguration können damit Punktgenauigkeiten von mehr als 3 cm erzielt werden.
3D-Laserscanning
Laserscanning ermöglicht direkte und tageslichtunabhängige 3D-Punktbestimmungen. Diese automatische Entfernungsmessung erfolgt entweder mit gepulsten oder kontinuierlich strahlenden
Laserlichtquellen. Neuerdings kombiniert
man beide und kommt damit auf Datenraten von 1 Mio. Messpunkte pro Sekunde. Diese hohen Punktdichten haben zu
einem Paradigmenwechsel bei der geodätischen Punktbestimmung geführt – vom
Punkt zur Punktwolke. Die Datenerfassung ist damit einfach, schnell und effizient geworden. Bei optimaler Co-Registrierung mitgeführter Bildsensorik können
sehr dichte und detailgetreue Punktwolken erzeugt werden, die oft als eigenständige 3D-Modelle, z. B. im urbanen Bereich, dienen.
Bei ungenauer Co-Registrierung der
3D-Punkte mit den Bilddaten zeigt sich
aber auch die Schwäche des Laserscan-
Die neuen Imaging Stations sind mittlerweile extrem leistungsfähig geworden
nings: Die Punktwolken werden ungenau.
Darüber hinaus bereiten die Interpretation
von 3D-Punktwolken und die Navigation
und Messung im 3D-Raum manchmal
Schwierigkeiten. Wer keinen expliziten
GIS-Hintergrund hat, zieht oftmals einfach zu handhabende und interpretierende
Bilddaten den Punktwolken vor.
Bildbasierte Systeme
Die jüngste Entwicklung bei den MobileMapping-Systemen nutzt ausschließlich
Kamerasysteme an Bord (siehe Bild 1).
Diese bildbasierten Technologien und
Dienste sind gerade für die Erfassung und
das Management von Infrastrukturdaten
im Straßen- und Schienenbereich interessant. An Bedeutung gewonnen haben so in
letzter Zeit vor allem stereobildbasierte
mobile Erfassungssysteme und darauf aufbauende bildbasierte 3D-Geoinformationsdienste. Gründe hierfür sind die Digitalisierung der gesamten Bilddaten-Prozesskette und die enormen Fortschritte in
Bereichen wie Bildsensorik, Speicherkapazitäten, Dense Stereo, Multi-Image-Matching-Algorithmen sowie High-Performance und Cloud-Computing. Präzise
Stereobilddaten können in eine streamingfähige 3D-Bilddatenbasis überführt werden, die in der Cloud gehostet wird und
– basierend auf HTML5 und WebGL –
vollständig webbasiert genutzt werden
kann.
Gerade Anbieter im Consumermarkt
zeigen daran großes Interesse. 3D-Geodienste in der Cloud ermöglichen die einfache Nutzung großer Geodatenmengen
durch eine breite Anwenderbasis. Aktuell
dominiert Google als Taktgeber, daneben
als Hauptkonkurrent Nokia sowie Microsoft, dessen Geodatendienst „Bing
Streetside“ mit Nokias 2008 gekauftem
US-Geodatenanbieter Navteq zusammenarbeitet. Multi-Image-Matching beispielsweise wird seit 2013 in Google Maps und
Google Earth genutzt (siehe Bild 2). Ein
detailliertes DOM (Digitales Oberflächenmodell) ersetzt hier explizite 3D-Gebäudemodelle.
Neben den klassischen Dienstleistern in
der Navigationsbranche wie TomTom von
Tele Atlas sieht man daher auch die Fahrzeuge von Google mit Kameras bestückt
auf der Straße, die vor allem Bilder für
Google Streetview aufnehmen.
(Quelle: Topcon Positioning Group)
G40541 H&T Vermessung Cmw
gis.Business 5-6/2014
3
HARDWARE & TECHNOLOGIE
Google Street View setzt zur Datenerfassung Multi-Image-Matching ein (Quelle: Kinja)
Aktuelle Entwicklungen
und Ausblick
In der mobilen Vermessung wurde 3DLaserscanning in den letzten Jahren vermehrt in Kombination mit Bildsensorik
eingesetzt. Diese als „Hybride MobileMapping-Systeme“ gekennzeichneten
Konfigurationen haben gleichzeitig Laserscanner und Kamerasysteme an Bord. Da
die Laserscanner und die Kameras jeweils
Punktwolken liefern, müssen diese fusioniert werden. Dazu werden gemeinsame
Merkmale gesucht, die man an Kanten,
Ecken oder Sprüngen im Objektraum findet. Die Fusion kann im 3D-Objektraum,
im 3D-2D-Objektraum und im 2D-Objektraum stattfinden. Beim 3D-Objektraum beispielsweise sind die beiden Punktwolken durch eine räumliche Ähnlichkeitstransformation von mindestens sieben
Parametern aufeinander zu transformieren. Dies erfolgt meist im Rahmen einer
Ausgleichung bzw. Parameterschätzung,
da es viele Überbestimmungen gibt.
Generell geht der Trend zu integrierten
Systemen, nach dem Motto „plug-anddrive“. Darunter fallen Multikamerasysteme, LiDAR mit Bildsensoren oder vollausgestattete Plattformen.
Daneben sind die Mobile-MappingSysteme auf LiDAR-Basis weiterentwickelt worden: Die Scanraten haben sich
erhöht und die Systeme wurden kleiner.
Weltweit gibt es hierfür etwas mehr als
4
gis.Business 5-6/2014
zehn Systemanbieter, die sich allerdings
nach wie vor in einem schwierigen Markt
befinden. Die resultierenden Punktwolken
produzieren nämlich ein großes Datenvolumen – Volumina im Giga- und Terrabyte-Bereich sind keine Ausnahmen. Oft
werden Punktwolken manuell genutzt, um
daraus Messungen verschiedener Art, wie
beispielsweise Straßenbreiten, Positionen
von Ampeln oder Lichtraumprofile für
Schwertransporte, abzuleiten.
Es mangelt jedoch noch an leistungsfähigen Softwarepaketen, welche die Geometrien entweder halb- oder vollautomatisch liefern – hier gibt es Nachholbedarf.
Nur eine Handvoll Hersteller bietet solche
Software an. Zu nennen sind beispielsweise CARD/1(2) oder der Trimble Trident
Analyst(3), der in verschiedenen Ausführungen erhältlich ist. Oder komplette
Mobile-Mapping-Systeme wie der
Pegasus:Two(4) von Leica Geosystems, der
von der Hardware bis zur halb automatischen Datenextraktion alle Elemente zur
mobilen Vermessung beinhaltet. Solange
es zur Auswertung aber nur wenige bis defizitäre Angebote gibt, wird es für diese
Systeme nur eine geringe Nachfrage geben. Durch die Bereitstellung der dichten
Bildzuordnung (Semi-Global-Matching),
bei dem für jedes Pixel, welches ein und
denselben Punkt in mehreren Bildern abbildet, ebenso Punkte einer Punktwolke
im Objektraum berechnet werden kön-
G40541 H&T Vermessung Cmw
nen, ergeben sich neue Systemkonfigurationen. Die großen Punktwolken mit den
hohen Datenvolumina schrecken noch
manchen Anwender ab, sich ein solches
System zu beschaffen oder einen Dienstleister mit der Datenerfassung zu beauftragen. Eine leistungsfähige Software mit
halb- oder vollautomatischer Auswertung
könnte diese Hürde verkleinern.
Im vermessungstechnischen Alltag steht
Mobile Mapping also noch am Anfang.
In der Automobilbranche dagegen wird
der Einsatz bildbasierter Mobile-Mapping-Systeme schon seit etwa 20 Jahren
vorangetrieben. Schwerpunkte sind Fahrerassistenzsysteme und die Schaffung einer Basis für das autonome Fahren von
Kraftfahrzeugen ab 2020. Die neuen Generationen von S-, E- und C-Klasse von
Mercedes beispielsweise haben bereits ein
optionales Stereokamerasystem hinter
dem Rückspiegel integriert. Dieses erfasst
mit rund 30 Bildern pro Sekunde permanent das Blickfeld des Fahrers, wertet die
Punktwolken in Echtzeit aus und bietet
dem Fahrer bei Gefahr eine Notbremsung
an(5). Hier ist Mobile Mapping bereits im
Alltag angekommen.
Fazit
Mit der mobilen Vermessung können dringende Aufgaben gelöst werden. Die Technologie bietet vielfältige Anwendungsmöglichkeiten, gerade im Infrastruktursektor.
Allerdings liegt vor allem im Softwarebereich noch viel Potenzial verborgen, welches die Hürde zur alltäglichen Anwendung verkleinern könnte. Zusammenfassend für die vielen Entwicklungen passt
vielleicht die Aussage von Professor Dieter
Fritsch vom Institut für Photogrammetrie
der Universität Stuttgart: „Mobile Mapping hat gerade erst begonnen.“
Quellen:
(1)
Lippmann, A. (1980): Movie-maps: An application of the optical videodisc to computer graphics.
(2)
www.card-1.com
(3)
www.trimble.com
(4)
www.leica-geosystems.com
(5)
Franke, U.; Gehrig, S. (2013): How Cars
Learned to See. In: Fritsch, D. (Ed.): Photogrammetric Week ’13, Wichmann Verlag,
Berlin/Offenbach.