Meshing Techniques for Image / Video Compression and Surface Reconstruction

Netzgenerierungstechniken zur Bild- / Videokompression und Flächenrekonstruktion

  • Today’s high-resolution digital images and videos require large amounts of storage space and transmission bandwidth. To cope with this, compression methods are necessary that reduce the required space while at the same time minimize visual artifacts. We propose a compression method based on a piecewise linear color interpolation induced by a triangulation of the image domain. We present methods to speed up significantly the optimization process for finding the triangulation. Furthermore, we extend the method to digital videos. Laser scanners to capture the surface of three-dimensional objects are widely used in industry nowadays, e.g., for reverse engineering or quality measurement. Hand-held scanning devices have the advantage that the laser device can be moved to any position, permitting a scan of complex objects. But operating a hand-held laser scanner is challenging. The operator has to keep track of the scanned regions in his mind, and has no feedback of the sample density unless he starts the surface reconstruction after finishing the scan. We present a system to support the operator by computing and rendering high-quality surface meshes of the captured data online, i.e., while he is still scanning, and in real time. Furthermore, it color-codes the rendered surface to reflect the surface quality. Thereby, instant feedback is provided, resulting in better scans in less time.
  • Die inzwischen gängigen hochauflösenden Digitalbilder und digitalen Videos benötigen viel Speicherplatz und Übertragungsbandbreite. Kompressionsverfahren, die den nötigen Speicherplatz reduzieren, gleichzeitig aber nur minimale oder gar keine störenden Artefakte hervorrufen, können das Problem entschärfen. Wir stellen ein Kompressionsverfahren vor, das auf stückweise linearer Farbinterpolation basiert, die durch eine Triangulierung der Bildfläche definiert wird. Wir präsentieren Methoden um den langwierigen Optimierungsvorgang zur Bestimmung der Triangulierung deutlich zu beschleunigen. Schließlich erweitern wir den Ansatz auch auf digitale Videos. Laserscanner, die die Geometrie eines dreidimensionalen Objekts erfassen können, werden in der Industrie inzwischen für viele Anwendungsgebiete eingesetzt, zum Beispiel für die Flächenrückführung oder Qualitätsmessungen. Handgeführte Scanner haben den Vorteil, dass man mit ihnen auch komplexe Objekte scannen kann, da man den Scankopf in jede beliebige Position bringen kann. Die Bedienung ist allerdings mit der Schwierigkeit verbunden, dass der Benutzer sich die bereits abgetasteten Bereiche merken muss, und während des Scannens keine Rückmeldung darüber bekommt, ob die Abtastdichte der aufgenommenen Daten ausreichend ist. Wir haben zur Unterstützung des Benutzers ein Tool erstellt, das schon während des Scanvorgangs die aufgenommenen Daten in eine hochwertige Flächenrepresentation umsetzt und diese anzeigt. Zur weiteren Unterstützung werden auf der angezeigten Fläche die Bereiche mit schlechter Datendichte farblich hervorgehoben. So erhält der Benutzer direkte Rückmeldung über den laufenden Scan-Vorgang, und kann so bessere Ergebnisse in kürzerer Zeit erzielen.

Export metadata

  • Export Bibtex
  • Export RIS

Additional Services

Share in Twitter Search Google Scholar
Metadaten
Author:Burkhard Lehner
URN (permanent link):urn:nbn:de:hbz:386-kluedo-23595
Advisor:Georg Umlauf
Document Type:Doctoral Thesis
Language of publication:English
Year of Completion:2008
Year of Publication:2008
Publishing Institute:Technische Universität Kaiserslautern
Granting Institute:Technische Universität Kaiserslautern
Acceptance Date of the Thesis:2008/07/09
GND-Keyword:Dreidimensionale Rekonstruktion ; Kompression ; Unstrukturiertes Gitter
Faculties / Organisational entities:Fachbereich Informatik
CCS-Classification (computer science):E.4 CODING AND INFORMATION THEORY (H.1.1)
G.1.2 Approximation
G.1.6 Optimization
DDC-Cassification:004 Datenverarbeitung; Informatik

$Rev: 12793 $