TY - THES A1 - Montag, Martin J. T1 - Convex Analysis for Processing Hyperspectral Images and Data from Hadamard Spaces N2 - This thesis brings together convex analysis and hyperspectral image processing. Convex analysis is the study of convex functions and their properties. Convex functions are important because they admit minimization by efficient algorithms and the solution of many optimization problems can be formulated as minimization of a convex objective function, extending much beyond the classical image restoration problems of denoising, deblurring and inpainting. $$\hspace{1mm}$$ At the heart of convex analysis is the duality mapping induced within the class of convex functions by the Fenchel transform. In the last decades efficient optimization algorithms have been developed based on the Fenchel transform and the concept of infimal convolution. $$\hspace{1mm}$$ The infimal convolution is of similar importance in convex analysis as the convolution in classical analysis. In particular, the infimal convolution with scaled parabolas gives rise to the one parameter family of Moreau-Yosida envelopes, which approximate a given function from below while preserving its minimum value and minimizers. The closely related proximal mapping replaces the gradient step in a recently developed class of efficient first-order iterative minimization algorithms for non-differentiable functions. For a finite convex function, the proximal mapping coincides with a gradient step of its Moreau-Yosida envelope. Efficient algorithms are needed in hyperspectral image processing, where several hundred intensity values measured in each spatial point give rise to large data volumes. $$\hspace{1mm}$$ In the $$\textbf{first part}$$ of this thesis, we are concerned with models and algorithms for hyperspectral unmixing. As part of this thesis a hyperspectral imaging system was taken into operation at the Fraunhofer ITWM Kaiserslautern to evaluate the developed algorithms on real data. Motivated by missing-pixel defects common in current hyperspectral imaging systems, we propose a total variation regularized unmixing model for incomplete and noisy data for the case when pure spectra are given. We minimize the proposed model by a primal-dual algorithm based on the proximum mapping and the Fenchel transform. To solve the unmixing problem when only a library of pure spectra is provided, we study a modification which includes a sparsity regularizer into model. $$\hspace{1mm}$$ We end the first part with the convergence analysis for a multiplicative algorithm derived by optimization transfer. The proposed algorithm extends well-known multiplicative update rules for minimizing the Kullback-Leibler divergence, to solve a hyperspectral unmixing model in the case when no prior knowledge of pure spectra is given. $$\hspace{1mm}$$ In the $$\textbf{second part}$$ of this thesis, we study the properties of Moreau-Yosida envelopes, first for functions defined on Hadamard manifolds, which are (possibly) infinite-dimensional Riemannian manifolds with negative curvature, and then for functions defined on Hadamard spaces. $$\hspace{1mm}$$ In particular we extend to infinite-dimensional Riemannian manifolds an expression for the gradient of the Moreau-Yosida envelope in terms of the proximal mapping. With the help of this expression we show that a sequence of functions converges to a given limit function in the sense of Mosco if the corresponding Moreau-Yosida envelopes converge pointwise at all scales. $$\hspace{1mm}$$ Finally we extend this result to the more general setting of Hadamard spaces. As the reverse implication is already known, this unites two definitions of Mosco convergence on Hadamard spaces, which have both been used in the literature, and whose equivalence has not yet been known. N2 - Diese Arbeit vereint konvexe Analysis und hyperspektrale Bildverarbeitung. Konvexe Analysis untersucht die Eigenschaften konvexer Funktionen. Konvexe Funktionen besitzen zentrale Bedeutung in der Optimierung: Unter praktischen Gesichtspunkten lassen sie sich effizient minimieren und beschreiben gleichzeitig eine Vielzahl realer Problemstellungen, weit über die klassischen Bildverarbeitungsaufgaben des Entrauschens, Schärfens und Wiederherstellens hinaus. $$\hspace{1mm}$$ In gleichem Maße wie die Regularisierungstheorie partieller Differentialgleichungen aus dem Studium des Spezialfalles elliptischer Gleichungen hervorgegangen ist, so entwickeln sich eine Vielzahl von Minimierungsmethoden für nicht-konvexe Probleme ausgehend von den Methoden der konvexen Analysis. $$\hspace{1mm}$$ Im Mittelpunkt der konvexen Analysis steht die Dualität, welche durch die Fenchel-Konjugation auf den konvexen Funktionen induziert wird. Aufbauend auf der Dualitätsabbildung und der infimalen Faltung mit quadratischen Funktionen, ist in den letzten Jahren die Klasse der proximalen Algorithmen entstanden. Proximale Algorithmen erlauben die effektive iterative Minimierung nicht-differenzierbarer Funktionen, die in der Bildverarbeitung durch räumliche TV-Regularisierung entstehen. $$\hspace{1mm}$$ Die infimale Faltung mit skalierten quadratischen Funktionen erzeugt die einparametrische Familie der Moreau-Yosida-Regularisierungen, welche eine gegebene Funktion von unten approximieren und dabei Minimum und Minimierer beibehalten. Für reellwertige Funktionen stimmt die Proximumsabbildung mit dem Gradientenschritt auf der Moreau-Yosida-Regularisierung überein. $$\hspace{1mm}$$ Effiziente Algorithmen sind in der hyperspektralen Bildverarbeitung unabdingbar, da mehrere hundert spektrale Intensitätswerte in jedem Bildpunkt zu großen Datenmengen führen. $$\hspace{1mm}$$ Im $$\textbf{ersten Teil}$$ dieser Arbeit ist es unser Anliegen, effiziente Algorithmen für hyperspektrale Entmischung zu entwickeln. Um diese auf realen Messungen zu testen, wurde im Rahmen dieser Arbeit eine hyperspektrale Nahinfrarotkamera am Fraunhofer ITWM in Betrieb genommen. Motiviert durch fehlende Pixel in gängigen Kamerasensoren präsentieren wir ein Entmischungsmodel für unvollständige und verrauschte Daten, wenn die Reinmaterialspektren bekannt sind. Wir minimieren dieses Modell mit einem primal-dualen Algorithmus, welcher als Teilschritt die Proximumsabbildung verwendet. $$\hspace{1mm}$$ Um das Entmischungsproblem zu lösen, wenn die Reinmaterialspektren nicht direkt bekannt, sondern zwischen weiteren Spektren einer Spektrendatenbank versteckt sind, untersuchen wir eine Abwandlung des Modells durch einen additiven Sparsity-Term. $$\hspace{1mm}$$ Wir beenden den ersten Teil mit der Konvergenzanalyse für einen alternierenden multiplikativen Algorithmus. Dieser erweitert bekannte multiplikative iterative Verfahren zur Minimierung der Kullback-Leibler-Distanz, um das Entmischungsproblem ohne Vorabinformationen über die vorkommenden Spektren zu lösen. $$\hspace{1mm}$$ Im $$\textbf{zweiten Teil}$$ dieser Arbeit untersuchen wir die Eigenschaften von Moreau-Yosida-Regularisierungen, zuerst für Funktionen, die auf Hadamard-Mannigfaltigkeiten definiert sind, d.h. möglicherweise unendlichdimensionalen Riemannschen Mannigfaltigkeiten mit negativer Krümmung, und anschließend für Funktionen, die auf Hadamard-Räumen definiert sind. $$\hspace{1mm}$$ Insbesondere erweitern wir den klassischen Ausdruck für den Gradienten der Moreau-Yosida-Regularisierung, in Abhängigkeit von der Proximumsabbildung, auf Hadamard-Mannigfaltigkeiten. Mithilfe dieses Ausdruckes zeigen wir, dass eine Folge von Funktionen genau dann im Sinne von Mosco gegen eine Grenzfunktion konvergiert, wenn die zugehörigen Moreau-Yosida-Regularisierungen aller Skalen punktweise konvergieren. $$\hspace{1mm}$$ Dieses Resultat erweitern wir schließlich auf allgemeine Hadamard-Räume. Da die umgekehrte Implikation bereit bekannt ist, vereint dies zwei Definitionen der Mosco-Konvergenz auf Hadamard-Räumen, welche beide in der Literatur verwendet werden, ohne dass ihre Äquivalenz bislang bekannt war. KW - Mehrdimensionale Bildverarbeitung KW - Bildsegmentierung KW - Hyperspektraler Sensor KW - Multispektralfotografie KW - Reflexionsspektroskopie KW - Infrarotspektroskopie KW - Multispektralaufnahme KW - Variationsrechnung KW - Nichtkonvexes Variationsproblem KW - Mehrdimensionales Variationsproblem KW - Nichtlineare Optimierung KW - Nichtglatte Optimierung KW - Ableitungsfreie Optimierung KW - Prox-Regularisierung KW - Tichonov-Regularisierung KW - Konjugierte Dualität KW - Matrizenzerlegung KW - Matrizenfaktorisierung KW - Nichtkonvexe Optimierung KW - Sequenzieller Algorithmus KW - Effizienter Algorithmus KW - Konvergenz KW - Multivariates Verfahren KW - Multivariate Analyse KW - Nichtpositive Krümmung KW - Hadamard-Raum KW - Hadamard-Mannigfaltigkeit KW - Gamma-Konvergenz KW - Schwache Konvergenz KW - Beschränkte Krümmung KW - variational model KW - hyperspectal unmixing KW - proximation KW - primal-dual algorithm KW - total variation spatial regularization KW - sparsity KW - nonnegative matrix factorization KW - surrogate algorithm KW - nonconvex optimization KW - alternating minimization KW - Kullback-Leibler divergence KW - infinite-dimensional manifold KW - curvature KW - Hadamard manifold KW - Hadamard space KW - Mosco convergence KW - Moreau-Yosida regularization Y1 - 2017 UR - https://kluedo.ub.uni-kl.de/frontdoor/index/index/docId/4650 UR - https://nbn-resolving.org/urn:nbn:de:hbz:386-kluedo-46505 ER -