Refine
Year of publication
Document Type
- Doctoral Thesis (1878)
- Preprint (1186)
- Article (736)
- Report (486)
- Periodical Part (296)
- Master's Thesis (255)
- Working Paper (115)
- Conference Proceeding (47)
- Diploma Thesis (35)
- Lecture (25)
Language
- English (3175)
- German (1993)
- Multiple languages (6)
- Spanish (4)
Keywords
- AG-RESY (64)
- PARO (31)
- Stadtplanung (30)
- Erwachsenenbildung (29)
- Organisationsentwicklung (28)
- Schule (26)
- Simulation (25)
- Modellierung (24)
- Mathematische Modellierung (21)
- Visualisierung (21)
Faculty / Organisational entity
- Kaiserslautern - Fachbereich Mathematik (1184)
- Kaiserslautern - Fachbereich Informatik (928)
- Kaiserslautern - Fachbereich Maschinenbau und Verfahrenstechnik (588)
- Kaiserslautern - Fachbereich Chemie (434)
- Kaiserslautern - Fachbereich Sozialwissenschaften (351)
- Kaiserslautern - Fachbereich Physik (334)
- Fraunhofer (ITWM) (224)
- Kaiserslautern - Fachbereich Biologie (187)
- Kaiserslautern - Fachbereich Elektrotechnik und Informationstechnik (171)
- Distance and Independent Studies Center (DISC) (168)
- Kaiserslautern - Fachbereich Bauingenieurwesen (129)
- Kaiserslautern - Fachbereich Wirtschaftswissenschaften (116)
- Universität (111)
- Kaiserslautern - Fachbereich Raum- und Umweltplanung (88)
- Kaiserslautern - Fachbereich ARUBI (87)
- Landau - Fachbereich Natur- und Umweltwissenschaften (29)
- Universitätsbibliothek (26)
- Landau - Fachbereich Psychologie (9)
- Kaiserslautern - Fachbereich Architektur (6)
- Landau - Fachbereich Erziehungswissenschaften (5)
- Landau - Fachbereich Kultur- und Sozialwissenschaften (3)
- Zentrum für Innovation und Digitalisierung in Studium und Lehre (ZIDiS) (1)
Erfolgreiches Compliance-Management basiert unverzichtbar auf einer gelebten, authentischen, wertegeleiteten Compliance-Kultur als Teil der Organisationskultur. Organisationskulturen sind zwar von außen nicht instruktiv plan- und steuerbar, doch durch gezielte systemische Interventionen beeinflussbar.
Eine nachhaltige Compliance-Kultur beinhaltet die fortwährende Kommunikation der Organisationsmitglieder über individuelle und organisationale Annahmen, Werte, Denk- und Verhaltensmuster und einer daraus resultierenden gemeinsamen Auffassung über die Bedeutung von Compliance in der Organisation.
Wirksame Interventionen systemischer Beratung setzen an den mentalen Modellen an und nicht an formalen Regeln und Kontrollmechanismen. Compliance-Management das vorwiegend auf Kontrolle und damit auf individuelles Fehlverhalten blickt, ignoriert die organisationalen Kontexte und kann aus systemischer Sicht nicht langfristig erfolgreich sein.
Den Führungskräften kommt bei der Verankerung von Compliance in der Organisation besondere Bedeutung zu.
Für systemische Berater*innen gilt es, dem Klientensystem Musterunterbrechungen und neue Handlungsoptionen durch passende Prozessbegleitung und Interventionssetzung zu ermöglichen. Dabei zielen alle Interventionen auf die Reflexion persönlicher und organisationaler mentaler Modelle und die Entwicklung der eigenständigen und verantwortlichen Handlungsfähigkeit der Organisationsmitglieder auf Basis der gemeinsamen Compliance-Kultur.
Compliance ist ein andauernder Change-Prozess und somit Teil der allgemeinen Veränderungsfähigkeit von Organisationen. Dieser Prozess zur integren Organisation muss sowohl auf personaler wie auf organisationaler Ebene stattfinden. Die Wechselwirkungen haben nicht nur Einfluss auf das Thema Compliance, sondern wirken positiv auf das Gesamtsystem als lernende und reflektierende Organisation.
Die systemische Beratung kann das Compliance-Management bei der Verankerung einer Compliance-Kultur in Organisationen nachhaltig unterstützen, indem Beteiligte in den Veränderungsprozess aktiv mit einbezogen werden, neue Perspektiven eröffnet, implizites Wissen sichtbar gemacht und grundlegende Annahmen reflektiert werden.
The proliferation of sensors in everyday devices – especially in smartphones – has led to crowd sensing becoming an important technique in many urban applications ranging from noise pollution mapping or road condition monitoring to tracking the spreading of diseases. However, in order to establish integrated crowd sensing environments on a large scale, some open issues need to be tackled first. On a high level, this thesis concentrates on dealing with two of those key issues: (1) efficiently collecting and processing large amounts of sensor data from smartphones in a scalable manner and (2) extracting abstract data models from those collected data sets thereby enabling the development of complex smart city services based on the extracted knowledge.
Going more into detail, the first main contribution of this thesis is the development of methods and architectures to facilitate simple and efficient deployments, scalability and adaptability of crowd sensing applications in a broad range of scenarios while at the same time enabling the integration of incentivation mechanisms for the participating general public. During an evaluation within a complex, large-scale environment it is shown that real-world deployments of the proposed data recording architecture are in fact feasible. The second major contribution of this thesis is the development of a novel methodology for using the recorded data to extract abstract data models which are representing the inherent core characteristics of the source data correctly. Finally – and in order to bring together the results of the thesis – it is demonstrated how the proposed architecture and the modeling method can be used to implement a complex smart city service by employing a data driven development approach.
Maximum Likelihood Estimators for Markov Switching Autoregressive Processes with ARCH Component
(2009)
We consider a mixture of AR-ARCH models where the switching between the basic states of the observed time series is controlled by a hidden Markov chain. Under simple conditions, we prove consistency and asymptotic normality of the maximum likelihood parameter estimates combining general results on asymptotics of Douc et al (2004) and of geometric ergodicity of Franke et al (2007).
We derive some asymptotics for a new approach to curve estimation proposed by Mr'{a}zek et al. cite{MWB06} which combines localization and regularization. This methodology has been considered as the basis of a unified framework covering various different smoothing methods in the analogous two-dimensional problem of image denoising. As a first step for understanding this approach theoretically, we restrict our discussion here to the least-squares distance where we have explicit formulas for the function estimates and where we can derive a rather complete asymptotic theory from known results for the Priestley-Chao curve estimate. In this paper, we consider only the case where the bias dominates the mean-square error. Other situations are dealt with in subsequent papers.
In this paper we consider a CHARME Model, a class of generalized mixture of nonlinear nonparametric AR-ARCH time series. We apply the theory of Markov models to derive asymptotic stability of this model. Indeed, the goal is to provide some sets of conditions under which our model is geometric ergodic and therefore satisfies some mixing conditions. This result can be considered as the basis toward an asymptotic theory for our model.
We consider data generating mechanisms which can be represented as mixtures of finitely many regression or autoregression models. We propose nonparametric estimators for the functions characterizing the various mixture components based on a local quasi maximum likelihood approach and prove their consistency. We present an EM algorithm for calculating the estimates numerically which is mainly based on iteratively applying common local smoothers and discuss its convergence properties.
We consider data generating mechanisms which can be represented as mixtures of finitely many regression or autoregression models. We propose nonparametric estimators for the functions characterizing the various mixture components based on a local quasi maximum likelihood approach and prove their consistency. We present an EM algorithm for calculating the estimates numerically which is mainly based on iteratively applying common local smoothers and discuss its convergence properties.
We consider the problem of estimating the conditional quantile of a time series at time \(t\) given observations of the same and perhaps other time series available at time \(t-1\). We discuss sieve estimates which are a nonparametric versions of the Koenker-Bassett regression quantiles and do not require the specification of the innovation law. We prove consistency of those estimates and illustrate their good performance for light- and heavy-tailed distributions of the innovations with a small simulation study. As an economic application, we use the estimates for calculating the value at risk of some stock price series.
Knowledge about the distribution of a statistical estimator is important for various purposes like, for example, the construction of confidence intervals for model parameters or the determiation of critical values of tests. A widely used method to estimate this distribution is the so-called bootstrap which is based on an imitation of the probabilistic structure of the data generating process on the basis of the information provided by a given set of random observations. In this paper we investigate this classical method in the context of artificial neural networks used for estimating a mapping from input to output space. We establish consistency results for bootstrap estimates of the distribution of parameter estimates.
We consider the problem of estimating the conditional quantile of a time series at time t given observations of the same and perhaps other time series available at time t-1. We discuss an estimate which we get by inverting a kernel estimate of the conditional distribution function, and prove its asymptotic normality and uniform strong consistency. We illustrate the good performance of the estimate for light and heavy-tailed distributions of the innovations with a small simulation study.
In this paper we deal with the problem of fitting an autoregression of order p to given data coming from a stationary autoregressive process with infinite order. The paper is mainly concerned with the selection of an appropriate order of the autoregressive model. Based on the so-called final prediction error (FPE) a bootstrap order selection can be proposed, because it turns out that one relevant expression occuring in the FPE is ready for the application of the bootstrap principle. Some asymptotic properties of the bootstrap order selection are proved. To carry through the bootstrap procedure an autoregression with increasing but non-stochastic order is fitted to the given data. The paper is concluded by some simulations.
Neural networks are now a well-established tool for solving classification and forecasting problems in financial applications (compare, e.g., Bol et al., 1996, Evans, 1997, Rehkugler and Zimmermann, 1994, Refenes 1995, and Refenes et al. 1996a) though many practioners are still suspicious against too evident success stories. One reason may be that the construction of an appropriate network which provides a reasonable solution to a complex data-analytic problem is rarely made explicit in the literature. In this paper, we try to contribute to filling this gap by discussing in detail the problem of dynamically allocating capital to various components of a currency portfolio in such a manner that the average gain will be larger than for certain benchmark portfolios. We base our solution on feedforward neural networks which are constructed employing various statistical model selection procedures described in, e.g., (Anders, 1997, or Refenes et al., 1996b). Neural networks which are used as the basis of trading strategies in finance should be assessed differently than in technical applications. The task is not to construct a network which provides good forecasts with respect to mean-square error of some quantities of interest or to provide good approximation of some given target values, but to achieve a good performance in economic terms. For portfolio allocation, the main goal is to achieve on the average a large return combined with a small risk. Therefore, we do not consider forecasts of the foreign exchange (FX-) rate time series using neural networks, but we try to get the allocation directly as the output of a network. Furthermore, we do not minimize some estimation or prediction error, but we try to maximize an economically meaningful performance measure, the risk-adjusted return, directly (compare also Heitkamp, 1996). In the subsequent chapter, we describe the details of the portfolio allocation problem. The following two chapters provide some technical information on how the networks were fitted to the available data and how the network inputs and outputs were selected. In chapter 5, finally, we discuss the promising results.
In this paper, we discuss the problem of testing for a changepoint in the structure
of an integer-valued time series. In particular, we consider a test statistic
of cumulative sum (CUSUM) type for general Poisson autoregressions of order
1. We investigate the asymptotic behaviour of conditional least-squares estimates
of the parameters in the presence of a changepoint. Then, we derive the
asymptotic distribution of the test statistic under the hypothesis of no change,
allowing for the calculation of critical values. We prove consistency of the test,
i.e. asymptotic power 1, and consistency of the corresponding changepoint estimate.
As an application, we have a look at changepoint detection in daily
epileptic seizure counts from a clinical study.
Kernel smoothing in nonparametric autoregressive schemes offers a powerful tool in modelling time series. In this paper it is shown that the bootstrap can be used for estimating the distribution of kernel smoothers. This can be done by mimicking the stochastic nature of the whole process in the bootstrap resampling or by generating a simple regression model. Consistency of these bootstrap procedures will be shown.
In this paper we derive nonparametric stochastic volatility models in discrete time. These models generalize parametric autoregressive random variance models, which have been applied quite successfully to nancial time series. For the proposed models we investigate nonparametric kernel smoothers. It is seen that so-called nonparametric deconvolution estimators could be applied in this situation and that consistency results known for nonparametric errors- in-variables models carry over to the situation considered herein.
In the following, we discuss a procedure for interpolating a spatial-temporal stochastic process. We stick to a particular, moderately general model but the approach can be easily transered to other similar problems. The original data, which motivated this work, are measurements of gas concentrations (SO2, NO, O2) and several meteorological parameters (temperature, sun radiation, procipitation, wind speed etc.). These date have been and are still recorded twice every hour at several irregularly located places in the forests of the state Rheinland-Pfalz as part of a program monitoring the air pollution in the forests.
We introduce a class of models for time series of counts which include INGARCH-type models as well as log linear models for conditionally Poisson distributed data. For those processes, we formulate simple conditions for stationarity and weak dependence with a geometric rate. The coupling argument used in the proof serves as a role model for a similar treatment of integer-valued time series models based on other types of thinning operations.
In this expository article, we give an introduction into the basics of bootstrap tests in general. We discuss the residual-based and the wild bootstrap for regression models suitable for applications in signal and image analysis. As an illustration of the general idea, we consider a particular test for detecting differences between two noisy signals or images which also works for noise with variable variance. The test statistic is essentially the integrated squared difference between the signals after denoising them by local smoothing. Determining its quantile, which marks the boundary between accepting and rejecting the hypothesis of equal signals, is hardly possible by standard asymptotic methods whereas the bootstrap works well. Applied to the rows and columns of images, the resulting algorithm not only allows for the detection of defects but also for the characterization of their location and shape in surface inspection problems.
In this paper, the complexity of full solution of Fredholm integral equations of the second kind with data from the Sobolev class \(W^r_2\) is studied. The exact order of information complexity is derived. The lower bound is proved using a Gelfand number technique. The upper bound is shown by providing a concrete algorithm of optimal order, based on a specific hyperbolic cross approximation of the kernel function. Numerical experiments are included, comparing the optimal algorithm with the standard Galerkin method.
We study the complexity of local solution of Fredholm integral equations. This means that we want to compute not the full solution, but rather a functional (weighted mean, value in a point) of it. For certain Sobolev classes of multivariate periodic functions we prove matching upper and lower bounds and construct an algorithm of the optimal order, based on Fourier coefficients and a hyperbolic cross approximation.
In recent years, Smolyak quadrature rules (also called hyperbolic cross points or sparse grids) have gained interest as a possible competitor to number theoretic quadratures for high dimensional problems. A standard way of comparing the quality of multivariate quadrature formulas
consists in computing their \(L_2\)-discrepancy. Especially for larger dimensions, such computations are a highly complex task. In this paper we develop a fast recursive algorithm for computing the \(L_2\)-discrepancy (and related quality measures) of general Smolyak quadratures. We carry out numerical comparisons between the discrepancies of certain Smolyak rules, Hammersley and Monte Carlo sequences.
A notion of discrepancy is introduced, which represents the integration error on spaces of \(r\)-smooth periodic functions. It generalizes the diaphony and constitutes a periodic counterpart to the classical \(L_2\)-discrepancy as weil as \(r\)-smooth versions of it introduced recently by Paskov [Pas93]. Based on previous work [FH96], we develop an efficient algorithm for computing periodic discrepancies for quadrature formulas possessing certain tensor product structures, in particular, for Smolyak quadrature rules (also called sparse grid methods). Furthermore, fast algorithms of computing periodic discrepancies for lattice rules can easily be derived from well-known properties of lattices. On this basis we carry out numerical comparisons of discrepancies between Smolyak and lattice rules.
The local solution problem of multivariate Fredholm integral equations is studied. Recent research proved that for several function classes the complexity of this problem is closely related to the Gelfand numbers of some characterizing operators. The generalization of this approach to the situation of arbitrary Banach spaces is the subject of the present paper.
Furthermore, an iterative algorithm is described which - under some additional conditions - realizes the optimal error rate. The way these general theorems work is demonstrated by applying them to integral equations in a Sobolev space of periodic functions with dominating mixed derivative of various order.
In this paper the complexity of the local solution of Fredholm integral equations
is studied. For certain Sobolev classes of multivariate periodic functions with dominating mixed derivative we prove matching lower and upper bounds. The lower bound is shown using relations to s-numbers. The upper bound is proved in a constructive way providing an implementable algorithm of optimal order based on Fourier coefficients and a hyperbolic cross approximation.
We report on investigations of the crystallographic structure and the magnetic anisotropies of epitaxial iron films deposited onto periodically stepped Ag(001) surfaces using low energy electron diffraction, x-ray diffraction, second harmonic generation (SHG), as well as the Brillouin light scattering (BLS) technique. The focus of the present study lies on the interrelation between the surface morphology of the buffer layers and the magnetic properties of the Fe films, epitaxially grown onto them. Especially the symmetry breaking at the atomic steps is found to create an uniaxial magnetic anisotropy measured by BLS and a very strong anisotropic signal in magnetic SHG.
This thesis is devoted to furthering the tropical intersection theory as well as to applying the
developed theory to gain new insights about tropical moduli spaces.
We use piecewise polynomials to define tropical cocycles that generalise the notion of tropical Cartier divisors to higher codimensions, introduce an intersection product of cocycles with tropical cycles and use the connection to toric geometry to prove a Poincaré duality for certain cases. Our
main application of this Poincaré duality is the construction of intersection-theoretic fibres under a
large class of tropical morphisms.
We construct an intersection product of cycles on matroid varieties which are a natural
generalisation of tropicalisations of classical linear spaces and the local blocks of smooth tropical
varieties. The key ingredient is the ability to express a matroid variety contained in another matroid variety by a piecewise polynomial that is given in terms of the rank functions of the corresponding
matroids. In particular, this enables us to intersect cycles on the moduli spaces of n-marked abstract
rational curves. We also construct a pull-back of cycles along morphisms of smooth varieties, relate
pull-backs to tropical modifications and show that every cycle on a matroid variety is rationally
equivalent to its recession cycle and can be cut out by a cocycle.
Finally, we define families of smooth rational tropical curves over smooth varieties and construct a tropical fibre product in order to show that every morphism of a smooth variety to the moduli space of abstract rational tropical curves induces a family of curves over the domain of the morphism.
This leads to an alternative, inductive way of constructing moduli spaces of rational curves.
Bauen im Bestand hat bei heutigen Bauaufgaben einen nicht mehr zu vernachlässigbaren
Anteil eingenommen. Aufgrund erhöhter Deckenlasten in Gebäuden durch Nutzungsänderungen
oder erhöhter Verkehrsdichten auf Brücken wird dabei eine statische
Neuberechnung nach aktuell geltendem Normenwerk notwendig. Dazu ist eine möglichst
genaue und realitätsnahe Kenntnis des Belastungszustandes der zu untersuchenden
Bauwerke unabdingbar. Oftmals ergibt ein konventionell geführter Nachweis
dabei keine ausreichende Tragfähigkeit oder dieser ist aufgrund fehlender Bauwerksunterlagen
erschwert zu führen. In diesem Fall werden bisher aufwendige Probebelastungen
durchgeführt, mit Hilfe derer das wirkliche Tragverhalten eines Bauwerks untersucht
wird. Dadurch können für Neubauten zu verwendende Annahmen entfallen und
die vorhandenen Tragwerksreserven lassen sich ausnutzen. Mit dem in dieser Arbeit
vorgestellten Verfahren der Spannungs- und Schnittgrößenermittlung in Stahlbauteilen
mittels zerstörungsfreiem Ultraschallprüfverfahren können diese hohen Aufwendungen
reduziert werden und es lassen sich wirtschaftlich und schnell die vorhandenen Belastungszustände
bestehender Stahlbauwerke bestimmen.
Dazu wird das Verfahren der Ultraschall- Spannungsermittlung an Baustahlträgern untersucht.
Es wird auf die Besonderheiten desWerkstoffs Baustahl eingegangen und die
speziellen baupraktischen Einflüsse werden betrachtet. In Laborversuchen werden die
Ultraschallwellen auf ihre Genauigkeit und ihre Reproduzierbarkeit hin überprüft sowie
der akusto- elastische Kennwert ermittelt, welcher der Ultraschallwellengeschwindigkeit
im Baustahl den vorhandenen Spannungswert zuordnet. Somit können Längsbiegespannungen
und Schubspannungen belasteter Träger ermittelt werden.
Um die Messergebnisse auf nutzbare Ergebnisse für das gültige Format des zu führenden
Tragfähigkeitsnachweises zu übertragen, wird eine stochastische Aufbereitung der
Messdaten vorgenommen. Aus den gemessenen Spannungen können die Schnittgrößenverläufe
verschiedener vorhandener Belastungszustände stochastisch geschätzt
werden. Das Sicherheitskonzept des Bauwesens wird auf die Verwendung dieser
Schnittgrößenverläufe adaptiert. Mit Hilfe von Messungen an ermittelten nachweisrelevanten
Messstellen steht ein Messsystem und -verfahren zur Verfügung, mit welchem
zerstörungsfreie Tragfähigkeitsnachweise an bestehenden Stahlbauwerken nach aktuell
gültigem Normenwerk geführt werden können. In Praxiseinsätzen während der
Entwicklung wird die Handhabbarkeit des Ultraschall- Messsystems validiert und es
werden Optimierungsmöglichkeiten abgeleitet.
We present a study of optoelectronically active Ga(As)As quantum dots (QDs) on Al-rich AlxGa1-xAs layers with Al concentrations
up to x=90%. So far, however, it has not been possible to grow optoelectronically active Ga(As)As QDs epitaxially
directly on and in between Al-rich barrier layers in the AlGaInAsSb material system. A QD morphology might appear on the
growth front, but the QD-like entities will not luminesce. Here, we use photoluminescence (PL) measurements to show that thin
Al-free capsule layers between Al-rich barrier layers and the QD layers can solve this problem; this way, the QDs become
optoelectronically active; that is, the dots become QDs. We consider antimonide QDs, that is, Ga(As)Sb QDs, either on GaAs for
comparison or on AlxGa1-xAs barriers (x >10%) with GaAs capsule layers in between. We also discuss the influence of QD
coupling both due to stress/strain from neighboring QDs and quantum-mechanically on the wavelength of the photoluminescence
peak. Due to their mere existence, the capsule layers alter the barriers by becoming part of them. Quantum dots
applications such as QD semiconductor lasers for spectroscopy or QDs as binary storage cells will profit from this additional
degree of design freedom.
III/V semiconductor quantum dots (QD) are in the focus of optoelectronics research for about 25 years now. Most of the work
has been done on InAs QD on GaAs substrate. But, e.g., Ga(As)Sb (antimonide) QD on GaAs substrate/buffer have also gained
attention for the last 12 years.There is a scientific dispute on whether there is a wetting layer before antimonide QD formation, as
commonly expected for Stransky-Krastanov growth, or not. Usually ex situ photoluminescence (PL) and atomic force microscope
(AFM) measurements are performed to resolve similar issues. In this contribution, we show that reflectance anisotropy/difference
spectroscopy (RAS/RDS) can be used for the same purpose as an in situ, real-time monitoring technique. It can be employed not
only to identify QD growth via a distinct RAS spectrum, but also to get information on the existence of a wetting layer and its
thickness. The data suggest that for antimonide QD growth the wetting layer has a thickness of 1 ML (one monolayer) only.
Previously in this journal we have reported on fundamental transversemode selection (TMS#0) of broad area semiconductor lasers
(BALs) with integrated twice-retracted 4f set-up and film-waveguide lens as the Fourier-transform element. Now we choose and
report on a simpler approach for BAL-TMS#0, i.e., the use of a stable confocal longitudinal BAL resonator of length L with a
transverse constriction.The absolute value of the radius R of curvature of both mirror-facets convex in one dimension (1D) is R = L
= 2f with focal length f.The round trip length 2L = 4f againmakes up for a Fourier-optical 4f set-up and the constriction resulting
in a resonator-internal beam waist stands for a Fourier-optical low-pass spatial frequency filter. Good TMS#0 is achieved, as long
as the constriction is tight enough, but filamentation is not completely suppressed.
1. Introduction
Broad area (semiconductor diode) lasers (BALs) are intended
to emit high optical output powers (where “high” is relative
and depending on the material system). As compared to
conventional narrow stripe lasers, the higher power is distributed
over a larger transverse cross-section, thus avoiding
catastrophic optical mirror damage (COMD). Typical BALs
have emitter widths of around 100 ????m.
Thedrawback is the distribution of the high output power
over a large number of transverse modes (in cases without
countermeasures) limiting the portion of the light power in
the fundamental transverse mode (mode #0), which ought to
be maximized for the sake of good light focusability.
Thus techniques have to be used to support, prefer, or
select the fundamental transverse mode (transverse mode
selection TMS#0) by suppression of higher order modes
already upon build-up of the laser oscillation.
In many cases reported in the literature, either a BAL
facet, the
Scattering and scattering plates have a large diversity of applications. Scattering of optical and THz electromagnetic waves can be performed
with Galois scattering plates, which had found applications in acoustics first (i.e., with sound waves in concert hall acoustics). For binary
Galois scattering plates, the single scattering entities, i.e., mesas (for a binary 1) or voids (for a binary 0), have characteristic lateral dimensions
of half the wavelength of the electromagnetic waves to be scattered. Their optimal height is a quarter of the wavelength for plates used in
reflection. Meanwhile, not too elaborate lithographic techniques allow for the implementation of Galois plates for the THz range and even
for the visible spectral range. We had reported on such scattering plates before. However, in this paper, also the mathematical concept is
described and the fabrication technologies are emphasized. In contrast to the case of scattering plates with irregular surface morphologies,
Galois plate scattering is not diffuse, but there are many scattering/diffraction orders.
In this work, we investigate and compare the condensation behavior of hydrophilic, hydrophobic, and biphilic microgrooved silicon samples etched by reactive ion etching. The microgrooves were 25 mm long and 17−19 μm deep with different
topologies depending on the etching process. Anisotropically etched samples had 30 μm wide rectangular microgrooves and silicon ridges between them. They were either left hydrophilic or covered with a hydrophobic fluorocarbon or photoresist layer.
Anisotropically etched samples consisted of 48 μm wide semicircular shaped microgrooves, 12 μm wide silicon ridges between them, and a 30 μm wide photoresist stripe centered on the ridges. The lateral dimensions were chosen to be much smaller than the capillary length of water to support drainage of droplets by coalescence rather than droplet sliding. Furthermore, to achieve a low thermal resistance of the periodic surface structure consisting of water-filled grooves and silicon ridges, the trench depth was also kept small. The dripped-off total amount of condensate (AoC) was measured for each sample for 12 h under the same boundary
conditions (chamber temperature 30 °C, cooling temperature 6 °C, and relative humidity 60%). The maximum increase in AoC of 15.9% (9.6%) against the hydrophilic (hydrophobic) reference sample was obtained for the biphilic samples. In order to elucidate their unique condensation behavior, in situ optical imaging was performed at normal incidence. It shows that the drainage of droplets from the stripe’s surface into the microgrooves as well as occasional droplet sliding events are the dominant processes to clear the surface. To rationalize this behavior, the Hough Circle Transform algorithm was implemented for image processing to receive
additional information about the transient droplet size and number distribution. Postprocessing of these data allows calculation
In diesem Beitrag werden konnektionistische Lernverfahren für die wissensbasierte Diagnose technischer Systeme vorgestellt. Es werden zwei Problemstellungen untersucht: die Prognose von Signalverläufen technischer Zustandsgrössen sowie die diagnostische Klassifikation von Systemzuständen und die Ergebnisse der Untersuchungen dargestellt.
Die klassischen Verfahren zur Herstellung leichter Olefine, wie Steamcracken und Fluid Catalytic Cracking sind nicht mehr in der Lage, die steigende Nachfrage an Propen zu decken. Um dem Ungleichgewicht zwischen Versorgung und Nachfrage zu begegnen wurden neue Strategien und Technologien entwickelt, die eine unabhängige Produktion von Propen ermöglichen. Eine dieser Varianten ist die katalytische Umwandlung von Ethen zu Propen, die derzeit im Labormaßstab untersucht wird. In der Literatur wurden bereits verschiedene Katalysatorsysteme vorgestellt, die unter anderem Metallträgerkatalysatoren, mesoporöse Materialien und mikroporöse Materialien beinhalten. Insbesondere mikroporöse Zeolithe, die bereits in vielen technischen Prozessen erfolgreich eingesetzt werden, zeigen aufgrund ihrer katalytischen Eigenschaften ein hohes Potential in der Ethen-zu-Propen Reaktion.
In der vorliegenden Arbeit wurden Schlüsselfaktoren untersucht, die eine selektive katalytische Umwandlung von Ethen zu Propen und Butenen an 10-Ring-Zeolithen ermöglichen. Im Fokus der Untersuchungen stand der Einfluss unterschiedlicher Porenarchitekturen, die Säurestärkeverteilung und die Kristallitgröße auf die Aktivität und Stabilität der Katalysatoren sowie die Selektivität zu Propen und den Butenen. Die hergestellten 10-Ring-Zeolithe wurden mittels Pulver-Röntgendiffraktometrie, Festkörper-NMR-Spektroskopie, Stickstoff-Physisorption, Thermogravimetrie, Partikelgrößenanalyse und Raster-elektronenmikroskopie charakterisiert. Zur Erprobung der katalytischen Eigenschaften der hergestellten Materialien wurde eine Normaldruck-Strömungsapparatur aufgebaut. Variiert wurden die Katalysatorlaufzeit, die Reaktionstemperatur, die modifizierte Verweilzeit und der Ethen-Partialdruck.
Zu Beginn wurden einige 10-Ring-Zeolithe mit unterschiedlichen Porenarchitekturen hergestellt und mit physikalisch-chemischen Methoden charakterisiert. Voraussetzung zum Vergleich der unterschiedlichen Porenarchitekturen waren dabei hohe Kristallinitäten, ähnliche Kristallitgrößen und Aluminiumgehalte. Aus den katalytischen Experimenten ging hervor, dass die sterischen Restriktionen der unterschiedlichen Porenarchitekturen einen signifikanten Einfluss auf die Selektivitäten zu den leichten Olefinen haben. Daher wurde bei den 1-dimensionalen 10-Ring-Zeolithen eine hohe Selektivität für die Bildung von Propen und den Butenen mit zusammen ca. 70 % gefunden. Die 3-dimensionalen 10-Ring-Porenstrukturen zeigen hingegen deutlich niedrigere Selektivitäten zu Propen und den Butenen mit insgesamt ca. 30 %. Als Ursache der niedrigeren Selektivitäten zu den genannten Olefinen konnten Neben- und Folgereaktionen identifiziert werden, die vermutlich an den Kreuzungspunkten im 3-dimensionalen Porensystem katalysiert werden. Die Neben- und Folgereaktionen beinhalten überwiegend Wasserstofftransferreaktionen und Zyklisierungen, die zur Bildung von Alkanen und Aromaten führen. Durch die gezielte Wahl von 1-dimensionalen Porenstrukturen konnten so die relativ großen Übergangszustände der Wasserstofftransferreaktionen und der Zyklisierungen unterdrückt werden. Daraus ergeben sich im Vergleich zu den 3-dimensionalen Porenstrukturen niedrigere Aktivitäten der 1-dimensionalen Porenstrukturen bei vergleichbarer Ausbeute an Propen und Butenen. Des Weiteren konnten neben strukturellen Einflüssen der unterschiedlichen Porenarchitekturen auch erhebliche Einflüsse der Reaktionsbedingungen auf die Bildung von Neben- und Folgereaktionen aufgezeigt werden. Dies gilt insbesondere für 3-dimensionale Porenstrukturen. Den Experimenten zufolge konkurrieren die beiden bekannten Crackmechanismen (monomolekular / bimolekular) in Abhängigkeit der Reaktionsbedingungen miteinander. Hohe Reaktionstemperaturen, kurze modifizierte Verweilzeiten und Ethen-Partialdrücke begünstigen monomolekulares Cracken und somit die Bildung von Propen und Butenen. Bimolekulares Cracken, welches gerade bei niedrigeren Reaktionstemperaturen, langen modifizierten Verweilzeiten und hohen Ethen-Partialdrücken verstärkt auftritt, fördert Wasserstofftransferreaktion. Der Einfluss der Reaktionsbedingungen ist bei 1-dimensionalen Porenstrukturen weniger stark ausgeprägt, da die formselektiven Eigenschaften bei der ETP-Reaktion dominieren.
Zusätzlich zu den bereits genannten Schlüsselfaktoren wurden auch die Auswirkungen unterschiedlicher Aluminiumgehalte der Zeolithe in der sauer katalysierten Ethen-zu-Propen-Reaktion untersucht. Als Katalysatoren wurden die Zeolithe ZSM-22 und ZSM-5 als jeweilige Vertreter einer 1-dimensionalen und 3-dimensionalen Porenstruktur verwendet. Der Vergleich der katalytischen Eigenschaften erfolgte bei gleichbleibenden Reaktionsbedingungen. In Abhängigkeit von der Dimensionalität des Porensystems (1-D vs. 3-D) wurde beobachtet, dass die Selektivitäten für die kurzkettigen Olefine in einem Fall mit dem Aluminiumgehalt abnehmen (3-D, HZSM-5) und im anderen Fall zunehmen (1-D, HZSM-22). Auch hier dominieren die formselektiven Eigenschaften der 1-dimensionalen Porenstrukturen in der Ethen-zu-Propen-Reaktion, wodurch mit steigender Anzahl saurer Zentren die Aktivität und die Selektivität zu den leichten Olefinen ebenfalls steigen. Es zeigte sich jedoch, dass hohe Aluminiumgehalte zu einer verstärkten Katalysatordesaktivierung beitragen und zusätzlich den Stofftransport der Reaktanden stark beeinflussen. Zeolith ZSM-5 zeigte zwar ebenfalls eine starke Katalysatordesaktivierung mit steigendem Aluminiumgehalt, wohingegen der Stofftransport der Reaktanden nicht beeinflusst wurde. Dies ging aus dem linearen Zusammenhang zwischen der Aktivität und dem Aluminiumgehalt in der Zeolith-Struktur hervor. Die Produktselektivitäten wurden insbesondere an Zeolith ZSM-5 deutlich durch den Aluminiumgehalt beeinflusst. Hohe Aluminiumgehalte begünstigen Wasserstofftransferreaktionen und Zyklisierungen, wohingegen niedrige Aluminiumgehalte die Selektivität zu den leichten Olefinen erhöhen. Ein Erklärungsansatz hierfür basiert auf den ablaufenden Gasphasenmechanismen an heterogenen Katalysatoren: Den Experimenten zufolge verläuft die Ethen-zu-Propen-Reaktion an Zeolith ZSM-5 vermutlich nach dem Eley-Rideal-Mechanismus, wohingegen die konkurrierenden Wasserstofftransferreaktionen nach dem Langmuir-Hinshelwood-Mechanismus ablaufen. Diese Ergebnisse stehen im Einklang mit anderen literaturbekannten Studien.
Die gezielte Variation der Kristallitgröße wurde mit Zeolith ZSM-5 durchgeführt, mit dem Ziel, detailliertere Kenntnisse über das Desaktivierungsverhalten des Katalysators und den Stofftransport der Reaktanden in den Poren zu erhalten. Die Kristallitgröße von Zeolith ZSM-5 wurde einerseits durch die Kristallistaionstemperatur gesteuert und andererseits durch die Zugabe von Triethanolamin als Inhibitor für die Keimbildung. Auf diese Weise konnten mittlere Kristallitgrößen im Bereich von 6 - 69 µm hergestellt werden. Mit zunehmender Kristallitgröße von Zeolith ZSM-5 wurde bei ähnlichen Koks-Gehalten eine schnellere Katalysatordesaktivierung beobachtet. Weiterhin waren abnehmende Aktivitäten mit zunehmender Kristallitgröße zu beobachten. Es konnte gezeigt werden, dass Stofftransportlimitierungen ab einer Kristallitgröße von ca. 27 µm auftreten. Es war ebenfalls ersichtlich, dass mit steigender Kristallitgröße auch unselektive Reaktionen auf der äußeren Oberfläche der Kristallite reduziert werden. Mit diesen waren steigende Selektivitäten zu den leichten Olefinen zu beobachten, bei gleichzeitiger Abnahme der Selektivitäten zu den C1 - C4-Alkanen und den Aromaten. Dies konnte auf eine Reduktion unselektiv ablaufender Neben- und Folgereaktionen auf der äußeren Kristallitoberfläche zurückgeführt werden.
Die tribologische Untersuchung von mechanischen Kontaktproblemen nimmt im Maschinenbau
einen immer wichtigeren Platz ein. Sie ermöglicht ein tieferes Verständnis von Phänomenen
wie Reibung und Verschleiß auf der Mikroebene und trägt zur Optimierung von
Maschinenelementen bei. Eine große Herausforderung besteht darin, die Rechenzeit trotz
der hohen Auflösung gering zu halten. Dazu bieten die Randelementmethoden eine große
Rechenzeitoptimierung für eine Kategorie von Kontaktproblemen, die durch bestimmte
Annahmen definiert werden. Die auf der Halbraumtheorie basierende semi-analytische
Methode, die Gegenstand dieser Arbeit ist, gehört zu den Randelementmethoden. Die
Halbraumtheorie beruht auf Grundannahmen wie beispielsweise dem linearen elastischen
Materialverhalten oder der alleinigen Berücksichtigung lokaler Verformungsanteile. Diese
verhindern die Anwendbarkeit der Methode auf spezielle Fälle in der Dichtungstechnik
und im Wälzlager.
Im Rahmen dieser Arbeit soll ein am Institut bereits vorhandenes semi-analytisches Kontaktmodell
für den Normalkontakt mit linear elastischem Materialverhalten der Kontaktpaare
erweitert werden, um eine Anwendung in der Dichtungstechnik und in Wälzlagern
zu ermöglichen. Mit dem Modell sollen Reibung und Verschleiß im Dichtkontakt sowie
Plastizität (Kontaktpressung- und Oberflächenveränderungen sowie belastungsinduzierte
Eigenspannungen) und Materialinhomogenität im Wälzkontakt untersucht werden können.
Eine Modellvalidierung wird in den beiden Anwendungsfällen durch Vergleich mit experimentellen
Messergebnissen durchgeführt.
Die Arbeit entstand vor dem Hintergrund, daß bestehende Verschleißmodelle sich nicht
beliebig auf jedes tribologische System übertragen lassen. Aus diesem Grund sollte auf Basis
der finiten Elemente ein Werkzeug zum grundlegenden Verständnis der Gleitverschleißmechanismen
geschaffen werden, welches systemunabhängig einsetzbar ist.
Zur Gleitverschleißmodellierung mit Hilfe der Methode der finiten Elemente (FE) mußte
vorab eine genaue Bestimmung der Verschleißmechanismen sowie der Materialkennwerte zur
Charakterisierung der Kontaktverhältnisse von Faser-Kunststoff-Verbund (FKV) / Stahl
Reibpaarungen durchgeführt werden. Die Reibungs- und Verschleißeigenschaften des
genannten tribologischen Systems wurden mittels Modellverschleißversuchen nach dem Stift-
Scheibe-Verfahren innerhalb eines Temperaturbereiches von Raumtemperatur bis T=180°C
bestimmt. Eine mechanische Charakterisierung erfolgte anhand von Zug-, Druck- und
Scherversuchen auf einer statischen Prüfmaschine. Die verschlissenen Probenoberflächen
wurden anschließend mit verschiedenen mikroskopischen Verfahren charakterisiert.
Wichtigstes Ergebnis dieser Untersuchungen war die starke Abhängigkeit des
Verschleißbetrages und der wirkenden Verschleißmechanismen von der Faserorientierung
und der Prüftemperatur.
Zur Berechnung der Spannungszustände im Reibkontakt wurde ein dreidimensionaler
anisotroper Kontaktalgorithmus entwickelt. Zur Überprüfung dieses Kontaktalgorithmus
wurden Kugeleindruckversuche an endlos kohlenstoffaserverstärktem PEEK durchgeführt. Es
konnte gezeigt werden, daß die Modellierung sehr gut mit den experimentellen Ergebnissen
übereinstimmte.
Im weiteren Verlauf der Arbeit wurde dieser Algorithmus zur Modellierung der wahren
Kontaktverhältnisse herangezogen. Eine mikromechanische Charakterisierung der Materialien
sowie die Bestimmung der Verschleißmechanismen unter Einzelrauhigkeitsspitzenkontakt wurde mit Hilfe von Mikrohärteversuchen bzw. Kratzversuchen durchgeführt. Die Ergebnisse
der Spannungsanalyse bestätigen die experimentell ermittelten Versagens- bzw.
Verschleißmechanismen unter Belastung einzelner Rauhigkeitsspitzen. Im Falle normaler
Faserorientierung fanden Spannungsüberhöhungen in den Fasern und im Faser/Matrix-
Grenzbereich statt, welche zu Faserbruch und Faser/Matrix-Delamination führen können. Unter paralleler und antiparalleler Faserorientierung wurden die Fasern hauptsächlich
Biegung ausgesetzt. Weiterhin herrschten im Faser/Matrix-Grenzbereich Scherspannungen,
die zu Faser/Matrix-Delamination führen.
Eine Modellierung des thermischen Verhaltens einer CF/PEEK - Stahl - Reibpaarung zeigte,
daß im Kontaktbereich Schmelztemperaturen vorliegen können. Weiterhin war eine starke
Abhängigkeit des Wärmeflusses von der Faserorientierung zu verzeichnen. Anhand der
Definition von Peclet-Nummern für anisotrope Verbundwerkstoffe konnte, abhängig von der
Faserorientierung, zwischen langsam und schnell gleitenden Reibpaarungen unterschieden
werden.
Es konnte gezeigt werden, daß sich mit Hilfe der Methode der finiten Elemente über
herrschende Spannungszustände in sehr guter Annäherung die Gleitverschleißmechanismen
von CF/PEEK - Stahl - Reibpaarungen beschreiben lassen. Letze Aufgabe bleibt nun die
Bestimmung einer Kenngröße zur Abschätzung des Materialverschleißes in Abhängigkeit von
den Spannungszuständen im Mikrobereich.
Concept mapping is a simple and intuitive visual form of knowledge representation. Concept maps can be categorized as informal or formal, where the latter is characterized by implementing a semantics model constraining their components. Software engineering is a domain that has successfully adopted formal concept maps to visualize and specify complex systems. Automated tools have been implemented to support these models although their semantic constraints are hardcoded within the systems and hidden from users. This paper presents the Constraint Graphs and jKSImapper systems. Constraint Graphs is a flexible and powerful graphical system interface for specifying concept mapping notations. In addition, jKSImapper is a multi-user concept mapping editor for the Internet and the World Wide Web. Together, these systems aim to support user-definable formal concept mapping notations and distributed collaboration on the Internet and the World Wide Web.
This dissertation deals with the optimization of the web formation in a spunbond process for the production of artificial fabrics. A mathematical model of the process is presented. Based on the model, two kind of attributes to be optimized are considered, those related with the quality of the fabric and those describing the stability of the production process. The problem falls in the multicriteria and decision making framework. The functions involved on the model of the process are non linear, non convex and non differentiable. A strategy in two steps; exploration and continuation, is proposed to approximate numerically the Pareto frontier and alternative methods are proposed to navigate the set and support the decision making process. The proposed strategy is applied to a particular production process and numerical results are presented.
Die individuelle und gesellschaftliche Bedeutung von Werten hat aufgrund unterschiedlicher
Einflussfaktoren in den letzten Jahren deutlich zugenommen. Durch die engmaschige Verwobenheit
mit der Identität des Menschen erfüllen Werte eine Orientierungs- sowie Integritätsfunktion und
bilden den Kern für kompetentes Handeln. Vor diesem Hintergrund spielen Werte bei
gesellschaftlichen Umbruchsituationen, wie sie aktuell bei den Transformationsbemühungen hin zu
zirkulären Formen des Wirtschaftens zu beobachten sind, eine entscheidende und wegweisende Rolle.
Ganzheitlicher Wandel in Organisationen erfordert in diesem Zusammenhang ein bewusst reflektiertes
Werteverständnis und eine darauf aufbauende entwickelte Wertebasis im Subjekt. Der folgende
Beitrag beleuchtet unter dem Arbeitsbegriff „Werteorientiertes Lernen“ Möglichkeiten und Grenzen
der pädagogischen Unterstützung der Werteentwicklung und stellt Ansätze und Methoden dar, welche
exemplarisch im Rahmen der Transformationsprozesse zu einer Kreislaufwirtschaft erprobt werden
können.
Die Probleme die der demographische Wandel und der damit einhergehende Rückgang der
Bevölkerung in Deutschland auslöst, werden seit Beginn der 2000er in zahllosen
wissenschaftlichen Untersuchungen thematisiert. In Deutschland führt diese Entwicklung in
einigen Teilen des Landes unter anderem zu einem Phänomen das im Allgemeinen als
Stadtschrumpfung bezeichnet wird. Da die zugrundeliegenden Bevölkerungsverluste jedoch
nicht auf einzelne Städte begrenzt sind, sondern im Gegenteil ganze Regionen – inkl. der
urbanen Zentren – betroffen sind, sind für große Teile der in diesen Regionen lebenden
Bevölkerung negative Auswirkungen in Bezug auf die Daseinsvorsorge zu erwarten.
Die flächendeckende Ausprägung dieser Bevölkerungsverluste sind in diesem Ausmaß durch
einzelne kommunale Aktivitäten kaum zu bewältigen. Insbesondere vor dem Hintergrund der
interkommunalen Konkurrenz erscheint eine regional abgestimmte Vorgehensweise unter
Federführung oder zumindest Beteiligung der Regionalplanung notwendig. Zugleich erfordern
die gesellschaftlichen Bedürfnisse nach Transparenz und Mitwirkung eine stärkere
Fokussierung auf kommunikative und partizipative Ansätze in der räumlichen Planung.
Anhand einer vergleichenden Analyse wird, auf Grundlage eines Evaluierungsrasters,
untersucht welche Potenziale regionale Beteiligungsverfahren, auch unter Einbezug einer
breiteren Öffentlichkeit, für schrumpfende Regionen bieten.
Die Analyse der Mitwirkungsprozesse in Birkenfeld und Coburg bestätigt einmal mehr die
Schwierigkeiten in der vergleichenden Forschung. Trotz ähnlicher Ausgangsbedingungen und
Zielsetzungen sind sowohl die Struktur der Prozesse als auch die Ergebnisse in der eigenen
Wahrnehmung unterschiedlich zu bewerten.
Während governance Prozesse, ergänzt durch Informationsveranstaltungen oder andere in
ihren Mitwirkungsmöglichkeiten begrenzte Formate, für die Mehrzahl der Planungen
ausreichen dürfte bieten sich Aufwendigere Verfahren für die genannten Anlässe an.
Letztendlich bleiben ja auch in institutionell organisierten und vergleichsweise klar
strukturierten regional governance Prozessen die gesetzlich vorgeschriebenen
Beteiligungsmöglichkeiten erhalten, auch wenn sie die Bevölkerung vermutlich weniger
mobilisieren. Auf der anderen Seite sind regionale Mitwirkungsprozesse wahrscheinlich in
ihrer Struktur chaotischer, vor allem aber in Bezug auf die tatsächliche Umsetzung der
erarbeiteten Lösungsansätze unsicherer.
Abstract: Generalized single-atom Maxwell-Bloch equations for optically dense media are derived taking into account non-cooperative radiative atom-atom interactions. Applying a Gaussian approximation and formally eliminating the degrees of freedom of the quantized radiation field and of all but a probe atom leads to an effective time-evolution operator for the probe atom. The mean coherent amplitude of the local field seen by the atom is shown to be given by the classical Lorentz-Lorenz relation. The second-order correlations of the field lead to terms that describe relaxation or pump processes and level shifts due to multiple scattering or reabsorption of spontaneously emitted photons. In the Markov limit a non-linear and nonlocal single-atom density matrix equation is derived. To illustrate the effects of the quantum corrections we discuss amplified spontaneous emission and radiation trapping in a dense ensemble of initially inverted two-level atoms and the effects of radiative interactions on intrinsic optical bistability in coherently driven systems.
Abstract: We analyze the long-time quantum dynamics of degenerate parametric down-conversion from an initial sub-harmonic vacuum (spontaenous down-conversion). Standard linearization of the Heisenberg equations of motions fails in this case, since it is based on an expansion around an unstable classical solution and neglects pump depletion. Introducing a mean-field approximation we find a periodic exchange of energy between the pump and subharmonic mode goverened by an anharmonic pendulum equation. From this equation the optimum interaction time or crystal length for maximum conversion can be determined. A numerical integration of the 2-mode Schrödinger equation using a dynamically optimized basis of displaced and squeezed number states verifies the characteristic times predicted by the mean-field approximation. In contrast to semiclassical and mean-field predictions it is found that quantum uctuations of the pump mode lead to a substantial limitation of the efficiency of parametric down-conversion.
Abstract: Spontaneous emission and Lamb shift of atoms in absorbing dielectrics are discussed. A Green's-function approach is used based on the multipolar interaction Hamiltonian of a collection of atomic dipoles with the quantised radiation field. The rate of decay and level shifts are determined by the retarded Green's-function of the interacting electric displacement field, which is calculated from a Dyson equation describing multiple scattering. The positions of the atomic dipoles forming the dielectrics are assumed to be uncorrelated and a continuum approximation is used. The associated unphysical interactions between different atoms at the same location is eliminated by removing the point-interaction term from the free-space Green's-function (local field correction). For the case of an atom in a purely dispersive medium the spontaneous emission rate is altered by the well-known Lorentz local-field factor. In the presence of absorption a result different from previously suggested expressions is found and nearest-neighbour interactions are shown to be important.
Abstract: Resonant optical pumping in dense atomic media is discussed, where the absorption length is less than the smallest characteristic dimension of the sample. It is shown that reabsorption and multiple scattering of spontaneous photons (radiation trapping) can substantially slow down the rate of optical pumping. A very slow relaxation out of the target state of the pump process is then sufficient to make optical pumping impossible. As model systems an inhomogeneously and a radiatively broadened 3-level system resonantly driven with a strong broad-band pump field are considered.
Abstract: We show that it is possible to "store" quantum states of single-photon fields by mapping them onto collective meta-stable states of an optically dense, coherently driven medium inside an optical resonator. An adiabatic technique is suggested which allows to transfer non-classical correlations from traveling-wave single-photon wave-packets into atomic states and vise versa with nearly 100% efficiency. In contrast to previous approaches involving single atoms, the present technique does not require the strong coupling regime corresponding to high-Q micro-cavities. Instead, intracavity Electromagnetically Induced Transparency is used to achieve a strong coupling between the cavity mode and the atoms.
Abstract: We show that the physical mechanism of population transfer in a 3-level system with a closed loop of coherent couplings (loop-STIRAP) is not equivalent to an adiabatic rotation of the dark-state of the Hamiltonian but coresponds to a rotation of a higher-order trapping state in a generalized adiabatic basis. The concept of generalized adiabatic basis sets is used as a constructive toolto design pulse sequences for stimulated Raman adiabatic passage (STIRAP) which give maximum population transfer also under conditions when the usual condition of adiabaticty is only poorly fulfilled. Under certain conditions for the pulses (generalized matched pulses) there exists a higher-order trapping state, which is an exact constant of motion and analytic solutions for the atomic dynamics can be derived.
Abstract: We analyze systematic (classical) and fundamental (quantum) limitations of the sensitivity of optical magnetometers resulting from ac-Stark shifts. We show that incontrast to absorption-based techniques, the signal reduction associated with classical broadening can be compensated in magnetometers based on phase measurements using electromagnetically induced transparency (EIT). However due to ac-Stark associated quantum noise the signal-to-noise ratio of EIT-based magnetometers attains a maximum value at a certain laser intensity. This value is independent on the quantum statistics of the light and defines a standard quantum limit of sensitivity. We demonstrate that an EIT-based optical magnetometer in Faraday configuration is the best candidate to achieve the highest sensitivity of magnetic field detection and give a detailed analysis of such a device.
Abstract: We analyze the above-threshold behavior of a mirrorless parametric oscillator based on resonantly enhanced four wave mixing in a coherently driven dense atomic vapor. It is shown that, in the ideal limit, an arbitrary small flux of pump photons is sufficient to reach the oscillator threshold. We demonstrate that due to the large group velocity delays associated with coherent media, an extremely narrow oscillator linewidth is possible, making a narrow-band source of non-classical radiation feasible.
Abstract: We identify form-stable coupled excitations of light and matter ("dark-state polaritons") associated with the propagation of quantum fields in Electromagnetically Induced Transparency. The properties of the dark-state polaritons such as the group velocity are determined by the mixing angle between light and matter components and can be controlled by an external coherent field as the pulse propagates. In particular, light pulses can be decelerated and "trapped" in which case their shape and quantum state are mapped onto metastable collective states of matter. Possible applications of this reversible coherent-control technique are discussed.
Abstract: The recently proposed idea to generate entanglement between photon states via exchange interactions in an ensemble of atoms (J. D. Franson and T. B. Pitman, Phys. Rev. A 60 , 917 (1999) and J. D. Franson et al., (quant- ph/9912121)) is discussed using an S -matix approach. It is shown that if the nonlinear response of the atoms is negligible and no additional atom-atom interactions are present, exchange interactions cannot produce entanglement between photons states in a process that returns the atoms to their initial state. Entanglement generation requires the presence of a nonlinear atomic response or atom-atom interactions.
Abstract: Local field effects on the rate of spontaneous emission and Lamb shift in a dense gas of atoms are discussed taking into account correlations of atomic center-of-mass coordinates. For this the exact retarded propagator in the medium is calculated in independent scattering approximation and employing a virtual-cavity model. The resulting changes of the atomic polarizability lead to modi cations of the medium response which can be of the same order of magnitude but of opposite sign than those due to local field corrections of the dielectric function derived by Morice, Castin, and Dalibard [Phys.Rev.A 51, 3896 (1995)].
Mirrorless oscillation based on resonantly enhanced 4-wave mixing: All-order analytic solutions
(1999)
Abstract: The phase transition to mirrorless oscillation in resonantly enhanced four-wave mixing in double-A systems are studied analytically for the ideal case of infinite lifetimes of ground-state coherences. The stationary susceptibilities are obtained in all orders of the generated fields and analytic solutions of the coupled nonlinear differential equations for the field amplitudes are derived and discussed.
In recent years, more and more publications and material for studying and teaching, e. g. for Web-based teaching (WBT), appear "online" and digital libraries are built to manage such publications and online materials. Therefore, the most important concerns are related to the problem of durable, sustained storage and the management of content together with its metadata existing in heterogeneous styles and formats. In this paper, we present specific techniques and their use to support metadata-based catalog services. Such semistructured metadata (represented as XML fragments), which belong to online learning resources, need efficient XML-based query support, scalable result set processing, and comprehensive facilities for personalization purposes. We discuss the associated problems, subsequently derive the concepts of a suitable architecture, and finally outline the realization by means of our prototype system that is based on the J2EE component model.
Schon jetzt durchlaufen mehr als vier von fünf chemischen Produkten bei der Herstellung einen Katalysezyklus. In zunehmendem Maße findet man katalytische Anwendungen neben dem Einsatz in der Synthesechemie auch in den Biowissenschaften, beim Klima- und Umweltschutz sowie zur Energieversorgung. Durch gezieltes Ligandendesign werden dabei kontinuierlich bekannte Katalysatorsysteme optimiert und die Anwendungsbreite erweitert. Für zweizähnige, pyrimidinhaltige Ligandensysteme ist aus anderen Forschungsarbeiten der AG Thiel eine intramolekularen C-H-Aktivierung im Pyrimidinring bekannt, die zu einer carbanionkoordination am Übergangsmetallzentrum führt. Diese Reaktivität wurde im Rahmen dieser Arbeit mit der stabilisierenden Wirkung eines N-heterocyclischen Carbenliganden (NHC) zu einem neuen Ligandensystem kombiniert. Verschiedene Imidazoliumvorstufen neuer NHC-Liganden mit einem in der 2-Position aminosubstituierten Pyrimidinring als N-Substituent wurden über zwei neu erarbeitete Syntheserouten dargestellt und mit verschiedenen Übergangsmetallvorstufen umgesetzt. In Palladium(II)-Komplexen von pyrimidinyl- und mesitylsubstituierten NHC-Liganden wurden verschiedene Koordinationsmodi in Abhängigkeit von der verwendeten Synthesemethode beobachtet. Über Silber-Carben-Komplexe als Carben-Transferreagenzien konnten für verschieden tertiär amino- und mesitylsubstituierten Liganden die nicht C-H-aktivierten, d.h. C,N-koordinierten Palladiumkomplexe dargestellt werden. Eine direkte Umsetzung der ionischen Imidazoliumverbindungen mit Palladiumvorstufen wie PdCl2 führte in Pyridin und Pyridinderivaten als Lösungsmittel bei Reaktionstemperaturen direkt zu einer C-H-Aktivierung im Pyrimidinring des Liganden. Der leicht basische Pyridinligand stabilisiert während der Komplexbildung die hochreaktive, C-H-aktivierte Spezies und verhindert so Neben- und Zersetzungsreaktionen. Über die Abspaltung des labilen Pyridinliganden durch Erhitzen in schwach koordinierenden Lösungsmitteln wurden die zweikernigen, unlöslichen, pyridinfreien Palladiumkomplexe erhalten und mittels Festkörper-NMR-Spektroskopie charakterisiert. Diese Reaktion ist vollständig reversibel und wurde zum Einführen verschiedener Pyridinderivate als labile Liganden genutzt. In schwach koordinierenden Lösungsmitteln mit einem Siedepunkt < 80 °C, wie THF, wurde durch eine direkte Umsetzung der ionischen Vorstufen der Liganden mit PdCl2 eine weitere Art von Pd(II)-Komplexen erhalten, für welche die Strukturformel eines N-koordinierten Palladates postuliert wurde. In NMR-spektroskopischen Experimenten wurde die Reversibilität der C-H-Aktivierung im Pyrimidinring der Pd(II)-Komplexe in Abhängigkeit von pH-Wert und Temperatur nachgewiesen. Auch hier erwies sich der stabilisierende Pyridinligand für die C-H-Aktivierung und HCl-Eliminierung als notwendig. Die Rückreaktion wurde unter schwach sauren Reaktionsbedingungen bei Raumtemperatur über eine NHC-gebundene, pyridinhaltige Spezies, strukturanalog der literaturbekannten PEPPSI-Komplexe, beobachtet.
Für die stark Lewis-aciden Übergangsmetallzentren Iridium (III) und Ruthenium (II) wurden mit den entsprechenden ionischen Ligandenvorstufen über in situ dargestellte Silber-Carben-Komplexe ausschließlich die C-H-aktivierten, C,N-koordinierten Halbsandwichkomplexe der neuen 2-Amino-4-(imidazolylidenyl)pyrimidinliganden erhalten, trotz variierter Reaktionsbedingungen. Die C-H-Aktivierung mit anschließender HCl-Eliminierung erfolgte bei diesen Übergangsmetallzentren bereits bei Raumtemperatur irreversibel.
In Rahmen dieser Arbeit wurde außerdem die Notwendigkeit eines sterisch anspruchsvollen, stabilisierenden Mesitylrestes am NHC-Liganden für stabile und isolierbare C-H-aktivierte Komplexe beobachtet. Mit anderen, sterisch weniger anspruchsvollen Resten an dieser Position des Liganden wurden unter den Reaktionsbedingungen für potentielle C-H-Aktivierungen nur Zersetzungsprodukte erhalten. Von jedem Komplextyp der neuen C-H-aktivierten Übergangsmetallkomplexe wurden messbare Kristalle für eine Kristallstrukturanalyse erhalten, welche tiefere Einblicke in die Bindungssituation der neuen Liganden ermöglichte.
Die C-H-aktivierten Übergangsmetallkomplexe der neuen Liganden zeigen sehr gute Aktivitäten in verschiedenen katalytischen Anwendungen. Neben der stabilisierenden Wirkung des NHC mit starkem σ-Donorcharakter wird die hohe Elektronendichte am Übergangsmetallzentrum durch die Koordination des Carbanions weiter erhöht. Unter optimierten Bedingungen wurden in der Suzuki-Miyaura-Kupplung mit geringeren Katalysatorkonzentrationen der C-H-aktivierten Pd(II)-Komplexe eine große Bandbreite von sterisch und elektronisch gehinderten Chlorarylen mit verschiedenen Boronsäurederivaten erfolgreich zu Biarylen umgesetzt. Mit den C-H-aktivierten Ru(II)- und Ir(III)-Halbsandwichkomplexen der neuen Liganden wurden in der katalytischen Transferhydrierung von Acetophenon bereits bei geringen Katalysatorkonzentrationen von 0.15 mol% sehr hohe Ausbeuten erhalten. Die katalytisch hochaktiven Komplexe zeichneten sich außerdem durch eine hohe Stabilität unter den optimierten Reaktionsbedingungen aus. Die C-H-Aktivierung weist zwar keine Abhängigkeit vom sterischen Anspruch der variierten tertiären Aminosubstituenten auf, wurde aber für die anderen Reste in der 2-Position des Pyrimidinrings nicht beobachtet.
Mit der vorliegenden Dissertation wurde ein Werkzeug für die Erstellung volldigitaler binnendifferenzierter Arbeitsblätter im Regelunterricht Chemie evaluiert und weiterentwickelt, das ein motivations- und interessensförderndes Potential aufweist. Es konnten Zusammenhänge zur Benutzbarkeit der Anwendung und zum Cognitive Load hergestellt werden. Die Ergebnisse stützen damit die Erkenntnisse im Bereich des Lernens mit digitalen Medien. Die Integration von digitalen Werkzeugen in den Lernprozess ist berechtigt. Sie zeigen einerseits für Schüler:innen ein motivationsförderndes Potential und andererseits für Lehrende praktische Vorteile, indem auf vielfältige Weise Informationen dargeboten werden können – zum Beispiel im Bereich der Differenzierung. Mit HyperDocSystems können binnendifferenzierte digitale Arbeitsblätter erstellt und bearbeitet werden. Diese so genannten HyperDocs können von Lehrenden mit Lernhilfen in verschiedenen Darstellungsformen angereichert und von Lernenden volldigital im Browser mit einem Stylus oder der Tastatur bearbeitet werden.
Im Rahmen einer quasi-experimentellen Feldstudie wurde der Einsatz dieser neuartigen HyperDocs erstmals unter Betrachtung der intrinsischen Motivation und des Interesses, der Usability sowie der Nutzung des multimedialen Differenzierungsangebots analysiert. Die Studie fand über vier Schulstunden im Regelunterricht Chemie der Mittelstufe (Gymnasium / Gesamtschule) und Oberstufe (Gymnasium) statt. Dabei wurden auch der Cognitive Load und die tabletbezogenen Kompetenzen der Lernenden berücksichtigt. Die Ergebnisse lassen auf ein motivationsförderndes Potential der HyperDocs gegenüber analogen Arbeitsblättern schließen. Dabei zeigen sich Unterschiede zwischen den Geschlechtern, die zum Teil auf den Cognitive Load zurückzuführen sind und abhängig vom Alter der Lernenden (Mittel- und Oberstufe) auftreten. Die Lernhilfen werden in diesem Zusammenhang häufig aus Interesse und Neugier verwendet. Schüler:innen nutzen insbesondere Lernhilfen in Form von Text und Bild. Die Nutzungshäufigkeit des Differenzierungsangebots gibt jedoch nicht unmittelbar Aufschlüsse über die Motivation oder den Cognitive Load der Lernenden. Bei der Usability handelt es sich um ein wichtiges Kriterium beim Einsatz von digitalen Lernprogrammen, da sich unter anderem ein Zusammenhang zu den Variablen der intrinsischen Motivation und zum Cognitive Load beim Lernen mit HyperDocs herstellen lässt. Die Usability ist dabei jedoch abhängig vom Messzeitpunkt. HyperDocs weisen eine hohe Usability auf und können daher uneingeschränkt in der Mittel- und Oberstufe eingesetzt werden.
Weighted k-cardinality trees
(1992)
We consider the k -CARD TREE problem, i.e., the problem of finding in a given undirected graph G a subtree with k edges, having minimum weight. Applications of this problem arise in oil-field leasing and facility layout. While the general problem is shown to be strongly NP hard, it can be solved in polynomial time if G is itself a tree. We give an integer programming formulation of k-CARD TREE, and an efficient exact separation routine for a set of generalized subtour elimination constraints. The polyhedral structure of the convex huLl of the integer solutions is studied.
The Chained Lin-Kernighan algorithm (CLK) is one of the best heuristics to solve Traveling Salesman Problems (TSP). In this paper a distributed algorithm is proposed, were nodes in a network locally optimize TSP instances by using the CLK algorithm. Within an Evolutionary Algorithm (EA) network-based framework the resulting tours are modified and exchanged with neighboring nodes. We show that the distributed variant finds better tours compared to the original CLK given the same amount of computation time. For instance fl3795, the original CLK got stuck in local optima in each of 10 runs, whereas the distributed algorithm found optimal tours in each run requiring less than 10 CPU minutes per node on average in an 8 node setup. For instance sw24978, the distributed algorithm had an average solution quality of 0.050% above the optimum, compared to CLK's average solution of 0.119% above the optimum given the same total CPU time (104 seconds). Considering the best tours of both variants for this instance, the distributed algorithm is 0.033% above the optimum and the CLK algorithm 0.099%.
Stadtumbau und Kultur
(2015)
Gerade in schrumpfenden Kommunen erscheint es als besonders
wichtig, die Realität des Schrumpfens, die damit verbundenen Verlusterfahrungen und notwendigen städtischen Umbauprozesse mit anderen Mitteln und über neue Zugänge besser verständlich zu machen und Betroffene zu aktivieren. In letzter Zeit werden hierfür
vermehrt auch künstlerische Ausdrucksformen genutzt. Basierend auf eigenen Erfahrungen des Autors ist es zentrales Anliegen der Arbeit, den Gegenstand solcher kulturellen Prozesse im Stadtumbau als Forschungsgegenstand aufzurufen und genauer zu untersuchen.
Eine deutschlandweite Befragung der Stadtumbaukommunen liefert erstmals statistisches Material zum Thema, das dann in vier vertiefenden Fallstudien anschaulich wird. Für die Planungspraxis werden mögliche Aktionsfelder katalogisiert und Anwendungsprinzipien
abgeleitet. Am Ende wird deutlich, dass Kunst und Kultur nicht schmückendes Beiwerk der Planung sondern ein eigenständiger Bestandteil im Stadtumbauprozess sein können.
Das Handlungsreisendenproblem ist eines der bekanntesten NP-vollständigen kombinatorischen Optimierungsprobleme. Algorithmen mit unterschiedlichen Konzepten und Strategien wurden entwickelt, die sich in Lösungsqualität und Laufzeit unterscheiden. Ein vergleichsweise neuer Ansatz stellt jedoch das Kombinieren vorhandener Lösungen dar. Hier werden die Kantenmengen gegebener Handlungsreisendertouren als Ausgangsbasis für weitere Optimierungen verwendet. Erste Veröffentlichungen zu diesem Gebiet stellen bereits vielversprechende Ergebnisse vor, die nachfolgend vertieft evaluiert werden.
Das Ziel dieses Projekts war es, anhand von empirischen Untersuchungen klassische statistische Verfahren und aktuelle Methoden des Maschinellen Lernens mit einem Ansatz zu vergleichen, der in der Arbeitsgruppe entworfen und theoretisch analysiert wurde. Implementiert wurden f"unf Verfahren, einige davon in verschiedenen Varianten: FeedForward Neuronale Netze, Entscheidungsbäume, Bayes Entscheidungen, die auf Chow-Expansionen beruhen, Harmonische Analyse und die Methode des N"achsten Nachbarn. Als Referenzmassstab wurden Vorhersagen herangezogen, die den Trend oder den Mittelwert der letzten letzten Beobachtungen vorhersagten. Als Daten standen 16 Zeitreihen von Aktien- und Devisenkursen zur Verf"ugung. Jede der Zeitreihen bestand aus 2000 Daten, von denen die ersten 1500 zum Training und die restlichen 500 für den Vergleich der Verfahren dienten. Dabei zeigte es sich, dass die naiven Referenzverfahren einen recht guten Pr"ufstein darstellten. Die Bayes-Entscheidungen und die Entscheidungsbäume erwiesen sich als besonders stark und übertrafen die Referenzmethoden fast immer. Neuronale Netze und die Methode des n"achsten Nachbarn waren etwa genausogut, während die Harmonische Analyse für kurzfristige Vorhersagen schlechter und für langfristige besser war. Bei Entscheidungsbäumen und Neuronalen Netzen fiel auf, dass kleine B"aume bzw. Netze bessere Ergebnisse lieferten als grosse.
Im Forschungsprojekt „Innovationen in der Bauwirtschaft – Von der Idee bis zum Markt“ wurde in Zusammenarbeit mit acht Industriepartnern an einer Zusammenstellung von geeigneten Konzepten zur umfassenden Begleitung des betrieblichen Innovationsmanagements in der Baubranche gearbeitet.
Das Wissensmodul 2 „Innovationsideen erfolgreich umsetzen“ bildet den zweiten Teil der im Forschungsprojekt entstandenen Broschürenreihe und ergänzt die in Wissensmodul 1 vorgestellten Themenfelder. Während in Wissensmodul 1 auf die Schaffung allgemeiner Rahmenbedingungen für Innovationsfähigkeit und Innovationsbereitschaft in Unternehmen der Bauwirtschaft eingegangen wird, stehen in diesem Wissensmodul 2 Konzepte im Vordergrund, welche die Umsetzung konkreter Innovationsvorhaben und deren anschließende „Vermarktung“ an die jeweilige Zielgruppe unterstützen. Ausgedrückt in den gängigen Fachbegriffen der Innovationsforschung bezieht sich diese Broschüre demnach auf die drei Phasen der Ideenakzeptierung, der Ideenrealisierung und der Diffusion der entstandenen Innovation im Innovationsprozess. Die in der Broschüre behandelten Themenfelder sind die Chancen-Risiken-Analyse zum Zeitpunkt der Ideenauswahl, das Innovationsprojektmanagement für die Umsetzung der Innovationsidee und schließlich die gezielte Ansprache und Einbindung von Personengruppen oder Organisationen, die als „Adoptoren“ für die Übernahme und Akzeptanz der Innovation besonders wichtig sind.
Das Ziel beider Broschüren ist es, Unternehmen der Bauwirtschaft bei ihrem Weg von der Entwicklung bis hin zur Vermarktung von Innovationsideen durch praxisnah beschriebene Konzepte und Methoden zu unterstützen. Aufbauend auf einer Analyse der vorhandenen Strukturen und Vorgehensweisen bei der Entwicklung und Umsetzung von Innovationsideen der im Projekt beteiligten Partnerunternehmen, wurden hierfür zunächst bewährte Konzepte und Gestaltungsansätze des Innovationsmanagements ausgewählt. Diese wurden anschließend zusammen mit den Unternehmenspartnern auf ihre Anwendbarkeit und Eignung sowie ihren Nutzen für ein betriebliches Management von Innovationsprozessen in der bauwirtschaftlichen Praxis untersucht.
Das in dieser Broschüre vorgestellte Wissensmodul 1 „Innovationsfähigkeit und -bereitschaft in Unternehmen der Bauwirtschaft fördern“ bildet den ersten Teil der zweiteiligen Broschürenreihe des Forschungsprojekts „Innovationen in der Bauwirtschaft – Von der Idee bis zum Markt“.
Das Ziel beider Broschüren ist es, Unternehmen der Bauwirtschaft bei ihrem Weg von der Entwicklung bis hin zur Vermarktung von Innovationsideen durch praxisnah beschriebene Konzepte und Methoden zu unterstützen. Aufbauend auf einer Analyse der vorhandenen Strukturen und Vorgehensweisen bei der Entwicklung und Umsetzung von Innovationsideen der im Projekt beteiligten Partnerunternehmen, wurden hierfür zunächst bewährte Konzepte und Gestaltungsansätze des Innovationsmanagements ausgewählt. Diese wurden anschließend zusammen mit den Unternehmenspartnern auf ihre Anwendbarkeit und Eignung sowie ihren Nutzen für ein betriebliches Management von Innovationsprozessen in der bauwirtschaftlichen Praxis untersucht.
In Wissensmodul 1 wird zunächst auf die grundlegenden Rahmenbedingungen eines erfolgreichen Innovationsmanagements eingegangen. So steht noch vor der eigentlichen Umsetzung eines konkreten Innovationsprojekts (Gegenstand von Wissensmodul 2) eine gute Idee („Invention“), deren Entstehung und Weiterentwicklung nicht dem Zufall überlassen werden sollte. Mitarbeiter, die in ihrem betrieblichen Erfahrungskontext – aber auch darüber hinaus – bewusst ihre Augen für Verbesserungen und neuartige Problemlösungen offen halten, leisten hierzu einen entscheidenden Beitrag. Dafür müssen sie wissen, wohin die Reise ihres Unternehmens gehen soll, das heißt, welche Vision und strategischen Ziele die Unternehmensentwicklung leiten und welchen Beitrag der einzelne Mitarbeiter dazu leisten kann. Wenn die entstandenen Ideen im Unternehmen dann „auf fruchtbaren Boden fallen“, also in einer offenen Kultur der Wertschätzung weiterentwickelt werden und nicht im betrieblichen Alltag „verloren gehen“, sind schon wichtige Rahmenbedingungen für eine erfolgreiche Umsetzung von Innovationsvorhaben geschaffen. Um dies sicherzustellen, ist auch ein professioneller Umgang mit entstandenen Ideen und dem im Unternehmen vorhandenen Problemlösungswissen entscheidend. Nur dann kann bestehendes Know-how im Innovationsprozess genutzt und die Auswahl erfolgversprechender Innovationsideen gefördert werden.
Die Arbeit fokussiert sich auf den menschlichen Einflussfaktor auf der Führungsebene im Veränderungsprozess, speziell in Bezug auf den filialbasierten Einzel-handel. Im Zentrum steht hierbei die Fragestellung, welche Kompetenzen Führungskräfte mitbringen müssen, um einen Veränderungsprozess erfolgreich bewältigen zu können. Des Weiteren ist zu eruieren, wie sich Personen in Führungspositionen in Zeiten des Wandels verhalten müssen, damit der Veränderungsprozess zielführend verläuft.
Alle derzeit in Deutschland gültigen Bemessungsnormen sind für Neubauten oder neu anzufertigende Bauteile konzipiert. Diese Normen unterliegen dem semi-probabilistischen Sicherheitskonzept, das mithilfe von Teilsicherheitsbeiwerten und charakteristischen Werten der Materialien bzw. Einwirkungen die in DIN 1055-100 (2001) geforderte Zuverlässigkeit sicherstellen soll. Die Nachbemes-sung von Stahlbetonbauteilen im Bestand, die beispielweise eine direkte Lasterhöhung infolge einer Nutzungsänderung erfahren, hat grundsätzlich nach aktueller DIN 1045-1 (2008) zu erfolgen. Die direkte Anwendung der Nachweisfor-mate der DIN 1045-1 ist aber in vielen Fällen nicht zielführend, da alle Unsicherheiten der Planungs- und Errichtungsphase durch die Teilsicher-heitsbeiwerte mit abgedeckt werden. Im Bestand können die Unsicherheiten z. B. der Geometrie, der Materialkennwerte sowie Lage und Menge der vorhandenen Bewehrung oder der ständigen Einwirkungen infolge einer qualifizierten Bestandsaufnahme eingeschränkt werden. Die Tatsache, dass die oben genannten streuenden Größen genauer quantifiziert werden können, erlaubt eine Anpassung der Teilsicherheitsbeiwerte an die am Bauwerk vorherrschenden Streuungen der Festigkeitswerte und geometrischen Größen. Ziel dieser Arbeit ist die Ausweisung modifizierter Teilsicherheitsbeiwerte unter Beachtung des geforderten Zielzuverlässigkeitsniveaus für im Bestand übliche Nachweisformate. Die tabelliert ausgewiesenen Teilsicherheitsbeiwerte auf Widerstandsseite ermöglichen je nach angetroffener Materialstreuung eine praxisgerechte, wirtschaftliche und erfolgreiche Nachweisführung von Bestandsbauten bei Anwendung des semiprobabilistischen Teilsicherheitskonzeptes.
In der vorliegenden Arbeit werden die Synthesen neuer Imidovanadium(V)-Verbindungen vorgestellt. Die analytischen Daten werden diskutiert und die Komplexe charakterisiert. Ergänzt werden diese Untersuchungen durch Reaktivitätsstudien, die wiederum die Charakterisierung der Produkte erfordert. Die Umsetzung von Phosphaalkinen mit Imidovanadium-Komplexen stellt einen Schwerpunkt der Arbeit dar. Die erhaltenen organischen bzw. anorganischen Produkte werden isoliert und charakterisiert. Mögliche Reaktionsmechanismen werden diskutiert und anhand nachgewiesener Neben- bzw. Zwischenprodukte untermauert. Ein weiterer Schwerpunkt dieser Arbeit ist das Studium des Reaktionsverhaltens der Imidovanadium(IV)-Verbindung tBuNVCl2 DME. Das Disproportionierungsverhalten bei den Substitutionsreaktionen mit Nukleophilen der 14., 15., und 16. Gruppe wird untersucht; neue Komplexe werden isoliert und charakterisiert.
In recent years, Augmented Reality has made its way into everyday devices. Most smartphones are AR-enabled, providing applications like pedestrian navigation, Point of Interest highlighting, gaming, and retail. The high-tech industry has been focused on developing smartglasses to present virtual elements directly in front of the viewers’ eyes, allowing more immersive AR experiences. Smartglasses can also be deployed while driving for an enhanced and more safe experience. A 3D registered augmentation of the real world with navigation arrows, lane highlighting, or warnings can decrease the duration of inattentiveness regarding driving due to glancing at other screens. Enabling HMDs’ usage inside cars requires knowing its exact position and orientation (6-DoF pose) in the car. This necessitates sensors either built inside the AR glasses or the car. In a car, the latter option called outside-in tracking is more attractive due to two reasons. First, AR glasses containing different sensor sets exist, hampering finding one single solution for different HMDs. Second, the view from the driver’s perspective combines static interior and dynamic exterior features, complicating finding a reliable set of features. Nowadays, tracking methods utilize Deep Learning for a more generalizable and accurate derivation of the 6-DoF pose. They achieve outstanding results for head and object pose estimation. In this thesis, we present Deep Learning-based in-car 6-DoF AR glasses pose estimation approaches. The goal of the work is an exploration of accurate HMD pose estimation with the help of neural networks. The thesis achieves this by investigating numerous pose estimation techniques. Evaluations on the recorded HMDPose dataset constitute the foundation for this, consisting of infrared images of drivers wearing different HMD models. First, algorithms based on images are derived and evaluated on the dataset. For comparison, we carried out an evaluation on image-based methods considering time information. Further, pose estimation based on point clouds, generated out of infrared images, are analyzed. An investigation of various head pose estimation methods to derive its potential use are conducted. In conclusion, we introduce several highly accurate AR glasses pose estimators. The HMD pose alone achieves better results than the head pose and the combination of the head and HMD. Especially our image-based methods with optional usage of time information can efficiently and accurately regress the AR glasses pose. Our algorithms show excellent estimation results on live data when deployed inside a car, making seamless in-car HMD usage possible in the future.
Das Kompetenzzentrum Weiterbildung Hessen (KW Hessen) bietet ein begleitendes und
prüfungsvorbereitendes Seminar- und Mentoringprogramm für Ärzte in Weiterbildung
und Train-the-Trainer Basis- und Aufbauseminare für Weiterbildner an. Im Rahmen
dieser Tätigkeit ist es aufgefallen, dass seitens der Teilnehmer wiederholt von - scheinbar
unvermittelt - gescheiterten Praxisübergaben berichtet wurde. Aus diesen Berichten ist
der Gedanke und damit der Wunsch entstanden, ein die Praxisübergabephase
begleitendes Coaching für abgebende und übernehmende Ärzte zu entwickeln und
anzubieten.
Ziel des zu entwickelnden Coachings ist es, die Übergabephase und die mit ihr
einhergehenden, oft tiefgreifenden, Veränderungsprozesse in den Hausarztpraxen auf
struktureller und emotionaler Ebene individuell und aufgabenzentriert zu unterstützen.
Dieser Ansatz wurde dem Hessischen Ministerium für Soziales und Integration (HMSI)
in Form eines Projektantrags zur Realisierung eines Praxisübergabe-/übernahme-
Coachings (Pü²C) vorgestellt, dort positiv beschieden und in der Folge im Rahmen des
Hessischen Gesundheitspaktes 3.0 als Beitrag zur Stärkung der ambulanten
Gesundheitsversorgung in Durchführungsverantwortung des Kompetenzzentrums
Weiterbildung Hessens beschlossen.
Die hier vorgelegte Studie dokumentiert die Bedarfserhebung für dieses Vorhaben und
untersucht den Wunsch der Ärzteschaft nach einem Praxisübergaben/-nahmen
begleitenden Coaching empirisch. Hierzu wurde eine multimethodische empirische
Studie durchgeführt, deren Gesamtkonzeption auf Seite 50 der vorgelegten
Forschungsarbeit grafisch dargestellt ist.
Die Ergebnisse zeigen sehr deutlich, dass sowohl die für diese Studie befragten Experten
der Einführung eines solchen Coachings außerordentlich positiv gegenüberstehen, als
auch, dass, insbesondere seitens der (Fach-)Ärzte mit Niederlassungsabsicht, respektive
der erfolgreichen Absolventen der Facharztprüfung Allgemeinmedizin in Hessen des
Jahres 2020, ein klarer und unmissverständlicher Wunsch nach einem solchen Angebot
besteht.
Darüber hinaus wurde mittels binär logistischer Regressionsanalyse der Einfluss von
soziostrukturellen Merkmalen, den Persönlichkeitsdimensionen, sowie von Vorerfahrungen und Zukunftsvorstellungen der Fachärzte für Allgemeinmedizin auf die
Coaching-Inanspruchnahmeabsicht untersucht.
Es konnte gezeigt werden, dass Vorerfahrungen im Mentoring und eine langfristige
Niederlassungsabsicht geeignete Prädiktoren für den Wunsch nach einem
Praxisübergabe-/übernahme-Coaching sind, wohingegen dies - auf Basis der
vorliegenden Daten - weder für die soziostrukturellen Merkmale, noch für die
Persönlichkeitsdimensionen der Befragten gilt, da diese keinen signifikanten Beitrag zur
Varianzaufklärung in Bezug auf den Wunsch nach Inanspruchnahme eines
Praxisübergabe-/übernahme-Coachings leisten.
Durch ein geeignetes Praxisübergabe-/übernahme-Coaching könnte es gelingen, dass
anberaumten Praxisübergaben aufgrund höherer Zufriedenheit beim Übergabe-
/Übernahmeprozess der involvierten Akteure ein höherer Erfolg beschieden sein dürfte
als ohne eine solche Begleitung. Vollständig aus- und weitergebildete Fachärzte für
Allgemeinmedizin könnten auf diese Weise umfassender in die Patientenversorgung
eingebunden werden. Evtl. kann ein solches Coaching in Einzelfällen sogar dazu führen,
dass Niederlassungen vorgezogen, evtl. sogar Niederlassungsabsichten bzw.
Praxisübergabewünsche geweckt werden. Die Chancen hierfür werden als umso besser
eingeschätzt, je schneller die Coachings starten können – einfach, solange und damit es
die zu übernehmenden Praxen überhaupt noch gibt. Keineswegs zuletzt
gesundheitspolitisch betrachtet, scheint es sich bei den Coachings um eine innovative,
vielversprechende und letztlich auch kostengünstige Maßnahme zur Sicherung der
ambulanten Gesundheitsversorgung im und durchaus auch gerade auf dem Lande zu
handeln.
In Gesamtwürdigung aller vorliegenden Ergebnisse empfiehlt der Verfasser der
vorgelegten Studie, die Konzeptspezifizierung für das Praxisübergabe-/übernahme-
Coaching (wieder) aufzunehmen und insbesondere die Durchführung einer qualitativ
hochwertigen, standardisierten Befragung in Form einer Vollerhebung der in Hessen
niedergelassenen Hausärzte ab einem Alter von 60 Jahren (bzw. zumindest in Form einer
Zufallsstichprobe aus dieser Grundgesamtheit) zu forcieren.
Parallel hierzu sollte zur Vorbereitung der Einführung eines generellen
Coachingangebots, auch mit Blick auf die Notwendigkeit der Entwicklung eines für
dieses Format geeigneten Evaluationsinstrumentariums, zunächst die intensive Begleitung einiger weniger Praxisübergaben/-übernahmen im Sinne eines Pilotprojektes
erfolgen.
Die Verwendung von Sheet-Molding-Compounds (SMCs) unter dauerhaft wirkenden
statischen Lasten und erhöhten Temperaturen lässt die Frage nach der Materialkriechneigung
aufkommen. Während der Kriecheffekt bisher viel Aufmerksamkeit im thermoplastischen
Polymerbereich erhielt, zeigt diese Arbeit auf, dass auch duroplastische,
wirrfaserverstärkte Matrixsysteme von dem Phänomen in kritischen Größenordnungen
betroffen sein können. Es wurden Kriechuntersuchungen an einem glas- und einem
carbonfaserverstärkten SMC durchgeführt. Die Untersuchungen wurden bei einer
Temperatur von 120 °C durchgeführt, welche von einer möglichen Anwendung in einem
E-Motor herrührt. Die Charakterisierung des Kriechens in der Faserebene zeigte
die Schwierigkeit einer zuverlässigen Kriechversagensvorhersage bei der Beanspruchung
in der Faserebene auf. Kriechdehnungsverläufe zeigen deutliche Unterschiede
bei Beanspruchung auf Zug und Druck bei den vorgestellten Wirrfasermaterialien.
Gängige FE- (Finite Elemente) Anwendungen sind, wie Untersuchungen in dieser Arbeit
feststellen, über Standardverfahren nicht in der Lage, zuverlässige Kriechvorhersagen
von Faserkunststoffverbundbauteilen bei einer Mischbeanspruchung vorherzusagen.
Es wurden mögliche Implementierungsansätze für FE-Programme vorgeschlagen,
um eine beschriebene Kriechvorhersage zu bewerkstelligen.
Es wurde jedoch herausgefunden, dass die isotrope Kriechmodellierung, welche in
gängigen FE-Programmen bereits implementiert ist, bei uniaxialem Spannungszustand
im eigentlich anisotropen SMC-Material verwendbar ist. Ein solcher uniaxialer
Spannungszustand mit relevantem Anwendungsszenario ist beispielsweise bei Verschraubungen
vorhanden. Die Druckbeanspruchung im Faserkunststoffverbundmaterial
durch die Schraubenvorspannkraft führt zu einem Kriechen in Dickenrichtung. Die
Charakterisierung des Kriechens in Dickenrichtung ermöglichte die zuverlässige Vorhersage,
der über die Zeit schwindenden Vorspannkraft von verschraubten SMC-Testplatten.
Vorteilhaft ist hier, für die künftige Auslegung von verschraubten SMC-Verbindungselementen,
dass die Kriechuntersuchungen für die verwendete Materialkarte in
der Simulation vergleichbar geringen Versuchsaufwand benötigen. Die Messung kann
in einer Universalprüfmaschine durchgeführt werden. Die Basis für die Kriechmessdaten
bildeten zwei Druckversuche an gestackten Coupons über einen Zeitraum von je
84 h.Die Extrapolation dieser Messdaten ermöglicht eine zuverlässige Schraubenkraftvorhersage für Zeiten von (mindestens) 1000 h. Die Kriechmessdaten
wurden mit dem Norton-Bailey-Kriechgesetz approximiert. Das Norton-Bailey-Kriechgesetz
ist standardmäßig in allen gängigen FE-Programmen verwendbar, was dem
Anwender eine einfache Berechnung ermöglicht.
Im Rahmen des Sonderforschungsbereichs SFB314, Projekt X9 "Lernen und Analogie in technischen Expertensystemen", wurde die Verwendbarkeit von Techniken des fallbasierten Schliessens in wissens- basierten Systemen untersucht. Als prototypische Anwendungsdomäne wurde die Arbeitsplanerstellung rotationssymmetrischer Werkstücke gewählt. Im vorliegenden Beitrag wird ein Modell der Arbeits- planerstellung unter Berücksichtigung der verschiedenen, bisher als unabhängig behandelten Planungsmethoden beschrieben. Auf der Basis einer modelbasierte Wissensakquistion aus in Unternehmen verfügbaren Arbeitsplänen wird ein Ausschnitt der Arbeitsplanerstellung, die Aufspannplanung, detailliert. Die Anwendbarkeit wurde durch eine prototypische Realisierung nachgewiesen.
Das bewusste in die Welt Setzen künftiger Generationen sichert den Fortbestand der Menschheit. Doch es scheint Vorbehalte hinsichtlich der Einstellungen und des Verhaltens zwischen den unterschiedlichen Generationen zu geben. Auch in Organisationen treffen derzeit vier verschiedene Generationen aufeinander, die unterschiedlich geprägt wurden und Wege der Kooperation in der Bewältigung ihrer Arbeitsaufgaben zu finden haben. Kleine und mittelständische Unternehmen machen in Deutschland einen Anteil von über 99 % der Gesamtunternehmen aus und beschäftigten 2023 etwa 55 % der Erwerbstätigen. In Zeiten des Fachkräftemangels und anstehender Nachfolgeregelungen stehen diese Unternehmen, die häufig hierarchisch und strukturell anders aufgestellt sind als große Betriebe, vor Herausforderungen, in denen generationenrelevante Faktoren einen wichtigen Einfluss haben. Diese Masterarbeit untersucht anhand von Literaturrecherchen im ersten Schritt die Frage, worin Unterschiede und Gemeinsamkeiten im Verhalten von Menschen verschiedener Generationszugehörigkeiten bestehen. Im Mittelpunkt der Betrachtung steht die Forschungsfrage: Welche Faktoren ermöglichen ein gelingendes Führungsverhalten in KMU im Hinblick auf die unterschiedlichen Generationen? Im Verlauf dieser Masterarbeit wird eine Kohärenz der Dimensionen Generationenspezifika, KMU und Führung hergestellt, und anhand des Verhaltensmodells von Comelli/Rosenstiel werden generationenbezogene Handlungsoptionen für Führungskräfte kleiner und mittelständischer Unternehmen erarbeitet. Dazu werden Möglichkeiten vorgeschlagen, wie durch Organisationsentwicklungsmaßnahmen die Einführung generationenspezifischer Führung gelingen kann.
The present thesis deals with a novel approach to increase the resource usage in digital communications. In digital communication systems, each information bearing data symbol is associated to a waveform which is transmitted over a physical medium. The time or frequency separations among the waveforms associated to the information data have always been chosen to avoid or limit the interference among them. By doing so, n the presence of a distortionless ideal channel, a single receive waveform is affected as little as possible by the presence of the other waveforms. The conditions necessary to meet the absence of any interference among the waveforms are well known and consist of a relationship between the minimum time separation among the waveforms and their bandwidth occupation or, equivalently, the minimum frequency separation and their time occupation. These conditions are referred to as Nyquist assumptions. The key idea of this work is to relax the Nyquist assumptions and to transmit with a time and/or frequency separation between the waveforms smaller than the minimum required to avoid interference. The reduction of the time and/or frequency separation generates not only an increment of the resource usage, but also a degradation in the quality of the received data. Therefore, to maintain a certain quality in the received signal, we have to increase the amount of transmitted power. We investigate the trade-off between the increment of the resource usage and the correspondent performance degradation in three different cases. The first case is the single carrier case in which all waveforms have the same spectrum, but have different temporal locations. The second one is the multi carrier case in which each waveform has its distinct spectrum and occupies all the available time. Finally, the hybrid case when each waveform has its unique time and frequency location. These different cases are framed within the general system modelling developed in the thesis so that they can be easily compared. We evaluate the potential of the key idea of the thesis by choosing a set of four possible waveforms with different characteristics. By doing so, we study the influence of the waveform characteristics in the three system configurations. We propose an interpretation of the results by modifying the well-known Shannon capacity formula and by explicitly expressing its dependency on the increment of resource usage and on the performance degradation. The results are very promising. We show that both in the case of a single carrier system with a time limited waveform and in the case of a multi-carrier system with a frequency limited waveform, the reduction of the time or frequency separation, respectively, has a positive effect on the channel capacity. The latter, depending on the actual SNR, can double or increase even more significantly.
Gegenstand der vorliegenden Arbeit war die Entwicklung neuartiger molekularer Kapseln auf Basis von verbrückten Bis(cyclopeptiden) und die Untersuchung ihrer Anionenaffinität in wässrigen Lösungsmittelgemischen. Als Reaktionen zur Verbrückung der Cyclopeptidringe wurden die Olefinmetathese und die 1,3-dipolare Cycloaddition von Alkinen und Aziden (Click-Reaktion) verwendet, die unter thermodynamischer bzw. kinetischer Kontrolle verlaufen. Neben den dreifach verbrückten Kapseln wurden ebenso die analogen Bis(cyclopeptide) mit nur einem Linker synthetisiert und untersucht. Die Charakterisierung der Bindungseigenschaften dieser Verbindungen hinsichtlich der Komplexierung verschiedener anorganischer Anionen erfolgte mittels Massenspektrometrie, NMR-Spektroskopie und isothermer Titrationskalorimetrie. Alle untersuchten Verbindungen bilden 1:1 Komplexe mit den Anionen, indem sie diese in ihrem Hohlraum über Wasserstoffbrücken binden. Allerdings hat die Anzahl der Linker einen bedeutenden Einfluss auf das Bindungsverhalten der Bis(cyclopeptide). Im Gegensatz zu den neuen, sowie bereits bekannten, einfach verbrückten Bis(cyclopeptiden), verläuft die Komplexierung von Sulfat durch die molekulare Kapsel mit drei Triazollinkern endotherm. Der ungünstige enthalpische Beitrag zur Bindung wird von einem sehr günstigen entropischen Beitrag überkompensiert, was zu einer im Vergleich höheren Sulfataffinität führt. Die Ursache dieses unerwarteten Bindungsverhaltens liegt vor allem an einer schlechten Vororganisation der Kapsel. Ein weiterer großer Unterschied zwischen den einfach und dreifach verbrückten Bis(cyclopeptiden) liegt in der unterschiedlichen Kinetik bei der Sulfatkomplexierung. Durch die Erhöhung der Anzahl der Linker reduziert sich die Geschwindigkeit von Komplexierung und Dekomplexierung deutlich. Diese Untersuchungen lieferten neue Erkenntnisse, wie sich strukturelle Veränderungen auf das Rezeptorverhalten derartiger Systeme auswirken.
Function of two redox sensing kinases from the methanogenic archaeon Methanosarcina acetivorans
(2019)
MsmS is a heme-based redox sensor kinase in Methanosarcina acetivorans consisting of alternating PAS and GAF domains connected to a C-terminal kinase domain. In addition to MsmS, M. acetivorans possesses a second kinase, MA0863 with high sequence similarity. Interestingly, MA0863 possesses an amber codon in its second GAF domain, encoding for the amino acid pyrrolysine. Thus far, no function of this residue has been resolved. In order to examine the heme iron coordination in both proteins, an improved method for the production of heme proteins was established using the Escherichia coli strain Nissle 1917. This method enables the complete reconstitution of a recombinant hemoprotein during protein production, thereby resulting in a native heme coordination. Analysis of the full-length MsmS and MA0863 confirmed a covalently bound heme cofactor, which is connected to one conserved cysteine residue in each protein. In order to identify the coordinating amino acid residues of the heme iron, UV/vis spectra of different variants were measured. These studies revealed His702 in MsmS and the corresponding His666 in MA0863 as the proximal heme ligands. MsmS has previously been described as a heme-based redox sensor. In order to examine whether the same is true for MA0863, redox dependent kinase assays were performed. MA0863 indeed displays redox dependent autophosphorylation activity, which is independent of heme ligands and only observed under oxidizing conditions. Interestingly, autophosphorylation was shown to be independent of the heme cofactor but rather relies on thiol oxidation. Therefore, MA0863 was renamed in RdmS (redox dependent methyltransferase-associated sensor). In order to identify the phosphorylation site of RdmS, thin layer chromatography was performed identifying a tyrosine as the putative phosphorylation site. This observation is in agreement with the lack of a so-called H-box in typical histidine kinases. Due to their genomic localization, MsmS and RdmS were postulated to form two-component systems (TCS) with vicinal encoded regulator proteins MsrG and MsrF. Therefore, protein-protein interaction studies using the bacterial adenylate two hybrid system were performed suggesting an interaction of RdmS and MsmS with the three regulators MsrG/F/C. Due to these multiple interactions these signal transduction pathways should rather be considered multicomponent system instead of two component systems.
We argue in this paper that sophisticated mi-croplanning techniques are required even formathematical proofs, in contrast to the beliefthat mathematical texts are only schematicand mechanical. We demonstrate why para-phrasing and aggregation significantly en-hance the flexibility and the coherence ofthe text produced. To this end, we adoptedthe Text Structure of Meteer as our basicrepresentation. The type checking mecha-nism of Text Structure allows us to achieveparaphrasing by building comparable combi-nations of linguistic resources. Specified interms of concepts in an uniform ontologicalstructure called the Upper Model, our se-mantic aggregation rules are more compactthan similar rules reported in the literature.
This paper outlines the microplanner of PROVERB , a system that generates multilingual text from machine-found mathematical proofs. The main representational vehicle is the text structure proposed by Meteer. Following Panaget, we also distinguish between the ideational and the textual semantic categories, and use the upper model to replace the former. Based on this, a further extension is made to support aggregation before realization decisions are made. While our the framework of our macroplanner is kept languageindependent, our microplanner draws on language specific linguistic sources such as realization classes and lexicon. Since English and German are the first two languages to be generated and because the sublanguage of our mathematical domain is relatively limited, the upper model and the textual semantic categories are designed to cope with both languages. Since the work reported is still in progress, we also discuss open problems we are facing.
This paper describes the linguistic part of a system called PROVERB, which transforms, abstracts,and verbalizes machine-found proofs into formatedtexts. Linguistically, the architecture of PROVERB follows most application oriented systems, and is a pipelined control of three components. Its macroplanner linearizes a proof and plans mediating communicative acts by employing a combination of hierarchical planning and focus-guided navigation. The microplanner then maps communicative acts and domain concepts into linguistic resources, paraphrases and aggregates such resources to producethe final Text Structure. A Text Structure contains all necessary syntactic information, and can be executed by our realizer into grammatical sentences. The system works fully automatically and performs particularly well for textbook size examples.
This paper outlines the linguistic part of an implemented system namedPROVERB[3] that transforms, abstracts, and verbalizes machine-found proofs innatural language. It aims to illustrate, that state-of-the-art techniques of natural language processing are necessary to produce coherent texts that resemble those found in typical mathematical textbooks, in contrast to the belief that mathematical texts are only schematic and mechanical.The verbalization module consists of a content planner, a sentence planner, and a syntactic generator. Intuitively speaking, the content planner first decides the order in which proof steps should be conveyed. It also some messages to highlight global proof structures. Subsequently, thesentence planner combines and rearranges linguistic resources associated with messages produced by the content planner in order to produce connected text. The syntactic generat or finally produces the surface text.
This paper outlines an implemented system named PROVERBthat transforms and abstracts machine-found proofs to natural deduction style proofs at an adequate level of abstraction and then verbalizesthem in natural language. The abstracted proofs, originally employedonly as an intermediate representation, also prove to be useful for proofplanning and proving by analogy.
The field of 3D reconstruction is one of the most important areas in computer
vision. It is not only of theoretical importance, but it is also increasingly
used in practical applications, be it in reverse engineering, quality control or
robotics. In practical applications, where high precision reconstructions are
required for a large variety of different objects, structured light reconstruction
is often the method of choice. It allows to achieve accurate and dense
point correspondences over the entire scene, regardless of object texture or
features. Techniques that project phase-shifted sinusoidals are widely used
because, based on the harmonic addition theorem, they theoretically allow
surface encoding in full camera resolution invariant to the object’s coloring.
In this thesis, a fully-automatic reconstruction pipeline based on the sinusoidal
structured light technique is presented. From the projection of the
fringe patterns for encoding the object’s surface, the robust matching of the
point correspondences in sub-pixel accuracy, the auto-calibration of the setup
including the active device, up to the fully-automatic alignment of the partial
reconstructions, all steps will be described and examined in detail. During
that, improvements will be achieved in the area of matching, obtaining highly
accurate and topologically consistent correspondences in sub-pixel precision
between all the devices used. Furthermore, the auto-calibration from point
correspondences, based on the epipolar geometry of the structured light system
is improved. Weaknesses of previous methods in the extraction of focal
lengths from the fundamental matrices are discovered and addressed. The partial
point clouds, reconstructed from the auto-calibrated devices, are finally
pre-aligned using a neural network approach, based on light-resistant optical
flow estimation and subsequently refined using a global approach.
The weaknesses of the structured light method itself will also be addressed
and partially fixed during the course of this work. Since it is an active reconstruction method, certain surface properties can affect the quality of the
reconstruction. It will be shown how these problems can be eliminated or at
least be reduced using an iterative approach that combines fringe patterns with
an inverse texture. Another weakness of the method is its time-consuming acquisition procedure. Typically, a large number of horizontal and vertical fringe
patterns are projected onto the scene to achieve high-precision encoding despite
the limited dynamic range and resolution of the projector. Therefore, a
method will be presented which allows to combine the horizontal and vertical
patterns for a simultaneous two dimensional surface encoding.
In der Automobilindustrie muss der Nachweis von Bauteilzuverlässigkeiten auf statistischen Verfahren basieren, da die Bauteilfestigkeit und Kundenbeanspruchung streuen. Die bisherigen Vorgehensweisen der Tests führen häufig Fehlentscheidungen bzgl. der Freigabe, was unnötige Design-Änderungen und somit hohe Kosten bedeuten kann. In vorliegender Arbeit wird der Ansatz der partiellen Durchläuferzählung entwickelt, welche die statische Güte der bisherigen Testverfahren (Success Runs) erhöht.
Von sicherheitsrelevanten Bauteilen im Automobilbau verlangt man, dass beim Kunden bis zur Zeit/Strecke q0 höchstens ein Anteil p0 ausgefallen ist. Die Verifikation dieses Quantils geschieht in einer Reihe von Versuchen, bei denen die Bauteile mit einer typischen Kraft zyklisch belastet werden, bis ein gewisses, im Vorfeld festgelegtes, Schadensbild auftritt und die Anzahl Ti der Zyklen („Schwingspiele“) als Lebensdauer notiert wird. Typischerweise ist der Stichprobenumfang N dabei sehr gering (N < 10), während gleichzeitig ein extremes Quantil 0 p0 0, 1 verifiziert werden soll. Verwendet man als Lebensdauerverteilung eine Weibulloder Lognormalverteilung, so tritt in den Quantilschätzern ein deutlicher Bias auf, der beseitigt werden soll. Da es sich hierbei in der Regel um einen positiven Bias handelt, würde man Bauteile als serientauglich einstufen, obwohl sie möglicherweise deutlich unter den Vorgaben liegen. Die Berechnung von Konfidenzintervallen für Quantile geschieht über Delta-Methoden, die ebenfalls schlechte Resultate liefern (in Form einer zu geringen empirischen Signifikanz linksseiter Intervalle). Im Folgenden werden Verallgemeinerungen der Bootstrap- und Jackknife- Biaskorrektur vorgestellt, welche nicht nur versuchen den Bias zu beseitigen, sondern direkt den mittleren quadratischen Fehler des Schätzers weitestgehend zu reduzieren. Simulationsstudien zeigen, dass dies für geringe Stichprobenumfänge gelingt. Außerdem wird untersucht, inwiefern die Methode in Kombination mit der Bootstrap-Quantil-Methode einen verbesserten Intervallschätzer für Quantile liefert. Dabei werden simulierte Daten betrachtet, deren Parameter repräsentativ für Lebensdauerverteilungen von sicherheitsrelevanten Bauteilen sind.
In dieser Masterarbeit wird der Frage nachgegangen, wie Schulleiter und Schulleiterinnen an sonderpädagogischen Bildungs- und Beratungszentren ihre Führungsrolle im Kontext inklusiver Schulentwicklung verstehen. Artikel 24 der UN-Behindertenrechtskonvention (UN-BRK), die die Rechte von Menschen mit Behinderung stärkt und sich für die Entwicklung einer inklusiven Gesellschaft einsetzt, schreibt das Recht auf Bildung aller Menschen vor. D.h., dass Menschen mit Behinderung zukünftig nicht mehr vom allgemeinen Bildungssystem ausgeschlossen werden dürfen. Daraus ergibt sich für alle Schulen die Aufgabe, sich zu entwickeln: Für allgemeine Schulen bedeutet die Umsetzung der UN-BRK eine Entwicklung hin zu inklusiven Schulen. Für sonderpädagogische Bildungs- und Beratungszentren (SBBZen), früher Sonderschulen, bedeutet inklusive Schulentwicklung nicht nur eine Veränderung der Organisation, sondern ggf. auch die Auflösung bzw. Schließung einer Schule. Sonderpädagogische Expertise wird zukünftig vermehrt in den allgemeinen Schulen benötigt, was zur Folge hat, dass Lehrkräfte von SBBZen an allgemeine Schulen abgeordnet oder versetzt werden. Dies wiederum bedeutet eine immense Veränderung der SBBZen und ihrer Strukturen und damit auch eine immense Veränderung der Anforderungen an Führungspersonen, sprich Schulleitungen von SBBZen. Schulleiterinnen und Schulleiter nehmen bei solchen Veränderungsprozessen eine besondere und zentrale Rolle ein. Ihr Verständnis von und ihre innere Haltung zu Inklusion sind im Kontext von inklusiven Schulentwicklungsprozessen nach Auffassung der Autorin von zentraler Bedeutung und richtungsweisend für eine erfolgreiche oder auch erfolglose Entwicklung der Organisation Schule. Der Hypothese, dass das Verständnis von und die Haltung zu Inklusion das Führungsverständnis und auch die Art und Weise, wie geführt wird, beeinflussen, wird mittels der Methode leitfadengestützter Interviews nachgegangen. Im Theorieteil werden die Themen Schule, Schulentwicklung, Führung und Inklusion ausgeführt. Darüber hinaus wird der bisherige Forschungsstand dargelegt. Im empirischen Teil der Arbeit werden die Ergebnisse der Befragung dargestellt und hinsichtlich der zentralen Fragestellung diskutiert.
Der Kernrezeptor PXR spielt eine bedeutende Rolle im Fremdstoffmetabolismus als auch im Stoffwechsel endogener Substrate. Er reguliert die Expression zahlreicher Proteine des Fremdstoffwechsels. Deshalb hat die Aktivierung oder Hemmung des PXR einen großen Einfluss auf den Stoffwechselstatus dieser Proteine. Zum derzeitigen Stand der Forschung nimmt der PXR eine Schlüsselfunktion bei der Regulation der CYP3A-Enzyme ein. Es besteht deshalb Interesse Substanzen, die in Verdacht stehen PXR abhängig CYP3A zu induzieren, zu untersuchen. In dieser Arbeit wurden bromierte Flammschutzmittel und der Arzneimittelkandidat EMD untersucht. Aus den Vorversuchen wurde ersichtlich, dass die Rattenhepatomzelllinie H4IIE und die humane Hepatomzelllinie HepG2 geeignete in vitro Systeme zur Untersuchung der PXR-abhängigen CYP3A-Aktivierung darstellen. Untersuchungen zum Genexpressionsverhalten zahlreicher Gene des Fremdstoffmetabolismus mittels TLDA-Karten zeigten, dass die beiden Zelllinien viele dieser Gene exprimieren, die nach Inkubation mit den Prototypinduktoren Rifampicin und Dexamethason spezies-spezifisch reguliert wurden. Die beiden Zelllinien wurden schließlich mit einem Reportergenvektor, der die PXR responsiven Elemente des CYP3A4-Gens enthält, stabil transfiziert. An den stabil transfizierten HepG2-XREM3- und H4IIE-XREM3-Zellen wurden bekannte CYP-Induktoren sowie der Arzneimittelkandidat EMD und die Flammschutzmittel HBCD and der pentaBDE Mix getestet. Die Flammschutzmittel HBCD und der pentaBDE-Mix, werden in Textilwaren, Kunststoffen, Möbeln, Teppichen, Elektrogeräten und Baumaterialen eingesetzt. Falls sie tatsächlich den PXR spezies-spezifisch aktivieren sollten, könnten sie eine Gefahr für Mensch und Umwelt darstellen. Deshalb wurde in dieser Arbeit die CYP3A-mRNA-Expression, die Protein- sowie die Reportergenaktivität überprüft. Als gemeinsamer Aktivator des hPXR und rPXR stellte sich Clotrimazol, aber auch das Flammschutzmittel HBCD heraus, während pentaBDE ein besserer Ligand des hPXR ist. Omeprazol und Phenobarbital induzierten die rPXR-vermittelte CYP3A-Induktion in H4IIE-XREM3-Zellen nicht; in den humanen HepG2-XREM3-Zellen konnte jedoch eine moderate Reportergenaktivität gemessen werden. Weiteres Interesse besteht an dem Arzneimittelkandidaten EMD zur Behandlung des metabolischen Syndroms und Typ II-Diabetes. In vivo (Affen, Ratten) und in vitro (Hepatozyten) wurden bereits spezies-spezifische Effekte auf die CYP3A-Induktion durch EMD beobachtet. Deshalb wurde in dieser Arbeit der über aktivierten PXR vermittelte Mechanismus an Zelllinien überprüft. Dabei stellte sich heraus, dass EMD ein hPXR-Aktivator und CYP3A-Induktor in HepG2-Zellen, jedoch kein Aktivator von rPXR in H4IIE-Zellen ist. Um schwerwiegende Nebenwirkungen und unvorhersehbare Arzneimittelwechselwirkungen durch die Aufnahme von Fremdstoffen zu verhindern, ist es bei der Neuentwicklung von Wirkstoffen aller Art notwendig, die Stoffe auf eine mögliche Induktion der Fremdstoff-metabolisierenden Enzyme zu untersuchen. Deshalb war das Ziel dieser Arbeit die Etablierung von zell-basierten in vitro Assays zur Ermittlung der spezies-spezifischen PXR-abhängigen Induktion von CYP3A durch Chemikalien und Arzneimittelkandidaten, um mögliche Arzneimittel- und Fremdstoffwechselwirkungen und damit verbundene Sicherheitsrisiken vorhersagen zu können. Das etablierte PXR- Screeningsystem repräsentiert zwei in vitro Modelle, die erlauben spezies-spezifische Wirkungen auf die CYP3A-Induktion von Chemikalien, Umweltkontaminanten, Lebensmittelinhaltsstoffe und Arzneimittel schnell, einfach und kostengünstig abschätzen zu können. Eine frühe Erkennung der PXR-Aktivierung und CYP-Induktion von Arzneimitteln in der Entwicklung kann einen Weiterentwicklungsstopp dieser zur Folge haben. Dies hilft zusätzliche Tierversuche und Kosten einzusparen. Dem 3R-Prinzip (Reduce, Refine, Replace) vom Reduzieren der Anzahl der Tierversuche, der Verbesserung der existierenden Experimente und dem Ersetzen von Tierversuchen durch alternative Methoden (Russel & Burch, 1959) wird durch die stabil transfizierten Zelllinien in zweierlei Hinsicht Rechnung getragen: unnötige Tierversuche können vermieden reduction und die Aussagekraft von durchgeführten Tierstudien (z.B. vom Gesetzgeber geforderte Studien zur Arzneimittelentwicklung) verbessert werden (dies trägt auch zu einem refinement bei). Damit stellen die HepG2-XREM3- und H4IIE-XREM3-Zellen eine wichtige innovative Verbesserung bei der Entwicklung von Arzneistoffen sowie bei der regulatorischen Testung von Chemikalien dar.
For many years, most distributed real-time systems employed data communication systems specially tailored to address the specific requirements of individual domains: for instance, Controlled Area Network (CAN) and Flexray in the automotive domain, ARINC 429 [FW10] and TTP [Kop95] in the aerospace domain. Some of these solutions were expensive, and eventually not well understood.
Mostly driven by the ever decreasing costs, the application of such distributed real-time system have drastically increased in the last years in different domains. Consequently, cross-domain communication systems are advantageous. Not only the number of distributed real-time systems have been increasing but also the number of nodes per system, have drastically increased, which in turn increases their network bandwidth requirements. Further, the system architectures have been changing, allowing for applications to spread computations among different computer nodes. For example, modern avionics systems moved from federated to integrated modular architecture, also increasing the network bandwidth requirements.
Ethernet (IEEE 802.3) [iee12] is a well established network standard. Further, it is fast, easy to install, and the interface ICs are cheap [Dec05]. However, Ethernet does not offer any temporal guarantee. Research groups from academia and industry have presented a number of protocols merging the benefits of Ethernet and the temporal guarantees required by distributed real-time systems. Two of these protocols are: Avionics Full-Duplex Switched Ethernet (AFDX) [AFD09] and Time-Triggered Ethernet (TTEthernet) [tim16]. In this dissertation, we propose solutions for two problems faced during the design of AFDX and TTEthernet networks: avoiding data loss due to buffer overflow in AFDX networks with multiple priority traffic, and scheduling of TTEthernet networks.
AFDX guarantees bandwidth separation and bounded transmission latency for each communication channel. Communication channels in AFDX networks are not synchronized, and therefore frames might compete for the same output port, requiring buffering to avoid data loss. To avoid buffer overflow and the resulting data loss, the network designer must reserve a safe, but not too pessimistic amount of memory of each buffer. The current AFDX standard allows for the classification of the network traffic with two priorities. Nevertheless, some commercial solutions provide multiple priorities, increasing the complexity of the buffer backlog analysis. The state-of-the-art AFDX buffer backlog analysis does not provide a method to compute deterministic upper bounds
iiifor buffer backlog of AFDX networks with multiple priority traffic. Therefore, in this dissertation we propose a method to address this open problem. Our method is based on the analysis of the largest busy period encountered by frames stored in a buffer. We identify the ingress (and respective egress) order of frames in the largest busy period that leads to the largest buffer backlog, and then compute the respective buffer backlog upper bound. We present experiments to measure the computational costs of our method.
In TTEthernet, nodes are synchronized, allowing for message transmission at well defined points in time, computed off-line and stored in a conflict-free scheduling table. The computation of such scheduling tables is a NP-complete problem [Kor92], which should be solved in reasonable time for industrial size networks. We propose an approach to efficiently compute a schedule for the TT communication channels in TTEthernet networks, in which we model the scheduling problem as a search tree. As the scheduler traverses the search tree, it schedules the communication channels on a physical link. We presented two approaches to traverse the search tree while progressively creating the vertices of the search tree. A valid schedule is found once the scheduler reaches a valid leaf. If on the contrary, it reaches an invalid leaf, the scheduler backtracks searching for a path to a valid leaf. We present a set of experiments to demonstrate the impact of the input parameters on the time taken to compute a feasible schedule or to deem the set of virtual links infeasible.
Emerging Memories (EMs) could benefit from Error Correcting Codes (ECCs) able to correct few errors in a few nanoseconds. The low latency is necessary to meet the DRAM- like and/or eXecuted-in-Place requirements of Storage Class Memory devices. The error correction capability would help manufacturers to cope with unknown failure mechanisms and to fulfill the market demand for a rapid increase in density. This paper shows the design of an ECC decoder for a shortened BCH code with 256-data-bit page able to correct three errors in less than 3 ns. The tight latency constraint is met by pre-computing the coefficients of carefully chosen Error Locator Polynomials, by optimizing the operations in the Galois Fields and by resorting to a fully parallel combinatorial implementation of the decoder. The latency and the area occupancy are first estimated by the number of elementary gates to traverse, and by the total number of elementary gates of the decoder. Eventually, the implementation of the solution by Synopsys topographical synthesis methodology in 54nm logic gate length CMOS technology gives a latency lower than 3 ns and a total area less than \(250 \cdot 10^3 \mu m^2\).
The problem discussed in this paper is motivated by the new recycling directiveWEEE of the EC. The core of this law is, that each company which sells electrical or electronic equipment in a European country has the obligation to recollect and recycle an amount of returned items which is proportional to its market share. To assign collection stations to companies, in Germany for one product type a territory design approach is planned. However, in contrast to classical territory design, the territories should be geographically as dispersed as possible to avoid that a company, resp. its logistics provider responsible for the recollection, gains a monopoly in some region. First, we identify an appropriate measure for the dispersion of a territory. Afterwards, we present a first mathematical programming model for this new problem as well as a solution method based on the GRASP methodology. Extensive computational results illustrate the suitability of the model and assess the effectiveness of the heuristic.
Immobilisierung von Glycosidasen an magnetische Partikel mit dem Ziel einer Weinaromaverbesserung
(2016)
In der Winzertechnik werden Enzympräparate für diverse Anwendungen eingesetzt. Dabei gibt es zahlreiche kommerzielle Enzyme zur Verbesserung bzw. Freisetzung von Aromen. Solche Enzympräparate werden nach einiger Zeit durch eine Bentonitschönung inaktiviert bzw. ausgefällt und gehen damit verloren. Der Einsatz von neuem Enzympräparat bei jedem weiteren Gärungsansatz stellt dabei einen Kostenfaktor für den Winzer dar und es bleibt eine gewisse Rest-Enzymaktivität im Wein erhalten. Letzteres führt dazu, dass solche Weine sensorisch nach einem halben bis einem Jahr abbauen. Um sensorische Beeinträchtigungen und Qualitätsminderungen vorzubeugen ist eine vollständige Entfernung der Enzyme wichtig. Eine Immobilisierung dieser Enzyme an Magnetit-Partikel stellt eine Möglichkeit dar, dieses Problem zu lösen. Besonders die vollständige Entfernung durch eine Magnet-Separation und die anschließende Wiederverwendbarkeit der Enzyme sind dabei wichtige Vorteile für den Winzer.
Bei Enzympräparaten zur Weinaromaverbesserung handelt es sich um pektolytische Enzymmischungen mit einer β-Glucosidase-Nebenaktivität. Gerade in Weißwein kommen viele Aromen glykosidisch gebunden vor und sind dadurch sensorisch nicht wirksam. Diese glykosidischen Verbindungen können durch eine β Glucosidase-Aktivität gespalten und das entsprechende Aroma-Aglykon freigesetzt werden. Allerdings liegt bei der Freisetzung der Aromastoffe ein sequentieller Mechanismus vor, d.h. es werden ebenfalls andere Glycosidasen, wie Arabinosidase, Rhamnosidase oder Xylosidase, benötigt, um Aroma freizusetzen. Daher muss es sich bei den für die Aromafreisetzung eingesetzten Enzymen immer um eine Mischung aus Glycosidasen handeln. Die Immobilisierung verschiedener Enzyme auf einen Träger ist dahingehend eine Herausforderung, indem jedes Enzym andere Voraussetzungen hat, um erfolgreich an einen Träger zu koppeln. Aus diesem Grund ist die simultane Immobilisierung mehrere Enzyme immer nur ein Kompromiss.
Ziel dieser Arbeit war es, die Enzyme erfolgreich an Magnetit-Partikel zu koppeln und mittels analytischer und sensorischer Untersuchungen die Wirksamkeit und die Eigenschaften der Enzyme hinsichtlich eines Einsatzes in der Winzertechnik zu bewerten. Zur Immobilisierung wurden superparamagnetische Magnetit-Partikel, die in einer Matrix aus Polyvinylalkohol eingeschlossen waren, verwendet und die Konjugation der Enzyme wurde mit Carbodiimid durchgeführt.
Die Ergebnisse zeigen, dass es möglich ist mehrere Glycosidasen verschiedener Spezifität aus einem kommerziellen, önologischen Enzympräparat erfolgreich an Magnetit-Partikel zu koppeln und dadurch die Aroma-Ausprägung von Wein positiv zu beeinflussen. Bei den untersuchten Bedingungen stellten sich pH 3,8 bis 4,0 als beste Voraussetzung heraus, um möglichst viele Glycosidasen aktiv an den Träger zu konjugieren. Generell hatte die β-Glucosidase eine relativ hohe Kopplungsaffinität zum Träger, sodass im immobilisierten Enzymgemisch andere Mengenverhältnisse der einzelnen Glycosidasen vorlagen als im Ausgangsprodukt. Untersuchungen hinsichtlich einer möglichen Änderung im Aktivitätsprofil zeigten keine signifikanten Unterschiede. Durch die Kopplungsreaktion kam es zu keiner negativen Beeinträchtigung. Für alle Enzympräparate wurde allerdings eine deutliche Inhibition der β-Glucosidase-Aktivität durch Glucose festgestellt. Die Enzyme sollten daher erst am Ende bzw. nach der Gärung eingesetzt werden, da dort die Glucose-Konzentration am niedrigsten ist. Stabilitätsuntersuchungen der gekoppelten Glycosidasen im Wein zeigten lediglich leichte Aktivitätsverluste. Somit war die Kopplung stabil und stellte kein Hindernis für einen Einsatz im Wein dar. Die Rückgewinnung der Magnetit-Partikel aus Wein wurde mit Hilfe eines Hochgradient-Magnet-Separators durchgeführt. Die Separation hatte ebenfalls keinen negativen Einfluss auf die Enzymaktivität der gekoppelten Enzyme.
Da die Enzyme an Magnetit-Partikel gekoppelt wurden, ist eine mögliche Eisenmigration aus den Partikeln in den Wein ebenfalls ein wichtiges Kriterium und wurde entsprechend untersucht. Dabei konnten durch den Einsatz der Magnetit-Partikel im Wein teilweise ein stark erhöhter Eisengehalt festgestellt werden. Eine erhöhte Eisen-Konzentration im Wein kann zu drastischen Qualitätseinbußen und zu vermehrter Oxidation führen. In Folge dessen stellt die Eisenmigration aus den Partikeln noch ein erhebliches Problem bei einem späteren Einsatz in der Winzertechnik dar. Untersuchungen zum Phenolgehalt der mit Magnetit-Partikel behandelten Weinproben ließen auf einen solchen oxidativen Abbau durch die erhöhten Eisen-Konzentrationen schließen. Weitere Untersuchungen einiger Einzelphenole bestätigten diese Annahme. Neben verminderten Phenolgehalten konnten dagegen einige Phenole, wie Kaffeesäure, p Coumarsäure und Resveratrol, durch den Enzymeinsatz signifikant gesteigert werden.
Weitere Untersuchungen zeigten, dass die gekoppelten Enzyme fähig waren, Aromastoffe im Wein freizusetzen. Der Terpengehalt konnte signifikant durch Enzymeinsatz, sowohl frei als auch immobilisiert, gesteigert werden. Dies betraf besonders die Monoterpene Nerol und Geraniol. Ein Vergleich zwischen gekoppelten und freien Glycosidasen zeigte, dass durch das nicht-immobilisierte Enzymgemisch etwas mehr der untersuchten Verbindungen freigesetzt wurde. Dieser Effekt kann mit der durch die Kopplung veränderten Enzym-Zusammensetzung erklärt werden, da ein größerer Anteil an β-Glucosidase an die Magnetit-Partikel koppelte, aufgrund des sequentiellen Mechanismus, aber auch andere Glycosidasen von Bedeutung sind, um das entsprechende Aglykon freizusetzen.
An Magnetit-Partikel gekoppelte Glycosidasen können gut in bestehende Batch-Prozesse der Weinherstellung integriert werden. Außerdem sind, abgesehen vom Magnet-Separator, nur geringe Investitionen in neue Anlagen nötig. Weitere Vorteile sind eine gute Abtrennung und Wiederverwendbarkeit der gekoppelten Enzyme, enzymfreies Produkt, nahezu identische Anwendung im Vergleich zu bestehenden Enzympräparaten und es ist kaum neue Prozess-Expertise für die Winzer notwendig. Die Prozessbetrachtung zeigte allerdings auch die Komplexität der Hydrolyse glykosidisch gebundener Stoffe im Wein, da eine Vielzahl von Faktoren die Hydrolyse der Glykoside im Wein beeinflusst. Somit ist eine Vorhersage bzw. Abschätzung der Freisetzung an Aromastoffen im Wein durch einen Enzymeinsatz äußerst kompliziert und es ist zurzeit noch nicht möglich die erworbenen Kenntnisse zur Hydrolyse der Glykoside den Weingütern effizient zur Verfügung zu stellen.
Die Glycosidasen β-Glucosidase, Arabinosidase, Rhamnosidase und Xylosidase konnten erfolgreich auf die verwendeten Magnetit-Partikel immobilisiert, deren mögliche Wiederverwendbarkeit gezeigt und durch den Einsatz dieser Enzyme der Gehalt an Terpenen und einiger Phenole signifikant gesteigert werden. Diese Erkenntnisse zeigen, dass ein Einsatz der an Magnetit-Partikel gekoppelten Glycosidasen in der Winzertechnik möglich ist. Allerdings können die erhöhten Eisengehalte durch die Verwendung der Magnetit-Partikel zu Qualitätseinbußen führen. Daher sind die verwendeten Partikeln noch nicht für einen Einsatz in der Winzertechnik geeignet. Diese bedürfen weiterer Entwicklung, da für einen erfolgreichen Einsatz möglichst inerte Partikel vorliegen sollten, um die beschriebenen negativen Effekte zu minimieren.
Nowadays, the increasing demand for ever more customizable products has emphasized the need for more flexible and fast-changing manufacturing systems. In this environment, simulation has become a strategic tool for the design, development, and implementation of such systems. Simulation represents a relatively low-cost and risk-free alternative for testing the impact and effectiveness of changes in different aspects of manufacturing systems.
Systems that deal with this kind of data for its use in decision making processes are known as Simulation-Based Decision Support Systems (SB-DSS). Although most SB-DSS provide a powerful variety of tools for the automatic and semi-automatic analysis of simulations, visual and interactive alternatives for the manual exploration of the results are still open to further development.
The work in this dissertation is focused on enhancing decision makers’ analysis capabilities by making simulation data more accessible through the incorporation of visualization and analysis techniques. To demonstrate how this goal can be achieved, two systems were developed. The first system, viPhos – standing for visualization of Phos: Greek for light –, is a system that supports lighting design in factory layout planning. viPhos combines simulation, analysis, and visualization tools and techniques to facilitate the global and local (overall factory or single workstations, respectively) interactive exploration and comparison of lighting design alternatives.
The second system, STRAD - standing for Spatio-Temporal Radar -, is a web-based systems that considers the spatio/attribute-temporal analysis of event data. Since decision making processes in manufacturing also involve the monitoring of the systems over time, STRAD enables the multilevel exploration of event data (e.g., simulated or historical registers of the status of machines or results of quality control processes).
A set of four case studies and one proof of concept prepared for both systems demonstrate the suitability of the visualization and analysis strategies adopted for supporting decision making processes in diverse application domains. The results of these case studies indicate that both, the systems as well as the techniques included in the systems can be generalized and extended to support the analysis of different tasks and scenarios.
Much reading research has found that informative parafoveal masks lead to a reading benefit for native speakers (see, Schotter et al., 2012). However, little reading research has tested the impact of uninformative parafoveal masks during reading. Additionally, parafoveal processing research is primarily restricted to native speakers. In the current study we manipulated the type of uninformative preview using a gaze contingent boundary paradigm with a group of L1 English speakers and a group of late L2 English speakers (L1 German). We were interested in how different types of uninformative masks impact on parafoveal processing, whether L1 and L2 speakers are similarly impacted, and whether they are sensitive to parafoveally viewed language-specific sub-lexical orthographic information. We manipulated six types of uninformative masks to test these objectives: an Identical, English pseudo-word, German pseudo-word, illegal string of letters, series of X’s, and a blank mask. We found that X masks affect reading the most with slight graded differences across the other masks, L1 and L2 speakers are impacted similarly, and neither group is sensitive to sub-lexical orthographic information. Overall these data show that not all previews are equal, and research should be aware of the way uninformative masks affect reading behavior. Additionally, we hope that future research starts to approach models of eye-movement behavior during reading from not only a monolingual but also from a multilingual perspective.