Refine
Year of publication
- 2003 (128) (remove)
Document Type
- Doctoral Thesis (50)
- Report (29)
- Preprint (21)
- Periodical Part (13)
- Study Thesis (5)
- Article (2)
- Diploma Thesis (2)
- Habilitation (2)
- Working Paper (2)
- Master's Thesis (1)
Keywords
- META-AKAD (7)
- AG-RESY (6)
- Modellierung (5)
- Java 2 Enterprise Edition (4)
- Lineare Algebra (4)
- Mathematikunterricht (4)
- Wavelet (4)
- linear algebra (4)
- modelling (4)
- praxisorientiert (4)
- Mehrskalenanalyse (3)
- Mobilfunk (3)
- Robotik (3)
- mathematical education (3)
- AKLEON (2)
- Alterungsbeständigkeit (2)
- Ambient Intelligence (2)
- CAD (2)
- CDMA (2)
- CHAMP (2)
- Elektrotechnik (2)
- Gravitationsfeld (2)
- Implementierung (2)
- Inverses Problem (2)
- Kleben (2)
- Lineare Optimierung (2)
- Mensch-Maschine-Kommunikation (2)
- Mensch-Roboter-Koexistenz (2)
- Mensch-Roboter-Kooperation (2)
- Navier-Stokes-Gleichung (2)
- Optimierung (2)
- RODEO (2)
- RONAF (2)
- Regelung (2)
- SIMERO (2)
- Simplex (2)
- Stücklisten (2)
- Szenario (2)
- Up Functions (2)
- Zeolith (2)
- linear optimization (2)
- mobile radio (2)
- numerical simulation (2)
- praxis orientated (2)
- simplex (2)
- time series (2)
- wavelets (2)
- 5-> (1)
- : Navier-Stokes equations (1)
- : Two-phase flow in porous media (1)
- : multiple criteria optimization (1)
- : multiple objective programming (1)
- Ab-initio-Rechnung (1)
- Abel integral equations (1)
- Adsorption (1)
- Akute myeloische Leukämie (1)
- Algebraische Geometrie (1)
- Alkin (1)
- Alterung (1)
- Aluminium (1)
- Aminosäuren (1)
- Anfrageverarbeitung (1)
- Anorganisches Pigment (1)
- Anthropotechnik (1)
- Antimon (1)
- Anämiebehandlung (1)
- Aperiodic Crystal (1)
- Aperiodischer Kristall (1)
- Apoptosis (1)
- Approximation (1)
- Arabidopsis thaliana (1)
- Archimedische Kopula (1)
- Aromastoffe (1)
- Arsen (1)
- Asiatische Option (1)
- Assembly (1)
- Automatische Indexierung (1)
- Bahnplanung (1)
- Basel (1)
- Basket Option (1)
- Batteriemanagement (1)
- Batterien (1)
- Bessel functions (1)
- Bicyclus (1)
- Bildverarbeitung (1)
- Biomarker (1)
- Biot-Savart Operator (1)
- Biot-Savart operator (1)
- Bismut (1)
- Bitvektor (1)
- Blocked Neural Networks (1)
- Brinkman (1)
- Brownian motion (1)
- Brownsche Bewegung (1)
- Butterflykomplex (1)
- Bändchenhalbzeuge (1)
- CGH (1)
- CNS (1)
- Calcium (1)
- Castor (1)
- Cauchy-Navier-Equation (1)
- Cauchy-Navier-Gleichung (1)
- Chalkogen (1)
- Chemische Bindung / Theorie (1)
- Chi-Quadrat-Test (1)
- Cholesky-Verfahren (1)
- Clusterion (1)
- Clusterverbindungen (1)
- Code Inspection (1)
- Comet Assay (1)
- Comparative Genomische Hybridisierung (1)
- Continuum Damage (1)
- Cyclisches Nucleotid Phosphodiesterase <3 (1)
- Cyclo-AMP (1)
- Cyclo-GMP (1)
- Cytogenetik (1)
- DHFR (1)
- DNS (1)
- Dampf-flüssig-flüssig-Gleichgewicht (1)
- Decane (1)
- Decomposition and Reconstruction Schemes (1)
- Deformationstheorie (1)
- Dialysemembran (1)
- Dichtefunktionalformalismus (1)
- Dihydrofolatreduktase (1)
- Discrete linear systems (1)
- Dislocations (1)
- Disproportionierung (1)
- Double Minutes (1)
- Dreidimensionale Bildverarbeitung (1)
- Druckkorrektur (1)
- Dynamic cut (1)
- Dynamik / Baumechanik (1)
- Earliest arrival augmenting path (1)
- Eisen-Phosphor-Cluster (1)
- Elastische Deformation (1)
- Elastoplasticity (1)
- Elliptische Verteilung (1)
- Empfangssignalverarbeitung (1)
- Entwurfsautomation (1)
- Epidermaler Wachstumsfaktor-Rezeptor (1)
- Epoxidharz (1)
- Epoxidharzklebstoff (1)
- Epoxy Adhesive (1)
- Erdmagnetismus (1)
- Erfüllbarke (1)
- Ergonomie (1)
- Ethylbenzol (1)
- Ethylen (1)
- Euler's equation of motion (1)
- Expected shortfall (1)
- Experiment (1)
- Extreme value theory (1)
- Faserfestigkeit (1)
- Faserkunststoffverbunde (1)
- Faserschädigung (1)
- Faserverbundwerkstoff (1)
- Festkörperchemie (1)
- Filtergesetz (1)
- Finite Elements (1)
- Finite-Elemente-Methode (1)
- Finite-Volumen-Methode (1)
- Fitts Law (1)
- Flachwasser (1)
- Flachwassergleichungen (1)
- Floatglas (1)
- Flüssig-Flüssig-Extraktion (1)
- Folgar-Tucker equation (1)
- Force-Torque (1)
- Fourier-Transformation (1)
- Fräsen (1)
- Garbentheorie (1)
- Genamplifikation (1)
- Genexpression (1)
- Gewichtung (1)
- Glasfaser (1)
- Glioblastom (1)
- Glutathion (1)
- Glättung (1)
- Glättungsparameterwahl (1)
- Gruppenoperation (1)
- Hals-Nasen-Ohren-Chirurgie (1)
- Hals-Nasen-Ohren-Heilkunde (1)
- Hand (1)
- Hand-Arm-System (1)
- Hankel matrix (1)
- Harmonische Spline-Funktion (1)
- HeLa-Zelle (1)
- Heavy-tailed Verteilung (1)
- Heston model (1)
- Heterogene Katalyse (1)
- High-Spin-Komplexe (1)
- Hochdrucktechnik (1)
- Hochschild homology (1)
- Hochschild-Homologie (1)
- Homologietheorie (1)
- Hub-and-Spoke-System (1)
- Human-Robot-Coexistence (1)
- Human-Robot-Cooperation (1)
- Humangenetik (1)
- Hybridregler (1)
- Hydratation (1)
- Hydrogen Bonding (1)
- Hydrokracken (1)
- Hydrostatischer Druck (1)
- Hämodialyse (1)
- Hörgerät (1)
- Immobilienaktie (1)
- Immunofluoreszenzmikroskopie (1)
- Implantation (1)
- Incommensurate Structure (1)
- Indexierung <Inhaltserschließung> (1)
- Informatik (1)
- Infrared Multiphoton Dissociation Spectroscopy (IR-MPD) (1)
- Infrarotspek (1)
- Instrumente (1)
- Integer programming (1)
- Interaktion (1)
- Interaktionsgerät (1)
- Interaktionsmodell (1)
- Interferenz (1)
- Inverse problems in Banach spaces (1)
- Ionensolvatation (1)
- Joint Transmission (1)
- Katalytische Iso (1)
- Kernschätzer (1)
- Klebstoff (1)
- Knowledge Extraction (1)
- Koexpression (1)
- Kohlenstofffaser (1)
- Komplexchemie (1)
- Kooperation (1)
- Koordinatengeber (1)
- Kopula <Mathematik> (1)
- Kraftregelung (1)
- Kreditrisiko (1)
- Kristallographie (1)
- Kunststoffeinfärbung (1)
- Kühlturm (1)
- L-curve Methode (1)
- Label correcting algorithm (1)
- Label setting algorithm (1)
- Lagrangian relaxation (1)
- Lavrentiev regularization for equations with monotone operators (1)
- Layout (1)
- Leukämie (1)
- Lineare Elastizitätstheorie (1)
- Lipidperoxidation (1)
- Locally Supported Radial Basis Functions (1)
- Logiksynthese (1)
- Luftfahrtindustrie (1)
- MFC-Knochennagel-Implantat (1)
- MO-Theorie (1)
- MS-Klebstoff (1)
- MS-Polymers (1)
- MYC (1)
- Malondialdehyd (1)
- Manipulation skills (1)
- Mapping (1)
- Marktrisiko (1)
- Martingaloptimalitätsprinzip (1)
- Mastoid (1)
- Mastoidektomie (1)
- Material-Force-Method (1)
- Maus <Datentechnik> (1)
- Mehrkriterielle Optimierung (1)
- Mensch (1)
- Metallocene (1)
- Methotrexat (1)
- Mikrobiegeversuch (1)
- Model checking (1)
- Modellbildung (1)
- Modulraum (1)
- Molekularsieb (1)
- Molekülorbital (1)
- Mostkonzentrierung (1)
- Multicriteria decision making (1)
- Multidrug-Resistenz (1)
- Multiple criteria analysis (1)
- Multiresolution Analysis (1)
- Multisresolution Analysis (1)
- Multivariate Wahrscheinlichkeitsverteilung (1)
- Naturstoffverteilung (1)
- Navier-Stokes (1)
- Network flows (1)
- Networked Control Systems (1)
- Netzwerk (1)
- Nichtparametrische Regression (1)
- Nierenversagen (1)
- Nonlinear Regression (1)
- Nonlinear multigrid (1)
- Nonparametric time series (1)
- Numerische Strömungssimulation (1)
- Oberflächenmaße (1)
- Oberflächenproteine (1)
- Oberflächenvorbehandlung (1)
- Ohrenchirurgie (1)
- Onkogen (1)
- Option pricing (1)
- Optionsbewertung (1)
- Optionspreistheorie (1)
- Organisches Pigment (1)
- Organometallcluster (1)
- Oxidativer Stress (1)
- Ozon (1)
- P-Glykoprotein (1)
- PI-Regler (1)
- Paramecium primaurelia (1)
- Parser (1)
- Peng-Robinson-EoS (1)
- Permutationsäquivalenz (1)
- Phase Transition (1)
- Phasengleichgewicht (1)
- Phasenumwandlung (1)
- Phenylalanin (1)
- Phosphaalkin (1)
- Phosphatasen (1)
- Phosphor (1)
- Phosphor-Phosphor-Bindung (1)
- Photochemischer Smog (1)
- Pigment (1)
- Plastizitätstheorie (1)
- Polyhedron (1)
- Polymere (1)
- Polymorphismus (1)
- Polyphosphol (1)
- Portfolio-Optimierung (1)
- Poröser Stoff (1)
- Prepregtechnologie (1)
- Produktion (1)
- Propanole (1)
- Protonentransfer (1)
- Quantile autoregression (1)
- Quasi-identities (1)
- RTL (1)
- Reflection (1)
- Regler (1)
- Reglerentwurf (1)
- Regularisierung (1)
- Regularität (1)
- Relationales Datenbanksystem (1)
- Rhodium (1)
- Riemannian manifolds (1)
- Riemannsche Mannigfaltigkeiten (1)
- Risiko (1)
- Risikomanagement (1)
- Roboter (1)
- Robotics (1)
- Ruß / Anorganisches Pigment (1)
- Röntgenstrukturanalyse (1)
- SAX2 (1)
- SIMPLE (1)
- SWARM (1)
- Sandwichverbindung (1)
- Satellitengeodäsie (1)
- Scale function (1)
- Schadensmechanik (1)
- Schalenringelement (1)
- Schaltwerk (1)
- Schädelchirurgie (1)
- Sendesignalverarbeitung (1)
- Sendesignalvorverarbeitung (1)
- Sepsis (1)
- Serotyp (1)
- Serotyptrandformation (1)
- Shallow Water Equations (1)
- Sicherheit (1)
- Signaltransduktion (1)
- Silicones (1)
- Silikonklebstoff (1)
- Singly Occupied Molecular Orbital (SOMO) (1)
- Softwareergonomie (1)
- Sommersmog (1)
- Spherical (1)
- Spherical Wavelets (1)
- Spline-Approximation (1)
- Stahlbeton (1)
- Stein equation (1)
- Stochastische Processe (1)
- Stratifaltigkeiten (1)
- Support-Vektor-Maschine (1)
- Symmetrie (1)
- Symmetriebrechung (1)
- System-on-Chip (1)
- T-Lymphozyt (1)
- Tail Dependence Koeffizient (1)
- Tetrahedran (1)
- Tripeldeckerkomplexe (1)
- Triphosphol (1)
- Tumor (1)
- Umkehrosmose (1)
- Vakuumverdampfung (1)
- Value at Risk (1)
- Vektorkugelfunktionen (1)
- Vektorwavelets (1)
- Verifikation (1)
- Vorverarbeitung (1)
- Wasserstoffbrückenbindung (1)
- Wavelet-Theorie (1)
- Wavelet-Theory (1)
- Wein (1)
- Wirbelabtrennung (1)
- Wirbelströmung (1)
- Wässrige Lösung (1)
- XML (1)
- Zeitreihen (1)
- Zellulares Mobilfunksystem (1)
- Zentralnervensystem (1)
- Zeolith M41S (1)
- Zeolith Y (1)
- Zeolith ZSM12 (1)
- Zuckertransporter (1)
- Zugesicherte Eigenschaft (1)
- Zyklische Homologie (1)
- abgeleitete Kategorie (1)
- adaptive Antennen (1)
- adaptive antennas (1)
- adaptive local refinement (1)
- adaptive refinement (1)
- adaptive triangulation (1)
- adhesive bonding (1)
- algebraic geometry (1)
- aluminium (1)
- archimedean copula (1)
- asian option (1)
- associated Legendre functions (1)
- asymptotic homogenization (1)
- automated analog circuit design (1)
- basel (1)
- basket option (1)
- batch presorting problem (1)
- batteries (1)
- battery management (1)
- behavioral modeling (1)
- bills of material (1)
- bills of materials (1)
- bitvector (1)
- bounded model checking (1)
- circuit sizing (1)
- cliquet options (1)
- clustering and disaggregation techniques (1)
- competetive analysis (1)
- computer algebra (1)
- concentration of musts (1)
- conditional quantiles (1)
- consecutive ones property (1)
- controllership (1)
- controlling (1)
- cooling tower (1)
- coupled flow in plain and porous media (1)
- cyclic homology (1)
- cyclic nucleotide phosphodiesterase (1)
- decision support systems (1)
- deformable objects (1)
- derived category (1)
- design automation (1)
- dif (1)
- discrete facility location (1)
- discrete location (1)
- durability (1)
- efficient set (1)
- elasticity problem (1)
- elliptical distribution (1)
- epoxy (1)
- estimate (1)
- estimator (1)
- evolutionary algorithms (1)
- experiment (1)
- expert system (1)
- fatigue (1)
- fiber orientation (1)
- fibre damage (1)
- fibre strength (1)
- flavour (1)
- flood risk (1)
- force control (1)
- force following (1)
- forward starting options (1)
- fuzzy logic (1)
- genetic algorithms (1)
- geomagnetism (1)
- glioblastoma (1)
- global pressure (1)
- gravimetry (1)
- gravitational field recovery (1)
- group action (1)
- harmonic density (1)
- high-pressure vapour-liquid-liquid equilibria (1)
- hybrid control (1)
- hyper-quasi-identities (1)
- hypergeometric functions (1)
- hyperquasivarieties (1)
- incident wave (1)
- incompressible flow (1)
- injection molding (1)
- integer programming (1)
- interactive navigation (1)
- kernel estimate (1)
- knowledge management (1)
- knowledge representation (1)
- kraftbasiertes Führen (1)
- langfaserverstärkte Polymere (1)
- layout (1)
- lid-driven flow in a (1)
- liquid-liquid-extraction of natural products (1)
- logic synthesis (1)
- logistics (1)
- macro modeling (1)
- martingale optimality principle (1)
- mastoid (1)
- mastoidectomy (1)
- mathematica education (1)
- mechanische Eigenschaften (1)
- micro-bending test (1)
- mobile radio systems (1)
- model (1)
- model reduction (1)
- moduli space (1)
- multi-user detection (1)
- multigrid methods (1)
- multileaf collimator (1)
- multiphase mixture model (1)
- multiscale modeling (1)
- multiscale structures (1)
- multivariate chi-square-test (1)
- nahekritischer Zustandsbereich (1)
- near-critical ethene+water+propanol (1)
- nichtparametrisch (1)
- non-Newtonian flow in porous media (1)
- non-commutative geometry (1)
- non-local conditions (1)
- non-parametric regression (1)
- nonlinear term structure dependence (1)
- nonparametric (1)
- oil filters (1)
- online optimization (1)
- option pricing (1)
- otorhinolaryngological surgery (1)
- parameter choice (1)
- pigments (1)
- polynomial algorithms (1)
- portfolio-optimization (1)
- preprocessing (1)
- pressure correction (1)
- project management and scheduling (1)
- projection-type splitting (1)
- property cheking (1)
- quantile autoregression (1)
- quasi-P (1)
- quasi-SH (1)
- quasi-SV (1)
- quasivarieties (1)
- radiation therapy (1)
- real-life applications. (1)
- received signal processing (1)
- refraction (1)
- regularity (1)
- reinforced concrete (1)
- reinforced plastics (1)
- representative systems of Pareto solutions (1)
- reverse osmosis (1)
- ring element (1)
- risikohandling (1)
- risk (1)
- safe human robot coexistence (1)
- safe human robot cooperation (1)
- satisfiability (1)
- scaling functions (1)
- sequential circuit (1)
- set covering (1)
- sheaf theory (1)
- singular spaces (1)
- singularity (1)
- singuläre Räume (1)
- software development (1)
- spherical splines (1)
- stability (1)
- stochastic processes (1)
- stochastic volatility (1)
- stop location (1)
- strategic (1)
- strength (1)
- structural dynamics (1)
- subgradient (1)
- sugar transporter (1)
- summer smog (1)
- supply chain management (1)
- surface measures (1)
- surface pre-treatment (1)
- symbolic analysis (1)
- symmetry (1)
- system simulation (1)
- tail dependence coefficient (1)
- taktile und haptische Wahrnehmung (1)
- technology mapping (1)
- thermoplastische Halbzeuge (1)
- toric geometry (1)
- torische Geometrie (1)
- trasmit signal processing (1)
- triclinic medium (1)
- uniform consistency (1)
- vacuum distillation (1)
- value-at-risk (1)
- variable neighborhood search (1)
- various formulations (1)
- vector spherical harmonics (1)
- vectorial wavelets (1)
- verification (1)
- vertical velocity (1)
- vertikale Geschwindigkeiten (1)
- visual (1)
- visual interfaces (1)
- vortex seperation (1)
- wine (1)
- Überflutung (1)
- Überflutungsrisiko (1)
Faculty / Organisational entity
- Kaiserslautern - Fachbereich Mathematik (39)
- Fraunhofer (ITWM) (18)
- Kaiserslautern - Fachbereich Informatik (16)
- Kaiserslautern - Fachbereich Chemie (14)
- Kaiserslautern - Fachbereich Sozialwissenschaften (11)
- Kaiserslautern - Fachbereich Maschinenbau und Verfahrenstechnik (10)
- Kaiserslautern - Fachbereich Elektrotechnik und Informationstechnik (9)
- Kaiserslautern - Fachbereich Biologie (5)
- Kaiserslautern - Fachbereich Physik (2)
- Kaiserslautern - Fachbereich ARUBI (1)
- Kaiserslautern - Fachbereich Wirtschaftswissenschaften (1)
- Universität (1)
- Universitätsbibliothek (1)
Im Rahmen der vorliegenden Arbeit wurde erstmalig die Verarbeitungstechnik zur
Entwicklung und Herstellung von Microfibrillaren Composites (MFCs) im Bereich der
resorbierbaren Polymeren angewandt. Ziel war die Herstellung eines polymeren
MFC-Knochennagel-Implantats aus den zwei biodegradierbaren Werkstoffen
Polylaktid und Polyglykolid, um eine Verbesserung der mechanischen Eigenschaften
gegenüber den Ausgangswerkstoffen zu erzielen. Die biodegradierbaren MFCs
wurden schließlich bzgl. ihres mechanischen Leistungspotentials gegenüber der
alternativen Herstellungstechnik „Solid-State-Extrusion“ bewertet.
Die vier verschiedenen Polylaktide, Poly-L-laktid (PLLA), Polylaktid (PLA), Poly-DLlaktid
(PLDLA), Poly-LDL-laktid (PLDLLA) und der Werkstoff Polyglykolid (PGA)
bildeten vier Werkstoffpaarungen für die MFC-Versuchsreihen. Für die Solid-State-
Extrusion standen die vier Polylaktide aus der MFC-Serie sowie mehrere kompatible
Polylaktidmischungen zur Verfügung.
Innerhalb der Untersuchungen wurde zuerst das Verfahren der Solid-State-Extrusion
optimiert, da es hier auch Überschneidungen in den MFC-Verarbeitungsetappen gab.
Um den MFC-Prozess optimieren zu können, wurden theoretische Überlegungen
und schematische Modellansätze aufgestellt, die dann durch mikroskopische
Beobachtungen bestätigt und verifiziert wurden. Aus der entwickelten
Modellvorstellung konnten Lösungsansätze hergeleitet werden, welche die von
Fakirov et al. aufgestellten MFC-Bedingungen erweiterten und eine Herstellung von
resorbierbaren Microfibrillaren Composites ermöglichten.
Die 3-Punkt-Biegeuntersuchungen der MFC-Werkstoffpaarung zeigten für eine PGA/PLA 30:70-Mischung eine Erhöhung der mechanischen Steifigkeit um 30 % und
der Festigkeit um 20 % gegenüber dem reinen Polylaktid. Die initiale
Leistungssteigerung mittels der Solid-State-Extrusion fällt mit über 120 % Steigerung
deutlich stärker aus als die der MFCs, jedoch reduziert sich der Gewinn unter
Berücksichtigung eines Umformprozesses auf ca. 50 %. Weiterhin konnten die MFCs
mittels dem Spritzgießverfahren in komplexe Geometrien geformt werden.
Abschließend wurde für den MFC-Prozeß ein Verarbeitungsfenster hergeleitet.
This thesis aimed at developing and producing bioresorbable Microfibrillar
Composites (MFCs) for polymer bone nails. The main goal was to create a complete
resorbable Microfibrillar Composite made from the two common commercial
polymers polylactide (PLA) and polyglycolide (PGA). The mechanical strength and
stiffness of this new composite should be significantly higher in comparison to the
native materials. To evaluate their mechanical potential, the produced MFCs were
compared to the alternative technique of solid-state-extrusion.
Four different polymer blends in different component ratios were developed and
investigated for the MFC series. These blends werde made of four different
polylactides, two amorphous and two partially crystalline polylactides, together with
polyglycolide as the reinforcing material. For the solid-state-extrusion, four native
polylactides from the MFC series and several miscible polylactide blends were
produced.
Following the experimental studies, the process of solid-state-extrusion was
optimized first. Furthermore a theoretical model was developed for optimizing the
MFC process. This model was prooved by experimental data and microscopy
investigations. Due to the model it was possible to develop solutions for the MFCprocessing.
In addition the basic rules developed by Fakirov et al. were extended.
The mechanical properties were evaluated by 3 point bending tests. An increase of
30 % for the stiffness and 20 % for the bending strength in comparison to the native
polylactide was reached by a MFC-PGA/PLA 30:70. For the solid-state-extrusion, a
significant increase of 120 % was possible. But considering an additional forming
process, the mechanical properties dropped to 50 % of the initial values.
Furthermore, regarding the MFC-process, it was possible to get complex shapes like
the bone nails by injection molding. In conclusion a processing window was
established for the MFC-process.
Die effektive Nutzung der attraktiven Materialeigenschaften von Verbundwerkstoffen,
insbesondere die der langfaserverstärkten Polymere in Großserienbauteilen, macht
nicht nur die Entwicklung entsprechender Fertigungsverfahren sondern einhergehend
prognosefähige Berechnungsmethoden für Werkstoff und Bauweise notwendig.
Praxistaugliche Berechnungsmodelle beschränken sich in der Regel auf bewusst einfach
gehaltene analytische Modelle zur Grobdimensionierung oder auf Finite-Elemente-
Analysen. Letztere erlauben, lokale Konstruktionsaspekte darzustellen und
detaillierte Einsicht in das Strukturverhalten zu nehmen.
Am Beispiel von mit der Wickeltechnik hergestellter zylindrischer Vollkunststoff-
Druckbehälter wurden Auslegungsmethoden für unidirektional verstärkte FKV-Strukturen
erörtert, experimentell validiert und zusammen mit analytisch formulierten
Randbedingungen bzw. Modellen zu Geometrie, Werkstoff und Fertigung in ein vollparamtrisches,
dreidimensionales FE-Auslegungsmodul implementiert. Durch die
Auflösung der tragenden Tankstruktur in die einzelnen Wickellagen und der parametrischen
Variation von Lagenaufbau und Domgeometrie gestattet dieses eine effektive
Bauweisenoptimierung hinsichtlich Gewicht und Werkstoffausnutzung. Insbesondere
die neuartige, experimentell verifizierte Beschreibung der einzelnen Wickellagendicken
im Behälterdom erlaubt eine der Fertigung entsprechende, im jeweiligen
Wicklungslagenende wulstfreie Behältermodellgenerierung.
Gewebeverstärkte thermoplastische Halbzeuge können oberhalb ihrer Verformungstemperatur
wiederholt mittels Stempelumformprozess in aufeinander abgestimmten
Werkzeughälften umgeformt werden. Für eine effektivere Auslegung solcher Bauweisen
durch Verbesserung der Werkstoffmodellierung wird erstmalig die Prozesssimulation
mit der Strukturanalyse gekoppelt. Die hierfür entwickelte Schnittstelle vollzieht neben der Datenübersetzung die automatisierte Aufbereitung des Simulationsschalennetzes
zum voluminösen Strukturmodell nebst Modellbeschneidung und beinhaltet
erste Ansätze zur Abschätzung der Werkstoffkennwerte des infolge der Drapierung
nicht mehr orthogonal gewebeverstärkten FKV. Die Berücksichtigung von
Fadenorientierung, Dickenverteilung und auftretenden Falten durch Übertragung des
Simulationsnetzes erlaubt eine im Vergleich zum Stand der Technik realitätsnähere,
durch Bauteilprüfungen validierte Abbildung des mechanischen Strukturverhaltens.
The effective use of the attractive material properties of fiber reinforced plastics
(FRP), especially of long fiber reinforced polymers in mass production, requires an
advanced development of suitable manufacturing processes and prognostic design
and analysis methods for the material and structural behavior. This paper resulted
out of two research projects, accompanied by industrial, close to series development
tasks. The objective was to increase the efficiency of the material, structure and
manufacturing aspects of the prototype development through improved modeling
methods in analysis and simulation in close relationship with the design, material
development and testing facilities.
Mass production capability of thermoforming processing in combination with weight
saving potentials on the one hand and thermal and electrical insulation advantages of
thermoplastics in comparison to steel on the other hand was the motivation for the
development of a safety toe cap for safety shoes made of canvas reinforced thermoplastics.
An innovative analysis method for structures made of canvas reinforced
plastics which was initiated by this development program focus on a realistic
reproduction of the non-orthogonal fiber reinforcement of the woven fabric after the
thermoforming process. Canvas reinforced thermoplastics can be simplified as an
alignment of small unidirectional fiber reinforced sections in weft and warp direction.
The underlying design theories for unidirectional FRP were rehashed and advanced
in the framework of a full plastic high pressure vessel development program. To
improve the effectiveness of the pressure vessel design work, the mentioned design
theories and further specific manufacturing models were implemented in an innovative,
full-parametric design module validated by burst pressure vessel tests.
Of importance for the dimensioning and wide application of FRP-structures is the
ability to forecast the material behavior, particularly with regard to the frequent lack of measured material properties in practical design work. The conceptual formulation
was augmented for the quality assessment of the accomplished design work with a
systematic evaluation of the most well known estimations in regards to stiffness and
strength properties of unidirectional and canvas reinforced plastics. For non-orthogonal
canvas reinforced FRP, as in case of thermoformed components, no appropriate material model is available. A relative easy handling material model for orthogonal
canvas reinforced FRP known in literature was augmented to non-orthogonal.
This paper is not dealing with lightweight construction methods but in fact with the
objective to improve the praxis relevant design methods of unidirectional and bidirectional
fiber reinforced plastics; i.e. including estimations for material properties
and manufacturing influences.
The fundamentals of the presented analyses are the consideration of fiber orientation
and ply thickness close to reality by analytical models implemented in the FEA like
the description of the fiber deposition in a filament winding process.
A significant improvement of the design and analyses methods for unidirectional FRP
exemplarity in the case of high pressure vessels made of full plastic has been done
by the comprehension of relevant manufacturing parameters, especially through the
improved description of the ply thickness in the vessel domes. This was achieved by
combining two models, each separately known in literature, to level the bulges at the
end of each ply due to increasing fiber coverage and their mathematical description.
This leveling meets the practical corrections that also have to be done in a filament
winding program in the manufacturing process. Validating measurements on pressure
vessel prototypes were performed and showed excellent accordance.
Beyond it, the developed parametric FE analysis tool for cylindrical pressure vessels
produced with the filament winding technique enables a time efficient design optimization vessels in the analysis tool were set back to future work due to the unsufficient amount of vessel tests and for the benefit of a challenging design
analysis concept for canvas reinforced FRP.
For thermoformed canvas reinforced FRP the fiber orientation and play thickness can
be determined by process simulation. Interfaces to the structural analysis that particularly
include the theoretical estimation of material properties and the material
modeling are not available in the commercial market. Hence, even the structural
analysis of such constructions can not be assumed to be state of the art. Previous
analyses of thermoformed constructions depend on material isotropy or neglect the
canvas shearing during draping; i.e. the thermoformed woven fabric material is
modeled with orthogonal fiber orientation and constant ply thickness. The objective of
this paper is to combine forming simulation and structural analysis in a way, that
beside the pure data translation, the interface performs an automated transformation
of the shell based process simulation FE net to a volumetric structure model including
the model trimming and the estimation of the non-orthogonal material properties.
The consideration of fiber orientation, thickness distribution and eventually occurring
crinkles transferred with the FE net of the process simulation into the structural
analysis allows a much more reliable reproduction of the mechanical structure behavior
as in comparison to the traditional state of the art analysis which has been
validated by extensive prototype tests.
The static, non-linear analysis of the toe cap made of canvas reinforced thermoplastic
is accompanied by very successful prototype tests, which in turn pushed this
toe cap design ahead. This series are closely linked to material development, as well
as new manufacturing technology.
and analysis because of it's automated model generation. The analysis or
evaluation of variants of the load bearing FRP lay-up, the influence of different valve
geometry and dome contours necessitates now solely the modification of the input
parameters.
For a specific forecast of the achievable burst pressure of a pressure vessel design
additional work has to be done. A degradation model has to be implemented in the
analysis tool to evaluate the increasing local ply failures until the vessel burst. The
main objective for the unidirectional FRP essay of the paper was to improve the
model generation and to increase the time effectiveness of the design analysis,
which has been achieved. The originally planed implementation of a strength evaluation
of pressure
Die Luftfahrtindustrie und die meeresgestützte ölfördernde Industrie, die so genannte
Off-Shore Industrie, streben die Einführung bzw. Weiterverbreitung von faserverstärkten
Kunststoffen mit thermoplastischer Matrix an. Sowohl Leistungsverbesserung
aber auch Kosten- und Gewichtsreduktion sind die Treiber für diese Entwicklung.
Der sehr hohe Anspruch an die Qualität der Bauteile bedingt die Verfügbarkeit
geeigneter Herstellungsverfahren. Beispiele hierfür sind das Tapelege- und das Wickelverfahren.
Beide Prozesse sind allerdings bis heute nur in den Varianten für die
Verarbeitung duroplastischer Matrizes industriell umgesetzt und etabliert. Die Bauteilherstellung
geschieht bei Anwendung von Duroplasten für Hochtemperatur- oder
Primärstrukturanwendungen durch eine, dem formgebenden Prozess nachgeschaltete
Aushärtung im Ofen oder Autoklav. Thermoplaste bieten jedoch die Möglichkeit
zur Einsparung dieses Prozessschrittes durch die in-situ Konsolidierung, d.h. endkonturnahes,
formgebendes Ablegen und Verschweißen in einem Schritt. Die Komplexität
der Thermoplastprozesse ist jedoch durch die simultane Durchführung zweier
Aufgaben erhöht. Deshalb besteht ein großer Bedarf, die theoretischen Hintergründe,
das physikalische, thermodynamische und chemische Prozessverständnis stetig
grundlegend zu erarbeiten bzw. zu verbessern. Die rein experimentelle Prozessentwicklung
an Anlagen industriellen Maßstabs ist aus Kostengründen und dem Problem
der mangelhaften Auflösung einzelner Prozessphänomene dafür ungeeignet.
Daher wird seit vielen Jahren am Verständnis, der Abstraktion und der Simulation
dieser Prozesse gearbeitet. Die dabei entstandenen theoretischen Modellierungen
können allerdings nur selten einen Bezug zum realen Prozess nachweisen.Die vorliegende Arbeit schließt deshalb die Lücke zwischen Simulation und experimenteller
Prozessentwicklung. Auf Basis einer vielfach verwendeten mathematischen
Beschreibung der thermodynamischen Verhältnisse im Prozess, einer Energiebilanzgleichung,
die erstmals in diesem Zusammenhang um die Möglichkeit zur
Berechnung von Strahlungsrandbedingungen erweitert wird, beschreibt die Arbeit die
Entwicklung eines Prozesssimulationssystems. Das dazu neu entwickelte Finite-
Elemente-Methode Programm ProSimFRT, das auf der nicht-linearen Diskretisierung
der Energiebilanzgleichung basiert, bildet der Kern eines modularen Prozesssimulationspaketes, welches die ganzheitliche parametrische Berechnung der Temperatur
während des gesamten Prozesses und für alle Prozessteilnehmer erlaubt. Thermodynamische
Teilaspekte der Verfahren und somit auf rein theoretischem Weg unzugängliche
Prozessparameter, wie z.B. konvektive Randbedingungen oder durch eine
Wasserstoff-Sauerstoffflamme erzeugte Wärmeströme können mit ProSimFRT semiempirisch
ermittelt werden. Die hierfür angewandte Methodik der Simulationskalibrierung
bedarf jedoch einer experimentellen Verifikationsmöglichkeit. Daher wird eine
neu entwickelte Experimentalplattform vorgestellt. Ein spezieller Thermodynamikprüfstand
erlaubt die Ermittlung der Prozessparameter und eine flexible Möglichkeit
zum Nachweis der Funktionsfähigkeit der Simulation. Die Integration dieser Parameter
zu einem ganzheitlichen Prozessmodell am Beispiel des Thermoplasttapelegens
mit kohlenstofffaserverstärktem Polyetheretherketon und die ableitbaren Hinweise für
die Prozessentwicklung bilden abschließend die Grundlage für die zukünftige Integration
der Simulation in die Gesamtprozesskette.
The aerospace industry and the off-shore oil industry are facing the introduction and
evolution of fiber reinforced thermoplastics. Performance enhancements as well as
cost and weight savings are the drivers behind this development. The high level of
requirements concerning the quality of components leads to a need for applicable
manufacturing technologies. Filament winding and tape placement are examples for
such processes. Both have been successfully industrialized for thermoset materials.
Thermoset components for high temperature or primary structure applications are
typically manufactured in a multi-step approach. After a geometry determining step
consolidation and curing are introduced as further processing steps towards the final
component, often using ovens or autoclaves. Being weldable, thermoplastics give the
possibility to integrate this multi-step thermoset processes. Hence the complexity of
thermoplastic processing is increased, but the potential of saving manufacturing time
is obvious. This leads to the need of theoretic background know how about the
physical, thermodynamical and chemical phenomena behind the thermoplastic
manufacturing technologies. Due to that, since many years worldwide efforts are carried
out concerning the understanding, abstraction and simulation of this processes.
But, the developed models hardly have a direct relation to real processes.
The present work overcomes the gap between simulation and experimental process
development. Based on a widely used mathematical description of the thermodynamics
within the processes, an energy balance equation, which is enhanced with radiative
boundary conditions for the first time in this context, the present work describes
the development of a process simulation tool. The newly developed finite-element
program ProSimFRT, which is based on a non-linear discretization of the energy balance
equation, serves as kernel of a modular process simulation environment. This
package allows the parametric calculation of the temperature fields throughout the whole process and for all process participants. Thermodynamic aspects, hardly
available by analytical theory as convective boundary conditions or heat fluxes generated
by oxygen-hydrogen flames can be determined semi-empirically with
ProSimFRT. The method used for that needs a possibility for experimental investigations.
Hence, a thermodynamic test rig is introduced.This test rig allows the determination of process parameters and delivers a flexible
possibility for the validation and verification of the simulation. The integration of this
parameters into an overall process model for the thermoplastic tape placement process
using carbon fiber reinforced polyetheretherketone and derivable hints for the
process development conclude the present work. They are a baseline for the future
integration of the simulation into the manufacturing process.
Continuous fibre reinforced thermoplastics are a high competitive material class for
diversified applications because of their inherent properties like light-weight construction
potential, integral design, corrosion resistance and high energy absorption level.
Using these materials, one approach towards a large volume scaled part production
rate is covered by an automated process line, consisting of a pressing process for
semi-finised sheet material production, a thermoforming step and some additional
joining technologies. To allow short cycle times in the thermoforming step, the utilised
semi-finished sheet materials, which are often referred to as “organic sheets”, have
to be fully impregnated and consolidated.
Nowadays even this combination of outstanding physical and chemical material
properties combined with the economic processing technology are no guarantee for
the break-through of continuous fibre reinforced thermoplastics, mainly because of
the high material costs for the semi-finished sheet materials. These costs can be attributed
to a non adapted material selection or choice of process parameters, as well
as by unfavourable pressing process type itself.
Therefore the aim of the present investigations was to generate some alternatives
regarding the choice of raw materials, the set-up or the selection of the pressing
process line and to provide some theoretical tools for the determination of process
parameters and dimensions.
Concerning raw material aspects, the use of the blending technology is one promising
approach towards cost reduction for the matrix component. Novel characteristics
related to the fibre structure are CF-yarns with high filament numbers (e.g. 6K or 12K instead of 3K) or multiaxial fibre orientations. These two approaches were both conducted
for sheet materials with carbon fibre reinforcement and high temperature
thermoplastics.
Two new developed ternary blend matrices consisting of PEEK and PEI as the main
ingredients were tested in comparison with neat PEEK. PES and PSU were used as
the third blend component, which provides a cost reduction potential of approximately
30 % compared to the basis PEEK polymer. The results of the static pressing experiments
pointed out that the processing behaviour of the new blends is similar to
the neat PEEK matrix. A maximum process temperature of 410 °C should not be surpassed, otherwise thermal degradation will occur and will have a negative influence
on mechanical laminat properties. To accelerate the impregnation progress a
process pressure of 25 bar in combination with a sidewise opened tooling concept is
helpful. No differences were identified if film-stacking technique was substituted by
powder-prepreg-technology or vice versa. By increasing the yarn filament number
from 3K over 6K to 12K, which is equal to an increase in bundle diameter and therefore
transverse flow distance, the impregnation time has to be extended. If unspread
yarns are used, the risk of void entrapment rises tremendously, especially with 12K
and UD-structures. To reach full impregnation with a woven 6K-fabric, an increase of
process time of 20 to 30 % compared to a 3K textile structure is required. Furthermore,
it was shown that if only transverse flow is used for the impregnation of a UDstructure,
a maximum area weight of 300-400 g/m² should not be exceeded. Additionally,
the transport of air is strictly affected by the fibre orientation, because the
main amount of displaced air runs in longitudinal fibre direction. These facts play an
important role in the design of a multaxial laminat or an impregnation process for
such a structure and have to be taken into account.
Apart from these static pressing experiments the semi-continuous (stepwise compression
moulding) and continuous (double belt press processing) processing technology
were investigated and compared to each other. The first basic processing
trails on the stepwise compression moulding equipment were carried out with the material
system GF/PA66. Whereas the processing behaviour of this material combination
in a double belt press is known quite well, there is only little information about
semi-continuous processing. The performed trials pointed out that the resulting laminate
quality for both technologies only differs in the achievable local surface quality.
Mechanical laminate properties like three point bending stiffness and strength are
directly comparable. Due to the fact that there is only small experience with the stepwise
compression moulding process, potential improvements regarding surface Quality are feasible by adapting the step procedure and the temperature distribution within
the tooling concept. If laminates, produced by semi-continuous processing, are deployed
in a thermoforming process or in a non visible structural application, the surface
appearance only plays an inferior role.
The present results with high temperature thermoplastic matrices and CF do confirm
the positive assessment for the stepwise compression moulding technology, even though the mechanical laminate values have only reached 90 % of the data received
by static press processing. In comparison to the data from literature, 90 % is already
a high mechanical performance level. The results are quite promising for the use of
the semi-continuous technology, despite the process set-up and processing parameters
not being optimised. Furthermore there are tremendous advantages in processing
equipment costs.
Finally a process model was developed based on the experimental data pool. This
model can be characterised as a tool, which provides useful boundary conditions and
dimension values for the selection of a certain pressing process depending on the
desired material combination, laminate thickness and production output. The applicability
and accuracy of the model was proofed by a direct comparison between experimental
and calculated data.
First of all the temperature profile of the pressing process was generalised by a very
common structure. This profile reflects the main characteristics for the processing of
a thermoplastic composite material. Depending on the material combination, the
laminate thickness and the occurring heat transfers, several process- and processing-
portfolios were calculated. For a defined combination of the aforementioned parameters,
these portfolios directly provide the periods of time for heating and cooling
of the laminate structure. The last step is to convert these information into an equipment
dimension and to decide which machinery configuration fulfils these requirements.
We propose several algorithms for efficient Testing of logical Implication in the case of ground objects. Because the problem of Testing a set of propositional formulas for (un)satisfiability is \(NP\)-complete there's strong evidence that there exist examples for which every algorithm which solves the problem of testing for (un)satisfiability has a runtime that is exponential in the length of the input. So will have our algorithms. We will therefore point out classes of logic programs for which our algorithms have a lower runtime. At the end of this paper we will give an outline of an algorithm for theory refinement which is based on the algorithms described above.
UML and SDL are languages for the development of software systems that have different origins, and have evolved separately for many years. Recently, it can be observed that OMG and ITU, the standardisation bodies responsible for UML and SDL, respectively, are making efforts to harmonise these languages. So far, harmonisation takes place mainly on a conceptual level, by extending and aligning the set of language concepts. In this paper, we argue that harmonisation of languages can be approached both from a syntactic and semantic perspective. We show how a common syntactical basis can be derived from the analysis of the UML meta-model
and the SDL abstract grammar. For this purpose, conceptually sound and well-founded mappings from meta-models to abstract grammars and vice versa are defined and applied. On the semantic level, a comparison between corresponding language constructs is performed.
This report explains basic notions and concepts of Abstract State Machines (ASM) as well as notation for defining ASM models. The objective here is to provide an intuitive understanding of the formalism; for a rigorous definition of the mathematical foundations of ASM, the reader is referred to [2] and [3]. Further references on ASM-related material can be found on the ASM Web Pages [1].
Jahresbericht
(2003)
Congress Report 2003.12
(2003)
Congress Report 2003.11
(2003)
Congress Report 2003.10
(2003)
Congress Report 2003.09
(2003)
Congress Report 2003.07-08
(2003)
Congress Report 2003.06
(2003)
Congress Report 2003.05
(2003)
Congress Report 2003.04
(2003)
Congress Report 2003.03
(2003)
Congress Report 2003.02
(2003)
Congress Report 2003.01
(2003)
A hub location problem consists of locating p hubs in a network in order to collect and consolidate flow between node pairs. This thesis deals with the uncapacitated single allocation p-hub center problem (USApHCP) as a special type of hub location problem with min max objective function. Using the so-called radius formulation of the problem, the dimension of the polyhedron of USApHCP is derived. The formulation constraints are investigated to find out which of these define facets. Then, three new classes of facet-defining inequalities are derived. Finally, efficient procedures to separate facets in a branch-and-cut algorithm are proposed. The polyhedral analysis of USApHCP is based on a tight relation to the uncapacitated facility location problem (UFL). Hence, many results stated in this thesis also hold for UFL.
In recent years a considerable attention was paid to an investigation of finite orders relative to different properties of their isotone functions [2,3]. Strict order relations are defined as strict asymmetric and transitive binary relations. Some algebraic properties of strict orders were already studied in [6]. For the class K of so-called 2-series strict orders we describe the partially ordered set EndK of endomorphism monoids, ordered by inclusion. It is obtained that EndK possesses a least element and in most cases defines a Boolean algebra. Moreover, every 2-series strict order is determined by its n-ary isotone functions for some natural number n.
Der Bericht beinhaltet schwerpunktmäßig die Punkte "Informationstechnik und digitale Bibliotheksdienste", "Informationsportal Internet", Online-Fachdatenbanken", "Elektronische Hochschulschriften, Lernmaterialien und Zeitschriften", "Literatur- und Sachmittel", "Literaturerwerbung, Bestand, Bestanderschließung", "Benutzung", "Öffentlichkeitsarbeit/Ausstellungen" und "Personelle Änderungen" innerhalb der Universitätsbibliothek Kaiserslautern für die Jahre 2001 und 2002.
Interferenzreduktion in CDMA-Mobilfunksystemen - ein aktuelles Problem und Wege zu seiner Lösung
(2003)
Eine signifikante Steigerung der Leistungsfähigkeit von Mobilfunksystemen und die damit verbundene Erhöhung des mit begrenzten Frequenzspektrumsressourcen erzielbaren ökonomischen Gewinns erfordert eine Interferenzreduktion. Da der von einem empfangenen Interferenzsignal erzeugte Störeffekt sowohl von der Leistung des Interferenzsignals als auch von der Struktur des Interferenzsignals im Vergleich zur Struktur des Nutzsignals abhängt, ergeben sich zwei prinzipielle Ansätze zur Reduktion der Interferenz. Bei den Interferenzreduktionsverfahren auf der Systemebene wird die Leistung der empfangenen Interferenzsignale zum Beispiel durch geschickte Regelung der Sendeleistungen oder durch Einstellen der Richtcharakteristiken von Antennen reduziert. Interferenzreduktionsverfahren auf der Systemebene sind relativ einfach realisierbar und können bereits in heutigen Mobilfunksystemen erfolgreich eingesetzt werden. Interferenzreduktionsverfahren auf der Verbindungsebene zielen auf eine vorteilhafte Beeinflussung oder Berücksichtigung der Signalstrukturen. Ausgehend von allgemeingültigen Eigenschaften des Mobilfunkkanals wie Linearität kann man Signalstrukturen finden, die a priori zu wenig oder sogar keiner schädlichen Interferenz führen. Solche einfachste, vom aktuellen Zustand des Mobilfunkkanals unabhängigen Interferenzreduktionsverfahren auf der Verbindungsebene sind beispielsweise die Vielfachzugriffsverfahren, die in jedem Mobilfunksystem eingesetzt werden. In letzter Zeit werden auch vermehrt Interferenzreduktionsverfahren auf der Verbindungsebene untersucht, die die Kenntnis des aktuellen Kanalzustands ausnutzen. Solche Interferenzreduktionsverfahren erfordern komplizierte Berechnungen in Sender oder Empfänger, in die die einzelnen Signalabtastwerte und die schnell zeitvarianten Kanalimpulsantworten eingehen. Der daraus resultierende hohe Rechenaufwand verhinderte bis vor kurzem eine Realisierung in kommerziellen Produkten. Interferenzreduktionsverfahren auf der Verbindungsebene kann man in senderseitige Verfahren und empfängerseitige Verfahren unterteilen. Die senderseitigen Verfahren versuchen, durch geschickte Gestaltung der Sendesignale schädliche Interferenzen zu vermeiden. Ein Schwerpunkt der vorliegenden Schrift ist das Untersuchen empfängerseitiger Interferenzreduktionsverfahren auf der Verbindungsebene. Hier interessiert neben der gemeinsamen Kanalschätzung insbesondere die gemeinsame Datenschätzung. Ein wesentliches Problem bei der empfängerseitigen Interferenzreduktion auf der Verbindungsebene ist die erhöhte Anzahl zu berücksichtigender Mobilstationen bei der gemeinsamen Datenschätzung. Im Vergleich zu Empfängern ohne Interferenzreduktion müssen mehr Daten aus einer unveränderten Anzahl an verfügbaren Empfangswerten geschätzt werden, was zu einem verminderten Mehrteilnehmercodierungsgewinn des Datenschätzers führt. Verfahren der gemeinsamen Datenschätzung können nur dann gewinnbringend eingesetzt werden, wenn der negative Effekt des verminderten Mehrteilnehmercodierungsgewinns durch den positiven Effekt der reduzierten Interferenz mindestens kompensiert wird. Diese Forderung ist bei der Interzellinterferenzreduktion besonders kritisch, da die einzelnen Interzellinterferer häufig nur mit geringer Leistung empfangen werden, das heißt der positive Effekt der reduzierten Interferenz bei Berücksichtigen eines Interzellinterferers relativ gering ausfällt. Eine Voraussetzung zur erfolgreichen Interferenzreduktion und insbesondere zur Interzellinterferenzreduktion sind folglich Datenschätzer mit hohem Mehrteilnehmercodierungsgewinn. Die bekannten linearen gemeinsamen Datenschätzer wie der Zero-Forcing-Schätzer können diese Forderung nach hohem Mehrteilnehmercodierungsgewinn bei größeren Anzahlen gemeinsam detektierter Mobilstationen nicht erfüllen. Ein mögliche Lösung zum Erzielen hoher Mehrteilnehmercodierungsgewinne mit moderaten Rechenaufwänden sind die in der vorliegenden Schrift untersuchten, auf dem Turbo-Prinzip basierenden iterativen gemeinsamen Datenschätzer. Prinzipiell handelt es sich bei den hier untersuchten Datenschätzern um iterative Versionen der bekannten linearen gemeinsamen Datenschätzer, die um einen nichtlinearen Schätzwertverbesserer erweitert werden. Der nichtlineare Schätzwertverbesserer nutzt die Kenntnis des Modulationsalphabets und optional des eingesetzten Fehlerschutzcodes zum Verbessern der Schätzergebnisse. Die vielen vorgestellten Varianten der iterativen gemeinsamen Datenschätzer und die verschiedenen Schätzwertverbesserer bilden eine Art Baukastensystem, das es erlaubt, für jeden Anwendungsfall einen maßgeschneiderten gemeinsamen Datenschätzer zu konstruieren.
In der vorliegenden Arbeit wird die Beständigkeit geklebter, hochfester Glasverbunde unter natürlicher Bewitterung untersucht. Ziel der vorliegenden Arbeit ist es, die Anforderungen an einen Klebstoff zum hochfesten und witterungsbeständigen Fügen von Glas für Anwendungen im Bauwesen zu spezifizieren und die Tauglichkeit geeignet erscheinender Systeme anhand dieser Anforderungen zu prüfen und zu bewerten. Feuchtigkeit sowie die UV- und Lichteinstrahlung sind die Hauptschädigungsfaktoren für Glasklebungen. Ein Klebstoff für die Befestigung von Punkthaltern an Glas muss unter diesen Belastungen dauerhafte Verbindungen zur Glasoberfläche aufbauen und im Vergleich zu den in linienförmigen Verbindungen eingesetzten Silikonen deutlich höhere Spannungen übertragen können. Als aussichtsreiche Klebstoffkonzepte zur Erfüllung dieser Forderungen werden ein epoxidverstärkter Silyl-Klebstoff und ein Zweikomponenten-Epoxidharzklebstoff mit Haftvermittler ausgewählt. Diese Klebstoffe können der Theorie nach -ebenso wie Silikone- über Si-O-Si-Bindungen an die Glasoberfläche anbinden. Ein in der Praxis bewährter Silikondichtstoff dient als Bewertungsmaßstab für das Alterungsverhalten der gewählten Systeme. Die Untersuchung des Alterungsverhaltens der Klebstoffe erfolgt an Glas-Glas-Modellverbunden in Druckscher- und in Zugschergeometrie. Der Einfluss von Feuchtigkeit auf die Verbindung wird durch eine Wasserlagerung der Modellverbunde bei 40 °C simuliert, eine künstliche Bewitterung belastet die Proben zusätzlich durch UV- und sichtbares Licht. Durch eine parallel zu diesen Versuchen durchgeführte Freibewitterung kann die Aussagekraft der gewonnenen Ergebnisse bewertet werden. Die Wasserlagerung führt bei den mit GD 823 N hergestellten Modellverbunden nach relativ kurzer Zeit zu einem deutlichen Abfall der Verbundfestigkeit und zu einem Wechsel des im ungealterten Zustand kohäsiven Bruchbildes zu adhäsivem Versagen. Die künstliche Bewitterung zeigt die Unempfindlichkeit gegenüber der Einwirkung von Sonnenlicht, erhöhter Temperatur und zeitweiliger Feuchtebelastung. Sie führt zu keiner relevanten Änderung der Festigkeit oder des Bruchbildes der Modellverbunde. Die natürliche Bewitterung der Verbunde führt nach fünf Jahren zu keiner erkennbaren Schädigung des Klebstoffes oder der Grenzfläche. Die ermittelten mechanischen Kennwerte unterscheiden sich nur geringfügig von den im ungealterten Zustand ermittelten Werten. Bei den mit MOS 7 hergestellten Verbunden führt die Wasserlagerung zu einem moderaten Festigkeitsverlust, der durch Trocknung der Proben teilweise rückgängig gemacht werden kann. Dabei ändert sich das Bruchbild vom kohäsiven Versagen im ungealterten Zustand zu einem adhäsiven Versagen nach Wasserlagerung. Nach Rücktrocknung treten bei kürzeren Alterungsdauern wieder Kohäsionsbrüche auf, nach längerer Wasserlagerung bleibt das Bruchbild adhäsiv. Die Ergebnisse der mechanischen Prüfungen deuten auf eine signifikante Nachvernetzung des Klebstoffs im Verlauf der Alterungen hin, die nicht nur durch das Wasser, sondern auch durch die erhöhte Temperatur verursacht wird. Dies kann durch FTIR-Messungen gezeigt werden. Die künstliche Bewitterung führt zu einer deutlichen Schädigung der Verbindung, die sowohl in den mechanischen Kennwerten als auch im Wechsel des Bruchbildes sichtbar wird. Dieses Verhalten zeigen die Proben auch bei Freibewitterung. Längere Lagerung der Proben unter Lichtabschluss bei Umgebungsbedingungen führt zu einer starken Zunahme von Scherfestigkeit und E-Modul durch die langsam ablaufende Nachvernetzung der Epoxidharzphase. Der Klebstoff MOS 7 ist trotz der mit ihm zu erzielenden gut feuchtigkeitsbeständigen Verbunde aufgrund der nicht ausreichenden Beständigkeit bei Bewitterung und der sich stark ändernden mechanischen Eigenschaften für eine direkte UV-Belastung der Grenzfläche und einen Einsatz in feucht-warmer Umgebung weniger geeignet. Die mit dem Epoxidharz Sichel Metallon FL verklebten Modellverbunde werden sowohl bei Raumtemperatur als auch bei 120 °C ausgehärtet. Nach beiden Aushärtebedingungen zeigen die Verbunde nach Alterung in 40 °C warmem Wasser nur geringe Verluste der Festigkeit. Erst die Erhöhung der Alterungstemperatur auf 70 °C führt zu einem deutlichen Festigkeitsverlust mit erkennbaren Vorteilen der Heißaushärtung. Bei künstlicher Bewitterung lassen sich geringfügige Unterschiede der verklebten Glasseite erkennen. Die Ergebnisse deuten darauf hin, dass die Verklebung der Ofenseite zu einer etwas besseren Beständigkeit führt. Technisch sind die ermittelten Unterschiede nur von geringer Bedeutung. Die Freibewitterung hinterlässt nach fünf Jahren keine erkennbaren Schäden an der Klebung.
Im Rahmen der vorliegenden Doktorarbeit wurde das Protein AtMSBP1 (Arabidopsis thaliana Monosaccharid Binding Protein 1) aus der Familie der Zuckertransporter auf molekularer und biochemischer Ebene untersucht. Dieses Protein weist sowohl strukturelle, als auch funktionelle Besonderheiten im Vergleich zu anderen bisher untersuchten Zuckertransportern aus Arabidopsis thaliana auf. Die MSBP-Proteine stellen eine eigene Gruppe innerhalb der Monosaccharid-Transporter der Pflanzen dar. Sie haben wie andere Zuckertransporter 12 transmembrane Helices, die zwischen Helix 6 und 7 durch einen großen zentralen Loop miteinander verbunden sind. Dieser hydrophile Loop ist bei den MSBP-Proteinen 4 bis 5 mal so lang wie bei anderen Zuckertransportern und spielt für die Funktion der MSBP-Proteine wahrscheinlich eine wichtige Rolle. Die MSBP-Proteine weisen mehr Ähnlichkeit zu bakteriellen als zu plasmamembranständigen pflanzlichen Monosaccharidtransportern auf. Die Proteine des MSBP-Typs wurden in verschiedenen Spezies der Angiospermen identifiziert. In Arabidopsis thaliana kommen drei Isoformen der MSBP-Proteine vor, die auf mRNA-Ebene in verschieden Geweben nachgewiesen wurden und ein spezifisches Expressionsmuster zeigen. Der AtMSBP1 ist in der äußeren Plastidenmembran lokalisiert, trägt dort aber nicht signifikant zum Glukosetransport bei. Bei der Anzucht von AtMSBP1::T-DNA- und AtMSBP2::T-DNA-"knock out"-Mutanten auf Erde gibt es keine signifikanten phänotypischen Unterschiede im Vergleich zu Wildtyppflanzen. Bei erhöhten Konzentrationen verschiedener Zucker zeigen aber die "knock out"-Mutanten auf morphologischer und molekularer Ebene einen sensitiveren Phänotyp im Vergleich zu Wildtyppflanzen. Die Ergebnisse lassen auf eine Verknüpfung der MSBP-Proteine mit den "Zuckersensing-Wegen" der Pflanzen schließen.
Es wurden Untersuchungen zur Expression und Wechsel von Serotypproteinen bei Paramecium primaurelia, Stamm 156 durchgeführt. Zum Nachweis der unterschiedlichen Serotypexpressionen wurden Immunofluoreszenzfärbungen und eine spezifische RT-PCR etabliert. Mit dieser Methode wurde der Ablauf eines temperaturinduzierten Serotypwechsels dokumentiert. Es wurde der Einfluss weiterer Umweltparameter auf die Ausprägung des Serotyps untersucht. Freilandexperimente sollten die Ausprägung der Serotypen unter multifaktorieller Reizeinwirkung zeigen. Zusätzlich konnte die Koexpression von zwei Serotypproteinen auf einer Zelle nachgewiesen werden.
Die cytogenetische Manifestation von Genamplifikation in humanen Zellen wurde in einem Fall von akuter myeloischer Leukämie (AML) sowie an der humanen Cervixcarcinomzelllinie HeLa S3 untersucht. In dem AML-Fall ergab die Karyotypisierung der Leukämiezellen neben dem Verlust eines X-Chromosoms das Vorliegen einer extrachromosomalen Genamplifikation in Form von Double Minutes. Mit Hilfe der Comparativen Genomischen Hybridisierung (CGH) und der Fluoreszenz-in situ-Hybridisierung (FISH) wurde die Herkunft der amplifizierten Sequenz aus der chromosomalen Region 8q24 ermittelt und eine Amplifikation des Protoonkogens MYC in den Double Minutes nachgewiesen. Die FISH-Analyse zeigte zudem den Verlust von einem der beiden chromosomalen MYC-Loci an, der auf einen Deletionsmechanismus der Genamplifikationsentwicklung schliessen ließ. Die Induktion der Amplifikation des Dihydrofolat-Reduktase-Gens (DHFR) durch Selektion mit Methotrexat (MTX) diente als Modellsystem zur Analyse der frühen Stadien der Genamplifikationsentwicklung. Durch mehrmonatige Mehrschrittselektionen von zwei HeLa-Zellpopulationen wurden unabhängig voneinander zwei HeLa-Sublinien mit jeweils extrachromosomaler DHFR-Amplifikation in Form von Double Minutes erzeugt. Die Veränderungen der 5q-Trägerchromosomen und der intrachromosomalen DHFR-Kopienanzahl, die im Verlauf der MTX-Selektionen in den HeLa-Zellen auftraten, wiesen auf das Zusammenwirken unterschiedlicher Mechanismen zur DHFR-Amplifikation hin. Niedrige MTX-Konzentrationen wirkten in Richtung einer Anreicherung von intrachromosomalen DHFR-Kopien, die hauptsächlich auf den Zugewinn eines Chromosoms 5 zurückzuführen waren. Daneben wies das Auftreten von neuen derivativen DHFR-haltigen Chromosomen auf Bruchereignisse in Chromosom 5 hin. Das Erscheinen eines derivativen Chromosoms mit zwei invertiert angeordneten 5q und drei DHFR-Kopien ließ auf das Ablaufen von Breakage-Fusion-Bridge (BFB)-Zyklen schliessen. Bei höheren MTX-Konzentrationen (ab 0.25 µM) trat dagegen eine Anreicherung von extrachromosomalen DHFR-Kopien in Double Minutes bei gleichzeitigem Rückgang der derivativen DHFR-haltigen Chromosomen in den Vordergrund. Die Sublinien aus Selektion 1 waren in diesem Stadium durch den Verlust eines Chromosoms 5 gekennzeichnet, der auf eine Generierung von extrachromosomalen DHFR-Kopien aus 5q-Bruchstücken hinwies. Im Gegensatz dazu trat bei den Sublinien von Selektion 2 in diesem Stadium zunächst noch eine Zunahme von intrachromosomalen DHFR-Kopien auf, die nachfolgend durch eine sprunghafte Erhöhung von extrachromosomalen DHFR-Kopien in Double Minutes in der Zellpopulation abgelöst wurde. In den Sublinien von Selektion 2 kann daher eine Generierung von extrachromosomalen DHFR-Kopien durch Bruchereignisse an einem zuvor hinzugewonnenen Chromosom 5 angenommen werden. Die letzten Sublinien aus beiden Selektionen wiesen wieder den 5q-Trägerchromosomen- und intrachromosomalen DHFR-Status der Parentallinie auf, der offenbar in den HeLa-Zellen eine besondere Stabilität besitzt. Die unterschiedlichen Veränderungen im 5q- und DHFR-Status in den untersuchten HeLa-Sublinien zeigen, dass eine DHFR-Amplifikation in HeLa-Zellen unter MTX-Selektionsdruck auf verschiedenen Wegen erfolgen kann. In mehrmonatiger Kultivierung ohne Selektionsdruck entwickelte die verwendete HeLa-Zelllinie unter den vorliegenden Kultivierungsbedingungen keine der in den MTX-selektionierten Sublinien beobachteten Veränderungen, so dass diese als selektionsspezifische Prozesse angesehen werden können.
Das Internet ist kein statisches Objekt, das keinen Veränderungen ausgesetzt ist. Ständig werden neue Informationsmaterialien hinzugefügt, bestehende Inhalte verändert oder ganz entfernt. Das Verändern und Entfernen von Materialien ist ein Problem, das von META-AKAD nicht außer Acht gelassen werden darf. Es ist notwendig die erschlossenen Lehr- und Lernmaterialien ständig auf Veränderung und auf ihre Verfügbarkeit hin zu prüfen. Im Rahmen dieser Projektarbeit soll eine Aktualisierungskomponente entwickelt werden, die es ermöglicht die gesammelten und bereits erschlossenen Lehr- und Lernmaterialien in festgelegten Zyklen automatisch auf ihre Aktualität und Verfügbarkeit hin zu überprüfen. Dies erleichtert es, die gesammelten Materialien zu kontrollieren und zu verwalten. Weiterhin soll die Aktualisierungskomponente dabei helfen nicht mehr verfügbare oder veraltete Dokumente aus der Menge der erfassten Materialien ausfindig zu machen, um diese eventuell entfernen zu können.
Das Projekt Meta-Akad hat das Ziel, Lernenden und Lehrenden den möglichst einfachen, umfassenden und schnellen Zugriff auf Lehrmaterial zu ermöglichen. Dabei werden verschiedene, über die Aspekte einer reinen Internet- Suchmaschine hinausgehende Aspekte berücksichtigt: Neben dem Aufbau einer umfangreichen und repräsentativen Sammlung von Lerndokumenten sollen diese mittels bibliothekarischer Methoden erschlossen und mit umfangreichen Metadaten, wie beispielsweise einer inhaltlichen Einordnung, versehen werden. Um dem Problem der fraglichen Qualität von Dokumenten aus dem Internet gerecht zu werden, bietet Meta-Akad die Möglichkeit diese durch Beguchtachtungsverfahren sicherzustellen. Aufgrund dieses Mehrwerts versteht sich das Projekt als virtuelle, über das Internet erreichbare Bibliothek. Der Zugriff auf die erfassten Dokumente ist durch eine Web-basierte Schnittstelle realisiert: Diese soll sowohl die Möglichkeit einer Suche durch Angabe von Schlüsselwörtern, als auch das Blättern in der Dokumentsammlung erlauben. Eine Suche nach Schlüsselwörtern soll neben den Meta-Daten auch den gesamten textuellen Inhalt der Dokumente betreffen. Die Integration der Volltextsuche in den bereits vorhandenen Meta-Daten Suchvorgang ist das Kernthema dieser Projektarbeit.
Diese Projektarbeit beschreibt die Anforderungen, den Aufbau und die Implementierung der Anfrageverarbeitung (Query-Engine). Im diesem Kapitel werden die Zielsetzungen des Meta-Akad Projekts und die Realisierungsmöglichkeiten mit dem Java 2 Enterprise Edition Framework erörtert. Ferner wird die Einordnung der Anfrageverarbeitung in das Gesamtsystem gezeigt. Das zweite Kapitel erläutert grob Anforderungen sowie Ablauf der Anfrageverarbeitung und stellt das Implementierungskonzept dar. In den Nachfolgenden Kapitel wird dann näher auf die einzelnen Phasen der Verarbeitung und die auftretenden Probleme eingegangen. Am Ende werden im Kapitel Ausblick Möglichkeiten für Erweiterungen und Verbesserungen der Anfrageverarbeitung des Meta-Akad Suchdienstes dargelegt.
Die wesentlichste Veränderung durch Basel II, mit der kreditsuchende Unternehmen konfrontiert sein werden, ist das Rating als wesentlicher Bestandteil des Kreditvergabeprozesses. Auf das Unternehmenscontrolling werden in diesem Zusammenhang, insbesondere im Be-reich der Kommunikation mit externen Adressaten, Neuerungen zukommen. Kommunikation mit Stakeholdern außerhalb des Unternehmens war bisher nur im Rahmen der Investor Relations und eingeschränkt bei der Kreditvergabe anzutreffen. Durch Basel II muss sich das Unternehmenscontrolling jedoch sehr viel offener und kooperativer gegenüber von Ratingagenturen oder der entsprechenden Abteilung der Bank zeigen. In der Ausgestaltung des Risikocontrollings sind für eine Ausrichtung nach Basel II keine gestalterischen Innovationen notwendig. Die risikoadäquatere Bildung des Zinssatzes bietet lediglich einen monetären Anreiz, die Anforderungen, die beispielsweise schon größtenteils durch das KonTraG aufgestellt wurden, innerhalb der Unternehmen zu implementieren.
We present new algorithms and provide an overall framework for the interaction of the classically separate steps of logic synthesis and physical layout in the design of VLSI circuits. Due to the continuous development of smaller sized fabrication processes and the subsequent domination of interconnect delays, the traditional separation of logical and physical design results in increasingly inaccurate cost functions and aggravates the design closure problem. Consequently, the interaction of physical and logical domains has become one of the greatest challenges in the design of VLSI circuits. To address this challenge, we propose different solutions for the control and datapath logic of a design, and show how to combine them to reach design closure.
Ziel dieser Arbeit war es, die Rolle der PDE1C-Isoform in ZNS-Zellen zu untersuchen. Es sollte vor allem die Bedeutung der PDE1C als mögliches Target für die anti-neoplastische Therapie von ZNS-Tumoren näher beleuchtet werden. Die humanen Glioblastomzellinien SNB75, SF295, SF539 und SF268 wurden bezüglich ihrer PDE1- und PDE4-Isoenzymausstattung näher charakterisiert. Es zeigte sich, daß die Zellinien SNB75 und SF295 in ihrem PDE-Expressionsmuster sehr unterschiedlich sind: In der Zellinie SNB75 liegt die cAMP-hydrolytische Aktivität deutlich über jener in SF295-Zellen. Darüber hinaus weisen die SNB75-Zellen einen hohen Anteil Ca2+/CaM-stimulierbarer PDE1-Aktivität bei niedriger PDE4-Aktivität auf. Im Gegensatz dazu zeigt die Zellinie SF295, welche keine Ca2+/CaM-stimulierbare PDE-Aktivität besitzt, einen hohen prozentualen Anteil an Rolipram-hemmbarer PDE4-Aktivität. Darüber hinaus verhalten sich die beiden Zellinien auch bezüglich ihrer Gehalte an den „second messengern“ cAMP und cGMP komplementär. In den SNB75-Zellen ist der cAMP-Spiegel etwa um 2/3 niedriger als in den SF295-Zellen; der cGMP-Spiegel ist etwa doppelt so hoch wie der cAMP-Gehalt. In SF295-Zellen hingegen liegt der Gehalt an cGMP um etwa die Hälfte niedriger als der cAMP-Spiegel und ist somit vergleichbar mit dem cGMP-Gehalt der SNB75-Zellen. Auch die intrazelluläre Konzentration von Ca2+ ist in der Zellinie SNB75 höher als in SF295-Zellen. Die Untersuchung ausgelöster Ca2+-Transienten – mit besonderem Augenmerk auf den capacitativen Ca2+-Einstrom (CCE) – ergab, daß in SNB75-Zellen die Kapazität der intrazellulären Ca2+-Speicher und die Geschwindigkeit der Speicherentleerung größer sind als in SF295-Zellen. Auch der CCE ist in SNB75-Zellen größer als in der Zellinie SF295. An den beiden humanen Glioblastomzellinien SNB75 und SF295 wurden mittels Cytotoxizitätstests verschiedene PDE-Hemmstoffe auf ihr wachstumshemmendes Potential untersucht. Für den PDE4-Inhibitor DC-TA-46 konnte ein IC50-Bereich von 3-4.5 µM für die Hemmung des Zellwachstums ermittelt werden. Der als PDE1-Hemmstoff eingesetzte CaM-Antagonist Calmidazoliumchlorid wies einen IC50-Wert für die Wachstumshemmung von 2-3 µM auf. Ein Zusammenhang zwischen PDE1 bzw. PDE4-Expression der Zellinien und dem wachstumshemmenden Potential der eingesetzten Substanzen war nicht erkennbar. Zur weiteren Charakterisierung der Zellinie SNB75 wurden der Karyotyp und die Verdopplungszeit der Zellinie bestimmt. Weiterhin wurde die cDNA der PDE1C aus der humanen Biopsieprobe TB1365 (anaplastisches Astrocytom) kloniert und das rekombinante Protein transient überexprimiert. An der rekombinanten PDE1C wurden – neben der Stimulierbarkeit des Proteins durch Ca2+/CaM (+ 130 %) – die beiden PDE-Hemmstoffe DC-TA-46 und Vinpocetin getestet. Diese beiden Substanzen hemmten die Aktivität der rekombinanten PDE1C um durchschnittlich 42 % (DC-TA-46) bzw. 28 % (Vinpocetin). Ein in vitro-Tiermodell zur näheren Untersuchung der PDE-Ausstattung und cAMP-Homöostase von nicht-malignen ZNS-Zellen und Glioblastomzellen sollte aus subkultivierten Ratten-Astrocyten und der Ratten-Glioblastomzellinie C6 entwickelt werden. Die Untersuchungen der vorliegenden Arbeit zeigen, entgegen Daten für Keratinocyten (Marko et al., 1998), daß die PDE-Aktivität in nicht-malignen Ratten-Astrocyten deutlich höher liegt als in der Glioblastomzellinie C6. Die Ratten-Astrocyten zeigen eine höhere Ca2+/CaM-stimulierbare PDE1-Aktivität. In der Zellinie C6 hingegen ist der PDE4-Anteil im Vergleich zu Ratten-Astrocyten höher. Diese Ergebnisse werden durch RT-PCR-Versuche gestützt. Die Gehalte der „second messenger“ cAMP, cGMP und Ca2+ sind in nicht-malignen Ratten-Astrocyten und malignen C6-Zellen vergleichbar. Allerdings weisen die C6-Zellen einen größeren CCE auf. Der Einsatz von DC-TA-46 in Cytotoxizitätstests weist sowohl in Ratten-Astrocyten als auch in C6-Tumorzellen vergleichbare Hemmwirkungen (IC50-Wert ~ 1.5 µM) auf. Der CaM-Antagonist Calmidazoliumchlorid wirkt in subkultivierten Ratten-Astrocyten bereits in geringsten Konzentrationen wachstumshemmend; der IC50-Wert der Wachstumshemmung von C6-Zellen liegt bei 2.3 µM. Ergebnisse dieser Arbeit zeigen allerdings, daß das untersuchte Ratten-Zellmodell – auch aufgrund der unterschiedlichen Kulturbedingungen, welche die PDE-Expression beeinflussen – nur mit Einschränkungen einsetzbar ist. Aufgrund der aktuellen Daten scheint die PDE1C als Target für eine anti-neoplastischen Therapie von ZNS-Tumoren kaum geeignet. Der Vergleich von nicht-malignen und malignen ZNS-Zellen deutet eher auf eine „down“-Regulation der PDE1C und eine „up“-Regulation der PDE4 hin. Dies konnte sowohl in humanen als auch in Rattenzellen gezeigt werden und müßte in weiteren Untersuchungen vertiefend untersucht werden.
The present thesis deals with coupled steady state laminar flows of isothermal incompressible viscous Newtonian fluids in plain and in porous media. The flow in the pure fluid region is usually described by the (Navier-)Stokes system of equations. The most popular models for the flow in the porous media are those suggested by Darcy and by Brinkman. Interface conditions, proposed in the mathematical literature for coupling Darcy and Navier-Stokes equations, are shortly reviewed in the thesis. The coupling of Navier-Stokes and Brinkman equations in the literature is based on the so called continuous stress tensor interface conditions. One of the main tasks of this thesis is to investigate another type of interface conditions, namely, the recently suggested stress tensor jump interface conditions. The mathematical models based on these interface conditions were not carefully investigated from the mathematical point of view, and also their validity was a subject of discussions. The considerations within this thesis are a step toward better understanding of these interface conditions. Several aspects of the numerical simulations of such coupled flows are considered: -the choice of proper interface conditions between the plain and porous media -analysis of the well-posedness of the arising systems of partial differential equations; -developing numerical algorithm for the stress tensor jump interface conditions, coupling Navier-Stokes equations in the pure liquid media with the Navier-Stokes-Brinkman equations in the porous media; -validation of the macroscale mathematical models on the base of a comparison with the results from a direct numerical simulation of model representative problems, allowing for grid resolution of the pore level geometry; -developing software and performing numerical simulation of 3-D industrial flows, namely of oil flows through car filters.
Wesentliches Ziel dieser Arbeit war ein verbessertes Verständnis der Autoionisationsdynamik in ausgewählten angeregten und anionischen atomaren Stoßkomplexen. Dazu wurden die Energiespektren der in diesen Prozessen freigesetzten Elektronen, zum Teil in Abhängigkeit vom Emissionswinkel, mit hoher Auflösung untersucht und mit quantenmechanischen Rechnungen (die in Kooperation mit Theoretikern durchgeführt wurden) verglichen. Ein Schwerpunkt lag dabei auf Experimenten zur assoziativen Ionisation in Stößen metastabiler Argonatome mit Wasserstoffatomen. In diesem System liegt die Anregungsenergie der metastabilen Argonatome (11.7232eV für den Ar*(3P0)- und 11.5484eV für den Ar*(3P2)-Zustand) niedriger als die Ionisierungsenergie von atomarem Wasserstoff (13.5984eV), und so kann bei thermischen Stoßenergien nur assoziative Ionisation unter Bildung von ArH+-Molekülionen gemäß dem Prozess Ar*(4s 3P2,3P0) + H(1s) --> ArH+(v+,J+) + e-(E) auftreten, welche über Kurvenkreuzungen ablaufen muss. Erstmals wurden die Energieverteilungen der in diesem Prozess emittierten Elektronen für verschiedene Nachweiswinkel gemessen, wobei die Messungen bei einem Nachweiswinkel zustandsselektiert durchgeführt wurden. Die Elektronenenergiespektren zeigen eine deutliche Variation der auftretenden Vibrationsstufen mit dem Nachweiswinkel, wobei verschiedene Winkelabhängigkeiten bei den Stufen zu kleinen und zu großen Vibrationsquantenzahlen v+ beobachtet wurden. Zur Durchführung der winkelabhängigen Messungen wurde ein hochauflösendes Elektronenspektrometer konstruiert, welches an den bereits vorhandenen apparativen Aufbau angepasst und mit einer Option für positionsempfindlichen Elektronennachweis versehen wurde. Charakterisierungs-Messungen haben gezeigt, dass mit dem neuen Elektronenanalysator bei Spaltbreiten von 0.2mm Spektrometerbreiten bis hinab zu 6meV erreicht werden können. Im Rahmen weiterer Experimente mit metastabilen Edelgasatomen wurden erstmals zustandsselektiv die Energieverteilungen der in den Stoßkomplexen Ar*(4s 3P2,3P0) + Hg und Kr*(5s 3P2,3P0) + Hg emittierten Elektronen gemessen. Bei diesen Systemen kann bei thermischen Stoßenergien sowohl Penning-Ionisation gemäß dem Prozess Rg* + Hg --> Rg + Hg+ + e-(E) als auch assoziative Ionisation gemäß Rg* + Hg --> RgHg+ + e-(E) (Rg = Ar oder Kr) auftreten. Diese Messungen wurden unter einem festen Nachweiswinkel (90° relativ zur Richtung des Metastabilenstrahls) durchgeführt. Es wurde beobachtet, dass im Ar*(3P0)+Hg-Spektrum im Vergleich zum Ar*(3P2)+Hg-Spektrum eine zusätzliche Struktur bei geringerer Elektronenenergie auftritt, welche sich nur durch Kopplung an einen tiefer liegenden Autoionisationskanal erklären lässt. Für das System Ar*(3P2) + Hg wurden parallel zu dieser Arbeit quantenmechanische Modellrechnungen von L. Thiel durchgeführt. Aus dem gemessenen Elektronenenergiespektrum konnte unter Verwendung eines ab initio Potentials für den Ausgangskanal ein komplexes Modellpotential für den Eingangskanal gewonnen werden, mit welchem das gemessene Elektronenenergiespektrum gut reproduziert wird. Neben den Experimenten zur assoziativen und zur Penning-Ionisation wurden in Kooperation mit auswärtigen Gruppen Untersuchungen zum assoziativen Detachment in anionischen Stoßkomplexen durchgeführt. Gemeinsam mit M. Cizek und J. Horacek (Prag, Tschechische Republik) wurden die in einem simulierten Experiment zu erwartenden Elektronenenergieverteilungen aus dem Prozess X- + H --> XH(v,J) + e-(E) (X = Cl oder Br) zum einen unter Verwendung einer nichtlokalen Resonanztheorie und zum anderen unter Verwendung einer lokalen Näherung berechnet. Dabei sagten die nichtlokalen Rechnungen deutliche zusätzliche, durch Kanalkopplungseffekte hervorgerufene Strukturen voraus. Deren energetische Positionen im Elektronenenergiespektrum sind annähernd unabhängig von der Stoßenergie und sollten deshalb auch bei relativ breiter Stoßenergieverteilung gut beobachtbar sein. Motiviert durch diesen Befund wurden in Kooperation mit S. Zivanov und M. Allan (Fribourg, Schweiz) erstmals elektronenspektrometrische Untersuchungen an den anionischen Stoßkomplexen Cl- + H und Br- + H durchgeführt. Die gemessenen Elektronenenergieverteilungen zeigen für beide Systeme die im Rahmen der nichtlokalen Resonanztheorie vorhergesagten zusätzlichen Strukturen und dokumentieren damit die starken Kanalkopplungseffekte sowie die für diese Systeme unzureichende Beschreibung durch lokale komplexe Potentiale.
In this paper we focus on the strategic design of supply chain networks. We propose a mathematical modeling framework that captures many practical aspects of network design problems simultaneously but which have not received adequate attention in the literature. The aspects considered include: dynamic planning horizon, generic supply chain network structure, external supply of materials, inventory opportunities for goods, distribution of commodities, facility configuration, availability of capital for investments, and storage limitations. Moreover, network configuration decisions concerning the gradual relocation of facilities over the planning horizon are considered. To cope with fluctuating demands, capacity expansion and reduction scenarios are also analyzed as well as modular capacity shifts. The relation of the proposed modeling framework with existing models is discussed. For problems of reasonable size we report on our computational experience with standard mathematical programming software. In particular, useful insights on the impact of various factors on network design decisions are provided.
The question of how to model dependence structures between financial assets was revolutionized since the last decade when the copula concept was introduced in financial research. Even though the concept of splitting marginal behavior and dependence structure (described by a copula) of multidimensional distributions already goes back to Sklar (1955) and Hoeffding (1940), there were very little empirical efforts done to check out the potentials of this approach. The aim of this thesis is to figure out the possibilities of copulas for modelling, estimating and validating purposes. Therefore we extend the class of Archimedean Copulas via a transformation rule to new classes and come up with an explicit suggestion covering the Frank and Gumbel family. We introduce a copula based mapping rule leading to joint independence and as results of this mapping we present an easy method of multidimensional chi²-testing and a new estimate for high dimensional parametric distributions functions. Different ways of estimating the tail dependence coefficient, describing the asymptotic probability of joint extremes, are compared and improved. The limitations of elliptical distributions are carried out and a generalized form of them, preserving their applicability, is developed. We state a method to split a (generalized) elliptical distribution into its radial and angular part. This leads to a positive definite robust estimate of the dispersion matrix (here only given as a theoretical outlook). The impact of our findings is stated by modelling and testing the return distributions of stock- and currency portfolios furthermore of oil related commodities- and LME metal baskets. In addition we show the crash stability of real estate based firms and the existence of nonlinear dependence in between the yield curve.
The objective of the present article is to give an overview of an application of Fuzzy Logic in Regulation Thermography, a method of medical diagnosis support. An introduction to this method of the complementary medical science based on temperature measurements – so-called thermograms – is provided. The process of modelling the physician’s thermogram evaluation rules using the calculus of Fuzzy Logic is explained.
One of the main goals of an organization developing software is to increase the quality of the software while at the same time to decrease the costs and the duration of the development process. To achieve this, various decisions e.ecting this goal before and during the development process have to be made by the managers. One appropriate tool for decision support are simulation models of the software life cycle, which also help to understand the dynamics of the software development process. Building up a simulation model requires a mathematical description of the interactions between di.erent objects involved in the development process. Based on experimental data, techniques from the .eld of knowledge discovery can be used to quantify these interactions and to generate new process knowledge based on the analysis of the determined relationships. In this paper blocked neuronal networks and related relevance measures will be presented as an appropriate tool for quanti.cation and validation of qualitatively known dependencies in the software development process.
In first part of this work, summaries of traditional Multiphase Flow Model and more recent Multiphase Mixture Model are presented. Attention is being paid to attempts include various heterogeneous aspects into models. In second part, MMM based differential model for two-phase immiscible flow in porous media is considered. A numerical scheme based on the sequential solution procedure and control volume based finite difference schemes for the pressure and saturation-conservation equations is developed. A computer simulator is built, which exploits object-oriented programming techniques. Numerical result for several test problems are reported.
A non-linear multigrid solver for incompressible Navier-Stokes equations, exploiting finite volume discretization of the equations, is extended by adaptive local refinement. The multigrid is the outer iterative cycle, while the SIMPLE algorithm is used as a smoothing procedure. Error indicators are used to define the refinement subdomain. A special implementation approach is used, which allows to perform unstructured local refinement in conjunction with the finite volume discretization. The multigrid - adaptive local refinement algorithm is tested on 2D Poisson equation and further is applied to a lid-driven flows in a cavity (2D and 3D case), comparing the results with bench-mark data. The software design principles of the solver are also discussed.
We consider the problem of pricing European forward starting options in the presence of stochastic volatility. By performing a change of measure using the asset price at the time of strike determination as a numeraire, we derive a closed-form solution based on Heston’s model of stochastic volatility.
On a Multigrid Adaptive Refinement Solver for Saturated Non-Newtonian Flow in Porous Media A multigrid adaptive refinement algorithm for non-Newtonian flow in porous media is presented. The saturated flow of a non-Newtonian fluid is described by the continuity equation and the generalized Darcy law. The resulting second order nonlinear elliptic equation is discretized by a finite volume method on a cell-centered grid. A nonlinear full-multigrid, full-approximation-storage algorithm is implemented. As a smoother, a single grid solver based on Picard linearization and Gauss-Seidel relaxation is used. Further, a local refinement multigrid algorithm on a composite grid is developed. A residual based error indicator is used in the adaptive refinement criterion. A special implementation approach is used, which allows us to perform unstructured local refinement in conjunction with the finite volume discretization. Several results from numerical experiments are presented in order to examine the performance of the solver.
This paper concerns numerical simulation of flow through oil filters. Oil filters consist of filter housing (filter box), and a porous filtering medium, which completely separates the inlet from the outlet. We discuss mathematical models, describing coupled flows in the pure liquid subregions and in the porous filter media, as well as interface conditions between them. Further, we reformulate the problem in fictitious regions method manner, and discuss peculiarities of the numerical algorithm in solving the coupled system. Next, we show numerical results, validating the model and the algorithm. Finally, we present results from simulation of 3-D oil flow through a real car filter.
In this paper, we present a novel multicriteria decision support system (MCDSS), called knowCube, consisting of components for knowledge organization, generation, and navigation. Knowledge organization rests upon a database for managing qualitative and quantitative criteria, together with add-on information. Knowledge generation serves filling the database via e.g. identification, optimization, classification or simulation. For “finding needles in haycocks”, the knowledge navigation component supports graphical database retrieval and interactive, goal-oriented problem solving. Navigation “helpers” are, for instance, cascading criteria aggregations, modifiable metrics, ergonomic interfaces, and customizable visualizations. Examples from real-life projects, e.g. in industrial engineering and in the life sciences, illustrate the application of our MCDSS.
A new stability preserving model reduction algorithm for discrete linear SISO-systems based on their impulse response is proposed. Similar to the Padé approximation, an equation system for the Markov parameters involving the Hankel matrix is considered, that here however is chosen to be of very high dimension. Although this equation system therefore in general cannot be solved exactly, it is proved that the approximate solution, computed via the Moore-Penrose inverse, gives rise to a stability preserving reduction scheme, a property that cannot be guaranteed for the Padé approach. Furthermore, the proposed algorithm is compared to another stability preserving reduction approach, namely the balanced truncation method, showing comparable performance of the reduced systems. The balanced truncation method however starts from a state space description of the systems and in general is expected to be more computational demanding.
The Discrete Ordered Median Problem (DOMP) generalizes classical discrete location problems, such as the N-median, N-center and Uncapacitated Facility Location problems. It was introduced by Nickel [16], who formulated it as both a nonlinear and a linear integer program. We propose an alternative integer linear programming formulation for the DOMP, discuss relationships between both integer linear programming formulations, and show how properties of optimal solutions can be used to strengthen these formulations. Moreover, we present a specific branch and bound procedure to solve the DOMP more efficiently. We test the integer linear programming formulations and this branch and bound method computationally on randomly generated test problems.
We present two heuristic methods for solving the Discrete Ordered Median Problem (DOMP), for which no such approaches have been developed so far. The DOMP generalizes classical discrete facility location problems, such as the p-median, p-center and Uncapacitated Facility Location problems. The first procedure proposed in this paper is based on a genetic algorithm developed by Moreno Vega [MV96] for p-median and p-center problems. Additionally, a second heuristic approach based on the Variable Neighborhood Search metaheuristic (VNS) proposed by Hansen & Mladenovic [HM97] for the p-median problem is described. An extensive numerical study is presented to show the efficiency of both heuristics and compare them.
Asymptotic homogenisation technique and two-scale convergence is used for analysis of macro-strength and fatigue durability of composites with a periodic structure under cyclic loading. The linear damage accumulation rule is employed in the phenomenological micro-durability conditions (for each component of the composite) under varying cyclic loading. Both local and non-local strength and durability conditions are analysed. The strong convergence of the strength and fatigue damage measure as the structure period tends to zero is proved and their limiting values are estimated.