Refine
Document Type
- Doctoral Thesis (3) (remove)
Has Fulltext
- yes (3)
Keywords
- Risikoanalyse (3) (remove)
Faculty / Organisational entity
Der Einstieg in ein kommunales Starkregenrisikomanagement muss über eine fundierte Risikoanalyse erfolgen, die mögliche Gefährdungen, Objektbetroffenheiten und Schadenspotenziale identifiziert und bewertet. GIS-basierte Verfahren stellen hierfür vergleichsweise einfache, effiziente Werkzeuge dar, deren Ergebnisse jedoch erheblich von subjektiven Festlegungen, der Qualität der Eingangsdaten und methodischen Einzelaspekten abhängen. Im Gegensatz zur vergleichsweise zuverlässig quantifizierbaren Gefährdung entzieht sich die Objektvulnerabilität bislang mangels Daten noch einer gebietsweiten Beurteilung. Auch die Ersatzgröße Schadenspotenzial lässt sich nur schwer auf mikroskaliger Ebene erfassen.
Das im Rahmen dieser Arbeit entwickelte Gesamtkonzept einer GIS-basierten Risikoanalyse widmet sich zum einen einer methodischen Vertiefung der einzelnen Arbeitsschritte und analysiert die Auswirkungen unterschiedlicher Festlegungen auf die generierten Ergebnisse. Ein Hauptaugenmerk liegt dabei auf dem Einfluss der Eingangsdaten und deren optimaler Verwertung. Parallel dazu werden die Abbildungsdefizite der Vulnerabilität näher untersucht und Vorschläge für eine methodische Verbesserung der gebietsweiten Schadenspotenzialanalyse ausgearbeitet. Beide Schritte münden in Empfehlungen zur Anwendung sowie zur Ergebnisverwertung im Zuge der weiterführenden Risikokommunikation.
Die Untersuchungen zeigen, dass vor allem die Vorglättung des Oberflächenmodells (DOM) das Gefährdungsergebnis prägt und dass für Senken und Fließwege unterschiedliche DOM-Aufbereitungen erforderlich sind. Ferner darf die methodische Berücksichtigung weiterer gefährdungsrelevanter Parameter nicht die Effizienz und Handhabungsvorteile beeinträchtigen. Die Abbildung von Vulnerabilitäten auf Objektebene scheitert vorrangig an mangelnden Angaben zur Objektanfälligkeit und zur Bewältigungskapazität, während sich Schadenspotenziale sehr grob anhand von Nutzungsdaten abschätzen lassen. Eine bessere Objektivierung der Schadenspotenzialanalyse lässt sich erreichen, wenn dieses getrennt nach Vulnerabilitätsdimensionen bewertet wird und wenn dazu charakteristische Schadenstypen als Hilfsgrößen der Bewertung verwendet werden.
Risikobewertungen sind vorrangig vulnerabilitätsbezogen, d. h. mit Fokus auf möglichen Schadensausmaße und Präventionsmaßnahmen durchzuführen. Dies kann jedoch nur auf Objektebene, konkret durch bzw. mit dem potenziell Betroffenen erfolgen. Damit wird die Risikoanalyse zwangsläufig zu einem gemeinsamen Prozess und Dialog zwischen kommunaler Verantwortung zu Information und Aufklärung auf der einen Seite und individueller Eigenverantwortung und Risikoakzeptanz auf der anderen Seite.
Automation of the Hazard and Operability Method Using Ontology-based Scenario Causation Models
(2022)
The hazard and operability (HAZOP) method is widely used in chemical and process industries to identify and evaluate hazards. Due to its human-centered nature, it is time-consuming, and the results depend on the team composition. In addition, the factors time pressure, type of implementation, experience of the participants, and participant involvement affect the results. This research aims to digitize the HAZOP method. The investigation shows that knowledge-based systems with ontologies for knowledge representation are suitable to achieve the objective. Complex interdisciplinary knowledge regarding facility, process, substance, and site information must be represented to perform the task. A result of this work is a plant part taxonomy and a developed object-oriented equipment entity library. During ontology development, typical HAZOP scenarios, as well as their structure, components, and underlying causal model, were investigated. Based on these observations, semantic relationships between the scenario components were identified. The likelihood of causes and severity of consequences were determined as part of an automatic risk assessment using a risk matrix to determine safeguards reliably. An inference algorithm based on semantic reasoners and case-based reasoning was developed to exploit the ontology and evaluate the input data object containing the plant representation. With consideration given to topology, aspects like the propagation of sub-scenarios through plant parts were considered. The results of the developed knowledge-based system were automatically generated HAZOP worksheets. Evaluation of the achieved results was based on representative case studies in which the relevance, comprehensibility, and completeness of the automatically identified scenarios were considered. The achieved results were compared with conventionally prepared HAZOP tables for benchmark purposes. By paying particular attention to the causal relationships between scenario components, the risk assessment, and with consideration of safeguards, the quality of the automatically generated results was comparable to conventional HAZOP worksheets. This research shows that formal ontologies are suitable for representing complex interdisciplinary knowledge in the field of process and plant safety. The results contribute to the use of knowledge-based systems for digitizing the HAZOP method. When used correctly, knowledge-based systems can help decrease the preparation time and repetitious nature of HAZOP studies and standardize results.
Diversification is one of the main pillars of investment strategies. The prominent 1/N portfolio, which puts equal weight on each asset is, apart from its simplicity, a method which is hard to outperform in realistic settings, as many studies have shown. However, depending on the number of considered assets, this method can lead to very large portfolios. On the other hand, optimization methods like the mean-variance portfolio suffer from estimation errors, which often destroy the theoretical benefits. We investigate the performance of the equal weight portfolio when using fewer assets. For this we explore different naive portfolios, from selecting the best Sharpe ratio assets to exploiting knowledge about correlation structures using clustering methods. The clustering techniques separate the possible assets into non-overlapping clusters and the assets within a cluster are ordered by their Sharpe ratio. Then the best asset of each portfolio is chosen to be a member of the new portfolio with equal weights, the cluster portfolio. We show that this portfolio inherits the advantages of the 1/N portfolio and can even outperform it empirically. For this we use real data and several simulation models. We prove these findings from a statistical point of view using the framework by DeMiguel, Garlappi and Uppal (2009). Moreover, we show the superiority regarding the Sharpe ratio in a setting, where in each cluster the assets are comonotonic. In addition, we recommend the consideration of a diversification-risk ratio to evaluate the performance of different portfolios.