Habilitation
Refine
Year of publication
Document Type
- Habilitation (23) (remove)
Has Fulltext
- yes (23)
Is part of the Bibliography
- no (23)
Keywords
- Angeborene Fehlbildungen (1)
- Autonomie (1)
- Außenpolitik (1)
- Beschäftigte (1)
- CMOS (1)
- CMOS Monolithic Active Pixel Sensor (1)
- Deutschland (1)
- Dialog (1)
- Eingebettetes System (1)
- Eisenstoffwechsel (1)
Institute
- Medizin (6)
- Physik (4)
- Geowissenschaften (2)
- Informatik und Mathematik (2)
- Wirtschaftswissenschaften (2)
- Geschichtswissenschaften (1)
- Gesellschaftswissenschaften (1)
- Informatik (1)
- Kulturwissenschaften (1)
- Pharmazie (1)
Die Studie behandelt archäologische und ethnoarchäologische wie auch ethnohistorische Untersuchungen im südlichen Tschadbecken Nigerias in der Zeit zwischen 1992 und 1998. Die Untersuchungen fanden im Rahmen der Anstellung des Verf. im Sonderforschungsbereich 268 "Kulturentwicklung und Sprachgeschichte im Naturraum Westafrikanische Savanne" sowie eines Habilitationsstipendiums der Deutschen Forschungsgemeinschaft statt.
Zeitrahmen ist das 7./8. Jh. n. Chr. bis 1925, Hauptthema die Entwicklung komplexer eisenzeitlicher Gesellschaften in der Region sowie ihre Transformation bei der Eingliederung des Raumes in das expandierende Reich Kanem-Borno.
Untersuchungen zur pharmakologischen Beeinflussung der zentralen Lipidhomöostase durch Statine
(2009)
Der hier erstmals veröffentlichte zweite Band der Habilitationsschrift aus dem Jahre 1991 enthält die empirischen Untersuchungen, die der Hypothesenentwicklung und –prüfung zugrundliegen. Das Titelblatt der Gesamtschrift und deren Inhaltsverzeichnis sind vor dem zweiten Band eingefügt.
Der erste Band wurde 1996 veröffentlicht unter dem Titel: Selbst-Gerechtigkeit. Zum Verhältnis von Juristenpersönlichkeit, Urteilsrichtigkeit und „effektiver Strafrechtspflege“, im Nomos Verlag, Baden-Baden, veröffentlicht. Eine zweite Auflage wird Ende 2013, Anfang 2014 ebendort publiziert. Dort finden sich zahlreiche Verweise auf den zweiten Band.
Experiments for p-process nucleosynthesis with special focus on the most abundant p nucleus 92Mo
(2014)
This thesis describes experimental investigations and astrophysical network calculations relevant for the nucleosynthesis of the p nuclei. These 35 proton-rich isotopes cannot be produced by neutron-capture reactions which is the general production mechanism for elements heavier than iron in the r and s processes. Therefore, other mechanisms like photo-disintegration reactions on heavy seed nuclei (γ process) or proton-capture reactions are taken into account.
The modelling of these processes relies on a hugh amount of reactions which mostly occur for unstable isotopes. This demands, in combination with the contribution of excited states to the stellar rate, the prediction of the rates by a suited theoretical approach: the Hauser-Feshbach statistical model. To improve the reliability of the predictions, systematic experimental investigations are performed within this work for the nuclear input to the calculations. The study of charged-particle optical model potentials using the activation approach for the investigation of (α,n) and (p,n) reactions is described as well as the investigation of (γ,n) reactions in a broad mass range of 140 ≤ A ≤ 210.
However, there are also key reactions which are of special interest for the nucleosynthesis of individual p nuclei. An impressive example is the puzzle about the production of the most abundant p nucleus 92Mo. Within this work, the results of an experiment using high-resolution in-beam γ-spectroscopy for the study of the 90Zr(p,γ) reaction are summarized. In addition, the efforts to investigate the 91Nb(p,γ) reaction in standard kinematics by the production of target of the unstable isotope 91Nb to be used with the high-intensity proton-beam provided by the accelerator of FRANZ, Frankfurt, are discussed.
Finally, the influence of experimental results in astrophysical network calculations is discussed using post-processing nucleosynthesis methods for the γ process in type II supernovae.
Aerosolteilchen agieren als Kondensationskeime für Wolkentröpfchen (engl. Cloud Condensation Nuclei, CCN) oder Eiskristalle und sind deswegen für die Wolken- und Niederschlagsbildung entscheidend. Sowohl die Aerosolpartikel als auch die Wolken können Sonnenlicht effizient streuen, wodurch ein kühlender Effekt auf das Klima ausgeübt wird. Einige der Teilchen, wie z. B. aufgewirbelter Staub oder Seesalz, werden direkt in die Atmosphäre injiziert; der größte Anteil der Teilchen und etwa die Hälfte der CCN werden allerdings durch die Kondensation gasförmiger Substanzen gebildet. Dieser Prozess wird als Nukleation oder Partikelneubildung (engl. New Particle Formation, NPF) bezeichnet. Trotz intensiver Forschung ist die NPF noch nicht vollständig verstanden, was an der Komplexität der chemischen Abläufe in der Atmosphäre und an der Schwierigkeit liegt, die relevanten Substanzen bei extrem geringen Mischungsverhältnissen (etwa ein Molekül oder Cluster per 1012 bis 1015 Moleküle) zu identifizieren und zu quantifizieren. Neben der Frage nach den bei der Nukleation beteiligten Substanzen ist außerdem noch unklar, ob Ionen-induzierte Nukleation ein wichtiger Prozess für das Klima ist. Das CLOUD-Projekt (Cosmics Leaving OUtdoor Droplets) am CERN soll diesen Fragen nachgehen, indem dort die Partikelbildung in einem Kammer-Experiment unter extrem gut kontrollierten Bedingungen simuliert wird. Die chemischen Systeme, die in dieser Schrift diskutiert werden, umfassen das binäre (H2SO4-H2O), das ternäre Ammoniak (H2SO4-H2O-NH3) und das ternäre Dimethylamin (H2SO4-H2O-(CH3)2NH)-System.
Einige der wesentlichen Ergebnisse von Experimenten an der CLOUD-Kammer werden diskutiert. Diese zeigen, dass das binäre und das ternäre Ammoniak System die atmosphärische Nukleation bei niedrigen Temperaturen erklären können, wohingegen das ternäre Dimethylamin System prinzipiell in der Lage ist, die hohen bodennahen Nukleationsraten bei atmosphärisch relevanten Schwefelsäure-Konzentrationen zu beschreiben. Des Weiteren werden zwei für Nukleationsstudien wesentliche Messmethoden vorgestellt. Das Chemical Ionization Mass Spectrometer (CIMS) wird zur Messung von gasförmiger Schwefelsäure verwendet, da H2SO4 vermutlich die wichtigste Substanz bei der atmosphärischen Nukleation ist. Das Chemical Ionization-Atmospheric Pressure interface-Time Of Flight (CI-APi-TOF) Massenspektrometer misst Schwefelsäure und neutrale Cluster. Beide Geräte wurden für den Einsatz bei CLOUD optimiert und instrumentelle Entwicklungen wurden in Bezug auf die Ionenquelle vorgenommen, die eine Korona-Entladung verwendet. Außerdem wurden eine Kalibrationseinheit zur Bereitstellung definierter Schwefelsäure-Konzentrationen entwickelt und das CI-APi-TOF aufgebaut. In Bezug auf das ternäre Dimethylamin System werden Nukleationsraten und die ersten Messungen von gro en nukleierenden neutralen Clustern präsentiert. Monomer- und Dimer-Konzentrationen der Schwefelsäure, die mit dem CIMS bei tiefen Temperaturen gemessen wurden, dienten der Ableitung der thermodynamischen Eigenschaften bei der Dimer-Bildung im binären und ternären Ammoniak System. Um möglichst exakte Nukleationsraten zu bestimmen, wurde eine neue Methode entwickelt, die es erlaubt, den Effekt der Selbst-Koagulation bei der Nukleation miteinzubeziehen.
Die zusammengefassten Studien tragen signifikant zum Verständnis der Partikelneubildung bei.
The thesis is about random Constraint Satisfaction Problems (rCSP). These are random instances of classical problems in NP. In the literature the study of rCSP involve identifying-locating phase transition phenomena as well as investigating algorithmic questions.
Recently, some ingenious however mathematically non-rigorous theories from statistical physics have given the study of rCSP a new perspective; the so-called Cavity Method makes some very impressing predictions about the most fundamental properties of rCSP.
In this thesis, we investigate the soundness of some of the most basic predictions of the Cavity Method, mainly, regarding the structure of the so-called Gibbs distribution on various rCSP models. Furthermore, we study some fundamental algorithmic problem related to rCSP. This includes both analysing well-known dynamical process (dynamics) like Glauber Dynamics, Metropolis Process, as well as proposing new algorithmic approaches to some natural problems related to rCSP.
Eingebettete Systeme sind Rechnersysteme, die in einem technischen Umfeld eingebettet sind und dort ihre Arbeit verrichten. Kennzeichen heutiger und zukünftiger eingebetteter Systeme sind, dass sie in einer immer größeren Anzahl in der Industrie, im Haushalt und in Büros, in Eisenbahnen und Flugzeugen und in vielen weiteren Umgebungen auftreten. Sie sind oftmals stark vernetzt und müssen hochverlässlich sein, um Unfälle zu vermeiden und so Anwender und Nutzer vor Schaden zu bewahren. Die Beherrschung dieser eingebetteten Systeme ist meist hochkomplex, da durch die Vernetzung eine Vielzahl von Komponenten zusammenarbeiten. Für den Anwender ist es daher schwer, den Überblick zu behalten. Im Hinblick auf die Verlässlichkeit ist es wichtig, Reaktionen auf Fehler und unvorhergesehene Situationen in diesen Systemen innerhalb definierter Zeitschranken zu liefern, um Schaden zu vermeiden.
Selbstorganisation wird heutzutage als probates Mittel angesehen, um die Herausforderungen, die sich mit der Inbetriebnahme, Nutzung und Instandhaltung von komplexen eingebetteten Systemen ergeben, zu meistern. Der Beitrag dieser Arbeit ist eine Untersuchung selbstorganisierender eingebetteter Systeme:
Im ersten Teil wird ein Überblick über den aktuellen Stand der Forschung bei eingebetteten Systemen sowie über den Bereich der Selbstorganisation für eingebettete Systeme gegeben. Dabei wird die Idee des Organic Computings beschrieben, welches sich mit Selbstorganisationsprinzipien in IT-Systemen beschäftigt, und es werden aktuelle Forschungstrends dazu beschrieben.
Im zweiten Teil der Arbeit werden eigene Arbeiten im Feld von selbstorganisierenden eingebetteten Systemen vorgestellt. Sie behandeln verschiedene Aspekte eines künstlichen Hormonsystems (KHS), welches zur selbstorganisierten Verteilung von Tasks auf einer Menge von vernetzten Prozessoren genutzt werden kann. Dabei werden einerseits grundlegende Definitionen des Organic Computings im Bezug auf das KHS untersucht und bewertet. Andererseits werden neue Lerntechniken für das KHS untersucht, die sich am maschinellen Lernen orientieren. Außerdem wird ein mehrstufiges KHS entwickelt und evaluiert, um die Vergabe einer sehr großen Anzahl von Tasks (≥ 1000) auf einer sehr großen Anzahl von Prozessoren (≥ 10000) zu ermöglichen.
CMOS Monolithic Active Pixel Sensors for charged particle tracking (CPS) form are ultra-light and highly granular silicon pixel detectors suited for highly sensitive charged particle tracking. Unlike to most other silicon radiation detectors, they rely on standard CMOS technology. This cost efficient approach allows for building particularly small and thin pixels but also introduced, until recently, substantially constraints on the design of the sensors. The most important among them is the missing compatibility with the use of PMOS transistors and depleted charge collection diodes in the pixel. Traditional CPS were thus first of all suited for vertex detectors of relativistic heavy ion and particle physics experiments, which require highest tracking accuracy in combination with moderate time resolution and radiation tolerance.
This work reviews the R&D on understanding and improving the radiation tolerance of traditional CPS with non- and partially depleted active medium as pioneered by the MIMOSA-series developed by the IPHC Strasbourg. It introduces the specific measurement methods used to assess the radiation tolerance of those non-standard pixels. Moreover, it discusses the major mechanisms of radiation damage and procedures for radiation hardening, which allowed to extend the radiation tolerance of the devices by more than an order of magnitude.