Habilitation
Refine
Year of publication
Document Type
- Habilitation (23) (remove)
Has Fulltext
- yes (23) (remove)
Is part of the Bibliography
- no (23)
Keywords
- Angeborene Fehlbildungen (1)
- Autonomie (1)
- Außenpolitik (1)
- Beschäftigte (1)
- CMOS (1)
- CMOS Monolithic Active Pixel Sensor (1)
- Deutschland (1)
- Dialog (1)
- Eingebettetes System (1)
- Eisenstoffwechsel (1)
Institute
- Medizin (6)
- Physik (4)
- Geowissenschaften (2)
- Informatik und Mathematik (2)
- Wirtschaftswissenschaften (2)
- Geschichtswissenschaften (1)
- Gesellschaftswissenschaften (1)
- Informatik (1)
- Kulturwissenschaften (1)
- Pharmazie (1)
Motivation der Arbeit Die Motivation zur vorliegenden Arbeit beruht auf zwei herausragenden Charakteristika des deutschen Kapitalstocks. Dieser ist zum einen durch ein hohen Anteil der Wohnbauten gekennzeichnet. Wohnbauten unterscheiden sich in einiger Hinsicht deutlich von den Ausrüstungen sowie den übrigen Bauten und machen daher eine eigenständige Analyse ihrer Bestimmungsgründe erforderlich. Zum anderen fällt auf, daß die meisten Wohnungen Mietwohnungen sind und Deutschland damit im Vergleich mit westlichen Industrienationen eine geringe Eigentümerquote aufweist. Es soll daher die Besitzwahlentscheidung der Haushalte unter besonderer Berücksichtigung der Kosten unterschiedlicher Besitzformen untersucht werden. Längerfristige makroökonomische Entwicklung des Wohnungsbestandes In langer Sicht zeigt sich, daß die seit 1950 entstandenen Wohnungen nur zum Teil durch eine wachsende Bevölkerung erklärt werden können. Bedeutender sind hier veränderte Wohngewohnheiten, die einen höheren Wohnungsbestand erforderlich machen. Zum einen ist hier die Verringerung der Zahl der Haushalte zu nennen, die sich eine Wohnung teilen. Dieser Rückgang war besonders in der unmittelbaren Nachkriegszeit markant, setzte sich aber auch bis in die Gegenwart fort. Zum anderen hat sich die Haushaltsgröße von 3 Personen je Haushalt im Jahre 1950 auf 2,18 Personen im Jahre 1998 verringert. Mittelfristige regionale Entwicklung des Wohnungsbestandes Auffälligste Entwicklung der letzten Jahrzehnte ist der deutliche Rückgang fertiggestellter Wohnungen seit den 1970er Jahren bis 1987 und der danach beobachtbare Wiederanstieg. Zur Untersuchung der konjunkturellen Bestimmungsgründe dieser Entwicklung werden Längsschnitts-Querschnitts-Bauinvestitionsfunktionen für Bundesländer mit Methoden der Panelanalyse geschätzt. Als Investitionsindikator werden die realen Baugenehmigungen (in Kubikmetern umbauten Raums) pro Kopf der Bevölkerung herangezogen. Im Vergleich zu Spezifikationen, die den mit Tobins Q vergleichbaren Renditequotient als Exogene enthalten, zeigen sich hierbei Modelle, die stattdessen die Realzinsen berücksichtigen, im Hinblick auf die Anpassungsgüte ebenbürtig. Neben einem signifikanten Einfluß des Prokopfeinkommens zeigt sich ein signifikant negativer Einfluß der Bevölkerungsdichte und ein signifikanter Einfluß der geographischen Nord-Süd-Lage, mit höherer durchschnittlicher Investitionsaktivität der südlichen Bundesländer. Hierin kommt die besondere Lageabhängigkeit der Bauinvestitionen zum Ausdruck. Ferner zeigt sich, daß der Einkommenseinfluß signifikant von der Vermögensstruktur der untersuchten Einheiten abhängt: Je höher der Anteil des Finanzvermögens im Vergleich zum Wohnungsvermögen ist, umso geringer ist der Einfluß des Einkommens auf die Investitionsaktivität. Je liquider also die Vermögensstruktur der Einheiten ist, umso weniger ist ihre Investitionsaktivität vom laufenden Einkommen abhängig. Da das Einkommen als Indikator des Zustroms liquider Mittel gesehen werden kann, bestätigen sich damit für das Investitionsverhalten von Produktionsunternehmen vorliegende Befunde einer Liquiditätsabhängigkeit der Investitionen auch für die Wohnungsbautätigkeit. Das spricht auch dafür, daß der signifikante Einkommenseinfluß - zumindest nicht ausschließlich - Ausdruck eines Einkommenseffektes bei der Nachfrage nach dem Konsumgut Wohnung ist. Da allerdings daneben auch der Zinseinfluß bzw. der Einfluß des Renditequotienten bei den liquiden Einheiten geringer ausfällt, gewinnen in dieser Gruppe andere, einheitenspezifische und nicht explizit erfaßte Determinanten an Bedeutung. Diese Determinanten sind möglicherweise auch mit einem mesoökonomischen Modell nicht zu erfassen. Zusammenhänge zwischen dem verwendeten Investitionsindikator und der wohnungspolitisch relevanten Zahl neuer Wohnungen werden im Anschluß untersucht. Dabei zeigt sich zwar eine weitgehend gleichläufige Entwicklung beider Größen. Da jedoch einer gegebenen Menge umbauten Raumes sowohl im Zeit- als auch im Ländervergleich eine unterschiedliche Zahl neuer Wohnungen gegenübersteht, ist dieser Zusammenhang durch den Einfluß sich unterscheidender Baukonventionen überlagert. So gibt es etwa - besonders für die Aufschwungphase von 1987 bis 1994 - Hinweise auf "sparsameres" Bauen, wie etwa Einsparen von Nebenflächen und Verringerung der Wohnungsgrößen. Da die berechneten Effekte zudem in den Bundesländern mit unterschiedlichem Gewicht in Erscheinung treten, tragen diese nicht nur zu einer qualitativen Veränderung des Wohnungsbestandes im Zeitablauf, sondern auch zu einer qualitativen Differenzierung des regionalen Wohnungsbestandes bei. Wohnkosten und Besitzformwahl Im nächsten Abschnitt wird der Frage nachgegangen, welchen Einfluß die Kosten der Besitzformen Miete und Eigentum auf die individuelle Besitzformwahl der Haushalte haben. Datenbasis ist die Einkommens- und Verbrauchsstichprobe des Jahres 1993, die eine Fülle von haushalts- und wohnungsindividuellen Informationen enthält. Hierzu werden Mietkosten und Selbstnutzungskosten (ermittelt als Kapitalkosten des gebundenen Vermögens, haushaltsindividuellem Steuervorteil und Erhaltungsaufwand) gegenübergestellt. Für diese Gegenüberstellung ist es erforderlich, für Mieter hypothetische Selbstnutzungskosten, hier für den Fall des Kaufs der aktuell bewohnten Wohnung zu bestimmen. Für Eigentümer sind hypothetische Mietkosten für den Fall zu ermitteln, daß sie die eigene Wohnung mieteten. Es werden durchweg kalkulatorische Werte verwendet, was die Vergleichbarkeit von Mieter und Eigentümerhaushalten gewährleistet und auf beobachtete marktpreisbestimmende Faktoren abstellt. Mit befriedigender Anpassungsgüte werden hierzu mit einem Regressionsansatz, in den Lage- und Ausstattungsmerkmale der Wohnungen eingehen, ein deutschlandweiter Miet- und Verkehrswertspiegel geschätzt. Mit diesen läßt sich eine kalkulatorische Miete und das in der Wohnung gebundene Vermögen (kalkulatorischer Verkehrswert) sowohl für Mieter- als auch für Eigentümerhaushalte abschätzen. Bei der Berechnung der Kosten des gebundenen Eigen- und Fremdkapitals und des Steuervorteils kann auf die individuellen Angaben der Haushalte zugegriffen werden. Die Gegenüberstellung von Mietkosten und Selbstnutzungskosten für beide Haushaltsgruppen ergibt eine Kostendifferenz, die einer Rendite vor Wertsteigerungen entspricht. Deskriptive Analysen für Bundesländer und Einkommensgruppen zeigen, daß im Allgemeinen eine höhere Kostendifferenz mit einer höheren Eigentümerquote einhergeht. Dieser positive Zusammenhang bestätigt sich in einem Logit-Modell, in dem die Kostendifferenz eine gute Klassifikation von Mieter- und Eigentümerhaushalten ermöglicht. Auch nach Aufnahme weiterer in der Literatur berücksichtigter Variablen wie Haushaltsnettoeinkommen und soziodemographischen Variablen bleibt die Kostendifferenz die erklärungskräftigste Variable. Offenbar dienen diese Variablen bei weniger haushaltsindividueller Berechnung der Kosten- bzw. Rentabilitätsvariable auch als Proxies für bestimmte Kosten- bzw. Rentabilitätskomponenten. Eine nach Bundesländern und Einkommensgruppen disaggregierte Analyse der Modellergebnisse bestätigt die gute Klassifikationsgüte, weist aber auch auf noch fehlende Informationen zu den Motiven der Besitzwahlentscheidung hin. Steuerpolitische Implikationen einer unterschiedlichen Wohneigentumsförderung Die Steuervorteile aus der Nutzung selbstgenutzten Wohneigentums sind eine wichtige Komponente der berechneten Kostendifferenz. Um Erkenntnisse über den Einfluß unterschiedlicher steuerlicher Regelungen selbstgenutzten Wohnraums zu gewinnen, werden mikroökonomische Besteuerungsszenarien durchgeführt. Der im Jahre 1993 gültigen Regelung, die Abschreibungen im Rahmen von Höchstbeträgen und ein Baukindergeld vorsieht, werden folgende drei alternative Regelungen gegenübergestellt: (1) Die seit 1996 praktizierte Eigenheimzulage mit einer einkommensunabhängigen Förderung und einem Baukindergeld. (2) Die Gewährung eines Schuldzinsabzugs vom zu versteuernden Einkommen. (3) Die sogenannte Investitionsgutlösung, die auf einer Gewinn- und Verlustrechnung des Wohnungseigentümers beruht. Für jeden Haushalt der Datenbasis werden aufgrund seiner individuellen Situation die Steuervorteile und die Kostendifferenz berechnet, die er bei Gültigkeit der alternativen Regelung aufweisen würde. Mit dem oben geschätzten Logit-Modell wird die Besitzform bei Gültigkeit der alternativen Regelung vorhergesagt. Fehlklassifizierte Mieter, die zudem gemäß verschiedener Variablen als nicht kaufrestringiert eingeschätzt werden, gelten als potentielle Neueigentümer. Gemessen an der Zahl potentieller Neueigentümer erweist sich die Eigenheimzulage als am wohnungspolitisch effektivsten, hätte aber auch den höchsten fiskalischen Aufwand zur Folge. Da die Gewährung eines Schuldzinsabzuges und die Investitionsgutlösung eine geringere Zahl potentieller Neueigentümern mit sich bringen würden, dürfen diese Varianten in der hier unterstellten Ausgestaltung als wohnungspolitisch unergiebig eingestuft werden. Da von der Investitionsgutlösung auch die Alteigentümer betroffen wären, ist bei der hier untersuchten Ausgestaltung mit einer gegenüber dem Status Quo zusätzlichen Subventionierung dieser Gruppe in Höhe von 2,62 Mrd. DM zu rechnen, was wohnungspolitisch nicht zu rechtfertigen ist. Im Hinblick auf die Verteilung der potentiellen Neueigentümer zeigt sich in allen Szenarien, daß diese überwiegend den oberen Einkommensdezilen angehören. Im Vergleich mit den anderen Szenarien führt die Gewährung einer Eigenheimzulage in den unteren Einkommensdezilen, die eine geringe Eigentümerquote aufweisen, noch zur höchsten Zahl potentieller Eigentümer. Die Eigenheimzulage würde hier mit Abstand zur höchsten potentiellen Fördersumme in den unteren fünf Einkommensdezilen beitragen. In den östlichen Flächenstaaten reagiert die Anzahl potentieller Neueigentümer und der durchschnittliche Förderbetrag besonders deutlich auf die unterstellte Fördervariante. Die Eigenheimzulage führt hier zum höchsten Anteil potentieller Neueigentümer, was angesichts der dort niedrigen Eigentümerquote positiv zu beurteilen ist. In den westlichen Flächenstaaten dagegen führen alle betrachteten Fördervarianten der Tendenz nach zu einem hohen Anteil potentieller Neueigentümer in Ländern mit einer niedrigen Eigentümerquote. Im Hinblick auf die Wohnlagen findet der Tendenz nach bei allen Varianten eine stärkere Förderung von Zentren und zentrumsnahen Lagen mit bis zu 25 km Großstadtentfernung statt. Auch gemessen an diesem Verteilungskriterium führt die Eigenheimzulage zu einer geringsten Ausprägung des geschilderten Zentrum-Peripherie-Gefälles. Steuerpolitische Implikationen einer Kombination wohnungspolitischer Instrumente Zunächst zeigt sich, daß reine Begrenzungen des Schuldzinsabzuges wohnungspolitisch nicht effektiv sind. Erst durch eine Kombination mit einer Option auf eine einkommensunabhängige Mindestförderung (ähnlich der Eigenheimzulage, aber ohne Baukindergeld) erlangt die Gewährung eines Schuldzinsabzuges eine wohnungspolitische Effektivität. Die Zahl potentieller Neukäufer ließe sich bei jeweils gleichem fiskalischen Aufwand mit Mindestfördersätzen von knapp 3 Prozent gegenüber dem Status Quo und mit Mindestfördersätzen von rund 3,5 Prozent gegenüber der Eigenheimzulage erhöhen. Die Investitionsgutlösung wird durch das Instrument eines begrenzten Schuldzinsabzuges bzw. eines weiteren Mietzinszuschlages, jeweils kombiniert mit einem Mietgewinnfreibetrag variiert. Zur Erreichung von Aufkommensneutralität bei den Alteigentümern müßte der Schuldzinsabzug drastisch reduziert werden. Mit Mietzinszuschlägen gelangt man ohne Gewährung eines Mietgewinnfreibetrages bei einem Zuschlagsatz von 0,9 Prozentpunkten und bei Gewährung eines Freibetrages von 5.000 DM p.a. bei einem Zuschlag von etwa 2,5 Prozentpunkten zu einer aufkommensneutralen Position der Alteigentümer. Die Investitionsgutlösung wird sodann so ausgestaltet, daß sie für Alteigentümer aufkommensneutral ist. Hierzu wird auf die obigen Erkenntnisse zurückgegriffen und es werden drei verschiedene aufkommensneutrale Kombinationspunkte von Mietzinszuschlag und Mietgewinnfreibetrag gewählt. Potentielle Neueigentümer können auf Ansatz ihres (negativen) Mietgewinnes oder auf die Mindestförderung optieren. Eine gleiche Zahl potentieller Neueigentümer wie im Status Quo würde sich - bei niedrigerer potentieller Fördersumme - bei einem Mindestfördersatz von 2,8 Prozent ergeben. Die schon hohe Zahl potentieller Neueigentümer in der Eigenheimzulage ließe sich - wiederum bei niedrigerer potentieller Fördersumme - bei einem Mindestfördersatz von 3,4 Prozent erreichen und gleichzeitig ein höheres Maß an Gleichheit bei der Verteilung der Fördersummen über die Einkommensdezile erreichen. Bei derart hohen Mindestfördersätzen würde allerdings die größte Zahl potentieller Neueigentümer auf die Mindestförderung optieren, so daß hier praktisch nicht mehr von einer Investitionsgutlösung gesprochen werden kann. Belastet man die Alteigentümer mit per Saldo 2 Mrd. DM so ergeben sich vergleichbare Ergebnisse. Der Fiskus wird dann aber in die Lage versetzt, bei Aufkommensneutralität insgesamt höhere Fördersätze zu gewähren. Resümee Bei der Eigenheimförderung steht das eigenständige wohnungspolitische Ziel einer hohen Eigentümerquote klar im Vordergrund, da andere Zielsetzungen schwierig zu begründen sind. Die durchgeführten Szenarien geben Hinweise darauf, daß mit einer einkommensunabhängigen Förderung dieses Ziel am effektivsten erreicht werden kann. Eine vollständige Verteilungsgleichheit läßt sich allerdings nicht herstellen. In allen Szenarien bleiben die Bezieher höherer Einkommen bevorteilt, wenn auch das Ausmaß der Ungleichheit zwischen den gerechneten Varianten erheblich variiert. Auch hier kommt eine einkommensunabhängige Mindestförderung zu günstigen Ergebnissen und würde zudem die Chance bieten, die seit Jahrzehnten bestehende deutliche Konzentration der Fördermittel auf die oberen Einkommensgruppen abzuschwächen. Eine eindeutige wohnungspolitische Ausrichtung würde zudem den Verzicht auf die familienpolitische Komponente eines Baukindergeldes nahelegen, das Bestandteil der derzeit praktizierten und fast aller vorherigen Förderarten war. Aus den Szenarien gibt es Hinweise darauf, daß einem Verzicht auf diese Komponente bei gleicher wohnungspolitischer Effektivität ein reduzierter fiskalischer Aufwand gegenübersteht. Dagegen stehen allerdings die offenbar mit der Wohnungspolitik immer fest verknüpften familienpolitischen Überlegungen. Bei alledem ist die Stärkung der Nachfrage nach selbstgenutztem Wohnraum vor dem Hintergrund der im ersten Teil der Arbeit aufgezeigten lang- und mittelfristigen, demographischen, ökonomischen und regionalen Rahmenbedingungen der Wohnungsbauaktivität nicht unproblematisch. Stößt diese zusätzliche Nachfrage auf ein starres Angebot, resultieren allenfalls Preissteigerungen, die wiederum eine Erhöhung der Eigentümerquote im Wege stehen und auch aus verteilungspolitischer Sicht nicht wünschenswert sind.
T-Zellen spielen bei der Immunüberwachung der peripheren Organe wie der Haut eine zentrale Rolle. Sie wandern als naive T-Zellen kontinuierlich in großer Zahl in den Paracortex der peripheren Lymphknoten ein. Die Lymphknoten dienen der Konzentration von antigenem Material, das in der Periphere von professionellen Antigen-präsentierenden Zellen aufgenommen und in die Lymphknoten transportiert wird. Dort treten die Antigen-präsentierenden Zellen in engen, physischen Kontakt mit naiven, Antigen-spezifischen T-Zellen und aktivieren diese. Neben der Aktivierung in diesem definierten anatomischen Kontext kommt es auch zur Aufregulation eines Codes spezifischer Adhäsionsmoleküle, die die Invasion in dasjenige Organ zur Folge hat, aus dem das Antigen drainiert wurde. Dieses organspezifische Rezirkulationsverhalten wird „Homing“ genannt und hat eine optimierte Antigenabwehr zur Folge, da unterschiedliche Antigene typischer Weise mit unterschiedlicher Frequenz in verschiedenen Organen anzutreffen sind. .... Ziel des ersten Teils der Arbeit war es somit, Auslöser der genannten entzündlichen Dermatosen molekular zu charakterisieren. Ausgehend von der klinischen Beobachtung, daß bakterielle Infektionen bzw. Besiedelung mit Gram-positiven Erregern diesen Erkrankungen vorangehen, wollten wir die Bedeutung von bakteriellen Superantigenen näher untersuchen, da diese Substanzen aufgrund ihrer starken, T-Zell stimulierenden Eigenschaften als Kandidatenmoleküle für die Induktion von T-Zell mediierten Dermatosen in Frage kamen. Dazu etablierten wir für die Psoriasis vulgaris ein xenogenes Transplantationsmodell. Bei diesem wurde humane Haut von gesunden Kontrollen oder periläsionale Haut von Patienten mit Psoriasis vulgaris auf immundefiziente SCID-Mäuse transplantiert. Die repetitive Injektion eines bakteriellen Superantigens induzierte ausschließlich bei Psoriatikern, nicht jedoch bei gesunden Kontrollen, einen psoriatischen Phänotyp. Diese Ergebnisse lassen zwei Schlüsse zu: (I) Ein bakterielles Superantigen ist unter bestimmten Voraussetzungen ausreichend, um eine Psoriasis zu induzieren. (II) Ein bestimmtes, evt. genetisch determiniertes Mikromilieu der Haut ist Voraussetzung für die Induktion der Psoriasis durch das Superantigen. ... Im zweiten Teil der Arbeit gingen wir der Frage nach, inwiefern Veränderungen des Hautimmunsystems nachweisbar sind, die auf bakterielle Superantigene zurückzuführen sind. In unseren Untersuchungen setzten wir dabei zwei Schwerpunkte: (I) Das T-Zell Rezeptor (TCR) Vbeta Repertoire, da Superantigene alpha/beta+ T-Zellen in TCR Vbeta spezifischer Weise aktivieren und (II) Adhäsionsmoleküle unter besonderer Berücksichtigung des Haut-spezifischen Adhäsionsmoleküls CLA, da T-Zell Adhäsionsmoleküle aktivierungsabhängig reguliert werden und eine veränderte T-Zell Migration in pathophysiologische Vorgänge involviert ist. Die Untersuchungen des TCR Vbeta Repertoires der Haut erfolgten an der Psoriasis vulgaris als Modell einer T-Zell vermittelten Immundermatose, die – wie oben gezeigt – u.a. durch bakterielle Superantigene induziert werden kann. Im Gegensatz zu Untersuchungen zur „akuten“ Form der Psoriasis, der Psoriasis guttata, bei der Superantigen-mediierte Veränderungen des TCR Vbeta Repertoires der Haut im Vergleich zum Blut nachgewiesen werden konnten, fanden wir und auch andere Arbeitsgruppen bei der chronisch-stationären Form der Psoriasis keine Veränderungen des TCR Vbeta Repertoires der Haut, das für einen Superantigen-mediierten Effekt spricht. Aus diesen und anderen Befunden entwickelten wir ein pathophysiologisches Konzept der Psoriasis, bei dem Superantigene zwar in die Induktion, nicht jedoch in die Aufrechterhaltung des Erkrankungsprozesses involviert sind. ...
Aerosolteilchen agieren als Kondensationskeime für Wolkentröpfchen (engl. Cloud Condensation Nuclei, CCN) oder Eiskristalle und sind deswegen für die Wolken- und Niederschlagsbildung entscheidend. Sowohl die Aerosolpartikel als auch die Wolken können Sonnenlicht effizient streuen, wodurch ein kühlender Effekt auf das Klima ausgeübt wird. Einige der Teilchen, wie z. B. aufgewirbelter Staub oder Seesalz, werden direkt in die Atmosphäre injiziert; der größte Anteil der Teilchen und etwa die Hälfte der CCN werden allerdings durch die Kondensation gasförmiger Substanzen gebildet. Dieser Prozess wird als Nukleation oder Partikelneubildung (engl. New Particle Formation, NPF) bezeichnet. Trotz intensiver Forschung ist die NPF noch nicht vollständig verstanden, was an der Komplexität der chemischen Abläufe in der Atmosphäre und an der Schwierigkeit liegt, die relevanten Substanzen bei extrem geringen Mischungsverhältnissen (etwa ein Molekül oder Cluster per 1012 bis 1015 Moleküle) zu identifizieren und zu quantifizieren. Neben der Frage nach den bei der Nukleation beteiligten Substanzen ist außerdem noch unklar, ob Ionen-induzierte Nukleation ein wichtiger Prozess für das Klima ist. Das CLOUD-Projekt (Cosmics Leaving OUtdoor Droplets) am CERN soll diesen Fragen nachgehen, indem dort die Partikelbildung in einem Kammer-Experiment unter extrem gut kontrollierten Bedingungen simuliert wird. Die chemischen Systeme, die in dieser Schrift diskutiert werden, umfassen das binäre (H2SO4-H2O), das ternäre Ammoniak (H2SO4-H2O-NH3) und das ternäre Dimethylamin (H2SO4-H2O-(CH3)2NH)-System.
Einige der wesentlichen Ergebnisse von Experimenten an der CLOUD-Kammer werden diskutiert. Diese zeigen, dass das binäre und das ternäre Ammoniak System die atmosphärische Nukleation bei niedrigen Temperaturen erklären können, wohingegen das ternäre Dimethylamin System prinzipiell in der Lage ist, die hohen bodennahen Nukleationsraten bei atmosphärisch relevanten Schwefelsäure-Konzentrationen zu beschreiben. Des Weiteren werden zwei für Nukleationsstudien wesentliche Messmethoden vorgestellt. Das Chemical Ionization Mass Spectrometer (CIMS) wird zur Messung von gasförmiger Schwefelsäure verwendet, da H2SO4 vermutlich die wichtigste Substanz bei der atmosphärischen Nukleation ist. Das Chemical Ionization-Atmospheric Pressure interface-Time Of Flight (CI-APi-TOF) Massenspektrometer misst Schwefelsäure und neutrale Cluster. Beide Geräte wurden für den Einsatz bei CLOUD optimiert und instrumentelle Entwicklungen wurden in Bezug auf die Ionenquelle vorgenommen, die eine Korona-Entladung verwendet. Außerdem wurden eine Kalibrationseinheit zur Bereitstellung definierter Schwefelsäure-Konzentrationen entwickelt und das CI-APi-TOF aufgebaut. In Bezug auf das ternäre Dimethylamin System werden Nukleationsraten und die ersten Messungen von gro en nukleierenden neutralen Clustern präsentiert. Monomer- und Dimer-Konzentrationen der Schwefelsäure, die mit dem CIMS bei tiefen Temperaturen gemessen wurden, dienten der Ableitung der thermodynamischen Eigenschaften bei der Dimer-Bildung im binären und ternären Ammoniak System. Um möglichst exakte Nukleationsraten zu bestimmen, wurde eine neue Methode entwickelt, die es erlaubt, den Effekt der Selbst-Koagulation bei der Nukleation miteinzubeziehen.
Die zusammengefassten Studien tragen signifikant zum Verständnis der Partikelneubildung bei.
Experiments for p-process nucleosynthesis with special focus on the most abundant p nucleus 92Mo
(2014)
This thesis describes experimental investigations and astrophysical network calculations relevant for the nucleosynthesis of the p nuclei. These 35 proton-rich isotopes cannot be produced by neutron-capture reactions which is the general production mechanism for elements heavier than iron in the r and s processes. Therefore, other mechanisms like photo-disintegration reactions on heavy seed nuclei (γ process) or proton-capture reactions are taken into account.
The modelling of these processes relies on a hugh amount of reactions which mostly occur for unstable isotopes. This demands, in combination with the contribution of excited states to the stellar rate, the prediction of the rates by a suited theoretical approach: the Hauser-Feshbach statistical model. To improve the reliability of the predictions, systematic experimental investigations are performed within this work for the nuclear input to the calculations. The study of charged-particle optical model potentials using the activation approach for the investigation of (α,n) and (p,n) reactions is described as well as the investigation of (γ,n) reactions in a broad mass range of 140 ≤ A ≤ 210.
However, there are also key reactions which are of special interest for the nucleosynthesis of individual p nuclei. An impressive example is the puzzle about the production of the most abundant p nucleus 92Mo. Within this work, the results of an experiment using high-resolution in-beam γ-spectroscopy for the study of the 90Zr(p,γ) reaction are summarized. In addition, the efforts to investigate the 91Nb(p,γ) reaction in standard kinematics by the production of target of the unstable isotope 91Nb to be used with the high-intensity proton-beam provided by the accelerator of FRANZ, Frankfurt, are discussed.
Finally, the influence of experimental results in astrophysical network calculations is discussed using post-processing nucleosynthesis methods for the γ process in type II supernovae.
Im ersten Kapitel wird dabei die "klassische" Theorie des Fiskalföderalismus diskutiert, die von Problemen des politischen Prozesses weitgehend abstrahiert. Das zweite Kapitel bietet dann einen Überblick der Argumente, die Unzulänglichkeiten des politischen Prozesses als Begründung für Dezentralisierung bzw. Zentralisierung heranziehen. Obwohl die allgemeine Theorie des Fiskalföderalismus einige wichtige Anhaltspunkte für die Zentralisierungsentscheidung beinhaltet, ist es unabdingbar, in Abhängigkeit vom konkreten Politikfeld jeweils eine spezielle Bestandsaufnahme bezüglich der einhergehenden Kosten und Nutzen einer verstärkten Zentralisierung anzustellen. Die vorliegende Studie nimmt sich dabei aus der Fülle der möglichen Politikfelder einige wichtige Teilgebiete heraus. Kapitel 3 diskutiert die möglichen Vorteile einer verstärkten außen- und verteidigungspolitischen Zentralisierung in Europa. Vor dem Hintergrund, dass jedes Land in Europa einen Anreiz hat, sich bei der Durchsetzung gemeinsamer Interessen auf die Partnerländer innerhalb der NATO zu verlassen, lässt eine verstärkte Koordinierung der Europäer auf eine Verringerung des Freifahrerproblems hoffen. Allerdings steht zu befürchten, dass die resultierenden Mehranstrengungen der Europäer zu verminderten Anstrengungen der USA führen. Die Lasten der Verteidigungspolitik könnten sich daher verstärkt von den USA auf Europa verschieben. Je größer Europa durch zusätzliche Beitritte wird, desto eher lohnt es sich allerdings wie Kapitel 3 erläutert eine solche Verschiebung der Lasten in Kauf zu nehmen. Kapitel 4 erörtert die europäischen Finanzausgleichsbeziehungen. In einem ersten Schritt werden die existierenden Finanzbeziehungen innerhalb der EU skizziert. In einem zweiten Schritt werden die Grundlagen und Probleme einer erweiterten regionalen Umverteilung zwischen den Mitgliedstaaten diskutiert. Kapitel 5 argumentiert, dass es in dieser institutionellen Situation nicht verwunderlich ist, wenn die einzelnen Mitgliedsländer eine verstärkte Präferenz für rigide Arbeitsmärkte entwickeln. Weil es rigide Arbeitsmärkte für gebietsfremde Outsider schwerer machen dürften, Zugang zum regionalen Arbeitsmarkt zu erhalten, helfen Arbeitsmarktrigiditäten die Mobilität zu verringern. Umverteilungssysteme zu Gunsten von Geringverdienern, die ansonsten durch die Arbeitskräftemobilität erodieren würden, lassen sich so eher bewahren. Kapitel 6 beschäftigt sich mit der Koordinierung bei der Besteuerung von mobilem Kapital.
Frühgeschichte deutscher Filmtheorie : ihre Entstehung und Entwicklung bis zum Ersten Weltkrieg
(2001)
Ziel der Arbeit ist die umfassende Darstellung und systematische Einordnung der Entwicklung der deutschsprachigen Filmtheorie bis zum Ersten Weltkrieg. Mit den Kinoreformern (Pädagogen und Juristen), der literarischen Intelligenz (Schriftsteller und Feuilletonjournalisten) und den Autoren der Kino-Fachpresse sind die drei wesentlichen Gruppierungen benannt, die sich in den Jahren ab 1907 an der heftigen und vor allem umfangreichen Debatte über das neue Massenmedium und künstlerische Mittel Film beteiligten. Die Untersuchung konzentriert sich auf die spezifisch filmtheoretische Seite der Vorkriegsdiskussionen, die filmästhetische Theorie, verstanden als Prozess der zunehmenden Bewusstwerdung der filmischen Gestaltungsmittel, der filmischen Formen, der "Filmsprache". Entwicklungsmodelle der Filmform in der filmgeschichtlichen Praxis bzw. der formästhetischen Theorie des Films geben der Arbeit ihren kategorialen und systematischen Rahmen.
Der hier erstmals veröffentlichte zweite Band der Habilitationsschrift aus dem Jahre 1991 enthält die empirischen Untersuchungen, die der Hypothesenentwicklung und –prüfung zugrundliegen. Das Titelblatt der Gesamtschrift und deren Inhaltsverzeichnis sind vor dem zweiten Band eingefügt.
Der erste Band wurde 1996 veröffentlicht unter dem Titel: Selbst-Gerechtigkeit. Zum Verhältnis von Juristenpersönlichkeit, Urteilsrichtigkeit und „effektiver Strafrechtspflege“, im Nomos Verlag, Baden-Baden, veröffentlicht. Eine zweite Auflage wird Ende 2013, Anfang 2014 ebendort publiziert. Dort finden sich zahlreiche Verweise auf den zweiten Band.
Dieses Buch ist die leicht überarbeitete und um zwei Kapitel (Kap. 7 und 9) erweiterte Fassung meiner im Sommer 1978 abgeschlossenen Habilitationsschrift. Der Untertitel der früheren Fassung "Grundfragen der Dialoganalyse" sollte, bewußt mehrdeutig, darauf hinweisen, daß der Gegenstand der Untersuchung vor allem dialogische Kommunikationsformen waren und daß eine Besonderheit der Untersuchungsmethode in einem dialogischen Analyseverfahren lag. Im jetzt vorliegenden Text wird das dialogische Verfahren auch auf eine eher monologische Kommunikationsform, das Erzählen, angewendet, so daß noch deutlicher hervortritt, daß die behandelten Probleme allgemein als Grundfragen einer linguistischen Kommunikationsanalyse gelten können.
Ausgehend von den allgemeingültigen Grundlagen wie sie in Technik, Human- und Zahnmedizin ihre Gültigkeit haben, werden die Kunststoffverbundsysteme insbesondere hinsichtlich ihrer dentalen Bedeutung beschrieben. Nach einer Abhandlung der theoretischen Grundlagen zur Haftung wird anhand der Literatur ein umfassender Oberblick über die dentalen Werkstoffverbunde auf Kunststoffbasis gegeben. Hierbei werden die Verbunde zu Metallen, Gläsern und Keramiken ebenso berücksichtigt wie zu den natürlichen Zahnhartsubstanzen. Die Problemstellung der eigenen Untersuchungen, die in dieser Arbeit beschrieben werden, liegt in der Erforschung unterschiedlicher Konditionierungsmethoden für die natürlichen Zahnhartsubstanzen sowie der Synthese eigener Haftvermittler, mit der Zielsetzung, eine verbesserte Haftung vor allem zum Dentin zu erreichen. Die Auswahlkriterien, Synthese, Analytik und Auswirkung der eigenen Haftvermittler auf die natürlichen Zahnhartsubstanzen werden beschrieben. Zur Untersuchung wird das Rasterelektronenmikroskop eingesetzt, und es werden Abschertests durchgeführt. Weiterhin werden unterschiedliche Präparations- und Entwässerungsmethoden für die natürlichen Zahnhartsubstanzen untersucht und beschrieben. Abschließend wird eine Theorie zum Verbund Kunststoff/Zahn entwickelt, und es werden Empfehlungen gegeben, um diesen Verbundmechanismus zu verbessern.
Die Studie behandelt archäologische und ethnoarchäologische wie auch ethnohistorische Untersuchungen im südlichen Tschadbecken Nigerias in der Zeit zwischen 1992 und 1998. Die Untersuchungen fanden im Rahmen der Anstellung des Verf. im Sonderforschungsbereich 268 "Kulturentwicklung und Sprachgeschichte im Naturraum Westafrikanische Savanne" sowie eines Habilitationsstipendiums der Deutschen Forschungsgemeinschaft statt.
Zeitrahmen ist das 7./8. Jh. n. Chr. bis 1925, Hauptthema die Entwicklung komplexer eisenzeitlicher Gesellschaften in der Region sowie ihre Transformation bei der Eingliederung des Raumes in das expandierende Reich Kanem-Borno.
CMOS Monolithic Active Pixel Sensors for charged particle tracking (CPS) form are ultra-light and highly granular silicon pixel detectors suited for highly sensitive charged particle tracking. Unlike to most other silicon radiation detectors, they rely on standard CMOS technology. This cost efficient approach allows for building particularly small and thin pixels but also introduced, until recently, substantially constraints on the design of the sensors. The most important among them is the missing compatibility with the use of PMOS transistors and depleted charge collection diodes in the pixel. Traditional CPS were thus first of all suited for vertex detectors of relativistic heavy ion and particle physics experiments, which require highest tracking accuracy in combination with moderate time resolution and radiation tolerance.
This work reviews the R&D on understanding and improving the radiation tolerance of traditional CPS with non- and partially depleted active medium as pioneered by the MIMOSA-series developed by the IPHC Strasbourg. It introduces the specific measurement methods used to assess the radiation tolerance of those non-standard pixels. Moreover, it discusses the major mechanisms of radiation damage and procedures for radiation hardening, which allowed to extend the radiation tolerance of the devices by more than an order of magnitude.
The thesis is about random Constraint Satisfaction Problems (rCSP). These are random instances of classical problems in NP. In the literature the study of rCSP involve identifying-locating phase transition phenomena as well as investigating algorithmic questions.
Recently, some ingenious however mathematically non-rigorous theories from statistical physics have given the study of rCSP a new perspective; the so-called Cavity Method makes some very impressing predictions about the most fundamental properties of rCSP.
In this thesis, we investigate the soundness of some of the most basic predictions of the Cavity Method, mainly, regarding the structure of the so-called Gibbs distribution on various rCSP models. Furthermore, we study some fundamental algorithmic problem related to rCSP. This includes both analysing well-known dynamical process (dynamics) like Glauber Dynamics, Metropolis Process, as well as proposing new algorithmic approaches to some natural problems related to rCSP.
In order to address security and privacy problems in practice, it is very important to have a solid elicitation of requirements, before trying to address the problem. In this thesis, specific challenges of the areas of social engineering, security management and privacy enhancing technologies are analyzed:
Social Engineering: An overview of existing tools usable for social engineering is provided and defenses against social engineering are analyzed. Serious games are proposed as a more pleasant way to raise employees’ awareness and to train them.
Security Management: Specific requirements for small and medium sized energy providers are analyzed and a set of tools to support them in assessing security risks and improving their security is proposed. Larger enterprises are supported by a method to collect security key performance indicators for different subsidiaries and with a risk assessment method for apps on mobile devices. Furthermore, a method to select a secure cloud provider – the currently most popular form of outsourcing – is provided.
Privacy Enhancing Technologies: Relevant factors for the users’ adoption of privacy enhancing technologies are identified and economic incentives and hindrances for companies are discussed. Privacy by design is applied to integrate privacy into the use cases e-commerce and internet of things.
Eingebettete Systeme sind Rechnersysteme, die in einem technischen Umfeld eingebettet sind und dort ihre Arbeit verrichten. Kennzeichen heutiger und zukünftiger eingebetteter Systeme sind, dass sie in einer immer größeren Anzahl in der Industrie, im Haushalt und in Büros, in Eisenbahnen und Flugzeugen und in vielen weiteren Umgebungen auftreten. Sie sind oftmals stark vernetzt und müssen hochverlässlich sein, um Unfälle zu vermeiden und so Anwender und Nutzer vor Schaden zu bewahren. Die Beherrschung dieser eingebetteten Systeme ist meist hochkomplex, da durch die Vernetzung eine Vielzahl von Komponenten zusammenarbeiten. Für den Anwender ist es daher schwer, den Überblick zu behalten. Im Hinblick auf die Verlässlichkeit ist es wichtig, Reaktionen auf Fehler und unvorhergesehene Situationen in diesen Systemen innerhalb definierter Zeitschranken zu liefern, um Schaden zu vermeiden.
Selbstorganisation wird heutzutage als probates Mittel angesehen, um die Herausforderungen, die sich mit der Inbetriebnahme, Nutzung und Instandhaltung von komplexen eingebetteten Systemen ergeben, zu meistern. Der Beitrag dieser Arbeit ist eine Untersuchung selbstorganisierender eingebetteter Systeme:
Im ersten Teil wird ein Überblick über den aktuellen Stand der Forschung bei eingebetteten Systemen sowie über den Bereich der Selbstorganisation für eingebettete Systeme gegeben. Dabei wird die Idee des Organic Computings beschrieben, welches sich mit Selbstorganisationsprinzipien in IT-Systemen beschäftigt, und es werden aktuelle Forschungstrends dazu beschrieben.
Im zweiten Teil der Arbeit werden eigene Arbeiten im Feld von selbstorganisierenden eingebetteten Systemen vorgestellt. Sie behandeln verschiedene Aspekte eines künstlichen Hormonsystems (KHS), welches zur selbstorganisierten Verteilung von Tasks auf einer Menge von vernetzten Prozessoren genutzt werden kann. Dabei werden einerseits grundlegende Definitionen des Organic Computings im Bezug auf das KHS untersucht und bewertet. Andererseits werden neue Lerntechniken für das KHS untersucht, die sich am maschinellen Lernen orientieren. Außerdem wird ein mehrstufiges KHS entwickelt und evaluiert, um die Vergabe einer sehr großen Anzahl von Tasks (≥ 1000) auf einer sehr großen Anzahl von Prozessoren (≥ 10000) zu ermöglichen.
Unter den Bedingungen der extremen isovolämen Hämodilution wurden die Fähigkeiten einer neuen 8,5%igen vernetzten stromafreien Hämoglobinlösung vom Typ "nhpa" insbesondere bezüglich Oxygenierung und 02-Transport untersucht. Es wurde ferner anhand diverser klinisch-chemischer Parameter die allgemeine Verträglichkeit dieses sauerstofftransportierenden Kolloids beobachtet. Wichtige hämodynamische Meßgrößen wurden ebenfalls ermittelt. Diese Untersuchungen erfolgten im Vergleich zu einern Kollektiv, welches mit einem konventionellen Plasmasubstitut (5%ige Humanalbumin-Lösung) identisch hämodiluiert wurde. Nach unseren Ergebnissen liegt mit "nhpa" ein Kolloid vor, welches qualitativ und quantitativ Sauerstoff transportiert und diesen unter physiologischen Bedingungen auch an die Gewebe abgibt. Dies geschieht bei auffallender hämodynamischer Stabilität selbst bei extremen Dilutionsgraden. Bezüglich molarer 02-Beladung sowie 02-Affinität scheint das natürliche intraerythrozytäre Hämoglobin dem "nhpa" jedoch überlegen zu sein. Die intravasale Halbwertszeit liegt mit ca. 20 Stunden in einem akzeptablen Bereich. Untersuchungen wichtiger Stoffwechselparameter sowie der Nierenfunktion sprechen für eine zufriedenstellende Verträglichkeit von " nhpa" unter den von uns gewählten Bedingungen. Damit scheint ein vielversprechendes 02-transportierendes Kolloid auf der Basis von stromafreiern Hämoglobin zur Verfügung zu stehen, welches sofort, d.h. ohne Blutgruppen-Bestimmung und quantitativ ausreichend verfügbar wäre.
Untersuchungen zur pharmakologischen Beeinflussung der zentralen Lipidhomöostase durch Statine
(2009)
Im 20. Jahrhundert entwickelte sich die Kinderchirurgie aus der Allgemeinchirurgie als eigenständiges Fachgebiet, da zunehmend klar wurde, dass Kinder einer anderen Behandlung bedürfen als Erwachsene und andere Rahmenbedingungen benötigen. Während sich die Erwachsenenchirurgie danach in immer mehr Subdisziplinen aufteilte, ist die Kinderchirurgie ein generalistisches chirurgisches Fach geblieben.
Die vorliegende Arbeit analysiert die Entwicklung der Kinderchirurgie in Deutschland im Hinblick auf medizinische und nicht-medizinische Aspekte und die aktuelle Versorgungssituation, letzteres mit einem Vergleich der Ergebnisqualität ausgewählter angeborener Fehlbildungen im internationalen Vergleich.
Für die Analyse wurden Methoden der Versorgungsforschung angewandt. Die beinhaltete insbesondere die Nutzung von öffentlichen Statistiken und Sekundärdaten, die Statistiken der Deutschen Gesellschaft für Kinderchirurgie sowie die Befragung von ausgewählten Gruppen. Die Analyse bezog sich im Detail auf die Anzahl der Einrichtungen, die akademische und nicht akademische Ausrichtung der Leistungserbringer, die regionale Verteilung, die Personalentwicklung, die Verteilung von Patientinnen und Patienten zwischen den Fachgebieten und innerhalb der Kinderchirurgie und die Netzwerkbildung. Weiterhin wurde die Ergebnisqualität ausgewählter angeborener Fehlbildungen im internationalen Kontext analysiert.
Die Kinderchirurgie ist in Deutschland die Hauptdisziplin für die chirurgische Behandlung von Kindern und Jugendlichen geworden. Sie hat eine weitgehende Flächendeckung erreicht. Die Entwicklung wurde dabei von politischen Entscheidungen beeinflusst, was am Beispiel der Stagnation der Niederlassungen und der Zunahme der kinderchirurgischen Einrichtungen nach Änderung der Perinatal-Versorgung gezeigt werden konnte. Das Spektrum der Kinderchirurgie umfasst die allgemeine Kinderchirurgie, die Neugeborenenchirurgie, Kinderurologie, Kindertraumatologie, Thoraxchirurgie, Teile der Kinderneurochirurgie, plastische Kinderchirurgie, operative Kinderonkologie und die Verbrennungsmedizin. Sie geht damit weit über die Versorgung von angeborenen Fehlbildungen hinaus, wenngleich diese im Zentrum der politischen Diskussionen stehen. Die Arbeitsbedingungen in der Kinderchirurgie haben sich in den letzten Jahren konstant geändert. Die Zahl der Kliniken hat kontinuierlich zugenommen, genauso wie die Zahl der Fachärztinnen und Fachärzte. Der Anteil an Frauen und an Teilzeitbeschäftigten stieg ebenfalls. Die Zahl der ausgeschriebenen Stellen nahm in den Jahren 2021 und 2022 deutlich zu. Die Patientenzahl in den Abteilungen nahm insbesondere seit 2017 ab.
Für die Analyse der Ergebnisqualität wurden die Krankheitsbilder Ösophagusatresie, Dünndarmatresie, Colonatresie, Bauchwanddefekte und Zwerchfellhernien gewählt. Für Kinder mit Ösophagusatresie und Bauchwanddefekten konnte aufgrund der spezifischen Prozeduren die dezentrale Versorgung für Deutschland aufgezeigt werden. Der Vergleich der Ergebnisqualität der Versorgung von angeborenen Fehlbildungen zeigte keine schlechteres Mortalität bei den operierten Kindern mit Ösophagusatresie, den Kindern mit Bauchwanddefekten, Zwerchfellhernie und Darmatresien. Die Verweildauer entsprach bei der Ösophagusatresie, den Bauchwanddefekten und Zwerchfellhernie dem internationalen Vergleich, bei den Darmatresien war sie länger. Weiterhin gab es eine vermehrte Anlage von Stomata bei den Darmatresien.
Die Auswertung der Perinatalzentren Level 1 und 2 ergab eine konstant große Anzahl von Zentren ohne Kinderchirurgie am eigenen Standort. Im Bereich der seltenen Erkrankungen zeigte die Zuordnung der Kliniken zu den verschiedenen Zentren keine durchgehende Systematik. Das Gütesiegel „Ausgezeichnet für Kinder“ hatten 26 kinderchirurgische Kliniken, das Gütesiegel „Das schwerbrandverletzte Kind“ erhielten 16 Zentren für schwerbrandverletzte Kinder, 4 Erwachsenenzentren, die auch Kinder behandelten und 6 spezialisierte Kliniken für brandverletzte Kinder.
Zusammenfassend zeigt die Arbeit die erreichte Flächendeckung der Kinderchirurgie, die teilweise durch politische Entscheidungen geprägt ist. Das Spektrum ist weiterhin generalistisch geblieben, auch wenn nicht jede Abteilung alle Anteile des Spektrums abdeckt. Die Versorgung von angeborenen Fehlbildungen erfolgt grundsätzlich dezentral.