Doctoral Thesis
Refine
Year of publication
Document Type
- Doctoral Thesis (5744) (remove)
Language
- German (3646)
- English (2069)
- French (9)
- Latin (5)
- Spanish (5)
- Portuguese (4)
- Italian (3)
- Multiple languages (2)
- mis (1)
Is part of the Bibliography
- no (5744)
Keywords
- Deutschland (15)
- Gentherapie (14)
- HIV (13)
- Apoptosis (12)
- Membranproteine (12)
- NMR-Spektroskopie (11)
- RNA (11)
- RNS (10)
- Schmerz (10)
- ALICE (9)
Institute
- Medizin (1532)
- Biowissenschaften (836)
- Biochemie und Chemie (729)
- Physik (597)
- Pharmazie (329)
- Biochemie, Chemie und Pharmazie (313)
- Geowissenschaften (139)
- Neuere Philologien (115)
- Gesellschaftswissenschaften (111)
- Psychologie (97)
Mit ihren so genannten Linsenkästen gelang Mary Bauermeister Anfang der 1960er-Jahre der Durchbruch auf dem New Yorker Kunstmarkt. Bis heute sind die fragilen, leuchtenden Objekte aus Holz, Glas, Leinwand und Papier das Alleinstellungsmerkmal der Künstlerin. Die hier vorliegende Dissertationsschrift erläutert die konsequente Entwicklung der Linsenkästen aus dem Frühwerk und unternimmt erstmals eine stilistische Einordnung in den Kunstkontext der 1960er-Jahre. Dabei wird deutlich, dass Bauermeister mehr den Künstlern der Klassischen Moderne (Duchamp, Schwitters, Klee, Kandinsky) verpflichtet ist denn ihren Zeitgenossen im Rheinland oder in der Kunstmetropole New York.
In diesem Jahr feiert die Bundesrepublik fünfundzwanzig Jahre Deutsche Einheit. Ein vereintes Deutschland ist für jüngere Generationen bereits selbstverständlich und selbst bei vielen Älteren sind die brisanten Entwicklungen und historischen wie geopolitischen Veränderungen dieser Zeit bereits in Vergessenheit geraten. Die meisten Deutschen nehmen ein Leben in einem geeinten Deutschland als selbstverständlich hin! Wenn man sich jedoch mit den Umbrüchen im Herbst 1989 beschäftigt und die damalige Situation analysiert, wird einem schnell bewusst, dass es sich bei dem friedlichen Mauerfall und der anschließenden Vereinigung der beiden deutschen Staaten um ein einschneidendes, ja epochales Ereignis handelt. Nichts von dem, was heute als selbstverständlich und gegeben angesehen wird, war damals absehbar noch zu erwarten. Erst ein politischer Dreiklang – bestehend aus den vier Siegermächten sowie der Bundesregierung und den Resten der politischen Klasse der DDR unter Einflussnahme der dortigen Friedensbewegung – ermöglichte die Umsetzung der damaligen „Road-Map“. Der von Helmut Kohl präsentierte Zehn-Punkte-Plan muss im Nachhinein als vorentscheidender Schritt hin zur Wiedervereinigung betrachtet werden. Das Programm symbolisierte in gewisser Weise auch das Ende der bisherigen Bonner Deutschlandpolitik. Zudem lieferte es, so scheint es zumindest im Nachhinein, die politische Blau-Pause für einen geordneten Zusammenschluss zwischen Ost und West und trug somit de facto zur friedlichen Abwicklung der implodierten DDR bei. Im Zentrum meiner Dissertation stehen nicht die einzelnen Schritte hin zur Wiedervereinigung am 3. Oktober 1990 oder der Weg dorthin – dies ist in vielen Darstellungen bereits erörtert worden. Mein Interesse gilt der Beurteilung der Deutschlandpolitik der Regierung Kohl in ausgewählten Printmedien, um so zu zeigen, wie die öffentliche Resonanz auf einzelne deutschlandpolitische Schritte des neuen Kanzlers war und wie sein Vorgehen in dieser Frage beurteilt wurde. Hiermit soll nicht nur das Meinungsspektrum zu diesem Thema abgesteckt, sondern auch danach gefragt werden, wieweit sich die Beurteilung Kohls im Untersuchungszeitraum verändert hat. Herangezogen wurden 5 Leitmedien im Printbereich: 1. Die Welt 2. Frankfurter Allgemeine Zeitung (FAZ) 3. Süddeutsche Zeitung (SZ) 4. Die Zeit 5. Der Spiegel Wert gelegt wurde darauf, ein breites Meinungsspektrum zu repräsentieren. Bei allen Vorbehalten gegen derartige Etikettierungen können die herangezogenen Printmedien als national-konservativ (Die Welt), bürgerlich-konservativ (FAZ), sozial-liberal (SZ), bürgerlich-liberal (Die Zeit) bis links-alternativ (Der Spiegel) bezeichnet werden. Damals wie heute gelten sie als Leitmedien, was sich nicht nur in ihrer Auflage und Verbreitung, sondern auch in der Qualität und Differenziertheit ihrer Berichterstattung festmachen lässt. Als Untersuchungszeitraum habe ich die Zeit vom Amtsantritt des neuen Kanzlers am 1. Oktober 1982 bis zum Zehn-Punkte-Plan am 28. November 1989 definiert. Nach Kohls Auftritt im Deutschen Bundestag an diesem Tag traten die konkreten Schritte hin zur deutschen Einheit in den Vordergrund, was dann doch eine strategische und inhaltliche Veränderung bedeutete. Deshalb wird der weitere Weg hin zum 3. Oktober 1990 aus der Untersuchung ausgeklammert. Um das Thema wissenschaftlich handhabbar zu machen, habe ich fünf Ereignisse in den Fokus meiner Untersuchung gestellt: 1. Der Kanzlerwechsel von Helmut Schmidt zu Helmut Kohl am 1. Oktober 1982 durch ein konstruktives Misstrauensvotum. Wie beurteilten die fünf Printmedien diesen Schritt und wie schätzten sie Kohls deutschlandpolitische Agenda ein? 2. Der Milliardenkredit der BRD an die DDR, der der Stabilisierung der maroden DDR-Wirtschaft dienen sollte und von Franz-Josef Strauß eingefädelt wurde. Wie wurde diese spektakuläre Aktion in den untersuchten Zeitungen eingeschätzt, insbesondere die Rolle des bayerischen Ministerpräsidenten, der ein scharfer Kritiker der sozialliberalen Deutschlandpolitik gewesen war? 3. Helmut Kohls Besuch in Moskau vom 4. Juli bis zum 7. Juli 1983, also der offizielle Antrittsbesuch des neuen Kanzlers in der Sowjetunion. Wie sah man sein Auftreten dort? 4. Der Besuch von Erich Honecker in der BRD vom 7. September bis zum 11. September 1987, ein Höhepunkt der bisherigen Deutschlandpolitik – und zugleich ein Wendepunkt. Wie wurde die Tatsache dieses Staatsbesuchs beurteilt, aber auch das Agieren des Kanzlers bei dieser Visite? 5. Der Zehn-Punkte-Plan, der am 28. November 1989 im Deutschen Bundestag in Bonn von Helmut Kohl verkündigt wurde.
Bisherige zellfreie Labormethoden und in-vitro-Diagnostik zielen darauf ab, die Zeit von der Auslösung der Gerinnung bis zur Gerinnselbildung zu messen. Sie sind aber nicht für die Messung der Wirksamkeit von rFVIIa als Medikament geeignet, das für seine hämostatische Wirksamkeit die Funktionen von Blutzellen, besonders Plättchen, benötigt. Außerdem erfassen diese Gerinnungsteste nur einen bestimmten Abschnitt der Gerinnung und ein Zeitablauffenster, welches einen geringen Anteil (<5 %) des insgesamt gebildeten Thrombins erfasst und die Dynamik der Thrombingenerierung unberücksichtigt lässt. Die Plättchen und ihre Physiologie spielen aber die Hauptrollle in der Phospholipid-Präsentation die auf der Plättchenmembran erfolgt. Dies ist Voraussetzung für eine individuell ausreichende Thrombinbildung. Die Erfassung des endogenen Thrombinpotentials (ETP) in plättchenreichem Plasma, wie sie in dieser Arbeit verwendet wurde, überwindet diese methodischen Nachteile der etablierten Teste. Damit lässt sich eine individuelle Wirkungs- und Risikovorhersage erstellen, da hämostaserelevante Charakteristika wie z.B. Erkrankungen, Komedikation, Geschlecht, Umwelt- und lebensstilabhängige Faktoren, in die Untersuchungen einbezogen werden. In dieser Arbeit wurde mit dem Thrombingenerierungstest (TGT) eine Methode etabliert und evaluiert, die inter- und intraindivuellen Unterschiede in der Thrombinbildung in plättchenreichem Plasma (PRP) zeigt. Ausgehend von den dargestellten in-vitro Ergebnissen mit gesunden Probanden wurde die Wirksamkeit von rFVIIa im TGT, zusätzlich vergleichend und validierend mit Hilfe der Durchflusszytometrie (FACS), bei Patienten mit Thrombasthenie Glanzmann untersucht. Diese sind aufgrund einer thrombozytenfunktionsstörungsbedingten Blutungsneigung in den plasmatischen Gerinnungstesten unauffällig. Evaluiert wurden hetero- und homozygote Patienten mit unterschiedlichen zugrundeliegenden Mutationen. Zuerst wurden Proben von einer Familie in-vitro untersucht, dann eine Patientin, die im Rahmen eines zahnärztlichen Eingriffs (ex-vivo-in-vitro) unter Einbindung der klinischen Beobachtung überwacht wurde. Der TGT zeigt eine deutliche prohämostatische Wirksamkeit von rFVIIa bei allen Probanden und Patienten, FACS erfasst die zugrundeliegenden Zellfunktionen. Dabei werden Unterschiede zwischen gesunden Probanden, heterozygoten und homozygoten Patienten aufgezeigt, die diagnostisch und therapeutisch verwertbar sind. Unterschiedliche Mutationen und weitere ursächliche thrombozytäre Mechanismen schlagen sich in entsprechenden Änderungen der gemessenen FACS-Parameter nieder, die zum großen Teil mit den TGT-Werten für ETP und PEAK korrelieren. Die TGT-Werte zeigen, gerade für die Patientin EG, deren Behandlung mit rFVIIa überwacht wurde, eine stärkere Korrelation mit der Klinik als die FACSMethode. Diese wiederum erfasst die zellfunktionsbedingten Ursachen analytischer. Die Ergebnisse dieser Arbeit zeigen, dass die Messung und Auswertung der TGT-Parameter ETP und PEAK, in geringerem Maße LT und TTP, die prohämostatische Wirkung Zellfunktions-basierter Medikamente in plättchenreichem Plasma erfasst. Damit erlaubt sie über die Charakterisierung von Gerinnungsstörungen hinaus prädiktive Aussagen über die individuell angemessene Dosierung von rFVIIa (NovoSeven®).
Kraftfelder sind ein vielseitiges Werkzeug zur schnellen Berechnung vielfältiger Moleküleigenschaften. Die Qualität der damit erhaltenen Vorhersagen ist auch ein Maß, wie gut die wichtigen Einflussgrößen verstanden und vor allem in das Kraftfeld-Modell integriert sind. Bei der Parametrisierung müssen viele Effekte gegeneinander ausbalanciert werden, da die Kraftfeldterme nicht unabhängig voneinander betrachtet werden können. Umfangreiche Testrechnungen sind erforderlich, um die notwendige Qualität der Parameter sicher zu stellen. Eine Automatisierung dieses Prozesses bringt nicht nur eine enorme Zeitersparnis, sie zwingt auch zur sorgfältigen Definition von Vorgaben und Qualitätskriterien. Die Formulierung einer Strategie in einem Programm anstelle von „intelligentem Raten“ fördert zudem ein tieferes Verständnis. Bei einer Änderung der Strategie muss nur das entsprechende Programm geändert werden, dem Entwickler bleibt der manuelle Test erspart. Automatische Methoden zur Plausibilitätsprüfung vermeiden Probleme durch Fehler bei der Dateneingabe von Hand. Die programmgesteuerte Erstellung aussagekräftiger Protokolle und Grafiken macht die Fülle der bei der Parametrisierung und Evaluierung eines Kraftfeldes anfallenden Informationen für den Benutzer überschaubar. Probleme und deren Zusammenhang können so leichter erfasst werden. Für das MOMO-Kraftfeld konnten auf diese Weise verbesserte und neue Parameter für Wasserstoffbrücken abgeleitet werden, zwei empirische Punktladungsmodelle und deren Verträglichkeit mit zwei quantenchemischen Modellen verbessert und prinzipielle Probleme bei deren Vereinbarkeit erkannt werden sowie die automatische Parametrisierung von Bindungslängen, Bindungswinkeln und Torsionswinkeln ermöglicht werden. Bei Letzterem konnte jedoch keine Verbesserung gegenüber den Originalparametern erreicht werden, was nicht weiter verwunderlich ist, da diese seit Jahrzehnten entwickelt worden sind, wohingegen Wasserstoffbrücken und Partialladungen erst später hinzugekommen sind und nicht so umfangreich wie die bindenden Kraftfeldterme getestet wurden. Voraussetzung für die hier gewählte Vorgehensweise, alle Arbeiten weitgehend zu automatisieren und Strategien immer in Programme umzusetzen, waren sehr umfangreiche Programmierarbeiten. Ziel war es, auf einfache Weise die Steuerung des Kraftfeldes aus kleineren Programmen, die spezielle Probleme bearbeiten, zuzulassen. Durch die Nutzung zahlreicher Open-Source-Projekte, die gemeinsam die gewünschte Funktionalität zur Verfügung stellen, konnte der Aufwand auf die dazu passende Implementierung des MOMO-Kraftfeldes und das Verbinden mit der von diesen Projekten bereitgestellten Software beschränkt werden. Der Kern des MOMO-Kraftfeldes wurde aus Geschwindigkeitsgründen in der Compilersprache C geschrieben, Datenein- und -ausgabe und die Programme zur Parametrisierung und Auswertung wurden in Python geschrieben.
Paläoklimarekonstruktionen, die es sich zum Ziel gesetzt haben, Klima-Mensch Interaktionen auf lange Zeitreihen betrachtet zu erforschen, nehmen begünstigt durch die aktuell intensiv geführte Klimadebatte, einen immer größer werdenden Stellenwert in der öffentlichen und wissenschaftlichen Wahrnehmung ein. Denn trotz aller wissenschaftlicher Fortschritte, die in den vergangenen Jahrzehnten im Bereich der modernen Klimaforschung gemacht wurden, bleibt die zuverlässige Vorhersage und Modellierung von zukünftigen Klimaveränderungen noch immer eine der größten Herausforderungen unser heutigen Zeit. Betrachtet man die Karibik exemplarisch in diesem Rahmen, dann prognostizieren viele Modellrechnungen, infolge steigender Ozeantemperaturen, ein deutlich häufigeres Auftreten von tropischen Stürmen und Hurrikanen sowie eine Verschiebung hin zu höheren Sturmstärken. Dieser Trend stellt für die Karibik und viele daran angrenzende Staaten eine der größten Gefahren des modernen Klimawandels dar, den es wissenschaftlich über einen langen Zeitrahmen zu erforschen gilt.
Klimaprognosen stützen sich meist vollständig auf hoch-aufgelöste instrumentelle Datensätze. Diese sind aber alle durch einen wesentlichen Aspekt limitiert. Aufgrund ihrer eingeschränkten Verfügbarkeit (~150 Jahre) fehlt ihnen die erforderliche Tiefe, um die auf langen Zeitskalen operierenden Prozesse der globalen Klimadynamik adäquat abbilden zu können. Betrachtet man das Holozän in seiner Gesamtheit, so wurde die globale Klimadynamik über die vergangenen ~11,700 Jahre von periodisch auftretenden Prozessen und Abläufen gesteuert. Diese wirken grundsätzlich über Zeiträume von mehreren Jahrzehnten, teilweise Jahrhunderten und in einigen Fällen sogar Jahrtausenden. Viele dieser natürlichen Prozesse, können in der kurzen Instrumentellen Ära nicht gänzlich identifiziert und angemessen in Klimamodellen berücksichtig werden. Die alleinige Berücksichtigung der Instrumentellen Ära bietet daher nur eine eingeschränkte Perspektive, um die Ursachen und Abläufe von vergangenen sowie mögliche Folgen von zukünftigen Klimaveränderungen zu verstehen. Um diese Einschränkung zu überwinden, ist es somit erforderlich, dass die geowissenschaftliche Forschung mit Proxymethoden ein zusammenfassendes und mechanistisches Verständnis über alle Holozänen Klimaveränderungen erlangt.
Wenn man sich diese Limitierung, die ansteigenden Ozeantemperaturen und das in der Karibik in den vergangen 20 Jahren vermehrte Auftreten von starken tropischen Zyklonen ins Gedächtnis ruft, ist es nachvollziehbar, dass im Rahmen dieser Doktorarbeit ein zwei Jahrtausende langer und jährlich aufgelöster Klimadatensatz erarbeitet werden soll, der spät Holozäne Variationen von Ozeanoberflächenwasser-temperaturen (SST) und daraus resultierende lang-zeitliche Veränderungen in der Häufigkeit tropischer Zyklone widerspiegelt. In Zentralamerika wird das Ende der Maya Hochkultur (900-1100 n.Chr.) mit drastischen Umweltveränderungen (z.B. Dürren) assoziiert, die während der Mittelalterlichen Warmzeit (MWP; 900-1400 n.Chr.) durch eine globale Klimaveränderung hervorgerufen wurde. Die aus einem „Blue Hole“ abgeleiteten Informationen über Klimavariationen der Vergangenheit können als Referenz für die gegenwärtige Klimakriese verwendet werden.
Als „Blue Hole“ wird eine Karsthöhle bezeichnet, die sich subaerisch während vergangener Meeresspiegeltiefstände im karbonatischen Gerüst eines Riffsystems gebildet hat und in Folge eines Meeresspiegelanstiegs vollständig überflutet wurde. In einigen wenigen marinen „Blue Holes“ treten anoxische Bodenwasserbedingungen auf. Die in diesen anoxischen Karsthöhlen abgelagerten Abfolgen mariner Sedimente können als einzigartiges Klimaarchiv verwendet werden, da sie aufgrund des Fehlens von Bioturbation eine jährliche Schichtung (Warvierung) aufweisen.
In dieser kumulativen Dissertation über das „Great Blue Hole“ werden die Ergebnisse eines 3-jährigen Forschungsprojekts vorgestellt, dass das Ziel verfolgte einen wissenschaftlich herausragenden spät Holozänen Klimadatensatz für die süd-westliche Karibik zu erzeugen. Beim „Great Blue Hole“ handelt es sich um ein weltweit einzigartiges marines Sedimentarchiv für diverse spät Holozäne Klima-veränderungen, das im Zuge dieser Dissertation sowohl nach paläoklimatischen als auch nach sedimentologischen Fragestellungen untersucht wurde. Die vorliegende Doktorarbeit befasst sich im Einzelnen mit (1) der Ausarbeitung eines jährlich aufgelösten Archives für tropische Zyklone, (2) der Entwicklung eines jährlich aufgelösten SST Datensatzes und (3) einer kompositionellen Quantifizierung der sedimentären Abfolgen sowie einer faziell-stratigraphischen Charakterisierung von Schönwetter-Sedimenten und Sturmlagen. Zu jedem dieser drei Aspekte, wurde jeweils ein Fachartikel bei einer anerkannten wissenschaftlichen Fachzeitschrift mit „peer-review“ Verfahren veröffentlicht.
Der insgesamt 8.55 m lange Sedimentbohrkern („BH6“), der für diese Dissertation untersucht wurde, stammt vom Boden des 125 m tiefen und 320 m breiten „Great Blue Holes“, das sich in der flachen östlichen Lagune des 80 km vor der Küste von Belize (Zentralamerika) gelegenen „Lighthouse Reef“ Atolls befindet. Durch seine besondere Geomorphologie wirkt das, innerhalb des atlantischen „Hurrikan Gürtels“ positionierte, „Great Blue Hole“ wie eine gigantische Sedimentfalle. Die unter Schönwetter-Bedingungen kontinuierlich abgelagerten Abfolgen feinkörniger karbonatischer Sedimente, werden von groben Sturmlagen unterbrochen, die auf „over-wash“ Prozesse von tropischen Zyklonen zurückzuführen sind.
...
Mit der vorliegenden Arbeit ist der eindeutige experimentelle Nachweis für die Existenz eines 1997 [Ced97] vorhergesagten, neuartigen Zerfallskanals für Van-der-Waals-gebundene Systeme erbracht worden. Die Untersuchungen wurden an einem Neondimer durchgeführt. Erzeugt man in einem Atom dieses Dimers durch Synchrotronstrahlung eine 2s-Vakanz, so wird diese durch ein 2p-Elektron aufgefüllt. Die hierbei freiwerdende Energie wird an das zweite Atom des Dimers in Form eines virtuellen Photons übertragen und löst dort ein Elektron aus einer äußeren Schale. Untersucht wurde dieser Zerfall namens „Interatomic Coulombic Decay” (ICD) durch Koinzidenzimpulsspektroskopie (COLTRIMS) [Doe00, Ull03, Jah04b]. Der Nachweis der Existenz des Effekts erfolgte dadurch, dass die Summe der Energien der Photofragmente - und im Speziellen des ICD-Elektrons und der beiden im Zerfall entstehenden Ne+-Ionen - eine Konstante ist. Durch die koinzidente Messung der Impulse, der im Zerfall entstehenden Teilchen, konnte hierdurch ICD eindeutig identifiziert werden. Die Übereinstimmung der gemessenen Energiespektren mit aktuellen theoretischen Vorhersagen [Sche04b, Jah04c] ist exzellent. Dadurch, dass das Dimer nach dem IC-Zerfall in einer Coulomb-Explosion fragmentiert, konnten des Weiteren Untersuchungen, wie sie in den letzten Jahren an einfachen Molekülen durchgeführt wurden [Web01, Lan02, Jah02, Web03b, Osi03b, Jah04a], auch am Neondimer erfolgen: Durch die Messung der Ausbreitungsrichtung der ionischen Fragmente des Dimers nach der Coulomb-Explosion wird die räumliche Ausrichtung des Dimers zum Zeitpunkt der Photoionisation bestimmt. Die gemessenen Impulse der emittierten Elektronen können dadurch im Bezug zur Dimerachse dargestellt werden. In dieser Arbeit wurden somit Messungen der Winkelverteilung der 2s-Photoelektronen und des ICD-Elektrons im laborfesten und auch dimerfesten Bezugssystem vorgestellt und mit vorhandenen theoretischen Vorhersagen verglichen. Die Winkelverteilung des Photoelektrons ähnelt stark der Verteilung, die man nach der Photoionisation eines einzelnen Neonatoms erhält und hat somit fast reinen Dipolcharakter. Die Präsenz des zweiten Atoms des Dimers verursacht nur leichte Modulationen, so dass auch die Änderung der Ausrichtung der Dimerachse im Bezug zur Polarisationsrichtung des linear polarisierten Lichtes nur geringe Auswirkungen hat. Durch die koinzidente Messung aller vier nach der Photoionisation entstehenden Teilchen konnte außerdem ein weiterer Doppelionisationsmechanismus des Dimers nachgewiesen werden: Ähnlich wie in einzelnen Atomen [Sam90] gibt es auch in Clustern den TS1-Prozess. Hierbei wird ein 2p-Elektron aus dem einen Atom des Dimers herausgelöst. Es streut dann an einem 2p-Elektron des anderen Atoms, das hierdurch ionisiert wird. Diese etwas andere Form des TS1 im Cluster ist also genau wie ICD ein interatomarer Vorgang. Die Summe der Energien der beiden, in diesem Prozess entstehenden Elektronen hat einen festen Wert von h... − 2 · IP(2p) − KER = 12 eV, so dass dieser Prozess hierdurch im Experiment gefunden werden konnte. Die gemessenen Zwischenwinkel zwischen den beiden Elektronen zeigen des Weiteren genau die für zwei sich abstoßende Teilchen typische Verteilung einer Gauss-Kurve mit einem Maximum bei 180 Grad. Da im Falle von interatomarem TS1 die Potentialkurve der Coulomb-Explosion direkt aus dem Grundzustand populiert wird, konnte im Rahmen der „Reflexion Approximation” die Wahrscheinlichkeitsverteilung der Abstände der beiden Dimeratome experimentell visualisiert werden. Das Betragsquadrat des Kernanteils der Dimergrundzustandswellenfunktion wurde somit direkt vermessen. Die Messungen wurden bei drei verschiedenen Photonenenergien durchgeführt, um die Ergebnisse weiter abzusichern und robuster gegen eventuelle systematische Fehler zu machen. Da kein isotopenreines Neongas im Experiment eingesetzt wurde, konnten genauso Ionisations- und ICD-Ereignisse von isotopischen Dimeren (20Ne22Ne) beobachtet und ausgewertet werden. Die gemessenen Spektren sind innerhalb der Messtoleranzen identisch zu denen für 20Ne2.
Das Ziel der vorliegenden Arbeit bestand darin, narrative Identitätsformationen jüdischer Jugendliche in Deutschland zu rekonstruieren. Aufgrund der Analyse des empirischen Materials und anhand des erwähnten Forschungsinteresses wurden in der Arbeit drei unterschiedliche – dennoch zueinander in Beziehung stehende – zentrale Typologien der narrativen Identität jüdischer Jugendlicher erarbeitet.46 Während sich die erste Typologie allein auf die Migrationserfahrung beschränkt, werden in der zweiten und dritten Typologie beide – zugewanderte und ‚alteingesessene‘ – Befragtengruppen in den Blick genommen: (i) Typologie der Akkulturationsnarrative, die der Frage nach der Auseinandersetzung der zugewanderten Jugendlichen mit kulturellen Vorstellungen und Vorbildern im Verlauf des Migrationsprozesses nachgeht. (ii) Typologie der Identitätsentwicklung im Spannungsfeld des Mehrheits-Minderheits-Verhältnisses, welche die Bedeutung der Fähigkeit zur Rollendistanzierung und Ambiguitätstoleranz in der Interaktion mit der Mehrheitsgesellschaft untersucht. (iii) Typologie der jüdischen, religiösen und ethnischen Sozialisation, die danach fragt, woran die Jugendlichen ihre Zugehörigkeit zum jüdischen Kollektiv festmachen und welche Identitätsentwürfe sich dabei feststellen lassen. ....
Based on an original dataset of 100 important pieces of legislation passed during the three presidencies of William J. Clinton, George W. Bush, and Barack H. Obama (1992-2013), this study explores two sets of questions:
(1) How do presidents influence legislators in Congress in the legislative arena, and what factors have an effect on the legislative strategies presidents choose?
(2) How successful are presidents in getting their policy positions enacted into law, and what configurations of institutional and actor-centered conditions determine presidential legislative success?
The analyses show that in an hyper-polarized environment, presidents usually have to fight an uphill-battle in the legislative arena, getting more involved if they face less favorable contexts and the odds are against them.
Moreover, the analyses suggest that there is no silver-bullet approach for presidents' legislative success. Instead, multiple patterns of success exist as presidents - depending on the institutional and public environment - can resort to different combinations of actions in order to see their preferred policy outcomes enacted.
Nachdem zunächst Ziel und Forschungsgegenstand dieses Aufsatzes erläutert (1.2.1) wurden, werden die Definitionen der Leitbilder verdeutlicht, der in diesem Aufsatz eine zentrale Rolle spielen (1.2.2). Danach werden die vorangegangenen Studien über die „Leitbilder“ der deutschen Außenpolitik zusammengefasst und die Fragestellung dieser Arbeit diskutiert (1.2.3). Da ein Ziel dieser Arbeit die Verdeutlichung der Kontinuitätsund Wandelseite des „Leitbildes“ ist, das die deutsche Außenpolitik in der Realität verfolgt, fasst der Verfasser schließlich die Debatte über „Kontinuität und Wandel der deutschen Außenpolitik“ zusammen. Hier wird der Verfasser die Debatte über „Kontinuität und Wandel der deutschen Außenpolitik“ mit der Debatte über „Leitbilder“ der deutschen Außenpolitik konvergieren. Dadurch wird der Verfasser verdeutlichen, dass sich im „Leitbild“ die Essenz der deutschen Außenpolitik widerspiegelt (1.2.4).