Refine
Year of publication
Document Type
- diplomthesis (216) (remove)
Has Fulltext
- yes (216)
Is part of the Bibliography
- no (216)
Keywords
- Stochastik (3)
- RDF (2)
- Semantic Web (2)
- Soziologie (2)
- Statistik (2)
- Stochastischer Prozess (2)
- Strahltransport (2)
- Yule-Prozess (2)
- Ablenkung <Physik> (1)
- Algorithmus (1)
Institute
- Physik (101)
- Mathematik (39)
- Informatik (29)
- Gesellschaftswissenschaften (14)
- Wirtschaftswissenschaften (8)
- Geowissenschaften (7)
- Biowissenschaften (4)
- Erziehungswissenschaften (4)
- Biochemie und Chemie (3)
- Geographie (1)
Transnationale Verlagerung von Care-Arbeit in Hinblick auf Ausbeutungs- und Emanzipationsaspekte
(2010)
Nationalparke haben nicht nur den Zweck, Ökosysteme auf einer ausreichend großen Fläche sich selbst zu überlassen, damit sich ein ökologisches Gleichgewicht einstellen kann, sondern sie sind auch öffentlich zugänglich.
Umweltbildung in Nationalparken bezweckt, Kenntnisse über und Begeisterung für die Nationalparke zu vermitteln, so daß der Wert dieses Raumes erfaßt und Interesse an dessen Schutz geweckt wird. Ein Beitrag zur allgemeinen Umweltbildung wird geleistet, wenn der Besucher seine Erfahrungen im Nationalpark auf alle Lebensbereiche übertragen kann. Da nur die wenigsten Besucher personengebundene Umweltbildungsarbeit, die in Form von geführten Wanderungen in jedem deutschen Nationalpark angeboten wird, in Anspruch nehmen, ist eine geeignete Umweltbildung durch Öffentlichkeitsarbeit erforderlich.
Alle Nationalparke bieten Informationen über die naturräumlichen Gegebenheiten und über Beeinträchtigungen der Ökosysteme an. Umfang und Qualität der Ausstellungen, Printmedien, Informationstafeln in der Natur und audiovisueller Medien variieren beträchtlich. Informationsmedien sind nicht immer geeignet, auf das Erlebnis Natur vorzubereiten und umfassende Informationen zu vermitteln. In den meisten Informationshäusern wird "ein Stück Natur" in die Ausstellung geholt, die dort ausgiebig betrachtet oder angefaßt werden kann; Hören und Riechen spielen noch eine untergeordnete Rolle. Beeinträchtigungen der Ökosysteme (Müll, Giftstoffe, Tourismus) werden in allen Informationsmedien dargestellt, in den Ausstellungen z.T. sehr dramatisch. Es sollte keine "heile Welt" dargestellt werden; Ausstellungen sollten betroffen machen, gleichzeitig jedoch Begeisterung für die Natur wecken.
Lernen über die Natur in und mit der Natur stehen im Vordergrund der Bildungsarbeit und führten bereits zu Konzepten, diese Erfahrungen auch ohne Ranger-Begleitung sammeln zu können: Im Nationalpark Bayerischer Wald wurde 1995 ein Naturerlebnispfad fertiggestellt, der Vorgänge in Ökosystemen veranschaulicht (spielerisch) und Zusammenhänge bewußt macht (wissenschaftlich, ethisch), der als Konzept für zukünftige Umweltbildungsarbeit zu sehen ist. Geowissenschaftliche und kulturhistorische Themen sollten immer miteinbezogen werden, um den Nationalpark als Gesamtraum erfassen zu können.
Um möglichst viele Besucher zu erreichen, müssen alle erdenklichen Informationsmedien eingesetzt werden. Insgesamt ist dieses Angebot noch nicht groß genug; acht der zwölf deutschen Nationalparke wurden jedoch erst nach 1990 gegründet, sind also noch sehr jung.
Bildungsarbeit wird in deutschen Nationalparken überwiegend durch Umweltsponsoring ermöglicht und ebenfalls Wirtschaftsunternehmen rücken die Nationalparke durch Printmedien u.ä. ins öffentliche Bewußtsein. Weder eines der Bundesministerien noch ein übergeordneter Fremdenverkehrsverband informiert zu allen deutschen Nationalparken. Verkehrsverbände der Nationalpark-Gemeinden erwähnen Nationalparke als Möglichkeiten zur Erholung allenfalls als "Touristische Attraktion" oder "Weitere Angebote".
Deutsche Nationalparke werden auf der gleichen gesetzlichen Grundlage wie Naturschutzgebiete geschützt. Naturschutz ist Ländersache, die Länder übertragen die Zuständigkeit z.T. an die Nationalparkverwaltungen. Die zwölf deutschen Schutzgebiete von nationaler Bedeutung in acht verschiedenen Bundesländern weichen in ihrem Schutzzweck und in ihrer Öffentlichkeitsarbeit voneinander ab. Besonders ungünstig wirkt sich dies bei der Besucherlenkung aus, zumal eine zu geringe Anzahl Mitarbeiter in den fremdenverkehrsbelasteten Nationalparken zur Verfügung steht.
Die ersten Schritte zur einheitlichen Darstellung und einheitlichen Besucherlenkung wurden von der FÖNAD unternommen. Sie gab die Entwicklung eines Besucherleit- und Informationssystems, eines Nationalpark-Logos und ein Konzept für einheitlich gestaltete Faltblätter (Corporate Design) in Auftrag; die Ergebnisse der Aufträge sollen die deutschen Nationalparke als einheitlich zu schützende Gebiete darstellen und Besuchern die Orientierung und das umweltverträgliche Verhalten erleichtern. Das Besucherleitsystem ist bereits in vier Nationalparken installiert. Diese Konzepte sind jedoch nur Richtlinien, die für die Nationalparkverwaltungen nicht verbindlich sind.
Aus den Antworten auf einen Fragebogen über Interpretive Services in ausgewählten Ländern ließ sich ersehen, daß die Nationalparke in etwa der Hälfte der antwortenden Staaten (n=27) dezentral organisiert sind, sich aber doch jeweils eine übergeordnete Behörde um die Darstellung des nationalen Naturerbes bemüht. National Park Services sind in den meisten Fällen nur für das Corporate Design zuständig, d.h. sie geben Vorgaben an die Nationalparkverwaltungen, die Medien dann um die räumlich spezifischen Informationen ergänzen. Nur in den Vereinigten Staaten ist der National Park Service für sämtliche Informationsmedien der mehr als 350 Gebiete nationaler Bedeutung zuständig.
Band 2 enthält eine Nationalpark-Bibliographie mit 2224 Literaturstellen (Stand: 4.11.1995).
Die vorliegende Arbeit behandelt das Forschungsthema der Entstehung des flüssigen Eisenkerns im Zentrum unseres Planeten. Dieses bislang wenig verstandene Gebiet ist reich an Fragestellungen, sowohl für Experimentatoren als auch für die Geodynamik. Es gibt sehr viele Arbeiten, die den Bildungsprozess experimentell untersuchen, jedoch wurde in den letzten Jahren die numerische Untersuchung in diesem Gebiet kaum vorangetrieben. Der experimentelle Teil der Arbeit stellt sich hierbei der aktuellen Frage nach der Perkolationsschwelle
1 von Eisenschmelze in der Silikatmatrix der Protoerde, während numerisch die Effekte von Potenzgesetzkriechen, Dissipation und Schmelzsegregation beim Absinken eines Eisendiapirs nach Ausbildung eines ersten flachen Magmaozeans in der Protoerde behandelt werden. Die genauen Fragestellungen könnnen dabei im letzten Abschnitt der Einleitung gefunden werden.
Im Rahmen dieser Arbeit wurde ein Verfahren zur Messung der Absorption der TM0-Mode im atmosphärischen Wellenleiter entwickelt, das auf der Bestimmung des Amplitudenabfalls von durch Blitze generierten ELF-Impulsen beruht. Eine Anwendung des Verfahrens setzt die simultane Messungen der ELF-Impulse an verschiedenen Stationen voraus. Im Sommer 1998 wurde im Rahmen der Spritekampagne'98 ein geeigneter Datensatz an drei Stationen im Westen Nordamerikas gewonnen. Bislang wurde ein Teil dieses Datensatzes herangezogen, um das Messverfahren zu testen und mit Ergebnissen aus einer anderen Quelle zu vergleichen. Diese Tests waren erfolgreich und die Ergebnisse von Hughes und Gallenberger [10] konnten reproduziert werden. Die Stationen wurden mit Induktionsspulen-Magnetometern vom Typ Metronix MFS05 im HF-Modus betrieben. Die für die Instrumentenkorrektur erforderlichen Übertragungsfunktionen der Magnetometer waren vorab nur für den LF-Modus mit Vertrauen erweckender Sicherheit bekannt. Dies machte eine Nachkalibrierung der Magnetometer erforderlich, bei der zunächst versucht wurde, die bekannte LF-Übertragungsfunktion zu reproduzieren. Dazu wurde die Einspeisung einer Rechteckschwingung in den Kalibriereingang des MFS05-Magnetometers verwendet. Bei 5 von 6 verwendeten Magnetometern ließ sich die Übertragungsfunktion für den LF-Modus reproduzieren. Bei einem traten jedoch deutliche Abweichungen auf, die sich auch bei anderen Messungen reproduzieren ließen. Die Übertragungsfunktion des Magnetometers hat sich also seit der letzten Kalibrierung durch den Hersteller verändert. Erst durch diese Nachkalibrierung ist es möglich geworden, diese Veränderung in Instrumentenkorrekturen einzubringen. Nachdem im LF-Modus gezeigt war, dass die verwendete Kalibrierungsmethode funktioniert wurde sie auch für den HF-Modus angewandt. Neben der Kalibrierung durch Einspeisung eines synthetischen Signals wurden auch Kalibrierungen unter Ausnutzung der natürlichen Anregung durchgeführt. Diese dienten in erster Linie einem Vergleich verschiedener Messgeräte: Den beiden Datenloggern SPAM MkIII und Quanterra QT4120 sowie den bei- den Magnetometern Metronix MFS05 und EMI BF-4. Der QT4120-Datenlogger wurde ursprünglich nicht zum Anschluss von Magnetometern konzipiert und benötigte dazu eine separate Adaptereinheit. Eine solche Adaptereinheit (kurz "Adapterbox") wurde im Rahmen dieser Arbeit konzipiert und gemeinsam mit der am Institut angestellten Elektronikerin Vera Fischer implementiert. Die Messergebnisse der Kalibrierungen mit natürlicher Anregung wurden so gedeutet, dass der SPAM MkIII-Datenlogger und das MFS05-Magnetometer gegenüber dem Quanterra QT4120-Datenlogger und dem EMI BF-4-Magnetometer einen geringeren Rauschpegel im ELF-Bereich aufweisen. Dies muss nicht für Frequenzen unterhalb des ELF-Bereichs gelten - dort wurden keine Untersuchungen angestellt.
Chapter 1 contains the general background of our work. We briefly discuss important aspects of quantum chromodynamics (QCD) and introduce the concept of the chiral condensate as an order parameter for the chiral phase transition. Our focus is on the concept of universality and the arguments why the O(4) model should fall into the same universality class as the effective Lagrangian for the order parameter of (massless) two-flavor QCD. Chapter 2 pedagogically explains the CJT formalism and is concerned with the WKB method. In chapter 3 the CJT formalism is then applied to a simple Z(2) symmetric toy model featuring a one-minimum classical potential. As for all other models we are concerned with in this thesis, we study the behavior at nonzero temperature. This is done in 1+3 dimensions as well as in 1+0 dimensions. In the latter case we are able to compare the effective potential at its global minimum (which is minus the pressure) with our result from the WKB approximation. In chapter 4 this program is also carried out for the toy model with a double-well classical potential, which allows for spontaneous symmetry breaking and tunneling. Our major interest however is in the O(2) model with the fields treated as polar coordinates. This model can be regarded as the first step towards the O(4) model in four-dimensional polar coordinates. Although in principle independent, all subjects discussed in this thesis are directly related to questions arising from the investigation of this particular model. In chapter 5 we start from the generating functional in cartesian coordinates and carry out the transition to polar coordinates. Then we are concerned with the question under which circumstances it is allowed to use the same Feynman rules in polar coordinates as in cartesian coordinates. This question turns out to be non-trivial. On the basis of the common Feynman rules we apply the CJT formalism in chapter 6 to the polar O(2) model. The case of 1+0 dimensions was intended to be a toy model on the basis of which one could more easily explore the transition to polar coordinates. However, it turns out that we are faced with an additional complication in this case, the infrared divergence of thermal integrals. This problem requires special attention and motivates the explicit study of a massless field under topological constraints in chapter 8. In chapter 7 we investigate the cartesian O(2) model in 1+0 dimensions. We compare the effective potential at its global minimum calculated in the CJT formalism and via the WKB approximation. Appendix B reviews the derivation of standard thermal integrals in 1+0 and 1+3 dimensions and constitutes the basis for our CJT calculations and the discussion of infrared divergences. In chapter 9 we discuss the so-called path integral collapse and propose a solution of this problem. In chapter 10 we present our conclusions and an outlook. Since we were interested in organizing our work as pedagogical as possible within the narrow scope of a diploma thesis, we decided to make extensive use of appendices. Appendices A-H are intended for students who are not familiar with several important concepts we are concerned with. We will refer to them explicitly to establish the connection between our work and the general context in which it is settled.
Wir untersuchen das Verhalten von unären stochastischen endlichen Automaten mit Hilfe von Methoden der Theorie der homogenen Markovketten. Für unäre stochastische Automaten mit E-isoliertem Cutpoint lambda und n Zuständen bestimmen wir eine obere Schranke für die Größe des zyklischen Teils eines optimalen äquivalenten DFAs. Ein Ergebnis von Milani und Pighizzini zeigt bereits, dass für den zyklischen Teil des äquivalenten DFAs O(e exp(sqrt(n ln n))) Zustände ausreichen und in unendlich vielen Fällen auch Omega(eexp(sqrt(n ln n))) Zustände benötigt werden, wobei die Größe von E keine Rolle spielt. Wir zeigen die obere Schranke n exp (1/2E) für die Größe des zyklischen Teils und weisen nach, dass der optimale DFA für jedes c < 1 in unendlich vielen Fällen mehr als n exp (c/2E) viele Zustände im zyklischen Teil benötigt. Wir weisen auch nach, dass es eine unendliche Familie endlicher unärer Sprachen gibt, für die es jeweils einen PFA mit n Zuständen und 1/4-isoliertem Cutpoint gibt, während der optimale, DFA e exp(Omega x sqrt(n ln n)) Zustände im Anfangspfad benötigt.
Installment Optionen
(2004)
Die vorliegende Arbeit beschäftigt sich im Wesentlichen mit Installment Optionen und deren Bewertung und Hedgemöglichkeiten. Installment Optionen werden vor allem im internationalen Treasurymanagement eingesetzt und dienen der Absicherung von Wechselkursrisiken. Die Besonderheit besteht darin, daß ein Konzern die Optionsprämie über mehrere Zeitpunkte aufteilen kann, zu denen er jeweils entscheidet, ob die Absicherung überhaupt noch benötigt wird. Dies könnte unter Umständen nicht mehr der Fall sein, wenn das zugrunde liegende internationale Geschäft des Konzerns wider Erwarten nicht zustande gekommen ist. Der exakte Wert einer Installment Option im Black-Scholes Modell besteht aus einem Ausdruck von Mehrfachintegralen, wohingegen die Anwendung verschiedener Bewertungsmethoden auf diesen approximierte Werte liefert. Die Untersuchung des Verhaltens mehrerer bekannter Methoden und die Entwicklung einer neuen Bewertungsformel für Installment Option ist Inhalt dieser Arbeit. Weiterhin wird die kontinuierliche Version der Installment Option betrachtet und für diese ein neuer Hedge bewiesen.
Da die benötigte Rechenleistung heut zu Tage stark gestiegen ist, ist es immer wichtiger schnelle Schaltungen und Transistoren zu erzeugen. Dabei gelangt man langsam an eine physikalische Grenze welche einerseits bedingt ist durch die Größe der verwendeten Strukturen und andererseits viel fundamentaler durch die Schaltzeit des verwendeten Transistormaterials Silizium (Si). Die Beweglichkeit der Elektronen im normalen Silizium bildet eine Einschränkung für die Leistungsfähigkeit der Transistoren auf Si-Basis. Um diese Beweglichkeit zu erhöhen, ist es mittelfristig notwendig auf andere Halbleitermaterialien umzusteigen. Ein Halbleiter, der sich dafür anbietet ist das Germanium (Ge), das zwar mit dem Silizium über die Mitgliedschaft zur selben Hauptgruppe verwandt ist, doch durch seine Zugehörigkeit zur nächst höheren Periode einen größeren Radius aufweist. Dies führt unter anderem zu einer größeren Gitterkonstante im Germaniumkristall. Sowohl beim Siliziumdioxid (SiO2) als auch beim Germaniumdioxid (GeO2) handelt es sich um Isolatoren. Leider ist GeO, im Vergleich zu SiO22 leichter wasserlöslich, was bei der Prozessierung zu großen Schwierigkeiten führt und eine komplette Neuentwicklung des Produktionsprozesses zur Folge hat. Da Germanium als Ersatz für Silizium noch nicht einsatzreif ist, wurde ein Verfahren entwickelt, mit dem es möglich ist Silizium mit einer größeren Gitterkonstante (Streckung um 1% in X- und Y-Richtung) zu erhalten. Dies führt, zuerst unerwartet, zu einer erhöhten Ladungsträgerbeweglichkeit in diesem „strained silicon“ (sSi). Die höhere Ladungsträgerbeweglichkeit führt neben einer kürzeren Schaltzeit auch zu einer geringeren Leistungsaufnahme in den Prozessoren....
Wir haben uns mit der Leitfähigkeitsdynamik von Barium-Natrium-Niobat-Kristallen (BSN-Kristallen) auseinandergesetzt und haben verschiedene Untersuchungen zum Themenkreis Lyapunov-Exponenten anhand von experimentellen BSN-Zeitreihen durchgeführt. Als einen typischen größten Lyapunov-Exponenten von chaotischen BSN-Zuständen erhalten wir Werte in der Größenordnung von 0.1 / s. Der Maximalwert entspricht ca. 3.5 bits pro Attraktorumlauf. Wir beobachten für die Mehrzahl der chaotische BSN-Zustände entlang der unersuchten Ruelle-Takens-Newhouse-Route (RTN-Route) zwei positive Lyapunov-Exponenten mit einem schmalen Übergangsbereich in dem wir nur einen positiven Lyapunov-Exponenten erkennen. Diesen Befund interpretieren wir als eine kompleer werdende Dynamik mit wachsender Stromstärke durch den Kristall, die wir auch durch eine kompliziertere Attraktorstruktur der BSN-Zustände entlang der RTN-Route ins Chaos bestätigen können. Die Abschätzung von Lyapunov-Exponenten der BSN-Zustände entlang der RTN-Route bestätigen die meisten der Ergebnisse, die wir bisher mit anderen Verfahren erhalten haben. Die Kolmogorov-Entropie K1 die wir mit Gleichung (5) aus den positiven Lyapunov-Exponenten bestimmen, ist allerdings um etwa einen Faktor vier kleiner als Abschätzungen der Entropie K2, die sich aus Korrelationsbetrachtungen in vorangegangenen Untersuchungen ergeben haben. Durch die Untersuchungen zu lokalisierten Lyapunov-Exponenten erhalten wir eine detailliertere Beschreibung der BSN-Dynamik im rekonstruierten Ersatz-Phasenraum. Wir erkennen an verschiedenen Beispielen, daß die Attraktoren von BSN-Zuständen entlang der RTN-Route durch mindestens einen markanten Bereich mit großen positiven lokalisierten Lyapunov-Exponeten ausgezeichnet sind. Bezüglich der Variation der Attraktoren entlang der RTN-Route beobachten wir, wie sich bevorzugt diese Bereiche in ihrer Form verändern. Die chaotischen Zustände sind durch eine Attraktorregion ausgezeichnet, die einen sichtbar größeren lokalisierten Lyapunov-Exponenten besitzt, als die restlichen Gebiete. Wir führen diese Beobachtung auf das lokale Aufbrechen eines 2-Frequenz-Torus zurück und können diese Vermutung durch Untersuchungen zu einem chaotischen Zustand aus der RTN-Route belegen. Die Simulationsergebnisse zur BSN-Modellgleichung zeigen, daß die Gleichung innerhalb der untersuchten Parameterbereiche kein chaotisches Verhalten generiert. Die aus experimentellen Daten angepaßten Parametervektoren ->k deuten darauf hin, daß die Lösungen periodische Inseln in einer Fixpunktlandschaft darstellen. Mit den entwickelten Methoden zur Bestimmung von Lyapunov-Exponenten aus Delay-Differentialgleichungen stellen wir die Grundlage bereit, um zukünftige Untersuchungen an gekoppelten Modellgleichungen durchführen zu können.
Zunächst wurde die Notwendigkeit von Schemaänderungen erläutert und verschiedene Ansätze aus der Literatur beschrieben, Schemaänderungen in laufenden Systeme so durchzuführen, dass eine möglichst einfache und automatisch stattfindende Konvertierung der betroffenen Datenobjekte erfolgen kann. Beim Vergleich erweist sich das Konzept der Schemaversionierung als die leistungsfähigste Lösung. Der Grundgedanke der Schemaversionierung ist, durch jede Schemaänderung eine neue Schemaversion zu erstellen, wobei die alte Schemaversion weiterhin benutzt werden kann. Die Datenobjekte liegen ebenfalls in mehreren Versionen vor und die Schemaänderung wird auf Objektebene nachempfunden, indem Datenänderungen propagiert, d.h. die Daten automatisch konvertiert werden. Für die Propagation werden die Beziehungen zwischen den Schemaversionen ausgenutzt. Mit dem Konzept der Schemaversionierung ist es möglich, mehrere Versionen eines Schemas parallel zu benutzen und nur die auf die Datenbank zugreifenden Applikationen anzupassen, die auch wirklich von der Schemaänderung betroffen sind. Diese Diplomarbeit ist Teil des COAST-Projekts, das die Schemaversionierung als Prototyp umsetzt. In COAST existierte vor dieser Diplomarbeit nur die Möglichkeit, einfache Schemaanderungen durchzuführen. Neu wurden komplexe Schemaanderungsoperationen eingeführt und das Konzept der Propagation entsprechend erweitert. Komplexe Schemaänderungen unterscheiden sich von einfachen Schemaänderungen dadurch, dass sie Attribute aus mehreren Quellklassen in einer Zielklasse (oder andersherum) vereinen können. Die bereits in kurz angeschnittenen Default-Konvertierungsfunktionen wurden genauer untersucht und konkret eingeführt. Es wurden mehrere typische Schemaänderungsoperationen vorgestellt und darauf untersucht, ob sie mit den bisherigen einfachen Schemaänderungsoperationen durchführbar waren oder ob dazu komplexe Schemaänderungsoperationen nötig sind. Außerdem wurde analysiert, ob das System für die entsprechenden Operationen automatisch sinnvolle Defaultkonvertierungsoperationen generieren kann oder ob ein Eingriff des Schemaentwicklers notwendig ist. Dazu wurden sie in eine von vier Kategorien eingeteilt, die aussagen, ob einfache oder komplexe Schemaänderungsoperationen nötig sind und ob sinnvolle Default-Konvertierungsfunktionen ohne Eingriff des Schemaentwicklers erzeugt werden können oder nicht. Zu jeder der aufgezahlten Schemaänderungsoperationen wurde die entsprechende vom System erzeugte Default-Konvertierungsfunktion aufgeführt und im Falle, dass sie der Schemaentwickler uberprüfen muss, angegeben, wo noch potenzieller Bedarf für manuelle Änderungen vorliegt. Die Auswirkungen der Einführung von komplexen Schemaänderungsoperationen auf die Propagation wurde im nächsten Kapitel analysiert und dabei festgestellt, dass das bisherige Konzept der Propagationskanten zwischen je zwei Objektversionen desselben Objekts nicht mehr ausreicht. Entsprechend wurde das neue Konzept von kombinierten Propagationskanten entwickelt, das Kanten zwischen mehr als nur zwei Objektversionen zulässt. Dazu wurden verschiedene Lösungsmöglichkeiten miteinander verglichen. Weiter wurden verschiedene Ansätze fur die Darstellung und Speicherung von Konvertierungsfunktionen vorgestellt und entschieden, die Konvertierungsfunktionen konkret in textueller Darstellung in den Propagationskanten zu speichern. Fur die Spezifizierung der gewünschten Konvertierungen bei der Propagation wurde eine Konvertierungssprache entwickelt und nach verschiedenen Gesichtspunkten konzipiert. Diese Gesichtspunkte umfassen sowohl den nötigen Funktionsumfang der Sprache wie auch entwurfstechnische Aspekte. Sämtliche Befehle der entwickelten Sprache wurden detailliert vorgestellt und abschließend die Sprache in BNF (Backus-Naur-Form) präsentiert. COAST ist inzwischen als Prototyp implementiert und wurde u.a. auf der CeBIT '99 vorgestellt (s. [Lau99b] und [LDHA99]). Nach einer Beschreibung der Funktionsweise und des Aufbaus von COAST und insbesondere des Propagationsmanagers wurden einige Implementierungsdetails vorgestellt und verschiedene Betrachtungen zur moglichen Optimierung beschrieben. Die Ziele der Diplomarbeit wurden damit erreicht: Die Schemaevolution kann mit den Vorzügen der Versionierung durchgeführt werden. Komplexe Schemaänderungen sind nun möglich und wurden ins Modell integriert. Die Propagation wurde entsprechend erweitert und eine Sprache zur Spezifikation der Propagation entwickelt.
This work is dedicated to the study of the vector and axial vector spectral functions of the τ lepton within the framework of a U(2)L × U(2)R Linear Sigma Model with electroweak interaction. As an effective field theory the Linear Sigma Model describes hadronic degrees of freedom based on the symmetries of the Standard Model. Therefore, the following section aims at giving a very general and concise introduction to the Standard Model and the meaning of symmetries for contemporary elementary particle physics. In the next section the SU(3)C symmetry group will be discussed in short, followed by an introduction to chiral symmetry SU(2)L × SU(2)R. In the last section of this chapter the Glashow-Weinberg-Salam theory of the local group SU(2)L × U(1)Y is presented. Important concepts of the theoretical framework of the Standard Model, such as the Noether Theorem, the Gauge Principle, Spontaneous Symmetry Breaking, and the Higgs Mechanism will be introduced in the context of these three symmetry groups. In Chapter 2 it will be first shown how the symmetries of the Standard Model are realised within the global U(2)L × U(2)R Linear Sigma Model and how electroweak interactions can be introduced to the model on the basis of local SU(2)L × U(1)Y symmetry transformations of the hadronic degrees of freedom. The vertices that are relevant for the vector and axial vector decay channels in weak τ decay are extracted from the Lagrangian with electroweak interaction in Chapter 3. This is followed by a short introduction to the Källen-Lehmann Representation of spectral functions and how these can be parametrised within the framework of this model (Chapter 4). The results of the vector and axial vector spectral functions are presented in Chapter 5 and 6.
Diese Arbeit entstand im Rahmen des Schwerionenexperiments NA49 am CERN. Auf der Suche nach einem neuen Zustand von Kernmaterie, dem Quark-Gluon-Plasma, werden dort im SPS (Super-Proton-Syncrhotron Bleiionen auf eine Energie von 158 GeV pro Nukleon beschleunigt und dann auf eine dünne, im Laborsystem ruhende, Bleifolie (Target) gelenkt. Ziel ist es, in zentralen Stößen zweier Bleikerne ein ausgedehntes Volumen hochkomprimierter und heißer stark wechselwirkender Materie zu erzeugen. Kernmaterie im Grundzustand besitzt eine Dichte von rho o ~ 0,14 Nukleonen pro Kubikfermi. Damit ergibt sich mit der Masse der Nukleonen von etwa 939 MeV/c exp 2 eine Energiedichte im Grundzustand von 130 MeV/fm exp 3. Theoretische Überlegungen im Rahmen der Quantenchromodynamik (QCD, die Eichtheorie der starken Wechselwirkung) sagen voraus, daß sich bei einer Energiedichte von etwa 2-3 GeV/fm exp3 und einer Packungsdichte der hadronischen Materie von 10-15 rho 0 die normalerweise in den Hadronen eingeschlossenen Quarks aus ihren Bindungen lösen. Aufgrund dieses als deconfinement bezeichneten Vorgangs könnte ein Plasma aus freien Quarks und Gluonen entstehen. Die letzteren sind die Eichbosonen der starken Wechselwirkung. Ein solcher Zustand hat einige Mikrosekunden nach dem Urknall exisitiert und wird heute im Innern von Neutronensternen vermutet. Die Lebensdauer dieses hochkomprimierten und heißen Zustands während einer Schwerionenkollision ist mit T * 10 exp -23zu kurz, um direkt beobachtet werden zu können. Daher versucht man, aus den hadronischen Reaktionsprodukten Rückschlüsse auf diesen Zustand zu ziehen. Wichtige Meßgrößen sind die Rapidität y und der Transversalimpuls pT der Teilchen nach der Reaktion. Die Rapidität ist ein Maß für die longitudinale Geschwindigkeit der Teilchen entlang der Strahlrichtung. Aus der Rapiditätsverteilung nach dem Stoß kann man bestimmen, wie stark die Projektilnukleonen abgebremst wurden und wieviel Energie somit in der Reaktionszone deponiert wurde. Ein Großteil dieser Energie wird zur Produktion von Hadronen benutzt. Die Transversalimpulsverteilung dieser Teilchen ähnelt der einer thermischen Verteilung. Damit kann im Rahmen von thermodynamischen Modellen der Reaktionszone (Feuerball) eine Temperatur zugeschrieben werden. Durch Messung von Zwei-Pion-Korrelationen kann auf die Größe des Reaktionsvolumens zum Zeitpunkt der Entkopplung der Hadronen von der Reaktion geschlossen werden. Sowohl die Multiplizität der Hadronen als auch ihre "chemische" Zusammensetzung (z.B. Pion, Kaon oder Lambda) liefern wichtige Randbedingungen für Modellvorstellungen über die Dynamik einer Schwerionenkollision. Dazu ist es notwendig, nicht nur die Anzahl der Hadronen pro Ereignis zu messen, sondern auch diese Teilchen zu identifizieren.
Die vorliegende Diplomarbeit lässt sich dem Gebiet der Terahertz-Physik (THz-Physik) zuordnen, also dem Gebiet der Physik, das sich mit der Erzeugung und Detektion von Ferninfrarotstrahlung beschäftigt. THz-Strahlung stellt dabei die Verbindung zwischen den elektromagnetischen Mikrowellen und den Wellen des infraroten Frequenzbereiches dar. Damit umfasst der THz-Bereich Frequenzen von etwa 100 GHz bis zu 100 THz. Die Forschung, die sich mit diesem Frequenzbereich beschäftigt, ist mittlerweile stark differenziert. Dabei geht es auf der einen Seite um die Entwicklung neuer bzw. die Weiterentwicklung und Optimierung bestehender THz-Erzeugungs- und Detektionsverfahren, auf der anderen Seite geht es um die Frage nach den möglichen Anwendungsgebieten für die entwickelten THz-Techniken. Entwickelt werden sowohl gepulste wie auch Dauerstrich-THz-Systeme, die auf einer Vielzahl verschiedener physikalischer Emissionsprozesse basieren. Die Anwendungsseite der THz-Forschung umfasst Gebiete wie die Spektroskopie, d.h. die Materialcharakterisierung und -untersuchung, aber auch komplexe biomedizinische Untersuchungsverfahren, wie z.B. die Krebsdiagnostik in der Onkologie. In der Bandbreite der weltweiten THz-Aktivitäten befindet sich diese Arbeit sowohl im Bereich der Entwicklung von THz-Techniken als auch in dem eher anwendungsbezogenen Bereich: Zunächst werden im zweiten Kapitel die verwendeten THz-Techniken und Messaufbauten vorgestellt, ebenso wie deren Funktionsweisen und speziellen Eigenschaften. Das dritte Kapitel beschäftigt sich mit der experimentellen Untersuchung von großflächigen THz-Emittern in gepulsten Lasersystemen. Diese weisen gegenüber den häufig verwendeten punktförmigen THz-Emittern einige grundlegende Unterschiede auf. Diese Unterschiede sollen zunächst durch die in das Kapitel einführenden theoretischen Grundlagen herausgearbeitet und danach anhand eines elektrooptischen Emitters und eines elektrisch vorgespannten Halbleiteremitters überprüft werden. In den folgenden Kapiteln wendet sich der Fokus dann mehr der Anwendung von THz-Strahlung zu. Dazu finden im vierten Kapitel Überlegungen und Experimente zu der Charakterisierung von, zunächst anorganischen, mehrschichtigen Systemen auf der Basis von Halbleiterstrukturen statt, die mit einem Ausblick auf eine biomedizinische Anwendung der THz-Strahlung, bei der Untersuchung von Zähnen, abgeschlossen werden. Im fünften Kapitel soll ein Silizium-Paraffin-Gemisch auf seine Stoffigenschaften untersucht werden. Für dieses Gemisch lassen sich die Stoffeigenschaften im THz-Bereich mittels des Mischungsverhältnisses der beiden Ausgangsmaterialien anpassen. Mögliche Anwendungen für ein solches Material sind indexangepasste Füllungen von Zwischenräumen, um störende Reflexionen an den jeweiligen Grenzflächen zu vermeiden; so wie die Konstruktion von Antireflexionsschichten für THz-Optiken. Beide Anwendungen werden in Form von Experimenten vorgestellt. Abschließend werden alle Ergebnisse in einem Fazit zusammengefasst, und es erfolgt ein Ausblick auf weitere Untersuchungen.
Im Rahmen dieser Arbeit wird der aktuelle Stand auf dem Gebiet des Lokalen Lovász Lemmas (LLL) beschrieben und ein Überblick über die Arbeiten zu konstruktiven Beweisen und Anwendungen gegeben. Ausgehend von Jószef Becks Arbeit zu einer algorithmischen Herangehensweise, haben sich in den letzten Jahren im Umfeld von Moser und Tardos und ihren Arbeiten zu einem konstruktiven Beweis des LLL eine erneute starke Beschäftigung mit dem Thema und eine Fülle von Verbesserungen entwickelt.
In Kapitel 1 wird als Motivation eine kurze Einführung in die probabilistische Methode gegeben. Mit der First- und Second Moment Method werden zwei einfache Vorgehensweisen vorgestellt, die die Grundidee dieses Beweisprinzips klar werden lassen. Von Paul Erdős eröffnet, beschreibt es Wege, Existenzbeweise in nicht-stochastischen Teilgebieten der Mathematik mithilfe stochastischer Überlegungen zu führen. Das Lokale Lemma als eine solche Überlegung entstammt dieser Idee.
In Kapitel 2 werden verschiedene Formen des LLL vorgestellt und bewiesen, außerdem wird anhand einiger Anwendungsbeispiele die Vorgehensweise bei der Verwendung des LLL veranschaulicht.
In Kapitel 3 werden algorithmische Herangehensweisen beschrieben, die geeignet sind, von der (mithilfe des LLL gezeigten) Existenz gewisser Objekte zur tatsächlichen Konstruktion derselben zu gelangen.
In Kapitel 4 wird anhand von Beispielen aus dem reichen Schatz neuerer Veröffentlichungen gezeigt, welche Bewegung nach der Arbeit von Moser und Tardos entstanden ist. Dabei beleuchtet die Arbeit nicht nur einen anwendungsorientierten Beitrag von Haeupler, Saha und Srinivasan, sondern auch einen Beitrag Terence Taos, der die Beweistechnik Mosers aus einem anderen Blickwinkel beleuchtet.
Es wurde eine Apparatur zur Messung der Ladungszustandsverteilung von langsamen, hochgeladenen Ionen nach der Wechselwirkung in dünnen Foilen aufgebaut und angewendet. Die Ladungszustandsverteilung von Ionen mit Ladungszuständen von 1+ (H) bis 75+(Th) wurden im Geschwindigkeitsbereich von 0.2 bis 0.75 vBohr nach einer 5 nm und 10 nm dicken amorphen Kohlenstoff-Folie bestimmt. Ionen, die die (10 nm)-Folie passierten, befanden sich im wesentlichen in einem Gleichgewichtsladungszustand (1-2+), der sich grob durch das Bohr-Kriterium beschreiben läßt. Die mittleren Endladungszustände von Ionen mit Anfangsladungen >= 33+ zeigten nach der 5 nm dicken Folie eine deutliche Abweichung von diesem Gleichgewicht. Mittlere Ladungszustände bis zu 8.2+ (Th) wurden beobachtet. Es handelt sich dabei um die erste Beobachtung von Nicht-Gleichgewichtsladungszuständen langsamer Ionen nach der Transmission durch einen Festkörper. Dieses Ergebnis wird dahingehend gedeutet, daß die Zeitspanne, die zur Neutralisation und Relaxation der Ionen in der 5 nm Folie zur Verfügung steht, nicht ausreichend ist. Aus den Ergebnissen der Sekundärelektronen Ausbeute wird geschlossen, daß ein Teil der Innerschalen-Plätze bis zum Austritt aus der Folie nicht gefüllt werden konnte. Desweiteren könnte eine Verarmung des Festkörpers an Elektronen im Einschlagsbereich des hochgeladenen Ions vorliegen. Anhand der gesammelten Daten wurde ein semi-empirisches Modell zur Beschreibung des Ladungszustandes eines hochgeladenen Ions in einem Festkörper aufgestellt. Es zeigt sich, daß die Daten gut durch einen zweistufugen Füllprozess beschrieben werden können, der aus einem Aufbau einer Abschirmwolke um das Projektil, sowie der weiteren Abregung besteht. Die charakteristischen Zeiten für Aufbau und Abregung bewegen sich im Bereich von 2 fs. Nach etwa 7 fs kann von einer vollständigen Relaxation des Projektils ausgegangen werden. Die Ergebnisse dieser Arbeit zum Ladungsausgleich der hochgeladenen Ionen wurden in [37] veröffentlicht.
Regulation und Geschlecht : zur feministischen Erweiterung der Regulationstheorie bei Kohlmorgen
(2006)
Die Regulationstheorie bietet Konzepte zur Untersuchung der Bestandsfähigkeit, der Struktur und Dynamik von Gesellschaften, in denen kapitalistische Produktionsweise herrscht. Sie erlaubt es, die Entwicklung des kapitalistischen Weltsystems zu periodisieren und die von Marx zunächst abstrakt als Selbstverwertung des Werts gefasste Kapitalakkumulation in ihren historisch-konkreten Formen zu analysieren. Durch die Neubestimmung der Rolle von sozialen Kompromissen und Kräfteverhältnissen für die kapitalistische Dynamik sowie die Betonung der grundsätzlichen Kontingenz und Offenheit der historischen Entwicklung bietet die Regulationstheorie eine Möglichkeit der Überwindung von deterministischem und ökonomistischem Denken, das im traditionellen Marxismus dominant war, ohne die Möglichkeit einer umfassenden kritischen Gesellschaftstheorie aufzugeben. Zu einer solchen kritischen Gesellschaftstheorie gehört natürlich auch eine Kritik geschlechtsspezifischer Herrschaft und Ausbeutung, die von der Regulationstheorie zwar oft erwähnt, jedoch lange Zeit nicht systematisch in regulationistische Arbeiten einbezogen wurden. Mit Lars Kohlmorgens "Regulation, Klasse, Geschlecht" (2004) haben wir den ersten systematischen Versuch, die Regulationstheorie um die Analyse der Geschlechterverhältnisse zu erweitern und die regulationistischen Kategorien zu diesem Zweck zu reformulieren. Die Frage, ob und inwieweit es Kohlmorgen gelungen ist, die geschlechtertheoretische Leerstelle der Regulationstheorie zu füllen, ist Gegenstand dieser Arbeit.
In dieser Arbeit wurden ionisierende Prozesse inWasserstoff- und Deuterium-Molekülen untersucht. Das Ziel war es dabei insbesondere, doppelt angeregte Zustände näher zu betrachten, d.h. Prozesse, bei denen mit einem UV-Photon beide Elektronen des H2 angeregt werden. Das Molekül zerfällt dann schließlich in ein angeregtes Atom sowie ein Proton und ein Elektron. Diese Doppelanregung konnte in den Messdaten identifiziert werden. Durch die Art der Messung war es möglich, einen umfassenden Überblick über den Photonenenergiebereich von 29 bis 60 eV zu erhalten (siehe Abb. 4.4). Somit konnte die Dynamik verschiedener Prozesse mit sich ändernder Photonenenergie analysiert werden. Es konnte die Einfach-Ionisation vom Einsetzen bis hin zur Doppel-Ionisation beobachtet werden. Zwischen 29 und 38 eV traten dabei Anregungen auf das Q1- und Q2-Band auf. Insbesondere für einen KER<2 eV konnten interessante Strukturen aufgelöst werden, die bei bisherigen Experimenten nur eindimensional, d.h. ohne die Varianz der Photonenenergie, betrachtet werden konnten. Eine Gegenüberstellung der beiden Isotope H2 und D2 zeigte zahlreiche Unterschiede bei der Autoionisation auf. Für den Bereich des KER, der einer Anregung auf das Q2-Band entspricht, konnten außerdem Winkelverteilungen erstellt werden und mit Verteilungen verglichen werden, die aus der direkten Besetzung des (2p sigma u) Zustands resultieren. Dabei wurde für beide Isotope eine Asymmetrie beobachtet. Für höhere Photonenenergien lagen schließlich die Endzustände zu dicht beieinander, um aufgelöst zu werden. Doppelanregungen auf das Q3- und Q4-Band konnten daher hier nicht explizit beobachtet werden. Für künftige Messungen wäre es sicher interessant, das Q1-Band mit einem speziell darauf abgestimmten Spektrometer im entsprechenden Energiebereich genauer zu studieren. So könnten die energetischen Strukturen dieser niederenergetischen Protonen besser aufgelöst und somit der Kontrast zur Besetzung des 1s sigma g Zustands erhöht werden. Außerdem wäre es von Interesse auch Photonenenergien unterhalb von 29 eV zu betrachten, was jedoch an Beamline 9.3.2 der ALS nicht möglich war. Ebenso wäre natürlich der höhere Photonenfluss einer Undulator-Beamline wünschenswert, um eine bessere Statistik zu erhalten. Hier konnte gezeigt werden, dass im Energiebereich, in welchem Anregungen auf das Q3- und Q4-Band möglich sind, nur Intensitäten in höheren Endzuständen (n >=2) auftreten. Um eventuelle Strukturen in diesem Bereich zu studieren ist ein jedoch ein höher auflösendes Spektrometer notwendig. Dies könnte z.B. durch größere MCP realisiert werden.
In dieser Arbeit wurde deutlich, dass die Multilevel Monte Carlo Methode eine signifikante Verbesserung gegenüber der Monte Carlo Methode darstellt. Sie schafft es den Rechenaufwand zu verringern und in fast allen Fällen die gewollte Genauigkeit zu erreichen. Die Erweiterung durch Richardson Extrapolation brachte immer eine Verringerung des Rechenaufwands oder zumindest keine Verschlechterung, auch wenn nicht in allen Fällen die schwache Konvergenzordnung verdoppelt wurde.
Im Falle der Optionssensitivitäten ist eine Anwendung des MLMC-Algorithmus problematisch. Das Funktional, das auf den Aktienkurs angewendet wird, darf keine Unstetigkeitsstelle besitzen, bzw. im Falle des Gammas muss es stetig differenzierbar sein. Die Anwendung der MLMC Methode macht dann vor allem Sinn, wenn sich die Sensitivität als Funktion des Aktienkurses umformen lässt, so dass nur der Pfad der Aktie simuliert werden muss. Nur wenn dies nicht möglich ist, wäre es sinnvoll, die in Kapitel 6.5 am Beispiel des Deltas vorgestellte Methode zu benutzen, in der man einen zweiten Pfad für das Delta simuliert.
Weitere Verbesserungsmöglichkeiten könnten in der Wahl von anderen varianzreduzierenden Methoden liegen oder durch Verwendung von Diskretisierungsverfahren mit höherer starker Ordnung als das Euler-Verfahren (vgl. [7], Verwendung des Milstein-Verfahrens). In diesem Fall ist theoretisch ein Rechenaufwand der Größenordnung O(ϵexp-2) möglich, da die Anzahl der zu erstellenden Samples nicht mehr mit steigendem L erhöht wird. Somit könnte das L so groß gewählt werden, dass der Bias verschwindet und der MSE ausschließlich von der Varianz des Schätzers abhängt. Um diese auf eine Größenordnung von O(ϵexp2) zu bringen, ist es nötig, O(ϵexp2) Pfade zu erstellen (siehe Gleichung (3.6)), was den Rechenaufwand begründet.