Refine
Year of publication
Document Type
- diplomthesis (215) (remove)
Has Fulltext
- yes (215)
Is part of the Bibliography
- no (215)
Keywords
- Stochastik (3)
- RDF (2)
- Semantic Web (2)
- Soziologie (2)
- Statistik (2)
- Stochastischer Prozess (2)
- Strahltransport (2)
- Yule-Prozess (2)
- Ablenkung <Physik> (1)
- Algorithmus (1)
Institute
- Physik (100)
- Mathematik (39)
- Informatik (29)
- Gesellschaftswissenschaften (14)
- Wirtschaftswissenschaften (8)
- Geowissenschaften (7)
- Biowissenschaften (4)
- Erziehungswissenschaften (4)
- Biochemie und Chemie (3)
- Geographie (1)
Nationalparke haben nicht nur den Zweck, Ökosysteme auf einer ausreichend großen Fläche sich selbst zu überlassen, damit sich ein ökologisches Gleichgewicht einstellen kann, sondern sie sind auch öffentlich zugänglich.
Umweltbildung in Nationalparken bezweckt, Kenntnisse über und Begeisterung für die Nationalparke zu vermitteln, so daß der Wert dieses Raumes erfaßt und Interesse an dessen Schutz geweckt wird. Ein Beitrag zur allgemeinen Umweltbildung wird geleistet, wenn der Besucher seine Erfahrungen im Nationalpark auf alle Lebensbereiche übertragen kann. Da nur die wenigsten Besucher personengebundene Umweltbildungsarbeit, die in Form von geführten Wanderungen in jedem deutschen Nationalpark angeboten wird, in Anspruch nehmen, ist eine geeignete Umweltbildung durch Öffentlichkeitsarbeit erforderlich.
Alle Nationalparke bieten Informationen über die naturräumlichen Gegebenheiten und über Beeinträchtigungen der Ökosysteme an. Umfang und Qualität der Ausstellungen, Printmedien, Informationstafeln in der Natur und audiovisueller Medien variieren beträchtlich. Informationsmedien sind nicht immer geeignet, auf das Erlebnis Natur vorzubereiten und umfassende Informationen zu vermitteln. In den meisten Informationshäusern wird "ein Stück Natur" in die Ausstellung geholt, die dort ausgiebig betrachtet oder angefaßt werden kann; Hören und Riechen spielen noch eine untergeordnete Rolle. Beeinträchtigungen der Ökosysteme (Müll, Giftstoffe, Tourismus) werden in allen Informationsmedien dargestellt, in den Ausstellungen z.T. sehr dramatisch. Es sollte keine "heile Welt" dargestellt werden; Ausstellungen sollten betroffen machen, gleichzeitig jedoch Begeisterung für die Natur wecken.
Lernen über die Natur in und mit der Natur stehen im Vordergrund der Bildungsarbeit und führten bereits zu Konzepten, diese Erfahrungen auch ohne Ranger-Begleitung sammeln zu können: Im Nationalpark Bayerischer Wald wurde 1995 ein Naturerlebnispfad fertiggestellt, der Vorgänge in Ökosystemen veranschaulicht (spielerisch) und Zusammenhänge bewußt macht (wissenschaftlich, ethisch), der als Konzept für zukünftige Umweltbildungsarbeit zu sehen ist. Geowissenschaftliche und kulturhistorische Themen sollten immer miteinbezogen werden, um den Nationalpark als Gesamtraum erfassen zu können.
Um möglichst viele Besucher zu erreichen, müssen alle erdenklichen Informationsmedien eingesetzt werden. Insgesamt ist dieses Angebot noch nicht groß genug; acht der zwölf deutschen Nationalparke wurden jedoch erst nach 1990 gegründet, sind also noch sehr jung.
Bildungsarbeit wird in deutschen Nationalparken überwiegend durch Umweltsponsoring ermöglicht und ebenfalls Wirtschaftsunternehmen rücken die Nationalparke durch Printmedien u.ä. ins öffentliche Bewußtsein. Weder eines der Bundesministerien noch ein übergeordneter Fremdenverkehrsverband informiert zu allen deutschen Nationalparken. Verkehrsverbände der Nationalpark-Gemeinden erwähnen Nationalparke als Möglichkeiten zur Erholung allenfalls als "Touristische Attraktion" oder "Weitere Angebote".
Deutsche Nationalparke werden auf der gleichen gesetzlichen Grundlage wie Naturschutzgebiete geschützt. Naturschutz ist Ländersache, die Länder übertragen die Zuständigkeit z.T. an die Nationalparkverwaltungen. Die zwölf deutschen Schutzgebiete von nationaler Bedeutung in acht verschiedenen Bundesländern weichen in ihrem Schutzzweck und in ihrer Öffentlichkeitsarbeit voneinander ab. Besonders ungünstig wirkt sich dies bei der Besucherlenkung aus, zumal eine zu geringe Anzahl Mitarbeiter in den fremdenverkehrsbelasteten Nationalparken zur Verfügung steht.
Die ersten Schritte zur einheitlichen Darstellung und einheitlichen Besucherlenkung wurden von der FÖNAD unternommen. Sie gab die Entwicklung eines Besucherleit- und Informationssystems, eines Nationalpark-Logos und ein Konzept für einheitlich gestaltete Faltblätter (Corporate Design) in Auftrag; die Ergebnisse der Aufträge sollen die deutschen Nationalparke als einheitlich zu schützende Gebiete darstellen und Besuchern die Orientierung und das umweltverträgliche Verhalten erleichtern. Das Besucherleitsystem ist bereits in vier Nationalparken installiert. Diese Konzepte sind jedoch nur Richtlinien, die für die Nationalparkverwaltungen nicht verbindlich sind.
Aus den Antworten auf einen Fragebogen über Interpretive Services in ausgewählten Ländern ließ sich ersehen, daß die Nationalparke in etwa der Hälfte der antwortenden Staaten (n=27) dezentral organisiert sind, sich aber doch jeweils eine übergeordnete Behörde um die Darstellung des nationalen Naturerbes bemüht. National Park Services sind in den meisten Fällen nur für das Corporate Design zuständig, d.h. sie geben Vorgaben an die Nationalparkverwaltungen, die Medien dann um die räumlich spezifischen Informationen ergänzen. Nur in den Vereinigten Staaten ist der National Park Service für sämtliche Informationsmedien der mehr als 350 Gebiete nationaler Bedeutung zuständig.
Band 2 enthält eine Nationalpark-Bibliographie mit 2224 Literaturstellen (Stand: 4.11.1995).
In der Realität setzen sich Farben aus einzelnen Wellen zusammen, welche in Kombination mit zugehörigen Wellenlängen und Intensitäten bei Menschen den Sinneseindruck einer Farbe hervorrufen. Die Computergraphik definert Farben mit dem RGB-Modell, in dem durch 3 Grundfarben (Rot, Grün, Blau) der darstellbare Farbbereich festgelegt wird. Ein Spektrum (genauer Spectral Power Distribution, SPD) ermöglicht eine variablere, physikalisch exaktere Darstellung von Farbe, kann aber nicht einfach mit dem RGB-Modell verwendet werden. Das von der Commission Internationale de l'Eclairage definierte XYZ-Farbmodell erlaubt es mit Wellenlängen zu rechnen, und bildet die Grundlage der Beleuchtungsrechnung mit Spektren.
Farben mittels Spektren zu ermitteln ist die Paradedisziplin von Raytracern, da der Berechnungsaufwand für Echtzeitanwendungen meist zu groß ist. Die neueste Graphikkarten-Generation kann große Datenmengen effizient parallel verarbeiten, und es wurden entsprechende Ansätze gesucht, wellenlängenbasiert zu rechnen. Das hier vorgestellte System erlaubt auf Grundlage von physikalischen Formeln einzelne Intensitäten zu beeinflusen, welche in Kombination mit den Tristimulus-Werten des Menschen in dem XYZ-Farbmodell abgebildet werden können. Diese XYZ-Koordinaten können anschließend in das RGBModell transformiert werden.
Im Gegensatz zu bestehenden Systemen wird direkt mit Spektren gearbeitet und diese nicht von einer RGB-Farbe abgeleitet, so dass für bestimmte Effekte eine höhere Genauigkeit entsteht. Durch die Verwendung einer SPD ist es möglich, Interferenzeffekte an dünnen Schichten und CDs in einem Polygon-Renderer zu visualisieren. In dieser Arbeit wird eine Berechnung von mehrlagigen dünnen Schichten mit komplexen Brechungsindizes präsentiert und ein LOD-System vorgestellt, welches es ermöglicht den Berechnungsaufwand frei zu skalieren.
Gegenstand dieser Arbeit ist die Entwicklung eines CH-Rebunchers mit Energievariation für die sich in der Entstehungsphase befindliche Beschleunigeranlage des FRANZ Projektes am Institut für Angewandte Physik der Goethe Universität Frankfurt am Main.
Die FRANZ Experimente sollen Fragen der nuklearen Astrophysik und der Materialforschung beantworten. Experimente zu Neutroneneinfangsquerschnitten werden im Vordergrund stehen. Diese sollen hauptsächlich zum Verständnis der Vorgänge bei der Nukleosynthese in Roten Riesen beitragen...
Der Theorieteil befaßt sich mit den bisher vorliegenden Erkenntnissen über Lerntypen. Anregungen zu dieser Untersuchung kamen von den Neurophysiologen ECCELS J.C. und POSNER M.I.,von den Pädagogischen Psychologen WEIDENMANN B und GAAL J., von dem Pädagogen VESTER F. und dem Psychologen PAIVIO A., auf dessen Thesen von den drei Kodierungssystemen (1964) die Forschungsansätze zu diesem Thema beruhen. Darüber hinaus wurde der kommerzielle Hirndominanztest von HERMANN N. und einige Arbeiten von Vertretern des Neurolinguistischen Progammierens berücksichtigt.
Untersucht wurde die Auswirkungen der visuellen, auditiven und kinästhetischen Unterrichtsformen auf zwölf Jugendliche im Alter zwischen acht und zwölf Jahren. Im Anschluß an die Untersuchung wurde den Kindern ein Fragebogen vorgelegt, mit dessen Hilfe die präferierten Sinneskanäle erfaßt werden sollten. Dies schließt insofern eine Forschungslücke, als hier zum erstenmal die Modalitäten von Probanden festgestellt wurden. Dies befähigt zur Beantwortung der Frage: Wie unterrichte ich wen?
Die Kinder hatten am Jugendtraining des Licher Golfclubs teilgenommen und standen in den letzten drei Wochen der Saison 1996 für den Test zur Verfügung. Der Lernerfolg wurde ausschließlich durch einen Vergleich der Leistung vor und nach dem Unterricht ermittelt. Hierbei wurde beobachtet, daß jedes Kind eine bestimmte Reihenfolge von Lernmodalitäten bevorzugt. Ein für diese Situation entwickelter Fragebogen stimmte in 7 von 12 Fällen mit den Testergebnissen überein. Die Lernleistung kann bei Ansprache der präferierten Sinnesmodalitäten optimiert werden.
Die Ergebnisse haben gezeigt, daß Zusammenhänge zwischen der Instruktion präferierter Sinnesmodalitäten und der Lernleistung bestehen.
Der letzte Teil der Arbeit befaßt sich mit der praktischen Umsetzbarkeit der Ergebnisse und ihren möglichen Auswirkungen auf die Kommunikation.
This work is dedicated to the study of the vector and axial vector spectral functions of the τ lepton within the framework of a U(2)L × U(2)R Linear Sigma Model with electroweak interaction. As an effective field theory the Linear Sigma Model describes hadronic degrees of freedom based on the symmetries of the Standard Model. Therefore, the following section aims at giving a very general and concise introduction to the Standard Model and the meaning of symmetries for contemporary elementary particle physics. In the next section the SU(3)C symmetry group will be discussed in short, followed by an introduction to chiral symmetry SU(2)L × SU(2)R. In the last section of this chapter the Glashow-Weinberg-Salam theory of the local group SU(2)L × U(1)Y is presented. Important concepts of the theoretical framework of the Standard Model, such as the Noether Theorem, the Gauge Principle, Spontaneous Symmetry Breaking, and the Higgs Mechanism will be introduced in the context of these three symmetry groups. In Chapter 2 it will be first shown how the symmetries of the Standard Model are realised within the global U(2)L × U(2)R Linear Sigma Model and how electroweak interactions can be introduced to the model on the basis of local SU(2)L × U(1)Y symmetry transformations of the hadronic degrees of freedom. The vertices that are relevant for the vector and axial vector decay channels in weak τ decay are extracted from the Lagrangian with electroweak interaction in Chapter 3. This is followed by a short introduction to the Källen-Lehmann Representation of spectral functions and how these can be parametrised within the framework of this model (Chapter 4). The results of the vector and axial vector spectral functions are presented in Chapter 5 and 6.
Pion-Pion-Streuung in einem geeichten linearen Sigma-Modell mit chiraler U(2)R × U(2)L-Symmetrie
(2006)
Das Thema der vorliegenden Arbeit waren die leichten skalaren und vektoriellen Mesonen, die in einem chiral symmetrischen SU(2)-Modell zusammengefasst wurden; aufgrund der sich daraus ergebenden Lagrange-Dichte wurde die Streuamplitude für die Pion-Pion-Streuung im Vakuum berechnet, was sodann die Berechnung der s-Wellen-Streulängen an der Schwelle im Vakuum erlaubte.
In vorliegender Arbeit wurde ein lineares Sigma-Modell mit verktoriellen sowie axial-vektoriellen Freiheitsgraden durch Einkopplung des Dilatons verallgemeinert, wodurch Kontakt mit der Skalen-Anomalie erzielt wurde. Anschließend war die Intention, die Zerfallsbreiten des entmischten Sigmafeldes sowie des entmischten skalaren Glueballs, die mit den skalaren-isoskalaren Resonanzen f0(1370) und f0(1500) identi
ziert wurden, auf Baumdiagrammniveau zu berechnen und mit experimentellen Befunden zu vergleichen, um Aussagen über die Natur dieser Resonanzen im Rahmen der durchgeführten Studie machen zu können.
In dieser Arbeit wurde deutlich, dass die Multilevel Monte Carlo Methode eine signifikante Verbesserung gegenüber der Monte Carlo Methode darstellt. Sie schafft es den Rechenaufwand zu verringern und in fast allen Fällen die gewollte Genauigkeit zu erreichen. Die Erweiterung durch Richardson Extrapolation brachte immer eine Verringerung des Rechenaufwands oder zumindest keine Verschlechterung, auch wenn nicht in allen Fällen die schwache Konvergenzordnung verdoppelt wurde.
Im Falle der Optionssensitivitäten ist eine Anwendung des MLMC-Algorithmus problematisch. Das Funktional, das auf den Aktienkurs angewendet wird, darf keine Unstetigkeitsstelle besitzen, bzw. im Falle des Gammas muss es stetig differenzierbar sein. Die Anwendung der MLMC Methode macht dann vor allem Sinn, wenn sich die Sensitivität als Funktion des Aktienkurses umformen lässt, so dass nur der Pfad der Aktie simuliert werden muss. Nur wenn dies nicht möglich ist, wäre es sinnvoll, die in Kapitel 6.5 am Beispiel des Deltas vorgestellte Methode zu benutzen, in der man einen zweiten Pfad für das Delta simuliert.
Weitere Verbesserungsmöglichkeiten könnten in der Wahl von anderen varianzreduzierenden Methoden liegen oder durch Verwendung von Diskretisierungsverfahren mit höherer starker Ordnung als das Euler-Verfahren (vgl. [7], Verwendung des Milstein-Verfahrens). In diesem Fall ist theoretisch ein Rechenaufwand der Größenordnung O(ϵexp-2) möglich, da die Anzahl der zu erstellenden Samples nicht mehr mit steigendem L erhöht wird. Somit könnte das L so groß gewählt werden, dass der Bias verschwindet und der MSE ausschließlich von der Varianz des Schätzers abhängt. Um diese auf eine Größenordnung von O(ϵexp2) zu bringen, ist es nötig, O(ϵexp2) Pfade zu erstellen (siehe Gleichung (3.6)), was den Rechenaufwand begründet.
Diese Diplomarbeit beschäftigt sich mit dem Entwurf und der Implementierung der Auslesefirmware für den GET4 Chip im Rahmen des CBM (Compressed Baryonic Matter) Experiments.
Physikalische Experimente mit Teilchenbeschleunigern, wie das geplante CBM Experiment, erzeugen große Mengen an Sensordaten, die aufbereitet, gespeichert und ausgewertet werden müssen. Der GET4 Chip ist ein möglicher TDC (Time to Digital Converter) Chip mit 4 Kanälen für den TOF (Time of Flight) Detektor des CBM Experiments. Der GET4 Chip erzeugt einen Zeitstempel für die Treffer der TOF RPC (Resistive Plate Chambers) Sensoren.
Die Auslese der GET4 Daten wird von einem ROC (Readout Controller Board) übernommen, das mit einem FPGA (Field Programmable Gate Array) ausgestattet ist. Das ROC Board lässt sich über die ROC Firmware für verschiedene Einsatzzwecke flexibel konfigurieren, so dass damit auch andere Frontend Elektronik, wie z.B. der n-XYTER Chip, ausgelesen werden kann. Während dieser Diplomarbeit wurde das SysCore2 mit einem Virtex-4 FX20 als ROC verwendet. Inzwischen ist das SysCore3 verfügbar, das einen deutlich leistungsfähigeren FPGA besitzt. Die bisher verfügbare Firmware für den GET4 war für den Betrieb im 24 Bit Modus konzipiert.
Der bevorzugte Auslesemodus für den GET4 ist der 32 Bit Modus, da der 24 Bit Modus einige Beschränkungen aufweist und die volle Funktionalität des GET4s nur im 32 Bit Modus zur Verfügung steht. Im Rahmen dieser Diplomarbeit wurde die vorhandene 24 Bit Firmware für den 32 Bit Modus erweitert, so dass der zweite Datenkanal des GET4s, sowie der DDR (Double Data Rate) Modus für die Datenübertragung zur Verfügung steht. Neben der Erhöhung der Datenübertragungsraten stand die mögliche Skalierbarkeit der Firmware für die Auslese möglichst vieler GET4 Chips im Fokus. Dazu musste die Firmware umgestaltet werden, um die begrenzten BRAM Ressourcen des FPGAs nicht unnötig zu belegen.
Eine weitere wichtige Neuerung der 32 Bit Firmware ist die automatische Synchronisation der Epochen zwischen ROC und GET4. Dazu werden die Epochennachrichten der GET4s mit der Epoche des ROCs verglichen und bei Bedarf Synchronisationsnachrichten mit der korrekten Epoche an die GET4s gesendet.
In vorliegender Arbeit wurde ein Modell zur Beschreibung des chiralen Phasen Übergangs eines mesonischen Mediums im Gleichgewicht als effektiver Manifestation des Übergangs von hadronischer Materie zum Quark-Gluon-Plasma präsentiert, und im Rahmen eines selbstkonsistenten Vielteilchenresummationsverfahrens in Doppelblasennäherung numerisch gelöst.
In dieser Arbeit wurde die Zentralitätsabhängigkeit der K0S -Produktion in Pb+Pb Stößen für 40A und 158A GeV untersucht. Sie wurden über den Zerfallskanal K0S → π+π− der schwachen Wechselwirkung nachgewiesen und bilden zusammen mit den geladenen Kaonen den Großteil der entstehenden Strangeness einer Kollision. Die Bestimmung der Zentralität erfolgte anhand der im Veto-Kalorimeter detektierten Spektatoren. Die Messergebnisse unterliegen aufgrund der limitierten geometrischen Akzeptanz des Detektors, Effizienzverlusten in der V 0-Rekonstruktion und gewählter Qualitätskriterien einigen Verlusten. Auf diese Verluste konnte mit Hilfe eines Simulationsverfahren, dem so genannten Embedding, korrigiert werden. Dabei wurden Korrekturfaktoren für differentielle Phasenraumbereiche ermittelt und auf die gemessenen Signalinhalte der invarianten Massenspektren angewendet. Des Weiteren wurde eine Vielzahl von Studien durchgeführt um die Stabilität der Ergebnisse im Rahmen eines systematischen Fehler zu bestimmen.
Die korrigierten Transversalimpuls-Spektren und Spektren der invarianten Massen verschiedener Phasenraumbereiche und Zentralitäten wurden präsentiert. Darüber hinaus wurden der inverse Steigungsparameter, die Rapiditätsspektren, sowie die berechneten Gesamtmultiplizitäten der K0S in Abhängigkeit der Zentralität und anhand der "wounded" Nukleonen diskutiert. Die Ergebnisse konnten mit vorangegangenen Analysen von NA49, NA57 und CERES verglichen werden. Dabei wurden insbesondere geringe Unstimmigkeiten mit den NA49-Ergebnissen der geladenen Kaonen bei 158A GeV festgestellt. Des Weiteren wurde die Diskrepanz zu den NA57-Ergebnissen, welche aus Analysen anderer Teilchensorten bekannt ist, für mittlere Rapiditäten bestätigt. Die Zentralitäatsabhängigkeit der Ergebnisse wurde zusätzlich mit UrQMD-Modellrechnungen geladener Kaonen verglichen und kann durch diese näherungsweise beschrieben werden.
Die HBT-Interferometrie bietet über die Analyse von Bose-Einstein-Korrelationen geladener Pionen die Möglichkeit, Raumzeit-Dimensionen von Kern-Kern-Reaktionen zu vermessen. Dadurch kann das Ausfrierverhalten der in diesen Reaktionen enstehenden teilchenemittierenden Quelle untersucht werden. Die so gewonnenen Informationen tragen zu einem Verständnis der in den Kollisionen ablaufenden Prozesse und somit zu Erkenntnissen über Kernmaterie unter extremen Bedingungen bei. Von besonderem Interesse ist dabei die Beobachtung der Ausbildung eines QGP-Zustandes. Hierfür sind systematische Studien von verschiedenen Kollisionssystemen und -energien von großer Bedeutung.
Im Rahmen dieser Arbeit wurde eine Analyse von Bose-Einstein-Korrelationen in Pb-Au-Kollisionen bei einer Strahlenergie von 80A GeV durchgeführt. Die hier analysierten Daten wurden mit dem CERES-Detektor am SPS-Beschleuniger des CERN aufgenommen. Diese Analyse stellt eine erneute Untersuchung des Datensatzes unter Verwendung einer verbesserten Kalibrierungsprozedur für den CERES-Detektor dar. Infolgedessen konnte eine Verringerung der systematischen Unsicherheiten erreicht werden. Die neuen Ergebnisse stimmen mit den von der CERES-Kollaboration bereits publizierten HBT-Ergebnissen zufriedenstellend überein. Der Vergleich mit den Ergebnissen des NA49-Experiments, dass Pb-Pb-Kollisionen bei gleicher Strahlenergie unter dem Aspekt der HBT-Interferometrie untersucht hat, zeigt ebenfalls eine Übereinstimmung.
Durch diese Konsistenz und die Minimierung der systematischen Unsicherheiten im Bereich der SPS-Energien wird nun die Interpretation des Ausfrierverhaltens der Quelle besser ermöglicht: In dieser Arbeit wurde eine universelle Ausfrierbedingung von Pionen bei unterschiedlichen Schwerpunktsenergien und für verschiedene Kollisionssysteme untersucht. Diesbezügliche Observablen sind das mittels HBT-Radien bestimmte Ausfriervolumen und die mittlere freie Weglänge von Pionen zum Zeitpunkt des Ausfrierens der Quelle.
Bei dieser Untersuchung in Abhängigkeit von der Schwerpunktsenergie der Kollision zeichnet sich ein Minimum des Ausfriervolumens bei hohen AGS- und niedrigen SPS-Energien ab. Zusätzlich ergibt sich für die mittlere freie Weglänge ein ebenfalls nicht monotones Verhalten in diesem Energiebereich. Aus der dort vergrößerten Weglänge lässt sich auf eine erhöhte Emissiondauer der teilchenemittierenden Quelle gegenüber anderen Energien schließen. Die Emissionsdauer spielt in Verbindung mit dem Nachweis eines QGP-Zustandes eine wichtige Rolle. Ob die beschriebenen Beobachtungen durch ein Ausbilden dieses Zustandes oder auf Grund von anderen unbekannten Mechanismen hervorgerufen werden, kann abschließend noch nicht beurteilt werden. Denn verbleibende systematischen Unsicherheiten bei niedrigen Schwerpunktsenergien lassen derzeit keine weiteren Interpretationen zu. Insbesondere betrifft dies die noch bestehende Diskrepanz der Ergebnisse zwischen CERES und NA49 für eine Strahlenergie von 40A GeV. Daher ist eine Reanalyse der Daten von CERES bei dieser Strahlenergie von Bedeutung. Ebenso würde eine erneute systematische Messung im AGS-Energiebereich weitere grundlegende Interpretationen ermöglichen.
In Zukunft werden am RHIC-Beschleuniger des BNL in den USA und im Rahmen des FAIR-Projektes an der GSI bei Darmstadt Experimente in dieser Energieregion durchgeführt werden. Möglicherweise kann dann anhand dieser Messung ein universelles Ausfrierkriterium für Pionen sowie der Grund für ein verändertes Systemverhalten bei bestimmten Energien festgestellt werden.
Diese Arbeit befasst sich mit der Analyse der ersten Proton-Proton-Kollisionen, die mit dem ALICE-Experiment am LHC gemessen wurden. Der Schwerpunkt der Arbeit liegt dabei auf der Analyse des mittleren Transversalimpulses, einer Messgröße, mit der sich die Transversalimpulsspektren geladener, nichtidentifizierter Teilchen charakterisieren lassen. ALICE misst bei sqrt(s) = 900 GeV einen mittleren Transversalimpuls von
<pT> iINEL = 0;483 +/- 0;001(stat.) +/- 0;007(sys.) GeV=c (6.1)
<pT >NSD = 0;489 +/- 0;001(stat.) +/- 0;007(sys.) GeV=c (6.2)
Im Vergleich mit den Messungen anderer Experimente bei gleichem p s misst ALICE einen etwas höheren mittleren Transversalimpuls.
Neben der Analyse des mittleren Transversalimpulses des inklusiven Spektrums wird auch die Analyse als Funktion der Multiplizität erläutert. Mit der skalierten Multiplizität z = nacc= hnacci können die mit ALICE gemessenen Werte mit den Messungen von UA1 verglichen werden. Für z > 1 stimmen die Daten innerhalb der Fehler überein, für z < 1 divergieren die Daten von ALICE und UA1. Im weiteren Verlauf werden zwei Methoden vorgestellt, mit denen ein Übergang von der gemessenen Multiplizität zu einer korrigierten Multiplizität vorgenommen werden kann. Beide Methoden basieren auf einer mit PYTHIA generierten Korrelationsmatrix, die den Zusammenhang zwischen der generierten Multiplizitätsverteilung und der rekonstruierten Multiplizitätsverteilung enthält. Bei der einen Methode (A) werden die gemessenen Daten mit der Korrelationsmatrix gewichtet auf die generierte Multiplizität übertragen. Für die andere Methode (B) wird die Matrix zunächst entfaltet, um dann mit der entfalteten Multiplizitätsverteilung eine neue Matrix zu generieren. Mit dieser neuen Matrix wird dann jeder gemessen Multiplizitätsklasse eine wahrscheinlichste wahre Multiplizität zugewiesen. Die Ergebnisse beider Methoden sind vergleichbar. Für die weitere Analyse wird jedoch Methode A verwendet, da die Zuordnung in Methode B nicht eindeutig ist. Die mit dieser Methode analysierten Daten werden dann mit verschiedenen Simulationspaketen verglichen. Dabei stellt sich heraus, dass der PYTHIA-Tune Perugia0 die Daten am besten, jedoch nicht exakt, beschreibt. Mit den gemessenen Daten lassen sich die Modelle weiter optimieren, um eine Vorhersage bei höheren Strahlenergien machen zu können...
This thesis presents the implementation of the online reconstruction, calibration and monitoring of the data of the Transition Radiation Detector of ALICE. This reconstruction is performed on the High Level Trigger, the third level of the ALICE trigger system, and enables online calibration and monitoring of the incoming data. Additionally, the HLT can steer the data storage, such that only physical interesting events are saved. The online reconstruction, as well as the calibration, makes use of the existing offline algorithms. Therefore, interfaces between the HLT and these offline algorithms were implemented. For being able to reach the speed of 2000 Hz in proton-proton collisions, and 200 Hz in leadlead collisions, the algorithms had to be accelerated. Bottlenecks were tracked down using dedicated tools, and respective code was either reimplemented or it is being skipped during the online reconstruction. The quality of the output data was monitored throughout the implementation, to assure that it is not being cut too much.
Zentralitätsabhängigkeit der Produktion von Protonen und Antiprotonen in Pb+Pb Stößen bei 158A GeV
(2008)
Die vorliegende Arbeit behandelt das Forschungsthema der Entstehung des flüssigen Eisenkerns im Zentrum unseres Planeten. Dieses bislang wenig verstandene Gebiet ist reich an Fragestellungen, sowohl für Experimentatoren als auch für die Geodynamik. Es gibt sehr viele Arbeiten, die den Bildungsprozess experimentell untersuchen, jedoch wurde in den letzten Jahren die numerische Untersuchung in diesem Gebiet kaum vorangetrieben. Der experimentelle Teil der Arbeit stellt sich hierbei der aktuellen Frage nach der Perkolationsschwelle
1 von Eisenschmelze in der Silikatmatrix der Protoerde, während numerisch die Effekte von Potenzgesetzkriechen, Dissipation und Schmelzsegregation beim Absinken eines Eisendiapirs nach Ausbildung eines ersten flachen Magmaozeans in der Protoerde behandelt werden. Die genauen Fragestellungen könnnen dabei im letzten Abschnitt der Einleitung gefunden werden.
Im Rahmen dieser Arbeit wird der aktuelle Stand auf dem Gebiet des Lokalen Lovász Lemmas (LLL) beschrieben und ein Überblick über die Arbeiten zu konstruktiven Beweisen und Anwendungen gegeben. Ausgehend von Jószef Becks Arbeit zu einer algorithmischen Herangehensweise, haben sich in den letzten Jahren im Umfeld von Moser und Tardos und ihren Arbeiten zu einem konstruktiven Beweis des LLL eine erneute starke Beschäftigung mit dem Thema und eine Fülle von Verbesserungen entwickelt.
In Kapitel 1 wird als Motivation eine kurze Einführung in die probabilistische Methode gegeben. Mit der First- und Second Moment Method werden zwei einfache Vorgehensweisen vorgestellt, die die Grundidee dieses Beweisprinzips klar werden lassen. Von Paul Erdős eröffnet, beschreibt es Wege, Existenzbeweise in nicht-stochastischen Teilgebieten der Mathematik mithilfe stochastischer Überlegungen zu führen. Das Lokale Lemma als eine solche Überlegung entstammt dieser Idee.
In Kapitel 2 werden verschiedene Formen des LLL vorgestellt und bewiesen, außerdem wird anhand einiger Anwendungsbeispiele die Vorgehensweise bei der Verwendung des LLL veranschaulicht.
In Kapitel 3 werden algorithmische Herangehensweisen beschrieben, die geeignet sind, von der (mithilfe des LLL gezeigten) Existenz gewisser Objekte zur tatsächlichen Konstruktion derselben zu gelangen.
In Kapitel 4 wird anhand von Beispielen aus dem reichen Schatz neuerer Veröffentlichungen gezeigt, welche Bewegung nach der Arbeit von Moser und Tardos entstanden ist. Dabei beleuchtet die Arbeit nicht nur einen anwendungsorientierten Beitrag von Haeupler, Saha und Srinivasan, sondern auch einen Beitrag Terence Taos, der die Beweistechnik Mosers aus einem anderen Blickwinkel beleuchtet.
Im Rahmen der vorliegenden Diplomarbeit wurde die Rolle der putativen mitochondrialen Kinase PINK1 untersucht. Die Mutationen in diesem Gen sind für die PARK6 Form von Morbus Parkinson ursächlich. Dies ist eine neurodegenerative Erkrankung, welche die Lebensqualität der Betroffenen weitgehend beeinträchtigt. Sie wird mit Dopamin-Ersatzmitteln und DBS (Deep Brain Stimulation) behandelt, beide nicht frei von Nebenwirkungen. Levodopa können bekannterweise zu schweren Fällen von Dyskinesie führen. Die Aufklärung der physiologischen Rolle von PINK1 würde den Wissenschaftlern auf dem Weg zur Früherkennung und anderen Therapiemöglichkeiten verhelfen. Die PARK6 Form der Parkinson Erkrankung wird derzeit anhand von verschiedenen Modellorganismen (M. musculus, D. melanogaster, D. rerio, C. elegans), sowie von verschiedenen Zellmodellen (HeLa, PC12, Fibroblasten aus PARK6 Patienten) untersucht. Als neuronale Zelllinie eignen sich die SH-SY5Y Zellen besonders gut für die Forschung an der durch den Verlust von dopaminergen Neuronen gekennzeichneten Parkinson-Erkrankung und sind diesbezüglich als ein relevantes Zellmodell breit akzeptiert (Xie et al.2010). In der vorliegenden Diplomarbeit wurden mit einem adenoviralen Konstrukt generierte PINK1 knockdown SH-SY5Y Zellen (M. Klinkenberg) als ein potentielles Zellmodell für die PARK6 Form von M. Parkinson analysiert. Als Kontrolle für die PINK1- abhängigen Effekte wurden NT (non target) Zellen herangezogen. Ausschlaggebend für die Wahl dieses Zellmodells war die Beobachtung, dass die PINK1 KD SH-SY5Y Zellen bei einer Reduktion des Serumgehaltes im Medium wesentlich langsamer wachsen als die NT Zellen (M. Jendrach). Die Serumdeprivation schien also der notwendige Stressfaktor zu sein, welcher zur Auslösung eines PINK1-abhängigen Phänotyps führen könnte. Daraus ergab sich die Frage, welche anderen PINK1-abhängigen Veränderungen unter Serumentzug zur Ausprägung kommen. Im Rahmen dieser Diplomarbeit wurde zunächst die relative Genexpression der PINK1 KD SH-SY5Y Zellen in Bezug auf die NT Zellen untersucht. Es zeigte sich, dass der PINK1 KD bei reduziertem Serumgehalt zur Herunterregulation weiterer Parkinsonrelevanter Gene führt, deren Produkte an verschiedenen zellulären Prozessen beteiligt sind. Die Effekte traten nur bei stabil transfizierten Zellen auf und waren durch einen transienten PINK1 KD nicht reproduzierbar. Viele dieser Gene sind für die Aufrechterhaltung der mitochondrialen Homöostase bedeutsam und deshalb wurde die mitochondriale Funktion und Erscheinung in den PINK1 KD SH-SY5Y Zellen genauer erforscht. Im Gegensatz zu früheren Befunden (Mai et al. 2010) wurde eine Herunterregulation des für die mitochondriale Teilung zuständigen Fis1-Proteins ermittelt, darüber hinaus aber keine Änderung der mitochondrialen Morphologie auch nach induziertem Zellstress beobachtet (Dagda et al. 2009, Lutz et al. 2009). Ein Defizit in der mitochondrialen Atmung wurde festgestellt, nachdem die Zellen bei 1g/L Glucose kultiviert und für 24h auf ein Galaktose-haltiges Medium transferiert wurden. Außerdem wurde ähnlich zu Amo et. 2010 al eine leicht verminderte Energieladung der betreffenden Zellen gefunden. Keine Beeinträchtigung der mtDNA-Integrität oder der Überlebensrate bei H2O2-induziertem oxidativen Stress wurde beobachtet. Weiterhin wurde untersucht, inwiefern die in den PINK1 KD SH-SY5Y Zellen beobachteten Veränderungen in der Genexpression auf weitere Zellmodelle (PINK1 KD HeLa, kortikale Neurone aus PINK1 KO und PINK1 KO / A53T alpha Synuclein überexprimierenden Mäusen) übertragbar sind. Dabei wurden einige Gemeinsamkeiten zwischen den PINK1 KD SH-SY5Y Zellen und den PINK1 KO /A53T α Synuclein überexprimierenden kortikalen Neuronen ermittelt. Angesichts des Verlustes von dopaminergen Neuronen in M. Parkinson wäre es bedeutsam nachzuvollziehen, ob und wie die verminderte Expression Parkinson-relevanter Gene in diesen PINK1 KD Zellmodellen kompensiert wird, so dass die Zellen trotz der genetischen Einschränkung bei idealisierten in vitro Bedingungen gut überleben können. Hier ist es vorstellbar, dass zusätzlicher Zellstress die Gemeinsamkeiten zwischen den PINK1 KD SH-SY5Y Zellen und den PINK1 KO / A53T SNCA überexprimierenden Neuronen erweitern könnte. Diesbezüglich wäre es auch relevant zu erforschen, unter welchen Umständen die potentiellen Kompensationsmechanismen versagen, so dass das Zellüberleben nicht mehr gewährleistet wird. Im Licht des altersbedingten Ausbruchs der Symptome bei M. Parkinson würden diese neuen Erkenntnisse dazu beitragen, die möglichen auslösenden Faktoren zu erfassen und so ein tieferes Verständnis der molekularen Mechanismen dieser schwerwiegenden Erkrankung zu erhalten.
Die Arbeit analysiert den Begriff sowie den Wert der Freiheit in den Schriften des kanadischen Philosophen Charles Taylor, unter Bezugnahme auf dessen politische Philosophie und philosophische Anthropologie. Die begriffliche Klärung basiert auf einer Systematisierung der positiven Verwendung des Freiheitsbegriffes in Taylors Gesamtwerk. Die Wertanalyse interpretiert die Ergebnisse der Systematisierung in Bezug auf die Frage, ob Freiheit in Taylors Verständnis ein extrinsischer oder ein intrinsischer Wert ist.
Das HADES-Experiment (High Acceptance DiElectron Spectrometer) am SIS der GSI wurde zur Messung der e+e−-Paare dileptonischer Zerfälle der leichten Vektormesonen im Energiebereich von 1 − 2 AGeV entwickelt. Eine der Hauptanforderungen an das Spurverfolgungssystem des Spektrometers ist eine Ortsauflösung von 100 μm, die benötigt wird, um die geforderte Massenauflösung von 1 % im Bereich der !-Masse zu erzielen. Das Spurverfolgungssystem besteht aus vier Ebenen mit Vieldrahtdriftkammern (Multi-wire Drift Chambers (MDCs)) niedriger Massenbelegung (low-mass), die aus je 6 Auslesedrahtebenen bestehen. Die primäre Messgröße von Driftkammern ist die Driftzeit der entlang einer Teilchenspur generierten Elektronen der Primärionisation zum Auslesedraht. Um die gemessene Driftzeit in eine Ortskoordinate umrechnen zu können, ist eine genaue Kenntnis der Ort-Zeit-Korrelation der Driftzellen und eine präzise Kalibrierung der gemessenen Zeiten nötig. Im Rahmen dieser Arbeit wurde eine neue Methode zur Bestimmung der Kalibrierungsparameter der Driftzeiten mittels der Einkoppelung eines externen elektrischen Pulses auf die Drahtebenen der Driftkammern entwickelt und mit der herkömmlichen Methode der Kalibrierung verglichen. Zur Kalibrierung wurden elektrische Pulse durch die Hochspannungsverteilung der Driftkammern auf die Potentialdrahtebenen geleitet und somit Signale auf die Signaldrähte induziert. Die Ausbreitungsgeschwindigkeit der Signale auf den Drähten, die zur Berücksichtigung der Laufzeiten benötigt wird, wurde experimentell bestimmt. Die Genauigkeit der Methode zur Bestimmung der Kalibrierungsparameter übertrifft die Auflösung der Driftzeitmessung der Driftkammern. Die Kalibrierung der Driftzeiten benötigt nur wenig Rechen- und Zeitaufwand und stellt die Kalibrierungsparameter in gleich hoher Präzision für alle Driftzellen zur Verfügung. Die Qualität der Kalibrierung wird im Gegensatz zur herkömmlichen Methode prinzipbedingt nicht durch Fluktuationen der Startzeit des jeweiligen Stoßereignisses und die Flugzeit der dabei emittierten Teilchen zu den Driftzellen, sowie des elektronischen Rauschens beeinflusst. Die Qualität der Kalibrierung konnte gegenüber der herkömmlichen Methode signifikant verbessert werden. Die Auswirkung der Kalibrierungsparameter auf die Spurrekonstruktion wurde untersucht und für die beiden Kalibrierungsmethoden verglichen. Die Ergebnisse lassen keinen eindeutigen Schluss auf die Auswirkung der Fehler in der Kalibrierung auf die Qualität der Spurrekonstruktion zu, da die Ergebnisse der Spurrekonstruktion von anderen Effekten dominiert werden.
Im Sommer 1992 wurde an Abschnitten der Rur und ihres Nebenflusses Inde (Niederrheinische Bucht, Nordrhein-Westfalen) die Ufervegetation pflanzensoziologisch untersucht und die lokale Verbreitung von Neophyten mit Hilfe einer speziell entwickelten Methode der Feinkartierung erfaßt.
Die Ufervegetation der Rur weist nur in zwei Teilbereichen natürliche bzw. naturnahe Vegetationstypen der Flußufer in guter Ausbildung auf; hier treten flächenhaft Gesellschaften der Convolvuletalia, des Phragmition und Sparganio-Glycerion, des Bidention und des Salicion purpureae auf. Die übrigen Bereiche der Rur und ebenso die Inde sind ausgebaut und durch relativ intensiv "gepflegte", botanisch verarmte Ufer gekennzeichnet.
Insgesamt wurden knapp 60 Kilometer Uferstrecke abgegangen und dabei etwa 30 neophytische Sippen nachgewiesen; hiervon wurden 15 ausgewählte Sippen systematisch kartiert. Für etwa ein Dutzend im Untersuchungsgebiet häufigere Neophyten wurden Verbreitungskarten erstellt und diskutiert.
Parallel zur Feinkartierung von Neophyten wurden im Gelände und aus schriftlichen Quellen verschiedene Formen anthropogener Standortveränderungen erfaßt, um Hinweise auf Zusammenhänge mit der Ausbreitung der Neophyten zu erhalten.
Aus einer Sichtung der diesbezüglichen Literatur ergaben sich zwei Gruppen von Hypothesen darüber, welcher Typ von anthropogenen Einflüssen die Ausbreitung von Neophyten an Flüssen besonders begünstigt: von einigen Autoren wurden direkte mechanische Eingriffe im Uferbereich, wie Kanalisierung und Auwaldrodung, als maßgeblich betrachtet, von anderen Autoren wurde dagegen in den chemischen Belastungen des Flußwassers der Hauptfaktor vermutet. Es wurde in der vorliegenden Arbeit aber davon ausgegangen, daß die Daten, die bisher zu Aussagen über die Neophyten-Problematik an Flußufern herangezogen wurden, im wesentlichen auf zu kleinmaßstäbigen Kartierungen und auf zu spezieller Betrachtung einzelner neophytischer Arten beruhten.
Deshalb wurde in der vorliegenden Arbeit versucht, zusätzlich zur Feinkartierung einen neuen methodischen Ansatz zu entwickeln, um die Bedeutung, die Neophyten insgesamt in der Vegetation eines bestimmten Flußabschnitts haben, synthetisch zu analysieren.
Es wurde ein "Neophyten-Index" als Maß des Neophytenreichtums ermittelt; er bezieht sich immer auf einen bestimmten Flußabschnitt und ergibt sich aus der Gesamtzahl und Häufigkeit der in dem Abschnitt gefundenen neophytischen Sippen. Der Neophyten-Index als synthetischer Ausdruck floristischer Veränderungen ermöglichte einen groben Vergleich mit Daten zu anthropogenen Standortveränderungen. Die Probleme derartiger schematischer Berechnungen wurden diskutiert; alle Aussagen über die Ergebnisse mußten vorbehaltlich der Notwendigkeit kritischer Interpretation erfolgen.
Eine wichtige Rolle bei den Untersuchungen spielte die Frage des Status von Neophyten-Vorkommen; wesentlich war auch die Kenntnis der aktuellen Phase der Einwanderung eines Neophyten in das Untersuchungsgebiet. Vorkommen mit zufälligem Charakter, also unbeständige oder vorpostenartige Vorkommen, erlauben nur begrenzt ökologische Aussagen. Deshalb waren nicht alle gefundenen Neophyten gleichermaßen für die Berechnung eines Neophyten-Index verwendbar. Neben Beobachtungen im Gelände waren zur Beurteilung dieser Fragen umfangreiche Auswertungen der Literatur notwendig. Als Ergebnis wurde also zunächst sippenbezogen die Geschichte der Ausbreitung rekonstruiert, sowie die gegenwärtige Verbreitung und der Status im Untersuchungsgebiet ermittelt. Acht Neophyten wurden dann als geeignet befunden, in die Berechnung des Neophyten-Index einzugehen.
Es ergaben sich deutliche Unterschiede im Neophyten-Index verschiedener Flußabschnitte: für den unteren Bereich der Rur unterhalb der Einmündung der Inde und besonders für die Inde selbst ergaben sich deutlich höhere Neophyten-Indices als für den oberen Bereich der Rur.
Entgegen häufigen allgemeinen Angaben in der Literatur gab es im Untersuchungsgebiet keinen erkennbaren Zusammenhang zwischen dem Ausbauzustand eines Flußabschnittes und dessen Neophytenreichtum; einige naturnah mäandrierende Abschnitte der Rur waren deutlich neophytenreicher als andere, regulierte Abschnitte.
Ebensowenig war im gewählten Maßstabsbereich ein Zusammenhang zwischen der Beschattung der Ufer durch Gehölze und dem Neophytenreichtum festzustellen; der gesamte obere Bereich der Rur war trotz geringer Beschattung relativ neophytenarm.
Eine sehr auffällige Koinzidenz besteht jedoch zwischen Neophyten-Index und der Gewässergüteklasse der Teilabschnitte; die Inde ist durch vor allem industrielle Abwässer erheblich verschmutzt, während die Rur oberhalb der Einmündung der Inde nur geringere Belastungen aufzuweisen hat. Eine deutliche Abhängigkeit der Neophyten-Ausbreitung von der Gewässerbelastung wurde in der Literatur bisher zwar von einigen Autoren vermutet, jedoch nie durch exakte Kartierungen in geeigneten Untersuchungsgebieten nachgewiesen.
Die hier nachgewiesene Koinzidenz zwischen Gewässerbelastung und Neophytenreichtum muß mit Vorsicht interpretiert werden; weitere Faktoren unbekannter Bedeutung kommen hinzu. Als Einschleppungsort bzw. Ausbreitungszentrum von Neophyten könnte etwa die Industrieregion im Einzugsgebiet der Inde - oberhalb des Untersuchungsgebiets - eine Rolle spielen. Auch ein Einfluß des Abflußregimes auf die Ausbreitung von Neophyten kann nach den vorliegenden Daten nicht ausgeschlossen werden.
Abschließend werden die konkreten Standortfaktoren Wasserhaushalt und Bodensubstrat bezüglich ihrer noch weitgehend im Dunkeln liegenden Abwandlung durch anthropogene Einflüsse diskutiert.
Transnationale Verlagerung von Care-Arbeit in Hinblick auf Ausbeutungs- und Emanzipationsaspekte
(2010)
Chapter 1 contains the general background of our work. We briefly discuss important aspects of quantum chromodynamics (QCD) and introduce the concept of the chiral condensate as an order parameter for the chiral phase transition. Our focus is on the concept of universality and the arguments why the O(4) model should fall into the same universality class as the effective Lagrangian for the order parameter of (massless) two-flavor QCD. Chapter 2 pedagogically explains the CJT formalism and is concerned with the WKB method. In chapter 3 the CJT formalism is then applied to a simple Z(2) symmetric toy model featuring a one-minimum classical potential. As for all other models we are concerned with in this thesis, we study the behavior at nonzero temperature. This is done in 1+3 dimensions as well as in 1+0 dimensions. In the latter case we are able to compare the effective potential at its global minimum (which is minus the pressure) with our result from the WKB approximation. In chapter 4 this program is also carried out for the toy model with a double-well classical potential, which allows for spontaneous symmetry breaking and tunneling. Our major interest however is in the O(2) model with the fields treated as polar coordinates. This model can be regarded as the first step towards the O(4) model in four-dimensional polar coordinates. Although in principle independent, all subjects discussed in this thesis are directly related to questions arising from the investigation of this particular model. In chapter 5 we start from the generating functional in cartesian coordinates and carry out the transition to polar coordinates. Then we are concerned with the question under which circumstances it is allowed to use the same Feynman rules in polar coordinates as in cartesian coordinates. This question turns out to be non-trivial. On the basis of the common Feynman rules we apply the CJT formalism in chapter 6 to the polar O(2) model. The case of 1+0 dimensions was intended to be a toy model on the basis of which one could more easily explore the transition to polar coordinates. However, it turns out that we are faced with an additional complication in this case, the infrared divergence of thermal integrals. This problem requires special attention and motivates the explicit study of a massless field under topological constraints in chapter 8. In chapter 7 we investigate the cartesian O(2) model in 1+0 dimensions. We compare the effective potential at its global minimum calculated in the CJT formalism and via the WKB approximation. Appendix B reviews the derivation of standard thermal integrals in 1+0 and 1+3 dimensions and constitutes the basis for our CJT calculations and the discussion of infrared divergences. In chapter 9 we discuss the so-called path integral collapse and propose a solution of this problem. In chapter 10 we present our conclusions and an outlook. Since we were interested in organizing our work as pedagogical as possible within the narrow scope of a diploma thesis, we decided to make extensive use of appendices. Appendices A-H are intended for students who are not familiar with several important concepts we are concerned with. We will refer to them explicitly to establish the connection between our work and the general context in which it is settled.
Im Rahmen der vorliegenden Arbeit wurde eine Gahor-Plasma-Linse zur Fokussierung positiver Ionenstrahlen niedriger Energie konzipiert und aufgebaut. Die Erzeugung der Elektronen geschieht hier über eine Gasentladung, die im Linsenvolumen brennt. Die entstandenen Elektronen werden in einem elektromagnetischen Feld eingefangen. Die entstandenen Restgasionen werden aus dem Linsenvolumen herausbeschleunigt. Die Lösung der Bewegungsgleichung von Elektronen in gekreuzten elektrischen und magnetischen Feldern, unter Berücksichtigung der Elektronenraumladung, führt auf die Existenz einer maximalen Elektronendichte die abhängig ist vom Quadrat des magnetischen Feldes. Die Rechnung zeigte überdies, daß nach dem lokalen Erreichen der maximalen Elektronendichte eine Homogenisierung der Raumladung stattfindet. Die Diffusion der Elektronen, durch Stöße wurde allerdings nicht berücksichtigt. Eine generelle Aussage über das radiale Dichteprofil kann nicht gemacht werden. Die Untersuchungen zum Entladungsverhalten wurden für verschiedene Betriebsgase durchgeführt. Eine Zündung der Gasentladung konnte oberhalb einer gewissen Anodenspannung und eines gewissen Magnetfeldes immer erreicht werden. Die gegenüber der Paschenbedingung niedrigere Anodenspannung bei vorhandensein eines Magnetfeldes konnte anband der "verkleinerten" freien Weglänge erklärt werden. Die Dichtemessungen der Elektronen wurden mit einem elektrostatischem Gegenfeldspektrometer und einer elektrischen Langmuirsonde durchgeführt. Letztere ergaben, aufgrund der starken Störung der Gasentladung durch die Sonde, keine verwertbaren Ergebnisse. Die Energie der aus dem Linsenvolurnen herausbeschleunigten Restgasionen erlaubt im Prinzip einen Rückschluß auf ihr Entstehungspotential. Obwohl auch hier keine quantitative Aussage über das Dichteprofil gemacht werden konnte, erlaubte die Messung eine quantitative Aussage über den Füllgrad. Hierbei zeigen sich bei verschiedenen Betriebsbedingungen drastische Unterschiede. Die besten Ergebnisse ergaben Messungen an einer Entladung bei niedrigem Druck und geringer Stromstärke und hohem Magnetfeld. Ein empfindliches Meßinstrument zur Bestimmung der radialen Dichteverteilung ist der zu fokussierende Ionenstrahl selbst. Die Linse wurde in eine bestehende Ionenstrahltransportstrecke eingefügt. Messungen mit Argon- und Heliumionenstrahlen bei 10 ke V Strahlenergie und Strömen zwischen 200 mikroA und 1.15 mA wurden durchgeführt.Die Emittanz und Profilmessungen zeigten auch hier wieder eine drastische Abhängikeit des Strahlverhaltens von den eingestellten Linsenparametern. Zum überwiegenden Teil wurden Ausgangsemittanzen gemessen, die neben den stärksten beobachteten Fokussiereffekte starke sphärische Aberrationen zeigten und mit erheblichem Emittanzwachstum verbunden waren. Dies läßt auf eine stark inhomogene Verteilung der Elektronen schließen. Diese Ergebnisse wurden hauptsächlich bei hohen Linsenspannungen erzielt und zeigten zudem eine z.T. erhebliche Reduzierung des Kompensationsgrades hinter der Linse. Bei niedriger Iinsenspannung zeigte sich eine reduzierte Fokussierung des Strahles, die Aberrationen und das Emittanzwachstum waren aber weitaus geringer. Der Kompensationsgrad des Strahles hinter der linse blieb z. T. gegenüber einer reinen Driftmessung erhalten oder stieg sogar an. Die besten Ergebnisse ergaben sich bei 1500 V zwischen Anode und Kathode und einem magnetischen Feld auf der Achse von 280 Gauß. Der Restgasdruck betrug 1*10-5 hPa (größtenteils Helium). Ein 10 keV Heliumstrahl konnte entsprechend einer Brennweite von 20 cm bei vernachlässigbarem Emittanzwachstum fokussiert werden. Eine Variation der Linsenbrechkraft bei gleichzeitig kleinem Emittanzwachstum konnte nur in einem geringen Maße erreicht werden. Die angeführten Untersuchungen zeigen, daß es prinzipiell möglich ist, eine durch eine Gasentladung gefüllte Gabor-Plasma-Linse, als ionenoptisches Element zu betreiben. Eine Linearität der Feldveneilung und einen genügend hohen Füllgrad konnte nur in einigen Betriebszuständen erreicht werden. Die theoretischen und experimentellen Ansätze sind durchaus vielversprechend und lassen erhebliche Verbesserungen durch weitergehende Untersuchungen erwarten. Hier sind insbesondere theoretische und numerische Untersuchungen über das Einschlußverhalten von Elektronen in gekreuzten elektrischen und magnetischen Feldern notwendig. Dies führt zu einer Optimierung der Linsengeometrie hinsichtlich eines höheren Füllgrades. Fadenstrahlmessungen sind eine Möglichkeit um Aussagen über das radiale Dichteprofil zu gewinnen. Aber auch die Füllung der Linse mit thermischen Elektronen könnte ein Gegenstand weiterer Untersuchungen sein.
In der vorliegenden Arbeit wurde ein chirales SU(3)-Modell auf verschiedene Erscheinungsformen endlicher Kernmaterie angewendet. Das Modell basiert auf chiraler Symmetrie in nichtlinearer Realisierung. Die Symmetrie muss spontan gebrochen werden um die beobachtete Massendifferenz zwischen skalaren und pseudoskalaren Mesonen reproduzieren zu können. Um den pseudoskalaren Mesonen eine endliche Masse zu geben ist eine explizite Brechung der chiralen Symmetrie nötig.
The Benchmark Dose (BMD) approach, which was suggested firstly in 1984 by K. Crump [CRUMP (1984)], is a widely used instrument in risk assessment of substances in the environment and in food. In this context, the BMD approach determines a reference point (RfP) on the statistically estimated dose-response curve, for which the risk can be determined with adequate certainty and confidence. In the next step of risk characterization a threshold is calculated, based on this RfP and toxicological considerations. The BMD approach bases upon the fit of a dose-response model on the data. For this fit a stochastic distribution of the response endpoint is taken as a basis. Ultimately, the BMD reflects the dose for which a pre-specified increase in an adverse health effect (the benchmark response) can be expected. Until now, the BMD approach has been specified only for quantal and continuous endpoints. But in risk assessment of carcinogens especially so called time-to-event data are of high interest since they contain more information on the tumor development than quantal incidence data. The goal of this diploma thesis was to extend the BMD approach to such time-to-event data.
We presented a proof for the classical stable limit laws under use of contraction method in combination with the Zolotarev metric. Furthermore, a stable limit law was proved for scaled sums of growing into sequences. This limit law was alternatively formulated for sequences of random variables defined by a simple degenerate recursion.
Die Relevanz der Zuschreibung von "Hochbegabung" in der Biografie von besonders begabten Erwachsenen
(2007)
Mit dieser Arbeit konnten erstmalig Erkenntnisse über "hochbegabte" Erwachsene gewonnen werden, die bisher entweder nicht untersucht wurden oder aber hinter dem Schleier der Mystifizierung im Verborgenen blieben. Eine der wichtigsten Erkenntnis dieser Arbeit ist entgegen der Darstellung vieler Publikationen zu diesem Thema, dass die Zuschreibung von "Hochbegabung" nicht grundsätzlich biografisch relevant ist. Vielmehr ist die Relevanzeinstufung von "Hochbegabung" von entsprechenden Dispositionen und Ausprägungen mit ihren spezifischen Wirkungsmechanismen im Lebensablauf abhängig, die je nach Zusammenspiel in eine non-exklusive oder in eine exklusive "Hochbegabtenidentität" münden. Eine Normalitätserfahrung – und das ist die weitere wichtige Erkenntnis dieser Untersuchung – ist für eine non-exklusive "Hochbegabtenidentität" die notwendige Voraussetzung. Erst dadurch relativiert sich die durch die Zuschreibung bedingte Abgrenzung von Anderen. In diesem Zusammenhang erstaunt es nicht, dass ein kooperatives und annehmendes Umfeld gute Voraussetzungen für einen positiven Umgang mit der Begabung und somit auch für die Gelegenheit der Normalitätserfahrung gute Voraussetzungen liefert. Zu der vieldiskutierten Frage, ob eine vermutete "Hochbegabung" formal getestet und schließlich zertifiziert werden soll, kann somit auf Grundlage der Analyse nach der Marnier des Biografieforschers mit einem "je nach Lebenslage" Stellung genommen werden: Fühlt sich die betreffende Person mit der gegebenen Situation wohl und hat keine gravierenden, die weitere Identitätsentwicklung behindernde Schwierigkeiten und erfährt sich die besonders begabte Person als normal, so ist kritisch nach dem Nutzen einer Zuschreibung von "Hochbegabung" zu fragen. Nimmt sich die Person jedoch als ständiger Außenseiter wahr und resultieren daraus aufgrund des geringen Selbstwertes maßgebliche Schwierigkeiten in alltäglichen Situationen, so könnten die mit einer formalen Zuschreibung verbundenen Zutrittsmöglichkeiten zu entsprechenden Fördermaßnahmen durchaus eine Möglichkeit sein, Personen mit ähnlichen Erfahrungen kennenzulernen. Um diese Frage jedoch zufriedenstellend beantworten zu können, sind weitere, auf diese Frage zentrierte Untersuchungen notwendig. Ebenso sind ergänzend weitere Untersuchungen zur Identitätskonstruktion von per Zuschreibung ‚Hochbegabten’ unerlässlich, da die Methode des autobiografisch-narrativen Interviews hierbei an ihre Grenzen stößt (vgl. voriges Kapitel 8.6). Um das Moment der Etablierung einer Denkstruktur der "binären Schematisierung" und ihre Wirksamkeit zu erforschen, bedarf es unter anderem neurowissenschaftlichen Wissens, welches in dieser Arbeit nicht berücksichtigt werden konnte. Dennoch konnte anhand der Interviewtechnik des autobiografisch-narrativen Interviews erst die persönliche Relevanz der Zuschreibung von ‚Hochbegabung’ in den Biografien herausgearbeitet werden.
Wir haben Aussagen über das Eigenwertspektrum der freien Schwingungegleichung für einen Hohlraum B gesucht, welche unabhängig von der Gestalt des Hohlraumes nur von Gestaltparametern abhängen, die als Integrale über B bzw. über dessen Oberfläche ... Eigenschaften von ganz B darstellen, ohne die lokale Struktur der Oberfläche ... zu enthalten. An drei Testkörpern sehr verschiedener Gestalt (die Gestaltparameter waren ebenfalls verschieden), nämlich Würfel, Kugel und Zylinder, haben wir die Hypothese bestätigt, daß der mittlere Verlauf der Größen "Anzahl N und Summe E aller Eigenwerte unterhalb einer willkürlich vorgegebenen Schranke ER" in Abhängigkeit von der Wahl dieser Schranke i.w. gestaltunabhängig ist. Für den Quader lassen sich im Falle asymptotisch großer ER explizite Ausdrücke für N und E angeben, die für alle drei Testkörper nicht nur den mittleren Verlauf von N und E bei kleinen (endlichen) ER in zweiter Näherung (in Potenzen von Ef exp -1/2) richtig wiedergaben, sondern auch als numerische Näherung dss mittleren Verlaufs von N bzw. E brauchbar waren (relative Kleinheit des Restgliedes). Die mathematische Vermutung, daß sich für aS, große Ef eben diese expliziten Ausdrücke für N bzw. E' als gestaltunabhängig erweisen, soll in einer weiteren Arbeit behandelt werden. Das Ergebnis dieser Arbeit ist überall dort anwendbar, wo Eigenschaften des Spektrums der freien Schwingungsgleichung mit Randbedingungen benötigt werden, die sich aus N. bzw. E ableiten lassen; also vor allem in der Akustik (Zahl der Obertöne eines Hohlraumes unterhalb einer vorgegebenen Frequenz), in der Theorie der Hohlleiter usw. In dieser Arbeit haben wir die Anwendung auf ein einfaches Atomkernmodell betrachtet, das Fermigas-Modell. Es beschreibt den Kern als freies ideales in einem Hohlraum von Kerngestalt befindliches Fermigas. Dann bedeutet N die Teilchenzahl und E die Gesamtenergie des Systems. Ef ist die Fermigrenzenergie und es ist (Ef exp 3/2 /6*Pi*Pi) die Sättigungsdichte im Innern des Systems. Der Koeffizient des zweiten Termes des expliziten (aS.) Ausdrucks für E kann dann als Oberflächenspannung gedeutet werden. Die spezifische Hodell-Oberflächenspannung läßt sich in Abhängigkeit von dem Gestaltparametern und der Siittigungsdichte des Atomkernes schreiben. Nach Einsetzen der empirischen Werte erhalten wir numerisch einen Wert, der nur um 20% vom empirisch aus der v. Weizsäckerformel bekannten Wert für die spez. Oberflächenspannung abwich, obgleich das Modell nur eine äußerst einfache Näherung der Kernstruktur sein kann. Daher gelangten wir zu der Überzeugung, daß der Oberflächenanteil der Bindungsenergie wesentlich ein kinetischer Effekt ist.
Im Rahmen dieser Diplomarbeit wurde eine Detektor-Sonde entwickelt, um Strahlprofile eines Ionenstrahls entlang der gekrümmten, geometrischen Achse eines Toroidsektormagneten zu messen. Bei der Konstruktion der Sonde musste die zuverlässige Messwerterfassung im Vakuum und innerhalb magnetischer Felder von bis zu 0,6 T berücksichtigt werden. Im theoretischen Teil werden die Theorie zum Strahltransport in den verwendeten Bauteilen, sowie die Funktionsweise eines Phosphor-Schirms (P20) dargelegt. Im experimentellen Teil wird die bewegliche Sonde, der verwendete Versuchsaufbau, sowie die Messungen und deren Auswertung näher beschrieben. Im abschließenden Fazit wird auch auf Alternativen zu der verwendeten Messmethode und deren Vor- und Nachteile eingegangen.
This work connects Markov chain imbedding technique (MCIT) introduced by M.V. Koutras and J.C. Fu with distributions concerning the cycle structure of permutations. As a final result program code is given that uses MCIT to deliver proper numerical values for these. The discrete distributions of interest are the one of the cycle structure, the one of the number of cycles, the one of the rth longest and shortest cycle and finally the length of a random chosen cycle. These are analyzed for equiprobable permutations as well as for biased ones. Analytical solutions and limit distributions are also considered to put the results on a safe, theoretical base.
Die vorliegende Arbeit untersucht ausgewählte Eigenschaften von Preferential Attachment-Graphen. Darunter verstehen wir eine Klasse komplexer zufälliger Graphen, die mit einer vorgegebenen Konfiguration gestartet werden und anschließend mit jedem Zeitschritt um eine Ecke und m Kanten wachsen. Die Wachstumsregeln sind so gestaltet, dass eine neue Ecke ihre Kanten bevorzugt an Ecken sendet, die bereits mit vielen anderen Ecken verbunden sind, woraus sich die Bezeichnung Preferential Attachment (PA) ableitet. Die Arbeit stellt zunächst heuristisch die Eigenschaft der Skalenfreiheit von PA-Modellen vor und bespricht anschließend einen Beweis zu dieser These. Weiter betrachten wir den Durchmesser von PA-Graphen und untersuchen das Verhalten bei Anwachsen des Graphen. Wir erkennen, dass der Durchmesser bei wachsendem Graphen deutlich langsamer wächst, was wir als Small World-Phänomen bezeichnen. Die zentralen Aussagen und Beweise orientieren sich an den Arbeiten von Remco van der Hofstad, der die bekannten PA-Modelle um einen Parameter erweitert hat. Damit ist es möglich, sowohl logarithmische als auch doppelt-logarithmische Schranken für den Durchmesser zu erhalten.
In der vorliegenden Arbeit wird ein schnelles Choppersystem für einen hochintensiven niederenergetischen Protonenstrahl untersucht. Das Choppersystem wird in der Niedrigenergiesektion (LEBT) der Frankfurter Neutronenquelle FRANZ eingesetzt. Der Treiberstrahl hat dort eine Energie von 120 keV und eine Intensität von bis zu 200 mA Protonen. Gefordert ist die Erzeugung eines gepulsten Strahls mit einem 50 bis 100 ns langen Pulsplateau und einer Wiederholrate von 250 kHz. Nach der Diskussion verschiedener Chopperkonzepte wird der Einsatz eines Kickersystems vorgeschlagen. Magnetische und elektrische Kicker werden im Hinblick auf Geometrie, Ablenkfelder, Strahldynamik, Emittanzwachstum, Leistungsbedarf sowie Betrieb im Schwingungs- oder im Pulsmodus untersucht. Die Realisierung des Choppersystems wird mit Hilfe von numerischen Simulationen und Vorexperimenten geprüft. Ein eigens dazu entwickelter Particle-in-cell (PIC)-Code wird vorgestellt. Er erlaubt die Simulation von Vielteilchen-Prozessen in zeitabhängigen Kickerfeldern unter Berücksichtigung der Effekte der Sekundärelektronen. Die Vorexperimente für die Ansteuerung des Kickers werden präsentiert. Für den magnetischen Kicker wurde eine niederinduktive Testspule und für den elektrischen Kicker ein Transformator bestehend aus einem nanokristallinen Ringbandkern aufgebaut. Abschließend werden die beiden Systeme miteinander verglichen. Ein magnetischer Kicker ist auch bei hohen Strahlintensitäten weniger anfällig für Strahlverluste und kann ohne die Gefahr von Spannungsdurchschlägen betrieben werden. Bei den geforderten hohen Wiederholraten ist jedoch der Leistungsbedarf nicht annehmbar, so dass im Ausblick die Weiterentwicklung eines elektrischen Kickersystems vorgeschlagen wird.
Im heutigen Zahlungsverkehr übernehmen in zunehmendem Maße Zahlungen mit Kreditkarten eine entscheidende Rolle. Entsprechend der Verbreitung dieser Art des Zahlungsverkehrs nimmt ebenfalls der Mißbrauch mit diesem bargeldlosen Zahlungsmittel zu. Um die Verluste, die bei dem Kreditkarteninstitut auf diese Weise entstehen, so weit wie möglich einzudämmen, wird versucht, Mißbrauchstransaktionen bei der Autorisierung der Zahlungsaufforderung zu erkennen. Ziel dieser Diplomarbeit ist es zu bestimmen, in wie weit es möglich ist, illegale Transaktionen aus der Menge von Autorisierungsanfragen mit Hilfe adaptiver Algorithmen aufzudecken. Dabei sollen sowohl Methoden aus dem Bereich des Data-Mining, als auch aus den Bereichen der neuronalen Netze benutzt werden. Erschwerend bei der Mißbrauchsanalyse kommt hinzu, daß die Beurteilung der einzelnen Transaktionen in Sekundenbruchteilen abgeschlossen sein muß, um die hohe Anzahl an Autorisierungsanfragen verarbeiten zu können und den Kundenservice auf Seiten des Benutzers und des Händlers auf diese Weise zu optimieren. Weiter handelt es sich bei einem Großteil der bei der Analyse zu Verfügung stehenden Datensätze um symbolische Daten, also alpha-numerisch kodierte Werte, die stellvertretend für verschiedene Eigenschaften verwendet werden. Nur wenige der Transaktionsdaten sind analoger Natur, weisen also eine Linearität auf, die es erlaubt, "Nachbarschaften" zwischen den Daten bestimmen zu können. Damit scheidet eine reine Analyse auf Basis von neuronalen Netzwerken aus. Diese Problematik führte unter anderem zu dem verfolgten Ansatz. Als Grundlage der Analyse dienen bekannte Mißbrauchstransaktionen aus einem Zeitintervall von ungefähr einem Jahr, die jedoch aufgrund der hohen Anzahl nicht komplett als solche mit den eingehenden Transaktionen verglichen werden können, da ein sequentieller Vergleich zu viel Zeit in Anspruch nähme. Im übrigen würde durch einen einfachen Vergleich nur der schon bekannte Mißbrauch erkannt werden; eine Abstraktion der Erkenntnisse aus den Mißbrauchserfahrungen ist nicht möglich. Aus diesem Grund werden diese Mißbrauchstransaktionen mit Hilfe von Methoden aus dem Bereich des Data-Mining verallgemeinert und damit auf ein Minimum, soweit es die Verläßlichkeit dieser Datensätze zuläßt, reduziert. Desweiteren schließt sich eine Analyse der zu diesem Zeitpunkt noch nicht betrachteten analogen Daten an, um die maximale, enthaltene Information aus den Transaktionsdaten zu beziehen. Dafür werden moderne Methoden aus dem Bereich der neuronalen Netzwerke, sogenannte radiale Basisfunktionsnetze, verwendet. Da eine Mißbrauchsanalyse ohne eine entsprechende Profilanalyse unvollständig wäre, wurde abschließend mit den vorhanden Mitteln auf den zugrunde liegenden Daten in Anlehnung an die bisherige Methodik eine solche Profilauswertung und zeitabhängige Analyse realisiert. Mit dem so implementierten Modell wurde versucht, auf allgemeine Art und Weise, Verhaltens- beziehungsweise Transaktionsmuster einzuordnen und mit bei der Mißbrauchsentscheidung einfließen zu lassen. Aus den vorgestellten Analyseverfahren wurden verschiedene Klassifizierungsmodelle entwickelt, die zu guten Ergebnissen auf den Simulationsdaten führen. Es kann gezeigt werden, daß die Mißbrauchserkennung durch eine kombinierte Anwendung aus symbolischer und analoger Auswertung bestmöglich durchzuführen ist.
Jeder Investor hat ein Ziel: Er will Gewinne realisieren. Dazu muss er Entscheidungen treffen. Und solche Entscheidungen werden zumeist unterschiedlich getroffen. Was beeinflusst den Investor in seiner Entscheidung und wie lassen sie sich überzeugen? Alle Investoren stellen sich dabei die Frage: Ist das für ein Investment eingegangene Risiko gegenüber der erwarteten Rendite gerechtfertigt? Gibt es eine Möglichkeit, Ertrag und Risiko von zinsbasierten Finanzinstrument bzw. Portfolien zu analysieren? Ein eben solches Verfahren stellt diese Diplomarbeit vor. Über ein Zinsstrukturmodell unter dem empirischen Wahrscheinlichkeitsmaß wird eine P&L Verteilung des entsprechenden Investments berechnet. Welches Zinsmodell eignet sich für diese Berechnung am besten? Eine weit verbreitete Klasse von Zinsstrukturmodellen stellen die Sell-Side Modelle (Pricing Modelle) dar. Diese werden zum arbitragefreien Pricing von Finanzinstrumenten eingesetzt und arbeiten unter einem risikoneutralen Wahrscheinlichkeitsmaß. Zur Simulation realer Zinsszenarien müssen diese Modelle unter dem realen Wahrscheinlichkeitsmaß aufgestellt und geschätzt werden. Als ein Vertreter dieser Modellklasse wird das Cox-Ingersoll-Ross Modell untersucht. Des Weiteren werden das dynamische Nelson-Siegel Modell sowie ein Resampling-/Bootstrapping Modell (RMJBN Modell) vorgestellt und getestet. Die erwähnten Zinsmodelle werden einem Out-of-Sampling-Test unterzogen. Das gewählte Modell muss einem Kriterienkatalog entsprechen, der anhand der Analyseergebnisse der EURIBOR-Zinskurven bezüglich deren Schwankungen und Formen aufgestellt wurde. Es zeigt sich, dass das RMJBN Modell die wesentlichen Merkmale gut abbildet. Unter dem Namen Extended RMJBN Modell folgt eine Erweiterung des Bootstrapping Modells, welche bei der Modellierung der Verteilungen der Zinskurven-Krümmungen ansetzt. Abschließend wird eine Anwendungsmöglichkeit des Extended RMJBN Modells vorgestellt. Es werden dabei Renditeverteilungen von zwei unterschiedlichen Festgeldanlagen betrachtet, um eine reale Investmententscheidung treffen zu können.
Der Bolthausen-Sznitman Koaleszent ist ein zeitstetiger Markovprozess mit Werten in der Menge der Partitionen der natürlichen Zahlen. Der Prozess startet in Singletons und seine Dynamik erlaubt lediglich Übergänge in gröbere Partitionen. In dieser Arbeit wird der Bolthausen-Sznitman Koaleszent zum Zeitpunkt seines letzten Übergangs analysiert. Das Hauptresultat ist ein Grenzwertsatz, welcher eine gemeinsame Aussage sowohl über die Blockanzahl als auch über die Blockgrößen des Koaleszenten zu diesem Zeitpunkt macht. Dafür wird der Koaleszent durch ein gewisses Abholzverfahren zufälliger rekursiver Bäume modelliert, wobei diese Bäume wiederum anhand von Yule-Prozessen generiert werden.
Schon seit längerer Zeit wird die Verwendung sogenannter Gabor-Plasmalinsen, in denen ein einkomponentiges also Nichtneutrales Plasma eingeschlossen wird, zur Fokussierung von Teilchenstrahlen untersucht. Um eine gute Fokussierqualität zu erreichen, wird ein hoher Füllgrad der Linse, sowie ein lineares elektrisches Feld benötigt. Während die Gabor-Plasmalinse innerhalb ihres Arbeitsbereiches, in dem das Plasma als thermalisiert angenommen wird, gute Abbildungseigenschaften aufweist, kommt es außerhalb der Arbeitsfunktion der Raumladungslinse zu einem starken Verlust der Strahlqualität. Die Gabor-Plasmalinse dient als Instrument, doch um ihre Anwendung zu optimieren, müssen die wesentlichen Prozesse in Nichtneutralen Plasmen verstanden werden. In der vorliegenden Arbeit wurden Diagnosemethoden zur Bestimmung der Plasmaparameter eines Nichtneutralen Plasmas untersucht, deren Anwendung sich im Bereich der elektrisch neutralen Plasmen bewährt haben. Es wurden desweiteren neue Methoden entwickelt, um die wichtigen Parameter wie Elektronendichte und Elektronentemperatur bestimmen zu können. Die Ergebnisse der Messungen werden numerischen Simulationen vergleichend gegenübergestellt.
Mit den Small World Graphen stehen seit Ende der Neunzigerjahre Modelle für soziale und ähnliche Netzwerke, die im Vergleich zu Erdös-Rényi-Graphen stärker Cluster ausbilden, zur Verfügung. Wir betrachten die Konstruktion dieser Graphen und untersuchen zwei der Modelle genauer im Zusammenhang mit stochastischen Prozessen. Das stetige Modell betrachten wir hinsichtlich dem Abstand zweier Knoten. Der interessanteste Aspekt hierbei ist, dass man bei der Konstruktion des Graphen die entfernten Nachbarn mithilfe der Poissonverteilung wählt und in der Folge einen Yule-Prozess auf dem Graphen erhält. Auf der Bollobás-Chung Small World lassen wir den Kontaktprozess ablaufen und untersuchen diesen bezüglich seiner Überlebenswahrscheinlichkeit. Wir sehen, dass er auf diesem Graphen zwei Phasenübergänge aufweist. Oberhalb des ersten überlebt er für immer mit positiver Wahrscheinlichkeit, oberhalb des zweiten ist zudem der Knoten, auf dem der Kontaktprozess gestartet ist, stets mit positiver Wahrscheinlichkeit infiziert. Schließlich betrachten wir die Zeitdauer, die ein leicht modifizierter, superkritischer Kontaktprozess auf der Small World unter bestimmten Voraussetzungen überlebt. Die wesentliche Dynamik, die wir hierbei ausmachen können, ist, dass auf ein Absinken der Infektionen mit hoher Wahrscheinlichkeit wieder eine Verdopplung der Infektionen folgt.
Tagging kausaler Relationen
(2005)
In dieser Diplomarbeit geht es um kausale Beziehungen zwischen Ereignissen und Erklärungsbeziehungen zwischen Ereignissen, bei denen kausale Relationen eine wichtige Rolle spielen. Nachdem zeitliche Relationen einerseits ihrer einfacheren Formalisierbarkeit und andererseits ihrer gut sichtbaren Rolle in der Grammatik (Tempus und Aspekt, zeitliche Konjunktionen) wegen in jüngerer Zeit stärker im Mittelpunkt des Interesses standen, soll hier argumentiert werden, dass kausale Beziehungen und die Erklärungen, die sie ermöglichen, eine wichtigere Rolle im Kohärenzgefüge des Textes spielen. Im Gegensatz zu “tiefen” Verfahren, die auf einer detaillierten semantischen Repr¨asentation des Textes aufsetzen und infolgedessen für unrestringierten Text m. E. nicht geeignet sind, wird hier untersucht, wie man dieses Ziel erreichen kann, ohne sich auf eine aufwändig konstruierte Wissensbasis verlassen zu müssen.
Die Suche nach einem geeigneten Photosensor für das PANDA-Experiment wurde durch folgende Anforderungen eingegrenzt: • Tauglichkeit in einem starken Magnetfeld • Funktionsfähigkeit trotz niedriger Temperatur • geringe Bauhöhe • interne Verstärkungsstufe wegen der geringen Lichtausbeute von PbWO4 • stabiler Betrieb trotz hoher Strahlenbelastung Diese Punkte werden von Large Area Avalanche-Photodioden (LAAPDs) erfüllt. Da diese Si-Halbleiterdioden im laufenden Experiment einer hohen Strahlenbelastung ausgesetzt sein werden, ist es erforderlich, die Strahlenhärte im Vorfeld intensiv zu testen. Im Rahmen dieser Diplomarbeit wurden Strahlenhärtetests mit geladenen und neutralen Teilchen an (inter-)nationalen Instituten und der Universität Frankfurt durchgeführt, wobei das Hauptaugenmerk auf der Neutronenbestrahlung lag. Dazu wurde eine Messvorrichtung entwickelt und funktionstüchtig aufgebaut, mit der dann die Messungen an fünf verschiedenen Dioden mit einer Kapazität von 180 pF vorgenommen wurden. Während der Bestrahlung wurde der Dunkelstrom in Abhängigkeit von der Bestrahlungszeit bei konstanten Temperaturen gemessen. Vor und nach den Tests wurden die APD-Parameter charakterisert, um später durch den Vergleich der Daten Aussagen zur Strahlenhärte der Photodetektoren machen zu können. Die Ergebnisse und Vergleiche zeigen, dass die APDs nach der Bestrahlung mit Photonen weiterhin gut funktionieren. Die Quantenausbeute verändert sich nicht. Der durch Protonen- (Rate ≈ 1013 p/cm2 (90 MeV) und Neutronenbestrahlung (Rate ≈ 1010 n/cm2 (1 MeV) und 1014 n/cm2 (14 MeV)) erzeugte hohe Dunkelstrom der APDs ist aufgrund seiner Temperaturabhängigkeit und den Ausheilungseffekte reduzierbar. Es ist zu erwarten, dass die APDs im laufenden Experimentbetrieb trotz dieser Strahlung funktionsfähig bleiben werden. Sobald die mit Neutronen bestrahlten APDs abgeklungen sind, werden ihre Parameter zum Vorher-/Nachher-Vergleich vermessen. Dazu gehören der Dunkelstrom in Abhängigkeit von der Verstärkung, die Verstärkung in Abhängigkeit von der Spannung und Wellenlänge und die Quantenausbeute. Um die Ausheilung bestrahlter Photodioden in Abhängigkeit von der Temperatur genauer zu bestimmen, sollen sie (unter Vorspannung) in einem Ofen bei T = 80◦C ausgebacken werden, bis der Dunkelstrom sich wieder in einem Gleichgewicht befindet. Nach diesem Vorgang werden dann alle APD-Parameter noch einmal vermessen, um einen Vergleich mit den Werten vor der Bestrahlung zu ziehen. Neben diesen nachbereitenden Arbeiten wird an ersten rechteckigen APD-Prototypen, die sich in der Entwicklungsphasen befinden, geforscht. An diesen außergewöhnlich großen APDs müssen alle an den quadratischen Photodioden bereits durchgeführten und noch folgenden Tests ebenfalls vorgenommen werden.
Kieferorthopäden beschreiben die Anordnung der Zähne und die Stellung der Kiefer üblicherweise mittels Winkel und Strecken in der sagittalen Gesichtsebene. Im vorliegenden Fall werden fünf Winkel betrachtet und jedes Individuum lässt sich als Punkt in einem 5-dimensionalen Raum darstellen. Individuen, die laut Experten ein gut funktionierendes Gebiss und ein harmonisches Äußeres besitzen, formen eine Punktwolke, die im Folgenden als die Norm Population bezeichnet wird. Individuen fern von der Wolke benötigen kieferorthopädische Behandlung. Welche Form sollte dieser Eingriff annehmen? Durch Hilfsmittel der modernen Kieferorthopädie lassen sich die beschriebenen Winkel nahezu nach Belieben ändern. Dies ist natürlich verbunden mit einer unterschiedlichen Menge an Problemen, Arbeitsaufwand und Unannehmlichkeiten, abhängig vom individuellen Patienten. Diese Arbeit präsentiert eine Methode, die auf jedem Computer leicht implementierbar und auf k Variablen verallgemeinerbar ist. Sie ermöglicht Kieferorthopäden eine Visualisierung, wie verschiedene denkbare Anpassungen der Winkel eines Patienten dessen relative Position zur Norm Population verändern. Damit unterstützt sie Kieferorthopäden bei der Entscheidung für einen Behandlungsplan, der die besten Ergebnisse verspricht.
Ein universeller zentraler Grenzwertsatz für den Abstand zweier Kugeln in zufälligen Splitbäumen
(2008)
In der vorliegenden Arbeit wird ein Modell des zufälligen Splitbaumes untersucht. Dies ist ein verallgemeinertes Modell, das bei passender Wahl der zugehörigenParameter viele konkrete Suchbäume umfasst. Das Modell ist in der Arbeit von L. Devroye beschrieben: Nach einem zufallsbasierten Algorithmus werden den Knoten des Baumes Daten in Form von Kugeln hinzugefügt. Tiefe und Höhe sind dabei grundlegende Größen, die die Komplexität von Suchoperationen beschreiben, wenn das Suchbaummodell als Datenstruktur verwendet wird. Das Augenmerk der Arbeit richtet sich auf eine weitere entscheidende Größe: Den Abstand zweier rein zufällig gewählter Kugeln im Baum. Aufbauend auf Devroyes Erkenntnissen zum asymptotischen Verhalten der Tiefe der zuletzt eingefügten Kugel im Splitbaum, wird ein neues Resultat erzielt: Ein universeller Zentraler Grenzwertsatz für den Abstand der Kugeln. Als Anwendungsbeispiel werden zwei vom allgemeinen Modell abgedeckte Suchbäume betrachtet und der jeweilige Grenzwertsatz für die Abstände aus dem universellen Satz abgeleitet.