Refine
Year of publication
Document Type
- Diploma Thesis (113) (remove)
Language
- German (113) (remove)
Has Fulltext
- yes (113)
Is part of the Bibliography
- no (113) (remove)
Keywords
- Algebra (1)
- Algebraische Gleichung (1)
- Analyse von Algorithmen (1)
- Atom (1)
- BMRT (1)
- BRDF (1)
- BTF (1)
- Begabtenförderung (1)
- Beleuchtungsmodell (1)
- Binärsuchbaum (1)
Institute
- Informatik (46)
- Physik (30)
- Biowissenschaften (10)
- Geowissenschaften (8)
- Mathematik (7)
- Biochemie und Chemie (2)
- Erziehungswissenschaften (2)
- Gesellschaftswissenschaften (2)
- Psychologie (2)
- Wirtschaftswissenschaften (2)
Um in verschiedenen Anwendungsumgebungen eingesetzt werden zu können, lässt die CORBA-Spezifikation einen weiten Spielraum für Implementierungen. Sollte CORBA in einem speziellen Umfeld eingesetzt werden, so war bisher eine Neu-Implementierung notwendig, da herkämmliche CORBA-Implementierungen nicht oder nur sehr eingeschränkt an spezielle Anwendungsumgebungen anpassbar sind. In dieser Arbeit wurde ein Ansatz für eine erweiterbare CORBA-Implementierung vorgestellt und implementiert.
Das Ziel der vorliegenden Arbeit war - neben einer Einführung in die Evolutionspsychologie - Belege für eine evolutionär bedingte Partnerwahlpsychologie zu erbringen. Hierfür wurden Teile einiger zentraler Studien der evolutionären Psychologie repliziert und anhand eines webbasierten Bildschirmfragebogens eine geschlossene Onlinebefragung (N = 221; männlich = 72; weiblich = 149) durchgeführt. Neben allgemeinen evolutionspsychologischen Replikationen zu Partnerpräferenzen hinsichtlich langfristiger Beziehungen, wurden Befunde einer Studie zur Theorie der strukturellen Machtlosigkeit, die von vielen Wissenschaftlern als konkurrierender Erklärungsansatz für Partnerwahlpräferenzen betrachtet wird, geprüft. Hierzu wurden die Generationszugehörigkeit und das monatliche Nettoeinkommen der Probanden als relevante Einflussgrößen kontrolliert. Des weiteren sollte die Flexibilität der Präferenzen geprüft werden. Hierfür wurden den Versuchspersonen die Items zur Beurteilung von Partnereigenschaften sowohl für langfristige Partner, als auch für kurzfristige Partner vorgelegt. Es konnte konsistent zu den Originalstudien aufgezeigt werden, dass Frauen im Gegensatz zu Männern eher einen Partner bevorzugen, der älter ist als sie und Attribute besitzt, die darauf schließen lassen, dass er ihnen finanzielle und materielle Sicherheit bieten kann. Männer wünschen sich hingegen eher eine Partnerin, die jünger und attraktiv ist. Die Präferenzen erwiesen sich als vollkommen unabhängig vom monatlichen Nettoeinkommen der Befragten. Alterskohorteneffekte waren bei einigen Präferenzen vorhanden, z.B.: Toleranz einer vorherigen Ehe oder gegenüber Kindern des potentiellen Langzeitpartners. Viele Partnerwahlpräferenzen erwiesen sich als sehr stark Abhängig von der berücksichtigten Beziehungsdauer und deckten sich mit den evolutionären Hypothesen zur adaptiven Flexibilität. Sowohl Frauen als auch Männer gaben ihre Alterspräferenzen bezüglich älterer, bzw. jüngerer Partner fast vollkommen auf. Männer tolerierten bei kurzfristigen Beziehungen ältere Partnerinnen in fast dem gleichen Maß wie Frauen und Frauen tolerierten entsprechen jüngere Partner. Weiterhin legten Frauen ihre Wünsche bezüglich toleriertem Mindeststand und Bildung ab. Außerdem beschrieben sich hypothesengemäß Männer tendenziell und Frauen hochsignifikant als anspruchsvoller bezüglich der physischen Attraktivität bei kurzfristigen Affären.
In der hier vorliegenden Arbeit wurden Spurenstoff-Flüsse zwischen Atmosphäre und Pedosphäre, sowie zwischen Atmosphäre und Vegetation untersucht. Der Austausch zwischen Atmosphäre und Boden wurde mit Hilfe von dynamischen Bodenkammern gemessen. Zur Bestimmung des Austauschs zwischen Atmosphäre und Biosphäre wurden Gradienten der Spurengase oberhalb der Baumkronen gemessen und daraus die Flüsse bestimmt. Weiterhin wurden methodische Vergleiche der Gradientmethode mit anderen Methoden (Relaxed-Eddy-Accumulation, Eddy- Correlation) durchgeführt. Die Untersuchungen mit Hilfe der Gaswechselkammern zeigen, dass während aller Messungen der Boden eine Senke von atmosphärischem Carbonylsulfid dargestellt hat. Hiermit wird die Rolle des Bodens als eine Senke für COS bestätigt. Die Depositonsraten betragen im Mittel - 0,81 pmolm exp -2 s exp -1 und besitzen eine Variabilität zwischen - 0,23 und - 1,38 pmolm exp -2 s exp -1. Im Vergleich zu den Literaturwerten (siehe Tabelle 1.1) sind die Aufnahmeraten des Bodens auf der Versuchsfläche "F1" schwach ausgeprägt. Im Vergleich zu anderen Arbeiten (siehe Lehmann & Conrad, 1996; Kesselmeier et al., 1999) sind keine eindeutigen Korrelationen zwischen dem COS-Fluss und der Lufttemperatur bzw. der Bodenfeuchte oder den Bodentemperaturen in 2, 5 und 10 cm zu erkennen. Diese hier aufgeführten Arbeiten beruhen jedoch auf Labormessungen mit nur sehr geringen homogenen und präparierten Bodenmengen. Die Feldmessungen im Rahmen dieser Arbeit wurden nicht unter vergleichbar definierten Bedingungen durchgeführt. Aufgrund zahlreicher beeinflussender Parameter und der vertikalen Inhomogenität des Bodens konnte jedoch auch nicht mit vergleichbar guten Korrelationen gerechnet werden. Eine saisonale Abhängigkeit der COS-Aufnahme ist über einen Zeitraum von 21 2 Monaten nicht ausgeprägt. Da die Messungen einer Kampagne im Mai 1999 aufgrund von Kontaminationen der Luftproben vollständig verworfen wurden, erstreckten sich die Messungen nur vom Hochsommer bis zum Frühherbst. Die räumliche Variabilität erreicht dagegen innerhalb einer Entfernung von 10 m eine Spanne zwischen - 0,43 und - 0,73 pmolm exp -2 s exp -1. Zurückzuführen ist dies auf die starke räumliche ....
Bisher wurden im deutschsprachigen Raum keine experimentellen Studien zur Wirksamkeit von Musiktherapie bei Demenzerkrankungen durchgeführt. Aus klinisch bedingten Umständen wurde ein Vergleich zwischen Musiktherapie und Biografiearbeit gewählt. Ihm liegt ein einfaktorieller Zufallsguppenversuchsplans mit Vorher-Nachher-Messung zugrunde. Es wurden mögliche Effekte der beiden psychologischen Interventionsformen auf Demenzerkrankungen im mittleren Stadium hinsichtlich des Schweregrades der Demenz, des Ausmaßes der kognitiven Beeinträchtigungen, der Stärke der Alltagskompetenz sowie des Grades der nichtkognitiven Begleitsymptomatik untersucht. Den Rahmen bildete eine Gedächtnissprechstunde, eine spezielle ambulante Einrichtung zur Diagnostik, Therapie sowie Beratung und Begleitung von Demenzerkrankungen. Die Stichprobe bestand aus 21 PatientInnen zwischen 55 und 84 Jahren. 12 davon waren weiblich (57%), die anderen neun männlich (43%). 12 der PatientInnen litten an einer Demenz bei Alzheimer-Krankheit (57%), sechs an einer vaskulären Demenz (29%), zwei an einer frontotemporale Demenz (9%). Bei einer Person (5%) ließ sich der Verdacht auf eine Demenzerkrankung im Verlauf der 15-wöchigen Behandlung nicht bestätigen, sondern sie erhielt die Diagnose einer anhaltenden depressiven Störung. Da es sich bei der Untersuchung wegen fehlender Vergleichsuntersuchungen zur Wirksamkeit psychologischer Interventionsverfahren eher um eine explorative Studie handelte, wurde ein Schwerpunkt auf die Darstellung der deskriptiven Ergebnisse gelegt. Die zur Absicherung durchgeführten inferenzstatistischen Berechnungen ergaben für die Musiktherapie keine Hinweise auf einen bedeutsamen Effekt in Bezug auf die genannten Symptome der Demenzerkrankung. Hingegen zeigte sich für die Biografiearbeit eine signifikante Wirksamkeit in Bezug auf den Schweregrad der Demenzerkrankung. Der Effekt erfolgte sogar in Richtung einer Verbesserung. U.a. wegen der geringen Probandenzahl ist insgesamt von einer eingeschränkten Aussagefähigkeit der inferenzstatistischen Ergebnisse auszugehen. Zudem eignete sich die Global Deterioration Scale (GDS) als Erhebungsinstrument zur globalen Einstufung des Schweregrades nur bedingt zur Veränderungsmessung und erwies sich als anfällig für eine mögliche Verzerrung von Ergebnissen. Doch insgesamt können die erhobenen Daten auch vorsichtig für beide psychologische Interventionsformen in der Art interpretiert werden, dass trotz des bekanntermaßen progredienten Verlaufs von Demenzerkrankungen keine weiteren signifikanten Veränderungen, also auch keine Verschlechterungen über einen Zeitraum von vier Monaten aufgetreten sind. Dies konnte auch auf deskriptiver Ebene bestätigt werden: So blieb in der Biografiearbeit-Gruppe mit ihren in der Tendenz noch leichten Störungen bei allen erfassten Verhaltensmerkmalen das vor der Intervention vorhandene Niveau erhalten und mit Ausnahme des Bereichs der Alltagskompetenzen zeigten sich in allen anderen Symptombereichen in Einzelfällen leichte Verbesserungen. Dies entspricht Befunden aus vergleichbaren Interventionsstudien. Im Vorher-Nachher-Vergleich war für die Musiktherapiegruppe das Niveau hinsichtlich des Schweregrades der Demenz, der kognitiven Störungen und der Alltagskompetenzen auch als unverändert anzusehen. Verbesserungen traten hier in Einzelfällen besonders in den alltagsbezogenen kognitiven Fähigkeiten auf. Dies ist um so erstaunlicher und als nicht erwartungsgemäß zu bezeichnen, da in der Musiktherapiegruppe in kognitiver Hinsicht schon eher schwere Störungen vorlagen. Aus diesen objektiv am Patienten festgestellten kognitiven Verbesserungen ergab sich eine Diskrepanz zu der hauptsächlich mit Hilfe von Fremdbeurteilung gewonnenen unveränderten Einstufung des Schweregrades. Diese wurde im Zusammenhang mit der zusätzlich in der Exploration erfassten geringeren Belastbarkeit der zugehörigen Angehörigen im Umgang mit den leicht erhöhten nichtkognitiven Störungen diskutiert.
In der vorliegenden Arbeit wurde die zeitaufgelöste Doppelionisation von diatomaren Molekülen in intensiven Laserpulsen untersucht. Dabei waren neben den einfachsten aller Moleküle, Wasserstoff und Deuterium, auch Sauerstoffmoleküle Gegenstand der Untersuchungen. Mit Hilfe der Pump-Probe-Methode konnte die Doppelionisation der Moleküle schrittweise herbeigeführt werden. Dazu wurde das Molekül zunächst von einem ersten schwachen Laserpuls (8 fs) einfachionisiert, bevor es nach einer Zeitverzögerung tau von einem intensiveren zweiten Puls (8 fs) doppelionisiert wurde. Die Zeit zwischen den beiden Pulsen konnte in Schritten einer Femtosekunde von 0 bis 100 fs variiert werden. Die COLTRIMS-Technik lieferte den gesamten Impuls der beiden Coulomb explodierten Fragmente, so daß auch die freigesetzte kinetische Energie (KER) der Ionen bestimmt werden konnte. Diese ist hauptsächlich bestimmt durch den internuklaeren Abstand der Kerne zum Zeitpunkt der Ionisation. Das KER Spektrum in Abhängigkeit der Verzögerung der beiden Pulse veranschaulicht somit die Bewegung des molekularen Wellenpaketes. Dabei konnte die Entwicklung des Wellenpakets entlang zweier verschiedener Potentialkurven in H+2 und D+2 beobachtet werden. Zum einen die Oszillation im gebundenen Potential 1s sigma g und zum anderen die Dissoziation auf der durch das Laserfeld verschobenen Dissoziationskurve 2p sigma u. Mit einem einfachen klassischen Modell konnte die freiwerdende kinetische Energie der durch dissoziative Ionisation entstandenen Ionen bestimmt und mit den Daten verglichen werden. Dabei konnte sowohl für H+2 als auch für D+2 eine gute Übereinstimmung erzielt werden. Wie zu erwarten zeigte sich, daß die Kernbewegung im Deuterium Molekül, aufgrund der höheren Masse, um den Faktor p2 langsamer verläuft. Durch Verwendung eines geringfügig längeren Pulses und eine leichte Minimierung der Laserintensität des Probe-Pulses konnte die dissoziative Ionisation verstärkt werden und der in der Literatur vielfach beschriebene CREI Prozeß direkt nachgewiesen werden. Auch im Falle des Sauerstoffs konnten die Entwicklung von Wellenpaketen in gebundenen und dissozierenden Potentialen beobachtet werden. Das spricht dafür, daß der Doppelionisation von Sauerstoffmoleküulen ein ganz ähnlichen Prozeß zugrunde liegt, wie es für diatomaten Wasserstoff der Fall ist. Die Frage nach dem genauen Ionisationsverlauf konnte jedoch nicht endgültig geklärt werden. Für H+2 und D+2 konnte ein sehr detailliertes Bild der Bewegung der Wellenpakete entlang der Potentialkurven gewonnen werden, das die quantenmechanische Natur der Wellenpakete wiederspiegelt.
In der vorliegenden Arbeit wurde eine Quelle für negative Ionen vorgestellt. Grundlage ist eine Mikro-Struktur-Elektrode, kurz MSE genannt. Diese besteht aus zwei Wolfram-Elektroden, die durch eine 100 mikrometer dicke Keramikfolie elektrisch getrennt werden. Eine Pore, die durch alle drei Schichten mit einem Laser gebohrt wird, dient zugleich als Düse für eine Überschall- Gasexpansion und als Volumen, in dem die Entladung brennt. Aus dem sehr geringen Elektrodenabstand resultieren auch bei vergleichsweise niedrigen Spannungen unter 1000 V ausreichend hohe Felder, um eine selbstständige Gasentladung bei Drücken von 0,1 bar bis hin zu mehreren bar zu gewährleisten. Mit Hilfe einer so generierten Entladung lassen sich die Bedingungen für die Bildung zahlreicher negativer Ionen schaffen. So können atomare Anionen wie H- oder O- auf sehr einfache Weise hergestellt werden. Des Weiteren gelingt es, eine Reihe molekularer Ionen zu erzeugen, wie etwa CH-, NO-, O-2 und O2H-. Da als Grundlage nur elementare Gase benutzt wurden, wird die Bildung von zum Beispiel NO- in der Regel über zwei oder mehr aufeinander folgende Prozesse verlaufen. Die elektrische Verschaltung der MSE ist derart gepolt, dass positive Ionen in Strahlrichtung beschleunigt werden. Entgegen ersten Vermutungen gelingt es den negativen Ionen, mit Hilfe des Gasflusses gegen das elektrische Feld in den Expansionsbereich zu gelangen. Die Brenneigenschaften des Plasmas sind hierbei erheblich besser als im Fall einer umgekehrten Polung. Dies ist vermutlich vor allem darauf zurückzuführen, dass im ersten Fall nur wenige Elektronen in die Expansionskammer gelangen. Die ebenfalls erzeugten Kationen [Schößler02] sorgen weiterhin für eine Verminderung der negativen Raumladung. Die Divergenz der Anionen wird daher bedeutend geringer, was vor allem vor Erreichen der Beschleunigungsstrecke von Bedeutung ist. Insgesamt besticht der Aufbau vor allem durch seine Kompaktheit. Die eigentliche Ionenquelle besteht aus einem 150 mikrometer dicken Plättchen mit 2,4 cm x 2,4 cm Außenmaß und einem Entladungsvolumen von 10-3 mm3. Benutzt man statt einer magnetischen Massenseparation ein Quadrupol-Spektrometer, sollte es möglich sein nach ca. 1 m Strahllänge einen fokussierten Ionenstrahl beliebiger in der Quelle erzeugbaren Ionen bereitstellen zu können....
Mikrowellen-Linearbeschleuniger arbeiten im allgemeinen mit einer geringen Stoßfrequenz. Um dennoch eine gute Luminosität zu erreichen, ist es erforderlich, eine große Teilchenzahl pro Bunch und einen sehr kleinen Strahlquerschnitt am Kollisionspunkt zu erreichen. Vor dem Hauptbeschleuniger sorgen entsprechende Quellen und die Dämpfungsringe für eine geringe Emittanz. Im Idealfall werden die Teilchenpakete vom Hauptbeschleuniger ausschließlich longitudinal beschleunigt. Bedingt durch höhere Moden kann es hier jedoch zum BBU (siehe Abschnitt 1.2) mit einer Verschlechterung der Strahlqualität oder gar Strahlverlust kommen. Dieser Effekt wird umso stärker, je größer die Teilchenzahl pro Bunch ist. Um den Einsatzpunkt für den BBU quantitativ zu bestimmen, ist es erforderlich, die Shuntimpedanzen der Störmoden zu kennen [1, 2]. Ziel dieser Arbeit war es, die Shuntimpedanzen aller Moden der ersten drei Pass-Bänder zu bestimmen. Hierzu wurde ein weitgehend automatisierter Störkörper-Meßstand mit zugehöriger Schrittmotorsteuerung und Steuerprogramm aufgebaut, der es ermöglicht, eine große Zahl von Meßpunkten aufzunehmen und so die statistischen Fehler klein zu halten. Die Messungen der Monopol-Moden wurde nicht-resonant in Transmission durchgeführt. Die Messungen der Dipol-Moden erfolgten mit der nicht-resonanten zwei-Störkörper-Methode in Transmission. Diese Methode macht Störkörpermessungen auch an Moden möglich, die ein überwiegend transversales elektrisches Feld haben. Aus den Meßdaten wurden die Gütefaktoren und Shuntimpedanzen ohne Phasenfaktor sowie nach Rekonstruktion der Phasensprünge die Shuntimpedanzen mit Phasenfaktor und die Transittime-Faktoren berechnet. Hierzu wurde ein Satz von Auswertungs-Programmen geschrieben. Parallel zu den Messungen wurden alle gesuchten Größen auch numerisch mit dem Programm MAFIA berechnet. Bei den Monopol-Moden zeigte sich eine gute Übereinstimmung zwischen Messung und numerischer Rechnung bei den Gütefaktoren und den longitudinalen Shuntimpedanzen ohne Phasenfaktor. Die Bestimmung der longitudinalen Shuntimpedanzen mit Phasenfaktor durch Rekonstruktion der Phasensprünge funktioniert bei großen Transittime- Faktoren gut. Bei sehr kleinen Transittime-Faktoren ist mit diesem Verfahren nur noch die Aussage möglich, daß die longitudinalen Shuntimpedanzen mit Phasenfaktor bzw. der Transittime-Faktor klein sind. Die genauen Werte hängen stark von kleinen Fehlern sowohl bei der Messung als auch in der Geometrie der Cavity ab. Moden mit sehr kleinem Transittime-Faktor beeinflussen den Strahl jedoch nicht wesentlich, so daß diese qualitative Angabe ausreichend ist. Von den Moden des TM01-Pass-Bandes hat nur die Beschleuniger-Mode einen großen Transittime-Faktor. Alle anderen Moden haben einen erheblich kleineren Transittime-Faktor. Bei den Dipol-Moden des zweiten und dritten Pass-Bandes zeigte sich eine Aufspaltung in zwei azimutale Polarisationsrichtungen, was auf einen kleinen Geometriefehler der Cavity schließen läßt. Die Polarisationsrichtung dreht sich vom einen zum anderen Ende der Cavity um etwa 10°. Da es sich um eine kleine Abweichung handelt, wurden die weiteren Messungen nur für eine der beiden Polarisationsrichtungen durchgeführt. Im TE/TM-Dipol-Pass-Band gibt es mehrere Moden, die wegen ihrer recht hohen transversalen Shuntimpedanz mit Phasenfaktor als Störmoden in Frage kommen. Die numerisch berechneten Werte stimmen bei diesen Moden relativ gut mit den gemessenen Werten überein. Wie schon bei den Monopol-Moden weichen die Werte für die Moden mit geringem Transittime-Faktor voneinander ab. Am TE-artigen Ende des Pass-Bandes werden die gemessenen Werte aufgrund der begrenzten Selektivität ungenau. Es ist allerdings zu bedenken, daß die gleichen kleinen Geometriefehler, die eine Polarisation bewirkt haben, auch für die Abweichungen bei den kleinen Transittime-Faktoren verantwortlich sein können. Im TM/TE-Dipol-Pass-Band ist die transversale Shuntimpedanz ohne Phasenfaktor bei allen Moden größer als im TE/TM-Pass-Band. Auch hier haben mehrere der Moden eine hohe transversale Shuntimpedanz mit Phasenfaktor. Die numerischen Berechnungen stimmen für dieses Pass-Band besser mit den Messungen überein als im TE/TM-Pass- Band. Mit den gemessenen Werten ist es möglich, den Einsatzpunkt für den BBU unter Berücksichtigung aller Moden der ersten drei Pass-Bänder zu bestimmem. Für den späteren Einsatz im Beschleuniger ist geplant, die Cavities mit zwei HOM-Dämpfern an den Enden auszustatten. Mit den gemessenen Werten kann berechnet werden, wie groß die Wirkung der Dämpfer sein muß, um bei dem vorgesehenen Strahl einen BBU-freien Betrieb zu ermöglichen. Bei der Vermessung der weiteren Pass-Bänder gibt es noch mehrere Probleme zu lösen. Zum einen überlappen bei den höheren Moden die Bänder einander. Dies erschwert die Identifikation der Moden bei der Messung. Zum anderen gelangt man schnell zu Frequenzen, die oberhalb der jeweiligen Cut-Off-Frequenz für den entsprechender Wellentyp im Strahlrohr liegen. Moden oberhalb Cut-Off können über mehrere Cavities miteinander koppeln und dabei neue Moden über viele Cavities ausbilden. Um die Gefährlichkeit dieser Moden für die Strahlqualität zu untersuchen, ist es erforderlich, die Übertragungscharakteristik (S-Parameter) der gesamten Cavity mit Strahlrohren zu bestimmen. An solchen Messungen wird bereits gearbeitet. Ein anderer Punkt, der näher zu untersuchen wäre, ist der Einfluß kleiner mechanischer Veränderungen auf die transversalen Shuntimpedanzen der Störmoden. Die TESLACavity ist mechanisch relativ instabil. Solche Veränderungen können daher schon durch die elekromagnetischen Kräfte der gepulsten Beschleuniger-Mode auftreten.
Im Rahmen des Schwerionenexperimentes NA49 am CERN-SPS (Super-Proton-Synchrotron) wurde für das TPC-Detektorsystem eine Meßapparatur zur hochpräzisen Bestimmung der Driftgeschwindigkeit von Elektronen im TPC-Gas entwickelt. Für die Driftgeschwindigkeitsmessung standen zwei im mechanischen Aufbau verschiedene Driftgeschwindigkeitsmonitore zur Verfügung, zum einen der am CERN entwickelte und gebaute CERN-Monitor und zum anderen der im Rahmen dieser Diplomarbeit an der GSI konstruierte und gebaute Goofie. Mit dem CERN-Monitor wurde der Einfluß der Temperatur und des Druckes auf die Messung untersucht und ein Korrekturverfahren beschrieben, das es erlaubt, die Driftgeschwindigkeit im Detektorsystem der TPCs unter den jeweiligen Experimentbedingungen zu bestimmen. Ferner wurden der Einfluß der Gasverunreinigungen Wasser und Sauerstoff und der Gasbeimischungen Methan und Kohlendioxid auf die Driftgeschwindigkeitsmessung diskutiert. Der statistische Fehler der Driftgeschwindigkeit wurde zu 0.08 % und der systematische Fehler zu 0.13 % bestimmt. Die Zusammensetzung des TPC Gases wurde während der dreißigtägigen Strahlzeit im November '94 anhand der relativen Änderung der Driftgeschwindigkeit überwacht. In die Gasüberwachung ging hier nur der statistische Fehler ein. Es konnten signifikante Gasmischungsänderungen beobachtet und die Änderung in den einzelnen Komponenten ermittelt werden. Die gewonnenen Ergebnisse stehen im Einklang mit den aus der Amplitudenmessung erhaltenen Daten. Die Bestimmung der absoluten Driftgeschwindigkeit beinhaltet den genannten statistischen und systematischen Fehler und weist damit einen Gesamtfehler von 0.15 % auf. Der Gesamtfehler der absoluten Driftgeschwindigkeit ermöglicht eine Bestimmung der absoluten Ortskoordinaten der Teilchentrajektorien in der VTPC bis auf 1000 µm und in der MTPC bis auf 1700 µm. Die Ergebnisse der Driftgeschwindigkeitsmessung wurden anhand der unabhängig aus denDaten des Lasersystems und der Time-of-Flight-Messungen gewonnenen Driftgeschwindigkeitsdaten diskutiert. Anhand von Transversalimpuls und Rapidiätsverteilungen in der VTPC wurde der Einfluß der Driftgeschwindigkeit auf die TPC-Auswertung gezeigt. Es wurden Vergleichsmessungen zwischen dem CERN-Monitor und Goofie durchgeführt, die gezeigt haben, daßbeide Systeme den gestellten Anforderungen entsprechen.
Grafik-Hardware ist programmierbar geworden. Graphic Processing Units (GPUs) der neuen Generation wie der GeForce3 von NVIDIA enthalten Prozessoren, die es dem Software-Entwickler erlauben kurze Routinen auf der Grafik-Hardware auszuführen. Ich gebe in dieser Arbeit einen umfassenden Überblick über die Architekur und Leistungsfähigkeit dieser neuen Chipgeneration, zeige deren Stärken und Schwächen auf und diskutiere Verbesserungsvorschläge. Als Teil der Arbeit präsentiere ich einige von mir entwickelte Schattierungsverfahren, sowie eine Wassersimulation. Diese Demonstratoren sind darauf ausgerichtet vollständig auf den Prozessoren der neuen Grafikchip- Generation zu laufen. Als Antwort auf die Mängel der zur Zeit verfügbaren Application Programming Interfaces stelle ich ein alternatives Interface zur Steuerung der neuen GPUKomponenten vor, das insbesondere die Austauschbarkeit und Kombinierbarkeit von GPU-Programmen unterstützt.
In den modernen Schwerionenexperimenten möchte man den Zustand der Materie unter extremen Bedingungen, wie sie in der frühen Phase unseres Kosmos herrschten, physikalisch untersuchen. Bei hoher Temperatur und Materiedichte wird ein Zustand postuliert, in dem Quarks, die unter den heute in der Natur vorkommenden Bedingungen auf Grund des Confinements in Hadronen gebunden sind, als quasi freie Teilchen existieren können. Eine spezielle Observable, die man dabei betrachtet, ist die Seltsamkeit. Aus früheren Messungen weiss man, dass die relative Häufigkeit einfach seltsamer Teilchen bei Kern-Kern-Reaktion gegenüber Proton-Proton-Reaktionen erhöht ist und eine andere Energieabhängigkeit zeigt. Zudem ist die Seltsamkeitsproduktion auch abhängig von der Systemgröße. Das kanonische, statistische Modell nach Redlich und Tounsi [7] sagt einen zunächst steilen Anstieg der Produktion von seltsamen Teilchen mit wachsender Systemgröße voraus, der aber bei großen Systemen immer flacher wird. Diese Diplomarbeit beschäftigt sich mit der Xi- und Xi+-Produktion in Blei-Blei-Stößen bei 40 A GeV. Bei dieser Analyse wird die Xi -Multiplizität in Abhängigkeit von der Kollisionszentralität und damit der Systemgröße untersucht. Zusätzlich wird die Xi- -Produktion in zentralen Blei-Blei-Stößen bei 40 A GeV mit Messungen bei anderen Energien verglichen und damit ihre Energieabhängigkeit der Xi- -Produktion untersucht. Die verwendeten Daten wurden während einer Strahlzeit im Herbst 1999 vom Experiment NA49 am SPS am CERN aufgenommen. Es wurden zwei Datensätze mit 7%igem Anteil am totalen Wirkungsquerschnitt und zwei Datensätze mit minimaler Einschränkung (minimum bias) durch den Trigger verwendet. Für die Analyse wurden aus diesen Daten 387.616 minimum bias und 577.605 zentrale Ereignisse ausgewählt. Die minimum bias Daten werden in verschiedene Zentralitätsklassen eingeteilt. Die Xi- (Xi+)-Hyperonen werden von NA49 nicht direkt detektiert. Stattdessen werden Kandidaten aus den Tochterteilchen (Lambda (Antilambda) und Pi - (Pi+)) des schwachen Zerfalls rekonstruiert. Die Häufigkeit der Hyperonen wird dann mit Hilfe statistischer Methoden extrahiert. Diese Methode liefert nicht nur die gewünschten Kandidaten sondern auch einen großen kombinatorischen Untergrund, den man durch geeignete, geometrische Einschränkungen reduzieren kann. Dazu wird eine Signifikanzstudie für die entsprechenden geometrischen Größen durchgeführt und auf diese Weise die besten Einschränkungsbedinungen gefunden. Da das NA49-Experiment auf Grund seiner Geometrie nicht den kompletten Phasenraum erfassen kann und die Effizienz, mit der Teilchen detektiert werden, begrenzt muss auf diese Effekte korrigiert werden. Um diese Korrektur zu bestimmen führt eine Simulation durch. Man simuliert Xi- -Hyperonen und überprüft, wie viele mit gleichen Verfahren, das man zur Datenbestimmung verwendet, in jedem Phasenraumbereich wiedergefunden werden können. Unter Verwendung dieser Korrektur erhält man die Transversalimpulsspektren bei mittlerer Rapidität für Xi- in vier verschiedenen Zentralitätsklassen. Aus diesen Spektren lässt sich die Anzahl der Xi- -Hyperonen bei mittlerer Rapidität pro Kollision ermitteln. Sie steigt von 0,12+-0,01 bei peripheren Stößen auf 1,23+-0,07 zu zentralen Stößen hin an. Zudem kann man aus der Steigung der pt-Spektren den Temperaturparameter T berechnen. Dieser bewegt sich im Bereich von 226 bis 292 MeV, zeigt aber keine eindeutige Zentralitätsabhängigkeit.....
In der vorliegenden Arbeit wird ein interaktives Beweisprotokoll für das Problem der "überprüfbaren Verschlüsselung" (verifiable encyption) vorgestellt. Mit Hilfe eines Verifiable Encryption Protokolls (VEP) beweist eine Person (der Prover) einer anderen Person (dem Verifier) effizient, daß ein vorher gesendeter Wert alpha die Verschlüsselung eines geheimen Wertes s ist. Den geheimen Wert s muß er dazu nicht offenlegen. Zur Verschlüsselung von s wird ein Public-Key-Verfahren und ein öffentlicher Schlüssel PK benutzt. PK gehört zum Schlüsselpaar einer dritten Partei, die nicht aktiv an der Protokollausführung beteiligt ist und die Rolle eines Notars einnimmt. Dem Verifier steht ein Wert d zur Verfügung, anhand dessen er entscheidet, ob er den Beweis akzeptiert oder verwirft. Akzeptiert der Verifier den Beweis des Provers, so kann er zwar mit an Sicherheit grenzender Wahrscheinlichkeit sagen, daß alpha eine Verschlüsselung von s unter dem öffentlichen Schlüssel PK ist. Er kann s jedoch nicht rekonstruieren, da er nicht im Besitz des zu PK gehörigen geheimen Schlüssels SK ist und der Beweis keine Informationen über s preisgibt.
Gitter sind diskrete, additive Untergruppen des IRm, ein linear unabhängiges Erzeugendensystem eines Gitters heißt Gitterbasis. Die Anzahl der Basisvektoren eines Gitters ist eindeutig bestimmt und heißt Rang des Gitters. Zu jedem Gitter vom Rang n gibt es mehrere Gitterbasen, die man alle erhält, indem man eine Basismatrix B = [b1, · · · , bn] von rechts mit allen Matrizen aus der Gruppe GLn(ZZ) multipliziert. Eine wichtige Fragestellung der Gittertheorie ist es, zu einem gegebenen Gitter einen kürzesten, vom Nullvektor verschiedenen Gittervektor zu finden. Dieses Problem heißt das kürzeste Gittervektorproblem . Ein dazu verwandtes Problem ist das "nächste Gittervektorproblem", das zu einem beliebigen Vektor x aus IRm einen Gittervektor sucht, dessen Abstand zu x minimal ist. Aus dem "kürzesten Gittervektorproblem" entwickelte sich die Gitterbasenreduktion, deren Ziel es ist, eine gegebene Gitterbasis in eine Gitterbasis zu transformieren, deren Vektoren bzgl. der Euklidischen Norm kurz und möglichst orthogonal zueinander sind. Wichtig für die Güte einer Reduktion ist der Begriff der sukzessiven Minima ¸1(L), · · · , ¸n(L) eines Gitters L. Dabei ist ¸i(L) die kleinste reelle Zahl r > 0, für die es i linear unabhängige Vektoren cj 2 L gibt mit kcjk · r für j = 1, · · · , i. Man versucht, für ein Gitter L eine Gitterbasis b1, · · · , bn zu finden, bei der die Größe kbik / ¸i(L) für i = 1, · · · , n möglichst klein ist. Für Gitter vom Rang 2 liefert das Gauß'sche Reduktionsverfahren eine Gitterbasis mit kbik = ¸i(L) für i = 1, 2. Eine Verallgemeinerung der Gauß-Reduktion auf Gitter mit beliebigem Rang ist die im Jahre 1982 von Lenstra, Lenstra, Lovasz vorgeschlagene L3-Reduktion einer Gitterbasis, deren Laufzeit polynomiell in der Bitlänge der Eingabe ist. L3-reduzierte Gitterbasen approximieren die sukzessiven Minima bis auf einen (im Rang des Gitters) exponentiellen Faktor. Die vorliegende Arbeit besteht aus zwei Teilen. Im ersten Teil (Kapitel 1-6) wird ein neues Reduktionskonzept von M. Seysen aus der Arbeit "A Measure for the Non-Orthogonality of a Lattice Basis" behandelt und im zweiten Teil (Kapitel 7) ein aktuelles Ergebnis von M. Ajtai über die Faktorisierung ganzer Zahlen aus "The Shortest Vector Problem in L2 is NP-hard for Randomized Reductions"[2]. Seysen führte in [13] zu einer gegebenen Gitterbasis b1, · · · , bn die Größe ¾(A) ein, die nur von den Einträgen der zugehörigen Gram-Matrix A = [b1, · · · , bn]T · [b1, · · · , bn] und der Inversen A 1 abhängt. Sie hat die Eigenschaft, daß für jede Gitterbasis b1, · · · , bn mit Gram-Matrix A gilt, daß ¾(A) ¸ 1, wobei die Gleichheit genau dann gilt, wenn b1, · · · , bn orthogonal ist. Aus dieser Defintion ergibt sich folgender Reduktionsbegriff: Eine Gitterbasis b1, · · · , bn mit Gram-Matrix A heißt genau dann ¿ -reduziert, wenn ¾(A) minimal für alle Basen des Gitters ist. Der wesentliche Unterschied der ¿-Reduktion zur L3-Reduktion ist, daß die Größe ¾(A) unabhängig von der Reihenfolge der Basisvektoren ist, so daß eine ¿ -reduzierte Gitterbasis bei beliebiger Permutation der Basisvektoren ¿ -reduziert bleibt. Die ¿-Reduktion reduziert also im Gegensatz zur L3-Reduktion die Basisvektoren gleichmäßig. Seysen zeigte, daß man zu jedem Gitter vom Rang n eine Gitterbasis mit Gram-Matrix A findet, so daß ¾(A) durch eO((ln n)2) beschränkt ist. Daraus läßt sich ableiten, daß ¿ -reduzierte Gitterbasen eines Gitters vom Rang n die sukzessiven Minima bis auf den Faktor eO((ln n)2) approximieren. Da es sich bei der ¿-Reduktion um einen sehr starken Reduktionsbegriff handelt, für den es schwer ist, einen effizienten Algorithmus zu finden, definiert man folgenden schwächeren Reduktionsbegriff: b1, · · · , bn heißt genau dann ¿2-reduziert, wenn keine Basistransformation der Form bj := bj +k · bi mit 1 · i 6= j · n und k 2 ZZ die Gr¨oße ¾(A) erniedrigt. Für n = 2 entspricht die ¿-Reduktion sowohl der ¿2- Reduktion als auch der Gauß-Reduktion. Für die ¿2-Reduktion findet man einen effizienten Algorithmus. Wendet man diesen Algorithmus auf Rucksackprobleme an, so ergibt sich, daß durch einen Algorithmus, bestehend aus ¿2-Reduktion und anschließender L3-Reduktion, bei großer Dichte und bei kleiner Dimension wesentlich mehr Rucksackprobleme gelöst werden als durch den L3-Algorithmus. Die Faktorisierung großer ganzer Zahlen ist ein fundamentales Problem mit großer kryptographischer Bedeutung. Schnorr stellte in [11] erstmals einen Zusammenhang zwischen Gitterbasenreduktion und Faktorisierung her, indem er das Faktorisieren ganzer Zahlen auf das "nächste Gittervektorproblem in der Eins-Norm" zurückführte. Adleman führte in [1] das Faktorisieren ganzer Zahlen sogar auf das "kürzeste Gittervektorproblem in der Euklidischen Norm" zurück, allerdings unter zahlentheoretischen Annahmen. In [2] stellte Ajtai ein neues Ergebnis vor, in dem er das Faktorisieren ganzer Zahlen auf das "kürzeste Gittervektorproblem in der Euklidischen Norm" ohne zusätzliche Annahmen zurückführte.
A und B möchten digitale Unterschriften auf faire Weise austauschen, d.h. A soll genau dann eine Unterschrift von B erhalten, wenn B eine Unterschrift von A erhält. Der triviale Ansatz zum Austausch zweier Unterschriften, daß A seine Unterschrift an B sendet und dann B seine Unterschrift an A schickt, ist nicht fair, da B nach Erhalt der Unterschrift von A das Protokoll vorzeitig beenden oder eine ungültige Unterschrift senden kann. Bei den bekannten praktikablen Protokollen zum fairen Austausch unterteilen die Teilnehmer die Unterschriften in kleine Blöcke aus wenigen Bits und tauschen die Blöcke dann schrittweise aus. Diese Protokolle garantieren einerseits, daß man sofort überprüfen kann, ob ein erhaltener Block korrekt ist. Andererseits geben die bereits ausgetauschten Blöcke so wenig wie möglich über den restlichen Teil der Unterschrift preis. Versucht in diesem Fall ein Teilnehmer zu betrügen, indem er beispielsweise einen falschen Wert sendet, so kann der andere Teilnehmer dies unmittelbar bemerken und stoppen. Da die noch nicht ausgetauschten Blöcke fast nichts über den übrigen Teil der Unterschrift preisgeben, hat der Betrüger höchstens einen Block mehr als der ehrliche Teilnehmer erhalten. Ist die Blockgröße hinreichend klein, kann der ehrliche Teilnehmer den Nachteil durch Raten bzw. Probieren ausgleichen. In dieser Diplomarbeit entwickeln wir Protokolle zum fairen Austausch sogenannter Diskreter- Logarithmus-Unterschriften. Die bekannten praktikablen Protokolle zum Austausch dieses Unterschriftentyps verwenden als Sicherheitsvoraussetzung die Faktorisierungsannahme. Im Unterschied dazu beruht die Sicherheit unseres Austauschprotokolls auf der Diskreten- Logarithmus-Annahme und damit auf der des Unterschriftenverfahrens. Ferner erlauben unsere Protokoll die Herausgabe der Blöcke in beliebiger, auch vom Protokollverlauf abhängiger Reihenfolge, während die Reihenfolge bei den bisherigen Protokollen von vornherein festgelegt ist.
Die Arbeitsgruppe für Chemie und Physik der Atmosphäre am Institut für Meteorologie und Geophysik der Johann Wolfgang Goethe-Universität Frankfurt befasst sich unter anderem mit der Entwicklung einer Continous Flow Diffusion Chamber zur Erfassung und Klassifikation von CCN und IN. Diese Partikel besitzen eine Größe im Mikrometerbereich und sind somit nicht leicht zu erfassen und zu unterscheiden. Bei vergleichbaren Versuchen beschränkte sich bisher die automatische Auswertung auf die Anzahl der Partikel. Es gibt noch kein Verfahren, welches eine Klassifikation in CCN und IN videobasiert vornehmen kann. Es lag ebenfalls kein reales Bildmaterial vor, welches zu Testzwecken für die Klassifikation geeignet gewesen wäre. Basierend auf den physikalischen und meteorologischen Grundlagen wurde mittels Raytracing ein künstlicher Bilddatensatz mit kleinen Eiskristallen und Wassertröpfchen unter verschiedenen Betrachtungsverhältnissen erstellt. Anhand dieses Bilddatensatzes wurde dann ein Verfahren zur Klassifikation entwickelt und prototypisch implementiert, welches dies mittels Methoden aus der graphischen Datenverarbeitung und durch Berechnung der Momente vornimmt. Es war notwendig, Verfahren aus der Kameratechnik zu betrachten, die später in der realen Anwendung mit sehr kurzzeitiger Belichtung, geeigneter Optik und hochauflösender CCD-Kamera detaillierte Bilder von Objekten in der Größe von einigen 10µm liefern können.
Mit Hilfe von Torsionsexperimenten in einem Temperaturbereich von 350° C bis 470° C und einer Anregungsfrequenz von 2*10^{-3} bis 20 Hz ist der komplexe Schermodul G* von Lithiumdisilikatgläsern, welche sich durch einen unterschiedlichen Kristallgehalt auszeichnen (4 Proben, Kristallgehalt: Glas 0=0%, Glas 1=19%, Glas 3=22% und Glas 5=27%), gemessen worden. Hierdurch können weitere rheologische Eigenschaften der Gläser wie der Dämpfungsfaktor \( Q^{-1}, die Viskosität eta und die Aktivierungsenergie E_{alpha} einer Diffusion ermittelt werden. Die Auswertung der Rohdaten des Betrages des komplexen Schermoduls G* und der dazugehörigen Phasenverschiebung phi der Glasproben zeigen eine Zunahme des jeweiligen Wertes bei Erniedrigung der Frequenz und Erhöhung der Temperatur bei steigendem Kristallgehalt. Dies ist dadruch erklärbar, daß ein effektives Schermodul gemessen wird, welches sich aus dem Schermodul der Glasschmelze und dem Schermodul der Kristalle zusammensetzt. Bei Erhöhung der Temperatur erweicht die Glasschmelze langsam, während die Kristalle gegenüber der Glasschmelze hart bleiben. Dies führt zu einem effektiv höheren Schermodul. In den Rohdaten ist bei allen Glasproben die gleiche lineare Zunahme des Dämpfungsfaktors Q^{-1} mit Erniedrigung der Anregungsfrequenz und Erhöhung der Temperatur festzustellen. Somit kann gesagt werden, daß Q^{-1} bei diesen Temperaturen und Anregungsfrequenzen unabhängig vom Kristallgehalt ist. Die gemessenen Werte von Q^{-1} liegen in einem Bereich von 1-0,001. Diese lineare Zunahme bleibt bis hin zu einer Temperatur von 456°C bei Glas 0 und 470°C bei Glas 5 erhalten. Erst dann zeigt sich in einem Anregungsfrequenzbereich von \( 2*10^{-3} - 10^{-2} Hz eine leichte Änderung von Q^{-1} mit steigendem Kristallgehalt. Bedingt durch die Schranken, daß nicht bei höheren Temperaturen als 470°C gemessen werden darf und daß die minimale Anregungsfrequenz der Torsionsmaschine bei 2*10^{-3} Hz liegt, kann diese Änderung in Q^{-1} nicht weiter untersucht werden. Der in der Seismologie interessante Bereich, welcher bei Q^{-1} < 0,01-0,001 liegt, konnte bei diesen Experimenten nicht erreicht werden, da die technischen Voraussetzungen der Torsionsmaschine nur eine genaue Messung von Q^{-1}\approx 0,01 erlauben. Vorliegende Meßdaten, die ein kleineres Q^{-1} als 0,01 aufweisen, streuen zu sehr und sind somit für eine verläßliche Aussage für die Seismologie unbrauchbar. Mit Hilfe des Verfahrens der Masterkurven konnte gezeigt werden, daß sich die rheologischen Eigenschaften von Lithiumdisilikatglas nicht durch einen Maxwell-Körper beschreiben lassen sondern hierzu ein generalisierter Maxwell-Körper nötig ist. Die voneinander unabhängigen Berechnungen der Aktivierungsenergie aus dem Dämpfungsfaktor Q^{-1} und aus den Masterkurven zeigen innerhalb der Fehlerschranken keine Veränderung der gemessenen Werte der Aktivierungsenergie auf. Die Werte sind jedoch fast um die Hälfte kleiner als der in der Literatur angegebene Wert. Es ist ein Verfahren entwickelt worden, welches unter gewissen Voraussetzungen mit Hilfe des Konzeptes der Masterkurven eine Bestimmung einer unbekannten Viskosität eines viskoelastischen Materials bei der Temperatur \( \widetilde{T} \) in Abhängigkeit des Kristallgehaltes ermöglicht. Voraussetzung zur Bestimmung der unbekannten Viskositäten bei unterschiedlichen Kristallgehalten ist es, daß zumindest eine Viskosität bei der Temperatur \( \widetilde{T} \) und ein Kristallgehalt bekannt sind und daß sich die Form des Spektrums des generalisierten Maxwell-Körpers, der das Glas beschreibt, bei einer Variation des Kristallgehaltes nicht verändert. Des weiteren konnte gezeigt werden, daß die Einstein-Roscoe-Formel, welche die effektive Viskosität einer Flüssigkeit in Abhängigkeit der Kristallgeometrie und des Kristallgehaltes beschreibt (15), auch auf die Lithiumdisilikatglasproben, welche einen unterschiedlichen Kristallgehalt jedoch weniger als 30% aufweisen, anwendbar ist.
Hauptanliegen dieser Arbeit ist es, statistische Zusammenhänge zwischen der Nord-Atlantik-Oszillation (NAO) und der bodennahen Lufttemperatur in Europa zu untersuchen. Dazu wurden zunächst die Korrelationskoeffizienten nach Pearson, Kendall, Spearman und die Transinformation berechnet, sowie die zugehörigen Signifikanzen abgeschätzt. Diese Analysen wurden auch zeitlich gleitend durchgeführt, um mögliche Veränderungen im Einfluß der NAO auf die Temperatur nachweisen zu können. Weiterhin wurde mit Hilfe der selektiven Zeitreihenzerlegung nach signifikanten, charakteristischen zeitlichen Strukturen sowohl in der NAO als auch in den Zeitreihen der Lufttemperatur gesucht: Trend, glatte, saisonale, harmonische Komponente und Rauschen. Zweck dieser Untersuchung war es, gegebenenfalls gleichartige zeitliche Strukturen in der NAO und Temperatur zu finden, um den Zusammenhang zwischen NAO und Temperatur näher beschreiben zu können. Die Untersuchungen wurden fur den Zeitraum von 1871 bis 1990 in monatlicher, saisonaler und jährlicher Auflösung auf Basis von Zeitreihen der mittleren monatlichen Lufttemperatur 41 europäischer WMO- (World Meteorological Organization) Stationen, sowie zwei unterschiedlich definierten NAO-Index-Zeitreihen, die ebenfalls in Monatsmitteln vorlagen, durchgeführt. Ergänzend wurde auf einen globalen Datensatz von Temperaturflächenmitteln zuruckgegriffen, um auch aus globaler Sicht Aussagen uber Zusammenhänge zwischen NAO und bodennaher Lufttemperatur zu erhalten. Die Untersuchungen bezogen sich hierbei auf das Zeitintervall von 1892 bis 1994. Der Zusammenhang zwischen den in Europa beobachteten Temperaturen und der NAO ist linearer Natur und vor allem in den Wintermonaten ausgeprägt. Ein maximaler Zusammenhang findet sich im nordeuropäischen Winter mit einer erklärten Varianz um 40%. Ein Vergleich von extrem kalten Wintern mit der NAO hat gezeigt, daß extreme Kältereignisse nur bei einer schwachen NAO (negativer NAO-Index) auftreten. Im Jahresgang findet eine Verschiebung des durch die NAO beeinflußten Gebietes in Ost-West-Richtung statt. Das Minimum des Zusammenhanges besteht im Sommer bei maximaler Ost-Verschiebung. Weiterhin ist der Einfluß der NAO auf die Temperatur stark zonal ausgeprägt. Es besteht ein Nord-Süd-Gefälle von positiver Korrelation im Norden zu negativer im Süden Europas. Zu diesem Ergebnis führte sowohl die Analyse der Europadaten wie des globalen Datensatzes. Der Einfluß der NAO auf die Temperatur ist nicht stationär; seit Beginn dieses Jahrhunderts hat sich dieser zunehmend ostwärts verlagert. Ein signifikanter Trend konnte in den Indexreihen der NAO aber nicht nachgewiesen werden. Signifikante zeitliche Strukturen der NAO konnten im Bereich der niederfrequenten und auch hochfrequenten Variabilität gefunden werden. Die Winter-NAO (mittlerer Indexwert von Dezember bis Februar) zeigt insbesondere einen in den Wintertemperaturen (Temperaturmittel der Monate Dezember bis Februar) gleichartigen niederfrequenten Verlauf, der durch Polynome vierter und fünfter Ordnung beschrieben werden kann. Im Bereich der hochfrequenten Variabilität konnte mit Ausnahme der Sommer- und Herbstdaten in allen Indexreihen der NAO eine harmonische Schwingung mit einer Periode von etwa 7 Jahren detektiert werden. Die gleiche Schwingung findet sich in den Wintertemperaturen West- und Mitteleuropas.
Das 1913 auf dem Gipfel des Kleinen Feldbergs gegründete Taunus-Observatorium (T.O.) ist eine Einrichtung der Johann Wolfgang Goethe-Universität Frankfurt am Main. Es dient dem Institut für Meteorologie und Geophysik als Forschungsstätte für kontinuierliche Messungen und als Standort für Meßkampagnen in Zusammenarbeit mit anderen Instituten, wie z. B. beim The Kleiner Feldberg Cloud Experiment 1990 [Fuzzi, 1995]. Darüber hinaus wird das Observatorium mit seinen Einrichtungen immer wieder für Messungen im Rahmen von Diplom- und Doktorarbeiten genutzt. Primäres Ziel dieser Diplomarbeit war eine Charakterisierung der zeitlichen Variabilität der luftchemischen Bedingungen am Taunus-Observatorium in Abhängigkeit von Wetter und Witterung. In der Zeit vom 13. Dezember 1996 bis zum 26. März 1997 wurden am Taunus- Observatorium auf dem Kleinen Feldberg mit Hilfe eines gaschromatographischen Analyseverfahrens die Spurengase Kohlenmonoxid und molekularer Wasserstoff gemessen, um die zeitliche Variabilität der luftchemischen Bedingungen am Taunus-Observatorium in Abhängigkeit von Wetter und Witterung zu untersuchen. Bei der Meßreihe am Taunus-Observatorium zeigte sich, daß die zeitlichen Variationen der langlebigen Spurengase CO und H2 über Tage und Wochen maßgeblich durch den Ferntransport von Luftmassen und die jeweilige Großwetterlage bestimmt werden. Mit Hilfe von Trajektorienanalysen konnte gezeigt werden, daß die Messungen stark von Herkunft und Zugweg der jeweiligen Luftmassen abhängen. Deutliche Änderungen der mittleren CO- und H2-Mischungsverhältnisse wurden bei Luftmassenänderungen beobachtet, wie z. B. eine markante Abnahme von Kohlenmonoxid und molekularem Wasserstoff nach dem Durchgang von Kalt- oder Warmfronten. Extreme Unterschiede der gemessenen Spurengaskonzentrationen konnten auch bei verschiedenen winterlichen Inversionswetterlagen registriert werden. Befand sich das Taunus-Observatorium unterhalb einer Temperaturinversion in der bodennahen Grenzschicht, wurden ungewöhnlich hohe CO- und H2-Mischungsverhältnisse gemessen; war der Kleine Feldberg dagegen über der Inversion innerhalb der freien Atmosphäre, wurden wiederholtdie atmosphärischen Hintergrundkonzentrationen von Kohlenmonoxid und molekularem Wasserstoff beobachtet. Auch durch lokale und regionale Effekte konnten in Abhängigkeit von der lokalen Windrichtung starke zeitliche Variationen der luftchemischen Bedingungen beobachtet werden. Durch die Orographie bedingt Verursachen kleine Änderungen der lokalen Windrichtung drastische Veränderungen in den gemessenen Spurengaskonzentrationen. So trennt z. B. der Taunuskamm die durch regionale Quellen im Großraum Frankfurt belastete Luft im Vordertaunus von der weniger verschmutzter Luft im ländlichen Hintertaunus. Darüber hinaus kann durch die Kanalisierung des Windes in verschiedenen Tälern oder an den Flanken des Taunuskammskontaminierte Luft aus den Niederungen herangeführt werden. Die hohe Variabilität der gemessenen Mischungsverhältnisse in Abhängigkeit von Meteorologie und Orographie dominiert den Tagesverlauf der CO- und H2-Messungen. Daher war eine Untersuchung von anthropogenen Tages- und Wochengängen oder sogar jahreszeitlicher Variationen der langlebigen Spurengase CO und H2 am Taunus-Observatorium nicht möglich. Zusätzlich zu den Messungen am Taunus-Observatorium wurde mit der in dieser Arbeit vorbereiteten Analytik das Mischungsverhältnis von molekularem Wasserstoff in stratosphärischen Luftproben von drei verschiedenen Ballonflügen gemessen, entsprechende H2-Vertikalprofile erstellt und die Ergebnisse der Messungen mit Modellrechnungen verglichen.
Funktionale Programmiersprachen weisen viele Eigenschaften auf, die zur modernen Softwareentwicklung benotigt werden: Zuverlässigkeit, Modularisierung, Wiederverwendbarkeit und Verifizierbarkeit. Als schwer vereinbar mit diesen Sprachen stellte sich die Einbettung von Seiteneffekten in diese Sprachen heraus. Nach einigen mehr oder weniger gescheiterten Ansätzen hat sich mittlerweile fur die nichtstrikte funktionale Sprache Haskell der monadische Ansatz durchgesetzt, bei dem die Seiteneffekte geschickt verpackt werden, so dass zumindest IO-behaftete Teile eines Haskell-Programms dem klassischen imperativen Programmierstil ähneln. S. Peyton Jones bringt dieses in [Pey01, Seite 3] auf den Punkt, indem er schreibt "...Haskell is the world's finest imperative programming language." Dies ist einerseits vorteilhaft, denn die klassischen Programmiertechniken können angewendet werden, andererseits bedeutet dies auch eine Rückkehr zu altbekannten Problemen in diesen Sprachen: Der Programmcode wird unverständlicher, die Wiederverwendbarkeit von Code verschlechtert sich, Änderungen im Programm sind aufwendig. Zudem erscheint die monadische Programmierung teilweise umständlich. Deshalb wurde im Zuge der Entwicklung in fast jede Implementierung von Haskell ein Konstrukt eingebaut, dass von monadischem IO zu direktem IO führt. Da dieses nicht mit dem bisherigen Ansatz vereinbar schien, wird es als "unsafe" bezeichnet, die entsprechende Funktion heißt "unsafePerformIO". Zahlreiche Anwendungen benutzten diese Funktion, teilweise scheint die Verwendung zumindest aus Effizienzgründen unabdingbar. Allerdings ist die Frage, wann dieses verwendet werden darf, d.h. so angewendet wird, dass es nicht "unsicher" ist, nur unzureichend geklärt. Das Zitat in Abbildung 1.1 gibt wenig Aufschluss über die korrekte Anwendung, zumal immer wieder Diskussionen entstehen, ob die Verwendung von unsafePerformIO in diesem oder jenem Spezialfall korrekt ist.
In dieser Arbeit wurden Ergebnisse der Untersuchungen mit Synchrotronstrahlung, welche mit Hilfe der COLTRIMS-Methode gewonnen wurden, an Wasserstoff H2 und Deuterium D2 vorgestellt. Dabei wurde im Besonderen der Zerfall von doppelt angeregten repulsiven Zuständen der Moleküle betrachtet. Die Dissoziation der Moleküle, die auf solche Zustände angeregt worden sind, beginnt sofort. Zu einem gewissen Zeitpunkt findet die Autoionisation statt, dabei spiegelt die Aufteilung der Gesamtenergie auf KER und Elektronenenergie direkt den internuklearen Abstand der Kerne wider. So kann der Zeitpunkt der Autoionisation bestimmt werden. Die Messung der KERs entspricht hierbei dem Ablesen einer Stoppuhr, die bei der Absorption des Photons gestartet wurde. Die Autoionisation wird durch die Bewegung der Nukleonen induziert, weshalb die Autoionisationsbreite stark vom internuklearen Abstand abhängt. Dies zeigt sich in den beobachteten Strukturen der KER-Verteilung. In dieser Arbeit konnte erstmals auch die Winkelverteilung der Autoionisations- Elektronen gemessen werden. Dabei wurde eine starke Abhängigkeit vom KER und damit vom Zerfallskanal beobachtet. Bei einer Photonen-Energie von 30 eV zeigte sich ein deutlicher Isotopeneffekt bei Wasserstoff. Dieser kann nicht durch direkte Ionisation erklärt werden. Deshalb wird angenommen, dass durch Autoionisation hervorgerufen wird. Hierbei spielen die unterschiedlichen Massen der Isotope eine Rolle. Es konnte nachgewiesen werden, dass die Autoionisation der beiden Isotope bei unterschiedlichen Kernabstnden stattfand. Die gezeigten Winkelverteilungen wurden nicht erklrt. Bei einer Photonen-Energie von 36 eV wurden die KER-Spektren von Wasserstoff und Deuterium untersucht. Die KER-Spektren, in welchen erstmals die Endzustnde H+ + H(n = 1) und H+ + H(n = 2) voneinander getrennt werden konnten, zeigten eine ausgeprägte Struktur. Die Mechanismen, die einzelne Maxima in den Strukturen hervoruft, wurden ausführlich dargestellt. Bei der Untersuchung wurden die Winkelverteilungen für diese Maxima im KER-Spetrum zu Hilfe genommen. Die gemessenen Winkelverteilungen spiegeln den Drehimpuls des emittierten Elektrons wider. In den Ergebnissen sind überraschende und bisher noch nicht erklärte Beitrge von delta-ml = +/- 2 beobachtet worden. Es wurden die Winkelverteilungen von emittierten Elektronen bei Ereignissen, die im Endzustand H+ +H(n = 2) enden, für verschiedene Photonen-Energien untersucht. Dabei wurde festgestellt, dass die Winkelverteilungen bei niedrigen Photonen-Energien um 36 eV anisotrop, mit einem Maximum entlang der molekularen Achse, sind. Bei zunehmenden Photonen-Energien werden die Winkelverteilungen um ca. 45 eV isotrop. Bei höheren Energien werden sie wieder anisotrop, weisen hier jedoch ein Maximum entlang der Polarisationsachse auf. Die Ergebnisse wurden mit denen von Ito et al. [ito00], welcher nur Photonen-Energien im Bereich von 45 eV bis 72 eV untersuchte, verglichen. Sie stimmen sehr gut berein, was darauf zurckschlieen lsst, dass die beobachteten Verteilungen hauptschlich durch direkte Photoionisation auf die angeregten Zustände und des H+2 -Ions erklären lassen. Die um 36 eV beobachtete Anisotropie könnte durch die nicht hundertprozentige Polarisation des Photonenstrahl der Beamline hervorgerufen worden sein.
Durch Messen der vollständigen Impulsvektoren beider Coulomb-explodierender, einfachgeladener Fragmente eines doppelionisierten, diatomaren, homonuklearen Moleküls (H2, N2, O2) können verschiedene Ionisationsprozesse identifiziert werden. Bei der sogenannten COLd Target Recoil Ion Momentum Spectroskopy (COLTRIMS) wird ein überschall Gasjet mit ultrakurzen, hochintensiven Laserpulsen penetriert. Aus den gemessenen Fragmentimpulsen kann die freigesetzte kinetische Energie, sowie die ursprüngliche Lage der Molekülachse im Laborsystem berechnet werden, woraus winkelabhängige Explosionswahrscheinlichkeiten abgeleitet werden können, die unter bestimmten Bedingungen die orbitale Symmetrie der Moleküle wiederspiegeln. Unter Benutzung verschiedener Pulslängen des Lasers (35 fs und 8 fs) und Variation der Polarisation (linear, zirkular) koennen Ionisationsmechanismen wie rescattering oder sequentielle Ionisation identifiziert werden.
Diese wissenschaftliche Arbeit beruht größtenteils auf der Diplomarbeit von Thorsten Weber (siehe [TWE98]), die unter dem gleichen Titel bereits in einer geringen Auflage veröffentlicht wurde. Die im Rahmen dieser Untersuchungen durchgeführten Experimente liefern Ergebnisse für das Stoßsystem Protonen auf atomares Helium, bzw. Ergebnisse für das Stoßsystem Deuteronen of Helium bei verschiedenen Projektileinschußenergien (1.3 MeV bis 200 keV). Diese, mittels der Technik der Rückstoßionenimpulsspektroskopie gefundenen, Daten waren bis dato nicht zugänglich, und es standen nur sehr wenige theoretische Vergleichsdaten zur Verfügung. Die Ergebnisse dieser Messungen und die oben erwähnte Diplomarbeit von Th. Weber erfreuten sich daher einem regen Interesse in der Fachwelt für atomare Streuphysik. Die dort gefundene Daten wurden in diversen Vorträgen vorgestellt und diskutiert und wurden einer kritischen Betrachtung unterzogen. Ein besonderes Augenmerk lag hierbei auf dem besonders geringen Beitrag der Elektron-Rückstoßionenkorrelation, die bei den untersuchten Streuprozessen gefunden wurden. Die aufgrund dieser Ergebnisse erlangten Einschätzungen mußten zu dem Schluß gelangen, daß sich der Hauptbeitrag bei einer Einfachionisation von Helium mittels Protonen vornehmlich durch Projektil-Elektronwechselwirkungen, den sogenannten binary-encounter - Prozessen, ergibt. Dem widersprachen jedoch die klassischen CTMC-Rechnungen von Prof. Dr. D. Madison von der Universität in Missouri-Rolla und das physikalische Sachverständnis von Prof. Dr. L. Cocke von der Kansas State University. Sie erwarteten einen Beitrag, der mit der schlechten experimentellen Impulsauflösung von 0.5 a.u. nicht zu vereinbaren war. Aufgrund diesem fruchtbarem wissenschaftlichen Gedankenaustausch wurden die Daten erneut ausgewertet und dabei ein Vorzeichenfehler im Analysefile der experimentellen Daten als Wurzel der Diskrepanzen erkannt. Die in der oben erwähnten Diplomarbeit von Th. Weber vorgestellten Ergebnisse unterdrücken/ verschleiern damit den tatsächlichen Beitrag der Elektronen-Rückstoßionenwechselwirkung, so daß es nötig wurde diesen Irrtum zu berichtigen, was nun mit Hilfe dieser zweiten Auflage geschehen soll. Die vorgenommen Verbesserungen betreffen vorwiegend den Paragraphen 5.2.2 und das Kapitel 6 (Ergebnisse/ Dreidimensionale Impulse und die Zusammenfassung).