Refine
Year of publication
Document Type
- diplomthesis (203) (remove)
Language
- German (203) (remove)
Has Fulltext
- yes (203) (remove)
Is part of the Bibliography
- no (203)
Keywords
- Soziologie (2)
- Stochastik (2)
- Stochastischer Prozess (2)
- Strahltransport (2)
- Yule-Prozess (2)
- Ablenkung <Physik> (1)
- Algorithmus (1)
- Arbeitsgemeinschaft Europäischer Grenzregionen (1)
- Arbeitsmarktpolitik (1)
- Artefakt (1)
Institute
- Physik (97)
- Mathematik (33)
- Informatik (26)
- Gesellschaftswissenschaften (14)
- Wirtschaftswissenschaften (8)
- Geowissenschaften (7)
- Biowissenschaften (4)
- Erziehungswissenschaften (4)
- Biochemie und Chemie (3)
- Geographie (1)
Im Jahr 1993 schlug A. Shamir Protokolle zur Erstellung digitaler Unterschriften vor, die auf rationalen Funktionen kleinen Grades beruhen. D. Coppersmith, J. Stern und S. Vaudenay präsentierten die ersten Angriffe auf die Verfahren. Diese Angriffe können den geheimen Schlüssel nicht ermitteln. Für eine der von Shamir vorgeschlagenen Varianten zeigen wir, wie der geheime Schlüssel ermittelt werden kann. Das zweite Signaturschema von Shamir hängt von der Wahl einer algebraischen Basis ab. Eine besondere Bedeutung haben Basen, deren Elemente polynomiale Terme vom Grad 2 sind. Wir analysieren die Struktur der algebraischen Basen. Für den hervorgehobenen Spezialfall kann eine vollständige Klassifikation durchgeführt werden.
Der Begriff der editierfreundlichen Kryptographie wurde von Mihir Bellare, Oded Goldreich und Shafi Goldwasser 1994 bzw. 1995 eingeführt. Mit einem editierfreundlicher Verschlüsselungs- oder Unterschriftenverfahren kann man aus einer Verschlüsselung bzw. Unterschrift zu einer Nachricht schnell eine Verschlüsselung oder Unterschrift zu einer ähnlichen Nachricht erstellen. Wir geben eine Übersicht über die bekannten editierfreundlichen Verfahren und entwickeln sowohl ein symmetrisches als auch ein asymmetrisches editierfreundliches Unterschriftenverfahren (IncXMACC und IncHSig). Wir zeigen, wie man mit editierfreundlichen Schemata überprüfen kann, ob die Implementierung einer Datenstruktur korrekt arbeitet. Basierend auf den Ideen der editierfreundlichen Kryptographie entwickeln wir effiziente Verfahren für spezielle Datenstrukturen. Diese Ergebnisse sind in zwei Arbeiten [F97a, F97b] zusammengefaßt worden.
In der vorliegenden Diplomarbeit beschäftigen wir uns mit kryptographisch sicheren Pseudozufallsgeneratoren. Diese e±zienten Algorithmen erzeugen zu zufälliger Eingabe deterministisch eine längere Bitfolge, die praktisch von einer Folge zufälliger Münzwürfe nicht unterscheidbar ist. Wir geben die Definitionen von A. Yao sowie M. Blum und S. Micali, beweisen die Äquivalenz und charakterisieren den Unterschied zur klassischen Sichtweise von Zufallsgeneratoren. Mit der Blum-Micali-Konstruktion zeigen wir, wie man aus einer Oneway-Permutation und zugehörigem Hardcore-Prädikat einen kryptographisch sicheren Pseudozufallsgenerator konstruiert: Man wendet auf einen zufälligen Startwert iterativ die Oneway-Funktion an und gibt jeweils das Hardcore-Prädikat des Urbilds aus. Wir stellen das allgemeine Hardcore- Prädikat inneres Produkt modulo 2 von L.A. Levin und O. Goldreich vor und beweisen mit Hilfe des XOR-Lemmas von U.V. Vazirani und V.V. Vazirani die Verallgemeinerung zu einer Hardcore-Funktion, die statt eines Prädikats mehrere Bits ausgibt. Man geht davon aus, daß die Verschlüsselungsfunktionen des RSA- und des Rabin-Public- Key-Kryptosystems Oneway-Permutationen sind. Basierend auf dem Rabin-System haben L. Blum, M. Blum und M. Shub den x2-mod-N-Generator aufgebaut, W. Alexi, B. Chor, O. Goldreich und C.P. Schnorr haben den RSA-Generator konstruiert und den Sicherheitsbeweis zum x2-mod-N-Generator verbessert. Diese Generatoren basieren auf der Blum-Micali-Konstruktion mit dem Hardcore-Prädikat des untersten Bits. Durch neue Ideen können wir die beweisbare Sicherheit der Generatoren deutlich erhöhen, so daß in der Praxis kleinere Schlüssellängen genügen. Bisher war zum Beispiel für den x2-mod-N-Generator bekannt, daß man mit einem Algorithmus A, der das unterste Bit der Wurzel modulo einer n-Bit- Blumzahl mit Wahrscheinlichkeit 1 2 + ² in Zeit |A| = ¡n3¢ berechnet, den Modul in Zeit O¡n3² 9|A|¢ mit Wahrscheinlichkeit ²2 64 faktorisieren kann. Wir verbessern die Laufzeit zu O¡n² 4 log2(n² 1)|A|¢ und Wahrscheinlichkeit 1 9 . Diese neuen Resultate wurden auf der Eurocrypt-Konferenz im Mai 1997 in Konstanz vorgestellt, D.E. Knuth hat sie bereits in die neue Auflage seines Standardwerks The Art of Computer Programming aufgenommen.
Gleichgewichte auf Überschussmärkten : Theorie und Anwendbarkeit auf die Regelenergiezone der RWE
(2003)
Diese Version entspricht im wesentlichen der begutachteten Version bis auf die Kürzung von Satz 3.3.1 um einen für den Rest unbedeutenden Teil. Das Ziel folgender Arbeit ist es, mit einem intuitiven Ansatz eine spezielle Wettbewerbsform zweier interagierender Märkte zu modellieren und anschließend zu analysieren. Abschließend werden die theoretischen Ergebnisse mit den Beobachtungen an einem existierenden Markt - dem deutschen Energiemarkt - verglichen. In dieser behandelten Wettbewerbsform wird ein nicht lagerbares Gut an zwei aneinander gekoppelten Märkten gehandelt. Während Handel und Preisfindung am ersten Markt den üblichen Gepflogenheiten folgen, müssen alle Teilnehmer sämtliche Güter, welche nicht unmittelbar nach Lieferung verbraucht werden, am zweiten Marktplatz (dem Überschussmarkt) gegen ein gewisses Entgelt zur Verfügung stellen. Alle Teilnehmer, welche nicht genügend Güter am ersten Markt geordert haben, werden auf dem Überschussmarkt zu einem gewissen Preis mit der noch benötigten Menge versorgt. Einem Marketmaker auf dem zweiten Marktplatz fällt die Aufgabe zu, einen Preis festzustellen, zu dem diejenigen entschädigt werden, welche ihre Überschüsse zur Verfügung stellen müssen bzw. den diejenigen zu bezahlen haben, deren Gütermangel ausgeglichen wird. Weiterhin stellt dieser sicher, dass zu jedem Zeitpunkt genügend Güter vorhanden sind, so dass der Bedarf aller Teilnehmer zu jedem Zeitpunkt sichergestellt ist. Ziel ist es nun herauszufinden, welche gewinnmaximierenden Einkaufsstrategien die Marktteilnehmer verfolgen sollten und welche Konsequenzen sich daraus auf den deutschen Energiemarkt ableiten lassen.
Seit Mitte der 60er Jahre diesen Jahrhunderts hat sich in Europa und Nordamerika vor allem unter Jugendlichen und jungen Erwachsenen der Konsum von gesetzlich verbotenen Substanzen ausgebreitet. Ungefähr gleichzeitig setzte sowohl in den Massenmedien als auch in professionellen Kreisen eine heftige Diskussion über dieses Phänomen ein, die bis heute andauert, was nicht nur auf die fraglos nach wie vor aktuelle Problematik von Sucht bzw. Abhängigkeit insbesondere bezüglich Heroin, sondern auch auf die ständigen Veränderungen in den Konsumentenszenen wie auch die vielfältigen Aktivitäten im Bereich der Drogenpolitik zurückzuführen ist. Diese erhielt auch stets Nahrung von der wissenschaftlichen Diskussion, die sich seit Mitte der 80er Jahre vereinzelt auch mit "Nicht-Junkie-" Kreisen beschäftigt, welche den Konsum von Cannabis, Kokain, Designer-Drogen, Halluzinogenen und teilweise auch Heroin in einen "normalen" Alltag integriert haben, wobei bezüglich Deutschland meines Wissens noch keine umfangreicheren qualitativen Studien für diesen Bereich existieren. Dabei ist von Bedeutung, daß nach Schätzungen, teilweise aus quantitativen Erhebungen abgeleitet (großangelegte repräsentative Umfragen liegen nicht vor und könnten allein schon wegen der Illegalität keine seriösen Ergebnisse liefern), bei den meisten, wenn nicht gar bei allen genannten "Szene-Drogen" die überwiegende Mehrheit der Konsumenten (auch der Gewohnheitskonsumenten), zu diesen "integrierten" oder auch "kontrollierten" Gebrauchern zu zählen ist. Diese Vermutung steht im Gegensatz zur lange Jahre von den Vertretern der offiziellen Drogenpolitik und dem Großteil der Medien verbreiteten Meinung, daß jeglicher Konsum der durch das Betäubungsmittelgesetz illegalisierten Substanzen zu Sucht und sozialer Verelendung führe. Weiterhin werden die Verbote für bestimmte Substanzen oft so begründet, daß diese Drogen "kulturfremd" seien und deshalb keine historisch gewachsenen, konsumregulierenden Sitten und Gebräuche bezüglich des Konsums existieren wie z.B. bei Alkohol, Tabak und Kaffee. Daher ist es natürlich interessant zu erfahren, welcher Art die Mechanismen sind, die, der obigen Auffassung widersprechend, ein alltagsintegriertes Konsumverhalten auch bei illegalen Drogen ermöglichen, bzw. inwiefern sie den Kontrollmustern für die legalen Drogen ähnlich sind. Dabei muß selbstverständlich stets hervorgehoben werden, welche Drogen konsumiert werden, da einerseits zwar alle diese Substanzen den illegalen Status mit den entsprechenden alltagspraktischen Konsequenzen gemeinsam haben, aber doch erhebliche Unterschiede existieren in der jeweiligen Wirkungsweise und -intensität (pharmakologisch wie subjektiv), der Gefahr von Überdosierung und körperlichen oder geistigen Schädigungen sowie subkulturellen Zuschreibungen und Einbindungen. Für diese Arbeit habe ich qualitative Interviews mit dreizehn Personen durchgeführt, die allesamt mit mehreren verschiedenen illegalen Drogen Erfahrungen vorweisen können, wobei allerdings zum Teil deutliche Unterschiede bezüglich der Konsumfrequenzen, -mengen und vor allem auch der präferierten Drogen vorliegen. Dabei werde ich, unter Einbeziehung des Konzeptes von drug, set and setting, einerseits Beispiele für die Verschiedenheit von möglichen Konsummustern aufzeigen, gleichzeitig aber versuchen, gerade in bezug auf Funktionen und informelle Kontrollen des Konsums unterschiedlicher Drogen, Gemeinsamkeiten aufzuzeigen.
Ziel dieser Arbeit war es, ein sicheres und trotzdem effizientes Preprocessing zu finden. Nach den zurückliegenden Untersuchungen können wir annehmen, dies erreicht zu haben. Wir haben gezeigt, daß eine minimale Workload von Attacken von 272 mit nur 16 Multiplikationen pro Runde und 13 gespeicherten Paaren (ri, xi) erreicht werden kann. Mit der in Abschnitt 12.3 erklärten Variation - der Wert rº k geht nicht in die Gleichungen mit ein - erreichen wir sogar eine Sicherheit von 274. In diesem Fall können wir die Anzahl der gespeicherten Paare auf 12 verringern. Auch von der in Abschnit 12.5 besprochenen Variation erwarten wir eine Erhöhung der Sicherheit. Ergebnisse dazu werden bald vorliegen. Folgender Preprocessing Algorithmus erscheint z.B. nach unserem derzeitigen Wissensstand geeignet: Setze k = 12, l0 = 7, l1 = 3, d0 = 4, d1 = 5, h = 4, ¯h = 1. Initiation: lade k Paare (r0 0, x00 ) . . . , (r0 k 1, x0 k 1) mit x0i = ®r0 i mod p. º := 1. º ist die Rundennummer 1. Wähle l1 2 verschiedene Zufallszahlen a(3, º), . . . , a(l1, º) 2 {º + 1 mod k, . . . , º 2 mod k} a(1, º) := º mod k, a(2, º) := º 1 mod k W¨ahle l1 2 verschiedene Zufallszahlen f(3, º), . . . , f(l1, º) 2 {0, . . . , d1 1}, f(1, º) zuf¨allig aus {h, . . . , d1 1} und f(2, º) zuf¨allig aus {¯h, . . . , d1 1} rº k := rº ºmodk + l1 Xi=1 2f(i,º)rº 1 a(i,º) mod q xk = xºº modk · l1 Yi=1 (xº 1 a(i,º))2f(i,º) mod p 2. w¨ahle l0 1 verschiedene Zufallszahlen b(2, º), . . . , b(l0, º) 2 {º + 1 mod k, . . . , º 1 mod k} b(1, º) := º mod k W¨ahle l0 verschiedene Zufallszahlen g(1, º), . . . , g(l0, º) 2 {0, . . . , d0 1} rº ºmodk := l0 Xi=1 2g(i,º)rº 1 b(i,º) mod q xºº modk = l0 Yi=1 (xº 1 b(i,º))2g(i,º) mod p 3. verwende (rº k, xº k) f¨ur die º te Signatur (eº, yº) gem¨aß yº = rº k + seº mod q 4. º := º + 1 GOTO 1. f¨ur die n¨achste Signatur Die Zufallszahlen a(3, º), . . . , a(l, º), b(2, º), . . . , b(l, º), f(1, º), . . . , f(l, º) und g(1, º), . . . , g(l, º) werden unabhängig gewählt. Dies ist selbstverständlich nur ein Beispiel. Unsere Untersuchungen sind noch nicht abgeschlossen. Wir glauben aber nicht, daß feste Werte a(i, º) und b(i, º) ein effizientes Preprocessing definieren. Wir haben einige Variationen mit solchen weniger randomisierten Gleichungen studiert und immer effiziente Attacken gefunden.
Mit dem World Wide Web sind der Bestand und die Verfügbarkeit von Informationen rapide angewachsen. Der Einzelne hat Schwierigkeiten, der Menge an Informationen und Wissen Herr zu werden und so der Informationsüberflutung zu begegnen. Dieses Problem wurde von Forschern und Technikern bereits frühzeitig erkannt und durch verschiedene Konzepte wie die intelligente Suche und die Klassifikation von Informationen zu lösen versucht. Ein weiteres Konzept ist die Personalisierung, die das bedarfsgerechte Zuschneiden von Informationen auf die Bedürfnisse des einzelnen Anwenders zum Ziel hat. Diese Arbeit beschreibt dazu eine Reihe von Personalisierungstechniken und im Speziellen das Kollaborative Filtern als eine dieser Techniken. Bestehende Schwächen des Kollaborativen Filterns wie zu dünn besetzte Benutzerprofile und das mangelnde Erkennen von Änderungen im Benutzerinteresse im Verlauf der Zeit werden durch verschiedene Ansätze zu entschärfen versucht. Dazu wird eine Kombination mit Inhaltsbasierten Filtern und die Verbreiterung der Datenbasis bewerteter Ressourcen betrieben. Ziel ist die Optimierung der Personalisierung, so dass Anwender besser auf sie abgestimmte Informationen erhalten. Ein Teil der beschriebenen Ansätze wird zudem in einem prototypischen Informationssystem umgesetzt, um die Machbarkeit und den Nutzen zu prüfen. Dazu werden der auf der Java 2 Enterprise Edition aufbauende WebSphere Applikationsserver von IBM und die relationale Datenbank DB2 UDB aus gleichem Hause eingesetzt.
Suche im Semantic Web : Erweiterung des VRP um eine intuitive und RQL-basierte Anfrageschnittstelle
(2003)
Datenflut im World Wide Web - ein Problem jedes Internetbenutzers. Klassische Internetsuchmaschinen sind überfordert und liefern immer seltener brauchbare Resultate. Das Semantic Web verspricht Hoffnung - maßgeblich basierend auf RDF. Das Licht der Öffentlichkeit erblickt das Semantic Web vermutlich zunächst in spezialisierten Informationsportalen, so genannten Infomediaries. Besucher von Informationsportalen benötigen eine Abfragesprache, welche ebenso einfach wie eine gewöhnliche Internetsuchmaschine anzuwenden ist. Eine derartige Abfragesprache existiert für RDF zur Zeit nicht. Diese Arbeit stellt eine neuartige Abfragesprache vor, welche dieser Anforderung genügt: eRQL. Bestandteil dieser Arbeit ist der mittels Java implementierte eRQL-Prozessor eRqlEngine, welcher unter http://www.wleklinski.de/rdf/ und unter http://www.dbis.informatik.uni-frankfurt.de/~tolle/RDF/eRQL/ bezogen werden kann.
In dieser Arbeit wurde die Implementierung einer JMX-konformen Managementinfrastruktur für das Agentensystem AMETAS vorgestellt. Darauf basierend wurden im Rahmen des Fehlermanagements Kontrollmechanismen der mobilen Agenten im AMETAS untersucht und eine Lösung für die Lokalisierung von AMETAS-Agenten entworfen und implementiert. Der essentielle Hintergrund für das AMETAS-Management stellt sich folgendermaßen dar: Die Betrachtung des Anwendungs- und Infrastrukturmanagements mit Blick auf die Managementhierarchie stellt die Offenheit und Kooperationsfähigkeit der angestrebten Managementlösung in den Vordergrund. Diese Eigenschaften ermöglichen die Integration der in einem Unternehmen existierenden Managementlösungen. Ziel ist dabei ein kostengünstiges und effizientes Management. Eine Managementarchitektur wird mit Hilfe der informations-, organisations-, kommunikations- und funktionsbezogenen Aspekte beschrieben und modelliert. Anhand dieser Aspekte ist CORBA, DMTF, WBEM und JMX analysiert und ihre Eignung für das AMETASManagement bewertet worden. Neben den allgemeinen Kriterien sind ihre Teilmodelle, ihre Unterstützung des dezentralen und des dynamischen Managements sowie ihre Integrationsfähigkeit im AMETAS zentrale Punkte. Es zeigt sich, dass die JMX die besten Möglichkeiten für das AMETAS-Management bietet. Das OSI-Funktionsmodell klassifiziert die Managementaufgaben und -funktionen in fünf Bereiche, die häufig als FCAPS bezeichnet werden: Fehler-, Konfigurations-, Abrechnungs- , Leistungs- und Sicherheitsmanagement. Diese Klassifikation ist orthogonal zu jeder anderen und bietet einen geeigneten Rahmen für die Aufteilung der Managementaufgaben und - funktionen. Das in dieser Arbeit empfohlene AMETAS-Management orientiert sich hinsichtlich der Managementaufgabenaufteilung am OSI-Modell. Die JMX bietet mächtigeWerkzeuge zur Instrumentierung aller Arten von Ressourcen. Ihre Java-Basiertheit bedeutet eine wesentliche Vereinfachung für das Agentensystem. Die offene Architektur von der JMX ermöglicht die Kooperation des AMETAS-Managements mit anderen Managementstandards. Das AMETAS-Management nutzt die Vorzüge der mobilen Agenten insbesondere im Bereich des Konfigurations- und Fehlermanagements aus. Folgende Eigenschaften zeichnen das AMETAS-Management aus: 1) Verwendung der Agenteninfrastruktur für das Management. Selbiges wird dabei als ein AMETAS-Dienst implementiert und kann alle Möglichkeiten und Dienste der Agenteninfrastruktur nutzen. 2) Verwendung der AMETAS-Agenten und Dienste als Managementwerkzeuge. 3) Selbstmanagement des Systems. Der Managementdienst ist hierfür mit ausreichender Intelligenz ausgestattet. Er nutzt die Mechanismen der Agenteninfrastruktur aus und erledigt diverse Managementaufgaben selbständig. Das Ereignissystem vom AMETAS spielt hierbei eine wichtige Rolle. Die Analyse der Kontrollmechanismen von MASIF, Aglets Workbench und Mole liefert hinsichtlich ihrer Eignung für die Lokalisierung von Agenten im AMETAS folgendes Ergebnis: Die untersuchten Ansätze sind teilweise allgemein anwendbar. Man unterscheidet die nichtdeterministischen Ansätze wie Advertising und Energiekonzept von denen, die bestimmte Spuren von Agenten in einer geeigneten Art hinterlegen. In dieser Hinsicht stellte sich das Pfadkonzept als interessant heraus: Bei diesem Konzept können die Informationen über den Pfad der Migration eines Agenten in geeigneterWeise zeitlich beschränkt oder unbeschränkt gespeichert werden. Eine andere Alternative bietet die Registrierungsmethode. Bei dieser Methode wird ein Agent in einer zentralen Stelle registriert, wobei die eindeutige Identität eines Agenten und die aktuelle Stelle, in der sich ein Agent aufhält, gespeichert werden. Vor dem Hintergrund der erfolgten Analyse empfiehlt sich als Basis für die Lokalisierung von AMETAS-Agenten eine Art Pfadkonzept: Die Spuren der Agenten werden durch einen Managementdienst gesichert. Will man einen bestimmten Agenten oder eine Gruppe lokalisieren, werden die dezentral vorhandenen Informationen innerhalb eines konsistenten Schnitts (Schnappschuss) ausgewertet. Die Schnappschussmethode empfiehlt sich für die Lokalisierung von Agenten im AMETAS entsprechend den zu Beginn der Arbeit von einem Lokalisierungsmechanismus geforderten Eigenschaften: Sie erlaubt eine zuverlässige Lokalisierung der gesuchten Agenten, deren Autonomie dabei respektiert wird. Die Kosten-Leistungsrelation ist günstig einzuschätzen, da unnötiger Daten- bzw. Agentenverkehr ebenso vermieden wird wie die Pflege umfangreicher, zentralistischer Datenbanken.
Der Malaria verursachende Organismus Plasmodium falciparum (P. falciparum) besitzt in seinem Kerngenom für die Mitochondrien bestimmte Proteine, die als Transportsignal ein mitochondriales Transitpeptid enthalten. Durch die kürzlich erfolgte Sequenzierung des Genoms von P. falciparum ist es wünschenswert, Vohersagealgorithmen für verschiedene Proteinlokalisationen zur Verfügung zu haben. Für andere Organismen etablierte Programme zur Vorhersage von mitochondrialen Transitpeptiden, MitoProtII und TargetP, lieferten bei Anwendung auf Sequenzen aus P. falciparum nur unbefriedigende Ergebnisse. MitoProtII erzielte in einer 20-fachen Kreuzvalidierung einen Mathews-Koeffizienten von cc = 0,49, TargetP erzielte in diesem Fall einen Mathews-Koeffizienten von cc = 0,60. TargetP erzielte für die Sequenzen aus P. falciparum nur eine Selektivität von 47%, MitoProtII nur eine Sensitivität von 35%. Dieser Ergebnisse haben die Entwicklung eines speziell auf P. falciparum trainierten Vorhersagemodells wünschenswert gemacht. Kerncodierte mitochondriale Precursorproteine aus P. falciparum wurden mit statistischen Methoden, Hauptkomponentenanalyse, selbstorganisierenden Karten und überwachten neuronalen Netzen analysiert und mit solchen aus anderen Organismen verglichen. Zwei Repräsentationen der Datensätze wurden gewählt, Aminosäurehäufigkeiten und 19 physikochemische Eigenschaften. Ein grundsätzlich unterschiedlicher Aminosäuregebrauch konnte festgestellt werden. Glycin, Alanin, Prolin und Arginin werden in P. falciparum mit weniger als 60% der Häufigkeit in der Swiss-Prot-Datenbank, Version 36, verwendet. Isoleucin, Tyrosin, Asparagin und Lysin werden hingegen mit mehr als 150% der Häufigkeit in der Referenzdatenbank verwendet. Diese Häufigkeitsmuster wurden, mit Variationen, auch in allen Targetingsequenzen beobachtet. In der Datenanalyse mittels Hauptkomponentenanalyse und selbstorganisierenden Karten ließen sich cytoplasmatische Proteine in beiden Repräsentationen klar von der Gruppe mitochondrialer, extrazellulärer und apicoplastischer Proteine trennen. Die Trennung innerhalb der zweiten Gruppe war weniger deutlich. Ein neuronales Netz (PlasMit) zur Vorhersage mitochondrialer Transitpeptide in P. falciparum wurde entwickelt. Basierend auf der relativen Aminosäurehäufigkeitsverteilung innerhalb der ersten 24 N-terminalen Aminosäuren lieferte es einen Mathews- Korrelationskoeffizienten von 0,74 (86% korrekt vorhergesagte Sequenzen) in einer 20fachen Kreuzvalidierung. Dieses Netz sagte 2449 (24%) der 10276 vorhergesagten Open Reading Frames aus dem Genom von P. falciparum als mögliche mitochondrial lokalisierte Proteine voraus. Ein Netz mit identischer Topologie wurde auf eine geringere Anzahl falsch-positiver Vorhersagen trainiert und erzielte einen Mathews-Koeffizienten von 0,51 (84% korrekte Vorhersagen) in einer 10fachen Kreuzvalidierung. Dieses Netz sagte 903 (8,8%) potentielle mitochondriale Precursorproteine unter den 10276 vorhergesagten Open Reading Frames voraus. Sämtliche Trainingsdatensätze, die Open Reading Frames des Genoms von P. falciparum, sowie das Netz, das den höchsten Mathews-Koeffizienten erzielt hat, sind per Web unter http://www.modlab.de, Menüpunkt PlasMit, erreichbar.
Gegenstand dieser Arbeit ist das Entropiegesetz und seine Bedeutung für die Umweltökonomie. Das Grundgesetz vom Niedergang , wie Schütze es genannt hat, trifft in seiner ursprünglichen Bedeutung Aussagen über die Umwandlung von verschiedenen Formen von Energie bzw. über ihre Nutzbarkeit u.a. für menschliche Belange. So ist zu erklären, daß die stärkste Beschäftigung der Ökonomen mit dem Entropiegesetz in der Folge der sog. Ölkrise und der Studie Grenzen des Wachstums stattfand, da zu dieser Zeit der Gedanke einer plötzlichen Erschöpfbarkeit der Energiequellen um so stärker in den Vordergrund drang, wie es in der Zeit davor normal erschien, daß sich der Energieverbrauch regelmäßig verdoppelte. Das Thema physikalische Grenzen des wirtschaftlichen Wachstums ist in der öffentlichen wie auch in der (wirtschafts-) wissenschaftlichen Diskussion durch aktuellere und akutere Probleme in den Hintergrund gedrängt worden und mit ihm auch der Begriff Entropie. Diese akuteren Probleme sind vor allem im Zusammenhang mit Stoffen zu sehen, die den Bereich des menschlichen Wirtschaftens verlassen. Die zunehmende Umweltverschmutzung stellt sich in den letzten Jahren als das vordringliche Problemfeld für die Umweltökonomie dar. Zu erinnern wäre hier beispielhaft einerseits an die Unfälle bei Sandoz in Basel und des Kernkraftwerks in Tschernobyl sowie die Havarie des Tankers Exxon Valdez in Alaska. Andererseits ist aber auch der Normalbetrieb mit Problematiken wie der u.a. durch FCKWs zunehmenden Zerstörung der Ozonschicht oder auch dem übermäßigen Auftreten von Ozon in Bodennähe im Zusammenhang mit dem photochemischen Smog verbunden...
Die vorliegende Diplomarbeit beschreibt den Aufbau und erste Anwendungen einer neuartigen Technik zur Manipulation von Fallenpotentialen für Bose-Einstein-Kondensate. Das Dipolpotential, das ein gegen die atomare Resonanz verstimmter Laserstrahl auf die Atome ausübt, wird hierzu genutzt. Es wurde eine Apparatur aufgebaut, mit der sehr schnelle räumliche Bewegung und gleichzeitige Intensitätsänderung von Laserstrahlen erzielt wird. Durch schnelles Scannen des Laserstrahls in x- und y-Richtung und gleichzeitige Modulation seiner Intensität werden beliebige zeitgemittelte Potentiale erzeugt. Diese Potentiale wurden sowohl als räumliche und/oder zeitliche Modifikation herkömmlicher Magnetfallenpotentiale als auch als eigenständige Fallen mit neuartiger Geometrie verwendet. Mit diesem Aufbau wurden Experimente an Bose-Einstein-Kondensaten durchgeführt, bei denen die große räumliche und zeitliche Auflösung genutzt wurden. Die Speicherung von Atomen in zeitgemittelten, rotverstimmten optischen Fallen verschiedener Geometrie wurde demonstriert und eine durch das Scannen hervorgerufene Aufheizung der Probe wurde gefunden und untersucht. Dies ist die erstmalige Speicherung von Bose- Einstein-Kondensaten in zeitgemittelten Dipolfallen, deren Gestalt im Prinzip frei wählbar ist. Außerdem wurden kollektive Anregungen eines Bose-Einstein-Kondensats in einer Magnetfalle untersucht, die durch zeitgemittelte optische Potentiale induziert wurden. Der Schwerpunkt dieser Untersuchung waren insbesondere Moden mit hohem Drehimpuls, die in rein magnetischen Fallenpotentialen zuvor nicht angeregt worden waren. Bisherige Limitation von Gleichstrommagnetfallen, in denen nur zylindersymmetrische Moden angeregt werden konnten, wurden durch die Verwendung zeitgemittelten optischen Potentialen zusätzlich zum Magnetfallenpotential umgangen. In einem dritten Experiment konnte der suprafluide Charakter eines Bose-Einstein-Kondensats studiert werden. Die kritische Geschwindigkeit für die Bewegung eines Fremdobjektes duch das Kondensat wurde erstmals gemessen. Als Fremdobjekt diente ein gegen die atomare Resonanz blauverstimmter Laserstrahl, der auf die Atome ein repulsives Potential ausübt.
Im Rahmen dieser Diplomarbeit wurde eine Methode entwickelt,im dreidimensionalen Raum den Strahlverlauf geladener Teilchen durch ein stationäres elektromagnetisches Feld unter Berücksichtigung der elektrischen Eigenfelder zu bestimmen. Weiterhin wurde gezeigt, wie sich die Genauigkeit der Bahnintegration durch Einführung verbesserter Feldinterpolationsmethoden und verschiedener Integrationsmethoden erhöhen läßt. Dabei zeigte sich, dass die Wahl einer geeigneten Methode zur Feldinterpolation wichtiger ist als die zur Bahnintegration. Die entwickelten Methoden wurden in einer (in der Sprache Java programmierten) Applikation umgesetzt und verwendet, um die Separation von Elektronen aus einem H - Ionenstrahl dreidimensional zu simulieren.
In dieser Arbeit wurde die Produktion geladener Kaonen in C+C und Si+Si- Kollisionen bei Strahlenergien von 40A und 158A GeV untersucht, die verwendeten Daten stammen vom CERN Experiment NA49. Die Kaonen wurden über den mittleren Energieverlust in den TPCs identifiziert, was die Messung der Phasenraumverteilung in einem großen Bereich möglich machte. Die Analyse basiert auf der dE/dx Auswertung aller NA49 TPCs (globale Analyse). Es wurde herausgefunden, dass bei den C+C und Si+Si Datensätzen die MTPC dE/dx Information unvollständig auf den DSTs gespeichert wurde. Da die Auflösung bei der Bestimmung des mittleren Energieverlusts beschränkt ist, ist die Teilchenidentifikation nur über statistische Methoden möglich. Im Kapitel 4 wird diese von Marco van Leeuwen mitentwickelte Methode beschrieben. Für die endgültigen Werte der Phasenraumverteilung der Teilchen müssen die identifizierten Kaonen noch auf Effekte korrigiert werden, die durch den Aufbau des Detektors und die verwendete Analysesoftware hervorgerufen werden. Die Korrekturen werden im Kapitel 5.4 beschrieben und angewandt, dies sind unter anderem geometrische Korrekturen, Akzeptanz und Zerfallskorrekturen. Die Ergebnisse bei 158A GeV wurden mit C.Höhnes Ergebnissen verglichen und stimmen im Rahmen der Fehler überein. Zur Übersicht wurden die Daten mit den anderen NA49-Daten zusammengefasst. Dabei ist zu erkennen dass die Verhältnisse < K+ > / < NW >, < K+ > / < + >, < K > / < NW > und < K > / < > im Bereich zwischen p+p und Si+Si schnell ansteigen und im weiterem Verlauf bis Pb+Pb kaum weiter ansteigen. Im Rahmen des Statistical Model of the Early Stage sind dies Anzeichen für einen Übergang in das Quark-Gluon-Plasma bei 40A GeV in Si+Si Kollisionen. Für eine Bestätigung dieser Vermutung sind jedoch weitere Messungen bei unterschiedlichen Energien und Systemen notwendig.
Eine nichtgeometrische Konstruktion der Spektren P(n) und multiplikative Automorphismen von K(n)
(1995)
Diese Arbeit beschäaftigt sich mit den Eigenschaften dynamischer Systeme, die in Form von autonomen Differentialgleichungen vorliegen. Genauer: Das Langzeitverhalten dieser dynamischen Systeme soll untersucht werden. Es läßtt sich beschreiben durch für das jeweilige System charakteristische Mengen, die attrahierenden Mengen und deren Einzugsbereiche. Attrahierende Mengen sind bezüglich eines dynamischen Systems invariante Mengen, die Trajektorien des dynamischen Systems, die in ihrer Umgebung starten, anziehen. Der Einzugsbereich einer attrahierenden Menge ist die Menge aller Punkte, die von der attrahierenden Menge angezogen werden. Betrachtet werden Systeme, die von einer Eingangsfunktion abhängen. Diese Eingangsfunktion kann je nach Zusammenhang eine Störung des dynamischen Systems oder eine Kontrolle desselben darstellen. Werden Störungen betrachtet, so sind Eigenschaften des dynamischen Systems, die für alle Eingangsfunktionen gelten, zu untersuchen. Diese werden in dieser Arbeit als starke Eigenschaften bezeichnet. Werden Kontrollen betrachtet, sind Eigenschaften des dynamischen Systems, die nur für mindestens eine Eingangsfunktion erfüllt sind, zu untersuchen. Sie werden hier als schwache Eigenschaften bezeichnet. Man betrachte beispielsweise einen Punkt, der zu einer invarianten Menge gehört. Zu jeder Eingangsfunktion gibt es eine zugehörige Trajektorie, die an diesem Punkt startet. Starke Invarianz bedeutet, daß keine dieser Trajektorien jemals die invariante Menge verläßt, schwache Invarianz, da mindestens eine dieser Trajektorien niemals die invariante Menge verläßt. Der Schwerpunkt dieser Arbeit liegt auf der Untersuchung der schwachen Einzugsbereiche. Sie lassen sich nur in Ausnahmefällen durch theoretische Überlegungen finden. Daher ist es von Nutzen, diese Mengen numerisch zu berechnen. Hier soll deshalb die benötigte Theorie bereitgestellt werden, um schwache Einzugsbereiche mit einem Unterteilungsalgorithmus anzunähern. Ein Unterteilungsalgorithmus dient allgemein dazu, innerhalb einer vorgegebenen Grundmenge eine Menge, die eine bestimmte Eigenschaft hat, zu finden. Die Idee eines solchen Algorithmus ist es einfach, die Grundmenge in "Zellen" zu unterteilen und für jede dieser Zellen zu prüfen, ob sie ganz, gar nicht oder teilweise zur gesuchten Menge gehört. Gehört eine Zelle nur teilweise zur gesuchten Menge, so wird sie weiter unterteilt und für die "Teilzellen" erneut entschieden, ob sie zur gesuchten Menge gehören. Für die Berechnung eines schwachen Einzugsbereiches bedeutet dies, daß für jede Zelle überprüft werden muß, ob es eine Kontrollfunktion gibt, mit deren Hilfe Trajektorien der betrachteten Differentialgleichung, die innerhalb der Zelle starten, in eine gegebene schwach attrahierende Menge (bzw. eine passend gewählte Umgebung dieser Menge) gesteuert werden können.
Die vorliegende Arbeit beschäftigt sich mit der Ermittlung des Preises von Optionen. Optionen sind spezielle Derivate, die wiederum Hull in seinem Buch definiert als: Ein Derivat ist ein Finanzinstrument, dessen Wert von einem anderen, einfacheren zu Grunde liegenden Finanzinstrument (underlying) abhängt . Ein underlying kann unter anderem auch eine Anleihe, eine Aktie oder der Umtauschkurs zweier Währungen sein....
In der vorliegenden Arbeit werden Aspekte autonomer und nichtautonomer dynamischer Systeme behandelt, wobei Attraktoren und verwandte Objekte eine wichtige Rolle spielen werden. Zunächst findet man in einem Kapitel über dynamische Systeme die Definition der grundlegenden Begriffe Attraktor, Repeller und Schiefproduktfluss, gefolgt von zwei hinreichenden Bedingungen für die Existenz von Attraktoren. Mit den Attraktoren und Repellern können dann im nächsten Kapitel Morsemengen eingeführt werden. Dadurch kann das Verhalten eines dynamischen Systems qualitativ beschrieben werden. Des weiteren wird auf die Bedeutung der Kettenrekurrenzmenge für die Morsemengen eingegangen. Im Kapitel über Kontrolltheorie wird, nach einer kurzen Einführung in dieses Gebiet, gezeigt, dass der dort definierte Lift einer Kettenkontrollmenge unter gewissen Voraussetzungen eine Morsemenge ist. Im letzten Kapitel geht es um Pullback-Attraktoren, die unter den angegebenen Bedingungen als Attraktoren für den Schiefproduktfluss interpretiert werden können.
In der vorliegenden Arbeit werden Stöße zwischen Alpha-Teilchen und Li-ähnlichen Ionen sowie Stöße zwischen vollständig ionisierten Projektilionen und dem Li-ähnlichen Ion N4+ untersucht. Hierzu wird die zeitabhängige Schrödinger-Gleichung unter Verwendung einer effektiven Einteilchenbeschreibung im Rahmen der nichtpertubativen Basis Generator Methode (BGM) gelöst.
Das größte Problem bei der Erstellung von MR-Anwendungen besteht darin, dass sie meistens durch Programmierung erstellt werden. Daher muss ein Autor spezielles Fachwissen über MR-Technologie und zumindest allgemeine Programmierkenntnisse mitbringen, um eine MR-Anwendung erstellen zu können. Dieser Erstellungsprozess soll mit Hilfe von MR-Autorensystemen, die derzeit auf dem Markt existieren und in der Forschung entwickelt werden, vereinfacht werden. Dies war ein Grund, warum diese Arbeit sich zum Ziel erklärte, zu überprüfen, inwieweit die Erstellung von MRAnwendungen durch Einsatz von MR-Autorensystemen vereinfacht wird. Ein weiteres Hauptziel war die Erstellung einer repräsentativen MR-Anwendung, die in dieser Arbeit als MR-Referenzanwendung bezeichnet wird. Sie sollte vor allem bei weiteren Entwicklungen als Vorlage dienen können und auf Basis von standardisierten Vorgehensmodellen, wie das Wasserfallmodell, erstellt werden. Ganz wichtig war es noch im Rahmen dieser Arbeit zu bestätigen, dass standardisierte Vorgehensmodelle auf MR-Anwendungen übertragbar sind. Um diese Ziele zu erreichen, sind in dieser Arbeit viele Schritte befolgt worden, die jeweils als Teilziele betrachtet werden können. Die MR-Referenzanwendung , die im Rahmen dieser Arbeit erstellt wurde, sollte mit Hilfe eines MR-Autorensystems umgesetzt werden. Um das richtige MRAutorensystem dafür auszusuchen, wurden im Rahmen einer Analyse fakultative und obligatorische Anforderungen an MR-Autorensysteme definiert, worin auch Funktionen identifiziert wurden, die ein solches System bereitstellen sollte. Das Anbieten einer Vorschau ist ein Beispiel für diese Funktionen, die bei der Erstellung von MR-Anwendungen eine essentielle Rolle spielen können. Die obligatorischen Anforderungen sind welche, die jedes Softwaresystem erfüllen soll, während die fakultativen das Ziel der Verbesserung von Autorensystemen verfolgen. Mit Hilfe der Analyse wurde ein Vergleich zwischen bekannten MR-Autorensystemen gezogen, dessen Ergebnis AMIRE als ein für die Ziele dieser Arbeit geeignetes MR-Autorensystem identifizierte. Für die MR-Referenzanwendung , die ähnliche Funktionen aufweisen sollte wie andere typische MR-Anwendungen wurden Funktionen, Anwendungsfälle und Design der Oberfläche spezifiziert. Diese Spezifikation wurde unabhängig von dem ausgesuchten Autorensystem durchgeführt, um darin analog zur Software-Technik das Augenmerk auf fachliche und nicht auf technische Aspekte zu legen. Um ans Ziel zu gelangen, wurde die MR-Referenzanwendung durch AMIRE realisiert, jedoch musste zuvor ihre Spezifikation auf dieses MR-Autorensystem überführt werden. Bei der Überführung wurde die Realisierung aus technischer Sicht betrachtet, das heißt es wurden verschiedene Vorbereitungen, wie die Auswahl der benötigten Komponenten, die Planung der Anwendungslogik und die Aufteilung der Anwendung in verschiedenen Zuständen, durchgeführt. Nach der gelungenen Realisierung und beispielhaften Dokumentation der MRReferenzanwendung konnte die Arbeit bewertet werden, worin die erzielten Resultate den Zielen der Arbeit gegenübergestellt wurden. Die Ergebnisse bestätigen, dass mit AMIRE die Entwicklung einer MR-Anwendung ohne Spezialwissen möglich ist und dass diese Arbeit alle ihrer Ziele innerhalb des festgelegten Zeitrahmens erreicht hat.
Das Ziel dieser Arbeit war die Entwicklung einer haptischen 3D-Benutzungsoberfläche für die Virtual-Glove-Box. Eine „Glove Box“ ist ein Apparat, in welchem chemische Versuche in abgeschlossener Atmosphäre durchgeführt werden können. Die „Virtual Glove Box“ setzt dieses Konzept für Virtual Reality Anwendungen um. Die Oberflächenelemente waren als wiederverwendbare Komponenten auszuführen. Die Bedienung erfolgt unter Einsatz zweier virtueller Hände mit an den Händen getragenen Exoskeletten zur Vermittlung des haptischen Feedbacks. Es enstand EASY, ein System zur einfachen und individuellen Gestaltung von Benutzungsberflächenelementen. Diese können in ein bereitgestelltes Framework einfügt und ohne Wissen über die zugrundeliegende Hardware benutzt werden. Die Entwicklung konnte nicht abgeschlossen werden, da die zur Verfügung stehenden Hardware-Komponenten nicht in Betrieb zu nehmen waren.
Diese Arbeit befasst sich mit der Zerlegung von Irrfahrten und Lévy Prozessen an ihrem Minimum. Bis auf rudimentäre Vorkenntnisse der höheren Stochastik und einige wenige aber wichtige Sätze stellt die Arbeit alle notwendigen Begriffe und Sätze zur Verfügung, die für das Verständnis und die Beweise benötigt werden. Diese bewusste Entscheidung zur Ausführlichkeit auch bei grundlegenden Dingen hat zwei Hintergründe: Zum einen bleibt die Arbeit damit auch für Leser mit geringen Vorkenntnissen interessant, und zum anderen entsteht so keine lange und unübersichtliche Kette von Verweisen und Zitaten, die das Verständnis des dargestellten Themas erschwert und die logischen Schlüsse nur noch von Spezialisten vollständig nachvollzogen werden können. Ein weiterer Nebeneffekt ist die Tatsache, dass Verwirrungen aufgrund unterschiedlicher Interpretationen eines Begriffs vermieden werden. Das weitere Vorwort teilt sich in zwei Abschnitte; zum einen in den Abschnitt der Irrfahrten und zum anderen in den Abschnitt der Lévy-Prozesse. Diese Einteilung spiegelt auch die Strukturierung der Arbeit selber wieder; ein Blick in das Inhaltsverzeichnis verrät, dass zuerst Irrfahrten und danach Lévy Prozesse behandelt werden.
In dieser Arbeit wurde die Produktion von Omega und Anti-Omega Hyperonen in zentralen Pb+Pb-Kollisionen bei 40 A GeV am CERN SPS mit dem NA49 Experiment untersucht. Der in dieser Arbeit verwendete Datensatz wurde während einer 4 wöchigen Strahlzeit 1999 aufgenommen. Dabei wurden 579446 Zentrale (7.2 % des totalen Wirkungsquerschnitts) Ereignisse, bei zwei verschiedenen Polarit aten (std+ und std-), aufgezeichnet. Die Omega Produktion bei 40 A GeV wird mit Messungen bei anderen Energien verglichen, um damit die Energieabhangigkeit der Omega Produktion zu untersuchen. Das Experiment NA49 erlaubt genaue Messungen in einem weiten Akzeptanzbereich. Man misst die Zerfallstochter des Omegas und die Zerfallstochter des Omegas mit hochauflösenden TPCs. Mehrfach seltsame Teilchen (Theta, Omega) werden durch ihre Zerfallstopologie identifiziert. Es wurden verschieden Qualitatskriterien verwendet, um den kombinatorischen Untergrund zu reduzieren. NA49 hat nur eine endliche geometrische Akzeptanz und kann deshalb nicht den ganzen Phasenraum abdecken. Außerdem wurden verschiedene Qualitatskriterien verwendet, um ein akzeptables Signal zu Untergrund Verhaltnis zu erhalten. Da es wegen der Akzeptanz und der Qualitatskriterien zu Verlusten kommt, muss man darauf korrigieren. Dies macht man mittels einer Simulation, in der man Omega Hyperonen simuliert. Die Omega Hyperonen werden uber drei Rapiditatseinheiten um den Bereich zentraler Rapiditat und mit Transversalimpulsen von 0.9 bis 2.4 GeV/c gemessen. Es wurde der Temperaturparameter des Omega Hyperons bei 40 A GeV bestimmt. Im Rahmen der Fehler ist der Temperaturparameter der 40 A GeV dem der 158 A GeV gleich. Betrachtet man den Temperaturparameter der Omegas als Funktion der Schwerpunktenergie, gibt es einen Anstieg des Temperaturparameters von SPS- zu RHIC-Energien. Es wurden jeweils die Multiplizitaten bei mittlerer Rapiditat für Omega und Anti-Omega bestimmt. Die Multiplizität vom Omega betragt 0.068 +- 0.020 (stat.) +- 0.019 (sys.) und vom Anti-Omega 0.027 +- 0.008 (stat.) +- 0.007 (sys.). Die Multiplizitaten bei mittlerer Rapiditat steigen für Omega und Anti-Omega mit der Schwerpunktenergie von SPS- zu RHIC-Energien. Die Ergebnisse stimmen mit den Messungen der NA57 Kollaboration überein. Bei 40 A GeV wurde erstmals eine Rapiditatsverteilung gemessen. Die daraus resultierende totale Multiplizitat fur Omega + Anti-Omega betragt 0.20 +- 0.03 (stat.) +- 0.04 (sys.). Mit steigender Schwerpunktenergie steigt die totale Multiplizität und die Rapiditätsverteilung wird breiter. Um den systematischen Fehler zu bestimmen, wurde eine Stabilität-Analyse des mt-Spektrums und der Rapiditatsverteilung durchgefuhrt. Der systematische Fehler der mt-Spektren betragt 18 % und der totalen Multiplizitat 21 %. Schaut man sich die Anregungsfunktion der Omega und Anti-Omega als Funktion der Schwerpunktenergie an, erkennt man, dass es eine leichte Energieabhängigkeit beim Anti-Omega / Pi-Minus ....
Die Arbeiten von Alexander Michailowitsch Lyapunov (1857-1918) waren der Anfangspunkt intensiver Erforschung des Stabilitätsverhaltens von Differentialgleichungen. In der vorliegenden Arbeit sollen Lyapunovfunktionen auf Zeitskalen in Bezug auf das Stabilitätsverhalten des homogenen linearen Systems x-delta = A(t)x untersucht werden.
Die Frage, ob das Klima extremer wird, beschäftigt Wissenschaft und Öffentlichkeit mit zunehmender Intensität. Daher ist hier eine extremwertstatistische Untersuchung hinsichtlich Niederschlag und Temperatur durchgeführt worden. Dabei werden, entsprechend IPCCEmpfehlungen, für die untersuchten Zeitreihen obere und untere Schwellenwerte festgelegt. Durch Auszählen kann dann ermittelt werden, wie oft die entsprechende Schranke über- oder unterschritten wurde (relativer Extremwert). Das Verhältnis der Anzahl der relativen Extremwerte zu den Gesamtwerten nennt man empirische Extremwerthäufigkeit. Darüber hinaus wurden Häufigkeitsverteilungen an die Datensätze angepasst, aus denen vorher der Jahresgang eliminiert wurde. Über diese Häufigkeitsverteilungen bestimmt man die theoretische Über- oder Unterschreitungswahrscheinlichkeit der jeweiligen Schranke, und vergleicht diese mit der empirischen. Diese Daten bieten auch die Möglichkeit, weitere wahrscheinlichkeitstheoretische Größen (Risiko, Wartezeitverteilung, Wiederkehrzeit) zu bestimmen. Das Verfahren wird auf 78 100-jährige Zeitreihen des Niederschlags und 10 100-jährige Zeitreihen der Temperatur in Deutschland angewendet. Dabei ist zu beachten, dass eine Übereinstimmung von empirischen und theoretischen Ergebnissen nur im statistischen Mittel zu erwarten ist. Die Untersuchungen zeigen, dass die ersten 10 bis 15 Jahre des letzten Jahrhunderts, sowohl bei den Niederschlägen als auch bei der Temperatur, nicht so extrem gewesen sind wie der Rest des Jahrhunderts. Bei den Niederschlagsdaten zeigt sich darüber hinaus um die Jahrhundertmitte ein etwa 10-jähriger Zeitraum mit hoher Niederschlagsvariabilität. Für die Abschätzung der Wahrscheinlichkeit des Überschreitens von Schranken bei Niederschlagsdaten ist die angepasste Gumbelverteilung am besten geeignet. Der Unterschied zu den anderen angepassten Verteilungen ist um so klarer, je höher die Schranke gewählt wird. Für die Abschätzung der Wahrscheinlichkeit des Unterschreitens von Schranken bei Temperaturdaten ist die angepasste Weibullverteilung am besten geeignet. Kein klares Bild ergibt sich bei den Kombinationen untere Schranke und Niederschlagsdaten sowie obere Schranke und Temperaturdaten. Die Abschätzung der Eintrittswahrscheinlichkeit und damit verbunden die Bestimmung der Wiederkehrzeit und des Risikos ist in allen Fällen um so besser, je geringer der Jahresgang der Variabilität der untersuchten Größe ist. Beim Trend der Wiederkehrzeit zeigt sich bei den Niederschlagsdaten und der unteren Schranke im äußersten Westen Deutschlands ein Rückgang trockener Ereignisse. Ansonsten erkennt man nur schwache Änderungen. Für obere Schranken zeigt sich im Westen Deutschlands ein Rückgang der Wiederkehrzeit, also ein Trend zu häufigeren extremen Niederschlägen, mit einem Maximum im östlichen Nordrhein-Westfalen. Im Osten dagegen ermittelt man einen Rückgang extremer Niederschläge und damit einen Trend zu trockenerer Witterung, am stärksten ausgeprägt im westlichen Erzgebirge. Für die Temperaturdaten zeigt sich in fast ganz Deutschland für untere Schranken ein Anstieg der Wiederkehrzeit. Extrem niedrige Temperaturen treten also tendenziell seltener auf. Die Ausnahme bilden hier nur, je nach zugrunde liegender Verteilung, der (äußerste) Norden und Osten Deutschlands. Die gleiche geographische Unterteilung, jedoch mit umgekehrtem Trend, zeigt sich bei den oberen Schranken. Extrem warme Ereignisse treten, mit Ausnahme des Nordostens, tendenziell häufiger auf. Die stärkste Zunahme im Trend der warmen Ereignisse zeigt sich dabei im Südwesten Deutschlands.
In dieser Arbeit wurde die transversale Flußgeschwindigkeit einer Schwerionenreaktion direkt bestimmt. Dazu modifizierte man den herkömmlichen Yano-Koonin-Podgoretskii Formalismus, der zur Bestimmung der longitudinalen Expansion bereits erfolgreich eingesetzt wurde. Die transversale Expansion wurde in verschiedenen kinematischen Bereichen bestimmt. Einzelne Quellabschnitte erreichen Geschwindigkeiten bis zu b = 0.8. Das entspricht den Werten, die man durch indirekte Verfahren für den transversalen Fluß bestimmte. In den Intervallen mittlerer longitudinaler Paarrapidität entspricht die Yano-Koonin-Podgoretskii Rapidität der mittleren Paarrapidität. Dieses Verhalten erwartet man von einer Quelle, die ein boostinvariantes Expansionsverhalten besitzt. Die HBT-Radien, die im Zuge der Analyse der Korrelationsfunktion bestimmt wurden, entsprechen in der Größenordnung denen, die bei der Untersuchung der longitudinalen Expansion bestimmt wurden. Lediglich der Parameter R0 zeigt ein abweichendes Verhalten, indem er für geringere Rapiditäten kleinere Werte annimmt, dieser Parameter ist jedoch mit einem großen Fehler belastet. Die Konsistenz des Formalismus bezüglich verschieden gewählter transversaler Richtungen wurde überprüft. Trotz erheblicher Unterschiede in den transversalen Rapiditätsverteilungen wurden in vier verschiedenen Richtungen vergleichbare Resultate gemessen. Um einen größeren Impulsbereich abzudecken wurden die Messungen in zwei verschiedenen Magnetfeldkonfigurationen durchgeführt, in den Bereichen wo die Parameter der Korrelationsfunktion im beiden bestimmt werden konnten, ergaben sich vergleichbare Werte.
In dieser Arbeit wurde die Pionenproduktion in C + C und Si + Si - Kollisionen bei 40A GeV und 158A GeV untersucht. Dazu wurden zwei vollkommen unterschiedliche Methoden, die dE/dx- Teilchenidentifizierung und die h- - Methode, bei der der Anteil von Nicht- Pionen simuliert wird, verwendet. Die Ergebnisse beider Methoden stimmen gut überein, die Differenz fließt in den systematischen Fehler ein. Für die Bestimmung der totalen Multiplizitäten und mittleren transversalen Massen wurde die h- - Methode aufgrund ihrer größeren Akzeptanz gewählt. Zusätzlich wurde für 40A GeV C + C eine zentralitätsabhängige Analyse der Pionenmultiplizitäten vorgenommen. Die Ergebnisse dieser Analyse sollten jedoch als vorläufig angesehen werden. Die Ergebnisse meiner Analyse wurden mit der von C. Höhne [14] bei 158A GeV verglichen, sie stimmen innerhalb der Fehler überein. Es wurden Modelle zur Simulation von Kollisionen (UrQMD, Venus) vorgestellt und angewandt, um die experimentellen Ergebnisse mit den Vorhersagen der Simulationen zu vergleichen. Ein weiteres Modell (Statistical Model of the Early Stage) wurde vorgestellt, welches die qualitative und anschauliche Interpretation der Daten erlaubt. Die Ergebnisse wurden als Energie- und Systemgrößenabhängigkeitsplots zusammen mit anderen NA49- Ergebnissen, Ergebnissen anderer Experimente und Simulationsvorhersagen gezeigt und diskutiert. Der Übergang von der Unterdrückung der Pionenproduktion in Pb+Pb - Kollisionen relativ zu p+p zu einer Erhöhung der Pionenproduktion bei niedrigen SPS-Energien wurde auch bei kleinen Systemen, C + C und Si + Si , beobachtet. Eine Interpretation der Pionenmultiplizitäten mit den Statistical Model of the Early Stage legt die Vermutung nahe, dass bereits bei 40A GeV C + C - Kollisionen Quark- Gluon- Plasma gebildet wird. Diese Vermutung muss allerdings durch die Betrachtung weiterer Observabler noch bestätigt werden.
Die konventionelle Extremwertstatistik die sich an der Über- bzw. Unterschreitungshäufigkeit bestimmter Schwellenwerte orientiert, beinhaltet den Nachteil, daß Änderungen der Parameter der Häufigkeitsverteilung die Extremwertwahrscheinlichkeit beeinflussen. So kann allein das Vorhandensein eines Trends für derartige Veränderungen verantwortlich sein. Die hier gewählte Methodik vermeidet diesen Nachteil, indem sie eine Zerlegung der betrachteten Zeitreihen in einen strukturierten und einen unstrukturierten Anteil durchführt. Dabei setzt sich der strukturierte Anteil aus einer Trend-, Saison- und glatten Komponente zusammen. Aus der Summe dieser in der Zeitreihe signifikant enthaltenen Komponenten läßt sich die Eintrittswahrscheinlichkeit von Extremwerten ableiten. Ähnliches gilt für den unstrukturierten Anteil insbesondere für die Varianz des Residuums. Das Residuum kann aber auch Werte enthalten, die nicht zu ihrer ansonsten angepaßten Häufigkeitsverteilung passen. Solche Werte werden als Extremereignisse bezeichnet und sind von den Extremwerten zu unterschieden. In der vorliegenden Arbeit werden nun, getrennt voneinander, durch Änderungen in den Parametern der Häufigkeitsverteilung hervorgerufene Variationen der Extremwertwahrscheinlichkeit als auch parameterunabhängige Extremereignisse der bodennahen Lufttemperatur betrachtet. Als Datenbasis dienten 41, wahrscheinlich homogene, europäische Stationszeitreihen von Monatsmitteltemperaturen, die den Zeitraum von 1871 bis 1990 abdecken. In den untersuchten Temperaturzeitreihen wurde an 37 von 41 Stationen ein positiver Trend detektiert, woraus ein Anstieg der Extremwertwahrscheinlichkeit mit der Zeit resultiert. Die glatten, niederfrequenten Schwingungen wirken sich in den meisten Fällen um 1890 und 1975 negativ und um 1871, 1940 und 1990 positiv auf die Extremwertwahrscheinlich keit aus. Desweiteren treten Änderungen in der Saisonfigur bezüglich der Amplitude und der Phasenlage auf. Detektierte Zunahmen in der Amplitude des Jahresgangs führen zu einer positiven Änderung der Extremwertwahrscheinlichkeit. Signifikante Änderungen in der Phasenlage der Saisonfigur erzeugen in den Anomaliezeitreihen einen saisonal unterschiedlichen Trend, dessen Amplitude, in den betrachteten Fällen, in der Größenordnung der Trendkomponente liegt. Saisonal unterschiedliche Trends beeinflussen saisonal unterschiedlich die Wahrscheinlichkeit für das Eintreten von Extremwerten. Die Residuen von fünf Temperaturzeitreihen weisen signifikante Varianzinstationaritäten auf, wobei in nur einem Fall die Varianz mit der Zeit zunimmt und somit einen Anstieg der Extremwertwahrscheinlichkeit erzeugt. Extremereignisse treten vorwiegend in Form besonders kalter Winter auf und können wahrscheinlich als Realisation eines Poisson-Prozesses interpretiert werden. Sie erscheinen zufällig über den Beobachtungszeitraum verteilt mit einer mittleren Wiederkehrzeit von mehr als 10 Jahren.
Zunächst wurde die Notwendigkeit von Schemaänderungen erläutert und verschiedene Ansätze aus der Literatur beschrieben, Schemaänderungen in laufenden Systeme so durchzuführen, dass eine möglichst einfache und automatisch stattfindende Konvertierung der betroffenen Datenobjekte erfolgen kann. Beim Vergleich erweist sich das Konzept der Schemaversionierung als die leistungsfähigste Lösung. Der Grundgedanke der Schemaversionierung ist, durch jede Schemaänderung eine neue Schemaversion zu erstellen, wobei die alte Schemaversion weiterhin benutzt werden kann. Die Datenobjekte liegen ebenfalls in mehreren Versionen vor und die Schemaänderung wird auf Objektebene nachempfunden, indem Datenänderungen propagiert, d.h. die Daten automatisch konvertiert werden. Für die Propagation werden die Beziehungen zwischen den Schemaversionen ausgenutzt. Mit dem Konzept der Schemaversionierung ist es möglich, mehrere Versionen eines Schemas parallel zu benutzen und nur die auf die Datenbank zugreifenden Applikationen anzupassen, die auch wirklich von der Schemaänderung betroffen sind. Diese Diplomarbeit ist Teil des COAST-Projekts, das die Schemaversionierung als Prototyp umsetzt. In COAST existierte vor dieser Diplomarbeit nur die Möglichkeit, einfache Schemaanderungen durchzuführen. Neu wurden komplexe Schemaanderungsoperationen eingeführt und das Konzept der Propagation entsprechend erweitert. Komplexe Schemaänderungen unterscheiden sich von einfachen Schemaänderungen dadurch, dass sie Attribute aus mehreren Quellklassen in einer Zielklasse (oder andersherum) vereinen können. Die bereits in kurz angeschnittenen Default-Konvertierungsfunktionen wurden genauer untersucht und konkret eingeführt. Es wurden mehrere typische Schemaänderungsoperationen vorgestellt und darauf untersucht, ob sie mit den bisherigen einfachen Schemaänderungsoperationen durchführbar waren oder ob dazu komplexe Schemaänderungsoperationen nötig sind. Außerdem wurde analysiert, ob das System für die entsprechenden Operationen automatisch sinnvolle Defaultkonvertierungsoperationen generieren kann oder ob ein Eingriff des Schemaentwicklers notwendig ist. Dazu wurden sie in eine von vier Kategorien eingeteilt, die aussagen, ob einfache oder komplexe Schemaänderungsoperationen nötig sind und ob sinnvolle Default-Konvertierungsfunktionen ohne Eingriff des Schemaentwicklers erzeugt werden können oder nicht. Zu jeder der aufgezahlten Schemaänderungsoperationen wurde die entsprechende vom System erzeugte Default-Konvertierungsfunktion aufgeführt und im Falle, dass sie der Schemaentwickler uberprüfen muss, angegeben, wo noch potenzieller Bedarf für manuelle Änderungen vorliegt. Die Auswirkungen der Einführung von komplexen Schemaänderungsoperationen auf die Propagation wurde im nächsten Kapitel analysiert und dabei festgestellt, dass das bisherige Konzept der Propagationskanten zwischen je zwei Objektversionen desselben Objekts nicht mehr ausreicht. Entsprechend wurde das neue Konzept von kombinierten Propagationskanten entwickelt, das Kanten zwischen mehr als nur zwei Objektversionen zulässt. Dazu wurden verschiedene Lösungsmöglichkeiten miteinander verglichen. Weiter wurden verschiedene Ansätze fur die Darstellung und Speicherung von Konvertierungsfunktionen vorgestellt und entschieden, die Konvertierungsfunktionen konkret in textueller Darstellung in den Propagationskanten zu speichern. Fur die Spezifizierung der gewünschten Konvertierungen bei der Propagation wurde eine Konvertierungssprache entwickelt und nach verschiedenen Gesichtspunkten konzipiert. Diese Gesichtspunkte umfassen sowohl den nötigen Funktionsumfang der Sprache wie auch entwurfstechnische Aspekte. Sämtliche Befehle der entwickelten Sprache wurden detailliert vorgestellt und abschließend die Sprache in BNF (Backus-Naur-Form) präsentiert. COAST ist inzwischen als Prototyp implementiert und wurde u.a. auf der CeBIT '99 vorgestellt (s. [Lau99b] und [LDHA99]). Nach einer Beschreibung der Funktionsweise und des Aufbaus von COAST und insbesondere des Propagationsmanagers wurden einige Implementierungsdetails vorgestellt und verschiedene Betrachtungen zur moglichen Optimierung beschrieben. Die Ziele der Diplomarbeit wurden damit erreicht: Die Schemaevolution kann mit den Vorzügen der Versionierung durchgeführt werden. Komplexe Schemaänderungen sind nun möglich und wurden ins Modell integriert. Die Propagation wurde entsprechend erweitert und eine Sprache zur Spezifikation der Propagation entwickelt.
Da die zu untersuchenden physikalischen Observablen des NA49-Exprimentsentscheidend von der Leistungsfähigkeit der Detektoren beeinflußt werden, ist es notwendig, deren Funktion systematisch zu untersuchen und zu überwachen. Im Rahmen dieser Arbeit wurden Methoden vorgestellt, die Genauigkeit der Spurrekonstruktion zuquantifizieren und gegebenenfalls durch die Korrektur systematischer Fehler zu verbessern. Das NA49-Lasersystem hat während dieser Strahlzeit seine Funktionalität bewiesen. Trotz erheblicher technischer Schwierigkeiten hat die Analyse der Laserdaten Resultate geliefert, die entscheidend zum Verständnis der Funktion der Detektoren beigetragen haben. Der Ausbau des NA49-Lasersystems zu einem vollständigen System, das die in der ursprünglichen Konzeption festgelegten Spezifikationen erfüllt, hat sich damit als möglich und wünschenswert erwiesen. Die Untersuchung von Ereignissen ohne Magnetfeld ist ein sehr exaktes Meßinstrument zur Rekonstruktion der Position der Detektorkomponenten. Der Vorteil gegenüber traditionellen Methoden ist, da der Prozeß der Ortsmessung die vollständige Analysekette des Experiments beinhaltet. Damit können nicht nur räumliche Effekte untersucht werden, sondern auch Fehlfunktionen der Ausleseelektronik und der Analysesoftware. Die mit dieser Methode gefundene scheinbare Verschiebung der Detektorhälften relativ zueinander um ca. 4mm ist konsistent mit Ergebnissen anderer Analysemethoden (z.B. der Laseranalyse). Die Ursache dieser Verschiebung konnte bis zur Fertigstellung dieser Arbeit noch nicht lokalisiert werden. Um eine endgültige Klärung dieses Problems sicherzustellen, müssen Spuren in dem Detektor erzeugt werden deren Position besser bekannt ist als die intrinsische Ortsauflösung des Detektors. Das NA49-Lasersystem sollte in der vollständigen Ausbaustufe in der Lage sein, diese Aufgabe zu erfüllen.
Im Rahmen der vorliegenden Arbeit wurde eine Apparatur zur Messung von Fotoströmen in Halbleitermaterialien aufgebaut und charakterisiert. Der Fotostrommeßplatz gestattet es, mit spektral hoher Auflösung Fotostromspektren mit sehr gutem Signal-zu-Rausch-Verhältnis aufzunehmen, wobei die Möglichkeit besteht, die Proben bei tiefen Temperaturen einem äußeren Magnetfeld bis 9T auszusetzen. Mit Hilfe einer elektrischen Kontaktierung auf der Probenvorder- bzw. -rückseite kann durch Anlegen einer Spannung ein variables, homogen über den intrinsischen Bereichen der Proben abfallendes, elektrisches Feld erzeugt werden. Mit Hilfe des Meßaufbaus wurden Fotostromspektren von GaAs/Al0,3Ga0,7As-Übergittern fur verschiedene elektrische und magnetische Felder aufgenommen. Unter Variation des elektrischen Feldes ohne ein zusätzliches Magnetfeld wird deutlich die sog. Wannier-Stark-Quantisierung beobachtet. Es lassen sich die vor einiger Zeit an der RWTH Aachen an identischen Probenstrukturenvorgenommenen Untersuchungen bestätigen bzw. reproduzieren. Die magnetfeldfreien Messungen dienen ferner der genauen Bestimmung des über dem Übergitter abfallenden elektrischen Feldes in Abhängigkeit von der an der Probe angeliegenden Vorspannung. Die Feldbestimmung erfordert dabei aufgrund des Einflusses der Coulomb-Wechselwirkung der Ladungstrager auf den Verlauf der Ubergange in Abhängigkeit vom elektrischen Feld eine gewisse Vorsicht. Messungen ohne Magnetfeld sind außerdem bei der Zuordnung der Übergange in den mit Magnetfeld gemessenen Fotostromspektren äußerst hilfreich. Im Rahmen dieser Arbeit wurden erstmals Fotostrommessungen an Halbleiterübergittern im magnetischen Feld durchgeführt, wobei der gleichzeitige Einfluß eines elektrischen und eines magnetischen Feldes untersucht wurde. Dazu wurde bei elektrischen Feldstärken im Wannier-Stark- sowie im Minibandbereich das äußere Magnetfeld bis 9T variiert. Im Magnetfeld zeigt sich eine deutliche Landau-Quantisierung. Die zu den Landau-Niveaus gehorenden exzitonischen Zustände der Wannier-Stark-Übergänge schieben mit steigendem Magnetfeld zu höheren Energien. In den gemessenen Spektren läßt sich eine Vielzahl von Übergangen ausmachen, die zu einem großen Teil den einzelnen Leichtloch- bzw. Schwerloch-Übergangen zugeordnet werden können. Modellrechnungen zeigen, daß man zu jedem Wannier-Stark-Übergang einen eigenen exzitonischen Landau-Facher erwarten kann, worauf es in den Messungen ebenfalls Hinweise gibt. Eine zweifelsfreie Identifikation von mutmaßlich im Magnetfeld drehimpulsaufgespaltenen Niveaus kann erst geleistet werden, wenn weitere Messungen bei definierter Polarisation des Anregungslichtes vorliegen. Aus den aufgenommenen Fotostromspektren der Übergitterproben lassen sich für spätere zeitaufgelöste Untersuchungen einige interessante Energiebereiche fur mögliche Anregungen von Quanteninterferenz-Phänomenen ableiten. Die aus den Spektren ermittelten Linienbreiten der Wannier-Stark-Übergange von 3-4 meV garantieren eine ausreichende Schmalbandigkeit für die Anregung von Bloch-Oszillationen. Die Linienbreiten sind, bis auf wenige Ausnahmen, unabhängig vom Magnetfeld, so daß keine signifikante Magnetfeldabhängigkeit der beispielsweise für Vier-Wellen-Misch-Experimente relevanten Dephasierungszeiten der Interband-Polarisation zu erwarten ist. Die Ergebnisse lassen allerdings keine Ruckschlüsse auf die Magnetfeldabhängigkeit von Intraband-Polarisationen zu.
QCD-Summenregeln mit Massen
(1993)
Um zu sehen, was im atomaren Bereich "die Welt im Innersten zusammenhält", werden seit fast einem Jahrhundert atomphysikalische Stoßexperimente durchgeführt. Es ist also möglich, durch den Beschuß von "Targetteilchen" mit "Projektilteilchen" Aussagen über verschiedene Größen in der atomaren Welt zu treffen. Hierbei werden nicht nur Eigenschaften wie der "Durchmesser" oder eine "Ladungsverteilung" eines Atoms untersuchbar, sondern - durch entsprechend geschickte Variation des Prinzips "Stoßexperiment" - auch Größen, die ein Laie niemals mit einem Stoß zwischen zwei Teilchen in Verbindung brächte. Moderne Experimente erlauben es inzwischen zum Beispiel, selektiv die Impulsverteilung einzelner Elektronen in Atomen und Molekülen sichtbar zu machen, indem diese durch Photonen entsprechender Energie aus dem zu untersuchenden Teilchen herausgerissen werden. Besagte Experimente stellen nicht nur hohe Anforderungen an die Nachweiseinheit, die den eigentlichen Prozeß sichtbar macht, sondern auch an das verwendete Target und das Projektil. Im Bereich der atomaren Grundlagenforschung bietet sich Helium als zu untersuchendes Objekt oftmals an. Um die Natur zu verstehen, ist es nötig, gemessene Größen mit einer Theorie, die den untersuchten Vorgang beschreiben soll, zu vergleichen. Im Bereich der theoretischen Physik kann bisher nur das Wasserstoffatom, das ein sog. "Zweikörperproblem" ist, ohne Näherungsverfahren vollständig beschrieben werden. Ein Heliumatom stellt also das "einfachste" atomare System dar, das als noch nicht "komplett verstanden" gilt. Genauso ist ein Heliumatom mit seinem Atomkern und seinen zwei Elektronen das erste "Mehrelektronensystem" im Periodensystem. Es können hier also im Vergleich zu Wasserstoff auch Korrelationseffekte zwischen Elektronen untersucht werden. Die gesamte Dynamik innerhalb des Atoms erhält einen anderen Charakter. Bisherige Experimente mit Helium innerhalb unserer Arbeitsgruppe haben allerdings eine prinzipielle Beschränkung: es ist im Allgemeinen sehr schwierig, den Spin der beteiligten Elektronen im Experiment nachzuweisen, so daß alle bisherigen Messungen immer die Einstellung der Elektronenspins nicht berücksichtigen. Es wird also über den Spin gemittelt gemessen. Ein Weg, dieses Problem zu umgehen, ist, neben einer wirklichen Messung des Spins, den Spin im Anfangszustand - also vor dem Streuexperiment - zu kennen. Dies geschieht in der vorliegenden Arbeit dadurch, daß Heliumatome in einem durch "Mikrostrukturelektroden" erzeugten Mikroplasma angeregt werden, und sich so die Spins ihrer beiden Elektronen zum Teil auch parallel zueinander einstellen. Während bisherige Ansätze das Prinzip verfolgen, die angeregten Heliumatome in Niederdruckplasmen bei einigen Millibar zu erzeugen, wird die Plasmaquelle in dieser Arbeit bei Drücken von bis zu einem Bar betrieben. Dadurch kann das Prinzip des "supersonic jets" ausgenutzt werden, so daß der hier erzeugte Atomstrahl eine interne Temperatur von einigen Millikelvin und eine mittlere Geschwindigkeit von 1000 m/s besitzt. Durch einen nur 10 cm langen Separationsmagneten werden die angeregten Zustände mit Spin (#; #) von den Zuständen mit Spin ("; ") und den nicht- angeregten Heliumatomen getrennt und in einem Fokuspunkt für ein Streuexperiment zur Verfügung gestellt. In der folgenden Arbeit wird also ein sehr kompakter Aufbau eines Gastargets aus angeregtem Helium mit polarisiertem Elektronenspin vorgestellt. Ein Target aus angeregtem Helium hat außerdem einen weiteren großen Vorteil gegenüber gewöhnlichen Heliumtargets. In der modernen experimentellen Physik werden oftmals Laser zur Manipulation von Atomen eingesetzt. So ist es möglich, durch gezielte Anregung eines Atoms mit einem Laser dieses zum Beispiel extrem zu kühlen. Hierzu müssen allerdings Anregungsniveaus im Atom zur Verfügung stehen, die mit den Wellenlängen heutiger Laser erreicht werden können. Das erste Anregungsniveau von Helium liegt jedoch mit 19.8 eV deutlich zu hoch. Der nächst höhere P-Zustand ist von diesem Niveau aber nur noch ca. 1.1 eV entfernt. Photonen dieser Energie können leicht mit Lasern erzeugt werden. Angeregtes Helium ist also durch Laser manipulierbar und liefert so zum Beipiel auch den Ausgangspunkt für die Bose-Einstein Kondensation von Helium.
Im Rahmen der vorliegenden Arbeit wird eine systematische Untersuchung von Feldabschirmungseffekten bei Photostrommessungen in Abhängigkeit der optischen Anregungsdichte an GaAs/AlGaAs{Halbleiterubergitterstrukturen vorgenommen. Diese Untersuchungen gestatten es, Kontaktierungsmethoden zu finden, um das elektrische Feld innerhalb der Übergitterstruktur definiert einzustellen. Diese Untersuchungen waren notwendig geworden, da sowohl erste zeitaufgelöste (z.B. die THz-Emission von Bloch-Oszillationen), wie auch verschiedene nicht zeitaufgelöste Messungen (z.B. differentielle Elektroreflexionsmessungen) nahelegten, daß in der Probe kein elektrisches Feld einzustellen war. Die Untersuchungen zur anregungsdichteabhangigen Feldabschirmung wurden in einem Photostromaufbau durchgeführt, bei dem die Anregungsdichte durch die Verwendung eines abstimmbaren CW-Ti:Saphir Laser gegenüber Aufbauten mit einer Kombination aus Lampe und Monochromator weiter gesteigert werden kann. Als Indikator für die Feldabschirmung dient die Herausbildung der Wannier-Stark-Leiter in den Photostromspektren. Zur Untersuchung der Feldabschirmung wurde zunächst die Probenpraparation verändert. Anschließend wurde die Anregungsdichte systematisch variiert und es wurden verschiedene Probenstrukturen untersucht, unter anderem zum Vergleich mit den hier pin-Übergitter Dioden auch eine häufig verwendete Schottky-Diode. Es wurden verschiedene präparative Variationen durchgeführt, um den Einfluß der dotierten Schichten zu klären. So wurde beispielsweise die p+-Schicht heruntergeätzt, oder auf die p+-Schicht eine zusätzliche metallische semitransparente Cr/Au-Schicht aufgedampft, sowie Proben mit verschiedenen Dotierungsmaterialien (Berylium und Kohlenstoff) untersucht. Alle betrachteten Proben zeigen bei niedrigen Anregungsdichten eine Aufspaltung in Wannier-Stark-Zustände. Die Absorptionslinien, die in den Spektren die Übergänge darstellen, werden dann bei steigender Anregungsdichte zunächst asymmetrisch, treten erst bei niedrigeren äußeren Vorspannungen auf und verschwinden schließlich für sehr hohe Dichten ganz. Eine Analyse der systematischen Untersuchungen für die verschiedenen Probentypen ergibt, daß sich höchstwahrscheinlich Ladungstrager in der p+-Schicht ansammeln und so das äußere elektrische Feld abschirmen. Zusätzlich zeigt im Vergleich der zwei Dotierungsmaterialien die mit Kohlenstoff dotierte Probe eine bei deutlich höheren Anregungsdichten einsetzende Abschirmung gegenüber der mit Berylium dotierten Probe. Die konsequente Umsetzung der gewonnenen Erfahrungen führt zu einem neuen Probendesign. Die Vermeidung p+-dotierter Schichten, wobei die Proben nur mit einer semitransparenten Cr/Au-Schicht bedampft werden, hat dazu geführt, daß es schließlich möglich war, die kohärente Emission von Bloch-Oszillationen unter 45 ° zu messen. Weiterhin war es auch möglich, erste Messungen zur kohärenten Detektion der direkten Emission von Bloch-Oszillationen in einem Magnetfeld zu realisieren, diese Messungen werden daher nur kurz dargestellt. Je nach Feldstarke des elektrischen und des magnetischen Feldes wird die Emission der Bloch-Oszillationen durch die magnetische oder elektrische Quantisierung dominiert. In Vorbereitung auf zeitaufgelöste Messungen wurde im Rahmen dieser Arbeit zusätzlich auch ein neuer dichroitischer Strahlteiler verwendet und charakterisiert. Ein Indium-Zinn-Oxid-Film auf einem Glassubstrat ist im optischen Frequenzbereich transparent, besitzt aber im niedrigen THz-Frequenzbereich (0 bis 2.5 THz) eine relative Reflexion von 90% bis 80% und eine relative Transmission von konstant etwa 10% und kann somit als Alternative zu dem sonst häufig verwendeten Folien-Strahlteiler verwendet werden. Der komplexe Brechungsindex ñ kann numerisch aus den Reflexions- bzw. Transmissionsdaten bestimmt werden.
Im Rahmen dieser Arbeit wurde ein Verfahren zur Messung der Absorption der TM0-Mode im atmosphärischen Wellenleiter entwickelt, das auf der Bestimmung des Amplitudenabfalls von durch Blitze generierten ELF-Impulsen beruht. Eine Anwendung des Verfahrens setzt die simultane Messungen der ELF-Impulse an verschiedenen Stationen voraus. Im Sommer 1998 wurde im Rahmen der Spritekampagne'98 ein geeigneter Datensatz an drei Stationen im Westen Nordamerikas gewonnen. Bislang wurde ein Teil dieses Datensatzes herangezogen, um das Messverfahren zu testen und mit Ergebnissen aus einer anderen Quelle zu vergleichen. Diese Tests waren erfolgreich und die Ergebnisse von Hughes und Gallenberger [10] konnten reproduziert werden. Die Stationen wurden mit Induktionsspulen-Magnetometern vom Typ Metronix MFS05 im HF-Modus betrieben. Die für die Instrumentenkorrektur erforderlichen Übertragungsfunktionen der Magnetometer waren vorab nur für den LF-Modus mit Vertrauen erweckender Sicherheit bekannt. Dies machte eine Nachkalibrierung der Magnetometer erforderlich, bei der zunächst versucht wurde, die bekannte LF-Übertragungsfunktion zu reproduzieren. Dazu wurde die Einspeisung einer Rechteckschwingung in den Kalibriereingang des MFS05-Magnetometers verwendet. Bei 5 von 6 verwendeten Magnetometern ließ sich die Übertragungsfunktion für den LF-Modus reproduzieren. Bei einem traten jedoch deutliche Abweichungen auf, die sich auch bei anderen Messungen reproduzieren ließen. Die Übertragungsfunktion des Magnetometers hat sich also seit der letzten Kalibrierung durch den Hersteller verändert. Erst durch diese Nachkalibrierung ist es möglich geworden, diese Veränderung in Instrumentenkorrekturen einzubringen. Nachdem im LF-Modus gezeigt war, dass die verwendete Kalibrierungsmethode funktioniert wurde sie auch für den HF-Modus angewandt. Neben der Kalibrierung durch Einspeisung eines synthetischen Signals wurden auch Kalibrierungen unter Ausnutzung der natürlichen Anregung durchgeführt. Diese dienten in erster Linie einem Vergleich verschiedener Messgeräte: Den beiden Datenloggern SPAM MkIII und Quanterra QT4120 sowie den bei- den Magnetometern Metronix MFS05 und EMI BF-4. Der QT4120-Datenlogger wurde ursprünglich nicht zum Anschluss von Magnetometern konzipiert und benötigte dazu eine separate Adaptereinheit. Eine solche Adaptereinheit (kurz "Adapterbox") wurde im Rahmen dieser Arbeit konzipiert und gemeinsam mit der am Institut angestellten Elektronikerin Vera Fischer implementiert. Die Messergebnisse der Kalibrierungen mit natürlicher Anregung wurden so gedeutet, dass der SPAM MkIII-Datenlogger und das MFS05-Magnetometer gegenüber dem Quanterra QT4120-Datenlogger und dem EMI BF-4-Magnetometer einen geringeren Rauschpegel im ELF-Bereich aufweisen. Dies muss nicht für Frequenzen unterhalb des ELF-Bereichs gelten - dort wurden keine Untersuchungen angestellt.
Diese Arbeit entstand im Zusammenhang mit dem Funneling-Experiment am Institut für Angewandte Physik. Dieses Experiment soll die praktische Umsetzung des für das HIDIF-Projekt benötigte Funneln zur Ionenstrom-Erhöhung demonstrieren. Dabei stand die Erzeugung zweier identischer Ionenstrahlen mit einer Energie von 4 keV im Vordergrund. Diese Ionenstrahlen werden in zwei aufeinander zulaufenden RFQ-Beschleunigern auf eine Energie von 160 keV beschleunigt. Der noch in Planung stehende Funneling-Deflektor bringt die beiden Ionenstrahlen auf eine gemeinsame Strahlachse. Zu Beginn der Diplomarbeit stand der Umbau der Emittanzmeßanlage auf eine PC-Plattform. Gleichzeitig wurde ein sogenannter Quellenturm zum Betrieb der Ionenquellen aufgebaut (vgl. Kapitel 7.2). Die Multicusp-Ionenquellen wurden von K. N. Leung vom Lawrence Berkeley National Laboratory (LBNL) entwickelt und gebaut. Das elektrostatische Linsensystem wurde von R. Keller (LBNL) entworfen und berechnet. Die beiden Linsensysteme wurden in unserer Werkstatt gefertigt. Der erste Teil des Testbetriebs der Injektionssysteme, bestehend aus der Multicusp- Ionenquelle sowie dem elektrostatischen Linsensystem auch LEBT (Low Energy Beam Transport) genannt, bestand aus der Messung des Strahlstromes sowie der zugehörigen Emittanz. Zum Messen des Strahlstromes stand eine durch Preßluft in den Ionenstrahl fahrbare Faradaytasse zur Verfügung. Von dieser Faradaytasse wurde eine Kennlinie zur Bestimmung der Spannung der Sekundärelektronen- unterdrückung aufgenommen (vgl. Kapitel 8.1). Zur Messung der Strahlemittanz wurde eine Emittanzmessung nach dem Schlitz-Gitter Prinzip vorgenommen (vgl. Kapitel 5, Kapitel 7.7-7.9). Beim Betreiben der Injektionssysteme stand vor allem der Synchronbetrieb im Vordergrund. Dabei wurde festgestellt, daß eine der beiden Ionenquellen auch ohne Linsensystem einen größeren Strahlstrom liefert (vgl. Kapitel 8.9). Der Unterschied zwischen den Ionenquellen beträgt bei einem Bogenstrom von 6 A über 20 %. Dies bedeutet für den späteren Strahlbetrieb am RFQ, daß zum Erzeugen gleicher Strahlströme eine Ionenquelle immer mit einem kleineren Bogenstrom betrieben werden muß. Die dadurch unterschiedlichen Plasmadichten sowie thermischen Belastungen der Plasmakammer und unterschiedlichen Füllgrade der elektrostatischen Linsen tragen zu den festgestellten Emittanzunterschieden bei. Zum späteren Vergleich der Injektionssysteme wurde ein Injektionssystem durch verschiedene Bogenströme, variierte Spannungen an den elektrostatischen Linsen sowie unterschiedlichen Gasdrücken in der Plasmakammer ausgemessen. Diese Messungen wurden nach Wechseln der Glühkathode sowie Demontage und Neumontage von Ionenquelle und Linsensystem wiederholt. Dabei wurde festgestellt, daß sich der Strahlstrom bei der Vergleichsmessung kaum, die Emittanz der Injektionssysteme aber bis ca. 10% ändert (vgl. Kapitel 8.5). Diese Unterschiede müssen bei dem späteren Vergleich mit dem zweiten Injektionssystem einbezogen werden.Beim Betrieb des zweiten Injektionssystems wurden im direkten Vergleich der Injektionssysteme Unterschiede zwischen dem Strahlstrom sowie der Emittanz festgestellt. Auch hier lieferte das zweite Injektionssystem den schon nach der Ionenquelle festgestellten größeren Ionenstrom. Die gemessenen normierten 90 % RMS-Emittanzen bei einem Strahlstrom von 1 mA betragen am Injektionssystem 1 , beim Injektionssystem 2 , bei einer e1 =0,0288 mm mrad e2 =0,0216 mm mrad Strahlenergie von 4 keV. Die Emittanzunterschiede betragen bis zu 30 %. Im Betrieb mit dem RFQ können die Linsensysteme nicht mit den identischen Spannungen betrieben werden. Dies ist zum einen auf die fertigungsbedingten Unterschiede zurückzuführen, zum anderen auf die abweichenden Plasmadichten zum Erreichen gleicher Strahlströme. Im geplanten HIDIF-Projekt sollen 48 Ionenquellen drei unterschiedliche Teilchenströme erzeugen. Bei dieser Anzahl an Ionenquellen für drei unterschiedliche Ionensorten wird das Erzeugen identischer Teilchenströme sicher noch schwerer zu bewältigen sein. Am Funneling-Experiment ist der Vergleich der beiden Injektionssysteme abgeschlossen. Der Doppelstrahl RFQ-Beschleuniger ist aufgebaut, es wurde bereits ein Ionenstrahl in den RFQ eingeschossen (vgl. Kapitel 8.13). Die normierten 90 % RMS-Emittanzen nach dem RFQ betragen 0,057 mm mrad sowie 0,0625 mm mrad für die beiden Strahlachsen. Der Emittanzunterschied ist kleiner 9 %. Die Emittanzen nach dem RFQ können nicht direkt mit den im Testbetrieb gemessenen Emittanzen der Injektionssysteme verglichen werden. Im Strahlbetrieb mit dem RFQ wurde eine Strahlenergie der Injektionssysteme von 4,15 keV benötigt. Außerdem mußten durch geänderte Einschußbedingungen in den RFQ die Linsenspannungen gegenüber dem Testbetrieb variiert werden. Mit dem Aufbau des Funneling-Deflektors wird zur Zeit begonnen. Nach der Erprobung wird der Einbau in die Strahlachse erfolgen.
In dieser Arbeit wurden Untersuchungen zur Einstellung und Analyse des Sauerstoffgehalts an YBa2Cu3O6+x-Dünnfilmen durchgeführt. Zur Analyse des Sauerstoffgehalts wurde ein optisches Verfahren angewendet. Durch Messung der Transmission un der Reflektion in einem Spektralbereich von 2000nm bis 3000nm wird mit Hilfe des im Rahmen dieser Arbeit erstellten Markov-Modells die optische Leitfähigkeit bestimmt. Aus den gewonnen Werten der optischen Leitfähigkeit kann so auf den Sauerstoffgehalt in YBa2Cu3O6+x geschlossen werden.
Es wurde eine Meßstation zum Vermessen von THz-Photomischern vorgestellt und aufgebaut. Weiterhin konnte gezeigt werden, wie diese Station es ermöglicht, das Vermessen von THz-Photomischern, im Vergleich zum bisher verwendeten Meßaufbau, deutlich zu vereinfachen und zu beschleunigen. Mit dieser Station wurden zwei Proben, die sich in der Dicke der LT-GaAs-Schicht unterscheiden, vermessen. Um die gemessenen Daten analysieren zu können wurden zuvor beschrieben, wie eine Modulation des Photostroms in Photomischern erhalten und damit THz-Strahlung erzeugt werden kann. Gemessen wurde die THz-Leistung in Abhängigkeit von Frequenz , Vorspannung und Leistung der optischen Beleuchtung. Diese Messungen haben zu Ergebnissen geführt, die nur zum Teil mit den theoretisch vorhergesagten Ergebnissen übereinstimmen. So wurde festgestellt, daß nur etwa 1 bis 2 % der theoretisch erwarteten THz-Leistung detektiert wurde. Dies kann an langlebigen Ladungsträgern liegen, die im Substrat erzeugt werden. Diese Ladungsträger unterhalb der LT-GaAs-Schicht führen zu einer erhöhten Leitfähigkeit und können dadurch Reflexion und Absorption von THz-Strahlung verursachen. Diese Vermutung wird unterstützt durch die Beobachtung einer starken Reduktion des Signals in einem gepulsten THz-System, wenn eine konstante Hintergrundbeleuchtung eingeschaltet wird.[45] Weiterhin ist nicht auszuschließen, daß die für die THz-Erzeugung relevante Lebenszeit der Ladungsträger deutlich größer ist, als die mit Anrege-Abfrage-Messungen bestimmte. Analog könnte auch eine deutlich höhere Kapazität des Photomischers als die theoretisch berechnete diese Beobachtung erklären. Ob langlebige Ladungsträger im Substrat für die geringe gemessen Leistung verantwortlich sind kann überprüft werden, indem zwischen Substrat und LT-GaAs-Schicht einen Bragg-Refelektor gewachsen wird. So kann verhindert werden, daß eingestrahlte Leistung das Substrat erreicht. Dadurch können keine Ladungsträger im Substrat angeregt werden. Zusätzlich hat dies den Effekt, daß ein größerer Anteil der eingestrahlten Strahlung absorbiert werden kann, weil die einfallende Strahlung wegen der Reflexion zweimal durch die LT-GaAs-Schicht läuft. Ein solcher Mischer wurde bereits von E. R. Brown vorgeschlagen.[46] Bei den Messungen der THz-Leistung gegen Vorspannung konnte beobachtet werden, daß der Photostrom eine andere Abhängigkeit von der Vorspannung zeigt, als theoretisch vorhergesagt wurde. Erwartet wurde ein linearer Zusammenhang. Bei höheren Vorspannungen wurde aber ein stärkerer Anstieg beobachtet. Dies kann z.B. an einem zusätzlichen nichtlinearen Strom durch das Substrat oder an einer vom elektrischen Feld abhängigen Lebenszeit der Ladungsträger liegen. Für beide Erklärungsansätze wurden vereinfachte Modelle vorgestellt. Beide Modelle treffen dabei unterschiedliche Vorhersagen über die Änderung der Effizienz beim Auftreten des höheren Stromes. Deutlich werden die Unterschiede in den Vorhersagen im Frequenzverlauf. So führt ein zusätzlicher Strom durch das Substrat zu einer Verringerung der Effizienz um einen von der Frequenz unabhängigen konstanten Faktor. Der Frequenzverlauf verschiebt sich also zu geringeren Effizienzen. Eine Erhöhung der Lebenszeit hingegen führt zu einem geänderten Frequenzverlauf. So ist die Änderung der Effiienz bei niedirgen Frequenzen gering, zu höheren Frequenzen hin ändert sich die Effizienz jedoch immer stärker. Die Vorhersagen beider Modelle wurden mit dem gemessenen Daten verglichen. Bei den gegebenen Parametern war der Unterschied zwischen den beiden Modellen jedoch zu gering und die Fluktuation in den Meßdaten zu hoch, um entscheiden zu können, welches der beiden Modelle die gemessenen Daten besser beschreibt. Um erkennen zu können, welches der Modelle den Effekt beschreibt, der zu einem höheren Strom führt, müßte der Effekt in den Meßdaten erhöht werden. Dies kann geschehen, indem zusätzlich bei höheren Spannungen gemessen wird. Es müßte dabei allerdings die optische Leistung reduziert werden, um ein Zerstören der Mischer zu vermeiden. In dieser Arbeit konnte somit gezeigt werden, daß die aufgebaute Meßstation ein vereinfachtes Messen von THz-Photomischern ermöglicht. Weiterhin konnte das Verhalten von zwei vermessenen Mischern gezeigt und analysiert werden, sowie weitere Messungen vorgeschlagen werden, die eine exaktere Analyse der Photomischer ermöglichen sollten.
Die wissenschaftliche Recherche im Internet gestaltet sich als sehr schwierig, will man relevante Informationen schnell finden. Das Problem ist nicht der Mangel an Informationen sondern vielmehr das Übermaß davon. Außer der Quantität ist es für ein Mitglied einer Hochschule wichtig auf, von der Universität lizenzierte Webseiten zugreifen zu können. Aus einem Suchwerkzeug, wie zum Beispiel Google, kann ein Informationsanbieter nicht erkennen ob der dahinter stehende Benutzer berechtigt ist einen Artikel anzufordern. Ein anderer Aspekt worauf ein Wissenschaftler bei seiner Suche Wert legt, ist die Qualität eines Artikels. Am besten eignen sich hier wissenschaftliche Artikel aus renommierten und angesehenen Zeitschriften. Aus diesem Hintergrund heraus haben sich Informationsanbieter Gedanken gemacht wie man qualitativ hochwertige Artikel schnell in einer Recherche einbinden kann. Die Module, die Entwickelt wurden bilden die Basis für die Software die diese Entwicklungen zusammenfügt und miteinander harmonieren lässt. Für die Identifikation von elektronischen Dokumenten wurde unter anderem der DOI (Digital Object Identifier) entwickelt. Außerdem wichtig für unsere endgültige Software ist der OpenURL Standard. Damit werden die meisten Probleme die bei der mit einer herkömmlichen URL bestehen gelöst. Mit diesem Standard wird anhand von Metadaten eine eindeutige Identifikation eines Dokumentes vorgenommen die zu einem Dokument verlinkt, auch wenn sich seine eigentliche URL geändert hat. Die Diplomarbeit zeigt uns einen Überblick über diese Module. Dieser Lösungsweg führt uns zu einer Technologie die angewandt wird um unser Ausgangsproblem zu lösen. In dieser Software sind, anhand eindeutiger Identifikation, wissenschaftliche Dokumente und Artikel permanent abrufbar ohne der Gefahr einen Artikel durch Änderung seiner URL zu verlieren.
Abschließend sollen hier die wichtigsten, neuen Ergebnisse herausgestellt und ein Ausblick auf mögliche zukünftige Studien gegeben werden. In dieser Arbeit wurden vorwiegend Schwerionenkollisionen bei Einschußenergien zwischen ungefähr 40 MeV/Nukleon und 400 MeV/Nukleon mit dem Quantenmolekulardynamik-Modell untersucht. Ein Schwerpunkt war hierbei die Beschreibung der Umkehr des kollektiven, transversalen Seitwärtsflusses in der Reaktionsebene. Der negative Seitwärtsfluß, der bei niedrigen Energien der Größenordnung kleiner als 100 MeV/Nukleon durch die attraktiven Wechselwirkungen verursacht wird, verschwindet bei Steigerung der Einschußenergie bei der Balance-Energie E-bal. einsetzt. Oberhalb dieser dominieren die repulsiven Wechselwirkungen, so daß positiver transversaler Fluß einsetzt. Sowohl die negativen Flußwinkel als auch der Übergang hin zu positiven Flußwinkeln konnte fur eine große Anzahl verschiedener Energien und Stoßparameter mit unterschiedlichen Zustandsgleichungen für die Systeme 40-20-Ca + 40-20-Ca und 197-79 Au + 197-79 Au mit dem Quantenmolekulardynamik-Modell beschrieben werden. Ziel muß es bleiben, die verschiedenen, grundlegenden physikalischenWechselwirkungen eindeutig und unabhängig voneinander zu bestimmen. Ein erfolgversprechender Weg sind die hier vorgestellten Methoden und die Hinweise zur ad quaten Interpretation experimenteller Ergebnisse. Die Abhängigkeit der Balance-Energien von der Masse des betrachteten Systems ist sehr sensitiv auf den Nukleon-Nukleon Wirkungsquerschnitt im Medium. Hier wurde systematisch gezeigt, daß die Balance-Energien stark vom Stoßparameter abhängen. Die Zunahme der Balance-Energie mit dem Stoßparameter ist ungefähr linear. Für das System Ca+Ca kann sich die Balance-Energie beim Übergang von zentraleren zu mittleren Stoßparametern mehr als verdoppeln. Daher ist für die Interpretation der gemessenen Balance-Energien in bezug auf eine Modifikation des nukleo- nischen Wirkungsquerschnitts im Medium oder der Zustandsgleichung eine genaue Kenntnis des Stoßparameters von größter Wichtigkeit. Vorläufige experimentelle Analysen scheinen die vorhergesagte Stoßparameterabhängigkeit sehr gut zu bestätigen [Wes 95]. Weiterhin hat sich herauskristallisiert, daß bei der Berücksichtigung impulsabhängiger Wechselwirkungen die Balance-Energien bei größeren Stoßparametern signifikant kleiner sind als für den Fall der Nichtberücksichtung. Daher konnten experimentelle Bestimmungen der Balance- Energien bei größeren Stoßparametern signifikante Hinweise auf die tatsächliche Bedeutung der impulsabhängigen Wechselwirkungen in diesem Energiebereich geben. Es wurde gezeigt, daß für schwere Systeme wie Au+Au die langreichweitige internukleare Coulomb-Wechselwirkung vor dem Kontakt der Kerne im Energiebereich der Balance-Energien nicht vernachlässigt werden darf. Die hervorgerufene Repulsion bewirkt eine Drehung des Systems. Während in diesem gedrehten System dynamischer negativer Fluß beobachtbar ist, ist er es nicht im Laborsystem. Die im gedrehten Kontaktbezugssystem bestimmten Balance- Energien fur Au+Au sind erwartungsgemäß kleiner als für Ca+Ca und nehmen mit wachsendem Stoßparameter zu. Ein neuartiger Zwei-Komponenten-Fluß konnte in semiperipheren Kollisionen von Ca+Ca be- schrieben und analysiert werden. Dabei wird in einem Ereignis in verschiedenen Rapiditätsbereichen gleichzeitig positiver und negativer transversaler Fluß möglich. Die wenig komprimierte Spektatorenmaterie, die vermehrt aus schwereren Fragmenten besteht, zeigt negativen Fluß bei großen Rapiditäten, wohingegen dieKompressionszone in Form von einzelnen Nukleonen positiven transversalen Fluß zeigt. Aufgrund der großen Sensitivität gegenüber den Systemparametern und der Zustandsgleichung lohnt es sich, diesen Effekt experimentell zu untersuchen. Beim Studium azimuthaler Verteilungen wurde deutlich, daß auch in den Balance-Punkten noch kollektiver Fluß in Form von azimuthaler Asymmetrie vorliegt. Im Gegensatz zur bekannten hochenergetischen Bevorzugung der Emissionswinkel senkrecht zur Reaktionsebene für Teilchen aus der Wechselwirkungszone wurde hier die bei kleineren Energien preferentielle Emission in die Reaktionsebene aufgezeigt. Diese nimmt mit der Teilchenmasse und dem Stoßparameter zu. Das systematische Studium der Anregungsfunktion dieser azimuthalen Asymmetrie könnte durch die Übergangsenergien, die durch den Wechsel von der preferentiellen Emission in die Reaktionsebene zu der Bevorzugung der Winkel senkrecht zur Reaktionsebene definiert sind, wertvolle, ergänzende Information zu den Balance-Energien liefern.
Die im Rahmen dieser Diplomarbeit entwickelte sehr einfach und kompakt aufgebaute Mikro-Ionenquelle basiert auf einer Mikro-Struktur-Elektrode (MSE). Mit dieser lässt sich bei einer Betriebsspannung von wenigen 100 Volt eine stabile Hochdruck-Glimmentladung erzeugen. Das Betriebsgas durchströmt die MSE-Pore und expandiert anschließend adiabatisch ins Vakuum, wobei die interne Temperatur des Strahls herabgesetzt wird. Der Vordruck des Gases kann bei dem vorhandenen Aufbau zwischen wenigen 100 hPa und etwa 0,5 MPa liegen. Mit einem ähnlichen Aufbau, jedoch mit deutlich größerer Saugleistung der Vakuumpumpen, konnte selbst bei Vordrücken über 3 MPa noch eine Entladung mit gleichen Eigenschaften betrieben werden. Es wurde gezeigt, dass Ionen durch Diffusion sowie die starke Gasströmung in der MSE-Pore aus dem Plasma extrahiert werden. Eine zusätzliche Beschleunigungsspannung zeigt einen deutlichen Einfluss auf die Formierung eines Ionenstrahls. Es kann ein schmaler Strahl mit maximal einigen mm Durchmesser erzeugt werden. Die Mikroentladung lässt sich mit zahlreichen Gasen betreiben. Erfolgreich getestet wurden Helium, Neon, Argon, Stickstoff und normale Luft sowie Mischungen davon. Auch eine Beimischung von Wasserstoff ist möglich und eröffnet die Erzeugung beispielsweise von molekularen HeH+-Ionen. Zur Extraktion der Ionen kann eine Beschleunigungsspannung von bis zu 5 kV angelegt werden. Der Ionenstrahl wird über ein differenzielles Pumpsystem durch einen Skimmer ins Hochvakuum überführt und dort analysiert. Es entstehen sowohl einfach als auch doppelt geladene Ionen. Bei einem Entladestrom von wenigen mA lässt sich ein Strom von bis zu 3 mA (ohne Sekundärelektronen-Unterdrückung) auf dem Skimmer messen. Die Stromdichte des Strahls ist jedoch zu hoch, um mit der verwendeten einfachen Diodenextraktion den gesamten Strom durch den Skimmer zu transportieren. Nur ein Anteil von ca. 1/50 bis 1/30 des gesamten Ionenstroms kann den Skimmer passieren. Hinter dem Skimmer liegt der Strom zwischen einigen 100 nA und einigen 10 µA. Durch Optimierung der Extraktionsgeometrie sollte hier eine deutliche Erhöhung erreicht werden. Im normalen Betrieb wird mit einem Entladestrom von 1-2 mA gearbeitet. Zum einen ist hier bereits, wie eben erwähnt, die maximale Stromdichte erreicht, die durch den Skimmer transportiert werden kann. Zudem sinkt mit steigendem Strom die Haltbarkeit der MSE-Elektroden aufgrund verstärkten Sputterns erheblich, auch dies spricht gegen einen Betrieb mit hohem Plasmastrom. Der maximale bisher erreichte Entladestrom in einem MSE-Plasma beträgt 50 mA. Der Elektrodenabtrag begrenzt momentan die Betriebsdauer einer MSE auf wenige Stunden. Durch die Einführung von Wolfram-Elektroden konnte bereits eine deutliche Steigerung der Haltbarkeit erreicht werden, für eine sinnvolle Anwendung der Ionenquelle muss jedoch noch eine Weiterentwicklung der MSE stattfinden. Dass sich der Kühleffekt aufgrund der adiabatischen Expansion auf im Plasma erzeugte metastabile He*-Atome auswirkt, wurde im Rahmen einer zweiten Diplomarbeit zum Thema Plasmajet gezeigt. Mit einem Aufbau nach demselben Prinzip, jedoch ohne Extraktionsspannung, wurde eine Apparatur zur Erzeugung eines spinpolarisierten metastabilen Helium-Targets realisiert [Jahn2002]. Es wurde gezeigt, dass zum einen der Energieeintrag ins Gas durch die Entladung sehr gering ist. Es handelt sich also beim MSE-Hochdruck- Plasma tatsächlich um eine nichtthermische Entladung. Zum anderen konnte in ergänzenden Flugzeitmessungen gezeigt werden, dass die Geschwindigkeitsverteilung der Metastabilen der eines herkömmlichen Gasjets entspricht. Der Kühleffekt wirkt also auf die Metastabilen genauso wie auf Gasatome im Grundzustand, ohne dabei die Metastabilen abzuregen. Um die Geschwindigkeitsverteilung der Ionen zu untersuchen, ist die verwendete Methode jedoch nicht ohne weiteres anwendbar. Aufgrund der Coulomb- Abstoßung der Ionen weist der unbeschleunigte Ionenstrahl eine starke Divergenz auf. Die Intensität des Ionensignals auf dem Detektor ist somit äußerst gering, was eine Flugzeitmessung kaum sinnvoll erscheinen lässt. Mit den vorhandenen Diagnosemethoden konnte daher ein Kühleffekt aufgrund der adiabatischen Expansion auf die Ionen nicht verifiziert werden. Mit der Mikro-Ionenquelle wurde jedoch gezeigt, dass es eine Wechselwirkung zwischen Ionen und Gasjet gibt: versucht man, die Ionen mit einer Extraktionsspannung zu beschleunigen, so erfahren sie aufgrund zahlreicher Stöße mit den langsameren Gasteilchen einen massiven Energieverlust. Man erhält einen Ionenstrahl mit stark verbreiterter Energieverteilung. Dies zeigt, dass sich die Ionen im Bereich hoher Dichte mit dem Jet bewegen. Stört man die Expansion, indem man die Ionen mittels der Beschleunigungsspannung aus dem Jet herausreißt, so erfahren sie durch die Wechselwirkung mit den Atomen im Jet einen erheblichen Energieverlust. Es ist daher zu vermuten, dass auch die Ionen gekühlt werden. Misst man mit Hilfe eines Quadrupol-Massenspektrometers das Spektrum von nicht beschleunigten Ionen, so erhält man scharfe Peaks, es tritt also kein Energieverlust auf. Zur Messung des Geschwindigkeitsprofils eignet sich diese Methode jedoch nicht. Es ist daher sinnvoll, in Zukunft mit einer entsprechend angepassten Apparatur auch für die Ionen eine Flugzeitmessung durchzuführen. Die schlechte Energieschärfe des Ionenstrahls ist ein erheblicher Nachteil für viele Anwendungen. Für zukünftige Weiterentwicklungen der Mikro- Ionenquelle muss eine geeignetere Extraktionsgeometrie gefunden werden. Eine Möglichkeit wäre, die Ionen mit dem Gasjet mitfliegen zu lassen und in größerem Abstand zu beschleunigen, wenn die Dichte im Jet stark abgefallen ist. In diesem Fall muss man jedoch eine sinnvolle Lösung für Größe und Position des Skimmers finden oder klären, ob auf einen Skimmer vollständig verzichtet werden kann. Es könnte bei dieser Lösung hilfreich sein, die Raumladungsdichte im Ionenstrahl durch Überlagerung mit einem Elektronenstrahl zu reduzieren und so die Divergenz des Strahls zu verringern. Man könnte die Divergenz auch verringern, indem man den Ionenstrahl durch ein Magnetfeld einschließt. Hierbei provoziert man aber vermutlich durch die Spiralbewegung der Ionen zusätzliche Stöße mit dem Jet. Denkbar wäre auch, die Ionen mit Hilfe elektrischer Felder aus dem Gasjet herauszulenken und anschließend zu beschleunigen. Bekommt man das Problem des Energieverlusts in den Griff, so erhält man eine leistungsfähige Ionenquelle, die ein großes Potential für Anwendungen bietet. Der kompakte Aufbau ermöglicht einen Verzicht auf Wechselspannungen, Mikrowellenstrahlung sowie magnetischen Einschluss. Da es sich um eine Gleichspannungsentladung mit wenigen Watt Leistung handelt, ist ein sehr energieeffizienter Betrieb möglich. Die gemessenen Ionenströme zeigen, dass eine Hochdruckentladung auf der Basis von MSE eine hohe Ionisationseffizienz aufweist. Der hohe Arbeitsdruck ermöglicht eine große Ausbeute an molekularen Ionen. Gelingt es, den Kühleffekt des Gasjets auf die Ionen zu nutzen, so erzeugt man einen Ionenstrahl mit sehr niedriger interner Temperatur, der für atomphysikalische Experimente interessant ist. Zudem ließe sich ein solcher Strahl auf sehr kleine Durchmesser fokussieren, was eine hohe Genauigkeit etwa bei Oberflächenmodifikationen erlaubt. Die Untersuchungen im Bereich Gasanalytik haben gezeigt, dass Hochdruckentladungen hier eine Alternative zu den herkömmlichen, auf Niederdruckentladungen basierenden, Messverfahren darstellen. Die sehr guten Nachweisgrenzen für Freon in Kombination mit dem einfachen und kompakten Aufbau sprechen für die Hochdruckentladung. Jedoch muss für eine sinnvolle Nutzung die Haltbarkeit der MSE noch deutlich erhöht werden.