Refine
Year of publication
Document Type
- diplomthesis (209) (remove)
Language
- German (209) (remove)
Has Fulltext
- yes (209) (remove)
Is part of the Bibliography
- no (209)
Keywords
- Diskursanalyse (2)
- Soziologie (2)
- Stochastik (2)
- Stochastischer Prozess (2)
- Strahltransport (2)
- Yule-Prozess (2)
- Ablenkung <Physik> (1)
- Agentieller Realismus (1)
- Akteur-Netzwerk-Theorie (1)
- Algorithmus (1)
Institute
- Physik (101)
- Mathematik (33)
- Informatik (26)
- Gesellschaftswissenschaften (15)
- Geowissenschaften (8)
- Wirtschaftswissenschaften (8)
- Biowissenschaften (4)
- Erziehungswissenschaften (4)
- Biochemie und Chemie (3)
- Geographie (1)
"Scharfes Messer" oder "stumpfer Dolch"? : Lakatos als Instrument in den internationalen Beziehungen
(2002)
Das Anliegen dieser Diplomarbeit sollte nicht nur darin bestehen, die fehlerhafte Anwendung Lakatos‘ in den IB aufzuzeigen. Nach meiner Auffassung müssen wissenschaftstheoretische Ansätze keineswegs ein Buch mit sieben Siegeln für die IB darstellen. Die Tatsache, dass Lakatos als Instrument für die Sozialwissenschaften ungeeignet ist (vor allem zur Diskreditierung konkurrierender Theorien) sollte keineswegs dahingehend abschreckend wirken, sich innerhalb der IB weiterhin mit wissenschaftstheoretischen Grundlagen zu befassen. Die IB als wissenschaftliche Disziplin könnten meiner Ansicht nach zwei zentrale Thesen Lakatos‘ verinnerlichen. „Moment-Rationalität“ zur Bewertung von Theorien kann es nicht geben. Dies sollte gerade bei jungen Forschungsprogrammen beachtet werden, die sich noch mit einem „Ozean von Anomalien“ konfrontiert sehen. Zudem sollte der vorschnelle Drang zur Falsifikation aufgegeben werden. Die Feststellung Lakatos, warum Falsifikation um jeden Preis unser Ziel sein sollte, trifft hier den Nagel auf den Kopf. Dieser Aspekt führt zu einer meiner zentralen Thesen. Ein Grundübel der IB liegt darin, dass allzu häufig, der Blick auf wesentliche empirische Probleme vergessen wird. Aufgrund dieser Vorgehensweise begeht der kritische Politikwissenschaftler jedoch einen Kategorien-Irrtum. Nicht die Lösung relevanter Probleme, wie dies Laudan fordert, sondern der falsche Stolz, die eigene Theorie behalte recht oder sei wahr, steht häufig im Vordergrund. Taucht nun ein zu erklärendes soziales Phänomen (beispielsweise der Demokratische Frieden oder das Ende des Ost-West-Konflikts) auf, wird weniger versucht, dieses sich stellende Problem zu lösen, als die selbst vertretene Theorie zu retten bzw. zu bestätigen. Dieses Vorgehen führt zu inter-paradigmatischen Grabenkämpfen, die ohne jeden Erkenntnisgewinn sind. Deshalb kann eine entsprechende Selbstreflexion der Disziplin IB, wie sie mit der Debatte zwischen Rationalisten versus Reflexivisten begonnen hat, nichts schaden. Die Gefahr besteht in solchen an die Wurzel greifenden Debatten darin, dass die Disziplin vollkommen zersplittern kann. Dieses Risiko muss die IB dennoch eingehen, da in der jüngsten Vergangenheit häufig der Blick für das Wesentliche verlorengegangen ist. Damit ist vor allem der Blick für die Probleme gemeint. Der wissenschaftstheoretische Ansatz Laudans, der mit einer gesunden Dosis Pragmatismus versehen ist, könnte hierfür ein geeignetes Hilfsmittel sein. Laudans Verwerfen der Wahrheit als kognitives Ziel verbunden mit seinem Festhalten am Rationalitätsbegriff erscheint mir als Strategie für die IB von Vorteil. Laudans Theorie verlangt nicht nach methodischen Standards im Lakatosschen Sinne, die für die Sozialwissenschaften unerfüllbar sind. Die Vorstellung Kuhns, wissenschaftliche Forschung verlaufe infolge von Paradigmenwechseln, die voneinander inkommensurabel sind, bietet für Politikwissenschaftler eher ein Alibi, nicht mehr miteinander reden zu müssen. Der erkenntnistheoretische Anarchismus Feyerabends ist in vielen Aspekten vertretbar. Gerade Feyerabends Ablehnung des positivistischen Erklärungsideals, es gebe eine universelle ahistorische wissenschaftliche Methode, ist zu teilen. Seine Konsequenz, jegliche Form methodischer Regeln abzulehnen, erscheint mir zu radikal. Eine ebenso radikale Konsequenz wie Feyerabend zieht Rorty aus seiner Schlussfolgerung, dass Theorien nicht rational überprüft werden können. Rorty verfällt meiner Ansicht nach in einen unbefriedigenden Relativismus, wenn er die Suche nach Erkenntnis nur noch auf den Bereich der Konversation beschränkt. Die Funktionsweise einer großen Konversation, in der die Philosophie eine Stimme unter vielen Experten der jeweiligen Fakultäten besitzt, leuchtet mir wenig ein....
Im Rahmen dieser Arbeit wird der aktuelle Stand auf dem Gebiet des Lokalen Lovász Lemmas (LLL) beschrieben und ein Überblick über die Arbeiten zu konstruktiven Beweisen und Anwendungen gegeben. Ausgehend von Jószef Becks Arbeit zu einer algorithmischen Herangehensweise, haben sich in den letzten Jahren im Umfeld von Moser und Tardos und ihren Arbeiten zu einem konstruktiven Beweis des LLL eine erneute starke Beschäftigung mit dem Thema und eine Fülle von Verbesserungen entwickelt.
In Kapitel 1 wird als Motivation eine kurze Einführung in die probabilistische Methode gegeben. Mit der First- und Second Moment Method werden zwei einfache Vorgehensweisen vorgestellt, die die Grundidee dieses Beweisprinzips klar werden lassen. Von Paul Erdős eröffnet, beschreibt es Wege, Existenzbeweise in nicht-stochastischen Teilgebieten der Mathematik mithilfe stochastischer Überlegungen zu führen. Das Lokale Lemma als eine solche Überlegung entstammt dieser Idee.
In Kapitel 2 werden verschiedene Formen des LLL vorgestellt und bewiesen, außerdem wird anhand einiger Anwendungsbeispiele die Vorgehensweise bei der Verwendung des LLL veranschaulicht.
In Kapitel 3 werden algorithmische Herangehensweisen beschrieben, die geeignet sind, von der (mithilfe des LLL gezeigten) Existenz gewisser Objekte zur tatsächlichen Konstruktion derselben zu gelangen.
In Kapitel 4 wird anhand von Beispielen aus dem reichen Schatz neuerer Veröffentlichungen gezeigt, welche Bewegung nach der Arbeit von Moser und Tardos entstanden ist. Dabei beleuchtet die Arbeit nicht nur einen anwendungsorientierten Beitrag von Haeupler, Saha und Srinivasan, sondern auch einen Beitrag Terence Taos, der die Beweistechnik Mosers aus einem anderen Blickwinkel beleuchtet.
In dieser Arbeit wurden Untersuchungen zur Einstellung und Analyse des Sauerstoffgehalts an YBa2Cu3O6+x-Dünnfilmen durchgeführt. Zur Analyse des Sauerstoffgehalts wurde ein optisches Verfahren angewendet. Durch Messung der Transmission un der Reflektion in einem Spektralbereich von 2000nm bis 3000nm wird mit Hilfe des im Rahmen dieser Arbeit erstellten Markov-Modells die optische Leitfähigkeit bestimmt. Aus den gewonnen Werten der optischen Leitfähigkeit kann so auf den Sauerstoffgehalt in YBa2Cu3O6+x geschlossen werden.
Das größte Problem bei der Erstellung von MR-Anwendungen besteht darin, dass sie meistens durch Programmierung erstellt werden. Daher muss ein Autor spezielles Fachwissen über MR-Technologie und zumindest allgemeine Programmierkenntnisse mitbringen, um eine MR-Anwendung erstellen zu können. Dieser Erstellungsprozess soll mit Hilfe von MR-Autorensystemen, die derzeit auf dem Markt existieren und in der Forschung entwickelt werden, vereinfacht werden. Dies war ein Grund, warum diese Arbeit sich zum Ziel erklärte, zu überprüfen, inwieweit die Erstellung von MRAnwendungen durch Einsatz von MR-Autorensystemen vereinfacht wird. Ein weiteres Hauptziel war die Erstellung einer repräsentativen MR-Anwendung, die in dieser Arbeit als MR-Referenzanwendung bezeichnet wird. Sie sollte vor allem bei weiteren Entwicklungen als Vorlage dienen können und auf Basis von standardisierten Vorgehensmodellen, wie das Wasserfallmodell, erstellt werden. Ganz wichtig war es noch im Rahmen dieser Arbeit zu bestätigen, dass standardisierte Vorgehensmodelle auf MR-Anwendungen übertragbar sind. Um diese Ziele zu erreichen, sind in dieser Arbeit viele Schritte befolgt worden, die jeweils als Teilziele betrachtet werden können. Die MR-Referenzanwendung , die im Rahmen dieser Arbeit erstellt wurde, sollte mit Hilfe eines MR-Autorensystems umgesetzt werden. Um das richtige MRAutorensystem dafür auszusuchen, wurden im Rahmen einer Analyse fakultative und obligatorische Anforderungen an MR-Autorensysteme definiert, worin auch Funktionen identifiziert wurden, die ein solches System bereitstellen sollte. Das Anbieten einer Vorschau ist ein Beispiel für diese Funktionen, die bei der Erstellung von MR-Anwendungen eine essentielle Rolle spielen können. Die obligatorischen Anforderungen sind welche, die jedes Softwaresystem erfüllen soll, während die fakultativen das Ziel der Verbesserung von Autorensystemen verfolgen. Mit Hilfe der Analyse wurde ein Vergleich zwischen bekannten MR-Autorensystemen gezogen, dessen Ergebnis AMIRE als ein für die Ziele dieser Arbeit geeignetes MR-Autorensystem identifizierte. Für die MR-Referenzanwendung , die ähnliche Funktionen aufweisen sollte wie andere typische MR-Anwendungen wurden Funktionen, Anwendungsfälle und Design der Oberfläche spezifiziert. Diese Spezifikation wurde unabhängig von dem ausgesuchten Autorensystem durchgeführt, um darin analog zur Software-Technik das Augenmerk auf fachliche und nicht auf technische Aspekte zu legen. Um ans Ziel zu gelangen, wurde die MR-Referenzanwendung durch AMIRE realisiert, jedoch musste zuvor ihre Spezifikation auf dieses MR-Autorensystem überführt werden. Bei der Überführung wurde die Realisierung aus technischer Sicht betrachtet, das heißt es wurden verschiedene Vorbereitungen, wie die Auswahl der benötigten Komponenten, die Planung der Anwendungslogik und die Aufteilung der Anwendung in verschiedenen Zuständen, durchgeführt. Nach der gelungenen Realisierung und beispielhaften Dokumentation der MRReferenzanwendung konnte die Arbeit bewertet werden, worin die erzielten Resultate den Zielen der Arbeit gegenübergestellt wurden. Die Ergebnisse bestätigen, dass mit AMIRE die Entwicklung einer MR-Anwendung ohne Spezialwissen möglich ist und dass diese Arbeit alle ihrer Ziele innerhalb des festgelegten Zeitrahmens erreicht hat.
In der vorliegenden Arbeit wurden die Signalformen eines großvolumigen Germanium- Detektors analysiert, mit dem Ziel, den primären Wechselwirkungsort des Photons im Detektor zu bestimmen. Die experimentellen Voraussetzungen dazu bestehen erst seit der Entwicklung schneller Analog-Digital-Wandler, mit denen man in der Lage ist, Detektorsignale direkt nach dem Vorverstärker zu digitalisieren und somit einer genauen Analyse zu unterziehen. Im experimentellen Teil der Arbeit wurden dazu die von einem großvolumigen p-Typ HPGe-Detektor der "koaxial einseitig geschlossenen" Bauart gelieferten Signale abgetastet und digitalisiert. Synchron dazu wurde die Energie mit Analogelektronik gemessen. Die Messungen wurden für verschiedene Energien in Abhängigkeit vom Auftreffort des g-Quants auf dem Detektor durchgeführt. Dabei wurde der Detektor mit g- Quellen im Energiebereich bis 700keV an verschiedenen Positionen kollimiert bestrahlt. Zu den Messungen wurden Simulationsrechnungen durchgeführt, die sich in zwei Schritte gliederten. Im ersten Schritt wurden mittels des Monte-Carlo-Simulationsprogramms GEANT die Wechselwirkungsorte und die dort deponierten Energien eines g-Quants in einem Germanium-Detektor ermittelt. Im zweiten Schritt wurden daraus, unter Berücksichtigung der Detektorgeometrie und des dadurch vorgegebenen elektrischen Feldes, die Pulsformen berechnet. Aus der Anpassung der Rechnungen an die experimentellen Daten konnte über die Variation des einzigen freien Parameters der Ladungsträgerkonzentration, eine sehr gute Übereinstimmung der Anstiegszeitenverteilungen erzielt werden. Die Ladungsträgerkonzentration ließ sich damit mit einer Genauigkeit von 33% bestimmen. Durch eine Analyse der gemessenen digitalisierten Pulsformen konnte der Einstrahlort mit einer Wahrscheinlichkeit von 75,20% bestimmt werden. Dazu ist nur die Messung zweier Zeiten, der Zeit zwischen 10% und 30% der Pulshöhe und der Zeit zwischen 10% und 90% der Pulshöhe, notwendig. Die Ortsauflösung variierte dabei zwischen 4,1mm und 7,5mm. Mit Hilfe der Simulation konnten die Detektorbereiche identifiziert werden, für die eine eindeutige Zuordnung der Pulse zum Einstrahlort gelingt. Darauf aufbauend bietet die Simulation die Möglichkeit, neue Detektorgeometrien im Hinblick auf ihre Eigenschaften zur Bestimmung des Einstrahlortes zu entwickeln. Durch die Bestimmung des Einstrahlortes eines g-Quants auf dem Detektor läßt sich eine Dopplerkorrektur bei der Energiemessung von im Flug emittierten g-Quanten durchführen, die in einer deutlich verbesserten Energieauflösung resultiert.
Im heutigen Zahlungsverkehr übernehmen in zunehmendem Maße Zahlungen mit Kreditkarten eine entscheidende Rolle. Entsprechend der Verbreitung dieser Art des Zahlungsverkehrs nimmt ebenfalls der Mißbrauch mit diesem bargeldlosen Zahlungsmittel zu. Um die Verluste, die bei dem Kreditkarteninstitut auf diese Weise entstehen, so weit wie möglich einzudämmen, wird versucht, Mißbrauchstransaktionen bei der Autorisierung der Zahlungsaufforderung zu erkennen. Ziel dieser Diplomarbeit ist es zu bestimmen, in wie weit es möglich ist, illegale Transaktionen aus der Menge von Autorisierungsanfragen mit Hilfe adaptiver Algorithmen aufzudecken. Dabei sollen sowohl Methoden aus dem Bereich des Data-Mining, als auch aus den Bereichen der neuronalen Netze benutzt werden. Erschwerend bei der Mißbrauchsanalyse kommt hinzu, daß die Beurteilung der einzelnen Transaktionen in Sekundenbruchteilen abgeschlossen sein muß, um die hohe Anzahl an Autorisierungsanfragen verarbeiten zu können und den Kundenservice auf Seiten des Benutzers und des Händlers auf diese Weise zu optimieren. Weiter handelt es sich bei einem Großteil der bei der Analyse zu Verfügung stehenden Datensätze um symbolische Daten, also alpha-numerisch kodierte Werte, die stellvertretend für verschiedene Eigenschaften verwendet werden. Nur wenige der Transaktionsdaten sind analoger Natur, weisen also eine Linearität auf, die es erlaubt, "Nachbarschaften" zwischen den Daten bestimmen zu können. Damit scheidet eine reine Analyse auf Basis von neuronalen Netzwerken aus. Diese Problematik führte unter anderem zu dem verfolgten Ansatz. Als Grundlage der Analyse dienen bekannte Mißbrauchstransaktionen aus einem Zeitintervall von ungefähr einem Jahr, die jedoch aufgrund der hohen Anzahl nicht komplett als solche mit den eingehenden Transaktionen verglichen werden können, da ein sequentieller Vergleich zu viel Zeit in Anspruch nähme. Im übrigen würde durch einen einfachen Vergleich nur der schon bekannte Mißbrauch erkannt werden; eine Abstraktion der Erkenntnisse aus den Mißbrauchserfahrungen ist nicht möglich. Aus diesem Grund werden diese Mißbrauchstransaktionen mit Hilfe von Methoden aus dem Bereich des Data-Mining verallgemeinert und damit auf ein Minimum, soweit es die Verläßlichkeit dieser Datensätze zuläßt, reduziert. Desweiteren schließt sich eine Analyse der zu diesem Zeitpunkt noch nicht betrachteten analogen Daten an, um die maximale, enthaltene Information aus den Transaktionsdaten zu beziehen. Dafür werden moderne Methoden aus dem Bereich der neuronalen Netzwerke, sogenannte radiale Basisfunktionsnetze, verwendet. Da eine Mißbrauchsanalyse ohne eine entsprechende Profilanalyse unvollständig wäre, wurde abschließend mit den vorhanden Mitteln auf den zugrunde liegenden Daten in Anlehnung an die bisherige Methodik eine solche Profilauswertung und zeitabhängige Analyse realisiert. Mit dem so implementierten Modell wurde versucht, auf allgemeine Art und Weise, Verhaltens- beziehungsweise Transaktionsmuster einzuordnen und mit bei der Mißbrauchsentscheidung einfließen zu lassen. Aus den vorgestellten Analyseverfahren wurden verschiedene Klassifizierungsmodelle entwickelt, die zu guten Ergebnissen auf den Simulationsdaten führen. Es kann gezeigt werden, daß die Mißbrauchserkennung durch eine kombinierte Anwendung aus symbolischer und analoger Auswertung bestmöglich durchzuführen ist.
Durch Prozessverbesserungen ist es möglich, den Ressourcenverbrauch einer Unternehmung zu reduzieren, ohne an den Eigenschaften des erstellten Gutes Abstriche vornehmen zu müssen. Intuitiv ist ersichtlich, dass eine bessere Ausnutzung der vorhandenen Ressourcen vorteilhaft für die Unternehmung ist. Mit dem Übergang zur Informationsgesellschaft stellt sich die Frage, inwiefern traditionelle Verfahren zur Prozessverbesserung sich auf die immer bedeutender werdende Ressource „Wissen“ anwenden lassen. Hat Wissen in Verfahren zur Erstellung physischer Güter noch eine nur unterstützende Funktion, so stellt es in Branchen, deren Focus in der Entwicklung von Wissen liegt, den wichtigsten „Produktionsfaktor“ dar. In vorliegendem Text wird der Versuch unternommen, bekannte Verfahren zur Qualitätsverbesserung von Prozessen dahingehend zu betrachten, inwieweit sie für eine Anwendung auf den Umgang mit Wissen geeignet sind. Dazu erfolgt eine Darstellung grundlegender Begriffe, gefolgt von Kriterien, anhand derer die Qualität von Wissensprozessen beurteilt werden kann. Danach werden verschiedene Qualitätsverbesserungsverfahren dargestellt und ihre Eignung zur Anwendung auf Wissensprozesse beurteilt. Abschließend findet sich ein Ausblick darauf, in welchen Gebieten weitere Überlegungen zu diesem Thema angebracht sind. Hingewiesen werden muss auf dem Umstand, dass vorliegende Arbeit aus Platzgründen einige mehr oder minder starke Reduzierungen enthält. Bekannte Qualitätsverbesserungsverfahren wurden in verschiedene Kategorien eingeteilt, aus diesen Kategorien wurden dann exemplarisch einige Verfahren für die nähere Betrachtung ausgewählt. Einen Anspruch auf Vollständigkeit erhebt der vorliegende Text somit nicht. Auch die Kategorisierung kann nicht als allgemeingültig angesehen werden, da die meisten Qualitätsverbesserungsverfahren starke Unterschiede aufweisen und somit das Einordnen in ein einheitliches Schema erschweren. Dennoch wurden gemeinsame Merkmale identifiziert und zur Bildung von Kategorien verwandt.
In dieser Arbeit wurde die Implementierung einer JMX-konformen Managementinfrastruktur für das Agentensystem AMETAS vorgestellt. Darauf basierend wurden im Rahmen des Fehlermanagements Kontrollmechanismen der mobilen Agenten im AMETAS untersucht und eine Lösung für die Lokalisierung von AMETAS-Agenten entworfen und implementiert. Der essentielle Hintergrund für das AMETAS-Management stellt sich folgendermaßen dar: Die Betrachtung des Anwendungs- und Infrastrukturmanagements mit Blick auf die Managementhierarchie stellt die Offenheit und Kooperationsfähigkeit der angestrebten Managementlösung in den Vordergrund. Diese Eigenschaften ermöglichen die Integration der in einem Unternehmen existierenden Managementlösungen. Ziel ist dabei ein kostengünstiges und effizientes Management. Eine Managementarchitektur wird mit Hilfe der informations-, organisations-, kommunikations- und funktionsbezogenen Aspekte beschrieben und modelliert. Anhand dieser Aspekte ist CORBA, DMTF, WBEM und JMX analysiert und ihre Eignung für das AMETASManagement bewertet worden. Neben den allgemeinen Kriterien sind ihre Teilmodelle, ihre Unterstützung des dezentralen und des dynamischen Managements sowie ihre Integrationsfähigkeit im AMETAS zentrale Punkte. Es zeigt sich, dass die JMX die besten Möglichkeiten für das AMETAS-Management bietet. Das OSI-Funktionsmodell klassifiziert die Managementaufgaben und -funktionen in fünf Bereiche, die häufig als FCAPS bezeichnet werden: Fehler-, Konfigurations-, Abrechnungs- , Leistungs- und Sicherheitsmanagement. Diese Klassifikation ist orthogonal zu jeder anderen und bietet einen geeigneten Rahmen für die Aufteilung der Managementaufgaben und - funktionen. Das in dieser Arbeit empfohlene AMETAS-Management orientiert sich hinsichtlich der Managementaufgabenaufteilung am OSI-Modell. Die JMX bietet mächtigeWerkzeuge zur Instrumentierung aller Arten von Ressourcen. Ihre Java-Basiertheit bedeutet eine wesentliche Vereinfachung für das Agentensystem. Die offene Architektur von der JMX ermöglicht die Kooperation des AMETAS-Managements mit anderen Managementstandards. Das AMETAS-Management nutzt die Vorzüge der mobilen Agenten insbesondere im Bereich des Konfigurations- und Fehlermanagements aus. Folgende Eigenschaften zeichnen das AMETAS-Management aus: 1) Verwendung der Agenteninfrastruktur für das Management. Selbiges wird dabei als ein AMETAS-Dienst implementiert und kann alle Möglichkeiten und Dienste der Agenteninfrastruktur nutzen. 2) Verwendung der AMETAS-Agenten und Dienste als Managementwerkzeuge. 3) Selbstmanagement des Systems. Der Managementdienst ist hierfür mit ausreichender Intelligenz ausgestattet. Er nutzt die Mechanismen der Agenteninfrastruktur aus und erledigt diverse Managementaufgaben selbständig. Das Ereignissystem vom AMETAS spielt hierbei eine wichtige Rolle. Die Analyse der Kontrollmechanismen von MASIF, Aglets Workbench und Mole liefert hinsichtlich ihrer Eignung für die Lokalisierung von Agenten im AMETAS folgendes Ergebnis: Die untersuchten Ansätze sind teilweise allgemein anwendbar. Man unterscheidet die nichtdeterministischen Ansätze wie Advertising und Energiekonzept von denen, die bestimmte Spuren von Agenten in einer geeigneten Art hinterlegen. In dieser Hinsicht stellte sich das Pfadkonzept als interessant heraus: Bei diesem Konzept können die Informationen über den Pfad der Migration eines Agenten in geeigneterWeise zeitlich beschränkt oder unbeschränkt gespeichert werden. Eine andere Alternative bietet die Registrierungsmethode. Bei dieser Methode wird ein Agent in einer zentralen Stelle registriert, wobei die eindeutige Identität eines Agenten und die aktuelle Stelle, in der sich ein Agent aufhält, gespeichert werden. Vor dem Hintergrund der erfolgten Analyse empfiehlt sich als Basis für die Lokalisierung von AMETAS-Agenten eine Art Pfadkonzept: Die Spuren der Agenten werden durch einen Managementdienst gesichert. Will man einen bestimmten Agenten oder eine Gruppe lokalisieren, werden die dezentral vorhandenen Informationen innerhalb eines konsistenten Schnitts (Schnappschuss) ausgewertet. Die Schnappschussmethode empfiehlt sich für die Lokalisierung von Agenten im AMETAS entsprechend den zu Beginn der Arbeit von einem Lokalisierungsmechanismus geforderten Eigenschaften: Sie erlaubt eine zuverlässige Lokalisierung der gesuchten Agenten, deren Autonomie dabei respektiert wird. Die Kosten-Leistungsrelation ist günstig einzuschätzen, da unnötiger Daten- bzw. Agentenverkehr ebenso vermieden wird wie die Pflege umfangreicher, zentralistischer Datenbanken.
Aufbau eines Experimentes zur Untersuchung der Ionenstrahlkühlung mit Hilfe eines HF-Quadrupols
(2003)
Die Arbeit beschreibt ein Experiment zur Kühlung eines 40Ar-Ionenstrahls mittels eines 4He-Hintergrundgases innerhalb eines unmodulierten RF-Quadrupols von 500 mm Länge. Ziel des Experimentes war es, den Einfluss der Gaskühlung auf die Qualität von Ionenstrahlen geringer Energie und Intensität zu untersuchen. Die Ionen wurden bei unterschiedlichen Spannungen aus einem Duoplasmatron extrahiert und vor der Injektion in den Quadrupol durch ein elektrostatisches Linsensystem formiert. Die Stromstärke der Strahles wurde mittels einer Faradaytasse gemessen, die mit einer Sekundärelektronen unterdrückenden Repellerblende ausgestattet ist. Der Einfluß der variierten Parameter Hintergrundgasdruck, Quadrupolfrequenz und Strahlenergie auf die Qualität des Strahls wurde dabei nicht direkt über dessen, die Phasenraumverteilung beschreibende, Emittanz gemessen, sondern über die Veränderung der registrierten Strahlstromstärken an einer Blende konstanter Apertur, also der Brillanz abgeleitet. Vorbereitend wurden zunächst Duoplasmatron und Injektionssystem überholt, aufgebaut und mit der nötigen Energie- und Kühlversorgung ausgerüstet. Im anschließenden Testlauf mit ungekühlten Heliumionen wurden die einzustellenden Werte der Betriebsparameter Quellendruck und diverse Blendenspannungen ermittelt und das System auf seine der Reproduktion dienenden Stabilität geprüft. Dabei wurden im Dauerbetrieb Strahlstromstärken von 0,29 mA bei 1 keV/u und 0,02 mA bei 0,15 keV/u Strahlenergie erzielt. Mittels der bekannten Emittanz des Helium-Strahls bei 1 keV/u Energie und 0,25 mA Strahlstromstärke wurde die jeweilige normierte Emittanz der noch ungekühlten Strahlen auf 2,18*10-2 im ersten und 1,61*10-2 im zweiten Fall abgeschätzt. Zur Gaskühlung wurde ein Quadrupol mit 10 mm Apertur- und 7,5 mm Elektrodenradius gefertigt und mit einem Phasentrenner gekoppelt. Ein Breitbandgenerator und -Verstärker dienten der frequenz- und spannungsvariablen Elektrodenbelegung. Der Hintergrundgasdruck wurde mittels einem handelsüblichen Regelventil variiert. Um der ein großes Masseverhältnis von Strahlionen zu Hintergrundgas fordernden Theorie Rechnung zu tragen, wurden Argon als Ionen und Helium als Buffergas gewählt. Einer eingehenden Untersuchung der Auswirkung der einzelnen Komponenten und ihrer Kombination auf die Eigenschaften des Ionenstrahls folgte eine schrittweise Variation von Quadrupolfrequenz und Hintergrundgasdruck im Bereich 1-5 MHz und 9*10-6 - 4*10-3 mbar bei den Strahlenergien 15, 25 und 80 eV/u. Die hierbei gemessenen Strahlstromstärken wurden über die frequenzabhängige Elektrodenspannung normiert und mit der Stärke der ungekühlten Strahlen verglichen. Bei 15 eV/u Strahlenergie konnte die gemessene Maximalstromstärke um 43 % von 0,014 µA/V ungekühlt auf 0,02 µA/V bei 1*10-4 mbar Hintergrundgasdruck gesteigert werden. Die Strahlstromstärke des Strahles mit 25 eV/u Energie wurde von 0,045µA/V des ungekühlten auf 0,1 µA/V bei ca. 6*10-5 mbar verdoppelt. Bei 80 eV/u Energie blieb die Strahlstromstärke mit 0,35 µA/V unverändert, jedoch wurde im gesamten Bereich zwischen 2*10-5 und 3*10-5 mbar und 3,4 - 4,6 MHz mit annähernd konstanten 0,28 µA/V ein Plateau hoher Strahlstromstärke registriert, dem etwa 0,06 µA/V im ungekühlten Strahl entgegenstehen. Ein weniger stark ausgeprägtes Analogon wurde bei 15 eV/u im Frequenzbereich um 3,5 MHz beobachtet. In zwei von drei Fällen konnte im Experiment die Strahlstromstärke durch die Gaskühlung deutlich gesteigert werden, im dritten Fall wurde die Zahl der transportierten Ionen in einem zuvor ungeeigneten Frequenzbereich um den Faktor 4,5 gesteigert. Durch die Beziehung zwischen Strahlstromstärke I, Strahlbrillanz B und Strahlemittanz ε mit I~B~1/ε2 kann abschließend eine Verminderung der Strahlemittanz durch die Gaskühlung festgestellt werden. Die durchgeführten Experimente haben gezeigt, daß man bei niedrigen Strahlenergien einfach geladene Ionen bei relativ hohem Gasdruck und geeigneten Parametern des Quadrupols transportieren und die Emittanz des Strahls verbessern kann. Die Kombination von Quadrupol und Buffergas stellt also ein System dar, das als Gaskühler bei kleinen Strömen von Niedrigenergiestrahlen eingesetzt werden kann. Als nächstes würde zur weitergehenden, jedoch den Rahmen dieser Arbeit übersteigenden Untersuchung ein technisch und finanziell aufwändigerer Aufbau benötigt. Das benutzte Linsensystem würde durch ein auf die Ionensorte speziell abgestimmtes Injektionssystem und die Faradaytasse durch eine rechnergesteuerte, orts- und winkelauflösende Emittanzmessanlage ersetzt. Die somit erhaltene höhere Auflösung des Strahles würde den Übergang von der vorliegenden qualitativen Beschreibung der Gaskühlung zu einer quantitativen ermöglichen.
Im HADES-Detektorsystem werden Vieldraht-Driftkammern zur Spurrekonstruktion verwendet. Für eine genaue Untersuchung des Driftzeitverhaltens innerhalb der Driftzellen wird ein ortsempfindliches Referenzdetektorsystem benötigt. Hierfür wurden Silizium-Mikrostreifen-Detektoren mit einer Ortsauflösung im Bereich kleiner als 10 mikrom eingesetzt. Diese wurden zu einem Strahlteleskop zusammengebaut, mit dem die Teilchentrajektorie zwischen zwei Referenz-Meßunkten bestimmt werden kann. Probleme bereitete die Vielfachstreuung in den einzelnen Komponenten des Teleskop-Aufbaus, die den geradlinigen Teilchendurchgang zwischen den beiden Ortsmessungen beeinflußte. Dies wurde durch Messung mit Teilchen höherer Steifigkeit ausgeglichen. Die Silizium-mü-Streifen-Detektoren zeigten ein gutes Signal-zu-Untergrund Verhalten und wiesen eine sehr gute Effizienz auf. Die Bestimmung des Teilchendurchgangsortes durch den Driftkammer-Prototyp 0 ermöglichte die Messung der Driftgeschwindigkeit. Auch das Driftzeitverhalten in Abhängigkeit vom Ort des Teilchendurchgangs konnte genau untersucht werden.
Als Ergebnis dieser Arbeit kann man sehen, daß es experimentiell gelungen ist, mit einem alpha-förmigen Linearresonator einen stabilen unabhängig abstimmbaren Zwei-Farben Ti:saphir Laser aufzubauen, der so in der wissenschaflichen Literatur noch nicht beschrieben ist. Eine Veröfentlichung zu der vorgelegten Arbeit [22] ist beim IEEE Journal of Quantum Electronics eingereicht worden. Die Ausgangsleistung dieses Lasers liegt bei 300 mW. Die durchgeführten Experimente lassen darauf schließen, daß der Laser die meiste Zeit nur auf einer longitudinalen Mode emittiert. Bei einem gleichzeitig möglichen Abstimmbereich von 740 nm bis 850 nm, welches ein Verhältnis von Linienbreite zu Abstimmbereich von besser als 1:250000 bedeutet. Den Beweis, daß der Laser auch bei sehr geringen Differenzfrequenzen betrieben werden kann, lieferte die direkte Messung des Schwebungssignals zwischen den beiden Lasern. Dabei muß man zugeben, daß das im Eingangszitat dieser Arbeit erwähnte Schwebungssignal nicht ohne Hilfsmittel an einer Wand zu beobachten war, sondern eine minimale Schwebung von 3 Mhz gemessen wurde. Im Vergleich zu den 3 x 10 exp 8 Mhz der einzelner Farben ist dies aber ein gutes Ergebnis. Zusätzlich wurde mit dem Ringlaser ein anderer Ansatz zur Abstimmung des Systems realisiert. Diese Anordnung hat mit 800 mW Vorteile bezüglich der Ausgangsleistung aber Nachteile in Hinblick auf Abstimmung und Linienbreite. Im theoretischen Teil konnte gezeigt werden, welche Eigenschaften ein Laser-Resonator haben muß, um stabil im Zweifarben Betrieb eingesetzt zu werden. Weiterhin konnten auch noch die dynamischen Effekte der beiden Resonatortypen mit Hilfe einer Simulation beschrieben werden. Der Laser soll in der Erzeugung von kontinuierlicher Strahlung im Thz Bereich verwendet werden. Dabei sollen photokonduktive Antennen, wie auch Halbleiteroberflächen als Emitter dienen. Bis zum Ende dieser Arbeit konnte der Laser aus zeitlichen Gründen nicht für diese Messungen eingesetzt werden, da es zu Verzögerungen mit den Proben, wie auch mit den Meßgeräten kam. Die Charakterisierung des Lasers aber zeigte, daß die beiden schmalbandigen Farben bei einer Differenzfrenz im Thz-Bereich (20 GHz–50THz) stabil zu realisieren sind.
Die vorliegende Arbeit beschäftigt sich mit der Entwicklung und dem Aufbau eines IHBeschleunigers zur Beschleunigung schwerer Ionen am Brookhaven National Laboratory.
Es wurde eine Einführung in die Arbeit und die Experimente des BNL gegeben, um zu verstehen, welche Aufgabe die IH in Zukunft haben wird und wie diese das BNL in den experimentellen Möglichkeiten erweitert.
Eingebettet in den historischen Kontext wurde zu Beginn die Familie der H-Moden Beschleuniger und ganz besonders die IH erläutert. Wichtige Begriffe und charakteristische Größen, die zum Verständnis der vorliegenden Arbeit nötig sind, wurden eingeführt und deren anschauliche Bedeutung bei der Entwicklung von Beschleunigern klar gemacht.
Eine Neuerung bei der Entwicklung von Driftröhrenbeschleunigern stellt der aufgebaute Messstand und die Computergestützte Datenanalyse dar. Es konnte gezeigt werden, dass die vorgestellte Methodik zur Verarbeitung der Messdaten enorme Verbesserungen mit sich bringt. Daten von unterschiedlichsten Beschleunigern könnern schneller als zuvor analysiert und direkt mit den Sollwerten der Strahldynamik verglichen werden. So kann bereits vor Ort eine mit nur geringen Fehlern behaftete Auswertung erstellt werden und direkt in die weitere Arbeit an einem Beschleuniger mit einfließen.
Die neue Technik wurde im weiteren Verlauf der Arbeit genutzt, um die im Detail eingeführte BNL IH Struktur aufzubauen und für den Einsatz in den USA fertig zu stellen. Neben den exakt auszuführenden Aufbau- und Justierarbeiten wurde viel Zeit in die Erstellung eines ausgereiften Tuningkonzepts investiert. Während dieser Arbeiten wurden die zwar theoretisch bekannten, am Institut aber noch nie nachgewiesenen, parasitären Tunerresonanzen beobachtet. Der zerstörerische Effekt einer solchen Resonanz konnte erstmals gemessen und analysiert werden.
Trotz der üblichen kleineren Schwierigkeiten, die komplexe Projekte mit sich bringen wurde die IH Struktur noch vor Beendigung dieser Arbeit in den USA am BNL aufgestellt und getestet. Es wurde noch nicht die volle Leistung erreicht, aber der Konditionierungsprozess ist in vollem Gange und die vorläufigen Ergebnisse zeigen keine Probleme auf, so dass davon auszugehen ist, dass die IH noch dieses Jahr voll eingesetzt werden kann.
Abschließend kann man sagen, dass das Projekt erfolgreich realisiert wurde und das die Neuerungen aus dieser Arbeit Einzug in weitere Projekte finden werden.
Es wurde eine Meßstation zum Vermessen von THz-Photomischern vorgestellt und aufgebaut. Weiterhin konnte gezeigt werden, wie diese Station es ermöglicht, das Vermessen von THz-Photomischern, im Vergleich zum bisher verwendeten Meßaufbau, deutlich zu vereinfachen und zu beschleunigen. Mit dieser Station wurden zwei Proben, die sich in der Dicke der LT-GaAs-Schicht unterscheiden, vermessen. Um die gemessenen Daten analysieren zu können wurden zuvor beschrieben, wie eine Modulation des Photostroms in Photomischern erhalten und damit THz-Strahlung erzeugt werden kann. Gemessen wurde die THz-Leistung in Abhängigkeit von Frequenz , Vorspannung und Leistung der optischen Beleuchtung. Diese Messungen haben zu Ergebnissen geführt, die nur zum Teil mit den theoretisch vorhergesagten Ergebnissen übereinstimmen. So wurde festgestellt, daß nur etwa 1 bis 2 % der theoretisch erwarteten THz-Leistung detektiert wurde. Dies kann an langlebigen Ladungsträgern liegen, die im Substrat erzeugt werden. Diese Ladungsträger unterhalb der LT-GaAs-Schicht führen zu einer erhöhten Leitfähigkeit und können dadurch Reflexion und Absorption von THz-Strahlung verursachen. Diese Vermutung wird unterstützt durch die Beobachtung einer starken Reduktion des Signals in einem gepulsten THz-System, wenn eine konstante Hintergrundbeleuchtung eingeschaltet wird.[45] Weiterhin ist nicht auszuschließen, daß die für die THz-Erzeugung relevante Lebenszeit der Ladungsträger deutlich größer ist, als die mit Anrege-Abfrage-Messungen bestimmte. Analog könnte auch eine deutlich höhere Kapazität des Photomischers als die theoretisch berechnete diese Beobachtung erklären. Ob langlebige Ladungsträger im Substrat für die geringe gemessen Leistung verantwortlich sind kann überprüft werden, indem zwischen Substrat und LT-GaAs-Schicht einen Bragg-Refelektor gewachsen wird. So kann verhindert werden, daß eingestrahlte Leistung das Substrat erreicht. Dadurch können keine Ladungsträger im Substrat angeregt werden. Zusätzlich hat dies den Effekt, daß ein größerer Anteil der eingestrahlten Strahlung absorbiert werden kann, weil die einfallende Strahlung wegen der Reflexion zweimal durch die LT-GaAs-Schicht läuft. Ein solcher Mischer wurde bereits von E. R. Brown vorgeschlagen.[46] Bei den Messungen der THz-Leistung gegen Vorspannung konnte beobachtet werden, daß der Photostrom eine andere Abhängigkeit von der Vorspannung zeigt, als theoretisch vorhergesagt wurde. Erwartet wurde ein linearer Zusammenhang. Bei höheren Vorspannungen wurde aber ein stärkerer Anstieg beobachtet. Dies kann z.B. an einem zusätzlichen nichtlinearen Strom durch das Substrat oder an einer vom elektrischen Feld abhängigen Lebenszeit der Ladungsträger liegen. Für beide Erklärungsansätze wurden vereinfachte Modelle vorgestellt. Beide Modelle treffen dabei unterschiedliche Vorhersagen über die Änderung der Effizienz beim Auftreten des höheren Stromes. Deutlich werden die Unterschiede in den Vorhersagen im Frequenzverlauf. So führt ein zusätzlicher Strom durch das Substrat zu einer Verringerung der Effizienz um einen von der Frequenz unabhängigen konstanten Faktor. Der Frequenzverlauf verschiebt sich also zu geringeren Effizienzen. Eine Erhöhung der Lebenszeit hingegen führt zu einem geänderten Frequenzverlauf. So ist die Änderung der Effiienz bei niedirgen Frequenzen gering, zu höheren Frequenzen hin ändert sich die Effizienz jedoch immer stärker. Die Vorhersagen beider Modelle wurden mit dem gemessenen Daten verglichen. Bei den gegebenen Parametern war der Unterschied zwischen den beiden Modellen jedoch zu gering und die Fluktuation in den Meßdaten zu hoch, um entscheiden zu können, welches der beiden Modelle die gemessenen Daten besser beschreibt. Um erkennen zu können, welches der Modelle den Effekt beschreibt, der zu einem höheren Strom führt, müßte der Effekt in den Meßdaten erhöht werden. Dies kann geschehen, indem zusätzlich bei höheren Spannungen gemessen wird. Es müßte dabei allerdings die optische Leistung reduziert werden, um ein Zerstören der Mischer zu vermeiden. In dieser Arbeit konnte somit gezeigt werden, daß die aufgebaute Meßstation ein vereinfachtes Messen von THz-Photomischern ermöglicht. Weiterhin konnte das Verhalten von zwei vermessenen Mischern gezeigt und analysiert werden, sowie weitere Messungen vorgeschlagen werden, die eine exaktere Analyse der Photomischer ermöglichen sollten.
HADES ist ein hochauflösendes Dielektronenspektrometer, welches derzeit an der GSI in Darmstadt aufgebaut wird. Ziel ist die Messung von Leptonenpaaren, die in schwerioneninduzierten Reaktionen entstehen. Die invariante Masse der Leptonenpaare soll mit einer Genauigkeit von ~ 1% bestimmt werden. Das HADES-Detektorsystem verwendet Vieldraht-Proportionalkammern zur Rekonstruktion der Teilchenspuren. Aus diesen werden in Verbindung mit der Feldinformation des supraleitenden Magneten die Teilchenimpulse gewonnen, welche wiederum in die invariante Masse eingehen. Über die Driftzeit1 werden die genauen Durchstoßpunkte der Teilchenbahnen durch die verschiedenen Ebenen der Driftkammern erhalten. Dazu ist es erforderlich, die Driftgeschwindigkeit der Elektronen im verwendeten Zählgas zu kennen. Änderungen im Mischungsverhältnis des Zählgases (Helium und Isobutan), aber auch Verunreinigungen des Gases (H2O) können die Driftgeschwindigkeit beeinträchtigen. Verunreinigungen (O2) können weiterhin die Effizienz der Driftkammern verschlechtern. Ziel war deshalb der Aufbau eines Monitorsystems, welches auf Änderungen der Gasmischung und auf eventuelle Kontaminationen (im wesentlichen O2 und H2O) sensitiv ist. Zu diesem Zweck wurde ein Driftgeschwindigkeitsmonitor getestet. Er erlaubt eine Messung der Driftgeschwindigkeit mit einer Genauigkeit von bis zu 0,1% (sigma), allerdings bei anderen elektrischen Feldstärken als in den HADES Driftkammern. Während der einwöchigen Strahlzeit im Mai 2000 wurde die Driftgeschwindigkeit mit dem Prototypen des Driftgeschwindigkeitsmonitors gemessen. Die druckkorrigierte Driftgeschwindigkeit erlaubt Rückschlüsse auf die Gasqualität. Die Messungen ergaben, daß die Ortsauflösung in den HADES Driftkammern nicht von Driftgeschwindigkeitsschwankungen dominiert wird. Eine Extrapolation der Meßergebnisse auf die in den HADES Driftkammern vorherrschenden Feldstärkeverhältnisse ist möglich. Eine relative Signalhöhenmessung ist sensitiv auf den Sauerstoffgehalt des Zählgases bis in den ppm-Bereich. Zwei endgültige Versionen des Driftgeschwindigkeitsmonitors wurden aufgebaut und in das HADES Detektorsystem integriert. Je ein Driftgeschwindigkeitsmonitor wurde am Gasein- und am Gasausfluß aufgestellt, um die Driftgeschwindigkeit dort zu messen und Vergleiche zwischen Frischgas und aus den Kammern ausströmendem ”alten“ Gas zuzulassen. Die Auslese und Datenanalyse des Monitorsystems wurde automatisiert.
Aufbau und Test einer COLTRIMS-Apparatur zur Untersuchung der Ionisation von metastabilem Helium
(2007)
In der vorliegenden Arbeit wurde ein COLTRIMS-Experiment, zur Untersuchung eines angeregten, spinpolarisierten Gastargets in starken Laserfeldern, aufgebaut. Das zu untersuchende kalte Gastarget wird durch eine Überschallexpansion in der Quellkammer erzeugt. Zusätzlich wird in der dafür vorhergesehenen Düse über eine Gleichstromentladung in einer MSE ein Plasma im Gas gezündet. Dieses Plasma regt einen Teil der Gasatome in den gewünschten spinpolarisierten Zustand an. Für den Aufbau der Düse wurde auf das bereits bewährte Prinzip von [Jah02] zurückgegriffen und dieses im Detail verbessert. Die Stromzufuhr für die Hochdruckseite der MSE (s. Kap. 3.3.2) verläuft jetzt entlang der Gaszuleitung während die Niederdruckseite der MSE über das Düsengehäuse geerdet ist. Durch diese Vorgehensweise wird ein ungewolltes Brennen des Plasmas außerhalb der Düse unterbunden. Zudem ist die MSE nun von außen mit dem Düsendeckel verschraubt und lässt sich so leichter austauschen. Für eine längere Brenndauer (10-15 h) des Plasmas werden die stabileren Kupfer- oder Wolfram-MSEs verwendet. Die Separation der (", ")-Zustände erfolgt durch einen eigens für dieses Experiment angefertigten Hexapolpermanentmagneten [Jah02]. Der Strahl wird zwecks einer maximalen Ablenkung des gewünschten spinpolarisierten Anteils nahe eines Pols eingeschossen. Die Kenntnis über die Strahlqualität nach der Expansion sowie die zusätzliche Fokussierungseigenschaft des Magneten lassen auf einen gut lokalisiertes Target schließen. Nach vorangegangen Berechnungen beträgt die Targetdichte ca. 5·10exp6 /cmxcm bei einer Fokusausdehnung von ca. 1-2 mm. Diese Werte beschreiben jedoch nur einen Mittelwert, da es durch die Abnutzung der MSEs und deren Wechsel zu verschiedenen Brennzuständen des Plasmas kommen kann. Der Laserstrahl wird unter Verwendung eines Periskops orthogonal zu der um 3° gekippten Tragetstrahl-Spektrometer-Ebene eingeschossen. Er kreuzt den Targetstrahl in der Mitte des Spektrometers, welches dafür verantwortlich ist die Fragmente der Reaktion mit Hilfe eines elektrischen und magnetischen Feldes in Richtung der Delayline-Detektoren zu lenken. Dies ermöglicht eine genaue Untersuchung der Reaktion mit einer Raumwinkelakzeptanz von 4 Pi. Aufgrund des winzigen Fokusvolumens des Lasers kann auf eine Flugzeit- sowie Ortsfokussierung der Teilchen verzichtet werden. In diesem Experiment sollen anhand der Koinzidenz-Imaging-Technik von COLTRIMS Doppelionisationsprozesse von spinpolarisiertem Helium in starken Feldern untersucht werden. Eine besondere Aufmerksamkeit soll dabei der relativ neuen „Rescattering“-Theorie geschenkt werden. Bei diesem nichtsequentiellen Doppelionisationsmechanismus wird ein Elektron durch einen Laserpuls aus dem Atom gelöst. Durch das weiterhin anhaltende, oszillierende Laserfeld nimmt das Elektron genügend kinetische Energie auf, um zu dem Atom zurückzukehren und mit dem zweiten Elektron zu stoßen und dieses zu ionisieren. Das vorliegende Experiment kann somit als Elektronenstoßexperiment angesehen werden, bei dem sowohl Target als auch Projektil polarisiert sind. Die geplanten Messungen konnten leider aufgrund eines langanhaltenden Defekts des Frankfurter Lasersystems nicht durchgeführt werden. Erste Testmessungen zeigen allerdings, dass alle Einzelkomponenten des Aufbaus funktionieren. Der spinpolarisierte Heliumstrahl konnte erzeugt werden und der zu untersuchende Anteil verläuft mittig durch das COLTRIMSS-Pektrometer. Die beiden Delayline Detektoren wurden in Betrieb genommen und in einer Testmessung mit Argongas optimiert. Erste Flugzeitmessungen zeigen, dass auch das konzipierte Spektrometer entsprechend den Erwartungen funktioniert und auch die restliche Messelektronik einsatzbereit ist.
Diese Arbeit entstand im Zusammenhang mit dem Funneling-Experiment am Institut für Angewandte Physik. Dieses Experiment soll die praktische Umsetzung des für das HIDIF-Projekt benötigte Funneln zur Ionenstrom-Erhöhung demonstrieren. Dabei stand die Erzeugung zweier identischer Ionenstrahlen mit einer Energie von 4 keV im Vordergrund. Diese Ionenstrahlen werden in zwei aufeinander zulaufenden RFQ-Beschleunigern auf eine Energie von 160 keV beschleunigt. Der noch in Planung stehende Funneling-Deflektor bringt die beiden Ionenstrahlen auf eine gemeinsame Strahlachse. Zu Beginn der Diplomarbeit stand der Umbau der Emittanzmeßanlage auf eine PC-Plattform. Gleichzeitig wurde ein sogenannter Quellenturm zum Betrieb der Ionenquellen aufgebaut (vgl. Kapitel 7.2). Die Multicusp-Ionenquellen wurden von K. N. Leung vom Lawrence Berkeley National Laboratory (LBNL) entwickelt und gebaut. Das elektrostatische Linsensystem wurde von R. Keller (LBNL) entworfen und berechnet. Die beiden Linsensysteme wurden in unserer Werkstatt gefertigt. Der erste Teil des Testbetriebs der Injektionssysteme, bestehend aus der Multicusp- Ionenquelle sowie dem elektrostatischen Linsensystem auch LEBT (Low Energy Beam Transport) genannt, bestand aus der Messung des Strahlstromes sowie der zugehörigen Emittanz. Zum Messen des Strahlstromes stand eine durch Preßluft in den Ionenstrahl fahrbare Faradaytasse zur Verfügung. Von dieser Faradaytasse wurde eine Kennlinie zur Bestimmung der Spannung der Sekundärelektronen- unterdrückung aufgenommen (vgl. Kapitel 8.1). Zur Messung der Strahlemittanz wurde eine Emittanzmessung nach dem Schlitz-Gitter Prinzip vorgenommen (vgl. Kapitel 5, Kapitel 7.7-7.9). Beim Betreiben der Injektionssysteme stand vor allem der Synchronbetrieb im Vordergrund. Dabei wurde festgestellt, daß eine der beiden Ionenquellen auch ohne Linsensystem einen größeren Strahlstrom liefert (vgl. Kapitel 8.9). Der Unterschied zwischen den Ionenquellen beträgt bei einem Bogenstrom von 6 A über 20 %. Dies bedeutet für den späteren Strahlbetrieb am RFQ, daß zum Erzeugen gleicher Strahlströme eine Ionenquelle immer mit einem kleineren Bogenstrom betrieben werden muß. Die dadurch unterschiedlichen Plasmadichten sowie thermischen Belastungen der Plasmakammer und unterschiedlichen Füllgrade der elektrostatischen Linsen tragen zu den festgestellten Emittanzunterschieden bei. Zum späteren Vergleich der Injektionssysteme wurde ein Injektionssystem durch verschiedene Bogenströme, variierte Spannungen an den elektrostatischen Linsen sowie unterschiedlichen Gasdrücken in der Plasmakammer ausgemessen. Diese Messungen wurden nach Wechseln der Glühkathode sowie Demontage und Neumontage von Ionenquelle und Linsensystem wiederholt. Dabei wurde festgestellt, daß sich der Strahlstrom bei der Vergleichsmessung kaum, die Emittanz der Injektionssysteme aber bis ca. 10% ändert (vgl. Kapitel 8.5). Diese Unterschiede müssen bei dem späteren Vergleich mit dem zweiten Injektionssystem einbezogen werden.Beim Betrieb des zweiten Injektionssystems wurden im direkten Vergleich der Injektionssysteme Unterschiede zwischen dem Strahlstrom sowie der Emittanz festgestellt. Auch hier lieferte das zweite Injektionssystem den schon nach der Ionenquelle festgestellten größeren Ionenstrom. Die gemessenen normierten 90 % RMS-Emittanzen bei einem Strahlstrom von 1 mA betragen am Injektionssystem 1 , beim Injektionssystem 2 , bei einer e1 =0,0288 mm mrad e2 =0,0216 mm mrad Strahlenergie von 4 keV. Die Emittanzunterschiede betragen bis zu 30 %. Im Betrieb mit dem RFQ können die Linsensysteme nicht mit den identischen Spannungen betrieben werden. Dies ist zum einen auf die fertigungsbedingten Unterschiede zurückzuführen, zum anderen auf die abweichenden Plasmadichten zum Erreichen gleicher Strahlströme. Im geplanten HIDIF-Projekt sollen 48 Ionenquellen drei unterschiedliche Teilchenströme erzeugen. Bei dieser Anzahl an Ionenquellen für drei unterschiedliche Ionensorten wird das Erzeugen identischer Teilchenströme sicher noch schwerer zu bewältigen sein. Am Funneling-Experiment ist der Vergleich der beiden Injektionssysteme abgeschlossen. Der Doppelstrahl RFQ-Beschleuniger ist aufgebaut, es wurde bereits ein Ionenstrahl in den RFQ eingeschossen (vgl. Kapitel 8.13). Die normierten 90 % RMS-Emittanzen nach dem RFQ betragen 0,057 mm mrad sowie 0,0625 mm mrad für die beiden Strahlachsen. Der Emittanzunterschied ist kleiner 9 %. Die Emittanzen nach dem RFQ können nicht direkt mit den im Testbetrieb gemessenen Emittanzen der Injektionssysteme verglichen werden. Im Strahlbetrieb mit dem RFQ wurde eine Strahlenergie der Injektionssysteme von 4,15 keV benötigt. Außerdem mußten durch geänderte Einschußbedingungen in den RFQ die Linsenspannungen gegenüber dem Testbetrieb variiert werden. Mit dem Aufbau des Funneling-Deflektors wird zur Zeit begonnen. Nach der Erprobung wird der Einbau in die Strahlachse erfolgen.
In der vorliegenden Diplomarbeit wird die Auger-Ionisation des Kohlenstoffmonooxidmoleküls CO in linear und zirkular polarisierter Röntgenstrahlung untersucht. Die Strahlung liegt im Bereich des Vakuumultraviolett (VUV) bei 305eV und wird durch ein Elektronensynchrotron, die Advanced Light Source des Lawrence Berkeley National Laboratory, erzeugt. Die Energie eines Photons führt zur Photoionisation eines Elektrons aus dem 1s-Orbital des Kohlenstoffs. Das im darauf folgenden Augerzerfall ausgesandte Elektron und die jeweils einfach positiv geladenen Fragmente aus der Coulombexplosion des CO++-Molekülions werden hinsichtlich ihrer Impulse vermessen. Zur Impulsmessung wurde die in unserer Arbeitsgruppe laufend weiter entwickelte Methode COLTRIMS (COld Target Recoil Ion Momentum Spectroscopy) eingesetzt. Der experimentelle Aufbau gestattet prinzipiell die Messung aller bei der Ionisation freigesetzten geladenen Teilchen. Um die hochenergetischen Auger-Elektronen mit hinreichender Auflösung zu erfassen, wurde erstmals bei einer solchen Apparatur ein Abbremsfeld eingebaut. Dadurch werden allerdings die niederenergetischen Photoelektronen unterdrückt. Die Meßmethode erlaubt eine Rekonstruktion der Impulse der Fragmente zum Zeitpunkt der Ionisation und läßt Rückschlüsse auf die Dynamik der Ionisation zu. Die Winkelverteilung der Augerelektronen wird in Abhängigkeit von der Polarisation beobachtet. Die Verteilungen sowohl des Polar- als auch des Azimutwinkels zur rekonstruierten Molekülachse zeigen keine ausgeprägte Abhängigkeit von der Polarisation. Dies rehabilitiert das von Guillemin et al. in Frage gestellte Zweistufenmodell des Augerzerfalls. Durch Selektion der kinetischen Energie der Augerelektronen und der bei der Coulombexplosion freigesetzten kinetischen Energie (KER) gelingt es, kurzlebige Molekülionen nach Drehimpulszuständen zu trennen und deutlich anisotrope Emissionsmuster zu beobachten. Die Muster lassen sich qualitativ erklären. Langlebigere Molekülionen zeigen ein scharfe Vibrationlinien im KER-Spektrum. Das Vibrationsspektrum wird analysiert und in Bezug zu vorangehenden Messungen gesetzt. Durch die koinzidente Meßmethode ist es möglich, bislang nicht beobachtbare Vibrationslinien zu identifizieren.
In der vorliegenden Arbeit werden Aspekte autonomer und nichtautonomer dynamischer Systeme behandelt, wobei Attraktoren und verwandte Objekte eine wichtige Rolle spielen werden. Zunächst findet man in einem Kapitel über dynamische Systeme die Definition der grundlegenden Begriffe Attraktor, Repeller und Schiefproduktfluss, gefolgt von zwei hinreichenden Bedingungen für die Existenz von Attraktoren. Mit den Attraktoren und Repellern können dann im nächsten Kapitel Morsemengen eingeführt werden. Dadurch kann das Verhalten eines dynamischen Systems qualitativ beschrieben werden. Des weiteren wird auf die Bedeutung der Kettenrekurrenzmenge für die Morsemengen eingegangen. Im Kapitel über Kontrolltheorie wird, nach einer kurzen Einführung in dieses Gebiet, gezeigt, dass der dort definierte Lift einer Kettenkontrollmenge unter gewissen Voraussetzungen eine Morsemenge ist. Im letzten Kapitel geht es um Pullback-Attraktoren, die unter den angegebenen Bedingungen als Attraktoren für den Schiefproduktfluss interpretiert werden können.
Die Stoßparameterbestimmung, an den zur Zeit im Bau befindlichen bzw. geplanten Schwerionen-Collidern RHIC und LHC ist nicht mehr wie bei Experimenten mit festem Target über die Messung der Summe aller Spektatoren möglich. Am einfachsten sind die neutralen Spektatoren (Neutronen) nachzuweisen. Diese enden bei RHIC jedoch in einem Bereich zwischen den zwei Strahlrohren, der die Größe eines Detektors auf 10 cm Breite und 130 cm Länge beschränkt, was im Vergleich zu der Breite herkömmlicher Kalorimeter, die zur Messung von Spektatoren eingesetzt werden, sehr klein ist. Die Anzahl neutraler Spektatoren kann über deren Gesamtenergie bestimmt werden, da sie im wesentlichen den Strahlimpuls behalten. Am RHIC wird zu beiden Seiten der vier Wechselwirkungszonen je ein Kalorimeter zur Messung der neutralen Spektatoren installiert(d.h. insgesamt 8 Kalorimeter). Diese Kalormeter werden aus Wolfram bestehen und eine Länge von 6 hadronischen Wechselwirkungslängen haben. Zusätzlich sollen mit diesen Detektoren einzelne Neutronen aus Riesenresonanz-Abregungen gemessen werden. Über die Rate der Koinzidenz dieser einzelnen Neutronen auf beiden Seiten der Wechselwirkungszone soll die Luminosität des Beschleunigers bestimmt werden. An die Detektoren wurde in erster Line die Forderung nach einer Energieauflösung von ca 20% gestellt, um das Signal der einzelnen Neutronen vom Untergrund trennen zu können. Für die Messung der neutralen Spektatoren, deren erwartete Anzahl im Bereich von ~ 10 - 40 liegt, ist die Energieauflösung nicht so kritisch. Fluktuationen in der Signalhöhe des Detektors werden durch die Messung mehrerer Neutronen zum Teil kompensiert, die Energieauflösung skaliert mit der Anzahl der Neutronen Nn wie 1/sqrt(Nn). Weiterhin wurde die Forderung einer Zeitauflösung theta < 300 ps gestellt. Dies ist zum einen nötig, um bei der Messung der korrelierten Emission einzelner Neutronen zur Luminositätsbestimmung zufällige Koinzidenzen zu vermeiden. Weiterhin kann der Ort der Wechselwirkung über eine Laufzeitmessung der Spektatoren zu beiden Seiten des Wechselwirkungspunktes auf einige cm genau bestimmt werden. Eine neue Kalorimeter-Bauform, das Cherenkov-Licht-Kalorimeter, ermöglicht es hadronische Kalorimeter mit geringen lateralen Ausmaßen zu konstruieren, da nur der zentrale Teil des hadronischen Schauers zum Signal beiträgt. Cherenkov-Licht-Kalorimeter bestehen aus einem Absorbermaterial und darin eingebrachten Lichtleitern, in denen relativistische geladene Teilchen des Schauers Cherenkov-Strahlung erzeugen. Es wurden zwei Prototypen aus Kupfer bzw. Wolfram mit PMMA-Lichtleitern am SPS (CERN) im 100 GeV/c- und 158 GeV/c-Protonstrahl getestet. Beide Prototypen haben eine Länge von 8 hadronischen Wechselwirkungslängen Lambda I und einen Querschnitt von 10 x 10 cm*cm. Das Kupferkalorimeter ist longitudinal in 8 Module zu je a Lambda I Länge unterteilt, das Wolframkalorimeter besteht aus 4 Modulen von je 2 Lambda I Länge. Die Lichtleiter laufen bei beiden Prototypen unter 45 Grad relativ zur Strahlachse. In früheren Untersuchungen von Gorodetzky et al. wurde festgestellt, daß in dieser Anordnung, das maximale Signal erzeugt wird. Die Energieauflösung des Kupferkalorimeters beträgt 21.8 +- 0,5% RMS/E bei 100 GeV/c Strahlimpuls. Das Wolframkalorimeter hatte im 100 GeV/c-Protonstrahl eine Energieauflösung von 20.5 +- 0.5% RMS/E. Bei beiden Prototypen wurde eine Zeitauflösung von theta < 200 ps gemessen.
Mit dem Ende des Kalten Krieges hat sich für viele Beobachter der Abschied von der klassischen Allianzpolitik endgültig vollzogen. Ein Jahrhundert nach der großen Ära europäischer Gleichgewichtspolitik, nach zwei Welt(koalitions)kriegen und dem Ost-West-Gegensatz als einer Bündniskonfrontation radikalster Ausprägung, scheint die Weltpolitik endlich "im Umbruch" begriffen. Der Niedergang des Warschauer Paktes und der Triumph des demokratischen Modells des Westens könnte so mit dem "Ende der Geschichte" auch das Ende der Allianzen eingeläutet haben. In der Tat lässt sich auch bei der letzten verbliebenen großen Allianz, der NATO, nach dem notwendigerweise vollzogenen Funktionswandel nun letztlich doch ein Bedeutungsverlust verzeichnen. Als exemplarisch für diese Entwicklung mag die Reaktion des Bündnisses auf die Terroranschläge vom 11. September 2001 gelten: Nachdem die Allianz erstmals in ihrer Geschichte den Bündnisfall erklärt hatte, blieb sie schon im Afghanistankrieg als Organisation unbeteiligt. ...
Die Arbeit analysiert den Begriff sowie den Wert der Freiheit in den Schriften des kanadischen Philosophen Charles Taylor, unter Bezugnahme auf dessen politische Philosophie und philosophische Anthropologie. Die begriffliche Klärung basiert auf einer Systematisierung der positiven Verwendung des Freiheitsbegriffes in Taylors Gesamtwerk. Die Wertanalyse interpretiert die Ergebnisse der Systematisierung in Bezug auf die Frage, ob Freiheit in Taylors Verständnis ein extrinsischer oder ein intrinsischer Wert ist.
Im Rahmen dieser Diplomarbeit wurde eine Methode entwickelt,im dreidimensionalen Raum den Strahlverlauf geladener Teilchen durch ein stationäres elektromagnetisches Feld unter Berücksichtigung der elektrischen Eigenfelder zu bestimmen. Weiterhin wurde gezeigt, wie sich die Genauigkeit der Bahnintegration durch Einführung verbesserter Feldinterpolationsmethoden und verschiedener Integrationsmethoden erhöhen läßt. Dabei zeigte sich, dass die Wahl einer geeigneten Methode zur Feldinterpolation wichtiger ist als die zur Bahnintegration. Die entwickelten Methoden wurden in einer (in der Sprache Java programmierten) Applikation umgesetzt und verwendet, um die Separation von Elektronen aus einem H - Ionenstrahl dreidimensional zu simulieren.
Diese Arbeit beschäaftigt sich mit den Eigenschaften dynamischer Systeme, die in Form von autonomen Differentialgleichungen vorliegen. Genauer: Das Langzeitverhalten dieser dynamischen Systeme soll untersucht werden. Es läßtt sich beschreiben durch für das jeweilige System charakteristische Mengen, die attrahierenden Mengen und deren Einzugsbereiche. Attrahierende Mengen sind bezüglich eines dynamischen Systems invariante Mengen, die Trajektorien des dynamischen Systems, die in ihrer Umgebung starten, anziehen. Der Einzugsbereich einer attrahierenden Menge ist die Menge aller Punkte, die von der attrahierenden Menge angezogen werden. Betrachtet werden Systeme, die von einer Eingangsfunktion abhängen. Diese Eingangsfunktion kann je nach Zusammenhang eine Störung des dynamischen Systems oder eine Kontrolle desselben darstellen. Werden Störungen betrachtet, so sind Eigenschaften des dynamischen Systems, die für alle Eingangsfunktionen gelten, zu untersuchen. Diese werden in dieser Arbeit als starke Eigenschaften bezeichnet. Werden Kontrollen betrachtet, sind Eigenschaften des dynamischen Systems, die nur für mindestens eine Eingangsfunktion erfüllt sind, zu untersuchen. Sie werden hier als schwache Eigenschaften bezeichnet. Man betrachte beispielsweise einen Punkt, der zu einer invarianten Menge gehört. Zu jeder Eingangsfunktion gibt es eine zugehörige Trajektorie, die an diesem Punkt startet. Starke Invarianz bedeutet, daß keine dieser Trajektorien jemals die invariante Menge verläßt, schwache Invarianz, da mindestens eine dieser Trajektorien niemals die invariante Menge verläßt. Der Schwerpunkt dieser Arbeit liegt auf der Untersuchung der schwachen Einzugsbereiche. Sie lassen sich nur in Ausnahmefällen durch theoretische Überlegungen finden. Daher ist es von Nutzen, diese Mengen numerisch zu berechnen. Hier soll deshalb die benötigte Theorie bereitgestellt werden, um schwache Einzugsbereiche mit einem Unterteilungsalgorithmus anzunähern. Ein Unterteilungsalgorithmus dient allgemein dazu, innerhalb einer vorgegebenen Grundmenge eine Menge, die eine bestimmte Eigenschaft hat, zu finden. Die Idee eines solchen Algorithmus ist es einfach, die Grundmenge in "Zellen" zu unterteilen und für jede dieser Zellen zu prüfen, ob sie ganz, gar nicht oder teilweise zur gesuchten Menge gehört. Gehört eine Zelle nur teilweise zur gesuchten Menge, so wird sie weiter unterteilt und für die "Teilzellen" erneut entschieden, ob sie zur gesuchten Menge gehören. Für die Berechnung eines schwachen Einzugsbereiches bedeutet dies, daß für jede Zelle überprüft werden muß, ob es eine Kontrollfunktion gibt, mit deren Hilfe Trajektorien der betrachteten Differentialgleichung, die innerhalb der Zelle starten, in eine gegebene schwach attrahierende Menge (bzw. eine passend gewählte Umgebung dieser Menge) gesteuert werden können.
In dieser Arbeit wurde die transversale Flußgeschwindigkeit einer Schwerionenreaktion direkt bestimmt. Dazu modifizierte man den herkömmlichen Yano-Koonin-Podgoretskii Formalismus, der zur Bestimmung der longitudinalen Expansion bereits erfolgreich eingesetzt wurde. Die transversale Expansion wurde in verschiedenen kinematischen Bereichen bestimmt. Einzelne Quellabschnitte erreichen Geschwindigkeiten bis zu b = 0.8. Das entspricht den Werten, die man durch indirekte Verfahren für den transversalen Fluß bestimmte. In den Intervallen mittlerer longitudinaler Paarrapidität entspricht die Yano-Koonin-Podgoretskii Rapidität der mittleren Paarrapidität. Dieses Verhalten erwartet man von einer Quelle, die ein boostinvariantes Expansionsverhalten besitzt. Die HBT-Radien, die im Zuge der Analyse der Korrelationsfunktion bestimmt wurden, entsprechen in der Größenordnung denen, die bei der Untersuchung der longitudinalen Expansion bestimmt wurden. Lediglich der Parameter R0 zeigt ein abweichendes Verhalten, indem er für geringere Rapiditäten kleinere Werte annimmt, dieser Parameter ist jedoch mit einem großen Fehler belastet. Die Konsistenz des Formalismus bezüglich verschieden gewählter transversaler Richtungen wurde überprüft. Trotz erheblicher Unterschiede in den transversalen Rapiditätsverteilungen wurden in vier verschiedenen Richtungen vergleichbare Resultate gemessen. Um einen größeren Impulsbereich abzudecken wurden die Messungen in zwei verschiedenen Magnetfeldkonfigurationen durchgeführt, in den Bereichen wo die Parameter der Korrelationsfunktion im beiden bestimmt werden konnten, ergaben sich vergleichbare Werte.
Wir haben uns mit der Leitfähigkeitsdynamik von Barium-Natrium-Niobat-Kristallen (BSN-Kristallen) auseinandergesetzt und haben verschiedene Untersuchungen zum Themenkreis Lyapunov-Exponenten anhand von experimentellen BSN-Zeitreihen durchgeführt. Als einen typischen größten Lyapunov-Exponenten von chaotischen BSN-Zuständen erhalten wir Werte in der Größenordnung von 0.1 / s. Der Maximalwert entspricht ca. 3.5 bits pro Attraktorumlauf. Wir beobachten für die Mehrzahl der chaotische BSN-Zustände entlang der unersuchten Ruelle-Takens-Newhouse-Route (RTN-Route) zwei positive Lyapunov-Exponenten mit einem schmalen Übergangsbereich in dem wir nur einen positiven Lyapunov-Exponenten erkennen. Diesen Befund interpretieren wir als eine kompleer werdende Dynamik mit wachsender Stromstärke durch den Kristall, die wir auch durch eine kompliziertere Attraktorstruktur der BSN-Zustände entlang der RTN-Route ins Chaos bestätigen können. Die Abschätzung von Lyapunov-Exponenten der BSN-Zustände entlang der RTN-Route bestätigen die meisten der Ergebnisse, die wir bisher mit anderen Verfahren erhalten haben. Die Kolmogorov-Entropie K1 die wir mit Gleichung (5) aus den positiven Lyapunov-Exponenten bestimmen, ist allerdings um etwa einen Faktor vier kleiner als Abschätzungen der Entropie K2, die sich aus Korrelationsbetrachtungen in vorangegangenen Untersuchungen ergeben haben. Durch die Untersuchungen zu lokalisierten Lyapunov-Exponenten erhalten wir eine detailliertere Beschreibung der BSN-Dynamik im rekonstruierten Ersatz-Phasenraum. Wir erkennen an verschiedenen Beispielen, daß die Attraktoren von BSN-Zuständen entlang der RTN-Route durch mindestens einen markanten Bereich mit großen positiven lokalisierten Lyapunov-Exponeten ausgezeichnet sind. Bezüglich der Variation der Attraktoren entlang der RTN-Route beobachten wir, wie sich bevorzugt diese Bereiche in ihrer Form verändern. Die chaotischen Zustände sind durch eine Attraktorregion ausgezeichnet, die einen sichtbar größeren lokalisierten Lyapunov-Exponenten besitzt, als die restlichen Gebiete. Wir führen diese Beobachtung auf das lokale Aufbrechen eines 2-Frequenz-Torus zurück und können diese Vermutung durch Untersuchungen zu einem chaotischen Zustand aus der RTN-Route belegen. Die Simulationsergebnisse zur BSN-Modellgleichung zeigen, daß die Gleichung innerhalb der untersuchten Parameterbereiche kein chaotisches Verhalten generiert. Die aus experimentellen Daten angepaßten Parametervektoren ->k deuten darauf hin, daß die Lösungen periodische Inseln in einer Fixpunktlandschaft darstellen. Mit den entwickelten Methoden zur Bestimmung von Lyapunov-Exponenten aus Delay-Differentialgleichungen stellen wir die Grundlage bereit, um zukünftige Untersuchungen an gekoppelten Modellgleichungen durchführen zu können.
Die HBT-Interferometrie bietet über die Analyse von Bose-Einstein-Korrelationen geladener Pionen die Möglichkeit, Raumzeit-Dimensionen von Kern-Kern-Reaktionen zu vermessen. Dadurch kann das Ausfrierverhalten der in diesen Reaktionen enstehenden teilchenemittierenden Quelle untersucht werden. Die so gewonnenen Informationen tragen zu einem Verständnis der in den Kollisionen ablaufenden Prozesse und somit zu Erkenntnissen über Kernmaterie unter extremen Bedingungen bei. Von besonderem Interesse ist dabei die Beobachtung der Ausbildung eines QGP-Zustandes. Hierfür sind systematische Studien von verschiedenen Kollisionssystemen und -energien von großer Bedeutung.
Im Rahmen dieser Arbeit wurde eine Analyse von Bose-Einstein-Korrelationen in Pb-Au-Kollisionen bei einer Strahlenergie von 80A GeV durchgeführt. Die hier analysierten Daten wurden mit dem CERES-Detektor am SPS-Beschleuniger des CERN aufgenommen. Diese Analyse stellt eine erneute Untersuchung des Datensatzes unter Verwendung einer verbesserten Kalibrierungsprozedur für den CERES-Detektor dar. Infolgedessen konnte eine Verringerung der systematischen Unsicherheiten erreicht werden. Die neuen Ergebnisse stimmen mit den von der CERES-Kollaboration bereits publizierten HBT-Ergebnissen zufriedenstellend überein. Der Vergleich mit den Ergebnissen des NA49-Experiments, dass Pb-Pb-Kollisionen bei gleicher Strahlenergie unter dem Aspekt der HBT-Interferometrie untersucht hat, zeigt ebenfalls eine Übereinstimmung.
Durch diese Konsistenz und die Minimierung der systematischen Unsicherheiten im Bereich der SPS-Energien wird nun die Interpretation des Ausfrierverhaltens der Quelle besser ermöglicht: In dieser Arbeit wurde eine universelle Ausfrierbedingung von Pionen bei unterschiedlichen Schwerpunktsenergien und für verschiedene Kollisionssysteme untersucht. Diesbezügliche Observablen sind das mittels HBT-Radien bestimmte Ausfriervolumen und die mittlere freie Weglänge von Pionen zum Zeitpunkt des Ausfrierens der Quelle.
Bei dieser Untersuchung in Abhängigkeit von der Schwerpunktsenergie der Kollision zeichnet sich ein Minimum des Ausfriervolumens bei hohen AGS- und niedrigen SPS-Energien ab. Zusätzlich ergibt sich für die mittlere freie Weglänge ein ebenfalls nicht monotones Verhalten in diesem Energiebereich. Aus der dort vergrößerten Weglänge lässt sich auf eine erhöhte Emissiondauer der teilchenemittierenden Quelle gegenüber anderen Energien schließen. Die Emissionsdauer spielt in Verbindung mit dem Nachweis eines QGP-Zustandes eine wichtige Rolle. Ob die beschriebenen Beobachtungen durch ein Ausbilden dieses Zustandes oder auf Grund von anderen unbekannten Mechanismen hervorgerufen werden, kann abschließend noch nicht beurteilt werden. Denn verbleibende systematischen Unsicherheiten bei niedrigen Schwerpunktsenergien lassen derzeit keine weiteren Interpretationen zu. Insbesondere betrifft dies die noch bestehende Diskrepanz der Ergebnisse zwischen CERES und NA49 für eine Strahlenergie von 40A GeV. Daher ist eine Reanalyse der Daten von CERES bei dieser Strahlenergie von Bedeutung. Ebenso würde eine erneute systematische Messung im AGS-Energiebereich weitere grundlegende Interpretationen ermöglichen.
In Zukunft werden am RHIC-Beschleuniger des BNL in den USA und im Rahmen des FAIR-Projektes an der GSI bei Darmstadt Experimente in dieser Energieregion durchgeführt werden. Möglicherweise kann dann anhand dieser Messung ein universelles Ausfrierkriterium für Pionen sowie der Grund für ein verändertes Systemverhalten bei bestimmten Energien festgestellt werden.
Im Rahmen der vorliegenden Diplomarbeit wurde die Rolle der putativen mitochondrialen Kinase PINK1 untersucht. Die Mutationen in diesem Gen sind für die PARK6 Form von Morbus Parkinson ursächlich. Dies ist eine neurodegenerative Erkrankung, welche die Lebensqualität der Betroffenen weitgehend beeinträchtigt. Sie wird mit Dopamin-Ersatzmitteln und DBS (Deep Brain Stimulation) behandelt, beide nicht frei von Nebenwirkungen. Levodopa können bekannterweise zu schweren Fällen von Dyskinesie führen. Die Aufklärung der physiologischen Rolle von PINK1 würde den Wissenschaftlern auf dem Weg zur Früherkennung und anderen Therapiemöglichkeiten verhelfen. Die PARK6 Form der Parkinson Erkrankung wird derzeit anhand von verschiedenen Modellorganismen (M. musculus, D. melanogaster, D. rerio, C. elegans), sowie von verschiedenen Zellmodellen (HeLa, PC12, Fibroblasten aus PARK6 Patienten) untersucht. Als neuronale Zelllinie eignen sich die SH-SY5Y Zellen besonders gut für die Forschung an der durch den Verlust von dopaminergen Neuronen gekennzeichneten Parkinson-Erkrankung und sind diesbezüglich als ein relevantes Zellmodell breit akzeptiert (Xie et al.2010). In der vorliegenden Diplomarbeit wurden mit einem adenoviralen Konstrukt generierte PINK1 knockdown SH-SY5Y Zellen (M. Klinkenberg) als ein potentielles Zellmodell für die PARK6 Form von M. Parkinson analysiert. Als Kontrolle für die PINK1- abhängigen Effekte wurden NT (non target) Zellen herangezogen. Ausschlaggebend für die Wahl dieses Zellmodells war die Beobachtung, dass die PINK1 KD SH-SY5Y Zellen bei einer Reduktion des Serumgehaltes im Medium wesentlich langsamer wachsen als die NT Zellen (M. Jendrach). Die Serumdeprivation schien also der notwendige Stressfaktor zu sein, welcher zur Auslösung eines PINK1-abhängigen Phänotyps führen könnte. Daraus ergab sich die Frage, welche anderen PINK1-abhängigen Veränderungen unter Serumentzug zur Ausprägung kommen. Im Rahmen dieser Diplomarbeit wurde zunächst die relative Genexpression der PINK1 KD SH-SY5Y Zellen in Bezug auf die NT Zellen untersucht. Es zeigte sich, dass der PINK1 KD bei reduziertem Serumgehalt zur Herunterregulation weiterer Parkinsonrelevanter Gene führt, deren Produkte an verschiedenen zellulären Prozessen beteiligt sind. Die Effekte traten nur bei stabil transfizierten Zellen auf und waren durch einen transienten PINK1 KD nicht reproduzierbar. Viele dieser Gene sind für die Aufrechterhaltung der mitochondrialen Homöostase bedeutsam und deshalb wurde die mitochondriale Funktion und Erscheinung in den PINK1 KD SH-SY5Y Zellen genauer erforscht. Im Gegensatz zu früheren Befunden (Mai et al. 2010) wurde eine Herunterregulation des für die mitochondriale Teilung zuständigen Fis1-Proteins ermittelt, darüber hinaus aber keine Änderung der mitochondrialen Morphologie auch nach induziertem Zellstress beobachtet (Dagda et al. 2009, Lutz et al. 2009). Ein Defizit in der mitochondrialen Atmung wurde festgestellt, nachdem die Zellen bei 1g/L Glucose kultiviert und für 24h auf ein Galaktose-haltiges Medium transferiert wurden. Außerdem wurde ähnlich zu Amo et. 2010 al eine leicht verminderte Energieladung der betreffenden Zellen gefunden. Keine Beeinträchtigung der mtDNA-Integrität oder der Überlebensrate bei H2O2-induziertem oxidativen Stress wurde beobachtet. Weiterhin wurde untersucht, inwiefern die in den PINK1 KD SH-SY5Y Zellen beobachteten Veränderungen in der Genexpression auf weitere Zellmodelle (PINK1 KD HeLa, kortikale Neurone aus PINK1 KO und PINK1 KO / A53T alpha Synuclein überexprimierenden Mäusen) übertragbar sind. Dabei wurden einige Gemeinsamkeiten zwischen den PINK1 KD SH-SY5Y Zellen und den PINK1 KO /A53T α Synuclein überexprimierenden kortikalen Neuronen ermittelt. Angesichts des Verlustes von dopaminergen Neuronen in M. Parkinson wäre es bedeutsam nachzuvollziehen, ob und wie die verminderte Expression Parkinson-relevanter Gene in diesen PINK1 KD Zellmodellen kompensiert wird, so dass die Zellen trotz der genetischen Einschränkung bei idealisierten in vitro Bedingungen gut überleben können. Hier ist es vorstellbar, dass zusätzlicher Zellstress die Gemeinsamkeiten zwischen den PINK1 KD SH-SY5Y Zellen und den PINK1 KO / A53T SNCA überexprimierenden Neuronen erweitern könnte. Diesbezüglich wäre es auch relevant zu erforschen, unter welchen Umständen die potentiellen Kompensationsmechanismen versagen, so dass das Zellüberleben nicht mehr gewährleistet wird. Im Licht des altersbedingten Ausbruchs der Symptome bei M. Parkinson würden diese neuen Erkenntnisse dazu beitragen, die möglichen auslösenden Faktoren zu erfassen und so ein tieferes Verständnis der molekularen Mechanismen dieser schwerwiegenden Erkrankung zu erhalten.
Im Rahmen dieser Diplomarbeit konnte das Plasmid pB6 isoliert werden, das die MNNG-Hyperresistenz einer rng1-1-Mutante komplementierte. Das komplementierende Gen dieses Plasmids konnte jedoch weder über 17 Subklone noch über Komplementationsanalysen identifiziert werden. Die Sensibilität gegen „Congo red“ konnte als ein weiterer Phänotyp des Stammes Q2rng1 bestimmt werden. Es wurden im Zuge der Subklonierung des Plasmids pB6 pRS424-Derivate gefunden, die unabhängig vom genetischen Hintergrund des transformierten Stammes, heterogenes Wachstum verursachten. Zurückzuführen war dies auf die Überexpression des ORFs YLR112w alleine oder gemeinsam mit dem ORF YLR111w. Neben der bereits beschriebenen MNNG-Hyperresistenz durch die Überexpression von SNG1 in Wildtypen, GSH-Mutanten und Reparaturdefizienten Stämmen, konnte auch in dem bereits gegen MNNG hyperresistenten Stamm Q2rng1 eine Steigerung der Resistenz durch SNG1 gezeigt werden. Des weiteren wurden Anzeichen gefunden, dass die MethioninAuxotrophie des Stammes Q3 auf die Disruption des GSH1-Gens zurückzuführen war. Zudem konnte nachgewiesen werden, dass die funktionierende GSH-Synthese letal auf eine ero1-Delta-Mutante wirkte. Als Auslöser für die Cadmium-Sensibilität der Stämme Q3 und Q4 konnten die bekannten Mutationen dieser Stämme im GSH1- und im LWG1-Gen ausgeschlossen werden.
Das Assignment Problem ist ein bekanntes kombinatorisches Optimierungsproblem, bei dem es darum geht, in einem gewichteten bipartiten Graphen ein Matching mit minimalem Gewicht zu finden. In dieser Arbeit sind die Kantengewichte exponentialverteilt zu speziell gewählten Raten. Damit sind Erwartungswert und Varianz des minimalen Gewichts von besonderem Interesse. Zunächst wird ein Beweis der Parisi Formel und der Coppersmith-Sorkin Formel erläutert. Die Formeln beschreiben den Erwartungswert des minimalen Gewichts im Fall, dass die Raten alle dem Wert 1 entsprechen. Im zweiten Teil wird die Herleitung einer expliziten Formel zur Berechnung der Varianz des zufälligen minimalen Gewichts erklärt, wobei die Raten immer noch mit 1 übereinstimmen. Gleichzeitig wird eine Formel für die höheren Momente geliefert, aus der die Parisi Formel und Coppersmith-Sorkin Formel aus dem ersten Teil folgen und die sogar das bisherige Modell bezüglich der Parameter erweitert. Schließlich kann man das Ergebnis des zweiten Teils zur Beschreibung des asymptotischen Verhaltens der Varianz benutzen.
Die Neue Institutionenökonomie beschäftigt sich mit der Erklärung institutioneller Gegebenheiten wie Vertrags- und Organisationsformen und versucht, eine Begründung für die Existenz von Unternehmen zu finden. Ein Bestandteil der Neuen Institutionenökonomie ist, neben der Principal- Agent- und der Property-Rights-Theorie, die hier näher zu erörternde Transaktionskostentheorie. Entstanden ist die Transaktionskostentheorie aus der Kritik an der Neoklassik, insbesondere an den dieser zugrunde liegenden Annahmen. Innerhalb der neoklassischen Theorie wird der Preismechanismus als das zentrale Instrument zur Koordination von wirtschaftlichen Aktivitäten betrachtet. Die Wirtschaftssubjekte handeln in einem Markt unter vollständiger Konkurrenz, in dem sich ohne Verursachung von Kosten ein Gleichgewichtspreis bildet. Sie verhalten sich daher als Mengenanpasser, die aufgrund dieses vorgegebenen Preises ihren Gewinn maximieren. Im Gegensatz dazu wird in der Transaktionskostentheorie davon ausgegangen, daß die Bildung des Preises bzw. die Nutzung des Marktmechanismus nicht kostenlos genutzt werden kann. Aus der Annahme der Neoklassik, daß der Preis die operativen Entscheidungen der Wirtschaftssubjekte determiniert und zu einer effizienten Allokation der Produktionsfaktoren führt,6 stellt sich weiterhin die Frage nach dem Grund für die Existenz von Unternehmungen, welche mit Hilfe der Transaktionskostentheorie beantwortet wird. Wäre der Marktmechanismus tatsächlich in der Lage alle wirtschaftlichen Aktivitäten effizient zu koordinieren, so bestünde keine Notwendigkeit für die Bildung von Institutionen. Die Entstehung von Unternehmen ist daher auf ein Versagen des Preismechanismus aufgrund von Transaktionskosten zurückzuführen....
Gegenstand dieser Arbeit ist das Entropiegesetz und seine Bedeutung für die Umweltökonomie. Das Grundgesetz vom Niedergang , wie Schütze es genannt hat, trifft in seiner ursprünglichen Bedeutung Aussagen über die Umwandlung von verschiedenen Formen von Energie bzw. über ihre Nutzbarkeit u.a. für menschliche Belange. So ist zu erklären, daß die stärkste Beschäftigung der Ökonomen mit dem Entropiegesetz in der Folge der sog. Ölkrise und der Studie Grenzen des Wachstums stattfand, da zu dieser Zeit der Gedanke einer plötzlichen Erschöpfbarkeit der Energiequellen um so stärker in den Vordergrund drang, wie es in der Zeit davor normal erschien, daß sich der Energieverbrauch regelmäßig verdoppelte. Das Thema physikalische Grenzen des wirtschaftlichen Wachstums ist in der öffentlichen wie auch in der (wirtschafts-) wissenschaftlichen Diskussion durch aktuellere und akutere Probleme in den Hintergrund gedrängt worden und mit ihm auch der Begriff Entropie. Diese akuteren Probleme sind vor allem im Zusammenhang mit Stoffen zu sehen, die den Bereich des menschlichen Wirtschaftens verlassen. Die zunehmende Umweltverschmutzung stellt sich in den letzten Jahren als das vordringliche Problemfeld für die Umweltökonomie dar. Zu erinnern wäre hier beispielhaft einerseits an die Unfälle bei Sandoz in Basel und des Kernkraftwerks in Tschernobyl sowie die Havarie des Tankers Exxon Valdez in Alaska. Andererseits ist aber auch der Normalbetrieb mit Problematiken wie der u.a. durch FCKWs zunehmenden Zerstörung der Ozonschicht oder auch dem übermäßigen Auftreten von Ozon in Bodennähe im Zusammenhang mit dem photochemischen Smog verbunden...
Die Relevanz der Zuschreibung von "Hochbegabung" in der Biografie von besonders begabten Erwachsenen
(2007)
Mit dieser Arbeit konnten erstmalig Erkenntnisse über "hochbegabte" Erwachsene gewonnen werden, die bisher entweder nicht untersucht wurden oder aber hinter dem Schleier der Mystifizierung im Verborgenen blieben. Eine der wichtigsten Erkenntnis dieser Arbeit ist entgegen der Darstellung vieler Publikationen zu diesem Thema, dass die Zuschreibung von "Hochbegabung" nicht grundsätzlich biografisch relevant ist. Vielmehr ist die Relevanzeinstufung von "Hochbegabung" von entsprechenden Dispositionen und Ausprägungen mit ihren spezifischen Wirkungsmechanismen im Lebensablauf abhängig, die je nach Zusammenspiel in eine non-exklusive oder in eine exklusive "Hochbegabtenidentität" münden. Eine Normalitätserfahrung – und das ist die weitere wichtige Erkenntnis dieser Untersuchung – ist für eine non-exklusive "Hochbegabtenidentität" die notwendige Voraussetzung. Erst dadurch relativiert sich die durch die Zuschreibung bedingte Abgrenzung von Anderen. In diesem Zusammenhang erstaunt es nicht, dass ein kooperatives und annehmendes Umfeld gute Voraussetzungen für einen positiven Umgang mit der Begabung und somit auch für die Gelegenheit der Normalitätserfahrung gute Voraussetzungen liefert. Zu der vieldiskutierten Frage, ob eine vermutete "Hochbegabung" formal getestet und schließlich zertifiziert werden soll, kann somit auf Grundlage der Analyse nach der Marnier des Biografieforschers mit einem "je nach Lebenslage" Stellung genommen werden: Fühlt sich die betreffende Person mit der gegebenen Situation wohl und hat keine gravierenden, die weitere Identitätsentwicklung behindernde Schwierigkeiten und erfährt sich die besonders begabte Person als normal, so ist kritisch nach dem Nutzen einer Zuschreibung von "Hochbegabung" zu fragen. Nimmt sich die Person jedoch als ständiger Außenseiter wahr und resultieren daraus aufgrund des geringen Selbstwertes maßgebliche Schwierigkeiten in alltäglichen Situationen, so könnten die mit einer formalen Zuschreibung verbundenen Zutrittsmöglichkeiten zu entsprechenden Fördermaßnahmen durchaus eine Möglichkeit sein, Personen mit ähnlichen Erfahrungen kennenzulernen. Um diese Frage jedoch zufriedenstellend beantworten zu können, sind weitere, auf diese Frage zentrierte Untersuchungen notwendig. Ebenso sind ergänzend weitere Untersuchungen zur Identitätskonstruktion von per Zuschreibung ‚Hochbegabten’ unerlässlich, da die Methode des autobiografisch-narrativen Interviews hierbei an ihre Grenzen stößt (vgl. voriges Kapitel 8.6). Um das Moment der Etablierung einer Denkstruktur der "binären Schematisierung" und ihre Wirksamkeit zu erforschen, bedarf es unter anderem neurowissenschaftlichen Wissens, welches in dieser Arbeit nicht berücksichtigt werden konnte. Dennoch konnte anhand der Interviewtechnik des autobiografisch-narrativen Interviews erst die persönliche Relevanz der Zuschreibung von ‚Hochbegabung’ in den Biografien herausgearbeitet werden.
Im Jahr 1993 schlug A. Shamir Protokolle zur Erstellung digitaler Unterschriften vor, die auf rationalen Funktionen kleinen Grades beruhen. D. Coppersmith, J. Stern und S. Vaudenay präsentierten die ersten Angriffe auf die Verfahren. Diese Angriffe können den geheimen Schlüssel nicht ermitteln. Für eine der von Shamir vorgeschlagenen Varianten zeigen wir, wie der geheime Schlüssel ermittelt werden kann. Das zweite Signaturschema von Shamir hängt von der Wahl einer algebraischen Basis ab. Eine besondere Bedeutung haben Basen, deren Elemente polynomiale Terme vom Grad 2 sind. Wir analysieren die Struktur der algebraischen Basen. Für den hervorgehobenen Spezialfall kann eine vollständige Klassifikation durchgeführt werden.
In der Diskussion zwischen verschiedenen Spielarten der Diskursanalyse und den Gouvernementalitätsstudien haben Vertreter beider Seiten das Dispositiv als vermittelnden Begriff vorgeschlagen. In diesem Zusammenhang wird die Frage »Was ist ein Dispositiv?« neu gestellt. Durch eine Relektüre von Foucaults Texten wird ein Debattenbeitrag zum Dispositivkonzept entworfen, welcher der Verwässerung einerseits und andererseits einer methodischen Schließung durch Operationalisierung des Dispositivkonzepts entgehen soll. Als Destillat dieser Rekonstruktion werden sechs Kernelemente für eine dispositivanalytische Forschungsperspektive vorgeschlagen. Der anschließende Teil bringt Foucaults Analysen mit Bruno Latours Akteur-Netzwerk-Theorie (ANT) ins Gespräch, um potentielle Leerstellen in der Dispositivanalyse zu schließen. Diese betreffen vor allem die Bereiche »Natur«, »Technik« und »Medien«. Neben Latours Akteur-Netzwerk-Theorie wird im letzten Teil Karen Barads Agentieller Realismus für die Dispositivanalyse produktiv gemacht und in das Konzept eingearbeitet.
In dem in dieser Arbeit vorgestellten Experiment wurde die Reaktion zwischen molekularem Wasserstoff und hochgeladenen langsamen Ar8+-Ionen untersucht. Ein Augenmerk wurde hierbei auf den Zweifachelektroneneinfang gelegt.
Anhand zwei durchgeführten Messungen mit unterschiedlichen Projektilgeschwindigkeiten 0,2 und 0,36 a.u. und unter zur Hilfenahme des so genannten „over-barrier-Modells“ sollte die Dynamik des H2-Moleküls während des Elektroneneinfangprozesses untersucht werden. Aus den daraus resultierten Ergebnissen sollte die Frage, ob der Einfangsprozess simultan oder sequentiell stattgefunden hat beantwortet werden.
Durch einfache Berechnungen kann mit dem „over-barrier-Modell“ die Distanz, welche das Projektil zwischen dem ersten und dem zweiten Elektroneneinfang zurücklegt, in Abhängigkeit von dem Stoßparameter ermittelt werden. Dieser Wert ist der Hauptbestand aller weiteren Berechnungen.
Die Spektren der Impulsüberträge in Abhängigkeit von der Ausrichtung des Moleküls zu dem Projektilstrahl haben gezeigt, dass das Projektil meist über und unter der Molekülachse streut anstatt links oder rechts am Molekül vorbei zu fliegen.
Die Auftragung der kinetischen Energie der Fragmente gegen den Transversalimpuls des Projektils (Abbildung 5.6) hat ergeben, dass größere Impulsüberträge für den Fall der senkrechten Stellung des Moleküls zu der Strahlachse, zu leicht erhöhten Aufbruchsenegien führt, was durch die Berechnung der Energie zu erklären ist.
Aus der Verteilung der kinetischen Energie (KER), welche die durch Dissoziation entstandenen Wasserstoffionen nach dem Stoß besitzen, kann auf den Verlauf der Reaktion zurück geschlossen werden.
Ein Vergleich der KER-Spektren für unterschiedliche Stoßparameter (Abbildung 5.8 und 5.9) bei festen Geschwindigkeiten hat für die zwei Messungen widersprüchliche Ergebnisse gezeigt. Zu erwarten war eine Verkleinerung der Energiewerte bei ansteigendem Stoßparameter. Dies konnte jedoch nur für den Fall in welchem die Projektilgeschwindigkeit 0,36 a.u. betrug bestätigt werden. Die Abweichung bei der ersten Messung kann durch statistische Fehler kommen, da die Anzahl der Messwerte, die für diese Messungen als „richtige“ angenommen worden, durch das Setzen von verschiedenen Bedingungen stark reduziert wurde.
Letztendlich wurde anhand der Variation der Stoßparameter bei festen Projektilgeschwindigkeiten die Zeitskala während des Stoßes eingeschätzt. Es wurde die Annahme getroffen, dass der Zweifachelektroneneinfang als zweistufiger Prozess abgelaufen ist und die maximal mögliche Zeitspanne zwischen dem ersten und dem zweiten Elektroneneinfang berechnet. Der Vergleich der daraus resultierten Werte mit der Oszillationsdauer des Wasserstoffmoleküls hat die getroffene Annahme widerlegt. Beide Messungen sind laut „over-barrier-Modell“ als einstufiger, schneller Übergang einzuordnen.
Das Ziel dieser Diplomarbeit war die Untersuchung der Reaktion des Zweifachelektroneneinfangs mit einem Augenmerk auf den Unterschied zwischen dem simultanen und dem sequentiellen Verlauf. Die Ergebnisse haben einen zweistufigen Prozess mit hoher Wahrscheinlichkeit ausgeschlossen. Obwohl alle theoretischen Anforderungen für den Einsatz des „over-barrier-Modells“ erfüllt worden sind, hat sich herausgestellt, dass die gemessenen Werte nicht immer eindeutig interpretiert werden konnten. Das lässt darauf schließen, dass das Experiment noch verbessert werden kann, um mögliche Fehlerquellen zu reduzieren. Eine Möglichkeit zur Verbesserung wäre der Einbau eines Elektronendetektors, oder aber die Änderung des Projektilions. Auch längere Messzeiten wären statistisch gesehen von Vorteil. Für die Zukunft sind weitere Experimente mit veränderten Targetgasen und geänderten Projektilgeschwindigkeiten geplant.
Der Begriff der editierfreundlichen Kryptographie wurde von Mihir Bellare, Oded Goldreich und Shafi Goldwasser 1994 bzw. 1995 eingeführt. Mit einem editierfreundlicher Verschlüsselungs- oder Unterschriftenverfahren kann man aus einer Verschlüsselung bzw. Unterschrift zu einer Nachricht schnell eine Verschlüsselung oder Unterschrift zu einer ähnlichen Nachricht erstellen. Wir geben eine Übersicht über die bekannten editierfreundlichen Verfahren und entwickeln sowohl ein symmetrisches als auch ein asymmetrisches editierfreundliches Unterschriftenverfahren (IncXMACC und IncHSig). Wir zeigen, wie man mit editierfreundlichen Schemata überprüfen kann, ob die Implementierung einer Datenstruktur korrekt arbeitet. Basierend auf den Ideen der editierfreundlichen Kryptographie entwickeln wir effiziente Verfahren für spezielle Datenstrukturen. Diese Ergebnisse sind in zwei Arbeiten [F97a, F97b] zusammengefaßt worden.
In der vorliegenden Diplomarbeit beschäftigen wir uns mit kryptographisch sicheren Pseudozufallsgeneratoren. Diese e±zienten Algorithmen erzeugen zu zufälliger Eingabe deterministisch eine längere Bitfolge, die praktisch von einer Folge zufälliger Münzwürfe nicht unterscheidbar ist. Wir geben die Definitionen von A. Yao sowie M. Blum und S. Micali, beweisen die Äquivalenz und charakterisieren den Unterschied zur klassischen Sichtweise von Zufallsgeneratoren. Mit der Blum-Micali-Konstruktion zeigen wir, wie man aus einer Oneway-Permutation und zugehörigem Hardcore-Prädikat einen kryptographisch sicheren Pseudozufallsgenerator konstruiert: Man wendet auf einen zufälligen Startwert iterativ die Oneway-Funktion an und gibt jeweils das Hardcore-Prädikat des Urbilds aus. Wir stellen das allgemeine Hardcore- Prädikat inneres Produkt modulo 2 von L.A. Levin und O. Goldreich vor und beweisen mit Hilfe des XOR-Lemmas von U.V. Vazirani und V.V. Vazirani die Verallgemeinerung zu einer Hardcore-Funktion, die statt eines Prädikats mehrere Bits ausgibt. Man geht davon aus, daß die Verschlüsselungsfunktionen des RSA- und des Rabin-Public- Key-Kryptosystems Oneway-Permutationen sind. Basierend auf dem Rabin-System haben L. Blum, M. Blum und M. Shub den x2-mod-N-Generator aufgebaut, W. Alexi, B. Chor, O. Goldreich und C.P. Schnorr haben den RSA-Generator konstruiert und den Sicherheitsbeweis zum x2-mod-N-Generator verbessert. Diese Generatoren basieren auf der Blum-Micali-Konstruktion mit dem Hardcore-Prädikat des untersten Bits. Durch neue Ideen können wir die beweisbare Sicherheit der Generatoren deutlich erhöhen, so daß in der Praxis kleinere Schlüssellängen genügen. Bisher war zum Beispiel für den x2-mod-N-Generator bekannt, daß man mit einem Algorithmus A, der das unterste Bit der Wurzel modulo einer n-Bit- Blumzahl mit Wahrscheinlichkeit 1 2 + ² in Zeit |A| = ¡n3¢ berechnet, den Modul in Zeit O¡n3² 9|A|¢ mit Wahrscheinlichkeit ²2 64 faktorisieren kann. Wir verbessern die Laufzeit zu O¡n² 4 log2(n² 1)|A|¢ und Wahrscheinlichkeit 1 9 . Diese neuen Resultate wurden auf der Eurocrypt-Konferenz im Mai 1997 in Konstanz vorgestellt, D.E. Knuth hat sie bereits in die neue Auflage seines Standardwerks The Art of Computer Programming aufgenommen.
Ein Schwerpunkt der physikalischen Fragestellungen, die zur Entwicklung des Dileptonenspektrometers HADES führten, ist die präzise Vermessung des invarianten Massenspektrums von Dileptonen, die in zentralen Reaktionen von relativistischen Schwerionen entstehen. In den Spektren sind die leptonischen Zerfälle der Vektormesonen enthalten. Aus Position und Breite der entsprechenden Signale kann auf eine mögliche Veränderung der Eigenschaften von Vektormesonen im dichten und heißen Kernmedium geschlossen werden. Für die Rekonstruktion der Teilchentrajektorien der Elektronen und Positronen werden die Vieldraht-Driftkammern verwendet, und unter Berücksichtigung des Magnetfelds kann der Teilchenimpuls mit hoher Genauigkeit bestimmt werden. Die hohe Impulsauflösung gepaart mit einer großen Akzeptanz und einem effektiven Trigger, ist eine notwendige Voraussetzung für das Studium von Dileptonen im SIS Energiebereich 1-2 GeV per Nukleon. Eine Flugzeitwand ermittelt über die Teilchenmultiplizität die Zentralität des Stoßes und hilft mittels der Flugzeit bei der Identifikation von Teilchen, insbesondere der Hadronen. Elektronen werden mit Hilfe spezieller Detektoren (Ringabbildender Cherenkov Detektor und Schauerdetektor) identifiziert. Ein effizientes Triggerkonzept zusammen mit einer innovativen Datenaufnahme ermöglicht, solche Ereignisse, in denen sich Dileptonenkandidaten befinden, schnell zu erkennen und dann zu registrieren, um so in kurzer Zeit eine hinreichende Statistik an Dileptonen zu erhalten. Im Rahmen dieser Forschungsarbeiten war das Ziel der Diplomarbeit, die Untersuchung des Ansprechverhaltens der Driftkammern auf Myonen aus der kosmischen Höhenstrahlung und deren Positionen relativ zur Flugzeitwand zu bestimmen. Da die Myonen aus der kosmischen Höhenstrahlung ähnliche Signale in den Vieldraht-Driftkammern hervorrufen wie die in den Schwerionenreaktionen produzierten minimal ionisierenden Teilchen, war es möglich, unabhängig von Strahlzeiten das Ansprechverhalten der Vieldraht-Driftkammern zu untersuchen. Um dieses zu erforschen, wurde zunächst ein spezieller Trigger aufgebaut, der auf Koinzidenzen von gegenüberliegenden Flugzeitwand-Sektoren beruht. So konnte das Durchqueren eines Myon-Kandidaten durch das Spektrometer registriert, und die Teilchentrajektorie vom Ein- bis zum Austritt aus diesem nachvollzogen werden. Die primären Messgrößen, wie die Driftzeiten, und die Korrelation zwischen den Driftkammern und der Flugzeitwand, wurden untersucht und mit Daten aus dem Strahlzeit-Experiment vom November 2001 C+C bei 1,9 GeV per Nukleon verglichen. Weiterhin wurde nach Entwicklung einer Myonen-Kandidatensuche die Effizienz der Driftkammern analysiert. Dabei stellte sich heraus, dass die Driftkammerebenen des Sektors 1 eine Nachweiswahrscheinlichkeit für kosmische Myonen von über 93% aufzeigen. Eine Optimierung der Methode hinsichtlich der Ortsauflösung und Korrelationen zu anderen Drahtebenen oder Driftkammern anderer Ebenen kann in Zukunft in Angriff genommen werden. Da die Intensität der Myonen gering ist, und sie in den meisten Fällen das Spektrometer auf geraden Bahnen durchqueren, sind Vieldeutigkeiten minimiert. So war es möglich, die Positionen der Driftkammern relativ zur Flugzeitwand mit einer Genauigkeit, die durch die Ortsauflösung der Szintillatoren der Flugzeitwand dominiert ist, zu ermitteln. Im Vergleich zu den Standard-Justierungsparametern ergeben sich Abweichungen von bis zu 37,73 mm für die Relativpositionen der Vieldraht-Driftkammern im Vergleich zur Flugzeitwand mit einer Ungenauigkeit von maximal ±7 mm. Um die für das invariante Massenspektrum der Dileptonen notwendige Massenauflösung zu erreichen, wird empfohlen, die Relativpositionen der Driftkammern zueinander und zum Magnetfeld zu bestimmen. Hierfür muss die exakte Ortsinformation des Durchstoßpunktes des Myons auf die Driftkammer über eine Anpassung der Trajektorie berechnet werden. Daraufhin können die Positionen der Driftkammern relativ zueinander mit einer Genauigkeit von < 100 mm ermittelt werden.
Der Bolthausen-Sznitman Koaleszent ist ein zeitstetiger Markovprozess mit Werten in der Menge der Partitionen der natürlichen Zahlen. Der Prozess startet in Singletons und seine Dynamik erlaubt lediglich Übergänge in gröbere Partitionen. In dieser Arbeit wird der Bolthausen-Sznitman Koaleszent zum Zeitpunkt seines letzten Übergangs analysiert. Das Hauptresultat ist ein Grenzwertsatz, welcher eine gemeinsame Aussage sowohl über die Blockanzahl als auch über die Blockgrößen des Koaleszenten zu diesem Zeitpunkt macht. Dafür wird der Koaleszent durch ein gewisses Abholzverfahren zufälliger rekursiver Bäume modelliert, wobei diese Bäume wiederum anhand von Yule-Prozessen generiert werden.
Das im Rahmen dieser Arbeit durchgeführte Experiment hatte zum Ziel Interferenzeffekte beim dissoziativen Ladungstransfer bei Molekülion-Atomstößen zu beobachten. Interferenzeffekte in Molekül-Atomstößen wurden von McGuire hervorgesagt und berechnet [4]. Diese Arbeit betrachtet ein ähnlichen Reaktionssystem. Die von ihm vorausgesagten Effekte wurden bestätigt. Das Experiment hat es ermöglicht, Interferenzen für alle Molekülorientierungen zu betrachten, womit man leicht Analogien zu zwei speziellen Fällen herstellen kann: mit der Molekülachse senkrecht zur Strahlrichtung entsteht eine Situation ähnlich einem Doppelspalt, bei dem die Kerne des Moleküls als Reaktionszentrum an Stelle der Spalte treten; mit der Molekülachse in Strahlrichtung entsteht eine Situation bei der Streuung an einem einzelnen Atom. In allem Molekülorientierungen erkennt man ein ringförmiges Minimum bei 1.6 a.u., wie es insbesondere bei der Beugung einem einzelnen Atom zu beobachten ist. Bei senkrechter Stellung der Molekülachse zur z-Achse überlagert durch die Streifen eines Doppelspaltes. Es war außerdem möglich den Endzustand der Teilchen zu bestimmen, so daß man sagen konnte, ob eine Teilchen angeregt aus der Reaktion hervorgegangen ist oder ob es über metastabile Zwischenzustände zerfallen ist. So ließ sich für den Impulsübertrag von 1.6 au eine Besonderheit feststellen: ein Minimum läßt sich nur im direkten Kanal ohne Anregung beobachten. Findet der Zerfall hingegen über metastabile Zwischenzustände ohne Anregung statt, so weist dieser Kanal bei etwa 1.6 au ein Maximum auf. Parallel zur Durchführung dieser Arbeit wurden erste Tests mit einem digitalen Oszillographen von Aquiris gemacht. Dieser speichert den Spannungsverlauf der Spannung an den Delaylineanoden. Peaks müssen dann schnell genug erkannt und ausgewertet werden. In der Offlineanalyse wären dann eng nebeneinander oder übereinanderliegende Peaks besser als solche zu erkennen. Diese würde die Totzeitproblematik, die sie durch die Dissoziation eines Moleküls senkrecht zur z-Achse entsteht, erheblich entschärfen.
Ein universeller zentraler Grenzwertsatz für den Abstand zweier Kugeln in zufälligen Splitbäumen
(2008)
In der vorliegenden Arbeit wird ein Modell des zufälligen Splitbaumes untersucht. Dies ist ein verallgemeinertes Modell, das bei passender Wahl der zugehörigenParameter viele konkrete Suchbäume umfasst. Das Modell ist in der Arbeit von L. Devroye beschrieben: Nach einem zufallsbasierten Algorithmus werden den Knoten des Baumes Daten in Form von Kugeln hinzugefügt. Tiefe und Höhe sind dabei grundlegende Größen, die die Komplexität von Suchoperationen beschreiben, wenn das Suchbaummodell als Datenstruktur verwendet wird. Das Augenmerk der Arbeit richtet sich auf eine weitere entscheidende Größe: Den Abstand zweier rein zufällig gewählter Kugeln im Baum. Aufbauend auf Devroyes Erkenntnissen zum asymptotischen Verhalten der Tiefe der zuletzt eingefügten Kugel im Splitbaum, wird ein neues Resultat erzielt: Ein universeller Zentraler Grenzwertsatz für den Abstand der Kugeln. Als Anwendungsbeispiel werden zwei vom allgemeinen Modell abgedeckte Suchbäume betrachtet und der jeweilige Grenzwertsatz für die Abstände aus dem universellen Satz abgeleitet.
Kieferorthopäden beschreiben die Anordnung der Zähne und die Stellung der Kiefer üblicherweise mittels Winkel und Strecken in der sagittalen Gesichtsebene. Im vorliegenden Fall werden fünf Winkel betrachtet und jedes Individuum lässt sich als Punkt in einem 5-dimensionalen Raum darstellen. Individuen, die laut Experten ein gut funktionierendes Gebiss und ein harmonisches Äußeres besitzen, formen eine Punktwolke, die im Folgenden als die Norm Population bezeichnet wird. Individuen fern von der Wolke benötigen kieferorthopädische Behandlung. Welche Form sollte dieser Eingriff annehmen? Durch Hilfsmittel der modernen Kieferorthopädie lassen sich die beschriebenen Winkel nahezu nach Belieben ändern. Dies ist natürlich verbunden mit einer unterschiedlichen Menge an Problemen, Arbeitsaufwand und Unannehmlichkeiten, abhängig vom individuellen Patienten. Diese Arbeit präsentiert eine Methode, die auf jedem Computer leicht implementierbar und auf k Variablen verallgemeinerbar ist. Sie ermöglicht Kieferorthopäden eine Visualisierung, wie verschiedene denkbare Anpassungen der Winkel eines Patienten dessen relative Position zur Norm Population verändern. Damit unterstützt sie Kieferorthopäden bei der Entscheidung für einen Behandlungsplan, der die besten Ergebnisse verspricht.
Das HADES-Experiment (High Acceptance DiElectron Spectrometer) am SIS der GSI wurde zur Messung der e+e−-Paare dileptonischer Zerfälle der leichten Vektormesonen im Energiebereich von 1 − 2 AGeV entwickelt. Eine der Hauptanforderungen an das Spurverfolgungssystem des Spektrometers ist eine Ortsauflösung von 100 μm, die benötigt wird, um die geforderte Massenauflösung von 1 % im Bereich der !-Masse zu erzielen. Das Spurverfolgungssystem besteht aus vier Ebenen mit Vieldrahtdriftkammern (Multi-wire Drift Chambers (MDCs)) niedriger Massenbelegung (low-mass), die aus je 6 Auslesedrahtebenen bestehen. Die primäre Messgröße von Driftkammern ist die Driftzeit der entlang einer Teilchenspur generierten Elektronen der Primärionisation zum Auslesedraht. Um die gemessene Driftzeit in eine Ortskoordinate umrechnen zu können, ist eine genaue Kenntnis der Ort-Zeit-Korrelation der Driftzellen und eine präzise Kalibrierung der gemessenen Zeiten nötig. Im Rahmen dieser Arbeit wurde eine neue Methode zur Bestimmung der Kalibrierungsparameter der Driftzeiten mittels der Einkoppelung eines externen elektrischen Pulses auf die Drahtebenen der Driftkammern entwickelt und mit der herkömmlichen Methode der Kalibrierung verglichen. Zur Kalibrierung wurden elektrische Pulse durch die Hochspannungsverteilung der Driftkammern auf die Potentialdrahtebenen geleitet und somit Signale auf die Signaldrähte induziert. Die Ausbreitungsgeschwindigkeit der Signale auf den Drähten, die zur Berücksichtigung der Laufzeiten benötigt wird, wurde experimentell bestimmt. Die Genauigkeit der Methode zur Bestimmung der Kalibrierungsparameter übertrifft die Auflösung der Driftzeitmessung der Driftkammern. Die Kalibrierung der Driftzeiten benötigt nur wenig Rechen- und Zeitaufwand und stellt die Kalibrierungsparameter in gleich hoher Präzision für alle Driftzellen zur Verfügung. Die Qualität der Kalibrierung wird im Gegensatz zur herkömmlichen Methode prinzipbedingt nicht durch Fluktuationen der Startzeit des jeweiligen Stoßereignisses und die Flugzeit der dabei emittierten Teilchen zu den Driftzellen, sowie des elektronischen Rauschens beeinflusst. Die Qualität der Kalibrierung konnte gegenüber der herkömmlichen Methode signifikant verbessert werden. Die Auswirkung der Kalibrierungsparameter auf die Spurrekonstruktion wurde untersucht und für die beiden Kalibrierungsmethoden verglichen. Die Ergebnisse lassen keinen eindeutigen Schluss auf die Auswirkung der Fehler in der Kalibrierung auf die Qualität der Spurrekonstruktion zu, da die Ergebnisse der Spurrekonstruktion von anderen Effekten dominiert werden.
Eine nichtgeometrische Konstruktion der Spektren P(n) und multiplikative Automorphismen von K(n)
(1995)
Beim zentralen Stoß zweier ultrarelativistischer Schwerionen wird ein Zustand extremer Dichte und Temperatur erzeugt, der die Bildung des postulierten Quark-Gluon-Plasmas ermöglichen sollte. Diese neue Phase von Kernmaterie zeichnet sich dadurch aus, daß Quarks und Gluonen ohne den unter Normalbedingungen herrschenden Einschluß in Hadronen frei beweglich sind. Das Experiment NA49 am CERN SPS untersucht Kollisionen von 208Pb-Kernen. Dazu wird ein Bleistrahl mit einer Energie von 158 GeV/Nukleon auf ein im Laborsystem ruhendes Bleitarget geschossen. Das Detektorsystem ist auf den Nachweis des hadronischen Endzustands der Reaktion spezialisiert und erlaubt die Messung von mehr als 60% der etwa 2000 produzierten Hadronen. Diese große Zahl von meßbaren Teilchen macht die Untersuchung von Spektren einzelner Ereignisse möglich, die mit dem über alle Ereignisse gemittelten Spektrum verglichen werden können. Damit will man Fluktuationen von Ereignis zu Ereignis, sogenannte Einzelereignisfluktuationen, nachweisen. Um eine von der Unterteilung der Spektren in Bins unabhängige Untersuchung durchführen zu können, wurden die Einzelverteilungen mit Hilfe von Wavelettransformationen in eine Vielskalendarstellung überführt. Durch die anschließende Berechnung von faktoriellen Momenten der Waveletkoeffizienten war daher eine Korrelationsanalyse auf verschiedenen Skalen möglich. Es wurden breit angelegte Simulationen durchgeführt, die quantitative Aussagen über das Verhalten der faktoriellen Waveletmomente bei verschiedenen Arten der Eingangsverteilungen - als Beispiel seien hier flach- und gaußverteilte Spektren genannt - möglich machten. Die Multiplizitätsabhängigkeit der Verteilungsbreite der faktoriellen Waveletmomente der Ordnung q von Ereignissen mit gleichverteilten Einträgen ergab sich so zu einer Gesetzmäßigkeit von der Form sigma q(m) ~ m exp (-q/2). Die Untersuchungen der experimentell erhaltenen p-Spektren zeigten im Rahmen der statistischen Fehler auf keiner Skala eine signifikante Abweichung von den aus Simulationen mit rein zufälligen Einträgen erhaltenen Ergebnissen. Im Vergleich mit Simulationsrechnungen wurde eine obere Grenze für das Auftreten lokaler nichtstatistischer Fluktuationen gesetzt. Solche Fluktuationen werden z.B. in DCC-Modellen vorhergesagt. Die in der Analyse der Waveletmomente festgestellte Abwesenheit lokaler Fluktuationen steht in qualitativer Übereinstimmung mit der Analyse globaler Einzelereignisvariablen (z.B. <p-i->), die ebenfalls auf ein System mit minimalem Korrelationsinhalt hinweisen.