Refine
Year of publication
Document Type
- diplomthesis (215) (remove)
Has Fulltext
- yes (215)
Is part of the Bibliography
- no (215)
Keywords
- Stochastik (3)
- RDF (2)
- Semantic Web (2)
- Soziologie (2)
- Statistik (2)
- Stochastischer Prozess (2)
- Strahltransport (2)
- Yule-Prozess (2)
- Ablenkung <Physik> (1)
- Algorithmus (1)
Institute
- Physik (100)
- Mathematik (39)
- Informatik (29)
- Gesellschaftswissenschaften (14)
- Wirtschaftswissenschaften (8)
- Geowissenschaften (7)
- Biowissenschaften (4)
- Erziehungswissenschaften (4)
- Biochemie und Chemie (3)
- Geographie (1)
Das Assignment Problem ist ein bekanntes kombinatorisches Optimierungsproblem, bei dem es darum geht, in einem gewichteten bipartiten Graphen ein Matching mit minimalem Gewicht zu finden. In dieser Arbeit sind die Kantengewichte exponentialverteilt zu speziell gewählten Raten. Damit sind Erwartungswert und Varianz des minimalen Gewichts von besonderem Interesse. Zunächst wird ein Beweis der Parisi Formel und der Coppersmith-Sorkin Formel erläutert. Die Formeln beschreiben den Erwartungswert des minimalen Gewichts im Fall, dass die Raten alle dem Wert 1 entsprechen. Im zweiten Teil wird die Herleitung einer expliziten Formel zur Berechnung der Varianz des zufälligen minimalen Gewichts erklärt, wobei die Raten immer noch mit 1 übereinstimmen. Gleichzeitig wird eine Formel für die höheren Momente geliefert, aus der die Parisi Formel und Coppersmith-Sorkin Formel aus dem ersten Teil folgen und die sogar das bisherige Modell bezüglich der Parameter erweitert. Schließlich kann man das Ergebnis des zweiten Teils zur Beschreibung des asymptotischen Verhaltens der Varianz benutzen.
A new experimental system has been set up with the ability to investigate catalytic processes and charge transfer of acrylonitrile on copper. For this purpose a new Time of Flight Mass Spectrometer to measure both the reaction outcome and electron energy distributions has been designed and tested. First experiments have been carried out, in which the width of the two-photon photoelectron energy distribution can be varied by changing the wavelength of the incident laser beam. This method allows high precision measurements of the work function and will be useful in the study with adsorbates, physi- or chemisorbed. In first adsorption measurements the excitation of vibrational modes of acrylonitrile has been seen to be consistent with earlier gas-phase experiments. Electron energy spectra taken with the electron analyzer with high resolution showed a clear defect in the electron yield at energies around the energy of one vibrational mode, indicating the possibility of resonant vibrational excitation by electron impact. More indications to that process were found i first electron spectra from the new TOF-MS, since a threshold for the capture probability is found at energies close to vibrational excitation. The threshold vanishes when the exposure is amplified significantly, indicating that electrons are scattered multiple and no resonance are be observed anymore. The experiments carried out were just the starting point in understanding the mechanism of the reaction. A new femtosecond laser system which is currently set up will give not only a time-resolved information on the reaction pathways but also give the possibility to create non-thermal electrons and to study intermediate states of the photoemission and the influence of the adsorbate on them. In addition the rotation of the electron analyzer will permit angle-resolved measurements of the scattering process of the electrons and the vibrational excitation via this pathway. With the new cooling system applied it will also be interesting to study the excitation process at lower temperatures. Below -160° C there are different geometries of the molecule predicted to be present at the surface. At these temperatures the thermal effects should play a major role, so that a thermal decoupling of the electrons is very desirable.
Regulation und Geschlecht : zur feministischen Erweiterung der Regulationstheorie bei Kohlmorgen
(2006)
Die Regulationstheorie bietet Konzepte zur Untersuchung der Bestandsfähigkeit, der Struktur und Dynamik von Gesellschaften, in denen kapitalistische Produktionsweise herrscht. Sie erlaubt es, die Entwicklung des kapitalistischen Weltsystems zu periodisieren und die von Marx zunächst abstrakt als Selbstverwertung des Werts gefasste Kapitalakkumulation in ihren historisch-konkreten Formen zu analysieren. Durch die Neubestimmung der Rolle von sozialen Kompromissen und Kräfteverhältnissen für die kapitalistische Dynamik sowie die Betonung der grundsätzlichen Kontingenz und Offenheit der historischen Entwicklung bietet die Regulationstheorie eine Möglichkeit der Überwindung von deterministischem und ökonomistischem Denken, das im traditionellen Marxismus dominant war, ohne die Möglichkeit einer umfassenden kritischen Gesellschaftstheorie aufzugeben. Zu einer solchen kritischen Gesellschaftstheorie gehört natürlich auch eine Kritik geschlechtsspezifischer Herrschaft und Ausbeutung, die von der Regulationstheorie zwar oft erwähnt, jedoch lange Zeit nicht systematisch in regulationistische Arbeiten einbezogen wurden. Mit Lars Kohlmorgens "Regulation, Klasse, Geschlecht" (2004) haben wir den ersten systematischen Versuch, die Regulationstheorie um die Analyse der Geschlechterverhältnisse zu erweitern und die regulationistischen Kategorien zu diesem Zweck zu reformulieren. Die Frage, ob und inwieweit es Kohlmorgen gelungen ist, die geschlechtertheoretische Leerstelle der Regulationstheorie zu füllen, ist Gegenstand dieser Arbeit.
In der vorliegenden Diplomarbeit wird die Auger-Ionisation des Kohlenstoffmonooxidmoleküls CO in linear und zirkular polarisierter Röntgenstrahlung untersucht. Die Strahlung liegt im Bereich des Vakuumultraviolett (VUV) bei 305eV und wird durch ein Elektronensynchrotron, die Advanced Light Source des Lawrence Berkeley National Laboratory, erzeugt. Die Energie eines Photons führt zur Photoionisation eines Elektrons aus dem 1s-Orbital des Kohlenstoffs. Das im darauf folgenden Augerzerfall ausgesandte Elektron und die jeweils einfach positiv geladenen Fragmente aus der Coulombexplosion des CO++-Molekülions werden hinsichtlich ihrer Impulse vermessen. Zur Impulsmessung wurde die in unserer Arbeitsgruppe laufend weiter entwickelte Methode COLTRIMS (COld Target Recoil Ion Momentum Spectroscopy) eingesetzt. Der experimentelle Aufbau gestattet prinzipiell die Messung aller bei der Ionisation freigesetzten geladenen Teilchen. Um die hochenergetischen Auger-Elektronen mit hinreichender Auflösung zu erfassen, wurde erstmals bei einer solchen Apparatur ein Abbremsfeld eingebaut. Dadurch werden allerdings die niederenergetischen Photoelektronen unterdrückt. Die Meßmethode erlaubt eine Rekonstruktion der Impulse der Fragmente zum Zeitpunkt der Ionisation und läßt Rückschlüsse auf die Dynamik der Ionisation zu. Die Winkelverteilung der Augerelektronen wird in Abhängigkeit von der Polarisation beobachtet. Die Verteilungen sowohl des Polar- als auch des Azimutwinkels zur rekonstruierten Molekülachse zeigen keine ausgeprägte Abhängigkeit von der Polarisation. Dies rehabilitiert das von Guillemin et al. in Frage gestellte Zweistufenmodell des Augerzerfalls. Durch Selektion der kinetischen Energie der Augerelektronen und der bei der Coulombexplosion freigesetzten kinetischen Energie (KER) gelingt es, kurzlebige Molekülionen nach Drehimpulszuständen zu trennen und deutlich anisotrope Emissionsmuster zu beobachten. Die Muster lassen sich qualitativ erklären. Langlebigere Molekülionen zeigen ein scharfe Vibrationlinien im KER-Spektrum. Das Vibrationsspektrum wird analysiert und in Bezug zu vorangehenden Messungen gesetzt. Durch die koinzidente Meßmethode ist es möglich, bislang nicht beobachtbare Vibrationslinien zu identifizieren.
Aufbau und Test einer COLTRIMS-Apparatur zur Untersuchung der Ionisation von metastabilem Helium
(2007)
In der vorliegenden Arbeit wurde ein COLTRIMS-Experiment, zur Untersuchung eines angeregten, spinpolarisierten Gastargets in starken Laserfeldern, aufgebaut. Das zu untersuchende kalte Gastarget wird durch eine Überschallexpansion in der Quellkammer erzeugt. Zusätzlich wird in der dafür vorhergesehenen Düse über eine Gleichstromentladung in einer MSE ein Plasma im Gas gezündet. Dieses Plasma regt einen Teil der Gasatome in den gewünschten spinpolarisierten Zustand an. Für den Aufbau der Düse wurde auf das bereits bewährte Prinzip von [Jah02] zurückgegriffen und dieses im Detail verbessert. Die Stromzufuhr für die Hochdruckseite der MSE (s. Kap. 3.3.2) verläuft jetzt entlang der Gaszuleitung während die Niederdruckseite der MSE über das Düsengehäuse geerdet ist. Durch diese Vorgehensweise wird ein ungewolltes Brennen des Plasmas außerhalb der Düse unterbunden. Zudem ist die MSE nun von außen mit dem Düsendeckel verschraubt und lässt sich so leichter austauschen. Für eine längere Brenndauer (10-15 h) des Plasmas werden die stabileren Kupfer- oder Wolfram-MSEs verwendet. Die Separation der (", ")-Zustände erfolgt durch einen eigens für dieses Experiment angefertigten Hexapolpermanentmagneten [Jah02]. Der Strahl wird zwecks einer maximalen Ablenkung des gewünschten spinpolarisierten Anteils nahe eines Pols eingeschossen. Die Kenntnis über die Strahlqualität nach der Expansion sowie die zusätzliche Fokussierungseigenschaft des Magneten lassen auf einen gut lokalisiertes Target schließen. Nach vorangegangen Berechnungen beträgt die Targetdichte ca. 5·10exp6 /cmxcm bei einer Fokusausdehnung von ca. 1-2 mm. Diese Werte beschreiben jedoch nur einen Mittelwert, da es durch die Abnutzung der MSEs und deren Wechsel zu verschiedenen Brennzuständen des Plasmas kommen kann. Der Laserstrahl wird unter Verwendung eines Periskops orthogonal zu der um 3° gekippten Tragetstrahl-Spektrometer-Ebene eingeschossen. Er kreuzt den Targetstrahl in der Mitte des Spektrometers, welches dafür verantwortlich ist die Fragmente der Reaktion mit Hilfe eines elektrischen und magnetischen Feldes in Richtung der Delayline-Detektoren zu lenken. Dies ermöglicht eine genaue Untersuchung der Reaktion mit einer Raumwinkelakzeptanz von 4 Pi. Aufgrund des winzigen Fokusvolumens des Lasers kann auf eine Flugzeit- sowie Ortsfokussierung der Teilchen verzichtet werden. In diesem Experiment sollen anhand der Koinzidenz-Imaging-Technik von COLTRIMS Doppelionisationsprozesse von spinpolarisiertem Helium in starken Feldern untersucht werden. Eine besondere Aufmerksamkeit soll dabei der relativ neuen „Rescattering“-Theorie geschenkt werden. Bei diesem nichtsequentiellen Doppelionisationsmechanismus wird ein Elektron durch einen Laserpuls aus dem Atom gelöst. Durch das weiterhin anhaltende, oszillierende Laserfeld nimmt das Elektron genügend kinetische Energie auf, um zu dem Atom zurückzukehren und mit dem zweiten Elektron zu stoßen und dieses zu ionisieren. Das vorliegende Experiment kann somit als Elektronenstoßexperiment angesehen werden, bei dem sowohl Target als auch Projektil polarisiert sind. Die geplanten Messungen konnten leider aufgrund eines langanhaltenden Defekts des Frankfurter Lasersystems nicht durchgeführt werden. Erste Testmessungen zeigen allerdings, dass alle Einzelkomponenten des Aufbaus funktionieren. Der spinpolarisierte Heliumstrahl konnte erzeugt werden und der zu untersuchende Anteil verläuft mittig durch das COLTRIMSS-Pektrometer. Die beiden Delayline Detektoren wurden in Betrieb genommen und in einer Testmessung mit Argongas optimiert. Erste Flugzeitmessungen zeigen, dass auch das konzipierte Spektrometer entsprechend den Erwartungen funktioniert und auch die restliche Messelektronik einsatzbereit ist.
Die vorliegende Arbeit ist der Fragestellung nachgegangen, ob sich die Gedächtnisleistung, insbesondere die von älteren Menschen, durch Gedächtnistraining verbessern lässt. Dabei sollen Verhaltensdaten und EEG-Daten, die simultan mit der Bewältigung einer Gedächtnisaufgabe erhoben wurden, korreliert werden. Untersucht wurden zwei verschiedene Gruppen. Zum einen Mild Cognitive Impairment Patienten und zum anderen eine altersähnliche Kontrollgruppe. Unter Mild Cognitive Impairment (MCI) versteht man eine leichte kognitive Beeinträchtigung des Gedächtnisses, welche aber die Kriterien einer Demenzmanifestation noch nicht erfüllt. Die Diagnosekriterien für MCI sind nicht einheitlich. Ein häufiges Kriterium wurde von Petersen (1999) definiert und ist die objektive Beeinträchtigung des Gedächtnisses ohne weitere kognitive Einbußen. Die Leistungsfähigkeit des Gedächtnisses/Gedächtnissubsystems muss dabei mindestens 1,5 Standardabweichungen schlechter sein, als die einer alters- und ausbildungsgleichen Population. Etwa 16-34 % aller 65 jährigen leiden unter dieser Form der kognitiven Beeinträchtigung. Schätzungen ergeben, dass 70 % der demenziellen Erkrankungen innerhalb von 2-3 Jahren aus einer MCI hervorgehen. Veränderungen des EEGs bei Patienten mit der Alzheimer'schen Demenz (AD) und MCI-Patienten wurden in den letzten Jahren untersucht, insbesondere Untersuchungen der EEG-Spontanaktivität, da diese vor allem bei den AD-Patienten leichter zu realisieren sind. Auffällig ist ein allgemein „langsamer“ werdendes EEG bei den Demenz-Patienten. Vor allem im okzipitalen Bereich ist ein Verlust des Alpha-Blocks beim Öffnen der Augen zu registrieren. In einem sehr frühen Stadium der AD ist meist noch kein verändertes EEG zu verzeichnen, ebenso bei MCI-Patienten. Eine beobachtbare Veränderung der EEG-Oszillationen könnte aber für eine frühe Diagnose der Krankheit und somit auch für eine frühe Behandlungsmöglichkeit von Bedeutung sein. Das Elektroenzephalogramm misst elektrische Potentiale, die im Gehirn durch „Neuronenaktivität“ verursacht werden und hat eine besonders gute zeitliche Auflösung (in ms Bereich) dafür aber eine schlechte räumliche. Die schlechte räumliche Auflösung ist dadurch zu begründen, dass man beim EEG „nur“ Oberflächenpotentialänderungen registrieren kann und dadurch nicht die Quelle der Potentiale lokalisieren kann. Die hohe zeitliche Auflösung des EEGs ermöglicht es aber die neuronale Aktivität während und auch nach der Kodierung sensorischer Informationen (z.B. visuelle Stimulation, wie in dieser Arbeit) zu beobachten. In vorliegender Arbeit wurde untersucht, ob gesunde, ältere Menschen im Vergleich zu Patienten mit leichter Gedächtnisstörung, beim Bewältigen einer Gedächtnisaufgabe, unterschiedliche Hirn-Aktivitäten aufweisen und inwieweit ein Gedächtnistraining von vier Wochen die Gedächtnisleistung der Probanden/Patienten aber auch das EEG-Aktivitätsmuster verändern kann; ob das Gedächtnis also auch im Alter oder sogar bei Dysfunktionen durch Training verbessert werden kann. Dabei galt gerade dem frontalen Bereich besonderes Interesse, da diesem Bereich für das Gedächtnissystem eine besondere Relevanz zugeschrieben wird. Eine delayed matching to sample Aufgabe wurde für visuelle Stimulation, Testung des Arbeitsgedächtnisses und für das kognitive Training durchgeführt. Die neuropsychologischen Daten wurden hierfür mit den EEG-Daten korreliert.
Wir untersuchen das Verhalten von unären stochastischen endlichen Automaten mit Hilfe von Methoden der Theorie der homogenen Markovketten. Für unäre stochastische Automaten mit E-isoliertem Cutpoint lambda und n Zuständen bestimmen wir eine obere Schranke für die Größe des zyklischen Teils eines optimalen äquivalenten DFAs. Ein Ergebnis von Milani und Pighizzini zeigt bereits, dass für den zyklischen Teil des äquivalenten DFAs O(e exp(sqrt(n ln n))) Zustände ausreichen und in unendlich vielen Fällen auch Omega(eexp(sqrt(n ln n))) Zustände benötigt werden, wobei die Größe von E keine Rolle spielt. Wir zeigen die obere Schranke n exp (1/2E) für die Größe des zyklischen Teils und weisen nach, dass der optimale DFA für jedes c < 1 in unendlich vielen Fällen mehr als n exp (c/2E) viele Zustände im zyklischen Teil benötigt. Wir weisen auch nach, dass es eine unendliche Familie endlicher unärer Sprachen gibt, für die es jeweils einen PFA mit n Zuständen und 1/4-isoliertem Cutpoint gibt, während der optimale, DFA e exp(Omega x sqrt(n ln n)) Zustände im Anfangspfad benötigt.
Euklidische Zerlegungen nicht-kompakter hyperbolischer Mannigfaltigkeiten mit endlichem Volumen
(1998)
Epstein and Penner constructed in [EP88] the Euclidean decomposition of a non-compact hyperbolic n-manifold of finite volume for a choice of cusps, n >= 2. The manifold is cut along geodesic hyperplanes into hyperbolic ideal convex polyhedra. The intersection of the cusps with the Euclidean decomposition determined by them turns out to be rather simple as stated in Theorem 2.2. A dual decomposition resulting from the expansion of the cusps was already mentioned in [EP88]. These two dual hyperbolic decompositions of the manifold induce two dual decompositions in the Euclidean structure of the cusp sections. This observation leads in Theorems 5.1 and 5.2 to easily computable, necessary conditions for an arbitrary ideal polyhedral decomposition of the manifold to be a Euclidean decomposition.
Mit dieser Arbeit ist gezeigt worden, wie vielfältig die Produkte bzw. Dienste im Mobilfunkbereich sind. Der eigentliche Schwerpunkt lag auf der Fragestellung, wie die Mobilfunk-Dienste im Internet bepreist werden. Die Untersuchung der verschiedenen Mobilfunktarife im Internet hatte das Ziel, die grundlegenden Preisparameter für diese Tarife zu identifizieren, zu diskutieren und zu modellieren. Das oberste Ziel bei der Modellierung war die Erstellung eines flexiblen Tarif- und Abrechnungsmodells. Zu diesem Zweck wurden die Vorteile, die XML-Schema und XML-Netze bieten, zum Ausdruck gebracht. Dabei wurde das methodische Vorgehen in den Vordergrund gestellt und nicht die Abbildung des tatsächlichen Marktgeschehens. Zunächst wurde in dieser Arbeit kurz das Internet und die speziellen Eigenschaften des Internets behandelt. Dabei wurde festgestellt, dass sich das Internet auf Grund seiner Eigenschaften besonderes für digitale Produkte eignet. Die digitalen Produkte und deren Eigenschaften wurden untersucht und daraus ergab sich, dass die digitalen Produkte eine vorteilhafte Kostenstruktur aufweisen; nämlich vernachlässigbar niedrige Reproduktionskosten. Unter anderem ist festgestellt worden, dass für die Nutzung der digitalen Produkte für Konsumenten deren Verbreitungsgrad wichtig ist. Gerade hier kann das Internet dank seiner Eigenschaften diese Anforderung besser als ein anderer Vertriebskanal unterstützen. Schließlich lassen sich aus dem Zusammenspiel der Interneteigenschaften und der Merkmale der digitalen Güter gewisse ökonomische Gesetzmäßigkeiten ableiten. Diese verschaffen einem Unternehmen langfristig Vorteile gegenüber der Konkurrenz. Der Schwerpunkt dieser Arbeit liegt aber bei einer speziellen Gruppe der digitalen Produkte, nämlich der Produkte bzw. Dienste im Mobilfunkbereich. Mobilfunk ist eine wichtige und weitverbreitete Art der Mobilkommunikation. Auf dem deutschen Mobilfunkmarkt wurde gerade die 4. Generation der Mobilfunkstandards – UMTS - eingeführt. Allerdings wird UMTS noch einige Zeit brauchen, um sich auf dem Markt richtig zu etablieren. Damit bleibt der GPRS immer noch der führende Standard auf diesem Markt. Der meist genutzte Dienst im Mobilfunk ist immer noch der „Sprach-Dienst“. Der Mobilfunk bietet neben der „Sprache“ eine ganze Reihe weiterer Dienste an. Durch die neuen Technologien ist der Trend in Richtung Datenübertragung über Mobilfunk stark am Aufholen. Die zur Verfügung stehenden Dienste hängen mit den Mobilfunkstandards zusammen. Daher ist es möglich, dass bei der Änderung der Standards auch die zur Verfügung stehenden Dienste angepasst werden. Ein wichtiger Punkt am Bespiel von Mobilfunk als digitales Produkt bzw. Dienstleistung war die Wahl der richtigen Preisstrategie. Die meisten Netzbetreiber entschieden sich für die Strategie differenzierter Preise. Damit können sie unterschiedliche Zahlungsbereitschaften ihrer Kunden relativ gut ausschöpfen. Hierzu wurden die Vielfältigkeit der Möglichkeiten und die Vorteile, die die Preisdifferenzierungsstrategie anbietet, dargestellt. Der sich anschließende Hauptteil dieser Arbeit ist die Parametrisierung und die Modellierung des Mobilfunktarifs und dessen Abrechnungssystems. Zur Modellierung wurden XML-Schema und XML-Netze gewählt. Das XML-Schema ermöglicht flexible Erstellung, Anpassung und Erweiterung von Tarifelementen. Außerdem ermöglicht XML Datenaustausch über Plattform unabhängige Protokolle. Die XML-Netze bieten durch ihre graphische Darstellung die Visualisierung der Abläufe und der ablaufrelevanten Daten. Die aktuellen Zustände können aufgezeigt, simuliert und analysiert werden. Außerdem ermöglichen sie die gute Umstrukturierung, Anpassung und Erweiterung des Abrechnungsprozesses. Bei der Erstellung des Abrechnungsmodells wurde von den Hauptbestandteilen eines beliebigen Abrechnungsmodells ausgegangen. Anschließend sind diese Bestandteile an die Anforderungen des Abrechnungsmodells für Mobilfunkverträge angepasst worden. Die jeweiligen Abrechnungsparameter wurden, wie z.B. Tarifdaten, mit der modifizierten XMLSchema dargestellt. Die Tarifdaten stellen die Vielfältigkeit der Parameter dar, die die Preise eines Mobilfunktarifes beeinflussen. Die Preisparameter wurden nach eingehender Untersuchung verschiedener Tarife181 der vier Netzbetreiber identifiziert. Dabei fiel auf, dass die Netzbetreiber in der Regel von vergleichsweise ähnlichen Parametern ausgingen. Damit haben auch die Tarife ähnliche Strukturen. Weiterhin führen stark differenziert Preise dazu, dass man nicht vom „schlechtesten“ oder vom „besten“ Tarif sprechen kann. Im Prinzip gibt es nur den „besten“ Tarif für ein bestimmtes Nutzungsverhalten. Außer Sprachkommunikation wurden in der Arbeit auch andere Kommunikationsarten vorgestellt. Dabei wurde eine neue Art des Bepreisens angesprochen, nämlich das Bepreisen nach Dienstqualität. Die darauf basierenden Preisstrukturen werden zukünftig sicherlich eine große Rolle spielen, da sie sich insbesondere für Dienste eignen, die vom UMTS unterstütz werden.
Aufbau eines Experimentes zur Untersuchung der Ionenstrahlkühlung mit Hilfe eines HF-Quadrupols
(2003)
Die Arbeit beschreibt ein Experiment zur Kühlung eines 40Ar-Ionenstrahls mittels eines 4He-Hintergrundgases innerhalb eines unmodulierten RF-Quadrupols von 500 mm Länge. Ziel des Experimentes war es, den Einfluss der Gaskühlung auf die Qualität von Ionenstrahlen geringer Energie und Intensität zu untersuchen. Die Ionen wurden bei unterschiedlichen Spannungen aus einem Duoplasmatron extrahiert und vor der Injektion in den Quadrupol durch ein elektrostatisches Linsensystem formiert. Die Stromstärke der Strahles wurde mittels einer Faradaytasse gemessen, die mit einer Sekundärelektronen unterdrückenden Repellerblende ausgestattet ist. Der Einfluß der variierten Parameter Hintergrundgasdruck, Quadrupolfrequenz und Strahlenergie auf die Qualität des Strahls wurde dabei nicht direkt über dessen, die Phasenraumverteilung beschreibende, Emittanz gemessen, sondern über die Veränderung der registrierten Strahlstromstärken an einer Blende konstanter Apertur, also der Brillanz abgeleitet. Vorbereitend wurden zunächst Duoplasmatron und Injektionssystem überholt, aufgebaut und mit der nötigen Energie- und Kühlversorgung ausgerüstet. Im anschließenden Testlauf mit ungekühlten Heliumionen wurden die einzustellenden Werte der Betriebsparameter Quellendruck und diverse Blendenspannungen ermittelt und das System auf seine der Reproduktion dienenden Stabilität geprüft. Dabei wurden im Dauerbetrieb Strahlstromstärken von 0,29 mA bei 1 keV/u und 0,02 mA bei 0,15 keV/u Strahlenergie erzielt. Mittels der bekannten Emittanz des Helium-Strahls bei 1 keV/u Energie und 0,25 mA Strahlstromstärke wurde die jeweilige normierte Emittanz der noch ungekühlten Strahlen auf 2,18*10-2 im ersten und 1,61*10-2 im zweiten Fall abgeschätzt. Zur Gaskühlung wurde ein Quadrupol mit 10 mm Apertur- und 7,5 mm Elektrodenradius gefertigt und mit einem Phasentrenner gekoppelt. Ein Breitbandgenerator und -Verstärker dienten der frequenz- und spannungsvariablen Elektrodenbelegung. Der Hintergrundgasdruck wurde mittels einem handelsüblichen Regelventil variiert. Um der ein großes Masseverhältnis von Strahlionen zu Hintergrundgas fordernden Theorie Rechnung zu tragen, wurden Argon als Ionen und Helium als Buffergas gewählt. Einer eingehenden Untersuchung der Auswirkung der einzelnen Komponenten und ihrer Kombination auf die Eigenschaften des Ionenstrahls folgte eine schrittweise Variation von Quadrupolfrequenz und Hintergrundgasdruck im Bereich 1-5 MHz und 9*10-6 - 4*10-3 mbar bei den Strahlenergien 15, 25 und 80 eV/u. Die hierbei gemessenen Strahlstromstärken wurden über die frequenzabhängige Elektrodenspannung normiert und mit der Stärke der ungekühlten Strahlen verglichen. Bei 15 eV/u Strahlenergie konnte die gemessene Maximalstromstärke um 43 % von 0,014 µA/V ungekühlt auf 0,02 µA/V bei 1*10-4 mbar Hintergrundgasdruck gesteigert werden. Die Strahlstromstärke des Strahles mit 25 eV/u Energie wurde von 0,045µA/V des ungekühlten auf 0,1 µA/V bei ca. 6*10-5 mbar verdoppelt. Bei 80 eV/u Energie blieb die Strahlstromstärke mit 0,35 µA/V unverändert, jedoch wurde im gesamten Bereich zwischen 2*10-5 und 3*10-5 mbar und 3,4 - 4,6 MHz mit annähernd konstanten 0,28 µA/V ein Plateau hoher Strahlstromstärke registriert, dem etwa 0,06 µA/V im ungekühlten Strahl entgegenstehen. Ein weniger stark ausgeprägtes Analogon wurde bei 15 eV/u im Frequenzbereich um 3,5 MHz beobachtet. In zwei von drei Fällen konnte im Experiment die Strahlstromstärke durch die Gaskühlung deutlich gesteigert werden, im dritten Fall wurde die Zahl der transportierten Ionen in einem zuvor ungeeigneten Frequenzbereich um den Faktor 4,5 gesteigert. Durch die Beziehung zwischen Strahlstromstärke I, Strahlbrillanz B und Strahlemittanz ε mit I~B~1/ε2 kann abschließend eine Verminderung der Strahlemittanz durch die Gaskühlung festgestellt werden. Die durchgeführten Experimente haben gezeigt, daß man bei niedrigen Strahlenergien einfach geladene Ionen bei relativ hohem Gasdruck und geeigneten Parametern des Quadrupols transportieren und die Emittanz des Strahls verbessern kann. Die Kombination von Quadrupol und Buffergas stellt also ein System dar, das als Gaskühler bei kleinen Strömen von Niedrigenergiestrahlen eingesetzt werden kann. Als nächstes würde zur weitergehenden, jedoch den Rahmen dieser Arbeit übersteigenden Untersuchung ein technisch und finanziell aufwändigerer Aufbau benötigt. Das benutzte Linsensystem würde durch ein auf die Ionensorte speziell abgestimmtes Injektionssystem und die Faradaytasse durch eine rechnergesteuerte, orts- und winkelauflösende Emittanzmessanlage ersetzt. Die somit erhaltene höhere Auflösung des Strahles würde den Übergang von der vorliegenden qualitativen Beschreibung der Gaskühlung zu einer quantitativen ermöglichen.
Das Konzept Sünde hat seine normative Geltung im Laufe des Zivilisationsprozesses zwar nicht verloren, seine Bedeutung ist jedoch vorwiegend in das religiöse Feld verlagert worden. Die Gegenwartsgesellschaft scheint sich dem Sündenbegriff nicht länger stellen zu müssen. Ein kultursoziologischer Blick offenbart jedoch, dass die Idee der Sünde – ins Metaphorische verwandelt – noch immer eine Hintergrundfolie für den Umgang mit sozialen Verfehlungen bildet. Insbesondere die innere und äußere Kontrolle sozialen Handelns belegt diesen Zusammenhang. Indes zeigt die wissenssoziologischer Perspektive, dass die Sünde in dieser Form als heimliches Herrschaftskonstrukt auftritt, das – wie schon Max Weber zeigte – einem stetigen Entzauberungs-, und damit einem Wandlungsprozess unterliegt. Dadurch wird die normative Geltung des Sündenkonzepts entkräftet – während gleichzeitig der Kerngedanke in der Bildersprache des alltäglichen Sprechens erhalten bleibt.
Approximating Perpetuities
(2006)
A perpetuity is a real valued random variable which is characterised by a distributional fixed-point equation of the form X=AX+b, where (A,b) is a vector of random variables independent of X, whereas dependencies between A and b are allowed. Conditions for existence and uniqueness of solutions of such fixed-point equations are known, as is the tail behaviour for most cases. In this work, we look at the central area and develop an algorithm to approximate the distribution function and possibly density of a large class of such perpetuities. For one specific example from the probabilistic analysis of algorithms, the algorithm is implemented and explicit error bounds for this approximation are given. At last, we look at some examples, where the densities or at least some properties are known to compare the theoretical error bounds to the actual error of the approximation. The algorithm used here is based on a method which was developed for another class of fixed-point equations. While adapting to this case, a considerable improvement was found, which can be translated to the original method.
Als eines der Experimente am neuen Beschleuniger des Europäischen Labors für Teilchenphysik CERN, dem LHC, wird ALICE die Messung von Schwerionenkollisionen bei bislang unerreichten Energien ermöglichen. Die wichtigste Aufgabe ist dabei, verschiedene Phasen stark wechselwirkender Materie zu untersuchen und deren theoretisches Verständnis zu prüfen. Eine vielversprechende Observable ist die Rate produzierter Quarkonia, welche über ihren Zerfall in ein Leptonenpaar zu bestimmen ist. Daher ist die Hauptaufgabe des TRD, einem Subdetektor von ALICE, eine besonders gute Identifikation von Elektronen zu ermöglichen. Ein Teil der vorliegenden Arbeit war der Aufbau eines Teststandes für die Auslesekammern des TRD. Die verschiedenen vorgegebenen Messroutinen wurden zur Anwendung gebracht und wenn möglich verfeinert. Schließlich wurde die Prozedur der Langzeitsstabilitätsmessung verwendet, um den Koeffizienten der Elektronenanlagerung in der Gasmischung Ar-CO2 (70:30) zu bestimmen. Trotz der großen Ungenauigkeiten der Messung fügen sich die Ergebnisse sehr gut in die Systematik bereits vorhandener Daten bei ähnlichen Gasmischungen ein. Insbesondere bei Strahlenergien, wie sie am LHC verf¨ugbar sein werden, sind Kollisionen zweier Protonen eine wichtige Referenz für die Messung von Quarkonia in Schwerionenkollisionen. Dieser Studie zufolge ist es mit dem ALICE-TRD möglich, in 2 · 108 unselektierten (minimum bias) Proton-Proton-Kollisionen bei einer Schwerpunktsenergie von 14 TeV ein signifikantes J/ψ-Signal aufzunehmen. Die Messung schwererer Quarkonia-Zustände ist ohne Ereignisselektion nicht möglich. Der größte Beitrag zum Untergrund oberhalb einer invarianten Masse von 0.5 GeV/c2 ist durch Zerfälle von Teilchen mit offenem charm oder beauty zu erwarten. Die Like-Sign-Methode lieferte das beste Ergebnis bei der Berechnung eines unkorrelierten Untergrundspektrums. Auch bei Transversalimpulsen des Elektron-Positron-Paars oberhalb von etwa 4 GeV/c ist noch ein signifikantes J/ψ-Signal zu erwarten, zudem offenbar mit einem verhältnismäßig geringeren Beitrag durch Untergrund. Bei einem vorläufigen Einsatz von nur 4 der insgesamt 18 Supermodule des TRD ist ein zwar messbares, jedoch sehr reduziertes Signal zu erwarten. Bei einer noch geringeren Zahl scheint das ohne Ereignisselektion nicht möglich.
Die Motivation dieser Diplomarbeit bestand darin, die Unterschiede zwischen der 2SC-< ud >-farbsupraleitenden und der normalleitenden Phase der Quarkmaterie aufzuzeigen und die Auswirkungen der 2SC-< ud >-farbsupraleitenden Phase auf Quarksterne zu untersuchen. Dabei sollte festgestellt werden, wie groß der farbsupraleitende Gap sein muß, damit sich die Eigenschaften der Quarksterne merklich ändern. Dazu wurde die Kopplungskonstante variiert. Die Ergebnisse aus Kapitel 5 lassen sich somit zu folgenden Resultaten zusammenfassen: Die 2SC-< ud >-farbsupraleitende wird immer der normalleitenden Phase der Quarkmaterie vorgezogen, weil sie energetisch günstiger ist. Zudem muß die Quarkmaterie neutral sein, denn sonst würde sie wegen der abstoßenden Coulombkraft nicht stabil sein und die Quarksterne würden explodieren. 2SC-< ud >-farbsupraleitende Quarkmateriemit freien, massiven strange Quarks besitzt den höchsten Druck bei gegebenem quarkchemischen Potential und ist damit am meisten bevorzugt vor allen anderen in dieser Diplomarbeit betrachteten Quarkmateriephasen. Durch das Einführen des farbchemischen und elektrischen Potentials wird die 2SC-< ud >- farbsupraleitende Quarkmaterie neutralisiert. In der 2SC-< ud >-farbsupraleitenden Phase ohne strange Quarks werden jedoch so viele Elektronen zur Neutralisation benötigt, daß der farbsupraleitende Gap erheblich verringert wird. Die 2SC-< ud >-farbsupraleitende Phase mit freien, massiven strange Quarks wird gegenüber der 2SC-< ud >-farbsupraleitenden Phase ohne strange Quarks energetisch bevorzugt, weil erstere nicht so viele Elektronen zur Neutralisation benötigt, da diese Aufgabe hauptsächlich von den strange Quarks übernommen und dadurch der Gap nicht so erheblich reduziert wird. Zudem kommt noch der freie strange Quarkdruck hinzu, der diesen Zustand energetisch begünstigt. 2SC-< ud >-farbsupraleitende Quarksterne ohne strange Quarks besitzen einen maximal 122 Meter kleineren Radius und eine maximal 0.016 M⊙ kleinere Masse als normalleitende Quarksterne ohne strange Quarks. 2SC-< ud >-farbsupraleitende Quarksterne mit strange Quarks besitzen einen maximal 72 Meter kleineren Radius und eine maximal 0.023 M⊙ kleinere Masse als normalleitende Quarksterne mit strange Quarks. Erhöht man den farbsupraleitenden Gap, dann werden die Quarksterne größer und schwerer. Vergrößert man die Kopplungskonstante um das 1.5-fache des angegebenen Referenzwertes (5.2), dann ungefähr verdoppelt sich der farbsupraleitende Gap. Ein Quarkstern mit strange Quarks weist dann eine Radiusdifferenz von einem Kilometer und eine Massendifferenz von 0.31 M⊙ zu einem Quarkstern mit normalleitender Phase auf. Durch Verringern des Referenzwertes der Kopplungskonstante wird auch der farbsupraleitende Gap reduziert und es treten so gut wie keine Unterschiede mehr zur normalleitenden Phase des Quarksterns auf.
Installment Optionen
(2004)
Die vorliegende Arbeit beschäftigt sich im Wesentlichen mit Installment Optionen und deren Bewertung und Hedgemöglichkeiten. Installment Optionen werden vor allem im internationalen Treasurymanagement eingesetzt und dienen der Absicherung von Wechselkursrisiken. Die Besonderheit besteht darin, daß ein Konzern die Optionsprämie über mehrere Zeitpunkte aufteilen kann, zu denen er jeweils entscheidet, ob die Absicherung überhaupt noch benötigt wird. Dies könnte unter Umständen nicht mehr der Fall sein, wenn das zugrunde liegende internationale Geschäft des Konzerns wider Erwarten nicht zustande gekommen ist. Der exakte Wert einer Installment Option im Black-Scholes Modell besteht aus einem Ausdruck von Mehrfachintegralen, wohingegen die Anwendung verschiedener Bewertungsmethoden auf diesen approximierte Werte liefert. Die Untersuchung des Verhaltens mehrerer bekannter Methoden und die Entwicklung einer neuen Bewertungsformel für Installment Option ist Inhalt dieser Arbeit. Weiterhin wird die kontinuierliche Version der Installment Option betrachtet und für diese ein neuer Hedge bewiesen.
Gegenstand der Untersuchungen dieser Arbeit ist der Einfangprozess der radiativen Rekombination gewesen. Dabei ist zwischen dem Einfang in die inneren Schalen, K- und L- Schale, und dem Einfang in die äußeren Schalen unterschieden worden. Für die inneren Schalen ist neben dem Einfang in nacktes auch die Untersuchung des Einfangs in wasserstoffartiges Uran möglich gewesen. Es hat sich herausgestellt, dass die experimentellen Ergebnisse fur den Einfang in die inneren Schalen von U92+ gut mit den theoretischen Erwartungen übereinstimmen. Dagegen haben sich für den Einfang in U91+ leichte Abweichungen bei Einfang in die K- Schale gezeigt. Was diese Abweichung verursacht hat, konnte nicht geklärt werden. In Uran koppeln die Elektronen der innersten Schalen aufgrund der Größe der Kernladung über jj- Kopplung, weswegen die Wechselwirkung der Elektronen untereinander keine wesentliche Rolle spielen sollte. Dennoch scheint das bereits in der K- Schale vorhandene Elektron die Einfangwahrscheinlichkeit eines zweiten Elektrons zu vermindern. Das Verhältnis U92+/U91+ entspricht nicht dem erwarteten Wert von nahezu 2, sondern ist mit 2,28 etwas größer. Bisherige, jedoch bei hohen Energien durchgefuhrte, Experimente haben in guter Übereinstimmung mit den theoretischen Vorhersagen gestanden. Daraus lässt sich schließen, dass dieser Effekt erst bei sehr kleinen Stoßenergien auftritt, wie sie im Kuhler vorliegen. An dieser Stelle sei auch daran erinnert, dass der Stoß zwischen Elektron und Ion senkrecht erfolgt und somit der Detektor die emittierten Photonen unter 90 Grad beobachtet. Dies ist gerade der Winkel unter dem der Wirkungsquerschnitt maximal ist. Im Gegensatz dazu zeigen die Daten für die L- Schale in beiden Fällen im Bereich ihrer Fehlerbalken die gleichen Ergebnisse. Dies ist nicht verwunderlich, da aufgrund der hohen Kernladungszahl von Uran ein Elektron in der K- Schale keinen bedeutenden Abschirmeffekt für die L- Schale verursacht. Daher bleiben die Einfangszustände für den Einfang in die L- Schale im Gegensatz zum Einfang in die K- Schale bei U91+ nahezu identisch. Beim Vergleich der experimentellen Daten mit einer nichtrelativistischen und relativistischen Theorie ist sowohl für die Verhältnisse der K-RR Linie mit den beiden L-RR Linien als auch bei den L-RR Linien untereinander stets eine bessere Übereinstimmung mit der relativistischen Theorie gezeigt worden. Dabei sei daraufhingewiesen, dass die Werte dieser beiden Theorien deutlich voneinander abweichen. Wähhrend die nichtrelativistische Theorie für das Verhältnis K-RR/L-RRj=1=2 beispielsweise einen Wert von 2,12 voraussagt, ergibt die vollständig relativistische Theorie einen Wert von 1,41. Der experimentelle Wert von 1,23 +- 0,03 zeigt nun eine deutlich bessere Übereinstimmung mit der relativistischen Theorie. Daraus kann geschlossen werden, dass auch bei Stoßenergien nahe null für die tiefstliegenden Zustände relativistische Effekte vorhanden sind, die in den Rechnungen berücksichtigt werden müssen. Die Untersuchung des Einfangs in die äußeren Schalen hat dagegen weniger Übereinstimmende Ergebnisse gebracht. Zwar hat sich gezeigt, dass die Form der experimentellen Spektren durch verzögerte Lyman alpha Übergänge erklärt werden kann, allerdings ist die Intensität der niederenergetischen Ausläufer in der Simulationen nicht erreicht worden. Rechnungen mit verschiedenen Anfangszuständen haben gezeigt, dass durch die Hinzunahme von Zuständen mit höherer Hauptquantenzahl n die Zahl der verspäteten Ereignisse erhöht werden kann. Jedoch nicht in dem Maße, dass eine Wiedergabe der experimentellen Spektren möglich würde. Rechnungen mit unterschiedlichen Bedingungen haben gezeigt, dass auch Zustände mit kleinen Übergangswahrscheinlichkeiten Einfluß auf die zeitliche Entwicklung der Kaskaden haben. Dagegen wird die Kaskade durch Ausschluss von Zuständen mit einem Verzweigungsverhältnis kleiner als 1% kaum beeinflußtt. Weiterhin macht es keinen Unterschied ob die Wegstrecke mit Schrittweiten von 1x10 exp (-14) oder 1x10 exp (-11) gerechnet wird. Größere Zeitschritte führen zu Abweichungen. In einem weiteren Teil der Auswertung sind die l- Zustände untersucht worden, die zu den verspäteten Ereignissen beitragen. Dabei hat sich herausgestellt, dass die Zustände um l = n/3 den Hauptbeitrag zu den verspäteten Übergängen leisten. Bei den Yrastkaskaden lässt sich ein deutlicher Anstieg im Bereich von 30 ns beobachten, jedoch ist ihr Anteil im Vergleich zu den l = n/3 Zuständen deutlich geringer. Ihr Einfluss auf das Spektrum würde sich erst zu noch späteren Zeitpunkten bemerkbar machen. Der Beitrag verzögerter Ereignisse zu den Ausläufern der Lyman alpha - Linien ist nur aufgrund der relativistischen Raumwinkeltransformation verstärkt zu erkennen. Die effektiv vorhandene Intensität dieser verzögerten Ereignisse wird über die Raumwinkelkorrektur um ein Vielfaches erhöht. Tatsächlich folgt aus der Kaskadenrechnung ein Anteil verzögerter Übergänge an der gesamten Emission von nur 0,1 %, während er unter Berücksichtigung der Detektorgeometrie (Raumwinkelkorrektur für einen Beobachtungswinkel von 0 Grad) 4,6 % beträgt. Allerdings macht der im Experiment gemesse Anteil der verzögerten Emission 73,9 % der Gesamtemission aus. Er liegt also mehr als eine Größenordnung über dem Anteil, der sich aus der Kaskadenrechnung mit anschließender Simulation der Detektorgeometrie ergibt. Mit der momentanen Theorie ist es nicht möglich, die experimentellen Ergebnisse zu reproduzieren. Dies kann daran liegen, dass die Anfangsbesetzung gerade in den hohen Zuständen zu gering angesetzt wird. Da diese erst nach einigen Nanosekunden zu den Lyman alpha Übergängen beitragen, könnte eine höhere Anfangsbesetzung dieser Zustände zu einer Verstärkung der Linien beitragen. Es ist bisher noch nicht gelungen, eine Aussage darüber zu treffen, wodurch diese Ratenüberhöhung zustande kommt und welche physikalischen Aspekte dabei eine Rolle spielen. Möglicherweise ist die Verwendung der Stobbe-Theorie zur Berechnung der Rekombinationsraten freier Elektronen in hohe Rydbergzustände nicht richtig, weil es wegen der äußeren Felder im Kühler keine wirklich freien Elektronen in hohen Zuständen gibt. Zur detaillierteren Untersuchung dieses Phänomens hat im September 2004 die Gruppe um M. Pajek ein Experiment am Elektronenkühler durchgeführt [66]. Als Projektilionen sind wieder nackte Uranionen verwendet worden, allerdings bei einer Energie von 23 MeV. Detektoren sind unter 0 Grad und 180 Grad montiert worden. Während des Messzyklusses ist die Kühlerspannung variiert worden, um die Elektronen einmal schneller und einmal langsamer als die Ionen fliegen zu lassen. Auf diese Art und Weise sollte herausgefunden werden, ob bei Relativenergien ungleich null ebenfalls eine Ratenüberhöhung auftritt. Erwartet wird, dass dies aufgrund der höheren Relativenergie nicht der Fall ist. Eine Auswertung der Daten liegt derzeit noch nicht vor.
Wir haben uns mit der Leitfähigkeitsdynamik von Barium-Natrium-Niobat-Kristallen (BSN-Kristallen) auseinandergesetzt und haben verschiedene Untersuchungen zum Themenkreis Lyapunov-Exponenten anhand von experimentellen BSN-Zeitreihen durchgeführt. Als einen typischen größten Lyapunov-Exponenten von chaotischen BSN-Zuständen erhalten wir Werte in der Größenordnung von 0.1 / s. Der Maximalwert entspricht ca. 3.5 bits pro Attraktorumlauf. Wir beobachten für die Mehrzahl der chaotische BSN-Zustände entlang der unersuchten Ruelle-Takens-Newhouse-Route (RTN-Route) zwei positive Lyapunov-Exponenten mit einem schmalen Übergangsbereich in dem wir nur einen positiven Lyapunov-Exponenten erkennen. Diesen Befund interpretieren wir als eine kompleer werdende Dynamik mit wachsender Stromstärke durch den Kristall, die wir auch durch eine kompliziertere Attraktorstruktur der BSN-Zustände entlang der RTN-Route ins Chaos bestätigen können. Die Abschätzung von Lyapunov-Exponenten der BSN-Zustände entlang der RTN-Route bestätigen die meisten der Ergebnisse, die wir bisher mit anderen Verfahren erhalten haben. Die Kolmogorov-Entropie K1 die wir mit Gleichung (5) aus den positiven Lyapunov-Exponenten bestimmen, ist allerdings um etwa einen Faktor vier kleiner als Abschätzungen der Entropie K2, die sich aus Korrelationsbetrachtungen in vorangegangenen Untersuchungen ergeben haben. Durch die Untersuchungen zu lokalisierten Lyapunov-Exponenten erhalten wir eine detailliertere Beschreibung der BSN-Dynamik im rekonstruierten Ersatz-Phasenraum. Wir erkennen an verschiedenen Beispielen, daß die Attraktoren von BSN-Zuständen entlang der RTN-Route durch mindestens einen markanten Bereich mit großen positiven lokalisierten Lyapunov-Exponeten ausgezeichnet sind. Bezüglich der Variation der Attraktoren entlang der RTN-Route beobachten wir, wie sich bevorzugt diese Bereiche in ihrer Form verändern. Die chaotischen Zustände sind durch eine Attraktorregion ausgezeichnet, die einen sichtbar größeren lokalisierten Lyapunov-Exponenten besitzt, als die restlichen Gebiete. Wir führen diese Beobachtung auf das lokale Aufbrechen eines 2-Frequenz-Torus zurück und können diese Vermutung durch Untersuchungen zu einem chaotischen Zustand aus der RTN-Route belegen. Die Simulationsergebnisse zur BSN-Modellgleichung zeigen, daß die Gleichung innerhalb der untersuchten Parameterbereiche kein chaotisches Verhalten generiert. Die aus experimentellen Daten angepaßten Parametervektoren ->k deuten darauf hin, daß die Lösungen periodische Inseln in einer Fixpunktlandschaft darstellen. Mit den entwickelten Methoden zur Bestimmung von Lyapunov-Exponenten aus Delay-Differentialgleichungen stellen wir die Grundlage bereit, um zukünftige Untersuchungen an gekoppelten Modellgleichungen durchführen zu können.
Wiki-Systeme im eLearning
(2006)
Wiki-Systeme lassen sich in den verschiedensten Anwendungsgebieten auf angenehme Weise, aufgrund ihrer Open-Source Lizenz, durch die Anreicherung entsprechender Zusatzmodule anpassen. An dieser Stelle muss jedoch bedacht werden, dass durch die Integration vermehrter Funktionen, das charakteristische Merkmal der Wiki-Systeme 'Einfachheit' an Präsenz verlieren kann. Dieses, für Wikis typische Charakteristikum ist eine nicht zu unterschätzende Stärke, da sowohl die Expansion der Enzyklopädie Wikipedia, als auch die zunehmende Anzahl bestehender Wikis im Internet geradezu Beweis dafür sind, dass keine anderen Anwendungen in diesem Verhältnis existiert haben. Würde somit das Wiki, aufgrund der Anpassung an ein vorliegendes Konzept an Einfachheit verlieren, so müssten die Beweggründe des Wiki-Einsatzes noch mal überdacht werden. Ebenso könnte in den Bereichen, in denen die Stärken von Wikis unbrauchbar sind, ein anderes System womöglich bessere Ergebnisse liefern als ein Wiki. Aus diesen Gründen sollte vor einem Wiki-Einsatz überprüft werden, ob die vorhandenen Merkmale und Funktionen eines Wikis mit den eigenen Anforderungen übereinstimmen. Die im Rahmen dieser Arbeit durchgeführte Befragung hat gezeigt, das Wikis größtenteils als Präsentationsmedium, zur gemeinsamen Texterstellung und als Informationsplattform genutzt werden. Es ist deutlich geworden, dass die Integration von Wikis im Lehrbereich geeignete Anwendung findet. Auffallend war, dass zwar bei (fast) allen Befragten Schwierigkeiten aufgetreten sind und sogar erhoffte Erwartungen teilweise nicht erfüllt wurden, dennoch war der größte Teil der Befragten mit dem Wiki-Einsatz zufrieden und bewertete diesen als positiv. Die Art der aufgetretenen Schwierigkeiten und Schwachstellen zeigt, dass den Lehrenden gewisse Anleitungen und Richtlinien für einen erfolgreichen Wiki-Einsatz fehlten. Denn Informationen zum didaktischen Rahmen - in denen Wikis eingesetzt werden können - und wie Wikis eingesetzt werden sollen, waren nicht vorhanden. Somit sollen die - in dieser Arbeit - erarbeiteten Empfehlungen und Kriterien, Lehrende zu einem optimierten Wiki-Einsatz in Lehrveranstaltungen verhelfen. Außerdem sind in dieser Arbeit Vorgaben enthalten, wie Wiki-Einsätze von Lehrenden gestaltet werden können, so dass die häufig auftretenden Probleme vermieden werden können. Die erarbeiteten Empfehlungen und Kriterien sind gleichermaßen aus den positiven, wie auch aus den negativen Erfahrungen der Befragten entstanden. Insbesondere sollen die Empfehlungen und Kriterien, die von den Befragten permanent beklagten auftretenden Schwierigkeiten und Probleme verhindern. Eine Garantie jedoch, dass die Einhaltung dieser Empfehlungen und Kriterien zu einem erfolgreichen Wiki-Einsatz führen und ob keine relevanten Kriterien unbeachtet gelassen sind, kann an dieser Stelle nicht gegeben werden. Ob sich nun die Probleme, die sich mit Wiki-Einsätzen wiederholt ergeben haben, durch die Befolgung dieser Kriterien und Empfehlungen vermeiden lassen, könnte im Rahmen einer nachfolgenden Diplomarbeit untersucht werden, in der Wiki- Einsätze, begleitet werden. Weiterhin sollte im Rahmen einer weiteren Arbeit die Situation der Lernenden und die Auswirkung auf das Lernverhalten in Verbindung mit Wiki-Systemen evaluiert werden, so dass einige Thesen dieser Arbeit belegt oder gar widerlegt werden können.
In dieser Arbeit wurden ionisierende Prozesse inWasserstoff- und Deuterium-Molekülen untersucht. Das Ziel war es dabei insbesondere, doppelt angeregte Zustände näher zu betrachten, d.h. Prozesse, bei denen mit einem UV-Photon beide Elektronen des H2 angeregt werden. Das Molekül zerfällt dann schließlich in ein angeregtes Atom sowie ein Proton und ein Elektron. Diese Doppelanregung konnte in den Messdaten identifiziert werden. Durch die Art der Messung war es möglich, einen umfassenden Überblick über den Photonenenergiebereich von 29 bis 60 eV zu erhalten (siehe Abb. 4.4). Somit konnte die Dynamik verschiedener Prozesse mit sich ändernder Photonenenergie analysiert werden. Es konnte die Einfach-Ionisation vom Einsetzen bis hin zur Doppel-Ionisation beobachtet werden. Zwischen 29 und 38 eV traten dabei Anregungen auf das Q1- und Q2-Band auf. Insbesondere für einen KER<2 eV konnten interessante Strukturen aufgelöst werden, die bei bisherigen Experimenten nur eindimensional, d.h. ohne die Varianz der Photonenenergie, betrachtet werden konnten. Eine Gegenüberstellung der beiden Isotope H2 und D2 zeigte zahlreiche Unterschiede bei der Autoionisation auf. Für den Bereich des KER, der einer Anregung auf das Q2-Band entspricht, konnten außerdem Winkelverteilungen erstellt werden und mit Verteilungen verglichen werden, die aus der direkten Besetzung des (2p sigma u) Zustands resultieren. Dabei wurde für beide Isotope eine Asymmetrie beobachtet. Für höhere Photonenenergien lagen schließlich die Endzustände zu dicht beieinander, um aufgelöst zu werden. Doppelanregungen auf das Q3- und Q4-Band konnten daher hier nicht explizit beobachtet werden. Für künftige Messungen wäre es sicher interessant, das Q1-Band mit einem speziell darauf abgestimmten Spektrometer im entsprechenden Energiebereich genauer zu studieren. So könnten die energetischen Strukturen dieser niederenergetischen Protonen besser aufgelöst und somit der Kontrast zur Besetzung des 1s sigma g Zustands erhöht werden. Außerdem wäre es von Interesse auch Photonenenergien unterhalb von 29 eV zu betrachten, was jedoch an Beamline 9.3.2 der ALS nicht möglich war. Ebenso wäre natürlich der höhere Photonenfluss einer Undulator-Beamline wünschenswert, um eine bessere Statistik zu erhalten. Hier konnte gezeigt werden, dass im Energiebereich, in welchem Anregungen auf das Q3- und Q4-Band möglich sind, nur Intensitäten in höheren Endzuständen (n >=2) auftreten. Um eventuelle Strukturen in diesem Bereich zu studieren ist ein jedoch ein höher auflösendes Spektrometer notwendig. Dies könnte z.B. durch größere MCP realisiert werden.
Um, mit Simulationsexperimenten, den Einfluß des Strahlprofils auf die Pellet- bzw. Targetdynamik bei der Trägheitseinschlussfusion mit Schwerionenstrahlen zu untersuchen, wurde der Simulationscode MULTI2D so modifiziert, daß eine Darstellung der Energiedeposition in zwei kartesischen Koordinaten möglich ist. Für die Simulationen wurde die Strahl-Target-Kombination von V. Vatulin, O. Vinokurov und N. Riabikina, “Investigation of the Dynamics of Solid Cylindrical Targets Illuminated by Ion Beams with Elliptic Cross Section“, aus dem GSI Report High Energy Density in Matter Produced by Heavy Ion Beams (GSI-99-04), verwendet. Die in der Arbeit von Vatulin et al. verwendeten Strahlparameter, beziehen sich auf ein an der GSI in Darmstadt in Planung befindliches Ionen- und Antiprotonensynchroton mit wesentlich höherer Strahlleistung als beim gegenwärtigen Schwerionensychrotron SIS. Um eine ausreichend hohe Auflösung zu erhalten, wurde für die Target-Simulation in MULTI2D ein Lagrange-Gitter mit 43200 Gitterpunkten ausgewählt. Als erstes wurden umfangreiche Untersuchungen der Entwicklung der Temperatur, des Drucks, der Geschwindigkeit und der Dichte der Volumenelemente des Targets durchgeführt. Hierzu wurden zweidimensionale Targetschnitte dieser Größen zu bestimmten Zeiten, ortsaufgelöste Darstellungen dieser Größen entlang einer kartesischen Achse des Targetschnitts zu ausgewählten Zeiten, und zeitaufgelöste Darstellungen dieser Größen an bestimmten Orten des Gitters, bzw. in bestimmten Volumenbereichen des Targets angefertigt. Sowohl bei Bestrahlung mit radialsymmetrischem Hohlstrahl, als auch bei Bestrahlung mit elliptischem Hohlstrahl, werden innerhalb von 20 ns 1.4 MJ/g deponiert. Während und nach der Energiedeposition breitet sich eine Kompressionswelle sowohl in Richtung Targetzentrum als auch in Richtung Targetperipherie aus. ~ 25 ns nach Beginn der Energiedeposition erreichen Temperatur und Druck ihren Maximalwert im Zentrum des Targets. Der Radius des Gebiets maximalen Drucks vergrößert sich innerhalb der nächsten 2 ns auf ~6 x 10 exp -3. Die Kompressionswelle breitet sich langsamer in Richtung Targetzentrum aus, als der Druck und die Temperatur. Wegen des hohen Drucks im Zentrum, befindet sich der Ort maximaler Dichte nicht im Targetzentrum, ~ 24,5 ns nach Strahlungsbeginn einen Ring hoher Dichte um das Zentrum herum. Kurz darauf, ~24,6 ns nach Strahlungsbeginn, bildet sich, ausgelöst durch das Zusammentreffen der Dichtewelle im Targetzentrum, ein kleinerer Ring hoher Dichte um das Targetzentrum herum. Bereits nach 24.75 ns, also nur 0.2 ns nach dem Zusammentreffen der Materie im Zentrum, ist die Dichte in diesem Ring höher als im weiter vom Targetzentrum entfernt liegenden Ring hoher Dichte. Dies gilt sowohl für die Bestrahlung mit radialsymmetrischem Hohlstrahl, als auch für die Bestrahlung mit elliptischem Hohlstrahl. Die Maximalwerte der Größen Temperatur, Druck und Dichte im Target liegen bei Bestrahlung mit elliptischem Hohlstrahl bis zu 20% unter denen bei Bestrahlung mit radialsymmetrischem Hohlstrahl. Die Dichten im Ring maximaler Dichte liegen bei Bestrahlung mit radialsymmetrischem Hohlstrahl bei~ 160 g/ccm, bei Bestrahlung mit elliptischem Hohlstrahl knapp darunter. Das maximale Achsenverhältnis lag bei (1:2.25), bei größeren Achsenverhältnisen wird die weniger dichte Substanz im Zentrum des Pellets so ungleichmäßig komprimiert, das es vorzeitig zu einer Vermischung des Treibers im Pelletzentrum mit dem Pelletmantel kommt, so daß der Treiber nicht ausreichend komprimiert wird. Die theoretische Untersuchung, welchen Einfluss das Strahlprofil auf die Targetkompression hat ist von großer Bedeutung, weil der Transport und die Fokussierung von Schwerionenstrahlung so hoher Intensität, wie sie für eine Targetkompression mit Fusionsbrennen nötig sind, sehr schwierig und noch nicht Stand der Technik ist. Sollte durch andere Arbeiten bestätigt werden, daß bei direkter Bestrahlung eines Hohltargets, bzw. eines Targets mit einem Mantel aus relativ dichtem Material und einem weniger dichten Treiber im Targetzentrum, mit einem Schwerionen-Hohl-Strahl, das Maximum der Druckwelle das Zentrum nicht erreicht, und somit ein Ring bzw. eine Hohlkugel maximalen Drucks um das Zentrum herum gebildet wird, hätte das, falls diese Technik zur Anwengung kommt, Konsequenzen für die Kompressionsdynamik eines realen Pellets. Möglicherweise wird nach der Zündung des Plasmas ein größerer Teil des Treibstoffs schneller verbrannt werden als bei einer Zündung im Pelletzentrum, außerdem könnte sich die Lebensdauer des Pellets erhöhen. Dies hätte für den Fall der direkten Bestrahlung eines Hohltargets mit einem Schwerionen-Hohl-Strahl eine Änderung des rho-R-Kriterium zur Folge, das Pellet müsste nicht so stark komprimiert werden wie bisher vermutet, so daß die technischen Voraussetzungen für ein Fusionsbrennen vieleicht schneller realisiert werden können, als bisher angenommen.
In einer Evaluation unterschiedlicher Auswahl- und Ausbildungskonzepte der gewerblichen Berufsgenossenschaften (BGen) wurden die Hypothesen geprüft, daß durch Testverfahren auswählende BGen bessere Ausbildungsleistungen erzielen als nur durch Interview auswählende, praxisorientierte Ausbildungen zu schlechteren Prüfungsleistungen führen, zwischen der Ausbildungsleistung und dem Leistungsdruck sowie der Einstellung zur Arbeit ein Zusammenhang besteht und diese Variablen sich daher zur Erhöhung des varianzaufklärenden Werts des zweifach gestuften Faktors Selektion eignen. Für die Wirkung des Faktors Selektion wurde die Praxisorientierung als Moderatorvariable vermutet. Es gelang, 75% aller BGen zu erfassen. Als unabhängige Variable wurde in einem ex-post-facto Design der Faktor Selektion auf den Stufen Interview und Test aufgefaßt. In einem einfaktoriellen univariaten kovarianzanalytischen Modell dienten Leistungsdruck, Einstellung zur Arbeit und Praxisorientierung als Kovariaten. Für jede BG ist die Selektionsmethode und die Praxis der Interviewführung durch schriftliche bzw. telefonische Befragung ermittelt worden. Der Ausbildungserfolg wurde durch die Auswertung eines zentralen Notenarchivs erhoben. Durch einen Fragebogen an die 1994/95 geprüften Personen wurden Leistungsdruck, Praxisorientierung und Einstellung zur Arbeit als Kennwerte für die BG erfaßt. Testverfahren und Interview als Stufen des Faktors Selektion eigneten sich nicht zur Vorhersage des Ausbildungserfolgs. Bei den BGen, die durch Test auswählten, wurde eine deutlich größere Variabilität der Noten nachgewiesen als bei den interviewenden BGen. Eine praxisorientierte Ausbildung ging mit schlechten Prüfungsnoten einher (r = -.13). Es bestand keine Wechselwirkung zwischen Praxisorientierung und Auswahlmethode. Die Aufklärung der Notenvarianz durch die Auswahlmethode konnte durch die Kovariaten nur von 2% auf 3% erhöht werden. Mit Einstellung zur Arbeit und Praxisorientierung als Kovariaten konnten insgesamt 17% Varianz aufgeklärt werden. Die Qualität der Messung der Variablen, Gründe für die große Variabilität der Noten unter der Testbedingung sowie die Frage nach der Relevanz der Befunde zur Praxisorientierung der Ausbildung wurden diskutiert.
"Germany is back" (Schöllgen 1994: 35), so beschreibt Schöllgen prägnant Deutschlands internationale Position nach dem Ende des Ost-West-Konfliktes und dem Fall der Mauer. Was Schöllgen so schlicht zusammenfasst wurde von der deutschen Öffentlichkeit, aber auch von der Mehrheit der Wissenschaftler, lange Zeit keinesfalls so gesehen. Statt eines Wandels deutscher Außenpolitik aufgrund der veränderten Rahmenbedingungen herrschte ein weitverbreiteter Konsens darüber, Deutschland habe sich abgesehen von einer Erhöhung der Einwohnerzahl von 63 auf 82 Millionen und eines Flächenzuwachses von 248 000 auf 375 000 Quadratkilometer nicht gravierend im internationalen System gewandelt. ...
Mit dem Ende des Kalten Krieges hat sich für viele Beobachter der Abschied von der klassischen Allianzpolitik endgültig vollzogen. Ein Jahrhundert nach der großen Ära europäischer Gleichgewichtspolitik, nach zwei Welt(koalitions)kriegen und dem Ost-West-Gegensatz als einer Bündniskonfrontation radikalster Ausprägung, scheint die Weltpolitik endlich "im Umbruch" begriffen. Der Niedergang des Warschauer Paktes und der Triumph des demokratischen Modells des Westens könnte so mit dem "Ende der Geschichte" auch das Ende der Allianzen eingeläutet haben. In der Tat lässt sich auch bei der letzten verbliebenen großen Allianz, der NATO, nach dem notwendigerweise vollzogenen Funktionswandel nun letztlich doch ein Bedeutungsverlust verzeichnen. Als exemplarisch für diese Entwicklung mag die Reaktion des Bündnisses auf die Terroranschläge vom 11. September 2001 gelten: Nachdem die Allianz erstmals in ihrer Geschichte den Bündnisfall erklärt hatte, blieb sie schon im Afghanistankrieg als Organisation unbeteiligt. ...
Pflanzliche Biomasse bietet sich hervorragend als billiges und in großen Mengen verfügbares Ausgangssubstrat für industrielle Fermentationsprozesse an. Dabei könnte z.B. die Hefe Saccharomyces cerevisiae zur Herstellung von Bioalkohol eingesetzt werden. S. cerevisiae kann jedoch die in großen Mengen in der Biomasse enthaltenen Pentosen D-Xylose und L-Arabinose nicht vergären. Deshalb wäre ein Hefestamm mit entsprechend erweitertem Substratspektrum von großem wirtschaftlichen Interesse. In dieser Arbeit sollte rekombinante Hefestämme konstruiert bzw. optimiert werden, die in der Lage sind D-Xylose und/oder L-Arabinose zu Ethanol zu vergären. Zunächst wurde ein bereits vorhandener L-Arabinose vergärender Hefestamm unter Einsatz der Methoden der „gerichteten Evolution“ optimiert, L-Arabinose effektiver zu verstoffwechseln. Dies geschah durch repetitive Selektion auf Wachstum mit L-Arabinose als einziger Kohlenstoffquelle unter Sauerstoff-limitierten Bedingungen. Eine genetische und physiologische Charakterisierung des Stammes ergab, dass dieser sowohl Mutationen im Hefegenom als auch auf den L-Arabinose Stoffwechselweg exprimierenden Plasmiden erworben hatte. Dieser Stamm exprimierte die für den L-Arabinose Katabolismus notwendigen Enzyme und Transporter von vier verschiedenen Plasmiden. Für den industriellen Einsatz eines rekombinanten Hefestammes ist es jedoch unerlässlich, die Gene des L-Arabinose Katabolismus stabil in das Genom zu integrieren. In dieser Arbeit ist es gelungen, zwei der insgesamt drei essentiellen Gene des Stoffwechselweges in funktioneller Form in den rDNA-Locus von S. cerevisiae zu integrieren. Im letzten Teil der Arbeit konnte erstmals ein Hefestamm konstruiert werden, der sowohl die Gene des Stoffwechselweges für den L-Arabinose- als auch die des Stoffwechselweges für den D-Xylose-Katabolismus exprimiert. Der Stamm war in der Lage auf Nähragarplatten zu wachsen, bei denen L-Arabinose oder/und D-Xylose die einzigen Kohlenstoffquellen darstellten. Wachstumstests mit Flüssigkulturen sowie HPLC-Analysen des Zuckerverbrauchs ergaben jedoch, dass der Hefestamm überraschenderweise nicht in der Lage war, D-Xylose in Flüssigmedien zu verstoffwechseln. Mögliche Erklärungen hierfür werden diskutiert.
Durch zunehmende Vernetzung steigt auch das Interesse elektronische Wahlen mit Hilfe kryptographischer Methoden auf Rechnernetzen zu verwirklichen. In der folgendern Arbeit werden Wahlschemata behandelt, deren Ziel es ist, die gesamte Wahl auf einem Rechnernetz durchzuführen. Die Arbeit beschränkt sich auf Wahlen mit zwei Wahlvorschlägen. Auf Wahlen mit drei oder mehr Wahlvorschlägen wird nicht eingegangen. Im ersten Kapitel wird eine Einleitung in die elektronischen Wahlen gegeben. Im zweiten Kapitel wird das verwendete Modell eines Wahlschemas und die Anforderungen, bezüglich der die Wahlschemata untersucht werden, vorgestellt. Im dritten Kapitel werden die kryptographische Methoden für die folgenden Kapitel vorgestellt. Im vierten Kapitel werden zwei Wahlschemata betrachtet, deren Ansatz es ist, die Stimmen mit Hilfe von Schwellenwerten auf mehrere Behörden zu verteilen. Die Sicherheit der Wahlschemata in diesem Kapitel basiert auf dem diskreten Logarithmus. Im fünften Kapitel werden weitere Wahlschemata betrachet, bei denen die Wähler mit Hilfe von Verschlüsselungsmethoden ihre Stimmen an die Behörden senden. Die Sicherheit dieser Schemata basiert auf dem Wurzelziehen modulo einer zusammengesetzten Zahl mit unbekannter Faktorisierung. In diesem Kapitel lernen wir auch das erste quittungsfreie Wahlschema kennen. Im sechsten Kapitel werden Wahlschemata betrachtet, die das Konzept eines Mixes benutzen. Auch in diesem Kapitel lernen wir ein quittungsfreies Wahlschema kennen.
Gitter sind diskrete additive Untergruppen des Rn. Praktische Bedeutung erlangte die Gittertheorie durch effziente Algorithmen zur Gitterbasenreduktion, mit deren Hilfe Optimierungsprobleme gelöst werden können. Der erste dieser Algorithmen wurde von Lenstra, Lenstra und Lovasz entwickelt. Schnorr und Euchner entwickelten effizientere Algorithmen. Sie untersuchten die Güte der Reduktion anhand von Rucksack-Problemen. Bei einem Rucksack-Problem der Dimension n müssen aus einer gegebenen Menge von n Gewichten diejenigen bestimmt werden, die zusammen einen gegeben Rucksack genau ausfüllen. Die Algorithmen von Schnorr und Euchner lösen fast alle Rucksack-Probleme der Dimensionen 42 bis 66. Meine neuen verbesserten Algorithmen lösen einen noch größeren Anteil der Rucksack-Probleme in kürzerer Rechenzeit. Gleichzeitig sind sie in Dimensionen 103 bis 151. Coster, Joux, LaMacchia. Odlyzko, Schnorr und Stern geben eine untere Schranke für die Größe der Gewichte von Rucksack-Problemen an, die fast immer gelöst werden können. Die Gewichte werden zufällig aus einem Intervall natüurlicher Zahlen gewählt. Dieses Ergebnis erweitere ich auf k-fache Rucksack-Probleme. Weiterhin kann für für die Wahl jedes Gewichtes eine beliebige Menge ganzer Zahlen festgelegt werden. Ebenso sind Mengen mit nur einem Element zulässig.
In der vorliegenden Arbeit wurde die Abhängigkeit der HBT-Radien im Rahmen des NA49-Experimentes bei einer Strahlenergie von 40 und 158 AGeV untersucht. Es zeigte sich, dass die Radien Rside, Rout und Rlong monoton mit der Zentralität von 2-3 fm bis 5-6 fm anwachsen, jedoch nur eine sehr geringe Energieabhängigkeit aufweisen. Dabei ist die Energieabhängigkeit bei Rside am schwächsten und bei Rlong am stärksten ausgeprägt. Bei Rout zeigte sich, dass die Werte bei 40 AGeV steiler mit der Zentralität ansteigen als die entsprechenden Werte bei 158 AGeV, was zur Folge hat, dass für zentrale Ereignisse Rout bei 40 AGeV um etwa 0.5 fm größer ist, als bei 158 AGeV. Die Signifikanz dieses Befundes ist wegen der statistischen (maximal 0.3 fm) und systematischen Fehler (maximal 1 fm) jedoch sehr gering. Allerdings wurde auch bei der Analyse zentraler Blei-Blei-Kollisionen[28] beobachtet, dass die Werte für Rout bei 40 AGeV größer sind als bei 158 AGeV. Die Radien beider Energien lassen sich als eine lineare Funktion der dritten Wurzel der Anzahl der Partizipanten beschreiben. Letztere sind ein Maß für die transversale Größe des Ausgangszustandes. Aus diesem Verhalten folgt, dass die HBT-Radien aus dem Ausgangszustand der Kollision bestimmt werden. Betrachtet man jedoch die geringe Energieabhängigkeit der HBT-Radien, so liegt der Schluss nahe, dass die HBT-Radien eher durch den Anfangszustand der Kollision bestimmt werden als durch den Endzustand. Dies steht im Widerspruch zu der üblichen Interpretation der Bose-Einstein-Korrelation in Schwerionenkollisionen. Beim Betrachten des Verhältnisses Rout/Rside als Funktion der Zentralität stellte sich heraus, dass es größer als eins ist und nur sehr schwach von der Zentralität abhängt. Der Wert von Rout/Rside nimmt dabei Werte zwischen 1.2 und 1.5 an. Ermittelt man aus Rout und Rside die Emissionsdauer, so stellt man fest, dass diese Größe bei beiden Energien nicht signifikant von der Zentralität abhängt und die Werte zwischen 2 und 4 fm/c liegen.
RDF is widely used in order to catalogue the chaos of data across the internet. But these descriptions must be stored, evaluated, analyzed and verified. This creates the need to search for an environment to realize these aspects and strengthen RDFs influence. InterSystems postrelational database Caché exposes many features that are similar to RDF and provide persistence with semantic part. Some models for relational databases exist but these lack features like object-oriented data-structures and multidimensional variables. The aim of this thesis is to develop an RDF model for Caché that saves RDF data in an object-oriented form. Furthermore an interface for importing RDF data will be presented and implemented.
Um Signaturen für die Erzeugung eines Quark-Gluon Plasmas zu untersuchen, wurden im Rahmen eines Energie-Scan Programmes mit dem Experiment NA49 am CERN-SPS Beschleunigerring bei 5 unterschiedlichen Strahlenergien Schwerionenkollisionen untersucht. Eine Möglichkeit, Informationen über die raum-zeitliche Struktur einer solchen Kollision zu erhalten, ist durch die Untersuchung von Bose-Einstein-Korrelationen gegeben. Die Untersuchung der Energieabhängigkeit dieser Korrelationen ist Gegenstand dieser Arbeit. Um die Dynamik der Kollisionen zu studieren, wird die Analyse für die einzelnen Energien in Abhängigkeit des mittleren transversalen Impulses und der Paarrapidität durchgeführt. In der Arbeit werden zunächst die theoretischen Grundlagen zur Untersuchung von Schwerionenkollisionen mit Hilfe von Bose-Einstein-Korrelationen erarbeitet. Nach einer kurzen Darstellung des Experimentes NA49 folgt eine detaillierte Beschreibung der Datenselektion und der verwendeten Analyse-Methode. Die Ergebnisse werden im Rahmen eines Modells zur Beschreibung einer Teilchenquelle interpretiert.
Im Rahmen dieser Diplomarbeit wurde ein Slow-Control-System für die HADES-Driftkammern konzipiert und umgesetzt. Ebenso wurden Teile des Konzepts erfolgreich für die Nutzung durch den RICH- und Showerdetektor angepasst. Durch die Nutzung in verschiedenen Strahlzeiten hat sich gezeigt, dass das System den gestellten Anforderungen gerecht wird. Die aufgezeichneten Daten lassen sich den Ereignissen während des Betriebs chronologisch zuordnen. Somit ist es möglich, zu jedem Zeitpunkt die Betriebsund Umgebungsbedingungen zu Analysezwecken zu rekonstruieren. Auch die Genauigkeit der aufgezeichneten Daten ermöglicht es, besondere Ereignisse wie z.B. Funkenüberschläge zu erkennen. Design und die Funktionalität der entwickelten GUI’s haben sich im Einsatz ebenfalls bewährt. Für die ermittelten und gesetzten Alarmwerte stellte sich heraus, dass einige Werte größeren Schwankungen unterliegen als die im April 2002 gewonnenen Daten vermuten ließen. Als Beispiel hierfür kann der gemessene Wert für die Sauerstoffkontamination dienen. Die im April aufgenommene Werte lagen für den besten Reinigungszustand wesentlich niedriger, als während der Strahlzeit im November 2002. Es wurde daher eine Anpassung der Alarmwerte nach oben notwendig. Dies gilt ebenfalls für andere Bereiche des Systems, wie Temperaturen, Ströme und Spannungen. Die individuelle Anpassung und Optimierung der einzelnen Alarmwerte ist ein langwieriger Prozess, der nur durch die gesammelten Erfahrungen über einen langen Betriebszeitraum erfolgreich umgesetzt werden kann.
Die in ultra-relativistischen Schwerionenkollisionen erreichten Dichten und Temperaturen führen möglicherweise zu einem Übergang der hochangeregten Kernmaterie in eine partonische Phase ohne Einschluß der Quarks und Gluonen. Dieser Zustand wird Quark-Gluon- Plasma genannt. Die Existenz dieses Plasmas vor einem Phasenübergang in ein Hadrongas versucht man in einer Reihe von Experimenten unter anderem an den Kernforschungszentren CERN in Genf/Schweiz und Brookhaven National Laboratory (BNL) auf Long Island/USA nachzuweisen. Aufgrund theoretischer Modelle wird erwartet, daß Signaturen eines solchen Zustandes das Verhältnis der Pion- zu Baryonen-Produktion und die Produktion von Teilchen, die Strange-Quarks enthalten, sein könnten. Nach diesen Signalen sucht man im hadronischen Endzustand des Systems. Das Fixed-Target-Experiment NA49 untersucht Blei-Blei Kollisionen bei einer Strahlenergie von 158 GeV/c pro Nukleon. Das Experiment zeichnet sich durch seine große Detektorakzeptanz für geladene Teilchen verbunden mit einer präzisen Impulsmessung aus. Ähnliche Merkmale weist auch das momentan im Aufbau befindliche Collider-Experiment STAR am BNL auf. Hier sollen ab 1999 Kollisionen von Gold Kernen bei Energien von 100 GeV/c pro Nukleon analysiert werden. Die hohe Akzeptanz und die gute Impulsbestimmung der produzierten Teilchen zeichnen die Experimente als hervorragende Meßinstrumente für den hadronischen Endzustand aus. Andere Observablen, von denen man sich Aufschluß über die Reaktionsdynamik einer ultra-relativistischen Schwerionenkollisionen erhofft, sind Vektormesonen, die kurz nach oder sogar noch im Reaktionsvolumen der Kollision in ein Lepton-Paar zerfallen. Der Vorteil hierbei ist, daß die Zerfallsteilchen (Elektronen oder Myonen) mit anderen Teilchen nur elektromagnetisch wechselwirken. Deswegen können sie ohne Wechselwirkung mit den umgebenden Hadronen die Reaktionszone verlassen. Die Wahrscheinlichkeit für den Zerfall in Leptonen ist allerdings 10 exp (-4) mal niedriger als für den in Hadronen. Im NA49-Experiment, das auf die Erfassung des hadronischen Endzustandes optimiert ist, ist es aufgrund des hohen Untergrundes an Hadronen nicht trivial, die Lepton-Paare aus dem Zerfall von Vektormesonen zu selektieren. Das Ziel dieser Arbeit bestand darin, zu untersuchen, wie gut eine Identifikation von Elektronen bzw. Positronen im NA-49-Experiment möglich ist. Es konnte die Effizienz der Selektion von Elektron-Positron-Paaren aus dem Zerfall von Phi-Mesonen abgeschätzt und die Kontamination der Lepton-Kandidaten durch Hadronen ermittelt werden. Danach wurde ein Signal zu Untergrund-Verhältnis für das Signal des Phi-Mesons im Invariante-Masse-Spektrum abgeschätzt. Aus den mit dem NA- Experiment gewonnenen Erkenntnissen konnten Vorschläge zur Optimierung der Messung von Lepton-Paaren aus Vektormesonen im zukünftigen STAR-Experiment gemacht werden.
Im Verlauf dieser Arbeit zeigte sich, daß es möglich ist, Spuren von Teilchen, die zwei Detektoren durchquerten, einander zuzuordnen; dies mit um so größerer Sicherheit, je kleiner die Spurdichte war. Anhand eines systematischen Vergleichs von Spurparametern zugeordneter Spuren gelang es, die Position eines Spurdetektors (TPC) relativ zum zweiten Detektor und dem Target genau zu bestimmen. Die Bedeutung dieser Position ist allerdings nicht eindeutig, da eine fehlerhafte, ortsabhängige Verzerrungskorrektur der TPC Meßdaten ebenfalls zu systematischen Verschiebungen und Verdrehungen der TPC führen kann. Letztlich ist es sogar möglich, daß die Position der TPC besser vermessen wurde als die der Streamerkammer, da auch die Messmarken - die fiducials - die den Bezug zwischen der Streamerkammer und den Magnetkoordinaten herstellen - , der schlechten Rekonstruktionsgenauigkeit der z-Komponente in der Streamerkammer unterliegen. Die Kenntnis der exakten Position der TPC ist deshalb notwendig, da die TPC alleine keine Impulsinformation liefert, sondern der Teilchenimpuls erst mit Hilfe der genau bekannten Vertexposition und dem gemessenen Magnetfeld möglich ist. Es zeigte sich, daß diese ermittelten Positionen unerläßlich für eine konsistente Impulsbestimmung beider Detektoren sind. Wie zu erwarten, ist das Transversalimpulsspektrum empfindlich auf die Position des TPC-Detektors. Durch Variation möglicher Positionen um die gefundene wurde eine Abschätzung des systematischen Fehlers in pT erreicht. Dieser kann 20% erreichen. Im folgenden Experiment - NA49 - werden sich zwei Vertex-TPC's hintereinander in einem inhomogenen Magnetfeld befinden. Dahinter und außerhalb des Magnetfeldes stehen nebeneinander zwei Haupt-TPC's. Da zur Messung des Magnetfeldes die Vertex-TPC's vollständig aus den Magneten entfernt werden, ist die Findung des Bezugs zwischen den Magnetkoordinaten und denen der Vertex-TPC's ein Problem zukünftiger Datenanalysen. Außerdem wird die relative Position der Haupt-TPC's zu den Magneten benötigt, um den funktionalen Zusammenhang zwischen der Ablenkung durch die Magneten und dem Impuls der Spur zu bestimmen, da in den Haupt-TPC's kein Magnetfeld die Spuren krümmt. Anderenfalls wäre auch hier keine konsistente Impulsbestimmung möglich.
Die vorliegende Arbeit befaßt sich mit der Planung und dem Aufbau der mehrkanaligen Strahlführung im Anschluß an den VE-RFQ Beschleuniger der Frankfurter EZR-VE-RFQ Anlage. Die Umsetzung der mit Hilfe von Simulationen gefundenen Strahlführung war ebenso Gegenstand dieser Arbeit wie erste Tests der neuen Anlagenkomponenten. Mit der Fertigstellung dieses Teilabschnitts steht jetzt der Energiebereich von 100–200 keV/u ergänzt durch den niederenergetischen Bereich von 5–60 kV für Experimente mit mehrfach geladenen Ionen in zwei von drei geplanten Strahlkanälen zur Verfügung. Die Kombination, bestehend aus EZR-Ionenquelle und VE-RFQBeschleuniger, erlaubt einerseits atomphysikalische Experimente mit speziell präparierten Ionenstrahlen und verschiedenen Ionensorten. Andererseits liefert die verwendete Ionenquelle hohe Intensitäten an mehrfach geladenen Ionen, die für spezielle Anwendungen der Materialforschung benötigt werden. Diese Arbeit gliedert sich in drei Abschnitte, im ersten Schritt wurde die HF-Einkopplung des Beschleunigers modifiziert und der Ionenstrahl im transversalen Phasenraum charakterisiert. Dabei hat sich gezeigt, daß die experimentell gefundene Geometrie der Einkoppelschleife im Betrieb nur in einem sehr geringen Bereich verfahren werden muß, um optimale Anpassung über den gesamten Frequenzbereich zu erreichen. Auf Basis der gemessenen Emittanzen erfolgte die Planung der Strahlführung mit Hilfe von Simulationsprogrammen im zweiten Schritt. Das Ziel war der Aufbau von drei Strahlkanälen mit unterschiedlichen Anforderungen an das Profil des Ionenstrahls. Im letzten Schritt stand die Umsetzung der geplanten Strahlführung. Verbunden mit diesem Schritt war die Konstruktion und Vermessung der ionenoptischen Elemente und der Aufbau der Strahlführung unter Verwendung von vorhandenen magnetischen Quadrupolen und Ablenkmagneten. Abschließend wurde die Funktionsfähigkeit des vorgestellten Aufbaus als Bestandteil der kompletten EZR-VE-RFQ-Anlage im Betrieb getestet. Im Rahmen des Aufbaus und der ersten Experimente waren diverse technische Fragestellungen aus dem Bereich der Beschleunigerphysik, über die Ionenoptik bis hin zur Ionenquellenphysik zu bearbeiten und Probleme zu lösen. Die ersten Tests der einzelnen ionenoptischen Elemente und der Betrieb der gesamten Strahlführung haben gezeigt, daß die gestellten Aufgaben erfüllt werden. Nach der Fertigstellung des Grundaufbaus der Strahlführung für die nachbeschleunigten Ionen durch den Aufbau des noch fehlenden 90°-Kanals und den Aufbau einer Strahldiagnose, muß im nächsten Schritt die Optimierung der einzelnen Strahlkanäle erfolgen. Das Ziel liegt dabei in der Verbesserung der Transmission und der Qualität der zur Verfügung gestellten Ionenstrahlen. Damit verbunden ist auch die Charakterisierung der Ionenstrahlen in den verschiedenen Strahlzweigen. Unabhängig davon ist die Untersuchung der Injektion in den RFQ notwendig, zur Verbesserung der Anpassung des Quellenstrahls an die Akzeptanz des Beschleunigers und zur Diagnose der Ursache für die Teilchenverluste in diesem Teilabschnitt des Aufbaus.
Es wurde eine Apparatur zur Messung der Ladungszustandsverteilung von langsamen, hochgeladenen Ionen nach der Wechselwirkung in dünnen Foilen aufgebaut und angewendet. Die Ladungszustandsverteilung von Ionen mit Ladungszuständen von 1+ (H) bis 75+(Th) wurden im Geschwindigkeitsbereich von 0.2 bis 0.75 vBohr nach einer 5 nm und 10 nm dicken amorphen Kohlenstoff-Folie bestimmt. Ionen, die die (10 nm)-Folie passierten, befanden sich im wesentlichen in einem Gleichgewichtsladungszustand (1-2+), der sich grob durch das Bohr-Kriterium beschreiben läßt. Die mittleren Endladungszustände von Ionen mit Anfangsladungen >= 33+ zeigten nach der 5 nm dicken Folie eine deutliche Abweichung von diesem Gleichgewicht. Mittlere Ladungszustände bis zu 8.2+ (Th) wurden beobachtet. Es handelt sich dabei um die erste Beobachtung von Nicht-Gleichgewichtsladungszuständen langsamer Ionen nach der Transmission durch einen Festkörper. Dieses Ergebnis wird dahingehend gedeutet, daß die Zeitspanne, die zur Neutralisation und Relaxation der Ionen in der 5 nm Folie zur Verfügung steht, nicht ausreichend ist. Aus den Ergebnissen der Sekundärelektronen Ausbeute wird geschlossen, daß ein Teil der Innerschalen-Plätze bis zum Austritt aus der Folie nicht gefüllt werden konnte. Desweiteren könnte eine Verarmung des Festkörpers an Elektronen im Einschlagsbereich des hochgeladenen Ions vorliegen. Anhand der gesammelten Daten wurde ein semi-empirisches Modell zur Beschreibung des Ladungszustandes eines hochgeladenen Ions in einem Festkörper aufgestellt. Es zeigt sich, daß die Daten gut durch einen zweistufugen Füllprozess beschrieben werden können, der aus einem Aufbau einer Abschirmwolke um das Projektil, sowie der weiteren Abregung besteht. Die charakteristischen Zeiten für Aufbau und Abregung bewegen sich im Bereich von 2 fs. Nach etwa 7 fs kann von einer vollständigen Relaxation des Projektils ausgegangen werden. Die Ergebnisse dieser Arbeit zum Ladungsausgleich der hochgeladenen Ionen wurden in [37] veröffentlicht.
Das im Rahmen dieser Arbeit durchgeführte Experiment hatte zum Ziel Interferenzeffekte beim dissoziativen Ladungstransfer bei Molekülion-Atomstößen zu beobachten. Interferenzeffekte in Molekül-Atomstößen wurden von McGuire hervorgesagt und berechnet [4]. Diese Arbeit betrachtet ein ähnlichen Reaktionssystem. Die von ihm vorausgesagten Effekte wurden bestätigt. Das Experiment hat es ermöglicht, Interferenzen für alle Molekülorientierungen zu betrachten, womit man leicht Analogien zu zwei speziellen Fällen herstellen kann: mit der Molekülachse senkrecht zur Strahlrichtung entsteht eine Situation ähnlich einem Doppelspalt, bei dem die Kerne des Moleküls als Reaktionszentrum an Stelle der Spalte treten; mit der Molekülachse in Strahlrichtung entsteht eine Situation bei der Streuung an einem einzelnen Atom. In allem Molekülorientierungen erkennt man ein ringförmiges Minimum bei 1.6 a.u., wie es insbesondere bei der Beugung einem einzelnen Atom zu beobachten ist. Bei senkrechter Stellung der Molekülachse zur z-Achse überlagert durch die Streifen eines Doppelspaltes. Es war außerdem möglich den Endzustand der Teilchen zu bestimmen, so daß man sagen konnte, ob eine Teilchen angeregt aus der Reaktion hervorgegangen ist oder ob es über metastabile Zwischenzustände zerfallen ist. So ließ sich für den Impulsübertrag von 1.6 au eine Besonderheit feststellen: ein Minimum läßt sich nur im direkten Kanal ohne Anregung beobachten. Findet der Zerfall hingegen über metastabile Zwischenzustände ohne Anregung statt, so weist dieser Kanal bei etwa 1.6 au ein Maximum auf. Parallel zur Durchführung dieser Arbeit wurden erste Tests mit einem digitalen Oszillographen von Aquiris gemacht. Dieser speichert den Spannungsverlauf der Spannung an den Delaylineanoden. Peaks müssen dann schnell genug erkannt und ausgewertet werden. In der Offlineanalyse wären dann eng nebeneinander oder übereinanderliegende Peaks besser als solche zu erkennen. Diese würde die Totzeitproblematik, die sie durch die Dissoziation eines Moleküls senkrecht zur z-Achse entsteht, erheblich entschärfen.
Als Ergebnis dieser Arbeit kann man sehen, daß es experimentiell gelungen ist, mit einem alpha-förmigen Linearresonator einen stabilen unabhängig abstimmbaren Zwei-Farben Ti:saphir Laser aufzubauen, der so in der wissenschaflichen Literatur noch nicht beschrieben ist. Eine Veröfentlichung zu der vorgelegten Arbeit [22] ist beim IEEE Journal of Quantum Electronics eingereicht worden. Die Ausgangsleistung dieses Lasers liegt bei 300 mW. Die durchgeführten Experimente lassen darauf schließen, daß der Laser die meiste Zeit nur auf einer longitudinalen Mode emittiert. Bei einem gleichzeitig möglichen Abstimmbereich von 740 nm bis 850 nm, welches ein Verhältnis von Linienbreite zu Abstimmbereich von besser als 1:250000 bedeutet. Den Beweis, daß der Laser auch bei sehr geringen Differenzfrequenzen betrieben werden kann, lieferte die direkte Messung des Schwebungssignals zwischen den beiden Lasern. Dabei muß man zugeben, daß das im Eingangszitat dieser Arbeit erwähnte Schwebungssignal nicht ohne Hilfsmittel an einer Wand zu beobachten war, sondern eine minimale Schwebung von 3 Mhz gemessen wurde. Im Vergleich zu den 3 x 10 exp 8 Mhz der einzelner Farben ist dies aber ein gutes Ergebnis. Zusätzlich wurde mit dem Ringlaser ein anderer Ansatz zur Abstimmung des Systems realisiert. Diese Anordnung hat mit 800 mW Vorteile bezüglich der Ausgangsleistung aber Nachteile in Hinblick auf Abstimmung und Linienbreite. Im theoretischen Teil konnte gezeigt werden, welche Eigenschaften ein Laser-Resonator haben muß, um stabil im Zweifarben Betrieb eingesetzt zu werden. Weiterhin konnten auch noch die dynamischen Effekte der beiden Resonatortypen mit Hilfe einer Simulation beschrieben werden. Der Laser soll in der Erzeugung von kontinuierlicher Strahlung im Thz Bereich verwendet werden. Dabei sollen photokonduktive Antennen, wie auch Halbleiteroberflächen als Emitter dienen. Bis zum Ende dieser Arbeit konnte der Laser aus zeitlichen Gründen nicht für diese Messungen eingesetzt werden, da es zu Verzögerungen mit den Proben, wie auch mit den Meßgeräten kam. Die Charakterisierung des Lasers aber zeigte, daß die beiden schmalbandigen Farben bei einer Differenzfrenz im Thz-Bereich (20 GHz–50THz) stabil zu realisieren sind.
Die vorliegende Diplomarbeit lässt sich dem Gebiet der Terahertz-Physik (THz-Physik) zuordnen, also dem Gebiet der Physik, das sich mit der Erzeugung und Detektion von Ferninfrarotstrahlung beschäftigt. THz-Strahlung stellt dabei die Verbindung zwischen den elektromagnetischen Mikrowellen und den Wellen des infraroten Frequenzbereiches dar. Damit umfasst der THz-Bereich Frequenzen von etwa 100 GHz bis zu 100 THz. Die Forschung, die sich mit diesem Frequenzbereich beschäftigt, ist mittlerweile stark differenziert. Dabei geht es auf der einen Seite um die Entwicklung neuer bzw. die Weiterentwicklung und Optimierung bestehender THz-Erzeugungs- und Detektionsverfahren, auf der anderen Seite geht es um die Frage nach den möglichen Anwendungsgebieten für die entwickelten THz-Techniken. Entwickelt werden sowohl gepulste wie auch Dauerstrich-THz-Systeme, die auf einer Vielzahl verschiedener physikalischer Emissionsprozesse basieren. Die Anwendungsseite der THz-Forschung umfasst Gebiete wie die Spektroskopie, d.h. die Materialcharakterisierung und -untersuchung, aber auch komplexe biomedizinische Untersuchungsverfahren, wie z.B. die Krebsdiagnostik in der Onkologie. In der Bandbreite der weltweiten THz-Aktivitäten befindet sich diese Arbeit sowohl im Bereich der Entwicklung von THz-Techniken als auch in dem eher anwendungsbezogenen Bereich: Zunächst werden im zweiten Kapitel die verwendeten THz-Techniken und Messaufbauten vorgestellt, ebenso wie deren Funktionsweisen und speziellen Eigenschaften. Das dritte Kapitel beschäftigt sich mit der experimentellen Untersuchung von großflächigen THz-Emittern in gepulsten Lasersystemen. Diese weisen gegenüber den häufig verwendeten punktförmigen THz-Emittern einige grundlegende Unterschiede auf. Diese Unterschiede sollen zunächst durch die in das Kapitel einführenden theoretischen Grundlagen herausgearbeitet und danach anhand eines elektrooptischen Emitters und eines elektrisch vorgespannten Halbleiteremitters überprüft werden. In den folgenden Kapiteln wendet sich der Fokus dann mehr der Anwendung von THz-Strahlung zu. Dazu finden im vierten Kapitel Überlegungen und Experimente zu der Charakterisierung von, zunächst anorganischen, mehrschichtigen Systemen auf der Basis von Halbleiterstrukturen statt, die mit einem Ausblick auf eine biomedizinische Anwendung der THz-Strahlung, bei der Untersuchung von Zähnen, abgeschlossen werden. Im fünften Kapitel soll ein Silizium-Paraffin-Gemisch auf seine Stoffigenschaften untersucht werden. Für dieses Gemisch lassen sich die Stoffeigenschaften im THz-Bereich mittels des Mischungsverhältnisses der beiden Ausgangsmaterialien anpassen. Mögliche Anwendungen für ein solches Material sind indexangepasste Füllungen von Zwischenräumen, um störende Reflexionen an den jeweiligen Grenzflächen zu vermeiden; so wie die Konstruktion von Antireflexionsschichten für THz-Optiken. Beide Anwendungen werden in Form von Experimenten vorgestellt. Abschließend werden alle Ergebnisse in einem Fazit zusammengefasst, und es erfolgt ein Ausblick auf weitere Untersuchungen.
Konzeptionelle Untersuchungen eines Dielektronenspektrometers für Schwerionenstöße im GeV/u-Bereich
(1993)
Mit dem Dileptonenspektrometer HADES (High Acceptance Di-Electron Spectrometer) sollen Dielektronen, die bei zentralen Au+Au-Kollisionen der Energie von bis zu 2 GeV/u entstehen, spektroskopiert werden. Zentrale Detektorkomponente ist ein Magnetspektrometer, bestehend aus einem toroidalem Magnetfeld und 24 Driftkammern, die zur Orts- und Impulsbestimmung durch Ablenkung im Magnetfeld verwendet werden. Hohe Raten minimal ionisierender Teilchen, eine Massenauflösung von 1% im Massenbereich von 800 (MeVc) exp -2 sowie eine sichere Signalerkennung und -zuordnung stellen höchste Anforderungen an das Spektrometer, insbesondere an die Driftkammern. Ziel dieser Arbeit ist das grundlegende Verständnis der Funktionsweise der Driftkammern, die bei HADES eingesetzt werden, dazu gehört: (a): das physikalische Verständnis der Funktionsweise, insbesondere - die genaue Kenntnis des Feldverlaufs innerhalb der Kammern, sowie die Eigenschaften des verwendeten Driftkammergases und - die Bestimmung des theoretisch maximal erreichbaren Ortsauflösungsvermögens der Driftkammern, (b): die technische Seite, die den Aufbau der Driftkammern untersucht. Dies ist besonders wichtig, da in den HADES-Simulationsrechnungen aufgrund der großen Anzahl individueller Drähte mit Folien äquivalenter Massen gerechnet wurde. Hilfsmittel zur Untersuchung dieser Fragestellungen waren einerseits Programme, die Monte-Carlo-Methoden verwenden, andererseits Experimente, die an einem Prototyp der HADES-Driftkammern durchgeführt wurden, wobei jedoch der Schwerpunkt dieser Arbeit auf den Simulationrechnungen liegt. Kapitel 1 gibt einen Überblick über die physikalische Motivation von HADES und beschreibt kurz die einzelnen Komponenten des Spektrometers und die Driftkammerphysik. Kapitel 2 geht auf den Aufbau der HADES-Driftkammern ein und stellt die mit Hilfe von Simulationsrechnungen gewonnenen Erkenntnisse über die Kammern vor. Kapitel 3 behandelt die Bestimmung der intrinsischen Auflöosung der Prototyp-Driftkammer. Da dies allein mit Hilfe von Quellenmessungen aufgrund der Vielfachstreuung nicht möglich ist, wurde der Anteil an Vielfachstreuung mit Simulationsrechnungen bestimmt. Kapitel 4 vergleicht die Erkenntnisse über das Verhalten der Driftkammern, die in Kapitel 2 gewonnen wurden, mit einem am SIS (Schwerionen-Synchrotron) gemachten Experiment. Abschließend wird das Modell einer Driftkammer mit realen Drähten mit dem Modell einer Driftkammer verglichen, in der die Drähte durch Folien äquivalenter Massenbelegung ersetzt wurden.
Im HADES-Detektorsystem werden Vieldraht-Driftkammern zur Spurrekonstruktion verwendet. Für eine genaue Untersuchung des Driftzeitverhaltens innerhalb der Driftzellen wird ein ortsempfindliches Referenzdetektorsystem benötigt. Hierfür wurden Silizium-Mikrostreifen-Detektoren mit einer Ortsauflösung im Bereich kleiner als 10 mikrom eingesetzt. Diese wurden zu einem Strahlteleskop zusammengebaut, mit dem die Teilchentrajektorie zwischen zwei Referenz-Meßunkten bestimmt werden kann. Probleme bereitete die Vielfachstreuung in den einzelnen Komponenten des Teleskop-Aufbaus, die den geradlinigen Teilchendurchgang zwischen den beiden Ortsmessungen beeinflußte. Dies wurde durch Messung mit Teilchen höherer Steifigkeit ausgeglichen. Die Silizium-mü-Streifen-Detektoren zeigten ein gutes Signal-zu-Untergrund Verhalten und wiesen eine sehr gute Effizienz auf. Die Bestimmung des Teilchendurchgangsortes durch den Driftkammer-Prototyp 0 ermöglichte die Messung der Driftgeschwindigkeit. Auch das Driftzeitverhalten in Abhängigkeit vom Ort des Teilchendurchgangs konnte genau untersucht werden.
Konzept und Implementierung eines Systems zur Visualisierung von Zelldifferenzierungssimulationen
(2004)
Ziel der vorliegenden Arbeit ist es, zunächst den Stand der Forschung auf dem Gebiet der Zelldifferenzierungssimulatoren und –visualisierungen zu ermitteln. Davon ausgehend wurde ein eigenes Konzept für ein Visualisierungssystem entwickelt. Es wurde in einer prototypischen Implementierung mit dem Titel D-VISION umgesetzt. Die Recherchearbeiten ergaben, dass in der Forschung bisher hauptsächlich biochemische Reaktions-Netzwerke, die mithilfe von Differentialgleichungen gelöst werden, für Zell-Simulationen benutzt werden. Der dabei verwendete Abstraktionsgrad der repräsentierten Zellen ist zu hoch, um die gestellten Anforderungen einer realistischen 3D-Darstellung der Zellen zu erfüllen. Die grundlegende Idee, die Zelldifferenzierung aufgrund ihrer Genexpression also der in den Zellen vorhandenen Substanzen zu beschreiben, wurde als Basis für das Konzept für D-VISION verwendet. Die Daten, die visualisiert werden sollen, sind die Zellen selbst, die Substanzen, die in der Zelle vorhanden sind, Substanzen an der Zellhülle und die Gene, die in einer Zelle aktiv sind. Die Visualisierung wird durch Darstellung von aufeinander folgenden Standbildern vorgenommen, in denen navigiert werden kann. Zellen werden in Form von Kugeln repräsentiert, die, um eine realistischere Ansicht zu erreichen, so deformiert werden, dass sich die Kugeloberflächen aneinander angleichen. Die Deformation bietet nicht nur in der Ansicht von außen ein natürliches Bild. Auch die Möglichkeit, ein Schnittbild durch den Zellhaufen zu erzeugen, ergibt durch die Deformation eine mit realen Mikroskopieaufnahmen vergleichbare Darstellung. Ein solches zweidimensionales Schnittbild kann durch Verschieben der Schnittebene eine stufenlose Fahrt durch die Schichten des simulierten Zellhaufens zeigen. Neben den Zellen selbst, liegt ein besonderes Augenmerk auf der Darstellung von Substanzkonzentrationen. Sie werden durch kleine Objekte (Tiny Cubes) dargestellt. Allerdings unterscheidet sich ihr Einsatz von der bisher verbreiteten Methode, volumetrische Daten durch Farbskalen zu repräsentieren. Sie geben die Stoffmengen allein durch ihre Anzahl wieder. Um Zusammenhänge mit der Zelldifferenzierung erkennbar zu machen, können bis zu drei verschiedene Stoffe gleichzeitig angezeigt werden. Der Benutzer hat die Möglichkeit, Regeln bezüglich des Zustandes von Zellen zu formulieren. Die so definierten Zellklassen, fassen Zellen gleichen Typs zusammen und ermöglichen so die Darstellung von Zelldifferenzierung. D-VISION wurde konzipiert, um auch mit Simulatoren zusammen zu arbeiten, die Grid Computing für ihre Berechnungen nutzen. Ein separater Datenaufbereiter soll die Simulationsdaten verwalten. Der entwickelte Prototyp ist flexibel genug, um auch mit einfacheren Simulatoren zusammenzuarbeiten. Auf welchem Weg die visualisierten Daten gewonnen werden, spielt keine Rolle. Auch reine Messwerte, können zu guten Bildern führen.
Die Darstellung photorealistischer Szenen durch Computer hat in Folge der Entwicklung immer effizienterer Algorithmen und leistungsfähigerer Hardware in den vergangenen Jahren gewaltige Fortschritte gemacht. Täuschend echt simulierte Spezialeffekte sind aus kaum einem Hollywood-Spielfilm mehr wegzudenken und sind zum Teil nur sehr schwierig als computergenerierte Bilder zu erkennen. Aufgrund der Komplexität von lebenden Organismen gibt es allerdings noch kein einwandfreies Verfahren, welches ein komplettes Lebewesen realistisch, sei es statisch oder in Bewegung, mit dem Computer simulieren kann. Im Bereich der Animation sind wirkungsvolle Resultate zu verzeichnen, da das Skelett eines Menschen oder Wirbeltieres durch geeignete Methoden simuliert und Bewegungen damit täuschend echt mit dem Computer nachgebildet werden können. Die Schwierigkeit, eine komplett realistische Visualisierung eines Lebewesens zu erreichen, liegt allerdings in der Darstellung weiterer Strukturen eines Organismus, die zwar nicht direkt sichtbar sind aber dennoch Einfluss auf die sichtbaren Bereiche haben. Bei diesen Strukturen handelt es sich um Muskel- und Fettgewebeschichten. Die Oberfläche von Figuren wird durch Muskeln sowohl in der Bewegung als auch in statischen Positionen deutlich sichtbar verändert. Dieser Effekt wird bisher bei der Visualisierung von Lebewesen nur unzureichend beachtet, was zu den aufgeführten nicht vollständig realistisch wirkenden Ergebnissen führt. Bei der Simulation von Muskeln wurden bis heute verschiedene Muskelmodelle entwickelt, die einen Muskel als Gesamtheit in Hinblick auf seine grundsätzlichen physikalischen Eigenschaften, wie z. B. Kraftentwicklung oder Kontraktionsgeschwindigkeit, sehr gut beschreiben. Viele Effekte des Muskels, die sich hauptsächlich auf einer tiefer liegenden Ebene abspielen, sind bis heute noch nicht erforscht, was folglich auch keine entsprechende Simulation auf dem Computer zulässt. Beschrieben werden die verschiedenen Muskeltypen (Skelett-, glatte und Herzmuskulatur) und Muskelformen (spindelförmige, einfach/doppelt gefiedert, etc.). Des weiteren wird auf die unterschiedlichen Muskelfasertypen (FTO, STO, usw.) mit ihren Eigenschaften und Funktionen eingegangen. Weitere Themen sind der strukturelle Aufbau eines Skelettmuskels, der Kontraktionsmechanismus und die Ansteuerung durch Nervenreize. Im Bereich Biomechanik, also der Forschung nach den physikalischen Vorgängen im Muskel, führte die Komplexität der Struktur und Funktionsweise eines Muskels zu einer ausgedehnten Vielfalt an Forschungsarbeiten. Zahlreiche Effekte, die bei einem arbeitenden Muskel beobachtet werden können, konnten bis heute noch nicht erklärt werden. Die Erkenntnisse, die für diese Arbeit relevant sind, sind jedoch in einem ausreichenden Maße erforscht und durch entsprechende mathematische Modelle repräsentierbar. Die Mechanik, die einem Muskel zugrunde liegt, wird auf diesen Modelle aufbauend beschrieben. Neben den Größen, die im später vorgestellten Modell verwendet worden sind, wird auch auf sonstige für biomechanische Untersuchungen relevante Eigenschaften eingegangen. Weiterhin wird dargestellt, wie verschiedene Kontraktionen (Einzelzuckung, Tetanus) mechanisch funktionieren. Für Muskelarbeit und Muskelleistung werden verschiedene Diagramme vorgestellt, welche die Zusammenhänge zwischen den physikalischen Größen Kraft, Geschwindigkeit, Arbeit und Leistung zeigen. Nach Vorstellung der ISOFIT-Methode zur Bestimmung von Muskel-Sehnen-Eigenschaften werden mathematische Formeln und Gleichungen zur Beschreibung von Kraft-Geschwindigkeits- und Kraft-Längen-Verhältnissen sowie der serienelastischen Komponente und der Muskelaktivierung, die zur Bewegungsgleichung führen, angegeben. Es folgen weitere mathematische Funktionen, welche die Aktivierungsvorgänge unterschiedlicher Muskelkontraktionen beschreiben, sowie das Muskelmodell nach Hill, welches seit vielen Jahren eine geeignete Basis für Forschungen im Bereich der Biomechanik darstellt. Bezüglich der Computergraphik wird ein kurzer Abriss gegeben, wie künstliche Menschen modelliert und animiert werden. Eine Übersicht über verschiedene Methoden zur Repräsentation der Oberfläche von Körpern, sowie deren Deformation unter Berücksichtigung der Einwirkung von Muskeln gibt die State-of-the-Art-Recherche. Neben den Oberflächenmodellen (Starrkörperdeformation, lokale Oberflächen-Operatoren, Skinning, Konturverformung, Deformation durch Keyshapes) werden auch Volumen- (Körperrepräsentation durch Primitive, Iso-Flächen) und Multi-Layer-Modelle (3-Layer-Modell, 4-Layer-Modell) vorgestellt und deren Vor- und Nachteile herausgearbeitet. Eine geeignete Repräsentation der Oberfläche, die Verformungen durch Muskelaktivität einbezieht, wurde durch die Benutzung von Pneus gekoppelt mit der Quaoaring-Technik gefunden. Dieses Verfahren, das auf Beobachtungen aus der Biologie basiert und zur Darstellung von organischen Körpern benutzt wird, ist ausgesprochen passend, um einen Muskel-Sehnen-Apparat graphisch darzustellen, handelt es sich doch hierbei auch um eine organische Struktur. Um die beiden Teilmodelle Simulation und Visualisierung zu verbinden, bietet sich die aus der Biomechanik bekannte Actionline an, die eine imaginäre Kraftlinie im Muskel und der Sehne darstellt. Die bei der Quaoaring-Methode verwendete Centerline, welches die Basis zur Modellierung des volumenkonstanten Körpers ist, kann durch die Kopplung an die physikalischen Vorgänge zu einer solchen Actionline erweitert werden. Veränderungen in der Länge und des Verlaufs der Actionline z. B. durch Muskelkontraktion wirken sich dadurch direkt auf die Form des Muskels aus und die Verbindung zur Visualisierung ist hergestellt.
Gemessen wurden der gerichtete und der elliptische Fluss von Pionen und Protonen in Blei-Blei-Stößen bei einer Laborenergie des Projektils von 40 GeV pro Nukleon. Bestimmt wurde die Abhängigkeit der beiden Flusskomponenten von der Zentralität des Stoßes sowie von der Rapidität und dem Transversalimpuls der gemessenen Teilchen. Zur Rekonstruktion des Flusses wurde die Methode der Korrelation der Teilchen mit der abgeschätzten Reaktionsebene verwendet. Zur Korrektur der azimutalen Anisotropien des Detektors wurde die Methode des Zentrierens der Teilchenverteilung in Abhängigkeit von Rapidität und Transversalimpuls angewendet. Für den v2 wurde eine Abänderung des Korrelationsterms nötig, um den Einflüssen durch die schlechte Akzeptanz entgegenzuwirken. Weiterhin wurde der Einfluss von Nicht-Fluss-Korrelationen zwischen den gemessenen Teilchen auf den Fluss untersucht. Dabei erkannte man einen starken Einfluss der Transversalimpulserhaltung im v1, der durch eine Korrektur behoben werden konnte. Einen weniger starken Einfluss konnte man bei der Untersuchung im Phasenraum kurzreichweitiger Korrelationen feststellen. Es wurde erstmals deutlich ein negativer gerichteter Fluss von Protonen nahe der Schwerpunktsrapidität beobachtet, der bereits mittels meherer theoretischer Rechnungen vorhergesagt wurde. Sowohl der gerichtete als auch der elliptische Fluss erreicht bei 40 AGeV Laborenergie annähernd die gleichen Werte, die von NA49 bei 158 AGeV Laborenergie gemessen wurden. Die für den Fluss gemessenen Werte befinden sich teilweise in Übereinstimmung mit denen des Experimentes CERES/NA45, ist allerdings nur bedingt möglich, da bisher nur einzelne vorläufige Resultate veröffentlicht wurden. Die für den elliptischen Fluss gemessenen Werte bei der Schwerpunktsrapidität und einer Zentralität von 25% liegen etwas höher als man aus der beobachteten Systematik der Energieabhängigkeit zwischen den Experimenten E877 (mit 10 AGeV Laborenergie am AGS), CERES und NA49 (bei einer Energie von und 160 AGeV am SPS) sowie STAR (am RHIC bei einer Energie von psNN = 130GeV) erwartet hat. So wird von den Werten am AGS bei voller Energie zu denen am SPS bei 40 AGeV ein Anstieg von 2% auf 3,3% beobachtet. Von 40 AGeV zu 158 AGeV Laborenergie am SPS ändert sich der Wert nur minimal von 3,3% auf 3,2%. Zwischen der höheren SPS-Energie von 158 AGeV und der RHIC-Energie von psNN = 130GeV wird ein weiterer Anstieg von 3,2% auf 5,6% gemessen. Das ist ein Anzeichen für eine Anomalie, die im Bereich der SPS-Energien vorliegen könnte. Eine genauere Bestimmung des Flusses ist noch möglich, da für die Analyse dieser Arbeit erst eine Hälfte der gemessenen Daten zur Verfügung stand. Mit Hilfe dieser Daten ließe sich die Energieabhängigkeit des Flusses genauer untersuchen und die gefundene Anomalie bestätigen.
Im Rahmen dieser Diplomarbeit konnte das Plasmid pB6 isoliert werden, das die MNNG-Hyperresistenz einer rng1-1-Mutante komplementierte. Das komplementierende Gen dieses Plasmids konnte jedoch weder über 17 Subklone noch über Komplementationsanalysen identifiziert werden. Die Sensibilität gegen „Congo red“ konnte als ein weiterer Phänotyp des Stammes Q2rng1 bestimmt werden. Es wurden im Zuge der Subklonierung des Plasmids pB6 pRS424-Derivate gefunden, die unabhängig vom genetischen Hintergrund des transformierten Stammes, heterogenes Wachstum verursachten. Zurückzuführen war dies auf die Überexpression des ORFs YLR112w alleine oder gemeinsam mit dem ORF YLR111w. Neben der bereits beschriebenen MNNG-Hyperresistenz durch die Überexpression von SNG1 in Wildtypen, GSH-Mutanten und Reparaturdefizienten Stämmen, konnte auch in dem bereits gegen MNNG hyperresistenten Stamm Q2rng1 eine Steigerung der Resistenz durch SNG1 gezeigt werden. Des weiteren wurden Anzeichen gefunden, dass die MethioninAuxotrophie des Stammes Q3 auf die Disruption des GSH1-Gens zurückzuführen war. Zudem konnte nachgewiesen werden, dass die funktionierende GSH-Synthese letal auf eine ero1-Delta-Mutante wirkte. Als Auslöser für die Cadmium-Sensibilität der Stämme Q3 und Q4 konnten die bekannten Mutationen dieser Stämme im GSH1- und im LWG1-Gen ausgeschlossen werden.