Refine
Year of publication
Document Type
- diplomthesis (211) (remove)
Language
- German (211) (remove)
Has Fulltext
- yes (211)
Is part of the Bibliography
- no (211)
Keywords
- Diskursanalyse (2)
- Soziologie (2)
- Stochastik (2)
- Stochastischer Prozess (2)
- Strahltransport (2)
- Yule-Prozess (2)
- Ablenkung <Physik> (1)
- Agentieller Realismus (1)
- Akteur-Netzwerk-Theorie (1)
- Algorithmus (1)
Institute
- Physik (102)
- Mathematik (33)
- Informatik (26)
- Gesellschaftswissenschaften (15)
- Geowissenschaften (9)
- Wirtschaftswissenschaften (8)
- Biowissenschaften (4)
- Erziehungswissenschaften (4)
- Biochemie und Chemie (3)
- Geographie (1)
Die Stoßparameterbestimmung, an den zur Zeit im Bau befindlichen bzw. geplanten Schwerionen-Collidern RHIC und LHC ist nicht mehr wie bei Experimenten mit festem Target über die Messung der Summe aller Spektatoren möglich. Am einfachsten sind die neutralen Spektatoren (Neutronen) nachzuweisen. Diese enden bei RHIC jedoch in einem Bereich zwischen den zwei Strahlrohren, der die Größe eines Detektors auf 10 cm Breite und 130 cm Länge beschränkt, was im Vergleich zu der Breite herkömmlicher Kalorimeter, die zur Messung von Spektatoren eingesetzt werden, sehr klein ist. Die Anzahl neutraler Spektatoren kann über deren Gesamtenergie bestimmt werden, da sie im wesentlichen den Strahlimpuls behalten. Am RHIC wird zu beiden Seiten der vier Wechselwirkungszonen je ein Kalorimeter zur Messung der neutralen Spektatoren installiert(d.h. insgesamt 8 Kalorimeter). Diese Kalormeter werden aus Wolfram bestehen und eine Länge von 6 hadronischen Wechselwirkungslängen haben. Zusätzlich sollen mit diesen Detektoren einzelne Neutronen aus Riesenresonanz-Abregungen gemessen werden. Über die Rate der Koinzidenz dieser einzelnen Neutronen auf beiden Seiten der Wechselwirkungszone soll die Luminosität des Beschleunigers bestimmt werden. An die Detektoren wurde in erster Line die Forderung nach einer Energieauflösung von ca 20% gestellt, um das Signal der einzelnen Neutronen vom Untergrund trennen zu können. Für die Messung der neutralen Spektatoren, deren erwartete Anzahl im Bereich von ~ 10 - 40 liegt, ist die Energieauflösung nicht so kritisch. Fluktuationen in der Signalhöhe des Detektors werden durch die Messung mehrerer Neutronen zum Teil kompensiert, die Energieauflösung skaliert mit der Anzahl der Neutronen Nn wie 1/sqrt(Nn). Weiterhin wurde die Forderung einer Zeitauflösung theta < 300 ps gestellt. Dies ist zum einen nötig, um bei der Messung der korrelierten Emission einzelner Neutronen zur Luminositätsbestimmung zufällige Koinzidenzen zu vermeiden. Weiterhin kann der Ort der Wechselwirkung über eine Laufzeitmessung der Spektatoren zu beiden Seiten des Wechselwirkungspunktes auf einige cm genau bestimmt werden. Eine neue Kalorimeter-Bauform, das Cherenkov-Licht-Kalorimeter, ermöglicht es hadronische Kalorimeter mit geringen lateralen Ausmaßen zu konstruieren, da nur der zentrale Teil des hadronischen Schauers zum Signal beiträgt. Cherenkov-Licht-Kalorimeter bestehen aus einem Absorbermaterial und darin eingebrachten Lichtleitern, in denen relativistische geladene Teilchen des Schauers Cherenkov-Strahlung erzeugen. Es wurden zwei Prototypen aus Kupfer bzw. Wolfram mit PMMA-Lichtleitern am SPS (CERN) im 100 GeV/c- und 158 GeV/c-Protonstrahl getestet. Beide Prototypen haben eine Länge von 8 hadronischen Wechselwirkungslängen Lambda I und einen Querschnitt von 10 x 10 cm*cm. Das Kupferkalorimeter ist longitudinal in 8 Module zu je a Lambda I Länge unterteilt, das Wolframkalorimeter besteht aus 4 Modulen von je 2 Lambda I Länge. Die Lichtleiter laufen bei beiden Prototypen unter 45 Grad relativ zur Strahlachse. In früheren Untersuchungen von Gorodetzky et al. wurde festgestellt, daß in dieser Anordnung, das maximale Signal erzeugt wird. Die Energieauflösung des Kupferkalorimeters beträgt 21.8 +- 0,5% RMS/E bei 100 GeV/c Strahlimpuls. Das Wolframkalorimeter hatte im 100 GeV/c-Protonstrahl eine Energieauflösung von 20.5 +- 0.5% RMS/E. Bei beiden Prototypen wurde eine Zeitauflösung von theta < 200 ps gemessen.
Das größte Problem bei der Erstellung von MR-Anwendungen besteht darin, dass sie meistens durch Programmierung erstellt werden. Daher muss ein Autor spezielles Fachwissen über MR-Technologie und zumindest allgemeine Programmierkenntnisse mitbringen, um eine MR-Anwendung erstellen zu können. Dieser Erstellungsprozess soll mit Hilfe von MR-Autorensystemen, die derzeit auf dem Markt existieren und in der Forschung entwickelt werden, vereinfacht werden. Dies war ein Grund, warum diese Arbeit sich zum Ziel erklärte, zu überprüfen, inwieweit die Erstellung von MRAnwendungen durch Einsatz von MR-Autorensystemen vereinfacht wird. Ein weiteres Hauptziel war die Erstellung einer repräsentativen MR-Anwendung, die in dieser Arbeit als MR-Referenzanwendung bezeichnet wird. Sie sollte vor allem bei weiteren Entwicklungen als Vorlage dienen können und auf Basis von standardisierten Vorgehensmodellen, wie das Wasserfallmodell, erstellt werden. Ganz wichtig war es noch im Rahmen dieser Arbeit zu bestätigen, dass standardisierte Vorgehensmodelle auf MR-Anwendungen übertragbar sind. Um diese Ziele zu erreichen, sind in dieser Arbeit viele Schritte befolgt worden, die jeweils als Teilziele betrachtet werden können. Die MR-Referenzanwendung , die im Rahmen dieser Arbeit erstellt wurde, sollte mit Hilfe eines MR-Autorensystems umgesetzt werden. Um das richtige MRAutorensystem dafür auszusuchen, wurden im Rahmen einer Analyse fakultative und obligatorische Anforderungen an MR-Autorensysteme definiert, worin auch Funktionen identifiziert wurden, die ein solches System bereitstellen sollte. Das Anbieten einer Vorschau ist ein Beispiel für diese Funktionen, die bei der Erstellung von MR-Anwendungen eine essentielle Rolle spielen können. Die obligatorischen Anforderungen sind welche, die jedes Softwaresystem erfüllen soll, während die fakultativen das Ziel der Verbesserung von Autorensystemen verfolgen. Mit Hilfe der Analyse wurde ein Vergleich zwischen bekannten MR-Autorensystemen gezogen, dessen Ergebnis AMIRE als ein für die Ziele dieser Arbeit geeignetes MR-Autorensystem identifizierte. Für die MR-Referenzanwendung , die ähnliche Funktionen aufweisen sollte wie andere typische MR-Anwendungen wurden Funktionen, Anwendungsfälle und Design der Oberfläche spezifiziert. Diese Spezifikation wurde unabhängig von dem ausgesuchten Autorensystem durchgeführt, um darin analog zur Software-Technik das Augenmerk auf fachliche und nicht auf technische Aspekte zu legen. Um ans Ziel zu gelangen, wurde die MR-Referenzanwendung durch AMIRE realisiert, jedoch musste zuvor ihre Spezifikation auf dieses MR-Autorensystem überführt werden. Bei der Überführung wurde die Realisierung aus technischer Sicht betrachtet, das heißt es wurden verschiedene Vorbereitungen, wie die Auswahl der benötigten Komponenten, die Planung der Anwendungslogik und die Aufteilung der Anwendung in verschiedenen Zuständen, durchgeführt. Nach der gelungenen Realisierung und beispielhaften Dokumentation der MRReferenzanwendung konnte die Arbeit bewertet werden, worin die erzielten Resultate den Zielen der Arbeit gegenübergestellt wurden. Die Ergebnisse bestätigen, dass mit AMIRE die Entwicklung einer MR-Anwendung ohne Spezialwissen möglich ist und dass diese Arbeit alle ihrer Ziele innerhalb des festgelegten Zeitrahmens erreicht hat.
In der vorliegenden Arbeit wurde die Abhängigkeit der HBT-Radien im Rahmen des NA49-Experimentes bei einer Strahlenergie von 40 und 158 AGeV untersucht. Es zeigte sich, dass die Radien Rside, Rout und Rlong monoton mit der Zentralität von 2-3 fm bis 5-6 fm anwachsen, jedoch nur eine sehr geringe Energieabhängigkeit aufweisen. Dabei ist die Energieabhängigkeit bei Rside am schwächsten und bei Rlong am stärksten ausgeprägt. Bei Rout zeigte sich, dass die Werte bei 40 AGeV steiler mit der Zentralität ansteigen als die entsprechenden Werte bei 158 AGeV, was zur Folge hat, dass für zentrale Ereignisse Rout bei 40 AGeV um etwa 0.5 fm größer ist, als bei 158 AGeV. Die Signifikanz dieses Befundes ist wegen der statistischen (maximal 0.3 fm) und systematischen Fehler (maximal 1 fm) jedoch sehr gering. Allerdings wurde auch bei der Analyse zentraler Blei-Blei-Kollisionen[28] beobachtet, dass die Werte für Rout bei 40 AGeV größer sind als bei 158 AGeV. Die Radien beider Energien lassen sich als eine lineare Funktion der dritten Wurzel der Anzahl der Partizipanten beschreiben. Letztere sind ein Maß für die transversale Größe des Ausgangszustandes. Aus diesem Verhalten folgt, dass die HBT-Radien aus dem Ausgangszustand der Kollision bestimmt werden. Betrachtet man jedoch die geringe Energieabhängigkeit der HBT-Radien, so liegt der Schluss nahe, dass die HBT-Radien eher durch den Anfangszustand der Kollision bestimmt werden als durch den Endzustand. Dies steht im Widerspruch zu der üblichen Interpretation der Bose-Einstein-Korrelation in Schwerionenkollisionen. Beim Betrachten des Verhältnisses Rout/Rside als Funktion der Zentralität stellte sich heraus, dass es größer als eins ist und nur sehr schwach von der Zentralität abhängt. Der Wert von Rout/Rside nimmt dabei Werte zwischen 1.2 und 1.5 an. Ermittelt man aus Rout und Rside die Emissionsdauer, so stellt man fest, dass diese Größe bei beiden Energien nicht signifikant von der Zentralität abhängt und die Werte zwischen 2 und 4 fm/c liegen.
In der vorliegenden Diplomarbeit wird die Auger-Ionisation des Kohlenstoffmonooxidmoleküls CO in linear und zirkular polarisierter Röntgenstrahlung untersucht. Die Strahlung liegt im Bereich des Vakuumultraviolett (VUV) bei 305eV und wird durch ein Elektronensynchrotron, die Advanced Light Source des Lawrence Berkeley National Laboratory, erzeugt. Die Energie eines Photons führt zur Photoionisation eines Elektrons aus dem 1s-Orbital des Kohlenstoffs. Das im darauf folgenden Augerzerfall ausgesandte Elektron und die jeweils einfach positiv geladenen Fragmente aus der Coulombexplosion des CO++-Molekülions werden hinsichtlich ihrer Impulse vermessen. Zur Impulsmessung wurde die in unserer Arbeitsgruppe laufend weiter entwickelte Methode COLTRIMS (COld Target Recoil Ion Momentum Spectroscopy) eingesetzt. Der experimentelle Aufbau gestattet prinzipiell die Messung aller bei der Ionisation freigesetzten geladenen Teilchen. Um die hochenergetischen Auger-Elektronen mit hinreichender Auflösung zu erfassen, wurde erstmals bei einer solchen Apparatur ein Abbremsfeld eingebaut. Dadurch werden allerdings die niederenergetischen Photoelektronen unterdrückt. Die Meßmethode erlaubt eine Rekonstruktion der Impulse der Fragmente zum Zeitpunkt der Ionisation und läßt Rückschlüsse auf die Dynamik der Ionisation zu. Die Winkelverteilung der Augerelektronen wird in Abhängigkeit von der Polarisation beobachtet. Die Verteilungen sowohl des Polar- als auch des Azimutwinkels zur rekonstruierten Molekülachse zeigen keine ausgeprägte Abhängigkeit von der Polarisation. Dies rehabilitiert das von Guillemin et al. in Frage gestellte Zweistufenmodell des Augerzerfalls. Durch Selektion der kinetischen Energie der Augerelektronen und der bei der Coulombexplosion freigesetzten kinetischen Energie (KER) gelingt es, kurzlebige Molekülionen nach Drehimpulszuständen zu trennen und deutlich anisotrope Emissionsmuster zu beobachten. Die Muster lassen sich qualitativ erklären. Langlebigere Molekülionen zeigen ein scharfe Vibrationlinien im KER-Spektrum. Das Vibrationsspektrum wird analysiert und in Bezug zu vorangehenden Messungen gesetzt. Durch die koinzidente Meßmethode ist es möglich, bislang nicht beobachtbare Vibrationslinien zu identifizieren.
Im Mittelpunkt der vorliegenden Arbeit stehen die Nullstellen der nach Bernhard Riemann benannten Riemannschen Zetafunktion ..(s). Diese Funktion kann für komplexes s mit Res > 1 durch ...(s) = 1 X n=1 1 ns (1.1.1) dargestellt werden. Für andere Werte von s ist ...(s) durch die analytische Fortsetzung der Dirichlet-Reihe in (1.1.1) gegeben. Die ...-Funktion ist in der ganzen komplexen Ebene holomorph, mit Ausnahme des Punktes s = 1, wo sie einen einfachen Pol besitzt. Diese und weitere Eigenschaften von ...(s) setzen wir in dieser Arbeit als bekannt voraus, näheres findet man beispielsweise in [Tit51] oder [Ivi85]. Bereits Euler betrachtete, beispielsweise in [Eul48, Caput XV], die Summe in (1.1.1), allerdings vor allem für ganzzahlige s ... 2. Von ihm stammt die Gleichung 1 X n=1 1 ns =.... die für alle komplexen s mit Res > 1 gültig ist. Dieser Zusammenhang zwischen der ...-Funktion und den Primzahlen war Ausgangspunkt für Riemanns einzige zahlentheoretische, aber dennoch wegweisende Arbeit \ Über die Anzahl der Primzahlen unter einer gegebenen Grösse." ([Rie59]). In dieser 1859 erschienenen Arbeit erkannte Riemann als erster die Bedeutung der Nullstellen der ...-Funktion für die Verteilung der Primzahlen. Bezüglich dieser Nullstellen sei jetzt nur so viel gesagt, daß ...(s) einfache Nullstellen an den negativen geraden Zahlen .... besitzt, und, daß alle weiteren, die sogenannten nicht-trivialen Nullstellen, im kritischen Streifen 0 < Res < 1 liegen. Diese letzteren | unendlich vielen | Nullstellen sind gerade für den Primzahlsatz, also für die Beziehung ...(x) ... li(x);
Mit den Small World Graphen stehen seit Ende der Neunzigerjahre Modelle für soziale und ähnliche Netzwerke, die im Vergleich zu Erdös-Rényi-Graphen stärker Cluster ausbilden, zur Verfügung. Wir betrachten die Konstruktion dieser Graphen und untersuchen zwei der Modelle genauer im Zusammenhang mit stochastischen Prozessen. Das stetige Modell betrachten wir hinsichtlich dem Abstand zweier Knoten. Der interessanteste Aspekt hierbei ist, dass man bei der Konstruktion des Graphen die entfernten Nachbarn mithilfe der Poissonverteilung wählt und in der Folge einen Yule-Prozess auf dem Graphen erhält. Auf der Bollobás-Chung Small World lassen wir den Kontaktprozess ablaufen und untersuchen diesen bezüglich seiner Überlebenswahrscheinlichkeit. Wir sehen, dass er auf diesem Graphen zwei Phasenübergänge aufweist. Oberhalb des ersten überlebt er für immer mit positiver Wahrscheinlichkeit, oberhalb des zweiten ist zudem der Knoten, auf dem der Kontaktprozess gestartet ist, stets mit positiver Wahrscheinlichkeit infiziert. Schließlich betrachten wir die Zeitdauer, die ein leicht modifizierter, superkritischer Kontaktprozess auf der Small World unter bestimmten Voraussetzungen überlebt. Die wesentliche Dynamik, die wir hierbei ausmachen können, ist, dass auf ein Absinken der Infektionen mit hoher Wahrscheinlichkeit wieder eine Verdopplung der Infektionen folgt.
Die vorliegende geologische Arbeit befaßt sich mit einem Ausschnitt des Taunus. Der Taunus ist der südöstlichste Teil des Rheinischen Schiefergebirges und liegt in etwa zwischen Koblenz, Gießen, Frankfurt und Wiesbaden (Abb. 1 und 2). Marine Flachseesedimente prägen hier das Unterdevon des Rheinischen Schiefergebirges. Durch variszische Deformation entstand überwiegend NW- bis NNW-vergenter Faltenbau. Gravitative Kräfte ließen weitere tektonische Strukturen entstehen. Tertiäre Bruchtektonik schuf Horste und Gräben....... Das bearbeitete Gebiet weist unter großflächigen quartären Schuttdecken unterdevonische Sedimente der Tonschiefer- und Feinsandsteinfraktion auf. Im Unterdevon sorgte rasche Sedimentation bei ständiger Absenkung des Rheinischen Trogs für ein flaches Meer. Im Norden des Kartiergebiets tritt eine Fossilbank mit mariner Fauna zutage. Bei der mesozoisch-tertiären Verwitterung wurden die oberflächennahen Gesteine gelockert und Vererzungen und Roterden gebildet. Taleinschnitte in die tertiäre Rumpffläche sind pleistozänen Alters. Das devonische Gestein ist anchimetamorph überprägt und zeigt eine deutliche erste Schieferung, welche von einer intensiven Glimmerneubildung begleitet ist und primär stark nordwestvergent angelegt wurde. In feinpelitischen Bereichen kann eine zweite, postkristalline Schieferung ausgebildet sein. Durch starken Schuppenbau und anhaltende laterale Einengung bei der variszischen Überprägung entstanden im Taunus sogenannte "horse structures": Es kam zu sukzessiver Aufrichtung hangender Schuppeneinheiten bei nordwestlich fortschreitender Anlage von Überschiebungsbahnen im Liegenden. Im Scheitelbereich eines so entstandenen Vergenzfächers liegt das Kartiergebiet. Achsenflächen und Hauptschieferung stehen steil bis saiger. In diesen Bereichen kam es beim Kollaps des Gebirges durch gravitative Kräfte zur Anlage von Knickbändern. Sie ersetzen Verschiebungsflächen. Vereinzelt sind sie auch mit Abschiebungen verbunden. Die am häufigsten aufgeschlossene Knickband-Schar hat nach SE abschiebenden Charakter, eine zweite zeigt NW-gerichteten Bewegungssinn. Sie sind aufgrund der gleichgerichteten vertikalen Einengung zusammengehörend bzw. konjungiert. Die Knickachsen beider Scharen tauchen mit nur wenigen Grad in Streichrichtung ab. Manchmal sind Knickbänder dieser beiden Gruppen direkt konjungiert aufgeschlossen. Möglicherweise durch Rotation, als Teil konjungierter Knickbänder oder innerhalb größerer übergeordneter Knickbänder erscheinen einige der Knickbänder aufschiebend. Eine untergeordnete, dritte Knickband-Schar deutet mit schrägabschiebendem Verschiebungssinn eine Rotation der Spannungsrichtung und möglicherweise erste Bewegungen der Idsteiner Senke an. Sie ist im Untersuchungsgebiet nur selten aufgeschlossen. Die Untersuchungen im Zuge dieser Diplomarbeit ergaben, daß die Knickbänder bevorzugt in Bereichen südvergenter Schieferung entstanden. Im Süden und südlich des Kartiergebiets weist die Schieferung häufiger Südvergenz auf, weshalb dort fast ausschließlich nach S bis SE abschiebende Knickbänder einzumessen waren. Unterschiede zwischen Messungen im Westen und Osten des Gebiets wurden nicht festgestellt. Ein weiteres Ergebnis dieser Arbeit ist eine Longitudinalstrain-Berechnung von 3,4-6,8 % für die Gesteinspartien mit Knickbändern. Die Anlage der Knickbänder wird als letzte variszische Deformation angesehen. Ihr folgten außer kleineren Abschiebungen möglicherweise noch syn- und antithetische Rotationsbewegungen einzelner Gesteinsschollen. Demnach würden sich insgesamt die Anlage der Knickbänder und die Bildung der Vergenzfächer zeitlich überschneiden. Das Einfallen der Knickachsen und auch anderer Achsen und Lineare flach nach SW, ist wahrscheinlich durch tertiäre Bruchschollentektonik bedingt. Diese Bruchtektonik gliedert das Gebirge in Schollen mit Horsten und Gräben, so z.B. die bedeutende Grabenstruktur der Idsteiner Senke. Dabei kann der Vergenzfächer trotz vertikaler Bewegung horizontal versetzt worden sein. Seine Scheitellinie verändert zur Tiefe hin die Position ("horse structures") und tritt bei einer erodierten Hochscholle versetzt zutage.
In der vorliegenden Arbeit wurde ein chirales SU(3)-Modell auf verschiedene Erscheinungsformen endlicher Kernmaterie angewendet. Das Modell basiert auf chiraler Symmetrie in nichtlinearer Realisierung. Die Symmetrie muss spontan gebrochen werden um die beobachtete Massendifferenz zwischen skalaren und pseudoskalaren Mesonen reproduzieren zu können. Um den pseudoskalaren Mesonen eine endliche Masse zu geben ist eine explizite Brechung der chiralen Symmetrie nötig.
Der Malaria verursachende Organismus Plasmodium falciparum (P. falciparum) besitzt in seinem Kerngenom für die Mitochondrien bestimmte Proteine, die als Transportsignal ein mitochondriales Transitpeptid enthalten. Durch die kürzlich erfolgte Sequenzierung des Genoms von P. falciparum ist es wünschenswert, Vohersagealgorithmen für verschiedene Proteinlokalisationen zur Verfügung zu haben. Für andere Organismen etablierte Programme zur Vorhersage von mitochondrialen Transitpeptiden, MitoProtII und TargetP, lieferten bei Anwendung auf Sequenzen aus P. falciparum nur unbefriedigende Ergebnisse. MitoProtII erzielte in einer 20-fachen Kreuzvalidierung einen Mathews-Koeffizienten von cc = 0,49, TargetP erzielte in diesem Fall einen Mathews-Koeffizienten von cc = 0,60. TargetP erzielte für die Sequenzen aus P. falciparum nur eine Selektivität von 47%, MitoProtII nur eine Sensitivität von 35%. Dieser Ergebnisse haben die Entwicklung eines speziell auf P. falciparum trainierten Vorhersagemodells wünschenswert gemacht. Kerncodierte mitochondriale Precursorproteine aus P. falciparum wurden mit statistischen Methoden, Hauptkomponentenanalyse, selbstorganisierenden Karten und überwachten neuronalen Netzen analysiert und mit solchen aus anderen Organismen verglichen. Zwei Repräsentationen der Datensätze wurden gewählt, Aminosäurehäufigkeiten und 19 physikochemische Eigenschaften. Ein grundsätzlich unterschiedlicher Aminosäuregebrauch konnte festgestellt werden. Glycin, Alanin, Prolin und Arginin werden in P. falciparum mit weniger als 60% der Häufigkeit in der Swiss-Prot-Datenbank, Version 36, verwendet. Isoleucin, Tyrosin, Asparagin und Lysin werden hingegen mit mehr als 150% der Häufigkeit in der Referenzdatenbank verwendet. Diese Häufigkeitsmuster wurden, mit Variationen, auch in allen Targetingsequenzen beobachtet. In der Datenanalyse mittels Hauptkomponentenanalyse und selbstorganisierenden Karten ließen sich cytoplasmatische Proteine in beiden Repräsentationen klar von der Gruppe mitochondrialer, extrazellulärer und apicoplastischer Proteine trennen. Die Trennung innerhalb der zweiten Gruppe war weniger deutlich. Ein neuronales Netz (PlasMit) zur Vorhersage mitochondrialer Transitpeptide in P. falciparum wurde entwickelt. Basierend auf der relativen Aminosäurehäufigkeitsverteilung innerhalb der ersten 24 N-terminalen Aminosäuren lieferte es einen Mathews- Korrelationskoeffizienten von 0,74 (86% korrekt vorhergesagte Sequenzen) in einer 20fachen Kreuzvalidierung. Dieses Netz sagte 2449 (24%) der 10276 vorhergesagten Open Reading Frames aus dem Genom von P. falciparum als mögliche mitochondrial lokalisierte Proteine voraus. Ein Netz mit identischer Topologie wurde auf eine geringere Anzahl falsch-positiver Vorhersagen trainiert und erzielte einen Mathews-Koeffizienten von 0,51 (84% korrekte Vorhersagen) in einer 10fachen Kreuzvalidierung. Dieses Netz sagte 903 (8,8%) potentielle mitochondriale Precursorproteine unter den 10276 vorhergesagten Open Reading Frames voraus. Sämtliche Trainingsdatensätze, die Open Reading Frames des Genoms von P. falciparum, sowie das Netz, das den höchsten Mathews-Koeffizienten erzielt hat, sind per Web unter http://www.modlab.de, Menüpunkt PlasMit, erreichbar.
Die in ultra-relativistischen Schwerionenkollisionen erreichten Dichten und Temperaturen führen möglicherweise zu einem Übergang der hochangeregten Kernmaterie in eine partonische Phase ohne Einschluß der Quarks und Gluonen. Dieser Zustand wird Quark-Gluon- Plasma genannt. Die Existenz dieses Plasmas vor einem Phasenübergang in ein Hadrongas versucht man in einer Reihe von Experimenten unter anderem an den Kernforschungszentren CERN in Genf/Schweiz und Brookhaven National Laboratory (BNL) auf Long Island/USA nachzuweisen. Aufgrund theoretischer Modelle wird erwartet, daß Signaturen eines solchen Zustandes das Verhältnis der Pion- zu Baryonen-Produktion und die Produktion von Teilchen, die Strange-Quarks enthalten, sein könnten. Nach diesen Signalen sucht man im hadronischen Endzustand des Systems. Das Fixed-Target-Experiment NA49 untersucht Blei-Blei Kollisionen bei einer Strahlenergie von 158 GeV/c pro Nukleon. Das Experiment zeichnet sich durch seine große Detektorakzeptanz für geladene Teilchen verbunden mit einer präzisen Impulsmessung aus. Ähnliche Merkmale weist auch das momentan im Aufbau befindliche Collider-Experiment STAR am BNL auf. Hier sollen ab 1999 Kollisionen von Gold Kernen bei Energien von 100 GeV/c pro Nukleon analysiert werden. Die hohe Akzeptanz und die gute Impulsbestimmung der produzierten Teilchen zeichnen die Experimente als hervorragende Meßinstrumente für den hadronischen Endzustand aus. Andere Observablen, von denen man sich Aufschluß über die Reaktionsdynamik einer ultra-relativistischen Schwerionenkollisionen erhofft, sind Vektormesonen, die kurz nach oder sogar noch im Reaktionsvolumen der Kollision in ein Lepton-Paar zerfallen. Der Vorteil hierbei ist, daß die Zerfallsteilchen (Elektronen oder Myonen) mit anderen Teilchen nur elektromagnetisch wechselwirken. Deswegen können sie ohne Wechselwirkung mit den umgebenden Hadronen die Reaktionszone verlassen. Die Wahrscheinlichkeit für den Zerfall in Leptonen ist allerdings 10 exp (-4) mal niedriger als für den in Hadronen. Im NA49-Experiment, das auf die Erfassung des hadronischen Endzustandes optimiert ist, ist es aufgrund des hohen Untergrundes an Hadronen nicht trivial, die Lepton-Paare aus dem Zerfall von Vektormesonen zu selektieren. Das Ziel dieser Arbeit bestand darin, zu untersuchen, wie gut eine Identifikation von Elektronen bzw. Positronen im NA-49-Experiment möglich ist. Es konnte die Effizienz der Selektion von Elektron-Positron-Paaren aus dem Zerfall von Phi-Mesonen abgeschätzt und die Kontamination der Lepton-Kandidaten durch Hadronen ermittelt werden. Danach wurde ein Signal zu Untergrund-Verhältnis für das Signal des Phi-Mesons im Invariante-Masse-Spektrum abgeschätzt. Aus den mit dem NA- Experiment gewonnenen Erkenntnissen konnten Vorschläge zur Optimierung der Messung von Lepton-Paaren aus Vektormesonen im zukünftigen STAR-Experiment gemacht werden.
In den Anwendungsbereichen der Mixed Reality (MR) werden die reale und die virtuelle Welt kombiniert, so dass ein Eindruck der Koexistenz beider Welten entsteht. Meist wird dabei die reale Umgebung durch virtuelle Objekte angereichert, die dem Anwender zusätzliche Informationen bieten sollen. Um die virtuellen Objekte richtig zu positionieren, muss die reale Umgebung erkannt werden. Diese Erkennung der realen Umgebung wird meist durch Bestimmung und Verfolgung von Orientierung und Positionierung der realen Objekte realisiert, was als Tracking bezeichnet wird und einen der wichtigsten Bestandteile für MR-Anwendung darstellt. Ohne die exakte Ausrichtung von realen und virtuellen Objekten, geht die Illusion verloren, dass die virtuellen Objekte Teil der realen Umgebung sind und mit ihr verschmelzen. Markerkombination Das markerbasierte Tracking ist ein Verfahren, das die Bestimmung der Positionierung von realen Objekten durch zusätzliche Markierungen in der realen Umgebung ermöglicht. Diese Markierungen können besonders gut durch Bildanalyseverfahren extrahiert werden und bieten anhand ihrer speziellen Form Positionierungsinformationen. Der Einsatz dieser Trackingtechnologie ist dabei denkbar einfache und kostengünstig. Ein breiter Anwendungsbereich ist durch den kostengünstigen Einsatz dieser Technologien gegeben, allerdings ist das Erstellen von MR-Anwendungen fast ausschließlich MR-Spezialisten vorbehalten, die über Programmierfertigkeiten und spezielle Kenntnisse aus dem MR-Bereich besitzen. Diese Arbeit beschreibt die Entwicklung und Umsetzung der Konzepte, die einem Personenkreis, der lediglich über geringe Kenntnisse von MR-Technologien und deren Anwendung verfügt, den kostengünstigen und einfachen Einsatz von markerbasierten Trackingtechnologien ermöglicht. Die im Rahmen der Arbeit durchgeführte Analyse verweist auf die problematischen Anwendungsfälle des markerbasierten Trackings, die durch die Verdeckung von Markern zustande kommen, in der Beschränkung der Markeranzahl begründet sind, oder durch die Schwankung der Trackingangaben entstehen. Diese Problembereiche sind bei der Entwicklung berücksichtigt worden und können mit Hilfe der entwickelten Konzepte vom Autor bewältigt werden. Das Konzept der Markerkategorien ermöglicht dabei den Einsatz von angepassten Filterungstechniken. Die redundante Markerkombination behebt das Verdeckungsproblem und eliminiert Schwankungen durch das Kombinieren von mehreren Trackinginformationen. Die Gütefunktion ermöglicht die Bewertung von Trackinginformationen und wird zur Gewichtung der Trackingangaben innerhalb einer Markerkombination genutzt. Das Konzept der Markertupel ermöglicht eine Wiederverwendung von Markern, durch den Ansatz der Bereichsunterteilung. Die Konzepte sind in der AMIRE-Umgebung vollständig implementiert und getestet worden. Zum Abschluss ist rückblickend eine kritische Betrachtung der Arbeit, in punkto Vorgehensweise und erreichter Ergebnisse durchgeführt worden.
Kieferorthopäden beschreiben die Anordnung der Zähne und die Stellung der Kiefer üblicherweise mittels Winkel und Strecken in der sagittalen Gesichtsebene. Im vorliegenden Fall werden fünf Winkel betrachtet und jedes Individuum lässt sich als Punkt in einem 5-dimensionalen Raum darstellen. Individuen, die laut Experten ein gut funktionierendes Gebiss und ein harmonisches Äußeres besitzen, formen eine Punktwolke, die im Folgenden als die Norm Population bezeichnet wird. Individuen fern von der Wolke benötigen kieferorthopädische Behandlung. Welche Form sollte dieser Eingriff annehmen? Durch Hilfsmittel der modernen Kieferorthopädie lassen sich die beschriebenen Winkel nahezu nach Belieben ändern. Dies ist natürlich verbunden mit einer unterschiedlichen Menge an Problemen, Arbeitsaufwand und Unannehmlichkeiten, abhängig vom individuellen Patienten. Diese Arbeit präsentiert eine Methode, die auf jedem Computer leicht implementierbar und auf k Variablen verallgemeinerbar ist. Sie ermöglicht Kieferorthopäden eine Visualisierung, wie verschiedene denkbare Anpassungen der Winkel eines Patienten dessen relative Position zur Norm Population verändern. Damit unterstützt sie Kieferorthopäden bei der Entscheidung für einen Behandlungsplan, der die besten Ergebnisse verspricht.
Energiezustände in einem Halbleiterübergitter in gekreuzten elektrischen und magnetischen Feldern
(2005)
In dieser Arbeit werden Energiezustände in einem GaAs/Al0:3Ga0:7As-Halbleiterübergitter in gekreuzten elektrischen und magnetischen Feldern untersucht. Dabei liegt das elektrische Feld F in Wachstumsrichtung an, während das Magnetfeld B senkrecht dazu in der Ebene der Schichten orientiert ist. Es werden die experimentellen Methoden der Elektroreflexions- und Transmissionsspektroskopie angewendet. Die experimentellen Ergebnisse werden sowohl mit theoretischen Berechnungen verglichen als auch mit zeitaufgelösten Daten in Bezug gesetzt. Sowohl in den Elektroreflexions- als auch in den Transmissionsspektren lassen sich je nach relativem Wert des elektrischen und magnetischen Feldes B=F = x drei verschiedene Bereiche unterscheiden. Für kleines x sind Wannier-Stark-Übergänge sichtbar, die sich mit steigendem B-Feld zu höheren Energien verschieben. Die auffälligste Beobachtung ist das Verschwinden der Wannier-Stark-Zustände mit steigendem Magnetfeld: Bei mittlerem x, wenn die magnetische Energie ~!C die Größenordnung der elektrischen Energie ~!B erreicht, beobachtet man einen nahezu strukturlosen Übergangsbereich. Für größere Magnetfeldstärken lassen sich wieder Übergänge identifizieren, die Landau-Charakter besitzen. Die Exzistenz eines strukturlosen Übergangsbereichs unterscheidet die Geometrie gekreuzter Felder wesentlich von der Konfiguration parallel gerichteter Felder (F- und B-Feld in Wachstumsrichtung [5]). Der Übergangsbereich wurde bereits zuvor beobachtet [65], eine Erklärung seines Ursprungs stand jedoch noch aus. Letztere gewinnen wir aus der Zusammenarbeit mit der Theorie: Auf der Grundlage der Modellrechnungen von S. Glutsch und S. Stepanow aus Jena lässt sich feststellen, dass jeder Wannier-Stark-Zustand in Anwesenheit eines Magnetfeldes in Landau-Zustände aufspaltet. Mit steigendem Magnetfeld verschieben sich diese, wie auch die Wannier-Stark-Zustände, zu höheren Energien, so dass sich eine wachsende Anzahl von Zuständen energetisch annähert. Die Wechselwirkung von Zuständen führt zu vermiedenen Überkreuzungen und damit zu einer Verteilung der Oszillatorstärke, so dass die Stärke jedes einzelnen Zustands abnimmt und einzelne Linien nicht mehr aufzulösen sind. Interessanterweise spielt die Verkürzung der Lebenszeit der involvierten Zustände (homogene Linienverbreiterung) eine untergeordnete Rolle bei der Entstehung des Übergangsbereichs. Auch hinsichtlich anderer Aspekte ist die Übereinstimmung von Theorie und Experiment zufriedenstellend: Die auf Grundlage der Einteilchen-Theorie vorhergesagte energetische Verschiebung der Wannier-Stark- und Landau-Niveaus mit steigendem Magnetfeld kann experimentell mittels Elektroreflexionsmessungen verifiziert werden. Die experimentellen Absorptionsspektren lassen sich direkt mit den theoretischen Absorptionsspektren vergleichen und zeigen die vorhergesagten Energieübergänge. Darüberhinaus sind Fano-Resonanzen als asymmmetrische Linienprofile zu beobachten. Das Zusammenspiel von Theorie und Experiment stellt sich demnach in dieser Arbeit als sehr fruchtbar heraus: Die vorgestellten Experimente leisten der Theorie einen Dienst, indem sie wesentliche theoretische Vorhersagen experimentell verifizieren. Andererseits gewinnt das Verständnis der experimentellen Beobachtungen erst durch theoretische Erkenntnisse sein Fundament. Während der Vergleich von Theorie und Experiment weitgehend abgeschlossen ist [21], wirft der Vergleich der spektral aufgelösten Daten mit zeitaufgelösten Messergebnissen noch ungelöste Fragen auf. Die Dynamik optisch angeregter Wellenpakete lässt sich analog zu den Elektroreflexions- und Absorptionsspektren in ein elektrisch-dominiertes Regime für kleines B=F = x und ein magnetisch-dominiertes Regime für großes x unterteilen. Die beiden Bereiche sind durch einen mittleren x-Wert separiert, bei dem keine kohärenten Oszillationen zu beobachten sind. Dieser Übergang findet entgegen der Erwartung nicht bei dem gleichen x-Wert statt wie in spektral aufgelösten Daten. In der vorliegenden Arbeit wird dieser Befund präzisiert: Absorptionsspektren werden mit TEOS-Spektren (englisch: transmittive electrooptic sampling), Elektroreflexionsdaten mit REOS-Spektren (englisch: reflective electro-optic sampling) verglichen. Sehr deutlich ist die Diskrepanz zu erkennen: In spektral aufgelösten Daten liegt der Übergangsbereich bei größeren x-Werten als in zeitaufgelösten Daten, so dass im spektralen Übergangsbereich wieder langlebige Oszillationen in den zeitaufgelösten Messungen zu beobachten sind. Umgekehrt sind in den spektral aufgelösten Messungen noch deutliche Strukturen erkennbar, wenn am dynamischen Übergang zwischen elektrisch- und magnetisch-dominiertem Regime Oszillationen ausbleiben. Die Experimente dieser Arbeit motivieren demnach die weitere Beschäftigung mit folgenden Problemen: Die Diskrepanz zwischen spektral- und zeitaufgelösten Daten hinsichtlich des Übergangsbereichs muss in Zukunft theoretisch behandelt werden. Es besteht bereits ein Angebot von M. M. Dignam, sich des Problems anzunehmen. Damit verbunden ist die Frage nach der genauen Bedingung für den Übergangsbereich in den spektralen Daten, da die bisherige Bedingung zu grob zu sein scheint. Die Untersuchung von Energiezuständen in Halbleiterübergittern wird auch in Zukunft eine Rolle spielen. Nachdem die Geometrien von parallel und senkrecht orientiertem B und F eingehend behandelt wurden, stellt nun der Fall arbiträrer Feldanordnung eine neue Aufgabe dar. Wenn das Magnetfeld mit dem elektrischen Feld einen arbiträren Winkel einschließt, wird in zeitaufgelösten Messungen eine Kopplung von Magneto-Bloch- und Zyklotron-Oszillationen beobachtet, die sich in einem kohärenten Quasi-DC-Strom und verstärkter Feldabschirmung ausdrückt [58]. Es wäre interessant zu untersuchen, mit welchen spektralen Eigenschaften diese dynamischen Befunde korrespondieren. Hierzu bieten sich die Methoden der Elektroreflexions- und Transmissionsspektroskopie an, die sich in dieser Arbeit als geeignet erwiesen haben.
"Germany is back" (Schöllgen 1994: 35), so beschreibt Schöllgen prägnant Deutschlands internationale Position nach dem Ende des Ost-West-Konfliktes und dem Fall der Mauer. Was Schöllgen so schlicht zusammenfasst wurde von der deutschen Öffentlichkeit, aber auch von der Mehrheit der Wissenschaftler, lange Zeit keinesfalls so gesehen. Statt eines Wandels deutscher Außenpolitik aufgrund der veränderten Rahmenbedingungen herrschte ein weitverbreiteter Konsens darüber, Deutschland habe sich abgesehen von einer Erhöhung der Einwohnerzahl von 63 auf 82 Millionen und eines Flächenzuwachses von 248 000 auf 375 000 Quadratkilometer nicht gravierend im internationalen System gewandelt. ...
In dieser Arbeit wurde die Zentralitätsabhängigkeit der K0S -Produktion in Pb+Pb Stößen für 40A und 158A GeV untersucht. Sie wurden über den Zerfallskanal K0S → π+π− der schwachen Wechselwirkung nachgewiesen und bilden zusammen mit den geladenen Kaonen den Großteil der entstehenden Strangeness einer Kollision. Die Bestimmung der Zentralität erfolgte anhand der im Veto-Kalorimeter detektierten Spektatoren. Die Messergebnisse unterliegen aufgrund der limitierten geometrischen Akzeptanz des Detektors, Effizienzverlusten in der V 0-Rekonstruktion und gewählter Qualitätskriterien einigen Verlusten. Auf diese Verluste konnte mit Hilfe eines Simulationsverfahren, dem so genannten Embedding, korrigiert werden. Dabei wurden Korrekturfaktoren für differentielle Phasenraumbereiche ermittelt und auf die gemessenen Signalinhalte der invarianten Massenspektren angewendet. Des Weiteren wurde eine Vielzahl von Studien durchgeführt um die Stabilität der Ergebnisse im Rahmen eines systematischen Fehler zu bestimmen.
Die korrigierten Transversalimpuls-Spektren und Spektren der invarianten Massen verschiedener Phasenraumbereiche und Zentralitäten wurden präsentiert. Darüber hinaus wurden der inverse Steigungsparameter, die Rapiditätsspektren, sowie die berechneten Gesamtmultiplizitäten der K0S in Abhängigkeit der Zentralität und anhand der "wounded" Nukleonen diskutiert. Die Ergebnisse konnten mit vorangegangenen Analysen von NA49, NA57 und CERES verglichen werden. Dabei wurden insbesondere geringe Unstimmigkeiten mit den NA49-Ergebnissen der geladenen Kaonen bei 158A GeV festgestellt. Des Weiteren wurde die Diskrepanz zu den NA57-Ergebnissen, welche aus Analysen anderer Teilchensorten bekannt ist, für mittlere Rapiditäten bestätigt. Die Zentralitäatsabhängigkeit der Ergebnisse wurde zusätzlich mit UrQMD-Modellrechnungen geladener Kaonen verglichen und kann durch diese näherungsweise beschrieben werden.
Im Verlauf dieser Arbeit zeigte sich, daß es möglich ist, Spuren von Teilchen, die zwei Detektoren durchquerten, einander zuzuordnen; dies mit um so größerer Sicherheit, je kleiner die Spurdichte war. Anhand eines systematischen Vergleichs von Spurparametern zugeordneter Spuren gelang es, die Position eines Spurdetektors (TPC) relativ zum zweiten Detektor und dem Target genau zu bestimmen. Die Bedeutung dieser Position ist allerdings nicht eindeutig, da eine fehlerhafte, ortsabhängige Verzerrungskorrektur der TPC Meßdaten ebenfalls zu systematischen Verschiebungen und Verdrehungen der TPC führen kann. Letztlich ist es sogar möglich, daß die Position der TPC besser vermessen wurde als die der Streamerkammer, da auch die Messmarken - die fiducials - die den Bezug zwischen der Streamerkammer und den Magnetkoordinaten herstellen - , der schlechten Rekonstruktionsgenauigkeit der z-Komponente in der Streamerkammer unterliegen. Die Kenntnis der exakten Position der TPC ist deshalb notwendig, da die TPC alleine keine Impulsinformation liefert, sondern der Teilchenimpuls erst mit Hilfe der genau bekannten Vertexposition und dem gemessenen Magnetfeld möglich ist. Es zeigte sich, daß diese ermittelten Positionen unerläßlich für eine konsistente Impulsbestimmung beider Detektoren sind. Wie zu erwarten, ist das Transversalimpulsspektrum empfindlich auf die Position des TPC-Detektors. Durch Variation möglicher Positionen um die gefundene wurde eine Abschätzung des systematischen Fehlers in pT erreicht. Dieser kann 20% erreichen. Im folgenden Experiment - NA49 - werden sich zwei Vertex-TPC's hintereinander in einem inhomogenen Magnetfeld befinden. Dahinter und außerhalb des Magnetfeldes stehen nebeneinander zwei Haupt-TPC's. Da zur Messung des Magnetfeldes die Vertex-TPC's vollständig aus den Magneten entfernt werden, ist die Findung des Bezugs zwischen den Magnetkoordinaten und denen der Vertex-TPC's ein Problem zukünftiger Datenanalysen. Außerdem wird die relative Position der Haupt-TPC's zu den Magneten benötigt, um den funktionalen Zusammenhang zwischen der Ablenkung durch die Magneten und dem Impuls der Spur zu bestimmen, da in den Haupt-TPC's kein Magnetfeld die Spuren krümmt. Anderenfalls wäre auch hier keine konsistente Impulsbestimmung möglich.
In dieser Arbeit wurde die Produktion negativ geladener Pionen in zentralen Blei+Blei Kollisionen bei 40 A·GeV am CERN SPS mit dem Experiment NA49 untersucht. Die Analyse der Pionen basiert auf der Tatsache, das sie ungefähr 90% des hadronischen Endzustands aller negativ geladenen Hadronen darstellen, wobei der Rest hauptsächlich aus Kaonen besteht. Diese Analyse deckt die komplette vordere Hemisphäre ab, somit wurden keinerlei Extrapolationen benötigt. Für diese Analyse wurde ein komplett neuer Satz von Schnitten in diversen Variablen der Daten von NA49 gesucht und optimiert. Um einen möglichst gut bestimmten Satz von Spuren zu verwenden, wurde nur ein kleiner Teil aller Spuren verwendet, der aber exakt und einfach zur vollen Akzeptanz zurückkorrigiert werden kann. Um die Spuren aus Zerfällen nahe am Hauptinteraktionspunkt und um Dreckeffekte wie γ-Konversion oder Vielfachstreuung zu entfernen, wurde ein komplett neuer Korrekturalgorithmus entwickelt und getestet. Da bei dieser Energie die Spurmultiplizitäten ungefähr um einen Faktor zwei kleiner sind, wurde beobachtet, daß Ineffizienzen in der Rekonstruktion eine untergeordnete Rolle spielen. Hier wurde im Mittel eine Korrektur von 8% verwendet. Um Spektren negativer Pionen zu erhalten, müssen die negativ geladenen Kaonen aus dem Spursatz entfernt werden, hierfür wurde eine Simulation aufgebaut und eingesetzt. Ein großes Problem stellt die Abschätzung des Systematischen Fehlers dar, da es eine Mannigfaltigkeit von Fehlerquellen gibt. In dieser Arbeit wurden zwei Methoden angewandt, um den Systematischen Fehler abzuschätzen. Das Ergebnis der hier vorgestellten Analyse ergibt eine mittlere Multiplizität für die negativen Pionen von 320±14. Die Präsentation eines vorläufigen Zustands dieser Analyse in Kombination mit den neu gewonnen Kaonwerten [1] vor dem SPSC [2] veränderten den vorhandenen Strahlzeitplan nachhaltig, so daß in extrem kurzer Zeit nach ieser Präsentation eine Energieabtastung gestartet wurde. Schon ein paar Monate später bekam NA49 hierfür einen Bleistrahl bei der Energie von 80 A·GeV und wird im Jahr 2002 auch Energien von 20 und 30 A·GeV geliefert bekommen. Auch wurden diese Daten auf der QM2001 als vorläufige Ergebnisse präsentiert. Desweiteren bilden die Ergebnisse, sowie die aus der 80 A·GeV Analyse und denen bei Top-SPS Energie gewonnenen kombiniert mit den Kaonergebnissen bei den gleichen Energien die Grundlage für ein Physical Review Letter der NA49-Kollaboration zum Thema der Energieabhängigkeit des K+/π + Verhältnis. Die Motivation für diese Arbeit war die Suche nach einer Evidenz des Quark-Gluon-Plasma und bei der analysierten Energie wurde der Übergang in diese Phase vorhergesagt [3]. Man sollte einen Wechsel von der Pionunterdrückung zur Pionvermehrung im Vergleich mit den Daten aus Nukleus+Nukleus Experimenten in dem Verhältnis der mittleren Pionmultiplizität zu der Anzahl der Teilnehmenden Nukleonen beobachten. Diese Vermutung stellte sich als richtig heraus. Diesen Wechsel kann man erklären, wenn man einen Phasenübergang zu einer Phase quasifreier Quarks und Gluonen in diesem Bereich annimmt. Die Pionen stellen, aufgrund ihrer geringen Masse, die häufigsten Teilchen dar und sind somit auch eine gute Meßprobe für die gesamte Entropie des Feuerballs. Da die Anzahl der Freiheitsgrade in einem QGP massiv ansteigen muß, sollte man eine erhöhte Produktion von Pionen beobachten. Der Meßpunkt bei 40 A·GeV liegt genau in dem Bereich des Wechsels. Ein Vergleich mit den Modellen zeigt, das kein Modell, wenn es überhaupt Pionen beschreiben kann, die Produktion von Pionen korrekt wiedergibt, außer das „Statistical Modell of the early Stage“, das die Pionproduktion beschreibt und auch den Wechsel von Pionunterdrückung zu Pionvermehrung im Bereich um 40 A·GeV wiedergibt. Dieses Modell besitzt eine Phasenübergang von gebundener Materie zum QGP. Das Hadrongas-Modell kann die Pionen bei jeder Energie beschreiben, aber eine Vorhersage ist nicht möglich, da die Pionen als Eingabe in dieses Modell benötigt werden. Die Ergebnisse von NA49 haben neuen Schwung in die Erklärung von Schwerionenkollisionen und die Suche nach dem QGP gebracht. Die ersten „Resultate“ sind eine Energieabtastung am CERN-SPS und diverse Änderungen an vorhandenen Modellen, um vor allem das nichtmonotonische Verhalten des K+/Pi + Verhältnisses zu beschreiben. Bis jetzt existiert kein Modell und keine Erklärung, die die Daten beschreibt und auf anderen Hadronischen Erklärungen basiert. Somit kann man feststellen, daß eine sich erhärtende Evidenz für die Produktion des QGP am CERN-SPS vorhanden ist.
Die vorliegende Arbeit beschäftigt sich mit der Entwicklung und dem Aufbau eines IHBeschleunigers zur Beschleunigung schwerer Ionen am Brookhaven National Laboratory.
Es wurde eine Einführung in die Arbeit und die Experimente des BNL gegeben, um zu verstehen, welche Aufgabe die IH in Zukunft haben wird und wie diese das BNL in den experimentellen Möglichkeiten erweitert.
Eingebettet in den historischen Kontext wurde zu Beginn die Familie der H-Moden Beschleuniger und ganz besonders die IH erläutert. Wichtige Begriffe und charakteristische Größen, die zum Verständnis der vorliegenden Arbeit nötig sind, wurden eingeführt und deren anschauliche Bedeutung bei der Entwicklung von Beschleunigern klar gemacht.
Eine Neuerung bei der Entwicklung von Driftröhrenbeschleunigern stellt der aufgebaute Messstand und die Computergestützte Datenanalyse dar. Es konnte gezeigt werden, dass die vorgestellte Methodik zur Verarbeitung der Messdaten enorme Verbesserungen mit sich bringt. Daten von unterschiedlichsten Beschleunigern könnern schneller als zuvor analysiert und direkt mit den Sollwerten der Strahldynamik verglichen werden. So kann bereits vor Ort eine mit nur geringen Fehlern behaftete Auswertung erstellt werden und direkt in die weitere Arbeit an einem Beschleuniger mit einfließen.
Die neue Technik wurde im weiteren Verlauf der Arbeit genutzt, um die im Detail eingeführte BNL IH Struktur aufzubauen und für den Einsatz in den USA fertig zu stellen. Neben den exakt auszuführenden Aufbau- und Justierarbeiten wurde viel Zeit in die Erstellung eines ausgereiften Tuningkonzepts investiert. Während dieser Arbeiten wurden die zwar theoretisch bekannten, am Institut aber noch nie nachgewiesenen, parasitären Tunerresonanzen beobachtet. Der zerstörerische Effekt einer solchen Resonanz konnte erstmals gemessen und analysiert werden.
Trotz der üblichen kleineren Schwierigkeiten, die komplexe Projekte mit sich bringen wurde die IH Struktur noch vor Beendigung dieser Arbeit in den USA am BNL aufgestellt und getestet. Es wurde noch nicht die volle Leistung erreicht, aber der Konditionierungsprozess ist in vollem Gange und die vorläufigen Ergebnisse zeigen keine Probleme auf, so dass davon auszugehen ist, dass die IH noch dieses Jahr voll eingesetzt werden kann.
Abschließend kann man sagen, dass das Projekt erfolgreich realisiert wurde und das die Neuerungen aus dieser Arbeit Einzug in weitere Projekte finden werden.
Die Darstellung photorealistischer Szenen durch Computer hat in Folge der Entwicklung immer effizienterer Algorithmen und leistungsfähigerer Hardware in den vergangenen Jahren gewaltige Fortschritte gemacht. Täuschend echt simulierte Spezialeffekte sind aus kaum einem Hollywood-Spielfilm mehr wegzudenken und sind zum Teil nur sehr schwierig als computergenerierte Bilder zu erkennen. Aufgrund der Komplexität von lebenden Organismen gibt es allerdings noch kein einwandfreies Verfahren, welches ein komplettes Lebewesen realistisch, sei es statisch oder in Bewegung, mit dem Computer simulieren kann. Im Bereich der Animation sind wirkungsvolle Resultate zu verzeichnen, da das Skelett eines Menschen oder Wirbeltieres durch geeignete Methoden simuliert und Bewegungen damit täuschend echt mit dem Computer nachgebildet werden können. Die Schwierigkeit, eine komplett realistische Visualisierung eines Lebewesens zu erreichen, liegt allerdings in der Darstellung weiterer Strukturen eines Organismus, die zwar nicht direkt sichtbar sind aber dennoch Einfluss auf die sichtbaren Bereiche haben. Bei diesen Strukturen handelt es sich um Muskel- und Fettgewebeschichten. Die Oberfläche von Figuren wird durch Muskeln sowohl in der Bewegung als auch in statischen Positionen deutlich sichtbar verändert. Dieser Effekt wird bisher bei der Visualisierung von Lebewesen nur unzureichend beachtet, was zu den aufgeführten nicht vollständig realistisch wirkenden Ergebnissen führt. Bei der Simulation von Muskeln wurden bis heute verschiedene Muskelmodelle entwickelt, die einen Muskel als Gesamtheit in Hinblick auf seine grundsätzlichen physikalischen Eigenschaften, wie z. B. Kraftentwicklung oder Kontraktionsgeschwindigkeit, sehr gut beschreiben. Viele Effekte des Muskels, die sich hauptsächlich auf einer tiefer liegenden Ebene abspielen, sind bis heute noch nicht erforscht, was folglich auch keine entsprechende Simulation auf dem Computer zulässt. Beschrieben werden die verschiedenen Muskeltypen (Skelett-, glatte und Herzmuskulatur) und Muskelformen (spindelförmige, einfach/doppelt gefiedert, etc.). Des weiteren wird auf die unterschiedlichen Muskelfasertypen (FTO, STO, usw.) mit ihren Eigenschaften und Funktionen eingegangen. Weitere Themen sind der strukturelle Aufbau eines Skelettmuskels, der Kontraktionsmechanismus und die Ansteuerung durch Nervenreize. Im Bereich Biomechanik, also der Forschung nach den physikalischen Vorgängen im Muskel, führte die Komplexität der Struktur und Funktionsweise eines Muskels zu einer ausgedehnten Vielfalt an Forschungsarbeiten. Zahlreiche Effekte, die bei einem arbeitenden Muskel beobachtet werden können, konnten bis heute noch nicht erklärt werden. Die Erkenntnisse, die für diese Arbeit relevant sind, sind jedoch in einem ausreichenden Maße erforscht und durch entsprechende mathematische Modelle repräsentierbar. Die Mechanik, die einem Muskel zugrunde liegt, wird auf diesen Modelle aufbauend beschrieben. Neben den Größen, die im später vorgestellten Modell verwendet worden sind, wird auch auf sonstige für biomechanische Untersuchungen relevante Eigenschaften eingegangen. Weiterhin wird dargestellt, wie verschiedene Kontraktionen (Einzelzuckung, Tetanus) mechanisch funktionieren. Für Muskelarbeit und Muskelleistung werden verschiedene Diagramme vorgestellt, welche die Zusammenhänge zwischen den physikalischen Größen Kraft, Geschwindigkeit, Arbeit und Leistung zeigen. Nach Vorstellung der ISOFIT-Methode zur Bestimmung von Muskel-Sehnen-Eigenschaften werden mathematische Formeln und Gleichungen zur Beschreibung von Kraft-Geschwindigkeits- und Kraft-Längen-Verhältnissen sowie der serienelastischen Komponente und der Muskelaktivierung, die zur Bewegungsgleichung führen, angegeben. Es folgen weitere mathematische Funktionen, welche die Aktivierungsvorgänge unterschiedlicher Muskelkontraktionen beschreiben, sowie das Muskelmodell nach Hill, welches seit vielen Jahren eine geeignete Basis für Forschungen im Bereich der Biomechanik darstellt. Bezüglich der Computergraphik wird ein kurzer Abriss gegeben, wie künstliche Menschen modelliert und animiert werden. Eine Übersicht über verschiedene Methoden zur Repräsentation der Oberfläche von Körpern, sowie deren Deformation unter Berücksichtigung der Einwirkung von Muskeln gibt die State-of-the-Art-Recherche. Neben den Oberflächenmodellen (Starrkörperdeformation, lokale Oberflächen-Operatoren, Skinning, Konturverformung, Deformation durch Keyshapes) werden auch Volumen- (Körperrepräsentation durch Primitive, Iso-Flächen) und Multi-Layer-Modelle (3-Layer-Modell, 4-Layer-Modell) vorgestellt und deren Vor- und Nachteile herausgearbeitet. Eine geeignete Repräsentation der Oberfläche, die Verformungen durch Muskelaktivität einbezieht, wurde durch die Benutzung von Pneus gekoppelt mit der Quaoaring-Technik gefunden. Dieses Verfahren, das auf Beobachtungen aus der Biologie basiert und zur Darstellung von organischen Körpern benutzt wird, ist ausgesprochen passend, um einen Muskel-Sehnen-Apparat graphisch darzustellen, handelt es sich doch hierbei auch um eine organische Struktur. Um die beiden Teilmodelle Simulation und Visualisierung zu verbinden, bietet sich die aus der Biomechanik bekannte Actionline an, die eine imaginäre Kraftlinie im Muskel und der Sehne darstellt. Die bei der Quaoaring-Methode verwendete Centerline, welches die Basis zur Modellierung des volumenkonstanten Körpers ist, kann durch die Kopplung an die physikalischen Vorgänge zu einer solchen Actionline erweitert werden. Veränderungen in der Länge und des Verlaufs der Actionline z. B. durch Muskelkontraktion wirken sich dadurch direkt auf die Form des Muskels aus und die Verbindung zur Visualisierung ist hergestellt.
Im Rahmen dieser Diplomarbeit konnte das Plasmid pB6 isoliert werden, das die MNNG-Hyperresistenz einer rng1-1-Mutante komplementierte. Das komplementierende Gen dieses Plasmids konnte jedoch weder über 17 Subklone noch über Komplementationsanalysen identifiziert werden. Die Sensibilität gegen „Congo red“ konnte als ein weiterer Phänotyp des Stammes Q2rng1 bestimmt werden. Es wurden im Zuge der Subklonierung des Plasmids pB6 pRS424-Derivate gefunden, die unabhängig vom genetischen Hintergrund des transformierten Stammes, heterogenes Wachstum verursachten. Zurückzuführen war dies auf die Überexpression des ORFs YLR112w alleine oder gemeinsam mit dem ORF YLR111w. Neben der bereits beschriebenen MNNG-Hyperresistenz durch die Überexpression von SNG1 in Wildtypen, GSH-Mutanten und Reparaturdefizienten Stämmen, konnte auch in dem bereits gegen MNNG hyperresistenten Stamm Q2rng1 eine Steigerung der Resistenz durch SNG1 gezeigt werden. Des weiteren wurden Anzeichen gefunden, dass die MethioninAuxotrophie des Stammes Q3 auf die Disruption des GSH1-Gens zurückzuführen war. Zudem konnte nachgewiesen werden, dass die funktionierende GSH-Synthese letal auf eine ero1-Delta-Mutante wirkte. Als Auslöser für die Cadmium-Sensibilität der Stämme Q3 und Q4 konnten die bekannten Mutationen dieser Stämme im GSH1- und im LWG1-Gen ausgeschlossen werden.
Jeder Investor hat ein Ziel: Er will Gewinne realisieren. Dazu muss er Entscheidungen treffen. Und solche Entscheidungen werden zumeist unterschiedlich getroffen. Was beeinflusst den Investor in seiner Entscheidung und wie lassen sie sich überzeugen? Alle Investoren stellen sich dabei die Frage: Ist das für ein Investment eingegangene Risiko gegenüber der erwarteten Rendite gerechtfertigt? Gibt es eine Möglichkeit, Ertrag und Risiko von zinsbasierten Finanzinstrument bzw. Portfolien zu analysieren? Ein eben solches Verfahren stellt diese Diplomarbeit vor. Über ein Zinsstrukturmodell unter dem empirischen Wahrscheinlichkeitsmaß wird eine P&L Verteilung des entsprechenden Investments berechnet. Welches Zinsmodell eignet sich für diese Berechnung am besten? Eine weit verbreitete Klasse von Zinsstrukturmodellen stellen die Sell-Side Modelle (Pricing Modelle) dar. Diese werden zum arbitragefreien Pricing von Finanzinstrumenten eingesetzt und arbeiten unter einem risikoneutralen Wahrscheinlichkeitsmaß. Zur Simulation realer Zinsszenarien müssen diese Modelle unter dem realen Wahrscheinlichkeitsmaß aufgestellt und geschätzt werden. Als ein Vertreter dieser Modellklasse wird das Cox-Ingersoll-Ross Modell untersucht. Des Weiteren werden das dynamische Nelson-Siegel Modell sowie ein Resampling-/Bootstrapping Modell (RMJBN Modell) vorgestellt und getestet. Die erwähnten Zinsmodelle werden einem Out-of-Sampling-Test unterzogen. Das gewählte Modell muss einem Kriterienkatalog entsprechen, der anhand der Analyseergebnisse der EURIBOR-Zinskurven bezüglich deren Schwankungen und Formen aufgestellt wurde. Es zeigt sich, dass das RMJBN Modell die wesentlichen Merkmale gut abbildet. Unter dem Namen Extended RMJBN Modell folgt eine Erweiterung des Bootstrapping Modells, welche bei der Modellierung der Verteilungen der Zinskurven-Krümmungen ansetzt. Abschließend wird eine Anwendungsmöglichkeit des Extended RMJBN Modells vorgestellt. Es werden dabei Renditeverteilungen von zwei unterschiedlichen Festgeldanlagen betrachtet, um eine reale Investmententscheidung treffen zu können.
Am Beispiel der erziehungswissenschaftlichen Diskussion über „Neue Medien“ wird in kulturvergleichender Perspektive der Versuch einer Rekonstruktion der latenten Diskursmuster der Pädagogik und ihrer Funktionen in Indien unternommen. Grundlage der Analyse ist dabei nach intensiven Literaturrecherchen und Expertengesprächen vor allem die Zeitschrift University News (herausgegeben von der Association of Indian Universities) als aktuelles Forum pädagogischer und bildungsrelevanter Themen. Unter Rekurs auf den Bildungsreport der UNESCO, Learning: The Treasure Within, der im pädagogischen Diskurs in Indien eine exponierte Position einnimmt, werden Kategorien zur Strukturierung entwickelt, die dann vor allem über zwei Dimensionen - Programmatik statt Forschung und Theorie und Technologieorientierung und Trivialisierung – analytisch aufgeschlüsselt werden. Die Interpretation greift dabei hauptsächlich auf systemtheoretische und konstruktivistische Ansätze zurück. Die abschließende Frage nach den Funktionen des Diskurses wird auf der Folie der Vaihinger’schen Philosophie des „As Ob“ verfolgt. Der dem Diskurs inhärente fiktionale Charakter wird dabei als generatives Muster im Rahmen von Ausdifferenzierungsprozessen des Erziehungssystems in Indien interpretiert.
Im Rahmen dieser Diplomarbeit wurde eine Methode entwickelt,im dreidimensionalen Raum den Strahlverlauf geladener Teilchen durch ein stationäres elektromagnetisches Feld unter Berücksichtigung der elektrischen Eigenfelder zu bestimmen. Weiterhin wurde gezeigt, wie sich die Genauigkeit der Bahnintegration durch Einführung verbesserter Feldinterpolationsmethoden und verschiedener Integrationsmethoden erhöhen läßt. Dabei zeigte sich, dass die Wahl einer geeigneten Methode zur Feldinterpolation wichtiger ist als die zur Bahnintegration. Die entwickelten Methoden wurden in einer (in der Sprache Java programmierten) Applikation umgesetzt und verwendet, um die Separation von Elektronen aus einem H - Ionenstrahl dreidimensional zu simulieren.
Die Bioinformatik dient der Lösung biologischer Probleme und Erkenntnisgewinnung mit Hilfe informatischer Methodik. und stellt das Bindeglied zwischen der Informationswissenschaft und der Lehre des Lebens dar. Eine festgeschriebene Definition des Begriffes „Bioinformatik" existiert nicht: Sie umfaßt ein weites Feld, beginnend bei der automatischen Sequenzierung ganzer Genome, über Funktionsanalysen durch Homologiesuchen in Datenbanken, Strukturvorhersagen und Modelling, bis hin zur chipgesteuerten Prothetik. Unterstützende Arbeit in der Molekularbiologie leistet die Bioinformatik bei der Aufnahme und Verwaltung von Nukleotid– und Aminosäuresequenzen in Datenbanken. Der rasante Fortschritt bei der Sequenzierung ganzer Genome führt zu explosionsartig ansteigender Datenfülle und damit zu stetig wachsenden bioinformatischen Anwendungsmöglichkeiten, die ihrerseits notwendig sind, um diese Datenfülle zu bewältigen. Die Genomprojekte erbrachten bislang die vollständige Sequenz der Genome von Species aus allen drei Überreichen: Eubakterien: Haemophilus influenza [17], Mycoplasma genitalium [18], Synechocystis sp [29]. u.a. Archaebakterien: Methanococcus jannaschii [16] u.a. Eukaryonten: Saccharomyces cerevisiae u.a. Ende 1998 soll auch die Sequenzierung des Nemathelminten (Rundwurm) Caenorhabditis elegans und den Menschen abgeschlossen sein................ Im Rahmen dieser Diplomarbeit sollte ein Programm entwickelt werden, das die intrinsischen Eigenschaften eines Proteins vorhersagt. Es soll die Ausgabe der Ergebnisse von drei Programmen (Coils2, TopPred2 und SignalP) analysieren und interpretieren, eine Prognose über die Präsenz von Coiled Coils, Transmembranregionen und Signalpeptiden erstellen und die betroffenen Bereiche der Aminosäuresequenz angeben. Die Nutzung dieses Hilfsmittels ist über das World-Wide-Web möglich. In einem weiteren Teil soll die Funktion von Proteinen, deren funktionelle Eigenschaften unbekannt sind, über Homologiesuchen und Deutung der Ähnlichkeiten zu Proteinen mit bekannter Funktion aufgeklärt und beschrieben werden. Es handelt sich hierbei um Proteine, die aufgrund von Sequenzähnlichkeit in 58 Familien, sogenannten UPFs (uncharacterized protein families), zusammengefaßt sind.
Im Rahmen dieser Arbeit wurde erstmals die Realisierung eines (e,3e)- Experimentes an Helium mittels der Cold Target Recoil Ion Momentum Spectroscopy (COLTRIMS) behandelt. Dabei ging es hauptsächlich um den Aufbau, die Entwicklung, Test und die Durchführung des Experiments. Dazu wurde ein neues Kammersystem am Atomphysikkanal der Frankfurter EZR mit zweistufigem Ultraschallgasjet aufgebaut, an dem in Zukunft noch weitere COLTRIMS- Experimente stattfinden werden. In dieser Arbeit wurde eine Dreifach-Koinzidenz zwischen dem gestreuten Projektilelektron, dem einfach- oder zweifach geladenem Rückstoßion und dem langsamen Elektron verwirklicht. Sie stellt das wesentliche Ergebnis der vorliegenden Arbeit dar. Koinzident zum Streuwinkel und Energieverlust des Projektilelektrons wurden hierbei Flugzeiten und Auftrefforte rte von He1 - bzw. He2 - Ionen und von einem der ionisierten Elektronen gemessen. Anhand der durchgeführten umfangreichen Eichmessungen unter Hinzuziehung von Impuls- und Energieerhaltungssätzen lassen sich somit sämtliche Impulse der Teilchen errechnen. Somit gewinnt man Informationen über den Ionisationsprozeß. Desweiteren lassen sich multidifferentielle Wirkungsquerschnitte bestimmen, die sich mit theoretischen Modellen vergleichen lassen. Die Rückstoßionenimpulsverteilungen und die Flugzeitspektren für das He2 -Ion demonstrieren die Signifikaz der erreichten Statistik, trotz der geringen Koinzidenzrate von 17 h-1. Die Meßdaten wurden einer groben Auswertung unterzogen. Die entgültige Analyse, Ergebnisdeutung, Interpretation und Vergleich mit der Theorie fand in dieser Arbeit nicht statt. Die Projektilenergie lag bei allen Messungen bei 550 eV. Der Elektronenstrahl wurde, entgegen der vorherrschenden Meinung, mit einem Blendensystem auskollimiert. Im nächsten Schritt sollen statt mit nur einem mit zwei oder mehreren Schlitzblenden nacheinander der Elektronenstrahl auskollimiert werden, so daß die am vorderen Schlitz gestreuten Elektronen in den nachfolgenden ausgeblendet werden können. Somit verringert man die problematische Untergrundrate auf dem Elektronendetektor. Für weitere Untersuchungen werden momentan neue Spektrometerkonzepte entwickelt. Bei der Konzeption des neuen Spektrometers wird der Abstand zwischen Targetzone und Elektronendetektor größer gewählt. Dies verringert zwar den Nachweisraumwinkel für die Elektronen, aber man erreicht dadurch eine Verringerung der Untergrundselektronen. Der Verringerung des Nachweisraumwinkels kann man entgegenwirken, indem man einen großen MCP- Detektor mit 80 mm Durchmesser einsetzt. Der Eintrittsbereich des Projektilstrahls in das Rückstoßionenimpulsspektrometer sollte großzügig gewählt werden, da auf diese Art und Weise verhindert werden kann, daß der Elektronenstrahl die Potentialringe in Eintrittsbereich streift und wohlmöglich unerwünschte Sekundärelektronen erzeugt, die im Extraktionsfeld des Spektrometers auf den Elektronendetektor hin beschleunigt werden und ebenfalls für Untergrund sorgen. Eine Pulsung der Elektronenkanone über die Wehneltspannung vorzunehmen und den Puls als Start oder Trigger für die Datenaufnahme einzusetzen ist nur dann sinnvoll, wenn die Flugzeit der Elektronen um mindestens eine Größenordnung größer ist als die erreichbare Pulslänge. Nach Auskunft unserer Elektronik liegen die erreichbaren Pulslängen bei etwa 5 ns. Aufgrund der notwendigen Stabilität sowohl in der Elektronik als auch in der Kühlung des Kaltkopfes ist eine insgesamt kürzere Meßzeit erstrebenswert.
Immer mehr Hersteller bringen kleine mobile Endgeräte (PDAs1) auf den Markt, die via WLAN2 (IEEE 802.11), Bluetooth oder UMTS3 drahtlos Kontakt mit der Außenwelt aufnehmen können. Dabei werden neben zunehmend höheren Übertragungsraten auch große Fortschritte in der Miniaturisierung erzielt. Viele PDAs besitzen bereits eingebaute Funknetzwerk-Karten, bei vielen läßt sich eine solche Karte einfach zusätzlich in das Gerät einstecken. Durch die steigende Rechenleistung der Geräte und die gleichzeitig steigenden Übertragungsraten der Funkverbindungen entstehen diverse neue Anwendungsmöglichkeiten, die allerdings noch wenig ausgenutzt werden. Es überwiegen die Standardaufgaben der PDAs, wie die Termin und die Adressenverwaltung. Ein eventuell vorhandener Zugang zu Netzwerken wird meist ebenfalls nur für Standardanwendungen verwendet, wie z.B. die Synchronisation von Daten mit einem Server, der Zugang zum World Wide Web oder zum Versenden von e-Mails. Der herkömmliche Zugang zu Netzwerken ist meist ortsgebunden. Im sogenannten Infrastruktur-Modus ist man auf eine Basisstation (Access-Point) angewiesen. Bewegt man sich in Bereichen, in denen kein solcher Access-Point zur Verfügung steht, kann eine Netzwerkverbindung nicht hergestellt werden. Die Mobilität des Benutzers ist auf die Funkreichweite seines Geräts zu dieser Basisstation beschränkt. Die Bezeichnung „mobil“ trifft also nur auf das Endgerät, nicht auf die Basisstation zu. Genutzt werden üblicherweise die gleichen Dienste wie in einem kabelgebundenem Netz, nämlich Server des Intra-, bzw. Internets. Die eigenständige Vernetzung mobiler Geräte untereinander, der sogenannte Ad-hoc-Modus, eröffnet neuartige Anwendungsgebiete. Ursprünglich dafür gedacht, zwei Stationen schnell und einfach über Funk miteinander zu verbinden, können durch eine Erweiterung beliebig viele Stationen zu einem spontanen und mobilen Netzwerk zusammengefaßt werden (mobiles Ad-hoc Netzwerk, MANET). Eine zentral verwaltete Infrastruktur entfällt dabei vollständig. Die Aufgaben des Routings muß jede einzelne der beteiligten Stationen übernehmen. Auf diese Weise erhöht sich die Funkreichweite aller beteiligten Stationen, da nicht ein zentraler Access-Point, sondern jeder beliebige Teilnehmer in Reichweite den Zugriff auf das Netzwerk ermöglicht. Es muß dabei allerdings davon ausgegangen werden, daß sich die Stationen in einem solchen Netz ständig bewegen, das Netz verlassen oder neu hinzukommen können. Somit verändert sich andauernd die Netzwerktopologie und ein kontinuierliches und selbstständiges Neuorganisieren des Netzes wird notwendig. Man spricht daher von selbstorganisierenden mobilen Netzen. Der Informationsfluß in Ad-hoc Netzen ist üblicherweise ein anderer als in Festnetzen. Es entsteht eine eher interessensbezogene Kommunikation, weniger eine, die auf dem Wissen von bekannten Endpunkten im Netzwerk basiert. In Ad-hoc Netzwerken können Endpunkte und Adressen aufgrund der sich permanent ändernden Nutzerzusammensetzung naturgemäß nicht bekannt sein. Stattdessen gibt jeder Nutzer Informationen über seine Interessen und seine Angebote im Netzwerk bekannt. Findet sich ein zu diesem Interessensprofil passendes Angebot, so kommt eine Verbindung zustande. Die Flexibilität der PDAs, ihre Mobilität und ihre ständig steigende Leistung lassen die Entwicklung von mobilen Ad-hoc-Anwendungen sinnvoll erscheinen. MANET Netzwerke sind in ihrer Auslegung flexibel und schnell, genau so, wie es die modernen PDAs sind. Es eröffnet sich durch durch beides eine große Zahl neuer und innovativer Anwendungsmöglichkeiten. Eine davon, das so genannte E-Learning, soll im Folgenden näher betrachtet werden. E-Learning ist ein Beispiel für eine Anwendung in Ad-hoc Netzen, die besonders geeignet erscheint, die Beweglichkeit ihrer Anwender in vielerlei Hinsicht zu unterstützen. Durch die Eigenschaft, geeignete Kollaborationspartner und Informationen schnell und gezielt im Netzwerk finden zu können, wird ein spontaner Wissensaustausch über die bisher bestehende Grenzen hinaus möglich. Es werden im Rahmen dieser Diplomarbeit Mechanismen behandelt, die dem Anwender die Nutzung von kollaborativen Anwendungen wie dem E-Learning ermöglichen und ihn bei dessen Nutzung unterstützen sollen.
Die Gitterbasenreduktion hat in der algorithmischen Zahlentheorie und der Kryptologie bedeutende und praktisch relevante Anwendungen [Joux und Stern, 1998; Nguyen und Stern, 2000; Nguyen, 2001]. Ein wesentlicher Beitrag auf dem Gebiet der Gitter-Reduktionsalgorithmen ist der LLL-Algorithmus [Lenstra, Lenstra und Lov´asz, 1982] und auch die Beta-Reduktion (BKZ-Reduktion) von Gitterbasen [Schnorr, 1987, 1988, 1994] ist von großer Bedeutung. Bei Implementierungen dieser Algorithmen auf modernen Rechnerarchitekturen erfolgen viele Berechnungen aus Gründen der schnelleren Verarbeitungsgeschwindigkeit in Gleitpunktzahlen-Arithmetik. Aufgrund inhärenter Rundungsfehler kommt es dabei zu numerischen Instabilitäten. Vor [Koy und Schnorr, 2001b] gab es keine erfolgreichen Ansätze die bei der Gitterbasenreduktion auftretenden Rundungsfehler so zu kontrollieren, dass auch Gitterbasen in der Dimension >= 400 reduziert werden können. Diese Diplomarbeit beschäftigt sich mit den praktischen Aspekten der Gitterbasenreduktion in Segmenten. Dabei handelt es sich um die erstmalige Implementierung und experimentelle Evaluierung der folgenden beiden Verfahren: ....
Der Begriff der editierfreundlichen Kryptographie wurde von Mihir Bellare, Oded Goldreich und Shafi Goldwasser 1994 bzw. 1995 eingeführt. Mit einem editierfreundlicher Verschlüsselungs- oder Unterschriftenverfahren kann man aus einer Verschlüsselung bzw. Unterschrift zu einer Nachricht schnell eine Verschlüsselung oder Unterschrift zu einer ähnlichen Nachricht erstellen. Wir geben eine Übersicht über die bekannten editierfreundlichen Verfahren und entwickeln sowohl ein symmetrisches als auch ein asymmetrisches editierfreundliches Unterschriftenverfahren (IncXMACC und IncHSig). Wir zeigen, wie man mit editierfreundlichen Schemata überprüfen kann, ob die Implementierung einer Datenstruktur korrekt arbeitet. Basierend auf den Ideen der editierfreundlichen Kryptographie entwickeln wir effiziente Verfahren für spezielle Datenstrukturen. Diese Ergebnisse sind in zwei Arbeiten [F97a, F97b] zusammengefaßt worden.
In der vorliegenden Diplomarbeit beschäftigen wir uns mit kryptographisch sicheren Pseudozufallsgeneratoren. Diese e±zienten Algorithmen erzeugen zu zufälliger Eingabe deterministisch eine längere Bitfolge, die praktisch von einer Folge zufälliger Münzwürfe nicht unterscheidbar ist. Wir geben die Definitionen von A. Yao sowie M. Blum und S. Micali, beweisen die Äquivalenz und charakterisieren den Unterschied zur klassischen Sichtweise von Zufallsgeneratoren. Mit der Blum-Micali-Konstruktion zeigen wir, wie man aus einer Oneway-Permutation und zugehörigem Hardcore-Prädikat einen kryptographisch sicheren Pseudozufallsgenerator konstruiert: Man wendet auf einen zufälligen Startwert iterativ die Oneway-Funktion an und gibt jeweils das Hardcore-Prädikat des Urbilds aus. Wir stellen das allgemeine Hardcore- Prädikat inneres Produkt modulo 2 von L.A. Levin und O. Goldreich vor und beweisen mit Hilfe des XOR-Lemmas von U.V. Vazirani und V.V. Vazirani die Verallgemeinerung zu einer Hardcore-Funktion, die statt eines Prädikats mehrere Bits ausgibt. Man geht davon aus, daß die Verschlüsselungsfunktionen des RSA- und des Rabin-Public- Key-Kryptosystems Oneway-Permutationen sind. Basierend auf dem Rabin-System haben L. Blum, M. Blum und M. Shub den x2-mod-N-Generator aufgebaut, W. Alexi, B. Chor, O. Goldreich und C.P. Schnorr haben den RSA-Generator konstruiert und den Sicherheitsbeweis zum x2-mod-N-Generator verbessert. Diese Generatoren basieren auf der Blum-Micali-Konstruktion mit dem Hardcore-Prädikat des untersten Bits. Durch neue Ideen können wir die beweisbare Sicherheit der Generatoren deutlich erhöhen, so daß in der Praxis kleinere Schlüssellängen genügen. Bisher war zum Beispiel für den x2-mod-N-Generator bekannt, daß man mit einem Algorithmus A, der das unterste Bit der Wurzel modulo einer n-Bit- Blumzahl mit Wahrscheinlichkeit 1 2 + ² in Zeit |A| = ¡n3¢ berechnet, den Modul in Zeit O¡n3² 9|A|¢ mit Wahrscheinlichkeit ²2 64 faktorisieren kann. Wir verbessern die Laufzeit zu O¡n² 4 log2(n² 1)|A|¢ und Wahrscheinlichkeit 1 9 . Diese neuen Resultate wurden auf der Eurocrypt-Konferenz im Mai 1997 in Konstanz vorgestellt, D.E. Knuth hat sie bereits in die neue Auflage seines Standardwerks The Art of Computer Programming aufgenommen.
In dieser Arbeit wurde die transversale Flußgeschwindigkeit einer Schwerionenreaktion direkt bestimmt. Dazu modifizierte man den herkömmlichen Yano-Koonin-Podgoretskii Formalismus, der zur Bestimmung der longitudinalen Expansion bereits erfolgreich eingesetzt wurde. Die transversale Expansion wurde in verschiedenen kinematischen Bereichen bestimmt. Einzelne Quellabschnitte erreichen Geschwindigkeiten bis zu b = 0.8. Das entspricht den Werten, die man durch indirekte Verfahren für den transversalen Fluß bestimmte. In den Intervallen mittlerer longitudinaler Paarrapidität entspricht die Yano-Koonin-Podgoretskii Rapidität der mittleren Paarrapidität. Dieses Verhalten erwartet man von einer Quelle, die ein boostinvariantes Expansionsverhalten besitzt. Die HBT-Radien, die im Zuge der Analyse der Korrelationsfunktion bestimmt wurden, entsprechen in der Größenordnung denen, die bei der Untersuchung der longitudinalen Expansion bestimmt wurden. Lediglich der Parameter R0 zeigt ein abweichendes Verhalten, indem er für geringere Rapiditäten kleinere Werte annimmt, dieser Parameter ist jedoch mit einem großen Fehler belastet. Die Konsistenz des Formalismus bezüglich verschieden gewählter transversaler Richtungen wurde überprüft. Trotz erheblicher Unterschiede in den transversalen Rapiditätsverteilungen wurden in vier verschiedenen Richtungen vergleichbare Resultate gemessen. Um einen größeren Impulsbereich abzudecken wurden die Messungen in zwei verschiedenen Magnetfeldkonfigurationen durchgeführt, in den Bereichen wo die Parameter der Korrelationsfunktion im beiden bestimmt werden konnten, ergaben sich vergleichbare Werte.
Im Rahmen dieser Arbeit wurde ein Prototyp einer Spurendriftkammer mit Mikrostreifenauslese, wie sie als hochauflösende Spurendetektoren in der Kern- und Teilchenphysik zum Einsatz kommen sollen, konstruiert und getestet. Besonderes Augenmerk lag hierbei auf der Signalform und -verteilung, sowie auf dem Langzeitverhalten. Für die verschiedenen Messungen dieser Arbeit wurden die Mikrostreifen-Gasdetektoren in ein Edelstahlrohr eingebaut, das mit einem Vakuumpumpen-System verbunden ist. Durch Evakuieren der Meßapparatur und anschließendes Befüllen mit Zählgas konnten die Detektoren nach kurzer Zeit mit nur geringen Verunreinigungen des Zählgases durch Wasser und Sauerstoff betrieben werden. Als Substrat wurde das Glas S 8900 von Schott verwendet, dessen Leitfähigkeit von rho 1.1 * 10 exp 11 Omega cm durch Elektronenleitung erzeugt wird. Es wurden Mikrostreifen-Platten mit zwei verschiedenen Strukturen untersucht, die sich in der Form der Kathode voneinander unterscheiden. Die Mikrostreifen-Platten haben eine sensitive Fläche von 30 X 40 mm*mm die Breite der Anodenstreifen beträgt 8 mikrometer bei einem Abstand von 1 mm zwischen den Mittellinien von je zwei Anoden. Die Kathoden der Struktur ILL6c bestehen aus einem durchgehenden 400 mikrometer breiten Streifen. Die Kathoden der Struktur ILL6a sind in zwei 8 mikrometer breite Streifen unterteilt, wobei die Gesamtbreite der Kathoden beider Strukturen gleich ist. Die Kopplung des Anodensignals auf die rückseitigen Kathodensegmente (Pads) ist bei der Struktur ILL6a durch die geöffneten Kathoden im Vergleich zur Struktur ILL6c doppelt so groß (51.6% bei einer Glasdicke von 0.45 mm bzw. 31.3% bei 1 mm und 16.9% bei 2 mm. Mit einer gamma-Quelle 55-Fe wurden Untersuchungen von Alterungseffekten durchgeführt, in deren Verlauf an den Anoden eine Ladung von 46 mikroC/cm pro Tag aufgenommen wurde. Simultan wurde ein Draht-Proportionalzähler mit geringerer Rate zur Überwachung der Gasqualität betrieben und damit die Amplitude der Mikrostreifen-Gasdetektoren korrigiert. Die Mikrostreifen-Gasdetektoren konnten bis zu einer Ladung von 125 mikroC/cm in Ar/CH4 bzw. 200 mikroC/cm in Ar/CO2 (90:10) mit einer Energieauflösung von <= 25% (55Fe-Quelle, FWHM) und geringer Variation der Verstärkung betrieben werden. Zur Messung der Breite Theta0 der Kathoden-Ansprech-Funktion (Pad-Response-Funktion) dienten Elektronenspuren, die mit Hilfe einer stark kollimierten Beta-Quelle (90Sr) erzeugt wurden. Die Spuren wurden durch einen 50 cm langen Feldkäfig, der wie die Feldkäfige der NA49-Spurendriftkammern aus aluminisierten Mylarstreifen aufgebaut ist, zur Ausleseebene gedriftet. Auf der Rückseite der Mikrostreifen-Platten befinden sich 1 mm breite Pads mit einem Abstand von 0.5 mm in zwei verschiedenen Anordnungen (isoliert oder mit der Glasrückseite verbunden). Diese Messungen wurden mit verschiedenen Glasdicken durchgeführt: Glasdicke 0.45 mm: theta-0 = 0.51 - 0.94 mm, Glasdicke 1 mm: theta-0 = 0.91 - 1.1 mm, Glasdicke 2 mm: theta-0 = 1.4 mm. Im Rahmen dieser Arbeit konnte gezeigt werden, daß es mit Hilfe der Mikrostreifentechnologie möglich ist, Spurendriftkammern mit einer kleineren Breite theta 0 der Pad-Response-Funktion zu konstruieren, als es mit konventionellen Draht-Ausleseebenen großflächig machbar wäre. Dadurch kann insbesondere die Zweispurauflösung verbessert werden.
"Scharfes Messer" oder "stumpfer Dolch"? : Lakatos als Instrument in den internationalen Beziehungen
(2002)
Das Anliegen dieser Diplomarbeit sollte nicht nur darin bestehen, die fehlerhafte Anwendung Lakatos‘ in den IB aufzuzeigen. Nach meiner Auffassung müssen wissenschaftstheoretische Ansätze keineswegs ein Buch mit sieben Siegeln für die IB darstellen. Die Tatsache, dass Lakatos als Instrument für die Sozialwissenschaften ungeeignet ist (vor allem zur Diskreditierung konkurrierender Theorien) sollte keineswegs dahingehend abschreckend wirken, sich innerhalb der IB weiterhin mit wissenschaftstheoretischen Grundlagen zu befassen. Die IB als wissenschaftliche Disziplin könnten meiner Ansicht nach zwei zentrale Thesen Lakatos‘ verinnerlichen. „Moment-Rationalität“ zur Bewertung von Theorien kann es nicht geben. Dies sollte gerade bei jungen Forschungsprogrammen beachtet werden, die sich noch mit einem „Ozean von Anomalien“ konfrontiert sehen. Zudem sollte der vorschnelle Drang zur Falsifikation aufgegeben werden. Die Feststellung Lakatos, warum Falsifikation um jeden Preis unser Ziel sein sollte, trifft hier den Nagel auf den Kopf. Dieser Aspekt führt zu einer meiner zentralen Thesen. Ein Grundübel der IB liegt darin, dass allzu häufig, der Blick auf wesentliche empirische Probleme vergessen wird. Aufgrund dieser Vorgehensweise begeht der kritische Politikwissenschaftler jedoch einen Kategorien-Irrtum. Nicht die Lösung relevanter Probleme, wie dies Laudan fordert, sondern der falsche Stolz, die eigene Theorie behalte recht oder sei wahr, steht häufig im Vordergrund. Taucht nun ein zu erklärendes soziales Phänomen (beispielsweise der Demokratische Frieden oder das Ende des Ost-West-Konflikts) auf, wird weniger versucht, dieses sich stellende Problem zu lösen, als die selbst vertretene Theorie zu retten bzw. zu bestätigen. Dieses Vorgehen führt zu inter-paradigmatischen Grabenkämpfen, die ohne jeden Erkenntnisgewinn sind. Deshalb kann eine entsprechende Selbstreflexion der Disziplin IB, wie sie mit der Debatte zwischen Rationalisten versus Reflexivisten begonnen hat, nichts schaden. Die Gefahr besteht in solchen an die Wurzel greifenden Debatten darin, dass die Disziplin vollkommen zersplittern kann. Dieses Risiko muss die IB dennoch eingehen, da in der jüngsten Vergangenheit häufig der Blick für das Wesentliche verlorengegangen ist. Damit ist vor allem der Blick für die Probleme gemeint. Der wissenschaftstheoretische Ansatz Laudans, der mit einer gesunden Dosis Pragmatismus versehen ist, könnte hierfür ein geeignetes Hilfsmittel sein. Laudans Verwerfen der Wahrheit als kognitives Ziel verbunden mit seinem Festhalten am Rationalitätsbegriff erscheint mir als Strategie für die IB von Vorteil. Laudans Theorie verlangt nicht nach methodischen Standards im Lakatosschen Sinne, die für die Sozialwissenschaften unerfüllbar sind. Die Vorstellung Kuhns, wissenschaftliche Forschung verlaufe infolge von Paradigmenwechseln, die voneinander inkommensurabel sind, bietet für Politikwissenschaftler eher ein Alibi, nicht mehr miteinander reden zu müssen. Der erkenntnistheoretische Anarchismus Feyerabends ist in vielen Aspekten vertretbar. Gerade Feyerabends Ablehnung des positivistischen Erklärungsideals, es gebe eine universelle ahistorische wissenschaftliche Methode, ist zu teilen. Seine Konsequenz, jegliche Form methodischer Regeln abzulehnen, erscheint mir zu radikal. Eine ebenso radikale Konsequenz wie Feyerabend zieht Rorty aus seiner Schlussfolgerung, dass Theorien nicht rational überprüft werden können. Rorty verfällt meiner Ansicht nach in einen unbefriedigenden Relativismus, wenn er die Suche nach Erkenntnis nur noch auf den Bereich der Konversation beschränkt. Die Funktionsweise einer großen Konversation, in der die Philosophie eine Stimme unter vielen Experten der jeweiligen Fakultäten besitzt, leuchtet mir wenig ein....
Transnationale Verlagerung von Care-Arbeit in Hinblick auf Ausbeutungs- und Emanzipationsaspekte
(2010)
Nationalparke haben nicht nur den Zweck, Ökosysteme auf einer ausreichend großen Fläche sich selbst zu überlassen, damit sich ein ökologisches Gleichgewicht einstellen kann, sondern sie sind auch öffentlich zugänglich.
Umweltbildung in Nationalparken bezweckt, Kenntnisse über und Begeisterung für die Nationalparke zu vermitteln, so daß der Wert dieses Raumes erfaßt und Interesse an dessen Schutz geweckt wird. Ein Beitrag zur allgemeinen Umweltbildung wird geleistet, wenn der Besucher seine Erfahrungen im Nationalpark auf alle Lebensbereiche übertragen kann. Da nur die wenigsten Besucher personengebundene Umweltbildungsarbeit, die in Form von geführten Wanderungen in jedem deutschen Nationalpark angeboten wird, in Anspruch nehmen, ist eine geeignete Umweltbildung durch Öffentlichkeitsarbeit erforderlich.
Alle Nationalparke bieten Informationen über die naturräumlichen Gegebenheiten und über Beeinträchtigungen der Ökosysteme an. Umfang und Qualität der Ausstellungen, Printmedien, Informationstafeln in der Natur und audiovisueller Medien variieren beträchtlich. Informationsmedien sind nicht immer geeignet, auf das Erlebnis Natur vorzubereiten und umfassende Informationen zu vermitteln. In den meisten Informationshäusern wird "ein Stück Natur" in die Ausstellung geholt, die dort ausgiebig betrachtet oder angefaßt werden kann; Hören und Riechen spielen noch eine untergeordnete Rolle. Beeinträchtigungen der Ökosysteme (Müll, Giftstoffe, Tourismus) werden in allen Informationsmedien dargestellt, in den Ausstellungen z.T. sehr dramatisch. Es sollte keine "heile Welt" dargestellt werden; Ausstellungen sollten betroffen machen, gleichzeitig jedoch Begeisterung für die Natur wecken.
Lernen über die Natur in und mit der Natur stehen im Vordergrund der Bildungsarbeit und führten bereits zu Konzepten, diese Erfahrungen auch ohne Ranger-Begleitung sammeln zu können: Im Nationalpark Bayerischer Wald wurde 1995 ein Naturerlebnispfad fertiggestellt, der Vorgänge in Ökosystemen veranschaulicht (spielerisch) und Zusammenhänge bewußt macht (wissenschaftlich, ethisch), der als Konzept für zukünftige Umweltbildungsarbeit zu sehen ist. Geowissenschaftliche und kulturhistorische Themen sollten immer miteinbezogen werden, um den Nationalpark als Gesamtraum erfassen zu können.
Um möglichst viele Besucher zu erreichen, müssen alle erdenklichen Informationsmedien eingesetzt werden. Insgesamt ist dieses Angebot noch nicht groß genug; acht der zwölf deutschen Nationalparke wurden jedoch erst nach 1990 gegründet, sind also noch sehr jung.
Bildungsarbeit wird in deutschen Nationalparken überwiegend durch Umweltsponsoring ermöglicht und ebenfalls Wirtschaftsunternehmen rücken die Nationalparke durch Printmedien u.ä. ins öffentliche Bewußtsein. Weder eines der Bundesministerien noch ein übergeordneter Fremdenverkehrsverband informiert zu allen deutschen Nationalparken. Verkehrsverbände der Nationalpark-Gemeinden erwähnen Nationalparke als Möglichkeiten zur Erholung allenfalls als "Touristische Attraktion" oder "Weitere Angebote".
Deutsche Nationalparke werden auf der gleichen gesetzlichen Grundlage wie Naturschutzgebiete geschützt. Naturschutz ist Ländersache, die Länder übertragen die Zuständigkeit z.T. an die Nationalparkverwaltungen. Die zwölf deutschen Schutzgebiete von nationaler Bedeutung in acht verschiedenen Bundesländern weichen in ihrem Schutzzweck und in ihrer Öffentlichkeitsarbeit voneinander ab. Besonders ungünstig wirkt sich dies bei der Besucherlenkung aus, zumal eine zu geringe Anzahl Mitarbeiter in den fremdenverkehrsbelasteten Nationalparken zur Verfügung steht.
Die ersten Schritte zur einheitlichen Darstellung und einheitlichen Besucherlenkung wurden von der FÖNAD unternommen. Sie gab die Entwicklung eines Besucherleit- und Informationssystems, eines Nationalpark-Logos und ein Konzept für einheitlich gestaltete Faltblätter (Corporate Design) in Auftrag; die Ergebnisse der Aufträge sollen die deutschen Nationalparke als einheitlich zu schützende Gebiete darstellen und Besuchern die Orientierung und das umweltverträgliche Verhalten erleichtern. Das Besucherleitsystem ist bereits in vier Nationalparken installiert. Diese Konzepte sind jedoch nur Richtlinien, die für die Nationalparkverwaltungen nicht verbindlich sind.
Aus den Antworten auf einen Fragebogen über Interpretive Services in ausgewählten Ländern ließ sich ersehen, daß die Nationalparke in etwa der Hälfte der antwortenden Staaten (n=27) dezentral organisiert sind, sich aber doch jeweils eine übergeordnete Behörde um die Darstellung des nationalen Naturerbes bemüht. National Park Services sind in den meisten Fällen nur für das Corporate Design zuständig, d.h. sie geben Vorgaben an die Nationalparkverwaltungen, die Medien dann um die räumlich spezifischen Informationen ergänzen. Nur in den Vereinigten Staaten ist der National Park Service für sämtliche Informationsmedien der mehr als 350 Gebiete nationaler Bedeutung zuständig.
Band 2 enthält eine Nationalpark-Bibliographie mit 2224 Literaturstellen (Stand: 4.11.1995).
Die vorliegende Arbeit behandelt das Forschungsthema der Entstehung des flüssigen Eisenkerns im Zentrum unseres Planeten. Dieses bislang wenig verstandene Gebiet ist reich an Fragestellungen, sowohl für Experimentatoren als auch für die Geodynamik. Es gibt sehr viele Arbeiten, die den Bildungsprozess experimentell untersuchen, jedoch wurde in den letzten Jahren die numerische Untersuchung in diesem Gebiet kaum vorangetrieben. Der experimentelle Teil der Arbeit stellt sich hierbei der aktuellen Frage nach der Perkolationsschwelle
1 von Eisenschmelze in der Silikatmatrix der Protoerde, während numerisch die Effekte von Potenzgesetzkriechen, Dissipation und Schmelzsegregation beim Absinken eines Eisendiapirs nach Ausbildung eines ersten flachen Magmaozeans in der Protoerde behandelt werden. Die genauen Fragestellungen könnnen dabei im letzten Abschnitt der Einleitung gefunden werden.
Im Rahmen dieser Arbeit wurde ein Verfahren zur Messung der Absorption der TM0-Mode im atmosphärischen Wellenleiter entwickelt, das auf der Bestimmung des Amplitudenabfalls von durch Blitze generierten ELF-Impulsen beruht. Eine Anwendung des Verfahrens setzt die simultane Messungen der ELF-Impulse an verschiedenen Stationen voraus. Im Sommer 1998 wurde im Rahmen der Spritekampagne'98 ein geeigneter Datensatz an drei Stationen im Westen Nordamerikas gewonnen. Bislang wurde ein Teil dieses Datensatzes herangezogen, um das Messverfahren zu testen und mit Ergebnissen aus einer anderen Quelle zu vergleichen. Diese Tests waren erfolgreich und die Ergebnisse von Hughes und Gallenberger [10] konnten reproduziert werden. Die Stationen wurden mit Induktionsspulen-Magnetometern vom Typ Metronix MFS05 im HF-Modus betrieben. Die für die Instrumentenkorrektur erforderlichen Übertragungsfunktionen der Magnetometer waren vorab nur für den LF-Modus mit Vertrauen erweckender Sicherheit bekannt. Dies machte eine Nachkalibrierung der Magnetometer erforderlich, bei der zunächst versucht wurde, die bekannte LF-Übertragungsfunktion zu reproduzieren. Dazu wurde die Einspeisung einer Rechteckschwingung in den Kalibriereingang des MFS05-Magnetometers verwendet. Bei 5 von 6 verwendeten Magnetometern ließ sich die Übertragungsfunktion für den LF-Modus reproduzieren. Bei einem traten jedoch deutliche Abweichungen auf, die sich auch bei anderen Messungen reproduzieren ließen. Die Übertragungsfunktion des Magnetometers hat sich also seit der letzten Kalibrierung durch den Hersteller verändert. Erst durch diese Nachkalibrierung ist es möglich geworden, diese Veränderung in Instrumentenkorrekturen einzubringen. Nachdem im LF-Modus gezeigt war, dass die verwendete Kalibrierungsmethode funktioniert wurde sie auch für den HF-Modus angewandt. Neben der Kalibrierung durch Einspeisung eines synthetischen Signals wurden auch Kalibrierungen unter Ausnutzung der natürlichen Anregung durchgeführt. Diese dienten in erster Linie einem Vergleich verschiedener Messgeräte: Den beiden Datenloggern SPAM MkIII und Quanterra QT4120 sowie den bei- den Magnetometern Metronix MFS05 und EMI BF-4. Der QT4120-Datenlogger wurde ursprünglich nicht zum Anschluss von Magnetometern konzipiert und benötigte dazu eine separate Adaptereinheit. Eine solche Adaptereinheit (kurz "Adapterbox") wurde im Rahmen dieser Arbeit konzipiert und gemeinsam mit der am Institut angestellten Elektronikerin Vera Fischer implementiert. Die Messergebnisse der Kalibrierungen mit natürlicher Anregung wurden so gedeutet, dass der SPAM MkIII-Datenlogger und das MFS05-Magnetometer gegenüber dem Quanterra QT4120-Datenlogger und dem EMI BF-4-Magnetometer einen geringeren Rauschpegel im ELF-Bereich aufweisen. Dies muss nicht für Frequenzen unterhalb des ELF-Bereichs gelten - dort wurden keine Untersuchungen angestellt.
Wir untersuchen das Verhalten von unären stochastischen endlichen Automaten mit Hilfe von Methoden der Theorie der homogenen Markovketten. Für unäre stochastische Automaten mit E-isoliertem Cutpoint lambda und n Zuständen bestimmen wir eine obere Schranke für die Größe des zyklischen Teils eines optimalen äquivalenten DFAs. Ein Ergebnis von Milani und Pighizzini zeigt bereits, dass für den zyklischen Teil des äquivalenten DFAs O(e exp(sqrt(n ln n))) Zustände ausreichen und in unendlich vielen Fällen auch Omega(eexp(sqrt(n ln n))) Zustände benötigt werden, wobei die Größe von E keine Rolle spielt. Wir zeigen die obere Schranke n exp (1/2E) für die Größe des zyklischen Teils und weisen nach, dass der optimale DFA für jedes c < 1 in unendlich vielen Fällen mehr als n exp (c/2E) viele Zustände im zyklischen Teil benötigt. Wir weisen auch nach, dass es eine unendliche Familie endlicher unärer Sprachen gibt, für die es jeweils einen PFA mit n Zuständen und 1/4-isoliertem Cutpoint gibt, während der optimale, DFA e exp(Omega x sqrt(n ln n)) Zustände im Anfangspfad benötigt.
Installment Optionen
(2004)
Die vorliegende Arbeit beschäftigt sich im Wesentlichen mit Installment Optionen und deren Bewertung und Hedgemöglichkeiten. Installment Optionen werden vor allem im internationalen Treasurymanagement eingesetzt und dienen der Absicherung von Wechselkursrisiken. Die Besonderheit besteht darin, daß ein Konzern die Optionsprämie über mehrere Zeitpunkte aufteilen kann, zu denen er jeweils entscheidet, ob die Absicherung überhaupt noch benötigt wird. Dies könnte unter Umständen nicht mehr der Fall sein, wenn das zugrunde liegende internationale Geschäft des Konzerns wider Erwarten nicht zustande gekommen ist. Der exakte Wert einer Installment Option im Black-Scholes Modell besteht aus einem Ausdruck von Mehrfachintegralen, wohingegen die Anwendung verschiedener Bewertungsmethoden auf diesen approximierte Werte liefert. Die Untersuchung des Verhaltens mehrerer bekannter Methoden und die Entwicklung einer neuen Bewertungsformel für Installment Option ist Inhalt dieser Arbeit. Weiterhin wird die kontinuierliche Version der Installment Option betrachtet und für diese ein neuer Hedge bewiesen.
Da die benötigte Rechenleistung heut zu Tage stark gestiegen ist, ist es immer wichtiger schnelle Schaltungen und Transistoren zu erzeugen. Dabei gelangt man langsam an eine physikalische Grenze welche einerseits bedingt ist durch die Größe der verwendeten Strukturen und andererseits viel fundamentaler durch die Schaltzeit des verwendeten Transistormaterials Silizium (Si). Die Beweglichkeit der Elektronen im normalen Silizium bildet eine Einschränkung für die Leistungsfähigkeit der Transistoren auf Si-Basis. Um diese Beweglichkeit zu erhöhen, ist es mittelfristig notwendig auf andere Halbleitermaterialien umzusteigen. Ein Halbleiter, der sich dafür anbietet ist das Germanium (Ge), das zwar mit dem Silizium über die Mitgliedschaft zur selben Hauptgruppe verwandt ist, doch durch seine Zugehörigkeit zur nächst höheren Periode einen größeren Radius aufweist. Dies führt unter anderem zu einer größeren Gitterkonstante im Germaniumkristall. Sowohl beim Siliziumdioxid (SiO2) als auch beim Germaniumdioxid (GeO2) handelt es sich um Isolatoren. Leider ist GeO, im Vergleich zu SiO22 leichter wasserlöslich, was bei der Prozessierung zu großen Schwierigkeiten führt und eine komplette Neuentwicklung des Produktionsprozesses zur Folge hat. Da Germanium als Ersatz für Silizium noch nicht einsatzreif ist, wurde ein Verfahren entwickelt, mit dem es möglich ist Silizium mit einer größeren Gitterkonstante (Streckung um 1% in X- und Y-Richtung) zu erhalten. Dies führt, zuerst unerwartet, zu einer erhöhten Ladungsträgerbeweglichkeit in diesem „strained silicon“ (sSi). Die höhere Ladungsträgerbeweglichkeit führt neben einer kürzeren Schaltzeit auch zu einer geringeren Leistungsaufnahme in den Prozessoren....
Wir haben uns mit der Leitfähigkeitsdynamik von Barium-Natrium-Niobat-Kristallen (BSN-Kristallen) auseinandergesetzt und haben verschiedene Untersuchungen zum Themenkreis Lyapunov-Exponenten anhand von experimentellen BSN-Zeitreihen durchgeführt. Als einen typischen größten Lyapunov-Exponenten von chaotischen BSN-Zuständen erhalten wir Werte in der Größenordnung von 0.1 / s. Der Maximalwert entspricht ca. 3.5 bits pro Attraktorumlauf. Wir beobachten für die Mehrzahl der chaotische BSN-Zustände entlang der unersuchten Ruelle-Takens-Newhouse-Route (RTN-Route) zwei positive Lyapunov-Exponenten mit einem schmalen Übergangsbereich in dem wir nur einen positiven Lyapunov-Exponenten erkennen. Diesen Befund interpretieren wir als eine kompleer werdende Dynamik mit wachsender Stromstärke durch den Kristall, die wir auch durch eine kompliziertere Attraktorstruktur der BSN-Zustände entlang der RTN-Route ins Chaos bestätigen können. Die Abschätzung von Lyapunov-Exponenten der BSN-Zustände entlang der RTN-Route bestätigen die meisten der Ergebnisse, die wir bisher mit anderen Verfahren erhalten haben. Die Kolmogorov-Entropie K1 die wir mit Gleichung (5) aus den positiven Lyapunov-Exponenten bestimmen, ist allerdings um etwa einen Faktor vier kleiner als Abschätzungen der Entropie K2, die sich aus Korrelationsbetrachtungen in vorangegangenen Untersuchungen ergeben haben. Durch die Untersuchungen zu lokalisierten Lyapunov-Exponenten erhalten wir eine detailliertere Beschreibung der BSN-Dynamik im rekonstruierten Ersatz-Phasenraum. Wir erkennen an verschiedenen Beispielen, daß die Attraktoren von BSN-Zuständen entlang der RTN-Route durch mindestens einen markanten Bereich mit großen positiven lokalisierten Lyapunov-Exponeten ausgezeichnet sind. Bezüglich der Variation der Attraktoren entlang der RTN-Route beobachten wir, wie sich bevorzugt diese Bereiche in ihrer Form verändern. Die chaotischen Zustände sind durch eine Attraktorregion ausgezeichnet, die einen sichtbar größeren lokalisierten Lyapunov-Exponenten besitzt, als die restlichen Gebiete. Wir führen diese Beobachtung auf das lokale Aufbrechen eines 2-Frequenz-Torus zurück und können diese Vermutung durch Untersuchungen zu einem chaotischen Zustand aus der RTN-Route belegen. Die Simulationsergebnisse zur BSN-Modellgleichung zeigen, daß die Gleichung innerhalb der untersuchten Parameterbereiche kein chaotisches Verhalten generiert. Die aus experimentellen Daten angepaßten Parametervektoren ->k deuten darauf hin, daß die Lösungen periodische Inseln in einer Fixpunktlandschaft darstellen. Mit den entwickelten Methoden zur Bestimmung von Lyapunov-Exponenten aus Delay-Differentialgleichungen stellen wir die Grundlage bereit, um zukünftige Untersuchungen an gekoppelten Modellgleichungen durchführen zu können.
Zunächst wurde die Notwendigkeit von Schemaänderungen erläutert und verschiedene Ansätze aus der Literatur beschrieben, Schemaänderungen in laufenden Systeme so durchzuführen, dass eine möglichst einfache und automatisch stattfindende Konvertierung der betroffenen Datenobjekte erfolgen kann. Beim Vergleich erweist sich das Konzept der Schemaversionierung als die leistungsfähigste Lösung. Der Grundgedanke der Schemaversionierung ist, durch jede Schemaänderung eine neue Schemaversion zu erstellen, wobei die alte Schemaversion weiterhin benutzt werden kann. Die Datenobjekte liegen ebenfalls in mehreren Versionen vor und die Schemaänderung wird auf Objektebene nachempfunden, indem Datenänderungen propagiert, d.h. die Daten automatisch konvertiert werden. Für die Propagation werden die Beziehungen zwischen den Schemaversionen ausgenutzt. Mit dem Konzept der Schemaversionierung ist es möglich, mehrere Versionen eines Schemas parallel zu benutzen und nur die auf die Datenbank zugreifenden Applikationen anzupassen, die auch wirklich von der Schemaänderung betroffen sind. Diese Diplomarbeit ist Teil des COAST-Projekts, das die Schemaversionierung als Prototyp umsetzt. In COAST existierte vor dieser Diplomarbeit nur die Möglichkeit, einfache Schemaanderungen durchzuführen. Neu wurden komplexe Schemaanderungsoperationen eingeführt und das Konzept der Propagation entsprechend erweitert. Komplexe Schemaänderungen unterscheiden sich von einfachen Schemaänderungen dadurch, dass sie Attribute aus mehreren Quellklassen in einer Zielklasse (oder andersherum) vereinen können. Die bereits in kurz angeschnittenen Default-Konvertierungsfunktionen wurden genauer untersucht und konkret eingeführt. Es wurden mehrere typische Schemaänderungsoperationen vorgestellt und darauf untersucht, ob sie mit den bisherigen einfachen Schemaänderungsoperationen durchführbar waren oder ob dazu komplexe Schemaänderungsoperationen nötig sind. Außerdem wurde analysiert, ob das System für die entsprechenden Operationen automatisch sinnvolle Defaultkonvertierungsoperationen generieren kann oder ob ein Eingriff des Schemaentwicklers notwendig ist. Dazu wurden sie in eine von vier Kategorien eingeteilt, die aussagen, ob einfache oder komplexe Schemaänderungsoperationen nötig sind und ob sinnvolle Default-Konvertierungsfunktionen ohne Eingriff des Schemaentwicklers erzeugt werden können oder nicht. Zu jeder der aufgezahlten Schemaänderungsoperationen wurde die entsprechende vom System erzeugte Default-Konvertierungsfunktion aufgeführt und im Falle, dass sie der Schemaentwickler uberprüfen muss, angegeben, wo noch potenzieller Bedarf für manuelle Änderungen vorliegt. Die Auswirkungen der Einführung von komplexen Schemaänderungsoperationen auf die Propagation wurde im nächsten Kapitel analysiert und dabei festgestellt, dass das bisherige Konzept der Propagationskanten zwischen je zwei Objektversionen desselben Objekts nicht mehr ausreicht. Entsprechend wurde das neue Konzept von kombinierten Propagationskanten entwickelt, das Kanten zwischen mehr als nur zwei Objektversionen zulässt. Dazu wurden verschiedene Lösungsmöglichkeiten miteinander verglichen. Weiter wurden verschiedene Ansätze fur die Darstellung und Speicherung von Konvertierungsfunktionen vorgestellt und entschieden, die Konvertierungsfunktionen konkret in textueller Darstellung in den Propagationskanten zu speichern. Fur die Spezifizierung der gewünschten Konvertierungen bei der Propagation wurde eine Konvertierungssprache entwickelt und nach verschiedenen Gesichtspunkten konzipiert. Diese Gesichtspunkte umfassen sowohl den nötigen Funktionsumfang der Sprache wie auch entwurfstechnische Aspekte. Sämtliche Befehle der entwickelten Sprache wurden detailliert vorgestellt und abschließend die Sprache in BNF (Backus-Naur-Form) präsentiert. COAST ist inzwischen als Prototyp implementiert und wurde u.a. auf der CeBIT '99 vorgestellt (s. [Lau99b] und [LDHA99]). Nach einer Beschreibung der Funktionsweise und des Aufbaus von COAST und insbesondere des Propagationsmanagers wurden einige Implementierungsdetails vorgestellt und verschiedene Betrachtungen zur moglichen Optimierung beschrieben. Die Ziele der Diplomarbeit wurden damit erreicht: Die Schemaevolution kann mit den Vorzügen der Versionierung durchgeführt werden. Komplexe Schemaänderungen sind nun möglich und wurden ins Modell integriert. Die Propagation wurde entsprechend erweitert und eine Sprache zur Spezifikation der Propagation entwickelt.
Diese Arbeit entstand im Rahmen des Schwerionenexperiments NA49 am CERN. Auf der Suche nach einem neuen Zustand von Kernmaterie, dem Quark-Gluon-Plasma, werden dort im SPS (Super-Proton-Syncrhotron Bleiionen auf eine Energie von 158 GeV pro Nukleon beschleunigt und dann auf eine dünne, im Laborsystem ruhende, Bleifolie (Target) gelenkt. Ziel ist es, in zentralen Stößen zweier Bleikerne ein ausgedehntes Volumen hochkomprimierter und heißer stark wechselwirkender Materie zu erzeugen. Kernmaterie im Grundzustand besitzt eine Dichte von rho o ~ 0,14 Nukleonen pro Kubikfermi. Damit ergibt sich mit der Masse der Nukleonen von etwa 939 MeV/c exp 2 eine Energiedichte im Grundzustand von 130 MeV/fm exp 3. Theoretische Überlegungen im Rahmen der Quantenchromodynamik (QCD, die Eichtheorie der starken Wechselwirkung) sagen voraus, daß sich bei einer Energiedichte von etwa 2-3 GeV/fm exp3 und einer Packungsdichte der hadronischen Materie von 10-15 rho 0 die normalerweise in den Hadronen eingeschlossenen Quarks aus ihren Bindungen lösen. Aufgrund dieses als deconfinement bezeichneten Vorgangs könnte ein Plasma aus freien Quarks und Gluonen entstehen. Die letzteren sind die Eichbosonen der starken Wechselwirkung. Ein solcher Zustand hat einige Mikrosekunden nach dem Urknall exisitiert und wird heute im Innern von Neutronensternen vermutet. Die Lebensdauer dieses hochkomprimierten und heißen Zustands während einer Schwerionenkollision ist mit T * 10 exp -23zu kurz, um direkt beobachtet werden zu können. Daher versucht man, aus den hadronischen Reaktionsprodukten Rückschlüsse auf diesen Zustand zu ziehen. Wichtige Meßgrößen sind die Rapidität y und der Transversalimpuls pT der Teilchen nach der Reaktion. Die Rapidität ist ein Maß für die longitudinale Geschwindigkeit der Teilchen entlang der Strahlrichtung. Aus der Rapiditätsverteilung nach dem Stoß kann man bestimmen, wie stark die Projektilnukleonen abgebremst wurden und wieviel Energie somit in der Reaktionszone deponiert wurde. Ein Großteil dieser Energie wird zur Produktion von Hadronen benutzt. Die Transversalimpulsverteilung dieser Teilchen ähnelt der einer thermischen Verteilung. Damit kann im Rahmen von thermodynamischen Modellen der Reaktionszone (Feuerball) eine Temperatur zugeschrieben werden. Durch Messung von Zwei-Pion-Korrelationen kann auf die Größe des Reaktionsvolumens zum Zeitpunkt der Entkopplung der Hadronen von der Reaktion geschlossen werden. Sowohl die Multiplizität der Hadronen als auch ihre "chemische" Zusammensetzung (z.B. Pion, Kaon oder Lambda) liefern wichtige Randbedingungen für Modellvorstellungen über die Dynamik einer Schwerionenkollision. Dazu ist es notwendig, nicht nur die Anzahl der Hadronen pro Ereignis zu messen, sondern auch diese Teilchen zu identifizieren.
Die vorliegende Diplomarbeit lässt sich dem Gebiet der Terahertz-Physik (THz-Physik) zuordnen, also dem Gebiet der Physik, das sich mit der Erzeugung und Detektion von Ferninfrarotstrahlung beschäftigt. THz-Strahlung stellt dabei die Verbindung zwischen den elektromagnetischen Mikrowellen und den Wellen des infraroten Frequenzbereiches dar. Damit umfasst der THz-Bereich Frequenzen von etwa 100 GHz bis zu 100 THz. Die Forschung, die sich mit diesem Frequenzbereich beschäftigt, ist mittlerweile stark differenziert. Dabei geht es auf der einen Seite um die Entwicklung neuer bzw. die Weiterentwicklung und Optimierung bestehender THz-Erzeugungs- und Detektionsverfahren, auf der anderen Seite geht es um die Frage nach den möglichen Anwendungsgebieten für die entwickelten THz-Techniken. Entwickelt werden sowohl gepulste wie auch Dauerstrich-THz-Systeme, die auf einer Vielzahl verschiedener physikalischer Emissionsprozesse basieren. Die Anwendungsseite der THz-Forschung umfasst Gebiete wie die Spektroskopie, d.h. die Materialcharakterisierung und -untersuchung, aber auch komplexe biomedizinische Untersuchungsverfahren, wie z.B. die Krebsdiagnostik in der Onkologie. In der Bandbreite der weltweiten THz-Aktivitäten befindet sich diese Arbeit sowohl im Bereich der Entwicklung von THz-Techniken als auch in dem eher anwendungsbezogenen Bereich: Zunächst werden im zweiten Kapitel die verwendeten THz-Techniken und Messaufbauten vorgestellt, ebenso wie deren Funktionsweisen und speziellen Eigenschaften. Das dritte Kapitel beschäftigt sich mit der experimentellen Untersuchung von großflächigen THz-Emittern in gepulsten Lasersystemen. Diese weisen gegenüber den häufig verwendeten punktförmigen THz-Emittern einige grundlegende Unterschiede auf. Diese Unterschiede sollen zunächst durch die in das Kapitel einführenden theoretischen Grundlagen herausgearbeitet und danach anhand eines elektrooptischen Emitters und eines elektrisch vorgespannten Halbleiteremitters überprüft werden. In den folgenden Kapiteln wendet sich der Fokus dann mehr der Anwendung von THz-Strahlung zu. Dazu finden im vierten Kapitel Überlegungen und Experimente zu der Charakterisierung von, zunächst anorganischen, mehrschichtigen Systemen auf der Basis von Halbleiterstrukturen statt, die mit einem Ausblick auf eine biomedizinische Anwendung der THz-Strahlung, bei der Untersuchung von Zähnen, abgeschlossen werden. Im fünften Kapitel soll ein Silizium-Paraffin-Gemisch auf seine Stoffigenschaften untersucht werden. Für dieses Gemisch lassen sich die Stoffeigenschaften im THz-Bereich mittels des Mischungsverhältnisses der beiden Ausgangsmaterialien anpassen. Mögliche Anwendungen für ein solches Material sind indexangepasste Füllungen von Zwischenräumen, um störende Reflexionen an den jeweiligen Grenzflächen zu vermeiden; so wie die Konstruktion von Antireflexionsschichten für THz-Optiken. Beide Anwendungen werden in Form von Experimenten vorgestellt. Abschließend werden alle Ergebnisse in einem Fazit zusammengefasst, und es erfolgt ein Ausblick auf weitere Untersuchungen.
In dem in dieser Arbeit vorgestellten Experiment wurde die Reaktion zwischen molekularem Wasserstoff und hochgeladenen langsamen Ar8+-Ionen untersucht. Ein Augenmerk wurde hierbei auf den Zweifachelektroneneinfang gelegt.
Anhand zwei durchgeführten Messungen mit unterschiedlichen Projektilgeschwindigkeiten 0,2 und 0,36 a.u. und unter zur Hilfenahme des so genannten „over-barrier-Modells“ sollte die Dynamik des H2-Moleküls während des Elektroneneinfangprozesses untersucht werden. Aus den daraus resultierten Ergebnissen sollte die Frage, ob der Einfangsprozess simultan oder sequentiell stattgefunden hat beantwortet werden.
Durch einfache Berechnungen kann mit dem „over-barrier-Modell“ die Distanz, welche das Projektil zwischen dem ersten und dem zweiten Elektroneneinfang zurücklegt, in Abhängigkeit von dem Stoßparameter ermittelt werden. Dieser Wert ist der Hauptbestand aller weiteren Berechnungen.
Die Spektren der Impulsüberträge in Abhängigkeit von der Ausrichtung des Moleküls zu dem Projektilstrahl haben gezeigt, dass das Projektil meist über und unter der Molekülachse streut anstatt links oder rechts am Molekül vorbei zu fliegen.
Die Auftragung der kinetischen Energie der Fragmente gegen den Transversalimpuls des Projektils (Abbildung 5.6) hat ergeben, dass größere Impulsüberträge für den Fall der senkrechten Stellung des Moleküls zu der Strahlachse, zu leicht erhöhten Aufbruchsenegien führt, was durch die Berechnung der Energie zu erklären ist.
Aus der Verteilung der kinetischen Energie (KER), welche die durch Dissoziation entstandenen Wasserstoffionen nach dem Stoß besitzen, kann auf den Verlauf der Reaktion zurück geschlossen werden.
Ein Vergleich der KER-Spektren für unterschiedliche Stoßparameter (Abbildung 5.8 und 5.9) bei festen Geschwindigkeiten hat für die zwei Messungen widersprüchliche Ergebnisse gezeigt. Zu erwarten war eine Verkleinerung der Energiewerte bei ansteigendem Stoßparameter. Dies konnte jedoch nur für den Fall in welchem die Projektilgeschwindigkeit 0,36 a.u. betrug bestätigt werden. Die Abweichung bei der ersten Messung kann durch statistische Fehler kommen, da die Anzahl der Messwerte, die für diese Messungen als „richtige“ angenommen worden, durch das Setzen von verschiedenen Bedingungen stark reduziert wurde.
Letztendlich wurde anhand der Variation der Stoßparameter bei festen Projektilgeschwindigkeiten die Zeitskala während des Stoßes eingeschätzt. Es wurde die Annahme getroffen, dass der Zweifachelektroneneinfang als zweistufiger Prozess abgelaufen ist und die maximal mögliche Zeitspanne zwischen dem ersten und dem zweiten Elektroneneinfang berechnet. Der Vergleich der daraus resultierten Werte mit der Oszillationsdauer des Wasserstoffmoleküls hat die getroffene Annahme widerlegt. Beide Messungen sind laut „over-barrier-Modell“ als einstufiger, schneller Übergang einzuordnen.
Das Ziel dieser Diplomarbeit war die Untersuchung der Reaktion des Zweifachelektroneneinfangs mit einem Augenmerk auf den Unterschied zwischen dem simultanen und dem sequentiellen Verlauf. Die Ergebnisse haben einen zweistufigen Prozess mit hoher Wahrscheinlichkeit ausgeschlossen. Obwohl alle theoretischen Anforderungen für den Einsatz des „over-barrier-Modells“ erfüllt worden sind, hat sich herausgestellt, dass die gemessenen Werte nicht immer eindeutig interpretiert werden konnten. Das lässt darauf schließen, dass das Experiment noch verbessert werden kann, um mögliche Fehlerquellen zu reduzieren. Eine Möglichkeit zur Verbesserung wäre der Einbau eines Elektronendetektors, oder aber die Änderung des Projektilions. Auch längere Messzeiten wären statistisch gesehen von Vorteil. Für die Zukunft sind weitere Experimente mit veränderten Targetgasen und geänderten Projektilgeschwindigkeiten geplant.
Im Rahmen dieser Arbeit wird der aktuelle Stand auf dem Gebiet des Lokalen Lovász Lemmas (LLL) beschrieben und ein Überblick über die Arbeiten zu konstruktiven Beweisen und Anwendungen gegeben. Ausgehend von Jószef Becks Arbeit zu einer algorithmischen Herangehensweise, haben sich in den letzten Jahren im Umfeld von Moser und Tardos und ihren Arbeiten zu einem konstruktiven Beweis des LLL eine erneute starke Beschäftigung mit dem Thema und eine Fülle von Verbesserungen entwickelt.
In Kapitel 1 wird als Motivation eine kurze Einführung in die probabilistische Methode gegeben. Mit der First- und Second Moment Method werden zwei einfache Vorgehensweisen vorgestellt, die die Grundidee dieses Beweisprinzips klar werden lassen. Von Paul Erdős eröffnet, beschreibt es Wege, Existenzbeweise in nicht-stochastischen Teilgebieten der Mathematik mithilfe stochastischer Überlegungen zu führen. Das Lokale Lemma als eine solche Überlegung entstammt dieser Idee.
In Kapitel 2 werden verschiedene Formen des LLL vorgestellt und bewiesen, außerdem wird anhand einiger Anwendungsbeispiele die Vorgehensweise bei der Verwendung des LLL veranschaulicht.
In Kapitel 3 werden algorithmische Herangehensweisen beschrieben, die geeignet sind, von der (mithilfe des LLL gezeigten) Existenz gewisser Objekte zur tatsächlichen Konstruktion derselben zu gelangen.
In Kapitel 4 wird anhand von Beispielen aus dem reichen Schatz neuerer Veröffentlichungen gezeigt, welche Bewegung nach der Arbeit von Moser und Tardos entstanden ist. Dabei beleuchtet die Arbeit nicht nur einen anwendungsorientierten Beitrag von Haeupler, Saha und Srinivasan, sondern auch einen Beitrag Terence Taos, der die Beweistechnik Mosers aus einem anderen Blickwinkel beleuchtet.
Es wurde eine Apparatur zur Messung der Ladungszustandsverteilung von langsamen, hochgeladenen Ionen nach der Wechselwirkung in dünnen Foilen aufgebaut und angewendet. Die Ladungszustandsverteilung von Ionen mit Ladungszuständen von 1+ (H) bis 75+(Th) wurden im Geschwindigkeitsbereich von 0.2 bis 0.75 vBohr nach einer 5 nm und 10 nm dicken amorphen Kohlenstoff-Folie bestimmt. Ionen, die die (10 nm)-Folie passierten, befanden sich im wesentlichen in einem Gleichgewichtsladungszustand (1-2+), der sich grob durch das Bohr-Kriterium beschreiben läßt. Die mittleren Endladungszustände von Ionen mit Anfangsladungen >= 33+ zeigten nach der 5 nm dicken Folie eine deutliche Abweichung von diesem Gleichgewicht. Mittlere Ladungszustände bis zu 8.2+ (Th) wurden beobachtet. Es handelt sich dabei um die erste Beobachtung von Nicht-Gleichgewichtsladungszuständen langsamer Ionen nach der Transmission durch einen Festkörper. Dieses Ergebnis wird dahingehend gedeutet, daß die Zeitspanne, die zur Neutralisation und Relaxation der Ionen in der 5 nm Folie zur Verfügung steht, nicht ausreichend ist. Aus den Ergebnissen der Sekundärelektronen Ausbeute wird geschlossen, daß ein Teil der Innerschalen-Plätze bis zum Austritt aus der Folie nicht gefüllt werden konnte. Desweiteren könnte eine Verarmung des Festkörpers an Elektronen im Einschlagsbereich des hochgeladenen Ions vorliegen. Anhand der gesammelten Daten wurde ein semi-empirisches Modell zur Beschreibung des Ladungszustandes eines hochgeladenen Ions in einem Festkörper aufgestellt. Es zeigt sich, daß die Daten gut durch einen zweistufugen Füllprozess beschrieben werden können, der aus einem Aufbau einer Abschirmwolke um das Projektil, sowie der weiteren Abregung besteht. Die charakteristischen Zeiten für Aufbau und Abregung bewegen sich im Bereich von 2 fs. Nach etwa 7 fs kann von einer vollständigen Relaxation des Projektils ausgegangen werden. Die Ergebnisse dieser Arbeit zum Ladungsausgleich der hochgeladenen Ionen wurden in [37] veröffentlicht.
Regulation und Geschlecht : zur feministischen Erweiterung der Regulationstheorie bei Kohlmorgen
(2006)
Die Regulationstheorie bietet Konzepte zur Untersuchung der Bestandsfähigkeit, der Struktur und Dynamik von Gesellschaften, in denen kapitalistische Produktionsweise herrscht. Sie erlaubt es, die Entwicklung des kapitalistischen Weltsystems zu periodisieren und die von Marx zunächst abstrakt als Selbstverwertung des Werts gefasste Kapitalakkumulation in ihren historisch-konkreten Formen zu analysieren. Durch die Neubestimmung der Rolle von sozialen Kompromissen und Kräfteverhältnissen für die kapitalistische Dynamik sowie die Betonung der grundsätzlichen Kontingenz und Offenheit der historischen Entwicklung bietet die Regulationstheorie eine Möglichkeit der Überwindung von deterministischem und ökonomistischem Denken, das im traditionellen Marxismus dominant war, ohne die Möglichkeit einer umfassenden kritischen Gesellschaftstheorie aufzugeben. Zu einer solchen kritischen Gesellschaftstheorie gehört natürlich auch eine Kritik geschlechtsspezifischer Herrschaft und Ausbeutung, die von der Regulationstheorie zwar oft erwähnt, jedoch lange Zeit nicht systematisch in regulationistische Arbeiten einbezogen wurden. Mit Lars Kohlmorgens "Regulation, Klasse, Geschlecht" (2004) haben wir den ersten systematischen Versuch, die Regulationstheorie um die Analyse der Geschlechterverhältnisse zu erweitern und die regulationistischen Kategorien zu diesem Zweck zu reformulieren. Die Frage, ob und inwieweit es Kohlmorgen gelungen ist, die geschlechtertheoretische Leerstelle der Regulationstheorie zu füllen, ist Gegenstand dieser Arbeit.
In dieser Arbeit wurden ionisierende Prozesse inWasserstoff- und Deuterium-Molekülen untersucht. Das Ziel war es dabei insbesondere, doppelt angeregte Zustände näher zu betrachten, d.h. Prozesse, bei denen mit einem UV-Photon beide Elektronen des H2 angeregt werden. Das Molekül zerfällt dann schließlich in ein angeregtes Atom sowie ein Proton und ein Elektron. Diese Doppelanregung konnte in den Messdaten identifiziert werden. Durch die Art der Messung war es möglich, einen umfassenden Überblick über den Photonenenergiebereich von 29 bis 60 eV zu erhalten (siehe Abb. 4.4). Somit konnte die Dynamik verschiedener Prozesse mit sich ändernder Photonenenergie analysiert werden. Es konnte die Einfach-Ionisation vom Einsetzen bis hin zur Doppel-Ionisation beobachtet werden. Zwischen 29 und 38 eV traten dabei Anregungen auf das Q1- und Q2-Band auf. Insbesondere für einen KER<2 eV konnten interessante Strukturen aufgelöst werden, die bei bisherigen Experimenten nur eindimensional, d.h. ohne die Varianz der Photonenenergie, betrachtet werden konnten. Eine Gegenüberstellung der beiden Isotope H2 und D2 zeigte zahlreiche Unterschiede bei der Autoionisation auf. Für den Bereich des KER, der einer Anregung auf das Q2-Band entspricht, konnten außerdem Winkelverteilungen erstellt werden und mit Verteilungen verglichen werden, die aus der direkten Besetzung des (2p sigma u) Zustands resultieren. Dabei wurde für beide Isotope eine Asymmetrie beobachtet. Für höhere Photonenenergien lagen schließlich die Endzustände zu dicht beieinander, um aufgelöst zu werden. Doppelanregungen auf das Q3- und Q4-Band konnten daher hier nicht explizit beobachtet werden. Für künftige Messungen wäre es sicher interessant, das Q1-Band mit einem speziell darauf abgestimmten Spektrometer im entsprechenden Energiebereich genauer zu studieren. So könnten die energetischen Strukturen dieser niederenergetischen Protonen besser aufgelöst und somit der Kontrast zur Besetzung des 1s sigma g Zustands erhöht werden. Außerdem wäre es von Interesse auch Photonenenergien unterhalb von 29 eV zu betrachten, was jedoch an Beamline 9.3.2 der ALS nicht möglich war. Ebenso wäre natürlich der höhere Photonenfluss einer Undulator-Beamline wünschenswert, um eine bessere Statistik zu erhalten. Hier konnte gezeigt werden, dass im Energiebereich, in welchem Anregungen auf das Q3- und Q4-Band möglich sind, nur Intensitäten in höheren Endzuständen (n >=2) auftreten. Um eventuelle Strukturen in diesem Bereich zu studieren ist ein jedoch ein höher auflösendes Spektrometer notwendig. Dies könnte z.B. durch größere MCP realisiert werden.
In dieser Arbeit wurde deutlich, dass die Multilevel Monte Carlo Methode eine signifikante Verbesserung gegenüber der Monte Carlo Methode darstellt. Sie schafft es den Rechenaufwand zu verringern und in fast allen Fällen die gewollte Genauigkeit zu erreichen. Die Erweiterung durch Richardson Extrapolation brachte immer eine Verringerung des Rechenaufwands oder zumindest keine Verschlechterung, auch wenn nicht in allen Fällen die schwache Konvergenzordnung verdoppelt wurde.
Im Falle der Optionssensitivitäten ist eine Anwendung des MLMC-Algorithmus problematisch. Das Funktional, das auf den Aktienkurs angewendet wird, darf keine Unstetigkeitsstelle besitzen, bzw. im Falle des Gammas muss es stetig differenzierbar sein. Die Anwendung der MLMC Methode macht dann vor allem Sinn, wenn sich die Sensitivität als Funktion des Aktienkurses umformen lässt, so dass nur der Pfad der Aktie simuliert werden muss. Nur wenn dies nicht möglich ist, wäre es sinnvoll, die in Kapitel 6.5 am Beispiel des Deltas vorgestellte Methode zu benutzen, in der man einen zweiten Pfad für das Delta simuliert.
Weitere Verbesserungsmöglichkeiten könnten in der Wahl von anderen varianzreduzierenden Methoden liegen oder durch Verwendung von Diskretisierungsverfahren mit höherer starker Ordnung als das Euler-Verfahren (vgl. [7], Verwendung des Milstein-Verfahrens). In diesem Fall ist theoretisch ein Rechenaufwand der Größenordnung O(ϵexp-2) möglich, da die Anzahl der zu erstellenden Samples nicht mehr mit steigendem L erhöht wird. Somit könnte das L so groß gewählt werden, dass der Bias verschwindet und der MSE ausschließlich von der Varianz des Schätzers abhängt. Um diese auf eine Größenordnung von O(ϵexp2) zu bringen, ist es nötig, O(ϵexp2) Pfade zu erstellen (siehe Gleichung (3.6)), was den Rechenaufwand begründet.
Mit zunehmender Automatisierung - sowohl der industriellen Herstellungsverfahren, als auch ihrer Produkte - hat die Regelungstechnik stark an Bedeutung gewonnen. Das Prinzip der Regelung jedoch ist schon lange bekannt. Erste Anwendungen finden sich bereits in der Antike (230 v.Chr. Philon von Byzanz, Schwimmerregelung für Öllampen). Das wohl prominenteste Beispiel ist der Drehzahlregler für Dampfmaschinen, den James Watt 1788 konstruierte. Eine Theorie des Regelkreises wurde dagegen erst Ende des letzten Jahrhunderts entwickelt. Damit war der Weg für den verbreiteten Einsatz von Regelungstechnik geebnet. Aber ihre Bedeutung geht über die rein technischen Prozesse hinaus, indem sich die Theorie der Regelkreise auch zur Untersuchung nichttechnischer zum Beispiel biologischer oder gesellschaftlicher Prozesse anwenden läßt. Viele dieser Prozesse laufen nach dem Prinzip der Regelung ab, denn sie werden auch bei Wirkung äußerer Störungen aufrechterhalten. In diesen Bereichen wird allgemeiner von Kybernetik gesprochen [Steinbuch]. Im ersten Teil der vorliegenden Arbeit wird eine Einführung in die Regelungstechnik gegeben. Daran schließen sich im zweiten Teil Untersuchungen zur Magnetschwebekugel an. Diese theoretischen Betrachtungen sollen als Grundlage für den Aufbau eines Experiments zur Magnetschwebekugel dienen, das im Rahmen des Physikalischen Praktikums für Fortgeschrittene des Instituts für Angewandte Physik an der Universität Frankfurt geplant ist. Anhand einer von einem Elektromagneten in der Schwebe gehaltenen Kugel werden sich die Teilnehmer und Teilnehmerinnen mit den Prinzipien der Regelungstechnik vertraut machen können. Dieser Versuch ist in zweierlei Hinsicht interessant. Das System Elektromagnet - Kugel ist ohne Regelung nicht stabil, das heißt die Kugel kann nicht an einem beliebigen Ort unterhalb des Magneten fixiert werden. Dies entspricht auch der Erfahrung. Um so erstaunlicher ist es, wenn der Versuch zu einer Stabilisierung führt. Die verwendeten Methoden entstammen vollständig der Theorie der linearen Regelungen, sodaß der Versuch als elementare Einführung in die Regelungstechnik verstanden werden kann.
Wir haben Aussagen über das Eigenwertspektrum der freien Schwingungegleichung für einen Hohlraum B gesucht, welche unabhängig von der Gestalt des Hohlraumes nur von Gestaltparametern abhängen, die als Integrale über B bzw. über dessen Oberfläche ... Eigenschaften von ganz B darstellen, ohne die lokale Struktur der Oberfläche ... zu enthalten. An drei Testkörpern sehr verschiedener Gestalt (die Gestaltparameter waren ebenfalls verschieden), nämlich Würfel, Kugel und Zylinder, haben wir die Hypothese bestätigt, daß der mittlere Verlauf der Größen "Anzahl N und Summe E aller Eigenwerte unterhalb einer willkürlich vorgegebenen Schranke ER" in Abhängigkeit von der Wahl dieser Schranke i.w. gestaltunabhängig ist. Für den Quader lassen sich im Falle asymptotisch großer ER explizite Ausdrücke für N und E angeben, die für alle drei Testkörper nicht nur den mittleren Verlauf von N und E bei kleinen (endlichen) ER in zweiter Näherung (in Potenzen von Ef exp -1/2) richtig wiedergaben, sondern auch als numerische Näherung dss mittleren Verlaufs von N bzw. E brauchbar waren (relative Kleinheit des Restgliedes). Die mathematische Vermutung, daß sich für aS, große Ef eben diese expliziten Ausdrücke für N bzw. E' als gestaltunabhängig erweisen, soll in einer weiteren Arbeit behandelt werden. Das Ergebnis dieser Arbeit ist überall dort anwendbar, wo Eigenschaften des Spektrums der freien Schwingungsgleichung mit Randbedingungen benötigt werden, die sich aus N. bzw. E ableiten lassen; also vor allem in der Akustik (Zahl der Obertöne eines Hohlraumes unterhalb einer vorgegebenen Frequenz), in der Theorie der Hohlleiter usw. In dieser Arbeit haben wir die Anwendung auf ein einfaches Atomkernmodell betrachtet, das Fermigas-Modell. Es beschreibt den Kern als freies ideales in einem Hohlraum von Kerngestalt befindliches Fermigas. Dann bedeutet N die Teilchenzahl und E die Gesamtenergie des Systems. Ef ist die Fermigrenzenergie und es ist (Ef exp 3/2 /6*Pi*Pi) die Sättigungsdichte im Innern des Systems. Der Koeffizient des zweiten Termes des expliziten (aS.) Ausdrucks für E kann dann als Oberflächenspannung gedeutet werden. Die spezifische Hodell-Oberflächenspannung läßt sich in Abhängigkeit von dem Gestaltparametern und der Siittigungsdichte des Atomkernes schreiben. Nach Einsetzen der empirischen Werte erhalten wir numerisch einen Wert, der nur um 20% vom empirisch aus der v. Weizsäckerformel bekannten Wert für die spez. Oberflächenspannung abwich, obgleich das Modell nur eine äußerst einfache Näherung der Kernstruktur sein kann. Daher gelangten wir zu der Überzeugung, daß der Oberflächenanteil der Bindungsenergie wesentlich ein kinetischer Effekt ist.
Die vorliegende Arbeit befaßt sich mit der Planung und dem Aufbau der mehrkanaligen Strahlführung im Anschluß an den VE-RFQ Beschleuniger der Frankfurter EZR-VE-RFQ Anlage. Die Umsetzung der mit Hilfe von Simulationen gefundenen Strahlführung war ebenso Gegenstand dieser Arbeit wie erste Tests der neuen Anlagenkomponenten. Mit der Fertigstellung dieses Teilabschnitts steht jetzt der Energiebereich von 100–200 keV/u ergänzt durch den niederenergetischen Bereich von 5–60 kV für Experimente mit mehrfach geladenen Ionen in zwei von drei geplanten Strahlkanälen zur Verfügung. Die Kombination, bestehend aus EZR-Ionenquelle und VE-RFQBeschleuniger, erlaubt einerseits atomphysikalische Experimente mit speziell präparierten Ionenstrahlen und verschiedenen Ionensorten. Andererseits liefert die verwendete Ionenquelle hohe Intensitäten an mehrfach geladenen Ionen, die für spezielle Anwendungen der Materialforschung benötigt werden. Diese Arbeit gliedert sich in drei Abschnitte, im ersten Schritt wurde die HF-Einkopplung des Beschleunigers modifiziert und der Ionenstrahl im transversalen Phasenraum charakterisiert. Dabei hat sich gezeigt, daß die experimentell gefundene Geometrie der Einkoppelschleife im Betrieb nur in einem sehr geringen Bereich verfahren werden muß, um optimale Anpassung über den gesamten Frequenzbereich zu erreichen. Auf Basis der gemessenen Emittanzen erfolgte die Planung der Strahlführung mit Hilfe von Simulationsprogrammen im zweiten Schritt. Das Ziel war der Aufbau von drei Strahlkanälen mit unterschiedlichen Anforderungen an das Profil des Ionenstrahls. Im letzten Schritt stand die Umsetzung der geplanten Strahlführung. Verbunden mit diesem Schritt war die Konstruktion und Vermessung der ionenoptischen Elemente und der Aufbau der Strahlführung unter Verwendung von vorhandenen magnetischen Quadrupolen und Ablenkmagneten. Abschließend wurde die Funktionsfähigkeit des vorgestellten Aufbaus als Bestandteil der kompletten EZR-VE-RFQ-Anlage im Betrieb getestet. Im Rahmen des Aufbaus und der ersten Experimente waren diverse technische Fragestellungen aus dem Bereich der Beschleunigerphysik, über die Ionenoptik bis hin zur Ionenquellenphysik zu bearbeiten und Probleme zu lösen. Die ersten Tests der einzelnen ionenoptischen Elemente und der Betrieb der gesamten Strahlführung haben gezeigt, daß die gestellten Aufgaben erfüllt werden. Nach der Fertigstellung des Grundaufbaus der Strahlführung für die nachbeschleunigten Ionen durch den Aufbau des noch fehlenden 90°-Kanals und den Aufbau einer Strahldiagnose, muß im nächsten Schritt die Optimierung der einzelnen Strahlkanäle erfolgen. Das Ziel liegt dabei in der Verbesserung der Transmission und der Qualität der zur Verfügung gestellten Ionenstrahlen. Damit verbunden ist auch die Charakterisierung der Ionenstrahlen in den verschiedenen Strahlzweigen. Unabhängig davon ist die Untersuchung der Injektion in den RFQ notwendig, zur Verbesserung der Anpassung des Quellenstrahls an die Akzeptanz des Beschleunigers und zur Diagnose der Ursache für die Teilchenverluste in diesem Teilabschnitt des Aufbaus.
Im Rahmen der vorliegenden Arbeit wurde eine Apparatur zur Messung von Fotoströmen in Halbleitermaterialien aufgebaut und charakterisiert. Der Fotostrommeßplatz gestattet es, mit spektral hoher Auflösung Fotostromspektren mit sehr gutem Signal-zu-Rausch-Verhältnis aufzunehmen, wobei die Möglichkeit besteht, die Proben bei tiefen Temperaturen einem äußeren Magnetfeld bis 9T auszusetzen. Mit Hilfe einer elektrischen Kontaktierung auf der Probenvorder- bzw. -rückseite kann durch Anlegen einer Spannung ein variables, homogen über den intrinsischen Bereichen der Proben abfallendes, elektrisches Feld erzeugt werden. Mit Hilfe des Meßaufbaus wurden Fotostromspektren von GaAs/Al0,3Ga0,7As-Übergittern fur verschiedene elektrische und magnetische Felder aufgenommen. Unter Variation des elektrischen Feldes ohne ein zusätzliches Magnetfeld wird deutlich die sog. Wannier-Stark-Quantisierung beobachtet. Es lassen sich die vor einiger Zeit an der RWTH Aachen an identischen Probenstrukturenvorgenommenen Untersuchungen bestätigen bzw. reproduzieren. Die magnetfeldfreien Messungen dienen ferner der genauen Bestimmung des über dem Übergitter abfallenden elektrischen Feldes in Abhängigkeit von der an der Probe angeliegenden Vorspannung. Die Feldbestimmung erfordert dabei aufgrund des Einflusses der Coulomb-Wechselwirkung der Ladungstrager auf den Verlauf der Ubergange in Abhängigkeit vom elektrischen Feld eine gewisse Vorsicht. Messungen ohne Magnetfeld sind außerdem bei der Zuordnung der Übergange in den mit Magnetfeld gemessenen Fotostromspektren äußerst hilfreich. Im Rahmen dieser Arbeit wurden erstmals Fotostrommessungen an Halbleiterübergittern im magnetischen Feld durchgeführt, wobei der gleichzeitige Einfluß eines elektrischen und eines magnetischen Feldes untersucht wurde. Dazu wurde bei elektrischen Feldstärken im Wannier-Stark- sowie im Minibandbereich das äußere Magnetfeld bis 9T variiert. Im Magnetfeld zeigt sich eine deutliche Landau-Quantisierung. Die zu den Landau-Niveaus gehorenden exzitonischen Zustände der Wannier-Stark-Übergänge schieben mit steigendem Magnetfeld zu höheren Energien. In den gemessenen Spektren läßt sich eine Vielzahl von Übergangen ausmachen, die zu einem großen Teil den einzelnen Leichtloch- bzw. Schwerloch-Übergangen zugeordnet werden können. Modellrechnungen zeigen, daß man zu jedem Wannier-Stark-Übergang einen eigenen exzitonischen Landau-Facher erwarten kann, worauf es in den Messungen ebenfalls Hinweise gibt. Eine zweifelsfreie Identifikation von mutmaßlich im Magnetfeld drehimpulsaufgespaltenen Niveaus kann erst geleistet werden, wenn weitere Messungen bei definierter Polarisation des Anregungslichtes vorliegen. Aus den aufgenommenen Fotostromspektren der Übergitterproben lassen sich für spätere zeitaufgelöste Untersuchungen einige interessante Energiebereiche fur mögliche Anregungen von Quanteninterferenz-Phänomenen ableiten. Die aus den Spektren ermittelten Linienbreiten der Wannier-Stark-Übergange von 3-4 meV garantieren eine ausreichende Schmalbandigkeit für die Anregung von Bloch-Oszillationen. Die Linienbreiten sind, bis auf wenige Ausnahmen, unabhängig vom Magnetfeld, so daß keine signifikante Magnetfeldabhängigkeit der beispielsweise für Vier-Wellen-Misch-Experimente relevanten Dephasierungszeiten der Interband-Polarisation zu erwarten ist. Die Ergebnisse lassen allerdings keine Ruckschlüsse auf die Magnetfeldabhängigkeit von Intraband-Polarisationen zu.
Gitter sind diskrete additive Untergruppen des Rn. Praktische Bedeutung erlangte die Gittertheorie durch effziente Algorithmen zur Gitterbasenreduktion, mit deren Hilfe Optimierungsprobleme gelöst werden können. Der erste dieser Algorithmen wurde von Lenstra, Lenstra und Lovasz entwickelt. Schnorr und Euchner entwickelten effizientere Algorithmen. Sie untersuchten die Güte der Reduktion anhand von Rucksack-Problemen. Bei einem Rucksack-Problem der Dimension n müssen aus einer gegebenen Menge von n Gewichten diejenigen bestimmt werden, die zusammen einen gegeben Rucksack genau ausfüllen. Die Algorithmen von Schnorr und Euchner lösen fast alle Rucksack-Probleme der Dimensionen 42 bis 66. Meine neuen verbesserten Algorithmen lösen einen noch größeren Anteil der Rucksack-Probleme in kürzerer Rechenzeit. Gleichzeitig sind sie in Dimensionen 103 bis 151. Coster, Joux, LaMacchia. Odlyzko, Schnorr und Stern geben eine untere Schranke für die Größe der Gewichte von Rucksack-Problemen an, die fast immer gelöst werden können. Die Gewichte werden zufällig aus einem Intervall natüurlicher Zahlen gewählt. Dieses Ergebnis erweitere ich auf k-fache Rucksack-Probleme. Weiterhin kann für für die Wahl jedes Gewichtes eine beliebige Menge ganzer Zahlen festgelegt werden. Ebenso sind Mengen mit nur einem Element zulässig.
Untersuchungen des elektrischen und magnetischen Feldes in den NA49-TPCs mit Hilfe von Laserspuren
(1997)
Das Experiment NA49 am Europäischen Zentrum für Teilchenphysik (CERN) in Genf dient der Erforschung von relativistischen Schwerionenkollisionen. Dieses Feld der Kernphysik hatte seine Anfänge erst in den 70er Jahren am BEVALAC in Berkeley und untersucht zur Zeit Schwerionenstöße von einigen hundert MeV/Nukleon bis 200 GeV/Nukleon. Nach den heuteüblichen Experimenten mit festem Target sollen in der Zukunft Colliderexperimente mit Schwerionen neue Energiebereiche erschließen. Während die Experimente dadurch erleichtert werden, daß sie zumeist auf bestehende Beschleunigeranlagen aus der Hochenergiephysik zurückgreifen können, ist die theoretische Beschreibung relativistischer Schwerionenstöße ausgesprochen problematisch. Vom Verständnis dieser Reaktionsmechanismen erhoff t man sich aber einen Zugang zur starken Wechselwirkung bei niedrigen Impulsüberträgen, insbesondere in ausgedehnten Systemen.
Konzept und Implementierung eines Systems zur Visualisierung von Zelldifferenzierungssimulationen
(2004)
Ziel der vorliegenden Arbeit ist es, zunächst den Stand der Forschung auf dem Gebiet der Zelldifferenzierungssimulatoren und –visualisierungen zu ermitteln. Davon ausgehend wurde ein eigenes Konzept für ein Visualisierungssystem entwickelt. Es wurde in einer prototypischen Implementierung mit dem Titel D-VISION umgesetzt. Die Recherchearbeiten ergaben, dass in der Forschung bisher hauptsächlich biochemische Reaktions-Netzwerke, die mithilfe von Differentialgleichungen gelöst werden, für Zell-Simulationen benutzt werden. Der dabei verwendete Abstraktionsgrad der repräsentierten Zellen ist zu hoch, um die gestellten Anforderungen einer realistischen 3D-Darstellung der Zellen zu erfüllen. Die grundlegende Idee, die Zelldifferenzierung aufgrund ihrer Genexpression also der in den Zellen vorhandenen Substanzen zu beschreiben, wurde als Basis für das Konzept für D-VISION verwendet. Die Daten, die visualisiert werden sollen, sind die Zellen selbst, die Substanzen, die in der Zelle vorhanden sind, Substanzen an der Zellhülle und die Gene, die in einer Zelle aktiv sind. Die Visualisierung wird durch Darstellung von aufeinander folgenden Standbildern vorgenommen, in denen navigiert werden kann. Zellen werden in Form von Kugeln repräsentiert, die, um eine realistischere Ansicht zu erreichen, so deformiert werden, dass sich die Kugeloberflächen aneinander angleichen. Die Deformation bietet nicht nur in der Ansicht von außen ein natürliches Bild. Auch die Möglichkeit, ein Schnittbild durch den Zellhaufen zu erzeugen, ergibt durch die Deformation eine mit realen Mikroskopieaufnahmen vergleichbare Darstellung. Ein solches zweidimensionales Schnittbild kann durch Verschieben der Schnittebene eine stufenlose Fahrt durch die Schichten des simulierten Zellhaufens zeigen. Neben den Zellen selbst, liegt ein besonderes Augenmerk auf der Darstellung von Substanzkonzentrationen. Sie werden durch kleine Objekte (Tiny Cubes) dargestellt. Allerdings unterscheidet sich ihr Einsatz von der bisher verbreiteten Methode, volumetrische Daten durch Farbskalen zu repräsentieren. Sie geben die Stoffmengen allein durch ihre Anzahl wieder. Um Zusammenhänge mit der Zelldifferenzierung erkennbar zu machen, können bis zu drei verschiedene Stoffe gleichzeitig angezeigt werden. Der Benutzer hat die Möglichkeit, Regeln bezüglich des Zustandes von Zellen zu formulieren. Die so definierten Zellklassen, fassen Zellen gleichen Typs zusammen und ermöglichen so die Darstellung von Zelldifferenzierung. D-VISION wurde konzipiert, um auch mit Simulatoren zusammen zu arbeiten, die Grid Computing für ihre Berechnungen nutzen. Ein separater Datenaufbereiter soll die Simulationsdaten verwalten. Der entwickelte Prototyp ist flexibel genug, um auch mit einfacheren Simulatoren zusammenzuarbeiten. Auf welchem Weg die visualisierten Daten gewonnen werden, spielt keine Rolle. Auch reine Messwerte, können zu guten Bildern führen.
Um zu sehen, was im atomaren Bereich "die Welt im Innersten zusammenhält", werden seit fast einem Jahrhundert atomphysikalische Stoßexperimente durchgeführt. Es ist also möglich, durch den Beschuß von "Targetteilchen" mit "Projektilteilchen" Aussagen über verschiedene Größen in der atomaren Welt zu treffen. Hierbei werden nicht nur Eigenschaften wie der "Durchmesser" oder eine "Ladungsverteilung" eines Atoms untersuchbar, sondern - durch entsprechend geschickte Variation des Prinzips "Stoßexperiment" - auch Größen, die ein Laie niemals mit einem Stoß zwischen zwei Teilchen in Verbindung brächte. Moderne Experimente erlauben es inzwischen zum Beispiel, selektiv die Impulsverteilung einzelner Elektronen in Atomen und Molekülen sichtbar zu machen, indem diese durch Photonen entsprechender Energie aus dem zu untersuchenden Teilchen herausgerissen werden. Besagte Experimente stellen nicht nur hohe Anforderungen an die Nachweiseinheit, die den eigentlichen Prozeß sichtbar macht, sondern auch an das verwendete Target und das Projektil. Im Bereich der atomaren Grundlagenforschung bietet sich Helium als zu untersuchendes Objekt oftmals an. Um die Natur zu verstehen, ist es nötig, gemessene Größen mit einer Theorie, die den untersuchten Vorgang beschreiben soll, zu vergleichen. Im Bereich der theoretischen Physik kann bisher nur das Wasserstoffatom, das ein sog. "Zweikörperproblem" ist, ohne Näherungsverfahren vollständig beschrieben werden. Ein Heliumatom stellt also das "einfachste" atomare System dar, das als noch nicht "komplett verstanden" gilt. Genauso ist ein Heliumatom mit seinem Atomkern und seinen zwei Elektronen das erste "Mehrelektronensystem" im Periodensystem. Es können hier also im Vergleich zu Wasserstoff auch Korrelationseffekte zwischen Elektronen untersucht werden. Die gesamte Dynamik innerhalb des Atoms erhält einen anderen Charakter. Bisherige Experimente mit Helium innerhalb unserer Arbeitsgruppe haben allerdings eine prinzipielle Beschränkung: es ist im Allgemeinen sehr schwierig, den Spin der beteiligten Elektronen im Experiment nachzuweisen, so daß alle bisherigen Messungen immer die Einstellung der Elektronenspins nicht berücksichtigen. Es wird also über den Spin gemittelt gemessen. Ein Weg, dieses Problem zu umgehen, ist, neben einer wirklichen Messung des Spins, den Spin im Anfangszustand - also vor dem Streuexperiment - zu kennen. Dies geschieht in der vorliegenden Arbeit dadurch, daß Heliumatome in einem durch "Mikrostrukturelektroden" erzeugten Mikroplasma angeregt werden, und sich so die Spins ihrer beiden Elektronen zum Teil auch parallel zueinander einstellen. Während bisherige Ansätze das Prinzip verfolgen, die angeregten Heliumatome in Niederdruckplasmen bei einigen Millibar zu erzeugen, wird die Plasmaquelle in dieser Arbeit bei Drücken von bis zu einem Bar betrieben. Dadurch kann das Prinzip des "supersonic jets" ausgenutzt werden, so daß der hier erzeugte Atomstrahl eine interne Temperatur von einigen Millikelvin und eine mittlere Geschwindigkeit von 1000 m/s besitzt. Durch einen nur 10 cm langen Separationsmagneten werden die angeregten Zustände mit Spin (#; #) von den Zuständen mit Spin ("; ") und den nicht- angeregten Heliumatomen getrennt und in einem Fokuspunkt für ein Streuexperiment zur Verfügung gestellt. In der folgenden Arbeit wird also ein sehr kompakter Aufbau eines Gastargets aus angeregtem Helium mit polarisiertem Elektronenspin vorgestellt. Ein Target aus angeregtem Helium hat außerdem einen weiteren großen Vorteil gegenüber gewöhnlichen Heliumtargets. In der modernen experimentellen Physik werden oftmals Laser zur Manipulation von Atomen eingesetzt. So ist es möglich, durch gezielte Anregung eines Atoms mit einem Laser dieses zum Beispiel extrem zu kühlen. Hierzu müssen allerdings Anregungsniveaus im Atom zur Verfügung stehen, die mit den Wellenlängen heutiger Laser erreicht werden können. Das erste Anregungsniveau von Helium liegt jedoch mit 19.8 eV deutlich zu hoch. Der nächst höhere P-Zustand ist von diesem Niveau aber nur noch ca. 1.1 eV entfernt. Photonen dieser Energie können leicht mit Lasern erzeugt werden. Angeregtes Helium ist also durch Laser manipulierbar und liefert so zum Beipiel auch den Ausgangspunkt für die Bose-Einstein Kondensation von Helium.
In vorliegender Arbeit wurde ein lineares Sigma-Modell mit verktoriellen sowie axial-vektoriellen Freiheitsgraden durch Einkopplung des Dilatons verallgemeinert, wodurch Kontakt mit der Skalen-Anomalie erzielt wurde. Anschließend war die Intention, die Zerfallsbreiten des entmischten Sigmafeldes sowie des entmischten skalaren Glueballs, die mit den skalaren-isoskalaren Resonanzen f0(1370) und f0(1500) identi
ziert wurden, auf Baumdiagrammniveau zu berechnen und mit experimentellen Befunden zu vergleichen, um Aussagen über die Natur dieser Resonanzen im Rahmen der durchgeführten Studie machen zu können.
Die Frage, ob das Klima extremer wird, beschäftigt Wissenschaft und Öffentlichkeit mit zunehmender Intensität. Daher ist hier eine extremwertstatistische Untersuchung hinsichtlich Niederschlag und Temperatur durchgeführt worden. Dabei werden, entsprechend IPCCEmpfehlungen, für die untersuchten Zeitreihen obere und untere Schwellenwerte festgelegt. Durch Auszählen kann dann ermittelt werden, wie oft die entsprechende Schranke über- oder unterschritten wurde (relativer Extremwert). Das Verhältnis der Anzahl der relativen Extremwerte zu den Gesamtwerten nennt man empirische Extremwerthäufigkeit. Darüber hinaus wurden Häufigkeitsverteilungen an die Datensätze angepasst, aus denen vorher der Jahresgang eliminiert wurde. Über diese Häufigkeitsverteilungen bestimmt man die theoretische Über- oder Unterschreitungswahrscheinlichkeit der jeweiligen Schranke, und vergleicht diese mit der empirischen. Diese Daten bieten auch die Möglichkeit, weitere wahrscheinlichkeitstheoretische Größen (Risiko, Wartezeitverteilung, Wiederkehrzeit) zu bestimmen. Das Verfahren wird auf 78 100-jährige Zeitreihen des Niederschlags und 10 100-jährige Zeitreihen der Temperatur in Deutschland angewendet. Dabei ist zu beachten, dass eine Übereinstimmung von empirischen und theoretischen Ergebnissen nur im statistischen Mittel zu erwarten ist. Die Untersuchungen zeigen, dass die ersten 10 bis 15 Jahre des letzten Jahrhunderts, sowohl bei den Niederschlägen als auch bei der Temperatur, nicht so extrem gewesen sind wie der Rest des Jahrhunderts. Bei den Niederschlagsdaten zeigt sich darüber hinaus um die Jahrhundertmitte ein etwa 10-jähriger Zeitraum mit hoher Niederschlagsvariabilität. Für die Abschätzung der Wahrscheinlichkeit des Überschreitens von Schranken bei Niederschlagsdaten ist die angepasste Gumbelverteilung am besten geeignet. Der Unterschied zu den anderen angepassten Verteilungen ist um so klarer, je höher die Schranke gewählt wird. Für die Abschätzung der Wahrscheinlichkeit des Unterschreitens von Schranken bei Temperaturdaten ist die angepasste Weibullverteilung am besten geeignet. Kein klares Bild ergibt sich bei den Kombinationen untere Schranke und Niederschlagsdaten sowie obere Schranke und Temperaturdaten. Die Abschätzung der Eintrittswahrscheinlichkeit und damit verbunden die Bestimmung der Wiederkehrzeit und des Risikos ist in allen Fällen um so besser, je geringer der Jahresgang der Variabilität der untersuchten Größe ist. Beim Trend der Wiederkehrzeit zeigt sich bei den Niederschlagsdaten und der unteren Schranke im äußersten Westen Deutschlands ein Rückgang trockener Ereignisse. Ansonsten erkennt man nur schwache Änderungen. Für obere Schranken zeigt sich im Westen Deutschlands ein Rückgang der Wiederkehrzeit, also ein Trend zu häufigeren extremen Niederschlägen, mit einem Maximum im östlichen Nordrhein-Westfalen. Im Osten dagegen ermittelt man einen Rückgang extremer Niederschläge und damit einen Trend zu trockenerer Witterung, am stärksten ausgeprägt im westlichen Erzgebirge. Für die Temperaturdaten zeigt sich in fast ganz Deutschland für untere Schranken ein Anstieg der Wiederkehrzeit. Extrem niedrige Temperaturen treten also tendenziell seltener auf. Die Ausnahme bilden hier nur, je nach zugrunde liegender Verteilung, der (äußerste) Norden und Osten Deutschlands. Die gleiche geographische Unterteilung, jedoch mit umgekehrtem Trend, zeigt sich bei den oberen Schranken. Extrem warme Ereignisse treten, mit Ausnahme des Nordostens, tendenziell häufiger auf. Die stärkste Zunahme im Trend der warmen Ereignisse zeigt sich dabei im Südwesten Deutschlands.
Konzeptionelle Untersuchungen eines Dielektronenspektrometers für Schwerionenstöße im GeV/u-Bereich
(1993)
Im Sommer 1992 wurde an Abschnitten der Rur und ihres Nebenflusses Inde (Niederrheinische Bucht, Nordrhein-Westfalen) die Ufervegetation pflanzensoziologisch untersucht und die lokale Verbreitung von Neophyten mit Hilfe einer speziell entwickelten Methode der Feinkartierung erfaßt.
Die Ufervegetation der Rur weist nur in zwei Teilbereichen natürliche bzw. naturnahe Vegetationstypen der Flußufer in guter Ausbildung auf; hier treten flächenhaft Gesellschaften der Convolvuletalia, des Phragmition und Sparganio-Glycerion, des Bidention und des Salicion purpureae auf. Die übrigen Bereiche der Rur und ebenso die Inde sind ausgebaut und durch relativ intensiv "gepflegte", botanisch verarmte Ufer gekennzeichnet.
Insgesamt wurden knapp 60 Kilometer Uferstrecke abgegangen und dabei etwa 30 neophytische Sippen nachgewiesen; hiervon wurden 15 ausgewählte Sippen systematisch kartiert. Für etwa ein Dutzend im Untersuchungsgebiet häufigere Neophyten wurden Verbreitungskarten erstellt und diskutiert.
Parallel zur Feinkartierung von Neophyten wurden im Gelände und aus schriftlichen Quellen verschiedene Formen anthropogener Standortveränderungen erfaßt, um Hinweise auf Zusammenhänge mit der Ausbreitung der Neophyten zu erhalten.
Aus einer Sichtung der diesbezüglichen Literatur ergaben sich zwei Gruppen von Hypothesen darüber, welcher Typ von anthropogenen Einflüssen die Ausbreitung von Neophyten an Flüssen besonders begünstigt: von einigen Autoren wurden direkte mechanische Eingriffe im Uferbereich, wie Kanalisierung und Auwaldrodung, als maßgeblich betrachtet, von anderen Autoren wurde dagegen in den chemischen Belastungen des Flußwassers der Hauptfaktor vermutet. Es wurde in der vorliegenden Arbeit aber davon ausgegangen, daß die Daten, die bisher zu Aussagen über die Neophyten-Problematik an Flußufern herangezogen wurden, im wesentlichen auf zu kleinmaßstäbigen Kartierungen und auf zu spezieller Betrachtung einzelner neophytischer Arten beruhten.
Deshalb wurde in der vorliegenden Arbeit versucht, zusätzlich zur Feinkartierung einen neuen methodischen Ansatz zu entwickeln, um die Bedeutung, die Neophyten insgesamt in der Vegetation eines bestimmten Flußabschnitts haben, synthetisch zu analysieren.
Es wurde ein "Neophyten-Index" als Maß des Neophytenreichtums ermittelt; er bezieht sich immer auf einen bestimmten Flußabschnitt und ergibt sich aus der Gesamtzahl und Häufigkeit der in dem Abschnitt gefundenen neophytischen Sippen. Der Neophyten-Index als synthetischer Ausdruck floristischer Veränderungen ermöglichte einen groben Vergleich mit Daten zu anthropogenen Standortveränderungen. Die Probleme derartiger schematischer Berechnungen wurden diskutiert; alle Aussagen über die Ergebnisse mußten vorbehaltlich der Notwendigkeit kritischer Interpretation erfolgen.
Eine wichtige Rolle bei den Untersuchungen spielte die Frage des Status von Neophyten-Vorkommen; wesentlich war auch die Kenntnis der aktuellen Phase der Einwanderung eines Neophyten in das Untersuchungsgebiet. Vorkommen mit zufälligem Charakter, also unbeständige oder vorpostenartige Vorkommen, erlauben nur begrenzt ökologische Aussagen. Deshalb waren nicht alle gefundenen Neophyten gleichermaßen für die Berechnung eines Neophyten-Index verwendbar. Neben Beobachtungen im Gelände waren zur Beurteilung dieser Fragen umfangreiche Auswertungen der Literatur notwendig. Als Ergebnis wurde also zunächst sippenbezogen die Geschichte der Ausbreitung rekonstruiert, sowie die gegenwärtige Verbreitung und der Status im Untersuchungsgebiet ermittelt. Acht Neophyten wurden dann als geeignet befunden, in die Berechnung des Neophyten-Index einzugehen.
Es ergaben sich deutliche Unterschiede im Neophyten-Index verschiedener Flußabschnitte: für den unteren Bereich der Rur unterhalb der Einmündung der Inde und besonders für die Inde selbst ergaben sich deutlich höhere Neophyten-Indices als für den oberen Bereich der Rur.
Entgegen häufigen allgemeinen Angaben in der Literatur gab es im Untersuchungsgebiet keinen erkennbaren Zusammenhang zwischen dem Ausbauzustand eines Flußabschnittes und dessen Neophytenreichtum; einige naturnah mäandrierende Abschnitte der Rur waren deutlich neophytenreicher als andere, regulierte Abschnitte.
Ebensowenig war im gewählten Maßstabsbereich ein Zusammenhang zwischen der Beschattung der Ufer durch Gehölze und dem Neophytenreichtum festzustellen; der gesamte obere Bereich der Rur war trotz geringer Beschattung relativ neophytenarm.
Eine sehr auffällige Koinzidenz besteht jedoch zwischen Neophyten-Index und der Gewässergüteklasse der Teilabschnitte; die Inde ist durch vor allem industrielle Abwässer erheblich verschmutzt, während die Rur oberhalb der Einmündung der Inde nur geringere Belastungen aufzuweisen hat. Eine deutliche Abhängigkeit der Neophyten-Ausbreitung von der Gewässerbelastung wurde in der Literatur bisher zwar von einigen Autoren vermutet, jedoch nie durch exakte Kartierungen in geeigneten Untersuchungsgebieten nachgewiesen.
Die hier nachgewiesene Koinzidenz zwischen Gewässerbelastung und Neophytenreichtum muß mit Vorsicht interpretiert werden; weitere Faktoren unbekannter Bedeutung kommen hinzu. Als Einschleppungsort bzw. Ausbreitungszentrum von Neophyten könnte etwa die Industrieregion im Einzugsgebiet der Inde - oberhalb des Untersuchungsgebiets - eine Rolle spielen. Auch ein Einfluß des Abflußregimes auf die Ausbreitung von Neophyten kann nach den vorliegenden Daten nicht ausgeschlossen werden.
Abschließend werden die konkreten Standortfaktoren Wasserhaushalt und Bodensubstrat bezüglich ihrer noch weitgehend im Dunkeln liegenden Abwandlung durch anthropogene Einflüsse diskutiert.
In der vorliegenden Arbeit werden Stöße zwischen Alpha-Teilchen und Li-ähnlichen Ionen sowie Stöße zwischen vollständig ionisierten Projektilionen und dem Li-ähnlichen Ion N4+ untersucht. Hierzu wird die zeitabhängige Schrödinger-Gleichung unter Verwendung einer effektiven Einteilchenbeschreibung im Rahmen der nichtpertubativen Basis Generator Methode (BGM) gelöst.
Die wissenschaftliche Recherche im Internet gestaltet sich als sehr schwierig, will man relevante Informationen schnell finden. Das Problem ist nicht der Mangel an Informationen sondern vielmehr das Übermaß davon. Außer der Quantität ist es für ein Mitglied einer Hochschule wichtig auf, von der Universität lizenzierte Webseiten zugreifen zu können. Aus einem Suchwerkzeug, wie zum Beispiel Google, kann ein Informationsanbieter nicht erkennen ob der dahinter stehende Benutzer berechtigt ist einen Artikel anzufordern. Ein anderer Aspekt worauf ein Wissenschaftler bei seiner Suche Wert legt, ist die Qualität eines Artikels. Am besten eignen sich hier wissenschaftliche Artikel aus renommierten und angesehenen Zeitschriften. Aus diesem Hintergrund heraus haben sich Informationsanbieter Gedanken gemacht wie man qualitativ hochwertige Artikel schnell in einer Recherche einbinden kann. Die Module, die Entwickelt wurden bilden die Basis für die Software die diese Entwicklungen zusammenfügt und miteinander harmonieren lässt. Für die Identifikation von elektronischen Dokumenten wurde unter anderem der DOI (Digital Object Identifier) entwickelt. Außerdem wichtig für unsere endgültige Software ist der OpenURL Standard. Damit werden die meisten Probleme die bei der mit einer herkömmlichen URL bestehen gelöst. Mit diesem Standard wird anhand von Metadaten eine eindeutige Identifikation eines Dokumentes vorgenommen die zu einem Dokument verlinkt, auch wenn sich seine eigentliche URL geändert hat. Die Diplomarbeit zeigt uns einen Überblick über diese Module. Dieser Lösungsweg führt uns zu einer Technologie die angewandt wird um unser Ausgangsproblem zu lösen. In dieser Software sind, anhand eindeutiger Identifikation, wissenschaftliche Dokumente und Artikel permanent abrufbar ohne der Gefahr einen Artikel durch Änderung seiner URL zu verlieren.
In der vorliegenden Arbeit wurde die Möglichkeit der Realisierung eines 2-Pi-Spaltfragmentdetektors untersucht. Damit soll es möglich sein eine Information über die Kernladungszahl eines Fragments aus spontaner oder teilcheninduzierter Spaltung zu erhalten. Die Meßmethode ist daraufhin ausgelegt, daß der korrespondierende Partner eines im Detektor nachgewiesenen Spaltfragments in einer dicken Quelle oder einem dicken Target gestoppt wird und der Gamma-Zerfall dieses neutronenreichen, meist hoch angeregten Kerns in Ruhe erfolgt . Die emittierte Gamma-Strahlung ist somit weder Dopplerverschoben noch -verbreitert und kann von Germanium-Detektorarrays spektroskopiert werden. Durch die hohe Selektivität der Spaltfragmentdetektion läßt sich damit die Struktur seltener, besonders neutronenreicher Kerne untersuchen. Die Methode basiert auf der Messung des spezifischen Energieverlusts eines Spaltfragments mit Hilfe einer Gasionisationskammer und der anschließenden Messung der Restenergie des Spaltfragments mit Hilfe eines Silizium-Halbleiterdetektors. Hierzu wurden Messungen von Spaltfragmenten aus spontaner Spaltung von 252-Cf mit Hilfe eines Detektorteleskops [Goh94] in Koinzidenz mit einem hochreinen Germanium Detektor durchgeführt. Das Teleskop bestand aus einer Ionisationskammer, die mit einem elektrischen Feld arbeitete, das senkrecht zur mittleren Spaltfragmenttrajektorie verlief, sowie einem ionenimplantierten Si-Detektor. Damit wurde ein Auflösungsvermögen von Z/Delta-Z ~ ll für Molybdän (Z=42) und Z/Delta-Z ~ 10 für Ruthenium (Z=44) gemessen. Um den ionenimplantierten Si-Detektor durch einen kostengünstigeren Detektortyp ersetzen zu können, wurden PIN-Dioden als Detektoren für die Energie der Spaltfragmente getestet. Hierbei wurden die Testkriterien von Schmitt und Pleasonton [SP 66] zugrunde gelegt. Die PIN-Diode der Serienproduktion erreichte näherungsweise alle von Schmitt und Pleasonton angegebenen Kriterien und übertraf das Kriterium für Energieauflösung deutlich. Der Ansatz zur Entwicklung eines Detektors mit großem Raumwinkel ist eine Ionisationskammer, die ein elektrisches Feld besitzt, das parallel zur mittleren Spaltfragmenttrajektorie gerichtet ist. Eine solche Feldgeometrie läßt sich leichter auf einen großen Raumwinkel erweitern. Dies macht die ausschließliche Verwendung von Gitterelektroden notwendig, damit die Spaltfragmente die Elektroden ohne nennenswerten Energieverlust passieren können. Mit Hilfe der Methode der Finiten Elemente wurden Potentialverläufe in einer solchen Ionisationskammer simuliert und auf dieser Basis ein Prototyp konstruiert und gebaut, der mit einer Feldrichtung parallel zur mittleren Spaltfragmenttrajektorie arbeitet. Zum Test dieses Detektors wurde ein Experiment mit protoninduzierter Spaltung von 238-U am Van-de-Graaf-Beschleuniger des Instituts für Kernphysik der Universität Frankfurt am Main durchgeführt. Unter Hinzunahme eines hochreinen Ge-Detektors wurden Spaltfragment-Gamma-Koinzidenzen aufgenommen. Das Ansprechverhalten des Spaltfragmentdetektors wurde mit Hilfe der Energieverlustdaten von Northcliffe und Schilling [NS70] numerisch berechnet. Damit konnte ein Auflösungsvermögen von Z/Delta-Z ~ 29 für Yttrium (Z=39) erreicht werden. Dieses Auflösungsvermögen stimmt ungefähr mit dem von Sistemich et al. [SAB+76] mit Hilfe von massen- und energieseparierten Spaltfragmenten gemessenen Auflösungsvermögen eines DeltaE-E-Detektors mit einem senkrecht zur mittleren Spaltfragmenttrajektorie ausgerichteten elektrischen Feld überein. Eine Auflösung von Nukliden der schweren Spaltfragmentgruppe war in beiden Experimenten nicht möglich. Abschließend wurde auf der Basis der Geometrie des EUROSiB-Detektors [dAP+96] die Realisierbarkeit eines 2-Pi-Spaltfragmentdetektors studiert. Dabei zeigte sich, daß es möglich sein sollte, einen solchen Detektor zu konstruieren, obwohl dieser aufgrund des näherungsweise radialsymmetrischen elektrischen Feldes an den Grenzen des Ionisationskammerbereiches arbeiten wird. Mit Hilfe einer möglichst punktförmigen Quelle sowie einer Segmentierung der PIN-Dioden um eine bessere Ortsauflösung zu erreichen, sollte es möglich sein, ein Auflösungsvermögen zu erhalten, das der Größenordnung des Auflösungsvermögens des Prototypen entspricht. Mit dem vorgeschlagenen Detektor ließe sich eine absolute Effizienz von rund 74% in 2-Pi erreichen.
In dieser Arbeit wurde die Produktion geladener Kaonen in C+C und Si+Si- Kollisionen bei Strahlenergien von 40A und 158A GeV untersucht, die verwendeten Daten stammen vom CERN Experiment NA49. Die Kaonen wurden über den mittleren Energieverlust in den TPCs identifiziert, was die Messung der Phasenraumverteilung in einem großen Bereich möglich machte. Die Analyse basiert auf der dE/dx Auswertung aller NA49 TPCs (globale Analyse). Es wurde herausgefunden, dass bei den C+C und Si+Si Datensätzen die MTPC dE/dx Information unvollständig auf den DSTs gespeichert wurde. Da die Auflösung bei der Bestimmung des mittleren Energieverlusts beschränkt ist, ist die Teilchenidentifikation nur über statistische Methoden möglich. Im Kapitel 4 wird diese von Marco van Leeuwen mitentwickelte Methode beschrieben. Für die endgültigen Werte der Phasenraumverteilung der Teilchen müssen die identifizierten Kaonen noch auf Effekte korrigiert werden, die durch den Aufbau des Detektors und die verwendete Analysesoftware hervorgerufen werden. Die Korrekturen werden im Kapitel 5.4 beschrieben und angewandt, dies sind unter anderem geometrische Korrekturen, Akzeptanz und Zerfallskorrekturen. Die Ergebnisse bei 158A GeV wurden mit C.Höhnes Ergebnissen verglichen und stimmen im Rahmen der Fehler überein. Zur Übersicht wurden die Daten mit den anderen NA49-Daten zusammengefasst. Dabei ist zu erkennen dass die Verhältnisse < K+ > / < NW >, < K+ > / < + >, < K > / < NW > und < K > / < > im Bereich zwischen p+p und Si+Si schnell ansteigen und im weiterem Verlauf bis Pb+Pb kaum weiter ansteigen. Im Rahmen des Statistical Model of the Early Stage sind dies Anzeichen für einen Übergang in das Quark-Gluon-Plasma bei 40A GeV in Si+Si Kollisionen. Für eine Bestätigung dieser Vermutung sind jedoch weitere Messungen bei unterschiedlichen Energien und Systemen notwendig.
Mit dem World Wide Web sind der Bestand und die Verfügbarkeit von Informationen rapide angewachsen. Der Einzelne hat Schwierigkeiten, der Menge an Informationen und Wissen Herr zu werden und so der Informationsüberflutung zu begegnen. Dieses Problem wurde von Forschern und Technikern bereits frühzeitig erkannt und durch verschiedene Konzepte wie die intelligente Suche und die Klassifikation von Informationen zu lösen versucht. Ein weiteres Konzept ist die Personalisierung, die das bedarfsgerechte Zuschneiden von Informationen auf die Bedürfnisse des einzelnen Anwenders zum Ziel hat. Diese Arbeit beschreibt dazu eine Reihe von Personalisierungstechniken und im Speziellen das Kollaborative Filtern als eine dieser Techniken. Bestehende Schwächen des Kollaborativen Filterns wie zu dünn besetzte Benutzerprofile und das mangelnde Erkennen von Änderungen im Benutzerinteresse im Verlauf der Zeit werden durch verschiedene Ansätze zu entschärfen versucht. Dazu wird eine Kombination mit Inhaltsbasierten Filtern und die Verbreiterung der Datenbasis bewerteter Ressourcen betrieben. Ziel ist die Optimierung der Personalisierung, so dass Anwender besser auf sie abgestimmte Informationen erhalten. Ein Teil der beschriebenen Ansätze wird zudem in einem prototypischen Informationssystem umgesetzt, um die Machbarkeit und den Nutzen zu prüfen. Dazu werden der auf der Java 2 Enterprise Edition aufbauende WebSphere Applikationsserver von IBM und die relationale Datenbank DB2 UDB aus gleichem Hause eingesetzt.
Es wurde eine Apparatur zur Messung von Heliumdoppelionisation durch Elektronenstoß, kurz (e,3e) genannt, aufgebaut. Die Aufgabe bestand im Aufbau eines Jetsystems mit horizontalem Jet, der Konstruktion eines Impulsspektrometers, das speziell auf die Anforderungen von (e,3e) ausgerichtet ist, dem Aufbau einer Kompensation für das Erdmagnetfeld, dem Test der einzelnen Komponenten und der Aufnahme von Orts- und Flugzeitspektren. Im Rahmen der Testmessungen konnte die Linearität der Detektoren überprüft werden, auch wurde ein Programm für die Ortsauslese der Hexanode geschrieben, des weiteren wurde der Elektronenstrahl fokussiert und der Jet eingestellt, so daß das Flugzeitspektrum zwischen Targetelektron und Rückstoßion und zwischen Projektil und Rückstoßion aufgenommen werden konnte. Anhand des Flugzeitspektrums zwischen Projektil und Rückstoßion wurde die Impulsverteilung der einfachgeladenen Heliumionen in Richtung der z-Achse bestimmt. Jedoch hat sich herausgestellt, daß die Impulsverteilung der Heliumionen vom Jet von der noch größeren Impulsverteilung der Atome vom warmen Heliumgas überlagert wird. Anhand des Rückstoßionendetektor-Ortsbildes konnte die Impulsverteilung der Heliumionen in x- und y-Richtung angegeben werden, da sich das warme Heliumgas im Restgasionisationsstreifen befindet und somit klar von Jetfleck zu trennen ist. Um für die wissenschaftliche Forschung verwertbare (e,3e)-Messungen an der Apparatur durchführen zu können, müssen einige zusätzliche Arbeiten vorgenommen werden; wie die Kalibrierung der beiden Spektrometer. Das ist notwendig für die Ermittlung der Zuordnungsfunktion zwischen Auftrefforten und -zeiten auf den Detektoren und den jeweiligen Impulskomponenten. Das Simulationsprogramm SIMION kann zwar Trajektorien von unterschiedlich geladenen Teilchen bei einem gegebenen Feld berechnen, jedoch können diese simulierten Werte um bis zu 10% von der „Realität“ abweichen. Des weiteren ist es notwendig, den Nullpunkt, also den Koordinatenursprung der Detektoren zu ermitteln, um die genauen Impulsvektoren bestimmen zu können. Ohne diese Kalibrierung können die ermittelten Impulsverteilungen der Rückstoßionen und Targetelektronen quantitativ nicht angegeben werden. Bei den Testmessungen hat sich gezeigt, daß der Elektronenstrahl divergent ist. Durch weitere Testmessungen an der Elektronenkanone muß das Problem behoben werden, da sonst die Energieauflösung des Projektilspektrometers nicht ausreichend ist....
Um Signaturen für die Erzeugung eines Quark-Gluon Plasmas zu untersuchen, wurden im Rahmen eines Energie-Scan Programmes mit dem Experiment NA49 am CERN-SPS Beschleunigerring bei 5 unterschiedlichen Strahlenergien Schwerionenkollisionen untersucht. Eine Möglichkeit, Informationen über die raum-zeitliche Struktur einer solchen Kollision zu erhalten, ist durch die Untersuchung von Bose-Einstein-Korrelationen gegeben. Die Untersuchung der Energieabhängigkeit dieser Korrelationen ist Gegenstand dieser Arbeit. Um die Dynamik der Kollisionen zu studieren, wird die Analyse für die einzelnen Energien in Abhängigkeit des mittleren transversalen Impulses und der Paarrapidität durchgeführt. In der Arbeit werden zunächst die theoretischen Grundlagen zur Untersuchung von Schwerionenkollisionen mit Hilfe von Bose-Einstein-Korrelationen erarbeitet. Nach einer kurzen Darstellung des Experimentes NA49 folgt eine detaillierte Beschreibung der Datenselektion und der verwendeten Analyse-Methode. Die Ergebnisse werden im Rahmen eines Modells zur Beschreibung einer Teilchenquelle interpretiert.
Im Rahmen der vorliegenden Arbeit wird eine systematische Untersuchung von Feldabschirmungseffekten bei Photostrommessungen in Abhängigkeit der optischen Anregungsdichte an GaAs/AlGaAs{Halbleiterubergitterstrukturen vorgenommen. Diese Untersuchungen gestatten es, Kontaktierungsmethoden zu finden, um das elektrische Feld innerhalb der Übergitterstruktur definiert einzustellen. Diese Untersuchungen waren notwendig geworden, da sowohl erste zeitaufgelöste (z.B. die THz-Emission von Bloch-Oszillationen), wie auch verschiedene nicht zeitaufgelöste Messungen (z.B. differentielle Elektroreflexionsmessungen) nahelegten, daß in der Probe kein elektrisches Feld einzustellen war. Die Untersuchungen zur anregungsdichteabhangigen Feldabschirmung wurden in einem Photostromaufbau durchgeführt, bei dem die Anregungsdichte durch die Verwendung eines abstimmbaren CW-Ti:Saphir Laser gegenüber Aufbauten mit einer Kombination aus Lampe und Monochromator weiter gesteigert werden kann. Als Indikator für die Feldabschirmung dient die Herausbildung der Wannier-Stark-Leiter in den Photostromspektren. Zur Untersuchung der Feldabschirmung wurde zunächst die Probenpraparation verändert. Anschließend wurde die Anregungsdichte systematisch variiert und es wurden verschiedene Probenstrukturen untersucht, unter anderem zum Vergleich mit den hier pin-Übergitter Dioden auch eine häufig verwendete Schottky-Diode. Es wurden verschiedene präparative Variationen durchgeführt, um den Einfluß der dotierten Schichten zu klären. So wurde beispielsweise die p+-Schicht heruntergeätzt, oder auf die p+-Schicht eine zusätzliche metallische semitransparente Cr/Au-Schicht aufgedampft, sowie Proben mit verschiedenen Dotierungsmaterialien (Berylium und Kohlenstoff) untersucht. Alle betrachteten Proben zeigen bei niedrigen Anregungsdichten eine Aufspaltung in Wannier-Stark-Zustände. Die Absorptionslinien, die in den Spektren die Übergänge darstellen, werden dann bei steigender Anregungsdichte zunächst asymmetrisch, treten erst bei niedrigeren äußeren Vorspannungen auf und verschwinden schließlich für sehr hohe Dichten ganz. Eine Analyse der systematischen Untersuchungen für die verschiedenen Probentypen ergibt, daß sich höchstwahrscheinlich Ladungstrager in der p+-Schicht ansammeln und so das äußere elektrische Feld abschirmen. Zusätzlich zeigt im Vergleich der zwei Dotierungsmaterialien die mit Kohlenstoff dotierte Probe eine bei deutlich höheren Anregungsdichten einsetzende Abschirmung gegenüber der mit Berylium dotierten Probe. Die konsequente Umsetzung der gewonnenen Erfahrungen führt zu einem neuen Probendesign. Die Vermeidung p+-dotierter Schichten, wobei die Proben nur mit einer semitransparenten Cr/Au-Schicht bedampft werden, hat dazu geführt, daß es schließlich möglich war, die kohärente Emission von Bloch-Oszillationen unter 45 ° zu messen. Weiterhin war es auch möglich, erste Messungen zur kohärenten Detektion der direkten Emission von Bloch-Oszillationen in einem Magnetfeld zu realisieren, diese Messungen werden daher nur kurz dargestellt. Je nach Feldstarke des elektrischen und des magnetischen Feldes wird die Emission der Bloch-Oszillationen durch die magnetische oder elektrische Quantisierung dominiert. In Vorbereitung auf zeitaufgelöste Messungen wurde im Rahmen dieser Arbeit zusätzlich auch ein neuer dichroitischer Strahlteiler verwendet und charakterisiert. Ein Indium-Zinn-Oxid-Film auf einem Glassubstrat ist im optischen Frequenzbereich transparent, besitzt aber im niedrigen THz-Frequenzbereich (0 bis 2.5 THz) eine relative Reflexion von 90% bis 80% und eine relative Transmission von konstant etwa 10% und kann somit als Alternative zu dem sonst häufig verwendeten Folien-Strahlteiler verwendet werden. Der komplexe Brechungsindex ñ kann numerisch aus den Reflexions- bzw. Transmissionsdaten bestimmt werden.
Als eines der Experimente am neuen Beschleuniger des Europäischen Labors für Teilchenphysik CERN, dem LHC, wird ALICE die Messung von Schwerionenkollisionen bei bislang unerreichten Energien ermöglichen. Die wichtigste Aufgabe ist dabei, verschiedene Phasen stark wechselwirkender Materie zu untersuchen und deren theoretisches Verständnis zu prüfen. Eine vielversprechende Observable ist die Rate produzierter Quarkonia, welche über ihren Zerfall in ein Leptonenpaar zu bestimmen ist. Daher ist die Hauptaufgabe des TRD, einem Subdetektor von ALICE, eine besonders gute Identifikation von Elektronen zu ermöglichen. Ein Teil der vorliegenden Arbeit war der Aufbau eines Teststandes für die Auslesekammern des TRD. Die verschiedenen vorgegebenen Messroutinen wurden zur Anwendung gebracht und wenn möglich verfeinert. Schließlich wurde die Prozedur der Langzeitsstabilitätsmessung verwendet, um den Koeffizienten der Elektronenanlagerung in der Gasmischung Ar-CO2 (70:30) zu bestimmen. Trotz der großen Ungenauigkeiten der Messung fügen sich die Ergebnisse sehr gut in die Systematik bereits vorhandener Daten bei ähnlichen Gasmischungen ein. Insbesondere bei Strahlenergien, wie sie am LHC verf¨ugbar sein werden, sind Kollisionen zweier Protonen eine wichtige Referenz für die Messung von Quarkonia in Schwerionenkollisionen. Dieser Studie zufolge ist es mit dem ALICE-TRD möglich, in 2 · 108 unselektierten (minimum bias) Proton-Proton-Kollisionen bei einer Schwerpunktsenergie von 14 TeV ein signifikantes J/ψ-Signal aufzunehmen. Die Messung schwererer Quarkonia-Zustände ist ohne Ereignisselektion nicht möglich. Der größte Beitrag zum Untergrund oberhalb einer invarianten Masse von 0.5 GeV/c2 ist durch Zerfälle von Teilchen mit offenem charm oder beauty zu erwarten. Die Like-Sign-Methode lieferte das beste Ergebnis bei der Berechnung eines unkorrelierten Untergrundspektrums. Auch bei Transversalimpulsen des Elektron-Positron-Paars oberhalb von etwa 4 GeV/c ist noch ein signifikantes J/ψ-Signal zu erwarten, zudem offenbar mit einem verhältnismäßig geringeren Beitrag durch Untergrund. Bei einem vorläufigen Einsatz von nur 4 der insgesamt 18 Supermodule des TRD ist ein zwar messbares, jedoch sehr reduziertes Signal zu erwarten. Bei einer noch geringeren Zahl scheint das ohne Ereignisselektion nicht möglich.
Das Ziel dieser Arbeit war die Untersuchung der Photodoppelionisation des H2-Moleküls mit zirkular polarisiertem Licht. Dabei sollte nach Anzeichen von Doppelspaltinterferenzen in den Photoelektronenwinkelverteilungen gesucht werden. Die Erscheinungen im klassischen Doppelspaltexperiment basieren auf der Interferenz der nach dem Huygenschen Prinzip gebeugten ebenen Wellen. In Analogie dazu stellen nun im molekularen System die beiden Kerne die Emissionszentren der Elektronenwelle dar. Die Interferenzerscheinung wird dabei durch die von beiden Kernen gleichzeitig emittierte Elekltronenwelle hervorgerufen. Die Photodoppelionisation des H2-Moleküls wurde mit einer Photonenenergie von 240 eV durchgeführt, um eine Wellenlänge der ionisierten Elektronen in der Größenordnung des Gleichgewichtsabstands der Kerne von 1.4 a.u. zu erreichen. Zur Erzeugung des Interferenzeffektes hätte eigentlich die Einfachionisation des Moleküls ausgereicht, da die Welle eines Elektrons gleichzeitig von beiden Protonen ausläuft. Es wurde trotzdem die Doppelionisation durchgeführt, da so die Ionen in Koinzidenz gemessen werden können und die Impulserhaltung in der Coulomb-Explosion des Moleküls zur Identifikation von H2-Ionisationsereignissen verwendet werden kann. Weitere Vorteile sind die Beobachtung der Elektronenkorrelation für verschiedene Energieaufteilungen der Elektronen, sowie die Möglichkeit der Bestimmung des internuklearen Abstandes aus der kinetischen Energie der Ionen (KER). Zunächst wurde die Winkelverteilung der Photoelektronen für eine extrem asymmetrische Energieaufteilung untersucht. Die Lage und Größe der Interferenzmaxima und -minima in der Elektronenwinkelverteilung wurde dann mit der im klassischen Doppelspaltexperiment auftretenden Interferenzstruktur verglichen. Es konnte gezeigt werden, dass das Interferenzminimum sich wie im Falle des klassischen Doppelspaltes unter einem Winkel von ca. 52° relativ zur Spalt- bzw. Molekülachse befindet. Die Größenverhältnisse von Haupt- zu Nebenmaximum wichen dagegen von den klassischen Erwartungen ab. Während beim Doppelspalt das Hauptmaximum bei 90° relativ zur Spaltachse liegt, lag in diesem Experiment das ausgeprägteste Maximum unter 0°, d.h. entlang der Molekülachse. Die experimentellen Ergebnisse wurden daraufhin mit einigen Theorien verglichen. Die Theorie von Cherepkov und Semenov, welche die Einfachionisation des Wasserstoffmoleküls für zirkular polarisiertes Licht behandelt, berechnet die Elektronenwinkelverteilung durch die Hinzunahme der Streuung der Photo-elektronenwelle am benachbarten Proton. Die Berücksichtigung dieses Effektes führt zu einer deutlich besseren Beschreibung der Daten. Da es sich in diesem Experiment um die Doppelionisation des Moleküls handelt, auch für Fälle bei denen einem Elektron nahezu keine kinetische Energie zukommt, muss die Wechselwirkung zwischen allen Fragmenten, insbesondere zwischen den Elektronen berücksichtigt werden. Die 5C-Theorie [Wal00] berücksichtigt die Coulomb-Wechselwirkung zwischen allen Fragmenten des Wasserstoffmoleküls. Die Wechselwirkung zwischen den Ionen kann allerdings im Rahmen der Born-Oppenheimer-Näherung vernachlässigt werden. Der 5C-Rechnung zeigt, wie die experimentellen Daten, verstärkte Maxima entlang der Molekülachse, jedoch ist hier die Änderung des Größenverhältnisses zu extrem im Vergleich zu den experimentellen Daten. Um die experimentell gefundene Elektronenwinkel-verteilung zu rekonstruieren, dürfen dennoch anscheinend weder Streueffekte noch die Coulomb-Wechselwirkung der Fragmente vernachlässigt werden. Im weiteren Verlauf der Arbeit wurde die Energieaufteilung der Elektronen variiert. Die Interferenzstruktur wurde für verschiedene Energien des langsamen Elektrons untersucht. Je höher die Energie des langsamen Elektrons war, umso schwächer wurde das Maximum 0. Ordnung (senkrecht zur Molekülachse) der Interferenzen des schnellen Elektrons. Die unveränderte Größe des Maximums 1. Ordnung (entlang der Molekülachse) wurde auf die Überlagerung der Streueffekte sowie der Coulomb-Wechselwirkung mit der Interferenzstruktur zurückgeführt. Über die Energie der Protonen wurde im Experiment zudem der internukleare Abstand zum Zeitpunkt der Photoabsorbtion bestimmt. Es zeigt sich eine deutliche Abhängigkeit des Interferenzmusters vom internuklearen Abstand. Die experimentell gefundene Abhängigkeit entspricht dabei der des klassischen Doppelspalts. Schließlich wurde die Elektronwinkelverteilung für eine feste Emissionsrichtung des langsamen Elektrons untersucht. In den experimentellen Daten konnte deutlich die Unterdrückung der Emissionswahrscheinlichkeit des schnellen Elektrons entlang der Emissionsrichtung des langsamen Elektrons beobachtet werden. Diese Elektronenwinkelverteilung konnte durch eine Faltung der reinen Interferenz – erzeugt durch die Integration über den Zwischenwinkel der Elektronen - mit der reinen Elektronenwechselwirkung - erzeugt durch die Integration über die Stellung der Molekülachse - rekonstruiert werden. Die Verteilung nach der Integration über die Molekülachse ähnelte dabei der Struktur der Elektronenwinkelverteilung nach der Doppelionisation des Heliumatoms. Daraus lässt sich schlussfolgern, dass die gemessene Winkelverteilung der Photoelektronen des doppelionisierten Wasserstoffmoleküls aus einer Überlagerung der Coulomb-Wechselwirkung der Elektronen des heliumähnlichen Systems mit der Interferenzstruktur besteht. Das bedeutet, die Elektron-Elektron-Korrelation und die Doppelspaltinterferenz sind zwei separate Prozesse. Die Elektronen verlassen den Molekülverband wie im Heliumatom über den SO- bzw. den TS1-Prozess und das langsame Elektron führt nicht zur Dekohärenz.
In dieser Arbeit wurden Untersuchungen zur Einstellung und Analyse des Sauerstoffgehalts an YBa2Cu3O6+x-Dünnfilmen durchgeführt. Zur Analyse des Sauerstoffgehalts wurde ein optisches Verfahren angewendet. Durch Messung der Transmission un der Reflektion in einem Spektralbereich von 2000nm bis 3000nm wird mit Hilfe des im Rahmen dieser Arbeit erstellten Markov-Modells die optische Leitfähigkeit bestimmt. Aus den gewonnen Werten der optischen Leitfähigkeit kann so auf den Sauerstoffgehalt in YBa2Cu3O6+x geschlossen werden.
Durch Prozessverbesserungen ist es möglich, den Ressourcenverbrauch einer Unternehmung zu reduzieren, ohne an den Eigenschaften des erstellten Gutes Abstriche vornehmen zu müssen. Intuitiv ist ersichtlich, dass eine bessere Ausnutzung der vorhandenen Ressourcen vorteilhaft für die Unternehmung ist. Mit dem Übergang zur Informationsgesellschaft stellt sich die Frage, inwiefern traditionelle Verfahren zur Prozessverbesserung sich auf die immer bedeutender werdende Ressource „Wissen“ anwenden lassen. Hat Wissen in Verfahren zur Erstellung physischer Güter noch eine nur unterstützende Funktion, so stellt es in Branchen, deren Focus in der Entwicklung von Wissen liegt, den wichtigsten „Produktionsfaktor“ dar. In vorliegendem Text wird der Versuch unternommen, bekannte Verfahren zur Qualitätsverbesserung von Prozessen dahingehend zu betrachten, inwieweit sie für eine Anwendung auf den Umgang mit Wissen geeignet sind. Dazu erfolgt eine Darstellung grundlegender Begriffe, gefolgt von Kriterien, anhand derer die Qualität von Wissensprozessen beurteilt werden kann. Danach werden verschiedene Qualitätsverbesserungsverfahren dargestellt und ihre Eignung zur Anwendung auf Wissensprozesse beurteilt. Abschließend findet sich ein Ausblick darauf, in welchen Gebieten weitere Überlegungen zu diesem Thema angebracht sind. Hingewiesen werden muss auf dem Umstand, dass vorliegende Arbeit aus Platzgründen einige mehr oder minder starke Reduzierungen enthält. Bekannte Qualitätsverbesserungsverfahren wurden in verschiedene Kategorien eingeteilt, aus diesen Kategorien wurden dann exemplarisch einige Verfahren für die nähere Betrachtung ausgewählt. Einen Anspruch auf Vollständigkeit erhebt der vorliegende Text somit nicht. Auch die Kategorisierung kann nicht als allgemeingültig angesehen werden, da die meisten Qualitätsverbesserungsverfahren starke Unterschiede aufweisen und somit das Einordnen in ein einheitliches Schema erschweren. Dennoch wurden gemeinsame Merkmale identifiziert und zur Bildung von Kategorien verwandt.
Die vorliegende Diplomarbeit beschreibt den Aufbau und erste Anwendungen einer neuartigen Technik zur Manipulation von Fallenpotentialen für Bose-Einstein-Kondensate. Das Dipolpotential, das ein gegen die atomare Resonanz verstimmter Laserstrahl auf die Atome ausübt, wird hierzu genutzt. Es wurde eine Apparatur aufgebaut, mit der sehr schnelle räumliche Bewegung und gleichzeitige Intensitätsänderung von Laserstrahlen erzielt wird. Durch schnelles Scannen des Laserstrahls in x- und y-Richtung und gleichzeitige Modulation seiner Intensität werden beliebige zeitgemittelte Potentiale erzeugt. Diese Potentiale wurden sowohl als räumliche und/oder zeitliche Modifikation herkömmlicher Magnetfallenpotentiale als auch als eigenständige Fallen mit neuartiger Geometrie verwendet. Mit diesem Aufbau wurden Experimente an Bose-Einstein-Kondensaten durchgeführt, bei denen die große räumliche und zeitliche Auflösung genutzt wurden. Die Speicherung von Atomen in zeitgemittelten, rotverstimmten optischen Fallen verschiedener Geometrie wurde demonstriert und eine durch das Scannen hervorgerufene Aufheizung der Probe wurde gefunden und untersucht. Dies ist die erstmalige Speicherung von Bose- Einstein-Kondensaten in zeitgemittelten Dipolfallen, deren Gestalt im Prinzip frei wählbar ist. Außerdem wurden kollektive Anregungen eines Bose-Einstein-Kondensats in einer Magnetfalle untersucht, die durch zeitgemittelte optische Potentiale induziert wurden. Der Schwerpunkt dieser Untersuchung waren insbesondere Moden mit hohem Drehimpuls, die in rein magnetischen Fallenpotentialen zuvor nicht angeregt worden waren. Bisherige Limitation von Gleichstrommagnetfallen, in denen nur zylindersymmetrische Moden angeregt werden konnten, wurden durch die Verwendung zeitgemittelten optischen Potentialen zusätzlich zum Magnetfallenpotential umgangen. In einem dritten Experiment konnte der suprafluide Charakter eines Bose-Einstein-Kondensats studiert werden. Die kritische Geschwindigkeit für die Bewegung eines Fremdobjektes duch das Kondensat wurde erstmals gemessen. Als Fremdobjekt diente ein gegen die atomare Resonanz blauverstimmter Laserstrahl, der auf die Atome ein repulsives Potential ausübt.
Mit dem Ende des Kalten Krieges hat sich für viele Beobachter der Abschied von der klassischen Allianzpolitik endgültig vollzogen. Ein Jahrhundert nach der großen Ära europäischer Gleichgewichtspolitik, nach zwei Welt(koalitions)kriegen und dem Ost-West-Gegensatz als einer Bündniskonfrontation radikalster Ausprägung, scheint die Weltpolitik endlich "im Umbruch" begriffen. Der Niedergang des Warschauer Paktes und der Triumph des demokratischen Modells des Westens könnte so mit dem "Ende der Geschichte" auch das Ende der Allianzen eingeläutet haben. In der Tat lässt sich auch bei der letzten verbliebenen großen Allianz, der NATO, nach dem notwendigerweise vollzogenen Funktionswandel nun letztlich doch ein Bedeutungsverlust verzeichnen. Als exemplarisch für diese Entwicklung mag die Reaktion des Bündnisses auf die Terroranschläge vom 11. September 2001 gelten: Nachdem die Allianz erstmals in ihrer Geschichte den Bündnisfall erklärt hatte, blieb sie schon im Afghanistankrieg als Organisation unbeteiligt. ...
Im heutigen Zahlungsverkehr übernehmen in zunehmendem Maße Zahlungen mit Kreditkarten eine entscheidende Rolle. Entsprechend der Verbreitung dieser Art des Zahlungsverkehrs nimmt ebenfalls der Mißbrauch mit diesem bargeldlosen Zahlungsmittel zu. Um die Verluste, die bei dem Kreditkarteninstitut auf diese Weise entstehen, so weit wie möglich einzudämmen, wird versucht, Mißbrauchstransaktionen bei der Autorisierung der Zahlungsaufforderung zu erkennen. Ziel dieser Diplomarbeit ist es zu bestimmen, in wie weit es möglich ist, illegale Transaktionen aus der Menge von Autorisierungsanfragen mit Hilfe adaptiver Algorithmen aufzudecken. Dabei sollen sowohl Methoden aus dem Bereich des Data-Mining, als auch aus den Bereichen der neuronalen Netze benutzt werden. Erschwerend bei der Mißbrauchsanalyse kommt hinzu, daß die Beurteilung der einzelnen Transaktionen in Sekundenbruchteilen abgeschlossen sein muß, um die hohe Anzahl an Autorisierungsanfragen verarbeiten zu können und den Kundenservice auf Seiten des Benutzers und des Händlers auf diese Weise zu optimieren. Weiter handelt es sich bei einem Großteil der bei der Analyse zu Verfügung stehenden Datensätze um symbolische Daten, also alpha-numerisch kodierte Werte, die stellvertretend für verschiedene Eigenschaften verwendet werden. Nur wenige der Transaktionsdaten sind analoger Natur, weisen also eine Linearität auf, die es erlaubt, "Nachbarschaften" zwischen den Daten bestimmen zu können. Damit scheidet eine reine Analyse auf Basis von neuronalen Netzwerken aus. Diese Problematik führte unter anderem zu dem verfolgten Ansatz. Als Grundlage der Analyse dienen bekannte Mißbrauchstransaktionen aus einem Zeitintervall von ungefähr einem Jahr, die jedoch aufgrund der hohen Anzahl nicht komplett als solche mit den eingehenden Transaktionen verglichen werden können, da ein sequentieller Vergleich zu viel Zeit in Anspruch nähme. Im übrigen würde durch einen einfachen Vergleich nur der schon bekannte Mißbrauch erkannt werden; eine Abstraktion der Erkenntnisse aus den Mißbrauchserfahrungen ist nicht möglich. Aus diesem Grund werden diese Mißbrauchstransaktionen mit Hilfe von Methoden aus dem Bereich des Data-Mining verallgemeinert und damit auf ein Minimum, soweit es die Verläßlichkeit dieser Datensätze zuläßt, reduziert. Desweiteren schließt sich eine Analyse der zu diesem Zeitpunkt noch nicht betrachteten analogen Daten an, um die maximale, enthaltene Information aus den Transaktionsdaten zu beziehen. Dafür werden moderne Methoden aus dem Bereich der neuronalen Netzwerke, sogenannte radiale Basisfunktionsnetze, verwendet. Da eine Mißbrauchsanalyse ohne eine entsprechende Profilanalyse unvollständig wäre, wurde abschließend mit den vorhanden Mitteln auf den zugrunde liegenden Daten in Anlehnung an die bisherige Methodik eine solche Profilauswertung und zeitabhängige Analyse realisiert. Mit dem so implementierten Modell wurde versucht, auf allgemeine Art und Weise, Verhaltens- beziehungsweise Transaktionsmuster einzuordnen und mit bei der Mißbrauchsentscheidung einfließen zu lassen. Aus den vorgestellten Analyseverfahren wurden verschiedene Klassifizierungsmodelle entwickelt, die zu guten Ergebnissen auf den Simulationsdaten führen. Es kann gezeigt werden, daß die Mißbrauchserkennung durch eine kombinierte Anwendung aus symbolischer und analoger Auswertung bestmöglich durchzuführen ist.
Die vorliegende Arbeit beschäftigt sich mit der Ermittlung des Preises von Optionen. Optionen sind spezielle Derivate, die wiederum Hull in seinem Buch definiert als: Ein Derivat ist ein Finanzinstrument, dessen Wert von einem anderen, einfacheren zu Grunde liegenden Finanzinstrument (underlying) abhängt . Ein underlying kann unter anderem auch eine Anleihe, eine Aktie oder der Umtauschkurs zweier Währungen sein....
Ziel dieser Arbeit war die Entwicklung einer ergänzenden Korrekturmethode auf die bei hohen Multiplizitäten auftretende Ineffizienz des im Rahmen des NA35-Experiments benutzten zentralen Spurdetektors, der NA35-Streamerkammer, sowie die Analyse der damit aufgenommenen Kern-Gold-Ereignisse. Diese, speziell für hohe Multiplizitäten und große Rapiditäten konzipierte Korrekturmethode zeigt im Bereich um Midrapidity gute Übereinstimmung mit den traditionellen Korrekturmethoden als auch mit den Daten des zweiten, zur Streamerkammer komplementären Spurdetektors, der NA35-TPC, für hohe Rapiditäten. Es ist somit eine Erweiterung der Streamerkammerakzeptanz je nach Stoßsystem um 0.5-1 Rapiditätseinheiten gelungen, die eine 4-Pi-Extrapolation auf den vollständigen Phasenraum erlaubt. Die Analyse der damit korrigierten Daten zeigt für die Rapiditätsverteilung der negativen Hadronen eine systematische Verschiebung der gemessenen sowie extrapolierten mittleren Rapidität weg von Midrapidity des Nukleon-Nukleon-Stoßes bei zunehmender Asymmetrie des Stoßsystems. Die Formen der Rapiditätsverteilungen scheinen sich jedoch zu gleichen und die Multiplizität skalierte in etwa mit dem Massenverhältins der Projektilkerne. Ebenso zeigt die spezifische Produktionsrate für negative Hadronen pro partizipierendem Nukleon keine signifikante Projektilabhänigkeit, sie liegt bei ~ 1.7 h-/N part.Protons. Die Rapiditätsverteilungen der Nettoprotonen skalieren oberhalb midrapidity mit der Projektilmasse und deutet auf keine Abhängigkeit des stoppings von der Größe des Projektilkerns hin. Sämtliche Projektilnukleonen scheinen im wesentlich schwereren Targetkern demnach gleichviel Energie zu deponieren (gleich stark abgebremst zu werden). Die Transversalimpulsspektren der Nettoprotonen lassen sich gut durch die Verteilungen thermischer Quellen beschreiben, wobei sich für das Stoßsystem 2d+197Au eine Temperatur der Quelle von ungefähr 160MeV, also im Bereich des Hagedorn-Limits, ergibt. Im Falle der 16O+197Au-Daten ergeben sich Temperaturen größer 200MeV. Diese Arbeit schließt die Akzeptanzlücke zwischen den zwei komplimentären Spurdetektoren im NA35-Experiment und ermöglicht damit die Studie von Schwerionenstößen im nahezu vollständigen Phasenraum für zentrale Kern-Gold-Kollisionen.
Diese Diplomarbeit beschäftigt sich mit dem Entwurf und der Implementierung der Auslesefirmware für den GET4 Chip im Rahmen des CBM (Compressed Baryonic Matter) Experiments.
Physikalische Experimente mit Teilchenbeschleunigern, wie das geplante CBM Experiment, erzeugen große Mengen an Sensordaten, die aufbereitet, gespeichert und ausgewertet werden müssen. Der GET4 Chip ist ein möglicher TDC (Time to Digital Converter) Chip mit 4 Kanälen für den TOF (Time of Flight) Detektor des CBM Experiments. Der GET4 Chip erzeugt einen Zeitstempel für die Treffer der TOF RPC (Resistive Plate Chambers) Sensoren.
Die Auslese der GET4 Daten wird von einem ROC (Readout Controller Board) übernommen, das mit einem FPGA (Field Programmable Gate Array) ausgestattet ist. Das ROC Board lässt sich über die ROC Firmware für verschiedene Einsatzzwecke flexibel konfigurieren, so dass damit auch andere Frontend Elektronik, wie z.B. der n-XYTER Chip, ausgelesen werden kann. Während dieser Diplomarbeit wurde das SysCore2 mit einem Virtex-4 FX20 als ROC verwendet. Inzwischen ist das SysCore3 verfügbar, das einen deutlich leistungsfähigeren FPGA besitzt. Die bisher verfügbare Firmware für den GET4 war für den Betrieb im 24 Bit Modus konzipiert.
Der bevorzugte Auslesemodus für den GET4 ist der 32 Bit Modus, da der 24 Bit Modus einige Beschränkungen aufweist und die volle Funktionalität des GET4s nur im 32 Bit Modus zur Verfügung steht. Im Rahmen dieser Diplomarbeit wurde die vorhandene 24 Bit Firmware für den 32 Bit Modus erweitert, so dass der zweite Datenkanal des GET4s, sowie der DDR (Double Data Rate) Modus für die Datenübertragung zur Verfügung steht. Neben der Erhöhung der Datenübertragungsraten stand die mögliche Skalierbarkeit der Firmware für die Auslese möglichst vieler GET4 Chips im Fokus. Dazu musste die Firmware umgestaltet werden, um die begrenzten BRAM Ressourcen des FPGAs nicht unnötig zu belegen.
Eine weitere wichtige Neuerung der 32 Bit Firmware ist die automatische Synchronisation der Epochen zwischen ROC und GET4. Dazu werden die Epochennachrichten der GET4s mit der Epoche des ROCs verglichen und bei Bedarf Synchronisationsnachrichten mit der korrekten Epoche an die GET4s gesendet.
Der Theorieteil befaßt sich mit den bisher vorliegenden Erkenntnissen über Lerntypen. Anregungen zu dieser Untersuchung kamen von den Neurophysiologen ECCELS J.C. und POSNER M.I.,von den Pädagogischen Psychologen WEIDENMANN B und GAAL J., von dem Pädagogen VESTER F. und dem Psychologen PAIVIO A., auf dessen Thesen von den drei Kodierungssystemen (1964) die Forschungsansätze zu diesem Thema beruhen. Darüber hinaus wurde der kommerzielle Hirndominanztest von HERMANN N. und einige Arbeiten von Vertretern des Neurolinguistischen Progammierens berücksichtigt.
Untersucht wurde die Auswirkungen der visuellen, auditiven und kinästhetischen Unterrichtsformen auf zwölf Jugendliche im Alter zwischen acht und zwölf Jahren. Im Anschluß an die Untersuchung wurde den Kindern ein Fragebogen vorgelegt, mit dessen Hilfe die präferierten Sinneskanäle erfaßt werden sollten. Dies schließt insofern eine Forschungslücke, als hier zum erstenmal die Modalitäten von Probanden festgestellt wurden. Dies befähigt zur Beantwortung der Frage: Wie unterrichte ich wen?
Die Kinder hatten am Jugendtraining des Licher Golfclubs teilgenommen und standen in den letzten drei Wochen der Saison 1996 für den Test zur Verfügung. Der Lernerfolg wurde ausschließlich durch einen Vergleich der Leistung vor und nach dem Unterricht ermittelt. Hierbei wurde beobachtet, daß jedes Kind eine bestimmte Reihenfolge von Lernmodalitäten bevorzugt. Ein für diese Situation entwickelter Fragebogen stimmte in 7 von 12 Fällen mit den Testergebnissen überein. Die Lernleistung kann bei Ansprache der präferierten Sinnesmodalitäten optimiert werden.
Die Ergebnisse haben gezeigt, daß Zusammenhänge zwischen der Instruktion präferierter Sinnesmodalitäten und der Lernleistung bestehen.
Der letzte Teil der Arbeit befaßt sich mit der praktischen Umsetzbarkeit der Ergebnisse und ihren möglichen Auswirkungen auf die Kommunikation.
HADES ist ein hochauflösendes Dielektronenspektrometer, welches derzeit an der GSI in Darmstadt aufgebaut wird. Ziel ist die Messung von Leptonenpaaren, die in schwerioneninduzierten Reaktionen entstehen. Die invariante Masse der Leptonenpaare soll mit einer Genauigkeit von ~ 1% bestimmt werden. Das HADES-Detektorsystem verwendet Vieldraht-Proportionalkammern zur Rekonstruktion der Teilchenspuren. Aus diesen werden in Verbindung mit der Feldinformation des supraleitenden Magneten die Teilchenimpulse gewonnen, welche wiederum in die invariante Masse eingehen. Über die Driftzeit1 werden die genauen Durchstoßpunkte der Teilchenbahnen durch die verschiedenen Ebenen der Driftkammern erhalten. Dazu ist es erforderlich, die Driftgeschwindigkeit der Elektronen im verwendeten Zählgas zu kennen. Änderungen im Mischungsverhältnis des Zählgases (Helium und Isobutan), aber auch Verunreinigungen des Gases (H2O) können die Driftgeschwindigkeit beeinträchtigen. Verunreinigungen (O2) können weiterhin die Effizienz der Driftkammern verschlechtern. Ziel war deshalb der Aufbau eines Monitorsystems, welches auf Änderungen der Gasmischung und auf eventuelle Kontaminationen (im wesentlichen O2 und H2O) sensitiv ist. Zu diesem Zweck wurde ein Driftgeschwindigkeitsmonitor getestet. Er erlaubt eine Messung der Driftgeschwindigkeit mit einer Genauigkeit von bis zu 0,1% (sigma), allerdings bei anderen elektrischen Feldstärken als in den HADES Driftkammern. Während der einwöchigen Strahlzeit im Mai 2000 wurde die Driftgeschwindigkeit mit dem Prototypen des Driftgeschwindigkeitsmonitors gemessen. Die druckkorrigierte Driftgeschwindigkeit erlaubt Rückschlüsse auf die Gasqualität. Die Messungen ergaben, daß die Ortsauflösung in den HADES Driftkammern nicht von Driftgeschwindigkeitsschwankungen dominiert wird. Eine Extrapolation der Meßergebnisse auf die in den HADES Driftkammern vorherrschenden Feldstärkeverhältnisse ist möglich. Eine relative Signalhöhenmessung ist sensitiv auf den Sauerstoffgehalt des Zählgases bis in den ppm-Bereich. Zwei endgültige Versionen des Driftgeschwindigkeitsmonitors wurden aufgebaut und in das HADES Detektorsystem integriert. Je ein Driftgeschwindigkeitsmonitor wurde am Gasein- und am Gasausfluß aufgestellt, um die Driftgeschwindigkeit dort zu messen und Vergleiche zwischen Frischgas und aus den Kammern ausströmendem ”alten“ Gas zuzulassen. Die Auslese und Datenanalyse des Monitorsystems wurde automatisiert.
In der vorliegenden Arbeit ist es gelungen, hinreichend ebene Goldoberflächen als Substrate für Self-assembled Monolayers durch Aufdampfen auf Glimmer herzustellen und herauszuarbeiten, unter welchen Bedingungen sich die Struktur dieser Goldschichten für die Aufbringung der Monolagen verbessern lässt. Hervorzuheben ist hierbei, dass das Erhitzen des Glimmers während des Aufdampfvorgangs die Rauigkeit der Goldoberfläche reduziert. Vier unverzweigte Alkanthiole (HS-C10H20-CH3, HS-C15H30-CH3, HS-C17H34-CH3 und HS-C10H20-COOH) wurden in vier verschiedenen Konzentrationen in Ethanol gelöst und auf das Substrat aufgebracht. Die Thiole unterschieden sich in Kettenlänge (11, 16 und 18 C-Atome) sowie in der Kopfgruppe (CH3 und COOH). Die entstandenen Filme wurden ebenso wie die verwendeten Goldoberflächen mit dem Rasterkraftmikroskop im Tappingmode, im Contactmode und zum Teil im Frictionmode sowie unter Ethanol vermessen. Zwei Spitzen des Rasterkraftmikroskops wurden durch das Aufbringen einer Monolage (HS-C15H30-CH3 und HS-C10H20-COOH) funktionalisiert. Alle Monolagen wurden mit diesen Spitzen vermessen. Die gewonnenen Abbildungen lassen bis zu einem gewissen Punkt Rückschlüsse über die Beschaffenheit der Self-assembled Monolayers und ihre Eigenschaften zu, dies gilt vor allem für die Messungen im Frictionmode und die Abbildungen, die mit funktionalisierten Spitzen erzielt wurden. Da die Monolagen offensichtlich ohne sichtbare Fehlstellen ausgebildet wurden, fällt es schwer, die Abbildung der Filme von denen der Goldoberflächen eindeutig zu unterscheiden, auch wenn die ausgewerteten Linienprofile zeigen, dass die Rauigkeit der Oberfläche durch die Aufbringung von Monolagen verringert wird. Für zukünftige Messungen sollten die Monolagen vor der Vermessung durch Micro-Printing strukturiert werden. Zwischen Monolagen und funktionalisierten Spitzen wurden Kraft-Abstandskurven und Force-Volume-Abbildungen unter Laborbedingungen aufgezeichnet. Die ermittelten Werte liegen um Größenordnungen über den Werten aus der Literatur, was sich durch den auf den Monolagen unterschiedlich starken Wasserfilm, und den daraus resultierend, wirkenden Kapilarkräften bei der Messung erklären lässt. Diese Messungen sollten unter Flüssigkeit wiederholt werden, um aussagekräftige Ergebnisse zu erzielen. Es gelang dennoch durch diese Messungen, die Existenz der Monolagen auf Substrat und Spitze eindeutig nachzuweisen.
Entwurf und Realisierung von Sicherheitsmechanismen für eine Infrastruktur für digitale Bibliotheken
(2002)
Angesichts der überragenden Bedeutung der modernen Kommunikationstechnik in allen Lebensbereichen kommt auch den digitalen Bibliotheken ein wachsendes Gewicht zu. Dabei spielen nicht nur die platzsparende Speicherung, sondern auch die schnelle Datenübermittlung und der unmittelbare Zugang zu den Dokumenten eine wichtige Rolle. Da eine solche Bibliothek über ein offenes Netz betrieben wird, erhalten in diesem Zusammenhang Sicherheitsaspekte ein essentielles Gewicht. Die vorliegende Diplomarbeit geht diesen Fragen nach und zeigt Wege auf, wie die bestehenden Sicherheitsrisiken minimiert werden können. Ziel dieser Arbeit war daher der Entwurf und die Realisierung von Sicherheitsmechanismen für eine Infrastruktur für digitale Bibliotheken. Dabei wurde speziell auf die INDIGO-Infrastruktur eingegangen; sie stellt eine verteilte Infrastruktur für digitale Bibliotheken dar. Der erste Teil dieser Diplomarbeit enthält eine Einführung in die Grundlagen der INDIGO-Infrastruktur und der Sicherheit. In Kapitel [*] wurden die INDIGO-Infrastruktur und ihre Komponenten erläutert; in Kapitel [*] folgte anschließend die Beschreibung einiger kryptographischer Verfahren und Sicherheitsprotokolle. Im zweiten Teil dieser Arbeit wurden Sicherheitsmechanismen für die INDIGO-Infrastruktur entworfen. In dieser Entwurfsphase erfolgte zunächst in Kapitel [*] die Sicherheitsanalyse der Infrastruktur. Basierend auf dieser Analyse wurden in Kapitel [*] Sicherheitskonzepte für diese Infrastruktur entwickelt. Während der gesamten Entwurfsphase standen die Sicherheitsanforderungen Vertraulichkeit, Authentizität, Integrität, Verbindlichkeit und die Autorität stets im Mittelpunkt des Interesses. Im dritten und letzten Teil der Arbeit wurden die Sicherheitsmechanismen für die INDIGO-Infrastruktur realisiert. Dabei wurden die in Abschnitt [*] beschriebenen Sicherheitsrichtlinien der Infrastruktur implementiert. Die Beschreibung der Implementierung erfolgte in Kapitel [*]. Die wichtigsten Modifikationen des INDIGO-Servers betrafen folgende Punkte: * Sicherung und Aufbau der verbindlichen Kommunikationskanäle durch den Einsatz von SSL- bzw. TLS-basierten Server-zu-Server Verfahren. * Realisierung von Sicherheitsmechanismen zur Verifikation der digital signierten Dokumente und Dokumentmethoden. * Erweiterung des INDIGO-Servers um feingranuliert konfigurierbare Zugriffsmechanismen, die verteilt auf drei unterschiedliche Ebenen den Zugriff der Anwender (bzw. Dokumentmethoden) auf seine Ressourcen kontrollieren. Neben den Modifikationen des INDIGO-Servers wurden zwei neue Clients zur Kommunikation mit dem INDIGO-Server und eine Anwendung zur Erzeugung der digitalen Signatur der Dokumente entwickelt. Ferner wurden einige neue Metadokumente und Dokumentmethoden erstellt, um die neuen Eigenschaften der Infrastruktur zu demonstrieren. Bei der Realisierung der Sicherheitsmechanismen wurde größter Wert auf die Abwärtskompatibilität, Konfigurierbarkeit und Modularität gelegt. Die Abwärtskompatibilität zur ursprünglichen Infrastruktur wird beispielsweise erreicht, indem die bereits existierenden Metadokumente und Dokumentmethoden bei dem modifizierten Server auch verwendet werden können. Diese müssen - falls nötig - minimal um die digitale Signatur der Autoren ergänzt werden. Das Sicherheitsverhalten des INDIGO-Servers läßt sich beliebig über seine Konfigurationsdatei ändern (Konfigurierbarkeit). Alle wichtigen Sicherheitsmechanismen des modifizierten Servers lassen sich den Wünschen des Betreibers anpassen. Dadurch ist sichergestellt, daß jeder Betreiber den Server seinen jeweiligen Sicherheitsbedürfnissen entsprechend betreiben kann. Der Betreiber kann beispielsweise über die Einstellung seiner Konfigurationsdatei bestimmen, ob die Clients sich bei der Kommunikation mit seinem Server identifizieren müssen. Zudem kann er beispielsweise festlegen, ob die Dokumentmethoden, die keine korrekte digitale Signatur besitzen, ausgeführt werden dürfen oder nicht. Die Konfigurierbarkeit des Servers hinsichtlich der Sicherheitsmechanismen geht sogar so weit, daß man den Server im Normalmodus betreiben kann; in diesem Modus sind alle Sicherheitsmechanismen des Servers ausgeschaltet. Die Modularität hinsichlich der Sicherheitsmechanismen wurde bei der Implementierung durch die Verteilung dieser Mechanismen auf die unterschiedlichen und eigenständigen Klassen erzielt, die jeweils eine wohldefinierte Eigenschaft und Aufgabe besitzen. Diese Vorgehensweise führt dazu, daß bei einer Weiterentwicklung des Servers um neue Sicherheitsdienste nur die wenigen betroffenen Klassen modifiziert werden müssen, ohne daß der gesamte Server davon betroffen ist. So kann der INDIGO-Server beispielsweise um den Authentisierungsdienst Kerberos [Stei88] erweitert werden, in dem nur die entsprechende Authentisierungsklasse des Servers (IndigoAuthorization-Klasse) ergänzt wird.
Euklidische Zerlegungen nicht-kompakter hyperbolischer Mannigfaltigkeiten mit endlichem Volumen
(1998)
Epstein and Penner constructed in [EP88] the Euclidean decomposition of a non-compact hyperbolic n-manifold of finite volume for a choice of cusps, n >= 2. The manifold is cut along geodesic hyperplanes into hyperbolic ideal convex polyhedra. The intersection of the cusps with the Euclidean decomposition determined by them turns out to be rather simple as stated in Theorem 2.2. A dual decomposition resulting from the expansion of the cusps was already mentioned in [EP88]. These two dual hyperbolic decompositions of the manifold induce two dual decompositions in the Euclidean structure of the cusp sections. This observation leads in Theorems 5.1 and 5.2 to easily computable, necessary conditions for an arbitrary ideal polyhedral decomposition of the manifold to be a Euclidean decomposition.
In dieser Arbeit wurde die Pionenproduktion in C + C und Si + Si - Kollisionen bei 40A GeV und 158A GeV untersucht. Dazu wurden zwei vollkommen unterschiedliche Methoden, die dE/dx- Teilchenidentifizierung und die h- - Methode, bei der der Anteil von Nicht- Pionen simuliert wird, verwendet. Die Ergebnisse beider Methoden stimmen gut überein, die Differenz fließt in den systematischen Fehler ein. Für die Bestimmung der totalen Multiplizitäten und mittleren transversalen Massen wurde die h- - Methode aufgrund ihrer größeren Akzeptanz gewählt. Zusätzlich wurde für 40A GeV C + C eine zentralitätsabhängige Analyse der Pionenmultiplizitäten vorgenommen. Die Ergebnisse dieser Analyse sollten jedoch als vorläufig angesehen werden. Die Ergebnisse meiner Analyse wurden mit der von C. Höhne [14] bei 158A GeV verglichen, sie stimmen innerhalb der Fehler überein. Es wurden Modelle zur Simulation von Kollisionen (UrQMD, Venus) vorgestellt und angewandt, um die experimentellen Ergebnisse mit den Vorhersagen der Simulationen zu vergleichen. Ein weiteres Modell (Statistical Model of the Early Stage) wurde vorgestellt, welches die qualitative und anschauliche Interpretation der Daten erlaubt. Die Ergebnisse wurden als Energie- und Systemgrößenabhängigkeitsplots zusammen mit anderen NA49- Ergebnissen, Ergebnissen anderer Experimente und Simulationsvorhersagen gezeigt und diskutiert. Der Übergang von der Unterdrückung der Pionenproduktion in Pb+Pb - Kollisionen relativ zu p+p zu einer Erhöhung der Pionenproduktion bei niedrigen SPS-Energien wurde auch bei kleinen Systemen, C + C und Si + Si , beobachtet. Eine Interpretation der Pionenmultiplizitäten mit den Statistical Model of the Early Stage legt die Vermutung nahe, dass bereits bei 40A GeV C + C - Kollisionen Quark- Gluon- Plasma gebildet wird. Diese Vermutung muss allerdings durch die Betrachtung weiterer Observabler noch bestätigt werden.