Refine
Year of publication
- 2004 (24) (remove)
Document Type
- diplomthesis (24) (remove)
Has Fulltext
- yes (24)
Is part of the Bibliography
- no (24)
Keywords
- Atom (1)
- Caché (1)
- EML (1)
- IMS Learning Design (1)
- InterSystems (1)
- Ionisation (1)
- Laser (1)
- Lehrerbildung (1)
- Medienpädagogik (1)
- Molekül (1)
Institute
- Physik (11)
- Informatik (6)
- Mathematik (3)
- Wirtschaftswissenschaften (3)
- Biochemie und Chemie (1)
In dieser Arbeit wurde die Produktion von Omega und Anti-Omega Hyperonen in zentralen Pb+Pb-Kollisionen bei 40 A GeV am CERN SPS mit dem NA49 Experiment untersucht. Der in dieser Arbeit verwendete Datensatz wurde während einer 4 wöchigen Strahlzeit 1999 aufgenommen. Dabei wurden 579446 Zentrale (7.2 % des totalen Wirkungsquerschnitts) Ereignisse, bei zwei verschiedenen Polarit aten (std+ und std-), aufgezeichnet. Die Omega Produktion bei 40 A GeV wird mit Messungen bei anderen Energien verglichen, um damit die Energieabhangigkeit der Omega Produktion zu untersuchen. Das Experiment NA49 erlaubt genaue Messungen in einem weiten Akzeptanzbereich. Man misst die Zerfallstochter des Omegas und die Zerfallstochter des Omegas mit hochauflösenden TPCs. Mehrfach seltsame Teilchen (Theta, Omega) werden durch ihre Zerfallstopologie identifiziert. Es wurden verschieden Qualitatskriterien verwendet, um den kombinatorischen Untergrund zu reduzieren. NA49 hat nur eine endliche geometrische Akzeptanz und kann deshalb nicht den ganzen Phasenraum abdecken. Außerdem wurden verschiedene Qualitatskriterien verwendet, um ein akzeptables Signal zu Untergrund Verhaltnis zu erhalten. Da es wegen der Akzeptanz und der Qualitatskriterien zu Verlusten kommt, muss man darauf korrigieren. Dies macht man mittels einer Simulation, in der man Omega Hyperonen simuliert. Die Omega Hyperonen werden uber drei Rapiditatseinheiten um den Bereich zentraler Rapiditat und mit Transversalimpulsen von 0.9 bis 2.4 GeV/c gemessen. Es wurde der Temperaturparameter des Omega Hyperons bei 40 A GeV bestimmt. Im Rahmen der Fehler ist der Temperaturparameter der 40 A GeV dem der 158 A GeV gleich. Betrachtet man den Temperaturparameter der Omegas als Funktion der Schwerpunktenergie, gibt es einen Anstieg des Temperaturparameters von SPS- zu RHIC-Energien. Es wurden jeweils die Multiplizitaten bei mittlerer Rapiditat für Omega und Anti-Omega bestimmt. Die Multiplizität vom Omega betragt 0.068 +- 0.020 (stat.) +- 0.019 (sys.) und vom Anti-Omega 0.027 +- 0.008 (stat.) +- 0.007 (sys.). Die Multiplizitaten bei mittlerer Rapiditat steigen für Omega und Anti-Omega mit der Schwerpunktenergie von SPS- zu RHIC-Energien. Die Ergebnisse stimmen mit den Messungen der NA57 Kollaboration überein. Bei 40 A GeV wurde erstmals eine Rapiditatsverteilung gemessen. Die daraus resultierende totale Multiplizitat fur Omega + Anti-Omega betragt 0.20 +- 0.03 (stat.) +- 0.04 (sys.). Mit steigender Schwerpunktenergie steigt die totale Multiplizität und die Rapiditätsverteilung wird breiter. Um den systematischen Fehler zu bestimmen, wurde eine Stabilität-Analyse des mt-Spektrums und der Rapiditatsverteilung durchgefuhrt. Der systematische Fehler der mt-Spektren betragt 18 % und der totalen Multiplizitat 21 %. Schaut man sich die Anregungsfunktion der Omega und Anti-Omega als Funktion der Schwerpunktenergie an, erkennt man, dass es eine leichte Energieabhängigkeit beim Anti-Omega / Pi-Minus ....
Die vorliegende Diplomarbeit lässt sich dem Gebiet der Terahertz-Physik (THz-Physik) zuordnen, also dem Gebiet der Physik, das sich mit der Erzeugung und Detektion von Ferninfrarotstrahlung beschäftigt. THz-Strahlung stellt dabei die Verbindung zwischen den elektromagnetischen Mikrowellen und den Wellen des infraroten Frequenzbereiches dar. Damit umfasst der THz-Bereich Frequenzen von etwa 100 GHz bis zu 100 THz. Die Forschung, die sich mit diesem Frequenzbereich beschäftigt, ist mittlerweile stark differenziert. Dabei geht es auf der einen Seite um die Entwicklung neuer bzw. die Weiterentwicklung und Optimierung bestehender THz-Erzeugungs- und Detektionsverfahren, auf der anderen Seite geht es um die Frage nach den möglichen Anwendungsgebieten für die entwickelten THz-Techniken. Entwickelt werden sowohl gepulste wie auch Dauerstrich-THz-Systeme, die auf einer Vielzahl verschiedener physikalischer Emissionsprozesse basieren. Die Anwendungsseite der THz-Forschung umfasst Gebiete wie die Spektroskopie, d.h. die Materialcharakterisierung und -untersuchung, aber auch komplexe biomedizinische Untersuchungsverfahren, wie z.B. die Krebsdiagnostik in der Onkologie. In der Bandbreite der weltweiten THz-Aktivitäten befindet sich diese Arbeit sowohl im Bereich der Entwicklung von THz-Techniken als auch in dem eher anwendungsbezogenen Bereich: Zunächst werden im zweiten Kapitel die verwendeten THz-Techniken und Messaufbauten vorgestellt, ebenso wie deren Funktionsweisen und speziellen Eigenschaften. Das dritte Kapitel beschäftigt sich mit der experimentellen Untersuchung von großflächigen THz-Emittern in gepulsten Lasersystemen. Diese weisen gegenüber den häufig verwendeten punktförmigen THz-Emittern einige grundlegende Unterschiede auf. Diese Unterschiede sollen zunächst durch die in das Kapitel einführenden theoretischen Grundlagen herausgearbeitet und danach anhand eines elektrooptischen Emitters und eines elektrisch vorgespannten Halbleiteremitters überprüft werden. In den folgenden Kapiteln wendet sich der Fokus dann mehr der Anwendung von THz-Strahlung zu. Dazu finden im vierten Kapitel Überlegungen und Experimente zu der Charakterisierung von, zunächst anorganischen, mehrschichtigen Systemen auf der Basis von Halbleiterstrukturen statt, die mit einem Ausblick auf eine biomedizinische Anwendung der THz-Strahlung, bei der Untersuchung von Zähnen, abgeschlossen werden. Im fünften Kapitel soll ein Silizium-Paraffin-Gemisch auf seine Stoffigenschaften untersucht werden. Für dieses Gemisch lassen sich die Stoffeigenschaften im THz-Bereich mittels des Mischungsverhältnisses der beiden Ausgangsmaterialien anpassen. Mögliche Anwendungen für ein solches Material sind indexangepasste Füllungen von Zwischenräumen, um störende Reflexionen an den jeweiligen Grenzflächen zu vermeiden; so wie die Konstruktion von Antireflexionsschichten für THz-Optiken. Beide Anwendungen werden in Form von Experimenten vorgestellt. Abschließend werden alle Ergebnisse in einem Fazit zusammengefasst, und es erfolgt ein Ausblick auf weitere Untersuchungen.
Im Rahmen dieser Arbeit wurden Protonen an im Raum ausgerichteten D2-Molekülen gestreut. Ziel war es nach möglichen Interferenzstrukturen in der Streuwinkelverteilung der Projektile zu suchen. Solche Interferenzstrukturen sind durch die Theorie vorhergesagt. Sie sind in Analogie zur Beugung am Doppelspalt ein Ergebnis der kohärenten Streuung des Projektils an den beiden Kernen des D2-Moleküls. Für den Reaktionskanal des Elektroneneinfangs mit gleichzeitiger Dissoziation des Moleküls mit einer Energie zwischen 4 und 7eV zeigen die experimentellen Daten tatsächlich ein Minimum an etwa der vorhergesagten Stelle. Dieses Minimum variiert mit der Orientierung der Molekülachse allerdings nicht ganz, wie aufgrund der Analogie zum Doppelspalt zu erwarten ist. Für den gleichzeitig im Experiment beobachteten Kanal der Transferionisation, der zu einer Fragmentenergie von etwa 9eV führt, wurden im Experiment keine Modulation der Streuverteilung beobachtet. Der beobachtete Reaktionskanal der Dissoziation wirft weitere Fragen auf, die über das einfache Doppelspalt-Bild hinausgehen. So kann das dissoziierende D2-Ion sowohl in einem geraden als auch in einem ungeraden Zustand seiner elektronischen Wellenfunktion zurückbleiben. Diese Symmetrie der elektronischen Wellenfunktion beeinflusst ebenfalls die Phase der gestreuten Welle. Eine zuverlässige Vorhersage des zu erwartenden Kontrastes des Interferenzmusters hängt von der relativen Stärke der Anregung in den geraden und ungeraden Zustand ab. Dieser Effekt ist bisher nicht in den theoretischen Modellen berücksichtigt. Diese Frage kann aber auch durch weitere Experimente geklärt werden. Im Rahmen einer anderen Diplomarbeit [Wim04] wurde ein sehr ähnliches Experiment vermessen: Ein einfach geladenes Wasserstoffmolekülion wird beschleunigt, stößt mit einem nahezu ruhenden Atom und fängt dabei ein Elektron ein. Durch den Elektroneneinfang geht das Molekül u. a. in einen 1ssu-Zustand über, der zur Dissoziation führt. Genau wie in diesem Experiment auch, kann dadurch die Molekülachse festgehalten werden. Betrachtet man in der Auswertung die Bewegung beider Teilchen in inverser Kinematik, d.h. lässt man das neutrale Atom auf das Molekül zufliegen, so zeigen sich in der Impulsverteilung des Rückstoßions (Atomions) Minima und Maxima, deren Position sich mit der Drehung des Moleküls ändert. Dies bestätigt eigentlich die Existenz von Interferenzen. Nur wird hier, wie bereits gesagt, die inverse Kinematik betrachtet, zudem vermisst man eigentlich den umgekehrten Übergang vom 1ssg-Zustand des Molekülions in den 1ssu-Zustand des Moleküls. Um theoretische Berechnungen jedoch direkt zu bestätigen, ist es durchaus erstrebenswert, die Kinematik wie hier in dem hier vorgestellten Experiment zu vermessen. Aus diesem Grund werden in nächster Zeit noch weitere Messungen vorgenommen, in denen mit gleichem Aufbau, jedoch mit einer niedrigeren Projektilenergie (10 keV - 25 keV), die gleiche Reaktion untersucht wird. Mit der niedrigeren Energie des Projektils soll eine sehr viel bessere Streuwinkelauflösung erreicht werden, so dass sie die Beobachtung möglicher Interferenzen definitiv nicht mehr begrenzt. Dadurch können zum einen die Ergebnisse dieser Arbeit auf ihre Richtigkeit überprüft werden. Wenn tatsächlich Interferenzstrukturen zu beobachten sind, zeigen zum anderen eventuelle Veränderungen, ob eine Analogie zum Doppelspalt gerechtfertigt ist.
Die Darstellung photorealistischer Szenen durch Computer hat in Folge der Entwicklung immer effizienterer Algorithmen und leistungsfähigerer Hardware in den vergangenen Jahren gewaltige Fortschritte gemacht. Täuschend echt simulierte Spezialeffekte sind aus kaum einem Hollywood-Spielfilm mehr wegzudenken und sind zum Teil nur sehr schwierig als computergenerierte Bilder zu erkennen. Aufgrund der Komplexität von lebenden Organismen gibt es allerdings noch kein einwandfreies Verfahren, welches ein komplettes Lebewesen realistisch, sei es statisch oder in Bewegung, mit dem Computer simulieren kann. Im Bereich der Animation sind wirkungsvolle Resultate zu verzeichnen, da das Skelett eines Menschen oder Wirbeltieres durch geeignete Methoden simuliert und Bewegungen damit täuschend echt mit dem Computer nachgebildet werden können. Die Schwierigkeit, eine komplett realistische Visualisierung eines Lebewesens zu erreichen, liegt allerdings in der Darstellung weiterer Strukturen eines Organismus, die zwar nicht direkt sichtbar sind aber dennoch Einfluss auf die sichtbaren Bereiche haben. Bei diesen Strukturen handelt es sich um Muskel- und Fettgewebeschichten. Die Oberfläche von Figuren wird durch Muskeln sowohl in der Bewegung als auch in statischen Positionen deutlich sichtbar verändert. Dieser Effekt wird bisher bei der Visualisierung von Lebewesen nur unzureichend beachtet, was zu den aufgeführten nicht vollständig realistisch wirkenden Ergebnissen führt. Bei der Simulation von Muskeln wurden bis heute verschiedene Muskelmodelle entwickelt, die einen Muskel als Gesamtheit in Hinblick auf seine grundsätzlichen physikalischen Eigenschaften, wie z. B. Kraftentwicklung oder Kontraktionsgeschwindigkeit, sehr gut beschreiben. Viele Effekte des Muskels, die sich hauptsächlich auf einer tiefer liegenden Ebene abspielen, sind bis heute noch nicht erforscht, was folglich auch keine entsprechende Simulation auf dem Computer zulässt. Beschrieben werden die verschiedenen Muskeltypen (Skelett-, glatte und Herzmuskulatur) und Muskelformen (spindelförmige, einfach/doppelt gefiedert, etc.). Des weiteren wird auf die unterschiedlichen Muskelfasertypen (FTO, STO, usw.) mit ihren Eigenschaften und Funktionen eingegangen. Weitere Themen sind der strukturelle Aufbau eines Skelettmuskels, der Kontraktionsmechanismus und die Ansteuerung durch Nervenreize. Im Bereich Biomechanik, also der Forschung nach den physikalischen Vorgängen im Muskel, führte die Komplexität der Struktur und Funktionsweise eines Muskels zu einer ausgedehnten Vielfalt an Forschungsarbeiten. Zahlreiche Effekte, die bei einem arbeitenden Muskel beobachtet werden können, konnten bis heute noch nicht erklärt werden. Die Erkenntnisse, die für diese Arbeit relevant sind, sind jedoch in einem ausreichenden Maße erforscht und durch entsprechende mathematische Modelle repräsentierbar. Die Mechanik, die einem Muskel zugrunde liegt, wird auf diesen Modelle aufbauend beschrieben. Neben den Größen, die im später vorgestellten Modell verwendet worden sind, wird auch auf sonstige für biomechanische Untersuchungen relevante Eigenschaften eingegangen. Weiterhin wird dargestellt, wie verschiedene Kontraktionen (Einzelzuckung, Tetanus) mechanisch funktionieren. Für Muskelarbeit und Muskelleistung werden verschiedene Diagramme vorgestellt, welche die Zusammenhänge zwischen den physikalischen Größen Kraft, Geschwindigkeit, Arbeit und Leistung zeigen. Nach Vorstellung der ISOFIT-Methode zur Bestimmung von Muskel-Sehnen-Eigenschaften werden mathematische Formeln und Gleichungen zur Beschreibung von Kraft-Geschwindigkeits- und Kraft-Längen-Verhältnissen sowie der serienelastischen Komponente und der Muskelaktivierung, die zur Bewegungsgleichung führen, angegeben. Es folgen weitere mathematische Funktionen, welche die Aktivierungsvorgänge unterschiedlicher Muskelkontraktionen beschreiben, sowie das Muskelmodell nach Hill, welches seit vielen Jahren eine geeignete Basis für Forschungen im Bereich der Biomechanik darstellt. Bezüglich der Computergraphik wird ein kurzer Abriss gegeben, wie künstliche Menschen modelliert und animiert werden. Eine Übersicht über verschiedene Methoden zur Repräsentation der Oberfläche von Körpern, sowie deren Deformation unter Berücksichtigung der Einwirkung von Muskeln gibt die State-of-the-Art-Recherche. Neben den Oberflächenmodellen (Starrkörperdeformation, lokale Oberflächen-Operatoren, Skinning, Konturverformung, Deformation durch Keyshapes) werden auch Volumen- (Körperrepräsentation durch Primitive, Iso-Flächen) und Multi-Layer-Modelle (3-Layer-Modell, 4-Layer-Modell) vorgestellt und deren Vor- und Nachteile herausgearbeitet. Eine geeignete Repräsentation der Oberfläche, die Verformungen durch Muskelaktivität einbezieht, wurde durch die Benutzung von Pneus gekoppelt mit der Quaoaring-Technik gefunden. Dieses Verfahren, das auf Beobachtungen aus der Biologie basiert und zur Darstellung von organischen Körpern benutzt wird, ist ausgesprochen passend, um einen Muskel-Sehnen-Apparat graphisch darzustellen, handelt es sich doch hierbei auch um eine organische Struktur. Um die beiden Teilmodelle Simulation und Visualisierung zu verbinden, bietet sich die aus der Biomechanik bekannte Actionline an, die eine imaginäre Kraftlinie im Muskel und der Sehne darstellt. Die bei der Quaoaring-Methode verwendete Centerline, welches die Basis zur Modellierung des volumenkonstanten Körpers ist, kann durch die Kopplung an die physikalischen Vorgänge zu einer solchen Actionline erweitert werden. Veränderungen in der Länge und des Verlaufs der Actionline z. B. durch Muskelkontraktion wirken sich dadurch direkt auf die Form des Muskels aus und die Verbindung zur Visualisierung ist hergestellt.
RDF is widely used in order to catalogue the chaos of data across the internet. But these descriptions must be stored, evaluated, analyzed and verified. This creates the need to search for an environment to realize these aspects and strengthen RDFs influence. InterSystems postrelational database Caché exposes many features that are similar to RDF and provide persistence with semantic part. Some models for relational databases exist but these lack features like object-oriented data-structures and multidimensional variables. The aim of this thesis is to develop an RDF model for Caché that saves RDF data in an object-oriented form. Furthermore an interface for importing RDF data will be presented and implemented.
Die vorliegende Arbeit beschäftigt sich mit der Messung der Elektronen-Driftgeschwindigkeit in dem Gasgemisch Ne/CO2 (90% / 10 %). Durchgeführt wurde sie zur Optimierung der Spurendriftkammer des ALICE-Projektes am CERN. Mit dem Aufbau zur Driftgeschwindigkeitsmessung läßt sich eine Genauigkeit von 1‰ erzielen. Untersucht wurden mit diesem Anspruch die Abhängigkeiten von der Temperatur, von CO2 Konzentrationsänderungen sowie von Stickstoffzugabe. Für die genaue Messung der Driftgeschwindigkeit wurde eine kleine Driftkammer gebaut. Die Ionisation des Gases erfolgt mit Hilfe eines UV-Lasers, dessen Strahl zunächst aufgeweitet, und dann geteilt wird. Der Abstand der so erhaltenen zwei Laser-Strahlen wird mit Hilfe von zwei präzisen Doppelblenden definiert. Zur Kontrolle der Gaszusammensetzung und -qualität wurde eine Gasanalysestation zusammengestellt. Die aufgenommenen Daten werden über ein ADC-System auf einem Computer gespeichert. Damit können in der Analyse die Driftgeschwindigkeitsdaten mit den Gasdaten zeitgleich ausgewertet werden. Das wird u.a. für die Korrektur der Daten auf den momentanen Druck und die Temperatur des Gases benötigt. Die Driftgeschwindigkeit wurde bei Feldstärken von 100 - 900 V/cm in Schritten von 100 V/cm gemessen. Die Spurendriftkammer des ALICE-Experimentes soll bei einer Feldstärke von 400 V/cm arbeiten. Die dafür gemessenen Ergebnisse sind: Temperaturabhängigkeit: Bei der erreichbaren Genauigkeit läßt sich über die Abhängigkeit der Driftgeschwindigkeit ve􀀀 von der Teilchenzahldichte N des Gases ve􀀀 = f(E/N) = f(E*T/P) keine weitere Temperaturabhängigkeit feststellen. Die relative Änderung der Driftgeschwindigkeit mit der Temperatur beträgt: Dv400 e􀀀 DT = 3.1 +- 0.23‰ /K CO2-Abhängigkeit: Die relative Änderung der Driftgeschwindigkeit mit dem CO2-Gehalt bei einer CO2- Konzentration um die 10% beträgt: Dv400 e􀀀;CO2 = -7.69 +- 0.39 Eine Erhöhung des CO2-Gehaltes um 1‰ (10.0% -> 10.1 %) führt also zu einer Herabsetzung der Driftgeschwindigkeit um ca. 7.7‰. N2-Abhängigkeit: Die relative Änderung der Driftgeschwindigkeit bei Stickstoffzugabe beträgt Dv400 e􀀀;N2 = - 1.14 +- 0.08 Eine Zugabe von 1‰ N2 zur Driftgasmischung führt damit zu einer Herabsetzung der Driftgeschwindigkeit um ca. 1.1‰ .
In der vorliegenden Arbeit ist es gelungen, hinreichend ebene Goldoberflächen als Substrate für Self-assembled Monolayers durch Aufdampfen auf Glimmer herzustellen und herauszuarbeiten, unter welchen Bedingungen sich die Struktur dieser Goldschichten für die Aufbringung der Monolagen verbessern lässt. Hervorzuheben ist hierbei, dass das Erhitzen des Glimmers während des Aufdampfvorgangs die Rauigkeit der Goldoberfläche reduziert. Vier unverzweigte Alkanthiole (HS-C10H20-CH3, HS-C15H30-CH3, HS-C17H34-CH3 und HS-C10H20-COOH) wurden in vier verschiedenen Konzentrationen in Ethanol gelöst und auf das Substrat aufgebracht. Die Thiole unterschieden sich in Kettenlänge (11, 16 und 18 C-Atome) sowie in der Kopfgruppe (CH3 und COOH). Die entstandenen Filme wurden ebenso wie die verwendeten Goldoberflächen mit dem Rasterkraftmikroskop im Tappingmode, im Contactmode und zum Teil im Frictionmode sowie unter Ethanol vermessen. Zwei Spitzen des Rasterkraftmikroskops wurden durch das Aufbringen einer Monolage (HS-C15H30-CH3 und HS-C10H20-COOH) funktionalisiert. Alle Monolagen wurden mit diesen Spitzen vermessen. Die gewonnenen Abbildungen lassen bis zu einem gewissen Punkt Rückschlüsse über die Beschaffenheit der Self-assembled Monolayers und ihre Eigenschaften zu, dies gilt vor allem für die Messungen im Frictionmode und die Abbildungen, die mit funktionalisierten Spitzen erzielt wurden. Da die Monolagen offensichtlich ohne sichtbare Fehlstellen ausgebildet wurden, fällt es schwer, die Abbildung der Filme von denen der Goldoberflächen eindeutig zu unterscheiden, auch wenn die ausgewerteten Linienprofile zeigen, dass die Rauigkeit der Oberfläche durch die Aufbringung von Monolagen verringert wird. Für zukünftige Messungen sollten die Monolagen vor der Vermessung durch Micro-Printing strukturiert werden. Zwischen Monolagen und funktionalisierten Spitzen wurden Kraft-Abstandskurven und Force-Volume-Abbildungen unter Laborbedingungen aufgezeichnet. Die ermittelten Werte liegen um Größenordnungen über den Werten aus der Literatur, was sich durch den auf den Monolagen unterschiedlich starken Wasserfilm, und den daraus resultierend, wirkenden Kapilarkräften bei der Messung erklären lässt. Diese Messungen sollten unter Flüssigkeit wiederholt werden, um aussagekräftige Ergebnisse zu erzielen. Es gelang dennoch durch diese Messungen, die Existenz der Monolagen auf Substrat und Spitze eindeutig nachzuweisen.
In dieser Arbeit wurde die Pionenproduktion in C + C und Si + Si - Kollisionen bei 40A GeV und 158A GeV untersucht. Dazu wurden zwei vollkommen unterschiedliche Methoden, die dE/dx- Teilchenidentifizierung und die h- - Methode, bei der der Anteil von Nicht- Pionen simuliert wird, verwendet. Die Ergebnisse beider Methoden stimmen gut überein, die Differenz fließt in den systematischen Fehler ein. Für die Bestimmung der totalen Multiplizitäten und mittleren transversalen Massen wurde die h- - Methode aufgrund ihrer größeren Akzeptanz gewählt. Zusätzlich wurde für 40A GeV C + C eine zentralitätsabhängige Analyse der Pionenmultiplizitäten vorgenommen. Die Ergebnisse dieser Analyse sollten jedoch als vorläufig angesehen werden. Die Ergebnisse meiner Analyse wurden mit der von C. Höhne [14] bei 158A GeV verglichen, sie stimmen innerhalb der Fehler überein. Es wurden Modelle zur Simulation von Kollisionen (UrQMD, Venus) vorgestellt und angewandt, um die experimentellen Ergebnisse mit den Vorhersagen der Simulationen zu vergleichen. Ein weiteres Modell (Statistical Model of the Early Stage) wurde vorgestellt, welches die qualitative und anschauliche Interpretation der Daten erlaubt. Die Ergebnisse wurden als Energie- und Systemgrößenabhängigkeitsplots zusammen mit anderen NA49- Ergebnissen, Ergebnissen anderer Experimente und Simulationsvorhersagen gezeigt und diskutiert. Der Übergang von der Unterdrückung der Pionenproduktion in Pb+Pb - Kollisionen relativ zu p+p zu einer Erhöhung der Pionenproduktion bei niedrigen SPS-Energien wurde auch bei kleinen Systemen, C + C und Si + Si , beobachtet. Eine Interpretation der Pionenmultiplizitäten mit den Statistical Model of the Early Stage legt die Vermutung nahe, dass bereits bei 40A GeV C + C - Kollisionen Quark- Gluon- Plasma gebildet wird. Diese Vermutung muss allerdings durch die Betrachtung weiterer Observabler noch bestätigt werden.
Durch Messen der vollständigen Impulsvektoren beider Coulomb-explodierender, einfachgeladener Fragmente eines doppelionisierten, diatomaren, homonuklearen Moleküls (H2, N2, O2) können verschiedene Ionisationsprozesse identifiziert werden. Bei der sogenannten COLd Target Recoil Ion Momentum Spectroskopy (COLTRIMS) wird ein überschall Gasjet mit ultrakurzen, hochintensiven Laserpulsen penetriert. Aus den gemessenen Fragmentimpulsen kann die freigesetzte kinetische Energie, sowie die ursprüngliche Lage der Molekülachse im Laborsystem berechnet werden, woraus winkelabhängige Explosionswahrscheinlichkeiten abgeleitet werden können, die unter bestimmten Bedingungen die orbitale Symmetrie der Moleküle wiederspiegeln. Unter Benutzung verschiedener Pulslängen des Lasers (35 fs und 8 fs) und Variation der Polarisation (linear, zirkular) koennen Ionisationsmechanismen wie rescattering oder sequentielle Ionisation identifiziert werden.