diplomthesis
Refine
Year of publication
Document Type
- diplomthesis (213) (remove)
Has Fulltext
- yes (213)
Is part of the Bibliography
- no (213)
Keywords
- Stochastik (3)
- RDF (2)
- Semantic Web (2)
- Soziologie (2)
- Statistik (2)
- Stochastischer Prozess (2)
- Strahltransport (2)
- Yule-Prozess (2)
- Ablenkung <Physik> (1)
- Algorithmus (1)
Institute
- Physik (100)
- Mathematik (38)
- Informatik (28)
- Gesellschaftswissenschaften (14)
- Wirtschaftswissenschaften (8)
- Geowissenschaften (7)
- Biowissenschaften (4)
- Erziehungswissenschaften (4)
- Biochemie und Chemie (3)
- Geographie (1)
Die Stoßparameterbestimmung, an den zur Zeit im Bau befindlichen bzw. geplanten Schwerionen-Collidern RHIC und LHC ist nicht mehr wie bei Experimenten mit festem Target über die Messung der Summe aller Spektatoren möglich. Am einfachsten sind die neutralen Spektatoren (Neutronen) nachzuweisen. Diese enden bei RHIC jedoch in einem Bereich zwischen den zwei Strahlrohren, der die Größe eines Detektors auf 10 cm Breite und 130 cm Länge beschränkt, was im Vergleich zu der Breite herkömmlicher Kalorimeter, die zur Messung von Spektatoren eingesetzt werden, sehr klein ist. Die Anzahl neutraler Spektatoren kann über deren Gesamtenergie bestimmt werden, da sie im wesentlichen den Strahlimpuls behalten. Am RHIC wird zu beiden Seiten der vier Wechselwirkungszonen je ein Kalorimeter zur Messung der neutralen Spektatoren installiert(d.h. insgesamt 8 Kalorimeter). Diese Kalormeter werden aus Wolfram bestehen und eine Länge von 6 hadronischen Wechselwirkungslängen haben. Zusätzlich sollen mit diesen Detektoren einzelne Neutronen aus Riesenresonanz-Abregungen gemessen werden. Über die Rate der Koinzidenz dieser einzelnen Neutronen auf beiden Seiten der Wechselwirkungszone soll die Luminosität des Beschleunigers bestimmt werden. An die Detektoren wurde in erster Line die Forderung nach einer Energieauflösung von ca 20% gestellt, um das Signal der einzelnen Neutronen vom Untergrund trennen zu können. Für die Messung der neutralen Spektatoren, deren erwartete Anzahl im Bereich von ~ 10 - 40 liegt, ist die Energieauflösung nicht so kritisch. Fluktuationen in der Signalhöhe des Detektors werden durch die Messung mehrerer Neutronen zum Teil kompensiert, die Energieauflösung skaliert mit der Anzahl der Neutronen Nn wie 1/sqrt(Nn). Weiterhin wurde die Forderung einer Zeitauflösung theta < 300 ps gestellt. Dies ist zum einen nötig, um bei der Messung der korrelierten Emission einzelner Neutronen zur Luminositätsbestimmung zufällige Koinzidenzen zu vermeiden. Weiterhin kann der Ort der Wechselwirkung über eine Laufzeitmessung der Spektatoren zu beiden Seiten des Wechselwirkungspunktes auf einige cm genau bestimmt werden. Eine neue Kalorimeter-Bauform, das Cherenkov-Licht-Kalorimeter, ermöglicht es hadronische Kalorimeter mit geringen lateralen Ausmaßen zu konstruieren, da nur der zentrale Teil des hadronischen Schauers zum Signal beiträgt. Cherenkov-Licht-Kalorimeter bestehen aus einem Absorbermaterial und darin eingebrachten Lichtleitern, in denen relativistische geladene Teilchen des Schauers Cherenkov-Strahlung erzeugen. Es wurden zwei Prototypen aus Kupfer bzw. Wolfram mit PMMA-Lichtleitern am SPS (CERN) im 100 GeV/c- und 158 GeV/c-Protonstrahl getestet. Beide Prototypen haben eine Länge von 8 hadronischen Wechselwirkungslängen Lambda I und einen Querschnitt von 10 x 10 cm*cm. Das Kupferkalorimeter ist longitudinal in 8 Module zu je a Lambda I Länge unterteilt, das Wolframkalorimeter besteht aus 4 Modulen von je 2 Lambda I Länge. Die Lichtleiter laufen bei beiden Prototypen unter 45 Grad relativ zur Strahlachse. In früheren Untersuchungen von Gorodetzky et al. wurde festgestellt, daß in dieser Anordnung, das maximale Signal erzeugt wird. Die Energieauflösung des Kupferkalorimeters beträgt 21.8 +- 0,5% RMS/E bei 100 GeV/c Strahlimpuls. Das Wolframkalorimeter hatte im 100 GeV/c-Protonstrahl eine Energieauflösung von 20.5 +- 0.5% RMS/E. Bei beiden Prototypen wurde eine Zeitauflösung von theta < 200 ps gemessen.
Das größte Problem bei der Erstellung von MR-Anwendungen besteht darin, dass sie meistens durch Programmierung erstellt werden. Daher muss ein Autor spezielles Fachwissen über MR-Technologie und zumindest allgemeine Programmierkenntnisse mitbringen, um eine MR-Anwendung erstellen zu können. Dieser Erstellungsprozess soll mit Hilfe von MR-Autorensystemen, die derzeit auf dem Markt existieren und in der Forschung entwickelt werden, vereinfacht werden. Dies war ein Grund, warum diese Arbeit sich zum Ziel erklärte, zu überprüfen, inwieweit die Erstellung von MRAnwendungen durch Einsatz von MR-Autorensystemen vereinfacht wird. Ein weiteres Hauptziel war die Erstellung einer repräsentativen MR-Anwendung, die in dieser Arbeit als MR-Referenzanwendung bezeichnet wird. Sie sollte vor allem bei weiteren Entwicklungen als Vorlage dienen können und auf Basis von standardisierten Vorgehensmodellen, wie das Wasserfallmodell, erstellt werden. Ganz wichtig war es noch im Rahmen dieser Arbeit zu bestätigen, dass standardisierte Vorgehensmodelle auf MR-Anwendungen übertragbar sind. Um diese Ziele zu erreichen, sind in dieser Arbeit viele Schritte befolgt worden, die jeweils als Teilziele betrachtet werden können. Die MR-Referenzanwendung , die im Rahmen dieser Arbeit erstellt wurde, sollte mit Hilfe eines MR-Autorensystems umgesetzt werden. Um das richtige MRAutorensystem dafür auszusuchen, wurden im Rahmen einer Analyse fakultative und obligatorische Anforderungen an MR-Autorensysteme definiert, worin auch Funktionen identifiziert wurden, die ein solches System bereitstellen sollte. Das Anbieten einer Vorschau ist ein Beispiel für diese Funktionen, die bei der Erstellung von MR-Anwendungen eine essentielle Rolle spielen können. Die obligatorischen Anforderungen sind welche, die jedes Softwaresystem erfüllen soll, während die fakultativen das Ziel der Verbesserung von Autorensystemen verfolgen. Mit Hilfe der Analyse wurde ein Vergleich zwischen bekannten MR-Autorensystemen gezogen, dessen Ergebnis AMIRE als ein für die Ziele dieser Arbeit geeignetes MR-Autorensystem identifizierte. Für die MR-Referenzanwendung , die ähnliche Funktionen aufweisen sollte wie andere typische MR-Anwendungen wurden Funktionen, Anwendungsfälle und Design der Oberfläche spezifiziert. Diese Spezifikation wurde unabhängig von dem ausgesuchten Autorensystem durchgeführt, um darin analog zur Software-Technik das Augenmerk auf fachliche und nicht auf technische Aspekte zu legen. Um ans Ziel zu gelangen, wurde die MR-Referenzanwendung durch AMIRE realisiert, jedoch musste zuvor ihre Spezifikation auf dieses MR-Autorensystem überführt werden. Bei der Überführung wurde die Realisierung aus technischer Sicht betrachtet, das heißt es wurden verschiedene Vorbereitungen, wie die Auswahl der benötigten Komponenten, die Planung der Anwendungslogik und die Aufteilung der Anwendung in verschiedenen Zuständen, durchgeführt. Nach der gelungenen Realisierung und beispielhaften Dokumentation der MRReferenzanwendung konnte die Arbeit bewertet werden, worin die erzielten Resultate den Zielen der Arbeit gegenübergestellt wurden. Die Ergebnisse bestätigen, dass mit AMIRE die Entwicklung einer MR-Anwendung ohne Spezialwissen möglich ist und dass diese Arbeit alle ihrer Ziele innerhalb des festgelegten Zeitrahmens erreicht hat.
In der vorliegenden Arbeit wurde die Abhängigkeit der HBT-Radien im Rahmen des NA49-Experimentes bei einer Strahlenergie von 40 und 158 AGeV untersucht. Es zeigte sich, dass die Radien Rside, Rout und Rlong monoton mit der Zentralität von 2-3 fm bis 5-6 fm anwachsen, jedoch nur eine sehr geringe Energieabhängigkeit aufweisen. Dabei ist die Energieabhängigkeit bei Rside am schwächsten und bei Rlong am stärksten ausgeprägt. Bei Rout zeigte sich, dass die Werte bei 40 AGeV steiler mit der Zentralität ansteigen als die entsprechenden Werte bei 158 AGeV, was zur Folge hat, dass für zentrale Ereignisse Rout bei 40 AGeV um etwa 0.5 fm größer ist, als bei 158 AGeV. Die Signifikanz dieses Befundes ist wegen der statistischen (maximal 0.3 fm) und systematischen Fehler (maximal 1 fm) jedoch sehr gering. Allerdings wurde auch bei der Analyse zentraler Blei-Blei-Kollisionen[28] beobachtet, dass die Werte für Rout bei 40 AGeV größer sind als bei 158 AGeV. Die Radien beider Energien lassen sich als eine lineare Funktion der dritten Wurzel der Anzahl der Partizipanten beschreiben. Letztere sind ein Maß für die transversale Größe des Ausgangszustandes. Aus diesem Verhalten folgt, dass die HBT-Radien aus dem Ausgangszustand der Kollision bestimmt werden. Betrachtet man jedoch die geringe Energieabhängigkeit der HBT-Radien, so liegt der Schluss nahe, dass die HBT-Radien eher durch den Anfangszustand der Kollision bestimmt werden als durch den Endzustand. Dies steht im Widerspruch zu der üblichen Interpretation der Bose-Einstein-Korrelation in Schwerionenkollisionen. Beim Betrachten des Verhältnisses Rout/Rside als Funktion der Zentralität stellte sich heraus, dass es größer als eins ist und nur sehr schwach von der Zentralität abhängt. Der Wert von Rout/Rside nimmt dabei Werte zwischen 1.2 und 1.5 an. Ermittelt man aus Rout und Rside die Emissionsdauer, so stellt man fest, dass diese Größe bei beiden Energien nicht signifikant von der Zentralität abhängt und die Werte zwischen 2 und 4 fm/c liegen.
In der vorliegenden Diplomarbeit wird die Auger-Ionisation des Kohlenstoffmonooxidmoleküls CO in linear und zirkular polarisierter Röntgenstrahlung untersucht. Die Strahlung liegt im Bereich des Vakuumultraviolett (VUV) bei 305eV und wird durch ein Elektronensynchrotron, die Advanced Light Source des Lawrence Berkeley National Laboratory, erzeugt. Die Energie eines Photons führt zur Photoionisation eines Elektrons aus dem 1s-Orbital des Kohlenstoffs. Das im darauf folgenden Augerzerfall ausgesandte Elektron und die jeweils einfach positiv geladenen Fragmente aus der Coulombexplosion des CO++-Molekülions werden hinsichtlich ihrer Impulse vermessen. Zur Impulsmessung wurde die in unserer Arbeitsgruppe laufend weiter entwickelte Methode COLTRIMS (COld Target Recoil Ion Momentum Spectroscopy) eingesetzt. Der experimentelle Aufbau gestattet prinzipiell die Messung aller bei der Ionisation freigesetzten geladenen Teilchen. Um die hochenergetischen Auger-Elektronen mit hinreichender Auflösung zu erfassen, wurde erstmals bei einer solchen Apparatur ein Abbremsfeld eingebaut. Dadurch werden allerdings die niederenergetischen Photoelektronen unterdrückt. Die Meßmethode erlaubt eine Rekonstruktion der Impulse der Fragmente zum Zeitpunkt der Ionisation und läßt Rückschlüsse auf die Dynamik der Ionisation zu. Die Winkelverteilung der Augerelektronen wird in Abhängigkeit von der Polarisation beobachtet. Die Verteilungen sowohl des Polar- als auch des Azimutwinkels zur rekonstruierten Molekülachse zeigen keine ausgeprägte Abhängigkeit von der Polarisation. Dies rehabilitiert das von Guillemin et al. in Frage gestellte Zweistufenmodell des Augerzerfalls. Durch Selektion der kinetischen Energie der Augerelektronen und der bei der Coulombexplosion freigesetzten kinetischen Energie (KER) gelingt es, kurzlebige Molekülionen nach Drehimpulszuständen zu trennen und deutlich anisotrope Emissionsmuster zu beobachten. Die Muster lassen sich qualitativ erklären. Langlebigere Molekülionen zeigen ein scharfe Vibrationlinien im KER-Spektrum. Das Vibrationsspektrum wird analysiert und in Bezug zu vorangehenden Messungen gesetzt. Durch die koinzidente Meßmethode ist es möglich, bislang nicht beobachtbare Vibrationslinien zu identifizieren.
Im Mittelpunkt der vorliegenden Arbeit stehen die Nullstellen der nach Bernhard Riemann benannten Riemannschen Zetafunktion ..(s). Diese Funktion kann für komplexes s mit Res > 1 durch ...(s) = 1 X n=1 1 ns (1.1.1) dargestellt werden. Für andere Werte von s ist ...(s) durch die analytische Fortsetzung der Dirichlet-Reihe in (1.1.1) gegeben. Die ...-Funktion ist in der ganzen komplexen Ebene holomorph, mit Ausnahme des Punktes s = 1, wo sie einen einfachen Pol besitzt. Diese und weitere Eigenschaften von ...(s) setzen wir in dieser Arbeit als bekannt voraus, näheres findet man beispielsweise in [Tit51] oder [Ivi85]. Bereits Euler betrachtete, beispielsweise in [Eul48, Caput XV], die Summe in (1.1.1), allerdings vor allem für ganzzahlige s ... 2. Von ihm stammt die Gleichung 1 X n=1 1 ns =.... die für alle komplexen s mit Res > 1 gültig ist. Dieser Zusammenhang zwischen der ...-Funktion und den Primzahlen war Ausgangspunkt für Riemanns einzige zahlentheoretische, aber dennoch wegweisende Arbeit \ Über die Anzahl der Primzahlen unter einer gegebenen Grösse." ([Rie59]). In dieser 1859 erschienenen Arbeit erkannte Riemann als erster die Bedeutung der Nullstellen der ...-Funktion für die Verteilung der Primzahlen. Bezüglich dieser Nullstellen sei jetzt nur so viel gesagt, daß ...(s) einfache Nullstellen an den negativen geraden Zahlen .... besitzt, und, daß alle weiteren, die sogenannten nicht-trivialen Nullstellen, im kritischen Streifen 0 < Res < 1 liegen. Diese letzteren | unendlich vielen | Nullstellen sind gerade für den Primzahlsatz, also für die Beziehung ...(x) ... li(x);
Mit den Small World Graphen stehen seit Ende der Neunzigerjahre Modelle für soziale und ähnliche Netzwerke, die im Vergleich zu Erdös-Rényi-Graphen stärker Cluster ausbilden, zur Verfügung. Wir betrachten die Konstruktion dieser Graphen und untersuchen zwei der Modelle genauer im Zusammenhang mit stochastischen Prozessen. Das stetige Modell betrachten wir hinsichtlich dem Abstand zweier Knoten. Der interessanteste Aspekt hierbei ist, dass man bei der Konstruktion des Graphen die entfernten Nachbarn mithilfe der Poissonverteilung wählt und in der Folge einen Yule-Prozess auf dem Graphen erhält. Auf der Bollobás-Chung Small World lassen wir den Kontaktprozess ablaufen und untersuchen diesen bezüglich seiner Überlebenswahrscheinlichkeit. Wir sehen, dass er auf diesem Graphen zwei Phasenübergänge aufweist. Oberhalb des ersten überlebt er für immer mit positiver Wahrscheinlichkeit, oberhalb des zweiten ist zudem der Knoten, auf dem der Kontaktprozess gestartet ist, stets mit positiver Wahrscheinlichkeit infiziert. Schließlich betrachten wir die Zeitdauer, die ein leicht modifizierter, superkritischer Kontaktprozess auf der Small World unter bestimmten Voraussetzungen überlebt. Die wesentliche Dynamik, die wir hierbei ausmachen können, ist, dass auf ein Absinken der Infektionen mit hoher Wahrscheinlichkeit wieder eine Verdopplung der Infektionen folgt.
Die vorliegende geologische Arbeit befaßt sich mit einem Ausschnitt des Taunus. Der Taunus ist der südöstlichste Teil des Rheinischen Schiefergebirges und liegt in etwa zwischen Koblenz, Gießen, Frankfurt und Wiesbaden (Abb. 1 und 2). Marine Flachseesedimente prägen hier das Unterdevon des Rheinischen Schiefergebirges. Durch variszische Deformation entstand überwiegend NW- bis NNW-vergenter Faltenbau. Gravitative Kräfte ließen weitere tektonische Strukturen entstehen. Tertiäre Bruchtektonik schuf Horste und Gräben....... Das bearbeitete Gebiet weist unter großflächigen quartären Schuttdecken unterdevonische Sedimente der Tonschiefer- und Feinsandsteinfraktion auf. Im Unterdevon sorgte rasche Sedimentation bei ständiger Absenkung des Rheinischen Trogs für ein flaches Meer. Im Norden des Kartiergebiets tritt eine Fossilbank mit mariner Fauna zutage. Bei der mesozoisch-tertiären Verwitterung wurden die oberflächennahen Gesteine gelockert und Vererzungen und Roterden gebildet. Taleinschnitte in die tertiäre Rumpffläche sind pleistozänen Alters. Das devonische Gestein ist anchimetamorph überprägt und zeigt eine deutliche erste Schieferung, welche von einer intensiven Glimmerneubildung begleitet ist und primär stark nordwestvergent angelegt wurde. In feinpelitischen Bereichen kann eine zweite, postkristalline Schieferung ausgebildet sein. Durch starken Schuppenbau und anhaltende laterale Einengung bei der variszischen Überprägung entstanden im Taunus sogenannte "horse structures": Es kam zu sukzessiver Aufrichtung hangender Schuppeneinheiten bei nordwestlich fortschreitender Anlage von Überschiebungsbahnen im Liegenden. Im Scheitelbereich eines so entstandenen Vergenzfächers liegt das Kartiergebiet. Achsenflächen und Hauptschieferung stehen steil bis saiger. In diesen Bereichen kam es beim Kollaps des Gebirges durch gravitative Kräfte zur Anlage von Knickbändern. Sie ersetzen Verschiebungsflächen. Vereinzelt sind sie auch mit Abschiebungen verbunden. Die am häufigsten aufgeschlossene Knickband-Schar hat nach SE abschiebenden Charakter, eine zweite zeigt NW-gerichteten Bewegungssinn. Sie sind aufgrund der gleichgerichteten vertikalen Einengung zusammengehörend bzw. konjungiert. Die Knickachsen beider Scharen tauchen mit nur wenigen Grad in Streichrichtung ab. Manchmal sind Knickbänder dieser beiden Gruppen direkt konjungiert aufgeschlossen. Möglicherweise durch Rotation, als Teil konjungierter Knickbänder oder innerhalb größerer übergeordneter Knickbänder erscheinen einige der Knickbänder aufschiebend. Eine untergeordnete, dritte Knickband-Schar deutet mit schrägabschiebendem Verschiebungssinn eine Rotation der Spannungsrichtung und möglicherweise erste Bewegungen der Idsteiner Senke an. Sie ist im Untersuchungsgebiet nur selten aufgeschlossen. Die Untersuchungen im Zuge dieser Diplomarbeit ergaben, daß die Knickbänder bevorzugt in Bereichen südvergenter Schieferung entstanden. Im Süden und südlich des Kartiergebiets weist die Schieferung häufiger Südvergenz auf, weshalb dort fast ausschließlich nach S bis SE abschiebende Knickbänder einzumessen waren. Unterschiede zwischen Messungen im Westen und Osten des Gebiets wurden nicht festgestellt. Ein weiteres Ergebnis dieser Arbeit ist eine Longitudinalstrain-Berechnung von 3,4-6,8 % für die Gesteinspartien mit Knickbändern. Die Anlage der Knickbänder wird als letzte variszische Deformation angesehen. Ihr folgten außer kleineren Abschiebungen möglicherweise noch syn- und antithetische Rotationsbewegungen einzelner Gesteinsschollen. Demnach würden sich insgesamt die Anlage der Knickbänder und die Bildung der Vergenzfächer zeitlich überschneiden. Das Einfallen der Knickachsen und auch anderer Achsen und Lineare flach nach SW, ist wahrscheinlich durch tertiäre Bruchschollentektonik bedingt. Diese Bruchtektonik gliedert das Gebirge in Schollen mit Horsten und Gräben, so z.B. die bedeutende Grabenstruktur der Idsteiner Senke. Dabei kann der Vergenzfächer trotz vertikaler Bewegung horizontal versetzt worden sein. Seine Scheitellinie verändert zur Tiefe hin die Position ("horse structures") und tritt bei einer erodierten Hochscholle versetzt zutage.
In der vorliegenden Arbeit wurde ein chirales SU(3)-Modell auf verschiedene Erscheinungsformen endlicher Kernmaterie angewendet. Das Modell basiert auf chiraler Symmetrie in nichtlinearer Realisierung. Die Symmetrie muss spontan gebrochen werden um die beobachtete Massendifferenz zwischen skalaren und pseudoskalaren Mesonen reproduzieren zu können. Um den pseudoskalaren Mesonen eine endliche Masse zu geben ist eine explizite Brechung der chiralen Symmetrie nötig.
Der Malaria verursachende Organismus Plasmodium falciparum (P. falciparum) besitzt in seinem Kerngenom für die Mitochondrien bestimmte Proteine, die als Transportsignal ein mitochondriales Transitpeptid enthalten. Durch die kürzlich erfolgte Sequenzierung des Genoms von P. falciparum ist es wünschenswert, Vohersagealgorithmen für verschiedene Proteinlokalisationen zur Verfügung zu haben. Für andere Organismen etablierte Programme zur Vorhersage von mitochondrialen Transitpeptiden, MitoProtII und TargetP, lieferten bei Anwendung auf Sequenzen aus P. falciparum nur unbefriedigende Ergebnisse. MitoProtII erzielte in einer 20-fachen Kreuzvalidierung einen Mathews-Koeffizienten von cc = 0,49, TargetP erzielte in diesem Fall einen Mathews-Koeffizienten von cc = 0,60. TargetP erzielte für die Sequenzen aus P. falciparum nur eine Selektivität von 47%, MitoProtII nur eine Sensitivität von 35%. Dieser Ergebnisse haben die Entwicklung eines speziell auf P. falciparum trainierten Vorhersagemodells wünschenswert gemacht. Kerncodierte mitochondriale Precursorproteine aus P. falciparum wurden mit statistischen Methoden, Hauptkomponentenanalyse, selbstorganisierenden Karten und überwachten neuronalen Netzen analysiert und mit solchen aus anderen Organismen verglichen. Zwei Repräsentationen der Datensätze wurden gewählt, Aminosäurehäufigkeiten und 19 physikochemische Eigenschaften. Ein grundsätzlich unterschiedlicher Aminosäuregebrauch konnte festgestellt werden. Glycin, Alanin, Prolin und Arginin werden in P. falciparum mit weniger als 60% der Häufigkeit in der Swiss-Prot-Datenbank, Version 36, verwendet. Isoleucin, Tyrosin, Asparagin und Lysin werden hingegen mit mehr als 150% der Häufigkeit in der Referenzdatenbank verwendet. Diese Häufigkeitsmuster wurden, mit Variationen, auch in allen Targetingsequenzen beobachtet. In der Datenanalyse mittels Hauptkomponentenanalyse und selbstorganisierenden Karten ließen sich cytoplasmatische Proteine in beiden Repräsentationen klar von der Gruppe mitochondrialer, extrazellulärer und apicoplastischer Proteine trennen. Die Trennung innerhalb der zweiten Gruppe war weniger deutlich. Ein neuronales Netz (PlasMit) zur Vorhersage mitochondrialer Transitpeptide in P. falciparum wurde entwickelt. Basierend auf der relativen Aminosäurehäufigkeitsverteilung innerhalb der ersten 24 N-terminalen Aminosäuren lieferte es einen Mathews- Korrelationskoeffizienten von 0,74 (86% korrekt vorhergesagte Sequenzen) in einer 20fachen Kreuzvalidierung. Dieses Netz sagte 2449 (24%) der 10276 vorhergesagten Open Reading Frames aus dem Genom von P. falciparum als mögliche mitochondrial lokalisierte Proteine voraus. Ein Netz mit identischer Topologie wurde auf eine geringere Anzahl falsch-positiver Vorhersagen trainiert und erzielte einen Mathews-Koeffizienten von 0,51 (84% korrekte Vorhersagen) in einer 10fachen Kreuzvalidierung. Dieses Netz sagte 903 (8,8%) potentielle mitochondriale Precursorproteine unter den 10276 vorhergesagten Open Reading Frames voraus. Sämtliche Trainingsdatensätze, die Open Reading Frames des Genoms von P. falciparum, sowie das Netz, das den höchsten Mathews-Koeffizienten erzielt hat, sind per Web unter http://www.modlab.de, Menüpunkt PlasMit, erreichbar.
Die in ultra-relativistischen Schwerionenkollisionen erreichten Dichten und Temperaturen führen möglicherweise zu einem Übergang der hochangeregten Kernmaterie in eine partonische Phase ohne Einschluß der Quarks und Gluonen. Dieser Zustand wird Quark-Gluon- Plasma genannt. Die Existenz dieses Plasmas vor einem Phasenübergang in ein Hadrongas versucht man in einer Reihe von Experimenten unter anderem an den Kernforschungszentren CERN in Genf/Schweiz und Brookhaven National Laboratory (BNL) auf Long Island/USA nachzuweisen. Aufgrund theoretischer Modelle wird erwartet, daß Signaturen eines solchen Zustandes das Verhältnis der Pion- zu Baryonen-Produktion und die Produktion von Teilchen, die Strange-Quarks enthalten, sein könnten. Nach diesen Signalen sucht man im hadronischen Endzustand des Systems. Das Fixed-Target-Experiment NA49 untersucht Blei-Blei Kollisionen bei einer Strahlenergie von 158 GeV/c pro Nukleon. Das Experiment zeichnet sich durch seine große Detektorakzeptanz für geladene Teilchen verbunden mit einer präzisen Impulsmessung aus. Ähnliche Merkmale weist auch das momentan im Aufbau befindliche Collider-Experiment STAR am BNL auf. Hier sollen ab 1999 Kollisionen von Gold Kernen bei Energien von 100 GeV/c pro Nukleon analysiert werden. Die hohe Akzeptanz und die gute Impulsbestimmung der produzierten Teilchen zeichnen die Experimente als hervorragende Meßinstrumente für den hadronischen Endzustand aus. Andere Observablen, von denen man sich Aufschluß über die Reaktionsdynamik einer ultra-relativistischen Schwerionenkollisionen erhofft, sind Vektormesonen, die kurz nach oder sogar noch im Reaktionsvolumen der Kollision in ein Lepton-Paar zerfallen. Der Vorteil hierbei ist, daß die Zerfallsteilchen (Elektronen oder Myonen) mit anderen Teilchen nur elektromagnetisch wechselwirken. Deswegen können sie ohne Wechselwirkung mit den umgebenden Hadronen die Reaktionszone verlassen. Die Wahrscheinlichkeit für den Zerfall in Leptonen ist allerdings 10 exp (-4) mal niedriger als für den in Hadronen. Im NA49-Experiment, das auf die Erfassung des hadronischen Endzustandes optimiert ist, ist es aufgrund des hohen Untergrundes an Hadronen nicht trivial, die Lepton-Paare aus dem Zerfall von Vektormesonen zu selektieren. Das Ziel dieser Arbeit bestand darin, zu untersuchen, wie gut eine Identifikation von Elektronen bzw. Positronen im NA-49-Experiment möglich ist. Es konnte die Effizienz der Selektion von Elektron-Positron-Paaren aus dem Zerfall von Phi-Mesonen abgeschätzt und die Kontamination der Lepton-Kandidaten durch Hadronen ermittelt werden. Danach wurde ein Signal zu Untergrund-Verhältnis für das Signal des Phi-Mesons im Invariante-Masse-Spektrum abgeschätzt. Aus den mit dem NA- Experiment gewonnenen Erkenntnissen konnten Vorschläge zur Optimierung der Messung von Lepton-Paaren aus Vektormesonen im zukünftigen STAR-Experiment gemacht werden.
Configuration, simulation and visualization of simple biochemical reaction-diffusion systems in 3D
(2004)
Background In biological systems, molecules of different species diffuse within the reaction compartments and interact with each other, ultimately giving rise to such complex structures like living cells. In order to investigate the formation of subcellular structures and patterns (e.g. signal transduction) or spatial effects in metabolic processes, it would be helpful to use simulations of such reaction-diffusion systems. Pattern formation has been extensively studied in two dimensions. However, the extension to three-dimensional reaction-diffusion systems poses some challenges to the visualization of the processes being simulated. Scope of the Thesis The aim of this thesis is the specification and development of algorithms and methods for the three-dimensional configuration, simulation and visualization of biochemical reaction-diffusion systems consisting of a small number of molecules and reactions. After an initial review of existing literature about 2D/3D reaction-diffusion systems, a 3D simulation algorithm (PDE solver), based on an existing 2D-simulation algorithm for reaction-diffusion systems written by Prof. Herbert Sauro, has to be developed. In a succeeding step, this algorithm has to be optimized for high performance. A prototypic 3D configuration tool for the initial state of the system has to be developed. This basic tool should enable the user to define and store the location of molecules, membranes and channels within the reaction space of user-defined size. A suitable data structure has to be defined for the representation of the reaction space. The main focus of this thesis is the specification and prototypic implementation of a suitable reaction space visualization component for the display of the simulation results. In particular, the possibility of 3D visualization during course of the simulation has to be investigated. During the development phase, the quality and usability of the visualizations has to be evaluated in user tests. The simulation, configuration and visualization prototypes should be compliant with the Systems Biology Workbench to ensure compatibility with software from other authors. The thesis is carried out in close cooperation with Prof. Herbert Sauro at the Keck Graduate Institute, Claremont, CA, USA. Due to this international cooperation the thesis will be written in English.
In den Anwendungsbereichen der Mixed Reality (MR) werden die reale und die virtuelle Welt kombiniert, so dass ein Eindruck der Koexistenz beider Welten entsteht. Meist wird dabei die reale Umgebung durch virtuelle Objekte angereichert, die dem Anwender zusätzliche Informationen bieten sollen. Um die virtuellen Objekte richtig zu positionieren, muss die reale Umgebung erkannt werden. Diese Erkennung der realen Umgebung wird meist durch Bestimmung und Verfolgung von Orientierung und Positionierung der realen Objekte realisiert, was als Tracking bezeichnet wird und einen der wichtigsten Bestandteile für MR-Anwendung darstellt. Ohne die exakte Ausrichtung von realen und virtuellen Objekten, geht die Illusion verloren, dass die virtuellen Objekte Teil der realen Umgebung sind und mit ihr verschmelzen. Markerkombination Das markerbasierte Tracking ist ein Verfahren, das die Bestimmung der Positionierung von realen Objekten durch zusätzliche Markierungen in der realen Umgebung ermöglicht. Diese Markierungen können besonders gut durch Bildanalyseverfahren extrahiert werden und bieten anhand ihrer speziellen Form Positionierungsinformationen. Der Einsatz dieser Trackingtechnologie ist dabei denkbar einfache und kostengünstig. Ein breiter Anwendungsbereich ist durch den kostengünstigen Einsatz dieser Technologien gegeben, allerdings ist das Erstellen von MR-Anwendungen fast ausschließlich MR-Spezialisten vorbehalten, die über Programmierfertigkeiten und spezielle Kenntnisse aus dem MR-Bereich besitzen. Diese Arbeit beschreibt die Entwicklung und Umsetzung der Konzepte, die einem Personenkreis, der lediglich über geringe Kenntnisse von MR-Technologien und deren Anwendung verfügt, den kostengünstigen und einfachen Einsatz von markerbasierten Trackingtechnologien ermöglicht. Die im Rahmen der Arbeit durchgeführte Analyse verweist auf die problematischen Anwendungsfälle des markerbasierten Trackings, die durch die Verdeckung von Markern zustande kommen, in der Beschränkung der Markeranzahl begründet sind, oder durch die Schwankung der Trackingangaben entstehen. Diese Problembereiche sind bei der Entwicklung berücksichtigt worden und können mit Hilfe der entwickelten Konzepte vom Autor bewältigt werden. Das Konzept der Markerkategorien ermöglicht dabei den Einsatz von angepassten Filterungstechniken. Die redundante Markerkombination behebt das Verdeckungsproblem und eliminiert Schwankungen durch das Kombinieren von mehreren Trackinginformationen. Die Gütefunktion ermöglicht die Bewertung von Trackinginformationen und wird zur Gewichtung der Trackingangaben innerhalb einer Markerkombination genutzt. Das Konzept der Markertupel ermöglicht eine Wiederverwendung von Markern, durch den Ansatz der Bereichsunterteilung. Die Konzepte sind in der AMIRE-Umgebung vollständig implementiert und getestet worden. Zum Abschluss ist rückblickend eine kritische Betrachtung der Arbeit, in punkto Vorgehensweise und erreichter Ergebnisse durchgeführt worden.
Kieferorthopäden beschreiben die Anordnung der Zähne und die Stellung der Kiefer üblicherweise mittels Winkel und Strecken in der sagittalen Gesichtsebene. Im vorliegenden Fall werden fünf Winkel betrachtet und jedes Individuum lässt sich als Punkt in einem 5-dimensionalen Raum darstellen. Individuen, die laut Experten ein gut funktionierendes Gebiss und ein harmonisches Äußeres besitzen, formen eine Punktwolke, die im Folgenden als die Norm Population bezeichnet wird. Individuen fern von der Wolke benötigen kieferorthopädische Behandlung. Welche Form sollte dieser Eingriff annehmen? Durch Hilfsmittel der modernen Kieferorthopädie lassen sich die beschriebenen Winkel nahezu nach Belieben ändern. Dies ist natürlich verbunden mit einer unterschiedlichen Menge an Problemen, Arbeitsaufwand und Unannehmlichkeiten, abhängig vom individuellen Patienten. Diese Arbeit präsentiert eine Methode, die auf jedem Computer leicht implementierbar und auf k Variablen verallgemeinerbar ist. Sie ermöglicht Kieferorthopäden eine Visualisierung, wie verschiedene denkbare Anpassungen der Winkel eines Patienten dessen relative Position zur Norm Population verändern. Damit unterstützt sie Kieferorthopäden bei der Entscheidung für einen Behandlungsplan, der die besten Ergebnisse verspricht.
Energiezustände in einem Halbleiterübergitter in gekreuzten elektrischen und magnetischen Feldern
(2005)
In dieser Arbeit werden Energiezustände in einem GaAs/Al0:3Ga0:7As-Halbleiterübergitter in gekreuzten elektrischen und magnetischen Feldern untersucht. Dabei liegt das elektrische Feld F in Wachstumsrichtung an, während das Magnetfeld B senkrecht dazu in der Ebene der Schichten orientiert ist. Es werden die experimentellen Methoden der Elektroreflexions- und Transmissionsspektroskopie angewendet. Die experimentellen Ergebnisse werden sowohl mit theoretischen Berechnungen verglichen als auch mit zeitaufgelösten Daten in Bezug gesetzt. Sowohl in den Elektroreflexions- als auch in den Transmissionsspektren lassen sich je nach relativem Wert des elektrischen und magnetischen Feldes B=F = x drei verschiedene Bereiche unterscheiden. Für kleines x sind Wannier-Stark-Übergänge sichtbar, die sich mit steigendem B-Feld zu höheren Energien verschieben. Die auffälligste Beobachtung ist das Verschwinden der Wannier-Stark-Zustände mit steigendem Magnetfeld: Bei mittlerem x, wenn die magnetische Energie ~!C die Größenordnung der elektrischen Energie ~!B erreicht, beobachtet man einen nahezu strukturlosen Übergangsbereich. Für größere Magnetfeldstärken lassen sich wieder Übergänge identifizieren, die Landau-Charakter besitzen. Die Exzistenz eines strukturlosen Übergangsbereichs unterscheidet die Geometrie gekreuzter Felder wesentlich von der Konfiguration parallel gerichteter Felder (F- und B-Feld in Wachstumsrichtung [5]). Der Übergangsbereich wurde bereits zuvor beobachtet [65], eine Erklärung seines Ursprungs stand jedoch noch aus. Letztere gewinnen wir aus der Zusammenarbeit mit der Theorie: Auf der Grundlage der Modellrechnungen von S. Glutsch und S. Stepanow aus Jena lässt sich feststellen, dass jeder Wannier-Stark-Zustand in Anwesenheit eines Magnetfeldes in Landau-Zustände aufspaltet. Mit steigendem Magnetfeld verschieben sich diese, wie auch die Wannier-Stark-Zustände, zu höheren Energien, so dass sich eine wachsende Anzahl von Zuständen energetisch annähert. Die Wechselwirkung von Zuständen führt zu vermiedenen Überkreuzungen und damit zu einer Verteilung der Oszillatorstärke, so dass die Stärke jedes einzelnen Zustands abnimmt und einzelne Linien nicht mehr aufzulösen sind. Interessanterweise spielt die Verkürzung der Lebenszeit der involvierten Zustände (homogene Linienverbreiterung) eine untergeordnete Rolle bei der Entstehung des Übergangsbereichs. Auch hinsichtlich anderer Aspekte ist die Übereinstimmung von Theorie und Experiment zufriedenstellend: Die auf Grundlage der Einteilchen-Theorie vorhergesagte energetische Verschiebung der Wannier-Stark- und Landau-Niveaus mit steigendem Magnetfeld kann experimentell mittels Elektroreflexionsmessungen verifiziert werden. Die experimentellen Absorptionsspektren lassen sich direkt mit den theoretischen Absorptionsspektren vergleichen und zeigen die vorhergesagten Energieübergänge. Darüberhinaus sind Fano-Resonanzen als asymmmetrische Linienprofile zu beobachten. Das Zusammenspiel von Theorie und Experiment stellt sich demnach in dieser Arbeit als sehr fruchtbar heraus: Die vorgestellten Experimente leisten der Theorie einen Dienst, indem sie wesentliche theoretische Vorhersagen experimentell verifizieren. Andererseits gewinnt das Verständnis der experimentellen Beobachtungen erst durch theoretische Erkenntnisse sein Fundament. Während der Vergleich von Theorie und Experiment weitgehend abgeschlossen ist [21], wirft der Vergleich der spektral aufgelösten Daten mit zeitaufgelösten Messergebnissen noch ungelöste Fragen auf. Die Dynamik optisch angeregter Wellenpakete lässt sich analog zu den Elektroreflexions- und Absorptionsspektren in ein elektrisch-dominiertes Regime für kleines B=F = x und ein magnetisch-dominiertes Regime für großes x unterteilen. Die beiden Bereiche sind durch einen mittleren x-Wert separiert, bei dem keine kohärenten Oszillationen zu beobachten sind. Dieser Übergang findet entgegen der Erwartung nicht bei dem gleichen x-Wert statt wie in spektral aufgelösten Daten. In der vorliegenden Arbeit wird dieser Befund präzisiert: Absorptionsspektren werden mit TEOS-Spektren (englisch: transmittive electrooptic sampling), Elektroreflexionsdaten mit REOS-Spektren (englisch: reflective electro-optic sampling) verglichen. Sehr deutlich ist die Diskrepanz zu erkennen: In spektral aufgelösten Daten liegt der Übergangsbereich bei größeren x-Werten als in zeitaufgelösten Daten, so dass im spektralen Übergangsbereich wieder langlebige Oszillationen in den zeitaufgelösten Messungen zu beobachten sind. Umgekehrt sind in den spektral aufgelösten Messungen noch deutliche Strukturen erkennbar, wenn am dynamischen Übergang zwischen elektrisch- und magnetisch-dominiertem Regime Oszillationen ausbleiben. Die Experimente dieser Arbeit motivieren demnach die weitere Beschäftigung mit folgenden Problemen: Die Diskrepanz zwischen spektral- und zeitaufgelösten Daten hinsichtlich des Übergangsbereichs muss in Zukunft theoretisch behandelt werden. Es besteht bereits ein Angebot von M. M. Dignam, sich des Problems anzunehmen. Damit verbunden ist die Frage nach der genauen Bedingung für den Übergangsbereich in den spektralen Daten, da die bisherige Bedingung zu grob zu sein scheint. Die Untersuchung von Energiezuständen in Halbleiterübergittern wird auch in Zukunft eine Rolle spielen. Nachdem die Geometrien von parallel und senkrecht orientiertem B und F eingehend behandelt wurden, stellt nun der Fall arbiträrer Feldanordnung eine neue Aufgabe dar. Wenn das Magnetfeld mit dem elektrischen Feld einen arbiträren Winkel einschließt, wird in zeitaufgelösten Messungen eine Kopplung von Magneto-Bloch- und Zyklotron-Oszillationen beobachtet, die sich in einem kohärenten Quasi-DC-Strom und verstärkter Feldabschirmung ausdrückt [58]. Es wäre interessant zu untersuchen, mit welchen spektralen Eigenschaften diese dynamischen Befunde korrespondieren. Hierzu bieten sich die Methoden der Elektroreflexions- und Transmissionsspektroskopie an, die sich in dieser Arbeit als geeignet erwiesen haben.
"Germany is back" (Schöllgen 1994: 35), so beschreibt Schöllgen prägnant Deutschlands internationale Position nach dem Ende des Ost-West-Konfliktes und dem Fall der Mauer. Was Schöllgen so schlicht zusammenfasst wurde von der deutschen Öffentlichkeit, aber auch von der Mehrheit der Wissenschaftler, lange Zeit keinesfalls so gesehen. Statt eines Wandels deutscher Außenpolitik aufgrund der veränderten Rahmenbedingungen herrschte ein weitverbreiteter Konsens darüber, Deutschland habe sich abgesehen von einer Erhöhung der Einwohnerzahl von 63 auf 82 Millionen und eines Flächenzuwachses von 248 000 auf 375 000 Quadratkilometer nicht gravierend im internationalen System gewandelt. ...
In dieser Arbeit wurde die Zentralitätsabhängigkeit der K0S -Produktion in Pb+Pb Stößen für 40A und 158A GeV untersucht. Sie wurden über den Zerfallskanal K0S → π+π− der schwachen Wechselwirkung nachgewiesen und bilden zusammen mit den geladenen Kaonen den Großteil der entstehenden Strangeness einer Kollision. Die Bestimmung der Zentralität erfolgte anhand der im Veto-Kalorimeter detektierten Spektatoren. Die Messergebnisse unterliegen aufgrund der limitierten geometrischen Akzeptanz des Detektors, Effizienzverlusten in der V 0-Rekonstruktion und gewählter Qualitätskriterien einigen Verlusten. Auf diese Verluste konnte mit Hilfe eines Simulationsverfahren, dem so genannten Embedding, korrigiert werden. Dabei wurden Korrekturfaktoren für differentielle Phasenraumbereiche ermittelt und auf die gemessenen Signalinhalte der invarianten Massenspektren angewendet. Des Weiteren wurde eine Vielzahl von Studien durchgeführt um die Stabilität der Ergebnisse im Rahmen eines systematischen Fehler zu bestimmen.
Die korrigierten Transversalimpuls-Spektren und Spektren der invarianten Massen verschiedener Phasenraumbereiche und Zentralitäten wurden präsentiert. Darüber hinaus wurden der inverse Steigungsparameter, die Rapiditätsspektren, sowie die berechneten Gesamtmultiplizitäten der K0S in Abhängigkeit der Zentralität und anhand der "wounded" Nukleonen diskutiert. Die Ergebnisse konnten mit vorangegangenen Analysen von NA49, NA57 und CERES verglichen werden. Dabei wurden insbesondere geringe Unstimmigkeiten mit den NA49-Ergebnissen der geladenen Kaonen bei 158A GeV festgestellt. Des Weiteren wurde die Diskrepanz zu den NA57-Ergebnissen, welche aus Analysen anderer Teilchensorten bekannt ist, für mittlere Rapiditäten bestätigt. Die Zentralitäatsabhängigkeit der Ergebnisse wurde zusätzlich mit UrQMD-Modellrechnungen geladener Kaonen verglichen und kann durch diese näherungsweise beschrieben werden.
Im Verlauf dieser Arbeit zeigte sich, daß es möglich ist, Spuren von Teilchen, die zwei Detektoren durchquerten, einander zuzuordnen; dies mit um so größerer Sicherheit, je kleiner die Spurdichte war. Anhand eines systematischen Vergleichs von Spurparametern zugeordneter Spuren gelang es, die Position eines Spurdetektors (TPC) relativ zum zweiten Detektor und dem Target genau zu bestimmen. Die Bedeutung dieser Position ist allerdings nicht eindeutig, da eine fehlerhafte, ortsabhängige Verzerrungskorrektur der TPC Meßdaten ebenfalls zu systematischen Verschiebungen und Verdrehungen der TPC führen kann. Letztlich ist es sogar möglich, daß die Position der TPC besser vermessen wurde als die der Streamerkammer, da auch die Messmarken - die fiducials - die den Bezug zwischen der Streamerkammer und den Magnetkoordinaten herstellen - , der schlechten Rekonstruktionsgenauigkeit der z-Komponente in der Streamerkammer unterliegen. Die Kenntnis der exakten Position der TPC ist deshalb notwendig, da die TPC alleine keine Impulsinformation liefert, sondern der Teilchenimpuls erst mit Hilfe der genau bekannten Vertexposition und dem gemessenen Magnetfeld möglich ist. Es zeigte sich, daß diese ermittelten Positionen unerläßlich für eine konsistente Impulsbestimmung beider Detektoren sind. Wie zu erwarten, ist das Transversalimpulsspektrum empfindlich auf die Position des TPC-Detektors. Durch Variation möglicher Positionen um die gefundene wurde eine Abschätzung des systematischen Fehlers in pT erreicht. Dieser kann 20% erreichen. Im folgenden Experiment - NA49 - werden sich zwei Vertex-TPC's hintereinander in einem inhomogenen Magnetfeld befinden. Dahinter und außerhalb des Magnetfeldes stehen nebeneinander zwei Haupt-TPC's. Da zur Messung des Magnetfeldes die Vertex-TPC's vollständig aus den Magneten entfernt werden, ist die Findung des Bezugs zwischen den Magnetkoordinaten und denen der Vertex-TPC's ein Problem zukünftiger Datenanalysen. Außerdem wird die relative Position der Haupt-TPC's zu den Magneten benötigt, um den funktionalen Zusammenhang zwischen der Ablenkung durch die Magneten und dem Impuls der Spur zu bestimmen, da in den Haupt-TPC's kein Magnetfeld die Spuren krümmt. Anderenfalls wäre auch hier keine konsistente Impulsbestimmung möglich.
In dieser Arbeit wurde die Produktion negativ geladener Pionen in zentralen Blei+Blei Kollisionen bei 40 A·GeV am CERN SPS mit dem Experiment NA49 untersucht. Die Analyse der Pionen basiert auf der Tatsache, das sie ungefähr 90% des hadronischen Endzustands aller negativ geladenen Hadronen darstellen, wobei der Rest hauptsächlich aus Kaonen besteht. Diese Analyse deckt die komplette vordere Hemisphäre ab, somit wurden keinerlei Extrapolationen benötigt. Für diese Analyse wurde ein komplett neuer Satz von Schnitten in diversen Variablen der Daten von NA49 gesucht und optimiert. Um einen möglichst gut bestimmten Satz von Spuren zu verwenden, wurde nur ein kleiner Teil aller Spuren verwendet, der aber exakt und einfach zur vollen Akzeptanz zurückkorrigiert werden kann. Um die Spuren aus Zerfällen nahe am Hauptinteraktionspunkt und um Dreckeffekte wie γ-Konversion oder Vielfachstreuung zu entfernen, wurde ein komplett neuer Korrekturalgorithmus entwickelt und getestet. Da bei dieser Energie die Spurmultiplizitäten ungefähr um einen Faktor zwei kleiner sind, wurde beobachtet, daß Ineffizienzen in der Rekonstruktion eine untergeordnete Rolle spielen. Hier wurde im Mittel eine Korrektur von 8% verwendet. Um Spektren negativer Pionen zu erhalten, müssen die negativ geladenen Kaonen aus dem Spursatz entfernt werden, hierfür wurde eine Simulation aufgebaut und eingesetzt. Ein großes Problem stellt die Abschätzung des Systematischen Fehlers dar, da es eine Mannigfaltigkeit von Fehlerquellen gibt. In dieser Arbeit wurden zwei Methoden angewandt, um den Systematischen Fehler abzuschätzen. Das Ergebnis der hier vorgestellten Analyse ergibt eine mittlere Multiplizität für die negativen Pionen von 320±14. Die Präsentation eines vorläufigen Zustands dieser Analyse in Kombination mit den neu gewonnen Kaonwerten [1] vor dem SPSC [2] veränderten den vorhandenen Strahlzeitplan nachhaltig, so daß in extrem kurzer Zeit nach ieser Präsentation eine Energieabtastung gestartet wurde. Schon ein paar Monate später bekam NA49 hierfür einen Bleistrahl bei der Energie von 80 A·GeV und wird im Jahr 2002 auch Energien von 20 und 30 A·GeV geliefert bekommen. Auch wurden diese Daten auf der QM2001 als vorläufige Ergebnisse präsentiert. Desweiteren bilden die Ergebnisse, sowie die aus der 80 A·GeV Analyse und denen bei Top-SPS Energie gewonnenen kombiniert mit den Kaonergebnissen bei den gleichen Energien die Grundlage für ein Physical Review Letter der NA49-Kollaboration zum Thema der Energieabhängigkeit des K+/π + Verhältnis. Die Motivation für diese Arbeit war die Suche nach einer Evidenz des Quark-Gluon-Plasma und bei der analysierten Energie wurde der Übergang in diese Phase vorhergesagt [3]. Man sollte einen Wechsel von der Pionunterdrückung zur Pionvermehrung im Vergleich mit den Daten aus Nukleus+Nukleus Experimenten in dem Verhältnis der mittleren Pionmultiplizität zu der Anzahl der Teilnehmenden Nukleonen beobachten. Diese Vermutung stellte sich als richtig heraus. Diesen Wechsel kann man erklären, wenn man einen Phasenübergang zu einer Phase quasifreier Quarks und Gluonen in diesem Bereich annimmt. Die Pionen stellen, aufgrund ihrer geringen Masse, die häufigsten Teilchen dar und sind somit auch eine gute Meßprobe für die gesamte Entropie des Feuerballs. Da die Anzahl der Freiheitsgrade in einem QGP massiv ansteigen muß, sollte man eine erhöhte Produktion von Pionen beobachten. Der Meßpunkt bei 40 A·GeV liegt genau in dem Bereich des Wechsels. Ein Vergleich mit den Modellen zeigt, das kein Modell, wenn es überhaupt Pionen beschreiben kann, die Produktion von Pionen korrekt wiedergibt, außer das „Statistical Modell of the early Stage“, das die Pionproduktion beschreibt und auch den Wechsel von Pionunterdrückung zu Pionvermehrung im Bereich um 40 A·GeV wiedergibt. Dieses Modell besitzt eine Phasenübergang von gebundener Materie zum QGP. Das Hadrongas-Modell kann die Pionen bei jeder Energie beschreiben, aber eine Vorhersage ist nicht möglich, da die Pionen als Eingabe in dieses Modell benötigt werden. Die Ergebnisse von NA49 haben neuen Schwung in die Erklärung von Schwerionenkollisionen und die Suche nach dem QGP gebracht. Die ersten „Resultate“ sind eine Energieabtastung am CERN-SPS und diverse Änderungen an vorhandenen Modellen, um vor allem das nichtmonotonische Verhalten des K+/Pi + Verhältnisses zu beschreiben. Bis jetzt existiert kein Modell und keine Erklärung, die die Daten beschreibt und auf anderen Hadronischen Erklärungen basiert. Somit kann man feststellen, daß eine sich erhärtende Evidenz für die Produktion des QGP am CERN-SPS vorhanden ist.
Die Darstellung photorealistischer Szenen durch Computer hat in Folge der Entwicklung immer effizienterer Algorithmen und leistungsfähigerer Hardware in den vergangenen Jahren gewaltige Fortschritte gemacht. Täuschend echt simulierte Spezialeffekte sind aus kaum einem Hollywood-Spielfilm mehr wegzudenken und sind zum Teil nur sehr schwierig als computergenerierte Bilder zu erkennen. Aufgrund der Komplexität von lebenden Organismen gibt es allerdings noch kein einwandfreies Verfahren, welches ein komplettes Lebewesen realistisch, sei es statisch oder in Bewegung, mit dem Computer simulieren kann. Im Bereich der Animation sind wirkungsvolle Resultate zu verzeichnen, da das Skelett eines Menschen oder Wirbeltieres durch geeignete Methoden simuliert und Bewegungen damit täuschend echt mit dem Computer nachgebildet werden können. Die Schwierigkeit, eine komplett realistische Visualisierung eines Lebewesens zu erreichen, liegt allerdings in der Darstellung weiterer Strukturen eines Organismus, die zwar nicht direkt sichtbar sind aber dennoch Einfluss auf die sichtbaren Bereiche haben. Bei diesen Strukturen handelt es sich um Muskel- und Fettgewebeschichten. Die Oberfläche von Figuren wird durch Muskeln sowohl in der Bewegung als auch in statischen Positionen deutlich sichtbar verändert. Dieser Effekt wird bisher bei der Visualisierung von Lebewesen nur unzureichend beachtet, was zu den aufgeführten nicht vollständig realistisch wirkenden Ergebnissen führt. Bei der Simulation von Muskeln wurden bis heute verschiedene Muskelmodelle entwickelt, die einen Muskel als Gesamtheit in Hinblick auf seine grundsätzlichen physikalischen Eigenschaften, wie z. B. Kraftentwicklung oder Kontraktionsgeschwindigkeit, sehr gut beschreiben. Viele Effekte des Muskels, die sich hauptsächlich auf einer tiefer liegenden Ebene abspielen, sind bis heute noch nicht erforscht, was folglich auch keine entsprechende Simulation auf dem Computer zulässt. Beschrieben werden die verschiedenen Muskeltypen (Skelett-, glatte und Herzmuskulatur) und Muskelformen (spindelförmige, einfach/doppelt gefiedert, etc.). Des weiteren wird auf die unterschiedlichen Muskelfasertypen (FTO, STO, usw.) mit ihren Eigenschaften und Funktionen eingegangen. Weitere Themen sind der strukturelle Aufbau eines Skelettmuskels, der Kontraktionsmechanismus und die Ansteuerung durch Nervenreize. Im Bereich Biomechanik, also der Forschung nach den physikalischen Vorgängen im Muskel, führte die Komplexität der Struktur und Funktionsweise eines Muskels zu einer ausgedehnten Vielfalt an Forschungsarbeiten. Zahlreiche Effekte, die bei einem arbeitenden Muskel beobachtet werden können, konnten bis heute noch nicht erklärt werden. Die Erkenntnisse, die für diese Arbeit relevant sind, sind jedoch in einem ausreichenden Maße erforscht und durch entsprechende mathematische Modelle repräsentierbar. Die Mechanik, die einem Muskel zugrunde liegt, wird auf diesen Modelle aufbauend beschrieben. Neben den Größen, die im später vorgestellten Modell verwendet worden sind, wird auch auf sonstige für biomechanische Untersuchungen relevante Eigenschaften eingegangen. Weiterhin wird dargestellt, wie verschiedene Kontraktionen (Einzelzuckung, Tetanus) mechanisch funktionieren. Für Muskelarbeit und Muskelleistung werden verschiedene Diagramme vorgestellt, welche die Zusammenhänge zwischen den physikalischen Größen Kraft, Geschwindigkeit, Arbeit und Leistung zeigen. Nach Vorstellung der ISOFIT-Methode zur Bestimmung von Muskel-Sehnen-Eigenschaften werden mathematische Formeln und Gleichungen zur Beschreibung von Kraft-Geschwindigkeits- und Kraft-Längen-Verhältnissen sowie der serienelastischen Komponente und der Muskelaktivierung, die zur Bewegungsgleichung führen, angegeben. Es folgen weitere mathematische Funktionen, welche die Aktivierungsvorgänge unterschiedlicher Muskelkontraktionen beschreiben, sowie das Muskelmodell nach Hill, welches seit vielen Jahren eine geeignete Basis für Forschungen im Bereich der Biomechanik darstellt. Bezüglich der Computergraphik wird ein kurzer Abriss gegeben, wie künstliche Menschen modelliert und animiert werden. Eine Übersicht über verschiedene Methoden zur Repräsentation der Oberfläche von Körpern, sowie deren Deformation unter Berücksichtigung der Einwirkung von Muskeln gibt die State-of-the-Art-Recherche. Neben den Oberflächenmodellen (Starrkörperdeformation, lokale Oberflächen-Operatoren, Skinning, Konturverformung, Deformation durch Keyshapes) werden auch Volumen- (Körperrepräsentation durch Primitive, Iso-Flächen) und Multi-Layer-Modelle (3-Layer-Modell, 4-Layer-Modell) vorgestellt und deren Vor- und Nachteile herausgearbeitet. Eine geeignete Repräsentation der Oberfläche, die Verformungen durch Muskelaktivität einbezieht, wurde durch die Benutzung von Pneus gekoppelt mit der Quaoaring-Technik gefunden. Dieses Verfahren, das auf Beobachtungen aus der Biologie basiert und zur Darstellung von organischen Körpern benutzt wird, ist ausgesprochen passend, um einen Muskel-Sehnen-Apparat graphisch darzustellen, handelt es sich doch hierbei auch um eine organische Struktur. Um die beiden Teilmodelle Simulation und Visualisierung zu verbinden, bietet sich die aus der Biomechanik bekannte Actionline an, die eine imaginäre Kraftlinie im Muskel und der Sehne darstellt. Die bei der Quaoaring-Methode verwendete Centerline, welches die Basis zur Modellierung des volumenkonstanten Körpers ist, kann durch die Kopplung an die physikalischen Vorgänge zu einer solchen Actionline erweitert werden. Veränderungen in der Länge und des Verlaufs der Actionline z. B. durch Muskelkontraktion wirken sich dadurch direkt auf die Form des Muskels aus und die Verbindung zur Visualisierung ist hergestellt.