Refine
Year of publication
Document Type
- Doctoral Thesis (212)
- diplomthesis (102)
- Article (100)
- Bachelor Thesis (67)
- Contribution to a Periodical (46)
- Master's Thesis (41)
- Book (30)
- Part of Periodical (27)
- Diploma Thesis (25)
- Preprint (7)
Language
- German (691) (remove)
Is part of the Bibliography
- no (691)
Keywords
- Ionenstrahl (9)
- Strahldynamik (7)
- Teilchenbeschleuniger (7)
- Emittanz (5)
- RFQ (5)
- Toroidales Magnetfeld (5)
- Beschleunigerphysik (4)
- Ionenbeschleuniger (4)
- Schwerionenphysik (4)
- Speicherring (4)
Institute
- Physik (691) (remove)
Gemessen wurden der gerichtete und der elliptische Fluss von Pionen und Protonen in Blei-Blei-Stößen bei einer Laborenergie des Projektils von 40 GeV pro Nukleon. Bestimmt wurde die Abhängigkeit der beiden Flusskomponenten von der Zentralität des Stoßes sowie von der Rapidität und dem Transversalimpuls der gemessenen Teilchen. Zur Rekonstruktion des Flusses wurde die Methode der Korrelation der Teilchen mit der abgeschätzten Reaktionsebene verwendet. Zur Korrektur der azimutalen Anisotropien des Detektors wurde die Methode des Zentrierens der Teilchenverteilung in Abhängigkeit von Rapidität und Transversalimpuls angewendet. Für den v2 wurde eine Abänderung des Korrelationsterms nötig, um den Einflüssen durch die schlechte Akzeptanz entgegenzuwirken. Weiterhin wurde der Einfluss von Nicht-Fluss-Korrelationen zwischen den gemessenen Teilchen auf den Fluss untersucht. Dabei erkannte man einen starken Einfluss der Transversalimpulserhaltung im v1, der durch eine Korrektur behoben werden konnte. Einen weniger starken Einfluss konnte man bei der Untersuchung im Phasenraum kurzreichweitiger Korrelationen feststellen. Es wurde erstmals deutlich ein negativer gerichteter Fluss von Protonen nahe der Schwerpunktsrapidität beobachtet, der bereits mittels meherer theoretischer Rechnungen vorhergesagt wurde. Sowohl der gerichtete als auch der elliptische Fluss erreicht bei 40 AGeV Laborenergie annähernd die gleichen Werte, die von NA49 bei 158 AGeV Laborenergie gemessen wurden. Die für den Fluss gemessenen Werte befinden sich teilweise in Übereinstimmung mit denen des Experimentes CERES/NA45, ist allerdings nur bedingt möglich, da bisher nur einzelne vorläufige Resultate veröffentlicht wurden. Die für den elliptischen Fluss gemessenen Werte bei der Schwerpunktsrapidität und einer Zentralität von 25% liegen etwas höher als man aus der beobachteten Systematik der Energieabhängigkeit zwischen den Experimenten E877 (mit 10 AGeV Laborenergie am AGS), CERES und NA49 (bei einer Energie von und 160 AGeV am SPS) sowie STAR (am RHIC bei einer Energie von psNN = 130GeV) erwartet hat. So wird von den Werten am AGS bei voller Energie zu denen am SPS bei 40 AGeV ein Anstieg von 2% auf 3,3% beobachtet. Von 40 AGeV zu 158 AGeV Laborenergie am SPS ändert sich der Wert nur minimal von 3,3% auf 3,2%. Zwischen der höheren SPS-Energie von 158 AGeV und der RHIC-Energie von psNN = 130GeV wird ein weiterer Anstieg von 3,2% auf 5,6% gemessen. Das ist ein Anzeichen für eine Anomalie, die im Bereich der SPS-Energien vorliegen könnte. Eine genauere Bestimmung des Flusses ist noch möglich, da für die Analyse dieser Arbeit erst eine Hälfte der gemessenen Daten zur Verfügung stand. Mit Hilfe dieser Daten ließe sich die Energieabhängigkeit des Flusses genauer untersuchen und die gefundene Anomalie bestätigen.
Im Rahmen dieser Arbeit wurde die katalytische Wirkung von massenselektierten Edelmetallclustern in photographischen Entwicklern an möglichst praxisnahen photographischen Modellsystemen untersucht, um die bei der Belichtung und der anschließenden Entwicklung von photographischen Filmmaterialien ablaufenden Prozesse besser verstehen zu können. Hierzu wurden präformierte und anschließend massenspektrometrisch größenselektierte Edelmetallclusterionen sanft auf photographische Emulsionskörner aufgebracht und anschließend untersucht, wie die deponierten Clusterionen die chemische Reduktion dieser gelatinefreien Silberhalogenid-Mikrokristalle im Entwickler beeinflussen. Apparatives Kernstück ist eine in den letzten drei Jahren in der Arbeitsgruppe von Prof. L. Wöste an der Freien Universität in Berlin entwickelte Anlage mit der es möglich ist, Edelmetallcluster definierter Größe in so ausreichender Menge durch Sputtern zu erzeugen, daß auch nach kurzen Depositionszeiten genügend viele Cluster auf Oberflächen deponiert werden können. Hohe Teilchenströme von Silbercluster-Kationen wurden über einen weiten Größenbereich (Ag1 + -Ag34+) erzeugt. Der Silbercluster mit der geringsten Intensität im Spektrum, das besonders interessante Ag4 +, wurde mit einem Clusterstrom von 800 pA bei guter Massenauflösung erzeugt. Für Silbercluster-Anionen erzielt man annähernd die gleichen Teichenströme wie für die entsprechenden -Kationen. Durch Sputtern von Gold-Silber-Mischtargets ließen sich AunAgm+-Clusterionen bis zu einer Masse von 2200 amu erzeugen. Um die Forderung nach einem langsamen Aufbringen der Cluster auf die Oberfläche („soft landing“) zu erfüllen, wurden die Cluster mit Hilfe von zwei mit Stoßgas gefüllten Quadrupolen abgebremst. Durch die so verwirklichte sanfte Deposition der Cluster ist es erstmals gelungen, die photographische Wirkung der auf primitive Emulsionskörner deponierten Cluster in definierter, reproduzierbarer und daher aussagekräftiger Weise zu untersuchen. Das war möglich, weil die Depositionsenergien der Cluster (< 1 eV) unterhalb der Bindungsenergien der hier deponierten Edelmetallcluster liegen und somit eine Verfälschung der Resultate durch Fragmentation der Clusterionen ausgeschlossen werden konnte. Es konnte nachgewiesen werden, daß erst ab Depositionsenergien von ³ 5 eV eine vermehrte Fragmentation der Cluster zu erwarten ist. Ob ein Silbercluster an einem Emulsionskorn dessen bevorzugte Entwickelbarkeit einleitet, hängt nicht nur von der Größe des Aggregates und seiner Ladung ab, sondern auch vom Redoxpotential des photographischen Entwicklers. Positiv geladene Silbercluster aus mindestens vier Atomen (Agn+, n³4) katalysieren den Entwicklungsprozeß der Emulsionskörner bei Redoxpotentialen, die negativer als -310 mV (Ag/AgCl-Referenzelektrode) sind. Aber auch Ag3+-Cluster führen noch zu einer Entwickelbarkeit, wenn das Redoxpotential unterhalb -350 mV liegt. Im Gegensatz zu Ag3+-Clustern können Ag3--Cluster, ebenso wie Ag4+-Cluster, die Entwicklung bereits bei einem Redoxpotential von -310 mV katalysieren. Kleinere Silberaggregate, ob positiv oder negativ geladen, führen nicht zu einer bevorzugten Entwickelbarkeit der mit ihnen belegten Silberhalogenidkörner. Ein Einfluß der Kornmorphologie (Kuben, Oktaeder, T-grains) auf die kritische Clustergröße konnte nicht nachgewiesen werden. Erstmals war es auch möglich, Gold-Silber-Mischclusterionen auf ihre photographische Wirkung hin zu untersuchen. Dabei zeigte sich, daß die katalytische Wirkung von Gold-Silber-Mischclusterionen auf die Entwickelbarkeit der sie enthaltenden Emulsionskörner allein durch den Silberanteil der Cluster bestimmt wird. Mischcluster Ag1Aum+ (m³2) und Ag2Aum+ (m³1) katalysieren die Entwicklung nicht, unabhängig vom Redoxpotential. Dagegen leiten Ag3Aum + (m³2), entsprechend den Agn+-Clustern (n³4) bei Redoxpotentialen negativer als -310 mV die Entwicklung ein. Mischcluster mit höherem Silberanteil (AgnAum+; n³4, m³1) ändern ihre katalytische Wirkung gegenüber reinen Silberclustern entsprechender Größe nicht. Erstmals konnte auch der Begriff „Goldlatensifikation“ präzisiert werden. Die hier gefundnen Ergebnisse zeigen eindeutig, daß von einer solchen nur dann gesprochen werden kann, wenn sich die Goldatome an das Trimer anlagern. Dagegen kann die alleinige Substitution von Silber durch Gold sowohl als empfindlichkeitssteigernder Mechanismus bei der Goldlatensifikation als auch bei der Goldreifung ausgeschlossen werden. Reine Goldcluster-Kationen bis zum Au7 + zeigen keine katalytische Wirkung.
Das HADES-Experiment (High Acceptance DiElectron Spectrometer) am SIS der GSI wurde zur Messung der e+e- - Paare dileptonischer Zerfälle der leichten Vektormesonen im Energiebereich von 1 - 2 AGeV entwickelt. Im Rahmen dieser Arbeit wurden die Eigenschaften des Spurverfolgungssystems de HADES-Spektrometers untersucht. Das Spurverfolgungssystem besteht aus vier Ebenen mit Vieldrahtdriftkammern (Mini Drift Chambers (MDCs)) niedriger Massenbelegung (low-mass), die aus je 6 Auslesedrahtebenen bestehen. Eine der Hauptanforderungen an das Spurverfolgungssystem ist eine Ortsauflösung von 100 µm (hauptsächlich in y-Richtung), die benötigt wird, um die geforderte Massenauflösung von 1 % im Bereich der w-Masse zu erzielen. Gleichzeitig muss die Nachweiseffizienz für schwach ionisierende Elektronen/Positronen hoch sein. Die primäre Messgröße von Driftkammern ist die Driftzeit der entlang einer Teilchenspur generierten Elektronen der Primärionisation zum Auslesedraht. Um die gemessene Driftzeit in eine Ortskoordinate umrechnen zu können, ist eine genaue Kenntnis der Ort-Zeit-Korrelation der Driftzellen nötig. Es wurden detaillierte Simulationen der He/i - Butan Zählgasmischung mit GARFIELD, MAGBOLTZ und HEED vorgenommen. Dabei wurden Gastemperatur, Gasdruck, sowie die Kontamination des Zählgases mit O2 und H20 und die Konzentration des Löschgases variiert und die Auswirkung auf die Driftgeschwindigkeit der Elektronen und damit auf Ort-Zeit-Korrelation der Driftzellen studiert Des Weiteren wurden die Auswirkung der Höhe der Diskriminatorschwelle der Ausleseelektronik und der Einfluss des magnetischen Feldes auf die Driftzeitmessung untersucht. Ein zweidimensionales Modell der Driftzellen, das die Abhängigkeit der Ort-Zeit-Korrelation vom Einfallswinkel des Teilchens in die Driftzelle berücksichtigt, wurde in die Spurrekonstruktionssoftware integriert. Das realistische Ansprechverhalten der Driftkammern wurde in die GEANT-Simulation des HADES-Experimentes implementiert. In der vorliegenden Arbeit wird das Ansprechverhalten der inneren Driftkammern anhand von C + C Daten analysiert, die bei einer Einschussenergie von 2 AGeV im November 2001 gemessen wurden. Es wurde eine neue Methode entwickelt, die aus der Breite des am Auslesedraht influenzierten Signals (time above threshold) eine dem Energieverlust eines Teilchens korrelierte Größe bestimmt, die sich zur Identifikation von Teilchen eignet. Die vorgestellte Methode der Energieverlustmessung besitzt eine Auflösung von etwa 10 % für minimal ionisierende Teilchen und etwa 7, 2 % für stark ionisierenden Teilchen. Die Ortsauflösung der Driftzellen betrug 128 - 154 µm für minimal ionisierende Teilchen und 84 - 116µm für stark ionisierende Teilchen. Für minimal ionisierende Teilchen wurde die Ortsauflösung der Driftkammern in x- und y-Richtung zu x = 181 - 195µm und y = 87 - 104 µm bestimmt. Für stark ionisierende Teilchen wird eine Ortsauflösung von x = 119 - 148 µm und y = 57 - 79 µm erreicht. Eine Teilchenspur wird redundant in den 6 Drahtebenen einer Driftkammer nachgewiesen. Die Nachweiseffizienz der Drahtebenen einer Driftkammer lag für minimal ionisierende Teilchen bei 90 - 96 % und für stark ionisierende Teilchen bei 94 - 98 %. Es konnte somit gezeigt werden, dass die Driftkammern des HADES-Experiment über die geforderte Ortsauflösung und Nachweiseffizienz für e+|e- verfügen und aufgrund der Messung des Energieverlustes in den Driftkammern zur Teilchenidentifikation und Reduktion des Untergrundes beitragen können.
Im Rahmen der vorliegenden Arbeit wurde ein Spracherkennungssystem realisiert, das sowohl phonembasierte als auch wortbasierte Modelle zur sprecherunabhängigen Schlüsselworterkennung im Kontext fließender Sprache verwenden kann. Das System erlaubt dabei die Wahl zwischen zwei grundlegend verschiedenen Verfahren: Entweder kann die Bewertung von Äußerungen durch Schlüsselwortmodelle mit gewählten Schwellenwerten verglichen werden, wobei eine Schwellenwertüberschreitung die Erkennung eines Schlüsselwortes signalisiert, oder es werden beliebige Phonemfolgen als Füllmodelle verwendet, die mit den Schlüsselwortmodellen konkurrieren. Der Schlüsselworterkenner kann sowohl zur 1-Schlüsselwort- Erkennung, bei der vorausgesetzt wird, dass sich in jeder Äußerung exakt ein Schlüsselwort befindet, als auch zur n-Schlüsselwort-Erkennung verwendet werden, bei der sich eine beliebige Anzahl Schlüsselwörter in jeder Äußerung befinden kann. Durch eine effiziente Implementation wurde die Fähigkeit zur Echtzeitverarbeitung auf verfügbaren Arbeitsplatzrechnern erreicht.....
Der Ursprung der Masse bekannter Teilchen und der Einschlu der Quarks in Hadronen ist einer der grundlegendsten Fragestellungen der modernen Physik. Die Kenntnis des Verhaltens von Kernmaterie unter extremen Bedingungen ist unabdingbar zum Verstandnis der Evolution des Universums und zur Theoriebildung von stellaren Objekten wie Neutronensternen und schwarzen Löchern. Einen experimentellen Zugang zur Untersuchung dieser Problematik stellt die Erzeugung heier und dichter Kernmaterie in ultrarelativistischen Schwerionenkollisionen dar. Hierzu untersucht das NA49 Experiment seit Herbst 1994 am 208-Pb-Strahl des CERN-SPS Pb+Pb Kollisionen bei 158 GeV pro Nukleon. Ein Schwerpunkt des Forschungsprogrammes liegt in der Untersuchung des Zustandes der Materie in der frühen Phase der Reaktion. Nach gegenwartem Stand der Theorie wird bei genugent hoher Energiedichte der Einschlu der Quarks in Hadronen aufgebrochen und ein Zustand der Materie erzeugt, in welchen die eektiven Freiheitsgrade von Hadronen und Hadronen-Resonanzen in die von Quarks und Gluonen übergehen - das sogenannte Quark-Gluon-Plasma (QGP). Die Honung ist nun, da sich die Formation eines solchen QGP im hadronischen Endzustand wiederspiegelt. Es wird erwartet, da die Seltsamkeitsproduktion in einem QGP sich in ihrer Rate und ihren Gleichgewichtswerten von der in einem hadronischen Feuerball-Szenario unterscheidet und sich somit als Signatur fur die Erzeugung eines GQP eignet. Von besonderen Interesse ist hier die Produktion von Hyperonen. Schwerpunkt dieser Arbeit ist die Untersuchung der Produktion von doppelt seltsamen geladenen -Hyperonen in zentralen Pb+Pb Kollisionen. Zu diesem Zweck wurden 58000 zentrale Pb+Pb Ereignisse der im Herbst 1995 aufgezeichneten Reaktionen untersucht. Die Analyse der Daten wurde auschlielich mit der zweiten Spurendriftkammer (VTPC2) durchgeführt. Zur Rekonstruktion der -Hyperonen muten Verfahren entwickelt werden, um die typischen Zerfalls-Topologien der doppelt seltsamen Hyperonen aus der Vielzahl von ca. 700 in der Vertex-TPC gemessenen geladenen Teilchenspuren herauszulösen. Aus den in der kombinatorischen Analyse rekonstruierten 720 und 138 + - Hyperonen konnten Spektren des Transversalimpulses und Rapiditatsverteilungen ermittelt werden. Die gewonnene Phasenraum-Akzeptanz fur die in der VTPC2 gemessenen und + - Hyperonen beträgt ....
Im Rahmen dieser Arbeit wurde der Aufbruchsmechanismus des Projektilspektators im relativistischen Energiebereich untersucht. Es zeigte sich dabei, daß die in vorherigen Experimenten beobachtete Targetunabhängigkeit der Fragmentproduktion bei 600 AMeV sich als universelle Eigenschaft des Zerfalls von angeregter und expandierter Kernmaterie erweist. Die Untersuchung von Ladungskorrelationen zeigte ebenfalls weder eine Energie- noch Projektilabhängigkeit im Rahmen der experimentellen Auflösung. Diese Ergebnisse sind im wesentlichen auch zu höheren und niedrigeren Energien von anderen Experimenten bestätigt worden. Mit diesem experimentellen Befund kann eindeutig der Beweis für die Existenz einer Multi-Fragmentproduktion bei relativistischen Energien gegeben werden. Im Rahmen von Modellen können die beobachteten Ladungsobservablen mit einem statistisch dominierten Zerfall erklärt werden. Die sich daran anschließende Frage nach dem Aufbruchsmechanismus und dessen Eigenschaften wurde weiterführend mit Ausrichtung auf kinematische und thermodynamische Eigenschaften des Systems untersucht. Dabei ergab sich, daß die kinematischen Observablen der Projektilquelle einen thermisch äquilibrierten Zustand widerspiegeln, unabhängig vom Stoßparameter und der Einschußenergie. Die hierbei beobachtete Emission von leichten Teilchen, die nicht eindeutig einer intermediären oder Projektilquelle zugeordnet werden konnten, ist hierbei Hinweis auf Nicht-Gleichgewichtsanteile, die in der frühen Phase der Reaktion gebildet werden. Mit der Untersuchung von kollektiven Eigenschaften des zerfallenden Systems wurde versucht, einen quantitativen Einblick in die Reaktionskinematik und den damit zusammenhängenden Energietransfer in den Projektilspektator zu erhalten. Diese Analysen ergaben, daß es bei gleichem Stoßparameter eine starke Abhängigkeit des "Bounce Off" von der Targetmasse gibt, während zu höheren Energien, beim gleichen System, nur ein kleiner Effekt zu höheren Impulsüberträgen (5-10 MeV/c) beobachtet wird. Die Energiebilanz des Systems und die hieraus extrahierten Anregungsenergien zeigten zum ersten Mal in experimentellen Daten ohne Zuhilfenahme von theoretischen Modellen, daß für die stark asymmetrischen Systeme nicht der gleiche Zusammenhang zwischen Anregungsenergie und Z bounce; erhalten wird wie bei den symmetrischen Systemen. Dies zeigt sich bei den asymmetrischen Systemen durch eine Saturation der Anregungsenergie mit kleiner werdendem Z bounce, im Gegensatz zu den symmetrischen Systemen, die einen weiteren Anstieg zeigen. Die absoluten Werte der maximalen Anregungsenergie von <E0/A0> ~ 21-23 MeV bei halbzentralen Reaktionen von 197 Au + 197 Au bei 800 AMeV und <E0/A0> ~27 MeV bei 238 U + 238 U 1000 AMeV sind verschieden bei gleichem Z bound. Es stellt sich jedoch heraus, daß mit Ausnahme der stark asymmetrischen Systeme die Anregungsenergie pro herausgeschlagenem Nukleon (<E Knock/A>) in Abhängigkeit von der prozentualen Größe des Prefragments zu peripheren Reaktionen monoton und energieunabhängig steigt.Werden die experimentell bestimmten Anregungsenergien verglichen mit denen aus theoretischen Modellen, so sind diese immer deutlich geringer. Im statistischen Modell von Botvina und Mitarbeitern, das von D´esesquelles mit unseren Daten verglichen wurde [D´ese 96] [D´ese 95], ergaben sich maximale Anregungsenergien von <E0/A0> ~ 7-8 MeV in zentralen Reaktionen. Ein Vergleich mit QMD + SMM ergibt, daß für die asymmetrischen Systeme (197AU + 12C)mit einer Anregungsenergien von maximal <E0/A0> ~ 8-9 MeV eine Beschreibung der Daten möglich ist. Für die symmetrischen Systeme zeigt sich eine zunehmende Diskrepanz mit zunehmender Targetmasse zwischen den experimentellen und theoretischen Anregungsenergien. Die Ladungsobservablen der Daten werden von der verwendeten QMD + SMM-Rechnung und der QMD (SACA)-Rechnung gut wiedergegeben. Durch Anpassung von Rechnungen mit dem Quantenstatischen Modell [Hahn 88b] (QSM) an die experimentellen Daten ergaben sich Aufbruchsdichten bei zentralen Reaktionen von rho/rho 0 ~ 0.3 bis 0.4, diese sind konsistent mit dem Aufbruch eines äquilibrierten und expandierten Systems. Die aus QSM erhaltenen Temperaturen des Quellsystems in Abhängigkeit von der Anregungsenergie geben im wesentlichen den von Pochodzalla und Mitarbeitern beobachteten Verlauf der kalorischen Kurve wieder. Die Frage, ob dieser Verlauf einen Phasenübergang von flüssig zu gasförmig darstellt, ist anhand dieser Methode nicht zu entscheiden. Die Ergebnisse der Ladungsobservablen in Verbindung mit den kollektiven Eigenschaften zeigen, daß die Anregungsenergie, die zum Erreichen des Maximums der M Fragmentproduktion ( <M IMF> ~ 4.4) nötig ist <E0/A0> ~ 11 MeV, einen geringeren absoluten Wert hat als der Bereich des möglichen Phasenübergangs <E0/A0> ~17 MeV. Im Gegensatz dazu stellt sich das Maximum der mittleren IMF -Produktion energie-, target- und projektilunabhängig bei <E0/A0> ~11 MeV ein. Mit diesemVergleich wird deutlich, daß zur näheren Untersuchung des Phasenübergangs von Kernmaterie nicht die in der Anregungsenergie saturierenden asymmetrischen Projektil-Target Kombinationen benutzt werden können. Die physikalische Fragestellung einer neuen Generation von Experimenten mit dem ALADIN-Detektor müßte in der Quantifizierung des Phasenübergangs und seiner dynamischen Observablen liegen. Dabei ist Beantwortung der Frage nach der zeitlichen Entwicklung der Fragmentproduktion über Korrelationen der Fragmente im Bereich des Phasenübergangs im Vergleich zum Maximum der universellen Kurve sowie die ereignisweise Bestimmung von dynamischen Observablen anzustreben.
Untersuchungen von evolutionären Algorithmen zum Training neuronaler Netze in der Sprachverarbeitung
(1997)
Im Rahmen der vorliegenden Diplomarbeit wurde die Leistungsfähigkeit von evolutionären Algorithmen zum Training von RNN untersucht und mit gradientenbasierten Trainingsalgorithmen verglichen. Die Zielsetzung war dabei im besonderen die Prüfung der Verwendbarkeit in der Sprachverarbeitung, speziell der Spracherkennung. Zunächst wurde anhand eines Prädiktionsproblems die prinzipielle Leistungsfähigkeit von EA untersucht, indem ein MLP mit unterschiedlichen evolutionären Algorithmen trainiert wurde. Verschiedene Varianten von GA und ES sind an diesem Beispiel getestet und miteinander verglichen worden. Im Rahmen der Untersuchungen an GA stellte sich heraus, daß eine Mindestgenauigkeit der Quantisierung zur Lösung erforderlich ist. Es zeigt sich, daß die Genauigkeit der Approximation mit abnehmendem Quantisierungsfehler besser wird. Damit ist eine Behandlung dieses Problems mit grob quantisierten Gewichten nachteilig. Demgegenüber profitiert ES sowohl in der Approximationsgenauigkeit, als auch in der Konvergenzgeschwindigkeit von der direkten Darstellung der Objektvariablen als reelle Zahlen. Weiterhin zeigte sich bei ES, daß die Genauigkeit einer Lösung auch von der Populationsgröße abhängig ist, da mit wachsender Populationsgröße der Parameterraum besser abgetastet werden kann. Im Vergleich mit ES benötigten GA längere Konvergenzzeiten und bedingten zudem aufgrund der Codierung und Decodierung einen höheren Rechenaufwand als ES, so daß die Untersuchungen an RNN nur mit ES durchgeführt wurden. Zunächst wurde mit dem Latching-Problem eine, in der Komplexität eng begrenzte, Klassifikationsaufgabe mit Zeitabhängigkeiten untersucht. Die zur Verfügung gestellte Information war bei diesem Beispiel sehr gering, da der Fehler nur am Ende einer Mustersequenz berechnet wurde. Es stellte sich heraus, daß selbst bei dieser sehr einfachen Aufgabenstellung die gradientenbasierten Verfahren nach dem Überschreiten einer maximalen Mustersequenzlänge T keine Lösung finden konnten. Im Gegensatz dazu war ES in der Lage, das Problem für alle gemessenen Variationen des Parameters T zu lösen. Erst wenn während des Trainings dem Gradientenverfahren zusätzliche Informationen durch Fehlereinspeisung zur Verfügung gestellt wurde, hatte der BPTT-Algorithmus die selbe Leistungsfähigkeit. Als weiteres Experiment mit Zeitabhängigkeiten wurde das Automaton-Problem un- tersucht, welches mittels eines RNN gelöst werden sollte. Bei diesem Problem wurde besonderer Wert auf die Untersuchung des Konvergenzverhaltens bei Änderungen der Parameter von ES gelegt. Die Untersuchungen ergaben, daß die einzelnen Parameter in komplexer Weise miteinander interagieren und nur eine gute Abstimmung aller Parameter aufeinander eine befriedigende Leistung in Bezug auf Konvergenzgeschwindigkeit und Klassifikationsergebnis erbringt. Wie bei dem Latching-Problem wurde der Fehler nur am Ende einer Mustersequenz berechnet. Dies bewirkt, daß der BPTT-Algorithmus bereits bei Sequenzlängen von T = 27 nicht mehr in der Lage ist, die Zeitabhängigkeiten in dem Gradienten zu repräsentieren. Mit ES dagegen konnten RNN trainiert werden, die in der Lage sind, Sequenzlängen bis zu T = 41 richtig zu klassifizieren. Die Untersuchungen bestätigen, daß der beschränkende Faktor in erster Linie der Trainingsalgorithmus und nicht das Netzwerksparadigma ist. Die Simulationsexperimente mit zeitnormierten Sprachdaten zeigen, daß mit ES prinzipiell höhere Erkennungsleistungen als mit dem gradientenbasierten Algorithmus des BPTT erzielt werden können. Jedoch nimmt schon bei der Klassifikation der Zahlwörter Zwei und Drei die Klassifikationsleistung mit zunehmender Sequenzlänge ab. Es erfordert eine drastische Vergrößerung der Populationsgröße, um zumindest gleich gute Ergebnisse zu erzielen. Zusätzliche Tests am Automaton-Problem stützen diese Aussage. Jedoch steigt der Rechenaufwand durch Vergrößerung der Populationsgröße so stark an, daß bei nicht zeitnormierten Sprachdaten ES mit adäquater Populationsgröße nicht mehr simulierbar waren. In den Untersuchungen an dem Vokabular mit sechs Wörtern wurde der Fehler für jeden anliegenden Merkmalsvektor berechnet und im Gradienten bzw. zur Bewertung bei ES im Training verwendet. In diesen Messungen erbringen beide Algorithmen nahezu identische Klassifikationsergebnisse. Insgesamt verhindert der drastisch ansteigende Rechenaufwand bei den Sprachdaten die Verarbeitung von größeren Vokabularien und langen Wörtern durch ES. Aus der Beschränkung der Populationsgröße durch die vorhandene Rechnerkapazität resultierte eine nichtoptimale Anpassung von Selektionsdruck, Mutationsrate und Populationsverteilung im Suchraum. Insbesondere erweist sich die globale Anpassung der Strategieparameter bei den vergrößerten Populationen als problematisch. Weitere Untersuchungen an ES mit Strategien zur Selbstadaption dieser Parameter bieten sich daher für zukünftige Forschung an.
In dieser Arbeit wurde die Produktion negativ geladener Pionen in zentralen Blei+Blei Kollisionen bei 40 A·GeV am CERN SPS mit dem Experiment NA49 untersucht. Die Analyse der Pionen basiert auf der Tatsache, das sie ungefähr 90% des hadronischen Endzustands aller negativ geladenen Hadronen darstellen, wobei der Rest hauptsächlich aus Kaonen besteht. Diese Analyse deckt die komplette vordere Hemisphäre ab, somit wurden keinerlei Extrapolationen benötigt. Für diese Analyse wurde ein komplett neuer Satz von Schnitten in diversen Variablen der Daten von NA49 gesucht und optimiert. Um einen möglichst gut bestimmten Satz von Spuren zu verwenden, wurde nur ein kleiner Teil aller Spuren verwendet, der aber exakt und einfach zur vollen Akzeptanz zurückkorrigiert werden kann. Um die Spuren aus Zerfällen nahe am Hauptinteraktionspunkt und um Dreckeffekte wie γ-Konversion oder Vielfachstreuung zu entfernen, wurde ein komplett neuer Korrekturalgorithmus entwickelt und getestet. Da bei dieser Energie die Spurmultiplizitäten ungefähr um einen Faktor zwei kleiner sind, wurde beobachtet, daß Ineffizienzen in der Rekonstruktion eine untergeordnete Rolle spielen. Hier wurde im Mittel eine Korrektur von 8% verwendet. Um Spektren negativer Pionen zu erhalten, müssen die negativ geladenen Kaonen aus dem Spursatz entfernt werden, hierfür wurde eine Simulation aufgebaut und eingesetzt. Ein großes Problem stellt die Abschätzung des Systematischen Fehlers dar, da es eine Mannigfaltigkeit von Fehlerquellen gibt. In dieser Arbeit wurden zwei Methoden angewandt, um den Systematischen Fehler abzuschätzen. Das Ergebnis der hier vorgestellten Analyse ergibt eine mittlere Multiplizität für die negativen Pionen von 320±14. Die Präsentation eines vorläufigen Zustands dieser Analyse in Kombination mit den neu gewonnen Kaonwerten [1] vor dem SPSC [2] veränderten den vorhandenen Strahlzeitplan nachhaltig, so daß in extrem kurzer Zeit nach ieser Präsentation eine Energieabtastung gestartet wurde. Schon ein paar Monate später bekam NA49 hierfür einen Bleistrahl bei der Energie von 80 A·GeV und wird im Jahr 2002 auch Energien von 20 und 30 A·GeV geliefert bekommen. Auch wurden diese Daten auf der QM2001 als vorläufige Ergebnisse präsentiert. Desweiteren bilden die Ergebnisse, sowie die aus der 80 A·GeV Analyse und denen bei Top-SPS Energie gewonnenen kombiniert mit den Kaonergebnissen bei den gleichen Energien die Grundlage für ein Physical Review Letter der NA49-Kollaboration zum Thema der Energieabhängigkeit des K+/π + Verhältnis. Die Motivation für diese Arbeit war die Suche nach einer Evidenz des Quark-Gluon-Plasma und bei der analysierten Energie wurde der Übergang in diese Phase vorhergesagt [3]. Man sollte einen Wechsel von der Pionunterdrückung zur Pionvermehrung im Vergleich mit den Daten aus Nukleus+Nukleus Experimenten in dem Verhältnis der mittleren Pionmultiplizität zu der Anzahl der Teilnehmenden Nukleonen beobachten. Diese Vermutung stellte sich als richtig heraus. Diesen Wechsel kann man erklären, wenn man einen Phasenübergang zu einer Phase quasifreier Quarks und Gluonen in diesem Bereich annimmt. Die Pionen stellen, aufgrund ihrer geringen Masse, die häufigsten Teilchen dar und sind somit auch eine gute Meßprobe für die gesamte Entropie des Feuerballs. Da die Anzahl der Freiheitsgrade in einem QGP massiv ansteigen muß, sollte man eine erhöhte Produktion von Pionen beobachten. Der Meßpunkt bei 40 A·GeV liegt genau in dem Bereich des Wechsels. Ein Vergleich mit den Modellen zeigt, das kein Modell, wenn es überhaupt Pionen beschreiben kann, die Produktion von Pionen korrekt wiedergibt, außer das „Statistical Modell of the early Stage“, das die Pionproduktion beschreibt und auch den Wechsel von Pionunterdrückung zu Pionvermehrung im Bereich um 40 A·GeV wiedergibt. Dieses Modell besitzt eine Phasenübergang von gebundener Materie zum QGP. Das Hadrongas-Modell kann die Pionen bei jeder Energie beschreiben, aber eine Vorhersage ist nicht möglich, da die Pionen als Eingabe in dieses Modell benötigt werden. Die Ergebnisse von NA49 haben neuen Schwung in die Erklärung von Schwerionenkollisionen und die Suche nach dem QGP gebracht. Die ersten „Resultate“ sind eine Energieabtastung am CERN-SPS und diverse Änderungen an vorhandenen Modellen, um vor allem das nichtmonotonische Verhalten des K+/Pi + Verhältnisses zu beschreiben. Bis jetzt existiert kein Modell und keine Erklärung, die die Daten beschreibt und auf anderen Hadronischen Erklärungen basiert. Somit kann man feststellen, daß eine sich erhärtende Evidenz für die Produktion des QGP am CERN-SPS vorhanden ist.