Refine
Year of publication
Document Type
- diplomthesis (224) (remove)
Has Fulltext
- yes (224)
Is part of the Bibliography
- no (224)
Keywords
- Stochastik (3)
- Diskursanalyse (2)
- RDF (2)
- Semantic Web (2)
- Soziologie (2)
- Statistik (2)
- Stochastischer Prozess (2)
- Strahltransport (2)
- Yule-Prozess (2)
- Ablenkung <Physik> (1)
Institute
- Physik (106)
- Mathematik (39)
- Informatik (29)
- Gesellschaftswissenschaften (15)
- Geowissenschaften (9)
- Wirtschaftswissenschaften (8)
- Biowissenschaften (4)
- Erziehungswissenschaften (4)
- Biochemie und Chemie (3)
- Geographie (1)
Die Arbeiten von Alexander Michailowitsch Lyapunov (1857-1918) waren der Anfangspunkt intensiver Erforschung des Stabilitätsverhaltens von Differentialgleichungen. In der vorliegenden Arbeit sollen Lyapunovfunktionen auf Zeitskalen in Bezug auf das Stabilitätsverhalten des homogenen linearen Systems x-delta = A(t)x untersucht werden.
Diese Arbeit entstand im Zusammenhang mit dem Funneling-Experiment am Institut für Angewandte Physik. Dieses Experiment soll die praktische Umsetzung des für das HIDIF-Projekt benötigte Funneln zur Ionenstrom-Erhöhung demonstrieren. Dabei stand die Erzeugung zweier identischer Ionenstrahlen mit einer Energie von 4 keV im Vordergrund. Diese Ionenstrahlen werden in zwei aufeinander zulaufenden RFQ-Beschleunigern auf eine Energie von 160 keV beschleunigt. Der noch in Planung stehende Funneling-Deflektor bringt die beiden Ionenstrahlen auf eine gemeinsame Strahlachse. Zu Beginn der Diplomarbeit stand der Umbau der Emittanzmeßanlage auf eine PC-Plattform. Gleichzeitig wurde ein sogenannter Quellenturm zum Betrieb der Ionenquellen aufgebaut (vgl. Kapitel 7.2). Die Multicusp-Ionenquellen wurden von K. N. Leung vom Lawrence Berkeley National Laboratory (LBNL) entwickelt und gebaut. Das elektrostatische Linsensystem wurde von R. Keller (LBNL) entworfen und berechnet. Die beiden Linsensysteme wurden in unserer Werkstatt gefertigt. Der erste Teil des Testbetriebs der Injektionssysteme, bestehend aus der Multicusp- Ionenquelle sowie dem elektrostatischen Linsensystem auch LEBT (Low Energy Beam Transport) genannt, bestand aus der Messung des Strahlstromes sowie der zugehörigen Emittanz. Zum Messen des Strahlstromes stand eine durch Preßluft in den Ionenstrahl fahrbare Faradaytasse zur Verfügung. Von dieser Faradaytasse wurde eine Kennlinie zur Bestimmung der Spannung der Sekundärelektronen- unterdrückung aufgenommen (vgl. Kapitel 8.1). Zur Messung der Strahlemittanz wurde eine Emittanzmessung nach dem Schlitz-Gitter Prinzip vorgenommen (vgl. Kapitel 5, Kapitel 7.7-7.9). Beim Betreiben der Injektionssysteme stand vor allem der Synchronbetrieb im Vordergrund. Dabei wurde festgestellt, daß eine der beiden Ionenquellen auch ohne Linsensystem einen größeren Strahlstrom liefert (vgl. Kapitel 8.9). Der Unterschied zwischen den Ionenquellen beträgt bei einem Bogenstrom von 6 A über 20 %. Dies bedeutet für den späteren Strahlbetrieb am RFQ, daß zum Erzeugen gleicher Strahlströme eine Ionenquelle immer mit einem kleineren Bogenstrom betrieben werden muß. Die dadurch unterschiedlichen Plasmadichten sowie thermischen Belastungen der Plasmakammer und unterschiedlichen Füllgrade der elektrostatischen Linsen tragen zu den festgestellten Emittanzunterschieden bei. Zum späteren Vergleich der Injektionssysteme wurde ein Injektionssystem durch verschiedene Bogenströme, variierte Spannungen an den elektrostatischen Linsen sowie unterschiedlichen Gasdrücken in der Plasmakammer ausgemessen. Diese Messungen wurden nach Wechseln der Glühkathode sowie Demontage und Neumontage von Ionenquelle und Linsensystem wiederholt. Dabei wurde festgestellt, daß sich der Strahlstrom bei der Vergleichsmessung kaum, die Emittanz der Injektionssysteme aber bis ca. 10% ändert (vgl. Kapitel 8.5). Diese Unterschiede müssen bei dem späteren Vergleich mit dem zweiten Injektionssystem einbezogen werden.Beim Betrieb des zweiten Injektionssystems wurden im direkten Vergleich der Injektionssysteme Unterschiede zwischen dem Strahlstrom sowie der Emittanz festgestellt. Auch hier lieferte das zweite Injektionssystem den schon nach der Ionenquelle festgestellten größeren Ionenstrom. Die gemessenen normierten 90 % RMS-Emittanzen bei einem Strahlstrom von 1 mA betragen am Injektionssystem 1 , beim Injektionssystem 2 , bei einer e1 =0,0288 mm mrad e2 =0,0216 mm mrad Strahlenergie von 4 keV. Die Emittanzunterschiede betragen bis zu 30 %. Im Betrieb mit dem RFQ können die Linsensysteme nicht mit den identischen Spannungen betrieben werden. Dies ist zum einen auf die fertigungsbedingten Unterschiede zurückzuführen, zum anderen auf die abweichenden Plasmadichten zum Erreichen gleicher Strahlströme. Im geplanten HIDIF-Projekt sollen 48 Ionenquellen drei unterschiedliche Teilchenströme erzeugen. Bei dieser Anzahl an Ionenquellen für drei unterschiedliche Ionensorten wird das Erzeugen identischer Teilchenströme sicher noch schwerer zu bewältigen sein. Am Funneling-Experiment ist der Vergleich der beiden Injektionssysteme abgeschlossen. Der Doppelstrahl RFQ-Beschleuniger ist aufgebaut, es wurde bereits ein Ionenstrahl in den RFQ eingeschossen (vgl. Kapitel 8.13). Die normierten 90 % RMS-Emittanzen nach dem RFQ betragen 0,057 mm mrad sowie 0,0625 mm mrad für die beiden Strahlachsen. Der Emittanzunterschied ist kleiner 9 %. Die Emittanzen nach dem RFQ können nicht direkt mit den im Testbetrieb gemessenen Emittanzen der Injektionssysteme verglichen werden. Im Strahlbetrieb mit dem RFQ wurde eine Strahlenergie der Injektionssysteme von 4,15 keV benötigt. Außerdem mußten durch geänderte Einschußbedingungen in den RFQ die Linsenspannungen gegenüber dem Testbetrieb variiert werden. Mit dem Aufbau des Funneling-Deflektors wird zur Zeit begonnen. Nach der Erprobung wird der Einbau in die Strahlachse erfolgen.
Mit dem Dileptonenspektrometer HADES (High Acceptance Di-Electron Spectrometer) sollen Dielektronen, die bei zentralen Au+Au-Kollisionen der Energie von bis zu 2 GeV/u entstehen, spektroskopiert werden. Zentrale Detektorkomponente ist ein Magnetspektrometer, bestehend aus einem toroidalem Magnetfeld und 24 Driftkammern, die zur Orts- und Impulsbestimmung durch Ablenkung im Magnetfeld verwendet werden. Hohe Raten minimal ionisierender Teilchen, eine Massenauflösung von 1% im Massenbereich von 800 (MeVc) exp -2 sowie eine sichere Signalerkennung und -zuordnung stellen höchste Anforderungen an das Spektrometer, insbesondere an die Driftkammern. Ziel dieser Arbeit ist das grundlegende Verständnis der Funktionsweise der Driftkammern, die bei HADES eingesetzt werden, dazu gehört: (a): das physikalische Verständnis der Funktionsweise, insbesondere - die genaue Kenntnis des Feldverlaufs innerhalb der Kammern, sowie die Eigenschaften des verwendeten Driftkammergases und - die Bestimmung des theoretisch maximal erreichbaren Ortsauflösungsvermögens der Driftkammern, (b): die technische Seite, die den Aufbau der Driftkammern untersucht. Dies ist besonders wichtig, da in den HADES-Simulationsrechnungen aufgrund der großen Anzahl individueller Drähte mit Folien äquivalenter Massen gerechnet wurde. Hilfsmittel zur Untersuchung dieser Fragestellungen waren einerseits Programme, die Monte-Carlo-Methoden verwenden, andererseits Experimente, die an einem Prototyp der HADES-Driftkammern durchgeführt wurden, wobei jedoch der Schwerpunkt dieser Arbeit auf den Simulationrechnungen liegt. Kapitel 1 gibt einen Überblick über die physikalische Motivation von HADES und beschreibt kurz die einzelnen Komponenten des Spektrometers und die Driftkammerphysik. Kapitel 2 geht auf den Aufbau der HADES-Driftkammern ein und stellt die mit Hilfe von Simulationsrechnungen gewonnenen Erkenntnisse über die Kammern vor. Kapitel 3 behandelt die Bestimmung der intrinsischen Auflöosung der Prototyp-Driftkammer. Da dies allein mit Hilfe von Quellenmessungen aufgrund der Vielfachstreuung nicht möglich ist, wurde der Anteil an Vielfachstreuung mit Simulationsrechnungen bestimmt. Kapitel 4 vergleicht die Erkenntnisse über das Verhalten der Driftkammern, die in Kapitel 2 gewonnen wurden, mit einem am SIS (Schwerionen-Synchrotron) gemachten Experiment. Abschließend wird das Modell einer Driftkammer mit realen Drähten mit dem Modell einer Driftkammer verglichen, in der die Drähte durch Folien äquivalenter Massenbelegung ersetzt wurden.
Im Rahmen dieser Diplomarbeit sind Ladungsfluktuationen bei Kollisionen von Blei-Kernen bei den Energien 30, 60, 80 und 160 GeV untersucht worden. Das Interesse an den Ladungsfluktuationen beruht darauf, dass sie einen Hinweis auf die Bildung des Quark-Gluon-Plasmas liefern könnten. Im ersten Teil der Arbeit werden mit Hilfe von einfachen Modellen zwei Variablen untersucht, D-tilde und DeltaPhiq, um die optimale Observable zur Messung der Ladungsfluktuationen zu finden. Im zweiten Teil werden experimentelle Resultate präsentiert, die aus den Daten des CERN-SPS-Experimentes NA49 gewonen wurden. Die gemessenen Ladungsfluktuationen entsprechen denen, die von einem Pionen-Gas erwartet werden, wenn die Pionen nur aufgrund der Ladungserhaltung korreliert sind. Es wird jedoch gezeigt, dass diese Resultate nicht der Annahme widersprechen, dass das Quark-Gluon-Plasma bei SPS-Energien gebildet wird.
Untersuchungen von evolutionären Algorithmen zum Training neuronaler Netze in der Sprachverarbeitung
(1997)
Im Rahmen der vorliegenden Diplomarbeit wurde die Leistungsfähigkeit von evolutionären Algorithmen zum Training von RNN untersucht und mit gradientenbasierten Trainingsalgorithmen verglichen. Die Zielsetzung war dabei im besonderen die Prüfung der Verwendbarkeit in der Sprachverarbeitung, speziell der Spracherkennung. Zunächst wurde anhand eines Prädiktionsproblems die prinzipielle Leistungsfähigkeit von EA untersucht, indem ein MLP mit unterschiedlichen evolutionären Algorithmen trainiert wurde. Verschiedene Varianten von GA und ES sind an diesem Beispiel getestet und miteinander verglichen worden. Im Rahmen der Untersuchungen an GA stellte sich heraus, daß eine Mindestgenauigkeit der Quantisierung zur Lösung erforderlich ist. Es zeigt sich, daß die Genauigkeit der Approximation mit abnehmendem Quantisierungsfehler besser wird. Damit ist eine Behandlung dieses Problems mit grob quantisierten Gewichten nachteilig. Demgegenüber profitiert ES sowohl in der Approximationsgenauigkeit, als auch in der Konvergenzgeschwindigkeit von der direkten Darstellung der Objektvariablen als reelle Zahlen. Weiterhin zeigte sich bei ES, daß die Genauigkeit einer Lösung auch von der Populationsgröße abhängig ist, da mit wachsender Populationsgröße der Parameterraum besser abgetastet werden kann. Im Vergleich mit ES benötigten GA längere Konvergenzzeiten und bedingten zudem aufgrund der Codierung und Decodierung einen höheren Rechenaufwand als ES, so daß die Untersuchungen an RNN nur mit ES durchgeführt wurden. Zunächst wurde mit dem Latching-Problem eine, in der Komplexität eng begrenzte, Klassifikationsaufgabe mit Zeitabhängigkeiten untersucht. Die zur Verfügung gestellte Information war bei diesem Beispiel sehr gering, da der Fehler nur am Ende einer Mustersequenz berechnet wurde. Es stellte sich heraus, daß selbst bei dieser sehr einfachen Aufgabenstellung die gradientenbasierten Verfahren nach dem Überschreiten einer maximalen Mustersequenzlänge T keine Lösung finden konnten. Im Gegensatz dazu war ES in der Lage, das Problem für alle gemessenen Variationen des Parameters T zu lösen. Erst wenn während des Trainings dem Gradientenverfahren zusätzliche Informationen durch Fehlereinspeisung zur Verfügung gestellt wurde, hatte der BPTT-Algorithmus die selbe Leistungsfähigkeit. Als weiteres Experiment mit Zeitabhängigkeiten wurde das Automaton-Problem un- tersucht, welches mittels eines RNN gelöst werden sollte. Bei diesem Problem wurde besonderer Wert auf die Untersuchung des Konvergenzverhaltens bei Änderungen der Parameter von ES gelegt. Die Untersuchungen ergaben, daß die einzelnen Parameter in komplexer Weise miteinander interagieren und nur eine gute Abstimmung aller Parameter aufeinander eine befriedigende Leistung in Bezug auf Konvergenzgeschwindigkeit und Klassifikationsergebnis erbringt. Wie bei dem Latching-Problem wurde der Fehler nur am Ende einer Mustersequenz berechnet. Dies bewirkt, daß der BPTT-Algorithmus bereits bei Sequenzlängen von T = 27 nicht mehr in der Lage ist, die Zeitabhängigkeiten in dem Gradienten zu repräsentieren. Mit ES dagegen konnten RNN trainiert werden, die in der Lage sind, Sequenzlängen bis zu T = 41 richtig zu klassifizieren. Die Untersuchungen bestätigen, daß der beschränkende Faktor in erster Linie der Trainingsalgorithmus und nicht das Netzwerksparadigma ist. Die Simulationsexperimente mit zeitnormierten Sprachdaten zeigen, daß mit ES prinzipiell höhere Erkennungsleistungen als mit dem gradientenbasierten Algorithmus des BPTT erzielt werden können. Jedoch nimmt schon bei der Klassifikation der Zahlwörter Zwei und Drei die Klassifikationsleistung mit zunehmender Sequenzlänge ab. Es erfordert eine drastische Vergrößerung der Populationsgröße, um zumindest gleich gute Ergebnisse zu erzielen. Zusätzliche Tests am Automaton-Problem stützen diese Aussage. Jedoch steigt der Rechenaufwand durch Vergrößerung der Populationsgröße so stark an, daß bei nicht zeitnormierten Sprachdaten ES mit adäquater Populationsgröße nicht mehr simulierbar waren. In den Untersuchungen an dem Vokabular mit sechs Wörtern wurde der Fehler für jeden anliegenden Merkmalsvektor berechnet und im Gradienten bzw. zur Bewertung bei ES im Training verwendet. In diesen Messungen erbringen beide Algorithmen nahezu identische Klassifikationsergebnisse. Insgesamt verhindert der drastisch ansteigende Rechenaufwand bei den Sprachdaten die Verarbeitung von größeren Vokabularien und langen Wörtern durch ES. Aus der Beschränkung der Populationsgröße durch die vorhandene Rechnerkapazität resultierte eine nichtoptimale Anpassung von Selektionsdruck, Mutationsrate und Populationsverteilung im Suchraum. Insbesondere erweist sich die globale Anpassung der Strategieparameter bei den vergrößerten Populationen als problematisch. Weitere Untersuchungen an ES mit Strategien zur Selbstadaption dieser Parameter bieten sich daher für zukünftige Forschung an.
Suche im Semantic Web : Erweiterung des VRP um eine intuitive und RQL-basierte Anfrageschnittstelle
(2003)
Datenflut im World Wide Web - ein Problem jedes Internetbenutzers. Klassische Internetsuchmaschinen sind überfordert und liefern immer seltener brauchbare Resultate. Das Semantic Web verspricht Hoffnung - maßgeblich basierend auf RDF. Das Licht der Öffentlichkeit erblickt das Semantic Web vermutlich zunächst in spezialisierten Informationsportalen, so genannten Infomediaries. Besucher von Informationsportalen benötigen eine Abfragesprache, welche ebenso einfach wie eine gewöhnliche Internetsuchmaschine anzuwenden ist. Eine derartige Abfragesprache existiert für RDF zur Zeit nicht. Diese Arbeit stellt eine neuartige Abfragesprache vor, welche dieser Anforderung genügt: eRQL. Bestandteil dieser Arbeit ist der mittels Java implementierte eRQL-Prozessor eRqlEngine, welcher unter http://www.wleklinski.de/rdf/ und unter http://www.dbis.informatik.uni-frankfurt.de/~tolle/RDF/eRQL/ bezogen werden kann.
Es wurde eine Meßstation zum Vermessen von THz-Photomischern vorgestellt und aufgebaut. Weiterhin konnte gezeigt werden, wie diese Station es ermöglicht, das Vermessen von THz-Photomischern, im Vergleich zum bisher verwendeten Meßaufbau, deutlich zu vereinfachen und zu beschleunigen. Mit dieser Station wurden zwei Proben, die sich in der Dicke der LT-GaAs-Schicht unterscheiden, vermessen. Um die gemessenen Daten analysieren zu können wurden zuvor beschrieben, wie eine Modulation des Photostroms in Photomischern erhalten und damit THz-Strahlung erzeugt werden kann. Gemessen wurde die THz-Leistung in Abhängigkeit von Frequenz , Vorspannung und Leistung der optischen Beleuchtung. Diese Messungen haben zu Ergebnissen geführt, die nur zum Teil mit den theoretisch vorhergesagten Ergebnissen übereinstimmen. So wurde festgestellt, daß nur etwa 1 bis 2 % der theoretisch erwarteten THz-Leistung detektiert wurde. Dies kann an langlebigen Ladungsträgern liegen, die im Substrat erzeugt werden. Diese Ladungsträger unterhalb der LT-GaAs-Schicht führen zu einer erhöhten Leitfähigkeit und können dadurch Reflexion und Absorption von THz-Strahlung verursachen. Diese Vermutung wird unterstützt durch die Beobachtung einer starken Reduktion des Signals in einem gepulsten THz-System, wenn eine konstante Hintergrundbeleuchtung eingeschaltet wird.[45] Weiterhin ist nicht auszuschließen, daß die für die THz-Erzeugung relevante Lebenszeit der Ladungsträger deutlich größer ist, als die mit Anrege-Abfrage-Messungen bestimmte. Analog könnte auch eine deutlich höhere Kapazität des Photomischers als die theoretisch berechnete diese Beobachtung erklären. Ob langlebige Ladungsträger im Substrat für die geringe gemessen Leistung verantwortlich sind kann überprüft werden, indem zwischen Substrat und LT-GaAs-Schicht einen Bragg-Refelektor gewachsen wird. So kann verhindert werden, daß eingestrahlte Leistung das Substrat erreicht. Dadurch können keine Ladungsträger im Substrat angeregt werden. Zusätzlich hat dies den Effekt, daß ein größerer Anteil der eingestrahlten Strahlung absorbiert werden kann, weil die einfallende Strahlung wegen der Reflexion zweimal durch die LT-GaAs-Schicht läuft. Ein solcher Mischer wurde bereits von E. R. Brown vorgeschlagen.[46] Bei den Messungen der THz-Leistung gegen Vorspannung konnte beobachtet werden, daß der Photostrom eine andere Abhängigkeit von der Vorspannung zeigt, als theoretisch vorhergesagt wurde. Erwartet wurde ein linearer Zusammenhang. Bei höheren Vorspannungen wurde aber ein stärkerer Anstieg beobachtet. Dies kann z.B. an einem zusätzlichen nichtlinearen Strom durch das Substrat oder an einer vom elektrischen Feld abhängigen Lebenszeit der Ladungsträger liegen. Für beide Erklärungsansätze wurden vereinfachte Modelle vorgestellt. Beide Modelle treffen dabei unterschiedliche Vorhersagen über die Änderung der Effizienz beim Auftreten des höheren Stromes. Deutlich werden die Unterschiede in den Vorhersagen im Frequenzverlauf. So führt ein zusätzlicher Strom durch das Substrat zu einer Verringerung der Effizienz um einen von der Frequenz unabhängigen konstanten Faktor. Der Frequenzverlauf verschiebt sich also zu geringeren Effizienzen. Eine Erhöhung der Lebenszeit hingegen führt zu einem geänderten Frequenzverlauf. So ist die Änderung der Effiienz bei niedirgen Frequenzen gering, zu höheren Frequenzen hin ändert sich die Effizienz jedoch immer stärker. Die Vorhersagen beider Modelle wurden mit dem gemessenen Daten verglichen. Bei den gegebenen Parametern war der Unterschied zwischen den beiden Modellen jedoch zu gering und die Fluktuation in den Meßdaten zu hoch, um entscheiden zu können, welches der beiden Modelle die gemessenen Daten besser beschreibt. Um erkennen zu können, welches der Modelle den Effekt beschreibt, der zu einem höheren Strom führt, müßte der Effekt in den Meßdaten erhöht werden. Dies kann geschehen, indem zusätzlich bei höheren Spannungen gemessen wird. Es müßte dabei allerdings die optische Leistung reduziert werden, um ein Zerstören der Mischer zu vermeiden. In dieser Arbeit konnte somit gezeigt werden, daß die aufgebaute Meßstation ein vereinfachtes Messen von THz-Photomischern ermöglicht. Weiterhin konnte das Verhalten von zwei vermessenen Mischern gezeigt und analysiert werden, sowie weitere Messungen vorgeschlagen werden, die eine exaktere Analyse der Photomischer ermöglichen sollten.
Das im Rahmen dieser Arbeit durchgeführte Experiment hatte zum Ziel Interferenzeffekte beim dissoziativen Ladungstransfer bei Molekülion-Atomstößen zu beobachten. Interferenzeffekte in Molekül-Atomstößen wurden von McGuire hervorgesagt und berechnet [4]. Diese Arbeit betrachtet ein ähnlichen Reaktionssystem. Die von ihm vorausgesagten Effekte wurden bestätigt. Das Experiment hat es ermöglicht, Interferenzen für alle Molekülorientierungen zu betrachten, womit man leicht Analogien zu zwei speziellen Fällen herstellen kann: mit der Molekülachse senkrecht zur Strahlrichtung entsteht eine Situation ähnlich einem Doppelspalt, bei dem die Kerne des Moleküls als Reaktionszentrum an Stelle der Spalte treten; mit der Molekülachse in Strahlrichtung entsteht eine Situation bei der Streuung an einem einzelnen Atom. In allem Molekülorientierungen erkennt man ein ringförmiges Minimum bei 1.6 a.u., wie es insbesondere bei der Beugung einem einzelnen Atom zu beobachten ist. Bei senkrechter Stellung der Molekülachse zur z-Achse überlagert durch die Streifen eines Doppelspaltes. Es war außerdem möglich den Endzustand der Teilchen zu bestimmen, so daß man sagen konnte, ob eine Teilchen angeregt aus der Reaktion hervorgegangen ist oder ob es über metastabile Zwischenzustände zerfallen ist. So ließ sich für den Impulsübertrag von 1.6 au eine Besonderheit feststellen: ein Minimum läßt sich nur im direkten Kanal ohne Anregung beobachten. Findet der Zerfall hingegen über metastabile Zwischenzustände ohne Anregung statt, so weist dieser Kanal bei etwa 1.6 au ein Maximum auf. Parallel zur Durchführung dieser Arbeit wurden erste Tests mit einem digitalen Oszillographen von Aquiris gemacht. Dieser speichert den Spannungsverlauf der Spannung an den Delaylineanoden. Peaks müssen dann schnell genug erkannt und ausgewertet werden. In der Offlineanalyse wären dann eng nebeneinander oder übereinanderliegende Peaks besser als solche zu erkennen. Diese würde die Totzeitproblematik, die sie durch die Dissoziation eines Moleküls senkrecht zur z-Achse entsteht, erheblich entschärfen.
In der vorliegenden Arbeit wird ein schnelles Choppersystem für einen hochintensiven niederenergetischen Protonenstrahl untersucht. Das Choppersystem wird in der Niedrigenergiesektion (LEBT) der Frankfurter Neutronenquelle FRANZ eingesetzt. Der Treiberstrahl hat dort eine Energie von 120 keV und eine Intensität von bis zu 200 mA Protonen. Gefordert ist die Erzeugung eines gepulsten Strahls mit einem 50 bis 100 ns langen Pulsplateau und einer Wiederholrate von 250 kHz. Nach der Diskussion verschiedener Chopperkonzepte wird der Einsatz eines Kickersystems vorgeschlagen. Magnetische und elektrische Kicker werden im Hinblick auf Geometrie, Ablenkfelder, Strahldynamik, Emittanzwachstum, Leistungsbedarf sowie Betrieb im Schwingungs- oder im Pulsmodus untersucht. Die Realisierung des Choppersystems wird mit Hilfe von numerischen Simulationen und Vorexperimenten geprüft. Ein eigens dazu entwickelter Particle-in-cell (PIC)-Code wird vorgestellt. Er erlaubt die Simulation von Vielteilchen-Prozessen in zeitabhängigen Kickerfeldern unter Berücksichtigung der Effekte der Sekundärelektronen. Die Vorexperimente für die Ansteuerung des Kickers werden präsentiert. Für den magnetischen Kicker wurde eine niederinduktive Testspule und für den elektrischen Kicker ein Transformator bestehend aus einem nanokristallinen Ringbandkern aufgebaut. Abschließend werden die beiden Systeme miteinander verglichen. Ein magnetischer Kicker ist auch bei hohen Strahlintensitäten weniger anfällig für Strahlverluste und kann ohne die Gefahr von Spannungsdurchschlägen betrieben werden. Bei den geforderten hohen Wiederholraten ist jedoch der Leistungsbedarf nicht annehmbar, so dass im Ausblick die Weiterentwicklung eines elektrischen Kickersystems vorgeschlagen wird.
Anhang: A: Luftbild der Stadt Bebra (Ausschnitt). B: Topographische Karte, Legende (Ausschnitt). C: Grothus Stadtplan Bebra (Ausschnitt), Titelblatt, Legende. D: Faltplan Bebra. E: Foto aus Bebra (Aufnahme des Autors). F: "Eskalationen um das syrisch-orthodoxe Gemeindezentrum..." (Ausschnitt). Die Auswahl des Gegenstands dieser Arbeit geht auf eine lange Entwicklungsgeschichte zurück: Ursprüngliche Überlegung, die den Anstoß für die Analyse von Luftbildern und Karten gab, war die Idee, vor der Untersuchung einzelner Bewohner verschiedener Regionen (innerhalb einer geplanten Untersuchung von Deutungsmustern ländlich bzw. großstädtisch geprägter Jugendlicher) zunächst die Wohnumgebung als solche, sozusagen als "sozialökologisches objektives Datum1" zu untersuchen. Bald zeigte sich jedoch, daß der Ansatz in dieser Form nicht durchführbar war bzw. sich langfristig als nicht sinnvoll erwies: 1. Durch den Wechsel eines ursprünglich geplanten Koautors der Arbeit zu einem anderen Thema wurden die Möglichkeiten einer so umfangreichen Untersuchung, als die sich das Vorhaben darstellte, durch den Rahmen der Diplomarbeit stark eingeschränkt. 2. Unmittelbar vor der Anmeldung der Diplomarbeit - und damit bezüglich des Zeitpunkts somit ausschlaggebend - zeigte sich die Verlagerung des zunächst nur als objektives Datum gedachten Datenmaterial in den Mittelpunkt des Interesses. 3. Stellte sich im Verlauf der Arbeit heraus, daß die extensive Auslegung vor allem des Luftbilds weitreichendere Rückschlüsse erlaubt, als sie im anfänglichen Konzept eines "Standortfaktors" für einzelne Einwohner enthalten waren. Letztendlich wurde dieses anfängliche Teilprojekt zu einer eigenen Arbeit, die in der vorliegenden Form das Ziel verfolgt Luftbilder und Karten durch Analysen nach dem Verfahren der objektiven Hermeneutik auf ihre Ergiebigkeit hin zu untersuchen. Auch wenn eine methodische Fragestellung im Mittelpunkt steht, soll es in der Arbeit nicht darum gehen, die Grundlagen der objektiven Hermeneutik in Gänze zu entfalten. Falls innerhalb der Analysen methodische Erklärungen notwendig erscheinen, sollen diese an Ort und Stelle vorgenommen werden. Luftbild und Karte sind in der Stadt- und Siedlungssoziologie trotz der relativ einfachen Verfügbarkeit als eigenständiges Datenmaterial (das explizit in der Darstellung genannt wird) eher selten vertreten. Die genauen Gründe für diese "Abstinenz" in bezug auf diese Datentypen kann man nur ahnen: Die Soziologie beschäftigt sich mit dem Sozialen, "dem Zwischenmenschlichen", während die Geographie vorrangig das materielle Umfeld des Lebens untersucht. Auf diese Unterscheidung will ich hier nicht weiter eingehen, festzuhalten bleibt, daß die hier überzeichnet skizzierte Abgrenzung zwischen den Disziplinen nicht unproblematisch ist. Auch deshalb soll die Betrachtung der Methoden der Luftbild- und Kartenanalyse in der Geographie, wo die Beschäftigung mit diesen Datentypen zum "Alltagsgeschäft" gehört, in einem eigenen Kapitel erfolgen und nicht nur zur "Abgleichung" von Lücken dienen.
Pflanzliche Biomasse bietet sich hervorragend als billiges und in großen Mengen verfügbares Ausgangssubstrat für industrielle Fermentationsprozesse an. Dabei könnte z.B. die Hefe Saccharomyces cerevisiae zur Herstellung von Bioalkohol eingesetzt werden. S. cerevisiae kann jedoch die in großen Mengen in der Biomasse enthaltenen Pentosen D-Xylose und L-Arabinose nicht vergären. Deshalb wäre ein Hefestamm mit entsprechend erweitertem Substratspektrum von großem wirtschaftlichen Interesse. In dieser Arbeit sollte rekombinante Hefestämme konstruiert bzw. optimiert werden, die in der Lage sind D-Xylose und/oder L-Arabinose zu Ethanol zu vergären. Zunächst wurde ein bereits vorhandener L-Arabinose vergärender Hefestamm unter Einsatz der Methoden der „gerichteten Evolution“ optimiert, L-Arabinose effektiver zu verstoffwechseln. Dies geschah durch repetitive Selektion auf Wachstum mit L-Arabinose als einziger Kohlenstoffquelle unter Sauerstoff-limitierten Bedingungen. Eine genetische und physiologische Charakterisierung des Stammes ergab, dass dieser sowohl Mutationen im Hefegenom als auch auf den L-Arabinose Stoffwechselweg exprimierenden Plasmiden erworben hatte. Dieser Stamm exprimierte die für den L-Arabinose Katabolismus notwendigen Enzyme und Transporter von vier verschiedenen Plasmiden. Für den industriellen Einsatz eines rekombinanten Hefestammes ist es jedoch unerlässlich, die Gene des L-Arabinose Katabolismus stabil in das Genom zu integrieren. In dieser Arbeit ist es gelungen, zwei der insgesamt drei essentiellen Gene des Stoffwechselweges in funktioneller Form in den rDNA-Locus von S. cerevisiae zu integrieren. Im letzten Teil der Arbeit konnte erstmals ein Hefestamm konstruiert werden, der sowohl die Gene des Stoffwechselweges für den L-Arabinose- als auch die des Stoffwechselweges für den D-Xylose-Katabolismus exprimiert. Der Stamm war in der Lage auf Nähragarplatten zu wachsen, bei denen L-Arabinose oder/und D-Xylose die einzigen Kohlenstoffquellen darstellten. Wachstumstests mit Flüssigkulturen sowie HPLC-Analysen des Zuckerverbrauchs ergaben jedoch, dass der Hefestamm überraschenderweise nicht in der Lage war, D-Xylose in Flüssigmedien zu verstoffwechseln. Mögliche Erklärungen hierfür werden diskutiert.
Die vorliegende Arbeit beschäftigt sich mit der Messung der Elektronen-Driftgeschwindigkeit in dem Gasgemisch Ne/CO2 (90% / 10 %). Durchgeführt wurde sie zur Optimierung der Spurendriftkammer des ALICE-Projektes am CERN. Mit dem Aufbau zur Driftgeschwindigkeitsmessung läßt sich eine Genauigkeit von 1‰ erzielen. Untersucht wurden mit diesem Anspruch die Abhängigkeiten von der Temperatur, von CO2 Konzentrationsänderungen sowie von Stickstoffzugabe. Für die genaue Messung der Driftgeschwindigkeit wurde eine kleine Driftkammer gebaut. Die Ionisation des Gases erfolgt mit Hilfe eines UV-Lasers, dessen Strahl zunächst aufgeweitet, und dann geteilt wird. Der Abstand der so erhaltenen zwei Laser-Strahlen wird mit Hilfe von zwei präzisen Doppelblenden definiert. Zur Kontrolle der Gaszusammensetzung und -qualität wurde eine Gasanalysestation zusammengestellt. Die aufgenommenen Daten werden über ein ADC-System auf einem Computer gespeichert. Damit können in der Analyse die Driftgeschwindigkeitsdaten mit den Gasdaten zeitgleich ausgewertet werden. Das wird u.a. für die Korrektur der Daten auf den momentanen Druck und die Temperatur des Gases benötigt. Die Driftgeschwindigkeit wurde bei Feldstärken von 100 - 900 V/cm in Schritten von 100 V/cm gemessen. Die Spurendriftkammer des ALICE-Experimentes soll bei einer Feldstärke von 400 V/cm arbeiten. Die dafür gemessenen Ergebnisse sind: Temperaturabhängigkeit: Bei der erreichbaren Genauigkeit läßt sich über die Abhängigkeit der Driftgeschwindigkeit ve􀀀 von der Teilchenzahldichte N des Gases ve􀀀 = f(E/N) = f(E*T/P) keine weitere Temperaturabhängigkeit feststellen. Die relative Änderung der Driftgeschwindigkeit mit der Temperatur beträgt: Dv400 e􀀀 DT = 3.1 +- 0.23‰ /K CO2-Abhängigkeit: Die relative Änderung der Driftgeschwindigkeit mit dem CO2-Gehalt bei einer CO2- Konzentration um die 10% beträgt: Dv400 e􀀀;CO2 = -7.69 +- 0.39 Eine Erhöhung des CO2-Gehaltes um 1‰ (10.0% -> 10.1 %) führt also zu einer Herabsetzung der Driftgeschwindigkeit um ca. 7.7‰. N2-Abhängigkeit: Die relative Änderung der Driftgeschwindigkeit bei Stickstoffzugabe beträgt Dv400 e􀀀;N2 = - 1.14 +- 0.08 Eine Zugabe von 1‰ N2 zur Driftgasmischung führt damit zu einer Herabsetzung der Driftgeschwindigkeit um ca. 1.1‰ .
Gemessen wurden der gerichtete und der elliptische Fluss von Pionen und Protonen in Blei-Blei-Stößen bei einer Laborenergie des Projektils von 40 GeV pro Nukleon. Bestimmt wurde die Abhängigkeit der beiden Flusskomponenten von der Zentralität des Stoßes sowie von der Rapidität und dem Transversalimpuls der gemessenen Teilchen. Zur Rekonstruktion des Flusses wurde die Methode der Korrelation der Teilchen mit der abgeschätzten Reaktionsebene verwendet. Zur Korrektur der azimutalen Anisotropien des Detektors wurde die Methode des Zentrierens der Teilchenverteilung in Abhängigkeit von Rapidität und Transversalimpuls angewendet. Für den v2 wurde eine Abänderung des Korrelationsterms nötig, um den Einflüssen durch die schlechte Akzeptanz entgegenzuwirken. Weiterhin wurde der Einfluss von Nicht-Fluss-Korrelationen zwischen den gemessenen Teilchen auf den Fluss untersucht. Dabei erkannte man einen starken Einfluss der Transversalimpulserhaltung im v1, der durch eine Korrektur behoben werden konnte. Einen weniger starken Einfluss konnte man bei der Untersuchung im Phasenraum kurzreichweitiger Korrelationen feststellen. Es wurde erstmals deutlich ein negativer gerichteter Fluss von Protonen nahe der Schwerpunktsrapidität beobachtet, der bereits mittels meherer theoretischer Rechnungen vorhergesagt wurde. Sowohl der gerichtete als auch der elliptische Fluss erreicht bei 40 AGeV Laborenergie annähernd die gleichen Werte, die von NA49 bei 158 AGeV Laborenergie gemessen wurden. Die für den Fluss gemessenen Werte befinden sich teilweise in Übereinstimmung mit denen des Experimentes CERES/NA45, ist allerdings nur bedingt möglich, da bisher nur einzelne vorläufige Resultate veröffentlicht wurden. Die für den elliptischen Fluss gemessenen Werte bei der Schwerpunktsrapidität und einer Zentralität von 25% liegen etwas höher als man aus der beobachteten Systematik der Energieabhängigkeit zwischen den Experimenten E877 (mit 10 AGeV Laborenergie am AGS), CERES und NA49 (bei einer Energie von und 160 AGeV am SPS) sowie STAR (am RHIC bei einer Energie von psNN = 130GeV) erwartet hat. So wird von den Werten am AGS bei voller Energie zu denen am SPS bei 40 AGeV ein Anstieg von 2% auf 3,3% beobachtet. Von 40 AGeV zu 158 AGeV Laborenergie am SPS ändert sich der Wert nur minimal von 3,3% auf 3,2%. Zwischen der höheren SPS-Energie von 158 AGeV und der RHIC-Energie von psNN = 130GeV wird ein weiterer Anstieg von 3,2% auf 5,6% gemessen. Das ist ein Anzeichen für eine Anomalie, die im Bereich der SPS-Energien vorliegen könnte. Eine genauere Bestimmung des Flusses ist noch möglich, da für die Analyse dieser Arbeit erst eine Hälfte der gemessenen Daten zur Verfügung stand. Mit Hilfe dieser Daten ließe sich die Energieabhängigkeit des Flusses genauer untersuchen und die gefundene Anomalie bestätigen.
Das 1913 auf dem Gipfel des Kleinen Feldbergs gegründete Taunus-Observatorium (T.O.) ist eine Einrichtung der Johann Wolfgang Goethe-Universität Frankfurt am Main. Es dient dem Institut für Meteorologie und Geophysik als Forschungsstätte für kontinuierliche Messungen und als Standort für Meßkampagnen in Zusammenarbeit mit anderen Instituten, wie z. B. beim The Kleiner Feldberg Cloud Experiment 1990 [Fuzzi, 1995]. Darüber hinaus wird das Observatorium mit seinen Einrichtungen immer wieder für Messungen im Rahmen von Diplom- und Doktorarbeiten genutzt. Primäres Ziel dieser Diplomarbeit war eine Charakterisierung der zeitlichen Variabilität der luftchemischen Bedingungen am Taunus-Observatorium in Abhängigkeit von Wetter und Witterung. In der Zeit vom 13. Dezember 1996 bis zum 26. März 1997 wurden am Taunus- Observatorium auf dem Kleinen Feldberg mit Hilfe eines gaschromatographischen Analyseverfahrens die Spurengase Kohlenmonoxid und molekularer Wasserstoff gemessen, um die zeitliche Variabilität der luftchemischen Bedingungen am Taunus-Observatorium in Abhängigkeit von Wetter und Witterung zu untersuchen. Bei der Meßreihe am Taunus-Observatorium zeigte sich, daß die zeitlichen Variationen der langlebigen Spurengase CO und H2 über Tage und Wochen maßgeblich durch den Ferntransport von Luftmassen und die jeweilige Großwetterlage bestimmt werden. Mit Hilfe von Trajektorienanalysen konnte gezeigt werden, daß die Messungen stark von Herkunft und Zugweg der jeweiligen Luftmassen abhängen. Deutliche Änderungen der mittleren CO- und H2-Mischungsverhältnisse wurden bei Luftmassenänderungen beobachtet, wie z. B. eine markante Abnahme von Kohlenmonoxid und molekularem Wasserstoff nach dem Durchgang von Kalt- oder Warmfronten. Extreme Unterschiede der gemessenen Spurengaskonzentrationen konnten auch bei verschiedenen winterlichen Inversionswetterlagen registriert werden. Befand sich das Taunus-Observatorium unterhalb einer Temperaturinversion in der bodennahen Grenzschicht, wurden ungewöhnlich hohe CO- und H2-Mischungsverhältnisse gemessen; war der Kleine Feldberg dagegen über der Inversion innerhalb der freien Atmosphäre, wurden wiederholtdie atmosphärischen Hintergrundkonzentrationen von Kohlenmonoxid und molekularem Wasserstoff beobachtet. Auch durch lokale und regionale Effekte konnten in Abhängigkeit von der lokalen Windrichtung starke zeitliche Variationen der luftchemischen Bedingungen beobachtet werden. Durch die Orographie bedingt Verursachen kleine Änderungen der lokalen Windrichtung drastische Veränderungen in den gemessenen Spurengaskonzentrationen. So trennt z. B. der Taunuskamm die durch regionale Quellen im Großraum Frankfurt belastete Luft im Vordertaunus von der weniger verschmutzter Luft im ländlichen Hintertaunus. Darüber hinaus kann durch die Kanalisierung des Windes in verschiedenen Tälern oder an den Flanken des Taunuskammskontaminierte Luft aus den Niederungen herangeführt werden. Die hohe Variabilität der gemessenen Mischungsverhältnisse in Abhängigkeit von Meteorologie und Orographie dominiert den Tagesverlauf der CO- und H2-Messungen. Daher war eine Untersuchung von anthropogenen Tages- und Wochengängen oder sogar jahreszeitlicher Variationen der langlebigen Spurengase CO und H2 am Taunus-Observatorium nicht möglich. Zusätzlich zu den Messungen am Taunus-Observatorium wurde mit der in dieser Arbeit vorbereiteten Analytik das Mischungsverhältnis von molekularem Wasserstoff in stratosphärischen Luftproben von drei verschiedenen Ballonflügen gemessen, entsprechende H2-Vertikalprofile erstellt und die Ergebnisse der Messungen mit Modellrechnungen verglichen.
We presented a proof for the classical stable limit laws under use of contraction method in combination with the Zolotarev metric. Furthermore, a stable limit law was proved for scaled sums of growing into sequences. This limit law was alternatively formulated for sequences of random variables defined by a simple degenerate recursion.
Seit Mitte der 60er Jahre diesen Jahrhunderts hat sich in Europa und Nordamerika vor allem unter Jugendlichen und jungen Erwachsenen der Konsum von gesetzlich verbotenen Substanzen ausgebreitet. Ungefähr gleichzeitig setzte sowohl in den Massenmedien als auch in professionellen Kreisen eine heftige Diskussion über dieses Phänomen ein, die bis heute andauert, was nicht nur auf die fraglos nach wie vor aktuelle Problematik von Sucht bzw. Abhängigkeit insbesondere bezüglich Heroin, sondern auch auf die ständigen Veränderungen in den Konsumentenszenen wie auch die vielfältigen Aktivitäten im Bereich der Drogenpolitik zurückzuführen ist. Diese erhielt auch stets Nahrung von der wissenschaftlichen Diskussion, die sich seit Mitte der 80er Jahre vereinzelt auch mit "Nicht-Junkie-" Kreisen beschäftigt, welche den Konsum von Cannabis, Kokain, Designer-Drogen, Halluzinogenen und teilweise auch Heroin in einen "normalen" Alltag integriert haben, wobei bezüglich Deutschland meines Wissens noch keine umfangreicheren qualitativen Studien für diesen Bereich existieren. Dabei ist von Bedeutung, daß nach Schätzungen, teilweise aus quantitativen Erhebungen abgeleitet (großangelegte repräsentative Umfragen liegen nicht vor und könnten allein schon wegen der Illegalität keine seriösen Ergebnisse liefern), bei den meisten, wenn nicht gar bei allen genannten "Szene-Drogen" die überwiegende Mehrheit der Konsumenten (auch der Gewohnheitskonsumenten), zu diesen "integrierten" oder auch "kontrollierten" Gebrauchern zu zählen ist. Diese Vermutung steht im Gegensatz zur lange Jahre von den Vertretern der offiziellen Drogenpolitik und dem Großteil der Medien verbreiteten Meinung, daß jeglicher Konsum der durch das Betäubungsmittelgesetz illegalisierten Substanzen zu Sucht und sozialer Verelendung führe. Weiterhin werden die Verbote für bestimmte Substanzen oft so begründet, daß diese Drogen "kulturfremd" seien und deshalb keine historisch gewachsenen, konsumregulierenden Sitten und Gebräuche bezüglich des Konsums existieren wie z.B. bei Alkohol, Tabak und Kaffee. Daher ist es natürlich interessant zu erfahren, welcher Art die Mechanismen sind, die, der obigen Auffassung widersprechend, ein alltagsintegriertes Konsumverhalten auch bei illegalen Drogen ermöglichen, bzw. inwiefern sie den Kontrollmustern für die legalen Drogen ähnlich sind. Dabei muß selbstverständlich stets hervorgehoben werden, welche Drogen konsumiert werden, da einerseits zwar alle diese Substanzen den illegalen Status mit den entsprechenden alltagspraktischen Konsequenzen gemeinsam haben, aber doch erhebliche Unterschiede existieren in der jeweiligen Wirkungsweise und -intensität (pharmakologisch wie subjektiv), der Gefahr von Überdosierung und körperlichen oder geistigen Schädigungen sowie subkulturellen Zuschreibungen und Einbindungen. Für diese Arbeit habe ich qualitative Interviews mit dreizehn Personen durchgeführt, die allesamt mit mehreren verschiedenen illegalen Drogen Erfahrungen vorweisen können, wobei allerdings zum Teil deutliche Unterschiede bezüglich der Konsumfrequenzen, -mengen und vor allem auch der präferierten Drogen vorliegen. Dabei werde ich, unter Einbeziehung des Konzeptes von drug, set and setting, einerseits Beispiele für die Verschiedenheit von möglichen Konsummustern aufzeigen, gleichzeitig aber versuchen, gerade in bezug auf Funktionen und informelle Kontrollen des Konsums unterschiedlicher Drogen, Gemeinsamkeiten aufzuzeigen.
Im Rahmen dieser Arbeit wurden Zellulare Neuronale Netzwerke (CNN) zur nichtlinearen Signalanalyse bei der Prädiktion hirnelektrischer Signale bei Epilepsie herangezogen. Die invasiven Aufnahmen hirnelektrischer Aktivität liegen zeitlich diskretisiert vor, sodaß ein zeitdiskretes Netzwerk (DTCNN) eingesetzt werden konnte. Die parallele Struktur von CNN konnte zur simultanen Untersuchung von sechs Elektroden genutzt werden, mit denen die hirnelektrische Aktivität aufgenommen wurde. Insbesondere ist die direkte Wechselwirkung der einzelnen Zellen untereinander durch eine lokale Nachbarschaft gegeben. In den durchgeführten Untersuchungen wurde zunächst festgestellt, daß für ein DTCNN, das ausgehend vom aktuellen Zeitpunkt den Signalwert des nächsten Zeitpunktes prädizieren soll, eine Prädiktionsordnung größer als zwei keine wesentliche Minimierung des Prädiktionsfehlers nach sich zieht. Daher wurde ein DTCNN mit zeitlich verzögerten Zellzuständen eingesetzt, wobei die Definitionsweise von Roska und Chua [21] im Rahmen dieser Arbeit für beliebige Prädiktionsordnungen erweitert wurde. Da bei einer Prädiktionsschrittweite größer als eins eine deutliche Erhöhung des Prädiktionsfehlers festgestellt werden konnte, wurde diese im folgenden gleich eins gewählt. Weiterhin wurde festgestellt, daß bei Verwendung polynomialer Kopplungsfunktionen der Grad der Nichtlinearität gleich drei gewählt werden kann, da eine weitere Erhöhung des Grades der Nichtlinearität zu keineren weiteren Minimierung des Prädiktionsfehlers geführt hat. Im Rahmen dieser Arbeit wurde ein Programm entwickelt, das aus den Aufnahmen der hirnelektrischen Aktivität einzelne Elektroden extrahieren kann, sodaß die Meßwerte dem DTCNN präsentiert werden konnten. Mit Hilfe des zugrundegelegten DTCNN konnte der zeitliche Verlauf der hirnelektrischen Aktivität von sechs Elektroden simultan prädiziert werden. Eine Analyse des zeitlichen Verlaufes des Prädiktionsfehlers ließ vor einem epileptischen Anfall keine signifikanten Änderungen erkennen. Daher wurde ein Programm entwickelt, mit dessen Hilfe der zeitliche Verlauf der Parameter des verwendeten DTCNN analysiert und deutliche Änderungen aufgezeigt werden können. Es konnten Berechnungsmethoden, hier die lokale Mittelwertbildung und die Gradientenberechnung, gefunden und an den jeweils untersuchten Patienten angepaßt werden, sodaß diese Änderungen der Parameter deutlicher hervorgehoben wurden. Bei zwei der vier Patienten konnten signifikante Änderungen des zeitlichen Verlaufes der Parameter des untersuchten DTCNN festgestellt werden, die vor dem Auftreten des epileptischen Anfalls liegen und somit als Vorläufer eines epileptischen Anfalls betrachtet werden können. Die Untersuchung eines dritten Patienten zeigte deutliche Änderungen der analysierten Parameter, die zeitlich mit dem Beginn des epileptischen Anfalls übereinstimmen. Bei einem vierten Patienten konnten signifikante Änderungen des zeitlichen Verlaufes der Parameter vor dem epileptischen Anfall nur dann festgestellt werden, wenn der betrachtete Datensatz hirnelektrischer Aktivität während des Auftretens eines Anfalls aufgenommen wurde. Wurde stattdessen die Aufnahme von zwei epileptischen Anfällen, die kurz hintereinander auftraten, analysiert, so konnten keine signifikanten Änderungen des Verlaufes der Parameter gefunden werden.
In der Diskussion zwischen verschiedenen Spielarten der Diskursanalyse und den Gouvernementalitätsstudien haben Vertreter beider Seiten das Dispositiv als vermittelnden Begriff vorgeschlagen. In diesem Zusammenhang wird die Frage »Was ist ein Dispositiv?« neu gestellt. Durch eine Relektüre von Foucaults Texten wird ein Debattenbeitrag zum Dispositivkonzept entworfen, welcher der Verwässerung einerseits und andererseits einer methodischen Schließung durch Operationalisierung des Dispositivkonzepts entgehen soll. Als Destillat dieser Rekonstruktion werden sechs Kernelemente für eine dispositivanalytische Forschungsperspektive vorgeschlagen. Der anschließende Teil bringt Foucaults Analysen mit Bruno Latours Akteur-Netzwerk-Theorie (ANT) ins Gespräch, um potentielle Leerstellen in der Dispositivanalyse zu schließen. Diese betreffen vor allem die Bereiche »Natur«, »Technik« und »Medien«. Neben Latours Akteur-Netzwerk-Theorie wird im letzten Teil Karen Barads Agentieller Realismus für die Dispositivanalyse produktiv gemacht und in das Konzept eingearbeitet.
The Benchmark Dose (BMD) approach, which was suggested firstly in 1984 by K. Crump [CRUMP (1984)], is a widely used instrument in risk assessment of substances in the environment and in food. In this context, the BMD approach determines a reference point (RfP) on the statistically estimated dose-response curve, for which the risk can be determined with adequate certainty and confidence. In the next step of risk characterization a threshold is calculated, based on this RfP and toxicological considerations. The BMD approach bases upon the fit of a dose-response model on the data. For this fit a stochastic distribution of the response endpoint is taken as a basis. Ultimately, the BMD reflects the dose for which a pre-specified increase in an adverse health effect (the benchmark response) can be expected. Until now, the BMD approach has been specified only for quantal and continuous endpoints. But in risk assessment of carcinogens especially so called time-to-event data are of high interest since they contain more information on the tumor development than quantal incidence data. The goal of this diploma thesis was to extend the BMD approach to such time-to-event data.
A new experimental system has been set up with the ability to investigate catalytic processes and charge transfer of acrylonitrile on copper. For this purpose a new Time of Flight Mass Spectrometer to measure both the reaction outcome and electron energy distributions has been designed and tested. First experiments have been carried out, in which the width of the two-photon photoelectron energy distribution can be varied by changing the wavelength of the incident laser beam. This method allows high precision measurements of the work function and will be useful in the study with adsorbates, physi- or chemisorbed. In first adsorption measurements the excitation of vibrational modes of acrylonitrile has been seen to be consistent with earlier gas-phase experiments. Electron energy spectra taken with the electron analyzer with high resolution showed a clear defect in the electron yield at energies around the energy of one vibrational mode, indicating the possibility of resonant vibrational excitation by electron impact. More indications to that process were found i first electron spectra from the new TOF-MS, since a threshold for the capture probability is found at energies close to vibrational excitation. The threshold vanishes when the exposure is amplified significantly, indicating that electrons are scattered multiple and no resonance are be observed anymore. The experiments carried out were just the starting point in understanding the mechanism of the reaction. A new femtosecond laser system which is currently set up will give not only a time-resolved information on the reaction pathways but also give the possibility to create non-thermal electrons and to study intermediate states of the photoemission and the influence of the adsorbate on them. In addition the rotation of the electron analyzer will permit angle-resolved measurements of the scattering process of the electrons and the vibrational excitation via this pathway. With the new cooling system applied it will also be interesting to study the excitation process at lower temperatures. Below -160° C there are different geometries of the molecule predicted to be present at the surface. At these temperatures the thermal effects should play a major role, so that a thermal decoupling of the electrons is very desirable.
In dieser Arbeit wurde die Implementierung einer JMX-konformen Managementinfrastruktur für das Agentensystem AMETAS vorgestellt. Darauf basierend wurden im Rahmen des Fehlermanagements Kontrollmechanismen der mobilen Agenten im AMETAS untersucht und eine Lösung für die Lokalisierung von AMETAS-Agenten entworfen und implementiert. Der essentielle Hintergrund für das AMETAS-Management stellt sich folgendermaßen dar: Die Betrachtung des Anwendungs- und Infrastrukturmanagements mit Blick auf die Managementhierarchie stellt die Offenheit und Kooperationsfähigkeit der angestrebten Managementlösung in den Vordergrund. Diese Eigenschaften ermöglichen die Integration der in einem Unternehmen existierenden Managementlösungen. Ziel ist dabei ein kostengünstiges und effizientes Management. Eine Managementarchitektur wird mit Hilfe der informations-, organisations-, kommunikations- und funktionsbezogenen Aspekte beschrieben und modelliert. Anhand dieser Aspekte ist CORBA, DMTF, WBEM und JMX analysiert und ihre Eignung für das AMETASManagement bewertet worden. Neben den allgemeinen Kriterien sind ihre Teilmodelle, ihre Unterstützung des dezentralen und des dynamischen Managements sowie ihre Integrationsfähigkeit im AMETAS zentrale Punkte. Es zeigt sich, dass die JMX die besten Möglichkeiten für das AMETAS-Management bietet. Das OSI-Funktionsmodell klassifiziert die Managementaufgaben und -funktionen in fünf Bereiche, die häufig als FCAPS bezeichnet werden: Fehler-, Konfigurations-, Abrechnungs- , Leistungs- und Sicherheitsmanagement. Diese Klassifikation ist orthogonal zu jeder anderen und bietet einen geeigneten Rahmen für die Aufteilung der Managementaufgaben und - funktionen. Das in dieser Arbeit empfohlene AMETAS-Management orientiert sich hinsichtlich der Managementaufgabenaufteilung am OSI-Modell. Die JMX bietet mächtigeWerkzeuge zur Instrumentierung aller Arten von Ressourcen. Ihre Java-Basiertheit bedeutet eine wesentliche Vereinfachung für das Agentensystem. Die offene Architektur von der JMX ermöglicht die Kooperation des AMETAS-Managements mit anderen Managementstandards. Das AMETAS-Management nutzt die Vorzüge der mobilen Agenten insbesondere im Bereich des Konfigurations- und Fehlermanagements aus. Folgende Eigenschaften zeichnen das AMETAS-Management aus: 1) Verwendung der Agenteninfrastruktur für das Management. Selbiges wird dabei als ein AMETAS-Dienst implementiert und kann alle Möglichkeiten und Dienste der Agenteninfrastruktur nutzen. 2) Verwendung der AMETAS-Agenten und Dienste als Managementwerkzeuge. 3) Selbstmanagement des Systems. Der Managementdienst ist hierfür mit ausreichender Intelligenz ausgestattet. Er nutzt die Mechanismen der Agenteninfrastruktur aus und erledigt diverse Managementaufgaben selbständig. Das Ereignissystem vom AMETAS spielt hierbei eine wichtige Rolle. Die Analyse der Kontrollmechanismen von MASIF, Aglets Workbench und Mole liefert hinsichtlich ihrer Eignung für die Lokalisierung von Agenten im AMETAS folgendes Ergebnis: Die untersuchten Ansätze sind teilweise allgemein anwendbar. Man unterscheidet die nichtdeterministischen Ansätze wie Advertising und Energiekonzept von denen, die bestimmte Spuren von Agenten in einer geeigneten Art hinterlegen. In dieser Hinsicht stellte sich das Pfadkonzept als interessant heraus: Bei diesem Konzept können die Informationen über den Pfad der Migration eines Agenten in geeigneterWeise zeitlich beschränkt oder unbeschränkt gespeichert werden. Eine andere Alternative bietet die Registrierungsmethode. Bei dieser Methode wird ein Agent in einer zentralen Stelle registriert, wobei die eindeutige Identität eines Agenten und die aktuelle Stelle, in der sich ein Agent aufhält, gespeichert werden. Vor dem Hintergrund der erfolgten Analyse empfiehlt sich als Basis für die Lokalisierung von AMETAS-Agenten eine Art Pfadkonzept: Die Spuren der Agenten werden durch einen Managementdienst gesichert. Will man einen bestimmten Agenten oder eine Gruppe lokalisieren, werden die dezentral vorhandenen Informationen innerhalb eines konsistenten Schnitts (Schnappschuss) ausgewertet. Die Schnappschussmethode empfiehlt sich für die Lokalisierung von Agenten im AMETAS entsprechend den zu Beginn der Arbeit von einem Lokalisierungsmechanismus geforderten Eigenschaften: Sie erlaubt eine zuverlässige Lokalisierung der gesuchten Agenten, deren Autonomie dabei respektiert wird. Die Kosten-Leistungsrelation ist günstig einzuschätzen, da unnötiger Daten- bzw. Agentenverkehr ebenso vermieden wird wie die Pflege umfangreicher, zentralistischer Datenbanken.
Mit dieser Arbeit ist gezeigt worden, wie vielfältig die Produkte bzw. Dienste im Mobilfunkbereich sind. Der eigentliche Schwerpunkt lag auf der Fragestellung, wie die Mobilfunk-Dienste im Internet bepreist werden. Die Untersuchung der verschiedenen Mobilfunktarife im Internet hatte das Ziel, die grundlegenden Preisparameter für diese Tarife zu identifizieren, zu diskutieren und zu modellieren. Das oberste Ziel bei der Modellierung war die Erstellung eines flexiblen Tarif- und Abrechnungsmodells. Zu diesem Zweck wurden die Vorteile, die XML-Schema und XML-Netze bieten, zum Ausdruck gebracht. Dabei wurde das methodische Vorgehen in den Vordergrund gestellt und nicht die Abbildung des tatsächlichen Marktgeschehens. Zunächst wurde in dieser Arbeit kurz das Internet und die speziellen Eigenschaften des Internets behandelt. Dabei wurde festgestellt, dass sich das Internet auf Grund seiner Eigenschaften besonderes für digitale Produkte eignet. Die digitalen Produkte und deren Eigenschaften wurden untersucht und daraus ergab sich, dass die digitalen Produkte eine vorteilhafte Kostenstruktur aufweisen; nämlich vernachlässigbar niedrige Reproduktionskosten. Unter anderem ist festgestellt worden, dass für die Nutzung der digitalen Produkte für Konsumenten deren Verbreitungsgrad wichtig ist. Gerade hier kann das Internet dank seiner Eigenschaften diese Anforderung besser als ein anderer Vertriebskanal unterstützen. Schließlich lassen sich aus dem Zusammenspiel der Interneteigenschaften und der Merkmale der digitalen Güter gewisse ökonomische Gesetzmäßigkeiten ableiten. Diese verschaffen einem Unternehmen langfristig Vorteile gegenüber der Konkurrenz. Der Schwerpunkt dieser Arbeit liegt aber bei einer speziellen Gruppe der digitalen Produkte, nämlich der Produkte bzw. Dienste im Mobilfunkbereich. Mobilfunk ist eine wichtige und weitverbreitete Art der Mobilkommunikation. Auf dem deutschen Mobilfunkmarkt wurde gerade die 4. Generation der Mobilfunkstandards – UMTS - eingeführt. Allerdings wird UMTS noch einige Zeit brauchen, um sich auf dem Markt richtig zu etablieren. Damit bleibt der GPRS immer noch der führende Standard auf diesem Markt. Der meist genutzte Dienst im Mobilfunk ist immer noch der „Sprach-Dienst“. Der Mobilfunk bietet neben der „Sprache“ eine ganze Reihe weiterer Dienste an. Durch die neuen Technologien ist der Trend in Richtung Datenübertragung über Mobilfunk stark am Aufholen. Die zur Verfügung stehenden Dienste hängen mit den Mobilfunkstandards zusammen. Daher ist es möglich, dass bei der Änderung der Standards auch die zur Verfügung stehenden Dienste angepasst werden. Ein wichtiger Punkt am Bespiel von Mobilfunk als digitales Produkt bzw. Dienstleistung war die Wahl der richtigen Preisstrategie. Die meisten Netzbetreiber entschieden sich für die Strategie differenzierter Preise. Damit können sie unterschiedliche Zahlungsbereitschaften ihrer Kunden relativ gut ausschöpfen. Hierzu wurden die Vielfältigkeit der Möglichkeiten und die Vorteile, die die Preisdifferenzierungsstrategie anbietet, dargestellt. Der sich anschließende Hauptteil dieser Arbeit ist die Parametrisierung und die Modellierung des Mobilfunktarifs und dessen Abrechnungssystems. Zur Modellierung wurden XML-Schema und XML-Netze gewählt. Das XML-Schema ermöglicht flexible Erstellung, Anpassung und Erweiterung von Tarifelementen. Außerdem ermöglicht XML Datenaustausch über Plattform unabhängige Protokolle. Die XML-Netze bieten durch ihre graphische Darstellung die Visualisierung der Abläufe und der ablaufrelevanten Daten. Die aktuellen Zustände können aufgezeigt, simuliert und analysiert werden. Außerdem ermöglichen sie die gute Umstrukturierung, Anpassung und Erweiterung des Abrechnungsprozesses. Bei der Erstellung des Abrechnungsmodells wurde von den Hauptbestandteilen eines beliebigen Abrechnungsmodells ausgegangen. Anschließend sind diese Bestandteile an die Anforderungen des Abrechnungsmodells für Mobilfunkverträge angepasst worden. Die jeweiligen Abrechnungsparameter wurden, wie z.B. Tarifdaten, mit der modifizierten XMLSchema dargestellt. Die Tarifdaten stellen die Vielfältigkeit der Parameter dar, die die Preise eines Mobilfunktarifes beeinflussen. Die Preisparameter wurden nach eingehender Untersuchung verschiedener Tarife181 der vier Netzbetreiber identifiziert. Dabei fiel auf, dass die Netzbetreiber in der Regel von vergleichsweise ähnlichen Parametern ausgingen. Damit haben auch die Tarife ähnliche Strukturen. Weiterhin führen stark differenziert Preise dazu, dass man nicht vom „schlechtesten“ oder vom „besten“ Tarif sprechen kann. Im Prinzip gibt es nur den „besten“ Tarif für ein bestimmtes Nutzungsverhalten. Außer Sprachkommunikation wurden in der Arbeit auch andere Kommunikationsarten vorgestellt. Dabei wurde eine neue Art des Bepreisens angesprochen, nämlich das Bepreisen nach Dienstqualität. Die darauf basierenden Preisstrukturen werden zukünftig sicherlich eine große Rolle spielen, da sie sich insbesondere für Dienste eignen, die vom UMTS unterstütz werden.
Durch Messen der vollständigen Impulsvektoren beider Coulomb-explodierender, einfachgeladener Fragmente eines doppelionisierten, diatomaren, homonuklearen Moleküls (H2, N2, O2) können verschiedene Ionisationsprozesse identifiziert werden. Bei der sogenannten COLd Target Recoil Ion Momentum Spectroskopy (COLTRIMS) wird ein überschall Gasjet mit ultrakurzen, hochintensiven Laserpulsen penetriert. Aus den gemessenen Fragmentimpulsen kann die freigesetzte kinetische Energie, sowie die ursprüngliche Lage der Molekülachse im Laborsystem berechnet werden, woraus winkelabhängige Explosionswahrscheinlichkeiten abgeleitet werden können, die unter bestimmten Bedingungen die orbitale Symmetrie der Moleküle wiederspiegeln. Unter Benutzung verschiedener Pulslängen des Lasers (35 fs und 8 fs) und Variation der Polarisation (linear, zirkular) koennen Ionisationsmechanismen wie rescattering oder sequentielle Ionisation identifiziert werden.
Im Rahmen der vorliegenden Arbeit wurde ein Spracherkennungssystem realisiert, das sowohl phonembasierte als auch wortbasierte Modelle zur sprecherunabhängigen Schlüsselworterkennung im Kontext fließender Sprache verwenden kann. Das System erlaubt dabei die Wahl zwischen zwei grundlegend verschiedenen Verfahren: Entweder kann die Bewertung von Äußerungen durch Schlüsselwortmodelle mit gewählten Schwellenwerten verglichen werden, wobei eine Schwellenwertüberschreitung die Erkennung eines Schlüsselwortes signalisiert, oder es werden beliebige Phonemfolgen als Füllmodelle verwendet, die mit den Schlüsselwortmodellen konkurrieren. Der Schlüsselworterkenner kann sowohl zur 1-Schlüsselwort- Erkennung, bei der vorausgesetzt wird, dass sich in jeder Äußerung exakt ein Schlüsselwort befindet, als auch zur n-Schlüsselwort-Erkennung verwendet werden, bei der sich eine beliebige Anzahl Schlüsselwörter in jeder Äußerung befinden kann. Durch eine effiziente Implementation wurde die Fähigkeit zur Echtzeitverarbeitung auf verfügbaren Arbeitsplatzrechnern erreicht.....
Tagging kausaler Relationen
(2005)
In dieser Diplomarbeit geht es um kausale Beziehungen zwischen Ereignissen und Erklärungsbeziehungen zwischen Ereignissen, bei denen kausale Relationen eine wichtige Rolle spielen. Nachdem zeitliche Relationen einerseits ihrer einfacheren Formalisierbarkeit und andererseits ihrer gut sichtbaren Rolle in der Grammatik (Tempus und Aspekt, zeitliche Konjunktionen) wegen in jüngerer Zeit stärker im Mittelpunkt des Interesses standen, soll hier argumentiert werden, dass kausale Beziehungen und die Erklärungen, die sie ermöglichen, eine wichtigere Rolle im Kohärenzgefüge des Textes spielen. Im Gegensatz zu “tiefen” Verfahren, die auf einer detaillierten semantischen Repr¨asentation des Textes aufsetzen und infolgedessen für unrestringierten Text m. E. nicht geeignet sind, wird hier untersucht, wie man dieses Ziel erreichen kann, ohne sich auf eine aufwändig konstruierte Wissensbasis verlassen zu müssen.
Aufbau eines Experimentes zur Untersuchung der Ionenstrahlkühlung mit Hilfe eines HF-Quadrupols
(2003)
Die Arbeit beschreibt ein Experiment zur Kühlung eines 40Ar-Ionenstrahls mittels eines 4He-Hintergrundgases innerhalb eines unmodulierten RF-Quadrupols von 500 mm Länge. Ziel des Experimentes war es, den Einfluss der Gaskühlung auf die Qualität von Ionenstrahlen geringer Energie und Intensität zu untersuchen. Die Ionen wurden bei unterschiedlichen Spannungen aus einem Duoplasmatron extrahiert und vor der Injektion in den Quadrupol durch ein elektrostatisches Linsensystem formiert. Die Stromstärke der Strahles wurde mittels einer Faradaytasse gemessen, die mit einer Sekundärelektronen unterdrückenden Repellerblende ausgestattet ist. Der Einfluß der variierten Parameter Hintergrundgasdruck, Quadrupolfrequenz und Strahlenergie auf die Qualität des Strahls wurde dabei nicht direkt über dessen, die Phasenraumverteilung beschreibende, Emittanz gemessen, sondern über die Veränderung der registrierten Strahlstromstärken an einer Blende konstanter Apertur, also der Brillanz abgeleitet. Vorbereitend wurden zunächst Duoplasmatron und Injektionssystem überholt, aufgebaut und mit der nötigen Energie- und Kühlversorgung ausgerüstet. Im anschließenden Testlauf mit ungekühlten Heliumionen wurden die einzustellenden Werte der Betriebsparameter Quellendruck und diverse Blendenspannungen ermittelt und das System auf seine der Reproduktion dienenden Stabilität geprüft. Dabei wurden im Dauerbetrieb Strahlstromstärken von 0,29 mA bei 1 keV/u und 0,02 mA bei 0,15 keV/u Strahlenergie erzielt. Mittels der bekannten Emittanz des Helium-Strahls bei 1 keV/u Energie und 0,25 mA Strahlstromstärke wurde die jeweilige normierte Emittanz der noch ungekühlten Strahlen auf 2,18*10-2 im ersten und 1,61*10-2 im zweiten Fall abgeschätzt. Zur Gaskühlung wurde ein Quadrupol mit 10 mm Apertur- und 7,5 mm Elektrodenradius gefertigt und mit einem Phasentrenner gekoppelt. Ein Breitbandgenerator und -Verstärker dienten der frequenz- und spannungsvariablen Elektrodenbelegung. Der Hintergrundgasdruck wurde mittels einem handelsüblichen Regelventil variiert. Um der ein großes Masseverhältnis von Strahlionen zu Hintergrundgas fordernden Theorie Rechnung zu tragen, wurden Argon als Ionen und Helium als Buffergas gewählt. Einer eingehenden Untersuchung der Auswirkung der einzelnen Komponenten und ihrer Kombination auf die Eigenschaften des Ionenstrahls folgte eine schrittweise Variation von Quadrupolfrequenz und Hintergrundgasdruck im Bereich 1-5 MHz und 9*10-6 - 4*10-3 mbar bei den Strahlenergien 15, 25 und 80 eV/u. Die hierbei gemessenen Strahlstromstärken wurden über die frequenzabhängige Elektrodenspannung normiert und mit der Stärke der ungekühlten Strahlen verglichen. Bei 15 eV/u Strahlenergie konnte die gemessene Maximalstromstärke um 43 % von 0,014 µA/V ungekühlt auf 0,02 µA/V bei 1*10-4 mbar Hintergrundgasdruck gesteigert werden. Die Strahlstromstärke des Strahles mit 25 eV/u Energie wurde von 0,045µA/V des ungekühlten auf 0,1 µA/V bei ca. 6*10-5 mbar verdoppelt. Bei 80 eV/u Energie blieb die Strahlstromstärke mit 0,35 µA/V unverändert, jedoch wurde im gesamten Bereich zwischen 2*10-5 und 3*10-5 mbar und 3,4 - 4,6 MHz mit annähernd konstanten 0,28 µA/V ein Plateau hoher Strahlstromstärke registriert, dem etwa 0,06 µA/V im ungekühlten Strahl entgegenstehen. Ein weniger stark ausgeprägtes Analogon wurde bei 15 eV/u im Frequenzbereich um 3,5 MHz beobachtet. In zwei von drei Fällen konnte im Experiment die Strahlstromstärke durch die Gaskühlung deutlich gesteigert werden, im dritten Fall wurde die Zahl der transportierten Ionen in einem zuvor ungeeigneten Frequenzbereich um den Faktor 4,5 gesteigert. Durch die Beziehung zwischen Strahlstromstärke I, Strahlbrillanz B und Strahlemittanz ε mit I~B~1/ε2 kann abschließend eine Verminderung der Strahlemittanz durch die Gaskühlung festgestellt werden. Die durchgeführten Experimente haben gezeigt, daß man bei niedrigen Strahlenergien einfach geladene Ionen bei relativ hohem Gasdruck und geeigneten Parametern des Quadrupols transportieren und die Emittanz des Strahls verbessern kann. Die Kombination von Quadrupol und Buffergas stellt also ein System dar, das als Gaskühler bei kleinen Strömen von Niedrigenergiestrahlen eingesetzt werden kann. Als nächstes würde zur weitergehenden, jedoch den Rahmen dieser Arbeit übersteigenden Untersuchung ein technisch und finanziell aufwändigerer Aufbau benötigt. Das benutzte Linsensystem würde durch ein auf die Ionensorte speziell abgestimmtes Injektionssystem und die Faradaytasse durch eine rechnergesteuerte, orts- und winkelauflösende Emittanzmessanlage ersetzt. Die somit erhaltene höhere Auflösung des Strahles würde den Übergang von der vorliegenden qualitativen Beschreibung der Gaskühlung zu einer quantitativen ermöglichen.
Integration in den Grenzregionen der Europäischen Union - die Europäische Union und ihre Bürger
(2002)
Die Arbeit setzt sich mit der Bedeutung der regionalen Ebene im Europäischen Integrationsprozess auseinander und untersucht die Rolle der Regionen in der Europäischen Union und ihren Mitgliedstaaten. Am Beispiel der Grenzregionen innerhalb der Europäischen Union werden die Fortschritte und die Auswirkungen der Europäischen Integration auf das Leben der europäischen Bürger dargestellt.
Zentralitätsabhängigkeit der Produktion von Protonen und Antiprotonen in Pb+Pb Stößen bei 158A GeV
(2008)
Die vorliegende Arbeit ist der Fragestellung nachgegangen, ob sich die Gedächtnisleistung, insbesondere die von älteren Menschen, durch Gedächtnistraining verbessern lässt. Dabei sollen Verhaltensdaten und EEG-Daten, die simultan mit der Bewältigung einer Gedächtnisaufgabe erhoben wurden, korreliert werden. Untersucht wurden zwei verschiedene Gruppen. Zum einen Mild Cognitive Impairment Patienten und zum anderen eine altersähnliche Kontrollgruppe. Unter Mild Cognitive Impairment (MCI) versteht man eine leichte kognitive Beeinträchtigung des Gedächtnisses, welche aber die Kriterien einer Demenzmanifestation noch nicht erfüllt. Die Diagnosekriterien für MCI sind nicht einheitlich. Ein häufiges Kriterium wurde von Petersen (1999) definiert und ist die objektive Beeinträchtigung des Gedächtnisses ohne weitere kognitive Einbußen. Die Leistungsfähigkeit des Gedächtnisses/Gedächtnissubsystems muss dabei mindestens 1,5 Standardabweichungen schlechter sein, als die einer alters- und ausbildungsgleichen Population. Etwa 16-34 % aller 65 jährigen leiden unter dieser Form der kognitiven Beeinträchtigung. Schätzungen ergeben, dass 70 % der demenziellen Erkrankungen innerhalb von 2-3 Jahren aus einer MCI hervorgehen. Veränderungen des EEGs bei Patienten mit der Alzheimer'schen Demenz (AD) und MCI-Patienten wurden in den letzten Jahren untersucht, insbesondere Untersuchungen der EEG-Spontanaktivität, da diese vor allem bei den AD-Patienten leichter zu realisieren sind. Auffällig ist ein allgemein „langsamer“ werdendes EEG bei den Demenz-Patienten. Vor allem im okzipitalen Bereich ist ein Verlust des Alpha-Blocks beim Öffnen der Augen zu registrieren. In einem sehr frühen Stadium der AD ist meist noch kein verändertes EEG zu verzeichnen, ebenso bei MCI-Patienten. Eine beobachtbare Veränderung der EEG-Oszillationen könnte aber für eine frühe Diagnose der Krankheit und somit auch für eine frühe Behandlungsmöglichkeit von Bedeutung sein. Das Elektroenzephalogramm misst elektrische Potentiale, die im Gehirn durch „Neuronenaktivität“ verursacht werden und hat eine besonders gute zeitliche Auflösung (in ms Bereich) dafür aber eine schlechte räumliche. Die schlechte räumliche Auflösung ist dadurch zu begründen, dass man beim EEG „nur“ Oberflächenpotentialänderungen registrieren kann und dadurch nicht die Quelle der Potentiale lokalisieren kann. Die hohe zeitliche Auflösung des EEGs ermöglicht es aber die neuronale Aktivität während und auch nach der Kodierung sensorischer Informationen (z.B. visuelle Stimulation, wie in dieser Arbeit) zu beobachten. In vorliegender Arbeit wurde untersucht, ob gesunde, ältere Menschen im Vergleich zu Patienten mit leichter Gedächtnisstörung, beim Bewältigen einer Gedächtnisaufgabe, unterschiedliche Hirn-Aktivitäten aufweisen und inwieweit ein Gedächtnistraining von vier Wochen die Gedächtnisleistung der Probanden/Patienten aber auch das EEG-Aktivitätsmuster verändern kann; ob das Gedächtnis also auch im Alter oder sogar bei Dysfunktionen durch Training verbessert werden kann. Dabei galt gerade dem frontalen Bereich besonderes Interesse, da diesem Bereich für das Gedächtnissystem eine besondere Relevanz zugeschrieben wird. Eine delayed matching to sample Aufgabe wurde für visuelle Stimulation, Testung des Arbeitsgedächtnisses und für das kognitive Training durchgeführt. Die neuropsychologischen Daten wurden hierfür mit den EEG-Daten korreliert.
Die Vorstellung, daß ein Quantensystem zu jedem Zeitpunkt einen bestimmten Zustand (aus einem "klassischen" Phasenraum) einnimmt, ist im Formalismus der Quantenmechanik nicht vorgesehen. Man kann eine solche Vorstellung zwar verträglich mit den Regeln der QM unterhalten, jedoch erweisen sich dann ganz verschiedene Wahrscheinlichkeitsverteilungen auf dem Phasenraum als experimentell ununterscheidbar; solche Modelle postulieren sozusagen die Existenz einer "verborgenenen Information" neben den prüfbaren Fakten. Es wird gezeigt, daß dies für alle Modelle gilt, die mit den von der QM für jede Observable vorhergesagten Wahrscheinlichkeitsverteilung im Einklang stehen, selbst wenn sie erlauben, daß nicht jede Verteilung auf dem Phasenraum durch makroskopische Aparaturen präpariert werden kann bzw. daß das Meßergebnis garnicht deterministisch vom Zustand des Quantensystems abhängt, sondern das Meßgerät selbst einem (vom zu messenden System unabhängigen) Zufall unterliegt. Dazu ist eine gründliche Auseinandersetzung mit der Theorie der Wahrscheinlichkeitsmaße auf distributiven und auf nicht-distributiven Verbänden nötig.
Die konventionelle Extremwertstatistik die sich an der Über- bzw. Unterschreitungshäufigkeit bestimmter Schwellenwerte orientiert, beinhaltet den Nachteil, daß Änderungen der Parameter der Häufigkeitsverteilung die Extremwertwahrscheinlichkeit beeinflussen. So kann allein das Vorhandensein eines Trends für derartige Veränderungen verantwortlich sein. Die hier gewählte Methodik vermeidet diesen Nachteil, indem sie eine Zerlegung der betrachteten Zeitreihen in einen strukturierten und einen unstrukturierten Anteil durchführt. Dabei setzt sich der strukturierte Anteil aus einer Trend-, Saison- und glatten Komponente zusammen. Aus der Summe dieser in der Zeitreihe signifikant enthaltenen Komponenten läßt sich die Eintrittswahrscheinlichkeit von Extremwerten ableiten. Ähnliches gilt für den unstrukturierten Anteil insbesondere für die Varianz des Residuums. Das Residuum kann aber auch Werte enthalten, die nicht zu ihrer ansonsten angepaßten Häufigkeitsverteilung passen. Solche Werte werden als Extremereignisse bezeichnet und sind von den Extremwerten zu unterschieden. In der vorliegenden Arbeit werden nun, getrennt voneinander, durch Änderungen in den Parametern der Häufigkeitsverteilung hervorgerufene Variationen der Extremwertwahrscheinlichkeit als auch parameterunabhängige Extremereignisse der bodennahen Lufttemperatur betrachtet. Als Datenbasis dienten 41, wahrscheinlich homogene, europäische Stationszeitreihen von Monatsmitteltemperaturen, die den Zeitraum von 1871 bis 1990 abdecken. In den untersuchten Temperaturzeitreihen wurde an 37 von 41 Stationen ein positiver Trend detektiert, woraus ein Anstieg der Extremwertwahrscheinlichkeit mit der Zeit resultiert. Die glatten, niederfrequenten Schwingungen wirken sich in den meisten Fällen um 1890 und 1975 negativ und um 1871, 1940 und 1990 positiv auf die Extremwertwahrscheinlich keit aus. Desweiteren treten Änderungen in der Saisonfigur bezüglich der Amplitude und der Phasenlage auf. Detektierte Zunahmen in der Amplitude des Jahresgangs führen zu einer positiven Änderung der Extremwertwahrscheinlichkeit. Signifikante Änderungen in der Phasenlage der Saisonfigur erzeugen in den Anomaliezeitreihen einen saisonal unterschiedlichen Trend, dessen Amplitude, in den betrachteten Fällen, in der Größenordnung der Trendkomponente liegt. Saisonal unterschiedliche Trends beeinflussen saisonal unterschiedlich die Wahrscheinlichkeit für das Eintreten von Extremwerten. Die Residuen von fünf Temperaturzeitreihen weisen signifikante Varianzinstationaritäten auf, wobei in nur einem Fall die Varianz mit der Zeit zunimmt und somit einen Anstieg der Extremwertwahrscheinlichkeit erzeugt. Extremereignisse treten vorwiegend in Form besonders kalter Winter auf und können wahrscheinlich als Realisation eines Poisson-Prozesses interpretiert werden. Sie erscheinen zufällig über den Beobachtungszeitraum verteilt mit einer mittleren Wiederkehrzeit von mehr als 10 Jahren.
Im Rahmen dieser Arbeit wurden Protonen an im Raum ausgerichteten D2-Molekülen gestreut. Ziel war es nach möglichen Interferenzstrukturen in der Streuwinkelverteilung der Projektile zu suchen. Solche Interferenzstrukturen sind durch die Theorie vorhergesagt. Sie sind in Analogie zur Beugung am Doppelspalt ein Ergebnis der kohärenten Streuung des Projektils an den beiden Kernen des D2-Moleküls. Für den Reaktionskanal des Elektroneneinfangs mit gleichzeitiger Dissoziation des Moleküls mit einer Energie zwischen 4 und 7eV zeigen die experimentellen Daten tatsächlich ein Minimum an etwa der vorhergesagten Stelle. Dieses Minimum variiert mit der Orientierung der Molekülachse allerdings nicht ganz, wie aufgrund der Analogie zum Doppelspalt zu erwarten ist. Für den gleichzeitig im Experiment beobachteten Kanal der Transferionisation, der zu einer Fragmentenergie von etwa 9eV führt, wurden im Experiment keine Modulation der Streuverteilung beobachtet. Der beobachtete Reaktionskanal der Dissoziation wirft weitere Fragen auf, die über das einfache Doppelspalt-Bild hinausgehen. So kann das dissoziierende D2-Ion sowohl in einem geraden als auch in einem ungeraden Zustand seiner elektronischen Wellenfunktion zurückbleiben. Diese Symmetrie der elektronischen Wellenfunktion beeinflusst ebenfalls die Phase der gestreuten Welle. Eine zuverlässige Vorhersage des zu erwartenden Kontrastes des Interferenzmusters hängt von der relativen Stärke der Anregung in den geraden und ungeraden Zustand ab. Dieser Effekt ist bisher nicht in den theoretischen Modellen berücksichtigt. Diese Frage kann aber auch durch weitere Experimente geklärt werden. Im Rahmen einer anderen Diplomarbeit [Wim04] wurde ein sehr ähnliches Experiment vermessen: Ein einfach geladenes Wasserstoffmolekülion wird beschleunigt, stößt mit einem nahezu ruhenden Atom und fängt dabei ein Elektron ein. Durch den Elektroneneinfang geht das Molekül u. a. in einen 1ssu-Zustand über, der zur Dissoziation führt. Genau wie in diesem Experiment auch, kann dadurch die Molekülachse festgehalten werden. Betrachtet man in der Auswertung die Bewegung beider Teilchen in inverser Kinematik, d.h. lässt man das neutrale Atom auf das Molekül zufliegen, so zeigen sich in der Impulsverteilung des Rückstoßions (Atomions) Minima und Maxima, deren Position sich mit der Drehung des Moleküls ändert. Dies bestätigt eigentlich die Existenz von Interferenzen. Nur wird hier, wie bereits gesagt, die inverse Kinematik betrachtet, zudem vermisst man eigentlich den umgekehrten Übergang vom 1ssg-Zustand des Molekülions in den 1ssu-Zustand des Moleküls. Um theoretische Berechnungen jedoch direkt zu bestätigen, ist es durchaus erstrebenswert, die Kinematik wie hier in dem hier vorgestellten Experiment zu vermessen. Aus diesem Grund werden in nächster Zeit noch weitere Messungen vorgenommen, in denen mit gleichem Aufbau, jedoch mit einer niedrigeren Projektilenergie (10 keV - 25 keV), die gleiche Reaktion untersucht wird. Mit der niedrigeren Energie des Projektils soll eine sehr viel bessere Streuwinkelauflösung erreicht werden, so dass sie die Beobachtung möglicher Interferenzen definitiv nicht mehr begrenzt. Dadurch können zum einen die Ergebnisse dieser Arbeit auf ihre Richtigkeit überprüft werden. Wenn tatsächlich Interferenzstrukturen zu beobachten sind, zeigen zum anderen eventuelle Veränderungen, ob eine Analogie zum Doppelspalt gerechtfertigt ist.
Im Jahr 1993 schlug A. Shamir Protokolle zur Erstellung digitaler Unterschriften vor, die auf rationalen Funktionen kleinen Grades beruhen. D. Coppersmith, J. Stern und S. Vaudenay präsentierten die ersten Angriffe auf die Verfahren. Diese Angriffe können den geheimen Schlüssel nicht ermitteln. Für eine der von Shamir vorgeschlagenen Varianten zeigen wir, wie der geheime Schlüssel ermittelt werden kann. Das zweite Signaturschema von Shamir hängt von der Wahl einer algebraischen Basis ab. Eine besondere Bedeutung haben Basen, deren Elemente polynomiale Terme vom Grad 2 sind. Wir analysieren die Struktur der algebraischen Basen. Für den hervorgehobenen Spezialfall kann eine vollständige Klassifikation durchgeführt werden.
This work connects Markov chain imbedding technique (MCIT) introduced by M.V. Koutras and J.C. Fu with distributions concerning the cycle structure of permutations. As a final result program code is given that uses MCIT to deliver proper numerical values for these. The discrete distributions of interest are the one of the cycle structure, the one of the number of cycles, the one of the rth longest and shortest cycle and finally the length of a random chosen cycle. These are analyzed for equiprobable permutations as well as for biased ones. Analytical solutions and limit distributions are also considered to put the results on a safe, theoretical base.
Das Ziel dieser Arbeit war die Entwicklung einer haptischen 3D-Benutzungsoberfläche für die Virtual-Glove-Box. Eine „Glove Box“ ist ein Apparat, in welchem chemische Versuche in abgeschlossener Atmosphäre durchgeführt werden können. Die „Virtual Glove Box“ setzt dieses Konzept für Virtual Reality Anwendungen um. Die Oberflächenelemente waren als wiederverwendbare Komponenten auszuführen. Die Bedienung erfolgt unter Einsatz zweier virtueller Hände mit an den Händen getragenen Exoskeletten zur Vermittlung des haptischen Feedbacks. Es enstand EASY, ein System zur einfachen und individuellen Gestaltung von Benutzungsberflächenelementen. Diese können in ein bereitgestelltes Framework einfügt und ohne Wissen über die zugrundeliegende Hardware benutzt werden. Die Entwicklung konnte nicht abgeschlossen werden, da die zur Verfügung stehenden Hardware-Komponenten nicht in Betrieb zu nehmen waren.
Das HADES-Experiment (High Acceptance DiElectron Spectrometer) am SIS der GSI wurde zur Messung der e+e−-Paare dileptonischer Zerfälle der leichten Vektormesonen im Energiebereich von 1 − 2 AGeV entwickelt. Eine der Hauptanforderungen an das Spurverfolgungssystem des Spektrometers ist eine Ortsauflösung von 100 μm, die benötigt wird, um die geforderte Massenauflösung von 1 % im Bereich der !-Masse zu erzielen. Das Spurverfolgungssystem besteht aus vier Ebenen mit Vieldrahtdriftkammern (Multi-wire Drift Chambers (MDCs)) niedriger Massenbelegung (low-mass), die aus je 6 Auslesedrahtebenen bestehen. Die primäre Messgröße von Driftkammern ist die Driftzeit der entlang einer Teilchenspur generierten Elektronen der Primärionisation zum Auslesedraht. Um die gemessene Driftzeit in eine Ortskoordinate umrechnen zu können, ist eine genaue Kenntnis der Ort-Zeit-Korrelation der Driftzellen und eine präzise Kalibrierung der gemessenen Zeiten nötig. Im Rahmen dieser Arbeit wurde eine neue Methode zur Bestimmung der Kalibrierungsparameter der Driftzeiten mittels der Einkoppelung eines externen elektrischen Pulses auf die Drahtebenen der Driftkammern entwickelt und mit der herkömmlichen Methode der Kalibrierung verglichen. Zur Kalibrierung wurden elektrische Pulse durch die Hochspannungsverteilung der Driftkammern auf die Potentialdrahtebenen geleitet und somit Signale auf die Signaldrähte induziert. Die Ausbreitungsgeschwindigkeit der Signale auf den Drähten, die zur Berücksichtigung der Laufzeiten benötigt wird, wurde experimentell bestimmt. Die Genauigkeit der Methode zur Bestimmung der Kalibrierungsparameter übertrifft die Auflösung der Driftzeitmessung der Driftkammern. Die Kalibrierung der Driftzeiten benötigt nur wenig Rechen- und Zeitaufwand und stellt die Kalibrierungsparameter in gleich hoher Präzision für alle Driftzellen zur Verfügung. Die Qualität der Kalibrierung wird im Gegensatz zur herkömmlichen Methode prinzipbedingt nicht durch Fluktuationen der Startzeit des jeweiligen Stoßereignisses und die Flugzeit der dabei emittierten Teilchen zu den Driftzellen, sowie des elektronischen Rauschens beeinflusst. Die Qualität der Kalibrierung konnte gegenüber der herkömmlichen Methode signifikant verbessert werden. Die Auswirkung der Kalibrierungsparameter auf die Spurrekonstruktion wurde untersucht und für die beiden Kalibrierungsmethoden verglichen. Die Ergebnisse lassen keinen eindeutigen Schluss auf die Auswirkung der Fehler in der Kalibrierung auf die Qualität der Spurrekonstruktion zu, da die Ergebnisse der Spurrekonstruktion von anderen Effekten dominiert werden.
Die vorliegende Arbeit untersucht ausgewählte Eigenschaften von Preferential Attachment-Graphen. Darunter verstehen wir eine Klasse komplexer zufälliger Graphen, die mit einer vorgegebenen Konfiguration gestartet werden und anschließend mit jedem Zeitschritt um eine Ecke und m Kanten wachsen. Die Wachstumsregeln sind so gestaltet, dass eine neue Ecke ihre Kanten bevorzugt an Ecken sendet, die bereits mit vielen anderen Ecken verbunden sind, woraus sich die Bezeichnung Preferential Attachment (PA) ableitet. Die Arbeit stellt zunächst heuristisch die Eigenschaft der Skalenfreiheit von PA-Modellen vor und bespricht anschließend einen Beweis zu dieser These. Weiter betrachten wir den Durchmesser von PA-Graphen und untersuchen das Verhalten bei Anwachsen des Graphen. Wir erkennen, dass der Durchmesser bei wachsendem Graphen deutlich langsamer wächst, was wir als Small World-Phänomen bezeichnen. Die zentralen Aussagen und Beweise orientieren sich an den Arbeiten von Remco van der Hofstad, der die bekannten PA-Modelle um einen Parameter erweitert hat. Damit ist es möglich, sowohl logarithmische als auch doppelt-logarithmische Schranken für den Durchmesser zu erhalten.
In vorliegender Arbeit wurde ein Modell zur Beschreibung des chiralen Phasen Übergangs eines mesonischen Mediums im Gleichgewicht als effektiver Manifestation des Übergangs von hadronischer Materie zum Quark-Gluon-Plasma präsentiert, und im Rahmen eines selbstkonsistenten Vielteilchenresummationsverfahrens in Doppelblasennäherung numerisch gelöst.
Der Ansatz des Infrastruktur-Netzwerkes bietet eine Möglichkeit, das Entstehen von Netzwerken und die Abhängigkeit von bestimmten Einflüssen auf die Struktur nachzuvollziehen. Trotz der komplexen Struktur scheinen dezentrale Ansätze ihre Berechtigung zu haben. Das deutlich schlechtere Abschneiden des statischen Ansatzes zeigt, wie wichtig Kommunikation zwischen den Akteuren ist. Da die umfangreiche Kommunikation trotz des recht einfachen Entscheidungsverhaltens gute Ergebnisse erzielt, wäre zu untersuchen, wie weit man bei Einschränkung der Kommunikation durch bessere Entscheidungsregeln ähnlich gute Ergebnisse erzielen kann. Die Frage, wie gut ein statischer Ansatz sein kann, ist sicher nicht endgültig beantwortet. Ob jedoch rein statische Ansätze ein realistisches Szenario darstellen und untersucht werden sollten, ist eine Frage, die hier nicht beantwortet werden kann. Das sehr gute Abschneiden von reinen Verbesserungsverfahren lässt auf eine relativ homogene Nachbarschaftsstruktur schließen. Des weiteren war zu beobachten, dass in größeren Netzen der relative Verlust durch Fehlentscheidungen tendenziell geringer ausfällt. Ein Ursache könnte sein, dass die zunehmende Dichte von Netzwerken zu Bündelungseffekten bezüglich der Transportleistungen führen. In einem nächsten Schritt wäre es interessant, intelligentere Entscheidungsregeln von Agenten in einem solchen Umfeld zu testen. Durch geeigneten Einsatz dieser ’internen Intelligenz’ bei eingeschränkter Kommunikation, ist es vielleicht möglich, zu schnelleren und effizienteren Lösungen zu finden, als es mit diesem Ansatz möglich war.
Durch zunehmende Vernetzung steigt auch das Interesse elektronische Wahlen mit Hilfe kryptographischer Methoden auf Rechnernetzen zu verwirklichen. In der folgendern Arbeit werden Wahlschemata behandelt, deren Ziel es ist, die gesamte Wahl auf einem Rechnernetz durchzuführen. Die Arbeit beschränkt sich auf Wahlen mit zwei Wahlvorschlägen. Auf Wahlen mit drei oder mehr Wahlvorschlägen wird nicht eingegangen. Im ersten Kapitel wird eine Einleitung in die elektronischen Wahlen gegeben. Im zweiten Kapitel wird das verwendete Modell eines Wahlschemas und die Anforderungen, bezüglich der die Wahlschemata untersucht werden, vorgestellt. Im dritten Kapitel werden die kryptographische Methoden für die folgenden Kapitel vorgestellt. Im vierten Kapitel werden zwei Wahlschemata betrachtet, deren Ansatz es ist, die Stimmen mit Hilfe von Schwellenwerten auf mehrere Behörden zu verteilen. Die Sicherheit der Wahlschemata in diesem Kapitel basiert auf dem diskreten Logarithmus. Im fünften Kapitel werden weitere Wahlschemata betrachet, bei denen die Wähler mit Hilfe von Verschlüsselungsmethoden ihre Stimmen an die Behörden senden. Die Sicherheit dieser Schemata basiert auf dem Wurzelziehen modulo einer zusammengesetzten Zahl mit unbekannter Faktorisierung. In diesem Kapitel lernen wir auch das erste quittungsfreie Wahlschema kennen. Im sechsten Kapitel werden Wahlschemata betrachtet, die das Konzept eines Mixes benutzen. Auch in diesem Kapitel lernen wir ein quittungsfreies Wahlschema kennen.
Im HADES-Detektorsystem werden Vieldraht-Driftkammern zur Spurrekonstruktion verwendet. Für eine genaue Untersuchung des Driftzeitverhaltens innerhalb der Driftzellen wird ein ortsempfindliches Referenzdetektorsystem benötigt. Hierfür wurden Silizium-Mikrostreifen-Detektoren mit einer Ortsauflösung im Bereich kleiner als 10 mikrom eingesetzt. Diese wurden zu einem Strahlteleskop zusammengebaut, mit dem die Teilchentrajektorie zwischen zwei Referenz-Meßunkten bestimmt werden kann. Probleme bereitete die Vielfachstreuung in den einzelnen Komponenten des Teleskop-Aufbaus, die den geradlinigen Teilchendurchgang zwischen den beiden Ortsmessungen beeinflußte. Dies wurde durch Messung mit Teilchen höherer Steifigkeit ausgeglichen. Die Silizium-mü-Streifen-Detektoren zeigten ein gutes Signal-zu-Untergrund Verhalten und wiesen eine sehr gute Effizienz auf. Die Bestimmung des Teilchendurchgangsortes durch den Driftkammer-Prototyp 0 ermöglichte die Messung der Driftgeschwindigkeit. Auch das Driftzeitverhalten in Abhängigkeit vom Ort des Teilchendurchgangs konnte genau untersucht werden.
In der hier vorliegenden Diplomarbeit wurde der globale Einfluß des ENSO-Phänomens (El Niño/Southern Oscillation) und des Vulkanismus auf den Luftdruck in Meeresspiegelhöhe sowie auf die Lufttemperatur in Bodennähe untersucht. Weiterhin sollte der Frage nachgegangen werden, ob starke Vulkanausbrüche das ENSO-Phänomen beeinflussen. Hierfür wurden 100-jährige Zeitreihen von Jahres- und saisonalen Mitteln des Southern-Oscillation-Index (SOI), Anomalien der Meeresoberflächentemperatur im tropischen Ostpazifik (SST) sowie der Vulkanismusparameter nach Grieser [17] verwendet. Weiterhin wurde ein globaler, aus 80 flächengleichen Boxen bestehender Datensatz des Luftdrucks in Meeresspiegelhöhe für den Zeitraum 1883 bis 1992 erstellt und ein gleichartiger Boxdatensatz der Luftemperatur in Bodennähe verwendet. Die angewandte Methodik ist eine von Denhard 1996 [11] entwickelte Filtertechnik (Prozeßfilter), mit deren Hilfe sich externe Störungen auf ein dynamisches System analysieren lassen. Es wurde ein methodischer Vergleich zwischen dem Prozeßfilter und der Kreuzspektralanalyse durchgeführt, der aufzeigte, daß bei der hier vorliegenden Fragestellung der Prozeßfilter bessere Ergebnisse liefert. Die Analysen der ENSO-Parameter (SOI, SST) mit den Boxdatensätzen der internen Klimavariablen (Luftdruck und Temperatur) bestätigen die bekannten Wirkungen des ENSO-Phänomens auf das Temperatur- sowie das Luftdruckfeld in Bodennähe bzw. Meeresspiegelhöhe. Für einen entdeckten, im jahreszeitlichen Verlauf unterschiedlichen Einfluß von ENSO auf die Lufttemperatur im tropischen Westpazifik ist dem Autor keine vergleichbare Diskussion aus der Literatur bekannt. In dieser Region wurde im Winter und Frühjahr (jeweils bezogen auf die Nordhemisphäre) eine Erhöhung der Lufttemperatur während El Niño, im Sommer und Herbst dagegen eine Erniedrigung festgestellt. Die Wirkung des Vulkanismus auf den Luftdruck in Meeresspiegelhöhe ist stark von ENSO überlagert. Dieser Effekt wurde in abgeschwächter Form auch bei den, ansonsten klimatologisch interpretierbaren, Korrelationsmustern zwischen den Gebietsmittelreihen der bodennahen Lufttemperatur und dem Vulkanismusparameter festgestellt. Ein ursächliches Einwirken des Vulkanismus auf ENSO konnte im Rahmen dieser Arbeit nicht gefunden werden.
Die Arbeit analysiert den Begriff sowie den Wert der Freiheit in den Schriften des kanadischen Philosophen Charles Taylor, unter Bezugnahme auf dessen politische Philosophie und philosophische Anthropologie. Die begriffliche Klärung basiert auf einer Systematisierung der positiven Verwendung des Freiheitsbegriffes in Taylors Gesamtwerk. Die Wertanalyse interpretiert die Ergebnisse der Systematisierung in Bezug auf die Frage, ob Freiheit in Taylors Verständnis ein extrinsischer oder ein intrinsischer Wert ist.
Abschließend sollen hier die wichtigsten, neuen Ergebnisse herausgestellt und ein Ausblick auf mögliche zukünftige Studien gegeben werden. In dieser Arbeit wurden vorwiegend Schwerionenkollisionen bei Einschußenergien zwischen ungefähr 40 MeV/Nukleon und 400 MeV/Nukleon mit dem Quantenmolekulardynamik-Modell untersucht. Ein Schwerpunkt war hierbei die Beschreibung der Umkehr des kollektiven, transversalen Seitwärtsflusses in der Reaktionsebene. Der negative Seitwärtsfluß, der bei niedrigen Energien der Größenordnung kleiner als 100 MeV/Nukleon durch die attraktiven Wechselwirkungen verursacht wird, verschwindet bei Steigerung der Einschußenergie bei der Balance-Energie E-bal. einsetzt. Oberhalb dieser dominieren die repulsiven Wechselwirkungen, so daß positiver transversaler Fluß einsetzt. Sowohl die negativen Flußwinkel als auch der Übergang hin zu positiven Flußwinkeln konnte fur eine große Anzahl verschiedener Energien und Stoßparameter mit unterschiedlichen Zustandsgleichungen für die Systeme 40-20-Ca + 40-20-Ca und 197-79 Au + 197-79 Au mit dem Quantenmolekulardynamik-Modell beschrieben werden. Ziel muß es bleiben, die verschiedenen, grundlegenden physikalischenWechselwirkungen eindeutig und unabhängig voneinander zu bestimmen. Ein erfolgversprechender Weg sind die hier vorgestellten Methoden und die Hinweise zur ad quaten Interpretation experimenteller Ergebnisse. Die Abhängigkeit der Balance-Energien von der Masse des betrachteten Systems ist sehr sensitiv auf den Nukleon-Nukleon Wirkungsquerschnitt im Medium. Hier wurde systematisch gezeigt, daß die Balance-Energien stark vom Stoßparameter abhängen. Die Zunahme der Balance-Energie mit dem Stoßparameter ist ungefähr linear. Für das System Ca+Ca kann sich die Balance-Energie beim Übergang von zentraleren zu mittleren Stoßparametern mehr als verdoppeln. Daher ist für die Interpretation der gemessenen Balance-Energien in bezug auf eine Modifikation des nukleo- nischen Wirkungsquerschnitts im Medium oder der Zustandsgleichung eine genaue Kenntnis des Stoßparameters von größter Wichtigkeit. Vorläufige experimentelle Analysen scheinen die vorhergesagte Stoßparameterabhängigkeit sehr gut zu bestätigen [Wes 95]. Weiterhin hat sich herauskristallisiert, daß bei der Berücksichtigung impulsabhängiger Wechselwirkungen die Balance-Energien bei größeren Stoßparametern signifikant kleiner sind als für den Fall der Nichtberücksichtung. Daher konnten experimentelle Bestimmungen der Balance- Energien bei größeren Stoßparametern signifikante Hinweise auf die tatsächliche Bedeutung der impulsabhängigen Wechselwirkungen in diesem Energiebereich geben. Es wurde gezeigt, daß für schwere Systeme wie Au+Au die langreichweitige internukleare Coulomb-Wechselwirkung vor dem Kontakt der Kerne im Energiebereich der Balance-Energien nicht vernachlässigt werden darf. Die hervorgerufene Repulsion bewirkt eine Drehung des Systems. Während in diesem gedrehten System dynamischer negativer Fluß beobachtbar ist, ist er es nicht im Laborsystem. Die im gedrehten Kontaktbezugssystem bestimmten Balance- Energien fur Au+Au sind erwartungsgemäß kleiner als für Ca+Ca und nehmen mit wachsendem Stoßparameter zu. Ein neuartiger Zwei-Komponenten-Fluß konnte in semiperipheren Kollisionen von Ca+Ca be- schrieben und analysiert werden. Dabei wird in einem Ereignis in verschiedenen Rapiditätsbereichen gleichzeitig positiver und negativer transversaler Fluß möglich. Die wenig komprimierte Spektatorenmaterie, die vermehrt aus schwereren Fragmenten besteht, zeigt negativen Fluß bei großen Rapiditäten, wohingegen dieKompressionszone in Form von einzelnen Nukleonen positiven transversalen Fluß zeigt. Aufgrund der großen Sensitivität gegenüber den Systemparametern und der Zustandsgleichung lohnt es sich, diesen Effekt experimentell zu untersuchen. Beim Studium azimuthaler Verteilungen wurde deutlich, daß auch in den Balance-Punkten noch kollektiver Fluß in Form von azimuthaler Asymmetrie vorliegt. Im Gegensatz zur bekannten hochenergetischen Bevorzugung der Emissionswinkel senkrecht zur Reaktionsebene für Teilchen aus der Wechselwirkungszone wurde hier die bei kleineren Energien preferentielle Emission in die Reaktionsebene aufgezeigt. Diese nimmt mit der Teilchenmasse und dem Stoßparameter zu. Das systematische Studium der Anregungsfunktion dieser azimuthalen Asymmetrie könnte durch die Übergangsenergien, die durch den Wechsel von der preferentiellen Emission in die Reaktionsebene zu der Bevorzugung der Winkel senkrecht zur Reaktionsebene definiert sind, wertvolle, ergänzende Information zu den Balance-Energien liefern.
Die Neue Institutionenökonomie beschäftigt sich mit der Erklärung institutioneller Gegebenheiten wie Vertrags- und Organisationsformen und versucht, eine Begründung für die Existenz von Unternehmen zu finden. Ein Bestandteil der Neuen Institutionenökonomie ist, neben der Principal- Agent- und der Property-Rights-Theorie, die hier näher zu erörternde Transaktionskostentheorie. Entstanden ist die Transaktionskostentheorie aus der Kritik an der Neoklassik, insbesondere an den dieser zugrunde liegenden Annahmen. Innerhalb der neoklassischen Theorie wird der Preismechanismus als das zentrale Instrument zur Koordination von wirtschaftlichen Aktivitäten betrachtet. Die Wirtschaftssubjekte handeln in einem Markt unter vollständiger Konkurrenz, in dem sich ohne Verursachung von Kosten ein Gleichgewichtspreis bildet. Sie verhalten sich daher als Mengenanpasser, die aufgrund dieses vorgegebenen Preises ihren Gewinn maximieren. Im Gegensatz dazu wird in der Transaktionskostentheorie davon ausgegangen, daß die Bildung des Preises bzw. die Nutzung des Marktmechanismus nicht kostenlos genutzt werden kann. Aus der Annahme der Neoklassik, daß der Preis die operativen Entscheidungen der Wirtschaftssubjekte determiniert und zu einer effizienten Allokation der Produktionsfaktoren führt,6 stellt sich weiterhin die Frage nach dem Grund für die Existenz von Unternehmungen, welche mit Hilfe der Transaktionskostentheorie beantwortet wird. Wäre der Marktmechanismus tatsächlich in der Lage alle wirtschaftlichen Aktivitäten effizient zu koordinieren, so bestünde keine Notwendigkeit für die Bildung von Institutionen. Die Entstehung von Unternehmen ist daher auf ein Versagen des Preismechanismus aufgrund von Transaktionskosten zurückzuführen....
Als Ergebnis dieser Arbeit kann man sehen, daß es experimentiell gelungen ist, mit einem alpha-förmigen Linearresonator einen stabilen unabhängig abstimmbaren Zwei-Farben Ti:saphir Laser aufzubauen, der so in der wissenschaflichen Literatur noch nicht beschrieben ist. Eine Veröfentlichung zu der vorgelegten Arbeit [22] ist beim IEEE Journal of Quantum Electronics eingereicht worden. Die Ausgangsleistung dieses Lasers liegt bei 300 mW. Die durchgeführten Experimente lassen darauf schließen, daß der Laser die meiste Zeit nur auf einer longitudinalen Mode emittiert. Bei einem gleichzeitig möglichen Abstimmbereich von 740 nm bis 850 nm, welches ein Verhältnis von Linienbreite zu Abstimmbereich von besser als 1:250000 bedeutet. Den Beweis, daß der Laser auch bei sehr geringen Differenzfrequenzen betrieben werden kann, lieferte die direkte Messung des Schwebungssignals zwischen den beiden Lasern. Dabei muß man zugeben, daß das im Eingangszitat dieser Arbeit erwähnte Schwebungssignal nicht ohne Hilfsmittel an einer Wand zu beobachten war, sondern eine minimale Schwebung von 3 Mhz gemessen wurde. Im Vergleich zu den 3 x 10 exp 8 Mhz der einzelner Farben ist dies aber ein gutes Ergebnis. Zusätzlich wurde mit dem Ringlaser ein anderer Ansatz zur Abstimmung des Systems realisiert. Diese Anordnung hat mit 800 mW Vorteile bezüglich der Ausgangsleistung aber Nachteile in Hinblick auf Abstimmung und Linienbreite. Im theoretischen Teil konnte gezeigt werden, welche Eigenschaften ein Laser-Resonator haben muß, um stabil im Zweifarben Betrieb eingesetzt zu werden. Weiterhin konnten auch noch die dynamischen Effekte der beiden Resonatortypen mit Hilfe einer Simulation beschrieben werden. Der Laser soll in der Erzeugung von kontinuierlicher Strahlung im Thz Bereich verwendet werden. Dabei sollen photokonduktive Antennen, wie auch Halbleiteroberflächen als Emitter dienen. Bis zum Ende dieser Arbeit konnte der Laser aus zeitlichen Gründen nicht für diese Messungen eingesetzt werden, da es zu Verzögerungen mit den Proben, wie auch mit den Meßgeräten kam. Die Charakterisierung des Lasers aber zeigte, daß die beiden schmalbandigen Farben bei einer Differenzfrenz im Thz-Bereich (20 GHz–50THz) stabil zu realisieren sind.
Die im Rahmen dieser Diplomarbeit entwickelte sehr einfach und kompakt aufgebaute Mikro-Ionenquelle basiert auf einer Mikro-Struktur-Elektrode (MSE). Mit dieser lässt sich bei einer Betriebsspannung von wenigen 100 Volt eine stabile Hochdruck-Glimmentladung erzeugen. Das Betriebsgas durchströmt die MSE-Pore und expandiert anschließend adiabatisch ins Vakuum, wobei die interne Temperatur des Strahls herabgesetzt wird. Der Vordruck des Gases kann bei dem vorhandenen Aufbau zwischen wenigen 100 hPa und etwa 0,5 MPa liegen. Mit einem ähnlichen Aufbau, jedoch mit deutlich größerer Saugleistung der Vakuumpumpen, konnte selbst bei Vordrücken über 3 MPa noch eine Entladung mit gleichen Eigenschaften betrieben werden. Es wurde gezeigt, dass Ionen durch Diffusion sowie die starke Gasströmung in der MSE-Pore aus dem Plasma extrahiert werden. Eine zusätzliche Beschleunigungsspannung zeigt einen deutlichen Einfluss auf die Formierung eines Ionenstrahls. Es kann ein schmaler Strahl mit maximal einigen mm Durchmesser erzeugt werden. Die Mikroentladung lässt sich mit zahlreichen Gasen betreiben. Erfolgreich getestet wurden Helium, Neon, Argon, Stickstoff und normale Luft sowie Mischungen davon. Auch eine Beimischung von Wasserstoff ist möglich und eröffnet die Erzeugung beispielsweise von molekularen HeH+-Ionen. Zur Extraktion der Ionen kann eine Beschleunigungsspannung von bis zu 5 kV angelegt werden. Der Ionenstrahl wird über ein differenzielles Pumpsystem durch einen Skimmer ins Hochvakuum überführt und dort analysiert. Es entstehen sowohl einfach als auch doppelt geladene Ionen. Bei einem Entladestrom von wenigen mA lässt sich ein Strom von bis zu 3 mA (ohne Sekundärelektronen-Unterdrückung) auf dem Skimmer messen. Die Stromdichte des Strahls ist jedoch zu hoch, um mit der verwendeten einfachen Diodenextraktion den gesamten Strom durch den Skimmer zu transportieren. Nur ein Anteil von ca. 1/50 bis 1/30 des gesamten Ionenstroms kann den Skimmer passieren. Hinter dem Skimmer liegt der Strom zwischen einigen 100 nA und einigen 10 µA. Durch Optimierung der Extraktionsgeometrie sollte hier eine deutliche Erhöhung erreicht werden. Im normalen Betrieb wird mit einem Entladestrom von 1-2 mA gearbeitet. Zum einen ist hier bereits, wie eben erwähnt, die maximale Stromdichte erreicht, die durch den Skimmer transportiert werden kann. Zudem sinkt mit steigendem Strom die Haltbarkeit der MSE-Elektroden aufgrund verstärkten Sputterns erheblich, auch dies spricht gegen einen Betrieb mit hohem Plasmastrom. Der maximale bisher erreichte Entladestrom in einem MSE-Plasma beträgt 50 mA. Der Elektrodenabtrag begrenzt momentan die Betriebsdauer einer MSE auf wenige Stunden. Durch die Einführung von Wolfram-Elektroden konnte bereits eine deutliche Steigerung der Haltbarkeit erreicht werden, für eine sinnvolle Anwendung der Ionenquelle muss jedoch noch eine Weiterentwicklung der MSE stattfinden. Dass sich der Kühleffekt aufgrund der adiabatischen Expansion auf im Plasma erzeugte metastabile He*-Atome auswirkt, wurde im Rahmen einer zweiten Diplomarbeit zum Thema Plasmajet gezeigt. Mit einem Aufbau nach demselben Prinzip, jedoch ohne Extraktionsspannung, wurde eine Apparatur zur Erzeugung eines spinpolarisierten metastabilen Helium-Targets realisiert [Jahn2002]. Es wurde gezeigt, dass zum einen der Energieeintrag ins Gas durch die Entladung sehr gering ist. Es handelt sich also beim MSE-Hochdruck- Plasma tatsächlich um eine nichtthermische Entladung. Zum anderen konnte in ergänzenden Flugzeitmessungen gezeigt werden, dass die Geschwindigkeitsverteilung der Metastabilen der eines herkömmlichen Gasjets entspricht. Der Kühleffekt wirkt also auf die Metastabilen genauso wie auf Gasatome im Grundzustand, ohne dabei die Metastabilen abzuregen. Um die Geschwindigkeitsverteilung der Ionen zu untersuchen, ist die verwendete Methode jedoch nicht ohne weiteres anwendbar. Aufgrund der Coulomb- Abstoßung der Ionen weist der unbeschleunigte Ionenstrahl eine starke Divergenz auf. Die Intensität des Ionensignals auf dem Detektor ist somit äußerst gering, was eine Flugzeitmessung kaum sinnvoll erscheinen lässt. Mit den vorhandenen Diagnosemethoden konnte daher ein Kühleffekt aufgrund der adiabatischen Expansion auf die Ionen nicht verifiziert werden. Mit der Mikro-Ionenquelle wurde jedoch gezeigt, dass es eine Wechselwirkung zwischen Ionen und Gasjet gibt: versucht man, die Ionen mit einer Extraktionsspannung zu beschleunigen, so erfahren sie aufgrund zahlreicher Stöße mit den langsameren Gasteilchen einen massiven Energieverlust. Man erhält einen Ionenstrahl mit stark verbreiterter Energieverteilung. Dies zeigt, dass sich die Ionen im Bereich hoher Dichte mit dem Jet bewegen. Stört man die Expansion, indem man die Ionen mittels der Beschleunigungsspannung aus dem Jet herausreißt, so erfahren sie durch die Wechselwirkung mit den Atomen im Jet einen erheblichen Energieverlust. Es ist daher zu vermuten, dass auch die Ionen gekühlt werden. Misst man mit Hilfe eines Quadrupol-Massenspektrometers das Spektrum von nicht beschleunigten Ionen, so erhält man scharfe Peaks, es tritt also kein Energieverlust auf. Zur Messung des Geschwindigkeitsprofils eignet sich diese Methode jedoch nicht. Es ist daher sinnvoll, in Zukunft mit einer entsprechend angepassten Apparatur auch für die Ionen eine Flugzeitmessung durchzuführen. Die schlechte Energieschärfe des Ionenstrahls ist ein erheblicher Nachteil für viele Anwendungen. Für zukünftige Weiterentwicklungen der Mikro- Ionenquelle muss eine geeignetere Extraktionsgeometrie gefunden werden. Eine Möglichkeit wäre, die Ionen mit dem Gasjet mitfliegen zu lassen und in größerem Abstand zu beschleunigen, wenn die Dichte im Jet stark abgefallen ist. In diesem Fall muss man jedoch eine sinnvolle Lösung für Größe und Position des Skimmers finden oder klären, ob auf einen Skimmer vollständig verzichtet werden kann. Es könnte bei dieser Lösung hilfreich sein, die Raumladungsdichte im Ionenstrahl durch Überlagerung mit einem Elektronenstrahl zu reduzieren und so die Divergenz des Strahls zu verringern. Man könnte die Divergenz auch verringern, indem man den Ionenstrahl durch ein Magnetfeld einschließt. Hierbei provoziert man aber vermutlich durch die Spiralbewegung der Ionen zusätzliche Stöße mit dem Jet. Denkbar wäre auch, die Ionen mit Hilfe elektrischer Felder aus dem Gasjet herauszulenken und anschließend zu beschleunigen. Bekommt man das Problem des Energieverlusts in den Griff, so erhält man eine leistungsfähige Ionenquelle, die ein großes Potential für Anwendungen bietet. Der kompakte Aufbau ermöglicht einen Verzicht auf Wechselspannungen, Mikrowellenstrahlung sowie magnetischen Einschluss. Da es sich um eine Gleichspannungsentladung mit wenigen Watt Leistung handelt, ist ein sehr energieeffizienter Betrieb möglich. Die gemessenen Ionenströme zeigen, dass eine Hochdruckentladung auf der Basis von MSE eine hohe Ionisationseffizienz aufweist. Der hohe Arbeitsdruck ermöglicht eine große Ausbeute an molekularen Ionen. Gelingt es, den Kühleffekt des Gasjets auf die Ionen zu nutzen, so erzeugt man einen Ionenstrahl mit sehr niedriger interner Temperatur, der für atomphysikalische Experimente interessant ist. Zudem ließe sich ein solcher Strahl auf sehr kleine Durchmesser fokussieren, was eine hohe Genauigkeit etwa bei Oberflächenmodifikationen erlaubt. Die Untersuchungen im Bereich Gasanalytik haben gezeigt, dass Hochdruckentladungen hier eine Alternative zu den herkömmlichen, auf Niederdruckentladungen basierenden, Messverfahren darstellen. Die sehr guten Nachweisgrenzen für Freon in Kombination mit dem einfachen und kompakten Aufbau sprechen für die Hochdruckentladung. Jedoch muss für eine sinnvolle Nutzung die Haltbarkeit der MSE noch deutlich erhöht werden.
Diese Arbeit beschäaftigt sich mit den Eigenschaften dynamischer Systeme, die in Form von autonomen Differentialgleichungen vorliegen. Genauer: Das Langzeitverhalten dieser dynamischen Systeme soll untersucht werden. Es läßtt sich beschreiben durch für das jeweilige System charakteristische Mengen, die attrahierenden Mengen und deren Einzugsbereiche. Attrahierende Mengen sind bezüglich eines dynamischen Systems invariante Mengen, die Trajektorien des dynamischen Systems, die in ihrer Umgebung starten, anziehen. Der Einzugsbereich einer attrahierenden Menge ist die Menge aller Punkte, die von der attrahierenden Menge angezogen werden. Betrachtet werden Systeme, die von einer Eingangsfunktion abhängen. Diese Eingangsfunktion kann je nach Zusammenhang eine Störung des dynamischen Systems oder eine Kontrolle desselben darstellen. Werden Störungen betrachtet, so sind Eigenschaften des dynamischen Systems, die für alle Eingangsfunktionen gelten, zu untersuchen. Diese werden in dieser Arbeit als starke Eigenschaften bezeichnet. Werden Kontrollen betrachtet, sind Eigenschaften des dynamischen Systems, die nur für mindestens eine Eingangsfunktion erfüllt sind, zu untersuchen. Sie werden hier als schwache Eigenschaften bezeichnet. Man betrachte beispielsweise einen Punkt, der zu einer invarianten Menge gehört. Zu jeder Eingangsfunktion gibt es eine zugehörige Trajektorie, die an diesem Punkt startet. Starke Invarianz bedeutet, daß keine dieser Trajektorien jemals die invariante Menge verläßt, schwache Invarianz, da mindestens eine dieser Trajektorien niemals die invariante Menge verläßt. Der Schwerpunkt dieser Arbeit liegt auf der Untersuchung der schwachen Einzugsbereiche. Sie lassen sich nur in Ausnahmefällen durch theoretische Überlegungen finden. Daher ist es von Nutzen, diese Mengen numerisch zu berechnen. Hier soll deshalb die benötigte Theorie bereitgestellt werden, um schwache Einzugsbereiche mit einem Unterteilungsalgorithmus anzunähern. Ein Unterteilungsalgorithmus dient allgemein dazu, innerhalb einer vorgegebenen Grundmenge eine Menge, die eine bestimmte Eigenschaft hat, zu finden. Die Idee eines solchen Algorithmus ist es einfach, die Grundmenge in "Zellen" zu unterteilen und für jede dieser Zellen zu prüfen, ob sie ganz, gar nicht oder teilweise zur gesuchten Menge gehört. Gehört eine Zelle nur teilweise zur gesuchten Menge, so wird sie weiter unterteilt und für die "Teilzellen" erneut entschieden, ob sie zur gesuchten Menge gehören. Für die Berechnung eines schwachen Einzugsbereiches bedeutet dies, daß für jede Zelle überprüft werden muß, ob es eine Kontrollfunktion gibt, mit deren Hilfe Trajektorien der betrachteten Differentialgleichung, die innerhalb der Zelle starten, in eine gegebene schwach attrahierende Menge (bzw. eine passend gewählte Umgebung dieser Menge) gesteuert werden können.
Schon seit längerer Zeit wird die Verwendung sogenannter Gabor-Plasmalinsen, in denen ein einkomponentiges also Nichtneutrales Plasma eingeschlossen wird, zur Fokussierung von Teilchenstrahlen untersucht. Um eine gute Fokussierqualität zu erreichen, wird ein hoher Füllgrad der Linse, sowie ein lineares elektrisches Feld benötigt. Während die Gabor-Plasmalinse innerhalb ihres Arbeitsbereiches, in dem das Plasma als thermalisiert angenommen wird, gute Abbildungseigenschaften aufweist, kommt es außerhalb der Arbeitsfunktion der Raumladungslinse zu einem starken Verlust der Strahlqualität. Die Gabor-Plasmalinse dient als Instrument, doch um ihre Anwendung zu optimieren, müssen die wesentlichen Prozesse in Nichtneutralen Plasmen verstanden werden. In der vorliegenden Arbeit wurden Diagnosemethoden zur Bestimmung der Plasmaparameter eines Nichtneutralen Plasmas untersucht, deren Anwendung sich im Bereich der elektrisch neutralen Plasmen bewährt haben. Es wurden desweiteren neue Methoden entwickelt, um die wichtigen Parameter wie Elektronendichte und Elektronentemperatur bestimmen zu können. Die Ergebnisse der Messungen werden numerischen Simulationen vergleichend gegenübergestellt.
Die vorliegende Arbeit beschäftigt sich mit der Produktion positiv und negativ geladener Pionen im System Au+Au bei einer kinetischen Strahlenergie von 1,5 GeV pro Nukleon. Diese Daten wurden im Juli 1998 mit dem Kaonenspektrometer KaoS gemessen. Es liegen Pi-Minus-Spektren bei drei verschiedenen Laborwinkeln (Theta Lab = 40°, 48°, 60°) vor sowie Pi-Plus-Spektren bei fünf Laborwinkeln(Theta Lab = 32°, 40°, 48°, 60°, 71,5°). Die Spektren können als Funktion der Energie im Nukleon-Nukleon-Schwerpunktssystem mit der Summe zweier Boltzmannverteilungen beschrieben werden, deren Steigung sich ebenso wie der unter Annahme isotroper Emission im Schwerpunktssytem integrierte Wirkungsquerschnitt mit dem Laborwinkel ändert. Als mögliche Ursache dieses Verhaltens wird untersucht, ob eine polare Anisotropie der Emission vorliegt. Eine solche wurde in früheren Experimenten [49, 50] für die Pionenproduktion in Proton-Proton-Stößen gefunden und als Effekt der p-Wellen-Produktion von Pionen interpretiert, bei der als Zwischenschritt eine Resonanz, zumeist eine Delta-Resonanz, angeregt wird. Die Zerfallskinematik dieser Resonanzen bewirkt duch ihren Drehimpuls eine Winkelverteilung der emittierten Pionen [24]. In Kern-Kern-Stößen führt die Abschattung von Pionen durch nicht an der Reaktion teilnehmende Nukleonen zu einer zusätzlichen Richtungsabhängigkeit der Emission. Unter der Annahme, daß Energie- und Winkelabhängigkeit separierbar sind, wird in einem einfachen Modell der Winkelanteil des differentiellen Wirkungsquerschnitts als Funktion des Kosinus des Schwerpunktswinkels mit einer Parabelform beschrieben. Um den Anpassungsparameter a2, der die Stäke der Anisotropie quantifiziert, zu ermitteln, stehen zwei Methoden zur Verfügung, die simultane Anpassung der bei festem Laborwinkel gemessenen Spektren und der Vergleich mit einer durch Schnitte durch die Laborimpulsspektren erzeugten Verteilung bei Theta cm = 90°. Beide Verfahren ermitteln erfolgreich den Anisotropieparameter aus in einer Monte-Carlo-Simulation erzeugten Spektren mit parabelförmiger Winkelverteilung. Die mit beiden Methoden ermittelten a2-Werte stimmen für Pi+ wie für Pi- im Rahmen der Fehler überein. Die Winkelverteilung der Pi+ ist mit a2 = 0,7 +- 0,1 stärker ausgeprägt als die der Pi- mit a2 = 0,4 +- 0,1, beide werden bevorzugt unter Theta cm = 0° und Theta cm = 180° emittiert. Allerdings zeigt sich in beiden Methoden eine starke Abhängigkeit von der Phasenraumabdeckung der Daten und beide sind nicht geeignet, eine Abhängigkeit des Anisotropieparameters von der Pionenenergie zu ermitteln....
Die HBT-Interferometrie bietet über die Analyse von Bose-Einstein-Korrelationen geladener Pionen die Möglichkeit, Raumzeit-Dimensionen von Kern-Kern-Reaktionen zu vermessen. Dadurch kann das Ausfrierverhalten der in diesen Reaktionen enstehenden teilchenemittierenden Quelle untersucht werden. Die so gewonnenen Informationen tragen zu einem Verständnis der in den Kollisionen ablaufenden Prozesse und somit zu Erkenntnissen über Kernmaterie unter extremen Bedingungen bei. Von besonderem Interesse ist dabei die Beobachtung der Ausbildung eines QGP-Zustandes. Hierfür sind systematische Studien von verschiedenen Kollisionssystemen und -energien von großer Bedeutung.
Im Rahmen dieser Arbeit wurde eine Analyse von Bose-Einstein-Korrelationen in Pb-Au-Kollisionen bei einer Strahlenergie von 80A GeV durchgeführt. Die hier analysierten Daten wurden mit dem CERES-Detektor am SPS-Beschleuniger des CERN aufgenommen. Diese Analyse stellt eine erneute Untersuchung des Datensatzes unter Verwendung einer verbesserten Kalibrierungsprozedur für den CERES-Detektor dar. Infolgedessen konnte eine Verringerung der systematischen Unsicherheiten erreicht werden. Die neuen Ergebnisse stimmen mit den von der CERES-Kollaboration bereits publizierten HBT-Ergebnissen zufriedenstellend überein. Der Vergleich mit den Ergebnissen des NA49-Experiments, dass Pb-Pb-Kollisionen bei gleicher Strahlenergie unter dem Aspekt der HBT-Interferometrie untersucht hat, zeigt ebenfalls eine Übereinstimmung.
Durch diese Konsistenz und die Minimierung der systematischen Unsicherheiten im Bereich der SPS-Energien wird nun die Interpretation des Ausfrierverhaltens der Quelle besser ermöglicht: In dieser Arbeit wurde eine universelle Ausfrierbedingung von Pionen bei unterschiedlichen Schwerpunktsenergien und für verschiedene Kollisionssysteme untersucht. Diesbezügliche Observablen sind das mittels HBT-Radien bestimmte Ausfriervolumen und die mittlere freie Weglänge von Pionen zum Zeitpunkt des Ausfrierens der Quelle.
Bei dieser Untersuchung in Abhängigkeit von der Schwerpunktsenergie der Kollision zeichnet sich ein Minimum des Ausfriervolumens bei hohen AGS- und niedrigen SPS-Energien ab. Zusätzlich ergibt sich für die mittlere freie Weglänge ein ebenfalls nicht monotones Verhalten in diesem Energiebereich. Aus der dort vergrößerten Weglänge lässt sich auf eine erhöhte Emissiondauer der teilchenemittierenden Quelle gegenüber anderen Energien schließen. Die Emissionsdauer spielt in Verbindung mit dem Nachweis eines QGP-Zustandes eine wichtige Rolle. Ob die beschriebenen Beobachtungen durch ein Ausbilden dieses Zustandes oder auf Grund von anderen unbekannten Mechanismen hervorgerufen werden, kann abschließend noch nicht beurteilt werden. Denn verbleibende systematischen Unsicherheiten bei niedrigen Schwerpunktsenergien lassen derzeit keine weiteren Interpretationen zu. Insbesondere betrifft dies die noch bestehende Diskrepanz der Ergebnisse zwischen CERES und NA49 für eine Strahlenergie von 40A GeV. Daher ist eine Reanalyse der Daten von CERES bei dieser Strahlenergie von Bedeutung. Ebenso würde eine erneute systematische Messung im AGS-Energiebereich weitere grundlegende Interpretationen ermöglichen.
In Zukunft werden am RHIC-Beschleuniger des BNL in den USA und im Rahmen des FAIR-Projektes an der GSI bei Darmstadt Experimente in dieser Energieregion durchgeführt werden. Möglicherweise kann dann anhand dieser Messung ein universelles Ausfrierkriterium für Pionen sowie der Grund für ein verändertes Systemverhalten bei bestimmten Energien festgestellt werden.
Die Wahlerfolge Tony Blairs in Großbritannien und Lionel Jospins in Frankreich, die sich innerhalb weniger Wochen im Frühsommer 1997 ereignet haben, gaben der Sozialdemokratie nicht nur in diesen Ländern, sondern in ganz Europa neuen Auftrieb. Im September 1998 konnte auch die deutsche Sozialdemokratie die Wahlen für sich entscheiden. Diese Eregnisse scheinen die These vom „Ende des sozialdemokratischen Jahrhunderts“ (Dahrendorf) widerlegt zu haben. Zugleich haben sie Diskussionen darüber ausgelöst, welche Möglichkeiten eine sozialdemokratische Politik an der Wende zu einem neuen Jahrtausend hat und welche Strategien für sozialdemokratische Parteien auch in anderen Ländern erfolgreich sein können. Insbesondere in Deutschland werden Jospin und Blair als Träger völlig unterschiedlicher, ja gegensätzlicher Trends oder Modelle der Sozialdemokratie gesehen........ Die vorliegende Arbeit konzentriert sich deshalb auf die programmatischen Ziele beider Politiker und auf die von ihnen angestrebten organisatorischen Reformen der Labour Party bzw. der Parti socialiste. Die tatsächliche Politik Tony Blairs und Lionel Jospins wurde hingegen nicht in die Untersuchung einbezogen, da sie – insbesondere im Falle Jospins – noch stärker als die von den Politikern vertretenen Positionen eine Folge unterschiedlicher politischer Kräfte darstellt. Wie noch zu zeigen sein wird, besitzt Jospin 1997, als er zum Premierminister gewählt wird, nicht mehr die Macht, seine Vorstellungen ohne größere Zugeständnisse an andere Strömungen in der Partei umzusetzen. Dies macht es praktisch unmöglich, zu unterscheiden, wann Jospin seine persönliche Auffassung darlegt, wann er als Parteivorsitzender die als Kompromiß zwischen verschiedenen Strömungen entstandene Position vertritt und wann er als Regierungschef eine Meinung vertritt, die innerhalb der gesamten Regierungskoalition abgestimmt ist und gegebenenfalls die Positionen verschiedener gesellschaftlicher Kräfte und sozialer Bewegungen in Rechnung stellen muß. Die von Jospin als Premierminister betriebene Politik ist daher nicht Gegenstand der vorliegenden Arbeit. Der Schwerpunkt der vorliegenden Arbeit liegt auf der Rolle, die Tony Blair und Lionel Jospin bei der Entwicklung der Labour Party bzw. der Parti socialiste in den neunziger Jahren spielen. Wie gezeigt werden wird, vertritt Jospin jedoch bis 1993 noch eine Position, die derjenigen Blairs in vielen Punkten direkt entgegengesetzt ist. Ab 1996 wiederum gerät Jospin unter so starken Druck oppositioneller Strömungen in der Parti socialiste, daß er – aus taktischen Gründen – Positionen vertritt, die sich oft stark von denjenigen Blairs unterscheiden. Blair hingegen hat bei seinem Wahlsieg 1997 seine innerparteiliche Position so stark gefestigt, daß seine Politik noch wesentlich marktwirtschaftlicher orientiert ist als viele der von ihm zuvor vertretenen Positionen erwarten ließen. Im Mittelpunkt des Vergleichs steht daher bei Jospin der Zeitraum von 1993 bis 1995, bei Tony Blair der Zeitraum von seiner Wahl zum Parteivorsitzenden 1994 bis zum Jahr 1996, in dem er den Begriff der „stakeholder society“, der später näher behandelt wird, immer stärker in den Hintergrund treten läßt. Dieser Zeitraum wird in der vorliegenden Arbeit auch als die „StakeholderPhase“ Blairs bezeichnet.....
The synchronization of neuronal firing activity is considered an important mechanism in cortical information processing. The tendency of multiple neurons to synchronize their joint firing activity can be investigated with the 'unitary event' analysis (Grün, 1996). This method is based on the nullhypothesis of independent Bernoulli processes and can therefore not tell whether coincidences observed between more than two processes can be considered "genuine" higher- order coincidences or whether they might be caused by coincidences of lower order that coincide by chance ("chance coincidences"). In order to distinguish between genuine and chance coincidences, a parametric model of independent interaction processes (MIIP) is presented. In the framework of this model, Maximum-Likelihood estimates are derived for the firing rates of n single processes and for the rates with which genuine higher order correlations occur. The asymptotic normality of these estimates is used to derive their asymptotic variance and in order to investigate whether higher order coincidences can be considered genuine or whether they can be explained by chance coincidences. The empirical test power of this procedure for n=2 and n=3 processes and for finite analysis windows is derived with simulations and compared to the asymptotic values. Finally, the model is extended in order to allow for the analysis of correlations that are caused by jittered coincidences.
Diese Arbeit hat einen Überblick über das IMS Learning Design und die damit verbundenen Spezifikationen gegeben und aktuelle Bestrebungen einer Adaption untersucht. Das IMS Learning Design bietet die Grundlage für die Gestaltung pädagogischer Frameworks für die Wiederverwendung von einzelnen Aktivitäten bis hin zu ganzen Kursen. Einmal erstellter Content kann auf diese Weise für unterschiedliche Zielgruppen und Lernumgebungen angeboten werden (create once deliver many times). Vgl. Hummel, H. (2004), S. 111. Gleichzeitig kann durch die didaktische Gestaltung von Lehr-/ Lerneinheiten der Mehrwert eines Lernszenarios für die Teilnehmer erhöht werden, da eine teilnehmerfokussierte Wissensübermittlung möglich gemacht wird. Dies beruht jedoch prinzipiell auf den pädagogischen Fähigkeiten des Autors eines Kurses. Im Forschungsbereich Geisteswissenschaften wird zu diesem Thema noch einiges zu untersuchen sein, was die Gestaltung pädagogischer Lehr-/ Lerneinheiten betrifft, da e-Learning-Kurse aus pädagogischer Sicht nicht mit Präsenzveranstaltungen gleichzusetzen sind. Die Verwendung von Standards im Bereich e-Learning ist sowohl für Kunden als auch für die Anbieter von Learning Management Systemen profitabel. Während Kunden die Möglichkeit bekommen aus einer Vielzahl von Anbietern zu wählen, die Standardschnittstellen anbieten, wächst für Anbieter der Kundenkreis, an den ihre Produkte verkauft werden können. Der Adaptionsprozess und die Forschung bezüglich des IMS LD steckt aber noch in den Anfängen. In diesem Zusammenhang wird eine verstärkte Öffentlichkeitsarbeit notwendig sein, um die Potentiale und das Know How bezüglich dieser Spezifikation zu vermitteln, und so den Adaptionsprozess voranzutreiben. Die Integration des Learning Designs in bestehende Spezifikationspakete wie z.B. SCORM würde die Akzeptanz und die Adaption auf dem Markt für e-Learning-Produkte möglicherweise erhöhen, vernachlässigt jedoch die Auseinandersetzung mit der eigentlichen Spezifikation. Die Integration weiterer Spezifikationen in das Learning Design ist derzeit noch problematisch, da hierfür einerseits rechtliche Grundlagen ungeklärt sind (IMS LIP, PAPI) und anderseits das technische Zusammenspiel der Interpreter noch nicht realisiert wurde. Das IMS LD ist eine große Chance für die Durchsetzung einheitlicher e-Learning- Konzepte. Es bietet einen Ansatz für die standardisierte Gestaltung von e-Learning-Systemen, der bis dato häufig nur durch Customizing (create one deliver once) gelöst werden konnte.
Um, mit Simulationsexperimenten, den Einfluß des Strahlprofils auf die Pellet- bzw. Targetdynamik bei der Trägheitseinschlussfusion mit Schwerionenstrahlen zu untersuchen, wurde der Simulationscode MULTI2D so modifiziert, daß eine Darstellung der Energiedeposition in zwei kartesischen Koordinaten möglich ist. Für die Simulationen wurde die Strahl-Target-Kombination von V. Vatulin, O. Vinokurov und N. Riabikina, “Investigation of the Dynamics of Solid Cylindrical Targets Illuminated by Ion Beams with Elliptic Cross Section“, aus dem GSI Report High Energy Density in Matter Produced by Heavy Ion Beams (GSI-99-04), verwendet. Die in der Arbeit von Vatulin et al. verwendeten Strahlparameter, beziehen sich auf ein an der GSI in Darmstadt in Planung befindliches Ionen- und Antiprotonensynchroton mit wesentlich höherer Strahlleistung als beim gegenwärtigen Schwerionensychrotron SIS. Um eine ausreichend hohe Auflösung zu erhalten, wurde für die Target-Simulation in MULTI2D ein Lagrange-Gitter mit 43200 Gitterpunkten ausgewählt. Als erstes wurden umfangreiche Untersuchungen der Entwicklung der Temperatur, des Drucks, der Geschwindigkeit und der Dichte der Volumenelemente des Targets durchgeführt. Hierzu wurden zweidimensionale Targetschnitte dieser Größen zu bestimmten Zeiten, ortsaufgelöste Darstellungen dieser Größen entlang einer kartesischen Achse des Targetschnitts zu ausgewählten Zeiten, und zeitaufgelöste Darstellungen dieser Größen an bestimmten Orten des Gitters, bzw. in bestimmten Volumenbereichen des Targets angefertigt. Sowohl bei Bestrahlung mit radialsymmetrischem Hohlstrahl, als auch bei Bestrahlung mit elliptischem Hohlstrahl, werden innerhalb von 20 ns 1.4 MJ/g deponiert. Während und nach der Energiedeposition breitet sich eine Kompressionswelle sowohl in Richtung Targetzentrum als auch in Richtung Targetperipherie aus. ~ 25 ns nach Beginn der Energiedeposition erreichen Temperatur und Druck ihren Maximalwert im Zentrum des Targets. Der Radius des Gebiets maximalen Drucks vergrößert sich innerhalb der nächsten 2 ns auf ~6 x 10 exp -3. Die Kompressionswelle breitet sich langsamer in Richtung Targetzentrum aus, als der Druck und die Temperatur. Wegen des hohen Drucks im Zentrum, befindet sich der Ort maximaler Dichte nicht im Targetzentrum, ~ 24,5 ns nach Strahlungsbeginn einen Ring hoher Dichte um das Zentrum herum. Kurz darauf, ~24,6 ns nach Strahlungsbeginn, bildet sich, ausgelöst durch das Zusammentreffen der Dichtewelle im Targetzentrum, ein kleinerer Ring hoher Dichte um das Targetzentrum herum. Bereits nach 24.75 ns, also nur 0.2 ns nach dem Zusammentreffen der Materie im Zentrum, ist die Dichte in diesem Ring höher als im weiter vom Targetzentrum entfernt liegenden Ring hoher Dichte. Dies gilt sowohl für die Bestrahlung mit radialsymmetrischem Hohlstrahl, als auch für die Bestrahlung mit elliptischem Hohlstrahl. Die Maximalwerte der Größen Temperatur, Druck und Dichte im Target liegen bei Bestrahlung mit elliptischem Hohlstrahl bis zu 20% unter denen bei Bestrahlung mit radialsymmetrischem Hohlstrahl. Die Dichten im Ring maximaler Dichte liegen bei Bestrahlung mit radialsymmetrischem Hohlstrahl bei~ 160 g/ccm, bei Bestrahlung mit elliptischem Hohlstrahl knapp darunter. Das maximale Achsenverhältnis lag bei (1:2.25), bei größeren Achsenverhältnisen wird die weniger dichte Substanz im Zentrum des Pellets so ungleichmäßig komprimiert, das es vorzeitig zu einer Vermischung des Treibers im Pelletzentrum mit dem Pelletmantel kommt, so daß der Treiber nicht ausreichend komprimiert wird. Die theoretische Untersuchung, welchen Einfluss das Strahlprofil auf die Targetkompression hat ist von großer Bedeutung, weil der Transport und die Fokussierung von Schwerionenstrahlung so hoher Intensität, wie sie für eine Targetkompression mit Fusionsbrennen nötig sind, sehr schwierig und noch nicht Stand der Technik ist. Sollte durch andere Arbeiten bestätigt werden, daß bei direkter Bestrahlung eines Hohltargets, bzw. eines Targets mit einem Mantel aus relativ dichtem Material und einem weniger dichten Treiber im Targetzentrum, mit einem Schwerionen-Hohl-Strahl, das Maximum der Druckwelle das Zentrum nicht erreicht, und somit ein Ring bzw. eine Hohlkugel maximalen Drucks um das Zentrum herum gebildet wird, hätte das, falls diese Technik zur Anwengung kommt, Konsequenzen für die Kompressionsdynamik eines realen Pellets. Möglicherweise wird nach der Zündung des Plasmas ein größerer Teil des Treibstoffs schneller verbrannt werden als bei einer Zündung im Pelletzentrum, außerdem könnte sich die Lebensdauer des Pellets erhöhen. Dies hätte für den Fall der direkten Bestrahlung eines Hohltargets mit einem Schwerionen-Hohl-Strahl eine Änderung des rho-R-Kriterium zur Folge, das Pellet müsste nicht so stark komprimiert werden wie bisher vermutet, so daß die technischen Voraussetzungen für ein Fusionsbrennen vieleicht schneller realisiert werden können, als bisher angenommen.
In der vorliegenden Arbeit werden Aspekte autonomer und nichtautonomer dynamischer Systeme behandelt, wobei Attraktoren und verwandte Objekte eine wichtige Rolle spielen werden. Zunächst findet man in einem Kapitel über dynamische Systeme die Definition der grundlegenden Begriffe Attraktor, Repeller und Schiefproduktfluss, gefolgt von zwei hinreichenden Bedingungen für die Existenz von Attraktoren. Mit den Attraktoren und Repellern können dann im nächsten Kapitel Morsemengen eingeführt werden. Dadurch kann das Verhalten eines dynamischen Systems qualitativ beschrieben werden. Des weiteren wird auf die Bedeutung der Kettenrekurrenzmenge für die Morsemengen eingegangen. Im Kapitel über Kontrolltheorie wird, nach einer kurzen Einführung in dieses Gebiet, gezeigt, dass der dort definierte Lift einer Kettenkontrollmenge unter gewissen Voraussetzungen eine Morsemenge ist. Im letzten Kapitel geht es um Pullback-Attraktoren, die unter den angegebenen Bedingungen als Attraktoren für den Schiefproduktfluss interpretiert werden können.
Die heutige Computergeneration ist untrennbar mit den Medien Computer und Internet verbunden. In den zukünftigen Generationen werden Kinder von Geburt an mit ihnen aufwachsen und sich die medialen Möglichkeiten in allen Lebenslagen zu Nutze machen können. Während sich diese Medien jedoch in in Lern- und Berufswelt bereits etabliert haben, und auch die private Multimedia-Ausstattung und Vernetzung in Deutschland in den letzten Jahren einen starken Zuwachs verzeichnen konnte, haben vor allem die Adoleszenten als intensivste Nutzer mit Akzeptanzproblemen zu kämpfen. Besonders für deren männliche Hauptgruppe gehört die Unterhaltung zu den führenden Kriterien der multimedialen Produktnutzung, eine Entwicklung, die sowohl von Pädagogen und Wissenschaftlern, als auch von der Gruppe der Eltern in vielen Fällen als nutzlose, isolierende und entwicklungsgefährdende Zeitverschwendung eingestuft wird. Im Fokus der Kritik stehen hierbei in erster Linie die Computerspiele, die in den letzten Jahren besonders für die jüngere Generation zum alltäglichen Medieninhalt geworden sind. Während das Daddeln am eigenen PC zunächst auf dem privaten Bereich beschränkt blieb, lässt sich seit einigen Jahren eine verstärkt expansive Entwicklung auf dem Sektor der Netzwerkspiele beobachten: Vor allem die Adoleszenten legen immer mehr Wert auf das gemeinsame Spiel, wodurch auch die Entwicklung der Computerspielindustrie in Richtung auf Multiplayer-Spiele beeinflusst wird. Infolgedessen werden die Adoleszenten immer mehr zu Computerspielprofis: Sie kennen sich mit den neuesten Spielen und deren Technik aus, sind mit entsprechender Hardware ausgerüstet oder greifen auf eines der zumindest in großen Städten zur Verfügung stehenden Internetcafes zurück und investieren einen Großteil ihrer finanziellen Mittel in Multimedia-Zubehör. Die Computerspielindustrie ist heute einer der bedeutendsten Wirtschaftszweige der Welt, der sich durch eine Vervielfachung seines Umsatzes heute sogar gegen den gesamten Filmund Kinomarkt durchsetzen kann. Zu den Hintergründen der Bedeutung des Medieninhalts Computerspiel und den Auslösern für die Faszination der Adoleszenten an den virtuellen Welten wird besonders in der Medienpädagogik immer stärker geforscht. Der Fokus liegt hierbei jedoch vor allem auf der Diskussion um mögliche negative Auswirkungen gewalthaltiger Spiele. Zur Gemeinschaft der Netzwerkspieler und deren Struktur liegen nur wenige Hintergrundberichte und Studienergebnisse vor. Doch besonders in diesem Bereich des selbsternannten „E-Sport“, der in den letzten Jahren dreistellige Zuwachsraten im Mitgliederbereich, aber auch ein immenses Wachstum in Zusammenhang mit immer neuen Events und einer verstärkt professionellen Organisation verzeichnen konnte, scheint eine nähere Untersuchung sinnvoll. Hier kann eine soziologische Betrachtungsweise insbesondere dann zu neuen Erkenntnissen über die Hintergründe der Adoleszenten-Faszination an Computerspielen führen, wenn man die E-Sport-Community als Ganzes und die Struktur und Facetten ihrer Gruppierungen, der Computerspiel-Clans im Besonderen untersucht. Die Leitfrage meiner Arbeit ist daher: Worin begründet sich die Adoleszenten-Faszination am Zusammenschluss im Counter Strike-Clan? Die besonders in der Adoleszenz verortete Begeisterung an eben dieser Organisationsform lässt Zusammenhänge mit der Entwicklung vermuten, die bislang nicht im Blickpunkt wissenschaftlichen Interesses standen. Wenn das organisierte, vernetzte Computerspielen als Sportart bezeichnet werden kann, und die Clans somit als Sportmannschaften der Computergeneration gelten, welche Auswirkungen hat dies dann auf die Diskussion um angeblich negative Einflüsse und mit den virtuellen Computerspielwelten verbundene Gefahren? Wie ist es in diesem Zusammenhang zu bewerten, dass der in der Öffentlichkeit als gewaltverherrlichend geltende Ego-Shooter „Counter Strike“ das erfolgreichste Netzwerk-Clanspiel der Welt ist? Sind Clanwars reine Freizeitbeschäftigung für eine Computerspiel interessierte Peer Group oder ist der Netzwerkspiel-Clan Ausdruck des Adoleszenten-Gemeinschaftsverständnisses im 21. Jahrhundert?
In der Realität setzen sich Farben aus einzelnen Wellen zusammen, welche in Kombination mit zugehörigen Wellenlängen und Intensitäten bei Menschen den Sinneseindruck einer Farbe hervorrufen. Die Computergraphik definert Farben mit dem RGB-Modell, in dem durch 3 Grundfarben (Rot, Grün, Blau) der darstellbare Farbbereich festgelegt wird. Ein Spektrum (genauer Spectral Power Distribution, SPD) ermöglicht eine variablere, physikalisch exaktere Darstellung von Farbe, kann aber nicht einfach mit dem RGB-Modell verwendet werden. Das von der Commission Internationale de l'Eclairage definierte XYZ-Farbmodell erlaubt es mit Wellenlängen zu rechnen, und bildet die Grundlage der Beleuchtungsrechnung mit Spektren.
Farben mittels Spektren zu ermitteln ist die Paradedisziplin von Raytracern, da der Berechnungsaufwand für Echtzeitanwendungen meist zu groß ist. Die neueste Graphikkarten-Generation kann große Datenmengen effizient parallel verarbeiten, und es wurden entsprechende Ansätze gesucht, wellenlängenbasiert zu rechnen. Das hier vorgestellte System erlaubt auf Grundlage von physikalischen Formeln einzelne Intensitäten zu beeinflusen, welche in Kombination mit den Tristimulus-Werten des Menschen in dem XYZ-Farbmodell abgebildet werden können. Diese XYZ-Koordinaten können anschließend in das RGBModell transformiert werden.
Im Gegensatz zu bestehenden Systemen wird direkt mit Spektren gearbeitet und diese nicht von einer RGB-Farbe abgeleitet, so dass für bestimmte Effekte eine höhere Genauigkeit entsteht. Durch die Verwendung einer SPD ist es möglich, Interferenzeffekte an dünnen Schichten und CDs in einem Polygon-Renderer zu visualisieren. In dieser Arbeit wird eine Berechnung von mehrlagigen dünnen Schichten mit komplexen Brechungsindizes präsentiert und ein LOD-System vorgestellt, welches es ermöglicht den Berechnungsaufwand frei zu skalieren.
Das in der Plasmamembran tierischer Zellen vorkommende Enzym "Na+/K+-ATPase" setzt katalytisch ATP in ADP um. Als transmembranes Protein vollführt es während der Katalyse einen elektrogenen Zyklus von Konformationsänderungen, wobei 3 intrazelluläre Na+ gegen 2 extrazelluläre K+ ausgetauscht werden, und besitzt damit die Funktion eines primär aktiven Ionentransporters. Bisherige Aktivitätsmessungen, z.B. von B. Vilsen (Vilsen, 1994), an dem in Lösung befindlichen Enzym ergaben deutliche pH-Abhängigkeiten der Aktivität, die auf eine intrazelluläre Wechselwirkung des Protons mit der ATPase zurückgeführt wurden. Im Rahmen der hier vorliegenden Arbeit war nun die Frage zu klären, inwieweit der extrazelluläre pH-Wert auf die Transportfunktion der in der Membran liegenden Na+/K+-ATPase einen Einfluß ausübt. Es wurden daher elektrophysiologische Messungen mit dem Two-Elektrode-Voltage-Clamp-Verfahren und dem Giant-Patch-Clamp-Verfahren an der Zellmembran von Oozyten des Xenopus laevis durchgeführt und die pH-Abhängigkeit von durch die Na+/K+-ATPase verursachten transmembranen stationären als auch transienten Ionenströmen analysiert. Die stationären (steady-state) Ströme sind ein Maß für die Pumpaktivität, während die transienten auf Partialreaktionen des Enzyms schließen lassen. Die elektrophysiologischen Messungen wurden an der ouabainsensitiven und der ouabainresistenten Na+/K+-ATPase des Torpedo californica durchgeführt. Als Expressionssystem diente die Oozyte des Xenopus laevis. Die Messungen wurden mit Hilfe des Two-Elektrode-Voltage-Clamp-Verfahrens sowie des Giant-Patch-Clamp-Verfahrens durchgeführt. Um eine pH-Abhängigkeit zu untersuchen, wurden steady-state- als auch transiente Ströme bei den pH-Werten pH6, pH7,5 und pH9 gemessen. Als Pumenströme wurden die K+-aktivierbaren oder Ouabain-inhibierbaren Stromkomponenten betrachtet. Zunächst wurde die pH-Abhängigkeit von Pumpenströmen der im normalen Modus arbeitenden, ouabainsensitiven Na+/K+-ATPase untersucht. Die Pumpenströme wurden durch [K+]a=5mM aktiviert und durch [K+]a=0mM inhibiert. Die Messungen in einem natriumfreien extrazellulären Medium ergaben eine ausgeprägte pH-Abhängigkeit der Strom-Spannungskennlinien der Pumpenströme. Dieser Effekt wurde zum großen Teil auf einen, bei J.Rettinger (Rettinger, 1996) beschriebenen, Protonen-Einwärtsstrom zurückgeführt. Durch eine Korrektur konnten die vom Protoneneinwärtsstrom unbeeinflußten Pumpenströme analysiert werden, und es zeigte sich Potentialunabhängigkeit der Strom-Spannungskennlinien bei pH6 und pH9, während bei pH7,5 Potentialabhängigkeit (positive Steigung im negativen Potentialbereich) zu erkennen war. Dies wurde auf eine protonierbare im "access-channel" angenommene Stelle zurückgeführt, welche dann einen Einfluß auf die Affinität der Kationenbindung ausüben könnte. In hochnatriumhaltigem extrazellulären Medium (100mM) war dieser pH abhängige Effekt nicht nachweisbar, die Strom-Spannungskennlinien folgten dem schon bekannten Verlauf (Rakowski et al., 1997) mit einer positiven Steigung im negativen Potentialbereich. Weiterhin wurden transiente Ströme des Na/Na-Austausches sowohl an der ouabainsensitiven (OS) als auch an der ouabainresistenen (OR) Na+/K+-ATPase untersucht. Hierfür wurde in hochnatriumhaltigem (100mM) und kaliumfreiem extrazellulären Medium gemessen. Der Na/Na-Austausch der OS Pumpe wurde extrazellulär mit 100:M Ouabain inhibiert, während der der OR Pumpe mit 10mM Ouabain inhibiert wurde. Messungen mit dem Two-Elektrode-Voltag-Clamp-Verfahren ergaben auf Grund der zu geringen Zeitauflösung keine analysierbare pH-Abhängigkeit. Für die bei diesen Messungen festgestellte Ladungsverschiebung konnte eine effektive Wertigkeit von zq=0,80±0,02 ermittelt werden, was mit den Angaben von J. Rettinger et. al. (Rettinger et al., 1994) vergleichbar ist. Die Messungen mit dem Giant-Patch-Clamp-Verfahren an der OR und OS Pumpe ergaben für transiente Ströme einen relaxierenden Strom-Zeitverlauf, der einer Linearkombination aus drei unterschiedlich schnell relaxierenden Exponentialfunktionen mit verschiedenen Amplituden entspricht. Die Zeitkonstanten ließen keine signifikante pHAbhängigkeit erkennen. Ihre Werte lagen in den Bereichen 10-10 :s, 1-5ms und 10-200ms, wobei die am schnellsten relaxierende Funktion nicht analysiert werden konnten. Die langsam relaxierende Exponentialfunktion ließ sich der Konformationsänderung zuordnen, die mittelschnell relaxierende der extrazellulären Wechselwirkung mit den Na+-Ionen. Die Amplituden hingegen zeigten eine pH-Abhängigkeit. Im depolaren Potentialbereich hatten die Amplituden der mittelschnell relaxierenden Funktion bei pH6 eine größere Potentialabhängigkeit als bei pH9. Die Amplituden der langsam relaxierenden Funktion hatten im hyperpolaren Potentialbereich bei pH6 eine geringere Potentialabhängigkeit als bei höheren pH-Werten. Im ersten Fall könnte eine Protonierung an einer Stelle der ATPase die Potentialabhänigkeit über eine Veränderung des "accesschannels" verstärken, im zweiten Fall könnte diese in die Konformationsänderung eingebunden sein.
Die Motivation dieser Diplomarbeit bestand darin, die Unterschiede zwischen der 2SC-< ud >-farbsupraleitenden und der normalleitenden Phase der Quarkmaterie aufzuzeigen und die Auswirkungen der 2SC-< ud >-farbsupraleitenden Phase auf Quarksterne zu untersuchen. Dabei sollte festgestellt werden, wie groß der farbsupraleitende Gap sein muß, damit sich die Eigenschaften der Quarksterne merklich ändern. Dazu wurde die Kopplungskonstante variiert. Die Ergebnisse aus Kapitel 5 lassen sich somit zu folgenden Resultaten zusammenfassen: Die 2SC-< ud >-farbsupraleitende wird immer der normalleitenden Phase der Quarkmaterie vorgezogen, weil sie energetisch günstiger ist. Zudem muß die Quarkmaterie neutral sein, denn sonst würde sie wegen der abstoßenden Coulombkraft nicht stabil sein und die Quarksterne würden explodieren. 2SC-< ud >-farbsupraleitende Quarkmateriemit freien, massiven strange Quarks besitzt den höchsten Druck bei gegebenem quarkchemischen Potential und ist damit am meisten bevorzugt vor allen anderen in dieser Diplomarbeit betrachteten Quarkmateriephasen. Durch das Einführen des farbchemischen und elektrischen Potentials wird die 2SC-< ud >- farbsupraleitende Quarkmaterie neutralisiert. In der 2SC-< ud >-farbsupraleitenden Phase ohne strange Quarks werden jedoch so viele Elektronen zur Neutralisation benötigt, daß der farbsupraleitende Gap erheblich verringert wird. Die 2SC-< ud >-farbsupraleitende Phase mit freien, massiven strange Quarks wird gegenüber der 2SC-< ud >-farbsupraleitenden Phase ohne strange Quarks energetisch bevorzugt, weil erstere nicht so viele Elektronen zur Neutralisation benötigt, da diese Aufgabe hauptsächlich von den strange Quarks übernommen und dadurch der Gap nicht so erheblich reduziert wird. Zudem kommt noch der freie strange Quarkdruck hinzu, der diesen Zustand energetisch begünstigt. 2SC-< ud >-farbsupraleitende Quarksterne ohne strange Quarks besitzen einen maximal 122 Meter kleineren Radius und eine maximal 0.016 M⊙ kleinere Masse als normalleitende Quarksterne ohne strange Quarks. 2SC-< ud >-farbsupraleitende Quarksterne mit strange Quarks besitzen einen maximal 72 Meter kleineren Radius und eine maximal 0.023 M⊙ kleinere Masse als normalleitende Quarksterne mit strange Quarks. Erhöht man den farbsupraleitenden Gap, dann werden die Quarksterne größer und schwerer. Vergrößert man die Kopplungskonstante um das 1.5-fache des angegebenen Referenzwertes (5.2), dann ungefähr verdoppelt sich der farbsupraleitende Gap. Ein Quarkstern mit strange Quarks weist dann eine Radiusdifferenz von einem Kilometer und eine Massendifferenz von 0.31 M⊙ zu einem Quarkstern mit normalleitender Phase auf. Durch Verringern des Referenzwertes der Kopplungskonstante wird auch der farbsupraleitende Gap reduziert und es treten so gut wie keine Unterschiede mehr zur normalleitenden Phase des Quarksterns auf.
Ein universeller zentraler Grenzwertsatz für den Abstand zweier Kugeln in zufälligen Splitbäumen
(2008)
In der vorliegenden Arbeit wird ein Modell des zufälligen Splitbaumes untersucht. Dies ist ein verallgemeinertes Modell, das bei passender Wahl der zugehörigenParameter viele konkrete Suchbäume umfasst. Das Modell ist in der Arbeit von L. Devroye beschrieben: Nach einem zufallsbasierten Algorithmus werden den Knoten des Baumes Daten in Form von Kugeln hinzugefügt. Tiefe und Höhe sind dabei grundlegende Größen, die die Komplexität von Suchoperationen beschreiben, wenn das Suchbaummodell als Datenstruktur verwendet wird. Das Augenmerk der Arbeit richtet sich auf eine weitere entscheidende Größe: Den Abstand zweier rein zufällig gewählter Kugeln im Baum. Aufbauend auf Devroyes Erkenntnissen zum asymptotischen Verhalten der Tiefe der zuletzt eingefügten Kugel im Splitbaum, wird ein neues Resultat erzielt: Ein universeller Zentraler Grenzwertsatz für den Abstand der Kugeln. Als Anwendungsbeispiel werden zwei vom allgemeinen Modell abgedeckte Suchbäume betrachtet und der jeweilige Grenzwertsatz für die Abstände aus dem universellen Satz abgeleitet.
Gleichgewichte auf Überschussmärkten : Theorie und Anwendbarkeit auf die Regelenergiezone der RWE
(2003)
Diese Version entspricht im wesentlichen der begutachteten Version bis auf die Kürzung von Satz 3.3.1 um einen für den Rest unbedeutenden Teil. Das Ziel folgender Arbeit ist es, mit einem intuitiven Ansatz eine spezielle Wettbewerbsform zweier interagierender Märkte zu modellieren und anschließend zu analysieren. Abschließend werden die theoretischen Ergebnisse mit den Beobachtungen an einem existierenden Markt - dem deutschen Energiemarkt - verglichen. In dieser behandelten Wettbewerbsform wird ein nicht lagerbares Gut an zwei aneinander gekoppelten Märkten gehandelt. Während Handel und Preisfindung am ersten Markt den üblichen Gepflogenheiten folgen, müssen alle Teilnehmer sämtliche Güter, welche nicht unmittelbar nach Lieferung verbraucht werden, am zweiten Marktplatz (dem Überschussmarkt) gegen ein gewisses Entgelt zur Verfügung stellen. Alle Teilnehmer, welche nicht genügend Güter am ersten Markt geordert haben, werden auf dem Überschussmarkt zu einem gewissen Preis mit der noch benötigten Menge versorgt. Einem Marketmaker auf dem zweiten Marktplatz fällt die Aufgabe zu, einen Preis festzustellen, zu dem diejenigen entschädigt werden, welche ihre Überschüsse zur Verfügung stellen müssen bzw. den diejenigen zu bezahlen haben, deren Gütermangel ausgeglichen wird. Weiterhin stellt dieser sicher, dass zu jedem Zeitpunkt genügend Güter vorhanden sind, so dass der Bedarf aller Teilnehmer zu jedem Zeitpunkt sichergestellt ist. Ziel ist es nun herauszufinden, welche gewinnmaximierenden Einkaufsstrategien die Marktteilnehmer verfolgen sollten und welche Konsequenzen sich daraus auf den deutschen Energiemarkt ableiten lassen.
Entwicklung und Aufbau eines Elektronenstrahl-Extraktionssystems für die Frankfurter EZR-Ionenquelle
(1998)
Die vorliegende Arbeit entstand im Rahmen des Frankfurter 14.4GHz-EZR-(ve)RFQProjektes zur Erzeugung und Beschleunigung von hochgeladenen Ionen für atomphysikalische Experimente und zur Materialforschung. Die Kernelemente dieser Anlage sind eine 14.4 GHz Elektron-Zyklotron-Resonanz-Ionenquelle, ein 90-137° Analysiermagnet und ein Radio-Frequenz-Quadrupol-Beschleuniger mit variabler Energie. In der EZR-Ionenquelle werden hochgeladene Ionen durch Stöße mit schnellen Elektronen erzeugt. Die Elektronen werden durch Überlagerung eines magnetischen Doppelspiegelfeldes mit einem magnetischen Hexapolfeld in der Quelle eingeschlossen und durch Mikrowellenleistung nach dem Zyklotron-Resonanz-Prinzip auf hohe Energien beschleunigt. Bei der Entwicklung von Ionenquellen für hochgeladene Ionen verfolgt man das Ziel hohe Strahlströme bei höchsten Ladungszuständen und guten Strahlqualitäten (kleine Emittanzen) zu erreichen. In dieser Arbeit wird ein neues Konzept für die Extraktion von Ionenstrahlen aus einem EZR-Plasma mit Hilfe eines intensiven Elektronenstrahls untersucht. Die hochgeladenen Ionen werden durch einen Potentialtopf im Plasma gehalten und können nur durch Abschalten der Mikrowellenleistung extrahiert werden (Afterglow-Effekt). Durch die Injektion eines intensiven Elektronenstrahls von der Extraktionsseite aus in das Plasma, soll lokal ein negativer Raumladungskanal erzeugt werden, durch den die hochgeladenen Ionen dem Potentialtopf entkommen können. Die Elektronen laufen dabei in entgegengesetzter Richtung zu den Ionen. Die Ionen erfahren eine anziehende Kraft durch den negativen Raumladungskanal der Elektronen in Richtung Achse und werden dadurch zusätzlich fokussiert. Der negative Raumladungskanal dient auch zur Führung der Ionen, welche durch eine Bohrung in der Kathode extrahiert werden. Durch den Einschuß des Elektronenstahls von der Extraktionsseite aus in das Plasma können weitere Verbesserungen der Quellenparameter erwartet werden. So z. B. die Erzeugung von Sekundärelektronen zum Ausgleich von Elektronenverlusten aus dem Plasma und zur Erhöhung der Plasmadichte, die Vorionisation von neutralen Gasteilchen zur Erhöhung des Ionisationsgrades des Plasmas und damit verbunden, die Verringerung von Ladungsaustauschprozessen zwischen neutralen Teilchen und hochgeladenen Ionen, schließlich die Erzeugung von Festkörperionen durch Verdampfen, insbesondere von Metallen mit hohem Siedepunkt (z. B. Wolfram) und die Verbesserung der Emittanz, da die Ionen durch den Elektronenstrahl näher der Achse geführt werden und dadurch die Ionen mit einem kleineren Strahlradius extrahiert werden. Für die Erzeugung des Elektronenstrahls wurde eine mit Barium imprägnierte Wolfram- Kathode benutzt. Diese besitzt eine Emissionsstromdichte von 1 A/cm2 bei einer Temperatur von 1100°C und einer Oberfläche von 3 cm2. Zur Fokussierung des Elektronenstrahls werden die magnetischen Felder der beiden EZR-Spulen genutzt. Die magnetischen Feldlinien werden durch passive Abschirmung so geformt, daß diese senkrecht durch die Oberfläche der Kathode stoßen. Die erzeugten Elektronen werden entlang dieser magnetischen Feldlinien geführt. Da die Elektronen in Richtung Plasma beschleunigt werden, laufen diese in ein ansteigendes Magnetfeld, welches für die Fokussierung und Kompression des Elektronenstrahls sorgt. Um die Leistung des Elektronenstrahls zu vernichten, wurde ein wassergekühlter Kollektor auf der Gaseinlaßseite in der Quelle installiert. Dieser übernimmt außerdem die disk-Funktion, zum Ausgleich von Elektronenverlusten aus dem Plasma und zur Erhöhung der Plasmadichte. Er besteht aus ferromagnetischen Material (Reineisen) und sorgt somit für eine Verbesserung des Jochschlusses der Magnetfeldspulen und für eine Verbesserung des Spiegelverhältnisses auf der Gaseinlaßseite von 2.9 auf 3.8. Beim ersten Testeinbau des neuen Extraktionssystems, bei dem der wassergekühlte Kollektor und damit die disk fehlte, wurde die Arbeitsfähigkeit der Elektronenkanone in der Umgebung der arbeiteten EZR-Ionenquelle demonstriert. Die Kathode wurde mit ihrer Orginalbohrung von 1 mm Durchmesser eingesetzt, wodurch die Ionenströme um bis zu einem Faktor 1000 im Vergleich zu den herkömmlich gemessenen Ionenströmen reduziert wurden. Durch das Fehlen der disk zeigen die aufgenommenen Ladungsspektren einen Intensitätsabfall zu hohen Ladungszuständen hin. Dennoch konnte gezeigt werden, daß mit Elektronenstrahl wesentlich höhere Ionenströme erreicht werden, als im Betrieb ohne Elektronenstrahl. Mit dem Einbau eines wassergekühlten Kollektors und der Vergrößerung der Kathodenbohrung auf 3 mm Durchmesser konnten die Ionenströme im Maximum bei Ar8+ auf 25 mA gesteigert werden, so daß nur noch ein Faktor 4 bis zu den besten Ergebnissen der Quelle fehlt. Da jedoch durch die 3 mm Kathodenbohrung die Emittanz des Ionenstrahls besser ist als mit dem herkömmlichen Extraktionssystem, wäre ein Vergleich der Brillanzen nötig, um genaue Aussagen über die Qualität des Elektronenstrahl- Extraktionssystems zu machen, jedoch fehlte hierzu eine Emittanz-Meßanlage. Die Ladungsverteilung zeigt auch wieder den gewöhnlich Verlauf mit dem Maximum bei Ar8+. Vergleicht man nun die Ladungsspektren mit unterschiedlichen Mikrowellenleistungen, so zeigt sich bei mittleren Mikrowellenleistungen (700 W) eine überproportionale Erhöhung des Ladungszustandes Ar12+, jedoch eine Reduzierung des Ladungszustandes Ar11+. Untersuchungen bei hohen Mikrowellenleistungen (1700 W), das bedeutet einer höheren Plasmadichte gegenüber den Messungen mit mittleren Mikrowellenleistungen, zeigen ebenfalls, daß der Änderungsfaktor des Ladungszustand Ar12+ größer ist, als der des Ladungszustand Ar11+. Die Ladungsspektren zeigen auch, daß der Elektronenstrahl bei niedrigeren Plasmadichten größere Auswirkung auf die hohen Ladungszustände hat, als bei hohen Plasmadichten. Dies zeigt, daß die Elektronenstrahldichten im Vergleich zur Plasmadichte viel zu gering sind, so daß z. B. der gewünschte Effekt der lokalen Potentialabsenkung nicht einsetzt und die Änderungen in der Ladungsverteilung im wesentlichen auf die Fokussierungseigenschaften des Elektronenstrahls zurückzuführen sind. Hierzu müssen weitere Untersuchungen mit höheren Elektronenstrahldichten vorgenommen werden. In diesem Zusammenhang sind auch Untersuchungen zur Größe des nutzbaren Ionenreservoirs im Plasma (z. B. durch Afterglow-Effekt) an der Frankfurter EZR-Ionenquelle notwendig.
Im Rahmen dieser Diplomarbeit wurde ein Slow-Control-System für die HADES-Driftkammern konzipiert und umgesetzt. Ebenso wurden Teile des Konzepts erfolgreich für die Nutzung durch den RICH- und Showerdetektor angepasst. Durch die Nutzung in verschiedenen Strahlzeiten hat sich gezeigt, dass das System den gestellten Anforderungen gerecht wird. Die aufgezeichneten Daten lassen sich den Ereignissen während des Betriebs chronologisch zuordnen. Somit ist es möglich, zu jedem Zeitpunkt die Betriebsund Umgebungsbedingungen zu Analysezwecken zu rekonstruieren. Auch die Genauigkeit der aufgezeichneten Daten ermöglicht es, besondere Ereignisse wie z.B. Funkenüberschläge zu erkennen. Design und die Funktionalität der entwickelten GUI’s haben sich im Einsatz ebenfalls bewährt. Für die ermittelten und gesetzten Alarmwerte stellte sich heraus, dass einige Werte größeren Schwankungen unterliegen als die im April 2002 gewonnenen Daten vermuten ließen. Als Beispiel hierfür kann der gemessene Wert für die Sauerstoffkontamination dienen. Die im April aufgenommene Werte lagen für den besten Reinigungszustand wesentlich niedriger, als während der Strahlzeit im November 2002. Es wurde daher eine Anpassung der Alarmwerte nach oben notwendig. Dies gilt ebenfalls für andere Bereiche des Systems, wie Temperaturen, Ströme und Spannungen. Die individuelle Anpassung und Optimierung der einzelnen Alarmwerte ist ein langwieriger Prozess, der nur durch die gesammelten Erfahrungen über einen langen Betriebszeitraum erfolgreich umgesetzt werden kann.
Kulturelle Bedeutungen und zivilreligiöse Vorstellungen in der amerikanischen Sicherheitspolitik
(2003)
Da die zu untersuchenden physikalischen Observablen des NA49-Exprimentsentscheidend von der Leistungsfähigkeit der Detektoren beeinflußt werden, ist es notwendig, deren Funktion systematisch zu untersuchen und zu überwachen. Im Rahmen dieser Arbeit wurden Methoden vorgestellt, die Genauigkeit der Spurrekonstruktion zuquantifizieren und gegebenenfalls durch die Korrektur systematischer Fehler zu verbessern. Das NA49-Lasersystem hat während dieser Strahlzeit seine Funktionalität bewiesen. Trotz erheblicher technischer Schwierigkeiten hat die Analyse der Laserdaten Resultate geliefert, die entscheidend zum Verständnis der Funktion der Detektoren beigetragen haben. Der Ausbau des NA49-Lasersystems zu einem vollständigen System, das die in der ursprünglichen Konzeption festgelegten Spezifikationen erfüllt, hat sich damit als möglich und wünschenswert erwiesen. Die Untersuchung von Ereignissen ohne Magnetfeld ist ein sehr exaktes Meßinstrument zur Rekonstruktion der Position der Detektorkomponenten. Der Vorteil gegenüber traditionellen Methoden ist, da der Prozeß der Ortsmessung die vollständige Analysekette des Experiments beinhaltet. Damit können nicht nur räumliche Effekte untersucht werden, sondern auch Fehlfunktionen der Ausleseelektronik und der Analysesoftware. Die mit dieser Methode gefundene scheinbare Verschiebung der Detektorhälften relativ zueinander um ca. 4mm ist konsistent mit Ergebnissen anderer Analysemethoden (z.B. der Laseranalyse). Die Ursache dieser Verschiebung konnte bis zur Fertigstellung dieser Arbeit noch nicht lokalisiert werden. Um eine endgültige Klärung dieses Problems sicherzustellen, müssen Spuren in dem Detektor erzeugt werden deren Position besser bekannt ist als die intrinsische Ortsauflösung des Detektors. Das NA49-Lasersystem sollte in der vollständigen Ausbaustufe in der Lage sein, diese Aufgabe zu erfüllen.
Gegenstand der Untersuchungen dieser Arbeit ist der Einfangprozess der radiativen Rekombination gewesen. Dabei ist zwischen dem Einfang in die inneren Schalen, K- und L- Schale, und dem Einfang in die äußeren Schalen unterschieden worden. Für die inneren Schalen ist neben dem Einfang in nacktes auch die Untersuchung des Einfangs in wasserstoffartiges Uran möglich gewesen. Es hat sich herausgestellt, dass die experimentellen Ergebnisse fur den Einfang in die inneren Schalen von U92+ gut mit den theoretischen Erwartungen übereinstimmen. Dagegen haben sich für den Einfang in U91+ leichte Abweichungen bei Einfang in die K- Schale gezeigt. Was diese Abweichung verursacht hat, konnte nicht geklärt werden. In Uran koppeln die Elektronen der innersten Schalen aufgrund der Größe der Kernladung über jj- Kopplung, weswegen die Wechselwirkung der Elektronen untereinander keine wesentliche Rolle spielen sollte. Dennoch scheint das bereits in der K- Schale vorhandene Elektron die Einfangwahrscheinlichkeit eines zweiten Elektrons zu vermindern. Das Verhältnis U92+/U91+ entspricht nicht dem erwarteten Wert von nahezu 2, sondern ist mit 2,28 etwas größer. Bisherige, jedoch bei hohen Energien durchgefuhrte, Experimente haben in guter Übereinstimmung mit den theoretischen Vorhersagen gestanden. Daraus lässt sich schließen, dass dieser Effekt erst bei sehr kleinen Stoßenergien auftritt, wie sie im Kuhler vorliegen. An dieser Stelle sei auch daran erinnert, dass der Stoß zwischen Elektron und Ion senkrecht erfolgt und somit der Detektor die emittierten Photonen unter 90 Grad beobachtet. Dies ist gerade der Winkel unter dem der Wirkungsquerschnitt maximal ist. Im Gegensatz dazu zeigen die Daten für die L- Schale in beiden Fällen im Bereich ihrer Fehlerbalken die gleichen Ergebnisse. Dies ist nicht verwunderlich, da aufgrund der hohen Kernladungszahl von Uran ein Elektron in der K- Schale keinen bedeutenden Abschirmeffekt für die L- Schale verursacht. Daher bleiben die Einfangszustände für den Einfang in die L- Schale im Gegensatz zum Einfang in die K- Schale bei U91+ nahezu identisch. Beim Vergleich der experimentellen Daten mit einer nichtrelativistischen und relativistischen Theorie ist sowohl für die Verhältnisse der K-RR Linie mit den beiden L-RR Linien als auch bei den L-RR Linien untereinander stets eine bessere Übereinstimmung mit der relativistischen Theorie gezeigt worden. Dabei sei daraufhingewiesen, dass die Werte dieser beiden Theorien deutlich voneinander abweichen. Wähhrend die nichtrelativistische Theorie für das Verhältnis K-RR/L-RRj=1=2 beispielsweise einen Wert von 2,12 voraussagt, ergibt die vollständig relativistische Theorie einen Wert von 1,41. Der experimentelle Wert von 1,23 +- 0,03 zeigt nun eine deutlich bessere Übereinstimmung mit der relativistischen Theorie. Daraus kann geschlossen werden, dass auch bei Stoßenergien nahe null für die tiefstliegenden Zustände relativistische Effekte vorhanden sind, die in den Rechnungen berücksichtigt werden müssen. Die Untersuchung des Einfangs in die äußeren Schalen hat dagegen weniger Übereinstimmende Ergebnisse gebracht. Zwar hat sich gezeigt, dass die Form der experimentellen Spektren durch verzögerte Lyman alpha Übergänge erklärt werden kann, allerdings ist die Intensität der niederenergetischen Ausläufer in der Simulationen nicht erreicht worden. Rechnungen mit verschiedenen Anfangszuständen haben gezeigt, dass durch die Hinzunahme von Zuständen mit höherer Hauptquantenzahl n die Zahl der verspäteten Ereignisse erhöht werden kann. Jedoch nicht in dem Maße, dass eine Wiedergabe der experimentellen Spektren möglich würde. Rechnungen mit unterschiedlichen Bedingungen haben gezeigt, dass auch Zustände mit kleinen Übergangswahrscheinlichkeiten Einfluß auf die zeitliche Entwicklung der Kaskaden haben. Dagegen wird die Kaskade durch Ausschluss von Zuständen mit einem Verzweigungsverhältnis kleiner als 1% kaum beeinflußtt. Weiterhin macht es keinen Unterschied ob die Wegstrecke mit Schrittweiten von 1x10 exp (-14) oder 1x10 exp (-11) gerechnet wird. Größere Zeitschritte führen zu Abweichungen. In einem weiteren Teil der Auswertung sind die l- Zustände untersucht worden, die zu den verspäteten Ereignissen beitragen. Dabei hat sich herausgestellt, dass die Zustände um l = n/3 den Hauptbeitrag zu den verspäteten Übergängen leisten. Bei den Yrastkaskaden lässt sich ein deutlicher Anstieg im Bereich von 30 ns beobachten, jedoch ist ihr Anteil im Vergleich zu den l = n/3 Zuständen deutlich geringer. Ihr Einfluss auf das Spektrum würde sich erst zu noch späteren Zeitpunkten bemerkbar machen. Der Beitrag verzögerter Ereignisse zu den Ausläufern der Lyman alpha - Linien ist nur aufgrund der relativistischen Raumwinkeltransformation verstärkt zu erkennen. Die effektiv vorhandene Intensität dieser verzögerten Ereignisse wird über die Raumwinkelkorrektur um ein Vielfaches erhöht. Tatsächlich folgt aus der Kaskadenrechnung ein Anteil verzögerter Übergänge an der gesamten Emission von nur 0,1 %, während er unter Berücksichtigung der Detektorgeometrie (Raumwinkelkorrektur für einen Beobachtungswinkel von 0 Grad) 4,6 % beträgt. Allerdings macht der im Experiment gemesse Anteil der verzögerten Emission 73,9 % der Gesamtemission aus. Er liegt also mehr als eine Größenordnung über dem Anteil, der sich aus der Kaskadenrechnung mit anschließender Simulation der Detektorgeometrie ergibt. Mit der momentanen Theorie ist es nicht möglich, die experimentellen Ergebnisse zu reproduzieren. Dies kann daran liegen, dass die Anfangsbesetzung gerade in den hohen Zuständen zu gering angesetzt wird. Da diese erst nach einigen Nanosekunden zu den Lyman alpha Übergängen beitragen, könnte eine höhere Anfangsbesetzung dieser Zustände zu einer Verstärkung der Linien beitragen. Es ist bisher noch nicht gelungen, eine Aussage darüber zu treffen, wodurch diese Ratenüberhöhung zustande kommt und welche physikalischen Aspekte dabei eine Rolle spielen. Möglicherweise ist die Verwendung der Stobbe-Theorie zur Berechnung der Rekombinationsraten freier Elektronen in hohe Rydbergzustände nicht richtig, weil es wegen der äußeren Felder im Kühler keine wirklich freien Elektronen in hohen Zuständen gibt. Zur detaillierteren Untersuchung dieses Phänomens hat im September 2004 die Gruppe um M. Pajek ein Experiment am Elektronenkühler durchgeführt [66]. Als Projektilionen sind wieder nackte Uranionen verwendet worden, allerdings bei einer Energie von 23 MeV. Detektoren sind unter 0 Grad und 180 Grad montiert worden. Während des Messzyklusses ist die Kühlerspannung variiert worden, um die Elektronen einmal schneller und einmal langsamer als die Ionen fliegen zu lassen. Auf diese Art und Weise sollte herausgefunden werden, ob bei Relativenergien ungleich null ebenfalls eine Ratenüberhöhung auftritt. Erwartet wird, dass dies aufgrund der höheren Relativenergie nicht der Fall ist. Eine Auswertung der Daten liegt derzeit noch nicht vor.
Gegenstand dieser Arbeit ist das Entropiegesetz und seine Bedeutung für die Umweltökonomie. Das Grundgesetz vom Niedergang , wie Schütze es genannt hat, trifft in seiner ursprünglichen Bedeutung Aussagen über die Umwandlung von verschiedenen Formen von Energie bzw. über ihre Nutzbarkeit u.a. für menschliche Belange. So ist zu erklären, daß die stärkste Beschäftigung der Ökonomen mit dem Entropiegesetz in der Folge der sog. Ölkrise und der Studie Grenzen des Wachstums stattfand, da zu dieser Zeit der Gedanke einer plötzlichen Erschöpfbarkeit der Energiequellen um so stärker in den Vordergrund drang, wie es in der Zeit davor normal erschien, daß sich der Energieverbrauch regelmäßig verdoppelte. Das Thema physikalische Grenzen des wirtschaftlichen Wachstums ist in der öffentlichen wie auch in der (wirtschafts-) wissenschaftlichen Diskussion durch aktuellere und akutere Probleme in den Hintergrund gedrängt worden und mit ihm auch der Begriff Entropie. Diese akuteren Probleme sind vor allem im Zusammenhang mit Stoffen zu sehen, die den Bereich des menschlichen Wirtschaftens verlassen. Die zunehmende Umweltverschmutzung stellt sich in den letzten Jahren als das vordringliche Problemfeld für die Umweltökonomie dar. Zu erinnern wäre hier beispielhaft einerseits an die Unfälle bei Sandoz in Basel und des Kernkraftwerks in Tschernobyl sowie die Havarie des Tankers Exxon Valdez in Alaska. Andererseits ist aber auch der Normalbetrieb mit Problematiken wie der u.a. durch FCKWs zunehmenden Zerstörung der Ozonschicht oder auch dem übermäßigen Auftreten von Ozon in Bodennähe im Zusammenhang mit dem photochemischen Smog verbunden...
This thesis presents the implementation of the online reconstruction, calibration and monitoring of the data of the Transition Radiation Detector of ALICE. This reconstruction is performed on the High Level Trigger, the third level of the ALICE trigger system, and enables online calibration and monitoring of the incoming data. Additionally, the HLT can steer the data storage, such that only physical interesting events are saved. The online reconstruction, as well as the calibration, makes use of the existing offline algorithms. Therefore, interfaces between the HLT and these offline algorithms were implemented. For being able to reach the speed of 2000 Hz in proton-proton collisions, and 200 Hz in leadlead collisions, the algorithms had to be accelerated. Bottlenecks were tracked down using dedicated tools, and respective code was either reimplemented or it is being skipped during the online reconstruction. The quality of the output data was monitored throughout the implementation, to assure that it is not being cut too much.
Entwurf und prototypische Realisierung einer Architektur zur flexiblen Verschlüsselung von XML-Daten
(2001)
Im Rahmen dieser Arbeit ist auf Basis einer sorgfältigen Prüfung existierender Literatur zu kryptografischen Verfahren und sowohl einer Analyse bestehender Ansätze zur Verschlüsselung von XML-Dokumenten, als auch unter Nutzung bestehender Standards für XML-Technologien, eine Architektur zur flexiblen Verschlüsselung von XML-Daten erstellt worden. Ausgehend von Einsatz-Szenarien wurden dazu Anforderungen an das gewünschte System definiert. Anhand dieser Anforderungen wurde systematisch eine vollständige Spezifikation zur Verschlüsselung von XML-Daten hergeleitet. Weiterhin ist eine erweiterbare und generische Architektur zur Verarbeitung von XML-Daten spezifiziert worden. Auf dieser aufbauend, wurde eine Architektur für die flexible Ver- und Entschlüsselung von XML-Daten erstellt. Diese Architekturen und ihre Komponenten sind generisch, wobei für die prototypische Realisierung exemplarisch eine konkrete Auswahl dieser Komponenten implementiert wurde. Für die Verschlüsselung wurde dazu auf die zuvor erstellte Spezifikation zurückgegriffen und deren relevante Teile implementiert. Anschliessend wurden Experimente durchgeführt, die einen Eindruck von der Leistungsfähigkeit der Architektur gegeben haben. Insgesamt haben sich die Erwartungen an die Architektur mehr als erfüllt. Stehen Transformationen als verwendbare Klassen bereit, die auf dem DOM operieren, so ist es leicht möglich, diese in das DPF einzubetten, wie z.B. beim Verschlüsselungs-Prozessor geschehen. Damit ist eine sehr gute Erweiterbarkeit gegeben. Da die Arbeitsweise eines Transformations-Prozessors sowohl direkt durch übergebene Argumente aus dem DPS als auch durch die Verwendung von Annotationen gesteuert werden kann, kann die Verarbeitung von Dokumenten sehr flexibel und auch feingranular erfolgen. Die Möglichkeit, Annotationen aus mehreren DAS-Dokumenten zu aggregieren, erlaubt eine verteilte Pflege dieser Dokumente. Mit der Möglichkeit, mehrere Prozessoren direkt nacheinander eine Eingabe bearbeiten zu lassen, wird die Flexibilität nochmals gesteigert. Denn wenn die Prozessoren als Komponenten zur Verfügung stehen, können diese stets aufs Neue kombiniert werden. Vor allem der Ansatz, dass alle zur Verarbeitung und Steuerung relevanten Daten in Form deklarativer Beschreibungen erfolgen, die den Bedürfnissen jedes Prozessors angepasst sind, macht das System zu einem mächtigen Instrument. Zudem werden dadurch keine tiefergehenden Programmierkenntnisse benötigt. So entfällt auch die Notwendigkeit, Änderungen des gewünschten Transformations-Ergebnisses durch Änderungen im Quelltext des erzeugenden Programms vorzunehmen. Dadurch sind insgesamt den Möglichkeiten zur Verarbeitung von XML-Dokumenten kaum Grenzen gesetzt. Notwendige Anpassungen bleiben zumeist auf eine oder wenige Komponenten beschränkt, was Änderungen leichter ermöglicht. Dabei hat sich wieder einmal der flexible und trotzdem mächtige Ansatz der Kette von Werkzeugen (Chain of Tools) bewährt. Auch die Spezifikation zur Verschlüsselung von XML-Daten konnte alle Erwartungen erfüllen. Alle eingangs gestellten Anforderungen sind damit ausnahmslos darstellbar. Insbesondere betrifft dies die partielle und feingranulare Verschlüsselung von XML-Daten, sowie die hierarchische und damit einhergehende Super-Verschlüsselung. Rückblickend kann gesagt werden, dass das wissenschaftliche Fundament in Form von kryptografischen Grundlagen zwar sehr gut ist, aber die darauf aufbauenden höherwertigen Dienste und Architekturen aus wissenschaftlicher Sicht bisher kaum Beachtung gefunden haben. So wird zwar die Verschlüsselung von ganzen Daten-Objekten zwischen zwei Empfängern gut beherrscht, aber eine feingranulare Verschlüsselung, bei der Daten an grosse dynamische Empfängergruppen in offenen Systemen vertraulich übermittelt werden, hat bisher keine Beachtung gefunden. In der vorliegenden Arbeit werden diese Probleme adressiert, wobei aber nicht für alle eine abschliessende Lösung präsentiert werden konnte, da dies den Rahmen der Arbeit gesprengt hätte. Vielleicht ist es gerade die fehlende wissenschaftliche Durchdringung, die es so schwierig macht, geeignete Standards für die Verschlüsselung von XML-Dokumenten zu etablieren. Denn wenn man betrachtet, wie lange schon beim W3C über die Verschlüsselung diskutiert und daran gearbeitet wird, so kann es einen nur verwundern, dass nicht greifbarere Ergebnisse vorliegen. Ende Juli, also kurz vor Abschluss der vorliegenden Arbeit, ist bei Recherchen noch ein wissenschaftlich fundierteres Papier aufgetaucht, das auf einer Konferenz im Juni dieses Jahres vorgestellt wurde. Es beschreibt eine Document Security Language (DSL), die auf XSLT beruht und eine Architektur zur Verschlüsselung von XML-Dokumenten [85]. Da die Nähe zu dieser Arbeit gross ist, soll sie hier noch kurz vergleichend betrachtet werden. Die dort beschriebene Architektur und die Sprache bietet auch die Verschlüsselung auf feingranularer Ebene. Aber sie ist nicht erweiterbar und kennt auch kein generisches Meta-Daten-Konzept, so dass sie hinter den Ergebnissen der vorliegenden Arbeit deutlich zurückfällt. Zudem beruht sie auf der vorne schon im Zusammenhang mit der Verwendung von XSLT kritisierten Arbeit in [48]. Sie trägt dazu im Bereich der Verschlüsselung nicht viel Neues bei. Allerdings weist sie einige interessante Ansätze im Bereich der Infrastrukturen auf [85, Abschnitt 3.2]. Um diese könnte die hier vorgestellte Architektur der Verschlüsselungs-Prozessoren ergänzt werden, denn dieses Gebiet wurde in der Arbeit ausgespart.
Im Rahmen der vorliegenden Arbeit wurde eine Gahor-Plasma-Linse zur Fokussierung positiver Ionenstrahlen niedriger Energie konzipiert und aufgebaut. Die Erzeugung der Elektronen geschieht hier über eine Gasentladung, die im Linsenvolumen brennt. Die entstandenen Elektronen werden in einem elektromagnetischen Feld eingefangen. Die entstandenen Restgasionen werden aus dem Linsenvolumen herausbeschleunigt. Die Lösung der Bewegungsgleichung von Elektronen in gekreuzten elektrischen und magnetischen Feldern, unter Berücksichtigung der Elektronenraumladung, führt auf die Existenz einer maximalen Elektronendichte die abhängig ist vom Quadrat des magnetischen Feldes. Die Rechnung zeigte überdies, daß nach dem lokalen Erreichen der maximalen Elektronendichte eine Homogenisierung der Raumladung stattfindet. Die Diffusion der Elektronen, durch Stöße wurde allerdings nicht berücksichtigt. Eine generelle Aussage über das radiale Dichteprofil kann nicht gemacht werden. Die Untersuchungen zum Entladungsverhalten wurden für verschiedene Betriebsgase durchgeführt. Eine Zündung der Gasentladung konnte oberhalb einer gewissen Anodenspannung und eines gewissen Magnetfeldes immer erreicht werden. Die gegenüber der Paschenbedingung niedrigere Anodenspannung bei vorhandensein eines Magnetfeldes konnte anband der "verkleinerten" freien Weglänge erklärt werden. Die Dichtemessungen der Elektronen wurden mit einem elektrostatischem Gegenfeldspektrometer und einer elektrischen Langmuirsonde durchgeführt. Letztere ergaben, aufgrund der starken Störung der Gasentladung durch die Sonde, keine verwertbaren Ergebnisse. Die Energie der aus dem Linsenvolurnen herausbeschleunigten Restgasionen erlaubt im Prinzip einen Rückschluß auf ihr Entstehungspotential. Obwohl auch hier keine quantitative Aussage über das Dichteprofil gemacht werden konnte, erlaubte die Messung eine quantitative Aussage über den Füllgrad. Hierbei zeigen sich bei verschiedenen Betriebsbedingungen drastische Unterschiede. Die besten Ergebnisse ergaben Messungen an einer Entladung bei niedrigem Druck und geringer Stromstärke und hohem Magnetfeld. Ein empfindliches Meßinstrument zur Bestimmung der radialen Dichteverteilung ist der zu fokussierende Ionenstrahl selbst. Die Linse wurde in eine bestehende Ionenstrahltransportstrecke eingefügt. Messungen mit Argon- und Heliumionenstrahlen bei 10 ke V Strahlenergie und Strömen zwischen 200 mikroA und 1.15 mA wurden durchgeführt.Die Emittanz und Profilmessungen zeigten auch hier wieder eine drastische Abhängikeit des Strahlverhaltens von den eingestellten Linsenparametern. Zum überwiegenden Teil wurden Ausgangsemittanzen gemessen, die neben den stärksten beobachteten Fokussiereffekte starke sphärische Aberrationen zeigten und mit erheblichem Emittanzwachstum verbunden waren. Dies läßt auf eine stark inhomogene Verteilung der Elektronen schließen. Diese Ergebnisse wurden hauptsächlich bei hohen Linsenspannungen erzielt und zeigten zudem eine z.T. erhebliche Reduzierung des Kompensationsgrades hinter der Linse. Bei niedriger Iinsenspannung zeigte sich eine reduzierte Fokussierung des Strahles, die Aberrationen und das Emittanzwachstum waren aber weitaus geringer. Der Kompensationsgrad des Strahles hinter der linse blieb z. T. gegenüber einer reinen Driftmessung erhalten oder stieg sogar an. Die besten Ergebnisse ergaben sich bei 1500 V zwischen Anode und Kathode und einem magnetischen Feld auf der Achse von 280 Gauß. Der Restgasdruck betrug 1*10-5 hPa (größtenteils Helium). Ein 10 keV Heliumstrahl konnte entsprechend einer Brennweite von 20 cm bei vernachlässigbarem Emittanzwachstum fokussiert werden. Eine Variation der Linsenbrechkraft bei gleichzeitig kleinem Emittanzwachstum konnte nur in einem geringen Maße erreicht werden. Die angeführten Untersuchungen zeigen, daß es prinzipiell möglich ist, eine durch eine Gasentladung gefüllte Gabor-Plasma-Linse, als ionenoptisches Element zu betreiben. Eine Linearität der Feldveneilung und einen genügend hohen Füllgrad konnte nur in einigen Betriebszuständen erreicht werden. Die theoretischen und experimentellen Ansätze sind durchaus vielversprechend und lassen erhebliche Verbesserungen durch weitergehende Untersuchungen erwarten. Hier sind insbesondere theoretische und numerische Untersuchungen über das Einschlußverhalten von Elektronen in gekreuzten elektrischen und magnetischen Feldern notwendig. Dies führt zu einer Optimierung der Linsengeometrie hinsichtlich eines höheren Füllgrades. Fadenstrahlmessungen sind eine Möglichkeit um Aussagen über das radiale Dichteprofil zu gewinnen. Aber auch die Füllung der Linse mit thermischen Elektronen könnte ein Gegenstand weiterer Untersuchungen sein.
Durch die stetig zunehmende Implementierung von Informationssystemen in verschiedene Gesellschaftsbereiche gibt es in der Menschheitsgeschichte eine bisher noch nie dagewesene Entwicklung: ‚Kognitive Last’ kann dem Menschen durch technische ‚Denkzeuge’ sehr effektiv und effizient abgenommen werden. Dadurch können „typisch menschliche Bereiche wie Kreativität, Solidarität, Innovationsfähigkeit, Mitmenschlichkeit, Kommunikationsfähigkeit“ beim Einzelnen gefördert und entwickelt werden, wie es bisher nur bei ganz wenigen Menschen in einer Gesellschaft möglich war. „D. h. das Gehirn gewinnt - zumindest im Prinzip - völlig neue Freiheiten, nachdem es die kognitive Last abgeworfen und an die Computer übergeben hat. Diese Freiheit gilt es - insbesondere im Bildungswesen - zu nutzen!" Doch wird in der heutigen deutschen Schule und Hochschule nicht ‚Homo sapiens informaticus’ qualifiziert, „sondern den auf Abwicklung aller kognitiven Tätigkeiten im Gehirn trainierten Homo sapiens sapiens“. Früher oder später sieht dieser viele der mühsam erlernten kognitiven Leistungen durch technische Produkte in der realen Welt erfüllt (z.B. durch Arithmetik-Software), an die er sich nach seiner Ausbildung durch Fortbildung oder ‚learning by doing’ anzupassen versucht. In der Informationsgesellschaft wird der kompetente Umgang mit Neuen Medien als Schlüsselqualifikation gesehen, die es in jeglicher Ausbildung zu erwerben gilt. Um diese zu entwickeln reicht es jedoch nicht aus, Schulen mit entsprechender Technik auszustatten. Medienkompetente Schüler setzen den medienkompetenten Lehrer voraus. Aus diesem Grund wird einer entsprechenden Lehrerbildung eine Schlüsselrolle zur frühen und breiten Vermittlung von Medienkompetenz in der Gesellschaft zugeschrieben. Dazu müssen wiederum die Ausbilder der Lehrer selbst medienkompetent und die Bildungseinrichtungen mit Neuen Medien ausgestattet sein. Mit vorliegender Arbeit soll die von verschiedenen Bereichen der Gesellschaft gestellte Forderung, Neue Medien in der Bildung einzusetzen, nachvollzogen und auf ihre tatsächliche Implementierung in der derzeitigen Lehrerbildung untersucht werden. Dazu werden exemplarisch die Ergebnisse der Befragung einer kleinen Gruppe kaufmännischer Referendare herangezogen. Im Rahmen dieser Arbeit wird darauf verzichtet, eine ausführliche Darstellung unterschiedlicher Formen des multimedialen und telekommunikativen Lernens (Teleteaching, Lernsoftware etc.) vorzunehmen. Auf lernformenspezifische Aspekte wird, falls notwendig, an entsprechender Stelle eingegangen. Wirkungen, die Neue Medien auf Schulentwicklung, Bildungsinstitutionen als Kompetenzzentren und einhergehende Aspekte der Personalentwicklung haben, werden nicht systematisch untersucht.
Die Suche nach einem geeigneten Photosensor für das PANDA-Experiment wurde durch folgende Anforderungen eingegrenzt: • Tauglichkeit in einem starken Magnetfeld • Funktionsfähigkeit trotz niedriger Temperatur • geringe Bauhöhe • interne Verstärkungsstufe wegen der geringen Lichtausbeute von PbWO4 • stabiler Betrieb trotz hoher Strahlenbelastung Diese Punkte werden von Large Area Avalanche-Photodioden (LAAPDs) erfüllt. Da diese Si-Halbleiterdioden im laufenden Experiment einer hohen Strahlenbelastung ausgesetzt sein werden, ist es erforderlich, die Strahlenhärte im Vorfeld intensiv zu testen. Im Rahmen dieser Diplomarbeit wurden Strahlenhärtetests mit geladenen und neutralen Teilchen an (inter-)nationalen Instituten und der Universität Frankfurt durchgeführt, wobei das Hauptaugenmerk auf der Neutronenbestrahlung lag. Dazu wurde eine Messvorrichtung entwickelt und funktionstüchtig aufgebaut, mit der dann die Messungen an fünf verschiedenen Dioden mit einer Kapazität von 180 pF vorgenommen wurden. Während der Bestrahlung wurde der Dunkelstrom in Abhängigkeit von der Bestrahlungszeit bei konstanten Temperaturen gemessen. Vor und nach den Tests wurden die APD-Parameter charakterisert, um später durch den Vergleich der Daten Aussagen zur Strahlenhärte der Photodetektoren machen zu können. Die Ergebnisse und Vergleiche zeigen, dass die APDs nach der Bestrahlung mit Photonen weiterhin gut funktionieren. Die Quantenausbeute verändert sich nicht. Der durch Protonen- (Rate ≈ 1013 p/cm2 (90 MeV) und Neutronenbestrahlung (Rate ≈ 1010 n/cm2 (1 MeV) und 1014 n/cm2 (14 MeV)) erzeugte hohe Dunkelstrom der APDs ist aufgrund seiner Temperaturabhängigkeit und den Ausheilungseffekte reduzierbar. Es ist zu erwarten, dass die APDs im laufenden Experimentbetrieb trotz dieser Strahlung funktionsfähig bleiben werden. Sobald die mit Neutronen bestrahlten APDs abgeklungen sind, werden ihre Parameter zum Vorher-/Nachher-Vergleich vermessen. Dazu gehören der Dunkelstrom in Abhängigkeit von der Verstärkung, die Verstärkung in Abhängigkeit von der Spannung und Wellenlänge und die Quantenausbeute. Um die Ausheilung bestrahlter Photodioden in Abhängigkeit von der Temperatur genauer zu bestimmen, sollen sie (unter Vorspannung) in einem Ofen bei T = 80◦C ausgebacken werden, bis der Dunkelstrom sich wieder in einem Gleichgewicht befindet. Nach diesem Vorgang werden dann alle APD-Parameter noch einmal vermessen, um einen Vergleich mit den Werten vor der Bestrahlung zu ziehen. Neben diesen nachbereitenden Arbeiten wird an ersten rechteckigen APD-Prototypen, die sich in der Entwicklungsphasen befinden, geforscht. An diesen außergewöhnlich großen APDs müssen alle an den quadratischen Photodioden bereits durchgeführten und noch folgenden Tests ebenfalls vorgenommen werden.
The thesis in general deals with CORBA, the Common Object Request Broker Architecture. More specifically, it takes a look at the server-side, where object adapters exist to aid the developer in implementing objects and in dealing with request processing. The new Portable Object Adapter was recently added to the CORBA 2.2 standard. My task was the implementation of the POA in MICO and the examination if (a) the POA specification is sensible and (b) in which areas it improves over the old Basic Object Adapter. After introducing distributed platforms in general and CORBA in particular, the thesis' main two chapters are a detailed abstract examination ("Design") of the POA design and their relization ("Implementation"), highlighting the potential trouble spots, persistence and collocation.
Die Relevanz der Zuschreibung von "Hochbegabung" in der Biografie von besonders begabten Erwachsenen
(2007)
Mit dieser Arbeit konnten erstmalig Erkenntnisse über "hochbegabte" Erwachsene gewonnen werden, die bisher entweder nicht untersucht wurden oder aber hinter dem Schleier der Mystifizierung im Verborgenen blieben. Eine der wichtigsten Erkenntnis dieser Arbeit ist entgegen der Darstellung vieler Publikationen zu diesem Thema, dass die Zuschreibung von "Hochbegabung" nicht grundsätzlich biografisch relevant ist. Vielmehr ist die Relevanzeinstufung von "Hochbegabung" von entsprechenden Dispositionen und Ausprägungen mit ihren spezifischen Wirkungsmechanismen im Lebensablauf abhängig, die je nach Zusammenspiel in eine non-exklusive oder in eine exklusive "Hochbegabtenidentität" münden. Eine Normalitätserfahrung – und das ist die weitere wichtige Erkenntnis dieser Untersuchung – ist für eine non-exklusive "Hochbegabtenidentität" die notwendige Voraussetzung. Erst dadurch relativiert sich die durch die Zuschreibung bedingte Abgrenzung von Anderen. In diesem Zusammenhang erstaunt es nicht, dass ein kooperatives und annehmendes Umfeld gute Voraussetzungen für einen positiven Umgang mit der Begabung und somit auch für die Gelegenheit der Normalitätserfahrung gute Voraussetzungen liefert. Zu der vieldiskutierten Frage, ob eine vermutete "Hochbegabung" formal getestet und schließlich zertifiziert werden soll, kann somit auf Grundlage der Analyse nach der Marnier des Biografieforschers mit einem "je nach Lebenslage" Stellung genommen werden: Fühlt sich die betreffende Person mit der gegebenen Situation wohl und hat keine gravierenden, die weitere Identitätsentwicklung behindernde Schwierigkeiten und erfährt sich die besonders begabte Person als normal, so ist kritisch nach dem Nutzen einer Zuschreibung von "Hochbegabung" zu fragen. Nimmt sich die Person jedoch als ständiger Außenseiter wahr und resultieren daraus aufgrund des geringen Selbstwertes maßgebliche Schwierigkeiten in alltäglichen Situationen, so könnten die mit einer formalen Zuschreibung verbundenen Zutrittsmöglichkeiten zu entsprechenden Fördermaßnahmen durchaus eine Möglichkeit sein, Personen mit ähnlichen Erfahrungen kennenzulernen. Um diese Frage jedoch zufriedenstellend beantworten zu können, sind weitere, auf diese Frage zentrierte Untersuchungen notwendig. Ebenso sind ergänzend weitere Untersuchungen zur Identitätskonstruktion von per Zuschreibung ‚Hochbegabten’ unerlässlich, da die Methode des autobiografisch-narrativen Interviews hierbei an ihre Grenzen stößt (vgl. voriges Kapitel 8.6). Um das Moment der Etablierung einer Denkstruktur der "binären Schematisierung" und ihre Wirksamkeit zu erforschen, bedarf es unter anderem neurowissenschaftlichen Wissens, welches in dieser Arbeit nicht berücksichtigt werden konnte. Dennoch konnte anhand der Interviewtechnik des autobiografisch-narrativen Interviews erst die persönliche Relevanz der Zuschreibung von ‚Hochbegabung’ in den Biografien herausgearbeitet werden.
In der vorliegenden Arbeit wurden die Signalformen eines großvolumigen Germanium- Detektors analysiert, mit dem Ziel, den primären Wechselwirkungsort des Photons im Detektor zu bestimmen. Die experimentellen Voraussetzungen dazu bestehen erst seit der Entwicklung schneller Analog-Digital-Wandler, mit denen man in der Lage ist, Detektorsignale direkt nach dem Vorverstärker zu digitalisieren und somit einer genauen Analyse zu unterziehen. Im experimentellen Teil der Arbeit wurden dazu die von einem großvolumigen p-Typ HPGe-Detektor der "koaxial einseitig geschlossenen" Bauart gelieferten Signale abgetastet und digitalisiert. Synchron dazu wurde die Energie mit Analogelektronik gemessen. Die Messungen wurden für verschiedene Energien in Abhängigkeit vom Auftreffort des g-Quants auf dem Detektor durchgeführt. Dabei wurde der Detektor mit g- Quellen im Energiebereich bis 700keV an verschiedenen Positionen kollimiert bestrahlt. Zu den Messungen wurden Simulationsrechnungen durchgeführt, die sich in zwei Schritte gliederten. Im ersten Schritt wurden mittels des Monte-Carlo-Simulationsprogramms GEANT die Wechselwirkungsorte und die dort deponierten Energien eines g-Quants in einem Germanium-Detektor ermittelt. Im zweiten Schritt wurden daraus, unter Berücksichtigung der Detektorgeometrie und des dadurch vorgegebenen elektrischen Feldes, die Pulsformen berechnet. Aus der Anpassung der Rechnungen an die experimentellen Daten konnte über die Variation des einzigen freien Parameters der Ladungsträgerkonzentration, eine sehr gute Übereinstimmung der Anstiegszeitenverteilungen erzielt werden. Die Ladungsträgerkonzentration ließ sich damit mit einer Genauigkeit von 33% bestimmen. Durch eine Analyse der gemessenen digitalisierten Pulsformen konnte der Einstrahlort mit einer Wahrscheinlichkeit von 75,20% bestimmt werden. Dazu ist nur die Messung zweier Zeiten, der Zeit zwischen 10% und 30% der Pulshöhe und der Zeit zwischen 10% und 90% der Pulshöhe, notwendig. Die Ortsauflösung variierte dabei zwischen 4,1mm und 7,5mm. Mit Hilfe der Simulation konnten die Detektorbereiche identifiziert werden, für die eine eindeutige Zuordnung der Pulse zum Einstrahlort gelingt. Darauf aufbauend bietet die Simulation die Möglichkeit, neue Detektorgeometrien im Hinblick auf ihre Eigenschaften zur Bestimmung des Einstrahlortes zu entwickeln. Durch die Bestimmung des Einstrahlortes eines g-Quants auf dem Detektor läßt sich eine Dopplerkorrektur bei der Energiemessung von im Flug emittierten g-Quanten durchführen, die in einer deutlich verbesserten Energieauflösung resultiert.
Pion-Pion-Streuung in einem geeichten linearen Sigma-Modell mit chiraler U(2)R × U(2)L-Symmetrie
(2006)
Das Thema der vorliegenden Arbeit waren die leichten skalaren und vektoriellen Mesonen, die in einem chiral symmetrischen SU(2)-Modell zusammengefasst wurden; aufgrund der sich daraus ergebenden Lagrange-Dichte wurde die Streuamplitude für die Pion-Pion-Streuung im Vakuum berechnet, was sodann die Berechnung der s-Wellen-Streulängen an der Schwelle im Vakuum erlaubte.
Im Rahmen der vorliegenden Diplomarbeit wurde die Rolle der putativen mitochondrialen Kinase PINK1 untersucht. Die Mutationen in diesem Gen sind für die PARK6 Form von Morbus Parkinson ursächlich. Dies ist eine neurodegenerative Erkrankung, welche die Lebensqualität der Betroffenen weitgehend beeinträchtigt. Sie wird mit Dopamin-Ersatzmitteln und DBS (Deep Brain Stimulation) behandelt, beide nicht frei von Nebenwirkungen. Levodopa können bekannterweise zu schweren Fällen von Dyskinesie führen. Die Aufklärung der physiologischen Rolle von PINK1 würde den Wissenschaftlern auf dem Weg zur Früherkennung und anderen Therapiemöglichkeiten verhelfen. Die PARK6 Form der Parkinson Erkrankung wird derzeit anhand von verschiedenen Modellorganismen (M. musculus, D. melanogaster, D. rerio, C. elegans), sowie von verschiedenen Zellmodellen (HeLa, PC12, Fibroblasten aus PARK6 Patienten) untersucht. Als neuronale Zelllinie eignen sich die SH-SY5Y Zellen besonders gut für die Forschung an der durch den Verlust von dopaminergen Neuronen gekennzeichneten Parkinson-Erkrankung und sind diesbezüglich als ein relevantes Zellmodell breit akzeptiert (Xie et al.2010). In der vorliegenden Diplomarbeit wurden mit einem adenoviralen Konstrukt generierte PINK1 knockdown SH-SY5Y Zellen (M. Klinkenberg) als ein potentielles Zellmodell für die PARK6 Form von M. Parkinson analysiert. Als Kontrolle für die PINK1- abhängigen Effekte wurden NT (non target) Zellen herangezogen. Ausschlaggebend für die Wahl dieses Zellmodells war die Beobachtung, dass die PINK1 KD SH-SY5Y Zellen bei einer Reduktion des Serumgehaltes im Medium wesentlich langsamer wachsen als die NT Zellen (M. Jendrach). Die Serumdeprivation schien also der notwendige Stressfaktor zu sein, welcher zur Auslösung eines PINK1-abhängigen Phänotyps führen könnte. Daraus ergab sich die Frage, welche anderen PINK1-abhängigen Veränderungen unter Serumentzug zur Ausprägung kommen. Im Rahmen dieser Diplomarbeit wurde zunächst die relative Genexpression der PINK1 KD SH-SY5Y Zellen in Bezug auf die NT Zellen untersucht. Es zeigte sich, dass der PINK1 KD bei reduziertem Serumgehalt zur Herunterregulation weiterer Parkinsonrelevanter Gene führt, deren Produkte an verschiedenen zellulären Prozessen beteiligt sind. Die Effekte traten nur bei stabil transfizierten Zellen auf und waren durch einen transienten PINK1 KD nicht reproduzierbar. Viele dieser Gene sind für die Aufrechterhaltung der mitochondrialen Homöostase bedeutsam und deshalb wurde die mitochondriale Funktion und Erscheinung in den PINK1 KD SH-SY5Y Zellen genauer erforscht. Im Gegensatz zu früheren Befunden (Mai et al. 2010) wurde eine Herunterregulation des für die mitochondriale Teilung zuständigen Fis1-Proteins ermittelt, darüber hinaus aber keine Änderung der mitochondrialen Morphologie auch nach induziertem Zellstress beobachtet (Dagda et al. 2009, Lutz et al. 2009). Ein Defizit in der mitochondrialen Atmung wurde festgestellt, nachdem die Zellen bei 1g/L Glucose kultiviert und für 24h auf ein Galaktose-haltiges Medium transferiert wurden. Außerdem wurde ähnlich zu Amo et. 2010 al eine leicht verminderte Energieladung der betreffenden Zellen gefunden. Keine Beeinträchtigung der mtDNA-Integrität oder der Überlebensrate bei H2O2-induziertem oxidativen Stress wurde beobachtet. Weiterhin wurde untersucht, inwiefern die in den PINK1 KD SH-SY5Y Zellen beobachteten Veränderungen in der Genexpression auf weitere Zellmodelle (PINK1 KD HeLa, kortikale Neurone aus PINK1 KO und PINK1 KO / A53T alpha Synuclein überexprimierenden Mäusen) übertragbar sind. Dabei wurden einige Gemeinsamkeiten zwischen den PINK1 KD SH-SY5Y Zellen und den PINK1 KO /A53T α Synuclein überexprimierenden kortikalen Neuronen ermittelt. Angesichts des Verlustes von dopaminergen Neuronen in M. Parkinson wäre es bedeutsam nachzuvollziehen, ob und wie die verminderte Expression Parkinson-relevanter Gene in diesen PINK1 KD Zellmodellen kompensiert wird, so dass die Zellen trotz der genetischen Einschränkung bei idealisierten in vitro Bedingungen gut überleben können. Hier ist es vorstellbar, dass zusätzlicher Zellstress die Gemeinsamkeiten zwischen den PINK1 KD SH-SY5Y Zellen und den PINK1 KO / A53T SNCA überexprimierenden Neuronen erweitern könnte. Diesbezüglich wäre es auch relevant zu erforschen, unter welchen Umständen die potentiellen Kompensationsmechanismen versagen, so dass das Zellüberleben nicht mehr gewährleistet wird. Im Licht des altersbedingten Ausbruchs der Symptome bei M. Parkinson würden diese neuen Erkenntnisse dazu beitragen, die möglichen auslösenden Faktoren zu erfassen und so ein tieferes Verständnis der molekularen Mechanismen dieser schwerwiegenden Erkrankung zu erhalten.
Die Leistungsfähigkeit moderner Grafikhardware erreicht ein Niveau, auf dem sich selbst aufwändig gestaltete 3D-Szenen in kürzester Zeit berechnen lassen. Die Möglichkeiten, die diese Systeme zur Navigation und Interaktion im dreidimensionalen Raum bieten, erscheinen vielen Anwendern jedoch nicht intuitiv genug. Das Ziel der vorliegenden Arbeit war es, neue Navigations- und Interaktionstechniken für räumliche Anwendungen zu entwerfen und anhand einer prototypischen Implementierung die Eignung dieser Techniken für die Interaktion mit einem virtuellen Modell des Rubik’s Cube zu untersuchen. Da die entwickelten Verfahren ihre Tauglichkeit insbesondere bei der Interaktion über klassische Ein- und Ausgabegeräte unter Beweis stellen sollten (Maus, Tastatur und 2D-Display), waren geeignete Abbildungen der zu beherrschenden Freiheitsgrade zu konzipieren. Die Beschreibung grundlegender Aspekte der menschlichen Wahrnehmung führte zum Konzept der 3D-Metapher, welche die Durchführung einer dreidimensionalen Operation mit Hilfe von 2D-Eingabegeräten erklärt. Einzelne Interaktionsaufgaben des 3D-Raums wurden dargestellt und Beispiele von metaphorischen Konzepten für ihre Implementierung gegeben. Nach der Darstellung der am Rubik’s Cube auftretenden Interaktionsformen wurden metaphorische Konzepte für die Operationen Inspektion und Rotation entworfen und ihre besonderen Eigenschaften beschrieben; hierbei wurde zudem auf spezielle Verfahren eingegangen, die bei der Implementierung dieser Metaphern eingesetzt wurden. Im Rahmen einer Benutzerstudie wurde die Bedienung der konzipierten Interaktionsmetaphern im praktischen Einsatz getestet. Hierbei wurden insbesondere die Kriterien Intuitivität, Effizienz und Erlernbarkeit untersucht sowie die zeitliche Performance und Fehlerhäufigkeiten beim Einsatz der unterschiedlichen Werkzeuge analysiert. Die vorliegende Arbeit bietet eine Reihe von Ansätzen für künftige Erweiterungen, wie zum Beispiel die Weiterentwicklung zu einer Autorenumgebung für interaktive Anwendungen oder die Integration eines Kommunikationskanals zwischen den einzelnen Interaktionsmetaphern, um auf diese Weise auch komplexe Verhaltensmuster implementieren zu können.
Ein Schwerpunkt der physikalischen Fragestellungen, die zur Entwicklung des Dileptonenspektrometers HADES führten, ist die präzise Vermessung des invarianten Massenspektrums von Dileptonen, die in zentralen Reaktionen von relativistischen Schwerionen entstehen. In den Spektren sind die leptonischen Zerfälle der Vektormesonen enthalten. Aus Position und Breite der entsprechenden Signale kann auf eine mögliche Veränderung der Eigenschaften von Vektormesonen im dichten und heißen Kernmedium geschlossen werden. Für die Rekonstruktion der Teilchentrajektorien der Elektronen und Positronen werden die Vieldraht-Driftkammern verwendet, und unter Berücksichtigung des Magnetfelds kann der Teilchenimpuls mit hoher Genauigkeit bestimmt werden. Die hohe Impulsauflösung gepaart mit einer großen Akzeptanz und einem effektiven Trigger, ist eine notwendige Voraussetzung für das Studium von Dileptonen im SIS Energiebereich 1-2 GeV per Nukleon. Eine Flugzeitwand ermittelt über die Teilchenmultiplizität die Zentralität des Stoßes und hilft mittels der Flugzeit bei der Identifikation von Teilchen, insbesondere der Hadronen. Elektronen werden mit Hilfe spezieller Detektoren (Ringabbildender Cherenkov Detektor und Schauerdetektor) identifiziert. Ein effizientes Triggerkonzept zusammen mit einer innovativen Datenaufnahme ermöglicht, solche Ereignisse, in denen sich Dileptonenkandidaten befinden, schnell zu erkennen und dann zu registrieren, um so in kurzer Zeit eine hinreichende Statistik an Dileptonen zu erhalten. Im Rahmen dieser Forschungsarbeiten war das Ziel der Diplomarbeit, die Untersuchung des Ansprechverhaltens der Driftkammern auf Myonen aus der kosmischen Höhenstrahlung und deren Positionen relativ zur Flugzeitwand zu bestimmen. Da die Myonen aus der kosmischen Höhenstrahlung ähnliche Signale in den Vieldraht-Driftkammern hervorrufen wie die in den Schwerionenreaktionen produzierten minimal ionisierenden Teilchen, war es möglich, unabhängig von Strahlzeiten das Ansprechverhalten der Vieldraht-Driftkammern zu untersuchen. Um dieses zu erforschen, wurde zunächst ein spezieller Trigger aufgebaut, der auf Koinzidenzen von gegenüberliegenden Flugzeitwand-Sektoren beruht. So konnte das Durchqueren eines Myon-Kandidaten durch das Spektrometer registriert, und die Teilchentrajektorie vom Ein- bis zum Austritt aus diesem nachvollzogen werden. Die primären Messgrößen, wie die Driftzeiten, und die Korrelation zwischen den Driftkammern und der Flugzeitwand, wurden untersucht und mit Daten aus dem Strahlzeit-Experiment vom November 2001 C+C bei 1,9 GeV per Nukleon verglichen. Weiterhin wurde nach Entwicklung einer Myonen-Kandidatensuche die Effizienz der Driftkammern analysiert. Dabei stellte sich heraus, dass die Driftkammerebenen des Sektors 1 eine Nachweiswahrscheinlichkeit für kosmische Myonen von über 93% aufzeigen. Eine Optimierung der Methode hinsichtlich der Ortsauflösung und Korrelationen zu anderen Drahtebenen oder Driftkammern anderer Ebenen kann in Zukunft in Angriff genommen werden. Da die Intensität der Myonen gering ist, und sie in den meisten Fällen das Spektrometer auf geraden Bahnen durchqueren, sind Vieldeutigkeiten minimiert. So war es möglich, die Positionen der Driftkammern relativ zur Flugzeitwand mit einer Genauigkeit, die durch die Ortsauflösung der Szintillatoren der Flugzeitwand dominiert ist, zu ermitteln. Im Vergleich zu den Standard-Justierungsparametern ergeben sich Abweichungen von bis zu 37,73 mm für die Relativpositionen der Vieldraht-Driftkammern im Vergleich zur Flugzeitwand mit einer Ungenauigkeit von maximal ±7 mm. Um die für das invariante Massenspektrum der Dileptonen notwendige Massenauflösung zu erreichen, wird empfohlen, die Relativpositionen der Driftkammern zueinander und zum Magnetfeld zu bestimmen. Hierfür muss die exakte Ortsinformation des Durchstoßpunktes des Myons auf die Driftkammer über eine Anpassung der Trajektorie berechnet werden. Daraufhin können die Positionen der Driftkammern relativ zueinander mit einer Genauigkeit von < 100 mm ermittelt werden.
Wiki-Systeme im eLearning
(2006)
Wiki-Systeme lassen sich in den verschiedensten Anwendungsgebieten auf angenehme Weise, aufgrund ihrer Open-Source Lizenz, durch die Anreicherung entsprechender Zusatzmodule anpassen. An dieser Stelle muss jedoch bedacht werden, dass durch die Integration vermehrter Funktionen, das charakteristische Merkmal der Wiki-Systeme 'Einfachheit' an Präsenz verlieren kann. Dieses, für Wikis typische Charakteristikum ist eine nicht zu unterschätzende Stärke, da sowohl die Expansion der Enzyklopädie Wikipedia, als auch die zunehmende Anzahl bestehender Wikis im Internet geradezu Beweis dafür sind, dass keine anderen Anwendungen in diesem Verhältnis existiert haben. Würde somit das Wiki, aufgrund der Anpassung an ein vorliegendes Konzept an Einfachheit verlieren, so müssten die Beweggründe des Wiki-Einsatzes noch mal überdacht werden. Ebenso könnte in den Bereichen, in denen die Stärken von Wikis unbrauchbar sind, ein anderes System womöglich bessere Ergebnisse liefern als ein Wiki. Aus diesen Gründen sollte vor einem Wiki-Einsatz überprüft werden, ob die vorhandenen Merkmale und Funktionen eines Wikis mit den eigenen Anforderungen übereinstimmen. Die im Rahmen dieser Arbeit durchgeführte Befragung hat gezeigt, das Wikis größtenteils als Präsentationsmedium, zur gemeinsamen Texterstellung und als Informationsplattform genutzt werden. Es ist deutlich geworden, dass die Integration von Wikis im Lehrbereich geeignete Anwendung findet. Auffallend war, dass zwar bei (fast) allen Befragten Schwierigkeiten aufgetreten sind und sogar erhoffte Erwartungen teilweise nicht erfüllt wurden, dennoch war der größte Teil der Befragten mit dem Wiki-Einsatz zufrieden und bewertete diesen als positiv. Die Art der aufgetretenen Schwierigkeiten und Schwachstellen zeigt, dass den Lehrenden gewisse Anleitungen und Richtlinien für einen erfolgreichen Wiki-Einsatz fehlten. Denn Informationen zum didaktischen Rahmen - in denen Wikis eingesetzt werden können - und wie Wikis eingesetzt werden sollen, waren nicht vorhanden. Somit sollen die - in dieser Arbeit - erarbeiteten Empfehlungen und Kriterien, Lehrende zu einem optimierten Wiki-Einsatz in Lehrveranstaltungen verhelfen. Außerdem sind in dieser Arbeit Vorgaben enthalten, wie Wiki-Einsätze von Lehrenden gestaltet werden können, so dass die häufig auftretenden Probleme vermieden werden können. Die erarbeiteten Empfehlungen und Kriterien sind gleichermaßen aus den positiven, wie auch aus den negativen Erfahrungen der Befragten entstanden. Insbesondere sollen die Empfehlungen und Kriterien, die von den Befragten permanent beklagten auftretenden Schwierigkeiten und Probleme verhindern. Eine Garantie jedoch, dass die Einhaltung dieser Empfehlungen und Kriterien zu einem erfolgreichen Wiki-Einsatz führen und ob keine relevanten Kriterien unbeachtet gelassen sind, kann an dieser Stelle nicht gegeben werden. Ob sich nun die Probleme, die sich mit Wiki-Einsätzen wiederholt ergeben haben, durch die Befolgung dieser Kriterien und Empfehlungen vermeiden lassen, könnte im Rahmen einer nachfolgenden Diplomarbeit untersucht werden, in der Wiki- Einsätze, begleitet werden. Weiterhin sollte im Rahmen einer weiteren Arbeit die Situation der Lernenden und die Auswirkung auf das Lernverhalten in Verbindung mit Wiki-Systemen evaluiert werden, so dass einige Thesen dieser Arbeit belegt oder gar widerlegt werden können.
Beim zentralen Stoß zweier ultrarelativistischer Schwerionen wird ein Zustand extremer Dichte und Temperatur erzeugt, der die Bildung des postulierten Quark-Gluon-Plasmas ermöglichen sollte. Diese neue Phase von Kernmaterie zeichnet sich dadurch aus, daß Quarks und Gluonen ohne den unter Normalbedingungen herrschenden Einschluß in Hadronen frei beweglich sind. Das Experiment NA49 am CERN SPS untersucht Kollisionen von 208Pb-Kernen. Dazu wird ein Bleistrahl mit einer Energie von 158 GeV/Nukleon auf ein im Laborsystem ruhendes Bleitarget geschossen. Das Detektorsystem ist auf den Nachweis des hadronischen Endzustands der Reaktion spezialisiert und erlaubt die Messung von mehr als 60% der etwa 2000 produzierten Hadronen. Diese große Zahl von meßbaren Teilchen macht die Untersuchung von Spektren einzelner Ereignisse möglich, die mit dem über alle Ereignisse gemittelten Spektrum verglichen werden können. Damit will man Fluktuationen von Ereignis zu Ereignis, sogenannte Einzelereignisfluktuationen, nachweisen. Um eine von der Unterteilung der Spektren in Bins unabhängige Untersuchung durchführen zu können, wurden die Einzelverteilungen mit Hilfe von Wavelettransformationen in eine Vielskalendarstellung überführt. Durch die anschließende Berechnung von faktoriellen Momenten der Waveletkoeffizienten war daher eine Korrelationsanalyse auf verschiedenen Skalen möglich. Es wurden breit angelegte Simulationen durchgeführt, die quantitative Aussagen über das Verhalten der faktoriellen Waveletmomente bei verschiedenen Arten der Eingangsverteilungen - als Beispiel seien hier flach- und gaußverteilte Spektren genannt - möglich machten. Die Multiplizitätsabhängigkeit der Verteilungsbreite der faktoriellen Waveletmomente der Ordnung q von Ereignissen mit gleichverteilten Einträgen ergab sich so zu einer Gesetzmäßigkeit von der Form sigma q(m) ~ m exp (-q/2). Die Untersuchungen der experimentell erhaltenen p-Spektren zeigten im Rahmen der statistischen Fehler auf keiner Skala eine signifikante Abweichung von den aus Simulationen mit rein zufälligen Einträgen erhaltenen Ergebnissen. Im Vergleich mit Simulationsrechnungen wurde eine obere Grenze für das Auftreten lokaler nichtstatistischer Fluktuationen gesetzt. Solche Fluktuationen werden z.B. in DCC-Modellen vorhergesagt. Die in der Analyse der Waveletmomente festgestellte Abwesenheit lokaler Fluktuationen steht in qualitativer Übereinstimmung mit der Analyse globaler Einzelereignisvariablen (z.B. <p-i->), die ebenfalls auf ein System mit minimalem Korrelationsinhalt hinweisen.
In der vorliegenden Arbeit wurde eine Quelle für negative Ionen vorgestellt. Grundlage ist eine Mikro-Struktur-Elektrode, kurz MSE genannt. Diese besteht aus zwei Wolfram-Elektroden, die durch eine 100 mikrometer dicke Keramikfolie elektrisch getrennt werden. Eine Pore, die durch alle drei Schichten mit einem Laser gebohrt wird, dient zugleich als Düse für eine Überschall- Gasexpansion und als Volumen, in dem die Entladung brennt. Aus dem sehr geringen Elektrodenabstand resultieren auch bei vergleichsweise niedrigen Spannungen unter 1000 V ausreichend hohe Felder, um eine selbstständige Gasentladung bei Drücken von 0,1 bar bis hin zu mehreren bar zu gewährleisten. Mit Hilfe einer so generierten Entladung lassen sich die Bedingungen für die Bildung zahlreicher negativer Ionen schaffen. So können atomare Anionen wie H- oder O- auf sehr einfache Weise hergestellt werden. Des Weiteren gelingt es, eine Reihe molekularer Ionen zu erzeugen, wie etwa CH-, NO-, O-2 und O2H-. Da als Grundlage nur elementare Gase benutzt wurden, wird die Bildung von zum Beispiel NO- in der Regel über zwei oder mehr aufeinander folgende Prozesse verlaufen. Die elektrische Verschaltung der MSE ist derart gepolt, dass positive Ionen in Strahlrichtung beschleunigt werden. Entgegen ersten Vermutungen gelingt es den negativen Ionen, mit Hilfe des Gasflusses gegen das elektrische Feld in den Expansionsbereich zu gelangen. Die Brenneigenschaften des Plasmas sind hierbei erheblich besser als im Fall einer umgekehrten Polung. Dies ist vermutlich vor allem darauf zurückzuführen, dass im ersten Fall nur wenige Elektronen in die Expansionskammer gelangen. Die ebenfalls erzeugten Kationen [Schößler02] sorgen weiterhin für eine Verminderung der negativen Raumladung. Die Divergenz der Anionen wird daher bedeutend geringer, was vor allem vor Erreichen der Beschleunigungsstrecke von Bedeutung ist. Insgesamt besticht der Aufbau vor allem durch seine Kompaktheit. Die eigentliche Ionenquelle besteht aus einem 150 mikrometer dicken Plättchen mit 2,4 cm x 2,4 cm Außenmaß und einem Entladungsvolumen von 10-3 mm3. Benutzt man statt einer magnetischen Massenseparation ein Quadrupol-Spektrometer, sollte es möglich sein nach ca. 1 m Strahllänge einen fokussierten Ionenstrahl beliebiger in der Quelle erzeugbaren Ionen bereitstellen zu können....
Aufbau und Test einer COLTRIMS-Apparatur zur Untersuchung der Ionisation von metastabilem Helium
(2007)
In der vorliegenden Arbeit wurde ein COLTRIMS-Experiment, zur Untersuchung eines angeregten, spinpolarisierten Gastargets in starken Laserfeldern, aufgebaut. Das zu untersuchende kalte Gastarget wird durch eine Überschallexpansion in der Quellkammer erzeugt. Zusätzlich wird in der dafür vorhergesehenen Düse über eine Gleichstromentladung in einer MSE ein Plasma im Gas gezündet. Dieses Plasma regt einen Teil der Gasatome in den gewünschten spinpolarisierten Zustand an. Für den Aufbau der Düse wurde auf das bereits bewährte Prinzip von [Jah02] zurückgegriffen und dieses im Detail verbessert. Die Stromzufuhr für die Hochdruckseite der MSE (s. Kap. 3.3.2) verläuft jetzt entlang der Gaszuleitung während die Niederdruckseite der MSE über das Düsengehäuse geerdet ist. Durch diese Vorgehensweise wird ein ungewolltes Brennen des Plasmas außerhalb der Düse unterbunden. Zudem ist die MSE nun von außen mit dem Düsendeckel verschraubt und lässt sich so leichter austauschen. Für eine längere Brenndauer (10-15 h) des Plasmas werden die stabileren Kupfer- oder Wolfram-MSEs verwendet. Die Separation der (", ")-Zustände erfolgt durch einen eigens für dieses Experiment angefertigten Hexapolpermanentmagneten [Jah02]. Der Strahl wird zwecks einer maximalen Ablenkung des gewünschten spinpolarisierten Anteils nahe eines Pols eingeschossen. Die Kenntnis über die Strahlqualität nach der Expansion sowie die zusätzliche Fokussierungseigenschaft des Magneten lassen auf einen gut lokalisiertes Target schließen. Nach vorangegangen Berechnungen beträgt die Targetdichte ca. 5·10exp6 /cmxcm bei einer Fokusausdehnung von ca. 1-2 mm. Diese Werte beschreiben jedoch nur einen Mittelwert, da es durch die Abnutzung der MSEs und deren Wechsel zu verschiedenen Brennzuständen des Plasmas kommen kann. Der Laserstrahl wird unter Verwendung eines Periskops orthogonal zu der um 3° gekippten Tragetstrahl-Spektrometer-Ebene eingeschossen. Er kreuzt den Targetstrahl in der Mitte des Spektrometers, welches dafür verantwortlich ist die Fragmente der Reaktion mit Hilfe eines elektrischen und magnetischen Feldes in Richtung der Delayline-Detektoren zu lenken. Dies ermöglicht eine genaue Untersuchung der Reaktion mit einer Raumwinkelakzeptanz von 4 Pi. Aufgrund des winzigen Fokusvolumens des Lasers kann auf eine Flugzeit- sowie Ortsfokussierung der Teilchen verzichtet werden. In diesem Experiment sollen anhand der Koinzidenz-Imaging-Technik von COLTRIMS Doppelionisationsprozesse von spinpolarisiertem Helium in starken Feldern untersucht werden. Eine besondere Aufmerksamkeit soll dabei der relativ neuen „Rescattering“-Theorie geschenkt werden. Bei diesem nichtsequentiellen Doppelionisationsmechanismus wird ein Elektron durch einen Laserpuls aus dem Atom gelöst. Durch das weiterhin anhaltende, oszillierende Laserfeld nimmt das Elektron genügend kinetische Energie auf, um zu dem Atom zurückzukehren und mit dem zweiten Elektron zu stoßen und dieses zu ionisieren. Das vorliegende Experiment kann somit als Elektronenstoßexperiment angesehen werden, bei dem sowohl Target als auch Projektil polarisiert sind. Die geplanten Messungen konnten leider aufgrund eines langanhaltenden Defekts des Frankfurter Lasersystems nicht durchgeführt werden. Erste Testmessungen zeigen allerdings, dass alle Einzelkomponenten des Aufbaus funktionieren. Der spinpolarisierte Heliumstrahl konnte erzeugt werden und der zu untersuchende Anteil verläuft mittig durch das COLTRIMSS-Pektrometer. Die beiden Delayline Detektoren wurden in Betrieb genommen und in einer Testmessung mit Argongas optimiert. Erste Flugzeitmessungen zeigen, dass auch das konzipierte Spektrometer entsprechend den Erwartungen funktioniert und auch die restliche Messelektronik einsatzbereit ist.
Im Rahmen dieser Diplomarbeit wurde eine Detektor-Sonde entwickelt, um Strahlprofile eines Ionenstrahls entlang der gekrümmten, geometrischen Achse eines Toroidsektormagneten zu messen. Bei der Konstruktion der Sonde musste die zuverlässige Messwerterfassung im Vakuum und innerhalb magnetischer Felder von bis zu 0,6 T berücksichtigt werden. Im theoretischen Teil werden die Theorie zum Strahltransport in den verwendeten Bauteilen, sowie die Funktionsweise eines Phosphor-Schirms (P20) dargelegt. Im experimentellen Teil wird die bewegliche Sonde, der verwendete Versuchsaufbau, sowie die Messungen und deren Auswertung näher beschrieben. Im abschließenden Fazit wird auch auf Alternativen zu der verwendeten Messmethode und deren Vor- und Nachteile eingegangen.
Das Ziel des Experiments war es, den Einfluss des Valenzelektrons im Kaliumatom auf die Kernabschirmung zu untersuchen. Es wurde mit Hilfe von Laserpulsen mit einer Dauer von 120 fs entfernt. Die Ionisation oder Anregung der K-Schale der Kaliumatome sowie der Kaliumionen wurde mit hochenergetischen Röntgenphotonen realisiert. Um die daraus entstandenen Auger-Elektronen ohne störenden Untergrund messen zu können, wurde ein 4π Flugzeitspektrometer nach dem Prinzip der magnetischen Flasche eingesetzt. Es wurde gezeigt, dass nach dem Entfernen des Valenzelektrons die Kernabschirmung des Kaliumatoms zunimmt, was eine Änderung der Energie der K-Schale zu Folge hat. Diese Änderung von 3 eV trat bei einem Vergleich der Ionisationskurven für Kaliumatome und Kaliumionen deutlich hervor. Die Höhe der Änderung lässt darauf schließen, dass sie im Zusammenhang mit der Ionisierungsenergie des entfernten 4s-Elektrons steht. Durch die Verwendung des Femtosekunden-Laserpulses in Verbindung mit den Röntgenstrahlen des Synchrotrons sollte der Auger-Prozess zeitaufgelöst dargestellt werden. Eine Messung des Verhältnisses der Elektronenraten in Abhängigkeit von der zeitlichen Verzögerung zwischen Laser- und Röntgenstrahlen ergab eine Länge des Röntgenpulses von 66 ps (± 5 ps), was für zeitaufgelöste Untersuchungen des in Femtosekunden ablaufenden Auger-Prozesses zu lang ist. Jedoch zeigt das Experiment, dass bei einer hinreichenden Verkürzung der Röntgenpulse zeitaufgelöste Untersuchungen im Bereich von Femtosekunden möglich sind. Für die Zukunft ist an der ALS eine weitere Beamline geplant, welche Röntgenpulse im fs-Bereich produzieren kann. Durch Verwenden dieser kurzen Röntgenpulse wären weitere Experimente zur zeitaufgelösten Darstellung des Auger-Prozesses denkbar. Bis zu diesem Zeitpunkt sollen weitere Experimente zur Untersuchung „langsamer“ dynamischer Vorgängen in Atomen und Molekülen, zum Beispiel die Dissoziation von Molekülen auf einer Pikosekunden Zeitskala, durchgeführt werden.
Eine nichtgeometrische Konstruktion der Spektren P(n) und multiplikative Automorphismen von K(n)
(1995)
Über die Anzahlfunktion π(x)
(1999)
Bereits Euklid wusste, dass es unendlich viele Primzahlen gibt. Euler zeigte die qualitative Aussage ¼(x) x ! 0 bei x ! 1. Legendre definierte als erster die Anzahlfunktion ¼(x) als die Anzahl aller Primzahlen · x, (x 2 R) und vermutete irrtümlicherweise, dass ¼(x) = x log(x)¡B; wobei lim x!1 B(x) = 1; 083 66 : : : ist. Gauss vermutete, dass die Funktionen ¼(x) und li(x) := lim "!0 ">0 0@ u=1¡" Z u=0 du log(u) + u=x Z u=1+" du log(u)1A asymptotisch Äquivalent sind. Tschebyschew konnte die Legendresche Vermutung widerlegen; außerdem bewies er: Wenn der Grenzwert lim x!1 ¼(x) x log(x) existiert, so muss dieser gleich 1 sein. Dank wegweisender Vorarbeiten von Riemann, gelang es im Jahr 1896 unabhängig voneinander und nahezu zeitgleich Hadamard und De La Vallee Poussin, den Primzahlsatz analytisch zu beweisen. Beide verwendeten entscheidend die Tatsache, dass die Zetafunktion ³ in der Halbebene Re(s) ¸ 1 nicht verschwindet. Die Beweise waren zuerst so lang und kompliziert, dass sie heutzutage nur noch einen historischen Wert besitzen. Es dauerte weitere 84 Jahre bis der Beweis so vereinfacht werden konnte, dass er nur wenige Seiten in Anspruch nimmt. Ein wichtiger Verdienst kommt hierbei der Arbeit von Newman aus dem Jahre 1980 zu. Lange Zeit wurde es für kaum möglich gehalten, einen Beweis des Primzahlsatzes zu finden, der ohne eine gewisse Kenntnis der komplexen Nullstellen der Zetafunktion auskommt. Und doch glückte 1948 ein solcher Beweis durch Selberg und Erdös mit elementaren Mitteln. Erwähnenswert dabei, dass der Beweis noch lange nicht einfach ist. Uns schienen die analytischen Beweise durchsichtiger zu sein. Daher haben wir in dieser Arbeit auf einen elementaren Beweis verzichtet. Der analytischen Weg zum Primzahlsatz von Newman kommt einerseits mit Integration längs endlicher Wege (und der Tatsache ³(s) 6= 0 in ¾ ¸ 1) aus, umgeht also Abschätzungen bei 1; andererseits ist er frei von Sätzen der Fourier-Analysis. Beim Beweis des Primzahlsatzes von Wolke benutzt man anstelle von ³0(s) ³(s) die Funktion ³ 1 k mit großen k. Wegen des Pols bei s=1 bringt dies bei der Integration leichte Komplikationen, hat aber den Vorteil, dass außer der Nullstellen-Freiheit keine nichttriviale Abschätzung für ³ oder ³0 erforderlich ist. Dank der elementaren Äquivalenz zwischen dem Primzahlsatz und der Konvergenz von 1Pn=1 ¹(n) n brauchte Newman nur die Konvergenz von 1Pn=1 ¹(n) n zu zeigen. Dies erreichte er mit Hilfe seines Konvergenzsatzes. Die Legendresche Formel, die auf dem Sieb des Eratosthenes basiert, erlaubt die exakte Berechnung von ¼(x), wenn alle px nicht übersteigenden Primzahlen bekannt sind. Diese prinzipielle Möglichkeit zur Ermittlung von ¼(x) ist in der Praxis natürlich stark limitiert durch die mit x rasch anwachsende Anzahl der rechts in der Legendresche Formel zu berücksichtigenden Summanden. Mit verfeinerten Siebtechniken haben verschiedene Autoren zur Legendresche Formel analoge Formeln ¼(x) ersonnen, bei denen der genannte Nachteil von Legendresche Formel sukzessive reduziert wurde. Zu erwähnen sind hier vor allem Meissel, Lehmer, sowie Lagarias, Miller und Odlyzko. Aus den Graphen von R(x)¡¼(x); li(x)¡¼(x) und x log(x) ¡¼(x) für den betrachteten Bereich x · 1018 konnten wir feststellen, dass R(x); li(x) sowie x log(x) die Anzahlfunktion Pi (x) annähern, wobei R(x) die beste Approximation für Pi(x) von allen drei ist.
In dieser Arbeit definieren wir ein Maß für den Grad der Mehrdeutigkeit (degree of ambiguity da) kontextfreier Grammatiken und Sprachen als die Anzahl der Ableitungsbäume in Abhängigkeit von der Länge n eines Wortes. Wir zeigen, dass es weder Sprachen noch zyklenfreie Grammatiken gibt, deren Mehrdeutigkeitsgrad stärker als 2£(n) wächst (wie z B. £(nn)). Aus [10] ist es außerdem bekannt, dass es keine Grammatiken (und somit keine Sprachen) gibt, deren Mehrdeutigkeit stärker als polynomiell, aber schwächer als exponentiell wächst (wie z. B. £(2pn). Deshalb untersuchen wir in dieser Arbeit hauptsächlich konstant mehrdeutige, polynomiell mehrdeutige und exponentiell mehrdeutige Grammatiken und Sprachen. Für jede feste, ganze Zahl k 2 N hat Maurer [8] die Existenz einer k-deutigen kontextfreien Sprache nachgewiesen. Durch Verwendung einer einfacheren Sprache, nämlich der Sprache Lk := fambm1 1 bm2 2 : : : bmk k jm;m1;m2; : : : ;mk ¸ 1; 9 i mit m = mig, und mit Hilfe von Ogden's Lemma1 erhalten wir einen wesentlich kürzeren Beweis. Ferner zeigen wir die Existenz exponentiell mehrdeutiger Sprachen. Wir zeigen, dass die Sprache L¤ { wobei L = faibicj ji; j ¸ 1g [ faibjciji; j ¸ 1g-exponentiell mehrdeutig ist, indem wir beweisen, dass das Wort (ah+h!bh+h!ch+h!)k mindestens 2k Ableitungen in jeder Grammatik G für L¤ hat, wobei k aus N ist und h die Konstante aus Ogden's Lemma für G ist. Für beliebig kleines c aus R+ entwerfen wir eine Grammatik Gc für L¤, so dass daGc · 2cn gilt. Somit gilt, dass die Sprache L¤ zwar exponentiell mehrdeutig ist, aber es gibt kein festes c aus R+ , so dass L¤ 2cn-deutig ist. Wir geben polynomiell mehrdeutige Grammatiken an und zeigen die Existenz von polynomiell mehrdeutigen Sprachen, indem wir mit Hilfe von Ogden's Lemma beweisen, dass die Anzahl der Ableitungsbäume eines Wortes der Länge n in jeder Grammatik für die Sprache Lk in der Größenordnung von (nk) liegt, wobei k eine Konstante aus N ist, und L := fambm1cbm2c : : : bmpcjp 2 N; m;m1;m2; : : : ;mp 2 N; 9i 2 f1; 2; : : : ; pg mit m = mig gilt. Durch Angabe einer O(nk){deutigen Grammatik zeigen wir schließlich, dass Lk polynomiell vom Grad k mehrdeutig ist. Außerdem entwerfen wir für jedes feste d aus R+ eine Grammatik Gd für L, so dass daGd · dn dn für genügend großes n ist.
Mit Hilfe von Torsionsexperimenten in einem Temperaturbereich von 350° C bis 470° C und einer Anregungsfrequenz von 2*10^{-3} bis 20 Hz ist der komplexe Schermodul G* von Lithiumdisilikatgläsern, welche sich durch einen unterschiedlichen Kristallgehalt auszeichnen (4 Proben, Kristallgehalt: Glas 0=0%, Glas 1=19%, Glas 3=22% und Glas 5=27%), gemessen worden. Hierdurch können weitere rheologische Eigenschaften der Gläser wie der Dämpfungsfaktor \( Q^{-1}, die Viskosität eta und die Aktivierungsenergie E_{alpha} einer Diffusion ermittelt werden. Die Auswertung der Rohdaten des Betrages des komplexen Schermoduls G* und der dazugehörigen Phasenverschiebung phi der Glasproben zeigen eine Zunahme des jeweiligen Wertes bei Erniedrigung der Frequenz und Erhöhung der Temperatur bei steigendem Kristallgehalt. Dies ist dadruch erklärbar, daß ein effektives Schermodul gemessen wird, welches sich aus dem Schermodul der Glasschmelze und dem Schermodul der Kristalle zusammensetzt. Bei Erhöhung der Temperatur erweicht die Glasschmelze langsam, während die Kristalle gegenüber der Glasschmelze hart bleiben. Dies führt zu einem effektiv höheren Schermodul. In den Rohdaten ist bei allen Glasproben die gleiche lineare Zunahme des Dämpfungsfaktors Q^{-1} mit Erniedrigung der Anregungsfrequenz und Erhöhung der Temperatur festzustellen. Somit kann gesagt werden, daß Q^{-1} bei diesen Temperaturen und Anregungsfrequenzen unabhängig vom Kristallgehalt ist. Die gemessenen Werte von Q^{-1} liegen in einem Bereich von 1-0,001. Diese lineare Zunahme bleibt bis hin zu einer Temperatur von 456°C bei Glas 0 und 470°C bei Glas 5 erhalten. Erst dann zeigt sich in einem Anregungsfrequenzbereich von \( 2*10^{-3} - 10^{-2} Hz eine leichte Änderung von Q^{-1} mit steigendem Kristallgehalt. Bedingt durch die Schranken, daß nicht bei höheren Temperaturen als 470°C gemessen werden darf und daß die minimale Anregungsfrequenz der Torsionsmaschine bei 2*10^{-3} Hz liegt, kann diese Änderung in Q^{-1} nicht weiter untersucht werden. Der in der Seismologie interessante Bereich, welcher bei Q^{-1} < 0,01-0,001 liegt, konnte bei diesen Experimenten nicht erreicht werden, da die technischen Voraussetzungen der Torsionsmaschine nur eine genaue Messung von Q^{-1}\approx 0,01 erlauben. Vorliegende Meßdaten, die ein kleineres Q^{-1} als 0,01 aufweisen, streuen zu sehr und sind somit für eine verläßliche Aussage für die Seismologie unbrauchbar. Mit Hilfe des Verfahrens der Masterkurven konnte gezeigt werden, daß sich die rheologischen Eigenschaften von Lithiumdisilikatglas nicht durch einen Maxwell-Körper beschreiben lassen sondern hierzu ein generalisierter Maxwell-Körper nötig ist. Die voneinander unabhängigen Berechnungen der Aktivierungsenergie aus dem Dämpfungsfaktor Q^{-1} und aus den Masterkurven zeigen innerhalb der Fehlerschranken keine Veränderung der gemessenen Werte der Aktivierungsenergie auf. Die Werte sind jedoch fast um die Hälfte kleiner als der in der Literatur angegebene Wert. Es ist ein Verfahren entwickelt worden, welches unter gewissen Voraussetzungen mit Hilfe des Konzeptes der Masterkurven eine Bestimmung einer unbekannten Viskosität eines viskoelastischen Materials bei der Temperatur \( \widetilde{T} \) in Abhängigkeit des Kristallgehaltes ermöglicht. Voraussetzung zur Bestimmung der unbekannten Viskositäten bei unterschiedlichen Kristallgehalten ist es, daß zumindest eine Viskosität bei der Temperatur \( \widetilde{T} \) und ein Kristallgehalt bekannt sind und daß sich die Form des Spektrums des generalisierten Maxwell-Körpers, der das Glas beschreibt, bei einer Variation des Kristallgehaltes nicht verändert. Des weiteren konnte gezeigt werden, daß die Einstein-Roscoe-Formel, welche die effektive Viskosität einer Flüssigkeit in Abhängigkeit der Kristallgeometrie und des Kristallgehaltes beschreibt (15), auch auf die Lithiumdisilikatglasproben, welche einen unterschiedlichen Kristallgehalt jedoch weniger als 30% aufweisen, anwendbar ist.