Refine
Year of publication
Document Type
- Doctoral Thesis (216)
- Article (100)
- diplomthesis (96)
- Bachelor Thesis (67)
- Contribution to a Periodical (46)
- Master's Thesis (41)
- Book (31)
- Diploma Thesis (31)
- Part of Periodical (27)
- Preprint (7)
Language
- German (696) (remove)
Is part of the Bibliography
- no (696)
Keywords
- Ionenstrahl (9)
- Strahldynamik (7)
- Teilchenbeschleuniger (7)
- Emittanz (5)
- RFQ (5)
- Toroidales Magnetfeld (5)
- Beschleunigerphysik (4)
- Ionenbeschleuniger (4)
- Schwerionenphysik (4)
- Speicherring (4)
Institute
- Physik (696) (remove)
Das HADES-Experiment (High Acceptance DiElectron Spectrometer) am SIS der GSI wurde zur Messung der e+e−-Paare dileptonischer Zerfälle der leichten Vektormesonen im Energiebereich von 1 − 2 AGeV entwickelt. Eine der Hauptanforderungen an das Spurverfolgungssystem des Spektrometers ist eine Ortsauflösung von 100 μm, die benötigt wird, um die geforderte Massenauflösung von 1 % im Bereich der !-Masse zu erzielen. Das Spurverfolgungssystem besteht aus vier Ebenen mit Vieldrahtdriftkammern (Multi-wire Drift Chambers (MDCs)) niedriger Massenbelegung (low-mass), die aus je 6 Auslesedrahtebenen bestehen. Die primäre Messgröße von Driftkammern ist die Driftzeit der entlang einer Teilchenspur generierten Elektronen der Primärionisation zum Auslesedraht. Um die gemessene Driftzeit in eine Ortskoordinate umrechnen zu können, ist eine genaue Kenntnis der Ort-Zeit-Korrelation der Driftzellen und eine präzise Kalibrierung der gemessenen Zeiten nötig. Im Rahmen dieser Arbeit wurde eine neue Methode zur Bestimmung der Kalibrierungsparameter der Driftzeiten mittels der Einkoppelung eines externen elektrischen Pulses auf die Drahtebenen der Driftkammern entwickelt und mit der herkömmlichen Methode der Kalibrierung verglichen. Zur Kalibrierung wurden elektrische Pulse durch die Hochspannungsverteilung der Driftkammern auf die Potentialdrahtebenen geleitet und somit Signale auf die Signaldrähte induziert. Die Ausbreitungsgeschwindigkeit der Signale auf den Drähten, die zur Berücksichtigung der Laufzeiten benötigt wird, wurde experimentell bestimmt. Die Genauigkeit der Methode zur Bestimmung der Kalibrierungsparameter übertrifft die Auflösung der Driftzeitmessung der Driftkammern. Die Kalibrierung der Driftzeiten benötigt nur wenig Rechen- und Zeitaufwand und stellt die Kalibrierungsparameter in gleich hoher Präzision für alle Driftzellen zur Verfügung. Die Qualität der Kalibrierung wird im Gegensatz zur herkömmlichen Methode prinzipbedingt nicht durch Fluktuationen der Startzeit des jeweiligen Stoßereignisses und die Flugzeit der dabei emittierten Teilchen zu den Driftzellen, sowie des elektronischen Rauschens beeinflusst. Die Qualität der Kalibrierung konnte gegenüber der herkömmlichen Methode signifikant verbessert werden. Die Auswirkung der Kalibrierungsparameter auf die Spurrekonstruktion wurde untersucht und für die beiden Kalibrierungsmethoden verglichen. Die Ergebnisse lassen keinen eindeutigen Schluss auf die Auswirkung der Fehler in der Kalibrierung auf die Qualität der Spurrekonstruktion zu, da die Ergebnisse der Spurrekonstruktion von anderen Effekten dominiert werden.
Zur Erforschung des Strahlstransports durch zwei Toroidsegmente wurden im Rahmen dieser Arbeit theoretische Betrachtungen, Simulationen und experimentelle Untersuchungen durchgeführt. Dazu wurde ein toroidaler Teststand, bestehend aus zwei 30 Grad Toroidsegmenten mit einer magnetischen Feldstärke von 0,6 T und einer Driftsektion zwischen diesen beiden Magneten von 400 mm Länge, verwendet. Von einer Volumenionenquelle wurde ein Wasserstoffionenstrahl erzeugt und dieser mittels eines Solenoids angepasst und in das erste Toroidsegment eingeschossen. Mit Hilfe eines beweglichen Detektors konnte der Ionenstrahl an jeder Position im Rezipienten beim Transport durch den toroidalen Aufbau experimentell untersucht und vermessen werden.
Bei den Experimenten mit dem vorhandenen Detektor konnten auf den Aufnahmen der Leuchtdichteverteilung starke Sekundärelektroneneffekte beobachtet werden, welche die Untersuchung des Ionenstrahls mit dem Detektor erschwerten oder teilweise ganz unmöglich machten. Aus diesem Grund wurde zur Unterdrückung dieser Elektronen eine Wasserstoffatmosphäre im Rezipienten aufgebaut, welche die Elektronen stärker absorbiert als die Ionen und damit die Beobachtung des Ionenstrahls ermöglichen sollte. Auf diesem Wege lässt sich das transversale Verhalten des Strahls beim Strahltransport durch die toroidalen Magnetfelder mit dem vorhandenen Detektor untersuchen. Die Auswirkungen des Wasserstoffgases auf die geladenen Teilchen wurden dabei theoretisch und experimentell untersucht und analysiert. Die Auswirkung von Helium-, Stickstoff- und Argongas auf den Ionenstrahl und die Elektronen wurde in diesem Zusammenhang experimentell betrachtet.
Des Weiteren wurde mit Hilfe des Computerprogramms TBT der Strahltransport durch die zwei toroidalen Magnetfeldsegmente unter Verwendung von Referenzeinstellungen simuliert und die Ergebnisse mit den theoretischen und experimentellen Daten des Strahltransports verglichen. Bei diesen Simulationen konnten die Gyrationsbewegungen sowie die Transmission des Ionenstrahls durch die Driftsektion genauer untersucht werden.
Da die Magnetfelder der Toroidsegmente auch in der Driftsektion als Führungsfelder dienen sollen, sind die im experimentellen Aufbau verwendeten Toroidsegmente nicht magnetisch geschirmt. Dies hat zur Folge, dass das von den Magneten erzeugte Feld Auswirkungen auf andere Komponenten des toroidalen Teststandes besitzt. Aus diesem Grund wurden die Auswirkungen dieser Magnetfelder auf die Ionenquelle sowie auf das Druckmesssystem des Teststands genauer betrachtet.
Epileptische Anfälle, unabhängig von ihrer Art und Auftrittshäufigkeit, bilden eine Symptomatik, welche bei ca. 1% der Weltbevölkerung auftritt. Hierbei kann es beispielsweise zu unkontrollierten Muskelkrämpfen kommen, ebenso aber zu einer Vielzahl anderer Symptome, die in ihrer Gesamtheit das Krankheitsbild der sogenannten Epileptogenesis bilden. Bei etwa zwei Drittel der an Epilepsie leidenden Patienten kann in vielen Fällen Anfallsfreiheit im Rahmen einer medikamentösen Therapie erreicht werden. Dies umso besser, wenn die Medikation präventiv zum geeigneten Zeitpunkt erfolgen könnte. Demzufolge würden in einer großen Anzahl von Fällen Patienten von einem System profitieren, das eine automatisierte zuverlässige Anfallsvorhersage ermöglicht. Bei nur 20% der anderen Patienten kann eine chirurgische Behandlung erfolgreich sein.
In dieser Arbeit soll eine weitergehende Untersuchung des im Institut für Angewandte Physik der Johann Wolfgang Goethe- Universität entwickelten Prädiktionsverfahrens an verschiedenen EEG-Registrierungen unterschiedlicher Patienten erfolgen. Dabei soll im speziellen untersucht werden, ob basierend auf den Resultaten einer Signalprädiktion eine Unterscheidung zwischen Voranfallszeitraum, Anfall und anfallsfreier Phase getroffen werden kann, und ob basierend auf den Kenngrößen eines Prädiktors und des Prädiktionsfehlers eine Merkmalsdefinition gefunden werden kann, welche in einem späteren, implantierbaren Frühwarnsystem eine automatisierte Anfallsvorhersage ermöglicht. Als Datenbasis sollen vier Langzeit-EEG-Registrierungen mit einer Länge von jeweils 5 – 10 Tagen zugrunde gelegt werden. Zur Prädiktion sollen zeitdiskrete, gedächtnisbehaftete, mehrschichtige Zellulare Nichtlineare Netzwerke herangezogen werden. Dabei soll insbesondere anhand von unterschiedlichen Netzwerken festgestellt werden, inwieweit mittels einer Signalprädiktion Synchronisationseffekte zwischen EEG-Signalen verschiedener Hirnareale festgestellt werden können.
Das Antiprotonen-Experiment PANDA an der zukünftigen Beschleunigeranlage FAIR wird unter anderem Charmonium-Zustände mit einer bis dato unerreichten Genauigkeit messen können. Um dieses Ziel zu erreichen, wird eine sehr gute Teilchenidentifikationsfähigkeit verlangt. Eine gute Trennung zwischen Pionen und Kaonen wird durch den Einsatz eines Cherenkovdetektors erreicht. Die Leistungsfähigkeit eines DIRC hängt von dessen Radiatorgüte ab. Um die Qualität der Radiatorstäbe spezifizieren zu können, wurde im Rahmen dieser Doktorarbeit eine optische Messapparatur entwickelt. Dieser Aufbau erlaubt es die Transmission sowie die Oberflächenrauheit der Stäbe zu messen. Es wurden mehrere Radiatorstäbe aus synthetischem Quarzglas und Acrylglas untersucht. Die Messgenauigkeit bei hochqualitativen Stäben liegt für die Transmissionsmessung bei etwa 1 Promille und für die Rauheit bei 1-2 Angström. Die Messergebnisse bei verschiedenen Wellenlängen zeigen eine gute Übereinstimmung mit der skalaren Streutheorie, die den Zusammenhang zwischen Reflexionskoeffizienten und Rauheit beschreibt. Bei einer Strahlzeit an der GSI mit einem 2 GeV Protonenstrahl wurde ein erster Prototyp für den Barrel-DIRC mit einem Stab aus synthetischem Quarzglas als Radiator getestet. Durch Variation des Einfallswinkels und der Position des Protonenstrahls auf dem Radiator konnten Cherenkovringe eindeutig nachgewiesen werden. Zudem wurde der Cherenkovwinkel und die Einzelphotonauflösung in guter Übereinstimmung mit dem Erwartetem und der Simulation bestimmt.
This thesis deals with the simulation, optimization and realization of quasi-optical scanning systems for active THz cameras. Active THz cameras are sensitive in the THz regime of the electromagnetic spectrum and are suitable for the detection of metal objects such as weapons behind clothing or fabrics (maybe for security applications) or material investigation. An advantage of active THz-systems is the possibility to measure the phase of the THz-radiation and thus to reconstruct the surface topography of the objects under test. Due to the coherent illumination and the required system parameters (like image field size, working distance and lateral resolution) the optical systems (in the THz region often called quasi-optical systems) must be optimized. Specifically, the active illumination systems require highly optimized quasioptical systems to achieve a good image quality. Since currently no suitable multi-pixel detectors are available, the object has to be scanned in one or two dimensions in order to cover a full field of view. This further reinforces the occurring aberrations. The dissertation covers, alongside the underlying theory, the simulation, optimisation and realisation of three different active THz systems. The subdivision of the chapters is as follows: Chapter 1 deals with a motivation. Chapter 2 develops the underlying theory and it is demonstrated that the geometrical optics is an adequate and powerful description of the image field optimization. It also addresses the developed analytic on-axis and the off-axis image field optimization routine. Chapter 3, 4 and 5 are about the basis of various active THz cameras, each presented a major system aspect. Chapter 3 shows how active THz-cameras with very high system dynamics range can be realised. Within this chapter it could although be demonstrated how very high depth resolution can be achieved due to the coherent and active illumination and how high refresh rate can be implemented. Chapter 4 shows how absolute distance data of the objects under test can be obtained. Therefore it is possible to reconstruct the entire object topography up to a fraction of the wavelength. Chapter 5 shows how off-axis quasi-optical systems must be optimized. It is also shown how the illumination geometry of the active THz systems must be changed to allow for real-time frame rates. The developed widened multi-directional lighting approach also fixes the still existing problem of phase ambiguity of the single phase measurement. Within this chapter, the world’s first active real-time camera with very high frame rates around 10 Hz is presented. This could be only realized with the highly optimised quasioptical system and the multi-directional lighting approach. The paper concludes with a summary and an outlook for future work. Within the outlook some results regarding the simulation of synthetic aperture radar systems and metamaterials are shown.
Im Rahmen des Programms zur Intensitätserhöhung am Universal Linear Accelerator UNILAC für das Element Uran hat sich die Forderung nach einer Ionenquelle ergeben, die einen intensiven, hochbrillianten Ionenstrahl aus vierfach geladenen Uranionen bereitstellen kann. Ziel war es, im Zusammenspiel von Ionenquelle, Nachbeschleunigungssystem und Niederenergiestrahlführung einen Strahlstrom von mindestens 15 emA U4+ am Eingang des RFQ-Beschleunigers bereitzustellen. Die vorliegende Arbeit befaßt sich mit den Optimierungen und den experimentellen Untersuchungen an der Vakuumbogenionenquelle VARIS für den Uranbetrieb, welche schließlich ihre Leistungsfähigkeit an der Beschleunigeranlage der GSI erfolgreich unter Beweis gestellt hat. Der erste Teil dieser Arbeit widmet sich der Theorie der Vakuumbogenentladung unter besonderer Berücksichtigung der Erzeugung von U4+. Die Generierung von U4+ erfolgt dabei zu einem Teil im dichten Kathodenspotplasma, wo das Ionisationspotential von 31 auf 21 eV herabgesetzt ist, U4+ also bei vergleichsweise niedrigen Elektronenenergien erzeugt werden kann. Der U4+-Anteil beträgt jedoch nur 30 %. Die Erzeugung eines höheren Anteils an U4+ ist geknüpft an zusätzlich Ionisationsvorgänge im expandierenden Zwischenelektrodenplasma, für welches eine neuartige Theorie (MHD Ansatz) angegeben werden konnte. Für die Vakuumbogenentladung im axialen Magnetfeld konnte eine Erhöhung der Elektronentemperatur vorhersagt werden, die für eine höhere Ionisationsrate für U4+ verantwortlich ist. Für die Elektronentemperatur wurde bei einer magnetischen Flußdichte von 40 mT ein Wert von 10 eV vorhergesagt, welcher experimentell bestätigt werden konnte. Zieht man zudem die berechneten Wirkungsquerschnitte für die Ein- und Mehrfachionisation heran, so konnte aus den Wirkungsquerschnitten vorausgesagt werden, daß für die Produktion eines hohen Anteils an U4+ eine Elektronenenergie von zirka 50 eV für die Generierung von U4+ aus U3+ erforderlich ist. Im weiteren wurde ausgeführt, wie ein Extraktionssystem ausgelegt sein muß, welches den Forderungen nach einem Gesamtstrom von 140 mA entspricht oder diesen übertrifft. Das Erreichen dieses Stroms ist im Einlochextraktionssystem mit Schwierigkeiten verbunden (große Emissionsfläche, langes Extraktionssystem, Extraktionsspannung zirka 180 kV). Aus diesen Gründen ist die Entscheidung zugunsten eines Extraktionssystem mit 13 Öffnungen mit einem Durchmesser von jeweils 3 mm gefallen. Die Gesamtemissionsfläche aller Aperturen liegt bei 0,92 cm2. Zur Bestimmung der Strahlformierung einer Öffnung im Extraktionssystem ist das Strahlsimulationsprogramm KOBRA3INP unter Berücksichtigung einer experimentell gut zugänglichen Feldstärke von 11 kV/mm bei einem Aspektverhältnis von 0,5 genutzt worden. Es ergab sich ein minimaler Divergenzwinkel von etwa 55 mrad, die unnormierte effektive Emittanz geht mit steigender Stromdichte asymptotisch einem Wert von 65p mm mrad entgegen. Für das Extraktionssystem (13 Öffnungen) kann die unnormierte effektive Emittanz zu 610p mm mrad abgeschätzt werden. Die Stromdichte, welche der Plasmagenerator bereitstellen muß, beträgt etwa 1600 A/m2. Die Extraktionsspannung liegt bei 32 kV, welche, ebenso wie die Stromdichte, experimentell erreicht wurde. Bei den experimentellen Untersuchungen wurde zunächst untersucht, inwieweit die Impedanz des Vakuumbogenplasmas gesteigert werden kann. Ziel war es, eine möglichst hohe Plasmaimpedanz und damit eine hohe Bogenspannung zu erhalten, wodurch die erreichbare Elektronenenergie vergrößert wird (Regelung der Bogenspannung durch die Plasmaimpedanz). Es ist gezeigt worden, daß die Impedanz vor allem durch eine geeignete Magnetfeldkonfiguration erhöht werden kann (axiales Feld). Ebenso sind die Geometrie der Ionenquelle (Abstand Kathode-Anode 15 mm, Anodenöffnung 15 mm) und die verwendeten Materialien (Anode aus Edelstahl, kleiner Sputterkoeffizient und Sekundärelektronenaus97 löse) entscheidend, wobei zugunsten eines zuverlässigen Zündverhaltens der Ionenquelle die Entscheidung für eine Anodenöffnung von 15 mm statt 25 mm gefallen ist. So erreicht man für eine magnetische Flußdichte von 120 mT bei einem Bogenstrom von 700 A eine Bogenspannung von 54 V, wodurch die Erzeugung bis zu sechsfach geladenen Uranionen möglich wird. Um grundlegende Eigenschaften des Vakuumbogenplasmas zu bestimmen und das theoretische Modell zur Erzeugung von U4+ zu überprüfen, wurden die Ionen- und Elektronenenergieverteilung im Plasma gemessen ...
In der vorliegenden Arbeit wird die Gestaltung eines Teststandes für die optische Tomographie eines Ionenstrahles untersucht. Nachdem Ionenstrahlen hoher Intensität immer mehr Leistung in den Diagnosegeräten deponieren, müssen neue nicht Strahlzerstörende Diagnosemethoden gefunden werden. Die Diagnose mittels strahlinduziertem Restgasleuchten ist dabei eine viel versprechende nicht zerstörende Methode. Neben der Definition der Anforderungen für einen solchen Teststand werden verschiedene Realisierungsmöglichkeiten untersucht. Mit einem Testaufbau wird das strahlinduzierte Leuchten in Abhängigkeit verschiedener Restgase und Restgasdrücke untersucht, sowie die Eigenschaften des optischen Systems und der Kamera analysiert. Weiterhin wird die Möglichkeit der Emittanzbestimung aus einer optischen Aufnahme mit vorhandenen Methoden untersucht.
Ziel der durchgeführten Experimente war es, die Zerfallsmechanismen Van-der-Waals gebundener Argon- und Neon Di- und Trimere in intensiven Laserfeldern zu untersuchen, um mehr über den Einfluss der schwachen Van-der-Waals Bindung auf die Dynamik des Ionisationsprozesses zu erfahren. Da Dimere aufgrund ihrer elektronischen Struktur sehr stark zwei separaten benachbarten Atomen gleichen, vereinen sie atomare und molekulare Eigenschaften in sich und ihre Untersuchung verspricht ein tieferes Verständnis der Wechselwirkungsmechanismen in starken Laserfeldern. Die Verwendung der Impulsspektroskopie Methode COLTRIMS ermöglichte die koinzidente Messung aller beim Aufbruch entstandener ionischer Fragmente sowie eines elektronischen Impulsvektors. Für die beidseitige Einfachionisation des Argon Dimers, konnten bei der gewählten Intensität (etwa 3.3E14W/cm2) drei unterschiedliche Ionisationsprozesse identifiziert werden, von denen zwei zu einer überraschend hohen kinetischen Gesamtenergie der Ionen führen. Aufgrund der Messung der Winkelverteilung der ionischen Fragmente und eines der emittierten Elektronen für lineare und zirkulare Polarisation gelang es, die den drei Prozessen zugrunde liegende Dynamik im Laserfeld zu entschlüsseln. Der dominierende Zerfallskanal stellt demzufolge eine schnelle sequentielle Doppelionisation des Argon Dimers dar, die noch am Gleichgewichtsabstand des Dimers stattfindet. Für den zweithäufigsten Ionisationsprozess ergaben sich zwei mögliche Erklärungsansätze: Entweder wird das Dimer zunächst einseitig doppelionisiert, so dass es auf einer attraktiven Potentialkurve zusammenläuft, bevor es zu einem späteren Zeitpunkt – wenn das Laserfeld bereits abgeklungen ist – durch eine Umverteilung seiner Ladungen in einer Coulomb Explosion fragmentiert, oder das Dimer wird bei einer beidseitigen Tunnelionisation zugleich angeregt, so dass die Coulomb Explosion von einer Potentialkurve erfolgt, die wesentlich steiler als 1/R verläuft. Der schwächste Zerfallskanal, der sich durch die höchste Gesamtenergie auszeichnet, ist auf eine "Frustrated Triple Tunnel Ionization" zurückzuführen, bei der ein hoch angeregter Rydberg Zustand erzeugt wird. Bei der Untersuchung des Neon Dimers konnte bei der gewählten Intensität (etwa 6.3E14W/cm2) nur die sequentielle beidseitige Einfachionisation identifiziert werden, obwohl die Daten Hinweise auf einen weitern Ionisationsprozess mit sehr geringer Statistik aufweisen. Zudem wurde in dieser Arbeit nach der Methode des Coulomb-Explosion-Imaging aus den in Koinzidenz gemessenen Impulsvektoren aller einfachgeladenen ionischen Fragmente eines Aufbruchs die geometrische Struktur der Cluster im Orts-und Impulsraum rekonstruiert. Die ermittelte Grundzustandswellenfunktion des Argon und Neon Dimers zeigt eine gute Übereinstimmung mit quantenmechanischen Berechnungen. Für das Argon und Neon Trimer konnten aus den gemessenen Impulsvektoren mittels einer numerischen Simulation die Bindungswinkel im Ortsraum bestimmt werden, so dass erstmals gezeigt werden konnte, dass diese Trimere gleichseitige Dreieckskonfigurationen aufweisen. Vergleiche mit theoretischen Berechnungen zeigen für die breite Winkelverteilung des Neon Trimers eine hervorragende Übereinstimmung, während die gemessene Winkelverteilung des Argon Trimers etwas breiter als die berechnete ist.
Für das Helmholtzzentrum für Schwerionenforschung (GSI), in Darmstadt, wurde ein neuer RFQ zur Beschleunigung schwerer Ionen für den Hochladungsinjektor (HLI) entwickelt. Dieser RFQ hat den bereits vorhandenen ersetzt und soll, für die Anpassung des HLI an die neue 28 GHz-ECR-Ionenquelle, den Duty-cycle von 25 % auf 100 % erhöhen, um superschwere Ionen zu erzeugen und die Experimente mit schweren Ionen zu versorgen. Der RFQ hat die Aufgabe schwere, hochgeladene Ionen von 4 keV/u auf 300 keV/u zu beschleunigen. Wichtige Eigenschaften sind ein hoher Strahlstrom, eine hohe Strahl-Transmission, eine kleine Strahlemittanz und eine geringe transversale Emittanzzunahme. Die Erhöhung der Injektionsenergie von 2,5 keV/u auf 4 keV/u ermöglicht eine Verkleinerung des Konvergenzwinkels. Der Aufbau des 4-Rod-RFQs für den HLI ist Thema der vorliegenden Arbeit. Die Auslegung des HLI-RFQs bezieht sich auf ein festgelegtes max. Masse zu Ladungsverhältnis von A/q = 6, bei einer Betriebsfrequenz von 108,408 MHz. Die Ionen sollen bei einem Strahlstrom von 5 mA von 4 keV/u auf 300 keV/u beschleunigt werden. Durch die spezielle teilchendynamische Auslegung konnte die Länge des Tanks von vorher 3 m auf jetzt 2 m verkürzt werden. Dies begünstigt den CW-Betrieb der Struktur. Durch den CW-Betrieb hat man eine hohe Leistungsaufnahme, dies erfordert eine besondere teilchendynamische und hochfrequenztechnische Auslegung der RFQ-Struktur und eine effiziente Kühlung. Zur Simulation der Hochfrequenzeigenschaften wurde ein Modell des RFQ mit dem Programm Microwave Studio (MWS) erstellt. Die Simulationen ergaben einen nur 2 m langen RFQ mit sehr hoher Transmission > 95%. Nach den entsprechenden Simulationsrechnungen bezüglich der Teilchendynamik und der Hochfrequenzeigenschaften wurde der RFQ aufgebaut. Der zeitaufwändige Aufbau lässt sich in drei Abschnitte einteilen. Die Elektroden wurden präzise ausgemessen. Danach wurden Stützen, Elektroden und Tuningplatten an der Bodenplatte montiert und in den Tank eingesetzt. Im Tank wurden die Elektroden justiert, die zuerst außerhalb vermessen wurden. Die korrekte Position der Elektroden zur Referenzfläche wurde berechnet und mit Hilfe eines Faro-Gage im Tank eingemessen. Die maximale Abweichung der Elektrodenposition konnte auf 0,03 mm reduziert werden. Nach der mechanischen Einrichtung folgte die HF-Anpassung des Resonators. Durch das Erhöhen der Tuningplattenpositionen zwischen den Stützen konnte die Resonanzfrequenz von 90,8 MHz auf 108,4 MHz erhöht werden. Als nächstes wurde die Spannungsverteilung im Tank gemessen und mit Hilfe der Tuningplatten konnte sie so eingestellt werden, dass die maximale Abweichung zur mittleren Elektrodenspannung bei nur ± 2% liegt. Zur weiteren Hochfrequenzabstimmung wurde die Wirkung zweier Tauchkolben mit einem Durchmesser von 75 mm untersucht. Die Tauchkolben ermöglichen eine Anpassung der Frequenz im Bereich von 1,4 MHz. Sie sollen die möglichen Frequenzverschiebungen durch beispielsweise thermische Effekte, auf Grund des HF-Betriebs, regulieren. Für die Hochfrequenzabstimmung wurde eine Ankoppelschleife gefertigt und angepasst. Die Güte des Resonators betrug Q0 = 3100, bei einem RP-Wert RP = 100 kΩm, d.h. die zur Versorgung stehende HF-Leistung (50 kW im CW-Betrieb) reicht aus. An der GSI wurde nach dem Transport eine Kontrolle der Elektroden vorgenommen, danach wurde der RFQ erst einzeln, danach als komplette HLI Einheit getestet. Dazu wurden verschiedene Pulsmessungen und Emittanzmessungen mit Argon 7+ und Argon 8+ durchgeführt. Bei der ersten Strahlinbetriebnahme wurden die Transmission, die Ionenenergie und die Emittanz mit verschiedenen Ionen gemessen. Die ersten Tests des HLI-RFQ waren sehr vielversprechend. In den Tests war zu sehen, dass die vorgenommenen Arbeiten, wie Justage und HF-Abstimmung der Resonanzstruktur, erfolgreich waren. Danach wurde der Strahlbetrieb mit Calcium, bei einer Leistung von 50 kW, durchgeführt. Die gemessene Transmission bei einer Spannung von 43 kV lag bei 70 %. Im Mai 2010 gab es eine 14Stickstoff2+ -Strahlzeit mit einer gepulsten Leistung von N = 90 kW. Danach wurde Anpassungstests mit verschiedenen Schwerionen durchgeführt. Im November 2010 wurden neue Tuningplatten mit einer besseren Stützenkontaktierung sowie einer besseren Kühlung eingebaut. Die Elektroden wurden nach diesen Maßnahmen auf ± 0,04 mm einjustiert. Die Flatness liegt bei ± 2,1 %, die Güte beträgt Q0 = 3300. Der RFQ wurde in die Beamline eingebaut und geht im Januar 2011 in Betrieb.
In der vorliegenden Arbeit wird die Ionisation von Stickstoff- und Sauerstoff-Molekülen in starken, nicht-resonanten Laserlicht-Pulsen untersucht. Die dreidimensionalen Impulsvektoren der freigesetzten Elektronen und Ionen wurden mittels eines sogenannten COLTRIMS Spektrometers vermessen. Das Hauptaugenmerk galt dem Kanal der Einfachionisation, der ein stabiles Molekülion ($N_2^+$ / $O_2^+$) erzeugt. Da in diesem Fall keine Dissoziation des Ions stattfindet, kann nicht aus der Flugrichtung ionischer Fragmente auf die Ausrichtung der Molekülachse geschlossen werden. Die Abhängigkeit des Prozesses vom Winkel zwischen der Molekülachse und der Polarisationsrichtung des ionisierenden Lichtes ist nur dann zugänglich, wenn die Ausrichtung der Molekülachsen vordem Zeitpunkt der Ionisation aktiv kontrolliert werden kann. Hierzu wurde die Technik der nichtadiabatischen Molekülausrichtung'' (non-adiabatic molecular alignment'') [1] angewandt. Ein erster, mäßig intensiver Lichtpuls bewirkte die Ausrichtung der Molekülachsen im Laborsystem. Sodann wurden die ausgerichteten Moleküle von einem zweiten, hochintensiven Puls ionisiert. In einem ersten Experiment wurden Elektronen-Impulsverteilungen für zwei verschiedene Molekülausrichtungen bestimmt. Ein Vergleich der Verteilungen brachte zwei wichtige Ergebnisse: 1) Im Bereich niedriger Elektronen-Impulse senkrecht zur Polarisationsrichtung des ionisierenden Lichtpulses wird der Fingerabdruck'' des ionisierten Molekülorbitals sichtbar. 2) Bei höheren Impulsen zeigten sich Strukturen, die als Doppelspalt-Interferenz interpretiert werden können. Ein ionisiertes Elektron propagiert im oszillierenden elektrischen Feld des Laser-Pulses. Von diesem kann es auf das Ion hin zurück beschleunigt werden und dort streuen [2]. Wir betrachten den Fall elastischer Rückstreuung''. In erster Näherung wirken die Bestandteile des diatomaren Molekülions wie ein Doppelspalt, an dem die streuende Elektronen-Welle gebeugt wird. In einem zweiten, dem ersten sehr ähnlichen Experiment wurde die Molekülausrichtungs-Richtung in kleinen Schritten variiert. Sowohl der Effekt der Elektronenbeugung am Ion, als auch - mit Einschränkungen - die Abbildung des ionisierten Orbitals wurde erneut beobachtet. Letztere ist durch eine Projektion des Orbitals in den Impulsraum senkrecht zur Laser-Polarisationsrichtung bestimmt [3,4]. Die Messung der Strukturen unter verschiedenen Molekül-Ausrichtungen im zweiten Experiment entspricht daher der Aufnahme verschiedener Projektionen des Orbitals. Der so gewonnene Datensatz sollte prinzipiell eine Rekonstruktion der dreidimensionalen Elektronen-Dichteverteilung des ionisierten Molekülorbitals mittels eines Tomographie-Algorithmus ermöglichen. Entsprechende Entwicklungen sind bei Kooperationspartnern im Gange. Die beobachtete Beugung des rückgestreuten Elektrons ermöglicht den Rückschluss auf die Positionen der Kerne im Molekülion. Es besteht die Hoffnung, dass sich in Zukunft detailliertere Informationen über das streuende Potential jenseits des einfachen Doppelspalt-Modells gewinnen lassen. Rückstreuung höherenergetischer Elektronen sollte hingegen eine verbesserte Ortsauflösung ermöglichen. Beide Informationen - Ionisiertes Orbital und Beugungsbild des Ions - werden simultan in ein- und derselben Messung gewonnen. Die zeitliche Auflösung wird durch rein optische Parameter (Licht-Wellenlänge, Pulslänge) determiniert. Sie kann mittels ultrakurzer, phasenstabiler Laserlicht-Pulse in den Bereich einer Femtosekunde oder darunter verbessert werden. [1] Stapelfeldt et al., Rev. Mod. Phys. 75, 543-557 (2003). doi:10.1103/RevModPhys.75.543 [2] Corkum, Phys. Rev. Lett. 71, 1994-1997 (1993). doi:10.1103/PhysRevLett.71.1994 [3] Spanner et al., J. Phys. B 37, L243-L250 (2004). doi:10.1088/0953-4075/37/12/L02 [4] Ivanov et al., J. Mod. Opt. 52, 165 (2005). doi:10.1080/0950034042000275360
Welche Art Strahlung geht vom Handy und von Relaisstationen aus? Wie kann sie auf den Menschen wirken, welche Wirkmechanismen werden ausgelöst? Welche Vorschriften und Grenzwerte gibt es? Wohl kaum ein Thema wurde in den vergangenen Jahren in Medien und in Öffentlichkeit so heiß und kontrovers diskutiert wie das "Strahlenrisiko" durch Mobilfunkanlagen, Mobiltelefone und schnurlose Telefone. Insbesondere, wenn Relaisstationen für mobile Kommunikationseinrichtungen in Verbindung mit dem neuen UMTS-Netz eingerichtet werden, beobachtet man oft erbitterte Konfrontationen zwischen Betreibern und Gegnern, die manchmal zu merkwürdigen Entwicklungen führen; so wurde beispielsweise die Antenne auf einem Kirchendach als Kreuz getarnt. Oft nutzen auch erklärte Gegner von Relaisanlagen am Wohnort beruflich oder privat ihr Handy.
Quasi-zweidimensionale organischen Ladungstransfersalze weisen gewisse Analogien zu den Hochtemperatur-Kupratsupraleitern (HTSL) auf. Zu nennen ist einerseits der ähnliche schichtartige Aufbau, wobei sich leitfähige und isolierende Ebenen abwechseln. Zum anderen liegt der antiferromagnetische Grundzustand in direkter Nachbarschaft zur Supraleitung und bei höheren Temperaturen wird ebenfalls die Entstehung einer Pseudo-Energielücke diskutiert. Im Gegensatz zu den HTSL können die elektronischen Eigenschaften der organischen Ladungstransfersalze jedoch leicht durch äußere Parameter wie hydrostatischen bzw. chemischen Druck - die Verwendung verschiedener Anionen X läßt sich in einem verallgemeinerten Phasendiagramm ebenfalls auf die Achse W/U abbilden, siehe Abschn. 4.2 - oder moderate Temperaturen beeinflußt werden. In den quasi-zweidimensionalen K-(BEDT-TTF)2X-Salzen ist bspw. ein moderater Druck p ~ 250 bar ausreichend, um das antiferromagnetisch-isolierende System (X=Cu[N(CN)2]Cl) auf die metallische Seite des Phasendiagramms zu verschieben, wobei dann im Grundzustand Supraleitung auftritt (Tc ~ 12,8 K). Eine Dotierung wie bei den HTSL und die damit einhergehende unerwünschte Unordnung ist nicht notwendig um einen Isolator-Metall-übergang zu induzieren. Demnach sind die experimentellen Anforderungen im Vergleich zu anderen stark korrelierten Elektronensystemen auf relativ einfache Weise zu realisieren. Auch das macht die organischen Ladungstransfersalze zu idealen Modellsystemen, um fundamentale Konzepte der theoretischen Festkörperphysik zu studieren, wovon einige bislang lediglich von akademischem Interesse waren. Erstmalig wird in dieser Arbeit die Fluktuationsspektroskopie als experimentelle Methode angewendet, um die Dynamik des TT-Elektronensystems in den quasi-zweidimensionalen organischen Ladungstransfersalzen K-(BEDT-TTF)2X bei niedrigen Frequenzen zu studieren. Ziel ist es, Informationen über die Temperatur-, Druck- und Magnetfeld-Abhängigkeit der spektralen Leistungsdichte des Widerstandsrauschens und damit über die Dynamik der Ladungsfluktuationen zu gewinnen. Insbesondere in der Nähe korrelationsgetriebener Ordnungsphänomene spielt die Dynamik der Ladungsträger eine entscheidende Rolle. Auch die Kopplung des elektronischen Systems an bestimmte strukturelle Anregungen hat Einfluß auf das Widerstandsrauschen. Zu Beginn wird eine kurze Einführung in die Signalanalyse gegeben und daran anschließend werden verschiedene Arten des Rauschens in Festkörpern dargestellt (Kap. 1). Einige der für diese Arbeit relevanten Ordnungsphänomene werden in Kap. 2 in knapper Form eingeführt, wobei auf die dynamischen Eigenschaften in der Nähe eines Glasübergangs etwas ausführlicher eingegangen wird. Nach der Vorstellung der eingesetzten Meßmethoden, des Versuchsaufbaus und der Probenkontaktierung (Kap. 3) werden die experimentellen Ergebnisse an den K-(BEDT-TTF)2X-Salzen in Kap. 4 ausführlich diskutiert.
Die im Rahmen dieser Arbeit gewonnen Meßergebnisse zeigen, daß bei geringem Restgasdruck der Einsatz einer GPL zur Fokussierung eines hochperveanten Ionenstrahles niedriger Strahlenergie Vorteile gegenüber konventionellen Linsensystemen bietet. Neben einer kostengünstigen Realisation ist wesentlich die bei unterschiedlichen Linsenparametern hohe Linearität der Linsenfelder (und die damit verbunden geringen Aberrationen) bei gleichzeitig starker Fokussierung zu nennen. Auch die geringe Baulänge, vor allem im Vergleich zu den wegen der FODO-Struktur bei Quadrupolen i. a. notwendigen Tripletts, kann gerade bei de- bzw. teilkompensiertem Transport einen Vorteil darstellen. Die im zweiten Kapitel vorgestellten Arbeiten zur theoretischen Beschreibung des nichtneutralen Plasmas der GPL haben gezeigt, daß bei Berücksichtigung der Verlustmechanismen (longitudinal und radial) die Beschreibung der Elektronenverteilung in der Linse die Meßergebnisse wesentlich besser widerspiegelt als in der klassischen Theorie Gabors, die nur einen idealisierten Zustand maximaler Elektronendichte beschreibt. Die Integration der Verluste in die Simulation ist für den longitudinalen Verlustkanal gelungen. Die radialen Verluste entziehen sich bisher aufgrund der Komplexität der Vorgänge bei der Diffusion einer hinreichend genauen Beschreibung. Dies liegt vor allem an einer sehr schwierigen Abschätzung der hierbei dominierenden Heiz- bzw. Kühlprozesse im Linsenplasma. ...
Ziel der durchgeführten Experimente dieser Arbeit war es, den Versuch zu unternehmen, Cooper-Paare als Träger des supraleitenden Stroms direkt mit Hilfe des Photoelektrischen Effektes nachzuweisen. Die Methode der koinzidenten Photoelektronenspektroskopie zielt dabei auf den Nachweis von zwei kohärent emittierten Elektronen durch die Wechselwirkung mit einem Photon ab. Da elektrostatische Analysatoren typischerweise nur einen sehr kleinen Raumwinkel erfassen, was mit sehr geringen Koinzidenzraten einhergeht, ist im Zusammenhang mit dieser Arbeit ein Flugzeitprojektionssystem entwickelt worden, welches nahezu den gesamten Raumwinkel auf einem ortsauflösenden Detektor abbildet. Die zur Messung erforderliche gepulste Lichtquelle in Form von spezieller Synchrotronstrahlung ist so schwach eingestellt worden, daß nur vereinzelt Photonen auf die Probe gelangen konnten. Spektroskopiert wurde neben Testmessungen an Silberschichten sowohl ein Blei-Einkristall als Vertreter der klassischen BCS-Supraleiter als auch einkristallines Bi2Sr2CaCu2O8 aus der Gattung der Hochtemperatursupraleiter. Mit Anregungsenergien bis 40 eV konnte gezeigt werden, daß hinreichend glatte und saubere Oberflächen in der supraleitenden Phase innerhalb des Auflösevermögens von ungefähr 0.5 eV keine erkennbaren, signifikanten Unterschiede im Vergleich zur normalleitenden Phase aufweisen. Neben diesen Untersuchungen ist weiterhin ausführlich die einfache Photoemission an den verschiedenen Proben und insbesondere im Falle des Bleikristalls behandelt, da hier keine vergleichbaren Resultate bekannt sind. Dabei wird der gesamte Impulsraum besprochen und die Fermi-Fläche als dreidimensionales Modell erstellt, mit dessen Hilfe die Meßergebnisse diskutiert werden. In den theoretischen Beschreibungen sind verschiedene Modelle zur Cooper-Paar-Emission vorgestellt, wobei beispielsweise dem Impulsaustausch mit dem Kristall eine besondere Rolle beigemessen wird, da dieser bei direkten Anregungen nur über diskrete Gittervektoren erfolgen kann.
In der vorliegenden Arbeit wurde ein chirales SU(3)-Modell auf verschiedene Erscheinungsformen endlicher Kernmaterie angewendet. Das Modell basiert auf chiraler Symmetrie in nichtlinearer Realisierung. Die Symmetrie muss spontan gebrochen werden um die beobachtete Massendifferenz zwischen skalaren und pseudoskalaren Mesonen reproduzieren zu können. Um den pseudoskalaren Mesonen eine endliche Masse zu geben ist eine explizite Brechung der chiralen Symmetrie nötig.
Die transversale Betatronbewegung eines Ionenstrahls, genannt Tune, stellt neben der Strahlposition die wichtigste zu messende Strahleigenschaft für den stabilen Betrieb eines Kreisbeschleunigers dar. Die Einstellung des Tunes auf einen Arbeitspunkt unterliegt engen Grenzen, da eine Vielzahl resonanter Störungen existiert, die die Teilchenbewegung beeinflussen und somit Emittanzvergrößerung und Strahlverlust hervorrufen. Den gemessenen Tune mit hoher Auflösung in Zeit und Frequenz während der gesamten Beschleunigungsphase auszugeben ermöglicht eine Justierung der ionenoptischen Elemente der Strahlführung. Dadurch läßt sich die Teilchenzahl bis zur theoretischen Raumladungsgrenze erhöhen und darüber hinaus Teilchenverluste minimieren. Die Messungen wurden an Positionssonden (BPM) des Schwerionensynchrotrons SIS18 der "GSI Helmholtzzentrum für Schwerionenforschung GmbH" mit zwei verschiedenen Meßsystemen durchgeführt, was einen Vergleich der Systemauflösungen ermöglicht. Das Direkt Digitalisierende Meßsystem (DDM) wandelt das BPM-Elektrodensignal direkt nach der Verstärkerkette mit einer Rate von 125 MSa/s in digitale Daten um. Der Strahlschwerpunkt eines jeden Einzelbunches wird daraus mittels digitaler Prozessierung berechnet und durch Fouriertransformation dessen Frequenzspektrum bestimmt. Man erhält den fraktionalen Tune dadurch direkt im Basisband. Das am CERN entwickelte und für Parameter des SIS18 adaptierte Direct Diode Detection - System (DDD) zeigt ebenfalls den Tune im Basisband. Um den zu bearbeitenden Frequenzbereich erheblich zu reduzieren, werden bei diesem Verfahren die Bunchpeakwerte, die die Strahlschwingung enthalten, über ein RC-Element analog verzögert ausgegeben. Der erhaltene Tune kann daraus mit hoher Auflösung digitalisiert werden. In der vorliegenden Dissertation werden die Meßaufbauten, die digitale Prozessierung der BPM-Daten mittels neuer Algorithmen sowie die Auswertung und Berechnung des Tunes gezeigt. Es werden typische Tuneverläufe diskutiert und ein Arbeitsbereich definiert, bei dem stabile Tunemessungen mit S/N von 30-50 dB ohne meßbare Vergrößerung der Strahlemittanz möglich sind. Die Auflösung der Tunemessung beträgt δqy = 3.50 · 10−4 und δqx = 7.97 · 10−4 für Anregungskickwinkel im Arbeitsbereich. Darüber hinaus werden physikalische Anwendungen des Systems diskutiert, indem verschiedene Einflüsse von ionenoptischen- und Strahlparametern auf den Tuneverlauf gezeigt und ausgewertet werden.
Die P-Typ-ATPasen finden sich in allen Domänen des Lebens und stellen die größte Gruppe aktiver Ionentransporter in Zellen dar. Es handelt sich bei den P-Typ-ATPasen um integrale Membranproteine, die eine große Anzahl verschiedenster Ionen aktiv über eine biologische Membran transportieren. Die für diesen Ionentransport notwendige Energie wird durch Bindung und Hydrolyse von Adenosintriphosphat (ATP) und durch Phosphorylierung des Enzyms gewonnen. Diese, im cytoplasmatischen Teil gewonnene Energie, muss für den Ionentransport von der Phosphorylierungsstelle zur räumlich entfernten transmembranen Ionenbindungsstelle übertragen werden, bei dem das Protein einem Reaktionszyklus mit zwei Hauptkonformationszuständen E1 und E2 unterliegt. Zwischen diesen beiden Zuständen finden große strukturelle Änderungen statt, durch die die Ionenaffintät und die Zugänglichkeit der Ionenbindungsstelle reguliert wird. Da dieser Mechanismus der Energiegewinnung für alle Ionenpumpen dieser Art ähnlich ist, wurde die Ca2+-ATPase und die Na+/K+-ATPase als Modellproteine für die Untersuchung molekularer Mechanismen in P-Typ-ATPasen ausgewählt. Im Rahmen der vorliegenden Arbeit soll die Energietransduktion in P-Typ-ATPasen im Allgemeinen und der Protonengegentransport bzw. ein potentieller Protonentransportweg in der Ca2+-ATPase im Speziellen untersucht werden. Die beiden oben genannten Mechanismen sollen mittels computergestützter Methoden analysiert werden. Vor allem die Ca2+-ATPase ist prädestiniert für computergestützte Untersuchungen, da für diese sehr viele hochaufgelöste Röntgenstrukturdaten vorliegen, wenn auch bisher aufgrund der Größe und Komplexität des Systems nur sehr wenige theoretische Arbeiten durchgeführt wurden. Um den Energietransduktionsmechanismus in P-Typ-ATPasen zu untersuchen, wurde mittels Elektrostatik-Rechnungen der Einfluss eines elektrischen Feldes auf die verschiedenen Transmembranhelices untersucht. Dazu wurde ein Simulationssystem entwickelt, welches aus einem molekularen Kondensator besteht, der im Modell das Anlegen eines homogenen elektrischen Feldes über den Transmembranbereich simuliert. Da es sich bei dem Energietransduktionsmechanismus um einen dynamischen Prozess handelt, wurden die Elektrostatik-Rechnungen um Molekulardynamik-Simulationen erweitert. Mit diesen kann die konformelle Dynamik der P-Typ-ATPasen während der Energietransduktion in die Elektrostatik-Rechnungen einbezogen werden. Aus Spannungsklemmen-Fluorometrie-Experimenten, bei denen eine Spannung über eine Membran angelegt wird, kann geschlossen werden, dass die Helix M5 für die Energietransduktion verantwortlich ist. Mit den in dieser Arbeit durchgeführten Elektrostatik-Rechnungen konnte für verschiedene Enzymzustände der Ca2+-ATPase und für die Na+/K+-ATPase gezeigt werden, dass die Helix M5 die größten Konformeränderungen aufgrund des elektrischen Feldes aufweist. Durch die Erweiterung der Elektrostatik-Rechnungen um die Methode der Molekulardynamik-Simulation konnte zusätzlich die elektrische Feldstärke reduziert werden. Auch dabei zeigte sich, dass auf der Helix M5 die meisten Rotameränderungen durch das elektrische Feld induziert werden. Die aus Experimenten vermutete Rolle der Helix M5 als wichtiges Energietransduktionselement ließ sich mit diesen Simulationsrechnungen bestätigen. Um einen möglichen Protonenweg durch den Transmembranbereich der Ca2+-ATPase aufzuklären, wurden explizite Wassermoleküle in sechs verschiedene Enzymzustände der Ca2+-ATPase eingefügt. Aus Experimenten ist bekannt, dass in der Ca2+-ATPase ein Protonengegentransport stattfindet. Deshalb wurden für verschiedene Enzymzustände der Ca2+-ATPase mittels Elektrostatik-Rechnungen die Protonierungen der eingefügten Wassermoleküle sowie der titrierbaren Aminosäuren bestimmt. Aus den Ergebnissen dieser Rechnungen kann geschlossen werden, dass es sich bei dem Protonentransfer nicht um einen linearen Transport der Protonen handelt. Die Untersuchungen zeigen einen mehrstufigen Prozess, an dem Protonen in verschiedenen Transmembranbereichen der Ca2+-ATPase beteiligt sind. Anhand der berechneten Protonierungszustände der eingefügten Wassermoleküle und der pK-Werte der Aminosäuren im Transmembranbereich konnte weiterhin ein möglicher Protonenweg identifiziert werden.
In der vorliegenden Dissertation wird die Frage der Vereinheitlichung der Quantentheorie mit der Allgemeinen Relativitätstheorie behandelt, wobei entsprechend dem Titel der Arbeit der Beziehung der Grundbegriffe der beiden Theorien die entscheidende Bedeutung zukommt. Da das Nachdenken über Grundbegriffe in der Physik sehr eng mit philosophischen Fragen verbunden ist, werden zur Behandlung dieser Thematik zunächst in einem Kapitel, das die vier jeweils drei Kapitel umfassenden Teile vorbereitet, die Entwicklung der Theoretischen Physik betreffende wissenschaftstheoretische Betrachtungen sowie einige wesentliche Gedanken aus der Klassischen Philosophie vorgestellt, welche für die weitere Argumentation wichtig sind. Bei letzteren geht es neben einer kurzen Schilderung der Platonischen Ideenlehre in Bezug auf ihre Relevanz für die Physik insbesondere um die Kantische Auffassung von Raum und Zeit als a priori gegebenen Grundformen der Anschauung, deren Bezug zur Evolutionären Erkenntnistheorie ebenfalls thematisiert wird. In den beiden ersten Teilen werden die wesentlichen Inhalte der Allgemeinen Relativitätstheorie und der Quantentheorie vorgestellt, wobei der Deutung der beiden Theorien jeweils ein Kapitel gewidmet wird. In Bezug auf die Allgemeine Relativitätstheorie wird diesbezüglich die Bedeutung der Diffeomorphismeninvarianz herausgestellt und in Bezug auf die Quantentheorie wird zunächst die Grundposition der Kopenhagener Deutung verdeutlicht, die im Mindesten als eine notwendige Bedingung zum Verständnis der Quantentheorie angesehen wird, um anschließend eine Analyse und Interpretation des Messproblems und vor allem entscheidende Argumente für die grundlegende Nichtlokalität der Quantentheorie zu geben. Im dritten Teil der Arbeit wird die seitens Carl Friedrich von Weizsäcker in der zweiten Hälfte des letzten Jahrhunderts entwickelte Quantentheorie der Ur-Alternativen beschrieben, in welcher die universelle Gültigkeit der allgemeinen Quantentheorie begründet und aus ihr die Existenz der in der Natur vorkommenden Entitäten hergeleitet werden soll, auf deren Beschreibung die konkrete Theoretische Physik basiert. Es werden sehr starke Argumente dafür geliefert, dass diese Theorie von den bislang entwickelten Ansätzen zu einer einheitlichen Theorie der Natur, welche die heute bekannte Physik in sich enthält, die vielleicht aussichtsreichste Theorie darstellt und damit die Aussicht bietet, auch für das Problem der Suche nach einer Quantentheorie der Gravitation den richtigen begrifflichen Rahmen zu bilden. Ihre große Glaubwürdigkeit erhält sie durch eine die Klassische Philosophie miteinbeziehende philosophische Analyse der Quantentheorie. Dieses Urteil behält seine Gültigkeit auch dann, wenn die Quantentheorie der Ur-Alternativen aufgrund der ungeheuren Abstraktheit der Begriffsbildung innerhalb der Theorie und der sich hieraus ergebenden mathematischen Schwierigkeiten bisher noch nicht zu einer vollen physikalischen Theorie entwickelt werden konnte. Die alles entscheidende Kernaussage dieser Dissertation besteht darin, dass aus einer begrifflichen Analyse der Quantentheorie und der Allgemeinen Relativitätstheorie mit nahezu zwingender Notwendigkeit zu folgen scheint, dass die physikalische Realität auf fundamentaler Ebene nicht-räumlich ist. Dies bedeutet, dass die These vertreten wird, dass es sich bei dem physikalische Raum, wie er gewöhnlich schlicht vorausgesetzt wird, wenn auch in unterschiedlicher Struktur, in Wahrheit nur um eine Darstellung dahinterstehender dynamischer Verhältnisse nicht-räumlicher Objekte handelt. Diese These stützt sich auf die Diffeomorphismeninvarianz in der Allgemeinen Relativitätstheorie und in noch höherem Maße auf die Nichtlokalität in der Quantentheorie, welche sich wiederum nicht nur in konkreten für die Quantentheorie konstitutiven Phänomenen, sondern dazu parallel ebenso im mathematischen Formalismus der Quantentheorie manifestiert. In Kombination mit der Kantischen Behandlung von Raum und Zeit ergibt sich damit ein kohärentes Bild in Bezug auf die eigentliche Natur des Raumes. Die Quantentheorie der Ur-Alternativen ist diesbezüglich als einzige derzeit existierende Theorie konsequent, indem sie auf der basalen Ebene den Raumbegriff nicht voraussetzt und rein quantentheoretische Objekte als fundamental annimmt, aus deren Zustandsräumen sie die Struktur der Raum-Zeit allerdings zu begründen in der Lage ist. Damit befinden sich diese fundamentalen durch Ur-Alternativen beschriebenen Objekte nicht in einem vorgegebenen Raum, sondern sie konstituieren umgekehrt den Raum. Dies ist eine Tatsache von sehr großer Bedeutung. Im vierten Teil wird schließlich die vorläufige Konsequenz aus diesen Einsichten gezogen. Nach einer kurzen Behandlung der wichtigsten bisherigen Ansätze zu einer quantentheoretischen Beschreibung der Gravitation, wird die Bedeutung der Tatsache, dass die Allgemeine Relativitätstheorie und die Quantentheorie eine relationalistische Raumanschauung nahelegen, nun konkret in Bezug auf die Frage der Vereinheitlichung der beiden Theorien betrachtet. Das bedeutet, dass das Ziel also letztlich darin besteht, einen Ansatz zu einer quantentheoretischen Beschreibung der Gravitation zu finden, bei der so wenig räumliche Struktur wie möglich vorausgesetzt wird. In Kapitel 12 wird diesbezüglich ein von mir entwickelter Ansatz vorgestellt, um zumindest eine Theorie zu formulieren, bei der die metrische Struktur der Raum-Zeit nicht vorausgesetzt sondern in Anlehnung an die Eigenschaften eines fundamentalen Spinorfeldes konstruiert wird, das im Sinne der Heisenbergschen einheitlichen Quantenfeldtheorie die Elementarteilchen einheitlich beschreiben soll. Dieser Ansatz geht bezüglich der Sparsamkeit der Verwendung von a priori vorhandener räumlicher Struktur über die bisherigen Ansätze zu einer Quantentheorie der Gravitation hinaus. Er ist aber dennoch nur als ein erster Schritt zu verstehen. Die konsequente Weiterführung dieses Ansatzes würde in dem Versuch bestehen, eine Verbindung zur von Weizsäckerschen Quantentheorie der Ur-Alternativen herzustellen, die überhaupt keine räumliche Struktur mehr voraussetzt. Hierzu konnten bisher nur aussichtsreiche Grundgedanken formuliert werden. Es wird allerdings basierend auf den in dieser Dissertation dargelegten Argumentationen die Vermutung aufgestellt, dass es im Rahmen der von Weizsäckerschen Quantentheorie der Ur-Alternativen möglich ist, eine konsistente quantentheoretische Beschreibung der Gravitation aufzustellen. In jedem Falle scheint die Quantentheorie der Ur-Alternativen die einzige Theorie zu sein, die aufgrund ihrer rein quantentheoretischen Natur in ihrer Begriffsbildung grundsätzlich genug ist, um eine Aussicht zu bieten, diejenige Realitätsebene zu erfassen, in welcher die Dualität zwischen der Quantentheorie und der Allgemeinen Relativitätstheorie zu einer Einheit gelangt.
Fullerene, Nanoröhren und auch anderen hohlen Strukturen können Atome oder Moleküle in ihrem Inneren einschliessen. In solchen Systemen beeinflussen sich die einschliessenden und eingeschlossenen Strukturen gegenseitig, und es existiert eine Vielzahl unterschiedlicher Effekte: Änderungen der Energieeigenwerte, Änderungen der Elektronenstruktur sowie Ladungsaustausch zwischen den beiden Teilen des Systems. All diese Effekte beeinflussen die Absorbtionsspektren beider Systembestandteile. In dieser Arbeit liegt der Schwerpunkt auf einem dieser Effekte: Dem dynamischen Abschirmungseffekt. Den dynamischen Abschrimungseffekt findet man insbesondere bei solchen Systemen, bei denen die einschliessende Struktur viele delokalisierte Elektronen besitzt. Zu solchen Systemen gehören zum Beispiel endohedrale Komplexe sowie "Nano Peapods" (Nanoröhren mit eingeschlossenen Atomen oder Molekülen). Ursächlich für den dynamischen Abschirmungseffekt ist die Tatsache, dass die Elek- tronen des umschliessenden Käfigs die eingeschlossene Struktur gegen elektromagentische Wellen abschirmen. Mit anderen Worten: Dass das elektrische Feld sowohl innerhalb als auch ausserhalb der einschliessenden Struktur wird vom polarisierenden Feld der einschliessenden Struktur beein°usst. Klassisch betrachtet ist die Photoabsorbtionsrate eines Objektes proportional zu der Intensität eines elektrischen Feldes. Somit unterscheidet sich die Photoabsorbtionsrate (und auch der Wirkungsquerschnitt) der gleichen elektromagnetischen Welle einer Struktur innerhalb eines Einschlusses von der Photoabsorbtionsrate eines freien Atoms oder Moleküls. Der dynamische Abschirmungsfaktor dient als Beschreibung des Verhältnisses dieser beiden Wirkungsfaktoren. Darüber hinnaus können, da die Käfigstruktur viele delokalisierte Elektronen besitzt, Elektronen gemeinsam angeregt werden und somit Plasmons hervorrufen. Wenn sich die Frequenz der anregenden elektromagentischen Strahlung der Resonanzfrequenz dieser Plasmonen annähert, wird das polarisierende Feld besonders gross. Im Endeffekt beobachtet man nahe der Plasmon-Frequenz einen starken Anstieg des Wirkungsquerschnittes der eingeschlossenen Struktur. Der Schwerpunkt in dieser Arbeit liegt auf einer spezifischen Art von System: Endo- hedrale Komplexe. Diese Strukturen wurden mit einem klassichen Ansatz untersucht. Die Fullerene wurden, da sie viele delokalisierte Elektronen besitzen als dielektrische Schalen modelliert, mit der dielektrischen Funktion eines freien Elektronengases. Dabei ist der dynamische Abschrimfaktor durch Auswertung des gesamten elektrischen Feldes am Ort des Atoms im Vergleich zur Stärke des externen elektrischen Feldes definiert. Der dynamische Abschrimungsfaktor wurde für eine Vielzahl unterschiedlicher Situationen untersucht. Im einfachsten Fall, bei dem die Polarisierbarkeit des eingeschlossenen Atoms vernachlässigbar klein ist, ist der dynamische Abschirmfaktor unabhängig von der Position des Atoms innerhalb des Fullerens. Die Veranderung des elektrischen Feldes wird vollständig von der dynamischen Reaktion des Fullerens auf das externe Feld bestimmt. Da das Fulleren von endlicher Dicke ist (definiert duch die räumliche Ausdehnung der Elektronenwolke), besitzt es zwei Oberflächen. Die Wirkung der elektromagnetischen Welle induziert oszillierende Oberflächen-Ladungs-Dichten. Die Oberflächen-Ladungs-Dichten wechselwirken und erzeugen somit zwei Plasmon Eigenmoden: eine symmetrische Mode bei der beide Ladungsdichten in Phase oszillieren und eine antisymmetrische bei denen sie gegen-phasig oszillieren. Der dynamische Abschirmfaktor eines solchen eingeschlossenen Atoms zeigt zwei ausgeprägte Peaks, welche eine Manifestation dieser beiden Oberflächen-Plasmone sind. Die Wechselwirkung zwischen diesen Plasmon-Moden wurde untersucht. Darüber hinnaus wurde der Einfluss der Grösse des Käfigs untersucht; mit Fallbeispielen für C20, C60, C240 und C960 [2, 3]. Im Grenzfall eines unendlich dünnen Fulleren-Käfigs ist nur ein einelnes Oberflächen-Plasmon zu beachten. Als nächstes wurde der Einfluss des eingeschlossenen Atoms untersucht [3{5]. Wenn dessen Polarisierbarkeit gross ist, wird ein reziproker Einfluss des Dipol-Moments des Atoms auf das Fulleren messbar. Dies wurde zunächst unter der Annahme eines zentral angeodneten Atoms für die folgenden drei Fälle untersucht: Ar@C60, Xe@C60 and Mg@C60. Der dynamische Abschirmfaktor verÄanderte sich dabei nur wenig. Der stärkste Einfluss auf das Verhalten des Abschirmfaktors ensteht durch Unstetigkeiten in der Polarisierbarkeit des Atoms nahe dessen Ionisierungs-Schwelle. Die Wahl dieser drei Fallstudien ist durch die quantenmechanischen Berechnungen von [7-9] motiviert. Der Vergleich mit diesen Berechnungen zeigt hohe Übereintismmungen für Ar@C60 und Xe@C60. Allerdings fanden sich auch grosse Unterschiede für Mg@C60, vor allem bei niedriger Photonen-Energie. Das Fulleren besitzt zwei Arten von Valenzelektronen: Die ¼-Elektronen und die stärker gebundenen ¾-Elektronen. Dies führt zum Auftreten zweier Oberflächen-Plasmons in Fullerenen. Dabei ist allgemein bekannt, dass das Buckminster-Fulleren ein Plasmon nahe 8 eV, sowie ein deutlich größeres nahe 20 eV besitzt. Diese sind mit den ¼-Elektronen, respektive den ¾-Elektronen verknüpft (auch wenn ¼-Elektronen zusÄatzlich zu dem ¾-Plasmon beitragen). Aufgrund dieser Tatsache wäre es angemessener, die Valenzelektronen nicht als Ein-, sondern als Zwei-Komponenten-Elektronen-Gas zu behandeln. Um dies miteinzubeziehen, passten wir unser Modell dahingehend an, dass wir das Fulleren als zwei unabhängige kozentrische dielektrische Schalen simulieren. Die Valenzelektronen wurden so auf die zwei Schalen aufgeteilt, dass eine Schlale alle Elektronen enthielt, die Teil des ¼{Plasmons sind, und die andere alle Beteiligten am ¾{Plasmon [4, 5]. Der Vergleich dieses modifizierten Modelles mit den quanten{mechanischen Berechnungen zeigte eine deutlich verbesserte Übereintismmung der Ergebnisse. Alle Merkmale der Berechnungen, vor allem das deutliche Maximum nahe 10 eV bei Mg@C60, konnten reproduziert und damit erklärt werden. Bedingt durch die endliche Dicke der Fulleren-Schale spalten jeder der beiden Plasmonen in jeweils zwei Plasmon Eigenmoden auf. Daher zeigt der dynamische Abschirm-Faktor nun vier Haupt{Eigenschaften welche die vier Plasmon-Moden abbilden. Nichtsdestotrotz zeigen sich immer noch quantitative Unterschiede im Falle von Mg@C60. Fürr Ar@C60 und Xe@C60, bei welchen das ursprÄungliche Modell bereits gute Fits zeigte, werden diese Fits durch die Anpassungen im Modell sogar noch verbessert. Interessanterweise zeigen sich die größten Veränderungen des dynamischen Abschirm-Faktors bei niedrigen Photonen{Energien, also im Bereich des ¼-Plasmons. Betrachtet man den Querschnitt dieses Fulleren Modells, so zeigt der Querschnitt Eigenschaften die den vier Ober°Äachen{Plasmon{Moden des Fullerens zugeordnet werden. Vergleicht man dies mit anderen theoretischen Arbeiten [12] und einer Sammlung verschiedener experimenteller Messungen [10], so zeigt sich, dass alle SchlÄussel{Eigenschaften des Querschnittes in unserem Modell vorhanden sind. Abschlie¼end wurde die Abhängigkeit des dynamische Abschirm-Faktors von der Position des endohedralen Atoms innerhalb des Fullerens anhand zweier Fallstudien, Ar@C60 und Ar@C240 [3, 4], untersucht. Die Ergebnisse zeigen, dass der dynamische Abschirmfaktor relativ unempfindlich gegenüber Veränderung des Positions-Winkels des Atoms ist. Die radiale Position hingegen stellte sich als sehr wichtig heraus. Je mehr sich das Atom der Fulleren-Hülle nähert, desto grösser wird der dynamische Abschirmfaktor. Diese Studien zeigen, dass es notwendig ist, eine Art räumlichen Mittelwertes für den dynamische Abschirmfaktor zu bestimmen, um sichtbare Resultate zu erhalten. Im Rahmen dieser Arbeit wurde daher eine Methode für solch einen Mittelwert entwickelt [3, 4]. Neben der Untersuchung des dynamische Abschirm-Faktors wurde auch ein Vergleich mit experimentellen Messungen erarbeitet. Im Falle von Ce@C82 war die Photon{Energiespanne sehr hoch, weit über der Plasmon-Energie des Fullerens. Das Fulleren sollte daher für eine solche Bestrahlung durchlässig sein, und daher würde man keinen dynamischen Abschirmungs-Effekt finden können. Der Vergleich für Sc3N@C80 ist komplizierter. Da es sich dabei um ein rein klassisches Modell handelt, muss man achtgeben, es nicht mit dem vollständig freien Komplex zu vergleichen, sondern zusätzlich quanten{mechanische Effekte aus Confinements, wie zum Beispiel Elektronen{Transfers, miteinzubeziehen. Zudem ist das aktuelle Modell zu dynamischer Abschirmung nicht für Moleküle, sondern nur für einzelen Atomeentwickelt worden. Ein erster naiver Vergleich, in welchem der Endohedrale Komplex als Pseudo{Atom modelliert wurde, konnte die breite Struktur der experimentellen Ergebnisse nicht wiedergeben. Berechnungen des dynamischen Abschirmfaktors und des daraus resultierenden Querschnittes für ein einzelnes Scandium{Ion zeigte, dass auch räumliches Mitteln nicht ausreicht um die experi-mentellen Beobachtungen erklären zu können. Die Anwesenheit des Fullerens führt zur Öffnung eines neuen Kanals innerhalbdes Auger Prozesses [6, 11] und damit zur Verbreiterung der atomaren Spektrallinienweite. Berücksichtigt man diesen Effekt, so kann die ÄAhnlichkeit zu den experimentellen Ergebnissen deutlich erhöht werden. Allerdings ist es wichtig dabei auch die räumlichen Abhängigkeiten des Effekts, wie auch die der dynamischen Abschirmung, zu beachten. Erste vorläufige Ergebnisse deuten an, dass die beiden genannten Effekte, zumindest teilweise, dabei helfen können, die experimentell gefunden Ergebnisse zu erklären. Unser Modell zur Berechnung des dynamischen Abschirmfaktors liefert eine detaillierte Beschreibung und mögliche Erklärungen der diskutierten Phänomene, welche über die bisherige Arbeiten in der theoretischen Literatur hinausgehen. Die wichtigen Eigenschaften der experimentellen Arbeiten konnten mit dem Modell reproduziert werden, und mit der Verbreiterung der atomaren Spektrallinienweite und der dynamischen Abschirmung konnten wir zwei Effekte als mögliche bisher nicht berücksichtigete Erklärungen für einige dieser Eigenschaften herausarbeiten.
Das Ziel der vorliegenden Arbeit war der Einbau, die Inbetriebnahme, die Abstimmung und der Test eines Strahlmatchingsystems in eine Zweistrahl-RFQ-Beschleunigerstruktur. Dieses Strahlmatchingsystem wurde entwickelt, um die Beschleunigereinheit des Frankfurter Funneling-Experimentes besser an die nachfolgende HF-Deflektoreinheit anzupassen und um zu zeigen, dass ein Strahlmatching innerhalb der RFQ-Beschleunigerstruktur möglich ist. Des Weiteren wurden die zum Versuch gehörigen Ionenquellen modifiziert, um eine bessere Anpassung der Strahlherstellung an die Beschleunigerstruktur zu erreichen. Die Spannungsverteilung in der Beschleunigerstruktur selbst wurde durch weitergehende Tuningmaßnahmen verbessert, um die Teilchenverluste weiter zu minimieren Mit dem Funnelingexperiment soll experimentell geprüft werden, ob eine Strahlstromerhöhung durch das Zusammenführen mehrerer Ionenstrahlen verschiedener Ionenquellen möglich ist. Solch ein System ist für einige Zukunftsprojekte (HIDIF, SNS-Ausbau, ESS, u.ä.), die große Strahlströme benötigen, die nicht aus nur einer Ionenquelle extrahiert werden können, erforderlich. Das in dieser Arbeit behandelte Strahlmatching ist für das Experiment notwendig, da zu große Teilchenverluste in der Funnelsektion entstanden und somit eine bessere Anpassung des Strahls an den HF-Deflektor erforderlich wurde. Es konnte gezeigt werden, dass die hier verwendete Art der Strahlfokussierung auch in eine komplizierte RFQ-Beschleunigerstruktur integrierbar ist, in der zwei Strahlkanäle auf der gleichen Stützen-Bodenplatten-Konstruktion aufgebaut sind. Die Verlängerung der Endelektroden und die Integration einer Strahlanpassung haben einen positiven Einfluss auf die Transsmission innerhalb des Beschleunigers und verbessern die Transmission durch den Deflektor. Es konnten Energiemessungen und zeitaufgelöste Faradaytassenmessungen der Teilchenbunche sowie zeitaufgelöst Makropulse mit der Faradaytasse gemessen werden. Floureszensschirmmessungen zeigten, dass die beiden Teilchenstrahlen auf eine neue gemeinsame Strahlachse gebogen wurden. Die Energiemessung zeigte, dass die Simulationen mit RFQSIM sehr genau die Endenergie der Teilchen berechnen konnte. Im Strahlkreuzungspunkt hinter dem Zweistrahl-RFQ-Beschleuniger konnten nahezu identische Teilchenbunche erzeugt werden. Diese Teilchenbunche wiesen zudem die in vorherigen Simulationen errechneten Charakteristika auf, in denen eine transversale und eine longitudinale Fokussierung gegenüber dem ungematchten Strahl simuliert wurden. Es konnte auch eine weitere Strahlradiusreduzierung gemessen werden, die auf eine exaktere Justierung der Elektroden zurückzuführen ist. Die Phasenfokussierung konnte verbessert werden, indem die Elektrodenspannung besser an die Strahlmatchingsektion angepasst wurde. Hierzu mussten auch die Einschussparameter der Strahlen in die Beschleuniger angepasst werden, damit die Transmission der Beschleuniger sich nicht verschlechterte. Insgesamt konnte mit den durchgeführten Experimenten erstmals demonstriert werden, dass zwei Strahlen in einem RFQ-Beschleuniger auf einen Punkt hinter dem Beschleuniger angepasst werden können und die Spannungsverteilung in solch einer Struktur durch Tuningmaßnahmen abstimmbar ist. Es konnte erstmals demonstriert werden das über 90% der Teilchen beider Strahlen, bei guten Strahleigenschaften, auf eine neue gemeinsame Strahlachse abgelenkt (gefunnelt) wurden.
Im Rahmen dieser Arbeit ist es gelungen, eine weltweit einmalige Messapparatur zu entwickeln, mit der Wasserstoffmolekülionen mittels kurzer Laserpulse ionisiert und die Reaktionsprodukte kinematisch vollständig vermessen werden können. Es wird dazu eine an die Coltrims-Technik angelehnte Detektionsmethode genutzt, bei der sowohl Protonen als auch Elektronen über den vollen Raumwinkel nachgewiesen werden können. Die H2+ -Ionen stammen aus einer Hochfrequenz-Ionenquelle und werden auf 400keV beschleunigt. Die Besetzungshäufigkeit der Vibrationsniveaus entspricht daher der Franck-Condon-Verteilung für den Übergang aus dem Grundzustand des neutralen Wasserstoffmoleküls in den elektronischen Grundzustand des Molekülions: H2 (xPg, ν = 0) → H2+ (1sσg, ν′) Dieser Ionenstrahl wird mit einem 780 nm Laserpuls der Pulslänge 40 fs überlappt. Nach der Reaktion fragmentiert das Molekülion entweder über den Dissoziationskanal H2+ + nhν ⇒ H + H+ oder über eine Ionisation gefolgt von einer Coulomb-Explosion: H2+ + nhν ⇒ H+ + H+ + e−. Die Projektile werden nach einer Driftstrecke von etwa 3 m auf einem Ionendetektor nachgewiesen. Für den Nachweis der Elektronen wurde ein spezielles Spektrometer konzipiert, das eine Unterdrückung ungewollter Elektronen erlaubt und so die Messung der Elektronen ermöglicht. Um Elektronen auszublenden, die vom Laser aus dem Restgas ionisiert werden, ist der Elektronendetektor in Flugrichtung der Ionen versetzt angebracht. Durch die unkonventionelle Ausrichtung des Lasers in einem Winkel von 20◦ relativ zur Flugrichtung der Ionen können vom Laser erzeugte Elektronen nur dann den Elektronendetektor erreichen, wenn sie aus dem bewegten Bezugsystem der Projektile stammen. Diese Unterdrückung macht die Messung der Elektronen erst möglich, hat aber auch eine nachteilige Geometrie der Verteilungen gegenüber den Detektorebenen zur Folge. Durch die Ausnutzung der Projektilgeschwindigkeit ist überdies die Benutzung eines B-Feldes zur Verbesserung der Flugzeitauflösung der Elektronen nicht möglich. Um eine Überlappung des Ionenstrahls mit dem Laserfokus zu erreichen, wurde im Bereich der Reaktionszone ein System zur Visualisierung der Strahlpositionen integriert. Dieses kann überdies für eine Intensitätseichung bei linear polarisiertem Licht verwendet werden. Bei der Reaktion kommt es durch die vergleichsweise lange Pulsdauer schon bei relativ niedrigen Intensitäten zu Dissoziationsprozessen. Das dissoziierende Molekül erreicht noch während der ansteigenden Flanke des Laserpulses auf diese Weise Abstände, bei denen der Prozess der Charge-Resonance-Enhanced-Ionization (CREI) stattfinden kann. Auch die in einem sehr engen Winkelbereich um die Polarisationsrichtung des Lasers liegende Winkelverteilung der gemessenen Protonen deutet darauf hin, dass CREI der dominante Ionisationsprozess ist. Durch die vorausgehende Dissoziation nimmt das Molekül schon vor der Ionisation eine kinetische Energie auf, so dass die gemessene KER-Verteilung einer Summe aus KERDissoziation und KERIonisation darstellt. Ein Vergleich mit den KER-Spektren des Dissoziationsprozesses zeigt, dass die aufgenommene Energie durch Dissoziation zu einem überwiegenden Anteil in einem Bereich von 0, 6 ± 0, 35 eV besitzt, während die Gesamt-KER-Verteilung deutlich höhere Werte bis zu 6 eV aufweist. Dies ermöglicht, aus der gemessenen KER-Verteilung den internuklearen Abstand zum Ionisationszeitpunkt näherungsweise zu bestimmen. Die gemessenen Elektronen weisen, ebenso wie die Protonen, eine scharfe Ausrichtung entlang der Laserpolarisation auf, was durch den Einfluss des Lasers auf dieser Achse nicht verwunderlich ist. Bei zirkularer Polarisation dagegen findet eine Netto-Beschleunigung der Elektronen senkrecht zur Richtung des elektrischen Feldes zum Ionisationszeitpunkt statt, sodass die Messung der Elektronenimpulse eine geeignete Messgröße zur Untersuchung des Ionisationsprozesses darstellt. Auf diese Art konnten Winkelverteilungen der Elektronen bezüglich der internuklearen Achse innerhalb der Polarisationsebene gemessen werden. Abhängig von KER und Elektronenergie konnte dabei eine Verdrehung der Verteilung gegenüber den klassisch erwarteten 90◦ relativ zur internuklearen Achse festgestellt werden. Die Winkelverteilung rotiert dabei mit steigendem KER entgegen des Drehsinns. Dies widerspricht der gängigen Vorstellung einer Tunnelionisation, bei der nur die Beschleunigung des Elektrons im Laserfeld eine Rolle spielt und der Einfluss des Coulomb-Potentials vernachlässigt wird. Für höhere Elektronenergien zeigt sich eine zweite konkurrierende Struktur, die für die höchsten Energien die sonst vorherrschende erste Struktur sogar dominiert. Da sich in den Protonenspektren für linear polarisiertes Licht kein Einfluss einer Ionisationsenkrecht zur Polarisationsrichtung findet, erscheint dies als Grund für die zweite Struktur in den Elektron-Winkelverteilungen als unwahrscheinlich. Eine stichhaltige und gestützte Erklärung gibt es bisher weder für die Rotation der ersten Struktur noch für die Herkunft der zweiten. Dies zeigt deutlich, dass es auch für dieses einfachste Molekülsystem noch einen erheblich Handlungsbedarf sowohl auf theoretischer als auch von experimenteller Seite gibt. Da dieses Experiment den ersten experimentellen Zugang für die direkte Untersuchung der Elektronimpulse bei der Ionisation von H2+ -Ionen in kurzen Laserpulsen darstellt, bietet sich hier die bisher einzige Möglichkeit, dieses Verhalten experimentell zu untersuchen.
Untersuchung der Konformation und Dynamik von RNA mit Hilfe fluoreszierender Farbstoffmoleküle
(2010)
Die vorliegende Arbeit beschäftigt sich mit der Untersuchung der konformationellen und elektronischen Eigenschaften sowie der Dynamik verschiedener RNA-Systeme. Zur Durchführung dieser Experimente wurde zusätzlich zu bereits vorhandenen statischen und zeitaufgelösten Absorptionsspektrometern im Rahmen dieser Arbeit eine Apparatur zur Messung von Fluoreszenzlebensdauern entwickelt, die durch die integrative Verwendung zweier verschiedener, etablierter Technologien (TCSPC und Aufkonvertierung) über einen weiten Zeitbereich von 9 Größenordnungen (100 fs - 0,1 ms) operiert. Mit diesem Aufbau konnten neben den RNA-Studien wichtige Beiträge zum Verständnis der Isomerisierung eines Retinalproteins, des Transportprozess des Membrantransportproteins TbSMR und der im Infraroten liegenden Fluoreszenz des Radikalkations von Astaxanthin gewonnen werden. Der Schwerpunkt der vorliegenden Arbeit liegt auf der Untersuchung verschiedener RNA-Systeme: So werden die optischen Eigenschaften einer 1-Ethinylpyren-modifzierten RNA-Adeninbase allein und in RNA-Strängen eingebunden untersucht. Statische Fluoreszenzmessungen zeigen einen ausgeprägten Ladungstransfercharakter des Chromophors und eine generell große Wechselwirkung zwischen Ethinylpyren und Adenin, die in einer substanziellen Änderung der optischen Eigenschaften des Pyrens resultiert. Die Untersuchung der schnellen Photodynamik von Pyrenadenin zeigt zudem eine Verringerung der Lebensdauer von Pyren um etwa 2 Größenordnungen. Pyrenadenin zeigt sowohl Fluoreszenz eines neutralen (100-200 ps), als auch eines energetisch tiefer liegenden Ladungstransferzustands (1-2 ns). Die Formationszeit des Ladungstransferzustandes fällt mit steigender Polarität des Lösemittels. Eingebunden in Modell-RNA-Stränge ist Fluoreszenzquantenausbeute des Chromophors ein deutlicher Indikator für seine Interkalation. Nur in der stabileren Umgebung von GC-Basenpaaren ist das Pyren in der Lage, sich dauerhaft innerhalb des Duplex aufzuhalten, während in einer flexibleren AU-Umgebung eine Position außerhalb des RNA-Duplex präferiert wird. Transiente Absorptionsmessungen zeigen, dass die Photophysik des in RNA eingebundenen Pyrenadenins nur kleine Variationen im Vergleich zur Photophysik des Labels allein aufweist. Die deutliche Abnahme der Quantenausbeute des interkalierten Chromophors geht hauptsächlich auf Kosten der langlebigeren Ladungstransferfluoreszenz, so dass interkaliertes Pyren insgesamt schneller in den Grundzustand zurückkehrt als nicht interkaliertes. Mit Hilfe eines doppelt modifizierten Duplex, bei dem sich jeweils ein Farbstoff an einem der beiden Stränge befindet, kann nachgewiesen werden, dass aufgrund von Exzimerwechselwirkungen eine Verschiebung des Fluoreszenzmaximums von 35 nm auftritt. Kurzzeitspektroskopische Messungen zeigen Signale, die als Superposition von Monomeren und Exzimeren interpretiert werden können, wobei die Lebensdauer des letzteren mit 18,5 ns die der Monomerkomponente um ein Vielfaches übertrifft. Ein weiterer Teil dieser Arbeit beschäftigt sich mit einer Studie zur Bindung des fluoreszenten Liganden Tetrazyklin an das Tetrazyklin bindende Aptamer. Hier wird auf Basis verschiedener Mutanten mit Hilfe des TCSPC eine Analyse der Stabilität der Bindetasche sowie mit der Stopped-Flow-Methode eine Beobachtung des Bindungsprozesses durchgeführt. Insgesamt folgt die Bindung des Tetrazyklins an das Aptamer einer zweistufigen Kinetik, deren zweiter Schritt irreversibel ist. Die Bindung läuft, verglichen mit anderen Aptameren, sehr schnell ab. Während die Mutationen von A13 und A50,die direkte Kontakte zum Substrat bilden, nur einen leichten Einfluss auf beide Bindungsschritte ausüben, führt eine Mutation der für die Präformation verantwortlichen Base A9 zu einer Verlangsamung des Bindungsprozesses um mehr als einen Faktor 20 durch eine immens gesteigerten Rückreaktionsrate des ersten Bindungsschritts. Hieraus lässt sich schließen, dass bei fehlender Präformation des Aptamers nur wenige Tetrazyklinmoleküle ein für vollständige Bindung geeignetes Aptamer vorfinden. Die Bindung an A13 und A50 geschieht bereits im ersten Schritt des Bindungsprozesses. Ferner konnte anhand von Lebensdauermessungen gezeigt werden, dass nach dem Wildtyp die Mutante A9G die stabilste Bindetasche aufwies. Das Fehlen eines direkten Kontaktes wirkt sich deutlich stärker aus. Insbesondere führt die Abwesenheit der Fixierung des Gegenions durch A50 zu der instabilsten Bindetasche. Wie in dieser Arbeit gezeigt wird, ist die zeitaufgelöste optische Spektroskopie insbesondere in Verbindung mit fluoreszierenden Molekülen ein ausgezeichnetes Mittel zur Beobachtung von Struktur und Dynamik von RNA. Die Empfindlichkeit von Fluoreszenz auf die Veränderung der Umgebung des Chromophors erlaubt es, Konformationsdynamik und elektronische Konfigurationen in Echtzeit zu beobachten.
Die vorliegende Arbeit bietet zunächst einen weiteren Beweis für die Existenz des neutralen Heliumdimers. Darüber hinaus konnten zwei verschiedene Prozesse identifiziert werden, über die die Absorbtion eines Photons zur Ionisation beider Atome des Dimers über sehr große Abstände führen kann. Oberhalb einer Photonenenergie von 65,4 eV konnte ein ICD Prozess beobachtet werden, der über Photoionisation mit gleichzeitiger Anregung von einem der beiden Atome realisiert wird. Bei 77,86 eV konnte ICD über elektronisch angeregte Zustände bis n=6 nachgewiesen werden. In der KER-Verteilung konnten zudem Strukturen gefunden werden, die auf Vibrationsanregungen im Zwischenzustand des Dimer-Ions schließen lassen. Eine vollständig quantenmechanische Rechnung von Sisourat et al. konnte dies schließlich hervorragend bestätigen. Es konnte also ein direkter Blick auf die Vibrationswellenfunktionen des Systems erlangt werden. In anderen Systemen ist dies in der Regel nicht möglich, da sich alle Zustände üblicherweise zu einer strukturlosen Verteilung überlagern. Weiterhin konnte gezeigt werden, dass sich die Winkelverteilungen von ICD- und Photoelektronen in verschiedenen Bereichen des KER mitunter stark voneinander unterscheiden. Dies konnte auf die unterschiedliche Besetzung von verschiedenen Potentialkurven zurückgeführt werden. Unterhalb der Photonenenergieschwelle zur Anregung und Ionisation eines Heliumatoms konnte ein weiterer, zweistufiger Ionisationsmechanismus gefunden werden. Hier wird zunächst durch Photoionisation ein Elektron aus einem der beiden Atome im Dimer freigesetzt. Dieses Photoelektron kann nun am neutralen Atom gestreut werden und dabei ausreichend viel Energie übertragen, um dieses ebenfalls zu ionisieren. Es konnte gezeigt werden, dass der Prozess einer Abhängigkeit von der Polarisation der Synchrotronstrahlung unterliegt, die man für Photoionisation erwarten würde. Die Energie- und Winkelverteilungen der Elektronen konnten daher mit vorangegangenen Elektronenstoß-Experimenten verglichen werden. Die gute Übereinstimmung mit diesen Daten rechtfertigt eine anschauliche Sichtweise des Prozesses als Analogon zum klassischen Billiard-Stoß. Der Two-Step-Prozess wurde bisher zwar schon in vielen Systemen als theoretisches Modell zur Doppelionisation beschrieben, allerdings konnten die einzelnen Unterprozesse bisher nicht gesondert gemessen werden. Die großen Abstände im Heliumdimer ermöglichen erstmals eine deutliche Trennung in Photoionisation an einem Atom und Elektronenstoß (e,2e) am Nachbaratom. Der Two-Step-Prozess konnte außerdem dazu verwendet werden, die ungewöhnliche Grundzustandswellenfunktion des Heliumdimers zu experimentell zu bestätigen. Eine Analyse des gemessenen KER konnte dabei deutliche Abweichungen zu einer klassischen Theorie aufzeigen. Erst eine vollständig quantenmechanische Rechnung des Übergangs von Sisourat et al. konnte die Messdaten beschreiben.
Mit der vorliegenden Arbeit wurden zu ersten Mal die seit mehreren Jahren vorhergesagten dynamischen Aufbruchsmechanismen - der direkte, der sequentielle und der asynchrone Zerfall - in mehratomigen Molekülen kinematisch vollständig untersucht. Experimentell wurde hierfür ein Kohlenstoffdioxid-(CO2)-Molekül in langsamen Ion-Molekül Stößen dreifach ionisiert, indem die Elektronen des Targets von den langsamen, hochgeladenen Projektilionen (Ar8+-Ionen) eingefangen wurden. Die Untersuchung des Zerfalls des CO2-Ions in die einfach geladenen ionischen Fragmente C+ + O+ + O+ zeigte, dass bei diesem Zerfall das Projektilion vornehmlich einen positiven Ladungszustand von q = 6 und nicht den zunächst erwarteten Ladungszustand q = 5 aufweist. Dies ist darauf zurückzuführen, dass die eingefangenen Elektronen oftmals elektronisch hoch angeregte Zustände im Projektil populieren und demnach im weiteren Verlauf über Autoionisationsprozesse dieses auch wieder verlassen können. Ähnliche Autoionisationsprozesse können auch im Target ablaufen, treten dort jedoch mit einer geringeren Wahrscheinlichkeit auf, da der Wirkungsquerschnitt für Autoionisationsprozesse im Target um einen Faktor 1,3 kleiner ist als für Autoionisationen im Projektil. Zusätzlich zeigte die Untersuchung der Stoßdynamik, dass der dreifache Elektroneneinfang primär bei einer parallelen Orientierung der Molekülachse zur Projektilstrahlachse auftritt. Eine weitere Abhängigkeit der Stoßdynamik zum Beispiel vom Stoßparameter beziehungsweise vom Streuwinkel konnte nicht beobachtet werden. Durch die koinzidente Messung aller vier Reaktionsteilchen konnte der Kanal Ar8+ + CO2 --> Ar6+ + C+ + O+ + O+ eindeutig bestimmt werden und die Reaktionsdynamik des CO2-Ions nach dem Stoß analysiert werden. Dabei tritt deutlich der direkte Aufbruch hervor, bei welchem die drei einfach geladenen Ionen sich rein aufgrund ihrer Coulombkräfte voneinander abstoßen. Bei einer solchen Coulombexplosion bleibt dem Molekülion kaum Zeit, um eine molekulare Schwingung zu vollführen. Neben diesem schnellen Zerfall konnten aber auch jene Zerfälle beobachtet werden, bei denen das Molekülion zuerst molekular schwingt und dann zu einem späteren Zeitpunkt in die ionischen Fragmente zerfällt. Dieser letztere Zerfallsprozess gehört zu den sogenannten asynchronen Zerfallsmechanismen. Er stellt einen Zwischenprozess zwischen dem reinen 1-Stufen-Prozess wie dem direkten Aufbruch und dem reinen 2-Stufen-Prozess dar. Bei solchen sequentiellen 2-Stufen Prozessen fragmentiert das CO2-Molekül im ersten Schritt in ein O+- und ein CO2+-Ion. Im zweiten Schritt dissoziiert dann das CO2+-Fragment, nachdem es nahezu keine Wirkung der Coulombkräfte des ersten Sauerstoffions mehr spürt, in ein C+- und ein O+-Ion. Durch die Darstellung der Schwerpunktsimpulse der Fragmente in Dalitz- und Newton-Diagrammen ist es mit dieser Arbeit erstmals gelungen diesen sequentiellen Prozess experimentell eindeutig nachzuweisen. In der weiteren Analyse konnte gezeigt werden, dass über die im System deponierte Energie, welche über die kinetische Energie der Fragmente bestimmt wird, die verschiedenen Reaktionsmechanismen direkt kontrolliert werden können. Speziell bei Energien unterhalb von 20 eV wurde gezeigt, dass es keine Potentialflächen gibt, die über einen direkten bzw. simultanen Aufbruch zu dem Endzustand C+ + O+ + O+ führen. Bei mehratomigen Molekülen erweist sich das Treffen detaillierter Aussagen über mögliche Dissoziationskanäle ohne die genaue Kenntnis der Lage der Potentialflächen und den Übergängen zwischen diesen als äußerst schwierig. Selbst bei genauer Kenntnis der Lage und Form der Potentialflächen, ist es aufgrund der hohen Dichten innerhalb der Übergangsbereiche der Potentialflächen nahezu unmöglich, den Verlauf der Dissoziationskanäle zu verfolgen. Mit dieser Arbeit ist es gelungen, die verschiedenen Reaktionskanäle ohne die Existenz von Energiepotentialflächen eindeutig zu identifizieren. Außerdem konnte gezeigt werden, dass die Energie, die während des Stoßes im Molekül deponiert wird, eine Schlüsselgröße darstellt, mit welcher die Fragmentationskanäle direkt kontrolliert werden können.
Bei der GSI – Helmholtzzentrum für Schwerionenforschung in Darmstadt wird im Rahmen des HITRAP-Projekts ein linearer Abbremser für schwere, hochgeladene Ionen für atomphysikalische Präzisionsexperimente in Betrieb genommen. Während der Inbetriebnahme wurden transversale Emittanzmessungen mit der Pepperpot- und der Multi-Gradienten-Methode durchgeführt, um die Emittanz des aus dem Experimentierspeicherring (ESR) extrahierten Strahls zu messen. Weiterhin wurde auch die Phasenraumverteilung des auf eine Zwischenenergie von 500keV/u abgebremsten Strahls hinter der IH-Struktur gemessen. Dazu wurden neue Auswertealgorithmen in die Analyse der digitalen Bilder integriert. Die longitudinalen Bunchstrukturmessungen des Strahls am Eintrittspunkt in den Abbremser und die Funktionsweise des Doppel-Drift Bunchers wird gezeigt. Die Konzeption und der Aufbau sowie die erste Inbetriebnahme einer neuartigen Einzelschuss-Pepperpot-Emittanzmessanlage für kleinste Strahlströme und -energien wird beschrieben, die es ermöglichen, den Strahl hinter den Abbremskavitäten zu vermessen. Zusätzlich wurden transversale Strahldynamikrechnungen durchgeführt, welche theoretische Grundlagen zur Inbetriebnahme von HITRAP lieferten. Es wird beschrieben, wie die gesamte Strahllinie vom ESR bis zum Radio-Frequenz Quadrupol nach der erfolgreichen Integration einer Abbremsroutine innerhalb des Softwarepakets COSY Infinity optimiert werden kann.
Im Zentrum dieser Arbeit stehen die Überstrukturphasen des Yb-Cu-Systems. Als Ausgangspunkt für die Kristallzüchtung wird die kongruent schmelzende Verbindung YbCu4:5 gewählt. Um einen genauen Einblick in das Erstarrungsverhalten dieser Phase zu erhalten, werden zunächst im Bereich zwischen 17.3 und 22.4 at-% Yb eine Reihe von DSC-Messungen durchgeführt. Die Ergebnisse lassen sich nur bedingt mit den in der Literatur veröffentlichten Phasendiagrammen (Moffat [Mo92] bzw. Massalski [Ma90] und Giovannini et al. [Gi08]) vereinbaren. Zwar kann eine kongruent schmelzende Phase der Zusammensetzung YbCu4:5 nachgewiesen werden, die Messungen deuten aber die Existenz zusätzlicher Verbindungen an, die allerdings mit Hilfe der EDX-Analyse nicht weiter spezifiziert werden können. Um diese Phasen genauer zu analysieren, werden Einkristallzüchtungsversuche nach der Bridgman-Methode im Bereich zwischen 19 und 19.2 at-% Yb durchgeführt und mittels Einkristallbeugungsmethoden (SC-XRD und SAED) charakterisiert. Auf diese Weise können neben YbCu4:5 die bisher noch unbekannten berstrukturphasen YbCu4:4 und YbCu4:25 nachgewiesen werden, deren Schmelztemperaturen mittels DSC-Untersuchungen zu 934(2)°C und 931(3)°C bestimmt werden. Die Entdeckung der beiden Verbindungen bestätigt die von Cerný et al. [Ce03] bisher nur theoretisch vorhergesagte Existenz der Überstrukturphasen SECux (x=4.4 und 4.25) für das Yb-Cu-System. Mit Hilfe von Polarisations- und Rasterelektronenmikroskopie und unter Anwendung der Laue-Methode wird das Wachstumsverhalten dieser Überstrukturphasen analysiert. Man beobachtet ein Schichtwachstum, wobei sich die Schichten parallel zur a- und b-Richtung ausbilden und in c-Richtung gestapelt vorliegen. Da eine zuverlässige Unterscheidung der YbCux-Verbindungen nur mit Hilfe von Einkristallbeugungsmethoden gelingt, wird im Rahmen dieser Arbeit untersucht, inwiefern eine Charakterisierung mittels Pulverdiffraktometrie möglich ist. Die Messungen mit Synchrotronstrahlung am ESRF in Grenoble erlauben eine eindeutige Unterscheidung der Überstrukturphasen allerdings nicht. Die Analyse des an das Überstrukturgebiet angrenzenden Zusammensetzungsbereichs von 12.5 bis 17.24 at-% Yb bestätigt die Existenz der Verbindung YbCu6:5, eine kupferärmere Phase der Zusammensetzung YbCu5 kann in den DSC-Experimenten nicht nachgewiesen werden. Die Messungen belegen die Existenz einer Phasenbreite von YbCu6:0+x mit 0 <= x <= 0:5 ist, was im Gegensatz zu dem von Giovannini et al. [Gi08] publizierten Phasendiagramm steht. SC-XRD-Aufnahmen an nach der Bridgman-Methode gezüchteten Einkristallen der Zusammensetzung YbCu6:31(9) untermauern das von Hornstra und Buschow [Ho72] gefundene Strukturmodell. Die Verschiebungen der Atompositionen bedingt durch den im Gegensatz zur YbCu5-Verbindung erhöhten Kupferanteil werden mit Hilfe der gemessenen und berechneten Paarverteilungsfunktion nachvollzogen. Phasendiagrammuntersuchungen und Einkristallzüchtungsergebnisse für weitere SE-Cu-Systeme (SE =Ho, Gd) bestätigen die Existenz der Verbindung HoCu4:5 und erhärten den Verdacht sowohl in diesem als auch in den anderen Systemen noch weitere Überstrukturphasen finden zu können.
In der Doktorarbeit wurde ein Verfahren zur Ermittlung der Schwerpunkthöhe eines Fahrzeugs aus den Messwerten von Sensoren, die serienmäßig in vielen geländegängigen Fahrzeugen verbaut sind, entwickelt. Dieses Verfahren benötigt nur die Signale von Sensoren des elektronischen Stabilitätssystems (ESP) und eines Fahrwerks mit Luftfeder. Um die Höhe des Schwerpunkts zu bestimmen, wurde ein Modell entworfen, das die Drehbewegung des Fahrzeugs um seine Längsachse beschreibt. Eine der unbekannten Größen in diesem Modell ist das Produkt m_g\Deltah, wobei mit m_g die gefederte Masse des Fahrzeugs und mit Deltah der Abstand zwischen dem Schwerpunkt und der Wankachse des Fahrzeugs bezeichnet wird. Die Höhe des Schwerpunkts wird berechnet, indem zu diesem Abstand der als bekannt vorausgesetzte Abstand der Wankachse von der Straße addiert wird. Es wurden drei Varianten des Modells betrachtet. Die eine Modellvariante (stationäres Modell) beschreibt das Fahrzeugverhalten nur in solchen Fahrsituationen exakt, in denen die Wankgeschwindigkeit und die Wankbeschleunigung vernachlässigbar klein sind. In dieser Modellvariante wurden die Federkräfte mit einem detaillierten Modell der Luftfeder berechnet. Eine Eingangsgröße dieses Modells ist der Druck in den Gummibälgen der Luftfeder. Um diesen Druck zu ermitteln, wurde ein Algorithmus auf dem Steuergerät des Luftfedersystems implementiert. Um die Genauigkeit des Luftfedermodells zu testen und um die Abmessungen bestimmter Bauteile der Luftfeder zu ermitteln, wurden Messungen am Federungsprüfstand durchgeführt und eine Methode entwickelt, wie aus diesen Messungen die gesuchten Größen berechnet werden können. Bei den zwei übrigen Modellvarianten (dynamisches Modell) gelten die Einschränkung für die Fahrsituationen nicht. Die einzelnen Varianten des dynamischen Modells unterscheiden sich darin, dass das eine Mal die Feder- und Dämpferkonstanten als bekannt vorausgesetzt und das andere Mal aus den Sensorsignalen geschätzt werden. Passend zu jeder Modellvariante wurde ein Verfahren gewählt, mit dem Schätzwerte für das Produkt m_g\Deltah berechnet wurden. Des Weiteren wurde auch eine Methode entwickelt, mit der die Masse mg geschätzt wurde, ohne zuvor ein Wert für das Produkt m_g\Deltah zu ermitteln. Die Schätzwerte wurden unter Verwendung von Daten ermittelt, die bei einer Simulation und bei Messfahrten gewonnen worden sind. Das Ergebnis des Vergleiches der betrachteten Modellvarianten ist, dass die eine Variante des dynamischen Modells zum Teil falsche Werte für m_g\Deltah liefert, weil die Modellgleichungen ein nicht beobachtbares System bilden. Die andere Variante dieses Modells liefert nicht bei jeder Beladung exakte Werte, was vor allem daran liegt, dass in den Modellgleichungen dieses Modells ein konstanter Wert für die Federsteifigkeit angenommen wird. Bei Fahrzeugen mit Luftfeder ändert sich jedoch dieser Wert in Abhängigkeit von der Fahrzeugmasse. Die Werte von m_g\Deltah und mg können am genauesten mit dem stationären Modell ermittelt werden. Des Weiteren wurden Methoden entwickelt, die die Genauigkeit der durch den Schätzalgorithmus ermittelten Werte verbessern. So wurde zusätzlich zu dem Produkt m_g\Deltah und der Masse mg auch die Verteilung des Gewichtes auf die Vorder- und Hinterachse betrachtet. Es wurde ermittelt, welche Zusammenhänge zwischen dieser Verteilung und dem Produkt m_g\Deltah sowie zwischen dieser Verteilung und der Masse des Fahrzeugs bestehen. So konnte der Fehler in den Schätzwerten dieser Größen minimiert werden. Außerdem wurde auch der Zusammenhang zwischen dem Produkt m_g\Deltah und der Masse des Fahrzeugs ermittelt. Damit konnten die Schätzwerte dieser Größen genauer bestimmt werden. Aus den so gewonnenen Werten kann die Schwerpunkthöhe von einem Mercedes ML auf etwa 8cm genau berechnet werden. Diese Genauigkeit reicht aus, um das elektronische Stabilitätsprogramm auf die aktuelle Beladung des Fahrzeugs abzustimmen und damit einen Gewinn an Agilität für dieses Fahrzeug zu realisieren.
Wir haben Aussagen über das Eigenwertspektrum der freien Schwingungegleichung für einen Hohlraum B gesucht, welche unabhängig von der Gestalt des Hohlraumes nur von Gestaltparametern abhängen, die als Integrale über B bzw. über dessen Oberfläche ... Eigenschaften von ganz B darstellen, ohne die lokale Struktur der Oberfläche ... zu enthalten. An drei Testkörpern sehr verschiedener Gestalt (die Gestaltparameter waren ebenfalls verschieden), nämlich Würfel, Kugel und Zylinder, haben wir die Hypothese bestätigt, daß der mittlere Verlauf der Größen "Anzahl N und Summe E aller Eigenwerte unterhalb einer willkürlich vorgegebenen Schranke ER" in Abhängigkeit von der Wahl dieser Schranke i.w. gestaltunabhängig ist. Für den Quader lassen sich im Falle asymptotisch großer ER explizite Ausdrücke für N und E angeben, die für alle drei Testkörper nicht nur den mittleren Verlauf von N und E bei kleinen (endlichen) ER in zweiter Näherung (in Potenzen von Ef exp -1/2) richtig wiedergaben, sondern auch als numerische Näherung dss mittleren Verlaufs von N bzw. E brauchbar waren (relative Kleinheit des Restgliedes). Die mathematische Vermutung, daß sich für aS, große Ef eben diese expliziten Ausdrücke für N bzw. E' als gestaltunabhängig erweisen, soll in einer weiteren Arbeit behandelt werden. Das Ergebnis dieser Arbeit ist überall dort anwendbar, wo Eigenschaften des Spektrums der freien Schwingungsgleichung mit Randbedingungen benötigt werden, die sich aus N. bzw. E ableiten lassen; also vor allem in der Akustik (Zahl der Obertöne eines Hohlraumes unterhalb einer vorgegebenen Frequenz), in der Theorie der Hohlleiter usw. In dieser Arbeit haben wir die Anwendung auf ein einfaches Atomkernmodell betrachtet, das Fermigas-Modell. Es beschreibt den Kern als freies ideales in einem Hohlraum von Kerngestalt befindliches Fermigas. Dann bedeutet N die Teilchenzahl und E die Gesamtenergie des Systems. Ef ist die Fermigrenzenergie und es ist (Ef exp 3/2 /6*Pi*Pi) die Sättigungsdichte im Innern des Systems. Der Koeffizient des zweiten Termes des expliziten (aS.) Ausdrucks für E kann dann als Oberflächenspannung gedeutet werden. Die spezifische Hodell-Oberflächenspannung läßt sich in Abhängigkeit von dem Gestaltparametern und der Siittigungsdichte des Atomkernes schreiben. Nach Einsetzen der empirischen Werte erhalten wir numerisch einen Wert, der nur um 20% vom empirisch aus der v. Weizsäckerformel bekannten Wert für die spez. Oberflächenspannung abwich, obgleich das Modell nur eine äußerst einfache Näherung der Kernstruktur sein kann. Daher gelangten wir zu der Überzeugung, daß der Oberflächenanteil der Bindungsenergie wesentlich ein kinetischer Effekt ist.
Im Rahmen dieser Diplomarbeit wurde eine Detektor-Sonde entwickelt, um Strahlprofile eines Ionenstrahls entlang der gekrümmten, geometrischen Achse eines Toroidsektormagneten zu messen. Bei der Konstruktion der Sonde musste die zuverlässige Messwerterfassung im Vakuum und innerhalb magnetischer Felder von bis zu 0,6 T berücksichtigt werden. Im theoretischen Teil werden die Theorie zum Strahltransport in den verwendeten Bauteilen, sowie die Funktionsweise eines Phosphor-Schirms (P20) dargelegt. Im experimentellen Teil wird die bewegliche Sonde, der verwendete Versuchsaufbau, sowie die Messungen und deren Auswertung näher beschrieben. Im abschließenden Fazit wird auch auf Alternativen zu der verwendeten Messmethode und deren Vor- und Nachteile eingegangen.
Breitbandige Beamforming-Algorithmen zur Erfassung von Audiosignalen mit kompakten Mikrofon-Arrays
(2009)
Mikrofon-Arrays erlauben die selektive Erfassung und Trennung von Audiosignalen aus einer akustischen Umgebung. Typische Anwendungen sind z.B. die Ortung einzelner Schallquellen, die räumliche Kartierung eines Schallfeldes ("akustische Kamera") oder der gerichtete Empfang einer bestimmten Schallquelle bei gleichzeitiger Unterdrückung von Umgebungs- oder Störschallen. Vielkanalige Verfahren und Filter, die sich dieser Aufgabe widmen, werden als Beamforming bzw. Beamformer bezeichnet. In dieser Dissertation werden bekannte und eigene Beamforming-Ansätze im Hinblick auf ihre Eignung für die hochwertige Übertragung von Audiosignalen untersucht. Diese erfordert neben einer möglichst großen Abdeckung des relevanten Frequenzbereichs (Breitbandigkeit) auch die Frequenzunabhängigkeit der Richtcharakteristik, um spektrale Verzerrungen zu vermeiden. Es wird ein Algorithmus vorgestellt, der diese Anforderungen mit sehr kompakten Arrays erfüllt. Eine klassische Möglichkeit, eine frequenzinvariante Charakteristik (Beampattern) mithilfe eines Delay-and-Sum-Beamformers zu erhalten, ist eine frequenzabhängige Gewichtung der Mikrofone, welche die effektive Apertur des Arrays proportional zur Schallwellenlänge einstellt. Diese Methode funktioniert jedoch nur bei Wellenlängen, die kleiner sind als die Ausdehnung des Arrays, und erfordert bei Frequenzen unter 100Hz Arrays von mehreren Metern Größe. Ein gänzlich anderes Verhalten zeigen differentielle Mikrofonarrays, welche Differenzen aus Signalen benachbarter Mikrofone bilden: In Kombination mit Integratorfiltern erzeugen sie Beampattern, die auch bei sehr kleinen Frequenzen, d.h. bei Wellenlängen, die groß gegen das Array sind, unverändert bleiben (sog. Superdirektivität). Aus diesem Prinzip wurde in dieser Arbeit das Konzept des Multipol-Beamformers entwickelt, der ein gegebenes Soll-Beampattern durch eine Reihenentwicklung nach Sinus- und Kosinusfunktionen (zweidimensionaler Fall) oder Kugelflächenfunktionen (dreidimensionaler Fall) approximiert. Der Multipol-Beamformer erzielt eine hervorragende Richtwirkung bei kleinen Frequenzen, ist jedoch nur über einen sehr begrenzten Bereich frequenzinvariant und erweist sich insbesondere in drei Raumdimensionen als analytisch aufwändig. Flexibler und in zwei wie in drei Raumdimensionen gleichermaßen einfach in der Formulierung ist demgegenüber das in der Literatur zu findende Verfahren des modalen Subraum-Beamformings (Modal Subspace Decomposition, MSD). Dieser Ansatz bestimmt zu einer beliebigen Sensorgeometrie einen Satz orthogonaler Eigen-Beampattern, die dann zu einer Reihenentwicklung des Soll-Beampatterns herangezogen werden. Ähnlich dem erwähnten Delay-and-Sum-Beamformer jedoch erfordert auch dieser Ansatz bei großen Wellenlängen entsprechend groß dimensionierte Arrays und ist nicht superdirektiv. In dieser Arbeit wurde deshalb eine eigene, neue Ausprägung des MSD-Algorithmus formuliert, welche die Superdirektivität des Multipol-Beamformers mit der Flexibilität und Einfachheit des MSD-Verfahrens vereint. Diese als "superdirektives MSD-Beamforming" bezeichnete Methode besitzt - wie das bereits bekannte MSD-Verfahren auch - die interessante Eigenschaft, daß die Eigen-Beampattern für ein frei zu wählendes Entwurfs-Frequenzband berechnet werden, so daß das Verhalten des Beamformers über ein ganzes Frequenzintervall kontrolliert werden kann. Dies eröffnet auch die Möglichkeit eines sehr breitbandigen Beamformings durch Kombination mehrerer Beamformer, die individuell auf benachbarte Frequenzbänder abgestimmt werden. Mit beispielsweise einem hexagonalen Array von nur 6cm Durchmesser und sieben Mikrofonen erreicht der superdirektive Ansatz so ca. 20-30dB Störabstand über einen Frequenzbereich von 100Hz bis 6kHz, was für Sprache eine sehr hohe Übertragungsqualität darstellt. Zur experimentellen Verifikation der untersuchten Algorithmen wurde im Rahmen dieser Arbeit eine vielkanalige Echtzeit-Signalverarbeitungsumgebung unter Windows XP erstellt, welche die Erfassung, Verarbeitung, Analyse und Ausgabe vielkanaliger Audio-Daten erlaubt. Auch eine Simulation idealer Freifeldmessungen an Mikrofonarrays ist damit möglich, indem die Ausbreitung des Schalls von der Schallquelle zu den Mikrofonen durch zeitdiskrete Fractional-Delay-Filter simuliert wird. Dieser Filtertypus wurden im Rahmen dieser Arbeit ebenfalls eingehend untersucht: Für zwei aus der Literatur bekannte Entwurfsverfahren wurden Erweiterungen gefunden, die bei gleicher Filterordnung eine höhere nutzbare Bandbreite erzielen. Für Messungen an realen Arrays wurde die Akustik-Messkammer des Instituts durch zusätzliche Dämmauskleidung für Freifeld-Messungen nutzbar gemacht. Die Messergebnisse belegen, daß die untersuchten Algorithmen in der Praxis erwartungsgemäß funktionieren und daß der gefundene superdirektive MSD-Algorithmus mit sehr kompakten Arrays eine gute breitbandige Erfassung und Trennung von Audiosignalen ermöglicht.
Zahlreiche physikalische Prozesse, wie Bremsstrahlung, Synchrotronstrahlung oder Radiative Rekombination verursachen die Emission linear hochpolarisierter Röntgenstrahlung. Dennoch wird technisch nutzbare hochpolarisierte Röntgenstrahlung derzeit fast ausschließlich von einigen wenigen hochspezialisierten Synchrotronlichtquellen oder Freie Elektronen Lasern zur Verfügung gestellt. In der vorliegenden Arbeit wurde der Radiative Einfang in die K-Schale von nacktem Xenon verwendet, um erstmals eine Quelle einstellbarer, monoenergetischer sowie hochpolarisierter Röntgenstrahlung (97%) in einer Speicherringumgebung zu realisieren. Zum Nachweis der Polarisation der Strahlung wurde erstmals auch ein neuartiger orts-, zeit- und energieauflösender Si(Li) Streifendetektor als Röntgenpolarimeter eingesetzt, mit dem die Beschränkungen traditioneller Compton - Polarimeter umgangen werden können. Der gemessene Grad hoher linearer Polarisation, der mit den Vorhersagen durch die Theorie übereinstimmt, ist durchaus bemerkenswert, da die hochpolarisierte Röntgensstrahlung in einem Stoßprozess zwischen einem unpolarisierten Ionenstrahl und einem unpolarisierten Gasjet zustande kam. Dies bedeutet, dass der Radiative Elektroneneinfang ein ideales Werkzeug darstellt, um hochpolarisierte, energetisch frei wählbare Röntgenstrahlung in einer Speicherringumgebung zu erzeugen. Die Entwicklung der neuen 2D Detektortechnologie eröffnet auch Möglichkeiten zur experimentellen Untersuchung der Details atomphysikalischer Vorgänge. So konnte im Rahmen dieser Arbeit durch die Kombination des verwendeten Detektors und der Beschleunigereinrichtung der GSI erstmals experimentell die lineare Polarisation der Strahlung des Radiativen Elektroneneinfangs in die energetisch partiell aufgelösten L-Unterschalen von nacktem Uran bestimmt werden. Zudem wurden neue und präzisere Werte für die Polarisation der Einfangstrahlung in die K-Schalen von nacktem und wasserstoffähnlichem Uran gemessen. Die theoretischen Vorhersagen zeigten eine starke Sensitivität von Messungen linearer Polarisation der bei dem Radiativen Elektroneneinfang emittierten Strahlung auf den Einfluss der insbesondere bei Schwerionen - Atom - Stößen zu berücksichtigenden höheren Ordnungen der Multipolentwicklung. Während die Effekte bei der Messung von Winkelverteilungen des Radiativen Elektroneneinfangs gerade bei den kleineren Winkeln im Bezug auf die Ionenstrahlachse im Laborsystem vergleichsweise gering ausfallen, ist hier ein sehr ausgeprägter Effekt der Depolarisation zu beobachten. Hier liegt der wesentliche Unterschied zwischen den in dieser Arbeit vorgestellten Messungen der linearen Polarisation der Strahlung des Radiativen Einfangs in Xenon sowie in Uran. Das Auftreten der starken Depolarisation veranschaulicht die starke Abhängigkeit der Polarisationscharakteristik des REC-Prozesses von der Kernladungszahl des Projektils. Abschließend sei der Schritt zu der erstmals für diese Arbeit verwendeten Messtechnik mit einem hochaufgelösten Streifendetektor hervorgehoben. Im Gegensatz zu früheren Polarisationsmessungen mit grob dimensionierten Pixeldetektoren waren zu der Gewinnung der hier vorgestellten Messungen praktisch keinerlei zusätzliche Annahmen oder Simulationen zu der Interpretation der gewonnenen Winkelverteilungen notwendig. So konnte mit dem System bereits während des Experimentes eine erste Abschätzung der linearen Polarisation der beobachteten Strahlung durchgeführt werden. Diese Tatsache wird es in naher Zukunft ermöglichen, das für die niederenergetische Röntgenstrahlung weitgehend neue ”Fenster” polarimetrischer Messungen für weitere atomphysikalische Prozesse zu öffnen.
In den Neurowissenschaften führt die Erforschung des vegetativen Nervensystem (VNS) immer noch ein Schattendasein. Einer der wichtigsten Teile des VNS, der Hirnstamm, ist dabei besonders schlecht erforscht, obwohl er die Steuerzentren für Herzschlag, Blutdruckregulation, Atmung, Verdauung, und viele weitere lebenswichtige Funktionen beherbergt. Ein wichtiger Grund für diesen Umstand ist, dass die funktionelle Kernspintomographie (fMRT) sich in ihrer bisherigen Form nur bedingt für Messungen im Hirnstamm eignet. Ziel dieser Arbeit war es daher, neue Ansätze zur fMRT-Messung vegetativer Zentren im menschlichen Hirnstamm zu entwickeln. Nach einer Einführung in die Neuroanatomie sowie die physikalischen und physiologischen Grundlagen der strukturellen und funktionellen MRT werden im mittleren Teil der Arbeit die Entwicklung sowie der Test neuer Ansätze zur Hirnstamm-fMRT beschrieben. Dabei untersucht der Autor zunächst, welche grundlegenden Probleme einer konventionellen fMRT-Messung im Hirnstamm entgegenstehen. Es stellt sich heraus, dass alle hirnstamm-spezifischen Störquellen direkt oder indirekt auf den Herzschlag zurückzuführen sind. Aus den vorhandenen Ansätzen zur Korrektur solcher Störungen wird die Herzschlag-Taktung ausgewählt. Bei diesem Verfahren erfolgt die Aufnahme der fMRT-Bilder zeitlich gekoppelt an dem Herzschlag des Probanden, um sämtliche kardiogenen Rauschquellen zu unterdrücken. Anstelle des häufig verwendeten, aber statistisch problematischen Guimaraes-Verfahrens zur Korrektur der durch die Herzfrequenzvariabilität bedingten Schwankungen des MR-Signals wird in der vorliegenden Arbeit der die sog. Dual-Echo-Bildgebung verwendet. Dabei wird die konventionelle EPI-Sequenz (echo-planar imaging) dahingehend erweitert, dass pro Bild anstelle eines Echos zwei aufgenommen werden. Durch Quotientenbildung der beiden Bilder kann so der fluktuierende Teil des Signals entfernt werden. Beim Vergleich verschiedener Varianten der Quotientenbildung stellt sich ein neu entwickelter, exponentieller Ansatz als überlegen heraus. Danach werden die Auswirkungen verschiedener Methoden der Bewegungskorrektur und Schichtorientierung verglichen, um das Optimum für Messungen im Hirnstamm zu ermitteln. Nach Tests des neuen Verfahrens an verschiedenen fMRT-Datensätzen werden Empfehlungen für die Kombination der verschiedenen Parameter gegeben. Es zeigt sich, dass die Standardabweichung der fMRT-Bilder mit der neuen Methode im unteren Hirnstamm um 13% - 33% reduziert werden kann. Ein Sensitivitätstest an motorischen Hirnstammkernen, welche durch ein motorisches Paradigma aktiviert werden, zeigt, dass die jeweiligen Kerne in 85% - 95% der Fälle eindeutig identifiziert werden können. Im dritten Teil der Arbeit erfolgt die Anwendung der neuen Methode auf die Messung von Aktivierungen vegetativer Zentren. Hier wird als unkonventionellen Stimulus des vegetativen Nervensystems die Akupunktur verwendet. Dies geschieht u.a. mit der Zielsetzung, zur Aufdeckung des noch immer unbekannten Wirkmechanismus dieser Therapieform beizutragen. Als Akupunkturpunkt wird Pc6 am Handgelenk gewählt, da die Studienlage eindeutig dessen Effektivität bei der Behandlung von Übelkeit und Erbrechen sowie eine Beeinflussung der Magen-Peristaltik zeigt und die neuralen Zentren hierfür größtenteils im Hirnstamm lokalisiert sind. Der Autor stellt daher die Hypothese auf, dass die Akupunkturwirkung in diesem Fall über den Vagusnerv und dessen Hirnstammkern, den Nucleus dorsalis nervi vagi, vermittelt wird. Vor der Überprüfung dieser Hypothese erfolgt zunächst eine Methodenkritik der bisherigen Akupunktur-fMRT-Forschung. Anhand einer Gruppe von Studien, welche über Aktivierungen der Sehrinde bei Akupunktur visuell relevanter Punkte berichten, weist der Autor eine Reihe methodischer Probleme nach. Anhand einer eigenen Studie kann er mittels Independent Component Analysis (ICA) zeigen, dass die von den bisherigen Studien berichteten, visuellen Aktivierungen höchstwahrscheinlich nicht auf die Wirkung der Akupunktur zurückzuführen sind. Um einige der Probleme dieser Studien zu umgehen, entwickelt der Autor ein neues psychophysikalisches Verfahren, bei dem die Probanden während der Akupunktur kontinuierlich die Stärke der Nadelempfindung („DeQi“) auf einer visuellen Analogskala bewerten. Mit Hilfe dieses Verfahrens gelingt schließlich der Nachweis einer Hirnstamm-Aktivierung unter Akupunktur-Stimulation, deren Lokalisation mit der des Nucleus dorsalis nervi vagi vereinbar ist. Dies bestätigt die ursprüngliche Hypothese und zeigt gleichzeitig die Eignung des neuen Verfahrens für die Bildgebung vegetativer Hirnstammzentren.
Den Geheimnissen der Materie auf der Spur : neue Denkfabrik für physikalische Grundlagenforschung
(2009)
Bei Darmstadt entsteht FAIR, eines der größten internationalen Forschungszentren für Physik. Durch das von der Landesregierung geförderte Exzellenzzentrum »HIC for FAIR« erhält die Forschung in Hessen die einmalige Chance, sich direkt an globaler Spitzenforschung zu beteiligen: auf der Suche nach den letzten Geheimnissen der Materie.
In dieser Arbeit wurden zwei Systeme der biologischen Energiewandlung mit verschiedenen spektroskopischen Methoden untersucht und es wurden neue Erkenntnisse über die Funktion und Aktivierung der Proteine Proteorhodopsin und RuBisCO gewonnen. Zusätzlich konnte eine neue methodische Herangehensweise zur Untersuchung von Carboxylierungsreaktionen etabliert werden. Dieser Ansatz bietet in Zukunft breite Anwendungsmöglichkeiten zur Studie dieser biologisch so bedeutenden Reaktionsklasse. Mit Hilfe der Infrarotspektroskopie und vor allem durch den Einsatz von Tieftemperaturmessungen konnte der bisher kontrovers diskutierte Photozyklus von Proteorhodopsin (PR) eingehend charakterisiert werden. Jenseits des gut verstandenen aktiven Transports bei pH 9,0 wurde vor allem der pH 5,1 Photozyklus untersucht. Erstmals konnte auch in Infrarotspektren das M-Intermediat bei pH 5,1 nachgewiesen werden. Dieses Intermediat ist von entscheidender Bedeutung für den aktiven Transport über die Zellmembran und seine Existenz wurde bisher vielfach angezweifelt. Zudem konnte Glu-108 als ein möglicher Protonenakzeptor des Photozyklus bei pH 5,1 identifiziert werden. Durch einen pH-Indikator ließ sich der Nachweis erbringen, dass auch im sauren pH-Bereich Protonen freigesetzt werden. Damit steht fest, dass ein aktiver Protonentransport bei pH 5,1 möglich ist. Zusammen mit Informationen zu protonierbaren Aminosäureseitenketten (vornehmlich Asp und Glu) lässt sich zudem mit Einschränkungen die These unterstützen, dass PR ober- und unterhalb des pKa-Werts von Asp-97 in verschiedene Richtungen Protonen pumpt. Damit ergibt sich ein differenziertes Bild für den pH-abhängigen Photozyklus von PR mit drei pH-Bereichen (pH 9,0, 8,5 bis 5,5 und 5,1) in denen PR unterschiedliche Protonentransportwege zeigt. Als weiteres biologischen System wurde RuBisCO genauer untersucht. Im Fokus der Arbeit war dabei die Aktivierung durch die Bildung eines Lysin-Carbamats im aktiven Zentrum. Obwohl RuBisCO das am häufigsten vorkommende Enzym unseres Planeten ist, in der Kohlenstofffixierung eine bedeutende Rolle spielt und obwohl mehrere Dutzend Kristallstrukturen existieren, gibt es noch immer genügend offene Fragen zur Aktivierung. Mit Hilfe eines Käfig-CO2 konnte die Carbamatbildung im Enzym direkt verfolgt und der Einfluss von Magnesiumionen auf die Aktivierung beobachtet werden. Damit ließ sich ganz klar ausschließen, dass Magnesium bereits für die Carbamatbildung erforderlich ist. Die Koordination von Mg2+ ist erst für die Endiol-Bildung im weiteren Reaktionszyklus essentiell. Zusätzlich wurde gezeigt, dass Azid eine Inhibierung des Enzyms durch die Konkurrenz mit CO2 um die Bindungsstelle auslöst, allerdings verdrängt CO2 das Azidion im Laufe der Zeit. Mit den Ergebnissen für RuBisCO konnte klar gezeigt werden, dass die Kombination aus Käfig-CO2 und Rapid-Scan IR-Spektroskopie ein völlig neues Feld für die Untersuchung von Carboxylierungsreaktionen eröffnet. Gerade die offenen Fragen zu Biotin bindenden Carboxylasen bieten ein breites Anwendungsgebiet für diese Methodik.
Inhaltsverzeichnis 1. Einleitung …………………………………………………………………...3 1.1 Erklärungsversuche und Forschungsergebnisse der Gegenwart ……8 1.2 Zielrichtung und Abgrenzung der aktuellen Arbeit ………………..21 1.3 Intention und Erläuterung der Versuchsreihen ………………….....25 2. Grundlagen und Methodiken bezüglich des subjektiven visuellen Wahrnehmungsraums …………………………………………………........27 2.1 Die nativistische und die empiristische Anschauung ………………27 2.2 Räumliche Anordnungen der wahrgenommenen Objekte …………31 2.3 Über die visuell vermittelte Richtungs- und Lagebestimmung …....33 2.4 Visuelle Auswertungen der korrespondierenden Netzhautstellen …42 2.5 Visuelle Auswertungen der disparaten Netzhautstellen …………...44 2.6 Die Größenkonstanzleistung ………………………………………47 2.7 Psychophysikalische Grundlagen und Schwellenwerte …………...50 2.8 Physiologische Grundlagen ………………………………………..54 3. Experimentelle Untersuchung ……………………………………………..60 3.1 Versuchsaufbau und Ablauf zur Durchführung der Experimente …60 3.1.1 Zusammensetzungen der Versuchsteilnehmer ……………66 3.1.2 Erläuterungen und Ablauf der 2 Versuchsreihen …………66 3.2 Graphische Darstellungen der Messergebnisse ……………………71 3.2.1 I.Versuchsreihe ……………………………………………71 3.2.2 II.Versuchsreihe …………………………………………...93 3.3 Auswertung und Aufbereitung der Messdaten …………………..102 3.3.1 Auswertungen der I.Versuchsreihe ……………………..102 3.3.2 Auswertungen der II.Versuchsreihe …………………….120 3.3.3 Fehlerbetrachtungen der Versuchsreihen I und II ………122 3.4 Diskussion der Messdaten ……………………………………….124 4. Zusammenfassung und Ausblick ………………………………………...135 Begriffsverzeichnis mit kurzer Erklärung.…………………………………...137 Literaturverzeichnis …………………………………………………….........141 Bildquellenverzeichnis ………………………………………………….......143 Als Fazit kann man folgendes zusammenfassend sagen: Die aufgestellte Arbeitshypothese wurde durch die beiden Versuchsreihen verifiziert, denn die Ergebnisse ergaben folgendes: - In den Messreihen der Versuchsreihe I ist jeweils ein Anstieg der eingestellten Größe, je mehr Abstandsinformationen zugelassen wurden, zu verzeichnen. Das bedeutet, der Anstieg wurde umso größer, desto größer die AID wurde. Auch waren in allen Messreihen die monokularen Größeneinstellungen, bei sonst konstanter AID, gegenüber der binokularen Größeneinstellung geringer. Bei Verringerung der Einstellentfernung wurden die Abweichungen zwischen den subjektiven und den objektiven Größen ebenfalls größer. Das heißt also, die subjektive visuelle Wahrnehmungsgröße ist von der AID wie folgt abhängig: Das visuelle System bewertet subjektiv die Wahrnehmungsgröße bei maximaler AID nach oben und relativ dazu, bei minimaler AID nach unten. - Dass die aufgestellten Parameter die AID bedingen, konnte durch die 1. Messreihe gezeigt werden, da der jeweilige Anstieg der eingestellten Größe, nur durch die Variation eines Parameters erfolgte. Die Querdisparation konnte aber hier nicht als Parameter der die AID bedingt isoliert untersucht werden. Bei den meisten Probanden ergaben sich sehr schnell Doppelbilder und erzeugten bei ihnen ein Unbehagen. Aber dennoch floss dieser Parameter als einflussnehmende Größe in den Konvergenzgrad mit ein. Das Netzhautbild konnte nur kombiniert mit dem psychologischen Gefühl der Nähe isoliert betrachtet werden. Damit die Voraussetzungen in beiden Versuchen gleich waren, wurde in der Versuchsreihe II unter gleichen Versuchsbedingungen wie in der Versuchsreihe I gemessen. Auch hier wurden die Abstandsinformationen von minimal bis maximal sukzessive zugelassen. Durch die Messdaten der Versuchsreihe II konnte eindeutig gezeigt werden, dass die Abstandsunterschiedsschwelle umso geringer ausfällt, desto mehr Abstandskriterien hinzukamen, also die AID erhöht wurde. Analog kehren sich die Verhältnisse um, wenn die AID erniedrigt wird. Durch diesen kausalen Zusammenhang zwischen der Abstandsunterschiedsschwelle des visuellen Systems und der Güte der AID bestätigt sich zusätzlich die Annahme, dass die eingeführten Parameter des Abstandes tatsächlich als solche zu betrachten sind und die AID konstituieren. Denn wären sie keine Konstituenten der AID, so müssten die Unterschiedsschwellen der Versuchsreihe II in etwa gleich sein. Da aber die Änderung der Randbedingungen sich auf die verwertbaren Abstandsinformationen bezogen und somit die AID jeweils geändert wurde, ist die aufgestellte Annahme über die Parameter, welche die AID bedingen, berechtigt. - Dass im orthostereoskopischen Bereich die subjektiven Größeneinstellungen gegenüber der Zentralprojektion am weitesten auseinander liegen, bestätigte sich durch alle Messreihen der Versuchsreihe I. In diesem Bereich existiert die maximale Unabhängigkeit der visuellen Wahrnehmungsgröße vom Gesichtswinkel. In diesem Bereich liegt eine sehr hohe Güte in der Größenkonstanzleistung des visuellen Systems vor. Dass die Größenkonstanz qualitativ dem aufgestellten Formalismus aus Annahme 2 genügt und die aufgestellte qualitative Relation sie beschreibt, konnte nicht gezeigt werden. Das begründet sich durch das Zustandekommen der Größenkonstanz. Sie resultiert bekanntlich aus einer Entfernungsänderung. Je nach dem, ob sich ein Objekt dem Beobachter nähert oder entfernt, setzt diese Bildgrößenkompensation ein. Von daher unterliegt sie einem dynamischen Prozess und kann dadurch mit Relation (2´) nicht beschreiben werden. - Mit der Relation 2´ kann man qualitativ die Unbestimmtheit in der visuellen Wahrnehmungsentfernung beschreiben und qualitativ erklären. Der Aspekt der Abstandsunterschiedsschwelle ist etwas verwirrend. Auf der einen Seite handelt es sich um eine Vermögensleistung des visuellen Systems, welches abhängig ist von den vorliegenden Abstandsinformationen, die ihrerseits die AID bedingen. Auf der anderen Seite bedingt die Abstandsunterschiedsschwelle die AID durch ihre Güte und Qualität, beeinflusst also umgekehrt auch die AID. In der Versuchsreihe 2 wurde auf die Vermögensleistung des visuellen Systems und deren Abhängigkeit von den Parametern eingegangen, die auch die AID bedingen. Dies diente dazu, zusätzlich zu zeigen, dass es sich bei diesen Parametern um Parameter handelt, welche die AID bedingen. Die Argumentationskette lautete wie folgt: Die Abstandsunterschiedsschwelle beeinflusst die AID. Die betrachteten Parameter beeinflussten die Abstandsunterschiedsschwelle, dass experimentell verifiziert wurde. Daraus folgte dann, dass eben diese Parameter auch die AID bedingen. Diese Argumentation diente nur als zusätzliches Hilfsmittel. Bei Punkt 4 sollte die Abstandsunterschiedsschwelle und ihr Einfluss auf die Unbestimmtheit hin betrachtet werden. Dies hat aber nur sekundäre Relevanz, da hier die Anwendung der Relation 2´ im Vordergrund stand. - Ob die Fitting-Funktion, welche die Messdaten der Versuchsreihe I approximierte, sich als Algorithmus für die Darstellung einer Bewegungssimulation eignet, kann noch nicht gesagt werden. Es müssen noch Untersuchungen umgesetzt werden, welche die Diagonalbewegung beschreiben. In der stirnfrontalen Vor- und Zurückbewegung ist der simulierte Bewegungsablauf mit der Fitting-Funktion gegenüber der linearen Darstellung realistischer. Dies ist in der ersten 100cm Raumtiefe besonders merklich, da die Fitting-Funktion die Größenkonstanzleistung des visuellen Systems berücksichtigt. Die auf dem konventionellen Computerspielmarkt eingesetzten Algorithmen für die Darstellung von Vor- und Zurückbewegungen sind dagegen nahezu linear, welches dem Beobachter einen etwas unnatürlichen Seheindruck vermittelt. Die Fitting-Funktion könnte auch für die Simulation von Zeichentrickfilmen verwendet werden. Auch dort wird die Größenkonstanzleistung des visuellen Systems nicht berücksichtigt. Aber gerade diese Konstanzleistung gestaltet die Größenvariation der wahrgenommenen Objekte bei Entfernungsänderungen. Dies ist besonders im orthostereoskopischen Bereich merklich.
Für ein System ('ideales Gas') von N miteinander nicht wechselwirkenden Teilchen oder Zuständen, deren Wellenfunktionen φ(x) der Randbedingung φ(x)=0 für x aus Ŵ. gehorchen sollen, (W sei dabei die Oberfläche eines geschlossenen Hohlraumes Ŵ beliebiger Gestalt), ist von verschiedenen Autoren eine halbklassische Eigenwertdichteformel angegeben worden. Diese hängt nur linear über die Integrale V ,W und L über Ŵ (Volumen, Oberflächeninhalt und totale Krümmung von Ŵ) von der Gestalt. des Hohlraumes ab. Während von H. Weyl mathematisch bewiesen, werden konnte, daß der führende Volumterm im Gebiet großer Eigenwerte alle folgenden Terme überwiegt, konnte für den Oberflächenterm eine gleichartige Vermutung bisher nur numerisch begründet werden. Von dieser halbklassischen Eigenwertdichteformel ausgehend, werden die thermodynamischen Relationen des idealen Gases aufgebaut und einige Größen wie innere Energie, spezifische Wärme sowie die Oberflächen- und Krümmungs-Spannung für die Grenzfälle starker, ein Gebiet mittlerer und schwacher Entartung explizit berechnet, und zwar sowohl für die Fermi-Dirac als auch die Bose-Einstein-Statistik, als auch für deren klassischen Grenzfall, die Boltzmann-Maxwell-Statistik (s.Diagramm). Ausgenommen wird nur der Spezialfall der Einsteinkondensation, weil hier die (nur im Gebiet großer Eigenwerte gültige) halbklassische Eigenwertdichteformel nicht angewendet werden darf. Die in dieser Arbeit untersuchten quantenmechanisch bedingten Oberflächeneffekte idealer Quantengase sind experimentell bisher wenig untersucht worden; für Molekülgase sind sie verschwindend klein. Die experimentell beobachtete Oberflächenspannung stabiler Atomkerne wird von dem Modell, das den Kern als ideales, entartetes Fermigas der Temperatur T beschreibt, im wesentlichen richtig wiedergegeben. Mit dem in Kap. 3b) abgeleiteten Ausdruck für die Oberflächenspannung stark entarteter idealer Fermigase endlicher Temperatur kann eine Voraussage über die Oberflächenspannung angeregter Atomkerne gemacht werden.
Die Reform der Lehrerausbildung spielt in der aktuellen bildungspolitischen Diskussion eine wichtige Rolle. In der Auseinandersetzung um fachdidaktische Ausbildungsstandards und Kerncurricula werden von den Studierenden, neben fachlichen Fähigkeiten, Reflexions-, Kommunikations- und unterrichtsbezogene Handlungskompetenzen gefordert. In der Physik-lehrerausbildung der universitären Phase müssen Lernumgebungen zur Schulung dieser Kom-petenzen häufig erst noch geschaffen werden. Aus diesem Grund wird seit dem Wintersemester 2002/03 der Universität Frankfurt/M. eine Seminarreihe mit dem Charakter einer Lernwerkstatt angeboten, in der die Studierenden selbstorganisiert Unterrichtsmaterialien entwickeln. Von den Zielen, der Durchführung und den Ergebnissen dieses Projekts wird berichtet und ein Seminarkonzept in Kombination mit den schulpraktischen Studien vorgestellt.
In der vorliegenden Arbeit wird ein schnelles Choppersystem für einen hochintensiven niederenergetischen Protonenstrahl untersucht. Das Choppersystem wird in der Niedrigenergiesektion (LEBT) der Frankfurter Neutronenquelle FRANZ eingesetzt. Der Treiberstrahl hat dort eine Energie von 120 keV und eine Intensität von bis zu 200 mA Protonen. Gefordert ist die Erzeugung eines gepulsten Strahls mit einem 50 bis 100 ns langen Pulsplateau und einer Wiederholrate von 250 kHz. Nach der Diskussion verschiedener Chopperkonzepte wird der Einsatz eines Kickersystems vorgeschlagen. Magnetische und elektrische Kicker werden im Hinblick auf Geometrie, Ablenkfelder, Strahldynamik, Emittanzwachstum, Leistungsbedarf sowie Betrieb im Schwingungs- oder im Pulsmodus untersucht. Die Realisierung des Choppersystems wird mit Hilfe von numerischen Simulationen und Vorexperimenten geprüft. Ein eigens dazu entwickelter Particle-in-cell (PIC)-Code wird vorgestellt. Er erlaubt die Simulation von Vielteilchen-Prozessen in zeitabhängigen Kickerfeldern unter Berücksichtigung der Effekte der Sekundärelektronen. Die Vorexperimente für die Ansteuerung des Kickers werden präsentiert. Für den magnetischen Kicker wurde eine niederinduktive Testspule und für den elektrischen Kicker ein Transformator bestehend aus einem nanokristallinen Ringbandkern aufgebaut. Abschließend werden die beiden Systeme miteinander verglichen. Ein magnetischer Kicker ist auch bei hohen Strahlintensitäten weniger anfällig für Strahlverluste und kann ohne die Gefahr von Spannungsdurchschlägen betrieben werden. Bei den geforderten hohen Wiederholraten ist jedoch der Leistungsbedarf nicht annehmbar, so dass im Ausblick die Weiterentwicklung eines elektrischen Kickersystems vorgeschlagen wird.
In der vorliegenden Arbeit wurde die 1s Photoionisation von Neondimeren mit einer Photonenenergie von 10 eV über der 1s Schwelle von Neon durchgeführt. Das Ziel dieser Messung war die Beantwortung der seit vielen Jahren diskutierten Frage nach der Lokalisierung oder Delokalisierung von Vakanzen in homonuklearen diatomaren Systemen am Beispiel des Neondimers. Können die Vakanzen also einem Atom des Dimers zugeordnet werden oder sind sie über beide Atome verteilt? Bezüglich dieser Frage wurden sowohl die in der Photoionisation direkt entstandenen 1s Vakanzen als auch die aus der Relaxation durch einen interatomic Coulombic decay (ICD) resultierenden Vakanzen in der Valenzschale des Neondimers untersucht. Als Observable dienten dabei die Elektronen-Winkelverteilungen im dimerfesten Koordinatensystem, wobei eine bezüglich der ‘rechten’ und der ‘linken’ Seite des homonuklearen diatomaren Moleküls auftretende Asymmetrie in der Winkelverteilung eindeutig eine Lokalisierung der Vakanz indiziert. Dies lässt sich damit begründen, dass die Elektronenwellen im Fall einer delokalisierten Vakanz durch die symmetrisierten Wellenfunktionen beschrieben werden, welche sich aus der kohärenten Überlagerung der lokalisierten Wellenfunktionen ergeben. Die resultierende Winkelverteilung der Elektronen um die Dimerachse ist somit symmetrisch. Im Fall einer lokalisierten Vakanz wird die Elektronenwelle dagegen durch die ‘rechts’ oder ‘links’ lokalisierten Wellenfunktionen, welche aus der kohärenten Überlagerung der symmetrisierten Wellenfunktionen gebildet werden, beschrieben, so dass abhängig von der Elektronenwellenlänge Asymmetrien in der Elektronen-Winkelverteilung auftreten können. Die Möglichkeit, eine eventuelle Asymmetrie in der Winkelverteilung um die Dimerachse zu beobachten ist allerdings nur dann gegeben, wenn die beiden Seiten des Dimers im Anschluss an die Reaktion unterscheidbar sind, d.h. der Ursprung des emittierten Elektrons feststellbar ist, da sich sonst der Fall einer ‘links’ lokalisierten Vakanz mit dem Fall einer ‘rechts’ lokalisierten Vakanz kohärent überlagert. Die Unterscheidung konnte in der vorliegenden Messung anhand der aus einigen Relaxationen hervorgehenden unterschiedlichen Ladungen der ionischen Fragmente des Neondimers durchgeführt werden. Insgesamt wurden im Anschluss an die 1s Photoionisation von Ne2 mit einer Rate von 3:1 der symmetrische Ladungsaufbruch Ne1+ + Ne1+ und der für die Untersuchung der Winkelverteilungen relevante asymmetrische Ladungsaufbruch Ne2+ + Ne1+ des Neondimers beobachtet. Alle in diesen beiden Ladungsaufbrüchen resultierenden intra- und interatomaren Relaxationsprozesse sowie ihre Raten wurden im Rahmen dieser Arbeit identifiziert und analysiert. Der dominante Zerfallskanal des symmetrischen Ladungsaufbruchs resultierte dabei aus dem im Anschluss an einen KL2,3L2,3 stattfindenden Radiative Charge Transfer, bei welchem unter Aussendung eines Photons ein Ladungsaustausch zwischen den Neonionen des Dimers stattfindet. Der dominante Zerfallskanal des asymmetrischen Ladungsaufbruchs wurde durch den im Anschluss an einen KL1L2,3 stattfindenden ICD bestimmt. Bei diesem in Clustern auftretenden Relaxationsprozess wird die Innerschalenvakanz aus Atom 1 durch ein Valenzelektron aus Atom 1 aufgefüllt. Sobald die Relaxationsenergie dabei nicht ausreicht, um, wie beim Augerzerfall, ein weiteres Valenzelektron aus Atom 1 zu ionisieren, wird die Energie mittels eines virtuellen Photons zum neutralen Nachbaratom des Dimers transferiert, und aus diesem wird ein Elektron, das ICD-Elektron, emittiert. Zur experimentellen Untersuchung der verschiedenen Zerfälle wurde die COLTRIMS (COLd Target Recoil Ion Momentum Spectroscopy)-Technik verwendet. Bei dieser Impulsspektroskopie werden die Fragmente mit einer Raumwinkelakzeptanz von 4pi mit Hilfe eines elektrischen und eines magnetischen Feldes auf die ortsauflösenden Detektoren geführt, und ihre Flugzeiten und Auftrefforte werden gemessen. Die COLTRIMS-Technik zeichnet sich dabei dadurch aus, dass eine koinzidente Messung der Elektronen und Ionen möglich ist, wodurch die Fragmente eines Reaktionsereignisses einander zugeordnet werden können. Innerhalb der Reaktionsereignisse fragmentierte das Neondimer im Anschluss an die Relaxation in beiden Ladungsaufbrüchen Ne1+ + Ne1+ und Ne2+ + Ne1+ unter 180° in einer Coulombexplosion. Somit spiegelten die Richtungen der Relativimpulse der Ionen im Rahmen der ‘Axial-Recoil-Approximation’ die Position der Dimerachse zum Zeitpunkt der Reaktion wider, und aus den Impulsen der Elektronen konnten die Emissionsrichtungen der Elektronen bezüglich der Dimerachse abgeleitet werden. In dieser Arbeit wurde mit der beschriebenen Messtechnik eine deutliche Asymmetrie in der Winkelverteilung der 1s Photoelektronen sowie der 2p ICD-Elektronen um die Dimerachse beobachtet. Die gemessene Winkelverteilung der 1s Photoelektronen wies dabei eine qualitativ sehr gute Übereinstimmung mit einer innerhalb einer Hartree-Fock-Rechnung erhaltenen Winkelverteilung für eine vollständig lokalisierte 1s Vakanz im Neondimer auf. Für die Winkelverteilungen der ICD-Elektronen existieren bis heute noch keine theoretischen Vorhersagen. Mit den Ergebnissen der vorliegenden Arbeit konnte somit gezeigt werden, dass entgegen den heute gängigen Theorien zur Beschreibung des Neondimers sowohl die Vakanzen der innersten Schale als auch die Vakanzen der Valenzschale des Neondimers als lokalisiert beschrieben werden müssen.
Es wurde eine neue Routine zur Berechnung der Raumladungskräfte basierend auf einer schnellen Fourier-Transformation entwickelt und in das Teilchensimulationsprogramm LORASR integriert. Dadurch werden einzelne oder bis zu mehreren 100 Simulationen im Batch-Modus mit je 1 Million Makroteilchen und akzeptablen Rechenzeiten ermöglicht. Die neue Raumladungsroutine wurde im Rahmen der Europäischen „High Intensity Pulsed Proton Injectors” (HIPPI) Kollaboration erfolgreich validiert. Dabei wurden verschiedene statische Vergleichstests der Poisson-Solver und schließlich Vergleichsrechnungen entlang des Alvarez-Beschleunigerabschnittes des GSI UNILAC durchgeführt. Darüber hinaus wurden Werkzeuge zum Aufprägen und zur Analyse von Maschinenfehlern entwickelt. Diese wurden erstmals für Fehlertoleranzstudien an der IH-Kavität des Heidelberger Therapiebeschleunigers, am Protonen-Linearbeschleuniger für das FAIR Projekt in Darmstadt sowie am Vorschlag eines supraleitenden CH-Beschleunigers für die “International Fusion Materials Irradiation Facility” (IFMIF) eingesetzt.
Zellulare Nichtlineare Netzwerke (CNN) wurden 1988 von Chua und Yang (Chua und Yang, 1988) eingeführt. Diese Netzwerke sind dadurch gekennzeichnet, dass eine Zelle, die die kleinste Einheit eines CNN darstellt, nur mit Zellen innerhalb einer bestimmten Umgebung verbunden ist. üblicherweise sind Art und Stärke der Wechselwirkung zwischen zwei Zellen eines CNN translationsinvariant, d.h. sie hängen nur von der relativen Lage beider Zellen zueinander ab. Im Vordergrund aktueller Arbeiten stehen auf derartigen Netzwerken basierende schaltungstechnische Realisierungen mit bis zu 176x144 Zellen, die eine direkte Verbindung zu zweidimensionalen optischen Sensor-Anordnungen aufweisen. Über einen separaten Speicherbereich können die Zellkopplungen eines Netzwerks verändert werden, wodurch eine adaptive Verarbeitung von mehrdimensionalen Sensorsignalen ermöglicht wird. Das kürzlich vorgestellte so genannte EyeRis System (Anafocus Ltd.) enthält zusätzlich noch einen Standardprozessor und stellt (bei einer Größe vergleichbar mit der einer Kreditkarte) daher ein vollständiges superschnelles System zur Informationsverarbeitung dar. In diesem Beitrag sollen, nach einem kurzen Überblick über die Eigenschaften von CNN, aktuelle Realisierungen und exemplarisch eine neuere eigene Anwendung vorgestellt und besprochen werden.
Diese Arbeit beschreibt wie mit physikalischen Methoden die Glukosekonzentration gemessen werden kann. Die Infrarot-Spektroskopie bietet eine Möglichkeit da die Energie der meisten Molekülschwingungen Photonenenergien im infraroten Spektralbereich entspricht. Hier zeigen Glukosemoleküle charakteristische Absorptionsspektren, die mit spektroskopischen Methoden gemessen werden. Um nicht invasiv zu messen, wurde eine photoakustische Messmethode gewählt. Die Grundidee ist, dass die durch Licht angeregten Moleküle ihre Anregungsenergie teilweise in Form von Wärme abgeben. Da die anregende Strahlung intensitätsmoduliert ist, wird auch die Wärmeentwicklung periodisch verlaufen wodurch periodische Volumenänderungen hervorgerufen werden, die eine Druckwelle erzeugen, die sich durch empfindliche Mikrofone oder Schallwandler erfassen lässt. So kann im MIR auf Grund der hohen Spezifizität, der Glukosegehalt mit sehr hoher Genauigkeit bestimmt werden. Die Wellenlänge der Glukoseabsorptionsbanden im MIR Bereich sind im Wesentlichen gekoppelte C=O Streck- und O–H Biegeschwingungen. Im MIR-Bereich zeigen Spektren zwischen 8,3µm bis 11,1µm fünf glukoserelevanten Banden. Der photoakustische Effekt wird durch die Rosencwaig-Gersho Theorie beschrieben. Die Absorption des Lichtes in der Probe bewirkt eine Temperaturerhöhung, die als Wärme an Umgebung abgegeben wird. Da das eingestrahlte Licht gepulst ist, wird auch die Wärme periodisch abgegeben. Durch die Absorption eines Laserpulses in der Haut entsteht ein Temperaturgradient, die abhängig vom Absorptionskoeffizienten und der Glukosekonzentration ist. Der führt zu einer Diffusion von Wärme im Absorptionsvolumen. Die Hautoberfläche und damit eine dünne Luftschicht über der Hautoberfläche werden durch die Diffusionswärme periodisch mit der Modulationsfrequenz der Laser aufgeheizt, was als Druckschwankungen in Messkammer mit Mikrofon detektiert wird. Im Mitteinfrarot geben Quantenkaskadenlaser die beste Lichtquelle, wegen ihre gute Strahlqualität und hohe optische Leistung. Die verwendete photoakustische(PA) Resonanzzelle ist nach dem Prinzip des Helmholtz-Resonators konzipiert. Der Vorteil des Verstärkungsverhaltens einer resonanten PA-Zelle kann unter Umständen durch Verwendung Volumenreduzierten und mit empfindlichen Mikrofonen ausgestatteten nicht-resonanten PA-Zelle erreicht werde. Zum Erfassung der PA Signale wird eine Kombination aus einen Analog-Digital Wandlerkarte verwendet, die eine gemeinsame Zeitbasis mit der synchronen Lasersteuerung und der Datenerfassung liefert und phasenechte Fourieranalyse der photoakustischen Signale ermöglicht. Es wurde ein Modellsystem entwickelt um photoakustischen Glukosemessungen in vitro zu testen. Dieses „Phantommodell“ besteht aus einer dünnen Polymermembran befestigt in eine Gefäß von nur paar ml Volumen die mit verschiedenen Glukosekonzentrationen gefüllt wurde. Die modulierte Laserstrahlung passiert die Messzelle und dringt durch die Folie in die wässerige Glukoselösung ein. Das Folienmaterial und Dicke wurde so gewählt, dass keineAbsorption im verwendeten MIR-Bereich entsteht. Als Lösung für die jeweiligen Glukosekonzentrationen wurde ein Wasser-Albumin Gemisch verwendet mit einen 10%igen Albuminanteil, die verwendet wurde, um den Proteingehalt der Haut zu imitieren und zu zeigen, dass Eiweiß keinen Störeinfluss im Glukosefingerprintbereich hat. Messungen wurden bei steigenden und fallenden Glukosekonzentration durchgeführt damit gezeigt könnte, dass das Messsignal in der PA- Zelle nicht von der Lufterwärmung in der Zelle stammt, sondern vom PA-Signale der Glukose. Die Glukoseschwankungen in der extrazellulären Flüssigkeit der Epidermis spiegeln die Glukoseschwankungen im Blut gut wider, bei einer Messung am Arm entsteht eine Verzögerung von paar Minuten. Im Daumenballenbereich findet aufgrund der guten Durchblutung ein schneller Austausch der Glukosekonzentration der von uns gemessenen interstitiellen Flüssigkeit mit der Blutzuckerkonzentration statt. Deshalb wurden die in-vivo Messungen am Daumenballen durchgeführt. Das Stratum spinosum ist für uns von Bedeutung, da dies das interstitielle Wasser enthält, in dem der Glukosegehalt mit dem Glukosegehalt im Blut gut übereinstimmt. Die photoakustische Messmethode wird nicht-invasiv durchgeführt. Probanden wird Zucker verabreichet und danach in Abständen von 5 Minuten der Blutzucker konventionell bestimmt und gleichzeitig mittels der photoakustischen Messung am Daumenballen durchgeführt. Mit diesen Daten kann die Korrelation zwischen beiden Methoden bestimmt werden. In vielen in vivo Messreihen zeigen sich bereits in direkter Korrelation zu invasiv genommenen Blutzuckerwerten Korrelationskoeffizienten bis zu R=0,8 und eine damit deutliche Evidenz für einen glukoserelevanten Effekt. Trotz der versprechenden Ergebnisse wird deutlich, dass weitere Entwicklungen notwendig sind, damit das System zu einer direkten Konkurrenz zu der vorhandenen invasiven Meßsystemen werden kann.
Gegenstand dieser Arbeit ist die Entwicklung, der Aufbau und die Charakterisierung sowie Messung einer anwendungsspezifischen integrierten Schaltung (engl.: Application Specific Integrated Circuit, ASIC). Sie dient der Auslese der im elektromagnetischen Kalorimeter des PANDA-Experiments eingesetzten Lawinenfotodioden. Jeder Auslesekanal beinhaltet in der Eingangsstufe einen ladungsempfindlichen Vorverstärker, gefolgt von einem Pulsformer sowie zwei Ausgangstreibern. Am Beginn der Entwicklung steht die Machbarkeitsstudie einer integrierten Ausleseelektronik, welche die anspruchsvollen Anforderungen des PANDA-Experiments erfüllt. Aus rauschtheoretischen Untersuchungen resultieren erste Entwurfsparameter für die Schaltung, die mit Hilfe umfangreicher Simulationen verbessert und ergänzt werden. Die technische Umsetzung der Schaltung erfolgt in einem 0,35 Micrometer-CMOS-Prozess der Firma Austria Mikrosysteme. Die Charakterisierung der integrierten Ausleseelektronik ergibt bei einer Umgebungstemperatur von T = - 20° C eine Shapingzeit des Signalpulses von tr = (124 ± 2) ns. Mit dem äquivalenten Rauschwert von ENC = (4456 ± 35) e- und einer maximal möglichen Eingangsladung von 7,84 pC folgt ein dynamischer Bereich von über 10 000. Der ratenunabhängige Leistungsbedarf eines einzelnen Auslesekanals beträgt P = (52, 4 ± 0, 2)mW. Damit erfüllt der in dieser Arbeit beschriebene ASIC Prototyp alle Anforderungen, die vom Experiment an die Ausleseelektronik gestellt werden.
Motiviert durch aktuelle atomphysikalische Fragestellungen zur Struktur und Dynamik der Materie im Bereich hochgeladener Schwerionen entstand der Bedarf zur Weiterentwicklung bestehender und zur Entwicklung neuartiger ortsauflösender Detektorsysteme. Die Untersuchung der Struktur ist hauptsächlich durch die hochauflösende spektroskopische Vermessung einzelner Energieniveaus der atomaren Hülle bestimmt und liefert grundlegende Einblicke in den atomaren Aufbau. Dabei stellen diese Resultate gerade bei schweren hochgeladenen Ionen eine exzellente Testmöglichkeit der QED in extrem starken Feldern dar. Die Dynamik der Materie zeigt sich in der Teilchendynamik (hier der Atomhülle) in extrem starken und extrem kurzen elektromagnetischen Feldern, wie sie bei Ion-Atom-Stößen auftreten. Beobachtet werden können hier vor allem Teilchen und Photonen-Polarisationsphänomene. Solche Polarisationseffekte sind jedoch nicht auf das Gebiet der atomaren Hülle beschränkt. Als ein Beispiel sei die Untersuchung laserbeschleunigter Teilchen genannt. Hier kann die Polarimetrie von Röntgenstrahlung, die durch Thomson-Streuung optischer Photonen an den zuvor auf relativistische Geschwindigkeiten beschleunigten Teilchen erzeugt wird, Aufschluß über die Natur des Beschleunigungsprozesses geben. Einblick in die lineare Polarisation der Röntgenphotonen im für unsere Arbeit interessanten Energiebereich von einigen 10 keV bis einigen 100 keV können mit Compton-Polarimetern gewonnen werden. Kommerziell sind Detektorsysteme, die eine ausreichende Granularität in Kombination mit hinreichender Detektordicke besitzen, um hohe Nachweiseffizienzen zu erreichen, jedoch nicht verfügbar. Im Rahmen der vorgelegten Arbeit, die sich mit Techniken der hochaufgelösten Röntgenspektroskopie und der Röntgenpolarimetrie an hochgeladenen Schwerionen befasst, wurden vielfältige Arbeiten an und mit orts-, zeit- und energieauflösenden planaren Ge(i)-Detektorsystemen durchgeführt. Wesentliches Ziel der Arbeit war es, ein zweidimensional ortsauflösendes planares Halbleiterdetektorsystem, das für den Einsatz im Kristallspektrometer FOCAL und als Compton-Polarimeter angepasst ist, bereitzustellen. Hierzu wurde ein 2D-µ-Streifendetektorsystem aufgebaut, das eine Ortsauflösung von 250µm, bzw. 1167µm in orthogonaler Richtung, bei einer Detektordicke von 11mm und eine Energieauflösung von etwa 2 keV für jeden einzelnen Streifen bei 60 keV Photonenenergie gewährleistet. Durch Messungen an der Synchrotronquelle ESRF, Grenoble (Frankreich), wurde die Eignung des Systems als bildgebendes Element im FOCAL Kristallspektrometer bei einer Photonenenergie von 60 keV und als Compton-Polarimeter bei einer Photonenenergie von 210 keV untersucht. Der große Vorteil in FOCAL ein ortsauflösendes Detektorsystem einzusetzen, liegt darin, dass alle interessanten Beugungswinkel simultan beobachtet werden können. Im herkömmlichen Ansatz würde man mit einer einfachen Diode und einem Kollimator den Bereich abfahren. Wegen der geringen Ereignisrate und dem hohen Untergrund ist dies jedoch nicht praktikabel. Herkömmliche Systeme wie CCD oder Gasdetektoren haben nicht die nötige Effizienz oder eine zu hohe Dunkelrate. Zur Untersuchung der für FOCAL wichtigen Eigenschaften wurden mehrere Positionen auf dem Detektor bei niedriger Energie mit einem fein kollimierten Photonenstrahl (50 x 50 µm2) gescannt. Neben der guten Energieauflösung des Detektorsystems von durchschnittlich 2.2 keV bei 60 keV, zeigen die Ergebnisse das homogene Verhalten der Detektoreffizienz, welche essentiell für den spektographischen Einsatz in FOCAL ist. Es konnten keine Hinweise auf messbare Ladungsverluste im Bereich des aktiven Detektorvolumens festgestellt werden. Ebenso konnte die Multiplizität (Anzahl der Streifen einer Detektorseite, die auf ein Ereignis reagieren), mit der ein Photon nachgewiesen wird, eindeutig mit der Strukturierung der Kontakte auf der Kristalloberfläche in Verbindung gebracht werden. Es stellte sich heraus, dass die Ereignisse der Multiplizität zwei dazu verwendet werden können um Ortsauflösungen deutlich unterhalb einer Streifenbreite zu erreichen. Diese Methode kann jedoch nur auf eine größere Anzahl von Ereignissen angewendet werden, nicht jedoch auf einzelne Ereignisse. Um das 2D-Ge(i)-µ-Streifendetektorsystem auf seine Eignung als Compton-Polarimeter zu testen, wurden Daten mit einem nahezu vollständig linear polarisierten Photonenstrahl (98% linear polarisiert) bei einer Energie von 210 keV aufgenommen. Die Daten zeigen die erwartete Dipol-ähnliche Asymmetrie im Ortsbild und dienen als Kalibrationsgrundlage zur Interpretation zukünftiger Experimente zur Polarimetrie in diesem Energiebereich. Parallel hierzu wurde an Simulationsprogrammen auf Basis der etablierten Monte Carlo Software EGS4 gearbeitet. Hiermit wurden Vorhersagen bezüglich des Nachweisverhaltens des Detektors auf linear polarisierte Röntgenstahlung gemacht. Ferner wurde für ein 4x4-Pixel-Polarimeter, das bei der ersten Bestimmung der linearen Polarisation der K-REC Strahlung von U92+ am Speichering ESR der GSI eingesetzt wurde, im Rahmen der Datenanalyse mit den auf EGS4-basierenden Programmen die Detektoreffizienz für linear polarisierte Strahlung einer bestimmten Energie simuliert. Mit diesen Simulationsergebnissen konnten die selbstentwickelten Methoden zur Korrektur der Nachweiswahrscheinlichkeit eines Compton-Ereignisses als Funktion des Wechselwirkungspunkts innerhalb des Detektorkristalls und der Energie erfolgreich verifiziert werden. Die detektorbezogenen Resultate dieser Arbeit fanden ihre erste Anwendung in der FOCAL-Spektrometer Strahlzeit 2006, deren genaue Beschreibung jedoch über den Umfang dieser Arbeit hinausgeht. Ebenso flossen die Erfahrungen, die mit den Detektorsystemen, im speziellen dem 2D-Ge(i)-µ-Streifendetektor, gemacht wurden in die Realisierung eines Si(Li)-Detektors mit 32+32 Streifen zur Compton-Polarimetrie bei niedrigeren Energien (ab 60 keV) ein, der gegenwärtig in ersten Experimenten am ESR eingesetzt wird.
Im Rahmen dieser Arbeit sind Experimente zur Bestimmung der 1s Lamb-Verschiebung in wasserstoffartigen Schwerionen und zur Bestimmung des Innerschalenübergangs 2 3P2 --> 2 3S1 in heliumartigen Schwerionen durchgeführt worden. Diese Untersuchungen sind interessant, da es sich hierbei um die Überprüfung der Quantenelektrodynamik im Bereich sehr starker Coulombfelder handelt. Neben den reinen QED-Effekten spielen in diesen schweren Systemen auch relativistische Effekte eine immer bedeutendere Rolle. Es ist erstmals gelungen, eine direkte Messung des Innerschalenübergangs 2 3P2 --> 2 3S1 in einem schweren Z-System durchzuführen. Während in bisherigen Experimenten lediglich leichtere Ionen bis zu einer Kernladungszahl Z = 54 untersucht wurden, sind wir mit unserem Experiment an U90+-Ionen in den Bereich schwerer Systeme vorgedrungen. Zur Energiebestimmung sind am Gastarget des Experimentier-speicherrings (ESR) ein Kristallspektrometer unter einem Beobachtungswinkel von 90° und ein einfacher planarer Germaniumdetektor unter einem Winkel von 35° aufgebaut worden. Das Kristallspektrometer ermöglicht eine hohe Energieauflösung, während der Germaniumdetektor einen breiten Energiebereich abdeckt und somit eine eindeutige Identifizierung der Übergänge ermöglicht. Ein Fit des aufgenommenen Energiespektrums mit einer Simulation zeigt, wie gut die theoretischen Vorhersagen die Übergangsdynamik in diesem Zwei-Elektronen-System beschreiben. Der Innerschalenübergang kann eindeutig von benachbarten Übergängen unterschieden werden. Mit dem Kristallspektro-meter ergibt sich eine Übergangsenergie von 4510,31 ± 0,51 eV, mit dem Germanium-detektor 4509,6 ± 1,5 eV. Beide stimmen gut mit den theoretischen Vorhersagen überein. Durch den geringen Fehler von 0,51 eV stellt diese Messung auch im Vergleich mit den vorhergehenden Experimenten in leichten Systemen eine der genauesten Messungen des Innerschalenübergangs in He-artigen Ionen dar. Zusätzlich dazu kann die Differenz der Innerschalenübergangsenergie von Li-artigem und He-artigem Uran ermittelt werden: 50,94 ± 0,45 eV. Mit dieser Genauigkeit ist unser Experiment empfindlich auf die Zwei-Elektronen-QED und ermöglicht erstmal eine experimentelle Überprüfung dieses Beitrags, der von Kozhedub et al. mit 1,18 eV angegeben wird. Zur Untersuchung der 1s Lamb-Verschiebung von wasserstoffartigen Schwerionen sind bereits eine Vielzahl an Experimenten durchgeführt worden, mit einer maximalen Genauigkeit von 4,6 eV. Die theoretische Auswertung von Korrekturtermen höherer Ordnung erfordert jedoch neue experimentelle Methoden, mit denen sich Genauigkeiten auf dem Niveau von 1 eV und besser erzielen lassen. Dazu hat es ein Nachfolge-experiment zur bisher genauesten Messung der 1s Lamb-Verschiebung in U91+ und des Zwei-Elektronen-Beitrags zum Grundzustand in U90+ am Elektronenkühler gegeben. Hierzu ist das Experiment bei einer niedrigeren Strahlenergie durchgeführt worden. Dabei hat sich allerdings gezeigt, Ionenstrahlen mit einer Energie unterhalb von 20MeV/u besitzen zu kurze Lebensdauern, da bei den niedrigeren Energien die Rekombinationsverluste mit dem Restgas sehr hoch werden und der Ionenstrahl aus technischen Gründen noch einmal umgebuncht werden muss, wobei zusätzlich Zeit und Intensität verloren gehen. Als weiterer Schritt auf dem Weg zu höherer Präzision ist eine Kombination aus einem hochauflösenden Kristallspektrometer (FOCAL) und einem neuartigen orts- und energieauflösenden 2dimensionalen Germaniumdetektor getestet worden. Mit diesem Detektor ist es möglich, mehrere Reflexe gleichzeitig zu messen und somit die Effizienz des Experimentes deutlich zu steigern. Allerdings ist die maximale Energieauflösung bisher über die 250 µm Streifenbreite des Detektors definiert, das entspricht etwas weniger als 200 eV. Tests mit Kalibrationsquellen und das Verfahren des Detektors entlang der Dispersionsachse haben jedoch gezeigt, dass eine Auflösung kleiner als ein Streifen erreichbar ist. Dadurch soll eine Genauigkeit von 1 eV erreicht werden. Die Bewegung der Detektoren, die bei der letzten Strahlzeit einen erheblichen systematischen Fehler verursacht hat, kann mit neuen Detektorplattformen und kontinuierlicher Stickstofffüllung deutlich reduziert werden. Bei den alternativen Methoden Mikrokalorimeter und Absorptionskantenspektroskopie scheinen Mikrokalorimeter eine vielversprechend Entwicklung zu sein, da sie sowohl eine hohe Energieauflösung bieten als auch einen breiten Energiebereich abdecken. Dagegen beinhaltet die Absorptionskantenspektroskopie im Vergleich zu den anderen Methoden zu große systematische Fehler. Aus den Ergebnissen des Experimentes zum Innerschalenübergang und des FOCAL-Commissioning-Experimentes zeigt sich, wie erfolgsversprechend der Einsatz von Kristallspektrometern auf dem Weg zu neuen hochpräzisen Experimenten ist.
Schon seit längerer Zeit wird die Verwendung sogenannter Gabor-Plasmalinsen, in denen ein einkomponentiges also Nichtneutrales Plasma eingeschlossen wird, zur Fokussierung von Teilchenstrahlen untersucht. Um eine gute Fokussierqualität zu erreichen, wird ein hoher Füllgrad der Linse, sowie ein lineares elektrisches Feld benötigt. Während die Gabor-Plasmalinse innerhalb ihres Arbeitsbereiches, in dem das Plasma als thermalisiert angenommen wird, gute Abbildungseigenschaften aufweist, kommt es außerhalb der Arbeitsfunktion der Raumladungslinse zu einem starken Verlust der Strahlqualität. Die Gabor-Plasmalinse dient als Instrument, doch um ihre Anwendung zu optimieren, müssen die wesentlichen Prozesse in Nichtneutralen Plasmen verstanden werden. In der vorliegenden Arbeit wurden Diagnosemethoden zur Bestimmung der Plasmaparameter eines Nichtneutralen Plasmas untersucht, deren Anwendung sich im Bereich der elektrisch neutralen Plasmen bewährt haben. Es wurden desweiteren neue Methoden entwickelt, um die wichtigen Parameter wie Elektronendichte und Elektronentemperatur bestimmen zu können. Die Ergebnisse der Messungen werden numerischen Simulationen vergleichend gegenübergestellt.
Bei intelligenten Sensoren soll die Aufnahme von Signalen und deren, zumindest teilweise durchgeführte, Verarbeitung mit einer einzigen Anordnung erfolgen. Dazu steht häufig eine elektronische Schaltung zur Verfügung, die allerdings zur Einhaltung von Echtzeitbedingungen nur für eine relativ einfache Signalverarbeitung verwendet werden kann. Einen möglichen Ausweg bildet die Verwendung parallel arbeitender Rechnersysteme. In dieser Hinsicht sind programmierbare Schaltungen mit z.B. optischen Sensor-Anordnungen besonders interessant, die auf Zellularen Nichtlinearen Netzwerken basieren. Derartige miniaturisierte Systeme eröffnen aufgrund ihrer zellularen Architektur neue Möglichkeiten zur Signalverarbeitung mit einem Leistungsvermögen, das im Bereich von Tera-Operationen pro Sekunde liegt. Für viele aktuelle Problemstellungen wäre es von Vorteil, wenn diese zellularen Systeme eigenständig Parameteradaptionen durchführen könnten. Eingangssignale, die beispielsweise über die vorhandenen optischen Sensoren aufgenommen werden, führten dann zu einer Neuberechnung bzw. Anpassung der Netzwerksparameter. Aufgrund der beachtlichen Leistungsfähigkeit solcher Schaltungen wäre damit die Möglichkeit gegeben, eine adaptive Signalverarbeitung bei zeitlich veränderlichen Problemen vorzunehmen. In diesem Beitrag wird die Implementierung und Analyse von Lernverfahren auf dem EyeRIS™ System, das einen zellularen Prozessor ACE16kv2™ mit 128×128 Zellen enthält, zur adaptiven Parameterbestimmung betrachtet. Anhand verschiedener Problemstellungen aus dem Bereich der Bildverarbeitung werden unterschiedliche Lernverfahren verglichen und deren Leistungsfähigkeit untersucht.
Nach einer kurzen Einführung in die Theorie der Volterra-Systeme wurden in dieser Arbeit zunächst Verfahren zur Bestimmung von Volterra-Kernen als Kenngrößen für Volterra-Systeme zur Modellierung nichtlinearer Systeme analysiert. Im Vordergrund stand zunächst ein Verfahren basierend auf der Messung der Kreuzkumulanten-Spektren höherer Ordnung von Ein- und Ausgangssignal eines nichtlinearen Systems, wobei als Systemanregung ein stationärer, mittelwertfreier Gaußscher Zufallsprozeß angenommen wurde. Die Analyse der untersuchten Differenzengleichung zeigt, daß zur präzisen Bestimmung der Kernfunktionen bis zur dritten Systemordnung mehr als eine Million Ein- und Ausgangswerte notwendig sind. Vergleichend dazu wurde der Volterra-RLSAlgorithmus betrachtet, der eine rechenzeiteffiziente Bestimmung der Volterra-Kerne zuläßt und kein bestimmtes Eingangssignal erfordert. Beim Volterra-RLS-Algorithmus wurde zunächst die zur Bestimmung derartiger Systemkenngrößen erforderliche Anzahl der Ein- und Ausgangswerte festgestellt. Hierbei wurde u.a. auch ein gedämpftes Pendel als Modellsystem betrachtet. Die Ergebnisse zeigen, daß eine genaue Bestimmung der Volterra-Kerne mit dem Volterra-RLS-Algorithmus schon anhand von etwa 1500 Ein- und Ausgangswerten möglich ist. Anschließend wurde eine spezielle Klasse von Volterra-Systemen, die in lineare Teilsysteme zerlegbar sind, untersucht. Der Volterra-Kern eines solchen Systems, das ausschließlich aus linearen, zeitinvarianten Systemen aufgebaut ist, kann bei Kenntnis von deren Impulsantworten direkt bestimmt werden. Ihre Struktur führt zu einer deutlich verminderten Rechenkomplexität bei der Berechnung der Systemantwort des dargestellten Volterra-Systems. Wie in der Arbeit gezeigt, reichen für eine präzise Messung der Volterra-Kerne, die mit einem Gradientenverfahren bestimmt wurden, bei diesen Systemen bereits ungefähr 1000 Ausgangswerte aus. Außerdem ist die Realisierung eines Systems höherer Ordnung aus Systemen niedrigerer Ordnung relativ einfach möglich. Bei umfangreichen Untersuchungen wurde eine Identifikation nichtlinearer Systeme mit unterschiedlich ausgeprägten Nichtlinearitäten vorgenommen. Als Beispiel ist in dieser Arbeit der Fall diskutiert, bei dem Lösungen der Duffing-Gleichung herangezogen wurden. Dabei wurden Volterra-Systeme bis zur fünften Ordnung zugrundegelegt; eine präzise Approximation gelang in allen Fällen. Schließlich wurde noch festgestellt, inwieweit die Möglichkeit besteht, nach einer Bestimmung, d.h. anhand eines numerisch vorliegenden Kerns, daraus Systemparameter zu extrahieren. Dazu wurde eine spezielle OTA-C Integratorschaltung betrachtet; als Eingangssignale wurden Ein- und Zweitonsignale verwendet und anschließend die Bestimmung der Kerne homogener Systeme vorgenommen. Anhand dieser Resultate konnten der Widerstand R0 und die Kapazität C des OTA-C Integrators mit hoher Genauigkeit ermittelt werden. Die Untersuchungen haben gezeigt, daß eine Identifikation mit den aus linearen Systemen implementierten Volterra-Systemen zu geringeren relativen, mittleren quadratischen Fehlern führt als bei Verwendung der aus der allgemeinen Definition hervorgehenden Systeme. Neben der Verringerung der Rechenkomplexität konnte somit auch eine erhöhte Approximationsgüte festgestellt werden. Aufgrund dieses Befundes wurden derartige Volterra-Systeme für die besondere Fragestellung zur Epilepsieforschung eingesetzt, zu denen diese Arbeit beitragen sollte. Die Prädiktion von EEG-Signalen bei Epilepsie stand dabei im Vordergrund der Betrachtungen. Als erstes wurde der Prädiktionsgewinn sowohl in Abhängigkeit von der Systemordnung als auch in Abhängigkeit von der System- und Filterlänge ermittelt. Im Hinblick auf eine Realisierung in der Praxis wurde die Filterlänge nur zwischen L = 2 bis L = 10 variiert. Diese Untersuchungen haben gezeigt, daß Messungen dabei mit größerer Filterlänge als L = 4 zu keinen weiteren nennenswerten Verbesserungen der Resultate führten. Nach erfolgter Prädiktion wurde der zeitliche Verlauf des Prädiktionsgewinns auf Veränderungen vor oder zu Beginn eines epileptischen Anfalls untersucht. Die Kurvenverläufe der Prädiktionsgewinne der homogenen Systeme zweiter und dritter Ordnung zeigen keine signifikanten Veränderungen vor einem Anfall. Demgegenüber lassen die Kurvenverläufe der Prädiktionsgewinne der homogenen Systeme erster Ordnung und der inhomogenen Systeme dritter Ordnung zu Beginn eines Anfalls einen deutlichen Anstieg erkennen. Weiterhin deuten diese Ergebnisse daraufhin, daß eine genauere Lokalisierung des fokalen Bereichs basierend auf dem Prädiktionsgewinn möglich erscheint. Zu weiteren Untersuchungen wurden die Kerne der Systeme herangezogen und der zeitliche Verlauf des sogenannten nichtlinearen Anteils dm(i) näher betrachtet. Diese Ergebnisse lassen keine signifikanten Änderungen erkennen. Dementgegen stehen die Resultate für Langzeitregistrierungen von EEG-Signalen. Bei einer Analyse der zu einer längerenMeßreihe gehörigen Daten eines 19-jährigen männlichen Patienten wurde festgestellt, daß der Prädiktionsgewinnmeistens kurz vor den epileptischen Anfällen unter denMittelwert des anfallsfreien Zustands abfällt. Änderungen der Kurvenverläufe des Prädiktionsgewinns kurz vor epileptischen Anfällen weisen erkennbar spezifische Merkmale auf, die möglicherweise als Vorboten eines epileptischen Anfalls angesehen werden könnten
Am 27. und 28. September 2005 tagten Historiker und Philosophen der Mathematik und Naturwissenschaften in Frankfurt a.M. im Gebäude des Physikalischen Vereins. Eine Besonderheit des Internationalen Symposiums war der Dialog mit Vertretern der aktuellen Grundlagendebatte der Basiswissenschaft Physik. In zwölf Vorträgen wurden an zwei Tagen Raum- und Zeitkonzeptionen bedeutender Naturphilosophen der letzten 400 Jahre vorgestellt. Naturwissenschaftshistoriker rekonstruierten die Entwürfe von Giordano Bruno, Marin Mersenne, René Descartes, Otto von Guericke, Baruch Spinoza, Gottfried Wilhelm Leibniz, Isaac Newton und Leonhard Euler, während Grundlagentheoretiker der Physik einen Überblick über eigene Konzeptionen mit einem systematischen Anschluss an die Denktraditionen vorführten. Die Tagung wurde von der Fritz Thyssen Stiftung gefördert sowie vom Förderverein des Frankfurter Institutes für Geschichte der Naturwissenschaften "Arbor Scientiarum" und dem Physikalischen Verein finanziell unterstützt. ...
Struktur, Funktion und Dynamik von Na(+)-, H(+)-Antiportern : eine infrarotspektroskopische Studie
(2008)
Die Funktion von Membranproteinen ist von entscheidender Bedeutung für eine Vielzahl zellulärer Prozesse. Um diese verstehen zu können, ist das Verständnis der Beziehungen zwischen der Struktur, der Dynamik und der Wechselwirkung mit der Umgebung der Membranproteine notwendig. Spektroskopische Methoden, wie beispielsweise FTIR- und CD-Spektroskopie sind in der Lage, diese Informationen zu geben. In der vorliegenden Dissertation haben sie bedeutende Beiträge zum Verständnis der durch die Aktivierung induzierten Konformationsänderungen der Na+/H+ Antiporter geleistet. Die hohe Empfindlichkeit einer selbstkonstruierten FTIR-ATR-Perfusionszelle ermöglichte es, über eine Proteinprobe verschiedene Wirkstoffmoleküle perfundieren zu lassen und die dadurch verursachten strukturellen Änderungen spektroskopisch zu charakterisieren. Die Konformationsänderungen, die den Aktivierungsprozess begleiten, wurden bei zwei verschiedenen Na+/H+ Antiportern, NhaA und MjNhaP1, untersucht. Sie werden bei unterschiedlichen pH-Bereichen aktiviert bzw. deaktiviert. Der Na+/H+ Antiporter NhaA aus E. coli hat seine maximale Transportaktivität bei pH 8,5 und ist bei pH < 6,5 vollständig inaktiv. Trotz bekannter 3D-Struktur dieses Proteins für die inaktive Konformation bei pH 4 bleiben die Konformationsänderungen, die mit der Aktivierung des Proteins einhergehen, immer noch ungeklärt. Die Analyse der FTIR- und CD-Spektren von NhaA ergab in beiden Zuständen Anteile an beta-Faltblatt, an Schleifen und ungeordneten Strukturen, wobei die alpha-helikale Struktur dominiert. Die FTIR Spektren des inaktiven und aktiven Zustands zeigen zwei Komponenten, die auf die Präsenz zweier alpha-Helices mit unterschiedlichen Eigenschaften abhängig vom Aktivitätszustand hindeuteten. Die temperaturinduzierten strukturellen Änderungen und die Reorganisation des Proteins während des Entfaltungsprozesses bestätigten, dass die Aktivierung des Proteins eine Änderung in den Eigenschaften der alpha-Helices zur Folge hat. Aktivierung führt zu einer thermischen Destabilisierung dieser Struktur. Auch für die beta-Faltblattstruktur, welche den Hauptkontakt zwischen den Monomeren bildet, wurde ein unterschiedliches thermisches Verhalten zwischen dem inaktiven und aktiven Zustand beobachtet. Daraus konnte gefolgert werden, dass Aktivität nur dann möglich ist, wenn NhaA als Dimer vorliegt. Die Ergebnisse des (1)H/(2)H Austauschs zeigen, dass die Lösungsmittelzugänglichkeit des Proteins sich mit der Aktivierung ändert. Die Aktivierung des Proteins induziert eine offene, für die Lösung zugänglichere Konformation, in welcher die Aminosäureseitenketten in der hydrophilen Region des Proteins schneller Wasserstoff durch Deuterium austauschen, und in welcher zusätzliche Aminosäureseitenketten, die sich im inaktiven Zustand in der hydrophoben Region des Proteins befinden, mit der Aktivierung der Lösung exponiert werden. Die Aufnahme reaktionsinduzierter Differenzspektren ergab eindeutige spektroskopische Signaturen für die Zustände „inaktiv“ und „aktiv“. Die Differenzspektren der pH-Titration zeigten, dass der pH-Wert einen dramatischen Effekt sowohl auf die Sekundärstruktur als auch auf den Protonierungszustand der Aminosäureseitenketten hat. Die pH- und Na+-induzierte Aktivierung des Proteins führt zur Umwandlung der transmembranen alpha-helikalen Struktur bezüglich Länge, Ordnungsgrad und/oder Anordnung und zur einer Protonierungsänderung der Aminosäureseitenketten von Glutaminsäure oder Asparaginsäure. Die pD induzierten Sekundärstrukturänderungen lieferten zusätzlich Informationen über die Umgebungsänderung der Aminosäureseitenkette des Tyrosins mit der Aktivierung. Der Vergleich der durch die Bindung des Natriums und des Inhibitors induzierten Differenzspektren zeigte, dass die Bindungsstellen des Natriums und des Inhibitors unterschiedlich sind. Die FTIR- und CD-Ergebnisse für den Na+/H+ Antiporter MjNhaP1 aus M. jannaschii, der im Gegensatz zu NhaA bei pH 6 aktiv und bei pH Werten > 8 inaktiv ist, zeigten, dass ähnlich wie NhaA das Protein im aktiven Zustand bei pH 6 hauptsächlich aus alpha-Helices aufgebaut ist. Es bestand die Möglichkeit, zwei verschiedene Probenpräparationen (Protein in Detergenz bzw. in 2D-Kristallen) zu untersuchen und miteinander zu vergleichen. Die Erhöhung des pH-Werts bei der in Detergenz solubilisierten Probe führte zu einer Abnahme der alpha-helikalen und einer Zunahme der ungeordneten Strukturen. Das äußerte sich auch in den Untersuchungen zur thermischen Stabilität und im (1)H/(2)H Austauschexperiment. Die thermische Stabilität der alpha-Helices nahm mit der Inaktivierung dramatisch ab. Diese Ergebnisse zeigten auch, dass bei der Aktivierung von MjNhaP1 die beta-Faltblattstruktur nicht involviert ist, aber diese von fundamentaler Bedeutung für die Gesamtstabilität des Proteins und wahrscheinlich für den Hauptkontakt zwischen den Monomeren verantwortlich ist. Im Gegensatz zu NhaA ist die Monomer Monomer Wechselwirkung nicht für die Aktivität von MjNhaP1 notwendig. Aufgrund des höheren Anteils von ungeordneter Struktur im inaktiven Zustand der in Detergenz solubilisierten Probe beobachtet man in diesem Zustand einen höheren (1)H/(2)H Austausch. Der Vergleich mit den Ergebnissen des (1)H/(2)H Austausches von 2D-Kristallen ermöglichte die Lokalisation der ungeordneten Struktur an der Außenseite des Proteinmoleküls im inaktiven Zustand. Die pH-induzierten Differenzspektren zeigten, dass die Aktivierung zu einer Helikalisierung des Proteins und einer Protonierungsänderung der Aminosäureseitenketten von Asparaginsäure und/oder Glutaminsäure unabhängig von der Probenpräparation führt. Der Vergleich von NhaA und MjNhaP1 zeigt, dass die Aktivierung in beiden Fällen mit einer Konformationsänderung und Änderung der Protonierung oder der Umgebung von einer oder mehreren Seitenketten von Asparaginsäure oder Glutaminsäure verbunden ist. Dabei sind die Strukturänderungen der beiden Proteine während der Aktivierung ähnlich, bei Inaktivierung jedoch deutlich unterscheidbar. Die pH-induzierten Strukturänderungen wurden bei NhaA und MjNhaP1 durch die Mutanten G338S und R347A, die keine pH-Abhängigkeit der Aktivität zeigen, bestätigt.
Die Coltrims-Methode hat sich seit den 1990er Jahren als gutes experimentelles Instrument in der Atomphysik und darüberhinaus etabliert. Sie beruht darauf, dass die bei einer Reaktion entstehenden Fragmente mit ortssensitiven Detektoren nachgewiesen werden. Die Signale der Detektoren wurden bisher mit einem analogen Vorverstärker verstärkt und dann mit Hilfe eines Constant Fraction Discriminators in digitale Signale umgewandelt. Die Zeitinformation der digitalen Signale wurden von Time to Digital Convertern aufgenommen und im Computer gespeichert. Mit dieser Form der Auslese und Analyse der von den Detektoren stammenden Signale können nur einige wenige Fragmente nachgewiesen werden. Die Lösung dieses Problems besteht also darin, eine neue Variante für die Auslese und Analyse der Signale zu finden. Diese wurde in der Verwendung eines Transientenrekorders gefunden. Anstatt nur die Zeitinformation zu speichern, nimmt dieser die gesamte Signalform der Detektoren auf. Die Aufgabe, die in dieser Arbeit bearbeitet werden sollte, bestand darin, eine Software zu entwickeln, mit deren Hilfe der Transientenrekorder gesteuert werden kann. Auch sollte ein Weg gefunden werden nur die für das Experiment notwendigen Informationen des aufgenommenen Zeitfensters zu speichern. Des Weiteren sollten Methoden aufgezeigt werden, wie die aufgenommen Signale untersucht und deren Parameter extrahiert werden können. Diese Methoden wurden dann an realen Signalen getestet. Nachdem im ersten Kapitel die Motivation zu dieser Arbeit und einige theoretische Hintergründe vorgestellt werden, wird im zweiten Kapitel auf verschiedene Methoden der Signalanalyse eingegangen. Der Augenmerk liegt dabei sowohl auf Einzel- sowie Doppelsignalanalyse. Die Güte der vorgestellten Algorithmen wird mit Hilfe von künstlichen Signalen ermittelt. Es zeigt sich, dass die beste Methode die zeitliche Position der Einzelsignale zu finden, der Pulsfit ist. Mit dieser Methode kann eine Auflösung von etwa 50 ps erzielt werden. Bei der Betrachtung der Doppelsignale stellt sich heraus, dass der minimale Abstand zwischen den Signalen 5 ns bis 7 ns betragen muss. Das dritte Kapitel zeigt eine Anwendung des neuen Aufnahmesystems. Dort werden die physikalischen Ergebnisse, die mit Hilfe des neuen Systems gewonnen werden konnten, mit einem herkömmlichen Aufnahmesystem verglichen. Aufgrund der geringeren Totzeit des neuen Aufnahmesystems konnte mehr Statistik gewonnen werden. Der dadurch gewonnene Vorteil zeigt sich deutlich in den Ergebnissen, bei denen eine vierfach Koinzidenz verlangt wird. Bei dem nächsten Kapitel beschriebenen Experiment mussten sehr viele Fragmente nachgewiesen werden. Hierzu wird ein weiteres Kriterium neben der Zeitsumme vorgestellt mit dem die Anodensignale einander zugewiesen werden können. Die in diesem Kapitel gezeigten physikalischen Ergebnisse zeigen die Impulsverteilungen für Neon und Helium für unterschiedliche Lichtintensitäten bzw. Ionisationsprozesse. Im darauf folgenden Kapitel wird beschrieben, wie die neue Aufnahmemethode dazu verwendet werden kann, die von den Detektoren kommenden Signale genauer zu analysieren. Die physikalische Reaktion führte dazu, dass von dem Detektor hauptsächlich Doppelsignale aufgenommen wurden. Dies erlaubt die Untersuchung der Doppelsignalalgorithmen an realen Signalen. Hierbei zeigte sich, dass die Totzeit bei realen Signalen vergleichbar mit der Totzeit bei künstlichen Signalen ist. Die Algorithmen können bei Abständen der Einzelsignale von weniger als 10 ns die Position der Signale nicht mehr genau bestimmen. Anhand der Pulshöhenverteilung kann gezeigt werden, dass der verwendete Detektor in der Mitte eine geringere Nachweiseffizienz hatte. Im letzten Kapitel wird die Güte der verschiedenen Methoden der Einzelsignalanalyse anhand von realen Signalen überprüft. Dabei wurden Signale desselben Detektors mit unterschiedlichen Vorverstärkern verstärkt. Die beiden Vorverstärker unterschieden sich in ihrer Bandbreitenbegrenzung. Die Daten wurden mit einem Transientenrekorder mit 2 GS aufgenommen. Es wird gezeigt wie diese Daten umgewandelt werden können, so dass sie einem System mit nur 1 GS entsprechen. Dies erlaubt es die Güte der Methoden für Signale eines Systems mit 2 GS mit denen eines Systems mit 1 GS zu vergleichen. Es zeigt sich in der Pulshöhenverteilung, dass die Signale des stärker bandbreitenbegrenzten Vorverstärkers vergleichbar mit den künstlichen Signalen sind. Die Signale des weniger stark bandbreitenbegrenzten Vorverstärkers weisen eine zu starke Abhängigkeit ihrer Breite von der Pulshöhe auf. Aus diesem Grund sind die Ergebnisse des letzt genannten Vorverstärkers abweichend von den Ergebnissen mit den künstlichen Signalen. Bei diesem Vorverstärker zeigte der einfache Constant Fraction Algorithmus die beste Auflösung.
Die Untersuchung der Eigenschaften von Hadronen und ihren Konstituenten (Quarks und Gluonen) in heißer und/oder dichter Kernmaterie ist eines der Hauptziele der Physik mit schweren Ionen. Der Zustand dichter und heißer Materie kann im Labor für kurze Zeit in der Reaktionszone von relativistischen Schwerionenkollisionen geschaffen werden. Einen Einblick über die Eigenschaften der starken Wechselwirkung und über die Massenerzeugung der Hadronen geben Dileptonen-Experimente, da Leptonen nicht von der starken Wechselwirkung beeinflusst werden. Unabhängig von der Strahlenergie zeigen die invarianten Massenspektren der Dileptonen in Schwerionenkollisionen im Vergleich zur Superposition der erwarteten hadronischen Zerfälle im Vakuum einen Überschuss im invarianten Massenbereich 0,2 - 0,6 GeV/c². Während dieser Überschuss bei CERN-SPS Energien in Zusammenhang mit der In-Medium-Modifikation der Spektralfunktion des Rho-Mesons gebracht wird, konnte die hohe Zahl der Dileptonen, die von der DLS Kollaboration in C + C und Ca + Ca bei 1 GeV/u beobachtet wurde, bis zum Erscheinen der HADES Daten nicht zufrieden stellend erklärt werden. Die Diskrepanz zwischen experimentellen Daten und Transportrechnungen erhielt den Namen "DLS Puzzle". In diesem Zusammenhang wurde eine kontroverse Diskussion über die Validität der Ergebnisse der DLS Kollaboration geführt. Das HADES Detektorsystem (High Acceptance Di-Electron Spectrometer), das sich am Schwerionensynchroton der Gesellschaft für Schwerionenforschung (GSI) in Darmstadt befindet, ist zur Zeit das einzige Experiment, das Dielektronen bei Projektilenergien von 1 - 2 GeV/u misst. Es tritt somit die Nachfolge des DLS Experiments an. Jedoch ist HADES durch zahlreiche technische Verbesserungen, u.a. Massenauflösung und Akzeptanz, im Vergleich zum Spektrometer DLS ein Experiment der 2. Generation. Erste Ergebnisse der Messung 12C + 12C bei 2 GeV/u der HADES Kollaboration bestätigen den generellen Trend einer erhöhten Zählrate im Vergleich zu den erwarteten Beiträgen von hadronischen Zerfällen. Es stellt sich die Frage, wie sich diese Beobachtung zu kleineren Strahlenergien hin fortsetzt. Im Rahmen der vorliegenden Arbeit wird die mit dem HADES Detektorsystem durchgeführte Messung der Dielektronenproduktion in der Schwerionenkollision 12C + 12C bei einer Projektilenergie von 1 GeV/u ausgewertet. Wesentliche Zielsetzungen sind u. a. die Überprüfung der DLS Daten und die Bestimmung der Anregungsfunktion des Überschusses. In der Analyse wird demonstriert, dass Leptonen effizient nachgewiesen werden. Die dargestellte Paaranalyse zeigt, dass der kombinatorische Untergrund erfolgreich reduziert und die Menge der wahren Dielektronen weitgehend erhalten werden kann. Nach Abzug des kombinatorischen Untergrundes werden die effizienzkorrigierten und normierten invarianten Massen-, Transversalimpuls- und Rapiditätsverteilungen der Dielektronen untersucht. Die Ergebnisse werden mit hadronischen Cocktails verschiedener theoretischer Ansätze verglichen. Diese beinhalten die Beiträge kurz- und langlebiger Dileptonenquellen einer thermischen Quelle (PLUTO) sowie mikroskopische Transportrechnungen (HSD,IQMD). Im Massenbereich 0,2 - 0,6 GeV/c² wird der gemessene Überschuss relativ zu den Vorhersagen bestätigt. Zusammen mit den Ergebnissen der Messung 12C + 12C bei 2 GeV/u zeigt sich, dass der Überschuss mit abnehmender Strahlenergie relativ zunimmt. Eine detaillierte Analyse zeigt, dass der Überschuss in dem Massenintervall 0,15 - 0,5 GeV/c² als Funktion der Projektilenergie entsprechend der Zahl der produzierten neutralen Pionen und nicht wie die Zahl des Eta-Mesons skaliert. Der direkte Vergleich der HADES mit den DLS Ergebnissen zeigt, dass die Daten der vorliegenden Arbeit mit den für lange Zeit angezweifelten DLS Resultaten übereinstimmen. Die Frage nach dem physikalischen Ursprung des Überschusses rückt somit erneut in den Vordergrund. In diesem Zusammenhang ist das Studium der Dileptonenproduktion in elementaren Reaktionen p + p und d + p wichtig. Neuere Rechnungen mit einem One Boson Exchange (OBE) Modell deuten darauf hin, dass die Beiträge von p-p und hauptsächlich p-n zur Bremsstrahlung signifikant höher sind als bisher vermutet. Eine aktualisierte Transportrechnung (HSD), deren Parametrisierung der Bremsstrahlung durch dieses OBE Resultat inspiriert ist, scheint in der Lage zu sein, die Ergebnisse der Messungen 12C + 12C bei 1 GeV/u der HADES und DLS Kollaboration recht gut zu beschreiben. Die entsprechenden Vergleiche sind dargestellt und werden diskutiert. Aber auch die Transportrechnung IQMD erklärt die HADES Daten recht gut. Daher ist es offensichtlich, dass eine direkte Gegenüberstellung der OBE Modellrechnungen und der von der HADES Kollaboration gemessenen und derzeit analysierten Daten zur Dileptonenproduktion in p + p und d + p Reaktionen erforderlich ist. Nur so können sichere Schlüsse über den Ursprung der Dileptonen bei SIS Energien gezogen werden.
Die Suche nach einem geeigneten Photosensor für das PANDA-Experiment wurde durch folgende Anforderungen eingegrenzt: • Tauglichkeit in einem starken Magnetfeld • Funktionsfähigkeit trotz niedriger Temperatur • geringe Bauhöhe • interne Verstärkungsstufe wegen der geringen Lichtausbeute von PbWO4 • stabiler Betrieb trotz hoher Strahlenbelastung Diese Punkte werden von Large Area Avalanche-Photodioden (LAAPDs) erfüllt. Da diese Si-Halbleiterdioden im laufenden Experiment einer hohen Strahlenbelastung ausgesetzt sein werden, ist es erforderlich, die Strahlenhärte im Vorfeld intensiv zu testen. Im Rahmen dieser Diplomarbeit wurden Strahlenhärtetests mit geladenen und neutralen Teilchen an (inter-)nationalen Instituten und der Universität Frankfurt durchgeführt, wobei das Hauptaugenmerk auf der Neutronenbestrahlung lag. Dazu wurde eine Messvorrichtung entwickelt und funktionstüchtig aufgebaut, mit der dann die Messungen an fünf verschiedenen Dioden mit einer Kapazität von 180 pF vorgenommen wurden. Während der Bestrahlung wurde der Dunkelstrom in Abhängigkeit von der Bestrahlungszeit bei konstanten Temperaturen gemessen. Vor und nach den Tests wurden die APD-Parameter charakterisert, um später durch den Vergleich der Daten Aussagen zur Strahlenhärte der Photodetektoren machen zu können. Die Ergebnisse und Vergleiche zeigen, dass die APDs nach der Bestrahlung mit Photonen weiterhin gut funktionieren. Die Quantenausbeute verändert sich nicht. Der durch Protonen- (Rate ≈ 1013 p/cm2 (90 MeV) und Neutronenbestrahlung (Rate ≈ 1010 n/cm2 (1 MeV) und 1014 n/cm2 (14 MeV)) erzeugte hohe Dunkelstrom der APDs ist aufgrund seiner Temperaturabhängigkeit und den Ausheilungseffekte reduzierbar. Es ist zu erwarten, dass die APDs im laufenden Experimentbetrieb trotz dieser Strahlung funktionsfähig bleiben werden. Sobald die mit Neutronen bestrahlten APDs abgeklungen sind, werden ihre Parameter zum Vorher-/Nachher-Vergleich vermessen. Dazu gehören der Dunkelstrom in Abhängigkeit von der Verstärkung, die Verstärkung in Abhängigkeit von der Spannung und Wellenlänge und die Quantenausbeute. Um die Ausheilung bestrahlter Photodioden in Abhängigkeit von der Temperatur genauer zu bestimmen, sollen sie (unter Vorspannung) in einem Ofen bei T = 80◦C ausgebacken werden, bis der Dunkelstrom sich wieder in einem Gleichgewicht befindet. Nach diesem Vorgang werden dann alle APD-Parameter noch einmal vermessen, um einen Vergleich mit den Werten vor der Bestrahlung zu ziehen. Neben diesen nachbereitenden Arbeiten wird an ersten rechteckigen APD-Prototypen, die sich in der Entwicklungsphasen befinden, geforscht. An diesen außergewöhnlich großen APDs müssen alle an den quadratischen Photodioden bereits durchgeführten und noch folgenden Tests ebenfalls vorgenommen werden.
Partielle Differentialgleichungen des Reaktions-Diffusions-Typs beschreiben Phänomene wie Musterbildung, nichtlineare Wellenausbreitung und deterministisches Chaos und werden oft zur Untersuchung komplexer Vorgänge auf den Gebieten der Biologie, Chemie und Physik herangezogen. Zellulare Nichtlineare Netzwerke (CNN) sind eine räumliche Anordnung vergleichsweise einfacher dynamischer Systeme, die eine lokale Kopplung untereinander aufweisen. Durch eine Diskretisierung der Ortsvariablen können Reaktions-Diffusions-Gleichungen häufig auf CNN mit nichtlinearen Gewichtsfunktionen abgebildet werden. Die resultierenden Reaktions-Diffusions-CNN (RD-CNN) weisen dann in ihrer Dynamik näherungsweise gleiches Verhalten wie die zugrunde gelegten Reaktions-Diffusions-Systeme auf. Werden RD-CNN zur Identifikation neuronaler Strukturen anhand von EEG-Signalen herangezogen, so besteht die Möglichkeit festzustellen, ob das gefundene Netzwerk lokale Aktivität aufweist. Die von Chua eingeführte Theorie der lokalen Aktivität Chua (1998); Dogaru und Chua (1998) liefert eine notwendige Bedingung für das Auftreten von emergentem Verhalten in zellularen Netzwerken. Änderungen in den Parametern bestimmter RD-CNN könnten auf bevorstehende epileptische Anfälle hinweisen. In diesem Beitrag steht die Identifikation neuronaler Strukturen anhand von EEG-Signalen durch Reaktions-Diffusions-Netzwerke im Vordergrund der dargestellten Untersuchungen. In der Ergebnisdiskussion wird insbesondere auch die Frage nach einer geeigneten Netzwerkstruktur mit minimaler Komplexität behandelt.
Seit einigen Jahren ist die Analyse von EEG-Signalen bei Epilepsie Gegenstand zahlreicher wissenschaftlicher Arbeiten; Zielvorstellung ist dabei die Entwicklung von Verfahren zur Erkennung eines möglichen Voranfallszustandes. Im Vordergrund steht beispielsweise die Approximation einer so genannten effektiven Korrelationsdimension, die Bestimmung der maximalen Lyapunov-Exponenten, Detektionsverfahren für Muster bei Zellularen Nichtlinearen Netzwerken, die Bestimmung der mittleren Phasenkohärenz und Verfahren zur nichtlinearen Prädiktion von EEG-Signalen. Trotz umfangreicher Bemühungen kann bis heute eine Erkennung von Anfallsvorboten mit einer Sensitivität und Spezifität, die eine automatisierte Anfallsvorhersage ermöglichen würde, noch nicht durchgeführt werden. In diesem Beitrag werden neue Ergebnisse zur Prädiktion von EEG-Signalen bei Epilepsie vorgestellt. Dabei werden Signale, welche mittels intrakranieller electrocorticographischer (ECoG) und stereoelectroencephalographischer (SEEG) Ableitungen registriert wurden, segmentweise analysiert. Unter der Annahme, dass sich Änderungen des Systems ,,Gehirn" als Änderungen im Prädiktor, d.h. in seinen Systemparametern widerspiegeln, könnte eine nähere Betrachtung der Prädiktoreigenschaften zu einer Erkennung von Anfallsvorboten führen.
Die ionenstrahlinduzierte Desorption ist eine Beeinträchtigung der Leistungsfähigkeit moderner Hochstrom-Schwerionensynchrotrons. Umgeladene Projektilionen folgen in den Ablenkmagneten nicht der Sollbahn des Strahls und kollidieren mit der Strahlrohrwand. Dies führt zu einer stimulierten Gasabgabe an das Beschleunigervakuum. Der resultierende erhöhte Druck hat eine deutliche Einschränkung der Strahllebensdauer zur Folge. Um die Menge des abgegebenen Gases zu minimieren wurden zahlreiche Experimente durchgeführt, die der Bestimmung der Desorptionsausbeute (desorbierte Gasmoleküle pro auftretendem Ion) unterschiedlicher Materialien unter Bestrahlung mit verschiedenen Ionen dienten. Die vorliegende Arbeit ist ein Beitrag zum Verständnis der physikalischen Prozesse der ionenstrahlinduzierten Desorption. Die Messung der Desorptionsausbeuten mittels der Druckanstiegsmethode wurde erstmals mit Materialanalytiken wie ERDA und RBS kombiniert. Mit diesem einzigartigen experimentellen Aufbau kann das Desorptionsverhalten mit den Oberflächen- und Festkörpereigenschaften der Proben korreliert werden. Anhand der durchgeführten Experimente mit 1,4 MeV/u Xenon-Ionen konnte gezeigt werden, dass die ionenstrahlinduzierte Desorption im Wesentlichen ein Oberflächeneffekt ist. Zerstäubte Verunreinigungen oder abgetragene Oxidschichten von Metallen liefern keinen nennenswerten Beitrag zum desorbierten Gas. Dennoch ist die Desorptionsausbeute stark von den Festkörpereigenschaften der Probe abhängig. Rein metallische Proben desorbieren unter Bestrahlung mit schnellen Schwerionen weniger stark als Isolatoren. Durch die experimentellen Ergebnisse wurde es möglich, Desorptionsausbeuten unter Ionenbestrahlung anhand eines modiffizierten inelastischen Thermal-Spike-Modells vorauszusagen. Die Erweiterung des Modells ist die Kombination des Temperaturprofils mit der thermischen Desorption. Damit kann die ionenstrahlinduzierte Desorption als die Abgabe von Oberflächenadsorbaten, ausgelöst durch eine kurzzeitige Erhöhung der Oberflächentemperatur um den Ioneneinschlag herum, betrachtet werden.
Die Analyse der Ionisation des in Zürich durchgeführten Ionisationsexperimentes an Helium hat in erster Line gezeigt, wie exakt die optischen Eigenschaften der lambda/4 Platte bekannt sein müssen, um die richtigen Schlussfolgerungen aus den experimentellen Daten zu ziehen. Insbesondere, dass bei der Bandbreite des verwendeten Lichtes, rein zirkulare Laserpulse mit den heutzutage zu Verfügung stehenden Verzögerungsplatten nicht erzeugt werden können und wie gravierend sich eine Restelliptizität von wenigen Prozent auf die Impulsverteilung auswirkt. Wird dieses Wissen jedoch in die Analyse mit eingebracht, so erlaubt der präsentierte Ansatz eine Bestimmung des Ionisationszeitpunktes mit der Genauigkeit in der Größenordnung von 10 Prozent der Dauer einer Laserperiode. Diese Analyse erlaubt in Zukunft in Experimenten mit zirkular polarisierter Laserstrahlung beim Auftreten von Mehrfachionisation die Bestimmung der Zeitintervalle zwischen den einzelnen Ionisatiosereignissen. Des weiteren ermöglicht die vorgestellte Analyse aus den gemessenen Impulsvereilungen eine CEO-Phasenbeestimmung durzuführen, bei welcher die Anzahl der benötigten Ionisationsvorgänge geringer ist als bei der Benutzung eines Stereo-ATI. In Verbindung mit Detektorsystemen, welche in der Lage sind die Winkelverteilungen für Ereignisse zu bestimmen, bei denen sehr viele Ionisationsereignisse auf einmal auftreten, kann die Anzahl der Laserschüsse, die für die Bestimmung der CEO-Phase benötigt werden, stark verringert werden. Das Pump-and-Probe-Experiment liefert trotz der Problematik, welche sich in diesem Fall bei der Anwendung des Pump-and-Probe-Schemas auf Grund der zur Verfügung stehenden Wellenlänge ergeben einen Hinweis auf die Zeitdauer, die zur Isomerisation benötigt wird. Bei den gewählten Intensitäten ist nach einem Zeitraum zwischen 30 und 60 fs zwischen dem Pump- und Probe-Puls ein Anstieg der Anzahl der in drei Teilchen fragmentierten Moleküle zu beobachten, welche einer Vinylidenkonfiguration entstammen. Der relative Anstieg der Vinylidenpopulation beträgt zehn Prozent. Der Grund, dass kein Anstieg der Vinyliden Population von null an zu beobachten ist, ist wahrscheinlich dadurch begründet, dass die Isomerisation schon an den Flanken des Pump-Pulses stattfindet und schon vor Erreichen der maximalen Intensität des Pump-Pulses abgeschlossen ist. Der Analoge Prozess könnte an den Flanken des Probe-Pulses stattfinden. Dies muss durch eine separate theoretische Behandlung erörtert werden.
Ein wesentlicher Forschungsgegenstand der Kernphysik ist die Untersuchung der Eigenschaften von Kernmaterie. Das Verständnis darüber gibt in Teilen Aufschluss über die Erscheinungsweise und Wechselwirkung von Materie. Ein Schlüssel liegt dabei in der Untersuchung der Modifikation der Eigenschaften von Hadronen in dem Medium Kernmaterie, das durch Parameter wie Dichte und Temperatur gekennzeichnet werden kann. Man hofft damit unter anderem Einblick in die Mechanismen zu bekommen, welche zur Massenbildung der Hadronen beitragen. Zur Untersuchung solcher Modifikationen eignen sich insbesondere Vektormesonen, die in e+e- Paare zerfallen. Die Leptonen dieser Paare wechselwirken nicht mehr stark mit der Materie innerhalb der Reaktionszone, und tragen somit wichtige Informationen ungestört nach außen. Das HADES-Spektrometer bei GSI wird dazu verwendet die leichten bei SIS-Energien produzierten Vektormesonen rho, omega und phi zu vermessen. Hierzu wurde zum erste mal das mittelschwere Stoßsystem Ar+KCl bei einer Strahlenergie von 1,76 AGeV gemessen. Die im Vergleich zum früher untersuchten System C+C höhere Spurmultiplizität innerhalb der Spektrometerakzeptanz verlangte eine Anpassung der bisher verwendeten Datenanalyse. Das bisher verwendete Verfahren, mehrere scharfe Schnitte auf verschiedene Observablen seriell anzuwenden, um einzelne Leptonspuren als solche zu identifizieren, wurde durch eine neu entwickelte multivariate Analyse ersetzt. Dabei werden die Informationen aller beteiligten Observablen mit Hilfe eines Algorithmus zeitgleich zusammengeführt, damit Elektronen und Positronen vom hadronischen Untergrund getrennt werden können. Durch Untersuchung mehrerer Klassifizierer konnte ein mehrschichtiges künstliches neuronalen Netz als am besten geeigneter Algorithmus identifiziert werden. Diese Art der Analyse hat den Vorteil, dass sie viel robuster gegenüber Fluktuationen in einzelnen Observablen ist, und sich somit die Effizienz bei gleicher Reinheit steigern lässt. Die Rekonstruktion von Teilchenspuren im HADES-Spektrometer basiert nur auf wenigen Ortsinformationen. Daher können einzelne vollständige Spuren a priori nicht als solche gleich erkannt werden. Vielmehr werden durch verschiedene Kombinationen innerhalb derselben Mannigfaltigkeit von Positionspunkten mehr Spuren zusammengesetzt, als ursprünglich produziert wurden. Zur Identifikation des maximalen Satzes eindeutiger Spuren eines Ereignisses wurde eine neue Methode der Spurselektion entwickelt. Während dieser Prozedur werden Informationen gewonnen, die im weiteren Verlauf der Analyse zur Detektion von Konversions- und pi0-Dalitz-Paaren genutzt werden, die einen großen Beitrag zum kombinatorischen Untergrund darstellen. Als Ergebnis wird das effizienzkorrigierte, und auf die mittlere Zahl der Pionen pro Ereignis normierte, Spektrum der invarianten Elektronpaarmasse präsentiert. Erste Vergleiche mit der konventionellen Analysemethode zeigen dabei eine um etwa 30% erhöhte Rekonstruktionseffizienz. Das Massenspektrum setzt sich aus mehr als 114.000 Paaren zusammen -- über 16.000 davon mit einer Masse größer als 150 MeV. Ein erster Vergleich mit einem einfachen thermischen Modell, welches durch den Ereignisgenerator Pluto dargestellt wird, eröffnet die Möglichkeit, die hier gefundenen Produktionsraten des omega- und phi-Mesons durch m_T-Skalierung an die durch andere Experimente ermittelten Raten des eta zu koppeln. In diesem Zusammenhang findet sich weiterhin ein von der Einschussenergie abhängiger Produktionsüberschluss von F(1,76) = Y_total/Y_PLUTO = 5,3 im Massenbereich M = 0,15...0,5 GeV/c^2. Die theoretische Erklärung dieses Überschusses birgt neue Erkenntnisse zu den in-Medium Eigenschaften von Hadronen.
Die vorliegende Arbeit beschäftigt sich mit den Tieftemperatureigenschaften dreier niedrigdimensionaler Spinsysteme. Der experimentelle Schwerpunkt liegt auf Messungen zur thermischen Ausdehnung und zur spezifischen Wärme, die mit einem hochauflösenden kapazitiven Dilatometer bzw. einem AC-Kalorimetrie-Aufbau durchgeführt wurden. Da die sogenannten magnetischen Grüneisenparameter, die die Stärke der Kopplung des magnetischen Teilsystems ans Gitter beschreiben, durchweg sehr groß sind, liefern insbesondere die thermischen Ausdehnungsmessungen wertvolle Informationen zum Verständnis der behandelten Systeme. Das zentrale Ergebnis dieser Arbeit stellen Messungen an der Hochdruckphase von (VO)2P2O7, kurz HP-VOPO, dar. Dieses System besteht aus alternierenden Spinketten, wobei die beiden Austauschkonstanten ähnliche Werte haben, das heißt es liegt nur eine schwache Alternierung vor. In der thermischen Ausdehnung beobachtet man eine insbesondere in Kettenrichtung sehr ausgeprägte Anomalie bei etwa 13 K. Die Erklärung dieser Anomalie offenbart einen neuartigen Aspekt von alternierenden Spinketten mit schwacher Alternierung, der auf dem Vorhandensein von zwei deutlich verschiedenen Energieskalen beruht, zum einen der größeren der beiden Austauschkonstanten und zum anderen der Energielücke im System. Eine sehr gute quantitative Beschreibung der thermischen Ausdehnungsmessungen gelingt durch eine Erweiterung des herkömmlichen Grüneisenmodells, welches eine Proportionalität zwischen den magnetischen Beiträgen zur thermischen Ausdehnung und zur spezifischen Wärme vorsieht, auf Systeme mit zwei magnetischen Austauschkonstanten. In diesem Fall tritt in der thermischen Ausdehnung ein zusätzlicher, zur Ableitung der Entropie nach der Energielücke proportionaler Term auf, der durch Messungen zur spezifischen Wärme nicht zugänglich ist. Aus den unter Verwendung dieses Modells bestimmten Grüneisenparametern lässt sich folgern, dass die ausgeprägte Tieftemperaturanomalie in HP-VOPO zum Teil von der starken Verzerrungsabhängigkeit der kleineren der beiden Austauschkonstanten, zum Teil aber auch von der Nähe zu einem quantenkritischen Punkt verursacht wird. Das zweidimensionale Dimersystem SrCu2(BO3)2 hat insbesondere durch die Lokalisierung der Triplettanregungen und die dadurch bedingten Magnetisierungsplateaus bei gewissen Bruchteilen der Sättigungsmagnetisierung Berühmtheit erlangt. In der thermischen Ausdehnung wird eine deutliche Anomalie bei der gleichen Temperatur beobachtet (T = 8K), wo sie auch in der spezifischen Wärme auftritt. Sie lässt sich durch die thermische Anregung der lokalisierten Tripletts erklären. Abschließend werden Messungen am natürlichen Mineral Azurit vorgestellt, bei dem die Spins zu sogenannten Diamantketten angeordnet sind. In der Literatur wird noch diskutiert, ob es sich bei Azurit um die magnetisch frustrierte Variante einer solchen Kette handelt. In der magnetischen Suszeptibilität, der spezifischen Wärme und der thermischen Ausdehnung tritt eine auffallende Doppelstruktur auf. Im Tieftemperaturbereich lässt sich die spezifische Wärme gut mit dem effektiven Modell einer homogenen Spinkette beschreiben. Auch der lambdaförmige antiferromagnetische Ordnungsübergang wurde untersucht und das in der Literatur bis B = 2 T gegebene Phasendiagramm, bestehend aus paramagnetischer, antiferromagnetische und Spin-Flop-Phase, bis B = 10 T erweitert.
Die vorliegende Arbeit beschäftigt sich mit der Entwicklung des Prototypen einer supraleitenden CH-Beschleuniger-Struktur. Viele zukünftige Beschleunigeranlagen benötigen ein hohes Tastverhältnis bis hin zum so genannten cw-Betrieb. Dies würde bei normalleitenden Beschleunigern zu sehr großer Wärmeentwicklung führen, welche durch aufwendige Verfahren weggekühlt werden müsste. Da dies meistens gar nicht mehr möglich ist, kommen in solchen Bereichen heutzutage schon häufig supraleitende Beschleuniger zum Einsatz. Große Projekte, die im Hochenergiebereich auf die Supraleitung setzten, sind die SNS Beschleunigeranlage in Oak Ridge (Inbetriebnahme läuft) und das RIA-Projekt, welches radioaktive Isotope beschleunigen soll. Auch zukünftige Projekte, wie ein cw-Linac zur SHE-Synthese, EUROTRANS und IFMIF, sind ohne supraleitende Komponenten nur schwer vorstellbar. Im Rahmen dieser Arbeit wurden zunächst die anderen zur Familie der so genannten H-Moden-Beschleuniger gehörenden Resonatoren kurz vorgestellt. Danach wurde eine Einführung in die Supraleitung mit den wichtigsten Parametern für Niob und den HF-Eigenschaften von Supraleitern gegeben. Um Beschleuniger zu charakterisieren wurde in einem weiteren Kapitel ein überblick über wichtige Kenngrößen gegeben. Dabei wurde auch ein Vergleich der Skalierung von verschiedenen Parametern zwischen Normalleitung und Supraleitung gegeben. Da die Simulationsrechnungen mit dem Programm CST MicroWave Studio durchgeführt wurden, wurden die Grundlagen dieses Programms ebenfalls eingeführt. Es basiert auf der Finiten Integrationstheorie, welche die Maxwell-Gleichungen in eine Zwei-Gitter-Matrixform überführt, damit diese numerisch gelöst werden können. In einem weiteren Kapitel wurde eine Methode zur Bestimmung der Einkopplungsstärke in einen Resonator näher beschrieben. Dabei wurde auf zwei wesentliche Einkopplungsarten, die induktive und die kapazitive, im Detail eingegangen. Die Bestimmung der so genannten externen Güte stellt einen wesentlichen Punkt dar, um die Leitung, die durch einen Sender und Verstärker zur Verfügung gestellt wird, möglichst optimal in den Beschleuniger einzuführen. Wobei auch hierbei wieder auf die Unterschiede zwischen einer Einkopplung in einen normalleitenden und einen supraleitenden Beschleuniger eingegangen wurde. Bei einer supraleitenden Struktur erfolgt die Einkopplung in der Regel überkoppelt. Dies bedeutet, dass man durch zu starke Einkopplung die belastete Güte des Systems herabsetzt, damit eine bessere Regelung möglich ist. Um eine numerische Methode auf ihre Tauglichkeit hin zu testen, wurde zuerst eine Pillbox genommen, um die simulierten Ergebnisse mit einer Messung zu vergleichen. Als sich dabei sehr gute Ergebnisse herausstellten, wurde die Methode noch an einem Kupfermodell einer CH-Struktur verifiziert, bevor die Einkopplung für den supraleitenden Prototyp berechnet wurde. Im 7. Kapitel dieser Arbeit wurden die Voraussetzungen, die vorher geschaffen wurden, für die Optimierung des Prototyps der supraleitenden CH-Struktur angewendet. Dabei ging es um die Optimierung der Feldverteilung auf der Strahlachse durch Anpassung des Endzellendesigns, der Stützenoptimierung, um die magnetischen und elektrischen Spitzenfelder zu reduzieren, einer Untersuchung des Quadrupolanteils in den Spalten der CH-Struktur, der Einkopplung und schließlich um die Möglichkeit des statischen Tunings während der Fertigstellung der Struktur. Auf Grund dieser Untersuchungen wurde schließlich die Fertigstellung eines ersten supraleitenden Prototyps bei der Firma ACCEL in Bergisch-Gladbach in Auftrag gegeben. Diese Struktur wurde in mehreren Kalttests untersucht. Dabei konnten die vorher durch die Simulation festgelegten Designparameter sehr gut verifiziert werden. In den beiden letzten Kapiteln wurden noch Simulationen für eine im Betrieb befindliche Beschleunigeranlage durchgeführt und ein Ausblick auf mögliche Einsatzgebiete der supraleitenden CH-Struktur gegeben. Die durchgeführten Optimierungen für den Hochstrominjektor führten zu einem stabileren Betrieb der Anlage. Durch diese Arbeit konnte gezeigt werden, dass die neuentwickelte CH-Struktur für den Einsatz in supraleitenden Beschleunigern sehr gut geeignet ist. Sie stellt eine sehr kompakte Struktur dar und bietet somit auf kurzer Stecke eine hohe Beschleunigung. Sie ist im Bereich von 10-30% Lichtgeschwindigkeit die einzige supraleitende Vielzellenstruktur.
Die vorliegende Arbeit präsentiert die Ergebnisse der Erzeugung und Diagnostik eines HF-Plasmas in einem magnetischen Quadrupolfeld. Einen Schwerpunkt bildete dabei der Einfluss des magnetischen Quadrupolfeldes auf die Plasmaparameter Elektronentemperatur Te und Elektronendichte ne. Die Extraktion eines Ionenstrahls bietet die Möglichkeit, Zusammenhänge zwischen den erreichten Strahlparametern und den physikalischen Eigenschaften des HF-Plasmas herzustellen. Zudem wird eine Korrelation zwischen der Geometrie der Entladung, der erreichbaren Plasmaparameter und der eingespeisten HF-Leistung aufgezeigt werden. Zunächst wurde die Elektronentemperatur in Abhängigkeit vom eingestellten Gasdruck und von der Stromstärke in den Feldspulen des magnetischen Quadrupols vermessen. Die Emissionsspektroskopie bot sich hierbei als nicht invasive Diagnostik an. Eine umfangreiche Messreihe ergab schließlich ein Profil der Elektronentemperatur, als Funktion der variablen Parameter Gasdruck und Erregerstromstärke. Die Elektronentemperatur im Plasma lag dabei im Bereich zwischen 3eV ohne Magnetfeld bis maximal 11eV mit magnetischem Einschluss. Hierbei zeigten sich einige, auf den ersten Blick überraschende Ergebnisse. So ergab sich ein lokales Maximum der Elektronentemperatur von 11eV bei einem Gasdruck von 1Pa und einer Flussdichte von 11mT. Als physikalische Ursache konnte die Kombination aus zwei resonanten Heizmechanismen identifiziert werden. Sowohl die stochastische Heizung als auch die lokale Anwesenheit von Zyklotronresonanzbedingungen führten zu einer starken Erhöhung der Elektronentemperatur. Ferner konnte experimentell nachgewiesen werden, dass die charakteristischen Eigenschaften des Quadrupolfeldes, das Entstehen dieser Heizmechanismen in einem engen Parameterbereich begünstigte. In diesem Zusammenhang ist die Ausprägung einer Gyroresonanzzone im HF-Plasma erwähnenswert, deren Ausdehnung mit dem Erregerstrom in den Feldspulen des Quadrupols skaliert und die einen maßgeblichen Einfluss auf die Ausprägung hochenergetischer Elektronen hat. Neben der Diagnostik stand auch die Extraktion eines Ionenstrahls im Vordergrund. Das Potential des Gesamtsystems, als Ionenquelle zu fungieren wurde dabei experimentell verifiziert. Spezifische Strahlstromdichten von 8mA/cm²kW konnten dabei erreicht werden. Es ergab sich hierdurch auch die Möglichkeit, einen Zusammenhang zwischen der Elektronendichte im Plasma und der eingespeisten HF-Leistung herzustellen. Die Ergebnisse dienten anschließen dazu, den Einschluss des Plasmas im magnetischen Quadrupolfeld zu quantifizieren. Beim Betrieb des Plasmagenerators ohne Magnetfeld wurden Elektronendichten von 3 . 1016m-3 erzielt. Mit fokussierendem Quadrupolfeld konnte eine lokale Steigerung der Elektronendichte um den Faktor 10 auf 3 . 1017m-3 dokumentiert werden, was die theoretischen Studien von C. Christiansen und J. Jacoby [Chr99], zu den fokussierenden Eigenschaften eines magnetischen Quadrupols, bestätigte. Große Sorgfalt war bei der Konzeption der HF-Einspeisung erforderlich. Da für Entladungsplasmen ein im hohen Maß nichtlinearer Zusammenhang, zwischen den Plasmaparametern und der eingespeisten HF-Leistung besteht, erwies sich die Entwicklung einer HF-Einkopplung als besondere Herausforderung. Hier zeigte sich die Plasmadiagnostik als unverzichtbares Hilfsmittel, um theoretische Vorhersagen und experimentellen Befund in Einklang zu bringen. Als limitierende Rahmenbedingungen erwiesen sich hier die Abmessungen des Quadrupols. In der vorliegenden Arbeit konnte dokumentiert werden, wie die geometrischen Einschränkungen die Auswahl der HF-Einkopplung bestimmten. Das zur Untersuchung des magnetischen Plasmaeinschlusses verwendete Glasrohr, mit einer verhältnismäßig großen Oberfläche und einem vergleichsweise kleinem Volumen, war für eine kapazitive HF-Einkopplung wesentlich besser geeignet als für die ursprünglich antizipierte induktive Plasmaanregung. Die physikalischen Zusammenhänge zwischen den erreichbaren Plasmaparametern, der verwendeten Koppelmethode, der erzielbaren Stromstärke des Ionenstrahls und den Abmessungen des Entladungsgefäßes, konnten durch eine umfassende Analyse aufgeklärt werden. Zudem wurde auch die Problematik des Zerstäubens von Elektrodenmaterial einer qualitativen Untersuchung unterzogen. Hier kristallisierten sich vor allen Dingen die hohen Randschichtpotentiale bei der verwendeten HF-Einkopplung, als physikalische Ursache für die Sputterrate heraus. Basieren auf den gewonnenen Erkenntnissen wurde eine Maßnahme zur Reduzierung der Sputterproblematik vorgenommen. Die Untersuchung des magnetisch eingeschlossenen Entladungsplasmas brachte Einsichten über die Zusammenhänge zwischen gewählter HF-Einkopplung, den Plasmaparametern und den Rahmenbedingungen der Entladungsgeometrie. Es ergeben sich hierdurch wichtige Erkenntnisse, die eine Aufskalierung des vorliegenden Aufbaus hin zu einer Hochstromionenquelle mit spezifischen Strahlstromdichten von 100mA/cm²kW ermöglichen. Ferner ist auch ein Einsatz der Konfiguration als Plasmatarget möglich, um Wechselwirkungen zwischen hochenergetischen Schwerionen und magnetisch fokussierten Entladungsplasmen zu untersuchen.
Es wird ein effektives Modell zur Berücksichtigung einer Minimalen Länge in der Quantenfeldtheorie vorgestellt. Im Falle der Existenz Großer Extradimensionen kann dies zu überprüfbaren Modifikationen verschiedener Experimente führen. Es werden verschiedene Phänomene wie z.B. der Casimir-Effekt, Neutrino-Nukleon-Reaktionen oder Neutrinooszillationen diskutiert.
Für Experimente der Atomphysikgruppe der GSI in Darmstadt wird ein Ionenabbremser gebaut, der niederenergetische, extrem hochgeladene Ionen zur Verfügung stellen wird. Die Planungen zu der soganennten HITRAP (highly charged ion's trap) begannen Anfang der neunziger Jahre. Mit dieser Anlage sollen hochgeladene, schwere Ionen auf sehr niedrige, thermische Geschwindigkeiten in zwei Stufen abgebremst und für hochpräzise Massenspektroskopie, Messungen des g-Faktors des gebundenen Elektrons wasserstoffähnlicher Ionen und andere atomphysikalische Experimente zur Verfügung stehen. Diese Deceleratoranlage soll zunächst im Reinjektionskanal hinter dem ESR aufgebaut werden, mit der Möglichkeit, alle Komponenten später beim Ausbau der GSI im Rahmen des FAIR-Projektes in der neu zu errichtenden Anlage für niederenergetische Antiprotonen und Ionen zu verwenden. Die vorliegende Arbeit behandelt die Entwicklung und den Aufbau eines integrierten RFQ-Debuncher-Abbremsbeschleunigers, der einen Teil der HITRAP-Abbremsstrukturen darstellt. Mit diesem wird der Ionenstrahl, vom IH-Abbremsbeschleuniger mit einer Energie von 5oo keV/u kommend auf 6 keV/u abgebremst. Mit dem integrierten Spiralbuncher kann der Strahl in Energie und Energieabweichung an die nachfolgende Kühlerfalle angepasst werden. Es wurden in dieser Arbeit die Grundlagen der Teilchendynamik in einem RFQ-Beschleuniger zum Abbremsen von Teilchenstrahlen erarbeitet und umgesetzt, die zur Auslegung einer solchen Struktur notwendigen Teilchendynamikrechnungen mit RFQSim durchgeführt, geeignete Hf-Strukturen mit dem Simulationsprogramm Microwave Studio entwickelt und untersucht, sowie die thermische Belastung der Strukturen mit dem finite Elementeprogramm ALGOR untersucht. Ein weiterer zentraler Punkt dieser Arbeit ist der Aufbau und die Hf-Abstimmung der RFQ-Struktur, um eine möglichst homogene Feldverteilung entlang der Elektroden zu erreichen. Messungen der Felder im RFQ wurden mit einem Störkondensator, am Debuncher mit einem Störkörper durchgeführt. Nach erfolgreich durchgeführten Vakuumtests am IAP ist die RFQ-Debuncher-Kombination nun bereit für erste Hochleistungstests an der GSI.
Der Nobelpreisträger Hans Albrecht Bethe war einer der ganz großen Physiker des 20. Jahrhunderts. Er gilt als einer der Väter der modernen Quantenphysik. In seiner Bedeutung für die Entwicklung der modernen Physik kommt er selbst Werner Heisenberg oder Max Planck sehr nahe. Er ist in Frankfurt aufgewachsen, hat hier das Goethe-Gymnasium besucht und an der Universität Frankfurt studiert. 1933 musste er emigrieren, da seine Mutter jüdischen Glaubens war. In seiner Heimatstadt Frankfurt ist er bisher fast unbekannt geblieben. Aus Sorge, dass Hitler-Deutschland »die Bombe« zuerst bauen könnte, unterstützte Bethe die USA bei der Entwicklung der Atombombe. Robert Oppenheimer holte ihn 1941 zum Manhattan Project nach Los Alamos (New Mexico). Hans Bethe war der führende theoretische Konstrukteur der Bombe. Doch Zeit seines Lebens glaubte er, damit das Falsche getan zu haben. Nach dem Krieg engagierte er sich für die Rüstungskontrolle. Bethe initiierte 1959 die Genfer Konferenz führender Forscher zur Empfehlung eines kontrollierten Teststoppabkommens und beriet den damaligen US-Präsidenten Dwight Eisenhower bei Fragen zur Einstellung von Kernwaffenversuchen. Er war in den USA und weltweit ein Wissenschaftler mit großem politischem und moralischem Einfluss. ...
Zukunftsforschung ohne Orakel : zur langfristigen Szenarienbildung und der Initiative "Zukunft 25"
(2007)
Jedes Jahrhundert bringt eigene Visionen der Zukunft hervor, wobei vor allem diejenigen Entwicklungen extrapoliert werden, die in der aktuellen Forschung besonders präsent sind. Im 19. Jahrhundert waren dies, wie die gezeigten Sammelbilder belegen, vor allem Verkehr und Mobilität. In seinem Roman »In 80 Tagen um die Erde« drückt Jules Verne die Faszination darüber aus, dass Orte und Menschen zusammenrücken, weil die Entfernungen sich dank moderner Verkehrsmittel wie Auto, Eisenbahn und Flugzeug schneller überbrücken lassen. Die überwiegend optimistischen Zukunftserwartungen des 19. Jahrhunderts sind inzwischen kritischeren, wenn nicht pessimistischen Visionen gewichen. Betrachtet man Filme wie »Blade Runner« oder »Matrix«, so beschäftigen uns heute Themen wie der künstliche oder manipulierte Mensch. Auch der Zukunftsforscher Claudius Gros denkt über die Folgen einer künstlichen Gebärmutter nach. Aber er sieht optimistisch in die Zukunft.
Im Rahmen dieser Arbeit wurde ein Strahllagemonitor entwickelt, der nur aufgrund der Signale aus den HOM-Dämpfern einer Linearbeschleunigerstruktur die Strahllage mit hoher Genauigkeit bestimmen kann. Ein solcher Monitor hat gegenüber anderen Konzepten einige einzigartige Vorteile. Der HOM-Dämpfer-Strahllagemonitor benötigt keine zusätzlichen Einbauten im Strahlrohr oder der Beschleunigerstruktur. Daher wird keine zusätzliche Länge benötigt. Auch wird eine zusätzliche Emittanzerhöhung durch zusätzliche Impedanzen der Einbauten vermieden. Beide Punkte sind wichtig für den Betrieb eines linearen Kolliders. Ein zweiter Vorteil ist die Messung der Strahllage bezüglich der elektrischen Achse der verwendeten Dipolmode. Wenn als Dipolmode die höhere Mode mit dem störendsten Einfluß auf den Strahl verwendet wird, verfährt die Positionsregelung der Struktur diese automatisch auf die Position, an der der Einfluß dieser Mode minimal ist. Da die anderen Dipolmoden ähnliche Feldgeometrien haben, ist anzunehmen, das ihr Einfluß damit auch weitestgehend minimiert wird. Zur eindeutigen Bestimmung der Strahlposition in der Ebene wurde ein Verfahren entwickelt, daß die Amplituden und die Startphasendifferenz zwischen einer Dipolmode und einer höheren Monopolmode ausnutzt. Durch passende Wahl der Hohlleitergeometrie kann eine monopolartigen Mode in den Dämpferzellen etabliert werden, die das nötige Monopolsignal liefert und in der Frequenz mit der Dipolmode übereinstimmt. Diese Mode vereinfacht erheblich die entwickelte Signalverarbeitungsschaltung. Die Shuntimpedanz dieser Mode wird durch die Geometrie der Hohlleiter bestimmt und kann so eingestellt werden, daß sie für den Betrieb des Strahllagemonitors ausreicht, aber den Strahl noch nicht nennenswert beeinflußt. Durch die Verwendung einer strahlinduzierten Monopolmode als Phasenreferenz ist der Monitor unabhängig von externen Referenzsignalen und funktioniert ohne eingeschaltete Beschleunigungshochfrequenz oder bei falscher Phasenlage des Strahls. Dies ermöglicht es, die Beschleunigerstrukturen auch dann genau zu justieren, wenn der restlichte Beschleuniger noch nicht richtig eingestellt ist oder wenn zu Wartungszwecken einzelne Sektionen während des Betriebs nicht mit Hochfrequenz versorgt werden. Um die Eignung des vorhandenen SBLC-HOM-Dämpfers als Strahllagemonitor zu überprüfen wurden dreidimensionale numerische Feldberechnungen im Frequenz- und Zeitbereich und Messungen an der Dämpferzelle durchgeführt. Für die Messungen ohne Strahl wurde ein Strahlsimulator konstruiert und aufgebaut, der computergesteuerte Messungen mit variablen Ablagen des simulierten Strahls mit einer Auflösung von 1,23 μm erlaubt. Da die vollständige 6 m lange, 180-zellige Beschleunigerstruktur nicht für Messungen zur Verfügung stand und sich auch mit den verfügbaren Computern nicht dreidimensional simulieren ließ, wurde ein eindimensionales ersatzkreisbasiertes Modell des Vielzellers untersucht. Das Ersatzbild aus 879 konzentrierten Bauelementen berücksichtigt die Verstimmung von Zelle zu Zelle, die Zellenverluste, die Dämpferverluste und die Strahlanregung in Abhängigkeit von der Ablage. An dem Ersatzkreis lassen sich die gefangenen Moden und die Wirkung der Dämpfer beobachten. Es liefert bei der Simulation im Zeitbereich als Ergebnis Signale, die verwendet wurden, um die Funktion der Signalverarbeitungsschaltung an der vollständigen Beschleunigerstruktur zu untersuchen. Das eindimensionale Modell hat jedoch auch einige Einschränkungen. Es berücksichtigt nicht die Änderung der Randbedingungen in den Einzelzellen in Abhängigkeit vom Phasenvorschub. Auch beschränkt sich die Simulation auf einen kleinen Teil des durch den Strahl angeregten Frequenzbereiches. Es ist nicht auszuschließen, daß andere Frequenzen die Signalverarbeitungsschalung negativ beeinflussen. Ebenfalls unberücksichtigt bleibt der Einfluß der von Sendeklystron eingespeisten Hochfrequenzleistung. Um diese Einflüsse zu untersuchen wäre es erforderlich, Messungen am realen 180-Zeller mit Strahl und Klystron durchführen zu können. Die vorgenommenen Messungen am Einzeller zeigen, daß das Meßprinzip funktioniert, der vorhandene HOM-Dämpfer als Strahllagemonitor verwendbar ist und die entwickelte Signalverarbeitungsschaltung geeignet ist genaue Positionsinformationen zu liefern. Abgesehen von den ober angesprochenen Einschränkungen bestätigen die Simulationen des 180-Zellers die Übertragbarkeit der Ergebnisse auf Vielzeller. Die Messungen und Simulationen lassen eine Auflösung des fertigen Strahllagemonitors am 180-Zeller in der Größenordnung 1–10 μm und eine relative Genauigkeit kleiner 6,2 % erwarten. Es hat sich gezeigt, daß zur Erzielung hohe Genauigkeit zwei Komponenten des Strahllagemonitors besondere Aufmerksamkeit zu schenken ist. Zum einen muß der HOM-Dämpfer mit den paarweisen Auskoppelstellen präzise, mit guter Symmetrie gefertigt sein. Zum anderen hat der 180°-Hybrid am Eingang der Signalverarbeitungsschaltung großen Einfluß auf die erzielbare Genauigkeit. Beide Komponenten sind wichtig, um die monopol- und dipolartigen Komponenten aus dem ausgekoppelten Signalgemisch sauber voneinander trennen zu können. Wie die Messungen zeigten, ist ein schmalbandiger, auf die verwendete Meßfrequenz spezialisierter, selbst gefertigter Ringhybrid für diese Aufgabe erheblich besser geeignet als ein kommerziell erhältlicher Breitbandhybrid. Bei dem Ringhybrid gibt es jedoch auch noch Verbesserungsmöglichkeiten. Der Ringhybrid wurde präzise gefertigt. Er hat jedoch keine Abgleichmöglichkeit. Eine Korrekturmöglichkeit der Amplitude und Phase an den Eingängen könnte die Auflösung und Genauigkeit noch etwas steigern. Wenn bei der Simulation ein idealer 180°-Hybrid angenommen wird verschwindet ein Großteil des Fehlers. Der nächste Schritt bei der Weiterentwicklung der Signalverarbeitung könnte darin bestehen, die zur Zeit noch getrennt aufgebauten Hochfrequenzkomponenten auf einer gemeinsamen Platine zu integrieren. Zusammen mit dem Mikroprozessorsystem auf einer zweiten Platine entsteht so ein kompaktes System, daß sich preisgünstig in der für einen linearen Kollider erforderlichen großen Stückzahl fertigen läßt.
Untersuchungen zur zerstörungsfreien Emittanzmessung an einem negativen Wasserstoffionenstrahl
(2007)
Die Arbeit beschäftigte sich sowohl theoretisch wie auch praktisch mit einem neuartigen Konzept zur Strahldiagnose — der zerstörungsfreien Emittanzmessung für negative Ionenstrahlen. Bei H¯ Strahlen kann auf mechanische Bauteile verzichtet werden, wenn bei einem kleinen Teil der H¯ Ionen das zusätzliche, nur mit 0,754 eV schwach gebundene Elektron durch Photodetachment abgelöst wird. Die neutralisierten H¯ Ionen können magnetisch oder elektrostatisch von den Elektronen und den verbliebenen H¯ Ionen separiert werden. Insbesonders die Neutralteilchen bieten sich zur Bestimmung der Phasenraumverteilung des Ionenstrahls an, da der Impulsübertrag bei der Photoneutralisation für die vorliegende Anwendung vernachlässigbar ist. Die Detektion des Divergenzwinkels kann durch einen Szintillator mit einer CCD–Kamera erfasst werden. Ein Modell zur Berechnung der Anzahl der neutralisierten Teilchen ist unter der Annahme homogener Dichteverteilungen entwickelt worden, um Aussagen zu den Anforderungen an Lasersystem und Detektor zu machen. Dabei zeigt sich die besondere Eignung des Meßverfahrens für Strahlstöme und Strahlparameter, wie sie typischerweise nach einem RFQ vorliegen. Da im Gegensatz zur Schlitz–Schlitz Emittanzmessung wird hier die Winkeldetektion mit einem ortsauflösenden Szintillator durchgeführt. Daraus ergibt sich als neues Verfahren eine Schlitz–Punkt Abbildung. Im Vergleich zum Schlitz–Schlitz Messprinzip können damit mehr Informationen über die Phasenraumverteilung gewonnen werden. Um diese neue Abbildungsfunktion zu untersuchen, ist eine Methode zur Simulation der Winkeldetektion entwickelt worden. In den Simulationen ist angenommen worden, daß der Schlitz bzw. Laser analog zur Messung einer yy´ Emittanz entlang der y–Achse durch den Ionenstrahl gefahren wird, die ausgeschnittene Teilchenverteilung ist bis zum Ort des Szintillators transportiert worden. Dabei sind etliche Zusammenhänge der Abbildungsfunktion zwischen den 2dim Phasenraumprojektionen yy´ , xx´ und der Verteilung der neutralisierten Ionen auf dem Teilchendetektor aufgezeigt worden. Dabei läßt sich nachweisen, daß die Aberrationen aus der anderen transversalen Ebene (x–Ebene) die Verteilungsfunktion mit beeinflusst. Für die experimentellen Untersuchung der Photodetachment Strahldiagnose wurde eine Beamline aus Ionenquelle mit Dumpingsystem, differentiellem Pumptank und Linsensystem aufgebaut. Dabei wurde bei einer vorhandenen H¯ Quelle der Strom von anfänglich 70 mycroA auf 2,5 mA gesteigert. Das Dumpingsystem erwies sich als sehr effektiv und lenkte bis zur Nachweisgrenze alle zusätzlich extrahierten Elektronen aus dem Strahl aus. Die Komponenten und der gesamte Aufbau zur Photodetachment Strahldiagnose schließen den Dipol bzw. die Konstruktion der Vakuumkammer zur Ladungsseparation, die Auswahl eines geeigneten Szintillators und die Bestimmung der Laserstrahlparameter und dessen Strahlwegs mit ein. Bei den Experimenten zur Photoneutralisation konnte eindeutig das Meßsignal dem Photodetachment zugeordnet werden. Auch die Linearität des Szintillators konnte eindeutig gezeigt werden. Ebenfalls konnte die Beeinflussung der Einzellinsen auf den Ionenstrahl an Hand neutralisierter Teilchen gezeigt werden: Bei Vergrößerung der Brechkraft wurde der zunächst große Strahldruchmesser mit einem Intensitätsmaximum im Strahlkern zu einer hohlstrahlähnlichen Verteilung mit einem Peak in der Strahlmitte und am Strahlrand fokussiert. Bei weiterer Steigerung der Linsenspannung ließ sich die Intensität im Strahlrand wieder reduzieren. Durch die Veränderung der y–Position wurden Winkelprofile mit den zuvor gemessenen Schlitz–Schlitz Emittanzfiguren verglichen. Dabei konnte der Divergenzwinkel und auch die Lage des Strahlkerns im Rahmen der Meßgenauigkeit sehr gut wiedergegeben werden. Andererseits zeigten sich deutliche Unterschiede bei der Auswertung der Intensitäten. Dies ist zum Teil auf die schlechte Wiedergabe eines Holhlstrahls durch eine zweidimensionale Phasenraumprojektion yy´ zu erklären. Außerdem ist der Ionenstrahl durch die kleine Bauhöhe der Magnetkammer kollimiert worden, was den Strahl im Vergleich zu den vorherigen Schlitz–Schlitz Emittanzmessungen nachhaltig beeinflusst hat. Dagegen wiesen im direkten Vergleich, nämlich der zweidimensionalen, „wahren“ Ortsverteilung des Ionenstrahls am Szintillator mit den aufaddierten Neutralteilchen–Verteilungen, beide Verteilungen sehr ähnliche Muster auf. Die Messungen sind fast ausnahmslos an stark aberrationsbehafteten Ionenstrahlen durchgeführt worden. Dabei konnte die in den Simulationen der Abbildungseigenschaften gefundenen geschlossenen, achtförmigen Verteilungen unter Berücksichtigung der begrenzten Nachweisempfindlichkeit des Detektors sehr gut nachvollzogen werden.
Die Funktion biologischer Peptide und Proteine hängt wesentlich von deren intakten molekularen Struktur ab. Krankheiten, wie z.B. Alzheimer oder Diabetes, entstehen durch fehlgefaltete, aggregierte Peptidstrukturen. Die Ausbildung einer nativ gefalteten Konformation wird durch die Formierung von Sekundärstrukturelementen - in charakteristischer Weise angeordnete lokale Strukturen - initiiert und bildet einen geschwindigkeitslimitierenden Schritt in der Proteinfaltung. Die Erforschung und Analyse dieser ersten Faltungsprozesse ist deshalb von grundlegender Relevanz in der biophysikalischen Forschung, auch in Hinblick auf pharmazeutisch-medizinische Anwendungen. Bei der Untersuchung des Faltungsmechanismus kommen vor allem kleine Peptide mit eindeutig ausgebildeten Sekundärstrukturmotiven zum Einsatz. Ihre geringe Größe und strukturelle Eindeutigkeit machen diese kleinen Peptide zu idealen Modellsystemen, um diejenigen Faktoren zu untersuchen, die die Proteinfaltung steuern und beeinflussen. Die zur Untersuchung der Faltungsprozesse verwendeten Techniken müssen dabei sowohl eine Spezifität für die unterschiedlichen Strukturelemente, als auch eine der Faltungsdynamik angemessen Zeitauflösung besitzen. Im Rahmen dieser Arbeit wurden CD- und FTIR-Messungen zur Untersuchung der Strukturstabilität von Polypeptiden unter Gleichgewichtsbedingungen durchgeführt. Durch Variation von pH-Wert und Temperatur wurden damit Stabilitätseigenschaften ausgewählter Peptidsysteme analysiert. Um zeitaufgelöste Faltungsdynamiken von Peptiden detektieren zu können, wurde ein Spektrometer mit Laser-induziertem Temperatursprung (DeltaT ca. 10 °C in 10 ns) und IR-Einzelwellendetektion so modifiziert und optimiert, dass Peptiddynamiken im nanosec bis microsec Zeitbereich gemessen werden konnten. Neben der Modifikation der Temperatursprung-Apparatur, bei der optische Komponenten ersetzt und Störsignale reduziert wurden, konnte auch die Auswertung der kinetischen Daten durch die Entwicklung eines geeigneten Algorithmus verbessert werden. Als notwendige Vorarbeit der Faltungsstudien an Peptiden in wässriger Lösung wurden statische FTIR-Absorptionsmessungen am Lösungsmittel D2O durchgeführt. Dadurch wurden die durch Temperaturvariation erzeugten Absorptionsänderungen des Lösungsmittels ermittelt. Diese wurden zudem zur Kalibrierung des Laser-induzierten Temperatursprunges verwendet. Um Lösungsmittelabsorptionen von strukturellen Änderungen des Peptids zu trennen, wurde ein Auswerteverfahren entwickelt, das die temperaturabhängigen Absorptionsänderungen des Lösungsmittels berücksichtigt. Temperatur- und pH-abhängige Konformationsdynamik wurde am alpha-helikalen Peptid Polyglutaminsäure untersucht. Zunächst wurden CD- und FTIR-Messungen zur Thermostabilität und der Reversibilität der Ent- und Rückfaltung unter Gleichgewichtsbedingungen und bei unterschiedlichen pH-Werten durchgeführt. Der thermisch induzierte Strukturübergang von alpha-Helix nach ungeordneter Knäuel-Struktur wurde mit Hilfe der Laser-induzierten Temperatursprung-Technik zeitaufgelöst untersucht und Relaxationsraten bei verschiedenen pH-Werten bestimmt. Weitere Messungen zur Konformationsstabilität und –dynamik wurden an beta- Hairpin-Peptiden durchgeführt, die kleine Modellsysteme für beta-Faltblattstrukturen darstellen. Die in dieser Arbeit untersuchten Trpzip2C Peptide, die aufgrund hydrophober Wechselwirkungen der Tryptophane eine stabile beta-Hairpin-Struktur in wässriger Lösung ausbilden, waren an verschiedenen Positionen innerhalb der Aminosäure-sequenz selektiv isotopenmarkiert. Durch diese Markierungen im Peptidrückgrat werden spezifisch spektrale Änderungen im Infrarotspektrum erzeugt, die Untersuchungen zur Amidbandenkopplung und lokalisierten Strukturdynamik ermöglichen. Diese Ergebnisse stellen die erste Anwendung der Kombination von selektiv isotopenmarkierten alpha-Hairpin-Peptiden und der Temperatursprung-Technik dar, um Konformationsdynamiken ortsaufgelöst zu untersuchen. Für alle untersuchten Trpzip2C-Peptidvarianten konnte gezeigt werden, dass der Faltungsprozess in einem Temperaturbereich unterhalb von ~ 300 K nicht durch ein Zwei-Zustandsmodell beschrieben werden kann, sondern Intermediate gebildet werden. In diesem Temperaturbereich konnten wellenlängenabhängig Unterschiede in Relaxationsraten gemessen werden, die die Hypothese des „hydrophoben Kollaps“ für den Faltungsmechanismus dieser beta-Hairpin-Peptide unterstützen.
Der Zusammenhang fundamentaler Symmetriestrukturen mit dem Zugang moderner Naturwissenschaften zur abstrakten Beschreibung komplexer Systeme wird dargestellt. Beginnend mit der geometrischen Symmetrie der Schneeflocke und dem symmetrietheoretischen Ansatz in Platons Timaios wird der symmetrietheoretische Ansatz moderner Naturwissenschaften exemplifiziert und analysiert. Die mathematische Abstraktion wird als reduktionistische Methode verstanden.