Universitätspublikationen
Refine
Year of publication
Document Type
- Doctoral Thesis (378) (remove)
Has Fulltext
- yes (378) (remove)
Is part of the Bibliography
- no (378) (remove)
Keywords
- HADES (4)
- Beschleuniger (3)
- CBM (3)
- FAIR (3)
- Heavy Ion Collisions (3)
- Monte-Carlo-Simulation (3)
- QCD (3)
- Quark-Gluon-Plasma (3)
- Schwerionenphysik (3)
- Teilchenbeschleuniger (3)
Institute
- Physik (378) (remove)
Es wurde das Leitfähigkeitsverhalten von reinem, lufthaltigem Wasser bei kontinuierlicher und impulsgetasteter Röntgenbestrahlung (60 kV8) untersucht. Hierbei ergaben sich zwei einander überlagerte Effekte: 1. Ein der Röntgen-Dosisleistung proportionaler irreversibler Leitfähigkeitsanstieg, der vermutlich auf eine Strahlenreaktion des gelösten CO2 zurückzuführen ist, 2. eine reversible Leitfähigkeitserhöhung während der Bestrahlung, die sich mit der Entstehung einer Ionenart mit einer mittleren Lebensdauer von ca. 0,15 sec erklären läßt. Es wird angenommen, daß es sich dabei um Radikalionen O2⊖ handelt, welche durch die Reaktion der als Strahlungsprodukt entstehenden Η-Radikale mit dem gelösten Sauerstoff gebildet werden. Ein möglicher chemischer Reaktionsmechanismus wird angegeben, der zu befriedigender quantitativer Übereinstimmung der Versuchsergebnisse mit Ausbeutewerten und Reaktionskonstanten aus der Literatur führt.
Die vorliegende Arbeit befallt sich im theoretischen Teil mit den Grundlagen zu Strahl-Resonator-Wechselwirkungen bei Beschleunigerresonatoren und mit den sich daraus ergebenden Konsequenzen bei der Resonatorentwicklung für zukünftige lineare Kollider mit Multibunch-Betrieb. Zur Bekämpfung der vor allem im Multibunchbetrieb störenden Long-Range-Wakefelder müssen die schädlichen Moden möglichst so stark bedämpft werden, daß ihre Felder bis zum Eintreffen des nächsten Bunches auf ein erträgliches Maß abgeklungen sind. Im experimentellen Teil befaßt sich diese Arbeit daher mit der Entwicklung von Meßmethoden zur Bestimmung sehr kleiner Resonatorgüten sowie sehr kleiner transversaler Shuntimpedanzen bzw. sehr kleiner Feldpegel in stark störmodenbedämpften Beschleunigerresonatoren. Diese Meßmethoden sind an mehreren S-Band-Modellresonatoren (Betriebsfrequenz lag bei etwa 2.4 GHz) mit verschiedenen Dämpfungssystemen, die für den Einbau in einen normalleitenden Linearbeschleuniger für einen Kollider geeignet wären, erfolgreich getestet worden. Die Feldmessungen an den Modellresonatoren haben bisher unbekannte Gesetzmäßigkeiten bezüglich des Verhaltens dieser Dämpfungssysteme ergeben. In einer kurzen Beschreibung und Diskussion der sechs wichtigsten Vorschläge für zukünftige lineare Kollider wurde ein Überblick über die Unterschiede bei diesen verschiedenen Konzepten gegeben. Zunächst konnten über eine qualitative Diskussion der beim Linearbeschleuniger vom Iristyp vorkommenden Beam Blowup Phänomene, wie der regenerative BBU und der cumulative BBU, die Erscheinungsformen und die physikalischen Ursachen dieser BBU Phänomene verstanden werden. Hier zeigt sich, daß bei Irisstrukturen die HEM11-Moden die Hauptursache sowohl für den regenerativen- als auch für den cumulativen BBU sind. Der dritte Abschnitt führte in eine allgemeine Methode zur quantitativen Beschreibung der sogenannten Strahl-Resonator-Wechselwirkung ein. Diese Methode heißt Condon- Methode und erlaubt die Berechnung von BBU verursachenden Wakefeldern über eine Eigenwellenentwicklung aus den Eigenmoden des leeren Rersonators. Im vierten Abschnitt wurde durch die Herleitung des Theorems von Panofsky-Wenzel die Theorie der Strahl-Resonator-Wechselwirkung vervollständigt, wonach der einer Testladung während der Durchquerung eines felderfüllten Resonators mitgeteilte Transversalimpuls vollständig durch die räumliche Verteilung der elektrischen Longitudinalkomponente allein bestimmt ist. Damit erhält man also eine Aussage über die Wirkung der in Beschleunigerresonatoren feldanfachenden vorauslaufenden Ladungen auf die nachfolgenden. Dabei konnte auch die Frage geklärt werden, welche Moden zylindrischer Symmetrie wegen ihrer transversal ablenkenden Wirkung für den Teilchenstrahl gefährlich sind. Hier zeigt sich, daß alle BBU verursachenden Moden TM2np- bzw. TM2np-Moden sind, d.h., die Moden mit dipol- bzw. quadrupolartiger Symmetrie. Die Anwendung der in den Abschnitten drei und vier entwickelten Theorie zur Strahl-Resonator-Wechselwirkung konnte im Abschnitt fünf anhand dreier, für die Beschleunigerphysik sehr interessanter Beispiele gezeigt werden. Im ersten Beispiel gelang die Beschreibung der Wechselwirkung eines in Längsrichtung homogenen Strahls, welcher transversal Betatranschwingungen vollführt, mit der TM110-Mode eines Zylinderresonators. Dieses Beispiel ist von praktischer Bedeutung bei Linearbeschleunigern. die bei hohem Duty Cycle betrieben werden, also z.B. beim RACE TRACK Mikrotron oder bei supraleitenden Linacs. Beim zweiten Beispiel hat die Anwendung der Theorie auf eine Irisstruktur zu Formeln geführt, die sich Fair eine numerische Berechnung des Startstroms zum regenerativen BBU eignen, was jedoch relativ aufwendig ist. Es konnte aber auch eine einfache Abschätzungsformel für den Startstrom durch die Anwendung des Poyntingschen Satzes auf eine differentielle Länge des der Irisstruktur entsprechenden Wellenleiters abgeleitet werden. Aus der Bedingung, daß die durch den Strahl erzeugte Leistung pro Längeneinheit gleich den Leistungsverlusten pro Längeneinheit ist, findet man den Startstrom für den regenerativen BBU. Das letzte Beispiel, die Wechs 1 e Wirkung einer hochrelativistischen Punktladung mit einem beliebigen Resonator, ist auch das wichtigste. Hier wurden die Wakefelder aus einer simplen Energiebilanzbetrachtung abgeleitet, da eine Berechnung nach der Condon-Methode relativ aufwendig und langwierig wäre. Diese Vorgehensweise hat hier zu einem tieferen physikalischen Verständnis der Vorgänge im Resonator geführt. Die mit Hilfe einer Punktladung abgeleiteten Wakefelder sind Greensfunktionen. die zur quantitativen Beschreibung des cumulativen BBU’s bei linearen Kollidern benutzt werden können. Die Diskussion der anhand der Beispiele gewonnenen Ergebnisse am Ende des fiinften Abschnitts führte zu verschiedenen Maßnahmen zur Verringerung der schädlichen Strahl-Resonator-Wechselwirkung. Hier hat sich gezeigt, daß sowohl der regenerative BBU als auch der cumulative BBU u. a. durch eine Verringerung der Resonatorgüte der strahlstörenden Dipolmode verhindert werden können. Im sechsten Abschnitt erfolgte die noch ausstehende quantitative Beschreibung des cumulativen BBU mit Hilfe der im vorangehenden Abschnitt am dritten Beispiel gewonnenen Formeln für die Wakefelder. Die Berechnung der Strahlablage und Strahlrichtung geschieht hier über einen Matrizenformalismus, der aus der Idee heraus entstand, die Beschleunigersektionen des linearen Kolliders durch Resonatoren verschwindender Länge zu ersetzen. Uber den Matrizenformalismus konnte die durch den Einfluß von Beschleunigung, Fokussierung und Wakefeldern doch recht komplizierte Teilchenbewegung sehr elegant formuliert werden, jedoch eignet sich dieser Formalismus nur für numerische Zwecke. Abschätzungen sind in diesem allgemeinen Fall unmöglich. Durch die Einführung eines sehr restriktiven Modells, des sogenannten DAISY-CHAIN Modells, welches nur bei sehr stark bedämpften Beschleunigersektionen gültig ist. hat sich der Matrizenformalismus auf sehr einfache, der analytischen Berechnung zugängliche Gleichungen reduzieren lassen. Die Bedämpfung der Beschleunigersektionen muß dabei so stark sein, daß eine Ladung innerhalb einer ganzen Kette äquidistanter Ladungen nur ein signifikantes Wakefeld der unmittelbar vorrauslaufenden Ladung erfährt. Wie stark im Einzelfall bedämpft werden muß, um einen stabilen Transport einer Kette von Teilchenpaketen zu ermöglichen, konnte anhand zweier, in der Betriebsfrequenz unterschiedlicher Konzepte für normalleitende Linearbeschleuniger zukünftiger Kollider gezeigt werden. Dabei wurde deutlich, daß man bei ausschließlicher Anwendung von in Bezug auf die HEM11-pi-Mode stark bedämpften Beschleunigerstrukturen zur Kontrolle des cumulativen BBU bei einer hohen Betriebsfrequenz, z.B. im X-Band (11.45 GHz), sehr unbequem niedrige Gütewerte von ca. Q=5 erreichen muß. Das ist, wie sich im praktischen Teil der vorliegenden Arbeit gezeigt hat, vom technischen Aufwand her gesehen sehr schwierig. Für einen X-Band-Kollider wird man also eine Kombination von Maßnahmen zur Kontrolle des cumulativen BBU’s bevorzugen, z.B. neben dem Bedämpfen auch das sogenannte “Detunen” der Beschleunigersektionen. Bei einem Linearbeschleuniger im S-Band (Betriebsfrequenz bei 3 GHz) befindet man sich von vornherein bei ausschließlicher Verwendung gedämpfter Strukturen in bequemeren Gütebereichen Q ungefähr gleich 20-50, was ohne weiteres praktikabel ist. Aber auch hier kann man durch Zusatzmaßnahmen die Anforderungen an die Resonatordämpfung weiter reduzieren. Als erste Methode zur Bestimmung der Güte eines störmodenbedämpften Beschleunigerresonators wurde die Chipman-Methode angewendet. Meßobjekt war hier das dreizellige Modell einer Irisstruktur mit Halbzellenabschluß. Zur Auskopplung der dominanten Störmode, der sogenannten HEM11-Mode, war die mittlere Irisblende einseitig geschlitzt. Bei diesem Modell lag die Frequenz der als Beschleunigermode vorgesehenen TM010-2pi/3-Mode etwa bei 2.35 GHz und die Frequenz der dominanten Störmode, der HEM11-pi-Mode, lag bei etwa 2.81 GHz. Die mittlere geschlitzte Irisblende war austauschbar, so daß eine Messung der durch das Dämpfungssystem belasteten Güte QL bzw. des Koppelfaktors K in Abhängigkeit von der Schlitzhöhe möglich war. Die Messungen ließen sich bei diesem Koppelsystem ohne Schwierigkeiten durchrühren, bei der größten möglichen Schlitzhöhe von 10 mm wurde auch der größte Koppelfaktor mit 46 gemessen. Bei einer vom Dämpfungssystem unbelasteten Güte von Q0=4500 korrespondiert ein Koppelfaktor von K=46 mit einer durch das Dämpfungssystem belasteten Güte von QL = 100. Ein Mangel wurde bei der Anwendung der Chipman-Methode sofort sichtbar: Durch die Anregung der HEM11-pi-Mode von der Meßleitung aus sind im Koppelsystem offenbar Störmoden angeregt worden. Liegen diese Störmoden nahe bei der zu messenden Resonanz, dann ist eine präzise Bestimmung des Koppelfaktors unmöglich. Glücklicherweise war das hier nicht der Fall. Die Messungen mit der einseitig geschlitzten Irisblende haben gezeigt, daß dieses Dämpfungssystem Anwendung finden könnte bei Beschleunigerstrukturen im S-Band. wie sie z.B beim DESY/THD-Kollider vorgeschlagen wurden. Natürlich kann bei den hier erreichten Koppelfaktoren nicht die Dämpfung der schädlichen HEM11-pi- Mode die alleinige Maßnahme sein, die einseitig geschlitzte Irisblende könnte nur zusammen mit dem Detunen angewendet werden. Da die einseitig geschlitzte Irisblende auch eine Feldasymmetrie bei der Beschleunigermode erzeugt, müssen die Dämpfer entlang einer Beschleunigersektion alternierend angebracht werden, d.h. jeder Dämpfer ist im Bezug zum nächsten Nachbardämpfer um 90° gedreht. Die 90° ergeben sich aus der Notwendigkeit, auch die Dämpfung der zweit en Polarisationsebene der HEM11-pi-Mode zu gewährleisten. Als zweite, der Chipman-Methode sehr ähnliche Methode, wurde die Kurzschlußschiebermethode angewendet. Erstes Untersuchungsobjekt war die bei der Chipman- Methode bereits erwähnte dreizeilige Irisstruktur. Ein Vorteil im Vergleich zur Chipman-Methode ist vor allem die schnelle Durchführbarkeit der Messung bei wenig experimentellem Aufwand, wenn auch die Kurzschlußschiebermethode weniger präzise ist, und man auf einige Informationen, wie z.B. der Verlauf des Reflexionsfaktors und dessen Phase, verzichten muß. Im Vergleich mit der Chipman-Methode waren die mit der Kurzschlußschiebermethode gemessenen Koppelfaktoren immer um etwa 10-15% höher. Das liegt vor allem daran, daß die Theorie zur Kurzschlußschiebermethode von einem verlustfreien Resonator-Hohlleitersystem ausgeht, so daß die nach dieser Theorie ermitteten Koppelfaktoren prinzipiell zu groß sind. Auch bei dieser Methode hat sich gezeigt, daß eine Auswertung der Meßergebnisse scheitern muß, falls ein Modenüberlapp auftritt. Bei Experimenten mit komplizierteren Dämpfungssystemen, bestehend aus mehr als vier Hohlleitern an Resonatoren mit mehr als zwei Zellen ist deutlich geworden, daß eine Bestimmung des Koppelfaktors über die Kurzschlußschiebermethode durch die entstehende Modenvielfalt praktisch unmöglich ist. Es stellte sich heraus, daß bei der Auswertung der Meßergebnisse dadurch ein Fehler entsteht, wenigstens bei sehr starker Dämpfung, daß man die Feldverteilung als konstant animmt, denn bei dem Vergleich der unbelasteten Güte Q0 mit der vom Dämpfungssystem belasteten Güte QL geht man davon aus, daß die Feldverteilungen im ungedämpften- und gedämpften Fall identisch sind. Das kann bei Koppelfaktoren im Bereich von einigen zehn bis zu einigen hundert nicht mehr zutreffen, da das Feld der Mode immer stärker in das Dämpfungssystem eindringt, je stärker die Kopplung ist. Das ändert die Modengeometrie natürlich in dramatischer Weise und die belastete Güte QL kann dann nicht mehr einfach über die Gleichung QL=Q0/(1+ K) aus den gemessenen Größen Q, und K ausgerechnet werden, da der Koppelfaktor K nun nicht mehr konstant sein kann, sondern im Gegenteil sich sehr stark ändert, je nachdem an welcher Stelle die Felder gemessen werden. Ein weiterer Mangel bei beiden Methoden ist, daß über diese Methoden weder die longitudinale noch die transversale Shuntimpedanz bestimmt werden kann. Ein Ausweg aus diesem Dilemma war die Anwendung zweier neuer Meßmethoden, die Antennenmethode und die nichtresonante Störkörpermethode. Diese beiden Methoden beruhen im Gegensatz zu den ersten beiden Methoden auf einer direkten Bestimmung der Feldpegel bzw. der transversalen Shuntimpedanz im bedämpften Resonator was den Vorteil hat, daß im Resonator genau das Feld bzw. die Shuntimpedanz vermessen wird, welches die Teilchen bei der Durchquerung des Resonators auch tatsächlich sehen. Die Antennenmethode war eine komplette Neuentwicklung, während es sich bei der nichtresonante Störkörpermethode um die Anwendung einer seit 1966 bekannten, jedoch in Vergessenheit geratenen Theorie handelte. Beide Meßmethoden konnten am Beispiel eines im Bezug auf die TM110-Mode (Frequenz bei ca. 3.2 GHz) sehr stark bedämpften Zylinderresonators (Die Frequenz der TM010-Mode lag bei ca. 2.049 GHz) erfolgreich getestet werden. Die durch das Dämpfungssystem belastete Güte QL war hier ca. 10. Bei der Bestimmung der longitudinalen elektrischen Feldstärken bzw. der longitudinalen Shuntimpedanz der TM110-Mode in Abhängigkeit vom axialen Abstand vor und nach der Bedämpfung konnten zunächst folgende Feststellungen gemacht werden: 1) Die Modengeometrie im ungedämpften- und gedämpften Fall unterscheiden sich sehr stark voneinander. Dadurch mißt man verschiedene Koppelfaktoren, je nachdem an welcher Stelle man die Felder mißt. 2) der maximal gemessene Koppelfaktor liefert über die Gleichung QL=Q0/(1+K) die richtige beklastete Güte QL. 3) Der höchste Koppelfaktor wurde bei der Feldmessung in einem Achsortabstand vom halben Radius des Zylinderresonators gemessen. Da die beiden Meßmethoden das Verhältnis der elektrischen Feldstärkequadrate in Abhängigkeit vom Meßort vor und nach der Bedämpfung liefern, konnte die zweite Feststellung nur durch eine Kontrollmessung mit Hilfe der Kurzschlußschiebermethode, die hier dank des einfachen Aufbaus leicht durchfiihrbar war, gemacht werden. Die Kurzschlußschiebermessung lieferte eine Güte QL ungefähr gleich 9, während der höchste bzw. der niedrigste mit den beiden neuen Megmethoden ermittelte Koppelfaktor mit einer Güte von QL ungefähr gleich 11 bzw. mit einer Güte von QL ungefähr gleich 14 korrespondierte, d.h. also. daß der höchste gemessene Koppelfaktor für dieses Dämpfungssystem die richtige Resonatorgüte liefert. Anhand eines zweizeiligen Resonators (Die Frequenz der TM010-2pi/3-Beschleunigermode lag bei ca. 2.35 GHz) mit beidseitig geschlitzter Irisblende als Dämpfungssystem für die HEM11-pi-Mode (ca. 3.5 GHz) konnte gezeigt werden, daß die zweite Feststellung eine Gesetzmäßigkeit bei spiegelsymmetrischen Dämpfungssystemen ist. Im Unterschied zum Zylinderresonator wurde der höchste mit der richtigen bedämpften Güte QL ungefähr gleich 37 korrespondierend Koppelfaktor K ungefähr gleich 153 jedoch direkt auf der Resonatorachse gemessen. Die bedämpfte Güte wurde auch hier wieder mit Hilfe der Kurzschlußschiebermethode kontrolliert. Ein sehr interessantes Verhalten zeigte der gleiche zweizeilige Resonator mit einseitig geschlitzter Irisblende als Dämpfungssystem. Hier korrespondierte der in der Nähe der Resonatorwand gemessene niedrigste Koppelfaktor mit der bedämpften Güte QL ungefähr gleich 230 des Resonators. In Achsennähe hingegen war der Koppelfaktor etwa dreimal höher, K ungefähr gleich 82, als aus der der Güteerniedrigung K ungefähr gleich 35 nach der Dämpfung hervorgegangen wäre, die transversale Shuntimpedanz ist also auch etwa um den Faktor 3 erniedrigt. Durch dieses Verhalten ist der einseitig bedämpfte Resonator für die Verwendung bei einem linearen Kollider im S-Band (hier muß nicht so stark bedämpft werden) interessant geworden, denn wenn nur wenige Zellen einer Beschleunigersektion mit einem Dämpfungssystem ausgerüstet werden müssen, ist es wichtig in diesen Zellen ein effektives Dämpfungssystem bei Gewährleistung eines einwandfreien Transports der Feldenergie der HEM11-pi-Mode in diese gedämpften zu haben. Das funktioniert einerseits nur, wenn sich die Resonanzfrequenz der gedämpften Zellen in Bezug auf die HEM11-pi-Mode auf die Resonanzfrequenz der benachbarten ungedämpften Zellen einstellen läßt und andererseits die mit einer Dämpfung einhergehende schlechtere Anregungsfähigkeit dieser Störmode in den gedämpften Zellen nicht zu schlecht ist. Bei einer zu starken Dämpfung wäre beides nicht möglich. Zusammenfassend kann man sagen, daß durch die Antennen- und die nichtresonante Störkörpermethode ein für die Entwicklung von störmodenbedämpften Beschleunigerresonatoren für zukünftige lineare Kollider und natürlich auch anderer Elektronenbeschleuniger sehr wirksames Instrument zur Verfügung steht. Ein detailliertes Design eines für einen bestimmten Beschleuniger passenden Dämpfungssystems ist mit Hilfe dieser Meßmethoden möglich geworden, da kleine Unterschiede zwischen verschiedenen Ausführungen von Dämpfungssystemen meßbar sind. Durch die bei der Anwendung der Meßmethoden auf unterschiedliche bedämpfte Resonatoren gefundenen Gesetzmäßigkeiten ist unter anderem auch die Frage geklärt worden, auf welche Weise ein Dämpfungssystem auch auf numerischem Wege mit Hilfe von Computerprogrammen wie z.B. MAFIA berechnet werden kann.
Die Dokumente enthalten jeweils die gleiche Arbeit, allerdings in drei unterschiedlichen Varianten, die sich in der Qualität der Bilder und damit in der Filegröße unterscheiden: * Bilder in voller Druckqualität (8,2 MB): DissWFOM1.pdf (Dokument1) * Photos in reduzierter Auflösung (3,1 MB): DissWFOM2.pdf (Dokument2) * Photos und Zeichnungen in red. Auflösung (1,4 MB): DissWFOM3.pdf (Dokument3)
Das hemmende Umfeld von Ganglienzellen in der Netzhaut des Auges Der Bereich auf der Netzhaut, aus dem Ganglienzellen Lichtsignale erhalten, wird rezeptives Feld genannt. Er umfaßt einen erregenden, zentralen Teil, das rezeptive Feldzentrum, und einen hemmenden, peripheren Teil, das Umfeld. Die antagonistische Organisation (erregendes Zentrum/hemmendes Umfeld) des rezeptiven Feldes verbessert die Signalverarbeitung, indem Kontraste verstärkt werden. Ziel der vorliegenden Arbeit war es, die Mechanismen der Umfeldhemmung an der isolierten, intakten Kaninchennetzhaut zu untersuchen. Das rezeptive Feldzentrum wird durch den erregenden Kontakt zwischen Photorezeptor Þ Bipolarzelle Þ Ganglienzelle erzeugt. Visuelle Stimulation des rezeptiven Feldzentrums erhöht die Entladungsrate (Anzahl der Aktionspotentiale pro Zeiteinheit) der Ganglienzelle. Die Erhöhung der Entladungsrate wird durch die Freisetzung des erregenden Transmitters Glutamat aus präsynaptischen Bipolarzellen bewirkt. Eine Belichtung des Umfeldes hat den entgegengesetzten Effekt: die Entladungsrate der Ganglienzelle wird verringert. Die Umfeldantwort der Ganglienzelle wird durch die laterale Hemmung in der OPL (äußere Synpsenschicht) und der IPL (innere Synapsenschicht) erzeugt. In der OPL wird die Signalübertragung von GABAergen Horizontalzellen moduliert, indem sie Photorezeptoren und/oder Bipolarzellen hemmen. In der IPL modulieren Amakrinzellen, die entweder GABAerg oder glyzinerg sein können, die Signalübertragung, indem sie Bipolarzellen und/oder Ganglienzellen hemmen. Die Entladungsrate von retinalen Ganglienzellen wird bei Belichtung des Umfeldes somit auf zwei Arten verringert: entweder werden präsynaptische Zellen (Photorezeptoren, Bipolarzellen) gehemmt oder die Ganglienzelle wird direkt durch Amakrinzellen gehemmt. Im ersten Fall schütten Bipolarzellen weniger Glutamat aus (indirekte laterale Hemmung), im zweiten Fall wird durch hemmende Neurotransmitter (GABA oder Glyzin) ein Einstrom von Chloridionen in die Dendriten der Ganglienzellen hervorgerufen (direkte laterale Hemmung). Es ist bisher noch unklar, zu welchem Anteil direkte und indirekte laterale Hemmung an der Umfeldantwort beteiligt sind. Weiterhin ist nicht bekannt, welche Neurotransmitterrezeptoren bei der Erzeugung des hemmenden Umfeldes eine Rolle spielen. Um dies zu untersuchen, wurden in der vorliegenden Arbeit lichtinduzierte, synaptische Ströme von retinalen Ganglienzellen an der isolierten, intakten Kaninchenetzhaut gemessen. Dabei wurde die Netzhaut von vorher eingeschläferten Kaninchen freipräpariert und anschließend in einer mit Sauerstoff angereicherten Extrazellulärlösung aufbewahrt. An diesem isolierten, intakten NetzhautPräparat (in vitro Retina) konnten bis zu acht Stunden Lichtantworten gemessen werden. Die lichtinduzierten Ströme wurden in der Ganzzellkonfiguration der PatchClampTechnik in der Spannungsklemme gemessen. Die Meßkammer mit der flach ausgebreiteten Netzhaut befand sich auf einem Mikroskoptisch. Das Mikroskop war mit einer InfrarotDifferentialinterferenzOptik (NomarskiOptik) ausgestattet und die Mikroelektroden konnten unter Sichtkontrolle mit Hilfe eines Mikromanipulators an die Zellkörper herangefahren werden. Kreisförmige und ringförmige Lichtmuster mit verschiedenen Durchmessern, wurden auf einem Computerbildschirm erzeugt und durch den Mikrsokopkondenser auf den Boden der Meßkammer projiziert. Erregende Ströme retinaler Ganglienzellen konnten isoliert werden, indem das Membranpotential der Zelle auf das Umkehrpotential für Chloridionen eingestellt wurde. Die erregenden Ströme wurden durch Belichtung des Umfeldes stark verringert. Dies wird durch die verminderte Freisetzung von Glutamat durch Bipolarzellen verursacht und ist ein Hinweise auf eine indirekte, laterale Hemmung der Ganglienzelle. Durch die Zugabe des GABARezeptorblockers Picrotoxinin in die Nährlösung (Badapplikation) konnte die Umfeldhemmung der meisten Ganglienzellen nahezu vollständig aufgehoben werden. Dieses Ergebnis zeigt, daß präsynaptische GABA A und GABA C Rezeptoren eine wichtige Rolle bei der Umfeldhemmung spielen. Direkte hemmende Chloridionenströme konnten isoliert werden, indem das Membranpotential der Zelle auf das Umkehrpotential für erregende Ströme eingestellt wurde. Durch Beleuchtung des Umfeldes wurden Chloridionenströme in Ganglienzellen ausgelöst. Dies ist ein Hinweis auf eine direkte, laterale Hemmung der Ganglienzelle durch Amakrinzellen, die zusätzlich zur indirekten Hemmung erfolgt. Bei Anwendung der Stromklemme der PatchClampTechnik konnte nachgewiesen werden, daß Chloridionenströme die Entladungsrate der Zelle beeinflussen. Durch die Badapplikation von Picrotoxinin und durch die Überströmung mit dem GABA A Rezeptorhemmer Bicucullin wurden die Chloridionenströme deutlich verringert. Durch den Glyzinrezeptorblocker Strychnin konnten die hemmenden Ströme nur bei wenigen Zellen verringert werden. Dies ist ein Hinweis auf eine direkte Hemmung der Ganglienzelle über GABA A Rezeptoren. In den meisten Ganglienzellen konnten direkte und indirekte Hemmung durch die Badapplikation von Tetrodotoxin verringert werden. Tetrodotoxin hemmt das Entstehen von Aktionspotentialen und das Ergebnis zeigt, daß 'widefield Amakrinzellen, die über Aktionspotentiale kommunizieren zur Umfeldhemmung beitragen. Bisherige Modelle gingen davon aus, daß Interaktionen zwischen Horizontalzellen, Photorezeptoren und Bipolarzellen in der OPL die Hauptursache für die Umfeldhemmung sind. Die vorliegende Arbeit hat gezeigt, daß Interaktionen zwischen Amakrinzellen, Bipolarzellen und Ganglienzellen wesentlich zur Umfeldhemmung beitragen. In der Netzhaut gibt es zwischen 12 und 15 Ganglienzelltypen, die auf unterschiedliche Mustermerkmale wie z. B. Farbe, Kontrast oder Bewegung reagieren. Alle bisher untersuchten Ganglienzelltypen verringern bei einer Reizung des Umfeldes ihre Entladungsrate. Ist bei allen Ganglienzelltypen der Beitrag von Horizontal und Amakrinzellen zur Umfeldhemmung sowie der Anteil von direkter und indirekter lateralen Hemmung gleich? Oder gibt es für jeden Ganglienzelltyp aufgrund seiner physiologischen und morphologischen Ausprägung verschiedene Mechanismen der lateralen Hemmung? Diese Fragen könnten durch die Entwicklung von Pharmaka, welche selektiv Horizontalzellen bzw. Amakrinzellen hemmen, untersucht werden. Die Anwendung dieser Substanzen könnte den Beitrag dieser Zellen zur Umfeldhemmung eines bestimmten Ganglienzelltyps nachweisen. Gleichzeitig könnte die indirekte Hemmung von retinalen Ganglienzellen durch intrazelluläre Applikation von Chloridionenkanalblockern viel genauer als bisher gemessen werden, da auf diese Weise erregende synaptische Ströme besser isoliert werden können. Durch die Kombination dieser beiden Methoden könnte für jeden Ganglienzelltyp der Netzhaut die zellulären und synaptischen Mechanismen der Umfeldhemmung detailliert beschrieben werden.
Cold target recoil ion momentum spectroscopy (COLTRIM) has been employed to image the momentum distributions of continuum electrons liberated in the impact of slow He2+ on He and H2. The distributions were measured for fully determined motion of the nuclei that is as a function of the impact parameter and in a well de ned scattering plane The single ionization (SI) of H2 leading to H2+ recoil ions in nondissociative states (He2+ + H+ -> He2+ + H+ + e-) and the transfer ionization (TI) of H2 leading to H2 dissociation into two free protons (He2+ H2 -> He+ + H+ + H+ + e-) were investigated. Similar measurements have been carried out for He target, the corresponding atomic two electron system, i.e. the single ionization (SI) (He2+ + He -> He+ + He2+ e- and the transfer ionization (TI) (He2+ + He -> He+ + He2+ + e-). These measurements have been exploited to understand the results obtained for H target. In comparing the continuum electron momentum distributions for H2 with that for He, a high degree of similarity is observed. In the case of transfer ionization of H2, the electron momentum distributions generated for parallel and perpendicular molecular orientations revealed no orientation dependence. The in scattering plane electron momentum distributions for the transfer ionization of H2 by He2+ and for the transfer ionization of He by He2e showed that the salient feature of these distributions for both collisions systems consists in the appearance of two groups of electrons with difeerent structures. In addition to the group of the saddle electrons forming two jets separated by a valley along the projectile axis we nd a new group of electrons moving with a velocity higher than the projectile velocity These new fast forward electrons result from a narrow range of impact parameters and appear as image saddle in the projectile frame. In contrast to the transfer ionization of He, the fast forward electrons group disappears in the in scattering plane electron momentum distribution generated for the single ionization of He. Instead of this group another new group of electrons appear These electrons exhibit an amount of backscattering These backward elec trons appear as image saddle in the target frame The structures that the saddle electrons show are owing to the quasi molecular nature of the collision process For the TI of H2, the TI of He and the SI of He, a pi-orbital shape of the electron momentum distribution is observed This indicates the importance of the rotational coupling 2-p-theta -> 2p-pi in the initial promotion of the ground state followed by further promotions to the continuum The backward electrons as well as the fast forward electrons are not discussed in the theoretical literature at all. However, a number of obvious indications of the existence of the backward and fast forward electrons could be seen in the experimental works of Abdallah et al. as well as in the theoretical calculations of Sidky et al One might speculate that electrons which are promoted on the saddle for some time during the collision could finally swing around the He+ ion in the way out of the collision, i.e. either around the projectile in the forward direction as in the TI case forming the fast forward electrons or around the recoil ion in the backward direction as in the SI case forming the backward electrons. This might be a result of the strong gradient, and hence the large acceleration of the screened He+ potential.
Fourier-Transform Infrarot Differenz Spektroskopie ist eine Methode. die es erlaubt, selbst kleinste konformelle Änderungen in der Umgebung der katalytischen Zentren in Enzymen selektiv und mit hoher Zeitauflösung zu messen. Diese Technik wurde an Oxidasen von Paracoccus denitrificans, Thermus thermophilus und Escherichia coli angewandt, um einen Einblick in strukturelle und molekulare Prozesse der Bindung und Dynamik von Liganden am binuklearen Zentrum zu erhalten. Die pH- und Temperatur-Abhängigkeit von CO Schwingungsmoden sowie deren Verhalten nach der Photolyse konnten zeitaufgelöst untersucht und miteinander verglichen werden. Bei Temperaturen >180K war die Bestimmung von thermodynamischen Parametern wie Enthalpie-Barrieren und Arrhenius-Vorfaktoren möglich. Aus dem Verlauf der Rückbindungskinetiken ließen sich ferner Rückschlüsse über die konformelle Heterogenität der Bindung ziehen. Für Temperaturen um 140K konnte das Protein im "quasistationären" Zustand vermessen werden, da Rückreaktionen des Liganden an die Bindungsstelle des Häm a3 unterbunden waren. Trotz der strukturellen Ähnlichkeit und analoger Funktion zeigten diese typischen Oxidasen große Unterschiede sowohl im Reaktionszentrum als auch im kinetischen Verhalten des Liganden. Die kinetischen Parameter für alle untersuchten Oxidasen weichen deutlich voneinander ab und spiegeln unter anderem die Stärke der Bindung am CUB wider. Die Temperaturabhängigkeit der Populationen der CO-Konformere und die äquivalente Rückbindungs-Kinetik der unterschiedlichen Konformere in den Oxidasen aus dem thermophilen System weisen auf ein strukturelles Merkmal in der Nähe des binuklearen Zentrums hin, das den Populations-Austausch in anderen Oxidasen unterbindet. Aufgrund der pH-Abhängigkeit der entsprechenden Oxidasen kann man schließen, daß diese Eigenschaft durch eine oder mehrere protonierbare Gruppen bewirkt wird, die die unterschiedlichen Konformere in bestimmten Positionen fixiert hält. Die Rückbindungsraten des Liganden zeigen für die T. thermophilus Oxidasen eine Rückbindung erster Ordnung. was auf eine homogene Verteilung der zwei Konformer-Populationen im Enzym deutet. Hingegen zeigte die Oxidase aus P. denitrificans für die Rückbindung eine Verteilung der Reaktionsraten. Ursache dafür ist ein sehr heterogenes Ensemble an Proteinen, das minimale strukturelle Unterschiede im Konformationsraum des Reaktionszentrums aufweist. Ein weiterer Aspekt der Arbeit war die Beobachtung von Absorptionsbanden der Hämpropionate an Cytochrome c Oxidase von Paracoccus denitrificans nach CO Rückbindung. Sowohl über 13C-isotopenmarkierte Hämpropionate als auch über ortsgerichtete Mutagenese in deren unmittelbarer Umgebung konnten definierte Banden-Zuordnungen im IR-Differenzspektrum erhalten werden. Experimente am Enzym mit Mutationen an der Stelle Asp 399 zeigten, daß die strukturellen Eigenschaften des Häm a3-CuB Zentrums im wesentlichen von dieser Veränderung nicht beeinflußt werden. Jedoch war die pH-Abhängigkeit der CO Konformere hier unterbunden, was auf deren Einfluß auf eine Protonierbarkeit im Wildtyp-Enzym hinweist. Rückschlüsse anhand der Mutante Asp399Asn zeigten (über den Verlust der pH-Abhängigkeit) ganz klar, daß alle unterschiedlichen CO-Konformere funktionell intakt sind. FT-IR Messungen an einem weiteren Enzym, der isolierten Cytochrom bd Oxidase aus E. coli, zeigten bei einer Untersuchung der CO Rückbindungs-Eigenschaften bei 84K die ausschließliche Rückbindung an das Häm d. der möglichen Sauerstoff-Bindungsstelle. Die Bindungsstelle an Häm b, die zu ca. 5% ebenfalls CO bindet, kann bei diesen Temperaturen nicht wiederbesetzt werden. Im typischen Spektralbereich von 1680 bis 1760 cm hoch minus 1 konnten eindeutig die Absorptionsbanden von Asparagin- oder Glutaminsäure-Seitenketten identifiziert werden. Über einen direkten Vergleich der Spektren, die über Redox-Reaktion und CO Rückbindung erhalten wurden, konnten diese Signale als klar in der direkten Umgebung des binuklearen Zentrums lokalisiert zugeordnet werden. Eine Rolle als vorübergehender Protonen-Akzeptor/Donor auf dem Weg zur Sauerstoff-Bindungsstelle ist naheliegend.
Die künstliche elektrische Stimulation bietet oftmals die einzige Möglichkeit, nicht vorhandene bzw. verloren gegangene motorische sowie sensorische Aktivitäten in gewissem Umfang wieder herzustellen. Im Falle von tauben Patienten wird zur Erlangung von Hörempfindungen die elektrische Stimulation des peripheren auditorischen Systems mit Hilfe von Cochlea- oder Hirnstammimplantaten standardmäßig eingesetzt. Es ist dabei notwendig, natürliche neuronale Entladungsmuster durch die elektrisch evozierten Entladungsmuster nachzubilden. Bei einkanaligen Systemen kann nur die Zeitstruktur des Signals dargeboten werden. Mehrkanalige Systeme bieten hier noch zusätzlich die Möglichkeit auch örtlich selektiv bestimmte Nervenfasergruppen zu stimulieren und damit die Ortsstruktur in den Entladungsmustern zu repräsentieren. So hat es sich gezeigt, dass die Sprachverständlichkeit durch Verwendung von Mehrkanal-Elektroden verbessert werden kann. Grundvoraussetzung hierfür ist die Optimierung der Kanalseparation durch Kleinst-Vielkanalelektroden und der Wahl einer optimalen Codierstrategie des Signals.
Die Codierstrategie ist abhängig von dem jeweiligen spezifischen Einsatzbereich. So gaben z.B. schon Clopton und Spelman (1995) zu bedenken, dass die als selektiv berechnete tripolare (S3) Konfiguration nur für einen bestimmten Stimulationsstrombereich gültig ist. Hinzu kommt es bei simultaner Verwendung benachbarter Kanäle zu schmerzhaften Lautheitssummationen. Ursache hierfür sind einerseits die Überlagerung der durch die Elektroden stimulierten neuronalen Bereiche und andererseits die Wechselwirkungen von Strömen benachbarter Elektrodenkanäle. Diese Effekte führen nicht nur zu einer Verringerung der räumlichen Stimulationsauflösung, sondern auch zu einer Einschränkung der exakten Abbildung der Zeitstruktur innerhalb der einzelnen Stimulationskanäle.
Die Techniken und Grundlagen der elektrischen Stimulation von neuronalem Gewebe mit Kleinst-Vielkanalelektroden sind bisher kaum untersucht worden. Ziel dieser Arbeit war es, ein mathematisches Modell zu implementieren und Qualitätsparameter zu definieren, mit deren Hilfe die Verteilung des elektrischen Feldes und die daraus resultierende neuronale Erregung beschrieben und optimiert werden kann. Zur Verifizierung des Modells sollten Methoden und Techniken entwickelt werden, die eine hochauflösende Abtastung der elektrischen Felder und Messung der neuronalen Daten innerhalb eines Messsystems ermöglichen.
Bei der neuronalen Stimulation mit Kleinst-Vielkanalelektroden ergibt sich eine Reihe von Problemen grundsätzlicher Art. So werden bei elektrodenferner Stimulation größere Stimulationsströme benötigt als bei elektrodennaher Stimulation, wobei für den Strombedarf die Stimulationskonfiguration eine entscheidende Rolle spielt: Der S1 Stimulationsmodus benötigt weniger Strom zur Erreichung großer Stimulationstiefen als der S2 Stimulationsmodus. Der größte Strom wird mit zunehmendem Elektrodenabstand gleichermaßen von dem S3 und S7 Stimulationsmodus benötigt. Gleichzeitig verfügen Kleinst-Vielkanalelektroden bauartbedingt aber nur über kleine Elektrodenkontaktoberflächen und lassen daher auf Grund der kritischen Feldstärke nur geringe Stimulationsströme zu.
Ein weiteres Problem besteht bei diesen Kleinst-Elektrodendimensionen in der konkreten Lage der Neurone an denen eine neuronale Erregung evoziert wird. Die Dimension der Kleinst-Vielkanalelektroden liegt bei einem Elektrodenkanalkontaktdurchmesser von 70 µm bereits in der Größenordnung der zu stimulierenden Neurone mit einem Durchmesser von 10 bis 15 µm. Dies macht sich bei den Messungen besonders dann deutlich bemerkbar, wenn nicht der Stimulationsstrom die Größe des überschwelligen Bereichs modelliert, sondern wenn der Elektrodenkanalabstand durch die Wahl der entsprechenden Elektrodenkanäle verändert wird. Hier weisen zwar die meisten neuronalen Antworten noch in die sich aus dem Modell ergebende Richtung, jedoch kommt es zu einer höheren Streuung der Ergebnisse als bei Messungen mit der Folienelektrode, die eine Kontaktfläche von 170 µm besitzt.
Es gibt also eine Reihe von begrenzenden Faktoren bei der optimalen Dimensionierung der Stimulationselektrode, die sowohl abhängig von der physiologischen Topologie ist als auch von den eingesetzten Stimulationskonfigurationen. Es ist also zur Stimulation die Wahl der optimalen Codierstrategie und die richtige Dimensionierung der Stimulationselektrode sowie der Elektrodenkanalabstände von entscheidender Bedeutung.
Die neuronalen Messungen wurden erstmalig für diese Fragestellung am Hirnschnitt durchgeführt, da sie, im Gegensatz zu in-vivo Versuchen, eine exakte Positionierung der Elektroden auf dem Hirnschnitt unter Sichtkontrolle durch das Mikroskop erlauben. Es wurden aus den neuronalen Messungen die Amplituden und Latenzen der exzitatorischen postsynaptischen Potenziale (EPSP) sowie der Feldpotenziale ausgewertet.
Der Versuchsaufbau macht es möglich, die Potenzialfelder mit genau den Konfigurationen abzutasten, mit denen auch die neuronalen Messungen des Hirnschnittes durchgeführt wurden. Das implementierte Programm zur Berechnung der Feldverteilung besitzt zum Messprogramm ein Interface, so dass es möglich ist, die Einstellungen des Experimentes, wie Stimulationskonfigurationen, Abtastraster des Feldes und die Koordinaten des Messraums, in der Modellrechnung zu verwenden. Somit ist ein direktes Vergleichen zwischen Messung und Berechnung möglich. In nachfolgenden Arbeiten können die vorliegenden Ergebnisse als Grundlage für in-vivo Versuche eingesetzt werden.
Zur Durchführung der Messungen wurden sehr kleine Elektroden aus eigener Herstellung verwendet und es wurden uns freundlicherweise neu entwickelte Folienelektroden des Fraunhofer Instituts St. Ingbert zur Verfügung gestellt. Die Größe der verwendeten Kleinst-Vielkanalelektroden aus eigener Herstellung lag um ca. eine Zehnerpotenz unter den aktuell eingesetzten Elektrodentypen und ist speziell für den direkten Kontakt zwischen Elektrode und Gewebe konzipiert. Dies entspricht dem typischen Einsatzbereich von Hirnstammimplantaten. Dies ist auch notwendig, um eine maximale räumliche Separation der erzeugten Felder zu ermöglichen. Außerdem erlaubte das Elektrodendesign auf Grund der hohen Anzahl der Elektrodenkanäle und durch variieren der Konfigurationen die Feldrichtung zu bestimmen, ohne die Elektrode neu auf den Hirnschnitt aufsetzen zu müssen.
Der in dieser Arbeit implementierte Algorithmus zur Berechnung der Feldverteilungen und die eingeführten Qualitätsparameter erlauben, die unterschiedlichen Stimulationskonfigurationen miteinander zu vergleichen und zu optimieren. Die Ergebnisse aus diesen Modellrechnungen wurden sowohl mit den Messungen der elektrischen Felder als auch mit den Ergebnissen aus den neuronalen Antworten verglichen.
Der im Rahmen dieser Arbeit erstellte Versuchsaufbau bestand aus einer über mehrere Mikromanipulatoren getriebene mikrometergenaue Positioniereinrichtung. Es konnten sowohl die Stimulationselektrode als auch die Elektrode zur Aufzeichnung der neuronalen Daten gesteuert werden. Die Steuerung des gesamten Setup, d.h. die Positionierung, die Aufzeichnung der neuronalen Daten und die Generierung der Stimulationsmuster wurde über den zentralen Messrechner durch ein hierfür entwickeltes Computerprogramm gesteuert. Die Versuche wurden über ein inverses Mikroskop durch eine CCD-Kamera aufgezeichnet.
Der entscheidende Vorteil des in dieser Arbeit gewählten Modellansatzes besteht in der grundsätzlichen Beschreibung der Feldverteilung bei vielkanaliger Stimulation, so dass diese auch auf andere Elektrodenformen bzw. Konfigurationen und Dimensionen übertragbar ist. Es lassen sich so den verschiedenen Konfigurationen nach bestimmten Qualitätskriterien bewerten und an die jeweilige Zielrichtung der Stimulation anpassen. Die berechneten Felder konnten erfolgreich in der Messeinrichtung generiert und nachgemessen werden. Außerdem ist es gelungen, differenzierte neuronale Aktivitäten auszuwerten, welche die Aussagen des Modells abstützen.
Determination of the structure of complex I of Yarrowia lipolytica by single particle analysis
(2004)
Komplex I enthält ein Flavinmononukleotid sowie mindestens acht Eisen- Schwefel Zentren als redoxaktive Cofaktoren. Da ein wesentlicher Teil des mitochondrialen Genoms für Untereinheiten von Komplex I codiert, betrifft eine Vielzahl von mitochondrialen Erkrankungen diesen Enzymkomplex.
Komplex I wurde bisher aus Mitochondrien, Chloroplasten und Bakterien isoliert. Die Minimalform von Komplex I wird in Bakterien gefunden, wo er aus 14 (bzw 13 im Falle einer Genfusion) Untereinheiten besteht und eine Masse von etwa 550 kDa aufweist. Generell werden sieben hydrophile und sieben hydrophobe Untereinheiten mit über 50 vorhergesagten Transmembranhelices gefunden. Im Komplex I aus Eukaryoten wurde eine grössere Anzahl zusätzlicher, akzessorischer Untereinheiten nachgewiesen. Hier werden die sieben hydrophoben Untereinheiten vom mitochondrialen Genom codiert, während alle anderen Untereinheiten kerncodiert sind und in das Mitochondrium importiert werden müssen.
Die obligat aerobe Hefe Yarrowia lipolytica wurde als Modellsystem zur Untersuchung von eukaryotischem Komplex I etabliert. Die bisher am besten untersuchte Hefe Saccharomyces cerevisiae enthält keinen Komplex I. Hier wird die Oxidation von NADH durch eine andere Klasse von sogenannten alternativen NADH Dehydrogenasen durchgeführt. Auch Y. lipolytica enthält ein solches alternatives Enzym, das allerdings mit seiner Substratbindungsstelle zur Aussenseite der inneren Mitochondrienmembran orientiert ist. Durch molekularbiologische Manipulation konnte eine interne Version dieses Enzymes exprimiert werden, wodurch es möglich ist, letale Defekte in Komplex I Deletionsmutanten zu kompensieren. Mittlerweile wurden alle Voraussetzungen geschaffen, um kerncodierte Untereinheiten von Komplex I aus Y. lipolytica gezielt genetisch zu verändern. Die Proteinreinigung wird durch die Verwendung einer auf einem His-tag basierenden Affinitätsreinigung erheblich erleichtert...
This thesis is devoted to the study of Micro Structured Electrode (MSE) sustained discharges. Innovative approaches in this work are i) the implementation of MSE arrays for high-pressure plasma generation and ii) the use of diode laser atomic absorption spectroscopy for investigating sub-millimetric discharges. By means of MSE arrays the discharge gap is scaled down to the sub-millimetric range and accordingly the working pressure could be increased up to atmospheric. It should be underlined that besides the ease of use, since expensive vacuum equipment is not required, high-pressure discharges offer also a high density of active species. A MSE consists of holes, regularly distributed in a composite sheet made of two metal layers separated by an insulator. The electrodes and insulator thickness and the diameter of the holes are in the 100 micrometer range. Based on these microstructures stable non-filamentary DC discharges are generated in noble gases and gas mixtures at pressures up to 1000 mbar. The MSE sustained discharge can be considered as a normal glow discharge whereby the excitation and ionization efficiency is increased by the specific electrode configuration (hollow cathode geometry). Large area high-pressure plasma can be achieved by parallel operation of a large number of microdischarges. Parallel operation of up to 200 microdischarges without individual ballast was proven for pressures up to 300 mbar. Furthermore, arrays of resistively decoupled microdischarges were operated up to atmospheric pressure. Spectral investigations have revealed the presence of highly energetic electrons (20 eV), a large density of atoms in metastable states (1013 cm-3) and a high electron density (1015 cm-3). Although the plasma confined inside the hole of the MSE may reach gas temperatures up to 1000 K, the ambient gas temperature immediately above the microstructure exceeds only slightly the room temperature. The reactivity of the MSE sustained discharge was demonstrated in respect to waste gas decomposition and surface treatment. The MSE arrays are providing a non-equilibrium high-pressure plasma, which is very promising for surface processing, plasma chemistry and generation of UV radiation.
Die transversale Betatronbewegung eines Ionenstrahls, genannt Tune, stellt neben der Strahlposition die wichtigste zu messende Strahleigenschaft für den stabilen Betrieb eines Kreisbeschleunigers dar. Die Einstellung des Tunes auf einen Arbeitspunkt unterliegt engen Grenzen, da eine Vielzahl resonanter Störungen existiert, die die Teilchenbewegung beeinflussen und somit Emittanzvergrößerung und Strahlverlust hervorrufen. Den gemessenen Tune mit hoher Auflösung in Zeit und Frequenz während der gesamten Beschleunigungsphase auszugeben ermöglicht eine Justierung der ionenoptischen Elemente der Strahlführung. Dadurch läßt sich die Teilchenzahl bis zur theoretischen Raumladungsgrenze erhöhen und darüber hinaus Teilchenverluste minimieren. Die Messungen wurden an Positionssonden (BPM) des Schwerionensynchrotrons SIS18 der "GSI Helmholtzzentrum für Schwerionenforschung GmbH" mit zwei verschiedenen Meßsystemen durchgeführt, was einen Vergleich der Systemauflösungen ermöglicht. Das Direkt Digitalisierende Meßsystem (DDM) wandelt das BPM-Elektrodensignal direkt nach der Verstärkerkette mit einer Rate von 125 MSa/s in digitale Daten um. Der Strahlschwerpunkt eines jeden Einzelbunches wird daraus mittels digitaler Prozessierung berechnet und durch Fouriertransformation dessen Frequenzspektrum bestimmt. Man erhält den fraktionalen Tune dadurch direkt im Basisband. Das am CERN entwickelte und für Parameter des SIS18 adaptierte Direct Diode Detection - System (DDD) zeigt ebenfalls den Tune im Basisband. Um den zu bearbeitenden Frequenzbereich erheblich zu reduzieren, werden bei diesem Verfahren die Bunchpeakwerte, die die Strahlschwingung enthalten, über ein RC-Element analog verzögert ausgegeben. Der erhaltene Tune kann daraus mit hoher Auflösung digitalisiert werden. In der vorliegenden Dissertation werden die Meßaufbauten, die digitale Prozessierung der BPM-Daten mittels neuer Algorithmen sowie die Auswertung und Berechnung des Tunes gezeigt. Es werden typische Tuneverläufe diskutiert und ein Arbeitsbereich definiert, bei dem stabile Tunemessungen mit S/N von 30-50 dB ohne meßbare Vergrößerung der Strahlemittanz möglich sind. Die Auflösung der Tunemessung beträgt δqy = 3.50 · 10−4 und δqx = 7.97 · 10−4 für Anregungskickwinkel im Arbeitsbereich. Darüber hinaus werden physikalische Anwendungen des Systems diskutiert, indem verschiedene Einflüsse von ionenoptischen- und Strahlparametern auf den Tuneverlauf gezeigt und ausgewertet werden.
The search for a modification of hadron properties inside nuclear matter at normal and/or high temperature and density is one of the more interesting issues of modern nuclear physics. Dilepton experiments, by providing interesting results, give insight into the properties of strong interaction and the nature of hadron mass generation. One of these research tools is the HADES spectrometer. HADES is a high acceptance dilepton spectrometer installed at the heavy-ion synchrotron (SIS) at GSI, Darmstadt. The main physics motivation of HADES is the measurement of e+e- pairs in the invariant-mass range up to 1 GeV/c2 in pion- and proton-induced reactions, as well as in heavy-ion collisions. The goal is to investigate the properties of the vector mesons rho, omega and of other hadrons reconstructed from e+e- decay pairs. Dileptons are penetrating probes allowing to study the in-medium properties of hadrons. However, the measurement of such dilepton pairs is difficult because of a very large background from other processes in which leptons are created. This thesis presents the analysis of the data provided by the first physic run done with the HADES spectrometer. For the first time e+e- pairs produced in C+C collisions at an incident energy of 2 GeV per nucleon have been collected with sufficient statistics. This experiment is of particular importance since it allows to address the puzzling pair excess measured by the former DLS experiment at 1.04 AGeV. The thesis consists of five chapters. The first chapter presents the physics case which is addressed in the work. In the second chapter the HADES spectrometer is introduced with the characteristic of specific detectors which are part of the spectrometer. Chapter three focusses on the issue of charged-particle identification. The fourth chapter discusses the reconstruction of the di-electron spectra in C+C collisions. In this part of the thesis a comparison with theoretical models is included as well. The conclusion and final remarks are given in chapter five.
Ein wesentlicher Forschungsgegenstand der Kernphysik ist die Untersuchung der Eigenschaften von Kernmaterie. Das Verständnis darüber gibt in Teilen Aufschluss über die Erscheinungsweise und Wechselwirkung von Materie. Ein Schlüssel liegt dabei in der Untersuchung der Modifikation der Eigenschaften von Hadronen in dem Medium Kernmaterie, das durch Parameter wie Dichte und Temperatur gekennzeichnet werden kann. Man hofft damit unter anderem Einblick in die Mechanismen zu bekommen, welche zur Massenbildung der Hadronen beitragen. Zur Untersuchung solcher Modifikationen eignen sich insbesondere Vektormesonen, die in e+e- Paare zerfallen. Die Leptonen dieser Paare wechselwirken nicht mehr stark mit der Materie innerhalb der Reaktionszone, und tragen somit wichtige Informationen ungestört nach außen. Das HADES-Spektrometer bei GSI wird dazu verwendet die leichten bei SIS-Energien produzierten Vektormesonen rho, omega und phi zu vermessen. Hierzu wurde zum erste mal das mittelschwere Stoßsystem Ar+KCl bei einer Strahlenergie von 1,76 AGeV gemessen. Die im Vergleich zum früher untersuchten System C+C höhere Spurmultiplizität innerhalb der Spektrometerakzeptanz verlangte eine Anpassung der bisher verwendeten Datenanalyse. Das bisher verwendete Verfahren, mehrere scharfe Schnitte auf verschiedene Observablen seriell anzuwenden, um einzelne Leptonspuren als solche zu identifizieren, wurde durch eine neu entwickelte multivariate Analyse ersetzt. Dabei werden die Informationen aller beteiligten Observablen mit Hilfe eines Algorithmus zeitgleich zusammengeführt, damit Elektronen und Positronen vom hadronischen Untergrund getrennt werden können. Durch Untersuchung mehrerer Klassifizierer konnte ein mehrschichtiges künstliches neuronalen Netz als am besten geeigneter Algorithmus identifiziert werden. Diese Art der Analyse hat den Vorteil, dass sie viel robuster gegenüber Fluktuationen in einzelnen Observablen ist, und sich somit die Effizienz bei gleicher Reinheit steigern lässt. Die Rekonstruktion von Teilchenspuren im HADES-Spektrometer basiert nur auf wenigen Ortsinformationen. Daher können einzelne vollständige Spuren a priori nicht als solche gleich erkannt werden. Vielmehr werden durch verschiedene Kombinationen innerhalb derselben Mannigfaltigkeit von Positionspunkten mehr Spuren zusammengesetzt, als ursprünglich produziert wurden. Zur Identifikation des maximalen Satzes eindeutiger Spuren eines Ereignisses wurde eine neue Methode der Spurselektion entwickelt. Während dieser Prozedur werden Informationen gewonnen, die im weiteren Verlauf der Analyse zur Detektion von Konversions- und pi0-Dalitz-Paaren genutzt werden, die einen großen Beitrag zum kombinatorischen Untergrund darstellen. Als Ergebnis wird das effizienzkorrigierte, und auf die mittlere Zahl der Pionen pro Ereignis normierte, Spektrum der invarianten Elektronpaarmasse präsentiert. Erste Vergleiche mit der konventionellen Analysemethode zeigen dabei eine um etwa 30% erhöhte Rekonstruktionseffizienz. Das Massenspektrum setzt sich aus mehr als 114.000 Paaren zusammen -- über 16.000 davon mit einer Masse größer als 150 MeV. Ein erster Vergleich mit einem einfachen thermischen Modell, welches durch den Ereignisgenerator Pluto dargestellt wird, eröffnet die Möglichkeit, die hier gefundenen Produktionsraten des omega- und phi-Mesons durch m_T-Skalierung an die durch andere Experimente ermittelten Raten des eta zu koppeln. In diesem Zusammenhang findet sich weiterhin ein von der Einschussenergie abhängiger Produktionsüberschluss von F(1,76) = Y_total/Y_PLUTO = 5,3 im Massenbereich M = 0,15...0,5 GeV/c^2. Die theoretische Erklärung dieses Überschusses birgt neue Erkenntnisse zu den in-Medium Eigenschaften von Hadronen.
Die Coltrims-Methode hat sich seit den 1990er Jahren als gutes experimentelles Instrument in der Atomphysik und darüberhinaus etabliert. Sie beruht darauf, dass die bei einer Reaktion entstehenden Fragmente mit ortssensitiven Detektoren nachgewiesen werden. Die Signale der Detektoren wurden bisher mit einem analogen Vorverstärker verstärkt und dann mit Hilfe eines Constant Fraction Discriminators in digitale Signale umgewandelt. Die Zeitinformation der digitalen Signale wurden von Time to Digital Convertern aufgenommen und im Computer gespeichert. Mit dieser Form der Auslese und Analyse der von den Detektoren stammenden Signale können nur einige wenige Fragmente nachgewiesen werden. Die Lösung dieses Problems besteht also darin, eine neue Variante für die Auslese und Analyse der Signale zu finden. Diese wurde in der Verwendung eines Transientenrekorders gefunden. Anstatt nur die Zeitinformation zu speichern, nimmt dieser die gesamte Signalform der Detektoren auf. Die Aufgabe, die in dieser Arbeit bearbeitet werden sollte, bestand darin, eine Software zu entwickeln, mit deren Hilfe der Transientenrekorder gesteuert werden kann. Auch sollte ein Weg gefunden werden nur die für das Experiment notwendigen Informationen des aufgenommenen Zeitfensters zu speichern. Des Weiteren sollten Methoden aufgezeigt werden, wie die aufgenommen Signale untersucht und deren Parameter extrahiert werden können. Diese Methoden wurden dann an realen Signalen getestet. Nachdem im ersten Kapitel die Motivation zu dieser Arbeit und einige theoretische Hintergründe vorgestellt werden, wird im zweiten Kapitel auf verschiedene Methoden der Signalanalyse eingegangen. Der Augenmerk liegt dabei sowohl auf Einzel- sowie Doppelsignalanalyse. Die Güte der vorgestellten Algorithmen wird mit Hilfe von künstlichen Signalen ermittelt. Es zeigt sich, dass die beste Methode die zeitliche Position der Einzelsignale zu finden, der Pulsfit ist. Mit dieser Methode kann eine Auflösung von etwa 50 ps erzielt werden. Bei der Betrachtung der Doppelsignale stellt sich heraus, dass der minimale Abstand zwischen den Signalen 5 ns bis 7 ns betragen muss. Das dritte Kapitel zeigt eine Anwendung des neuen Aufnahmesystems. Dort werden die physikalischen Ergebnisse, die mit Hilfe des neuen Systems gewonnen werden konnten, mit einem herkömmlichen Aufnahmesystem verglichen. Aufgrund der geringeren Totzeit des neuen Aufnahmesystems konnte mehr Statistik gewonnen werden. Der dadurch gewonnene Vorteil zeigt sich deutlich in den Ergebnissen, bei denen eine vierfach Koinzidenz verlangt wird. Bei dem nächsten Kapitel beschriebenen Experiment mussten sehr viele Fragmente nachgewiesen werden. Hierzu wird ein weiteres Kriterium neben der Zeitsumme vorgestellt mit dem die Anodensignale einander zugewiesen werden können. Die in diesem Kapitel gezeigten physikalischen Ergebnisse zeigen die Impulsverteilungen für Neon und Helium für unterschiedliche Lichtintensitäten bzw. Ionisationsprozesse. Im darauf folgenden Kapitel wird beschrieben, wie die neue Aufnahmemethode dazu verwendet werden kann, die von den Detektoren kommenden Signale genauer zu analysieren. Die physikalische Reaktion führte dazu, dass von dem Detektor hauptsächlich Doppelsignale aufgenommen wurden. Dies erlaubt die Untersuchung der Doppelsignalalgorithmen an realen Signalen. Hierbei zeigte sich, dass die Totzeit bei realen Signalen vergleichbar mit der Totzeit bei künstlichen Signalen ist. Die Algorithmen können bei Abständen der Einzelsignale von weniger als 10 ns die Position der Signale nicht mehr genau bestimmen. Anhand der Pulshöhenverteilung kann gezeigt werden, dass der verwendete Detektor in der Mitte eine geringere Nachweiseffizienz hatte. Im letzten Kapitel wird die Güte der verschiedenen Methoden der Einzelsignalanalyse anhand von realen Signalen überprüft. Dabei wurden Signale desselben Detektors mit unterschiedlichen Vorverstärkern verstärkt. Die beiden Vorverstärker unterschieden sich in ihrer Bandbreitenbegrenzung. Die Daten wurden mit einem Transientenrekorder mit 2 GS aufgenommen. Es wird gezeigt wie diese Daten umgewandelt werden können, so dass sie einem System mit nur 1 GS entsprechen. Dies erlaubt es die Güte der Methoden für Signale eines Systems mit 2 GS mit denen eines Systems mit 1 GS zu vergleichen. Es zeigt sich in der Pulshöhenverteilung, dass die Signale des stärker bandbreitenbegrenzten Vorverstärkers vergleichbar mit den künstlichen Signalen sind. Die Signale des weniger stark bandbreitenbegrenzten Vorverstärkers weisen eine zu starke Abhängigkeit ihrer Breite von der Pulshöhe auf. Aus diesem Grund sind die Ergebnisse des letzt genannten Vorverstärkers abweichend von den Ergebnissen mit den künstlichen Signalen. Bei diesem Vorverstärker zeigte der einfache Constant Fraction Algorithmus die beste Auflösung.
In this thesis we have studied the physics of different ultracold Bose-Fermi mixtures in optical lattices, as well as spin 1=2 fermions in a harmonic trap. To study these systems we generalized dynamical mean-field theory for a mixture of fermions and bosons, as well as for an inhomogeneous environment. Generalized dynamical mean-field theory (GDMFT) is a method that describes a mixture of fermions and bosons. This method consists of Gutzwiller mean-field for the bosons, and dynamical mean-field theory for the fermions, which are coupled on-site by the Bose-Fermi density-density interaction and possibly a Feshbach term which converts a pair of up and down fermions into a molecule, i.e. a boson. We derived the self-consistency equations and showed that this method is well-controlled in the limit of high lattice coordination number z. We develop real-space dynamical mean-field theory for studying systems in an inhomogeneous environment, e.g. in a harmonic trap. The crucial difference compared to standard DMFT is that we are taking into account that different sites are not equivalent to each other and thus take into account the inhomogeneity of the system. Different sites are coupled by the real-space Dyson equation. ...
In this work we investigate phenomenological aspects of an anisotropic quark-gluon plasma. In the first part of this thesis, we formulate phenomenologicalmodels that take into account the momentumspace anisotropy of the system developed during the expansion of the fireball at early-times. By including the proper-time dependence of the parton hard momentum scale, phard(), and the plasma anisotropy parameter, Xi, the proposed models allow us to interpolate from 0+1 pre-equilibrated expansion at early-times to 0+1 ideal hydrodynamics at late times. We study dilepton production as a valuable observable to experimentally determine the isotropization time of the system as well as the degree of anisotropy developed at early-times. We generalize our interpolating models to include the rapidity dependence of phard and consider its impact on forward dileptons. Next, we discuss how to constrain the onset of hydrodynamics by demanding two requirements of the solutions to the equations of motion of viscous hydrodynamics. We show this explicitly for 0+1 dimensional 2nd-order conformal viscous hydrodynamics and find that the initial conditions are non-trivially constrained. Finally, we demonstrate how to match the initial conditions for 0+1 dimensional viscous hydrodynamics from pre-equilibrated expansion. We analyze the dependence of the entropy production on the pre-equilibrium phase and discuss limitations of the standard definitions of the non-equilibrium entropy in kinetic theory.
Untersuchung der Konformation und Dynamik von RNA mit Hilfe fluoreszierender Farbstoffmoleküle
(2010)
Die vorliegende Arbeit beschäftigt sich mit der Untersuchung der konformationellen und elektronischen Eigenschaften sowie der Dynamik verschiedener RNA-Systeme. Zur Durchführung dieser Experimente wurde zusätzlich zu bereits vorhandenen statischen und zeitaufgelösten Absorptionsspektrometern im Rahmen dieser Arbeit eine Apparatur zur Messung von Fluoreszenzlebensdauern entwickelt, die durch die integrative Verwendung zweier verschiedener, etablierter Technologien (TCSPC und Aufkonvertierung) über einen weiten Zeitbereich von 9 Größenordnungen (100 fs - 0,1 ms) operiert. Mit diesem Aufbau konnten neben den RNA-Studien wichtige Beiträge zum Verständnis der Isomerisierung eines Retinalproteins, des Transportprozess des Membrantransportproteins TbSMR und der im Infraroten liegenden Fluoreszenz des Radikalkations von Astaxanthin gewonnen werden. Der Schwerpunkt der vorliegenden Arbeit liegt auf der Untersuchung verschiedener RNA-Systeme: So werden die optischen Eigenschaften einer 1-Ethinylpyren-modifzierten RNA-Adeninbase allein und in RNA-Strängen eingebunden untersucht. Statische Fluoreszenzmessungen zeigen einen ausgeprägten Ladungstransfercharakter des Chromophors und eine generell große Wechselwirkung zwischen Ethinylpyren und Adenin, die in einer substanziellen Änderung der optischen Eigenschaften des Pyrens resultiert. Die Untersuchung der schnellen Photodynamik von Pyrenadenin zeigt zudem eine Verringerung der Lebensdauer von Pyren um etwa 2 Größenordnungen. Pyrenadenin zeigt sowohl Fluoreszenz eines neutralen (100-200 ps), als auch eines energetisch tiefer liegenden Ladungstransferzustands (1-2 ns). Die Formationszeit des Ladungstransferzustandes fällt mit steigender Polarität des Lösemittels. Eingebunden in Modell-RNA-Stränge ist Fluoreszenzquantenausbeute des Chromophors ein deutlicher Indikator für seine Interkalation. Nur in der stabileren Umgebung von GC-Basenpaaren ist das Pyren in der Lage, sich dauerhaft innerhalb des Duplex aufzuhalten, während in einer flexibleren AU-Umgebung eine Position außerhalb des RNA-Duplex präferiert wird. Transiente Absorptionsmessungen zeigen, dass die Photophysik des in RNA eingebundenen Pyrenadenins nur kleine Variationen im Vergleich zur Photophysik des Labels allein aufweist. Die deutliche Abnahme der Quantenausbeute des interkalierten Chromophors geht hauptsächlich auf Kosten der langlebigeren Ladungstransferfluoreszenz, so dass interkaliertes Pyren insgesamt schneller in den Grundzustand zurückkehrt als nicht interkaliertes. Mit Hilfe eines doppelt modifizierten Duplex, bei dem sich jeweils ein Farbstoff an einem der beiden Stränge befindet, kann nachgewiesen werden, dass aufgrund von Exzimerwechselwirkungen eine Verschiebung des Fluoreszenzmaximums von 35 nm auftritt. Kurzzeitspektroskopische Messungen zeigen Signale, die als Superposition von Monomeren und Exzimeren interpretiert werden können, wobei die Lebensdauer des letzteren mit 18,5 ns die der Monomerkomponente um ein Vielfaches übertrifft. Ein weiterer Teil dieser Arbeit beschäftigt sich mit einer Studie zur Bindung des fluoreszenten Liganden Tetrazyklin an das Tetrazyklin bindende Aptamer. Hier wird auf Basis verschiedener Mutanten mit Hilfe des TCSPC eine Analyse der Stabilität der Bindetasche sowie mit der Stopped-Flow-Methode eine Beobachtung des Bindungsprozesses durchgeführt. Insgesamt folgt die Bindung des Tetrazyklins an das Aptamer einer zweistufigen Kinetik, deren zweiter Schritt irreversibel ist. Die Bindung läuft, verglichen mit anderen Aptameren, sehr schnell ab. Während die Mutationen von A13 und A50,die direkte Kontakte zum Substrat bilden, nur einen leichten Einfluss auf beide Bindungsschritte ausüben, führt eine Mutation der für die Präformation verantwortlichen Base A9 zu einer Verlangsamung des Bindungsprozesses um mehr als einen Faktor 20 durch eine immens gesteigerten Rückreaktionsrate des ersten Bindungsschritts. Hieraus lässt sich schließen, dass bei fehlender Präformation des Aptamers nur wenige Tetrazyklinmoleküle ein für vollständige Bindung geeignetes Aptamer vorfinden. Die Bindung an A13 und A50 geschieht bereits im ersten Schritt des Bindungsprozesses. Ferner konnte anhand von Lebensdauermessungen gezeigt werden, dass nach dem Wildtyp die Mutante A9G die stabilste Bindetasche aufwies. Das Fehlen eines direkten Kontaktes wirkt sich deutlich stärker aus. Insbesondere führt die Abwesenheit der Fixierung des Gegenions durch A50 zu der instabilsten Bindetasche. Wie in dieser Arbeit gezeigt wird, ist die zeitaufgelöste optische Spektroskopie insbesondere in Verbindung mit fluoreszierenden Molekülen ein ausgezeichnetes Mittel zur Beobachtung von Struktur und Dynamik von RNA. Die Empfindlichkeit von Fluoreszenz auf die Veränderung der Umgebung des Chromophors erlaubt es, Konformationsdynamik und elektronische Konfigurationen in Echtzeit zu beobachten.
Die vorliegende Arbeit bietet zunächst einen weiteren Beweis für die Existenz des neutralen Heliumdimers. Darüber hinaus konnten zwei verschiedene Prozesse identifiziert werden, über die die Absorbtion eines Photons zur Ionisation beider Atome des Dimers über sehr große Abstände führen kann. Oberhalb einer Photonenenergie von 65,4 eV konnte ein ICD Prozess beobachtet werden, der über Photoionisation mit gleichzeitiger Anregung von einem der beiden Atome realisiert wird. Bei 77,86 eV konnte ICD über elektronisch angeregte Zustände bis n=6 nachgewiesen werden. In der KER-Verteilung konnten zudem Strukturen gefunden werden, die auf Vibrationsanregungen im Zwischenzustand des Dimer-Ions schließen lassen. Eine vollständig quantenmechanische Rechnung von Sisourat et al. konnte dies schließlich hervorragend bestätigen. Es konnte also ein direkter Blick auf die Vibrationswellenfunktionen des Systems erlangt werden. In anderen Systemen ist dies in der Regel nicht möglich, da sich alle Zustände üblicherweise zu einer strukturlosen Verteilung überlagern. Weiterhin konnte gezeigt werden, dass sich die Winkelverteilungen von ICD- und Photoelektronen in verschiedenen Bereichen des KER mitunter stark voneinander unterscheiden. Dies konnte auf die unterschiedliche Besetzung von verschiedenen Potentialkurven zurückgeführt werden. Unterhalb der Photonenenergieschwelle zur Anregung und Ionisation eines Heliumatoms konnte ein weiterer, zweistufiger Ionisationsmechanismus gefunden werden. Hier wird zunächst durch Photoionisation ein Elektron aus einem der beiden Atome im Dimer freigesetzt. Dieses Photoelektron kann nun am neutralen Atom gestreut werden und dabei ausreichend viel Energie übertragen, um dieses ebenfalls zu ionisieren. Es konnte gezeigt werden, dass der Prozess einer Abhängigkeit von der Polarisation der Synchrotronstrahlung unterliegt, die man für Photoionisation erwarten würde. Die Energie- und Winkelverteilungen der Elektronen konnten daher mit vorangegangenen Elektronenstoß-Experimenten verglichen werden. Die gute Übereinstimmung mit diesen Daten rechtfertigt eine anschauliche Sichtweise des Prozesses als Analogon zum klassischen Billiard-Stoß. Der Two-Step-Prozess wurde bisher zwar schon in vielen Systemen als theoretisches Modell zur Doppelionisation beschrieben, allerdings konnten die einzelnen Unterprozesse bisher nicht gesondert gemessen werden. Die großen Abstände im Heliumdimer ermöglichen erstmals eine deutliche Trennung in Photoionisation an einem Atom und Elektronenstoß (e,2e) am Nachbaratom. Der Two-Step-Prozess konnte außerdem dazu verwendet werden, die ungewöhnliche Grundzustandswellenfunktion des Heliumdimers zu experimentell zu bestätigen. Eine Analyse des gemessenen KER konnte dabei deutliche Abweichungen zu einer klassischen Theorie aufzeigen. Erst eine vollständig quantenmechanische Rechnung des Übergangs von Sisourat et al. konnte die Messdaten beschreiben.
Mit der vorliegenden Arbeit wurden zu ersten Mal die seit mehreren Jahren vorhergesagten dynamischen Aufbruchsmechanismen - der direkte, der sequentielle und der asynchrone Zerfall - in mehratomigen Molekülen kinematisch vollständig untersucht. Experimentell wurde hierfür ein Kohlenstoffdioxid-(CO2)-Molekül in langsamen Ion-Molekül Stößen dreifach ionisiert, indem die Elektronen des Targets von den langsamen, hochgeladenen Projektilionen (Ar8+-Ionen) eingefangen wurden. Die Untersuchung des Zerfalls des CO2-Ions in die einfach geladenen ionischen Fragmente C+ + O+ + O+ zeigte, dass bei diesem Zerfall das Projektilion vornehmlich einen positiven Ladungszustand von q = 6 und nicht den zunächst erwarteten Ladungszustand q = 5 aufweist. Dies ist darauf zurückzuführen, dass die eingefangenen Elektronen oftmals elektronisch hoch angeregte Zustände im Projektil populieren und demnach im weiteren Verlauf über Autoionisationsprozesse dieses auch wieder verlassen können. Ähnliche Autoionisationsprozesse können auch im Target ablaufen, treten dort jedoch mit einer geringeren Wahrscheinlichkeit auf, da der Wirkungsquerschnitt für Autoionisationsprozesse im Target um einen Faktor 1,3 kleiner ist als für Autoionisationen im Projektil. Zusätzlich zeigte die Untersuchung der Stoßdynamik, dass der dreifache Elektroneneinfang primär bei einer parallelen Orientierung der Molekülachse zur Projektilstrahlachse auftritt. Eine weitere Abhängigkeit der Stoßdynamik zum Beispiel vom Stoßparameter beziehungsweise vom Streuwinkel konnte nicht beobachtet werden. Durch die koinzidente Messung aller vier Reaktionsteilchen konnte der Kanal Ar8+ + CO2 --> Ar6+ + C+ + O+ + O+ eindeutig bestimmt werden und die Reaktionsdynamik des CO2-Ions nach dem Stoß analysiert werden. Dabei tritt deutlich der direkte Aufbruch hervor, bei welchem die drei einfach geladenen Ionen sich rein aufgrund ihrer Coulombkräfte voneinander abstoßen. Bei einer solchen Coulombexplosion bleibt dem Molekülion kaum Zeit, um eine molekulare Schwingung zu vollführen. Neben diesem schnellen Zerfall konnten aber auch jene Zerfälle beobachtet werden, bei denen das Molekülion zuerst molekular schwingt und dann zu einem späteren Zeitpunkt in die ionischen Fragmente zerfällt. Dieser letztere Zerfallsprozess gehört zu den sogenannten asynchronen Zerfallsmechanismen. Er stellt einen Zwischenprozess zwischen dem reinen 1-Stufen-Prozess wie dem direkten Aufbruch und dem reinen 2-Stufen-Prozess dar. Bei solchen sequentiellen 2-Stufen Prozessen fragmentiert das CO2-Molekül im ersten Schritt in ein O+- und ein CO2+-Ion. Im zweiten Schritt dissoziiert dann das CO2+-Fragment, nachdem es nahezu keine Wirkung der Coulombkräfte des ersten Sauerstoffions mehr spürt, in ein C+- und ein O+-Ion. Durch die Darstellung der Schwerpunktsimpulse der Fragmente in Dalitz- und Newton-Diagrammen ist es mit dieser Arbeit erstmals gelungen diesen sequentiellen Prozess experimentell eindeutig nachzuweisen. In der weiteren Analyse konnte gezeigt werden, dass über die im System deponierte Energie, welche über die kinetische Energie der Fragmente bestimmt wird, die verschiedenen Reaktionsmechanismen direkt kontrolliert werden können. Speziell bei Energien unterhalb von 20 eV wurde gezeigt, dass es keine Potentialflächen gibt, die über einen direkten bzw. simultanen Aufbruch zu dem Endzustand C+ + O+ + O+ führen. Bei mehratomigen Molekülen erweist sich das Treffen detaillierter Aussagen über mögliche Dissoziationskanäle ohne die genaue Kenntnis der Lage der Potentialflächen und den Übergängen zwischen diesen als äußerst schwierig. Selbst bei genauer Kenntnis der Lage und Form der Potentialflächen, ist es aufgrund der hohen Dichten innerhalb der Übergangsbereiche der Potentialflächen nahezu unmöglich, den Verlauf der Dissoziationskanäle zu verfolgen. Mit dieser Arbeit ist es gelungen, die verschiedenen Reaktionskanäle ohne die Existenz von Energiepotentialflächen eindeutig zu identifizieren. Außerdem konnte gezeigt werden, dass die Energie, die während des Stoßes im Molekül deponiert wird, eine Schlüsselgröße darstellt, mit welcher die Fragmentationskanäle direkt kontrolliert werden können.
This work reports on the study of the projectile x-ray emission in relativistic ion-atom collisions. Excitation of K-shell in He-like uranium ions, electron capture into H-like uranium ions and Simultaneous ionization and excitation of initially He-like uranium ions have been studied using the experimental storage ring at GSI. Information about the population of the excited states for the H- and He-like uranium ions, can be obtained by measuring the angular distribution of the decay radiation. Since the Ly_alpha2 transition is isotropic, the intensities of the Ly_alpha1 and K_alpha transitions were normalized to the Ly_alpha2 line. For the K_alpha1 and K_alpha2 transitions originating from the excitation of the He-like uranium ions, no alignment was observed. In contrast, the Ly_alpha1 radiation from the simultaneous ionization-excitation process of the He-like uranium ions shows a clear alignment. It is shown that the alignment of Ly_alpha1 was obtained by the Alignment parameter A_20. The experimental value leads to the inclusion of a magnetic term in the interaction potential. It is interesting to note that in the case of the Ly_alpha1 emission the small M2 contribution added coherently to the E1 transition amplitudes enhances the anisotropy. The capture process of target electrons into the highly-charged heavy ions was studied using H-like uranium ions at an incident energy of 220 MeV/u, impinging on N2 gas-target. It was shown that, the strongly aligned electrons captured in 2p3/2 level will couple with the available 1s1/2 electron which shows no initial directional preference. The magnetic sub-state population of the 2p3/2 electron will be redistributed according to the coupling rules to the magnetic sub-states of the relevant two-electron states. Consequently, the 1^P1 and 3^P2 states are corresponding to the the strongly aligned 2p3/2 state. This leads to the large anisotropy in the corresponding individual ground state transitions contributing to the K_alpha1 emission. Due to the fact that the 1^P1 --> 1^S0 and 3^P2 --> 1^S0 transitions are experimentally not resolved, a more detailed analysis of the angular dependence of the K_alpha1 radiation is required. From the K_alpha1/K_alpha2 ratio, the current results show that the incoherent addition of the E1 and M2 transition components yield to an almost isotropic emission of the total K_alpha1. In contrast to the radiative electron capture, the experimental results for the K-shell single excitation of He-like uranium ions indicate that only the 1^P1 level contributes to the K_alpha1 transition. For this case, the anisotropy parameter beta_20 was found to be -0.20 + 0.03 which is similar to that one calculated for pure E1 transition. This work also reports on the study of a two-electron process: the simultaneous ionization and excitation occurring in relativistic collisions of heavy highly-charged ions with gaseous targets. The investigation was performed on He-like uranium ions impinging upon xenon gas-target at an incident energy of 220 MeV/u. The measurements have been performed at the ESR gas-target using atomic xenon with a typical area density of 10^12 particles/cm^2. In contrast to the solid state target, the use of gas target offers the advantage of clear separation of the one step two-electron process due to the fact that the probability of two consecutive collision in such thin targets is negligible and the double step processes can be excluded. During the process of simultaneous ionization and excitation in He-like uranium ions, one of the ground-state electrons is promoted into the continuum and the other into the L-subshell states of the projectile. To select this process, the Lyman-series radiation has been measured at various observation angles in coincidence with up-charged projectiles (U^91+). From the yields of the Ly_alpha1 and Ly_alpha2 projectile radiation, the relative cross section for the process of simultaneous ionization and excitation was directly determined. The angle dependent measurement of the radiation yields provide information about the angular distributions of the emitted radiation and permits the determination of the alignment parameter A_{20}. This parameter gives information on the level population and the collision impact parameter. The present results (b^exp = 810 fm) show that the simultaneous ionization and excitation is a process which occurs at small impact parameter.
The HADES (High Acceptance DiElectron Spectrometer) is an experimental
apparatus installed at the heavy-ion synchrotron SIS-18 at GSI, Darmstadt.
The main physics motivation of the HADES experiment is the measurement
of e+e− pairs in the invariant-mass range up to 1 GeV/c2 in heavy-ion collisions
as well as in pion and proton-induced reactions.
The HADES physics program is focused on in-medium properties of the light
vector mesons ρ(770), ω(783) and φ(1020), which decay with a small branching
ratio into dileptons. Dileptons are penetrating probes which allow to study
the in-medium properties of hadrons. However, in heavy-ion collisions, the
measurement of such lepton pairs is difficult because they are rare and have a
very large combinatorial background.
Recently, HADES has been upgraded with new detectors and new electronics
in order to handle higher intensity beams and reactions with heavy nuclei up
to Au.
HADES will continue for a few more years its rich physics program at its
current place at SIS-18 and then move to the upcoming international Facility
for Antiproton and Ion Research (FAIR) accelerator complex. In this context
the physics results presented in this work are important prerequisites for the investigation
of in-medium vector meson properties in p + A and A+A collisions.
This work consists of five chapters. The first chapter introduces the physics
motivation and a review of recent physics results. In the second chapter, the
HADES spectrometer is described and its sub-detectors are presented. Chapter
three deals with the issue of lepton identification and the reconstruction of
the dielectron spectra in p + p collisions is presented. Here, two reactions
are characterized: inclusive and exclusive dilepton production reactions. From
the spectra obtained, the corresponding cross sections are presented with the
respective statistical and systematical errors. A comparison with theoretical
models is included as well. Conclusions are given in chapter four.
The final part of this work is dedicated to the HADES upgrade, whose goal
is among others the achievement of a reliable and fast data acquisition of the
Multiwire Drift Chambers (MDCs). Chapter five presents my contribution to
this successful project during the three years of my stay at GSI.
This thesis investigates the development of early cognition in infancy using neural network models. Fundamental events in visual perception such as caused motion, occlusion, object permanence, tracking of moving objects behind occluders, object unity perception and sequence learning are modeled in a unifying computational framework while staying close to experimental data in developmental psychology of infancy. In the first project, the development of causality and occlusion perception in infancy is modeled using a simple, three-layered, recurrent network trained with error backpropagation to predict future inputs (Elman network). The model unifies two infant studies on causality and occlusion perception. Subsequently, in the second project, the established framework is extended to a larger prediction network that models the development of object unity, object permanence and occlusion perception in infancy. It is shown that these different phenomena can be unified into a single theoretical framework thereby explaining experimental data from 14 infant studies. The framework shows that these developmental phenomena can be explained by accurately representing and predicting statistical regularities in the visual environment. The models assume (1) different neuronal populations processing different motion directions of visual stimuli in the visual cortex of the newborn infant which are supported by neuroscientific evidence and (2) available learning algorithms that are guided by the goal of predicting future events. Specifically, the models demonstrate that no innate force notions, motion analysis modules, common motion detectors, specific perceptual rules or abilities to "reason" about entities which have been widely postulated in the developmental literature are necessary for the explanation of the discussed phenomena. Since the prediction of future events turned out to be fruitful for theoretical explanation of various developmental phenomena and a guideline for learning in infancy, the third model addresses the development of visual expectations themselves. A self-organising, fully recurrent neural network model that forms internal representations of input sequences and maps them onto eye movements is proposed. The reinforcement learning architecture (RLA) of the model learns to perform anticipatory eye movements as observed in a range of infant studies. The model suggests that the goal of maximizing the looking time at interesting stimuli guides infants' looking behavior thereby explaining the occurrence and development of anticipatory eye movements and reaction times. In contrast to classical neural network modelling approaches in the developmental literature, the model uses local learning rules and contains several biologically plausible elements like excitatory and inhibitory spiking neurons, spike-timing dependent plasticity (STDP), intrinsic plasticity (IP) and synaptic scaling. It is also novel from the technical point of view as it uses a dynamic recurrent reservoir shaped by various plasticity mechanisms and combines it with reinforcement learning. The model accounts for twelve experimental studies and predicts among others anticipatory behavior for arbitrary sequences and facilitated reacquisition of already learned sequences. All models emphasize the development of the perception of the discussed phenomena thereby addressing the questions of how and why this developmental change takes place - questions that are difficult to be assessed experimentally. Despite the diversity of the discussed phenomena all three projects rely on the same principle: the prediction of future events. This principle suggests that cognitive development in infancy may largely be guided by building internal models and representations of the visual environment and using those models to predict its future development.
This dissertation connects two independent fields of theoretical neuroscience: on the one hand, the self-organization of topographic connectivity patterns, and on the other hand, invariant object recognition, that is the recognition of objects independently of their various possible retinal representations (for example due to translations or scalings). The topographic representation is used in the presented approach, as a coordinate system, which then allows for the implementation of invariance transformations. Hence this study shows, that it is possible that the brain self-organizes before birth, so that it is able to invariantly recognize objects immediately after birth. Besides the core hypothesis that links prenatal work with object recognition, advancements in both fields themselves are also presented. In the beginning of the thesis, a novel analytically solvable probabilistic generative model for topographic maps is introduced. And at the end of the thesis, a model that integrates classical feature-based ideas with the normalization-based approach is presented. This bilinear model makes use of sparseness as well as slowness to implement "optimal" topographic representations. It is therefore a good candidate for hierarchical processing in the brain and for future research.
In der vorliegenden Dissertation wird die Frage der Vereinheitlichung der Quantentheorie mit der Allgemeinen Relativitätstheorie behandelt, wobei entsprechend dem Titel der Arbeit der Beziehung der Grundbegriffe der beiden Theorien die entscheidende Bedeutung zukommt. Da das Nachdenken über Grundbegriffe in der Physik sehr eng mit philosophischen Fragen verbunden ist, werden zur Behandlung dieser Thematik zunächst in einem Kapitel, das die vier jeweils drei Kapitel umfassenden Teile vorbereitet, die Entwicklung der Theoretischen Physik betreffende wissenschaftstheoretische Betrachtungen sowie einige wesentliche Gedanken aus der Klassischen Philosophie vorgestellt, welche für die weitere Argumentation wichtig sind. Bei letzteren geht es neben einer kurzen Schilderung der Platonischen Ideenlehre in Bezug auf ihre Relevanz für die Physik insbesondere um die Kantische Auffassung von Raum und Zeit als a priori gegebenen Grundformen der Anschauung, deren Bezug zur Evolutionären Erkenntnistheorie ebenfalls thematisiert wird. In den beiden ersten Teilen werden die wesentlichen Inhalte der Allgemeinen Relativitätstheorie und der Quantentheorie vorgestellt, wobei der Deutung der beiden Theorien jeweils ein Kapitel gewidmet wird. In Bezug auf die Allgemeine Relativitätstheorie wird diesbezüglich die Bedeutung der Diffeomorphismeninvarianz herausgestellt und in Bezug auf die Quantentheorie wird zunächst die Grundposition der Kopenhagener Deutung verdeutlicht, die im Mindesten als eine notwendige Bedingung zum Verständnis der Quantentheorie angesehen wird, um anschließend eine Analyse und Interpretation des Messproblems und vor allem entscheidende Argumente für die grundlegende Nichtlokalität der Quantentheorie zu geben. Im dritten Teil der Arbeit wird die seitens Carl Friedrich von Weizsäcker in der zweiten Hälfte des letzten Jahrhunderts entwickelte Quantentheorie der Ur-Alternativen beschrieben, in welcher die universelle Gültigkeit der allgemeinen Quantentheorie begründet und aus ihr die Existenz der in der Natur vorkommenden Entitäten hergeleitet werden soll, auf deren Beschreibung die konkrete Theoretische Physik basiert. Es werden sehr starke Argumente dafür geliefert, dass diese Theorie von den bislang entwickelten Ansätzen zu einer einheitlichen Theorie der Natur, welche die heute bekannte Physik in sich enthält, die vielleicht aussichtsreichste Theorie darstellt und damit die Aussicht bietet, auch für das Problem der Suche nach einer Quantentheorie der Gravitation den richtigen begrifflichen Rahmen zu bilden. Ihre große Glaubwürdigkeit erhält sie durch eine die Klassische Philosophie miteinbeziehende philosophische Analyse der Quantentheorie. Dieses Urteil behält seine Gültigkeit auch dann, wenn die Quantentheorie der Ur-Alternativen aufgrund der ungeheuren Abstraktheit der Begriffsbildung innerhalb der Theorie und der sich hieraus ergebenden mathematischen Schwierigkeiten bisher noch nicht zu einer vollen physikalischen Theorie entwickelt werden konnte. Die alles entscheidende Kernaussage dieser Dissertation besteht darin, dass aus einer begrifflichen Analyse der Quantentheorie und der Allgemeinen Relativitätstheorie mit nahezu zwingender Notwendigkeit zu folgen scheint, dass die physikalische Realität auf fundamentaler Ebene nicht-räumlich ist. Dies bedeutet, dass die These vertreten wird, dass es sich bei dem physikalische Raum, wie er gewöhnlich schlicht vorausgesetzt wird, wenn auch in unterschiedlicher Struktur, in Wahrheit nur um eine Darstellung dahinterstehender dynamischer Verhältnisse nicht-räumlicher Objekte handelt. Diese These stützt sich auf die Diffeomorphismeninvarianz in der Allgemeinen Relativitätstheorie und in noch höherem Maße auf die Nichtlokalität in der Quantentheorie, welche sich wiederum nicht nur in konkreten für die Quantentheorie konstitutiven Phänomenen, sondern dazu parallel ebenso im mathematischen Formalismus der Quantentheorie manifestiert. In Kombination mit der Kantischen Behandlung von Raum und Zeit ergibt sich damit ein kohärentes Bild in Bezug auf die eigentliche Natur des Raumes. Die Quantentheorie der Ur-Alternativen ist diesbezüglich als einzige derzeit existierende Theorie konsequent, indem sie auf der basalen Ebene den Raumbegriff nicht voraussetzt und rein quantentheoretische Objekte als fundamental annimmt, aus deren Zustandsräumen sie die Struktur der Raum-Zeit allerdings zu begründen in der Lage ist. Damit befinden sich diese fundamentalen durch Ur-Alternativen beschriebenen Objekte nicht in einem vorgegebenen Raum, sondern sie konstituieren umgekehrt den Raum. Dies ist eine Tatsache von sehr großer Bedeutung. Im vierten Teil wird schließlich die vorläufige Konsequenz aus diesen Einsichten gezogen. Nach einer kurzen Behandlung der wichtigsten bisherigen Ansätze zu einer quantentheoretischen Beschreibung der Gravitation, wird die Bedeutung der Tatsache, dass die Allgemeine Relativitätstheorie und die Quantentheorie eine relationalistische Raumanschauung nahelegen, nun konkret in Bezug auf die Frage der Vereinheitlichung der beiden Theorien betrachtet. Das bedeutet, dass das Ziel also letztlich darin besteht, einen Ansatz zu einer quantentheoretischen Beschreibung der Gravitation zu finden, bei der so wenig räumliche Struktur wie möglich vorausgesetzt wird. In Kapitel 12 wird diesbezüglich ein von mir entwickelter Ansatz vorgestellt, um zumindest eine Theorie zu formulieren, bei der die metrische Struktur der Raum-Zeit nicht vorausgesetzt sondern in Anlehnung an die Eigenschaften eines fundamentalen Spinorfeldes konstruiert wird, das im Sinne der Heisenbergschen einheitlichen Quantenfeldtheorie die Elementarteilchen einheitlich beschreiben soll. Dieser Ansatz geht bezüglich der Sparsamkeit der Verwendung von a priori vorhandener räumlicher Struktur über die bisherigen Ansätze zu einer Quantentheorie der Gravitation hinaus. Er ist aber dennoch nur als ein erster Schritt zu verstehen. Die konsequente Weiterführung dieses Ansatzes würde in dem Versuch bestehen, eine Verbindung zur von Weizsäckerschen Quantentheorie der Ur-Alternativen herzustellen, die überhaupt keine räumliche Struktur mehr voraussetzt. Hierzu konnten bisher nur aussichtsreiche Grundgedanken formuliert werden. Es wird allerdings basierend auf den in dieser Dissertation dargelegten Argumentationen die Vermutung aufgestellt, dass es im Rahmen der von Weizsäckerschen Quantentheorie der Ur-Alternativen möglich ist, eine konsistente quantentheoretische Beschreibung der Gravitation aufzustellen. In jedem Falle scheint die Quantentheorie der Ur-Alternativen die einzige Theorie zu sein, die aufgrund ihrer rein quantentheoretischen Natur in ihrer Begriffsbildung grundsätzlich genug ist, um eine Aussicht zu bieten, diejenige Realitätsebene zu erfassen, in welcher die Dualität zwischen der Quantentheorie und der Allgemeinen Relativitätstheorie zu einer Einheit gelangt.
Fullerene, Nanoröhren und auch anderen hohlen Strukturen können Atome oder Moleküle in ihrem Inneren einschliessen. In solchen Systemen beeinflussen sich die einschliessenden und eingeschlossenen Strukturen gegenseitig, und es existiert eine Vielzahl unterschiedlicher Effekte: Änderungen der Energieeigenwerte, Änderungen der Elektronenstruktur sowie Ladungsaustausch zwischen den beiden Teilen des Systems. All diese Effekte beeinflussen die Absorbtionsspektren beider Systembestandteile. In dieser Arbeit liegt der Schwerpunkt auf einem dieser Effekte: Dem dynamischen Abschirmungseffekt. Den dynamischen Abschrimungseffekt findet man insbesondere bei solchen Systemen, bei denen die einschliessende Struktur viele delokalisierte Elektronen besitzt. Zu solchen Systemen gehören zum Beispiel endohedrale Komplexe sowie "Nano Peapods" (Nanoröhren mit eingeschlossenen Atomen oder Molekülen). Ursächlich für den dynamischen Abschirmungseffekt ist die Tatsache, dass die Elek- tronen des umschliessenden Käfigs die eingeschlossene Struktur gegen elektromagentische Wellen abschirmen. Mit anderen Worten: Dass das elektrische Feld sowohl innerhalb als auch ausserhalb der einschliessenden Struktur wird vom polarisierenden Feld der einschliessenden Struktur beein°usst. Klassisch betrachtet ist die Photoabsorbtionsrate eines Objektes proportional zu der Intensität eines elektrischen Feldes. Somit unterscheidet sich die Photoabsorbtionsrate (und auch der Wirkungsquerschnitt) der gleichen elektromagnetischen Welle einer Struktur innerhalb eines Einschlusses von der Photoabsorbtionsrate eines freien Atoms oder Moleküls. Der dynamische Abschirmungsfaktor dient als Beschreibung des Verhältnisses dieser beiden Wirkungsfaktoren. Darüber hinnaus können, da die Käfigstruktur viele delokalisierte Elektronen besitzt, Elektronen gemeinsam angeregt werden und somit Plasmons hervorrufen. Wenn sich die Frequenz der anregenden elektromagentischen Strahlung der Resonanzfrequenz dieser Plasmonen annähert, wird das polarisierende Feld besonders gross. Im Endeffekt beobachtet man nahe der Plasmon-Frequenz einen starken Anstieg des Wirkungsquerschnittes der eingeschlossenen Struktur. Der Schwerpunkt in dieser Arbeit liegt auf einer spezifischen Art von System: Endo- hedrale Komplexe. Diese Strukturen wurden mit einem klassichen Ansatz untersucht. Die Fullerene wurden, da sie viele delokalisierte Elektronen besitzen als dielektrische Schalen modelliert, mit der dielektrischen Funktion eines freien Elektronengases. Dabei ist der dynamische Abschrimfaktor durch Auswertung des gesamten elektrischen Feldes am Ort des Atoms im Vergleich zur Stärke des externen elektrischen Feldes definiert. Der dynamische Abschrimungsfaktor wurde für eine Vielzahl unterschiedlicher Situationen untersucht. Im einfachsten Fall, bei dem die Polarisierbarkeit des eingeschlossenen Atoms vernachlässigbar klein ist, ist der dynamische Abschirmfaktor unabhängig von der Position des Atoms innerhalb des Fullerens. Die Veranderung des elektrischen Feldes wird vollständig von der dynamischen Reaktion des Fullerens auf das externe Feld bestimmt. Da das Fulleren von endlicher Dicke ist (definiert duch die räumliche Ausdehnung der Elektronenwolke), besitzt es zwei Oberflächen. Die Wirkung der elektromagnetischen Welle induziert oszillierende Oberflächen-Ladungs-Dichten. Die Oberflächen-Ladungs-Dichten wechselwirken und erzeugen somit zwei Plasmon Eigenmoden: eine symmetrische Mode bei der beide Ladungsdichten in Phase oszillieren und eine antisymmetrische bei denen sie gegen-phasig oszillieren. Der dynamische Abschirmfaktor eines solchen eingeschlossenen Atoms zeigt zwei ausgeprägte Peaks, welche eine Manifestation dieser beiden Oberflächen-Plasmone sind. Die Wechselwirkung zwischen diesen Plasmon-Moden wurde untersucht. Darüber hinnaus wurde der Einfluss der Grösse des Käfigs untersucht; mit Fallbeispielen für C20, C60, C240 und C960 [2, 3]. Im Grenzfall eines unendlich dünnen Fulleren-Käfigs ist nur ein einelnes Oberflächen-Plasmon zu beachten. Als nächstes wurde der Einfluss des eingeschlossenen Atoms untersucht [3{5]. Wenn dessen Polarisierbarkeit gross ist, wird ein reziproker Einfluss des Dipol-Moments des Atoms auf das Fulleren messbar. Dies wurde zunächst unter der Annahme eines zentral angeodneten Atoms für die folgenden drei Fälle untersucht: Ar@C60, Xe@C60 and Mg@C60. Der dynamische Abschirmfaktor verÄanderte sich dabei nur wenig. Der stärkste Einfluss auf das Verhalten des Abschirmfaktors ensteht durch Unstetigkeiten in der Polarisierbarkeit des Atoms nahe dessen Ionisierungs-Schwelle. Die Wahl dieser drei Fallstudien ist durch die quantenmechanischen Berechnungen von [7-9] motiviert. Der Vergleich mit diesen Berechnungen zeigt hohe Übereintismmungen für Ar@C60 und Xe@C60. Allerdings fanden sich auch grosse Unterschiede für Mg@C60, vor allem bei niedriger Photonen-Energie. Das Fulleren besitzt zwei Arten von Valenzelektronen: Die ¼-Elektronen und die stärker gebundenen ¾-Elektronen. Dies führt zum Auftreten zweier Oberflächen-Plasmons in Fullerenen. Dabei ist allgemein bekannt, dass das Buckminster-Fulleren ein Plasmon nahe 8 eV, sowie ein deutlich größeres nahe 20 eV besitzt. Diese sind mit den ¼-Elektronen, respektive den ¾-Elektronen verknüpft (auch wenn ¼-Elektronen zusÄatzlich zu dem ¾-Plasmon beitragen). Aufgrund dieser Tatsache wäre es angemessener, die Valenzelektronen nicht als Ein-, sondern als Zwei-Komponenten-Elektronen-Gas zu behandeln. Um dies miteinzubeziehen, passten wir unser Modell dahingehend an, dass wir das Fulleren als zwei unabhängige kozentrische dielektrische Schalen simulieren. Die Valenzelektronen wurden so auf die zwei Schalen aufgeteilt, dass eine Schlale alle Elektronen enthielt, die Teil des ¼{Plasmons sind, und die andere alle Beteiligten am ¾{Plasmon [4, 5]. Der Vergleich dieses modifizierten Modelles mit den quanten{mechanischen Berechnungen zeigte eine deutlich verbesserte Übereintismmung der Ergebnisse. Alle Merkmale der Berechnungen, vor allem das deutliche Maximum nahe 10 eV bei Mg@C60, konnten reproduziert und damit erklärt werden. Bedingt durch die endliche Dicke der Fulleren-Schale spalten jeder der beiden Plasmonen in jeweils zwei Plasmon Eigenmoden auf. Daher zeigt der dynamische Abschirm-Faktor nun vier Haupt{Eigenschaften welche die vier Plasmon-Moden abbilden. Nichtsdestotrotz zeigen sich immer noch quantitative Unterschiede im Falle von Mg@C60. Fürr Ar@C60 und Xe@C60, bei welchen das ursprÄungliche Modell bereits gute Fits zeigte, werden diese Fits durch die Anpassungen im Modell sogar noch verbessert. Interessanterweise zeigen sich die größten Veränderungen des dynamischen Abschirm-Faktors bei niedrigen Photonen{Energien, also im Bereich des ¼-Plasmons. Betrachtet man den Querschnitt dieses Fulleren Modells, so zeigt der Querschnitt Eigenschaften die den vier Ober°Äachen{Plasmon{Moden des Fullerens zugeordnet werden. Vergleicht man dies mit anderen theoretischen Arbeiten [12] und einer Sammlung verschiedener experimenteller Messungen [10], so zeigt sich, dass alle SchlÄussel{Eigenschaften des Querschnittes in unserem Modell vorhanden sind. Abschlie¼end wurde die Abhängigkeit des dynamische Abschirm-Faktors von der Position des endohedralen Atoms innerhalb des Fullerens anhand zweier Fallstudien, Ar@C60 und Ar@C240 [3, 4], untersucht. Die Ergebnisse zeigen, dass der dynamische Abschirmfaktor relativ unempfindlich gegenüber Veränderung des Positions-Winkels des Atoms ist. Die radiale Position hingegen stellte sich als sehr wichtig heraus. Je mehr sich das Atom der Fulleren-Hülle nähert, desto grösser wird der dynamische Abschirmfaktor. Diese Studien zeigen, dass es notwendig ist, eine Art räumlichen Mittelwertes für den dynamische Abschirmfaktor zu bestimmen, um sichtbare Resultate zu erhalten. Im Rahmen dieser Arbeit wurde daher eine Methode für solch einen Mittelwert entwickelt [3, 4]. Neben der Untersuchung des dynamische Abschirm-Faktors wurde auch ein Vergleich mit experimentellen Messungen erarbeitet. Im Falle von Ce@C82 war die Photon{Energiespanne sehr hoch, weit über der Plasmon-Energie des Fullerens. Das Fulleren sollte daher für eine solche Bestrahlung durchlässig sein, und daher würde man keinen dynamischen Abschirmungs-Effekt finden können. Der Vergleich für Sc3N@C80 ist komplizierter. Da es sich dabei um ein rein klassisches Modell handelt, muss man achtgeben, es nicht mit dem vollständig freien Komplex zu vergleichen, sondern zusätzlich quanten{mechanische Effekte aus Confinements, wie zum Beispiel Elektronen{Transfers, miteinzubeziehen. Zudem ist das aktuelle Modell zu dynamischer Abschirmung nicht für Moleküle, sondern nur für einzelen Atomeentwickelt worden. Ein erster naiver Vergleich, in welchem der Endohedrale Komplex als Pseudo{Atom modelliert wurde, konnte die breite Struktur der experimentellen Ergebnisse nicht wiedergeben. Berechnungen des dynamischen Abschirmfaktors und des daraus resultierenden Querschnittes für ein einzelnes Scandium{Ion zeigte, dass auch räumliches Mitteln nicht ausreicht um die experi-mentellen Beobachtungen erklären zu können. Die Anwesenheit des Fullerens führt zur Öffnung eines neuen Kanals innerhalbdes Auger Prozesses [6, 11] und damit zur Verbreiterung der atomaren Spektrallinienweite. Berücksichtigt man diesen Effekt, so kann die ÄAhnlichkeit zu den experimentellen Ergebnissen deutlich erhöht werden. Allerdings ist es wichtig dabei auch die räumlichen Abhängigkeiten des Effekts, wie auch die der dynamischen Abschirmung, zu beachten. Erste vorläufige Ergebnisse deuten an, dass die beiden genannten Effekte, zumindest teilweise, dabei helfen können, die experimentell gefunden Ergebnisse zu erklären. Unser Modell zur Berechnung des dynamischen Abschirmfaktors liefert eine detaillierte Beschreibung und mögliche Erklärungen der diskutierten Phänomene, welche über die bisherige Arbeiten in der theoretischen Literatur hinausgehen. Die wichtigen Eigenschaften der experimentellen Arbeiten konnten mit dem Modell reproduziert werden, und mit der Verbreiterung der atomaren Spektrallinienweite und der dynamischen Abschirmung konnten wir zwei Effekte als mögliche bisher nicht berücksichtigete Erklärungen für einige dieser Eigenschaften herausarbeiten.
Within this thesis, an experimental study of the photo double ionization (PDI) and the simultaneous ionization-excitation is performed for lithium in different initial states Li (1s22l) (l = s, p). The excess energy of the linearly polarized VUV-light is between 4 and 12 eV above the PDI-threshold. Three forefront technologies are combined: a magneto-optical trap (MOT) for lithium generating an ultra-cold and, by means of optical pumping, a state-prepared target; a reaction microscope (ReMi), enabling the momentum resolved detection of all reaction fragments with high-resolution and the free-electron laser in Hamburg (FLASH), providing an unprecedented brilliant photon beam at favourable time structure to access small cross sections. Close to threshold the total as well as differential PDI cross sections are observed to critically depend on the excitation level and the symmetry of the initial state. For the excited state Li (1s22p) the PDI dynamics strongly depends on the alignment of the 2p-orbital with respect to the VUV-light polarization and, thus, from the population of the magnetic substates (mp = 0, ±1). This alignment sensitivity decreases for increasing excess energy and is completely absent for ionization-excitation. Time-dependent close-coupling calculations are able to reproduce the experimental total cross sections with deviations of at most 30%. All the experimental observations can be consistently understood in terms of the long range electron correlation among the continuum electrons which gives rise to their preferential back-to-back emission. This alignment effect, which is observed here for the first time, allows controlling the PDI dynamics through a purely geometrical modification of the target initial state without changing its internal energy.
A basic introduction to RFQs has been given in the first part of this thesis. The principle and the main ideas of the RFQ have been described and a small summary of different resonator concepts has been given. Two different strategies of designing RFQs have been introduced. The analytic description of the electric fields inside the quadrupole channel has been derived and the limitation of these approaches were shown. The main work of this thesis was the implementation and analysis of a Multigrid Poisson solver to describe the potential and electric field of RFQs which are needed to simulate the particle dynamics accurately. The main two ingredients of a Multigrid Poisson solver are the ability of a Gauß-Seidel iteration method to smooth the error of an approximation within a few iteration steps and the coarse grid principle. The smoothing corresponds to a damping of the high frequency components of the error. After the smoothing, the error term can well be approximated on a coarser grid in which the low frequency components of the error on the fine grid are converted to high frequency errors on the coarse grid which can be damped further with the same Gauß-Seidel method. After implementation, the multigrid Poisson solver was analyzed using two different type of test problems: with and without a charge density. After illustrating the results of the multigrid Poisson solver, a comparison to the field of the old multipole expansion method was made. The multipole expansion method is an accurate representation of the field within the minimum aperture, as limited by cylindrical symmetry. Within these limitations the multigrid Poisson solver and the multipole expansion method agree well. Beyond the limitation the two method give different fields. It was shown that particles leave the region in which the multipole expansion method gives correct fields and that the transmission is affected therefrom as well as the single particle dynamic. The multigridPoisson solver also gives a more realistic description of the field in the beginning of the RFQ, because it takes the tank wall into account, and this effect is shown as well. Closing the analysis of the external field, the transmission and fraction of accelerated particles of the set of 12 RFQs for the two different methods were shown. For RFQs with small apertures and big modulations the two different method give different values for the transmission due to the limitation of the multipole expansion method. The internal space charge fields without images was analyzed at the level of single particle dynamic and compared to the well known SCHEFF routine from LANL, showing major differences for the analyzed particle. For comparing influences on the transmissions of the set of 12 RFQs a third space charge routine (PICNIC) was considered as well. The basic shape of the transmission curve was the same independent of space charge routines, but the absolute values differ a little from routine to routine, with SCHEFF about 2% lower than the other routines. The multigrid Poisson solver and PICNIC agree quite well (less than 1%), but PICNIC has an extremely long running time. The major advantage of the multigrid Poisson solver in calculating space charge effects compared to the other two routines used here is that the Poisson solver can take the effect of image charges on the electrodes into account by just changing the boundaries to have the shape of the vanes whereas all other settings remain unchanged. It was demonstrated that the effect of image charges on the vanes on the space charge field is very big in the region close to the electrodes. Particles in that region will see a stronger transversely defocusing force than without images. The result is that the transmission decreases by as much as 10% which is considerably more than determined by other (inexact) routines before. This is an important result, because knowing about the big effect of image charges on the electrodes it allows it to taken into account while designing the RFQ to increase the performance of the machine. It is also an important factor in resolving the traditional difference observed between the transmission of actual RFQs and the transmission predicted by earlier simulations. In the last chapter of this thesis some experimental work on the MAFF (Munich Accelerator for Fission Fragments) IH-RFQ is described. The machine was assembled in Frankfurt and a beam test stand was built. The shunt impedance of the structure was measured using different techniques, the output energy of the structure were measured and finally its transmission was determined and compared to the beam dynamics simulations of the RFQ. Unfortunately, the transmission measurements were done without exact knowledge of the beam’s emittance. So the comparison to the simulation is somewhat rough, but with a reasonable guess of the emittance a good comparison between the measurement and simulation was obtained.
Das Ziel der vorliegenden Arbeit war der Einbau, die Inbetriebnahme, die Abstimmung und der Test eines Strahlmatchingsystems in eine Zweistrahl-RFQ-Beschleunigerstruktur. Dieses Strahlmatchingsystem wurde entwickelt, um die Beschleunigereinheit des Frankfurter Funneling-Experimentes besser an die nachfolgende HF-Deflektoreinheit anzupassen und um zu zeigen, dass ein Strahlmatching innerhalb der RFQ-Beschleunigerstruktur möglich ist. Des Weiteren wurden die zum Versuch gehörigen Ionenquellen modifiziert, um eine bessere Anpassung der Strahlherstellung an die Beschleunigerstruktur zu erreichen. Die Spannungsverteilung in der Beschleunigerstruktur selbst wurde durch weitergehende Tuningmaßnahmen verbessert, um die Teilchenverluste weiter zu minimieren Mit dem Funnelingexperiment soll experimentell geprüft werden, ob eine Strahlstromerhöhung durch das Zusammenführen mehrerer Ionenstrahlen verschiedener Ionenquellen möglich ist. Solch ein System ist für einige Zukunftsprojekte (HIDIF, SNS-Ausbau, ESS, u.ä.), die große Strahlströme benötigen, die nicht aus nur einer Ionenquelle extrahiert werden können, erforderlich. Das in dieser Arbeit behandelte Strahlmatching ist für das Experiment notwendig, da zu große Teilchenverluste in der Funnelsektion entstanden und somit eine bessere Anpassung des Strahls an den HF-Deflektor erforderlich wurde. Es konnte gezeigt werden, dass die hier verwendete Art der Strahlfokussierung auch in eine komplizierte RFQ-Beschleunigerstruktur integrierbar ist, in der zwei Strahlkanäle auf der gleichen Stützen-Bodenplatten-Konstruktion aufgebaut sind. Die Verlängerung der Endelektroden und die Integration einer Strahlanpassung haben einen positiven Einfluss auf die Transsmission innerhalb des Beschleunigers und verbessern die Transmission durch den Deflektor. Es konnten Energiemessungen und zeitaufgelöste Faradaytassenmessungen der Teilchenbunche sowie zeitaufgelöst Makropulse mit der Faradaytasse gemessen werden. Floureszensschirmmessungen zeigten, dass die beiden Teilchenstrahlen auf eine neue gemeinsame Strahlachse gebogen wurden. Die Energiemessung zeigte, dass die Simulationen mit RFQSIM sehr genau die Endenergie der Teilchen berechnen konnte. Im Strahlkreuzungspunkt hinter dem Zweistrahl-RFQ-Beschleuniger konnten nahezu identische Teilchenbunche erzeugt werden. Diese Teilchenbunche wiesen zudem die in vorherigen Simulationen errechneten Charakteristika auf, in denen eine transversale und eine longitudinale Fokussierung gegenüber dem ungematchten Strahl simuliert wurden. Es konnte auch eine weitere Strahlradiusreduzierung gemessen werden, die auf eine exaktere Justierung der Elektroden zurückzuführen ist. Die Phasenfokussierung konnte verbessert werden, indem die Elektrodenspannung besser an die Strahlmatchingsektion angepasst wurde. Hierzu mussten auch die Einschussparameter der Strahlen in die Beschleuniger angepasst werden, damit die Transmission der Beschleuniger sich nicht verschlechterte. Insgesamt konnte mit den durchgeführten Experimenten erstmals demonstriert werden, dass zwei Strahlen in einem RFQ-Beschleuniger auf einen Punkt hinter dem Beschleuniger angepasst werden können und die Spannungsverteilung in solch einer Struktur durch Tuningmaßnahmen abstimmbar ist. Es konnte erstmals demonstriert werden das über 90% der Teilchen beider Strahlen, bei guten Strahleigenschaften, auf eine neue gemeinsame Strahlachse abgelenkt (gefunnelt) wurden.
The aim of this work is to develop an effective equation of state for QCD, having the correct asymptotic degrees of freedom, to be used as input for dynamical studies of heavy ion collisions. We present an approach for modeling an EoS that respects the symmetries underlying QCD, and includes the correct asymptotic degrees of freedom, i.e. quarks and gluons at high temperature and hadrons in the low-temperature limit. We achieve this by including quarks degrees of freedom and the thermal contribution of the Polyakov loop in a hadronic chiral sigma-omega model. The hadronic part of the model is a nonlinear realization of an sigma-omega model. As the fundamental symmetries of QCD should also be present in its hadronic states such an approach is widely used to describe hadron properties below and around Tc. The quarks are introduced as thermal quasi particles, coupling to the Polyakov loop, while the dynamics of the Polyakov loop are controlled by a potential term which is fitted to reproduce pure gauge lattice data. In this model the sigma field serves a the order parameter for chiral restoration and the Polyakov loop as order parameter for deconfinement. The hadrons are suppressed at high densities by excluded volume corrections. As a next step, we introduce our new HQ model equation of state in a microscopic+macroscopic hybrid approach to heavy ion collisions. This hybrid approach is based on the Ultra-relativistic Quantum Molecular Dynamics (UrQMD) transport approach with an intermediate hydrodynamical evolution for the hot and dense stage of the collision. The present implementation allows to compare pure microscopic transport calculations with hydrodynamic calculations using exactly the same initial conditions and freeze-out procedure. The effects of the change in the underlying dynamics - ideal fluid dynamics vs. non-equilibrium transport theory - are explored. The final pion and proton multiplicities are lower in the hybrid model calculation due to the isentropic hydrodynamic expansion while the yields for strange particles are enhanced due to the local equilibrium in the hydrodynamic evolution. The elliptic and directed flow are shown to be not sensitive to changes in the EoS while the smaller mean free path in the hydrodynamic evolution reflects directly in higher flow results which are consistent with the experimental data. This finding indicates qualitatively that physical mechanisms like viscosity and other non equilibrium effects play an essentially more important role than the EoS when bulk observables like flow are investigated. In the last chapter, results for the thermal production of MEMOs in nucleus-nucleus collisions from a combined micro+macro approach are presented. Multiplicities, rapidity and transverse momentum spectra are predicted for Pb+Pb interaction at different beam energies. The presented excitation functions for various MEMO multiplicities show a clear maximum at the upper FAIR energy regime making this facility the ideal place to study the production of these exotic forms of multistrange objects.
In order to fully understand the new state of matter formed in heavy ion collisions, it is vital to isolate the always present final state hadronic contributions within the primary Quark-Gluon Plasma (QGP) experimental signatures. Previously, the hadronic contributions were determined using the properties of the known mesons and baryons. However, according to Hagedorn, hadrons should follow an exponential mass spectrum, which the known hadrons follow only up to masses of M = 2 GeV. Beyond this point the mass spectrum is flat, which indicates that there are "missing" hadrons, that could potentially contribute significantly to experimental observables. In this thesis I investigate the influence of these "missing" Hagedorn states on various experimental signatures of QGP. Strangeness enhancement is considered a signal for QGP because hadronic interactions (even including multi-mesonic reactions) underpredict the hadronic yields (especially for strange particles) at the Relativistic Heavy Ion Collider, RHIC. One can conclude that the time scales to produce the required amount of hadronic yields are too long to allow for the hadrons to reach chemical equilibrium within the lifetime of a cooling hadronic fireball. Because gluon fusion can quickly produce strange quarks, it has been suggested that the hadrons are born into chemical equilibrium following the Quantum Chromodynamics (QCD) phase transition. However, we show here that the missing Hagedorn states provide extra degrees of freedom that can contribute to fast chemical equilibration times for a hadron gas. We develop a dynamical scheme in which possible Hagedorn states contribute to fast chemical equilibration times of X X pairs (where X = p, K, Lambda, or Omega) inside a hadron gas and just below the critical temperature. Within this scheme, we use master equations and derive various analytical estimates for the chemical equilibration times. Applying a Bjorken picture to the expanding fireball, the hadrons can, indeed, quickly chemically equilibrate for both an initial overpopulation or underpopulation of Hagedorn resonances. We compare the thermodynamic properties of our model to recent lattice results and find that for both critical temperatures, Tc = 176 MeV and Tc = 196 MeV, the hadrons can reach chemical equilibrium on very short time scales. Furthermore the ratios p/pi, K/pi , Lambda/pi, and Omega/pi match experimental values well in our dynamical scenario. The effects of the "missing" Hagedorn states are not limited to the chemical equilibration time. Many believe that the new state of matter formed at RHIC is the closet to a perfect fluid found in nature, which implies that it has a small shear viscosity to entropy density ratio close to the bound derived using the uncertainty principle. Our hadron resonance gas model, including the additional Hagedorn states, is used to obtain an upper bound on the shear viscosity to entropy density ratio, eta/s, of hadronic matter near Tc that is close to 1/(4pi). Furthermore, the large trace anomaly and the small speed of sound near Tc computed within this model agree well with recent lattice calculations. We also comment on the behavior of the bulk viscosity to entropy density ratio of hadronic matter close to the phase transition, which qualitatively has a different behavior close to Tc than a hadron gas model with only the known resonances. We show how the measured particle ratios can be used to provide non-trivial information about Tc of the QCD phase transition. This is obtained by including the effects of highly massive Hagedorn resonances on statistical models, which are generally used to describe hadronic yields. The inclusion of the "missing" Hagedorn states creates a dependence of the thermal fits on the Hagedorn temperature, TH , and leads to a slight overall improvement of thermal fits. We find that for Au+Au collisions at RHIC at sqrt{sN N} = 200 GeV the best square fit measure, chi^2 , occurs at TH = Tc = 176 MeV and produces a chemical freeze-out temperature of 172.6 MeV and a baryon chemical potential of 39.7 MeV.
In this work we study compact stars, i.e. neutron stars, as cosmic laboratories for the nuclear matter. With a mass of around 1 - 3 solar masses and a radius of around 10km, compact stars are very dense and, besides nucleons, can contain exotic matter such as hyperons or quark matter. The KaoS collaboration studied nuclear matter for densities up to 2-3 times saturation density by analysing kaon multiplicities from Au+Au and C+C collisions. The results show that nuclear matter in the corresponding density region is very compressible, with a compressibility of <200MeV. For such soft nuclear equations of state the maximum masses of neutron stars are ca. 1.8 - 1.9 solar masses, whereas the central densities are higher than 5 times nuclear saturation density and therefore point towards a possible phase transition to quark matter. If quark matter would be present in the interior of neutron stars, so-called hybrid stars, it could be produced already during their birth in supernova explosions. To study this we implement a quark matter phase transition in a hadronic equation of state which is used in supernova simulations. Supernova simulations of low and intermediate mass progenitors and two different bag constants show a collapse of the proto neutron star due to the softening of the equations of state in the quark-hadron mixed phase. The stiffening of the equation of state for pure quark matter halts the collapse and leads to the production of a second shock wave. The second shock wave is energetic enough to lead to an explosion of the star and produces a neutrino burst when passing the neutrinospheres. Furthermore, first studies of the longtime cooling of hybrid stars show, that colour superconductivity can significantly influence the cooling behaviour of hybrid stars, if all quarks form Cooper Pairs. For the so-called CSL phase (colour-spin locking) with pairing energies of several MeV, the cooling of the quark phase is suppressed and the hybrid star appears as a pure hadronic star.
Direct photon emission from heavy-ion collisions has been calculated and compared to available experimental data. Three different models have been combined to extract direct photons from different environments in a heavy-ion collision: Thermal photons from partonic and hadronic matter have been extracted from relativistic, non-viscous 3+1-dimensional hydrodynamic calculations. Thermal and non-thermal photons from hadronic interactions have been calculated from relativistic transport theory. The impact of different physics assumptions about the thermalized matter has been studied. In pure transport calculations, a viscous hadron gas is present. This is juxtaposed with ideal gases of hadrons with vacuum properties, hadrons which undergo a chiral and deconfinement phase transition and with a system that has a strong first-order phase transition to a deconfined ideal gas of quarks and gluons in the hybrid model calculations with the various Equations of State. The models used for the determination of photons from both hydrodynamic and transport calculations have been elucidated and their numerical properties tested. The origin of direct photons, itemised by emission stage, emission time, channel and baryon number density, has been investigated for various systems, as have the transverse momentum spectra and elliptic flow patterns of direct photons. The differences of photon emission rates from a thermalized transport box and the hadronic photon emission rates that are used in hydrodynamic calculations are found to be very similar, as are the spectra from calculations of heavy-ion collisions with transport model and hybrid model with hadronic Equation of State. Taking into account the full (vacuum) spectral function of the rho-meson decreases the direct photon emission by approximately 10% at low photon transverse momentum. The numerical investigations show that the parameter with the largest impact on the direct photon spectra is the time at which the hydrodynamic description is started. Its variation shows deviations of one to two orders of magnitude. In the regime that can be considered physical, however, the variation is less than a factor of 3. Other parameters change the direct photon yield by up to approximately 20%. In all systems that have been considered -- heavy-ion collisions at E_lab = 35 AGeV and 158 AGeV, (s_NN)**1/2 = 62.4 GeV, 130 GeV and 200 GeV -- thermal emission from a system with partonic degrees of freedom is greatly enhanced over that from hadronic systems, while the difference between the direct photon yields from a viscous and a non-viscous hadronic system (transport vs. hydrodynamics) is found to be very small. Predictions for direct photon emission in central U+U-collisions at 35 AGeV have been made. Since non-soft photon sources are very much suppressed at this energy, experimental results should very easily be able to distinguish between a medium that is entirely hadronic and a system that undergoes a phase transition from partonic to hadronic matter. In the case of lead-lead collisions at 158 AGeV, the situation is not so clear. In central collisions, the complete direct photon spectra including prompt photons seem to favour hadronic emission sources, while the partonic calculations only slightly overpredict the data. In peripheral collisions at the same energy, the hadronic contribution is more than one order of magnitude smaller than the prompt photon contribution, which fits the available experimental data. A similar picture presents itself at higher energies. At RHIC energies, however, the difference between transport calculations and hadronic hybrid model calculations is largest. Hybrid model calculations with partonic degrees of freedom can describe the experimental results in gold-gold collisions at 200 GeV. The elliptic flow component of direct photon emission is found to be consistently positive at small transverse momenta. This means that the initial photon emission from a non-flowing medium does not completely overshine the emission patterns from later stages. High-pt photons dominantly come from the beginning of a heavy-ion collision and therefore do not carry the directed information of an evolving medium.
This dissertation is devoted to the study of thermodynamics for quantum gauge theories.The poor convergence of quantum field theory at finite temperature has been the main obstacle in the practical applications of thermal QCD for decades. In this dissertation I apply hard-thermal-loop perturbation theory, which is a gauge-invariant reorganization of the conventional perturbative expansion for quantum gauge theories to the thermodynamics of QED and Yang-Mills theory to three-loop order. For the Abelian case, I present a calculation of the free energy of a hot gas of electrons and photons by expanding in a power series in mD/T, mf /T and e2, where mD and mf are the photon and electron thermal masses, respectively, and e is the coupling constant.I demonstrate that the hard-thermal-loop perturbation reorganization improves the convergence of the successive approximations to the QED free energy at large coupling, e ~ 2. For the non-Abelian case, I present a calculation of the free energy of a hot gas of gluons by expanding in a power series in mD/T and g2, where mD is the gluon thermal mass and g is the coupling constant. I show that at three-loop order hard-thermal-loop perturbation theory is compatible with lattice results for the pressure, energy density, and entropy down to temperatures T ~ 2 - 3 Tc. The results suggest that HTLpt provides a systematic framework that can be used to calculate static and dynamic quantities for temperatures relevant at LHC.
Im Zentrum dieser Arbeit stehen die Überstrukturphasen des Yb-Cu-Systems. Als Ausgangspunkt für die Kristallzüchtung wird die kongruent schmelzende Verbindung YbCu4:5 gewählt. Um einen genauen Einblick in das Erstarrungsverhalten dieser Phase zu erhalten, werden zunächst im Bereich zwischen 17.3 und 22.4 at-% Yb eine Reihe von DSC-Messungen durchgeführt. Die Ergebnisse lassen sich nur bedingt mit den in der Literatur veröffentlichten Phasendiagrammen (Moffat [Mo92] bzw. Massalski [Ma90] und Giovannini et al. [Gi08]) vereinbaren. Zwar kann eine kongruent schmelzende Phase der Zusammensetzung YbCu4:5 nachgewiesen werden, die Messungen deuten aber die Existenz zusätzlicher Verbindungen an, die allerdings mit Hilfe der EDX-Analyse nicht weiter spezifiziert werden können. Um diese Phasen genauer zu analysieren, werden Einkristallzüchtungsversuche nach der Bridgman-Methode im Bereich zwischen 19 und 19.2 at-% Yb durchgeführt und mittels Einkristallbeugungsmethoden (SC-XRD und SAED) charakterisiert. Auf diese Weise können neben YbCu4:5 die bisher noch unbekannten berstrukturphasen YbCu4:4 und YbCu4:25 nachgewiesen werden, deren Schmelztemperaturen mittels DSC-Untersuchungen zu 934(2)°C und 931(3)°C bestimmt werden. Die Entdeckung der beiden Verbindungen bestätigt die von Cerný et al. [Ce03] bisher nur theoretisch vorhergesagte Existenz der Überstrukturphasen SECux (x=4.4 und 4.25) für das Yb-Cu-System. Mit Hilfe von Polarisations- und Rasterelektronenmikroskopie und unter Anwendung der Laue-Methode wird das Wachstumsverhalten dieser Überstrukturphasen analysiert. Man beobachtet ein Schichtwachstum, wobei sich die Schichten parallel zur a- und b-Richtung ausbilden und in c-Richtung gestapelt vorliegen. Da eine zuverlässige Unterscheidung der YbCux-Verbindungen nur mit Hilfe von Einkristallbeugungsmethoden gelingt, wird im Rahmen dieser Arbeit untersucht, inwiefern eine Charakterisierung mittels Pulverdiffraktometrie möglich ist. Die Messungen mit Synchrotronstrahlung am ESRF in Grenoble erlauben eine eindeutige Unterscheidung der Überstrukturphasen allerdings nicht. Die Analyse des an das Überstrukturgebiet angrenzenden Zusammensetzungsbereichs von 12.5 bis 17.24 at-% Yb bestätigt die Existenz der Verbindung YbCu6:5, eine kupferärmere Phase der Zusammensetzung YbCu5 kann in den DSC-Experimenten nicht nachgewiesen werden. Die Messungen belegen die Existenz einer Phasenbreite von YbCu6:0+x mit 0 <= x <= 0:5 ist, was im Gegensatz zu dem von Giovannini et al. [Gi08] publizierten Phasendiagramm steht. SC-XRD-Aufnahmen an nach der Bridgman-Methode gezüchteten Einkristallen der Zusammensetzung YbCu6:31(9) untermauern das von Hornstra und Buschow [Ho72] gefundene Strukturmodell. Die Verschiebungen der Atompositionen bedingt durch den im Gegensatz zur YbCu5-Verbindung erhöhten Kupferanteil werden mit Hilfe der gemessenen und berechneten Paarverteilungsfunktion nachvollzogen. Phasendiagrammuntersuchungen und Einkristallzüchtungsergebnisse für weitere SE-Cu-Systeme (SE =Ho, Gd) bestätigen die Existenz der Verbindung HoCu4:5 und erhärten den Verdacht sowohl in diesem als auch in den anderen Systemen noch weitere Überstrukturphasen finden zu können.
In der Doktorarbeit wurde ein Verfahren zur Ermittlung der Schwerpunkthöhe eines Fahrzeugs aus den Messwerten von Sensoren, die serienmäßig in vielen geländegängigen Fahrzeugen verbaut sind, entwickelt. Dieses Verfahren benötigt nur die Signale von Sensoren des elektronischen Stabilitätssystems (ESP) und eines Fahrwerks mit Luftfeder. Um die Höhe des Schwerpunkts zu bestimmen, wurde ein Modell entworfen, das die Drehbewegung des Fahrzeugs um seine Längsachse beschreibt. Eine der unbekannten Größen in diesem Modell ist das Produkt m_g\Deltah, wobei mit m_g die gefederte Masse des Fahrzeugs und mit Deltah der Abstand zwischen dem Schwerpunkt und der Wankachse des Fahrzeugs bezeichnet wird. Die Höhe des Schwerpunkts wird berechnet, indem zu diesem Abstand der als bekannt vorausgesetzte Abstand der Wankachse von der Straße addiert wird. Es wurden drei Varianten des Modells betrachtet. Die eine Modellvariante (stationäres Modell) beschreibt das Fahrzeugverhalten nur in solchen Fahrsituationen exakt, in denen die Wankgeschwindigkeit und die Wankbeschleunigung vernachlässigbar klein sind. In dieser Modellvariante wurden die Federkräfte mit einem detaillierten Modell der Luftfeder berechnet. Eine Eingangsgröße dieses Modells ist der Druck in den Gummibälgen der Luftfeder. Um diesen Druck zu ermitteln, wurde ein Algorithmus auf dem Steuergerät des Luftfedersystems implementiert. Um die Genauigkeit des Luftfedermodells zu testen und um die Abmessungen bestimmter Bauteile der Luftfeder zu ermitteln, wurden Messungen am Federungsprüfstand durchgeführt und eine Methode entwickelt, wie aus diesen Messungen die gesuchten Größen berechnet werden können. Bei den zwei übrigen Modellvarianten (dynamisches Modell) gelten die Einschränkung für die Fahrsituationen nicht. Die einzelnen Varianten des dynamischen Modells unterscheiden sich darin, dass das eine Mal die Feder- und Dämpferkonstanten als bekannt vorausgesetzt und das andere Mal aus den Sensorsignalen geschätzt werden. Passend zu jeder Modellvariante wurde ein Verfahren gewählt, mit dem Schätzwerte für das Produkt m_g\Deltah berechnet wurden. Des Weiteren wurde auch eine Methode entwickelt, mit der die Masse mg geschätzt wurde, ohne zuvor ein Wert für das Produkt m_g\Deltah zu ermitteln. Die Schätzwerte wurden unter Verwendung von Daten ermittelt, die bei einer Simulation und bei Messfahrten gewonnen worden sind. Das Ergebnis des Vergleiches der betrachteten Modellvarianten ist, dass die eine Variante des dynamischen Modells zum Teil falsche Werte für m_g\Deltah liefert, weil die Modellgleichungen ein nicht beobachtbares System bilden. Die andere Variante dieses Modells liefert nicht bei jeder Beladung exakte Werte, was vor allem daran liegt, dass in den Modellgleichungen dieses Modells ein konstanter Wert für die Federsteifigkeit angenommen wird. Bei Fahrzeugen mit Luftfeder ändert sich jedoch dieser Wert in Abhängigkeit von der Fahrzeugmasse. Die Werte von m_g\Deltah und mg können am genauesten mit dem stationären Modell ermittelt werden. Des Weiteren wurden Methoden entwickelt, die die Genauigkeit der durch den Schätzalgorithmus ermittelten Werte verbessern. So wurde zusätzlich zu dem Produkt m_g\Deltah und der Masse mg auch die Verteilung des Gewichtes auf die Vorder- und Hinterachse betrachtet. Es wurde ermittelt, welche Zusammenhänge zwischen dieser Verteilung und dem Produkt m_g\Deltah sowie zwischen dieser Verteilung und der Masse des Fahrzeugs bestehen. So konnte der Fehler in den Schätzwerten dieser Größen minimiert werden. Außerdem wurde auch der Zusammenhang zwischen dem Produkt m_g\Deltah und der Masse des Fahrzeugs ermittelt. Damit konnten die Schätzwerte dieser Größen genauer bestimmt werden. Aus den so gewonnenen Werten kann die Schwerpunkthöhe von einem Mercedes ML auf etwa 8cm genau berechnet werden. Diese Genauigkeit reicht aus, um das elektronische Stabilitätsprogramm auf die aktuelle Beladung des Fahrzeugs abzustimmen und damit einen Gewinn an Agilität für dieses Fahrzeug zu realisieren.
The goal of this project is to develop a framework for a cell that takes in consideration its internal structure, using an agent-based approach. In this framework, a cell was simulated as many sub-particles interacting to each other. This sub-particles can, in principle, represent any internal structure from the cell (organelles, etc). In the model discussed here, two types of sub-particles were used: membrane sub-particles and cytosolic elements. A kinetic and dynamic Delaunay triangulation was used in order to define the neighborhood relations between the sub-particles. However, it was soon noted that the relations defined by the Delaunay triangulation were not suitable to define the interactions between membrane sub-particles. The cell membrane is a lipid bilayer, and does not present any long range interactions between their sub-particles. This means that the membrane particles should not be able to interact in a long range. Instead, their interactions should be confined to the two-dimensional surface supposedly formed by the membrane. A method to select, from the original three-dimensional triangulations, connections restricted to the two-dimensional surface formed by the cell membrane was then developed. The algorithm uses as starting point the three-dimensional Delaunay triangulation involving both internal and membrane sub-particles. From this triangulation, only the subset of connections between membrane sub-particles was considered. Since the cell is full of internal particles, the collection of the membrane particles' connections will resemble the surface to be obtained, even though it will still have many connections that do not belong to the restricted triangulation on the surface. This "thick surface" was called a quasi-surface. The following step was to refine the quasi-surface, cutting out some of the connections so that the ones left made a proper surface triangulation with the membrane points. For that, the quasi-surface was separated in clusters. Clusters are defined as areas on the quasi-surface that are not yet properly triangulated on a two-dimensional surface. Each of the clusters was then re-triangulated independently, using re-triangulation methods also developed during this work. The interactions between cytosolic elements was given by a Lennard-Jones potential, as well as the interactions between cytosolic elements and membrane particles. Between only membrane particles, the interactions were given by an elastic interaction. For each particle, the equation of motion was written. The algorithm chosen to solve the equations of motion was the Verlet algorithm. Since the cytosol can be approximated as a gel, it is reasonable to suppose that the sub-cellular particles are moving in an overdamped environment. Therefore, an overdamped approximation was used for all interactions. Additionally, an adaptive algorithm was used in order to define the size of the time step used in each interaction. After the method to re-triangulate the membrane points was implemented, the time needed to re-triangulate a single cluster was studied, followed by an analysis on how the time needed to re-triangulate each point in a cluster varied with the cluster size. The frequency of appearance for each cluster size was also compared, as this information is necessary to guarantee that the total time needed by to re-triangulate a cell is convergent. At last, the total time spent re-triangulating a surface was plotted, as well as a scaling for the total re-triangulation time with the variation. Even though there is still a lot to be done, the work presented here is an important step on the way to the main goal of this project: to create an agent-based framework that not only allows the simulation of any sub-cellular structure of interest but also provides meaningful interaction relations to particles belonging to the cell membrane.
Statistical physics of power flows on networks with a high share of fluctuating renewable generation
(2010)
Renewable energy sources will play an important role in future generation of electrical energy. This is due to the fact that fossil fuel reserves are limited and because of the waste caused by conventional electricity generation. The most important sources of renewable energy, wind and solar irradiation, exhibit strong temporal fluctuations. This poses new problems for the security of supply. Further, the power flows become a stochastic character so that new methods are required to predict flows within an electrical grid. The main focus of this work is the description of power flows in a electrical transmission network with a high share of renewable generation of electrical energy. To define an appropriate model, it is important to understand the general set-up of a stable system with fluctuating generation. Therefore, generation time series of solar and wind power are compared to load time series for whole Europe and the required balancing or storage capacities analyzed. With these insights, a simple model is proposed to study the power flows. An approximation to the full power flow equations is used and evaluated with Monte-Carlo simulations. Further, approximations to the distributions of power flows along the links are analytically derived. Finally, the results are compared to the power flows calculated from the generation and load data.
In nature, society and technology many disordered systems exist, that show emergent behaviour, where the interactions of numerous microscopic agents result in macroscopic, systemic properties, that may not be present on the microscopic scale. Examples include phase transitions in magnetism and percolation, for example in porous unordered media, biological, and social systems. Also technological systems that are explicitly designed to function without central control instances, like their prime example the Internet, or virtual networks, like the World Wide Web, which is defined by the hyperlinks from one web page to another, exhibit emergent properties. The study of the common network characteristics found in previously seemingly unrelated fields of science and the urge to explain their emergence, form a scientific field in its own right, the science of complex networks. In this field, methodologies from physics, leading to simplification and generalization by abstraction, help to shift the focus from the implementation's details on the microscopic level to the macroscopic, coarse grained system level. By describing the macroscopic properties that emerge from microscopic interactions, statistical physics, in particular stochastic and computational methods, has proven to be a valuable tool in the investigation of such systems. The mathematical framework for the description of networks is graph theory, in hindsight founded by Euler in 1736 and an active area of research since then. In recent years, applied graph theory flourished through the advent of large scale data sets, made accessible by the use of computers. A paradigm for microscopic interactions among entities that locally optimize their behaviour to increase their own benefit is game theory, the mathematical framework of decision finding. With first applications in economics e.g. Neumann (1944), game theory is an approved field of mathematics. However, game theoretic behaviour is also found in natural systems, e.g. populations of the bacterium Escherichia coli, as described by Kerr (2002). In the present work, a combination of graph theory and game theory is used to model the interactions of selfish agents that form networks. Following brief introductions to graph theory and game theory, the present work approaches the interplay of local self-organizing rules with network properties and topology from three perspectives. To investigate the dynamics of topology reshaping, coupling of the so called iterated prisoners' dilemma (IPD) to the network structure is proposed and studied in Chapter 4. In dependence of a free parameter in the payoff matrix, the reorganization dynamics result in various emergent network structures. The resulting topologies exhibit an increase in performance, measured by a variance of closeness, of a factor 1.2 to 1.9, depending in the chosen free parameter. Presented in Chapter 5, the second approach puts the focus on a static network structure and studies the cooperativity of the system, measured by the fixation probability. Heterogeneous strategies to distribute incentives for cooperation among the players are proposed. These strategies allow to enhance the cooperative behaviour, while requiring fewer total investments. Putting the emphasis on communication networks in Chapters 6 and 7, the third approach investigates the use of routing metrics to increase the performance of data packet transport networks. Algorithms for the iterative determination of such metrics are demonstrated and investigated. The most successful of these algorithms, the hybrid metric, is able to increase the throughput capacity of a network by a factor of 7. During the investigation of the iterative weight assignments a simple, static weight assignment, the so called logKiKj metric, is found. In contrast to the algorithmic metrics, it results in vanishing computational costs, yet it is able to increase the performance by a factor of 5.
In the present work, the problem of protein folding is addressed from the point of view of equilibrium thermodynamics. The conformation of a globular protein in solution at common temperatures is quite complicated without any geometrical symmetry, but it is an ordered state in the sense of its biological activity. This complicated conformation of a single protein molecule is destroyed upon increasing the temperature or by the addition of appropriate chemical agents, as is revealed by the loss of its activity and change of the physical properties, and so on. Once the complicated native structures having biological activity are lost, it would be natural to suppose that the native structure could hardly be restored. Nevertheless, pioneers, such as Anson and Mirsky, recognized as early as in 1925 that this was not always the case. If one defines the folded and unfolded states of a protein as two distinct phases of a system, then under the variation of temperature the system is transformed from one phase state into another and vice versa. The process of protein folding is accompanied by the release or absorption of a certain amount of energy, corresponding to the first-oder-type phase transitions in the bulk. Knowing the partition function of the system one can evaluate its energy and heat capacity under different temperatures. This task was performed in this work. The results of the developed statistical mechanics model were compared with the results of molecular dynamic simulations of alanine poylpeptides. In particular, the dependencies on temperature of the total energy of the system and heat capacity were compared for alanine polypeptides consisting of 21, 30, 40, 50 and 100 amino acids. The good correspondence of the results of the theoretical model with the results of molecular dynamics simulations allowed to validate the assumptions made about the system and to establish the accuracy range of the theory. In order to perform the comparison of the results of theoretical model and the molecular dynamics simulations it is necessary to perform the efficient analysis of the results of molecular dynamics simulations. This task was also addressed in the present work. In particular, different ways to obtain dependence of the heat capacity on temperature from molecular dynamics simulations are discussed and the most efficient one is proposed. The present thesis reports the result of molecular dynamic simulations for not only alanine polypeptides by also for valine and leucine polypeptides. In valine and leucine polypeptides, it is also possible to observe the helix↔random coil transitions with the increase of temperature. The current thesis presents a work that starts with the investigation of the fundamental degrees of freedom in polypeptides that are responsible for the conformational transitions. Then this knowledge is applied for the statistical mechanics description of helix↔coil transitions in polypeptides. Finally, the theoretical formalism is generalized for the case of proteins in water environment and the comparison of the results of the statistical mechanics model with the experimental measurements of the heat capacity on temperature dependencies for two globular proteins is performed. The presented formalism is based on fundamental physical properties of the system and provides the possibility to describe the folding↔unfolding transitions quantitatively. The combination of these two facts is the major novelty of the presented approach in comparison to the existing ones. The “transparent” physical nature of the formalism provides a possibility to further apply it to a large variety of systems and processes. For instance, it can be used for investigation of the influence of the mutations in the proteins on their stability. This task is of primary importance for design of novel proteins and drug delivering molecules in medicine. It can provide further insights into the problem of protein aggregation and formation of amyloids. The problem of protein aggregation is closely associated with various illnesses such as Alzheimer and mad cow disease. With certain modifications, the presented theoretical method can be applied to the description of the protein crystallization process, which is important for the determination of the structure of proteins with X-Rays. There many other possible applications of the ideas described in the thesis. For instance, the similar formalism can be developed for the description of melting and unzipping of DNA, growth of nanotubes, formation of fullerenes, etc.
Nanocarbon structures, such as fullerenes and nanotubes, have generated considerable interest and research, due to their unique properties and potential applications. In this thesis, we present a study of the phase transition properties of nanocarbon clusters,in particular, we pay special consideration to fullerenes. The work presented in this thesis is largely theoretical and computational in nature, employing as a tool, molecular dynamics simulations to probe the dynamic stability of fullerenes and associated nanocarbon structures such as graphenes and nanotubes.
Quasi-zweidimensionale organischen Ladungstransfersalze weisen gewisse Analogien zu den Hochtemperatur-Kupratsupraleitern (HTSL) auf. Zu nennen ist einerseits der ähnliche schichtartige Aufbau, wobei sich leitfähige und isolierende Ebenen abwechseln. Zum anderen liegt der antiferromagnetische Grundzustand in direkter Nachbarschaft zur Supraleitung und bei höheren Temperaturen wird ebenfalls die Entstehung einer Pseudo-Energielücke diskutiert. Im Gegensatz zu den HTSL können die elektronischen Eigenschaften der organischen Ladungstransfersalze jedoch leicht durch äußere Parameter wie hydrostatischen bzw. chemischen Druck - die Verwendung verschiedener Anionen X läßt sich in einem verallgemeinerten Phasendiagramm ebenfalls auf die Achse W/U abbilden, siehe Abschn. 4.2 - oder moderate Temperaturen beeinflußt werden. In den quasi-zweidimensionalen K-(BEDT-TTF)2X-Salzen ist bspw. ein moderater Druck p ~ 250 bar ausreichend, um das antiferromagnetisch-isolierende System (X=Cu[N(CN)2]Cl) auf die metallische Seite des Phasendiagramms zu verschieben, wobei dann im Grundzustand Supraleitung auftritt (Tc ~ 12,8 K). Eine Dotierung wie bei den HTSL und die damit einhergehende unerwünschte Unordnung ist nicht notwendig um einen Isolator-Metall-übergang zu induzieren. Demnach sind die experimentellen Anforderungen im Vergleich zu anderen stark korrelierten Elektronensystemen auf relativ einfache Weise zu realisieren. Auch das macht die organischen Ladungstransfersalze zu idealen Modellsystemen, um fundamentale Konzepte der theoretischen Festkörperphysik zu studieren, wovon einige bislang lediglich von akademischem Interesse waren. Erstmalig wird in dieser Arbeit die Fluktuationsspektroskopie als experimentelle Methode angewendet, um die Dynamik des TT-Elektronensystems in den quasi-zweidimensionalen organischen Ladungstransfersalzen K-(BEDT-TTF)2X bei niedrigen Frequenzen zu studieren. Ziel ist es, Informationen über die Temperatur-, Druck- und Magnetfeld-Abhängigkeit der spektralen Leistungsdichte des Widerstandsrauschens und damit über die Dynamik der Ladungsfluktuationen zu gewinnen. Insbesondere in der Nähe korrelationsgetriebener Ordnungsphänomene spielt die Dynamik der Ladungsträger eine entscheidende Rolle. Auch die Kopplung des elektronischen Systems an bestimmte strukturelle Anregungen hat Einfluß auf das Widerstandsrauschen. Zu Beginn wird eine kurze Einführung in die Signalanalyse gegeben und daran anschließend werden verschiedene Arten des Rauschens in Festkörpern dargestellt (Kap. 1). Einige der für diese Arbeit relevanten Ordnungsphänomene werden in Kap. 2 in knapper Form eingeführt, wobei auf die dynamischen Eigenschaften in der Nähe eines Glasübergangs etwas ausführlicher eingegangen wird. Nach der Vorstellung der eingesetzten Meßmethoden, des Versuchsaufbaus und der Probenkontaktierung (Kap. 3) werden die experimentellen Ergebnisse an den K-(BEDT-TTF)2X-Salzen in Kap. 4 ausführlich diskutiert.
Magnetic characteristics of metal organic low-dimensional quantum spin systems at low temperatures
(2010)
In dieser Arbeit wurden neue Klassen von niedrigdimensionalen metallisch-organischen Materialien untersucht, die es ermöglichen interessante quantenkritische Phänomene (quantum critical phenomena, QCP) wie die Bose-Einstein-Kondensation (Bose-Einstein condensation, BEC) der magnetischen Anregung in gekoppelten Spin-Dimer-Systemen, den Berezinskii-Kosterlitz-Thouless Übergang (Berezinskii-Kosterlitz-Thouless transition, BKT) und die Divergenz des magnetokalorischen Effekts (magnetocaloric effect, MCE) in Quanten-Spinsystemen beim Anlegen eines magnetischen Feldes zu beobachten. Die Niedrigdimensionalität der untersuchten Systeme war sowohl für die theoretische Beschreibung, als auch für die experimentelle Beobachtung der Phänomene von großer Bedeutung. Aus theoretischer Sicht eröffnet die Beschäftigung mit diesen Systemen die Möglichkeit, einfache Modelle zu entwickeln, die exakt lösbar sind und erlaubt somit ein qualitatives Verständnis der magnetischen Phänomene. Von experimenteller Seite ist es von größtem Interesse, dass durch das Zusammenspiel von Niedrigdimensionalität, konkurrierenden Wechselwirkungen und starker Quantenfluktuation exotische und aufregende magnetische Phänomene (quantenkritische Phänomene) entstehen, die mit verschiedenen experimentellen Methoden untersucht werden können. Um die intrinsischen Eigenschaften der quantenkritischen Phänomene zu verstehen ist es wichtig, die Phänomene an einfachen und gut kontrollierbaren niedrigdimensionalen Modellsystemen wie ein- oder zweidimensionalen Systemen zu untersuchen. ...
In this thesis, we study the properties of excitations in the systems of interacting fermions. These excitations can be bosonic such as collective modes which we handle in the first part of this thesis or fermionic like quasi particles and quasi holes. One of the important points, to investigate the excitations is their damping which corresponds to their life-time in the system. This thesis consists of two parts, where in both parts, we use the field-theoretical methods to examine the problem.
Kernpunkt dieser Arbeit ist die Untersuchung der Eigenschaften des Vakuums und des Grundzustandes von Kernmaterie anhand eines effektiven Modells. Das Lineare Sigma-Modell mit globaler chiraler U(2)R ×U(2)L-Symmetrie wurde mit (Axial-)Vektormesonen sowie dem chiralen Partner des Nukleons, der mit der Resonanz N(1535) identifiziert wird, erweitert. Die Einführung des chiralen Partners in der Spiegel-Zuordnung ermöglicht die Untersuchung zweier verschiedener Erzeugungsprozesse der Baryonenmasse: durch spontane Symmetriebrechung sowie durch einen chiral invarianten Massenterm, parametrisiert durch m0. Die Parameter des Modells werden durch experimentelle Werte der Zerfallsbreiten von N∗ → Nπ und a1 → πγ und der axialen Kopplungskonstante des Nukleons gN A , sowie durch Lattice-Berechnungen von gN∗ A fixiert. Im Rahmen dieses Modells ergibt sich für den Massenparameter m0 ∼ 500 MeV, was darauf hin deutet, dass ein beträchtlicher Anteil der Baryonenmasse nicht durch das chirale Kondensat erzeugt wird. Das Modell wird anhand des Zerfalls N∗ → Nη sowie s-Wellen-πN-Streulängen a(±) 0 validiert und zeigt gute Übereinstimmung mit dem Experiment. In Kernmaterie wird m0 durch Kondensate anderer skalarer Felder ausgedrückt, z. B. dem Tetraquark-Kondensat. Der Einfluß dieses Kondensates auf dichte Materie wird untersucht. Die Nukleonenmassen hängen stark von den Kondensaten ab und verschwinden, so wie auch die Kondensate selbst, wenn die chirale Symmetrie wieder hergestellt ist.
Lattice simulation of a center symmetric three dimensional effective theory for SU(2) Yang-Mills
(2010)
We present lattice simulations of a center symmetric dimensionally reduced effective field theory for SU(2) Yang Mills which employ thermal Wilson lines and three-dimensional magnetic fields as fundamental degrees of freedom. The action is composed of a gauge invariant kinetic term, spatial gauge fields and a potential for the Wilson line which includes a "fuzzy" bag term to generate non-perturbative fluctuations between Z(2) degenerate ground states. The model is studied in the limit where the gauge fields are set to zero as well as the full model with gauge fields. We confirm that, at moderately weak coupling, the "fuzzy" bag term leads to eigenvalue repulsion in a finite region above the deconfining phase transition which shrinks in the extreme weak-coupling limit. A non-trivial Z(N) symmetric vacuum arises in the confined phase. The effective potential for the Polyakov loop in the theory with gauge fields is extracted from the simulations including all modes of the loop as well as for cooled configurations where the hard modes have been averaged out. The former is found to exhibit a non-analytic contribution while the latter can be described by a mean-field like ansatz with quadratic and quartic terms, plus a Vandermonde potential which depends upon the location within the phase diagram. Other results include the exact location of the phase boundary in the plane spanned by the coupling parameters, correlation lengths of several operators in the magnetic and electric sectors and the spatial string tension. We also present results from simulations of the full 4D Yang-Mills theory and attempt to make a qualitative comparison to the 3D effective theory.
Bei der GSI – Helmholtzzentrum für Schwerionenforschung in Darmstadt wird im Rahmen des HITRAP-Projekts ein linearer Abbremser für schwere, hochgeladene Ionen für atomphysikalische Präzisionsexperimente in Betrieb genommen. Während der Inbetriebnahme wurden transversale Emittanzmessungen mit der Pepperpot- und der Multi-Gradienten-Methode durchgeführt, um die Emittanz des aus dem Experimentierspeicherring (ESR) extrahierten Strahls zu messen. Weiterhin wurde auch die Phasenraumverteilung des auf eine Zwischenenergie von 500keV/u abgebremsten Strahls hinter der IH-Struktur gemessen. Dazu wurden neue Auswertealgorithmen in die Analyse der digitalen Bilder integriert. Die longitudinalen Bunchstrukturmessungen des Strahls am Eintrittspunkt in den Abbremser und die Funktionsweise des Doppel-Drift Bunchers wird gezeigt. Die Konzeption und der Aufbau sowie die erste Inbetriebnahme einer neuartigen Einzelschuss-Pepperpot-Emittanzmessanlage für kleinste Strahlströme und -energien wird beschrieben, die es ermöglichen, den Strahl hinter den Abbremskavitäten zu vermessen. Zusätzlich wurden transversale Strahldynamikrechnungen durchgeführt, welche theoretische Grundlagen zur Inbetriebnahme von HITRAP lieferten. Es wird beschrieben, wie die gesamte Strahllinie vom ESR bis zum Radio-Frequenz Quadrupol nach der erfolgreichen Integration einer Abbremsroutine innerhalb des Softwarepakets COSY Infinity optimiert werden kann.
Vibronic (vibrational-electronic) transition is one of the fundamental processes in molecular physics. Indeed, vibronic transition is essential both in radiative and nonradiative photophysical or photochemical properties of molecules such as absorption, emission, Raman scattering, circular dichroism, electron transfer, internal conversion, etc. A detailed understanding of these transitions in varying systems, especially for (large) biomolecules, is thus of particular interest. Describing vibronic transitions in polyatomic systems with hundreds of atoms is, however, a difficult task due to the large number of coupled degrees of freedom. Even within the relatively crude harmonic approximation, such as for Born-Oppenheimer harmonic potential energy surfaces, the brute-force evaluation of Franck-Condon intensity profiles in a time-independent sum-over-states approach is prohibitive for complex systems owing to the vast number of multi-dimensional Franck-Condon integrals. The main goal of this thesis is to describe a variety of molecular vibronic transitions, with special focus on the development of approaches that are applicable to extended molecular systems. We use various representations of Fermi’s golden rule in frequency, time and phase spaces via coherent states to reduce the computational complexity. Although each representation has benefits and shortcomings in its evaluation, they complement each other. Peak assignment of a spectrum can be made directly after calculation in the frequency domain but this sum-over-states route is usually slow. In contrast, computation is considerably faster in the time domain with Fourier transformation but the peak assignment is not directly available. The representation in phase space does not immediately provide physically-meaningful quantities but it can link frequency and time domains. This has been applied to, herein, for example (non-Condon) absorption spectra of benzene and electron transfer of bacteriochlorophyll in the photosynthetic reaction center at finite temperature. This work is a significant step in the treatment of vibronic structure, allowing for the accurate and efficient treatment of complex systems, and provides a new analysis tool for molecular science.
Im Rahmen dieser Arbeit ist es gelungen, eine weltweit einmalige Messapparatur zu entwickeln, mit der Wasserstoffmolekülionen mittels kurzer Laserpulse ionisiert und die Reaktionsprodukte kinematisch vollständig vermessen werden können. Es wird dazu eine an die Coltrims-Technik angelehnte Detektionsmethode genutzt, bei der sowohl Protonen als auch Elektronen über den vollen Raumwinkel nachgewiesen werden können. Die H2+ -Ionen stammen aus einer Hochfrequenz-Ionenquelle und werden auf 400keV beschleunigt. Die Besetzungshäufigkeit der Vibrationsniveaus entspricht daher der Franck-Condon-Verteilung für den Übergang aus dem Grundzustand des neutralen Wasserstoffmoleküls in den elektronischen Grundzustand des Molekülions: H2 (xPg, ν = 0) → H2+ (1sσg, ν′) Dieser Ionenstrahl wird mit einem 780 nm Laserpuls der Pulslänge 40 fs überlappt. Nach der Reaktion fragmentiert das Molekülion entweder über den Dissoziationskanal H2+ + nhν ⇒ H + H+ oder über eine Ionisation gefolgt von einer Coulomb-Explosion: H2+ + nhν ⇒ H+ + H+ + e−. Die Projektile werden nach einer Driftstrecke von etwa 3 m auf einem Ionendetektor nachgewiesen. Für den Nachweis der Elektronen wurde ein spezielles Spektrometer konzipiert, das eine Unterdrückung ungewollter Elektronen erlaubt und so die Messung der Elektronen ermöglicht. Um Elektronen auszublenden, die vom Laser aus dem Restgas ionisiert werden, ist der Elektronendetektor in Flugrichtung der Ionen versetzt angebracht. Durch die unkonventionelle Ausrichtung des Lasers in einem Winkel von 20◦ relativ zur Flugrichtung der Ionen können vom Laser erzeugte Elektronen nur dann den Elektronendetektor erreichen, wenn sie aus dem bewegten Bezugsystem der Projektile stammen. Diese Unterdrückung macht die Messung der Elektronen erst möglich, hat aber auch eine nachteilige Geometrie der Verteilungen gegenüber den Detektorebenen zur Folge. Durch die Ausnutzung der Projektilgeschwindigkeit ist überdies die Benutzung eines B-Feldes zur Verbesserung der Flugzeitauflösung der Elektronen nicht möglich. Um eine Überlappung des Ionenstrahls mit dem Laserfokus zu erreichen, wurde im Bereich der Reaktionszone ein System zur Visualisierung der Strahlpositionen integriert. Dieses kann überdies für eine Intensitätseichung bei linear polarisiertem Licht verwendet werden. Bei der Reaktion kommt es durch die vergleichsweise lange Pulsdauer schon bei relativ niedrigen Intensitäten zu Dissoziationsprozessen. Das dissoziierende Molekül erreicht noch während der ansteigenden Flanke des Laserpulses auf diese Weise Abstände, bei denen der Prozess der Charge-Resonance-Enhanced-Ionization (CREI) stattfinden kann. Auch die in einem sehr engen Winkelbereich um die Polarisationsrichtung des Lasers liegende Winkelverteilung der gemessenen Protonen deutet darauf hin, dass CREI der dominante Ionisationsprozess ist. Durch die vorausgehende Dissoziation nimmt das Molekül schon vor der Ionisation eine kinetische Energie auf, so dass die gemessene KER-Verteilung einer Summe aus KERDissoziation und KERIonisation darstellt. Ein Vergleich mit den KER-Spektren des Dissoziationsprozesses zeigt, dass die aufgenommene Energie durch Dissoziation zu einem überwiegenden Anteil in einem Bereich von 0, 6 ± 0, 35 eV besitzt, während die Gesamt-KER-Verteilung deutlich höhere Werte bis zu 6 eV aufweist. Dies ermöglicht, aus der gemessenen KER-Verteilung den internuklearen Abstand zum Ionisationszeitpunkt näherungsweise zu bestimmen. Die gemessenen Elektronen weisen, ebenso wie die Protonen, eine scharfe Ausrichtung entlang der Laserpolarisation auf, was durch den Einfluss des Lasers auf dieser Achse nicht verwunderlich ist. Bei zirkularer Polarisation dagegen findet eine Netto-Beschleunigung der Elektronen senkrecht zur Richtung des elektrischen Feldes zum Ionisationszeitpunkt statt, sodass die Messung der Elektronenimpulse eine geeignete Messgröße zur Untersuchung des Ionisationsprozesses darstellt. Auf diese Art konnten Winkelverteilungen der Elektronen bezüglich der internuklearen Achse innerhalb der Polarisationsebene gemessen werden. Abhängig von KER und Elektronenergie konnte dabei eine Verdrehung der Verteilung gegenüber den klassisch erwarteten 90◦ relativ zur internuklearen Achse festgestellt werden. Die Winkelverteilung rotiert dabei mit steigendem KER entgegen des Drehsinns. Dies widerspricht der gängigen Vorstellung einer Tunnelionisation, bei der nur die Beschleunigung des Elektrons im Laserfeld eine Rolle spielt und der Einfluss des Coulomb-Potentials vernachlässigt wird. Für höhere Elektronenergien zeigt sich eine zweite konkurrierende Struktur, die für die höchsten Energien die sonst vorherrschende erste Struktur sogar dominiert. Da sich in den Protonenspektren für linear polarisiertes Licht kein Einfluss einer Ionisationsenkrecht zur Polarisationsrichtung findet, erscheint dies als Grund für die zweite Struktur in den Elektron-Winkelverteilungen als unwahrscheinlich. Eine stichhaltige und gestützte Erklärung gibt es bisher weder für die Rotation der ersten Struktur noch für die Herkunft der zweiten. Dies zeigt deutlich, dass es auch für dieses einfachste Molekülsystem noch einen erheblich Handlungsbedarf sowohl auf theoretischer als auch von experimenteller Seite gibt. Da dieses Experiment den ersten experimentellen Zugang für die direkte Untersuchung der Elektronimpulse bei der Ionisation von H2+ -Ionen in kurzen Laserpulsen darstellt, bietet sich hier die bisher einzige Möglichkeit, dieses Verhalten experimentell zu untersuchen.
Die P-Typ-ATPasen finden sich in allen Domänen des Lebens und stellen die größte Gruppe aktiver Ionentransporter in Zellen dar. Es handelt sich bei den P-Typ-ATPasen um integrale Membranproteine, die eine große Anzahl verschiedenster Ionen aktiv über eine biologische Membran transportieren. Die für diesen Ionentransport notwendige Energie wird durch Bindung und Hydrolyse von Adenosintriphosphat (ATP) und durch Phosphorylierung des Enzyms gewonnen. Diese, im cytoplasmatischen Teil gewonnene Energie, muss für den Ionentransport von der Phosphorylierungsstelle zur räumlich entfernten transmembranen Ionenbindungsstelle übertragen werden, bei dem das Protein einem Reaktionszyklus mit zwei Hauptkonformationszuständen E1 und E2 unterliegt. Zwischen diesen beiden Zuständen finden große strukturelle Änderungen statt, durch die die Ionenaffintät und die Zugänglichkeit der Ionenbindungsstelle reguliert wird. Da dieser Mechanismus der Energiegewinnung für alle Ionenpumpen dieser Art ähnlich ist, wurde die Ca2+-ATPase und die Na+/K+-ATPase als Modellproteine für die Untersuchung molekularer Mechanismen in P-Typ-ATPasen ausgewählt. Im Rahmen der vorliegenden Arbeit soll die Energietransduktion in P-Typ-ATPasen im Allgemeinen und der Protonengegentransport bzw. ein potentieller Protonentransportweg in der Ca2+-ATPase im Speziellen untersucht werden. Die beiden oben genannten Mechanismen sollen mittels computergestützter Methoden analysiert werden. Vor allem die Ca2+-ATPase ist prädestiniert für computergestützte Untersuchungen, da für diese sehr viele hochaufgelöste Röntgenstrukturdaten vorliegen, wenn auch bisher aufgrund der Größe und Komplexität des Systems nur sehr wenige theoretische Arbeiten durchgeführt wurden. Um den Energietransduktionsmechanismus in P-Typ-ATPasen zu untersuchen, wurde mittels Elektrostatik-Rechnungen der Einfluss eines elektrischen Feldes auf die verschiedenen Transmembranhelices untersucht. Dazu wurde ein Simulationssystem entwickelt, welches aus einem molekularen Kondensator besteht, der im Modell das Anlegen eines homogenen elektrischen Feldes über den Transmembranbereich simuliert. Da es sich bei dem Energietransduktionsmechanismus um einen dynamischen Prozess handelt, wurden die Elektrostatik-Rechnungen um Molekulardynamik-Simulationen erweitert. Mit diesen kann die konformelle Dynamik der P-Typ-ATPasen während der Energietransduktion in die Elektrostatik-Rechnungen einbezogen werden. Aus Spannungsklemmen-Fluorometrie-Experimenten, bei denen eine Spannung über eine Membran angelegt wird, kann geschlossen werden, dass die Helix M5 für die Energietransduktion verantwortlich ist. Mit den in dieser Arbeit durchgeführten Elektrostatik-Rechnungen konnte für verschiedene Enzymzustände der Ca2+-ATPase und für die Na+/K+-ATPase gezeigt werden, dass die Helix M5 die größten Konformeränderungen aufgrund des elektrischen Feldes aufweist. Durch die Erweiterung der Elektrostatik-Rechnungen um die Methode der Molekulardynamik-Simulation konnte zusätzlich die elektrische Feldstärke reduziert werden. Auch dabei zeigte sich, dass auf der Helix M5 die meisten Rotameränderungen durch das elektrische Feld induziert werden. Die aus Experimenten vermutete Rolle der Helix M5 als wichtiges Energietransduktionselement ließ sich mit diesen Simulationsrechnungen bestätigen. Um einen möglichen Protonenweg durch den Transmembranbereich der Ca2+-ATPase aufzuklären, wurden explizite Wassermoleküle in sechs verschiedene Enzymzustände der Ca2+-ATPase eingefügt. Aus Experimenten ist bekannt, dass in der Ca2+-ATPase ein Protonengegentransport stattfindet. Deshalb wurden für verschiedene Enzymzustände der Ca2+-ATPase mittels Elektrostatik-Rechnungen die Protonierungen der eingefügten Wassermoleküle sowie der titrierbaren Aminosäuren bestimmt. Aus den Ergebnissen dieser Rechnungen kann geschlossen werden, dass es sich bei dem Protonentransfer nicht um einen linearen Transport der Protonen handelt. Die Untersuchungen zeigen einen mehrstufigen Prozess, an dem Protonen in verschiedenen Transmembranbereichen der Ca2+-ATPase beteiligt sind. Anhand der berechneten Protonierungszustände der eingefügten Wassermoleküle und der pK-Werte der Aminosäuren im Transmembranbereich konnte weiterhin ein möglicher Protonenweg identifiziert werden.
Nonequilibrium phase transitions in chiral fluid dynamics including dissipation and fluctuation
(2011)
Chiral fluid dynamics combines the fluid dynamic expansion of a hot and dense plasma created in a heavy-ion collision with the explicit propagation of fluctuations at the chiral phase transition of quantum chromodynamics. From systems in equilibrium long-range fluctuations are expected at a conjectured critical point. Heavy-ion collisions are, however, finite in size and time and very dynamic. It is thus likely that nonequilibrium effects diminish the signal of a critical point. They can, however, stimulate phenomena at a first order phase transitions, like nucleation and spinodal decomposition. Both of phase transition scenarios are investigated in this work. Based on the linear sigma model with constituent quarks a consistent quantum field theoretical approach using the two-particle irreducible effective action is developed to derive both, the local equilibrium properties of the expanding quark fluid and the damping and noise terms in the Langevin equation of the order parameter of the phase transition, the sigma field. Within this formalism it is possible to obtain a conserved energy-momentum tensor of the coupled system. It describes the energy dissipation from the sigma field to the heat bath during relaxation. Within this model we investigate nonequilibrium phenomena in a scenario with a critical point and a first order phase transition. We observe long relaxation times at the phase transition, phase coexistence at the first order phase transition and critical slowing down at the critical point. We find a substantial supercooling in a first order phase transition in our model and due to the energy-momentum exchange also reheating is present. While at the critical point the correlation length increases slightly we find an enhanced intensity of nonequilibrium fluctuations at the first order phase transition, which leads to an increased production of sigma mesons.
Im Rahmen des Programms zur Intensitätserhöhung am Universal Linear Accelerator UNILAC für das Element Uran hat sich die Forderung nach einer Ionenquelle ergeben, die einen intensiven, hochbrillianten Ionenstrahl aus vierfach geladenen Uranionen bereitstellen kann. Ziel war es, im Zusammenspiel von Ionenquelle, Nachbeschleunigungssystem und Niederenergiestrahlführung einen Strahlstrom von mindestens 15 emA U4+ am Eingang des RFQ-Beschleunigers bereitzustellen. Die vorliegende Arbeit befaßt sich mit den Optimierungen und den experimentellen Untersuchungen an der Vakuumbogenionenquelle VARIS für den Uranbetrieb, welche schließlich ihre Leistungsfähigkeit an der Beschleunigeranlage der GSI erfolgreich unter Beweis gestellt hat. Der erste Teil dieser Arbeit widmet sich der Theorie der Vakuumbogenentladung unter besonderer Berücksichtigung der Erzeugung von U4+. Die Generierung von U4+ erfolgt dabei zu einem Teil im dichten Kathodenspotplasma, wo das Ionisationspotential von 31 auf 21 eV herabgesetzt ist, U4+ also bei vergleichsweise niedrigen Elektronenenergien erzeugt werden kann. Der U4+-Anteil beträgt jedoch nur 30 %. Die Erzeugung eines höheren Anteils an U4+ ist geknüpft an zusätzlich Ionisationsvorgänge im expandierenden Zwischenelektrodenplasma, für welches eine neuartige Theorie (MHD Ansatz) angegeben werden konnte. Für die Vakuumbogenentladung im axialen Magnetfeld konnte eine Erhöhung der Elektronentemperatur vorhersagt werden, die für eine höhere Ionisationsrate für U4+ verantwortlich ist. Für die Elektronentemperatur wurde bei einer magnetischen Flußdichte von 40 mT ein Wert von 10 eV vorhergesagt, welcher experimentell bestätigt werden konnte. Zieht man zudem die berechneten Wirkungsquerschnitte für die Ein- und Mehrfachionisation heran, so konnte aus den Wirkungsquerschnitten vorausgesagt werden, daß für die Produktion eines hohen Anteils an U4+ eine Elektronenenergie von zirka 50 eV für die Generierung von U4+ aus U3+ erforderlich ist. Im weiteren wurde ausgeführt, wie ein Extraktionssystem ausgelegt sein muß, welches den Forderungen nach einem Gesamtstrom von 140 mA entspricht oder diesen übertrifft. Das Erreichen dieses Stroms ist im Einlochextraktionssystem mit Schwierigkeiten verbunden (große Emissionsfläche, langes Extraktionssystem, Extraktionsspannung zirka 180 kV). Aus diesen Gründen ist die Entscheidung zugunsten eines Extraktionssystem mit 13 Öffnungen mit einem Durchmesser von jeweils 3 mm gefallen. Die Gesamtemissionsfläche aller Aperturen liegt bei 0,92 cm2. Zur Bestimmung der Strahlformierung einer Öffnung im Extraktionssystem ist das Strahlsimulationsprogramm KOBRA3INP unter Berücksichtigung einer experimentell gut zugänglichen Feldstärke von 11 kV/mm bei einem Aspektverhältnis von 0,5 genutzt worden. Es ergab sich ein minimaler Divergenzwinkel von etwa 55 mrad, die unnormierte effektive Emittanz geht mit steigender Stromdichte asymptotisch einem Wert von 65p mm mrad entgegen. Für das Extraktionssystem (13 Öffnungen) kann die unnormierte effektive Emittanz zu 610p mm mrad abgeschätzt werden. Die Stromdichte, welche der Plasmagenerator bereitstellen muß, beträgt etwa 1600 A/m2. Die Extraktionsspannung liegt bei 32 kV, welche, ebenso wie die Stromdichte, experimentell erreicht wurde. Bei den experimentellen Untersuchungen wurde zunächst untersucht, inwieweit die Impedanz des Vakuumbogenplasmas gesteigert werden kann. Ziel war es, eine möglichst hohe Plasmaimpedanz und damit eine hohe Bogenspannung zu erhalten, wodurch die erreichbare Elektronenenergie vergrößert wird (Regelung der Bogenspannung durch die Plasmaimpedanz). Es ist gezeigt worden, daß die Impedanz vor allem durch eine geeignete Magnetfeldkonfiguration erhöht werden kann (axiales Feld). Ebenso sind die Geometrie der Ionenquelle (Abstand Kathode-Anode 15 mm, Anodenöffnung 15 mm) und die verwendeten Materialien (Anode aus Edelstahl, kleiner Sputterkoeffizient und Sekundärelektronenaus97 löse) entscheidend, wobei zugunsten eines zuverlässigen Zündverhaltens der Ionenquelle die Entscheidung für eine Anodenöffnung von 15 mm statt 25 mm gefallen ist. So erreicht man für eine magnetische Flußdichte von 120 mT bei einem Bogenstrom von 700 A eine Bogenspannung von 54 V, wodurch die Erzeugung bis zu sechsfach geladenen Uranionen möglich wird. Um grundlegende Eigenschaften des Vakuumbogenplasmas zu bestimmen und das theoretische Modell zur Erzeugung von U4+ zu überprüfen, wurden die Ionen- und Elektronenenergieverteilung im Plasma gemessen ...
This work deals with the use of dielectrics with high permeability, so-called high-k dielectrics in organic thin-film field-effect transistors (FETs). The central part was the preparation of the high-k dielectric and its implementation in transistors, in which organic semiconductors were used as active layer. A field-effect transistor can be used to measure the charge carrier mobility. Employing high-k dielectrics the carrier concentration in the active layer can be greatly increased. In this way, high charge carrier concentrations in organic layers can be achieved without chemical doping. As high-k dielectric strontium titanate (STO) was selected. It is also available as a niobium-doped and therefore conducting substrate material. Thus, one has an ideal substrate for the growth of the dielectric layer in conjunction with a substrate which acts as gate electrode. As the organic semiconductor the small molecules pentacene and copper phthalocyanine (CuPc) were sublimated, as electrical contacts gold was used. As a key part of this work an ultra high vacuum chamber system was constructed for in situ preparation of field effect transistors. For the deposition of the organic thin films a molecular beam deposition chamber was built, including a manipulator and effusion cells as evaporation sources. For the preparation of the dielectric a sputtering chamber was set-up. Another chamber was used in conjunction with an effusion cell for the deposition of the gold contacts. For the structured deposition of the different layers in the devices a shadow mask system was implemented. Movable masks could be positioned by means of a wobble stick onto the sample carriers. The system thus allowed for the use of masks in all chambers. The different thin films required in the transistor structure were first individually prepared and characterized. For the characterization primarily X-ray diffraction and optical microscopy were used. The growth of pentacene was analyzed on aplha-AlO substrates. With X-ray diffraction the (00l) reflections of the thin film phase were observed. In growth studies of CuPc aplha-AlO and STO substrates were used. With X-ray diffraction the aplha-phase was detected. With increasing substrate temperature an increase in crystallinity, but also an increase in surface roughness was observed. The sputtering of STO as a high-k dielectric was studied and optimized. Simultaneously, a high deposition rate, a smooth film surface and good crystallinity of the layer were required. As the most important parameters the substrate temperature, pressure and sputtering power were identified. Argon and oxygen were employed as sputtering gases, as substrate MgO was used. The films showed in comparison to crystalline STO a distortion to larger lattice constants. The degree of distortion decreased with increasing chamber pressure, on the other hand, deposition rate decreased with increasing chamber pressure as well. By combining the individual deposition processes FETs in bottom-gate geometry were prepared. The first step was always sputtering of the STO dielectric on niobium-doped STO substrates. Subsequently, the electrodes and the organic layer were deposited. For comparison transistors on silicon substrates with silicon dioxide (SiO2) as the dielectric were prepared. To study the transistor properties a measurement setup was build. A dielectric constant of about 190 for the STO in the transistors was achieved. The transistors with CuPc as active layer showed p-type conduction behavior. The transistors with STO as dielectric had a much stronger response than those with SiO2. They reached mobilities of 2E-4 cm2/Vs at very low applied voltages of 3V. It could thus be demonstrated that STO is suitable as a dielectric for organic FETs, and that through the use of high-k dielectrics high charge carrier densities can be achieved.
Ziel der durchgeführten Experimente dieser Arbeit war es, den Versuch zu unternehmen, Cooper-Paare als Träger des supraleitenden Stroms direkt mit Hilfe des Photoelektrischen Effektes nachzuweisen. Die Methode der koinzidenten Photoelektronenspektroskopie zielt dabei auf den Nachweis von zwei kohärent emittierten Elektronen durch die Wechselwirkung mit einem Photon ab. Da elektrostatische Analysatoren typischerweise nur einen sehr kleinen Raumwinkel erfassen, was mit sehr geringen Koinzidenzraten einhergeht, ist im Zusammenhang mit dieser Arbeit ein Flugzeitprojektionssystem entwickelt worden, welches nahezu den gesamten Raumwinkel auf einem ortsauflösenden Detektor abbildet. Die zur Messung erforderliche gepulste Lichtquelle in Form von spezieller Synchrotronstrahlung ist so schwach eingestellt worden, daß nur vereinzelt Photonen auf die Probe gelangen konnten. Spektroskopiert wurde neben Testmessungen an Silberschichten sowohl ein Blei-Einkristall als Vertreter der klassischen BCS-Supraleiter als auch einkristallines Bi2Sr2CaCu2O8 aus der Gattung der Hochtemperatursupraleiter. Mit Anregungsenergien bis 40 eV konnte gezeigt werden, daß hinreichend glatte und saubere Oberflächen in der supraleitenden Phase innerhalb des Auflösevermögens von ungefähr 0.5 eV keine erkennbaren, signifikanten Unterschiede im Vergleich zur normalleitenden Phase aufweisen. Neben diesen Untersuchungen ist weiterhin ausführlich die einfache Photoemission an den verschiedenen Proben und insbesondere im Falle des Bleikristalls behandelt, da hier keine vergleichbaren Resultate bekannt sind. Dabei wird der gesamte Impulsraum besprochen und die Fermi-Fläche als dreidimensionales Modell erstellt, mit dessen Hilfe die Meßergebnisse diskutiert werden. In den theoretischen Beschreibungen sind verschiedene Modelle zur Cooper-Paar-Emission vorgestellt, wobei beispielsweise dem Impulsaustausch mit dem Kristall eine besondere Rolle beigemessen wird, da dieser bei direkten Anregungen nur über diskrete Gittervektoren erfolgen kann.
Für das Helmholtzzentrum für Schwerionenforschung (GSI), in Darmstadt, wurde ein neuer RFQ zur Beschleunigung schwerer Ionen für den Hochladungsinjektor (HLI) entwickelt. Dieser RFQ hat den bereits vorhandenen ersetzt und soll, für die Anpassung des HLI an die neue 28 GHz-ECR-Ionenquelle, den Duty-cycle von 25 % auf 100 % erhöhen, um superschwere Ionen zu erzeugen und die Experimente mit schweren Ionen zu versorgen. Der RFQ hat die Aufgabe schwere, hochgeladene Ionen von 4 keV/u auf 300 keV/u zu beschleunigen. Wichtige Eigenschaften sind ein hoher Strahlstrom, eine hohe Strahl-Transmission, eine kleine Strahlemittanz und eine geringe transversale Emittanzzunahme. Die Erhöhung der Injektionsenergie von 2,5 keV/u auf 4 keV/u ermöglicht eine Verkleinerung des Konvergenzwinkels. Der Aufbau des 4-Rod-RFQs für den HLI ist Thema der vorliegenden Arbeit. Die Auslegung des HLI-RFQs bezieht sich auf ein festgelegtes max. Masse zu Ladungsverhältnis von A/q = 6, bei einer Betriebsfrequenz von 108,408 MHz. Die Ionen sollen bei einem Strahlstrom von 5 mA von 4 keV/u auf 300 keV/u beschleunigt werden. Durch die spezielle teilchendynamische Auslegung konnte die Länge des Tanks von vorher 3 m auf jetzt 2 m verkürzt werden. Dies begünstigt den CW-Betrieb der Struktur. Durch den CW-Betrieb hat man eine hohe Leistungsaufnahme, dies erfordert eine besondere teilchendynamische und hochfrequenztechnische Auslegung der RFQ-Struktur und eine effiziente Kühlung. Zur Simulation der Hochfrequenzeigenschaften wurde ein Modell des RFQ mit dem Programm Microwave Studio (MWS) erstellt. Die Simulationen ergaben einen nur 2 m langen RFQ mit sehr hoher Transmission > 95%. Nach den entsprechenden Simulationsrechnungen bezüglich der Teilchendynamik und der Hochfrequenzeigenschaften wurde der RFQ aufgebaut. Der zeitaufwändige Aufbau lässt sich in drei Abschnitte einteilen. Die Elektroden wurden präzise ausgemessen. Danach wurden Stützen, Elektroden und Tuningplatten an der Bodenplatte montiert und in den Tank eingesetzt. Im Tank wurden die Elektroden justiert, die zuerst außerhalb vermessen wurden. Die korrekte Position der Elektroden zur Referenzfläche wurde berechnet und mit Hilfe eines Faro-Gage im Tank eingemessen. Die maximale Abweichung der Elektrodenposition konnte auf 0,03 mm reduziert werden. Nach der mechanischen Einrichtung folgte die HF-Anpassung des Resonators. Durch das Erhöhen der Tuningplattenpositionen zwischen den Stützen konnte die Resonanzfrequenz von 90,8 MHz auf 108,4 MHz erhöht werden. Als nächstes wurde die Spannungsverteilung im Tank gemessen und mit Hilfe der Tuningplatten konnte sie so eingestellt werden, dass die maximale Abweichung zur mittleren Elektrodenspannung bei nur ± 2% liegt. Zur weiteren Hochfrequenzabstimmung wurde die Wirkung zweier Tauchkolben mit einem Durchmesser von 75 mm untersucht. Die Tauchkolben ermöglichen eine Anpassung der Frequenz im Bereich von 1,4 MHz. Sie sollen die möglichen Frequenzverschiebungen durch beispielsweise thermische Effekte, auf Grund des HF-Betriebs, regulieren. Für die Hochfrequenzabstimmung wurde eine Ankoppelschleife gefertigt und angepasst. Die Güte des Resonators betrug Q0 = 3100, bei einem RP-Wert RP = 100 kΩm, d.h. die zur Versorgung stehende HF-Leistung (50 kW im CW-Betrieb) reicht aus. An der GSI wurde nach dem Transport eine Kontrolle der Elektroden vorgenommen, danach wurde der RFQ erst einzeln, danach als komplette HLI Einheit getestet. Dazu wurden verschiedene Pulsmessungen und Emittanzmessungen mit Argon 7+ und Argon 8+ durchgeführt. Bei der ersten Strahlinbetriebnahme wurden die Transmission, die Ionenenergie und die Emittanz mit verschiedenen Ionen gemessen. Die ersten Tests des HLI-RFQ waren sehr vielversprechend. In den Tests war zu sehen, dass die vorgenommenen Arbeiten, wie Justage und HF-Abstimmung der Resonanzstruktur, erfolgreich waren. Danach wurde der Strahlbetrieb mit Calcium, bei einer Leistung von 50 kW, durchgeführt. Die gemessene Transmission bei einer Spannung von 43 kV lag bei 70 %. Im Mai 2010 gab es eine 14Stickstoff2+ -Strahlzeit mit einer gepulsten Leistung von N = 90 kW. Danach wurde Anpassungstests mit verschiedenen Schwerionen durchgeführt. Im November 2010 wurden neue Tuningplatten mit einer besseren Stützenkontaktierung sowie einer besseren Kühlung eingebaut. Die Elektroden wurden nach diesen Maßnahmen auf ± 0,04 mm einjustiert. Die Flatness liegt bei ± 2,1 %, die Güte beträgt Q0 = 3300. Der RFQ wurde in die Beamline eingebaut und geht im Januar 2011 in Betrieb.
In der vorliegenden Arbeit wird die Ionisation von Stickstoff- und Sauerstoff-Molekülen in starken, nicht-resonanten Laserlicht-Pulsen untersucht. Die dreidimensionalen Impulsvektoren der freigesetzten Elektronen und Ionen wurden mittels eines sogenannten COLTRIMS Spektrometers vermessen. Das Hauptaugenmerk galt dem Kanal der Einfachionisation, der ein stabiles Molekülion ($N_2^+$ / $O_2^+$) erzeugt. Da in diesem Fall keine Dissoziation des Ions stattfindet, kann nicht aus der Flugrichtung ionischer Fragmente auf die Ausrichtung der Molekülachse geschlossen werden. Die Abhängigkeit des Prozesses vom Winkel zwischen der Molekülachse und der Polarisationsrichtung des ionisierenden Lichtes ist nur dann zugänglich, wenn die Ausrichtung der Molekülachsen vordem Zeitpunkt der Ionisation aktiv kontrolliert werden kann. Hierzu wurde die Technik der nichtadiabatischen Molekülausrichtung'' (non-adiabatic molecular alignment'') [1] angewandt. Ein erster, mäßig intensiver Lichtpuls bewirkte die Ausrichtung der Molekülachsen im Laborsystem. Sodann wurden die ausgerichteten Moleküle von einem zweiten, hochintensiven Puls ionisiert. In einem ersten Experiment wurden Elektronen-Impulsverteilungen für zwei verschiedene Molekülausrichtungen bestimmt. Ein Vergleich der Verteilungen brachte zwei wichtige Ergebnisse: 1) Im Bereich niedriger Elektronen-Impulse senkrecht zur Polarisationsrichtung des ionisierenden Lichtpulses wird der Fingerabdruck'' des ionisierten Molekülorbitals sichtbar. 2) Bei höheren Impulsen zeigten sich Strukturen, die als Doppelspalt-Interferenz interpretiert werden können. Ein ionisiertes Elektron propagiert im oszillierenden elektrischen Feld des Laser-Pulses. Von diesem kann es auf das Ion hin zurück beschleunigt werden und dort streuen [2]. Wir betrachten den Fall elastischer Rückstreuung''. In erster Näherung wirken die Bestandteile des diatomaren Molekülions wie ein Doppelspalt, an dem die streuende Elektronen-Welle gebeugt wird. In einem zweiten, dem ersten sehr ähnlichen Experiment wurde die Molekülausrichtungs-Richtung in kleinen Schritten variiert. Sowohl der Effekt der Elektronenbeugung am Ion, als auch - mit Einschränkungen - die Abbildung des ionisierten Orbitals wurde erneut beobachtet. Letztere ist durch eine Projektion des Orbitals in den Impulsraum senkrecht zur Laser-Polarisationsrichtung bestimmt [3,4]. Die Messung der Strukturen unter verschiedenen Molekül-Ausrichtungen im zweiten Experiment entspricht daher der Aufnahme verschiedener Projektionen des Orbitals. Der so gewonnene Datensatz sollte prinzipiell eine Rekonstruktion der dreidimensionalen Elektronen-Dichteverteilung des ionisierten Molekülorbitals mittels eines Tomographie-Algorithmus ermöglichen. Entsprechende Entwicklungen sind bei Kooperationspartnern im Gange. Die beobachtete Beugung des rückgestreuten Elektrons ermöglicht den Rückschluss auf die Positionen der Kerne im Molekülion. Es besteht die Hoffnung, dass sich in Zukunft detailliertere Informationen über das streuende Potential jenseits des einfachen Doppelspalt-Modells gewinnen lassen. Rückstreuung höherenergetischer Elektronen sollte hingegen eine verbesserte Ortsauflösung ermöglichen. Beide Informationen - Ionisiertes Orbital und Beugungsbild des Ions - werden simultan in ein- und derselben Messung gewonnen. Die zeitliche Auflösung wird durch rein optische Parameter (Licht-Wellenlänge, Pulslänge) determiniert. Sie kann mittels ultrakurzer, phasenstabiler Laserlicht-Pulse in den Bereich einer Femtosekunde oder darunter verbessert werden. [1] Stapelfeldt et al., Rev. Mod. Phys. 75, 543-557 (2003). doi:10.1103/RevModPhys.75.543 [2] Corkum, Phys. Rev. Lett. 71, 1994-1997 (1993). doi:10.1103/PhysRevLett.71.1994 [3] Spanner et al., J. Phys. B 37, L243-L250 (2004). doi:10.1088/0953-4075/37/12/L02 [4] Ivanov et al., J. Mod. Opt. 52, 165 (2005). doi:10.1080/0950034042000275360
Organische Materialien haben bis zur Mitte des 20. Jahrhunderts hinsichtlich ihrer elektronischen Eigenschaften keine besondere Aufmerksamkeit auf sich gezogen. Größeres Interesse an diesen Materialien entstand erst durch die Entdeckung einer ungewöhnlich hohen elektrischen Leitfähigkeit des organischen Perylen-Bromin Ladungstransfer-Komplexes durch Inokuchi et al. im Jahr 1954. Diese neue Klasse von Materialien besteht typischerweise aus Donor- und Akzeptor-Molekülen, die in einer bestimmten Stöchiometrie aneinander gebunden sind. Elektrische Ladung wird zwischen den Donor- und Akzeptor-Molekülen transferiert. Um diesen Prozess zu beschreiben, entwickelte Robert Mulliken in den 60er Jahren ein theoretisches Gerüst. Abhängig von der Anordnung der Moleküle und transferierten elektrischen Ladung kann der Ladungstransfer-Komplex (oder Salz) ein Isolator, ein Halbleiter, ein Metall oder sogar ein Supraleiter sein. Noch mehr Aufmerksamkeit erhielten Ladungstransfer-Materialien mit der Entdeckung des ersten quasi-eindimensionalen organischen Metalls TTF-TCNQ (tetrathiafulvalene-tetracyanoquinodimethane) im Jahr 1973. ...
This thesis deals with the simulation, optimization and realization of quasi-optical scanning systems for active THz cameras. Active THz cameras are sensitive in the THz regime of the electromagnetic spectrum and are suitable for the detection of metal objects such as weapons behind clothing or fabrics (maybe for security applications) or material investigation. An advantage of active THz-systems is the possibility to measure the phase of the THz-radiation and thus to reconstruct the surface topography of the objects under test. Due to the coherent illumination and the required system parameters (like image field size, working distance and lateral resolution) the optical systems (in the THz region often called quasi-optical systems) must be optimized. Specifically, the active illumination systems require highly optimized quasioptical systems to achieve a good image quality. Since currently no suitable multi-pixel detectors are available, the object has to be scanned in one or two dimensions in order to cover a full field of view. This further reinforces the occurring aberrations. The dissertation covers, alongside the underlying theory, the simulation, optimisation and realisation of three different active THz systems. The subdivision of the chapters is as follows: Chapter 1 deals with a motivation. Chapter 2 develops the underlying theory and it is demonstrated that the geometrical optics is an adequate and powerful description of the image field optimization. It also addresses the developed analytic on-axis and the off-axis image field optimization routine. Chapter 3, 4 and 5 are about the basis of various active THz cameras, each presented a major system aspect. Chapter 3 shows how active THz-cameras with very high system dynamics range can be realised. Within this chapter it could although be demonstrated how very high depth resolution can be achieved due to the coherent and active illumination and how high refresh rate can be implemented. Chapter 4 shows how absolute distance data of the objects under test can be obtained. Therefore it is possible to reconstruct the entire object topography up to a fraction of the wavelength. Chapter 5 shows how off-axis quasi-optical systems must be optimized. It is also shown how the illumination geometry of the active THz systems must be changed to allow for real-time frame rates. The developed widened multi-directional lighting approach also fixes the still existing problem of phase ambiguity of the single phase measurement. Within this chapter, the world’s first active real-time camera with very high frame rates around 10 Hz is presented. This could be only realized with the highly optimised quasioptical system and the multi-directional lighting approach. The paper concludes with a summary and an outlook for future work. Within the outlook some results regarding the simulation of synthetic aperture radar systems and metamaterials are shown.
Towards a THz Bloch laser
(2011)
The realisation of tunable THz laser sources working at room temperature would give
rise to further applications in this range of the electromagnetic spectrum. The THz
Bloch laser could therefore become the basis for a technological breakthrough. Beside
this practical relevance, the physics of the gain mechanism has been investigated
theoretically for a long time and the experimental implementation of a self-starting
laser still has not been achieved.
At the beginning of this thesis the basic principles of Bloch oscillations and the
related Bloch gain are described. The need of a superlattice structure to make Bloch
oscillations possible in a semiconductor material is discussed. In this context, the effect
of negative differential resistance and its influence on the field distribution due to Gunn
domains is explained. The latter lead to an inhomogeneous field which may suppress
the Bloch gain mechanism. The Krömer criterion is introduced and the concept of
field-pinning layers to improve the field homogeneity is deduced. Finally, the design of
the laser material is shown and different types of laser waveguides are compared.
In chapter 3 detailed recipes for the processing of samples are given. Different types of
contacts (ohmic and Schottky), the wafer bonding process required for double-metal
lasers and the application of different photoresists for different purposes are described.
An explanation of the formation of waveguides due to dry etching, wet etching
and ion implantation follows. Dry etching is an established technique in the field
of microstructure processing but the challenge of etching about 20 μm has led to
problems. The high etching depth also makes wet etching difficult but this method
could be improved due to a hard bake of the photoresist. The protection of critical
areas on the surface of the samples with photoresist during ion implantation was
increased by optimising the spin coating process. However, a full implantation of the
active layer between the waveguides was not achieved which was the reason for the
development of the hybrid technology. Here a prior wet etching of about 10 μm is
performed and the rest of the material is implanted.
The experimental setup is shown in chapter 4. An alternative method for the electrical
contacting with the help of a copper bar is introduced. This improves the current
distribution and the risk of an electrical breakdown during the measurements could
therefore be lowered. Devices for THz beam guidance and spectroscopic measurements
are shown and the method of biasing the samples with pulses below 100 ns and
determining the effective voltage applied to the sample is depicted. These short pulses
are required to prevent the samples heating up drastically due to high power.
Chapter 5 contains the current-voltage characterisation of several structures including
I-V-samples, Bloch laser samples and a quantum cascade laser. Different contacts
(ohmic and Schottky) and different techniques for the formation of the ridges have
been used in the processing of these samples (performed at the University of Frankfurt
in all cases) and their influence on the I-V-dependence is discussed. The properties of
the THz emission of the quantum cascade laser are in good agreement with published
results from lasers processed with the same material. Another important result of
this chapter is that the Bloch laser samples show unstable behaviour compared to the
quantum cascade structure even with short pulses (of about 10 ns) where the risk of an
electrical breakdown or the building of filaments is low. THz radiation emitted from
one of the Bloch laser samples could not be observed.
Two aspects that may have prevented the Bloch laser to emit are discussed in
chapter 6. The saturation of the gain for higher amplitudes of the THz wave is
investigated in single mode and multiple mode operation (the latter could occur due
to the Bloch gain being expected to be broadband). In both cases it is shown that
the saturation effect would limit the output power only to values clearly above the
detection limit. In the subsequent section the distribution of the electric field is
simulated with SILVACO software. Structures with transit layer lengths above the
Krömer criterion are compared with structures which include field-pinning layers. It is
shown that the latter are useful to avoid propagating Gunn domains as they build up
in similar structures without field-pinning layers. Nevertheless, the electric field inside
the superlattice regions is not stable. Beside spatial inhomogeneities also temporal
variations of the field magnitude are observed. The lack of a suitable field distribution
is expected to be the main reason for the samples not to work.
Das Antiprotonen-Experiment PANDA an der zukünftigen Beschleunigeranlage FAIR wird unter anderem Charmonium-Zustände mit einer bis dato unerreichten Genauigkeit messen können. Um dieses Ziel zu erreichen, wird eine sehr gute Teilchenidentifikationsfähigkeit verlangt. Eine gute Trennung zwischen Pionen und Kaonen wird durch den Einsatz eines Cherenkovdetektors erreicht. Die Leistungsfähigkeit eines DIRC hängt von dessen Radiatorgüte ab. Um die Qualität der Radiatorstäbe spezifizieren zu können, wurde im Rahmen dieser Doktorarbeit eine optische Messapparatur entwickelt. Dieser Aufbau erlaubt es die Transmission sowie die Oberflächenrauheit der Stäbe zu messen. Es wurden mehrere Radiatorstäbe aus synthetischem Quarzglas und Acrylglas untersucht. Die Messgenauigkeit bei hochqualitativen Stäben liegt für die Transmissionsmessung bei etwa 1 Promille und für die Rauheit bei 1-2 Angström. Die Messergebnisse bei verschiedenen Wellenlängen zeigen eine gute Übereinstimmung mit der skalaren Streutheorie, die den Zusammenhang zwischen Reflexionskoeffizienten und Rauheit beschreibt. Bei einer Strahlzeit an der GSI mit einem 2 GeV Protonenstrahl wurde ein erster Prototyp für den Barrel-DIRC mit einem Stab aus synthetischem Quarzglas als Radiator getestet. Durch Variation des Einfallswinkels und der Position des Protonenstrahls auf dem Radiator konnten Cherenkovringe eindeutig nachgewiesen werden. Zudem wurde der Cherenkovwinkel und die Einzelphotonauflösung in guter Übereinstimmung mit dem Erwartetem und der Simulation bestimmt.
Within the present work, photodissociation reactions on 100Mo, 93Mo and 92Mo isotopes were studied by means of the Coulomb dissociation method at the LAND setup at GSI. Experimental data on these isotopes are important to explain the problem of the underproduction of the lighter p-nuclei - 92; 94Mo - within the models of the p-process nucleosynthesis. The reaction rates used in the nucleosynthesis calculations are usually obtained within the framework of the statistical model. In order to verify the model predictions and reduce the uncertainties, experimental measurements of the reaction cross sections are required. In particular, the data on (γ,n) reactions are of interest, since these reactions were shown to dominate the p-process flow in the molybdenum mass region.
As a result of the analysis of the present experiment, integrated Coulomb excitation cross sections of the 100Mo(γ,n), 100Mo(γ,2n), 93Mo(γ,n) and 92Mo(γ,n) reactions were determined. The measurement of the 93Mo isotope is particularly important, since this nucleus is unstable, and the corresponding cross section has not been measured before.
It should be emphasized that Coulomb dissociation is a unique tool to study photoninduced reactions on unstable nuclei, which is especially relevant in the context of nucleosynthesis network calculations. However, because of to the complexity of the data analysis procedure and a number of model assumptions that are required in order to extract the Coulomb excitation cross section from the data, one of the main aspects of this thesis was to verify the method by comparing the results with the previously published data obtained with real photon beams. Integrated cross sections of the 100Mo(γ,n) and 100Mo(γ,2n) reactions were directly compared to the data by Beil et al., obtained at Saclay with photons from positron annihilation, while an indirect comparison could be performed with a recent photoactivation measurement by Erhard and co-workers. A reasonable agreement was observed for the 1n channel: a scaling factor of 0.8 ± 0.1 between our result and Beil et al. data is consistent with the scaling factor of 0.89±0.09 reported by Erhard et al. between their data and Beil et al. data. Both results are in agreement with the scaling factor of 0.85 ± 0.03 recommended by Berman et al. for the data measured at Saclay on nuclei in the respective mass region. A somewhat lower factor of 0.61 ± 0.09 between the present data and Beil et al. data was obtained for the 2n channel. The discrepancy might be explained by both the substantial efficiency correction that has to be applied to the LAND data in the two-neutron case, as well as by an insufficiently accurate assumption that the Saclay neutron detector efficiency is energy- and multiplicity- independent.
A second important topic of the present thesis is the investigation of the efficiency of the CsI gamma detector. The calorimetric information that it delivers is essential to reconstruct the energy-differential cross section from the present measurement. The data taken with the gamma calibration sources shortly after the experiment were used for the investigation. In addition, a test experiment in refined conditions was conducted within the framework of this thesis. Numerous GEANT3 simulations of the detector were performed in order to understand various aspects of its performance. As a result, the efficiency of the detector was determined to be approximately a factor of 2 lower than the efficiency expected from the simulation. This result is consistent with several independent investigations, which were performed using different methods. At the same time, a remarkable agreement between the simulated and experimental data was achieved under assumption that the inefficiency of the detector is explained by the loss of data from a number of crystals, which are randomly chosen in each event according to their averaged performance ratio (the ”on-off” effect). The reasons for the observed malfunction are yet not fully clear. Regardless of the exact reason, in the present conditions a deconvolution of the measured data from the CsI response is not possible. Consequently, within the framework of this thesis, the results are presented in terms of integrated cross sections. A search for alternative methods of data interpretation, allowing to extract energy-differential information out of the available data, in currently ongoing.
In the more recent experiments at the LAND setup, where the Crystal Ball gamma detector was used as a calorimeter, the reconstruction of the energy-differential cross section with a reasonable resolution was already shown to be feasible. It means that, even considering the uncertainties of the present experiment of the order of 10%, the uncertainties of the statistical model predictions, which are on average estimated to be within a factor of 1.5-2, can already be constrained.
The analysis of the present experiment is still in progress. As a next step, Coulomb excitation cross section for 94Mo will be obtained. The 94Mo(γ,n) reaction cannot be studied by photoactivation, since the life time of the daughter nucleus is too long (4000 y). At the same time, this reaction plays a key role in the p-process nucleosynthesis.
The future of the LAND setup - the R3B setup1 at FAIR2 - will take advantage of a three orders of magnitude higher intensity of the radioactive beams [85], as well as of a completely new detector system. High-resolution measurements of the energy-differential cross sections will be possible for exotic nuclei, which were never accessible in the laboratory before. Such measurements will open great opportunities for nuclear astrophysics, allowing to obtain high-quality experimental data even for regions of the nuclear chart where the statistical model calculations are not applicable.
The study of meson production in proton-proton collisions in the energy range
up to one GeV above the production threshold provides valuable information about
the nature of the nucleon-nucleon interaction. Theoretical models describe the interaction
between nucleons via the exchange of mesons. In such models, different
mechanisms contribute to the production of the mesons in nucleon-nucleon collisions.
The measurement of total and differential production cross sections provide information
which can help in determining the magnitude of the various mechanisms.
Moreover, such cross section information serves as an input to the transport calculations
which describe e.g. the production of e+e− pairs in proton- and pion-induced
reactions as well as in heavy ion collisions.
In this thesis, the production of ω and η mesons in proton-proton collisions at 3.5
GeV beam energy was studied using the High Acceptance DiElectron Spectrometer
(HADES) installed at the Schwerionensynchrotron (SIS 18) at the Helmholtzzenturm
f¨ur Schwerionenforschung in Darmstadt.
About 80 000 ω mesons and 35 000 η mesons were reconstructed. Total production
cross sections of both mesons were determined. Furthermore, the collected statistics
allowed for extracting angular distributions of both mesons as well as performing
Dalitz plot studies.
The ω and η mesons were reconstructed via their decay into three pions (π+π−π0)
in the exclusive reaction pp −→ ppπ+π−π0. The charged particles were identified
via their characteristic energy loss, via the measurement of their time of flight and
momentum, or using kinematics.
The neutral pion was reconstructed using the missing mass method. A kinematic
fit was applied to improve the resolution and to select events in which a π0 was
produced.
The correction of measured yields for the effects of spectrometer acceptance was done
as a function of four variables (two invariant masses and two angles). Systematic
studies of the acceptance for different input distributions were performed.
The measured yields were normalized to the number of measured events of elastic
scattering. Systematic errors due to the methods of the data analysis and the
background subtraction were investigated.
Production angular distributions of ω and η mesons were measured. Both mesons
exhibit a slightly anisotropic angular distribution.
The Dalitz plot of ω meson production shows indications of resonant production.
However, the deviation of the distribution from the one expected by phase space
simulations is not large.
The Dalitz plot of η meson production shows a signal of the production via the
N(1535) resonance, The contribution of N(1535) to the production was quantified
to be about 47%. The angular distribution of η mesons does not show significant
differences between resonant and non resonant production.
The total production cross section of ω mesons in the reaction pp −→ ppω was
determined to be 106.5 ± 0.9 (stat) ± 7.9 (sys) [μb] where stat indicates statistical
error and sys indicates systematic error, while that of η mesons was determined to
be 136.9 ± 0.9 (stat) ± 10.1 (sys) [μb] in the reaction pp −→ ppη
Ziel der durchgeführten Experimente war es, die Zerfallsmechanismen Van-der-Waals gebundener Argon- und Neon Di- und Trimere in intensiven Laserfeldern zu untersuchen, um mehr über den Einfluss der schwachen Van-der-Waals Bindung auf die Dynamik des Ionisationsprozesses zu erfahren. Da Dimere aufgrund ihrer elektronischen Struktur sehr stark zwei separaten benachbarten Atomen gleichen, vereinen sie atomare und molekulare Eigenschaften in sich und ihre Untersuchung verspricht ein tieferes Verständnis der Wechselwirkungsmechanismen in starken Laserfeldern. Die Verwendung der Impulsspektroskopie Methode COLTRIMS ermöglichte die koinzidente Messung aller beim Aufbruch entstandener ionischer Fragmente sowie eines elektronischen Impulsvektors. Für die beidseitige Einfachionisation des Argon Dimers, konnten bei der gewählten Intensität (etwa 3.3E14W/cm2) drei unterschiedliche Ionisationsprozesse identifiziert werden, von denen zwei zu einer überraschend hohen kinetischen Gesamtenergie der Ionen führen. Aufgrund der Messung der Winkelverteilung der ionischen Fragmente und eines der emittierten Elektronen für lineare und zirkulare Polarisation gelang es, die den drei Prozessen zugrunde liegende Dynamik im Laserfeld zu entschlüsseln. Der dominierende Zerfallskanal stellt demzufolge eine schnelle sequentielle Doppelionisation des Argon Dimers dar, die noch am Gleichgewichtsabstand des Dimers stattfindet. Für den zweithäufigsten Ionisationsprozess ergaben sich zwei mögliche Erklärungsansätze: Entweder wird das Dimer zunächst einseitig doppelionisiert, so dass es auf einer attraktiven Potentialkurve zusammenläuft, bevor es zu einem späteren Zeitpunkt – wenn das Laserfeld bereits abgeklungen ist – durch eine Umverteilung seiner Ladungen in einer Coulomb Explosion fragmentiert, oder das Dimer wird bei einer beidseitigen Tunnelionisation zugleich angeregt, so dass die Coulomb Explosion von einer Potentialkurve erfolgt, die wesentlich steiler als 1/R verläuft. Der schwächste Zerfallskanal, der sich durch die höchste Gesamtenergie auszeichnet, ist auf eine "Frustrated Triple Tunnel Ionization" zurückzuführen, bei der ein hoch angeregter Rydberg Zustand erzeugt wird. Bei der Untersuchung des Neon Dimers konnte bei der gewählten Intensität (etwa 6.3E14W/cm2) nur die sequentielle beidseitige Einfachionisation identifiziert werden, obwohl die Daten Hinweise auf einen weitern Ionisationsprozess mit sehr geringer Statistik aufweisen. Zudem wurde in dieser Arbeit nach der Methode des Coulomb-Explosion-Imaging aus den in Koinzidenz gemessenen Impulsvektoren aller einfachgeladenen ionischen Fragmente eines Aufbruchs die geometrische Struktur der Cluster im Orts-und Impulsraum rekonstruiert. Die ermittelte Grundzustandswellenfunktion des Argon und Neon Dimers zeigt eine gute Übereinstimmung mit quantenmechanischen Berechnungen. Für das Argon und Neon Trimer konnten aus den gemessenen Impulsvektoren mittels einer numerischen Simulation die Bindungswinkel im Ortsraum bestimmt werden, so dass erstmals gezeigt werden konnte, dass diese Trimere gleichseitige Dreieckskonfigurationen aufweisen. Vergleiche mit theoretischen Berechnungen zeigen für die breite Winkelverteilung des Neon Trimers eine hervorragende Übereinstimmung, während die gemessene Winkelverteilung des Argon Trimers etwas breiter als die berechnete ist.
Dynamics of chaotic strings
(2011)
The main topic of this thesis is the investigation of dynamical properties of coupled Tchebycheff map networks. At every node of the network the dynamics is given by the iteration of a Tchebycheff map, which shows strongest possible chaotic behaviour. By applying a coupling between the various individual dynamics along the links of the network, a rich structure of complex dynamical patterns emerges. Accordingly, coupled chaotic map networks provide prototypical models for studying the interplay between local dynamics, network structure, and the emergent global dynamics. An exciting application of coupled Tchebycheff map lattices in quantum field theory has been proposed Beck in Spatio-temporal chaos and vacuum fluctuations of quantized fields' (2002). In this so-called chaotic string model, the coupled map lattice dynamics generates the noise needed for the Parisi-Wu approach of stochastic quantization. The remarkable obversation is that the respective dynamics seems to reproduce distinguished numerical values of coupling constants that coincide with those observed in the standard model of particle physic. The results of this thesis give insights into the chaotic string model and its network generalization from a dynamical point of view. This leads to a deeper understanding of the dynamics, which is essential for a critical discussion of possible physical embeddings. Apart from this specific application to particle physics, the investigated concepts like synchronization or a most random behaviour of the dynamics are of general interest for dynamical system theory and the science of complex networks. As a first approach, discrete symmetry transformations of the model are studied. These transformations are formulated in a general way in order to be also applicable to similar dynamics on bipartite network structures. An observable of main interest in the chaotic string model is the interaction energy. In Spatio-temporal chaos and vacuum fluctuations of quantized fields' (2002) it has been observed that certain chaotic string couplings, corresponding to a vanishing interaction energy, coincide with coupling constants of the standard model of elementary particle physics. Since the interaction energy is basically a spatial correlation measure, an interpretation of the respective dynamical states in terms of a most random behaviour is tempting. In order to distinguish certain states as most random', or evoke another dynamical principle, a deeper understanding of the dynamics essential. In the present thesis the dynamics is studied numerically via Lyapunov measures, spatial correlations, and ergodic properties. It is shown that the zeros of the interaction energy are distinguished only with respect to this specific observable, but not by a more general dynamical principle. The original chaotic string model is defined on a one-dimensional lattice (ring-network) as the underlying network topology. This thesis studies a modification of the model based on the introduction of tunable disorder. The effects of inhomogeneous coupling weights as well as small-world perturbations of the ring-network structure on the interaction energy are discussed. Synchronization properties of the chaotic string model and its network generalization are studied in later chapters of this thesis. The analysis is based on the master stability formalism, which relates the stability of the synchronized state to the spectral properties of the network. Apart from complete synchronization, where the dynamics at all nodes of the network coincide, also two-cluster synchronization on bipartite networks is studied. For both types of synchronization it is shown that depending on the type of coupling the synchronized dynamics can display chaotic as well as periodic or quasi-periodic behaviour. The semi-analytical calculations reveal that the respective synchronized states are often stable for a wide range of coupling values even for the ring-network, although the respective basins of attraction may inhabit only a small fraction of the phase space. To provide analytical results in closed form, for complete synchronization the stability of all fixed points and period-2 orbits of all chaotic string networks are determined analytically. The master stability formalism allows to treat the ring-network of the chaotic string model as a special case, but the results are valid for coupled Tchebycheff maps on arbitrary networks. For two-cluster synchronization on bipartite networks, selected fixed points and period-2 orbits are analyzed.
Nanotechnology is a rapidly developing branch of science, which is focused on the study of phenomena at the nanometer scale, in particular related to the possibilities of matter manipulation. One of the main goals of nanotechnology is the development of controlled, reproducible, and industrially transposable nanostructured materials.
The conventional technique of thin-film growth by deposition of atoms, small atomic clusters and molecules on surfaces is the general method, which is often used in nanotechnology for production of new materials. Recent experiments show, that patterns with different morphology can be formed in the course of nanoparticles deposition process on a surface. In this context, predicting of the final architecture of the growing materials is a fundamental problem worth studying.
Another factor, which plays an important role in industrial applications of new materials, is the question of post-growth stability of deposited structures. The understanding of the post-growth relaxation processes would give a possibility to estimate the lifetime of the deposited material depending on the conditions at which the material was fabricated. Controllable post-growth manipulations with the architecture of deposited structures opens new path for engineering of nanostructured materials.
The task of this thesis is to advance understanding mechanisms of formation and post-growth evolution of nanostructured materials fabricated by atomic clusters deposition on a surface. In order to achieve this goal the following main problems were addressed:
1. The properties of isolated clusters can significantly differ from those of analogous clusters occurring on a solid surface. The difference is caused by the interaction between the cluster and the solid. Therefore, the understanding of structural and dynamical properties of an atomic cluster on a surface is a topic of intense interest from the scientific and technological point of view. In the thesis, stability, energy, and geometry of an atomic cluster on a solid surface were studied using a liquid drop approach which takes into account the cluster-solid interaction. Geometries of the deposited clusters are compared with those of isolated clusters and the differences are discussed.
2. The formation scenarios of patterns on a surface in the course of the process of cluster deposition depend strongly on the dynamics of deposited clusters. Therefore, an important step towards predicting pattern morphology is to study dynamics of a single cluster on a surface. The process of cluster diffusion on a surface was modeled with the use of classical molecular dynamics technique, and the diffusion coefficients for the silver nanoclusters were obtained from the analysis of trajectories of the clusters. The dependence of the diffusion coefficient on the system’s temperature and cluster-surface interaction was established. The results of the calculations are compared with the available experimental results for the diffusion coefficient of silver clusters on graphite surface.
3. The methods of classical molecular dynamics cannot be used for modeling the self-assembly processes of atomic clusters on a surface, because these processes occur on the minutes timescale, what would require an unachievable computer resource for the simulation. Based on the results of molecular dynamics simulations for a single cluster on a surface a Monte-Carlo based approach has been developed to describe the dynamics of the self-assembly of nanoparticles on a surface. This method accounts for the free particle diffusion on a surface, aggregation into islands and detachment from these islands. The developed method is allowed to study pattern formation of structures up to thousands nm, as well as the stability of these structures. Developed method was implemented in MBN Explorer computer package.
4. The process of the pattern formation on a surface was modeled for several different scenarios. Based on the analysis of results of simulations was suggested a criterion, which can be used to distinguish between different patterns formed on a surface, for example: between fractals or compact islands.This criteria can be used to predict the final morphology of a growing structure.
5. The post-growth evolution of patterns on a surface was also analyzed. In particular, attention in the thesis is payed to a systematical theoretical analysis of the post-growth processes occurring in nanofractals on a surface. The time evolution of fractal morphology in the course of the post-growth relaxation was analyzed, the results of these calculations were compared with experimental data available for the post-growth relaxation of silver cluster fractals on graphite substrate.
All the aforementioned problems are discussed in details in the thesis.
The miniaturization of electronics is reaching its limits. Structures necessary to build integrated circuits from semiconductors are shrinking and could reach the size of only a few atoms within the next few years. It will be at the latest at this point in time that the physics of nanostructures gains importance in our every day life. This thesis deals with the physics of quantum impurity models. All models of this class exhibit an identical structure: the simple and small impurity only has few degrees of freedom. It can be built out of a small number of atoms or a single molecule, for example. In the simplest case it can be described by a single spin degree of freedom, in many quantum impurity models, it can be treated exactly. The complexity of the description arises from its coupling to a large number of fermionic or bosonic degrees of freedom (large meaning that we have to deal with particle numbers of the order of 10^{23}). An exact treatment thus remains impossible. At the same time, physical effects which arise in quantum impurity systems often cannot be described within a perturbative theory, since multiple energy scales may play an important role. One example for such an effect is the Kondo effect, where the free magnetic moment of the impurity is screened by a "cloud" of fermionic particles of the quantum bath.
The Kondo effect is only one example for the rich physics stemming from correlation effects in many body systems. Quantum impurity models, and the oftentimes related Kondo effect, have regained the attention of experimental and theoretical physicists since the advent of quantum dots, which are sometimes also referred to as as artificial atoms. Quantum dots offer a unprecedented control and tunability of many system parameters. Hence, they constitute a nice "playground" for fundamental research, while being promising candidates for building blocks of future technological devices as well.
Recently Loss' and DiVincenzo's p roposal of a quantum computing scheme based on spins in quantum dots, increased the efforts of experimentalists to coherently manipulate and read out the spins of quantum dots one by one. In this context two topics are of paramount importance for future quantum information processing: since decoherence times have to be large enough to allow for good error correction schemes, understanding the loss of phase coherence in quantum impurity systems is a prerequisite for quantum computation in these systems. Nonequilibrium phenomena in quantum impurity systems also have to be understood, before one may gain control of manipulating quantum bits.
As a first step towards more complicated nonequilibrium situations, the reaction of a system to a quantum quench, i.e. a sudden change of external fields or other parameters of the system can be investigated. We give an introduction to a powerful numerical method used in this field of research, the numerical renormalization group method, and apply this method and its recent enhancements to various quantum impurity systems.
The main part of this thesis may be structured in the following way:
- Ferromagnetic Kondo Model,
- Spin-Dynamics in the Anisotropic Kondo and the Spin-Boson Model,
- Two Ising-coupled Spins in a Bosonic Bath,
- Decoherence in an Aharanov-Bohm Interferometer.
In dieser Arbeit wurden Verfahren zur Identifikation hirnelektrischer Aktivität mit Zellularen Nichtlinearen Netzwerken (CNN), im Besonderen Reaktions-Diffusions-Netzwerken, entwickelt und untersucht. Mit Hilfe der eingeführten Methoden wurden Langzeitaufzeichnungen hirnelektrischer Aktivität bei Epilepsie analysiert und mittels eines automatisierten Verfahrens ermittelt, inwieweit sich mögliche Voranfallszustände vom anfallsfreien Zustand im statistischen Sinne trennen lassen.
Zunächst wurde ein Überblick über CNN gegeben und deren Beschreibung durch Systeme gekoppelter Differentialgleichungen dargestellt. Weiterhin wurden die Möglichkeiten der Informationsverarbeitung mit CNN durch Ausnutzung von Gleichgewichtszuständen oder der vollständigen raum-zeitlichen Dynamik der Netzwerke diskutiert. Zusätzlich wurde die Klasse der Reaktions-Diffusions-Netzwerke (RD-CNN) eingeführt. Für die Repräsentation der hierbei benötigten weitgehend allgemeinen nichtlinearen Zellkopplungsvorschriften wurden polynomiale Gewichtsfunktionen vorgeschlagen. Mit einer Darstellung der Theorie der Lokalen Aktivität wurden notwendige Bedingungen für emergentes Verhalten in RD-CNN angegeben. Die statistische Bewertung von Vorhersagemodellen wurde aus theoretischer Sicht beleuchtet. Mit der Receiver Operating Characteristic (ROC) wurde eine Analysemethode zur Beurteilung der Vorhersagekraft des zeitlichen Verlaufs von Kenngrößen bezüglich bevorstehender epileptischer Anfälle vorgestellt.
Als nächstes wurden Überlegungen zur numerischen Simulation von CNN und deren flexible und erweiterbare programmtechnische Umsetzung entwickelt. Die daraus resultierende und im Rahmen dieser Arbeit entstandene objektorientierte Simulationsumgebung FORCE++ wurde konzeptionell und im Hinblick auf die Softwarearchitektur vorgestellt.
Die Verfahren zur numerischen Simulation wurden auf die Problemstellung der Systemidentifikation mit CNN angewandt. Dazu wurden Netzwerke derart bestimmt, dass deren Zellausgangswerte entsprechende Signalwerte des beobachteten, zu identifizierenden Systems approximieren.
Da die Parameter der zu bestimmenden CNN im vorliegenden Fall der Untersuchung hirnelektrischer Aktivität nicht bekannt sind und nicht direkt abgeleitet werden können, wurden überwachte Lernverfahren zur Bestimmung der Netzwerke eingesetzt. Hierbei wurden Lernverfahren verschiedener Klassen für die Identifikation mit CNN mit polynomialen Gewichtsfunktionen untersucht. Die Leistungsfähigkeit des vorgestellten Identifikationsverfahrens wurde anhand bekannter Systeme einer genauen Betrachtung unterzogen. Dabei wurde festgestellt, dass die betrachteten Systeme mit hoher Genauigkeit durch CNN repräsentiert werden konnten. Exemplarisch wurde das Parametergebiet lokaler Aktivität für ein RD-CNN berechnet und durch numerische Simulationen die Ausbildung von Mustern innerhalb des Netzwerkes nachgewiesen.
Nach einem einleitenden Überblick über die medizinischen Hintergründe von Epilepsie und der Erfassung hirnelektrischer Aktivität wurde eine vergleichende Übersicht über den Stand veröffentlichter Studien zur Vorhersage epileptischer Anfälle gegeben. Für die Anwendung des hier vorgestellten Identifikationsverfahrens zur Analyse hirnelektrischer Aktivität wurde zunächst die Genauigkeit der Approximation kurzer, als quasi-stationär betrachteter Abschnitte, von EEG-Signalen untersucht. Durch gezielte Erhöhung der Komplexität herangezogener Netzwerke konnte hier die Genauigkeit der Repräsentation von EEG-Signalverläufen deutlich verbessert werden. Dabei wurde zudem die Verallgemeinerungsfähigkeit der ermittelten Netzwerke untersucht, wobei festgestellt wurde, dass auch solche Signalwerte mit guter Genauigkeit approximiert werden, die nicht im Identifikationsverfahren durch die überwachte Parameteroptimierung berücksichtigt waren. Um speziell den Einfluss der Information aus der Korrelation benachbarter Elektrodensignale zu untersuchen, wurde ein Verfahren zur multivariaten Prädiktion mit Discrete Time CNN (DT-CNN) entwickelt.
Hierbei werden durch ein CNN Signalwerte der betrachteten Elektrode aus vergangenen, korrelierten Signalwerten von Nachbarelektroden geschätzt. Für diese Aufgabenstellung konnte eine Methode zur Bestimmung der Netzwerkparameter im optimalen Sinn, alleine aus den statistischen Eigenschaften der Elektrodensignale angegeben werden. Dadurch gelang eine erhebliche Reduzierung der Rechenkomplexität, die eine umfangreiche Untersuchung intrakranieller Langzeitableitungen ermöglichte.
Zur Analyse von Langzeitaufzeichnungen mit dem RD-CNN Identifikationsverfahren, wurden die numerischen Berechnungen zur Simulation von CNN mit FORCE++ auf einem durchsatz-orientierten Hochleistungs-Rechnernetzwerk durchgeführt. Mit den so gewonnen Ergebnissen konnten vergleichende Analysen vorgenommen werden. Zudem wurden Untersuchungen zum Vorliegen lokaler Aktivität in den ermittelten RD-CNN durchgeführt.
Die bei den beschriebenen Verfahren extrahierten Kenngrößen hirnelektrischer Aktivität wurden durch ein automatisiertes Verfahren auf ihre Vorhersagekraft für epileptische Anfälle bewertet. Dabei wurde untersucht, inwieweit der anfallsfreie Zustand und ein angenommener Voranfallszustand durch die jeweils betrachtete Kenngröße im statistischen Sinn diskriminiert werden kann. Durch parallele Analysen mit Anfallszeitsurrogaten wurden hierzu ergänzende Signifikanztests durchgeführt.
Nach Auswertung von mehrtägigen Hirnstromsignalen verschiedener Patienten konnte festgestellt werden, dass mit den in dieser Arbeit entwickelten Verfahren Kenngrößen hirnelektrischer Aktivität bestimmt werden konnten, welche offenbar die Identifikation potentieller Voranfallszustände ermöglichen.
Auch wenn für eine breite medizinische Anwendung die Spezifität und Sensitivität noch weiter verbessert werden muss, so können doch die erzielten Ergebnisse einen wesentlichen Schritt hin zu einer implantierbaren, CNN-basierten Plattform zur Erkennung und Verhinderung epileptischer Anfälle darstellen. Die Berechnungen für das Identifikationsverfahren mit RD-CNN könnten dabei durch zukünftige, spezialisierte schaltungstechnische Realisierungen für mehrschichtige CNN mit polynomialen Gewichtsfunktionen eine erhebliche Beschleunigung erfahren.
Epileptische Anfälle, unabhängig von ihrer Art und Auftrittshäufigkeit, bilden eine Symptomatik, welche bei ca. 1% der Weltbevölkerung auftritt. Hierbei kann es beispielsweise zu unkontrollierten Muskelkrämpfen kommen, ebenso aber zu einer Vielzahl anderer Symptome, die in ihrer Gesamtheit das Krankheitsbild der sogenannten Epileptogenesis bilden. Bei etwa zwei Drittel der an Epilepsie leidenden Patienten kann in vielen Fällen Anfallsfreiheit im Rahmen einer medikamentösen Therapie erreicht werden. Dies umso besser, wenn die Medikation präventiv zum geeigneten Zeitpunkt erfolgen könnte. Demzufolge würden in einer großen Anzahl von Fällen Patienten von einem System profitieren, das eine automatisierte zuverlässige Anfallsvorhersage ermöglicht. Bei nur 20% der anderen Patienten kann eine chirurgische Behandlung erfolgreich sein.
In dieser Arbeit soll eine weitergehende Untersuchung des im Institut für Angewandte Physik der Johann Wolfgang Goethe- Universität entwickelten Prädiktionsverfahrens an verschiedenen EEG-Registrierungen unterschiedlicher Patienten erfolgen. Dabei soll im speziellen untersucht werden, ob basierend auf den Resultaten einer Signalprädiktion eine Unterscheidung zwischen Voranfallszeitraum, Anfall und anfallsfreier Phase getroffen werden kann, und ob basierend auf den Kenngrößen eines Prädiktors und des Prädiktionsfehlers eine Merkmalsdefinition gefunden werden kann, welche in einem späteren, implantierbaren Frühwarnsystem eine automatisierte Anfallsvorhersage ermöglicht. Als Datenbasis sollen vier Langzeit-EEG-Registrierungen mit einer Länge von jeweils 5 – 10 Tagen zugrunde gelegt werden. Zur Prädiktion sollen zeitdiskrete, gedächtnisbehaftete, mehrschichtige Zellulare Nichtlineare Netzwerke herangezogen werden. Dabei soll insbesondere anhand von unterschiedlichen Netzwerken festgestellt werden, inwieweit mittels einer Signalprädiktion Synchronisationseffekte zwischen EEG-Signalen verschiedener Hirnareale festgestellt werden können.
This thesis has light mesons and their vacuum interactions as its topic. In particular, the work examines the question where the scalar antiquark-quark states are found in the physical spectrum -- in the energy region below or above 1 GeV. Contrary to the naive expectation, the mentioned states are found in the region above 1 GeV. This has consequences for the building of order parameters for the chiral symmetry breaking of Quantum Chromodynamics (QCD).
Design and optimization of the lattice of the superconducting synchrotron SIS300 for slow extraction
(2011)
The superconducting synchrotron SIS300 is planned to be built at the new Facility for Antiproton and Ion Research (FAIR), at GSI-Darmstadt [1]. SIS300 will be a versatile machine, which by means of a low-energy stretcher-mode or a high-energy ramped-mode will provide slowly extracted heavy ion beams towards the experimental areas. To reach the required maximum field of 4.5 T, cos(θ) magnets are necessary. Thus, SIS300 will become the first superconducting synchrotron worldwide with cos(θ) magnets providing resonant slow extraction.
Since SIS300 will be installed in the same tunnel as the SIS100 synchrotron, the dipole layout of SIS300 cannot be freely chosen. Thus, a standard lattice cannot be applied. A redesign of the SIS300 lattice accepting compromises concerning the positions and phase advances between the optical elements has been proposed. Using the analytical model of the slow extraction, firstly proposed by Kobayashi, and the analytical description of the resonance driving modes, a multiobjective optimization algorithm has been developed for the optimization of the lattice under the given boundary conditions. The final goal of the lattice optimization is a higher efficiency of the slow extraction. The results are evaluated by means of tracking simulations performed with the code Elegant.
The field quality in superconducting cos(θ) magnets is determined by the positions of the superconducting cable and the static and time-dependent effects of the current in the cable. Furthermore, the fast ramp rates of 1 T/s in the dipoles, which are fifty times faster than in any other superconducting cos(θ) magnet, together with the fact that the aperture is smaller than in conventional accelerator magnets, makes it extremely difficult to obtain a high-quality magnetic field. The unavoidable field errors affect the beam dynamics and worsen the slow extraction efficiency. Therefore, the field errors in the SIS300 dipoles have been estimated, and their effects have been taken into account in the optimization algorithm. As a result a compensation scheme has been proposed, in which time-dependent gradients in the sextupoles counteract the decay of the sextupole field errors in the dipole magnets during the slow extraction. For the limits where the compensation was no longer possible, tolerances to the magnet field errors have been determined.
In the work presented herein the microscopic transport model BAMPS (Boltzmann Approach to Multi-Parton Scatterings) is applied to simulate the time evolution of the hot partonic medium that is created in Au+Au collisions at the Relativistic Heavy Ion Collider (RHIC) and in Pb+Pb collisions at the recently started Large Hadron Collider (LHC). The study is especially focused on the investigation of the nuclear modification factor R_{AA}, that quantifies the suppression of particle yields at large transverse momentum with respect to a scaled proton+proton reference, and the simultaneous description of the collective properties of the medium in terms of the elliptic flow v_{2} within a common framework.
The phenomenon of magnetism is a pure quantum effect and has been studied since the beginning of civilization. The practical use of magnetic materials for technical purposes was well established in the 19th century; still nowadays there is no lack of new high-tech applications based on magnetism for example in information technology to store and process data. This thesis does not focus on the development of new applications of magnetism in technology, nor enhancement of known fields of application. Instead, the intention is to use a quantum theory of magnetism for obtaining new insights on physical effects that accompany the phenomenon of magnetism. Therefore three different model systems, each of which are believed to describe a class of real compounds, are considered. Starting from the idea that magnetism can be understood by use of the so-called Heisenberg model that microscopically characterizes the interaction between localized magnetic moments, we restrict ourselves to the case where a long-range magnetic order is present. In order to deduce consequences resulting from this microscopic picture we use the spin-wave theory that is introduced in the first chapter. Central objects of this theory are the magnons which are elementary quantum excitations in ordered magnets. An application of these mathematical techniques to a model that describes an antiferromagnet in an external magnetic field is presented in the second chapter. Quantities like the spin-wave velocity and the damping of magnons are calculated using a Hermitian operator approach in the framework of spin-wave theory. A strong renormalization of the magnetic excitations arises because the symmetry of the system is reduced due to the external magnetic field. In the second model system, that describes thin films of a ferromagnet, concepts of classical physics meet quantum physics: The magnetic dipole-dipole interaction that is also known in everyday life from the magnetic forces between magnets and was initially formulated in the theory of electromagnetism, is included in the microscopic model. Having a special compound in mind where the magnetic excitations are directly accessible in experiments, the energy dispersions of magnon modes in thin-film ferromagnets are deduced. Our approach is essentially a basis for further investigations beyond this thesis to describe strong correlations and condensation of magnons. A recent realization of data processing devices with spin waves puts the understanding of physical processes in these ferromagnetic films in the focus of upcoming research. The third model system brings in the so-called frustration where the interactions between the spins are such that the total energy cannot be minimized by an appropriate alignment of the magnetic moments in the classical picture. In the simplest case this appears because the antiferromagnetically coupled spins are located on a triangular lattice. This situation will lead to strong quantum fluctuations which make this model system interesting. Finally the overall symmetry is reduced by inclusion of spin anisotropies and an external magnetic field. Instead of focusing on the properties of the magnetic excitations, the effect of the magnetic field on the properties of the lattice vibrations is subject to the investigation. This is interesting because the characteristics of lattice vibrations can be measured experimentally using the supersonic technique.
The first measurement of the fluctuation of the kaon-to-proton ratio in relativistic heavy-ion collisions is presented. This thesis details the analysis procedure for identifying kaons and protons using the NA49 experiment at CERN-SPS and discusses the results in the context of the current state of the field.
Quarkonia are very promising probes to study the quark-gluon plasma. The essential baseline for measurements in heavy-ion collisions is high-precision data from proton-proton interactions. However, the basic mechanisms of quarkonium hadroproduction are still being debated. The most common models, the Color-Singlet Model, the non-relativistic QCD approach and the Color-Evaporation Model, are able to describe most of the available cross-section data, despite of their conceptual differences. New measures, such as the polarization, and data at a new energy regime are crucial to test the competing models. Another issue is an eventual interplay between the production process of a quarkonium state and the surrounding pp event. Current Monte Carlo event generators treat the hard scattering independently from the rest of the so-called underlying event. The investigation of possible correlations with the pp event might be very valuable for a detailed understanding of the production processes. ALICE ist the dedicated heavy-ion experiment at the LHC. Its design has been optimized for high-precision measurements in very high track densities and down to low transverse momenta. ALICE is composed of various different detectors at forward and at central rapidities. The most important detectors for this study are the Inner Tracking System and the Time Projection Chamber, allowing to reconstruct and identify electron candidate tracks within eta < 0.9. The Transition Radiation Detector has not been utilized at this stage of the analysis; however, it will strongly improve the particle identification and provide a dedicated trigger in the upcoming beam periods. ...
Interacting ultracold gases in optical lattices: non-equilibrium dynamics and effects of disorder
(2012)
This dissertation aims at giving a theoretical description of various applications of ultracold gases. A particular focus is cast upon the dynamical evolution of bosonic condensates in non-equilibrium by means of the time-dependent Gutzwiller method. Ground state properties of strongly interacting fermionic atoms in box and speckle disordered lattices are investigated via real-space dynamical mean-field theory. ...
In this thesis I use effective models to investigate the properties of QCD-like theories at nonzero temperature and baryon chemical potential. First I construct a PNJL model using a lattice spin model with nearestneighbor interactions for the gauge sector and four-fermion interactions for the quarks in (pseudo)real representations of the gauge group. Calculating the phase diagram in the plane of temperature and quark chemical potential in QCD with adjoint quarks, it is qualitatively confirmed that the critical temperature of the chiral phase transition is much higher than the deconfinement transition temperature. At a chemical potential equal to half of the diquark mass in the vacuum, a diquark Bose–Einstein condensation (BEC) phase transition occurs. In the two-color case, a Ginzburg–Landau expansion is used to study the tetracritical behavior around the intersection point of the deconfinement and BEC transition lines which are both of second order. A compact expression for the expectation value of the Polyakov loop in an arbitrary representation of the gauge group is obtained for any number of colors, which allows us to study Casimir scaling at both nonzero temperature and chemical potential. Subsequently I study the thermodynamics of two-color QCD (QC2D) at high temperature and/or density using ZQCD, a dimensionally reduced superrenormalizable effective theory, formulated in terms of a coarse grained Wilson line. In the absence of quarks, the theory is required to respect the Z2 center symmetry, while the effects of quarks of arbitrary masses and chemical potentials are introduced via soft Z2 breaking operators. Perturbative matching of the effective theory parameters to the full theory is carried out explicitly, and it is argued how the new theory can be used to explore the phase diagram of two-color QCD.
The subject of this thesis aimed at a better understanding of the spectacular X-ray burst. The most likely astrophysical site is a very dense neutron star, which accretes H/He-rich matter from a close companion. While falling towards the neutron star, the matter is heated up and a thermonuclear runaway is ignited. The exact description of this process is dominated by the properties of a few proton-rich radioactive isotopes, which have a low interaction probability, hence a high abundance.
The topic of this thesis was therefore an investigation of the short-lived, proton-rich isotopes 31Cl and 32Ar. The Coulomb dissociation method is the modern technique of choice. Excitations with energies up to 20 MeV can be induced by the Lorentz contracted Coulomb field of a lead target. At the GSI Helmholtzzentrum für Schwerionenforschung GmbH in Darmstadt, Germany, a Ar beam was accelerated to an energy of 825 AMeV and fragmented in a beryllium target. The fragment separator was used to select the desired isotopes with a remaining energy of 650 AMeV. They were subsequently directed onto a 208 Pb target in the ALAND/LAND setup. The measurement was performed in inverse kinematics. All reaction products were detected and inclusive and exclusive measurements of the respective Coulomb dissociation cross sections were possible.
During the analysis of the experiment, it was possible to extract the energy-differential excitation spectrum of 31Cl, and to constrain astrophysically important parameters for the time-reversed 30S(p,γ)31Cl reaction. A single resonance at 0.443(37) MeV dominates the stellar reaction rate, which was also deduced and compared to previous calculations.
The integrated Coulomb dissociation cross section of this resonance was determined to 15(6) mb. The astrophysically important one- and two-proton emission channels were analyzed for 32Ar and energy-differential excitation spectra could be derived. The integrated Coulomb dissociation cross section for two proton emission were determined with two different techniques. The inclusive measurement yields a cross section of 214(29stat)(20sys) mb, whereas the exclusive reconstruction results in a cross section of 226(14stat)(23sys) mb. Both results are in very good agreement. The Coulomb dissociation cross section for the one-proton emission channel is extracted solely from the exclusive measurement and is 54(8stat)(6sys) mb.
Furthermore, the development of the Low Energy Neutron detector Array (LENA) for the upcoming R3B setup is described. The detector will be utilized in charge-exchange reactions to detect the low-energy recoil neutrons from (p,n)-type reactions. These reaction studies are of particular importance in the astrophysical context and can be used to constrain half lifes under stellar conditions. In the frame of this work, prototypes of the detector were built and successfully commissioned in several international laboratories.
The analysis was supported by detailed simulations of the detection characteristics.
Detailed knowledge of reaction mechanisms is key to understanding chemical, biological, and biophysical processes. For many reasons, it is desirable to comprehend how a reaction proceeds and what influences the reaction rate and its products.
In biophysics, reaction mechanisms provide insight into enzyme and protein function, the reason why they are so efficient, and what determines their reaction rates. They also reveal the relationship between the function of a protein and its structure and dynamics.
In chemistry, reaction mechanisms are able to explain side products, solvent effects, and the stereochemistry of a product. They are also the basis for potentially optimizing reactions with respect to yield, enhancing the stereoselectivity, or for modifying reactions in order to obtain other related products.
A key step to investigate reaction mechanisms is the identification and characterization of intermediates, which may be reactive, short-lived, and therefore only weakly populated. Nowadays, the structures of those can in most cases only be hypothesized based on products, side products, and isolable intermediates, because intermediates with a life time of less than a few microseconds are not accessible with the commonly used techniques for structure determination such as X-ray crystallography and nuclear magnetic resonance (NMR) spectroscopy.
In this thesis, two-dimensional infrared (2D-IR) spectroscopy is shown to be a powerful complement to the existing techniques for structure determination in solution. 2D-IR spectroscopy uses a femtosecond laser setup to investigate interactions between vibrations - analogous to 2D-NMR, which investigates the interactions between spins. Its ultrafast time resolution makes 2D-IR spectroscopy particularly well suited for the two topics investigated in this thesis: Structure Determination of Reactive Intermediates and Conformational Dynamics of Proteins.
Structure Determination of Reactive Intermediates: The focus of this thesis is using polarization-dependent 2D-IR (P2D-IR) spectroscopy for structure determination of N-crotonyloxazolidinone (referred to as 1), a small organic compound with a chiral oxazolidinone, known as Evans auxiliary, and its reactive complexes with the Lewis acids SnCl4 and Mg(ClO4)2. Chiral oxazolidinones in combination with Lewis acids have frequently been used in stereoselective synthesis for over 30 years. Nevertheless, the detailed mechanisms are in many cases xvi ABSTRACT still mere hypotheses and have not yet been experimentally proven. By accurately measuring the angles between the transition dipole moments in the molecules using an optimized P2D-IR setup and comparing the results to DFT calculations, the conformation of 1 and the conformation and coordination of the main complexes with SnCl4 and Mg(ClO4)2 are unequivocally identified and analyzed in depth. Structural details, such as a slight twist in the solution structure of 1, are detected using P2D-IR spectroscopy; these cannot be inferred from NMR spectroscopy or DFT calculations. In addition to the main Lewis acid complexes, complexes in low concentration are detected and tentatively assigned to different conformations and complexation geometries. The knowledge of those structures is essential for rationalizing the observed stereoselectivities. Additionally, a method is introduced that enables structure determination of molecules in complex mixtures and even in the presence of molecules with similar spectral properties and in high concentration. This work sets the stage for future studies of other substrate-catalyst complexes and reaction intermediates for which the structure determination has not been possible to date.
Conformational Dynamics of Proteins: Exchange 2D-IR spectroscopy allows the investigation of fast dynamics without disturbing the equilibrium of the exchanging species. It is therefore well suited to investigate fast dynamics of proteins and to reveal the speed limit of those. The temperature dependence of the conformational dynamics between the myoglobin substates A1 and A3 in equilibrium is analyzed. The various substates of myoglobin can be detected with FTIR spectroscopy, if carbon monoxide is bound to the heme. From previous studies it is known that the exchange rates at room temperature are in the picosecond time range, well suited to be investigated by 2D-IR spectroscopy. In the temperature range between 0 °C and 40 °C only a weak temperature dependence of the exchange rate in the myoglobin mutant L29I is observed in the present study. The exchange rate approximately doubles from 15 ns-1 at 0 °C to 31 ns-1 at 40 °C. It turned out that the conformational dynamics correlates linearly with the solvent viscosity, which itself is temperature dependent. Comparing our results to measurements at cryogenic temperatures, the linear relation between exchange time constant for this process and the viscosity is shown for the temperature range between -100 °C and 40 °C (corresponding to a viscosity change of 14 orders of magnitude). Thus, it is proven that the dynamics of the conformational switching are mainly determined by solvent dynamics, i.e., the protein dynamics are slaved to the solvent dynamics. This is the first time slaving is observed for such fast processes (in the picosecond time range). The observation implies a long-range structural rearrangement between the myoglobin substates A1 and A3. In addition, the exchange for other mutants and wild type myoglobin is analyzed qualitatively and found to agree with the conclusions drawn from L29I myoglobin.
Untersuchung von Korrelationseffekten in der Doppelphotoemission von normal- und supraleitendem Blei
(2012)
Im Rahmen dieser Arbeit wurde für die erstmalige Untersuchung der Doppelphotoemission von supraleitenden Materialien eine neue Messapparatur aufgebaut. Mit ihr lassen sich auf eine neue Weise Korrelationseffekte zwischen zwei Elektronen untersuchen, denn beide werden für jedes Reaktionsereignis mit ihrem vollständigen Impulsvektor aufgezeichnet. Die Apparatur kann daher für einen direkten Nachweis der Cooperpaarung in Supraleitern verwendet werden. Dazu wurden ein speziell für diesen Zweck angepasstes Spektrometer, Vakuumsystem und Probenhalter konstruiert. Ein mehrfach verbessertes Vakuumsystem sorgte dafür, dass eine Bleioberfläche über einen Zeitraum von mindestens 15 Stunden nach einer Reinigung gemessen werden konnte. Das Spektrometer erlaubte die koinzidente Messung von Elektronen über einen großen Raumwinkelbereich mit ausschließlich elektrischen Feldern. Dadurch war es auch im supraleitenden Zustand möglich, die Trajektorien der Elektronen zu berechnen. Die Energieauflösung für jedes Elektron lag zwischen 1/30 und 1/50, je nach untersuchtem Emissionswinkel. Ein eigens entwickelter Probenhalter erlaubte es, eine nur von einer Seite thermisch abgeschirmte Probe auf eine Temperatur von 4,5 K zu kühlen. Die Experimente wurden an einer Beamline des Berliner Synchrotrons BESSY durchgeführt.
Von entscheidender Bedeutung für die Auswertung der Daten ist die Qualität der Pulserkennungsroutine. Sie bestimmt die Totzeit der Messapparatur, das heisst wie nahe zwei Elektronen zeitlich und räumlich beieinander liegen dürfen, um noch detektiert zu werden. Sie beeinflusst somit die Beobachtung erheblich. In den als digitalisierte Pulse aufgenommen Rohdaten besteht die Schwierigkeit darin, zwei übereinander liegende Signale als solche zu erkennen und die richtige Zeit beider Signale zu bestimmten. Dies wurde erheblich verbessert, indem ein in Vorabeiten simulierter Doppelpulsalgorithmus modifiziert und erstmalig verwendet wurde. In der Folge konnte die Totzeit deutlich verringert und daher bis zu 20% mehr Doppelereignisse gefunden werden. Darüber hinaus ließen sich Fehler bei der Zeiterkennung nahe aufeinander folgender Pulse korrigieren. Ein in diesem Zusammenhang entwickeltes Programm erzeugte durch die Addition von gemessenen Einzelpulsen künstliche Doppelereignisse mit beliebiger Abstandsverteilung und erlaubte so erstmals eine exakte Simulation der Detektortotzeit mit verschiedenen Pulserkennungsalgorithmen.
Neben den Koinzidenzereignissen wurden auch die Ergebnisse der gewöhnlichen Photoemission untersucht und mit Bandstrukturrechnungen verglichen. Aufgrund der Messmethode wurde keine Vorauswahl bezüglich des Emissionswinkels oder der kinetischen Energie getroffen. Die Ergebnisse der Fermiflächen stimmen innerhalb der erreichten Auflösung mit den theoretischen Vorhersagen überein. Ebenso konnten die Strukturen in den Parallelimpulsspektren der Elektronen, die aus lokalisierten Energieniveaus emittiert wurden, mit der Interferenz der ausgehenden Wellenfunktionen erklärt werden. Eine Simulation dieses Effekts lieferte trotz der vergleichsweise sehr niedrigen Elektronenenergien eine gute Übereinstimmung der wesentlichen Merkmale.
Es wurden Doppelphotoemissionspektren von Blei bei verschiedenen Photonenenergien im Bereich von 21,22 eV bis 40 aufgenommen. Dabei konnten verschiedene Emissionskanäle identifiziert werden. Das Korrelationsloch ist ein sehr grundlegender Effekt, der aufgrund der Coulombabstoßung und des Pauli-Prinzips auftritt und daher bei allen Metallen vorkommt. Betrachtet man das Korrelationsloch im Impulsraum, so führt es dazu, dass zwei gleichzeitig emittierte Elektronen keine ähnlichen Impulsvektoren besitzen dürfen. Durch die verbesserten Pulserkennungsalgorithmen war es möglich, das Korrelationsloch zu untersuchen und über einen weiten Energiebereich zu vermessen. Es zeigte sich wie erwartet als Verarmungszone in der Impulsverteilung eines Elektrons um den Impuls eines zweiten. Ein solcher Effekt ist mit einem einzelnen Detektor sehr schwer zu messen, da die Totzeit die gleiche Auswirkung auf die Spektren hat. Durch eine Simulation konnte ihr Einfluss in jedem Spektrum herausgefunden und so beide Effekte voneinander getrennt werden. Sie stehen damit für einen Vergleich mit einer noch zu entwickelnden theoretischen Vorhersage zur Verfügung.
Aufgrund der bei Blei sehr nahe an der Fermikante liegenden, lokalisierten Energieniveaus konnte der Augerzerfall aus dem Valenzband identifiziert und untersucht werden. Korrelationseffekte zwischen den beiden Elektronen spielten aufgrund des sehr breiten Valenzbandes wie erwartet eine untergeordnete Rolle. Dies ließ sich nachweisen, indem die Energieverteilung durch eine Selbstfaltung der Valenzbandzustandsdichte beschrieben wurde und die Winkelverteilung der Augerelektronen keine Beeinflussung durch die Emissionsrichtung der Photoelektronen zeigte. Beide Beobachtungen deuten auf einen vollständig unabhängigen Emissionsprozess der beiden Elektronen hin. Überraschenderweise zeigte sich aber eine Energieverschiebung des Photoelektrons, abhängig von der kinetischen Energie des Augerelektrons. Dieser in der Gasphase als Post-Collision-Interaction bekannte Effekt sollte aufgrund der schnellen Abschirmung der im Festkörper zurückbleibenden Löcher nicht auftauchen. Die Ursache für die Energieverschiebung ist noch unbekannt.
Für die Identifizierung der Emission von Cooperpaaren wurden Messungen oberhalb und unterhalb der Sprungtemperatur bei verschiedenen Photonenenergien zwischen 20 eV und 40 eV durchgeführt. Verschiedene Spektren wurde nach der Signatur des Prozesses untersucht. Aufgrund der geringen Statistik konnte er nicht identifiziert werden. Demnach konnte auch die theoretische Vorhersage nicht widerlegt werden. Da dieses Experiment aus technischer Sicht äußerst herausfordernd ist, war die Untersuchung von Blei, als einfach zu präparierendes Material mit hoher Sprungtemperatur, naheliegend. Es stellte sich jedoch durch die Auswertung heraus, dass es im Hinblick auf die untersuchte Fragestellung einen wesentlichen Nachteil besitzt. Die Hauptintensität befindet sich im Gegensatz zu Kupfer für alle hier verwendeten Photonenenergien bei niedrigen Elektronenenergien, so dass nur wenige Ereignisse in dem für die Cooperpaaremission interessanten Energiefenster liegen.
The intriguing effects of electroweak induced parity violation (PV) in molecules have yet to be observed, but experiments on molecular PV promise to provide fascinating insights. They potentially offer a novel testing ground for the low energy sector of the standard model and, in addition, a successful measurement of PV differences between the two enantiomers of a chiral molecule could promote a deeper understanding of molecular chirality, by essentially establishing a new link between particle physics and biochemistry. A key challenge in the design of such experiments is the identification of suitable molecules, which in turn requires widely applicable computational schemes for the prediction of PV experimental signals. To this end, a quasirelativistic density functional theory approach to the calculation of PV effects in nuclear magnetic resonance (NMR) spectra of chiral molecules has been developed and implemented during the course of this thesis. It includes relativistic as well as electron--correlation effects and has been used extensively in the screening of molecules possibly suited for a first observation of molecular PV. Some relevant compound classes have been identified, but none of their selected representatives are predicted to exhibit PV NMR frequency shifts that can be detected under current experimental restrictions. In order to advance the design of molecules which exhibit particularly large PV signals in experiments, systematic effects on PV NMR frequency splittings such as scaling with nuclear charge, conformational dependence and the impact of atomic substitution around the NMR active nucleus have been studied. Previously predicted scaling laws were confirmed and it was determined that the environment of the NMR active nucleus, both in terms of conformation and atomic composition, can be tuned to increase PV frequency shifts by several orders of magnitude. In addition to molecules suited for NMR experiments, a fascinating chiral actinide compound was studied with regard to PV frequency shifts in vibrational spectra. This compound displays the largest such shift ever predicted for an existing molecule, which lies well within the attainable experimental resolution. The challenge now lies in making it compatible with current experimental setups.
Seit Anbeginn der Festkörperphysik ist die Frage, warum manche Materialien metallisch sind, andere dagegen isolierend, von zentraler Bedeutung. Eine erste Erklärung wurde durch die Bändertheorie [23, 44] gegeben. Die Elektronen sind dem periodischen Potential der Rumpfatome ausgesetzt, wodurch ein Energiespektrum bestehend aus Bändern erzeugt wird und die Füllung dieser Bänder bestimmt die Leitungseigenschaften des Festkörpers. ...
The study of systems whose properties are governed by electronic correlations is a corner stone of modern solid-state physics. Often, such systems feature unique and distinct properties like Mott metal-insulator transitions, rich phase diagrams, and high sensitivity to subtle changes in the applied conditions. Whereas the standard approach to electronic structure calculations, density functional theory (DFT), is able to address the complexity of real-world materials but is known to have serious limitations in the description of correlations, the dynamical mean-field theory (DMFT) has become an established method for the treatment of correlated fermions, first on the level of minimal models and later in combination with DFT, termed LDA+DMFT.
This thesis presents theoretical calculations on different materials exhibiting correlated physics, where we aim at covering a range in terms of systems --from rather weakly correlated to strongy correlated-- as well as in terms of methods, from DFT calculations to combined LDA+DMFT calculations. We begin with a study on a selection of iron pnictides, a recently discovered family of high-temperature superconductors with varying degree of correlation strength, and show that their magnetic and optical properties can be assessed to some degree within DFT, despite the correlated nature of these systems. Next, extending our analysis to the inclusion of correlations in the framework of LDA+DMFT, we discuss the electronic structure of the iron pnictide LiFeAs which we find to be well described by Fermi liquid theory with regard to many of its properties, yet we see distinct changes in its Fermi surface upon inclusion of correlations. We continue the study of low-energy properties and specifically Fermi surfaces on two more iron pnictides, LaFePO and LiFeP, and predict a topology change of their Fermi surfaces due to the effect of correlations, with possible implications for their superconducting properties. In our last study, we close the circle by presenting LDA+DMFT calculations on an organic molecular crystal on the verge of a Mott metal-insulator transition; there, we find the spectral and optical properties to display signatures of strong electronic correlations beyond Fermi liquid theory.
Ende der 70ger Jahre, fünf Jahre nach der Einführung des ersten kommerziellen, medizinischen Computertomographen wurde die Tomographie am Los Alamos Scientific Laboratory zum ersten Mal für die Diagnose von Teilchenstrahlen angewendet. Bei der Tomographie wird aus eindimensionalen Projektionen, sogenannten Profilen, welche in möglichst vielen Winkeln um ein Objekt herum aufgenommen werden, ein zweidimensionales Abbild der Dichteverteilung (Slice oder Scheibe) approximiert. Dies ist möglich durch das bereits 1917 von Johann Radon eingeführte Fourier-Scheiben-Theorem. In der Theorie kann die zwei-dimensionale Dichteverteilung exakt ermittelt werden, wenn Projektionen mit einer unendlich feinen Auflösung über unendlich viele Winkel um ein Objekt herum in die Rekonstruktion einbezogen werden. Durch die Rekonstruktion vieler Scheiben kann ein drei-dimensionales Abbild der Dichteverteilung in einem Objekt, in diesem Fall einem Ionenstrahl, berechnet werden, sofern dieses nicht optisch dicht ist.
Die Profile in der nicht-invasiven Strahldiagnose entstehen durch CCD-Kameraaufnahmen von strahlinduzierter Fluoreszenz, welche durch den Einlass von Restgas hervorgerufen wird. Es sind aber auch Profile, welche aus anderen Methoden gewonnen werden (z.B. Gittermessungen) denkbar. An Orten mit hoher Energie ist jedoch eine nicht-invasive Form der Profilaufnahme sowohl für die Qualität des Strahls, wie auch den Schutz der Messgeräte unabdingbar.
In den letzten 40 Jahren wurden im Bereich der Strahltomographie viele wichtige Fortschritte erzielt:
1. Anfangs standen nur sehr wenige Profile zur Verfügung, so dass die Methode der gefilterten Rückprojektion(FBP), welche sich direkt aus dem Fourier-Scheiben-Theorem ableitet und welches auch in der Medizin verwendet wird, nicht angewendet werden kann. Um dieses Problem zu lösen wurden iterative Methoden wie die Algebraische Rekonstruktion (ART) und die Methode der Maximalen Entropie (MEM) für die Strahltomographie erschlossen, so dass auch mit sehr geringer Profilanzahl eine Rücktransformation möglich wurde.
2. Neben der Ortsraumtomographie wurde die Phasenraumtomografie entwickelt, so dass mittlerweile eine Rekonstruktion des sechs-dimensionalen Phasenraumes möglich ist, mit welchem ein Ionenstrahl in seiner Gesamtheit beschrieben werden kann.
3. Die Projektionen wurden lange Zeit durch Aufnahmen von mehreren festen Anschlüssen aus gewonnen (Multi-Port-Technik). Auf diese Weise ist die Anzahl der möglichen Projektionen sehr begrenzt. So entwickelte man später eine Methode welche den Strahl mit Hilfe von Quadrupolen dreht (Quad-Scan-Technik), so dass auf diese Weise von einem Anschluss aus viele Projektionen gemessen werden konnten, so dass sogar die FBP angewendet werden konnte.
4. Die meisten Bestrebungen zielten darauf ab, die Tomographie für eine nicht-invasive Emittanzmessmethode zu nutzen, welches bis heute aufgrund der großen und noch immer zunehmenden Energien in modernen Beschleunigern ein wichtiges Problem ist. Um die Tomographie zur Emittanzmessung zu verwenden, führt man eine Rekonstruktion des Phasenraumes durch. Das Problem ist, dass hierfür das a priori Wissen über die Strahltransportmatrix in die Tomographie mit einfließt, die berechnete Strahltransportmatrix
jedoch nicht mit dem tatsächlichen Strahltransport übereinstimmt, da dieser bei hohen Energien durch auftretende Raumladung nicht-linear verändert wird. Hierzu wurden gute Fortschritte in der Abschätzung der tatsächlichen Transportmatrix gemacht um die Phasenraumtomographie trotzdem mit hinreichend gutem Ergebnis durchführen zu können.
Trotz all dieser Fortschritte und Entwicklungen ist die Tomographie bis heute keine weitverbreitete Methode in der Strahldiagnose. Der Grund ist, dass das Einrichten einer Tomografie eine komplexe Abfolge etlicher Entscheidungen und weitgestreutes Wissen aus vielen unterschiedlichen Bereichen erfordert, dieser nicht zu unterschätzende Mehraufwand jedoch auch durch einen signifikanten Nutzen gerechtfertigt sein muss. Der große Nutzen der Tomographie für die Strahldiagnose und Untersuchung der Strahldynamik ist bis heute allerdings weitgehend unerkannt und weiterhin reduziert auf die Entwicklung einer nicht-invasiven Methode für die Emittanzbestimmung. Ein zweites Hindernis stellte bisher auch die Diskrepanz zwischen Genauigkeit und Platzaufwand dar (hohe Genauigkeit durch viele Projektionen mit Quad-Scan-Technik auf mehreren Metern oder niedrige Genauigkeit durch wenig Projektionen mit Multi-Port-Technik auf weniger als einem Meter). Die Tomografie kann großen Nutzen leisten für die Online-Überwachung wichtiger Maschineneparameter im Strahlbetrieb (Monitoring) als auch für detaillierte Analysen zur Strahldynamik (Modellierung) weit über die Implementierung einer nicht-invasiven Emittanzmessmethode hinaus.
Um dies zu gewährleisten Bedarf es Zweierlei. Zum einen muss die Diskrepanz zwischen Genauigkeit und Platzaufwand aufgehoben werden. Hierzu wurde im Rahmen dieser Arbeit eine rotierbare Vakuumkammer entwickelt die nach dem Vorbild medizinischer Tomographen in mehr als 5000 Winkelschritten um den Strahl herum fahren kann, dabei ein Vakuum von mindestens 10-7mbar aufrecht erhält und einen Platzbedarf von weniger als 400 mm in der Strahlstrecke einnimmt. Zum anderen muss die Implementierung der Tomografie durch eine Angabe von schematischen Schritten und Entscheidungen vereinfacht werden. Eine Strahltomographie muss immer auf ihren jeweiligen Zweck hin implementiert werden, da Einzelelemente der Tomografie wie beispielsweise Messvorrichtung und dadurch die Profilanzahl, zu verwendender Tomographiealgorithmus, zu bestimmende Parameter sich je nach Einsatz unterscheiden können. Jedoch können die dazu nötigen Entscheidungen in ein Schema eingeordnet werden, welches die Implementierung der Tomographie vereinfacht und beschleunigt. Hierzu wurde in dieser Arbeit eine Diagnosepipeline und ein Entscheidungsschema eingeführt, sowie die Implementierung nach diesem Schema am Beispiel einer Strahltomographie für die Frankfurter Neutronenquelle (FRANZ) demonstriert und die entsprechenden Fragen und Entscheidungen diskutiert. Es wird gezeigt, wie sich aus den Messdaten über die Aufbereitung der Daten durch die Tomografie die erforderlichen Standardstrahlparameter für ein Monitoring gewinnen lassen. Zusätzlich wird ein Ebenen-Modell eingeführt, über welches nicht-Standardparameter oder neu modellierte Strahlparameter für detaillierte Analysen der Strahldynamik über die Standardparameter hinaus entwickelt werden können. Diese Arbeit soll ein grundlegendes Konzept für die routinemäßige Implementierung der Tomographie in der Strahldiagnose zur Verfügung stellen. Für die Verwendung zum Monitoring im Strahlbetrieb muss die Bestimmung von Standardparametern noch wesentlich im Zeitaufwand verbessert werden. Die Verwendung der Phasenraumtomographie benötigt noch eine Idee um den arcustangensförmigen Verlauf der berechneten Phasenraumrotationswinkel mit der Forderung der FBP nach äquidistanten Projektionswinkeln verträglicher zu machen.
The central goal of this investigation is to describe the dynamic reaction of a multicellular tumour spheroid to treatment with radiotherapy. A focus will be on the triggered dynamic cell cycle reaction in the spheroid and how it can be employed within fractionated radiation schedules.
An agent-based model for cancer cells is employed which features inherent cell cycle progression and reactions to environmental conditions. Cells are represented spatially by a weighted, dynamic and kinetic Voronoi/Delaunay model which also provides for the identification of cells in contact within the multicellular aggregate. Force-based interaction between cells will lead to rearrangement in response to proliferation and can induce cell quiescence via a mechanism of pressure-induced contact inhibition. The evolution of glucose and oxygen concentration inside the tumour spheroid is tracked in a diffusion solver in correspondence to in vitro or in vivo boundary conditions and a corresponding local nutrient uptake by single cells.
Radiation effects are implemented based on the measured single cell survival in the linear-quadratic model. The survival probability will be affected by the radiosensitivity of the current cycle phase and the local oxygen concentration. Quiescent cells will reduce the effective dose they receive as a consequence of their increased radioresistance. The radiation model includes a fast response to fatal DNA damage through cell apoptosis and a slow response via cell loss due to misrepair during the radiation-induced G2-block.
A simplified model for drug delivery in chemotherapy is implemented.
The model can describe the growth dynamics of spheroids in accordance to experimental data, including total number of cells, histological structure and cell cycle distribution. Investigations of possible mechanisms for growth saturation reveal a critical dependence of tumour growth on the shedding rate of cells from the surface.
In response to a dose of irradiation, a synchronisation of the cell cycle progression within the tumour is observed. This will lead to cyclic changes in the overall radiation sensitivity of the tumour which are quantified using an enhancement measure in comparison to the expected radiosensitivity of he tumour. A transient strong peak in radiosensitivity enhancement is observed after administration of irradiation. Mechanisms which influence the peak timing and development are systematically investigated, revealing quiescence and reactivation of cells to be a central mechanism for the enhancement.
Direct redistribution of cells due to different survival in cell cycle phases, re-activation of quiescent cells in response to radiation-induced cell death and blocking of DNA damaged cells at the G2/M checkpoint are identified as the main mechanisms which contribute to a synchronisation and determine the radiosensitivity increase. A typical time scale for the development of radiosensitivity and the relaxation of tumours to a steady-state after irradiation is identified, which is related to the typical total cell cycle time.
A range of clinical radiotherapy schedules is tested for their performance within the simulation and a systematic comparison with alternative delivery schedules is performed, in order to identify schedules which can most effectively employ the described transient enhancement effects. In response to high-dose schedules, a dissolution of the tumour spheroid into smaller aggregates can be observed which is a result of the loss of integrity in the spheroid that is associated with high cell death via apoptosis. Fractionated irradiation of spheroids with constant dose per time unit but different inter-fraction times clearly reveals optimal time-intervals for radiation, which are directly related to the enhancement response of the tumour.
In order to test the use of triggered enhancement effects in tumours, combinations of trigger- and effector doses are examined for their performance in specific treatment regimens. Furthermore, the automatic identification and triggering in response to high enhancement periods in the tumour is analysed.
While triggered schedules and automatic schedules both yield a higher treatment efficiency in comparison to conventional schedules, treatment optimisation is a revealed to be a global problem, which cannot be sufficiently solved using local optimisation only.
The spatio-temporal dynamics of hypoxia in the tumour are studied in response to irradiation. Microscopic, diffusion-induced reoxygenation dynamics are demonstrated to be on a typical time-scale which is in the order of fractionation intervals. Neoadjuvant chemotherapy with hydroxyurea can yield a drastic improvement of radiosensitivity via cell cycle synchronisation and specific toxicity against radioresistant S-phase cells.
The model makes clear predictions of radiation schedules which are especially effective as a result of triggered cell cycle-based radiosensitivity enhancement. Division of radiation into trigger and effector doses is highly effective and especially suited to be combined with adjuvant chemotherapy in order to limit regrowth of cells.
Die vorliegende Arbeit befasst sich mit der Entwicklung einer spektroskopischen Methode für die medizinische Diagnostik und zielt auf die Einführung neuer analytischer Methoden in die klinische Praxis, die eine höhere Qualität bei der Behandlung von Patienten sowie eine Kostensenkung versprechen. Es wird eine reagenzienfreie infrarotspektroskopische Messmethode vorgestellt, mit der die Konzentrationen bestimmter Inhaltsstoffe von Körper- und anderen Flüssigkeiten quantitativ bestimmt werden können. Dabei kommt das kommerzielle FTIR- (Fourier-Transform Infrarot-) Spektrometer ALPHA der Firma Bruker zum Einsatz, für das eine spezielle ATR- (Abgeschwächte Totalreflexion) Messzelle konstruiert wurde. Diese eignet sich sowohl für Durchflussmessungen bei Volumenströmen von bis zu 1 l/min als auch für diskrete Proben mit einem minimalen Volumen von 10 µl. Die Kombination aus Spektrometer und Messzelle stellt somit ein kompaktes Messgerät dar, das zur Steuerung und Auswertung lediglich einen Computer benötigt und dessen Stabilität ebenfalls Langzeitmessungen erlaubt. Es stellt damit eine Basis für ein neuartiges Medizingerät dar, das auch außerhalb der Laborumgebung und insbesondere in der klinischen Routine von ungeschultem Personal eingesetzt werden kann.
Die quantitative Auswertung der Spektren erfolgt mittels multivariater Kalibrierung und PLS (Partial Least Squares) Regression. Dabei werden für die unterschiedlichen Inhaltsstoffe entsprechende Kalibriermodelle verwendet, die aus einer Reihe sorgfältig ausgewählter Proben erstellt wurden. Die Auswahl bezieht sich dabei vor allem auf einen breiten Konzentrationsbereich und auf möglichst unabhängig voneinander schwankende Konzentrationswerte der Inhaltsstoffe. Es wurden daher sowohl Proben im physiologischen als auch im pathologischen Bereich verwendet. Da die Konzentrationswerte der Kalibrierproben bekannt sein müssen, wurden die Proben mittels konventioneller klinischer Methoden analysiert. Die Genauigkeit dieser Referenzanalytik begrenzt dabei die maximale Genauigkeit der vorgestellten Methode.
Im Rahmen dieser Arbeit wurden Kalibriermodelle für die Inhaltsstoffe Glucose, Harnstoff, Creatinin und Lactat in der Waschlösung bei der Hämodialyse (Dialysat) sowie für die Inhaltsstoffe Glucose, Harnstoff, Cholesterol, Triacylglyceride, Albumin und Gesamtprotein in Vollblut und ebenso für Hämoglobin und Immunglobulin G in hämolysiertem Vollblut erstellt. Im Fall von Dialysat wurden hierfür sowohl künstlich erstellte sowie auch bei realen Dialysebehandlungen von Patienten entnommene Proben verwendet. Für Vollblut wurden bestehende Spektren an das neue Messgerät angepasst und durch Spektren neuer Blutproben erweitert. Die hiermit erreichte Genauigkeit und Präzision genügt in den meisten Fällen bereits klinischen Ansprüchen.
Für Dialysat wird gezeigt, dass mit dem vorgestellten Aufbau bereits kontinuierliche inline-Messungen direkt am Patienten möglich sind und gute Ergebnisse liefern. Dabei wurde sowohl auf eine einfache Anwendbarkeit während der Dialysebehandlung als auch auf eine einfache Bedienung mittels der vorgestellten Software geachtet. Das Gerät lässt sich somit problemlos in den klinischen Alltag integrieren und bietet aufgrund der Reagenzienfreiheit eine kostengünstige Methode zur kontinuierlichen und regelmäßigen Überwachung der Behandlungsverläufe.
Im Fall von Vollblut wird gezeigt, dass Messungen mit einer Probenmenge von 10 µl beispielsweise aus der Fingerbeere prinzipiell möglich sind und ebenfalls reproduzierbare Ergebnisse liefern. Damit steht eine präzise, einfache, kompakte und betriebskostengünstige Methode zur Verfügung, um in kurzer Zeit wichtige Blutparameter quantitativ bestimmen zu können.
Das kompakte und reagenzienfreie Messsystem erlaubt eine Vielzahl von Anwendungen, die insbesondere von den schnellen Analyseergebnissen und den geringen Verbrauchskosten profitieren. Beispielsweise beim Blutspendedienst, beim Hausarzt oder in Seniorenheimen kann die schnelle und einfache Ermittlung der hier untersuchten Blutparameter zur ersten Beurteilung des Patienten dienen und damit die Diagnose erleichtern. Der hohe Probendurchsatz und die vernachlässigbaren Betriebskosten führen in diesem Fall zu einer schnellen Amortisierung der Anschaffungskosten. Auch in Apotheken kann mit einem derartigen System ein erweiterter Service für Kunden angeboten werden.
Aufgrund des geringen Probenvolumens kommt das Messsystem ebenfalls für Anwendungen im Versuchstierbereich in Frage, beispielsweise für die Untersuchung von Mäuseblut in der German Mouse Clinic am Helmholtz Zentrum München. Die der Maus zu entnehmende Blutmenge und damit die Belastung des Tieres kann hierdurch erheblich reduziert werden.
Die Kompaktheit dieses universellen Systems erlaubt es weiterhin, eine Vielzahl anderer Flüssigkeiten zu untersuchen, die bereits erfolgreich infrarotspektroskopisch analysiert wurden. Dazu gehört unter anderem Urin, Bier und Wein.
In der Arbeit wird abschließend ebenfalls gezeigt, dass der Einsatz abstimmbarer Quantenkaskadenlaser zusammen mit der ATR-Technik prinzipiell die Möglichkeit eröffnet, die aufwändigen und teuren FTIR-Spektrometer zu ersetzen. Langfristig ist sowohl mit einer Verkleinerung des Aufbaus als auch mit einem Sinken des derzeit noch sehr hohen Anschaffungspreises zu rechnen. Der bereits verfügbare Abstimmbereich genügt zur Bestimmung der Glucosekonzentration. Eine Erweiterung, beispielsweise durch die Verwendung mehrerer Quantenkaskadenlaser mit unterschiedlichem Abstimmbereich, ermöglicht die Untersuchung weiterer Parameter.
Heparin wird als gerinnungshemmendes Medikament in vielen Bereichen eingesetzt: in niedriger Dosierung wird es vor allem zur Thromboseprophylaxe verwendet, in höheren Konzentrationen kommt es zum Beispiel in der Hämodialyse oder bei herzchirurgischen Eingriffen unter Verwendung der Herz-Lungen-Maschine zum Einsatz, um ein Gerinnen des Patientenblutes zu verhindern. Obwohl Heparin schon seit vielen Jahrzehnten eingesetzt wird, fehlt bis heute eine Methode, mit der sich die Heparin-Konzentration einfach, schnell und kostengünstig während des OP-Verlaufs bestimmen lässt. Vielmehr wird der Zustand des Patientenblutes über Gerinnungsverfahren eingeschätzt, die nur indirekt abhängig von Heparin sind und die von vielen Parametern beeinflusst werden. Eine Überwachung des Heparinspiegels ist mit diesen Methoden nicht möglich. Ein weiteres Problem ergibt sich, wenn am Ende des Eingriffs die normale Blutgerinnung wiederhergestellt werden soll. Zu diesem Zweck wird Protamin verabreicht, welches das im Patientenblut zirkulierende Heparin binden und damit dessen gerinnungshemmende Wirkung neutralisieren soll. Die Verabreichung des Protamins geschieht jedoch nicht, wie es idealerweise wäre, entsprechend der aktuellen Heparin-Konzentration, da derzeit kein Heparin-Messverfahren existiert. Dies kann eine fehlerhafte Heparin-Neutralisierung zur Folge haben, welche mit weitreichenden Nebenwirkungen, vor allem einer erhöhten Blutungsgefahr, verbunden ist.
Aufgrund dieser Problematik wurde eine streulichtphotometrische Methode (LiSA-H) entwickelt, mit dem die Bestimmung der Heparin-Konzentration einer Patientenprobe während chirurgischen Eingriffen möglich ist. Diese basiert auf der Messung der Intensität des an Heparin-Protamin-Nanopartikeln gestreuten Lichts. Diese Nanopartikel bilden sich, sobald Protamin einer Lösung mit Heparin, z.B. heparinisiertes Blutplasma, zugegeben wird.
Mit Hilfe von analytischer Ultrazentrifugation sowie Rasterkraftmikroskop-Aufnahmen konnten die Größe und die Größenverteilung der Heparin-Protamin-Partikel charakterisiert werden. Beide Methoden zeigten gut übereinstimmende Ergebnisse und lieferten Partikeldurchmesser von etwa 70 – 200 nm.
Um den Prozess der Messung zu optimieren, wurde nach Filtrationsmethoden gesucht, um den zeit- und arbeitsaufwendigen Zentrifugationsschritt zu vermeiden. Dazu wurden Filtermembranen aus verschiedenen Materialien und mit unterschiedlichen Porengrößen getestet, die eine Plasmagewinnung durch Filtration von Vollblut ermöglichen sollten. Leider war dies mit den getesteten Filtersystemen nicht möglich. Dies bleibt jedoch ein aktuelles Thema und wird weiterhin untersucht werden.
Zusätzlich zu der streulichtbasierten Messmethode konnte gezeigt werden, dass über fluoreszenzspektroskopische Methoden die Bestimmung kleiner Heparin-Konzentrationen möglich ist. Dafür wurde Protaminsulfat mit Fluoreszenzfarbstoffen markiert und die Erniedrigung der Emissionsintensität des fluoreszierenden Protamins nach Zugabe von Heparin beobachtet. Aus dem Grad dieser Intensitätsabnahme lässt sich auf die Heparin-Konzentration schließen. Diese Methode wäre hervorragend dafür geeignet, das streulichtbasierte Verfahren zu ergänzen, das im niedrigen Konzentrationsbereich zunehmend unempfindlich wird. Hierfür müssen jedoch noch einige Messungen durchgeführt werden, um zu zeigen, ob eine Messung auch von Plasma- oder sogar Vollblutproben möglich ist.
Es wurde ein klinischer Prototyp entwickelt, der die Bestimmung der Heparin-Konzentration in einer Blutplasmaprobe während chirurgischer Eingriffe ermöglicht. Dabei wird eine LED mit einem Emissionsmaximum bei 627 nm verwendet und die Streulichtintensität zur Bestimmung der Anzahl und der Größe der Heparin-Protamin-Partikel genutzt. Die Steuerung der Messung sowie die Auswertung der Messdaten werden mit einem Netbook und eigens dafür neu entwickelter Software realisiert. Mit diesem Prototyp lässt sich reproduzierbar aus der Änderung der Streulichtintensität einer Blutplasmaprobe nach Protaminzugabe innerhalb weniger Minuten deren Heparin-Konzentration bestimmen. Es wurde eine Kalibrierfunktion erstellt, mit der es möglich ist, aus der Streulichtintensität die Heparin-Konzentration zu berechnen.
Eine erste Studie im Universitätsklinikum der Johann Wolfgang Goethe-Universität Frankfurt a.M., bei der bei 50 herzchirurgischen Eingriffen unter Verwendung der Herz-Lungen-Maschine parallel zur üblichen Gerinnungsmessung eine Heparin-Bestimmung mit dem neuen Heparin-Assay erfolgte, zeigte, dass es mit diesem Verfahren möglich ist, im OP-Verlauf die Heparin-Konzentration im Patientenblut zu ermitteln. Daraus konnten schließlich weitere Informationen wie die individuelle Geschwindigkeit des Heparin-Abbaus erhalten werden.
Eine zweite Studie in der Kinderkardiologie des Universitätsklinikums Gießen, deren Ergebnisse statistisch noch nicht vollständig ausgewertet sind, wurde ebenfalls mit Erfolg abgeschlossen. Die vorläufigen Ergebnisse zeigten hier, dass sich die Heparin-Abbaukinetik bei Erwachsenen und Kindern deutlich unterscheidet. Zudem zeigte sich, dass die gemessene Gerinnungszeit bei Kindern wesentlich schlechter (nur 30 % der Fälle) mit der gemessenen Heparin-Konzentration korreliert als bei Erwachsenen (etwa 70 % der Fälle).
In der modernen Festkörperphysik spielen elektronisch stark korrelierte Systeme mit ihrem komplexen Vielteilchenverhalten eine zentrale Rolle. Insbesondere das Wechselspiel zwischen thermischen und Quantenfluktuationen in den Ladungs- und Spinfreiheitsgraden führt zur Entstehung verschiedenster neuartiger Grundzustände.
Die vorliegende Dissertation „Ultrasonic and Magnetic Investigations in frustrated Lowdimensional Spin Systems“ beschäftigt sich mit den besonderen physikalischen Eigenschaften niedrig dimensionaler Spinsysteme. Diese Materialklasse, die auch zu den stark korrelierten Systemen zählt, wird seit vielen Jahren intensiv sowohl experimentell als auch theoretisch untersucht. Auf theoretischer Seite sind die niedrigdimensionalen Spinsysteme besonders interessant, da sie als Modellsysteme die exakte Beschreibung des Grundzustandes und des Anregungsspektrums ermöglichen. Von experimenteller Seite ist es in den letzten Jahrzehnten gelungen, verschiedenste Materialklassen niedrigdimensionaler Spinsysteme zu synthetisieren.
In der vorliegenden Arbeit werden die grundlegenden Theorien und physikalischen Konzepte niedrigdimensionaler Spinsysteme diskutiert. Insbesondere auch die Spin-Phonon-Wechselwirkung dieser Materialien, die für die hier beobachteten elastischen Anomalien verantwortlich ist. Weiterhin wird auch das elastische Verhalten bei magnetischen Phasenübergängen beschrieben.
Da die Ultraschallexperimente einen Schwerpunkt dieser Arbeit bilden, wird der Versuchsaufbau zur phasenempfindlichen Detektion von Schallgeschwindigkeit und Ultraschalldämfung ausführlich beschrieben. Diese Messmethode ist ideal zur Untersuchung der Spin-Phonon Wechselwirkung geeignet.
Thermal expansion measurements provide a sensitive tool for exploring a material's thermodynamic
properties in condensed matter physics as they provide useful information
on the electronic, magnetic and lattice properties of a material. In this thesis, thermal
expansion measurements have been carried out both at ambient-pressure and under hydrostatic
pressure conditions. From the materials point of view, the spin-liquid candidate
Kappa-(BEDT-TTF) 2 Cu 2(CN)3 has been studied extensively as a function of temperature and
magnetic field. Azurite, Cu 3 (CO 3) 2 (OH) 2 - a realization of a one-dimensional distorted
Heisenberg chain is also studied both at ambient and hydrostatic pressure to demonstrate
the proper functioning of the newly built setup "thermal expansion under pressure". ...
In this thesis, we have investigated strongly correlated bosonic gases in an optical lattice, mostly based on a bosonic version of dynamical mean field theory and its real-space extension. Emphasis is put on possible novel quantum phenomena of these many-body systems and their corresponding underlying physics, including quantum magnetism, pair-superfluidity, thermodynamics, many-body cooling, new quantum phases in the presence of long-range interactions, and excitational properties. Our motivation is to simulate manybody phenomena relevant to strongly correlated materials with ultracold lattice gases, which provide an excellent playground for investigating quantum systems with an unprecedented level of precision and controllability. Due to their high controllability, ultracold gases can be regarded as a quantum simulator of many-body systems in solid-state physics, high energy astrophysics, and quantum optics. In this thesis, specifically, we have explored possible novel quantum phases, thermodynamic properties, many-body cooling schemes, and the spectroscopy of strongly correlated many-body quantum systems. The results presented in this thesis provide theoretical benchmarks for exploring quantum magnetism in upcoming experiments, and an important step towards studying quantum phenomena of ultracold gases in the presence of long-range interactions.
The objective of this work is twofold. First, we explore the performance of the density functional theory (DFT) when it is applied to solids with strong electronic correlations, such as transition metal compounds. Along this direction, particular effort is put into the refinement and development of parameterization techniques for deriving effective models on a basis of DFT calculations. Second, within the framework of the DFT, we address a number of questions related to the physics of Mott insulators, such as magnetic frustration and electron-phonon coupling (Cs2CuCl4 and Cs2CuBr4), high-temperature superconductivity (BSCCO) and doping of Mott insulators (TiOCl). In the frustrated antiferromagnets Cs2CuCl4 and Cs2CuBr4, we investigate the interplay between strong electronic correlations and magnetism on one hand and electron-lattice coupling on the other as well as the effect of this interplay on the microscopic model parameters. Another object of our investigations is the oxygen-doped cuprate superconductor BSCCO, where nano-scale electronic inhomogeneities have been observed in scanning tunneling spectroscopy experiments. By means of DFT and many-body calculations, we analyze the connection between the structural and electronic inhomogeneities and the superconducting properties of BSCCO. We use the DFT and molecular dynamic simulations to explain the microscopic origin of the persisting under doping Mott insulating state in the layered compound TiOCl.
A new era in experimental nuclear physics has begun with the start-up of the Large Hadron Collider at CERN and its dedicated heavy-ion detector system ALICE. Measuring the highest energy density ever produced in nucleus-nucleus collisions, the detector has been designed to study the properties of the created hot and dense medium, assumed to be a Quark-Gluon Plasma.
Comprised of 18 high granularity sub-detectors, ALICE delivers data from a few million electronic channels of proton-proton and heavy-ion collisions.
The produced data volume can reach up to 26 GByte/s for central Pb–Pb
collisions at design luminosity of L = 1027 cm−2 s−1 , challenging not only the data storage, but also the physics analysis. A High-Level Trigger (HLT) has been built and commissioned to reduce that amount of data to a storable value prior to archiving with the means of data filtering and compression without the loss of physics information. Implemented as a large high performance compute cluster, the HLT is able to perform a full reconstruction of all events at the time of data-taking, which allows to trigger, based on the information of a complete event. Rare physics probes, with high transverse momentum, can be identified and selected to enhance the overall physics reach of the experiment.
The commissioning of the HLT is at the center of this thesis. Being deeply embedded in the ALICE data path and, therefore, interfacing all other ALICE subsystems, this commissioning imposed not only a major challenge, but also a massive coordination effort, which was completed with the first proton-proton collisions reconstructed by the HLT. Furthermore, this thesis is completed with the study and implementation of on-line high transverse momentum triggers.
Zellulare Nichtlineare Netzwerke bzw. Zellulare Neuronale Netzwerke, sogenannte CNN, wurden 1988 von L.O. Chua und L.Yang eingeführt und seither intensiv untersucht. Diese sind als Simulations-Software und als schaltungstechnische Realisierungen, in Hardware, verfügbar.
Als analog arbeitende Hardware Schaltungen können diese Netzwerke erhebliche Rechenleistungen erzielen.
Durch ihren Aufbau ermöglichen sie eine parallele Daten- und Signalverarbeitung.
Eine Einführung in CNN wird gegeben und das EyeRIS 1.1 Systems des Unternehmens ANAFOCUS Ltd. vorgestellt.
Das EyeRIS 1.1 System ist mit einem analog arbeitenden Focal Plane Prozessor (FPP) und einem digitalen Prozessor ausgestattet, wobei der Focal Plane Prozessor auch als Kamera zur Aufnahme von Bildern und Bildsequenzen benutzt werden kann.
Dies ermöglicht es, analoge CNN-Algorithmen zusammen mit digitalen Algorithmen auf einem System zu implementieren und so die Vorteile beider Ansätze zu nutzen. Der Datenaustausch zwischen dem analogen und digitalem Teil des EyeRIS 1.1 Systems geschieht mittels digital/analog und analog/digital Wandlung. Es werden Algorithmen auf dem EyeRIS 1.1 System untersucht und mit Ergebnissen die mittels Simulationen erzeugt wurden verglichen.
In Voruntersuchungen werden die Darstellungsgenauigkeit von Werten im analogen Teil des EyeRIS 1.1 Systems und die Verarbeitungsgeschwindigkeiten des EyeRIS 1.1 Systems untersucht.
Im Weiteren wird besonderes Augenmerk auf medizinische und technische Anwendungsgebiete gelegt werden.
Im medizinischen Anwendungsbereich wird die Implementierung von Algorithmen zur Vorhersage epileptischer Anfälle untersucht.
Hierfür wird ein evolutionär motiviertes Optimierungsverfahren entwicklet und auf dem EyeRIS 1.1-System implementiert.
Hierbei werden Simulationen durchgeführt und mit Ergebnissen, die mittels Verwendung des EyeRIS 1.1 Systems erlangt wurden, verglichen.
Ein zweites Verfahren geht die Signalanalyse für die Vorhersage auf dem EyeRIS 1.1-System mittels Mustererkennung an.
Das Mustererkennungsverfahren wird eingehend beschrieben sowie die hierbei zu beachtenden Randbedingungen erläutert.
Die Ergebnisse zeigen, daß Algorithmen zur Vorhersage von epileptischen Anfällen auf schaltungstechnichen Realisierungen von CNN implementiert werden können.
Im technischen Bereich wird die Anwendbarkeit auf die Problemstellung der Bildverarbeitung gelegt und die Möglichkeit von CNN basierten Algorithmen zur Erkennung von Prozessparametern bei Laserschweißverfahren untersucht. Ein solcher Prozessparameter ist das sogenannte Key-Hole, welches in Bildsequenzen von Laserschweißprozessen als ein Maß für die zu erwartende Qualität einer Schweißnaht herangezogen werden kann. Ein CNN basierter Algorithmus für die Erkennung solcher Key-Holes wird in dieser Arbeit vorgestellt und untersucht.
Für die Überwachung eines Laserschweißverfahrens wird der entwickelte Algorithmius und seine Funktionsweise beschrieben.
Dieser wird in Teilalgorithmen auf die analog bzw. digital arbeitenden Komponenten des EyeRIS 1.1 Systems verteilt.
Die Teilalgorithmen und die möglichen Aufteilungen und deren Laufzeitverhalten werden beschrieben und untersucht.
Die Ergebnisse der Untersuchung zeigen, daß eine Prozessüberwachung mittels CNN möglich ist und heben die Vorteile hervor, welche die Bildaufnahme und -verarbeitung mittels analoger CNN-Hardware bietet.
Eine Untersuchung des Laufzeitverhaltens auf Grafikkarten Prozessoren (GPU's) wird im Anhang vorgestellt.
In this thesis, various aspects on the theoretical description of ultracold bosonic atoms in optical lattices are investigated. After giving a brief introduction to the fundamental concepts of BECs, atomic physics, interatomic interactions and experimental procedures in chapter (1), we derive the Bose-Hubbard model from first principles in chapter (2). In this chapter, we also introduce and discuss a technique to efficiently determine Wannier states, which, in contrast to current techniques, can also be extended to inhomogeneous systems. This technique is later extended to higher dimensional, non-separable lattices in chapter (5). The many-body physics and phases of the Bose-Hubbard is shortly presented in chapter (3) in conjunction with Gutzwiller mean-field theory, and the recently devised projection operator approach. We then return to the derivation of an improved microscopic many-body Hamiltonian, which contains higher band contributions in the presence of interactions in chapter (4). We then move on to many-particle theory. To demonstrate the conceptual relations required in the following chapter, we derive Bogoliubov theory in chapter (5.3.4) in three different ways and discuss the connections. Furthermore, this derivation goes beyond the usual version discussed in most textbooks and papers, as it accounts for the fact, that the quasi-particle Hamiltonian is not diagonalizable in the condensate and the eigenvectors have to be completed by additional vectors to form a basis. This leads to a qualitatively different quasi-particle Hamiltonian and more intricate transformation relations as a result. In the following two chapters (7, 8), we derive an extended quasi-particle theory, which goes beyond Bogoliubov theory and is not restricted to weak interactions or a large condensate fraction. This quasi-particle theory naturally contains additional modes, such as the amplitude mode in the strongly interacting condensate. Bragg spectroscopy, a momentum-resolved spectroscopic technique, is introduced and used for the first experimental detection of the amplitude mode at finite quasi-momentum in chapter (9). The closely related lattice modulation spectroscopy is discussed in chapter (10). The results of a time-dependent simulation agree with experimental data, suggesting that also the amplitude mode, and not the sound mode, was probed in these experiments. In chapter (11) the dynamics of strongly interacting bosons far from equilibrium in inhomogeneous potentials is explored. We introduce a procedure that, in conjunction with the collapse and revival of the condensate, can be used to create exotic condensates, while particularly focusing on the case of a quadratic trapping potential. Finally, in chapter (12), we turn towards the physics of disordered systems derive and discuss in detail the stochastic mean-field theory for the disordered Bose-Hubbard model.
The main purpose of the Transition Radiation Detector (TRD) located in the central barrel of ALICE (A Large Ion Collider Experiment) is electron identification for separation from pions at momenta pt > 1 GeV/c, since in this momentum range the measurements of the specific energy loss (dE/dx) of the Time Projection Chamber (TPC) is no longer sufficient. Furthermore, it provides a fast trigger for high transverse momentum charged particles (pt > 3 GeV/c) and makes a significant contribution to the optimization of the tracking of reaction products in heavy-ion collisions. Its whole setup comprises 18 supermodules out of which 13 are presently operational and mounted cylindrically around the beam axis of the Large Hadron Collider (LHC). A supermodule contains either 30 or 24 chambers, each consisting of a radiator for transition radiation creation, a drift and an amplifying region followed by the read-out electronics. In total, the TRD is an array of 522 chambers operated with about 28 m3 of a Xe-CO2 [85-15%] gas mixture. During the work of this thesis, the testing, commissioning, operation and maintenance of detector parts, the gas system and its online quality monitor, improvements on the detector control user-interface and studies about a new pre-trigger module for data read-out have been accomplished. The TRD gas system mixes, distributes and circulates the operational gas mixture through the detector. Its overall optimization has been achieved by minimizing gas leakage, surveying, controlling, maintaining and continuously improving it as well as designing and carrying out upgrades. Gas quality monitors of the type \GOOFIE" (Gas prOportional cOunter For drIfting Electrons) can be used in gaseous detectors as on-line monitors of the electron drift velocity, gain and gas properties. One of these devices has been implemented within the TRD gas system, while another one surveys the gas of the TPC. Both devices had to be adapted to the specific needs of the detectors, were under constant surveillance and control, and needed to be further developed on both hardware and software side. To improve the operation of the TRD, modifications on its DCS software (Detector Control System) used for monitoring, controlling, operating, regulating and configuring of hardware and computing devices have been carried out. The DCS is designed to enable an operator to interact with equipment through user interfaces that display the information from the system. The main focus of this work was laid on the optimization of the usability and design of the user interface. The front-end electronics of the TRD require an early start signal (\pre-trigger") from the fast forward detectors or the Time-Of-Flight detector during the running periods. The realization of a new hardware concept for the read-out of the TRD pre-trigger system has been studied and first tests were performed. This new module called PIMDDL (Pre-trigger Interface Module Detector Data Link) is meant to acquire all data necessary to simulate and predict the full pre-trigger functionality, and to verify its proper operation. Furthermore, it shall provide all functionalities of the so-called Control Box Bottom as well as keep the functionalities of the already existing PIM (Pre-trigger Interface Module) in order to combine and replace these two modules in the future.