Refine
Year of publication
Document Type
- Doctoral Thesis (596) (remove)
Has Fulltext
- yes (596)
Is part of the Bibliography
- no (596)
Keywords
- Quark-Gluon-Plasma (8)
- Schwerionenphysik (8)
- CERN (5)
- Heavy Ion Collisions (5)
- Ionenstrahl (5)
- LHC (5)
- Monte-Carlo-Simulation (5)
- Quantenchromodynamik (5)
- Schwerionenstoß (5)
- Teilchenbeschleuniger (5)
Institute
- Physik (596) (remove)
In der vorliegenden Arbeit wurden mikroskopische Studien zur Äquilibrierung von partonischer und hadronischer Materie im Rahmen einer Nichtgleichgewichts-Transporttheorie durchgeführt, die sowohl hadronische als partonische Freiheitsgrade enthält und den Übergang zwischen beiden Phasen dynamisch beschreibt. Des Weiteren wurden die thermischen Eigenschaften des Gleichgewichtszustandes der stark wechselwirkenden Materie untersucht, insbesondere Fluktuationen in der Teilchenzahl wie auch höhere Momente von Observablen und deren Verhältnisse. Besonderes Interesse galt dabei den Transportkoeffizienten wie Scher- und Volumenviskosität sowie der elektrischen Leitfähigkeit.
Die Methode der Nichtgleichgewichts-Green'schen Funktionen - initiiert von Schwinger sowie Kadanoff und Baym - wurde vorgestellt um hochenergetische Kern-Kern Kollisionen zu beschreiben. Weiterhin wurde der Schwinger-Keldysh Formalismus benutzt um im Sinne einer Zweiteilchen-irrediziblen Näherung (2PI) die Dynamik von 'resummierten' Propagatoren und Kopplungen in konsistenter Weise zu beschreiben. Des Weiterhin wurden generalisierte Transportgleichungen auf der Basis der Kadanoff-Baym Gleichungen (in Phasenraumdarstellung) abgeleitet und ein Testteilchenverfahren zur Lösung dieser Gleichungen vorgestellt. Damit wurde der formale Rahmen der Parton-Hadron-String Dynamik (PHSD) abgesteckt.
Das PHSD Transportmodell wurde sodann für die Lösung der expliziten Fragestellungen in dieser Arbeit verwendet. Die 'Eingangsgrößen' des Modells wurden in Kapitel 3 aufgeführt. Weiterhin wurde aufgezeigt, dass das Transportmodell alle Phasen einer relativistischen Schwerionenkollision konsistent beschreibt, d.h. angefangen von den primären harten Stoßprozessen und der Bildung von 'Strings' zur Formierung einer partonischen Phase, den Wechselwirkungen in dieser Phase sowie die
dynamische Beschreibung der Hadronisierung. Weiterhin enthält das Modell zudem die hadronischen Endzustandswechselwirkungen bis zum Ausfrieren der hadronischen Freiheitsgrade bei geringer Dichte. ...
Ziel dieser Arbeit war, die Reaktion von biologischen Gewebeproben auf dünn- und dicht-ionisierende Strahlung zu evaluieren. Dafür wurden die Gewebeproben konventioneller Röntgenstrahlung sowie einem ausgedehnten 12C-Ionen Bragg-Peak ausgesetzt. Zur Bestrahlung der biologischen Proben mit 12C wurde mit dem GSI-eigenen Simulationsprogramm TRiP98 ein Tiefendosisprofil eines ausgedehnten Bragg-peaks erstellt. Ein weiteres Ziel dieser Arbeit war, dieses Tiefendosisprofil mit drei anderen Simulationsprogrammen (ATIMA, MCHIT, TRIM) zu reproduzieren und zu vergleichen.
ATIMA und TRIM sind allgemeine Programme für den Energieverlust von Ionen in Materie. Sie können das von TRiP98 berechnetet Tiefendosisprofil nur ungenügend reproduzieren, da sie aufgrund fehlender Fragmentierung ein linear ansteigendes Tiefendosisprofil berechnen. Das Monte Carlo-Programm MCHIT, welches speziell für die Wechselwirkung von Ionen mit Materie in medizinischer Anwendung entwickelt wurde, zeigt die beste Übereinstimmung mit der TRiP98-Referenzkurve. Bis auf eine leicht höhere Durchschnittsdosis um 0.1 Gy konnte das Tiefendosisprofil nahezu exakt reproduziert werden.
Die biologischen Proben bestanden aus Schnittkulturen gesunder Maus-Lebern und Explantatkulturen gesunder Maus-Pankreata, um Nebenwirkungen ionisierender Strahlen abzuschätzen. Zusätzlich wurde die Reaktion auf 12C-Bestrahlung in neoplastischem Lebergewebe transgener c-myc/TGF-α Mäuse mit induzierbarem Lebertumor bestimmt. Um eine mögliche Tageszeitabhängigkeit der Gewebereaktion auf die Bestrahlung zu untersuchen, wurden die Schnitt- und Explantatkulturen zu zwei unterschiedlichen Tageszeiten präpariert: zur Mitte des subjektiven Tages und zur Mitte der subjektiven Nacht.
Die Präparate wurden für mehrere Tage auf einer Membran an einer Grenzschicht von Flüssigkeit und Luft kultiviert. Leber- und Pankreaskulturen gesunder C3H wildtyp Mäuse wurden mit einer Dosis von 2 Gy, 5 Gy oder 10 Gy Röntgenstrahlen bestrahlt. Leber- und Pankreaskulturen transgener Mäuse wurden mit ausgedehnten C-Ionen Bragg Peaks gleicher Dosen bestrahlt. Als Kontrolle dienten unbestrahlte Proben. Alle Proben wurden 1 h bzw. 24 h nach der Bestrahlung fixiert und immunhistochemisch auf Marker für Proliferation (Ki67), Apoptose (Caspase3) und DNA- Doppelstrangbrüche (γH2AX) untersucht.
Während die Pankreas-Präparate im Hinblick auf die untersuchten Parameter leider keine auswertbaren Ergebnisse ergaben, zeigten die untersuchten Parameter im gesunden Lebergewebe deutliche Tag-Nacht Unterschiede: die Proliferationsrate war zur Mitte des subjektiven Tages signifikant höher als zur Mitte der subjektiven Nacht. Umgekehrt waren die Raten für DNA-Doppelstrangbrüche zur Mitte der subjektiven Nacht signifikant erhöht. Diese Tag-Nacht Unterschiede ließen sich in neoplastischem Lebergewebe nicht nachweisen. Unabhängig von der Art und Dosis, hatte die Bestrahlung im gesunden Lebergewebe keinen Einfluss auf die untersuchten Parameter. In neoplastischem Lebergewebe hingegen wird die Rate an DNA-Doppelstrangbrüchen durch eine Bestrahlung dosisabhängig erhöht.
Die Auswirkungen ionisierender Strahlen auf das circadiane Uhrwerk wurden in Gewebeproben transgener Per2luc-Mäuse überprüft. Per2luc-Mäuse exprimieren das Enzym Luziferase unter der Kontrolle des Promoters von Per2, einem wichtigen Bestandteil des circadianen Uhrwerks. Daher erlaubt die Analyse dieser Tiere, den circadianen Rhythmus des molekularen Uhrwerks in Leber und anderen Geweben durch Messung der Luziferase-Aktivität in Echtzeit aufzuzeichnen. Wie in Leber- und Nebennierenkulturen dieser Tiere gezeigt werden konnte, führten ioniserende Strahlen dosisabhängig zu einem Phasenvorsprung des circadianen Uhrwerks.
Die Ergebnisse erlauben die Schlussfolgerung, dass ionisierende Strahlen das circadiane Uhrwerk verstellen, Proliferation und Apoptose in gesundem Lebergewebe jedoch kaum beeinflussen.
Das Ziel der vorliegenden Arbeit war, die systematischen Anfangsverluste im SIS18 zu minimieren. Das SIS18 soll als Injektor für das SIS100 in der neuen geplanten FAIR-Anlage eingesetzt werden und dafür die Strahlintensität erhöht werden. Eine wesentliche Rolle spielen das dynamische Vakuum im SIS18 und die anfänglichen Strahlverluste, verursacht durch Multiturn-Injektions- (MTI) oder HF-Einfangsverluste. Um den dynamischen Restgasdruck im SIS18 zu stabilisieren, müssen diese systematischen Anfangsverluste minimiert werden. Strahlteilchen, welche auf der Vakuumkammerwand verloren gehen, führen durch ionenstimulierte Desorption zu einem lokalen Druckanstieg. Dies wiederum erhöht die Wahrscheinlichkeit für Stöße zwischen Restgasteilchen und Strahlionen, wodurch diese umgeladen werden können und nach einem dispersiven Element (Dipol) auf der Vakuumkammer verloren gehen. Dies produziert einen weiteren lokalen Druckanstieg und verursacht eine massive Erhöhung der Umladungsraten. Eine Möglichkeit, die anfänglichen Verluste zu minimieren bzw. zu kontrollieren, ist die MTI-Verluste auf den Transferkanal (TK) zu verlagern, da dort ein Druckanstieg den umlaufenden Strahl im SIS18 nicht stört. Im Transferkanal werden die Strahlränder mit Hilfe von Schlitzen beschnitten und somit eine scharf definierte Phasenraumfläche erzeugt. ...
Das Gehirn ist die wohl komplexeste Struktur auf Erden, die der Mensch erforscht. Es besteht aus einem riesigen Netzwerk von Nervenzellen, welches in der Lage ist eingehende sensorische Informationen zu verarbeiten um daraus eine sinnvolle Repräsentation der Umgebung zu erstellen. Außerdem koordiniert es die Aktionen des Organismus um mit der Umgebung zu interagieren. Das Gehirn hat die bemerkenswerte Fähigkeit sowohl Informationen zu speichern als auch sich ständig an ändernde Bedingungen anzupassen, und zwar über die gesamte Lebensdauer. Dies ist essentiell für Mensch oder Tier um sich zu entwickeln und zu lernen. Die Grundlage für diesen lebenslangen Lernprozess ist die Plastizität des Gehirns, welche das riesige Netzwerk von Neuronen ständig anpasst und neu verbindet. Die Veränderungen an den synaptischen Verbindungen und der intrinsischen Erregbarkeit jedes Neurons finden durch selbstorganisierte Mechanismen statt und optimieren das Verhalten des Organismus als Ganzes. Das Phänomen der neuronalen Plastizität beschäftigt die Neurowissenschaften und anderen Disziplinen bereits über mehrere Jahrzehnte. Dabei beschreibt die intrinsische Plastizität die ständige Anpassung der Erregbarkeit eines Neurons um einen ausbalancierten, homöostatischen Arbeitsbereich zu gewährleisten. Aber besonders die synaptische Plastizität, welche die Änderungen in der Stärke bestehender Verbindungen bezeichnet, wurde unter vielen verschiedenen Bedingungen erforscht und erwies sich mit jeder neuen Studie als immer komplexer. Sie wird durch ein komplexes Zusammenspiel von biophysikalischen Mechanismen induziert und hängt von verschiedenen Faktoren wie der Frequenz der Aktionspotentiale, deren Timing und dem Membranpotential ab und zeigt außerdem eine metaplastische Abhängigkeit von vergangenen Ereignissen. Letztlich beeinflusst die synaptische Plastizität die Signalverarbeitung und Berechnung einzelner Neuronen und der neuronalen Netzwerke.
Der Schwerpunkt dieser Arbeit ist es das Verständnis der biologischen Mechanismen und deren Folgen, die zu den beobachteten Plastizitätsphänomene führen, durch eine stärker vereinheitlichte Theorie voranzutreiben.Dazu stelle ich zwei funktionale Ziele für neuronale Plastizität auf, leite Lernregeln aus diesen ab und analysiere deren Konsequenzen und Vorhersagen.
Kapitel 3 untersucht die Unterscheidbarkeit der Populationsaktivität in Netzwerken als funktionales Ziel für neuronale Plastizität. Die Hypothese ist dabei, dass gerade in rekurrenten aber auch in vorwärtsgekoppelten Netzwerken die Populationsaktivität als Repräsentation der Eingangssignale optimiert werden kann, wenn ähnliche Eingangssignale eine möglichst unterschiedliche Repräsentation haben und dadurch für die nachfolgende Verarbeitung besser unterscheidbar sind. Das funktionale Ziel ist daher diese Unterscheidbarkeit durch Veränderungen an den Verbindungsstärke und der Erregbarkeit der Neuronen mithilfe von lokalen selbst-organisierten Lernregeln zu maximieren. Aus diesem funktionale Ziel lassen sich eine Reihe von Standard-Lernenregeln für künstliche neuronale Netze gemeinsam abzuleiten.
Kapitel 4 wendet einen ähnlichen funktionalen Ansatz auf ein komplexeres, biophysikalisches Neuronenmodell an. Das Ziel ist eine spärliche, stark asymmetrische Verteilung der synaptischen Stärke, wie sie auch bereits mehrfach experimentell gefunden wurde, durch lokale, synaptische Lernregeln zu maximieren. Aus diesem funktionalen Ansatz können alle wichtigen Phänomene der synaptischen Plastizität erklärt werden. Simulationen der Lernregel in einem realistischen Neuronmodell mit voller Morphologie erklären die Daten von timing-, raten- und spannungsabhängigen Plastizitätsprotokollen. Die Lernregel hat auch eine intrinsische Abhängigkeit von der Position der Synapse, welche mit den experimentellen Ergebnissen übereinstimmt. Darüber hinaus kann die Lernregel ohne zusätzliche Annahmen metaplastische Phänomene erklären. Dabei sagt der Ansatz eine neue Form der Metaplastizität voraus, welche die timing-abhängige Plastizität beeinflusst. Die formulierte Lernregel führt zu zwei neuartigen Vereinheitlichungen für synaptische Plastizität: Erstens zeigt sie, dass die verschiedenen Phänomene der synaptischen Plastizität als Folge eines einzigen funktionalen Ziels verstanden werden können. Und zweitens überbrückt der Ansatz die Lücke zwischen der funktionalen und mechanistische Beschreibungsweise. Das vorgeschlagene funktionale Ziel führt zu einer Lernregel mit biophysikalischer Formulierung, welche mit etablierten Theorien der biologischen Mechanismen in Verbindung gebracht werden kann. Außerdem kann das Ziel einer spärlichen Verteilung der synaptischen Stärke als Beitrag zu einer energieeffizienten synaptischen Signalübertragung und optimierten Codierung interpretiert werden.
Diese Dissertation stellt die systematische Einbeziehung von Eichkorrekturen in die Theorie der thermischen Leptogenese vor, welche eine Erklärung für die Frage nach dem Ursprung der Materie in unserem Universum bereitstellt.
Geht man vom weithin anerkannten Urknallmodell aus, so müsste hierbei zu gleichen Teilen Materie sowie Antimaterie entstanden sein. Aufgrund von Annihilationsprozessen sollte demnach die gesamte Materie zerstrahlt sein und ein leeres Universum zurückbleiben. Da dies aber nicht der Fall ist, stellt sich die Frage, wie das Ungleichgewicht zwischen Materie und Antimaterie entstehen konnte. Der Wert der Asymmetrie lässt sich mit Hilfe von Experimenten sehr genau bestimmen. Für eine systematische theoretische Beschreibung dieser Problematik stellte A. Sacharow drei Bedingungen auf: 1. die Verletzung der Baryonenzahl, 2. die Verletzung der Invarianz von Ladungskonjugation C sowie der Zusammensetzung von Ladungskonjugation und Parität CP sowie 3. eine Abweichung vom thermischen Gleichgewicht.
Da das Urknallmodell und das Standardmodell der Teilchenphysik nicht in der Lage sind, diese Asymmetrie zu beschreiben, beschäftigt sich die vorliegende Dissertation mit der Theorie der thermischen Leptogenese, welche statt von einer ursprünglichen Baryonenasymmetrie von einer Leptonenasymmetrie ausgeht. Zu einem späteren Zeitpunkt wird diese dann mittels Sphaleron-Prozesse, welche die Baryonenzahl verletzen, in eine Baryonenasymmetrie übertragen. Hierzu werden neue Teilchen zum Standardmodell hinzugefügt: schwere Majorana-Neutrinos. Diese zerfallen im thermischen Nichtgleichgewicht CP-verletzend in die bekannten Standardmodell-Leptonen und Higgs-Teilchen.
In dieser Arbeit wird eine hierarchische Anordnung der drei schweren Neutrinomassen betrachtet. Dies hat zur Folge, dass zwei der drei Majorana-Neutrinos ausintegriert werden können und eine effektive Theorie aufgestellt werden kann. Dieses Modell wird auch vanilla leptogenesis genannt und im Folgenden verwendet.
Die Dissertation ist wie folgt gegliedert. Die einleitenden Betrachtungen sind Gegenstand der Kapitel 1 und 2. Dort werden weiterhin andere Modelle zur Lösung des Problems der Baryonenasymmetrie kurz vorgestellt. Die thermische Leptogenese wird eingeführt und der See-saw-Mechanismus sowie die CP-Asymmetrie genauer beschrieben. Am Ende des Kapitels wird der klassische Ansatz für Leptogenese über Boltzmann Gleichungen präsentiert.
In Kapitel 3 werden die Grundlagen für Quantenfeldtheorien im Nichtgleichgewicht eingeführt. Die wichtigsten Definitionen im Falle des thermischen Gleichgewichts werden gegeben, anschließend findet sich die Verallgemeinerung auf Nichtgleichgewichtszustände. Die Bewegungsgleichungen, die sogenannten Kadanoff-Baym-Gleichungen, werden im Folgenden sowohl für skalare Teilchen als auch für Fermionen gelöst.
Kapitel 4 stellt die Notwendigkeit der Einbeziehung von Eichkorrekturen im Kontext der thermischen Leptogenese vor. Durch die Definition einer Leptonenzahlmatrix lässt sich die Asymmetrie durch die Kadanoff-Baym Gleichung für Leptonen umschreiben. Da der Vergleich von Boltzmann und Kadanoff-Baym Gleichungen im letzten Teil dieses Kapitels Unterschiede im Zeitverhalten zeigt, werden im Kadanoff-Baym Ansatz thermische Standardmodell-Breiten des Higgsfeldes und der Leptonen per Hand eingeführt. Mit dieser naiven Erweiterung erhält man ein gleiches Verhalten für die Leptonenzahlmatrix, lokal in der Zeit wie die Lösung der Boltzmann Gleichung. Eine systematische Einführung von Standardmodellkorrekturen für thermische Leptogenese ist daher unumgänglich, weshalb im Rahmen der vorliegenden Dissertation von Grund auf Eichkorrekturen der Diagramme, die zur Asymmetrie führen, berücksichtigt werden.
Die vier für diese Arbeit wichtigen Skalenbereich bedingen zwei Resummationsschemata, Hard Thermal Loop (HTL) und Collinear Thermal Loop (CTL), welche in Kapitel 5 vorgestellt werden. Dies führt schließlich auf zwei Differenzialgleichungen für die Berechnung der thermischen Produktionsrate des Majorana-Neutrinos, welche in Kapitel 6 numerisch weiter ausgewertet werden.
In Kapitel 7 erfolgt zunächst eine naive Berechnung aller eichkorrigierter 3-Schleifen-Diagramme, die zu den beiden die Asymmetrie verursachenden Diagrammen gehören. Da eine einfache Berechnung der 3-Schleifen-Diagramme nicht ausreicht, wird an dieser Stelle ein neues, zylindrisches Diagramm eingeführt, welches alle wichtigen Beiträge, insbesondere die HTL- und CTL-resummierten, enthält. Am Ende des Kapitels findet sich der erste geschlossene Ausdruck für die eichkorrigierte Leptonenzahlmatrix in führender Ordnung in allen Kopplungen.
Abschließend gibt es eine kurze Zusammenfassung und einen Ausblick in Kapitel 8. In dieser Dissertation findet sich zum ersten Mal ein systematischer Zugang zur Berücksichtigung aller Eichwechselwirkungen in der Theorie der thermischen Leptogenese. Ein geschlossener Ausdruck für die eichkorrigierte Leptonenasymmetrie konnte vorgestellt werden.
In der nuklearen Astrophysik sind Experimente mit hochgeladenen Radionukliden von großer Bedeutung. Diese exotischen Nuklide können in Schwerionenbeschleunigeranlagen hergestellt und in Speicherringen gespeichert werden. Momentan existieren weltweit zwei Anlagen, die solche Experimente ermöglichen: das GSI Helmholtzzentrum für Schwerionenforschung GmbH in Darmstadt und das Institut für moderne Physik (IMP) in Lanzhou, China. Da die Ausbeute dieser Nuklide gering ist, werden zerstörungsfreie Nachweismethoden in den Speicherringen verwendet. Diese machen von den Methoden der Spektralanalyse Gebrauch. Nicht nur die geringe Ausbeute, sondern auch die kurze Lebensdauer dieser Nuklide stellen hohe Anforderungen an die Sensitivität und Geschwindigkeit dieser Detektoren.
Eine übliche Methode ist die Verwendung kapazitiver Schottky-Sonden. Eine solche Sonde ist seit 1991 an der GSI im Speicherring ESR im Einsatz. Um die Empfindlichkeit zu erhöhen, kann man Mikrowellenkavitäten als resonante Pickups verwenden. Die von den Teilchen induzierten elektromagnetischen Felder können resonante Moden im Resonator anregen. Die Geometrie des Pickups und das verwendete Material spielen eine wesentliche Rolle in der Gestaltung der Feldbilder. Die resultierenden Signale, auch Schottky Signale genannt, werden mittels einer Antenne ausgekoppelt und anschliessend an einen Spektrumanalysator angeschlossen. Für die Analyse der gespeicherten Daten können verschiedene Methoden der Spektralschätzung wie z.B. das Multi-Taper angewendet werden. Nachdem eine externe Kalibrierung durchgeführt worden ist, kann das Pickup auch als ein Stromsensor verwendet werden.
Diese Arbeit befasst sich mit der Theorie, dem Aufbau und ersten Anwendungen eines neuen resonanten Pickups, das im Jahr 2010 in den Speicherring ESR eingebaut und in mehreren Experimenten erfolgreich eingesetzt wurde. Ein ähnliches Pickup wurde im Jahr 2011 in den CSRe im IMP Lanzhou eingebaut. Einzelne Schwerionen mit 400 MeV pro Nukleon wurden erfolgreich mit dem GSI-Pickup nachgewiesen. Das Pickup wird regelmässig in Speicherringexperimenten eingesetzt. Ähnliche Experimente sind für CSRe in Lanzhou geplant.
Heparin wird als gerinnungshemmendes Medikament in vielen Bereichen eingesetzt: in niedriger Dosierung wird es vor allem zur Thromboseprophylaxe verwendet, in höheren Konzentrationen kommt es zum Beispiel in der Hämodialyse oder bei herzchirurgischen Eingriffen unter Verwendung der Herz-Lungen-Maschine zum Einsatz, um ein Gerinnen des Patientenblutes zu verhindern. Obwohl Heparin schon seit vielen Jahrzehnten eingesetzt wird, fehlt bis heute eine Methode, mit der sich die Heparin-Konzentration einfach, schnell und kostengünstig während des OP-Verlaufs bestimmen lässt. Vielmehr wird der Zustand des Patientenblutes über Gerinnungsverfahren eingeschätzt, die nur indirekt abhängig von Heparin sind und die von vielen Parametern beeinflusst werden. Eine Überwachung des Heparinspiegels ist mit diesen Methoden nicht möglich. Ein weiteres Problem ergibt sich, wenn am Ende des Eingriffs die normale Blutgerinnung wiederhergestellt werden soll. Zu diesem Zweck wird Protamin verabreicht, welches das im Patientenblut zirkulierende Heparin binden und damit dessen gerinnungshemmende Wirkung neutralisieren soll. Die Verabreichung des Protamins geschieht jedoch nicht, wie es idealerweise wäre, entsprechend der aktuellen Heparin-Konzentration, da derzeit kein Heparin-Messverfahren existiert. Dies kann eine fehlerhafte Heparin-Neutralisierung zur Folge haben, welche mit weitreichenden Nebenwirkungen, vor allem einer erhöhten Blutungsgefahr, verbunden ist.
Aufgrund dieser Problematik wurde eine streulichtphotometrische Methode (LiSA-H) entwickelt, mit dem die Bestimmung der Heparin-Konzentration einer Patientenprobe während chirurgischen Eingriffen möglich ist. Diese basiert auf der Messung der Intensität des an Heparin-Protamin-Nanopartikeln gestreuten Lichts. Diese Nanopartikel bilden sich, sobald Protamin einer Lösung mit Heparin, z.B. heparinisiertes Blutplasma, zugegeben wird.
Mit Hilfe von analytischer Ultrazentrifugation sowie Rasterkraftmikroskop-Aufnahmen konnten die Größe und die Größenverteilung der Heparin-Protamin-Partikel charakterisiert werden. Beide Methoden zeigten gut übereinstimmende Ergebnisse und lieferten Partikeldurchmesser von etwa 70 – 200 nm.
Um den Prozess der Messung zu optimieren, wurde nach Filtrationsmethoden gesucht, um den zeit- und arbeitsaufwendigen Zentrifugationsschritt zu vermeiden. Dazu wurden Filtermembranen aus verschiedenen Materialien und mit unterschiedlichen Porengrößen getestet, die eine Plasmagewinnung durch Filtration von Vollblut ermöglichen sollten. Leider war dies mit den getesteten Filtersystemen nicht möglich. Dies bleibt jedoch ein aktuelles Thema und wird weiterhin untersucht werden.
Zusätzlich zu der streulichtbasierten Messmethode konnte gezeigt werden, dass über fluoreszenzspektroskopische Methoden die Bestimmung kleiner Heparin-Konzentrationen möglich ist. Dafür wurde Protaminsulfat mit Fluoreszenzfarbstoffen markiert und die Erniedrigung der Emissionsintensität des fluoreszierenden Protamins nach Zugabe von Heparin beobachtet. Aus dem Grad dieser Intensitätsabnahme lässt sich auf die Heparin-Konzentration schließen. Diese Methode wäre hervorragend dafür geeignet, das streulichtbasierte Verfahren zu ergänzen, das im niedrigen Konzentrationsbereich zunehmend unempfindlich wird. Hierfür müssen jedoch noch einige Messungen durchgeführt werden, um zu zeigen, ob eine Messung auch von Plasma- oder sogar Vollblutproben möglich ist.
Es wurde ein klinischer Prototyp entwickelt, der die Bestimmung der Heparin-Konzentration in einer Blutplasmaprobe während chirurgischer Eingriffe ermöglicht. Dabei wird eine LED mit einem Emissionsmaximum bei 627 nm verwendet und die Streulichtintensität zur Bestimmung der Anzahl und der Größe der Heparin-Protamin-Partikel genutzt. Die Steuerung der Messung sowie die Auswertung der Messdaten werden mit einem Netbook und eigens dafür neu entwickelter Software realisiert. Mit diesem Prototyp lässt sich reproduzierbar aus der Änderung der Streulichtintensität einer Blutplasmaprobe nach Protaminzugabe innerhalb weniger Minuten deren Heparin-Konzentration bestimmen. Es wurde eine Kalibrierfunktion erstellt, mit der es möglich ist, aus der Streulichtintensität die Heparin-Konzentration zu berechnen.
Eine erste Studie im Universitätsklinikum der Johann Wolfgang Goethe-Universität Frankfurt a.M., bei der bei 50 herzchirurgischen Eingriffen unter Verwendung der Herz-Lungen-Maschine parallel zur üblichen Gerinnungsmessung eine Heparin-Bestimmung mit dem neuen Heparin-Assay erfolgte, zeigte, dass es mit diesem Verfahren möglich ist, im OP-Verlauf die Heparin-Konzentration im Patientenblut zu ermitteln. Daraus konnten schließlich weitere Informationen wie die individuelle Geschwindigkeit des Heparin-Abbaus erhalten werden.
Eine zweite Studie in der Kinderkardiologie des Universitätsklinikums Gießen, deren Ergebnisse statistisch noch nicht vollständig ausgewertet sind, wurde ebenfalls mit Erfolg abgeschlossen. Die vorläufigen Ergebnisse zeigten hier, dass sich die Heparin-Abbaukinetik bei Erwachsenen und Kindern deutlich unterscheidet. Zudem zeigte sich, dass die gemessene Gerinnungszeit bei Kindern wesentlich schlechter (nur 30 % der Fälle) mit der gemessenen Heparin-Konzentration korreliert als bei Erwachsenen (etwa 70 % der Fälle).
Die Arbeit entstand im Rahmen des Förderprogramms ”Profil NT” und war Bestandteil des BMBF–Projektes ”NANOTHERM” (FKZ17PNT005). Dabei sollte die Möglichkeit der Integration und Verwendung von Nanodrähten als funktionsbestimmende Komponente im thermoelektrischen Sensorelement untersucht werden. Eine wichtige Aufgabe bestand darin die thermoelektrischen Eigenschaften der einzelnen Nanodrähte, insbesondere den Seebeck–Koeffizienten, zu untersuchen. Im Hinblick auf die weitere Entwicklung der Nanotechnologie ist es sehr wichtig, geeignete Messplattformen zu generieren und der Wissenschaftlichen Gemeinschaft zur Verfügung zu stellen für die Charakterisierung von Nanostrukturen. Für die Forschung bedeutet dies, dass man immer präziser die ”Physik im kleinen” studieren kann. Im Bezug auf die Anwendungen stellen die ausgeführten Untersuchungen eine wesentliche Basis für die Bauelemente–Optimierung und ihren späteren industriellen Einsatz dar.
In dieser Arbeit werden zwei Chipdesigns vorgestellt für die Bestimmung des Seebeck–Koeffizienten, die eine ausreichend hohe Temperaturdifferenz in Nanostrukturen erzeugen. Für beide Chips wird die mikromechanische Fertigung im einzelnen erläutert. Zusätzlich wurden die Chips in FEM–Simulationen analysiert. Eine messtechnische Charakterisierung der Chips bestätigt die Simulationen und die Funktionsweise der Chips für Untersuchungen des Seebeck–Koeffizienten an Nanostrukturen. Erstmals wurden Wolfram bzw. Platin FEBID–Deponate hinsichtlich des Seebeck–Koeffizienten untersucht. Für die Wolfram–Deponate ergab sich ein negativer Seebeck–Koeffizient. Der gemessenen Seebeck–Koeffizient war über mehrere Tage stabil. Als Ergebnis temperaturabhängiger Messungen des Seebeck–Koeffizienten konnte eine Wurzel-T Abhängigkeit beobachtet werden, die in der Theorie beschrieben wird.
Eine Untersuchung des Seebeck–Koeffizienten an Pt–FEBID–Deponaten zeigt einen Vorzeichenwechsel für Proben mit geringer elektrischer Leitfähigkeit (isolierender Charakter, schwache Kopplung). In der Literatur wird dieser Vorzeichenwechsel allerdings für Proben mit metallischer elektrischer Leitfähigkeit beschrieben. Aufgrund der Messergebnisse ist zu prüfen inwiefern die Theorie des Seebeck–Koeffizienten auf Proben mit schwacher Kopplung zu übertragen ist. Da die gemessenen Seebeck–Koeffizienten bei einigen nanoskaligen Proben sehr klein waren, wurde der Seebeck–Koeffizient des Kontaktmaterials in separaten Versuchen untersucht. Für das hier verwendete Schichtsystem Ti(40nm)/Au(120nm) kann ein Seebeck–Koeffizient von -0,22µV/K angegeben werden. Bei der Charakterisierung der Pt–FEBID–Deponaten wurde dieser Beitrag des Kontaktschichtsystems zur Thermospannung berücksichtigt.
Untersuchungen an BiTe–Nanodrähten mit dem Seebeck–Chip ergaben einen negativen Seebeck–Koeffizienten. Die ersten Untersuchungen wurden mit Kupfer als Kontaktmaterial durchgeführt, weil dieses sehr gute Lift–Off Eigenschaften besaß. Trotz der Kupferdiffusion in den Nanodraht hinein, wird der negative Seebeck–Koeffizient einem Tellur–Überschuss zugeschrieben, denn an Proben mit einer geeigneten Diffusionsbarriere war in nachfolgenden Untersuchungen ebenso ein negativer Seebeck–Koeffizient zu messen. Die ermittelten Beweglichkeiten sind niedriger als die von Bulkmaterial und können durch klassische Size–Effekte erklärt werden. Die gemessenen Ladungsträgerkonzentrationen liegen in typischen Bereichen für Halbmetalle. Die Charakterisierung des Seebeck–Koeffizienten mit Hilfe des hier vorgestellten Z–Chip ergab einen negativen Seebeck–Koeffizienten für die BiTe–Nanodrähte, die wie oben erläutert auf einen Tellur–Überschuss zurückzuführen sind. Eine Abschätzung eines mit Nanodrähten aufgebauten Sensors zeigt, dass im Vergleich zu konventionellen Dünnschicht–Thermopiles deutlich höhere Empfindlichkeiten zu erzielen sind. Erste technologische Konzepte für den Aufbau von Nanodraht–Arrays wurden erarbeitet und durch entsprechende Untersuchungen verifiziert.
Grundsätzlich ist der Z–Chip für die Charakterisierung aller drei Transportkoeffizienten geeignet und bietet die Option, anderen Arbeitsgruppen eine universelle thermoelektrische Messplattform zur Verfügung zu stellen.
Detailed knowledge of reaction mechanisms is key to understanding chemical, biological, and biophysical processes. For many reasons, it is desirable to comprehend how a reaction proceeds and what influences the reaction rate and its products.
In biophysics, reaction mechanisms provide insight into enzyme and protein function, the reason why they are so efficient, and what determines their reaction rates. They also reveal the relationship between the function of a protein and its structure and dynamics.
In chemistry, reaction mechanisms are able to explain side products, solvent effects, and the stereochemistry of a product. They are also the basis for potentially optimizing reactions with respect to yield, enhancing the stereoselectivity, or for modifying reactions in order to obtain other related products.
A key step to investigate reaction mechanisms is the identification and characterization of intermediates, which may be reactive, short-lived, and therefore only weakly populated. Nowadays, the structures of those can in most cases only be hypothesized based on products, side products, and isolable intermediates, because intermediates with a life time of less than a few microseconds are not accessible with the commonly used techniques for structure determination such as X-ray crystallography and nuclear magnetic resonance (NMR) spectroscopy.
In this thesis, two-dimensional infrared (2D-IR) spectroscopy is shown to be a powerful complement to the existing techniques for structure determination in solution. 2D-IR spectroscopy uses a femtosecond laser setup to investigate interactions between vibrations - analogous to 2D-NMR, which investigates the interactions between spins. Its ultrafast time resolution makes 2D-IR spectroscopy particularly well suited for the two topics investigated in this thesis: Structure Determination of Reactive Intermediates and Conformational Dynamics of Proteins.
Structure Determination of Reactive Intermediates: The focus of this thesis is using polarization-dependent 2D-IR (P2D-IR) spectroscopy for structure determination of N-crotonyloxazolidinone (referred to as 1), a small organic compound with a chiral oxazolidinone, known as Evans auxiliary, and its reactive complexes with the Lewis acids SnCl4 and Mg(ClO4)2. Chiral oxazolidinones in combination with Lewis acids have frequently been used in stereoselective synthesis for over 30 years. Nevertheless, the detailed mechanisms are in many cases xvi ABSTRACT still mere hypotheses and have not yet been experimentally proven. By accurately measuring the angles between the transition dipole moments in the molecules using an optimized P2D-IR setup and comparing the results to DFT calculations, the conformation of 1 and the conformation and coordination of the main complexes with SnCl4 and Mg(ClO4)2 are unequivocally identified and analyzed in depth. Structural details, such as a slight twist in the solution structure of 1, are detected using P2D-IR spectroscopy; these cannot be inferred from NMR spectroscopy or DFT calculations. In addition to the main Lewis acid complexes, complexes in low concentration are detected and tentatively assigned to different conformations and complexation geometries. The knowledge of those structures is essential for rationalizing the observed stereoselectivities. Additionally, a method is introduced that enables structure determination of molecules in complex mixtures and even in the presence of molecules with similar spectral properties and in high concentration. This work sets the stage for future studies of other substrate-catalyst complexes and reaction intermediates for which the structure determination has not been possible to date.
Conformational Dynamics of Proteins: Exchange 2D-IR spectroscopy allows the investigation of fast dynamics without disturbing the equilibrium of the exchanging species. It is therefore well suited to investigate fast dynamics of proteins and to reveal the speed limit of those. The temperature dependence of the conformational dynamics between the myoglobin substates A1 and A3 in equilibrium is analyzed. The various substates of myoglobin can be detected with FTIR spectroscopy, if carbon monoxide is bound to the heme. From previous studies it is known that the exchange rates at room temperature are in the picosecond time range, well suited to be investigated by 2D-IR spectroscopy. In the temperature range between 0 °C and 40 °C only a weak temperature dependence of the exchange rate in the myoglobin mutant L29I is observed in the present study. The exchange rate approximately doubles from 15 ns-1 at 0 °C to 31 ns-1 at 40 °C. It turned out that the conformational dynamics correlates linearly with the solvent viscosity, which itself is temperature dependent. Comparing our results to measurements at cryogenic temperatures, the linear relation between exchange time constant for this process and the viscosity is shown for the temperature range between -100 °C and 40 °C (corresponding to a viscosity change of 14 orders of magnitude). Thus, it is proven that the dynamics of the conformational switching are mainly determined by solvent dynamics, i.e., the protein dynamics are slaved to the solvent dynamics. This is the first time slaving is observed for such fast processes (in the picosecond time range). The observation implies a long-range structural rearrangement between the myoglobin substates A1 and A3. In addition, the exchange for other mutants and wild type myoglobin is analyzed qualitatively and found to agree with the conclusions drawn from L29I myoglobin.
In dieser Arbeit wurde eine Messmethode entwickelt, die es ermöglicht, mittels Infrarotspektroskopie quantitative Aussagen über bestimmte Inhaltsstoffe in Körperflüssigkeiten zu machen. Hierfür wurden sowohl selektierte Blutplasma- und Vollblutproben gemessen als auch selektierte Urinproben. Die richtige Selektion des Probensatzes ist von großer Wichtigkeit, um für jede Komponente eine große, unabhängige Varianz der Absorptionswerte zu erhalten. Hierfür wurden sowohl physiologische als auch pathologische Proben in den Datensatz integriert. Um Referenzwerte für diese ausgewählten Proben zu erhalten, wurden konventionelle klinische Methoden verwendet. Grundsätzlich ist die Genauigkeit dieser Methode durch die Genauigkeit der jeweiligen Referenzmethode, also den konventionellen klinischen Methoden, beschränkt. Mit der neu entwickelten Methode besteht nun die Möglichkeit, die wichtigsten Parameter im Blut und Urin schnell, einfach und reagenzienfrei quantitativ zu bestimmen. Zusätzlich zu den in dieser Arbeit angegebenen Inhaltsstoffen ist es möglich, für weitere Komponenten oberhalb eines bestimmten Schwellenwerts quantitative Angaben zu machen. Hierbei könnten z.B. für Albumin oder Glukose im Urin pathologische Proben identifiziert werden und somit Rückschlüsse auf bestimmte Krankheitsbilder ermöglicht werden. ...
In this thesis, various aspects on the theoretical description of ultracold bosonic atoms in optical lattices are investigated. After giving a brief introduction to the fundamental concepts of BECs, atomic physics, interatomic interactions and experimental procedures in chapter (1), we derive the Bose-Hubbard model from first principles in chapter (2). In this chapter, we also introduce and discuss a technique to efficiently determine Wannier states, which, in contrast to current techniques, can also be extended to inhomogeneous systems. This technique is later extended to higher dimensional, non-separable lattices in chapter (5). The many-body physics and phases of the Bose-Hubbard is shortly presented in chapter (3) in conjunction with Gutzwiller mean-field theory, and the recently devised projection operator approach. We then return to the derivation of an improved microscopic many-body Hamiltonian, which contains higher band contributions in the presence of interactions in chapter (4). We then move on to many-particle theory. To demonstrate the conceptual relations required in the following chapter, we derive Bogoliubov theory in chapter (5.3.4) in three different ways and discuss the connections. Furthermore, this derivation goes beyond the usual version discussed in most textbooks and papers, as it accounts for the fact, that the quasi-particle Hamiltonian is not diagonalizable in the condensate and the eigenvectors have to be completed by additional vectors to form a basis. This leads to a qualitatively different quasi-particle Hamiltonian and more intricate transformation relations as a result. In the following two chapters (7, 8), we derive an extended quasi-particle theory, which goes beyond Bogoliubov theory and is not restricted to weak interactions or a large condensate fraction. This quasi-particle theory naturally contains additional modes, such as the amplitude mode in the strongly interacting condensate. Bragg spectroscopy, a momentum-resolved spectroscopic technique, is introduced and used for the first experimental detection of the amplitude mode at finite quasi-momentum in chapter (9). The closely related lattice modulation spectroscopy is discussed in chapter (10). The results of a time-dependent simulation agree with experimental data, suggesting that also the amplitude mode, and not the sound mode, was probed in these experiments. In chapter (11) the dynamics of strongly interacting bosons far from equilibrium in inhomogeneous potentials is explored. We introduce a procedure that, in conjunction with the collapse and revival of the condensate, can be used to create exotic condensates, while particularly focusing on the case of a quadratic trapping potential. Finally, in chapter (12), we turn towards the physics of disordered systems derive and discuss in detail the stochastic mean-field theory for the disordered Bose-Hubbard model.
The study of systems whose properties are governed by electronic correlations is a corner stone of modern solid-state physics. Often, such systems feature unique and distinct properties like Mott metal-insulator transitions, rich phase diagrams, and high sensitivity to subtle changes in the applied conditions. Whereas the standard approach to electronic structure calculations, density functional theory (DFT), is able to address the complexity of real-world materials but is known to have serious limitations in the description of correlations, the dynamical mean-field theory (DMFT) has become an established method for the treatment of correlated fermions, first on the level of minimal models and later in combination with DFT, termed LDA+DMFT.
This thesis presents theoretical calculations on different materials exhibiting correlated physics, where we aim at covering a range in terms of systems --from rather weakly correlated to strongy correlated-- as well as in terms of methods, from DFT calculations to combined LDA+DMFT calculations. We begin with a study on a selection of iron pnictides, a recently discovered family of high-temperature superconductors with varying degree of correlation strength, and show that their magnetic and optical properties can be assessed to some degree within DFT, despite the correlated nature of these systems. Next, extending our analysis to the inclusion of correlations in the framework of LDA+DMFT, we discuss the electronic structure of the iron pnictide LiFeAs which we find to be well described by Fermi liquid theory with regard to many of its properties, yet we see distinct changes in its Fermi surface upon inclusion of correlations. We continue the study of low-energy properties and specifically Fermi surfaces on two more iron pnictides, LaFePO and LiFeP, and predict a topology change of their Fermi surfaces due to the effect of correlations, with possible implications for their superconducting properties. In our last study, we close the circle by presenting LDA+DMFT calculations on an organic molecular crystal on the verge of a Mott metal-insulator transition; there, we find the spectral and optical properties to display signatures of strong electronic correlations beyond Fermi liquid theory.
With the increasing energies and intensities of heavy-ion accelerator facilities, the problem of an excessive activation of the accelerator components caused by beam losses becomes more and more important. Numerical experiments using Monte Carlo transport codes are performed in order to assess the levels of activation. The heavy-ion versions of the codes were released approximately a decade ago, therefore the verification is needed to be sure that they give reasonable results. Present work is focused on obtaining the experimental data on activation of the targets by heavy-ion beams. Several experiments were performed at GSI Helmholtzzentrum für Schwerionenforschung. The interaction of nitrogen, argon and uranium beams with aluminum targets, as well as interaction of nitrogen and argon beams with copper targets was studied. After the irradiation of the targets by different ion beams from the SIS18 synchrotron at GSI, the γ-spectroscopy analysis was done: the γ-spectra of the residual activity were measured, the radioactive nuclides were identified, their amount and depth distribution were detected. The obtained experimental results were compared with the results of the Monte Carlo simulations using FLUKA, MARS and SHIELD. The discrepancies and agreements between experiment and simulations are pointed out. The origin of discrepancies is discussed. Obtained results allow for a better verification of the Monte Carlo transport codes, and also provide information for their further development. The necessity of the activation studies for accelerator applications is discussed. The limits of applicability of the heavy-ion beam-loss criteria were studied using the FLUKA code. FLUKA-simulations were done to determine the most preferable from the radiation protection point of view materials for use in accelerator components.
In dieser Arbeit wurden Verfahren zur Identifikation hirnelektrischer Aktivität mit Zellularen Nichtlinearen Netzwerken (CNN), im Besonderen Reaktions-Diffusions-Netzwerken, entwickelt und untersucht. Mit Hilfe der eingeführten Methoden wurden Langzeitaufzeichnungen hirnelektrischer Aktivität bei Epilepsie analysiert und mittels eines automatisierten Verfahrens ermittelt, inwieweit sich mögliche Voranfallszustände vom anfallsfreien Zustand im statistischen Sinne trennen lassen.
Zunächst wurde ein Überblick über CNN gegeben und deren Beschreibung durch Systeme gekoppelter Differentialgleichungen dargestellt. Weiterhin wurden die Möglichkeiten der Informationsverarbeitung mit CNN durch Ausnutzung von Gleichgewichtszuständen oder der vollständigen raum-zeitlichen Dynamik der Netzwerke diskutiert. Zusätzlich wurde die Klasse der Reaktions-Diffusions-Netzwerke (RD-CNN) eingeführt. Für die Repräsentation der hierbei benötigten weitgehend allgemeinen nichtlinearen Zellkopplungsvorschriften wurden polynomiale Gewichtsfunktionen vorgeschlagen. Mit einer Darstellung der Theorie der Lokalen Aktivität wurden notwendige Bedingungen für emergentes Verhalten in RD-CNN angegeben. Die statistische Bewertung von Vorhersagemodellen wurde aus theoretischer Sicht beleuchtet. Mit der Receiver Operating Characteristic (ROC) wurde eine Analysemethode zur Beurteilung der Vorhersagekraft des zeitlichen Verlaufs von Kenngrößen bezüglich bevorstehender epileptischer Anfälle vorgestellt.
Als nächstes wurden Überlegungen zur numerischen Simulation von CNN und deren flexible und erweiterbare programmtechnische Umsetzung entwickelt. Die daraus resultierende und im Rahmen dieser Arbeit entstandene objektorientierte Simulationsumgebung FORCE++ wurde konzeptionell und im Hinblick auf die Softwarearchitektur vorgestellt.
Die Verfahren zur numerischen Simulation wurden auf die Problemstellung der Systemidentifikation mit CNN angewandt. Dazu wurden Netzwerke derart bestimmt, dass deren Zellausgangswerte entsprechende Signalwerte des beobachteten, zu identifizierenden Systems approximieren.
Da die Parameter der zu bestimmenden CNN im vorliegenden Fall der Untersuchung hirnelektrischer Aktivität nicht bekannt sind und nicht direkt abgeleitet werden können, wurden überwachte Lernverfahren zur Bestimmung der Netzwerke eingesetzt. Hierbei wurden Lernverfahren verschiedener Klassen für die Identifikation mit CNN mit polynomialen Gewichtsfunktionen untersucht. Die Leistungsfähigkeit des vorgestellten Identifikationsverfahrens wurde anhand bekannter Systeme einer genauen Betrachtung unterzogen. Dabei wurde festgestellt, dass die betrachteten Systeme mit hoher Genauigkeit durch CNN repräsentiert werden konnten. Exemplarisch wurde das Parametergebiet lokaler Aktivität für ein RD-CNN berechnet und durch numerische Simulationen die Ausbildung von Mustern innerhalb des Netzwerkes nachgewiesen.
Nach einem einleitenden Überblick über die medizinischen Hintergründe von Epilepsie und der Erfassung hirnelektrischer Aktivität wurde eine vergleichende Übersicht über den Stand veröffentlichter Studien zur Vorhersage epileptischer Anfälle gegeben. Für die Anwendung des hier vorgestellten Identifikationsverfahrens zur Analyse hirnelektrischer Aktivität wurde zunächst die Genauigkeit der Approximation kurzer, als quasi-stationär betrachteter Abschnitte, von EEG-Signalen untersucht. Durch gezielte Erhöhung der Komplexität herangezogener Netzwerke konnte hier die Genauigkeit der Repräsentation von EEG-Signalverläufen deutlich verbessert werden. Dabei wurde zudem die Verallgemeinerungsfähigkeit der ermittelten Netzwerke untersucht, wobei festgestellt wurde, dass auch solche Signalwerte mit guter Genauigkeit approximiert werden, die nicht im Identifikationsverfahren durch die überwachte Parameteroptimierung berücksichtigt waren. Um speziell den Einfluss der Information aus der Korrelation benachbarter Elektrodensignale zu untersuchen, wurde ein Verfahren zur multivariaten Prädiktion mit Discrete Time CNN (DT-CNN) entwickelt.
Hierbei werden durch ein CNN Signalwerte der betrachteten Elektrode aus vergangenen, korrelierten Signalwerten von Nachbarelektroden geschätzt. Für diese Aufgabenstellung konnte eine Methode zur Bestimmung der Netzwerkparameter im optimalen Sinn, alleine aus den statistischen Eigenschaften der Elektrodensignale angegeben werden. Dadurch gelang eine erhebliche Reduzierung der Rechenkomplexität, die eine umfangreiche Untersuchung intrakranieller Langzeitableitungen ermöglichte.
Zur Analyse von Langzeitaufzeichnungen mit dem RD-CNN Identifikationsverfahren, wurden die numerischen Berechnungen zur Simulation von CNN mit FORCE++ auf einem durchsatz-orientierten Hochleistungs-Rechnernetzwerk durchgeführt. Mit den so gewonnen Ergebnissen konnten vergleichende Analysen vorgenommen werden. Zudem wurden Untersuchungen zum Vorliegen lokaler Aktivität in den ermittelten RD-CNN durchgeführt.
Die bei den beschriebenen Verfahren extrahierten Kenngrößen hirnelektrischer Aktivität wurden durch ein automatisiertes Verfahren auf ihre Vorhersagekraft für epileptische Anfälle bewertet. Dabei wurde untersucht, inwieweit der anfallsfreie Zustand und ein angenommener Voranfallszustand durch die jeweils betrachtete Kenngröße im statistischen Sinn diskriminiert werden kann. Durch parallele Analysen mit Anfallszeitsurrogaten wurden hierzu ergänzende Signifikanztests durchgeführt.
Nach Auswertung von mehrtägigen Hirnstromsignalen verschiedener Patienten konnte festgestellt werden, dass mit den in dieser Arbeit entwickelten Verfahren Kenngrößen hirnelektrischer Aktivität bestimmt werden konnten, welche offenbar die Identifikation potentieller Voranfallszustände ermöglichen.
Auch wenn für eine breite medizinische Anwendung die Spezifität und Sensitivität noch weiter verbessert werden muss, so können doch die erzielten Ergebnisse einen wesentlichen Schritt hin zu einer implantierbaren, CNN-basierten Plattform zur Erkennung und Verhinderung epileptischer Anfälle darstellen. Die Berechnungen für das Identifikationsverfahren mit RD-CNN könnten dabei durch zukünftige, spezialisierte schaltungstechnische Realisierungen für mehrschichtige CNN mit polynomialen Gewichtsfunktionen eine erhebliche Beschleunigung erfahren.
A new era in experimental nuclear physics has begun with the start-up of the Large Hadron Collider at CERN and its dedicated heavy-ion detector system ALICE. Measuring the highest energy density ever produced in nucleus-nucleus collisions, the detector has been designed to study the properties of the created hot and dense medium, assumed to be a Quark-Gluon Plasma.
Comprised of 18 high granularity sub-detectors, ALICE delivers data from a few million electronic channels of proton-proton and heavy-ion collisions.
The produced data volume can reach up to 26 GByte/s for central Pb–Pb
collisions at design luminosity of L = 1027 cm−2 s−1 , challenging not only the data storage, but also the physics analysis. A High-Level Trigger (HLT) has been built and commissioned to reduce that amount of data to a storable value prior to archiving with the means of data filtering and compression without the loss of physics information. Implemented as a large high performance compute cluster, the HLT is able to perform a full reconstruction of all events at the time of data-taking, which allows to trigger, based on the information of a complete event. Rare physics probes, with high transverse momentum, can be identified and selected to enhance the overall physics reach of the experiment.
The commissioning of the HLT is at the center of this thesis. Being deeply embedded in the ALICE data path and, therefore, interfacing all other ALICE subsystems, this commissioning imposed not only a major challenge, but also a massive coordination effort, which was completed with the first proton-proton collisions reconstructed by the HLT. Furthermore, this thesis is completed with the study and implementation of on-line high transverse momentum triggers.
The main purpose of the Transition Radiation Detector (TRD) located in the central barrel of ALICE (A Large Ion Collider Experiment) is electron identification for separation from pions at momenta pt > 1 GeV/c, since in this momentum range the measurements of the specific energy loss (dE/dx) of the Time Projection Chamber (TPC) is no longer sufficient. Furthermore, it provides a fast trigger for high transverse momentum charged particles (pt > 3 GeV/c) and makes a significant contribution to the optimization of the tracking of reaction products in heavy-ion collisions. Its whole setup comprises 18 supermodules out of which 13 are presently operational and mounted cylindrically around the beam axis of the Large Hadron Collider (LHC). A supermodule contains either 30 or 24 chambers, each consisting of a radiator for transition radiation creation, a drift and an amplifying region followed by the read-out electronics. In total, the TRD is an array of 522 chambers operated with about 28 m3 of a Xe-CO2 [85-15%] gas mixture. During the work of this thesis, the testing, commissioning, operation and maintenance of detector parts, the gas system and its online quality monitor, improvements on the detector control user-interface and studies about a new pre-trigger module for data read-out have been accomplished. The TRD gas system mixes, distributes and circulates the operational gas mixture through the detector. Its overall optimization has been achieved by minimizing gas leakage, surveying, controlling, maintaining and continuously improving it as well as designing and carrying out upgrades. Gas quality monitors of the type \GOOFIE" (Gas prOportional cOunter For drIfting Electrons) can be used in gaseous detectors as on-line monitors of the electron drift velocity, gain and gas properties. One of these devices has been implemented within the TRD gas system, while another one surveys the gas of the TPC. Both devices had to be adapted to the specific needs of the detectors, were under constant surveillance and control, and needed to be further developed on both hardware and software side. To improve the operation of the TRD, modifications on its DCS software (Detector Control System) used for monitoring, controlling, operating, regulating and configuring of hardware and computing devices have been carried out. The DCS is designed to enable an operator to interact with equipment through user interfaces that display the information from the system. The main focus of this work was laid on the optimization of the usability and design of the user interface. The front-end electronics of the TRD require an early start signal (\pre-trigger") from the fast forward detectors or the Time-Of-Flight detector during the running periods. The realization of a new hardware concept for the read-out of the TRD pre-trigger system has been studied and first tests were performed. This new module called PIMDDL (Pre-trigger Interface Module Detector Data Link) is meant to acquire all data necessary to simulate and predict the full pre-trigger functionality, and to verify its proper operation. Furthermore, it shall provide all functionalities of the so-called Control Box Bottom as well as keep the functionalities of the already existing PIM (Pre-trigger Interface Module) in order to combine and replace these two modules in the future.
Zellulare Nichtlineare Netzwerke bzw. Zellulare Neuronale Netzwerke, sogenannte CNN, wurden 1988 von L.O. Chua und L.Yang eingeführt und seither intensiv untersucht. Diese sind als Simulations-Software und als schaltungstechnische Realisierungen, in Hardware, verfügbar.
Als analog arbeitende Hardware Schaltungen können diese Netzwerke erhebliche Rechenleistungen erzielen.
Durch ihren Aufbau ermöglichen sie eine parallele Daten- und Signalverarbeitung.
Eine Einführung in CNN wird gegeben und das EyeRIS 1.1 Systems des Unternehmens ANAFOCUS Ltd. vorgestellt.
Das EyeRIS 1.1 System ist mit einem analog arbeitenden Focal Plane Prozessor (FPP) und einem digitalen Prozessor ausgestattet, wobei der Focal Plane Prozessor auch als Kamera zur Aufnahme von Bildern und Bildsequenzen benutzt werden kann.
Dies ermöglicht es, analoge CNN-Algorithmen zusammen mit digitalen Algorithmen auf einem System zu implementieren und so die Vorteile beider Ansätze zu nutzen. Der Datenaustausch zwischen dem analogen und digitalem Teil des EyeRIS 1.1 Systems geschieht mittels digital/analog und analog/digital Wandlung. Es werden Algorithmen auf dem EyeRIS 1.1 System untersucht und mit Ergebnissen die mittels Simulationen erzeugt wurden verglichen.
In Voruntersuchungen werden die Darstellungsgenauigkeit von Werten im analogen Teil des EyeRIS 1.1 Systems und die Verarbeitungsgeschwindigkeiten des EyeRIS 1.1 Systems untersucht.
Im Weiteren wird besonderes Augenmerk auf medizinische und technische Anwendungsgebiete gelegt werden.
Im medizinischen Anwendungsbereich wird die Implementierung von Algorithmen zur Vorhersage epileptischer Anfälle untersucht.
Hierfür wird ein evolutionär motiviertes Optimierungsverfahren entwicklet und auf dem EyeRIS 1.1-System implementiert.
Hierbei werden Simulationen durchgeführt und mit Ergebnissen, die mittels Verwendung des EyeRIS 1.1 Systems erlangt wurden, verglichen.
Ein zweites Verfahren geht die Signalanalyse für die Vorhersage auf dem EyeRIS 1.1-System mittels Mustererkennung an.
Das Mustererkennungsverfahren wird eingehend beschrieben sowie die hierbei zu beachtenden Randbedingungen erläutert.
Die Ergebnisse zeigen, daß Algorithmen zur Vorhersage von epileptischen Anfällen auf schaltungstechnichen Realisierungen von CNN implementiert werden können.
Im technischen Bereich wird die Anwendbarkeit auf die Problemstellung der Bildverarbeitung gelegt und die Möglichkeit von CNN basierten Algorithmen zur Erkennung von Prozessparametern bei Laserschweißverfahren untersucht. Ein solcher Prozessparameter ist das sogenannte Key-Hole, welches in Bildsequenzen von Laserschweißprozessen als ein Maß für die zu erwartende Qualität einer Schweißnaht herangezogen werden kann. Ein CNN basierter Algorithmus für die Erkennung solcher Key-Holes wird in dieser Arbeit vorgestellt und untersucht.
Für die Überwachung eines Laserschweißverfahrens wird der entwickelte Algorithmius und seine Funktionsweise beschrieben.
Dieser wird in Teilalgorithmen auf die analog bzw. digital arbeitenden Komponenten des EyeRIS 1.1 Systems verteilt.
Die Teilalgorithmen und die möglichen Aufteilungen und deren Laufzeitverhalten werden beschrieben und untersucht.
Die Ergebnisse der Untersuchung zeigen, daß eine Prozessüberwachung mittels CNN möglich ist und heben die Vorteile hervor, welche die Bildaufnahme und -verarbeitung mittels analoger CNN-Hardware bietet.
Eine Untersuchung des Laufzeitverhaltens auf Grafikkarten Prozessoren (GPU's) wird im Anhang vorgestellt.
Quarkonia are very promising probes to study the quark-gluon plasma. The essential baseline for measurements in heavy-ion collisions is high-precision data from proton-proton interactions. However, the basic mechanisms of quarkonium hadroproduction are still being debated. The most common models, the Color-Singlet Model, the non-relativistic QCD approach and the Color-Evaporation Model, are able to describe most of the available cross-section data, despite of their conceptual differences. New measures, such as the polarization, and data at a new energy regime are crucial to test the competing models. Another issue is an eventual interplay between the production process of a quarkonium state and the surrounding pp event. Current Monte Carlo event generators treat the hard scattering independently from the rest of the so-called underlying event. The investigation of possible correlations with the pp event might be very valuable for a detailed understanding of the production processes. ALICE ist the dedicated heavy-ion experiment at the LHC. Its design has been optimized for high-precision measurements in very high track densities and down to low transverse momenta. ALICE is composed of various different detectors at forward and at central rapidities. The most important detectors for this study are the Inner Tracking System and the Time Projection Chamber, allowing to reconstruct and identify electron candidate tracks within eta < 0.9. The Transition Radiation Detector has not been utilized at this stage of the analysis; however, it will strongly improve the particle identification and provide a dedicated trigger in the upcoming beam periods. ...