Refine
Year of publication
Document Type
- Doctoral Thesis (216)
- Article (100)
- diplomthesis (97)
- Bachelor Thesis (67)
- Contribution to a Periodical (46)
- Master's Thesis (41)
- Book (31)
- Diploma Thesis (30)
- Part of Periodical (27)
- Preprint (7)
- Working Paper (7)
- Other (6)
- Review (6)
- Conference Proceeding (5)
- Report (4)
- Habilitation (1)
- Lecture (1)
Language
- German (692) (remove)
Has Fulltext
- yes (692) (remove)
Is part of the Bibliography
- no (692)
Keywords
- Ionenstrahl (9)
- Strahldynamik (7)
- Teilchenbeschleuniger (7)
- Emittanz (5)
- RFQ (5)
- Toroidales Magnetfeld (5)
- Beschleunigerphysik (4)
- Ionenbeschleuniger (4)
- Schwerionenphysik (4)
- Speicherring (4)
Institute
- Physik (692) (remove)
Viele mikroskopische Vorgänge in Festkörpern und molekularen Verbindungen sind verbunden mit Änderungen ihres Magnetisierungszustandes. Dies macht den Einsatz externer Magnetfeldsensoren interessant, die sich über wohlbekannte Effekte kalibrieren ließen und dann im Messeinsatz quantitative Aussagen liefern können. Nun laufen viele der interessanten magnetischen Vorgänge in besagten Materialien auf sehr schnellen Zeitskalen im Piko- und Subpikosekundenbereich ab. Kein etablierter Magnetfeldsensor kann diese Anforderung leisten. Im Rahmen dieser Arbeit wurde eine systematische Untersuchung verschiedener Ansätze zum Bau ultraschneller Magnetfelddetektoren durchgeführt. Ein Teil der Arbeit beschäftigt sich mit dem Potential photokonduktiver Ringantennen als Emitter und Detektor für ultraschnelle Magnetfelder. Ein alternativer Ansatz zur Messung transienter Magnetfelder besteht in der Verwendung magnetooptischer Sensoren, wie sie in verschiedenen Anwendungen, in denen keine Zeitauflösung gefordert wird, bereits zum Einsatz kommen (z. B. in der Faradaymikroskopie). Es wird eine für ultraschnelle Magnetooptik vielversprechende Materialklasse als Sensormaterial vorgestellt: die DMS-Systeme. Das sind magnetisch dotierte Verbindungshalbleiter, die in der Umgebung ihrer exzitonischen Resonanzen gewaltige Verdetkonstanten aufweisen. Parallel zu den DMS-Systemen wird das Verhalten eines dotierten Eisengranats untersucht, der als Ferrimagnet völlig andere Voraussetzungen als Messsensor bietet. Darüber hinaus werden verschiedene experimentelle Techniken zur Messung magnetooptischer Phänomene vorgestellt und ihre Vor- und Nachteile ausführlich diskutiert. Es wird ein Verfahren entwickelt, das trotz des Einsatzes der hochempfindlichen Differenzdetektion eine gewisse spektrale Auflösung gewährleistet und deshalb den Betrieb der DMS-Systeme als magnetooptische Sensoren erst ermöglicht. Es werden für die verschiedenen Messmethoden und magnetooptischen Materialien die Grenzen der Nachweisempfindlichkeit analysiert und ihre Eignung als schnelle Detektoren untersucht. Die verschiedenen Vor- und Nachteile der beiden Sensorsubstanzen wird anhand der gemessenen magnetischen Transienten detailliert analysiert. Anschließend wird das Optimierungspotenzial der beiden Materialklassen hinsichtlich ihrer chemischen Zusammensetzung ausgearbeitet und dargestellt.
Gegenstand der vorliegenden Arbeit ist die Untersuchung einer Transferionisation am Beispiel des Stoßsystems (H + ; He), bei der ein Elektron des Targets eingefangen und ein Elektron ins Kontinuum emittiert wird. Ausgangspunkt für die theoretische Untersuchung der Transferionisation sind Experimente für das (H + ; He) Stoßsystem (1) . Unter anderem wurden beobachtet, dass die Elektronen bevorzugt in entgegengesetzter Richtung zum auslaufenden Projektil emittiert werden, dass hohe Emissionsenergien auftreten und alle Ejektile, (He 2+ , H 0 , e ), in die durch Einschuss- und Streurichtung des Projektils definierte Ebene emittiert werden. Unter der Annahme, dass zur Transferionisation hauptsächlich unabhängige Ein-Teilchen-Prozesse beitragen, wurde mit der vorliegenden Arbeit das Ziel verfolgt, das beobachtete markante Emissionsverhalten einer Transferionisation am Proton-Helium-Stoßsystem im Rahmen einer theoretischen Untersuchung zu verstehen. Dazu wurde ein Modellkonzept entwickelt, bei dem das Stoßgeschehen in einem semiklassischen nichtrelativistischen perturbativen Rahmen im Bild unabhängiger Ereignisse beschrieben wird. Das zentrale Anliegen der Modellierung war es, die Bedeutung der Targetstruktur für die Emissionseigenschaften zu klären. Hierbei interessierte der Einfluss der Struktur der Wellenfunktion auf dem Niveau des Modells unabhängiger Teilchen als auch die Rolle der interelektronischen Korrelation im Grundzustand des Targets. Der Einfluss der Targetstruktur auf das Emissionsverhalten wurde durch Einbau dreier verschiedener Wellenfunktionen für den Helium-Grundzustand untersucht: Um die Sensitivität der Rechnungen auf die strukturellen Eigenschaften der Targetbeschreibung zu untersuchen, wurden eine wasserstoffähnliche und eine Hartree-Fock-Beschreibung in das Modell implementiert. Beide bilden die Targetstruktur auf der Basis des Modells unabhängiger Teilchen (IPM) ab und enthalten per Definiton keine interelektronische Korrelation. Um den Einfluss zu klären, den die interelektronische Korrelation auf die Emissionseigenschaften hat, wurde der Eckart-Ansatz in das Modell eingebaut. Dieser Ansatz schließt radiale Anteile von Korrelation mit ein. Anhand eines systematischen Vergleichs der Ergebnisse konnte gezeigt werden, dass die strukturellen Eigenschaften der Wellenfunktion zwar eine Rolle spielen, aber die Qualität der Beschreibung ohne Berücksichtigung der interelektronischen Korrelation unbefriedigend bleibt, während die Berücksichtigung der radialen Anteile elektronischer Korrelation mit dem Eckart-Ansatz verglichen mit den IPM-Ansätzen sich im Hinblick auf das Emissionsverhalten als effizient erwiesen hat. Dieser Befund legt den Schluss nahe, dass die interelektronische Korrelation im Grundzustand des Heliumatoms zum Verständnis der Emissionseigenschaften äußerst wichtig ist. Trotzem werden auch mit dem Eckart-Ansatz nicht alle Züge des Emissionsverhaltens richtig wiedergegeben. Da die Bewegungen der Komponenten eines Vielteilchenproblems voneinander abhängen, besteht Grund zu der Annahme, dass ein radialsymmetrischer Ansatz zur Beschreibung des Systems Helium nicht in der Lage ist, die experimentell beobachtete Emission von Elektronen in einer Vorzugsrichtung zutreffend zu beschreiben: Neben der Radialkorrelation ist auch die Winkelkorrelation zu berücksichtigen. Die logische Erweiterung des Modells in dieser Richtung ist die Implementation eines Konfigurationsmischungs-Ansatzes. Eine zukünftige Rechnung unter Verwendung eines Konfigurationsmischungs-Ansatzes erscheint daher im Hinblick auf eine Erklärung des Emissionsverhaltens im Bild unabhängiger Ereignisse interessant. (1) V.Mergel, Dissertation, Frankfurt am Main 1996
Die hier vorgelegte Arbeit hatte zur Aufgabe, funktionellen Einflüsse auf den Neurotransmittertransporter GAT-1 zu erhellen, welche durch eine N-Glykosilierung des Transportproteins hervorgerufen werden. Frühere Untersuchungen deuteten bereits darauf hin, daß der Glykosilierung der drei extrazellulär vorhandenen N-Glykosilierungsstellen des GAT- 1 neben einer expressionellen Bedeutung auch eine funktionelle zukam. So zeigten sich bei Arbeiten anderer Gruppen, welche N-Glykosilierungsmutanten des GAT-1 verwendeten, um die Glykosilierung des Transportproteins zu beeinträchtigen, daß fehlende Oligosaccharide an den N-Glykosilierungsstellen des GAT-1 durchaus in eine Reduktion der GABA-Aufnahme in die Zellen mündete, was zumindest bei Oozyten des Xenopus laevis auf eine verminderte Transportrate zurückgeführt werden konnte. An CHO-Zellen konnte nun auf gleiche Weise eine Reduktion der GABA-Aufnahme beobachtet werden, und es galt, mit elektrophysiologischen Methoden die Ursachen dieser Reduktion zu erkunden. Die hier vorgelegte Arbeit vermochte nun bei CHO-Zellen, eine Verminderung der Transportrate als Ursache jener reduzierten GABA-Aufnahme auszumachen. Zu diesem Zwecke wurden die CHO-Zellen entweder mit der DNA des mGAT1 Wild-Typs (einem aus der Maus klonierten GAT-1-Transporter) oder mit der DNA von N-Glykosilierungsmutanten des mGAT1 transfiziert. Es fanden zwei verschiedene N-Glykosilierungsmutanten Verwendung, an denen jeweils zwei der drei N-Glykosilierungsstellen Asparagin durch Aspartat bzw. Glycin ersetzt wurden: (Asp176, Gly181, Asn184) bzw. DDN (Asp176, Asp181, Asn184). Wie indes die durch eine beeinträchtigte N-Glykosilierung verminderte Transportrate zustande kam, und wie sich eine entsprechende Erklärung in die bisherige Annahme den GAT-1 Reaktionszyklus betreffend einfügen und mit dessen Struktur verbinden ließe, vermochte die hier vorgelegte Arbeit zu einem großen Teil einsichtig zu machen. Zwei Phänomene konnten die Transportrate vermindern: Zunächst waren die Zeitkonstanten transienter Ströme, welche bei Abwesenheit von GABA auftreten, verlangsamt. Weil diese Ströme den ratenlimitierenden Schritt im Reaktionszyklus zu repräsentieren scheinen, mußte also jener Schritt, welcher die Okklusion des ersten Natriums oder die darauffolgende Konformationsänderung beinhaltet, verlangsamt sein. Im weiteren zeigten Analysen der bei den transienten Strömen auftretenden Ladungsverschiebungen, daß die Natrium-Transporter-Interaktion auf extrazellulärer Seite durch das Fehlen von Oligosacchariden an den N-Glykosilierungsstellen des GAT-1 beeinträchtigt war, wobei als Grund hierfür eine Verstärkung der dimensionalen bzw. elektrogenen Schranke zu sehen ist, welche sich vor der Natriumbindungsstelle des GAT-1 befindet. Eine Veränderung der Expressionsrate als tragende Ursache verminderter Transportraten bzw. reduzierter GABA-Aufnahmen konnte hingegen ausgeschlossen werden. Experimente mit dem N-Glykosilierungs-Inhibitor dMM sowie Vergleiche von Experimenten verschiedener Mutanten vermochten die oben beschriebenen Effekte hauptsächlich auf die durch die Mutationen fehlenden Oligosaccharide zurückzuführen und weniger auf andere durch die Mutation hervorgerufene strukturelle Änderungen des GAT-1-Proteins.
Die vorliegende Arbeit stellt Design, Aufbau und erste experimentelle Testergebnisse einer integrierten RFQ-Driftröhrenkombination für den Einsatz im Injektorbereich einer klinischen Synchrotronanlage zur Behandlung von Tumorerkrankungen mit Ionenstrahlen vor. Das Hauptziel der Bemühungen war, eine sehr kompakte und auf die gestellten Aufgaben hoch spezialisierte Lösung zu finden, die den täglichen Anforderungen im Klinikbetrieb gerecht wird. Zuverlässigkeit, einfache Bedienbarkeit und möglichst geringe Betriebskosten standen dabei im Vordergrund und führten letztlich zu einer nur 1,40 m langen Kombination der beiden Beschleunigerkomponenten, die üblicher Weise in zwei getrennten Kavitäten mit separater Leistungsversorgung, separater Steuerung und mit deutlich mehr Platzbedarf untergebracht sind. Im Zuge der Designarbeiten wurde insbesondere das Programm PARMPRO den hier aufgetretenen aktuellen Problemstellungen angepasst. Die Berechnung der Wechselwirkung von Ionen bei raumladungsdominierten Teilchenstrahlen wurde korrigiert, das Programm um ein Transportelement zu Transformation geladener Teilchen durch eine frei wählbare Potentialverteilung erweitert und mit einem neu entwickelten Programmteil wurden die zur Fertigung notwendigen Daten generiert. Die Optimierung der Strukturparameter mit Hilfe einer externen Visual-Basic-Anwendung zum automatischen Optimieren der Strukturdaten mit Hilfe von PARMPRO war ein Schritt auf dem Wege zum endgültigen, an die Eingangsstrahldaten und an die Erfordernisse der darauffolgenden IH-Struktur angepassten Elektrodendesign. Nach den Simulationsrechnungen erfolgten Referenzmessungen an entsprechenden Modellaufbauten insbesondere mit einem computergesteuerten Störkörpermessstand, zur experimentellen Bestimmung der Spannungsverhältnisse an der jeweils zu untersuchenden Strukturvariante. Auf diesen Ergebnissen basiert das endgültig entwickelte Resonatorkonzept der RFQ-Driftröhrenkombination. Das Kapitel "Aufbau des Medizin-RFQs" behandelt die Konstruktion und die technische Umsetzung des erarbeiteten Beschleunigerkonzepts. Einzelnen Beschleunigerkomponenten wie Tank, Elektroden, Resonatorstruktur, Bunchereinheit und deren Fertigungsprozesse werden vorgestellt, Arbeitsschritte wie das Verkupfern des Tanks in der Galvanik der GSI oder das Verfahren zum Versilbern von Kontaktteilen im hauseigenen Labor werden beschrieben. Es folgt eine Diskussion des Justierkonzepts und der Maßnahmen zur Einhaltung der erforderlichen Genauigkeiten von ca. 20 mm, um die berechnete Strahlqualität zu gewährleisen. Abschließend werden die Ergebnisse erster HF-Testmessungen auf Messsenderniveau beschrieben. Hier wurden zunächst experimentell grundlegende Resonatoreigenschaften wie etwa Resonanzfrequenz, Güte und Parallelersatzwiderstand bestimmt. Danach wurde ein spezielles Störkörpermessverfahren angewandt, um den über die Montagehöhe der Driftröhre einstellbaren Spannungsbereich der Bunchereinheit zu erfassen, da die geometrischen Verhältnisse einen computergesteuerten Messstand wie er zur Untersuchung der Modellaufbauten herangezogen wurde nicht zuließen. Abschließend erfolgte ein Abstimmen der Spannungsverteilung entlang der RFQ-Elektroden. Diese experimentellen Ergebnisse belegen eindrucksvoll die Funktionsfähigkeit der RFQ-Driftröhrenkombination, so ist insbesondere die erforderliche Buncherspannung auf einer mittleren Montagehöhe der spannungsführenden Driftröhre zu erreichen, die durch die zusätzlich Driftröhrenkapazität hervorgerufene Verzerrung der Spannungsverteilung auf den Elektroden lässt sich über die höhenverschiebbaren Kurzschlussplatten gut korrigieren. Das erarbeitete Gesamtkonzept dieser neuartigen, sehr kompakten RFQ-Driftröhrenkombination ist auch für andere Anwendungsbereiche sehr attraktiv, so dass bereits ein Patent darauf angemeldet wurde. Damit ist das Ziel, eine RFQ-Driftröhrenkombination für die medizinische Beschleunigeranlage in Heidelberg aufzubauen erreicht. Strahltests und die experimentelle Bestimmung der Phasen- und Energiebreite des Ionenstrahls sind als nächstes vorgesehen.
Die opto-elektronische Erzeugung intensiver Terahertz-Pulse unter Verwendung von Verstärkerlaser-Systemen stellt eine leistungsfähige und im wissenschaftlichen Umfeld etablierte Technik dar. Es ist anzunehmen, dass diese Technik in Zukunft auch für kommerzielle Anwendungen eingesetzt werden wird. (Z.B. entwickelt die Firma Nikon, Japan ein Echtzeit- Bildgebungssystem mit opto-elektronisch erzeugter Terahertz-Strahlung basierend auf einem Verstärkerlaser.) In dieser Arbeit werden gängige und neuartige opto-elektronische Terahertz-Emitter für Verstärkerlaser theoretisch und experimentell untersucht. Zur experimentellen Untersuchung wurde die Methode der elektro-optischen Detektion, welche in der Arbeit ausführlich vorgestellt wird, verwendet. Dabei wird insbesondere die spektrale Detektorempfindlichkeit dargestellt und eine Methode zur Durchführung kalibrierter Messungen vorgestellt, welche auch für die Verwendung mit Verstärkerlasern geeignet ist. Zu den untersuchten bekannten Emittern gehört der vor ca. 10 Jahren erstmals vorgestellte groß- flächige GaAs-Emitter mit externem Feld. Obwohl dieser Emitter in der Literatur bereits ausführlich untersucht wurde, werden in der vorliegende Arbeit über den Stand der Literatur hinausgehende neue Aspekte wie die Feldabschirmung auf Grund von Ladungsträgerverschiebung und die Abhängigkeit der erzeugten THz-Feldstärke bzw. der THz-Pulsenergie von der Emitterfläche diskutiert. Zudem erfolgt die Behandlung dieses Emitters erstmals vollständig quantitativ, wobei eine gute Übereinstimmung mit den experimentellen Daten erreicht wird. Der zweite in der Arbeit untersuchte Emitter ist der großflächige ZnTe-Emitter. Die elektro-optische Erzeugung von THz-Strahlung in ZnTe-Kristallen mit hoch-repetierlichen Kurzpuls-Lasersystemen ist langjährig bekannt. Die Verwendung großflächiger ZnTe-Kristalle in Verbindung mit Verstärkerlasern wurde allerdings in Rahmen dieser Arbeit erstmals demonstriert. Vor dem Hintergrund der demonstrierten hervorragenden Eigenschaften dieses Emitters ist dieses besonders erstaunlich. Der Hauptteil der Arbeit beschäftigt sich mit der neuartigen Erzeugung von THz-Pulsen in laser-generierten Plasmen. Dabei wurden zwei Methoden untersucht. Die erste Methode, welche im Rahmen dieser Arbeit erstmals realisiert wurde, basiert auf einer Vorspannung des Plasmas mit einem externen elektrischem Feld. Die Methode ist vergleichsweise wenig effektiv, stellt aber eine gute Möglichkeit zur Überprüfung der in der Arbeit entwickelten Modelle für die THz-Emission dar. Die zweite Methode, die erstmals von Cook et al. im Jahre 2000 demonstriert wurde, basiert auf einer "optischen Vorspannung" des Plasmas mittels der Überlagerung des Laserpulses der Fundamentalfrequenz mit einem phasensynchronen Laserpuls der zweiten Harmonischen. Die ausführliche experimentelle und theoretische Untersuchung dieser Methode beinhaltet eine quantitative Modellierung der zu erwartenden Ergebnisse auf Basis des von Cook et al. vorgestellten phänomenologischen Modells, welches auf zeitunabhängigen Nichtlinearitäten dritter Ordnung im Plasma oder in der Luft beruht. Die in dieser Arbeit vorgestellte quantitative Analyse legt die Schlussfolgerung nahe, dass das phänomenologische Modell von Cook et al. in der vorliegenden Form in Frage gestellt werden muss. Daher wurde im Rahmen der Arbeit ein einfaches Modell zur Erklärung der mikroskopischen Ursache der Nichtlinearität entwickelt. Dieses Modell beinhaltet die Kopplung der Nichtlinearität mit dem lokalen Ionisierungsprozess und damit formal auch eine explizite Zeitabhängigkeit der Nichtlinearität im Plasma. Die quantitative Modellierung der makroskopischen THz-Emission auf Basis des mikroskopischen Bildes der Generations-Nichtlinearitäten zeigt, dass das Modell die experimentellen Befunde zufriedenstellend beschreiben kann. Die Arbeit schließt mit einem Vergleich der untersuchten Emitter in Bezug auf spektrale Eigenschaften, Effizienz und Sättigungsverhalten. Bei der Darstellung des Sättigungsverhaltens wird anhand der in der Arbeit entwickelten Modelle versucht die Entwicklung der erzeugten THz-Feldamplituden für Laserpulsenergien von bis zu 50 mJ vorauszusagen. Diese Abschätzung lässt vermuten, dass der Plasma-Emitter für Laserpulsenergien von 10mJ und mehr das Potential hat, deutlich höhere THz-Feldamplituden zu erzeugen als alle gängigen Standardemitter. Entsprechende Experimente in diesem Laserpuls-Energiebereich sind am Front-End des PHELIX-Lasers der GSI (Gesellschaft für Schwerionenforschung) in Darmstadt im Rahmen der Fortführung der Forschungsarbeiten geplant.
Das zeitdiskrete Rohrmodell besitzt für die Modellierung der menschlichen Sprachproduktion eine wichtige theoretische und praktische Bedeutung, da es ein mathematisch handhabbares Modell darstellt und zugleich eine vereinfachte akustische Beschreibung des Sprechtraktes beinhaltet. Dies ist einerseits begründet durch die modellhafte Beschreibung der Ausbreitung von ebenen Wellen durch den Sprechtrakt und andererseits in der Darstellung des Rohrmodells als zeitdiskretes lineares System. Erst durch die Verfügbarkeit von adäquaten Schätzalgorithmen, welche die Modellparameter aus dem Sprachsignal bestimmen, ist das Rohrmodell für Anwendungen in der Sprachverarbeitung interessant. Diese liegen allerdings nur für die einfachsten unverzweigten Rohrmodelle vor, welche den Sprechtrakt nur stark vereinfacht modellieren. Für erweiterte Rohrmodelle existieren nur in eingeschränkter Weise adäquate Schätzalgorithmen, mit denen die Modellparameter aus dem Sprachsignal geschätzt werden können. Daher wird mit dieser Arbeit versucht diesen Mißstand aufzulösen, wofür Schätzalgorithmen auch für erweiterte Rohrmodelle entwickelt und vorgestellt werden. Die Erweiterungen des Rohrmodells beziehen sich auf Rohrverzweigungen, die auch mehrfach auftreten können, und Rohrabschlüsse, die frequenzabhängig oder zeitvariabel sein können. Zusätzlich werden Sprechtraktmodelle behandelt, die zwei Systemausgänge aufweisen. Dies wird für Analysen von getrennt aufgenommenen Mund- und Nasensignalen von nasalierten Lauten diskutiert, um die Lippen- und Nasenabstrahlung einzeln zu berücksichtigen. Ebenso werden verzweigte Modelle mit zwei Systemausgängen für eine Beschreibung des Nasaltraktes unter Berücksichtigung der beiden Nasengänge behandelt. Die Erweiterungen des Rohrmodells durch Verzweigungen und angepaßte Rohrabschlüsse ermöglichen eine genauere Beschreibung des Sprechtraktes infolge der Verzweigungen durch den Nasaltrakt und infolge der Abschlüsse an den Lippen, Nasenlöchern und der Glottis. Die Parameterbestimmung wird durch Minimierung eines Fehlers durchgeführt, welcher ein spektrales Abstandsmaß zwischen dem Rohrmodell und dem analysierten Sprachsignal darstellt. Für die Definition des Fehlers wird die inverse Filterung herangezogen, welche eine Leistungsminimierung des Ausgangssignals des inversen Systems beinhaltet. Dabei hat sich gezeigt, daß die Fehlerdefinition der inversen Filterung modifiziert werden muß, um auch erfolgreich auf erweiterte Rohrmodelle angewendet werden zu können. Die Modifikation kann für erweiterte Rohrmodelle einheitlich für den zeitinvarianten und zeitvariablen Fall vorgestellt werden. Über den allgemeinen Ansatz der Schätzung hinaus werden auch effiziente Schätzverfahren für ausgewählte Rohrstrukturen und allgemeine Pol-Nullstellen-Systeme vorgestellt. Die diskutierten Schätzverfahren ermöglichen eine gute Approximation der Sprachspektren durch die Modellbetragsgänge. Darüber hinaus konnte auch gezeigt werden, daß durch entsprechende Rohrmodellstrukturen und eine geeignete Vorverarbeitung des Sprachsignals realistische Querschnittsflächen des Sprechtraktes geschätzt werden können. Daher eignen sich die erweiterten Sprechtraktmodelle auch für die Sprachproduktion. In Synthesebeispielen wurden Lautübergänge auf der Basis von geschätzten Vokaltraktflächen realisiert und in Resynthesebeispielen mittels unverzweigter Rohrmodelle wurde insbesondere die Anregung der Modelle diskutiert. Daß durch die Verwendung von Rohrmodellen auch Lauttransformationen möglich sind, zeigt die vorgestellte künstliche Nasalierung von Sprachsignalen unnasalierter Laute, welche mittels verzweigter Rohrmodelle und Analysen von getrennt aufgenommenen Mund- und Nasensignalen erreicht werden konnte.
Diese Arbeit untersucht die Produktion von Teilchen durch Vakuumpolarisation in Anwesenheit klassischer Felder. Eine unquantisierte Beschreibung des bosonischen Sektors einer Quantenfeldtheorie wird möglich, wenn dieser stark besetzt ist. Sind die Besetzungszahlen größer als eins, können Quantenprozesse als Korrekturen angesehen werden. Für die Fermionen gibt es wegen des Paulischen Prinzips kein solches Konzept. Situationen mit diesen starkbesetzten Feldern finden sich im Fall der Quantenchromodynamik (QCD) zum Beispiel in ultrarelativistischen Schwerionenkollisionen. Diese werden zur Zeit am Relativistic Heavy Ion Collider (RHIC) am Brookhaven National Laboratory durchgeführt und in Zukunft am Large Hadron Collider (LHC) am CERN untersucht werden. Diese hochbesetzten sind auch starke Felder. Damit können in Abwesenheit weiterer Skalen Prozesse mit unterschiedlich häufigen Kopplungen an das Hintergrundfeld nicht parametrisch unterschieden werden. Die dominanten Quanteneffekte werden durch Terme der klassischen Wirkung. die zweiter Ordnung in den Quantenfeldern sind, repräsentiert. Alle diesbezüglichen Informationen sind in den Propagatoren der entsprechenden Quanten enthalten. Wegen der starken Felder müssen hier die vollen Propagatoren im Hintergrundfeld benutzt werden. Bei schwacher Kopplung - in führender Ordnung in den Quanteneffekten - enthalten sie alle Details über die Streuung der Quantenteilchen am Feld und deren Produktion durch Vakuumpolarisation. Ohne weitere radiative Korrekturen, gibt es in der Quantenelektrodynamik die Produktion von Elektron-Positron-Paaren. Analog dazu werden in der QCD Quark-Antiquark-Paare produziert. Dort kommt aber wegen der Nichtlinearität des Feldtensors noch die Produktion von Paaren gluonischer Quantenfluktuationen hinzu. Die Quarks und Antiquarks sowie die gluonischen Quantenfluktuationen sind parametrisch nicht zu unterscheiden. Für Schwerionenkollisionen lassen sich Größen wie die anfängliche Energiedichte und die Zerfallszeit des hochdichten Regimes abschätzen. Es stellt sich nun die Frage, ob man bei Einschränkung auf diese Situationen eine der beiden Quantenspezies als unwichtig vernachlässigen kann. Im Bereich hoher Teilchenimpulse, läßt sich die Produktion störungstheoretisch beschreiben. Hier untersuche ich zunächst in der niedrigsten Ordnung der klassischen Wirkung die Produktionsprozesse der beiden Arten von Quanten bei Anwesenheit beliebiger Felder. Für die Aufteilung des Gluonenfeldes in seinen Erwartungswert und seine Fluktuationen wird die Hintergrundfeldmethode der QCD verwendet. Für den Spezialfall rein zeitabhängiger Felder werden die Produktionsraten für Parametersätze, wie sie für RHIC und LHC erwartet sind, angegeben. Es stellt sich heraus, daß auf perturbativem Niveau sowohl Situationen, in denen die Fermionen dominieren, als auch solche, in denen die gluonischen Quantenfluktuationen überwiegen' vorkommen. Im Fall der Gluonen könnte der stark besetzte niederengetische Bereich durch das klassische Feld und der hochenergetische schwächer besetzte durch eine perturbative Beschreibung hinreichend genähert sein. Da es für die Fermionen jedoch kein klassisches Feld gibt, bliebe ihr niederenergetischer Bereich vollkommen unbehandelt. Hier ist auf jeden Fall eine nichtperturbative Beschreibung notwendig. Diese kann auf dem vollen Fermionpropagator im Hintergrundfeld aufgebaut werden. Der bereits oben verwendete Spezialfall eines rein zeitabhängigen Feldes kann als Näherung eines boostinvarianten Szenarios in der zentralen Region der Schwerionenkollision gesehen werden. In Anwesenheit derartiger Felder wird hier der volle retardierte Propagator hergeleitet. Für den exakten Propagator und alle Näherungen wird das Impulsspektrum der produzierten Fermionen berechnet. Dabei stellt sich die sogenannte Abelsche Näherung als bester Kandidat neben der exakten Beschreibung heraus. Sie entspricht, im Gegensatz zur störungstheoretischen Näherung, bei der die Fermionen immer mir ihrem asymptotischen kinematischen Impuls propagiert werden, einer Propagation mit dem mittleren kanonischen Impuls, was die Verbesserung der Näherung erklärt. Mit den, durch die induzierten Strömen modifizierten Yang-Mills-Gleichungen, stellt die Arbeit das komplette Funktionensystem dar, daß benötigt wird, um eine selbstkonsistente Berechnung des klassischen Feldes mit perturbativ beschriebenen gluonischen Quantenfluktuationen und exakt berechneten Quarks und Antiquarks durchzuführen.
Gegenstand dieser Arbeit war die Untersuchung der optischen und elektronischen Eigenschaften von metallorganischen Materialien, die mit dem Verfahren der Elektronenstrahlinduzierten Deposition hergestellt wurden. Da es sich bei diesen noch relativ unerforschten Endprodukten um Materialmengen von wenigen Nanogramm Gewicht und geometrische Abmessungen im Sub-µm-Bereich handelt, wurden hierzu neue Verfahren der Herstellung, Strukturierung und Charakterisierung entwickelt. Sowohl die optischen als auch die elektronischen Eigenschaften dieser Deponate besitzen einen gemeinsamen physikalischen Nenner in ihrer inneren Morphologie: ein nanokristallines dielektrisches Verbundmaterial, das aus metallischen Kristalliten und organischen Polymeren gebildet wird. Im Hinblick auf die Durchführung der Untersuchungen war das Augenmerk auf zwei potentielle industrielle Anwendungen gerichtet: den Photonischen Kristallen und den Einzelelektronen-Phänomenen bei Raumtemperatur. Mit Hilfe von Beugungsexperimenten im Fernfeld wird ein Verfahren gezeigt, das eine der periodischen Struktur von Photonischen Kristallen angepaßte Charakterisierung von Materialstrukturen mit optischer Bandlücke ermöglicht. Das mathematische Grundgerüst bildet dabei eine rigorose Streutheorie, die als Lösung der Helmholtz-Gleichung an dielektrischen Zylindern mit wenigen hundert nm Durchmesser den Experimenten zugrunde gelegt wird und sowohl für die praktische Dimensionierung des Versuchsaufbaus als auch für die theoretische Auswertung der Meßdaten, z.B. für die Brechungsindexbestimmung, dient. Die Herstellung und Kontrolle der Eigenschaften von Einzelelektronen-Tunnelelementen (SETs, Single Electron Tunneling Devices), welche bei hohen Temperaturen mit einer abzählbar kleinen Anzahl von Elektronen noch arbeiten, dürfte wohl eine der größten Herausforderungen in der heutigen Festkörperelektronik sein. Obwohl die Idee dazu, auf Basis der "Orthodoxen Theorie", bis auf die 80er Jahre des vergangenen Jahrhunderts zurückgeht, konnten nennenswerte Ergebnisse nur unter "Laborbedingungen" mit entsprechend hohem experimentellem Aufwand erzielt werden. In der vorliegenden Arbeit wird ein neuer Weg gegangen, um die beiden wesentlichen Bedingungen der orthodoxen Theorie, nämlich die Kleinheit der Kapazitäten und hohe Tunnelwiderstände, durch das ungeordnete nanokristalline Netzwerk der metallorganischen Deponate zu erfüllen. Die Motivation hierzu liegt in der hochohmigen organischen Matrix der Deponate, die mit darin eingebetteten elektrisch isolierten Nanokristalliten (die mit Durchmessern zwischen 1 nm und 2.5 nm ausgezeichnete Quantenpunkte bilden) eine ideale Umgebung für den Betrieb von Einzelelektronen-Tunnelelementen bereitstellen. Ein stabiles Verhalten unter hohen Temperaturen und eine ausgeprägte Resistenz gegen quantenmechanische Fluktuationen (z. B. dem Co-Tunneln oder Hintergrundladungen) wird durch den Aufbau von nanokristallinen Netzwerken, die in der Arbeit als "Über-SET" bezeichnet werden, erreicht. Mit Hilfe der entwickelten speziellen Technik lassen sich Nanokristallite elektrisch bis zur quantenmechanischen Tunnelgrenze voneinander isolieren und als Quantenpunkte betreiben. Die dabei beobachtbaren Phänomene sind diskretisierte I/U-Kennlinien und das Blockade-Verhalten der Spannung bei Raumtemperatur, deren Entstehung in Monte-Carlo-Simulationen auf zwei physikalische Grundprinzipien zurückgeführt wird: der Ausbildung von Einfangzuständen (Traps) für Elektronen an Grenzstellen und dem Mechanismus des negativen differentiellen Widerstandes (NDR, Negative Differential Resistance). Beide Effekte fungieren in einer gegenseitigen Kombination zueinander durch Coulomb-Wechselwirkungen zu einem mikroskopischen Schalter für den gesamten Strom.
Wir haben uns in dieser Arbeit der möglichen Produktion Schwarzer Löcher in hochenergetischen Teilchenkollisonen unter Annahme einer Raumzeit mit großen Extra-Dimensionen gewidmet. Die Produktionsraten, die bei einer neuen fundamentalen Skala im Bereich Mf ~ 1 TeV zu erwarten sind, liegen für den LHC in der Größenordnung von ~ 10 hoch 8 Schwarzen Löchern pro Jahr. Diese hohe Anzahl begründet das Interesse an den Eigenschaften der produzierten Schwarzen Löchern und wirft die Frage auf, wie diese Objekte beobachtet werden können. Bei der Untersuchung der Eigenschaften dieser Schwarzen Löcher haben wir festgestellt, dass das Entstehen Schwarzer Löcher ab einer c.o.m.-Energie im Bereich der neuen Planck-Masse zu einer raschen Unterdrückung hochenergetischer Jets, wie sie in pp-Kollisionen entstehen, führt. Dies ist ein klares Signal und leicht zu beobachten. Unter Ansetzen des Mikrokanonischen Ensembles haben wir die Zerfallsrate der Schwarzen Löcher und ihre Lebensdauer berechnet. Es zeigt sich, dass diese Lebensdauer hoch genug ist, um ein zeitlich deutlich verzögertes Signal zu erhalten. Nimmt man an, dass die statistische Mechanik bis zur Größenordung Mf gülig bleibt, so gelangen die Schwarzen Löcher im Zuge ihrer Verdunstung in einen quasi-stabilen Zustand und ein Rest verbleibt. Die Lebenszeit ist von der Anzahl der Dimensionen abhängig und lässt so Rückschlüsse auf diesen Parameter zu. Im Falle (Mf ~ TeV, d > 5) liegt sie für Energien von ~ 10 TeV in der Größenordung 100 fm/c. Eine geometrische Quantisierung der Strahlung legt außerdem nahe, dass die Schwarzen Löcher nicht restlos verdampfen können, sondern ein stabiler Überrest verbleibt. Diese Ergebnisse sind in [202, 203, 205] veröffentlicht worden.
In der vorliegenden Arbeit wird untersucht, inwieweit sich quantenoptische Zufallsgeneratoren, bei denen die "Welcher-Weg-Entscheidung" einzelner Photonen am Strahlteiler bzw. Faserkoppler zur Zufallsgenerierung verwendet wird, zur Erzeugung von Zufallsbitströmen eignen. Es werden hierbei im wesentlichen vier verschiedene Varianten aufgebaut, die sich durch die eingesetzte Lichtquelle und die Realisierung des optischen Aufbaus unterscheiden, um zu erkennen, welche Detailprobleme sich beim Aufbau solcher Generatoren zeigen. Als Lichtquellen werden eine Einphotonenquelle auf Basis der parametrischen Fluoreszenz und eine Quelle, die stark abgeschwächte, gepulste Poisson-Lichtfelder abstrahlt, eingesetzt. Bei der optischen Realisierung wird jeweils einmal Freistrahl- und einmal Faseroptik für das Zufall generierende Element verwendet. Die Rohdaten-Bitströme der verschiedenen Varianten werden mit Hilfe von statistischen Verfahren untersucht, die für Tests von physikalischen Zufallsgeneratoren geeignet sind. In der Diskussion werden die verschiedenen Testverfahren hinsichtlich ihrer Eignung zum Aufdecken tieferliegender Defekte bewertet. Thermische Einflüsse auf die Rohdaten-Ströme werden dargelegt, Methoden zur Verringerung der Einflüsse angegeben und gezeigt, wie mit Hilfe von mathematischen Regularisierungsverfahren ideale Bitströme aus den Rohdaten erzeugt werden können. Anhand von (mehrstufigen) Autokorrelationskoeffiziententests werden die Auswirkungen von Problemen mit verschiedenen Datenaufnahme-Elektroniken auf die Rohdaten- Ströme analysiert. Die Ursachen der Probleme werden diskutiert, mögliche Lösungen, wie sich die Probleme stark verringern bzw. vermeiden lassen, werden vorgeschlagen und experimentell untersucht. Die Einflüsse der Eigenschaften der verwendeten Photonenquellen im Zusammenspiel mit den verwendeten optischen Komponenten und Detektoren werden analysiert und ihre Auswirkungen auf die Zufallsgenerierung diskutiert. Zur Erhöhung der Ausgangbitrate quantenoptischer Zufallsgeneratoren werden verschiedene Ausführungen von Mehrfachzufallsgeneratoren vorgeschlagen, insbesondere für den quantenoptischen Zufallsgenerator auf Basis der parametrischen Fluoreszenz. Als weitere, interessante Variante eines quantenoptischen Zufallsgenerators wird das theoretische Konzept für den "HOM-Generator" präsentiert, bei dem beide Photonen eines Photonenpaares bei einer gemeinsamen "Welcher-Weg-Entscheidung" zur Zufallsgenerierung verwendet werden. Die vorgeschlagenen Varianten quantenoptischer Zufallsgeneratoren werden hinsichtlich ihrer Eignung für einen praktischen Einsatz diskutiert und bewertet. Für den Dauereinsatz quantenoptischer Zufallsgeneratoren als Komponente in Sicherheitsinfrastrukturen, wie z.B. Trustcentern, werden Optimierungen, Möglichkeiten der Kostenreduzierung und weitere Aufbauvarianten vorgeschlagen. Die Optimierungen werden hinsichtlich ihrer Praxistauglichkeit diskutiert und gewertet. Mögliche Angriffe auf quantenoptische Zufallsgeneratoren werden diskutiert und zur Erkennung von Manipulationen an physikalischen Zufallsgeneratoren werden verschiedene Möglichkeiten vorgestellt, um künstliche Signaturen einzufügen, sie vor Verwendung der Zufallsdaten zu verifizieren und aus dem Zufallsstrom zu entfernen.