Universitätspublikationen
Refine
Year of publication
Document Type
- Diploma Thesis (55) (remove)
Has Fulltext
- yes (55) (remove)
Is part of the Bibliography
- no (55)
Keywords
Institute
- Physik (22)
- Informatik (19)
- Biowissenschaften (4)
- Geowissenschaften (3)
- Gesellschaftswissenschaften (2)
- Mathematik (2)
- Wirtschaftswissenschaften (2)
- Informatik und Mathematik (1)
Ulrike Anders hat zwischen Januar und September 2005 Zähne und Gebiß rezenter Schleichkatzen (Viverridae) untersucht und Parameter identifiziert, anhand derer sich Nahrungspräferenzen zuordnen lassen. Viverriden gelten als basale Carnivoren mit omnivorem Nahrungsspektrum. Da die für echte Katzen so typische Brechschere und die Reduktion des Gebisses nur wenig ausgeprägt ist, gilt ihr Gebiss als unspezialisiert. Dennoch besitzen Viverriden Nahrungspräferenzen, die sich in der Umgestaltung ihres Gebisses, auch in einzelnen Zahnpositionen niederschlägt. Diese Veränderungen wurden metrisch charakterisiert.
Diese Diplomarbeit untersucht die Güte eines globalen Datensatzes (IA), der die monatliche Ausdehnung der terrestrischen Oberflächengewässer für den Zeitraum von 1993 bis 2004 beinhaltet. IA ist aus komplementären, räumlich geringauflösenden Satellitendaten generiert. Die Wasserausdehnungen werden als prozentuale Flächenanteile von 0,5°-Gitterzellen angegeben. IA wäre durch seine monatliche Dynamik zur Kalibrierung und Validierung eines globalen Modells von temporären Überflutungsgebieten geeignet. Im Rahmen dieser Diplomarbeit werden die Wasserbedeckungen aus IA in einzelnen 0,5°-Zellen zu mehreren Zeitpunkten mithilfe von räumlich hochauflösenden Satellitenbildern des Enhanced Thematic Mapper Plus (ETM+) validiert. Aus Gründen der Effizienz (Minimierung des Speicheraufwands und der Verarbeitungszeit) wird nur ein einziger ETM+ Kanal im mittleren Infrarot zur Bestimmung der Wasserbedeckung verwendet: Band 5. Durch überwachte Klassifikationen wird der Anteil der Wasserflächen an der Gesamtfläche der 0,5°-Zellen ermittelt. Insgesamt werden 262 Klassifikationen in vier Untersuchungsgebieten durchgeführt. Zwischen den prozentualen Wasserbedeckungen aus IA und den ETM+ (Band 5)-Validierungsdaten werden häufige und unregelmäßige Abweichungen festgestellt. Die maximalen absoluten Abweichungen betragen mehr als 60%. Aufgrund dieser Ergebnisse sind die IA-Wasserausdehnungen nur sehr begrenzt als Validierungsdaten für die Modellierung von temporären Überflutungsgebieten geeignet.
Mit dem Dileptonenspektrometer HADES sollen Dielektronen aus Kern - Kern - Stößen in einem hadronischen Untergrund bei hohen Multiplizitäten untersucht werden. Die Ereignisrate von 106 pro Sekunde erfordert eine Auslese der Detektoren innerhalb von 10 mikrosek. Die erwarteten hohen Multiplizitäten führen zu einer hohen Granularität der Detektoren und damit auch der Ausleseelektronik. Durch die Verwendung mehrere Triggerstufen wird eine Aufteilung des Auslesesystems auf mehrere Stufen notwendig. Für die Auslese von ~ 26.000 Driftzellen in 24 Driftkammermodulen wurde ein an die Anforderungen des Detektorsystems angepaßtes Auslesekonzept entwickelt. Analoge Signalaufbereitung und Messung der Driftzeit werden direkt am Detektor auf zwei miteinander kombinierten Karten untergebracht. Die nötige Integrationsdichte im Digitalisierungsteil wird durch die Verwendung eines speziellen Zeitmeßverfahrens (TDC) erreicht, das auf Signallaufzeiten in Halbleiterschaltungen basiert. Im gleichen Chip befindet sich auch eine Datenübertragungseinheit, die in der Lage ist die Daten mit der erforderlichen Geschwindigkeit zu transferieren. Durch zwei weitere Module mit Speicher zum Puffern der Ereignisdaten wird den Anforderungen des Triggerkonzeptes Rechnung getragen. Dem verwendete Zeitmeßverfahren (Ringoszillator) ist eine Abhängigkeit der Zeitauflösung von Temperatur und Versorgungsspannung inherent. Ausführliche Messungen im Rahmen dieser Arbeit zeigen, daß die relativen Abhängigkeiten mit 0,2 Promille jedoch in einem Bereich liegen, in dem sie durch geeignete Maßnahmen kontrolliert werden können. Dazu zählen die regelmäßige Kalibrierung, sowie die Messung und Überwachung von Temperatur und Versorgungsspannung. Die Leistungsaufnahme des Auslesesystems liegt mit 5kW (total) noch um ca. einen Faktor zwei über den Spezifikationen. Sowohl die Tests des TDC Zeitmeßteils, als auch die Simulationen zeigen die Realisierbarkeit des Systems. Dies konnte auch durch Simulationen des gesamten Auslesesystems im Rahmen einer Projektstudie zum Triggerkonzept an der Universität Giessen nachgewiesen werden. Ein abschließender Funktionstest der Ausleseelektronik mit dem TDC an der Prototypdriftkammer im Labor ist gegenwärtig in Vorbereitung. Zur endgültigen Realisierung der Ausleseelektronik bedarf es noch der Reduzierung des Platzbedarfes sowie der Leistungsaufnahme. Zur Reduktion der Größe des Motherboardes wird eine mehrlagige Platine entwickelt. Für die Anbringung der Daughterboards ist eine platzsparende Geometrie vorgesehen. Die Reduktion der Leistungsaufnahme wird hauptsächlich durch neuere Entwicklungen bei den Daughterboards möglich. Auch die Verwendbarkeit des im Rahmen eines anderen Projektes entwickelten SAM - Modules als Konzentrator für die Driftkammerauslese ist zu untersuchen. Da diese Karte auch einen DSP enthält, ist entsprechende Software erforderlich. Die Segmentierung des modularen Spektrometersystems erlaubt den endgültigen Aufbau in mehreren Schritten. Vorgesehen ist, zunächst nur einzelne Segmente oder einzelne Ebenen der Driftkammern aufzubauen, und das komplette System erst zu einem spätern Zeitpunkt in Betrieb zu nehmen. Einzelne Komponenten können durch Neuentwicklungen ersetzt werden.
In dieser Arbeit wurde die grundsätzliche Funktionsweise und die Eigenschaften von photokonduktiven CW-Thz-Emittern dargestellt. In diesem Rahmen wurde der Prozess des Photomischens und die Funktionsweise und Eigenschaften von Antennen auf Halbleitersubstraten untersucht. Um das erwartete frequenzabhängige Emissionsverhalten zu überprüfen wurde ein Messplatz zur Durchführung von Vergleichsmessungen diverser Emitter aufgebaut. Desweiteren wurde ein Fourier-Transform-Interferometer zur frequenzaufgelösten Detektion im THz-Bereich entwickelt. Zur Charakterisierung der Emitter wurde die emittierte Leistung in Abhängigkeit der Frequenz gemessen. Als abstrahlende Strukturen wurden Dipol- und Patch-Antennen verwendet. Dabei wurde gezeigt, daß eine Einschränkung der Bandbreite eine Verstärkung der Emission in dem verbleibenden Frequenzbereich ergibt. Dies wird bei Dipolantennen durch eine Filterstruktur oder allgemein durch Verwendung einer stark resonanten Antennenstruktur wie der Patchantenne erreicht. Es wurde gezeigt, daß die Einbeziehung der zu höheren Frequenzen abfallenden Leistung des Photomischers notwendig für eine Beschreibung der Resonanzkurve ist. Dadurch verschiebt sich das Maximum der Abstrahlung und liegt im Falle des Dipols nicht mehr bei der Anregung nah der Wellenlänge die gleich der Dipollänge ist. Allerdings wurde auch gezeigt, daß dies nicht für eine Beschreibung der Resonanzkurve ausreicht, und daß zur korrekten Modellierung die Übertragung der Leistung von Photomischer auf die Antenne eingefügt werden muß. Diese ist stark von dem komplexen Widerstand des Photoschalters abhängig. Die Resonanzcharakteristik von Patch-Antennen konnte durch die Berechnung der TMModen eines dreidimensionalen mit einem Dielektrikum gefüllten Resonators erklärt werden. Dieser besitzt aber so viele mögliche Moden, daß schon kleine geometrische Veränderungen die Resonanzfrequenz verändern können. Somit ist die Berechnung der Resonanzfrequenz sehr schwierig, und die praktische Einsetzbarkeit der gezeigten Patch-Antennen gering. Allerdings ist bei Patchantennen anders als bei Dipolen die Quelle der Emission, in diesem Fall der Resonator aus Polyamid, unabhängig vom Substrat auf dem sich die Antenne befindet. Dies macht ein Aufbringen auf ein für die Emission optimales Substrat oder einen Spiegel möglich. Die berechnete Resonanzfrequenz der Filterstruktur in der Zuleitung ist auch die tatsächliche Resonanzfrequenz des Dipols. Hier ist eine Vorhersage und somit ein funktionierendes Design relativ leicht zu erreichen. Allerdings wurde die durch die Filterstruktur in der Zuleitung gewählte Resonanzfrequenz fälschlicherweise für eine Anregung mit der vollen Wellenlänge gewählt und liegt wie die vergleichende Messung mit identischem Dipol ohne Filterstruktur zeigt, nicht im Emissionsmaximum des Emitters. Für zukünftige Designs muß eine detaillierte Berechnung oder eine Messung des Emissionsmaximums des Dipols ohne Verwendung eines Filters vorangehen, um die Resonanzfrequenz des Filters auf dieses Maximum zu legen. Um eine bestimmte Frequenz zu erreichen muß also erst der Dipol ohne Filter so gewählt werden, daß dessen Emissionsmaximum bereits bei der gewünschten Frequenz liegt, um dann die Emission mit Hilfe eines Filters zu verstärken. Ebenfalls muß in der Zukunft um die Anwendbarkeit zu erhöhen, die bolometrische Detektion durch photokonduktive oder elektrooptische Detektion ersetzt werden.
Chapter 1 contains the general background of our work. We briefly discuss important aspects of quantum chromodynamics (QCD) and introduce the concept of the chiral condensate as an order parameter for the chiral phase transition. Our focus is on the concept of universality and the arguments why the O(4) model should fall into the same universality class as the effective Lagrangian for the order parameter of (massless) two-flavor QCD. Chapter 2 pedagogically explains the CJT formalism and is concerned with the WKB method. In chapter 3 the CJT formalism is then applied to a simple Z2 symmetric toy model featuring a one-minimum classical potential. As for all other models we are concerned with in this thesis, we study the behavior at nonzero temperature. This is done in 1+3 dimensions as well as in 1+0 dimensions. In the latter case we are able to compare the effective potential at its global minimum (which is minus the pressure) with our result from the WKB approximation. In chapter 4 this program is also carried out for the toy model with a double-well classical potential, which allows for spontaneous symmetry breaking and tunneling. Our major interest however is in the O(2) model with the fields treated as polar coordinates. This model can be regarded as the first step towards the O(4) model in four-dimensional polar coordinates. Although in principle independent, all subjects discussed in this thesis are directly related to questions arising from the investigation of this particular model. In chapter 5 we start from the generating functional in cartesian coordinates and carry out the transition to polar coordinates. Then we are concerned with the question under which circumstances it is allowed to use the same Feynman rules in polar coordinates as in cartesian coordinates. This question turns out to be non-trivial. On the basis of the common Feynman rules we apply the CJT formalism in chapter 6 to the polar O(2) model. The case of 1+0 dimensions was intended to be a toy model on the basis of which one could more easily explore the transition to polar coordinates. However, it turns out that we are faced with an additional complication in this case, the infrared divergence of thermal integrals. This problem requires special attention and motivates the explicit study of a massless field under topological constraints in chapter 8. In chapter 7 we investigate the cartesian O(2) model in 1+0 dimensions. We compare the effective potential at its global minimum calculated in the CJT formalism and via the WKB approximation. Appendix B reviews the derivation of standard thermal integrals in 1+0 and 1+3 dimensions and constitutes the basis for our CJT calculations and the discussion of infrared divergences. In chapter 9 we discuss the so-called path integral collapse and propose a solution of this problem. In chapter 10 we present our conclusions and an outlook. Since we were interested in organizing our work as pedagogical as possible within the narrow scope of a diploma thesis, we decided to make extensive use of appendices. Appendices A-H are intended for students who are not familiar with several important concepts we are concerned with. We will refer to them explicitly to establish the connection between our work and the general context in which it is settled.
Of central importance in the whole thesis is the concept of the generating functional and the partition function, respectively. In appendix A.1 we present the general context in which the partition function appears and its general definition within the operator formalism of second quantization. Alternatively, this definition can be rewritten via the path integral formalism. We restrict ourselves to scalar fields in this case. Furthermore, the understanding of the CJT formalism is based on knowledge about n-point functions (connected or disconnected, in the presence or in the absence of sources) and the context in which they arise. In appendix A.2 we give their definition taking account of the different modifications in which these quantities occur in this thesis, i.e., scalar field theory at zero or at nonzero temperature, respectively. From a didactic point of view, we believe that it is helpful if one can establish a relation between special cases and a general framework. Therefore, in appendix A.3 we want to keep an eye on the overall picture. We discuss the general concept of the generating functional for correlation functions, which also covers the partition function. We also briefly comment on the general concept of Feynman rules and we clarify the meaning of the terms Green’s function and propagator.
In der heutigen Zeit werden viele Anwendungen als Webanwendungen entwickelt, weil man sie schneller auf den Markt werfen kann. Neue Methoden wurden entwickelt um den Softwareentwicklungsprozess zu verschlanken, um damit noch schneller und öfter eine Produkt auf den Markt zu bringen. Diese Methoden erschweren die Arbeit von manuellen Tester ungemein. Sie müssen jetzt noch schneller und noch öfter testen.
Um dieser Miesere entgegenzuwirken wurden Testautomatisierungsmechanismen und Testautomatisierungswerkzeuge entwickelt. In dieser Arbeit wollte ich zeigen, dass Testautomatisierung in bestehenden Projekten nachträglich noch eingefügt werden kann. Und das diese für eine verbesserte Qualität des Produktes sorgen kann.
Ich habe in dieser Arbeit den Testfallkatalog für das Produkt „Email4Tablet“ der Firma Deutsche Telekom AG zu 70% mit dem Testwerkzeug Selenium automatisiert.
Struktur-Funktionsbeziehungen des Verpackungschaperons Gsf2 in der Hefe Saccharomyces cerevisiae
(2007)
Im Rahmen der vorliegenden Arbeit wurde die Funktion des in der Membran des Endoplasmatischen Retikulum lokalisierten Proteins Gsf2 der Hefe Saccharomyces cerevisiae näher charakterisiert. Gsf2 ist ein 46 kDa großes ER-Transmembranprotein mit zwei membrandurchspannenden Domänen, wobei C- und N-Terminus cytosolisch orientiert sind. Zudem besitzt Gsf2 C-terminal ein klassisches Dilysin-Motiv. Eine Deletion des GSF2-Gens resultiert in einer Retention der Hexosetransporter Hxt1, Hxt3 und Gal2 im ER, so dass es sich bei Gsf2 möglicherweise um ein Hexosetransporterspezifisches Verpackungschaperon handelt.
Um Sequenzbereiche zu determinieren, die für die Funktion des Verpackungschaperons bezüglich der Reifung und des ER-Transportes von Hxt1 notwendig sind, wurden verkürzte Versionen des Gsf2-Proteins hergestellt. Die funktionelle Analyse zahlreicher verkürzter Versionen ergab die Lokalisation eines essentiellen Sequenzbereiches in den hinteren 40 Aminosäuren der carboxyterminalen Domäne des Gsf2-Proteins.
Vorläufige genetische und biochemische Untersuchungen hatten ergeben, dass Gsf2 mit Komponenten der Ribosomen, des Sec61-Translokationsapparates und mit Proteinen der COPII-Vesikel interagiert.
Mit Hilfe des Split-Ubiquitin Systems konnte in der vorliegenden Arbeit eine direkte Interaktion zwischen Gsf2 und dem Sec61-Translokations-Komplex und den Komponenten des sekretorischen Weges Sec12 und Sar1 bestimmt werden. Sec12 ist ein Sar1-spezifischer Guanin-Nucleotid-Austausch-Faktor, der für die Aktivierung von Sar1 benötigt wird. Sar1 ist ein kleines G-Protein, welches für die Initiation der COPII-Vesikelbildung benötigt wird. Sar1 ist aber auch für die Erkennung di-basische ER-Exportsignale spezifischer Cargo-Proteine zuständig. Diese Interaktion weist daraufhin, dass Gsf2 über solch ein Motiv verfügt und somit die Verpackung von Hxt1 in COPII-Vesikel gewährleisten könnte.
Postuliert wird ein Modell, wonach Gsf2 bereits eine wichtige Funktion bei der Translokation des Hexosetransporter Hxt1 in die ER-Membran übernimmt. Dabei interagiert Gsf2 mit dem Sec61-Translokon, um den Reifungsprozess der naszierenden Polypeptidkette des Metabolittransporters zu ermöglichen. Anschließend rekrutiert Gsf2 das gefaltete Proteine an Exit-Sites des Endoplasmatischen Retikulums. Es interagiert dort mit Sec12 und Sar1, so dass Gsf2 zusammen mit dem Hexosetransporter in die COPII-Vesikel verpackt und zum Golgi-Apparat transportiert wird. Aufgrund des ERRetentionssignals wird Gsf2 über COPI-Vesikel recycelt.
Dieses Modell impliziert, dass Hxt1 über kein ER-Exportsignal verfügt und daher Gsf2 als guide eine ausschlaggebende Funktion bei dessen Translokation übernimmt.
In dieser Arbeit wurde das Verhalten von repulsiv gebundenen Teilchenpaaren (Dimeren) in eindimensionalen optischen Gittern untersucht. Repulsiv gebundene Teilchenpaare sind metastabile Zustände, die nicht im freien Raum, dafür aber in geordneten Potentialen, wie optische Gitter sie darstellen, vorkommen können. In einem analytischen Teil beschäftigten wir uns mit der Herleitung effektiver Hamiltonians für Dimersysteme. Diese wurden dann unter Verwendung des Time Evolving Block Decimation-Algorithmus (TEBD) numerisch untersucht...
Raytracing und Szenegraphen
(2006)
Raytracing ist ein bekanntes Verfahren zur Erzeugung fotorealistischer Bilder. Globale Beleuchtungseffekte einer 3D-Szene werden durch das Raytracing-Verfahren physikalisch korrekt dargestellt. Erst aktuelle Forschungsarbeiten erm¨oglichen es, das sehr rechenintensive Verfahren bei interaktiven Bildraten in Echtzeit zu berechnen.
Komplexe 3D-Szenen, wie sie beispielsweise in 3D-Spielen oder Simulationen vorkommen, können durch einen Szenengraphen modelliert und animiert werden. Damit die Rendering-Ergebnisse eines Szenengraphen n¨aher an einem realen Bild liegen, ist es erforderlich das Raytracing-Verfahren in einen Szenengraphen einzugliedern.
In dieser Arbeit werden die Möglichkeiten zur Integration eines Echtzeit-Raytracers in eine Szenengraph-API untersucht. Ziel dieser Diplomarbeit ist die Darstellung dynamischer Szenen bei interaktiven Bildraten unter Verwendung des Raytracing-Verfahrens auf einem herk¨ommlichen PC. Zun¨achst m¨ussen bestehende Open Source Szenengraph-APIs und aktuelle Echtzeit-Raytracer auf ihre Eignung zur Integration hin überprüft werden.
Bei der Verarbeitung dynamischer Szenen spielt die verwendete Beschleunigungsdatenstruktur des Raytracers eine entscheidende Rolle. Da eine komplette Neuerstellung der Datenstruktur in jedem Bild zuviel Zeit in Anspruch nimmt, ist eine schnelle und kostengünstige Aktualisierung erforderlich. Die in [LAM01] vorgestellte Lösung, eine Hüllkörperhierarchie (BVH) als Beschleunigungsdatenstruktur zu verwenden, fügt sich sehr gut in das Konzept eines Szenengraphen ein. Dadurch wird eine einfache Aktualisierung ermöglicht.
Um das Ziel dieser Arbeit zu erreichen, ist es notwendig, die Parallelisierbarkeit des Raytracing-Verfahrens auszunutzen. Purcell zeigt in [Pur04], dass Grafikprozessoren (GPUs) neben ihrer eigentlichen Aufgabe auch für allgemeine, parallele Berechnungen wie das Raytracing verwendet werden können.
Die in bisherigen Arbeiten über GPU-basiertes Raytracing entwickelten Systeme können dynamische Szenen nicht bei interaktiven Bildraten darstellen. Aus diesem Grund wird in dieser Diplomarbeit ein neues System konzipiert und implementiert, das den in [TS05] entwickelten Raytracer erweitert und in die Open Source Szenengraph-API OGRE 3D integriert.
Das implementierte System ermöglicht die Darstellung statischer und dynamischer Szenen unter Verwendung einer Consumer-Grafikkarte bei interaktiven Bildraten. Durch seine Erweiterbarkeit bildet das System das Grundger¨ust für ein Realtime-High-Quality-Rendering-System.
In der vorliegenden Diplomarbeit wurden verschiedene THz-Emissions- und Detektionsverfahren im Hinblick auf ihre Eignung für das verwendete regenerativ verstärkte Lasersystem verglichen. Als der Emitter mit der höchsten Konversionseffizienz und dementsprechend den höchsten THz-Pulsenergien erwies sich der großfkächige, extern vorgespannte GaAs-Emitter. Bezüglich des für viele Anwendungen wichtigeren Signal-Rausch-Verhältnisses hingegen zeigt sich für Frequenzen oberhalb von etwa 200 GHz der EO-ZnTe-Emitter als überlegen. Weder der intrinsische Emitter, noch das vorgespannte Plasma ließen eine vergleichbare Eignung erkennen. Für die THz-Detektion ist das Ergebnis eindeutig: Die EO-Detektion ist für das verwendete Lasersystem der Detektion mit Halbleiter-Antennen sowohl hinsichtlich Signal-zu-Rauschverhältnis als auch Bandbreite überlegen. Zur Steigerung der emittierten Bandbreite und der detektierten Feldstärke der Emissionsverfahren bestehen verschiedene Ansätze: ...
Production of neutral strange hadrons with high transverse momentum in Pb+Pb collisions at 158 A GeV
(2006)
The motivation for studying ultrarelativistic heavy ion collisions is to search for signatures of a transition from hadronic matter to a partonic phase, the Quark-Gluon plasma. The bulk of the particles produced in these collisions possesses transverse momenta of pT < 2 GeV/c and evidence for the production of a Quark-Gluon plasma at SPS energies has been found in the properties of particles from this pT range. The rare particles seen in the higher pT domain can complete the picture of the produced matter. Examples for such high pT signatures include the properties of the baryon/meson ratios and the elliptic flow in the region 2 < pT < 4 GeV/c observed at RHIC. They can be explained by quark coalescence models. This phase space range can also be accessed for analysis at the highest SPS beam energy of 158 A GeV. A study of the pT dependence of baryon/meson ratios here can help to answer the question which hadron production mechanisms are relevant in this energy range. In the NA49 large acceptance hadron spectrometer, K0S and Lambda are identified via the V 0 topology of their decay into charged hadrons and the determination of their invariant mass. The reach in pT of this method is only limited by the statistics of the available data. An important part of the analysis presented in this thesis is to select potential V 0 candidates by adequate cuts. Optimisation for the high pT domain requires careful cuts in order to retain the signal there. A challenge implicated by this approach is the large combinatorial background left over by the loose cuts. A reliable signal extraction method was found that can deal with this possible difficulty and provide raw spectra.The fraction of particles that cannot be detected because of the geometrical acceptance of the detector and analysis inefficiencies was determined in simulations. Correction factors are extracted from this simulation for each phase space bin and applied to the raw spectra. The spectra corrected in this way reach pT = 3.6 GeV/c (for K0 S) and pT = 3.8 GeV/c (Lambda), respectively. The whole analysis method has been checked to be self-consistent and was compared to existing data on kaon and ... production, that is only available in the lower pT range. While the Lambda spectra agree with an earlier analysis [44], a disagreement remains between the results for K0 S presented here and charged kaon data published in [42]. The Lambda/K0 S ratio calculated from the corrected spectra qualitatively agrees with the results for the higher collision energy at RHIC [8]. A saturation of the ratio for pT >= 2 GeV/c clearly indicates that the hydrodynamical picture is not valid in the higher range any more. Unfortunately, no calculations from coalescence models are available for the SPS energy range so far.
Point-Based Animation
(2011)
Die punktbasierte Animation ist ein relativ neues Gebiet im Bereich der Animation. Der Unterschied zu den weit verbreiteten polygonnetzbasierten Verfahren liegt darin, dass zwischen den einzelnen Punkten, welche die Oberfläche des zu animierenden Objekts definieren, keine Topologieinformationen vorhanden sind. Mit polygonnetzbasierten Techniken ist keine Volumensimulation möglich, da keine Volumeninformationen vorhanden sind. Die aktuellen Verfahren im punktbasierten Feld ermöglichen die Animation von Flüssigkeiten, Rauch oder Explosionseffekten. In dieser Arbeit wird eine Animation auf Grundlage eines zur Verfügung gestellten Punktmodells ausgeführt. Um zu gewährleisten, dass die Animation korrekt nach den Gesetzen der Physik arbeitet, wird eine Physikengine zu Hilfe genommen. Diese beiden Bereiche werden in dieser Arbeit miteinander verknüpft. Zunächst werden einfache Simulationen im Sektor der starren Körperdynamik durchgeführt. Dabei werden einzelne Punkte unter Einfluss der Gravitation auf eine Ebene fallen gelassen. Vor allem die Berechnung der Kollision mit der Ebene und der Punkte untereinander ist hierbei interessant. Um sehenswerte physikalische Effekte animieren zu können, muss die Elastizität mit berücksichtigt werden. DesWeiteren wird in der Arbeit die Animation elastischer Körper verwirklicht. Hierbei wird eine an den Ecken fixierte elastische Ebene animiert. Einzelne Punkte können aus diesem elastischen Objekt herausgezogen werden, in Folge dessen sich das Objekt selbst repariert. Ebenfalls kann ein herausgeschnittner Punkt wieder in das Objekt eingefügt werden.
Optische Untersuchungen des Entladungsverhaltens einer dielektrischen Barriere Entladung in Argon
(2011)
Im Rahmen dieser Arbeit wurde eine "Dielektrische Barriere Entladung" (DBE) mit planparalleler Elektrodengeometrie aufgebaut und mittels optischer Diagnostik untersucht und analysiert. Die mit der Dielektrischen Barriere Entladung erzeugte Strahlung soll für die Wassersterilisation durch UV-Entkeimung genutzt werden.
Als Arbeitsgas wurde Argon verwendet. Argon Excimere emittieren VUV-Strahlung mit einer Wellenlänge von 126nm. Die Ansteuerung der DBE erfolgte mit einer Sinusspannung. Die Amplitude der Sinusspannung wurde von 1600V/SS-5000V/SS bei einer Frequenz von 5kHz-20kHz und einem Druck von 100mbar-1000mbar variiert.
Bei der Entwicklung einer Lampe zur Wassersterilisation ist die Kenntnis der Effizienz notwendig. In dieser Arbeit wurde daher untersucht, welchen Einfluss Druck, Spannung und Frequenz auf die VUV-Konversionseffizienz (Verhältnis der eingekoppelten Leistung zur Lichtleistung bei 126nm) haben. Bei einem Druck von 600mbar und einer Effektivspannung von ca. 1050V konnte bei 6kHz eine
maximale VUV-Konversionseffizienz von ca. 6% erzielt werden. Die Lichtleistung bei einer Wellenl¨ange von 126nm betrug dabei 11, 5mW.
Die Bildung von Excimeren setzt das Vorhandensein von Argonatomen im metastabilen Zustand voraus. Zum einen entstehen diese metastabilen Anregungszustände durch direkte Anregung bei Stoßprozessen, zum anderen können sie durch Abregung eines höheren Anregungszustandes unter Aussendung von Strahlung entstehen. Die Wellenlängen, der bei einem solchen Übergang emittierten Strahlung (Erzeugerlinien) befinden sich im sichtbaren Bereich. Zur Analyse des sichtbaren Spektrums wurde ein Spektrometer verwendet. Es konnte ein direkter Zusammenhang zwischen den Erzeugerlinien und der Entstehung von Excimerstrahlung nachgewiesen werden. Eine Messung dieser Erzeugerlinien kann daher als erster Indikator für die Erzeugung von VUV-Excimerstrahlung dienen. Bei dielektrischen Barriere Entladungen muss zwischen drei Entladungsformen unterschieden werden. Man unterscheidet homogene, filamentierte und quasihomogene Entladungen. Zur genaueren Untersuchung der Dynamik der DBE und der Entstehung dieser unterschiedlichen Entladungsformen wurden Aufnahmen mittels Kurzzeitkamera angefertigt und in Bezug auf die Parameter Druck, Spannung und Frequenz untersucht. In Zusammenarbeit mit [Hoc11] wurden Entladungsphasendiagramme erstellt, welche unter Kenntnis von Druck, Spannung und Frequenz eine Zuordnung der Entladungsform bei den jeweiligen Parametern ermöglichen. Es wurde gezeigt, dass die maximale VUV-Konversionseffizienz im Bereich homogener Entladungen erreicht wird und das homogene Entladungen bei Variation der Parameter nur einen kleinen Bereich im Vergleich zu den anderen Entladungsformen einnehmen.