Universitätspublikationen
Refine
Year of publication
Document Type
- Diploma Thesis (56) (remove)
Has Fulltext
- yes (56) (remove)
Is part of the Bibliography
- no (56)
Keywords
Institute
- Physik (22)
- Informatik (19)
- Biowissenschaften (4)
- Geowissenschaften (3)
- Gesellschaftswissenschaften (3)
- Mathematik (2)
- Wirtschaftswissenschaften (2)
- Informatik und Mathematik (1)
Ultrarelativistische Schwerionenkollisionen bieten die Möglichkeit stark wechselwirkende Materie unter hohe Energiedichten zu versetzen und auf diese Weise ihre Eigenschaften zu untersuchen. Werden in den Reaktionen ausreichend große Temperaturen und Baryondichten erreicht, so erwartet man einen Phasenübergang von der hadronischen zu der partonischen Phase, dem Quark Gluon-Plasma. Das QGP ist ein Materiezustand, in dem die Quarks nicht mehr wie in der gewöhnlichen Materie in Hadronen gebunden sind, sondern als quasi-freie Teilchen neben den Gluonen vorliegen. Eines der Hauptziele der Schwerionenphysik besteht darin, solch ein theoretisch vorhergesagtes QGP experimentell zu erzeugen und den damit verbundenen Phasenübergang zu untersuchen. Die Produktion von seltsamen Teilchen stellt dabei eine grundlegende Observable dar, durch die Rückschlüsse auf den Reaktionsverlauf einer Schwerionenkollision gezogen werden können. In dieser Arbeit wurde die Produktion der neutralen Kaonen in Pb+Pb Reaktionen bei verschiedenen Energien untersucht. Die neutralen Kaonen können über die schwach zerfallenden K0S gemessen werden und stellen gemeinsam mit den geladenen Kaonen die in einer Schwerionenkollision am häufgsten erzeugten seltsamen Teilchen dar. Die Messungen der Pb+Pb Reaktionen wurden mit Hilfe des NA49 Experiments am Europäischen Zentrum für Teilchenphysik, dem CERN, durchgeführt. Bei diesem Experiment handelt es sich um ein magnetisches Spektrometer, das sich durch seine große Akzeptanz für geladene Hadronen auszeichnet und den Anforderungen hoher Teilchenmultiplizitäten, die insbesondere in zentralen Pb+Pb Reaktionen bei der maximalen SPS-Strahlenergie von 158A GeV auftreten, genügt. Im Rahmen des NA49 Energie-Scan Programmes wurden Schwerionenkollisionen neben einer Strahlenergie von 158A GeV auch bei 20A, 30A, 40A und 80A GeV gemessen. Die Vielzahl an experimentellen Daten ermöglicht ein detailliertes Studium der Energieabhängigkeit der hadronischen Endzustandsverteilung hochrelativistischer Schwerionenkollisionen. Die in der vorliegenden Arbeit untersuchten neutralen Teilchen K0S können anhand ihrer charakteristischen V0-Zerfallstopologie, welche sich bei ihrem schwachen Zerfall in ein Pi+Pi- - Paar ergibt, identifiziert werden. Durch die gemessenen Zerfallsprodukte wurde in der Analyse die invariante Masse der V0-Teilchen in differentiellen Phasenraum-Bins rekonstruiert. Mittels geeigneter QualitÄatskriterien konnte dabei der Untergrund aus zufälligen Kombinationen von primären Spuren, falschen Kombinationen mit sekundären Spuren, sowie Lambda s und Antilambda s von der K0S-Analyse weitgehend unterdrückt werden. Um auf die dadurch verursachten Verluste wahrer K0S, genauso wie auf jene Verluste, die aufgrund der geometrischen Akzeptanz des Detektors und weiterer Ineffizienzen auftreten, korrigieren zu können, wurde das Embedding herangezogen. Mit Hilfe dieses Verfahrens konnten die Korrekturfaktoren für die verschiedenen Phasenraumbereiche ermittelt und auf die jeweiligen Rohsignale angewendet werden. Der systematische Fehler der korrigierten Teilchenspektren konnte durch eine Vielzahl systematischer Studien abgeschätzt werden. Dabei wurde ein grundlegender Fehler aufgedeckt, dessen Ursprung in der GSI Methode liegt. Da die GSI Methode bereits in der Datenrekonstruktion, auf der diese Analyse beruht, Verwendung findet und in Folge dessen eine Behebung dieses Fehlers im Rahmen dieser Diplomarbeit nicht möglich war, wurde für die Ermittlung der Endergebnisse stattdessen die Birmingham Methode verwendet. Es wurden die korrigierten transversalen Massenspektren sowie die Transversalimpuls-Spektren der K0S bei Midrapidity für die drei untersuchten Strahlenergien von 30A, 40A, und 158A GeV präsentiert. Des Weiteren wurden die Rapiditätsspektren für die verschiedenen Energien gezeigt, aus denen wiederum die entsprechende totale Multiplizität <K0S> ermittelt werden konnte. Deren Energieabhängigkeit sowie die des inversen Steigungsparameters T wurden diskutiert und mit den Ergebnissen der geladenen Kaonen verglichen. Die gemessenen K0S-Rapiditätsspektren und totalen Multiplizitäten lagen zwar bei allen untersuchten Energien systematisch niedriger als die entsprechend gemittelten der geladenen Kaonen, haben jedoch, genauso wie der inverse Steigungs- parameter T, eine qualitativ ähnliche Energieabhängigkeit aufgezeigt. Weiterhin wurde das K0 S-Rapiditätsspektrum für 158A GeV mit denen anderer K0S-Analysen verglichen. Dabei konnte eine ähnliche Abweichung wie im Vergleich zu den geladenen Kaonen festgestellt werden. Abschließend wurde noch die Energieabhängigkeit des Verhältnisses von Kaonen zu Pionen in dem Energiebereich von AGS bis hin zu RHIC untersucht. Dabei konnte eine ausgeprägte Struktur in der Energieabhängigkeit des <Ki>/Pi-Verhältnisses beobachtet werden, welche als ein Indiz für einen Phasenübergang zu einem Quark Gluon-Plasma angesehen werden kann.
Eine 1-1-Korrespondenz zwischen einer Klasse von Leftist-Bäumen und erweiterten t-nären Bäumen
(2006)
Leftist-Bäume sind eine Teilmenge der geordneten Bäume mit der Eigenschaft, daß der [kürzeste] Weg von jedem inneren Knoten zu einem Blatt des Teilbaums mit diesem Knoten als Wurzel immer über den am weitesten links stehenden Sohn dieses Knotens verläuft.
In der vorliegenden Arbeit wird eine 1-1-Korrespondenz zwischen erweiterten t-nären Bäumen und der Klasse der Leftist-Bäumen mit erlaubten Knotengraden 0, t, 2t-1, ... 1+t(t-1) präsentiert. Diese 1-1-Korrespondenz verallgemeinert ein Ergebnis von R. Kemp.
In dieser Diplomarbeit wird ein Echtzeit-Verfahren vorgestellt, um einen wassergefüllten Ballon zu simulieren. Grundlage des Verfahrens ist ein Feder-Masse-Dämpfer–System, das zusammen mit Methoden zur Erhaltung des Innenvolumens sowie einer topologieerhaltenden Datenstruktur kombiniert wurde. Die Masse des Wassers wird dabei auf Massepartikel an der Oberfläche des Gummiballons aufgeteilt, an denen die Wirkung der physikalischen Kräfte Gravitation, Innendruck und elastische Zugkraft der Oberfläche ausgewertet wird. Dies erfolgt durch iterative Anwendung eines Simulationsschrittes, bei dem die auf die Massepartikel wirkenden Beschleunigungen ermittelt und in eine Bewegung übertragen wird. Bei der Umsetzung in C++ wurde das Verfahren mit Hilfe des Echtzeit-3D-Szenengraphen OGRE (Object-oriented Graphics Rendering Engine) implementiert.
Mögliche Einsatzgebiete sind interaktive Simulationsumgebungen oder andere Echtzeit-Anwendungen in den Bereichen Multimedia und Unterhaltung sowie Nicht-Echtzeit-Verfahren zur Bildgenerierung und physikalischen Simulation.
In dem in dieser Arbeit vorgestellten Experiment wurde die Reaktion zwischen molekularem Wasserstoff und hochgeladenen langsamen Ar8+-Ionen untersucht. Ein Augenmerk wurde hierbei auf den Zweifachelektroneneinfang gelegt.
Anhand zwei durchgeführten Messungen mit unterschiedlichen Projektilgeschwindigkeiten 0,2 und 0,36 a.u. und unter zur Hilfenahme des so genannten „over-barrier-Modells“ sollte die Dynamik des H2-Moleküls während des Elektroneneinfangprozesses untersucht werden. Aus den daraus resultierten Ergebnissen sollte die Frage, ob der Einfangsprozess simultan oder sequentiell stattgefunden hat beantwortet werden.
Durch einfache Berechnungen kann mit dem „over-barrier-Modell“ die Distanz, welche das Projektil zwischen dem ersten und dem zweiten Elektroneneinfang zurücklegt, in Abhängigkeit von dem Stoßparameter ermittelt werden. Dieser Wert ist der Hauptbestand aller weiteren Berechnungen.
Die Spektren der Impulsüberträge in Abhängigkeit von der Ausrichtung des Moleküls zu dem Projektilstrahl haben gezeigt, dass das Projektil meist über und unter der Molekülachse streut anstatt links oder rechts am Molekül vorbei zu fliegen.
Die Auftragung der kinetischen Energie der Fragmente gegen den Transversalimpuls des Projektils (Abbildung 5.6) hat ergeben, dass größere Impulsüberträge für den Fall der senkrechten Stellung des Moleküls zu der Strahlachse, zu leicht erhöhten Aufbruchsenegien führt, was durch die Berechnung der Energie zu erklären ist.
Aus der Verteilung der kinetischen Energie (KER), welche die durch Dissoziation entstandenen Wasserstoffionen nach dem Stoß besitzen, kann auf den Verlauf der Reaktion zurück geschlossen werden.
Ein Vergleich der KER-Spektren für unterschiedliche Stoßparameter (Abbildung 5.8 und 5.9) bei festen Geschwindigkeiten hat für die zwei Messungen widersprüchliche Ergebnisse gezeigt. Zu erwarten war eine Verkleinerung der Energiewerte bei ansteigendem Stoßparameter. Dies konnte jedoch nur für den Fall in welchem die Projektilgeschwindigkeit 0,36 a.u. betrug bestätigt werden. Die Abweichung bei der ersten Messung kann durch statistische Fehler kommen, da die Anzahl der Messwerte, die für diese Messungen als „richtige“ angenommen worden, durch das Setzen von verschiedenen Bedingungen stark reduziert wurde.
Letztendlich wurde anhand der Variation der Stoßparameter bei festen Projektilgeschwindigkeiten die Zeitskala während des Stoßes eingeschätzt. Es wurde die Annahme getroffen, dass der Zweifachelektroneneinfang als zweistufiger Prozess abgelaufen ist und die maximal mögliche Zeitspanne zwischen dem ersten und dem zweiten Elektroneneinfang berechnet. Der Vergleich der daraus resultierten Werte mit der Oszillationsdauer des Wasserstoffmoleküls hat die getroffene Annahme widerlegt. Beide Messungen sind laut „over-barrier-Modell“ als einstufiger, schneller Übergang einzuordnen.
Das Ziel dieser Diplomarbeit war die Untersuchung der Reaktion des Zweifachelektroneneinfangs mit einem Augenmerk auf den Unterschied zwischen dem simultanen und dem sequentiellen Verlauf. Die Ergebnisse haben einen zweistufigen Prozess mit hoher Wahrscheinlichkeit ausgeschlossen. Obwohl alle theoretischen Anforderungen für den Einsatz des „over-barrier-Modells“ erfüllt worden sind, hat sich herausgestellt, dass die gemessenen Werte nicht immer eindeutig interpretiert werden konnten. Das lässt darauf schließen, dass das Experiment noch verbessert werden kann, um mögliche Fehlerquellen zu reduzieren. Eine Möglichkeit zur Verbesserung wäre der Einbau eines Elektronendetektors, oder aber die Änderung des Projektilions. Auch längere Messzeiten wären statistisch gesehen von Vorteil. Für die Zukunft sind weitere Experimente mit veränderten Targetgasen und geänderten Projektilgeschwindigkeiten geplant.
In der Diskussion zwischen verschiedenen Spielarten der Diskursanalyse und den Gouvernementalitätsstudien haben Vertreter beider Seiten das Dispositiv als vermittelnden Begriff vorgeschlagen. In diesem Zusammenhang wird die Frage »Was ist ein Dispositiv?« neu gestellt. Durch eine Relektüre von Foucaults Texten wird ein Debattenbeitrag zum Dispositivkonzept entworfen, welcher der Verwässerung einerseits und andererseits einer methodischen Schließung durch Operationalisierung des Dispositivkonzepts entgehen soll. Als Destillat dieser Rekonstruktion werden sechs Kernelemente für eine dispositivanalytische Forschungsperspektive vorgeschlagen. Der anschließende Teil bringt Foucaults Analysen mit Bruno Latours Akteur-Netzwerk-Theorie (ANT) ins Gespräch, um potentielle Leerstellen in der Dispositivanalyse zu schließen. Diese betreffen vor allem die Bereiche »Natur«, »Technik« und »Medien«. Neben Latours Akteur-Netzwerk-Theorie wird im letzten Teil Karen Barads Agentieller Realismus für die Dispositivanalyse produktiv gemacht und in das Konzept eingearbeitet.
Neuronal activity in the brain is often investigated in the presence of stimuli, termed externally driven activity. This stimulus-response-perspective has long been focussed on in order to find out how the nervous system responds to different stimuli. The neuronal response consists of baseline activity, so called spontaneous activity1, and activity which is caused by the stimulus. The baseline activity is often considered as constant over time which allows the identification of the stimulus-evoked part of the neuronal response by averaging over a set of trials.
However, during the last years it has been recognized that own dynamics of the nervous system plays an important role in information processing. As a consequence, spontaneous activity is no longer regarded only as background ’noise’ and its role in cortical processing is reconsidered. Therefore, the study of spontaneous firing pattern gains more importance as these patterns may shape neuronal responses to a larger extent as previously thought. For example, recent findings suggest that prestimulus activity can predict a person’s visual perception performance on a single trial basis (Hanslmayr et al., 2007). In this context, Ringach (2009) remarks that one can learn much about even the quiescent state of the brain which “underlies the importance of understanding cortical responses as the fusion of ongoing activity and sensory input”.
Taking into account that spontaneous activity reflects anything else but noise, new challenges arise when analysing neuronal data. In this thesis one of these problems related to the analysis of neuronal activity will be adressed, namely the nonstationarity of firing rates.
The present work consists of four chapters. First of all the introduction gives neurophysiological background information to get an idea of neuronal information processing. Afterwords the theory of point processes is provided which forms the basis for modeling neuronal spiking data. In the last section of the introduction a statement of the problem is given. Chapter 2 proposes an easily applicable statistical method for the detection of nonstationarity. It is applied to simulations and to real data in order to show its capabilities. Thereafter, four other approaches are presented which provide useful illustrations concerning the nonstationarity of the firing rate but share the problem that one cannot make objective statements on the basis of their results. They were developed in the course of establishing a suitable method. In chapter 4 the results are discussed and suggestions for further study are given.
Die vorliegende Diplomarbeit beschäftigt sich mit dem Vergleich des ASTER GDEM und SRTM, zweier kostenlos verfügbarer, digitaler Geländehöhenmodelle mit nahezu globaler Abdeckung. Die Untersuchungsgebiete befinden sich im Kleinwalsertal (Österreich) und in Südhessen (Deutschland). Der Vergleich der Geländehöhendaten erfolgt durch die Ermittlung der Höhenabweichung zu Referenzhöhen, die aus hochauflösenden amtlichen Geländemodellen ermittelt wurden. Die Höhenabweichung wurde zudem für bestimmte geomorphologische Oberflächenformen und Landbedeckungen ermittelt. Des Weiteren werden die Geländehöhendaten auf ihre Eignung für geomorphometrische und hydrologische Analysen bewertet.
Die vorliegende Arbeit setzt sich mit dem Einfluss von Tetraquarkzuständen auf den chiralen Phasenübergang auseinander. Das Quarkmodell ist ein wirkungsvolles Instrument zum Verständnis des Verhaltens der Mesonen und Baryonen. Im Bereich von Energien unter 1:8 GeV gibt es in Bezug auf die Mesonen dennoch eine Vielzahl von Problemen. So ist bis dato nicht klar, wie sich die skalaren Resonanzen unter 1:8 GeV zusammensetzen. In der Vergangenheit wurde eine Vielzahl von Möglichkeiten diskutiert, wie beispielsweise die Existenz eines Glueballs, die von mesonischen Molekülen sowie die von Tetraquarkzuständen. Alle diese Ansätze sind mehr oder weniger in der Lage, die Phänomene bei T = 0 zu erklären. Die vorliegende Arbeit beschäftigt sich mit dem Ansatz, Tetraquarkzuständen leichte skalare Resonanzen zuzuordnen.
Im Bereich der nichtverschwindenden Temperaturen wurden durch Gitterrechnungen große Erfolge erzielt, die aaffetiven Modellen bei nichtverschwindender Temperatur als Referenz dienen. Gleichwohl fehlt ein affektives Modell bei T <> 0, das einen Tetraquarkzustand beinhaltet. Hier setzt diese Arbeit an und erweitert das Modell, das leichte skalare Resonanzen mittels Tetraquarkzuständen erklärt, zu nichtverschwindenden Temperaturen.
In dieser ersten Studie zum Thema wird das Lineare Sigma-Modell um den leichtesten Tetraquarkzustand ergänzt und sein Einfluss auf den chiralen Phasenübergang untersucht.
Es zeigt sich, dass dieser Ansatz nicht nur Fragen im Bereich der Vakuumphysik lösen kann, sondern auch solche hinsichtlich der Restaurierung der chiralen Symmetrie.
Mit der hier vorliegenden Arbeit ist das Entladungsverhalten einer Dielektrischen Barriere Entladung anhand der elektrischen Parameter untersucht worden. Dazu wurde ein planparallele Elektrodenkonfiguration entwickelt und aufgebaut, die mit einer Sinus-Spannungs von maximal 5000 Vss und einer Frequenz von 5 kHz-20 kHz angesteuert wurde. Als Arbeitsgas wurde Argon im Druckbereich von 100 mbar - 1000 mbar verwendet. Auf diese Weise konnte ein Plasma erzeugt werden, in das bei einer maximalen Transfereffiienz von 96%, eine mittlere Leistung von bis zu 845 mW eingekoppelt werden konnte.
Da die Dielektrische Barriere Entladung auf Grund der Abschirmung der Elektroden vom Gasraum einige Besonderheiten gegenüber eines klassischen kapazitiv eingekoppelten Plasmas aufweist, können keine Rückschlüsse mittels einer einfachen Strom-Spannungsmessung auf die Vorgänge im Plasma gemacht werden.
Um trotzdem Einblick in die Entladung zu erhalten, wurde das von [Tra08] vorgeschlagene Ladungstransportmodel für die Analyse herangezogen und an den hier vorliegenden experimentellen Aufbau angepasst. So konnte unter anderem der Ein
uss der auf den Dielektrika befindlichen Restladungsträger auf die Ausbildung der Entladung untersucht werden. Des Weiteren ist aus den gewonnen Größen die Elektronendichte des Plasmas bestimmt worden. Diese liegt bei der hier untersuchten dielektrischen Glimmentladung, je nach Gasdruck und Frequenz, im Bereich zwischen 5 X 10exp9 - 2 X 10exp10 1/cm3 . Auch konnten in diesem Zusammenhang qualitative Aussagen über die Entwicklung der Elektronentemperatur gemacht werden.
Zusammen mit Kurzzeitaufnahmen, die den Verlauf der Entladung dokumentieren und den in [Sch11] gemachten Untersuchungen zur Excimerstrahlung konnte so ein umfassendes Bild der Vorgänge im Plasma erstellt und Kriterien erarbeitet werden, die den für eine Dielektrische Barriere Entladung typischen Ubergang zwischen einer Glimmentladung zu einer filamentierten Entladung erklären können.
Lernplattformen sind E-Learning-Systeme, deren Kernfunktionalität die Verwaltung und Verteilung von Lernmaterialien über das World Wide Web ist. In dieser Arbeit wurde untersucht, wie durch Aufzeichnung (Tracking), Auswertung und Visualisierung von Lernaktivitäten in Lernplattformen eine Verbesserung der Lernqualität erreicht werden kann. Der Ansatzpunkt dafür war, Informationen zu Lernaktivitäten in geeigneter Weise Lehrenden und Lernenden zu präsentieren, so dass diese Rückschlüsse ziehen können, um Lernprozesse eigenständig zu optimieren. Viele Lernplattformen verfolgen bereits diesen Ansatz und verfügen deshalb über entsprechende Funktionalität.
Es mussten zwei wesentliche Fragen beantwortet werden:
1. Was müssen Lernende und Lehrende über erfolgte Lernaktivitäten wissen?
2. Wie werden Lernaktivitäten in geeigneter Weise präsentiert?
Diese Fragen wurden durch Betrachtung existierender Lernplattformen (State of the Art) sowie Befragung von Experten in Form von Interviews beantwortet. Zur Beantwortung der 2. Frage wurden außerdem allgemeine Grundlagen der Auswertung und Visualisierung von Daten verwendet sowie (zu einem geringen Teil) Auswertungs- und Visualisierungsverfahren von Systemen, die keine Lernplattformen sind. Besondere Aufmerksamkeit wurde auch dem
Datenschutz gewidmet.
Beruhend auf den gewonnenen Erkenntnissen wurde dann ein Konzept für ein Auswertungs-/Visualisierungssystem entwickelt das in verschiedenen Punkten eine Verbesserung des State of the Art darstellt.
Teile des Konzepts wurden schließlich für das webbasierte Softwaresystem LernBar, das über einen Großteil der Funktionalität einer Lernplattform verfügt, prototypisch implementiert. Durch die Implementierung soll es ermöglicht werden, das Konzept im praktischen Einsatz zu evaluieren, was im Rahmen dieser Arbeit nicht möglich war.
Die vorliegende Arbeit präsentiert den Aufbau und die Diagnostik eines Niederdruck-HF-Plasmas. Durchgeführt wurden die Messungen in einem Gasgemisch aus Ar/He (50%=50%). Sie dienten dazu, nähere Einblicke in die Plasmaparameter eines HF-Plasmas zu erhalten. Einen Schwerpunkt der vorliegenden Arbeit bildete dabei die Auswirkung unterschiedlicher Antennengeometrien auf die Entladungseigenschaften. Hierfür wurden die Plasmaparameter Elektronentemperatur Te, Elektronendichte ne und HF-Leistung in Abhängigkeit des Gasdruckes bei einer Vorwärtsleistung des HF-Generators von 1kW untersucht. Um eine sinnvolle Diagnostik zu gewährleisten, war es zunächst erforderlich eine induktive HF-Einspeisung zu konzipieren und eine Impedanzanpassung an dem vorhandenen 13,56MHz Generator vorzunehmen. Die Einspeisung der HF-Leistung geschieht über eine Spule, nach dem Transformatorprinzip. Der Aufbau bietet die Möglichkeit einer modularen Gestaltung der verwendeten Antennengeometrie. Hierdurch ist es möglich, sowohl die Länge, die Windungsbreite als auch die Windungsanzahl schnell zu ändern, um experimentell ein Optimum der Plasmaparameter bezüglich der Plasmaanregung zu erreichen.
Für die Bestimmung der Plasmaparameter wurde vorwiegend eine nicht invasive Diagnostiktechnik, die Emissionsspektroskopie, eingesetzt. Sie bietet den Vorteil, ein Plasma unberührt zu lassen und dessen Eigenschaften nicht zu verfälschen. Zusätzlich wurde mit einer Langmuirsonde die Elektronendichte gemessen. Die eingespeiste HF-Leistung wurde mit einem im HF-Generator befindlichen Reflektometer überwacht und dokumentiert. Durch systematisch durchgeführte Messungen konnte die Elektronentemperatur in Abhängigkeit des Gasdruckes für unterschiedliche Spulengeometrien mit Hilfe der Spektroskopie bestimmt werden. Es ergaben sich typische Elektronentemperaturen einer induktiven Entladung zwischen 1 eV und 5 eV. Die Ursache einer höheren Elektronentemperatur bei niedrigen Gasdrücken, unterhalb von 1 Pa, kann durch die stochastische Heizung sowie resonante Heizmechanismen erklärt werden.
Die mit der Langmuirsonde bestimmte Elektronendichte belief sich auf 4 x 10 exp 15 m exp -3 bei niedrigen Gasdrücken und einem Maximum von 4 x 10 exp 17 m exp -3 bei einem Gasdruck von 3 Pa. Elektronendichten dieser Größenordnung sind typisch für induktive Entladungsplasmen, die ein Maximum von 1019 m exp -3 [Lie05] erreichen können.
Die eingespeiste HF-Leistung zeigte dabei eine starke Abhängigkeit von der Antennengeometrie. Durch die Optimierung der Spulenkonfiguration ergab sich eine maximale eingespeisten HF-Leistung von 0,8kW.
Ein Vergleich von HF-Leistung und Elektronendichte bestätigte die theoretische Modellvorstellung, die einen linearen Zusammenhang zwischen diesen beiden Größen postuliert. Somit konnten wichtige Eigenschaften bezüglich einer HF-Entladung sowie Einflüsse der Antennengeometrie auf die Entladungseigenschaften untersucht und umfangreich diskutiert werden.
Trotz zunehmend positiver Meldungen vom deutschen Arbeitsmarkt, die von einer "Entspannung der Lage" bis hin zu einer "Trendwende" reichen, herrscht eine anhaltend hohe Arbeitslosigkeit unter den wettbewerbsschwachen Arbeitsuchenden. Ein genauer Blick auf die aktuellen Zahlen verrät, dass der Anteil der Langzeitarbeitslosen an der Gesamtarbeitslosenzahl 42 % beträgt. Wiederum besitzt die Hälfte der arbeitslos gemeldeten Arbeitslosengeld II-Empfänger keine abgeschlossene Berufsausbildung, knapp ein Viertel keinen Schulabschluss. ...
Im Rahmen der vorliegenden Diplomarbeit wurden die bei den Kalttests der supraleitenden 360 MHz CH-Prototypkavität gewonnenen Messergebnisse sowie das Prinzip der Hochfrequenzmessung an supraleitenden Resonatoren vorgestellt. Zudem wurde bei dem Aufbau eines eigens für diese Messungen optimierten horizontalen Kryostaten mitgearbeitet. Die wesentlichen Elemente des Kryostaten wurden dargestellt und das Kaltfahren des gesamten Kryosystems erläutert. Das am IAP erarbeitete Tuningkonzept, bei dem ein langsamer, kettenbetriebener Tuner für den Ausgleich statischer Frequenzänderungen und zusätzlich drei Piezotuner zur Kompensation schneller Frequenzschwankungen eingesetzt werden, konnte aufgrund der zu groÿen Schwankungen der Resonanzfrequenz, die durch die stetige Befüllung des Kryostaten mit Helium hervorgerufen wurde, nur bedingt getestet werden. Dennoch konnte gezeigt werden, dass der Piezotuner die Frequenz der Kavität für kurze Zeit konstant hält und der langsame, mechanische Tuner einen Frequenzhub von 400 kHz erreichen kann. Für weitere Kalttests der CH-Struktur im horizontalen Kryostaten werden zur Zeit sowohl das Regelsystem für die schnellen Piezotuner als auch die Motorsteuerung des mechanischen Tuners optimiert.
In einem weiteren Arbeitsschritt wurden mit Hilfe der Simulationssoftware ANSYS Rechnungen zur Geometrieoptimierung des neuen dynamischen Balguners für zukünftige supraleitende CH-Strukturen durchgeführt. Das Hauptaugenmerk der Optimierung lag hierbei auf der Reduktion der auftretenden Materialspannungen bei einem vorgesehenen Hub von ca. ± mm, der durch eine äuÿere Belastung hervorgerufen wird. Dabei wurden verschiedene geometrische Gröÿen variiert und die optimalen Parameter gefunden. Zudem wurde eine Modalanalyse durchgeführt, um zu verhindern, dass die mechanischen Eigenfrequenzen des Balgtuners in den Betriebsbereich des Piezotuners, der letztlich für den Antrieb der dynamischen Balgtuner vorgesehen ist, fallen. Die nach sämtlichen Simulationsschritten berechnete und final vorgesehene Tunergeometrie und deren Parameter, die bezüglich des auftretenden von-Mises-Stresses optimiert wurden, sind in Abbildung bzw. Tabelle 9.1 dargestellt.
Desweiteren wurden mit Hilfe des Simulationsprogramms CST MicroWave Studio Untersuchungen zu Multipacting durchgeführt. Aufgrund der problematischen Spannungswerte im oberen Gap des Tuners müssen in weiteren Arbeitsschritten zusätzliche Simulationsrechnungen durchgeführt werden, um die Gefahr von Multipacting zu verhindern. Um die strukturmechanischen Simulationsergebnisse und deren Genauigkeit zu validieren, wurde zu Testzwecken ein Balgtunerprototyp bestehend aus eineinhalb Zellen von der Firma RI in Bergisch Gladbach gefertigt. Messungen der maximalen Auslenkung zeigten zwischen simulierten und gemessenen Werten eine Diskrepanz von einem Faktor von ungefähr 3.
Für weitere Testzwecke soll ein weiterer Balgtunerprototyp bestehend aus 6 Zellen nach den simulierten Parametern angefertigt und später sowohl bei Raumtemperatur als auch unter kryogenen Bedingungen auf dessen Auslenkung getestet werden.
A study on the impact of mobile telecommunication on the welfare of sub saharan african countries
(2010)
Africa: A continent is waking up. Not through aid or wealth from the exploitation of natural resources, but through a technological revolution. The access to affordable mobile telecommunication. Inspired by deregulation and pioneered by local champions who have taken a lead in what is today's fastest growing mobile market in the world. There is money to be made in these markets, attracting more and more operators from the northern hemisphere.
However positive the short term impact of this revolution may be, governments should try hard to assure a market of continued competition among network operators, as this competition is the source of a self propelled creation of welfare and new opportunities, motivated from within Africa.
Chapter 1 of this thesis highlights the positive impact of mobile telecommunication on the social and economic life in Sub Saharan Africa. Chapter 2 builds on the static as well as the dynamic version of the Network Pricing Game, a model developed by Dr. Carolyn Gideon, to stress the immanent threat of network markets turning into a monopoly. This theses ends in Chapter 3 with an brief outlook on further drivers of economic growth and opportunities awaiting Sub Saharan Africa in the coming decade.
Klassische Bildmanipulation spielt sich meist im Zweidimensionalen, also in der reinen Bild-ebene ab. So werden beispielsweise Objekte aus Fotos entfernt, indem die dahinterliegende Struktur nachgezeichnet wird, oder es werden mehrere Teilbilder zu einem neuen, verfälschten Motiv zusammengesetzt. Bei der sogenannten Bildretuschierung werden unschöne Bereiche übermalt, um einen besseren Gesamteindruck zu erreichen. All diese Manipulationen haben im Grunde das gleiche Ziel: Das Erstellen einer möglichst realistischen Verfälschung der darge-stellten Szene indem die eigentlich dreidimensionalen Elemente in 2D imitiert werden.
Ziel dieser Arbeit ist es, von der reinen Zweidimensionalität eines Bildes Abstand zu nehmen und ein neues Verfahren zu entwickeln, Manipulationen im wirklichen 3D-Inhalt des Fotogra-fierten vorzunehmen. Dazu wird die klassische Bildmanipulation mit aktuellen Verfahren aus dem Bereich Multi View Stereo verknüpft. In einem ersten Schritt wird aus einer Fotoserie ein 3D-Modell mit passenden Texturen erstellt, welches anschließend nach Belieben manipuliert werden kann. Diese Veränderungen werden schließlich wieder in die Originalbilder übertragen, wodurch eine 3D-unterstützte Bildmanipulation realisiert wird.
Die praktische Umsetzung des vorgestellten Verfahrens basiert teilweise auf bereits vorhan-dener Software, die mit dem Ziel der Bildmanipulation neu kombiniert und durch eigene Um-setzungen ergänzt wird. So entsteht eine funktionierende Implementierung, die den kompletten Weg vom Original bis hin zum manipulierten Bild abdeckt.