Refine
Year of publication
Document Type
- Diploma Thesis (116) (remove)
Language
- German (116) (remove)
Has Fulltext
- yes (116)
Is part of the Bibliography
- no (116) (remove)
Keywords
- Agentieller Realismus (1)
- Akteur-Netzwerk-Theorie (1)
- Algebra (1)
- Algebraische Gleichung (1)
- Analyse von Algorithmen (1)
- Atom (1)
- BMRT (1)
- BRDF (1)
- BTF (1)
- Barad, Karen (1)
Institute
- Informatik (47)
- Physik (31)
- Biowissenschaften (10)
- Geowissenschaften (8)
- Mathematik (7)
- Gesellschaftswissenschaften (3)
- Biochemie und Chemie (2)
- Erziehungswissenschaften (2)
- Psychologie (2)
- Wirtschaftswissenschaften (2)
Manipulierte Bilder werden zu einem immer gröÿeren Problem in der aktuellen Berichterstattung und sie verursachen in vielen Fällen Empörung unter den Lesern.
In dieser Diplomarbeit werden verschiedene Ansätze aus der aktuellen Forschung aufgezeigt, die zur Erkennung von manipulierten digitalen Bildern benutzt werden können. Hierbei liegt der Schwerpunkt besonders auf verschiedenen statistischen Ansätzen von Farid, Johnson und Popescu. Ein Abriss über die wichtigsten inhaltsbasierten Algorithmen wird ebenfalls gegeben.
Weiterhin wird für die Algorithmen, die im Hinblick auf technische Realisierbarkeit, Laufzeit und ein breites Spektrum von möglichen Szenarien vielversprechend wirken, eine Automatisierung entwickelt, die die Analyse ohne weitere Benutzereingaben durchführt. Das Augenmerk liegt hier besonders darauf, dass die zu analysierenden Bilder möglichst wenige Vorraussetzungen erfüllen müssen, damit es eine Möglichkeit der korrekten Erkennung gibt.
Diese Automatisierungen werden implementiert, wenn möglich verbessert und auf einer Menge von Bildern getestet. Enthalten sind sowohl zufallsgenerierte Bilder, als auch aus geometrischen Formen synthetisierte und natürliche Bilder. Die Erkennung der auf die Bilder angewandten Fälschungstechniken beschäftigt sich vor allem mit Duplikationen, Einfügen und Interpolation von Bereichen.
Der Test dieser Implementierung konzentriert sich auf die absolute Effektivität und Effiienz gegen die gegebene Testmenge, betrachtet jedoch auch die spezifischen Vor- und Nachteile der ursprünglichen Algorithmen und der entwickelten Verbesserung. Ihre Ergebnisse, die sie auf den Testbildern erbringen, legen die Grundlage für eine Beurteilung der Algorithmen bezüglich Laufzeit und Effiienz.
Aufbauend auf diesen Analysen wird eine Bewertung der Algotihmen vorgenommen, die auch einen Ausblick auf mögliche Szenarien in der digitalen Bildbearbeitung und der Erkennung von Fälschungen für die nächsten Jahre geben soll.
Diese Arbeit behandelt das Thema der Darstellung und der Simulation von Pflanzen mit Lindenmayer-Systemen. Zur Darstellung der aus Lindenmayer- Systemen entwickelten Strukturen wird das Programm Linde 3D entwickelt, welches dem Benutzer das Erstellen und die Simulation von Objekten unter Verwendung von deterministischen, geschachtelten, stochastischen, kontextsensitiven, umgebungssensitiven und offenen Lindenmayer-Systemen ermöglicht.
Neben der Entwicklung des Programms Linde 3D liegt ein weiterer Schwerpunkt dieser Arbeit auf der Simulation der biologischen Prozesse Vernalisation und Stratifikation. Für die Simulation dieser Prozesse werden Lindenmayer- Systeme entwickelt, welche die Grundfunktionalität der Prozesse simulieren und in Abhängigkeit dieser dreidimensionale Modelle der Pflanze erzeugen.
Das Programm Linde 3D ist so konzipiert, dass es allgemein eingesetzt werden kann. Neben dem Verständnis für die abstrakten Modelle der Lindenmayer-Systeme werden keine speziellen Kenntnisse des Anwenders vorausgesetzt. Die Eingabe der L-Systeme erfolgt entweder über die Auswahl vordefinierter Lindenmayer-Systeme und Umweltdaten oder durch Komposition von Lindenmayer-Systemen und Umweltdaten durch den Anwender. Die graphische Interpretation der Lindenmayer-Systeme erfolgt unter Verwendung des Schildkröten-Modells. Die Ausgabe des Programms Linde 3D besteht zum einen aus einer direkten Darstellung der generierten Szene im Programm und zum anderen aus der Ausgabe der Szene in Form einer oder mehrerer Dateien für den POVRay Raytracer. Die erzeugten Dateien können durch externe Programme aufbereitet und zu einer Animation zusammengefügt werden.
Die vorliegende Arbeit beginnt mit einer kurzen Einführung in das Thema der Fraktale und Lindenmayer-Systeme, sowie den nötigen Grundlagen für das Verständnis der biologischen Hintergründe. Im Anschluss werden dem Leser die notwendigen theoretischen Grundkenntnisse zu Lindenmayer-Systemen und ein Einblick in aktuelle Anwendungen und Entwicklungen vermittelt. Nach einer Beschreibung der Anforderungen, des Aufbaus und der Implementierung des Programms Linde 3D werden die erworbenen Grundkenntnisse im Bereich der Lindenmayer-Systeme und das Programm Linde 3D eingesetzt, um Schritt für Schritt Lindenmayer-Systeme für die Simulation der biologischen Prozesse Vernalisation und Stratifikation zu entwickeln. Nach der Konstruktion der L-Systeme werden die erworbenen theoretischen Grundlagen für den Bereich des Testens von Parser und Schildkröten-Modell auf Funktionalität benötigt. Im Ausblick werden Ideen für Anwendungen und Erweiterungen des Programms Linde 3D beschrieben.
Konzeption und Implementierung einer Kommunikation zwischen Second Life und Web 2.0 Anwendungen
(2009)
Im Rahmen dieser Arbeit haben wir ein Konzept und einen Prototypen zur Kommunikation zwischen Second Life und Web 2.0 entwickelt.
Im Rahmen dieser Diplomarbeit wird ein Konzept und ein Prototyp zur Kommunikation zwischen Second Life und Web 2.0-Anwendungen entwickelt. In der Übung zur Veranstaltung "Einführung in das Projektmanagement" wurden Meetings in Second Life abgehalten. Dabei haben die Studierenden im Rahmen der Übung Protokolle erstellt, die sie im Internet veröffentlichten. Die Protokollierung musste immer manuell durchgeführt werden und war dadurch fehleranfällig und nicht ausfallsicher. Hier entstand der Wunsch, die Protokollierung zu automatisieren und somit den administrativen Aufwand zu reduzieren.
Im Kapitel 2 werden die Grundlagen behandelt, die für das Verständnis der Arbeit notwendig sind. Hierbei werden Second Life, sowie Blog und Wiki als Repräsentanten von Web 2.0 vorgestellt. Außerdem wird eine klare Abgrenzung zwischen diesen Technologien aufgezeigt.
Die Analyse dieser Diplomarbeit umfaÿt unter anderem die verschiedenen Möglichkeiten der Übertragung der Informationen zwischen Second Life und den Web 2.0-Anwendungen.
Im Konzept ist die Gesamtarchitektur zur Kommunikation zwischen Second Life und den Web 2.0 Anwendungen enthalten. Die Hauptsystemkomponenten, die dafür notwendig sind, stellen eine Ansammlung aus Second Life Skripten, dem HTTP Supervisor und den Wiki Bot Skripten dar. Die Second Life und die Wiki Bot Skripten sind eine Ansammlung von Unterprogrammen, die jeweils auf eine Aufgabe spezialisiert sind. Die genaue Erklärung wird im Kapitel 4 Aufgrund der Unterschiede der Web 2.0 Anwendungen wurde ein Bot eingesetzt, der eine Web 2.0 Anwendung bedient. Der HTTP Supervisor dient der Vermittlung dient der Vermittlung der Daten zwischen Second Life und der Web 2.0 Anwendung. Auÿerdem speichert er die Daten in temporäre Dateien. Der Second Life Teil des Programms dient der Steuerung des gesamten Systes.
Durch die prototypische Umsetzung ist die Durchführbarkeit bewiesen, die Daten aus Second Life herauszuführen und im MediaWiki zu speichern.
Lernplattformen sind E-Learning-Systeme, deren Kernfunktionalität die Verwaltung und Verteilung von Lernmaterialien über das World Wide Web ist. In dieser Arbeit wurde untersucht, wie durch Aufzeichnung (Tracking), Auswertung und Visualisierung von Lernaktivitäten in Lernplattformen eine Verbesserung der Lernqualität erreicht werden kann. Der Ansatzpunkt dafür war, Informationen zu Lernaktivitäten in geeigneter Weise Lehrenden und Lernenden zu präsentieren, so dass diese Rückschlüsse ziehen können, um Lernprozesse eigenständig zu optimieren. Viele Lernplattformen verfolgen bereits diesen Ansatz und verfügen deshalb über entsprechende Funktionalität.
Es mussten zwei wesentliche Fragen beantwortet werden:
1. Was müssen Lernende und Lehrende über erfolgte Lernaktivitäten wissen?
2. Wie werden Lernaktivitäten in geeigneter Weise präsentiert?
Diese Fragen wurden durch Betrachtung existierender Lernplattformen (State of the Art) sowie Befragung von Experten in Form von Interviews beantwortet. Zur Beantwortung der 2. Frage wurden außerdem allgemeine Grundlagen der Auswertung und Visualisierung von Daten verwendet sowie (zu einem geringen Teil) Auswertungs- und Visualisierungsverfahren von Systemen, die keine Lernplattformen sind. Besondere Aufmerksamkeit wurde auch dem
Datenschutz gewidmet.
Beruhend auf den gewonnenen Erkenntnissen wurde dann ein Konzept für ein Auswertungs-/Visualisierungssystem entwickelt das in verschiedenen Punkten eine Verbesserung des State of the Art darstellt.
Teile des Konzepts wurden schließlich für das webbasierte Softwaresystem LernBar, das über einen Großteil der Funktionalität einer Lernplattform verfügt, prototypisch implementiert. Durch die Implementierung soll es ermöglicht werden, das Konzept im praktischen Einsatz zu evaluieren, was im Rahmen dieser Arbeit nicht möglich war.
Diese Diplomarbeit hatte das Ziel ein Konzept zu erstellen, welches es ermöglicht, interessante und weniger interessante Artikel innerhalb eines Wikis zu erkennen und diese Informationen in verständlicher Form zur Recherche visuell bereitzustellen.
Dabei sollte das Konzept möglichst offen sein, so dass theoretisch jedes Wiki an die Visualisierung hätte angebunden werden können. Hier lag bereits das erste Problem, zum Zeitpunkt der Arbeit existieren bereits mehr als 100 unterschiedliche Wikis mit unterschiedlichen Architekturen. Wegen der Unterschiede der jeweiligen Wikisysteme entschloss man sich daher zwei Konzepte zu erarbeiten, ein allgemeines, welches wie in der gestellten Zielsetzung, das Einbinden jedes Wikis ermöglicht und ein Spezialfall, der die Vorteile einer API nutzt. Der Spezialfall wurde in ähnlicher Form in einer Implementierung umgesetzt.
Zu Beginn der Diplomarbeit mussten die unterschiedlichen Möglichkeiten der Extraktion von Informationen aus einem Wiki untersucht werden. Es hatte sich ziemlich früh herausgestellt das Links, Backlinks sowie Kategorien wichtige Indikatoren zur Bewertung eines Artikels darstellen. Damit die Bewertung der Informationen nicht nur alleine auf der Struktur eines Wikis beruht, wurde ein Thesaurus zur unterstützenden Bewertung miteinbezogen. Dieser lieferte durchgehend gute Ergebnisse, wobei - wie erwartet - der Thesaurus sehr schnell an seine Grenzen gekommen war, insbesondere wenn man die Anzahl der Artikel eines großen Wikis mit der Anzahl der Wörter die im Thesaurus gespeichert sind vergleicht.
Die extrahierten und gewichteten Informationen wurden im zweiten Schritt visualisiert, dabei hatte sich der Radial-Graph als eine gute Lösung zur Darstellung der Informationen herausgestellt. Neben einem Graphen mit gewichteten Knoten wurden in der Visualisierung unterschiedliche Ansichten der extrahierten Daten bereitgestellt: eine Autorenansicht, die zum gesuchten Artikel die Autoren darstellt, eine semantische Ansicht, die Wortbeziehungen veranschaulicht sowie eine Artikelansicht, die den Nutzer neben den gewichteten Artikeln auch wie gewohnt in einer Wiki lesen lässt.
Klassische Bildmanipulation spielt sich meist im Zweidimensionalen, also in der reinen Bild-ebene ab. So werden beispielsweise Objekte aus Fotos entfernt, indem die dahinterliegende Struktur nachgezeichnet wird, oder es werden mehrere Teilbilder zu einem neuen, verfälschten Motiv zusammengesetzt. Bei der sogenannten Bildretuschierung werden unschöne Bereiche übermalt, um einen besseren Gesamteindruck zu erreichen. All diese Manipulationen haben im Grunde das gleiche Ziel: Das Erstellen einer möglichst realistischen Verfälschung der darge-stellten Szene indem die eigentlich dreidimensionalen Elemente in 2D imitiert werden.
Ziel dieser Arbeit ist es, von der reinen Zweidimensionalität eines Bildes Abstand zu nehmen und ein neues Verfahren zu entwickeln, Manipulationen im wirklichen 3D-Inhalt des Fotogra-fierten vorzunehmen. Dazu wird die klassische Bildmanipulation mit aktuellen Verfahren aus dem Bereich Multi View Stereo verknüpft. In einem ersten Schritt wird aus einer Fotoserie ein 3D-Modell mit passenden Texturen erstellt, welches anschließend nach Belieben manipuliert werden kann. Diese Veränderungen werden schließlich wieder in die Originalbilder übertragen, wodurch eine 3D-unterstützte Bildmanipulation realisiert wird.
Die praktische Umsetzung des vorgestellten Verfahrens basiert teilweise auf bereits vorhan-dener Software, die mit dem Ziel der Bildmanipulation neu kombiniert und durch eigene Um-setzungen ergänzt wird. So entsteht eine funktionierende Implementierung, die den kompletten Weg vom Original bis hin zum manipulierten Bild abdeckt.
In erstem Teil der Arbeit wurde der Begriff Drehbuch in Hinsicht auf die Erstellung von eLearning Kursen erläutert und eLearning Inhalte auf ihre typischen Merkmale untersucht. Dabei war es wichtig zu verstehen, ob und wie die kooperative Arbeit an Inhalten in gängigen Textbearbeitungsprogrammen unterstützt wird und welche Vor- und Nachteile der jeweilige Editor aufweist. Wie sich herausgestellt hat, setzen bestehende Lösungen auf Auszeichnungen von Textbausteinen und der Kursstruktur mit Hilfe von speziellen Makros, so dass beim Transformieren des Kurses diese wiedererkannt werden können. Leider sind diese Lösungen auf einen bestimmten Editor spezialisiert und betrachten die kooperativen Aspekte der Arbeit an Inhalten nicht.
Da das Drehbuch in einem Textbearbeitungsprogramm erstellt wird, ist die Möglichkeit der Wahl von einem Editor für die Autoren vorteilhaft. Deshalb sieht der Lösungsansatz in meiner Arbeit vor, dass die Umsetzung des Drehbuches nicht auf einen bestimmten Editor beschränkt ist und dass für jeden Editor kooperative Bearbeitung ermöglicht wird. Dies wird zum einen durch Verwendung eines Versionskontrollesystems und zum anderen durch die kooperativen Eigenschaften der Editoren erreicht.
Das Transformieren eines Drehbuches zu einem eLearning Kurs wurde einheitlich gestaltet, da HTML als ein gemeinsames Format der Ausgabe von Editoren ausgewählt wurde. In der Implementierung des Lösungsansatzes konnte am Beispiel des Autorensprogramms LernBar die Unterstützung von bereits drei Editoren erreicht werden.
Einige Einschränkungen sind bei der Verwendung dieser Lösung zu beachten. Bei den Veränderungen in der HTML-Ausgabe der Editoren sind möglicherweise auch Anpassungen im Programm vorzunehmen. Die Verwendung von Tabellen impliziert, dass ihre Struktur durch den Autor nicht geändert wird, was durchaus auch versehentlich passieren kann. Bei der Erstellung von Tests ist eine umfassende Validierung empfehlenswert, damit die Tests wie erwartet durchgeführt werden können. Es wurden in der Implementierung nur einige Testtypen umgesetzt und möglicherweise sind einige Tests nicht für die Erfassung im Drehbuch geeignet. In dem Fall müssen sie in den verwendeten Autorenprogramm direkt erstellt werden.
Die rasante Entwicklung von Internettechnologien wird sicherlich neue Möglichkeiten sowohl für die kooperative Arbeit, als auch für Textbearbeitungsfunktionalitäten anbieten. Allein im Jahr 2010 wurden mehrere Neuerungen auf dem Markt von Online-Editoren eingeführt. Microsoft hat eine Online-Version1 von seiner Office-Suite veröffentlicht und damit eine neue Alternative zu Google Docs angeboten. In Google-Docs werden nahezu im monatlichen Takt neue nützliche Funktionen implementiert, die sowohl die Textverarbeitung als auch die Kooperation verbessern.
Point-Based Animation
(2011)
Die punktbasierte Animation ist ein relativ neues Gebiet im Bereich der Animation. Der Unterschied zu den weit verbreiteten polygonnetzbasierten Verfahren liegt darin, dass zwischen den einzelnen Punkten, welche die Oberfläche des zu animierenden Objekts definieren, keine Topologieinformationen vorhanden sind. Mit polygonnetzbasierten Techniken ist keine Volumensimulation möglich, da keine Volumeninformationen vorhanden sind. Die aktuellen Verfahren im punktbasierten Feld ermöglichen die Animation von Flüssigkeiten, Rauch oder Explosionseffekten. In dieser Arbeit wird eine Animation auf Grundlage eines zur Verfügung gestellten Punktmodells ausgeführt. Um zu gewährleisten, dass die Animation korrekt nach den Gesetzen der Physik arbeitet, wird eine Physikengine zu Hilfe genommen. Diese beiden Bereiche werden in dieser Arbeit miteinander verknüpft. Zunächst werden einfache Simulationen im Sektor der starren Körperdynamik durchgeführt. Dabei werden einzelne Punkte unter Einfluss der Gravitation auf eine Ebene fallen gelassen. Vor allem die Berechnung der Kollision mit der Ebene und der Punkte untereinander ist hierbei interessant. Um sehenswerte physikalische Effekte animieren zu können, muss die Elastizität mit berücksichtigt werden. DesWeiteren wird in der Arbeit die Animation elastischer Körper verwirklicht. Hierbei wird eine an den Ecken fixierte elastische Ebene animiert. Einzelne Punkte können aus diesem elastischen Objekt herausgezogen werden, in Folge dessen sich das Objekt selbst repariert. Ebenfalls kann ein herausgeschnittner Punkt wieder in das Objekt eingefügt werden.
In der heutigen Zeit werden viele Anwendungen als Webanwendungen entwickelt, weil man sie schneller auf den Markt werfen kann. Neue Methoden wurden entwickelt um den Softwareentwicklungsprozess zu verschlanken, um damit noch schneller und öfter eine Produkt auf den Markt zu bringen. Diese Methoden erschweren die Arbeit von manuellen Tester ungemein. Sie müssen jetzt noch schneller und noch öfter testen.
Um dieser Miesere entgegenzuwirken wurden Testautomatisierungsmechanismen und Testautomatisierungswerkzeuge entwickelt. In dieser Arbeit wollte ich zeigen, dass Testautomatisierung in bestehenden Projekten nachträglich noch eingefügt werden kann. Und das diese für eine verbesserte Qualität des Produktes sorgen kann.
Ich habe in dieser Arbeit den Testfallkatalog für das Produkt „Email4Tablet“ der Firma Deutsche Telekom AG zu 70% mit dem Testwerkzeug Selenium automatisiert.
Mit der hier vorliegenden Arbeit ist das Entladungsverhalten einer Dielektrischen Barriere Entladung anhand der elektrischen Parameter untersucht worden. Dazu wurde ein planparallele Elektrodenkonfiguration entwickelt und aufgebaut, die mit einer Sinus-Spannungs von maximal 5000 Vss und einer Frequenz von 5 kHz-20 kHz angesteuert wurde. Als Arbeitsgas wurde Argon im Druckbereich von 100 mbar - 1000 mbar verwendet. Auf diese Weise konnte ein Plasma erzeugt werden, in das bei einer maximalen Transfereffiienz von 96%, eine mittlere Leistung von bis zu 845 mW eingekoppelt werden konnte.
Da die Dielektrische Barriere Entladung auf Grund der Abschirmung der Elektroden vom Gasraum einige Besonderheiten gegenüber eines klassischen kapazitiv eingekoppelten Plasmas aufweist, können keine Rückschlüsse mittels einer einfachen Strom-Spannungsmessung auf die Vorgänge im Plasma gemacht werden.
Um trotzdem Einblick in die Entladung zu erhalten, wurde das von [Tra08] vorgeschlagene Ladungstransportmodel für die Analyse herangezogen und an den hier vorliegenden experimentellen Aufbau angepasst. So konnte unter anderem der Ein
uss der auf den Dielektrika befindlichen Restladungsträger auf die Ausbildung der Entladung untersucht werden. Des Weiteren ist aus den gewonnen Größen die Elektronendichte des Plasmas bestimmt worden. Diese liegt bei der hier untersuchten dielektrischen Glimmentladung, je nach Gasdruck und Frequenz, im Bereich zwischen 5 X 10exp9 - 2 X 10exp10 1/cm3 . Auch konnten in diesem Zusammenhang qualitative Aussagen über die Entwicklung der Elektronentemperatur gemacht werden.
Zusammen mit Kurzzeitaufnahmen, die den Verlauf der Entladung dokumentieren und den in [Sch11] gemachten Untersuchungen zur Excimerstrahlung konnte so ein umfassendes Bild der Vorgänge im Plasma erstellt und Kriterien erarbeitet werden, die den für eine Dielektrische Barriere Entladung typischen Ubergang zwischen einer Glimmentladung zu einer filamentierten Entladung erklären können.
Im Rahmen dieser Diplomarbeit haben Arbeiten am Elektronen-Streuexperiment von Prof. J. Jacoby und Dr. R. Berezov an der Goethe-Universität Frankfurt stattgefunden. Am Experiment wurden durch Møller-Streuung verschränkte Elektronen auf ihre Spin-Abhängigkeit untersucht. Die Untersuchung erfolgte als Koinzidenzmessung, dessen Genauigkeit von der zeitlichen Auflösung der Detektoren abhängt. Als Koinzidenzlogik diente ein von Julian Schunk entwickeltes Datenerfassungsprogramm, das auf einem Oszilloskop installiert wurde...
Die vorliegende Arbeit präsentiert den Aufbau und die Diagnostik eines Niederdruck-HF-Plasmas. Durchgeführt wurden die Messungen in einem Gasgemisch aus Ar/He (50%=50%). Sie dienten dazu, nähere Einblicke in die Plasmaparameter eines HF-Plasmas zu erhalten. Einen Schwerpunkt der vorliegenden Arbeit bildete dabei die Auswirkung unterschiedlicher Antennengeometrien auf die Entladungseigenschaften. Hierfür wurden die Plasmaparameter Elektronentemperatur Te, Elektronendichte ne und HF-Leistung in Abhängigkeit des Gasdruckes bei einer Vorwärtsleistung des HF-Generators von 1kW untersucht. Um eine sinnvolle Diagnostik zu gewährleisten, war es zunächst erforderlich eine induktive HF-Einspeisung zu konzipieren und eine Impedanzanpassung an dem vorhandenen 13,56MHz Generator vorzunehmen. Die Einspeisung der HF-Leistung geschieht über eine Spule, nach dem Transformatorprinzip. Der Aufbau bietet die Möglichkeit einer modularen Gestaltung der verwendeten Antennengeometrie. Hierdurch ist es möglich, sowohl die Länge, die Windungsbreite als auch die Windungsanzahl schnell zu ändern, um experimentell ein Optimum der Plasmaparameter bezüglich der Plasmaanregung zu erreichen.
Für die Bestimmung der Plasmaparameter wurde vorwiegend eine nicht invasive Diagnostiktechnik, die Emissionsspektroskopie, eingesetzt. Sie bietet den Vorteil, ein Plasma unberührt zu lassen und dessen Eigenschaften nicht zu verfälschen. Zusätzlich wurde mit einer Langmuirsonde die Elektronendichte gemessen. Die eingespeiste HF-Leistung wurde mit einem im HF-Generator befindlichen Reflektometer überwacht und dokumentiert. Durch systematisch durchgeführte Messungen konnte die Elektronentemperatur in Abhängigkeit des Gasdruckes für unterschiedliche Spulengeometrien mit Hilfe der Spektroskopie bestimmt werden. Es ergaben sich typische Elektronentemperaturen einer induktiven Entladung zwischen 1 eV und 5 eV. Die Ursache einer höheren Elektronentemperatur bei niedrigen Gasdrücken, unterhalb von 1 Pa, kann durch die stochastische Heizung sowie resonante Heizmechanismen erklärt werden.
Die mit der Langmuirsonde bestimmte Elektronendichte belief sich auf 4 x 10 exp 15 m exp -3 bei niedrigen Gasdrücken und einem Maximum von 4 x 10 exp 17 m exp -3 bei einem Gasdruck von 3 Pa. Elektronendichten dieser Größenordnung sind typisch für induktive Entladungsplasmen, die ein Maximum von 1019 m exp -3 [Lie05] erreichen können.
Die eingespeiste HF-Leistung zeigte dabei eine starke Abhängigkeit von der Antennengeometrie. Durch die Optimierung der Spulenkonfiguration ergab sich eine maximale eingespeisten HF-Leistung von 0,8kW.
Ein Vergleich von HF-Leistung und Elektronendichte bestätigte die theoretische Modellvorstellung, die einen linearen Zusammenhang zwischen diesen beiden Größen postuliert. Somit konnten wichtige Eigenschaften bezüglich einer HF-Entladung sowie Einflüsse der Antennengeometrie auf die Entladungseigenschaften untersucht und umfangreich diskutiert werden.
Optische Untersuchungen des Entladungsverhaltens einer dielektrischen Barriere Entladung in Argon
(2011)
Im Rahmen dieser Arbeit wurde eine "Dielektrische Barriere Entladung" (DBE) mit planparalleler Elektrodengeometrie aufgebaut und mittels optischer Diagnostik untersucht und analysiert. Die mit der Dielektrischen Barriere Entladung erzeugte Strahlung soll für die Wassersterilisation durch UV-Entkeimung genutzt werden.
Als Arbeitsgas wurde Argon verwendet. Argon Excimere emittieren VUV-Strahlung mit einer Wellenlänge von 126nm. Die Ansteuerung der DBE erfolgte mit einer Sinusspannung. Die Amplitude der Sinusspannung wurde von 1600V/SS-5000V/SS bei einer Frequenz von 5kHz-20kHz und einem Druck von 100mbar-1000mbar variiert.
Bei der Entwicklung einer Lampe zur Wassersterilisation ist die Kenntnis der Effizienz notwendig. In dieser Arbeit wurde daher untersucht, welchen Einfluss Druck, Spannung und Frequenz auf die VUV-Konversionseffizienz (Verhältnis der eingekoppelten Leistung zur Lichtleistung bei 126nm) haben. Bei einem Druck von 600mbar und einer Effektivspannung von ca. 1050V konnte bei 6kHz eine
maximale VUV-Konversionseffizienz von ca. 6% erzielt werden. Die Lichtleistung bei einer Wellenl¨ange von 126nm betrug dabei 11, 5mW.
Die Bildung von Excimeren setzt das Vorhandensein von Argonatomen im metastabilen Zustand voraus. Zum einen entstehen diese metastabilen Anregungszustände durch direkte Anregung bei Stoßprozessen, zum anderen können sie durch Abregung eines höheren Anregungszustandes unter Aussendung von Strahlung entstehen. Die Wellenlängen, der bei einem solchen Übergang emittierten Strahlung (Erzeugerlinien) befinden sich im sichtbaren Bereich. Zur Analyse des sichtbaren Spektrums wurde ein Spektrometer verwendet. Es konnte ein direkter Zusammenhang zwischen den Erzeugerlinien und der Entstehung von Excimerstrahlung nachgewiesen werden. Eine Messung dieser Erzeugerlinien kann daher als erster Indikator für die Erzeugung von VUV-Excimerstrahlung dienen. Bei dielektrischen Barriere Entladungen muss zwischen drei Entladungsformen unterschieden werden. Man unterscheidet homogene, filamentierte und quasihomogene Entladungen. Zur genaueren Untersuchung der Dynamik der DBE und der Entstehung dieser unterschiedlichen Entladungsformen wurden Aufnahmen mittels Kurzzeitkamera angefertigt und in Bezug auf die Parameter Druck, Spannung und Frequenz untersucht. In Zusammenarbeit mit [Hoc11] wurden Entladungsphasendiagramme erstellt, welche unter Kenntnis von Druck, Spannung und Frequenz eine Zuordnung der Entladungsform bei den jeweiligen Parametern ermöglichen. Es wurde gezeigt, dass die maximale VUV-Konversionseffizienz im Bereich homogener Entladungen erreicht wird und das homogene Entladungen bei Variation der Parameter nur einen kleinen Bereich im Vergleich zu den anderen Entladungsformen einnehmen.
Im Rahmen dieser Arbeit wurde ein Kabelpulsgenerator entwickelt und untersucht, der zur Erzeugung dielektrischer Barriereentladungen, genutzt wird. Diese Barriereentladung soll zur Wassersterilisation angewendet werden. Als schnelles Schaltelement des Kabelpulsers wurde ein Lorentz-Drift-Schalter (LDS), der ebenfalls in der Arbeitsgruppe Plasmaphyik entwickelt wird, verwendet. Dieser wurde grundlegend auf dessen elektrische Eigenschaften in Bezug auf den Einsatz in einem Pulsgenerator untersucht. Zudem sollen diese Messungen zur Weiterentwicklung des LDS von Nutzen sein und werden in diesem Kapitel zusammengefasst und interpretiert.
Zur Bestimmung des Arbeitsgasdrucks wurde der Verlauf der Durchbruchspannung verschiedener Gase in Abhängigkeit des Drucks aufgenommen. Durch diese Messungen konnte die maximale Haltespannung zum jeweiligen Druck, sowie der optimale Arbeitsdruckbereich des Schalters, der möglichst nahe des Selbstdurchbruchs liegt, ermittelt werden. Es wurde ein Verlauf entsprechend der Abhängigkeit der Paschenkurve bestimmt. Dabei wurde festgestellt, dass sich die Druckbereiche der Gase Argon, Stickstoff und Luft stark von dem des Wasserstoffs unterscheiden.
Um möglichst steile Pulsflanken des Kabelpulsgenerators zu gewährleisten, wurden Messungen der Spannungabfallraten am LDS durchgeführt. Da das Plasma im Schalter als ohmsche Last angesehen werden kann, korreliert der Spannungsabfall mit dem Stromanstieg. Hierbei konnte generell ein Anstieg der Spannungsabfallzeit mit zunehmender Ladespannung festgestellt werden. Teilweise konnte ein sprunghaftes Verhalten nachgewiesen werden, was wie folgt zu interpretieren ist: Der LDS ist ein schneller Gasentladungsschalter für hohe Ströme und hohe Spannungen. Um eine laufende Entladung durch die Lorentzkraft im Elektrodenzwischenraum zu erreichen, wird eine gewisse Stromdichte benötigt, die das ”saubere” Durchzünden des Schalters gewährleistet, das Plasma an den Elektroden nach oben laufen lässt und später die Selbstlöschung einleitet. Die in der Kapazität des Koaxialkabels gespeicherte Energie reichte bei kleinen Ladespannungen nur zu einer kurzen Uberbrückung der Elektroden. Zudem konnte eine Steigerung der Spannungsabfallzeit mit zunehmendem Druck festgestellt werden, was dafur spricht den Schalter bei einem Druckbereich möglichst nahe des Selbstdurchbruchs zu betreiben, um ein optimales Entladeverhalten zu gewährleisten. Weitere wichtige Parameter eines Gasentladungsschalters sind die Delay- und Jitterwerte. Neben dem Delay wurden im Rahmen dieser Arbeit erstmals Jittermessungen am LDS durchgefuürt. Diese wurden mit den oben genannten Gasen mit unterschiedlichen Triggerpulsen gemessen. Im Wesentlichen wurde ein kürzerer und ein längerer Triggerpuls mit Pulslängen von 1 µs und 31 µs verwendet.
Weiterhin fand erstmals der Betrieb des LDS mit Wasserstoff als Arbeitsgas statt. Neben diversen Vorteilen im Entladeverhalten, erlaubt ein Betrieb des Schalters mit Wasserstoff die Verwendung von reversiblen Gasspeichern auf Titan- oder Zirkoniumbasis. Durch beheizen dieser Speicher, geben sie Gas ab und nehmen es beim Abkühlen wieder auf. Dadurch sind abgeschlossene Schaltsysteme, sogenannte ”Sealed-Off”-Systeme, fur weitere Prototypen realisierbar [Pet07].
Es wurde festgestellt, dass der Delay stark von der Triggermethode bzw. der Pulslänge des Triggers abhängt. Auch hier wird ein schneller Spannungsanstieg benötigt. Je schneller die Startelektronen durch das Triggerelement bereitgestellt werden, desto schneller zundet das Plasma im Elektrodenzwischenraum. Für einzelne Schaltvorgänge spielt der Delay eine untergeordnete Rolle, betrachtet man jedoch Repetitionsraten gewinnt jeder einzelne zeitliche Ablauf eines Schaltprozesses an Bedeutung. Bei den oben erwähnten ersten Jittermessungen konnten bei allen Gasen sehr niedrige Jitterwerte von deutlich unter 100 ns erreicht werden. Auch hier wurde eine starke Triggerpuls- und Arbeitsgasabhängigkeit festgestellt. Auffällig wurde dies bei Untersuchungen mit Luft. Hier konnte der Jitter mit dem steilen Anstieg des kurzen Triggerpulses halbiert werden. Bei Messungen mit Wasserstoff wurde ein Jitter von 13 ns erreicht. Wiederum ergab sich eine Verbesserung des Jitters mit zunehmender Ladespannung.
Des Weiteren wurde die Pulsform und deren Impedanzabh¨angigkeit am Spannungsausgang des Kabelpulsers untersucht. Unterschiedliche Impedanzwiderstände wurden angefertigt und in den Pulseraufbau integriert. Es zeigte sich eine eher geringe Änderung der Pulsform bei unterschiedlichen Impedanzwiderständen. Untersuchungen zeigten, dass die Spannungsamplitude mit dem Widerstandswert variiert, da er wie ein Spannungsteiler wirkt. Die radialsymmetrischen Impedanzwiderstände erzeugen eine weniger stufig abfallende Flanke. Die besten Resultate, was die Pulsform betrifft, wurde jedoch durch eine niederinduktivere Erdung erzielt. Es wurde ein Kabelpulsgenerator mit einem relativ ebenen Pulsplateau entwickelt, dessen Parameter, wie z.B. die Pulsbreite und die Spannungsamplitude, weitgehend unabhängig voneinander variierbar sind.
In dieser Diplomarbeit wurden zwei vom Funktionsprinzip und Aufbau her vollständig unterschiedliche Plasmabeschleuniger aufgebaut und bezüglich ihrer Eigenschaften untersucht. Der erste Aufbau ist ein Lorentzdriftbeschleuniger (LDB) mit kapazitiv erzeugten Plasmen, bei dem das Funktionsprinzip auf der Wirkung der Lorentzkraft auf bewegte Ladungsträger im Magnetfeld beruht. Der zweite Teil des Experiments stellt einen induktiven Beschleuniger (IB) dar, dessen Erzeugung und Beschleunigung von Plasmen auf Grund von Induktionskräften geschieht.
Die optischen und elektrischen Messungen von beiden Beschleunigern wurden in einem speziell konstruierten Experimentieraufbau durchgeführt. Beim Lorentzdriftbeschleuniger wurde der Einfluss der Elektrodenlänge auf den Bewegungsablauf der Plasmaentladung untersucht. Später, bei der Durchführung der Messungen mit dem induktiven Beschleuniger wurde der LDB als Schalter eingesetzt. Dabei stellte sich heraus, dass die Erosion der Elektroden aus Messing, die die Lebensdauer des Lorentzdriftbeschleunigers begrenzt, von der Stromstärke abhängt.
Als Ergebnis stellte sich heraus, dass der LDB einen einfacheren Aufbau als der IB hatte, die Ausstoßgeschwindigkeit des Plasmas war im Vergleich zum IB höher und betrug im Durchschnitt etwa 50-60 [km/s] gegenüber ≈ 21,5±6,5 [km/s] beim IB. Dagegen wurde beim IB eine größere Plasmamasse von 27 [μg] erzeugt gegenüber 2,8 [μg] beim LDB. Somit erreichte der IB eine höhere Schubkraft von ≈ 66 [N] bei einem Impuls von 0,58±0,17 [mNs] pro Puls mit Pulslängen um 0,88 ×10 -5 [s] . Im Gegensatz dazu lag die Schubkraft des LDB`s bei etwa 27-32 [N] mit einem Impuls von 0,135-0,162 [mNs] pro Puls mit Pulslängen von 5-5,75 ×10 -6 [s].
Im Rahmen der vorliegenden Diplomarbeit wurden die bei den Kalttests der supraleitenden 360 MHz CH-Prototypkavität gewonnenen Messergebnisse sowie das Prinzip der Hochfrequenzmessung an supraleitenden Resonatoren vorgestellt. Zudem wurde bei dem Aufbau eines eigens für diese Messungen optimierten horizontalen Kryostaten mitgearbeitet. Die wesentlichen Elemente des Kryostaten wurden dargestellt und das Kaltfahren des gesamten Kryosystems erläutert. Das am IAP erarbeitete Tuningkonzept, bei dem ein langsamer, kettenbetriebener Tuner für den Ausgleich statischer Frequenzänderungen und zusätzlich drei Piezotuner zur Kompensation schneller Frequenzschwankungen eingesetzt werden, konnte aufgrund der zu groÿen Schwankungen der Resonanzfrequenz, die durch die stetige Befüllung des Kryostaten mit Helium hervorgerufen wurde, nur bedingt getestet werden. Dennoch konnte gezeigt werden, dass der Piezotuner die Frequenz der Kavität für kurze Zeit konstant hält und der langsame, mechanische Tuner einen Frequenzhub von 400 kHz erreichen kann. Für weitere Kalttests der CH-Struktur im horizontalen Kryostaten werden zur Zeit sowohl das Regelsystem für die schnellen Piezotuner als auch die Motorsteuerung des mechanischen Tuners optimiert.
In einem weiteren Arbeitsschritt wurden mit Hilfe der Simulationssoftware ANSYS Rechnungen zur Geometrieoptimierung des neuen dynamischen Balguners für zukünftige supraleitende CH-Strukturen durchgeführt. Das Hauptaugenmerk der Optimierung lag hierbei auf der Reduktion der auftretenden Materialspannungen bei einem vorgesehenen Hub von ca. ± mm, der durch eine äuÿere Belastung hervorgerufen wird. Dabei wurden verschiedene geometrische Gröÿen variiert und die optimalen Parameter gefunden. Zudem wurde eine Modalanalyse durchgeführt, um zu verhindern, dass die mechanischen Eigenfrequenzen des Balgtuners in den Betriebsbereich des Piezotuners, der letztlich für den Antrieb der dynamischen Balgtuner vorgesehen ist, fallen. Die nach sämtlichen Simulationsschritten berechnete und final vorgesehene Tunergeometrie und deren Parameter, die bezüglich des auftretenden von-Mises-Stresses optimiert wurden, sind in Abbildung bzw. Tabelle 9.1 dargestellt.
Desweiteren wurden mit Hilfe des Simulationsprogramms CST MicroWave Studio Untersuchungen zu Multipacting durchgeführt. Aufgrund der problematischen Spannungswerte im oberen Gap des Tuners müssen in weiteren Arbeitsschritten zusätzliche Simulationsrechnungen durchgeführt werden, um die Gefahr von Multipacting zu verhindern. Um die strukturmechanischen Simulationsergebnisse und deren Genauigkeit zu validieren, wurde zu Testzwecken ein Balgtunerprototyp bestehend aus eineinhalb Zellen von der Firma RI in Bergisch Gladbach gefertigt. Messungen der maximalen Auslenkung zeigten zwischen simulierten und gemessenen Werten eine Diskrepanz von einem Faktor von ungefähr 3.
Für weitere Testzwecke soll ein weiterer Balgtunerprototyp bestehend aus 6 Zellen nach den simulierten Parametern angefertigt und später sowohl bei Raumtemperatur als auch unter kryogenen Bedingungen auf dessen Auslenkung getestet werden.
In der Diskussion zwischen verschiedenen Spielarten der Diskursanalyse und den Gouvernementalitätsstudien haben Vertreter beider Seiten das Dispositiv als vermittelnden Begriff vorgeschlagen. In diesem Zusammenhang wird die Frage »Was ist ein Dispositiv?« neu gestellt. Durch eine Relektüre von Foucaults Texten wird ein Debattenbeitrag zum Dispositivkonzept entworfen, welcher der Verwässerung einerseits und andererseits einer methodischen Schließung durch Operationalisierung des Dispositivkonzepts entgehen soll. Als Destillat dieser Rekonstruktion werden sechs Kernelemente für eine dispositivanalytische Forschungsperspektive vorgeschlagen. Der anschließende Teil bringt Foucaults Analysen mit Bruno Latours Akteur-Netzwerk-Theorie (ANT) ins Gespräch, um potentielle Leerstellen in der Dispositivanalyse zu schließen. Diese betreffen vor allem die Bereiche »Natur«, »Technik« und »Medien«. Neben Latours Akteur-Netzwerk-Theorie wird im letzten Teil Karen Barads Agentieller Realismus für die Dispositivanalyse produktiv gemacht und in das Konzept eingearbeitet.
Diese Diplomarbeit untersucht die Güte eines globalen Datensatzes (IA), der die monatliche Ausdehnung der terrestrischen Oberflächengewässer für den Zeitraum von 1993 bis 2004 beinhaltet. IA ist aus komplementären, räumlich geringauflösenden Satellitendaten generiert. Die Wasserausdehnungen werden als prozentuale Flächenanteile von 0,5°-Gitterzellen angegeben. IA wäre durch seine monatliche Dynamik zur Kalibrierung und Validierung eines globalen Modells von temporären Überflutungsgebieten geeignet. Im Rahmen dieser Diplomarbeit werden die Wasserbedeckungen aus IA in einzelnen 0,5°-Zellen zu mehreren Zeitpunkten mithilfe von räumlich hochauflösenden Satellitenbildern des Enhanced Thematic Mapper Plus (ETM+) validiert. Aus Gründen der Effizienz (Minimierung des Speicheraufwands und der Verarbeitungszeit) wird nur ein einziger ETM+ Kanal im mittleren Infrarot zur Bestimmung der Wasserbedeckung verwendet: Band 5. Durch überwachte Klassifikationen wird der Anteil der Wasserflächen an der Gesamtfläche der 0,5°-Zellen ermittelt. Insgesamt werden 262 Klassifikationen in vier Untersuchungsgebieten durchgeführt. Zwischen den prozentualen Wasserbedeckungen aus IA und den ETM+ (Band 5)-Validierungsdaten werden häufige und unregelmäßige Abweichungen festgestellt. Die maximalen absoluten Abweichungen betragen mehr als 60%. Aufgrund dieser Ergebnisse sind die IA-Wasserausdehnungen nur sehr begrenzt als Validierungsdaten für die Modellierung von temporären Überflutungsgebieten geeignet.
Die vorliegende Diplomarbeit beschäftigt sich mit dem Vergleich des ASTER GDEM und SRTM, zweier kostenlos verfügbarer, digitaler Geländehöhenmodelle mit nahezu globaler Abdeckung. Die Untersuchungsgebiete befinden sich im Kleinwalsertal (Österreich) und in Südhessen (Deutschland). Der Vergleich der Geländehöhendaten erfolgt durch die Ermittlung der Höhenabweichung zu Referenzhöhen, die aus hochauflösenden amtlichen Geländemodellen ermittelt wurden. Die Höhenabweichung wurde zudem für bestimmte geomorphologische Oberflächenformen und Landbedeckungen ermittelt. Des Weiteren werden die Geländehöhendaten auf ihre Eignung für geomorphometrische und hydrologische Analysen bewertet.
Nach dem Reaktorunfall in Fukushima im März 2011 und dem darauf folgendem Beschluss in Deutschland, den Atomausstieg zu vollziehen, wird dort – sowohl auf nationaler, als auch auf regionaler Ebene – über eine alternative Energieversorgung diskutiert. Für die vorliegende Arbeit stellten sich die Fragen, wie die energiepolitische Ausgangssituation in Hessen aussieht und welche Potenziale erneuerbarer Energien in Hessen vorhanden sind. Mit einer Politikfeldanalyse wurde untersucht, welche Akteure am Ausbau erneuerbarer Energien beteiligt sind, wie diese interagieren, welche Instrumente zur Förderung erneuerbarer Energien in Hessen existieren und welche Erfolgsbedingungen und Restriktionen sich daraus ergeben. Ferner wurde anhand der jeweiligen Energiekonzepte die Frage verfolgt, welche Zukunftspotenziale für erneuerbare Energien die relevanten Akteure sehen und welche energiepolitischen Maßnahmen getroffen werden müssen, um den Ausbau zu forcieren. Bei einem Vergleich des Bundeslandes Hessen mit den Ländern Niedersachsen, Nordrhein-Westfalen und Sachsen-Anhalt wurde festgestellt, welche energiepolitischen Maßnahmen in diesen Bundesländern erfolgreich waren und auf Hessen übertragbar sind. Einerseits wurde aufgezeigt, dass Bemühungen den Ausbau erneuerbarer Energien zu forcieren erkennbar sind. Anderseits konnten ebenso die restriktiven Rahmenbedingungen dargestellt werden, die einen durchschlagenden Erfolg des Ausbaus erneuerbarer Energien bisher behindern. Die Untersuchung der Energiekonzepte hat ergeben, dass die Akteure die Zukunftspotenziale erneuerbarer Energien sehr unterschiedlich sehen und gewichten – sowohl was das zeitliche Ausbauziel als auch die Potenziale der jeweiligen erneuerbaren Energieträger betrifft.
Die vorliegende Arbeit beschäftigt sich mit der Entwicklung und dem Aufbau eines IHBeschleunigers zur Beschleunigung schwerer Ionen am Brookhaven National Laboratory.
Es wurde eine Einführung in die Arbeit und die Experimente des BNL gegeben, um zu verstehen, welche Aufgabe die IH in Zukunft haben wird und wie diese das BNL in den experimentellen Möglichkeiten erweitert.
Eingebettet in den historischen Kontext wurde zu Beginn die Familie der H-Moden Beschleuniger und ganz besonders die IH erläutert. Wichtige Begriffe und charakteristische Größen, die zum Verständnis der vorliegenden Arbeit nötig sind, wurden eingeführt und deren anschauliche Bedeutung bei der Entwicklung von Beschleunigern klar gemacht.
Eine Neuerung bei der Entwicklung von Driftröhrenbeschleunigern stellt der aufgebaute Messstand und die Computergestützte Datenanalyse dar. Es konnte gezeigt werden, dass die vorgestellte Methodik zur Verarbeitung der Messdaten enorme Verbesserungen mit sich bringt. Daten von unterschiedlichsten Beschleunigern könnern schneller als zuvor analysiert und direkt mit den Sollwerten der Strahldynamik verglichen werden. So kann bereits vor Ort eine mit nur geringen Fehlern behaftete Auswertung erstellt werden und direkt in die weitere Arbeit an einem Beschleuniger mit einfließen.
Die neue Technik wurde im weiteren Verlauf der Arbeit genutzt, um die im Detail eingeführte BNL IH Struktur aufzubauen und für den Einsatz in den USA fertig zu stellen. Neben den exakt auszuführenden Aufbau- und Justierarbeiten wurde viel Zeit in die Erstellung eines ausgereiften Tuningkonzepts investiert. Während dieser Arbeiten wurden die zwar theoretisch bekannten, am Institut aber noch nie nachgewiesenen, parasitären Tunerresonanzen beobachtet. Der zerstörerische Effekt einer solchen Resonanz konnte erstmals gemessen und analysiert werden.
Trotz der üblichen kleineren Schwierigkeiten, die komplexe Projekte mit sich bringen wurde die IH Struktur noch vor Beendigung dieser Arbeit in den USA am BNL aufgestellt und getestet. Es wurde noch nicht die volle Leistung erreicht, aber der Konditionierungsprozess ist in vollem Gange und die vorläufigen Ergebnisse zeigen keine Probleme auf, so dass davon auszugehen ist, dass die IH noch dieses Jahr voll eingesetzt werden kann.
Abschließend kann man sagen, dass das Projekt erfolgreich realisiert wurde und das die Neuerungen aus dieser Arbeit Einzug in weitere Projekte finden werden.
Entwicklung von normal- und supraleitenden CH-Strukturen für den 17 MeV EUROTRANS-Injektor-Linac
(2010)
In den letzten Jahrzehnten vergrößerten sich die Anwendungsgebiete von Hochfrequenzlinearbeschleunigern für Protonen und schwere Ionen, insbesondere im Nieder- und Mittelenergiebereich, permanent. Der überwiegende Teil dieser mittlerweile bewährten Aktivitäten lag im Bereich der Synchrotroninjektion oder der Nachbeschleunigung von radioaktiven Ionenstrahlen. Daneben existiert seit einiger Zeit eine starke Tendenz zur Entwicklung von Hochleistungslinearbeschleunigern, welche vor allem bei der Forschung an Spallationsneutronenquellen, in der Isotopenproduktion oder bei der Transmutation langlebiger Abfälle aus Spaltreaktoren Anwendung finden sollen. Die neu entwickelte CH-Struktur (Crossbar H-Mode) ist optimal für den Einsatz in derartigen Hochleistungsapplikationen geeignet. Sie ist die erste Vielzellenstruktur für den Nieder- und Mittelenergiebereich und kann sowohl normal- als auch supraleitend verwendet werden. Das europäische Programm zur Transmutation radioaktiver Abfälle, EUROTRANS, basiert auf einem Hochleistungslinearbeschleuniger, der einen intensiven Protonenstrahl bereitstellt. Dieser Strahl wird auf ein Flüssigmetalltarget geleitet, wodurch Spallationsneutronen entstehen, welche die Reaktion im Reaktorkern antreiben. Hierbei spricht man von einem sogenannten beschleunigergetriebenen System (ADS). Das zugehörige Refernzdesign des Instituts für Angewandte Physik propagiert einen aus normal- und supraleitenden CH-Strukturen bestehenden Injektor für den Bereich von 5–17 MeV. Im Rahmen der vorliegenden Arbeit wurden diesbezüglich zur Entwicklung von zwei normal- und vier supraleitenden CH-Kavitäten elektrodynamische Simulationsrechnungen in Bezug auf die folgenden Designkriterien durchgeführt:...
In dem in dieser Arbeit vorgestellten Experiment wurde die Reaktion zwischen molekularem Wasserstoff und hochgeladenen langsamen Ar8+-Ionen untersucht. Ein Augenmerk wurde hierbei auf den Zweifachelektroneneinfang gelegt.
Anhand zwei durchgeführten Messungen mit unterschiedlichen Projektilgeschwindigkeiten 0,2 und 0,36 a.u. und unter zur Hilfenahme des so genannten „over-barrier-Modells“ sollte die Dynamik des H2-Moleküls während des Elektroneneinfangprozesses untersucht werden. Aus den daraus resultierten Ergebnissen sollte die Frage, ob der Einfangsprozess simultan oder sequentiell stattgefunden hat beantwortet werden.
Durch einfache Berechnungen kann mit dem „over-barrier-Modell“ die Distanz, welche das Projektil zwischen dem ersten und dem zweiten Elektroneneinfang zurücklegt, in Abhängigkeit von dem Stoßparameter ermittelt werden. Dieser Wert ist der Hauptbestand aller weiteren Berechnungen.
Die Spektren der Impulsüberträge in Abhängigkeit von der Ausrichtung des Moleküls zu dem Projektilstrahl haben gezeigt, dass das Projektil meist über und unter der Molekülachse streut anstatt links oder rechts am Molekül vorbei zu fliegen.
Die Auftragung der kinetischen Energie der Fragmente gegen den Transversalimpuls des Projektils (Abbildung 5.6) hat ergeben, dass größere Impulsüberträge für den Fall der senkrechten Stellung des Moleküls zu der Strahlachse, zu leicht erhöhten Aufbruchsenegien führt, was durch die Berechnung der Energie zu erklären ist.
Aus der Verteilung der kinetischen Energie (KER), welche die durch Dissoziation entstandenen Wasserstoffionen nach dem Stoß besitzen, kann auf den Verlauf der Reaktion zurück geschlossen werden.
Ein Vergleich der KER-Spektren für unterschiedliche Stoßparameter (Abbildung 5.8 und 5.9) bei festen Geschwindigkeiten hat für die zwei Messungen widersprüchliche Ergebnisse gezeigt. Zu erwarten war eine Verkleinerung der Energiewerte bei ansteigendem Stoßparameter. Dies konnte jedoch nur für den Fall in welchem die Projektilgeschwindigkeit 0,36 a.u. betrug bestätigt werden. Die Abweichung bei der ersten Messung kann durch statistische Fehler kommen, da die Anzahl der Messwerte, die für diese Messungen als „richtige“ angenommen worden, durch das Setzen von verschiedenen Bedingungen stark reduziert wurde.
Letztendlich wurde anhand der Variation der Stoßparameter bei festen Projektilgeschwindigkeiten die Zeitskala während des Stoßes eingeschätzt. Es wurde die Annahme getroffen, dass der Zweifachelektroneneinfang als zweistufiger Prozess abgelaufen ist und die maximal mögliche Zeitspanne zwischen dem ersten und dem zweiten Elektroneneinfang berechnet. Der Vergleich der daraus resultierten Werte mit der Oszillationsdauer des Wasserstoffmoleküls hat die getroffene Annahme widerlegt. Beide Messungen sind laut „over-barrier-Modell“ als einstufiger, schneller Übergang einzuordnen.
Das Ziel dieser Diplomarbeit war die Untersuchung der Reaktion des Zweifachelektroneneinfangs mit einem Augenmerk auf den Unterschied zwischen dem simultanen und dem sequentiellen Verlauf. Die Ergebnisse haben einen zweistufigen Prozess mit hoher Wahrscheinlichkeit ausgeschlossen. Obwohl alle theoretischen Anforderungen für den Einsatz des „over-barrier-Modells“ erfüllt worden sind, hat sich herausgestellt, dass die gemessenen Werte nicht immer eindeutig interpretiert werden konnten. Das lässt darauf schließen, dass das Experiment noch verbessert werden kann, um mögliche Fehlerquellen zu reduzieren. Eine Möglichkeit zur Verbesserung wäre der Einbau eines Elektronendetektors, oder aber die Änderung des Projektilions. Auch längere Messzeiten wären statistisch gesehen von Vorteil. Für die Zukunft sind weitere Experimente mit veränderten Targetgasen und geänderten Projektilgeschwindigkeiten geplant.
Die vorliegende Arbeit setzt sich mit dem Einfluss von Tetraquarkzuständen auf den chiralen Phasenübergang auseinander. Das Quarkmodell ist ein wirkungsvolles Instrument zum Verständnis des Verhaltens der Mesonen und Baryonen. Im Bereich von Energien unter 1:8 GeV gibt es in Bezug auf die Mesonen dennoch eine Vielzahl von Problemen. So ist bis dato nicht klar, wie sich die skalaren Resonanzen unter 1:8 GeV zusammensetzen. In der Vergangenheit wurde eine Vielzahl von Möglichkeiten diskutiert, wie beispielsweise die Existenz eines Glueballs, die von mesonischen Molekülen sowie die von Tetraquarkzuständen. Alle diese Ansätze sind mehr oder weniger in der Lage, die Phänomene bei T = 0 zu erklären. Die vorliegende Arbeit beschäftigt sich mit dem Ansatz, Tetraquarkzuständen leichte skalare Resonanzen zuzuordnen.
Im Bereich der nichtverschwindenden Temperaturen wurden durch Gitterrechnungen große Erfolge erzielt, die aaffetiven Modellen bei nichtverschwindender Temperatur als Referenz dienen. Gleichwohl fehlt ein affektives Modell bei T <> 0, das einen Tetraquarkzustand beinhaltet. Hier setzt diese Arbeit an und erweitert das Modell, das leichte skalare Resonanzen mittels Tetraquarkzuständen erklärt, zu nichtverschwindenden Temperaturen.
In dieser ersten Studie zum Thema wird das Lineare Sigma-Modell um den leichtesten Tetraquarkzustand ergänzt und sein Einfluss auf den chiralen Phasenübergang untersucht.
Es zeigt sich, dass dieser Ansatz nicht nur Fragen im Bereich der Vakuumphysik lösen kann, sondern auch solche hinsichtlich der Restaurierung der chiralen Symmetrie.
Visualisierung von E-Mail-Traffic mit Schwerpunkt auf eine inhaltliche Analyse von Wortmustern
(2010)
E-Mail hat sich zu einem sehr wichtigen Kommunikationsmittel entwickelt, leidet aber aktuell unter einer massiven Verbreitung unerwünschter und unverlangter Inhalte. Diese können für einen Anwender nicht nur lästig sein, sondern auch die vorhandene Netz- und Speicher-Infrastruktur enorm belasten.
Die Notwendigkeit einer Filterung des E-Mail-Traffic hat zu einer Reihe recht unterschiedlicher Methoden geführt, die computergesteuert eine E-Mail auf ihren Spam-Gehalt untersuchen.
Die Motivation hinter dieser Arbeit ist zu prüfen, ob die besonderen Eigenschaften der visuellen Wahrnehmung eines Menschen als unterstützendes Mittel eingesetzt werden können, um E-Mail-Inhalte zu überprüfen und eventuell vorhandene Wort-Muster, die auf Spam deuten, sichtbar zu machen.
Um dieses Ziel zu erreichen musste zuerst eine geeignete Auswahl spamspezifischer Merkmale getroffen werden. Danach wurden Methoden des Text Minings angewendet, um aus dem Inhalt einer E-Mail strukturierte Daten zu gewinnen, die sich zur Repräsentation einer Nachricht eignen und als Grundlage für eine Visualisierung herangezogen werden können. Basierend auf den vorab ausgewählten Spam-Charakteristika wurdenWorteigenschaften mit Hilfe extern angebundener Wortlisten, regulärer Ausdrücke und unter Einsatz eines Wörterbuches überprüft, und die erhaltenen Ergebnisse flossen neben einer einfachen Gewichtung von Worthäufigkeiten in Form einer anwendungsspezifischen Gewichtung mit ein.
Es wurden anschließend zwei verschiedene Sichten konzipiert, um einem Anwender einen Einblick in die extrahierten Daten zu ermöglichen. Es hat sich herausgestellt, dass besonders Treemaps geeignet sind um die anfallenden Datenmengen kompakt abzubilden, aber gleichzeitig einen notwendigen Detailgrad auf einzelne Worteigenschaften gewährleisten.
Das Konzept wurde prototypisch unter Verwendung des Mailservers Mercury/32 sowie einer MySQL-Datenbank implementiert und konnte teilweise aufzeigen, dass es anhand der von der Engine generierten Strukturen möglich ist, spamspezifische Merkmale einer E-Mail unter Verwendung der gewählten Visualisierungstechniken auf eine Weise sichtbar zu machen, die einem Anwender eine Mustererkennung erlauben.
Die Diplomarbeit wurde als Gemeinschaftsarbeit angefertigt und konnte sinnvoll in zwei Bereiche aufgeteilt werden: Die Engine und die Visualisierung. Die konzeptuellen Überlegungen für das Thema sind größtenteils gemeinsam erfolgt, jedoch liegt der Schwerpunkt von Pouneh Khayat Pour im Bereich der Analyse und der von Yvonne Neidert in der Visualisierung.
In dieser Arbeit wurde das Verhalten von repulsiv gebundenen Teilchenpaaren (Dimeren) in eindimensionalen optischen Gittern untersucht. Repulsiv gebundene Teilchenpaare sind metastabile Zustände, die nicht im freien Raum, dafür aber in geordneten Potentialen, wie optische Gitter sie darstellen, vorkommen können. In einem analytischen Teil beschäftigten wir uns mit der Herleitung effektiver Hamiltonians für Dimersysteme. Diese wurden dann unter Verwendung des Time Evolving Block Decimation-Algorithmus (TEBD) numerisch untersucht...
Struktur-Funktionsbeziehungen des Verpackungschaperons Gsf2 in der Hefe Saccharomyces cerevisiae
(2007)
Im Rahmen der vorliegenden Arbeit wurde die Funktion des in der Membran des Endoplasmatischen Retikulum lokalisierten Proteins Gsf2 der Hefe Saccharomyces cerevisiae näher charakterisiert. Gsf2 ist ein 46 kDa großes ER-Transmembranprotein mit zwei membrandurchspannenden Domänen, wobei C- und N-Terminus cytosolisch orientiert sind. Zudem besitzt Gsf2 C-terminal ein klassisches Dilysin-Motiv. Eine Deletion des GSF2-Gens resultiert in einer Retention der Hexosetransporter Hxt1, Hxt3 und Gal2 im ER, so dass es sich bei Gsf2 möglicherweise um ein Hexosetransporterspezifisches Verpackungschaperon handelt.
Um Sequenzbereiche zu determinieren, die für die Funktion des Verpackungschaperons bezüglich der Reifung und des ER-Transportes von Hxt1 notwendig sind, wurden verkürzte Versionen des Gsf2-Proteins hergestellt. Die funktionelle Analyse zahlreicher verkürzter Versionen ergab die Lokalisation eines essentiellen Sequenzbereiches in den hinteren 40 Aminosäuren der carboxyterminalen Domäne des Gsf2-Proteins.
Vorläufige genetische und biochemische Untersuchungen hatten ergeben, dass Gsf2 mit Komponenten der Ribosomen, des Sec61-Translokationsapparates und mit Proteinen der COPII-Vesikel interagiert.
Mit Hilfe des Split-Ubiquitin Systems konnte in der vorliegenden Arbeit eine direkte Interaktion zwischen Gsf2 und dem Sec61-Translokations-Komplex und den Komponenten des sekretorischen Weges Sec12 und Sar1 bestimmt werden. Sec12 ist ein Sar1-spezifischer Guanin-Nucleotid-Austausch-Faktor, der für die Aktivierung von Sar1 benötigt wird. Sar1 ist ein kleines G-Protein, welches für die Initiation der COPII-Vesikelbildung benötigt wird. Sar1 ist aber auch für die Erkennung di-basische ER-Exportsignale spezifischer Cargo-Proteine zuständig. Diese Interaktion weist daraufhin, dass Gsf2 über solch ein Motiv verfügt und somit die Verpackung von Hxt1 in COPII-Vesikel gewährleisten könnte.
Postuliert wird ein Modell, wonach Gsf2 bereits eine wichtige Funktion bei der Translokation des Hexosetransporter Hxt1 in die ER-Membran übernimmt. Dabei interagiert Gsf2 mit dem Sec61-Translokon, um den Reifungsprozess der naszierenden Polypeptidkette des Metabolittransporters zu ermöglichen. Anschließend rekrutiert Gsf2 das gefaltete Proteine an Exit-Sites des Endoplasmatischen Retikulums. Es interagiert dort mit Sec12 und Sar1, so dass Gsf2 zusammen mit dem Hexosetransporter in die COPII-Vesikel verpackt und zum Golgi-Apparat transportiert wird. Aufgrund des ERRetentionssignals wird Gsf2 über COPI-Vesikel recycelt.
Dieses Modell impliziert, dass Hxt1 über kein ER-Exportsignal verfügt und daher Gsf2 als guide eine ausschlaggebende Funktion bei dessen Translokation übernimmt.
Die Hefe Saccharomyces cerevisiae hat sich wie kaum ein anderer Organismus auf die Verwertung von Glukose spezialisiert. Die Aufnahme dieser Hexose stellt dabei den ersten Schritt der Metabolisierung dar. Saccharomyces cerevisiae besitzt hierfür eine große Zahl an Hexosetransportern und eignet sich daher gut zur Untersuchung der Wirkungsweise und Regulation dieser Transporter, sowie deren Translokation zur Plasmamembran.
Ziel der vorliegenden Arbeit war es, die Funktion des in der Membran des Endoplasmatischen Retikulums lokalisierten Proteins Gsf2 der Hefe Saccharomyces cerevisiae näher zu charakterisieren. Gsf2 ist an der Translokation der Hexosetransporter Hxt1, Hxt3 und Gal2 zur Plasmamembran beteiligt. Die Deletion von GSF2 führt zur Akkumulation dieser Transporter in der Membran des Endoplasmatischen Retikulums. Interaktionen von Gsf2 mit ribosomalen Proteinen, Komponenten der Translokationsmaschinerie und COPII-Hüllproteinen deuten auf eine multifunktionelle Hexosetransporterspezifische Funktion des Verpackungschaperons Gsf2 hin.
Mit Hilfe des „Synthetic Genetic Arrays“ wurde nach synthetisch letalen und synthetisch kranken Interaktionspartnern von GSF2 gesucht, die zur Aufklärung der Funktion von GSF2 beitragen beziehungsweise bisherige Forschungsergebnisse verifizieren sollten. Unter den nicht-essentiellen Genen der Hefe konnte allerdings kein synthetisch letaler oder synthetisch kranker Interaktionspartner von GSF2 ermittelt werden.
Im zweiten Projekt sollten Multicopy-Suppressoren aus einer Genbank identifiziert werden, die in der Lage sind die Deletion von GSF2 und damit verbundene Retention von Hxt1 in der Membran des Endoplasmatischen Retikulums zu komplementieren. Mit Hilfe dieses Screenings konnten einzig GSF2-kodierende Plasmide identifiziert werden.
Die Ergebnisse der beiden genetischen Screening-Verfahren belegen, dass Gsf2 eine herausragende Rolle innerhalb des Translokationsprozesses von Hxt1 einnimmt.
Daphnien sind ein wichtiger Bestandteil des Süßwasserzooplanktons und in einer Vielzahl von biologischen Disziplinen als Modellorganismus etabliert. Ihr zyklisch parthenogenetischer Lebenszyklus und die hohen Raten von interspezischer Hybridisierung mancher Artkomplexe machen sie zu einem interessanten Forschungsobjekt. Die vorliegende Arbeit bietet Einblicke in die Populationsstruktur einer dieser Komplexe, des D. longispina-Artkomplexes, und testete ein neu entwickeltes Markersystem bei diesen Tieren auf gesamteuropäischer Ebene (33 Sammelorte, 1155 Individuen). Es wurden dazu molekulare Analysetechniken mit zwölf polymorphen Mikrosatelliten-Markern mit etablierten ITS-RFLP-Analysen verglichen.
Durch statistische Auswertemethoden mit den Programmen NewHybrids und Structure konnten Elternarten gut zugeordnet werden. Die Betrachtung der Kullback-Leibler Divergenzen in den Analysen durch NewHybrids deuten sogar darauf hin, dass die Anzahl der Mikrosatellitenmarker auf wenige besoders informative Loci reduziert werden kann, was bei Fragestellungen zur Art- und Hybrididentifizierung Zeit und Kosten spart. Ein Protokoll zur Vorgehensweise bei der Art- und Hybrididentifizierung wurde entwickelt.
Die Arten und Populationen selbst waren hoch differenziert. Zwischen den drei untersuchten Arten wurde ein FST von 0,29 gefunden. Ergebnisse aus einer AMOVA zeigten sogar, dass die Differenzierung zwischen den Populationen innerhalb der Arten leicht über dieser interspezifischen Differenzierung liegt (D galeata 0,40; D. longispina 0,52 und D. cucullata 0,42). Da auch keine isolation by distance gefunden wurde, lassen die Ergebnisse meiner Analysen auf „Provinzialismus“ schließen – ein Konzept, das genau dieses Muster voraussagt. Erklärt wird dieser Provinzialismus durch die Monopolisierungshypothese. Die Beobachtung, dass in der Regel in den untersuchten Populationen ein Heterozygotendefizit vorliegt, obwohl klonale Vermehrung oft zu einem Heterozygotenüberschuss führt (Meselson-Effekt), zeigt häufig vorkommende sexuelle Vermehrung an. Das Heterozygotendefizit deutet ebenfalls auf einen Wahlund-Effekt hin.
Es wurde weiterhin getestet, ob das Vorkommen von introgressiver, interspezifischer Hybridisierung in bestimmten Lokalitäten im Vergleich mit Lokalitäten, in denen ein Taxon allopatrisch lebt, einen Einfluss auf die Populationsstruktur hat. Die klonale Diversität sowie die beobachtete Heterozygotie standen dabei im Mittelpunkt der Analysen. Es wurde kein statistisch signifikanter Einfluss der Hybridisierung auf die Diversität gefunden.
Lange Zeit lag in Deutschland das Augenmerk auf der Förderung von leistungsschwachen Kindern, während in anderen Ländern wie beispielsweise Großbritannien und den USA die Förderung von Schülern mit besonderen Begabungen durch spezielle Programme eine längere Tradition besitzt. Mittlerweile besitzt das Thema Hochbegabung die Aufmerksamkeit der breiten Öffentlichkeit. Die Einsicht, dass Hochbegabte auch der Unterstützung bedürfen, setzt sich zunehmend durch. Indem sie Leitlinien formulierten, wie in den Schulen die besonderen Bedürfnisse der Hochbegabten berücksichtigt werden sollten, zeigten die Kultusministerien in den letzten Jahren, dass sie diesem Thema einen größeren Stellenwert geben als in der Vergangenheit (siehe Holling, H., 2001; Holling, H., Preckel, F., Vock, M. & Schulze Willbrenning, B., 2004). Nicht jeder, der ein großes Talent besitzt, ist auch in der Lage, dieses in hohe Leistung umzuwandeln. Zunächst muss erkannt werden, dass dieses Talent vorhanden ist; danach müssen geeignete Maßnahmen gefunden werden, wie diese hohe Begabung gefördert werden kann. Denn obwohl ein Großteil der hochbegabten Kinder zu den besseren Schülern in der Klasse zählt, schöpfen sie ihr Potenzial meist nicht aus. Kaum einer der Hochbegabten entspricht dem Bild eines gestörten Genies, wie es in den Köpfen vieler Menschen zu finden ist. Die empirische Forschung zeigt, dass hochbegabte Schüler nicht häufiger verhaltensauffällig sind als durchschnittlich begabte Schüler. Diese Arbeit stellt den aktuellen Forschungsstand zum Thema Hochbegabung in der Bundesrepublik Deutschland dar.
7 Zusammenfassung und Ausblick 7.1 Synthese des PNA-Bausteine Primäres Ziel der Diplomarbeit war die Synthese von 6-Aminochinolin-2(1H)-on (3) und dessen Kupplung über die Carbonsäure (4) mit dem PNA-Grundgerüst (6). ... Das Chinolin (3) wurde durch eine dreistufige Synthese aus para-Phenylendiamin (2) erhalten und als Pikrat gefällt. Über eine Ionenaustauschsäule wurde das Hydrochlorid des Chinolins (3b) gewonnen. Durch Charakterisierung des RNA-Liganden mittels FRET konnte ein IC50-Wert des Chinolin Hydrochlorids (3b) von 46 μmol ermittelt werden. Das kupplungsfähige Essigsäurederivat (4) wurde über den tert-Butylesters (87) des Chinolins (3) gewonnen. ... Die literaturbekannte zweistufige Synthese des PNA-Rückgrats (5) geht vom Ethylendiamin ... 7.2 Synthese des PNA-Monomers Das Ziel die Synthese des PNA-Monomers (6), konnte durch Kupplung des Essigsäurederivats (4) und des PNA-Rückgrats (5) mittels DIC/HOBt erreicht werden. ... Das PNA-Monomer sollte in weiterführenden Arbeiten durch kombinatorische Chemie in ein Tripeptid eingebaut werden. Dazu wäre es jedoch notwendig, die tert-Butyl-Schutzgruppe durch Säurezugabe abzuspalten, um die Carbonsäure (88) zu erhalten, die als PNA-Monomer in ein Tripeptid eingebaut werden kann. Es wurde jedoch eine Zersetzung des PNA-Monomers in das Hydrochlorid des Chinolins (3b) und zwei Fragmenten des Fmoc-geschützten Grundgerüsts nachgewiesen. 7.3 Alternative Methoden ... Auf einem anderen Weg konnte das Anhydrid (8) aus Ethylendiamin (9) in vier Syntheseschritten dargestellt werden, das mit dem Chinolin (3) gekuppelt werden konnte. Die resultierende Carbonsäure (10) wurde durch weiterführende Arbeiten in ein Tripeptid eingebaut. Nach der Abspaltung vom Harz und der Entschützung des Tripeptids fand eine intramolekulare Cyclisierung statt, wobei das Chinolin (3) als Abgangsgruppe nachgewiesen wurde. In nachfolgenden Arbeiten sollten die Eigenschaften von Iminochinolin (93) als RNA-Ligand bestimmt werden. Der Syntheseweg sollte über eine dreistufige Synthese vom Chinolin (3) ausgehend zum Iminochinolin (93) führen. Es konnte im Rahmen dieser Arbeit gezeigt werden, dass der erste Schritt, die Darstellung des Chlorochinolins (91), gelingt. 7.4 Ausblick Das erwähnte Iminochinolin (93) sollte in nachfolgenden Arbeiten ebenfalls auf seine Eigenschaft als RNA-Ligand untersucht werden. Die PNA-Monomere ließen sich nur mit geringen Ausbeuten kuppeln. In der Literatur zur Darstellung von PNA-Monomeren werden unterschiedliche Kupplungsreagenzien, wie EDC/HOBt, BOP/HOBt, TOTU oder PyBOP, für die PNA-Grundgerüste angegeben. Um bessere Ausbeuten zu erreichen, ist eine systematische Untersuchung der optimalen Kupplungsbedingungen vorzunehmen. Um die Zersetzung des PNA-Monomers (6) bei der Abspaltung der tert-Butylschutzgruppe zu verhindern, ist nach alternativen PNA-Rückgraden zu suchen. Methyl- oder Ethylester statt tert-Butylester wären durch Verseifung mit Natriumhydroxid in einem Wasser/Dioxan-Gemisch in das jeweilige Carboxylat zu überführen. Aufgrund der niedrigen Ausbeute des Tripeptids (4)-(D)Arg-(D)-Arg-CO-NH2 (96) soll versucht werden die Kupplungsausbeute durch Vermeidung möglicher Nebenreaktionen zu erhöhen. Eine mögliche Nebenreaktion ist die Cyclisierung der zu kuppelnden Carbonsäure (4) mit einer weiteren Carbonsäure (4), die vermieden werden kann durch die Einführung einer Boc-Schutzgruppe am sekundären Amin. Eine Kupplung mit der Boc-geschützten Carbonsäure (97) verspricht bessere Kupplungsausbeuten. ... In vorangegangenen Arbeiten[74][75] konnten das Lactam (98) mittels Heck- oder Suzuki-Reaktion nicht an das Vinylglycinderivat (99) gekuppelt werden. ... Als alternative Kupplungsmethode wird gerade in einer Doktorarbeit die „chiral pool“- Synthese mit Glutaminsäure (101) untersucht, die in die halogenierte Spezies (102) überführt werden soll. Die Kreuzkupplungsreaktion erfolgt durch eine Fe(acac)3 vermittelte Grignard-Reaktion...
Ulrike Anders hat zwischen Januar und September 2005 Zähne und Gebiß rezenter Schleichkatzen (Viverridae) untersucht und Parameter identifiziert, anhand derer sich Nahrungspräferenzen zuordnen lassen. Viverriden gelten als basale Carnivoren mit omnivorem Nahrungsspektrum. Da die für echte Katzen so typische Brechschere und die Reduktion des Gebisses nur wenig ausgeprägt ist, gilt ihr Gebiss als unspezialisiert. Dennoch besitzen Viverriden Nahrungspräferenzen, die sich in der Umgestaltung ihres Gebisses, auch in einzelnen Zahnpositionen niederschlägt. Diese Veränderungen wurden metrisch charakterisiert.
Sandra Engels hat zwischen August 2006 und Juni 2007 Schädel und Gebiß südostasiatischer Ursiden im Hinblick auf Ernährungspräferenzen rekonstruiert. Obwohl die Ursiden systematisch zur Ordnung der Carnivora gehören, verfolgen ihre Vertreter völlig unterschiedliche Ernährungsstrategien. Darunter sind spezialisierte Herbivoren genauso vertreten wie Carnivoren und Omnivoren. Ziel der Arbeit von Sandra Engels war es, anhand der unterschiedlichen Ernährungsregime, Parameter an Schädel, Gebiss und Einzelzähnen rezenter Tiere festzulegen und diese dann auf fossiles Material anzuwenden.
Diese Diplomarbeit behandelt eine Fragestellung aus dem Gebiet der Fuchsschen Gruppen. Das Problem, das hier geklärt werden soll, entspringt einer im Jahre 2005 erschienenen Arbeit über Konjugatoren Fuchsscher Gruppen und quasiplatonische Riemannsche Flächen von Jürgen Wolfart und Ernesto Girondo [GW05]. Es ist dort ein alternativer geometrischer Weg gewählt worden, um es zu umgehen, und es soll nun hier mit den bereits 1970 bereitgestellten Methoden zur Fragestellung der Existenz von Untergruppen Fuchsscher Gruppen von David Singerman [SIN70] gelöst werden. Betrachtet man eine Dreiecksgruppe $Delta_{1}$ als Untergruppe einer Dreiecksgruppe $Delta_{2}$, so kann es vorkommen, dass diese Inklusion eine Verfeinerung durch eine dazwischenliegende Dreiecksgruppe $Delta$ gestattet. In den Fällen, in denen zu einer gegebenen Dreiecksgruppe $Delta_{2}$ voneinander verschiedene Untergruppen gleicher Signatur $Delta_{1},Delta_{1}Apostroph,...$ existieren, ist es nicht a priori klar, dass es eine dazwischenliegende Dreiecksgruppe $Delta,DeltaApostroph,...$ gleicher Signatur zu jeder dieser verschiedenen Untergruppen gibt. Das Ziel dieser Arbeit ist es nun, dies zu klären, d.h. zu zeigen, dass es für jedes Paar Dreiecksgruppen $Delta_{1}subseteqDelta_{2},Delta_{1}ApostrophsubseteqDelta_{2},...$ eine dazwischenliegende Dreiecksgruppe $Delta,DeltaApostroph,...$ gibt. Im ersten Teil dieser Arbeit wird eine grobe Einleitung in die Theorie der Diskontinuierlichen Gruppen gegeben, die sehr stark auf Fuchssche Gruppen abzielt und mit deren Verbindung zu Riemannschen Flächen abschließt. Sie orientiert sich sehr stark an einem Standardwerk über Diskontinuierliche Gruppen von Joseph Lehner [LEH64]. Im zweiten Teil dieser Arbeit widmen wir uns ganz den Untergruppen Fuchsscher Gruppen und dem von David Singerman [SIN70] bereitgestellten Apparat, der eine notwendige und hinreichende Bedingung hierfür aufzeigt. Wie David Singerman auch zeigt, lassen sich diese Methoden für Normalteiler und Dreiecksgruppen spezialisieren. Wir werden uns dem auch annehmen. Abschließend erarbeiten wir dann eine ausführliche Methode und somit auch einen Beweis zur Erlangung der kompletten Liste von Inklusionen Fuchsscher Dreiecksgruppen, wie sie sich in einer weiteren Arbeit David Singermans befindet [SIN72]. Dies geschieht mit Hilfe zweier Maple-Programme deren Quellcode und Ausgabe sich im Anhang bzw. vierten Teil dieser Arbeit zur Einsicht bendet. Im dritten Teil dieser Arbeit wird schließlich die oben erläuterte Fragestellung geklärt werden. Sie wird zunächst anhand vieler Beispiele und Erläuterungen verdeutlicht, und im Anschluss dessen eine mögliche Verallgemeinerung auf Fuchssche Gruppen diskutiert.
Julia Hansen hat zwischen März und Dezember 2006 Untersuchungen zu Funktion und Struktur der Okklusalflächen in der postcaninen Zahnreihe von Viverriden durchgeführt. Unter verschiedenen Ernährungsregimen bilden Höcker und Täler auf Zähnen, die sich im Gebiss gegenüber stehen, eine Funktionseinheit, mit der Schleichkatzen sowohl in der Lage sind, Früchte zu zerquetschen, als auch den Panzer von Insekten aufzuknacken. In ihrer Studie ist es Frau Hansen gelungen, konstruktive Unterschiede zwischen beiden Nutzungsweisen zu identifizieren. Diese Unterschiede hat sie an verschiedenen fossilen Einzelzähnen der Sammlung Koenigswald überprüft.
Die vorliegende Arbeit umfasst die Rekonstruktion der Körpermasse pleistozäner Cerviden in Java. Zunächst wird ein Rezentmodell erstellt, das den Zusammenhang zwischen Körpermasse und dem jeweiligen Messparameter aufzeigt. Die daraus resultierenden Regressionsgleichungen werden für die Rekonstruktion verwendet. Das fossile dentale und postcraniale Material wird vermessen und die Körpermasse für jedes einzelne Stück rekonstruiert. Die absoluten Werte werden in Körpermassenklassen eingeteilt, um einen Wert unabhängig vom physiologischen Zustand zu erhalten. Die Körpermassen werden, soweit möglich, getrennt nach Gattungen rekonstruiert. Ein Vergleich zeigt, dass es deutliche Unterschiede in der Körpermasse der Gattungen Axis und Muntiacus im Vergleich zu Cervus gibt. Bei der Einteilung in Klassen fällt auf, dass die Klassen 3a (10 kg bis 20 kg) und 3b (20 kg bis 50 kg) ausschließlich von Axis und zu einem kleinen Teil von Muntiacus besetzt werden. Die Klassen 4a und 4b ausschließlich von Cervus. Die einzige von Axis und Cervus besetzte Klasse ist 3c (50 kg bis 100 kg). Anhand dieser aus den Fossilien der Dubois Sammlung gewonnenen Erkenntnisse können nun die Fossilien der von Koenigswald Sammlung beurteilt werden, da diese nicht auf Gattungsniveau bestimmt sind. In beiden Sammlungen liegt der höchste Prozentsatz in der Klasse 3b. Daraus kann man schließen, dass sehr viele Tiere der Gattung Axis vorhanden sind. Die Gattung Cervus hingegen ist nur zu einem recht geringen Prozentsatz vertreten. Diese Verteilung spiegelt sich auch in der Untersuchung der Fundstellen wider. An nur drei der acht untersuchten Fundstellen wurden Tiere der Gattung Cervus gefunden. Ein Vergleich der Körpermassen ergibt keinen signifikanten Unterschied zwischen diesen. Innerhalb der Axis-Hirsche kann man einen Körpermassenunterschied erkennen, der jedoch nicht mit der geographischen Lage der Fundstellen begründet werden kann. Die Untersuchung der Fundstellen aufgrund ihrer Chronologie ergibt keinen signifikanten Unterschied zwischen den Faunenleveln Trinil H.K. und Kedung Brubus. Jedoch ist innerhalb der Faunenlevel eine deutliche Variationsbreite der Körpermasse zu erkennen, welche auf das an den einzelnen Fundstellen herrschende Habitat zurückgeführt werden kann. Die Zuordnung der bisher nicht datierten Fundstellen in die Faunenlevel ist alleine aufgrund der rekonstruierten Körpermassen nicht möglich, jedoch können erste Aussagen über das umgebende Habitat getroffen werden.
Die vorliegende Arbeit umfasst die Rekonstruktion der Körpermasse pleistozäner Rhinocerotidae in Europa und Südost-Asien , hier speziell der Insel Java. Methodisch wird dieses Ziel durch lineare Regressionen nach Janis (1990) verfolgt. Zunächst wird ein Rezentmodell erstellt, das es ermöglicht Körpermasse mit verschiedenen Zahnparametern in Zusammenhang zu bringen. Die aus dem Rezentmodell resultierenden Regressionsgleichungen für jeden Zahn werden dann für die Rekonstruktion fossiler Körpermassen verwendet. Das fossile Zahnmaterial wurde vermessen und die Körpermassen für alle Zahnparameter errechnet. Um einen Vergleich mit veröffentlichten Werten zu ermöglichen, wurde die Körpermasse gleichfalls nach Legendre (1986) ermittelt, welcher eine Formel zur Körpermassenrekonstruktion entwickelte, die heute allgemein Verwendung findet. Um die oftmals sehr großen Schwankungen in der Körpermasse, verursacht durch Ernährungs- und Gesundheitszustand eines Tieres abzufedern, sind die absoluten Werte in Körpermassenklassen eingeteilt. Die ermittelten Körpermassen wurden dann in verschiedenen Zusammenhängen betrachtet und, soweit möglich , Aussagen über Gründe für Veranderungen oder Unterschiede zwischen Messstrecken, Zeiträumen, Habitaten oder auch Spezies genannt.
Die vorliegende Studie dient als Basis einer neuen, zuverlässigen Populationsschätzung von Wildschweinen (Sus scrofa). Nach dem hier entwickelten Feldprotokoll soll Wildschweinkot in ausreichenden Mengen, ausreichend guter Qualität und nicht-invasiv gewonnen werden. Die daraus gewonnen Gewebeproben dienen anschließend als DNS-Quelle für individuelle Erkennung und Markierung der beprobten Tiere. Durch Kenntnis des zum Kot gehörigen Tieres lässt sich ein Fang-Wiederfang-Verfahren simulieren. Ein Sammelverfahren, gegliedert in zwei identische Blöcke zu je sechs Tagen, kombiniert aus Strip-Transekt-Sampling (Buckland 2001) und Adaptive-Sampling (Thompson 1991) führte hierbei zum besten Resultat von 0,48 Funden je abgesuchten Kilometer und 1,04 Funden je aufgewendeter Stunde. Die Untersuchung fand auf einem bewaldeten etwa 40 km2 großen Areal im Pfälzerwald, südlich von Kaiserslautern - südliches Rheinland-Pfalz – statt. Im Rahmen der Untersuchung wurden 1605 km abgesucht und vier verschiedene Transektmodelle getestet. Insgesamt wurden hierbei 268 Kothaufen erfasst, die zusätzlich auf ihre physischen Eigenschaften (Kotgröße, Härtegrad, Konsistenz, Insektenbefall), Lage im Gelände (Verteilung auf Laub-, Nadel- und Mischwälder, sowie auf Geländeneigung, Exposition und Höhenlage) und räumliche Verteilung im Untersuchungsgebiet analysiert wurden. Die Untersuchungen fanden zu verschieden Jahreszeiten (Sommer, Herbst und Winter) statt. Als geeigneter Zeitraum für eine solche Kotsammlung hat sich der Winter herausgestellt, aufgrund der längeren Zersetzungszeit des Kots und der durch den Laubfall bedingten, besseren Sichtverhältnisse. Bei ausreichender Stichprobenzahl des Kots hat es sich zu dem ergeben, dass Rückschlüsse auf die Habitatnutzung des Schwarzwilds anhand der Kotverteilung machbar sind. Eine Interpretation der Populationsstruktur anhand der Kotgröße ist in Ansätzen erkennbar. Ein Vergleich mit den gängigen Bestandesschätzverfahren durch Jagdstrecken und Kotzählungen bestätigt die Tauglichkeit des Feldprotokolls zur Beschaffung von Wildschweinkotmengen, die der Population entsprechen. In zwei von vier Versuchsansätzen konnten entsprechende Kotmengen erfasst werden.
Das Bumpmapping-Verfahren, eine Methode zur realistischen Darstellung rauer Oberflächen, existiert schon seit 30 Jahren, aber erst durch aktuelle Entwicklungen der Hardware lässt es sich in Echtzeitumgebungen einsetzen. Die aktuellen Verfahren ermöglichen viele darüber hinausgehende Effekte, jedoch haben sie auch mit Problemen zu kämpfen. Das Ziel dieser Diplomarbeit ist die Weiterentwicklung der Verfahren zu betrachten. In dieser Arbeit werden die Grenzen der aktuellen Bumpmapping-Algorithmen aufgezeigt und nach neuen Wegen geforscht. Das erste Verfahren erzeugt durch ein Multipassrendern fraktale Landschaften im Shader. Die darin verwendeten Methoden lassen sich für einen weiteren Algorithmus nutzen, mit dem feine Unebenheiten der Oberfläche an jedem Pixel ausgewertet werden. So können anisotrope Materialien wie gebürstete Metalle oder Mikropartikellacke simuliert werden. Den Abschluss bilden zwei neue Verfahren für prozedurale Shader. Die zu imitierende Oberfläche wird im Modell nachgebildet und per Raytracing für jeden Oberflächenpixel ausgewertet. Durch diese Methode werden viele Probleme texturbasierter Verfahren komplett umgangen.
Im Rahmen dieser Diplomarbeit wurde ein Konzept zur Extraktion von semantischen Informationen aus Wiki-Systemen entwickelt. Ausgangspunkt ist die Tatsache, dass in einem Wiki-System eine Reihe von Informationen in strukturierten, semi-strukturierten oder unstrukturierten Texten vorliegen, deren Semantik nicht immer auf den ersten Blick ersichtlich ist. Daher umfasste die Analyse zum einen, welche Informationen explizit und welche implizit vorhanden sind und zum anderen, welche Beziehungen sich aus den gefundenen Informationen ableiten lassen. Dabei handelt es sich beispielsweise um Beziehungen zwischen verschiedenen Seiten oder um Beziehungen zwischen Wörtern. Hierfür wurde eine Schablone definiert, die jede Information, die extrahiert werden kann, im Detail beschreibt. Dies beinhaltet sowohl die Semantik und die Datenquelle, aus der die Informationen extrahiert werden können, als auch eine Anleitung zur Extraktion und die abschließende Darstellung als XML-Element. Da aber nicht jede Information und deren Semantik sicher ist, wird zwischen sicheren und unsicheren Informationen unterschieden. Die Analyse hat allerdings ergeben, dass es eine Reihe an Informationen gibt, denen nicht automatisch eine Semantik zugewiesen werden kann. Außerdem wurden die Gemeinsamkeiten und Unterschiede der verschiedenen Wiki-Systeme analysiert, die für die Entwicklung des Konzeptes notwendig waren. Im Konzept ist die Gesamtarchitektur zur Extraktion von semantischen Informationen enthalten. Zwei Hauptsystemkomponenten waren hierfür notwendig: Wrapper und Mediator. Aufgrund der Unterschiede der Wiki-Systeme, wie beispielsweise die verwendete Programmiersprache, Datenbank oder Datei und Wiki-Syntax, wurde eine Wrapper eingesetzt. Der Mediator dient hingegen als Vermittler zwischen der jeweiligen Anwendung und dem Wiki-System. Durch die prototypische Implementation des Konzeptes ist die Durchführbarkeit bewiesen, bestimmte semantische Informationen zu extrahieren und diese in eine für die Weiterverarbeitung geeignete Form zu bringen. Das heißt, bestimmte Informationen können automatisch oder halb-automatisch in eine semantische Beziehung zueinander gesetzt werden.
Binärsuchbäume sind eine wichtige Datenstruktur, die in der Informatik vielfach Anwendung finden. Ihre Konstruktion ist deterministisch, zur Analyse ihrer Eigenschaften wird aber eine rein zufällige Eingabe zugrundegelegt. Viele Größe, wie z.B. Tiefe, Höhe und Pfadlänge werden seit Jahren viel untersucht. Als besonders interessant hat sich die Analyse des Profils, der Anzahl Knoten einer bestimmten Tiefe herausgestellt. In dieser Arbeit wird ein funktionaler Grenzwertsatz für das am Erwartungswert normierte Profil vorgestellt. Dazu werden unterschiedliche Zugänge gewählt, die hauptsächlich auf dem sogenannten Profil-Polynom beruhen. Zunächst wird ein klassischer Zugang mit Hilfe von Martingalen besprochen. Der diskrete Prozess wird dazu auf kanonische Weise in ein zeitstetiges Modell (Yule-Prozess) eingebettet. Ergebnisse im kontinuierlichen Prozess werden dann durch Stoppen auf den diskreten übertragen. Zudem wird ein neuerer Zugang vorgestellt, der auf der Kontraktionsmethode in Banachräumen unter Verwendung der Zolotarev-Metrik beruht.