Refine
Year of publication
- 2003 (17) (remove)
Document Type
- diplomthesis (17) (remove)
Language
- German (17)
Has Fulltext
- yes (17)
Is part of the Bibliography
- no (17) (remove)
Keywords
- Benachteiligtenförderung (1)
- Coaching (1)
- Collaborative Filtering (1)
- Content-Based Filtering (1)
- Infomediary (1)
- Information Overkill (1)
- Informationsportal (1)
- Informationsüberflutung (1)
- Inhaltsbasiertes Filtern (1)
- Internet (1)
Institute
- Physik (7)
- Informatik (3)
- Gesellschaftswissenschaften (2)
- Mathematik (2)
- Biowissenschaften (1)
- Erziehungswissenschaften (1)
- Geowissenschaften (1)
Im Rahmen dieser Diplomarbeit konnte das Plasmid pB6 isoliert werden, das die MNNG-Hyperresistenz einer rng1-1-Mutante komplementierte. Das komplementierende Gen dieses Plasmids konnte jedoch weder über 17 Subklone noch über Komplementationsanalysen identifiziert werden. Die Sensibilität gegen „Congo red“ konnte als ein weiterer Phänotyp des Stammes Q2rng1 bestimmt werden. Es wurden im Zuge der Subklonierung des Plasmids pB6 pRS424-Derivate gefunden, die unabhängig vom genetischen Hintergrund des transformierten Stammes, heterogenes Wachstum verursachten. Zurückzuführen war dies auf die Überexpression des ORFs YLR112w alleine oder gemeinsam mit dem ORF YLR111w. Neben der bereits beschriebenen MNNG-Hyperresistenz durch die Überexpression von SNG1 in Wildtypen, GSH-Mutanten und Reparaturdefizienten Stämmen, konnte auch in dem bereits gegen MNNG hyperresistenten Stamm Q2rng1 eine Steigerung der Resistenz durch SNG1 gezeigt werden. Des weiteren wurden Anzeichen gefunden, dass die MethioninAuxotrophie des Stammes Q3 auf die Disruption des GSH1-Gens zurückzuführen war. Zudem konnte nachgewiesen werden, dass die funktionierende GSH-Synthese letal auf eine ero1-Delta-Mutante wirkte. Als Auslöser für die Cadmium-Sensibilität der Stämme Q3 und Q4 konnten die bekannten Mutationen dieser Stämme im GSH1- und im LWG1-Gen ausgeschlossen werden.
Immer mehr Hersteller bringen kleine mobile Endgeräte (PDAs1) auf den Markt, die via WLAN2 (IEEE 802.11), Bluetooth oder UMTS3 drahtlos Kontakt mit der Außenwelt aufnehmen können. Dabei werden neben zunehmend höheren Übertragungsraten auch große Fortschritte in der Miniaturisierung erzielt. Viele PDAs besitzen bereits eingebaute Funknetzwerk-Karten, bei vielen läßt sich eine solche Karte einfach zusätzlich in das Gerät einstecken. Durch die steigende Rechenleistung der Geräte und die gleichzeitig steigenden Übertragungsraten der Funkverbindungen entstehen diverse neue Anwendungsmöglichkeiten, die allerdings noch wenig ausgenutzt werden. Es überwiegen die Standardaufgaben der PDAs, wie die Termin und die Adressenverwaltung. Ein eventuell vorhandener Zugang zu Netzwerken wird meist ebenfalls nur für Standardanwendungen verwendet, wie z.B. die Synchronisation von Daten mit einem Server, der Zugang zum World Wide Web oder zum Versenden von e-Mails. Der herkömmliche Zugang zu Netzwerken ist meist ortsgebunden. Im sogenannten Infrastruktur-Modus ist man auf eine Basisstation (Access-Point) angewiesen. Bewegt man sich in Bereichen, in denen kein solcher Access-Point zur Verfügung steht, kann eine Netzwerkverbindung nicht hergestellt werden. Die Mobilität des Benutzers ist auf die Funkreichweite seines Geräts zu dieser Basisstation beschränkt. Die Bezeichnung „mobil“ trifft also nur auf das Endgerät, nicht auf die Basisstation zu. Genutzt werden üblicherweise die gleichen Dienste wie in einem kabelgebundenem Netz, nämlich Server des Intra-, bzw. Internets. Die eigenständige Vernetzung mobiler Geräte untereinander, der sogenannte Ad-hoc-Modus, eröffnet neuartige Anwendungsgebiete. Ursprünglich dafür gedacht, zwei Stationen schnell und einfach über Funk miteinander zu verbinden, können durch eine Erweiterung beliebig viele Stationen zu einem spontanen und mobilen Netzwerk zusammengefaßt werden (mobiles Ad-hoc Netzwerk, MANET). Eine zentral verwaltete Infrastruktur entfällt dabei vollständig. Die Aufgaben des Routings muß jede einzelne der beteiligten Stationen übernehmen. Auf diese Weise erhöht sich die Funkreichweite aller beteiligten Stationen, da nicht ein zentraler Access-Point, sondern jeder beliebige Teilnehmer in Reichweite den Zugriff auf das Netzwerk ermöglicht. Es muß dabei allerdings davon ausgegangen werden, daß sich die Stationen in einem solchen Netz ständig bewegen, das Netz verlassen oder neu hinzukommen können. Somit verändert sich andauernd die Netzwerktopologie und ein kontinuierliches und selbstständiges Neuorganisieren des Netzes wird notwendig. Man spricht daher von selbstorganisierenden mobilen Netzen. Der Informationsfluß in Ad-hoc Netzen ist üblicherweise ein anderer als in Festnetzen. Es entsteht eine eher interessensbezogene Kommunikation, weniger eine, die auf dem Wissen von bekannten Endpunkten im Netzwerk basiert. In Ad-hoc Netzwerken können Endpunkte und Adressen aufgrund der sich permanent ändernden Nutzerzusammensetzung naturgemäß nicht bekannt sein. Stattdessen gibt jeder Nutzer Informationen über seine Interessen und seine Angebote im Netzwerk bekannt. Findet sich ein zu diesem Interessensprofil passendes Angebot, so kommt eine Verbindung zustande. Die Flexibilität der PDAs, ihre Mobilität und ihre ständig steigende Leistung lassen die Entwicklung von mobilen Ad-hoc-Anwendungen sinnvoll erscheinen. MANET Netzwerke sind in ihrer Auslegung flexibel und schnell, genau so, wie es die modernen PDAs sind. Es eröffnet sich durch durch beides eine große Zahl neuer und innovativer Anwendungsmöglichkeiten. Eine davon, das so genannte E-Learning, soll im Folgenden näher betrachtet werden. E-Learning ist ein Beispiel für eine Anwendung in Ad-hoc Netzen, die besonders geeignet erscheint, die Beweglichkeit ihrer Anwender in vielerlei Hinsicht zu unterstützen. Durch die Eigenschaft, geeignete Kollaborationspartner und Informationen schnell und gezielt im Netzwerk finden zu können, wird ein spontaner Wissensaustausch über die bisher bestehende Grenzen hinaus möglich. Es werden im Rahmen dieser Diplomarbeit Mechanismen behandelt, die dem Anwender die Nutzung von kollaborativen Anwendungen wie dem E-Learning ermöglichen und ihn bei dessen Nutzung unterstützen sollen.
Die Frage, ob das Klima extremer wird, beschäftigt Wissenschaft und Öffentlichkeit mit zunehmender Intensität. Daher ist hier eine extremwertstatistische Untersuchung hinsichtlich Niederschlag und Temperatur durchgeführt worden. Dabei werden, entsprechend IPCCEmpfehlungen, für die untersuchten Zeitreihen obere und untere Schwellenwerte festgelegt. Durch Auszählen kann dann ermittelt werden, wie oft die entsprechende Schranke über- oder unterschritten wurde (relativer Extremwert). Das Verhältnis der Anzahl der relativen Extremwerte zu den Gesamtwerten nennt man empirische Extremwerthäufigkeit. Darüber hinaus wurden Häufigkeitsverteilungen an die Datensätze angepasst, aus denen vorher der Jahresgang eliminiert wurde. Über diese Häufigkeitsverteilungen bestimmt man die theoretische Über- oder Unterschreitungswahrscheinlichkeit der jeweiligen Schranke, und vergleicht diese mit der empirischen. Diese Daten bieten auch die Möglichkeit, weitere wahrscheinlichkeitstheoretische Größen (Risiko, Wartezeitverteilung, Wiederkehrzeit) zu bestimmen. Das Verfahren wird auf 78 100-jährige Zeitreihen des Niederschlags und 10 100-jährige Zeitreihen der Temperatur in Deutschland angewendet. Dabei ist zu beachten, dass eine Übereinstimmung von empirischen und theoretischen Ergebnissen nur im statistischen Mittel zu erwarten ist. Die Untersuchungen zeigen, dass die ersten 10 bis 15 Jahre des letzten Jahrhunderts, sowohl bei den Niederschlägen als auch bei der Temperatur, nicht so extrem gewesen sind wie der Rest des Jahrhunderts. Bei den Niederschlagsdaten zeigt sich darüber hinaus um die Jahrhundertmitte ein etwa 10-jähriger Zeitraum mit hoher Niederschlagsvariabilität. Für die Abschätzung der Wahrscheinlichkeit des Überschreitens von Schranken bei Niederschlagsdaten ist die angepasste Gumbelverteilung am besten geeignet. Der Unterschied zu den anderen angepassten Verteilungen ist um so klarer, je höher die Schranke gewählt wird. Für die Abschätzung der Wahrscheinlichkeit des Unterschreitens von Schranken bei Temperaturdaten ist die angepasste Weibullverteilung am besten geeignet. Kein klares Bild ergibt sich bei den Kombinationen untere Schranke und Niederschlagsdaten sowie obere Schranke und Temperaturdaten. Die Abschätzung der Eintrittswahrscheinlichkeit und damit verbunden die Bestimmung der Wiederkehrzeit und des Risikos ist in allen Fällen um so besser, je geringer der Jahresgang der Variabilität der untersuchten Größe ist. Beim Trend der Wiederkehrzeit zeigt sich bei den Niederschlagsdaten und der unteren Schranke im äußersten Westen Deutschlands ein Rückgang trockener Ereignisse. Ansonsten erkennt man nur schwache Änderungen. Für obere Schranken zeigt sich im Westen Deutschlands ein Rückgang der Wiederkehrzeit, also ein Trend zu häufigeren extremen Niederschlägen, mit einem Maximum im östlichen Nordrhein-Westfalen. Im Osten dagegen ermittelt man einen Rückgang extremer Niederschläge und damit einen Trend zu trockenerer Witterung, am stärksten ausgeprägt im westlichen Erzgebirge. Für die Temperaturdaten zeigt sich in fast ganz Deutschland für untere Schranken ein Anstieg der Wiederkehrzeit. Extrem niedrige Temperaturen treten also tendenziell seltener auf. Die Ausnahme bilden hier nur, je nach zugrunde liegender Verteilung, der (äußerste) Norden und Osten Deutschlands. Die gleiche geographische Unterteilung, jedoch mit umgekehrtem Trend, zeigt sich bei den oberen Schranken. Extrem warme Ereignisse treten, mit Ausnahme des Nordostens, tendenziell häufiger auf. Die stärkste Zunahme im Trend der warmen Ereignisse zeigt sich dabei im Südwesten Deutschlands.
Mit dem World Wide Web sind der Bestand und die Verfügbarkeit von Informationen rapide angewachsen. Der Einzelne hat Schwierigkeiten, der Menge an Informationen und Wissen Herr zu werden und so der Informationsüberflutung zu begegnen. Dieses Problem wurde von Forschern und Technikern bereits frühzeitig erkannt und durch verschiedene Konzepte wie die intelligente Suche und die Klassifikation von Informationen zu lösen versucht. Ein weiteres Konzept ist die Personalisierung, die das bedarfsgerechte Zuschneiden von Informationen auf die Bedürfnisse des einzelnen Anwenders zum Ziel hat. Diese Arbeit beschreibt dazu eine Reihe von Personalisierungstechniken und im Speziellen das Kollaborative Filtern als eine dieser Techniken. Bestehende Schwächen des Kollaborativen Filterns wie zu dünn besetzte Benutzerprofile und das mangelnde Erkennen von Änderungen im Benutzerinteresse im Verlauf der Zeit werden durch verschiedene Ansätze zu entschärfen versucht. Dazu wird eine Kombination mit Inhaltsbasierten Filtern und die Verbreiterung der Datenbasis bewerteter Ressourcen betrieben. Ziel ist die Optimierung der Personalisierung, so dass Anwender besser auf sie abgestimmte Informationen erhalten. Ein Teil der beschriebenen Ansätze wird zudem in einem prototypischen Informationssystem umgesetzt, um die Machbarkeit und den Nutzen zu prüfen. Dazu werden der auf der Java 2 Enterprise Edition aufbauende WebSphere Applikationsserver von IBM und die relationale Datenbank DB2 UDB aus gleichem Hause eingesetzt.
Mit dem Ende des Kalten Krieges hat sich für viele Beobachter der Abschied von der klassischen Allianzpolitik endgültig vollzogen. Ein Jahrhundert nach der großen Ära europäischer Gleichgewichtspolitik, nach zwei Welt(koalitions)kriegen und dem Ost-West-Gegensatz als einer Bündniskonfrontation radikalster Ausprägung, scheint die Weltpolitik endlich "im Umbruch" begriffen. Der Niedergang des Warschauer Paktes und der Triumph des demokratischen Modells des Westens könnte so mit dem "Ende der Geschichte" auch das Ende der Allianzen eingeläutet haben. In der Tat lässt sich auch bei der letzten verbliebenen großen Allianz, der NATO, nach dem notwendigerweise vollzogenen Funktionswandel nun letztlich doch ein Bedeutungsverlust verzeichnen. Als exemplarisch für diese Entwicklung mag die Reaktion des Bündnisses auf die Terroranschläge vom 11. September 2001 gelten: Nachdem die Allianz erstmals in ihrer Geschichte den Bündnisfall erklärt hatte, blieb sie schon im Afghanistankrieg als Organisation unbeteiligt. ...
Ein Schwerpunkt der physikalischen Fragestellungen, die zur Entwicklung des Dileptonenspektrometers HADES führten, ist die präzise Vermessung des invarianten Massenspektrums von Dileptonen, die in zentralen Reaktionen von relativistischen Schwerionen entstehen. In den Spektren sind die leptonischen Zerfälle der Vektormesonen enthalten. Aus Position und Breite der entsprechenden Signale kann auf eine mögliche Veränderung der Eigenschaften von Vektormesonen im dichten und heißen Kernmedium geschlossen werden. Für die Rekonstruktion der Teilchentrajektorien der Elektronen und Positronen werden die Vieldraht-Driftkammern verwendet, und unter Berücksichtigung des Magnetfelds kann der Teilchenimpuls mit hoher Genauigkeit bestimmt werden. Die hohe Impulsauflösung gepaart mit einer großen Akzeptanz und einem effektiven Trigger, ist eine notwendige Voraussetzung für das Studium von Dileptonen im SIS Energiebereich 1-2 GeV per Nukleon. Eine Flugzeitwand ermittelt über die Teilchenmultiplizität die Zentralität des Stoßes und hilft mittels der Flugzeit bei der Identifikation von Teilchen, insbesondere der Hadronen. Elektronen werden mit Hilfe spezieller Detektoren (Ringabbildender Cherenkov Detektor und Schauerdetektor) identifiziert. Ein effizientes Triggerkonzept zusammen mit einer innovativen Datenaufnahme ermöglicht, solche Ereignisse, in denen sich Dileptonenkandidaten befinden, schnell zu erkennen und dann zu registrieren, um so in kurzer Zeit eine hinreichende Statistik an Dileptonen zu erhalten. Im Rahmen dieser Forschungsarbeiten war das Ziel der Diplomarbeit, die Untersuchung des Ansprechverhaltens der Driftkammern auf Myonen aus der kosmischen Höhenstrahlung und deren Positionen relativ zur Flugzeitwand zu bestimmen. Da die Myonen aus der kosmischen Höhenstrahlung ähnliche Signale in den Vieldraht-Driftkammern hervorrufen wie die in den Schwerionenreaktionen produzierten minimal ionisierenden Teilchen, war es möglich, unabhängig von Strahlzeiten das Ansprechverhalten der Vieldraht-Driftkammern zu untersuchen. Um dieses zu erforschen, wurde zunächst ein spezieller Trigger aufgebaut, der auf Koinzidenzen von gegenüberliegenden Flugzeitwand-Sektoren beruht. So konnte das Durchqueren eines Myon-Kandidaten durch das Spektrometer registriert, und die Teilchentrajektorie vom Ein- bis zum Austritt aus diesem nachvollzogen werden. Die primären Messgrößen, wie die Driftzeiten, und die Korrelation zwischen den Driftkammern und der Flugzeitwand, wurden untersucht und mit Daten aus dem Strahlzeit-Experiment vom November 2001 C+C bei 1,9 GeV per Nukleon verglichen. Weiterhin wurde nach Entwicklung einer Myonen-Kandidatensuche die Effizienz der Driftkammern analysiert. Dabei stellte sich heraus, dass die Driftkammerebenen des Sektors 1 eine Nachweiswahrscheinlichkeit für kosmische Myonen von über 93% aufzeigen. Eine Optimierung der Methode hinsichtlich der Ortsauflösung und Korrelationen zu anderen Drahtebenen oder Driftkammern anderer Ebenen kann in Zukunft in Angriff genommen werden. Da die Intensität der Myonen gering ist, und sie in den meisten Fällen das Spektrometer auf geraden Bahnen durchqueren, sind Vieldeutigkeiten minimiert. So war es möglich, die Positionen der Driftkammern relativ zur Flugzeitwand mit einer Genauigkeit, die durch die Ortsauflösung der Szintillatoren der Flugzeitwand dominiert ist, zu ermitteln. Im Vergleich zu den Standard-Justierungsparametern ergeben sich Abweichungen von bis zu 37,73 mm für die Relativpositionen der Vieldraht-Driftkammern im Vergleich zur Flugzeitwand mit einer Ungenauigkeit von maximal ±7 mm. Um die für das invariante Massenspektrum der Dileptonen notwendige Massenauflösung zu erreichen, wird empfohlen, die Relativpositionen der Driftkammern zueinander und zum Magnetfeld zu bestimmen. Hierfür muss die exakte Ortsinformation des Durchstoßpunktes des Myons auf die Driftkammer über eine Anpassung der Trajektorie berechnet werden. Daraufhin können die Positionen der Driftkammern relativ zueinander mit einer Genauigkeit von < 100 mm ermittelt werden.
Kulturelle Bedeutungen und zivilreligiöse Vorstellungen in der amerikanischen Sicherheitspolitik
(2003)
Gleichgewichte auf Überschussmärkten : Theorie und Anwendbarkeit auf die Regelenergiezone der RWE
(2003)
Diese Version entspricht im wesentlichen der begutachteten Version bis auf die Kürzung von Satz 3.3.1 um einen für den Rest unbedeutenden Teil. Das Ziel folgender Arbeit ist es, mit einem intuitiven Ansatz eine spezielle Wettbewerbsform zweier interagierender Märkte zu modellieren und anschließend zu analysieren. Abschließend werden die theoretischen Ergebnisse mit den Beobachtungen an einem existierenden Markt - dem deutschen Energiemarkt - verglichen. In dieser behandelten Wettbewerbsform wird ein nicht lagerbares Gut an zwei aneinander gekoppelten Märkten gehandelt. Während Handel und Preisfindung am ersten Markt den üblichen Gepflogenheiten folgen, müssen alle Teilnehmer sämtliche Güter, welche nicht unmittelbar nach Lieferung verbraucht werden, am zweiten Marktplatz (dem Überschussmarkt) gegen ein gewisses Entgelt zur Verfügung stellen. Alle Teilnehmer, welche nicht genügend Güter am ersten Markt geordert haben, werden auf dem Überschussmarkt zu einem gewissen Preis mit der noch benötigten Menge versorgt. Einem Marketmaker auf dem zweiten Marktplatz fällt die Aufgabe zu, einen Preis festzustellen, zu dem diejenigen entschädigt werden, welche ihre Überschüsse zur Verfügung stellen müssen bzw. den diejenigen zu bezahlen haben, deren Gütermangel ausgeglichen wird. Weiterhin stellt dieser sicher, dass zu jedem Zeitpunkt genügend Güter vorhanden sind, so dass der Bedarf aller Teilnehmer zu jedem Zeitpunkt sichergestellt ist. Ziel ist es nun herauszufinden, welche gewinnmaximierenden Einkaufsstrategien die Marktteilnehmer verfolgen sollten und welche Konsequenzen sich daraus auf den deutschen Energiemarkt ableiten lassen.
Die Motivation dieser Diplomarbeit bestand darin, die Unterschiede zwischen der 2SC-< ud >-farbsupraleitenden und der normalleitenden Phase der Quarkmaterie aufzuzeigen und die Auswirkungen der 2SC-< ud >-farbsupraleitenden Phase auf Quarksterne zu untersuchen. Dabei sollte festgestellt werden, wie groß der farbsupraleitende Gap sein muß, damit sich die Eigenschaften der Quarksterne merklich ändern. Dazu wurde die Kopplungskonstante variiert. Die Ergebnisse aus Kapitel 5 lassen sich somit zu folgenden Resultaten zusammenfassen: Die 2SC-< ud >-farbsupraleitende wird immer der normalleitenden Phase der Quarkmaterie vorgezogen, weil sie energetisch günstiger ist. Zudem muß die Quarkmaterie neutral sein, denn sonst würde sie wegen der abstoßenden Coulombkraft nicht stabil sein und die Quarksterne würden explodieren. 2SC-< ud >-farbsupraleitende Quarkmateriemit freien, massiven strange Quarks besitzt den höchsten Druck bei gegebenem quarkchemischen Potential und ist damit am meisten bevorzugt vor allen anderen in dieser Diplomarbeit betrachteten Quarkmateriephasen. Durch das Einführen des farbchemischen und elektrischen Potentials wird die 2SC-< ud >- farbsupraleitende Quarkmaterie neutralisiert. In der 2SC-< ud >-farbsupraleitenden Phase ohne strange Quarks werden jedoch so viele Elektronen zur Neutralisation benötigt, daß der farbsupraleitende Gap erheblich verringert wird. Die 2SC-< ud >-farbsupraleitende Phase mit freien, massiven strange Quarks wird gegenüber der 2SC-< ud >-farbsupraleitenden Phase ohne strange Quarks energetisch bevorzugt, weil erstere nicht so viele Elektronen zur Neutralisation benötigt, da diese Aufgabe hauptsächlich von den strange Quarks übernommen und dadurch der Gap nicht so erheblich reduziert wird. Zudem kommt noch der freie strange Quarkdruck hinzu, der diesen Zustand energetisch begünstigt. 2SC-< ud >-farbsupraleitende Quarksterne ohne strange Quarks besitzen einen maximal 122 Meter kleineren Radius und eine maximal 0.016 M⊙ kleinere Masse als normalleitende Quarksterne ohne strange Quarks. 2SC-< ud >-farbsupraleitende Quarksterne mit strange Quarks besitzen einen maximal 72 Meter kleineren Radius und eine maximal 0.023 M⊙ kleinere Masse als normalleitende Quarksterne mit strange Quarks. Erhöht man den farbsupraleitenden Gap, dann werden die Quarksterne größer und schwerer. Vergrößert man die Kopplungskonstante um das 1.5-fache des angegebenen Referenzwertes (5.2), dann ungefähr verdoppelt sich der farbsupraleitende Gap. Ein Quarkstern mit strange Quarks weist dann eine Radiusdifferenz von einem Kilometer und eine Massendifferenz von 0.31 M⊙ zu einem Quarkstern mit normalleitender Phase auf. Durch Verringern des Referenzwertes der Kopplungskonstante wird auch der farbsupraleitende Gap reduziert und es treten so gut wie keine Unterschiede mehr zur normalleitenden Phase des Quarksterns auf.
Um, mit Simulationsexperimenten, den Einfluß des Strahlprofils auf die Pellet- bzw. Targetdynamik bei der Trägheitseinschlussfusion mit Schwerionenstrahlen zu untersuchen, wurde der Simulationscode MULTI2D so modifiziert, daß eine Darstellung der Energiedeposition in zwei kartesischen Koordinaten möglich ist. Für die Simulationen wurde die Strahl-Target-Kombination von V. Vatulin, O. Vinokurov und N. Riabikina, “Investigation of the Dynamics of Solid Cylindrical Targets Illuminated by Ion Beams with Elliptic Cross Section“, aus dem GSI Report High Energy Density in Matter Produced by Heavy Ion Beams (GSI-99-04), verwendet. Die in der Arbeit von Vatulin et al. verwendeten Strahlparameter, beziehen sich auf ein an der GSI in Darmstadt in Planung befindliches Ionen- und Antiprotonensynchroton mit wesentlich höherer Strahlleistung als beim gegenwärtigen Schwerionensychrotron SIS. Um eine ausreichend hohe Auflösung zu erhalten, wurde für die Target-Simulation in MULTI2D ein Lagrange-Gitter mit 43200 Gitterpunkten ausgewählt. Als erstes wurden umfangreiche Untersuchungen der Entwicklung der Temperatur, des Drucks, der Geschwindigkeit und der Dichte der Volumenelemente des Targets durchgeführt. Hierzu wurden zweidimensionale Targetschnitte dieser Größen zu bestimmten Zeiten, ortsaufgelöste Darstellungen dieser Größen entlang einer kartesischen Achse des Targetschnitts zu ausgewählten Zeiten, und zeitaufgelöste Darstellungen dieser Größen an bestimmten Orten des Gitters, bzw. in bestimmten Volumenbereichen des Targets angefertigt. Sowohl bei Bestrahlung mit radialsymmetrischem Hohlstrahl, als auch bei Bestrahlung mit elliptischem Hohlstrahl, werden innerhalb von 20 ns 1.4 MJ/g deponiert. Während und nach der Energiedeposition breitet sich eine Kompressionswelle sowohl in Richtung Targetzentrum als auch in Richtung Targetperipherie aus. ~ 25 ns nach Beginn der Energiedeposition erreichen Temperatur und Druck ihren Maximalwert im Zentrum des Targets. Der Radius des Gebiets maximalen Drucks vergrößert sich innerhalb der nächsten 2 ns auf ~6 x 10 exp -3. Die Kompressionswelle breitet sich langsamer in Richtung Targetzentrum aus, als der Druck und die Temperatur. Wegen des hohen Drucks im Zentrum, befindet sich der Ort maximaler Dichte nicht im Targetzentrum, ~ 24,5 ns nach Strahlungsbeginn einen Ring hoher Dichte um das Zentrum herum. Kurz darauf, ~24,6 ns nach Strahlungsbeginn, bildet sich, ausgelöst durch das Zusammentreffen der Dichtewelle im Targetzentrum, ein kleinerer Ring hoher Dichte um das Targetzentrum herum. Bereits nach 24.75 ns, also nur 0.2 ns nach dem Zusammentreffen der Materie im Zentrum, ist die Dichte in diesem Ring höher als im weiter vom Targetzentrum entfernt liegenden Ring hoher Dichte. Dies gilt sowohl für die Bestrahlung mit radialsymmetrischem Hohlstrahl, als auch für die Bestrahlung mit elliptischem Hohlstrahl. Die Maximalwerte der Größen Temperatur, Druck und Dichte im Target liegen bei Bestrahlung mit elliptischem Hohlstrahl bis zu 20% unter denen bei Bestrahlung mit radialsymmetrischem Hohlstrahl. Die Dichten im Ring maximaler Dichte liegen bei Bestrahlung mit radialsymmetrischem Hohlstrahl bei~ 160 g/ccm, bei Bestrahlung mit elliptischem Hohlstrahl knapp darunter. Das maximale Achsenverhältnis lag bei (1:2.25), bei größeren Achsenverhältnisen wird die weniger dichte Substanz im Zentrum des Pellets so ungleichmäßig komprimiert, das es vorzeitig zu einer Vermischung des Treibers im Pelletzentrum mit dem Pelletmantel kommt, so daß der Treiber nicht ausreichend komprimiert wird. Die theoretische Untersuchung, welchen Einfluss das Strahlprofil auf die Targetkompression hat ist von großer Bedeutung, weil der Transport und die Fokussierung von Schwerionenstrahlung so hoher Intensität, wie sie für eine Targetkompression mit Fusionsbrennen nötig sind, sehr schwierig und noch nicht Stand der Technik ist. Sollte durch andere Arbeiten bestätigt werden, daß bei direkter Bestrahlung eines Hohltargets, bzw. eines Targets mit einem Mantel aus relativ dichtem Material und einem weniger dichten Treiber im Targetzentrum, mit einem Schwerionen-Hohl-Strahl, das Maximum der Druckwelle das Zentrum nicht erreicht, und somit ein Ring bzw. eine Hohlkugel maximalen Drucks um das Zentrum herum gebildet wird, hätte das, falls diese Technik zur Anwengung kommt, Konsequenzen für die Kompressionsdynamik eines realen Pellets. Möglicherweise wird nach der Zündung des Plasmas ein größerer Teil des Treibstoffs schneller verbrannt werden als bei einer Zündung im Pelletzentrum, außerdem könnte sich die Lebensdauer des Pellets erhöhen. Dies hätte für den Fall der direkten Bestrahlung eines Hohltargets mit einem Schwerionen-Hohl-Strahl eine Änderung des rho-R-Kriterium zur Folge, das Pellet müsste nicht so stark komprimiert werden wie bisher vermutet, so daß die technischen Voraussetzungen für ein Fusionsbrennen vieleicht schneller realisiert werden können, als bisher angenommen.
Diese Arbeit beschäaftigt sich mit den Eigenschaften dynamischer Systeme, die in Form von autonomen Differentialgleichungen vorliegen. Genauer: Das Langzeitverhalten dieser dynamischen Systeme soll untersucht werden. Es läßtt sich beschreiben durch für das jeweilige System charakteristische Mengen, die attrahierenden Mengen und deren Einzugsbereiche. Attrahierende Mengen sind bezüglich eines dynamischen Systems invariante Mengen, die Trajektorien des dynamischen Systems, die in ihrer Umgebung starten, anziehen. Der Einzugsbereich einer attrahierenden Menge ist die Menge aller Punkte, die von der attrahierenden Menge angezogen werden. Betrachtet werden Systeme, die von einer Eingangsfunktion abhängen. Diese Eingangsfunktion kann je nach Zusammenhang eine Störung des dynamischen Systems oder eine Kontrolle desselben darstellen. Werden Störungen betrachtet, so sind Eigenschaften des dynamischen Systems, die für alle Eingangsfunktionen gelten, zu untersuchen. Diese werden in dieser Arbeit als starke Eigenschaften bezeichnet. Werden Kontrollen betrachtet, sind Eigenschaften des dynamischen Systems, die nur für mindestens eine Eingangsfunktion erfüllt sind, zu untersuchen. Sie werden hier als schwache Eigenschaften bezeichnet. Man betrachte beispielsweise einen Punkt, der zu einer invarianten Menge gehört. Zu jeder Eingangsfunktion gibt es eine zugehörige Trajektorie, die an diesem Punkt startet. Starke Invarianz bedeutet, daß keine dieser Trajektorien jemals die invariante Menge verläßt, schwache Invarianz, da mindestens eine dieser Trajektorien niemals die invariante Menge verläßt. Der Schwerpunkt dieser Arbeit liegt auf der Untersuchung der schwachen Einzugsbereiche. Sie lassen sich nur in Ausnahmefällen durch theoretische Überlegungen finden. Daher ist es von Nutzen, diese Mengen numerisch zu berechnen. Hier soll deshalb die benötigte Theorie bereitgestellt werden, um schwache Einzugsbereiche mit einem Unterteilungsalgorithmus anzunähern. Ein Unterteilungsalgorithmus dient allgemein dazu, innerhalb einer vorgegebenen Grundmenge eine Menge, die eine bestimmte Eigenschaft hat, zu finden. Die Idee eines solchen Algorithmus ist es einfach, die Grundmenge in "Zellen" zu unterteilen und für jede dieser Zellen zu prüfen, ob sie ganz, gar nicht oder teilweise zur gesuchten Menge gehört. Gehört eine Zelle nur teilweise zur gesuchten Menge, so wird sie weiter unterteilt und für die "Teilzellen" erneut entschieden, ob sie zur gesuchten Menge gehören. Für die Berechnung eines schwachen Einzugsbereiches bedeutet dies, daß für jede Zelle überprüft werden muß, ob es eine Kontrollfunktion gibt, mit deren Hilfe Trajektorien der betrachteten Differentialgleichung, die innerhalb der Zelle starten, in eine gegebene schwach attrahierende Menge (bzw. eine passend gewählte Umgebung dieser Menge) gesteuert werden können.
Aufbau eines Experimentes zur Untersuchung der Ionenstrahlkühlung mit Hilfe eines HF-Quadrupols
(2003)
Die Arbeit beschreibt ein Experiment zur Kühlung eines 40Ar-Ionenstrahls mittels eines 4He-Hintergrundgases innerhalb eines unmodulierten RF-Quadrupols von 500 mm Länge. Ziel des Experimentes war es, den Einfluss der Gaskühlung auf die Qualität von Ionenstrahlen geringer Energie und Intensität zu untersuchen. Die Ionen wurden bei unterschiedlichen Spannungen aus einem Duoplasmatron extrahiert und vor der Injektion in den Quadrupol durch ein elektrostatisches Linsensystem formiert. Die Stromstärke der Strahles wurde mittels einer Faradaytasse gemessen, die mit einer Sekundärelektronen unterdrückenden Repellerblende ausgestattet ist. Der Einfluß der variierten Parameter Hintergrundgasdruck, Quadrupolfrequenz und Strahlenergie auf die Qualität des Strahls wurde dabei nicht direkt über dessen, die Phasenraumverteilung beschreibende, Emittanz gemessen, sondern über die Veränderung der registrierten Strahlstromstärken an einer Blende konstanter Apertur, also der Brillanz abgeleitet. Vorbereitend wurden zunächst Duoplasmatron und Injektionssystem überholt, aufgebaut und mit der nötigen Energie- und Kühlversorgung ausgerüstet. Im anschließenden Testlauf mit ungekühlten Heliumionen wurden die einzustellenden Werte der Betriebsparameter Quellendruck und diverse Blendenspannungen ermittelt und das System auf seine der Reproduktion dienenden Stabilität geprüft. Dabei wurden im Dauerbetrieb Strahlstromstärken von 0,29 mA bei 1 keV/u und 0,02 mA bei 0,15 keV/u Strahlenergie erzielt. Mittels der bekannten Emittanz des Helium-Strahls bei 1 keV/u Energie und 0,25 mA Strahlstromstärke wurde die jeweilige normierte Emittanz der noch ungekühlten Strahlen auf 2,18*10-2 im ersten und 1,61*10-2 im zweiten Fall abgeschätzt. Zur Gaskühlung wurde ein Quadrupol mit 10 mm Apertur- und 7,5 mm Elektrodenradius gefertigt und mit einem Phasentrenner gekoppelt. Ein Breitbandgenerator und -Verstärker dienten der frequenz- und spannungsvariablen Elektrodenbelegung. Der Hintergrundgasdruck wurde mittels einem handelsüblichen Regelventil variiert. Um der ein großes Masseverhältnis von Strahlionen zu Hintergrundgas fordernden Theorie Rechnung zu tragen, wurden Argon als Ionen und Helium als Buffergas gewählt. Einer eingehenden Untersuchung der Auswirkung der einzelnen Komponenten und ihrer Kombination auf die Eigenschaften des Ionenstrahls folgte eine schrittweise Variation von Quadrupolfrequenz und Hintergrundgasdruck im Bereich 1-5 MHz und 9*10-6 - 4*10-3 mbar bei den Strahlenergien 15, 25 und 80 eV/u. Die hierbei gemessenen Strahlstromstärken wurden über die frequenzabhängige Elektrodenspannung normiert und mit der Stärke der ungekühlten Strahlen verglichen. Bei 15 eV/u Strahlenergie konnte die gemessene Maximalstromstärke um 43 % von 0,014 µA/V ungekühlt auf 0,02 µA/V bei 1*10-4 mbar Hintergrundgasdruck gesteigert werden. Die Strahlstromstärke des Strahles mit 25 eV/u Energie wurde von 0,045µA/V des ungekühlten auf 0,1 µA/V bei ca. 6*10-5 mbar verdoppelt. Bei 80 eV/u Energie blieb die Strahlstromstärke mit 0,35 µA/V unverändert, jedoch wurde im gesamten Bereich zwischen 2*10-5 und 3*10-5 mbar und 3,4 - 4,6 MHz mit annähernd konstanten 0,28 µA/V ein Plateau hoher Strahlstromstärke registriert, dem etwa 0,06 µA/V im ungekühlten Strahl entgegenstehen. Ein weniger stark ausgeprägtes Analogon wurde bei 15 eV/u im Frequenzbereich um 3,5 MHz beobachtet. In zwei von drei Fällen konnte im Experiment die Strahlstromstärke durch die Gaskühlung deutlich gesteigert werden, im dritten Fall wurde die Zahl der transportierten Ionen in einem zuvor ungeeigneten Frequenzbereich um den Faktor 4,5 gesteigert. Durch die Beziehung zwischen Strahlstromstärke I, Strahlbrillanz B und Strahlemittanz ε mit I~B~1/ε2 kann abschließend eine Verminderung der Strahlemittanz durch die Gaskühlung festgestellt werden. Die durchgeführten Experimente haben gezeigt, daß man bei niedrigen Strahlenergien einfach geladene Ionen bei relativ hohem Gasdruck und geeigneten Parametern des Quadrupols transportieren und die Emittanz des Strahls verbessern kann. Die Kombination von Quadrupol und Buffergas stellt also ein System dar, das als Gaskühler bei kleinen Strömen von Niedrigenergiestrahlen eingesetzt werden kann. Als nächstes würde zur weitergehenden, jedoch den Rahmen dieser Arbeit übersteigenden Untersuchung ein technisch und finanziell aufwändigerer Aufbau benötigt. Das benutzte Linsensystem würde durch ein auf die Ionensorte speziell abgestimmtes Injektionssystem und die Faradaytasse durch eine rechnergesteuerte, orts- und winkelauflösende Emittanzmessanlage ersetzt. Die somit erhaltene höhere Auflösung des Strahles würde den Übergang von der vorliegenden qualitativen Beschreibung der Gaskühlung zu einer quantitativen ermöglichen.
Suche im Semantic Web : Erweiterung des VRP um eine intuitive und RQL-basierte Anfrageschnittstelle
(2003)
Datenflut im World Wide Web - ein Problem jedes Internetbenutzers. Klassische Internetsuchmaschinen sind überfordert und liefern immer seltener brauchbare Resultate. Das Semantic Web verspricht Hoffnung - maßgeblich basierend auf RDF. Das Licht der Öffentlichkeit erblickt das Semantic Web vermutlich zunächst in spezialisierten Informationsportalen, so genannten Infomediaries. Besucher von Informationsportalen benötigen eine Abfragesprache, welche ebenso einfach wie eine gewöhnliche Internetsuchmaschine anzuwenden ist. Eine derartige Abfragesprache existiert für RDF zur Zeit nicht. Diese Arbeit stellt eine neuartige Abfragesprache vor, welche dieser Anforderung genügt: eRQL. Bestandteil dieser Arbeit ist der mittels Java implementierte eRQL-Prozessor eRqlEngine, welcher unter http://www.wleklinski.de/rdf/ und unter http://www.dbis.informatik.uni-frankfurt.de/~tolle/RDF/eRQL/ bezogen werden kann.
Im Rahmen dieser Diplomarbeit sind Ladungsfluktuationen bei Kollisionen von Blei-Kernen bei den Energien 30, 60, 80 und 160 GeV untersucht worden. Das Interesse an den Ladungsfluktuationen beruht darauf, dass sie einen Hinweis auf die Bildung des Quark-Gluon-Plasmas liefern könnten. Im ersten Teil der Arbeit werden mit Hilfe von einfachen Modellen zwei Variablen untersucht, D-tilde und DeltaPhiq, um die optimale Observable zur Messung der Ladungsfluktuationen zu finden. Im zweiten Teil werden experimentelle Resultate präsentiert, die aus den Daten des CERN-SPS-Experimentes NA49 gewonen wurden. Die gemessenen Ladungsfluktuationen entsprechen denen, die von einem Pionen-Gas erwartet werden, wenn die Pionen nur aufgrund der Ladungserhaltung korreliert sind. Es wird jedoch gezeigt, dass diese Resultate nicht der Annahme widersprechen, dass das Quark-Gluon-Plasma bei SPS-Energien gebildet wird.