Refine
Year of publication
Document Type
- diplomthesis (215) (remove)
Has Fulltext
- yes (215)
Is part of the Bibliography
- no (215)
Keywords
- Stochastik (3)
- RDF (2)
- Semantic Web (2)
- Soziologie (2)
- Statistik (2)
- Stochastischer Prozess (2)
- Strahltransport (2)
- Yule-Prozess (2)
- Ablenkung <Physik> (1)
- Algorithmus (1)
Institute
- Physik (100)
- Mathematik (39)
- Informatik (29)
- Gesellschaftswissenschaften (14)
- Wirtschaftswissenschaften (8)
- Geowissenschaften (7)
- Biowissenschaften (4)
- Erziehungswissenschaften (4)
- Biochemie und Chemie (3)
- Geographie (1)
Entwurf und Realisierung von Sicherheitsmechanismen für eine Infrastruktur für digitale Bibliotheken
(2002)
Angesichts der überragenden Bedeutung der modernen Kommunikationstechnik in allen Lebensbereichen kommt auch den digitalen Bibliotheken ein wachsendes Gewicht zu. Dabei spielen nicht nur die platzsparende Speicherung, sondern auch die schnelle Datenübermittlung und der unmittelbare Zugang zu den Dokumenten eine wichtige Rolle. Da eine solche Bibliothek über ein offenes Netz betrieben wird, erhalten in diesem Zusammenhang Sicherheitsaspekte ein essentielles Gewicht. Die vorliegende Diplomarbeit geht diesen Fragen nach und zeigt Wege auf, wie die bestehenden Sicherheitsrisiken minimiert werden können. Ziel dieser Arbeit war daher der Entwurf und die Realisierung von Sicherheitsmechanismen für eine Infrastruktur für digitale Bibliotheken. Dabei wurde speziell auf die INDIGO-Infrastruktur eingegangen; sie stellt eine verteilte Infrastruktur für digitale Bibliotheken dar. Der erste Teil dieser Diplomarbeit enthält eine Einführung in die Grundlagen der INDIGO-Infrastruktur und der Sicherheit. In Kapitel [*] wurden die INDIGO-Infrastruktur und ihre Komponenten erläutert; in Kapitel [*] folgte anschließend die Beschreibung einiger kryptographischer Verfahren und Sicherheitsprotokolle. Im zweiten Teil dieser Arbeit wurden Sicherheitsmechanismen für die INDIGO-Infrastruktur entworfen. In dieser Entwurfsphase erfolgte zunächst in Kapitel [*] die Sicherheitsanalyse der Infrastruktur. Basierend auf dieser Analyse wurden in Kapitel [*] Sicherheitskonzepte für diese Infrastruktur entwickelt. Während der gesamten Entwurfsphase standen die Sicherheitsanforderungen Vertraulichkeit, Authentizität, Integrität, Verbindlichkeit und die Autorität stets im Mittelpunkt des Interesses. Im dritten und letzten Teil der Arbeit wurden die Sicherheitsmechanismen für die INDIGO-Infrastruktur realisiert. Dabei wurden die in Abschnitt [*] beschriebenen Sicherheitsrichtlinien der Infrastruktur implementiert. Die Beschreibung der Implementierung erfolgte in Kapitel [*]. Die wichtigsten Modifikationen des INDIGO-Servers betrafen folgende Punkte: * Sicherung und Aufbau der verbindlichen Kommunikationskanäle durch den Einsatz von SSL- bzw. TLS-basierten Server-zu-Server Verfahren. * Realisierung von Sicherheitsmechanismen zur Verifikation der digital signierten Dokumente und Dokumentmethoden. * Erweiterung des INDIGO-Servers um feingranuliert konfigurierbare Zugriffsmechanismen, die verteilt auf drei unterschiedliche Ebenen den Zugriff der Anwender (bzw. Dokumentmethoden) auf seine Ressourcen kontrollieren. Neben den Modifikationen des INDIGO-Servers wurden zwei neue Clients zur Kommunikation mit dem INDIGO-Server und eine Anwendung zur Erzeugung der digitalen Signatur der Dokumente entwickelt. Ferner wurden einige neue Metadokumente und Dokumentmethoden erstellt, um die neuen Eigenschaften der Infrastruktur zu demonstrieren. Bei der Realisierung der Sicherheitsmechanismen wurde größter Wert auf die Abwärtskompatibilität, Konfigurierbarkeit und Modularität gelegt. Die Abwärtskompatibilität zur ursprünglichen Infrastruktur wird beispielsweise erreicht, indem die bereits existierenden Metadokumente und Dokumentmethoden bei dem modifizierten Server auch verwendet werden können. Diese müssen - falls nötig - minimal um die digitale Signatur der Autoren ergänzt werden. Das Sicherheitsverhalten des INDIGO-Servers läßt sich beliebig über seine Konfigurationsdatei ändern (Konfigurierbarkeit). Alle wichtigen Sicherheitsmechanismen des modifizierten Servers lassen sich den Wünschen des Betreibers anpassen. Dadurch ist sichergestellt, daß jeder Betreiber den Server seinen jeweiligen Sicherheitsbedürfnissen entsprechend betreiben kann. Der Betreiber kann beispielsweise über die Einstellung seiner Konfigurationsdatei bestimmen, ob die Clients sich bei der Kommunikation mit seinem Server identifizieren müssen. Zudem kann er beispielsweise festlegen, ob die Dokumentmethoden, die keine korrekte digitale Signatur besitzen, ausgeführt werden dürfen oder nicht. Die Konfigurierbarkeit des Servers hinsichtlich der Sicherheitsmechanismen geht sogar so weit, daß man den Server im Normalmodus betreiben kann; in diesem Modus sind alle Sicherheitsmechanismen des Servers ausgeschaltet. Die Modularität hinsichlich der Sicherheitsmechanismen wurde bei der Implementierung durch die Verteilung dieser Mechanismen auf die unterschiedlichen und eigenständigen Klassen erzielt, die jeweils eine wohldefinierte Eigenschaft und Aufgabe besitzen. Diese Vorgehensweise führt dazu, daß bei einer Weiterentwicklung des Servers um neue Sicherheitsdienste nur die wenigen betroffenen Klassen modifiziert werden müssen, ohne daß der gesamte Server davon betroffen ist. So kann der INDIGO-Server beispielsweise um den Authentisierungsdienst Kerberos [Stei88] erweitert werden, in dem nur die entsprechende Authentisierungsklasse des Servers (IndigoAuthorization-Klasse) ergänzt wird.
Euklidische Zerlegungen nicht-kompakter hyperbolischer Mannigfaltigkeiten mit endlichem Volumen
(1998)
Epstein and Penner constructed in [EP88] the Euclidean decomposition of a non-compact hyperbolic n-manifold of finite volume for a choice of cusps, n >= 2. The manifold is cut along geodesic hyperplanes into hyperbolic ideal convex polyhedra. The intersection of the cusps with the Euclidean decomposition determined by them turns out to be rather simple as stated in Theorem 2.2. A dual decomposition resulting from the expansion of the cusps was already mentioned in [EP88]. These two dual hyperbolic decompositions of the manifold induce two dual decompositions in the Euclidean structure of the cusp sections. This observation leads in Theorems 5.1 and 5.2 to easily computable, necessary conditions for an arbitrary ideal polyhedral decomposition of the manifold to be a Euclidean decomposition.
In dieser Arbeit wurde die Pionenproduktion in C + C und Si + Si - Kollisionen bei 40A GeV und 158A GeV untersucht. Dazu wurden zwei vollkommen unterschiedliche Methoden, die dE/dx- Teilchenidentifizierung und die h- - Methode, bei der der Anteil von Nicht- Pionen simuliert wird, verwendet. Die Ergebnisse beider Methoden stimmen gut überein, die Differenz fließt in den systematischen Fehler ein. Für die Bestimmung der totalen Multiplizitäten und mittleren transversalen Massen wurde die h- - Methode aufgrund ihrer größeren Akzeptanz gewählt. Zusätzlich wurde für 40A GeV C + C eine zentralitätsabhängige Analyse der Pionenmultiplizitäten vorgenommen. Die Ergebnisse dieser Analyse sollten jedoch als vorläufig angesehen werden. Die Ergebnisse meiner Analyse wurden mit der von C. Höhne [14] bei 158A GeV verglichen, sie stimmen innerhalb der Fehler überein. Es wurden Modelle zur Simulation von Kollisionen (UrQMD, Venus) vorgestellt und angewandt, um die experimentellen Ergebnisse mit den Vorhersagen der Simulationen zu vergleichen. Ein weiteres Modell (Statistical Model of the Early Stage) wurde vorgestellt, welches die qualitative und anschauliche Interpretation der Daten erlaubt. Die Ergebnisse wurden als Energie- und Systemgrößenabhängigkeitsplots zusammen mit anderen NA49- Ergebnissen, Ergebnissen anderer Experimente und Simulationsvorhersagen gezeigt und diskutiert. Der Übergang von der Unterdrückung der Pionenproduktion in Pb+Pb - Kollisionen relativ zu p+p zu einer Erhöhung der Pionenproduktion bei niedrigen SPS-Energien wurde auch bei kleinen Systemen, C + C und Si + Si , beobachtet. Eine Interpretation der Pionenmultiplizitäten mit den Statistical Model of the Early Stage legt die Vermutung nahe, dass bereits bei 40A GeV C + C - Kollisionen Quark- Gluon- Plasma gebildet wird. Diese Vermutung muss allerdings durch die Betrachtung weiterer Observabler noch bestätigt werden.
Diese Arbeit befasst sich mit der Analyse der ersten Proton-Proton-Kollisionen, die mit dem ALICE-Experiment am LHC gemessen wurden. Der Schwerpunkt der Arbeit liegt dabei auf der Analyse des mittleren Transversalimpulses, einer Messgröße, mit der sich die Transversalimpulsspektren geladener, nichtidentifizierter Teilchen charakterisieren lassen. ALICE misst bei sqrt(s) = 900 GeV einen mittleren Transversalimpuls von
<pT> iINEL = 0;483 +/- 0;001(stat.) +/- 0;007(sys.) GeV=c (6.1)
<pT >NSD = 0;489 +/- 0;001(stat.) +/- 0;007(sys.) GeV=c (6.2)
Im Vergleich mit den Messungen anderer Experimente bei gleichem p s misst ALICE einen etwas höheren mittleren Transversalimpuls.
Neben der Analyse des mittleren Transversalimpulses des inklusiven Spektrums wird auch die Analyse als Funktion der Multiplizität erläutert. Mit der skalierten Multiplizität z = nacc= hnacci können die mit ALICE gemessenen Werte mit den Messungen von UA1 verglichen werden. Für z > 1 stimmen die Daten innerhalb der Fehler überein, für z < 1 divergieren die Daten von ALICE und UA1. Im weiteren Verlauf werden zwei Methoden vorgestellt, mit denen ein Übergang von der gemessenen Multiplizität zu einer korrigierten Multiplizität vorgenommen werden kann. Beide Methoden basieren auf einer mit PYTHIA generierten Korrelationsmatrix, die den Zusammenhang zwischen der generierten Multiplizitätsverteilung und der rekonstruierten Multiplizitätsverteilung enthält. Bei der einen Methode (A) werden die gemessenen Daten mit der Korrelationsmatrix gewichtet auf die generierte Multiplizität übertragen. Für die andere Methode (B) wird die Matrix zunächst entfaltet, um dann mit der entfalteten Multiplizitätsverteilung eine neue Matrix zu generieren. Mit dieser neuen Matrix wird dann jeder gemessen Multiplizitätsklasse eine wahrscheinlichste wahre Multiplizität zugewiesen. Die Ergebnisse beider Methoden sind vergleichbar. Für die weitere Analyse wird jedoch Methode A verwendet, da die Zuordnung in Methode B nicht eindeutig ist. Die mit dieser Methode analysierten Daten werden dann mit verschiedenen Simulationspaketen verglichen. Dabei stellt sich heraus, dass der PYTHIA-Tune Perugia0 die Daten am besten, jedoch nicht exakt, beschreibt. Mit den gemessenen Daten lassen sich die Modelle weiter optimieren, um eine Vorhersage bei höheren Strahlenergien machen zu können...
In einer Evaluation unterschiedlicher Auswahl- und Ausbildungskonzepte der gewerblichen Berufsgenossenschaften (BGen) wurden die Hypothesen geprüft, daß durch Testverfahren auswählende BGen bessere Ausbildungsleistungen erzielen als nur durch Interview auswählende, praxisorientierte Ausbildungen zu schlechteren Prüfungsleistungen führen, zwischen der Ausbildungsleistung und dem Leistungsdruck sowie der Einstellung zur Arbeit ein Zusammenhang besteht und diese Variablen sich daher zur Erhöhung des varianzaufklärenden Werts des zweifach gestuften Faktors Selektion eignen. Für die Wirkung des Faktors Selektion wurde die Praxisorientierung als Moderatorvariable vermutet. Es gelang, 75% aller BGen zu erfassen. Als unabhängige Variable wurde in einem ex-post-facto Design der Faktor Selektion auf den Stufen Interview und Test aufgefaßt. In einem einfaktoriellen univariaten kovarianzanalytischen Modell dienten Leistungsdruck, Einstellung zur Arbeit und Praxisorientierung als Kovariaten. Für jede BG ist die Selektionsmethode und die Praxis der Interviewführung durch schriftliche bzw. telefonische Befragung ermittelt worden. Der Ausbildungserfolg wurde durch die Auswertung eines zentralen Notenarchivs erhoben. Durch einen Fragebogen an die 1994/95 geprüften Personen wurden Leistungsdruck, Praxisorientierung und Einstellung zur Arbeit als Kennwerte für die BG erfaßt. Testverfahren und Interview als Stufen des Faktors Selektion eigneten sich nicht zur Vorhersage des Ausbildungserfolgs. Bei den BGen, die durch Test auswählten, wurde eine deutlich größere Variabilität der Noten nachgewiesen als bei den interviewenden BGen. Eine praxisorientierte Ausbildung ging mit schlechten Prüfungsnoten einher (r = -.13). Es bestand keine Wechselwirkung zwischen Praxisorientierung und Auswahlmethode. Die Aufklärung der Notenvarianz durch die Auswahlmethode konnte durch die Kovariaten nur von 2% auf 3% erhöht werden. Mit Einstellung zur Arbeit und Praxisorientierung als Kovariaten konnten insgesamt 17% Varianz aufgeklärt werden. Die Qualität der Messung der Variablen, Gründe für die große Variabilität der Noten unter der Testbedingung sowie die Frage nach der Relevanz der Befunde zur Praxisorientierung der Ausbildung wurden diskutiert.
Diese Arbeit befasst sich mit der Zerlegung von Irrfahrten und Lévy Prozessen an ihrem Minimum. Bis auf rudimentäre Vorkenntnisse der höheren Stochastik und einige wenige aber wichtige Sätze stellt die Arbeit alle notwendigen Begriffe und Sätze zur Verfügung, die für das Verständnis und die Beweise benötigt werden. Diese bewusste Entscheidung zur Ausführlichkeit auch bei grundlegenden Dingen hat zwei Hintergründe: Zum einen bleibt die Arbeit damit auch für Leser mit geringen Vorkenntnissen interessant, und zum anderen entsteht so keine lange und unübersichtliche Kette von Verweisen und Zitaten, die das Verständnis des dargestellten Themas erschwert und die logischen Schlüsse nur noch von Spezialisten vollständig nachvollzogen werden können. Ein weiterer Nebeneffekt ist die Tatsache, dass Verwirrungen aufgrund unterschiedlicher Interpretationen eines Begriffs vermieden werden. Das weitere Vorwort teilt sich in zwei Abschnitte; zum einen in den Abschnitt der Irrfahrten und zum anderen in den Abschnitt der Lévy-Prozesse. Diese Einteilung spiegelt auch die Strukturierung der Arbeit selber wieder; ein Blick in das Inhaltsverzeichnis verrät, dass zuerst Irrfahrten und danach Lévy Prozesse behandelt werden.
Ziel dieser Arbeit war es, ein sicheres und trotzdem effizientes Preprocessing zu finden. Nach den zurückliegenden Untersuchungen können wir annehmen, dies erreicht zu haben. Wir haben gezeigt, daß eine minimale Workload von Attacken von 272 mit nur 16 Multiplikationen pro Runde und 13 gespeicherten Paaren (ri, xi) erreicht werden kann. Mit der in Abschnitt 12.3 erklärten Variation - der Wert rº k geht nicht in die Gleichungen mit ein - erreichen wir sogar eine Sicherheit von 274. In diesem Fall können wir die Anzahl der gespeicherten Paare auf 12 verringern. Auch von der in Abschnit 12.5 besprochenen Variation erwarten wir eine Erhöhung der Sicherheit. Ergebnisse dazu werden bald vorliegen. Folgender Preprocessing Algorithmus erscheint z.B. nach unserem derzeitigen Wissensstand geeignet: Setze k = 12, l0 = 7, l1 = 3, d0 = 4, d1 = 5, h = 4, ¯h = 1. Initiation: lade k Paare (r0 0, x00 ) . . . , (r0 k 1, x0 k 1) mit x0i = ®r0 i mod p. º := 1. º ist die Rundennummer 1. Wähle l1 2 verschiedene Zufallszahlen a(3, º), . . . , a(l1, º) 2 {º + 1 mod k, . . . , º 2 mod k} a(1, º) := º mod k, a(2, º) := º 1 mod k W¨ahle l1 2 verschiedene Zufallszahlen f(3, º), . . . , f(l1, º) 2 {0, . . . , d1 1}, f(1, º) zuf¨allig aus {h, . . . , d1 1} und f(2, º) zuf¨allig aus {¯h, . . . , d1 1} rº k := rº ºmodk + l1 Xi=1 2f(i,º)rº 1 a(i,º) mod q xk = xºº modk · l1 Yi=1 (xº 1 a(i,º))2f(i,º) mod p 2. w¨ahle l0 1 verschiedene Zufallszahlen b(2, º), . . . , b(l0, º) 2 {º + 1 mod k, . . . , º 1 mod k} b(1, º) := º mod k W¨ahle l0 verschiedene Zufallszahlen g(1, º), . . . , g(l0, º) 2 {0, . . . , d0 1} rº ºmodk := l0 Xi=1 2g(i,º)rº 1 b(i,º) mod q xºº modk = l0 Yi=1 (xº 1 b(i,º))2g(i,º) mod p 3. verwende (rº k, xº k) f¨ur die º te Signatur (eº, yº) gem¨aß yº = rº k + seº mod q 4. º := º + 1 GOTO 1. f¨ur die n¨achste Signatur Die Zufallszahlen a(3, º), . . . , a(l, º), b(2, º), . . . , b(l, º), f(1, º), . . . , f(l, º) und g(1, º), . . . , g(l, º) werden unabhängig gewählt. Dies ist selbstverständlich nur ein Beispiel. Unsere Untersuchungen sind noch nicht abgeschlossen. Wir glauben aber nicht, daß feste Werte a(i, º) und b(i, º) ein effizientes Preprocessing definieren. Wir haben einige Variationen mit solchen weniger randomisierten Gleichungen studiert und immer effiziente Attacken gefunden.
Der Bolthausen-Sznitman Koaleszent ist ein zeitstetiger Markovprozess mit Werten in der Menge der Partitionen der natürlichen Zahlen. Der Prozess startet in Singletons und seine Dynamik erlaubt lediglich Übergänge in gröbere Partitionen. In dieser Arbeit wird der Bolthausen-Sznitman Koaleszent zum Zeitpunkt seines letzten Übergangs analysiert. Das Hauptresultat ist ein Grenzwertsatz, welcher eine gemeinsame Aussage sowohl über die Blockanzahl als auch über die Blockgrößen des Koaleszenten zu diesem Zeitpunkt macht. Dafür wird der Koaleszent durch ein gewisses Abholzverfahren zufälliger rekursiver Bäume modelliert, wobei diese Bäume wiederum anhand von Yule-Prozessen generiert werden.
Gegenstand dieser Arbeit ist die Entwicklung eines CH-Rebunchers mit Energievariation für die sich in der Entstehungsphase befindliche Beschleunigeranlage des FRANZ Projektes am Institut für Angewandte Physik der Goethe Universität Frankfurt am Main.
Die FRANZ Experimente sollen Fragen der nuklearen Astrophysik und der Materialforschung beantworten. Experimente zu Neutroneneinfangsquerschnitten werden im Vordergrund stehen. Diese sollen hauptsächlich zum Verständnis der Vorgänge bei der Nukleosynthese in Roten Riesen beitragen...
Es steht ausser Zweifel, das der Schutz der Privatsphäre von Internet-Nutzern gegenwärtig unzureichend ist. Die Chance sich im Netz relativ weiträumig und frei zu bewegen, steht die Möglichkeit gegenüber allerlei Informationen über Internet-Nutzer zu sammeln und auszuwerten. Dies ist natürlich auch im Intranet möglich. Im Rahmen dieser Diplomarbeit wurden die verschiedenen Möglichkeiten überprüft, die zur Veröffentlichung von Datenschutzmassnahmen angeboten werden. Zunächst ist der OECD Privacy Statement Generator, dessen Principles Grundlage bei der Formulierung von Lufthansa Principles waren, auf Lufthansatauglichkeit untersucht worden. Dabei hat sich ergeben, dass trotz der theoretischen Übereinstimmung der Principles der Lufthansa AG mit denen der OECD, der Gebrauch des Generators bei Lufthansa in dieser Form nicht möglich ist. Da anfänglich eine Anpassung des Generators an Lufthansabedürfnisse geplant war, sind im Rahmen dieser Diplomarbeit Änderungsvorschläge gemacht worden. Die Anpassung des Codes erfolgte nicht, da dieser nur für öffentliche Stellen und nicht für Privatunternehmen zugänglich ist. Mit P3P entwickelte das W3C eine Datenschutztechnik, die für Nutzer die Kontrolle über persönliche Daten automatisiert und damit den Schutz der Privatsphäre und die Akzeptanz der User verbessert. Nach der Einführung des P3P- und APPEL-Vokabulars, mit dem man einerseits Datenschutzmassnahmen und andererseits Datenschutzpräferenzen ausdrücken kann, sollte daher geprüft werden, ob dieses Vokabular ausreicht, um Lufthansa-spezifische Aussagen zu machen und in wieweit diese erweiterbar bzw. anpassbar sind. Die Untersuchung hat ergeben, dass das Vokabular bis zu einem gewissen Masse ausreicht und es ein Element gibt, das EXTENSION Element, mit dem eine Erweiterung des P3P Standardvokabulars möglich ist. Im Rahmen dieser Arbeit wurden solche auf Lufthansa abgestimmte Erweiterungen sowohl für eine P3P Policy als auch für eine entsprechende APPEL Präferenz formuliert. Die Lufthansa AG hat somit mit P3P die Möglichkeit, Ihre Datenschutzpraktiken für den Mitarbeiter transparenter zu gestalten, da sie auch über das Standardvokabular hinausgehende Aussagen formulieren kann. In der Diplomarbeit sind ausserdem die sich zur Zeit auf dem Markt befindlichen Tools, die bei der Erstellung einer maschinenlesbaren Datenschutzmassnahme, der sog. Privacy Policy benutzt werden können, untersucht worden. Der IBM P3P Policy Editor scheint für den Gebrauch bei Lufthansa denkbar, da die Handhabung des Generators einfach ist. Der Mitarbeiter, der die Policy für seine Abteilung erstellen soll, braucht sich nicht mit den Einzelheiten des P3P Vokabulars auseinander setzten. Mit diesem Editor kann zunächst ein Basisgerüst einer Policy erstellt werden. Die mit dem P3P Element EXTENSION formulierten Erweiterungen müssen jedoch selbsterstellt werden und können nachträglich in das Basisgerüst der Policy miteingebunden werden. Zusätzlich zu der maschinenlesbaren Form einer Policy erstellt der IBM Editor auch eine menschenlesbare HTML-Version der Policy. Dies ist sehr von Vorteil, da in einem Arbeitsgang zwei Policy-Versionen erstellt werden. Im Vergleich zu dem Formulierungsentwurf des OECD Generators ist die menschenlesbare Version des IBM Editors ausserdem wesentlich kürzer und dadurch auch übersichtlicher. Im Ganzen ist es daher sinnvoller, den IBM Editor zu benutzen, als den OECD Generator neu zu programmieren und dann mit Hilfe eines anderen Tools die P3P Policy zu erstellen. Zur Erstellung einer APPEL Präferenz ist zur Zeit nur ein Hilfsmittel auf dem Markt erhältlich. Der Grund hierfür ist sicherlich, dass sich APPEL noch zu keinem Standard entwickelt hat, sondern sich noch in einem Entwurfsstadium befindet. Der APPEL Editor von JRC ist ähnlich wie der P3P Policy Editor von IBM aufgebaut. Auch hier müssen Erweiterungen selbst formuliert und in dem vom Editor erstellten Basisgerüst einer Präferenz eingebunden werden. Nachdem die grundsätzliche Erweiterbarkeit von P3P in dieser Diplomarbeit festgestellt wurde, sind die sog. User Agents behandelt worden. Von Bedeutung war neben der Funktionsweise der einzelnen User Agents ihre Handhabung des EXTENSION Elementes. Da zu erwarten ist, dass nur wenige Nutzer die Voreinstellungen ihrer Software selbst verändern und sich mit der APPEL Spezifikation auseinander setzten, wird der Standardkonfiguration eines P3P User Agents eine große Bedeutung beigemessen. Bei allen vorgestellten User Agents gab es verschiedene Sicherheitsniveaux bzgl. Datenschutz aus denen der Nutzer auswählen konnte. Entsprechend des Niveaux wurde die Präferenz des Nutzers automatisch konfiguriert. Bei allen war es ausserdem möglich, selbsterstellte APPEL Formulierungen zu importieren. Bei dem Proxy von JRC ist es möglich, Settings mit einzubinden, die das EXTENSION Element beinhalten. AT&T erlaubt dies nicht und von Microsoft fehlt hierzu jegliche Angabe. Bzgl. der Lufthansa AG erscheint es sinnvoll, den Mitarbeitern einen eigenen User Agent anzubieten, der alle zusätzlich formulierten Aspekte aufgreift und mit dem der Mitarbeiter seine Präferenzen bzgl. des Intranets leicht ausdrücken kann. Der Aufwand, den Mitarbeitern das erweiterte Vokabular für die Formulierung einer Präferenz zur Verfügung zu stellen, setzt voraus, dass jeder Mitarbeiter sich mit der Syntax und Semantik von P3P und APPEL auskennt. Dies ist im Vergleich zur Programmierung eines eigenen User Agents, der den Mitarbeitern zur Verfügung gestellt wird, aufwendiger und wahrscheinlich auch nicht realisierbar. Grundsätzlich kann durch diese Massnahmen das Vertrauen der Mitarbeiter ins Intranet und damit die Nutzung dieses Mediums gesteigert werden. Die vermehrte Nutzung des Intranets auch für private Zwecke, wie zum Beispiel der Buchung von Reisen oder die Abfrage nach Flügen etc., würde für beide Seiten auch wirtschaftlichen Nutzen bringen. Für die Mitarbeiter selbst käme es z.B. zu einer Zeitersparnis, da sie jetzt zur Buchung ihrer Reisen nicht mehr in die Reisestelle müssen. Dies hätte natürlich auch wirtschaftliche Auswirkungen, da der Aufwand, um zur Reisestelle zu kommen, wegfällt. Aber auch die Lufthansa AG hätte durch die transparentere Gestaltung ihrer Datenschutzpraktiken wirtschaftlichen Nutzen. Die Mitarbeiter z.B. in der Reisestelle würden durch das neue Vertrauen ihrer Kollegen ins Intranet und damit einhergehend die selbstständige Online-Buchungsmöglichkeit entlastet werden. Es könnten mehr Kapazitäten für andere Aufgaben frei werden. Das Ausmass der Vorteile für Lufthansa und Ihrer Mitarbeiter, die sich aus der Veröffentlichung von Datenschutzmaßnahmen ergeben und damit ist auch das vermehrte Vertrauen der Mitarbeiter ins Intranet gemeint, ist zur Zeit noch nicht in vollem Umfang erfassbar, da sich viele Intranetprojekte der Lufthansa AG noch im Entwicklungsstadium befinden. Für die Zukunft ist jedoch auch festzustellen, dass datenschutzfreundliche Technologien allein nicht die Lösung zur Sicherstellung des Datenschutzes im Inter- als auch im Intranet sein können. Vielmehr müssen die aufkommenden technischen Maßnahmen durch nationale und internationale Regelungen unterstützt und ergänzt werden. Erst durch Festlegung internationaler Konventionen, die den Datenschutz in Zusammenhang mit grenzüberschreitenden Computernetzwerken und Diensten regeln, kann ein effektiver und unabhängiger Kontrollmechanismus sowie die Möglichkeit zu Sanktionen gewährleistet werden. Die Veröffentlichung von Datenschutzmassnahmen gewährleistet leider nicht ihre Einhaltung.
QCD-Summenregeln mit Massen
(1993)
Die Anfänge der Gittertheorie reichen in das letzte Jahrhundert, wobei die wohl bekanntesten Ergebnisse auf Gauß, Hermite und Minkowski zurückgehen. Die Arbeiten sind jedoch zumeist in der Schreibweise der quadratischen Formen verfaßt, erst in den letzten Jahrzehnten hat sich die von uns verwendete Gitterschreibweise durchgesetzt. Diese ist zum einen geometrisch anschaulicher, zum anderen wurden in den letzten Jahren für diese Schreibweise effiziente Algorithmen entwickelt, so daß Probleme der Gittertheorie mittels Computer gelöst werden können. Ein wichtiges Problem ist, in einem Gitter einen kürzesten nicht verschwindenden Vektor zu bestimmen. Den Grundstein für diese algorithmische Entwicklung legten A.K. Lenstra, H.W. Lenstra Jr. und L. Lovasz mit ihrer Arbeit. In dieser führten sie einen Reduktionsbegriff ein, der durch einen Polynomialzeitalgorithmus erreicht werden kann. Ein weiterer Reduktionsbegriff, die Blockreduktion, geht auf Schnorr zurück. Euchner hat im Rahmen seiner Diplomarbeit effiziente Algorithmen für diese beiden Reduktionsbegriffe auf Workstations implementiert und auch in Dimensionen > 100 erfolgreich getestet. Die Verbesserungen von Schnittechniken des in der Blockreduktion verwendeten Aufzählungsverfahrens und die Einführung einer geschnittenen Aufzählung über die gesamte Gitterbasis hat Hörner in seiner Diplomarbeit beschrieben. Ziel der folgenden Arbeit war es nun, diese bereits auf sequentiellen Computern implementierten Algorithmen zu modifizieren, um auf parallelen Rechnern, speziell Vektorrechnern, einen möglichst hohen Geschwindigkeitsgewinn zu erzielen. Wie in den seriellen Algorithmen werden die Basisvektoren stets in exakter Darstellung mitgeführt, so daß das Endergebnis einer Berechnung nicht durch Rundungsfehler verfälscht wird.
Das Konzept Sünde hat seine normative Geltung im Laufe des Zivilisationsprozesses zwar nicht verloren, seine Bedeutung ist jedoch vorwiegend in das religiöse Feld verlagert worden. Die Gegenwartsgesellschaft scheint sich dem Sündenbegriff nicht länger stellen zu müssen. Ein kultursoziologischer Blick offenbart jedoch, dass die Idee der Sünde – ins Metaphorische verwandelt – noch immer eine Hintergrundfolie für den Umgang mit sozialen Verfehlungen bildet. Insbesondere die innere und äußere Kontrolle sozialen Handelns belegt diesen Zusammenhang. Indes zeigt die wissenssoziologischer Perspektive, dass die Sünde in dieser Form als heimliches Herrschaftskonstrukt auftritt, das – wie schon Max Weber zeigte – einem stetigen Entzauberungs-, und damit einem Wandlungsprozess unterliegt. Dadurch wird die normative Geltung des Sündenkonzepts entkräftet – während gleichzeitig der Kerngedanke in der Bildersprache des alltäglichen Sprechens erhalten bleibt.
In dieser Arbeit wurde die Produktion von Omega und Anti-Omega Hyperonen in zentralen Pb+Pb-Kollisionen bei 40 A GeV am CERN SPS mit dem NA49 Experiment untersucht. Der in dieser Arbeit verwendete Datensatz wurde während einer 4 wöchigen Strahlzeit 1999 aufgenommen. Dabei wurden 579446 Zentrale (7.2 % des totalen Wirkungsquerschnitts) Ereignisse, bei zwei verschiedenen Polarit aten (std+ und std-), aufgezeichnet. Die Omega Produktion bei 40 A GeV wird mit Messungen bei anderen Energien verglichen, um damit die Energieabhangigkeit der Omega Produktion zu untersuchen. Das Experiment NA49 erlaubt genaue Messungen in einem weiten Akzeptanzbereich. Man misst die Zerfallstochter des Omegas und die Zerfallstochter des Omegas mit hochauflösenden TPCs. Mehrfach seltsame Teilchen (Theta, Omega) werden durch ihre Zerfallstopologie identifiziert. Es wurden verschieden Qualitatskriterien verwendet, um den kombinatorischen Untergrund zu reduzieren. NA49 hat nur eine endliche geometrische Akzeptanz und kann deshalb nicht den ganzen Phasenraum abdecken. Außerdem wurden verschiedene Qualitatskriterien verwendet, um ein akzeptables Signal zu Untergrund Verhaltnis zu erhalten. Da es wegen der Akzeptanz und der Qualitatskriterien zu Verlusten kommt, muss man darauf korrigieren. Dies macht man mittels einer Simulation, in der man Omega Hyperonen simuliert. Die Omega Hyperonen werden uber drei Rapiditatseinheiten um den Bereich zentraler Rapiditat und mit Transversalimpulsen von 0.9 bis 2.4 GeV/c gemessen. Es wurde der Temperaturparameter des Omega Hyperons bei 40 A GeV bestimmt. Im Rahmen der Fehler ist der Temperaturparameter der 40 A GeV dem der 158 A GeV gleich. Betrachtet man den Temperaturparameter der Omegas als Funktion der Schwerpunktenergie, gibt es einen Anstieg des Temperaturparameters von SPS- zu RHIC-Energien. Es wurden jeweils die Multiplizitaten bei mittlerer Rapiditat für Omega und Anti-Omega bestimmt. Die Multiplizität vom Omega betragt 0.068 +- 0.020 (stat.) +- 0.019 (sys.) und vom Anti-Omega 0.027 +- 0.008 (stat.) +- 0.007 (sys.). Die Multiplizitaten bei mittlerer Rapiditat steigen für Omega und Anti-Omega mit der Schwerpunktenergie von SPS- zu RHIC-Energien. Die Ergebnisse stimmen mit den Messungen der NA57 Kollaboration überein. Bei 40 A GeV wurde erstmals eine Rapiditatsverteilung gemessen. Die daraus resultierende totale Multiplizitat fur Omega + Anti-Omega betragt 0.20 +- 0.03 (stat.) +- 0.04 (sys.). Mit steigender Schwerpunktenergie steigt die totale Multiplizität und die Rapiditätsverteilung wird breiter. Um den systematischen Fehler zu bestimmen, wurde eine Stabilität-Analyse des mt-Spektrums und der Rapiditatsverteilung durchgefuhrt. Der systematische Fehler der mt-Spektren betragt 18 % und der totalen Multiplizitat 21 %. Schaut man sich die Anregungsfunktion der Omega und Anti-Omega als Funktion der Schwerpunktenergie an, erkennt man, dass es eine leichte Energieabhängigkeit beim Anti-Omega / Pi-Minus ....
Visualisierungssysteme nutzen die Mittel der modernen Computergraphik, um Informationen und Zusammenhänge zu veranschaulichen. Ein wichtiges Teilgebiet besteht dabei in der Veranschaulichung großer Informationsmengen zur Gewinnung eines Überblicks und Vorauswahl potentiell interessanter Teilmengen, die dann mit weiterführenden Methoden im Detail erforscht werden können. Das Relevanzkugelmodell wurde erstmals eingeführt, um als Bestandteil des LyberWorld-Projekts genau diese Vorselektion auf einer Menge von Textdokumenten zu leisten. Ziel dieser Arbeit ist es, dieses Modell in eine neue Form auf Basis des World Wide Web zu überführen und damit aus der engen Anbindung an das ursprüngliche System zu lösen und allgemeiner verwendbar zu machen. Zu diesem Zweck werden zunächst das Modell an sich und seine früheren Implementierungen genauer betrachtet, dann nach Auswahl geeigneter Hilfsmittel – VRML zur graphischen Modellierung und Java zur Handhabung der Funktionalität – Konzepte zur weiteren Ausgestaltung und zur Behebung existierender Schwächen des Ansatzes erarbeitet, und schließlich die resultierende Implementierung beschrieben und bewertet.
Das Assignment Problem ist ein bekanntes kombinatorisches Optimierungsproblem, bei dem es darum geht, in einem gewichteten bipartiten Graphen ein Matching mit minimalem Gewicht zu finden. In dieser Arbeit sind die Kantengewichte exponentialverteilt zu speziell gewählten Raten. Damit sind Erwartungswert und Varianz des minimalen Gewichts von besonderem Interesse. Zunächst wird ein Beweis der Parisi Formel und der Coppersmith-Sorkin Formel erläutert. Die Formeln beschreiben den Erwartungswert des minimalen Gewichts im Fall, dass die Raten alle dem Wert 1 entsprechen. Im zweiten Teil wird die Herleitung einer expliziten Formel zur Berechnung der Varianz des zufälligen minimalen Gewichts erklärt, wobei die Raten immer noch mit 1 übereinstimmen. Gleichzeitig wird eine Formel für die höheren Momente geliefert, aus der die Parisi Formel und Coppersmith-Sorkin Formel aus dem ersten Teil folgen und die sogar das bisherige Modell bezüglich der Parameter erweitert. Schließlich kann man das Ergebnis des zweiten Teils zur Beschreibung des asymptotischen Verhaltens der Varianz benutzen.
Wir werden uns in dieser Arbeit vorwiegend mit einem Modell befassen, das Y. Peres, C. Kenyon, W. Evans und L.J. Schulman 1998 in ihrem Artikel \Broadcasting on trees and the Ising-Modell" eingeführt haben.
In diesem Modell wird ein Signal, das die Werte +1 oder -1 annehmen kann, von der Wurzel eines Baumes aus entlang der Äste eines unendlichgroßen Baumes übertragen. Die Kanten des Baumes agieren dabei als Übertragungskanäle zwischen den Knoten. Jede Kante kann das Signal korrekt übertragen oder es flippen, das heißt, das Vorzeichen des Signals umkehren.
Das Übertragungsverhalten der Kanten ist zufällig. Mit einer festen Wahrscheinlichkeit ϵ, mit 0 < ϵ <= 1/2 , verfälscht eine Kante das Signal. Dies geschieht an allen Kanten unabhängig mit der gleichen Wahrscheinlichkeit. Es stellt sich nun die Frage, wie groß diese Fehlerwahrscheinlichkeit höchstens sein darf, damit das, was in der Krone des Baumes ankommt, noch etwas zu tun hat mit dem, was in der Wurzel eingespeist wird. Mit anderen Worte: Sind die Signale auf Knoten, die einen Abstand >= n von der Wurzel haben, für n -> ∞ asymptotisch unabhängig vom Signal in der Wurzel? Eine Möglichkeit, den Grad der Abhängigkeit zu messen, ist die sogenannte Information, der Kullback-Leibler-Abstand von gemeinsamer Verteilung zur Produkt-Verteilung, die in Definition 16 eingeführt wird.
Wir werden sehen, daß es eine kritische Schwelle ϵc;I für Informationsübertragung gibt. Ist die Fehlerwahrscheinlichkeit größer als ϵc;I , so ist die Information, die zwischen Wurzel und Krone übertragen wird, 0. Ist die Fehlerwahrscheinlichkeit kleiner als ϵc;I , so wird Information übertragen. Dieser kritische Wert ϵc;I hängt nur von der Branching-Number, einer Art mittleren Verzweigungszahl, des Baumes (vgl. Definition 1) ab.
Wir werden sehen, daß das Broadcasting-Modell eine elegante Formulierung eines wohlbekannten Modells, des Ising-Modells, mit freien Randbedingungen, ist.
Im Ising-Modell hat jeder Knoten des Baumes einen "magnetischen" Spin, der entweder +1 oder -1 sein kann. Spins direkt benachbarter Knoten beeinflussen sich, in dem sie versuchen, den gleichen Wert anzunehmen. Diesem Effekt wirkt ein thermischer Einfluß entgegen, der mittels eines als Temperatur bezeichneten Parameters modelliert wird.
Die klassische Frage im Ising-Modell ist, ob Phasenübergang stattfindet. Wir wollen Phasenübergang als das Phänomen verstehen, daß die Wurzel des Baumes die Vorgabe von Randbedingungen auf der Krone des Baumes spürt. Ist dies der Fall, so sagen wir, daß Phasenübergang stattfindet. Auch dies ist eine
Form der gegenseitigen Beeinflussung zwischen Wurzel und Krone des Baumes. Russel Lyons hat 1989 in seinem Artikel \The Ising-Model on trees and treelike Graphs" das Ising-Modell auf Bäumen untersucht und gezeigt, daß es eine kritische Temperatur tc für Phasenübergang gibt. Ist die Temperatur höher als tc, so spürt die Wurzel nichts von den Randbedingungen der Krone; ist die Temperatur geringer als tc, so haben die Randbedingungen Einfluß auf die Wurzel. Auch hier hängt die kritische Temperatur nur von der Branching-Number des Baumes ab.
In der Broadcasting-Formulierung des Modells ist der Fluß von Information ein naheliegendes Werkzeug, um die Beeinflussung von Wurzel und Krone zu messen, in der Ising-Formulierung ist die Existenz von Phasenübergang ein ebenso naheliegendes Werkzeug, ebendiesen Einfluß zu messen.
Wir werden die beiden Arten der Beeinflussung miteinander vergleichen und können zeigen, daß für die Übertragung von Information stets eine stärkere Interaktion zwischen den Knoten notwendig ist, als für den Einfluß der Randbedingungen aus der Krone.
Als letztes Phänomen werden wir untersuchen, ob es einen Pfad im Baum gibt, der in der Wurzel startend nur Knoten gleichen Spins besucht und die unendlich weit entfernte Krone erreicht. Wir bezeichnen dieses Phänomen als Spinperkolation.
Wir werden die Berechnung der kritischen Interaktion für Spinperkolation in einem Bernoulli-Feld auf den Kanten rekapitulieren und dann zeigen, daß die Existenz eines Perkolationspfades nur von der Interaktionsstärke des Modells und nicht von etwaigen Randbedingungen abhängt. Dabei kombinieren wir Ergebnisse aus zwei Arbeiten von Lyons und die Erkenntnis, daß Broadcasting- Modell und freies Ising-Modell identisch sind. Wir erhalten so einen neuen, einfachen Beweis über die kritische Interaktion für Spinperkolation in der Plus-Phase des Ising-Modells, die Lyons bereits in [7] berechnet hat.
Im Rahmen dieser Arbeit möchte ich nun aufzeigen, dass ein Projekt zu Glücksspielen eine „reichhaltige Lernsituation“ darstellen kann, in der die Schüler Raum, Gelegenheit und Anlass haben, Grunderfahrungen mit zufälligen Vorgängen zu machen, darauf aufbauend wichtige Begriffe zu bilden und schließlich wesentliche stochastische Zusammenhänge zu erkennen. Der Projektmethode entsprechend lag ein Großteil meiner Tätigkeiten im Vorfeld in vorbereitenden und planenden Tätigkeiten. Während der Projektdurchführung trat ich als beratender „Hintergrundlehrer“ auf. Die Schüler arbeiteten weitgehend selbstständig. Der Schwerpunkt dieser Arbeit liegt daher auf meinen didaktischen und methodischen Überlegungen zur Vorbereitung des Projekts.
Über die Anzahlfunktion π(x)
(1999)
Bereits Euklid wusste, dass es unendlich viele Primzahlen gibt. Euler zeigte die qualitative Aussage ¼(x) x ! 0 bei x ! 1. Legendre definierte als erster die Anzahlfunktion ¼(x) als die Anzahl aller Primzahlen · x, (x 2 R) und vermutete irrtümlicherweise, dass ¼(x) = x log(x)¡B; wobei lim x!1 B(x) = 1; 083 66 : : : ist. Gauss vermutete, dass die Funktionen ¼(x) und li(x) := lim "!0 ">0 0@ u=1¡" Z u=0 du log(u) + u=x Z u=1+" du log(u)1A asymptotisch Äquivalent sind. Tschebyschew konnte die Legendresche Vermutung widerlegen; außerdem bewies er: Wenn der Grenzwert lim x!1 ¼(x) x log(x) existiert, so muss dieser gleich 1 sein. Dank wegweisender Vorarbeiten von Riemann, gelang es im Jahr 1896 unabhängig voneinander und nahezu zeitgleich Hadamard und De La Vallee Poussin, den Primzahlsatz analytisch zu beweisen. Beide verwendeten entscheidend die Tatsache, dass die Zetafunktion ³ in der Halbebene Re(s) ¸ 1 nicht verschwindet. Die Beweise waren zuerst so lang und kompliziert, dass sie heutzutage nur noch einen historischen Wert besitzen. Es dauerte weitere 84 Jahre bis der Beweis so vereinfacht werden konnte, dass er nur wenige Seiten in Anspruch nimmt. Ein wichtiger Verdienst kommt hierbei der Arbeit von Newman aus dem Jahre 1980 zu. Lange Zeit wurde es für kaum möglich gehalten, einen Beweis des Primzahlsatzes zu finden, der ohne eine gewisse Kenntnis der komplexen Nullstellen der Zetafunktion auskommt. Und doch glückte 1948 ein solcher Beweis durch Selberg und Erdös mit elementaren Mitteln. Erwähnenswert dabei, dass der Beweis noch lange nicht einfach ist. Uns schienen die analytischen Beweise durchsichtiger zu sein. Daher haben wir in dieser Arbeit auf einen elementaren Beweis verzichtet. Der analytischen Weg zum Primzahlsatz von Newman kommt einerseits mit Integration längs endlicher Wege (und der Tatsache ³(s) 6= 0 in ¾ ¸ 1) aus, umgeht also Abschätzungen bei 1; andererseits ist er frei von Sätzen der Fourier-Analysis. Beim Beweis des Primzahlsatzes von Wolke benutzt man anstelle von ³0(s) ³(s) die Funktion ³ 1 k mit großen k. Wegen des Pols bei s=1 bringt dies bei der Integration leichte Komplikationen, hat aber den Vorteil, dass außer der Nullstellen-Freiheit keine nichttriviale Abschätzung für ³ oder ³0 erforderlich ist. Dank der elementaren Äquivalenz zwischen dem Primzahlsatz und der Konvergenz von 1Pn=1 ¹(n) n brauchte Newman nur die Konvergenz von 1Pn=1 ¹(n) n zu zeigen. Dies erreichte er mit Hilfe seines Konvergenzsatzes. Die Legendresche Formel, die auf dem Sieb des Eratosthenes basiert, erlaubt die exakte Berechnung von ¼(x), wenn alle px nicht übersteigenden Primzahlen bekannt sind. Diese prinzipielle Möglichkeit zur Ermittlung von ¼(x) ist in der Praxis natürlich stark limitiert durch die mit x rasch anwachsende Anzahl der rechts in der Legendresche Formel zu berücksichtigenden Summanden. Mit verfeinerten Siebtechniken haben verschiedene Autoren zur Legendresche Formel analoge Formeln ¼(x) ersonnen, bei denen der genannte Nachteil von Legendresche Formel sukzessive reduziert wurde. Zu erwähnen sind hier vor allem Meissel, Lehmer, sowie Lagarias, Miller und Odlyzko. Aus den Graphen von R(x)¡¼(x); li(x)¡¼(x) und x log(x) ¡¼(x) für den betrachteten Bereich x · 1018 konnten wir feststellen, dass R(x); li(x) sowie x log(x) die Anzahlfunktion Pi (x) annähern, wobei R(x) die beste Approximation für Pi(x) von allen drei ist.
In dieser Arbeit definieren wir ein Maß für den Grad der Mehrdeutigkeit (degree of ambiguity da) kontextfreier Grammatiken und Sprachen als die Anzahl der Ableitungsbäume in Abhängigkeit von der Länge n eines Wortes. Wir zeigen, dass es weder Sprachen noch zyklenfreie Grammatiken gibt, deren Mehrdeutigkeitsgrad stärker als 2£(n) wächst (wie z B. £(nn)). Aus [10] ist es außerdem bekannt, dass es keine Grammatiken (und somit keine Sprachen) gibt, deren Mehrdeutigkeit stärker als polynomiell, aber schwächer als exponentiell wächst (wie z. B. £(2pn). Deshalb untersuchen wir in dieser Arbeit hauptsächlich konstant mehrdeutige, polynomiell mehrdeutige und exponentiell mehrdeutige Grammatiken und Sprachen. Für jede feste, ganze Zahl k 2 N hat Maurer [8] die Existenz einer k-deutigen kontextfreien Sprache nachgewiesen. Durch Verwendung einer einfacheren Sprache, nämlich der Sprache Lk := fambm1 1 bm2 2 : : : bmk k jm;m1;m2; : : : ;mk ¸ 1; 9 i mit m = mig, und mit Hilfe von Ogden's Lemma1 erhalten wir einen wesentlich kürzeren Beweis. Ferner zeigen wir die Existenz exponentiell mehrdeutiger Sprachen. Wir zeigen, dass die Sprache L¤ { wobei L = faibicj ji; j ¸ 1g [ faibjciji; j ¸ 1g-exponentiell mehrdeutig ist, indem wir beweisen, dass das Wort (ah+h!bh+h!ch+h!)k mindestens 2k Ableitungen in jeder Grammatik G für L¤ hat, wobei k aus N ist und h die Konstante aus Ogden's Lemma für G ist. Für beliebig kleines c aus R+ entwerfen wir eine Grammatik Gc für L¤, so dass daGc · 2cn gilt. Somit gilt, dass die Sprache L¤ zwar exponentiell mehrdeutig ist, aber es gibt kein festes c aus R+ , so dass L¤ 2cn-deutig ist. Wir geben polynomiell mehrdeutige Grammatiken an und zeigen die Existenz von polynomiell mehrdeutigen Sprachen, indem wir mit Hilfe von Ogden's Lemma beweisen, dass die Anzahl der Ableitungsbäume eines Wortes der Länge n in jeder Grammatik für die Sprache Lk in der Größenordnung von (nk) liegt, wobei k eine Konstante aus N ist, und L := fambm1cbm2c : : : bmpcjp 2 N; m;m1;m2; : : : ;mp 2 N; 9i 2 f1; 2; : : : ; pg mit m = mig gilt. Durch Angabe einer O(nk){deutigen Grammatik zeigen wir schließlich, dass Lk polynomiell vom Grad k mehrdeutig ist. Außerdem entwerfen wir für jedes feste d aus R+ eine Grammatik Gd für L, so dass daGd · dn dn für genügend großes n ist.
Eine nichtgeometrische Konstruktion der Spektren P(n) und multiplikative Automorphismen von K(n)
(1995)
Das Ziel des Experiments war es, den Einfluss des Valenzelektrons im Kaliumatom auf die Kernabschirmung zu untersuchen. Es wurde mit Hilfe von Laserpulsen mit einer Dauer von 120 fs entfernt. Die Ionisation oder Anregung der K-Schale der Kaliumatome sowie der Kaliumionen wurde mit hochenergetischen Röntgenphotonen realisiert. Um die daraus entstandenen Auger-Elektronen ohne störenden Untergrund messen zu können, wurde ein 4π Flugzeitspektrometer nach dem Prinzip der magnetischen Flasche eingesetzt. Es wurde gezeigt, dass nach dem Entfernen des Valenzelektrons die Kernabschirmung des Kaliumatoms zunimmt, was eine Änderung der Energie der K-Schale zu Folge hat. Diese Änderung von 3 eV trat bei einem Vergleich der Ionisationskurven für Kaliumatome und Kaliumionen deutlich hervor. Die Höhe der Änderung lässt darauf schließen, dass sie im Zusammenhang mit der Ionisierungsenergie des entfernten 4s-Elektrons steht. Durch die Verwendung des Femtosekunden-Laserpulses in Verbindung mit den Röntgenstrahlen des Synchrotrons sollte der Auger-Prozess zeitaufgelöst dargestellt werden. Eine Messung des Verhältnisses der Elektronenraten in Abhängigkeit von der zeitlichen Verzögerung zwischen Laser- und Röntgenstrahlen ergab eine Länge des Röntgenpulses von 66 ps (± 5 ps), was für zeitaufgelöste Untersuchungen des in Femtosekunden ablaufenden Auger-Prozesses zu lang ist. Jedoch zeigt das Experiment, dass bei einer hinreichenden Verkürzung der Röntgenpulse zeitaufgelöste Untersuchungen im Bereich von Femtosekunden möglich sind. Für die Zukunft ist an der ALS eine weitere Beamline geplant, welche Röntgenpulse im fs-Bereich produzieren kann. Durch Verwenden dieser kurzen Röntgenpulse wären weitere Experimente zur zeitaufgelösten Darstellung des Auger-Prozesses denkbar. Bis zu diesem Zeitpunkt sollen weitere Experimente zur Untersuchung „langsamer“ dynamischer Vorgängen in Atomen und Molekülen, zum Beispiel die Dissoziation von Molekülen auf einer Pikosekunden Zeitskala, durchgeführt werden.
Im Rahmen dieser Diplomarbeit wurde eine Detektor-Sonde entwickelt, um Strahlprofile eines Ionenstrahls entlang der gekrümmten, geometrischen Achse eines Toroidsektormagneten zu messen. Bei der Konstruktion der Sonde musste die zuverlässige Messwerterfassung im Vakuum und innerhalb magnetischer Felder von bis zu 0,6 T berücksichtigt werden. Im theoretischen Teil werden die Theorie zum Strahltransport in den verwendeten Bauteilen, sowie die Funktionsweise eines Phosphor-Schirms (P20) dargelegt. Im experimentellen Teil wird die bewegliche Sonde, der verwendete Versuchsaufbau, sowie die Messungen und deren Auswertung näher beschrieben. Im abschließenden Fazit wird auch auf Alternativen zu der verwendeten Messmethode und deren Vor- und Nachteile eingegangen.
Aufbau und Test einer COLTRIMS-Apparatur zur Untersuchung der Ionisation von metastabilem Helium
(2007)
In der vorliegenden Arbeit wurde ein COLTRIMS-Experiment, zur Untersuchung eines angeregten, spinpolarisierten Gastargets in starken Laserfeldern, aufgebaut. Das zu untersuchende kalte Gastarget wird durch eine Überschallexpansion in der Quellkammer erzeugt. Zusätzlich wird in der dafür vorhergesehenen Düse über eine Gleichstromentladung in einer MSE ein Plasma im Gas gezündet. Dieses Plasma regt einen Teil der Gasatome in den gewünschten spinpolarisierten Zustand an. Für den Aufbau der Düse wurde auf das bereits bewährte Prinzip von [Jah02] zurückgegriffen und dieses im Detail verbessert. Die Stromzufuhr für die Hochdruckseite der MSE (s. Kap. 3.3.2) verläuft jetzt entlang der Gaszuleitung während die Niederdruckseite der MSE über das Düsengehäuse geerdet ist. Durch diese Vorgehensweise wird ein ungewolltes Brennen des Plasmas außerhalb der Düse unterbunden. Zudem ist die MSE nun von außen mit dem Düsendeckel verschraubt und lässt sich so leichter austauschen. Für eine längere Brenndauer (10-15 h) des Plasmas werden die stabileren Kupfer- oder Wolfram-MSEs verwendet. Die Separation der (", ")-Zustände erfolgt durch einen eigens für dieses Experiment angefertigten Hexapolpermanentmagneten [Jah02]. Der Strahl wird zwecks einer maximalen Ablenkung des gewünschten spinpolarisierten Anteils nahe eines Pols eingeschossen. Die Kenntnis über die Strahlqualität nach der Expansion sowie die zusätzliche Fokussierungseigenschaft des Magneten lassen auf einen gut lokalisiertes Target schließen. Nach vorangegangen Berechnungen beträgt die Targetdichte ca. 5·10exp6 /cmxcm bei einer Fokusausdehnung von ca. 1-2 mm. Diese Werte beschreiben jedoch nur einen Mittelwert, da es durch die Abnutzung der MSEs und deren Wechsel zu verschiedenen Brennzuständen des Plasmas kommen kann. Der Laserstrahl wird unter Verwendung eines Periskops orthogonal zu der um 3° gekippten Tragetstrahl-Spektrometer-Ebene eingeschossen. Er kreuzt den Targetstrahl in der Mitte des Spektrometers, welches dafür verantwortlich ist die Fragmente der Reaktion mit Hilfe eines elektrischen und magnetischen Feldes in Richtung der Delayline-Detektoren zu lenken. Dies ermöglicht eine genaue Untersuchung der Reaktion mit einer Raumwinkelakzeptanz von 4 Pi. Aufgrund des winzigen Fokusvolumens des Lasers kann auf eine Flugzeit- sowie Ortsfokussierung der Teilchen verzichtet werden. In diesem Experiment sollen anhand der Koinzidenz-Imaging-Technik von COLTRIMS Doppelionisationsprozesse von spinpolarisiertem Helium in starken Feldern untersucht werden. Eine besondere Aufmerksamkeit soll dabei der relativ neuen „Rescattering“-Theorie geschenkt werden. Bei diesem nichtsequentiellen Doppelionisationsmechanismus wird ein Elektron durch einen Laserpuls aus dem Atom gelöst. Durch das weiterhin anhaltende, oszillierende Laserfeld nimmt das Elektron genügend kinetische Energie auf, um zu dem Atom zurückzukehren und mit dem zweiten Elektron zu stoßen und dieses zu ionisieren. Das vorliegende Experiment kann somit als Elektronenstoßexperiment angesehen werden, bei dem sowohl Target als auch Projektil polarisiert sind. Die geplanten Messungen konnten leider aufgrund eines langanhaltenden Defekts des Frankfurter Lasersystems nicht durchgeführt werden. Erste Testmessungen zeigen allerdings, dass alle Einzelkomponenten des Aufbaus funktionieren. Der spinpolarisierte Heliumstrahl konnte erzeugt werden und der zu untersuchende Anteil verläuft mittig durch das COLTRIMSS-Pektrometer. Die beiden Delayline Detektoren wurden in Betrieb genommen und in einer Testmessung mit Argongas optimiert. Erste Flugzeitmessungen zeigen, dass auch das konzipierte Spektrometer entsprechend den Erwartungen funktioniert und auch die restliche Messelektronik einsatzbereit ist.
Beim zentralen Stoß zweier ultrarelativistischer Schwerionen wird ein Zustand extremer Dichte und Temperatur erzeugt, der die Bildung des postulierten Quark-Gluon-Plasmas ermöglichen sollte. Diese neue Phase von Kernmaterie zeichnet sich dadurch aus, daß Quarks und Gluonen ohne den unter Normalbedingungen herrschenden Einschluß in Hadronen frei beweglich sind. Das Experiment NA49 am CERN SPS untersucht Kollisionen von 208Pb-Kernen. Dazu wird ein Bleistrahl mit einer Energie von 158 GeV/Nukleon auf ein im Laborsystem ruhendes Bleitarget geschossen. Das Detektorsystem ist auf den Nachweis des hadronischen Endzustands der Reaktion spezialisiert und erlaubt die Messung von mehr als 60% der etwa 2000 produzierten Hadronen. Diese große Zahl von meßbaren Teilchen macht die Untersuchung von Spektren einzelner Ereignisse möglich, die mit dem über alle Ereignisse gemittelten Spektrum verglichen werden können. Damit will man Fluktuationen von Ereignis zu Ereignis, sogenannte Einzelereignisfluktuationen, nachweisen. Um eine von der Unterteilung der Spektren in Bins unabhängige Untersuchung durchführen zu können, wurden die Einzelverteilungen mit Hilfe von Wavelettransformationen in eine Vielskalendarstellung überführt. Durch die anschließende Berechnung von faktoriellen Momenten der Waveletkoeffizienten war daher eine Korrelationsanalyse auf verschiedenen Skalen möglich. Es wurden breit angelegte Simulationen durchgeführt, die quantitative Aussagen über das Verhalten der faktoriellen Waveletmomente bei verschiedenen Arten der Eingangsverteilungen - als Beispiel seien hier flach- und gaußverteilte Spektren genannt - möglich machten. Die Multiplizitätsabhängigkeit der Verteilungsbreite der faktoriellen Waveletmomente der Ordnung q von Ereignissen mit gleichverteilten Einträgen ergab sich so zu einer Gesetzmäßigkeit von der Form sigma q(m) ~ m exp (-q/2). Die Untersuchungen der experimentell erhaltenen p-Spektren zeigten im Rahmen der statistischen Fehler auf keiner Skala eine signifikante Abweichung von den aus Simulationen mit rein zufälligen Einträgen erhaltenen Ergebnissen. Im Vergleich mit Simulationsrechnungen wurde eine obere Grenze für das Auftreten lokaler nichtstatistischer Fluktuationen gesetzt. Solche Fluktuationen werden z.B. in DCC-Modellen vorhergesagt. Die in der Analyse der Waveletmomente festgestellte Abwesenheit lokaler Fluktuationen steht in qualitativer Übereinstimmung mit der Analyse globaler Einzelereignisvariablen (z.B. <p-i->), die ebenfalls auf ein System mit minimalem Korrelationsinhalt hinweisen.
Wiki-Systeme im eLearning
(2006)
Wiki-Systeme lassen sich in den verschiedensten Anwendungsgebieten auf angenehme Weise, aufgrund ihrer Open-Source Lizenz, durch die Anreicherung entsprechender Zusatzmodule anpassen. An dieser Stelle muss jedoch bedacht werden, dass durch die Integration vermehrter Funktionen, das charakteristische Merkmal der Wiki-Systeme 'Einfachheit' an Präsenz verlieren kann. Dieses, für Wikis typische Charakteristikum ist eine nicht zu unterschätzende Stärke, da sowohl die Expansion der Enzyklopädie Wikipedia, als auch die zunehmende Anzahl bestehender Wikis im Internet geradezu Beweis dafür sind, dass keine anderen Anwendungen in diesem Verhältnis existiert haben. Würde somit das Wiki, aufgrund der Anpassung an ein vorliegendes Konzept an Einfachheit verlieren, so müssten die Beweggründe des Wiki-Einsatzes noch mal überdacht werden. Ebenso könnte in den Bereichen, in denen die Stärken von Wikis unbrauchbar sind, ein anderes System womöglich bessere Ergebnisse liefern als ein Wiki. Aus diesen Gründen sollte vor einem Wiki-Einsatz überprüft werden, ob die vorhandenen Merkmale und Funktionen eines Wikis mit den eigenen Anforderungen übereinstimmen. Die im Rahmen dieser Arbeit durchgeführte Befragung hat gezeigt, das Wikis größtenteils als Präsentationsmedium, zur gemeinsamen Texterstellung und als Informationsplattform genutzt werden. Es ist deutlich geworden, dass die Integration von Wikis im Lehrbereich geeignete Anwendung findet. Auffallend war, dass zwar bei (fast) allen Befragten Schwierigkeiten aufgetreten sind und sogar erhoffte Erwartungen teilweise nicht erfüllt wurden, dennoch war der größte Teil der Befragten mit dem Wiki-Einsatz zufrieden und bewertete diesen als positiv. Die Art der aufgetretenen Schwierigkeiten und Schwachstellen zeigt, dass den Lehrenden gewisse Anleitungen und Richtlinien für einen erfolgreichen Wiki-Einsatz fehlten. Denn Informationen zum didaktischen Rahmen - in denen Wikis eingesetzt werden können - und wie Wikis eingesetzt werden sollen, waren nicht vorhanden. Somit sollen die - in dieser Arbeit - erarbeiteten Empfehlungen und Kriterien, Lehrende zu einem optimierten Wiki-Einsatz in Lehrveranstaltungen verhelfen. Außerdem sind in dieser Arbeit Vorgaben enthalten, wie Wiki-Einsätze von Lehrenden gestaltet werden können, so dass die häufig auftretenden Probleme vermieden werden können. Die erarbeiteten Empfehlungen und Kriterien sind gleichermaßen aus den positiven, wie auch aus den negativen Erfahrungen der Befragten entstanden. Insbesondere sollen die Empfehlungen und Kriterien, die von den Befragten permanent beklagten auftretenden Schwierigkeiten und Probleme verhindern. Eine Garantie jedoch, dass die Einhaltung dieser Empfehlungen und Kriterien zu einem erfolgreichen Wiki-Einsatz führen und ob keine relevanten Kriterien unbeachtet gelassen sind, kann an dieser Stelle nicht gegeben werden. Ob sich nun die Probleme, die sich mit Wiki-Einsätzen wiederholt ergeben haben, durch die Befolgung dieser Kriterien und Empfehlungen vermeiden lassen, könnte im Rahmen einer nachfolgenden Diplomarbeit untersucht werden, in der Wiki- Einsätze, begleitet werden. Weiterhin sollte im Rahmen einer weiteren Arbeit die Situation der Lernenden und die Auswirkung auf das Lernverhalten in Verbindung mit Wiki-Systemen evaluiert werden, so dass einige Thesen dieser Arbeit belegt oder gar widerlegt werden können.
Ein Schwerpunkt der physikalischen Fragestellungen, die zur Entwicklung des Dileptonenspektrometers HADES führten, ist die präzise Vermessung des invarianten Massenspektrums von Dileptonen, die in zentralen Reaktionen von relativistischen Schwerionen entstehen. In den Spektren sind die leptonischen Zerfälle der Vektormesonen enthalten. Aus Position und Breite der entsprechenden Signale kann auf eine mögliche Veränderung der Eigenschaften von Vektormesonen im dichten und heißen Kernmedium geschlossen werden. Für die Rekonstruktion der Teilchentrajektorien der Elektronen und Positronen werden die Vieldraht-Driftkammern verwendet, und unter Berücksichtigung des Magnetfelds kann der Teilchenimpuls mit hoher Genauigkeit bestimmt werden. Die hohe Impulsauflösung gepaart mit einer großen Akzeptanz und einem effektiven Trigger, ist eine notwendige Voraussetzung für das Studium von Dileptonen im SIS Energiebereich 1-2 GeV per Nukleon. Eine Flugzeitwand ermittelt über die Teilchenmultiplizität die Zentralität des Stoßes und hilft mittels der Flugzeit bei der Identifikation von Teilchen, insbesondere der Hadronen. Elektronen werden mit Hilfe spezieller Detektoren (Ringabbildender Cherenkov Detektor und Schauerdetektor) identifiziert. Ein effizientes Triggerkonzept zusammen mit einer innovativen Datenaufnahme ermöglicht, solche Ereignisse, in denen sich Dileptonenkandidaten befinden, schnell zu erkennen und dann zu registrieren, um so in kurzer Zeit eine hinreichende Statistik an Dileptonen zu erhalten. Im Rahmen dieser Forschungsarbeiten war das Ziel der Diplomarbeit, die Untersuchung des Ansprechverhaltens der Driftkammern auf Myonen aus der kosmischen Höhenstrahlung und deren Positionen relativ zur Flugzeitwand zu bestimmen. Da die Myonen aus der kosmischen Höhenstrahlung ähnliche Signale in den Vieldraht-Driftkammern hervorrufen wie die in den Schwerionenreaktionen produzierten minimal ionisierenden Teilchen, war es möglich, unabhängig von Strahlzeiten das Ansprechverhalten der Vieldraht-Driftkammern zu untersuchen. Um dieses zu erforschen, wurde zunächst ein spezieller Trigger aufgebaut, der auf Koinzidenzen von gegenüberliegenden Flugzeitwand-Sektoren beruht. So konnte das Durchqueren eines Myon-Kandidaten durch das Spektrometer registriert, und die Teilchentrajektorie vom Ein- bis zum Austritt aus diesem nachvollzogen werden. Die primären Messgrößen, wie die Driftzeiten, und die Korrelation zwischen den Driftkammern und der Flugzeitwand, wurden untersucht und mit Daten aus dem Strahlzeit-Experiment vom November 2001 C+C bei 1,9 GeV per Nukleon verglichen. Weiterhin wurde nach Entwicklung einer Myonen-Kandidatensuche die Effizienz der Driftkammern analysiert. Dabei stellte sich heraus, dass die Driftkammerebenen des Sektors 1 eine Nachweiswahrscheinlichkeit für kosmische Myonen von über 93% aufzeigen. Eine Optimierung der Methode hinsichtlich der Ortsauflösung und Korrelationen zu anderen Drahtebenen oder Driftkammern anderer Ebenen kann in Zukunft in Angriff genommen werden. Da die Intensität der Myonen gering ist, und sie in den meisten Fällen das Spektrometer auf geraden Bahnen durchqueren, sind Vieldeutigkeiten minimiert. So war es möglich, die Positionen der Driftkammern relativ zur Flugzeitwand mit einer Genauigkeit, die durch die Ortsauflösung der Szintillatoren der Flugzeitwand dominiert ist, zu ermitteln. Im Vergleich zu den Standard-Justierungsparametern ergeben sich Abweichungen von bis zu 37,73 mm für die Relativpositionen der Vieldraht-Driftkammern im Vergleich zur Flugzeitwand mit einer Ungenauigkeit von maximal ±7 mm. Um die für das invariante Massenspektrum der Dileptonen notwendige Massenauflösung zu erreichen, wird empfohlen, die Relativpositionen der Driftkammern zueinander und zum Magnetfeld zu bestimmen. Hierfür muss die exakte Ortsinformation des Durchstoßpunktes des Myons auf die Driftkammer über eine Anpassung der Trajektorie berechnet werden. Daraufhin können die Positionen der Driftkammern relativ zueinander mit einer Genauigkeit von < 100 mm ermittelt werden.
Die Leistungsfähigkeit moderner Grafikhardware erreicht ein Niveau, auf dem sich selbst aufwändig gestaltete 3D-Szenen in kürzester Zeit berechnen lassen. Die Möglichkeiten, die diese Systeme zur Navigation und Interaktion im dreidimensionalen Raum bieten, erscheinen vielen Anwendern jedoch nicht intuitiv genug. Das Ziel der vorliegenden Arbeit war es, neue Navigations- und Interaktionstechniken für räumliche Anwendungen zu entwerfen und anhand einer prototypischen Implementierung die Eignung dieser Techniken für die Interaktion mit einem virtuellen Modell des Rubik’s Cube zu untersuchen. Da die entwickelten Verfahren ihre Tauglichkeit insbesondere bei der Interaktion über klassische Ein- und Ausgabegeräte unter Beweis stellen sollten (Maus, Tastatur und 2D-Display), waren geeignete Abbildungen der zu beherrschenden Freiheitsgrade zu konzipieren. Die Beschreibung grundlegender Aspekte der menschlichen Wahrnehmung führte zum Konzept der 3D-Metapher, welche die Durchführung einer dreidimensionalen Operation mit Hilfe von 2D-Eingabegeräten erklärt. Einzelne Interaktionsaufgaben des 3D-Raums wurden dargestellt und Beispiele von metaphorischen Konzepten für ihre Implementierung gegeben. Nach der Darstellung der am Rubik’s Cube auftretenden Interaktionsformen wurden metaphorische Konzepte für die Operationen Inspektion und Rotation entworfen und ihre besonderen Eigenschaften beschrieben; hierbei wurde zudem auf spezielle Verfahren eingegangen, die bei der Implementierung dieser Metaphern eingesetzt wurden. Im Rahmen einer Benutzerstudie wurde die Bedienung der konzipierten Interaktionsmetaphern im praktischen Einsatz getestet. Hierbei wurden insbesondere die Kriterien Intuitivität, Effizienz und Erlernbarkeit untersucht sowie die zeitliche Performance und Fehlerhäufigkeiten beim Einsatz der unterschiedlichen Werkzeuge analysiert. Die vorliegende Arbeit bietet eine Reihe von Ansätzen für künftige Erweiterungen, wie zum Beispiel die Weiterentwicklung zu einer Autorenumgebung für interaktive Anwendungen oder die Integration eines Kommunikationskanals zwischen den einzelnen Interaktionsmetaphern, um auf diese Weise auch komplexe Verhaltensmuster implementieren zu können.
Im Rahmen der vorliegenden Diplomarbeit wurde die Rolle der putativen mitochondrialen Kinase PINK1 untersucht. Die Mutationen in diesem Gen sind für die PARK6 Form von Morbus Parkinson ursächlich. Dies ist eine neurodegenerative Erkrankung, welche die Lebensqualität der Betroffenen weitgehend beeinträchtigt. Sie wird mit Dopamin-Ersatzmitteln und DBS (Deep Brain Stimulation) behandelt, beide nicht frei von Nebenwirkungen. Levodopa können bekannterweise zu schweren Fällen von Dyskinesie führen. Die Aufklärung der physiologischen Rolle von PINK1 würde den Wissenschaftlern auf dem Weg zur Früherkennung und anderen Therapiemöglichkeiten verhelfen. Die PARK6 Form der Parkinson Erkrankung wird derzeit anhand von verschiedenen Modellorganismen (M. musculus, D. melanogaster, D. rerio, C. elegans), sowie von verschiedenen Zellmodellen (HeLa, PC12, Fibroblasten aus PARK6 Patienten) untersucht. Als neuronale Zelllinie eignen sich die SH-SY5Y Zellen besonders gut für die Forschung an der durch den Verlust von dopaminergen Neuronen gekennzeichneten Parkinson-Erkrankung und sind diesbezüglich als ein relevantes Zellmodell breit akzeptiert (Xie et al.2010). In der vorliegenden Diplomarbeit wurden mit einem adenoviralen Konstrukt generierte PINK1 knockdown SH-SY5Y Zellen (M. Klinkenberg) als ein potentielles Zellmodell für die PARK6 Form von M. Parkinson analysiert. Als Kontrolle für die PINK1- abhängigen Effekte wurden NT (non target) Zellen herangezogen. Ausschlaggebend für die Wahl dieses Zellmodells war die Beobachtung, dass die PINK1 KD SH-SY5Y Zellen bei einer Reduktion des Serumgehaltes im Medium wesentlich langsamer wachsen als die NT Zellen (M. Jendrach). Die Serumdeprivation schien also der notwendige Stressfaktor zu sein, welcher zur Auslösung eines PINK1-abhängigen Phänotyps führen könnte. Daraus ergab sich die Frage, welche anderen PINK1-abhängigen Veränderungen unter Serumentzug zur Ausprägung kommen. Im Rahmen dieser Diplomarbeit wurde zunächst die relative Genexpression der PINK1 KD SH-SY5Y Zellen in Bezug auf die NT Zellen untersucht. Es zeigte sich, dass der PINK1 KD bei reduziertem Serumgehalt zur Herunterregulation weiterer Parkinsonrelevanter Gene führt, deren Produkte an verschiedenen zellulären Prozessen beteiligt sind. Die Effekte traten nur bei stabil transfizierten Zellen auf und waren durch einen transienten PINK1 KD nicht reproduzierbar. Viele dieser Gene sind für die Aufrechterhaltung der mitochondrialen Homöostase bedeutsam und deshalb wurde die mitochondriale Funktion und Erscheinung in den PINK1 KD SH-SY5Y Zellen genauer erforscht. Im Gegensatz zu früheren Befunden (Mai et al. 2010) wurde eine Herunterregulation des für die mitochondriale Teilung zuständigen Fis1-Proteins ermittelt, darüber hinaus aber keine Änderung der mitochondrialen Morphologie auch nach induziertem Zellstress beobachtet (Dagda et al. 2009, Lutz et al. 2009). Ein Defizit in der mitochondrialen Atmung wurde festgestellt, nachdem die Zellen bei 1g/L Glucose kultiviert und für 24h auf ein Galaktose-haltiges Medium transferiert wurden. Außerdem wurde ähnlich zu Amo et. 2010 al eine leicht verminderte Energieladung der betreffenden Zellen gefunden. Keine Beeinträchtigung der mtDNA-Integrität oder der Überlebensrate bei H2O2-induziertem oxidativen Stress wurde beobachtet. Weiterhin wurde untersucht, inwiefern die in den PINK1 KD SH-SY5Y Zellen beobachteten Veränderungen in der Genexpression auf weitere Zellmodelle (PINK1 KD HeLa, kortikale Neurone aus PINK1 KO und PINK1 KO / A53T alpha Synuclein überexprimierenden Mäusen) übertragbar sind. Dabei wurden einige Gemeinsamkeiten zwischen den PINK1 KD SH-SY5Y Zellen und den PINK1 KO /A53T α Synuclein überexprimierenden kortikalen Neuronen ermittelt. Angesichts des Verlustes von dopaminergen Neuronen in M. Parkinson wäre es bedeutsam nachzuvollziehen, ob und wie die verminderte Expression Parkinson-relevanter Gene in diesen PINK1 KD Zellmodellen kompensiert wird, so dass die Zellen trotz der genetischen Einschränkung bei idealisierten in vitro Bedingungen gut überleben können. Hier ist es vorstellbar, dass zusätzlicher Zellstress die Gemeinsamkeiten zwischen den PINK1 KD SH-SY5Y Zellen und den PINK1 KO / A53T SNCA überexprimierenden Neuronen erweitern könnte. Diesbezüglich wäre es auch relevant zu erforschen, unter welchen Umständen die potentiellen Kompensationsmechanismen versagen, so dass das Zellüberleben nicht mehr gewährleistet wird. Im Licht des altersbedingten Ausbruchs der Symptome bei M. Parkinson würden diese neuen Erkenntnisse dazu beitragen, die möglichen auslösenden Faktoren zu erfassen und so ein tieferes Verständnis der molekularen Mechanismen dieser schwerwiegenden Erkrankung zu erhalten.
Pion-Pion-Streuung in einem geeichten linearen Sigma-Modell mit chiraler U(2)R × U(2)L-Symmetrie
(2006)
Das Thema der vorliegenden Arbeit waren die leichten skalaren und vektoriellen Mesonen, die in einem chiral symmetrischen SU(2)-Modell zusammengefasst wurden; aufgrund der sich daraus ergebenden Lagrange-Dichte wurde die Streuamplitude für die Pion-Pion-Streuung im Vakuum berechnet, was sodann die Berechnung der s-Wellen-Streulängen an der Schwelle im Vakuum erlaubte.
In der vorliegenden Arbeit wurden die Signalformen eines großvolumigen Germanium- Detektors analysiert, mit dem Ziel, den primären Wechselwirkungsort des Photons im Detektor zu bestimmen. Die experimentellen Voraussetzungen dazu bestehen erst seit der Entwicklung schneller Analog-Digital-Wandler, mit denen man in der Lage ist, Detektorsignale direkt nach dem Vorverstärker zu digitalisieren und somit einer genauen Analyse zu unterziehen. Im experimentellen Teil der Arbeit wurden dazu die von einem großvolumigen p-Typ HPGe-Detektor der "koaxial einseitig geschlossenen" Bauart gelieferten Signale abgetastet und digitalisiert. Synchron dazu wurde die Energie mit Analogelektronik gemessen. Die Messungen wurden für verschiedene Energien in Abhängigkeit vom Auftreffort des g-Quants auf dem Detektor durchgeführt. Dabei wurde der Detektor mit g- Quellen im Energiebereich bis 700keV an verschiedenen Positionen kollimiert bestrahlt. Zu den Messungen wurden Simulationsrechnungen durchgeführt, die sich in zwei Schritte gliederten. Im ersten Schritt wurden mittels des Monte-Carlo-Simulationsprogramms GEANT die Wechselwirkungsorte und die dort deponierten Energien eines g-Quants in einem Germanium-Detektor ermittelt. Im zweiten Schritt wurden daraus, unter Berücksichtigung der Detektorgeometrie und des dadurch vorgegebenen elektrischen Feldes, die Pulsformen berechnet. Aus der Anpassung der Rechnungen an die experimentellen Daten konnte über die Variation des einzigen freien Parameters der Ladungsträgerkonzentration, eine sehr gute Übereinstimmung der Anstiegszeitenverteilungen erzielt werden. Die Ladungsträgerkonzentration ließ sich damit mit einer Genauigkeit von 33% bestimmen. Durch eine Analyse der gemessenen digitalisierten Pulsformen konnte der Einstrahlort mit einer Wahrscheinlichkeit von 75,20% bestimmt werden. Dazu ist nur die Messung zweier Zeiten, der Zeit zwischen 10% und 30% der Pulshöhe und der Zeit zwischen 10% und 90% der Pulshöhe, notwendig. Die Ortsauflösung variierte dabei zwischen 4,1mm und 7,5mm. Mit Hilfe der Simulation konnten die Detektorbereiche identifiziert werden, für die eine eindeutige Zuordnung der Pulse zum Einstrahlort gelingt. Darauf aufbauend bietet die Simulation die Möglichkeit, neue Detektorgeometrien im Hinblick auf ihre Eigenschaften zur Bestimmung des Einstrahlortes zu entwickeln. Durch die Bestimmung des Einstrahlortes eines g-Quants auf dem Detektor läßt sich eine Dopplerkorrektur bei der Energiemessung von im Flug emittierten g-Quanten durchführen, die in einer deutlich verbesserten Energieauflösung resultiert.
Die Relevanz der Zuschreibung von "Hochbegabung" in der Biografie von besonders begabten Erwachsenen
(2007)
Mit dieser Arbeit konnten erstmalig Erkenntnisse über "hochbegabte" Erwachsene gewonnen werden, die bisher entweder nicht untersucht wurden oder aber hinter dem Schleier der Mystifizierung im Verborgenen blieben. Eine der wichtigsten Erkenntnis dieser Arbeit ist entgegen der Darstellung vieler Publikationen zu diesem Thema, dass die Zuschreibung von "Hochbegabung" nicht grundsätzlich biografisch relevant ist. Vielmehr ist die Relevanzeinstufung von "Hochbegabung" von entsprechenden Dispositionen und Ausprägungen mit ihren spezifischen Wirkungsmechanismen im Lebensablauf abhängig, die je nach Zusammenspiel in eine non-exklusive oder in eine exklusive "Hochbegabtenidentität" münden. Eine Normalitätserfahrung – und das ist die weitere wichtige Erkenntnis dieser Untersuchung – ist für eine non-exklusive "Hochbegabtenidentität" die notwendige Voraussetzung. Erst dadurch relativiert sich die durch die Zuschreibung bedingte Abgrenzung von Anderen. In diesem Zusammenhang erstaunt es nicht, dass ein kooperatives und annehmendes Umfeld gute Voraussetzungen für einen positiven Umgang mit der Begabung und somit auch für die Gelegenheit der Normalitätserfahrung gute Voraussetzungen liefert. Zu der vieldiskutierten Frage, ob eine vermutete "Hochbegabung" formal getestet und schließlich zertifiziert werden soll, kann somit auf Grundlage der Analyse nach der Marnier des Biografieforschers mit einem "je nach Lebenslage" Stellung genommen werden: Fühlt sich die betreffende Person mit der gegebenen Situation wohl und hat keine gravierenden, die weitere Identitätsentwicklung behindernde Schwierigkeiten und erfährt sich die besonders begabte Person als normal, so ist kritisch nach dem Nutzen einer Zuschreibung von "Hochbegabung" zu fragen. Nimmt sich die Person jedoch als ständiger Außenseiter wahr und resultieren daraus aufgrund des geringen Selbstwertes maßgebliche Schwierigkeiten in alltäglichen Situationen, so könnten die mit einer formalen Zuschreibung verbundenen Zutrittsmöglichkeiten zu entsprechenden Fördermaßnahmen durchaus eine Möglichkeit sein, Personen mit ähnlichen Erfahrungen kennenzulernen. Um diese Frage jedoch zufriedenstellend beantworten zu können, sind weitere, auf diese Frage zentrierte Untersuchungen notwendig. Ebenso sind ergänzend weitere Untersuchungen zur Identitätskonstruktion von per Zuschreibung ‚Hochbegabten’ unerlässlich, da die Methode des autobiografisch-narrativen Interviews hierbei an ihre Grenzen stößt (vgl. voriges Kapitel 8.6). Um das Moment der Etablierung einer Denkstruktur der "binären Schematisierung" und ihre Wirksamkeit zu erforschen, bedarf es unter anderem neurowissenschaftlichen Wissens, welches in dieser Arbeit nicht berücksichtigt werden konnte. Dennoch konnte anhand der Interviewtechnik des autobiografisch-narrativen Interviews erst die persönliche Relevanz der Zuschreibung von ‚Hochbegabung’ in den Biografien herausgearbeitet werden.
The thesis in general deals with CORBA, the Common Object Request Broker Architecture. More specifically, it takes a look at the server-side, where object adapters exist to aid the developer in implementing objects and in dealing with request processing. The new Portable Object Adapter was recently added to the CORBA 2.2 standard. My task was the implementation of the POA in MICO and the examination if (a) the POA specification is sensible and (b) in which areas it improves over the old Basic Object Adapter. After introducing distributed platforms in general and CORBA in particular, the thesis' main two chapters are a detailed abstract examination ("Design") of the POA design and their relization ("Implementation"), highlighting the potential trouble spots, persistence and collocation.
Die Suche nach einem geeigneten Photosensor für das PANDA-Experiment wurde durch folgende Anforderungen eingegrenzt: • Tauglichkeit in einem starken Magnetfeld • Funktionsfähigkeit trotz niedriger Temperatur • geringe Bauhöhe • interne Verstärkungsstufe wegen der geringen Lichtausbeute von PbWO4 • stabiler Betrieb trotz hoher Strahlenbelastung Diese Punkte werden von Large Area Avalanche-Photodioden (LAAPDs) erfüllt. Da diese Si-Halbleiterdioden im laufenden Experiment einer hohen Strahlenbelastung ausgesetzt sein werden, ist es erforderlich, die Strahlenhärte im Vorfeld intensiv zu testen. Im Rahmen dieser Diplomarbeit wurden Strahlenhärtetests mit geladenen und neutralen Teilchen an (inter-)nationalen Instituten und der Universität Frankfurt durchgeführt, wobei das Hauptaugenmerk auf der Neutronenbestrahlung lag. Dazu wurde eine Messvorrichtung entwickelt und funktionstüchtig aufgebaut, mit der dann die Messungen an fünf verschiedenen Dioden mit einer Kapazität von 180 pF vorgenommen wurden. Während der Bestrahlung wurde der Dunkelstrom in Abhängigkeit von der Bestrahlungszeit bei konstanten Temperaturen gemessen. Vor und nach den Tests wurden die APD-Parameter charakterisert, um später durch den Vergleich der Daten Aussagen zur Strahlenhärte der Photodetektoren machen zu können. Die Ergebnisse und Vergleiche zeigen, dass die APDs nach der Bestrahlung mit Photonen weiterhin gut funktionieren. Die Quantenausbeute verändert sich nicht. Der durch Protonen- (Rate ≈ 1013 p/cm2 (90 MeV) und Neutronenbestrahlung (Rate ≈ 1010 n/cm2 (1 MeV) und 1014 n/cm2 (14 MeV)) erzeugte hohe Dunkelstrom der APDs ist aufgrund seiner Temperaturabhängigkeit und den Ausheilungseffekte reduzierbar. Es ist zu erwarten, dass die APDs im laufenden Experimentbetrieb trotz dieser Strahlung funktionsfähig bleiben werden. Sobald die mit Neutronen bestrahlten APDs abgeklungen sind, werden ihre Parameter zum Vorher-/Nachher-Vergleich vermessen. Dazu gehören der Dunkelstrom in Abhängigkeit von der Verstärkung, die Verstärkung in Abhängigkeit von der Spannung und Wellenlänge und die Quantenausbeute. Um die Ausheilung bestrahlter Photodioden in Abhängigkeit von der Temperatur genauer zu bestimmen, sollen sie (unter Vorspannung) in einem Ofen bei T = 80◦C ausgebacken werden, bis der Dunkelstrom sich wieder in einem Gleichgewicht befindet. Nach diesem Vorgang werden dann alle APD-Parameter noch einmal vermessen, um einen Vergleich mit den Werten vor der Bestrahlung zu ziehen. Neben diesen nachbereitenden Arbeiten wird an ersten rechteckigen APD-Prototypen, die sich in der Entwicklungsphasen befinden, geforscht. An diesen außergewöhnlich großen APDs müssen alle an den quadratischen Photodioden bereits durchgeführten und noch folgenden Tests ebenfalls vorgenommen werden.
Durch die stetig zunehmende Implementierung von Informationssystemen in verschiedene Gesellschaftsbereiche gibt es in der Menschheitsgeschichte eine bisher noch nie dagewesene Entwicklung: ‚Kognitive Last’ kann dem Menschen durch technische ‚Denkzeuge’ sehr effektiv und effizient abgenommen werden. Dadurch können „typisch menschliche Bereiche wie Kreativität, Solidarität, Innovationsfähigkeit, Mitmenschlichkeit, Kommunikationsfähigkeit“ beim Einzelnen gefördert und entwickelt werden, wie es bisher nur bei ganz wenigen Menschen in einer Gesellschaft möglich war. „D. h. das Gehirn gewinnt - zumindest im Prinzip - völlig neue Freiheiten, nachdem es die kognitive Last abgeworfen und an die Computer übergeben hat. Diese Freiheit gilt es - insbesondere im Bildungswesen - zu nutzen!" Doch wird in der heutigen deutschen Schule und Hochschule nicht ‚Homo sapiens informaticus’ qualifiziert, „sondern den auf Abwicklung aller kognitiven Tätigkeiten im Gehirn trainierten Homo sapiens sapiens“. Früher oder später sieht dieser viele der mühsam erlernten kognitiven Leistungen durch technische Produkte in der realen Welt erfüllt (z.B. durch Arithmetik-Software), an die er sich nach seiner Ausbildung durch Fortbildung oder ‚learning by doing’ anzupassen versucht. In der Informationsgesellschaft wird der kompetente Umgang mit Neuen Medien als Schlüsselqualifikation gesehen, die es in jeglicher Ausbildung zu erwerben gilt. Um diese zu entwickeln reicht es jedoch nicht aus, Schulen mit entsprechender Technik auszustatten. Medienkompetente Schüler setzen den medienkompetenten Lehrer voraus. Aus diesem Grund wird einer entsprechenden Lehrerbildung eine Schlüsselrolle zur frühen und breiten Vermittlung von Medienkompetenz in der Gesellschaft zugeschrieben. Dazu müssen wiederum die Ausbilder der Lehrer selbst medienkompetent und die Bildungseinrichtungen mit Neuen Medien ausgestattet sein. Mit vorliegender Arbeit soll die von verschiedenen Bereichen der Gesellschaft gestellte Forderung, Neue Medien in der Bildung einzusetzen, nachvollzogen und auf ihre tatsächliche Implementierung in der derzeitigen Lehrerbildung untersucht werden. Dazu werden exemplarisch die Ergebnisse der Befragung einer kleinen Gruppe kaufmännischer Referendare herangezogen. Im Rahmen dieser Arbeit wird darauf verzichtet, eine ausführliche Darstellung unterschiedlicher Formen des multimedialen und telekommunikativen Lernens (Teleteaching, Lernsoftware etc.) vorzunehmen. Auf lernformenspezifische Aspekte wird, falls notwendig, an entsprechender Stelle eingegangen. Wirkungen, die Neue Medien auf Schulentwicklung, Bildungsinstitutionen als Kompetenzzentren und einhergehende Aspekte der Personalentwicklung haben, werden nicht systematisch untersucht.
Im Rahmen der vorliegenden Arbeit wurde eine Gahor-Plasma-Linse zur Fokussierung positiver Ionenstrahlen niedriger Energie konzipiert und aufgebaut. Die Erzeugung der Elektronen geschieht hier über eine Gasentladung, die im Linsenvolumen brennt. Die entstandenen Elektronen werden in einem elektromagnetischen Feld eingefangen. Die entstandenen Restgasionen werden aus dem Linsenvolumen herausbeschleunigt. Die Lösung der Bewegungsgleichung von Elektronen in gekreuzten elektrischen und magnetischen Feldern, unter Berücksichtigung der Elektronenraumladung, führt auf die Existenz einer maximalen Elektronendichte die abhängig ist vom Quadrat des magnetischen Feldes. Die Rechnung zeigte überdies, daß nach dem lokalen Erreichen der maximalen Elektronendichte eine Homogenisierung der Raumladung stattfindet. Die Diffusion der Elektronen, durch Stöße wurde allerdings nicht berücksichtigt. Eine generelle Aussage über das radiale Dichteprofil kann nicht gemacht werden. Die Untersuchungen zum Entladungsverhalten wurden für verschiedene Betriebsgase durchgeführt. Eine Zündung der Gasentladung konnte oberhalb einer gewissen Anodenspannung und eines gewissen Magnetfeldes immer erreicht werden. Die gegenüber der Paschenbedingung niedrigere Anodenspannung bei vorhandensein eines Magnetfeldes konnte anband der "verkleinerten" freien Weglänge erklärt werden. Die Dichtemessungen der Elektronen wurden mit einem elektrostatischem Gegenfeldspektrometer und einer elektrischen Langmuirsonde durchgeführt. Letztere ergaben, aufgrund der starken Störung der Gasentladung durch die Sonde, keine verwertbaren Ergebnisse. Die Energie der aus dem Linsenvolurnen herausbeschleunigten Restgasionen erlaubt im Prinzip einen Rückschluß auf ihr Entstehungspotential. Obwohl auch hier keine quantitative Aussage über das Dichteprofil gemacht werden konnte, erlaubte die Messung eine quantitative Aussage über den Füllgrad. Hierbei zeigen sich bei verschiedenen Betriebsbedingungen drastische Unterschiede. Die besten Ergebnisse ergaben Messungen an einer Entladung bei niedrigem Druck und geringer Stromstärke und hohem Magnetfeld. Ein empfindliches Meßinstrument zur Bestimmung der radialen Dichteverteilung ist der zu fokussierende Ionenstrahl selbst. Die Linse wurde in eine bestehende Ionenstrahltransportstrecke eingefügt. Messungen mit Argon- und Heliumionenstrahlen bei 10 ke V Strahlenergie und Strömen zwischen 200 mikroA und 1.15 mA wurden durchgeführt.Die Emittanz und Profilmessungen zeigten auch hier wieder eine drastische Abhängikeit des Strahlverhaltens von den eingestellten Linsenparametern. Zum überwiegenden Teil wurden Ausgangsemittanzen gemessen, die neben den stärksten beobachteten Fokussiereffekte starke sphärische Aberrationen zeigten und mit erheblichem Emittanzwachstum verbunden waren. Dies läßt auf eine stark inhomogene Verteilung der Elektronen schließen. Diese Ergebnisse wurden hauptsächlich bei hohen Linsenspannungen erzielt und zeigten zudem eine z.T. erhebliche Reduzierung des Kompensationsgrades hinter der Linse. Bei niedriger Iinsenspannung zeigte sich eine reduzierte Fokussierung des Strahles, die Aberrationen und das Emittanzwachstum waren aber weitaus geringer. Der Kompensationsgrad des Strahles hinter der linse blieb z. T. gegenüber einer reinen Driftmessung erhalten oder stieg sogar an. Die besten Ergebnisse ergaben sich bei 1500 V zwischen Anode und Kathode und einem magnetischen Feld auf der Achse von 280 Gauß. Der Restgasdruck betrug 1*10-5 hPa (größtenteils Helium). Ein 10 keV Heliumstrahl konnte entsprechend einer Brennweite von 20 cm bei vernachlässigbarem Emittanzwachstum fokussiert werden. Eine Variation der Linsenbrechkraft bei gleichzeitig kleinem Emittanzwachstum konnte nur in einem geringen Maße erreicht werden. Die angeführten Untersuchungen zeigen, daß es prinzipiell möglich ist, eine durch eine Gasentladung gefüllte Gabor-Plasma-Linse, als ionenoptisches Element zu betreiben. Eine Linearität der Feldveneilung und einen genügend hohen Füllgrad konnte nur in einigen Betriebszuständen erreicht werden. Die theoretischen und experimentellen Ansätze sind durchaus vielversprechend und lassen erhebliche Verbesserungen durch weitergehende Untersuchungen erwarten. Hier sind insbesondere theoretische und numerische Untersuchungen über das Einschlußverhalten von Elektronen in gekreuzten elektrischen und magnetischen Feldern notwendig. Dies führt zu einer Optimierung der Linsengeometrie hinsichtlich eines höheren Füllgrades. Fadenstrahlmessungen sind eine Möglichkeit um Aussagen über das radiale Dichteprofil zu gewinnen. Aber auch die Füllung der Linse mit thermischen Elektronen könnte ein Gegenstand weiterer Untersuchungen sein.
Entwurf und prototypische Realisierung einer Architektur zur flexiblen Verschlüsselung von XML-Daten
(2001)
Im Rahmen dieser Arbeit ist auf Basis einer sorgfältigen Prüfung existierender Literatur zu kryptografischen Verfahren und sowohl einer Analyse bestehender Ansätze zur Verschlüsselung von XML-Dokumenten, als auch unter Nutzung bestehender Standards für XML-Technologien, eine Architektur zur flexiblen Verschlüsselung von XML-Daten erstellt worden. Ausgehend von Einsatz-Szenarien wurden dazu Anforderungen an das gewünschte System definiert. Anhand dieser Anforderungen wurde systematisch eine vollständige Spezifikation zur Verschlüsselung von XML-Daten hergeleitet. Weiterhin ist eine erweiterbare und generische Architektur zur Verarbeitung von XML-Daten spezifiziert worden. Auf dieser aufbauend, wurde eine Architektur für die flexible Ver- und Entschlüsselung von XML-Daten erstellt. Diese Architekturen und ihre Komponenten sind generisch, wobei für die prototypische Realisierung exemplarisch eine konkrete Auswahl dieser Komponenten implementiert wurde. Für die Verschlüsselung wurde dazu auf die zuvor erstellte Spezifikation zurückgegriffen und deren relevante Teile implementiert. Anschliessend wurden Experimente durchgeführt, die einen Eindruck von der Leistungsfähigkeit der Architektur gegeben haben. Insgesamt haben sich die Erwartungen an die Architektur mehr als erfüllt. Stehen Transformationen als verwendbare Klassen bereit, die auf dem DOM operieren, so ist es leicht möglich, diese in das DPF einzubetten, wie z.B. beim Verschlüsselungs-Prozessor geschehen. Damit ist eine sehr gute Erweiterbarkeit gegeben. Da die Arbeitsweise eines Transformations-Prozessors sowohl direkt durch übergebene Argumente aus dem DPS als auch durch die Verwendung von Annotationen gesteuert werden kann, kann die Verarbeitung von Dokumenten sehr flexibel und auch feingranular erfolgen. Die Möglichkeit, Annotationen aus mehreren DAS-Dokumenten zu aggregieren, erlaubt eine verteilte Pflege dieser Dokumente. Mit der Möglichkeit, mehrere Prozessoren direkt nacheinander eine Eingabe bearbeiten zu lassen, wird die Flexibilität nochmals gesteigert. Denn wenn die Prozessoren als Komponenten zur Verfügung stehen, können diese stets aufs Neue kombiniert werden. Vor allem der Ansatz, dass alle zur Verarbeitung und Steuerung relevanten Daten in Form deklarativer Beschreibungen erfolgen, die den Bedürfnissen jedes Prozessors angepasst sind, macht das System zu einem mächtigen Instrument. Zudem werden dadurch keine tiefergehenden Programmierkenntnisse benötigt. So entfällt auch die Notwendigkeit, Änderungen des gewünschten Transformations-Ergebnisses durch Änderungen im Quelltext des erzeugenden Programms vorzunehmen. Dadurch sind insgesamt den Möglichkeiten zur Verarbeitung von XML-Dokumenten kaum Grenzen gesetzt. Notwendige Anpassungen bleiben zumeist auf eine oder wenige Komponenten beschränkt, was Änderungen leichter ermöglicht. Dabei hat sich wieder einmal der flexible und trotzdem mächtige Ansatz der Kette von Werkzeugen (Chain of Tools) bewährt. Auch die Spezifikation zur Verschlüsselung von XML-Daten konnte alle Erwartungen erfüllen. Alle eingangs gestellten Anforderungen sind damit ausnahmslos darstellbar. Insbesondere betrifft dies die partielle und feingranulare Verschlüsselung von XML-Daten, sowie die hierarchische und damit einhergehende Super-Verschlüsselung. Rückblickend kann gesagt werden, dass das wissenschaftliche Fundament in Form von kryptografischen Grundlagen zwar sehr gut ist, aber die darauf aufbauenden höherwertigen Dienste und Architekturen aus wissenschaftlicher Sicht bisher kaum Beachtung gefunden haben. So wird zwar die Verschlüsselung von ganzen Daten-Objekten zwischen zwei Empfängern gut beherrscht, aber eine feingranulare Verschlüsselung, bei der Daten an grosse dynamische Empfängergruppen in offenen Systemen vertraulich übermittelt werden, hat bisher keine Beachtung gefunden. In der vorliegenden Arbeit werden diese Probleme adressiert, wobei aber nicht für alle eine abschliessende Lösung präsentiert werden konnte, da dies den Rahmen der Arbeit gesprengt hätte. Vielleicht ist es gerade die fehlende wissenschaftliche Durchdringung, die es so schwierig macht, geeignete Standards für die Verschlüsselung von XML-Dokumenten zu etablieren. Denn wenn man betrachtet, wie lange schon beim W3C über die Verschlüsselung diskutiert und daran gearbeitet wird, so kann es einen nur verwundern, dass nicht greifbarere Ergebnisse vorliegen. Ende Juli, also kurz vor Abschluss der vorliegenden Arbeit, ist bei Recherchen noch ein wissenschaftlich fundierteres Papier aufgetaucht, das auf einer Konferenz im Juni dieses Jahres vorgestellt wurde. Es beschreibt eine Document Security Language (DSL), die auf XSLT beruht und eine Architektur zur Verschlüsselung von XML-Dokumenten [85]. Da die Nähe zu dieser Arbeit gross ist, soll sie hier noch kurz vergleichend betrachtet werden. Die dort beschriebene Architektur und die Sprache bietet auch die Verschlüsselung auf feingranularer Ebene. Aber sie ist nicht erweiterbar und kennt auch kein generisches Meta-Daten-Konzept, so dass sie hinter den Ergebnissen der vorliegenden Arbeit deutlich zurückfällt. Zudem beruht sie auf der vorne schon im Zusammenhang mit der Verwendung von XSLT kritisierten Arbeit in [48]. Sie trägt dazu im Bereich der Verschlüsselung nicht viel Neues bei. Allerdings weist sie einige interessante Ansätze im Bereich der Infrastrukturen auf [85, Abschnitt 3.2]. Um diese könnte die hier vorgestellte Architektur der Verschlüsselungs-Prozessoren ergänzt werden, denn dieses Gebiet wurde in der Arbeit ausgespart.
This thesis presents the implementation of the online reconstruction, calibration and monitoring of the data of the Transition Radiation Detector of ALICE. This reconstruction is performed on the High Level Trigger, the third level of the ALICE trigger system, and enables online calibration and monitoring of the incoming data. Additionally, the HLT can steer the data storage, such that only physical interesting events are saved. The online reconstruction, as well as the calibration, makes use of the existing offline algorithms. Therefore, interfaces between the HLT and these offline algorithms were implemented. For being able to reach the speed of 2000 Hz in proton-proton collisions, and 200 Hz in leadlead collisions, the algorithms had to be accelerated. Bottlenecks were tracked down using dedicated tools, and respective code was either reimplemented or it is being skipped during the online reconstruction. The quality of the output data was monitored throughout the implementation, to assure that it is not being cut too much.
Gegenstand dieser Arbeit ist das Entropiegesetz und seine Bedeutung für die Umweltökonomie. Das Grundgesetz vom Niedergang , wie Schütze es genannt hat, trifft in seiner ursprünglichen Bedeutung Aussagen über die Umwandlung von verschiedenen Formen von Energie bzw. über ihre Nutzbarkeit u.a. für menschliche Belange. So ist zu erklären, daß die stärkste Beschäftigung der Ökonomen mit dem Entropiegesetz in der Folge der sog. Ölkrise und der Studie Grenzen des Wachstums stattfand, da zu dieser Zeit der Gedanke einer plötzlichen Erschöpfbarkeit der Energiequellen um so stärker in den Vordergrund drang, wie es in der Zeit davor normal erschien, daß sich der Energieverbrauch regelmäßig verdoppelte. Das Thema physikalische Grenzen des wirtschaftlichen Wachstums ist in der öffentlichen wie auch in der (wirtschafts-) wissenschaftlichen Diskussion durch aktuellere und akutere Probleme in den Hintergrund gedrängt worden und mit ihm auch der Begriff Entropie. Diese akuteren Probleme sind vor allem im Zusammenhang mit Stoffen zu sehen, die den Bereich des menschlichen Wirtschaftens verlassen. Die zunehmende Umweltverschmutzung stellt sich in den letzten Jahren als das vordringliche Problemfeld für die Umweltökonomie dar. Zu erinnern wäre hier beispielhaft einerseits an die Unfälle bei Sandoz in Basel und des Kernkraftwerks in Tschernobyl sowie die Havarie des Tankers Exxon Valdez in Alaska. Andererseits ist aber auch der Normalbetrieb mit Problematiken wie der u.a. durch FCKWs zunehmenden Zerstörung der Ozonschicht oder auch dem übermäßigen Auftreten von Ozon in Bodennähe im Zusammenhang mit dem photochemischen Smog verbunden...
Gegenstand der Untersuchungen dieser Arbeit ist der Einfangprozess der radiativen Rekombination gewesen. Dabei ist zwischen dem Einfang in die inneren Schalen, K- und L- Schale, und dem Einfang in die äußeren Schalen unterschieden worden. Für die inneren Schalen ist neben dem Einfang in nacktes auch die Untersuchung des Einfangs in wasserstoffartiges Uran möglich gewesen. Es hat sich herausgestellt, dass die experimentellen Ergebnisse fur den Einfang in die inneren Schalen von U92+ gut mit den theoretischen Erwartungen übereinstimmen. Dagegen haben sich für den Einfang in U91+ leichte Abweichungen bei Einfang in die K- Schale gezeigt. Was diese Abweichung verursacht hat, konnte nicht geklärt werden. In Uran koppeln die Elektronen der innersten Schalen aufgrund der Größe der Kernladung über jj- Kopplung, weswegen die Wechselwirkung der Elektronen untereinander keine wesentliche Rolle spielen sollte. Dennoch scheint das bereits in der K- Schale vorhandene Elektron die Einfangwahrscheinlichkeit eines zweiten Elektrons zu vermindern. Das Verhältnis U92+/U91+ entspricht nicht dem erwarteten Wert von nahezu 2, sondern ist mit 2,28 etwas größer. Bisherige, jedoch bei hohen Energien durchgefuhrte, Experimente haben in guter Übereinstimmung mit den theoretischen Vorhersagen gestanden. Daraus lässt sich schließen, dass dieser Effekt erst bei sehr kleinen Stoßenergien auftritt, wie sie im Kuhler vorliegen. An dieser Stelle sei auch daran erinnert, dass der Stoß zwischen Elektron und Ion senkrecht erfolgt und somit der Detektor die emittierten Photonen unter 90 Grad beobachtet. Dies ist gerade der Winkel unter dem der Wirkungsquerschnitt maximal ist. Im Gegensatz dazu zeigen die Daten für die L- Schale in beiden Fällen im Bereich ihrer Fehlerbalken die gleichen Ergebnisse. Dies ist nicht verwunderlich, da aufgrund der hohen Kernladungszahl von Uran ein Elektron in der K- Schale keinen bedeutenden Abschirmeffekt für die L- Schale verursacht. Daher bleiben die Einfangszustände für den Einfang in die L- Schale im Gegensatz zum Einfang in die K- Schale bei U91+ nahezu identisch. Beim Vergleich der experimentellen Daten mit einer nichtrelativistischen und relativistischen Theorie ist sowohl für die Verhältnisse der K-RR Linie mit den beiden L-RR Linien als auch bei den L-RR Linien untereinander stets eine bessere Übereinstimmung mit der relativistischen Theorie gezeigt worden. Dabei sei daraufhingewiesen, dass die Werte dieser beiden Theorien deutlich voneinander abweichen. Wähhrend die nichtrelativistische Theorie für das Verhältnis K-RR/L-RRj=1=2 beispielsweise einen Wert von 2,12 voraussagt, ergibt die vollständig relativistische Theorie einen Wert von 1,41. Der experimentelle Wert von 1,23 +- 0,03 zeigt nun eine deutlich bessere Übereinstimmung mit der relativistischen Theorie. Daraus kann geschlossen werden, dass auch bei Stoßenergien nahe null für die tiefstliegenden Zustände relativistische Effekte vorhanden sind, die in den Rechnungen berücksichtigt werden müssen. Die Untersuchung des Einfangs in die äußeren Schalen hat dagegen weniger Übereinstimmende Ergebnisse gebracht. Zwar hat sich gezeigt, dass die Form der experimentellen Spektren durch verzögerte Lyman alpha Übergänge erklärt werden kann, allerdings ist die Intensität der niederenergetischen Ausläufer in der Simulationen nicht erreicht worden. Rechnungen mit verschiedenen Anfangszuständen haben gezeigt, dass durch die Hinzunahme von Zuständen mit höherer Hauptquantenzahl n die Zahl der verspäteten Ereignisse erhöht werden kann. Jedoch nicht in dem Maße, dass eine Wiedergabe der experimentellen Spektren möglich würde. Rechnungen mit unterschiedlichen Bedingungen haben gezeigt, dass auch Zustände mit kleinen Übergangswahrscheinlichkeiten Einfluß auf die zeitliche Entwicklung der Kaskaden haben. Dagegen wird die Kaskade durch Ausschluss von Zuständen mit einem Verzweigungsverhältnis kleiner als 1% kaum beeinflußtt. Weiterhin macht es keinen Unterschied ob die Wegstrecke mit Schrittweiten von 1x10 exp (-14) oder 1x10 exp (-11) gerechnet wird. Größere Zeitschritte führen zu Abweichungen. In einem weiteren Teil der Auswertung sind die l- Zustände untersucht worden, die zu den verspäteten Ereignissen beitragen. Dabei hat sich herausgestellt, dass die Zustände um l = n/3 den Hauptbeitrag zu den verspäteten Übergängen leisten. Bei den Yrastkaskaden lässt sich ein deutlicher Anstieg im Bereich von 30 ns beobachten, jedoch ist ihr Anteil im Vergleich zu den l = n/3 Zuständen deutlich geringer. Ihr Einfluss auf das Spektrum würde sich erst zu noch späteren Zeitpunkten bemerkbar machen. Der Beitrag verzögerter Ereignisse zu den Ausläufern der Lyman alpha - Linien ist nur aufgrund der relativistischen Raumwinkeltransformation verstärkt zu erkennen. Die effektiv vorhandene Intensität dieser verzögerten Ereignisse wird über die Raumwinkelkorrektur um ein Vielfaches erhöht. Tatsächlich folgt aus der Kaskadenrechnung ein Anteil verzögerter Übergänge an der gesamten Emission von nur 0,1 %, während er unter Berücksichtigung der Detektorgeometrie (Raumwinkelkorrektur für einen Beobachtungswinkel von 0 Grad) 4,6 % beträgt. Allerdings macht der im Experiment gemesse Anteil der verzögerten Emission 73,9 % der Gesamtemission aus. Er liegt also mehr als eine Größenordnung über dem Anteil, der sich aus der Kaskadenrechnung mit anschließender Simulation der Detektorgeometrie ergibt. Mit der momentanen Theorie ist es nicht möglich, die experimentellen Ergebnisse zu reproduzieren. Dies kann daran liegen, dass die Anfangsbesetzung gerade in den hohen Zuständen zu gering angesetzt wird. Da diese erst nach einigen Nanosekunden zu den Lyman alpha Übergängen beitragen, könnte eine höhere Anfangsbesetzung dieser Zustände zu einer Verstärkung der Linien beitragen. Es ist bisher noch nicht gelungen, eine Aussage darüber zu treffen, wodurch diese Ratenüberhöhung zustande kommt und welche physikalischen Aspekte dabei eine Rolle spielen. Möglicherweise ist die Verwendung der Stobbe-Theorie zur Berechnung der Rekombinationsraten freier Elektronen in hohe Rydbergzustände nicht richtig, weil es wegen der äußeren Felder im Kühler keine wirklich freien Elektronen in hohen Zuständen gibt. Zur detaillierteren Untersuchung dieses Phänomens hat im September 2004 die Gruppe um M. Pajek ein Experiment am Elektronenkühler durchgeführt [66]. Als Projektilionen sind wieder nackte Uranionen verwendet worden, allerdings bei einer Energie von 23 MeV. Detektoren sind unter 0 Grad und 180 Grad montiert worden. Während des Messzyklusses ist die Kühlerspannung variiert worden, um die Elektronen einmal schneller und einmal langsamer als die Ionen fliegen zu lassen. Auf diese Art und Weise sollte herausgefunden werden, ob bei Relativenergien ungleich null ebenfalls eine Ratenüberhöhung auftritt. Erwartet wird, dass dies aufgrund der höheren Relativenergie nicht der Fall ist. Eine Auswertung der Daten liegt derzeit noch nicht vor.
Da die zu untersuchenden physikalischen Observablen des NA49-Exprimentsentscheidend von der Leistungsfähigkeit der Detektoren beeinflußt werden, ist es notwendig, deren Funktion systematisch zu untersuchen und zu überwachen. Im Rahmen dieser Arbeit wurden Methoden vorgestellt, die Genauigkeit der Spurrekonstruktion zuquantifizieren und gegebenenfalls durch die Korrektur systematischer Fehler zu verbessern. Das NA49-Lasersystem hat während dieser Strahlzeit seine Funktionalität bewiesen. Trotz erheblicher technischer Schwierigkeiten hat die Analyse der Laserdaten Resultate geliefert, die entscheidend zum Verständnis der Funktion der Detektoren beigetragen haben. Der Ausbau des NA49-Lasersystems zu einem vollständigen System, das die in der ursprünglichen Konzeption festgelegten Spezifikationen erfüllt, hat sich damit als möglich und wünschenswert erwiesen. Die Untersuchung von Ereignissen ohne Magnetfeld ist ein sehr exaktes Meßinstrument zur Rekonstruktion der Position der Detektorkomponenten. Der Vorteil gegenüber traditionellen Methoden ist, da der Prozeß der Ortsmessung die vollständige Analysekette des Experiments beinhaltet. Damit können nicht nur räumliche Effekte untersucht werden, sondern auch Fehlfunktionen der Ausleseelektronik und der Analysesoftware. Die mit dieser Methode gefundene scheinbare Verschiebung der Detektorhälften relativ zueinander um ca. 4mm ist konsistent mit Ergebnissen anderer Analysemethoden (z.B. der Laseranalyse). Die Ursache dieser Verschiebung konnte bis zur Fertigstellung dieser Arbeit noch nicht lokalisiert werden. Um eine endgültige Klärung dieses Problems sicherzustellen, müssen Spuren in dem Detektor erzeugt werden deren Position besser bekannt ist als die intrinsische Ortsauflösung des Detektors. Das NA49-Lasersystem sollte in der vollständigen Ausbaustufe in der Lage sein, diese Aufgabe zu erfüllen.
Kulturelle Bedeutungen und zivilreligiöse Vorstellungen in der amerikanischen Sicherheitspolitik
(2003)
Im Rahmen dieser Diplomarbeit wurde ein Slow-Control-System für die HADES-Driftkammern konzipiert und umgesetzt. Ebenso wurden Teile des Konzepts erfolgreich für die Nutzung durch den RICH- und Showerdetektor angepasst. Durch die Nutzung in verschiedenen Strahlzeiten hat sich gezeigt, dass das System den gestellten Anforderungen gerecht wird. Die aufgezeichneten Daten lassen sich den Ereignissen während des Betriebs chronologisch zuordnen. Somit ist es möglich, zu jedem Zeitpunkt die Betriebsund Umgebungsbedingungen zu Analysezwecken zu rekonstruieren. Auch die Genauigkeit der aufgezeichneten Daten ermöglicht es, besondere Ereignisse wie z.B. Funkenüberschläge zu erkennen. Design und die Funktionalität der entwickelten GUI’s haben sich im Einsatz ebenfalls bewährt. Für die ermittelten und gesetzten Alarmwerte stellte sich heraus, dass einige Werte größeren Schwankungen unterliegen als die im April 2002 gewonnenen Daten vermuten ließen. Als Beispiel hierfür kann der gemessene Wert für die Sauerstoffkontamination dienen. Die im April aufgenommene Werte lagen für den besten Reinigungszustand wesentlich niedriger, als während der Strahlzeit im November 2002. Es wurde daher eine Anpassung der Alarmwerte nach oben notwendig. Dies gilt ebenfalls für andere Bereiche des Systems, wie Temperaturen, Ströme und Spannungen. Die individuelle Anpassung und Optimierung der einzelnen Alarmwerte ist ein langwieriger Prozess, der nur durch die gesammelten Erfahrungen über einen langen Betriebszeitraum erfolgreich umgesetzt werden kann.
Entwicklung und Aufbau eines Elektronenstrahl-Extraktionssystems für die Frankfurter EZR-Ionenquelle
(1998)
Die vorliegende Arbeit entstand im Rahmen des Frankfurter 14.4GHz-EZR-(ve)RFQProjektes zur Erzeugung und Beschleunigung von hochgeladenen Ionen für atomphysikalische Experimente und zur Materialforschung. Die Kernelemente dieser Anlage sind eine 14.4 GHz Elektron-Zyklotron-Resonanz-Ionenquelle, ein 90-137° Analysiermagnet und ein Radio-Frequenz-Quadrupol-Beschleuniger mit variabler Energie. In der EZR-Ionenquelle werden hochgeladene Ionen durch Stöße mit schnellen Elektronen erzeugt. Die Elektronen werden durch Überlagerung eines magnetischen Doppelspiegelfeldes mit einem magnetischen Hexapolfeld in der Quelle eingeschlossen und durch Mikrowellenleistung nach dem Zyklotron-Resonanz-Prinzip auf hohe Energien beschleunigt. Bei der Entwicklung von Ionenquellen für hochgeladene Ionen verfolgt man das Ziel hohe Strahlströme bei höchsten Ladungszuständen und guten Strahlqualitäten (kleine Emittanzen) zu erreichen. In dieser Arbeit wird ein neues Konzept für die Extraktion von Ionenstrahlen aus einem EZR-Plasma mit Hilfe eines intensiven Elektronenstrahls untersucht. Die hochgeladenen Ionen werden durch einen Potentialtopf im Plasma gehalten und können nur durch Abschalten der Mikrowellenleistung extrahiert werden (Afterglow-Effekt). Durch die Injektion eines intensiven Elektronenstrahls von der Extraktionsseite aus in das Plasma, soll lokal ein negativer Raumladungskanal erzeugt werden, durch den die hochgeladenen Ionen dem Potentialtopf entkommen können. Die Elektronen laufen dabei in entgegengesetzter Richtung zu den Ionen. Die Ionen erfahren eine anziehende Kraft durch den negativen Raumladungskanal der Elektronen in Richtung Achse und werden dadurch zusätzlich fokussiert. Der negative Raumladungskanal dient auch zur Führung der Ionen, welche durch eine Bohrung in der Kathode extrahiert werden. Durch den Einschuß des Elektronenstahls von der Extraktionsseite aus in das Plasma können weitere Verbesserungen der Quellenparameter erwartet werden. So z. B. die Erzeugung von Sekundärelektronen zum Ausgleich von Elektronenverlusten aus dem Plasma und zur Erhöhung der Plasmadichte, die Vorionisation von neutralen Gasteilchen zur Erhöhung des Ionisationsgrades des Plasmas und damit verbunden, die Verringerung von Ladungsaustauschprozessen zwischen neutralen Teilchen und hochgeladenen Ionen, schließlich die Erzeugung von Festkörperionen durch Verdampfen, insbesondere von Metallen mit hohem Siedepunkt (z. B. Wolfram) und die Verbesserung der Emittanz, da die Ionen durch den Elektronenstrahl näher der Achse geführt werden und dadurch die Ionen mit einem kleineren Strahlradius extrahiert werden. Für die Erzeugung des Elektronenstrahls wurde eine mit Barium imprägnierte Wolfram- Kathode benutzt. Diese besitzt eine Emissionsstromdichte von 1 A/cm2 bei einer Temperatur von 1100°C und einer Oberfläche von 3 cm2. Zur Fokussierung des Elektronenstrahls werden die magnetischen Felder der beiden EZR-Spulen genutzt. Die magnetischen Feldlinien werden durch passive Abschirmung so geformt, daß diese senkrecht durch die Oberfläche der Kathode stoßen. Die erzeugten Elektronen werden entlang dieser magnetischen Feldlinien geführt. Da die Elektronen in Richtung Plasma beschleunigt werden, laufen diese in ein ansteigendes Magnetfeld, welches für die Fokussierung und Kompression des Elektronenstrahls sorgt. Um die Leistung des Elektronenstrahls zu vernichten, wurde ein wassergekühlter Kollektor auf der Gaseinlaßseite in der Quelle installiert. Dieser übernimmt außerdem die disk-Funktion, zum Ausgleich von Elektronenverlusten aus dem Plasma und zur Erhöhung der Plasmadichte. Er besteht aus ferromagnetischen Material (Reineisen) und sorgt somit für eine Verbesserung des Jochschlusses der Magnetfeldspulen und für eine Verbesserung des Spiegelverhältnisses auf der Gaseinlaßseite von 2.9 auf 3.8. Beim ersten Testeinbau des neuen Extraktionssystems, bei dem der wassergekühlte Kollektor und damit die disk fehlte, wurde die Arbeitsfähigkeit der Elektronenkanone in der Umgebung der arbeiteten EZR-Ionenquelle demonstriert. Die Kathode wurde mit ihrer Orginalbohrung von 1 mm Durchmesser eingesetzt, wodurch die Ionenströme um bis zu einem Faktor 1000 im Vergleich zu den herkömmlich gemessenen Ionenströmen reduziert wurden. Durch das Fehlen der disk zeigen die aufgenommenen Ladungsspektren einen Intensitätsabfall zu hohen Ladungszuständen hin. Dennoch konnte gezeigt werden, daß mit Elektronenstrahl wesentlich höhere Ionenströme erreicht werden, als im Betrieb ohne Elektronenstrahl. Mit dem Einbau eines wassergekühlten Kollektors und der Vergrößerung der Kathodenbohrung auf 3 mm Durchmesser konnten die Ionenströme im Maximum bei Ar8+ auf 25 mA gesteigert werden, so daß nur noch ein Faktor 4 bis zu den besten Ergebnissen der Quelle fehlt. Da jedoch durch die 3 mm Kathodenbohrung die Emittanz des Ionenstrahls besser ist als mit dem herkömmlichen Extraktionssystem, wäre ein Vergleich der Brillanzen nötig, um genaue Aussagen über die Qualität des Elektronenstrahl- Extraktionssystems zu machen, jedoch fehlte hierzu eine Emittanz-Meßanlage. Die Ladungsverteilung zeigt auch wieder den gewöhnlich Verlauf mit dem Maximum bei Ar8+. Vergleicht man nun die Ladungsspektren mit unterschiedlichen Mikrowellenleistungen, so zeigt sich bei mittleren Mikrowellenleistungen (700 W) eine überproportionale Erhöhung des Ladungszustandes Ar12+, jedoch eine Reduzierung des Ladungszustandes Ar11+. Untersuchungen bei hohen Mikrowellenleistungen (1700 W), das bedeutet einer höheren Plasmadichte gegenüber den Messungen mit mittleren Mikrowellenleistungen, zeigen ebenfalls, daß der Änderungsfaktor des Ladungszustand Ar12+ größer ist, als der des Ladungszustand Ar11+. Die Ladungsspektren zeigen auch, daß der Elektronenstrahl bei niedrigeren Plasmadichten größere Auswirkung auf die hohen Ladungszustände hat, als bei hohen Plasmadichten. Dies zeigt, daß die Elektronenstrahldichten im Vergleich zur Plasmadichte viel zu gering sind, so daß z. B. der gewünschte Effekt der lokalen Potentialabsenkung nicht einsetzt und die Änderungen in der Ladungsverteilung im wesentlichen auf die Fokussierungseigenschaften des Elektronenstrahls zurückzuführen sind. Hierzu müssen weitere Untersuchungen mit höheren Elektronenstrahldichten vorgenommen werden. In diesem Zusammenhang sind auch Untersuchungen zur Größe des nutzbaren Ionenreservoirs im Plasma (z. B. durch Afterglow-Effekt) an der Frankfurter EZR-Ionenquelle notwendig.
Gleichgewichte auf Überschussmärkten : Theorie und Anwendbarkeit auf die Regelenergiezone der RWE
(2003)
Diese Version entspricht im wesentlichen der begutachteten Version bis auf die Kürzung von Satz 3.3.1 um einen für den Rest unbedeutenden Teil. Das Ziel folgender Arbeit ist es, mit einem intuitiven Ansatz eine spezielle Wettbewerbsform zweier interagierender Märkte zu modellieren und anschließend zu analysieren. Abschließend werden die theoretischen Ergebnisse mit den Beobachtungen an einem existierenden Markt - dem deutschen Energiemarkt - verglichen. In dieser behandelten Wettbewerbsform wird ein nicht lagerbares Gut an zwei aneinander gekoppelten Märkten gehandelt. Während Handel und Preisfindung am ersten Markt den üblichen Gepflogenheiten folgen, müssen alle Teilnehmer sämtliche Güter, welche nicht unmittelbar nach Lieferung verbraucht werden, am zweiten Marktplatz (dem Überschussmarkt) gegen ein gewisses Entgelt zur Verfügung stellen. Alle Teilnehmer, welche nicht genügend Güter am ersten Markt geordert haben, werden auf dem Überschussmarkt zu einem gewissen Preis mit der noch benötigten Menge versorgt. Einem Marketmaker auf dem zweiten Marktplatz fällt die Aufgabe zu, einen Preis festzustellen, zu dem diejenigen entschädigt werden, welche ihre Überschüsse zur Verfügung stellen müssen bzw. den diejenigen zu bezahlen haben, deren Gütermangel ausgeglichen wird. Weiterhin stellt dieser sicher, dass zu jedem Zeitpunkt genügend Güter vorhanden sind, so dass der Bedarf aller Teilnehmer zu jedem Zeitpunkt sichergestellt ist. Ziel ist es nun herauszufinden, welche gewinnmaximierenden Einkaufsstrategien die Marktteilnehmer verfolgen sollten und welche Konsequenzen sich daraus auf den deutschen Energiemarkt ableiten lassen.