diplomthesis
Refine
Year of publication
- 2001 (13) (remove)
Document Type
- diplomthesis (13) (remove)
Language
- German (13) (remove)
Has Fulltext
- yes (13)
Is part of the Bibliography
- no (13)
Keywords
- Chiffrierung (1)
- XML (1)
Institute
- Physik (7)
- Geowissenschaften (2)
- Informatik (2)
- Mathematik (1)
- Wirtschaftswissenschaften (1)
Diese Arbeit befasst sich mit der Zerlegung von Irrfahrten und Lévy Prozessen an ihrem Minimum. Bis auf rudimentäre Vorkenntnisse der höheren Stochastik und einige wenige aber wichtige Sätze stellt die Arbeit alle notwendigen Begriffe und Sätze zur Verfügung, die für das Verständnis und die Beweise benötigt werden. Diese bewusste Entscheidung zur Ausführlichkeit auch bei grundlegenden Dingen hat zwei Hintergründe: Zum einen bleibt die Arbeit damit auch für Leser mit geringen Vorkenntnissen interessant, und zum anderen entsteht so keine lange und unübersichtliche Kette von Verweisen und Zitaten, die das Verständnis des dargestellten Themas erschwert und die logischen Schlüsse nur noch von Spezialisten vollständig nachvollzogen werden können. Ein weiterer Nebeneffekt ist die Tatsache, dass Verwirrungen aufgrund unterschiedlicher Interpretationen eines Begriffs vermieden werden. Das weitere Vorwort teilt sich in zwei Abschnitte; zum einen in den Abschnitt der Irrfahrten und zum anderen in den Abschnitt der Lévy-Prozesse. Diese Einteilung spiegelt auch die Strukturierung der Arbeit selber wieder; ein Blick in das Inhaltsverzeichnis verrät, dass zuerst Irrfahrten und danach Lévy Prozesse behandelt werden.
Im Rahmen dieser Arbeit wurden Zellulare Neuronale Netzwerke (CNN) zur nichtlinearen Signalanalyse bei der Prädiktion hirnelektrischer Signale bei Epilepsie herangezogen. Die invasiven Aufnahmen hirnelektrischer Aktivität liegen zeitlich diskretisiert vor, sodaß ein zeitdiskretes Netzwerk (DTCNN) eingesetzt werden konnte. Die parallele Struktur von CNN konnte zur simultanen Untersuchung von sechs Elektroden genutzt werden, mit denen die hirnelektrische Aktivität aufgenommen wurde. Insbesondere ist die direkte Wechselwirkung der einzelnen Zellen untereinander durch eine lokale Nachbarschaft gegeben. In den durchgeführten Untersuchungen wurde zunächst festgestellt, daß für ein DTCNN, das ausgehend vom aktuellen Zeitpunkt den Signalwert des nächsten Zeitpunktes prädizieren soll, eine Prädiktionsordnung größer als zwei keine wesentliche Minimierung des Prädiktionsfehlers nach sich zieht. Daher wurde ein DTCNN mit zeitlich verzögerten Zellzuständen eingesetzt, wobei die Definitionsweise von Roska und Chua [21] im Rahmen dieser Arbeit für beliebige Prädiktionsordnungen erweitert wurde. Da bei einer Prädiktionsschrittweite größer als eins eine deutliche Erhöhung des Prädiktionsfehlers festgestellt werden konnte, wurde diese im folgenden gleich eins gewählt. Weiterhin wurde festgestellt, daß bei Verwendung polynomialer Kopplungsfunktionen der Grad der Nichtlinearität gleich drei gewählt werden kann, da eine weitere Erhöhung des Grades der Nichtlinearität zu keineren weiteren Minimierung des Prädiktionsfehlers geführt hat. Im Rahmen dieser Arbeit wurde ein Programm entwickelt, das aus den Aufnahmen der hirnelektrischen Aktivität einzelne Elektroden extrahieren kann, sodaß die Meßwerte dem DTCNN präsentiert werden konnten. Mit Hilfe des zugrundegelegten DTCNN konnte der zeitliche Verlauf der hirnelektrischen Aktivität von sechs Elektroden simultan prädiziert werden. Eine Analyse des zeitlichen Verlaufes des Prädiktionsfehlers ließ vor einem epileptischen Anfall keine signifikanten Änderungen erkennen. Daher wurde ein Programm entwickelt, mit dessen Hilfe der zeitliche Verlauf der Parameter des verwendeten DTCNN analysiert und deutliche Änderungen aufgezeigt werden können. Es konnten Berechnungsmethoden, hier die lokale Mittelwertbildung und die Gradientenberechnung, gefunden und an den jeweils untersuchten Patienten angepaßt werden, sodaß diese Änderungen der Parameter deutlicher hervorgehoben wurden. Bei zwei der vier Patienten konnten signifikante Änderungen des zeitlichen Verlaufes der Parameter des untersuchten DTCNN festgestellt werden, die vor dem Auftreten des epileptischen Anfalls liegen und somit als Vorläufer eines epileptischen Anfalls betrachtet werden können. Die Untersuchung eines dritten Patienten zeigte deutliche Änderungen der analysierten Parameter, die zeitlich mit dem Beginn des epileptischen Anfalls übereinstimmen. Bei einem vierten Patienten konnten signifikante Änderungen des zeitlichen Verlaufes der Parameter vor dem epileptischen Anfall nur dann festgestellt werden, wenn der betrachtete Datensatz hirnelektrischer Aktivität während des Auftretens eines Anfalls aufgenommen wurde. Wurde stattdessen die Aufnahme von zwei epileptischen Anfällen, die kurz hintereinander auftraten, analysiert, so konnten keine signifikanten Änderungen des Verlaufes der Parameter gefunden werden.
In dieser Arbeit wurde die Produktion negativ geladener Pionen in zentralen Blei+Blei Kollisionen bei 40 A·GeV am CERN SPS mit dem Experiment NA49 untersucht. Die Analyse der Pionen basiert auf der Tatsache, das sie ungefähr 90% des hadronischen Endzustands aller negativ geladenen Hadronen darstellen, wobei der Rest hauptsächlich aus Kaonen besteht. Diese Analyse deckt die komplette vordere Hemisphäre ab, somit wurden keinerlei Extrapolationen benötigt. Für diese Analyse wurde ein komplett neuer Satz von Schnitten in diversen Variablen der Daten von NA49 gesucht und optimiert. Um einen möglichst gut bestimmten Satz von Spuren zu verwenden, wurde nur ein kleiner Teil aller Spuren verwendet, der aber exakt und einfach zur vollen Akzeptanz zurückkorrigiert werden kann. Um die Spuren aus Zerfällen nahe am Hauptinteraktionspunkt und um Dreckeffekte wie γ-Konversion oder Vielfachstreuung zu entfernen, wurde ein komplett neuer Korrekturalgorithmus entwickelt und getestet. Da bei dieser Energie die Spurmultiplizitäten ungefähr um einen Faktor zwei kleiner sind, wurde beobachtet, daß Ineffizienzen in der Rekonstruktion eine untergeordnete Rolle spielen. Hier wurde im Mittel eine Korrektur von 8% verwendet. Um Spektren negativer Pionen zu erhalten, müssen die negativ geladenen Kaonen aus dem Spursatz entfernt werden, hierfür wurde eine Simulation aufgebaut und eingesetzt. Ein großes Problem stellt die Abschätzung des Systematischen Fehlers dar, da es eine Mannigfaltigkeit von Fehlerquellen gibt. In dieser Arbeit wurden zwei Methoden angewandt, um den Systematischen Fehler abzuschätzen. Das Ergebnis der hier vorgestellten Analyse ergibt eine mittlere Multiplizität für die negativen Pionen von 320±14. Die Präsentation eines vorläufigen Zustands dieser Analyse in Kombination mit den neu gewonnen Kaonwerten [1] vor dem SPSC [2] veränderten den vorhandenen Strahlzeitplan nachhaltig, so daß in extrem kurzer Zeit nach ieser Präsentation eine Energieabtastung gestartet wurde. Schon ein paar Monate später bekam NA49 hierfür einen Bleistrahl bei der Energie von 80 A·GeV und wird im Jahr 2002 auch Energien von 20 und 30 A·GeV geliefert bekommen. Auch wurden diese Daten auf der QM2001 als vorläufige Ergebnisse präsentiert. Desweiteren bilden die Ergebnisse, sowie die aus der 80 A·GeV Analyse und denen bei Top-SPS Energie gewonnenen kombiniert mit den Kaonergebnissen bei den gleichen Energien die Grundlage für ein Physical Review Letter der NA49-Kollaboration zum Thema der Energieabhängigkeit des K+/π + Verhältnis. Die Motivation für diese Arbeit war die Suche nach einer Evidenz des Quark-Gluon-Plasma und bei der analysierten Energie wurde der Übergang in diese Phase vorhergesagt [3]. Man sollte einen Wechsel von der Pionunterdrückung zur Pionvermehrung im Vergleich mit den Daten aus Nukleus+Nukleus Experimenten in dem Verhältnis der mittleren Pionmultiplizität zu der Anzahl der Teilnehmenden Nukleonen beobachten. Diese Vermutung stellte sich als richtig heraus. Diesen Wechsel kann man erklären, wenn man einen Phasenübergang zu einer Phase quasifreier Quarks und Gluonen in diesem Bereich annimmt. Die Pionen stellen, aufgrund ihrer geringen Masse, die häufigsten Teilchen dar und sind somit auch eine gute Meßprobe für die gesamte Entropie des Feuerballs. Da die Anzahl der Freiheitsgrade in einem QGP massiv ansteigen muß, sollte man eine erhöhte Produktion von Pionen beobachten. Der Meßpunkt bei 40 A·GeV liegt genau in dem Bereich des Wechsels. Ein Vergleich mit den Modellen zeigt, das kein Modell, wenn es überhaupt Pionen beschreiben kann, die Produktion von Pionen korrekt wiedergibt, außer das „Statistical Modell of the early Stage“, das die Pionproduktion beschreibt und auch den Wechsel von Pionunterdrückung zu Pionvermehrung im Bereich um 40 A·GeV wiedergibt. Dieses Modell besitzt eine Phasenübergang von gebundener Materie zum QGP. Das Hadrongas-Modell kann die Pionen bei jeder Energie beschreiben, aber eine Vorhersage ist nicht möglich, da die Pionen als Eingabe in dieses Modell benötigt werden. Die Ergebnisse von NA49 haben neuen Schwung in die Erklärung von Schwerionenkollisionen und die Suche nach dem QGP gebracht. Die ersten „Resultate“ sind eine Energieabtastung am CERN-SPS und diverse Änderungen an vorhandenen Modellen, um vor allem das nichtmonotonische Verhalten des K+/Pi + Verhältnisses zu beschreiben. Bis jetzt existiert kein Modell und keine Erklärung, die die Daten beschreibt und auf anderen Hadronischen Erklärungen basiert. Somit kann man feststellen, daß eine sich erhärtende Evidenz für die Produktion des QGP am CERN-SPS vorhanden ist.
Entwurf und prototypische Realisierung einer Architektur zur flexiblen Verschlüsselung von XML-Daten
(2001)
Im Rahmen dieser Arbeit ist auf Basis einer sorgfältigen Prüfung existierender Literatur zu kryptografischen Verfahren und sowohl einer Analyse bestehender Ansätze zur Verschlüsselung von XML-Dokumenten, als auch unter Nutzung bestehender Standards für XML-Technologien, eine Architektur zur flexiblen Verschlüsselung von XML-Daten erstellt worden. Ausgehend von Einsatz-Szenarien wurden dazu Anforderungen an das gewünschte System definiert. Anhand dieser Anforderungen wurde systematisch eine vollständige Spezifikation zur Verschlüsselung von XML-Daten hergeleitet. Weiterhin ist eine erweiterbare und generische Architektur zur Verarbeitung von XML-Daten spezifiziert worden. Auf dieser aufbauend, wurde eine Architektur für die flexible Ver- und Entschlüsselung von XML-Daten erstellt. Diese Architekturen und ihre Komponenten sind generisch, wobei für die prototypische Realisierung exemplarisch eine konkrete Auswahl dieser Komponenten implementiert wurde. Für die Verschlüsselung wurde dazu auf die zuvor erstellte Spezifikation zurückgegriffen und deren relevante Teile implementiert. Anschliessend wurden Experimente durchgeführt, die einen Eindruck von der Leistungsfähigkeit der Architektur gegeben haben. Insgesamt haben sich die Erwartungen an die Architektur mehr als erfüllt. Stehen Transformationen als verwendbare Klassen bereit, die auf dem DOM operieren, so ist es leicht möglich, diese in das DPF einzubetten, wie z.B. beim Verschlüsselungs-Prozessor geschehen. Damit ist eine sehr gute Erweiterbarkeit gegeben. Da die Arbeitsweise eines Transformations-Prozessors sowohl direkt durch übergebene Argumente aus dem DPS als auch durch die Verwendung von Annotationen gesteuert werden kann, kann die Verarbeitung von Dokumenten sehr flexibel und auch feingranular erfolgen. Die Möglichkeit, Annotationen aus mehreren DAS-Dokumenten zu aggregieren, erlaubt eine verteilte Pflege dieser Dokumente. Mit der Möglichkeit, mehrere Prozessoren direkt nacheinander eine Eingabe bearbeiten zu lassen, wird die Flexibilität nochmals gesteigert. Denn wenn die Prozessoren als Komponenten zur Verfügung stehen, können diese stets aufs Neue kombiniert werden. Vor allem der Ansatz, dass alle zur Verarbeitung und Steuerung relevanten Daten in Form deklarativer Beschreibungen erfolgen, die den Bedürfnissen jedes Prozessors angepasst sind, macht das System zu einem mächtigen Instrument. Zudem werden dadurch keine tiefergehenden Programmierkenntnisse benötigt. So entfällt auch die Notwendigkeit, Änderungen des gewünschten Transformations-Ergebnisses durch Änderungen im Quelltext des erzeugenden Programms vorzunehmen. Dadurch sind insgesamt den Möglichkeiten zur Verarbeitung von XML-Dokumenten kaum Grenzen gesetzt. Notwendige Anpassungen bleiben zumeist auf eine oder wenige Komponenten beschränkt, was Änderungen leichter ermöglicht. Dabei hat sich wieder einmal der flexible und trotzdem mächtige Ansatz der Kette von Werkzeugen (Chain of Tools) bewährt. Auch die Spezifikation zur Verschlüsselung von XML-Daten konnte alle Erwartungen erfüllen. Alle eingangs gestellten Anforderungen sind damit ausnahmslos darstellbar. Insbesondere betrifft dies die partielle und feingranulare Verschlüsselung von XML-Daten, sowie die hierarchische und damit einhergehende Super-Verschlüsselung. Rückblickend kann gesagt werden, dass das wissenschaftliche Fundament in Form von kryptografischen Grundlagen zwar sehr gut ist, aber die darauf aufbauenden höherwertigen Dienste und Architekturen aus wissenschaftlicher Sicht bisher kaum Beachtung gefunden haben. So wird zwar die Verschlüsselung von ganzen Daten-Objekten zwischen zwei Empfängern gut beherrscht, aber eine feingranulare Verschlüsselung, bei der Daten an grosse dynamische Empfängergruppen in offenen Systemen vertraulich übermittelt werden, hat bisher keine Beachtung gefunden. In der vorliegenden Arbeit werden diese Probleme adressiert, wobei aber nicht für alle eine abschliessende Lösung präsentiert werden konnte, da dies den Rahmen der Arbeit gesprengt hätte. Vielleicht ist es gerade die fehlende wissenschaftliche Durchdringung, die es so schwierig macht, geeignete Standards für die Verschlüsselung von XML-Dokumenten zu etablieren. Denn wenn man betrachtet, wie lange schon beim W3C über die Verschlüsselung diskutiert und daran gearbeitet wird, so kann es einen nur verwundern, dass nicht greifbarere Ergebnisse vorliegen. Ende Juli, also kurz vor Abschluss der vorliegenden Arbeit, ist bei Recherchen noch ein wissenschaftlich fundierteres Papier aufgetaucht, das auf einer Konferenz im Juni dieses Jahres vorgestellt wurde. Es beschreibt eine Document Security Language (DSL), die auf XSLT beruht und eine Architektur zur Verschlüsselung von XML-Dokumenten [85]. Da die Nähe zu dieser Arbeit gross ist, soll sie hier noch kurz vergleichend betrachtet werden. Die dort beschriebene Architektur und die Sprache bietet auch die Verschlüsselung auf feingranularer Ebene. Aber sie ist nicht erweiterbar und kennt auch kein generisches Meta-Daten-Konzept, so dass sie hinter den Ergebnissen der vorliegenden Arbeit deutlich zurückfällt. Zudem beruht sie auf der vorne schon im Zusammenhang mit der Verwendung von XSLT kritisierten Arbeit in [48]. Sie trägt dazu im Bereich der Verschlüsselung nicht viel Neues bei. Allerdings weist sie einige interessante Ansätze im Bereich der Infrastrukturen auf [85, Abschnitt 3.2]. Um diese könnte die hier vorgestellte Architektur der Verschlüsselungs-Prozessoren ergänzt werden, denn dieses Gebiet wurde in der Arbeit ausgespart.
Im Rahmen der vorliegenden Arbeit wird eine systematische Untersuchung von Feldabschirmungseffekten bei Photostrommessungen in Abhängigkeit der optischen Anregungsdichte an GaAs/AlGaAs{Halbleiterubergitterstrukturen vorgenommen. Diese Untersuchungen gestatten es, Kontaktierungsmethoden zu finden, um das elektrische Feld innerhalb der Übergitterstruktur definiert einzustellen. Diese Untersuchungen waren notwendig geworden, da sowohl erste zeitaufgelöste (z.B. die THz-Emission von Bloch-Oszillationen), wie auch verschiedene nicht zeitaufgelöste Messungen (z.B. differentielle Elektroreflexionsmessungen) nahelegten, daß in der Probe kein elektrisches Feld einzustellen war. Die Untersuchungen zur anregungsdichteabhangigen Feldabschirmung wurden in einem Photostromaufbau durchgeführt, bei dem die Anregungsdichte durch die Verwendung eines abstimmbaren CW-Ti:Saphir Laser gegenüber Aufbauten mit einer Kombination aus Lampe und Monochromator weiter gesteigert werden kann. Als Indikator für die Feldabschirmung dient die Herausbildung der Wannier-Stark-Leiter in den Photostromspektren. Zur Untersuchung der Feldabschirmung wurde zunächst die Probenpraparation verändert. Anschließend wurde die Anregungsdichte systematisch variiert und es wurden verschiedene Probenstrukturen untersucht, unter anderem zum Vergleich mit den hier pin-Übergitter Dioden auch eine häufig verwendete Schottky-Diode. Es wurden verschiedene präparative Variationen durchgeführt, um den Einfluß der dotierten Schichten zu klären. So wurde beispielsweise die p+-Schicht heruntergeätzt, oder auf die p+-Schicht eine zusätzliche metallische semitransparente Cr/Au-Schicht aufgedampft, sowie Proben mit verschiedenen Dotierungsmaterialien (Berylium und Kohlenstoff) untersucht. Alle betrachteten Proben zeigen bei niedrigen Anregungsdichten eine Aufspaltung in Wannier-Stark-Zustände. Die Absorptionslinien, die in den Spektren die Übergänge darstellen, werden dann bei steigender Anregungsdichte zunächst asymmetrisch, treten erst bei niedrigeren äußeren Vorspannungen auf und verschwinden schließlich für sehr hohe Dichten ganz. Eine Analyse der systematischen Untersuchungen für die verschiedenen Probentypen ergibt, daß sich höchstwahrscheinlich Ladungstrager in der p+-Schicht ansammeln und so das äußere elektrische Feld abschirmen. Zusätzlich zeigt im Vergleich der zwei Dotierungsmaterialien die mit Kohlenstoff dotierte Probe eine bei deutlich höheren Anregungsdichten einsetzende Abschirmung gegenüber der mit Berylium dotierten Probe. Die konsequente Umsetzung der gewonnenen Erfahrungen führt zu einem neuen Probendesign. Die Vermeidung p+-dotierter Schichten, wobei die Proben nur mit einer semitransparenten Cr/Au-Schicht bedampft werden, hat dazu geführt, daß es schließlich möglich war, die kohärente Emission von Bloch-Oszillationen unter 45 ° zu messen. Weiterhin war es auch möglich, erste Messungen zur kohärenten Detektion der direkten Emission von Bloch-Oszillationen in einem Magnetfeld zu realisieren, diese Messungen werden daher nur kurz dargestellt. Je nach Feldstarke des elektrischen und des magnetischen Feldes wird die Emission der Bloch-Oszillationen durch die magnetische oder elektrische Quantisierung dominiert. In Vorbereitung auf zeitaufgelöste Messungen wurde im Rahmen dieser Arbeit zusätzlich auch ein neuer dichroitischer Strahlteiler verwendet und charakterisiert. Ein Indium-Zinn-Oxid-Film auf einem Glassubstrat ist im optischen Frequenzbereich transparent, besitzt aber im niedrigen THz-Frequenzbereich (0 bis 2.5 THz) eine relative Reflexion von 90% bis 80% und eine relative Transmission von konstant etwa 10% und kann somit als Alternative zu dem sonst häufig verwendeten Folien-Strahlteiler verwendet werden. Der komplexe Brechungsindex ñ kann numerisch aus den Reflexions- bzw. Transmissionsdaten bestimmt werden.