Mathematik
Refine
Year of publication
Document Type
- diplomthesis (39) (remove)
Has Fulltext
- yes (39)
Is part of the Bibliography
- no (39)
Keywords
- Stochastik (3)
- Statistik (2)
- Stochastischer Prozess (2)
- Yule-Prozess (2)
- Algorithmus (1)
- Approximationsalgorithmus (1)
- Assignment Problem (1)
- Ausreißer <Statistik> (1)
- Bolthausen-Sznitman (1)
- Bootstrap-Statistik (1)
Institute
- Mathematik (39)
Im Mittelpunkt der vorliegenden Arbeit stehen die Nullstellen der nach Bernhard Riemann benannten Riemannschen Zetafunktion ..(s). Diese Funktion kann für komplexes s mit Res > 1 durch ...(s) = 1 X n=1 1 ns (1.1.1) dargestellt werden. Für andere Werte von s ist ...(s) durch die analytische Fortsetzung der Dirichlet-Reihe in (1.1.1) gegeben. Die ...-Funktion ist in der ganzen komplexen Ebene holomorph, mit Ausnahme des Punktes s = 1, wo sie einen einfachen Pol besitzt. Diese und weitere Eigenschaften von ...(s) setzen wir in dieser Arbeit als bekannt voraus, näheres findet man beispielsweise in [Tit51] oder [Ivi85]. Bereits Euler betrachtete, beispielsweise in [Eul48, Caput XV], die Summe in (1.1.1), allerdings vor allem für ganzzahlige s ... 2. Von ihm stammt die Gleichung 1 X n=1 1 ns =.... die für alle komplexen s mit Res > 1 gültig ist. Dieser Zusammenhang zwischen der ...-Funktion und den Primzahlen war Ausgangspunkt für Riemanns einzige zahlentheoretische, aber dennoch wegweisende Arbeit \ Über die Anzahl der Primzahlen unter einer gegebenen Grösse." ([Rie59]). In dieser 1859 erschienenen Arbeit erkannte Riemann als erster die Bedeutung der Nullstellen der ...-Funktion für die Verteilung der Primzahlen. Bezüglich dieser Nullstellen sei jetzt nur so viel gesagt, daß ...(s) einfache Nullstellen an den negativen geraden Zahlen .... besitzt, und, daß alle weiteren, die sogenannten nicht-trivialen Nullstellen, im kritischen Streifen 0 < Res < 1 liegen. Diese letzteren | unendlich vielen | Nullstellen sind gerade für den Primzahlsatz, also für die Beziehung ...(x) ... li(x);
Mit den Small World Graphen stehen seit Ende der Neunzigerjahre Modelle für soziale und ähnliche Netzwerke, die im Vergleich zu Erdös-Rényi-Graphen stärker Cluster ausbilden, zur Verfügung. Wir betrachten die Konstruktion dieser Graphen und untersuchen zwei der Modelle genauer im Zusammenhang mit stochastischen Prozessen. Das stetige Modell betrachten wir hinsichtlich dem Abstand zweier Knoten. Der interessanteste Aspekt hierbei ist, dass man bei der Konstruktion des Graphen die entfernten Nachbarn mithilfe der Poissonverteilung wählt und in der Folge einen Yule-Prozess auf dem Graphen erhält. Auf der Bollobás-Chung Small World lassen wir den Kontaktprozess ablaufen und untersuchen diesen bezüglich seiner Überlebenswahrscheinlichkeit. Wir sehen, dass er auf diesem Graphen zwei Phasenübergänge aufweist. Oberhalb des ersten überlebt er für immer mit positiver Wahrscheinlichkeit, oberhalb des zweiten ist zudem der Knoten, auf dem der Kontaktprozess gestartet ist, stets mit positiver Wahrscheinlichkeit infiziert. Schließlich betrachten wir die Zeitdauer, die ein leicht modifizierter, superkritischer Kontaktprozess auf der Small World unter bestimmten Voraussetzungen überlebt. Die wesentliche Dynamik, die wir hierbei ausmachen können, ist, dass auf ein Absinken der Infektionen mit hoher Wahrscheinlichkeit wieder eine Verdopplung der Infektionen folgt.
Kieferorthopäden beschreiben die Anordnung der Zähne und die Stellung der Kiefer üblicherweise mittels Winkel und Strecken in der sagittalen Gesichtsebene. Im vorliegenden Fall werden fünf Winkel betrachtet und jedes Individuum lässt sich als Punkt in einem 5-dimensionalen Raum darstellen. Individuen, die laut Experten ein gut funktionierendes Gebiss und ein harmonisches Äußeres besitzen, formen eine Punktwolke, die im Folgenden als die Norm Population bezeichnet wird. Individuen fern von der Wolke benötigen kieferorthopädische Behandlung. Welche Form sollte dieser Eingriff annehmen? Durch Hilfsmittel der modernen Kieferorthopädie lassen sich die beschriebenen Winkel nahezu nach Belieben ändern. Dies ist natürlich verbunden mit einer unterschiedlichen Menge an Problemen, Arbeitsaufwand und Unannehmlichkeiten, abhängig vom individuellen Patienten. Diese Arbeit präsentiert eine Methode, die auf jedem Computer leicht implementierbar und auf k Variablen verallgemeinerbar ist. Sie ermöglicht Kieferorthopäden eine Visualisierung, wie verschiedene denkbare Anpassungen der Winkel eines Patienten dessen relative Position zur Norm Population verändern. Damit unterstützt sie Kieferorthopäden bei der Entscheidung für einen Behandlungsplan, der die besten Ergebnisse verspricht.
Jeder Investor hat ein Ziel: Er will Gewinne realisieren. Dazu muss er Entscheidungen treffen. Und solche Entscheidungen werden zumeist unterschiedlich getroffen. Was beeinflusst den Investor in seiner Entscheidung und wie lassen sie sich überzeugen? Alle Investoren stellen sich dabei die Frage: Ist das für ein Investment eingegangene Risiko gegenüber der erwarteten Rendite gerechtfertigt? Gibt es eine Möglichkeit, Ertrag und Risiko von zinsbasierten Finanzinstrument bzw. Portfolien zu analysieren? Ein eben solches Verfahren stellt diese Diplomarbeit vor. Über ein Zinsstrukturmodell unter dem empirischen Wahrscheinlichkeitsmaß wird eine P&L Verteilung des entsprechenden Investments berechnet. Welches Zinsmodell eignet sich für diese Berechnung am besten? Eine weit verbreitete Klasse von Zinsstrukturmodellen stellen die Sell-Side Modelle (Pricing Modelle) dar. Diese werden zum arbitragefreien Pricing von Finanzinstrumenten eingesetzt und arbeiten unter einem risikoneutralen Wahrscheinlichkeitsmaß. Zur Simulation realer Zinsszenarien müssen diese Modelle unter dem realen Wahrscheinlichkeitsmaß aufgestellt und geschätzt werden. Als ein Vertreter dieser Modellklasse wird das Cox-Ingersoll-Ross Modell untersucht. Des Weiteren werden das dynamische Nelson-Siegel Modell sowie ein Resampling-/Bootstrapping Modell (RMJBN Modell) vorgestellt und getestet. Die erwähnten Zinsmodelle werden einem Out-of-Sampling-Test unterzogen. Das gewählte Modell muss einem Kriterienkatalog entsprechen, der anhand der Analyseergebnisse der EURIBOR-Zinskurven bezüglich deren Schwankungen und Formen aufgestellt wurde. Es zeigt sich, dass das RMJBN Modell die wesentlichen Merkmale gut abbildet. Unter dem Namen Extended RMJBN Modell folgt eine Erweiterung des Bootstrapping Modells, welche bei der Modellierung der Verteilungen der Zinskurven-Krümmungen ansetzt. Abschließend wird eine Anwendungsmöglichkeit des Extended RMJBN Modells vorgestellt. Es werden dabei Renditeverteilungen von zwei unterschiedlichen Festgeldanlagen betrachtet, um eine reale Investmententscheidung treffen zu können.
Der Begriff der editierfreundlichen Kryptographie wurde von Mihir Bellare, Oded Goldreich und Shafi Goldwasser 1994 bzw. 1995 eingeführt. Mit einem editierfreundlicher Verschlüsselungs- oder Unterschriftenverfahren kann man aus einer Verschlüsselung bzw. Unterschrift zu einer Nachricht schnell eine Verschlüsselung oder Unterschrift zu einer ähnlichen Nachricht erstellen. Wir geben eine Übersicht über die bekannten editierfreundlichen Verfahren und entwickeln sowohl ein symmetrisches als auch ein asymmetrisches editierfreundliches Unterschriftenverfahren (IncXMACC und IncHSig). Wir zeigen, wie man mit editierfreundlichen Schemata überprüfen kann, ob die Implementierung einer Datenstruktur korrekt arbeitet. Basierend auf den Ideen der editierfreundlichen Kryptographie entwickeln wir effiziente Verfahren für spezielle Datenstrukturen. Diese Ergebnisse sind in zwei Arbeiten [F97a, F97b] zusammengefaßt worden.
In der vorliegenden Diplomarbeit beschäftigen wir uns mit kryptographisch sicheren Pseudozufallsgeneratoren. Diese e±zienten Algorithmen erzeugen zu zufälliger Eingabe deterministisch eine längere Bitfolge, die praktisch von einer Folge zufälliger Münzwürfe nicht unterscheidbar ist. Wir geben die Definitionen von A. Yao sowie M. Blum und S. Micali, beweisen die Äquivalenz und charakterisieren den Unterschied zur klassischen Sichtweise von Zufallsgeneratoren. Mit der Blum-Micali-Konstruktion zeigen wir, wie man aus einer Oneway-Permutation und zugehörigem Hardcore-Prädikat einen kryptographisch sicheren Pseudozufallsgenerator konstruiert: Man wendet auf einen zufälligen Startwert iterativ die Oneway-Funktion an und gibt jeweils das Hardcore-Prädikat des Urbilds aus. Wir stellen das allgemeine Hardcore- Prädikat inneres Produkt modulo 2 von L.A. Levin und O. Goldreich vor und beweisen mit Hilfe des XOR-Lemmas von U.V. Vazirani und V.V. Vazirani die Verallgemeinerung zu einer Hardcore-Funktion, die statt eines Prädikats mehrere Bits ausgibt. Man geht davon aus, daß die Verschlüsselungsfunktionen des RSA- und des Rabin-Public- Key-Kryptosystems Oneway-Permutationen sind. Basierend auf dem Rabin-System haben L. Blum, M. Blum und M. Shub den x2-mod-N-Generator aufgebaut, W. Alexi, B. Chor, O. Goldreich und C.P. Schnorr haben den RSA-Generator konstruiert und den Sicherheitsbeweis zum x2-mod-N-Generator verbessert. Diese Generatoren basieren auf der Blum-Micali-Konstruktion mit dem Hardcore-Prädikat des untersten Bits. Durch neue Ideen können wir die beweisbare Sicherheit der Generatoren deutlich erhöhen, so daß in der Praxis kleinere Schlüssellängen genügen. Bisher war zum Beispiel für den x2-mod-N-Generator bekannt, daß man mit einem Algorithmus A, der das unterste Bit der Wurzel modulo einer n-Bit- Blumzahl mit Wahrscheinlichkeit 1 2 + ² in Zeit |A| = ¡n3¢ berechnet, den Modul in Zeit O¡n3² 9|A|¢ mit Wahrscheinlichkeit ²2 64 faktorisieren kann. Wir verbessern die Laufzeit zu O¡n² 4 log2(n² 1)|A|¢ und Wahrscheinlichkeit 1 9 . Diese neuen Resultate wurden auf der Eurocrypt-Konferenz im Mai 1997 in Konstanz vorgestellt, D.E. Knuth hat sie bereits in die neue Auflage seines Standardwerks The Art of Computer Programming aufgenommen.
Installment Optionen
(2004)
Die vorliegende Arbeit beschäftigt sich im Wesentlichen mit Installment Optionen und deren Bewertung und Hedgemöglichkeiten. Installment Optionen werden vor allem im internationalen Treasurymanagement eingesetzt und dienen der Absicherung von Wechselkursrisiken. Die Besonderheit besteht darin, daß ein Konzern die Optionsprämie über mehrere Zeitpunkte aufteilen kann, zu denen er jeweils entscheidet, ob die Absicherung überhaupt noch benötigt wird. Dies könnte unter Umständen nicht mehr der Fall sein, wenn das zugrunde liegende internationale Geschäft des Konzerns wider Erwarten nicht zustande gekommen ist. Der exakte Wert einer Installment Option im Black-Scholes Modell besteht aus einem Ausdruck von Mehrfachintegralen, wohingegen die Anwendung verschiedener Bewertungsmethoden auf diesen approximierte Werte liefert. Die Untersuchung des Verhaltens mehrerer bekannter Methoden und die Entwicklung einer neuen Bewertungsformel für Installment Option ist Inhalt dieser Arbeit. Weiterhin wird die kontinuierliche Version der Installment Option betrachtet und für diese ein neuer Hedge bewiesen.
Im Rahmen dieser Arbeit wird der aktuelle Stand auf dem Gebiet des Lokalen Lovász Lemmas (LLL) beschrieben und ein Überblick über die Arbeiten zu konstruktiven Beweisen und Anwendungen gegeben. Ausgehend von Jószef Becks Arbeit zu einer algorithmischen Herangehensweise, haben sich in den letzten Jahren im Umfeld von Moser und Tardos und ihren Arbeiten zu einem konstruktiven Beweis des LLL eine erneute starke Beschäftigung mit dem Thema und eine Fülle von Verbesserungen entwickelt.
In Kapitel 1 wird als Motivation eine kurze Einführung in die probabilistische Methode gegeben. Mit der First- und Second Moment Method werden zwei einfache Vorgehensweisen vorgestellt, die die Grundidee dieses Beweisprinzips klar werden lassen. Von Paul Erdős eröffnet, beschreibt es Wege, Existenzbeweise in nicht-stochastischen Teilgebieten der Mathematik mithilfe stochastischer Überlegungen zu führen. Das Lokale Lemma als eine solche Überlegung entstammt dieser Idee.
In Kapitel 2 werden verschiedene Formen des LLL vorgestellt und bewiesen, außerdem wird anhand einiger Anwendungsbeispiele die Vorgehensweise bei der Verwendung des LLL veranschaulicht.
In Kapitel 3 werden algorithmische Herangehensweisen beschrieben, die geeignet sind, von der (mithilfe des LLL gezeigten) Existenz gewisser Objekte zur tatsächlichen Konstruktion derselben zu gelangen.
In Kapitel 4 wird anhand von Beispielen aus dem reichen Schatz neuerer Veröffentlichungen gezeigt, welche Bewegung nach der Arbeit von Moser und Tardos entstanden ist. Dabei beleuchtet die Arbeit nicht nur einen anwendungsorientierten Beitrag von Haeupler, Saha und Srinivasan, sondern auch einen Beitrag Terence Taos, der die Beweistechnik Mosers aus einem anderen Blickwinkel beleuchtet.