Refine
Year of publication
Document Type
- Article (110)
- Doctoral Thesis (76)
- Preprint (44)
- diplomthesis (39)
- Book (25)
- Report (22)
- Conference Proceeding (18)
- Bachelor Thesis (8)
- Contribution to a Periodical (8)
- Diploma Thesis (8)
Has Fulltext
- yes (370) (remove)
Is part of the Bibliography
- no (370)
Keywords
- Kongress (6)
- Kryptologie (5)
- Mathematik (5)
- Stochastik (5)
- Doku Mittelstufe (4)
- Doku Oberstufe (4)
- Online-Publikation (4)
- Statistik (4)
- Finanzmathematik (3)
- LLL-reduction (3)
Institute
- Mathematik (370) (remove)
Ziel dieser Arbeit war es, ein sicheres und trotzdem effizientes Preprocessing zu finden. Nach den zurückliegenden Untersuchungen können wir annehmen, dies erreicht zu haben. Wir haben gezeigt, daß eine minimale Workload von Attacken von 272 mit nur 16 Multiplikationen pro Runde und 13 gespeicherten Paaren (ri, xi) erreicht werden kann. Mit der in Abschnitt 12.3 erklärten Variation - der Wert rº k geht nicht in die Gleichungen mit ein - erreichen wir sogar eine Sicherheit von 274. In diesem Fall können wir die Anzahl der gespeicherten Paare auf 12 verringern. Auch von der in Abschnit 12.5 besprochenen Variation erwarten wir eine Erhöhung der Sicherheit. Ergebnisse dazu werden bald vorliegen. Folgender Preprocessing Algorithmus erscheint z.B. nach unserem derzeitigen Wissensstand geeignet: Setze k = 12, l0 = 7, l1 = 3, d0 = 4, d1 = 5, h = 4, ¯h = 1. Initiation: lade k Paare (r0 0, x00 ) . . . , (r0 k 1, x0 k 1) mit x0i = ®r0 i mod p. º := 1. º ist die Rundennummer 1. Wähle l1 2 verschiedene Zufallszahlen a(3, º), . . . , a(l1, º) 2 {º + 1 mod k, . . . , º 2 mod k} a(1, º) := º mod k, a(2, º) := º 1 mod k W¨ahle l1 2 verschiedene Zufallszahlen f(3, º), . . . , f(l1, º) 2 {0, . . . , d1 1}, f(1, º) zuf¨allig aus {h, . . . , d1 1} und f(2, º) zuf¨allig aus {¯h, . . . , d1 1} rº k := rº ºmodk + l1 Xi=1 2f(i,º)rº 1 a(i,º) mod q xk = xºº modk · l1 Yi=1 (xº 1 a(i,º))2f(i,º) mod p 2. w¨ahle l0 1 verschiedene Zufallszahlen b(2, º), . . . , b(l0, º) 2 {º + 1 mod k, . . . , º 1 mod k} b(1, º) := º mod k W¨ahle l0 verschiedene Zufallszahlen g(1, º), . . . , g(l0, º) 2 {0, . . . , d0 1} rº ºmodk := l0 Xi=1 2g(i,º)rº 1 b(i,º) mod q xºº modk = l0 Yi=1 (xº 1 b(i,º))2g(i,º) mod p 3. verwende (rº k, xº k) f¨ur die º te Signatur (eº, yº) gem¨aß yº = rº k + seº mod q 4. º := º + 1 GOTO 1. f¨ur die n¨achste Signatur Die Zufallszahlen a(3, º), . . . , a(l, º), b(2, º), . . . , b(l, º), f(1, º), . . . , f(l, º) und g(1, º), . . . , g(l, º) werden unabhängig gewählt. Dies ist selbstverständlich nur ein Beispiel. Unsere Untersuchungen sind noch nicht abgeschlossen. Wir glauben aber nicht, daß feste Werte a(i, º) und b(i, º) ein effizientes Preprocessing definieren. Wir haben einige Variationen mit solchen weniger randomisierten Gleichungen studiert und immer effiziente Attacken gefunden.
Über Elementarkettenbrüche, lineare Substitutionen und indefinite binäre quadratische Formen : II.
(1921)
Über Elementarkettenbrüche, lineare Substitutionen und indefinite binäre quadratische Formen : I.
(1919)
Über die Anzahlfunktion π(x)
(1999)
Bereits Euklid wusste, dass es unendlich viele Primzahlen gibt. Euler zeigte die qualitative Aussage ¼(x) x ! 0 bei x ! 1. Legendre definierte als erster die Anzahlfunktion ¼(x) als die Anzahl aller Primzahlen · x, (x 2 R) und vermutete irrtümlicherweise, dass ¼(x) = x log(x)¡B; wobei lim x!1 B(x) = 1; 083 66 : : : ist. Gauss vermutete, dass die Funktionen ¼(x) und li(x) := lim "!0 ">0 0@ u=1¡" Z u=0 du log(u) + u=x Z u=1+" du log(u)1A asymptotisch Äquivalent sind. Tschebyschew konnte die Legendresche Vermutung widerlegen; außerdem bewies er: Wenn der Grenzwert lim x!1 ¼(x) x log(x) existiert, so muss dieser gleich 1 sein. Dank wegweisender Vorarbeiten von Riemann, gelang es im Jahr 1896 unabhängig voneinander und nahezu zeitgleich Hadamard und De La Vallee Poussin, den Primzahlsatz analytisch zu beweisen. Beide verwendeten entscheidend die Tatsache, dass die Zetafunktion ³ in der Halbebene Re(s) ¸ 1 nicht verschwindet. Die Beweise waren zuerst so lang und kompliziert, dass sie heutzutage nur noch einen historischen Wert besitzen. Es dauerte weitere 84 Jahre bis der Beweis so vereinfacht werden konnte, dass er nur wenige Seiten in Anspruch nimmt. Ein wichtiger Verdienst kommt hierbei der Arbeit von Newman aus dem Jahre 1980 zu. Lange Zeit wurde es für kaum möglich gehalten, einen Beweis des Primzahlsatzes zu finden, der ohne eine gewisse Kenntnis der komplexen Nullstellen der Zetafunktion auskommt. Und doch glückte 1948 ein solcher Beweis durch Selberg und Erdös mit elementaren Mitteln. Erwähnenswert dabei, dass der Beweis noch lange nicht einfach ist. Uns schienen die analytischen Beweise durchsichtiger zu sein. Daher haben wir in dieser Arbeit auf einen elementaren Beweis verzichtet. Der analytischen Weg zum Primzahlsatz von Newman kommt einerseits mit Integration längs endlicher Wege (und der Tatsache ³(s) 6= 0 in ¾ ¸ 1) aus, umgeht also Abschätzungen bei 1; andererseits ist er frei von Sätzen der Fourier-Analysis. Beim Beweis des Primzahlsatzes von Wolke benutzt man anstelle von ³0(s) ³(s) die Funktion ³ 1 k mit großen k. Wegen des Pols bei s=1 bringt dies bei der Integration leichte Komplikationen, hat aber den Vorteil, dass außer der Nullstellen-Freiheit keine nichttriviale Abschätzung für ³ oder ³0 erforderlich ist. Dank der elementaren Äquivalenz zwischen dem Primzahlsatz und der Konvergenz von 1Pn=1 ¹(n) n brauchte Newman nur die Konvergenz von 1Pn=1 ¹(n) n zu zeigen. Dies erreichte er mit Hilfe seines Konvergenzsatzes. Die Legendresche Formel, die auf dem Sieb des Eratosthenes basiert, erlaubt die exakte Berechnung von ¼(x), wenn alle px nicht übersteigenden Primzahlen bekannt sind. Diese prinzipielle Möglichkeit zur Ermittlung von ¼(x) ist in der Praxis natürlich stark limitiert durch die mit x rasch anwachsende Anzahl der rechts in der Legendresche Formel zu berücksichtigenden Summanden. Mit verfeinerten Siebtechniken haben verschiedene Autoren zur Legendresche Formel analoge Formeln ¼(x) ersonnen, bei denen der genannte Nachteil von Legendresche Formel sukzessive reduziert wurde. Zu erwähnen sind hier vor allem Meissel, Lehmer, sowie Lagarias, Miller und Odlyzko. Aus den Graphen von R(x)¡¼(x); li(x)¡¼(x) und x log(x) ¡¼(x) für den betrachteten Bereich x · 1018 konnten wir feststellen, dass R(x); li(x) sowie x log(x) die Anzahlfunktion Pi (x) annähern, wobei R(x) die beste Approximation für Pi(x) von allen drei ist.
Im Mittelpunkt der vorliegenden Arbeit stehen die Nullstellen der nach Bernhard Riemann benannten Riemannschen Zetafunktion ..(s). Diese Funktion kann für komplexes s mit Res > 1 durch ...(s) = 1 X n=1 1 ns (1.1.1) dargestellt werden. Für andere Werte von s ist ...(s) durch die analytische Fortsetzung der Dirichlet-Reihe in (1.1.1) gegeben. Die ...-Funktion ist in der ganzen komplexen Ebene holomorph, mit Ausnahme des Punktes s = 1, wo sie einen einfachen Pol besitzt. Diese und weitere Eigenschaften von ...(s) setzen wir in dieser Arbeit als bekannt voraus, näheres findet man beispielsweise in [Tit51] oder [Ivi85]. Bereits Euler betrachtete, beispielsweise in [Eul48, Caput XV], die Summe in (1.1.1), allerdings vor allem für ganzzahlige s ... 2. Von ihm stammt die Gleichung 1 X n=1 1 ns =.... die für alle komplexen s mit Res > 1 gültig ist. Dieser Zusammenhang zwischen der ...-Funktion und den Primzahlen war Ausgangspunkt für Riemanns einzige zahlentheoretische, aber dennoch wegweisende Arbeit \ Über die Anzahl der Primzahlen unter einer gegebenen Grösse." ([Rie59]). In dieser 1859 erschienenen Arbeit erkannte Riemann als erster die Bedeutung der Nullstellen der ...-Funktion für die Verteilung der Primzahlen. Bezüglich dieser Nullstellen sei jetzt nur so viel gesagt, daß ...(s) einfache Nullstellen an den negativen geraden Zahlen .... besitzt, und, daß alle weiteren, die sogenannten nicht-trivialen Nullstellen, im kritischen Streifen 0 < Res < 1 liegen. Diese letzteren | unendlich vielen | Nullstellen sind gerade für den Primzahlsatz, also für die Beziehung ...(x) ... li(x);
In der vorliegenden Arbeit untersuchen wir die Verteilung der Nullstellen Dirichletscher L-Reihen auf oder in der Nähe der kritischen Geraden. Diese Funktionen und ihre Nullstellen stehen im Mittelpunkt des Interesses bei einer Vielzahl klassischer zahlentheoretischer Fragestellungen; beispielsweise besagt die Verallgemeinerte Riemannsche Vermutung, daß sämtliche Nullstellen dieser Funktionen auf der kritischen Geraden liegen. Unsere Ergebnisse gehen unter anderem über die besten bislang bekannten Abschätzungen - für den Anteil der Nullstellen der Dirichletschen L-Reihen, die auf der kritischen Geraden liegen, - für den Anteil einfacher beziehungsweise m-facher Nullstellen sowie - über Nullstellen in der Nähe der kritischen Geraden hinaus. Wir setzen hiermit Arbeiten von A. Selberg, N. Levinson, J. B. Conrey und anderen fort und verallgemeinern Ergebnisse, die für die Riemannsche #-Funktion gültig sind, auf alle Dirichletschen LReihen beziehungsweise verbessern bisherige Resultate. Nach einer ausführlicheren Darstellung der Hintergründe zeigen wir einen Satz über Mittelwerte "geglätteter" L-Reihen, d.h. mit einem geeigneten Dirichlet-Polynom multiplizierte L-Reihen. Solche Mittelwertsätze stellen ein wesentliches Hilfsmittel zur Untersuchung der Nullstellenverteilung dar. Die in unserem Hauptsatz gegebene asymptotische Darstellung dieses Mittelwertes können wir dann nutzen, um die genannten Ergebnisse herzuleiten.
Diese Diplomarbeit behandelt eine Fragestellung aus dem Gebiet der Fuchsschen Gruppen. Das Problem, das hier geklärt werden soll, entspringt einer im Jahre 2005 erschienenen Arbeit über Konjugatoren Fuchsscher Gruppen und quasiplatonische Riemannsche Flächen von Jürgen Wolfart und Ernesto Girondo [GW05]. Es ist dort ein alternativer geometrischer Weg gewählt worden, um es zu umgehen, und es soll nun hier mit den bereits 1970 bereitgestellten Methoden zur Fragestellung der Existenz von Untergruppen Fuchsscher Gruppen von David Singerman [SIN70] gelöst werden. Betrachtet man eine Dreiecksgruppe $Delta_{1}$ als Untergruppe einer Dreiecksgruppe $Delta_{2}$, so kann es vorkommen, dass diese Inklusion eine Verfeinerung durch eine dazwischenliegende Dreiecksgruppe $Delta$ gestattet. In den Fällen, in denen zu einer gegebenen Dreiecksgruppe $Delta_{2}$ voneinander verschiedene Untergruppen gleicher Signatur $Delta_{1},Delta_{1}Apostroph,...$ existieren, ist es nicht a priori klar, dass es eine dazwischenliegende Dreiecksgruppe $Delta,DeltaApostroph,...$ gleicher Signatur zu jeder dieser verschiedenen Untergruppen gibt. Das Ziel dieser Arbeit ist es nun, dies zu klären, d.h. zu zeigen, dass es für jedes Paar Dreiecksgruppen $Delta_{1}subseteqDelta_{2},Delta_{1}ApostrophsubseteqDelta_{2},...$ eine dazwischenliegende Dreiecksgruppe $Delta,DeltaApostroph,...$ gibt. Im ersten Teil dieser Arbeit wird eine grobe Einleitung in die Theorie der Diskontinuierlichen Gruppen gegeben, die sehr stark auf Fuchssche Gruppen abzielt und mit deren Verbindung zu Riemannschen Flächen abschließt. Sie orientiert sich sehr stark an einem Standardwerk über Diskontinuierliche Gruppen von Joseph Lehner [LEH64]. Im zweiten Teil dieser Arbeit widmen wir uns ganz den Untergruppen Fuchsscher Gruppen und dem von David Singerman [SIN70] bereitgestellten Apparat, der eine notwendige und hinreichende Bedingung hierfür aufzeigt. Wie David Singerman auch zeigt, lassen sich diese Methoden für Normalteiler und Dreiecksgruppen spezialisieren. Wir werden uns dem auch annehmen. Abschließend erarbeiten wir dann eine ausführliche Methode und somit auch einen Beweis zur Erlangung der kompletten Liste von Inklusionen Fuchsscher Dreiecksgruppen, wie sie sich in einer weiteren Arbeit David Singermans befindet [SIN72]. Dies geschieht mit Hilfe zweier Maple-Programme deren Quellcode und Ausgabe sich im Anhang bzw. vierten Teil dieser Arbeit zur Einsicht bendet. Im dritten Teil dieser Arbeit wird schließlich die oben erläuterte Fragestellung geklärt werden. Sie wird zunächst anhand vieler Beispiele und Erläuterungen verdeutlicht, und im Anschluss dessen eine mögliche Verallgemeinerung auf Fuchssche Gruppen diskutiert.
Die Hilbertsche Grundlegung der Geometrie darf für alle analogen Untersuchungen als vorbildlich gelten. Zwei ihrer Eigenschaften sind es, auf die es hier ankommt. Erstens wird von allen sprachlichen Definitionen der Objekte, mit denen sie operiert, wie Punkt, Gerade, zwischen usw. abgesehen; nur ihre gegenseitigen Beziehungen und deren Grundgesetze werden axiomatisch an die Spitze gestellt. Zweitens werden die Axiome in verschiedene Gruppen gewisser Eigenart und Tragweite gespalten (die des Schneidens und Verbindens, die Axiome der Ordnung, der Kongruenz usw.), und es ist eine wesentliche Aufgabe des axiomatischen Aufbaues, zu prüfen, bis zu welchen Resultaten eine einzelne oder mehrere dieser Gruppen für sich führen. Die gleiche Behandlung eignet sich für die Mengenlehre. Von sprachlicher Einführung der Begriffe Menge, Bereich usw. ist daher ebenso abzusehen , wie von der des Punktes oder Raumes. Ebenso kann man hier gewiisse Axiomgruppen unterscheiden, die Axiome der Aquivalenz, die Axiome der Ordnung usw., und kann die gleichen Fragen stellen, wie im Gebiet der Geometrie. Dies soll im folgenden geschehen und zwar für denjenigen Teii, der nur mit dar Äquivalenz der Mengen, der Mengenteilung und Mengenverbindung, sowie der Mengenvergleichung operiert.....
Wir werden uns in dieser Arbeit vorwiegend mit einem Modell befassen, das Y. Peres, C. Kenyon, W. Evans und L.J. Schulman 1998 in ihrem Artikel \Broadcasting on trees and the Ising-Modell" eingeführt haben.
In diesem Modell wird ein Signal, das die Werte +1 oder -1 annehmen kann, von der Wurzel eines Baumes aus entlang der Äste eines unendlichgroßen Baumes übertragen. Die Kanten des Baumes agieren dabei als Übertragungskanäle zwischen den Knoten. Jede Kante kann das Signal korrekt übertragen oder es flippen, das heißt, das Vorzeichen des Signals umkehren.
Das Übertragungsverhalten der Kanten ist zufällig. Mit einer festen Wahrscheinlichkeit ϵ, mit 0 < ϵ <= 1/2 , verfälscht eine Kante das Signal. Dies geschieht an allen Kanten unabhängig mit der gleichen Wahrscheinlichkeit. Es stellt sich nun die Frage, wie groß diese Fehlerwahrscheinlichkeit höchstens sein darf, damit das, was in der Krone des Baumes ankommt, noch etwas zu tun hat mit dem, was in der Wurzel eingespeist wird. Mit anderen Worte: Sind die Signale auf Knoten, die einen Abstand >= n von der Wurzel haben, für n -> ∞ asymptotisch unabhängig vom Signal in der Wurzel? Eine Möglichkeit, den Grad der Abhängigkeit zu messen, ist die sogenannte Information, der Kullback-Leibler-Abstand von gemeinsamer Verteilung zur Produkt-Verteilung, die in Definition 16 eingeführt wird.
Wir werden sehen, daß es eine kritische Schwelle ϵc;I für Informationsübertragung gibt. Ist die Fehlerwahrscheinlichkeit größer als ϵc;I , so ist die Information, die zwischen Wurzel und Krone übertragen wird, 0. Ist die Fehlerwahrscheinlichkeit kleiner als ϵc;I , so wird Information übertragen. Dieser kritische Wert ϵc;I hängt nur von der Branching-Number, einer Art mittleren Verzweigungszahl, des Baumes (vgl. Definition 1) ab.
Wir werden sehen, daß das Broadcasting-Modell eine elegante Formulierung eines wohlbekannten Modells, des Ising-Modells, mit freien Randbedingungen, ist.
Im Ising-Modell hat jeder Knoten des Baumes einen "magnetischen" Spin, der entweder +1 oder -1 sein kann. Spins direkt benachbarter Knoten beeinflussen sich, in dem sie versuchen, den gleichen Wert anzunehmen. Diesem Effekt wirkt ein thermischer Einfluß entgegen, der mittels eines als Temperatur bezeichneten Parameters modelliert wird.
Die klassische Frage im Ising-Modell ist, ob Phasenübergang stattfindet. Wir wollen Phasenübergang als das Phänomen verstehen, daß die Wurzel des Baumes die Vorgabe von Randbedingungen auf der Krone des Baumes spürt. Ist dies der Fall, so sagen wir, daß Phasenübergang stattfindet. Auch dies ist eine
Form der gegenseitigen Beeinflussung zwischen Wurzel und Krone des Baumes. Russel Lyons hat 1989 in seinem Artikel \The Ising-Model on trees and treelike Graphs" das Ising-Modell auf Bäumen untersucht und gezeigt, daß es eine kritische Temperatur tc für Phasenübergang gibt. Ist die Temperatur höher als tc, so spürt die Wurzel nichts von den Randbedingungen der Krone; ist die Temperatur geringer als tc, so haben die Randbedingungen Einfluß auf die Wurzel. Auch hier hängt die kritische Temperatur nur von der Branching-Number des Baumes ab.
In der Broadcasting-Formulierung des Modells ist der Fluß von Information ein naheliegendes Werkzeug, um die Beeinflussung von Wurzel und Krone zu messen, in der Ising-Formulierung ist die Existenz von Phasenübergang ein ebenso naheliegendes Werkzeug, ebendiesen Einfluß zu messen.
Wir werden die beiden Arten der Beeinflussung miteinander vergleichen und können zeigen, daß für die Übertragung von Information stets eine stärkere Interaktion zwischen den Knoten notwendig ist, als für den Einfluß der Randbedingungen aus der Krone.
Als letztes Phänomen werden wir untersuchen, ob es einen Pfad im Baum gibt, der in der Wurzel startend nur Knoten gleichen Spins besucht und die unendlich weit entfernte Krone erreicht. Wir bezeichnen dieses Phänomen als Spinperkolation.
Wir werden die Berechnung der kritischen Interaktion für Spinperkolation in einem Bernoulli-Feld auf den Kanten rekapitulieren und dann zeigen, daß die Existenz eines Perkolationspfades nur von der Interaktionsstärke des Modells und nicht von etwaigen Randbedingungen abhängt. Dabei kombinieren wir Ergebnisse aus zwei Arbeiten von Lyons und die Erkenntnis, daß Broadcasting- Modell und freies Ising-Modell identisch sind. Wir erhalten so einen neuen, einfachen Beweis über die kritische Interaktion für Spinperkolation in der Plus-Phase des Ising-Modells, die Lyons bereits in [7] berechnet hat.
Die letzten Jahrzehnte brachten einen enormen Zuwachs des Wissens und Verständnisses über die molekularen Prozesse des Lebens.Möglich wurde dieser Zuwachs durch die Entwicklung diverser Methoden, mit denen beispielsweise gezielt die Konzentration einzelner Stoffe gemessen werden kann oder gar alle anwesenden Metaboliten eines biologischen Systems erfasst werden können. Die großflächige Anwendung dieser Methoden führte zur Ansammlung vieler unterschiedlicher -om-Daten, wie zum Beispiel Metabolom-, Proteom- oder Transkriptoms-Datensätzen. Die Systembiologie greift auf solche Daten zurück, um mathematische Modelle biologischer Systeme zu erstellen, und ermöglicht so ein Studium biologischer Systeme auch außerhalb des Labors.
Für größere biologische Systeme stehen jedoch meistens nicht alle Informationen über Stoffkonzentrationen oder Reaktionsgeschwindigkeiten zur Verfügung, um eine quantitative Modellierung, also die Beschreibung von Änderungsraten kontinuierlicher Variablen, durchführen zu können. In einem solchen Fall wird auf Methoden der qualitativen Modellierung zurückgegriffen. Eine dieser Methoden sind die Petrinetze (PN), welche in den 1960er Jahren von Carl Adam Petri entwickelt wurden, um nebenläufige Prozesse im technischen Umfeld zu beschreiben. Seit Anfang der 1990er Jahre finden PN auch Anwendung in der Systembiologie, um zum Beispiel metabolische Systeme oder Signaltransduktionswege zu modellieren. Einer der Vorteile dieser Methode ist zudem, dass Modelle als qualitative Beschreibung des Systems begonnen werden können und im Laufe der Zeit um quantitative Beschreibungen ergänzt werden können.
Zur Modellierung und Analyse von PN existieren bereits viele Anwendungen. Da das Konzept der PN jedoch ursprünglich nicht für die Systembiologie entwickelt wurde und meist im technischen Bereich verwendet wird, existierten kaum Anwendungen, die für den Einsatz in der Systembiologie entwickelt wurden. Daher ist auch die Durchführung der für die Systembiologie entwickelten Analysemethoden für PN nicht mit diesen Anwendungen möglich. Die Motivation des ersten Teiles dieser Arbeit war daher, eine Anwendung zu schaffen, die speziell für die PN-Modellierung und Analyse in der Systembiologie gedacht ist, also in ihren Analysemethoden und ihrer Terminologie sich an den Bedürfnissen der Systembiologie orientiert. Zudem sollte die Anwendung den Anwender bei der Auswertung der Resultate der Analysemethoden visuell unterstützen, indem diese direkt visuell im Kontext des PN gesetzt werden. Da bei komplexeren PN die Resultate der Analysemethoden in ihrer Zahl drastisch anwachsen, wird eine solche Auswertung dieser notwendig. Aus dieser Motivation heraus entstand die Anwendung MonaLisa, dessen Implementierung und Funktionen im ersten Teil der vorliegenden Arbeit beschrieben werden. Neben den klassischen Analysemethoden für PN, wie den Transitions- und Platz-Invarianten, mit denen grundlegende funktionale Module innerhalb eines PN gefunden werden können, wurden weitere, meist durch die Systembiologie entwickelte, Analysemethoden implementiert. Dazu zählen zum Beispiel die Minimal Cut Sets, die Maximal Common Transitions Sets oder Knock-out-Analysen. Mit MonaLisa ist aber auch die Simulation des dynamischen Verhaltens des modellierten biologischen Systems möglich. Hierzu stehen sowohl deterministische als auch stochastische Verfahren, beispielsweise der Algorithmus von Gillespie zur Simulation chemischer Systeme, zur Verfügung. Für alle zur Verfügung gestellten Analysemethoden wird ebenfalls eine visuelle Repräsentation ihrer Resultate bereitgestellt. Im Falle der Invarianten werden deren Elemente beispielsweise in der Visualisierung des PN eingefärbt. Die Resultate der Simulationen oder der topologischen Analyse können durch verschiedene Graphen ausgewertet werden. Um eine Schnittstelle zu anderen Anwendungen zu schaffen, wurde für MonaLisa eine Unterstützung einiger gängiger Dateiformate der Systembiologie geschaffen, so z.B. für SBML und KGML.
Der zweite Teil der Arbeit beschäftigt sich mit der topologischen Analyse eines Datensatzes von 2641 Gesamtgenom Modellen aus der path2models-Datenbank. Diese Modelle wurden automatisiert aus dem vorhandenen Wissen der KEGG- und der MetaCyc-Datenbank erstellt. Die Analyse der topologischen Eigenschaften eines Graphen ermöglicht es, grundlegende Aussagen über die globalen Eigenschaften des modellierten Systems und dessen Entstehungsprozesses zu treffen. Daher ist eine solche Analyse oft der erste Schritt für das Verständnis eines komplexen biologischen Systems. Für die Analyse der Knotengrade aller Reaktionen und Metaboliten dieser Modelle wurden sie in einem ersten Schritt in PN transformiert. Die topologischen Eigenschaften von metabolischen Systemen werden in der Literatur schon sehr gut beschrieben, wobei die Untersuchungen meist auf einem Netzwerk der Metaboliten oder der Reaktionen basieren. Durch die Verwendung von PN wird es möglich, die topologischen Eigenschaften von Metaboliten und Reaktionen in einem gemeinsamen Netzwerk zu untersuchen. Die Motivation hinter diesen Untersuchungen war, zu überprüfen, ob die schon beschriebenen Eigenschaften auch für eine Darstellung als PN zutreffen und welche neuen Eigenschaften gefunden werden können. Untersucht wurden der Knotengrad und der Clusterkoeffizient der Modelle. Es wird gezeigt, dass einige wenige Metaboliten mit sehr hohem Knotengrad für eine ganze Reihe von Effekten verantwortlich sind, wie beispielsweise dass die Verteilung des Knotengrades und des Clusterkoeffizienten, im Bezug auf Metaboliten, skalenfrei sind und dass sie für die Vernetzung der Nachbarschaft von Reaktionen verantwortlich sind. Weiter wird gezeigt, dass die Größe eines Modelles Einfluss auf dessen topologische Eigenschaften hat. So steigt die Vernetzung der Nachbarschaft eines Metaboliten, je mehr Metaboliten in einem biologischen System vorhanden sind, gleiches gilt für den durchschnittlichen Knotengrad der Metaboliten.
Jeder Investor hat ein Ziel: Er will Gewinne realisieren. Dazu muss er Entscheidungen treffen. Und solche Entscheidungen werden zumeist unterschiedlich getroffen. Was beeinflusst den Investor in seiner Entscheidung und wie lassen sie sich überzeugen? Alle Investoren stellen sich dabei die Frage: Ist das für ein Investment eingegangene Risiko gegenüber der erwarteten Rendite gerechtfertigt? Gibt es eine Möglichkeit, Ertrag und Risiko von zinsbasierten Finanzinstrument bzw. Portfolien zu analysieren? Ein eben solches Verfahren stellt diese Diplomarbeit vor. Über ein Zinsstrukturmodell unter dem empirischen Wahrscheinlichkeitsmaß wird eine P&L Verteilung des entsprechenden Investments berechnet. Welches Zinsmodell eignet sich für diese Berechnung am besten? Eine weit verbreitete Klasse von Zinsstrukturmodellen stellen die Sell-Side Modelle (Pricing Modelle) dar. Diese werden zum arbitragefreien Pricing von Finanzinstrumenten eingesetzt und arbeiten unter einem risikoneutralen Wahrscheinlichkeitsmaß. Zur Simulation realer Zinsszenarien müssen diese Modelle unter dem realen Wahrscheinlichkeitsmaß aufgestellt und geschätzt werden. Als ein Vertreter dieser Modellklasse wird das Cox-Ingersoll-Ross Modell untersucht. Des Weiteren werden das dynamische Nelson-Siegel Modell sowie ein Resampling-/Bootstrapping Modell (RMJBN Modell) vorgestellt und getestet. Die erwähnten Zinsmodelle werden einem Out-of-Sampling-Test unterzogen. Das gewählte Modell muss einem Kriterienkatalog entsprechen, der anhand der Analyseergebnisse der EURIBOR-Zinskurven bezüglich deren Schwankungen und Formen aufgestellt wurde. Es zeigt sich, dass das RMJBN Modell die wesentlichen Merkmale gut abbildet. Unter dem Namen Extended RMJBN Modell folgt eine Erweiterung des Bootstrapping Modells, welche bei der Modellierung der Verteilungen der Zinskurven-Krümmungen ansetzt. Abschließend wird eine Anwendungsmöglichkeit des Extended RMJBN Modells vorgestellt. Es werden dabei Renditeverteilungen von zwei unterschiedlichen Festgeldanlagen betrachtet, um eine reale Investmententscheidung treffen zu können.
Diese Arbeit befasst sich mit der Zerlegung von Irrfahrten und Lévy Prozessen an ihrem Minimum. Bis auf rudimentäre Vorkenntnisse der höheren Stochastik und einige wenige aber wichtige Sätze stellt die Arbeit alle notwendigen Begriffe und Sätze zur Verfügung, die für das Verständnis und die Beweise benötigt werden. Diese bewusste Entscheidung zur Ausführlichkeit auch bei grundlegenden Dingen hat zwei Hintergründe: Zum einen bleibt die Arbeit damit auch für Leser mit geringen Vorkenntnissen interessant, und zum anderen entsteht so keine lange und unübersichtliche Kette von Verweisen und Zitaten, die das Verständnis des dargestellten Themas erschwert und die logischen Schlüsse nur noch von Spezialisten vollständig nachvollzogen werden können. Ein weiterer Nebeneffekt ist die Tatsache, dass Verwirrungen aufgrund unterschiedlicher Interpretationen eines Begriffs vermieden werden. Das weitere Vorwort teilt sich in zwei Abschnitte; zum einen in den Abschnitt der Irrfahrten und zum anderen in den Abschnitt der Lévy-Prozesse. Diese Einteilung spiegelt auch die Strukturierung der Arbeit selber wieder; ein Blick in das Inhaltsverzeichnis verrät, dass zuerst Irrfahrten und danach Lévy Prozesse behandelt werden.
The dynamical quantum Zeno effect is studied in the context of von Neumann algebras. It is shown that the Zeno dynamics coincides with the modular dynamics of a localized subalgebra. This relates the modular operator of that subalgebra to the modular operator of the original algebra by a variant of the Kato-Lie-Trotter product formula.
Presentation at the Università di Pisa, Pisa, Itlay 3 July 2002, the conference on Irreversible Quantum Dynamics', the Abdus Salam ICTP, Trieste, Italy, 29 July - 2 August 2002, and the University of Natal, Pietermaritzburg, South Africa, 14 May 2003. Version of 24 April 2003: examples added; 16 December 2002: revised; 12 Sptember 2002. See the corresponding papers "Zeno Dynamics of von Neumann Algebras", "Zeno Dynamics in Quantum Statistical Mechanics" and "Mathematics of the Quantum Zeno Effect"
We study the quantum Zeno effect in quantum statistical mechanics within the operator algebraic framework. We formulate a condition for the appearance of the effect in W*-dynamical systems, in terms of the short-time behaviour of the dynamics. Examples of quantum spin systems show that this condition can be effectively applied to quantum statistical mechanical models. Furthermore, we derive an explicit form of the Zeno generator, and use it to construct Gibbs equilibrium states for the Zeno dynamics. As a concrete example, we consider the X-Y model, for which we show that a frequent measurement at a microscopic level, e.g. a single lattice site, can produce a macroscopic effect in changing the global equilibrium. PACS - Klassifikation: 03.65.Xp, 05.30.-d, 02.30. See the corresponding papers: Schmidt, Andreas U.: "Zeno Dynamics of von Neumann Algebras" and "Mathematics of the Quantum Zeno Effect" and the talk "Zeno Dynamics in Quantum Statistical Mechanics" - http://publikationen.ub.uni-frankfurt.de/volltexte/2005/1167/
Mit den Small World Graphen stehen seit Ende der Neunzigerjahre Modelle für soziale und ähnliche Netzwerke, die im Vergleich zu Erdös-Rényi-Graphen stärker Cluster ausbilden, zur Verfügung. Wir betrachten die Konstruktion dieser Graphen und untersuchen zwei der Modelle genauer im Zusammenhang mit stochastischen Prozessen. Das stetige Modell betrachten wir hinsichtlich dem Abstand zweier Knoten. Der interessanteste Aspekt hierbei ist, dass man bei der Konstruktion des Graphen die entfernten Nachbarn mithilfe der Poissonverteilung wählt und in der Folge einen Yule-Prozess auf dem Graphen erhält. Auf der Bollobás-Chung Small World lassen wir den Kontaktprozess ablaufen und untersuchen diesen bezüglich seiner Überlebenswahrscheinlichkeit. Wir sehen, dass er auf diesem Graphen zwei Phasenübergänge aufweist. Oberhalb des ersten überlebt er für immer mit positiver Wahrscheinlichkeit, oberhalb des zweiten ist zudem der Knoten, auf dem der Kontaktprozess gestartet ist, stets mit positiver Wahrscheinlichkeit infiziert. Schließlich betrachten wir die Zeitdauer, die ein leicht modifizierter, superkritischer Kontaktprozess auf der Small World unter bestimmten Voraussetzungen überlebt. Die wesentliche Dynamik, die wir hierbei ausmachen können, ist, dass auf ein Absinken der Infektionen mit hoher Wahrscheinlichkeit wieder eine Verdopplung der Infektionen folgt.
Eine Billion ist mathematisch leicht darstellbar. Es ist eine Eins mit 12 Nullen: 1 000 000 000 000, mathematisch kurz und prägnant als 10^12 geschrieben. Aber darstellbar heißt nicht unbedingt vorstellbar. Versuchen wir, diese Anzahlen zu veranschaulichen, entstehen teilweise surreale, aber einprägsame Bilder.
Martin Möller, Professor für Algebra und Geometrie an der Goethe-Universität, erhält in der dritten Ausschreibungsrunde des European Research Council (ERC) einen »Starting Independent Researcher Grant«. Mit dem 2007 erstmals ausgeschriebenen Programm der ERC-Grants will die Europäische Union (EU) europaweit kreative Wissenschaftler und zukunftsweisende Projekte fördern. Für den Bereich »Physical Sciences and Engineering « waren 1205 Bewerbungen aus der ganzen Welt eingegangen, 2873 für die Ausschreibung insgesamt. Alleiniges Kriterium bei der Begutachtung der Anträge ist wissenschaftliche Exzellenz. Mit den vom ERC bewilligten Mitteln in Höhe von einer Million Euro für die nächsten fünf Jahre will Möller seine Forschergruppe um vier Mitarbeiter erweitern.
In dieser Arbeit werden die mathematischen Grundlagen zur Konstruktion der primären Felder der minimalen Modelle der konformen Quantenfeldtheorie beschrieben. Wir untersuchen Verma und Fock-Moduln der Virasoro-Algebra und klassifizieren diese Moduln bezüglich der Struktur der (ko-) singulären Vektoren. Wir definieren die Vertex-Operatoren zwischen gewissen Fock-Moduln (die eine kanonische Hilbertraumstruktur besitzen) und beweisen verschiedene Eigenschaften dieser Operatoren: Unter bestimmten Voraussetzungen sind Vertex-Operatoren dicht definierte, nicht abschließbare Operatoren zwischen den Fock-Moduln. Radialgeordnete Produkte von Vertex-Operatoren existieren auf einem dichten Teilraum. Wir beweisen Kommutatorrelationen zwischen Vertex-Operatoren und den Generatoren der Virasoro-Algebra. Dann definieren wir die integrierten Vertex-Operatoren und zeigen, daß diese Operatoren im wesentlichen wieder die Eigenschaften der nichtintegrierten Vertex-Operatoren haben. Gewisse integrierte Vertex-Operatoren können mit konformen Felder identifiziert werden. Ein unter den Vertex-Operatoren invarianter Unterraum der Fock-Moduln kann mit dem physikalischen Zustandsraum identifiziert werden.
Gitter sind diskrete additive Untergruppen des Rn. Praktische Bedeutung erlangte die Gittertheorie durch effziente Algorithmen zur Gitterbasenreduktion, mit deren Hilfe Optimierungsprobleme gelöst werden können. Der erste dieser Algorithmen wurde von Lenstra, Lenstra und Lovasz entwickelt. Schnorr und Euchner entwickelten effizientere Algorithmen. Sie untersuchten die Güte der Reduktion anhand von Rucksack-Problemen. Bei einem Rucksack-Problem der Dimension n müssen aus einer gegebenen Menge von n Gewichten diejenigen bestimmt werden, die zusammen einen gegeben Rucksack genau ausfüllen. Die Algorithmen von Schnorr und Euchner lösen fast alle Rucksack-Probleme der Dimensionen 42 bis 66. Meine neuen verbesserten Algorithmen lösen einen noch größeren Anteil der Rucksack-Probleme in kürzerer Rechenzeit. Gleichzeitig sind sie in Dimensionen 103 bis 151. Coster, Joux, LaMacchia. Odlyzko, Schnorr und Stern geben eine untere Schranke für die Größe der Gewichte von Rucksack-Problemen an, die fast immer gelöst werden können. Die Gewichte werden zufällig aus einem Intervall natüurlicher Zahlen gewählt. Dieses Ergebnis erweitere ich auf k-fache Rucksack-Probleme. Weiterhin kann für für die Wahl jedes Gewichtes eine beliebige Menge ganzer Zahlen festgelegt werden. Ebenso sind Mengen mit nur einem Element zulässig.
Die vorliegende Arbeit beschäftigt sich mit der BFV-Reduktion von Hamiltonschen Systemen mit erstklassigen Zwangsbedingungen im Rahmen der klassischen Hamiltonschen Mechanik und im Rahmen der Deformationsquantisierung. Besondere Aufmerksamkeit wird dabei Zwangsbedingungen zuteil, die als Nullfaser singulärer äquivarianter Impulsabbildungen entstehen. Es ist schon länger bekannt, daß für Nullfasern regulärer äquivarianter Impulsabbildungen die in der theoretischen Physik gebräuchliche Methode der BFV-Reduktion zur Phasenraumreduktion nach Marsden/Weinstein äquivalent ist. In [24] konnte gezeigt werden, daß in dieser Situation die BFV-Reduktion sich auch im Rahmen der Deformationsquantisierung natürlich formulieren läßt und erfolgreich zur Konstruktion von Sternprodukten auf Marsden/Weinstein-Quotienten verwendet werden kann. Ein Hauptergebnis der vorliegenden Arbeit besteht in der Verallgemeinerung der Ergebnisse aus [24] auf den Fall singulärer Impulsabbildungen, deren Komponenten 1.) das Verschwindungsideal der Zwangsfläche erzeugen und 2.) einen vollständigen Durchschnitt bilden. Die Argumentation von [24] wird durch Gebrauch der Störungslemmata aus dem Anhang A.1 systematisiert und vereinfacht. Zum Existenzbeweis von stetigen Homotopien und stetiger Fortsetzungsabbildung für die Koszulauflösung werden der Zerfällungssatz und der Fortsetzungssatz von Bierstone und Schwarz [20] benutzt. Außerdem wird ein ’Jacobisches Kriterium’ für die Überprüfung von Bedingung 2.) angegeben. Basierend auf diesem Kriterium und Techniken aus [3] werden die Bedingungen 1.) und 2.) an einer Reihe von Beispielen getestet. Als Korollar erhält man den Beweis dafür, daß es symplektisch stratifizierte Räume gibt, die keine Orbifaltigkeiten sind und dennoch eine stetige Deformationsquantisierung zulassen. Ferner wird (ähnlich zu [92]) eine konzeptionielle Erklärung dafür gegeben, warum im Fall vollständiger Durchschnitte das Problem der Quantisierung der BRST-Ladung eine so einfache Lösung hat. Bildet die Impulsabbildung eine erstklassige Zwangsbedingung, ist aber kein vollständiger Durchschnitt, dann ist es im allgemeinen nicht bekannt, wie entsprechende Quantenreduktionsresultate zu erzielen sind. Ein Hauptaugenmerk der Untersuchung wird es deshalb sein, in dieser Situation die klassische BFV-Reduktion besser zu verstehen – natürlich in der Hoffnung, Grundlagen für eine etwaige (Deformations-)Quantisierung zu liefern. Wir werden feststellen, daß es zwei Gründe gibt, die Tate-Erzeuger (alias: Antigeister höheren Niveaus) notwendig machen: die Topologie der Zwangsfläche und die Singularitätentheorie der Impulsabbildung. Die Zahl der Tate-Erzeuger kann durch Übergang zu projektiven Tate-Erzeugern, also Vektorbündeln, verringert werden. Allerdings sorgt Halperins Starrheitssatz [57] dafür, daß im wesentlichen alle Fälle, für die die Zwangsfläche kein lokal vollständiger Durchschnitt ist, zu unendlich vielen Tate-Erzeugern führen. Erzeugen die Komponenten einer Impulsabbildung einer linearen symplektischen Gruppenwirkung das Verschwindungsideal der Zwangsfläche, so kann man eine lokal endliche Tate-Auflösung finden. Diese besitzt nach dem Fortsetzungssatz und dem Zerfällungssatz von Bierstone und Schwarz stetige, kontrahierende Homotopien. Ausgehend von einer solchen Tate-Auflösung konstruieren wir, die klassische BFV-Konstruktion für vollständige Durchschnitte verallgemeinernd, eine graduierte superkommutative Algebra. Wir können zeigen, daß diese graduierte Algebra auch im Vektorbündelfall eine graduierte Poissonklammer besitzt, die sogenannte Rothstein-Poissonklammer. Die Existenz einer solchen Poissonklammer war bereits von Rothstein [87] für die einfachere Situation einer symplektischen Supermannigfaltigkeit bewiesen worden. Darüberhinaus werden wir sehen, daß es auch im Vektorbündelfall eine BRST-Ladung gibt. Diese sieht im Fall von Impulsabbildungen etwas einfacher aus als für allgemeine erstklassige Zwangsbedingungen. Insgesamt wird also die klassische BFV-Konstruktion [95] auf den Fall projektiver Tate-Erzeuger verallgemeinert, und als eine Homotopieäquivalenz in der additiven Kategorie der Fréchet-Räume interpretiert.
ranching Processes in Random Environment (BPREs) $(Z_n:n\geq0)$ are the generalization of Galton-Watson processes where \lq in each generation' the reproduction law is picked randomly in an i.i.d. manner. The associated random walk of the environment has increments distributed like the logarithmic mean of the offspring distributions. This random walk plays a key role in the asymptotic behavior. In this paper, we study the upper large deviations of the BPRE $Z$ when the reproduction law may have heavy tails. More precisely, we obtain an expression for the limit of $-\log \mathbb{P}(Z_n\geq \exp(\theta n))/n$ when $n\rightarrow \infty$. It depends on the rate function of the associated random walk of the environment, the logarithmic cost of survival $\gamma:=-\lim_{n\rightarrow\infty} \log \mathbb{P}(Z_n>0)/n$ and the polynomial rate of decay $\beta$ of the tail distribution of $Z_1$. This rate function can be interpreted as the optimal way to reach a given "large" value. We then compute the rate function when the reproduction law does not have heavy tails. Our results generalize the results of B\"oinghoff $\&$ Kersting (2009) and Bansaye $\&$ Berestycki (2008) for upper large deviations. Finally, we derive the upper large deviations for the Galton-Watson processes with heavy tails.
We propose a new security measure for commitment protocols, called Universally Composable (UC) Commitment. The measure guarantees that commitment protocols behave like an \ideal commitment service," even when concurrently composed with an arbitrary set of protocols. This is a strong guarantee: it implies that security is maintained even when an unbounded number of copies of the scheme are running concurrently, it implies non-malleability (not only with respect to other copies of the same protocol but even with respect to other protocols), it provides resilience to selective decommitment, and more. Unfortunately two-party uc commitment protocols do not exist in the plain model. However, we construct two-party uc commitment protocols, based on general complexity assumptions, in the common reference string model where all parties have access to a common string taken from a predetermined distribution. The protocols are non-interactive, in the sense that both the commitment and the opening phases consist of a single message from the committer to the receiver.
We derive a simple criterion that ensures uniqueness, Lipschitz stability and global convergence of Newton’s method for the finite dimensional zero-finding problem of a continuously differentiable, pointwise convex and monotonic function. Our criterion merely requires to evaluate the directional derivative of the forward function at finitely many evaluation points and for finitely many directions. We then demonstrate that this result can be used to prove uniqueness, stability and global convergence for an inverse coefficient problem with finitely many measurements. We consider the problem of determining an unknown inverse Robin transmission coefficient in an elliptic PDE. Using a relation to monotonicity and localized potentials techniques, we show that a piecewise-constant coefficient on an a-priori known partition with a-priori known bounds is uniquely determined by finitely many boundary measurements and that it can be uniquely and stably reconstructed by a globally convergent Newton iteration. We derive a constructive method to identify these boundary measurements, calculate the stability constant and give a numerical example.
Uniqueness and Lipschitz stability in electrical impedance tomography with finitely many electrodes
(2019)
For the linearized reconstruction problem in electrical impedance tomography with the complete electrode model, Lechleiter and Rieder (2008 Inverse Problems 24 065009) have shown that a piecewise polynomial conductivity on a fixed partition is uniquely determined if enough electrodes are being used. We extend their result to the full non-linear case and show that measurements on a sufficiently high number of electrodes uniquely determine a conductivity in any finite-dimensional subset of piecewise-analytic functions. We also prove Lipschitz stability, and derive analogue results for the continuum model, where finitely many measurements determine a finite-dimensional Galerkin projection of the Neumann-to-Dirichlet operator on a boundary part.
The aim of this bachelor thesis is to compare and empirically test the use of classification to improve the topic models Latent Dirichlet Allocation (LDA) and Author Topic Modeling
(ATM) in the context of the social media platform Twitter. For this purpose, a corpus was classified with the Dewey Decimal Classification (DDC) and then used to train the topic models. A second dataset, the unclassified corpus, was used for comparison. The assumption that the use of classification could improve the topic models did not prove true for the LDA topic model. Here, a sufficiently good improvement of the models could not be achieved. The ATM model, on the other hand, could be improved by using the classification. In general, the ATM model performed significantly better than the LDA model. In the context of the social media platform Twitter, it can thus be seen that the ATM model is superior to the LDA model and can additionally be improved by classifying the data.
In this article we provide a stack-theoretic framework to study the universal tropical Jacobian over the moduli space of tropical curves. We develop two approaches to the process of tropicalization of the universal compactified Jacobian over the moduli space of curves -- one from a logarithmic and the other from a non-Archimedean analytic point of view. The central result from both points of view is that the tropicalization of the universal compactified Jacobian is the universal tropical Jacobian and that the tropicalization maps in each of the two contexts are compatible with the tautological morphisms. In a sequel we will use the techniques developed here to provide explicit polyhedral models for the logarithmic Picard variety.
It is possible to represent each of a number of Markov chains as an evolving sequence of connected subsets of a directed acyclic graph that grow in the following way: initially, all vertices of the graph are unoccupied, particles are fed in one-by-one at a distinguished source vertex, successive particles proceed along directed edges according to an appropriate stochastic mechanism, and each particle comes to rest once it encounters an unoccupied vertex. Examples include the binary and digital search tree processes, the random recursive tree process and generalizations of it arising from nested instances of Pitman's two-parameter Chinese restaurant process, tree-growth models associated with Mallows' ϕ model of random permutations and with Schützenberger's non-commutative q-binomial theorem, and a construction due to Luczak and Winkler that grows uniform random binary trees in a Markovian manner. We introduce a framework that encompasses such Markov chains, and we characterize their asymptotic behavior by analyzing in detail their Doob-Martin compactifications, Poisson boundaries and tail σ-fields.
We study exchangeable coalescent trees and the evolving genealogical trees in models for neutral haploid populations.
We show that every exchangeable infinite coalescent tree can be obtained as the genealogical tree of iid samples from a random marked metric measure space when the marks are added to the metric distances. We apply this representation to generalize the tree-valued Fleming-Viot process to include the case with dust in which the genealogical trees have isolated leaves.
Using the Donnelly-Kurtz lookdown approach, we describe all individuals ever alive in the population model by a random complete and separable metric space, the lookdown space, which we endow with a family of sampling measures. This yields a pathwise construction of tree-valued Fleming-Viot processes. In the case of coming down from infinity, we also read off a process whose state space is endowed with the Gromov-Hausdorff-Prohorov topology. This process has additional jumps at the extinction times of parts of the population.
In the case with only binary reproduction events, we construct the lookdown space also from the Aldous continuum random tree by removing the root and the highest leaf, and by deforming the metric in a way that corresponds to the time change that relates the Fleming-Viot process with a Dawson-Watanabe process. The sampling measures on the lookdown space are then image measures of the normalized local time measures.
We also show invariance principles for Markov chains that describe the evolving genealogy in Cannings models. For such Markov chains with values in the space of distance matrix distributions, we show convergence to tree-valued Fleming-Viot processes under the conditions of Möhle and Sagitov for the convergence of the genealogy at a fixed time to a coalescent with simultaneous multiple mergers. For the convergence of Markov chains with values in the space of marked metric measure spaces, an additional assumption is needed in the case with dust.
Informally, commitment schemes can be described by lockable steely boxes. In the commitment phase, the sender puts a message into the box, locks the box and hands it over to the receiver. On one hand, the receiver does not learn anything about the message. On the other hand, the sender cannot change the message in the box anymore. In the decommitment phase the sender gives the receiver the key, and the receiver then opens the box and retrieves the message. One application of such schemes are digital auctions where each participant places his secret bid into a box and submits it to the auctioneer. In this thesis we investigate trapdoor commitment schemes. Following the abstract viewpoint of lockable boxes, a trapdoor commitment is a box with a tiny secret door. If someone knows the secret door, then this person is still able to change the committed message in the box, even after the commitment phase. Such trapdoors turn out to be very useful for the design of secure cryptographic protocols involving commitment schemes. In the first part of the thesis, we formally introduce trapdoor commitments and extend the notion to identity-based trapdoors, where trapdoors can only be used in connection with certain identities. We then recall the most popular constructions of ordinary trapdoor protocols and present new solutions for identity-based trapdoors. In the second part of the thesis, we show the usefulness of trapdoors in commitment schemes. Deploying trapdoors we construct efficient non-malleable commitment schemes which basically guarantee indepency of commitments. Furthermore, applying (identity-based) trapdoor commitments we secure well-known identification protocols against a new kind of attack. And finally, by means of trapdoors, we show how to construct composable commitment schemes that can be securely executed as subprotocols within complex protocols.
Thought structures of modelling task solutions and their connection to the level of difficulty
(2015)
Although efforts have been made to integrate the concept of mathematical modelling in school, among others PISA and TIMSS revealed weaknesses of not only German students in the field of mathematical modelling. There may be various reasons starting from educational policy via curricular issues to practical instructional concerns. Studies show that mathematical modelling has not been arrived yet in everyday school class (Blum &BorromeoFerri, 2009, p. 47). Thus, the proportion of mathematical modelling in everyday school classes is low (Jordan et al., 2006). When focusing on the teachers’ point of view there are difficulties which may contribute to avoid modelling tasks in class. The development of reasonable modelling tasks, estimating the task space, valuating the task difficulty and assessing the student solutions are difficulties which occur to an increasing degree compared to ordinary mathematics tasks.The project MokiMaS (transl.: modeling competency in math classes of secondary education) aims at providing inter-year modelling tasks, whose task space and level of difficulty is known, together with an evaluation scheme. In particular a theory based method has been developed to determine the level of difficulty of modelling tasks on the basis of thought structures, representing the cognitive load of solution approaches. The current question is whether this method leads to a realistic rating. To go further into that question an evaluation scheme has been developed which is guided by the daily assessment work of teachers, to investigate the relation of task difficulty and student performance.
Thought structures of modelling task solutions and their connection to the level of difficulty
(2015)
Although efforts have been made to integrate the concept of mathematical modelling in school, among others PISA and TIMSS revealed weaknesses of not only German students in the field of mathematical modelling. There may be various reasons starting from educational policy via curricular issues to practical instructional concerns. Studies show that mathematical modelling has not been arrived yet in everyday school class (Blum &BorromeoFerri, 2009, p. 47). Thus, the proportion of mathematical modelling in everyday school classes is low (Jordan et al., 2006). When focusing on the teachers’ point of view there are difficulties which may contribute to avoid modelling tasks in class. The development of reasonable modelling tasks, estimating the task space, valuating the task difficulty and assessing the student solutions are difficulties which occur to an increasing degree compared to ordinary mathematics tasks.The project MokiMaS (transl.: modeling competency in math classes of secondary education) aims at providing inter-year modelling tasks, whose task space and level of difficulty is known, together with an evaluation scheme. In particular a theory based method has been developed to determine the level of difficulty of modelling tasks on the basis of thought structures, representing the cognitive load of solution approaches. The current question is whether this method leads to a realistic rating. To go further into that question an evaluation scheme has been developed which is guided by the daily assessment work of teachers, to investigate the relation of task difficulty and student performance.
Triangles of groups have been introduced by Gersten and Stallings. They are, roughly speaking, a generalization of the amalgamated free product of two groups and occur in the framework of Corson diagrams. First, we prove an intersection theorem for Corson diagrams. Then, we focus on triangles of groups. It has been shown by Howie and Kopteva that the colimit of a hyperbolic triangle of groups contains a non-abelian free subgroup. We give two natural conditions, each of which ensures that the colimit of a non-spherical triangle of groups either contains a non-abelian free subgroup or is virtually solvable.
We review the representation problem based on factoring and show that this problem gives rise to alternative solutions to a lot of cryptographic protocols in the literature. And, while the solutions so far usually either rely on the RSA problem or the intractability of factoring integers of a special form (e.g., Blum integers), the solutions here work with the most general factoring assumption. Protocols we discuss include identification schemes secure against parallel attacks, secure signatures, blind signatures and (non-malleable) commitments.
In 1999, Merino and Welsh conjectured that evaluations of the Tutte polynomial of a graph satisfy an inequality. In this short article, we show that the conjecture generalized to matroids holds for the large class of all split matroids by exploiting the structure of their lattice of cyclic flats. This class of matroids strictly contains all paving and copaving matroids.
We consider catalytic branching random walk (the reactant) where the state space is a countable Abelean group. The branching is critical binary and the local branching rate is given by a catalytic medium. Here the medium is itself an autonomous (ordinary) branching random walk (the catalyst) - maybe with a different motion law. For persistent catalyst (transient motion) the reactant shows the usual dichotomy of persistence versus extinction depending on transience or recurrence of its motion. If the catalyst goes to local extinction it turns out that the longtime behaviour of the reactant ranges (depending on its motion) from local extinction to free random walk with either deterministic or random global intensity of particles.
Highlights
• We study dormancy in the ‘rare mutation’ regime of stochastic adaptive dynamics.
• We first derive the polymorphic evolution sequence, based on prior work.
• Our evolutionary branching criterion extends a result by Champagnat and Méléard.
• In a classical model dormancy can favour evolutionary branching.
• Dormancy also affects several more population characteristics.
Abstract
In this paper, we investigate the consequences of dormancy in the ‘rare mutation’ and ‘large population’ regime of stochastic adaptive dynamics. Starting from an individual-based micro-model, we first derive the Polymorphic Evolution Sequence of the population, based on a previous work by Baar and Bovier (2018). After passing to a second ‘small mutations’ limit, we arrive at the Canonical Equation of Adaptive Dynamics, and state a corresponding criterion for evolutionary branching, extending a previous result of Champagnat and Méléard (2011).
The criterion allows a quantitative and qualitative analysis of the effects of dormancy in the well-known model of Dieckmann and Doebeli (1999) for sympatric speciation. In fact, quite an intuitive picture emerges: Dormancy enlarges the parameter range for evolutionary branching, increases the carrying capacity and niche width of the post-branching sub-populations, and, depending on the model parameters, can either increase or decrease the ‘speed of adaptation’ of populations. Finally, dormancy increases diversity by increasing the genetic distance between subpopulations.
Based on a non-rigorous formalism called the “cavity method”, physicists have made intriguing predictions on phase transitions in discrete structures. One of the most remarkable ones is that in problems such as random k-SAT or random graph k-coloring, very shortly before the threshold for the existence of solutions there occurs another phase transition called condensation [Krzakala et al., PNAS 2007]. The existence of this phase transition seems to be intimately related to the difficulty of proving precise results on, e. g., the k-colorability threshold as well as to the performance of message passing algorithms. In random graph k-coloring, there is a precise conjecture as to the location of the condensation phase transition in terms of a distributional fixed point problem. In this paper we prove this conjecture, provided that k exceeds a certain constant k0.
The condensation phase transition and the number of solutions in random graph and hypergraph models
(2016)
This PhD thesis deals with two different types of questions on random graph and random hypergraph structures.
One part is about the proof of the existence and the determination of the location of the condensation phase transition. This transition will be investigated for large values of $k$ in the problem of $k$-colouring random graphs and in the problem of 2-colouring random $k$-uniform hypergraphs, where in the latter case we investigate a more general model with finite inverse temperature.
The other part deals with establishing the limiting distribution of the number of solutions in these structures in density regimes below the condensation threshold.
We study the approximability of the following NP-complete (in their feasibility recognition forms) number theoretic optimization problems: 1. Given n numbers a1 ; : : : ; an 2 Z, find a minimum gcd set for a1 ; : : : ; an , i.e., a subset S fa1 ; : : : ; ang with minimum cardinality satisfying gcd(S) = gcd(a1 ; : : : ; an ). 2. Given n numbers a1 ; : : : ; an 2 Z, find a 1-minimum gcd multiplier for a1 ; : : : ; an , i.e., a vector x 2 Z n with minimum max 1in jx i j satisfying P n...
The Calderón problem with finitely many unknowns is equivalent to convex semidefinite optimization
(2023)
We consider the inverse boundary value problem of determining a coefficient function in an elliptic partial differential equation from knowledge of the associated Neumann-Dirichlet-operator. The unknown coefficient function is assumed to be piecewise constant with respect to a given pixel partition, and upper and lower bounds are assumed to be known a-priori.
We will show that this Calderón problem with finitely many unknowns can be equivalently formulated as a minimization problem for a linear cost functional with a convex non-linear semidefinite constraint. We also prove error estimates for noisy data, and extend the result to the practically relevant case of finitely many measurements, where the coefficient is to be reconstructed from a finite-dimensional Galerkin projection of the Neumann-Dirichlet-operator.
Our result is based on previous works on Loewner monotonicity and convexity of the Neumann-Dirichlet-operator, and the technique of localized potentials. It connects the emerging fields of inverse coefficient problems and semidefinite optimization.
Motivated by the question of the impact of selective advantage in populations with skewed reproduction mechanisms, we study a Moran model with selection. We assume that there are two types of individuals, where the reproductive success of one type is larger than the other. The higher reproductive success may stem from either more frequent reproduction, or from larger numbers of offspring, and is encoded in a measure Λ for each of the two types. Λ-reproduction here means that a whole fraction of the population is replaced at a reproductive event. Our approach consists of constructing a Λ-asymmetric Moran model in which individuals of the two populations compete, rather than considering a Moran model for each population. Provided the measure are ordered stochastically, we can couple them. This allows us to construct the central object of this paper, the Λ−asymmetric ancestral selection graph, leading to a pathwise duality of the forward in time Λ-asymmetric Moran model with its ancestral process. We apply the ancestral selection graph in order to obtain scaling limits of the forward and backward processes, and note that the frequency process converges to the solution of an SDE with discontinuous paths. Finally, we derive a Griffiths representation for the generator of the SDE and use it to find a semi-explicit formula for the probability of fixation of the less beneficial of the two types.
Motivated by the question of the impact of selective advantage in populations with skewed reproduction mechanims, we study a Moran model with selection. We assume that there are two types of individuals, where the reproductive success of one type is larger than the other. The higher reproductive success may stem from either more frequent reproduction, or from larger numbers of offspring, and is encoded in a measure Λ for each of the two types. Our approach consists of constructing a Λ-asymmetric Moran model in which individuals of the two populations compete, rather than considering a Moran model for each population. Under certain conditions, that we call the "partial order of adaptation", we can couple these measures. This allows us to construct the central object of this paper, the Λ−asymmetric ancestral selection graph, leading to a pathwise duality of the forward in time Λ-asymmetric Moran model with its ancestral process. Interestingly, the construction also provides a connection to the theory of optimal transport. We apply the ancestral selection graph in order to obtain scaling limits of the forward and backward processes, and note that the frequency process converges to the solution of an SDE with discontinous paths. Finally, we derive a Griffiths representation for the generator of the SDE and use it to find a semi-explicit formula for the probability of fixation of the less beneficial of the two types.
Motivated by the question of the impact of selective advantage in populations with skewed reproduction mechanims, we study a Moran model with selection. We assume that there are two types of individuals, where the reproductive success of one type is larger than the other. The higher reproductive success may stem from either more frequent reproduction, or from larger numbers of offspring, and is encoded in a measure Λ for each of the two types. Our approach consists of constructing a Λ-asymmetric Moran model in which individuals of the two populations compete, rather than considering a Moran model for each population. Under certain conditions, that we call the ``partial order of adaptation'', we can couple these measures. This allows us to construct the central object of this paper, the Λ−asymmetric ancestral selection graph, leading to a pathwise duality of the forward in time Λ-asymmetric Moran model with its ancestral process. Interestingly, the construction also provides a connection to the theory of optimal transport. We apply the ancestral selection graph in order to obtain scaling limits of the forward and backward processes, and note that the frequency process converges to the solution of an SDE with discontinous paths. Finally, we derive a Griffiths representation for the generator of the SDE and use it to find a semi-explicit formula for the probability of fixation of the less beneficial of the two types.
Given an Abelian semi-group (A, +), an A-valued curvature measure is a valuation with values in A-valued measures. If A = R, complete classifications of Hausdorff-continuous translation-invariant SO(n)-invariant valuations and curvature measures were obtained by Hadwiger and Schneider, respectively. More recently, characterisation results have been achieved for curvature measures with values in A = Sym^p R^n and A = Sym^2 Λ^q R^n for p, q ≥ 1 with varying assumptions as for their invariance properties.
In the present work, we classify all smooth translation-invariant SO(n)-covariant curvature measures with values in any SO(n)-representation in terms of certain differential forms on the sphere bundle S R^n and describe their behaviour under the globalisation map. The latter result also yields a similar classification of all continuous SO(n)-module-valued SO(n)-covariant valuations. Furthermore, a decomposition of the space of smooth translation-
invariant scalar-valued curvature measures as an SO(n)-module is obtained. As a corollary, we construct explicit bases of continuous translation-invariant scalar-valued valuations and smooth translation-invariant scalar-valued curvature measures.
To crack the neural code and read out the information neural spikes convey, it is essential to understand how the information is coded and how much of it is available for decoding. To this end, it is indispensable to derive from first principles a minimal set of spike features containing the complete information content of a neuron. Here we present such a complete set of coding features. We show that temporal pairwise spike correlations fully determine the information conveyed by a single spiking neuron with finite temporal memory and stationary spike statistics. We reveal that interspike interval temporal correlations, which are often neglected, can significantly change the total information. Our findings provide a conceptual link between numerous disparate observations and recommend shifting the focus of future studies from addressing firing rates to addressing pairwise spike correlation functions as the primary determinants of neural information.
Geometry is part of the core of mathematics. It has been relevant ever since people have interacted with nature and its phenomena. Geometry’s relevance to the teaching and learning of mathematics can be emphasized, too. Nevertheless, a current potential shift in the topics of mathematics education to the detriment of geometry might be emerging. That is, other topics related to mathematics are seeming to grow in importance in comparison to geometry. Despite this, or perhaps because of it, geometry is an important component of current research in mathematics education. In the literature review, we elaborate relevant foci on the basis of current conference proceedings. By means of about 50 journal articles, five main topics are elaborated in more detail: geometric thinking and practices, geometric contents and topics, teacher education in geometry, argumentation and proof in geometry, as well as the use of digital tools for the teaching and learning of geometry. Conclusions and limitations for current and future research on geometry are formulated at the end of the article. In particular, the transfer to the practices of geometric teaching is explored on the basis of the elaborated research findings in order to combine both aspects of the teaching and learning of geometry.
Dynamical systems driven by Gaussian noises have been considered extensively in modeling, simulation, and theory. However, complex systems in engineering and science are often subject to non-Gaussian fluctuations or uncertainties. A coupled dynamical system under a class of Lévy noises is considered. After discussing cocycle property, stationary orbits, and random attractors, a synchronization phenomenon is shown to occur, when the drift terms of the coupled system satisfy certain dissipativity and integrability conditions. The synchronization result implies that coupled dynamical systems share a dynamical feature in some asymptotic sense.
In the qualitative analysis of solutions of partial differential equations, many interesting questions are related to the shape of solutions. In particular, the symmetries of a given solution are of interest. One of the first more general results in this direction was given in 1979 by Gidas, Ni and Nirenberg... The main tool in proving this symmetry and monotonicity result is the moving plane method. This method, which goes back to Alexandrov’s work on constant mean curvature surfaces in 1962, was introduced in 1971 by Serrin in the context of partial differential equations to analyze an overdetermined problem...
In recent years using symmetry has proven to be a very useful tool to simplify computations in semidefinite programming. This dissertation examines the possibilities of exploiting discrete symmetries in three contexts: In SDP-based relaxations for polynomial optimization, in testing positivity of symmetric polynomials, and combinatorial optimization. In these contexts the thesis provides new ways for exploiting symmetries and thus deeper insight in the paradigms behind the techniques and studies a concrete combinatorial optimization question.
We show that the non-Archimedean skeleton of the d-th symmetric power of a smooth projective algebraic curve X is naturally isomorphic to the d-th symmetric power of the tropical curve that arises as the non-Archimedean skeleton of X. The retraction to the skeleton is precisely the specialization map for divisors. Moreover, we show that the process of tropicalization naturally commutes with the diagonal morphisms and the Abel-Jacobi map and we exhibit a faithful tropicalization for symmetric powers of curves. Finally, we prove a version of the Bieri-Groves Theorem that allows us, under certain tropical genericity assumptions, to deduce a new tropical Riemann-Roch-Theorem for the tropicalization of linear systems.
Forschungsbedarf. Wenn man die mathematische Entwicklung in der frühen Kindheit als einen ganzheitlichen Prozess betrachtet, so gilt es, die Forschungsperspektive für unterschiedliche Lernorte zu öffnen. Einer dieser Lernorte ist die Familie, in welchem mathematische Bildungsprozesse der frühen Kindheit entscheidend von elterlichem Support beeinflusst werden. Bei der Untersuchung dieses Lernortes ist in der deutschsprachigen Mathematik-didaktik bisher eine Beschränkung auf Interviewstudien zu beobachten, in denen die Vorstellungen und Überzeugungen der Eltern zum Mathematiklernen und zur Mathematik rekonstruiert werden. Beobachtungsstudien, welche unabhängig von der Perspektive der Eltern Realisierungen von Support untersuchen, liegen bisher nicht vor. Die vorliegende Dissertation liefert einen Beitrag zur Bearbeitung dieses spezifischen Forschungsbedarfs in der deutschsprachigen Mathematikdidaktik.
Die Studie. Die durchgeführte, längsschnittlich angelegte Videostudie, die der Dissertation zugrunde liegt, ist der rekonstruktiven Sozialforschung und im Speziellen der Interpretativen Forschung in der Mathematikdidaktik zuzuordnen. Es wurden zehn Vorschulkinder und ihre Mütter ein Jahr lang in offenen Vorlese- und Spielsituationen begleitet. Als Grundlage der Analyse dienen Transkripte von ausgewählten Szenen. Die Transkriptanalyse ist durchgehend am Prinzip der Komparation orientiert und erfolgt zweischrittig: In einer Interaktionsanalyse wird zunächst die interaktionale Entwicklung des mathematischen Themas in der jeweiligen Szenen nachgezeichnet; darauf aufbauend wird die Diskursszene in einer Support-Fokussierung im Hinblick auf das hergestellte Support-System ausgedeutet.
Der Forschungsgegenstand. Gemäß der Verortung in der Interpretativen Forschung wird der Forschungsgegenstand aus sozialkonstruktivistisch-interaktionistischer Perspektive betrachtet. Demzufolge ist der Support in mathematischen Mutter-Kind-Diskursen kein einseitiges Helfen der Mutter, sondern ein von Mutter und Kind gemeinsam in der Interaktion hergestelltes Support-System.
Ergebnisse. Der Support in mathematischen Mutter-Kind-Diskursen wird in der vorliegenden Dissertation als ein Mathematics Acquisition Support System (MASS) beschrieben und aus zwei unterschiedlichen Perspektiven beleuchtet.
Die erste Perspektive ist eine allgemein sozialisationstheoretische und zeigt, dass das MASS in mathematischen Mutter-Kind-Diskursen auf unterschiedliche übergeordnete Aufgaben ausgerichtet sein kann: auf ein Mitmachen, auf einen Entwicklungsfortschritt oder auf eine freie Erkundung des Kindes. Diese Typisierung von Support-Jobs verdeutlicht, dass sich Support-Systeme gegenstandsspezifisch unterscheiden. Während das Discourse Acquisition Support System (DASS), welches im Hinblick auf die Entwicklung von Erzählkompetenz beschrieben
wurde (vgl. Hausendorf und Quasthoff 2005), ausschließlich auf eine übergeordnete Aufgabe ausgerichtet ist, kann das MASS über die Arbeit an unterschiedlichen Support-Jobs hergestellt werden. So sind Vorschulkinder im familialen Kontext in mathematische Diskurse eingebunden, die an unterschiedlichen Support-Jobs ausgerichtet sind. Dieses Ergebnis gewinnt dadurch zusätzliche Bedeutung, dass die Support-Jobs in den mathematischen Mutter-Kind-Diskursen als charakterisierend für die jeweiligen Mutter-Kind-Paare rekonstruiert werden konnten. Sowohl in Komparationen über die Zeit als auch in solchen über das Material etablieren und bearbeiten Mutter und Kind mit einer gewissen Stabilität einen spezifischen Support-Job. Die Biographie von Vorschulkindern als Mathematiklerner wird in der Familie also auf spezifische Weise geprägt.
Die zweite Perspektive ist eine genuin mathematikdidaktische und gliedert sich in zwei Teilperspektiven auf. Eine fokussiert auf das Mathematiklernen, die andere auf die Mathematik. In der Perspektive des Mathematiklernens werden Realisierungen von alltagspädagogischen Konzepten typisiert. Dabei zeigt sich, wie unterschiedlich Vorschulkinder als Mathematiklerner in Support-Systeme eingebunden werden: als Sachkundiger, als Wissender und als Denker (vgl. Olson und Bruner 1996). Anhand dieser gebildeten Typen wird das Forschungsfeld dahingehend strukturiert, welchen Konzepten vom Mathematiklernen und -lehren Vorschulkinder im familialen Kontext begegnen. In der Perspektive der Mathematik wird schließlich erarbeitet, wie Vorschulkinder und ihre Mütter in und mit ihrem je spezifischen MASS die Mathematik in den Sinnbereich ihres Alltags einbinden (vgl. Bachmair 2007): als Hilfsmittel, als Lernstoff und als Beschreibungs- und Denkmittel. Damit sind drei Typen mathematischer Sozialisation im familialen Kontext beschrieben.
Insgesamt macht die Verbindung aus einer allgemein sozialisationstheoretischen und einer mathematikdidaktischen Perspektive umfassend beschreibbar, wie Kinder im familialen Kontext in Support-Systeme zum Mathematiklernen eingebunden sind. Die Bildung unterschiedlicher Typen konnte sowohl im Hinblick auf die allgemeine Fokussierung des MASS als auch im Hinblick auf die damit realisierten Konzepte von Mathematiklernen und Mathematik vor-genommen werden. Damit ist der Lernort der Familie für die frühe mathematische Bildung und den Forschungsgegenstand des Supports strukturiert und anhand von Fallstudien beschrieben. Dieses Forschungsergebnis ist eine neue Einsicht über den bisher nur wenig erforschten Lernort der Familie und gleichzeitig eine Herausforderung für den Mathematikunterricht der Grundschule. Denn im Sinne einer Passung zwischen Familie und Schule gilt es, an die jeweiligen Interaktionserfahrungen der Kinder anzuknüpfen.
In an earlier paper we proposed a recursive model for epidemics; in the present paper we generalize this model to include the asymptomatic or unrecorded symptomatic people, which we call dark people (dark sector). We call this the SEPARd-model. A delay differential equation version of the model is added; it allows a better comparison to other models. We carry this out by a comparison with the classical SIR model and indicate why we believe that the SEPARd model may work better for Covid-19 than other approaches.
In the second part of the paper we explain how to deal with the data provided by the JHU, in particular we explain how to derive central model parameters from the data. Other parameters, like the size of the dark sector, are less accessible and have to be estimated more roughly, at best by results of representative serological studies which are accessible, however, only for a few countries. We start our country studies with Switzerland where such data are available. Then we apply the model to a collection of other countries, three European ones (Germany, France, Sweden), the three most stricken countries from three other continents (USA, Brazil, India). Finally we show that even the aggregated world data can be well represented by our approach.
At the end of the paper we discuss the use of the model. Perhaps the most striking application is that it allows a quantitative analysis of the influence of the time until people are sent to quarantine or hospital. This suggests that imposing means to shorten this time is a powerful tool to flatten the curves.
Strong convergence rates for numerical approximations of stochastic partial differential equations
(2018)
In this thesis and in the research articles which this thesis consists of, respectively, we focus on strong convergence rates for numerical approximations of stochastic partial differential equations (SPDEs). In Part I of this thesis, i.e., Chapter 2 and Chapter 3, we study higher order numerical schemes for SPDEs with multiplicative trace class noise based on suitable Taylor expansions of the Lipschitz continuous coefficients of the SPDEs under consideration. More precisely, Chapter 2 proves strong convergence rates for a linear implicit Euler-Milstein scheme for SPDEs and is based on an unpublished manuscript written by the author of this thesis. This chapter extends an earlier result1 by slightly lowering the assumptions posed on the diffusion coefficient and a different approximation of the semigroup. In Chapter 3 we introduce an exponential Wagner-Platen type numerical scheme for SPDEs and prove that this numerical approximation method converges in the strong sense with oder up to 3/2−. Moreover, we illustrate how the (mixed) iterated stochastic-deterministic integrals, that are part of our numerical scheme, can be simulated exactly under suitable assumptions.
The second part of this thesis, i.e. Chapter 4 and Chapter 5, is devoted to strong convergence rates for numerical approximations of SPDEs with superlinearly growing nonlinearities driven by additive space-time white noise. More specifically, in Chapter 4, we prove strong convergence with rate in the time variable for a class of nonlinearity-truncated numerical approximation schemes for SPDEs and provide examples that fit into our abstract setting like stochastic Allen-Cahn equations. Finally, in Chapter 5, we extend this result with spatial approximations and establish strong convergence rates for a class of full-discrete nonlinearity truncated numerical approximation schemes for SPDEs. Moreover, we apply our strong convergence result to stochastic Allen-Cahn equations and provide lower and upper bounds which show that our strong convergence result can, in general, not essentially be improved.
Die in Englisch verfasste Dissertation, die unter der Betreuung von Herrn Prof. Dr. H. F. de Groote, Fachbereich Mathematik, entstand, ist der Mathematischen Physik zuzuordnen. Sie behandelt Stonesche Spektren von Neumannscher Algebren, observable Funktionen sowie einige Anwendungen in der Physik. Das abschließende Kapitel liefert eine Verallgemeinerung des Kochen-Specker-Theorems. Stonesche Spektren und observable Funktionen wurden von de Groote eingeführt. Das Stonesche Spektrum einer von Neumann-Algebra ist eine Verallgemeinerung des Gelfand-Spektrums, die observablen Funktionen verallgemeinern die Gelfand-Transformierten. Da de Grootes Ergebnisse zum großen Teil unveröffentlicht sind, folgt nach dem Einleitungskapitel im zweiten Kapitel eine Übersichtsdarstellung dieser Ergebnisse. Das dritte Kapitel behandelt die Stoneschen Spektren endlicher von Neumann-Algebren. Für Algebren vom Typ In wird eine vollständige Charakterisierung des Stoneschen Spektrums entwickelt. Zu Typ-II1-Algebren werden einige Resultate vorgestellt. Das vierte Kapitel liefert. einige einfache Anwendungen des Formalismus auf die Physik. Das fünfte Kapitel gibt erstmals einen funktionalanalytischen Beweis des Kochen-Specker-Theorems und liefert die Verallgemeinerung dieses Satzes, wobei die Situation für alle von Neumann-Algebren geklärt wird.
Die vorliegende Dissertation analysiert Großinvestorhandelsstrategien in illiquiden Finanzmärkten. Ein Großinvestor beeinflusst die Preise der Wertpapiere, die er handelt, so dass der daraus resultierende Feedbackeffekt berücksichtigt werden muss. Der Preisprozess wird durch eine Familie von cadlag Semimartingalen modelliert, die in dem zusätzlichen Parameter stetig differenzierbar ist. Ziel ist es, eine möglichst allgemeine Strategiemenge zu bestimmen, für die eine Vermögensdynamik definiert werden kann. Es sind dies vorhersehbare Prozesse von wohldefinierter quadratischer Variation entlang Stoppzeiten. Sie erweisen sich als laglad. Die Vermögensdynamikzerlegung zeigt, dass bei stetigen adaptierten Strategien von endlicher Variation (zahme Strategien) die quadratischen Transaktionskostenterme verschwinden und der Gewinnprozess nur noch aus einem nichtlinearen stochastischen Integral besteht. Es wird gezeigt, unter welchen Bedingungen gewisse Approximationen vorhersehbarer laglad Strategien durch adaptierte stetige Strategien von endlicher Variation möglich sind. Im Fall, dass der Approximationsfehler für die Risikoeinstellung des Großinvestors erträglich ist, kann er seine Investmentziele durch Verwendung dieser zahmen Strategien, Liquiditätskosten vermeidend, erreichen. In diesem Fall ist der Gewinnprozess durch das nicht-lineare stochastische Integral gegeben.
Die vorliegende Arbeit untersucht ausgewählte Eigenschaften von Preferential Attachment-Graphen. Darunter verstehen wir eine Klasse komplexer zufälliger Graphen, die mit einer vorgegebenen Konfiguration gestartet werden und anschließend mit jedem Zeitschritt um eine Ecke und m Kanten wachsen. Die Wachstumsregeln sind so gestaltet, dass eine neue Ecke ihre Kanten bevorzugt an Ecken sendet, die bereits mit vielen anderen Ecken verbunden sind, woraus sich die Bezeichnung Preferential Attachment (PA) ableitet. Die Arbeit stellt zunächst heuristisch die Eigenschaft der Skalenfreiheit von PA-Modellen vor und bespricht anschließend einen Beweis zu dieser These. Weiter betrachten wir den Durchmesser von PA-Graphen und untersuchen das Verhalten bei Anwachsen des Graphen. Wir erkennen, dass der Durchmesser bei wachsendem Graphen deutlich langsamer wächst, was wir als Small World-Phänomen bezeichnen. Die zentralen Aussagen und Beweise orientieren sich an den Arbeiten von Remco van der Hofstad, der die bekannten PA-Modelle um einen Parameter erweitert hat. Damit ist es möglich, sowohl logarithmische als auch doppelt-logarithmische Schranken für den Durchmesser zu erhalten.
Im Rahmen dieser Arbeit möchte ich nun aufzeigen, dass ein Projekt zu Glücksspielen eine „reichhaltige Lernsituation“ darstellen kann, in der die Schüler Raum, Gelegenheit und Anlass haben, Grunderfahrungen mit zufälligen Vorgängen zu machen, darauf aufbauend wichtige Begriffe zu bilden und schließlich wesentliche stochastische Zusammenhänge zu erkennen. Der Projektmethode entsprechend lag ein Großteil meiner Tätigkeiten im Vorfeld in vorbereitenden und planenden Tätigkeiten. Während der Projektdurchführung trat ich als beratender „Hintergrundlehrer“ auf. Die Schüler arbeiteten weitgehend selbstständig. Der Schwerpunkt dieser Arbeit liegt daher auf meinen didaktischen und methodischen Überlegungen zur Vorbereitung des Projekts.
It is commonly agreed that cortical information processing is based on the electric discharges (spikes') of nerve cells. Evidence is accumulating which suggests that the temporal interaction among a large number of neurons can take place with high precision, indicating that the efficiency of cortical processing may depend crucially on the precise spike timing of many cells. This work focuses on two temporal properties of parallel spike trains that attracted growing interest in the recent years: In the first place, specific delays (phase offsets') between the firing times of two spike trains are investigated. In particular, it is studied whether small phase offsets can be identified with confidence between two spike trains that have the tendency to fire almost simultaneously. Second, the temporal relations between multiple spike trains are investigated on the basis of such small offsets between pairs of processes. Since the analysis of all delays among the firing activity of n neurons is extremely complex, a method is required with which this highly dimensional information can be collapsed in a straightforward manner such that the temporal interaction among a large number of neurons can be represented consistently in a single temporal map. Finally, a stochastic model is presented that provides a framework to integrate and explain the observed temporal relations that result from the previous analyses.
Motivation: The topic of this paper is the estimation of alignments and mutation rates based on stochastic sequence-evolution models that allow insertions and deletions of subsequences ("fragments") and not just single bases. The model we propose is a variant of a model introduced by Thorne, Kishino, and Felsenstein (1992). The computational tractability of the model depends on certain restrictions in the insertion/deletion process; possible effects we discuss.
Results: The process of fragment insertion and deletion in the sequence-evolution model induces a hidden Markov structure at the level of alignments and thus makes possible efficient statistical alignment algorithms. As an example we apply a sampling procedure to assess the variability in alignment and mutation parameter estimates for HVR1 sequences of human and orangutan, improving results of previous work. Simulation studies give evidence that estimation methods based on the proposed model also give satisfactory results when applied to data for which the restrictions in the insertion/deletion process do not hold.
Availability: The source code of the software for sampling alignments and mutation rates for a pair of DNA sequences according to the fragment insertion and deletion model is freely available from www.math.uni-frankfurt.de/~stoch/software/mcmcsalut under the terms of the GNU public license (GPL, 2000).
Sprung-Diffusions-Modelle zur Bewertung Europäischer Optionen, BacIn dieser Arbeit wurden die Europäische Optionen in den Sprung-Diffusions-Modellen von Merton und dem Modell von Kou bewertet. So stellen die geschlossenen Lösungen für das Merton-Modell als Anwendung der Black-Scholes-Formel eine einfache Möglichkeit zur Berechnung eines Optionspreises dar. Die Verwendung einer analytischen Lösung für Merton ist allerdings nur eingeschränkt, d.h. für zwei spezielle Sprungverteilungsfunktionen (Plötzlicher Ruin und die Lognormalverteilung) möglich. Das Kou-Modell hingegen, hat eine geschlossene Lösung für Doppel-Exponentialverteilte Sprünge. Eine flexible Lösungsmöglichkeit zur Bestimmung eines Optionspreises ist die Verwendung des Monte-Carlo-Verfahrens für die Simulation der Kursbewegung mit zugrunde liegendem Sprung-Diffusions-Modell. In diesem Fall ist das Monte-Carlo-Verfahren zur Ermittlung des Optionspreises nur einmal anzuwenden. Dieses Verfahren konvergiert mit einer Konvergenzrate von 1/2.
Wie alle anderen Modelle, die auf Lévy Prozessen basieren, lässt das Kou-Modell eine empirische Beobachtung vermissen, nämlich die mögliche Abhängigkeit zwischen Renditen der Underlyings (der sogenannte "volatility clustering affect"), weil das Modell unabhängige Inkremente unterstellt. Eine Möglichkeit die Abhängigkeit mit einzubeziehen, wäre die Nutzung anderer Punktprozesse Ñ(t) mit abhängigen Inkrementen anstelle des Poisson-Prozesses N(t). Es muss natürlich die Unabhängikeit zwischen der Brownschen Bewegung, den Sprunghöhen und ~N(t) beibehalten werden. Das so modifizierte Modell hat keine unabhängigen Inkremente mehr, ist aber einfach die geschlossene Lösungsformel für Call- und Put-Optionen zu erhalten. Andererseits scheint es schwer analytische Lösungen für Pfadabhängige Optionen durch Nutzung von Ñ(t) anstelle von N(t) zu erhalten.
We study continuous dually epi-translation invariant valuations on certain cones of convex functions containing the space of finite-valued convex functions. Using the homogeneous decomposition of this space, we associate a certain distribution to any homogeneous valuation similar to the Goodey-Weil embedding for translation invariant valuations on convex bodies. The support of these distributions induces a corresponding notion of support for the underlying valuations, which imposes certain restrictions on these functionals, and we study the relation between the support of a valuation and its domain. This gives a partial answer to the question which dually epi-translation invariant valuations on finite-valued convex functions can be extended to larger cones of convex functions.
We also study topological properties of spaces of valuations with support contained in a fixed compact set. As an application of these results, we introduce the class of smooth valuations on convex functions and show that the subspace of smooth dually epi-translation invariant valuations is dense in the space of continuous dually epi-translation invariant valuation on finite-valued convex functions. These smooth valuations are given by integrating certain smooth differential forms over the graph of the differential of a convex function. We use this construction to give a characterization of a dense subspace of all continuous valuations on finite-valued convex functions that are rotation invariant as well as dually epi-translation invariant.
Using results from Alesker's theory of smooth valuations on convex bodies, we also show that any smooth valuation can be written as a convergent sum of mixed Hessian valuations. In particular, mixed Hessian valuations span a dense subspace, which is a version of McMullen’s conjecture for valuations on convex functions.
We study the asymptotics of Dirichlet eigenvalues and eigenfunctions of the fractional Laplacian (−Δ)s in bounded open Lipschitz sets in the small order limit s→0+. While it is easy to see that all eigenvalues converge to 1 as s→0+, we show that the first order correction in these asymptotics is given by the eigenvalues of the logarithmic Laplacian operator, i.e., the singular integral operator with Fourier symbol 2log|ξ|. By this we generalize a result of Chen and the third author which was restricted to the principal eigenvalue. Moreover, we show that L2-normalized Dirichlet eigenfunctions of (−Δ)s corresponding to the k-th eigenvalue are uniformly bounded and converge to the set of L2-normalized eigenfunctions of the logarithmic Laplacian. In order to derive these spectral asymptotics, we establish new uniform regularity and boundary decay estimates for Dirichlet eigenfunctions for the fractional Laplacian. As a byproduct, we also obtain corresponding regularity properties of eigenfunctions of the logarithmic Laplacian.
Let G be a group of prime order q with generator g. We study hardcore subsets H is include in G of the discrete logarithm (DL) log g in the model of generic algorithms. In this model we count group operations such as multiplication, division while computations with non-group data are for free. It is known from Nechaev (1994) and Shoup (1997) that generic DL-algorithms for the entire group G must perform p2q generic steps. We show that DL-algorithms for small subsets H is include in G require m/ 2 + o(m) generic steps for almost all H of size #H = m with m <= sqrt(q). Conversely, m/2 + 1 generic steps are su±cient for all H is include in G of even size m. Our main result justifies to generate secret DL-keys from seeds that are only 1/2 * log2 q bits long.
In this short note, we investigate simultaneous recovery inverse problems for semilinear elliptic equations with partial data. The main technique is based on higher order linearization and monotonicity approaches. With these methods at hand, we can determine the diffusion, cavity and coefficients simultaneously by knowing the corresponding localized Dirichlet-Neumann operators.
We present an efficient variant of LLL-reduction of lattice bases in the sense of Lenstra, Lenstra, Lov´asz [LLL82]. We organize LLL-reduction in segments of size k. Local LLL-reduction of segments is done using local coordinates of dimension 2k. Strong segment LLL-reduction yields bases of the same quality as LLL-reduction but the reduction is n-times faster for lattices of dimension n. We extend segment LLL-reduction to iterated subsegments. The resulting reduction algorithm runs in O(n3 log n) arithmetic steps for integer lattices of dimension n with basis vectors of length 2O(n), compared to O(n5) steps for LLL-reduction.
Assuming a cryptographically strong cyclic group G of prime order q and a random hash function H, we show that ElGamal encryption with an added Schnorr signature is secure against the adaptive chosen ciphertext attack, in which an attacker can freely use a decryption oracle except for the target ciphertext. We also prove security against the novel one-more-decyption attack. Our security proofs are in a new model, corresponding to a combination of two previously introduced models, the Random Oracle model and the Generic model. The security extends to the distributed threshold version of the scheme. Moreover, we propose a very practical scheme for private information retrieval that is based on blind decryption of ElGamal ciphertexts.
We introduce novel security proofs that use combinatorial counting arguments rather than reductions to the discrete logarithm or to the Diffie-Hellman problem. Our security results are sharp and clean with no polynomial reduction times involved. We consider a combination of the random oracle model and the generic model. This corresponds to assuming an ideal hash function H given by an oracle and an ideal group of prime order q, where the binary encoding of the group elements is useless for cryptographic attacks In this model, we first show that Schnorr signatures are secure against the one-more signature forgery : A generic adversary performing t generic steps including l sequential interactions with the signer cannot produce l+1 signatures with a better probability than (t 2)/q. We also characterize the different power of sequential and of parallel attacks. Secondly, we prove signed ElGamal encryption is secure against the adaptive chosen ciphertext attack, in which an attacker can arbitrarily use a decryption oracle except for the challenge ciphertext. Moreover, signed ElGamal encryption is secure against the one-more decryption attack: A generic adversary performing t generic steps including l interactions with the decryption oracle cannot distinguish the plaintexts of l + 1 ciphertexts from random strings with a probability exceeding (t 2)/q.
We present a novel parallel one-more signature forgery against blind Okamoto-Schnorr and blind Schnorr signatures in which an attacker interacts some times with a legitimate signer and produces from these interactions signatures. Security against the new attack requires that the following ROS-problem is intractable: find an overdetermined, solvable system of linear equations modulo with random inhomogenities (right sides). There is an inherent weakness in the security result of POINTCHEVAL AND STERN. Theorem 26 [PS00] does not cover attacks with 4 parallel interactions for elliptic curves of order 2200. That would require the intractability of the ROS-problem, a plausible but novel complexity assumption. Conversely, assuming the intractability of the ROS-problem, we show that Schnorr signatures are secure in the random oracle and generic group model against the one-more signature forgery.
Let G be a finite cyclic group with generator \alpha and with an encoding so that multiplication is computable in polynomial time. We study the security of bits of the discrete log x when given \exp_{\alpha}(x), assuming that the exponentiation function \exp_{\alpha}(x) = \alpha^x is one-way. We reduce he general problem to the case that G has odd order q. If G has odd order q the security of the least-significant bits of x and of the most significant bits of the rational number \frac{x}{q} \in [0,1) follows from the work of Peralta [P85] and Long and Wigderson [LW88]. We generalize these bits and study the security of consecutive shift bits lsb(2^{-i}x mod q) for i=k+1,...,k+j. When we restrict \exp_{\alpha} to arguments x such that some sequence of j consecutive shift bits of x is constant (i.e., not depending on x) we call it a 2^{-j}-fraction of \exp_{\alpha}. For groups of odd group order q we show that every two 2^{-j}-fractions of \exp_{\alpha} are equally one-way by a polynomial time transformation: Either they are all one-way or none of them. Our key theorem shows that arbitrary j consecutive shift bits of x are simultaneously secure when given \exp_{\alpha}(x) iff the 2^{-j}-fractions of \exp_{\alpha} are one-way. In particular this applies to the j least-significant bits of x and to the j most-significant bits of \frac{x}{q} \in [0,1). For one-way \exp_{\alpha} the individual bits of x are secure when given \exp_{\alpha}(x) by the method of Hastad, N\"aslund [HN98]. For groups of even order 2^{s}q we show that the j least-significant bits of \lfloor x/2^s\rfloor, as well as the j most-significant bits of \frac{x}{q} \in [0,1), are simultaneously secure iff the 2^{-j}-fractions of \exp_{\alpha'} are one-way for \alpha' := \alpha^{2^s}. We use and extend the models of generic algorithms of Nechaev (1994) and Shoup (1997). We determine the generic complexity of inverting fractions of \exp_{\alpha} for the case that \alpha has prime order q. As a consequence, arbitrary segments of (1-\varepsilon)\lg q consecutive shift bits of random x are for constant \varepsilon >0 simultaneously secure against generic attacks. Every generic algorithm using $t$ generic steps (group operations) for distinguishing bit strings of j consecutive shift bits of x from random bit strings has at most advantage O((\lg q) j\sqrt{t} (2^j/q)^{\frac14}).